JP2011069626A - 障害物検知装置 - Google Patents

障害物検知装置 Download PDF

Info

Publication number
JP2011069626A
JP2011069626A JP2009218405A JP2009218405A JP2011069626A JP 2011069626 A JP2011069626 A JP 2011069626A JP 2009218405 A JP2009218405 A JP 2009218405A JP 2009218405 A JP2009218405 A JP 2009218405A JP 2011069626 A JP2011069626 A JP 2011069626A
Authority
JP
Japan
Prior art keywords
obstacle
image
vehicle
unit
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009218405A
Other languages
English (en)
Other versions
JP5372680B2 (ja
Inventor
Taketo Ogata
健人 緒方
Kazutoshi Tsuchiya
和利 土屋
Hiroshi Sakamoto
博史 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2009218405A priority Critical patent/JP5372680B2/ja
Priority to US13/391,929 priority patent/US8705796B2/en
Priority to PCT/JP2010/062347 priority patent/WO2011036936A1/ja
Priority to EP10818613.1A priority patent/EP2482030B1/en
Publication of JP2011069626A publication Critical patent/JP2011069626A/ja
Application granted granted Critical
Publication of JP5372680B2 publication Critical patent/JP5372680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

【課題】障害物に明部と暗部が存在し、障害物の連続する輪郭が明部と暗部にまたがって存在する場合でも誤検知の少ない安定した障害物検知を可能とする障害物検知装置を提供する。
【解決手段】撮像画像から障害物検知のための処理画像を生成する処理画像生成部と、処理画像を複数の小領域に分割する小領域分割部と、複数の小領域と処理画像の画素値から小領域毎のエッジ閾値を設定するエッジ閾値設定部と、複数の小領域と処理画像から小領域毎の濃淡勾配値を算出し、算出された濃淡勾配値に対応する小領域のエッジ閾値を用いて、エッジ画像と勾配方向画像とを生成するエッジ抽出部と、エッジ画像内で設定されたマッチング判定領域内のエッジ画像及びエッジ画像に対応する勾配方向画像から障害物の有無を判定する障害物認識部と、を有し、小領域分割部は、自車外の照明状態に基づいて処理画像を複数の小領域に分割する障害物検知装置。
【選択図】 図1

Description

自車前方の障害物を検知する障害物検知装置に関する。
交通事故による死傷者数を低減するため、事故を未然に防ぐ予防安全システムの開発が進められている。予防安全システムは、事故の発生する可能性が高い状況下で作動するシステムであり、例えば、自車前方の障害物と衝突する可能性が生じたときには警報によって運転者に注意を促し、衝突が避けられない状況になったときには自動ブレーキによって乗員の被害を軽減するプリクラッシュ・セーフティ・システム等が実用化されている。
上記システムにおいて、車,歩行者等の障害物を検知する方法として、カメラで自車前方を撮像し、撮像した画像から障害物を検出する方法がある。この場合、障害物や背景の色の影響を受けにくくするため、撮像された画像から濃淡値の変化量を求め、変化量が所定の閾値以上である部分のみを抽出したエッジ画像を生成し、エッジ画像上の障害物の輪郭と、あらかじめ記憶している障害物の輪郭のテンプレートとの類似度を算出することによって障害物を検出する方法が用いられる。
例えば特許文献1には、自車前方の物体をレーザレーダにより検出し、レーザレーダによって検出した物体を含む画像領域の濃淡値のコントラストを改善し、エッジを抽出する方法が記載されている。この方法によれば、障害物がトンネル内,日陰などの暗い場所に存在し、障害物と背景との濃淡値の変化が小さい場合であっても、その物体を含む画像領域のコントラストを改善するため濃淡値の変化が大きくなり、エッジを抽出することができる。
特開2007−96510号公報
しかしながら、自車がヘッドライトを点灯しており歩行者等の障害物の一部に光が当たっている場合や、逆光時に路面が反射して足元だけが明るい場合など、障害物の連続する輪郭が明部と暗部にまたがって存在する場合には、障害物を含む画像領域でコントラストを改善しても、暗部のコントラストは改善されず、エッジが抽出できない。その結果、障害物の輪郭のうち、暗部に存在する輪郭が抽出できず、障害物が認識されない。
また、濃淡値の変化が小さい暗部で輪郭が抽出できるようにエッジの閾値をチューニングすると、明部でのわずかな変化に反応するようになり、誤検知が多発する。特に、自車正面に何も存在しない場所で本現象が発生すると、何もない場所で警報や自動ブレーキが発動し、自車の安全性を損ねてしまう。
本発明は上記問題に着目してなされたもので、その目的とするところは、障害物に明部と暗部が存在し、その障害物の連続する輪郭が明部と暗部にまたがって存在する場合においても、誤検知の少ない安定した障害物検知を可能とする障害物検知装置を提供することである。
上記課題を解決するために本発明の障害物検知装置は、自車外を撮像した画像を取り込む画像取得部と、取り込まれた画像から障害物を検知するための処理画像を生成する処理画像生成部と、処理画像を複数の小領域に分割する小領域分割部と、複数の小領域と処理画像の画素値から、小領域毎のエッジ閾値を設定するエッジ閾値設定部と、複数の小領域と処理画像から小領域毎の濃淡勾配値を算出し、算出された濃淡勾配値に対応する小領域の前記エッジ閾値を用いて、2値のエッジ画像と、エッジの方向の情報を有する勾配方向画像と、を生成するエッジ抽出部と、エッジ画像内で障害物を検知するためのマッチング判定領域を設定し、マッチング判定領域内のエッジ画像及びエッジ画像に対応する勾配方向画像から障害物の有無を判定する障害物認識部と、障害物の判定結果を出力する認識結果出力部と、を有し、小領域分割部は、自車外の照明状態に基づいて処理画像を複数の小領域に分割する構成とする。
また、自車外を撮像した画像を取り込む画像取得部と、取り込まれた画像から障害物を検知するための処理領域を設定する処理領域設定部と、処理領域を複数の小領域に分割する小領域分割部と、複数の小領域と画像取得部で取り込まれた画像の画素値から、小領域毎のエッジ閾値を設定するエッジ閾値設定部と、複数の小領域と画像取得部で取り込まれた画像から小領域毎の濃淡勾配値を算出し、算出された濃淡勾配値に対応する小領域のエッジ閾値を用いて、2値のエッジ画像と、エッジの方向の情報を有する勾配方向画像と、を生成するエッジ抽出部と、エッジ画像内で障害物を検知するためのマッチング判定領域を設定し、マッチング判定領域内のエッジ画像及びエッジ画像に対応する勾配方向画像から障害物の有無を判定する障害物認識部と、障害物の判定結果を出力する認識結果出力部と、を有し、小領域分割部は、自車外の照明状態に基づいて処理領域を複数の小領域に分割する構成とする。
障害物に明部と暗部が存在し、その障害物の連続する輪郭が明部と暗部にまたがって存在する場合においても、誤検知の少ない安定した障害物検知を可能とする障害物検知装置を提供できる。
本発明に係る障害物検知装置の第1の実施形態を示す図である。 本発明に係る障害物検知装置で用いられる画像とパラメータを表す模式図である。 本発明の処理画像生成部における処理の一例を示す図である。 本発明の小領域分割部の分割例を示す図である。 本発明の小領域分割部のフローチャートを示す図である。 本発明のエッジ抽出部で用いるソーベルフィルタの重みを示す図である。 本発明の障害物認識部における局所エッジ判定器の一例を示す図である。 本発明の障害物認識部における識別器を用いた歩行者判定の一例を示す図である。 本発明に係る障害物検知装置の第2の実施形態を示す図である。 本発明の障害物認識結果を説明するための模式図である。 本発明の障害物認識部の他の実施形態のフローチャートを示す図である。 本発明の障害物認識部におけるエッジのペア判定を説明する図である。 本発明の障害物認識結果を説明するための模式図である。 本発明の障害物検知装置を適用したプリクラッシュ・セーフティ・システムの動作フローチャートを示す図である。 本発明のプリクラッシュ・セーフティ・システムの危険度算出方法を示す図である。 本発明の障害物検知装置を適用する実施例を説明する図である。
以下、本発明に係る障害物検知装置の第一の実施形態について図面を用いて詳細に説明する。図1は、第一の実施の形態における車載用物体検知装置1000のブロック図である。
障害物検知装置である車載用物体検知装置1000は、自動車に搭載される撮像素子であるカメラ1010内、もしくは統合コントローラ内等に組み込まれ、カメラ1010で撮影した自車外の画像内から予め設定された歩行者等の障害物を検知するためのものであり、本実施の形態では、自車の前方を撮像した画像内から歩行者を検知するように構成されている。
車載用物体検知装置1000は、CPUやメモリ,I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。
車載用物体検知装置1000は、図1に示すように、画像取得部1011と、処理画像生成部1021と、小領域分割部1031と、エッジ閾値設定部1041と、エッジ抽出部1051と、障害物認識部1061と、認識結果出力部1071とを有し、さらに実施の形態によって、物体位置検出部1111と、自車ライト点灯検出部1211と、路面ペイント検出部1311とを有する。
画像取得部1011は、自車の前方を含む自車外を撮像可能な位置に取り付けられたカメラ1010から、自車外を撮影した画像を取り込み、画像IMGSRC[x][y]としてRAM上に書き込む。なお、画像IMGSRC[x][y]は2次元配列であり、x,yはそれぞれ画像の座標を示す。
処理画像生成部1021は、画像IMGSRC[x][y]内から障害物である歩行者を検出するための処理画像IMGPROC[x][y]を生成する。処理画像IMGPROC[x][y]は、画像IMGSRC[x][y]の一部を、所定の係数で拡大・縮小した画像である。処理の詳細については後述する。
小領域分割部1031は、処理画像IMGPROC[x][y]を、複数の小領域(SXR[r],SYR[r],EXR[r],EYR[r])に分割する。ここで、rは小領域のID番号である。分割の詳細については後述するが、自車外の照明状態に基づいて複数の小領域に分割する。
エッジ閾値設定部1041は、各小領域(SXR[r],SYR[r],EXR[r],EYR[r])内の処理画像IMGPROC[x][y]の画素値から、小領域毎のエッジ閾値THR[r]を決定する。閾値の設定の詳細については後述する。
エッジ抽出部1051は、処理画像IMGPROC[x][y]の各小領域内で濃淡勾配値を算出し、対応する小領域のエッジ閾値THR[r]を用いて、2値のエッジ画像EDGE[x][y]、およびエッジの方向の情報を持つ、勾配方向画像DIRC[x][y]を生成する。処理の詳細は後述する。
障害物認識部1061は、エッジ画像EDGE[x][y]内に障害物判定(例えば歩行者判定)を行うマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])を設定し、マッチング判定領域内のエッジ画像EDGE[x][y]、および対応する位置の領域内の勾配方向画像DIRC[x][y]を用いて、歩行者等の障害物の有無を判定する。ここで、gは複数の領域を設定した場合のID番号である。認識処理の詳細は後述する。
認識結果出力部1071は、障害物認識部1061の判定結果に基づいて、少なくとも認識した歩行者等の障害物との相対距離PYO[b]を含む障害物情報に応じて車両の機能を変化させる出力を行う。例えば、認識した歩行者の位置(相対距離PYO[b],横位置PXO[b],横幅WDO[b])を出力する。ここで、bは複数の物体を検知している場合のID番号である。これらの出力は、車載用物体検知装置1000から直接出力しても良いし、LAN(Local Area Network)を用いた通信を行っても良い。
物体位置検出部1111は、自車に搭載されたミリ波レーダやレーザレーダ等の自車周辺の物体を検出する障害物検出部であるレーダからの検出信号を取得して、自車前方に存在する障害物の位置を検出する。例えば図3に示すように、レーダから自車周辺の歩行者32等の障害物の位置(相対距離PY[b],横位置PX[b],横幅WD[b])を取得する。ここで、bは複数の物体を検知している場合のID番号である。これらの物体の位置情報は、レーダの信号を車載用物体検知装置1000に直接入力することによって取得しても良いし、レーダとLAN(Local Area Network)を用いた通信を行うことによって取得しても良い。物体位置検出部1111で検出した物体位置は、処理画像生成部1021や小領域分割部1031にて用いられる。
自車ライト点灯検出部1211は、自車がライトを点灯している状態か否かを判定し、ライトが点灯している状態ならば「1」、それ以外であれば「0」を出力する。ライトの点灯判定には、ライトスイッチの信号を直接入力することによって判定しても良いし、LAN(Local Area Network)を用いた通信を行うことによってライトスイッチの信号を取得し判定しても良い。また、画像取得部1011で取得した画像の濃淡を用いて判定しても良い。例えば、ライトを点灯している状態では、ライトが当たっている範囲内は明るく、範囲外は暗く写る。よって、例えばカメラ画像とカメラ幾何モデルを用いて、路面のライト照射範囲を画像上で算出し、ライト照射範囲の平均輝度値とライト照射範囲外の平均輝度値との差が、一定の閾値以上であるか否かを用いて判定することができる。自車ライト点灯検出部1211の出力は、小領域分割部1031にて用いられる。
路面ペイント検出部1311は、自車前方に存在する横断歩道等の路面ペイントを検出する。路面ペイントの検出には、LAN(Local Area Network)を用いた通信によってナビゲーションの情報を取得し、例えば信号のある交差点の情報を取得し、自車から横断歩道までの距離を取得する方法がある。また、画像取得部1011で取得した画像の濃淡を用いて判定しても良い。例えば、横断歩道等の路面ペイントは白いため、画像上で明るく撮像される。よって、路面ペイントは以下の手段により検出できる。まず、カメラ画像とカメラ幾何モデルを用いて、画像の路面領域を画像上で算出し、路面領域の輝度値が閾値TH_GBright以上である画素を抽出する。つぎに、抽出された画素を、隣接する画素同士でグルーピングし、グルーピングされた各領域のうち面積が閾値TH_GAreaである領域から、画像上で最も高い位置にある領域の画像上における上端のy座標Y_Gminを取得する。さらに、カメラ幾何を用いて、自車からY_Gminの位置までの距離を算出する。以上の処理によって、自車から路面ペイントまでの距離を算出することができる。路面ペイント検出部1311の出力は、小領域分割部1031にて用いられる。
図2は、以上の説明に用いた画像、および領域を、例を用いて図示したものである。図に示すとおり、画像IMGSRC[x][y]から処理画像IMGPROC[x][y]が生成され、処理画像IMGPROC[x][y]からエッジ画像EDGE[x][y]および勾配方向画像DIRC[x][y]が生成される。また、小領域(SXR[r],SYR[r],EXR[r],EYR[r])は処理画像IMGPROC[x][y]を分割するように設定され、マッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])はエッジ画像EDGE[x][y]および勾配方向画像DIRC[x][y]の中の、決められた大きさの領域である。
つぎに、図3を用いて、処理画像生成部1021における処理の内容について説明する。図3は、処理画像生成部の処理の例を示す。
処理画像生成部1021は、画像IMGSRC[x][y]内で歩行者検出処理を行う領域を選定し、その座標の範囲,x座標(横方向)の始点SXPおよび終点EXP,y座標上(縦方向)の始点SYPおよび終点EYPを求め、その領域から処理画像IMGPROC[x][y]を生成する。
処理画像生成部1021は、物体位置検出部1111を用いても、用いなくてもよい。まず、処理画像生成部1021において、物体位置検出部1111を用いる場合について説明する。図3(a)は、物体位置検出部1111を用いた場合における処理画像生成部の処理の例である。
物体位置検出部1111が検出した障害物の相対距離PY[b],横位置PX[b]および横幅WD[b]から、検出した障害物の画像上位置(x座標(横方向)の始点SXB,終点EXB,y座標(縦方向)の始点SYB,終点EYB)を算出する。なお、カメラ画像上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータを、カメラキャリブレーション等の方法によってあらかじめ算出しておき、物体の高さを、例えば180[cm]などあらかじめ仮定しておくことにより、画像上での位置は一意に決まる。
また、カメラ1010の取り付けの誤差やレーダとの通信遅れ等の理由により、物体位置検出部1111で検出した物体の画像上での位置と、カメラ画像に写っている同じ物体の画像上での位置の違いが生じる場合がある。よって、画像上での物体位置(SXB,EXB,SYB,EYB)に、補正を加えた物体位置(SXP,EXP,SYP,EYP)を算出する。補正は、領域を所定の量拡大したり、移動させたりする。例えば、SXB,EXB,SYB,EYBを上下左右に所定の画素拡張したりなどである。
さらに、補正した物体位置(SXP,EXP,SYP,EYP)で囲まれた画像IMGSRC[x][y]を切り出し、画像中の物体の大きさが所定の大きさになるように拡大・縮小することにより、処理画像IMGPROC[x][y]を生成する。本実施例では、カメラ幾何を用い、処理画像IMGPROC[x][y]内において、高さ180[cm],幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小する。
つまり、物体位置検出部1111を用いた場合、処理画像生成部1021は、画像取得部1011から取得した画像IMGSRC[x][y]と、物体位置検出部1111で検出した障害物の位置に基づいて、処理画像IMGPROC[x][y]を生成する。
なお、複数の領域に対して処理する場合、処理画像IMGPROC[x][y]をそれぞれ生成し、以下の分割境界設定部から障害物認識部までの処理をそれぞれの処理画像に対して個別に実施する。
つぎに、処理画像生成部1021において、物体位置検出部1111を用いずに処理画像IMGPROC[x][y]を生成する処理について説明する。
物体位置検出部1111を用いない場合の領域選定の方法は、例えば、領域の大きさを変化させながら画像全体を探索するように領域を設定する方法や、特定の位置,特定の大きさのみに限定して領域を設定する方法がある。特定の位置に限定する場合は、例えば自車速を用いて、自車がT秒後に進んでいる位置に限定する方法がある。
図3(b)は、自車速を用いて,自車が2.3秒後に進んでいる位置を探索する場合の例である。処理領域の位置、および大きさは、自車が2.3秒後に進んでいる位置までの相対距離における路面高さ(0cm)、および想定する歩行者の高さ(本実施例では180cm)から、カメラ幾何パラメータを用いて画像IMGSRC[x][y]上のy方向の範囲(SYP2,EYP2)を求める。なお、x方向の範囲(SXP2,EXP2)は、制限しなくてもよいし、自車の予測進路等により制限してもよい。
さらに、補正した物体位置(SXP,EXP,SYP,EYP)で囲まれた画像IMGSRC[x][y]を切り出し、画像中の物体の大きさが所定の大きさになるように拡大・縮小することにより、処理画像IMGPROC[x][y]を生成する。本実施例では、カメラ幾何を用い、処理画像IMGPROC[x][y]内において、高さ180[cm],幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小する。
つぎに、図4,図5を用いて、小領域分割部1031における処理の内容について説明する。図4は、小領域分割部1031の分割例であり、図5は小領域分割部1031の本実施例におけるフローチャートである。
本実施例では、小領域への分割方式として、物体位置検出部1111および自車ライト点灯検出部1211を用いる方式、路面ペイント検出部1311を用いる方式、また物体位置検出部1111,自車ライト点灯検出部1211、および路面ペイント検出部1311のいずれも用いない方式の3種類の分割方法について説明し、つぎに、車外の照明状態に応じて上記3方式を選択する方法について説明する。
まず、物体位置検出部1111,自車ライト点灯検出部1211、および路面ペイント検出部1311のいずれも用いない、第一の分割方式について説明する。この場合、処理画像IMGPROC[x][y]を、画像の消失点のy座標VPYを境として上下の領域、小領域1(SXR[0],SYR[0],EXR[0],EYR[0]=VPY)、および、小領域2(SXR[1],SYR[1]=VPY,EXR[1],EYR[1])に分割する。小領域1、および小領域2は、図4(a)に示すように隙間なく設定してもよいし、図4(b)に示すように、画像上での分割高さVPYを境に、例えば5画素程度のヒステリシスを設け、照明状態の差によるエッジが生じないようにしてもよい。なお、図4(b)の例の場合、ヒステリシスの部分のエッジは全てゼロとする。
つぎに、物体位置検出部1111および自車ライト点灯検出部1211を用いる第二の分割方式について説明する。図4(c)に示すように、物体位置検出部1111により検出された障害物を含む画像が処理画像生成部1021にて生成され、かつ、自車ライト点灯検出部1211により自車がライトを照射していると判定された場合、物体位置検出部1111が検出した障害物の相対距離PY[b],自車のライトの照射角度LANGL、および自車のライト高さLHEIGHTから、物体のライト照射高さLZを以下の式(1)により算出する。
LZ=LHEIGHT−PY[b]tan(LANGL) (1)
なお、自車のライトの照射角度LANGL、および自車のライト高さLHEIGHTは、あらかじめ車両の種類に応じて定められた値である。
そして、カメラ幾何を用いてLZを画像上での座標LZYに変換し、LZYを境として、処理画像IMGPROC[x][y]を小領域1(SXR[0],SYR[0],EXR[0],EYR[0]=LZY)、および、小領域2(SXR[1],SYR[1]=LZY,EXR[1],EYR[1])に分割する。小領域1、および小領域2は、図4(a)に示すように隙間なく設定してもよいし、図4(b)に示すように、画像上での分割高さLZYを境に、例えば5画素程度のヒステリシスを設け、ライトによるエッジが生じないようにしてもよい。なお、図4(b)の例の場合、ヒステリシスの部分のエッジは全てゼロとする。
さらに、路面ペイント検出部1311を用いる第三の分割方式について説明する。この場合、処理画像IMGPROC[x][y]を、検出した路面ペイントの位置を境として上下に分割する。路面ペイントまでの距離をPZとすると、カメラ幾何モデルを用いて、画像上での路面ペイントのy座標位置PZYに変換し、PZYを境として、処理画像IMGPROC[x][y]を小領域1(SXR[0],SYR[0],EXR[0],EYR[0]=PZY)、および、小領域2(SXR[1],SYR[1]=PZY,EXR[1],EYR[1])に分割する。小領域1、および小領域2は、図4(a)に示すように隙間なく設定してもよいし、図4(b)に示すように、画像上での分割高さPZYを境に、例えば5画素程度のヒステリシスを設け、照明状態の差によるエッジが生じないようにしてもよい。なお、図4(b)の例の場合、ヒステリシスの部分のエッジは全てゼロとする。
つぎに、上記3つの分割方式を、車外の照明状況に応じて選択する方法について、図5を用いて説明する。図5は、上記3つの分割方式の切り替え条件を記したフローチャートである。
まず、ステップ51にて、自車ライト点灯検出部1211の出力を用いて、自車がライトを点灯しているかを判定する。自車がライトを点灯していると判定された場合は、第二の分割手段を選択する。自車がライトを点灯していない場合は、次のステップへ写る。
つぎに、ステップ52にて、路面ペイント検出部1311の出力を用いて、自車前方に路面ペイントが存在するかを判定する。自車前方に路面ペイントが存在すると判定された場合は、第三の分割手段を選択する。また、路面ペイントが存在しないと判定された場合は、第一の分割手段を選択する。
以上説明したように、自車ライト点灯検出部1211により自車のヘッドライトが照射されていると判定された場合、自車のヘッドライトにより歩行者の一部が明るくなっていると判断し、第二の分割手段が選択され、ヘッドライトが当たっている領域と、暗い領域に分割することができる。また、路面ペイント検出部1311により自車前方に路面ペイントが検出された場合、路面ペイント上に立っている歩行者の下半身が明るく写っていると判断し、第三の分割手段が選択され、路面ペイントを含む明るい領域と、路面ペイントがない領域に分割することができる。さらに、自車のヘッドライトは点灯しておらず、路面ペイントも検出されなかった場合は、第一の分割手段が選択される。第一の分割手段は、逆光により路面が反射し明るく写っている場合においても、逆光で明るい領域と、路面が写っていない領域に分割することができる。
なお、本実施例においては、上記3つの分割手段は少なくとも第一の分割手段を備えていればよく、3つ全てを備えている必要はない。いずれかの分割手段を有さない場合、図5の条件分岐はNOのルートを辿る。
つぎに、エッジ閾値設定部1041の処理の内容について説明する。
エッジ閾値設定部1041は、処理画像IMGPROC[x][y]のそれぞれの小領域SXR[r],SYR[r],EXR[r],EYR[r]内の濃淡値の平均AVE[r]や分散VAR[r]に応じてエッジの閾値THR[r]を決定する。ここでrは小領域のID番号である。
エッジの閾値は、例えば濃淡値の平均AVE[r]を引数とするテーブルを用いる方法や、濃淡値の平均AVE[r]および分散VAR[r]を引数とする2次元のマップを用いる方法等で決定する。
平均AVE[r]および分散VAR[r]を引数とするマップを用いる方法は、あらかじめ様々な明るさの画像における最適なエッジの閾値を手動で決定し、そのときの平均および分散をマップ化したものを用いる。このことにより、小領域の濃淡値の平均AVE[r]および分散VAR[r]から、最適な閾値を決定することができる。
なお、エッジの閾値THR[r]の決定には、濃淡値ではなく、処理画像IMGPROC[x][y]に、例えばソーベルフィルタなどを適用した結果得られる画像の画素値の平均および分散を用いて決定してもよい。なお、ソーベルフィルタの演算については後述する。
つぎに、エッジ抽出部1051の処理の内容について説明する。
エッジ抽出部1051は、処理画像IMGPROC[x][y]にソーベルフィルタなどの微分フィルタを適用し画像の勾配の強さおよび方向を求め、勾配の強さを閾値処理することによりエッジを抽出する。以下、微分フィルタとしてソーベルフィルタを適用する場合について説明する。
ソーベルフィルタは図6に示すように3×3の大きさで、x方向の勾配を求めるx方向フィルタ61とy方向の勾配を求めるy方向フィルタ62の2種類が存在する。処理画像IMGPROC[x][y]からx方向の勾配を求める場合、処理画像IMGPROC[x][y]の1画素ごとに、その画素と周囲8画素の計9画素の画素値と、対応する位置のx方向フィルタ61の重みの積和演算を行う。積和演算の結果がその画素におけるx方向の勾配となる。y方向の勾配の算出も同様である。処理画像IMGPROC[x][y]のある位置(x、y)におけるx方向の勾配の算出結果をdx、y方向の勾配の算出結果をdyとすると、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]は以下の式(2)(3)により算出される。
DMAG[x][y]=|dx|+|dy| (2)
DIRC[x][y]=arctan(dy/dx) (3)
なお、DMAG[x][y]およびDIRC[x][y]は処理画像IMGPROC[x][y]と同じ大きさの2次元配列であり、DMAG[x][y]およびDIRC[x][y]の座標x,yはIMGPROC[x][y]の座標に対応する。
エッジ抽出部1051は、処理画像IMGPROC[x][y]中の小領域SXR[r],SYR[r],EXR[r],EYR[r]内の全画素について勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]を算出する。つぎに、算出したDMAG[x][y]の属する小領域SXR[r],SYR[r],EXR[r],EYR[r]に応じて、エッジ閾値THR[r]とDMAG[x][y]を比較し、DMAG[x][y]>THR[r]であれば1、それ以外であれば0をエッジ画像EDGE[x][y]に記憶する。なお、エッジ画像EDGE[x][y]は画像IMGSRC[x][y]と同じ大きさの2次元配列であり、EDGE[x][y]の座標x,yは画像IMGSRC[x][y]の座標に対応する。
以上説明したように、小領域分割部1031において、車外の照明状態に応じて物体を含む処理画像IMGPROC[x][y]を小領域(SXR[r],SYR[r],EXR[r],EYR[r])に分割し、エッジ閾値設定部1041において小領域ごとにエッジの閾値THR[r]を設定し、エッジ抽出部1051にて小領域ごとのエッジの閾値THR[r]を用いてエッジを抽出することにより、歩行者の一部が明るく写っているようなシーンにおいても、明るい領域と暗い領域で歩行者の輪郭のエッジを正しく抽出することができる。
つぎに、歩行者を検知する場合を例にとり、障害物認識部1061の処理内容について説明する。
障害物認識部1061は、まず、エッジ画像EDGE[x][y]内に歩行者判定を行うマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])を設定する。処理画像生成部1021にて述べたように、本実施例では、カメラ幾何を用い、処理画像IMGPROC[x][y]内において、高さ180[cm]、幅60[cm]の物体が全て16ドット×12ドットの大きさになるように画像を拡大・縮小している。よって、マッチング判定領域の大きさを16ドット×12ドットとし、エッジ画像EDGE[x][y]が16ドット×12ドットより大きい場合は、エッジ画像EDGE[x][y]内に一定の間隔で敷き詰めるように複数設定する。そして、それぞれのマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])について、以下詳述する識別器81を用いて判定を行い、識別器81の出力が1となる箇所があれば、その位置に歩行者がいると判定する。
つぎに、識別器81を用いて歩行者か否かを判定する方法について説明する。
画像処理によって歩行者を検知する方法として、歩行者パターンの代表となるテンプレートを複数用意しておき、差分累積演算あるいは正規化相関係演算を行って一致度を求めるテンプレートマッチングによる方法や、ニューラルネットワークなどの識別器を用いてパターン認識を行う方法が挙げられる。いずれの方法をとるとしても、あらかじめ歩行者か否かを決定する指標となるソースのデータベースが必要となる。様々な歩行者のパターンをデータベースとして蓄えておき、そこから代表となるテンプレートを作成したり識別器を生成したりする。実環境では様々な服装,姿勢,体型の歩行者が存在し、さらにそれぞれ照明や天候などの条件が異なったりするため大量のデータベースを用意して、誤判定を少なくすることが必要となってくる。このとき、前者のテンプレートマッチングによる方法の場合、判定漏れを防ぐようにするとテンプレートの数が膨大となるため現実的でない。
そこで、本実施形態では後者の識別器を用いて判定する方法を採用する。識別器の大きさはソースのデータベースの大きさに依存しない。なお、識別器を生成するためのデータベースを教師データと呼ぶ。
本実施例で使用する識別器81は、複数の局所エッジ判定器に基づいて歩行者か否かを判定する。まず、局所エッジ判定器について、図7の例を用いて説明する。局所エッジ判定器71はエッジ画像EDGE[x][y],勾配方向画像DIRC[x][y]、およびマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])を入力とし、0か1かの2値を出力する判定器であり、局所エッジ頻度算出部711、および閾値処理部712から構成される。
局所エッジ頻度算出部711は、マッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])と同じ大きさのウィンドウ7111内に局所エッジ頻度算出領域7112を持ち、マッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])とウィンドウ7111の位置関係から、エッジ画像EDGE[x][y]および勾配方向画像DIRC[x][y]内の局所エッジ頻度を算出する位置を設定し、局所エッジ頻度MWCを算出する。局所エッジ頻度MWCは、勾配方向画像DIRC[x][y]の角度値が角度条件7113を満たしており、かつ、対応する位置のエッジ画像EDGE[x][y]が1である画素の総数である。
ここで、角度条件7113は、図6の例の場合、67.5度から112.5度の間、もしくは、267.5度から292.5度の間であることであり、勾配方向画像DIRC[x][y]の値が一定の範囲であるか否かを判定するものである。
閾値処理部712は、あらかじめ定められた閾値THWCを持ち、局所エッジ頻度算出部711にて算出された局所エッジ頻度MWCが閾値THWC以上であれば1、それ以外であれば0を出力する。なお、閾値処理部712は、局所エッジ頻度算出部711にて算出された局所エッジ頻度MWCが閾値THWC以下であれば1、それ以外であれば0を出力してもよい。
つぎに、図8を用いて、識別器について説明する。識別器81は、エッジ画像EDGE[x][y],勾配方向画像DIRC[x][y]、およびマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])を入力とし、領域内が歩行者であれば1、歩行者でなければ0を出力する。識別器81は40個の局所エッジ頻度判定器8101〜8140,合計部812,閾値処理部813から構成される。
局所エッジ頻度判定器8101〜8140は、一つ一つの処理は前述した局所エッジ判定器71と同様であるが、局所エッジ頻度算出領域7112,角度条件7113,閾値THWCはそれぞれ異なっている。
合計部812は、局所エッジ頻度判定器8101〜8140からの出力に、対応する重みWWC1〜40を乗じ、その合計を出力する。
閾値処理部813は、閾値THSCを持ち、合計部812の出力が閾値THSCより大きければ1を、それ以外であれば0を出力する。
識別器81の各局所エッジ頻度判定器のパラメータである局所エッジ頻度算出領域7112,角度条件7113,閾値THWC、また、重みWWC1〜WWC40、最終閾値THSCは、識別器への入力画像が歩行者であった場合には1を、歩行者ではなかった場合には0を出力するように、教師データを用いて調整される。調整には、例えばAdaBoostなどの機械学習の手段を用いてもよいし、手動で行ってもよい。
例えば、NPD個の歩行者の教師データ、およびNBG個非歩行者の教師データから、AdaBoostを用いてパラメータを決定する手順は以下の通りとなる。なお、以下、局所エッジ頻度判定器をcWC[m]と表す。ここで、mは局所エッジ頻度判定器のID番号である。
まず、局所エッジ頻度算出領域7112および角度条件7113が異なる局所エッジ頻度判定器cWC[m]を複数(例えば、100万通り)用意し、それぞれにおいて、局所エッジ頻度MWCの値を全ての教師データから算出し、閾値THWCをそれぞれ決定する。閾値THWCは、歩行者の教師データと非歩行者の教師データを最も分類することができる値を選択する。
つぎに、歩行者の教師データひとつひとつにwPD[nPD]=1/2NPDの重みを与える。同様に、非歩行者の教師データひとつひとつにwBG[nBG]=1/2NBGの重みを与える。ここで、nPDは歩行者の教師データのID番号、nBGは非歩行者の教師データのID番号である。
そして、k=1として、以下、繰り返し処理を行う。
まず、歩行者・非歩行者全ての教師データの重みの合計が1となるように、重みを正規化する。つぎに、各局所エッジ頻度判定器の誤検知率cER[m]を算出する。誤検知率cER[m]は、局所エッジ頻度判定器cWC[m]において、歩行者の教師データを局所エッジ頻度判定器cWC[m]に入力した場合の出力が0となったもの、もしくは非歩行者の教師データを局所エッジ頻度判定器cWC[m]に入力した場合の出力が1となったもの、すなわち出力が間違っている教師データの重みの合計である。
全ての局所エッジ頻度判定器の誤検知率cER[m]を算出後、誤検知率が最小となる局所エッジ頻度判定器のID mMinを選択し、最終局所エッジ頻度判定器WC[k]=cWC[mMin]とする。
つぎに、各教師データの重みを更新する。更新は、歩行者の教師データのうち、最終局所エッジ頻度判定器WC[k]を適用した結果が1となったもの、および、非歩行者の教師データのうち最終局所エッジ頻度判定器WC[k]を適用した結果が0となったもの、すなわち出力が正しい教師データの重みに、係数BT[k]=cER[mMin]/(1−cER[mMin])を乗じる。
k=k+1とし、kが予め設定した値(例えば、40)になるまで繰り返す。繰り返し処理の終了後に得られる最終局所エッジ頻度判定器WCがAdaBoostにより自動調整された識別器81となる。なお、重みWWC1〜WWC40は1/BT[k]から算出され、閾値THSCは0.5とする。
以上説明したように、エッジ抽出部1051にて抽出された歩行者の輪郭のエッジを用いて、障害物認識部1061にて歩行者を検出することができる。
なお、歩行者の検知に用いる識別器81は、本実施例で取り上げた方法に限定されない。正規化相関を用いたテンプレートマッチング,ニューラルネットワーク識別器,サポートベクターマシン識別器,ベイズ識別器などを用いてもよい。
また、小領域分割部1031の分割手段は本実施例の3つに限定されず、2つ以下でも、4つ以上でもよい。
つぎに、本発明に係る障害物検知装置である車載用物体検知装置2000の第二の実施形態について、以下図面を用いて説明する。
図9は、車載用物体検知装置2000の実施形態を表すブロック図である。なお、以下の説明では、上述の車載用物体検知装置1000と異なる箇所のみ詳述し、同様の箇所には同一の番号を付し説明を省略する。
車載用物体検知装置2000は、自動車に搭載されるカメラ内、もしくは統合コントローラ内等に組み込まれ、カメラで撮影した画像内から障害物を検知するためのものであり、本実施の形態では、自車の周囲を撮像した画像内から歩行者を検知するように構成されている。
車載用物体検知装置2000は、CPUやメモリ、I/O等を有するコンピュータによって構成されており、所定の処理がプログラミングされて、あらかじめ定められた周期で繰り返し処理を実行する。車載用物体検知装置2000は、図9に示すように、画像取得部1011と、処理領域設定部2021と、小領域分割部2031と、エッジ閾値設定部2041と、エッジ抽出部2051と、障害物認識部2061と、認識結果出力部1071とを有し、さらに実施の形態によっては、物体位置検出部1111と、自車ライト点灯検出部1211と、路面ペイント検出部1311とを有する。
処理領域設定部2021は、画像IMGSRC[x][y]内から障害物である歩行者を検出する処理領域(SXP,SYP,EXP,EYP)を設定する。設定の詳細については後述する。
小領域分割部2031は、画像IMGSRC[x][y]の処理領域(SXP,SYP,EXP,EYP)を、複数の小領域(SXR[r],SYR[r],EXR[r],EYR[r])に分割する。ここで、rは小領域のID番号である。分割の詳細については後述するが、自車外の照明状態に基づいて複数の小領域に分割する。
エッジ閾値設定部2041は、各小領域(SXR[r],SYR[r],EXR[r],EYR[r])内の画像IMGSRC[x][y]の画素値から、エッジ閾値THR[r]を決定する。閾値の設定の詳細については後述する。
エッジ抽出部2051は、画像IMGSRC[x][y]の各小領域内で濃淡勾配値を算出し、対応する小領域のエッジ閾値THR[r]を用いて、2値のエッジ画像EDGE[x][y]、およびエッジの方向の情報を持つ、勾配方向画像DIRC[x][y]を生成する。処理の詳細は後述する。
障害物認識度2061は、エッジ画像EDGE[x][y]内に歩行者判定を行うマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])を設定し、マッチング判定領域内のエッジ画像EDGE[x][y]、および対応する位置の領域内の勾配方向画像DIRC[x][y]を用いて、歩行者の有無を判定する。ここで、gは複数の領域を設定した場合のID番号である。認識処理の詳細は後述する。
つぎに、図3を用いて、処理領域設定部2021における処理の内容について説明する。
処理領域設定部2021は、画像IMGSRC[x][y]内で歩行者検出処理を行う領域を選定し、その座標の範囲,x座標(横方向)の始点SXPおよび終点EXP,y座標上(縦方向)の始点SYPおよび終点EYPを求める。
処理領域設定部2021は、物体位置検出部1111を用いても、用いなくてもよい。まず、処理領域設定部2021において、物体位置検出部1111を用いる場合について説明する。
物体位置検出部1111が検出した物体の相対距離PY[b],横位置PX[b]および横幅WD[b]から、検出した物体の画像上位置(x座標(横方向)の始点SXB,終点EXB,y座標(縦方向)の始点SYB,終点EYB)を算出する。なお、カメラ画像上の座標と実世界の位置関係を対応付けるカメラ幾何パラメータを、カメラキャリブレーション等の方法によってあらかじめ算出しておき、物体の高さを、例えば180[cm]などあらかじめ仮定しておくことにより、画像上での位置は一意に決まる。
また、カメラ1010の取り付けの誤差やレーダとの通信遅れ等の理由により、物体位置検出部1111で検出した物体の画像上での位置と、カメラ画像に写っている同じ物体の画像上での位置の違いが生じる場合がある。よって、画像上での物体位置(SXB,EXB,SYB,EYB)に、補正を加えた物体位置(SXP,EXP,SYP,EYP)を算出する。補正は、領域を所定の量拡大したり、移動させたりする。例えば、SXB,EXB,SYB,EYBを上下左右に所定の画素拡張したりなどである。この結果得られた物体位置を処理領域(SXP,EXP,SYP,EYP)とする。
なお、複数の領域に対して処理する場合、処理領域(SXP,EXP,SYP,EYP)をそれぞれ設定し、以下の小領域分割部から障害物認識部までの処理をそれぞれの処理画像に対して個別に実施する。
つぎに、処理領域設定部2021において、物体位置検出部1111を用いずに処理領域(SXP,EXP,SYP,EYP)を設定する処理について説明する。
物体位置検出部1111を用いない場合の領域選定の方法は、例えば、領域の大きさを変化させながら画像全体を探索するように領域を設定する方法や、特定の位置,特定の大きさのみに限定して領域を設定する方法がある。特定の位置に限定する場合は、例えば自車速を用いて、自車がT秒後に進んでいる位置に限定する方法がある。
図3(b)は、自車速を用いて,自車が2.3秒後に進んでいる位置を探索する場合の例である。処理領域の位置、および大きさは、自車が2.3秒後に進んでいる位置までの相対距離における路面高さ(0cm)、および想定する歩行者の高さ(本実施例では180cm)から、カメラ幾何パラメータを用いて画像IMGSRC[x][y]上のy方向の範囲(SYP2,EYP2)を求める。なお、x方向の範囲(SXP2,EXP2)は、制限しなくてもよいし、自車の予測進路等により制限してもよい。この結果得られた領域(SXP2,SYP2,EXP2,EYP2)を、処理領域(SXP,EXP,SYP,EYP)とする。
つぎに、図4,図5を用いて、小領域分割部2031における処理の内容について説明する。
本実施例では、小領域への分割方式として、物体位置検出部1111および自車ライト点灯検出部1211を用いる方式、路面ペイント検出部1311を用いる方式、また物体位置検出部1111,自車ライト点灯検出部1211、および路面ペイント検出部1311のいずれも用いない方式の3種類の分割方法について説明し、つぎに、車外の照明状態に応じて上記3方式を選択する方法について説明する。
まず、物体位置検出部1111,自車ライト点灯検出部1211、および路面ペイント検出部1311のいずれも用いない、第一の分割方式について説明する。この場合、画像IMGSRC[x][y]内の処理領域(SXP,EXP,SYP,EYP)を、画像の消失点のy座標VPYを境として上下の領域、小領域1(SXR[0],SYR[0],EXR[0],EYR[0]=VPY)、および、小領域2(SXR[1],SYR[1]=VPY,EXR[1],EYR[1])に分割する。小領域1、および小領域2は、図4(a)に示すように隙間なく設定してもよいし、図4(b)に示すように、画像上での分割高さVPYを境に、例えば5画素程度のヒステリシスを設け、照明状態の差によるエッジが生じないようにしてもよい。なお、図4(b)の例の場合、ヒステリシスの部分のエッジは全てゼロとする。
つぎに、物体位置検出部1111および自車ライト点灯検出部1211を用いる第二の分割方式について説明する。図4(c)に示すように、物体位置検出部1111により検出された物体を含む画像が処理領域設定部2021にて設定され、かつ、自車ライト点灯検出部1211により自車がライトを照射していると判断された場合、物体位置検出部1111が検出した物体の相対距離PY[b],自車のライトの照射角度LANGL、および自車のライト高さLHEIGHTから、物体のライト照射高さLZを上述の式(1)より算出する。なお、自車のライトの照射角度LANGL、および自車のライト高さLHEIGHTは、あらかじめ車両の種類に応じて定められた値である。
そして、カメラ幾何を用いてLZを画像上での座標LZYに変換し、LZYを境として、画像IMGSRC[x][y]内の処理領域(SXP,EXP,SYP,EYP)を小領域1(SXR[0],SYR[0],EXR[0],EYR[0]=LZY)、および、小領域2(SXR[1],SYR[1]=LZY,EXR[1],EYR[1])に分割する。小領域1、および小領域2は、図4(a)に示すように隙間なく設定してもよいし、図4(b)に示すように、画像上での分割高さLZYを境に、例えば5画素程度のヒステリシスを設け、ライトによるエッジが生じないようにしてもよい。なお、図4(b)の例の場合、ヒステリシスの部分のエッジは全てゼロとする。
さらに、路面ペイント検出部1311を用いる第三の分割方式について説明する。この場合、画像IMGSRC[x][y]内の処理領域(SXP,EXP,SYP,EYP)を、検出した路面ペイントの位置を境として上下に分割する。路面ペイントまでの距離をPZとすると、カメラ幾何モデルを用いて、画像上での路面ペイントのy座標位置PZYに変換し、PZYを境として、画像IMGSRC[x][y]を小領域1(SXR[0],SYR[0],EXR[0],EYR[0]=PZY)、および、小領域2(SXR[1],SYR[1]=PZY,EXR[1],EYR[1])に分割する。小領域1、および小領域2は、図4(a)に示すように隙間なく設定してもよいし、図4(b)に示すように、画像上での分割高さPZYを境に、例えば5画素程度のヒステリシスを設け、照明状態の差によるエッジが生じないようにしてもよい。なお、図4(b)の例の場合、ヒステリシスの部分のエッジは全てゼロとする。
つぎに、上記3つの分割方式を、車外の照明状況に応じて選択する方法について、図5を用いて説明する。図5は、上記3つの分割方式の切り替え条件を記したフローチャートである。
まず、ステップ51にて、自車ライト点灯検出部1211の出力を用いて、自車がライトを点灯しているかを判定する。自車がライトを点灯していると判定された場合は、第二の分割手段を選択する。自車がライトを点灯していない場合は、次のステップへ写る。
つぎに、ステップ52にて、路面ペイント検出部1311の出力を用いて、自車前方に路面ペイントが存在するかを判定する。自車前方に路面ペイントが存在すると判定された場合は、第三の分割手段を選択する。また、路面ペイントが存在しないと判定された場合は、第一の分割手段を選択する。
以上説明したように、自車ライト点灯検出部1211により自車のヘッドライトが照射されていると判定された場合、自車のヘッドライトにより歩行者の一部が明るくなっていると判断し、第二の分割手段が選択され、ヘッドライトが当たっている領域と、暗い領域に分割することができる。また、路面ペイント検出部1311により自車前方に路面ペイントが検出された場合、路面ペイント上に立っている歩行者の下半身が明るく写っていると判断し、第三の分割手段が選択され、路面ペイントを含む明るい領域と、路面ペイントがない領域に分割することができる。さらに、自車のヘッドライトは点灯しておらず、路面ペイントも検出されなかった場合は、第一の分割手段が選択される。第一の分割手段は、逆光により路面が反射し明るく写っている場合においても、逆光で明るい領域と、路面が写っていない領域に分割することができる。
なお、上記3つの分割手段は少なくとも第一の分割手段を備えていればよく、3つ全てを備えている必要はない。いずれかの分割手段を有さない場合、図5の条件分岐はNOのルートを辿る。
つぎに、エッジ閾値設定部2041の処理の内容について説明する。
エッジ閾値設定部2041は、画像取得部1011で取得した画像IMGSRC[x][y]内の各小領域SXR[r],SYR[r],EXR[r],EYR[r]内の濃淡値の平均AVE[r]や分散VAR[r]に応じてエッジの閾値THR[r]を決定する。ここでrは小領域のID番号である。
エッジの閾値は、例えば濃淡値の平均AVE[r]を引数とするテーブルを用いる方法や、濃淡値の平均AVE[r]および分散VAR[r]を引数とする2次元のマップを用いる方法等で決定する。
平均AVE[r]および分散VAR[r]を引数とするマップを用いる方法は、あらかじめ様々な明るさの画像における最適なエッジの閾値を手動で決定し、そのときの平均および分散をマップ化したものを用いる。このことにより、小領域の濃淡値の平均AVE[r]および分散VAR[r]から、最適な閾値を決定することができる。
なお、エッジの閾値THR[r]の決定には、濃淡値ではなく、画像IMGSRC[x][y]に、例えばソーベルフィルタなどを適用した結果得られる画像の画素値の平均および分散を用いて決定してもよい。なお、ソーベルフィルタの演算については後述する。
つぎに、エッジ抽出部2051の処理の内容について説明する。
エッジ抽出部2051は、画像取得部1011で取得した画像IMGSRC[x][y]にソーベルフィルタなどの微分フィルタを適用し画像の勾配の強さおよび方向を求め、勾配の強さを閾値処理することによりエッジを抽出する。以下、微分フィルタとしてソーベルフィルタを適用する場合について説明する。
ソーベルフィルタは図6に示すように3×3の大きさで、x方向の勾配を求めるx方向フィルタ61とy方向の勾配を求めるy方向フィルタ62の2種類が存在する。画像IMGSRC[x][y]からx方向の勾配を求める場合、画像IMGSRC[x][y]の1画素ごとに、その画素と周囲8画素の計9画素の画素値と、対応する位置のx方向フィルタ61の重みの積和演算を行う。積和演算の結果がその画素におけるx方向の勾配となる。y方向の勾配の算出も同様である。画像IMGSRC[x][y]のある位置(x、y)におけるx方向の勾配の算出結果をdx、y方向の勾配の算出結果をdyとすると、勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]は上述の式(2)(3)により算出される。
なお、DMAG[x][y]およびDIRC[x][y]は画像IMGSRC[x][y]と同じ大きさの2次元配列であり、DMAG[x][y]およびDIRC[x][y]の座標x、yは画像IMGSRC[x][y]の座標に対応する。
エッジ抽出部2051は、画像IMGSRC[x][y]中の小領域SXR[r],SYR[r],EXR[r],EYR[r]内の全画素について勾配強さ画像DMAG[x][y]および勾配方向画像DIRC[x][y]を算出する。つぎに、算出したDMAG[x][y]の属する小領域SXR[r],SYR[r],EXR[r],EYR[r]に応じて、エッジ閾値THR[r]とDMAG[x][y]を比較し、DMAG[x][y]>THR[r]であれば1、それ以外であれば0をエッジ画像EDGE[x][y]に記憶する。なお、エッジ画像EDGE[x][y]は画像IMGSRC[x][y]と同じ大きさの2次元配列であり、EDGE[x][y]の座標x、yは画像IMGSRC[x][y]の座標に対応する。
以上説明したように、小領域分割部2031において、車外の照明状態に応じて物体を含む画像IMGSRC[x][y]内の処理領域(SXP,SYP,EXP,EYP)を小領域(SXR[r],SYR[r],EXR[r],EYR[r])に分割し、エッジ閾値設定部2041において小領域ごとにエッジの閾値THR[r]を設定し、エッジ抽出部2051にて小領域ごとのエッジの閾値THR[r]を用いてエッジを抽出することにより、歩行者の一部が明るく写っているようなシーンにおいても、明るい領域と暗い領域で歩行者の輪郭のエッジを正しく抽出することができる。
つぎに、歩行者を検知する場合を例にとり、障害物認識部2061の処理内容について説明する。
障害物認識部2061は、まず、エッジ画像EDGE[x][y]内に歩行者判定を行うマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])を設定する。
なお、マッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])の幅WG=EXG[g]―SXG[g]、および、高さHG=EYG[g]―SYG[g]は、画像IMGSRC[x][y]内において、高さ180[cm],幅60[cm]の物体の画像上での大きさから決定される。幅WG,高さHGを決める方法は、物体位置検出部1111を有している場合や、物体までの距離を仮決めしている場合、物体までの距離と消失点を用いて、カメラ幾何により一意に決定できる。
また、処理領域内でマッチング判定領域の大きさを変えながら歩行者を検出する場合など、距離が不明の場合は、マッチング判定領域の縦横の比率を一定として、大きさを変更しながら設定する。処理領域(SXP,SYP,EXP,EYP)がマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])より大きい場合は、エッジ画像EDGE[x][y]内に一定の間隔で敷き詰めるように複数設定する。
そして、それぞれのマッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])について、識別器82を用いて判定を行い、識別器82の出力が1となる箇所があれば、その位置に歩行者がいると判定する。
つぎに、識別器82を用いて歩行者か否かを判定する方法について説明する。本実施例で使用する識別器82は、複数の局所エッジ判定器に基づいて歩行者か否かを判定する。
本実施例の識別器82は、前述の識別器81と同じ構成である。ただし、前述の識別器81は、局所エッジ頻度判定器8101〜8140内のウィンドウ7111の大きさが幅12ドット、高さ16ドットであったのに対し、識別器82は、ウィンドウ7111の大きさを、マッチング判定領域の幅WG,高さHGと同じになるように拡大・縮小する。ウィンドウ7111の拡大・縮小に伴い、ウィンドウ7111内の局所エッジ頻度算出領域7112も同じ比率で拡大・縮小する。なお、以降の処理は識別器81と同様であるため、詳細な説明は省略する。
以上説明したように、車載用物体検知装置1000(もしくは車載用物体検知装置2000)を用いることによって、例えば図10のようなシーンにおいて、歩行者の有無を正確に判断することができる。
図10(a)(b)は自車のヘッドライトによって一部に光が当たっている物体の例であり、(a)は歩行者、(b)は看板である。このような場合、自車のヘッドライト照射高さの上下で分割せずにエッジを抽出すると、それぞれ図10(c)(d)のようなエッジが得られ、区別することができない。しかし、本発明を用いることにより、抽出されるエッジは図10(e)(f)となり、歩行者の輪郭のエッジが正しく抽出され、図10(a)の歩行者を認識することができる。
また、車載用物体検知装置1000(もしくは車載用物体検知装置2000)における障害物認識部1061(2061)は、上述したような識別器81(82)を用いた形式でなくてもよい。例として、連続する縦エッジの長さによって障害物を判定する障害物認識部の別の実施形態について、図11を用いて説明する。
図11は、障害物認識部の他の実施形態の処理の流れを表すフローチャートである。
まず、ステップ101にて、障害物認識部1061,2061と同様に、マッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])を設定する。
つぎに、ステップ102にて、マッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])内のエッジ画像EDGE[x][y]のうち、縦方向のエッジを抽出する。
ここで、まずエッジの有無は、エッジ画像EDGE[x][y]の値を用いて判定する。エッジ画像EDGE[x][y]は2値画像であり、エッジ画像EDGE[x][y]の座標(x,y)の値が1である場合、対応する画像IMGSRC[x][y]の座標(x,y)にエッジ、すなわち物体の輪郭が存在することを表す。
また、エッジの方向は勾配方向画像DIRC[x][y]を用いて判定する。勾配方向画像DIRC[x][y]は0〜359の値を持ち、濃淡変化の角度を表す。よって、エッジ画像EDGE[x][y]の座標(x,y)の値が1である場合に、対応する座標(x,y)の勾配方向画像DIRC[x][y]の値を参照することにより、物体の輪郭の画像上での方向を知ることができる。
よって、ステップ102は、例えば、エッジ画像EDGE[x][y]が1であり、かつ、対応する座標(x,y)の勾配方向画像DIRC[x][y]の値が90±22.5[°]、もしくは270±22.5[°]の範囲である部分を抽出することで実現できる。
抽出した結果は、例えば縦エッジ画像VEDGE[x][y]に保存する。縦エッジ画像VEDGE[x][y]はエッジ画像EDGE[x][y]と同じ大きさの2次元配列であり、VEDGE[x][y]の座標x,yはEDGE[x][y]の座標に対応する。縦エッジ画像VEDGE[x][y]には、例えば、上記条件を満たす座標の画素に「1」を、そうでない座標に「0」を代入する。
さらに、ステップ103にて、縦エッジ画像VEDGE[x][y]のうち画素値が「1」となっている部分のグルーピングを行う。グルーピングは、例えばラベリング処理を用いる。
ラベリング処理は、まず縦エッジ画像VEDGE[x][y]中で画素値が1である場所を探索し、ラベル番号1をその画素に与える。つぎに、その画素に隣接する画素値が1であれば、その画素にもラベル番号1を与える。この処理を、ラベル番号1の画素に隣接する画素がすべて0になるまで繰り返す。
つぎに、ラベル番号がまだ与えられていない画素があれば、そのうちの一つの画素にラベル番号2を与え、ラベル番号1のときと同様の処理を行う。以上の処理を、画素値が1であり、ラベル番号が与えられていない画素がなくなるまで繰り返す。
以上のラベリング処理の結果、縦エッジ画像VEDGE[x][y]のエッジはいずれかのラベル番号を与えられ、グルーピングされることになる。
つぎに、ステップ104にて、グルーピングされたエッジの中から、画像上でy方向に長い縦エッジを2本抽出する。
さらに、ステップ105にて、抽出されたエッジがペアであるかを判定する。ペアであるかの判定には、縦エッジ画像VEDGE[x][y]、および、勾配方向画像DIRC[x][y]を用いる。図12は、エッジのペア判定の例である。
まず、縦エッジ画像中で抽出された2本のエッジのうち、画像上のy方向の重複範囲(SY_PAIR,EY_PAIR)を求める。
つぎに、抽出された2本のエッジそれぞれについて、SY_PAIR,EY_PAIRの範囲内で、対応する位置の勾配方向画像DIRC[x][y]から、勾配方向の平均DIR_PAIR1,DIR_PAIR2を算出する。
そして、DIR_PAIR1,DIR_PAIR2の方向がペアになっているかを判定する。判定は、例えば、
(1)DIR_PAIR1>DIR_PAIR2の場合、
ABS(DIR_PAIR1―DIR_PAIR2―180)<TH_PAIR
(2)それ以外の場合
ABS(DIR_PAIR2―DIR_PAIR1―180)<TH_PAIR
が成立するか否かで行う。ここで、TH_PAIRはエッジがペアになっているかを判定する角度の許容量であり、本実施例では22.5とする。また、ABS()は絶対値である。判定の結果、ペアであると判定された場合は、ステップ106へ進み、そうでない場合はステップ108へと進む。
ステップ106は、画像上のy方向の重複範囲(SY_PAIR,EY_PAIR)の長さが所定値TH_LENGTHPAIR以上であるかを判定する。所定値以上であると判定された場合は、ステップ107へ進み、そうでない場合、つまり所定値未満であると判定された場合は、ステップ108へと進む。
ステップ107は、マッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])に障害物が存在するとし、障害物認識部1061(2061)へ情報を伝える。
また、ステップ108は、マッチング判定領域(SXG[g],SYG[g],EXG[g],EYG[g])に障害物は存在しないとし、障害物認識部1061(2061)へ情報を伝えない。
以上説明したように、本実施形態を用いることによって、例えば図13のようなシーンにおいて障害物の有無を正しく判断することができる。
図13(a)(b)は自車のヘッドライトによって一部に光が当たっている物体の例であり、(a)は高さのある障害物、(b)は高さのない障害物である。このような場合、自車のヘッドライト照射高さの上下で分割せずにエッジを抽出すると、それぞれ図13(c)(d)のようなエッジが得られ、区別することができない。
しかし、本発明を用いることにより、抽出されるエッジは図13(e)(f)となり、暗い領域のエッジが正しく抽出され、(a)は高さがあるため衝突の危険がある障害物、(b)は高さがないため衝突の危険がない障害物であると認識することができる。
つぎに、図14を用いて、プリクラッシュ・セーフティ・システムを例にとり、前記の実施例に記載のように車載用物体検知装置の認識結果出力部より出力される障害物情報(相対距離PYO[b],横位置PXO[b],横幅WDO[b])に応じて警報を出力する、あるいは自動的にブレーキを制御するといったシステムの動作方法について説明する。
図14は、プリクラッシュ・セーフティ・システムの動作方法を示すフローチャートである。
最初に、ステップ141において、上記いずれかの障害物検知装置の認識結果出力部で出力された障害物情報(相対距離PYO[b],横位置PXO[b],横幅WDO[b])を読み込む。
つぎに、ステップ142において、検知された各物体の衝突予測時間TTC[i]を式(4)を用いて演算する。ここで、相対速度VYO[b]は、物体の相対距離PYO[b]を擬似微分することによって求める。
TTC[b]=PY[b]÷VY[b] (4)
さらに、ステップ143において、各障害物に対する危険度DRECI[b]を演算する。
以下、車載用物体検知装置1000(もしくは車載用物体検知装置2000)で検知された物体X[b]に対する危険度DRECI[b]の演算方法の例を、図15を用いて説明する。
まず、予測進路の推定方法について説明する。図15に示すように、自車位置を原点Oとすると、予測進路は原点Oを通る旋回半径Rの円弧で近似できる。ここで、旋回半径Rは、自車の操舵角α,速度Vsp,スタビリティファクタA,ホイールベースLおよびステアリングギア比Gsを用いて式(5)で表される。
R=(1+A・Vsp・Vsp)×(L・Gs/α) (5)
スタビリティファクタとは、その正負が、車両のステア特性を支配するものであり、車両の定常円旋回の速度に依存する変化の大きさを示す指数となる重要な値である。式(5)からわかるように、旋回半径Rは、スタビリティファクタAを係数として、自車の速度Vspの2乗に比例して変化する。また、旋回半径Rは車速Vspおよびヨーレートγを用いて式(6)で表すことができる。
R=V/γ (6)
つぎに、物体X[b]から、旋回半径Rの円弧で近似した予測進路の中心へ垂線を引き、距離L[b]を求める。
さらに、自車幅Hから距離L[b]を引き、これが負値の場合には危険度DRECI[b]=0とし、正値の場合には以下の式(7)によって危険度DRECI[b]を演算する。
DRECI[b]=(H−L[b])/H (7)
なお、ステップ141〜143の処理は、検知した物体数に応じてループ処理を行う構成としている。
ステップ144において、ステップ143で演算した危険度DRECI[b]に応じて式(8)の条件が成立している物体を選択し、選択された物体の中で衝突予測時間TTC[b]が最小となる物体bMinを選択する。
DRECI[b]≧cDRECI# (8)
ここで、所定値cDRECI#は、自車に衝突するか否かを判定するための閾値である。
つぎに、ステップ145において、選択された物体kの衝突予測時間TTC[bMin]に応じて自動的にブレーキを制御する範囲であるか否かの判定を行う。式(9)が成立している場合にはステップ146に進み、ブレーキ制御を実行して処理を終了する。また、式(9)が非成立の場合にはステップ147に進む。
TTC[bMin]≦cTTCBRK# (9)
ステップ147において、選択された物体bMinの衝突予測時間TTC[bMin]に応じて警報を出力する範囲であるか否かの判定を行う。式(10)が成立している場合にはステップ148に進み、警報を出力して処理を終了する。また、式(10)が非成立の場合には、ブレーキ制御,警報ともに実行せずに処理を終了する。
TTC[bMin]≦cTTCALM# (10)
以上説明したように、本発明である車載用物体検知装置1000もしくは2000を用いることによって、図10のようなシーンにおいて、歩行者の足元のみに光が当たっており、足元のみでは歩行者か判定できない場合においても、光が当たっていない領域のエッジを抽出できるため、自車前方の歩行者を認識でき、上記警報やブレーキ制御を発動させることができる。
また、図13のようなシーンにおいて、物体の一部のみに光が当たっており、一部では自車にとって衝突の危険がある物体か判定することができない場合においても、光が当たっていない領域のエッジを抽出できるため、自車にとって衝突の危険がある物体に対してのみ上記警報やブレーキ制御を発動させることができる。
また、図16の例に対して本発明を適用した場合について説明する。
まず、自車のヘッドライトと同程度の光を発する外部照明がONの状態で、路面の凹凸により生じる、路面の濃淡差をDIF1_Rとする。そして、外部照明ON時に、同程度の濃淡差を持つ、淡い物体Bを用意する。物体Bの、外部照明ONの状態での輪郭の内外の濃淡差をDIF1_B、外部照明OFFの状態での輪郭の内外の濃淡差をDIF0_Bとすると、DIF1_B=DIF1_Rである。図16の例では、DIF1_B=10,DIF0_B=5である。
また、物体Bと全く同じ形状であるが濃淡差が物体Bより大きく、外部照明ONの状態では輪郭の内外の濃淡差がDIF1_A、外部照明がOFFの状態では輪郭の内外の濃淡差がDIF0_Aとなり、かつDIF0_A=DIF1_Bとなる物体Aを用意する。図16の例では、DIF1_A=20,DIF0_A=10である。
物体Bの輪郭の濃淡差は路面の凹凸により生じる濃淡差と同じであるため、路面の凹凸による誤検知を発生させないためには、物体Aを認識し、物体Bを認識しないことが必要である。しかし、DIF0_A=DIF1_Bであるため、外部照明OFF時に物体Aを認識するためには、照明状況に応じてエッジの閾値を変化させる必要がある。
本発明は、照明状況に応じてエッジの閾値を変化させるため、外部照明ON時、および、外部照明OFF時どちらにおいても、物体Aを認識し、物体Bを認識しない。さらに、本発明は、物体を含む画像領域を小領域に分割し、各小領域の照明状態に応じてエッジの閾値を設定するため、外部照明OFF時にヘッドライトを照射した場合においても、物体Aを認識し、物体Bを認識しない。
なお、本発明は、上述の各実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
71 局所エッジ判定器
81 識別器
711 局所エッジ頻度算出部
712 閾値処理部
812 合計部
813 閾値処理部
1000,2000 車載用物体検知装置
1010 カメラ
1011 画像取得部
1021 処理画像生成部
1031,2031 小領域分割部
1041,2041 エッジ閾値設定部
1051,2051 エッジ抽出部
1061,2061 障害物認識部
1071 認識結果出力部
1111 物体位置検出部
1211 自車ライト点灯検出部
1311 路面ペイント検出部
2021 処理領域設定部
7111 ウィンドウ
7112 局所エッジ頻度算出領域
7113 角度条件
8101〜8140 局所エッジ頻度判定器

Claims (16)

  1. 自車外を撮像した画像を取り込む画像取得部と、
    取り込まれた前記画像から障害物を検知するための処理画像を生成する処理画像生成部と、
    前記処理画像を複数の小領域に分割する小領域分割部と、
    前記複数の小領域と前記処理画像の画素値から、小領域毎のエッジ閾値を設定するエッジ閾値設定部と、
    前記複数の小領域と前記処理画像から小領域毎の濃淡勾配値を算出し、算出された前記濃淡勾配値に対応する小領域の前記エッジ閾値を用いて、2値のエッジ画像と、エッジの方向の情報を有する勾配方向画像と、を生成するエッジ抽出部と、
    前記エッジ画像内で障害物を検知するためのマッチング判定領域を設定し、前記マッチング判定領域内のエッジ画像及び前記エッジ画像に対応する勾配方向画像から障害物の有無を判定する障害物認識部と、
    障害物の判定結果を出力する認識結果出力部と、を有し、
    前記小領域分割部は、自車外の照明状態に基づいて前記処理画像を複数の小領域に分割する障害物検知装置。
  2. 請求項1記載の障害物検知装置において、
    障害物検出部からの検出信号に基づいて自車外の障害物の位置を検出する物体位置検出部を有し、
    前記処理画像生成部は、前記画像と前記障害物の位置に基づいて、処理画像を生成する障害物検知装置。
  3. 請求項1記載の障害物検知装置において、
    障害物検出部からの検出信号に基づいて自車外の障害物の位置を検出する物体位置検出部と、
    自車のライトの点灯状態を検出する自車ライト点灯検出部と、を有し、
    前記小領域分割部は、前記自車ライト点灯検出部でライトが点灯していると検出された場合、前記物体位置検出部からの障害物の位置と、予め定められた自車ライトの照射角度及び自車ライトの路面からの高さ、に基づいて、障害物へ照射される高さを算出し、算出された前記障害物へ照射される高さに対する画像上の座標を境にして前記処理画像から複数の小領域に分割する障害物検知装置。
  4. 請求項1記載の障害物検知装置において、
    自車の走行路面のペイントを検出し、自車から路面ペイントまでの距離を算出する路面ペイント検出部を有し、
    前記小領域分割部は、前記路面ペイント検出部で検出された路面ペイントの距離から前記路面ペイントの位置を算出し、前記路面ペイントの位置を境にして前記処理画像から複数の小領域に分割する障害物検知装置。
  5. 請求項1記載の障害物検知装置において、
    障害物検出部からの検出信号に基づいて自車外の障害物の位置を検出する物体位置検出部と、
    自車のライトの点灯状態を検出する自車ライト点灯検出部と、
    自車の走行路面のペイントを検出し、自車から路面ペイントまでの距離を算出する路面ペイント検出部と、を有し、
    前記小領域分割部は、
    前記自車ライト点灯検出部で自車がライトを点灯している場合は、前記物体位置検出部の検出結果と前記自車ライト点灯検出部の検出結果で得られる位置を境にして前記処理画像を複数の小領域に分割し、
    前記自車ライト点灯検出部で自車がライトを点灯していない場合、且つ前記路面ペイント検出部により路面ペイントが検出された場合は、検出された前記路面ペイントの位置を境にして前記処理画像を複数の小領域に分割し、
    前記自車ライト点灯検出部で自車がライトを点灯していない場合、且つ前記路面ペイント検出部により路面ペイントが検出されない場合は、前記画像の消失点を境にして前記処理画像を複数の小領域に分割する障害物検知装置。
  6. 請求項1記載の記載の障害物検知装置において、
    前記障害物認識部は、前記エッジ画像と前記勾配方向画像から複数の縦エッジ画像を生成し、前記複数の縦エッジ画像から予め定めた条件を満たす縦エッジ画像をグルーピングし、前記グルーピングされた縦エッジ画像の中から縦エッジを2本抽出し、前記2本の縦エッジが前記縦エッジ画像及び前記勾配方向画像に基づいてペアか否か判定し、判定結果としてペアでない場合は、障害物ではないと判定し、ペアである場合、且つ前記2本の縦エッジの長さが予め定めた長さ以上の場合は、障害物と判定し、ペアである場合、且つ前記2本の縦エッジの長さが予め定めた長さ未満の場合は、障害物ではないと判定する障害物検知装置。
  7. 請求項1記載の障害物検知装置において、
    前記認識結果出力部は、前記障害物認識部で認識した障害物の位置に応じて、車両の警報、ブレーキ制御の少なくともいずれか1つを作動させる障害物体検知装置。
  8. 請求項1記載の障害物検知装置において、
    前記小領域分割手段にて分割する小領域の境界部分には、ヒステリシスを持つ車載用物体検知装置。
  9. 自車外を撮像した画像を取り込む画像取得部と、
    取り込まれた前記画像から障害物を検知するための処理領域を設定する処理領域設定部と、
    前記処理領域を複数の小領域に分割する小領域分割部と、
    前記複数の小領域と前記画像取得部で取り込まれた前記画像の画素値から、小領域毎のエッジ閾値を設定するエッジ閾値設定部と、
    前記複数の小領域と前記画像取得部で取り込まれた前記画像から小領域毎の濃淡勾配値を算出し、算出された前記濃淡勾配値に対応する小領域の前記エッジ閾値を用いて、2値のエッジ画像と、エッジの方向の情報を有する勾配方向画像と、を生成するエッジ抽出部と、
    前記エッジ画像内で障害物を検知するためのマッチング判定領域を設定し、前記マッチング判定領域内のエッジ画像及び前記エッジ画像に対応する勾配方向画像から障害物の有無を判定する障害物認識部と、
    障害物の判定結果を出力する認識結果出力部と、を有し、
    前記小領域分割部は、自車外の照明状態に基づいて前記処理領域を複数の小領域に分割する障害物検知装置。
  10. 請求項9記載の障害物検知装置において、
    障害物検出部からの検出信号に基づいて自車外の障害物の位置を検出する物体位置検出部を有し、
    前記処理領域設定部は、前記画像と前記障害物の位置に基づいて、処理領域を設定する障害物検知装置。
  11. 請求項9記載の障害物検知装置において、
    障害物検出部からの検出信号に基づいて自車外の障害物の位置を検出する物体位置検出部と、
    自車のライトの点灯状態を検出する自車ライト点灯検出部と、を有し、
    前記小領域分割部は、前記自車ライト点灯検出部でライトが点灯していると検出された場合、前記物体位置検出部からの障害物の位置と、予め定められた自車ライトの照射角度及び自車ライトの路面からの高さ、に基づいて、障害物へ照射される高さを算出し、算出された前記障害物へ照射される高さに対する画像上の座標を境にして前記処理領域から複数の小領域に分割する障害物検知装置。
  12. 請求項9記載の障害物検知装置において、
    自車の走行路面のペイントを検出し、自車から路面ペイントまでの距離を算出する路面ペイント検出部を有し、
    前記小領域分割部は、前記路面ペイント検出部で検出された路面ペイントの距離から前記路面ペイントの位置を算出し、前記路面ペイントの位置を境にして前記処理領域から複数の小領域に分割する障害物検知装置。
  13. 請求項9記載の障害物検知装置において、
    障害物検出部からの検出信号に基づいて自車外の障害物の位置を検出する物体位置検出部と、
    自車のライトの点灯状態を検出する自車ライト点灯検出部と、
    自車の走行路面のペイントを検出し、自車から路面ペイントまでの距離を算出する路面ペイント検出部と、を有し、
    前記小領域分割部は、
    前記自車ライト点灯検出部で自車がライトを点灯している場合は、前記物体位置検出部の検出結果と前記自車ライト点灯検出部の検出結果で得られる位置を境にして前記処理領域を複数の小領域に分割し、
    前記自車ライト点灯検出部で自車がライトを点灯していない場合、且つ前記路面ペイント検出部により路面ペイントが検出された場合は、検出された前記路面ペイントの位置を境にして前記処理領域を複数の小領域に分割し、
    前記自車ライト点灯検出部で自車がライトを点灯していない場合、且つ前記路面ペイント検出部により路面ペイントが検出されない場合は、前記画像の消失点を境にして前記処理領域を複数の小領域に分割する障害物検知装置。
  14. 請求項9記載の記載の障害物検知装置において、
    前記障害物認識部は、前記エッジ画像と前記勾配方向画像から複数の縦エッジ画像を生成し、前記複数の縦エッジ画像から予め定めた条件を満たす縦エッジ画像をグルーピングし、前記グルーピングされた縦エッジ画像の中から縦エッジを2本抽出し、前記2本の縦エッジが前記縦エッジ画像及び前記勾配方向画像に基づいてペアか否か判定し、判定結果としてペアでない場合は、障害物ではないと判定し、ペアである場合、且つ前記2本の縦エッジの長さが予め定めた長さ以上の場合は、障害物と判定し、ペアである場合、且つ前記2本の縦エッジの長さが予め定めた長さ未満の場合は、障害物ではないと判定する障害物検知装置。
  15. 請求項9記載の障害物検知装置において、
    前記認識結果出力部は、前記障害物認識部で認識した障害物の位置に応じて、車両の警報,ブレーキ制御の少なくともいずれか1つを作動させる障害物体検知装置。
  16. 請求項9記載の障害物検知装置において、
    前記小領域分割手段にて分割する小領域の境界部分には、ヒステリシスを持つ車載用物体検知装置。
JP2009218405A 2009-09-24 2009-09-24 障害物検知装置 Active JP5372680B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009218405A JP5372680B2 (ja) 2009-09-24 2009-09-24 障害物検知装置
US13/391,929 US8705796B2 (en) 2009-09-24 2010-07-22 Obstacle detection device
PCT/JP2010/062347 WO2011036936A1 (ja) 2009-09-24 2010-07-22 障害物検知装置
EP10818613.1A EP2482030B1 (en) 2009-09-24 2010-07-22 Obstacle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009218405A JP5372680B2 (ja) 2009-09-24 2009-09-24 障害物検知装置

Publications (2)

Publication Number Publication Date
JP2011069626A true JP2011069626A (ja) 2011-04-07
JP5372680B2 JP5372680B2 (ja) 2013-12-18

Family

ID=43795698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009218405A Active JP5372680B2 (ja) 2009-09-24 2009-09-24 障害物検知装置

Country Status (4)

Country Link
US (1) US8705796B2 (ja)
EP (1) EP2482030B1 (ja)
JP (1) JP5372680B2 (ja)
WO (1) WO2011036936A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140006462A (ko) * 2012-07-05 2014-01-16 현대모비스 주식회사 안전운전 지원 장치 및 방법
JP2014178736A (ja) * 2013-03-13 2014-09-25 Denso Corp 物体検出装置
KR20150102525A (ko) * 2014-02-28 2015-09-07 경북대학교 산학협력단 동등-높이 정합 영상을 이용하여 물체를 검출하기 위한 영상 처리 장치 및 방법, 그리고 그를 이용한 차량 운전 보조 시스템
JP2018041209A (ja) * 2016-09-06 2018-03-15 本田技研工業株式会社 物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム
US10436898B2 (en) 2013-12-26 2019-10-08 Hitachi, Ltd. Object recognition device
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
JP2022003335A (ja) * 2019-01-30 2022-01-11 日本電気株式会社 劣化診断装置、劣化診断システム、劣化診断方法、プログラム
JP2023500994A (ja) * 2020-04-22 2023-01-17 追▲べき▼創新科技(蘇州)有限公司 障害物認識方法、装置、自律移動機器及び記憶媒体

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5592308B2 (ja) * 2011-05-19 2014-09-17 富士重工業株式会社 環境認識装置
JP5911165B2 (ja) * 2011-08-05 2016-04-27 株式会社メガチップス 画像認識装置
DE102011084762A1 (de) 2011-10-19 2013-04-25 Robert Bosch Gmbh Verfahren und Vorrichtung zur Ermittlung einer Position eines Objektes in einem Umfeld eines Fahrzeugs
JP2013097676A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 到達時間推定装置、到達時間推定方法、到達時間推定プログラム、及び情報提示装置
JP2013097675A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 勾配推定装置、勾配推定方法、及び勾配推定プログラム
US9297641B2 (en) * 2011-12-12 2016-03-29 Mobileye Vision Technologies Ltd. Detection of obstacles at night by analysis of shadows
KR101361663B1 (ko) * 2012-03-21 2014-02-12 주식회사 코아로직 차량용 영상 처리 장치 및 방법
US9064317B2 (en) * 2012-05-15 2015-06-23 Palo Alto Research Center Incorporated Detection of near-field camera obstruction
TW201421423A (zh) * 2012-11-26 2014-06-01 Pixart Imaging Inc 影像感測器及其運作方法
US9715633B2 (en) * 2012-11-27 2017-07-25 Clarion Co., Ltd. Vehicle-mounted image processing device
US9076034B2 (en) * 2012-12-07 2015-07-07 Analog Devices, Inc. Object localization using vertical symmetry
US20150042799A1 (en) * 2013-08-07 2015-02-12 GM Global Technology Operations LLC Object highlighting and sensing in vehicle image display systems
US9903719B2 (en) * 2013-09-03 2018-02-27 Litel Instruments System and method for advanced navigation
US20150123992A1 (en) * 2013-11-04 2015-05-07 Qualcomm Incorporated Method and apparatus for heads-down display
US9342747B2 (en) * 2014-04-14 2016-05-17 Bendix Commercial Vehicle Systems Llc Vehicle driver assistance apparatus for assisting a vehicle driver in maneuvering the vehicle relative to an object
US9767372B2 (en) * 2014-05-20 2017-09-19 Nissan Motor Co., Ltd. Target detection apparatus and target detection method
JP6292097B2 (ja) * 2014-10-22 2018-03-14 株式会社デンソー 側方測距センサ診断装置
US10255687B2 (en) * 2015-02-05 2019-04-09 Pixart Imaging Inc. Distance measurement system applicable to different reflecting surfaces and operating method thereof
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
JP6466811B2 (ja) * 2015-09-30 2019-02-06 株式会社Soken 走行区画線認識装置
US10699455B2 (en) * 2015-11-05 2020-06-30 Nec Corporation Image processing system, image processing method, and image processing program recording medium
US10407047B2 (en) 2015-12-07 2019-09-10 Magna Electronics Inc. Vehicle control system with target vehicle trajectory tracking
US10582401B2 (en) * 2016-03-08 2020-03-03 Aurora Insight Inc. Large scale radio frequency signal information processing and analysis system
JP6547785B2 (ja) * 2016-07-29 2019-07-24 株式会社デンソー 物標検出装置
KR101851155B1 (ko) * 2016-10-12 2018-06-04 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
JP6710426B2 (ja) * 2016-12-19 2020-06-17 深▲せん▼前海達闥云端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co.,Ltd. 障害物検出方法及び装置
JP6815963B2 (ja) 2017-09-29 2021-01-20 クラリオン株式会社 車両用外界認識装置
US11188783B2 (en) * 2017-10-19 2021-11-30 Nokia Technologies Oy Reverse neural network for object re-identification
US11173785B2 (en) 2017-12-01 2021-11-16 Caterpillar Inc. Operator assistance vision system
US10752218B2 (en) * 2018-02-22 2020-08-25 Ford Global Technologies, Llc Camera with cleaning system
JP7100998B2 (ja) * 2018-03-08 2022-07-14 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP7192420B2 (ja) * 2018-11-14 2022-12-20 株式会社デンソー レーザレーダ装置
US10664997B1 (en) * 2018-12-04 2020-05-26 Almotive Kft. Method, camera system, computer program product and computer-readable medium for camera misalignment detection
CN111353339A (zh) * 2018-12-21 2020-06-30 厦门歌乐电子企业有限公司 一种物体识别装置及方法
CN110134111A (zh) * 2019-05-16 2019-08-16 哈尔滨理工大学 一种基于信号灯识别的机房设备故障检测装置与方法
CN112767723B (zh) * 2019-11-05 2022-04-22 深圳市大富科技股份有限公司 路况检测方法、计算机存储设备、车载终端和车辆
CN111079575B (zh) * 2019-11-29 2023-06-23 拉货宝网络科技有限责任公司 一种基于包装图像特征的物料识别方法及系统
CN111157996B (zh) * 2020-01-06 2022-06-14 珠海丽亭智能科技有限公司 一种停车机器人行驶安全检测方法
CN112107257B (zh) * 2020-09-30 2022-09-20 北京小狗吸尘器集团股份有限公司 智能清扫设备及其避障路径规划方法和装置
CN114445440A (zh) * 2020-11-03 2022-05-06 苏州科瓴精密机械科技有限公司 一种应用于自行走设备的障碍物识别方法及自行走设备
JP2022110741A (ja) * 2021-01-19 2022-07-29 フォルシアクラリオン・エレクトロニクス株式会社 障害物検出装置及び障害物検出方法
CN113110460B (zh) * 2021-04-20 2022-09-02 哈尔滨工程大学 一种动态环境下获取水面无人艇艏向可行区间的方法
CN115164766B (zh) * 2022-06-14 2024-04-26 南通黄海药械有限公司 一种园林不规则图形智能测量装置及其测量方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08261756A (ja) * 1994-11-10 1996-10-11 Toyota Central Res & Dev Lab Inc 走行レーン認識装置
JPH0935059A (ja) * 1995-07-14 1997-02-07 Aisin Seiki Co Ltd 移動体上照度識別装置
JP2005318408A (ja) * 2004-04-30 2005-11-10 Nissan Motor Co Ltd 車両周囲監視装置および方法
JP2009017157A (ja) * 2007-07-04 2009-01-22 Omron Corp 画像処理装置および方法、並びに、プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3822515B2 (ja) * 2002-03-29 2006-09-20 株式会社東芝 障害物検知装置及びその方法
US6901152B2 (en) * 2003-04-02 2005-05-31 Lockheed Martin Corporation Visual profile classification
JP3925488B2 (ja) * 2003-11-11 2007-06-06 日産自動車株式会社 車両用画像処理装置
JP4414369B2 (ja) * 2005-06-03 2010-02-10 本田技研工業株式会社 車両及び路面標示認識装置
JP4218670B2 (ja) 2005-09-27 2009-02-04 オムロン株式会社 前方撮影装置
JP5173500B2 (ja) 2008-03-11 2013-04-03 大日本スクリーン製造株式会社 処理液供給装置およびそれを備えた基板処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08261756A (ja) * 1994-11-10 1996-10-11 Toyota Central Res & Dev Lab Inc 走行レーン認識装置
JPH0935059A (ja) * 1995-07-14 1997-02-07 Aisin Seiki Co Ltd 移動体上照度識別装置
JP2005318408A (ja) * 2004-04-30 2005-11-10 Nissan Motor Co Ltd 車両周囲監視装置および方法
JP2009017157A (ja) * 2007-07-04 2009-01-22 Omron Corp 画像処理装置および方法、並びに、プログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140006462A (ko) * 2012-07-05 2014-01-16 현대모비스 주식회사 안전운전 지원 장치 및 방법
JP2014178736A (ja) * 2013-03-13 2014-09-25 Denso Corp 物体検出装置
US10466709B2 (en) 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
US10436898B2 (en) 2013-12-26 2019-10-08 Hitachi, Ltd. Object recognition device
KR20150102525A (ko) * 2014-02-28 2015-09-07 경북대학교 산학협력단 동등-높이 정합 영상을 이용하여 물체를 검출하기 위한 영상 처리 장치 및 방법, 그리고 그를 이용한 차량 운전 보조 시스템
KR101593483B1 (ko) 2014-02-28 2016-02-12 경북대학교 산학협력단 동등-높이 정합 영상을 이용하여 물체를 검출하기 위한 영상 처리 장치 및 방법, 그리고 그를 이용한 차량 운전 보조 시스템
JP2018041209A (ja) * 2016-09-06 2018-03-15 本田技研工業株式会社 物体認識装置、モデル情報生成装置、物体認識方法、および物体認識プログラム
JP2022003335A (ja) * 2019-01-30 2022-01-11 日本電気株式会社 劣化診断装置、劣化診断システム、劣化診断方法、プログラム
JP7444148B2 (ja) 2019-01-30 2024-03-06 日本電気株式会社 情報処理装置、情報処理方法、プログラム
JP2023500994A (ja) * 2020-04-22 2023-01-17 追▲べき▼創新科技(蘇州)有限公司 障害物認識方法、装置、自律移動機器及び記憶媒体
JP7383828B2 (ja) 2020-04-22 2023-11-20 追▲べき▼創新科技(蘇州)有限公司 障害物認識方法、装置、自律移動機器及び記憶媒体

Also Published As

Publication number Publication date
JP5372680B2 (ja) 2013-12-18
US8705796B2 (en) 2014-04-22
WO2011036936A1 (ja) 2011-03-31
EP2482030A1 (en) 2012-08-01
EP2482030A4 (en) 2017-07-12
US20120170808A1 (en) 2012-07-05
EP2482030B1 (en) 2019-11-20

Similar Documents

Publication Publication Date Title
JP5372680B2 (ja) 障害物検知装置
JP5401344B2 (ja) 車両用外界認識装置
US10690770B2 (en) Navigation based on radar-cued visual imaging
JP5518007B2 (ja) 車両用外界認識装置及びそれを用いた車両制御システム
US9607400B2 (en) Moving object recognizer
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
US9073484B2 (en) Surrounding area monitoring apparatus for vehicle
EP3179445B1 (en) Outside environment recognition device for vehicles and vehicle behavior control device using same
JP5090321B2 (ja) 物体検知装置
JP3619628B2 (ja) 走行環境認識装置
US8184159B2 (en) Forward looking sensor system
JP5283967B2 (ja) 車載用物体検知装置
US8810653B2 (en) Vehicle surroundings monitoring apparatus
EP2993654A1 (en) Method and system for forward collision warning
JP2008304344A (ja) 物標検出装置
JP5593217B2 (ja) 車両用外界認識装置およびそれを用いた車両システム
KR101840927B1 (ko) 차량 후진시 후측방 접근 객체와의 충돌 회피 장치 및 방법
JP2004265432A (ja) 走行環境認識装置
JP2004348645A (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置
JP4871941B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130918

R150 Certificate of patent or registration of utility model

Ref document number: 5372680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250