JP2006151300A - 車両周辺監視装置 - Google Patents
車両周辺監視装置 Download PDFInfo
- Publication number
- JP2006151300A JP2006151300A JP2004347817A JP2004347817A JP2006151300A JP 2006151300 A JP2006151300 A JP 2006151300A JP 2004347817 A JP2004347817 A JP 2004347817A JP 2004347817 A JP2004347817 A JP 2004347817A JP 2006151300 A JP2006151300 A JP 2006151300A
- Authority
- JP
- Japan
- Prior art keywords
- image
- horizontal edge
- pedestrian
- vehicle
- binarized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003708 edge detection Methods 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract 2
- 238000012545 processing Methods 0.000 claims description 25
- 238000012806 monitoring device Methods 0.000 claims description 18
- 239000000284 extract Substances 0.000 claims description 3
- 238000003331 infrared imaging Methods 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 36
- 238000013459 approach Methods 0.000 description 13
- 238000012544 monitoring process Methods 0.000 description 9
- 230000000875 corresponding effect Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000005484 gravity Effects 0.000 description 6
- 210000000746 body region Anatomy 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/161—Decentralised systems, e.g. inter-vehicle communication
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B60K35/60—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B60K2360/785—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/10—Longitudinal speed
- B60W2520/105—Longitudinal acceleration
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/14—Yaw
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/12—Brake pedal position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
Abstract
【解決手段】 ランレングスデータに変換された画像データから検出される2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差分(|OBJ_TOP−j_FL_TOP|)が所定閾値DIFF_H_THよりも大きい場合には、2値化対象物が縦方向(例えば鉛直方向上方)に伸びる人工構造物であると判定する。2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとの差分(|OBJ_BOT−j_FL_BOT|)が所定閾値DIFF_H_THよりも大きい場合には、2値化対象物が縦方向(例えば鉛直方向下方)に伸びる人工構造物であると判定する。
【選択図】 図10
Description
この表示処理装置では、赤外線画像を2値化処理して明部が集中している領域(2値化対象物)を探索し、2値化対象物の縦横比や充足率、更には実面積と赤外線画像上の重心位置とにより算出した距離に基づき、2値化対象物が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部領域の赤外線カメラからの距離と、成人の平均身長とから、赤外線画像上の歩行者の身長を算出すると共に、歩行者の身体を包含する身体領域を設定し、頭部領域および身体領域を他の領域と区分して表示することにより、歩行者に対する運転者の視覚補助を行うようになっている。
本発明は上記事情に鑑みてなされたもので、赤外線画像上において歩行者と人工構造物とを的確に区別して抽出することが可能な車両周辺監視装置を提供することを目的としている。
さらに、請求項2に記載の本発明の車両周辺監視装置によれば、歩行者の認識精度を向上させることができる。
さらに、請求項3に記載の本発明の車両周辺監視装置によれば、人工構造物に対して不必要な警報を出力してしまうことを防止することができる。
本実施の形態による車両周辺監視装置は、例えば図1に示すように、車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニット1と、遠赤外線を検出可能な2つの赤外線カメラ2R,2Lと、自車両のヨーレートを検出するヨーレートセンサ3と、自車両の走行速度(車速)を検出する車速センサ4と、運転者によるブレーキ操作の有無を検出するブレーキセンサ5と、スピーカ6と、表示装置7とを備えて構成され、例えば、画像処理ユニット1は2つの赤外線カメラ2R,2Lの撮影により得られる自車両周辺の赤外線画像と、各センサ3,4,5により検出される自車両の走行状態に係る検出信号とから、自車両の進行方向前方の歩行者や動物等の移動体を検出し、検出した移動体と自車両との接触が発生する可能性があると判断したときに、スピーカ6または表示装置7を介して警報を出力するようになっている。
なお、表示装置7は、例えば自車両の各種走行状態量を表示する計器類と一体化された表示装置やナビゲーション装置の表示装置、さらにフロントウィンドウにおいて運転者の前方視界を妨げない位置に各種情報を表示するHUD(Head Up Display)7a等を備えて構成されている。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
以下に、画像処理ユニット1における歩行者等の対象物検出および警報出力の動作について説明する。
まず、図3に示すステップS1において、画像処理ユニット1は、赤外線カメラ2R,2Lの出力信号である赤外線画像を取得する。
次に、ステップS2においては、取得した赤外線画像をA/D変換する。
次に、ステップS3においては、中間階調情報を含むグレースケール画像を取得して、画像メモリに格納する。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像とでは、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(つまり、視差)により自車両10から対象物までの距離を算出することができる。
なお、以下のステップS4〜ステップS9の処理は、2値化処理により得た基準画像(例えば、右画像)について実行する。
次に、ステップS5においては、赤外線画像に2値化処理を実行して得た画像データをランレングスデータに変換する。ランレングスデータでは、2値化処理により白となった領域を画素レベルでラインとして表示し、各ラインはy方向に1画素の幅を有し、x方向に適宜の画素数の長さを有するように設定されている
次に、ステップS7においては、対象物のラベリングに応じて対象物を抽出する。ここでは、ランレングスデータにおける各ラインのうち、同等のx方向座標を含むライン同士がy方向で隣接する場合に、隣接するラインが単一の対象物を構成しているとみなす。
次に、ステップS8においては、抽出した対象物の重心Gと、面積Sと、外接四角形の縦横比ASPECTとを算出する。
また、ラベルAの対象物の重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と、各ランレングスデータの座標x[i]またはy[i]とを乗算して得た値(つまり、(run[i]−1)×x[i]または(run[i]−1)×y[i])を同一対象物において積算して得た値を、面積Sで除算することにより算出する。
さらに、縦横比ASPECTは、ラベルAの対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する必要がある(=run[i]−1)。また、重心Gの座標は、外接四角形の重心座標で代用してもよい。
まず、ステップS9においては、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う。この時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出した場合、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定された場合には、対象物C、Dのラベルをそれぞれ対象物A、Bのラベルに変更する。そして、認識された各対象物の位置座標(例えば、重心等)を、時系列位置データとして適宜のメモリに格納する。
先ず、ステップS11においては、基準画像(例えば、右画像)を2値化処理して得た画像データ上で追跡される複数の対象物のうちから1つの対象物を選択し、例えば選択した対象物を外接四角形で囲む領域全体を探索画像R1として基準画像(例えば、右画像)から抽出する。
ここで、実空間座標(X,Y,Z)は、例えば図2に示すように、自車両10の前部における赤外線カメラ2R,2Lの取り付け位置の中点の位置を原点Oとして設定され、画像データ上の座標は、画像データの中心を原点として水平方向をx方向、垂直方向をy方向として設定されている。また、座標(xc,yc)は、基準画像(例えば、右画像)上の座標(x,y)を、赤外線カメラ2Rの取付位置と、実空間の原点Oとの相対位置関係に基づいて、実空間の原点Oと画像データの中心とを一致させて得た仮想的な画像上の座標に変換して得た座標である。
このステップS16においては、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(つまり、所定時間ΔT前)の位置座標P(N−1)=(X(N−1),Y(N−1),Z(N−1))とを、近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))およびPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を算出する。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このように所定時間ΔTのモニタ期間内の複数(例えば、N個)の実空間位置データから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して自車両10と対象物との接触発生の可能性を精度良く予測することが可能となる。
この判定結果が「NO」の場合には、ステップS1へ戻り、上述したステップS1〜ステップS17の処理を繰り返す。
一方、この判定結果が「YES」の場合には、ステップS18に進む。
そして、ステップS18においては、例えばブレーキセンサ5の出力BRに基づく自車両10の運転者がブレーキ操作を行っているか否か等に応じた警報出力判定処理において、警報出力が必要か否かを判定する。
ステップS18の判定結果が「NO」の場合、例えば自車両10の運転者がブレーキ操作を行っている場合に発生する加速度Gs(減速方向を正とする)が所定閾値GTHよりも大きいとき場合には、運転者のブレーキ操作により接触発生が回避されると判断して、判定して、ステップS1へ戻り、上述したステップS1〜ステップS18の処理を繰り返す。
一方、ステップS18の判定結果が「YES」の場合、例えば自車両10の運転者がブレーキ操作を行っている場合に発生する加速度Gs(減速方向を正とする)が所定閾値GTH以下である場合、あるいは、自車両10の運転者がブレーキ操作を行っていない場合には、 一方、ステップS18の判定結果が「YES」の場合には、接触発生の可能性が高いと判断して、ステップS19に進む。
なお、所定閾値GTHは、ブレーキ操作中の加速度Gsが維持された場合に、対象物と自車両10との間の距離が所定の距離Zv(0)以下で自車両10が停止する状態に対応する値である。
次に、ステップS20においては、表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像データを出力し、相対的に接近する対象物を強調映像として表示する。
この警報判定処理は、例えば図4に示すように、衝突判定処理と、接近判定領域内か否かの判定処理と、進入衝突判定処理と、人工構造物判定処理と、歩行者判定処理とにより、自車両10と検出した対象物との接触発生の可能性を判定する処理である。なお、以下においては、例えば図5に示すように、自車両10の進行方向(例えば、Z方向)に対してほぼ直交する方向において速度Vpで移動する対象物20が存在する場合を参照して説明する。
この判定結果が「NO」の場合には、後述するステップS37に進む。
一方、この判定結果が「YES」の場合には、ステップS32に進む。
なお、余裕時間Tsは、接触発生の可能性を、予測される接触発生時刻よりも所定時間Tsだけ以前のタイミングで判定するための時間であって、例えば2〜5秒程度に設定される。また、所定地上高Hは、例えば自車両10の車高の2倍程度の値に設定される。
この判定結果が「YES」の場合には、後述するステップS34に進む。
一方、この判定結果が「NO」の場合には、ステップS33に進む。
この判定結果が「YES」の場合には、後述するステップS36に進む。
一方、この判定結果が「NO」の場合には、後述するステップS37に進む。
この判定結果が「NO」の場合には、ステップS35に進む。
一方、この判定結果が「YES」の場合には、ステップS37に進む。
そして、ステップS35においては、対象物が歩行者である可能性があるか否かを判定する歩行者判定処理を行う。
ステップS35の判定結果が「YES」の場合には、ステップS36に進む。
一方、ステップS35の判定結果が「NO」の場合には、後述するステップS37に進む。
一方、ステップS37においては、上述したステップS31において所定の余裕時間Ts以内に自車両10と対象物とが接触する可能性がない場合(ステップS31のNO)、あるいは、ステップS33において対象物が接近判定領域内へ進入して自車両10と接触する可能性がない場合(ステップS33のNO)、あるいは、ステップS34において対象物が人工構造物であると判定された場合(ステップS34のYES)、あるいはステップS34において人工構造物ではないと判定された対象物がさらに歩行者ではないと判定された場合(ステップS35のNO)には、検出した対象物と自車両10との接触発生の可能性がないと判断して、対象物は警報の対象ではないと判定し、一連の処理を終了する。
例えば2値化対象物OBの外接四角形QBの左上頂点QLの座標(xb,yb)と、外接四角形の幅Wbと、外接四角形の高さHbとに対して、マスクOAの幅dxPを所定値(例えば、外接四角形の幅Wb+2×所定値M_W;ただし、所定値M_Wは1pixel等)とし、マスクOAの高さdyPを所定値(例えば、2×所定値M_H;ただし、所定値M_Hは、実空間の所定高さMASK_H(例えば、30cm等)を画像上に展開した値であって、所定値M_H=焦点距離f×所定高さMASK_H/対象物距離z)とすれば、マスクOAの左上頂点ALの座標(xP,yP)は、(xP=xb−M_W,yP=yb−M_H)となる。
そして、グレースケール画像上のマスクOA内に対して水平エッジ検出用の適宜のエッジフィルタを作用させて得たエッジフィルタ出力値Kido_buffが所定閾値KIDO_FIL_TH(例えば、10階調)よりも大きいか否かを判定する。
この判定結果が「YES」の場合には、水平エッジが存在すると設定する。
一方、この判定結果が「NO」の場合には、水平エッジが存在しないと設定する。
そして、水平エッジの含有率RATE(I)が所定閾値RATE_TH(例えば、50%等)よりも大きい(RATE(I)>RATE_TH)水平ラインIに含まれる水平エッジのうち、例えば図9に示すように、水平エッジの高さ位置が最大(つまり鉛直方向で最も上方の位置)となる水平エッジの高さ位置をエッジ検出位置j_FL_TOPとして設定する。
そして、ランレングスデータに変換された画像データから検出される2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差分(|OBJ_TOP−j_FL_TOP|)が所定閾値DIFF_H_THよりも大きいか否かを判定する。
なお、所定閾値DIFF_H_THは、例えば実空間の所定高さH_TH(例えば、10cm等)を画像上に展開した値であって、所定閾値DIFF_H_TH=焦点距離f×所定高さH_TH/対象物距離zである。
一方、この判定結果が「YES」の場合、つまり2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差異が相対的に大きい場合には、例えば縦方向における輝度値の減少が相対的に緩やかであって、2値化対象物が縦方向(例えば鉛直方向上方)に伸びる人工構造物であると判定して、一連の処理を終了する。
すなわち、2値化対象物が縦方向(例えば鉛直方向上方)に伸びる人工構造物であって、縦方向に沿った輝度値の変化が相対的に緩やかである場合には、例えば、輝度値が最大となるピーク位置近傍のみで水平エッジが検出され、輝度値が減少傾向に変化する領域では水平エッジが検出され難くなり、2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差異が相対的に大きくなる。
すなわち、この変形例に係る人工構造物判定処理では、例えば図11に示すように、基準画像(例えば、赤外線カメラ2Rにより得られた右画像)上において、少なくとも2値化対象物OBの下部を含む領域であって、水平エッジの検出対象となる対象領域(マスク)OAを設定する。
そして、グレースケール画像上のマスクOA内に対して水平エッジ検出用の適宜のエッジフィルタを作用させて得たエッジフィルタ出力値Kido_buffが所定閾値KIDO_FIL_TH(例えば、10階調)よりも大きいか否かを判定する。
この判定結果が「YES」の場合には、水平エッジが存在すると設定する。
一方、この判定結果が「NO」の場合には、水平エッジが存在しないと設定する。
そして、水平エッジの含有率RATE(I)が所定閾値RATE_TH(例えば、50%等)よりも大きい(RATE(I)>RATE_TH)水平ラインIに含まれる水平エッジのうち、例えば図9に示すように、水平エッジの高さ位置が最小(つまり鉛直方向で最も下方の位置)となる水平エッジの高さ位置をエッジ検出位置j_FL_BOTとして設定する。
そして、ランレングスデータに変換された画像データから検出される2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとの差分(|OBJ_BOT−j_FL_BOT|)が所定閾値DIFF_H_THよりも大きいか否かを判定する。
なお、所定閾値DIFF_H_THは、例えば実空間の所定高さH_TH(例えば、10cm等)を画像上に展開した値であって、所定閾値DIFF_H_TH=焦点距離f×所定高さH_TH/対象物距離zである。
一方、この判定結果が「YES」の場合、つまり2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとの差異が相対的に大きい場合には、例えば縦方向における輝度値の減少が相対的に緩やかであって、2値化対象物が縦方向(例えば鉛直方向下方)に伸びる人工構造物であると判定して、一連の処理を終了する。
この変形例においては、2値化対象物の下端位置OBJ_BOTから所定閾値DIFF_H_TH以内に水平エッジが検出され難い対象物の種別として縦方向(例えば鉛直方向下方)に伸びる人工構造物と、この人工構造物以外、例えば2値化対象物の下端位置OBJ_BOTで水平エッジが検出され易い歩行者とを的確に判別することができる。
2R,2L 赤外線カメラ(赤外線撮像手段)
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 表示装置
10 自車両
ステップS7 2値化対象物抽出手段
ステップS19 警報出力手段
ステップS34 水平エッジ検出手段、水平エッジ判定手段、対象物種別判定手段
ステップS35 歩行者認識手段
Claims (3)
- 赤外線撮像手段の撮像により得られた画像に基づき自車両の外界に存在する物体を対象物として抽出する車両周辺監視装置であって、
前記画像のグレースケール画像を2値化処理して得た画像データから2値化対象物を抽出する2値化対象物抽出手段と、
前記グレースケール画像上において水平エッジを検出する水平エッジ検出手段と、
前記グレースケール画像上において、前記2値化対象物抽出手段により抽出された前記2値化対象物の上端または下端から所定範囲以内に前記水平エッジ検出手段により検出された前記水平エッジが存在するか否かを判定する水平エッジ判定手段と、
前記水平エッジ判定手段の判定結果に基づき対象物の種別を判定する対象物種別判定手段と
を備えることを特徴とする車両周辺監視装置。 - 前記画像に基づき自車両の外界に存在する歩行者を認識する歩行者認識手段を備え、
該歩行者認識手段は、前記対象物種別判定手段により人工構造物以外あるいは歩行者であると判定された前記対象物に対して歩行者認識処理を実行することを特徴とする請求項1に記載の車両周辺監視装置。 - 前記対象物種別判定手段により人工構造物以外あるいは歩行者であると判定された前記対象物に対して警報を出力する警報出力手段を備えることを特徴とする請求項1または請求項2に記載の車両周辺監視装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004347817A JP4128562B2 (ja) | 2004-11-30 | 2004-11-30 | 車両周辺監視装置 |
DE102005056616A DE102005056616B4 (de) | 2004-11-30 | 2005-11-28 | Fahrzeugumgebungsüberwachungsvorrichtung |
US11/287,871 US7388476B2 (en) | 2004-11-30 | 2005-11-28 | Vehicle surroundings monitoring apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004347817A JP4128562B2 (ja) | 2004-11-30 | 2004-11-30 | 車両周辺監視装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006151300A true JP2006151300A (ja) | 2006-06-15 |
JP4128562B2 JP4128562B2 (ja) | 2008-07-30 |
Family
ID=36371614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004347817A Expired - Fee Related JP4128562B2 (ja) | 2004-11-30 | 2004-11-30 | 車両周辺監視装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7388476B2 (ja) |
JP (1) | JP4128562B2 (ja) |
DE (1) | DE102005056616B4 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009101660A1 (ja) * | 2008-02-13 | 2009-08-20 | Honda Motor Co., Ltd. | 車両周辺監視装置、車両、車両周辺監視プログラム |
WO2011155152A1 (ja) * | 2010-06-07 | 2011-12-15 | 本田技研工業株式会社 | 車両の周辺監視装置 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4203512B2 (ja) * | 2006-06-16 | 2009-01-07 | 本田技研工業株式会社 | 車両周辺監視装置 |
US7881497B2 (en) * | 2007-03-08 | 2011-02-01 | Honeywell International Inc. | Vision based navigation and guidance system |
DE102008001551A1 (de) * | 2008-05-05 | 2009-11-12 | Robert Bosch Gmbh | Vorrichtung und Verfahren zum automatischen Einstellen der Leuchtdichte eines von einer Beleuchtungseinrichtung eines Fahrzeuges ausgesandten Lichtbündels in Abhängigkeit von der Sichtweite |
CN102783144B (zh) * | 2010-03-01 | 2016-06-29 | 本田技研工业株式会社 | 车辆的周围监测装置 |
CN102782741B (zh) * | 2010-03-03 | 2015-08-19 | 本田技研工业株式会社 | 车辆周围监测装置 |
US10703299B2 (en) * | 2010-04-19 | 2020-07-07 | SMR Patents S.à.r.l. | Rear view mirror simulation |
CN104823218A (zh) * | 2012-12-03 | 2015-08-05 | 哈曼国际工业有限公司 | 使用单一普通摄像机来检测行人的系统和方法 |
US10055643B2 (en) * | 2014-09-19 | 2018-08-21 | Bendix Commercial Vehicle Systems Llc | Advanced blending of stitched images for 3D object reproduction |
US9990550B2 (en) * | 2014-09-19 | 2018-06-05 | Bendix Commercial Vehicle Systems Llc | Wide baseline object detection stereo system |
CN107553497B (zh) * | 2017-10-20 | 2023-12-22 | 苏州瑞得恩光能科技有限公司 | 太阳能面板清扫机器人的边缘定位装置及其定位方法 |
JP7096147B2 (ja) * | 2018-12-25 | 2022-07-05 | トヨタ自動車株式会社 | 注意喚起装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0505858B1 (en) * | 1991-03-19 | 2002-08-14 | Mitsubishi Denki Kabushiki Kaisha | A moving body measuring device and an image processing device for measuring traffic flows |
JPH08313632A (ja) | 1995-05-19 | 1996-11-29 | Omron Corp | 警報発生装置および方法,ならびにこの警報発生装置を搭載した車両 |
JP4135123B2 (ja) * | 1998-05-13 | 2008-08-20 | 日産自動車株式会社 | 表示処理装置 |
JP3716623B2 (ja) | 1998-07-09 | 2005-11-16 | 日産自動車株式会社 | 温体検出装置 |
JP3515926B2 (ja) * | 1999-06-23 | 2004-04-05 | 本田技研工業株式会社 | 車両の周辺監視装置 |
US6531959B1 (en) * | 1999-07-13 | 2003-03-11 | Honda Giken Kogyo Kabushiki Kaisha | Position detecting device |
JP3760068B2 (ja) * | 1999-12-02 | 2006-03-29 | 本田技研工業株式会社 | 画像認識装置 |
JP2001211449A (ja) | 2000-01-27 | 2001-08-03 | Honda Motor Co Ltd | 車両用画像認識装置 |
JP2001351200A (ja) | 2000-06-09 | 2001-12-21 | Nissan Motor Co Ltd | 車載用物体検知装置 |
JP4615139B2 (ja) | 2001-03-30 | 2011-01-19 | 本田技研工業株式会社 | 車両の周辺監視装置 |
JP2003016429A (ja) * | 2001-06-28 | 2003-01-17 | Honda Motor Co Ltd | 車両周辺監視装置 |
JP3764086B2 (ja) * | 2001-10-29 | 2006-04-05 | 本田技研工業株式会社 | 車両用情報提供装置 |
DE10301468B4 (de) * | 2002-01-18 | 2010-08-05 | Honda Giken Kogyo K.K. | Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs |
JP4104867B2 (ja) | 2002-01-18 | 2008-06-18 | 本田技研工業株式会社 | ナイトビジョンシステム |
JP3756452B2 (ja) * | 2002-01-18 | 2006-03-15 | 本田技研工業株式会社 | 赤外線画像処理装置 |
JP3987048B2 (ja) * | 2003-03-20 | 2007-10-03 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP3987013B2 (ja) * | 2003-09-01 | 2007-10-03 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP3934119B2 (ja) * | 2004-06-14 | 2007-06-20 | 本田技研工業株式会社 | 車両周辺監視装置 |
JP3987057B2 (ja) * | 2004-06-14 | 2007-10-03 | 本田技研工業株式会社 | 車両周辺監視装置 |
US7231288B2 (en) * | 2005-03-15 | 2007-06-12 | Visteon Global Technologies, Inc. | System to determine distance to a lead vehicle |
-
2004
- 2004-11-30 JP JP2004347817A patent/JP4128562B2/ja not_active Expired - Fee Related
-
2005
- 2005-11-28 DE DE102005056616A patent/DE102005056616B4/de not_active Expired - Fee Related
- 2005-11-28 US US11/287,871 patent/US7388476B2/en not_active Expired - Fee Related
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009101660A1 (ja) * | 2008-02-13 | 2009-08-20 | Honda Motor Co., Ltd. | 車両周辺監視装置、車両、車両周辺監視プログラム |
JP2009194542A (ja) * | 2008-02-13 | 2009-08-27 | Honda Motor Co Ltd | 車両周辺監視装置、車両、車両周辺監視プログラム |
JP4521642B2 (ja) * | 2008-02-13 | 2010-08-11 | 本田技研工業株式会社 | 車両周辺監視装置、車両、車両周辺監視プログラム |
WO2011155152A1 (ja) * | 2010-06-07 | 2011-12-15 | 本田技研工業株式会社 | 車両の周辺監視装置 |
JP5642785B2 (ja) * | 2010-06-07 | 2014-12-17 | 本田技研工業株式会社 | 車両の周辺監視装置 |
Also Published As
Publication number | Publication date |
---|---|
DE102005056616B4 (de) | 2010-09-23 |
US7388476B2 (en) | 2008-06-17 |
JP4128562B2 (ja) | 2008-07-30 |
DE102005056616A1 (de) | 2006-06-01 |
US20060126898A1 (en) | 2006-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4410292B1 (ja) | 車両の周辺監視装置 | |
US7969466B2 (en) | Vehicle surroundings monitoring apparatus | |
US7388476B2 (en) | Vehicle surroundings monitoring apparatus | |
US20030007074A1 (en) | Vehicle zone monitoring apparatus | |
US20060115115A1 (en) | Vehicle surroundings monitoring apparatus | |
US20060115119A1 (en) | Vehicle surroundings monitoring apparatus | |
JP2005354597A (ja) | 車両周辺監視装置 | |
US7561719B2 (en) | Vehicle surroundings monitoring apparatus | |
JP2007193445A (ja) | 車両の周辺監視装置 | |
JP4528283B2 (ja) | 車両周辺監視装置 | |
JP2003216937A (ja) | ナイトビジョンシステム | |
US20060126897A1 (en) | Vehicle surroundings monitoring apparatus | |
JP4425852B2 (ja) | 車両周辺監視装置 | |
US7526104B2 (en) | Vehicle surroundings monitoring apparatus | |
US7515737B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4298699B2 (ja) | 車両周辺監視装置 | |
JP5291524B2 (ja) | 車両周辺監視装置 | |
JP3898157B2 (ja) | 赤外線画像認識装置 | |
JP4943403B2 (ja) | 車両の周辺監視装置 | |
JP4283266B2 (ja) | 車両周辺監視装置 | |
JP4372746B2 (ja) | 車両周辺監視装置 | |
JP2004364112A (ja) | 車両周辺表示装置 | |
US7545955B2 (en) | Vehicle surroundings monitoring apparatus | |
JP4358183B2 (ja) | 車両周辺監視装置 | |
JP2004348645A (ja) | 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080205 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080507 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080514 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110523 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110523 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130523 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130523 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140523 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |