JP2006151300A - 車両周辺監視装置 - Google Patents

車両周辺監視装置 Download PDF

Info

Publication number
JP2006151300A
JP2006151300A JP2004347817A JP2004347817A JP2006151300A JP 2006151300 A JP2006151300 A JP 2006151300A JP 2004347817 A JP2004347817 A JP 2004347817A JP 2004347817 A JP2004347817 A JP 2004347817A JP 2006151300 A JP2006151300 A JP 2006151300A
Authority
JP
Japan
Prior art keywords
image
horizontal edge
pedestrian
vehicle
binarized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004347817A
Other languages
English (en)
Other versions
JP4128562B2 (ja
Inventor
Shinji Nagaoka
伸治 長岡
Takayuki Tsuji
孝之 辻
Masato Watanabe
正人 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004347817A priority Critical patent/JP4128562B2/ja
Priority to DE102005056616A priority patent/DE102005056616B4/de
Priority to US11/287,871 priority patent/US7388476B2/en
Publication of JP2006151300A publication Critical patent/JP2006151300A/ja
Application granted granted Critical
Publication of JP4128562B2 publication Critical patent/JP4128562B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • B60K2360/785
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/10Longitudinal speed
    • B60W2520/105Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/12Brake pedal position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems

Abstract

【課題】 赤外線画像上において歩行者と人工構造物とを的確に区別して抽出する。
【解決手段】 ランレングスデータに変換された画像データから検出される2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差分(|OBJ_TOP−j_FL_TOP|)が所定閾値DIFF_H_THよりも大きい場合には、2値化対象物が縦方向(例えば鉛直方向上方)に伸びる人工構造物であると判定する。2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとの差分(|OBJ_BOT−j_FL_BOT|)が所定閾値DIFF_H_THよりも大きい場合には、2値化対象物が縦方向(例えば鉛直方向下方)に伸びる人工構造物であると判定する。
【選択図】 図10

Description

この発明は、赤外線カメラにより撮影された画像の2値化処理により対象物抽出を行う車両周辺監視装置に関する。
従来、赤外線カメラの撮影により得られた自車両周辺の赤外線画像から、自車両との衝突の可能性がある歩行者等の対象物を抽出し、この対象物の情報を自車両の運転者に提供する表示処理装置が知られている(例えば、特許文献1参照)。
この表示処理装置では、赤外線画像を2値化処理して明部が集中している領域(2値化対象物)を探索し、2値化対象物の縦横比や充足率、更には実面積と赤外線画像上の重心位置とにより算出した距離に基づき、2値化対象物が歩行者の頭部であるか否かを判定する。そして、歩行者の頭部領域の赤外線カメラからの距離と、成人の平均身長とから、赤外線画像上の歩行者の身長を算出すると共に、歩行者の身体を包含する身体領域を設定し、頭部領域および身体領域を他の領域と区分して表示することにより、歩行者に対する運転者の視覚補助を行うようになっている。
特開平11−328364号公報
ところで、上記従来技術の一例に係る表示処理装置においては、赤外線画像上での頭部領域や身体領域に対する形状判定に基づいて歩行者を検知していることから、歩行者の形状、特に頭部の形状と類似した大きさおよび高さ位置を有して発熱する人工構造物と、歩行者とを識別することが困難になる虞がある。
本発明は上記事情に鑑みてなされたもので、赤外線画像上において歩行者と人工構造物とを的確に区別して抽出することが可能な車両周辺監視装置を提供することを目的としている。
上記課題を解決して係る目的を達成するために、請求項1に記載の本発明の車両周辺監視装置は、赤外線撮像手段(例えば、実施の形態での赤外線カメラ2R,2L)の撮像により得られた画像に基づき自車両の外界に存在する物体を対象物として抽出する車両周辺監視装置であって、前記画像のグレースケール画像を2値化処理して得た画像データから2値化対象物を抽出する2値化対象物抽出手段(例えば、実施の形態でのステップS7)と、前記グレースケール画像上において水平エッジを検出する水平エッジ検出手段(例えば、実施の形態でのステップS34)と、前記グレースケール画像上において、前記2値化対象物抽出手段により抽出された前記2値化対象物の上端(例えば、実施の形態での上端位置OBJ_TOP)または下端(例えば、実施の形態での下端位置OBJ_BOT)から所定範囲以内に前記水平エッジ検出手段により検出された前記水平エッジが存在するか否かを判定する水平エッジ判定手段(例えば、実施の形態でのステップS34が兼ねる)と、前記水平エッジ判定手段の判定結果に基づき対象物の種別を判定する対象物種別判定手段(例えば、実施の形態でのステップS34が兼ねる)とを備えることを特徴としている。
上記の車両周辺監視装置によれば、2値化対象物の上端または下端から所定範囲以内に水平エッジが検出され難い対象物の種別として人工構造物と、人工構造物以外、例えば2値化対象物の上端または下端で水平エッジが検出され易い歩行者とを的確に判別することができる。
さらに、請求項2に記載の本発明の車両周辺監視装置は、前記画像に基づき自車両の外界に存在する歩行者を認識する歩行者認識手段(例えば、実施の形態でのステップS35)を備え、該歩行者認識手段は、前記対象物種別判定手段により人工構造物以外あるいは歩行者であると判定された前記対象物に対して歩行者認識処理を実行することを特徴としている。
上記の車両周辺監視装置によれば、歩行者であると判定された対象物に加えて、人工構造物以外であると判定された対象物に対して歩行者認識処理を実行することにより、歩行者の認識精度を向上させることができる。
さらに、請求項3に記載の本発明の車両周辺監視装置は、前記対象物種別判定手段により人工構造物以外あるいは歩行者であると判定された前記対象物に対して警報を出力する警報出力手段(例えば、実施の形態でのステップS19)を備えることを特徴としている。
上記の車両周辺監視装置によれば、歩行者であると判定された対象物に加えて、人工構造物以外であると判定された対象物に対して警報を出力することから、人工構造物に対して不必要な警報を出力してしまうことを防止することができる。
以上説明したように、請求項1に記載の本発明の車両周辺監視装置によれば、2値化対象物の上端または下端から所定範囲以内に水平エッジが検出され難い対象物の種別として人工構造物と、人工構造物以外、例えば2値化対象物の上端または下端で水平エッジが検出され易い歩行者とを的確に判別することができる。
さらに、請求項2に記載の本発明の車両周辺監視装置によれば、歩行者の認識精度を向上させることができる。
さらに、請求項3に記載の本発明の車両周辺監視装置によれば、人工構造物に対して不必要な警報を出力してしまうことを防止することができる。
以下、本発明の一実施形態に係る車両周辺監視装置について添付図面を参照しながら説明する。
本実施の形態による車両周辺監視装置は、例えば図1に示すように、車両周辺監視装置を制御するCPU(中央演算装置)を備えた画像処理ユニット1と、遠赤外線を検出可能な2つの赤外線カメラ2R,2Lと、自車両のヨーレートを検出するヨーレートセンサ3と、自車両の走行速度(車速)を検出する車速センサ4と、運転者によるブレーキ操作の有無を検出するブレーキセンサ5と、スピーカ6と、表示装置7とを備えて構成され、例えば、画像処理ユニット1は2つの赤外線カメラ2R,2Lの撮影により得られる自車両周辺の赤外線画像と、各センサ3,4,5により検出される自車両の走行状態に係る検出信号とから、自車両の進行方向前方の歩行者や動物等の移動体を検出し、検出した移動体と自車両との接触が発生する可能性があると判断したときに、スピーカ6または表示装置7を介して警報を出力するようになっている。
なお、表示装置7は、例えば自車両の各種走行状態量を表示する計器類と一体化された表示装置やナビゲーション装置の表示装置、さらにフロントウィンドウにおいて運転者の前方視界を妨げない位置に各種情報を表示するHUD(Head Up Display)7a等を備えて構成されている。
また、画像処理ユニット1は、入力アナログ信号をディジタル信号に変換するA/D変換回路と、ディジタル化した画像信号を記憶する画像メモリと、各種演算処理を行うCPU(中央演算装置)と、CPUが演算途中のデータを記憶するために使用するRAM(Random Access Memory)と、CPUが実行するプログラムやテーブル、マップなどを記憶するROM(Read Only Memory)と、スピーカ6の駆動信号やHUD7a等の表示信号などを出力する出力回路とを備えており、赤外線カメラ2R,2Lおよび各センサ3,4,5から出力される信号は、ディジタル信号に変換されてCPUに入力されるように構成されている。
なお、例えば図2に示すように、赤外線カメラ2R,2Lは、自車両10の前部に、自車両10の車幅方向中心部に対してほぼ対象な位置に配置されており、2つの赤外線カメラ2R,2Lの光軸が互いに平行であって、かつ両者の路面からの高さが等しくなるように固定されている。なお、赤外線カメラ2R,2Lは、対象物の温度が高いほど、出力信号レベルが高くなる(つまり、輝度が増大する)特性を有している。
また、HUD7aは、自車両10のフロントウインドウの運転者の前方視界を妨げない位置に表示画面が表示されるように設けられている。
本実施の形態による車両周辺監視装置は上記構成を備えており、次に、この車両周辺監視装置の動作について添付図面を参照しながら説明する。
以下に、画像処理ユニット1における歩行者等の対象物検出および警報出力の動作について説明する。
まず、図3に示すステップS1において、画像処理ユニット1は、赤外線カメラ2R,2Lの出力信号である赤外線画像を取得する。
次に、ステップS2においては、取得した赤外線画像をA/D変換する。
次に、ステップS3においては、中間階調情報を含むグレースケール画像を取得して、画像メモリに格納する。なお、ここでは赤外線カメラ2Rにより右画像が得られ、赤外線カメラ2Lにより左画像が得られる。また、右画像と左画像とでは、同一の対象物の表示画面上の水平位置がずれて表示されるので、このずれ(つまり、視差)により自車両10から対象物までの距離を算出することができる。
次に、ステップS4においては、赤外線カメラ2Rにより得られた右画像を基準画像とし、この画像信号の2値化処理、すなわち所定輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。
なお、以下のステップS4〜ステップS9の処理は、2値化処理により得た基準画像(例えば、右画像)について実行する。
次に、ステップS5においては、赤外線画像に2値化処理を実行して得た画像データをランレングスデータに変換する。ランレングスデータでは、2値化処理により白となった領域を画素レベルでラインとして表示し、各ラインはy方向に1画素の幅を有し、x方向に適宜の画素数の長さを有するように設定されている
次に、ステップS6においては、ランレングスデータに変換された画像データにおいて、対象物のラベリングを行う。
次に、ステップS7においては、対象物のラベリングに応じて対象物を抽出する。ここでは、ランレングスデータにおける各ラインのうち、同等のx方向座標を含むライン同士がy方向で隣接する場合に、隣接するラインが単一の対象物を構成しているとみなす。
次に、ステップS8においては、抽出した対象物の重心Gと、面積Sと、外接四角形の縦横比ASPECTとを算出する。
ここで、面積Sは、ラベルAの対象物のランレングスデータを(x[i]、y[i]、run[i]、A)(i=0,1,2,…,N−1;Nは任意の自然数)とすると、各ランレングスデータの長さ(run[i]−1)を同一対象物において積算することにより算出する。
また、ラベルAの対象物の重心Gの座標(xc、yc)は、各ランレングスデータの長さ(run[i]−1)と、各ランレングスデータの座標x[i]またはy[i]とを乗算して得た値(つまり、(run[i]−1)×x[i]または(run[i]−1)×y[i])を同一対象物において積算して得た値を、面積Sで除算することにより算出する。
さらに、縦横比ASPECTは、ラベルAの対象物の外接四角形の縦方向の長さDyと横方向の長さDxとの比Dy/Dxとして算出する。
なお、ランレングスデータは画素数(座標数)(=run[i])で示されているので、実際の長さは「−1」する必要がある(=run[i]−1)。また、重心Gの座標は、外接四角形の重心座標で代用してもよい。
次に、ステップS9およびステップS10の処理と、ステップS11〜ステップS13の処理とを並行して実行する。
まず、ステップS9においては、対象物の時刻間追跡、すなわちサンプリング周期毎の同一対象物の認識を行う。この時刻間追跡は、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、例えば時刻kで対象物A、Bを抽出した場合、時刻(k+1)で抽出した対象物C、Dと対象物A、Bとの同一性判定を行う。そして、対象物A、Bと対象物C、Dとが同一であると判定された場合には、対象物C、Dのラベルをそれぞれ対象物A、Bのラベルに変更する。そして、認識された各対象物の位置座標(例えば、重心等)を、時系列位置データとして適宜のメモリに格納する。
次に、ステップS10においては、車速センサ4により検出された車速VCARおよびヨーレートセンサ3より検出されたヨーレートYRを取得し、ヨーレートYRを時間積分して、自車両10の回頭角θrを算出する。
一方、ステップS9およびステップS10の処理に並行して実行されるステップS11〜ステップS13においては、対象物と自車両10との距離zを算出する。なお、このステップS11の処理は、ステップS9およびステップS10の処理よりも長い演算時間を要することから、ステップS9およびステップS10よりも長い周期(例えば、ステップS1〜ステップS10の実行周期の3倍程度の周期等)で実行されるようになっている。
先ず、ステップS11においては、基準画像(例えば、右画像)を2値化処理して得た画像データ上で追跡される複数の対象物のうちから1つの対象物を選択し、例えば選択した対象物を外接四角形で囲む領域全体を探索画像R1として基準画像(例えば、右画像)から抽出する。
次に、ステップS12においては、基準画像(例えば、右画像)に対応する画像(例えば、左画像)中から探索画像R1に対応する画像(対応画像)R2を探索する探索領域を設定し、相関演算を実行して対応画像R2を抽出する。ここでは、例えば探索画像R1の各頂点座標に応じて、左画像中に探索領域を設定し、探索領域内で探索画像R1との相関の高さを示す輝度差分総和値C(a,b)を算出し、この総和値C(a,b)が最小となる領域を対応画像R2として抽出する。なお、この相関演算は、2値化処理して得た画像データではなく、グレースケール画像に対して実行する。また、同一対象物についての過去の位置データが存在する場合には、過去の位置データに基づいて探索領域を狭めることが可能である。
次に、ステップS13においては、探索画像R1の重心位置と、対応画像R2の重心位置と、画素数単位での視差Δdとを算出し、さらに、自車両10と対象物との距離つまり赤外線カメラ2R,2Lのレンズと対象物との距離(対象物距離)z(m)を、例えば下記数式(1)に示すように、カメラ基線長、つまり赤外線カメラ2R,2Lの各撮像素子の中心位置間の水平距離D(m)と、カメラ焦点距離、つまり赤外線カメラ2R,2Lの各レンズの焦点距離f(m)と、画素ピッチp(m/pixel)と、視差Δd(pixel)とに基づき算出する。
Figure 2006151300
そして、ステップS14においては、ステップS10での回頭角θrの算出と、ステップS13での距離zの算出との完了後に、例えば下記数式(2)に示すように、画像データ上での対象物の座標(x,y)および距離zを実空間座標(X,Y,Z)に変換する。
ここで、実空間座標(X,Y,Z)は、例えば図2に示すように、自車両10の前部における赤外線カメラ2R,2Lの取り付け位置の中点の位置を原点Oとして設定され、画像データ上の座標は、画像データの中心を原点として水平方向をx方向、垂直方向をy方向として設定されている。また、座標(xc,yc)は、基準画像(例えば、右画像)上の座標(x,y)を、赤外線カメラ2Rの取付位置と、実空間の原点Oとの相対位置関係に基づいて、実空間の原点Oと画像データの中心とを一致させて得た仮想的な画像上の座標に変換して得た座標である。
Figure 2006151300
次に、ステップS15においては、自車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。この回頭角補正は、時刻kから時刻(k+1)までの期間中に自車両10が、例えば左方向に回頭角θrだけ回頭すると、赤外線カメラ2R,2Lによって得られる画像データ上では、画像データの範囲がΔxだけx方向にずれるのことを補正する処理であり、例えば下記数式(3)に示すように、実空間座標(X,Y,Z)を補正して得た補正座標(Xr,Yr,Zr)を、新たに実空間座標(X,Y,Z)として設定する。
Figure 2006151300
次に、ステップS16においては、同一対象物について所定時間ΔTのモニタ期間内に得られた回頭角補正後のN(例えば、N=10程度)個の時系列データをなす実空間位置データから、対象物と自車両10との相対移動ベクトルに対応する近似直線LMVを算出する。
このステップS16においては、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)サンプル前(つまり、所定時間ΔT前)の位置座標P(N−1)=(X(N−1),Y(N−1),Z(N−1))とを、近似直線LMV上の位置に補正し、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))およびPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を算出する。
これにより、位置座標Pv(N−1)からPv(0)に向かうベクトルとして、相対移動ベクトルが得られる。
このように所定時間ΔTのモニタ期間内の複数(例えば、N個)の実空間位置データから対象物の自車両10に対する相対移動軌跡を近似する近似直線を算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して自車両10と対象物との接触発生の可能性を精度良く予測することが可能となる。
次に、ステップS17においては、例えば検出した対象物と自車両10との接触発生の可能性の有無等に応じた警報判定処理において、検出した対象物が警報対象であるか否かを判定する。
この判定結果が「NO」の場合には、ステップS1へ戻り、上述したステップS1〜ステップS17の処理を繰り返す。
一方、この判定結果が「YES」の場合には、ステップS18に進む。
そして、ステップS18においては、例えばブレーキセンサ5の出力BRに基づく自車両10の運転者がブレーキ操作を行っているか否か等に応じた警報出力判定処理において、警報出力が必要か否かを判定する。
ステップS18の判定結果が「NO」の場合、例えば自車両10の運転者がブレーキ操作を行っている場合に発生する加速度Gs(減速方向を正とする)が所定閾値GTHよりも大きいとき場合には、運転者のブレーキ操作により接触発生が回避されると判断して、判定して、ステップS1へ戻り、上述したステップS1〜ステップS18の処理を繰り返す。
一方、ステップS18の判定結果が「YES」の場合、例えば自車両10の運転者がブレーキ操作を行っている場合に発生する加速度Gs(減速方向を正とする)が所定閾値GTH以下である場合、あるいは、自車両10の運転者がブレーキ操作を行っていない場合には、 一方、ステップS18の判定結果が「YES」の場合には、接触発生の可能性が高いと判断して、ステップS19に進む。
なお、所定閾値GTHは、ブレーキ操作中の加速度Gsが維持された場合に、対象物と自車両10との間の距離が所定の距離Zv(0)以下で自車両10が停止する状態に対応する値である。
そして、ステップS19においては、例えばスピーカ6を介した音声等の聴覚的警報や、例えば表示装置7を介した表示等の視覚的警報や、例えばシートベルトに所定の張力を発生させて運転者が触覚的に知覚可能な締め付け力を作用させたり、例えばステアリングホイールに運転者が触覚的に知覚可能な振動(ステアリング振動)を発生させることによる触覚的警報を出力する。
次に、ステップS20においては、表示装置7に対して、例えば赤外線カメラ2Rにより得られる画像データを出力し、相対的に接近する対象物を強調映像として表示する。
以下に、上述したステップS17における警報判定処理について添付図面を参照しながら説明する。
この警報判定処理は、例えば図4に示すように、衝突判定処理と、接近判定領域内か否かの判定処理と、進入衝突判定処理と、人工構造物判定処理と、歩行者判定処理とにより、自車両10と検出した対象物との接触発生の可能性を判定する処理である。なお、以下においては、例えば図5に示すように、自車両10の進行方向(例えば、Z方向)に対してほぼ直交する方向において速度Vpで移動する対象物20が存在する場合を参照して説明する。
まず、図4に示すステップS31においては、衝突判定処理を行う。この衝突判定処理では、例えば図5において、対象物20が所定時間ΔTの間に、自車両10の進行方向に平行な方向に沿って距離Zv(N−1)から距離Zv(0)に接近した場合に、自車両10のZ方向での相対速度Vsを算出し、自車両10と対象物20とが所定地上高H以内で相対速度Vsを維持して移動すると仮定した場合に、所定の余裕時間Ts以内に自車両10と対象物20とが接触するか否かを判定する。
この判定結果が「NO」の場合には、後述するステップS37に進む。
一方、この判定結果が「YES」の場合には、ステップS32に進む。
なお、余裕時間Tsは、接触発生の可能性を、予測される接触発生時刻よりも所定時間Tsだけ以前のタイミングで判定するための時間であって、例えば2〜5秒程度に設定される。また、所定地上高Hは、例えば自車両10の車高の2倍程度の値に設定される。
次に、ステップS32においては、検出した対象物が所定の接近判定領域内に存在するか否かを判定する。この判定処理では、例えば図6に示すように、赤外線カメラ2R,2Lで監視可能な領域AR0内において、自車両10から距離(Vs×Ts)だけ前方の位置Z1よりも手前の領域であって、車両横方向(つまり、X方向)において自車両10の車幅αの両側に所定幅β(例えば、50〜100cm程度)を加算して得た幅(α+2β)を有する所定地上高Hの領域AR1、すなわち対象物が存在し続ければ自車両10との接触発生の可能性が極めて高い接近判定領域AR1内に対象物が存在するか否かを判定する。
この判定結果が「YES」の場合には、後述するステップS34に進む。
一方、この判定結果が「NO」の場合には、ステップS33に進む。
そして、ステップS33においては、対象物が接近判定領域内に進入して自車両10と接触する可能性があるか否かを判定する進入衝突判定処理を行う。この進入衝突判定処理では、例えば図6に示すように、車両横方向(つまり、X方向)において接近判定領域AR1の外側に存在する所定地上高Hの進入判定領域AR2、AR3内に存在する対象物が、移動して接近判定領域AR1に進入すると共に自車両10と接触する可能性があるか否かを判定する。
この判定結果が「YES」の場合には、後述するステップS36に進む。
一方、この判定結果が「NO」の場合には、後述するステップS37に進む。
そして、ステップS34においては、対象物が人工構造物であるか否かを判定する人工構造物判定処理を行う。この人工構造物判定処理では、後述するように、例えば歩行者にはあり得ない特徴が検出された場合に対象物は人工構造物であると判定し、警報の対象から除外する。
この判定結果が「NO」の場合には、ステップS35に進む。
一方、この判定結果が「YES」の場合には、ステップS37に進む。
そして、ステップS35においては、対象物が歩行者である可能性があるか否かを判定する歩行者判定処理を行う。
ステップS35の判定結果が「YES」の場合には、ステップS36に進む。
一方、ステップS35の判定結果が「NO」の場合には、後述するステップS37に進む。
そして、ステップS36においては、上述したステップS33において対象物が接近判定領域内へ進入して自車両10と接触する可能性がある場合(ステップS33のYES)、あるいは、ステップS35において人工構造物ではないと判定された対象物が歩行者であると判定された場合(ステップS35のYES)には、検出した対象物と自車両10との接触発生の可能性があると判断して、対象物は警報の対象であると判定し、一連の処理を終了する。
一方、ステップS37においては、上述したステップS31において所定の余裕時間Ts以内に自車両10と対象物とが接触する可能性がない場合(ステップS31のNO)、あるいは、ステップS33において対象物が接近判定領域内へ進入して自車両10と接触する可能性がない場合(ステップS33のNO)、あるいは、ステップS34において対象物が人工構造物であると判定された場合(ステップS34のYES)、あるいはステップS34において人工構造物ではないと判定された対象物がさらに歩行者ではないと判定された場合(ステップS35のNO)には、検出した対象物と自車両10との接触発生の可能性がないと判断して、対象物は警報の対象ではないと判定し、一連の処理を終了する。
以下に、上述したステップS34での人工構造物判定処理として、歩行者の形状、特に頭部の形状と類似した大きさおよび高さ位置を有して発熱する人工構造物を判別する処理について説明する。
この人工構造物判定処理では、例えば図7に示すように、基準画像(例えば、赤外線カメラ2Rにより得られた右画像)上において、2値化対象物OBを含む領域であって、水平エッジの検出対象となる対象領域(マスク)OAを設定する。
例えば2値化対象物OBの外接四角形QBの左上頂点QLの座標(xb,yb)と、外接四角形の幅Wbと、外接四角形の高さHbとに対して、マスクOAの幅dxPを所定値(例えば、外接四角形の幅Wb+2×所定値M_W;ただし、所定値M_Wは1pixel等)とし、マスクOAの高さdyPを所定値(例えば、2×所定値M_H;ただし、所定値M_Hは、実空間の所定高さMASK_H(例えば、30cm等)を画像上に展開した値であって、所定値M_H=焦点距離f×所定高さMASK_H/対象物距離z)とすれば、マスクOAの左上頂点ALの座標(xP,yP)は、(xP=xb−M_W,yP=yb−M_H)となる。
そして、グレースケール画像上のマスクOA内に対して水平エッジ検出用の適宜のエッジフィルタを作用させて得たエッジフィルタ出力値Kido_buffが所定閾値KIDO_FIL_TH(例えば、10階調)よりも大きいか否かを判定する。
この判定結果が「YES」の場合には、水平エッジが存在すると設定する。
一方、この判定結果が「NO」の場合には、水平エッジが存在しないと設定する。
そして、例えば図8に示すように、マスクOA内に設定した各水平ラインI(Iは整数であって、I=0,…,dyP−1)毎に、水平ラインを構成する全画素数に対する水平エッジが存在すると判定された画素数(エッジ検出画素数)の割合、つまり水平エッジの含有率RATE(I)(=100×エッジ検出画素数×(dxP−2×M_W))を算出する。
そして、水平エッジの含有率RATE(I)が所定閾値RATE_TH(例えば、50%等)よりも大きい(RATE(I)>RATE_TH)水平ラインIに含まれる水平エッジのうち、例えば図9に示すように、水平エッジの高さ位置が最大(つまり鉛直方向で最も上方の位置)となる水平エッジの高さ位置をエッジ検出位置j_FL_TOPとして設定する。
そして、ランレングスデータに変換された画像データから検出される2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差分(|OBJ_TOP−j_FL_TOP|)が所定閾値DIFF_H_THよりも大きいか否かを判定する。
なお、所定閾値DIFF_H_THは、例えば実空間の所定高さH_TH(例えば、10cm等)を画像上に展開した値であって、所定閾値DIFF_H_TH=焦点距離f×所定高さH_TH/対象物距離zである。
この判定結果が「NO」の場合、つまり2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとが略同等の位置となる場合には、例えば図10に示すように、2値化対象物の上端位置OBJ_TOPと略同等の位置に、輝度値の減少が相対的に急峻となる水平エッジの最大の高さ位置(エッジ検出位置j_FL_TOP)が検出されたと判断して、2値化対象物が縦方向(例えば鉛直方向上方)に伸びる人工構造物以外(例えば、歩行者の頭部等)であると判定して、一連の処理を終了する。
一方、この判定結果が「YES」の場合、つまり2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差異が相対的に大きい場合には、例えば縦方向における輝度値の減少が相対的に緩やかであって、2値化対象物が縦方向(例えば鉛直方向上方)に伸びる人工構造物であると判定して、一連の処理を終了する。
すなわち、2値化対象物が縦方向(例えば鉛直方向上方)に伸びる人工構造物であって、縦方向に沿った輝度値の変化が相対的に緩やかである場合には、例えば、輝度値が最大となるピーク位置近傍のみで水平エッジが検出され、輝度値が減少傾向に変化する領域では水平エッジが検出され難くなり、2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差異が相対的に大きくなる。
上述したように、本実施の形態による車両周辺監視装置によれば、2値化対象物の上端位置OBJ_TOPから所定閾値DIFF_H_TH以内に水平エッジが検出され難い対象物の種別として縦方向(例えば鉛直方向上方)に伸びる人工構造物と、この人工構造物以外、例えば2値化対象物の上端位置OBJ_TOPで水平エッジが検出され易い歩行者とを的確に判別することができる。
なお、上述した実施の形態においては、2値化対象物の上端位置OBJ_TOPと、エッジ検出位置j_FL_TOPとの差異が所定閾値DIFF_H_THよりも大きい場合には、2値化対象物が縦方向(例えば鉛直方向上方)に伸びる人工構造物であると判定したが、これに限定されず、例えば2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとの差異が所定閾値DIFF_H_THよりも大きい場合には、2値化対象物が縦方向(例えば鉛直方向下方)に伸びる人工構造物であると判定してもよい。
すなわち、この変形例に係る人工構造物判定処理では、例えば図11に示すように、基準画像(例えば、赤外線カメラ2Rにより得られた右画像)上において、少なくとも2値化対象物OBの下部を含む領域であって、水平エッジの検出対象となる対象領域(マスク)OAを設定する。
例えば2値化対象物OBの外接四角形QBの左上頂点QLの座標(xb,yb)と、外接四角形の幅Wbと、外接四角形の高さHbとに対して、マスクOAの幅dxPを所定値(例えば、外接四角形の幅Wb+2×所定値M_W;ただし、所定値M_Wは1pixel等)とし、マスクOAの高さdyPを所定値(例えば、2×所定値M_H;ただし、所定値M_Hは、実空間の所定高さMASK_H(例えば、30cm等)を画像上に展開した値であって、所定値M_H=焦点距離f×所定高さMASK_H/対象物距離z)とすれば、マスクOAの左上頂点ALの座標(xP,yP)は、(xP=xb−M_W,yP=yb+Hb−M_H)となる。
そして、グレースケール画像上のマスクOA内に対して水平エッジ検出用の適宜のエッジフィルタを作用させて得たエッジフィルタ出力値Kido_buffが所定閾値KIDO_FIL_TH(例えば、10階調)よりも大きいか否かを判定する。
この判定結果が「YES」の場合には、水平エッジが存在すると設定する。
一方、この判定結果が「NO」の場合には、水平エッジが存在しないと設定する。
そして、例えば図12に示すように、マスクOA内に設定した各水平ラインI(Iは整数であって、I=0,…,dyP−1)毎に、水平ラインを構成する全画素数に対する水平エッジが存在すると判定された画素数(エッジ検出画素数)の割合、つまり水平エッジの含有率RATE(I)(=100×エッジ検出画素数×(dxP−2×M_W))を算出する。
そして、水平エッジの含有率RATE(I)が所定閾値RATE_TH(例えば、50%等)よりも大きい(RATE(I)>RATE_TH)水平ラインIに含まれる水平エッジのうち、例えば図9に示すように、水平エッジの高さ位置が最小(つまり鉛直方向で最も下方の位置)となる水平エッジの高さ位置をエッジ検出位置j_FL_BOTとして設定する。
そして、ランレングスデータに変換された画像データから検出される2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとの差分(|OBJ_BOT−j_FL_BOT|)が所定閾値DIFF_H_THよりも大きいか否かを判定する。
なお、所定閾値DIFF_H_THは、例えば実空間の所定高さH_TH(例えば、10cm等)を画像上に展開した値であって、所定閾値DIFF_H_TH=焦点距離f×所定高さH_TH/対象物距離zである。
この判定結果が「NO」の場合、つまり2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとが略同等の位置となる場合には、例えば図13に示すように、2値化対象物の下端位置OBJ_BOTと略同等の位置に、輝度値の減少が相対的に急峻となる水平エッジの最小の高さ位置(エッジ検出位置j_FL_BOT)が検出されたと判断して、2値化対象物が縦方向(例えば鉛直方向下方)に伸びる人工構造物以外(例えば、歩行者の胴体等)であると判定して、一連の処理を終了する。
一方、この判定結果が「YES」の場合、つまり2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとの差異が相対的に大きい場合には、例えば縦方向における輝度値の減少が相対的に緩やかであって、2値化対象物が縦方向(例えば鉛直方向下方)に伸びる人工構造物であると判定して、一連の処理を終了する。
すなわち、2値化対象物が縦方向(例えば鉛直方向下方)に伸びる人工構造物であって、縦方向に沿った輝度値の変化が相対的に緩やかである場合には、例えば、輝度値が最大となるピーク位置近傍のみで水平エッジが検出され、輝度値が減少傾向に変化する領域では水平エッジが検出され難くなり、2値化対象物の下端位置OBJ_BOTと、エッジ検出位置j_FL_BOTとの差異が相対的に大きくなる。
この変形例においては、2値化対象物の下端位置OBJ_BOTから所定閾値DIFF_H_TH以内に水平エッジが検出され難い対象物の種別として縦方向(例えば鉛直方向下方)に伸びる人工構造物と、この人工構造物以外、例えば2値化対象物の下端位置OBJ_BOTで水平エッジが検出され易い歩行者とを的確に判別することができる。
本発明の実施の形態に係る車両周辺監視装置の構成を示すブロック図である。 図1に示す車両周辺監視装置を搭載した車両を示す図である。 図1に示す車両周辺監視装置の動作を示すフローチャートである。 図3に示す警報判定処理を示すフローチャートである。 自車両と対象物との相対位置の一例を示す図である。 車両前方に設定される接近判定領等の領域区分の一例を示す図である。 2値化対象物OBを含む領域であって、水平エッジの検出対象となる対象領域(マスク)OAの一例を示す図である。 図7に示すマスクOA内にて検出された水平エッジの一例を示す図である。 水平エッジの高さ位置が最大(つまり鉛直方向で最も上方の位置)となるエッジ検出位置j_FL_TOPの一例を示す図である。 エッジ検出位置j_FL_TOPと2値化対象物の上端位置OBJ_TOPとの一例を示す図である。 少なくとも2値化対象物OBの下部を含む領域であって、水平エッジの検出対象となる対象領域(マスク)OAの一例を示す図である。 図11に示すマスクOA内にて検出された水平エッジの一例を示す図である。 エッジ検出位置j_FL_BOTと2値化対象物の下端位置OBJ_BOTとの一例を示す図である。
符号の説明
1 画像処理ユニット
2R,2L 赤外線カメラ(赤外線撮像手段)
3 ヨーレートセンサ
4 車速センサ
5 ブレーキセンサ
6 スピーカ
7 表示装置
10 自車両
ステップS7 2値化対象物抽出手段
ステップS19 警報出力手段
ステップS34 水平エッジ検出手段、水平エッジ判定手段、対象物種別判定手段
ステップS35 歩行者認識手段

Claims (3)

  1. 赤外線撮像手段の撮像により得られた画像に基づき自車両の外界に存在する物体を対象物として抽出する車両周辺監視装置であって、
    前記画像のグレースケール画像を2値化処理して得た画像データから2値化対象物を抽出する2値化対象物抽出手段と、
    前記グレースケール画像上において水平エッジを検出する水平エッジ検出手段と、
    前記グレースケール画像上において、前記2値化対象物抽出手段により抽出された前記2値化対象物の上端または下端から所定範囲以内に前記水平エッジ検出手段により検出された前記水平エッジが存在するか否かを判定する水平エッジ判定手段と、
    前記水平エッジ判定手段の判定結果に基づき対象物の種別を判定する対象物種別判定手段と
    を備えることを特徴とする車両周辺監視装置。
  2. 前記画像に基づき自車両の外界に存在する歩行者を認識する歩行者認識手段を備え、
    該歩行者認識手段は、前記対象物種別判定手段により人工構造物以外あるいは歩行者であると判定された前記対象物に対して歩行者認識処理を実行することを特徴とする請求項1に記載の車両周辺監視装置。
  3. 前記対象物種別判定手段により人工構造物以外あるいは歩行者であると判定された前記対象物に対して警報を出力する警報出力手段を備えることを特徴とする請求項1または請求項2に記載の車両周辺監視装置。

JP2004347817A 2004-11-30 2004-11-30 車両周辺監視装置 Expired - Fee Related JP4128562B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004347817A JP4128562B2 (ja) 2004-11-30 2004-11-30 車両周辺監視装置
DE102005056616A DE102005056616B4 (de) 2004-11-30 2005-11-28 Fahrzeugumgebungsüberwachungsvorrichtung
US11/287,871 US7388476B2 (en) 2004-11-30 2005-11-28 Vehicle surroundings monitoring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004347817A JP4128562B2 (ja) 2004-11-30 2004-11-30 車両周辺監視装置

Publications (2)

Publication Number Publication Date
JP2006151300A true JP2006151300A (ja) 2006-06-15
JP4128562B2 JP4128562B2 (ja) 2008-07-30

Family

ID=36371614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004347817A Expired - Fee Related JP4128562B2 (ja) 2004-11-30 2004-11-30 車両周辺監視装置

Country Status (3)

Country Link
US (1) US7388476B2 (ja)
JP (1) JP4128562B2 (ja)
DE (1) DE102005056616B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009101660A1 (ja) * 2008-02-13 2009-08-20 Honda Motor Co., Ltd. 車両周辺監視装置、車両、車両周辺監視プログラム
WO2011155152A1 (ja) * 2010-06-07 2011-12-15 本田技研工業株式会社 車両の周辺監視装置

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4203512B2 (ja) * 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
US7881497B2 (en) * 2007-03-08 2011-02-01 Honeywell International Inc. Vision based navigation and guidance system
DE102008001551A1 (de) * 2008-05-05 2009-11-12 Robert Bosch Gmbh Vorrichtung und Verfahren zum automatischen Einstellen der Leuchtdichte eines von einer Beleuchtungseinrichtung eines Fahrzeuges ausgesandten Lichtbündels in Abhängigkeit von der Sichtweite
CN102783144B (zh) * 2010-03-01 2016-06-29 本田技研工业株式会社 车辆的周围监测装置
CN102782741B (zh) * 2010-03-03 2015-08-19 本田技研工业株式会社 车辆周围监测装置
US10703299B2 (en) * 2010-04-19 2020-07-07 SMR Patents S.à.r.l. Rear view mirror simulation
CN104823218A (zh) * 2012-12-03 2015-08-05 哈曼国际工业有限公司 使用单一普通摄像机来检测行人的系统和方法
US10055643B2 (en) * 2014-09-19 2018-08-21 Bendix Commercial Vehicle Systems Llc Advanced blending of stitched images for 3D object reproduction
US9990550B2 (en) * 2014-09-19 2018-06-05 Bendix Commercial Vehicle Systems Llc Wide baseline object detection stereo system
CN107553497B (zh) * 2017-10-20 2023-12-22 苏州瑞得恩光能科技有限公司 太阳能面板清扫机器人的边缘定位装置及其定位方法
JP7096147B2 (ja) * 2018-12-25 2022-07-05 トヨタ自動車株式会社 注意喚起装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0505858B1 (en) * 1991-03-19 2002-08-14 Mitsubishi Denki Kabushiki Kaisha A moving body measuring device and an image processing device for measuring traffic flows
JPH08313632A (ja) 1995-05-19 1996-11-29 Omron Corp 警報発生装置および方法,ならびにこの警報発生装置を搭載した車両
JP4135123B2 (ja) * 1998-05-13 2008-08-20 日産自動車株式会社 表示処理装置
JP3716623B2 (ja) 1998-07-09 2005-11-16 日産自動車株式会社 温体検出装置
JP3515926B2 (ja) * 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
US6531959B1 (en) * 1999-07-13 2003-03-11 Honda Giken Kogyo Kabushiki Kaisha Position detecting device
JP3760068B2 (ja) * 1999-12-02 2006-03-29 本田技研工業株式会社 画像認識装置
JP2001211449A (ja) 2000-01-27 2001-08-03 Honda Motor Co Ltd 車両用画像認識装置
JP2001351200A (ja) 2000-06-09 2001-12-21 Nissan Motor Co Ltd 車載用物体検知装置
JP4615139B2 (ja) 2001-03-30 2011-01-19 本田技研工業株式会社 車両の周辺監視装置
JP2003016429A (ja) * 2001-06-28 2003-01-17 Honda Motor Co Ltd 車両周辺監視装置
JP3764086B2 (ja) * 2001-10-29 2006-04-05 本田技研工業株式会社 車両用情報提供装置
DE10301468B4 (de) * 2002-01-18 2010-08-05 Honda Giken Kogyo K.K. Vorrichtung zur Beobachtung der Umgebung eines Fahrzeugs
JP4104867B2 (ja) 2002-01-18 2008-06-18 本田技研工業株式会社 ナイトビジョンシステム
JP3756452B2 (ja) * 2002-01-18 2006-03-15 本田技研工業株式会社 赤外線画像処理装置
JP3987048B2 (ja) * 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP3987013B2 (ja) * 2003-09-01 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP3934119B2 (ja) * 2004-06-14 2007-06-20 本田技研工業株式会社 車両周辺監視装置
JP3987057B2 (ja) * 2004-06-14 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009101660A1 (ja) * 2008-02-13 2009-08-20 Honda Motor Co., Ltd. 車両周辺監視装置、車両、車両周辺監視プログラム
JP2009194542A (ja) * 2008-02-13 2009-08-27 Honda Motor Co Ltd 車両周辺監視装置、車両、車両周辺監視プログラム
JP4521642B2 (ja) * 2008-02-13 2010-08-11 本田技研工業株式会社 車両周辺監視装置、車両、車両周辺監視プログラム
WO2011155152A1 (ja) * 2010-06-07 2011-12-15 本田技研工業株式会社 車両の周辺監視装置
JP5642785B2 (ja) * 2010-06-07 2014-12-17 本田技研工業株式会社 車両の周辺監視装置

Also Published As

Publication number Publication date
DE102005056616B4 (de) 2010-09-23
US7388476B2 (en) 2008-06-17
JP4128562B2 (ja) 2008-07-30
DE102005056616A1 (de) 2006-06-01
US20060126898A1 (en) 2006-06-15

Similar Documents

Publication Publication Date Title
JP4410292B1 (ja) 車両の周辺監視装置
US7969466B2 (en) Vehicle surroundings monitoring apparatus
US7388476B2 (en) Vehicle surroundings monitoring apparatus
US20030007074A1 (en) Vehicle zone monitoring apparatus
US20060115115A1 (en) Vehicle surroundings monitoring apparatus
US20060115119A1 (en) Vehicle surroundings monitoring apparatus
JP2005354597A (ja) 車両周辺監視装置
US7561719B2 (en) Vehicle surroundings monitoring apparatus
JP2007193445A (ja) 車両の周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP2003216937A (ja) ナイトビジョンシステム
US20060126897A1 (en) Vehicle surroundings monitoring apparatus
JP4425852B2 (ja) 車両周辺監視装置
US7526104B2 (en) Vehicle surroundings monitoring apparatus
US7515737B2 (en) Vehicle surroundings monitoring apparatus
JP4298699B2 (ja) 車両周辺監視装置
JP5291524B2 (ja) 車両周辺監視装置
JP3898157B2 (ja) 赤外線画像認識装置
JP4943403B2 (ja) 車両の周辺監視装置
JP4283266B2 (ja) 車両周辺監視装置
JP4372746B2 (ja) 車両周辺監視装置
JP2004364112A (ja) 車両周辺表示装置
US7545955B2 (en) Vehicle surroundings monitoring apparatus
JP4358183B2 (ja) 車両周辺監視装置
JP2004348645A (ja) 赤外線画像認識装置、及び赤外線画像認識装置を用いた警報装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080507

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080514

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110523

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130523

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140523

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees