JPWO2011108198A1 - 車両の周辺監視装置 - Google Patents

車両の周辺監視装置 Download PDF

Info

Publication number
JPWO2011108198A1
JPWO2011108198A1 JP2012502982A JP2012502982A JPWO2011108198A1 JP WO2011108198 A1 JPWO2011108198 A1 JP WO2011108198A1 JP 2012502982 A JP2012502982 A JP 2012502982A JP 2012502982 A JP2012502982 A JP 2012502982A JP WO2011108198 A1 JPWO2011108198 A1 JP WO2011108198A1
Authority
JP
Japan
Prior art keywords
image
alarm
objects
display
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012502982A
Other languages
English (en)
Other versions
JP5706874B2 (ja
Inventor
誠 相村
誠 相村
雄介 中村
雄介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012502982A priority Critical patent/JP5706874B2/ja
Publication of JPWO2011108198A1 publication Critical patent/JPWO2011108198A1/ja
Application granted granted Critical
Publication of JP5706874B2 publication Critical patent/JP5706874B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/191Highlight information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

車両の周辺を撮像し、撮像された画像に基づいて、車両の周辺の対象物を検出する。検出された対象物の存在について、表示される画像上で警報表示を行うことにより、運転者に警報を行う。ここで、同時に検出された対象物の数が所定数以下である場合には、該対象物のそれぞれについて、該対象物が存在する位置に対して強調表示を行う第1の形態の警報表示を行い、同時に前記検出手段によって検出された対象物の数が前記所定数より多い場合には、第1の形態の警報表示を行うことなく、表示される画像全体に対して1つの所定の強調表示を行う第2の形態の警報表示を行う。したがって、検出された対象物が多数である場合に個別の強調表示を行う表示形態に比べて、運転者にとって、より見やすくかつ判断しやすい表示形態とすることができる。

Description

この発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の周辺の対象物を検出して表示する装置に関する。
下記の特許文献1には、赤外線カメラを用いて車両の周辺の対象物を検出し、該対象物が歩行者と判定されたならば、映像と音を用いて運転者に通知するシステムが提案されている。
特開2003−284057号公報
上記の文献では、ヘッドアップディスプレイ(HUD)を車両に設け、赤外線カメラによって撮像された画像を、該HUD上に表示させている。そして、上記のように対象物の存在を通知する場合には、該画像上の該対象物のそれぞれを枠で強調表示することを行っている。
しかしながら、撮像画像から検出された対象物が複数存在する場合に、それぞれの対象物に対して強調表示を行うと、画面が見づらくなる。そのため、運転者がより短時間で判断することができるように、該表示の形態については改良の余地があった。
また、ヘッドアップディスプレイは、運転者の前方に配置されるため、運転者が視認するのに視線移動の量が比較的小さいという利点があるものの、一般的な車両には搭載されていないことも多い。それに対し、ダッシュボードに取り付けられた表示装置の普及は進んでいる。特に、ナビゲーション装置の普及が進むにつれて、ナビゲーション機能によって提供される地図情報等の様々な情報を表示するために装置の普及が進んでいる。
このような一般的な表示装置は、運転者の前方ではなく、左または右側に存在しているため、ヘッドアップディスプレイに比べて、運転者が表示画面を視認するのに必要な視線移動の量が多くなる。そのため、表示装置上に表示される映像は、瞬時に運転者に理解されるものであることが要求される。
したがって、複数の対象物の存在について運転者に通知する場合でも、より短時間で運転者が認識することができるような表示形態とする手法が望まれる。
この発明の一つの側面によると、車両の周辺監視装置は、車両に搭載され、該車両の周辺を撮像する撮像手段と、前記撮像手段により撮像された画像に基づいて、前記車両の周辺の対象物を検出する検出手段と、前記撮像された画像を表示装置上に表示する手段と、前記検出された対象物の存在について、前記表示される画像上で警報表示を行うことにより、運転者に警報を行う警報手段と、を備える。前記警報手段は、同時に前記検出手段によって検出された対象物の数が所定数以下である場合には、該対象物のそれぞれについて、該対象物が存在する位置に対して強調表示を行う第1の形態の警報表示を行い、同時に前記検出手段によって検出された対象物の数が前記所定数より多い場合には、前記第1の形態の警報表示を行うことなく、前記表示される画像全体に対して1つの所定の強調表示を行う第2の形態の警報表示を行う。
この発明によれば、検出された対象物が比較的小数であれば、該対象物のそれぞれの位置に対して強調表示を行うので、対象物は、個別に強調表示されることとなる。しかしながら、検出された対象物が比較的多数であれば、表示画像全体に対して、1つの強調表示を行う。したがって、検出された対象物が多数である場合に個別の強調表示を行う表示形態に比べて、より見やすく、かつ判断しやすい表示形態とすることができる。運転者は、表示された画像に、1つの所定の強調表示が行われたことにより、車両の周辺に注意すべき対象物が多数存在することを瞬時で認識することができ、よって、表示される画像に惑わされることなく、運転操作に注意を払うことができる。
この発明の一実施形態によると、上記警報手段は、さらに、同時に前記検出手段によって検出された対象物の数が前記所定数より多い場合には、前記表示される画像内の所定位置に、所定の画像を重畳表示させることによって、前記第2の形態による強調表示を行う。
この発明によれば、検出された対象物が所定数より多ければ、画像内の所定位置に所定画像を重畳表示させることによって強調表示を行う。したがって、検出された対象物が多数である場合に個別の強調表示を行う表示形態に比べて、より見やすく、かつ判断しやすい表示形態とすることができる。また、運転者は、表示された画像に、1つの所定の画像が重畳されたことにより、注意すべき対象物が車両の周辺に複数存在することを瞬時で認識することができる。
この発明の他の実施形態によると、上記警報手段は、さらに、同時に前記検出手段によって検出された対象物の数が前記所定数より多い場合には、該所定数より多い対象物全てに対して、警報についての優先度を判定し、最も優先度が高いと判定された対象物が存在する位置に対してのみ強調表示を行うことによって、前記第2の形態による強調表示を行う。
この発明によれば、検出された対象物が所定数より多ければ、該対象物のうち、警報に関して最も優先度の高いと判定された対象物の位置に対してのみ強調表示を行う。したがって、検出された対象物が多数である場合に個別の強調表示を行う表示形態に比べて、より見やすく、かつ判断しやすい表示形態とすることができる。また、最も高い優先度の対象物に対してのみ強調表示が行われるので、運転者は、どの対象物に最も注意すべきかを瞬時に認識することができる。
この発明の一実施形態によると、前記表示装置は、カーナビゲーション装置の表示装置である。この発明によると、車両周辺に存在する対象物の存在を運転者に通知するのに、カーナビゲーション装置の表示装置を有効に利用することができる。
本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。
この発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図。 この発明の一実施例に従う、表示装置およびカメラの取り付け位置を説明するための図。 この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。 この発明の一実施例に従う、車両前方の撮像範囲と各領域の区分を示す図。 この発明の一実施例に従う、警報の表示形態を示す図。 この発明の一実施例に従う、警報の表示形態を示す図。 この発明の一実施例に従う、警報の表示形態を示す図。 この発明の他の実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。 この発明の一実施例に従う、実空間の座標系および画像の座標系を示す図。 この発明の一実施例に従う、相対移動ベクトルの算出手法を示す図。 この発明の一実施例に従う、警報判定プロセスを示すフローチャート。 この発明の一実施例に従う、優先度の判定を説明するための図。 この発明の一実施例に従う、警報の表示形態を示す図。
次に図面を参照してこの発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、ナビゲーション装置の表示装置を利用した、車両の周辺監視装置の構成を示すブロック図であり、図2は、表示装置とカメラの車両への取り付けを示す図である。
車両には、ナビゲーション装置が搭載されており、該ナビゲーション装置は、ナビゲーションユニット5と、表示装置4とを備えている。表示装置4は、図2の(a)に示すように、車両のハンドル(ステアリング・ホイール)21の中心を通り、かつ車両の前後方向に伸長する線L1(図には、わかりやすいよう図の垂直方向に伸長するよう示されている)に対して所定距離だけ離れた位置に、運転者が視認可能なように取り付けられている。この実施例では、表示装置4は、車両のダッシュボード23にはめこまれている。
ナビゲーションユニット5は、中央処理装置(CPU)およびメモリを備えたコンピュータで実現される。ナビゲーションユニット5は、たとえば人工衛星を利用して車両10の位置を測定するためのGPS信号を、該ナビゲーションユニット5に備えられた通信装置(図示せず)を介して受信し、該GPS信号に基づいて、車両10の現在位置を検出する。ナビゲーションユニット5は、車両の周辺の地図情報(これは、ナビゲーション装置の記憶装置に記憶されることもできるし、該通信装置を介して所定のサーバから受信することもできる)に、該現在位置を示す画像を重畳させて、表示装置4の表示画面25に表示する。また、表示装置4の表示画面25はタッチパネルを構成しており、該タッチパネルを介して、またはキーやボタン等の他の入力装置27を介して、乗員はナビゲーションユニット5に目的地を入力することができる。ナビゲーションユニット5は、該目的地までの車両の最適経路を算出し、該最適経路を示す画像を地図情報に重畳させて、表示装置4の表示画面25に表示することができる。
なお、最近のナビゲーション装置には、交通情報の提供や車両近傍の施設案内等、他にも様々な機能が搭載されており、この実施形態では、任意の適切なナビゲーション装置を利用することができる。
また、車両の周辺監視装置は、車両10に搭載され、遠赤外線を検出可能な2つの赤外線カメラ1Rおよび1Lと、カメラ1Rおよび1Lによって撮像された画像データに基づいて車両周辺の対象物を検出するための画像処理ユニット2と、該検出結果に基づいて音または音声で警報を発生するスピーカ3と、を備えている。表示装置4は、カメラ1Rまたは1Lの撮像を介して得られた画像を表示すると共に、運転者に車両周辺の対象物の存在を認識させるための表示を行うのに利用される。さらに、該周辺監視装置は、車両のヨーレートを検出するヨーレートセンサ6と、車両の走行速度(車速)を検出する車速センサ7とを備え、これらのセンサの検出結果は、画像処理ユニット2に送られる。
この実施例では、図2の(b)に示すように、カメラ1Rおよび1Lは、車両10の前方を撮像するよう、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度が大きくなる)特性を有している。
画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号および表示装置4に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。
このように、この実施例では、ナビゲーション装置の表示装置4を、カメラ1Rおよび1Lによる撮像を介して得られた画像の表示、および該画像から検出された所定の対象物の存在を運転者に通知(警報)するための表示に利用する。前述したように、フロントウィンドウ上の、運転者の前方位置に画面が表示されるように設けられたヘッドアップディスプレイ(HUD)と異なり、表示装置4は、ハンドル21から、車幅方向に所定距離だけ離れた位置に設けられているので、HUDに比べて、運転者が表示装置4の画面を視認するために視線移動量が大きく、よって視認に要する時間も長くなる。したがって、表示装置4を介して対象物の存在を運転者に認識させるためには、HUDに比べて、よりわかりやすい表示、すなわちより短時間で認識することができる形態での表示が望まれる。この発明は、このような形態の表示を可能としたものであり、端的にいえば、画像中に所定数(たとえば、1)以下の対象物が存在する場合には、該対象物の位置に対して強調表示を行うのに対し、画像中に所定数より多い対象物が存在する場合には、該表示される画像全体に対して1つの強調表示を行う。以下、この具体的な手法を述べる。
図3は、この発明の第1の実施形態に従う、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。
ステップS11〜S13において、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール画像である。
ステップS14において、カメラ1Rで撮像された右画像を基準画像とし(代替的に、左画像を基準画像としてもよい)、その画像信号の2値化を行う。具体的には、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。輝度閾値ITHは、任意の適切な手法で決定されることができる。この2値化処理により、たとえば生体のような所定の温度より高い対象物が、白領域として抽出される。輝度閾値ITHは、任意の適切な手法で決定されることができる。
ステップS15において、2値化した画像データを、ランレングスデータに変換する。具体的には、2値化により白となった領域について、各画素行の該白領域(ラインと呼ぶ)の開始点(各ラインの左端の画素)の座標と、開始点から終了点(各ラインの右端の画素)までの長さ(画素数で表される)とで、ランレングスデータを表す。ここで、画像における垂直方向にy軸をとり、水平方向にx軸をとる。たとえば、y座標がy1である画素行における白領域が、(x1,y1)から(x3,y1)までのラインであるとすると、このラインは3画素からなるので、(x1,y1,3)というランレングスデータで表される。
ステップS16およびS17において、対象物のラベリングを行い、対象物を抽出する処理を行う。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを合わせて1つの対象物とみなし、これにラベルを付与する。こうして、1または複数の対象物が抽出される。
以下では、こうして抽出された対象物が歩行者である場合について述べる。なお、ステップS17の後に、より精度を高めるため、抽出された対象物が、歩行者であるか否かの判定処理を行ってもよい。この判定処理は、任意の適切な手法で実現されることができる。たとえば、周知のパターンマッチングを利用し、上記のように抽出された対象物と、歩行者を表す所定のパターンとの類似度を算出し、該類似度が高ければ、歩行者であると判定することができる。このような判定処理の例示として、たとえば特開2007−241740号公報、特開2007−334751号公報等に記載されている。
ステップS31において、対象物(前述したように、ここでは歩行者)が、車両から所定の警報範囲内に位置するかどうかを判定する。ここで、所定の警報範囲の一例を、図4に示す。
領域AR0は、カメラ1Rおよび1Lによって撮像可能な領域である撮像範囲を示す。撮像範囲AR0に対応する撮像画像に対して、図3のステップS11からS17の処理は実行される。
領域AR1は、車両10の車幅αの両側に余裕β(たとえば、50〜100cm程度とすることができる)を加えた範囲に対応する領域、換言すれば車両10の車幅方向の中心軸の両側に(α/2+β)の幅を有する領域であり、対象物がそのまま存在し続ければ衝突の可能性が高い接近判定領域である。領域AR2およびAR3は、接近判定領域よりX座標の絶対値が大きい(接近判定領域の横方向外側の)領域であり、この領域にある対象物は接近判定領域へと侵入するおそれがある侵入判定領域である。領域AR1〜AR3の距離方向の大きさを規定するZ1は、この実施例ではたとえば所定値に設定されることができる。
この実施例では、接近判定領域AR1を上記の警報範囲として、ステップS31の判定を行う。ここで、歩行者の足の部分、すなわち画像上の該対象物の底部の少なくとも一部が、該警報範囲内に含まれていれば、該警報範囲内に位置すると判定する。代替的に、対象物の重心の位置を求め、該重心の位置が該警報範囲内に含まれていれば、該対象物が警報範囲内に位置すると判定してもよい。
ステップS31において、いずれの対象物も警報範囲内に位置していなければ、ステップS32に進み、警報出力を禁止する。すなわち、警報を出力することなく、ステップS13で取得されたグレースケール画像を表示装置4上に出力する通常表示を行う。
ステップS31においていずれかの対象物が警報範囲内に位置すると判定されたならば、ステップS32において、警報範囲内に位置すると判定された対象物の数が所定数(たとえば、1)より多いかどうかを判断する。対象物が所定数より多くなければ(すなわち、所定数以下であれば)、ステップS33の判断はNoとなり、ステップS34に進み、警報出力を行う。具体的には、グレースケール画像を表示装置4上に表示して、画像中の該警報範囲内のそれぞれの該対象物の位置に対して個別の強調表示を行うことにより、警報出力を実現する。以下、それぞれの対象物の位置を個別に強調表示する形態を、第1の形態と呼ぶ。
ステップS32において、警報範囲内に位置すると判定された対象物の数が所定数より多ければ、ステップS35に進み、警報出力を行う。具体的には、グレースケール画像を表示装置4上に表示して、その表示画像全体に対して1つの強調表示を行うことにより、警報出力を実現する。以下、表示される画像全体に対して1つの強調表示を行う形態を、第2の形態と呼ぶ。
このように、警報出力の形態には2種類あり、第1の形態は、対象物毎に、該対象物の位置に対して強調表示を行う形態(個別強調の形態)で警報を出力するものである。第2の形態は、表示装置4に表示される画像毎に、1つの強調表示を行う形態(全体強調の形態)で警報を出力する形態である。
一例として図5を参照すると、図4のプロセスに従う、表示装置4上に表示される画面の時間的推移の概略的な一例を示す。ライン101とライン102とに囲まれる領域が、警報範囲を示している。ステップS33の「所定数」は、値1とする。
なお、歩行者は生体であるため、表示装置4上に表示される実際のグレースケール画像では、背景よりも高い輝度で(すなわち、白く)表示されるが、図の上では、わかりやすくするため、このような実際の表示態様に沿ったものではないように描かれている点に注意されたい(よって、図では、歩行者は背景よりも黒く描かれている)。このことは、以下の図においても同様である。
(a)の時点t1において、一人の歩行者111が警報範囲内に存在すると判定される。警報対象の歩行者の数が1であるため、第1の形態による表示、すなわち個別強調の形態で表示が行われる。したがって、表示画像内において、歩行者111が、枠に囲まれて強調表示される。
その後の(b)の時点t2において、5人の歩行者111〜115が警報範囲内に存在すると判定される。警報対象の歩行者の数が5であるため、第2の形態による表示、すなわち全体強調の形態で表示が行われる。この実施形態では、該全体強調を行うため、表示画像上に、符号121で示すような1つのアイコン画像を重畳表示する。該アイコン画像121は、表示画像全体に対してなされる1つの強調表示である。アイコン画像121では、三角形の中に人が描かれており、これにより、多数の歩行者が周辺に存在することを示している。ここで、アイコン画像121は、運転者の注意を引くように表示されるのが好ましい。たとえば、三角形を赤色で表示し、該アイコン画像を点灯させたり点滅させたりすることができる。
その後の(c)の時点t3において、すべての歩行者111〜115が警報範囲から脱し、その結果、警報範囲内には、一人の歩行者も存在しなくなったため、警報出力は禁止され、強調表示は何ら行われない。
このように、この実施形態では、対象物の数が所定数より多いか否かによって、第1の形態と第2の形態との間で警報出力を切り換える。複数の対象物が存在する場合には、アイコン画像121で示すように、表示画像全体に対して1つの強調表示が行われることとなる。従来は、図6に示すように、複数の対象物のそれぞれの位置に対し、枠のような個別の強調表示を行っていた。このような強調表示が多数存在すると、画面全体が見づらくなる。運転者は、どの対象物に注意すべきかを瞬時で判断することが困難となりうる。本願発明によれば、所定数より多い対象物が判定された場合には、表示画像単位に1つの強調表示が行われるので、運転者にとって、より見やすく、かつ判断しやすい表示形態となる。したがって、運転者は、該1つの強調表示を視認することにより、注意すべき対象物が複数周辺に存在することを瞬時に認識することができる。
上記の実施形態では、符号121で示すようなアイコン画像を重畳表示させることによって、表示画像全体に対して1つの強調表示を行う第2の形態を実現している。しかしながら、全体的な強調表示は、これに限られるものではなく、他の形態でもよい。
図7には、全体的な強調表示の他の例が示されている。(a)では、表示される画像の外縁を囲むように外枠131表示することで、第2の形態による全体的な強調を行う。該外枠131を、運転者の注意を引くような色(たとえば、赤や黄色)にすることができ、また、該外枠131を点灯させたり点滅させることができる。
(b)では、網掛けで示されるように、撮像された画像の全体の輝度を低くし(たとえば、各画素の輝度値を所定値だけ低くする)、コントラストが低い形態で画像を表示するとともに、アイコン画像121を重畳表示させている。また、(c)では、撮像された画像を表示することなく、アイコン画像121のみを表示させている。(b)および(c)のアイコン画像123についても、点灯または点滅させることができる。(b)および(c)のように、アイコン画像121の表示と共に、撮像された画像全体を見づらくさせることにより、運転者に、前方を注視するよう促すことができる。
図8は、この発明の第2の実施形態に従う、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。
ステップS11〜S17は、図3のものと同じであるので、説明を省略する。ステップS18〜S26は、対象物の相対移動ベクトルを算出するための処理である。相対移動ベクトル算出処理の詳細は、たとえば特開2001−6096号公報に記載されているので、ここでは簡単に説明する。
ステップS18において、ステップS17で抽出された対象物のそれぞれについて、該対象物の重心G、面積S、および、該対象物に外接する四角形すなわち外接四角形の縦横比ASPECTを算出する。面積Sは、ランレングスデータの長さを同一対象物について積算することにより算出される。重心Gの座標は、面積Sをx方向に二等分する線のx座標およびy方向に二等分する線のy座標として算出される。縦横比ASPECTは、外接四角形のy方向の長さDyとx方向の長さDxとの比Dy/Dxとして算出される。なお、重心Gの位置は、外接四角形の重心位置で代用してもよい。
ステップS19において、対象物の時刻間追跡(トラッキング)、すなわち、所定のサンプリング周期毎に同一対象物の認識を行う。サンプリング周期は、当該プロセスが実行される周期と同じでもよい。具体的には、アナログ量としての時刻tをサンプリング周期で離散化した時刻をkとし、時刻kで対象物Aを抽出した場合を考えると、該対象物Aと、次のサンプリング周期である時刻(k+1)で抽出した対象物Bとの間の同一性判定を行う。同一性判定は、所定の条件に従って行うことができる。たとえば、1)対象物AとBの画像上の重心Gの位置のxおよびy座標の差が所定の許容値より小さく、2)対象物Bの画像上の面積の、対象物Aの画像上の面積に対する比が所定の許容値より小さく、3)対象物Bの外接四角形の縦横比の、対象物Aの外接四角形の縦横比に対する比が所定の許容値より小さければ、対象物AおよびBを同一と判定することができる。
こうして、各サンプリング周期において、抽出された対象物に関し、該対象物の位置(この実施例では、重心Gの位置座標)は、付与されたラベルと共に、時系列データとしてメモリに格納される。
なお、以上のステップS14〜S19の処理は、2値化した基準画像(この実施例では、右画像)について実行される。
ステップS20において、車速センサ7により検出される車速VCARおよびヨーレートセンサ6により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10が回頭した角度すなわち回頭角θrを算出する。
一方、ステップS21〜S23では、ステップS19およびS20の処理と平行して、車両10から対象物までの距離zを算出する処理を行う。この演算は、ステップS19およびS20よりも長い時間を要するため、ステップS19およびS20より長い周期(たとえば、ステップS11〜S20の実行周期の3倍程度の周期)で実行されるようにしてもよい。
ステップS21では、基準画像(この実施例では、右画像)の2値化画像によって追跡される対象物のうちの1つを選択し、これを、探索画像R1(ここでは、外接四角形で囲まれる画像領域を探索画像とする)とする。ステップS22では、左画像において、該探索画像R1と同じ対象物の画像(以下、対応画像と呼ぶ)を探索する。具体的には、探索画像R1と該左画像の間で相関演算を実行することにより行われることができる。相関演算は、下記式(1)に従って行われる。この相関演算は、2値画像ではなく、グレースケール画像を用いて行う。
ここで、探索画像R1は、M×N個の画素数を持ち、IR(m,n)は、探索画像R1内の座標(m,n)の位置の輝度値であり、IL(a+m−M,b+n−N)は、左画像内の所定の座標(a,b)を基点とした、探索画像R1と同一形状の局所領域内の座標(m,n)の位置の輝度値である。基点の座標(a,b)を変化させて輝度差分総和値C(a,b)が最小となる位置を求めることにより、対応画像の位置が特定される。
代替的に、左画像において、探索すべき領域を予め設定し、探索画像R1と該領域との間で相関演算を実行してもよい。
ステップS23において、探索画像R1の重心位置と、撮像画像の画像中心線(撮像画像をx方向に二分する線)LCTRとの距離dR(画素数)および対応画像の重心位置と画像中心線LCTRとの距離dL(画素数)を求め、式(2)に適用して、車両10の対象物までの距離zを算出する。
ここで、Bは、基線長、すなわちカメラ1Rの撮像素子の中心位置と、カメラ1Lの撮像素子の中心位置とのx方向(水平方向)の距離(すなわち、両カメラの光軸の間隔)を示し、Fは、カメラ1Rおよび1Lに設けられたレンズの焦点距離を示し、pは、カメラ1Rおよび1Lの撮像素子の画素間隔を示す。Δd(=dR+dL)は、視差の大きさを示す。
ステップS24において、対象物の位置(前述したように、この実施例では重心Gの位置)の画像内の座標(x、y)および式(2)により算出した距離zを、式(3)に適用し、実空間座標(X,Y,Z)に変換する。ここで、実空間座標(X,Y,Z)は、図9(a)に示すように、カメラ1Rおよび1Lの取り付け位置の中点の位置(車両に固定された位置)を原点Oとして、図のように、車両10の車幅方向にx軸、車両10の車高方向にy軸、車両の進行方向にz軸を定めた座標系で表される。画像上の座標は、図9(b)に示すように、画像の中心を原点として水平方向をx軸および垂直方向をy軸とした座標系で表される。
ここで、(xc,yc)は、右画像上の座標(x,y)を、カメラ1Rの取り付け位置と実空間座標系の原点Oとの相対位置関係に基づいて、実空間原点Oと画像の中心とを一致させた仮想的な画像内の座標に変換したものである。また、fは、焦点距離Fと画素間隔pとの比である。
ステップS25において、車両が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。時刻kから(k+1)までの期間中に、車両10がたとえば左方向に回頭角θrだけ回頭すると、カメラによって得られる画像上では、Δxだけx方向(正の方向)にずれる。したがって、これを補正する。
具体的には、式(4)に実空間座標(X,Y,Z)を適用して、補正座標(Xr,Yr,Zr)を算出する。算出した実空間位置データ(Xr,Yr,Zr)は、対象物ごとに対応づけて時系列にメモリに格納される。なお、以下の説明では、該補正後の座標を、(X,Y,Z)と示す。
ステップS26において、同一対象物について、ΔTの期間内に得られた、回頭角補正後のN個の実空間位置データ(たとえば、N=10程度)、すなわち時系列データから、対象物の車両に対する相対移動ベクトルに対応する近似直線LMVを求める。具体的には、近似直線LMVの方向を示す方向ベクトルL=(lx,ly,lz)(|L|=1)とすると、式(5)で表される直線を求める。
ここで、uは、任意の値を取る媒介変数である。Xav、YavおよびZavは、それぞれ、実空間位置データ列のX座標の平均値、Y座標の平均値、およびZ座標の平均値である。媒介変数uを消去することにより、式(5)は、以下の式(5a)のように表される。
(X−Xav)/lx=(Y−Yav)/ly=(Z−Zav)/lz
(5a)
図10は、近似直線LMVを説明するための図である。P(0)、P(1)、P(2)、・・・、P(N−2)、P(N−1)が、回頭角補正後の時系列データを示し、近似直線LMVは、この時系列データの平均位置座標Pav(=(Xav,Yav,Zav))を通り、各データ点からの距離の二乗の平均値が最小となるような直線として求められる。ここで各データ点の座標を示すPに付した()内の数値は、その値が増加するほど過去のデータであることを示す。たとえば、P(0)は最新の位置座標、P(1)は、1サンプル周期前の位置座標、P(2)は2サンプル周期前の位置座標を示す。以下の説明におけるX(j)、Y(j)、Z(j)等も同様である。なお、近似直線LMVを演算するより詳細な手法は、特開2001−6096号公報に記載されている。
次に、最新の位置座標P(0)=(X(0),Y(0),Z(0))と、(N−1)前(すなわち、時間ΔT前)の位置座標P(N−1)=(X(N−1),Y(N−1),Z(N−1))を、近似直線LMV上の位置に補正する。具体的には、式(5a)にZ座標Z(0)およびZ(n−1)を適用することにより得た式(6)により、補正後の位置座標Pv(0)=(Xv(0),Yv(0),Zv(0))およびPv(N−1)=(Xv(N−1),Yv(N−1),Zv(N−1))を求める。
式(6)で算出された位置座標Pv(N−1)からPv(0)に向かうベクトルが、相対移動ベクトルとして算出される。
このように、モニタ期間ΔT内の複数(N個)のデータから、対象物の車両に対する相対移動軌跡を近似する近似直線LMVを算出して相対移動ベクトルを求めることにより、位置検出誤差の影響を軽減して、対象物との衝突の可能性をより正確に予測することができる。
次に、ステップS27において、該相対移動ベクトルを利用して、警報判定を行う。
図11は、ステップS27で実行される警報判定プロセスのフローチャートである。
ステップS41において、上記のように撮像画像から抽出され、相対移動ベクトルが算出された対象物の数が所定数(たとえば、1)より多いかどうかどうかを判断する。この判断がNoであれば、ステップS42において、前述した第1の形態で警報出力を行う。すなわち、ステップS13で取得されたグレースケール画像を表示装置4上に表示して、その中のそれぞれの該対象物の位置に対して個別の強調表示を行うことにより、警報出力を実現する。
ステップS41において、対象物の数が所定数より多ければ、ステップS43以下の処理を実行し、これらの対象物のうち、警報について最も優先度の高い対象物を判定する。まず、ステップS43において、それぞれの対象物について、該対象物の車両までの到達時間TTCと、所定値TTC_THとを比較する。
対象物の相対移動ベクトルが算出されているので、そのZv値を用いて、式(7)に示すように、Z方向における対象物の自車両に対する相対速度Vsを算出する。該相対速度Vsを用いて、式(8)に示すように到達時間TTCを算出し、これが、式(9)に示すように所定値TTC_TH(たとえば、2〜5秒)以下であるかどうかを判断する。
Vs=(Zv(N−1)―Zv(0))/ΔT (7)
TTC=Zv(0)/Vs (8)
TTC≦TTC_TH (9)
ここで、Zv(0)は、最新の距離検出値(vは、近似直線LMVによる補正後のデータであることを示すために付しているが、Z座標は補正前と同一の値である)であり、Zv(N−1)は、時間ΔT前の距離検出値である。こうして、各対象物について、所定時間TTC_TH以内に自車両にZ方向において到達する可能性があるかどうかが判断される。
なお、この実施例では、図4に示す領域AR1〜AR3の所定距離Z1は、Vs×TTC_THに対応する。したがって、式(9)を満たす対象物は、領域AR1〜AR3内に存在する対象物である。
式(9)を満たす対象物が無ければ、所定時間TTC_TH以内に自車両にZ方向において到達する可能性のある対象物は存在しないことを示すので、ステップS43の判断はNoとなる。ステップS44に進み、高い優先度の対象物は無いと判定する。この場合、ステップS45に進み、警報出力を禁止する。すなわち、警報を出力することなく、ステップS13で取得されたグレースケール画像を表示装置4上に出力する通常表示を行う。
式(9)を満たす対象物が1つでも存在すれば、ステップS43の判断はYesとなる。ステップS46に進み、式(9)を満たした対象物のそれぞれについて、該対象物の移動方向は、自車両に向かっているか否かを判断する。この判断には、該対象物の相対移動ベクトルのXv値を利用する。前述したように、相対移動ベクトルは、ΔTの期間内に、X方向にXv(N−1)からXv(0)への移動を表している。また、図9に示すように、X座標値は、自車両の位置を原点としている。したがって、Xv(0)の絶対値が、X(N−1)の絶対値よりも小さければ、自車両に向かって移動していると判断し、Xv(0)の絶対値が、X(N−1)の絶対値以上であれば、自車両に向かっていないと判断することができる。こうして、それぞれの対象物について、該対象物がX方向において自車両に向かっているか否かを判断することができる。
自車両に向かっていると判断された対象物が少なくとも1つあれば、ステップS48に進み、該自車両に向かっていると判断された対象物について優先度は高いと判定する。自車両に向かっていると判断されなかった対象物のそれぞれについては、ステップS47の判断がさらに行われ、該対象物のXv(0)が、自車両を中心とした所定範囲(X_TH1〜X_TH2)の間に位置するかどうかを判断する。
X_TH1<Xv(0)<X_TH2が成立すれば、対象物は、自車両に向かってはいないものの、そのまま存在すれば自車両と衝突する可能性があることを示す。したがって、X_TH1<Xv(0)<X_TH2が成立した対象物が少なくとも1つあれば、ステップS48に進み、該対象物について、優先度は高いと判定する。X_TH1<Xv(0)<X_TH2が成立した対象物が全くなければ、ステップS44に進み、高い優先度の対象物は存在しないと判定する。
こうして、ステップS48では、到達時間TTCが所定値以下であり、かつ自車両に向かっている対象物と、到達時間TTCが所定値以下であり、かつ自車両を中心とした車幅方向の所定範囲内に存在する対象物とが、高い優先度を持つと判定される。
ステップS49では、ステップS48で優先度が高いと判定された対象物が複数ある場合に、そのうちの最も優先度の高い対象物を決定する。これは、運転者が最も注意すべき対象物を決定するために行われ、そのための手法としては、任意の適切なものを用いることができる。
たとえば、それぞれの対象物について、到達時間TTCと、最新のX値すなわちXv(0)とをパラメータとし、衝突可能性の程度を該パラメータで表す。たとえば、パラメータTTC値とパラメータXv(0)の絶対値とを乗算した値を、衝突可能性の程度を表す指標と考えることができる。到達時間TTCが小さいほど、またXv(0)の絶対値が小さいほど、衝突の可能性は高くなるので、該乗算値が小さいほど、衝突可能性の程度が高いことを示す。したがって、最も小さい乗算値となる対象物を、最も優先度の高い対象物と判定することができる。
あるいは、到達時間TTCと、Xv(0)と、X方向の速度とをパラメータとして、衝突可能性の程度を表してもよい。X方向の速度Xsは、(Xv(N−1)―Xv(0))/ΔTによって算出されることができる。X方向の速度Xsが速いほど衝突の可能性は高くなるので、たとえば、パラメータTTC値と、パラメータXv(0)の絶対値と、X方向の速度Xsの逆数とを乗算して、衝突可能性の程度を表す値を算出し、該乗算値が最も小さい対象物を、最も優先度の高い対象物と判定することができる。
なお、衝突可能性の程度を判断するのに、上記の到達時間TTCと、Xv(0)と、X方向の速度とのパラメータのうち、任意のものを用いてよく、また、これらのパラメータに加えて、またはこれらのパラメータのうちのいずれかに代えて、他のパラメータ(たとえば、対象物のZ方向の位置Zv(0))を用いてもよい。
ここで、一例として図12を参照すると、複数の対象物151〜154が、車両10の撮像範囲AR0内に存在している様子が示されている。対象物151〜154に付されている矢印は、該対象物の相対移動ベクトルを示している。これらの対象物151〜154については、到達時間TTCが所定値TTC_TH以下を満たしているものと仮定する。図のX軸上のX_TH1を通るラインとX_TH2を通るラインとの間の領域は、この例では、図4の接近判定領域AR1に対応しており、車両10の進行路を示す領域である。
対象物151〜153は、それらの相対移動ベクトルの方向からもわかるように、X方向において自車両に向かって移動している。したがって、これらの対象物について、ステップS46の判断はYesとなる。また、対象物154は、X方向において自車両に向かって移動してはいないが、ステップS47により、所定範囲X_TH1〜X_TH2内に存在していると判断される。したがって、対象物151〜154のすべてが、高い優先度の対象物と判定されることとなる。
前述したように、これらの対象物151〜154のうち、最も優先度の高い対象物を判定する。たとえば、前述したように到達時間TTCとXv(0)の絶対値とをパラメータとして用い、各対象物について衝突可能性の程度を表す値を算出し、最も衝突可能性の程度が高い値が算出された対象物を、最高優先度の対象物と判定することができる。
図11に戻り、こうして、最高優先度の対象物が決定されたならば、ステップS50に進み、第2の形態での警報出力を行う。具体的には、グレースケール画像を表示装置4上に表示すると共に、該画像中の最も優先度が高いと決定された対象物の位置に対してのみ、強調表示を行う。こうして、表示される画像全体に対して、1つの強調表示が行われることとなる。
複数の対象物が存在していても、最も優先度の高い、すなわち運転者が最も注意すべき対象物に対してのみ強調表示が行われるので、複数の対象物のそれぞれに個別の強調表示が行われる表示形態に比べて、運転者にとって、より見やすく、かつ判断しやすい表示形態とすることができる。したがって、運転者は、最も注意すべき対象物を瞬時に認識することができる。
図13は、図11のプロセスに従う、表示装置4上に表示される画面の時間的推移の概略的な一例を示す。ライン161とライン162とに囲まれる領域は、ステップS47および図12に示すX_TH1およびX_TH2を示すラインにそれぞれ対応する。また、ステップS41の「所定数」は、値1とする。
(a)の時点t1において、検出された歩行者171の数が1であるため、ステップS41の判断がNoとなり、第1の形態による警報出力が行われる。したがって、該歩行者の位置に対して、枠による強調表示を行うことにより、警報出力を行っている。
その後の(b)の時点t2において、検出された歩行者172〜175の数は4であるため、第2の形態による警報出力が行われる。ここで、歩行者172〜175は、図12の対象物151〜154にそれぞれ対応しているとする。図12を参照して説明したように、歩行者172〜175のすべてが、高い優先度を持つと判定されるが、このうちの一人の歩行者が、最高の優先度を持つと決定される。この例では、対象物151(すなわち、歩行者172)が、最も優先度の高い対象物であると決定されており、その結果、歩行者172の位置のみに対して、枠による強調表示が行われる。
なお、(a)の場合の第1の形態による枠と、(b)の場合の第2の形態による枠とを、色や形状等において異ならせてもよい。たとえば、第2の形態による枠を、第1の形態による枠よりも、運転者の注意を喚起するような色および形状にすることができる。たとえば、前者を、赤の細線による枠表示とし、後者を、赤の太線による枠表示としてもよいし、前者を、赤の枠表示を点灯させるものとし、後者を、赤の枠表示を点滅させるものとしてもよい。
また、この実施形態では、警報対象の対象物に枠を付すことにより強調表示を行っているが、枠とは異なる形態でもよい。たとえば、該対象物の位置に、たとえばアイコンのような他の所定の画像を重畳表示させることにより、強調表示を行ってもよい。
さらに、図7の全体的な強調表示と組み合わせもよい。たとえば、ステップS50で第2の警報を出力する際には、最も優先度の高い対象物の強調表示を行うと共に、図7の(a)の外枠131を表示して点灯ないし点滅させたりしてもよいし、あるいは、図7の(b)のように、最も優先度の高い対象物以外の領域の輝度を低くするようにしてもよい。後者の場合、最も優先度の高い対象物以外の領域の輝度を低くすることにより、高いコントラストで画像が表示されることとなり、該最も優先度の高い対象物への運転者への注意をより強く喚起することができる。
なお、第1および第2の実施形態を部分的に組み合わせてもよい。たとえば、第2の実施形態において、図10のステップS41がNoのとき(すなわち、対象物が所定数以下)、該対象物が、第1の実施形態で前述した所定の警報範囲内に存在するか否かを判断する。該警報範囲内に存在すれば、図3のステップS34で述べたように第1の形態で警報出力を行う。また、図10のステップS41がYesであるが(すなわち、対象物が所定数より多い)、ステップS44に示すように高い優先度の対象物が無いと判定された場合、該対象物が所定の警報範囲内に存在するか否かを判断する。該警報範囲内に存在すれば、図3のステップS35で述べたように、図5(b)や図7に示すようなアイコン画像等による1つの強調表示により、第2の形態による警報出力を行う。ステップS41がYesであり、かつ高い優先度の対象物が存在すると判定された場合には、図10のステップS50において、図12(b)に示すような最も優先度の高い対象物のみに対する1つの強調表示により、第2の形態による警報出力を行う。
上で述べたいずれの実施形態においても、上記の「所定数」を値1に設定することにより、表示される画像内での強調表示は常に1箇所となる。したがって、運転者は、瞬時に、表示される画像内で示された警報の内容を認識することができる。該所定数は1に限定されるものではないが、いくつの強調表示を行えば画面が見づらいと感じるかを予め調べ、見づらいと感じ始める強調表示数より少ない数に設定されるのが好ましい。
また、上で述べた実施形態では、表示装置4は、ナビゲーション装置の表示装置を利用している。本願発明では、運転者が短時間で認識できるような表示形態を採用するので、運転者の左または右側に配置された表示装置を利用しても、運転操作への影響を回避するような対象物通知を行うことができる。しかしながら、他の表示装置を使用してもよく、従来の如くヘッドアップディスプレイに、本願発明の表示形態を適用してもよい。
また、図示していないが、図3および図10のプロセスの警報出力の際に、警報音をスピーカ3を介して出力してもよい。警報音は、任意のものでよく、単なるブザーのような音でもよいし、何らかの音声メッセージでもよい。
さらに、上記の実施形態では、遠赤外線カメラを用いているが、本願発明は、他のカメラ(たとえば、可視カメラ)にも適用可能である。
以上のように、この発明の特定の実施形態について説明したが、本願発明は、これら実施形態に限定されるものではない。
1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
4 表示装置

Claims (4)

  1. 車両に搭載され、該車両の周辺を撮像する撮像手段と、
    前記撮像手段により撮像された画像に基づいて、前記車両の周辺の対象物を検出する検出手段と、
    前記撮像された画像を表示装置上に表示する手段と、
    前記検出された対象物の存在について、前記表示される画像上で警報表示を行うことにより、運転者に警報を行う警報手段と、を備える車両の周辺監視装置であって、
    前記警報手段は、同時に前記検出手段によって検出された対象物の数が所定数以下である場合には、該対象物のそれぞれについて、該対象物が存在する位置に対して強調表示を行う第1の形態の警報表示を行い、同時に前記検出手段によって検出された対象物の数が前記所定数より多い場合には、前記第1の形態の警報表示を行うことなく、前記表示される画像全体に対して1つの所定の強調表示を行う第2の形態の警報表示を行う、ことを特徴とする周辺監視装置。
  2. 前記警報手段は、さらに、同時に前記検出手段によって検出された対象物の数が前記所定数より多い場合には、前記表示される画像内の所定位置に、所定の画像を重畳表示させることによって、前記第2の形態による強調表示を行う、
    請求項1に記載の周辺監視装置。
  3. 前記警報手段は、さらに、同時に前記検出手段によって検出された対象物の数が前記所定数より多い場合には、該所定数より多い対象物全てに対して、警報についての優先度を判定し、最も優先度が高いと判定された対象物が存在する位置に対してのみ強調表示を行うことによって、前記第2の形態による強調表示を行う、
    請求項1に記載の周辺監視装置。
  4. 前記表示装置は、カーナビゲーション装置の表示装置である、
    請求項1から3のいずれかに記載の周辺監視装置。
JP2012502982A 2010-03-03 2011-02-14 車両の周辺監視装置 Expired - Fee Related JP5706874B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012502982A JP5706874B2 (ja) 2010-03-03 2011-02-14 車両の周辺監視装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010047161 2010-03-03
JP2010047161 2010-03-03
PCT/JP2011/000803 WO2011108198A1 (ja) 2010-03-03 2011-02-14 車両の周辺監視装置
JP2012502982A JP5706874B2 (ja) 2010-03-03 2011-02-14 車両の周辺監視装置

Publications (2)

Publication Number Publication Date
JPWO2011108198A1 true JPWO2011108198A1 (ja) 2013-06-20
JP5706874B2 JP5706874B2 (ja) 2015-04-22

Family

ID=44541869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012502982A Expired - Fee Related JP5706874B2 (ja) 2010-03-03 2011-02-14 車両の周辺監視装置

Country Status (5)

Country Link
US (1) US9073484B2 (ja)
EP (1) EP2544161B1 (ja)
JP (1) JP5706874B2 (ja)
CN (1) CN102782741B (ja)
WO (1) WO2011108198A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5703192B2 (ja) * 2011-11-04 2015-04-15 本田技研工業株式会社 車両周辺監視装置
JP5774770B2 (ja) * 2012-03-12 2015-09-09 本田技研工業株式会社 車両周辺監視装置
DE102012210798A1 (de) * 2012-06-26 2014-01-02 Robert Bosch Gmbh Kommunikationsvorrichtung und Kommunikationsverfahren für ein Fahrzeug
JP5888164B2 (ja) * 2012-07-20 2016-03-16 トヨタ自動車株式会社 車両周辺監視装置、車両周辺監視システム
JP5957359B2 (ja) * 2012-10-19 2016-07-27 日立オートモティブシステムズ株式会社 ステレオ画像処理装置及びステレオ画像処理方法
WO2014109125A1 (ja) * 2013-01-09 2014-07-17 ソニー株式会社 画像処理装置、画像処理方法、プログラム
US9514650B2 (en) * 2013-03-13 2016-12-06 Honda Motor Co., Ltd. System and method for warning a driver of pedestrians and other obstacles when turning
JP5991647B2 (ja) * 2013-03-28 2016-09-14 株式会社デンソー 車両用周辺監視制御装置
JP6232759B2 (ja) * 2013-06-07 2017-11-22 ソニー株式会社 情報処理装置、接近対象物通知方法及びプログラム
JP6205923B2 (ja) * 2013-07-11 2017-10-04 株式会社デンソー 走行支援装置
JP5870993B2 (ja) * 2013-12-27 2016-03-01 トヨタ自動車株式会社 車両用情報表示装置及び車両用情報表示方法
TW201529381A (zh) * 2014-01-17 2015-08-01 Primax Electronics Ltd 行車影像輔助系統
CN104802708A (zh) * 2014-01-23 2015-07-29 致伸科技股份有限公司 行车影像辅助系统
JP6267972B2 (ja) * 2014-01-23 2018-01-24 日立建機株式会社 作業機械の周囲監視装置
US9598012B2 (en) * 2014-03-11 2017-03-21 Toyota Motor Engineering & Manufacturing North America, Inc. Surroundings monitoring system for a vehicle
KR102310286B1 (ko) * 2014-11-07 2021-10-07 현대모비스 주식회사 특정물체 감지 장치 및 특정물체 감지 방법
JP6227165B2 (ja) 2014-12-10 2017-11-08 三菱電機株式会社 画像処理装置及び車載表示システム及び表示装置及び画像処理方法及び画像処理プログラム
US9591447B2 (en) * 2015-02-27 2017-03-07 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for providing contextual environmental information
CN107408288B (zh) * 2015-03-10 2021-02-12 Jvc 建伍株式会社 警告装置、警告方法以及警告程序
JP6224029B2 (ja) * 2015-05-21 2017-11-01 富士通テン株式会社 画像処理装置および画像処理方法
JP6653439B2 (ja) * 2015-07-02 2020-02-26 パナソニックIpマネジメント株式会社 表示制御装置、投影装置、表示制御プログラム、および記録媒体
US20180090002A1 (en) * 2015-08-03 2018-03-29 Mitsubishi Electric Corporation Display control apparatus, display device, and display control method
JP6406159B2 (ja) * 2015-08-04 2018-10-17 株式会社デンソー 車載表示制御装置、車載表示制御方法
US10140870B1 (en) * 2015-09-30 2018-11-27 Waymo Llc Occupant facing vehicle display
JP2017074871A (ja) * 2015-10-15 2017-04-20 日立建機株式会社 車両周囲障害物検出装置
US10606257B2 (en) 2015-11-10 2020-03-31 Hyundai Motor Company Automatic parking system and automatic parking method
US10906530B2 (en) 2015-11-10 2021-02-02 Hyundai Motor Company Automatic parking system and automatic parking method
US10919574B2 (en) 2015-11-10 2021-02-16 Hyundai Motor Company Automatic parking system and automatic parking method
KR101892026B1 (ko) * 2015-11-10 2018-08-27 현대자동차주식회사 차량의 원격 주차 제어 방법 및 장치
KR102655625B1 (ko) * 2015-11-24 2024-04-09 삼성전자주식회사 피사체의 근접 여부에 따라 촬영 장치를 제어하는 방법 및 촬영 장치.
KR101916993B1 (ko) * 2015-12-24 2018-11-08 엘지전자 주식회사 차량용 디스플레이 장치 및 그 제어방법
JP6304272B2 (ja) * 2016-02-04 2018-04-04 トヨタ自動車株式会社 車両用注意喚起装置
CN109844839A (zh) * 2016-06-10 2019-06-04 大陆汽车系统公司 用于自主车道变换操纵的状况分析的系统和方法
JP6551377B2 (ja) * 2016-12-15 2019-07-31 トヨタ自動車株式会社 車両用注意喚起装置
CN107016495A (zh) * 2017-03-21 2017-08-04 乐蜜科技有限公司 城市区域相关性的确定方法、装置和终端设备
JP6819431B2 (ja) 2017-04-12 2021-01-27 トヨタ自動車株式会社 注意喚起装置
JP6834860B2 (ja) * 2017-09-05 2021-02-24 トヨタ自動車株式会社 衝突防止装置、衝突防止方法、衝突防止プログラム、記録媒体
CN109455140B (zh) * 2017-09-06 2022-03-01 丰田自动车株式会社 图像显示装置
CN117934774A (zh) * 2017-09-22 2024-04-26 麦克赛尔株式会社 信息记录装置、显示系统和影像装置
JP2019089394A (ja) * 2017-11-13 2019-06-13 矢崎総業株式会社 自動運転時情報伝達方法および車両用情報提示装置
CN108172004A (zh) * 2017-11-30 2018-06-15 广州华夏职业学院 一种用于车辆中红绿灯提醒装置及系统
CN108693548B (zh) * 2018-05-18 2021-10-22 中国科学院光电研究院 一种基于场景目标识别的导航方法及系统
KR20200005282A (ko) * 2018-07-06 2020-01-15 현대모비스 주식회사 미러리스 자동차의 측방 영상 처리 장치 및 방법
JP7143661B2 (ja) * 2018-07-24 2022-09-29 トヨタ自動車株式会社 情報処理システム、プログラム、及び制御方法
JP7189695B2 (ja) * 2018-08-07 2022-12-14 日立Astemo株式会社 運転支援装置
JP7180421B2 (ja) * 2019-02-04 2022-11-30 トヨタ自動車株式会社 車両制御装置
US11351991B2 (en) * 2019-03-25 2022-06-07 Zoox, Inc. Prediction based on attributes
GB2596709A (en) * 2019-04-05 2022-01-05 FLIR Belgium BVBA Passage planning and navigation systems and methods
US11488472B2 (en) * 2020-10-15 2022-11-01 Ford Global Technologies, Llc Vehicle sound emission control
WO2024042762A1 (ja) * 2022-08-23 2024-02-29 マクセル株式会社 ヘッドアップディスプレイ装置および映像データの処理方法

Family Cites Families (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3515926B2 (ja) 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
JP3738949B2 (ja) * 1999-07-08 2006-01-25 三菱自動車工業株式会社 車両周辺領域監視装置
US6281806B1 (en) * 2000-10-12 2001-08-28 Ford Global Technologies, Inc. Driver road hazard warning and illumination system
US7180475B2 (en) * 2001-06-07 2007-02-20 Infocus Corporation Method and apparatus for wireless image transmission to a projector
JP4060159B2 (ja) 2002-01-18 2008-03-12 本田技研工業株式会社 車両周辺監視装置
US7139411B2 (en) * 2002-06-14 2006-11-21 Honda Giken Kogyo Kabushiki Kaisha Pedestrian detection and tracking with night vision
JP3941650B2 (ja) * 2002-09-30 2007-07-04 横河電機株式会社 監視システム
EP1491857A1 (en) * 2003-06-26 2004-12-29 Harman Becker Automotive Systems GmbH Method for assisting navigation and navigation system
JP2005212709A (ja) * 2004-02-02 2005-08-11 Yoichi Takebayashi 車両運転支援システム
US20070230792A1 (en) * 2004-04-08 2007-10-04 Mobileye Technologies Ltd. Pedestrian Detection
JP4128562B2 (ja) * 2004-11-30 2008-07-30 本田技研工業株式会社 車両周辺監視装置
EP1696669B1 (en) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
DE102005041535A1 (de) * 2005-08-31 2007-03-01 Siemens Ag Night-Vision-System, bei dem die Umgebung mittels einer Aufnahmevorrichtung aufgenommen und mittels einer Anzeige zumindest teilweise dargestellt wird
SE529304C2 (sv) * 2005-09-06 2007-06-26 Gm Global Tech Operations Inc Metod och system för förbättrande av trafiksäkerhet
JP2007148835A (ja) * 2005-11-28 2007-06-14 Fujitsu Ten Ltd 物体判別装置、報知制御装置、物体判別方法および物体判別プログラム
JP4389173B2 (ja) * 2005-12-08 2009-12-24 株式会社デンソー 車両用表示装置
JP4456086B2 (ja) 2006-03-09 2010-04-28 本田技研工業株式会社 車両周辺監視装置
GB2436916B (en) * 2006-03-29 2008-09-24 John Turnbull Warning System
JP4830594B2 (ja) * 2006-04-05 2011-12-07 トヨタ自動車株式会社 物体検出装置
JP4203512B2 (ja) 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
US20080008355A1 (en) * 2006-07-05 2008-01-10 Fujitsu Ten Limited Image recognition apparatus, image recognition method, and vehicle control apparatus
US8085140B2 (en) * 2006-09-04 2011-12-27 Panasonic Corporation Travel information providing device
JP2008152438A (ja) 2006-12-15 2008-07-03 Mitsubishi Fuso Truck & Bus Corp 車両用表示装置
WO2008087706A1 (ja) * 2007-01-16 2008-07-24 Pioneer Corporation 車両用表示装置、車両用表示方法及び車両用表示プログラム
EP2168079B1 (en) * 2007-01-23 2015-01-14 Valeo Schalter und Sensoren GmbH Method and system for universal lane boundary detection
JP2009098956A (ja) * 2007-10-17 2009-05-07 Mazda Motor Corp 車両用運転支援装置
DE102008038731A1 (de) * 2008-08-12 2010-02-18 Continental Automotive Gmbh Verfahren zur Erkennung ausgedehnter statischer Objekte
US8817090B2 (en) * 2009-04-02 2014-08-26 GM Global Technology Operations LLC Luminance uniformity compensation of vector projection display
US8427395B2 (en) * 2009-04-02 2013-04-23 GM Global Technology Operations LLC Full-windshield hud enhancement: pixelated field of view limited architecture
US8395529B2 (en) * 2009-04-02 2013-03-12 GM Global Technology Operations LLC Traffic infrastructure indicator on head-up display
US8350724B2 (en) * 2009-04-02 2013-01-08 GM Global Technology Operations LLC Rear parking assist on full rear-window head-up display
US8912978B2 (en) * 2009-04-02 2014-12-16 GM Global Technology Operations LLC Dynamic vehicle system information on full windshield head-up display
US8629903B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Enhanced vision system full-windshield HUD
US8629784B2 (en) * 2009-04-02 2014-01-14 GM Global Technology Operations LLC Peripheral salient feature enhancement on full-windshield head-up display
US20100253595A1 (en) * 2009-04-02 2010-10-07 Gm Global Technology Operations, Inc. Virtual controls and displays by laser projection
US8547298B2 (en) * 2009-04-02 2013-10-01 GM Global Technology Operations LLC Continuation of exterior view on interior pillars and surfaces
US8564502B2 (en) * 2009-04-02 2013-10-22 GM Global Technology Operations LLC Distortion and perspective correction of vector projection display
US8482486B2 (en) * 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
US8358224B2 (en) * 2009-04-02 2013-01-22 GM Global Technology Operations LLC Point of interest location marking on full windshield head-up display
US8269652B2 (en) * 2009-04-02 2012-09-18 GM Global Technology Operations LLC Vehicle-to-vehicle communicator on full-windshield head-up display
US8164543B2 (en) * 2009-05-18 2012-04-24 GM Global Technology Operations LLC Night vision on full windshield head-up display
US8977489B2 (en) * 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
US20110228980A1 (en) * 2009-10-07 2011-09-22 Panasonic Corporation Control apparatus and vehicle surrounding monitoring apparatus
US9052207B2 (en) * 2009-10-22 2015-06-09 Tomtom Polska Sp. Z O.O. System and method for vehicle navigation using lateral offsets
JP5441626B2 (ja) * 2009-11-06 2014-03-12 日立オートモティブシステムズ株式会社 車載用マルチアプリ実行装置
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
US8232872B2 (en) * 2009-12-03 2012-07-31 GM Global Technology Operations LLC Cross traffic collision alert system
US8537030B2 (en) * 2010-02-15 2013-09-17 Ford Global Technologies, Llc Pedestrian alert system and method
CN102763146B (zh) * 2010-02-22 2015-02-11 丰田自动车株式会社 危险度计算装置
US9321399B2 (en) * 2010-03-01 2016-04-26 Honda Motor Co., Ltd. Surrounding area monitoring device for vehicle
WO2011108979A1 (en) * 2010-03-01 2011-09-09 Concorde Invest Ab Pedestrian warning device for a vehicle
DE102010010912A1 (de) * 2010-03-10 2010-12-02 Daimler Ag Fahrerassistenzvorrichtung mit optischer Darstellung erfasster Objekte
JP5218458B2 (ja) * 2010-03-23 2013-06-26 株式会社デンソー 車両接近報知システム
WO2011132388A1 (ja) * 2010-04-19 2011-10-27 本田技研工業株式会社 車両の周辺監視装置
US8121755B2 (en) * 2010-05-26 2012-02-21 Mitsubishi Electric Corporation Sound-directed-outside-vehicle emitting device
DE102010040803A1 (de) * 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
JP5554261B2 (ja) * 2011-02-24 2014-07-23 アルパイン株式会社 立体物検出装置および立体物検出方法
US9233659B2 (en) * 2011-04-27 2016-01-12 Mobileye Vision Technologies Ltd. Pedestrian collision warning system
US9170329B2 (en) * 2011-04-28 2015-10-27 Honda Motor Co., Ltd. Object detection apparatus for vehicle
DE102011076112A1 (de) * 2011-05-19 2012-11-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Erkennen eines möglichenKollisionsobjektes
US8994823B2 (en) * 2011-07-05 2015-03-31 Toyota Jidosha Kabushiki Kaisha Object detection apparatus and storage medium storing object detection program
JP5664784B2 (ja) * 2011-07-21 2015-02-04 トヨタ自動車株式会社 車両用情報伝達装置
US8611598B2 (en) * 2011-07-26 2013-12-17 Harman International (China) Holdings Co., Ltd. Vehicle obstacle detection system
JP2013029451A (ja) * 2011-07-29 2013-02-07 Ricoh Co Ltd 付着物検出装置及び付着物検出方法
DE102011081367A1 (de) * 2011-08-23 2013-02-28 Robert Bosch Gmbh Verfahren zur Steuerung einer Lichtaussendung eines Scheinwerfers eines Fahrzeugs
US20130093583A1 (en) * 2011-10-14 2013-04-18 Alan D. Shapiro Automotive panel warning and protection system
DE102011084618A1 (de) * 2011-10-17 2013-04-18 Robert Bosch Gmbh Fahrerassistenzsystem
WO2013058128A1 (ja) * 2011-10-18 2013-04-25 本田技研工業株式会社 車両周辺監視装置
US9146898B2 (en) * 2011-10-27 2015-09-29 Magna Electronics Inc. Driver assist system with algorithm switching
US9235990B2 (en) * 2011-11-25 2016-01-12 Honda Motor Co., Ltd. Vehicle periphery monitoring device
US8824733B2 (en) * 2012-03-26 2014-09-02 Tk Holdings Inc. Range-cued object segmentation system and method
US10089537B2 (en) * 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
US8659408B2 (en) * 2012-05-22 2014-02-25 Delphi Technologies, Inc. Object detection system and method using a camera and a multiple zone temperature sensor
US9139133B2 (en) * 2012-05-31 2015-09-22 GM Global Technology Operations LLC Vehicle collision warning system and method
CN103988241A (zh) * 2012-11-13 2014-08-13 株式会社东芝 检测装置、方法以及程序
US9743002B2 (en) * 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions

Also Published As

Publication number Publication date
EP2544161B1 (en) 2014-12-24
CN102782741A (zh) 2012-11-14
US20120320212A1 (en) 2012-12-20
US9073484B2 (en) 2015-07-07
JP5706874B2 (ja) 2015-04-22
EP2544161A4 (en) 2013-07-24
WO2011108198A1 (ja) 2011-09-09
CN102782741B (zh) 2015-08-19
EP2544161A1 (en) 2013-01-09

Similar Documents

Publication Publication Date Title
JP5706874B2 (ja) 車両の周辺監視装置
JP5503728B2 (ja) 車両の周辺監視装置
JP5577398B2 (ja) 車両の周辺監視装置
JP4410292B1 (ja) 車両の周辺監視装置
JP4456086B2 (ja) 車両周辺監視装置
JP3764086B2 (ja) 車両用情報提供装置
JP4173902B2 (ja) 車両周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP2008027309A (ja) 衝突判定システム、及び衝突判定方法
JP2003150938A (ja) 画像認識装置
JP4988781B2 (ja) 車両の周辺監視装置
JP2007334511A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP5192007B2 (ja) 車両の周辺監視装置
JP3999088B2 (ja) 障害物検出装置
JP4176558B2 (ja) 車両周辺表示装置
JP4823753B2 (ja) 車両の周辺監視装置
JP5192009B2 (ja) 車両の周辺監視装置
JP3949628B2 (ja) 車両の周辺監視装置
JP4943403B2 (ja) 車両の周辺監視装置
JP2010191666A (ja) 車両の周辺監視装置
JP5430633B2 (ja) 車両周辺監視装置
JP2007311866A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
JP4472623B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150227

R150 Certificate of patent or registration of utility model

Ref document number: 5706874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees