JP2017138766A - 車両接近検出装置 - Google Patents

車両接近検出装置 Download PDF

Info

Publication number
JP2017138766A
JP2017138766A JP2016018770A JP2016018770A JP2017138766A JP 2017138766 A JP2017138766 A JP 2017138766A JP 2016018770 A JP2016018770 A JP 2016018770A JP 2016018770 A JP2016018770 A JP 2016018770A JP 2017138766 A JP2017138766 A JP 2017138766A
Authority
JP
Japan
Prior art keywords
vehicle
information
wall surface
approach detection
surrounding image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016018770A
Other languages
English (en)
Other versions
JP6211113B2 (ja
Inventor
加藤 陽一
Yoichi Kato
陽一 加藤
貴久 青柳
Takahisa Aoyanagi
貴久 青柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016018770A priority Critical patent/JP6211113B2/ja
Priority to US15/227,078 priority patent/US9925984B2/en
Priority to DE102016216000.1A priority patent/DE102016216000B4/de
Publication of JP2017138766A publication Critical patent/JP2017138766A/ja
Application granted granted Critical
Publication of JP6211113B2 publication Critical patent/JP6211113B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2510/00Input parameters relating to a particular sub-units
    • B60W2510/20Steering systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

【課題】専用装置を道路上に設置しなくても、他車両の接近を検出することができる車両接近検出装置および車両接近検出方法を得る。【解決手段】他車両からの照射光(例えば、他車両のヘッドライトから照射されたヘッドライト光)を観察するための観察エリア(例えば、路面)が映る車両周囲映像と、車両周囲環境音との少なくとも一方を車両外部情報として検出し、検出した車両外部情報を用いて、車両に他車両が接近しているか否かを判定するように構成されている。【選択図】図1

Description

本発明は、車両に他車両が接近しているか否かを判定することで、他車両の接近を検出する車両接近検出装置および車両接近検出方法に関するものである。
近年、車載カメラまたはレーダを用いた警告機能、および自動ブレーキ機能などの予防安全機能を備えた車両の普及が進んでいる。特に、夜間での走行、または明るさの暗い周囲環境での走行において、前方車のブレーキランプまたは対向車のヘッドライトをカメラで検出することで、追突警報を報知したり、自車のヘッドライト制御を行ったりする技術の開発が進められている。
具体的には、例えば、夜間の事故を回避することを目的として、道路のカーブ部分にカーブ先から進入する他車両のライトを検出することで運転者に警告する技術が提案されている(例えば、特許文献1参照)。
実開平3−119300号公報
しかしながら、特許文献1に記載の従来技術では、他車両のライトを検出するために、道路上の必要な地点すべてに専用装置を設置しなければならないので、その結果、コストがかかるという問題がある。したがって、このような専用装置を道路上に設置しなくても、他車両の接近を検出することができる技術が必要である。
本発明は、上記のような課題を解決するためになされたものであり、専用装置を道路上に設置しなくても、他車両の接近を検出することができる車両接近検出装置および車両接近検出方法を得ることを目的とする。
本発明における車両接近検出装置は、車両に搭載された装置であって、他車両からの照射光を観察するための観察エリアが映る車両周囲映像と、車両周囲環境音との少なくとも一方を車両外部情報として検出し、検出した車両外部情報を出力する車両外部情報検出器と、車両外部情報検出器から入力された車両外部情報から、車両に他車両が接近しているか否かを判定する車両接近検出部を有する電子制御ユニットと、を備えたものである。
また、本発明における車両接近検出方法は、車両に搭載された電子制御ユニットによって実行される方法であって、他車両からの照射光を観察するための観察エリアが映る車両周囲映像と、車両周囲環境音との少なくとも一方を車両外部情報として検出し、検出した車両外部情報を出力する車両外部情報検出器から、車両外部情報を取得するステップと、取得した車両外部情報から、車両に他車両が接近しているか否かを判定するステップと、を備えたものである。
本発明によれば、他車両からの照射光を観察する観察エリアが映る車両周囲映像と、車両周囲環境音との少なくとも一方を車両外部情報として検出し、その検出結果から、車両に他車両が接近しているか否かを判定するように構成されている。これにより、専用装置を道路上に設置しなくても、他車両の接近を検出することができる車両接近検出装置および車両接近検出方法を得ることができる。
本発明の実施の形態1における車両接近検出装置の構成を示すブロック図である。 本発明の実施の形態1における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。 図1の車両接近判定部によって、路面の明るさが変化したと判定されるシーンの一例を示す説明図である。 本発明の実施の形態2における車両接近検出装置の構成を示すブロック図である。 本発明の実施の形態2における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。 本発明の実施の形態2における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。 図4の壁面情報推定部によって、観察エリアが第1の対象壁面に設定されるシーンの一例を示す説明図である。 図4の壁面情報推定部によって、観察エリアが路面に設定されるシーンの一例を示す説明図である。 本発明の実施の形態3における車両接近検出装置の構成を示すブロック図である。 本発明の実施の形態3における車両接近検出装置の一連のシンボルマーク照射動作を示すフローチャートである。 本発明の実施の形態3における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。 本発明の実施の形態3における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。 図9の壁面情報推定部によって、観察エリアが第1の対象壁面に設定されるシーンの一例を示す説明図である。 図9の壁面情報推定部によって、観察エリアが路面に設定されるシーンの一例を示す説明図である。 本発明の実施の形態4における車両接近検出装置の構成を示すブロック図である。 本発明の実施の形態4における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。 本発明の実施の形態4における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。
以下、本発明による車両接近検出装置および車両接近検出方法を、好適な実施の形態にしたがって図面を用いて説明する。なお、図面の説明においては、同一部分または相当部分には同一符号を付し、重複する説明を省略する。
実施の形態1.
図1は、本発明の実施の形態1における車両接近検出装置の構成を示すブロック図である。図1における車両接近検出装置は、車両外部情報検出器1、電子制御ユニット2、警告音発生装置3、警告表示装置4およびブレーキ5を備える。
車両外部情報検出器1は、カメラ11およびマイクロフォン12を有し、カメラ11およびマイクロフォン12は、車両に搭載される。
カメラ11は、自車両の前方を含む周囲の映像を取得して出力する。また、カメラ11は、他車両からの照射光を観察するための観察エリアとして路面が映る車両周囲映像を取得するように事前に設定される。なお、実施の形態1では、他車両からの照射光が他車両のヘッドライトから照射されるヘッドライト光である場合を例示する。マイクロフォン12は、車両周囲の環境音を取得して出力する。
このように、車両外部情報検出器1は、他車両からの照射光を観察するための観察エリアが映る車両周囲映像と、車両周囲環境音とを、車両外部情報として検出し、検出した車両外部情報を出力する。
電子制御ユニット2は、例えば、メモリに記憶されたプログラムを実行するCPUと、システムLSI等の処理回路とによって実現される。電子制御ユニット2は、車両接近検出部21および運転支援制御部22を有する。
車両接近検出部21は、画像処理部23、音響処理部24および車両接近判定部25を有する。
画像処理部23は、カメラ11によって取得された車両周囲映像を一定周期で取得し、取得した車両周囲映像に対して公知の画像解析を適用することで、車両周囲映像に映る路面の明るさの時系列変化を検出する。具体的には、画像処理部23は、カメラ11から入力された車両周囲映像の各画素値の時系列変化を検出する。また、画像処理部23は、その検出結果を車両接近判定部25に出力する。
音響処理部24は、マイクロフォン12によって取得された車両周囲環境音を取得し、取得した車両周囲環境音に対して公知の音響解析を適用することで、他車両のエンジン音の変化を検出する。具体的には、音響処理部24は、マイクロフォン12から入力された車両周囲環境音に含まれる他車両のエンジン音の時系列変化を検出する。また、音響処理部24は、その検出結果を車両接近判定部25に出力する。
車両接近判定部25は、画像処理部23による検出結果と、音響処理部24による検出結果とから、車両に他車両が接近しているか否かを判定し、その判定結果を運転支援制御部22に出力する。
このように、車両接近検出部21は、車両外部情報検出器1から入力された車両外部情報から、車両に他車両が接近しているか否かを判定する。
運転支援制御部22は、車両接近判定部25によって判定された結果として、車両に他車両が接近していると判定された場合、他車両の接近に応じた車両の運転支援を行う。
具体的には、運転支援の第1の例として、運転支援制御部22は、警告音が出力されるように警告音発生装置3を制御することで、車両に対して他車両が接近していることを車両の運転者に警告する。運転支援の第2の例として、運転支援制御部22は、警告を表す映像が表示されるように警告表示装置4を制御することで、車両に対して他車両が接近していることを車両の運転者に警告する。このように構成することで、他車両の接近が運転者に警告されるので、運転者のさらなる安全が確保される。
運転支援の第3の例として、運転支援制御部22は、必要に応じてブレーキ5を制御することで、車両の速度を減速させる。このように構成することで、自動ブレーキ制御が行われるので、運転者のさらなる安全が確保される。なお、運転支援の別例として、灯火の方向を制御することで他車の視界を遮らないように構成してもよい。
このように、他車両の接近に応じた車両の運転支援としては、さまざまな運転支援が考えられる。上記で例示した複数の運転支援の中から少なくとも1つの運転支援が行われるように運転支援制御部22を構成すればよい。
次に、本実施の形態1における車両接近検出装置の一連の車両接近判定動作について、図2を参照しながら説明する。図2は、本発明の実施の形態1における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。
ステップS101において、画像処理部23は、カメラ11から車両周囲映像を取得し、処理がステップS102へ進む。なお、カメラ11から車両周囲映像を画像処理部23が取得する時間間隔は、運転者に対して早期に運転支援を行うことができ、かつ画像解析をより詳細に行えることを考慮した間隔、例えば数10〜数100msecなどが望ましい。また、ここでは、車両が前進していることを想定し、車両の前方の路面を含む映像が車両周囲映像として取得される場合を例に挙げる。
ステップS102において、画像処理部23は、ステップS101で取得した車両周囲映像の画像解析を行い、処理がステップS103へ進む。
ステップS103において、車両接近判定部25は、ステップS102での画像解析結果を用いて、観察エリアの明るさ、すなわち、路面の明るさが変化したか否かを判定する。ステップS103において、路面の明るさが変化したと判定された場合には、処理がステップS104へ進み、路面の明るさが変化していないと判定された場合には、処理がステップS108へ進む。
具体的には、画像処理部23は、カメラ11から入力された車両周囲映像の各画素値の時系列変化、すなわち、車両周囲映像中の時系列における各画素値の変化を検出する。画像処理部23は、各画素値の時系列変化として、例えば、各画素の明度または輝度の時系列変化を解析する。
車両接近判定部25は、画像処理部23によって解析された各画素値の時系列変化において、複数の画素値が増加している場合には、路面の明るさが変化したと判定し、それ以外の場合には、路面の明るさが変化していないと判定する。
ここで、路面の明るさが変化したと判定される場合の一例について、図3を参照しながら説明する。図3は、図1の車両接近判定部25によって、路面の明るさが変化したと判定されるシーンの一例を示す説明図である。
図3において、路面を走行する自車両101は、見通しの悪い交差点103に差し掛かかり、他車両102は、ヘッドライト光104を照射しながら左方へ走行している。つまり、他車両102は、右方から自車両101に接近している状況である。
この場合、他車両102が左方へ進行するにつれて、自車両101に接近することとなるので、その結果、カメラ11によって取得される車両周囲画像は、ヘッドライト光104に起因して明るくなる。つまり、車両周囲映像の各画素値の時系列変化において、画素値が経時的に増加する複数の画素が存在する。
このように、車両に他車両が接近している場合に、車両周囲映像に映る路面の明るさが変化する。そこで、車両接近検出部21は、カメラ11によって取得された車両周囲画像から路面の明るさの変化の有無を判定し、その判定結果を用いて、車両に他車両が接近しているか否かを判定するように構成されている。したがって、図3に示す状況において、車両の走行方向と異なる他方向からの他車両の接近を事前に予測することが可能となる。
図2の説明に戻り、ステップS104において、音響処理部24は、マイクロフォン12から車両周囲環境音を取得し、処理がステップS105へ進む。なお、マイクロフォン12から車両周囲環境音を音響処理部24が取得する時間間隔は、運転者に対して早期に運転支援を行うことができ、かつ音響解析をより詳細に行えることを考慮した間隔、例えば数10〜数100msecなどが望ましい。
ステップS105において、音響処理部24は、ステップS104で取得した車両周囲環境音の音響解析を行い、処理がステップS106へ進む。
ステップS106において、車両接近判定部25は、ステップS105での音響解析結果を用いて、他車両のエンジン音が変化したか否かを判定する。ステップS106において、他車両のエンジン音が変化したと判定された場合には、処理がステップS107へ進み、他車両のエンジン音が変化していないと判定された場合には、処理がステップS108へ進む。
具体的には、音響処理部24は、マイクロフォン12から入力された車両周囲環境音に含まれている他車両のエンジン音の時系列変化を検出する。
車両接近判定部25は、音響処理部24によって解析された他車両のエンジン音の時系列変化において、エンジン音成分が増加している場合には、他車両のエンジン音が変化したと判定し、それ以外の場合には、他車両のエンジン音が変化していないと判定する。
ステップS107において、車両接近判定部25は、車両に他車両が接近していると判定し、処理がステップS109へ進む。
ステップS108において、車両接近判定部25は、車両に他車両が接近していないと判定し、処理がステップS101へ戻る。
このように、車両接近検出部21は、路面の明るさの時系列変化と、他車両のエンジン音の時系列変化との両方から、車両に他車両が接近しているか否かを判定する。
なお、本実施の形態1では、路面の明るさの時系列変化と、他車両のエンジン音の時系列変化との両方から、車両に他車両が接近しているか否かを判定するように構成する場合を例示したが、これに限定されない。すなわち、路面の明るさの時系列変化と、他車両のエンジン音の時系列変化とのいずれか一方から、車両に他車両が接近しているか否かを判定するように構成してもよい。
ステップS109において、運転支援制御部22は、運転支援を行い、処理が終了となる。
以上、本実施の形態1によれば、他車両からの照射光を観察するための観察エリアが映る車両周囲映像と、車両周囲環境音との少なくとも一方を車両外部情報として検出し、その検出結果から、車両に他車両が接近しているか否かを判定するように構成されている。これにより、専用装置を道路上に設置しなくても、他車両の接近を検出することができる
また、上記の構成において、車両周囲映像および車両周囲環境の両方を車両外部情報として検出し、その検出結果から、車両に他車両が接近しているか否かを判定するように構成することで、車両接近判定の信頼性をより向上させることが可能となる。
また、上記の構成において、さらに、車両に他車両が接近していると判定された場合、車両の運転支援を行うように構成する。これにより、運転者のさらなる安全を確保することが可能となる。例えば、夜間の車両運転時に、見通しの悪い交差点またはカーブに車両が差し掛かった際、運転者に対して、他車両の接近を警告することができる。
なお、前方の路面の明るさの変化を検出するだけではなく、例えば車両の後退時には後方の路面の明るさの変化を検出するなど、多方向から路面の明るさを検出し、その検出結果を用いて、車両に他車両が接近しているか否かを判定するように構成してもよい。また、路面の明るさの変化および他車両のエンジン音の変化を検出し、一定時間当たりの変化量の大きさに対応して危険度を予測し、予測した危険度に応じて、警告音出力制御および自動ブレーキ制御の各開始タイミングを変化させてもよい。また、その予測した危険度に応じて、警告音出力制御および自動ブレーキ制御の各制御量を変化させてもよい。
実施の形態2.
本発明の実施の形態2では、先の実施の形態1の構成に対して、車両周囲の壁面情報に応じて観察エリアを変更する車両接近検出装置について説明する。なお、本実施の形態2では、先の実施の形態1と同様である点の説明を省略し、先の実施の形態1と異なる点を中心に説明する。
図4は、本発明の実施の形態2における車両接近検出装置の構成を示すブロック図である。図4における車両接近検出装置は、先の図1の構成に対して、車両に搭載されるレーダ6と、電子制御ユニット2に含まれる壁面情報推定部26とをさらに備える。
レーダ6は、車両周囲の障害物に関する情報をレーダ情報として検出し、検出したレーダ情報を壁面情報推定部26に出力する。レーダ情報には、車両周囲の壁面の存在の有無を示す情報、および壁面の位置関係を示す情報などが含まれる。
壁面情報推定部26は、レーダ6から入力されたレーダ情報から、車両周囲において、壁面がどのように存在するかを推定し、推定結果をマップで表した壁面情報を生成する。つまり、壁面情報推定部26は、レーダ情報から、車両周囲の壁面に関する情報を壁面情報として生成する。また、壁面情報推定部26は、生成した壁面情報から、車両の進行方向に対向して位置する第1の対象壁面の存在の有無を判定し、判定結果に従って、観察エリアを第1の対象壁面および路面のいずれかに設定する。
次に、本実施の形態2における車両接近検出装置の一連の車両接近判定動作について、図5および図6を参照しながら説明する。図5および図6は、本発明の実施の形態2における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。なお、図5および図6は、1つのフローチャートを2つの図面に分けて記載したものであり、図5に記載の部分と、図6に記載の部分とは続いている。
ステップS201において、壁面情報推定部26は、レーダ6からレーダ情報を取得し、処理がステップS202へ進む。
ステップS202において、壁面情報推定部26は、ステップS201で取得したレーダ情報から壁面情報を生成し、処理がステップS203へ進む。
ステップS203において、壁面情報推定部26は、ステップS202で生成した壁面情報から、第1の対象壁面が存在するか否かを判定する。ステップS203において、第1の対象壁面が存在すると判定された場合には、処理がステップS204へ進み、第1の対象壁面が存在しないと判定された場合には、処理がステップS205へ進む。
ステップS204において、壁面情報推定部26は、観察エリアを第1の対象壁面に設定し、処理がステップS206へ進む。
ステップS205において、壁面情報推定部26は、観察エリアを路面に設定し、処理がステップS206へ進む。
ここで、観察エリアが第1の対象壁面に設定される場合の一例について、図7を参照しながら説明し、観察エリアが路面に設定される場合の一例について、図8を参照しながら説明する。図7は、図4の壁面情報推定部26によって、観察エリアが第1の対象壁面に設定されるシーンの一例を示す説明図である。図8は、図4の壁面情報推定部26によって、観察エリアが路面に設定されるシーンの一例を示す説明図である。
図7では、太線部分がレーダ6によって検出された車両周囲の壁面105,107を示し、破線部分がレーダ6によって検出されていない道路端106を示す。自車両101から見たとき、壁面107は、自車両101の進行方向に対向して位置するので、第1の対象壁面に相当し、壁面105は、自車両101の進行方向に沿って位置するので、第2の対象壁面に相当する。
図7に示す状況の場合、壁面情報推定部26は、第1の対象壁面が存在すると判定するので、観察エリアを第1の対象壁面に設定する。この場合、カメラ11は、第1の対象壁面が観察エリアとして映る車両周囲映像を取得する。また、車両接近検出部21は、カメラ11によって取得された車両周囲画像から、先の実施の形態1と同様の方法で、第1の対象壁面の明るさの変化の有無を判定し、その判定結果を用いて、車両に他車両が接近しているか否かを判定する。
図8では、図7に示す状況に対して、壁面107が存在しない状況を示している。図8に示す状況の場合、壁面情報推定部26は、第1の対象壁面が存在しないと判定するので、観察エリアを路面に設定する。この場合、カメラ11は、路面が観察エリアとして映る車両周囲映像を取得する。また、車両接近検出部21は、カメラ11によって取得された車両周囲画像から、先の実施の形態1と同様の方法で、路面の明るさの変化の有無を判定し、その判定結果を用いて、車両に他車両が接近しているか否かを判定する。
図6の説明に戻り、ステップS206〜ステップS214において、車両接近検出装置は、先の図2のステップS101〜ステップS109と同様の処理を実行し、ステップS214において、運転支援が行われれば処理が終了となる。
このように、壁面情報推定部26は、レーダ情報から生成された壁面情報から、第1の対象壁面の存在の有無を判定し、判定結果に従って、観察エリアを第1の対象壁面および路面のいずれかに設定する。また、車両接近検出部21は、カメラ11から入力された車両周囲映像に映る観察エリアの明るさの時系列変化から、車両に他車両が接近しているか否かを判定する。
以上、本実施の形態2によれば、先の実施の形態1の構成に対して、レーダ情報から生成された壁面情報から、第1の対象壁面の存在の有無を判定し、判定結果に従って、観察エリアを第1の対象壁面および路面のいずれかに設定するように構成されている。これにより、車両周囲の第1の対象壁面の有無に応じて観察エリアが変更されるので、観察エリアの明るさの変化をより精度良く判定することができ、その結果、車両接近判定の信頼性をより向上させることが可能となる。
実施の形態3.
本発明の実施の形態3では、先の実施の形態2の構成に対して、他車両からの照射光としてのシンボルマークの存在の有無に応じて車両に他車両が接近しているか否かを判定する車両接近検出装置について説明する。なお、本実施の形態3では、先の実施の形態1と同様である点の説明を省略し、先の実施の形態1、2と異なる点を中心に説明する。
図9は、本発明の実施の形態3における車両接近検出装置の構成を示すブロック図である。図9における車両接近検出装置は、先の図4の構成に対して、車両に搭載されるシンボルマーク照射灯7をさらに備える。
本実施の形態3における車両接近検出装置は、先の実施の形態2で説明した車両接近判定動作に加えて、さらに、シンボルマーク照射動作を行う。
壁面情報推定部26は、生成した壁面情報から、車両の進行方向に沿って位置する第2の対象壁面の存在の有無を判定し、判定結果に従って、シンボルマーク照射灯7の照射エリアを第2の対象壁面および路面のいずれかに設定する。
シンボルマーク照射灯7は、壁面情報推定部26によって設定された照射エリアに特定のシンボルマークを照射することで、その照射エリアにシンボルマークを表示する。シンボルマーク照射灯7は、例えば、シンボルマークを形成するパターンにライトを照射することで、シンボルマークが照射エリアに照射可能なように構成される。
次に、本実施の形態3における車両接近検出装置の一連のシンボルマーク照射動作について、図10を参照しながら説明する。図10は、本発明の実施の形態3における車両接近検出装置の一連のシンボルマーク照射動作を示すフローチャートである。
ステップS301およびステップS302において、車両接近検出装置は、先の図5のステップS201およびステップS202と同様の処理を実行し、処理がステップS303へ進む。
ステップS303において、壁面情報推定部26は、ステップS302で生成した壁面情報から、第2の対象壁面が存在するか否かを判定する。ステップS303において、第2の対象壁面が存在すると判定された場合には、処理がステップS304へ進み、第2の対象壁面が存在しないと判定された場合には、処理がステップS305へ進む。
ステップS304において、壁面情報推定部26は、照射エリアを第2の対象壁面に設定し、処理がステップS306へ進む。
ステップS305において、壁面情報推定部26は、照射エリアを路面に設定し、処理がステップS306へ進む。
ステップS306において、シンボルマーク照射灯7は、壁面情報推定部26によって設定された照射エリアにシンボルマークを照射し、処理が終了となる。
次に、本実施の形態3における車両接近検出装置の一連の車両接近判定動作について、図11および図12を参照しながら説明する。図11および図12は、本発明の実施の形態3における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。なお、図11および図12は、1つのフローチャートを2つの図面に分けて記載したものであり、図11に記載の部分と、図12に記載の部分とは続いている。
ステップS401〜ステップS406において、車両接近検出装置は、先の図5のステップS201〜ステップS206と同様の処理を実行し、処理がステップS407へ進む。
ステップS407において、画像処理部23は、ステップS406で取得した車両周囲映像の解析を行い、処理がステップS408へ進む。
ステップS408において、車両接近判定部25は、ステップS407での画像解析結果を用いて、他車両からのシンボルマークが存在するか否かを判定する。ステップS408において、そのシンボルマークが存在すると判定された場合には、処理がステップS409へ進み、そのシンボルマークが存在しないと判定された場合には、処理がステップS413へ進む。
具体的には、画像処理部23は、画像認識処理を行うことで、カメラ11から入力された車両周囲映像からシンボルマークを検出する。車両接近判定部25は、画像処理部23によるシンボルマークの検出の有無に応じて、他車両からのシンボルマークの存在の有無を判定する。
ここで、観察エリアが第1の対象壁面に設定される場合の一例について、図13を参照しながら説明し、観察エリアが路面に設定される場合の一例について、図14を参照しながら説明する。図13は、図9の壁面情報推定部26によって、観察エリアが第1の対象壁面に設定されるシーンの一例を示す説明図である。図14は、図9の壁面情報推定部26によって、観察エリアが路面に設定されるシーンの一例を示す説明図である。
なお、ここでは、自車両101および他車両102のそれぞれに車両接近検出装置が搭載されているものとする。また、自車両101および他車両102の各車両接近検出装置を区別するために、自車両101に搭載される車両接近検出装置の構成要素の符号に「_A」を付し、他車両102に搭載される車両接近検出装置の構成要素の符号に「_B」を付すこととする。
図13では、自車両101から見たとき、壁面107は、自車両101の進行方向に対向して位置するので、第1の対象壁面に相当し、壁面105は、自車両101の進行方向に沿って位置するので、第2の対象壁面に相当する。一方、他車両102から見たとき、壁面107は、他車両102の進行方向に沿って位置するので、第2の対象壁面に相当する。
図13に示す状況の場合、壁面情報推定部26_Bは、第2の対象壁面が存在すると判定するので、照射エリアを第2の対象壁面に設定する。この場合、シンボルマーク照射灯7_Bは、第2の対象壁面にシンボルマーク108を照射する。
また、壁面情報推定部26_Aは、第1の対象壁面が存在すると判定するので、観察エリアを第1の対象壁面に設定する。この場合、カメラ11_Aは、第1の対象壁面が観察エリアとして映る車両周囲映像を取得する。
一方、図14に示す状況の場合、壁面情報推定部26_Bは、第2の対象壁面が存在しないと判定するので、照射エリアを路面に設定する。この場合、シンボルマーク照射灯7_Bは、路面にシンボルマーク108を照射する。
また、壁面情報推定部26_Aは、第1の対象壁面が存在しないと判定するので、観察エリアを路面に設定する。この場合、カメラ11_Aは、路面が観察エリアとして映る車両周囲映像を取得する。
図12の説明に戻り、ステップS409〜ステップS414において、車両接近検出装置は、先の図6のステップS209〜ステップS214と同様の処理を実行し、ステップS414において、運転支援が行われれば処理が終了となる。
このように、壁面情報推定部26は、レーダ情報から生成された壁面情報から、第1の対象壁面の存在の有無を判定し、判定結果に従って、観察エリアを第1の対象壁面および路面のいずれかに設定する。また、壁面情報推定部26は、レーダ情報から生成された壁面情報から、第2の対象壁面の存在の有無を判定し、判定結果に従って、照射エリアを第2の対象壁面および路面のいずれかに設定する。さらに、車両接近検出部21は、カメラ11から入力された観察エリアが映る車両周囲映像からシンボルマークの存在の有無を判定し、その判定結果に従って、車両に他車両が接近しているか否かを判定する。
以上、本実施の形態3によれば、先の実施の形態2の構成に対して、カメラから入力された車両周囲映像から、他車両からの照射光としてのシンボルマークの存在の有無を判定し、判定結果に従って、車両に他車両が接近しているか否かを判定するように構成されている。これにより、観察エリアの明るさの変化に従って車両接近判定を行う場合と比較して、車両接近判定の信頼性をより向上させることが可能となる。
なお、他車両からの照射光としてのシンボルマークの照射エリアが常に路面に設定されていることを前提とすれば、先の実施の形態1の構成に対して、カメラから入力された車両周囲映像から、シンボルマークの存在の有無を判定し、その判定結果に従って、車両に他車両が接近しているか否かを判定するように構成してもよい。
実施の形態4.
本発明の実施の形態4では、先の実施の形態1〜3の各構成に対して、適切なタイミングで装置を起動制御する車両接近検出装置について説明する。なお、本実施の形態4では、先の実施の形態1〜3と同様である点の説明を省略し、先の実施の形態1〜3と異なる点を中心に説明する。また、本実施の形態4では、先の実施の形態1の構成に対して、適切なタイミングで装置を起動制御するように構成する場合を例示する。
図15は、本発明の実施の形態4における車両接近検出装置の構成を示すブロック図である。図15における車両接近検出装置は、先の図1の構成に対して、車両に搭載される光センサ8、カーナビゲーション装置9および車両CANバス10と、電子制御ユニット2に含まれる起動制御部27とをさらに備える。
起動制御部27は、車両の周囲環境の明るさを検出する光センサ8から、周囲環境の明るさを取得する。また、起動制御部27は、カーナビゲーション装置9から、車両の現在地情報を取得する。さらに、起動制御部27は、車両CANバス10から、車両信号、具体的には、車両のライトの点灯状況を示すライト点灯情報を取得する。
このように、起動制御部27は、車両の周囲環境の明るさ、車両の現在地情報および車両のライト点灯情報を、装置を起動制御するための起動情報として取得する。
次に、本発明の実施の形態4における車両接近検出装置の一連の車両接近判定動作について、図16および図17を参照しながら説明する。図16および図17は、本発明の実施の形態4における車両接近検出装置の一連の車両接近判定動作を示すフローチャートである。なお、図16および図17は、1つのフローチャートを2つの図面に分けて記載したものであり、図16に記載の部分と、図17に記載の部分とは続いている。
ステップS501において、起動制御部27は、光センサ8から周囲環境の明るさを取得し、処理がステップS502へ進む。
ステップS502において、起動制御部27は、ステップS501で取得した周囲環境の明るさから、周囲環境が暗いか否かを判定する。ステップS502において、周囲環境が暗いと判定された場合には、処理がステップS503へ進み、周囲環境が暗くないと判定された場合には、処理がステップS501へ戻る。
具体的には、例えば、起動制御部27は、取得した周囲環境の明るさが設定値未満である場合には、周囲環境が暗いと判定し、その明るさが設定値以上である場合には、周囲環境が暗くないと判定する。なお、光センサ8を用いるのではなく、カメラによって取得した映像から、周囲環境が暗いか否かを判定するように構成してもよい。
ステップS503において、起動制御部27は、カーナビゲーション装置9から現在地情報を取得し、処理がステップS504へ進む。
ステップS504において、起動制御部27は、ステップS503で取得した現在地情報から、車両が見通しの悪い地点を走行しているか否かを判定する。ステップS504において、車両が見通しの悪い地点を走行していると判定された場合には、処理がステップS505へ進み、車両が見通しの悪い地点を走行していないと判定された場合には、処理がステップS501へ戻る。なお、見通しの悪い地点としては、車両が見通しの悪い交差点に差し掛かる前の地点、または車両がカーブに差し掛かる前の地点等が挙げられる。
ステップS505において、起動制御部27は、車両CANバス10から、ライト点灯情報を取得し、処理がステップS506へ進む。
ステップS506において、起動制御部27は、ステップS505で取得したライト点灯情報から車両のライトが点灯しているか否かを判定する。テップS506において、車両のライトが点灯していると判定された場合には、処理がステップS507へ進み、そのライトが点灯していないと判定された場合には、処理がステップS501へ戻る。
このように、起動制御部27は、取得した起動情報に従って、ステップS507以降の処理を実行するか否か、すなわち、装置を起動するか否かを判定する。つまり、周囲環境の明るさ、現在地情報およびライト点灯情報に従って、装置起動を制御することで、必要と考えられる場合のみに装置を動作させることが可能となる。
なお、車両の周囲環境の明るさ、車両の現在地情報および車両のライト点灯情報のすべてを用いて、装置起動を制御する場合を例示したが、これらの情報の少なくとも1つを用いて、装置起動を制御してもよい。
ステップS507〜ステップS515において、車両接近検出装置は、先の図2のステップS101〜ステップS109と同様の処理を実行し、ステップS515において、運転支援が行われれば処理が終了となる。
以上、本実施の形態4によれば、先の実施の形態1〜3の各構成に対して、車両の周囲環境の明るさ、車両の現在地情報および車両のライト点灯情報の少なくとも1つを、起動情報として取得し、その起動情報に従って、装置起動を制御するように構成されている。これにより、適切なタイミングで装置を起動制御することができる。
なお、本実施の形態1〜4について個別に説明してきたが、本実施の形態1〜4のそれぞれで開示した構成例は、任意に組み合わせることが可能である。
1 車両外部情報検出器、11 カメラ、12 マイクロフォン、2 電子制御ユニット、21 車両接近検出部、22 運転支援制御部、23 画像処理部、24 音響処理部、25 車両接近判定部、26 壁面情報推定部、27 起動制御部、3 警告音発生装置、4 警告表示装置、5 ブレーキ、6 レーダ、7 シンボルマーク照射灯、8 光センサ、9 カーナビゲーション装置、10 車両CANバス、101 自車両、102 他車両、103 交差点、104 ヘッドライト光、105 壁面、106 道路端、107 壁面、108 シンボルマーク。
本発明における車両接近検出装置は、車両に搭載された装置であって、他車両からの照射光を観察するための観察エリアが映る車両周囲映像と、車両周囲環境音との少なくとも一方を車両外部情報として検出し、検出した車両外部情報を出力する車両外部情報検出器と、車両外部情報検出器から入力された車両外部情報から、車両に他車両が接近しているか否かを判定する車両接近検出部を有する電子制御ユニットと、を備え、車両周囲の障害物に関する情報をレーダ情報として検出し、検出したレーダ情報を出力するレーダをさらに備え、電子制御ユニットは、レーダから入力されたレーダ情報から、車両周囲の壁面に関する情報を壁面情報として生成し、生成した壁面情報から、車両の進行方向に対向して位置する第1の対象壁面の存在の有無を判定し、判定結果に従って、観察エリアを第1の対象壁面および路面のいずれかに設定する壁面情報推定部をさらに有し、車両外部情報検出器は、壁面情報推定部によって設定された観察エリアが映る車両周囲映像を取得し、取得した車両周囲映像を車両外部情報として出力するカメラを有し、車両接近検出部は、カメラから入力された車両周囲映像に映る観察エリアの明るさの時系列変化から、車両に他車両が接近しているか否かを判定するものである。

Claims (11)

  1. 車両に搭載された装置であって、
    他車両からの照射光を観察するための観察エリアが映る車両周囲映像と、車両周囲環境音との少なくとも一方を車両外部情報として検出し、検出した前記車両外部情報を出力する車両外部情報検出器と、
    前記車両外部情報検出器から入力された前記車両外部情報から、前記車両に前記他車両が接近しているか否かを判定する車両接近検出部を有する電子制御ユニットと、
    を備えた車両接近検出装置。
  2. 前記車両外部情報検出器は、
    路面が前記観察エリアとして映る前記車両周囲映像を取得し、取得した前記車両周囲映像を前記車両外部情報として出力するカメラを有し、
    前記車両接近検出部は、
    前記カメラから入力された前記車両周囲映像に映る前記観察エリアの明るさの時系列変化から、前記車両に前記他車両が接近しているか否かを判定する
    請求項1に記載の車両接近検出装置。
  3. 車両周囲の障害物に関する情報をレーダ情報として検出し、検出した前記レーダ情報を出力するレーダをさらに備え、
    前記電子制御ユニットは、
    前記レーダから入力された前記レーダ情報から、前記車両周囲の壁面に関する情報を壁面情報として生成し、生成した前記壁面情報から、前記車両の進行方向に対向して位置する第1の対象壁面の存在の有無を判定し、判定結果に従って、前記観察エリアを前記第1の対象壁面および路面のいずれかに設定する壁面情報推定部をさらに有し、
    前記車両外部情報検出器は、
    前記壁面情報推定部によって設定された前記観察エリアが映る前記車両周囲映像を取得し、取得した前記車両周囲映像を前記車両外部情報として出力するカメラを有し、
    前記車両接近検出部は、
    前記カメラから入力された前記車両周囲映像に映る前記観察エリアの明るさの時系列変化から、前記車両に前記他車両が接近しているか否かを判定する
    請求項1に記載の車両接近検出装置。
  4. 前記車両外部情報検出器は、
    路面が前記観察エリアとして映る前記車両周囲映像を取得し、取得した前記車両周囲映像を前記車両外部情報として出力するカメラを有し、
    前記車両接近検出部は、
    前記カメラから入力された前記車両周囲映像から、前記他車両からの前記照射光としてのシンボルマークの存在の有無を判定し、判定結果に従って、前記車両に前記他車両が接近しているか否かを判定する
    請求項1に記載の車両接近検出装置。
  5. 車両周囲の障害物に関する情報をレーダ情報として検出し、検出した前記レーダ情報を出力するレーダと、
    シンボルマークを照射エリアに照射するシンボルマーク照射灯と、
    をさらに備え、
    前記電子制御ユニットは、
    前記レーダから入力された前記レーダ情報から、前記車両周囲の壁面に関する情報を壁面情報として生成し、生成した前記壁面情報から、前記車両の進行方向に対向して位置する第1の対象壁面の存在の有無を判定し、判定結果に従って、前記観察エリアを前記第1の対象壁面および路面のいずれかに設定し、生成した前記壁面情報から、前記車両の進行方向に沿って位置する第2の対象壁面の存在の有無を判定し、判定結果に従って、前記照射エリアを前記第2の対象壁面および前記路面のいずれかにさらに設定し、
    前記車両外部情報検出器は、
    前記壁面情報推定部によって設定された前記観察エリアが映る前記車両周囲映像を取得し、取得した前記車両周囲映像を前記車両外部情報として出力するカメラを有し、
    前記シンボルマーク照射灯は、
    前記壁面情報推定部によって設定された前記照射エリアに前記シンボルマークを照射し、
    前記車両接近検出部は、
    前記カメラから入力された前記車両周囲映像から、前記他車両からの前記照射光としての前記シンボルマークの存在の有無を判定し、判定結果に従って、前記車両に前記他車両が接近しているか否かを判定する
    請求項1に記載の車両接近検出装置。
  6. 前記車両外部情報検出器は、
    前記車両周囲環境音を取得し、取得した前記車両周囲環境音を出力するマイクロフォンを有し、
    前記車両接近検出部は、
    前記マイクロフォンから入力された前記車両周囲環境音に含まれている前記他車両のエンジン音の時系列変化から、前記車両に前記他車両が接近しているか否かを判定する
    請求項1から5のいずれか1項に記載の車両接近検出装置。
  7. 前記電子制御ユニットは、
    前記車両の周囲環境の明るさ、前記車両の現在地情報および前記車両のライト点灯情報の少なくとも1つを、起動情報として取得し、取得した前記起動情報に従って、前記装置を起動制御する起動制御部をさらに有する
    請求項1から6のいずれか1項に記載の車両接近検出装置。
  8. 前記電子制御ユニットは、
    前記車両接近検出部によって判定された結果として、前記車両に前記他車両が接近していると判定された場合、前記車両の運転支援を行う運転支援制御部をさらに有する
    請求項1から7のいずれか1項に記載の車両接近検出装置。
  9. 前記運転支援制御部は、
    前記運転支援として、前記車両に前記他車両が接近していることを前記車両の運転者に警告する
    請求項8に記載の車両接近検出装置。
  10. 前記運転支援制御部は、
    前記運転支援として、前記車両の速度を低減させる
    請求項8または9に記載の車両接近検出装置。
  11. 車両に搭載された電子制御ユニットによって実行される方法であって、
    他車両からの照射光を観察するための観察エリアが映る車両周囲映像と、車両周囲環境音との少なくとも一方を車両外部情報として検出し、検出した前記車両外部情報を出力する車両外部情報検出器から、前記車両外部情報を取得するステップと、
    取得した前記車両外部情報から、前記車両に前記他車両が接近しているか否かを判定するステップと、
    を備えた車両接近検出方法。
JP2016018770A 2016-02-03 2016-02-03 車両接近検出装置 Active JP6211113B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016018770A JP6211113B2 (ja) 2016-02-03 2016-02-03 車両接近検出装置
US15/227,078 US9925984B2 (en) 2016-02-03 2016-08-03 Vehicle approach detection device and vehicle approach detection method
DE102016216000.1A DE102016216000B4 (de) 2016-02-03 2016-08-25 Fahrzeugannäherungs-Detektionsvorrichtung und Fahrzeugannäherungs-Detektionsverfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016018770A JP6211113B2 (ja) 2016-02-03 2016-02-03 車両接近検出装置

Publications (2)

Publication Number Publication Date
JP2017138766A true JP2017138766A (ja) 2017-08-10
JP6211113B2 JP6211113B2 (ja) 2017-10-11

Family

ID=59327477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016018770A Active JP6211113B2 (ja) 2016-02-03 2016-02-03 車両接近検出装置

Country Status (3)

Country Link
US (1) US9925984B2 (ja)
JP (1) JP6211113B2 (ja)
DE (1) DE102016216000B4 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066115A (ko) * 2017-12-05 2019-06-13 현대자동차주식회사 차량 및 그 제어방법
JP2019124513A (ja) * 2018-01-15 2019-07-25 パイオニア株式会社 特定装置
WO2019142356A1 (ja) * 2018-01-22 2019-07-25 日産自動車株式会社 車両制御方法及び車両制御装置
JP2020144404A (ja) * 2019-03-04 2020-09-10 トヨタ自動車株式会社 運転支援システム
WO2021090668A1 (ja) * 2019-11-06 2021-05-14 株式会社小糸製作所 車両運転支援システム、路面描画装置および道路
US11954896B2 (en) 2020-08-25 2024-04-09 Suzuki Motor Corporation Driving support device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6708237B2 (ja) * 2018-09-13 2020-06-10 株式会社Jvcケンウッド 映像記録制御装置、映像記録システム、映像記録方法、および映像記録制御プログラム
JP7185872B2 (ja) 2018-10-16 2022-12-08 ナブテスコ株式会社 変位センサ
US11364910B1 (en) * 2021-08-26 2022-06-21 Motional Ad Llc Emergency vehicle detection system and method
DE102022003327A1 (de) * 2022-09-09 2024-03-14 Mercedes-Benz Group AG Verfahren und Vorrichtung zum Betrieb einer Kollisionsvermeidungsvorrichtung eines Fahrzeuges und Fahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102889A (ja) * 2002-09-12 2004-04-02 Honda Motor Co Ltd 車両検出装置
JP2013061777A (ja) * 2011-09-13 2013-04-04 Honda Motor Co Ltd 車両の運転支援装置
WO2013175637A1 (ja) * 2012-05-25 2013-11-28 トヨタ自動車株式会社 接近車両検出装置及び運転支援システム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03119300A (ja) 1989-10-02 1991-05-21 Tokyu Constr Co Ltd 大空間を有する地下構造物の構築方法
JPH03119300U (ja) 1990-03-19 1991-12-09
DE19847688C2 (de) * 1998-10-15 2000-10-26 Hilti Ag Verfahren und Anwendung desselben in einem elektromagnetischen Sensor zur Entdeckung von Fremdkörpern in einem Medium mittels Radar
JP4258385B2 (ja) * 2004-01-14 2009-04-30 株式会社デンソー 路面反射検出装置
JP4940767B2 (ja) * 2006-06-05 2012-05-30 マツダ株式会社 車両周辺情報報知装置
JP2008164302A (ja) * 2006-12-26 2008-07-17 Yamaha Corp 車間距離測定システム
JP4999788B2 (ja) * 2008-06-26 2012-08-15 三菱電機株式会社 移動目標検出装置及びコンピュータプログラム及び移動目標検出方法
JP4770946B2 (ja) * 2009-02-27 2011-09-14 トヨタ自動車株式会社 車載表示システム
JP5272041B2 (ja) * 2011-05-12 2013-08-28 富士重工業株式会社 環境認識装置および環境認識方法
US9412273B2 (en) * 2012-03-14 2016-08-09 Autoconnect Holdings Llc Radar sensing and emergency response vehicle detection
US20150127191A1 (en) * 2013-11-06 2015-05-07 Saswat Misra Vehicular network
US10185997B1 (en) * 2014-05-20 2019-01-22 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US20160217689A1 (en) * 2015-01-26 2016-07-28 Autoliv Asp, Inc. Supplemental automotive safety method and system
US20170213459A1 (en) * 2016-01-22 2017-07-27 Flex Ltd. System and method of identifying a vehicle and determining the location and the velocity of the vehicle by sound

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004102889A (ja) * 2002-09-12 2004-04-02 Honda Motor Co Ltd 車両検出装置
JP2013061777A (ja) * 2011-09-13 2013-04-04 Honda Motor Co Ltd 車両の運転支援装置
WO2013175637A1 (ja) * 2012-05-25 2013-11-28 トヨタ自動車株式会社 接近車両検出装置及び運転支援システム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190066115A (ko) * 2017-12-05 2019-06-13 현대자동차주식회사 차량 및 그 제어방법
KR102450656B1 (ko) * 2017-12-05 2022-10-07 현대자동차주식회사 차량 및 그 제어방법
JP2019124513A (ja) * 2018-01-15 2019-07-25 パイオニア株式会社 特定装置
WO2019142356A1 (ja) * 2018-01-22 2019-07-25 日産自動車株式会社 車両制御方法及び車両制御装置
CN111556835A (zh) * 2018-01-22 2020-08-18 日产自动车株式会社 车辆控制方法及车辆控制装置
JP2020144404A (ja) * 2019-03-04 2020-09-10 トヨタ自動車株式会社 運転支援システム
JP7133155B2 (ja) 2019-03-04 2022-09-08 トヨタ自動車株式会社 運転支援システム
WO2021090668A1 (ja) * 2019-11-06 2021-05-14 株式会社小糸製作所 車両運転支援システム、路面描画装置および道路
US11954896B2 (en) 2020-08-25 2024-04-09 Suzuki Motor Corporation Driving support device

Also Published As

Publication number Publication date
DE102016216000A1 (de) 2017-08-03
US9925984B2 (en) 2018-03-27
JP6211113B2 (ja) 2017-10-11
DE102016216000B4 (de) 2023-04-20
US20170217440A1 (en) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6211113B2 (ja) 車両接近検出装置
JP6500814B2 (ja) 車両用照明装置
JP6346614B2 (ja) 情報表示システム
US9785042B2 (en) Vehicular lighting apparatus
US20150154802A1 (en) Augmented reality lane change assistant system using projection unit
JPWO2019038903A1 (ja) 周囲車両表示方法及び周囲車両表示装置
JP2005173882A (ja) 後側方画像制御装置および方法
JP2013147112A (ja) 車両の走行環境認識装置
JP2008033872A (ja) 車両用視界状況判定装置
JP5125798B2 (ja) 車両の前照灯制御装置
US10744956B2 (en) Vehicular display control device
JP6493422B2 (ja) 走行支援装置
JP6448714B2 (ja) 情報表示システム
WO2016013167A1 (ja) 車両用表示制御装置
JP2012153256A (ja) 画像処理装置
WO2015190052A1 (ja) 前方状況判定装置
JP2006146754A (ja) 先行車検出方法及び先行車検出装置
JP6619725B2 (ja) 走行制御装置及び走行制御方法
JP6330868B2 (ja) 車両制御装置
JP7276255B2 (ja) 画像処理装置、プログラム、及び画像処理システム
JP2020024487A (ja) 画像処理装置及び画像処理方法
JP2020045045A (ja) 照明制御装置
JP2019168960A (ja) 運転支援装置
US20240042927A1 (en) Vehicle notification control device and vehicle notification control method
JP2018136713A (ja) ドライバの視界推定装置及び車両用制御装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170912

R150 Certificate of patent or registration of utility model

Ref document number: 6211113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250