JP2020154502A - 車両における運転支援制御装置、運転支援システムおよび運転支援方法 - Google Patents

車両における運転支援制御装置、運転支援システムおよび運転支援方法 Download PDF

Info

Publication number
JP2020154502A
JP2020154502A JP2019050764A JP2019050764A JP2020154502A JP 2020154502 A JP2020154502 A JP 2020154502A JP 2019050764 A JP2019050764 A JP 2019050764A JP 2019050764 A JP2019050764 A JP 2019050764A JP 2020154502 A JP2020154502 A JP 2020154502A
Authority
JP
Japan
Prior art keywords
driving support
control device
vehicle
obstacle
detection signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019050764A
Other languages
English (en)
Other versions
JP7259437B2 (ja
JP2020154502A5 (ja
Inventor
横山 隆久
Takahisa Yokoyama
横山  隆久
準行 井戸
Toshiyuki Ido
準行 井戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019050764A priority Critical patent/JP7259437B2/ja
Priority to PCT/JP2020/004837 priority patent/WO2020189085A1/ja
Publication of JP2020154502A publication Critical patent/JP2020154502A/ja
Publication of JP2020154502A5 publication Critical patent/JP2020154502A5/ja
Priority to US17/478,728 priority patent/US11919511B2/en
Application granted granted Critical
Publication of JP7259437B2 publication Critical patent/JP7259437B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0953Predicting travel path or likelihood of collision the prediction being responsive to vehicle dynamic parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/12Lateral speed
    • B60W2720/125Lateral acceleration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Image Analysis (AREA)

Abstract

【課題】障害物に部分的に遮蔽され、移動中の部分遮蔽物体に対する衝突の抑制または衝突の防止を図ること。【解決手段】車両500における運転支援制御装置100が提供される。運転支援制御装置100は、障害物に部分的に遮蔽されている部分遮蔽物体の変位を示す情報を第1の検出信号として取得する取得部103と、第1の検出信号を用いて、部分遮蔽物体の移動を判定した場合に、運転支援実行装置31に対して、遮蔽移動物体との衝突を予防するための衝突予防支援を実行させる制御部101、Pr1を備える。【選択図】図2

Description

本開示は車両にける運転支援の技術に関する。
撮像装置およびレーダといった物標検出噐を用いて、車両周囲の対象物を検出する技術において、障害物により形成される死角領域における移動物の存在を判別する技術が提案されている(例えば、引用文献1)。
特開2017−182139号公報
しかしながら、死角領域における移動物体の存在の判別結果を利用して、移動物体を対象とする衝突を回避することについては検討されていない。
したがって、障害物により部分的に遮蔽され、移動中の部分遮蔽物体に対する衝突の抑制または衝突の防止が求められている。
本開示は、以下の態様として実現することが可能である。
第1の態様は、車両における運転支援制御装置を提供する。第1の態様に係る運転支援制御装置は、障害物により部分的に遮蔽されている部分遮蔽物体の変位を示す情報を第1の検出信号として取得する取得部と、前記第1の検出信号を用いて、前記部分遮蔽物体の移動を判定した場合に、運転支援実行装置に対して、前記部分遮蔽物体との衝突を予防するための衝突予防支援を実行させる制御部と、を備える。
第1の態様係る車両における運転支援制御装置によれば、障害物により部分的に遮蔽され、移動中の部分遮蔽物体に対する衝突の抑制または衝突の防止を図ることができる。
第2の態様は、車両における運転支援方法を提供する。第2の態様に係る運転支援方法は、障害物により部分的に遮蔽されている部分遮蔽物体の変位を示す情報を第1の検出信号として取得し、前記第1の検出信号を用いて、前記部分遮蔽物体の移動を判定した場合に、運転支援実行装置に対して、前記部分遮蔽物体との衝突を予防するための衝突予防支援を実行させる、ことを備える。
第2の態様係る車両における運転支援方法によれば、障害物により部分的に遮蔽され、移動中の部分遮蔽物体に対する衝突の抑制または衝突の防止を図ることができる。なお、本開示は、車両における運転支援プログラムまたは当該プログラムを記録するコンピュータ読み取り可能記録媒体としても実現可能である。
第1の実施形態に係る運転支援制御装置が搭載された車両の一例を示す説明図。 第1の実施形態に係る運転支援制御装置の機能的構成を示すブロック図。 第1の実施形態に係る運転支援制御装置によって実行される運転支援処理の処理フローを示すフローチャート。 第1の実施形態に係る運転支援制御装置によって実行される移動物体検出処理の処理フローを示すフローチャート。 第1の実施形態に係る運転支援制御装置によって実行される運転支援処理の処理フローを示すフローチャート。 道路上における、自車両と障害物、および障害物に遮蔽されている移動物体の位置関係を模試的に示す説明図。 検出器による、障害物および障害物に遮蔽されている移動物体の検出結果を模式的に示す説明図。 イベントカメラによる、図7に示す障害物および移動物体の検出結果を模式的に示す説明図。
本開示に係る車両における運転支援制御装置、運転支援システムおよび運転支援方法について、いくつかの実施形態に基づいて以下説明する。
第1の実施形態:
図1に示すように、第1の実施形態に係る車両における運転支援制御装置100は、車両500に搭載されて用いられる。運転支援制御装置100は、少なくとも制御部および取得部を備えていれば良く、運転支援システム10は、運転支援制御装置100に加え、検出器としてのレーダECU21、ミリ波レーダ211、カメラECU22、カメラ221、イベントカメラECU26、イベントカメラ261および運転支援実行装置31を備えている。なお、レーダECU21およびミリ波レーダ211、並びにカメラECU22およびカメラ221は、少なくともいずれか一方が備えられていれば良い。第1の実施形態における車両500は、さらに、回転角センサ23、車輪速度センサ24およびヨーレートセンサ25を備えている。車両500はさらに、車輪501、制動装置502、制動ライン503、ステアリングホイール504、フロントガラス510、フロントバンパ520およびリアバンパ521を備えている。車両500は、内燃機関および電動機の少なくとも一方を車両走行用の駆動力源505として備えている。
レーダECU21は、電波を射出して物標からの反射波を検出するミリ波レーダ211と接続されており、ミリ波レーダ211により取得された反射波を用いて検出点、すなわち、反射点によって物標を表す第2の検出信号を生成し、出力する。カメラECU22は、単眼のカメラ221と接続されており、カメラ221によって取得された撮像画像から物標形状を特定し、予め用意されている対象物の形状パターンを用いたパターンマッチング処理によって判定した対象物の種別を示す第2の検出信号を生成し、出力する。物標形状の特定は、例えば、機械学習を用いたセマンティック・セグメンテーションなどによって実行される。撮像画像の各フレームに含まれる画素には、例えば、画素値情報(R、G,B)、位置情報としての座標情報が関連付けられている。レーダECU21およびミリ波レーダ211、並びにカメラECU22およびカメラ221は、自車両の周囲における対象物の情報を取得し、第2の検出信号として出力する第2の検出器に該当する。
イベントカメラECU26は、物体の変位に伴う物体の輝度値の変化を数μs単位で取得可能なイベントカメラ261と接続されており、物体の変位に応じた輝度値の変化が予め定められたしきい値以上の変化画素の情報を生成し、第1の検出信号として出力する。イベントカメラECU26およびイベントカメラ261は、物体の変位に応じて値が変化した変化画素の情報を取得し、第1の検出信号として出力する第1の検出器に相当する。
各ECU21、22、26は、演算部、記憶部および入出力部を備えるマイクロプロセッサである。なお、レーダECU21およびミリ波レーダ211は検出波を射出して反射波および反射点を検出して、一般的に自車両と物標との間の距離を測距するための検出器に相当し、車両500に対する物標の距離、相対速度および角度を検出する。この検出器としては、ミリ波レーダ211の他に、ライダー(LIDAR:レーザレーダ)や、音波を射出しその反射波を検出する超音波検出器が用いられても良い。カメラECU22およびカメラ221は、物標の形状を3次元的に認識可能な検出器であり撮像装置が該当する、撮像装置としては、カメラ221の他に、3Dライダーが用いられても良い。カメラ221は、2以上のカメラによって構成されるステレオカメラやマルチカメラであっても良い。イベントカメラ261としては、フレーム群からなる検出信号を出力しないイメージセンサの他に、静止物体と移動物体とを識別可能、すなわち、障害物により部分的に遮られている部分遮蔽物体の変位を識別可能な高フレームレート、例えば、1000fpsでのフレーム群からなる検出信号を出力可能な撮像装置が用いられても良い。
車両500には、車両500の制動を実現するための制動装置502、車両500の操舵を実現するためのステアリングホイール504が備えられている。制動装置502は、各車輪501に備えられている。各制動装置502は、例えば、ディスクブレーキ、ドラムブレーキであり、運転者の制動ペダル操作に応じて制動ライン503を介して供給されるブレーキ液圧に応じた制動力で各車輪501を制動し、車両500の制動を実現する。制動ライン503には制動ペダル操作に応じたブレーキ液圧を発生させるブレーキピストンおよびブレーキ液ラインが含まれる。なお、制動ライン503としては、ブレーキ液ラインに代えて、制御信号線とし、各制動装置502に備えられているアクチュエータを作動させる構成が採用されても良い。ステアリングホイール504は、ステアリングロッド、操舵機構および転舵軸44を含む操舵装置42を介して前側の車輪501と接続されている。
図2に示すように、運転支援制御装置100は、制御部としての中央処理装置(CPU)101およびメモリ102、取得部としての入出力インタフェース103、並びにバス104を備えている。CPU101、メモリ102および入出力インタフェース103はバス104を介して双方向通信可能に接続されている。メモリ102は、自車両の運転支援を実行するための運転支援プログラムPr1、イベントカメラ261の検出結果を用いて移動物体を検出するための移動物体検出プログラムPr2、を不揮発的且つ読み出し専用に格納するメモリ、例えばROMと、CPU101による読み書きが可能であって衝突可能性フラグ格納領域102aを有するメモリ、例えばRAMとを含んでいる。CPU101はメモリ102に格納されている運転支援プログラムPr1および移動物体検出プログラムPr2を読み書き可能なメモリに展開して実行することによって制御部としての機能を実現する。なお、CPU101は、単体のCPUであっても良く、各プログラムを実行する複数のCPUであっても良く、あるいは、複数のプログラムを同時実行可能なマルチコアタイプのCPUであっても良い。
入出力インタフェース103には、レーダECU21、カメラECU22、イベントカメラECU26、回転角センサ23、車輪速度センサ24およびヨーレートセンサ25、並びに運転支援実行装置31がそれぞれ制御信号線を介して接続されている。レーダECU21、カメラECU22、イベントカメラECU26、回転角センサ23、車輪速度センサ24、ヨーレートセンサ25からは、検出信号が入力され、運転支援実行装置31には、要求トルクに応じた駆動力を指示する制御信号、制動レベルを指示する制御信号、操舵角を指示する制御信号が出力される。したがって、入出力インタフェース103は、第1の検出信号および第2の検出信号を含む、各種センサによって検出された検出信号を取得するための取得部として機能する。
ミリ波レーダ211はミリ波を射出し、物標によって反射された反射波を受信するセンサである。本実施形態において、ミリ波レーダ211は、フロントバンパ520およびリアバンパ521に配置されている。ミリ波レーダ211から出力される未処理の検出信号は、レーダECU21において処理され、物標の1または複数の代表位置を示す検出点または検出点列からなる検出信号として運転支援制御装置100に入力される。あるいは、レーダECU21を備えることなく未処理の受信波を示す信号が検出信号としてミリ波レーダ211から運転支援制御装置100に入力されても良い。未処理の受信波が検出信号として用いられる場合には、運転支援制御装置100において物標の位置および距離を特定するための信号処理が実行される。
カメラ221は、CCD等の撮像素子または撮像素子アレイを1つ備える撮像装置であり、可視光を受光することによって対象物の外形情報または形状情報を検出結果である画像データとして出力するセンサである。カメラ221によって撮像された画像データに対しては、カメラECU22によって上述の処理が施され、対象物の種別を示す第2の検出信号が生成される。カメラ221によって撮像された未処理の画像データが第2の検出信号として運転支援制御装置100に入力されても良い。この場合には、運転支援制御装置100において物標のセグメンテーション処理および種別の判別処理が実行される。本実施形態において、カメラ221はフロントガラス510の上部中央に配置されている。カメラ221から出力される画素データは、モノクロの画素データであっても良い。この場合には、セグメンテーションに際して輝度値が用いられる。
イベントカメラ261は、単一の撮像素子によって構成される複数の画素を有し、物体の変位に伴い生じる物体の輝度値の変化というイベントを数μs単位で検出可能なイベント検出型の撮像装置である。イベントカメラ261は、物体における輝度値が変化した位置に対応する変化画素の情報、例えば、受光強度、画素座標を検出結果として出力し、複数の画素全てを走査して得られるフレーム単位の検出結果を出力しない。したがって、イベントカメラ261の検出結果を用いることにより、撮像画角内における静止物体と移動物体とを判別、すなわち、変位を伴う移動物体を抽出することが可能となり、障害物により部分的に遮蔽されている部分遮蔽物体の変位を検出することが可能となる。本実施形態においては、イベントカメラECU26によって、検出した輝度値の変化が予め定められたしきい値以上の変化画素に関する位置座標および輝度値を含む情報、すなわち、障害物により一部が遮蔽されている部分遮蔽物体の変位を示す情報が生成され、第1の検出信号として出力される。イベントカメラ261は、物体の変位に応じて値が変化した変化画素の情報を出力できれば良く、フレーム群からなる検出信号を出力しないイメージセンサの他に、静止物体と移動物体とを識別可能、すなわち、障害物により部分的に遮られている部分遮蔽物体の変位を識別可能な高フレームレート、例えば、1000fpsでのフレーム群からなる検出信号を出力可能な撮像装置が用いられても良い。
回転角センサ23は、ステアリングホイール504の操舵によりステアリンロッドに生じるねじれ量、すなわち、操舵トルク、を、ねじれ量に比例する電圧値として検出するトルクセンサであり、ステアリングホイール504の操舵角を検出する。本実施形態において、回転角センサ23は、ステアリングホイール504と操舵機構とを接続するステアリングロッドに備えられている。
車輪速度センサ24は、車輪501の回転速度を検出するセンサであり、各車輪501に備えられている。車輪速度センサ24から出力される検出信号は、車輪速度に比例する電圧値または車輪速度に応じた間隔を示すパルス波である。車輪速度センサ24からの検出信号を用いることによって、車両速度、車両の走行距離等の情報を得ることができる。
ヨーレートセンサ25は、車両500の回転角速度を検出するセンサである。ヨーレートセンサ25は、例えば、車両の中央部に配置されている。ヨーレートセンサ25から出力される検出信号は、回転方向と角速度に比例する電圧値である。
運転支援実行装置31は、運転者によるアクセルペダル操作に応じて、または、運転者によるアクセルペダル操作とは無関係に駆動力源505の出力の増減を制御し、運転者による制動ペダル操作とは無関係に制動装置502による制動を実現し、あるいは、運転者によるステアリングホイール504の操作とは無関係に操舵装置42による操舵を実現する。
第1の実施形態に係る運転支援制御装置100により実行される運転支援処理について説明する。図3および図5に示す処理ルーチンは、例えば、車両の制御システムの始動時から停止時まで、または、スタートスイッチがオンされてからスタートスイッチがオフされるまで、所定の時間間隔、例えば数msにて繰り返して実行される。CPU101が運転支援プログラムPr1を実行することによって図3および図5に示す運転支援処理が実行される。なお、図3に示す運転支援処理は、運転支援処理の要否を判定し、実行されるべき運転支援処理を設定する第1の運転支援処理、図5に示す運転支援処理は、設定された運転支援処理に応じた運転支援を実行する第2の運転支援処理ということができる。
CPU101は、入出力インタフェース103を介して周囲情報、すなわち、第2の検出信号を取得する(ステップS100)。周囲情報は、例えば、カメラ221によって撮像された撮像画像から抽出された自車両の周囲の対象物の種別の情報、ミリ波レーダ211によって検出された対象物の距離や相対速度の情報を含む。CPU101は、取得した周囲情報を用いて自車両の予定軌道および予定軌道の近傍に障害物が検出されるか否か、すなわち、障害物が存在するか否かを判定する(ステップS102)。CPU101は、例えば、ミリ波レーダ211の反射点が自車両の予定軌道および予定軌道の近傍に存在する場合には障害物が存在すると判定し、カメラ221の撮像画像に障害物に相当する物標が検出されたには障害物が存在すると判定する。同時に、CPU101は、自車両と障害物との距離、相対速度、並びに障害物の位置を取得する。障害物の一例には、街路設置物、例えば、図6および図7に示す路側RSに植えられている街路樹OBや、看板、標識、工事用フェンス、駐車車両、ガラス等の透過部位を有する建築物が含まれる。本実施形態の運転支援処理は、障害物の背後に位置し、障害物によって車両からの認識が部分的に遮蔽されている移動物体の存在を確認可能な障害物を適当な対象としている。図6に示す状況を自車両M0から第2の検出器、例えば、カメラ221により撮像すると図7に模式的に示す撮像結果が得られる。図7の例では、移動物体としての歩行者PDが障害物OBとしての樹木の後方、すなわち、樹木に遮られた状態で移動している。歩行者PDは、障害物OBに遮蔽されている第1の位置Po1から、非遮蔽物体として障害物OBから大部分が露出した第2の位置Po2を経て、非遮蔽物体として障害物OBから全体が出現する第3の位置Po3まで経時的に移動する。第2の検出器が検出可能な対象物は、障害物OBによって遮蔽されていない非遮蔽物体であり、少なくとも一部が障害物OBから露出された、第2の位置Po2または第3の位置Po3における歩行者PDである。
CPU101は、障害物が検出されると(ステップS102:Yes)、障害物によって部分的に遮蔽された部分遮蔽物体の移動を検出したか否かを判定する(ステップS104)。CPU101は、後述するイベントカメラ261による検出結果を用いた移動物体検出処理を運転支援処理と平行して実行しており、移動体物体出処理によって得られる移動物体情報と、本処理ルーチンにおいて検出した障害物情報とを用いて部分遮蔽物体の移動の有無を検出する。具体的には、障害物の検出結果と移動物体の検出結果とをフュージョン処理によって融合し、障害物の検出位置と移動物体の検出位置とが重複するか否かによって部分遮蔽物体の移動の有無が判定される。フュージョン処理は、車両のローカル座標系によって実行されても良く、あるいは、より正確性を向上させるために走行環境、例えば、道路のグローバル座標系に障害物の位置座標と移動物体の位置座標とを座標変換して実行されても良い。CPU101は、障害物が検出されないと(ステップS102:No)、ステップS120に移行する。障害物が検出されない場合、運転支援の対象となる対象物は、ミリ波レーダ211またはカメラ221によって認識可能であり、障害物により遮蔽された状態で移動する遮蔽移動体の判別を実行することなく適切な運転支援を実行可能だからである。
CPU101は、図7における第1の位置Po1または第2の位置Po2に歩行者PDが位置する場合には、障害物の検出位置に移動物体の検出位置が重なるので、障害物によって部分的に遮蔽され、移動している部分遮蔽物体の有無を検出し(ステップS104:Yes)、衝突回避対象に対する自車両M0の衝突余裕時間TTC(Time To Collision)を算出する(ステップS106)。移動中の部分遮蔽物体、すなわち、遮蔽移動物体には、道路上に出現する可能性が有る移動物体、例えば、人、自転車、車両が含まれる。TTCは公知の演算式であるTTC=作動対象と自車両間距離/(作動対象速度−自車両速度)により算出される。作動対象は、障害物OBまたは遮蔽移動物体PDであり、遮蔽移動物体PDと自車両間の距離は、例えば、衝突回避支援を実行すべき対象物標の外形輪郭の30%未満が形成され得るような移動物体情報に含まれる変化画素の情報量が少ない場合には、自車両かM0ら障害物OBまでの距離を基準として、得られた移動物体情報に含まれる移動物体の位置座標を用いて算出されても良く、あるいは、対象物標の外形輪郭の70%以上が形成され得るような移動物体情報に含まれる変化画素の情報量が多い場合には、移動物体の位置座標を用いて算出されても良い。CPU101は、障害物OBの検出位置に移動物体の検出位置が重複しない場合には遮蔽移動物体PDを検出しないと判定し(ステップS104:No)、障害物OBを作動対象とするTTCを算出し(ステップS107)、ステップS112に移行する。すなわち、遮蔽移動物体PDを作動対象としない、自車両M0から認識可能な障害物OBに対する通常の運転支援処理が実行される。なお、通常の運転支援処理が別の処理フローによって実行される場合には、ステップS107が実行されることなく、ステップS120に移行されても良い。
CPU101は、TTCが第1の判定TTC1未満であるか否か、すなわち、TTC<TTC1であるか否かを判定する(ステップS108)。第1の判定TTC1は、障害物OBの位置における衝突回避の可能性を向上、すなわち、障害物OBの死角から出現する可能性のある遮蔽移動物体PDとの衝突を予防する衝突予防支援の実行開始を判断するための判定時間であり、例えば、3秒である。衝突回避の可能性の向上、すなわち、衝突の予防は、後述するように、例えば、制動支援による制動ライン503への予備的な与圧付与や軽制動、運転者への注意を促す報知、障害物から離間する走行レーンへの予備的な走行レーンの変更を促す操舵支援およびアクセルの踏み込み操作を無効または規制する予備的な加速制限を任意に組み合わせることによって実現される。CPU101は、TTC<TTC1であると判定すると(ステップS108:Yes)、第1衝突可能性フラグFpをオン、すなわち、Fp=1に設定し、メモリ102の衝突可能性フラグ格納領域102aに格納する(ステップS110)。第1衝突可能性フラグFpは、遮蔽移動物体PDとの衝突可能性があることが判定されたことを示すフラグである。CPU101は、TTC<TTC1でないと判定すると(ステップS108:No)、ステップS120に移行する。
CPU101は、TTCが第2の判定TTC2未満であるか否か、すなわち、TTC<TTC2であるか否かを判定する(ステップS112)。第2の判定TTC2は、第1の判定TTC1より小さく、障害物OBの位置における衝突回避を実現するため、すなわち、障害物OBの死角から出現する可能性のある遮蔽移動物体PDとの衝突回避を実現する衝突回避支援の実行開始を判断するための判定時間であり、例えば、0.6秒である。衝突回避支援による支援レベルは衝突予防支援による衝突予防の支援レベルよりも高い、すなわち、支援の度合いが強い。衝突回避支援による衝突回避の実現は、例えば、制動支援による衝突交点CPにおける自車両M0の停止または極微速度への制動、操舵支援による衝突交点CPにおける障害物OBから離間する方向への予定軌道変更、およびアクセル操作を無効とする加速制限を任意に組み合わせることによって実現される。CPU101は、TTC<TTC2であると判定すると(ステップS112:Yes)、第2の検出信号を用いて、障害物OBの近傍領域A1を対象領域として形状識別処理、すなわち、パターンマッチング処理を実行する(ステップS114)。障害物OBの死角から出現する可能性のある遮蔽移動物体PDの種別の判別精度を向上させるために、障害物OBの近傍領域A1を重点的な対象領域と位置づけ、対象物の形状識別処理が実行されることが望ましい。CPU101は、形状識別処理の結果、衝突回避対象物が検出されたと判定すると(ステップS116:Yes)、第2衝突可能性フラグFeをオン、すなわち、Fe=1に設定し、メモリ102の衝突可能性フラグ格納領域102aに格納して(ステップS118)、本処理ルーチンを終了する。第2の検出信号を用いて検出可能な衝突回避対象物は、障害物OBによって遮蔽されていない非遮蔽物体であり、例えば、図7において、全体が非遮蔽物体となる第3の位置Po3または一部が非遮蔽物体となる第2の位置Po2に移動した遮蔽移動物体PDである。すなわち、障害物OBから自車両M0の予定軌道上または予定軌道の近傍に出現し非遮蔽物体となった遮蔽移動物体PDの少なくとも一部である。また、第2の検出信号を用いて検出可能な衝突回避対象物には、遮蔽移動物体PDの他に、認識されている他車両であったり、看板等の路側設置物であったりする障害物OB自体も含まれ得る。第2衝突可能性フラグFeは、衝突回避対象物が検出され、衝突回避対象物との衝突回避の実行が判定されたことを示すフラグである。CPU101は、TTC<TTC2でないと判定すると(ステップS116:No)、ステップS120に移行する。なお、ステップS104において、遮蔽移動物体PDが存在すると判定された場合には、第2の検出信号を用いた対象物の検出処理、すなわち、ステップS112〜ステップS118までの実行頻度が高められても良い。この場合には、衝突回避対象物と車両との衝突回避の実効性および可能性を更に向上させることができる。なお、第2の検出信号に代えて、または、第2の検出信号と共に、第1の検出信号を用いて衝突回避対象物の判定が実行されても良い。第1の検出信号が用いられる場合には、遮蔽移動物体PDの一部のみが出現している場合であっても、第1の検出信号により得られる遮蔽移動物体PDの移動情報を用いることにより衝突回避対象物の判定が可能となり、より早いタイミングにて衝突回避対象物の判定が可能となる。
CPU101は、ステップ120において、第1衝突可能性フラグFpおよび第2衝突可能性フラグFeをオフ、すなわち、Fp=0、Fe=0として、本処理ルーチンを終了する。ステップS120への移行は、遮蔽移動物体が存在しない、遮蔽移動物体との衝突予防の実行は不要である、遮蔽移動物体との衝突回避の実行は不要である、遮蔽移動物体は衝突可否の対象物体でないと判定された結果、実行されるからである。なお、遮蔽移動物体が衝突回避対象物体でないとは、例えば、風船、鳥等の飛来物が遮蔽移動物体として検出された場合である。
第1の実施形態に係る運転支援制御装置100により実行される移動物体検出処理について説明する。図4に示す処理ルーチンは、例えば、車両の制御システムの始動時から停止時まで、または、スタートスイッチがオンされてからスタートスイッチがオフされるまで、所定の時間間隔、例えば数μsにて繰り返して実行される。CPU101が移動物体検出プログラムPr2を実行することによって図4に示す移動物体検出処理が実行される。すなわち、図3に示す運転支援処理と図4に示す移動物体検出処理は、並行して実行され、移動物体検出処理における移動物体の検出結果が運転支援処理において利用される。
CPU101は、イベントカメラ検出信号を取得する(ステップS200)。具体的には、CPU101は、イベントカメラECU26から出力される第1の検出信号を経時的に受信しており、イベントカメラ261によって検出された輝度値が変化した一または複数の変化画素の情報を取得する。人や自転車、あるいは車両といった物体が変位中、すなわち、移動中である場合には、物体の外形を示す複数の変化画素群の情報が第1の検出信号に含まれている。CPU101は、取得した変化画素の情報に対してエゴモーション除去処理を実行する(ステップS202)。エゴモーションは、計測系自体の3次元空間挙動を意味し、車両に搭載されているイベントカメラ261の場合、車両の挙動を意味する。エゴモーションは、例えば、車輪速度センサ24によって取得される車速、ヨーレートセンサ25によって取得されるヨーレートを用いて自車両の垂直方向および水平方向の動きを求めることによって得られる。エゴモーション処理は、検出された変化画素のうち、自車両の挙動に起因して輝度値が変化した物体の相対的な変位を示す変化画素を除去することで、物体自身の変位を抽出するための処理である。
CPU101は、エゴモーション除去処理が施された変化画素の情報を用いてクラスタリング処理を実行する(ステップS204)。クラスタリング処理は、複数の変化画素から一のオブジェクト、すなわち、クラスタを抽出する処理であり、一のオブジェクトを形成する変化画素群を関連付ける処理である。本実施形態におけるクラスタリング処理は、例えば、経時的に同一方向に移動する変化画素を一のオブジェクトを形成する変化画素群として関連付けることによって実行される。クラスタリング処理としては、この他に、変位画素の位置座標を用いて画素間距離が予め定められた距離よりも短い変化画素を同一のオブジェクトを示す画素群として関連付けることによって、あるいは、変位画素の輝度値を用いて輝度値が近似する変位画素を同一のオブジェクトを示す画素群として関連付けることによって実行されても良い。クラスタリング処理によって、例えば、図8に模式的に示す変化画素群によって形成される人オブジェクトPDgが得られ、判別のモデルとなるモデルパターンとのマッチングがなされても良い。第1の位置Po1では、障害物OBである樹木によって人の多くの部分が隠れているため、変化画素群を構成する変化画素数は少なく、第2の位置Po2では、障害物OBである樹木によって人のほとんどの部分が隠れていないため、変化画素群を構成する変化画素数は多くなり、オブジェクトが人であることを容易に判別可能となる。クラスタリング処理においては、(1)障害物が車両である場合には、車両の下方から見える足、ガラス越しの体、車両の天井から飛び出た頭部がクラスタリングによってオブジェクト対象として形成され、(2)障害物が壁、塀やフェンスの場合には、壁や塀の上方から飛び出た頭部、壁や塀の穴あき部分やフェンスの隙間から見える体がクラスタリングによってオブジェクト対象として形成され得る。
CPU101は、抽出されたオブジェクトが自車両M0に向かって移動している移動物体であるか否かを判定する(ステップS206)。具体的には、抽出されたオブジェクトを形成する変化画素群の位置座標の経時的な変化を用いて、自車両M0または自車両M0の予定軌道と交差する方向に近接しているか、さらには、接近しているか否かが判定される。CPU101は、抽出されたオブジェクトが自車両M0に向かって移動していると判定すると(ステップS206:Yes)、抽出されたオブジェクトのサイズが予め定められたサイズXよりも大きいか否かを判定する(ステップS208)。サイズは、例えば、オブジェクトの縦横といった二次元向寸法、面積、最大寸法であり、予め定められたサイズXは、人、自転車といった衝突回避対象物の大きさを示すサイズである。CPU101は、さらに、前回のクラスタリングにより得られたオブジェクト、すなわち、各変化画素の位置座標の移動予測座標を算出し、移動予測により得られた位置座標を用いて再度クラスタリングを実行しオブジェクトを再形成しても良い。この場合には、オブジェクトのサイズをより適切に推測することができる。CPU101は、抽出されたオブジェクトのサイズが予め定められたサイズXよりも大きいと判定すると(ステップS208:Yes)、遮蔽移動物体が検出されたことを示す移動物体情報を出力して(ステップS210)、本処理ルーチンを終了する。移動物体情報は、既述のように、図3に示す運転支援処理において用いられる。CPU101は、抽出されたオブジェクトが自車両M0に向かって移動していない(ステップS206:No)、抽出されたオブジェクトのサイズが予め定められたサイズXよりも大きくない(ステップS208:No)と判定すると、本処理ルーチンを終了する。
運転支援処理の実行について図5を用いて説明する。CPU101は、衝突可能性フラグ格納領域102aから各衝突可能性フラグFを取得する(ステップS300)。CPU101は、第1衝突可能性フラグFp=1であるか否かを判定し(ステップS302)、第1衝突可能性フラグFp=1である場合には(ステップS302:Yes)、第2衝突可能性フラグFe=1であるか否かを判定する(ステップS304)。CPU101は、第1衝突可能性フラグFp=1でない場合には(ステップS302:No)、本処理ルーチンを終了する。図3に示すように遮蔽移動物体を対象とする運転支援処理においては、第1衝突可能性フラグFpがオン、すなわち、Fp=1とされた後に第2衝突可能性フラグFeがオンされるので、第1衝突可能性フラグFpがオフ、すなわち、Fp=0の場合には、遮蔽移動物体を対象とする運転支援処理ではなく、遮蔽移動物体を除く認識可能な物体を対象とする通常の運転支援処理が実行され得る。
CPU101は、第2衝突可能性フラグFe=1でない場合には(ステップS304:No)、運転支援実行装置31に対して、衝突を予防するための支援としての衝突予防支援を実行させ(ステップS306)、本処理ルーチンを終了する。衝突予防支援は、衝突を予防するために予備的な運転支援であり、例えば、制動支援による制動ライン503への与圧付与、運転者に対する障害物OBからの飛び出し可能性の報知、運転者への注意を促す軽い制動、障害物から離間する走行レーンへの走行レーンの変更を促す操舵支援およびアクセルの踏み込み操作を無効または規制する加速制限、障害物OBの近傍領域A1を対象領域とする形状識別処理を任意に組み合わせることによって実現される。報知は、音声または計器盤やヘッドアップディスプレイ等における表示を介した運転者への通知を含む。これら衝突予防支援が実行されることにより、遮蔽移動物体との衝突交点CPに自車両M0が到達する前に、自車両M0の速度を低減させ、あるいは、衝突交点CPから離間する位置、すなわち、車線に移動させておくことが可能となり、衝突回避支援の実行時に、衝突交点CPにおける自車両M0の停止、衝突交点CPからの離間の可能性を向上させて、遮蔽移動物体との衝突を防止または抑制することができる。
CPU101は、第2衝突可能性フラグFe=1である場合には(ステップS304:Yes)、運転支援実行装置31に対して、通常の運転支援と同様の衝突回避支援を実行させ(ステップS308)、本処理ルーチンを終了する。衝突回避支援は、衝突予防支援の実行後に実行されることが理想的であり、例えば、制動支援による衝突交点CPにおける自車両M0の停止または極微速度への制動、操舵支援による衝突交点CPにおける障害物OBから離間する方向への予定軌道変更、およびアクセル操作を無効とする加速制限を任意に組み合わせることによって実現される。なお、第1の実施形態においては、理解を容易にするために、遮蔽移動物体に対する衝突予防支援を決定する図3に示す処理フローと、決定された運転支援種別に応じて運転支援処理を実行する図5に示す処理フローとを別々の処理ルーチンとして説明したが、図3および図5に示す処理フローは1つの運転支援処理の処理ルーチンとして実行されてもよいことは言うまでもない。この場合、図3のステップS110およびステップS118は、それぞれ図5のステップS306およびステップS308に置換される。
以上説明した第1の実施形態に係る運転支援制御装置100によれば、障害物OBに遮蔽され移動する遮蔽移動物体PDの存在を判定し、遮蔽移動物体PDが存在する場合には予防的な衝突予防支援が実行される。したがって、障害物OBに遮蔽され、移動中の遮蔽移動物体PDに対する衝突の抑制または衝突の防止を図ることができる。すなわち、遮蔽移動物体PDの存在を予測し、自車両M0が遮蔽移動物体PDとの衝突交点CPに至る前に、自車両M0の車速は低減され、自車両M0の走行位置は衝突交点CPから離間され得るので、あるいは、運転者に対して遮蔽移動物体PDの存在が報知される。この結果、遮蔽移動物体PDに対する衝突回避動作が更なる運転支援または運転者自身のいずれによって実行されるかを問わず、自車両M0と、障害物OBから自車両M0の予定軌道上に出現する可能性の有る遮蔽移動物体PDとの衝突を回避または衝突による被害を軽減することができる。
第1の実施形態に係る運転支援制御装置100によれば、さらに、遮蔽移動物体PDが障害物OBから自車両M0の予定軌道上に出現し、遮蔽移動物体PDとの衝突の可能性が高い場合には、本運転支援としての衝突回避支援が実行される。したがって、障害物OBに遮蔽され、移動中の遮蔽移動物体PDに対する更なる衝突の抑制または衝突の防止を図ることができる。衝突回避支援とは、衝突交点CPにおける、緊急制動の実行を含む制動支援による自車両M0の停止、緊急操舵回避の実行を含む操舵支援による自車両M0の衝突交点CPからの離間を含む運転支援である。
なお、第1の実施形態に係る運転支援制御装置100は、少なくとも、障害物により部分的に遮蔽されている部分遮蔽物体の変位を示す情報を含む第1の検出信号を用いて、部分遮蔽物体の移動を判定した場合に、運転支援実行装置31に対して、部分遮蔽物体との衝突を予防するための衝突予防支援を実行させれば良く、例えば、図3に示すフローチャートにおけるステップS102、S104およびS110、図4に示すフローチャートにおけるステップS200、S204およびS210並びに図5に示すフローチャートにおけるステップS306が少なくとも実行されれば良い。
他の実施形態:
(1)上記実施形態における遮蔽移動物体の検出に加え、あるいは、代えて、以下の態様による遮蔽移動物体の検出が実行されても良い。
三叉路、四叉路といった交差点や、死角のある道路に配置されている道路設置ミラーを利用して遮蔽移動物体が検出されても良い。例えば、カメラ221によって道路設置ミラーが検出された場合には、道路設置ミラーの鏡面に写る被写体を対象として変化画素の抽出およびクラスタリングを実行することによって、障害物を介して識別できない遮蔽移動物体や、死角に位置する遮蔽移動物体の存在を検出して第1衝突可能性フラグFp=1として、衝突予防支援処理が実行されても良い。なお、道路設置ミラーの鏡面は曲面を有しているので、クラスタリングに際しては曲率補正を行った上で変化画素に対するクラスタリング処理が実行される。道路設置ミラーが用いられる場合には、道路設置ミラーまでの距離、あるいは、道路設置ミラーに最近接の障害物までの距離を用いて衝突余裕時間が算出される。
また、障害物の後方に検出可能な影や照明光を用いて遮蔽移動物体が検出されても良い。例えば、影や車両のヘッドライトを対象とする変化画素の抽出およびクラスタリングを実行することによって、障害物を介して識別できない遮蔽移動物体や、死角に位置する遮蔽移動物体の存在を検出して第1衝突可能性フラグFp=1として、衝突予防支援処理が実行されても良い。影や照明光までの距離、あるいは、影や照明光に最近接の障害物までの距離を用いて衝突余裕時間が算出される。
さらに、障害物の死角から出現する遮蔽移動物体としてボールを検出した場合に、障害物を介して識別できないボールを追う遮蔽移動物体、すなわち、子供や、死角に位置してボールを追う遮蔽移動物体の存在を検出して第1衝突可能性フラグFp=1として、衝突予防支援処理が実行されても良い。ボールまでの距離、あるいは、ボールに最近接の障害物までの距離を用いて衝突余裕時間が算出される。
(2)上記実施形態においては、クラスタリング処理により得られたオブジェクトが衝突回避支援の対象となる遮蔽移動物体のサイズを有しているか否かに基づいて衝突予防支援を実行するか否かが判定されているが、クラスタリング処理により得られたオブジェクトが衝突回避支援の対象となる遮蔽移動物体であるか否かをパターンマッチングにより判別した結果を用いて衝突予防支援処理の実行の有無が判定されても良い。この場合には、オブジェクトが遮蔽移動物体である可能性が高くなるので、衝突予防支援処理の実行精度を向上、すなわち、実行されるべき場合に予防的な運転支援処理を実行させることができる。
(3)上記各実施形態においては、CPU101が運転支援プログラムPr1および移動物体検出プログラムPr2を実行することによって、ソフトウェア的に運転支援処理並びに移動物体検出処理を実行する制御部が実現されているが、予めプログラムされた集積回路またはディスクリート回路によってハードウェア的に実現されても良い。すなわち、上記各実施形態における制御部およびその手法は、コンピュータプログラムにより具体化された一つまたは複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部およびその手法は、一つまたは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
以上、実施形態、変形例に基づき本開示について説明してきたが、上記した発明の実施の形態は、本開示の理解を容易にするためのものであり、本開示を限定するものではない。本開示は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本開示にはその等価物が含まれる。たとえば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10…運転支援システム、211…ミリ波レーダ、221…カメラ、26…イベントカメラECU、261…イベントカメラ、31…運転支援実行装置、100…運転支援制御装置、101…CPU、102…メモリ、103…取得部、500…車両、Pr1…運転支援プログラム、Pr2…移動物体検出プログラム。

Claims (14)

  1. 車両(500)における運転支援制御装置(100)であって、
    障害物により部分的に遮蔽されている部分遮蔽物体の変位を示す情報を第1の検出信号として取得する取得部(103)と、
    前記第1の検出信号を用いて、前記部分遮蔽物体の移動を判定した場合に、運転支援実行装置(31)に対して、前記部分遮蔽物体との衝突を予防するための衝突予防支援を実行させる制御部(101、Pr1)と、を備える運転支援制御装置。
  2. 請求項1に記載の運転支援制御装置において、
    前記第1の検出信号は、複数の画素を有する第1の検出器(26、261)から出力される物体の変位に応じて値が変化した変化画素の情報であり、
    前記制御部は、前記変化画素の情報を用いて前記部分遮蔽物体の移動を判定する、を備える運転支援制御装置。
  3. 請求項2に記載の運転支援制御装置において、
    前記物体の変位に応じた値の変化は、輝度値の変化である、運転支援制御装置。
  4. 請求項2または3に記載の運転支援制御装置において、
    前記制御部は、前記変化画素の情報を用いて前記変化画素に対するクラスタリング処理を実行し、自車両または自車両の予定軌道に近接するクラスタを検出した場合に、前記部分遮蔽物体の移動を判定する、運転支援制御装置。
  5. 請求項2または3に記載の運転支援制御装置において、
    前記制御部は、前記変化画素の情報を用いて前記変化画素に対するクラスタリング処理を実行し、自車両または自車両の予定軌道に接近するクラスタを検出した場合に、前記遮蔽移動物体の存在を判定する、運転支援制御装置。
  6. 請求項1から5のいずれか一項に記載の運転支援制御装置において、
    前記衝突予防支援は、前記車両における予備的な制動支援、前記車両における予備的な操舵支援、自車両の加速制限および前記車両の運転者に対する前記部分遮蔽物体の存在の報知の少なくともいずれか1つを含む、運転支援制御装置。
  7. 請求項1から6のいずれか一項に記載の運転支援制御装置において、
    前記取得部はさらに、自車両の周囲における対象物の情報を第2の検出信号として取得し、
    前記制御部はさらに、前記第2の検出信号を用いて前記障害物の近傍に対象物が検出された場合に、前記衝突予防支援よりも支援レベルの高い衝突回避支援を前記運転支援実行装置に実行させる、運転支援制御装置。
  8. 請求項7に記載の運転支援制御装置において、
    前記第2の検出信号は、前記障害物の死角から出現し非遮蔽物体となった前記部分遮蔽物体の少なくとも一部の検出に応じて出力され、
    制御部はさらに、前記第1の検出信号を用いて、前記対象物を対象とする前記衝突回避支援を前記運転支援実行装置に実行させる、運転支援制御装置。
  9. 請求項7または8に記載の運転支援制御装置において、
    前記衝突回避支援は、前記障害物を作動対象とする制動支援、前記障害物を作動対象とする操舵支援、前記対象物を作動対象とする制動支援、前記対象物を作動対象とする操舵支援、および自車両の加速制限の少なくともいずれか一つを含む、運転支援制御装置。
  10. 請求項7から9のいずれか一項に記載の運転支援制御装置において、
    前記制御部は、前記部分遮蔽物体の移動が判定された前記障害物の近傍領域を対象領域として前記衝突回避支援を実行する、運転支援制御装置。
  11. 請求項7から10のいずれか一項に記載の運転支援制御装置において、
    前記制御部は、前記部分遮蔽物体の移動が判定された場合には、前記第2の検出信号を用いた対象物の検出処理の実行頻度を高くする、運転支援制御装置。
  12. 車両(500)に搭載される運転支援システム(10)であって、
    請求項1から6のいずれか一項に記載の運転支援制御装置(100)と、
    複数の画素を有し、前記第1の検出信号を出力する第1の検出器(26、261)と、
    前記運転支援実行装置(31)と、
    を備える、運転支援システム。
  13. 車両(500)に搭載される運転支援システム(10)であって、
    請求項7から11のいずれか一項に記載の運転支援制御装置(100)と、
    複数の画素を有し、前記第1の検出信号を出力する第1の検出器(26、261)と、
    前記第2の検出信号を出力する第2の検出器(21、211、22、221)と、
    前記運転支援実行装置(31)と、
    を備える、運転支援システム。
  14. 車両(500)における運転支援方法であって、
    障害物により部分的に遮蔽されている部分遮蔽物体の変位を示す情報を第1の検出信号として取得し、
    前記第1の検出信号を用いて、前記部分遮蔽物体の移動を判定した場合に、運転支援実行装置(31)に対して、前記部分遮蔽物体との衝突を予防するための衝突予防支援を実行させる、ことを備える運転支援方法。
JP2019050764A 2019-03-19 2019-03-19 車両における運転支援制御装置、運転支援システムおよび運転支援方法 Active JP7259437B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019050764A JP7259437B2 (ja) 2019-03-19 2019-03-19 車両における運転支援制御装置、運転支援システムおよび運転支援方法
PCT/JP2020/004837 WO2020189085A1 (ja) 2019-03-19 2020-02-07 車両における運転支援制御装置、運転支援システムおよび運転支援方法
US17/478,728 US11919511B2 (en) 2019-03-19 2021-09-17 Driving support control device for vehicle, driving support system, and driving support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019050764A JP7259437B2 (ja) 2019-03-19 2019-03-19 車両における運転支援制御装置、運転支援システムおよび運転支援方法

Publications (3)

Publication Number Publication Date
JP2020154502A true JP2020154502A (ja) 2020-09-24
JP2020154502A5 JP2020154502A5 (ja) 2021-04-15
JP7259437B2 JP7259437B2 (ja) 2023-04-18

Family

ID=72519288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019050764A Active JP7259437B2 (ja) 2019-03-19 2019-03-19 車両における運転支援制御装置、運転支援システムおよび運転支援方法

Country Status (3)

Country Link
US (1) US11919511B2 (ja)
JP (1) JP7259437B2 (ja)
WO (1) WO2020189085A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053355A1 (ja) * 2021-09-30 2023-04-06 株式会社Subaru 運転支援装置及び車両並びにコンピュータプログラムを記録した記録媒体

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7200820B2 (ja) * 2019-05-13 2023-01-10 株式会社デンソー 物標識別装置および運転支援装置
US11511576B2 (en) * 2020-01-24 2022-11-29 Ford Global Technologies, Llc Remote trailer maneuver assist system
DE102020201569A1 (de) * 2020-02-08 2021-08-12 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Bestimmen eines Bewegungszustands zumindest eines Objekts im Umfeld eines Fahrzeugs und Verfahren und Vorrichtung zum Ansteuern eines Fahrzeugsystems eines Fahrzeugs
KR20210124603A (ko) * 2020-04-06 2021-10-15 현대자동차주식회사 차량의 자율 주행 제어 장치, 그를 포함한 시스템 및 그 방법
CN113177980B (zh) * 2021-04-29 2023-12-26 北京百度网讯科技有限公司 用于自动驾驶的目标对象速度确定方法、装置及电子设备
US11541910B1 (en) * 2022-01-07 2023-01-03 Plusai, Inc. Methods and apparatus for navigation of an autonomous vehicle based on a location of the autonomous vehicle relative to shouldered objects
US11840257B2 (en) * 2022-03-25 2023-12-12 Embark Trucks Inc. Lane change determination for vehicle on shoulder
CN115497338B (zh) * 2022-10-17 2024-03-15 中国第一汽车股份有限公司 辅路路口的盲区预警系统、方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162165A (ja) * 2014-02-28 2015-09-07 富士通テン株式会社 物体検出装置、及び、物体検出システム
JP2017142760A (ja) * 2016-02-12 2017-08-17 日立オートモティブシステムズ株式会社 移動体の周囲環境認識装置
JP2017151535A (ja) * 2016-02-22 2017-08-31 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム
JP2018522348A (ja) * 2015-11-02 2018-08-09 三菱電機株式会社 センサーの3次元姿勢を推定する方法及びシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7982774B2 (en) 2004-09-13 2011-07-19 Sony Corporation Image processing apparatus and image processing method
JP4315138B2 (ja) 2004-09-13 2009-08-19 ソニー株式会社 画像処理装置及び画像処理方法
US8854251B2 (en) * 2010-06-16 2014-10-07 Toyota Jidosha Kabushiki Kaisha Object identification device and method
KR20170028126A (ko) * 2015-09-03 2017-03-13 엘지전자 주식회사 차량 운전 보조 장치 및 차량
JP2017182139A (ja) 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
DE102016210056A1 (de) 2016-06-08 2017-12-14 Robert Bosch Gmbh Kameraanordnung zur Bestimmung des optischen Flusses, Fahrassistenzsystem und Überwachungskamera mit der Kameraanordnung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015162165A (ja) * 2014-02-28 2015-09-07 富士通テン株式会社 物体検出装置、及び、物体検出システム
JP2018522348A (ja) * 2015-11-02 2018-08-09 三菱電機株式会社 センサーの3次元姿勢を推定する方法及びシステム
JP2017142760A (ja) * 2016-02-12 2017-08-17 日立オートモティブシステムズ株式会社 移動体の周囲環境認識装置
JP2017151535A (ja) * 2016-02-22 2017-08-31 株式会社リコー 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023053355A1 (ja) * 2021-09-30 2023-04-06 株式会社Subaru 運転支援装置及び車両並びにコンピュータプログラムを記録した記録媒体

Also Published As

Publication number Publication date
US20220017081A1 (en) 2022-01-20
WO2020189085A1 (ja) 2020-09-24
JP7259437B2 (ja) 2023-04-18
US11919511B2 (en) 2024-03-05

Similar Documents

Publication Publication Date Title
WO2020189085A1 (ja) 車両における運転支援制御装置、運転支援システムおよび運転支援方法
US11097724B2 (en) Apparatus and system for controlling travel of vehicle
CN107408345B (zh) 物标存在判定方法以及装置
CN108263279B (zh) 基于传感器整合的行人检测和行人碰撞避免装置及方法
JP6938903B2 (ja) 車両における衝突回避装置および衝突回避方法
JP4161584B2 (ja) 移動体用安全装置
JP6592266B2 (ja) 物体検知装置、及び物体検知方法
JP2019114030A (ja) 衝突判定装置
JP2016192166A (ja) 車両制御装置、及び車両制御方法
Aytekin et al. Increasing driving safety with a multiple vehicle detection and tracking system using ongoing vehicle shadow information
WO2016186124A1 (ja) 車両制御方法及び装置
WO2020204035A1 (ja) 落下物判別装置、運転支援システムおよび落下物判別方法
JP6547785B2 (ja) 物標検出装置
CN113525337B (zh) 驻车位辨识系统及包括该驻车位辨识系统的驻车辅助系统
JP7275623B2 (ja) 運転支援装置
JP2016192167A (ja) 車両制御装置、及び車両制御方法
US20210380083A1 (en) Braking assist control device, braking assist system, and braking assist control method for vehicle
WO2020184287A1 (ja) 車両における制動支援制御装置、制動支援制御システムおよび制動支援制御方法
JP6617696B2 (ja) 車両制御装置、車両制御方法
WO2018021444A1 (ja) 物標検出装置
JP7111634B2 (ja) 車両における対象物検出装置、対象物検出システムおよび対象物検出方法
US20220126819A1 (en) Vehicle control apparatus and control method therefor
JP7243452B2 (ja) 車両における物体検出装置、および車両における物体検出方法
US20230064724A1 (en) Danger notification method, danger notification device, and non-transitory storage medium
JP2005284799A (ja) 歩行者検出装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210303

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230320

R151 Written notification of patent or utility model registration

Ref document number: 7259437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151