JP7192627B2 - 落下物判別装置、運転支援システムおよび落下物判別方法 - Google Patents

落下物判別装置、運転支援システムおよび落下物判別方法 Download PDF

Info

Publication number
JP7192627B2
JP7192627B2 JP2019071687A JP2019071687A JP7192627B2 JP 7192627 B2 JP7192627 B2 JP 7192627B2 JP 2019071687 A JP2019071687 A JP 2019071687A JP 2019071687 A JP2019071687 A JP 2019071687A JP 7192627 B2 JP7192627 B2 JP 7192627B2
Authority
JP
Japan
Prior art keywords
falling
falling object
vehicle
loading platform
driving assistance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019071687A
Other languages
English (en)
Other versions
JP2020170370A (ja
Inventor
隆久 横山
準行 井戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019071687A priority Critical patent/JP7192627B2/ja
Priority to CN202080026392.2A priority patent/CN113661533B/zh
Priority to PCT/JP2020/014835 priority patent/WO2020204035A1/ja
Priority to DE112020001707.9T priority patent/DE112020001707T5/de
Publication of JP2020170370A publication Critical patent/JP2020170370A/ja
Priority to US17/490,430 priority patent/US11834039B2/en
Application granted granted Critical
Publication of JP7192627B2 publication Critical patent/JP7192627B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • G01S13/878Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2400/00Indexing codes relating to detected, measured or calculated conditions or factors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93272Sensor installation details in the back of the vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本開示は、落下物判別装置、運転支援システムおよび落下物判別方法に関する。
運転支援として、例えば、特許文献1に記載されているような、カメラの撮像画像と予め用意したテンプレートとを比較して、路上の歩行者を判別し、衝突を回避する技術が知られている。
特開2008-15770号公報
しかし、自車両の周囲を走行する周囲車両の荷台から落下しそうな物体や、荷台から落下している最中の物体について、検出することが困難であった。また、これらの物体に対してテンプレートを用意するのは困難であり、判別できていなかった。そのため、落下しそうな物体や落下している最中の物体を判別できる技術が望まれていた。
本開示の一形態によれば、車両(500)に搭載される落下物判別装置(100)が提供される。この落下物判別装置は、前記車両の周囲を走行する周囲車両の荷台付近の物体の変位を示す情報を第1の検出信号として取得する取得部(103)と、前記第1の検出信号を用いて、少なくとも前記物体の振動周波数と振幅と大きさとのいずれか一つ以上を算出し、算出結果と、前記物体の少なくとも一部が前記荷台上にあるか否かと、に応じて前記物体が前記荷台から落下する可能性がある落下可能性物体か前記物体が前記荷台から落下している落下中物体であるか判定する制御部(101)と、を備える。
この落下物判別装置によれば、第1の検出信号を用いて荷台付近物体の振動周波数と振幅と大きさとのいずれか一つ以上を算出し、その算出結果に応じて荷台付近物体が落下可能性物体か落下中物体であるか判定する。そのため、落下しそうな物体や落下している最中の物体を判別できる。
落下物判別装置が搭載された車両の一例を示す説明図。 落下物判別装置の機能的構成を示すブロック図。 運転支援処理の一例を示したフローチャート。 荷台付近物体検出処理の一例を示したフローチャート。 落下物判定処理の一例を示したフローチャート。
A.第1実施形態:
図1に示すように、第1の実施形態に係る車両における落下物判別装置100は、車両500に搭載されて用いられる。落下物判別装置100は、少なくとも制御部および取得部を備えていれば良く、運転支援システム10は、落下物判別装置100に加え、検出器としてのレーダECU21、ミリ波レーダ211、カメラECU22、カメラ221、イベントカメラECU26、イベントカメラ261および運転支援実行装置31を備えている。第1の実施形態における車両500は、さらに、回転角センサ23、車輪速度センサ24およびヨーレートセンサ25を備えている。車両500はさらに、車輪501、制動装置502、制動ライン503、ステアリングホイール504、フロントガラス510、フロントバンパ520およびリアバンパ521を備えている。車両500は、内燃機関および電動機の少なくとも一方を車両走行用の駆動力源505として備えている。
レーダECU21は、電波を射出して物標からの反射波を検出するミリ波レーダ211と接続されており、ミリ波レーダ211により取得された反射波を用いて検出点、すなわち、反射点によって物標を表す第2の検出信号を生成し、出力する。カメラECU22は、単眼のカメラ221と接続されており、カメラ221によって取得された撮像画像から車両500の周囲を走行する周囲車両の荷台位置を特定し、予め用意されている対象物の形状パターンを用いたパターンマッチング処理によって判定した周囲車両の荷台付近の物体(以下、「荷台付近物体」という)の有無を示す第2の検出信号を生成し、出力する。「荷台付近物体」とは少なくとも一部が荷台上に存在する物体である。例えば、長尺であり一部が荷台から突出している物体や、一部が荷台から垂れ下がっている物体、上下方向に揺れ動いており荷台から浮いている物体が含まれる。周囲車両は、例えば、車両500の前方を走行する車両500であるが、前方車両に限らず、車両500と併走する車両や、車両500の対向車線であって車両500の後方を走行する車両でもよい。周囲車両の荷台位置の特定は、例えば、機械学習を用いたセマンティック・セグメンテーションなどによって実行される。撮像画像の各フレームに含まれる画素には、例えば、画素値情報(R、G,B)、位置情報としての座標情報が関連付けられている。
イベントカメラECU26は、物体の変位に伴う物体の輝度値の変化を数μs単位で取得可能なイベントカメラ261と接続されており、物体の変位に応じた輝度値の変化が予め定められたしきい値以上の変化画素の情報を生成し、第1の検出信号として出力する。イベントカメラECU26およびイベントカメラ261は、物体の変位に応じて値が変化した変化画素の情報を取得し、第1の検出信号として出力する第1の検出器に相当する。
各ECU21、22、26は、演算部、記憶部および入出力部を備えるマイクロプロセッサである。なお、レーダECU21およびミリ波レーダ211は検出波を射出して反射波および反射点を検出して、一般的に自車両と物標との間の距離を測距するための検出器に相当し、車両500に対する物標の距離、相対速度および角度を検出する。この検出器としては、ミリ波レーダ211の他に、ライダー(LIDAR:レーザレーダ)や、音波を射出しその反射波を検出する超音波検出器が用いられても良い。カメラECU22およびカメラ221は、物標の形状を3次元的に認識可能な検出器であり撮像装置が該当する、撮像装置としては、カメラ221の他に、3Dライダーが用いられても良い。カメラ221は、2以上のカメラによって構成されるステレオカメラやマルチカメラであっても良い。イベントカメラ261としては、フレーム群からなる検出信号を出力しないイメージセンサの他に、荷台付近物体の振動を算出可能な高フレームレート、例えば、1000fpsでのフレーム群からなる検出信号を出力可能な撮像装置が用いられても良い。
車両500には、車両500の制動を実現するための制動装置502、車両500の操舵を実現するためのステアリングホイール504が備えられている。制動装置502は、各車輪501に備えられている。各制動装置502は、例えば、ディスクブレーキ、ドラムブレーキであり、運転者の制動ペダル操作に応じて制動ライン503を介して供給されるブレーキ液圧に応じた制動力で各車輪501を制動し、車両500の制動を実現する。制動ライン503には制動ペダル操作に応じたブレーキ液圧を発生させるブレーキピストンおよびブレーキ液ラインが含まれる。なお、制動ライン503としては、ブレーキ液ラインに代えて、制御信号線とし、各制動装置502に備えられているアクチュエータを作動させる構成が採用されても良い。ステアリングホイール504は、ステアリングロッド、操舵機構および転舵軸44を含む操舵装置42を介して前側の車輪501と接続されている。
図2に示すように、落下物判別装置100は、制御部としての中央処理装置(CPU)101およびメモリ102、取得部としての入出力インタフェース103、並びにバス104を備えている。CPU101、メモリ102および入出力インタフェース103はバス104を介して双方向通信可能に接続されている。メモリ102は、自車両の運転支援を実行するための運転支援プログラムPr1、イベントカメラ261の検出結果を用いて荷台付近物体を検出するための荷台付近物体検出プログラムPr2、荷台付近物体が落下する可能性がある落下可能性物体か、荷台から落下している最中の落下中物体であるかを判定するための落下物判定プログラムPr3、を不揮発的且つ読み出し専用に格納するメモリ、例えばROMと、CPU101による読み書きが可能であって落下物判別フラグ格納領域102aを有するメモリ、例えばRAMとを含んでいる。「落下物」とは、車両に衝突することが許容できない物体であり、落下可能性物体と落下中物体とを含む物体である。「車両に衝突することが許容できない物体」とは、車両500が物体に衝突した場合において、車両500の走行に支障が生じる物体である。CPU101はメモリ102に格納されている運転支援プログラムPr1および荷台付近物体検出プログラムPr2、落下物判定プログラムPr3を読み書き可能なメモリに展開して実行することによって制御部としての機能を実現する。なお、CPU101は、単体のCPUであっても良く、各プログラムを実行する複数のCPUであっても良く、あるいは、複数のプログラムを同時実行可能なマルチコアタイプのCPUであっても良い。
入出力インタフェース103には、レーダECU21、カメラECU22、イベントカメラECU26、回転角センサ23、車輪速度センサ24およびヨーレートセンサ25、並びに運転支援実行装置31がそれぞれ制御信号線を介して接続されている。レーダECU21、カメラECU22、イベントカメラECU26、回転角センサ23、車輪速度センサ24、ヨーレートセンサ25からは、検出信号が入力され、運転支援実行装置31には、要求トルクに応じた駆動力を指示する制御信号、制動レベルを指示する制御信号、操舵角を指示する制御信号が出力される。したがって、入出力インタフェース103は、第1の検出信号および第2の検出信号を含む、各種センサによって検出された検出信号を取得するための取得部として機能する。
ミリ波レーダ211はミリ波を射出し、物標によって反射された反射波を受信するセンサである。本実施形態において、ミリ波レーダ211は、フロントバンパ520およびリアバンパ521に配置されている。ミリ波レーダ211から出力される未処理の検出信号は、レーダECU21において処理され、物標の1または複数の代表位置を示す検出点または検出点列からなる検出信号として落下物判別装置100に入力される。あるいは、レーダECU21を備えることなく未処理の受信波を示す信号が検出信号としてミリ波レーダ211から落下物判別装置100に入力されても良い。未処理の受信波が検出信号として用いられる場合には、落下物判別装置100において物標の位置および距離を特定するための信号処理が実行される。
カメラ221は、CCD等の撮像素子または撮像素子アレイを1つ備える撮像装置であり、可視光を受光することによって対象物の外形情報または形状情報を検出結果である画像データとして出力するセンサである。カメラ221によって撮像された画像データに対しては、カメラECU22によって上述の処理が施され、荷台付近物体の有無を示す第2の検出信号が生成される。本実施形態において、カメラ221はフロントガラス510の上部中央に配置されている。カメラ221から出力される画素データは、モノクロの画素データであっても良い。この場合には、セグメンテーションに際して輝度値が用いられる。
イベントカメラ261は、単一の撮像素子によって構成される複数の画素を有し、物体の変位に伴い生じる物体の輝度値の変化というイベントを数μs単位で検出可能なイベント検出型の撮像装置である。イベントカメラ261は、物体における輝度値が変化した位置に対応する変化画素の情報、例えば、受光強度、画素座標を検出結果として出力し、複数の画素全てを走査して得られるフレーム単位の検出結果を出力しない。したがって、イベントカメラ261の検出結果を用いることにより、荷台付近物体の変位を検出することが可能となる。本実施形態においては、イベントカメラECU26によって、検出した輝度値の変化が予め定められた閾値以上の変化画素に関する位置座標および輝度値を含む情報、すなわち、荷台付近物体の変位を示す情報が生成され、第1の検出信号として出力される。イベントカメラ261は、物体の変位に応じて値が変化した変化画素の情報を出力できれば良く、フレーム群からなる検出信号を出力しないイメージセンサの他に、荷台付近物体の振動を算出可能な高フレームレート、例えば、1000fpsでのフレーム群からなる検出信号を出力可能な撮像装置が用いられても良い。
回転角センサ23は、ステアリングホイール504の操舵によりステアリンロッドに生じるねじれ量、すなわち、操舵トルク、を、ねじれ量に比例する電圧値として検出するトルクセンサであり、ステアリングホイール504の操舵角を検出する。本実施形態において、回転角センサ23は、ステアリングホイール504と操舵機構とを接続するステアリングロッドに備えられている。
車輪速度センサ24は、車輪501の回転速度を検出するセンサであり、各車輪501に備えられている。車輪速度センサ24から出力される検出信号は、車輪速度に比例する電圧値または車輪速度に応じた間隔を示すパルス波である。車輪速度センサ24からの検出信号を用いることによって、車両速度、車両の走行距離等の情報を得ることができる。
ヨーレートセンサ25は、車両500の回転角速度を検出するセンサである。ヨーレートセンサ25は、例えば、車両の中央部に配置されている。ヨーレートセンサ25から出力される検出信号は、回転方向と角速度に比例する電圧値である。
運転支援実行装置31は、運転者によるアクセルペダル操作に応じて、または、運転者によるアクセルペダル操作とは無関係に駆動力源505の出力の増減を制御し、運転者による制動ペダル操作とは無関係に制動装置502による制動を実現し、あるいは、運転者によるステアリングホイール504の操作とは無関係に操舵装置42による操舵を実現する。
第1の実施形態に係る落下物判別装置100により実行される運転支援処理について説明する。図3に示す処理ルーチンは、例えば、車両の制御システムの始動時から停止時まで、または、スタートスイッチがオンされてからスタートスイッチがオフされるまで、所定の時間間隔、例えば数msにて繰り返して実行される。CPU101が運転支援プログラムPr1を実行することによって図3に示す運転支援処理が実行される。なお、図3に示す運転支援処理は、荷台付近物体が、荷台から落下する可能性がある物体(以下、「落下可能性物体」という)であるか、荷台から落下している最中の物体(以下、「落下中物体」という)であるかを判定し、実行されるべき運転支援の様態を決定する処理である。
CPU101は、入出力インタフェース103を介して周囲情報、すなわち、第2の検出信号を取得する(ステップS100)。周囲情報は、例えば、ミリ波レーダ211やカメラ221によって検出された周囲車両の荷台位置の情報、に荷台付近物体の大きさを含む。
CPU101は、取得した周囲情報を用いて、自車両の周囲を走行する車両の荷台の付近の物体、すなわち荷台付近物体が検出されるか否かを判定する(ステップS110)。CPU101は、例えば、カメラ221の撮像画像に荷台付近物体に相当する物標が検出されたには荷台付近物体が存在すると判定する。より具体的には、例えば、周囲車両のナンバープレート上の予め定められた範囲を荷台位置として検出し、荷台上に物体の少なくとも一部が存在するか否かを検出する。CPU101は、後述するイベントカメラ261による検出結果を用いた荷台付近物体検出処理を運転支援処理と並行して実行しており、荷台付近物体検出処理によって得られる荷台付近物体情報と、本処理ルーチンにおいて検出した周囲情報とを用いて、荷台付近物体の有無を判定する。
CPU101は、荷台付近物体が検出されると(ステップS110:Yes)、荷台付近物体が落下物か否かを判定する(ステップS120)。本実施形態において、荷台付近物体が落下する可能性がある場合、落下可能性物体であると判定され、より具体的には、落下物判別フラグFe=1に設定される。また、荷台付近物体が落下中である場合、落下中物体であると判定され、より具体的には、落下物判別フラグFe=2に設定される。落下物判定処理の詳細については後述する。一方、CPU101は、荷台付近物体が検出されないと(ステップS110:No)、運転支援処理を終了する。
CPU101は、荷台付近物体が落下中物体であるか否か判定する(ステップS130)。より具体的には、落下物判別フラグFe=2であるか否かを判定する。荷台付近物体が落下中物体である場合(ステップS130:YES)、CPU101は、運転支援の態様を第1運転支援態様に決定する(ステップS150)。第1運転支援態様とは、例えば、急ブレーキを行う態様や、落下中物体の落下方向に応じて落下中物体を回避するように加減速や操舵の制御を行う態様である。また、第1運転支援態様として、落下中物体があることを運転者に通知する態様でもよい。一方、荷台付近物体が落下中物体でない場合(ステップS130:NO)、荷台付近物体が落下可能性物体であるか否か判定する(ステップS140)。より具体的には、落下物判別フラグFe=1であるか否かを判定する。荷台付近物体が落下可能性物体である場合(ステップS140:YES)、CPU101は、運転支援の態様を第1運転支援態様よりも支援の度合いが低い第2運転支援態様に決定する(ステップS155)。第2運転支援態様とは、例えば、周囲車両の付近を走行することを回避するために、周囲車両との車間距離を広く取るように加減速や車線変更、周囲車両の追い越しをするための操舵の制御を行う予防的な態様である。また、第2運転支援態様として、落下可能性物体があることを運転者に通知する態様でもよい。一方、荷台付近物体が落下可能性物体でない場合(ステップS140:NO)、運転支援処理を終了する。
第1の実施形態に係る落下物判別装置100により実行される荷台付近物体検出処理について説明する。図4に示す処理ルーチンは、例えば、車両の制御システムの始動時から停止時まで、または、スタートスイッチがオンされてからスタートスイッチがオフされるまで、所定の時間間隔、例えば数μsにて繰り返して実行される。CPU101が荷台付近物体検出プログラムPr2を実行することによって図4に示す荷台付近物体検出処理が実行される。すなわち、図3に示す運転支援処理と図4に示す移動物体検出処理は、並行して実行され、移動物体検出処理における移動物体の検出結果が運転支援処理において利用される。
CPU101は、イベントカメラ検出信号を取得する(ステップS200)。具体的には、CPU101は、イベントカメラECU26から出力される第1の検出信号を経時的に受信しており、イベントカメラ261によって検出された輝度値が変化した一または複数の変化画素の情報を取得する。人や自転車、あるいは車両といった物体が変位中、すなわち、移動中である場合には、物体の外形を示す複数の変化画素群の情報が第1の検出信号に含まれている。CPU101は、取得した変化画素の情報に対してエゴモーション除去処理を実行する(ステップS210)。エゴモーションは、計測系自体の3次元空間挙動を意味し、車両に搭載されているイベントカメラ261の場合、車両の挙動を意味する。エゴモーションは、例えば、車輪速度センサ24によって取得される車速、ヨーレートセンサ25によって取得されるヨーレートを用いて自車両の垂直方向および水平方向の動きを求めることによって得られる。エゴモーション処理は、検出された変化画素のうち、自車両の挙動に起因して輝度値が変化した物体の相対的な変位を示す変化画素を除去することで、物体自身の変位を抽出するための処理である。
CPU101は、エゴモーション除去処理が施された変化画素の情報を用いてクラスタリング処理を実行する(ステップS220)。クラスタリング処理は、複数の変化画素から一のオブジェクトを抽出処理であり、一のオブジェクトを形成する変化画素群を関連付ける処理である。本実施形態におけるクラスタリング処理は、例えば、経時的に同一方向に移動する変化画素を一のオブジェクトを形成する変化画素群として関連付けることによって実行される。クラスタリング処理としては、この他に、変位画素の位置座標を用いて画素間距離が予め定められた距離よりも短い変化画素を同一のオブジェクトを示す画素群として関連付けることによって、あるいは、変位画素の輝度値を用いて輝度値が近似する変位画素を同一のオブジェクトを示す画素群として関連付けることによって実行されても良い。クラスタリング処理によって、変化画素群によって形成されるオブジェクトが得られ、判別のモデルとなるモデルパターンとのマッチングがなされても良い。
CPU101は、抽出されたオブジェクトが荷台の上にあるか否かを判定する(ステップS230)。具体的には、抽出されたオブジェクトを形成する変化画素群の位置座標を用いて、抽出されたオブジェクトが周囲車両の荷台の上にあるか否かが判定される。CPU101は、抽出されたオブジェクトが荷台の上にあると判定すると(ステップS230:Yes)、荷台付近物体が検出されたこと、および、荷台付近物体の変位情報を示す荷台付近物体情報を出力して(ステップS240)、本処理ルーチンを終了する。荷台付近物体情報は、既述のように、図3に示す運転支援処理において用いられる。CPU101は、抽出されたオブジェクトが荷台の上にない(ステップS230:No)と判定すると、本処理ルーチンを終了する。
図5に示す落下物判定処理は、図3のステップS120において、CPU101が、荷台付近物体が落下可能性物体か落下中物体かを判定する一連の処理である。まず、CPU101は、荷台付近物体がまだ荷台上に存在するか否かを判別する(ステップS300)。
荷台付近物体が荷台上にある場合(ステップS300:YES)、本実施形態において、CPU101は、第1の検出信号、より具体的には第1の検出信号から求めることができる荷台付近物体情報を用いて、荷台付近物体の振動周波数f1と振幅a1を算出する(ステップS310)。続いて、CPU101は、算出した振動周波数f1が閾値周波数fth以上か否か判別する(ステップS320)。閾値周波数fthは、荷台付近物体が車両に衝突することが許容できない硬さと推定される周波数であり、例えば、鋼材やプラスチックを用いて予めシミュレーションや実験を行うことにより定めることができる。振動周波数f1が閾値周波数fthより小さい場合(ステップS320:NO)、つまり、荷台付近物体が車両に衝突することが許容できる固さと推定される場合、CPU101は、落下物判定処理を終了する。
一方、振動周波数f1が閾値周波数fth以上の場合(ステップS320:YES)、つまり、荷台付近物体が車両500に衝突することが許容できない固さと推定される場合、CPU101は、振幅a1が閾値振幅ath以上か否か判別する(ステップS330)。振幅a1が大きいほど、荷台付近物体が荷台から浮く高さが大きくなり、周囲車両が移動しているため、相対的に荷台の上でずれることにより、落下する可能性が高くなる。閾値振幅athは、荷台付近物体が荷台から落下する可能性が高いと推定される振幅であり、予めシミュレーションや実験を行うことにより定めることができる。閾値振幅athは、例えば、荷台付近物体の大きさ(高さ)の10%以上の大きさである。振幅a1が閾値振幅athより小さい場合(ステップS330:NO)、つまり、荷台付近物体が荷台から落下する可能性が低い場合、CPU101は、落下物判定処理を終了する。
一方、振幅a1が閾値振幅ath以上の場合(ステップS330:YES)、つまり、荷台付近物体が荷台から落下する可能性が高い場合、CPU101は、振幅a1が増加しているか判別する(ステップS340)。
振幅a1が増加していない場合(ステップS340:NO)、CPU101は、落下物判定処理を終了する。一方、振幅a1が増加している場合(ステップS340:YES)、CPU101は荷台付近物体を落下可能性物体と判定する(ステップS350)。より具体的には、CPU101は、落下物判別フラグFe=1とする。
荷台付近物体が荷台上にない場合(ステップS300:NO)、本実施形態において、CPU101は、荷台付近物体が路上に存在するか否かを判別する(ステップS325)。CPU101は、例えば、第1の検出信号を用いて荷台付近物体の移動の軌跡から求められる垂直方向における変位量の絶対値が、荷台から路上までの距離に近似しているか否かを判別することで、荷台付近物体が路上に存在するか否かを判別できる。荷台付近物体が路上にある場合(ステップS325:YES)、つまり、荷台付近物体が落下している最中ではなく落下しきった場合、CPU101は、落下物判定処理を終了する。
一方、荷台付近物体が路上にない場合(ステップS325:NO)、つまり、荷台付近物体が落下している最中である場合、CPU101は、荷台付近物体の大きさs1を算出する(ステップS335)。CPU101は、荷台付近物体情報や、周囲情報より荷台付近物体の大きさs1を取得してもよい。大きさs1とは、例えば、荷台付近物体の高さや幅、面積、容量である。続いて、CPU101は、大きさs1が閾値sth以上か否か判別する(ステップS345)。閾値sthは、荷台付近物体が車両500に衝突することが許容できない大きさであり、予めシミュレーションや実験を行うことにより定めることができる。
大きさs1が閾値sthより小さい場合(ステップS345:NO)、つまり、荷台付近物体が車両500に衝突することが許容できる大きさである場合、CPU101は、落下物判定処理を終了する。一方、大きさs1が閾値sth以上の場合(ステップS345:YES)、つまり、荷台付近物体が車両500に衝突することが許容できない大きさである場合、CPU101は荷台付近物体を落下中物体と判定する(S355)。より具体的には、CPU101は、落下物判別フラグFe=2とする。
以上説明した第1の実施形態に係る落下物判別装置100によれば、第1の検出信号を用いて荷台付近物体の振動周波数f1と振幅a1と大きさs1とのいずれか一つ以上を算出し、その算出結果に応じて荷台付近物体が車両500に衝突することが許容できない場合に、荷台付近物体が落下可能性物体か落下中物体であるか判定する。そのため、落下しそうな物体や落下している最中の物体を判別できる。また、落下物判別装置100は、荷台付近物体が車両500に衝突することが許容できない物体である場合に落下物の判定を行うため、車両500に衝突することが許容できる物体を回避する運転支援や、その物体が荷台に載せている車両の周囲を走行することを回避する運転支援が過度に行われることを抑制できる。また、落下物判別装置100は、荷台付近物体が落下中物体である場合に運転支援の態様を第1運転支援態様に決定し、荷台付近物体が落下可能性物体である場合に運転支援の態様を第2運転支援態様に決定するため、荷台付近物体の種別に応じて。運転支援の態様を決定することができる。
B.他の実施形態:
(1)上記各実施形態においては、CPU101が運転支援プログラムPr1および落下物判定プログラムPr3を実行することによって、ソフトウェア的に運転支援処理並びに移動物体検出処理を実行する制御部が実現されているが、予めプログラムされた集積回路またはディスクリート回路によってハードウェア的に実現されても良い。すなわち、上記各実施形態における制御部およびその手法は、コンピュータプログラムにより具体化された一つまたは複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部およびその手法は、一つまたは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
(2)上記実施形態において、CPU101は、荷台付近物体が車両に衝突することが許容できない物体である場合に、落下物の判定を行っている。この代わりに、CPU101は、荷台付近物体が車両500に衝突することが許容できない物体か否かに関わらず、落下物であるか否かの判定を行ってもよい。具体的には、例えば、上述した落下物判定処理において、ステップS320やステップS335およびS345を省略してもよい。これにより、より多くの落下物に対応することができる。
(3)上記実施形態において、CPU101は、落下物判定処理において、荷台付近物体が荷台上ある場合(ステップS300:YES)、荷台付近物体の振動周波数に応じて、荷台付近物体が車両500に衝突することが許容できるか否かを判定している。この代わりに、また、これに加えて、CPU101は、荷台付近物体の大きさに応じて、荷台付近物体が車両500に衝突することが許容できるか否かを判定してもよい。また、落下物判定処理におけるステップS330およびステップS340を省略してもよい。この場合、荷台付近物体が車両500に衝突することが許容できない場合、落下可能性物体と判定する。また、落下物判定処理におけるステップS320を省略してもよい。この場合、閾値振幅athは、荷台付近物体が車両500に衝突することが許容できない物体と推定される振幅に設定される。
(4)上記実施形態において、CPU101は、落下物判定処理において、荷台付近物体が荷台上になく、かつ、路上にもない場合(ステップS325:NO)、荷台付近物体の大きさに応じて、荷台付近物体が車両500に衝突することが許容できるか否かを判定し、落下中物体の判断を行っている。つまり、CPU101は、荷台上物体の大きさが予め定められた大きさ以上であって、かつ、落下可能性物体でなく、かつ路上にない場合に、荷台上物体を落下中物体と判断している。この代わりに、また、これに加えて、CPU101は、荷台付近物体の落下速度を算出し、その落下速度に応じて、荷台付近物体が車両500に衝突することが許容できるか否かを判定し、落下中物体の判断を行ってもよい。例えば、落下速度が遅い場合、布やビニールといった車両500に衝突することが許容できる物であると判断する。また、CPU101は、落下中の荷台付近物体の振動周波数を算出し、その振動周波数に応じて荷台付近物体が車両500に衝突することが許容できるか否かを判定し、落下中物体の判断を行ってもよい。より具体的には、CPU101は、落下中の荷台付近物体の振動周波数が、予め定められた第1閾値以下であって、かつ、第1閾値よりも小さい第2閾値以上である場合に、荷台付近物体を落下中物体と判断してもよい。例えば、振動周波数が第1閾値である1Hz以上の低周波数である場合、布やビニールといった車両500に衝突することが許容できる物であると判断し、振動周波数が第2閾値である0Hz程度である場合、金属等の車両500に衝突することが許容できない物であると判断する。
以上、実施形態、変形例に基づき本開示について説明してきたが、上記した発明の実施の形態は、本開示の理解を容易にするためのものであり、本開示を限定するものではない。本開示は、その趣旨並びに特許請求の範囲を逸脱することなく、変更、改良され得ると共に、本開示にはその等価物が含まれる。たとえば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10 運転支援システム、26 イベントカメラECU、100 落下物判別装置、101 CPU、102 メモリ、261 イベントカメラ、500 車両、Pr1 運転支援プログラム、Pr2 荷台付近物体検出プログラム、Pr3 落下物判定プログラム

Claims (11)

  1. 車両(500)に搭載される落下物判別装置(100)であって、
    前記車両の周囲を走行する周囲車両の荷台付近の物体の変位を示す情報を第1の検出信号として取得する取得部(103)と、
    前記第1の検出信号を用いて、少なくとも前記物体の振動周波数と振幅と大きさとのいずれか一つ以上を算出し、算出結果と、前記物体の少なくとも一部が前記荷台上にあるか否かと、に応じて前記物体が前記荷台から落下する可能性がある落下可能性物体か前記物体が前記荷台から落下している落下中物体であるか判定する制御部(101)と、を備える、落下物判別装置。
  2. 請求項1に記載の落下物判別装置であって、
    前記制御部は、前記算出結果に応じて前記物体が前記車両に衝突することが許容できない場合に、前記判定を行う、落下物判別装置。
  3. 請求項1または請求項2に記載の落下物判別装置であって、
    前記制御部は、前記振動周波数が予め定められた閾値以上である場合に、前記物体を前記落下可能性物体と判定する、落下物判別装置。
  4. 請求項1から請求項3のうちいずれか一項に記載の落下物判別装置であって、
    前記制御部は、前記振幅が予め定められた閾値以上である場合に、前記物体を前記落下可能性物体と判定する、落下物判別装置。
  5. 請求項1から請求項4のうちいずれか一項に記載の落下物判別装置であって、
    前記制御部は、前記物体の大きさが予め定められた大きさ以上の場合に前記物体が前記車両に衝突することが許容できないとし、前記物体が前記荷台上になく、かつ、前記物体が落下可能性物体でなく、かつ、前記物体が路上にない場合に、前記物体を前記落下中物体と判定する、落下物判別装置。
  6. 請求項5に記載の落下物判別装置であって、
    前記制御部は、前記振動周波数が予め定められた第1閾値以下であって、かつ、前記振動周波数が予め定められた第1閾値よりも小さい第2閾値以上である場合に、前記物体を前記落下中物体と判定する、落下物判別装置。
  7. 請求項1から請求項6のうちいずれか一項に記載の落下物判別装置であって、
    前記制御部は、前記車両が有する前記車両の運転支援を実行する運転支援実行装置に前記運転支援の態様を指示し、
    前記物体が落下中物体である場合に、前記運転支援の態様を第1運転支援態様に決定し、
    前記物体が落下可能性物体である場合に、前記運転支援の態様を前記第1運転支援態様よりも支援の度合いが低い第2運転支援態様に決定する、落下物判別装置。
  8. 請求項7に記載の落下物判別装置であって、
    前記第1運転支援態様は、前記車両が前記物体に衝突することを回避するよう支援する態様である、落下物判別装置。
  9. 請求項7または請求項8に記載の落下物判別装置であって、
    前記第2運転支援態様は、前記車両と前記周囲車両との車間距離を広く取るよう支援する態様である、落下物判別装置。
  10. 車両に搭載される運転支援システム(10)であって、
    請求項7から請求項9のうちいずれか一項に記載の落下物判別装置と、
    前記第1の検出信号を出力する第1の検出器(26,261)と、
    前記制御部によって決定された前記運転支援の態様を実行する運転支援実行装置(31)と、を備える、運転支援システム。
  11. 落下物判別装置により実行される落下物判別方法であって、
    車両の周囲を走行する周囲車両の荷台付近の物体の変位を示す情報を第1の検出信号として取得し、
    前記第1の検出信号を用いて、少なくとも前記物体の振動周波数と振幅と大きさとのいずれか一つ以上を算出し、算出結果と、前記物体の少なくとも一部が前記荷台上にあるか否かと、に応じて前記物体が前記荷台から落下する可能性がある落下可能性物体か前記物体が前記荷台から落下している落下中物体であるか判定する、ことを備える落下物判別方法。
JP2019071687A 2019-04-04 2019-04-04 落下物判別装置、運転支援システムおよび落下物判別方法 Active JP7192627B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019071687A JP7192627B2 (ja) 2019-04-04 2019-04-04 落下物判別装置、運転支援システムおよび落下物判別方法
CN202080026392.2A CN113661533B (zh) 2019-04-04 2020-03-31 坠落物判别装置、驾驶辅助系统以及坠落物判别方法
PCT/JP2020/014835 WO2020204035A1 (ja) 2019-04-04 2020-03-31 落下物判別装置、運転支援システムおよび落下物判別方法
DE112020001707.9T DE112020001707T5 (de) 2019-04-04 2020-03-31 Herunterfallendes-Objekt-Bestimmungsvorrichtung, Fahrunterstützungssystem, und Herunterfallendes-Objekt-Bestimmungsverfahren
US17/490,430 US11834039B2 (en) 2019-04-04 2021-09-30 Falling object determination device, driving support system, and falling object determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019071687A JP7192627B2 (ja) 2019-04-04 2019-04-04 落下物判別装置、運転支援システムおよび落下物判別方法

Publications (2)

Publication Number Publication Date
JP2020170370A JP2020170370A (ja) 2020-10-15
JP7192627B2 true JP7192627B2 (ja) 2022-12-20

Family

ID=72669011

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019071687A Active JP7192627B2 (ja) 2019-04-04 2019-04-04 落下物判別装置、運転支援システムおよび落下物判別方法

Country Status (5)

Country Link
US (1) US11834039B2 (ja)
JP (1) JP7192627B2 (ja)
CN (1) CN113661533B (ja)
DE (1) DE112020001707T5 (ja)
WO (1) WO2020204035A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019128814B4 (de) * 2019-10-25 2021-05-20 Sick Ag Kamera zur Erfassung eines Objektstroms und Verfahren zur Bestimmung der Höhe von Objekten
CN112666550B (zh) * 2020-12-25 2024-01-16 北京灵汐科技有限公司 运动物体检测方法及装置、融合处理单元、介质
CN112800868B (zh) * 2021-01-13 2022-10-25 华南理工大学 一种基于事件相机采集分析装置的高空抛物监测方法
FR3136421A1 (fr) * 2022-06-08 2023-12-15 Psa Automobiles Sa Procédé et dispositif de contrôle d’ouverture d’une porte de coffre d’un véhicule pour prévenir la chute d’un objet

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108371A (ja) 2008-10-31 2010-05-13 Toyota Motor Corp 車両用落下物検出装置
JP2012103919A (ja) 2010-11-10 2012-05-31 Saxa Inc 通行車両監視システム
JP2018120282A (ja) 2017-01-23 2018-08-02 スズキ株式会社 運転支援装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015770A (ja) 2006-07-05 2008-01-24 Fujitsu Ten Ltd 画像認識装置および画像認識方法
US20080008355A1 (en) 2006-07-05 2008-01-10 Fujitsu Ten Limited Image recognition apparatus, image recognition method, and vehicle control apparatus
CN104698085B (zh) * 2015-02-01 2017-09-29 山东科技大学 基于常时微动技术的危岩落石调查方法
JP2016203836A (ja) * 2015-04-24 2016-12-08 日立建機株式会社 車両及び鉱山用運搬車両の運用システム
JP6699230B2 (ja) * 2016-02-25 2020-05-27 住友電気工業株式会社 道路異常警告システム及び車載機
JP2017182139A (ja) 2016-03-28 2017-10-05 パナソニックIpマネジメント株式会社 判定装置、判定方法、および判定プログラム
CN205788673U (zh) * 2016-05-11 2016-12-07 中铁武汉勘察设计研究院有限公司 一种铁路沿线崩塌落石监测报警系统
DE102016210056A1 (de) 2016-06-08 2017-12-14 Robert Bosch Gmbh Kameraanordnung zur Bestimmung des optischen Flusses, Fahrassistenzsystem und Überwachungskamera mit der Kameraanordnung
CN106184093B (zh) * 2016-07-13 2018-06-26 百度在线网络技术(北京)有限公司 一种高空坠物防护方法和装置
CN107063339B (zh) * 2017-02-06 2019-04-16 中国科学院、水利部成都山地灾害与环境研究所 铁道沿线落石与行车信号分类分级判断识别方法
US10475343B2 (en) * 2017-05-18 2019-11-12 Ford Global Technologies, Llc Vehicle ice strike prediction
US20200133308A1 (en) * 2018-10-18 2020-04-30 Cartica Ai Ltd Vehicle to vehicle (v2v) communication less truck platooning
JP6630008B2 (ja) 2019-02-07 2020-01-15 グリー株式会社 ランキング作成方法、制御プログラム及びコンピュータ
US20200231160A1 (en) * 2019-04-09 2020-07-23 Ron Zass Controlling Vehicles in Response to Two-Wheeler Vehicles

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108371A (ja) 2008-10-31 2010-05-13 Toyota Motor Corp 車両用落下物検出装置
JP2012103919A (ja) 2010-11-10 2012-05-31 Saxa Inc 通行車両監視システム
JP2018120282A (ja) 2017-01-23 2018-08-02 スズキ株式会社 運転支援装置

Also Published As

Publication number Publication date
JP2020170370A (ja) 2020-10-15
CN113661533B (zh) 2023-07-14
WO2020204035A1 (ja) 2020-10-08
DE112020001707T5 (de) 2022-01-20
US11834039B2 (en) 2023-12-05
CN113661533A (zh) 2021-11-16
US20220017085A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
JP7192627B2 (ja) 落下物判別装置、運転支援システムおよび落下物判別方法
JP7259437B2 (ja) 車両における運転支援制御装置、運転支援システムおよび運転支援方法
US11097724B2 (en) Apparatus and system for controlling travel of vehicle
JP6424263B2 (ja) 大型車両の移動オブジェクト衝突警告装置および方法
US10672275B2 (en) Vehicle control device and vehicle control method
US20170297488A1 (en) Surround view camera system for object detection and tracking
JP5664787B2 (ja) 移動体検出装置及び移動体検出方法
JP6365385B2 (ja) 立体物検出装置及び立体物検出方法
CN111372826B (zh) 车辆的制动辅助装置、控制装置以及制动辅助方法
JP3872179B2 (ja) 車両の衝突防止装置
JP3556014B2 (ja) 車両用前方監視装置
CN115071702A (zh) 车辆控制装置、车辆控制方法以及车辆控制用计算机程序
JP2014056295A (ja) 車両周辺監視装置
US11685311B2 (en) System and method for warning a driver of a vehicle of an object in a proximity of the vehicle
WO2020195231A1 (ja) 車両における路面状態判定装置、運転支援システムおよび路面状態判定方法
JP6306455B2 (ja) 安全運転支援装置および安全運転支援方法
JP2018045385A (ja) 車両制御装置、車両制御方法、および車両制御プログラム
JP6171608B2 (ja) 物体検出装置
JP6254866B2 (ja) 車両制御装置
JP7111634B2 (ja) 車両における対象物検出装置、対象物検出システムおよび対象物検出方法
JP7243452B2 (ja) 車両における物体検出装置、および車両における物体検出方法
US11970171B2 (en) Road surface condition determination device for vehicle, driving assistance system, and road surface condition determination method
JP7379268B2 (ja) 画像処理装置
JP2011131740A (ja) 車両の運転支援装置
JP2022121370A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151