JP2022142252A - Human body detector and brake control system - Google Patents

Human body detector and brake control system Download PDF

Info

Publication number
JP2022142252A
JP2022142252A JP2021042362A JP2021042362A JP2022142252A JP 2022142252 A JP2022142252 A JP 2022142252A JP 2021042362 A JP2021042362 A JP 2021042362A JP 2021042362 A JP2021042362 A JP 2021042362A JP 2022142252 A JP2022142252 A JP 2022142252A
Authority
JP
Japan
Prior art keywords
human body
unit
vehicle
waveform
reflected wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021042362A
Other languages
Japanese (ja)
Inventor
雄介 永田
Yusuke Nagata
伸一郎 田林
Shinichiro Tabayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Corp filed Critical Aisin Corp
Priority to JP2021042362A priority Critical patent/JP2022142252A/en
Publication of JP2022142252A publication Critical patent/JP2022142252A/en
Pending legal-status Critical Current

Links

Images

Abstract

To detect a human body based solely on data obtained by an ultrasonic sensor.SOLUTION: A human body detector according to an embodiment obtains detection information from an ultrasonic receiving a reflection wave of ultrasonic transmitted to a prescribed area. The waveform of the reflection wave according to the detection information is normalized based on the attenuation characteristic information according to the distance to a reflection object for the ultrasonic and the distance regarding the ultrasonic. If the peak of the normalized waveform of the reflection wave is larger than or equal to the prescribed threshold, it is determined that an object is detected in the prescribed area. If an object detection unit detects an object, the waveform of the reflection wave in a prescribed range including the peak is extracted from the normalized waveform of the reflection wave. For the waveform of the reflection wave in the prescribed range, a prescribed frequency analysis that will not lose time information is conducted to generate multiple parameters. From the multiple parameters, a parameter for determining whether the object is a human or not is extracted. It is determined whether the object is a human or not based on the extracted parameter.SELECTED DRAWING: Figure 9

Description

本発明は、人体検出装置およびブレーキ制御システムに関する。 The present invention relates to a human body detection device and a brake control system.

従来から、例えば、車両制御システムにおいて、自車両の周囲に存在する人体(歩行者等)を検出する技術がある。この技術は、例えば、レーダ装置や超音波センサなどによる物体の検出結果と、カメラによる撮影画像とに基づいて、実現される。 2. Description of the Related Art Conventionally, for example, in a vehicle control system, there is a technique for detecting a human body (pedestrian, etc.) existing around a vehicle. This technology is realized, for example, based on the result of object detection by a radar device, an ultrasonic sensor, or the like, and an image captured by a camera.

特許第6643166号公報Japanese Patent No. 6643166 特許第6657934号公報Japanese Patent No. 6657934 特開2006-250927号公報JP 2006-250927 A 特開2012-189441号公報JP 2012-189441 A

しかしながら、上述の従来技術は、コスト等の面で改善の余地がある。 However, the conventional technology described above has room for improvement in terms of cost and the like.

そこで、本発明の課題の一つは、超音波センサによって得られたデータのみに基づいて人体を検出することができる人体検出装置およびブレーキ制御システムを提供することである。 Therefore, one of the objects of the present invention is to provide a human body detection device and a brake control system that can detect a human body based only on data obtained by an ultrasonic sensor.

実施形態の人体検出装置は、例えば、所定領域に対して送信した超音波の反射波を受信した超音波センサから検出情報を取得する取得部と、前記検出情報に応じた反射波波形を、前記超音波の反射物体までの距離、および、超音波に関する距離に応じた減衰特性情報に基づいて、正規化する正規化部と、正規化された前記反射波波形におけるピークが所定の閾値以上であった場合に、前記所定領域において物体を検出したと判定する物体検出部と、前記物体検出部によって前記物体が検出された場合に、正規化後の前記反射波波形からピークを含む所定範囲の反射波波形を抽出する波形抽出部と、前記所定範囲の反射波波形に対して、時間情報を失わない所定の周波数解析を行って複数のパラメータを生成する解析部と、前記複数のパラメータのうち、前記物体が人体か否かを判別するためのパラメータを抽出するパラメータ抽出部と、前記抽出されたパラメータに基づいて、前記物体が人体か否かを判別して人体を検出する人体検出部と、を備える。
このような構成により、超音波の反射波波形の正規化と、正規化された反射波波形におけるピークに基づく物体検出と、反射波波形に対する時間情報を失わない所定の周波数解析によるパラメータ生成と、人体判別用のパラメータ抽出と、抽出パラメータに基づく人体検出と、によって、超音波センサによって得られたデータのみに基づいて人体を検出することができる。
The human body detection device of the embodiment includes, for example, an acquisition unit that acquires detection information from an ultrasonic sensor that receives a reflected wave of an ultrasonic wave that has been transmitted to a predetermined area, and a reflected wave waveform that corresponds to the detection information. Based on the distance to the reflecting object of the ultrasonic wave and the attenuation characteristic information related to the ultrasonic wave according to the distance, a normalizing unit that normalizes the peak in the normalized reflected wave waveform is a predetermined threshold or more an object detection unit that determines that an object has been detected in the predetermined area when the object is detected by the object detection unit, and a reflection in a predetermined range including a peak from the normalized reflected wave waveform A waveform extraction unit that extracts a wave waveform; an analysis unit that performs a predetermined frequency analysis without losing time information on the reflected wave waveform in the predetermined range to generate a plurality of parameters; a parameter extraction unit for extracting parameters for determining whether the object is a human body, a human body detection unit for determining whether the object is a human body and detecting the human body based on the extracted parameters; Prepare.
With such a configuration, normalization of the reflected wave waveform of ultrasonic waves, object detection based on peaks in the normalized reflected wave waveform, parameter generation by predetermined frequency analysis without losing time information on the reflected wave waveform, A human body can be detected based only on the data obtained by the ultrasonic sensor by extracting the parameters for human body discrimination and detecting the human body based on the extracted parameters.

また、前記人体検出装置では、例えば、前記物体検出部によって前記物体が検出された場合に、正規化後の前記反射波波形に基づいて前記物体の位置と速度を計算する計算部を、さらに備え、前記人体検出部は、前記抽出されたパラメータ、および、前記物体の位置と速度に基づいて、前記物体が人体か否かを判別して人体を検出する。
このような構成により、抽出されたパラメータに加えて物体の位置と速度に基づくことで、人体検出精度をさらに向上させることができる。
Further, the human body detection apparatus further includes a calculation unit that calculates the position and velocity of the object based on the normalized reflected wave waveform when the object is detected by the object detection unit. , the human body detection unit detects a human body by determining whether the object is a human body based on the extracted parameters and the position and speed of the object.
With such a configuration, the human body detection accuracy can be further improved by using the position and speed of the object in addition to the extracted parameters.

また、前記人体検出装置では、例えば、前記解析部は、前記所定範囲の反射波波形に対して、時間情報を失わない前記所定の周波数解析としてウェーブレット変換を行って複数のパラメータを生成する。
このような構成により、時間情報を失わない所定の周波数解析として具体的にウェーブレット変換を用いることができる。
Further, in the human body detection device, for example, the analysis unit performs wavelet transform as the predetermined frequency analysis without losing time information on the reflected wave waveform in the predetermined range to generate a plurality of parameters.
With such a configuration, wavelet transform can be specifically used as a predetermined frequency analysis that does not lose time information.

また、前記人体検出装置では、例えば、前記パラメータ抽出部は、予め記憶部に記憶されたパラメータ抽出に関する機械学習データに基づいて、前記複数のパラメータのうち、前記物体が人体か否かを判別するためのパラメータを抽出する。
このような構成により、パラメータ抽出に関する機械学習データに基づいて、複数のパラメータのうち人物判別用のパラメータを抽出することができる。
Further, in the human body detection device, for example, the parameter extraction unit determines whether or not the object is a human body among the plurality of parameters based on machine learning data related to parameter extraction stored in a storage unit in advance. Extract the parameters for
With such a configuration, it is possible to extract a parameter for person discrimination from among a plurality of parameters based on machine learning data relating to parameter extraction.

また、車両に搭載された人体検出装置と、前記人体検出装置による人体の検出結果に基づいて前記車両のブレーキを制御する制動制御部と、によって、ブレーキ制御システムを実現することができる。 Further, a brake control system can be realized by a human body detection device mounted on a vehicle and a braking control section that controls the brakes of the vehicle based on the human body detection result of the human body detection device.

図1は、実施形態の車両制御システムが搭載される車両の平面図である。FIG. 1 is a plan view of a vehicle equipped with a vehicle control system according to an embodiment. 図2は、実施形態の車両制御システムの全体構成を示すブロック図である。FIG. 2 is a block diagram showing the overall configuration of the vehicle control system of the embodiment. 図3は、実施形態の車両制御装置の機能構成を示すブロック図である。FIG. 3 is a block diagram showing the functional configuration of the vehicle control device of the embodiment. 図4は、実施形態における超音波の反射波波形の正規化の説明図である。FIG. 4 is an explanatory diagram of normalization of reflected wave waveforms of ultrasonic waves in the embodiment. 図5は、実施形態における反射波波形のピーク近傍抽出の説明図である。FIG. 5 is an explanatory diagram of extraction of the vicinity of the peak of the reflected wave waveform in the embodiment. 図6は、実施形態におけるウェーブレット変換の対象データ例を示すグラフである。FIG. 6 is a graph showing an example of target data for wavelet transform in the embodiment. 図7は、実施形態におけるウェーブレット変換の基底関数例のメキシカンハット関数を示すグラフである。FIG. 7 is a graph showing a Mexican hat function as an example of basis functions for wavelet transform in the embodiment. 図8は、実施形態の車両制御システムによる全体処理を示すフローチャートである。FIG. 8 is a flowchart showing overall processing by the vehicle control system of the embodiment. 図9は、図8のステップS5の処理の詳細を示すフローチャートである。FIG. 9 is a flow chart showing the details of the processing in step S5 of FIG. 図10は、図9のステップS506の処理の詳細を示すフローチャートである。FIG. 10 is a flow chart showing the details of the processing in step S506 of FIG.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能である。また、本発明によれば、構成によって得られる種々の効果(派生的な効果も含む)のうち少なくとも一つを得ることが可能である。 Illustrative embodiments of the invention are disclosed below. The configurations of the embodiments shown below and the actions and effects brought about by the configurations are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments. Moreover, according to the present invention, at least one of various effects (including derivative effects) obtained by the configuration can be obtained.

図1は、実施形態の車両制御システム20(図2)が搭載される車両10の平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪13の駆動に関わる装置の方式、個数、および、レイアウト等は、種々に設定することができる。 FIG. 1 is a plan view of a vehicle 10 equipped with a vehicle control system 20 (FIG. 2) of the embodiment. The vehicle 10 may be, for example, an automobile (internal combustion engine automobile) using an internal combustion engine (engine, not shown) as a drive source, or an automobile (electric automobile) using an electric motor (motor, not shown) as a drive source. , a fuel cell vehicle, etc.), or a vehicle (hybrid vehicle) using both of them as a driving source. In addition, the vehicle 10 can be equipped with various transmission devices, and can be equipped with various devices (systems, parts, etc.) necessary for driving the internal combustion engine and the electric motor. Moreover, the system, number, layout, etc. of the devices related to the driving of the wheels 13 in the vehicle 10 can be set variously.

図1に示すように、車両10は、車体12と、4個の車輪13と、12個の超音波センサ16a~16lを備える。以下、超音波センサ16a~16lを区別する必要がない場合、超音波センサ16と記載する。 As shown in FIG. 1, the vehicle 10 includes a vehicle body 12, four wheels 13, and twelve ultrasonic sensors 16a-16l. Hereinafter, the ultrasonic sensors 16a to 16l are referred to as the ultrasonic sensor 16 when there is no need to distinguish between them.

車体12は、乗員が乗車する車室を構成する。車体12は、車輪13、超音波センサ16等を収容または保持する。 The vehicle body 12 constitutes a vehicle compartment in which passengers ride. The vehicle body 12 accommodates or holds wheels 13, ultrasonic sensors 16, and the like.

4個の車輪13は、車体12の前側に2個、後側に2個、設けられている。例えば、前側の2個の車輪13は、転舵輪として機能して、後側の2個の車輪13は、駆動輪として機能する。 The four wheels 13 are provided two on the front side of the vehicle body 12 and two on the rear side. For example, the front two wheels 13 function as steered wheels, and the rear two wheels 13 function as driving wheels.

超音波センサ16は、所定領域に対して超音波を送信し、反射波を受信する。つまり、超音波センサ16は、例えば、車両10の外周部に設けられ、超音波を検出波として送信して、車両10の周辺に存在する人体(歩行者等)等の対象物が反射した検出波を捉えるソナーである。超音波センサ16は、検出情報(反射波の振幅、送受信の所要時間など)を車両制御装置34に出力する。なお、超音波センサ16は、一度の検出波の送信に対して、対象物の複数の個所が反射した複数の検出波を受信した場合、最も早く受信した検出波の所要時間のみを検出情報に含めてもよい。 The ultrasonic sensor 16 transmits ultrasonic waves to a predetermined area and receives reflected waves. That is, the ultrasonic sensor 16 is provided, for example, on the outer periphery of the vehicle 10, transmits ultrasonic waves as detection waves, and detects reflections of objects such as human bodies (pedestrians, etc.) existing around the vehicle 10. It is a sonar that catches waves. The ultrasonic sensor 16 outputs detection information (amplitude of reflected waves, time required for transmission and reception, etc.) to the vehicle control device 34 . In addition, when the ultrasonic sensor 16 receives a plurality of detection waves reflected by a plurality of parts of the object for one detection wave transmission, the ultrasonic sensor 16 uses only the required time of the earliest received detection wave as detection information. may be included.

超音波センサ16a、16b、16c、16dは、サイドソナーとも呼ばれ、車両10の左右の側部に設けられている。超音波センサ16a、16b、16c、16dは、車両10の側方の対象物を検出して、検出情報を出力する。超音波センサ16e、16fは、コーナーソナーとも呼ばれ、超音波センサ16a、16b、16c、16dよりも車両10の後部(例えば、車両10のコーナー近傍)に設けられ、超音波センサ16a、16b、16c、16dよりも後方(例えば、後方の外側)に向けられている。 The ultrasonic sensors 16 a , 16 b , 16 c , 16 d are also called side sonars and are provided on the left and right sides of the vehicle 10 . The ultrasonic sensors 16a, 16b, 16c, and 16d detect objects on the sides of the vehicle 10 and output detection information. The ultrasonic sensors 16e and 16f are also called corner sonars, and are provided at the rear of the vehicle 10 (for example, near corners of the vehicle 10) relative to the ultrasonic sensors 16a, 16b, 16c, and 16d. 16c, 16d are oriented rearward (eg, rearwardly outward).

超音波センサ16e、16fは、車両10の斜め後方の対象物を検出して、検出情報を出力する。超音波センサ16g、16hは、コーナーソナーとも呼ばれ、超音波センサ16a、16b、16c、16dよりも車両10の前部(例えば、車両10のコーナー近傍)に設けられ、超音波センサ16a、16b、16c、16dよりも前方(例えば、前方の外側)に向けられている。超音波センサ16g、16hは、車両10の斜め前方の対象物を検出して、検出情報を出力する。超音波センサ16i、16jは、リアソナーとも呼ばれ、車両10の後端部に設けられている。超音波センサ16i、16jは、車両10の後方の対象物を検出して、検出情報を出力する。超音波センサ16k、16lは、フロントソナーとも呼ばれ、車両10の前端部に設けられている。超音波センサ16k、16lは、車両10の前方の対象物を検出して、検出情報を出力する。 The ultrasonic sensors 16e and 16f detect objects obliquely behind the vehicle 10 and output detection information. The ultrasonic sensors 16g and 16h are also called corner sonars, and are provided in front of the vehicle 10 (for example, near corners of the vehicle 10) relative to the ultrasonic sensors 16a, 16b, 16c, and 16d. , 16c, 16d (for example, to the outside of the front). The ultrasonic sensors 16g and 16h detect objects obliquely ahead of the vehicle 10 and output detection information. The ultrasonic sensors 16 i and 16 j are also called rear sonar and are provided at the rear end of the vehicle 10 . The ultrasonic sensors 16i and 16j detect objects behind the vehicle 10 and output detection information. The ultrasonic sensors 16 k and 16 l are also called front sonar and are provided at the front end of the vehicle 10 . The ultrasonic sensors 16k and 16l detect objects in front of the vehicle 10 and output detection information.

図2は、実施形態の車両制御システム20の全体構成を示すブロック図である。車両制御システム20は、車両10に搭載されて、車両10の周辺の対象物に応じて、車両10の運転を自動運転(一部自動運転を含む)によって支援する。 FIG. 2 is a block diagram showing the overall configuration of the vehicle control system 20 of the embodiment. The vehicle control system 20 is mounted on the vehicle 10 and supports driving of the vehicle 10 by automatic driving (partially including automatic driving) according to objects around the vehicle 10 .

図2に示すように、車両制御システム20は、超音波センサ16と、制動システム22と、加速システム24と、操舵システム26と、変速システム28と、車速センサ30と、モニタ装置32と、車両制御装置34と、車内ネットワーク36と、を備える。 As shown in FIG. 2, the vehicle control system 20 includes an ultrasonic sensor 16, a braking system 22, an acceleration system 24, a steering system 26, a transmission system 28, a vehicle speed sensor 30, a monitor device 32, and a vehicle. A controller 34 and an in-vehicle network 36 are provided.

制動システム22は、車両10の制動を制御する。制動システム22は、制動部40と、制動制御部42と、制動部センサ44とを有する。 Braking system 22 controls braking of vehicle 10 . Braking system 22 includes a brake section 40 , a brake control section 42 and a brake section sensor 44 .

制動部40は、例えば、ブレーキ、ブレーキペダル等を含み、車両10を減速させるための装置である。 The braking unit 40 is a device for decelerating the vehicle 10 including, for example, a brake, a brake pedal, and the like.

制動制御部42は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサを有するマイクロコンピュータ等のコンピュータである。制動制御部42は、車両制御装置34からの指示(停止制御信号)に基づいて、制動部40を制御して、車両10の制動を制御する。 The braking control unit 42 is, for example, a computer such as a microcomputer having a hardware processor such as a CPU (Central Processing Unit). The braking control unit 42 controls braking of the vehicle 10 by controlling the braking unit 40 based on an instruction (stop control signal) from the vehicle control device 34 .

制動部センサ44は、例えば、位置センサであって、制動部40がブレーキペダルの場合、制動部40の位置を検出する。制動部センサ44は、検出した制動部40の位置を車内ネットワーク36に出力する。 The braking portion sensor 44 is, for example, a position sensor, and detects the position of the braking portion 40 when the braking portion 40 is a brake pedal. The brake sensor 44 outputs the detected position of the brake 40 to the in-vehicle network 36 .

加速システム24は、車両10の加速を制御する。加速システム24は、加速部46と、加速制御部48と、加速部センサ50とを有する。 Acceleration system 24 controls acceleration of vehicle 10 . The acceleration system 24 has an acceleration section 46 , an acceleration control section 48 and an acceleration section sensor 50 .

加速部46は、例えば、アクセルペダル等を含み、車両10を加速させるための装置である。 The acceleration unit 46 is a device for accelerating the vehicle 10 including, for example, an accelerator pedal.

加速制御部48は、例えば、CPU等のハードウェアプロセッサを有するマイクロコンピュータ等のコンピュータである。加速制御部48は、車両制御装置34からの指示(加速制御信号)に基づいて、加速部46を制御して、車両10の加速を制御する。 The acceleration control unit 48 is, for example, a computer such as a microcomputer having a hardware processor such as a CPU. The acceleration control unit 48 controls acceleration of the vehicle 10 by controlling the acceleration unit 46 based on an instruction (acceleration control signal) from the vehicle control device 34 .

加速部センサ50は、例えば、位置センサであって、加速部46がアクセルペダルの場合、加速部46の位置を検出する。加速部センサ50は、検出した加速部46の位置を車内ネットワーク36に出力する。 The acceleration section sensor 50 is, for example, a position sensor, and detects the position of the acceleration section 46 when the acceleration section 46 is an accelerator pedal. The acceleration unit sensor 50 outputs the detected position of the acceleration unit 46 to the in-vehicle network 36 .

操舵システム26は、車両10の進行方向を制御する。操舵システム26は、操舵部52と、操舵制御部54と、操舵部センサ56とを有する。 The steering system 26 controls the direction of travel of the vehicle 10 . The steering system 26 includes a steering section 52 , a steering control section 54 and a steering section sensor 56 .

操舵部52は、例えば、ハンドルまたはステアリングホイール等を含み、車両10の転舵輪を転舵させて、車両10の進行方向を操舵する装置である。 The steering unit 52 is a device that includes, for example, a steering wheel, a steering wheel, or the like, and steers the traveling direction of the vehicle 10 by turning the steered wheels of the vehicle 10 .

操舵制御部54は、例えば、CPU等のハードウェアプロセッサを有するマイクロコンピュータ等のコンピュータである。操舵制御部54は、車両制御装置34からの指示(操舵制御信号)に基づいて、操舵部52を制御して、車両10の進行方向を制御する。 The steering control unit 54 is, for example, a computer such as a microcomputer having a hardware processor such as a CPU. The steering control unit 54 controls the steering unit 52 based on an instruction (steering control signal) from the vehicle control device 34 to control the traveling direction of the vehicle 10 .

操舵部センサ56は、例えば、ホール素子等を含む角度センサであって、操舵部52の回転角である操舵角を検出する。操舵部センサ56は、検出した操舵部52の操舵角を車内ネットワーク36に出力する。 The steering section sensor 56 is, for example, an angle sensor including a hall element or the like, and detects a steering angle, which is the rotation angle of the steering section 52 . The steering unit sensor 56 outputs the detected steering angle of the steering unit 52 to the in-vehicle network 36 .

変速システム28は、車両10の変速比を制御する。変速システム28は、変速部58と、変速制御部60と、変速部センサ62とを有する。 Transmission system 28 controls the transmission ratio of vehicle 10 . Transmission system 28 includes a transmission section 58 , a transmission control section 60 and a transmission section sensor 62 .

変速部58は、例えば、シフトレバー等を含み、車両10の変速比を変更させる装置である。 The transmission unit 58 is a device that includes, for example, a shift lever and the like, and changes the gear ratio of the vehicle 10 .

変速制御部60は、例えば、CPU等のハードウェアプロセッサを有するマイクロコンピュータ等のコンピュータである。変速制御部60は、車両制御装置34からの指示(変速制御信号)に基づいて、変速部58を制御して、車両10の変速比を制御する。 The shift control unit 60 is, for example, a computer such as a microcomputer having a hardware processor such as a CPU. The shift control unit 60 controls the shift unit 58 based on an instruction (shift control signal) from the vehicle control device 34 to control the gear ratio of the vehicle 10 .

変速部センサ62は、例えば、位置センサであって、変速部58がシフトレバーの場合、変速部58の位置を検出する。変速部センサ62は、検出した変速部58の位置を車内ネットワーク36に出力する。 The shift section sensor 62 is, for example, a position sensor that detects the position of the shift section 58 when the shift section 58 is a shift lever. The transmission sensor 62 outputs the detected position of the transmission 58 to the in-vehicle network 36 .

車速センサ30は、例えば、車両10の車輪13の近傍に設けられたホール素子を有し、車輪13の回転量または単位時間当たりの回転数を検出するセンサである。車速センサ30は、検出した回転量または回転数を示す車輪速パルス数を、車両10の速度(車速)を算出するためのセンサ値として、車内ネットワーク36へ出力する。車両制御装置34は、車速センサ30から取得したセンサ値に基づいて車両10の速度(車速)や移動量等を算出することができる。 The vehicle speed sensor 30 is, for example, a sensor that has a Hall element provided near the wheels 13 of the vehicle 10 and detects the amount of rotation of the wheels 13 or the number of revolutions per unit time. The vehicle speed sensor 30 outputs the wheel speed pulse number indicating the detected rotation amount or number of rotations to the in-vehicle network 36 as a sensor value for calculating the speed of the vehicle 10 (vehicle speed). The vehicle control device 34 can calculate the speed (vehicle speed), movement amount, etc. of the vehicle 10 based on the sensor value acquired from the vehicle speed sensor 30 .

モニタ装置32は、車両10の車室内のダッシュボード等に設けられている。モニタ装置32は、表示部64と、音声出力部66と、操作入力部68とを有する。 The monitor device 32 is provided on a dashboard or the like inside the vehicle 10 . The monitor device 32 has a display section 64 , an audio output section 66 and an operation input section 68 .

表示部64は、車両制御装置34が送信した画像データに基づいて、画像を表示する。表示部64は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、または、有機ELディプレイ(OELD:Organic Electroluminescent Display)等の表示装置である。表示部64は、例えば、自動運転と手動運転との切り替えを指示する操作指示を受け付ける画像を表示する。 The display unit 64 displays an image based on the image data transmitted by the vehicle control device 34 . The display unit 64 is, for example, a display device such as a liquid crystal display (LCD) or an organic EL display (OELD: Organic Electroluminescent Display). The display unit 64 displays, for example, an image for accepting an operation instruction for switching between automatic operation and manual operation.

音声出力部66は、車両制御装置34が送信した音声データに基づいて音声を出力する。音声出力部66は、例えば、スピーカである。音声出力部66は、例えば、自動運転と手動運転との切り替えを指示する操作指示に関する音声を出力する。 The audio output unit 66 outputs audio based on the audio data transmitted by the vehicle control device 34 . The audio output unit 66 is, for example, a speaker. The audio output unit 66 outputs, for example, audio regarding an operation instruction for switching between automatic operation and manual operation.

操作入力部68は、乗員の入力を受け付ける。操作入力部68は、例えば、タッチパネルである。操作入力部68は、表示部64の表示画面に設けられている。操作入力部68は、表示部64が表示する画像を透過可能に構成されている。これにより、操作入力部68は、表示部64の表示画面に表示される画像を乗員に視認させることができる。操作入力部68は、表示部64の表示画面に表示される画像に対応した位置を乗員が触れることによって入力した指示を受け付けて、車両制御装置34へ送信する。なお、操作入力部68は、タッチパネルに限らず、押しボタン式等のハードスイッチであってもよい。 The operation input unit 68 receives input from the passenger. The operation input unit 68 is, for example, a touch panel. The operation input section 68 is provided on the display screen of the display section 64 . The operation input unit 68 is configured to allow the image displayed by the display unit 64 to pass therethrough. Thereby, the operation input unit 68 allows the passenger to visually recognize the image displayed on the display screen of the display unit 64 . The operation input unit 68 receives an instruction input by the occupant by touching a position corresponding to the image displayed on the display screen of the display unit 64 and transmits the instruction to the vehicle control device 34 . Note that the operation input unit 68 is not limited to a touch panel, and may be a hard switch such as a push button type.

車両制御装置34は、ECU(Electronic Control Unit)等のマイクロコンピュータを含むコンピュータであり、車両10の自動運転による走行や駐車支援等の制御を行う。 The vehicle control device 34 is a computer including a microcomputer such as an ECU (Electronic Control Unit), and performs control such as automatic driving of the vehicle 10 and parking assistance.

車両制御装置34は、CPU34aと、ROM(Read Only Memory)34bと、RAM(Random Access Memory)34cと、表示制御部34dと、音声制御部34eと、SSD(Solid State Drive)34fと、を備える。CPU34a、ROM34bおよびRAM34cは、同一パッケージ内に集積されていてもよい。 The vehicle control device 34 includes a CPU 34a, a ROM (Read Only Memory) 34b, a RAM (Random Access Memory) 34c, a display control section 34d, an audio control section 34e, and an SSD (Solid State Drive) 34f. . The CPU 34a, ROM 34b and RAM 34c may be integrated in the same package.

CPU34aは、ハードウェアプロセッサの一例であって、ROM34b等の不揮発性の記憶装置に記憶されたプログラムを読み出して、当該プログラムにしたがって各種の演算処理および制御を実行する。CPU34aは、例えば、車両10の自動運転による走行や駐車支援を実行する。 The CPU 34a is an example of a hardware processor, reads programs stored in a non-volatile storage device such as the ROM 34b, and executes various arithmetic processes and controls according to the programs. The CPU 34a executes, for example, automatic driving of the vehicle 10 and parking assistance.

ROM34bは、各プログラムおよびプログラムの実行に必要なパラメータ等を記憶する。RAM34cは、CPU34aでの演算で用いられる各種のデータを一時的に記憶する。表示制御部34dは、車両制御装置34での演算処理のうち、主として、表示部64に表示させる表示用の画像のデータ変換等を実行する。音声制御部34eは、車両制御装置34での演算処理のうち、主として、音声出力部66に出力させる音声の処理を実行する。SSD34fは、書き換え可能な不揮発性の記憶装置であって、車両制御装置34の電源がオフされた場合にあってもデータを維持する。 The ROM 34b stores each program and parameters necessary for executing the program. The RAM 34c temporarily stores various data used in calculations by the CPU 34a. The display control unit 34 d mainly performs data conversion of images for display to be displayed on the display unit 64 among the arithmetic processing in the vehicle control device 34 . The voice control unit 34e mainly executes voice processing to be output to the voice output unit 66 among the arithmetic processing in the vehicle control device 34. FIG. The SSD 34f is a rewritable non-volatile storage device that retains data even when the vehicle control device 34 is powered off.

車内ネットワーク36は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)等を含む。車内ネットワーク36は、加速システム24と、制動システム22と、操舵システム26と、変速システム28と、超音波センサ16と、車速センサ30と、モニタ装置32の操作入力部68と、車両制御装置34とを互いに情報を送受信可能に接続する。 The in-vehicle network 36 includes, for example, CAN (Controller Area Network), LIN (Local Interconnect Network), and the like. The in-vehicle network 36 includes the acceleration system 24, the braking system 22, the steering system 26, the transmission system 28, the ultrasonic sensor 16, the vehicle speed sensor 30, the operation input unit 68 of the monitor device 32, the vehicle control device 34 and are connected to each other so that information can be sent and received.

図3は、実施形態の車両制御装置34の機能構成を示すブロック図である。図3に示すように、車両制御装置34は、機能構成として、取得部341と、正規化部342と、物体検出部343と、計算部344と、波形抽出部345と、解析部346と、パラメータ抽出部347と、人体検出部348と、制御部349と、を備える。これらの各機能構成は、CPU34aがROM34b等の記憶装置に記憶されたプログラムを読み出しそれを実行することにより、実現される。なお、各機能構成の一部または全部は、ASIC(Application Specific Integrated Circuit)を含む回路等のハードウェアによって構成されてもよい。 FIG. 3 is a block diagram showing the functional configuration of the vehicle control device 34 of the embodiment. As shown in FIG. 3, the vehicle control device 34 includes, as a functional configuration, an acquisition unit 341, a normalization unit 342, an object detection unit 343, a calculation unit 344, a waveform extraction unit 345, an analysis unit 346, A parameter extraction unit 347 , a human body detection unit 348 , and a control unit 349 are provided. These functional configurations are realized by the CPU 34a reading a program stored in a storage device such as the ROM 34b and executing it. Part or all of each functional configuration may be configured by hardware such as a circuit including an ASIC (Application Specific Integrated Circuit).

なお、各部341~348は、人体検出装置3400を構成する。また、人体検出装置3400を含む車両制御装置34と、制動制御部42とは、AEB(Advanced Emergency Braking)システム(衝突被害軽減ブレーキシステム)(ブレーキ制御システムの例)を構成する。 Note that each unit 341 to 348 constitutes a human body detection device 3400 . Further, the vehicle control device 34 including the human body detection device 3400 and the braking control section 42 configure an AEB (Advanced Emergency Braking) system (collision damage mitigation braking system) (an example of a braking control system).

取得部341は、各構成から各種データを取得する。取得部341は、例えば、所定領域に対して送信した超音波の反射波を受信した超音波センサ16から検出情報を取得する。 The acquisition unit 341 acquires various data from each configuration. For example, the acquisition unit 341 acquires detection information from the ultrasonic sensor 16 that has received a reflected wave of an ultrasonic wave transmitted to a predetermined area.

正規化部342は、検出情報に応じた反射波波形を、超音波の反射物体(例えば、路面、人体(歩行者等)、他の車両等)までの距離、および、超音波に関する距離に応じた減衰特性情報(例えば減衰関数)に基づいて、正規化する。 The normalization unit 342 converts the reflected wave waveform according to the detection information into a distance to an object reflecting the ultrasonic wave (for example, a road surface, a human body (pedestrian, etc.), another vehicle, etc.) and a distance related to the ultrasonic wave. Normalization is performed based on the attenuation characteristic information (for example, attenuation function).

ここで、図4は、実施形態における超音波の反射波波形の正規化の説明図である。超音波センサ16から発せられた超音波は減衰特性を有している。この減衰特性から反射物体との距離が離れているほど反射波波形の振幅値は小さくなるので、スケールを合わせるために減衰関数にて正規化を行う。この減衰関数は、例えば、反射物体が路面以外に何もない状態で取得した反射波波形に対してフィッテイングを行って定義することができるが、減衰関数導出の手法はこれに限定されない。図4(a)の正規化前の反射波波形では微小だった対象物(路面以外)付近の振幅(距離が2100程度の部分の振幅)が、図4(b)の正規化後の反射波波形では大きく立ち上がっていることが確認できる。 Here, FIG. 4 is an explanatory diagram of normalization of the reflected wave waveform of ultrasonic waves in the embodiment. Ultrasonic waves emitted from the ultrasonic sensor 16 have attenuation characteristics. From this attenuation characteristic, since the amplitude value of the reflected wave waveform decreases as the distance from the reflecting object increases, normalization is performed using an attenuation function in order to match the scale. This attenuation function can be defined by, for example, fitting a reflected wave waveform acquired in a state where there is nothing but the road surface as a reflecting object, but the method of deriving the attenuation function is not limited to this. The amplitude near the object (other than the road surface), which was minute in the reflected wave waveform before normalization in FIG. It can be confirmed that there is a large rise in the waveform.

図3に戻って、物体検出部343は、正規化部342によって正規化された反射波波形におけるピークが所定の閾値以上であった場合に、所定領域に物体(路面以外の対象物)を検出したと判定する。なお、ピークの検出については、このような閾値判定に限定されず、ピーク検出アルゴリズム(例えばCFAR(Constant False Alarm Rate)など)を使用するなど、他の手法を用いてもよい。 Returning to FIG. 3, the object detection unit 343 detects an object (an object other than the road surface) in a predetermined area when the peak of the reflected wave waveform normalized by the normalization unit 342 is equal to or greater than a predetermined threshold. It is determined that Peak detection is not limited to such threshold determination, and other methods such as using a peak detection algorithm (for example, CFAR (Constant False Alarm Rate)) may be used.

計算部344は、物体検出部343によって物体が検出された場合に、正規化後の反射波波形に基づいて物体の位置と速度を計算する。具体的には、正規化後の反射波波形に基づいて物体の位置を時系列に計算し、時系列の位置に基づいて速度を計算する。 When the object detection unit 343 detects an object, the calculation unit 344 calculates the position and speed of the object based on the normalized reflected wave waveform. Specifically, the position of the object is calculated in time series based on the normalized reflected wave waveform, and the velocity is calculated based on the position in time series.

波形抽出部345は、物体検出部343によって物体が検出された場合に、正規化後の反射波波形からピークを含む所定範囲の反射波波形を抽出(以下、ピーク近傍抽出ともいう。)する。ここで、図5は、実施形態における反射波波形のピーク近傍抽出の説明図である。反射波波形のピークとは、対象物に対応する部分の波形で振幅値が最も大きくなっている点を指す。ピーク近傍(ピーク座標付近の波形)の抽出を行わずに距離別の人体判別精度を調べると、遠距離(5~7m)において不自然な結果となる場合があることが実験でわかっている。この原因として、図5(a)に示すように、生データでは、対象物ごとのピーク値時間座標にずれがある点が考えられる。この対策として、取得した反射波波形のピーク値の前後200ステップ分について抽出し、ピーク値時間座標を揃える処理を行う。図5(b)は、ピーク値時間座標を揃える処理を行った後の波形の一例である。また、これまでの知見から、ピーク近傍をその後の処理で使用することで汎化誤差を低減できることが分かっている。 When the object detection unit 343 detects an object, the waveform extraction unit 345 extracts a reflected wave waveform in a predetermined range including a peak from the normalized reflected wave waveform (hereinafter also referred to as near-peak extraction). Here, FIG. 5 is an explanatory diagram of extraction of the vicinity of the peak of the reflected wave waveform in the embodiment. The peak of the reflected wave waveform refers to the point where the amplitude value is the largest in the portion of the waveform corresponding to the object. Experiments have shown that if the accuracy of human body discrimination is investigated for each distance without extracting the vicinity of the peak (waveform near the peak coordinates), unnatural results may occur at long distances (5 to 7 m). As a cause of this, as shown in FIG. 5(a), in the raw data, it is considered that there is a deviation in the peak value time coordinate for each object. As a countermeasure, 200 steps before and after the peak value of the acquired reflected wave waveform are extracted, and the peak value time coordinates are aligned. FIG. 5(b) is an example of the waveform after the process of aligning the peak value time coordinates. Also, from the knowledge so far, it is known that the generalization error can be reduced by using the vicinity of the peak in the subsequent processing.

図3に戻って、解析部346は、波形抽出部345によって抽出した所定範囲の反射波波形に対して、時間情報を失わない所定の周波数解析を行って複数のパラメータを生成する。時間情報を失わない所定の周波数解析としては、例えば、ウェーブレット変換がある。 Returning to FIG. 3, the analysis unit 346 performs predetermined frequency analysis without loss of time information on the reflected wave waveform in the predetermined range extracted by the waveform extraction unit 345 to generate a plurality of parameters. A predetermined frequency analysis that does not lose time information is, for example, a wavelet transform.

ここで、図6は、実施形態におけるウェーブレット変換の対象データ例を示すグラフである。ウェーブレット変換は周波数解析の手法の一つで、フーリエ変換では周波数空間へ写像する際に失われてしまう時間情報を保持できるという特徴をもつ。これにより、対象とする波形の各時点における周波数成分の多寡を把握することができる。 Here, FIG. 6 is a graph showing an example of target data for wavelet transform in the embodiment. Wavelet transform is one of the methods of frequency analysis, and has the feature that Fourier transform can retain time information that is lost when mapping to frequency space. This makes it possible to grasp the amount of frequency components at each time point of the target waveform.

具体的には、フーリエ変換は窓関数を用いることで時間領域の情報を残すことができるが(STFT(Short-Time Fourier Transform):短時間フーリエ変換)、窓幅を周波数に合わせて固定することが必要となるため、広い周波数領域の解析には向かない。 Specifically, the Fourier transform can retain information in the time domain by using a window function (STFT (Short-Time Fourier Transform)), but the window width must be fixed according to the frequency. is required, so it is not suitable for analysis of a wide frequency range.

一方、連続ウェーブレット変換の関係式は、以下の式(1)の通りである。なお、tは時間である。x(t)は元信号である。WΨは基底関数Ψに基づいたウェーブレット変換である。aはスケールパラメータである。bはシフトパラメータである。*は複素共役である。なお、a,bは連続的な実数である。

Figure 2022142252000002
On the other hand, the relational expression of continuous wavelet transform is as shown in the following equation (1). Note that t is time. x(t) is the original signal. W Ψ is the wavelet transform based on the basis functions Ψ. a is the scale parameter. b is a shift parameter. * is the complex conjugate. Note that a and b are continuous real numbers.
Figure 2022142252000002

また、連続ウェーブレット変換の基底関数の例は、以下の式(2)で示されるメキシカンハット関数である。

Figure 2022142252000003
Also, an example of the basis function of the continuous wavelet transform is the Mexican hat function shown in Equation (2) below.
Figure 2022142252000003

ここで、図7は、実施形態におけるウェーブレット変換の基底関数例のメキシカンハット関数を示すグラフである。そして、用意した基底関数(メキシカンハット関数)に対して、拡大縮小のスケーリングを行い、様々な波の幅を持つ基底関数群を作る。波の幅が広ければ低周波数、狭ければ高周波数の波である。ここで、用意した様々な周波数成分を持つ基底関数群をそれぞれ対象の波形に対して時間軸方向に平行移動させながら内積をとる。これにより、複数のパラメータが得られる。 Here, FIG. 7 is a graph showing a Mexican hat function as an example of basis functions for wavelet transform in the embodiment. Then, the prepared basis functions (Mexican hat functions) are scaled to create a group of basis functions having various wave widths. If the width of the wave is wide, it is a low-frequency wave, and if it is narrow, it is a high-frequency wave. Here, the inner product is taken while translating each of the prepared basis function groups having various frequency components in the time axis direction with respect to the target waveform. This yields multiple parameters.

図3に戻って、パラメータ抽出部347は、解析部346によって生成された複数のパラメータのうち、物体が人体か否かを判別するためのパラメータを抽出する。例えば、パラメータ抽出部347は、予め記憶部(SSD34fなど)に記憶されたパラメータ抽出に関する機械学習データに基づいて、複数のパラメータのうち、物体が人体か否かを判別するためのパラメータを抽出する。つまり、予め機械学習により、複数のパラメータのうち、物体が人体か否かを判別するために大きく寄与するパラメータを特定しておく。ただし、パラメータ抽出の手法はこれに限定されず、ほかに、予めルールベースで決めておいてもよい。また、抽出するパラメータの数も、特に限定は無く、いくつでもよい。 Returning to FIG. 3, the parameter extraction unit 347 extracts parameters for determining whether or not the object is a human body from among the plurality of parameters generated by the analysis unit 346. FIG. For example, the parameter extraction unit 347 extracts a parameter for determining whether an object is a human body or not from among a plurality of parameters based on machine learning data related to parameter extraction stored in advance in a storage unit (such as the SSD 34f). . That is, machine learning is performed in advance to identify, among a plurality of parameters, parameters that greatly contribute to determining whether an object is a human body or not. However, the method of parameter extraction is not limited to this, and may be determined in advance on a rule basis. Also, the number of parameters to be extracted is not particularly limited and may be any number.

人体検出部348は、パラメータ抽出部347によって抽出されたパラメータに基づいて、物体が人体か否かを判別して人体を検出する。例えば、人体検出部348は、抽出されたパラメータ、および、物体の位置と速度に基づいて、物体が人体か否かを判別して人体を検出する。 The human body detection unit 348 detects a human body by determining whether the object is a human body based on the parameters extracted by the parameter extraction unit 347 . For example, the human body detection unit 348 detects a human body by determining whether the object is a human body based on the extracted parameters and the position and speed of the object.

制御部349は、各種制御を行う。制御部349は、例えば、各システム22、24、26、28の全部または一部を制御することによる車両10の自動運転によって、車両10の走行や駐車支援等を制御する。また、制御部349は、例えば、制動制御部42に対して、制動の指示を送信する。制動制御部42は、人体検出装置3400による人体の検出結果に基づいて車両のブレーキを制御する。例えば、人体検出装置3400によって車両10の周囲に人体(歩行者等)が検出された場合、制動制御部42は、制御部349からの指示(停止制御信号)に基づいて、制動部40を制御して、人体以外(例えば路上の落下物など)が検出された場合よりも早く車両10が停車するように車両10の制動を制御する。 The control unit 349 performs various controls. The control unit 349 controls the running of the vehicle 10, parking assistance, etc. by controlling all or part of the systems 22, 24, 26, and 28, for example, so that the vehicle 10 automatically operates. Also, the control unit 349 transmits a braking instruction to the braking control unit 42, for example. The braking control unit 42 controls the braking of the vehicle based on the human body detection result by the human body detection device 3400 . For example, when a human body (pedestrian, etc.) is detected around the vehicle 10 by the human body detection device 3400, the braking control unit 42 controls the braking unit 40 based on an instruction (stop control signal) from the control unit 349. Then, braking of the vehicle 10 is controlled so that the vehicle 10 stops earlier than when an object other than a human body (for example, an object falling on the road) is detected.

次に、図8は、実施形態の車両制御システム20による全体処理を示すフローチャートである。ステップS1において、制御部349は、車両10が低速領域での走行中か否かを判定し、Yesの場合はステップS2に進み、Noの場合はステップS1に戻る。つまり、車両が低速領域で走行している場合には、AEBシステムを作動させる。また、ここでは前後進のどちらも含むこととする。 Next, FIG. 8 is a flowchart showing overall processing by the vehicle control system 20 of the embodiment. In step S1, the control unit 349 determines whether or not the vehicle 10 is traveling in a low speed region. If Yes, the process proceeds to step S2, and if No, the process returns to step S1. That is, the AEB system is activated when the vehicle is traveling in a low speed region. In addition, both forward and backward movement are included here.

ステップS2において、超音波センサ16は超音波を生成する。次に、ステップS3において、超音波センサ16は車両10の超音波を出力する。 In step S2, the ultrasonic sensor 16 generates ultrasonic waves. Next, in step S<b>3 , the ultrasonic sensor 16 outputs ultrasonic waves from the vehicle 10 .

次に、ステップS4において、超音波センサ16は、超音波の反射波を受信する。次に、ステップS5において、人体検出装置3400は、人体判別処理を行う。ここで、図9は、図8のステップS5の処理の詳細を示すフローチャートである。 Next, in step S4, the ultrasonic sensor 16 receives the reflected ultrasonic waves. Next, in step S5, the human body detection device 3400 performs human body discrimination processing. Here, FIG. 9 is a flow chart showing the details of the process of step S5 in FIG.

ステップS501において、人体検出装置3400は、初期化を行う。次に、ステップS502において、正規化部342は、超音波の反射波波形を読み込む。 In step S501, the human body detection device 3400 is initialized. Next, in step S502, the normalization unit 342 reads the reflected wave waveform of the ultrasonic wave.

次に、ステップS503において、正規化部342は、超音波の反射物体までの距離、および、超音波に関する距離に応じた減衰特性情報(例えば減衰関数)に基づいて、反射波波形を正規化(振幅スケールの正規化)する。 Next, in step S503, the normalization unit 342 normalizes the reflected wave waveform ( amplitude scale normalization).

次に、ステップS504において、物体検出部343は、ステップS503において正規化された反射波波形におけるピークが所定の閾値以上であるか否かで、物体(路面以外の対象物)を検出したか否かを判定する。 Next, in step S504, the object detection unit 343 determines whether an object (an object other than the road surface) is detected based on whether the peak of the reflected wave waveform normalized in step S503 is equal to or greater than a predetermined threshold. determine whether

次に、ステップS505において、物体検出部343は、物体を検出した場合(Yes)、ステップS506に進み、物体を検出しなかった場合(No)、ステップS5の処理を終了する。 Next, in step S505, when the object detection unit 343 detects an object (Yes), the process proceeds to step S506, and when the object is not detected (No), the process of step S5 ends.

ステップS506において、計算部344は、対象物の状態推定処理を行う。ここで、図10は、図9のステップS506の処理の詳細を示すフローチャートである。 In step S506, the calculation unit 344 performs state estimation processing of the object. Here, FIG. 10 is a flowchart showing the details of the processing in step S506 of FIG.

ステップS521において、計算部344は、正規化された反射波波形を読み込む。次に、ステップS522において、対象物の座標(位置)を推定(計算)する。 In step S521, the calculator 344 reads the normalized reflected wave waveform. Next, in step S522, the coordinates (position) of the object are estimated (calculated).

次に、ステップS523において、計算部344は、座標推定を正常に終了したか否かを判定し、Yesの場合はステップS524に進み、Noの場合はステップS506の処理を終了する。 Next, in step S523, the calculation unit 344 determines whether or not the coordinate estimation has ended normally. If Yes, the process proceeds to step S524, and if No, the process of step S506 ends.

ステップS524において、計算部344は、物体の時系列の座標に基づいて速度を推定(計算)し、ステップS506の処理を終了する。 In step S524, the calculation unit 344 estimates (calculates) the velocity based on the time-series coordinates of the object, and ends the process of step S506.

図9に戻って、ステップS506の後、ステップS507において、波形抽出部345は、正規化された反射波波形のピーク近傍抽出を行う。 Returning to FIG. 9, after step S506, in step S507, the waveform extraction unit 345 performs peak vicinity extraction of the normalized reflected wave waveform.

次に、ステップS508において、解析部346は、ステップS507において抽出した反射波波形に対してウェーブレット変換を行って複数のパラメータを生成する。 Next, in step S508, the analysis unit 346 performs wavelet transform on the reflected wave waveform extracted in step S507 to generate a plurality of parameters.

次に、ステップS509において、パラメータ抽出部347は、ステップS508において生成された複数のパラメータのうち、物体が人体か否かを判別することに関して高寄与度のパラメータを抽出する。 Next, in step S509, the parameter extracting unit 347 extracts, from among the plurality of parameters generated in step S508, parameters that contribute highly to determining whether the object is a human body.

次に、ステップS510において、人体検出部348は、ステップS509において抽出されたパラメータに基づいて、対象物の分類を行う。つまり、物体が人体か否かを判別する。その場合、例えば、抽出されたパラメータに加えて物体の位置と速度に基づいて、物体が人体か否かを判別する。 Next, in step S510, the human body detection unit 348 classifies the object based on the parameters extracted in step S509. That is, it determines whether the object is a human body. In that case, for example, whether or not the object is a human body is determined based on the position and speed of the object in addition to the extracted parameters.

次に、ステップS511において、人体検出部348は、分類結果を出力し、ステップS5の処理を終了する。 Next, in step S511, the human body detection unit 348 outputs the classification result, and ends the processing of step S5.

図8に戻って、ステップS5の後、ステップS6において、人体検出装置3400は、人体を検出した場合(Yes)、ステップS7に進み、人体を検出しなかった場合(No)、ステップS4に戻る。 Returning to FIG. 8, after step S5, in step S6, if the human body detection device 3400 detects a human body (Yes), the process proceeds to step S7.If no human body is detected (No), the process returns to step S4. .

ステップS7において、制御部349は、制動制御部42に、分類結果に応じた停止制御信号を送信する。次に、ステップS8において、制動制御部42は、制御部349から停止制御信号を受信する。 In step S7, the control section 349 transmits a stop control signal to the braking control section 42 according to the classification result. Next, in step S<b>8 , the braking control section 42 receives a stop control signal from the control section 349 .

次に、ステップS9において、制動制御部42は、停止制御信号に基づいて、制動部40を制御して、車両10の制動を制御する。例えば、車両10の周囲に人体(歩行者等)が検出された場合、制動制御部42は、制御部349からの指示(停止制御信号)に基づいて、制動部40を制御して、人体以外(例えば路上の落下物など)が検出された場合よりも早く車両10が停車するように車両10の制動を制御する。 Next, in step S9, the braking control section 42 controls braking of the vehicle 10 by controlling the braking section 40 based on the stop control signal. For example, when a human body (pedestrian or the like) is detected around the vehicle 10, the braking control unit 42 controls the braking unit 40 based on an instruction (stop control signal) from the control unit 349 to To control braking of a vehicle 10 so that the vehicle 10 stops earlier than when an object (for example, a falling object on the road) is detected.

次に、ステップS10において、制動制御部42は、車両10が停止したか否かを判定し、Yesの場合はステップS11に進み、Noの場合はステップS9に戻る。 Next, in step S10, the braking control unit 42 determines whether or not the vehicle 10 has stopped. If Yes, the process proceeds to step S11, and if No, the process returns to step S9.

ステップS11において、制御部349は、AEB制御を解除し、処理を終了する。 In step S11, the control unit 349 cancels the AEB control and terminates the process.

このように、本実施形態の車両制御システム20によれば、超音波の反射波波形の正規化と、正規化された反射波波形におけるピークに基づく物体検出と、反射波波形に対する時間情報を失わない所定の周波数解析によるパラメータ生成と、人体判別用のパラメータ抽出と、抽出パラメータに基づく人体検出とによって、超音波センサ16によって得られたデータのみに基づいて人体を検出することができる。 Thus, according to the vehicle control system 20 of the present embodiment, normalization of the reflected wave waveform of ultrasonic waves, object detection based on the peaks in the normalized reflected wave waveform, and loss of time information with respect to the reflected wave waveform are performed. A human body can be detected based only on the data obtained by the ultrasonic sensor 16 by generating parameters by a predetermined frequency analysis, extracting parameters for human body discrimination, and detecting a human body based on the extracted parameters.

つまり、本来低解像度である超音波センサ16による検出情報のみに基づいて高精度に人体判別を行うことができる。また、超音波センサ16から得られた反射波波形のみで障害物の検知とその分類(人間か否かの分類)が可能になるので、同工程において従来使用していたセンサやチップの削減が可能となる。また、他センサと併用した場合においても、システムの冗長性の観点から堅牢な安全性システムの構築が可能となるという作用効果を奏する。 In other words, the human body can be determined with high accuracy based only on the information detected by the ultrasonic sensor 16, which originally has a low resolution. In addition, since it is possible to detect obstacles and classify them (classify whether they are human or not) only with the reflected wave waveform obtained from the ultrasonic sensor 16, the conventionally used sensors and chips can be reduced in the same process. It becomes possible. In addition, even when used in combination with other sensors, it is possible to construct a robust safety system from the standpoint of system redundancy.

また、抽出されたパラメータに加えて物体の位置と速度に基づくことで、人体検出精度をさらに向上させることができる。これは、例えば、人体の場合の位置や速度のパターンと、人体以外の場合の位置や速度のパターンと、に基づいた所定のアルゴリズムによって実現できる。 In addition to the extracted parameters, based on the position and speed of the object, the human body detection accuracy can be further improved. This can be realized, for example, by a predetermined algorithm based on the position and velocity patterns of the human body and the position and velocity patterns of the non-human body.

また、時間情報を失わない所定の周波数解析として具体的にウェーブレット変換を用いることで、より高精度な人体検出結果を得ることができる。これは、例えば、フーリエ変換の場合と比べると、対象とする波形の各時点における周波数成分の多寡を把握可能であること等に起因する。 Further, by specifically using wavelet transform as a predetermined frequency analysis that does not lose time information, a more accurate human body detection result can be obtained. This is because, for example, compared to the case of Fourier transform, it is possible to grasp the amount of frequency components at each time point of the target waveform.

また、パラメータ抽出に関する機械学習データに基づいて、複数のパラメータのうち人物判別用のパラメータを高精度に抽出することができる。 Further, based on machine learning data related to parameter extraction, a parameter for person discrimination can be extracted with high accuracy from among the plurality of parameters.

また、車両10に搭載された人体検出装置3400と、人体検出装置3400による人体の検出結果に基づいて車両10のブレーキを制御する制動制御部42と、によって、より効果的なAEBシステムを実現することができる。 A more effective AEB system is realized by the human body detection device 3400 mounted on the vehicle 10 and the braking control unit 42 that controls the brakes of the vehicle 10 based on the human body detection result of the human body detection device 3400. be able to.

以下、従来技術との比較について説明する。例えば、従来技術(特許第6643166号公報)は、レーダ装置を用いて複数の反射点から検出したレーダ物標と、撮像装置で撮影した画像から検出した画像物標を基に、自車両の周囲に存在する物体を認識する物体認識装置に関する技術である。レーダ装置で検出できなかった物標が画像単独物標に含まれている場合に、物体を検出したと判定する。また、画像単独物標が他車両の際、レーダ装置から取得した距離情報と撮影装置から取得した方位角情報から他車両の車両幅を算出する。 A comparison with the prior art will be described below. For example, in the prior art (Japanese Patent No. 6643166), based on a radar target detected from a plurality of reflection points using a radar device and an image target detected from an image captured by an imaging device, It is a technology related to an object recognition device that recognizes an object existing in a space. It is determined that an object has been detected when a target that could not be detected by the radar device is included in the image single target. Also, when the image single target is another vehicle, the vehicle width of the other vehicle is calculated from the distance information acquired from the radar device and the azimuth angle information acquired from the photographing device.

この従来技術は、複数のセンサを用いたフュージョンでの物体認識システムで、レーダで検出できなかった物体をカメラ画像で検出した場合、物体有と判定する。しかし、カメラ画像による物体認識は雨や霧などの天候の影響を大きく受けるため条件次第では見落としが発生するケースも考えられる。レーダやカメラで見落としが発生する条件に対して今後の自動運転で主流になると思われるLidarを使用しても完全には解決することはできず、またシステムが重畳化するため有効ではない。 This prior art is an object recognition system by fusion using a plurality of sensors, and when an object that could not be detected by radar is detected by a camera image, it is determined that the object exists. However, object recognition using camera images is greatly affected by weather such as rain and fog, so there may be cases where oversights occur depending on the conditions. The use of lidar, which is expected to become mainstream in autonomous driving in the future, cannot completely solve the conditions in which radar and camera oversights occur, and it is not effective because the system is superimposed.

一方、本実施形態の技術によれば、カメラ画像を用いないため、雨や霧などの天候の影響を比較的受けにくい。また、超音波センサ16による検出情報のみで高精度な人体検出を可能としたので、簡潔なシステムで済む。 On the other hand, according to the technology of the present embodiment, since the camera image is not used, it is relatively less susceptible to weather such as rain and fog. In addition, since highly accurate human body detection is made possible only with the information detected by the ultrasonic sensor 16, a simple system is sufficient.

また、例えば、他の従来技術(特許第6657934号公報)は、レーザーセンサにより計測された複数の計測点に基づいて、物体候補を出力する人物検出装置に関する技術である。初めにレーザーセンサで計測された点の3次元空間上の位置や反射強度に基づいて、それぞれの計測点が路面か路面上の物体かを分類する。その後、路面上の物体と分類された点群についてクラスタリングを行い、それぞれの物体を検出・認識する。 Further, for example, another prior art (Japanese Patent No. 6657934) relates to a person detection device that outputs object candidates based on a plurality of measurement points measured by a laser sensor. First, each measurement point is classified as a road surface or an object on the road surface based on the position in the three-dimensional space and the reflection intensity of the point measured by the laser sensor. After that, clustering is performed for the point cloud classified as an object on the road surface, and each object is detected and recognized.

レーザーセンサから取得できるデータで可能なこととして、車両に搭載した場合だと周囲を走行している車両や歩行者、建物までの距離や形状、その位置関係などを3次元情報として認識できることが挙げられる。これには発射したレーザーパルスが物体に当たって反射したポイントごとの3次元座標(点群)を用いている。ここから分かるように実環境では対象物が非常に多いため扱うデータ量が膨大になることが問題である。 One of the things that can be done with the data that can be obtained from a laser sensor is that if it is installed in a vehicle, it will be possible to recognize vehicles, pedestrians, distances and shapes to buildings, and their positional relationships as 3D information. be done. This uses the three-dimensional coordinates (point cloud) of each point where the emitted laser pulse hits the object and is reflected. As can be seen from this, there is a problem that the amount of data to be handled becomes enormous because there are so many objects in the actual environment.

一方、本実施形態の技術によれば、超音波センサ16による検出情報のみを用いるため、扱うデータ量が小さく済む。 On the other hand, according to the technology of this embodiment, only the information detected by the ultrasonic sensor 16 is used, so the amount of data to be handled can be reduced.

また、例えば、さらに他の従来技術(特開2006-250927号公報)は、受信した超音波の反射波特性から、車外対象物の種類(人・壁・車両)を判別し、衝突対象に応じて乗員を拘束するべきか否かを判断する技術である。ここでの反射波特性とは反射波の波形の積分値・高調波・最大振幅を示しており、この中の少なくとも2つを用いる。 Further, for example, still another prior art (Japanese Patent Application Laid-Open No. 2006-250927) discriminates the type of object outside the vehicle (person, wall, vehicle) from the reflected wave characteristics of the received ultrasonic wave, and determines the collision object. It is a technique for judging whether or not to restrain the occupant according to the situation. The reflected wave characteristic here indicates the integrated value, harmonics, and maximum amplitude of the waveform of the reflected wave, and at least two of them are used.

この従来技術では、車外対象物の種類を判別する際に反射波形の最大振幅値・積分値を用いている。しかし、最大振幅値は対象物が近距離の場合、床面からはね返る反射波の影響を受けるため、対象物からの反射波における最大振幅値とは異なる値が返ってくるケースが考えられる。また、システムフローを見ると受信波に対する前処理はエンベロープ処理のみである。この処理のみの場合、超音波の減衰特性により対象物ごとの積分値の差異が小さくなることが考えられ、遠距離の対象物には高い判別精度が見込めない。以上より、この従来技術は、AEBシステムにとって必要な人体検出精度を実現できない可能性が高い。 In this prior art, the maximum amplitude value/integrated value of the reflected waveform is used to discriminate the type of the object outside the vehicle. However, when the object is at a short distance, the maximum amplitude value is affected by the reflected wave that bounces off the floor surface. Also, looking at the system flow, the preprocessing for received waves is only envelope processing. In the case of only this processing, it is conceivable that the difference in the integrated value for each object becomes small due to the attenuation characteristics of ultrasonic waves, and high discrimination accuracy cannot be expected for long-distance objects. From the above, there is a high possibility that this prior art cannot achieve the human body detection accuracy required for the AEB system.

一方、本実施形態の技術によれば、上述のように、超音波に関する距離に応じた減衰特性情報(例えば減衰関数)に基づいて反射波波形を正規化することにより、遠距離の対象物についても高い判別精度を見込めるので、AEBシステムにとって必要な人体検出精度を実現できる。 On the other hand, according to the technology of the present embodiment, as described above, by normalizing the reflected wave waveform based on the attenuation characteristic information (for example, attenuation function) according to the distance regarding the ultrasonic wave, Therefore, it is possible to achieve the human body detection accuracy required for the AEB system.

また、例えば、さらに他の従来技術(特開2012-189441号公報)は、人に特徴的な性質を利用して、静止した人とそれ以外の静止した物体との識別が可能な人物検出装置に関する技術である。各回の超音波送受信波の時系列パターンの時間的な変動量と、パターン識別手法により算出した現在の対象物に関しての人との類似度で、静止している障害物が人であるか否かを判別する。ここでの変動量は0番目の受信波形とそれ以降の各受信波形の内積の標準偏差を表し、また、類似度はパターン識別手法で算出した障害物の人らしさの程度を表す値である。 Further, for example, still another prior art (Japanese Patent Application Laid-Open No. 2012-189441) discloses a human detection device capable of distinguishing between a stationary person and other stationary objects by using characteristics characteristic of humans. It is a technology related to Whether or not a stationary obstacle is a person is determined based on the amount of temporal variation in the time-series pattern of ultrasonic waves transmitted and received each time, and the degree of similarity between the current object and the person calculated by the pattern identification method. determine. Here, the amount of variation represents the standard deviation of the inner product of the 0th received waveform and subsequent received waveforms, and the degree of similarity is a value representing the human-likeness of the obstacle calculated by the pattern identification method.

この技術は対象物を静止している物体に限定しているが、車両に搭載する人体判別システムでは対象物の状態に依存しないのが望ましい。また、物体を判別するのに使用している変動量について、物体が静止しているということは音波が当たる面がほとんど変わらないため、反射波のエネルギー量のばらつきが小さくなり対象物ごとの差異が見えやすい。しかし、対象物が動いている場合、例えば人間だと音波が当たる面が各波形で異なるためばらつきが大きくなり特徴量として扱えない。以上より対象物が動いている場合には本技術は使用できないと考えられる。 Although this technique limits objects to stationary objects, it is desirable that the human body identification system mounted on a vehicle does not depend on the state of the object. In addition, regarding the amount of variation used to identify an object, if the object is stationary, the surface on which the sound wave hits hardly changes, so the variation in the energy amount of the reflected wave becomes small, and the difference between objects is easy to see. However, when the object is moving, for example, in the case of a human being, the surface on which the sound wave hits is different for each waveform, so the variation becomes large and it cannot be handled as a feature amount. From the above, it is considered that this technique cannot be used when the object is moving.

一方、本実施形態の技術によれば、超音波の反射波波形を用いて上述のような処理を行うという技術の特性上、対象物が動いている場合にも充分に使用できる。 On the other hand, according to the technology of the present embodiment, due to the characteristics of the technology in which the above-described processing is performed using the reflected waveform of the ultrasonic wave, it can be sufficiently used even when the object is moving.

なお、車両制御装置34で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、当該プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、当該プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。 The program for executing the above-described processing executed by the vehicle control device 34 is stored as a file in an installable format or an executable format on a CD-ROM, a CD-R, a memory card, a DVD (Digital Versatile Disk), It may be stored in a computer-readable storage medium such as a flexible disk (FD) and provided as a computer program product. Alternatively, the program may be stored on a computer connected to a network such as the Internet, and provided by being downloaded via the network. Also, the program may be provided or distributed via a network such as the Internet.

以上、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described above, the above embodiment is presented as an example and is not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and its equivalents.

例えば、ウェーブレット変換の基底関数は、メキシカンハット関数に限定されず、他の基底関数を用いてもよい。 For example, the wavelet transform basis function is not limited to the Mexican hat function, and other basis functions may be used.

また、超音波センサ16の個数は12個に限定されず、他の個数であってもよい。 Also, the number of ultrasonic sensors 16 is not limited to twelve, and may be another number.

10…車両、16…超音波センサ、20…車両制御システム、34…車両制御装置、42…制動制御部、341…取得部、342…正規化部、343…物体検出部、344…計算部、345…波形抽出部、346…解析部、347…パラメータ抽出部、348…人体検出部、349…制御部、3400…人体検出装置 DESCRIPTION OF SYMBOLS 10... Vehicle, 16... Ultrasonic sensor, 20... Vehicle control system, 34... Vehicle control apparatus, 42... Braking control part, 341... Acquisition part, 342... Normalization part, 343... Object detection part, 344... Calculation part, 345...Waveform extractor, 346...Analyser, 347...Parameter extractor, 348...Human body detector, 349...Controller, 3400...Human body detector

Claims (5)

所定領域に対して送信した超音波の反射波を受信した超音波センサから検出情報を取得する取得部と、
前記検出情報に応じた反射波波形を、前記超音波の反射物体までの距離、および、超音波に関する距離に応じた減衰特性情報に基づいて、正規化する正規化部と、
正規化された前記反射波波形におけるピークが所定の閾値以上であった場合に、前記所定領域において物体を検出したと判定する物体検出部と、
前記物体検出部によって前記物体が検出された場合に、正規化後の前記反射波波形からピークを含む所定範囲の反射波波形を抽出する波形抽出部と、
前記所定範囲の反射波波形に対して、時間情報を失わない所定の周波数解析を行って複数のパラメータを生成する解析部と、
前記複数のパラメータのうち、前記物体が人体か否かを判別するためのパラメータを抽出するパラメータ抽出部と、
前記抽出されたパラメータに基づいて、前記物体が人体か否かを判別して人体を検出する人体検出部と、
を備える人体検出装置。
an acquisition unit that acquires detection information from an ultrasonic sensor that receives a reflected wave of an ultrasonic wave that has been transmitted to a predetermined area;
a normalization unit that normalizes the reflected wave waveform according to the detection information based on the distance to the reflecting object of the ultrasonic wave and the attenuation characteristic information according to the distance related to the ultrasonic wave;
an object detection unit that determines that an object has been detected in the predetermined area when a peak in the normalized reflected wave waveform is equal to or greater than a predetermined threshold;
a waveform extraction unit for extracting a reflected wave waveform in a predetermined range including a peak from the normalized reflected wave waveform when the object is detected by the object detection unit;
an analysis unit that performs a predetermined frequency analysis that does not lose time information on the reflected wave waveform in the predetermined range to generate a plurality of parameters;
a parameter extraction unit for extracting a parameter for determining whether the object is a human body from among the plurality of parameters;
a human body detection unit that detects a human body by determining whether the object is a human body based on the extracted parameters;
A human body detection device comprising:
前記物体検出部によって前記物体が検出された場合に、正規化後の前記反射波波形に基づいて前記物体の位置と速度を計算する計算部を、さらに備え、
前記人体検出部は、前記抽出されたパラメータ、および、前記物体の位置と速度に基づいて、前記物体が人体か否かを判別して人体を検出する、請求項1に記載の人体検出装置。
further comprising a calculation unit that calculates the position and speed of the object based on the normalized reflected wave waveform when the object is detected by the object detection unit,
2. The human body detection apparatus according to claim 1, wherein said human body detection unit detects a human body by determining whether said object is a human body based on said extracted parameters and the position and speed of said object.
前記解析部は、前記所定範囲の反射波波形に対して、時間情報を失わない前記所定の周波数解析としてウェーブレット変換を行って複数のパラメータを生成する、請求項1に記載の人体検出装置。 2. The human body detecting apparatus according to claim 1, wherein said analysis unit performs wavelet transform as said predetermined frequency analysis without loss of time information on said reflected wave waveform in said predetermined range to generate a plurality of parameters. 前記パラメータ抽出部は、予め記憶部に記憶されたパラメータ抽出に関する機械学習データに基づいて、前記複数のパラメータのうち、前記物体が人体か否かを判別するためのパラメータを抽出する、請求項1に記載の人体検出装置。 2. The parameter extraction unit extracts, from among the plurality of parameters, a parameter for determining whether the object is a human body or not, based on machine learning data relating to parameter extraction stored in advance in a storage unit. The human body detection device according to . 車両に搭載された、請求項1から請求項4のいずれか一項に記載の人体検出装置と、
前記人体検出装置による人体の検出結果に基づいて前記車両のブレーキを制御する制動制御部と、を備えるブレーキ制御システム。
a human body detection device according to any one of claims 1 to 4, which is mounted on a vehicle;
A brake control system comprising: a braking control unit that controls a brake of the vehicle based on a human body detection result by the human body detection device.
JP2021042362A 2021-03-16 2021-03-16 Human body detector and brake control system Pending JP2022142252A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021042362A JP2022142252A (en) 2021-03-16 2021-03-16 Human body detector and brake control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021042362A JP2022142252A (en) 2021-03-16 2021-03-16 Human body detector and brake control system

Publications (1)

Publication Number Publication Date
JP2022142252A true JP2022142252A (en) 2022-09-30

Family

ID=83420583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021042362A Pending JP2022142252A (en) 2021-03-16 2021-03-16 Human body detector and brake control system

Country Status (1)

Country Link
JP (1) JP2022142252A (en)

Similar Documents

Publication Publication Date Title
US10571564B2 (en) Method for detecting at least one object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle
US9409574B2 (en) Vehicle acceleration suppression device and vehicle acceleration suppression method
US9714032B2 (en) Driving assistance apparatus
US20160280264A1 (en) Driving assistant system of vehicle and method for controlling the same
US9630599B2 (en) Driving assistance apparatus
US20170080929A1 (en) Movement-assisting device
US20100265049A1 (en) Obstacle detection apparatus for vehicle
JP4442520B2 (en) Course estimation device for vehicle
US20190391260A1 (en) Method for monitoring the surroundings of a vehicle
CN112771591B (en) Method for evaluating the influence of an object in the environment of a vehicle on the driving maneuver of the vehicle
US9921304B2 (en) Object detection apparatus
US9293046B2 (en) Vehicle rearward travel control device and method using lateral and rear detection areas
JP6193177B2 (en) Motion support system and object recognition device
US11599117B2 (en) Systems and methods for obstacle proximity detection
US20050004719A1 (en) Device and method for determining the position of objects in the surroundings of a motor vehicle
JP4683910B2 (en) Collision prevention support device
US20230182722A1 (en) Collision avoidance method and apparatus
JP2022142252A (en) Human body detector and brake control system
JP7397191B2 (en) Operation method, computing device, and sensor device for a vehicle distance sensor that adapts a transmission signal according to the classification mode of an object
US10843692B2 (en) Vehicle control system
CN114999224B (en) Electric bicycle, intelligent environment sensing obstacle avoidance method for electric bicycle and storage medium
WO2023032538A1 (en) Object detection device and object detection method
CN114390989B (en) Vehicle control apparatus and control method thereof
WO2023026760A1 (en) Object detection device and object detection method
WO2021229704A1 (en) Object recognition device, route generation device, parking assistance device, object recognition system, route generation system, and parking assistance system