JP2022142252A - Human body detector and brake control system - Google Patents
Human body detector and brake control system Download PDFInfo
- Publication number
- JP2022142252A JP2022142252A JP2021042362A JP2021042362A JP2022142252A JP 2022142252 A JP2022142252 A JP 2022142252A JP 2021042362 A JP2021042362 A JP 2021042362A JP 2021042362 A JP2021042362 A JP 2021042362A JP 2022142252 A JP2022142252 A JP 2022142252A
- Authority
- JP
- Japan
- Prior art keywords
- human body
- unit
- vehicle
- waveform
- reflected wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、人体検出装置およびブレーキ制御システムに関する。 The present invention relates to a human body detection device and a brake control system.
従来から、例えば、車両制御システムにおいて、自車両の周囲に存在する人体(歩行者等)を検出する技術がある。この技術は、例えば、レーダ装置や超音波センサなどによる物体の検出結果と、カメラによる撮影画像とに基づいて、実現される。 2. Description of the Related Art Conventionally, for example, in a vehicle control system, there is a technique for detecting a human body (pedestrian, etc.) existing around a vehicle. This technology is realized, for example, based on the result of object detection by a radar device, an ultrasonic sensor, or the like, and an image captured by a camera.
しかしながら、上述の従来技術は、コスト等の面で改善の余地がある。 However, the conventional technology described above has room for improvement in terms of cost and the like.
そこで、本発明の課題の一つは、超音波センサによって得られたデータのみに基づいて人体を検出することができる人体検出装置およびブレーキ制御システムを提供することである。 Therefore, one of the objects of the present invention is to provide a human body detection device and a brake control system that can detect a human body based only on data obtained by an ultrasonic sensor.
実施形態の人体検出装置は、例えば、所定領域に対して送信した超音波の反射波を受信した超音波センサから検出情報を取得する取得部と、前記検出情報に応じた反射波波形を、前記超音波の反射物体までの距離、および、超音波に関する距離に応じた減衰特性情報に基づいて、正規化する正規化部と、正規化された前記反射波波形におけるピークが所定の閾値以上であった場合に、前記所定領域において物体を検出したと判定する物体検出部と、前記物体検出部によって前記物体が検出された場合に、正規化後の前記反射波波形からピークを含む所定範囲の反射波波形を抽出する波形抽出部と、前記所定範囲の反射波波形に対して、時間情報を失わない所定の周波数解析を行って複数のパラメータを生成する解析部と、前記複数のパラメータのうち、前記物体が人体か否かを判別するためのパラメータを抽出するパラメータ抽出部と、前記抽出されたパラメータに基づいて、前記物体が人体か否かを判別して人体を検出する人体検出部と、を備える。
このような構成により、超音波の反射波波形の正規化と、正規化された反射波波形におけるピークに基づく物体検出と、反射波波形に対する時間情報を失わない所定の周波数解析によるパラメータ生成と、人体判別用のパラメータ抽出と、抽出パラメータに基づく人体検出と、によって、超音波センサによって得られたデータのみに基づいて人体を検出することができる。
The human body detection device of the embodiment includes, for example, an acquisition unit that acquires detection information from an ultrasonic sensor that receives a reflected wave of an ultrasonic wave that has been transmitted to a predetermined area, and a reflected wave waveform that corresponds to the detection information. Based on the distance to the reflecting object of the ultrasonic wave and the attenuation characteristic information related to the ultrasonic wave according to the distance, a normalizing unit that normalizes the peak in the normalized reflected wave waveform is a predetermined threshold or more an object detection unit that determines that an object has been detected in the predetermined area when the object is detected by the object detection unit, and a reflection in a predetermined range including a peak from the normalized reflected wave waveform A waveform extraction unit that extracts a wave waveform; an analysis unit that performs a predetermined frequency analysis without losing time information on the reflected wave waveform in the predetermined range to generate a plurality of parameters; a parameter extraction unit for extracting parameters for determining whether the object is a human body, a human body detection unit for determining whether the object is a human body and detecting the human body based on the extracted parameters; Prepare.
With such a configuration, normalization of the reflected wave waveform of ultrasonic waves, object detection based on peaks in the normalized reflected wave waveform, parameter generation by predetermined frequency analysis without losing time information on the reflected wave waveform, A human body can be detected based only on the data obtained by the ultrasonic sensor by extracting the parameters for human body discrimination and detecting the human body based on the extracted parameters.
また、前記人体検出装置では、例えば、前記物体検出部によって前記物体が検出された場合に、正規化後の前記反射波波形に基づいて前記物体の位置と速度を計算する計算部を、さらに備え、前記人体検出部は、前記抽出されたパラメータ、および、前記物体の位置と速度に基づいて、前記物体が人体か否かを判別して人体を検出する。
このような構成により、抽出されたパラメータに加えて物体の位置と速度に基づくことで、人体検出精度をさらに向上させることができる。
Further, the human body detection apparatus further includes a calculation unit that calculates the position and velocity of the object based on the normalized reflected wave waveform when the object is detected by the object detection unit. , the human body detection unit detects a human body by determining whether the object is a human body based on the extracted parameters and the position and speed of the object.
With such a configuration, the human body detection accuracy can be further improved by using the position and speed of the object in addition to the extracted parameters.
また、前記人体検出装置では、例えば、前記解析部は、前記所定範囲の反射波波形に対して、時間情報を失わない前記所定の周波数解析としてウェーブレット変換を行って複数のパラメータを生成する。
このような構成により、時間情報を失わない所定の周波数解析として具体的にウェーブレット変換を用いることができる。
Further, in the human body detection device, for example, the analysis unit performs wavelet transform as the predetermined frequency analysis without losing time information on the reflected wave waveform in the predetermined range to generate a plurality of parameters.
With such a configuration, wavelet transform can be specifically used as a predetermined frequency analysis that does not lose time information.
また、前記人体検出装置では、例えば、前記パラメータ抽出部は、予め記憶部に記憶されたパラメータ抽出に関する機械学習データに基づいて、前記複数のパラメータのうち、前記物体が人体か否かを判別するためのパラメータを抽出する。
このような構成により、パラメータ抽出に関する機械学習データに基づいて、複数のパラメータのうち人物判別用のパラメータを抽出することができる。
Further, in the human body detection device, for example, the parameter extraction unit determines whether or not the object is a human body among the plurality of parameters based on machine learning data related to parameter extraction stored in a storage unit in advance. Extract the parameters for
With such a configuration, it is possible to extract a parameter for person discrimination from among a plurality of parameters based on machine learning data relating to parameter extraction.
また、車両に搭載された人体検出装置と、前記人体検出装置による人体の検出結果に基づいて前記車両のブレーキを制御する制動制御部と、によって、ブレーキ制御システムを実現することができる。 Further, a brake control system can be realized by a human body detection device mounted on a vehicle and a braking control section that controls the brakes of the vehicle based on the human body detection result of the human body detection device.
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能である。また、本発明によれば、構成によって得られる種々の効果(派生的な効果も含む)のうち少なくとも一つを得ることが可能である。 Illustrative embodiments of the invention are disclosed below. The configurations of the embodiments shown below and the actions and effects brought about by the configurations are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments. Moreover, according to the present invention, at least one of various effects (including derivative effects) obtained by the configuration can be obtained.
図1は、実施形態の車両制御システム20(図2)が搭載される車両10の平面図である。車両10は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、図示されず)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両10は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両10における車輪13の駆動に関わる装置の方式、個数、および、レイアウト等は、種々に設定することができる。
FIG. 1 is a plan view of a
図1に示すように、車両10は、車体12と、4個の車輪13と、12個の超音波センサ16a~16lを備える。以下、超音波センサ16a~16lを区別する必要がない場合、超音波センサ16と記載する。
As shown in FIG. 1, the
車体12は、乗員が乗車する車室を構成する。車体12は、車輪13、超音波センサ16等を収容または保持する。
The
4個の車輪13は、車体12の前側に2個、後側に2個、設けられている。例えば、前側の2個の車輪13は、転舵輪として機能して、後側の2個の車輪13は、駆動輪として機能する。
The four
超音波センサ16は、所定領域に対して超音波を送信し、反射波を受信する。つまり、超音波センサ16は、例えば、車両10の外周部に設けられ、超音波を検出波として送信して、車両10の周辺に存在する人体(歩行者等)等の対象物が反射した検出波を捉えるソナーである。超音波センサ16は、検出情報(反射波の振幅、送受信の所要時間など)を車両制御装置34に出力する。なお、超音波センサ16は、一度の検出波の送信に対して、対象物の複数の個所が反射した複数の検出波を受信した場合、最も早く受信した検出波の所要時間のみを検出情報に含めてもよい。
The
超音波センサ16a、16b、16c、16dは、サイドソナーとも呼ばれ、車両10の左右の側部に設けられている。超音波センサ16a、16b、16c、16dは、車両10の側方の対象物を検出して、検出情報を出力する。超音波センサ16e、16fは、コーナーソナーとも呼ばれ、超音波センサ16a、16b、16c、16dよりも車両10の後部(例えば、車両10のコーナー近傍)に設けられ、超音波センサ16a、16b、16c、16dよりも後方(例えば、後方の外側)に向けられている。
The
超音波センサ16e、16fは、車両10の斜め後方の対象物を検出して、検出情報を出力する。超音波センサ16g、16hは、コーナーソナーとも呼ばれ、超音波センサ16a、16b、16c、16dよりも車両10の前部(例えば、車両10のコーナー近傍)に設けられ、超音波センサ16a、16b、16c、16dよりも前方(例えば、前方の外側)に向けられている。超音波センサ16g、16hは、車両10の斜め前方の対象物を検出して、検出情報を出力する。超音波センサ16i、16jは、リアソナーとも呼ばれ、車両10の後端部に設けられている。超音波センサ16i、16jは、車両10の後方の対象物を検出して、検出情報を出力する。超音波センサ16k、16lは、フロントソナーとも呼ばれ、車両10の前端部に設けられている。超音波センサ16k、16lは、車両10の前方の対象物を検出して、検出情報を出力する。
The
図2は、実施形態の車両制御システム20の全体構成を示すブロック図である。車両制御システム20は、車両10に搭載されて、車両10の周辺の対象物に応じて、車両10の運転を自動運転(一部自動運転を含む)によって支援する。
FIG. 2 is a block diagram showing the overall configuration of the
図2に示すように、車両制御システム20は、超音波センサ16と、制動システム22と、加速システム24と、操舵システム26と、変速システム28と、車速センサ30と、モニタ装置32と、車両制御装置34と、車内ネットワーク36と、を備える。
As shown in FIG. 2, the
制動システム22は、車両10の制動を制御する。制動システム22は、制動部40と、制動制御部42と、制動部センサ44とを有する。
制動部40は、例えば、ブレーキ、ブレーキペダル等を含み、車両10を減速させるための装置である。
The
制動制御部42は、例えば、CPU(Central Processing Unit)等のハードウェアプロセッサを有するマイクロコンピュータ等のコンピュータである。制動制御部42は、車両制御装置34からの指示(停止制御信号)に基づいて、制動部40を制御して、車両10の制動を制御する。
The
制動部センサ44は、例えば、位置センサであって、制動部40がブレーキペダルの場合、制動部40の位置を検出する。制動部センサ44は、検出した制動部40の位置を車内ネットワーク36に出力する。
The
加速システム24は、車両10の加速を制御する。加速システム24は、加速部46と、加速制御部48と、加速部センサ50とを有する。
加速部46は、例えば、アクセルペダル等を含み、車両10を加速させるための装置である。
The
加速制御部48は、例えば、CPU等のハードウェアプロセッサを有するマイクロコンピュータ等のコンピュータである。加速制御部48は、車両制御装置34からの指示(加速制御信号)に基づいて、加速部46を制御して、車両10の加速を制御する。
The
加速部センサ50は、例えば、位置センサであって、加速部46がアクセルペダルの場合、加速部46の位置を検出する。加速部センサ50は、検出した加速部46の位置を車内ネットワーク36に出力する。
The
操舵システム26は、車両10の進行方向を制御する。操舵システム26は、操舵部52と、操舵制御部54と、操舵部センサ56とを有する。
The
操舵部52は、例えば、ハンドルまたはステアリングホイール等を含み、車両10の転舵輪を転舵させて、車両10の進行方向を操舵する装置である。
The
操舵制御部54は、例えば、CPU等のハードウェアプロセッサを有するマイクロコンピュータ等のコンピュータである。操舵制御部54は、車両制御装置34からの指示(操舵制御信号)に基づいて、操舵部52を制御して、車両10の進行方向を制御する。
The
操舵部センサ56は、例えば、ホール素子等を含む角度センサであって、操舵部52の回転角である操舵角を検出する。操舵部センサ56は、検出した操舵部52の操舵角を車内ネットワーク36に出力する。
The
変速システム28は、車両10の変速比を制御する。変速システム28は、変速部58と、変速制御部60と、変速部センサ62とを有する。
変速部58は、例えば、シフトレバー等を含み、車両10の変速比を変更させる装置である。
The
変速制御部60は、例えば、CPU等のハードウェアプロセッサを有するマイクロコンピュータ等のコンピュータである。変速制御部60は、車両制御装置34からの指示(変速制御信号)に基づいて、変速部58を制御して、車両10の変速比を制御する。
The
変速部センサ62は、例えば、位置センサであって、変速部58がシフトレバーの場合、変速部58の位置を検出する。変速部センサ62は、検出した変速部58の位置を車内ネットワーク36に出力する。
The
車速センサ30は、例えば、車両10の車輪13の近傍に設けられたホール素子を有し、車輪13の回転量または単位時間当たりの回転数を検出するセンサである。車速センサ30は、検出した回転量または回転数を示す車輪速パルス数を、車両10の速度(車速)を算出するためのセンサ値として、車内ネットワーク36へ出力する。車両制御装置34は、車速センサ30から取得したセンサ値に基づいて車両10の速度(車速)や移動量等を算出することができる。
The
モニタ装置32は、車両10の車室内のダッシュボード等に設けられている。モニタ装置32は、表示部64と、音声出力部66と、操作入力部68とを有する。
The
表示部64は、車両制御装置34が送信した画像データに基づいて、画像を表示する。表示部64は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、または、有機ELディプレイ(OELD:Organic Electroluminescent Display)等の表示装置である。表示部64は、例えば、自動運転と手動運転との切り替えを指示する操作指示を受け付ける画像を表示する。
The
音声出力部66は、車両制御装置34が送信した音声データに基づいて音声を出力する。音声出力部66は、例えば、スピーカである。音声出力部66は、例えば、自動運転と手動運転との切り替えを指示する操作指示に関する音声を出力する。
The
操作入力部68は、乗員の入力を受け付ける。操作入力部68は、例えば、タッチパネルである。操作入力部68は、表示部64の表示画面に設けられている。操作入力部68は、表示部64が表示する画像を透過可能に構成されている。これにより、操作入力部68は、表示部64の表示画面に表示される画像を乗員に視認させることができる。操作入力部68は、表示部64の表示画面に表示される画像に対応した位置を乗員が触れることによって入力した指示を受け付けて、車両制御装置34へ送信する。なお、操作入力部68は、タッチパネルに限らず、押しボタン式等のハードスイッチであってもよい。
The
車両制御装置34は、ECU(Electronic Control Unit)等のマイクロコンピュータを含むコンピュータであり、車両10の自動運転による走行や駐車支援等の制御を行う。
The
車両制御装置34は、CPU34aと、ROM(Read Only Memory)34bと、RAM(Random Access Memory)34cと、表示制御部34dと、音声制御部34eと、SSD(Solid State Drive)34fと、を備える。CPU34a、ROM34bおよびRAM34cは、同一パッケージ内に集積されていてもよい。
The
CPU34aは、ハードウェアプロセッサの一例であって、ROM34b等の不揮発性の記憶装置に記憶されたプログラムを読み出して、当該プログラムにしたがって各種の演算処理および制御を実行する。CPU34aは、例えば、車両10の自動運転による走行や駐車支援を実行する。
The
ROM34bは、各プログラムおよびプログラムの実行に必要なパラメータ等を記憶する。RAM34cは、CPU34aでの演算で用いられる各種のデータを一時的に記憶する。表示制御部34dは、車両制御装置34での演算処理のうち、主として、表示部64に表示させる表示用の画像のデータ変換等を実行する。音声制御部34eは、車両制御装置34での演算処理のうち、主として、音声出力部66に出力させる音声の処理を実行する。SSD34fは、書き換え可能な不揮発性の記憶装置であって、車両制御装置34の電源がオフされた場合にあってもデータを維持する。
The
車内ネットワーク36は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)等を含む。車内ネットワーク36は、加速システム24と、制動システム22と、操舵システム26と、変速システム28と、超音波センサ16と、車速センサ30と、モニタ装置32の操作入力部68と、車両制御装置34とを互いに情報を送受信可能に接続する。
The in-
図3は、実施形態の車両制御装置34の機能構成を示すブロック図である。図3に示すように、車両制御装置34は、機能構成として、取得部341と、正規化部342と、物体検出部343と、計算部344と、波形抽出部345と、解析部346と、パラメータ抽出部347と、人体検出部348と、制御部349と、を備える。これらの各機能構成は、CPU34aがROM34b等の記憶装置に記憶されたプログラムを読み出しそれを実行することにより、実現される。なお、各機能構成の一部または全部は、ASIC(Application Specific Integrated Circuit)を含む回路等のハードウェアによって構成されてもよい。
FIG. 3 is a block diagram showing the functional configuration of the
なお、各部341~348は、人体検出装置3400を構成する。また、人体検出装置3400を含む車両制御装置34と、制動制御部42とは、AEB(Advanced Emergency Braking)システム(衝突被害軽減ブレーキシステム)(ブレーキ制御システムの例)を構成する。
Note that each
取得部341は、各構成から各種データを取得する。取得部341は、例えば、所定領域に対して送信した超音波の反射波を受信した超音波センサ16から検出情報を取得する。
The
正規化部342は、検出情報に応じた反射波波形を、超音波の反射物体(例えば、路面、人体(歩行者等)、他の車両等)までの距離、および、超音波に関する距離に応じた減衰特性情報(例えば減衰関数)に基づいて、正規化する。
The
ここで、図4は、実施形態における超音波の反射波波形の正規化の説明図である。超音波センサ16から発せられた超音波は減衰特性を有している。この減衰特性から反射物体との距離が離れているほど反射波波形の振幅値は小さくなるので、スケールを合わせるために減衰関数にて正規化を行う。この減衰関数は、例えば、反射物体が路面以外に何もない状態で取得した反射波波形に対してフィッテイングを行って定義することができるが、減衰関数導出の手法はこれに限定されない。図4(a)の正規化前の反射波波形では微小だった対象物(路面以外)付近の振幅(距離が2100程度の部分の振幅)が、図4(b)の正規化後の反射波波形では大きく立ち上がっていることが確認できる。
Here, FIG. 4 is an explanatory diagram of normalization of the reflected wave waveform of ultrasonic waves in the embodiment. Ultrasonic waves emitted from the
図3に戻って、物体検出部343は、正規化部342によって正規化された反射波波形におけるピークが所定の閾値以上であった場合に、所定領域に物体(路面以外の対象物)を検出したと判定する。なお、ピークの検出については、このような閾値判定に限定されず、ピーク検出アルゴリズム(例えばCFAR(Constant False Alarm Rate)など)を使用するなど、他の手法を用いてもよい。
Returning to FIG. 3, the
計算部344は、物体検出部343によって物体が検出された場合に、正規化後の反射波波形に基づいて物体の位置と速度を計算する。具体的には、正規化後の反射波波形に基づいて物体の位置を時系列に計算し、時系列の位置に基づいて速度を計算する。
When the
波形抽出部345は、物体検出部343によって物体が検出された場合に、正規化後の反射波波形からピークを含む所定範囲の反射波波形を抽出(以下、ピーク近傍抽出ともいう。)する。ここで、図5は、実施形態における反射波波形のピーク近傍抽出の説明図である。反射波波形のピークとは、対象物に対応する部分の波形で振幅値が最も大きくなっている点を指す。ピーク近傍(ピーク座標付近の波形)の抽出を行わずに距離別の人体判別精度を調べると、遠距離(5~7m)において不自然な結果となる場合があることが実験でわかっている。この原因として、図5(a)に示すように、生データでは、対象物ごとのピーク値時間座標にずれがある点が考えられる。この対策として、取得した反射波波形のピーク値の前後200ステップ分について抽出し、ピーク値時間座標を揃える処理を行う。図5(b)は、ピーク値時間座標を揃える処理を行った後の波形の一例である。また、これまでの知見から、ピーク近傍をその後の処理で使用することで汎化誤差を低減できることが分かっている。
When the
図3に戻って、解析部346は、波形抽出部345によって抽出した所定範囲の反射波波形に対して、時間情報を失わない所定の周波数解析を行って複数のパラメータを生成する。時間情報を失わない所定の周波数解析としては、例えば、ウェーブレット変換がある。
Returning to FIG. 3, the
ここで、図6は、実施形態におけるウェーブレット変換の対象データ例を示すグラフである。ウェーブレット変換は周波数解析の手法の一つで、フーリエ変換では周波数空間へ写像する際に失われてしまう時間情報を保持できるという特徴をもつ。これにより、対象とする波形の各時点における周波数成分の多寡を把握することができる。 Here, FIG. 6 is a graph showing an example of target data for wavelet transform in the embodiment. Wavelet transform is one of the methods of frequency analysis, and has the feature that Fourier transform can retain time information that is lost when mapping to frequency space. This makes it possible to grasp the amount of frequency components at each time point of the target waveform.
具体的には、フーリエ変換は窓関数を用いることで時間領域の情報を残すことができるが(STFT(Short-Time Fourier Transform):短時間フーリエ変換)、窓幅を周波数に合わせて固定することが必要となるため、広い周波数領域の解析には向かない。 Specifically, the Fourier transform can retain information in the time domain by using a window function (STFT (Short-Time Fourier Transform)), but the window width must be fixed according to the frequency. is required, so it is not suitable for analysis of a wide frequency range.
一方、連続ウェーブレット変換の関係式は、以下の式(1)の通りである。なお、tは時間である。x(t)は元信号である。WΨは基底関数Ψに基づいたウェーブレット変換である。aはスケールパラメータである。bはシフトパラメータである。*は複素共役である。なお、a,bは連続的な実数である。
また、連続ウェーブレット変換の基底関数の例は、以下の式(2)で示されるメキシカンハット関数である。
ここで、図7は、実施形態におけるウェーブレット変換の基底関数例のメキシカンハット関数を示すグラフである。そして、用意した基底関数(メキシカンハット関数)に対して、拡大縮小のスケーリングを行い、様々な波の幅を持つ基底関数群を作る。波の幅が広ければ低周波数、狭ければ高周波数の波である。ここで、用意した様々な周波数成分を持つ基底関数群をそれぞれ対象の波形に対して時間軸方向に平行移動させながら内積をとる。これにより、複数のパラメータが得られる。 Here, FIG. 7 is a graph showing a Mexican hat function as an example of basis functions for wavelet transform in the embodiment. Then, the prepared basis functions (Mexican hat functions) are scaled to create a group of basis functions having various wave widths. If the width of the wave is wide, it is a low-frequency wave, and if it is narrow, it is a high-frequency wave. Here, the inner product is taken while translating each of the prepared basis function groups having various frequency components in the time axis direction with respect to the target waveform. This yields multiple parameters.
図3に戻って、パラメータ抽出部347は、解析部346によって生成された複数のパラメータのうち、物体が人体か否かを判別するためのパラメータを抽出する。例えば、パラメータ抽出部347は、予め記憶部(SSD34fなど)に記憶されたパラメータ抽出に関する機械学習データに基づいて、複数のパラメータのうち、物体が人体か否かを判別するためのパラメータを抽出する。つまり、予め機械学習により、複数のパラメータのうち、物体が人体か否かを判別するために大きく寄与するパラメータを特定しておく。ただし、パラメータ抽出の手法はこれに限定されず、ほかに、予めルールベースで決めておいてもよい。また、抽出するパラメータの数も、特に限定は無く、いくつでもよい。
Returning to FIG. 3, the
人体検出部348は、パラメータ抽出部347によって抽出されたパラメータに基づいて、物体が人体か否かを判別して人体を検出する。例えば、人体検出部348は、抽出されたパラメータ、および、物体の位置と速度に基づいて、物体が人体か否かを判別して人体を検出する。
The human
制御部349は、各種制御を行う。制御部349は、例えば、各システム22、24、26、28の全部または一部を制御することによる車両10の自動運転によって、車両10の走行や駐車支援等を制御する。また、制御部349は、例えば、制動制御部42に対して、制動の指示を送信する。制動制御部42は、人体検出装置3400による人体の検出結果に基づいて車両のブレーキを制御する。例えば、人体検出装置3400によって車両10の周囲に人体(歩行者等)が検出された場合、制動制御部42は、制御部349からの指示(停止制御信号)に基づいて、制動部40を制御して、人体以外(例えば路上の落下物など)が検出された場合よりも早く車両10が停車するように車両10の制動を制御する。
The
次に、図8は、実施形態の車両制御システム20による全体処理を示すフローチャートである。ステップS1において、制御部349は、車両10が低速領域での走行中か否かを判定し、Yesの場合はステップS2に進み、Noの場合はステップS1に戻る。つまり、車両が低速領域で走行している場合には、AEBシステムを作動させる。また、ここでは前後進のどちらも含むこととする。
Next, FIG. 8 is a flowchart showing overall processing by the
ステップS2において、超音波センサ16は超音波を生成する。次に、ステップS3において、超音波センサ16は車両10の超音波を出力する。
In step S2, the
次に、ステップS4において、超音波センサ16は、超音波の反射波を受信する。次に、ステップS5において、人体検出装置3400は、人体判別処理を行う。ここで、図9は、図8のステップS5の処理の詳細を示すフローチャートである。
Next, in step S4, the
ステップS501において、人体検出装置3400は、初期化を行う。次に、ステップS502において、正規化部342は、超音波の反射波波形を読み込む。
In step S501, the human body detection device 3400 is initialized. Next, in step S502, the
次に、ステップS503において、正規化部342は、超音波の反射物体までの距離、および、超音波に関する距離に応じた減衰特性情報(例えば減衰関数)に基づいて、反射波波形を正規化(振幅スケールの正規化)する。
Next, in step S503, the
次に、ステップS504において、物体検出部343は、ステップS503において正規化された反射波波形におけるピークが所定の閾値以上であるか否かで、物体(路面以外の対象物)を検出したか否かを判定する。
Next, in step S504, the
次に、ステップS505において、物体検出部343は、物体を検出した場合(Yes)、ステップS506に進み、物体を検出しなかった場合(No)、ステップS5の処理を終了する。
Next, in step S505, when the
ステップS506において、計算部344は、対象物の状態推定処理を行う。ここで、図10は、図9のステップS506の処理の詳細を示すフローチャートである。
In step S506, the
ステップS521において、計算部344は、正規化された反射波波形を読み込む。次に、ステップS522において、対象物の座標(位置)を推定(計算)する。
In step S521, the
次に、ステップS523において、計算部344は、座標推定を正常に終了したか否かを判定し、Yesの場合はステップS524に進み、Noの場合はステップS506の処理を終了する。
Next, in step S523, the
ステップS524において、計算部344は、物体の時系列の座標に基づいて速度を推定(計算)し、ステップS506の処理を終了する。
In step S524, the
図9に戻って、ステップS506の後、ステップS507において、波形抽出部345は、正規化された反射波波形のピーク近傍抽出を行う。
Returning to FIG. 9, after step S506, in step S507, the
次に、ステップS508において、解析部346は、ステップS507において抽出した反射波波形に対してウェーブレット変換を行って複数のパラメータを生成する。
Next, in step S508, the
次に、ステップS509において、パラメータ抽出部347は、ステップS508において生成された複数のパラメータのうち、物体が人体か否かを判別することに関して高寄与度のパラメータを抽出する。
Next, in step S509, the
次に、ステップS510において、人体検出部348は、ステップS509において抽出されたパラメータに基づいて、対象物の分類を行う。つまり、物体が人体か否かを判別する。その場合、例えば、抽出されたパラメータに加えて物体の位置と速度に基づいて、物体が人体か否かを判別する。
Next, in step S510, the human
次に、ステップS511において、人体検出部348は、分類結果を出力し、ステップS5の処理を終了する。
Next, in step S511, the human
図8に戻って、ステップS5の後、ステップS6において、人体検出装置3400は、人体を検出した場合(Yes)、ステップS7に進み、人体を検出しなかった場合(No)、ステップS4に戻る。 Returning to FIG. 8, after step S5, in step S6, if the human body detection device 3400 detects a human body (Yes), the process proceeds to step S7.If no human body is detected (No), the process returns to step S4. .
ステップS7において、制御部349は、制動制御部42に、分類結果に応じた停止制御信号を送信する。次に、ステップS8において、制動制御部42は、制御部349から停止制御信号を受信する。
In step S7, the
次に、ステップS9において、制動制御部42は、停止制御信号に基づいて、制動部40を制御して、車両10の制動を制御する。例えば、車両10の周囲に人体(歩行者等)が検出された場合、制動制御部42は、制御部349からの指示(停止制御信号)に基づいて、制動部40を制御して、人体以外(例えば路上の落下物など)が検出された場合よりも早く車両10が停車するように車両10の制動を制御する。
Next, in step S9, the
次に、ステップS10において、制動制御部42は、車両10が停止したか否かを判定し、Yesの場合はステップS11に進み、Noの場合はステップS9に戻る。
Next, in step S10, the
ステップS11において、制御部349は、AEB制御を解除し、処理を終了する。
In step S11, the
このように、本実施形態の車両制御システム20によれば、超音波の反射波波形の正規化と、正規化された反射波波形におけるピークに基づく物体検出と、反射波波形に対する時間情報を失わない所定の周波数解析によるパラメータ生成と、人体判別用のパラメータ抽出と、抽出パラメータに基づく人体検出とによって、超音波センサ16によって得られたデータのみに基づいて人体を検出することができる。
Thus, according to the
つまり、本来低解像度である超音波センサ16による検出情報のみに基づいて高精度に人体判別を行うことができる。また、超音波センサ16から得られた反射波波形のみで障害物の検知とその分類(人間か否かの分類)が可能になるので、同工程において従来使用していたセンサやチップの削減が可能となる。また、他センサと併用した場合においても、システムの冗長性の観点から堅牢な安全性システムの構築が可能となるという作用効果を奏する。
In other words, the human body can be determined with high accuracy based only on the information detected by the
また、抽出されたパラメータに加えて物体の位置と速度に基づくことで、人体検出精度をさらに向上させることができる。これは、例えば、人体の場合の位置や速度のパターンと、人体以外の場合の位置や速度のパターンと、に基づいた所定のアルゴリズムによって実現できる。 In addition to the extracted parameters, based on the position and speed of the object, the human body detection accuracy can be further improved. This can be realized, for example, by a predetermined algorithm based on the position and velocity patterns of the human body and the position and velocity patterns of the non-human body.
また、時間情報を失わない所定の周波数解析として具体的にウェーブレット変換を用いることで、より高精度な人体検出結果を得ることができる。これは、例えば、フーリエ変換の場合と比べると、対象とする波形の各時点における周波数成分の多寡を把握可能であること等に起因する。 Further, by specifically using wavelet transform as a predetermined frequency analysis that does not lose time information, a more accurate human body detection result can be obtained. This is because, for example, compared to the case of Fourier transform, it is possible to grasp the amount of frequency components at each time point of the target waveform.
また、パラメータ抽出に関する機械学習データに基づいて、複数のパラメータのうち人物判別用のパラメータを高精度に抽出することができる。 Further, based on machine learning data related to parameter extraction, a parameter for person discrimination can be extracted with high accuracy from among the plurality of parameters.
また、車両10に搭載された人体検出装置3400と、人体検出装置3400による人体の検出結果に基づいて車両10のブレーキを制御する制動制御部42と、によって、より効果的なAEBシステムを実現することができる。
A more effective AEB system is realized by the human body detection device 3400 mounted on the
以下、従来技術との比較について説明する。例えば、従来技術(特許第6643166号公報)は、レーダ装置を用いて複数の反射点から検出したレーダ物標と、撮像装置で撮影した画像から検出した画像物標を基に、自車両の周囲に存在する物体を認識する物体認識装置に関する技術である。レーダ装置で検出できなかった物標が画像単独物標に含まれている場合に、物体を検出したと判定する。また、画像単独物標が他車両の際、レーダ装置から取得した距離情報と撮影装置から取得した方位角情報から他車両の車両幅を算出する。 A comparison with the prior art will be described below. For example, in the prior art (Japanese Patent No. 6643166), based on a radar target detected from a plurality of reflection points using a radar device and an image target detected from an image captured by an imaging device, It is a technology related to an object recognition device that recognizes an object existing in a space. It is determined that an object has been detected when a target that could not be detected by the radar device is included in the image single target. Also, when the image single target is another vehicle, the vehicle width of the other vehicle is calculated from the distance information acquired from the radar device and the azimuth angle information acquired from the photographing device.
この従来技術は、複数のセンサを用いたフュージョンでの物体認識システムで、レーダで検出できなかった物体をカメラ画像で検出した場合、物体有と判定する。しかし、カメラ画像による物体認識は雨や霧などの天候の影響を大きく受けるため条件次第では見落としが発生するケースも考えられる。レーダやカメラで見落としが発生する条件に対して今後の自動運転で主流になると思われるLidarを使用しても完全には解決することはできず、またシステムが重畳化するため有効ではない。 This prior art is an object recognition system by fusion using a plurality of sensors, and when an object that could not be detected by radar is detected by a camera image, it is determined that the object exists. However, object recognition using camera images is greatly affected by weather such as rain and fog, so there may be cases where oversights occur depending on the conditions. The use of lidar, which is expected to become mainstream in autonomous driving in the future, cannot completely solve the conditions in which radar and camera oversights occur, and it is not effective because the system is superimposed.
一方、本実施形態の技術によれば、カメラ画像を用いないため、雨や霧などの天候の影響を比較的受けにくい。また、超音波センサ16による検出情報のみで高精度な人体検出を可能としたので、簡潔なシステムで済む。
On the other hand, according to the technology of the present embodiment, since the camera image is not used, it is relatively less susceptible to weather such as rain and fog. In addition, since highly accurate human body detection is made possible only with the information detected by the
また、例えば、他の従来技術(特許第6657934号公報)は、レーザーセンサにより計測された複数の計測点に基づいて、物体候補を出力する人物検出装置に関する技術である。初めにレーザーセンサで計測された点の3次元空間上の位置や反射強度に基づいて、それぞれの計測点が路面か路面上の物体かを分類する。その後、路面上の物体と分類された点群についてクラスタリングを行い、それぞれの物体を検出・認識する。 Further, for example, another prior art (Japanese Patent No. 6657934) relates to a person detection device that outputs object candidates based on a plurality of measurement points measured by a laser sensor. First, each measurement point is classified as a road surface or an object on the road surface based on the position in the three-dimensional space and the reflection intensity of the point measured by the laser sensor. After that, clustering is performed for the point cloud classified as an object on the road surface, and each object is detected and recognized.
レーザーセンサから取得できるデータで可能なこととして、車両に搭載した場合だと周囲を走行している車両や歩行者、建物までの距離や形状、その位置関係などを3次元情報として認識できることが挙げられる。これには発射したレーザーパルスが物体に当たって反射したポイントごとの3次元座標(点群)を用いている。ここから分かるように実環境では対象物が非常に多いため扱うデータ量が膨大になることが問題である。 One of the things that can be done with the data that can be obtained from a laser sensor is that if it is installed in a vehicle, it will be possible to recognize vehicles, pedestrians, distances and shapes to buildings, and their positional relationships as 3D information. be done. This uses the three-dimensional coordinates (point cloud) of each point where the emitted laser pulse hits the object and is reflected. As can be seen from this, there is a problem that the amount of data to be handled becomes enormous because there are so many objects in the actual environment.
一方、本実施形態の技術によれば、超音波センサ16による検出情報のみを用いるため、扱うデータ量が小さく済む。
On the other hand, according to the technology of this embodiment, only the information detected by the
また、例えば、さらに他の従来技術(特開2006-250927号公報)は、受信した超音波の反射波特性から、車外対象物の種類(人・壁・車両)を判別し、衝突対象に応じて乗員を拘束するべきか否かを判断する技術である。ここでの反射波特性とは反射波の波形の積分値・高調波・最大振幅を示しており、この中の少なくとも2つを用いる。 Further, for example, still another prior art (Japanese Patent Application Laid-Open No. 2006-250927) discriminates the type of object outside the vehicle (person, wall, vehicle) from the reflected wave characteristics of the received ultrasonic wave, and determines the collision object. It is a technique for judging whether or not to restrain the occupant according to the situation. The reflected wave characteristic here indicates the integrated value, harmonics, and maximum amplitude of the waveform of the reflected wave, and at least two of them are used.
この従来技術では、車外対象物の種類を判別する際に反射波形の最大振幅値・積分値を用いている。しかし、最大振幅値は対象物が近距離の場合、床面からはね返る反射波の影響を受けるため、対象物からの反射波における最大振幅値とは異なる値が返ってくるケースが考えられる。また、システムフローを見ると受信波に対する前処理はエンベロープ処理のみである。この処理のみの場合、超音波の減衰特性により対象物ごとの積分値の差異が小さくなることが考えられ、遠距離の対象物には高い判別精度が見込めない。以上より、この従来技術は、AEBシステムにとって必要な人体検出精度を実現できない可能性が高い。 In this prior art, the maximum amplitude value/integrated value of the reflected waveform is used to discriminate the type of the object outside the vehicle. However, when the object is at a short distance, the maximum amplitude value is affected by the reflected wave that bounces off the floor surface. Also, looking at the system flow, the preprocessing for received waves is only envelope processing. In the case of only this processing, it is conceivable that the difference in the integrated value for each object becomes small due to the attenuation characteristics of ultrasonic waves, and high discrimination accuracy cannot be expected for long-distance objects. From the above, there is a high possibility that this prior art cannot achieve the human body detection accuracy required for the AEB system.
一方、本実施形態の技術によれば、上述のように、超音波に関する距離に応じた減衰特性情報(例えば減衰関数)に基づいて反射波波形を正規化することにより、遠距離の対象物についても高い判別精度を見込めるので、AEBシステムにとって必要な人体検出精度を実現できる。 On the other hand, according to the technology of the present embodiment, as described above, by normalizing the reflected wave waveform based on the attenuation characteristic information (for example, attenuation function) according to the distance regarding the ultrasonic wave, Therefore, it is possible to achieve the human body detection accuracy required for the AEB system.
また、例えば、さらに他の従来技術(特開2012-189441号公報)は、人に特徴的な性質を利用して、静止した人とそれ以外の静止した物体との識別が可能な人物検出装置に関する技術である。各回の超音波送受信波の時系列パターンの時間的な変動量と、パターン識別手法により算出した現在の対象物に関しての人との類似度で、静止している障害物が人であるか否かを判別する。ここでの変動量は0番目の受信波形とそれ以降の各受信波形の内積の標準偏差を表し、また、類似度はパターン識別手法で算出した障害物の人らしさの程度を表す値である。 Further, for example, still another prior art (Japanese Patent Application Laid-Open No. 2012-189441) discloses a human detection device capable of distinguishing between a stationary person and other stationary objects by using characteristics characteristic of humans. It is a technology related to Whether or not a stationary obstacle is a person is determined based on the amount of temporal variation in the time-series pattern of ultrasonic waves transmitted and received each time, and the degree of similarity between the current object and the person calculated by the pattern identification method. determine. Here, the amount of variation represents the standard deviation of the inner product of the 0th received waveform and subsequent received waveforms, and the degree of similarity is a value representing the human-likeness of the obstacle calculated by the pattern identification method.
この技術は対象物を静止している物体に限定しているが、車両に搭載する人体判別システムでは対象物の状態に依存しないのが望ましい。また、物体を判別するのに使用している変動量について、物体が静止しているということは音波が当たる面がほとんど変わらないため、反射波のエネルギー量のばらつきが小さくなり対象物ごとの差異が見えやすい。しかし、対象物が動いている場合、例えば人間だと音波が当たる面が各波形で異なるためばらつきが大きくなり特徴量として扱えない。以上より対象物が動いている場合には本技術は使用できないと考えられる。 Although this technique limits objects to stationary objects, it is desirable that the human body identification system mounted on a vehicle does not depend on the state of the object. In addition, regarding the amount of variation used to identify an object, if the object is stationary, the surface on which the sound wave hits hardly changes, so the variation in the energy amount of the reflected wave becomes small, and the difference between objects is easy to see. However, when the object is moving, for example, in the case of a human being, the surface on which the sound wave hits is different for each waveform, so the variation becomes large and it cannot be handled as a feature amount. From the above, it is considered that this technique cannot be used when the object is moving.
一方、本実施形態の技術によれば、超音波の反射波波形を用いて上述のような処理を行うという技術の特性上、対象物が動いている場合にも充分に使用できる。 On the other hand, according to the technology of the present embodiment, due to the characteristics of the technology in which the above-described processing is performed using the reflected waveform of the ultrasonic wave, it can be sufficiently used even when the object is moving.
なお、車両制御装置34で実行される上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD(Digital Versatile Disk)、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されてコンピュータプログラムプロダクトとして提供されるようにしてもよい。また、当該プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、当該プログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。
The program for executing the above-described processing executed by the
以上、本発明の実施形態を説明したが、上記実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described above, the above embodiment is presented as an example and is not intended to limit the scope of the invention. This novel embodiment can be embodied in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. This embodiment and its modifications are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and its equivalents.
例えば、ウェーブレット変換の基底関数は、メキシカンハット関数に限定されず、他の基底関数を用いてもよい。 For example, the wavelet transform basis function is not limited to the Mexican hat function, and other basis functions may be used.
また、超音波センサ16の個数は12個に限定されず、他の個数であってもよい。
Also, the number of
10…車両、16…超音波センサ、20…車両制御システム、34…車両制御装置、42…制動制御部、341…取得部、342…正規化部、343…物体検出部、344…計算部、345…波形抽出部、346…解析部、347…パラメータ抽出部、348…人体検出部、349…制御部、3400…人体検出装置
DESCRIPTION OF
Claims (5)
前記検出情報に応じた反射波波形を、前記超音波の反射物体までの距離、および、超音波に関する距離に応じた減衰特性情報に基づいて、正規化する正規化部と、
正規化された前記反射波波形におけるピークが所定の閾値以上であった場合に、前記所定領域において物体を検出したと判定する物体検出部と、
前記物体検出部によって前記物体が検出された場合に、正規化後の前記反射波波形からピークを含む所定範囲の反射波波形を抽出する波形抽出部と、
前記所定範囲の反射波波形に対して、時間情報を失わない所定の周波数解析を行って複数のパラメータを生成する解析部と、
前記複数のパラメータのうち、前記物体が人体か否かを判別するためのパラメータを抽出するパラメータ抽出部と、
前記抽出されたパラメータに基づいて、前記物体が人体か否かを判別して人体を検出する人体検出部と、
を備える人体検出装置。 an acquisition unit that acquires detection information from an ultrasonic sensor that receives a reflected wave of an ultrasonic wave that has been transmitted to a predetermined area;
a normalization unit that normalizes the reflected wave waveform according to the detection information based on the distance to the reflecting object of the ultrasonic wave and the attenuation characteristic information according to the distance related to the ultrasonic wave;
an object detection unit that determines that an object has been detected in the predetermined area when a peak in the normalized reflected wave waveform is equal to or greater than a predetermined threshold;
a waveform extraction unit for extracting a reflected wave waveform in a predetermined range including a peak from the normalized reflected wave waveform when the object is detected by the object detection unit;
an analysis unit that performs a predetermined frequency analysis that does not lose time information on the reflected wave waveform in the predetermined range to generate a plurality of parameters;
a parameter extraction unit for extracting a parameter for determining whether the object is a human body from among the plurality of parameters;
a human body detection unit that detects a human body by determining whether the object is a human body based on the extracted parameters;
A human body detection device comprising:
前記人体検出部は、前記抽出されたパラメータ、および、前記物体の位置と速度に基づいて、前記物体が人体か否かを判別して人体を検出する、請求項1に記載の人体検出装置。 further comprising a calculation unit that calculates the position and speed of the object based on the normalized reflected wave waveform when the object is detected by the object detection unit,
2. The human body detection apparatus according to claim 1, wherein said human body detection unit detects a human body by determining whether said object is a human body based on said extracted parameters and the position and speed of said object.
前記人体検出装置による人体の検出結果に基づいて前記車両のブレーキを制御する制動制御部と、を備えるブレーキ制御システム。 a human body detection device according to any one of claims 1 to 4, which is mounted on a vehicle;
A brake control system comprising: a braking control unit that controls a brake of the vehicle based on a human body detection result by the human body detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021042362A JP2022142252A (en) | 2021-03-16 | 2021-03-16 | Human body detector and brake control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021042362A JP2022142252A (en) | 2021-03-16 | 2021-03-16 | Human body detector and brake control system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022142252A true JP2022142252A (en) | 2022-09-30 |
Family
ID=83420583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021042362A Pending JP2022142252A (en) | 2021-03-16 | 2021-03-16 | Human body detector and brake control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022142252A (en) |
-
2021
- 2021-03-16 JP JP2021042362A patent/JP2022142252A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10571564B2 (en) | Method for detecting at least one object in a surrounding area of a motor vehicle, driver assistance system and motor vehicle | |
US9409574B2 (en) | Vehicle acceleration suppression device and vehicle acceleration suppression method | |
US9714032B2 (en) | Driving assistance apparatus | |
US20160280264A1 (en) | Driving assistant system of vehicle and method for controlling the same | |
US9630599B2 (en) | Driving assistance apparatus | |
US20170080929A1 (en) | Movement-assisting device | |
US20100265049A1 (en) | Obstacle detection apparatus for vehicle | |
JP4442520B2 (en) | Course estimation device for vehicle | |
US20190391260A1 (en) | Method for monitoring the surroundings of a vehicle | |
CN112771591B (en) | Method for evaluating the influence of an object in the environment of a vehicle on the driving maneuver of the vehicle | |
US9921304B2 (en) | Object detection apparatus | |
US9293046B2 (en) | Vehicle rearward travel control device and method using lateral and rear detection areas | |
JP6193177B2 (en) | Motion support system and object recognition device | |
US11599117B2 (en) | Systems and methods for obstacle proximity detection | |
US20050004719A1 (en) | Device and method for determining the position of objects in the surroundings of a motor vehicle | |
JP4683910B2 (en) | Collision prevention support device | |
US20230182722A1 (en) | Collision avoidance method and apparatus | |
JP2022142252A (en) | Human body detector and brake control system | |
JP7397191B2 (en) | Operation method, computing device, and sensor device for a vehicle distance sensor that adapts a transmission signal according to the classification mode of an object | |
US10843692B2 (en) | Vehicle control system | |
CN114999224B (en) | Electric bicycle, intelligent environment sensing obstacle avoidance method for electric bicycle and storage medium | |
WO2023032538A1 (en) | Object detection device and object detection method | |
CN114390989B (en) | Vehicle control apparatus and control method thereof | |
WO2023026760A1 (en) | Object detection device and object detection method | |
WO2021229704A1 (en) | Object recognition device, route generation device, parking assistance device, object recognition system, route generation system, and parking assistance system |