JP2021196322A - 外部状況推定装置 - Google Patents

外部状況推定装置 Download PDF

Info

Publication number
JP2021196322A
JP2021196322A JP2020105281A JP2020105281A JP2021196322A JP 2021196322 A JP2021196322 A JP 2021196322A JP 2020105281 A JP2020105281 A JP 2020105281A JP 2020105281 A JP2020105281 A JP 2020105281A JP 2021196322 A JP2021196322 A JP 2021196322A
Authority
JP
Japan
Prior art keywords
target
range
camera
vehicle
target information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020105281A
Other languages
English (en)
Inventor
達矢 西本
Tatsuya Nishimoto
祐介 野沢
Yusuke Nozawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020105281A priority Critical patent/JP2021196322A/ja
Publication of JP2021196322A publication Critical patent/JP2021196322A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

【課題】対象が計測範囲をまたいだときに、計測を比較的早期に安定させる。【解決手段】外部状況推定装置(10)は、車両(1)の周辺のうち第1の範囲を対象とする第1センサ(13)と、車両の周辺のうち第1の範囲の一部を含む第2の範囲を対象とし、且つ、第1センサよりも高精度な第2のセンサ(12)と、第1及び第2センサの出力に基づいて第1及び第2の物標情報を夫々推定する推定手段(15)とを備える。推定手段は、第2の範囲のうち第1の範囲外の部分に存在する一の物標が、車両と一の物標との相対位置の変化に起因して、第1の範囲と第2の範囲との重複部分に入ったときに、第1の物標情報と第2の物標情報とを比較する。推定手段は、第1の物標情報及び第2の物標情報が共に、一の物標に対応している場合、第2の物標情報に含まれる位置及び速度を初期値として用いて、第1センサの出力に基づいて、第1の物標情報を推定する。【選択図】図3

Description

本発明は、外部状況推定装置の技術分野に関する。
この種の装置として、例えば、移動物体の距離、角度又は相対速度を時系列的に計測する複数の観測情報取得部を備え、追跡情報を観測情報取得部ごとに作成するとともに、観測領域が隣接する二つの追跡リストを比較して、一方の追跡リストに他方の追跡リストに存在しない追跡情報が存在する場合には、該追跡情報を他方の追跡リストに複製する共有処理を行う装置が提案されている(特許文献1参照)。
その他関連する技術として、特許文献2乃至4が挙げられる。具体的には、特許文献2には、前方ミリ波レーダと前側方ミリ波レーダとの両方で静止物と判定された物標を、静止物として確定する技術が記載されている。特許文献3には、車両間通信を用いて、自車両が検出できなかった移動体の存在を、他車両が検出したデータに基づいて、自車両の運転者に知らせる技術が記載されている。特許文献4には、複数の車両各々が車載カメラにより撮像された画像から認識した情報をネットワークを介して集約して統合することにより、道路環境再現データを生成して各車両に配信する技術が記載されている。
特開2018−066716号公報 特開2008−082974号公報 特開2006−285695号公報 特開2008−139320号公報
センサは、その計測範囲に含まれる計測対象を安定的に計測できるようになるまでに、ある程度の時間を要する。車両の周囲を複数のセンサで分担して計測しているときに、計測対象が一のセンサの計測範囲から他のセンサの計測範囲に移ることがある。この場合、他のセンサが計測対象を安定的に計測できるようになるまでの時間に起因して、例えば計測精度が一時的に低下してしまう。上述した特許文献1乃至4に記載の技術では、この点について考慮されていない。
本発明は、上記問題点に鑑みてなされたものであり、計測対象が計測範囲をまたいだときに、計測を比較的早期に安定させることができる外部状況推定装置を提供することを課題とする。
本発明の一態様に係る外部状況推定装置は、車両の周辺のうち第1の範囲を対象とする第1センサと、前記車両の周辺のうち前記第1の範囲の一部を含む第2の範囲を対象とし、且つ、前記第1センサよりも高精度な第2のセンサと、前記第1センサの出力に基づいて前記第1の範囲に存在する物標の位置及び速度を含む第1の物標情報を推定するとともに、前記第2センサの出力に基づいて前記第2の範囲に存在する物標の位置及び速度を含む第2の物標情報を推定する推定手段と、を備え、前記推定手段は、前記第2の範囲のうち前記第1の範囲外の部分に存在する一の物標が、前記車両と前記一の物標との相対位置の変化に起因して、前記第1の範囲と前記第2の範囲との重複部分に入ったときに、前記第1の物標情報と前記第2の物標情報とを比較し、前記推定手段は、前記第1の物標情報及び前記第2の物標情報が共に、前記一の物標に対応している場合、前記第2の物標情報に含まれる位置及び速度を初期値として用いて、前記第1センサの出力に基づいて、前記第1の物標情報を推定するというものである。
実施形態に係る外部状況推定装置の構成を示すブロック図である。 計測領域の一例を示す図である。 実施形態に係る外部状況推定装置の動作を示すフローチャートである。
外部状況推定装置に係る実施形態について図1乃至図3を参照して説明する。実施形態に係る外部状況推定装置10は、車両1に搭載されている。図1において、外部状況推定装置10は、前方カメラ11、前方レーダ12、PVM(Panoramic View Monitor)カメラ13、前側方レーダ14及び推定部15を備えて構成されている。ここで、前方レーダ12に係る計測精度は、PVMカメラ13に係る計測精度より高いものとする。
前方カメラ11、前方レーダ12、PVMカメラ13及び前側方レーダ14については、既存の各種態様を適用可能であるので、その詳細についての説明は省略する。尚、外部状況推定装置10は、前方カメラ11、前方レーダ12、PVMカメラ13及び前側方レーダ14に加えて、車両1の外部状況を検出可能な他のセンサ(例えばカメラ、レーダ等)を備えていてよい。
ここで、前方カメラ11、前方レーダ12、PVMカメラ13及び前側方レーダ14各々の計測領域の一例を図2に示す。尚、PVMカメラ13の計測領域は、車両1の左側方に限らず、例えば車両1の右側方、車両1の後方等を含んでいてよい。
図2を参照して、外部状況推定装置10が特に対象とする場面の一例について説明する。図2に示すように、車両1の進行方向前方に他車両2が存在しているものとする。その後、車両1及び他車両2が移動することにより(即ち、車両1及び他車両2の相対位置が変化することにより)、車両1の左側面と他車両2の正面とが対向するものとする(図2の符号“2´”参照)。この場合、他車両2は、前方カメラ11の計測領域及び前方レーダ12の計測領域から、PVMカメラ13の計測領域及び前側方レーダ14の計測領域に移ることになる。言い換えれば、他車両2を計測するセンサが、前方カメラ11及び前方レーダ12から、PVMカメラ13及び前側方レーダ14に変化することになる。
前方カメラ11等のセンサは、その計測範囲内に存在する物体を安定的に計測できるようになるまでに、ある程度の時間を要する。このため、他車両2が、例えば前方レーダ12の計測領域から外れるまでに、例えばPVMカメラ13が他車両2を安定的に計測できなければ、例えば計測精度が一時的に低下してしまう。そこで、外部状況推定装置10は、他車両2が図2の区間A(即ち、前方レーダ12の計測領域とPVMカメラ13の計測領域との重複部分)を通過する前に、PVMカメラ13が他車両2を安定的に計測できるように構成されている。
外部状況推定装置10の動作について図3のフローチャートを参照して具体的に説明する。図3において、推定部15は、前方カメラ11の出力に基づいて、前方カメラ11により物標(即ち、前方カメラ11の計測領域内に存在する物体に相当)が検知されたか否かを判定する(ステップS101)。
ステップS101の処理において、前方カメラ11により物標が検知されていないと判定された場合(ステップS101:No)、所定時間(例えば数十ミリ秒から数百ミリ秒等)が経過した後に、ステップS101の処理が再度行われる。
ステップS101の処理において、前方カメラ11により物標が検知されたと判定された場合(ステップS101:Yes)、推定部15は、前方カメラ11の出力(具体的には、前方カメラ11により撮像された画像)に基づいて、検知された物標の車両1に対する相対距離及び相対速度を推定する。推定部15は更に、検知された物標の種別を推定する。推定部15は、前方カメラ12の出力に基づいて推定された相対距離、相対速度及び種別を、前方カメラ11の検知結果とする。
尚、本実施形態において「推定する」は、「推定値を算出する」ことを意味してよい。「種別」には、例えば「車両」、「歩行者」、「自転車」等が含まれていてよい。
推定部15は、前方レーダ12の出力に基づいて、前方レーダ12により検知された物標の車両1に対する相対距離及び相対速度、並びに、該検知された物標の種別を推定する。推定部15は、前方レーダ12の出力に基づいて推定された相対距離、相対速度及び種別を、前方レーダ12の検知結果とする。
その後、推定部15は、前方カメラ11の検知結果と、前方レーダ12の検知結果との差異が閾値以内であるか否かを判定する(ステップS102)。つまり、ステップS102の処理では、前方カメラ11及び前方レーダ12の両方で同一の物標を検知しているか否かが判定される。
ステップS102の処理において、上記差異が閾値以内ではないと判定された場合(ステップS102:No)、所定時間が経過した後に、ステップS101の処理が再度行われる。
ステップS102の処理において、上記差異が閾値以内であると判定された場合(ステップS102:Yes)、推定部15は、前方カメラ11及び前方レーダ12の両方で検知された物標を前方Fusion物標とする(ステップS103)。このとき、推定部15は、前方Fusion物標に対応する前方カメラ11の検知結果と、前方Fusion物標に対応する前方レーダ12の検知結果とを統合する。
両者の検知結果を統合する際に、推定部15は、前方Fusion物標の車両1に対する縦距離及び横距離(又は、車両1から前方Fusion物標までの直線距離及び角度(例えば方位角))、並びに、前方Fusion物標の速度を推定する。推定部15は、これらの縦距離及び横距離(又は、直線距離及び角度)並びに速度を、前方Fusion物標に係る物標情報とする。
尚、「縦距離」は、車両1の進行方向に沿った方向の、車両1と物標との相対距離を意味し、「横距離」は、車両1の進行方向に交わる方向の、車両1と物標との相対距離を意味する。「直線距離」は、縦距離及び横距離の二乗和平方根に相当する。以降、「相対距離」という表記は、「縦距離及び横距離」と解釈されてもよいし、「直線距離」と解釈されてもよい。
次に、推定部15は、前方Fusion物標が、PVMカメラ13の検知範囲内にあるか否かを判定する(ステップS104)。つまり、ステップS104の処理では、前方Fusion物標が、前方レーダ12の計測領域とPVMカメラ13の計測領域との重複部分に存在するか否かが判定される。ステップS104の処理における判定は、前方Ffusion物標に係る物標情報と、PVMカメラ13の計測領域とに基づいて行われてよい。
ステップS104の処理において、前方Fusion物標が、PVMカメラ13の検知範囲内ではないと判定された場合(ステップS104:No)、ステップS104の処理が再度行われる。
ステップS104の処理において、前方Fusion物標が、PVMカメラ13の検知範囲内にあると判定された場合(ステップS104:Yes)、推定部15は、PVMカメラ13の出力に基づいて、PVMカメラ13により検知された物標の車両1に対する相対距離及び相対速度、並びに、該検知された物標の種別を推定する。推定部15は、PVMカメラ13の出力に基づいて推定された相対距離、相対速度及び種別を、PVMカメラ13の検知結果とする。
推定部15は、前方Fusion物標の位置(この位置は、物標情報に含まれる、例えば縦距離及び横距離から求めればよい)と、PVMカメラ13の検知結果により示される前方Fusion物標に対応する物標の認識位置(この位置は、検知結果に含まれる相対距離から求めればよい)との差異が閾値以内であるか否かを判定する(ステップS105)。このとき、前方Fusion物標に係る種別と、PVMカメラ13の検知結果に含まれる種別とが比較されてもよい。
ステップS105の処理において、上記差異が閾値以内ではないと判定された場合(ステップS105:No)、ステップS104の処理が再度行われる。他方、ステップS105の処理において、上記差異が閾値以内であると判定された場合(ステップS105:Yes)、推定部15は、PVMカメラ13の認識に前方Fusion物標に係る物標情報を代入する(ステップS106)。
ここで、PVMカメラ13の出力に基づいて、PVMカメラ13の検知結果(例えば、相対距離、相対速度等)を推定する方法について具体的に説明する。推定部15は、PVMカメラ13の出力(具体的には、PVMカメラ13により撮像された画像)と、所定の認識アルゴリズムとを用いて、時刻tにおける物標の縦距離及び横距離、並びに、速度を推定する。その後、推定部15は、時刻t−1における物標の縦距離及び横距離、並びに、速度と、時刻tにおける物標の縦距離及び横距離、並びに、速度とをフィルタリングして、時刻tにおける物標の最適な位置及び速度を推定する。このフィルタリングには、例えばカルマンフィルタが用いられてよい。
PVMカメラ13は、広域監視を目的としているため魚眼レンズを備えて構成されていることが多い。このため、PVMカメラ13により撮像された画像において、物標は比較的大きく歪んでいる。この結果、PVMカメラ13の検知結果の精度は、例えば前方レーダ12の検知結果に比べて悪い。そこで、推定部15は、時刻t−1における物標の縦距離及び横距離、並びに、速度として、前方Fusion物標に係る物標情報を用いている。つまり、ステップS106の処理における「前方Fusion物標に係る物標情報を代入」とは、時刻t−1における物標の縦距離及び横距離、並びに、速度として、前方Fusion物標に係る物標情報が用いられることを意味する。
上記ステップS106の処理と並行して又は相前後して、推定部15は、前側方レーダ14の出力に基づいて、前側方レーダ14により検知された物標の車両1に対する相対距離及び相対速度、並びに、該検知された物標の種別を推定する。推定部15は、前側方レーダ14の出力に基づいて推定された相対距離、相対速度及び種別を、前側方レーダ14の検知結果とする。
その後、推定部15は、PVMカメラ13の検知結果と前側方レーダ14の検知結果との差異が閾値以内であるか否かを判定する(ステップS107)。つまり、ステップS107の処理では、PVMカメラ13及び前側方レーダ14の両方で同一の物標を検知しているか否かが判定される。
ステップS107の処理において、上記差異が閾値以内ではないと判定された場合(ステップS107:No)、ステップS104の処理が再度行われる。他方、ステップS107の処理において、上記差異が閾値以内であると判定された場合(ステップS107:Yes)、推定部15は、PVMカメラ13及び前側方レーダ14の両方で検知された物標を前側方Fusion物標とする(ステップS108)。このとき、推定部15は、前側方Fusion物標に対応するPVMカメラ13の検知結果と、前側方Fusion物標に対応する前側方レーダ14の検知結果とを統合する。
(技術的効果)
例えばPVMカメラ13の検知結果を求める場合、上述したように、時刻tにおける一の物標の縦距離及び横距離等に加えて、時刻t−1における一の物標の縦距離及び横距離等が用いられる。このため何らの対策も採らなければ、PVMカメラ13により一の物標が検知された当初は、時刻t−1における一の物標の縦距離及び横距離等の精度が比較的低いため、時刻tにおける一の物標の縦距離及び横距離等の精度も比較的低くなってしまう。そして、PVMカメラ13の検知結果に係る精度が比較的高くなる(例えば、所望の精度に達するまで)には、ある程度の時間が必要である。
これに対して、当該外部状況推定装置10では、時刻t−1における一の物標の縦距離及び横距離等として、比較的精度の高い前方Fusion物標に係る物標情報が用いられる。このため、時刻tにおける一の物標の縦距離及び横距離等の精度は、前方Fusion物標に係る物標情報が用いられない場合に比べて高くなる。この結果、PVMカメラ13の検知結果に係る精度を比較的早期に高くすることができる。従って、当該外部状況推定装置10によれば、一の物標(即ち、計測対象)が計測領域をまたいだときであっても、計測を比較的早期に安定させることができる。加えて、PVMカメラ13及び前側方レーダ14各々に係る計測領域が、必要以上に広くなることを抑制することができる。
上述の如く構成された外部状況推定装置10を搭載する車両1は、例えば、計測領域をまたいだ一の物標に対して、衝突被害軽減ブレーキを適切に作動させることができる。尚、一の物標の一例としての他車両2が、前方レーダ12の計測領域とPVMカメラ13の計測領域との重複部分に存在する場合、前方Fusion物標に係る物標情報と、PVMカメラ13の検知結果(又は、前側方Fusion物標に係る物標情報)とのいずれに基づいて、例えば衝突被害軽減ブレーキを作動させるかは、適宜設定されてよい。
<変形例>
(1)PVMカメラ13に代えて、魚眼レンズとは異なるレンズ(例えば広角レンズ等)を備えるカメラが用いられてもよい。
(2)上述したステップS106の処理において、代入される前方Fusion物標に係る物標情報は、例えば時刻t−1における瞬時値に限らず、例えば時刻t−1以前の所定期間の時系列データから推定された推定値であってもよい。つまり、前方カメラ11及び前方レーダ12各々の検知結果の時系列情報が、PVMカメラ13による物標の検知に引き継がれてよい。
(3)前側方レーダ14に係る計測精度が、前方レーダ12に係る計測精度より低いときは、例えば前方レーダ12の計測領域と前側方レーダ14の計測領域との重複部分にある物標を、前側方レーダ14の出力に基づいて検知する場合に、前方Fusion物標に係る物標情報が、例えば初期値(上述した“時刻t−1における物標の縦距離及び横距離等”に相当)として用いられてよい。
以上に説明した実施形態から導き出される発明の態様を以下に説明する。
発明の一態様に係る外部状況推定装置は、車両の周辺のうち第1の範囲を対象とする第1センサと、前記車両の周辺のうち前記第1の範囲の一部を含む第2の範囲を対象とし、且つ、前記第1センサよりも高精度な第2のセンサと、前記第1センサの出力に基づいて前記第1の範囲に存在する物標の位置及び速度を含む第1の物標情報を推定するとともに、前記第2センサの出力に基づいて前記第2の範囲に存在する物標の位置及び速度を含む第2の物標情報を推定する推定手段と、を備え、前記推定手段は、前記第2の範囲のうち前記第1の範囲外の部分に存在する一の物標が、前記車両と前記一の物標との相対位置の変化に起因して、前記第1の範囲と前記第2の範囲との重複部分に入ったときに、前記第1の物標情報と前記第2の物標情報とを比較し、前記推定手段は、前記第1の物標情報及び前記第2の物標情報が共に、前記一の物標に対応している場合、前記第2の物標情報に含まれる位置及び速度を初期値として用いて、前記第1センサの出力に基づいて、前記第1の物標情報を推定するというものである。
上述の実施形態においては、「PVMカメラ13」が「第1センサ」の一例に相当し、「前方レーダ12」が「第2センサ」の一例に相当し、「推定部15」が「推定手段」の一例に相当する。「PVMカメラ13の計測領域」が「第1の範囲」の一例に相当し、「前方レーダ12の計測領域」が「第2の範囲」の一例に相当する。「PVMカメラ13の検知結果」が「第1の物標情報」の一例に相当し、「前方Fusion物標に係る物標情報」が「第2の物標情報」の一例に相当する。「時刻t−1における物標の縦距離及び横距離、並びに、速度として、前方Fusion物標に係る物標情報が用いられる」ことが、「前記第2の物標情報に含まれる位置及び速度を初期値として用いる」ことの一例に相当する。
本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う外部状況推定装置もまた本発明の技術的範囲に含まれるものである。
1…車両、10…外部状況推定装置、11…前方カメラ、12…前方レーダ、13…PVMカメラ、14…前側方レーダ、15…推定部

Claims (1)

  1. 車両の周辺のうち第1の範囲を対象とする第1センサと、
    前記車両の周辺のうち前記第1の範囲の一部を含む第2の範囲を対象とし、且つ、前記第1センサよりも高精度な第2のセンサと、
    前記第1センサの出力に基づいて前記第1の範囲に存在する物標の位置及び速度を含む第1の物標情報を推定するとともに、前記第2センサの出力に基づいて前記第2の範囲に存在する物標の位置及び速度を含む第2の物標情報を推定する推定手段と、
    を備え、
    前記推定手段は、前記第2の範囲のうち前記第1の範囲外の部分に存在する一の物標が、前記車両と前記一の物標との相対位置の変化に起因して、前記第1の範囲と前記第2の範囲との重複部分に入ったときに、前記第1の物標情報と前記第2の物標情報とを比較し、
    前記推定手段は、前記第1の物標情報及び前記第2の物標情報が共に、前記一の物標に対応している場合、前記第2の物標情報に含まれる位置及び速度を初期値として用いて、前記第1センサの出力に基づいて、前記第1の物標情報を推定する
    ことを特徴とする外部状況推定装置。
JP2020105281A 2020-06-18 2020-06-18 外部状況推定装置 Pending JP2021196322A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020105281A JP2021196322A (ja) 2020-06-18 2020-06-18 外部状況推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020105281A JP2021196322A (ja) 2020-06-18 2020-06-18 外部状況推定装置

Publications (1)

Publication Number Publication Date
JP2021196322A true JP2021196322A (ja) 2021-12-27

Family

ID=79197753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020105281A Pending JP2021196322A (ja) 2020-06-18 2020-06-18 外部状況推定装置

Country Status (1)

Country Link
JP (1) JP2021196322A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189076A1 (ja) * 2022-03-28 2023-10-05 i-PRO株式会社 監視システム及び監視方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189076A1 (ja) * 2022-03-28 2023-10-05 i-PRO株式会社 監視システム及び監視方法

Similar Documents

Publication Publication Date Title
CN108028023B (zh) 信息处理装置、信息处理方法和计算机可读存储介质
US5249128A (en) System and method for determining the distance to an energy emitting object
US9090263B2 (en) Lane fusion system using forward-view and rear-view cameras
JP6464673B2 (ja) 支障物検知システムおよび鉄道車両
US6744380B2 (en) Apparatus for monitoring area adjacent to vehicle
JP5281664B2 (ja) 車線逸脱警報装置および車線逸脱警報システム
JP6770393B2 (ja) トラッキング装置及びプログラム
US10565867B2 (en) Detection and documentation of tailgating and speeding violations
JP3671825B2 (ja) 車間距離推定装置
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
EP2924655B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
US20120022739A1 (en) Robust vehicular lateral control with front and rear cameras
KR101326943B1 (ko) 추월차량 경고 시스템 및 추월차량 경고 방법
JP6941070B2 (ja) ステレオカメラ装置
WO2019202628A1 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JPWO2012056655A1 (ja) 交通事故検出装置及び交通事故検出方法
JP2019207653A (ja) 検知装置及び検知システム
EP2913998B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
EP3315998B1 (en) Apparatus and method for determining a speed of a vehicle
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP2021196322A (ja) 外部状況推定装置
KR100751096B1 (ko) 광흐름을 이용한 속도 측정 장치 및 그 방법
JP6604052B2 (ja) 走路境界推定装置及び走路境界推定方法
US20200225342A1 (en) Object recognition device and object recognition method
WO2018134139A1 (en) Establishing a measure for a local traffic density by a driver assistance system of a motor vehicle