JP7382782B2 - 物体認識方法及び物体認識システム - Google Patents
物体認識方法及び物体認識システム Download PDFInfo
- Publication number
- JP7382782B2 JP7382782B2 JP2019186328A JP2019186328A JP7382782B2 JP 7382782 B2 JP7382782 B2 JP 7382782B2 JP 2019186328 A JP2019186328 A JP 2019186328A JP 2019186328 A JP2019186328 A JP 2019186328A JP 7382782 B2 JP7382782 B2 JP 7382782B2
- Authority
- JP
- Japan
- Prior art keywords
- area
- vehicle
- gaze
- gaze area
- detectable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 66
- 230000006854 communication Effects 0.000 claims description 103
- 238000004891 communication Methods 0.000 claims description 101
- 238000001514 detection method Methods 0.000 claims description 63
- 238000004364 calculation method Methods 0.000 claims description 52
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 11
- 230000010354 integration Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Description
本発明は、複数の車両に搭載した物体検出手段により特定の注視領域内の物体の有無を検出する際に、本当に注視領域に物体が存在しないのか、又は注視領域に物体が存在するか否かが不明であるのかを区別することを目的とする。
(構成)
第1実施形態の物体認識システムは、第1車両1に搭載された車載装置10と、第2車両2に搭載された車載装置20とを備える。
車載装置20は、第2車両2の周囲の物体を検出して、第2車両2の周囲の物体の検出結果を示す周囲物体情報を車載装置10へ送信する。
また、車載装置10は、注視領域における物体の有無に応じて、操舵角のみあるいは加減速のみを制御する等、第1車両1の走行に関わる運転動作を部分的に支援してもよい。
以下、車載装置10による第1車両1の周囲の物体の検出結果を示す周囲物体情報を「第1周囲物体情報」と表記することがあり、車載装置20による第2車両2の周囲の物体の検出結果を示す周囲物体情報を「第2周囲物体情報」と表記することがある。
測位装置11は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して第1車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置11は、例えば慣性航法装置であってもよい。
地図データベース12として、例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な走行レーン(車線)単位の車線情報を含む。
なお、地図データベース12は、無線通信(路車間通信、または、車車間通信でも可)等の通信システムを介して外部から地図情報を取得してもよい。この場合、地図データベース12は、定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。また、地図データベース12は、第1車両1が実際に走行した走路を、地図情報として蓄積してもよい。
例えば周囲環境センサ13は、第1車両1に搭載されたカメラを備える。カメラは、第1車両1の周囲の画像を撮影し、撮像画像を取得する。
周囲環境センサ13は、レーザレーダやミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの測距センサを備えてもよい。
またナビゲーションシステム16は、設定した走行経路の情報をコントローラ17へ出力する。自律走行制御を行う際に、コントローラ17は、ナビゲーションシステム16が設定した走行経路に沿って走行するように第1車両1を自動で運転する。
記憶装置は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明するコントローラ17の機能は、例えばプロセッサが、記憶装置に格納されたコンピュータプログラムを実行することにより実現される。
例えば、コントローラ17は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ17はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
測位装置21は、第2車両2の現在位置を測定する。地図データベース22には、高精度地図やナビ地図が記憶されている。周囲環境センサ23は、第2車両2の周囲の物体を検出する複数の異なる種類のセンサを備える。車両センサ24は、第2車両2に搭載され、第2車両2から得られる様々な情報(車両信号)を検出する。
測位装置21、地図データベース22、周囲環境センサ23、及び車両センサ24の構成及び機能は、車載装置10の、測位装置11、地図データベース12、周囲環境センサ13、及び車両センサ14と同様であってよく、重複する説明を省略する。
記憶装置は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM及びRAM等のメモリを含んでよい。
以下に説明するコントローラ26の機能は、例えばプロセッサが、記憶装置に格納されたコンピュータプログラムを実行することにより実現される。
例えば、コントローラ26は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ26はフィールド・プログラマブル・ゲート・アレイ(FPGA)等のプログラマブル・ロジック・デバイス(PLD)等を有していてもよい。
図4Aは、第2車両2により第1車両1の車載装置10の周囲環境センサ13に死角領域4が発生し、車載装置10が、死角領域4内の対向車両3を検出できない状態を示している。
このような場合、第2車両2の車載装置20の周囲環境センサ23で対向車両3を検出し、その検出結果を示す第2周囲物体情報を車載装置20から車載装置10へ送信すれば、車載装置10は、死角領域4内の対向車両3を認識することができる。
このため、第2車両2の車載装置20から第2周囲物体情報を取得しても、第1車両1の車載装置10は、本当に死角領域4に対向車両3が存在しないのか、それとも死角領域4に物体が存在するか否かが不明なのかを区別できない。
そして、第1検出可能領域8aと第2検出可能領域8bとを加えた和領域である統合領域9が特定の注視領域7の全域を包含するか否かを判定する。
一方で、注視領域7で物体3が検出されず、且つ統合領域9が注視領域7の全てを包含する場合には、注視領域7に物体3が存在しないと判定する。また、注視領域7で物体3が検出され、且つ統合領域9が注視領域7の全てを包含する場合には、注視領域7に物体3が存在すると判定する。
これによって、第1車両1の車載装置10は、注視領域7に本当に物体3が存在しないのか、注視領域7に物体3が存在するか否かが不明なのかを区別することができる。このため、注視領域7に本当に物体3が確実に存在しないことを認識できる。
図6を参照する。第2車両2に搭載される車載装置20のコントローラ26は、自己位置算出部30と、周囲物体検出部31と、第2検出可能領域算出部32と、通信処理部33を備える。
自己位置算出部30は、測位装置21による測定結果や、車両センサ24からの検出結果を用いたオドメトリに基づいて、第2車両2の現在の絶対位置、すなわち、共通座標系(例えば世界座標系)における第2車両2の位置と、速度とを算出する。
第2周囲物体情報は、第2車両2の位置を基準とする車両座標系で物体の位置を表してもよい。
周囲物体検出部31は、第2車両2の自己位置情報を用いて、第2周囲物体情報の座標を共通座標系の座標に変換してもよい。
例えば、第2検出可能領域算出部32は、周囲環境センサ23の性能、配置及び配向により定まる周囲環境センサ23の既知の検出範囲から、周囲環境センサ23が検出した物体により生じる死角領域を除くことにより第2検出可能領域8bを算出してよい。
第2検出可能領域情報は、第2車両2の位置を基準とする車両座標系で第2検出可能領域8bを表してもよい。第2検出可能領域算出部32は、第2車両2の自己位置情報を用いて、第2検出可能領域情報の座標を共通座標系の座標に変換してもよい。
通信処理部33は、通信装置25を用いて第1車両1の車載装置10との間で情報を授受する。通信処理部33は、第2車両2の位置及び速度を示す第2車両2の自己位置情報、第2周囲物体情報、及び第2検出可能領域情報を、第1車両1の通信装置15へ送信する。例えば、通信処理部33は、同時に若しくは一回の通信処理により第2周囲物体情報及び第2検出可能領域情報を通信装置15へ送信する。
自己位置算出部41は、測位装置11による測定結果や、車両センサ14からの検出結果を用いたオドメトリに基づいて、第1車両1の現在の絶対位置、すなわち、共通座標系における第1車両1の位置と、速度とを算出する。
第1周囲物体情報は、第1車両1の位置を基準とする車両座標系で物体の位置を表してもよい。
周囲物体検出部42は、第1車両1の自己位置情報を用いて、第1周囲物体情報の座標を共通座標系の座標に変換してもよい。
例えば、第1検出可能領域算出部44は、周囲環境センサ13の性能、配置及び配向により定まる周囲環境センサ13の既知の検出範囲から、周囲環境センサ13が検出した物体により生じる死角領域を除くことにより第1検出可能領域8aを算出してよい。
第1検出可能領域情報は、第1車両1の位置を基準とする車両座標系で第1検出可能領域8aを表してもよい。第1検出可能領域算出部44は、第1車両1の自己位置情報を用いて、第1検出可能領域情報の座標を共通座標系の座標に変換してもよい。
他車両情報取得部46は、通信処理部45と通信処理部33との間で授受された情報から、車載装置20から送信された第2車両2の自己位置情報と、第2周囲物体情報と、第2検出可能領域情報を取得する。
図5から明らかなとおり、統合領域9は、第1検出可能領域8a及び第2検出可能領域8bの重複領域と、第1検出可能領域8aのうち重複領域に含まれない部分と、第2検出可能領域8bのうち重複領域に含まれない部分の集合である。
第1検出可能領域情報及び第2検出可能領域情報が、それぞれ第1車両1及び第2車両を基準とする車両座標系で第1検出可能領域8a及び第2検出可能領域8bを表す場合には、統合領域算出部47は、第1車両1及び第2車両2の自己位置情報に基づいて、第2検出可能領域8bの座標を第1車両1の車両座標系に変換した後に、第1検出可能領域8aに足し合わせて統合領域9を算出する。
第1周囲物体情報と第2周囲物体情報が、共通座標系で物体の位置及び速度を表す場合には、周囲物体情報統合部48は、これら第1周囲物体情報と第2周囲物体情報を単純に統合する。
例えば、周囲物体情報統合部48は、物体の検出に使用されたセンサの種類や、センサから物体までの距離、センサと物体との相対速度に応じて信頼度を決定してよい。
図8Aを参照する。注視領域設定部43は、第1車両1の予定走行軌道63と地図情報とに基づいて、予定走行軌道63と他物体61が通りうる予測軌道62とが交差する軌道交差点64を算出する。注視領域設定部43は、第1車両1が軌道交差点64を通過するまでに軌道交差点64に到達する他物体61が存在しうる領域7を予測して、注視領域として設定する。
注視領域設定部43は、第1車両1が軌道交差点64を通過するまでに軌道交差点64に到達する対向車両61が存在しうる領域7を予測して、注視領域として設定する。
注視領域設定部43は、対向車線60が占める領域のうち、軌道交差点64から対向車線の進行方向と反対方向に注視領域長L1だけ離れた地点までの範囲7を、注視領域として設定してよい。
注視領域設定部43は、第1車両1が軌道交差点74を通過するまでに軌道交差点74に到達する歩行者71、72が存在しうる領域7a及び7bを予測して、これら領域7a及び7bの合計を注視領域7として設定する。
注視領域設定部43は、横断歩道70又は歩道75若しくは76が占める領域のうち、軌道交差点74から注視領域長L2だけ離れた地点までの範囲7a及び7bを、注視領域7として設定してよい。
統合領域算出部47が算出した統合領域9が、注視領域7の少なくとも一部を包含しない場合には、物体認識部49は、注視領域7に物体が存在するか否かが不明であると判定する。
注視領域7内に存在する物体の情報を含む場合に、物体認識部49は、注視領域7に物体が存在すると判定する。注視領域7内に存在する物体の情報を含まない場合に、物体認識部49は、注視領域7に物体が存在しないと判定する。
図9を参照する。第1車両1の予定走行軌道63と対向車線60とが交差する場合、例えば仮想停止線設定部50は、第1車両1が対向車線60に接する位置に仮想停止線81を設定してよい。
第1車両1の予定走行軌道63と横断歩道とが交差する場合も同様に、第1車両1が横断歩道に接する位置に仮想停止線81を設定してよい。
具体的には、車両制御部51は、予定走行軌道63に沿って交差点を通過する目標走行軌道及び目標速度プロファイルを生成し、目標速度プロファイルに従う速度で第1車両1が目標走行軌道を走行するようにアクチュエータ18を駆動する。
具体的には、車両制御部51は、予定走行軌道63に沿って対向車両や歩行者を妨げない位置まで第1車両1を走行させて、停止させる目標走行軌道及び目標速度プロファイルを生成し、目標速度プロファイルに従う速度で第1車両1が目標走行軌道を走行して停止するようにアクチュエータ18を駆動する。
第1車両1が仮想停止線81まで到達する前に第1検出可能領域8aが注視領域7を全て包含し、物体認識部49が注視領域7内に物体が存在しないと判定した場合には、車両制御部51は、対向車両や歩行者を妨げない位置で第1車両1を待機させるように第1車両1の走行を制御する。
次に、第1実施形態の物体認識方法の一例を説明する。図10は、物体認識方法の全体フローのフローチャートである。
ステップS1では物体認識処理が行われる。物体認識処理では、注視領域7内に物体が存在するか否か、それとも注視領域7内の物体の存否が不明であるか否かを判定する。
ステップS2では車両制御処理が行われる。車両制御処理では、物体認識処理の判定結果に応じて、第1車両の走行を制御する。
ステップS3において、第1車両1のイグニッションスイッチ(IGN)がオフになったか否かを判定する。イグニッションスイッチがオフになっていない場合(ステップS3:N)に処理はステップS1に戻る。イグニッションスイッチがオフになった場合(ステップS3:Y)に処理は終了する。
ステップS10において第1車両1の注視領域設定部43は、注視領域7を設定する。
ステップS11において第2車両2の周囲物体検出部31は、第2車両2の周囲の物体を検出し、これらの検出結果を示す第2周囲物体情報を生成する。第2検出可能領域算出部32は、第2車両2の周囲の物体を検出可能な第2検出可能領域8bを算出する。通信処理部33は、第2検出可能領域情報と第2周囲物体情報を、第2車両2から第1車両1へ送信する。
ステップS13において周囲物体検出部42は、第1車両1の周囲の物体を検出し、これらの検出結果を示す第1周囲物体情報を生成する。周囲物体情報統合部48は、第1周囲物体情報と第2周囲物体情報とを統合する。
ステップS16において物体認識部49は、ステップS13で統合した周囲物体情報に基づいて、注視領域7に物体が存在するか否かを判定する。注視領域7に物体が存在する場合(ステップS16:Y)に処理はステップS17へ進む。
ステップS17において物体認識部49は、注視領域7に物体が存在すると判定する。その後に、物体認識処理は終了する。
ステップS18において物体認識部49は、注視領域7に物体が存在しないと判定する。その後に、物体認識処理は終了する。
注視領域7に物体が存在するか否かが不明であると物体認識部49が判定しなかった場合(ステップS20:N)に処理はステップS21へ進む。
注視領域7に物体が存在すると物体認識部49が判定した場合(ステップS21:Y)に処理はステップS22へ進む。注視領域7に物体が存在しないと物体認識部49が判定した場合(ステップS21:N)に処理はステップS22へ進む。
ステップS23において車両制御部51は、交差点を通過するように第1車両1の走行を制御する。その後に、車両制御処理は終了する。
ステップS24において仮想停止線設定部50は、仮想停止線81を設定する。ステップS25において車両制御部51は、第1車両1が徐行して交差点に進入するように第1車両1の走行を制御する。
ステップS27において車両制御部51は、第1車両1を仮想停止線81に停止させ、その場で待機する。その後に、車両制御処理は終了する。
ステップS30において車両制御部51は、対向車両や歩行者を妨げない位置で第1車両1を待機させるように第1車両1の走行を制御する。その後に、車両制御処理は終了する。
ステップS23において車両制御部51は、交差点を通過するように第1車両1の走行を制御する。その後に、車両制御処理は終了する。
(1)注視領域設定部43は、物体の有無を検出すべき注視領域7を設定する。第1検出可能領域算出部44は、第1車両1に搭載した周囲環境センサ13が第1車両1の周囲の物体を検出できる第1検出可能領域8aを算出する。第2検出可能領域算出部32は、第2車両2に搭載した周囲環境センサ23が第2車両2の周囲の物体を検出できる第2検出可能領域8bを算出する。物体認識部49は、第1検出可能領域8aと第2検出可能領域8bとを加えた和領域である統合領域9が注視領域7の全域を包含するか否かを判定し、統合領域9が注視領域7の少なくとも一部を包含しない場合には、注視領域7に物体が存在するか否かが不明であると判定し、統合領域9が注視領域7の全域を包含する場合であって、且つ注視領域7で物体が検出されない場合には、注視領域7に物体が存在しないと判定する。
第1車両1の車載装置10は、注視領域7に本当に物体3が存在しないのか、注視領域7に物体3が存在するか否かが不明なのかを区別することができる。このため、注視領域7に本当に物体3が確実に存在しないことを認識できる。
これにより、第1車両1の車載装置10は、注視領域7に存在する物体を認識できる。
これにより通信処理部33は、第2周囲物体情報と第2検出可能領域情報とを同時に第2車両2から第1車両1へ送信できる。この結果、第2車両2と第1車両1との間の情報通信の回数を1回で完了することができるため、オーバーヘッドを削減して処理時間や処理負荷を低減することができる。
このように設定された注視領域7に物体が存在しなければ、第1車両1は他物体と交錯することなく予定走行軌道63を走行することができるため、この注視領域7内の物体有無判定結果に応じて第1車両1の行動を計画できる。
このように設定された注視領域7に対向車両が存在しなければ、第1車両1は対向車両と交錯することなく予定走行軌道63を走行することができるため、この注視領域7内の物体有無判定結果に応じて第1車両1の行動を計画できる。
このように設定された注視領域7に歩行者が存在しなければ、第1車両1は歩行者と交錯することなく予定走行軌道63を走行することができるため、この注視領域7内の物体有無判定結果に応じて第1車両1の行動を計画できる。
次に、第2実施形態を説明する。第1実施形態の第2車両2の車載装置20は、統合領域9が注視領域7の全域を包含するか否かを第1車両1の車載装置10が判定する前に、第2周囲物体情報及び第2検出可能領域情報を第1車両1へ送信する。例えば、第1実施形態の車載装置20は、第2周囲物体情報及び第2検出可能領域情報を同時に若しくは一回の通信処理により第1車両1へ送信する。
図7を参照する。第1車両1の車載装置10の物体認識部49が、統合領域9が注視領域7を全て包含すると判定すると、通信処理部45は、第2周囲物体情報の送信を要求する周囲物体情報要求信号を第2車両2の車載装置20の通信処理部33へ送信する。
通信処理部33は、周囲物体情報要求信号の受信に応答して、周囲物体検出部31が生成した第2周囲物体情報を通信処理部45へ送信する。その他の動作は、第1実施形態と同様である。
図13は、第2実施形態の物体認識処理の一例のフローチャートである。
ステップS40の処理は図11のステップS10の処理と同様である。
ステップS41において第2検出可能領域算出部32は、第2車両2の周囲の物体を検出可能な第2検出可能領域8bを算出する。通信処理部33は、第2周囲物体情報を第2車両2から第1車両1へ送信する。
ステップS45において第2車両2の周囲物体検出部31は、第2車両2の周囲の物体を検出し、これらの検出結果を示す第2周囲物体情報を生成する。第1車両1の通信処理部45は、第2周囲物体情報の送信を要求する周囲物体情報要求信号を第2車両2の通信処理部33へ送信する。通信処理部33は、周囲物体情報要求信号の受信に応答して、周囲物体検出部31が生成した第2周囲物体情報を第1車両の通信処理部45へ送信する。
ステップS46~S49の処理は、図11のステップS13、S16~S18の処理と同様である。
統合領域9が注視領域7の全域を包含すると第1車両1の物体認識部49が判定した場合に、第2車両2の通信処理部33は、周囲環境センサ23が検出した第2車両2の周囲の物体の第2周囲物体情報を、第2車両2から第1車両1へ送信する。
これにより、第2周囲物体情報の送信が不要であるか否かを判定できるので、不要な通信を減らすことができる。
次に、第3実施形態を説明する。第1実施形態及び第2実施形態の第2車両2の車載装置20は、第2検出可能領域8b内で検出した全ての物体の情報を、第2周囲物体情報として第1車両1の車載装置10へ送信する。第2周囲物体情報には注視領域7以外の領域で検出した物体の情報まで含まれており、第2車両2は不要な情報まで第1車両1へ送信していた。
第3実施形態の車載装置20は、第2検出可能領域8bと注視領域7の重複領域で検出された物体の情報のみを第1車両1へ送信する。
また、第3実施形態の車載装置10は、第1実施形態の車載装置10と同様の構成を有しており、同様の機能については重複説明を省略する。
周囲物体情報要求信号を通信処理部33へ送信する場合、通信処理部45は、注視領域設定部43が設定した注視領域7の情報を、通信処理部33へ送信する。
第2車両2の車載装置20の周囲物体情報選択部34は、通信処理部45と通信処理部33との間で授受された情報から、注視領域7の情報を取得する。
通信処理部33は、周囲物体情報要求信号の受信に応答して、周囲物体情報選択部34が選択した第2周囲物体情報を通信処理部45へ送信する。その他の動作は、第1実施形態や第2実施形態と同様である。
図15は、第3実施形態の物体認識処理の一例のフローチャートである。
ステップS50~S54の処理は、図13のステップS40~S44の処理と同様である。
ステップS55において第1車両1の通信処理部45は、第2周囲物体情報の送信を要求する周囲物体情報要求信号と注視領域7の情報を、第2車両2の通信処理部33へ送信する。
ステップS57において周囲物体情報選択部34は、第2周囲物体情報のうち重複領域で検出された物体の情報のみを選択する。
通信処理部33は、周囲物体情報要求信号の受信に応答して、周囲物体情報選択部34が選択した第2周囲物体情報を通信処理部45へ送信する。
ステップS58~S61の処理は、図11のステップS13、S16~S18の処理と同様である。
第2車両2の通信処理部33は、注視領域7と第2検出可能領域8bとの重複領域で周囲環境センサ23が検出した第2車両2の周囲の物体の第2周囲物体情報を、第2車両2から第1車両1へ送信する。
これにより、第2車両2で取得した第2周囲物体情報のうち、第1車両1にとって必要な部分の情報のみに限定して送信できる。これにより通信量を削減できる。
次に、第4実施形態を説明する。第1~3実施形態では、第2車両2で検出した物体の第2周囲物体情報を第1車両1へ送信した。第4実施形態では、第1車両1及び第2車両2の間で、第1周囲物体情報や第2周囲物体情報をやり取りせずに、注視領域7に物体が存在するか否か、注視領域7における物体の存否が不明であるか否かを判定する。
物体認識部49は、第1周囲物体情報に基づいて、第1検出可能領域8aと注視領域7との重複領域に物体が存在するか否かを判定する。
一方で第1検出可能領域8aと注視領域7との重複領域に物体が存在する場合には、通信処理部45は、差分領域の情報を通信処理部33へ送信しない。
コントローラ26は物体認識部36を備える。物体認識部36は、通信処理部45と通信処理部33との間で授受された情報から、差分領域の情報を取得する。
反対に、第2検出可能領域8bが差分領域を全て包含する場合には、物体認識部36は、第2周囲物体情報に基づいて差分領域に物体が存在するか否かを判定する。
通信処理部33は、物体認識部36の判定結果を、第1車両の通信処理部45へ送信する。
第1検出可能領域8aと注視領域7との重複領域に物体が存在する場合、又は注視領域7に物体が存在すると物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在すると判定する。
注視領域7に物体が存在しないと物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在しないと判定する。注視領域7に物体が存在するか否かが不明であると物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在するか否かが不明であると判定する。その他の動作は、第1~3実施形態と同様である。
図18は、第4実施形態の物体認識処理の一例のフローチャートである。
ステップS70の処理は図11のステップS10の処理と同様である。
ステップS71において第1車両1の物体認識部49は、第1検出可能領域8aと注視領域7との重複領域に物体が存在するか否かを判定する。重複領域に物体が存在する場合(ステップS71:Y)に処理はステップS72へ進む。重複領域に物体が存在しない場合(ステップS71:N)に処理はステップS73へ進む。
ステップS73において差分領域算出部52は、注視領域7のうち第1検出可能領域8aに含まれない差分領域を算出する。通信処理部45は、差分領域の情報を第2車両2の通信処理部33へ送信する。
第2検出可能領域8bが差分領域の少なくとも一部を包含しない場合(ステップS74:N)に処理はステップS75へ進む。
ステップS76において物体認識部36は、第2周囲物体情報に基づいて差分領域に物体が存在するか否かを判定する。差分領域に物体が存在する場合(ステップS76:Y)に処理はステップS77へ進む。差分領域に物体が存在しない場合(ステップS76:N)に処理はステップS78へ進む。
ステップS78において物体認識部36は注視領域7に物体が存在しないと判定する。その後に処理はステップS79に進む。
ステップS79において通信処理部33は、物体認識部36の判定結果を、第1車両の通信処理部45へ送信する。
注視領域7に物体が存在しないと物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在しないと判定する。
注視領域7に物体が存在するか否かが不明であると物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在するか否かが不明であると判定する。
その後に物体認識処理は終了する。
第1車両1の差分領域算出部52は、注視領域7のうち第1検出可能領域8aに含まれない差分領域を算出する。第2車両2の物体認識部36は、第2検出可能領域8bが差分領域を全て包含するか否かを判定する。第2検出可能領域8bが差分領域の少なくとも一部を場合には、注視領域7に物体が存在するか否かが不明であると判定する。
これにより、第1車両1と第2車両との間で第1周囲物体情報や第2周囲物体情報をやり取りしなくても、注視領域7における物体の存否が不明であるか否かを判定できる。このため通信量を削減できる。
上記の説明では、車載装置20と車載装置10とが異なる構成を有する実施形態について説明した。しかしながら、車載装置10及び車載装置20の各々が、上記の車載装置10及び車載装置20の両方の構成及び機能を有するように構成して、車載装置10と車載装置20とが互いの役割を適宜交換してもよい。
例えば、第1検出領域情報と、第1周囲物体情報を、第1車両1の車載装置10から第2車両2の車載装置20に送信し、第2車両2の予定走行軌道と地図情報とに基づいて設定した注視領域に物体が存在するか否か、注視領域における物体の存否が不明であるか否かを、第2車両2の車載装置20で判定してもよい。
さらに、注視領域の情報と、第1検出領域情報、第2検出領域情報と、第1周囲物体情報、第2周囲物体情報とを、第1車両1及び第2車両2以外の外部の計算装置に送信してもよい。外部の計算装置で、注視領域において物体が存在するか否か、注視領域における物体の存否が不明であるか否かを判定し、その判定結果を第1車両1もしくは第2車両2で受信してもよい。
例えば、注視領域7に物体が存在するか否かが不明である旨や、注視領域7に物体が存在する、若しくは存在しない旨を知らせる視覚的、聴覚的な信号やメッセージを生成して、第1車両1の乗員に提示してもよい。
Claims (10)
- 物体の有無を検出すべき注視領域を設定する注視領域設定ステップと、
第1車両に搭載した第1物体検出部が前記第1車両の周囲の物体を検出できる第1検出可能領域を算出する第1検出領域算出ステップと、
第2車両に搭載した第2物体検出部が前記第2車両の周囲の物体を検出できる第2検出可能領域を算出する第2検出領域算出ステップと、
前記第1検出可能領域と前記第2検出可能領域とを加えた和領域が前記注視領域の全域を包含するか否かを判定し、前記和領域が前記注視領域の少なくとも一部を包含しない場合には、前記注視領域に物体が存在するか否かが不明であると判定し、前記和領域が前記注視領域の全域を包含する場合であって、且つ前記注視領域で物体が検出されない場合に前記注視領域に物体が存在しないと判定する判定ステップと、
をコントローラが実行することを特徴とする物体認識方法。 - 前記判定ステップにおいて、前記和領域が前記注視領域の全域を包含する場合であって、且つ前記注視領域で物体が検出された場合に前記注視領域に物体が存在すると判定することを特徴とする請求項1に記載の物体認識方法。
- 前記注視領域設定ステップと、第1検出領域算出ステップと、前記判定ステップとを前記第1車両において実行し、
前記和領域が前記注視領域の全域を包含するか否かを判定する前に、前記第2物体検出部が検出した前記第2車両の周囲の物体の検出結果と、前記第2検出可能領域の情報とを、前記第2車両の通信装置が前記第1車両へ送信することを特徴とする請求項1又は2に記載の物体認識方法。 - 前記注視領域設定ステップと、第1検出領域算出ステップと、前記判定ステップとを前記第1車両において実行し、
前記和領域が前記注視領域の全域を包含すると判定した場合に、前記第2物体検出部が検出した前記第2車両の周囲の物体の検出結果を、前記第2車両の通信装置が前記第1車両へ送信することを特徴とする請求項1又は2に記載の物体認識方法。 - 前記注視領域設定ステップと、第1検出領域算出ステップと、前記判定ステップとを前記第1車両において実行し、
前記注視領域と前記第2検出可能領域との重複領域で前記第2物体検出部が検出した前記第2車両の周囲の物体の検出結果を、前記第2車両の通信装置が前記第1車両へ送信することを特徴とする請求項1又は2に記載の物体認識方法。 - 前記コントローラは、
前記注視領域のうち前記第1検出可能領域に含まれない差分領域を算出し、
前記第2検出可能領域が前記差分領域を包含するか否かを判定し、
前記第2検出可能領域が前記差分領域を包含しない場合には、前記注視領域に物体が存在するか否かが不明であると判定する、
ことを特徴とする請求項1又は2に記載の物体認識方法。 - 前記コントローラは、
前記第1車両の予定走行軌道と地図情報とに基づいて、前記第1車両の予定走行軌道と、他物体が通りうる予測軌道とが交差する軌道交差点を算出し、
前記第1車両が前記軌道交差点を通過するまでに前記軌道交差点に到達する他物体が存在しうる領域を予測して、前記注視領域として設定する、
ことを特徴とする請求項1~6のいずれか一項に記載の物体認識方法。 - 前記コントローラは、
前記第1車両の予定走行軌道と対向車線とが交差する場合、前記対向車線の制限速度と所定マージンとの和に前記第1車両が前記軌道交差点を通過するのに要する時間を乗じて注視領域長を算出し、
前記対向車線が占める領域のうち、前記軌道交差点から前記対向車線の進行方向と反対方向に前記注視領域長だけ離れた地点までの範囲を、前記注視領域として設定する、
ことを特徴とする請求項7に記載の物体認識方法。 - 前記コントローラは、
前記第1車両の予定走行軌道と横断歩道とが交差する場合、歩行者の平均速度と所定マージンとの和に前記第1車両が前記軌道交差点を通過するのに要する時間を乗じて注視領域長を算出し、
歩道又は前記横断歩道が占める領域のうち、前記軌道交差点から前記注視領域長だけ離れた地点までの範囲を、前記注視領域として設定する、
ことを特徴とする請求項7に記載の物体認識方法。 - 物体の有無を検出すべき注視領域を設定する注視領域設定部と、
第1車両に搭載した第1物体検出部が前記第1車両の周囲の物体を検出できる第1検出可能領域を算出し第1検出可能領域算出部と、
第2車両に搭載した第2物体検出部が前記第2車両の周囲の物体を検出できる第2検出可能領域を算出し第2検出可能領域算出部と、
前記第1検出可能領域と前記第2検出可能領域とを加えた和領域が前記注視領域の全域を包含するか否かを判定し、前記和領域が前記注視領域の少なくとも一部を包含しない場合には、前記注視領域に物体が存在するか否かが不明であると判定し、前記和領域が前記注視領域の全域を包含する場合には、前記注視領域で物体が検出されない場合に前記注視領域に物体が存在しないと判定する判定部と、
を備えることを特徴とする物体認識システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019186328A JP7382782B2 (ja) | 2019-10-09 | 2019-10-09 | 物体認識方法及び物体認識システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019186328A JP7382782B2 (ja) | 2019-10-09 | 2019-10-09 | 物体認識方法及び物体認識システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021060941A JP2021060941A (ja) | 2021-04-15 |
JP7382782B2 true JP7382782B2 (ja) | 2023-11-17 |
Family
ID=75380492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019186328A Active JP7382782B2 (ja) | 2019-10-09 | 2019-10-09 | 物体認識方法及び物体認識システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7382782B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024052175A (ja) * | 2022-09-30 | 2024-04-11 | 株式会社デンソー | メッセージ制御装置、メッセージ制御方法、及び車両 |
WO2024116509A1 (ja) * | 2022-11-30 | 2024-06-06 | 株式会社レゾナック | 物体検出装置、物体検出方法及びプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016149100A (ja) | 2015-02-13 | 2016-08-18 | トヨタ自動車株式会社 | 車両運転支援システム |
JP2017033403A (ja) | 2015-08-04 | 2017-02-09 | 株式会社デンソー | 運転支援装置 |
-
2019
- 2019-10-09 JP JP2019186328A patent/JP7382782B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016149100A (ja) | 2015-02-13 | 2016-08-18 | トヨタ自動車株式会社 | 車両運転支援システム |
JP2017033403A (ja) | 2015-08-04 | 2017-02-09 | 株式会社デンソー | 運転支援装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2021060941A (ja) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11427211B2 (en) | Methods for handling sensor failures in autonomous driving vehicles | |
US11269352B2 (en) | System for building a vehicle-to-cloud real-time traffic map for autonomous driving vehicles (ADVS) | |
EP3309640B1 (en) | Group driving style learning framework for autonomous vehicles | |
US10943485B2 (en) | Perception assistant for autonomous driving vehicles (ADVs) | |
US10943133B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190071091A1 (en) | Driver intention-based lane assistant system for autonomous driving vehicles | |
JP6269552B2 (ja) | 車両走行制御装置 | |
EP3324556A1 (en) | Visual communication system for autonomous driving vehicles (adv) | |
US20200223449A1 (en) | Travel Assistance Method and Travel Assistance Device | |
JP6809611B2 (ja) | 走行支援方法及び走行支援装置 | |
US20200130685A1 (en) | Apparatus and method for identifying sensor occlusion in autonomous vehicles | |
US11225228B2 (en) | Method for enhancing in-path obstacle detection with safety redundancy autonomous system | |
US11221405B2 (en) | Extended perception based on radar communication of autonomous driving vehicles | |
US20200391729A1 (en) | Method to monitor control system of autonomous driving vehicle with multiple levels of warning and fail operations | |
US20200118433A1 (en) | Drive assistance system | |
JP7382782B2 (ja) | 物体認識方法及び物体認識システム | |
EP3757711B1 (en) | A vehicle-platoons implementation under autonomous driving system designed for single vehicle | |
JPWO2020058741A1 (ja) | 自動運転制御方法及び自動運転制御システム | |
WO2020194016A1 (ja) | 異常状態通知方法及び異常状態通知装置 | |
JP7220244B2 (ja) | 車両制御装置、車両制御方法、およびプログラム | |
US11527076B2 (en) | Point cloud-based low-height obstacle detection system | |
JP2022074918A (ja) | 情報報知装置、移動体、及び情報報知方法 | |
JP2021028587A (ja) | 車載表示制御装置 | |
JP7458797B2 (ja) | 走行支援方法及び走行支援装置 | |
JP7390884B2 (ja) | 走行環境推定方法、走行支援方法及び走行環境推定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230620 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231010 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231107 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7382782 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |