JP7382782B2 - 物体認識方法及び物体認識システム - Google Patents

物体認識方法及び物体認識システム Download PDF

Info

Publication number
JP7382782B2
JP7382782B2 JP2019186328A JP2019186328A JP7382782B2 JP 7382782 B2 JP7382782 B2 JP 7382782B2 JP 2019186328 A JP2019186328 A JP 2019186328A JP 2019186328 A JP2019186328 A JP 2019186328A JP 7382782 B2 JP7382782 B2 JP 7382782B2
Authority
JP
Japan
Prior art keywords
area
vehicle
gaze
gaze area
detectable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019186328A
Other languages
English (en)
Other versions
JP2021060941A (ja
Inventor
尭史 池上
光範 中村
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019186328A priority Critical patent/JP7382782B2/ja
Publication of JP2021060941A publication Critical patent/JP2021060941A/ja
Application granted granted Critical
Publication of JP7382782B2 publication Critical patent/JP7382782B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、物体認識方法及び物体認識システムに関する。
特許文献1には、自車両の車車間通信装置が、他車両の車車間通信装置からこの他車両の位置情報に加えて、この他車両により検出された別の他車両の位置情報を取得することにより、車車間通信装置を有していない車両についても表示装置に表示する技術が記載されている。
特開2005-301581号公報
しかしながら、自車両の死角領域に存在する物体の情報を、他車両との車車間通信から得られない場合に、本当に死角領域に物体が存在しないのか、それとも通信相手の他車両が検出できないために死角領域の物体の存否が不明なのかを区別できない。
本発明は、複数の車両に搭載した物体検出手段により特定の注視領域内の物体の有無を検出する際に、本当に注視領域に物体が存在しないのか、又は注視領域に物体が存在するか否かが不明であるのかを区別することを目的とする。
本発明の一態様による物体認識方法は、物体の有無を検出すべき注視領域を設定する注視領域設定ステップと、第1車両に搭載した第1物体検出部が第1車両の周囲の物体を検出できる第1検出可能領域を算出する第1検出領域算出ステップと、第2車両に搭載した第2物体検出部が第2車両の周囲の物体を検出できる第2検出可能領域を算出する第2検出領域算出ステップと、第1検出可能領域と第2検出可能領域とを加えた和領域が注視領域の全域を包含するか否かを判定し、和領域が注視領域の少なくとも一部を包含しない場合には、注視領域に物体が存在するか否かが不明であると判定し、和領域が注視領域の全域を包含する場合であって、且つ注視領域で物体が検出されない場合に注視領域に物体が存在しないと判定する判定ステップとを有する。
本発明の一形態によれば、複数の車両に搭載した物体検出手段により特定の注視領域内の物体の有無を検出する際に、注視領域に物体が存在しないのか、又は注視領域に物体が存在するか否かが不明であるのかを区別できる。
実施形態による物体認識システムの概略構成図である。 第1車両に搭載された車載装置10の概略構成図である。 第2車両に搭載された車載装置20の概略構成図である。 自車両と他車両による周囲の物体の検出状態の説明図である。 自車両と他車両による周囲の物体の検出状態の説明図である。 実施形態による物体認識方法の一例の説明図である。 第1実施形態の車載装置20のコントローラ26の機能構成の一例を示すブロック図である。 第1実施形態の車載装置10のコントローラ17の機能構成の一例を示すブロック図である。 第1車両の予定走行軌道と対向車線とが交差する場合の注視領域の設定例の説明図である。 第1車両の予定走行軌道と横断歩道とが交差する場合の注視領域の設定例の説明図である。 仮想停止線の設定例の説明図である。 第1実施形態の物体認識方法の全体フローのフローチャートである。 第1実施形態の物体認識処理の一例のフローチャートである。 第1実施形態の車両制御処理の一例のフローチャートである。 第2実施形態の物体認識処理の一例のフローチャートである。 第3実施形態の車載装置20のコントローラ26の機能構成の一例を示すブロック図である。 第3実施形態の物体認識処理の一例のフローチャートである。 第4実施形態の車載装置10のコントローラ17の機能構成の一例を示すブロック図である。 第4実施形態の車載装置20のコントローラ26の機能構成の一例を示すブロック図である。 第4実施形態の物体認識処理の一例のフローチャートである。
以下、図面を参照して、本発明の実施形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。各図面は模式的なものであり、現実のものとは異なる場合が含まれる。以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記の実施形態に例示した装置や方法に特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。
(第1実施形態)
(構成)
第1実施形態の物体認識システムは、第1車両1に搭載された車載装置10と、第2車両2に搭載された車載装置20とを備える。
車載装置20は、第2車両2の周囲の物体を検出して、第2車両2の周囲の物体の検出結果を示す周囲物体情報を車載装置10へ送信する。
車載装置10は、物体の有無を検出すべき特定の注視領域を設定する。車載装置10は、第1車両1の周囲の物体を検出して、第1車両1の周囲の物体の検出結果を示す周囲物体情報と、第2車両2から受信した周囲物体情報とに基づいて、注視領域に物体が存在するか否かを判定する。車載装置10は、注視領域における物体の有無に応じて、第1車両1の走行を制御することにより、第1車両1の運転を支援する。
例えば、車載装置10は、運転者が関与せずに第1車両1を自動で運転する自律走行制御を行うことによって運転を支援する。車載装置10は、自律走行制御において注視領域における物体の有無に応じて、第1車両1の走行を制御する。
また、車載装置10は、注視領域における物体の有無に応じて、操舵角のみあるいは加減速のみを制御する等、第1車両1の走行に関わる運転動作を部分的に支援してもよい。
以下、車載装置10による第1車両1の周囲の物体の検出結果を示す周囲物体情報を「第1周囲物体情報」と表記することがあり、車載装置20による第2車両2の周囲の物体の検出結果を示す周囲物体情報を「第2周囲物体情報」と表記することがある。
図2を参照する。車載装置10は、測位装置11と、地図データベース12と、周囲環境センサ13と、車両センサ14と、通信装置15と、ナビゲーションシステム16と、コントローラ17と、アクチュエータ18を備える。なお、図面において、地図データベースを、「地図DB」と表記する。
測位装置11は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して第1車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置11は、例えば慣性航法装置であってもよい。
地図データベース12は、フラッシュメモリ等の記憶装置に格納され、第1車両1の自己位置の推定に必要な道路形状や地物、ランドマーク等の物標の位置及び種類などの地図情報を記憶している。
地図データベース12として、例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な走行レーン(車線)単位の車線情報を含む。
また、地図データベース12にはナビ地図が記憶されていてもよい。ナビ地図は道路単位の情報を含む。例えば、ナビ地図は道路単位の情報として、道路基準線(例えば道路の中央の線)上の基準点を示す道路ノードの情報と、道路ノード間の道路の区間態様を示す道路リンクの情報を含む。
なお、地図データベース12は、無線通信(路車間通信、または、車車間通信でも可)等の通信システムを介して外部から地図情報を取得してもよい。この場合、地図データベース12は、定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。また、地図データベース12は、第1車両1が実際に走行した走路を、地図情報として蓄積してもよい。
周囲環境センサ13は、第1車両1の周囲の物体を検出する複数の異なる種類のセンサを備える。
例えば周囲環境センサ13は、第1車両1に搭載されたカメラを備える。カメラは、第1車両1の周囲の画像を撮影し、撮像画像を取得する。
周囲環境センサ13は、レーザレーダやミリ波レーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)などの測距センサを備えてもよい。
車両センサ14は、第1車両1に搭載され、第1車両1から得られる様々な情報(車両信号)を検出する。車両センサ14には、例えば、第1車両1の走行速度(車速)を検出する車速センサ、第1車両1が備える各タイヤの回転速度を検出する車輪速センサ、第1車両1の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、第1車両1に生じる角速度を検出するジャイロセンサ、ヨーレートを検出するヨーレートセンサ、第1車両のアクセル開度を検出するアクセルセンサと、運転者によるブレーキ操作量を検出するブレーキセンサが含まれる。
通信装置15は、第1車両1の外部の通信装置との間で無線通信を行う。例えば通信装置15は、外部の通信装置との通信を介して第2車両2の車載装置20との間で情報を送受信する。通信装置15は、車車間通信により車載装置20と直接通信してもよく、公衆携帯電話網や路車間通信、衛星通信を介して車載装置20と通信してもよい。
ナビゲーションシステム16は、測位装置11により第1車両1の現在位置を認識し、その現在位置における地図情報を地図データベース12から取得する。ナビゲーションシステム16は、乗員が入力した目的地までの走行経路を設定し、この走行経路に従って乗員に経路案内を行う。
またナビゲーションシステム16は、設定した走行経路の情報をコントローラ17へ出力する。自律走行制御を行う際に、コントローラ17は、ナビゲーションシステム16が設定した走行経路に沿って走行するように第1車両1を自動で運転する。
コントローラ17は、第1車両1の車両制御を行う電子制御ユニット(ECU:Electronic Control Unit)である。コントローラ17は、プロセッサと、記憶装置等の周辺部品とを含む。プロセッサは、例えばCPU(Central Processing Unit)やMPU(Micro-Processing Unit)であってよい。
記憶装置は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明するコントローラ17の機能は、例えばプロセッサが、記憶装置に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ17を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ17は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ17はフィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてもよい。
アクチュエータ18は、コントローラ17からの制御信号に応じて、第1車両1のステアリングホイール、アクセル開度及びブレーキ装置を操作して、第1車両1の車両挙動を発生させる。アクチュエータ18は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、第1車両1のステアリングの操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、第1車両1のアクセル開度を制御する。ブレーキ制御アクチュエータは、第1車両1のブレーキ装置の制動動作を制御する。
図3を参照する。車載装置20は、測位装置21と、地図データベース22と、周囲環境センサ23と、車両センサ24と、通信装置25と、コントローラ26を備える。
測位装置21は、第2車両2の現在位置を測定する。地図データベース22には、高精度地図やナビ地図が記憶されている。周囲環境センサ23は、第2車両2の周囲の物体を検出する複数の異なる種類のセンサを備える。車両センサ24は、第2車両2に搭載され、第2車両2から得られる様々な情報(車両信号)を検出する。
測位装置21、地図データベース22、周囲環境センサ23、及び車両センサ24の構成及び機能は、車載装置10の、測位装置11、地図データベース12、周囲環境センサ13、及び車両センサ14と同様であってよく、重複する説明を省略する。
通信装置25は、第2車両2の外部の通信装置との間で無線通信を行う。例えば通信装置25は、外部の通信装置との通信を介して第1車両1の車載装置10の通信装置15との間で情報を送受信する。通信装置25は、車車間通信により通信装置15と直接通信してもよく、公衆携帯電話網や路車間通信、衛星通信を介して通信装置15と通信してもよい。
コントローラ26は、第2車両2の周囲の物体認識機能を有する電子制御ユニット(ECU)である。コントローラ26は、プロセッサと、記憶装置等の周辺部品とを含む。プロセッサは、例えばCPUやMPUであってよい。
記憶装置は、半導体記憶装置や、磁気記憶装置、光学記憶装置等を備えてよい。記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM及びRAM等のメモリを含んでよい。
以下に説明するコントローラ26の機能は、例えばプロセッサが、記憶装置に格納されたコンピュータプログラムを実行することにより実現される。
なお、コントローラ26を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、コントローラ26は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えばコントローラ26はフィールド・プログラマブル・ゲート・アレイ(FPGA)等のプログラマブル・ロジック・デバイス(PLD)等を有していてもよい。
次に、車載装置10及び車載装置20による物体認識方法の概要について説明する。
図4Aは、第2車両2により第1車両1の車載装置10の周囲環境センサ13に死角領域4が発生し、車載装置10が、死角領域4内の対向車両3を検出できない状態を示している。
このような場合、第2車両2の車載装置20の周囲環境センサ23で対向車両3を検出し、その検出結果を示す第2周囲物体情報を車載装置20から車載装置10へ送信すれば、車載装置10は、死角領域4内の対向車両3を認識することができる。
しかしながら、図4Bのように第2車両2と対向車両3との間に物体5が介在すると、第2車両2の周囲環境センサ23は、物体5の死角領域6内の対向車両3を検出することができなくなる。
このため、第2車両2の車載装置20から第2周囲物体情報を取得しても、第1車両1の車載装置10は、本当に死角領域4に対向車両3が存在しないのか、それとも死角領域4に物体が存在するか否かが不明なのかを区別できない。
図5を参照する。実施形態の物体認識方法では、第1車両1に搭載した周囲環境センサ13が第1車両1の周囲の物体を検出できる第1検出可能領域8aと、第2車両2に搭載した周囲環境センサ23が第2車両2の周囲の物体を検出できる第2検出可能領域8bを算出する。
そして、第1検出可能領域8aと第2検出可能領域8bとを加えた和領域である統合領域9が特定の注視領域7の全域を包含するか否かを判定する。
統合領域9が注視領域7の少なくとも一部を包含しない場合には、注視領域7に物体3が存在するか否かが不明であると判定する。
一方で、注視領域7で物体3が検出されず、且つ統合領域9が注視領域7の全てを包含する場合には、注視領域7に物体3が存在しないと判定する。また、注視領域7で物体3が検出され、且つ統合領域9が注視領域7の全てを包含する場合には、注視領域7に物体3が存在すると判定する。
これによって、第1車両1の車載装置10は、注視領域7に本当に物体3が存在しないのか、注視領域7に物体3が存在するか否かが不明なのかを区別することができる。このため、注視領域7に本当に物体3が確実に存在しないことを認識できる。
以下、車載装置10及び車載装置20の機能を詳しく説明する。
図6を参照する。第2車両2に搭載される車載装置20のコントローラ26は、自己位置算出部30と、周囲物体検出部31と、第2検出可能領域算出部32と、通信処理部33を備える。
自己位置算出部30は、測位装置21による測定結果や、車両センサ24からの検出結果を用いたオドメトリに基づいて、第2車両2の現在の絶対位置、すなわち、共通座標系(例えば世界座標系)における第2車両2の位置と、速度とを算出する。
周囲物体検出部31は、周囲環境センサ23の出力から第2車両2の周囲の物体の位置や速度を検出し、これらの検出結果を示す第2周囲物体情報を生成する。
第2周囲物体情報は、第2車両2の位置を基準とする車両座標系で物体の位置を表してもよい。
周囲物体検出部31は、第2車両2の自己位置情報を用いて、第2周囲物体情報の座標を共通座標系の座標に変換してもよい。
第2検出可能領域算出部32は、周囲環境センサ23により第2車両2の周囲の物体を検出可能な領域である第2検出可能領域8bを算出する。
例えば、第2検出可能領域算出部32は、周囲環境センサ23の性能、配置及び配向により定まる周囲環境センサ23の既知の検出範囲から、周囲環境センサ23が検出した物体により生じる死角領域を除くことにより第2検出可能領域8bを算出してよい。
第2検出可能領域算出部32は、第2検出可能領域8bを示す第2検出可能領域情報を生成する。
第2検出可能領域情報は、第2車両2の位置を基準とする車両座標系で第2検出可能領域8bを表してもよい。第2検出可能領域算出部32は、第2車両2の自己位置情報を用いて、第2検出可能領域情報の座標を共通座標系の座標に変換してもよい。
通信処理部33は、通信装置25を用いて第1車両1の車載装置10との間で情報を授受する。通信処理部33は、第2車両2の位置及び速度を示す第2車両2の自己位置情報、第2周囲物体情報、及び第2検出可能領域情報を、第1車両1の通信装置15へ送信する。例えば、通信処理部33は、同時に若しくは一回の通信処理により第2周囲物体情報及び第2検出可能領域情報を通信装置15へ送信する。
図7を参照する。第1車両1に搭載される車載装置10のコントローラ17は、予定走行軌道算出部40と、自己位置算出部41と、周囲物体検出部42と、注視領域設定部43と、第1検出可能領域算出部44と、通信処理部45と、他車両情報取得部46と、統合領域算出部47と、周囲物体情報統合部48と、物体認識部49と、仮想停止線設定部50と、車両制御部51を備える。
予定走行軌道算出部40は、ナビゲーションシステム16が設定した走行経路と、地図データベース12に記憶されている地図情報に含まれる車線情報に基づいて、走行経路に含まれる車線に沿って走行する予定走行軌道を算出する。
自己位置算出部41は、測位装置11による測定結果や、車両センサ14からの検出結果を用いたオドメトリに基づいて、第1車両1の現在の絶対位置、すなわち、共通座標系における第1車両1の位置と、速度とを算出する。
周囲物体検出部42は、周囲環境センサ13の出力から第1車両1の周囲の物体の第1車両1に対する相対位置や相対速度を検出し、これらの検出結果を示す第1周囲物体情報を生成する。
第1周囲物体情報は、第1車両1の位置を基準とする車両座標系で物体の位置を表してもよい。
周囲物体検出部42は、第1車両1の自己位置情報を用いて、第1周囲物体情報の座標を共通座標系の座標に変換してもよい。
第1検出可能領域算出部44は、周囲環境センサ13により第1車両1の周囲の物体を検出可能な領域である第1検出可能領域8aを算出する。
例えば、第1検出可能領域算出部44は、周囲環境センサ13の性能、配置及び配向により定まる周囲環境センサ13の既知の検出範囲から、周囲環境センサ13が検出した物体により生じる死角領域を除くことにより第1検出可能領域8aを算出してよい。
第1検出可能領域算出部44は、第1検出可能領域8aを示す第1検出可能領域情報を生成する。
第1検出可能領域情報は、第1車両1の位置を基準とする車両座標系で第1検出可能領域8aを表してもよい。第1検出可能領域算出部44は、第1車両1の自己位置情報を用いて、第1検出可能領域情報の座標を共通座標系の座標に変換してもよい。
通信処理部45は、通信装置15を用いて第2車両2の車載装置20の通信処理部33との間で情報を授受する。
他車両情報取得部46は、通信処理部45と通信処理部33との間で授受された情報から、車載装置20から送信された第2車両2の自己位置情報と、第2周囲物体情報と、第2検出可能領域情報を取得する。
統合領域算出部47は、第1検出可能領域算出部44が算出した第1検出可能領域8aと、他車両情報取得部46が取得した第2検出可能領域情報が示す第2検出可能領域8bとを加えた和領域である統合領域9を算出する。
図5から明らかなとおり、統合領域9は、第1検出可能領域8a及び第2検出可能領域8bの重複領域と、第1検出可能領域8aのうち重複領域に含まれない部分と、第2検出可能領域8bのうち重複領域に含まれない部分の集合である。
第1検出可能領域情報及び第2検出可能領域情報が、共通座標系で第1検出可能領域8a及び第2検出可能領域8bを表す場合、統合領域算出部47は、これらの領域を単純に足し合わせることにより統合領域9を算出できる。
第1検出可能領域情報及び第2検出可能領域情報が、それぞれ第1車両1及び第2車両を基準とする車両座標系で第1検出可能領域8a及び第2検出可能領域8bを表す場合には、統合領域算出部47は、第1車両1及び第2車両2の自己位置情報に基づいて、第2検出可能領域8bの座標を第1車両1の車両座標系に変換した後に、第1検出可能領域8aに足し合わせて統合領域9を算出する。
周囲物体情報統合部48は、周囲物体検出部42が生成した第1周囲物体情報と、他車両情報取得部46が取得した第2周囲物体情報とを統合(混合)する。
第1周囲物体情報と第2周囲物体情報が、共通座標系で物体の位置及び速度を表す場合には、周囲物体情報統合部48は、これら第1周囲物体情報と第2周囲物体情報を単純に統合する。
第1周囲物体情報と第2周囲物体情報が、それぞれ第1車両1及び第2車両を基準とする車両座標系で物体の位置及び速度を表す場合には、周囲物体情報統合部48は、第1車両1及び第2車両2の自己位置情報に基づいて、第2周囲物体情報の座標を第1車両1の車両座標系に変換した後に、第1周囲物体情報に統合する。
なお、第1周囲物体情報と第2周囲物体情報に重複がある場合、すなわち第1周囲物体情報及び第2周囲物体情報の両方に共通の物体の情報がある場合には、物体の位置及び速度に基づいて同一物体であるか否かを判定し、同一物体の情報が第1周囲物体情報及び第2周囲物体情報の両方に存在する場合には、これらの情報のうちより信頼度の高い情報のみを統合結果に含める。
例えば、周囲物体情報統合部48は、物体の検出に使用されたセンサの種類や、センサから物体までの距離、センサと物体との相対速度に応じて信頼度を決定してよい。
注視領域設定部43は、地図データベース12に記憶されている地図情報と、予定走行軌道算出部40が算出した第1車両1の予定走行軌道に基づいて、物体の有無を検出すべき注視領域7を設定する。
図8Aを参照する。注視領域設定部43は、第1車両1の予定走行軌道63と地図情報とに基づいて、予定走行軌道63と他物体61が通りうる予測軌道62とが交差する軌道交差点64を算出する。注視領域設定部43は、第1車両1が軌道交差点64を通過するまでに軌道交差点64に到達する他物体61が存在しうる領域7を予測して、注視領域として設定する。
例えば、第1車両1の予定走行軌道63と対向車線60とが交差する場合、注視領域設定部43は、予定走行軌道63と対向車両61が通りうる予測軌道62とが交差する軌道交差点64を算出する。注視領域設定部43は、予測軌道62として例えば対向車線60の中央を設定する。
注視領域設定部43は、第1車両1が軌道交差点64を通過するまでに軌道交差点64に到達する対向車両61が存在しうる領域7を予測して、注視領域として設定する。
注視領域設定部43は、対向車線60の制限速度と所定マージンとの和に、第1車両1が軌道交差点64を通過するのに要する時間を乗じて注視領域長L1を算出してよい。
注視領域設定部43は、対向車線60が占める領域のうち、軌道交差点64から対向車線の進行方向と反対方向に注視領域長L1だけ離れた地点までの範囲7を、注視領域として設定してよい。
図8Bを参照する。第1車両1の予定走行軌道63と横断歩道70とが交差する場合、注視領域設定部43は、予定走行軌道63と歩行者71、72が通りうる予測軌道73とが交差する軌道交差点74を算出する。注視領域設定部43は、予測軌道73として例えば横断歩道70の中央を設定する。
注視領域設定部43は、第1車両1が軌道交差点74を通過するまでに軌道交差点74に到達する歩行者71、72が存在しうる領域7a及び7bを予測して、これら領域7a及び7bの合計を注視領域7として設定する。
注視領域設定部43は、歩行者の平均速度と所定マージンとの和に、第1車両1が軌道交差点74を通過するのに要する時間を乗じて注視領域長L2を算出してよい。
注視領域設定部43は、横断歩道70又は歩道75若しくは76が占める領域のうち、軌道交差点74から注視領域長L2だけ離れた地点までの範囲7a及び7bを、注視領域7として設定してよい。
図7を参照する。物体認識部49は、注視領域7内に物体が存在するか否か、それとも注視領域7内の物体の存否が不明であるか否かを判定する。
統合領域算出部47が算出した統合領域9が、注視領域7の少なくとも一部を包含しない場合には、物体認識部49は、注視領域7に物体が存在するか否かが不明であると判定する。
反対に、統合領域9が注視領域7を全て包含する場合には、物体認識部49は、周囲物体情報統合部48により統合された周囲物体情報に基づいて、注視領域7に物体が存在するか否かを判定する。具体的には、統合された周囲物体情報が、注視領域7内に存在する物体の情報を含むか否かを判定する。
注視領域7内に存在する物体の情報を含む場合に、物体認識部49は、注視領域7に物体が存在すると判定する。注視領域7内に存在する物体の情報を含まない場合に、物体認識部49は、注視領域7に物体が存在しないと判定する。
注視領域7に物体が存在するか否かが不明であると物体認識部49が判定した場合、仮想停止線設定部50は、第1車両1を停止させるための仮想停止線を予定走行軌道63上に設定する。
図9を参照する。第1車両1の予定走行軌道63と対向車線60とが交差する場合、例えば仮想停止線設定部50は、第1車両1が対向車線60に接する位置に仮想停止線81を設定してよい。
具体的には、対向車線60の車線境界のうち第1車両1に近い車線境界を示す車線区分線80の横方向位置から、第1車両1の車幅Wの半分の長さ(W/2)だけ、第1車両1の進行方向で手前側にオフセットした位置に仮想停止線81を設定する。
第1車両1の予定走行軌道63と横断歩道とが交差する場合も同様に、第1車両1が横断歩道に接する位置に仮想停止線81を設定してよい。
図7を参照する。注視領域7に物体が存在しないと物体認識部49が判断した場合、車両制御部51は、予定走行軌道63に沿って第1車両1を走行させ、交差点を通過するように第1車両1の走行を制御する。
具体的には、車両制御部51は、予定走行軌道63に沿って交差点を通過する目標走行軌道及び目標速度プロファイルを生成し、目標速度プロファイルに従う速度で第1車両1が目標走行軌道を走行するようにアクチュエータ18を駆動する。
注視領域7に物体が存在すると物体認識部49が判断した場合、車両制御部51は、予定走行軌道63に沿って対向車両や歩行者を妨げない位置で第1車両1を待機させるように第1車両1の走行を制御する。例えば車両制御部51は、仮想停止線設定部50が設定した仮想停止線81で第1車両1を停止させてよい。
具体的には、車両制御部51は、予定走行軌道63に沿って対向車両や歩行者を妨げない位置まで第1車両1を走行させて、停止させる目標走行軌道及び目標速度プロファイルを生成し、目標速度プロファイルに従う速度で第1車両1が目標走行軌道を走行して停止するようにアクチュエータ18を駆動する。
注視領域7に物体が存在するか否かが不明である物体認識部49が判断した場合、車両制御部51は、第1車両1の第1検出可能領域8aが注視領域7を包含する位置まで徐行で進むように、第1車両1の走行を制御する。但し、仮想停止線設定部50が設定した仮想停止線81まで到達しても第1検出可能領域8aが注視領域7を包含しない場合には、車両制御部51は、第1車両1を停止させる。
具体的には、車両制御部51は、予定走行軌道63に沿って第1車両1が徐行して仮想停止線で停止する目標走行軌道及び目標速度プロファイルを生成し、目標速度プロファイルに従う速度で第1車両1が目標走行軌道上を徐行するように、アクチュエータ18を駆動する。
第1車両1が仮想停止線81まで到達する前に第1検出可能領域8aが注視領域7を全て包含し、第1周囲物体情報に基づいて物体認識部49が注視領域7内の物体が存在しないと判定した場合には、車両制御部51は、予定走行軌道63に沿って第1車両1を走行させ、交差点を通過するように第1車両1の走行を制御する。
第1車両1が仮想停止線81まで到達する前に第1検出可能領域8aが注視領域7を全て包含し、物体認識部49が注視領域7内に物体が存在しないと判定した場合には、車両制御部51は、対向車両や歩行者を妨げない位置で第1車両1を待機させるように第1車両1の走行を制御する。
なお、周囲環境センサ13及び23は、特許請求の範囲に記載の「第1物体検出部」及び「第1物体検出部」の一例である。物体認識部49は、特許請求の範囲に記載の「判定部」の一例である。
(動作)
次に、第1実施形態の物体認識方法の一例を説明する。図10は、物体認識方法の全体フローのフローチャートである。
ステップS1では物体認識処理が行われる。物体認識処理では、注視領域7内に物体が存在するか否か、それとも注視領域7内の物体の存否が不明であるか否かを判定する。
ステップS2では車両制御処理が行われる。車両制御処理では、物体認識処理の判定結果に応じて、第1車両の走行を制御する。
ステップS3において、第1車両1のイグニッションスイッチ(IGN)がオフになったか否かを判定する。イグニッションスイッチがオフになっていない場合(ステップS3:N)に処理はステップS1に戻る。イグニッションスイッチがオフになった場合(ステップS3:Y)に処理は終了する。
図11は、第1実施形態の物体認識処理の一例のフローチャートである。
ステップS10において第1車両1の注視領域設定部43は、注視領域7を設定する。
ステップS11において第2車両2の周囲物体検出部31は、第2車両2の周囲の物体を検出し、これらの検出結果を示す第2周囲物体情報を生成する。第2検出可能領域算出部32は、第2車両2の周囲の物体を検出可能な第2検出可能領域8bを算出する。通信処理部33は、第2検出可能領域情報と第2周囲物体情報を、第2車両2から第1車両1へ送信する。
ステップS12において第1車両1の第1検出可能領域算出部44は、第1車両1の周囲の物体を検出可能な第1検出可能領域8aを算出する。統合領域算出部47は、第1検出可能領域8aと第2検出可能領域8bとを加えた和領域である統合領域9を算出する。
ステップS13において周囲物体検出部42は、第1車両1の周囲の物体を検出し、これらの検出結果を示す第1周囲物体情報を生成する。周囲物体情報統合部48は、第1周囲物体情報と第2周囲物体情報とを統合する。
ステップS14において物体認識部49は、統合領域9が注視領域7を全て包含するか否かを判定する。統合領域9が注視領域7の少なくとも一部を包含しない場合(ステップS14:N)に処理はステップS15へ進む。統合領域9が注視領域7を全て包含する場合(ステップS14:Y)に処理はステップS16へ進む。
ステップS15において物体認識部49は、注視領域7に物体が存在するか否かが不明であると判定する。その後に、物体認識処理は終了する。
ステップS16において物体認識部49は、ステップS13で統合した周囲物体情報に基づいて、注視領域7に物体が存在するか否かを判定する。注視領域7に物体が存在する場合(ステップS16:Y)に処理はステップS17へ進む。
注視領域7に物体が存在しない場合(ステップS16:N)に処理はステップS18へ進む。
ステップS17において物体認識部49は、注視領域7に物体が存在すると判定する。その後に、物体認識処理は終了する。
ステップS18において物体認識部49は、注視領域7に物体が存在しないと判定する。その後に、物体認識処理は終了する。
図11は、第1実施形態の車両制御処理の一例のフローチャートである。
注視領域7に物体が存在するか否かが不明であると物体認識部49が判定しなかった場合(ステップS20:N)に処理はステップS21へ進む。
注視領域7に物体が存在すると物体認識部49が判定した場合(ステップS21:Y)に処理はステップS22へ進む。注視領域7に物体が存在しないと物体認識部49が判定した場合(ステップS21:N)に処理はステップS22へ進む。
ステップS22において車両制御部51は、対向車両や歩行者を妨げない位置で第1車両1を待機させるように第1車両1の走行を制御する。その後に、車両制御処理は終了する。
ステップS23において車両制御部51は、交差点を通過するように第1車両1の走行を制御する。その後に、車両制御処理は終了する。
一方で、注視領域7に物体が存在するか否かが不明であると物体認識部49が判定した場合(ステップS20:Y)に処理はステップS24へ進む。
ステップS24において仮想停止線設定部50は、仮想停止線81を設定する。ステップS25において車両制御部51は、第1車両1が徐行して交差点に進入するように第1車両1の走行を制御する。
ステップS26におい車両制御部51は、第1車両1が仮想停止線81まで到達したか否かを判定する。第1車両1が仮想停止線81まで到達した場合(ステップS26:Y)に処理はステップS27へ進む。第1車両1が仮想停止線81していない場合(ステップS26:N)に処理はステップS28へ進む。
ステップS27において車両制御部51は、第1車両1を仮想停止線81に停止させ、その場で待機する。その後に、車両制御処理は終了する。
ステップS28において車両制御部51は、第1車両1の第1検出可能領域8aが注視領域7を全て包含したか否かを判定する。第1検出可能領域8aが注視領域7を全て包含した場合(ステップS28:Y)に処理はステップS29へ進む。第1検出可能領域8aが注視領域7の少なくとも一部を包含しない場合(ステップS28:N)に処理はステップS26へ戻る。
ステップS29において物体認識部49は、注視領域7内に物体が存在するか否かを判定する。注視領域7内に物体が存在する場合(ステップS29:Y)に処理はステップS30へ進む。注視領域7内に物体が存在しない場合(ステップS29:N)に処理はステップS23へ進む。
ステップS30において車両制御部51は、対向車両や歩行者を妨げない位置で第1車両1を待機させるように第1車両1の走行を制御する。その後に、車両制御処理は終了する。
ステップS23において車両制御部51は、交差点を通過するように第1車両1の走行を制御する。その後に、車両制御処理は終了する。
(第1実施形態の効果)
(1)注視領域設定部43は、物体の有無を検出すべき注視領域7を設定する。第1検出可能領域算出部44は、第1車両1に搭載した周囲環境センサ13が第1車両1の周囲の物体を検出できる第1検出可能領域8aを算出する。第2検出可能領域算出部32は、第2車両2に搭載した周囲環境センサ23が第2車両2の周囲の物体を検出できる第2検出可能領域8bを算出する。物体認識部49は、第1検出可能領域8aと第2検出可能領域8bとを加えた和領域である統合領域9が注視領域7の全域を包含するか否かを判定し、統合領域9が注視領域7の少なくとも一部を包含しない場合には、注視領域7に物体が存在するか否かが不明であると判定し、統合領域9が注視領域7の全域を包含する場合であって、且つ注視領域7で物体が検出されない場合には、注視領域7に物体が存在しないと判定する。
第1車両1の車載装置10は、注視領域7に本当に物体3が存在しないのか、注視領域7に物体3が存在するか否かが不明なのかを区別することができる。このため、注視領域7に本当に物体3が確実に存在しないことを認識できる。
(2)物体認識部49は、統合領域9が注視領域7の全域を包含する場合であって、且つ注視領域7で物体が検出された場合に注視領域7に物体が存在すると判定する。
これにより、第1車両1の車載装置10は、注視領域7に存在する物体を認識できる。
(3)第2車両2の通信処理部33は、統合領域9が注視領域7の全域を包含するか否かを物体認識部49が判定する前に、周囲環境センサ23が検出した第2車両2の周囲の物体の第2周囲物体情報と、第2検出可能領域情報とを、第2車両2から第1車両1へ送信する。
これにより通信処理部33は、第2周囲物体情報と第2検出可能領域情報とを同時に第2車両2から第1車両1へ送信できる。この結果、第2車両2と第1車両1との間の情報通信の回数を1回で完了することができるため、オーバーヘッドを削減して処理時間や処理負荷を低減することができる。
(4)注視領域設定部43は、第1車両1の予定走行軌道63と地図情報とに基づいて、予定走行軌道63と、他物体が通りうる予測軌道とが交差する軌道交差点を算出し、第1車両1が軌道交差点を通過するまでに軌道交差点に到達する他物体が存在しうる領域を予測して、注視領域7として設定する。
このように設定された注視領域7に物体が存在しなければ、第1車両1は他物体と交錯することなく予定走行軌道63を走行することができるため、この注視領域7内の物体有無判定結果に応じて第1車両1の行動を計画できる。
(5)注視領域設定部43は、第1車両1の予定走行軌道63と対向車線とが交差する場合、対向車線の制限速度と所定マージンとの和に第1車両1が軌道交差点を通過するのに要する時間を乗じて注視領域長を算出し、対向車線が占める領域のうち、軌道交差点から対向車線の進行方向と反対方向に注視領域長だけ離れた地点までの範囲を、注視領域7として設定する。
このように設定された注視領域7に対向車両が存在しなければ、第1車両1は対向車両と交錯することなく予定走行軌道63を走行することができるため、この注視領域7内の物体有無判定結果に応じて第1車両1の行動を計画できる。
(6)注視領域設定部43は、第1車両1の予定走行軌道63と横断歩道とが交差する場合、歩行者の平均速度と所定マージンとの和に第1車両1が軌道交差点を通過するのに要する時間を乗じて注視領域長を算出し、歩道又は横断歩道が占める領域のうち、軌道交差点から注視領域長だけ離れた地点までの範囲を、注視領域7として設定する。
このように設定された注視領域7に歩行者が存在しなければ、第1車両1は歩行者と交錯することなく予定走行軌道63を走行することができるため、この注視領域7内の物体有無判定結果に応じて第1車両1の行動を計画できる。
(第2実施形態)
次に、第2実施形態を説明する。第1実施形態の第2車両2の車載装置20は、統合領域9が注視領域7の全域を包含するか否かを第1車両1の車載装置10が判定する前に、第2周囲物体情報及び第2検出可能領域情報を第1車両1へ送信する。例えば、第1実施形態の車載装置20は、第2周囲物体情報及び第2検出可能領域情報を同時に若しくは一回の通信処理により第1車両1へ送信する。
第2実施形態の車載装置20は、統合領域9が注視領域7の全域を包含するか否かを第1車両1の車載装置10が判定する前に第2検出可能領域情報を第1車両1へ送信し、統合領域9が注視領域7の全域を包含すると第1車両1の車載装置10が判定した場合に、第2周囲物体情報を送信する。これにより、第2周囲物体情報の送信が不要であるか否かを判定できるので、不要な通信を減らすことができる。
第2実施形態の車載装置10及び車載装置20は、第1実施形態の車載装置10及び車載装置20の構成と同様であり、同様の機能については重複説明を省略する。
図7を参照する。第1車両1の車載装置10の物体認識部49が、統合領域9が注視領域7を全て包含すると判定すると、通信処理部45は、第2周囲物体情報の送信を要求する周囲物体情報要求信号を第2車両2の車載装置20の通信処理部33へ送信する。
統合領域9が注視領域7の少なくとも一部を包含しないと物体認識部49が判定すると、通信処理部45は、周囲物体情報要求信号を通信処理部33へ送信しない。
通信処理部33は、周囲物体情報要求信号の受信に応答して、周囲物体検出部31が生成した第2周囲物体情報を通信処理部45へ送信する。その他の動作は、第1実施形態と同様である。
(動作)
図13は、第2実施形態の物体認識処理の一例のフローチャートである。
ステップS40の処理は図11のステップS10の処理と同様である。
ステップS41において第2検出可能領域算出部32は、第2車両2の周囲の物体を検出可能な第2検出可能領域8bを算出する。通信処理部33は、第2周囲物体情報を第2車両2から第1車両1へ送信する。
ステップS42~S44の処理は、図11のステップS12、S14及びS15の処理と同様である。
ステップS45において第2車両2の周囲物体検出部31は、第2車両2の周囲の物体を検出し、これらの検出結果を示す第2周囲物体情報を生成する。第1車両1の通信処理部45は、第2周囲物体情報の送信を要求する周囲物体情報要求信号を第2車両2の通信処理部33へ送信する。通信処理部33は、周囲物体情報要求信号の受信に応答して、周囲物体検出部31が生成した第2周囲物体情報を第1車両の通信処理部45へ送信する。
ステップS46~S49の処理は、図11のステップS13、S16~S18の処理と同様である。
(第2実施形態の効果)
統合領域9が注視領域7の全域を包含すると第1車両1の物体認識部49が判定した場合に、第2車両2の通信処理部33は、周囲環境センサ23が検出した第2車両2の周囲の物体の第2周囲物体情報を、第2車両2から第1車両1へ送信する。
これにより、第2周囲物体情報の送信が不要であるか否かを判定できるので、不要な通信を減らすことができる。
(第3実施形態)
次に、第3実施形態を説明する。第1実施形態及び第2実施形態の第2車両2の車載装置20は、第2検出可能領域8b内で検出した全ての物体の情報を、第2周囲物体情報として第1車両1の車載装置10へ送信する。第2周囲物体情報には注視領域7以外の領域で検出した物体の情報まで含まれており、第2車両2は不要な情報まで第1車両1へ送信していた。
第3実施形態の車載装置20は、第2検出可能領域8bと注視領域7の重複領域で検出された物体の情報のみを第1車両1へ送信する。
図14を参照する。第3実施形態の車載装置20のコントローラ26は、第1実施形態のコントローラ26と類似の構成を有しており、同じ参照符号は同様の構成要素を示し、同様の機能については重複説明を省略する。車載装置20は、周囲物体情報選択部34を備える。
また、第3実施形態の車載装置10は、第1実施形態の車載装置10と同様の構成を有しており、同様の機能については重複説明を省略する。
第1車両1の車載装置10の物体認識部49が、統合領域9が注視領域7を全て包含すると判定すると、通信処理部45は、第2周囲物体情報の送信を要求する周囲物体情報要求信号を第2車両2の車載装置20の通信処理部33へ送信する。
周囲物体情報要求信号を通信処理部33へ送信する場合、通信処理部45は、注視領域設定部43が設定した注視領域7の情報を、通信処理部33へ送信する。
第2車両2の車載装置20の周囲物体情報選択部34は、通信処理部45と通信処理部33との間で授受された情報から、注視領域7の情報を取得する。
周囲物体情報選択部34は、第2検出可能領域算出部32が算出した第2検出可能領域8bと注視領域7との重複領域を算出する。周囲物体情報選択部34は、周囲物体検出部31が生成した第2周囲物体情報のうち、重複領域で検出された物体の情報のみを選択する。
通信処理部33は、周囲物体情報要求信号の受信に応答して、周囲物体情報選択部34が選択した第2周囲物体情報を通信処理部45へ送信する。その他の動作は、第1実施形態や第2実施形態と同様である。
(動作)
図15は、第3実施形態の物体認識処理の一例のフローチャートである。
ステップS50~S54の処理は、図13のステップS40~S44の処理と同様である。
ステップS55において第1車両1の通信処理部45は、第2周囲物体情報の送信を要求する周囲物体情報要求信号と注視領域7の情報を、第2車両2の通信処理部33へ送信する。
ステップS56において周囲物体情報選択部34は、第2検出可能領域算出部32が算出した第2検出可能領域8bと注視領域7との重複領域を算出する。
ステップS57において周囲物体情報選択部34は、第2周囲物体情報のうち重複領域で検出された物体の情報のみを選択する。
通信処理部33は、周囲物体情報要求信号の受信に応答して、周囲物体情報選択部34が選択した第2周囲物体情報を通信処理部45へ送信する。
ステップS58~S61の処理は、図11のステップS13、S16~S18の処理と同様である。
(第3実施形態の効果)
第2車両2の通信処理部33は、注視領域7と第2検出可能領域8bとの重複領域で周囲環境センサ23が検出した第2車両2の周囲の物体の第2周囲物体情報を、第2車両2から第1車両1へ送信する。
これにより、第2車両2で取得した第2周囲物体情報のうち、第1車両1にとって必要な部分の情報のみに限定して送信できる。これにより通信量を削減できる。
(第4実施形態)
次に、第4実施形態を説明する。第1~3実施形態では、第2車両2で検出した物体の第2周囲物体情報を第1車両1へ送信した。第4実施形態では、第1車両1及び第2車両2の間で、第1周囲物体情報や第2周囲物体情報をやり取りせずに、注視領域7に物体が存在するか否か、注視領域7における物体の存否が不明であるか否かを判定する。
図16を参照する。第4実施形態の車載装置10のコントローラ17は、第1実施形態のコントローラ17と類似の構成を有しており、同じ参照符号は同様の構成要素を示し、同様の機能については重複説明を省略する。
物体認識部49は、第1周囲物体情報に基づいて、第1検出可能領域8aと注視領域7との重複領域に物体が存在するか否かを判定する。
コントローラ17は差分領域算出部52を備える。第1検出可能領域8aと注視領域7との重複領域に物体が存在しない場合に、差分領域算出部52は、注視領域7のうち第1検出可能領域8aに含まれない差分領域を算出する。通信処理部45は、差分領域の情報を第2車両2の車載装置20の通信処理部33へ送信する。
一方で第1検出可能領域8aと注視領域7との重複領域に物体が存在する場合には、通信処理部45は、差分領域の情報を通信処理部33へ送信しない。
図17を参照する。第4実施形態の車載装置20のコントローラ26は、第1実施形態のコントローラ26と類似の構成を有しており、同じ参照符号は同様の構成要素を示し、同様の機能については重複説明を省略する。
コントローラ26は物体認識部36を備える。物体認識部36は、通信処理部45と通信処理部33との間で授受された情報から、差分領域の情報を取得する。
物体認識部36は、第2検出可能領域8bが差分領域の全てを包含するか否かを判定する。第2検出可能領域8bが、差分領域の少なくとも一部を包含しない場合には、物体認識部36は、注視領域7に物体が存在するか否かが不明であると判定する。
反対に、第2検出可能領域8bが差分領域を全て包含する場合には、物体認識部36は、第2周囲物体情報に基づいて差分領域に物体が存在するか否かを判定する。
第2検出可能領域8bが差分領域の全てを包含しており、差分領域に物体が存在する場合に、物体認識部36は注視領域7に物体が存在すると判定する。第2検出可能領域8bが差分領域の全てを包含しており、差分領域に物体が存在しない場合に、物体認識部36は注視領域7に物体が存在しないと判定する。
通信処理部33は、物体認識部36の判定結果を、第1車両の通信処理部45へ送信する。
図16を参照する。他車両情報取得部46は、通信処理部45と通信処理部33との間で授受された情報から、物体認識部36の判定結果を取得する。
第1検出可能領域8aと注視領域7との重複領域に物体が存在する場合、又は注視領域7に物体が存在すると物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在すると判定する。
注視領域7に物体が存在しないと物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在しないと判定する。注視領域7に物体が存在するか否かが不明であると物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在するか否かが不明であると判定する。その他の動作は、第1~3実施形態と同様である。
(動作)
図18は、第4実施形態の物体認識処理の一例のフローチャートである。
ステップS70の処理は図11のステップS10の処理と同様である。
ステップS71において第1車両1の物体認識部49は、第1検出可能領域8aと注視領域7との重複領域に物体が存在するか否かを判定する。重複領域に物体が存在する場合(ステップS71:Y)に処理はステップS72へ進む。重複領域に物体が存在しない場合(ステップS71:N)に処理はステップS73へ進む。
ステップS72において物体認識部49は、注視領域7に物体が存在すると判定する。その後に物体認識処理は終了する。
ステップS73において差分領域算出部52は、注視領域7のうち第1検出可能領域8aに含まれない差分領域を算出する。通信処理部45は、差分領域の情報を第2車両2の通信処理部33へ送信する。
ステップS74において物体認識部36は、第2検出可能領域8bが差分領域の全てを包含するか否かを判定する。第2検出可能領域8bが差分領域の全てを包含する場合(ステップS74:Y)に処理はステップS76へ進む。
第2検出可能領域8bが差分領域の少なくとも一部を包含しない場合(ステップS74:N)に処理はステップS75へ進む。
ステップS75において物体認識部36は、注視領域7に物体が存在するか否かが不明であると判定する。その後に処理はステップS79に進む。
ステップS76において物体認識部36は、第2周囲物体情報に基づいて差分領域に物体が存在するか否かを判定する。差分領域に物体が存在する場合(ステップS76:Y)に処理はステップS77へ進む。差分領域に物体が存在しない場合(ステップS76:N)に処理はステップS78へ進む。
ステップS77において物体認識部36は注視領域7に物体が存在すると判定する。その後に処理はステップS79に進む。
ステップS78において物体認識部36は注視領域7に物体が存在しないと判定する。その後に処理はステップS79に進む。
ステップS79において通信処理部33は、物体認識部36の判定結果を、第1車両の通信処理部45へ送信する。
注視領域7に物体が存在すると物体認識部36が判定した場合、第1車両1の物体認識部49は注視領域7に物体が存在すると判定する。
注視領域7に物体が存在しないと物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在しないと判定する。
注視領域7に物体が存在するか否かが不明であると物体認識部36が判定した場合、物体認識部49は注視領域7に物体が存在するか否かが不明であると判定する。
その後に物体認識処理は終了する。
(第4実施形態の効果)
第1車両1の差分領域算出部52は、注視領域7のうち第1検出可能領域8aに含まれない差分領域を算出する。第2車両2の物体認識部36は、第2検出可能領域8bが差分領域を全て包含するか否かを判定する。第2検出可能領域8bが差分領域の少なくとも一部を場合には、注視領域7に物体が存在するか否かが不明であると判定する。
これにより、第1車両1と第2車両との間で第1周囲物体情報や第2周囲物体情報をやり取りしなくても、注視領域7における物体の存否が不明であるか否かを判定できる。このため通信量を削減できる。
(変形例)
上記の説明では、車載装置20と車載装置10とが異なる構成を有する実施形態について説明した。しかしながら、車載装置10及び車載装置20の各々が、上記の車載装置10及び車載装置20の両方の構成及び機能を有するように構成して、車載装置10と車載装置20とが互いの役割を適宜交換してもよい。
例えば、第1検出領域情報と、第1周囲物体情報を、第1車両1の車載装置10から第2車両2の車載装置20に送信し、第2車両2の予定走行軌道と地図情報とに基づいて設定した注視領域に物体が存在するか否か、注視領域における物体の存否が不明であるか否かを、第2車両2の車載装置20で判定してもよい。
また、例えば、第1~第3実施形態において、注視領域の情報と、第1検出領域情報と、第1周囲物体情報を、車載装置10から車載装置20に送信することにより、第1車両1の予定走行軌道と地図情報とに基づいて設定した注視領域7に物体が存在するか否か、注視領域7における物体の存否が不明であるか否かを、第2車両2の車載装置20で判定してもよい。
また、第2車両2の予定走行軌道と地図情報とに基づいて設定した注視領域を第1車両1へ送信し、この注視領域に物体が存在するか否か、注視領域における物体の存否が不明であるか否かを、第1車両1の車載装置10で判定してもよい。
さらに、注視領域の情報と、第1検出領域情報、第2検出領域情報と、第1周囲物体情報、第2周囲物体情報とを、第1車両1及び第2車両2以外の外部の計算装置に送信してもよい。外部の計算装置で、注視領域において物体が存在するか否か、注視領域における物体の存否が不明であるか否かを判定し、その判定結果を第1車両1もしくは第2車両2で受信してもよい。
上述の実施形態では、注視領域7に物体が存在するか否かが不明であるか否か、注視領域7に物体が存在するか否かに応じて第1車両1の走行を制御したが、これに代えて又はこれに加えて、第1車両1のコントローラ17は判定結果を乗員に通知してもよい。
例えば、注視領域7に物体が存在するか否かが不明である旨や、注視領域7に物体が存在する、若しくは存在しない旨を知らせる視覚的、聴覚的な信号やメッセージを生成して、第1車両1の乗員に提示してもよい。
1…第1車両、2…第2車両、7…注視領域、8a…第1検出可能領域、8b…第2検出可能領域、9…統合領域(和領域)、10…車載装置、11…測位装置、12…地図データベース、13…周囲環境センサ(第1物体検出部)、14…車両センサ、15…通信装置、16…ナビゲーションシステム、17…コントローラ、18…アクチュエータ、20…車載装置、21…測位装置、22…地図データベース、23…周囲環境センサ(第2物体検出部)、24…車両センサ、25…通信装置、26…コントローラ、30…自己位置算出部、31…周囲物体検出部、32…第2検出可能領域算出部、33…通信処理部、34…周囲物体情報選択部、36…物体認識部、40…予定走行軌道算出部、41…自己位置算出部、42…周囲物体検出部、43…注視領域設定部、44…第1検出可能領域算出部、45…通信処理部、46…他車両情報取得部、47…統合領域算出部、48…周囲物体情報統合部、49…物体認識部、50…仮想停止線設定部、51…車両制御部、52…差分領域算出部

Claims (10)

  1. 物体の有無を検出すべき注視領域を設定する注視領域設定ステップと、
    第1車両に搭載した第1物体検出部が前記第1車両の周囲の物体を検出できる第1検出可能領域を算出する第1検出領域算出ステップと、
    第2車両に搭載した第2物体検出部が前記第2車両の周囲の物体を検出できる第2検出可能領域を算出する第2検出領域算出ステップと、
    前記第1検出可能領域と前記第2検出可能領域とを加えた和領域が前記注視領域の全域を包含するか否かを判定し、前記和領域が前記注視領域の少なくとも一部を包含しない場合には、前記注視領域に物体が存在するか否かが不明であると判定し、前記和領域が前記注視領域の全域を包含する場合であって、且つ前記注視領域で物体が検出されない場合に前記注視領域に物体が存在しないと判定する判定ステップと、
    コントローラが実行することを特徴とする物体認識方法。
  2. 前記判定ステップにおいて、前記和領域が前記注視領域の全域を包含する場合であって、且つ前記注視領域で物体が検出された場合に前記注視領域に物体が存在すると判定することを特徴とする請求項1に記載の物体認識方法。
  3. 前記注視領域設定ステップと、第1検出領域算出ステップと、前記判定ステップとを前記第1車両において実行し、
    前記和領域が前記注視領域の全域を包含するか否かを判定する前に、前記第2物体検出部が検出した前記第2車両の周囲の物体の検出結果と、前記第2検出可能領域の情報とを、前記第2車両の通信装置が前記第1車両へ送信することを特徴とする請求項1又は2に記載の物体認識方法。
  4. 前記注視領域設定ステップと、第1検出領域算出ステップと、前記判定ステップとを前記第1車両において実行し、
    前記和領域が前記注視領域の全域を包含すると判定した場合に、前記第2物体検出部が検出した前記第2車両の周囲の物体の検出結果を、前記第2車両の通信装置が前記第1車両へ送信することを特徴とする請求項1又は2に記載の物体認識方法。
  5. 前記注視領域設定ステップと、第1検出領域算出ステップと、前記判定ステップとを前記第1車両において実行し、
    前記注視領域と前記第2検出可能領域との重複領域で前記第2物体検出部が検出した前記第2車両の周囲の物体の検出結果を、前記第2車両の通信装置が前記第1車両へ送信することを特徴とする請求項1又は2に記載の物体認識方法。
  6. 前記コントローラは、
    前記注視領域のうち前記第1検出可能領域に含まれない差分領域を算出し、
    前記第2検出可能領域が前記差分領域を包含するか否かを判定し、
    前記第2検出可能領域が前記差分領域を包含しない場合には、前記注視領域に物体が存在するか否かが不明であると判定する、
    ことを特徴とする請求項1又は2に記載の物体認識方法。
  7. 前記コントローラは、
    前記第1車両の予定走行軌道と地図情報とに基づいて、前記第1車両の予定走行軌道と、他物体が通りうる予測軌道とが交差する軌道交差点を算出し、
    前記第1車両が前記軌道交差点を通過するまでに前記軌道交差点に到達する他物体が存在しうる領域を予測して、前記注視領域として設定する
    ことを特徴とする請求項1~6のいずれか一項に記載の物体認識方法。
  8. 前記コントローラは、
    前記第1車両の予定走行軌道と対向車線とが交差する場合、前記対向車線の制限速度と所定マージンとの和に前記第1車両が前記軌道交差点を通過するのに要する時間を乗じて注視領域長を算出し、
    前記対向車線が占める領域のうち、前記軌道交差点から前記対向車線の進行方向と反対方向に前記注視領域長だけ離れた地点までの範囲を、前記注視領域として設定する
    ことを特徴とする請求項7に記載の物体認識方法。
  9. 前記コントローラは、
    前記第1車両の予定走行軌道と横断歩道とが交差する場合、歩行者の平均速度と所定マージンとの和に前記第1車両が前記軌道交差点を通過するのに要する時間を乗じて注視領域長を算出し、
    歩道又は前記横断歩道が占める領域のうち、前記軌道交差点から前記注視領域長だけ離れた地点までの範囲を、前記注視領域として設定する
    ことを特徴とする請求項7に記載の物体認識方法。
  10. 物体の有無を検出すべき注視領域を設定する注視領域設定部と、
    第1車両に搭載した第1物体検出部が前記第1車両の周囲の物体を検出できる第1検出可能領域を算出し第1検出可能領域算出部と、
    第2車両に搭載した第2物体検出部が前記第2車両の周囲の物体を検出できる第2検出可能領域を算出し第2検出可能領域算出部と、
    前記第1検出可能領域と前記第2検出可能領域とを加えた和領域が前記注視領域の全域を包含するか否かを判定し、前記和領域が前記注視領域の少なくとも一部を包含しない場合には、前記注視領域に物体が存在するか否かが不明であると判定し、前記和領域が前記注視領域の全域を包含する場合には、前記注視領域で物体が検出されない場合に前記注視領域に物体が存在しないと判定する判定部と、
    を備えることを特徴とする物体認識システム。
JP2019186328A 2019-10-09 2019-10-09 物体認識方法及び物体認識システム Active JP7382782B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019186328A JP7382782B2 (ja) 2019-10-09 2019-10-09 物体認識方法及び物体認識システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019186328A JP7382782B2 (ja) 2019-10-09 2019-10-09 物体認識方法及び物体認識システム

Publications (2)

Publication Number Publication Date
JP2021060941A JP2021060941A (ja) 2021-04-15
JP7382782B2 true JP7382782B2 (ja) 2023-11-17

Family

ID=75380492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019186328A Active JP7382782B2 (ja) 2019-10-09 2019-10-09 物体認識方法及び物体認識システム

Country Status (1)

Country Link
JP (1) JP7382782B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024052175A (ja) * 2022-09-30 2024-04-11 株式会社デンソー メッセージ制御装置、メッセージ制御方法、及び車両
WO2024116509A1 (ja) * 2022-11-30 2024-06-06 株式会社レゾナック 物体検出装置、物体検出方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149100A (ja) 2015-02-13 2016-08-18 トヨタ自動車株式会社 車両運転支援システム
JP2017033403A (ja) 2015-08-04 2017-02-09 株式会社デンソー 運転支援装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149100A (ja) 2015-02-13 2016-08-18 トヨタ自動車株式会社 車両運転支援システム
JP2017033403A (ja) 2015-08-04 2017-02-09 株式会社デンソー 運転支援装置

Also Published As

Publication number Publication date
JP2021060941A (ja) 2021-04-15

Similar Documents

Publication Publication Date Title
US11427211B2 (en) Methods for handling sensor failures in autonomous driving vehicles
US11269352B2 (en) System for building a vehicle-to-cloud real-time traffic map for autonomous driving vehicles (ADVS)
EP3309640B1 (en) Group driving style learning framework for autonomous vehicles
US10943485B2 (en) Perception assistant for autonomous driving vehicles (ADVs)
US10943133B2 (en) Vehicle control device, vehicle control method, and storage medium
US20190071091A1 (en) Driver intention-based lane assistant system for autonomous driving vehicles
JP6269552B2 (ja) 車両走行制御装置
EP3324556A1 (en) Visual communication system for autonomous driving vehicles (adv)
US20200223449A1 (en) Travel Assistance Method and Travel Assistance Device
JP6809611B2 (ja) 走行支援方法及び走行支援装置
US20200130685A1 (en) Apparatus and method for identifying sensor occlusion in autonomous vehicles
US11225228B2 (en) Method for enhancing in-path obstacle detection with safety redundancy autonomous system
US11221405B2 (en) Extended perception based on radar communication of autonomous driving vehicles
US20200391729A1 (en) Method to monitor control system of autonomous driving vehicle with multiple levels of warning and fail operations
US20200118433A1 (en) Drive assistance system
JP7382782B2 (ja) 物体認識方法及び物体認識システム
EP3757711B1 (en) A vehicle-platoons implementation under autonomous driving system designed for single vehicle
JPWO2020058741A1 (ja) 自動運転制御方法及び自動運転制御システム
WO2020194016A1 (ja) 異常状態通知方法及び異常状態通知装置
JP7220244B2 (ja) 車両制御装置、車両制御方法、およびプログラム
US11527076B2 (en) Point cloud-based low-height obstacle detection system
JP2022074918A (ja) 情報報知装置、移動体、及び情報報知方法
JP2021028587A (ja) 車載表示制御装置
JP7458797B2 (ja) 走行支援方法及び走行支援装置
JP7390884B2 (ja) 走行環境推定方法、走行支援方法及び走行環境推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231107

R150 Certificate of patent or registration of utility model

Ref document number: 7382782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150