JP2023017574A - 車両制御装置 - Google Patents

車両制御装置 Download PDF

Info

Publication number
JP2023017574A
JP2023017574A JP2021121920A JP2021121920A JP2023017574A JP 2023017574 A JP2023017574 A JP 2023017574A JP 2021121920 A JP2021121920 A JP 2021121920A JP 2021121920 A JP2021121920 A JP 2021121920A JP 2023017574 A JP2023017574 A JP 2023017574A
Authority
JP
Japan
Prior art keywords
information
object information
image
pedestrian
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021121920A
Other languages
English (en)
Inventor
崇治 小栗
Takaharu Oguri
滉一 土屋
Koichi Tsuchiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2021121920A priority Critical patent/JP2023017574A/ja
Publication of JP2023017574A publication Critical patent/JP2023017574A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】画像による物体情報と送信波及び反射波による物体情報とに基づいて物体を認識する車両制御装置において、物体を適切に認識することができる車両制御装置を提供すること。【解決手段】車両制御装置10は、自車両周辺の画像のパターン認識により得られた第1物体情報と、送信波及び反射波により得られた第2物体情報とにより物体を認識する。車両制御装置10は、第1物体情報が示す物体の存在領域と、第2物体情報が示す物体の存在領域とが重なることに基づいて、当該物体を認識し、物体が認識されている状態から、第1物体情報が得られなくなったことを判定し、第1物体情報が得られなくなったと判定された場合に、第2物体情報と、画像のピクセルごとの種別情報により得られた第3物体情報とにより物体の認識を継続する。【選択図】 図1

Description

本発明は、自車両周辺の物体を認識する車両制御装置に関する。
従来、撮像装置の画像により検出された物体情報と、測距センサの送信波及び反射波により検出された物体情報とを取得し、これら各物体情報が示す物体の存在領域が互いに重なることに基づいて、物体を認識する車両制御装置が知られている。また、物体の認識結果に基づいて、衝突回避制御等の運転支援処理を適宜実施する技術が知られている。
例えば特許文献1の車両制御装置では、画像により検出された物体情報と、送信波及び反射波により検出された物体情報とに基づいて同一の物体が認識されている状態から、送信波及び反射波により検出された物体情報だけで物体が認識されている状態に推移した場合において、画像から物体情報を取得できない近傍領域に物体が位置していることを判定する。そして、衝突回避制御の作動条件を、画像により検出された物体情報と、送信波及び反射波により検出された物体情報とに基づいて物体が認識されている状態のまま維持するようにしている。
特開2017-211973号公報
上記特許文献1の車両制御装置では、例えば、画像により検出された物体情報と送信波及び反射波により検出された物体情報とに基づいて歩行者が認識されている状態から、車両と歩行者とが近接することで画像による歩行者の検出がロストした場合であっても、歩行者が送信波及び反射波により検出されていれば、その歩行者の認識状態が維持される。しかしながら、仮に歩行者が認識位置から移動し、送信波及び反射波により歩行者に代えてマンホールの蓋などの物体が検出される場合には、歩行者が存在しないにも関わらず衝突回避制御等が不要に実施されることが懸念される。
本発明は上記課題に鑑みたものであり、画像による物体情報と送信波及び反射波による物体情報とに基づいて物体を認識する車両制御装置において、物体を適切に認識することができる車両制御装置を提供することを目的とする。
上記課題を解決する手段は、自車両周辺の画像のパターン認識により得られた第1物体情報と、送信波及び反射波により得られた第2物体情報とにより物体を認識する車両制御装置であって、前記第1物体情報が示す物体の存在領域と、前記第2物体情報が示す物体の存在領域とが重なることに基づいて、当該物体を認識する認識部と、前記認識部により物体が認識されている状態から、前記第1物体情報が得られなくなったことを判定する状態判定部と、前記状態判定部により前記第1物体情報が得られなくなったと判定された場合に、前記第2物体情報と、前記画像のピクセルごとの種別情報により得られた第3物体情報とにより物体の認識を継続する継続処理部と、を備える。
上記構成では、第1物体情報と第2物体情報とにより物体が認識されている状態から、第1物体情報が得られなくなったと判定された場合に、この物体の認識を第2物体情報と第3物体情報とにより継続する。第3物体情報は、画像のピクセルごとの種別情報により得られる物体情報であるため、画像のパターン認識により得られる第1物体情報に比べて、例えば物体の存在領域の特定精度において信頼性が低いが、物体が存在しているか否かを判定することはできる。上記構成では、第1物体情報が得られなくなった場合において、第1物体情報が得られなくなる前に第1物体情報と第2物体情報とにより信頼性の高い物体認識がされていれば、第2物体情報と第3物体情報とにより物体の認識を継続するようにした。これにより、第1物体情報が得られなくなった状態でも、物体認識の信頼性を高く維持しつつ、画像と送信波及び反射波とを用いて物体を認識することができる。そのため、第3物体情報により物体が検出されない場合には、物体が存在しておらず、第2物体情報により物体が誤検出されている可能性が高いため、物体が認識されている状態の解除が可能となっている。
走行制御システムの全体構成図。 画像ロスト後におけるレーダ情報の誤検出の説明図。 運転支援処理の処理手順を示すフローチャート。 物体認識の一例を示すタイムチャート。 検出回数と所定時間との関係を示すグラフ。
以下、本発明に係る車両制御装置を、車載の走行制御システム100に適用した実施形態について、図面を参照しつつ説明する。走行制御システム100は、自車両の周囲に存在する物体(他車両、歩行者、路上障害物等)を認識するとともに、その認識結果に基づいて、衝突回避制御(PCS制御)や車両の発進抑制制御等の運転支援制御を実施する。
図1に示すように、本実施形態に係る走行制御システム100は、車両制御装置としてのECU10と、センサ類20と、被制御装置30とを備えている。センサ類20としては、例えば、撮像装置としてのカメラセンサ21、レーダセンサ22、ヨーレートセンサ23、車速センサ24等が備えられている。
カメラセンサ21は、例えば単眼カメラであり、自車両のフロントガラスの上端付近等に設置されている。カメラセンサ21は、規定時間毎に自車両前方の所定領域を撮像し、撮像した画像Gを取得する。
レーダセンサ22は、自車両の周囲に探査波を送信し、その探査波の反射波を受信することで自車両の周囲に存在する物体の距離情報を取得する測距センサであり、例えば自車両の前部においてその光軸が自車両前方を向くように取り付けられている。レーダセンサ22は、規定時間毎に自車両の前方に向かって、探査波であるミリ波帯の指向性のある送信波を走査するとともに、物体の表面で反射された反射波を複数のアンテナにより受信することで物体までの距離、物体の方位、及び物体の自車両に対する相対速度等を距離情報として取得する。レーダセンサ22は、探査波の送信時刻と反射波の受信時刻とにより、物体までの距離を算出して取得する。また、レーダセンサ22は、複数のアンテナが受信した反射波の位相差により、物体の方位を算出して取得する。さらに、レーダセンサ22は、物体の表面で反射された反射波の、ドップラー効果により変化した周波数により、物体の相対速度を算出して取得する。
ヨーレートセンサ23は、自車両の旋回角速度を検出する周知のヨーレートセンサとして構成される。車速センサ24は、車輪の回転速度、つまりは自車両の走行速度を検出する。これらのセンサ類20による検出結果は、ECU10に出力される。
ECU10は、CPU,ROM,RAM,フラッシュメモリ等からなる周知のマイクロコンピュータを備えた制御装置である。ECU10は、カメラセンサ21から取得される画像Gに基づいて検出される物体情報(以下、画像情報)と、レーダセンサ22から取得される距離情報(以下、レーダ情報)とをそれぞれ取得する。
詳細には、ECU10は、カメラセンサ21から取得される画像Gに対して、テンプレートマッチング(パターン認識)等の周知の画像処理を行うことにより、画像G内に存在する物体とその種類(他車両、歩行者、路上障害物等)を検出する。本実施形態では、各物体の種類を特定するためのテンプレートとして、物体ごとの特徴を示す画像パターンである複数の辞書が記憶されている。辞書としては、物体全体の特徴をパターン化した全身辞書を記憶している。
ECU10は、辞書に記憶された物体の実寸法と、画像G上の物体の大きさである画像寸法との比に基づいて物体までの距離を算出する。また、ECU10は、画像Gの下端部中央を原点として、原点に対する画像G上の物体の方位を算出する。ECU10は、画像Gから算出された物体までの距離及び物体の方位により物体の相対位置及び物体が存在する存在領域等を算出し、これらの情報を第1画像情報として取得する。
また、ECU10は、レーダセンサ22から取得される距離情報に含まれる物体までの距離及び物体の方位により物体の相対位置及び存在領域等を算出し、これらの情報をレーダ情報として取得する。本実施形態において、第1画像情報が「第1物体情報」に相当し、レーダ情報が「第2物体情報」に相当する。
ECU10は、第1画像情報とレーダ情報に基づいて、つまり第1画像情報とレーダ情報とを融合(フュージョン)して、物体を認識する。より具体的には、ECU10は、第1画像情報に含まれる物体の存在領域と、レーダ情報に含まれる物体の存在領域とに重複部が存在する場合に、物体を認識する。
また、ECU10は、認識した物体から自車両周辺に存在する物体を選出し、被制御装置30を用いて自車両の駆動力及び制動力を調整することで、該物体への衝突を回避又は軽減する衝突被害軽減制御、つまりPCS(Pre Crash Safety)制御や、急な発進を抑制する発進抑制制御といった運転支援制御を実施する。被制御装置30は、加速装置であるアクセル装置31と減速装置であるブレーキ装置32とを有し、「加減速装置」に相当する。アクセル装置31は、ドライバのアクセル操作又はECU10からの制御指令により、自車両に駆動力を付与する。また、ブレーキ装置32は、ドライバのブレーキ操作又はECU10からの制御指令により、自車両に制動力を付与する。
ECU10は、PCS制御として、自車両が物体に衝突するまでの衝突予測時間であるTTC(Time To Collision)に基づいてブレーキ装置32を作動させる。また、ECU10は、発進抑制制御として、自車両の停止時や減速時において、自車両の進行方向前方の近距離に物体があることに基づいて、ドライバのアクセル操作による誤発進を抑制すべく自車両に駆動力を付与することを停止する。
また、ECU10は、カメラセンサ21から取得される画像Gに対して、ディープラーニングを利用したセマンテイックセグメンテーションによる画像処理を行うことにより、画像G内に存在するピクセルごとの種別情報(他車両、歩行者、立体物等)を検出する。ECU10は、同一の種別情報を有するピクセルの集まりにより、画像G内に存在する物体を検出し、この情報を第2画像情報として取得する。なお、ピクセルごとの種別情報には、物体の実寸法に関する情報が含まれないため、第2画像情報には、物体の相対位置を示す情報が含まれない。本実施形態において、第2画像情報が「第3物体情報」に相当する。
ところで、例えば自車両40の進行方向前方に歩行者50が存在する場合において、第1画像情報とレーダ情報とに基づいて歩行者50を認識した状態から、第1画像情報のみが得られない状態に移行することがあると考えられる。具体的には、自車両40と歩行者50とが近接することで、歩行者50の一部がカメラセンサ21の画角から外れ、画像Gによる歩行者50の検出ができない画像ロストが生じることがある。この場合、第1画像情報のみが得られない状況に移行しても、すなわち画像ロストが生じても歩行者50を適正に認識する必要がある。
図2に、自車両40が歩行者50側に進行する場合における歩行者50の検出状態の推移を示す。図2において、(A)は、自車両40の進行方向における自車両40と歩行者50との間の距離を示し、(B)は、カメラセンサ21から取得される画像Gを示し、(C)は、歩行者50の第1画像情報を示し、(D)は、歩行者50の検出状態を示す。
自車両40は、時刻t1から時刻t2にかけて歩行者50側に進行しており、時刻t1,t2では、画像Gに歩行者50の全身が映り、ECU10は、全身辞書を用いて歩行者50を検出する。ECU10は、第1画像情報とレーダ情報とに基づいて歩行者50を認識する。一方、時刻t3では、自車両40と歩行者50とが近接することで、画像Gに歩行者50の下半身が映らず、画像ロストが生じている。この場合、画像ロスト前に第1画像情報とレーダ情報とに基づいて歩行者50が認識されており、かつ画像ロスト後にレーダ情報により歩行者50が検出されていれば、その歩行者50の認識状態が維持されるとよい。
しかしながら、例えば時刻t3において、歩行者50が立つ路面にマンホールの蓋51等の段差物が存在していると、ECU10は、レーダ情報に基づいて歩行者50とマンホールの蓋51とを略同じ位置で検出する。そして、時刻t4において、歩行者50が自車両40の進行方向前方から移動しても、レーダセンサ22によりマンホールの蓋51が検出された状態が継続されていると、歩行者50が存在しないにも関わらず歩行者50の認識状態が維持されることが考えられる。この場合、自車両40の進行方向前方に歩行者50が存在するとした誤認識により、自車両40の発進抑制制御が不要に実施されることが懸念される。
そこで、本実施形態では、第1画像情報とレーダ情報とのフュージョンにより歩行者50等の物体が認識されており、かつ物体の画像ロストに伴い第1画像情報が得られなくなった場合に、第1画像情報に代えて第2画像情報を用い、第2画像情報とレーダ情報とに基づいて物体の認識を継続するようにしている。この構成によれば、画像ロスト後においても、画像Gを用いて歩行者50等の有無を継続的に把握することができ、自車両40の発進抑制制御が不要に実施されることを抑制される。
図3に、本実施形態の運転支援処理のフローチャートを示す。ECU10は、所定周期毎に運転支援処理を繰り返し実施する。
運転支援処理を開始すると、ステップS11では第1,第2画像情報を取得し、ステップS12ではレーダ情報を取得する。その後、ステップS13では、第1画像情報とレーダ情報とによりフュージョンが成立し、物体が認識されているか否かを判定する。第1画像情報及びレーダ情報によりそれぞれ物体が検出され、かつ第1画像情報に含まれる物体の存在領域と、レーダ情報に含まれる物体の存在領域とに重複部が存在する場合、ステップS14に進む。ステップS14では、フュージョンフラグに1をセットする。なお、本実施形態において、ステップS13の処理が「認識部」に相当する。
ステップS15では、ステップS13で認識された物体、つまり第1画像情報により検出されている物体が、第2画像情報においても検出されているかを判定する。第1画像情報及び第2画像情報によりそれぞれ同一の物体が検出されている場合、ステップS16に進む。このとき、第1画像情報及び第2画像情報により検出される物体の存在領域が重複していることに基づいて、これら各画像情報により同一の物体が検出されていると判定されるとよい。
ステップS16では、第1画像情報及び第2画像情報により同一の物体が連続して検出されている回数である検出回数DNを記憶する。検出回数DNは、ある物体について、画像Gから第1画像情報が得られている期間と、画像Gから第2画像情報が得られている期間との重複期間を示すものであり、第1画像情報により検出された物体ごとに設定されている。ステップS16では、各画像情報で同一の物体が検出されている場合に、検出回数DNに1が加算されて記憶される。
その後、ステップS17では、第1画像情報とレーダ情報とにより認識された物体の位置に基づいて、運転支援処理を実施する。具体的には、ステップS13において第1画像情報とレーダ情報とに基づいて認識された物体に対して、自車両の衝突を回避又は軽減すべくPCS制御や発進抑制制御を適宜実施する。
一方、ステップS13でフュージョンが成立していなければ、ステップS21に進む。ステップS21では、第1画像情報及びレーダ情報の少なくとも一方により物体が検出されているか否かを判定する。ステップS21で肯定判定すると、ステップS22に進み、ステップS21で否定判定すると、本処理を一旦終了する。
ステップS22では、フュージョンフラグがセットされているか否かを判定する。また、フュージョンフラグがセットされている場合、ステップS23では、フュージョン成立により認識された物体について、レーザ情報による検出が継続されているか否かを判定する。ステップS22,S23で共に肯定判定する場合、ステップS24に進む。一方、ステップS22,S23のいずれかで否定判定する場合、本処理を一旦終了する。このとき、過去に第1画像情報とレーダ情報とによりフュージョンが成立しており、その状態から第1画像情報のみが得られなくなっていれば、ステップS22,S23が共に肯定判定される。なお、本実施形態において、ステップS22,S23の処理が「状態判定部」に相当する。
ステップS24では、第1画像情報が得られなくなってからの経過時間TCが所定時間Tthを超過したか否かを判定する。所定時間Tthは、例えば数秒程度である。経過時間TCが所定時間Tthよりも短い場合には、ステップS25に進む。ステップS25では、レーダ情報のみにより物体の認識を継続する処理(第1継続処理)を実施し、ステップS26に進む。ステップS26では、過去のフュージョン成立状態で認識されていた物体の位置に基づいて、自車両の衝突を回避又は軽減すべくPCS制御や発進抑制制御を適宜実施する。
一方、経過時間TCが所定時間Tthよりも長い場合には、ステップS27に進む。ステップS27では、第1画像情報により検出されていた物体が第2画像情報により検出されているか否かを判定する。続くステップS28では、ステップS16で記憶した検出回数DNに基づいて、第1画像情報及び第2画像情報により同一の物体が検出されていたことの信頼度を判定する。具体的には、検出回数DNが所定の閾値回数Nthよりも大きいか否かを判定する。そして、検出回数DNが閾値回数Nthよりも大きい場合に、それら各画像情報により同一の物体が検出されていた信頼度が高いと判定し、ステップS29に進む。また、検出回数DNが閾値回数Nthよりも小さい場合に、それら各画像情報により同一の物体が検出されていた信頼度が低いと判定し、本処理を一旦終了する。なお、本実施形態において、閾値回数Nthが「閾値期間」に相当する。
ステップS29では、第2画像情報とレーダ情報とにより物体の認識を継続する処理(第2継続処理)を実施し、ステップS30に進む。ステップS30では、過去のフュージョン成立状態で認識されていた物体の位置に基づいて、自車両の衝突を回避又は軽減すべくPCS制御や発進抑制制御を適宜実施する。なお、本実施形態において、ステップS28の処理が「同一判定部」に相当し、ステップS25,S29の処理が「継続処理部」に相当する。
本実施形態では、ECU10が、ステップS13でフュージョン成立により物体を認識することに加え、ステップS25において第1継続処理により物体を認識する一方、ステップS28において第2継続処理により物体を認識することとしており、いずれのステップで物体を認識したかに応じて、異なる態様で運転支援制御を実施する(ステップS17,S26,S30)。詳しくは、ステップS17は基本となる運転支援制御であり、ECU10は、車両走行中において、制御対象となる物体に対するTTCに基づいてPCS制御を実施するとともに、車両停止中において物体との相対位置に基づいて発進抑制制御を実施する。これに対して、ステップS26では、ECU10は、画像ロスト前におけるステップS17と同じ内容、すなわち画像ロスト前の実施態様を維持したままで運転支援制御を実施する。また、ステップS30では、ECU10は、TTCにかかわらずPCS制御を実施しない。本実施形態において、ステップS17,S30の処理が「制御部」に相当する。
なお、ステップS17,S26,S30では、物体認識の信頼性に応じて運転支援制御の実施態様がそれぞれ異なるものであればよく、具体的な処理内容は適宜変更することが可能である。この場合、ステップS17においてPCS制御が最も作動しやすく、ステップS30においてPCS制御が最も作動しにくくなっていればよい。発進抑制制御については、ステップS17では誤発進が抑制されやすく、ステップS30では誤発進が抑制されにくくなっていればよい。
続いて、図4に、運転支援処理における物体認識の一例を示す。図4は、図2に示したように、自車両40と歩行者50とが近接する場合において、歩行者50について行われる物体認識の処理を示す。
図4において、(A)は、第1画像情報による歩行者50の検出状態の推移を示し、(B)は、第2画像情報による歩行者50の検出状態の推移を示し、(C)は、レーダ情報による歩行者50の検出状態の推移を示す。また、(D)は、フュージョンフラグのオンオフ状態の推移を示し、(E)は、フュージョン成立後の画像ロストの状態の推移を示し、(F)は、経過時間TCの推移を示す。
図4に示すように、時刻t11に第1画像情報及び第2画像情報により歩行者50が検出され、時刻t12にレーダ情報により歩行者50が検出されると、時刻t12において第1画像情報に含まれる歩行者50の存在領域と、レーダ情報に含まれる歩行者50の存在領域とが重複することでフュージョンが成立し、フュージョンフラグがセットされる。なお、図4では、第1画像情報及び第2画像情報が同時に取得され、その後にレーダ情報が取得されるものとしているが、その時系列の順序は任意である。図4では、時刻t11以降において、画像Gによる歩行者50の検出情報として第1画像情報と第2画像情報とが取得されている。
その後、自車両40と歩行者50との近接により時刻t13に画像ロストが生じる。画像ロストが生じると、第1画像情報が得られなくなり、レーダ情報のみにより歩行者50が検出される状態となるが、歩行者50の認識状態は継続される。時刻t13以降、経過時間TCの計時が開始される。
そして、時刻t14に経過時間TCが所定時間Tthとなると、第2画像情報及びレーダ情報により歩行者50が認識される。これにより、時刻t14以降においても、歩行者50の認識状態が継続される。つまり、画像ロストが生じると、まず第1継続処理による歩行者50の認識が行われ、画像ロストから所定時間Tthが経過すると、その第1継続処理に引き続き、第2継続処理による歩行者50の認識が行われる。
その後、時刻t15では、歩行者50が自車両の前方から移動することにより、歩行者50に関する第2画像情報が得られなくなる。これにより、歩行者50の認識状態が解除される。
ここで、時刻t13で画像ロストが生じた後において、歩行者50が立つ路面にマンホールの蓋51等の段差物が存在していると、仮に歩行者50が自車両の前方から移行しても、レーダセンサ22によるマンホールの蓋51の検出情報により歩行者50が誤検出され、自車両40の発進抑制制御が不要に実施されることが懸念される。この点、時刻t13以降において歩行者50の有無が第2画像情報により判定されるため、歩行者50の存在が適正に把握され、自車両40の発進抑制制御が適正に実施される。
以上詳述した本実施形態によれば、以下の効果が得られるようになる。
・本実施形態では、第1画像情報とレーダ情報とにより歩行者50が認識されている状態から、第1画像情報が得られなくなったと判定された場合に、歩行者50の認識を第2画像情報とレーダ情報とにより継続する。第2画像情報は、画像Gのピクセルごとの種別情報により得られる情報であるため、画像Gのパターン認識により得られる第1画像情報に比べて、例えば歩行者50の存在領域の特定精度において信頼性が低いが、歩行者50が存在しているか否かを判定することはできる。本実施形態では、第1画像情報が得られなくなった場合において、第1画像情報が得られなくなる前に第1画像情報とレーダ情報とにより信頼性の高い歩行者50の認識がされていれば、第2画像情報とレーダ情報とにより歩行者50の認識を継続するようにした。これにより、第1画像情報が得られなくなった状態でも、歩行者認識の信頼性を高く維持しつつ、画像Gと距離情報とを用いて歩行者50を認識することができる。そして、第2画像情報により歩行者50が検出されない場合には、歩行者50が存在しておらず、レーダ情報により歩行者50が誤検出されている可能性が高いため、歩行者50が認識されている状態の解除が可能となっている。
・第2画像情報の歩行者認識の信頼性は第1画像情報に比べて低いが、第1画像情報が示す歩行者50と第2画像情報が示す歩行者50とが同一である場合には、第2画像情報の歩行者認識の信頼性は高いと考えることができる。本実施形態では、第1画像情報が示す歩行者50と第2画像情報が示す歩行者50とが同一であるか否かを判定し、同一であると判定された場合に、第2画像情報を用いて歩行者50の認識を継続することとした。そのため、第2画像情報を用いて信頼性の高い歩行者認識を行うことができる。
具体的には、歩行者50について、第1画像情報が得られている期間と第2画像情報が得られている期間との重複期間が長いほど、第1画像情報が示す歩行者50と第2画像情報が示す歩行者50とが同一である可能性が高い。本実施形態では、該重複期間を示す検出回数DNが閾値回数Nthよりも大きい場合に、第2画像情報を用いて歩行者50の認識を継続することとした。これにより、第2画像情報の歩行者認識の信頼性を確保しつつ、信頼性の高い歩行者認識を行うことができる。
・第1画像情報が得られなくなった直後は、レーダ情報のみにより歩行者50が認識されていても、それまでの第1画像情報とレーダ情報とによる歩行者認識により、歩行者認識の信頼性は高いと考えることができる。しかし、第1画像情報が得られなくなってからの経過時間TCの増加に伴って、その信頼性は低下する。本実施形態では、第1画像情報が得られなくなってから所定時間Tthが経過するまではレーダ情報のみによる歩行者50の認識を継続しつつ、第1画像情報が得られなくなってから所定時間Tthが経過した後は、第2画像情報とレーダ情報とにより歩行者50を認識するようにした。これにより、第1画像情報が得られなくなった場合において、歩行者認識を継続しつつ、歩行者認識の信頼性の低下を抑制することができる。
・第2画像情報の歩行者認識の信頼性は第1画像情報に比べて低いため、第2画像情報とレーダ情報とによる歩行者50の認識精度は、第1画像情報とレーダ情報とによる歩行者50の認識精度に比べて低い。本実施形態では、第1画像情報とレーダ情報とにより歩行者50が認識されている状態と、第2画像情報とレーダ情報とにより歩行者50が認識されている状態とで、運転支援制御の実施態様を変更するようにした。これにより、歩行者50の認識精度に応じて、運転支援制御の実施態様を適宜変更することができる。
(その他の実施形態)
上記各実施形態は、以下のように変更して実施してもよい。
・図3のステップS24において、第1画像情報が得られなくなってからの経過時間TCを判定する所定時間Tthを、第1画像情報が得られなくなる前の物体の検出回数DNに基づいて可変に設定してもよい。具体的には、図5に示すように、第1画像情報が得られなくなる前の物体の検出回数DNが大きいほど、所定時間Tthが長くなるように設定する。
・撮像装置は、単眼カメラに限られず、ステレオカメラであってもよい。送信波及び反射波を用いる装置は、レーダセンサ22に限られず、レーザセンサであってもよい。
・本開示に記載の車両制御装置及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の車両制御装置及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の車両制御装置及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
10…ECU、21…カメラセンサ。

Claims (5)

  1. 自車両周辺の画像のパターン認識により得られた第1物体情報と、送信波及び反射波により得られた第2物体情報とにより物体を認識する車両制御装置(10)であって、
    前記第1物体情報が示す物体の存在領域と、前記第2物体情報が示す物体の存在領域とが重なることに基づいて、当該物体を認識する認識部と、
    前記認識部により物体が認識されている状態から、前記第1物体情報が得られなくなったことを判定する状態判定部と、
    前記状態判定部により前記第1物体情報が得られなくなったと判定された場合に、前記第2物体情報と、前記画像のピクセルごとの種別情報により得られた第3物体情報とにより物体の認識を継続する継続処理部と、
    を備える車両制御装置。
  2. 前記画像において前記第1物体情報が示す物体と前記第3物体情報が示す物体とが同一であるか否かを判定する同一判定部を備え、
    前記継続処理部は、前記状態判定部により前記第1物体情報が得られなくなったと判定された場合に、前記同一判定部により前記第1物体情報が示す物体と前記第3物体情報が示す物体とが同一であると判定されていることを条件に、前記第2物体情報と前記第3物体情報とによる物体認識を継続する、請求項1に記載の車両制御装置。
  3. 前記同一判定部は、前記画像から前記第1物体情報が得られている期間と、前記画像から前記第3物体情報が得られている期間との重複期間が所定の閾値期間よりも長い場合に、前記第1物体情報が示す物体と前記第3物体情報が示す物体とが同一であると判定する、請求項2に記載の車両制御装置。
  4. 前記継続処理部は、
    前記状態判定部により前記第1物体情報が得られなくなったと判定された場合に、
    その判定直後の所定時間において前記第2物体情報のみにより物体の認識を継続する第1継続処理と、
    その第1継続処理に引き続き、前記第2物体情報と前記第3物体情報とにより物体の認識を継続する第2継続処理と、
    を実施する、請求項1~3のいずれか一項に記載の車両制御装置。
  5. 自車両周辺の物体の認識結果に基づいて、当該物体に対する衝突を回避又は軽減すべく運転支援制御を実施する車両制御装置であって、
    前記第1物体情報及び前記第2物体情報により物体が認識されている状態と、前記第2物体情報及び前記第3物体情報により物体が認識されている状態とで、前記運転支援制御の実施態様を変更する制御部を備える請求項1~4のいずれか一項に記載の車両制御装置。
JP2021121920A 2021-07-26 2021-07-26 車両制御装置 Pending JP2023017574A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021121920A JP2023017574A (ja) 2021-07-26 2021-07-26 車両制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021121920A JP2023017574A (ja) 2021-07-26 2021-07-26 車両制御装置

Publications (1)

Publication Number Publication Date
JP2023017574A true JP2023017574A (ja) 2023-02-07

Family

ID=85157813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021121920A Pending JP2023017574A (ja) 2021-07-26 2021-07-26 車両制御装置

Country Status (1)

Country Link
JP (1) JP2023017574A (ja)

Similar Documents

Publication Publication Date Title
US10854081B2 (en) Driving assistance device and driving assistance method
CN107848530B (zh) 车辆控制装置以及车辆控制方法
US10793096B2 (en) Vehicle control device with object detection
JP6561584B2 (ja) 車両制御装置、及び車両制御方法
CN108156822B (zh) 车辆控制装置,以及车辆控制方法
WO2017104773A1 (ja) 移動体制御装置及び移動体制御方法
US11414074B2 (en) Driving support device
WO2017111147A1 (ja) 走行支援装置及び走行支援方法
WO2018101208A1 (ja) 走行制御装置
WO2016186124A1 (ja) 車両制御方法及び装置
CN108602494B (zh) 车辆控制装置以及车辆控制方法
US10839232B2 (en) Vehicle control method and apparatus
WO2016204213A1 (ja) 車両制御装置、及び車両制御方法
US20210394754A1 (en) Driving assistance device
WO2017138329A1 (ja) 衝突予測装置
WO2017183668A1 (ja) 車両制御装置、車両制御方法
WO2018008564A1 (ja) 走行支援装置
JP2019046143A (ja) 走行支援装置
WO2017094891A1 (ja) 物体検出装置及び物体検出方法
US20230166730A1 (en) Vehicle control device
JP2004136788A (ja) 車両用制御装置
JP2023017574A (ja) 車両制御装置
US11396291B2 (en) Inferring a lane boundary position by the detected position of other vehicles in different lanes
WO2019225407A1 (ja) 走行支援装置
JP7413548B2 (ja) 走行支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231009

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416