JP2023041436A - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP2023041436A
JP2023041436A JP2021148812A JP2021148812A JP2023041436A JP 2023041436 A JP2023041436 A JP 2023041436A JP 2021148812 A JP2021148812 A JP 2021148812A JP 2021148812 A JP2021148812 A JP 2021148812A JP 2023041436 A JP2023041436 A JP 2023041436A
Authority
JP
Japan
Prior art keywords
detection
coordinate
target object
detection points
positive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021148812A
Other languages
English (en)
Inventor
俊祐 楠原
Toshisuke Kusuhara
友一朗 古賀
Yuichiro Koga
幹生 大林
Mikio Obayashi
拓也 中川
Takuya Nakagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2021148812A priority Critical patent/JP2023041436A/ja
Publication of JP2023041436A publication Critical patent/JP2023041436A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】物体の形状を適正に認識することができる物体認識装置を提供すること。【解決手段】物体認識装置10は、物体を検出する物体検出センサ21,22を有する車両に適用され、車両の走行中において、物体検出センサにより検出された物体の検出点として、対象物体の外表面に沿って検出された複数の検出点を取得し、その複数の検出点に基づいて対象物体を認識する。物体認識装置10は、対象物体の外表面に沿って検出された検出点ごとに物体検出センサの検出方向を判定し、判定された検出方向に基づいて、対象物体の外表面の向きを特定し、特定された対象物体の外表面の向きに基づいて、当該対象物体を認識する。【選択図】 図1

Description

本発明は、自車両周辺の物体を認識する物体認識装置に関する。
従来、例えばカメラやソナーを用いて自車両周辺の物体を検出し、その検出結果に基づいて物体を認識する装置が知られている。例えば特許文献1の装置は、自車両の走行中に自車両周辺の対象物体をカメラ及びソナーにより検出し、カメラにより検出された対象物体の方位と、ソナーにより検出された対象物体までの距離とに基づいて、対象物体の位置を認識する。
特開2020-64544号公報
車両の走行時においては、対象物体の外表面に沿った複数の検出点が検出され、それらの検出点に基づいて対象物体の形状が認識される。ここで、対象物体の形状によっては対象物体の外表面に対して多重に検出点が検出されることがあり、かかる場合には、対象物体の外表面が誤って認識され、認識精度が低下することが懸念される。
本発明は上記課題に鑑みたものであり、物体の形状を適正に認識することができる物体認識装置を提供することを目的とする。
上記課題を解決する手段は、物体を検出する物体検出センサを有する車両に適用され、車両の走行中において、前記物体検出センサにより検出された物体の検出点として、対象物体の外表面に沿って検出された複数の検出点を取得し、その複数の検出点に基づいて前記対象物体を認識する物体認識装置であって、前記対象物体の外表面に沿って検出された前記検出点ごとに前記物体検出センサの検出方向を判定する方向判定部と、前記方向判定部により判定された前記検出方向に基づいて、前記対象物体の外表面の向きを特定する特定部と、前記特定部により特定された前記対象物体の外表面の向きに基づいて、当該対象物体を認識する認識部と、を備える。
車両の走行時には、車両周囲に様々な物体が存在し、その物体が物体検出センサにより検出される。この場合、一般に物体検出センサにより検出された物体の検出点として、対象物体の外表面に沿って検出された複数の検出点が取得され、それら各検出点に基づいて対象物体が認識される。ここで、対象物体の形状によっては対象物体の外表面に対して多重に検出点が検出されることがあり、かかる場合には、対象物体の外表面が誤って認識され、認識精度が低下することが懸念される。
上記構成では、対象物体の外表面に沿って検出された検出点ごとに物体検出センサの検出方向を判定し、その検出方向に基づいて、対象物体の外表面の向きを特定するようにした。これにより、仮に対象物体の形状によって多重に検出点が検出されたとしても、その多重の要因を把握することが可能となり、対象物体の形状を適正に認識することができる。
走行制御システムの全体構成図。 特定の外表面に対して多重に検出された検出点を示す図。 互いに異なる外表面に対してそれぞれ検出された検出点を示す図。 運転支援処理の処理手順を示すフローチャート。 検出方向の判定の手順を示す図。 物体までの距離と検出精度との関係を示すグラフ。 被検出面の認識方法を説明する図。 運転支援処理における物体認識の一例を示す図。
以下、本発明に係る物体認識装置を、車載の走行制御システム100に適用した実施形態について、図面を参照しつつ説明する。走行制御システム100は、自車両周辺に存在する物体を認識するとともに、その認識結果に基づいて、自車両50の運転支援制御(運転アシスト)を実施する。
図1に示すように、本実施形態に係る走行制御システム100は、物体認識装置としてのECU10と、センサ類20と、被制御装置30とを備えている。センサ類20としては、例えば、画像センサとしてのカメラセンサ21、ソナーセンサ22、ヨーレートセンサ23、車速センサ24等が備えられている。
カメラセンサ21は、例えば単眼カメラであり、自車両周辺を撮像する。本実施形態では、自車両50は、カメラセンサ21として、フロントカメラ、リアカメラ、右サイドカメラ、左サイドカメラを有している。フロントカメラは、自車両50のフロントガラスの上端付近等に設置されており、自車両前方の所定領域を撮像する。リアカメラは、自車両50の後面(例えばトランク付近)に取り付けられており、自車両後方の所定領域を撮像する。右サイドカメラは、自車両50の右側面(例えばドアミラー付近)に取り付けられており、自車両右側方の所定領域を撮像する。左サイドカメラは、自車両50の左側面(例えばドアミラー付近)に取り付けられており、自車両左側方の所定領域を撮像する。各カメラにより撮像された画像はECU10へ出力される。
ソナーセンサ22は、自車両周辺に探査波を送信し、その探査波の反射波を受信することで自車両周辺に存在する物体の距離情報を取得する測距センサである。本実施形態では、自車両50は、ソナーセンサ22として、フロントソナー、リアソナー、右サイドソナー、左サイドソナーを有している。フロントソナーは、自車両50の前面においてその送信方向が自車両前方を向くように取り付けられている。リアソナーは、自車両50の後面においてその送信方向が自車両後方を向くように取り付けられている。右サイドソナーは、自車両50の右側面においてその送信方向が自車両右側方を向くように取り付けられている。左サイドソナーは、自車両50の左側面においてその送信方向が自車両左側方を向くように取り付けられている。
各ソナーは、規定時間毎に探査波である超音波を送信するとともに、物体の表面で反射された反射波を複数のアンテナにより受信することで物体までの距離、物体の方位、及び物体の自車両50に対する相対速度等を距離情報として取得する。各ソナーは、探査波の送信時刻と反射波の受信時刻とにより、物体までの距離を算出して取得する。また、各ソナーは、複数のアンテナが受信した反射波の位相差により、物体の方位を算出して取得する。さらに、各ソナーは、物体の表面で反射された反射波の、ドップラー効果により変化した周波数により、物体の相対速度を算出して取得する。各ソナーにより撮像された距離情報はECU10へ出力される。なお、本実施形態において、カメラセンサ21及びソナーセンサ22が「物体検出センサ」に相当する。
ヨーレートセンサ23は、自車両50の旋回角速度を検出する周知のヨーレートセンサとして構成される。車速センサ24は、車輪の回転速度、つまりは自車両50の走行速度を検出する。これらのセンサ23,24による検出結果は、ECU10に出力される。
ECU10は、CPU,ROM,RAM,フラッシュメモリ等からなる周知のマイクロコンピュータを備えた制御装置である。ECU10は、自車両周辺の物体の検出点を取得する。ECU10は、カメラセンサ21から取得される画像に基づいて物体の外表面に沿って検出された複数の検出点を取得するとともに、ソナーセンサ22から取得される距離情報に基づいて物体の外表面に沿って検出された複数の検出点を取得する。
詳細には、ECU10は、カメラセンサ21から取得される画像に対して、テンプレートマッチング(パターン認識)等の周知の画像処理を行うことにより、画像内に存在する物体を検出する。本実施形態では、物体を特定するためのテンプレートとして、物体ごとの特徴をパターン化した全身辞書が記憶されている。ECU10は、辞書に記憶された物体の実寸法と、画像上の物体の大きさである画像寸法との比に基づいて物体までの距離を算出する。また、ECU10は、画像の下端部中央を原点として、原点に対する画像上の物体の方位を算出する。ECU10は、画像から算出した物体までの距離及び物体の方位により物体の相対位置及び存在領域等を算出し、これらの情報を各検出点の情報として取得する。
また、ECU10は、ソナーセンサ22から取得される距離情報に含まれる物体までの距離及び物体の方位により物体の相対位置及び存在領域等を算出し、これらの情報を各検出点の情報として取得する。
ECU10は、取得した複数の検出点に基づいて、自車両周辺に存在する対象物体の形状を認識し、被制御装置30を用いて自車両50の駆動力及び制動力を調整することで、自車両50の運転支援制御を実施する。被制御装置30は、加速装置であるアクセル装置31と減速装置であるブレーキ装置32と操舵装置33とを有する。アクセル装置31は、ドライバのアクセル操作又はECU10からの制御指令により、自車両50に駆動力を付与する。ブレーキ装置32は、ドライバのブレーキ操作又はECU10からの制御指令により、自車両50に制動力を付与する。操舵装置33は、ドライバのハンドル操作又はECU10からの制御指令により、自車両50の操舵を制御する。
ところで、自車両50の進行方向前方に第1対象物体B1が存在する場合、第1対象物体B1の自車両50側の外表面PAに対して多重に検出点が検出されることがある。例えば、図2(A)に示すように、同一のソナーセンサ22(フロントソナー)により異なるタイミング(t1,t2)で検出点が検出されることにより、多重に検出点(白丸、黒丸)が検出される。また、図2(B)に示すように、異なるセンサであるカメラセンサ21(フロントカメラ)とソナーセンサ22(フロントソナー)により同一のタイミングで検出点が検出されることにより、多重に検出点(白丸、白三角)が検出される。なお、本実施形態の各図において、黒丸の検出点は、ソナーセンサ22により遠距離から検出した検出点を示しており、白丸の検出点は、ソナーセンサ22により近距離から検出した検出点を示しており、白三角の検出点は、カメラセンサ21により近距離から検出した検出点を示している。
また、薄い壁状の第2対象物体B2が存在しており、自車両50が第2対象物体B2の周りを走行する場合、第2対象物体B2の一対の両側の外表面PB,PCに対してそれぞれ検出点が検出される。具体的には、図3に示すように、自車両50が第2対象物体B2の周りを左回りに走行することで、ソナーセンサ22(左サイドソナー)により第2対象物体B2の各外表面PB,PCの検出点(白丸)が時系列で検出される。この場合、各外表面PB,PCの検出点は、第2対象物体B2の厚み方向に重なって検出される。
つまり、図2,図3に示す例では、いずれも多重に検出点が検出される。図2に示す例では、多重の検出点のうちから1つの検出点が、対象物体の形状認識に用いる検出点として選択される。しかしながら、黒丸の検出点や白三角の検出点など、第1対象物体B1の外表面PAから離間した位置座標を示す検出点が選択されると、第1対象物体B1の外表面PAの形状の認識精度が低下することが懸念される。一方、図3に示す例では、多重の検出点の全てが、対象物体の形状認識に用いる検出点として選択される。しかしながら、図3に示す例において、多重の検出点が、同一の外表面に対して検出されたものであると誤認識され、多重の検出点のうちから1つの検出点が選択されると、本来有効な検出点の情報が失われ、第2対象物体B2の形状の認識精度が低下することが懸念される。これらの場合、認識した対象物体の形状に基づいて運転支援制御を行っても、自車両50を適正に運転支援制御することができない。
そこで、本実施形態では、対象物体の外表面に沿って検出された検出点ごとにカメラセンサ21及びソナーセンサ22の検出方向θを判定する。ここで、検出方向θは、各検出点とその検出点が検出された際のカメラセンサ21又はソナーセンサ22の位置との結ぶベクトルの方向を示す。例えば、互いに直交する第1方向D1及び第2方向D2における上記ベクトルの方向を示す。そして、判定した検出方向θに基づいて、その検出点が検出された外表面の向きを特定するようにした。これにより、仮に対象物体の形状によって多重に検出点が検出されたとしても、その多重の要因を把握することが可能となり、対象物体の形状を適正に認識することができる。
図4に、本実施形態の運転支援処理のフローチャートを示す。ECU10は、自車両50の起動中において、所定周期ごとに運転支援処理を繰り返し実施する。
運転支援処理を開始すると、ステップS11では、カメラセンサ21及びソナーセンサ22により対象物体を検出する。運転支援処理が繰り返し実施されることで、ステップS11の処理が繰り返し実施される。その結果、自車両50の走行中において、対象物体が第1対象物体B1である場合に、外表面PAの検出点を複数回に亘って検出することが可能となり、検出対象が第2対象物体B2である場合に、各外表面PB,PCの検出点を時系列で検出することが可能となる。
ステップS12では、ステップS11で取得された検出点が多重であるか否かを判定する。例えば、第1センサの検出点を含む第1検出点群と第2センサタの検出点を含む第2検出点群とに分けた場合に、それら各群の検出点が多重であるか否かを判定する。検出点が多重である場合には、ステップS13に進む。一方、検出点が多重でない場合には、ステップS25に進む。図5(A)に示す例では、対象物体に対して、白丸、白三角、及び黒丸の検出点が多重に取得されている。
ステップS13では、取得された検出点を格子状の区画に割り当てる。自車両50周辺の空間には、互いに直交する第1方向D1及び第2方向D2における各々所定間隔で座標位置が設定されている。具体的には、図5(B)に示すように、自車両50周辺の空間が、第1方向D1に延びる複数の格子線と、第2方向D2に延びる複数の格子線により、格子状の区画に区分されており、各区分に座標位置が設定されている。ステップS13では、各検出点の相対位置の情報に基づいて、各検出点に対応する区画を抽出し、その検出点を抽出された区画に割り当てる。なお、1つの区画に複数の検出点が割り当てられる場合には、それらの検出点から1つの検出点を選択する。これにより、各区分に対応する座標位置ごとに検出点が割り当てられる。本実施形態において、ステップS13の処理が「検出点取得部」に相当する。
なお、第1方向D1及び第2方向D2は、自車両50の進行方向によらず所定の俯瞰座標における軸方向に設定されている。例えば、自車両50のナビゲーションシステムのマップ情報における東西方向を第1方向D1とし、南北方向を第2方向D2としてもよい。また、自車両50が起動した際の左右の後輪を結ぶ直線の方向を第1方向D1とし、その方向に直交する方向を第2方向D2としてもよい。
ステップS14では、ステップS13で検出点が割り当てられた区画の並び方向(以下、単に区画の並び方向)が第2方向D2であるか否かを判定する。図5(B)に示すように、区画の並び方向は、同種の検出点(白丸,白三角,黒丸)が割り当てられた区画が並ぶ方向を示しており、図5(B)に示す例では、区画の並び方向は第2方向D2となる。区画の並び方向と第2方向D2との間の角度が45度よりも小さく、区画の並び方向が第2方向D2である場合には、ステップS15に進む。一方、区画の並び方向と第2方向D2との間の角度が45度よりも大きく、区画の並び方向が第1方向D1である場合には、ステップS17に進む。
ステップS15では、探索方向を第1方向D1に設定する。続くステップS16では、各検出点の検出方向θが第1方向D1(探索方向)における正負の方向のいずれであるかを判定する。図5(C)に示すように、各検出点の情報には検出方向θが含まれている。ステップS16では、検出方向θを第1方向成分と第2方向成分とに分解し、検出方向θの第1方向成分が第1方向D1と同一方向であるか否かを判定する。検出方向θの第1方向成分が第1方向D1と同一方向である場合、検出方向θが第1方向D1における正方向であると判定し、検出方向θの第1方向成分が第1方向D1と反対方向である場合、検出方向θが第1方向D1における負方向であると判定する。
ステップS16の判定は、対象物体の外表面に沿って検出された検出点ごとに、詳細には区画に割り当てられた検出点ごとに行われる。例えば、図5(B)に示すように、検出点が割り当てられた区画が、第1方向D1においてm列(mは2以上の自然数)の範囲に存在し、第2方向D2においてn列(nは2以上の自然数)の範囲に存在する場合、第1方向D1に並ぶm個の区画列を第1座標列H1に設定する。そして、第1座標列H1を第2方向D2に走査しつつ、当該第1座標列H1に含まれる区画に割り当てられた検出点ごとに、検出方向θが第1方向D1における正負の方向のいずれであるかを判定する。なお、本実施形態において、ステップS16の処理が「第1判定処理」に相当する。
ステップS17では、探索方向を第2方向D2に設定する。続くステップS18では、各検出点の検出方向θが第2方向D2(探索方向)における正負の方向のいずれであるかを判定する。ステップS18では、検出方向θの第2方向成分が第2方向D2と同一方向である場合に、検出方向θが第2方向D2における正方向であるか否かを判定する。検出方向θの第2方向成分が第2方向D2と同一方向である場合、検出方向θが第2方向D2における正方向であると判定し、検出方向θの第2方向成分が第2方向D2と反対方向である場合、検出方向θが第2方向D2における負方向であると判定する。
ステップS18の判定は、対象物体の外表面に沿って検出された検出点ごとに行われる。具体的には、検出点が割り当てられた区画が、第1方向D1においてm列の範囲に存在し、第2方向D2においてn列の範囲に存在する場合、第2方向D2に並ぶn個の区画列を第2座標列H2に設定する。そして、第2座標列H2を第1方向D1に走査しつつ、第2座標列H2に含まれる区画に割り当てられた検出点ごとに検出方向θが探索方向における正負の方向のいずれであるかを判定する。なお、本実施形態において、ステップS18の処理が「第2判定処理」に相当し、ステップS16,S18の処理が「方向判定部」に相当する。
ステップS19~S21では、ステップS16,S18における判定結果に基づいて、対象物体の外表面のうち、検出点が検出された外表面である被検出面の向きを特定する。具体的には、ステップS19では、ステップS16,S18で設定された複数の座標列H1,H2のうち、判定結果に正負の方向が混在している座標列H1,H2の割合が所定割合よりも高いか否かを判定する。正負の方向が混在している座標列H1,H2の割合が所定割合よりも低い場合、ステップS20に進む。ステップS20では、被検出面が1面であると特定するとともに、その被検出面の向きを特定し、ステップS23に進む。例えば、図5(C)に示すように、判定結果に正負の方向が混在していない第1座標列H1の過半数において、それらの第1座標列H1に含まれる検出点の判定結果が正方向である場合、被検出面は第1方向D1の負方向を向いていると特定される。
一方、正負の方向が混在している座標列H1,H2の割合が所定割合よりも高い場合、ステップS21に進む。ステップS21では、対象物体の被検出面が2面であると特定する。この場合、2面の被検出面は、第1方向D1又は第2方向D2において互いに反対方向を向いていると特定される。なお、本実施形態において、ステップS19~S21の処理が「特定部」に相当する。
ステップS22では、2面の被検出面のうち、少なくとも一方の被検出面において、多重に検出点を検出しているか否かを判定する。少なくとも一方の被検出面において、多重に検出点を検出している場合には、ステップS23に進む。一方、いずれの被検出面においても、多重に検出点を検出していない場合には、ステップS25に進む。
ステップS23では、検出点ごとに、物体検出の精度情報を取得する。具体的には、各検出点の情報に含まれる物体までの距離の情報と検出したセンサの情報とに基づいて精度情報を取得する。なお、本実施形態において、ステップS23の処理が「精度取得部」に相当する。
図6に示すように、近距離におけるソナーセンサ22の検出精度は、近距離におけるカメラセンサ21の検出精度よりも高い。カメラセンサ21及びソナーセンサ22の検出精度は、物体までの距離が長くなるほど低下し、その低下度合は、カメラセンサ21よりもソナーセンサ22のほうが大きい。そのため、遠距離におけるソナーセンサ22の検出精度は、近距離におけるカメラセンサ21の検出精度よりも低い。したがって、カメラセンサ21及びソナーセンサ22の相互において各検出点までの距離に応じた検出精度は、近距離におけるソナーセンサ22(白丸)、近距離におけるカメラセンサ21(白三角)、遠距離におけるカメラセンサ21、遠距離におけるソナーセンサ22(黒丸)の順に低くなる。ステップS23では、上記の検出精度の優劣の情報を、検出点ごとの精度情報として取得する。
ステップS24では、ステップS23で取得された検出点ごとの精度情報に基づいて、対象物体の形状認識に用いる検出点を選択する。例えば、同一の第1座標列H1において検出方向θが第1方向D1における正負の同じ方向となる検出点が2以上含まれる場合には、それら正負の同じ方向となる検出点のうち、検出精度が高い検出点を選択する。また、同一の第2座標列H2において検出方向θが第2方向D2における正負の同じ方向となる検出点が2以上含まれる場合には、それら正負の同じ方向となる検出点のうち、検出精度が高い検出点を選択する。なお、本実施形態において、ステップS24の処理が「選択部」に相当する。
ステップS25では、検出点に基づいて対象物体の形状を認識する。具体的には、ステップS12において、検出点が多重に取得されていないと判定された場合には、ステップS11で取得された検出点に基づいて、対象物体の形状を認識する。また、ステップS12において、検出点が多重に取得されていると判定された場合には、ステップS20,S21で特定された被検出面の向きに基づいて、対象物体の形状を認識する。この場合に、ステップS24において、検出点が選択されている場合には、選択された検出点に基づいて、対象物体の形状を認識する。なお、本実施形態において、ステップS25の処理が「認識部」に相当する。
ステップS26では、ステップS25で認識した対象物体の形状に基づいて、自車両50の運転支援制御を実施し、本処理を一旦終了する。
続いて、図7に、運転支援処理におけるステップS15~S24の処理を具体化した検出点の選択方法について説明する。以下では、図7に示す第1座標列H1を用いて、被検出面の形状認識に用いる検出点の選択方法を説明する。図7に示す第1座標列H1では、第1方向D1に連続して並ぶ4つの区画に、第1~第4検出点P1~P4がこの順に割り当てられている。
検出点の選択方法において、ECU10は、まず、第1~第4検出点P1~P4の検出方向θを用いて、各検出点P1~P4の検出方向θが第1方向D1における正負の方向のいずれであるかを判定する(ステップS15,S16に対応)。図7に示すように、第1~第4検出点P1~P4のうち、第1~第3検出点P1~P3は、検出方向θの第1方向成分が第1方向D1と同一方向の検出点であり、第4検出点P4は、検出方向θの第1方向成分が第1方向D1と反対方向の検出点である。つまり、第1~第3検出点P1~P3の判定結果は、正方向となり、第4検出点P4の判定結果は、負方向となる。そのため、対象物体に第1方向D1の正方向を向いている被検出面が存在する場合には、その被検出面の形状認識に用いる検出点として、第4検出点P4が選択される。
一方、対象物体に第1方向D1の負方向を向いている被検出面が存在する場合には、その被検出面の形状認識に用いる検出点は、第1~第3検出点P1~P3から選択される(ステップS23,S24に対応)。この場合、ECU10は、第1~第3検出点P1~P3の精度情報を用いて、被検出面の形状認識に用いる検出点を選択する。図7に示す例では、第1検出点P1は黒丸の検出点であり、第2検出点P2は白三角の検出点であり、第3検出点P3は白丸の検出点である。つまり、第1~第3検出点P1~P3のうち、第3検出点P3の検出精度が最も高い。そのため、対象物体に第1方向D1の正方向を向いている被検出面が存在する場合には、その被検出面の形状認識に用いる検出点として、第3検出点P3が選択される。
図8に、検出点の選択方法において、検出方向θ及び精度情報を用いて検出点を選択する効果について説明する。図8(A)に示すように、対象物体が第1対象物体B1であり、第1対象物体B1の被検出面である外表面PAに対して多重に検出点が検出された場合、検出点ごとの精度情報が取得されないと、検出精度が低い検出点により外表面PAの形状が認識されることがあり、この場合、外表面PAの形状の認識精度が低下する。本実施形態では、検出点ごとの精度情報に基づいて検出点が選択されるため、検出精度が高い検出点により外表面PAの形状を適正に認識することができる。
また、図8(B)に示すように、対象物体が第2対象物体B2であり、第2対象物体B2の被検出面である外表面PB,PCの検出点が検出された場合、検出点ごとの検出方向θが取得されないと、これらの検出点が同一の外表面に対して検出されたものであると誤認識され、外表面PB,PCの検出点のうちから1つの検出点が選択されると、本来有効な検出点の情報が失われ、第2対象物体B2の形状の認識精度が低下する。本実施形態では、検出点ごとの検出方向θに基づいて検出点が選択されるため、2つの外表面PB,PCの形状を適正に認識することができる。
以上詳述した本実施形態によれば、以下の効果が得られるようになる。
対象物体の外表面に沿って検出された検出点ごとに検出方向θを判定し、その検出方向θに基づいて、対象物体の外表面の向きを特定するようにした。これにより、仮に対象物体の形状によって多重に検出点が検出されたとしても、その多重の要因を把握することが可能となり、対象物体の形状を適正に認識することができる。
互いに直交する第1方向D1及び第2方向D2において各々所定間隔で区分される区画に検出点を割り当てておき、割り当てられた検出点ごとに、検出方向θが第1方向D1における正負の方向のいずれであるかの判定と、検出方向θが第2方向D2における正負の方向のいずれであるかの判定とを実施する。そして、その判定結果に基づいて、対象物体の外表面の向きを特定するようにした。これにより、対象物体の外表面の向きを効率良くかつ適正に認識することができる。
具体的には、第1方向D1に並ぶm列の座標列をそれぞれ第1座標列H1とし、第1座標列H1を第2方向D2に走査しつつ、当該第1座標列H1に含まれる各区画に割り当てられた検出点ごとに、検出方向θが第1方向D1における正負の方向のいずれであるかを判定する処理を実施するようにした。又は、第2方向D2に並ぶn列の座標列をそれぞれ第2座標列H2とし、第2座標列H2を第1方向D1に走査しつつ、当該第2座標列H2に含まれる各区画に割り当てられた検出点ごとに、検出方向θが第2方向D2における正負の方向のいずれであるかを判定する処理を実施するようにした。これにより、第1座標列H1又は第2座標列H2ごとに、対象物体の外表面の向きを適正に認識することができる。
同一の第1座標列H1において検出方向θが第1方向D1における正負の同じ方向となる検出点が2以上含まれる場合、又は同一の第2座標列H2において検出方向θが第2方向D2における正負の同じ方向となる検出点が2以上含まれる場合には、検出点ごとに精度情報を取得し、この精度情報が示す検出点の検出精度に基づいて、物体認識に用いる検出点を選択するようにした。これにより、検出精度のよい検出点を用いて、対象物体の外表面の形状を精度よく認識することができる。
カメラセンサ21及びソナーセンサ22により対象物体を検出する場合、対象物体までの距離に応じて、各センサ21,22の検出精度の優劣が変わる。そこで、カメラセンサ21及びソナーセンサ22の相互において各検出点までの距離に応じた検出精度の優劣の情報を、検出点ごとの精度情報として取得するようにした。これにより、物体までの距離に応じた各センサの特性を考慮して、対象物体の外表面の形状を精度よく認識することができる。
(その他の実施形態)
上記各実施形態は、以下のように変更して実施してもよい。
・上記実施形態では、運転支援処理において、検出点ごとの検出方向θ及び精度情報を用いて検出点を選択する例を示したが、検出方向θ及び精度情報のうち、検出方向θのみを用いて検出点を選択するようにしてもよい。これにより、仮に対象物体が薄い壁状の形状であることによって多重に検出点が検出されたとしても、その多重の要因を把握することが可能となり、対象物体の形状を適正に認識することができる。
・上記実施形態では、運転支援処理において、検出方向θが探索方向における正負の方向のいずれであるかの判定処理、及び検出面の選択処理を、第1方向D1及び第2方向D2の両方で実施する例を示したが、第1方向D1及び第2方向D2のいずれか一方のみで実施するようにしてもよい。
この場合、第1方向D1及び第2方向D2のいずれか一方である直線状の所定方向において所定間隔で区分される区画に検出点を割り当てておき、割り当てられた検出点ごとに、検出方向θが所定方向における正負の方向のいずれであるかの判定を実施する。そして、その判定結果に基づいて、対象物体の外表面の向きを特定する。これにより、所定方向における対象物体の外表面の向きを効率良くかつ適正に認識することができる。
・撮像装置は、単眼カメラに限られず、ステレオカメラであってもよい。送信波及び反射波を用いる装置は、ソナーセンサ22に限られず、レーダセンサであってもよい。
・本開示に記載の物体認識装置及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体認識装置及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体認識装置及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
10…ECU、21…カメラセンサ、22…ソナーセンサ。

Claims (6)

  1. 物体を検出する物体検出センサ(21,22)を有する車両に適用され、車両の走行中において、前記物体検出センサにより検出された物体の検出点として、対象物体の外表面に沿って検出された複数の検出点を取得し、その複数の検出点に基づいて前記対象物体を認識する物体認識装置(10)であって、
    前記対象物体の外表面に沿って検出された前記検出点ごとに前記物体検出センサの検出方向を判定する方向判定部と、
    前記方向判定部により判定された前記検出方向に基づいて、前記対象物体の外表面の向きを特定する特定部と、
    前記特定部により特定された前記対象物体の外表面の向きに基づいて、当該対象物体を認識する認識部と、
    を備える物体認識装置。
  2. 直線状の所定方向において所定間隔で座標位置を割り当てておき、その座標位置ごとに前記検出点を取得する検出点取得部を備え、
    前記方向判定部は、前記各座標位置における前記検出点ごとに、前記検出方向が前記所定方向における正負の方向のいずれであるかの判定を実施し、
    前記特定部は、前記検出方向が前記所定方向における正負の方向のいずれであるかの判定結果に基づいて、前記対象物体の外表面の向きを特定する、請求項1に記載の物体認識装置。
  3. 互いに直交する第1方向及び第2方向における各々所定間隔で座標位置を割り当てておき、その座標位置ごとに前記検出点を取得する検出点取得部を備え、
    前記方向判定部は、前記各座標位置における前記検出点ごとに、前記検出方向が前記第1方向における正負の方向のいずれであるかの判定と、前記検出方向が前記第2方向における正負の方向のいずれであるかの判定とを実施し、
    前記特定部は、前記検出方向が前記第1方向における正負の方向のいずれであるかの判定結果と、前記検出方向が前記第2方向における正負の方向のいずれであるかの判定結果とに基づいて、前記対象物体の外表面の向きを特定する、請求項1に記載の物体認識装置。
  4. 前記第1方向及び前記第2方向に並ぶ前記各座標位置について、前記第1方向に並ぶm列の座標列をそれぞれ第1座標列とする一方、前記第2方向に並ぶn列の座標列をそれぞれ第2座標列としており、
    前記方向判定部は、
    前記第1座標列を前記第2方向に走査しつつ、当該第1座標列に含まれる前記各座標位置における前記検出点ごとに、前記検出方向が前記第1方向における正負の方向のいずれであるかを判定する第1判定処理と、
    前記第2座標列を前記第1方向に走査しつつ、当該第2座標列に含まれる前記各座標位置における前記検出点ごとに、前記検出方向が前記第2方向における正負の方向のいずれであるかを判定する第2判定処理とを実施する、請求項3に記載の物体認識装置。
  5. 前記検出点ごとに、物体検出の精度情報を取得する精度取得部と、
    前記方向判定部による判定結果として、同一の前記第1座標列において前記検出方向が前記第1方向における正負の同じ方向となる前記検出点が2以上含まれる場合と、同一の前記第2座標列において前記検出方向が前記第2方向における正負の同じ方向となる前記検出点が2以上含まれる場合との少なくともいずれかにおいて、前記精度取得部により取得された前記検出点ごとの精度情報に基づいて、前記認識部での物体認識に用いる前記検出点を選択する選択部と、
    を備える請求項4に記載の物体認識装置。
  6. 車両は、前記物体検出センサとして、物体を撮像する画像センサ(21)と、送信波及び受信波により物体までの距離を測定する測距センサ(22)とを有しており、
    前記精度取得部は、前記画像センサ及び前記測距センサの相互において前記各検出点までの距離に応じた検出精度の優劣を含む情報を、前記検出点ごとの精度情報として取得する、請求項5に記載の物体認識装置。
JP2021148812A 2021-09-13 2021-09-13 物体認識装置 Pending JP2023041436A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021148812A JP2023041436A (ja) 2021-09-13 2021-09-13 物体認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021148812A JP2023041436A (ja) 2021-09-13 2021-09-13 物体認識装置

Publications (1)

Publication Number Publication Date
JP2023041436A true JP2023041436A (ja) 2023-03-24

Family

ID=85641751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021148812A Pending JP2023041436A (ja) 2021-09-13 2021-09-13 物体認識装置

Country Status (1)

Country Link
JP (1) JP2023041436A (ja)

Similar Documents

Publication Publication Date Title
CN109155109B (zh) 物标检测装置
JP5152244B2 (ja) 追従対象車特定装置
US20190004166A1 (en) Method to determine the orientation of a target vehicle
US11300415B2 (en) Host vehicle position estimation device
JP6622167B2 (ja) 軸ずれ推定装置
JP4650508B2 (ja) 認識システム
US11024174B2 (en) Parking space detection apparatus
JP6321373B2 (ja) 進路推定装置,及びプログラム
US10527719B2 (en) Object detection apparatus and object detection method
US20150138011A1 (en) Parking assisting device
JP2018106511A (ja) 物体検出装置、物体検出方法
WO2006090736A1 (ja) 物体認識装置
US10884125B2 (en) Parking assistance device
JP5229254B2 (ja) 道路形状認識装置
JP5947279B2 (ja) 進路推定装置,及びプログラム
US11954918B2 (en) Object detection device, object detection method, and storage medium
JP5098563B2 (ja) 物体検出装置
US11042759B2 (en) Roadside object recognition apparatus
WO2021070916A1 (ja) 軸ずれ推定装置
US10539659B2 (en) Apparatus for detecting axial misalignment
US10970870B2 (en) Object detection apparatus
JP5593793B2 (ja) 車両制御装置
JP2023041436A (ja) 物体認識装置
US10053092B2 (en) Road environment recognition device, vehicle control device, and vehicle control method
WO2017164250A1 (ja) 推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240611