JP7366695B2 - Object recognition method and object recognition device - Google Patents
Object recognition method and object recognition device Download PDFInfo
- Publication number
- JP7366695B2 JP7366695B2 JP2019201640A JP2019201640A JP7366695B2 JP 7366695 B2 JP7366695 B2 JP 7366695B2 JP 2019201640 A JP2019201640 A JP 2019201640A JP 2019201640 A JP2019201640 A JP 2019201640A JP 7366695 B2 JP7366695 B2 JP 7366695B2
- Authority
- JP
- Japan
- Prior art keywords
- detected
- map
- mirror image
- vehicle
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、物体認識方法及び物体認識装置に関する。 The present invention relates to an object recognition method and an object recognition device.
特許文献1には、車両に搭載されてターゲットとの相対距離を検出するミリ波レーダ車間距離センサが記載されている。このミリ波レーダ車間距離センサは、検出した静止物のターゲットからゴーストを判定する基準として基本ラインを算出し、検出したターゲットが基本ラインの内側にあるか外側にあるかを判定し、外側にあるターゲットを消去する。
上記特許文献1に記載のミリ波レーダ車間距離センサは、レーダ波のマルチパス(多重波伝播)によって実際には存在しない物標(いわゆる「ゴースト」)が発生した場合にゴーストを消去する。このようにゴーストを消去すると、実際に存在している物体を検出しそこなう可能性がある。例えばレーダの死角にいる物体を検出できなくなる。
本発明は、レーダで検出した物体が、マルチパスによって実際と異なる位置に検出された場合に、実際の位置を推定することを目的とする。
The millimeter wave radar inter-vehicle distance sensor described in
An object of the present invention is to estimate the actual position of an object detected by radar when the object is detected at a different position than the actual position due to multipath.
本発明の一態様に係る物体認識方法では、レーダ装置からレーダ波を出射するとともにレーダ波の反射波を受信し、反射波の受信結果に基づいて周囲の複数の物体をそれぞれ検出した各々の検出位置を取得し、検出位置に基づいて、複数の物体のうちの第1物体nお検出位置とレーダ装置との間に第2物体が存在するか否かを判定し、第2物体が存在すると判定した場合に第1物体を処理対象として選択し、第1物体を処理対象として選択した場合に、第2物体のレーダ装置に対向する面である反射面の位置及び角度を検出し、反射面を対称面として第1物体の検出位置を反転させた鏡像位置に第1物体が存在すると認識する。 In an object recognition method according to one aspect of the present invention, a radar device emits radar waves and receives reflected waves of the radar waves, and a plurality of surrounding objects are respectively detected based on the reception results of the reflected waves. The position is acquired, and based on the detected position, it is determined whether or not a second object exists between the first object n of the plurality of objects and the detected position and the radar device, and if the second object is present, If the determination is made, the first object is selected as the processing target, and when the first object is selected as the processing target, the position and angle of the reflective surface of the second object, which is the surface facing the radar device, are detected, and the reflective surface is It is recognized that the first object exists at a mirror image position obtained by inverting the detected position of the first object using the plane of symmetry as the plane of symmetry.
本発明によれば、レーダで検出した物体が、マルチパスによって実際と異なる位置に検出された場合に、実際の位置を推定できる。 According to the present invention, when an object detected by radar is detected at a different position than the actual position due to multipath, the actual position can be estimated.
以下、図面を参照して、本発明の実施形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。各図面は模式的なものであり、現実のものとは異なる場合が含まれる。以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記の実施形態に例示した装置や方法に特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。 Embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, the same or similar parts are given the same or similar symbols, and overlapping explanations are omitted. Each drawing is schematic and may differ from the actual drawing. The embodiments shown below illustrate devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is specific to the devices and methods illustrated in the embodiments below. It's not something you do. The technical idea of the present invention can be modified in various ways within the technical scope described in the claims.
(第1実施形態)
(構成)
自車両1は、実施形態に係る車両制御装置10を搭載する。車両制御装置10は、自車両1の周囲の物体をレーダによって認識し、自車両1の周囲の物体の有無に基づいて自車両の走行を制御する。車両制御装置10は、特許請求の範囲に記載の「物体認識装置」の一例である。
車両制御装置10は、レーダ装置11と、物体認識コントローラ12と、走行制御部13と、アクチュエータ14を備える。
(First embodiment)
(composition)
The
The
レーダ装置11は、例えばミリ波レーダであり、レーダ波を自車両1の周囲に出射し、その反射波を受信することにより、レーダ波の反射点の自車両1に対する相対位置を検出したレーダ点群を、自車両1の周囲の物体の検出位置として取得する。レーダ装置11は、取得したレーダ点群を示す点群情報を物体認識コントローラ12に出力する。
The
物体認識コントローラ12は、レーダ装置11から得られたレーダ点群に基づいて自車両1の周囲の物体を認識する電子制御ユニット(Electronic Control Unit)である。物体認識コントローラ12は、プロセッサ15とその周辺部品とを含む。プロセッサ15は、例えばCPU(Central Processing Unit)、やMPU(Micro-Processing Unit)であってよい。
The
周辺部品には記憶装置16等が含まれる。記憶装置16は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶装置16は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明する物体認識コントローラ12の機能は、例えばプロセッサ15が、記憶装置16に格納されたコンピュータプログラムを実行することにより実現される。
Peripheral components include the
The functions of the
なお、物体認識コントローラ12を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、物体認識コントローラ12は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えば物体認識コントローラ12は、フィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてよい。
Note that the
For example, the
走行制御部13は、自車両1の走行を制御するコントローラである。走行制御部13は、物体認識コントローラ12による自車両1の周囲の物体の認識結果に基づいてアクチュエータ14を駆動し、自車両1の操舵制御、加速制御、または減速制御の少なくとも1つを実行する。
例えば走行制御部13は、プロセッサとその周辺部品とを含む。プロセッサは、例えばCPUやMPUであってよい。周辺部品には記憶装置が含まれる。記憶装置は、レジスタ、キャッシュメモリ、ROM、RAMなどのメモリや、半導体記憶装置、磁気記憶装置、光学記憶装置を含んでよい。走行制御部13が専用のハードウエアであってもよい。
The
For example, the
アクチュエータ14は、走行制御部13からの制御信号に応じて、自車両1の操舵機構、アクセル開度及びブレーキ装置を操作して、自車両1の車両挙動を発生させる。アクチュエータ14は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、自車両1の操舵機構の操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、自車両1のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両1のブレーキ装置の制動動作を制御する。
The
次に、図2を参照して物体認識コントローラ12による自車両1の周囲の物体の認識処理について説明する。
例として右側通行の交通環境において、交差点の直前まで側道に壁20及び21がある状況で自車両1が右折する場面を想定する。以下、右側通行の交通環境を例として説明するが、本発明は左側通行の交通環境においても適用できる。
自車両1が走行する車線と交差する交差車線を走行する車両2rは、左方から交差点に接近している。車両2rは、自車両1から見て壁20の死角に入っているため、レーダ装置11は車両2rを直接検出できない。車両2rは特許請求の範囲に記載の「第1物体」の一例である。
Next, the process of recognizing objects around the
As an example, assume a situation in which the
A
一方で、レーダ波が壁21で反射することにより、マルチパスによる反射点によって、車両2rのゴーストである物標2gがレーダ装置11によって検出されている。物標2gの検出位置は、特許請求の範囲に記載の「第1物体の検出位置」の一例である。
この場合に、上記特許文献1のように物標2gを消去すると、左方から交差点に接近する車両2rが存在しないと認識され、矢印23のように自車両1の右折を行う走行制御が行われるおそれがある。
On the other hand, as the radar waves are reflected by the
In this case, if the
このため、物体認識コントローラ12は、物標2gの検出位置と自車両1との間(すなわち物標2gの検出位置とレーダ装置11との間)に、第2物体が存在するか否かを判定する。図2の例では、物標2gの検出位置と自車両1との間に壁21が存在する。
物標2gの検出位置と自車両1との間に壁21が存在する場合に、物体認識コントローラ12は、ゴースト2gの検出位置と自車両1との間に存在する壁21の、自車両1に対向する面(すなわちレーダ装置11に対向する面)21pの位置と角度を算出する。
Therefore, the
When a
物体認識コントローラ12は、反射面21pを対称面としてゴースト2gの検出位置2gbを反転させた鏡像位置2rbに車両2rが存在すると認識する。
以上によって、物体認識コントローラ12は、レーダ装置11の死角にいる車両2rのゴースト2gを用いて車両2rの位置を検出することができる。これにより、レーダ装置11の死角にいる車両2rのゴースト2gが発生している場合に、車両2rを検出しそこなうのを防止できる。
The
As described above, the
次に図3を参照して、第1実施形態の車両制御装置10の機能構成の一例を詳述する。物体認識コントローラ12は、第1物体検出部30と、追跡部31と、物体情報蓄積部32と、処理対象選択部33と、反射面算出部34と、仮想物体算出部35と、物体情報選択部36を備える。
Next, with reference to FIG. 3, an example of the functional configuration of the
第1物体検出部30は、レーダ装置11が検出した自車両1の周囲の物体の検出位置を示すレーダ点群を受信する。第1物体検出部30は、レーダ点群に含まれる点を、互いの相対距離(近接度合)に応じてグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。グループ化の方法としては既知の様々な方法を採用できる。
The first
図4Aを参照する。この例では、自車両1の走行路の壁21の検出位置を表す点群21a、21b、21c、21d及び21eと、壁21におけるレーダ波の反射によって発生した、壁20の死角にいる車両2rのゴーストの点群24a、24b、24c及び24dが検出されている。第1物体検出部30は、点群21a~21eをグループ化して1つの物体として検出し、点群24a~24dをグループ化して1つの物体として検出する。
See FIG. 4A. In this example, a group of
第1物体検出部30は、個々の物体の点群を、物体の概略の外形を表す矩形にあてはめる、いわゆる矩形フィッティングを行う。矩形フィッティングの方法としては、点群を包含する対象の矩形を算出するなど、既知の様々な方法を採用できる。
図4Bを参照する。第1物体検出部30は、点群21a~21eを矩形フィッティングすることにより壁21を矩形物体として認識する。また、点群24a~24dを矩形フィッティングすることにより矩形の物体24を認識する。以下、物体24を「ゴースト物体」と表記することがある。
The first
See FIG. 4B. The first
図3を参照する。追跡部31は、第1物体検出部30が検出した物体の物体情報を取得し、異なる時刻に検出された物体を時系列で追跡(トラッキング)する。追跡部31は、異なる時刻間における物体の同一性の検証(対応付け)を行い、時系列で同一物体として判定された物体に同一の識別情報を付与する。
さらに追跡部31は、異なる時刻における同一物体の位置変化に基づいて物体の速度ベクトルを算出する。
See FIG. 3. The
Further, the
物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を、物体認識コントローラ12の記憶装置16に蓄積し、蓄積された物体情報を記憶装置16から読み出して、処理対象選択部33と物体情報選択部36に出力する。
処理対象選択部33は、ゴースト物体の真の位置を計算する計算処理の対象とする物体を、物体情報蓄積部32が蓄積した物体情報の中から選択する。
図4Bを参照する。以下の説明において、便宜上ゴースト物体の真の位置に仮想的に配置される物体25を「仮想物体」と表記する。また、ゴースト物体の真の位置(すなわち仮想物体25の配置位置)を計算する計算処理を「仮想物体の計算処理」と表記する。
The object
The processing
See FIG. 4B. In the following description, for convenience, the
いま、物体24の検出位置として、例えば物体24の前端中央の物体基準点24eを選択する。また、自車両1の位置(すなわちレーダ装置11の位置)を表す自車両基準点1bとして、例えばレーダ装置11の前端位置を選択する。
処理対象選択部33は、自車両基準点1bと物体基準点24eとの間に他の物体があるか否かを判定する。
For example, the
The processing
自車両基準点1bと物体基準点24eとの間に他の物体が存在する場合、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択する。図4Bの例では、自車両基準点1bと物体基準点24eとの間に壁21が存在する。このため、仮想物体の計算処理の処理対象として物体24が選択される。
一方で、自車両基準点1bと物体基準点24eとの間に他の物体が存在しない場合には、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択しない。
If another object exists between the host
On the other hand, if no other object exists between the own
反射面算出部34と仮想物体算出部35は、処理対象選択部33により選択された物体24を真の位置に配置した仮想物体25の位置を計算する計算処理を実行する。
反射面算出部34は、物体24がゴースト物体であると仮定した場合に、このゴーストを生じさせたマルチパスの反射点の位置と反射面の方向とを算出する。
以下、本実施形態では、物体の位置情報が水平面上の2次元位置情報である場合の例について説明するが、物体の位置情報が3次元位置情報である場合についても同様に、3次元的に配置される反射面上の反射点の位置と反射面の方向を算出できる。
反射面算出部34は、他の物体21を表す矩形の辺のうち、自車両基準点1bから物体基準点24eまで延びる物体ベクトルPgと最初に交差する交差辺21sを算出する。
The reflective
The reflective
In the following, in this embodiment, an example in which the position information of an object is two-dimensional position information on a horizontal plane will be described, but similarly, when the position information of an object is three-dimensional position information, three-dimensional The position of the reflective point on the reflective surface to be placed and the direction of the reflective surface can be calculated.
Among the sides of the rectangle representing the
反射面算出部34は、交差辺21sの長さLが閾値Lt以上であるか否かを判定する。交差辺21sの長さLが閾値Lt以上である場合、反射面算出部34は、物体24がゴースト物体であると判定し、物体ベクトルPgと交差辺21sとが交差する点をマルチパスの反射点として算出する。図4Bに示すベクトルPwは、自車両基準点1bから反射点まで延びる反射点ベクトルである。
また、反射面算出部34は、マルチパスの反射面の方向として交差辺21sの方向を算出する。図4Bに示すベクトルwは、交差辺21sの方向を示す壁方向ベクトルである。
The reflective
Further, the reflective
一方で、交差辺21sの長さLが閾値Lt未満である場合、反射面算出部34は、物体24がゴースト物体でないと判定し、反射点の位置及び反射面の方向を算出しない。この場合には、仮想物体25の位置を算出しない。
仮想物体算出部35は、物体ベクトルPgと、壁方向ベクトルwと、反射点ベクトルPwに基づいて仮想物体25の位置を算出する。具体的には、仮想物体算出部35は、マルチパスの反射面を対称面としてゴースト物体24の検出位置を反転させた鏡像位置を、仮想物体25の位置として算出する。
On the other hand, if the length L of the
The virtual
物体ベクトルPgと壁方向ベクトルwとのなす角をθとすると、自車両基準点1bから仮想物体25の位置25b(例えば仮想物体25の前端中央の位置)までの仮想物体ベクトルPvは、次式(1)により算出できる。
Pv=Pw+R(-2θ)(Pg-Pw) …(1)
If the angle between the object vector Pg and the wall direction vector w is θ, then the virtual object vector Pv from the own
Pv=Pw+R(-2θ)(Pg-Pw)...(1)
式(1)中のR(x)は次式(2)で与えられる回転行列である。
また、ゴースト物体24の速度ベクトルvgと壁方向ベクトルwとのなす角をαとすると、仮想物体25の速度ベクトルvvは、次式(3)によって算出できる。
vv=R(-2α)vg …(3)
仮想物体算出部35は、算出した仮想物体25の位置及び速度を、物体2rの位置及び速度と認識して、仮想物体25の物体情報として蓄積する。
Furthermore, if the angle between the velocity vector vg of the
vv=R(-2α)vg…(3)
The virtual
物体情報選択部36は、物体情報蓄積部32が蓄積した物体情報のうちゴースト物体以外の物体情報に、仮想物体算出部35が算出した仮想物体25の物体情報を追加して、走行制御部13に送信する。
走行制御部13は、物体情報選択部36から受信した物体情報に基づいて、自車両1の操舵機構の操舵方向若しくは操舵量、アクセル開度、又はブレーキ装置の制動力の少なくとも1つを制御する。
The object
The
例えば、走行制御部13は、物体情報選択部36から受信した物体情報に基づいて、自車両1の周囲の他の物体である他車両の走行軌道を予測する。走行制御部13は、自車両1の予定走行軌道が他車両の走行軌道と干渉する場合や、自車両と他車両との距離が所定距離未満に近づく場合には、自車両1が他車両を回避するようにアクチュエータ14を駆動し、自車両1の操舵機構の操舵方向若しくは操舵量、アクセル開度、又はブレーキ装置の制動力の少なくとも1つを制御する。
For example, the
(動作)
次に、図5を参照して第1実施形態の物体認識方法の一例を説明する。
ステップS1において第1物体検出部30は、自車両1の周囲の物体の検出位置を示すレーダ点群を受信する。第1物体検出部30は、レーダ点群に含まれる点をグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。
ステップS2において第1物体検出部30は、個々の物体の点群に対して矩形フィッティングを行うことにより、自車両1の周囲の物体を矩形物体として認識する。
(motion)
Next, an example of the object recognition method of the first embodiment will be described with reference to FIG.
In step S1, the first
In step S2, the first
ステップS3において追跡部31は、第1物体検出部30が検出した物体を時系列で追跡し、時系列で同一物体として判定された物体に同一の識別情報を付与する。追跡部31は、異なる時刻における同一物体の位置変化に基づいて物体の速度ベクトルを算出する。物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を記憶装置16に蓄積する。
In step S3, the
ステップS4において処理対象選択部33は、自車両の周囲で検出された複数の物体のいずれかを選択する。選択された物体を「注目物体」と表記する。処理対象選択部33は、注目物体の検出位置と自車両1との間に他の物体があるか否かを判定する。注目物体の検出位置と自車両1との間に他の物体がある場合(ステップS4:Y)に、処理対象選択部33は、仮想物体の計算処理の処理対象として注目物体を選択して、処理をステップS5に進める。
In step S4, the processing
注目物体の検出位置と自車両1との間に他の物体がない場合(ステップS4:N)に処理対象選択部33は、仮想物体の計算処理の対象として注目物体を選択せずに処理をステップS8へ進める。
ステップS5において反射面算出部34は、注目物体の検出位置と自車両1との間に存在する他の物体の矩形を形成する辺のうち、自車両から注目物体の検出位置まで延びる物体ベクトルPgと最初に交差する交差辺の長さLを算出する。反射面算出部34は、交差辺の長さLが閾値Lt以上であるか否かを判定する。
If there is no other object between the detected position of the object of interest and the host vehicle 1 (step S4: N), the processing
In step S5, the reflective
交差辺の長さLが閾値Lt以上である場合(ステップS5:Y)に処理はステップS6に進む。交差辺の長さLが閾値Lt以上でない場合(ステップS5:N)に処理対象選択部33は、仮想物体の計算処理の対象として注目物体を選択せずに処理をステップS8へ進める。
ステップS6において反射面算出部34は、ゴーストを生じさせたマルチパスの反射点の位置と反射面の方向を算出する。仮想物体算出部35は、注目物体に対して上式(1)~(3)に基づいて仮想物体25の位置及び速度を算出する。
ステップS7において仮想物体算出部35は、仮想物体25の位置及び速度を、ゴースト物体の実際の位置及び速度と認識して蓄積する。
If the length L of the intersecting side is equal to or greater than the threshold Lt (step S5: Y), the process proceeds to step S6. If the length L of the intersecting side is not greater than or equal to the threshold value Lt (step S5: N), the processing
In step S6, the reflective
In step S7, the virtual
ステップS8において処理対象選択部33は、追跡部31によって識別情報が付与された全ての物体について処理を行ったか否かを判定する。全ての物体について処理を行った場合(ステップS8:Y)に処理はステップS9に進む。未処理の物体が残っている場合(ステップS8:N)にステップS4に戻り、未処理の物体のうち何れかを注目物体として選択して同じ処理を繰り返す。
ステップS9において物体情報選択部36は、物体情報蓄積部32が蓄積した物体情報のうちゴースト物体以外の物体情報に、仮想物体算出部35が算出した仮想物体の物体情報を追加して、走行制御部13に送信する。
In step S8, the processing
In step S9, the object
(第1実施形態の効果)
(1)レーダ装置11は、自車両1の周囲へレーダ波を出射するとともにレーダ波の反射波を受信し、反射波の受信結果に基づいて自車両1の周囲の複数の物体をそれぞれ検出した各々の検出位置を取得する。
処理対象選択部33は、レーダ装置11が取得した検出位置に基づいて、自車両1の周囲の複数の物体のうちの第1物体の検出位置とレーダ装置11との間に第2物体が存在するか否かを判定し、第2物体が存在すると判定した場合に第1物体を仮想物体の計算処理の処理対象として選択する。
(Effects of the first embodiment)
(1) The
Based on the detection position acquired by the
処理対象選択部33が第1物体を処理対象として選択した場合に、反射面算出部34は、第2物体のレーダ装置11に対向する面である反射面の位置及び角度を検出する。仮想物体算出部35は、反射面を対称面として第1物体の検出位置を反転させた鏡像位置に第1物体が存在すると認識する。
これによって、レーダで検出した物体がマルチパスによって実際と異なる位置に検出された場合に、実際の位置を推定できる。例えば、レーダの死角にいる物体のゴーストを用いて物体の実際の位置を検出できる。これにより、レーダの死角にいる物体のゴーストが発生している場合に物体を検出しそこなうのを防止できる。
When the processing
Thereby, when an object detected by radar is detected at a different position than the actual position due to multipath, the actual position can be estimated. For example, a ghost of an object in the radar's blind spot can be used to detect the object's actual location. This can prevent failure to detect an object when a ghost of the object in the blind spot of the radar occurs.
(第2実施形態)
次に、第2実施形態を説明する。図6を参照する。第2実施形態の車両制御装置10は、レーダ装置11に加えて、レーダ以外の他のセンサも用いて自車両1の周囲の物体を検出する。例えば、車両制御装置10は、自車両1の周囲の物体を検出する他のセンサとして、レーザ測距装置40とカメラ41を備える。すなわち車両制御装置10は、自車両1の周囲の物体を検出する複数のセンサとして、レーダ装置11、レーザ測距装置40及びカメラ41を備える。
(Second embodiment)
Next, a second embodiment will be described. See FIG. 6. In addition to the
レーザ測距装置40は、例えばレーザレーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、レーザレンジファインダ(LRF:Laser Range-Finder)であり、自車両1の周囲にレーザ光を出射して、その反射波を受信することにより、反射点の自車両1に対する相対位置を検出したレーザ測距装置点群を、自車両1の周囲の物体の検出位置として取得する。
カメラ41は、自車両1の周囲を撮影して、自車両1の周囲の撮像画像を生成する。
The
The
第2実施形態の物体認識コントローラ12は、図3を参照して説明した第1実施形態の物体認識コントローラ12と同様の構成を有しており、同様の機能については重複説明を省略する。第2実施形態の物体認識コントローラ12は、第2物体検出部44と、画像認識部45と、統合部46を備える。
The
第2物体検出部44は、レーザ測距装置40が検出した自車両1の周囲の物体の検出位置を示すレーザ測距装置点群を受信する。第2物体検出部44は、レーザ測距装置点群に含まれる点を、互いの相対距離(近接度合)に応じてグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。グループ化の方法としては既知の様々な方法を採用できる。
第2物体検出部44は、個々の物体の点群を、物体の概略の外形を表す矩形にあてはめる、いわゆる矩形フィッティングを行う。矩形フィッティングの方法としては、点群を包含する対象の矩形を算出するなど、既知の様々な方法を採用できる。
The second
The second
画像認識部45は、カメラ41から得られる撮像画像に対して画像認識処理を実行し、撮像画像のどの位置に、どのような属性の物体が存在するかを認識する。
統合部46は、第1物体検出部30が検出した物体、第2物体検出部44が検出した物体及び画像認識部45が検出した物体の同一性を判断する。第1物体検出部30、第2物体検出部44及び画像認識部45が同一物体を検出している場合、統合部46は、第1物体検出部30、第2物体検出部44及び画像認識部45によってそれぞれ得られた同一物体の情報を統合する。
The
The
物体情報は、既知の様々なフュージョン処理により統合できる。例えば統合部46は、レーザ測距装置40の検出結果から得られる物体の位置及び姿勢の情報と、カメラ41による撮像画像から得られる物体の属性情報と、レーダ装置11の検出結果から得られる物体の速度情報とを組み合わせて、個々の物体の物体情報を生成する。
追跡部31は、統合部46により統合された物体情報に基づいて、検出した物体を時系列で追跡し、時系列で同一物体として判定された物体に同一の識別情報を付与する。また追跡部31は、物体の速度ベクトルを算出する。物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を記憶装置16に蓄積する。
Object information can be integrated by various known fusion processes. For example, the integrating
The
ここで、マルチパスによるゴーストは、カメラ41から得られる撮像画像や、レーザ測距装置40によるレーザ測距装置点群には発生しない。
このため、第2実施形態の処理対象選択部33は、物体情報蓄積部32によって蓄積された物体情報のうち、レーダ装置11にのみによって検出され、他のセンサ、すなわちカメラ41やレーザ測距装置40によって検出されなかった物体の中から、仮想物体の計算処理の処理対象を選択する。
Here, ghosts due to multipath do not occur in the captured image obtained from the
For this reason, the processing
さらに、処理対象選択部33は、物体情報蓄積部32によって物体情報が蓄積された物体の移動方向がゴースト物体の移動速度として尤もらしいか否かを判定し、物体の移動方向がゴースト物体の移動速度として尤もらしくない場合には、仮想物体の計算処理の処理対象として選択しない。
図7を参照する。処理対象選択部33は、物体24の検出位置の移動方向ベクトルvmと、物体24の検出位置が存在する走行車線26の進行方向を示す進行方向ベクトルvt1とのなす角度φ1を算出する。処理対象選択部33は、角度φ1が閾値φt1以上の場合に、物体24の移動方向が尤もらしいと判定し、角度φ1が閾値φt1未満の場合に、物体24の移動方向が尤もらしくないと判定する。
Further, the processing
See FIG. 7. The processing
図6を参照する。走行車線26の進行方向を取得するために、第2実施形態の車両制御装置10は、測位装置42と、地図データベース43を備える。図6において地図データベースを「地図DB」と表記する。
測位装置42は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置42は、例えば慣性航法装置であってもよい。測位装置42は、オドメトリにより自車両1の現在位置を測定してもよい。
See FIG. 6. In order to obtain the traveling direction of the
The
地図データベース43は、フラッシュメモリ等の記憶装置に格納され、自車両1の自己位置の推定に必要な道路形状や地物、ランドマーク等の物標の位置及び種類などの地図情報を記憶している。
地図データベース43として、例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な走行レーン(車線)単位の車線情報を含む。例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。
例えば、高精度地図は車線単位の情報として、車線基準線(例えば車線内の中央の線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報を含む。
The
The
For example, a high-precision map contains lane-by-lane information: lane node information that indicates the reference point on the lane reference line (for example, the center line within the lane), and lane link information that indicates the mode of the lane section between lane nodes. including.
車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、車線の種類、車線の走行方向、車線の幅員、車線区分線の種類、車線の形状、車線区分線の形状を含む。
高精度地図は更に、車線上又はその周辺に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の構造物の種類及び位置座標等の構造物情報を含む。
The information on the lane node includes the identification number of the lane node, the position coordinates, the number of connected lane links, and the identification number of the connected lane link. The lane link information includes the identification number of the lane link, the type of lane, the traveling direction of the lane, the width of the lane, the type of lane marking, the shape of the lane, and the shape of the lane marking.
The high-definition map further includes structure information such as types and position coordinates of structures such as traffic lights, stop lines, signs, buildings, utility poles, curbs, and crosswalks that exist on or around the lanes.
処理対象選択部33は、測位装置42による自車両1の現在位置の測定結果に基づいて、高精度地図にて使用される共通座標系上(例えば世界座標系や地図座標系)の物体24の検出位置を算出する。
処理対象選択部33は、地図データベース43を参照して共通座標系上の物体24の検出位置が、走行車線に存在するか否かを判定する。共通座標系上の物体24の検出位置が走行車線に存在する場合に、処理対象選択部33は、地図データベース43を参照して、物体24の検出位置が存在する走行車線に進行方向が設定されているか否かを判定する。進行方向が設定されている場合には、進行方向の情報を取得する。
The processing
The processing
処理対象選択部33は、共通座標系上の物体24の検出位置の変化に基づいて、共通座標系上の物体24の検出位置の移動方向を算出する。
物体24の移動方向と走行車線の進行方向とのなす角度φ1を算出する。処理対象選択部33は、角度φ1が閾値φt1以上の場合に物体24の移動方向が尤もらしいと判定し、角度φ1が閾値φt1未満の場合に物体24の移動方向が尤もらしくないと判定する。
The processing
An angle φ1 between the moving direction of the
物体24の移動方向が尤もらしい場合には、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択する。物体24の移動方向が尤もらしくない場合には、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択しない。
一方で、共通座標系上の物体24の検出位置が走行車線に存在しない場合には、処理対象選択部33は、物体24の移動方向が尤もらしいか否かを判定できない。この場合に処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択する。
If the moving direction of the
On the other hand, if the detected position of the
さらに、第2実施形態の物体認識コントローラ12は、仮想物体算出部35が算出した仮想物体の位置や移動方向が尤もらしいか否かを判断する。物体認識コントローラ12は、位置や移動方向が尤もらしい仮想物体の位置にのみ実際の物体が存在すると判断して、
当該仮想物体の物体情報のみを、ゴースト物体以外の物体情報に追加して走行制御部13に送信する。
このため第2実施形態の仮想物体算出部35は、仮想位置追加判定部47を備える。
Furthermore, the
Only the object information of the virtual object is added to the object information other than the ghost object and transmitted to the
For this reason, the virtual
図8A及び図8Bを参照する。参照符号24はゴースト物体を示し、参照符号25はゴースト物体24を真の位置に配置した仮想物体を示し、参照符号27は、レーダ装置11に加えて、他のセンサ(レーザ測距装置40やカメラ41)にも検出されている他の物体を示す。
仮想位置追加判定部47は、仮想物体25と他の物体27との間隔dを算出する。例えば仮想位置追加判定部47は、仮想物体25の前端中央の基準点25bと物体27の前端中央の基準点27bとの間隔dを算出してよい。
See FIGS. 8A and 8B.
The virtual position
図8Aに示すように仮想物体25と他の物体27との間隔dが非常に短く、仮想物体25の位置と他の物体27の位置とがほぼ一致している場合には、他の物体27のゴーストをゴースト物体24としても検出している可能性が高い。このような場合には、仮想物体25の物体情報を破棄することにより計算量を削減できる。
As shown in FIG. 8A, when the distance d between the
したがって、仮想位置追加判定部47は、図8Bに示すように仮想物体25と他の物体27との間隔dが十分に長く、仮想物体25の位置と他の物体27の位置とが異なる場合にのみ、仮想物体25の位置に実際の物体が存在すると判断する。例えば、仮想位置追加判定部47は、間隔dが閾値Dtより長いか否かを判断する。間隔dが閾値Dtより長い場合に、仮想物体25の位置に実際の物体が存在すると判断して、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。
Therefore, as shown in FIG. 8B, the virtual position
図9を参照する。参照符号24はゴースト物体を示し、参照符号25はゴースト物体24を真の位置に配置した仮想物体を示し、参照符号28は他の物体を示す。
ゴースト物体24は、他の物体28の死角にいる物体のゴーストであり、レーダ装置11は、この物体の真の位置を直接検出しておらず、レーザ測距装置40及びカメラ41はこの物体そのものを検出していない。
See FIG. 9.
The
いま、ゴースト物体24の検出位置は、自車両1の周囲の走行車線26a、26b、26c、26d、26e、26f、26g及び26hの何れにも存在していない。このため、処理対象選択部33は、図7を参照して説明した方法のように走行車線26a~26hの進行方向を用いて、ゴースト物体24の検出位置の移動方向が尤もらしいか否かを判定できない。
そこで、仮想位置追加判定部47は、仮想物体25の位置や移動方向が尤もらしいか否かを判定する。
Currently, the detected position of the
Therefore, the virtual position
具体的には、仮想位置追加判定部47は、測位装置42の自車両1の現在位置の測定結果に基づいて共通座標系上の仮想物体25の位置を算出する。
さらに仮想位置追加判定部47は、地図データベース43を参照して共通座標系上の仮想物体25の位置が、走行車線に存在するか否かを判定する。図9の例では、仮想物体25は、走行車線26aに存在する。
Specifically, the virtual position
Further, the virtual position
共通座標系上の仮想物体25の位置が走行車線に存在する場合に、仮想位置追加判定部47は、地図データベース43を参照して、仮想物体25の位置が存在する走行車線に進行方向が設定されているか否かを判定する。進行方向が設定されている場合には進行方向の情報を取得する。図9の例では、走行車線26aの進行方向を示す進行方向ベクトルvt2を取得する。
When the position of the
また、仮想位置追加判定部47は、共通座標系上の仮想物体25の位置変化に基づいて、共通座標系上の仮想物体25の移動方向を算出する。図9の例では、仮想物体25の移動方向ベクトルvmを算出する。仮想位置追加判定部47は、仮想物体25の移動方向と走行車線26aの進行方向とのなす角度φ2を算出する。
仮想位置追加判定部47は、角度φ2が閾値φt2以下の場合に仮想物体25の位置と移動方向が尤もらしいと判定する。この場合に、仮想位置追加判定部47は、仮想物体25の位置に実際の物体が存在すると判断して、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。
Further, the virtual position
The virtual position
また、仮想位置追加判定部47は、仮想物体25が存在する走行車線26aの進行方向が設定されていない場合には、仮想物体25の位置が尤もらしいと判定する。この場合に、仮想位置追加判定部47は、仮想物体25の位置に実際の物体が存在すると判断して、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。
Further, the virtual position
一方で、角度φ2が閾値φt2以上の場合には、仮想物体25の移動方向が尤もらしくないと判定する。この場合に仮想位置追加判定部47は、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可しない。
物体情報選択部36は、物体情報蓄積部32が蓄積した物体情報のうち、ゴースト物体として選択された物体以外の物体情報に、仮想位置追加判定部47によって許可された仮想物体25の物体情報のみを追加して、走行制御部13に送信する。
On the other hand, if the angle φ2 is greater than or equal to the threshold value φt2, it is determined that the moving direction of the
The object
(動作)
次に、図10~図13を参照して第2実施形態の物体認識方法の一例を説明する。
ステップS10及びS11の処理は、図5を参照して説明したステップS1及びS2の処理と同様である。
ステップS12において第2物体検出部44は、自車両1の周囲の物体の検出位置を示すレーザ測距装置点群を受信する。第2物体検出部44は、レーザ測距装置点群に含まれる点をグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。
ステップS13において第2物体検出部44は、レーザ測距装置点群から抽出された個々の物体の点群に対して矩形フィッティングを行うことにより、自車両1の周囲の物体を矩形物体として認識する。
(motion)
Next, an example of the object recognition method of the second embodiment will be described with reference to FIGS. 10 to 13.
The processing in steps S10 and S11 is similar to the processing in steps S1 and S2 described with reference to FIG.
In step S<b>12 , the second
In step S13, the second
ステップS14においてカメラ41から得られる撮像画像に対して画像認識処理を実行し、撮像画像のどの位置に、どのような属性の物体が存在するかを認識する。
なお、ステップS10及びS11の処理と、ステップS12及びS13の処理と、ステップS14の処理は並列に実行してもよく、所定の順序で直列に実行してもよい。
ステップS15において統合部46は、同一の物体について第1物体検出部30、第2物体検出部44及び画像認識部45によってそれぞれ得られた物体情報を統合する。
In step S14, image recognition processing is performed on the captured image obtained from the
Note that the processing in steps S10 and S11, the processing in steps S12 and S13, and the processing in step S14 may be executed in parallel, or may be executed in series in a predetermined order.
In step S15, the integrating
ステップS16において追跡部31は、統合部46により統合された物体情報に基づいて、検出した物体を時系列で追跡し、時系列で同一物体として判定された物体に同一の識別情報を付与する。追跡部31は、異なる時刻における同一物体の位置変化に基づいて物体の速度ベクトルを算出する。物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を記憶装置16に蓄積する。
In step S16, the
ステップS17において処理対象選択部33は、物体情報蓄積部32によって物体情報が蓄積された物体のいずれかを「注目物体」として選択して、処理対象選択処理を実行する。処理対象選択処理において処理対象選択部33は、注目物体を、仮想物体の計算処理の処理対象として選択するか否かを判定する。図11を参照して処理対象選択処理の一例を説明する。
In step S17, the processing
ステップS30において処理対象選択部33は、注目物体がレーダ装置11のみによって検出され、かつ他のセンサ(すなわちカメラ41やレーザ測距装置40)によって検出されなかったか否かを判定する。注目物体がレーダ装置11のみによって検出された場合(ステップS30:Y)に処理はステップS31に進む。
注目物体が他のセンサにも検出された場合(ステップS30:N)に処理対象選択部33は、注目物体を処理対象として選択せずに処理対象選択処理を終了する。その後に処理は図10のステップS20へ進む。
In step S30, the processing
If the object of interest is also detected by another sensor (step S30: N), the processing
ステップS31において処理対象選択部33は、注目物体の検出位置が走行車線内に存在するか否かを判定する。注目物体の検出位置が走行車線内に存在する場合(ステップS31:Y)に処理はステップS32に進む。注目物体の検出位置が走行車線内に存在しない場合(ステップS31:N)に処理はステップS35に進む。
In step S31, the processing
ステップS32において処理対象選択部33は、注目物体の検出位置が存在する走行車線に進行方向が設定されているか否かを判定する。走行車線に進行方向が設定されている場合(ステップS32:Y)に処理はステップS33に進む。走行車線に進行方向が設定されていない場合(ステップS32:N)に処理はステップS35に進む。
In step S32, the processing
ステップS33において処理対象選択部33は、注目物体の検出位置の移動方向と走行車線の進行方向とのなす角度φ1を算出する。
ステップS34において処理対象選択部33は、角度φ1が閾値φt1以上であるか否かを判定する。角度φ1が閾値φt1以上である場合(ステップS34:Y)に処理はステップS35に進む。角度φ1が閾値φt1以上でない場合(ステップS34:N)に処理対象選択部33は、注目物体を処理対象として選択せずに処理対象選択処理を終了する。その後に処理は図10のステップS20へ進む。
In step S33, the processing
In step S34, the processing
ステップS35において処理対象選択部33は、注目物体の検出位置と自車両1との間に他の物体があるか否かを判定する。注目物体の検出位置と自車両1との間に他の物体がある場合(ステップS35:Y)に処理対象選択部33は、注目物体を処理対象として選択して、処理対象選択処理を終了する。注目物体の検出位置と自車両1との間に他の物体がない場合(ステップS35:N)に処理対象選択部33は、注目物体を処理対象として選択せずに処理対象選択処理を終了する。その後に処理は図10のステップS20へ進む。なお、処理対象選択部33は、他の物体の情報を地図データベース43に含まれる道路上又は道路周辺の構造物情報から取得してよい。
In step S35, the processing
図10を参照する。ステップS18において反射面算出部34と仮想物体算出部35は、処理対象選択処理によって処理対象と選択された物体に対して、仮想物体を算出する反射面・仮想物体算出処理を実行する。図12を参照して反射面・仮想物体算出処理の一例を説明する。
ステップS40において反射面算出部34は、注目物体の検出位置と自車両1との間に存在する他の物体の矩形を形成する辺のうち、自車両から注目物体の検出位置まで延びる物体ベクトルPgと最初に交差する交差辺を算出する。
See FIG. 10. In step S18, the reflective
In step S40, the reflective
ステップS41において反射面算出部34は、交差辺の長さLが閾値Lt以上であるか否かを判定する。
交差辺の長さLが閾値Lt以上である場合(ステップS41:Y)に処理はステップS42に進む。交差辺の長さLが閾値Lt以上でない場合(ステップS41:N)に、仮想物体を算出せずに処理は図10のステップS20へ進む。
In step S41, the reflective
If the length L of the intersecting side is equal to or greater than the threshold Lt (step S41: Y), the process proceeds to step S42. If the length L of the intersecting side is not equal to or greater than the threshold Lt (step S41: N), the process proceeds to step S20 in FIG. 10 without calculating the virtual object.
ステップS42において反射面算出部34は、ゴーストを生じさせたマルチパスの反射点の位置と反射面の方向を算出する。仮想物体算出部35は、処理対象選択処理によって処理対象と選択された物体に対して上式(1)~(3)に基づいて仮想物体の位置及び速度を算出する。なお、反射面算出部34は、地図データベース43に含まれる道路上又は道路周辺の構造物情報に基づいて、マルチパスの反射面の位置及び角度の情報を取得してもよい。その後に、反射面・仮想物体算出処理が終了する。
In step S42, the reflective
図10を参照する。ステップS19において仮想位置追加判定部47は、仮想物体追加判定処理を実行する。仮想物体追加判定処理において仮想位置追加判定部47は、反射面・仮想物体算出処理で算出した仮想物体の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信するか否かを判定する。図13を参照して仮想物体追加判定処理の一例を説明する。
See FIG. 10. In step S19, the virtual position
ステップS50において仮想位置追加判定部47は、仮想物体から距離Dt以内に他の物体が検出されているか否かを判定する。他の物体が検出されている場合(ステップS50:Y)に仮想位置追加判定部47は、仮想物体の物体情報の追加を許可せずに仮想物体追加判定処理を終了する。その後に処理は図10のステップS20へ進む。他の物体が検出されていない場合(ステップS50:N)に処理はステップS51へ進む。
In step S50, the virtual position
ステップS51において仮想位置追加判定部47は、仮想物体が走行車線に存在するか否かを判定する。仮想物体が走行車線に存在する場合(ステップS51:Y)に処理はステップS52へ進む。仮想物体が走行車線に存在しない場合(ステップS51:N)に仮想位置追加判定部47は、仮想物体の物体情報の追加を許可せずに仮想物体追加判定処理を終了する。その後に処理は図10のステップS20へ進む。
In step S51, the virtual position
ステップS52において仮想位置追加判定部47は、仮想物体が存在する走行車線に進行方向が設定されているか否かを判定する。進行方向が設定されている場合(ステップS52:Y)に処理はステップS53へ進む。進行方向が設定されていない場合(ステップS52:N)に処理はステップS55へ進む。
ステップS53において仮想位置追加判定部47は、仮想物体の移動方向と走行車線の進行方向とのなす角度φ2を算出する。
In step S52, the virtual position
In step S53, the virtual position
ステップS54において仮想位置追加判定部47は、角度φ2が閾値φt2以下であるか否かを判定する。仮想位置追加判定部47は、角度φ2が閾値φt2以下である場合(ステップS54:Y)に処理はステップS55へ進む。角度φ2が閾値φt2以下でない場合(ステップS54:N)に仮想位置追加判定部47は、仮想物体の物体情報の追加を許可せずに仮想物体追加判定処理を終了する。その後に処理は図10のステップS20へ進む。
In step S54, the virtual position
ステップS55において仮想位置追加判定部47は、仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。仮想物体算出部35は、仮想物体25の位置及び速度を、ゴースト物体の実際の位置及び速度と認識して蓄積する。その後に仮想物体追加判定処理は終了する。
In step S55, the virtual position
図10を参照する。ステップS20において処理対象選択部33は、追跡部31によって識別情報が付与された全ての物体について処理を行ったか否かを判定する。全ての物体について処理を行った場合(ステップS20:Y)に処理はステップS21に進む。未処理の物体が残っている場合(ステップS20:N)にステップS17に戻り、未処理の物体のうち何れかを注目物体として選択して同じ処理を繰り返す。
ステップS21の処理は、図5を参照して説明したステップS9の処理と同様である。
See FIG. 10. In step S20, the processing
The process in step S21 is similar to the process in step S9 described with reference to FIG.
(第2実施形態の効果)
(1)測位装置42は、走行車線の位置及び進行方向の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定する。処理対象選択部33は、地図上の自車両1の位置に基づいて、自車両1の周囲の複数の物体のうちの第1物体の地図上の検出位置を算出してよい。処理対象選択部33は、地図上の第1物体の検出位置の変化に基づいて、地図上の第1物体の検出位置の移動方向を算出してよい。
(Effects of the second embodiment)
(1) The
処理対象選択部33は、第1物体の検出位置が存在する走行車線の進行方向と第1物体の検出位置の移動方向とのなす角が第1閾値以上である場合に、第1物体を仮想物体の計算処理の処理対象として選択してよい。
これにより、マルチパスによって実際と異なる位置に検出された可能性が高い物体を、仮想物体の計算処理の処理対象として選択できる。
これにより、
The processing
Thereby, an object that is likely to have been detected at a different position from the actual position due to multi-pass can be selected as a processing target for virtual object calculation processing.
This results in
(2)測位装置42は、走行車線の位置の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定してよい。処理対象選択部33は、地図上の自車両1の位置に基づいて、地図上の第1物体の検出位置を算出してよい。処理対象選択部33は、第1物体の検出位置が走行車線に存在しない場合に、第1物体を仮想物体の計算処理の処理対象として選択してよい。
これにより、マルチパスによって実際と異なる位置に検出された可能性が高い物体を、仮想物体の計算処理の処理対象として選択できる。
(2) The
Thereby, an object that is likely to have been detected at a different position from the actual position due to multi-pass can be selected as a processing target for virtual object calculation processing.
(3)レーダ以外の他のセンサ(レーザ測距装置40やカメラ41)を用いて自車両1の周囲の物体を検出してもよい。処理対象選択部33は、第1物体がレーダ装置に検出され、かつ第1物体が他のセンサに検出されない場合に第1物体を仮想物体の計算処理の処理対象として選択してよい。
これにより、レーダ波のマルチパスによって発生したゴースト物体を、仮想物体の計算処理の処理対象として選択できる。
(3) Objects around the
Thereby, a ghost object generated by multipath radar waves can be selected as a processing target for virtual object calculation processing.
(4)仮想位置追加判定部47は、仮想物体の位置として算出した第1物体の検出位置の鏡像位置が、他の物体の検出位置のいずれとも異なる場合に、鏡像位置に第1物体が存在すると認識してよい。
これにより、マルチパスによって同一物体の複数の像が検出されている場合に、ゴーストを削除して計算量を削減できる。
(4) If the mirror image position of the detected position of the first object calculated as the position of the virtual object is different from any of the detected positions of other objects, the virtual position
Thereby, when multiple images of the same object are detected by multipass, ghosts can be deleted and the amount of calculation can be reduced.
(5)測位装置42は、走行車線の位置の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定する。仮想位置追加判定部47は、地図上の自車両1の位置に基づいて、地図上の鏡像位置を算出してよい。仮想位置追加判定部47は、鏡像位置が走行車線内である場合に、鏡像位置に第1物体が存在すると認識してよい。
これにより、走行車線内にある第1物体のみを認識することができるので、計算量を削減できる。
(5) The
This allows only the first object within the travel lane to be recognized, thereby reducing the amount of calculation.
(6)測位装置42は、走行車線の位置及び進行方向の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定する。仮想位置追加判定部47は、地図上の自車両1の位置に基づいて、地図上の鏡像位置を算出してよい。仮想位置追加判定部47は、地図上の鏡像位置の位置変化に基づいて、鏡像位置の地図上の移動方向を算出してよい。仮想位置追加判定部47は、鏡像位置が存在する走行車線の進行方向と鏡像位置の移動方向とのなす角が第2閾値以下である場合に、鏡像位置に第1物体が存在すると認識してよい。これにより、尤もらしい位置に存在する第1物体を認識できる。
(6) The
(7)反射面算出部34は、地図データベース43に含まれる道路上又は道路周辺の構造物情報に基づいて、反射面の位置及び角度の情報を取得してよい。これにより、仮想物体の位置の算出精度を向上できる。
(7) The reflective
1…自車両、10…車両制御装置、11…レーダ装置、12…物体認識コントローラ、13…走行制御部、14…アクチュエータ、15…プロセッサ、16…記憶装置、30…第1物体検出部、31…追跡部、32…物体情報蓄積部、33…処理対象選択部、34…反射面算出部、35…仮想物体算出部、36…物体情報選択部、40…レーザ測距装置、41…カメラ、42…測位装置、43…地図データベース、44…第2物体検出部、45…画像認識部、46…統合部、47…仮想位置追加判定部
DESCRIPTION OF
Claims (8)
前記検出位置に基づいて、前記複数の物体のうちの第1物体の検出位置と前記レーダ装置との間に第2物体が存在するか否かを判定し、前記第2物体が存在すると判定した場合に前記第1物体を処理対象として選択し、
前記第1物体を前記処理対象として選択した場合に、前記第2物体の前記レーダ装置に対向する面である反射面の位置及び角度を検出し、
前記反射面を対称面として前記第1物体の検出位置を反転させた鏡像位置と、前記複数の物体のうちの前記第1物体以外の他の物体の検出位置と、の間の距離に基づいて前記鏡像位置と前記他の物体の検出位置とが異なるか否かを判定し、
前記鏡像位置が、前記複数の物体のうちの前記第1物体以外の前記他の物体の検出位置のいずれとも異なると判定した場合に、前記鏡像位置に前記第1物体が存在すると認識する、
ことを特徴とする物体認識方法。 Emitting radar waves from a radar device and receiving reflected waves of the radar waves, and obtaining detection positions of each of a plurality of surrounding objects detected based on the reception results of the reflected waves,
Based on the detected position, it is determined whether a second object exists between the detected position of the first object of the plurality of objects and the radar device, and it is determined that the second object exists. selecting the first object as a processing target in the case;
When the first object is selected as the processing target, detecting the position and angle of a reflective surface of the second object that is a surface facing the radar device,
Based on the distance between a mirror image position obtained by inverting the detection position of the first object using the reflective surface as a symmetry plane and a detection position of another object other than the first object among the plurality of objects. determining whether the mirror image position and the detected position of the other object are different;
recognizing that the first object is present at the mirror image position when it is determined that the mirror image position is different from any of the detected positions of the other objects other than the first object among the plurality of objects;
An object recognition method characterized by:
前記地図上の前記車両の位置に基づいて、前記地図上の前記第1物体の検出位置を算出し、
前記地図上の前記第1物体の検出位置の変化に基づいて、前記地図上の前記第1物体の検出位置の移動方向を算出し、
前記第1物体の検出位置が存在する走行車線の進行方向と前記第1物体の検出位置の移動方向とのなす角が第1閾値以上である場合に、前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1に記載の物体認識方法。 Measuring the position of the vehicle equipped with the radar device on a map having at least information on the position of the driving lane and the direction of travel;
calculating a detected position of the first object on the map based on the position of the vehicle on the map;
calculating a moving direction of the detected position of the first object on the map based on a change in the detected position of the first object on the map;
Selecting the first object as the processing target when the angle formed between the traveling direction of the driving lane in which the detected position of the first object exists and the moving direction of the detected position of the first object is greater than or equal to a first threshold value. do,
The object recognition method according to claim 1, characterized in that:
前記地図上の前記車両の位置に基づいて、前記地図上の前記第1物体の検出位置を算出し、
前記第1物体の検出位置が走行車線に存在しない場合に、前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1に記載の物体認識方法。 Measuring the position of the vehicle equipped with the radar device on a map having at least information on the position of the driving lane;
calculating a detected position of the first object on the map based on the position of the vehicle on the map;
selecting the first object as the processing target when the detected position of the first object is not in the driving lane;
The object recognition method according to claim 1, characterized in that:
前記第1物体が前記レーダ装置に検出され、かつ前記第1物体が前記他のセンサに検出されない場合に前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1~3のいずれか一項に記載の物体認識方法。 Detects surrounding objects using sensors other than radar,
selecting the first object as the processing target when the first object is detected by the radar device and the first object is not detected by the other sensor;
The object recognition method according to any one of claims 1 to 3, characterized in that:
前記地図上の前記車両の位置に基づいて、前記地図上の前記鏡像位置を算出し、
前記鏡像位置が走行車線内である場合に、前記鏡像位置に前記第1物体が存在すると認識することを特徴とする請求項1に記載の物体認識方法。 Measuring the position of the vehicle equipped with the radar device on a map having at least information on the position of the driving lane;
calculating the mirror image position on the map based on the position of the vehicle on the map;
2. The object recognition method according to claim 1, further comprising recognizing that the first object exists at the mirror image position when the mirror image position is within a driving lane.
前記地図上の前記車両の位置に基づいて、前記地図上の前記鏡像位置を算出し、
前記地図上の前記鏡像位置の位置変化に基づいて、前記鏡像位置の前記地図上の移動方向を算出し、
前記鏡像位置が存在する走行車線の進行方向と前記鏡像位置の移動方向とのなす角が第2閾値以下である場合に、前記鏡像位置に前記第1物体が存在すると認識する、
ことを特徴とする請求項1に記載の物体認識方法。 Measuring the position of the vehicle equipped with the radar device on a map having at least information on the position of the driving lane and the direction of travel;
calculating the mirror image position on the map based on the position of the vehicle on the map;
calculating a moving direction of the mirror image position on the map based on a change in the position of the mirror image position on the map;
Recognizing that the first object is present at the mirror image position when an angle formed between a traveling direction of a driving lane in which the mirror image position exists and a moving direction of the mirror image position is less than or equal to a second threshold;
The object recognition method according to claim 1, characterized in that:
前記検出位置に基づいて、前記複数の物体のうちの第1物体の検出位置と前記レーダ装置との間に第2物体が存在するか否かを判定し、前記第2物体が存在すると判定した場合に前記第1物体を処理対象として選択し、前記第1物体を前記処理対象として選択した場合に、前記第2物体の前記レーダ装置に対向する面である反射面の位置及び角度を検出し、前記反射面を対称面として前記第1物体の検出位置を反転させた鏡像位置と、前記複数の物体のうちの前記第1物体以外の他の物体の検出位置と、の間の距離に基づいて前記鏡像位置と前記他の物体の検出位置とが異なるか否かを判定し、前記鏡像位置が、前記複数の物体のうちの前記第1物体以外の前記他の物体の検出位置のいずれとも異なると判定した場合に、前記鏡像位置に前記第1物体が存在すると認識するコンピュータと、
を備えることを特徴とする物体認識装置。 a radar device that emits radar waves from the radar device, receives reflected waves of the radar waves, and acquires detection positions of each of a plurality of surrounding objects detected based on the reception results of the reflected waves;
Based on the detected position, it is determined whether a second object exists between the detected position of the first object of the plurality of objects and the radar device, and it is determined that the second object exists. In this case, the first object is selected as the processing target, and when the first object is selected as the processing target, the position and angle of a reflective surface of the second object that is a surface facing the radar device are detected. , based on the distance between a mirror image position obtained by inverting the detection position of the first object using the reflective surface as a symmetry plane and a detection position of another object other than the first object among the plurality of objects. to determine whether the mirror image position is different from the detected position of the other object, and the mirror image position is different from any of the detected positions of the other object other than the first object among the plurality of objects. a computer that recognizes that the first object exists at the mirror image position if it is determined that the first object is different ;
An object recognition device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019201640A JP7366695B2 (en) | 2019-11-06 | 2019-11-06 | Object recognition method and object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019201640A JP7366695B2 (en) | 2019-11-06 | 2019-11-06 | Object recognition method and object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021076422A JP2021076422A (en) | 2021-05-20 |
JP7366695B2 true JP7366695B2 (en) | 2023-10-23 |
Family
ID=75899531
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019201640A Active JP7366695B2 (en) | 2019-11-06 | 2019-11-06 | Object recognition method and object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7366695B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7472878B2 (en) * | 2021-08-31 | 2024-04-23 | 株式会社デンソー | Vehicle radar device |
JP2023043113A (en) * | 2021-09-15 | 2023-03-28 | 三菱重工業株式会社 | Design method of object and design method of vehicle driving test device |
JPWO2023067692A1 (en) * | 2021-10-19 | 2023-04-27 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005128603A (en) | 2003-10-21 | 2005-05-19 | Alpine Electronics Inc | Object recognition device and method |
JP2006047057A (en) | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device |
JP2015230566A (en) | 2014-06-04 | 2015-12-21 | トヨタ自動車株式会社 | Driving support device |
WO2018230344A1 (en) | 2017-06-15 | 2018-12-20 | ヴィオニア スウェーデン エービー | Driving assistance device, driving assistance method, and computer program |
JP2019057197A (en) | 2017-09-22 | 2019-04-11 | 株式会社Subaru | Moving object recognition device |
-
2019
- 2019-11-06 JP JP2019201640A patent/JP7366695B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005128603A (en) | 2003-10-21 | 2005-05-19 | Alpine Electronics Inc | Object recognition device and method |
JP2006047057A (en) | 2004-08-03 | 2006-02-16 | Fuji Heavy Ind Ltd | Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device |
JP2015230566A (en) | 2014-06-04 | 2015-12-21 | トヨタ自動車株式会社 | Driving support device |
WO2018230344A1 (en) | 2017-06-15 | 2018-12-20 | ヴィオニア スウェーデン エービー | Driving assistance device, driving assistance method, and computer program |
JP2019057197A (en) | 2017-09-22 | 2019-04-11 | 株式会社Subaru | Moving object recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP2021076422A (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9495602B2 (en) | Image and map-based detection of vehicles at intersections | |
JP7366695B2 (en) | Object recognition method and object recognition device | |
RU2720140C1 (en) | Method for self-position estimation and self-position estimation device | |
US10325163B2 (en) | Vehicle vision | |
JP7349561B2 (en) | Map information correction method, driving support method, and map information correction device | |
JP6930394B2 (en) | Object recognition device | |
WO2020145053A1 (en) | Travel lane estimation device, travel lane estimation method, control program, and computer-readable non-transitory recording medium | |
CN110567465B (en) | System and method for locating a vehicle using accuracy specifications | |
JP6038422B1 (en) | Vehicle determination device, vehicle determination method, and vehicle determination program | |
US11780436B2 (en) | On-board sensor system | |
EP3260878B1 (en) | Moving object detection device, program, and recording medium | |
JP7334795B2 (en) | Vehicle control method and vehicle control device | |
JP2014203235A (en) | Driving control apparatus | |
JP6740470B2 (en) | Measuring device, measuring method and program | |
US20230384441A1 (en) | Estimating three-dimensional target heading using a single snapshot | |
JP7043765B2 (en) | Vehicle driving control method and equipment | |
JP7321035B2 (en) | OBJECT POSITION DETECTION METHOD AND OBJECT POSITION DETECTION DEVICE | |
US11487293B2 (en) | Map-information obstacle-tracking system and method | |
US20230384442A1 (en) | Estimating target heading using a single snapshot | |
JP2023118759A (en) | Measuring device, measuring method and program | |
US20230065727A1 (en) | Vehicle and vehicle control method | |
US20150294465A1 (en) | Vehicle position estimation system | |
WO2018212286A1 (en) | Measurement device, measurement method and program | |
GB2406948A (en) | Target detection apparatus for a vehicle | |
JP7401273B2 (en) | Mobile body control device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7366695 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |