JP7366695B2 - Object recognition method and object recognition device - Google Patents

Object recognition method and object recognition device Download PDF

Info

Publication number
JP7366695B2
JP7366695B2 JP2019201640A JP2019201640A JP7366695B2 JP 7366695 B2 JP7366695 B2 JP 7366695B2 JP 2019201640 A JP2019201640 A JP 2019201640A JP 2019201640 A JP2019201640 A JP 2019201640A JP 7366695 B2 JP7366695 B2 JP 7366695B2
Authority
JP
Japan
Prior art keywords
detected
map
mirror image
vehicle
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019201640A
Other languages
Japanese (ja)
Other versions
JP2021076422A (en
Inventor
朋子 黒飛
邦昭 野田
尭史 池上
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019201640A priority Critical patent/JP7366695B2/en
Publication of JP2021076422A publication Critical patent/JP2021076422A/en
Application granted granted Critical
Publication of JP7366695B2 publication Critical patent/JP7366695B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、物体認識方法及び物体認識装置に関する。 The present invention relates to an object recognition method and an object recognition device.

特許文献1には、車両に搭載されてターゲットとの相対距離を検出するミリ波レーダ車間距離センサが記載されている。このミリ波レーダ車間距離センサは、検出した静止物のターゲットからゴーストを判定する基準として基本ラインを算出し、検出したターゲットが基本ラインの内側にあるか外側にあるかを判定し、外側にあるターゲットを消去する。 Patent Document 1 describes a millimeter wave radar inter-vehicle distance sensor that is mounted on a vehicle and detects a relative distance to a target. This millimeter-wave radar inter-vehicle distance sensor calculates a basic line as a standard for determining ghosts from detected stationary targets, determines whether the detected target is inside or outside the basic line, and determines whether the detected target is inside or outside the basic line. Erase the target.

特開2001-116839号公報Japanese Patent Application Publication No. 2001-116839

上記特許文献1に記載のミリ波レーダ車間距離センサは、レーダ波のマルチパス(多重波伝播)によって実際には存在しない物標(いわゆる「ゴースト」)が発生した場合にゴーストを消去する。このようにゴーストを消去すると、実際に存在している物体を検出しそこなう可能性がある。例えばレーダの死角にいる物体を検出できなくなる。
本発明は、レーダで検出した物体が、マルチパスによって実際と異なる位置に検出された場合に、実際の位置を推定することを目的とする。
The millimeter wave radar inter-vehicle distance sensor described in Patent Document 1 eliminates a ghost when a target object (so-called "ghost") that does not actually exist occurs due to multipath (multiple wave propagation) of radar waves. Eliminating ghosts in this way may result in failure to detect objects that actually exist. For example, objects in the radar's blind spot cannot be detected.
An object of the present invention is to estimate the actual position of an object detected by radar when the object is detected at a different position than the actual position due to multipath.

本発明の一態様に係る物体認識方法では、レーダ装置からレーダ波を出射するとともにレーダ波の反射波を受信し、反射波の受信結果に基づいて周囲の複数の物体をそれぞれ検出した各々の検出位置を取得し、検出位置に基づいて、複数の物体のうちの第1物体nお検出位置とレーダ装置との間に第2物体が存在するか否かを判定し、第2物体が存在すると判定した場合に第1物体を処理対象として選択し、第1物体を処理対象として選択した場合に、第2物体のレーダ装置に対向する面である反射面の位置及び角度を検出し、反射面を対称面として第1物体の検出位置を反転させた鏡像位置に第1物体が存在すると認識する。 In an object recognition method according to one aspect of the present invention, a radar device emits radar waves and receives reflected waves of the radar waves, and a plurality of surrounding objects are respectively detected based on the reception results of the reflected waves. The position is acquired, and based on the detected position, it is determined whether or not a second object exists between the first object n of the plurality of objects and the detected position and the radar device, and if the second object is present, If the determination is made, the first object is selected as the processing target, and when the first object is selected as the processing target, the position and angle of the reflective surface of the second object, which is the surface facing the radar device, are detected, and the reflective surface is It is recognized that the first object exists at a mirror image position obtained by inverting the detected position of the first object using the plane of symmetry as the plane of symmetry.

本発明によれば、レーダで検出した物体が、マルチパスによって実際と異なる位置に検出された場合に、実際の位置を推定できる。 According to the present invention, when an object detected by radar is detected at a different position than the actual position due to multipath, the actual position can be estimated.

第1実施形態の車両制御装置の概略構成例を示す図である。1 is a diagram showing an example of a schematic configuration of a vehicle control device according to a first embodiment; FIG. 第1実施形態の物体認識方法の概略説明図である。1 is a schematic explanatory diagram of an object recognition method according to a first embodiment; FIG. 第1実施形態の車両制御装置の機能構成例のブロック図である。1 is a block diagram of an example of a functional configuration of a vehicle control device according to a first embodiment; FIG. 自車両の周囲の物体のゴーストの検出位置の一例を示す図である。FIG. 3 is a diagram showing an example of detection positions of ghosts of objects around the host vehicle. 仮想物体の位置の算出方法の一例の説明図である。FIG. 3 is an explanatory diagram of an example of a method for calculating the position of a virtual object. 第1実施形態の物体認識方法の一例のフローチャートである。It is a flowchart of an example of the object recognition method of 1st Embodiment. 第2実施形態の車両制御装置の機能構成例のブロック図である。FIG. 2 is a block diagram of an example of a functional configuration of a vehicle control device according to a second embodiment. 処理対象選択処理の一例の説明図である。FIG. 3 is an explanatory diagram of an example of processing target selection processing. 仮想物体追加判定処理の第1例の説明図である。FIG. 6 is an explanatory diagram of a first example of virtual object addition determination processing. 仮想物体追加判定処理の第1例の説明図である。FIG. 6 is an explanatory diagram of a first example of virtual object addition determination processing. 仮想物体追加判定処理の第2例の説明図である。FIG. 7 is an explanatory diagram of a second example of virtual object addition determination processing. 第2実施形態の物体認識方法の一例のフローチャートである。It is a flowchart of an example of the object recognition method of 2nd Embodiment. 処理対象選択処理の一例のフローチャートである。3 is a flowchart of an example of processing target selection processing. 反射面・仮想物体算出処理の一例のフローチャートである。12 is a flowchart of an example of reflective surface/virtual object calculation processing. 仮想物体追加判定処理の一例のフローチャートである。12 is a flowchart of an example of virtual object addition determination processing.

以下、図面を参照して、本発明の実施形態を説明する。図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。各図面は模式的なものであり、現実のものとは異なる場合が含まれる。以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、下記の実施形態に例示した装置や方法に特定するものでない。本発明の技術的思想は、特許請求の範囲に記載された技術的範囲内において、種々の変更を加えることができる。 Embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, the same or similar parts are given the same or similar symbols, and overlapping explanations are omitted. Each drawing is schematic and may differ from the actual drawing. The embodiments shown below illustrate devices and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is specific to the devices and methods illustrated in the embodiments below. It's not something you do. The technical idea of the present invention can be modified in various ways within the technical scope described in the claims.

(第1実施形態)
(構成)
自車両1は、実施形態に係る車両制御装置10を搭載する。車両制御装置10は、自車両1の周囲の物体をレーダによって認識し、自車両1の周囲の物体の有無に基づいて自車両の走行を制御する。車両制御装置10は、特許請求の範囲に記載の「物体認識装置」の一例である。
車両制御装置10は、レーダ装置11と、物体認識コントローラ12と、走行制御部13と、アクチュエータ14を備える。
(First embodiment)
(composition)
The host vehicle 1 is equipped with a vehicle control device 10 according to the embodiment. The vehicle control device 10 recognizes objects around the own vehicle 1 using radar, and controls the running of the own vehicle based on the presence or absence of objects around the own vehicle 1. The vehicle control device 10 is an example of an "object recognition device" described in the claims.
The vehicle control device 10 includes a radar device 11 , an object recognition controller 12 , a travel control section 13 , and an actuator 14 .

レーダ装置11は、例えばミリ波レーダであり、レーダ波を自車両1の周囲に出射し、その反射波を受信することにより、レーダ波の反射点の自車両1に対する相対位置を検出したレーダ点群を、自車両1の周囲の物体の検出位置として取得する。レーダ装置11は、取得したレーダ点群を示す点群情報を物体認識コントローラ12に出力する。 The radar device 11 is, for example, a millimeter wave radar, and is a radar point that detects the relative position of the reflection point of the radar wave with respect to the own vehicle 1 by emitting radar waves around the own vehicle 1 and receiving the reflected waves. The group is acquired as the detected position of objects around the own vehicle 1. The radar device 11 outputs point cloud information indicating the acquired radar point cloud to the object recognition controller 12.

物体認識コントローラ12は、レーダ装置11から得られたレーダ点群に基づいて自車両1の周囲の物体を認識する電子制御ユニット(Electronic Control Unit)である。物体認識コントローラ12は、プロセッサ15とその周辺部品とを含む。プロセッサ15は、例えばCPU(Central Processing Unit)、やMPU(Micro-Processing Unit)であってよい。 The object recognition controller 12 is an electronic control unit that recognizes objects around the host vehicle 1 based on a radar point group obtained from the radar device 11. Object recognition controller 12 includes a processor 15 and its peripheral components. The processor 15 may be, for example, a CPU (Central Processing Unit) or an MPU (Micro-Processing Unit).

周辺部品には記憶装置16等が含まれる。記憶装置16は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶装置16は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
以下に説明する物体認識コントローラ12の機能は、例えばプロセッサ15が、記憶装置16に格納されたコンピュータプログラムを実行することにより実現される。
Peripheral components include the storage device 16 and the like. The storage device 16 may include a semiconductor storage device, a magnetic storage device, or an optical storage device. The storage device 16 may include memories such as a register, a cache memory, a ROM (Read Only Memory) used as a main storage device, and a RAM (Random Access Memory).
The functions of the object recognition controller 12 described below are realized, for example, by the processor 15 executing a computer program stored in the storage device 16.

なお、物体認識コントローラ12を、以下に説明する各情報処理を実行するための専用のハードウエアにより形成してもよい。
例えば、物体認識コントローラ12は、汎用の半導体集積回路中に設定される機能的な論理回路を備えてもよい。例えば物体認識コントローラ12は、フィールド・プログラマブル・ゲート・アレイ(FPGA:Field-Programmable Gate Array)等のプログラマブル・ロジック・デバイス(PLD:Programmable Logic Device)等を有していてよい。
Note that the object recognition controller 12 may be formed of dedicated hardware for executing each information process described below.
For example, the object recognition controller 12 may include a functional logic circuit set in a general-purpose semiconductor integrated circuit. For example, the object recognition controller 12 may include a programmable logic device (PLD) such as a field-programmable gate array (FPGA).

走行制御部13は、自車両1の走行を制御するコントローラである。走行制御部13は、物体認識コントローラ12による自車両1の周囲の物体の認識結果に基づいてアクチュエータ14を駆動し、自車両1の操舵制御、加速制御、または減速制御の少なくとも1つを実行する。
例えば走行制御部13は、プロセッサとその周辺部品とを含む。プロセッサは、例えばCPUやMPUであってよい。周辺部品には記憶装置が含まれる。記憶装置は、レジスタ、キャッシュメモリ、ROM、RAMなどのメモリや、半導体記憶装置、磁気記憶装置、光学記憶装置を含んでよい。走行制御部13が専用のハードウエアであってもよい。
The travel control unit 13 is a controller that controls the travel of the host vehicle 1 . The travel control unit 13 drives the actuator 14 based on the recognition result of objects around the host vehicle 1 by the object recognition controller 12, and executes at least one of steering control, acceleration control, or deceleration control of the host vehicle 1. .
For example, the travel control unit 13 includes a processor and its peripheral components. The processor may be, for example, a CPU or an MPU. Peripheral components include storage devices. The storage device may include memory such as a register, cache memory, ROM, or RAM, a semiconductor storage device, a magnetic storage device, or an optical storage device. The travel control unit 13 may be dedicated hardware.

アクチュエータ14は、走行制御部13からの制御信号に応じて、自車両1の操舵機構、アクセル開度及びブレーキ装置を操作して、自車両1の車両挙動を発生させる。アクチュエータ14は、ステアリングアクチュエータと、アクセル開度アクチュエータと、ブレーキ制御アクチュエータを備える。ステアリングアクチュエータは、自車両1の操舵機構の操舵方向及び操舵量を制御する。アクセル開度アクチュエータは、自車両1のアクセル開度を制御する。ブレーキ制御アクチュエータは、自車両1のブレーキ装置の制動動作を制御する。 The actuator 14 operates the steering mechanism, accelerator opening, and brake device of the host vehicle 1 in response to a control signal from the travel control unit 13 to generate the vehicle behavior of the host vehicle 1 . The actuator 14 includes a steering actuator, an accelerator opening actuator, and a brake control actuator. The steering actuator controls the steering direction and amount of steering of the steering mechanism of the own vehicle 1. The accelerator opening actuator controls the accelerator opening of the host vehicle 1 . The brake control actuator controls the braking operation of the brake device of the own vehicle 1.

次に、図2を参照して物体認識コントローラ12による自車両1の周囲の物体の認識処理について説明する。
例として右側通行の交通環境において、交差点の直前まで側道に壁20及び21がある状況で自車両1が右折する場面を想定する。以下、右側通行の交通環境を例として説明するが、本発明は左側通行の交通環境においても適用できる。
自車両1が走行する車線と交差する交差車線を走行する車両2rは、左方から交差点に接近している。車両2rは、自車両1から見て壁20の死角に入っているため、レーダ装置11は車両2rを直接検出できない。車両2rは特許請求の範囲に記載の「第1物体」の一例である。
Next, the process of recognizing objects around the vehicle 1 by the object recognition controller 12 will be described with reference to FIG.
As an example, assume a situation in which the host vehicle 1 turns right in a right-hand traffic environment and there are walls 20 and 21 on the side road until just before an intersection. In the following, a traffic environment where traffic is on the right will be explained as an example, but the present invention can also be applied to a traffic environment where traffic is on the left.
A vehicle 2r traveling in a cross lane that intersects the lane in which the host vehicle 1 is traveling approaches the intersection from the left. Since the vehicle 2r is in the blind spot of the wall 20 when viewed from the host vehicle 1, the radar device 11 cannot directly detect the vehicle 2r. The vehicle 2r is an example of a "first object" described in the claims.

一方で、レーダ波が壁21で反射することにより、マルチパスによる反射点によって、車両2rのゴーストである物標2gがレーダ装置11によって検出されている。物標2gの検出位置は、特許請求の範囲に記載の「第1物体の検出位置」の一例である。
この場合に、上記特許文献1のように物標2gを消去すると、左方から交差点に接近する車両2rが存在しないと認識され、矢印23のように自車両1の右折を行う走行制御が行われるおそれがある。
On the other hand, as the radar waves are reflected by the wall 21, the target object 2g, which is a ghost of the vehicle 2r, is detected by the radar device 11 at the reflection point due to multipath. The detected position of the target object 2g is an example of the "detected position of the first object" described in the claims.
In this case, if the target object 2g is deleted as in Patent Document 1, it is recognized that the vehicle 2r approaching the intersection from the left does not exist, and the driving control for the own vehicle 1 to turn right as shown by the arrow 23 is performed. There is a risk of being exposed.

このため、物体認識コントローラ12は、物標2gの検出位置と自車両1との間(すなわち物標2gの検出位置とレーダ装置11との間)に、第2物体が存在するか否かを判定する。図2の例では、物標2gの検出位置と自車両1との間に壁21が存在する。
物標2gの検出位置と自車両1との間に壁21が存在する場合に、物体認識コントローラ12は、ゴースト2gの検出位置と自車両1との間に存在する壁21の、自車両1に対向する面(すなわちレーダ装置11に対向する面)21pの位置と角度を算出する。
Therefore, the object recognition controller 12 determines whether a second object exists between the detected position of the target 2g and the own vehicle 1 (that is, between the detected position of the target 2g and the radar device 11). judge. In the example of FIG. 2, a wall 21 exists between the detected position of the target object 2g and the own vehicle 1.
When a wall 21 exists between the detection position of the target 2g and the host vehicle 1, the object recognition controller 12 detects the wall 21 between the detection position of the ghost 2g and the host vehicle 1. The position and angle of the surface 21p facing the radar device 11 (that is, the surface facing the radar device 11) are calculated.

物体認識コントローラ12は、反射面21pを対称面としてゴースト2gの検出位置2gbを反転させた鏡像位置2rbに車両2rが存在すると認識する。
以上によって、物体認識コントローラ12は、レーダ装置11の死角にいる車両2rのゴースト2gを用いて車両2rの位置を検出することができる。これにより、レーダ装置11の死角にいる車両2rのゴースト2gが発生している場合に、車両2rを検出しそこなうのを防止できる。
The object recognition controller 12 recognizes that the vehicle 2r exists at a mirror image position 2rb obtained by inverting the detection position 2gb of the ghost 2g using the reflective surface 21p as a plane of symmetry.
As described above, the object recognition controller 12 can detect the position of the vehicle 2r using the ghost 2g of the vehicle 2r located in the blind spot of the radar device 11. Thereby, when the ghost 2g of the vehicle 2r in the blind spot of the radar device 11 occurs, failure to detect the vehicle 2r can be prevented.

次に図3を参照して、第1実施形態の車両制御装置10の機能構成の一例を詳述する。物体認識コントローラ12は、第1物体検出部30と、追跡部31と、物体情報蓄積部32と、処理対象選択部33と、反射面算出部34と、仮想物体算出部35と、物体情報選択部36を備える。 Next, with reference to FIG. 3, an example of the functional configuration of the vehicle control device 10 of the first embodiment will be described in detail. The object recognition controller 12 includes a first object detection section 30, a tracking section 31, an object information storage section 32, a processing target selection section 33, a reflective surface calculation section 34, a virtual object calculation section 35, and an object information selection section. A section 36 is provided.

第1物体検出部30は、レーダ装置11が検出した自車両1の周囲の物体の検出位置を示すレーダ点群を受信する。第1物体検出部30は、レーダ点群に含まれる点を、互いの相対距離(近接度合)に応じてグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。グループ化の方法としては既知の様々な方法を採用できる。 The first object detection unit 30 receives a radar point group indicating the detection position of an object around the host vehicle 1 detected by the radar device 11. The first object detection unit 30 extracts individual objects by grouping (clustering) points included in the radar point cloud according to their relative distances (proximity), and extracts individual objects from the points included in the radar point cloud. A set is constructed as object information for each object. Various known methods can be used for grouping.

図4Aを参照する。この例では、自車両1の走行路の壁21の検出位置を表す点群21a、21b、21c、21d及び21eと、壁21におけるレーダ波の反射によって発生した、壁20の死角にいる車両2rのゴーストの点群24a、24b、24c及び24dが検出されている。第1物体検出部30は、点群21a~21eをグループ化して1つの物体として検出し、点群24a~24dをグループ化して1つの物体として検出する。 See FIG. 4A. In this example, a group of points 21a, 21b, 21c, 21d, and 21e representing the detected position of the wall 21 of the own vehicle 1, and a vehicle 2r in the blind spot of the wall 20, which is generated by reflection of radar waves on the wall 21, are shown. Ghost point groups 24a, 24b, 24c, and 24d are detected. The first object detection unit 30 groups the point groups 21a to 21e and detects them as one object, and groups the point groups 24a to 24d to detect them as one object.

第1物体検出部30は、個々の物体の点群を、物体の概略の外形を表す矩形にあてはめる、いわゆる矩形フィッティングを行う。矩形フィッティングの方法としては、点群を包含する対象の矩形を算出するなど、既知の様々な方法を採用できる。
図4Bを参照する。第1物体検出部30は、点群21a~21eを矩形フィッティングすることにより壁21を矩形物体として認識する。また、点群24a~24dを矩形フィッティングすることにより矩形の物体24を認識する。以下、物体24を「ゴースト物体」と表記することがある。
The first object detection unit 30 performs so-called rectangle fitting, which fits a group of points of each object to a rectangle representing the approximate outline of the object. Various known methods can be used for rectangle fitting, such as calculating a target rectangle that includes a point group.
See FIG. 4B. The first object detection unit 30 recognizes the wall 21 as a rectangular object by rectangular fitting the point group 21a to 21e. Furthermore, a rectangular object 24 is recognized by rectangular fitting the point group 24a to 24d. Hereinafter, the object 24 may be referred to as a "ghost object".

図3を参照する。追跡部31は、第1物体検出部30が検出した物体の物体情報を取得し、異なる時刻に検出された物体を時系列で追跡(トラッキング)する。追跡部31は、異なる時刻間における物体の同一性の検証(対応付け)を行い、時系列で同一物体として判定された物体に同一の識別情報を付与する。
さらに追跡部31は、異なる時刻における同一物体の位置変化に基づいて物体の速度ベクトルを算出する。
See FIG. 3. The tracking unit 31 acquires object information of the object detected by the first object detection unit 30, and tracks objects detected at different times in time series. The tracking unit 31 verifies (corresponds to) the identity of objects at different times, and assigns the same identification information to objects that are determined to be the same object in time series.
Further, the tracking unit 31 calculates the velocity vector of the object based on changes in the position of the same object at different times.

物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を、物体認識コントローラ12の記憶装置16に蓄積し、蓄積された物体情報を記憶装置16から読み出して、処理対象選択部33と物体情報選択部36に出力する。
処理対象選択部33は、ゴースト物体の真の位置を計算する計算処理の対象とする物体を、物体情報蓄積部32が蓄積した物体情報の中から選択する。
図4Bを参照する。以下の説明において、便宜上ゴースト物体の真の位置に仮想的に配置される物体25を「仮想物体」と表記する。また、ゴースト物体の真の位置(すなわち仮想物体25の配置位置)を計算する計算処理を「仮想物体の計算処理」と表記する。
The object information storage section 32 stores object information to which identification information has been added by the tracking section 31 in the storage device 16 of the object recognition controller 12, reads out the stored object information from the storage device 16, and sends the object information to the processing target selection section. 33 and is output to the object information selection section 36.
The processing target selection unit 33 selects an object to be subjected to calculation processing for calculating the true position of the ghost object from among the object information accumulated by the object information accumulation unit 32.
See FIG. 4B. In the following description, for convenience, the object 25 that is virtually placed at the true position of the ghost object will be referred to as a "virtual object." Further, the calculation process for calculating the true position of the ghost object (that is, the arrangement position of the virtual object 25) will be referred to as "virtual object calculation process."

いま、物体24の検出位置として、例えば物体24の前端中央の物体基準点24eを選択する。また、自車両1の位置(すなわちレーダ装置11の位置)を表す自車両基準点1bとして、例えばレーダ装置11の前端位置を選択する。
処理対象選択部33は、自車両基準点1bと物体基準点24eとの間に他の物体があるか否かを判定する。
For example, the object reference point 24e at the center of the front end of the object 24 is selected as the detection position of the object 24. Furthermore, for example, the front end position of the radar device 11 is selected as the own vehicle reference point 1b representing the position of the own vehicle 1 (that is, the position of the radar device 11).
The processing target selection unit 33 determines whether there is another object between the own vehicle reference point 1b and the object reference point 24e.

自車両基準点1bと物体基準点24eとの間に他の物体が存在する場合、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択する。図4Bの例では、自車両基準点1bと物体基準点24eとの間に壁21が存在する。このため、仮想物体の計算処理の処理対象として物体24が選択される。
一方で、自車両基準点1bと物体基準点24eとの間に他の物体が存在しない場合には、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択しない。
If another object exists between the host vehicle reference point 1b and the object reference point 24e, the processing target selection unit 33 selects the object 24 as the processing target for the virtual object calculation process. In the example of FIG. 4B, a wall 21 exists between the host vehicle reference point 1b and the object reference point 24e. Therefore, the object 24 is selected as the processing target for the virtual object calculation process.
On the other hand, if no other object exists between the own vehicle reference point 1b and the object reference point 24e, the processing target selection unit 33 does not select the object 24 as the processing target for the virtual object calculation process.

反射面算出部34と仮想物体算出部35は、処理対象選択部33により選択された物体24を真の位置に配置した仮想物体25の位置を計算する計算処理を実行する。
反射面算出部34は、物体24がゴースト物体であると仮定した場合に、このゴーストを生じさせたマルチパスの反射点の位置と反射面の方向とを算出する。
以下、本実施形態では、物体の位置情報が水平面上の2次元位置情報である場合の例について説明するが、物体の位置情報が3次元位置情報である場合についても同様に、3次元的に配置される反射面上の反射点の位置と反射面の方向を算出できる。
反射面算出部34は、他の物体21を表す矩形の辺のうち、自車両基準点1bから物体基準点24eまで延びる物体ベクトルPgと最初に交差する交差辺21sを算出する。
The reflective surface calculation unit 34 and the virtual object calculation unit 35 execute calculation processing to calculate the position of the virtual object 25, which is the object 24 selected by the processing target selection unit 33 placed at the true position.
The reflective surface calculation unit 34 calculates the position of the multipath reflection point that caused the ghost and the direction of the reflective surface, assuming that the object 24 is a ghost object.
In the following, in this embodiment, an example in which the position information of an object is two-dimensional position information on a horizontal plane will be described, but similarly, when the position information of an object is three-dimensional position information, three-dimensional The position of the reflective point on the reflective surface to be placed and the direction of the reflective surface can be calculated.
Among the sides of the rectangle representing the other object 21, the reflective surface calculation unit 34 calculates the intersecting side 21s that first intersects the object vector Pg extending from the own vehicle reference point 1b to the object reference point 24e.

反射面算出部34は、交差辺21sの長さLが閾値Lt以上であるか否かを判定する。交差辺21sの長さLが閾値Lt以上である場合、反射面算出部34は、物体24がゴースト物体であると判定し、物体ベクトルPgと交差辺21sとが交差する点をマルチパスの反射点として算出する。図4Bに示すベクトルPwは、自車両基準点1bから反射点まで延びる反射点ベクトルである。
また、反射面算出部34は、マルチパスの反射面の方向として交差辺21sの方向を算出する。図4Bに示すベクトルwは、交差辺21sの方向を示す壁方向ベクトルである。
The reflective surface calculation unit 34 determines whether the length L of the intersecting side 21s is greater than or equal to the threshold Lt. When the length L of the intersecting side 21s is equal to or greater than the threshold value Lt, the reflective surface calculation unit 34 determines that the object 24 is a ghost object, and uses the multipath reflection at the point where the object vector Pg and the intersecting side 21s intersect. Calculate as points. A vector Pw shown in FIG. 4B is a reflection point vector extending from the host vehicle reference point 1b to the reflection point.
Further, the reflective surface calculation unit 34 calculates the direction of the intersecting side 21s as the direction of the multipath reflective surface. A vector w shown in FIG. 4B is a wall direction vector indicating the direction of the intersecting side 21s.

一方で、交差辺21sの長さLが閾値Lt未満である場合、反射面算出部34は、物体24がゴースト物体でないと判定し、反射点の位置及び反射面の方向を算出しない。この場合には、仮想物体25の位置を算出しない。
仮想物体算出部35は、物体ベクトルPgと、壁方向ベクトルwと、反射点ベクトルPwに基づいて仮想物体25の位置を算出する。具体的には、仮想物体算出部35は、マルチパスの反射面を対称面としてゴースト物体24の検出位置を反転させた鏡像位置を、仮想物体25の位置として算出する。
On the other hand, if the length L of the intersecting side 21s is less than the threshold Lt, the reflective surface calculation unit 34 determines that the object 24 is not a ghost object, and does not calculate the position of the reflective point and the direction of the reflective surface. In this case, the position of the virtual object 25 is not calculated.
The virtual object calculation unit 35 calculates the position of the virtual object 25 based on the object vector Pg, the wall direction vector w, and the reflection point vector Pw. Specifically, the virtual object calculating unit 35 calculates, as the position of the virtual object 25, a mirror image position obtained by inverting the detected position of the ghost object 24 using the multipath reflection surface as the plane of symmetry.

物体ベクトルPgと壁方向ベクトルwとのなす角をθとすると、自車両基準点1bから仮想物体25の位置25b(例えば仮想物体25の前端中央の位置)までの仮想物体ベクトルPvは、次式(1)により算出できる。
Pv=Pw+R(-2θ)(Pg-Pw) …(1)
If the angle between the object vector Pg and the wall direction vector w is θ, then the virtual object vector Pv from the own vehicle reference point 1b to the position 25b of the virtual object 25 (for example, the position of the center of the front end of the virtual object 25) is calculated by the following formula. It can be calculated using (1).
Pv=Pw+R(-2θ)(Pg-Pw)...(1)

式(1)中のR(x)は次式(2)で与えられる回転行列である。

Figure 0007366695000001
R(x) in equation (1) is a rotation matrix given by equation (2) below.
Figure 0007366695000001

また、ゴースト物体24の速度ベクトルvgと壁方向ベクトルwとのなす角をαとすると、仮想物体25の速度ベクトルvvは、次式(3)によって算出できる。
vv=R(-2α)vg …(3)
仮想物体算出部35は、算出した仮想物体25の位置及び速度を、物体2rの位置及び速度と認識して、仮想物体25の物体情報として蓄積する。
Furthermore, if the angle between the velocity vector vg of the ghost object 24 and the wall direction vector w is α, then the velocity vector vv of the virtual object 25 can be calculated by the following equation (3).
vv=R(-2α)vg…(3)
The virtual object calculation unit 35 recognizes the calculated position and speed of the virtual object 25 as the position and speed of the object 2r, and stores the calculated position and speed of the virtual object 25 as object information of the virtual object 25.

物体情報選択部36は、物体情報蓄積部32が蓄積した物体情報のうちゴースト物体以外の物体情報に、仮想物体算出部35が算出した仮想物体25の物体情報を追加して、走行制御部13に送信する。
走行制御部13は、物体情報選択部36から受信した物体情報に基づいて、自車両1の操舵機構の操舵方向若しくは操舵量、アクセル開度、又はブレーキ装置の制動力の少なくとも1つを制御する。
The object information selection unit 36 adds the object information of the virtual object 25 calculated by the virtual object calculation unit 35 to the object information other than the ghost object among the object information accumulated by the object information storage unit 32, and selects the object information from the travel control unit 13. Send to.
The travel control unit 13 controls at least one of the steering direction or amount of the steering mechanism of the host vehicle 1, the accelerator opening, or the braking force of the brake device, based on the object information received from the object information selection unit 36. .

例えば、走行制御部13は、物体情報選択部36から受信した物体情報に基づいて、自車両1の周囲の他の物体である他車両の走行軌道を予測する。走行制御部13は、自車両1の予定走行軌道が他車両の走行軌道と干渉する場合や、自車両と他車両との距離が所定距離未満に近づく場合には、自車両1が他車両を回避するようにアクチュエータ14を駆動し、自車両1の操舵機構の操舵方向若しくは操舵量、アクセル開度、又はブレーキ装置の制動力の少なくとも1つを制御する。 For example, the travel control unit 13 predicts the travel trajectory of another vehicle, which is another object around the host vehicle 1, based on the object information received from the object information selection unit 36. The travel control unit 13 causes the own vehicle 1 to follow the other vehicle when the planned traveling trajectory of the own vehicle 1 interferes with the traveling trajectory of another vehicle or when the distance between the own vehicle and the other vehicle approaches less than a predetermined distance. The actuator 14 is driven to avoid this, and at least one of the steering direction or amount of the steering mechanism of the host vehicle 1, the accelerator opening, or the braking force of the brake device is controlled.

(動作)
次に、図5を参照して第1実施形態の物体認識方法の一例を説明する。
ステップS1において第1物体検出部30は、自車両1の周囲の物体の検出位置を示すレーダ点群を受信する。第1物体検出部30は、レーダ点群に含まれる点をグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。
ステップS2において第1物体検出部30は、個々の物体の点群に対して矩形フィッティングを行うことにより、自車両1の周囲の物体を矩形物体として認識する。
(motion)
Next, an example of the object recognition method of the first embodiment will be described with reference to FIG.
In step S1, the first object detection unit 30 receives a radar point group indicating the detected positions of objects around the own vehicle 1. The first object detection unit 30 groups (clusters) points included in the radar point cloud to extract individual objects, and configures a set of point clouds indicating the extracted objects as object information for each object.
In step S2, the first object detection unit 30 performs rectangle fitting on the point group of each object, thereby recognizing objects around the own vehicle 1 as rectangular objects.

ステップS3において追跡部31は、第1物体検出部30が検出した物体を時系列で追跡し、時系列で同一物体として判定された物体に同一の識別情報を付与する。追跡部31は、異なる時刻における同一物体の位置変化に基づいて物体の速度ベクトルを算出する。物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を記憶装置16に蓄積する。 In step S3, the tracking unit 31 tracks the objects detected by the first object detection unit 30 in time series, and gives the same identification information to objects determined to be the same object in the time series. The tracking unit 31 calculates the velocity vector of the object based on changes in the position of the same object at different times. The object information storage section 32 stores object information to which identification information has been added by the tracking section 31 in the storage device 16 .

ステップS4において処理対象選択部33は、自車両の周囲で検出された複数の物体のいずれかを選択する。選択された物体を「注目物体」と表記する。処理対象選択部33は、注目物体の検出位置と自車両1との間に他の物体があるか否かを判定する。注目物体の検出位置と自車両1との間に他の物体がある場合(ステップS4:Y)に、処理対象選択部33は、仮想物体の計算処理の処理対象として注目物体を選択して、処理をステップS5に進める。 In step S4, the processing target selection unit 33 selects one of the plurality of objects detected around the host vehicle. The selected object is referred to as a "object of interest." The processing target selection unit 33 determines whether there is another object between the detected position of the object of interest and the own vehicle 1. If there is another object between the detected position of the object of interest and the host vehicle 1 (step S4: Y), the processing target selection unit 33 selects the object of interest as the processing target of the virtual object calculation process, The process advances to step S5.

注目物体の検出位置と自車両1との間に他の物体がない場合(ステップS4:N)に処理対象選択部33は、仮想物体の計算処理の対象として注目物体を選択せずに処理をステップS8へ進める。
ステップS5において反射面算出部34は、注目物体の検出位置と自車両1との間に存在する他の物体の矩形を形成する辺のうち、自車両から注目物体の検出位置まで延びる物体ベクトルPgと最初に交差する交差辺の長さLを算出する。反射面算出部34は、交差辺の長さLが閾値Lt以上であるか否かを判定する。
If there is no other object between the detected position of the object of interest and the host vehicle 1 (step S4: N), the processing target selection unit 33 performs the processing without selecting the object of interest as a target of the virtual object calculation process. Proceed to step S8.
In step S5, the reflective surface calculation unit 34 calculates an object vector Pg extending from the own vehicle to the detected position of the object of interest, among the sides forming a rectangle of another object existing between the detected position of the object of interest and the own vehicle 1. The length L of the first intersecting side is calculated. The reflective surface calculation unit 34 determines whether the length L of the intersecting side is greater than or equal to the threshold Lt.

交差辺の長さLが閾値Lt以上である場合(ステップS5:Y)に処理はステップS6に進む。交差辺の長さLが閾値Lt以上でない場合(ステップS5:N)に処理対象選択部33は、仮想物体の計算処理の対象として注目物体を選択せずに処理をステップS8へ進める。
ステップS6において反射面算出部34は、ゴーストを生じさせたマルチパスの反射点の位置と反射面の方向を算出する。仮想物体算出部35は、注目物体に対して上式(1)~(3)に基づいて仮想物体25の位置及び速度を算出する。
ステップS7において仮想物体算出部35は、仮想物体25の位置及び速度を、ゴースト物体の実際の位置及び速度と認識して蓄積する。
If the length L of the intersecting side is equal to or greater than the threshold Lt (step S5: Y), the process proceeds to step S6. If the length L of the intersecting side is not greater than or equal to the threshold value Lt (step S5: N), the processing target selection unit 33 advances the process to step S8 without selecting the object of interest as a target of the virtual object calculation process.
In step S6, the reflective surface calculation unit 34 calculates the position of the multipath reflection point that caused the ghost and the direction of the reflective surface. The virtual object calculation unit 35 calculates the position and velocity of the virtual object 25 for the object of interest based on the above equations (1) to (3).
In step S7, the virtual object calculation unit 35 recognizes the position and velocity of the virtual object 25 as the actual position and velocity of the ghost object and stores them.

ステップS8において処理対象選択部33は、追跡部31によって識別情報が付与された全ての物体について処理を行ったか否かを判定する。全ての物体について処理を行った場合(ステップS8:Y)に処理はステップS9に進む。未処理の物体が残っている場合(ステップS8:N)にステップS4に戻り、未処理の物体のうち何れかを注目物体として選択して同じ処理を繰り返す。
ステップS9において物体情報選択部36は、物体情報蓄積部32が蓄積した物体情報のうちゴースト物体以外の物体情報に、仮想物体算出部35が算出した仮想物体の物体情報を追加して、走行制御部13に送信する。
In step S8, the processing target selection unit 33 determines whether all objects to which identification information has been assigned by the tracking unit 31 have been processed. If all objects have been processed (step S8: Y), the process proceeds to step S9. If unprocessed objects remain (step S8: N), the process returns to step S4, selects any of the unprocessed objects as the object of interest, and repeats the same process.
In step S9, the object information selection unit 36 adds the object information of the virtual object calculated by the virtual object calculation unit 35 to the object information other than the ghost object among the object information accumulated by the object information storage unit 32, and controls the driving. 13.

(第1実施形態の効果)
(1)レーダ装置11は、自車両1の周囲へレーダ波を出射するとともにレーダ波の反射波を受信し、反射波の受信結果に基づいて自車両1の周囲の複数の物体をそれぞれ検出した各々の検出位置を取得する。
処理対象選択部33は、レーダ装置11が取得した検出位置に基づいて、自車両1の周囲の複数の物体のうちの第1物体の検出位置とレーダ装置11との間に第2物体が存在するか否かを判定し、第2物体が存在すると判定した場合に第1物体を仮想物体の計算処理の処理対象として選択する。
(Effects of the first embodiment)
(1) The radar device 11 emits radar waves around the host vehicle 1 and receives reflected waves of the radar waves, and detects a plurality of objects around the host vehicle 1 based on the reception results of the reflected waves. Obtain each detected position.
Based on the detection position acquired by the radar device 11, the processing target selection unit 33 determines whether a second object exists between the detection position of the first object among the plurality of objects around the own vehicle 1 and the radar device 11. If it is determined that the second object exists, the first object is selected as a processing target for the virtual object calculation process.

処理対象選択部33が第1物体を処理対象として選択した場合に、反射面算出部34は、第2物体のレーダ装置11に対向する面である反射面の位置及び角度を検出する。仮想物体算出部35は、反射面を対称面として第1物体の検出位置を反転させた鏡像位置に第1物体が存在すると認識する。
これによって、レーダで検出した物体がマルチパスによって実際と異なる位置に検出された場合に、実際の位置を推定できる。例えば、レーダの死角にいる物体のゴーストを用いて物体の実際の位置を検出できる。これにより、レーダの死角にいる物体のゴーストが発生している場合に物体を検出しそこなうのを防止できる。
When the processing target selection unit 33 selects the first object as the processing target, the reflective surface calculation unit 34 detects the position and angle of the reflective surface of the second object, which is the surface facing the radar device 11. The virtual object calculation unit 35 recognizes that the first object exists at a mirror image position obtained by inverting the detected position of the first object using the reflective surface as the plane of symmetry.
Thereby, when an object detected by radar is detected at a different position than the actual position due to multipath, the actual position can be estimated. For example, a ghost of an object in the radar's blind spot can be used to detect the object's actual location. This can prevent failure to detect an object when a ghost of the object in the blind spot of the radar occurs.

(第2実施形態)
次に、第2実施形態を説明する。図6を参照する。第2実施形態の車両制御装置10は、レーダ装置11に加えて、レーダ以外の他のセンサも用いて自車両1の周囲の物体を検出する。例えば、車両制御装置10は、自車両1の周囲の物体を検出する他のセンサとして、レーザ測距装置40とカメラ41を備える。すなわち車両制御装置10は、自車両1の周囲の物体を検出する複数のセンサとして、レーダ装置11、レーザ測距装置40及びカメラ41を備える。
(Second embodiment)
Next, a second embodiment will be described. See FIG. 6. In addition to the radar device 11, the vehicle control device 10 of the second embodiment detects objects around the own vehicle 1 using sensors other than the radar. For example, the vehicle control device 10 includes a laser ranging device 40 and a camera 41 as other sensors for detecting objects around the own vehicle 1. That is, the vehicle control device 10 includes a radar device 11, a laser distance measuring device 40, and a camera 41 as a plurality of sensors that detect objects around the own vehicle 1.

レーザ測距装置40は、例えばレーザレーダ、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、レーザレンジファインダ(LRF:Laser Range-Finder)であり、自車両1の周囲にレーザ光を出射して、その反射波を受信することにより、反射点の自車両1に対する相対位置を検出したレーザ測距装置点群を、自車両1の周囲の物体の検出位置として取得する。
カメラ41は、自車両1の周囲を撮影して、自車両1の周囲の撮像画像を生成する。
The laser ranging device 40 is, for example, a laser radar, a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), or a laser range finder (LRF), and emits a laser beam around the vehicle 1. By receiving the reflected waves, a laser range finder point group that detects the relative position of the reflection point with respect to the own vehicle 1 is obtained as the detected position of objects around the own vehicle 1.
The camera 41 photographs the surroundings of the own vehicle 1 and generates a captured image of the surroundings of the own vehicle 1.

第2実施形態の物体認識コントローラ12は、図3を参照して説明した第1実施形態の物体認識コントローラ12と同様の構成を有しており、同様の機能については重複説明を省略する。第2実施形態の物体認識コントローラ12は、第2物体検出部44と、画像認識部45と、統合部46を備える。 The object recognition controller 12 of the second embodiment has the same configuration as the object recognition controller 12 of the first embodiment described with reference to FIG. 3, and redundant explanation of similar functions will be omitted. The object recognition controller 12 of the second embodiment includes a second object detection section 44, an image recognition section 45, and an integration section 46.

第2物体検出部44は、レーザ測距装置40が検出した自車両1の周囲の物体の検出位置を示すレーザ測距装置点群を受信する。第2物体検出部44は、レーザ測距装置点群に含まれる点を、互いの相対距離(近接度合)に応じてグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。グループ化の方法としては既知の様々な方法を採用できる。
第2物体検出部44は、個々の物体の点群を、物体の概略の外形を表す矩形にあてはめる、いわゆる矩形フィッティングを行う。矩形フィッティングの方法としては、点群を包含する対象の矩形を算出するなど、既知の様々な方法を採用できる。
The second object detection unit 44 receives a laser range finder point group indicating the detection position of an object around the own vehicle 1 detected by the laser range finder 40 . The second object detection unit 44 extracts individual objects by grouping (clustering) the points included in the laser range finder point group according to their relative distances (degree of proximity) to each other, and indicates the extracted objects. A set of point groups is constructed as object information for each object. Various known methods can be used for grouping.
The second object detection unit 44 performs so-called rectangle fitting, which fits the point group of each object to a rectangle representing the approximate outline of the object. Various known methods can be used for rectangle fitting, such as calculating a target rectangle that includes a point group.

画像認識部45は、カメラ41から得られる撮像画像に対して画像認識処理を実行し、撮像画像のどの位置に、どのような属性の物体が存在するかを認識する。
統合部46は、第1物体検出部30が検出した物体、第2物体検出部44が検出した物体及び画像認識部45が検出した物体の同一性を判断する。第1物体検出部30、第2物体検出部44及び画像認識部45が同一物体を検出している場合、統合部46は、第1物体検出部30、第2物体検出部44及び画像認識部45によってそれぞれ得られた同一物体の情報を統合する。
The image recognition unit 45 performs image recognition processing on the captured image obtained from the camera 41, and recognizes which position and attribute of an object exists in the captured image.
The integration unit 46 determines the identity of the object detected by the first object detection unit 30, the object detected by the second object detection unit 44, and the object detected by the image recognition unit 45. When the first object detection section 30, the second object detection section 44, and the image recognition section 45 detect the same object, the integration section 46 detects the first object detection section 30, the second object detection section 44, and the image recognition section The information on the same object obtained through 45 is integrated.

物体情報は、既知の様々なフュージョン処理により統合できる。例えば統合部46は、レーザ測距装置40の検出結果から得られる物体の位置及び姿勢の情報と、カメラ41による撮像画像から得られる物体の属性情報と、レーダ装置11の検出結果から得られる物体の速度情報とを組み合わせて、個々の物体の物体情報を生成する。
追跡部31は、統合部46により統合された物体情報に基づいて、検出した物体を時系列で追跡し、時系列で同一物体として判定された物体に同一の識別情報を付与する。また追跡部31は、物体の速度ベクトルを算出する。物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を記憶装置16に蓄積する。
Object information can be integrated by various known fusion processes. For example, the integrating unit 46 uses information on the position and orientation of the object obtained from the detection results of the laser ranging device 40, attribute information of the object obtained from the image captured by the camera 41, and object information obtained from the detection results of the radar device 11. The object information of each object is generated by combining the speed information of the object and the speed information of the object.
The tracking unit 31 tracks the detected objects in time series based on the object information integrated by the integration unit 46, and assigns the same identification information to objects determined to be the same object in the time series. The tracking unit 31 also calculates the velocity vector of the object. The object information storage section 32 stores object information to which identification information has been added by the tracking section 31 in the storage device 16 .

ここで、マルチパスによるゴーストは、カメラ41から得られる撮像画像や、レーザ測距装置40によるレーザ測距装置点群には発生しない。
このため、第2実施形態の処理対象選択部33は、物体情報蓄積部32によって蓄積された物体情報のうち、レーダ装置11にのみによって検出され、他のセンサ、すなわちカメラ41やレーザ測距装置40によって検出されなかった物体の中から、仮想物体の計算処理の処理対象を選択する。
Here, ghosts due to multipath do not occur in the captured image obtained from the camera 41 or in the laser range finder point group formed by the laser range finder 40.
For this reason, the processing target selection section 33 of the second embodiment is configured to detect objects detected only by the radar device 11 out of the object information accumulated by the object information accumulation section 32, and to select objects that are detected only by the radar device 11 and other sensors, such as the camera 41 and the laser distance measuring device. 40, a target for virtual object calculation processing is selected from among the objects not detected by step 40.

さらに、処理対象選択部33は、物体情報蓄積部32によって物体情報が蓄積された物体の移動方向がゴースト物体の移動速度として尤もらしいか否かを判定し、物体の移動方向がゴースト物体の移動速度として尤もらしくない場合には、仮想物体の計算処理の処理対象として選択しない。
図7を参照する。処理対象選択部33は、物体24の検出位置の移動方向ベクトルvmと、物体24の検出位置が存在する走行車線26の進行方向を示す進行方向ベクトルvt1とのなす角度φ1を算出する。処理対象選択部33は、角度φ1が閾値φt1以上の場合に、物体24の移動方向が尤もらしいと判定し、角度φ1が閾値φt1未満の場合に、物体24の移動方向が尤もらしくないと判定する。
Further, the processing target selection unit 33 determines whether the moving direction of the object for which object information has been accumulated by the object information storage unit 32 is plausible as the moving speed of the ghost object, and determines whether the moving direction of the object is likely to be the moving speed of the ghost object. If the speed is not plausible, it is not selected as a processing target for virtual object calculation processing.
See FIG. 7. The processing target selection unit 33 calculates an angle φ1 between the moving direction vector vm of the detected position of the object 24 and the traveling direction vector vt1 indicating the traveling direction of the driving lane 26 in which the detected position of the object 24 exists. The processing target selection unit 33 determines that the moving direction of the object 24 is plausible when the angle φ1 is greater than or equal to the threshold value φt1, and determines that the moving direction of the object 24 is unlikely when the angle φ1 is less than the threshold value φt1. do.

図6を参照する。走行車線26の進行方向を取得するために、第2実施形態の車両制御装置10は、測位装置42と、地図データベース43を備える。図6において地図データベースを「地図DB」と表記する。
測位装置42は、全地球型測位システム(GNSS)受信機を備え、複数の航法衛星から電波を受信して自車両1の現在位置を測定する。GNSS受信機は、例えば地球測位システム(GPS)受信機等であってよい。測位装置42は、例えば慣性航法装置であってもよい。測位装置42は、オドメトリにより自車両1の現在位置を測定してもよい。
See FIG. 6. In order to obtain the traveling direction of the driving lane 26, the vehicle control device 10 of the second embodiment includes a positioning device 42 and a map database 43. In FIG. 6, the map database is expressed as "map DB."
The positioning device 42 includes a global positioning system (GNSS) receiver, and measures the current position of the own vehicle 1 by receiving radio waves from a plurality of navigation satellites. The GNSS receiver may be, for example, a Global Positioning System (GPS) receiver. The positioning device 42 may be, for example, an inertial navigation device. The positioning device 42 may measure the current position of the host vehicle 1 by odometry.

地図データベース43は、フラッシュメモリ等の記憶装置に格納され、自車両1の自己位置の推定に必要な道路形状や地物、ランドマーク等の物標の位置及び種類などの地図情報を記憶している。
地図データベース43として、例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という。)よりも高精度の地図データであり、道路単位の情報よりも詳細な走行レーン(車線)単位の車線情報を含む。例えば、自律走行用の地図として好適な高精度地図データ(以下、単に「高精度地図」という。)を記憶してよい。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。
例えば、高精度地図は車線単位の情報として、車線基準線(例えば車線内の中央の線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報を含む。
The map database 43 is stored in a storage device such as a flash memory, and stores map information such as road shapes, terrestrial features, and positions and types of targets such as landmarks that are necessary for estimating the position of the vehicle 1. There is.
The map database 43 may store, for example, high-precision map data (hereinafter simply referred to as "high-precision map") suitable as a map for autonomous driving. High-precision maps are map data with higher precision than map data for navigation (hereinafter simply referred to as "navigation maps"), and include lane information for each driving lane (lane) that is more detailed than information for each road. . For example, high-precision map data (hereinafter simply referred to as "high-precision map") suitable as a map for autonomous driving may be stored. The high-precision map is map data with higher precision than navigation map data (hereinafter simply referred to as "navigation map"), and includes information on a lane-by-lane basis that is more detailed than information on a road-by-road basis.
For example, a high-precision map contains lane-by-lane information: lane node information that indicates the reference point on the lane reference line (for example, the center line within the lane), and lane link information that indicates the mode of the lane section between lane nodes. including.

車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、車線の種類、車線の走行方向、車線の幅員、車線区分線の種類、車線の形状、車線区分線の形状を含む。
高精度地図は更に、車線上又はその周辺に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の構造物の種類及び位置座標等の構造物情報を含む。
The information on the lane node includes the identification number of the lane node, the position coordinates, the number of connected lane links, and the identification number of the connected lane link. The lane link information includes the identification number of the lane link, the type of lane, the traveling direction of the lane, the width of the lane, the type of lane marking, the shape of the lane, and the shape of the lane marking.
The high-definition map further includes structure information such as types and position coordinates of structures such as traffic lights, stop lines, signs, buildings, utility poles, curbs, and crosswalks that exist on or around the lanes.

処理対象選択部33は、測位装置42による自車両1の現在位置の測定結果に基づいて、高精度地図にて使用される共通座標系上(例えば世界座標系や地図座標系)の物体24の検出位置を算出する。
処理対象選択部33は、地図データベース43を参照して共通座標系上の物体24の検出位置が、走行車線に存在するか否かを判定する。共通座標系上の物体24の検出位置が走行車線に存在する場合に、処理対象選択部33は、地図データベース43を参照して、物体24の検出位置が存在する走行車線に進行方向が設定されているか否かを判定する。進行方向が設定されている場合には、進行方向の情報を取得する。
The processing target selection unit 33 selects an object 24 on a common coordinate system (for example, a world coordinate system or a map coordinate system) used in a high-precision map based on the measurement result of the current position of the host vehicle 1 by the positioning device 42. Calculate the detected position.
The processing target selection unit 33 refers to the map database 43 and determines whether the detected position of the object 24 on the common coordinate system exists in the driving lane. When the detected position of the object 24 on the common coordinate system exists in the driving lane, the processing target selection unit 33 refers to the map database 43 and sets the traveling direction to the driving lane in which the detected position of the object 24 exists. Determine whether or not the If the direction of travel is set, information on the direction of travel is acquired.

処理対象選択部33は、共通座標系上の物体24の検出位置の変化に基づいて、共通座標系上の物体24の検出位置の移動方向を算出する。
物体24の移動方向と走行車線の進行方向とのなす角度φ1を算出する。処理対象選択部33は、角度φ1が閾値φt1以上の場合に物体24の移動方向が尤もらしいと判定し、角度φ1が閾値φt1未満の場合に物体24の移動方向が尤もらしくないと判定する。
The processing target selection unit 33 calculates the moving direction of the detected position of the object 24 on the common coordinate system based on the change in the detected position of the object 24 on the common coordinate system.
An angle φ1 between the moving direction of the object 24 and the traveling direction of the driving lane is calculated. The processing target selection unit 33 determines that the moving direction of the object 24 is plausible when the angle φ1 is greater than or equal to the threshold value φt1, and determines that the moving direction of the object 24 is unlikely when the angle φ1 is less than the threshold value φt1.

物体24の移動方向が尤もらしい場合には、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択する。物体24の移動方向が尤もらしくない場合には、処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択しない。
一方で、共通座標系上の物体24の検出位置が走行車線に存在しない場合には、処理対象選択部33は、物体24の移動方向が尤もらしいか否かを判定できない。この場合に処理対象選択部33は、仮想物体の計算処理の処理対象として物体24を選択する。
If the moving direction of the object 24 is plausible, the processing target selection unit 33 selects the object 24 as the processing target for the virtual object calculation process. If the moving direction of the object 24 is not plausible, the processing target selection unit 33 does not select the object 24 as a processing target for the virtual object calculation process.
On the other hand, if the detected position of the object 24 on the common coordinate system does not exist in the driving lane, the processing target selection unit 33 cannot determine whether the moving direction of the object 24 is plausible. In this case, the processing target selection unit 33 selects the object 24 as the processing target for the virtual object calculation process.

さらに、第2実施形態の物体認識コントローラ12は、仮想物体算出部35が算出した仮想物体の位置や移動方向が尤もらしいか否かを判断する。物体認識コントローラ12は、位置や移動方向が尤もらしい仮想物体の位置にのみ実際の物体が存在すると判断して、
当該仮想物体の物体情報のみを、ゴースト物体以外の物体情報に追加して走行制御部13に送信する。
このため第2実施形態の仮想物体算出部35は、仮想位置追加判定部47を備える。
Furthermore, the object recognition controller 12 of the second embodiment determines whether the position and movement direction of the virtual object calculated by the virtual object calculation unit 35 are plausible. The object recognition controller 12 determines that an actual object exists only at the position of a virtual object whose position and direction of movement are plausible,
Only the object information of the virtual object is added to the object information other than the ghost object and transmitted to the travel control unit 13.
For this reason, the virtual object calculation unit 35 of the second embodiment includes a virtual position addition determination unit 47.

図8A及び図8Bを参照する。参照符号24はゴースト物体を示し、参照符号25はゴースト物体24を真の位置に配置した仮想物体を示し、参照符号27は、レーダ装置11に加えて、他のセンサ(レーザ測距装置40やカメラ41)にも検出されている他の物体を示す。
仮想位置追加判定部47は、仮想物体25と他の物体27との間隔dを算出する。例えば仮想位置追加判定部47は、仮想物体25の前端中央の基準点25bと物体27の前端中央の基準点27bとの間隔dを算出してよい。
See FIGS. 8A and 8B. Reference numeral 24 indicates a ghost object, reference numeral 25 indicates a virtual object in which the ghost object 24 is placed at the true position, and reference numeral 27 indicates a virtual object in which the ghost object 24 is placed at the true position. Other objects also detected by camera 41) are shown.
The virtual position addition determination unit 47 calculates the distance d between the virtual object 25 and another object 27. For example, the virtual position addition determination unit 47 may calculate the distance d between the reference point 25b at the center of the front end of the virtual object 25 and the reference point 27b at the center of the front end of the object 27.

図8Aに示すように仮想物体25と他の物体27との間隔dが非常に短く、仮想物体25の位置と他の物体27の位置とがほぼ一致している場合には、他の物体27のゴーストをゴースト物体24としても検出している可能性が高い。このような場合には、仮想物体25の物体情報を破棄することにより計算量を削減できる。 As shown in FIG. 8A, when the distance d between the virtual object 25 and the other object 27 is very short and the position of the virtual object 25 and the position of the other object 27 almost match, the other object 27 There is a high possibility that the ghost of is also detected as the ghost object 24. In such a case, the amount of calculation can be reduced by discarding the object information of the virtual object 25.

したがって、仮想位置追加判定部47は、図8Bに示すように仮想物体25と他の物体27との間隔dが十分に長く、仮想物体25の位置と他の物体27の位置とが異なる場合にのみ、仮想物体25の位置に実際の物体が存在すると判断する。例えば、仮想位置追加判定部47は、間隔dが閾値Dtより長いか否かを判断する。間隔dが閾値Dtより長い場合に、仮想物体25の位置に実際の物体が存在すると判断して、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。 Therefore, as shown in FIG. 8B, the virtual position addition determination unit 47 determines when the distance d between the virtual object 25 and the other object 27 is sufficiently long and the position of the virtual object 25 and the position of the other object 27 are different. Only then, it is determined that an actual object exists at the position of the virtual object 25. For example, the virtual position addition determining unit 47 determines whether the interval d is longer than the threshold Dt. If the interval d is longer than the threshold Dt, it is determined that an actual object exists at the position of the virtual object 25, and the object information of the virtual object 25 is added to the object information other than the ghost object and sent to the travel control unit 13. Allow to send.

図9を参照する。参照符号24はゴースト物体を示し、参照符号25はゴースト物体24を真の位置に配置した仮想物体を示し、参照符号28は他の物体を示す。
ゴースト物体24は、他の物体28の死角にいる物体のゴーストであり、レーダ装置11は、この物体の真の位置を直接検出しておらず、レーザ測距装置40及びカメラ41はこの物体そのものを検出していない。
See FIG. 9. Reference numeral 24 indicates a ghost object, reference numeral 25 indicates a virtual object in which the ghost object 24 is placed in its true position, and reference numeral 28 indicates another object.
The ghost object 24 is a ghost of an object in the blind spot of another object 28, and the radar device 11 does not directly detect the true position of this object, and the laser distance measuring device 40 and camera 41 detect the object itself. not detected.

いま、ゴースト物体24の検出位置は、自車両1の周囲の走行車線26a、26b、26c、26d、26e、26f、26g及び26hの何れにも存在していない。このため、処理対象選択部33は、図7を参照して説明した方法のように走行車線26a~26hの進行方向を用いて、ゴースト物体24の検出位置の移動方向が尤もらしいか否かを判定できない。
そこで、仮想位置追加判定部47は、仮想物体25の位置や移動方向が尤もらしいか否かを判定する。
Currently, the detected position of the ghost object 24 does not exist in any of the driving lanes 26a, 26b, 26c, 26d, 26e, 26f, 26g, and 26h around the host vehicle 1. For this reason, the processing target selection unit 33 uses the traveling directions of the driving lanes 26a to 26h as in the method described with reference to FIG. 7 to determine whether the moving direction of the detected position of the ghost object 24 is plausible. Can't judge.
Therefore, the virtual position addition determining unit 47 determines whether the position and moving direction of the virtual object 25 are plausible.

具体的には、仮想位置追加判定部47は、測位装置42の自車両1の現在位置の測定結果に基づいて共通座標系上の仮想物体25の位置を算出する。
さらに仮想位置追加判定部47は、地図データベース43を参照して共通座標系上の仮想物体25の位置が、走行車線に存在するか否かを判定する。図9の例では、仮想物体25は、走行車線26aに存在する。
Specifically, the virtual position addition determination unit 47 calculates the position of the virtual object 25 on the common coordinate system based on the measurement result of the current position of the host vehicle 1 by the positioning device 42.
Further, the virtual position addition determination unit 47 refers to the map database 43 and determines whether the position of the virtual object 25 on the common coordinate system is within the travel lane. In the example of FIG. 9, the virtual object 25 exists in the driving lane 26a.

共通座標系上の仮想物体25の位置が走行車線に存在する場合に、仮想位置追加判定部47は、地図データベース43を参照して、仮想物体25の位置が存在する走行車線に進行方向が設定されているか否かを判定する。進行方向が設定されている場合には進行方向の情報を取得する。図9の例では、走行車線26aの進行方向を示す進行方向ベクトルvt2を取得する。 When the position of the virtual object 25 on the common coordinate system exists in the driving lane, the virtual position addition determination unit 47 refers to the map database 43 and sets the traveling direction to the driving lane in which the position of the virtual object 25 exists. Determine whether or not. If the direction of travel is set, information on the direction of travel is acquired. In the example of FIG. 9, a traveling direction vector vt2 indicating the traveling direction of the driving lane 26a is obtained.

また、仮想位置追加判定部47は、共通座標系上の仮想物体25の位置変化に基づいて、共通座標系上の仮想物体25の移動方向を算出する。図9の例では、仮想物体25の移動方向ベクトルvmを算出する。仮想位置追加判定部47は、仮想物体25の移動方向と走行車線26aの進行方向とのなす角度φ2を算出する。
仮想位置追加判定部47は、角度φ2が閾値φt2以下の場合に仮想物体25の位置と移動方向が尤もらしいと判定する。この場合に、仮想位置追加判定部47は、仮想物体25の位置に実際の物体が存在すると判断して、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。
Further, the virtual position addition determination unit 47 calculates the moving direction of the virtual object 25 on the common coordinate system based on the change in the position of the virtual object 25 on the common coordinate system. In the example of FIG. 9, the moving direction vector vm of the virtual object 25 is calculated. The virtual position addition determination unit 47 calculates an angle φ2 between the moving direction of the virtual object 25 and the traveling direction of the driving lane 26a.
The virtual position addition determination unit 47 determines that the position and movement direction of the virtual object 25 are plausible when the angle φ2 is less than or equal to the threshold value φt2. In this case, the virtual position addition determination unit 47 determines that an actual object exists at the position of the virtual object 25, adds the object information of the virtual object 25 to the object information other than the ghost object, and adds the object information of the virtual object 25 to the object information other than the ghost object. Permit to send to 13.

また、仮想位置追加判定部47は、仮想物体25が存在する走行車線26aの進行方向が設定されていない場合には、仮想物体25の位置が尤もらしいと判定する。この場合に、仮想位置追加判定部47は、仮想物体25の位置に実際の物体が存在すると判断して、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。 Further, the virtual position addition determination unit 47 determines that the position of the virtual object 25 is plausible if the traveling direction of the travel lane 26a in which the virtual object 25 exists is not set. In this case, the virtual position addition determination unit 47 determines that an actual object exists at the position of the virtual object 25, adds the object information of the virtual object 25 to the object information other than the ghost object, and adds the object information of the virtual object 25 to the object information other than the ghost object. Permit to send to 13.

一方で、角度φ2が閾値φt2以上の場合には、仮想物体25の移動方向が尤もらしくないと判定する。この場合に仮想位置追加判定部47は、この仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可しない。
物体情報選択部36は、物体情報蓄積部32が蓄積した物体情報のうち、ゴースト物体として選択された物体以外の物体情報に、仮想位置追加判定部47によって許可された仮想物体25の物体情報のみを追加して、走行制御部13に送信する。
On the other hand, if the angle φ2 is greater than or equal to the threshold value φt2, it is determined that the moving direction of the virtual object 25 is unlikely. In this case, the virtual position addition determination unit 47 does not permit the object information of the virtual object 25 to be added to object information other than the ghost object and transmitted to the travel control unit 13.
The object information selection unit 36 adds only the object information of the virtual objects 25 permitted by the virtual position addition determination unit 47 to object information other than objects selected as ghost objects among the object information accumulated by the object information storage unit 32. is added and transmitted to the travel control unit 13.

(動作)
次に、図10~図13を参照して第2実施形態の物体認識方法の一例を説明する。
ステップS10及びS11の処理は、図5を参照して説明したステップS1及びS2の処理と同様である。
ステップS12において第2物体検出部44は、自車両1の周囲の物体の検出位置を示すレーザ測距装置点群を受信する。第2物体検出部44は、レーザ測距装置点群に含まれる点をグループ化(クラスタリング)して個々の物体を抽出し、抽出した物体を示す点群の集合を各物体の物体情報として構成する。
ステップS13において第2物体検出部44は、レーザ測距装置点群から抽出された個々の物体の点群に対して矩形フィッティングを行うことにより、自車両1の周囲の物体を矩形物体として認識する。
(motion)
Next, an example of the object recognition method of the second embodiment will be described with reference to FIGS. 10 to 13.
The processing in steps S10 and S11 is similar to the processing in steps S1 and S2 described with reference to FIG.
In step S<b>12 , the second object detection unit 44 receives a laser range finder point group indicating the detected positions of objects around the own vehicle 1 . The second object detection unit 44 groups (clusters) the points included in the laser range finder point cloud to extract individual objects, and configures a set of point clouds indicating the extracted objects as object information for each object. do.
In step S13, the second object detection unit 44 performs rectangle fitting on the point cloud of each object extracted from the laser range finder point cloud, thereby recognizing objects around the own vehicle 1 as rectangular objects. .

ステップS14においてカメラ41から得られる撮像画像に対して画像認識処理を実行し、撮像画像のどの位置に、どのような属性の物体が存在するかを認識する。
なお、ステップS10及びS11の処理と、ステップS12及びS13の処理と、ステップS14の処理は並列に実行してもよく、所定の順序で直列に実行してもよい。
ステップS15において統合部46は、同一の物体について第1物体検出部30、第2物体検出部44及び画像認識部45によってそれぞれ得られた物体情報を統合する。
In step S14, image recognition processing is performed on the captured image obtained from the camera 41, and it is recognized at which position and with what attribute an object exists in the captured image.
Note that the processing in steps S10 and S11, the processing in steps S12 and S13, and the processing in step S14 may be executed in parallel, or may be executed in series in a predetermined order.
In step S15, the integrating unit 46 integrates the object information respectively obtained by the first object detecting unit 30, the second object detecting unit 44, and the image recognizing unit 45 regarding the same object.

ステップS16において追跡部31は、統合部46により統合された物体情報に基づいて、検出した物体を時系列で追跡し、時系列で同一物体として判定された物体に同一の識別情報を付与する。追跡部31は、異なる時刻における同一物体の位置変化に基づいて物体の速度ベクトルを算出する。物体情報蓄積部32は、追跡部31によって識別情報が付与された物体情報を記憶装置16に蓄積する。 In step S16, the tracking unit 31 tracks the detected objects in time series based on the object information integrated by the integrating unit 46, and gives the same identification information to objects determined to be the same object in the time series. The tracking unit 31 calculates the velocity vector of the object based on changes in the position of the same object at different times. The object information storage section 32 stores object information to which identification information has been added by the tracking section 31 in the storage device 16 .

ステップS17において処理対象選択部33は、物体情報蓄積部32によって物体情報が蓄積された物体のいずれかを「注目物体」として選択して、処理対象選択処理を実行する。処理対象選択処理において処理対象選択部33は、注目物体を、仮想物体の計算処理の処理対象として選択するか否かを判定する。図11を参照して処理対象選択処理の一例を説明する。 In step S17, the processing target selection unit 33 selects any of the objects for which object information has been accumulated by the object information storage unit 32 as the “object of interest” and executes the processing target selection process. In the process target selection process, the process target selection unit 33 determines whether or not the object of interest is selected as a process target for the virtual object calculation process. An example of the process target selection process will be described with reference to FIG.

ステップS30において処理対象選択部33は、注目物体がレーダ装置11のみによって検出され、かつ他のセンサ(すなわちカメラ41やレーザ測距装置40)によって検出されなかったか否かを判定する。注目物体がレーダ装置11のみによって検出された場合(ステップS30:Y)に処理はステップS31に進む。
注目物体が他のセンサにも検出された場合(ステップS30:N)に処理対象選択部33は、注目物体を処理対象として選択せずに処理対象選択処理を終了する。その後に処理は図10のステップS20へ進む。
In step S30, the processing target selection unit 33 determines whether the object of interest has been detected only by the radar device 11 and not by other sensors (ie, the camera 41 or the laser distance measuring device 40). If the object of interest is detected only by the radar device 11 (step S30: Y), the process proceeds to step S31.
If the object of interest is also detected by another sensor (step S30: N), the processing target selection unit 33 ends the processing target selection process without selecting the object of interest as a processing target. Thereafter, the process proceeds to step S20 in FIG. 10.

ステップS31において処理対象選択部33は、注目物体の検出位置が走行車線内に存在するか否かを判定する。注目物体の検出位置が走行車線内に存在する場合(ステップS31:Y)に処理はステップS32に進む。注目物体の検出位置が走行車線内に存在しない場合(ステップS31:N)に処理はステップS35に進む。 In step S31, the processing target selection unit 33 determines whether the detected position of the object of interest is within the driving lane. If the detected position of the object of interest is within the driving lane (step S31: Y), the process proceeds to step S32. If the detected position of the object of interest is not within the driving lane (step S31: N), the process proceeds to step S35.

ステップS32において処理対象選択部33は、注目物体の検出位置が存在する走行車線に進行方向が設定されているか否かを判定する。走行車線に進行方向が設定されている場合(ステップS32:Y)に処理はステップS33に進む。走行車線に進行方向が設定されていない場合(ステップS32:N)に処理はステップS35に進む。 In step S32, the processing target selection unit 33 determines whether the traveling direction is set to the driving lane in which the detected position of the object of interest exists. If the traveling direction is set for the driving lane (step S32: Y), the process advances to step S33. If no traveling direction is set for the driving lane (step S32: N), the process proceeds to step S35.

ステップS33において処理対象選択部33は、注目物体の検出位置の移動方向と走行車線の進行方向とのなす角度φ1を算出する。
ステップS34において処理対象選択部33は、角度φ1が閾値φt1以上であるか否かを判定する。角度φ1が閾値φt1以上である場合(ステップS34:Y)に処理はステップS35に進む。角度φ1が閾値φt1以上でない場合(ステップS34:N)に処理対象選択部33は、注目物体を処理対象として選択せずに処理対象選択処理を終了する。その後に処理は図10のステップS20へ進む。
In step S33, the processing target selection unit 33 calculates the angle φ1 between the moving direction of the detected position of the object of interest and the traveling direction of the driving lane.
In step S34, the processing target selection unit 33 determines whether the angle φ1 is greater than or equal to the threshold value φt1. If the angle φ1 is equal to or greater than the threshold value φt1 (step S34: Y), the process proceeds to step S35. If the angle φ1 is not equal to or greater than the threshold value φt1 (step S34: N), the processing target selection unit 33 ends the processing target selection process without selecting the object of interest as the processing target. Thereafter, the process proceeds to step S20 in FIG. 10.

ステップS35において処理対象選択部33は、注目物体の検出位置と自車両1との間に他の物体があるか否かを判定する。注目物体の検出位置と自車両1との間に他の物体がある場合(ステップS35:Y)に処理対象選択部33は、注目物体を処理対象として選択して、処理対象選択処理を終了する。注目物体の検出位置と自車両1との間に他の物体がない場合(ステップS35:N)に処理対象選択部33は、注目物体を処理対象として選択せずに処理対象選択処理を終了する。その後に処理は図10のステップS20へ進む。なお、処理対象選択部33は、他の物体の情報を地図データベース43に含まれる道路上又は道路周辺の構造物情報から取得してよい。 In step S35, the processing target selection unit 33 determines whether there is another object between the detected position of the object of interest and the own vehicle 1. If there is another object between the detected position of the object of interest and the host vehicle 1 (step S35: Y), the processing object selection unit 33 selects the object of interest as the processing object and ends the processing object selection process. . If there is no other object between the detected position of the object of interest and the own vehicle 1 (step S35: N), the processing object selection unit 33 ends the processing object selection process without selecting the object of interest as a processing object. . Thereafter, the process proceeds to step S20 in FIG. 10. Note that the processing target selection unit 33 may acquire information on other objects from information on structures on or around the road included in the map database 43.

図10を参照する。ステップS18において反射面算出部34と仮想物体算出部35は、処理対象選択処理によって処理対象と選択された物体に対して、仮想物体を算出する反射面・仮想物体算出処理を実行する。図12を参照して反射面・仮想物体算出処理の一例を説明する。
ステップS40において反射面算出部34は、注目物体の検出位置と自車両1との間に存在する他の物体の矩形を形成する辺のうち、自車両から注目物体の検出位置まで延びる物体ベクトルPgと最初に交差する交差辺を算出する。
See FIG. 10. In step S18, the reflective surface calculation unit 34 and the virtual object calculation unit 35 perform a reflective surface/virtual object calculation process for calculating a virtual object on the object selected as a processing target in the process target selection process. An example of the reflective surface/virtual object calculation process will be described with reference to FIG. 12.
In step S40, the reflective surface calculation unit 34 calculates an object vector Pg extending from the own vehicle to the detected position of the object of interest among the sides forming a rectangle of another object existing between the detected position of the object of interest and the own vehicle 1. Calculate the first intersecting edge.

ステップS41において反射面算出部34は、交差辺の長さLが閾値Lt以上であるか否かを判定する。
交差辺の長さLが閾値Lt以上である場合(ステップS41:Y)に処理はステップS42に進む。交差辺の長さLが閾値Lt以上でない場合(ステップS41:N)に、仮想物体を算出せずに処理は図10のステップS20へ進む。
In step S41, the reflective surface calculation unit 34 determines whether the length L of the intersecting side is greater than or equal to the threshold Lt.
If the length L of the intersecting side is equal to or greater than the threshold Lt (step S41: Y), the process proceeds to step S42. If the length L of the intersecting side is not equal to or greater than the threshold Lt (step S41: N), the process proceeds to step S20 in FIG. 10 without calculating the virtual object.

ステップS42において反射面算出部34は、ゴーストを生じさせたマルチパスの反射点の位置と反射面の方向を算出する。仮想物体算出部35は、処理対象選択処理によって処理対象と選択された物体に対して上式(1)~(3)に基づいて仮想物体の位置及び速度を算出する。なお、反射面算出部34は、地図データベース43に含まれる道路上又は道路周辺の構造物情報に基づいて、マルチパスの反射面の位置及び角度の情報を取得してもよい。その後に、反射面・仮想物体算出処理が終了する。 In step S42, the reflective surface calculation unit 34 calculates the position of the multipath reflection point that caused the ghost and the direction of the reflective surface. The virtual object calculation unit 35 calculates the position and velocity of the virtual object based on the above equations (1) to (3) for the object selected as the processing target by the processing target selection process. Note that the reflective surface calculation unit 34 may acquire information on the position and angle of the multipath reflective surface based on information on structures on the road or around the road included in the map database 43. After that, the reflective surface/virtual object calculation process ends.

図10を参照する。ステップS19において仮想位置追加判定部47は、仮想物体追加判定処理を実行する。仮想物体追加判定処理において仮想位置追加判定部47は、反射面・仮想物体算出処理で算出した仮想物体の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信するか否かを判定する。図13を参照して仮想物体追加判定処理の一例を説明する。 See FIG. 10. In step S19, the virtual position addition determination unit 47 executes virtual object addition determination processing. In the virtual object addition determination process, the virtual position addition determination unit 47 determines whether to add the object information of the virtual object calculated in the reflective surface/virtual object calculation process to the object information other than the ghost object and transmit it to the travel control unit 13. Determine whether An example of the virtual object addition determination process will be described with reference to FIG. 13.

ステップS50において仮想位置追加判定部47は、仮想物体から距離Dt以内に他の物体が検出されているか否かを判定する。他の物体が検出されている場合(ステップS50:Y)に仮想位置追加判定部47は、仮想物体の物体情報の追加を許可せずに仮想物体追加判定処理を終了する。その後に処理は図10のステップS20へ進む。他の物体が検出されていない場合(ステップS50:N)に処理はステップS51へ進む。 In step S50, the virtual position addition determination unit 47 determines whether another object is detected within a distance Dt from the virtual object. If another object is detected (step S50: Y), the virtual position addition determination unit 47 terminates the virtual object addition determination process without permitting addition of object information of the virtual object. Thereafter, the process proceeds to step S20 in FIG. 10. If no other object is detected (step S50: N), the process proceeds to step S51.

ステップS51において仮想位置追加判定部47は、仮想物体が走行車線に存在するか否かを判定する。仮想物体が走行車線に存在する場合(ステップS51:Y)に処理はステップS52へ進む。仮想物体が走行車線に存在しない場合(ステップS51:N)に仮想位置追加判定部47は、仮想物体の物体情報の追加を許可せずに仮想物体追加判定処理を終了する。その後に処理は図10のステップS20へ進む。 In step S51, the virtual position addition determination unit 47 determines whether the virtual object is present in the travel lane. If the virtual object exists in the driving lane (step S51: Y), the process advances to step S52. If the virtual object does not exist in the driving lane (step S51: N), the virtual position addition determination unit 47 ends the virtual object addition determination process without permitting addition of object information of the virtual object. Thereafter, the process proceeds to step S20 in FIG. 10.

ステップS52において仮想位置追加判定部47は、仮想物体が存在する走行車線に進行方向が設定されているか否かを判定する。進行方向が設定されている場合(ステップS52:Y)に処理はステップS53へ進む。進行方向が設定されていない場合(ステップS52:N)に処理はステップS55へ進む。
ステップS53において仮想位置追加判定部47は、仮想物体の移動方向と走行車線の進行方向とのなす角度φ2を算出する。
In step S52, the virtual position addition determination unit 47 determines whether the traveling direction is set in the travel lane in which the virtual object exists. If the traveling direction has been set (step S52: Y), the process advances to step S53. If the traveling direction has not been set (step S52: N), the process advances to step S55.
In step S53, the virtual position addition determination unit 47 calculates an angle φ2 between the moving direction of the virtual object and the traveling direction of the travel lane.

ステップS54において仮想位置追加判定部47は、角度φ2が閾値φt2以下であるか否かを判定する。仮想位置追加判定部47は、角度φ2が閾値φt2以下である場合(ステップS54:Y)に処理はステップS55へ進む。角度φ2が閾値φt2以下でない場合(ステップS54:N)に仮想位置追加判定部47は、仮想物体の物体情報の追加を許可せずに仮想物体追加判定処理を終了する。その後に処理は図10のステップS20へ進む。 In step S54, the virtual position addition determination unit 47 determines whether the angle φ2 is less than or equal to the threshold value φt2. When the virtual position addition determination unit 47 determines that the angle φ2 is less than or equal to the threshold value φt2 (step S54: Y), the process proceeds to step S55. If the angle φ2 is not equal to or less than the threshold value φt2 (step S54: N), the virtual position addition determination unit 47 ends the virtual object addition determination process without permitting addition of the object information of the virtual object. Thereafter, the process proceeds to step S20 in FIG. 10.

ステップS55において仮想位置追加判定部47は、仮想物体25の物体情報を、ゴースト物体以外の物体情報に追加して走行制御部13に送信することを許可する。仮想物体算出部35は、仮想物体25の位置及び速度を、ゴースト物体の実際の位置及び速度と認識して蓄積する。その後に仮想物体追加判定処理は終了する。 In step S55, the virtual position addition determination unit 47 allows the object information of the virtual object 25 to be added to object information other than ghost objects and transmitted to the travel control unit 13. The virtual object calculation unit 35 recognizes the position and velocity of the virtual object 25 as the actual position and velocity of the ghost object and stores them. After that, the virtual object addition determination process ends.

図10を参照する。ステップS20において処理対象選択部33は、追跡部31によって識別情報が付与された全ての物体について処理を行ったか否かを判定する。全ての物体について処理を行った場合(ステップS20:Y)に処理はステップS21に進む。未処理の物体が残っている場合(ステップS20:N)にステップS17に戻り、未処理の物体のうち何れかを注目物体として選択して同じ処理を繰り返す。
ステップS21の処理は、図5を参照して説明したステップS9の処理と同様である。
See FIG. 10. In step S20, the processing target selection unit 33 determines whether all objects to which identification information has been assigned by the tracking unit 31 have been processed. If all objects have been processed (step S20: Y), the process proceeds to step S21. If unprocessed objects remain (step S20: N), the process returns to step S17, selects any one of the unprocessed objects as the object of interest, and repeats the same process.
The process in step S21 is similar to the process in step S9 described with reference to FIG.

(第2実施形態の効果)
(1)測位装置42は、走行車線の位置及び進行方向の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定する。処理対象選択部33は、地図上の自車両1の位置に基づいて、自車両1の周囲の複数の物体のうちの第1物体の地図上の検出位置を算出してよい。処理対象選択部33は、地図上の第1物体の検出位置の変化に基づいて、地図上の第1物体の検出位置の移動方向を算出してよい。
(Effects of the second embodiment)
(1) The positioning device 42 measures the position of the own vehicle 1 equipped with the radar device 11 on a map having at least information on the position of the driving lane and the direction of travel. The processing target selection unit 33 may calculate the detected position on the map of the first object among the plurality of objects around the own vehicle 1 based on the position of the own vehicle 1 on the map. The processing target selection unit 33 may calculate the moving direction of the detected position of the first object on the map based on the change in the detected position of the first object on the map.

処理対象選択部33は、第1物体の検出位置が存在する走行車線の進行方向と第1物体の検出位置の移動方向とのなす角が第1閾値以上である場合に、第1物体を仮想物体の計算処理の処理対象として選択してよい。
これにより、マルチパスによって実際と異なる位置に検出された可能性が高い物体を、仮想物体の計算処理の処理対象として選択できる。
これにより、
The processing target selection unit 33 virtualizes the first object when the angle formed between the traveling direction of the driving lane in which the detected position of the first object exists and the moving direction of the detected position of the first object is equal to or larger than a first threshold value. It may be selected as a processing target for object calculation processing.
Thereby, an object that is likely to have been detected at a different position from the actual position due to multi-pass can be selected as a processing target for virtual object calculation processing.
This results in

(2)測位装置42は、走行車線の位置の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定してよい。処理対象選択部33は、地図上の自車両1の位置に基づいて、地図上の第1物体の検出位置を算出してよい。処理対象選択部33は、第1物体の検出位置が走行車線に存在しない場合に、第1物体を仮想物体の計算処理の処理対象として選択してよい。
これにより、マルチパスによって実際と異なる位置に検出された可能性が高い物体を、仮想物体の計算処理の処理対象として選択できる。
(2) The positioning device 42 may measure the position of the own vehicle 1 equipped with the radar device 11 on a map having at least information on the position of the driving lane. The processing target selection unit 33 may calculate the detected position of the first object on the map based on the position of the host vehicle 1 on the map. The processing target selection unit 33 may select the first object as a processing target for the virtual object calculation process when the detected position of the first object is not in the driving lane.
Thereby, an object that is likely to have been detected at a different position from the actual position due to multi-pass can be selected as a processing target for virtual object calculation processing.

(3)レーダ以外の他のセンサ(レーザ測距装置40やカメラ41)を用いて自車両1の周囲の物体を検出してもよい。処理対象選択部33は、第1物体がレーダ装置に検出され、かつ第1物体が他のセンサに検出されない場合に第1物体を仮想物体の計算処理の処理対象として選択してよい。
これにより、レーダ波のマルチパスによって発生したゴースト物体を、仮想物体の計算処理の処理対象として選択できる。
(3) Objects around the host vehicle 1 may be detected using a sensor other than the radar (laser ranging device 40 or camera 41). The processing target selection unit 33 may select the first object as the processing target for the virtual object calculation process when the first object is detected by the radar device and the first object is not detected by other sensors.
Thereby, a ghost object generated by multipath radar waves can be selected as a processing target for virtual object calculation processing.

(4)仮想位置追加判定部47は、仮想物体の位置として算出した第1物体の検出位置の鏡像位置が、他の物体の検出位置のいずれとも異なる場合に、鏡像位置に第1物体が存在すると認識してよい。
これにより、マルチパスによって同一物体の複数の像が検出されている場合に、ゴーストを削除して計算量を削減できる。
(4) If the mirror image position of the detected position of the first object calculated as the position of the virtual object is different from any of the detected positions of other objects, the virtual position addition determination unit 47 determines that the first object exists at the mirror image position. Then you can recognize it.
Thereby, when multiple images of the same object are detected by multipass, ghosts can be deleted and the amount of calculation can be reduced.

(5)測位装置42は、走行車線の位置の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定する。仮想位置追加判定部47は、地図上の自車両1の位置に基づいて、地図上の鏡像位置を算出してよい。仮想位置追加判定部47は、鏡像位置が走行車線内である場合に、鏡像位置に第1物体が存在すると認識してよい。
これにより、走行車線内にある第1物体のみを認識することができるので、計算量を削減できる。
(5) The positioning device 42 measures the position of the own vehicle 1 equipped with the radar device 11 on a map having at least information on the position of the driving lane. The virtual position addition determination unit 47 may calculate a mirror image position on the map based on the position of the host vehicle 1 on the map. The virtual position addition determination unit 47 may recognize that the first object exists at the mirror image position when the mirror image position is within the driving lane.
This allows only the first object within the travel lane to be recognized, thereby reducing the amount of calculation.

(6)測位装置42は、走行車線の位置及び進行方向の情報を少なくとも有する地図上の、レーダ装置11を搭載した自車両1の位置を測定する。仮想位置追加判定部47は、地図上の自車両1の位置に基づいて、地図上の鏡像位置を算出してよい。仮想位置追加判定部47は、地図上の鏡像位置の位置変化に基づいて、鏡像位置の地図上の移動方向を算出してよい。仮想位置追加判定部47は、鏡像位置が存在する走行車線の進行方向と鏡像位置の移動方向とのなす角が第2閾値以下である場合に、鏡像位置に第1物体が存在すると認識してよい。これにより、尤もらしい位置に存在する第1物体を認識できる。 (6) The positioning device 42 measures the position of the own vehicle 1 equipped with the radar device 11 on a map having at least information on the position of the driving lane and the direction of travel. The virtual position addition determination unit 47 may calculate a mirror image position on the map based on the position of the host vehicle 1 on the map. The virtual position addition determination unit 47 may calculate the moving direction of the mirror image position on the map based on the change in the position of the mirror image position on the map. The virtual position addition determination unit 47 recognizes that the first object exists at the mirror image position when the angle formed between the traveling direction of the driving lane in which the mirror image position exists and the moving direction of the mirror image position is less than or equal to a second threshold value. good. Thereby, the first object existing at a plausible position can be recognized.

(7)反射面算出部34は、地図データベース43に含まれる道路上又は道路周辺の構造物情報に基づいて、反射面の位置及び角度の情報を取得してよい。これにより、仮想物体の位置の算出精度を向上できる。 (7) The reflective surface calculation unit 34 may acquire information on the position and angle of the reflective surface based on information on structures on the road or around the road included in the map database 43. Thereby, the accuracy of calculating the position of the virtual object can be improved.

1…自車両、10…車両制御装置、11…レーダ装置、12…物体認識コントローラ、13…走行制御部、14…アクチュエータ、15…プロセッサ、16…記憶装置、30…第1物体検出部、31…追跡部、32…物体情報蓄積部、33…処理対象選択部、34…反射面算出部、35…仮想物体算出部、36…物体情報選択部、40…レーザ測距装置、41…カメラ、42…測位装置、43…地図データベース、44…第2物体検出部、45…画像認識部、46…統合部、47…仮想位置追加判定部 DESCRIPTION OF SYMBOLS 1... Own vehicle, 10... Vehicle control device, 11... Radar device, 12... Object recognition controller, 13... Travel control part, 14... Actuator, 15... Processor, 16... Storage device, 30... First object detection part, 31 ...Tracking unit, 32...Object information storage unit, 33...Processing target selection unit, 34...Reflection surface calculation unit, 35...Virtual object calculation unit, 36...Object information selection unit, 40...Laser ranging device, 41...Camera, 42... Positioning device, 43... Map database, 44... Second object detection section, 45... Image recognition section, 46... Integration section, 47... Virtual position addition determination section

Claims (8)

レーダ装置からレーダ波を出射するとともに前記レーダ波の反射波を受信し、前記反射波の受信結果に基づいて周囲の複数の物体をそれぞれ検出した各々の検出位置を取得し、
前記検出位置に基づいて、前記複数の物体のうちの第1物体の検出位置と前記レーダ装置との間に第2物体が存在するか否かを判定し、前記第2物体が存在すると判定した場合に前記第1物体を処理対象として選択し、
前記第1物体を前記処理対象として選択した場合に、前記第2物体の前記レーダ装置に対向する面である反射面の位置及び角度を検出し、
前記反射面を対称面として前記第1物体の検出位置を反転させた鏡像位置と、前記複数の物体のうちの前記第1物体以外の他の物体の検出位置と、の間の距離に基づいて前記鏡像位置と前記他の物体の検出位置とが異なるか否かを判定し、
前記鏡像位置が、前記複数の物体のうちの前記第1物体以外の前記他の物体の検出位置のいずれとも異なると判定した場合に、前記鏡像位置に前記第1物体が存在すると認識する、
ことを特徴とする物体認識方法。
Emitting radar waves from a radar device and receiving reflected waves of the radar waves, and obtaining detection positions of each of a plurality of surrounding objects detected based on the reception results of the reflected waves,
Based on the detected position, it is determined whether a second object exists between the detected position of the first object of the plurality of objects and the radar device, and it is determined that the second object exists. selecting the first object as a processing target in the case;
When the first object is selected as the processing target, detecting the position and angle of a reflective surface of the second object that is a surface facing the radar device,
Based on the distance between a mirror image position obtained by inverting the detection position of the first object using the reflective surface as a symmetry plane and a detection position of another object other than the first object among the plurality of objects. determining whether the mirror image position and the detected position of the other object are different;
recognizing that the first object is present at the mirror image position when it is determined that the mirror image position is different from any of the detected positions of the other objects other than the first object among the plurality of objects;
An object recognition method characterized by:
走行車線の位置及び進行方向の情報を少なくとも有する地図上の、前記レーダ装置を搭載した車両の位置を測定し、
前記地図上の前記車両の位置に基づいて、前記地図上の前記第1物体の検出位置を算出し、
前記地図上の前記第1物体の検出位置の変化に基づいて、前記地図上の前記第1物体の検出位置の移動方向を算出し、
前記第1物体の検出位置が存在する走行車線の進行方向と前記第1物体の検出位置の移動方向とのなす角が第1閾値以上である場合に、前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1に記載の物体認識方法。
Measuring the position of the vehicle equipped with the radar device on a map having at least information on the position of the driving lane and the direction of travel;
calculating a detected position of the first object on the map based on the position of the vehicle on the map;
calculating a moving direction of the detected position of the first object on the map based on a change in the detected position of the first object on the map;
Selecting the first object as the processing target when the angle formed between the traveling direction of the driving lane in which the detected position of the first object exists and the moving direction of the detected position of the first object is greater than or equal to a first threshold value. do,
The object recognition method according to claim 1, characterized in that:
走行車線の位置の情報を少なくとも有する地図上の、前記レーダ装置を搭載した車両の位置を測定し、
前記地図上の前記車両の位置に基づいて、前記地図上の前記第1物体の検出位置を算出し、
前記第1物体の検出位置が走行車線に存在しない場合に、前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1に記載の物体認識方法。
Measuring the position of the vehicle equipped with the radar device on a map having at least information on the position of the driving lane;
calculating a detected position of the first object on the map based on the position of the vehicle on the map;
selecting the first object as the processing target when the detected position of the first object is not in the driving lane;
The object recognition method according to claim 1, characterized in that:
レーダ以外の他のセンサによって周囲の物体を検出し、
前記第1物体が前記レーダ装置に検出され、かつ前記第1物体が前記他のセンサに検出されない場合に前記第1物体を前記処理対象として選択する、
ことを特徴とする請求項1~3のいずれか一項に記載の物体認識方法。
Detects surrounding objects using sensors other than radar,
selecting the first object as the processing target when the first object is detected by the radar device and the first object is not detected by the other sensor;
The object recognition method according to any one of claims 1 to 3, characterized in that:
走行車線の位置の情報を少なくとも有する地図上の、前記レーダ装置を搭載した車両の位置を測定し、
前記地図上の前記車両の位置に基づいて、前記地図上の前記鏡像位置を算出し、
前記鏡像位置が走行車線内である場合に、前記鏡像位置に前記第1物体が存在すると認識することを特徴とする請求項1に記載の物体認識方法。
Measuring the position of the vehicle equipped with the radar device on a map having at least information on the position of the driving lane;
calculating the mirror image position on the map based on the position of the vehicle on the map;
2. The object recognition method according to claim 1, further comprising recognizing that the first object exists at the mirror image position when the mirror image position is within a driving lane.
走行車線の位置及び進行方向の情報を少なくとも有する地図上の、前記レーダ装置を搭載した車両の位置を測定し、
前記地図上の前記車両の位置に基づいて、前記地図上の前記鏡像位置を算出し、
前記地図上の前記鏡像位置の位置変化に基づいて、前記鏡像位置の前記地図上の移動方向を算出し、
前記鏡像位置が存在する走行車線の進行方向と前記鏡像位置の移動方向とのなす角が第2閾値以下である場合に、前記鏡像位置に前記第1物体が存在すると認識する、
ことを特徴とする請求項1に記載の物体認識方法。
Measuring the position of the vehicle equipped with the radar device on a map having at least information on the position of the driving lane and the direction of travel;
calculating the mirror image position on the map based on the position of the vehicle on the map;
calculating a moving direction of the mirror image position on the map based on a change in the position of the mirror image position on the map;
Recognizing that the first object is present at the mirror image position when an angle formed between a traveling direction of a driving lane in which the mirror image position exists and a moving direction of the mirror image position is less than or equal to a second threshold;
The object recognition method according to claim 1, characterized in that:
道路上又は道路周辺の構造物情報を含む地図に基づいて前記反射面の位置及び角度の情報を取得することを特徴とする請求項1~6のいずれか一項に記載の物体認識方法。 7. The object recognition method according to claim 1, wherein information on the position and angle of the reflective surface is obtained based on a map that includes information on structures on or around the road. レーダ装置からレーダ波を出射するとともに前記レーダ波の反射波を受信し、前記反射波の受信結果に基づいて周囲の複数の物体をそれぞれ検出した各々の検出位置を取得するレーダ装置と、
前記検出位置に基づいて、前記複数の物体のうちの第1物体の検出位置と前記レーダ装置との間に第2物体が存在するか否かを判定し、前記第2物体が存在すると判定した場合に前記第1物体を処理対象として選択し、前記第1物体を前記処理対象として選択した場合に、前記第2物体の前記レーダ装置に対向する面である反射面の位置及び角度を検出し、前記反射面を対称面として前記第1物体の検出位置を反転させた鏡像位置と、前記複数の物体のうちの前記第1物体以外の他の物体の検出位置と、の間の距離に基づいて前記鏡像位置と前記他の物体の検出位置とが異なるか否かを判定し、前記鏡像位置が、前記複数の物体のうちの前記第1物体以外の前記他の物体の検出位置のいずれとも異なると判定した場合に、前記鏡像位置に前記第1物体が存在すると認識するコンピュータと、
を備えることを特徴とする物体認識装置。
a radar device that emits radar waves from the radar device, receives reflected waves of the radar waves, and acquires detection positions of each of a plurality of surrounding objects detected based on the reception results of the reflected waves;
Based on the detected position, it is determined whether a second object exists between the detected position of the first object of the plurality of objects and the radar device, and it is determined that the second object exists. In this case, the first object is selected as the processing target, and when the first object is selected as the processing target, the position and angle of a reflective surface of the second object that is a surface facing the radar device are detected. , based on the distance between a mirror image position obtained by inverting the detection position of the first object using the reflective surface as a symmetry plane and a detection position of another object other than the first object among the plurality of objects. to determine whether the mirror image position is different from the detected position of the other object, and the mirror image position is different from any of the detected positions of the other object other than the first object among the plurality of objects. a computer that recognizes that the first object exists at the mirror image position if it is determined that the first object is different ;
An object recognition device comprising:
JP2019201640A 2019-11-06 2019-11-06 Object recognition method and object recognition device Active JP7366695B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019201640A JP7366695B2 (en) 2019-11-06 2019-11-06 Object recognition method and object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019201640A JP7366695B2 (en) 2019-11-06 2019-11-06 Object recognition method and object recognition device

Publications (2)

Publication Number Publication Date
JP2021076422A JP2021076422A (en) 2021-05-20
JP7366695B2 true JP7366695B2 (en) 2023-10-23

Family

ID=75899531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019201640A Active JP7366695B2 (en) 2019-11-06 2019-11-06 Object recognition method and object recognition device

Country Status (1)

Country Link
JP (1) JP7366695B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7472878B2 (en) * 2021-08-31 2024-04-23 株式会社デンソー Vehicle radar device
JP2023043113A (en) * 2021-09-15 2023-03-28 三菱重工業株式会社 Design method of object and design method of vehicle driving test device
JPWO2023067692A1 (en) * 2021-10-19 2023-04-27

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128603A (en) 2003-10-21 2005-05-19 Alpine Electronics Inc Object recognition device and method
JP2006047057A (en) 2004-08-03 2006-02-16 Fuji Heavy Ind Ltd Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
JP2015230566A (en) 2014-06-04 2015-12-21 トヨタ自動車株式会社 Driving support device
WO2018230344A1 (en) 2017-06-15 2018-12-20 ヴィオニア スウェーデン エービー Driving assistance device, driving assistance method, and computer program
JP2019057197A (en) 2017-09-22 2019-04-11 株式会社Subaru Moving object recognition device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128603A (en) 2003-10-21 2005-05-19 Alpine Electronics Inc Object recognition device and method
JP2006047057A (en) 2004-08-03 2006-02-16 Fuji Heavy Ind Ltd Outside-vehicle monitoring device, and traveling control device provided with this outside-vehicle monitoring device
JP2015230566A (en) 2014-06-04 2015-12-21 トヨタ自動車株式会社 Driving support device
WO2018230344A1 (en) 2017-06-15 2018-12-20 ヴィオニア スウェーデン エービー Driving assistance device, driving assistance method, and computer program
JP2019057197A (en) 2017-09-22 2019-04-11 株式会社Subaru Moving object recognition device

Also Published As

Publication number Publication date
JP2021076422A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US9495602B2 (en) Image and map-based detection of vehicles at intersections
JP7366695B2 (en) Object recognition method and object recognition device
RU2720140C1 (en) Method for self-position estimation and self-position estimation device
US10325163B2 (en) Vehicle vision
JP7349561B2 (en) Map information correction method, driving support method, and map information correction device
JP6930394B2 (en) Object recognition device
WO2020145053A1 (en) Travel lane estimation device, travel lane estimation method, control program, and computer-readable non-transitory recording medium
CN110567465B (en) System and method for locating a vehicle using accuracy specifications
JP6038422B1 (en) Vehicle determination device, vehicle determination method, and vehicle determination program
US11780436B2 (en) On-board sensor system
EP3260878B1 (en) Moving object detection device, program, and recording medium
JP7334795B2 (en) Vehicle control method and vehicle control device
JP2014203235A (en) Driving control apparatus
JP6740470B2 (en) Measuring device, measuring method and program
US20230384441A1 (en) Estimating three-dimensional target heading using a single snapshot
JP7043765B2 (en) Vehicle driving control method and equipment
JP7321035B2 (en) OBJECT POSITION DETECTION METHOD AND OBJECT POSITION DETECTION DEVICE
US11487293B2 (en) Map-information obstacle-tracking system and method
US20230384442A1 (en) Estimating target heading using a single snapshot
JP2023118759A (en) Measuring device, measuring method and program
US20230065727A1 (en) Vehicle and vehicle control method
US20150294465A1 (en) Vehicle position estimation system
WO2018212286A1 (en) Measurement device, measurement method and program
GB2406948A (en) Target detection apparatus for a vehicle
JP7401273B2 (en) Mobile body control device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231011

R150 Certificate of patent or registration of utility model

Ref document number: 7366695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150