JP7382799B2 - Object recognition method and object recognition device - Google Patents

Object recognition method and object recognition device Download PDF

Info

Publication number
JP7382799B2
JP7382799B2 JP2019202694A JP2019202694A JP7382799B2 JP 7382799 B2 JP7382799 B2 JP 7382799B2 JP 2019202694 A JP2019202694 A JP 2019202694A JP 2019202694 A JP2019202694 A JP 2019202694A JP 7382799 B2 JP7382799 B2 JP 7382799B2
Authority
JP
Japan
Prior art keywords
motion vector
observation
surrounding
relative
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019202694A
Other languages
Japanese (ja)
Other versions
JP2021077045A (en
Inventor
ヒョンソン チョ
光範 中村
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019202694A priority Critical patent/JP7382799B2/en
Publication of JP2021077045A publication Critical patent/JP2021077045A/en
Application granted granted Critical
Publication of JP7382799B2 publication Critical patent/JP7382799B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、物体認識方法及び物体認識装置に関する。 The present invention relates to an object recognition method and an object recognition device.

特許文献1には、複数の観測位置(具体的には車両)において周囲に存在する物体の位置情報を取得し、この位置情報に基づき当該車両の運転操作を支援する装置が提案されている。 Patent Document 1 proposes a device that acquires position information of surrounding objects at a plurality of observation positions (specifically, a vehicle) and supports driving operation of the vehicle based on this position information.

特開2017-111565号公報JP 2017-111565 Publication

特許文献1で提案されている装置において、例えば各観測位置が比較的近い位置にあるような場合において、これら各観測位置から同一の周囲物体が観測される場合が想定される。しかしながら、各観測位置の相対位置関係によっては同一の周囲物体であっても、当該物体に対する観測点が観測位置ごとに異なることがある。このため、実際には同一の周囲物体であっても、各観測位置において観測される当該周囲物体の位置情報が相互に一致せず、これが異なる周囲物体であると誤認識される可能性があった。 In the device proposed in Patent Document 1, for example, in a case where each observation position is located relatively close to each other, it is assumed that the same surrounding object is observed from each of these observation positions. However, depending on the relative positional relationship between the observation positions, the observation point for the same object may differ depending on the observation position. Therefore, even if the surrounding object is actually the same, the position information of the surrounding object observed at each observation position may not match each other, and there is a possibility that it may be mistakenly recognized as a different surrounding object. Ta.

このような事情に鑑み、本発明は、複数の観測位置から周囲物体の観測を行う際の物体認識の精度をより向上させることができる物体認識方法及び物体認識装置を提供することを目的とする。 In view of these circumstances, an object of the present invention is to provide an object recognition method and an object recognition device that can further improve the accuracy of object recognition when observing surrounding objects from a plurality of observation positions. .

本発明のある態様によれば、複数の観測位置からそれぞれの周囲に存在する物体である周囲物体を認識する物体認識方法が提供される。この物体認識方法では、第1観測位置に対する第1周囲物体の相対位置である第1物体相対位置、及び第1観測位置を基準とした第1周囲物体の動きベクトルである第1相対動きベクトルを取得する。また、第2観測位置に対する第2周囲物体の相対位置である第2物体相対位置、及び第2観測位置を基準とした第2周囲物体の動きベクトルである第2相対動きベクトルを取得する。そして、第1物体相対位置、第1相対動きベクトル、第2物体相対位置、及び第2相対動きベクトルに基づいて、第1周囲物体と第2周囲物体が同一であるか否かを判定する同一物体判定処理を実行する。 According to an aspect of the present invention, an object recognition method is provided for recognizing surrounding objects that are objects existing around each observation position from a plurality of observation positions. In this object recognition method, the first object relative position, which is the relative position of the first surrounding object with respect to the first observation position, and the first relative motion vector, which is the motion vector of the first surrounding object with respect to the first observation position, are determined. get. Further, a second object relative position, which is the relative position of the second surrounding object with respect to the second observation position, and a second relative motion vector, which is a motion vector of the second surrounding object with reference to the second observation position, are obtained. and determining whether the first surrounding object and the second surrounding object are the same based on the first object relative position, the first relative motion vector, the second object relative position, and the second relative motion vector. Execute object determination processing.

本発明によれば、複数の観測位置から周囲物体の観測を行う際の物体認識の精度をより向上させることができる。 According to the present invention, it is possible to further improve the accuracy of object recognition when observing surrounding objects from a plurality of observation positions.

図1は、本発明の物体認識方法を実行するための各実施形態に共通する車両構成を説明する図である。FIG. 1 is a diagram illustrating a vehicle configuration common to each embodiment for carrying out the object recognition method of the present invention. 図2は、物体認識方法を実行する制御装置の機能を説明するブロック図である。FIG. 2 is a block diagram illustrating the functions of a control device that executes an object recognition method. 図3は、物体認識方法を説明するフローチャートである。FIG. 3 is a flowchart illustrating the object recognition method. 図4は、相対座標から絶対座標への座標変換の概要を説明する図である。FIG. 4 is a diagram illustrating an overview of coordinate transformation from relative coordinates to absolute coordinates. 図5は、第1実施形態による同一物体判定処理を説明するフローチャートである。FIG. 5 is a flowchart illustrating the same object determination process according to the first embodiment. 図6は、物体認識方法を具体的なシーン(道路上における物体認識)に適用した例について説明する図である。FIG. 6 is a diagram illustrating an example in which the object recognition method is applied to a specific scene (object recognition on a road). 図7は、第2実施形態による同一物体判定処理を説明するフローチャートである。FIG. 7 is a flowchart illustrating identical object determination processing according to the second embodiment. 図8は、動きベクトル補正処理について説明するフローチャートである。FIG. 8 is a flowchart illustrating motion vector correction processing. 図9Aは、動きベクトル補正処理の詳細を説明するための図である。FIG. 9A is a diagram for explaining details of motion vector correction processing. 図9Bは、動きベクトル補正処理の詳細を説明するための図である。FIG. 9B is a diagram for explaining details of the motion vector correction process. 図9Cは、動きベクトル補正処理の詳細を説明するための図である。FIG. 9C is a diagram for explaining details of the motion vector correction process. 図10は、第3実施形態による物体認識方法を説明するフローチャートである。FIG. 10 is a flowchart illustrating an object recognition method according to the third embodiment.

以下、図面等を参照して、本発明の実施形態について説明する。なお、以下で説明する各実施形態では、第1観測位置及び第2観測位置がそれぞれ異なる車両(第1車両10-1及び第2車両10-2)であり、第1車両10-1が第1周囲物体O1を観測し、第2車両10-2が第2周囲物体O2を観測する場合を想定する。また、記載の簡略化の観点から、第1周囲物体O1及び第2周囲物体O2に対して共通する事項を説明する場合には、これを包括した「周囲物体O」という用語を適宜用いる。 Embodiments of the present invention will be described below with reference to the drawings and the like. In each embodiment described below, the first observation position and the second observation position are different vehicles (first vehicle 10-1 and second vehicle 10-2), and the first vehicle 10-1 is the first observation position and the second observation position is different from each other. Assume that a first surrounding object O1 is observed, and a second vehicle 10-2 observes a second surrounding object O2. Furthermore, from the viewpoint of simplification of description, when describing matters common to the first surrounding object O1 and the second surrounding object O2, the term "surrounding object O" encompassing them will be used as appropriate.

(第1実施形態)
先ず、図1及び図2を参照して、第1車両10-1及び第2車両10-2の構成の概要を説明する。なお、以下の構成の説明において記載の簡略化の観点から、第1車両10-1及び第2車両10-2を包括して「車両10」と称して説明を行う。すなわち、以下で説明する車両10の構成は、特に言及する場合を除き、第1車両10-1及び第2車両10-2のそれぞれが共通して備えることを前提とする。
(First embodiment)
First, an overview of the configurations of the first vehicle 10-1 and the second vehicle 10-2 will be explained with reference to FIGS. 1 and 2. In the following description of the configuration, from the viewpoint of simplifying the description, the first vehicle 10-1 and the second vehicle 10-2 will be collectively referred to as "vehicle 10". That is, the configuration of the vehicle 10 described below is based on the assumption that the first vehicle 10-1 and the second vehicle 10-2 each have the same configuration unless otherwise specified.

図1は、車両10の構成を説明する図である。 FIG. 1 is a diagram illustrating the configuration of a vehicle 10. As shown in FIG.

図示のように、車両10は、周辺センサ1と、外部通信機2と、出力装置3と、制御装置20と、を備える。 As illustrated, the vehicle 10 includes a peripheral sensor 1, an external communication device 2, an output device 3, and a control device 20.

周辺センサ1は、車両10の周辺状況を検出する検出機器である。特に、周辺センサ1は、車両10の周辺を撮像する撮像機器としてのカメラ、レーダー、又はライダー(LIDER:Laser Imaging Detection and Ranging)などを含む。周辺センサ1は、検出した周辺情報(カメラの撮像画像又はレーダー若しくはライダーの反射波)を所定の検出周期(カメラの場合は予め定められたフレームレート)ごとに制御装置20に出力する。なお、本実施形態において、周辺センサ1をカメラで構成する場合には、撮像画像の奥行き方向(画像面前後方向)の長さを特定する視差を特定可能な構成(2台以上の単眼カメラ、又はステレオカメラ等)が採用される。 The surrounding sensor 1 is a detection device that detects the surrounding situation of the vehicle 10. In particular, the surrounding sensor 1 includes a camera, a radar, a lidar (LIDER: Laser Imaging Detection and Ranging), etc. as an imaging device that images the surroundings of the vehicle 10. The surrounding sensor 1 outputs detected surrounding information (a captured image of a camera or a reflected wave of a radar or lidar) to a control device 20 at a predetermined detection cycle (in the case of a camera, a predetermined frame rate). In this embodiment, when the peripheral sensor 1 is configured with a camera, a configuration (two or more monocular cameras, or a stereo camera, etc.).

外部通信機2は、GPS(Global Positioning System)によって測定された車両10の位置情報を所定の外部サーバから受信する装置である。 The external communication device 2 is a device that receives position information of the vehicle 10 measured by GPS (Global Positioning System) from a predetermined external server.

出力装置3は、制御装置20から指令に基づいて、種々の出力を実行する。具体的に、出力装置3は、車両10の内部又は外部に構成されるマップ情報(リアルタイムの道路状況を示す情報)を作成及び更新するための所定のソフトウェアとして構成される。 The output device 3 performs various outputs based on commands from the control device 20. Specifically, the output device 3 is configured as predetermined software for creating and updating map information (information indicating real-time road conditions) configured inside or outside the vehicle 10.

制御装置20は、周辺センサ1、及び外部通信機2との間で各種信号を通信可能に構成され、本実施形態の物体認識方法に係る各処理を実行するためのハードウェア構成及びソフトウェア構成を備える。 The control device 20 is configured to be able to communicate various signals with the peripheral sensor 1 and the external communication device 2, and has a hardware configuration and a software configuration for executing each process related to the object recognition method of this embodiment. Be prepared.

具体的に、制御装置20は、中央演算装置(CPU)、読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RΑM)及び入出力インタフェース(I/Oインタフェース)を備え、物体認識方法に係る各処理を実行するプログラムを読み出し専用メモリに記録したコンピュータによって構成される。なお、制御装置20を構成するコンピュータは、一台のコンピュータハードウェアで構成されていても良いし、複数台のコンピュータハードウェアに分けられて上記各処理を分散処理する態様をとっても良い。 Specifically, the control device 20 includes a central processing unit (CPU), a read-only memory (ROM), a random access memory (RΑM), and an input/output interface (I/O interface), and performs each process related to the object recognition method. It consists of a computer that stores programs to be executed in read-only memory. Note that the computer constituting the control device 20 may be composed of one computer hardware, or may be divided into a plurality of computer hardware to perform the above-mentioned processes in a distributed manner.

図2は、制御装置20の構成を説明するブロック図である。 FIG. 2 is a block diagram illustrating the configuration of the control device 20. As shown in FIG.

図示のように、制御装置20は、自己位置演算部11と、物体相対位置演算部13と、相対動きベクトル演算部14と、物体認識処理部15と、を備える。 As illustrated, the control device 20 includes a self-position calculation section 11, an object relative position calculation section 13, a relative motion vector calculation section 14, and an object recognition processing section 15.

自己位置演算部11は、外部通信機2を介して取得した車両10の位置情報に基づいて、周辺センサ1の位置及びそのセンサ方向をグローバル座標系又は自己位置計測方法による定まった座標系(絶対座標系)で表した値を演算する。 Based on the position information of the vehicle 10 acquired via the external communication device 2, the self-position calculation unit 11 calculates the position of the surrounding sensor 1 and its sensor direction using a global coordinate system or a fixed coordinate system (absolute) based on the self-position measurement method. Calculate the value expressed in the coordinate system).

より詳細には、自己位置演算部11は、GPSで特定可能な車両10の位置情報と、予め定められた車両10上における周辺センサ1の位置情報及びその向きとから、絶対座標系における周辺センサ1の位置座標及びセンサ方向を演算する。 More specifically, the self-position calculation unit 11 calculates the surrounding sensor in the absolute coordinate system based on the position information of the vehicle 10 that can be specified by GPS, and the predetermined position information and direction of the surrounding sensor 1 on the vehicle 10. 1's position coordinates and sensor direction are calculated.

なお、周辺センサ1の位置座標及びセンサ方向は、車両10の位置及び向きに対して既知の値を加算又は減算することにより得られる。したがって、以下では、説明の簡略化のため、これらを同一視する。 Note that the position coordinates and sensor direction of the peripheral sensor 1 are obtained by adding or subtracting known values to or from the position and orientation of the vehicle 10. Therefore, in the following, these will be treated as the same for the purpose of simplifying the explanation.

特に、以下では、絶対座標系における周辺センサ1の位置座標を、車両10の位置座標と同一視して「車両絶対座標(X,Y)」と称する。また、絶対座標系における周辺センサ1のセンサ方向を、車両10の向きと同一視しつつこれを定量化した「車両絶対方向角A」と称する。特に、本実施形態の車両絶対方向角Aは、絶対座標系において固定された所定の基準方向(例えば北方向)と車両10の向きのなす角として定義される。 Particularly, hereinafter, the position coordinates of the peripheral sensor 1 in the absolute coordinate system will be referred to as "vehicle absolute coordinates (X, Y)" as the same as the position coordinates of the vehicle 10. Further, the sensor direction of the peripheral sensor 1 in the absolute coordinate system is equated with the direction of the vehicle 10, and this is quantified and referred to as "vehicle absolute direction angle A." In particular, the vehicle absolute direction angle A of this embodiment is defined as the angle formed by the direction of the vehicle 10 and a predetermined reference direction (for example, the north direction) fixed in the absolute coordinate system.

さらに、以下では、必要に応じて、第1車両10-1の車両絶対座標(X,Y)及び車両絶対方向角Aをそれぞれ「第1車両絶対座標(X1,Y1)」及び「第1車両絶対方向角A1」と称する。また、第2車両10-2の車両絶対座標(X,Y)及び車両絶対方向角Aをそれぞれ「第2車両絶対座標(X2,Y2)」及び「第2車両絶対方向角A2」と称する。 Furthermore, below, as necessary, the vehicle absolute coordinates (X, Y) and the vehicle absolute direction angle A of the first vehicle 10-1 will be referred to as "first vehicle absolute coordinates (X 1 , Y 1 )" and "first vehicle absolute coordinates (X 1 , Y 1 )," respectively. 1 vehicle absolute direction angle A 1 ". Further, the vehicle absolute coordinates (X, Y) and the vehicle absolute direction angle A of the second vehicle 10-2 are respectively "second vehicle absolute coordinates (X 2 , Y 2 )" and "second vehicle absolute direction angle A 2 ". It is called.

物体相対位置演算部13は、周辺センサ1で検出される周辺情報に基づいて、車両10から見た周囲物体Oの相対的な位置情報を演算する。より詳細に、物体相対位置演算部13は、車両10の位置を原点とする座標系(以下、「車両座標系」称する)における周囲物体Oの位置(以下、「物体相対座標(u,w)」とも称する)を演算する。なお、以下では、特に、第1車両10-1の車両座標系を「第1車両座標系」と称し、第2車両10-2の車両座標系を「第2車両座標系」と称する。 The object relative position calculation unit 13 calculates relative position information of the surrounding object O as seen from the vehicle 10 based on the surrounding information detected by the surrounding sensor 1. More specifically, the object relative position calculation unit 13 calculates the position of the surrounding object O (hereinafter referred to as ``object relative coordinates (u, w)'' in a coordinate system having the position of the vehicle 10 as its origin (hereinafter referred to as ``vehicle coordinate system''). ) is calculated. Note that, hereinafter, the vehicle coordinate system of the first vehicle 10-1 will be particularly referred to as the "first vehicle coordinate system" and the vehicle coordinate system of the second vehicle 10-2 will be referred to as the "second vehicle coordinate system."

例えば、周辺センサ1の周辺情報としてカメラの撮像画像が取得される場合、物体相対位置演算部13は、当該撮像画像に対して所定の物体認識処理を実行することで撮像画像上における周囲物体Oの3次元位置(画像横方向の位置、画像面前後方向の位置、及び画像縦方向の位置)を演算する。 For example, when a captured image of a camera is acquired as the peripheral information of the peripheral sensor 1, the object relative position calculation unit 13 performs a predetermined object recognition process on the captured image to detect surrounding objects O on the captured image. The three-dimensional position (position in the horizontal direction of the image, position in the front-rear direction of the image plane, and position in the vertical direction of the image) is calculated.

より詳細には、物体相対位置演算部13は、例えば、画像中心位置(車両10の位置)を原点として設定した座標系により、画像上における周囲物体Oの3次元位置座標を演算する。特に、物体相対位置演算部13は、周囲物体Oの画像面前後方向の位置座標を、撮像画像に含まれている周囲物体Oの部位に対応する画素領域における視差を演算することにより特定する。そして、物体相対位置演算部13は、演算した画像上における周囲物体Oの3次元位置座標を実空間上の車両座標系で表した物体相対座標(u,w)を求める。 More specifically, the object relative position calculation unit 13 calculates the three-dimensional position coordinates of the surrounding object O on the image using, for example, a coordinate system set with the image center position (position of the vehicle 10) as the origin. In particular, the object relative position calculation unit 13 specifies the positional coordinates of the surrounding object O in the front-rear direction of the image plane by calculating the parallax in the pixel region corresponding to the part of the surrounding object O included in the captured image. Then, the object relative position calculation unit 13 calculates object relative coordinates (u, w) representing the three-dimensional position coordinates of the surrounding object O on the calculated image in the vehicle coordinate system in real space.

一方、周辺情報としてレーダー又はライダーの検出結果が取得される場合には、当該検出結果(反射波)から特定可能な周囲物体Oの反射点の点群の形状及び大きさなどに基づいて、周囲物体Oの物体相対座標(u,w)を求めることができる。 On the other hand, when radar or lidar detection results are acquired as surrounding information, the surroundings are determined based on the shape and size of the reflection points of surrounding objects O that can be identified from the detection results (reflected waves). The object relative coordinates (u, w) of the object O can be determined.

なお、以下では、特に、第1車両10-1の物体相対位置演算部13により演算される物体相対座標(u,w)を「第1物体相対座標(u1,w1)」と称する。一方、第2車両10-2の物体相対位置演算部13により演算される物体相対座標(u,w)を「第2物体相対座標(u2,w2)」と称する。 Hereinafter, the object relative coordinates (u, w) calculated by the object relative position calculation unit 13 of the first vehicle 10-1 will be particularly referred to as "first object relative coordinates (u 1 , w 1 )." On the other hand, the object relative coordinates (u, w) calculated by the object relative position calculation unit 13 of the second vehicle 10-2 are referred to as "second object relative coordinates (u 2 , w 2 )."

次に、相対動きベクトル演算部14について説明する。相対動きベクトル演算部14は、周辺センサ1で検出される周辺情報に基づいて、周囲物体Oの相対動きベクトル(vu,vw)及びその方向成分を定量化した相対動きベクトル方向角vbを演算する。 Next, the relative motion vector calculation section 14 will be explained. The relative motion vector calculation unit 14 calculates a relative motion vector (vu, vw) of the surrounding object O and a relative motion vector direction angle vb that quantifies its directional component, based on the peripheral information detected by the peripheral sensor 1. .

ここで、本実施形態における「動きベクトル」とは、所定の観測点の位置座標の時間変化を表すベクトル量(すなわち、観測点の運動の速度ベクトル)を意味する。したがって、周囲物体Oの相対動きベクトル(vu,vw)とは、車両座標系で表示した周囲物体Oの動きベクトルを意味する。また、相対動きベクトル方向角vbは、車両座標系において、車両10の向き(すなわち、周辺センサ1のセンサ方向)と相対動きベクトル(vu,vw)とのなす角として定義される。 Here, the term "motion vector" in this embodiment means a vector quantity representing a temporal change in the position coordinates of a predetermined observation point (that is, a velocity vector of the movement of the observation point). Therefore, the relative motion vector (vu, vw) of the surrounding object O means the motion vector of the surrounding object O expressed in the vehicle coordinate system. Further, the relative motion vector direction angle vb is defined as the angle formed by the direction of the vehicle 10 (that is, the sensor direction of the peripheral sensor 1) and the relative motion vector (vu, vw) in the vehicle coordinate system.

特に、相対動きベクトル演算部14は、複数の検出周期における周辺センサ1の周辺情報から得られる車両10の位置情報を用いて、相対動きベクトル(vu,vw)及び相対動きベクトル方向角vbを演算する。 In particular, the relative motion vector calculation unit 14 calculates the relative motion vector (vu, vw) and the relative motion vector direction angle vb using the position information of the vehicle 10 obtained from the peripheral information of the peripheral sensor 1 in a plurality of detection cycles. do.

より具体的に説明する。例えば、周辺センサ1の周辺情報としてカメラの撮像画像が取得される場合、相対動きベクトル演算部14は、ある検出時刻T1で検出された撮像画像における周囲物体Oの少なくとも一部を構成する点集合(画素集合)から、比較的追跡が容易な特徴を持つ特徴点を抽出し、この特徴点の画像上における3次元位置座標を特定する。 This will be explained more specifically. For example, when a captured image of a camera is acquired as peripheral information of the peripheral sensor 1, the relative motion vector calculation unit 14 calculates a set of points constituting at least a part of the surrounding object O in the captured image detected at a certain detection time T1. A feature point having a feature that is relatively easy to track is extracted from the (pixel set), and the three-dimensional position coordinates of this feature point on the image are specified.

次に、相対動きベクトル演算部14は、次の検出周期に相当する検出時刻T2において、適宜マッチング処理を施して検出時刻T1で抽出されたものと共通する特徴点を抽出し、その3次元位置座標を特定する。そして、相対動きベクトル演算部14は、検出時刻T1で得られた3次元位置座標と検出時刻T2で得られた3次元位置座標の差分を検出周期で除して3次元動きベクトルを演算する。さらに、相対動きベクトル演算部14は、この3次元動きベクトルを実空間上の車両座標系に変換することで相対動きベクトル(vu,vw)を求める。なお、相対動きベクトル演算部14は、相対動きベクトル(vu,vw)の座標軸(車両座標系上の座標軸)とのなす角を相対動きベクトル方向角vbとして演算する。 Next, at a detection time T2 corresponding to the next detection cycle, the relative motion vector calculation unit 14 performs matching processing as appropriate to extract feature points common to those extracted at the detection time T1, and extracts the feature points in common with those extracted at the detection time T1, and the three-dimensional position thereof. Identify coordinates. Then, the relative motion vector calculation unit 14 calculates a three-dimensional motion vector by dividing the difference between the three-dimensional position coordinates obtained at the detection time T1 and the three-dimensional position coordinates obtained at the detection time T2 by the detection period. Further, the relative motion vector calculation unit 14 obtains relative motion vectors (vu, vw) by converting this three-dimensional motion vector into a vehicle coordinate system in real space. Note that the relative motion vector calculation unit 14 calculates the angle formed between the relative motion vectors (vu, vw) and the coordinate axes (coordinate axes on the vehicle coordinate system) as the relative motion vector direction angle vb.

一方、周辺情報としてレーダー又はライダーの検出結果が取得される場合には、相対動きベクトル演算部14は、当該検出結果(反射波)から特定可能な周囲物体Oの反射点の点群を抽出する。そして、相対動きベクトル演算部14は、検出周期の経過における点群位置の変化(検出時刻T1と検出時刻T2の間の点群位置の変化)を求め、これを車両座標系で表示することで相対動きベクトル(vu,vw)を演算することができる。 On the other hand, when radar or lidar detection results are acquired as peripheral information, the relative motion vector calculation unit 14 extracts a point group of reflection points of the surrounding object O that can be identified from the detection results (reflected waves). . Then, the relative motion vector calculation unit 14 obtains a change in the point group position over the course of the detection period (a change in the point group position between detection time T1 and detection time T2), and displays this in the vehicle coordinate system. Relative motion vectors (vu, vw) can be calculated.

なお、以下では、動きベクトルの演算において抽出された特徴点の位置は上記観測された周囲物体Oの位置と同一であっていずれも物体相対座標(u,w)で表されるものとし、これを「観測点Cr」と称する。特に、第1車両10-1の観測点Crを「第1観測点Cr1」、及び第2車両10-2の観測点Crを「第2観測点Cr2」と称する。 In the following, it is assumed that the position of the feature point extracted in the motion vector calculation is the same as the position of the observed surrounding object O, and both are expressed in object relative coordinates (u, w). is called "observation point Cr". In particular, the observation point Cr of the first vehicle 10-1 will be referred to as a "first observation point Cr 1 ", and the observation point Cr of the second vehicle 10-2 will be referred to as a "second observation point Cr 2 ".

さらに、第1車両10-1の相対動きベクトル演算部14により演算される相対動きベクトル(vu,vw)及び相対動きベクトル方向角vbをそれぞれ「第1相対動きベクトル(vu1,vw1)」及び「第1相対動きベクトル方向角vb1」と称する。一方、第2車両10-2の相対動きベクトル演算部14により演算される相対動きベクトル(vu,vw)及び相対動きベクトル方向角vbをそれぞれ「第2相対動きベクトル(vu2,vw2)」及び「第2相対動きベクトル方向角vb2」と称する。 Further, the relative motion vectors (vu, vw) and the relative motion vector direction angle vb calculated by the relative motion vector calculation unit 14 of the first vehicle 10-1 are respectively referred to as "first relative motion vectors (vu 1 , vw 1 )". and “first relative motion vector direction angle vb 1 ”. On the other hand, the relative motion vectors (vu, vw) and the relative motion vector direction angle vb calculated by the relative motion vector calculation unit 14 of the second vehicle 10-2 are respectively referred to as "second relative motion vectors (vu 2 , vw 2 )". and “second relative motion vector direction angle vb 2 ”.

次に、物体認識処理部15について説明する。物体認識処理部15は、自己位置演算部11によって演算された車両絶対座標(X,Y)及び車両絶対方向角Aと、物体相対位置演算部13により演算された物体相対座標(u,w)と、相対動きベクトル演算部14により演算された相対動きベクトル(vu,vw)及び相対動きベクトル方向角vbと、に基づいて、第1車両10-1により観測される第1周囲物体O1と第2車両10-2により観測される第2周囲物体O2との間の同一性を判定する処理を行う。 Next, the object recognition processing section 15 will be explained. The object recognition processing section 15 uses vehicle absolute coordinates (X, Y) and vehicle absolute direction angle A calculated by the self-position calculation section 11 and object relative coordinates (u, w) calculated by the object relative position calculation section 13. , the relative motion vector (vu, vw) and the relative motion vector direction angle vb computed by the relative motion vector computation unit 14, the first surrounding object O1 observed by the first vehicle 10-1 and the A process is performed to determine the identity between the second surrounding object O2 observed by the second vehicle 10-2.

なお、本実施形態において、物体認識処理部15は第2車両10-2にのみ設けられることを前提とする。したがって、第2車両10-2の物体認識処理部15は、第1観測情報を公知の車車間通信などにより、第1車両10-1で演算される上述の第1車両絶対座標(X1,Y1)、第1車両絶対方向角A1、第1物体相対座標(u1,w1)、第1相対動きベクトル(vu1,vw1)、及び第1相対動きベクトル方向角vb1を取得する。 In this embodiment, it is assumed that the object recognition processing section 15 is provided only in the second vehicle 10-2. Therefore, the object recognition processing unit 15 of the second vehicle 10-2 uses the first observation information through known vehicle-to-vehicle communication or the like to obtain the above-mentioned first vehicle absolute coordinates (X 1 , Y 1 ), the first vehicle absolute direction angle A 1 , the first object relative coordinates (u 1 , w 1 ), the first relative motion vector (vu 1 , vw 1 ), and the first relative motion vector direction angle vb 1 . get.

より具体的に、物体認識処理部15は、座標統一部24と、同一物体判定処理部25と、物体統合処理部26と、を有している。 More specifically, the object recognition processing section 15 includes a coordinate unification section 24, an identical object determination processing section 25, and an object integration processing section 26.

座標統一部24は、上述した第1車両10-1において演算される第1周囲物体O1の相対位置及び相対動きベクトルと、第2車両10-2において演算される第2周囲物体O2の相対位置及び相対動きベクトルと、を共通の座標系である絶対座標系に変換する。 The coordinate unification unit 24 calculates the relative position and relative motion vector of the first surrounding object O1 in the first vehicle 10-1 and the relative position of the second surrounding object O2 calculated in the second vehicle 10-2. and the relative motion vector into a common coordinate system, which is an absolute coordinate system.

同一物体判定処理部25は、座標統一部24において共通の座標系に変化された各位置情報及び動きベクトル情報に基づいて、第1車両10-1により観測されている第1周囲物体O1と第2車両10-2により観測されている第2周囲物体O2の同一性を判定する。 The same object determination processing unit 25 identifies the first surrounding object O1 observed by the first vehicle 10-1 and the first surrounding object O1 observed by the first vehicle 10-1 based on the respective position information and motion vector information changed into a common coordinate system in the coordinate unification unit 24. The identity of the second surrounding object O2 observed by the second vehicle 10-2 is determined.

物体統合処理部26は、同一物体判定処理部25で同一と判断された第1周囲物体O1及び第2周囲物体O2を同一の周囲物体Oとして統合する処理を行う。さらに、物体統合処理部26は、第2車両10-2の制御装置20-2又は外部に保持する所定のマップに、第1周囲物体O1及び第2周囲物体O2を同一の周囲物体Oとして統合した旨を反映することで当該マップの情報を更新する。 The object integration processing section 26 performs a process of integrating the first surrounding object O1 and the second surrounding object O2, which are determined to be the same by the same object determination processing section 25, as the same surrounding object O. Further, the object integration processing unit 26 integrates the first surrounding object O1 and the second surrounding object O2 as the same surrounding object O into a predetermined map held in the control device 20-2 of the second vehicle 10-2 or externally. The information on the map will be updated to reflect this fact.

なお、座標統一部24、同一物体判定処理部25、及び物体統合処理部26の処理については後により詳細に説明する。次に、上記各構成を備えた物体認識装置を構成する車両10において実行される物体認識方法の流れについて説明する。 Note that the processing of the coordinate unification section 24, the same object determination processing section 25, and the object integration processing section 26 will be explained in more detail later. Next, the flow of the object recognition method executed in the vehicle 10 that constitutes the object recognition device having each of the above configurations will be described.

図3は、本実施形態の物体認識方法を説明するフローチャートである。なお、以下で説明する各処理は、車両10の制御装置20(特に第2車両10-2の制御装置20-2)により、所定の演算周期で繰り返し実行される。 FIG. 3 is a flowchart illustrating the object recognition method of this embodiment. Note that each process described below is repeatedly executed at a predetermined calculation cycle by the control device 20 of the vehicle 10 (particularly the control device 20-2 of the second vehicle 10-2).

ステップS100において、制御装置20-2は位置及び動きベクトル取得処理を実行する。具体的に、制御装置20-2は、上述の第1車両10-1で演算された第1車両絶対座標(X1,Y1)、第1車両絶対方向角A1、第1物体相対座標(u1,w1)、第1相対動きベクトル(vu1,vw1)、及び第1相対動きベクトル方向角vb1を第1車両10-1の制御装置20-1から取得する。 In step S100, the control device 20-2 executes position and motion vector acquisition processing. Specifically, the control device 20-2 calculates the first vehicle absolute coordinates (X 1 , Y 1 ), the first vehicle absolute direction angle A 1 , and the first object relative coordinates calculated by the first vehicle 10-1. (u 1 , w 1 ), the first relative motion vector (vu 1 , vw 1 ), and the first relative motion vector direction angle vb 1 are obtained from the control device 20-1 of the first vehicle 10-1.

また、制御装置20-2は、自ら第2車両絶対座標(X2,Y2)、第2車両絶対方向角A2、第2物体相対座標(u2,w2)、第2相対動きベクトル(vu2,vw2)、及び第2相対動きベクトル方向角vb2を演算する。 Further, the control device 20-2 automatically determines the second vehicle absolute coordinates (X 2 , Y 2 ), the second vehicle absolute direction angle A 2 , the second object relative coordinates (u 2 , w 2 ), and the second relative motion vector. (vu 2 , vw 2 ) and a second relative motion vector direction angle vb 2 .

ステップS200において、制御装置20-2は、座標統一処理を実行する。具体的に、制御装置20-2は、第1物体相対座標(u1,w1)、第1相対動きベクトル(vu1,vw1)、第1相対動きベクトル方向角vb1、第2車両絶対方向角A2、第2物体相対座標(u2,w2)、第2相対動きベクトル(vu2,vw2)、及び第2相対動きベクトル方向角vb2を絶対座標系上の表示に変換する。 In step S200, the control device 20-2 executes coordinate unification processing. Specifically, the control device 20-2 controls the first object relative coordinates (u 1 , w 1 ), the first relative motion vector (vu 1 , vw 1 ), the first relative motion vector direction angle vb 1 , and the second vehicle The absolute direction angle A 2 , the second object relative coordinates (u 2 , w 2 ), the second relative motion vector (vu 2 , vw 2 ), and the second relative motion vector direction angle vb 2 are displayed on the absolute coordinate system. Convert.

なお、以下の絶対座標系への変換に係る説明は簡略化のため、上記第1車両10-1及び第2車両10-2の各相対座標、動きベクトル、及び動きベクトル方向を包括して車両絶対座標(X,Y)、車両絶対方向角A、物体相対座標(u,w)、相対動きベクトル(vu,vw)、及び相対動きベクトル方向角vbとする。 For the sake of simplicity, the following explanation regarding conversion to an absolute coordinate system includes the relative coordinates, motion vectors, and motion vector directions of the first vehicle 10-1 and the second vehicle 10-2. Let absolute coordinates (X, Y), vehicle absolute direction angle A, object relative coordinates (u, w), relative motion vector (vu, vw), and relative motion vector direction angle vb.

また、物体相対座標(u,w)、相対動きベクトル(vu,vw)、及び相対動きベクトル方向角vbの絶対座標系への変換後の値を、それぞれ、「物体絶対座標(U,W)」、「絶対動きベクトル(VU,VW)」、及び「絶対動きベクトル方向角VB」と称する。 In addition, the values of object relative coordinates (u, w), relative motion vector (vu, vw), and relative motion vector direction angle vb after conversion to the absolute coordinate system are respectively expressed as "object absolute coordinates (U, W)". ”, “absolute motion vector (VU, VW)”, and “absolute motion vector direction angle VB”.

図4は、相対座標から絶対座標への座標変換の概要を説明する図である。なお、図4において、車両の向きを点線矢印で示し、動きベクトルの向きを一点鎖線で示す。さらに、車両10の位置から周囲物体Oの観測点Crに向かう方向(以下、「観測方向DO」)とも称する。特に、第1車両10-1の位置から第1周囲物体O1の第1観測点Cr1に向かう方向を「第1観測方向DO1」と称する。第2車両10-2の位置から第2周囲物体O2の第2観測点Cr2に向かう方向を「第2観測方向DO2」と称する。 FIG. 4 is a diagram illustrating an overview of coordinate transformation from relative coordinates to absolute coordinates. In addition, in FIG. 4, the direction of the vehicle is shown by a dotted line arrow, and the direction of a motion vector is shown by a chain line. Furthermore, it is also referred to as a direction from the position of the vehicle 10 toward the observation point Cr of the surrounding object O (hereinafter, "observation direction DO"). In particular, the direction from the position of the first vehicle 10-1 toward the first observation point Cr 1 of the first surrounding object O1 is referred to as a "first observation direction DO 1 ." The direction from the position of the second vehicle 10-2 toward the second observation point Cr 2 of the second surrounding object O2 is referred to as a "second observation direction DO 2 ."

図示のように、絶対座標系(図4におけるX-Y座標平面)は、車両座標系(図4におけるx-y座標平面)に対して車両絶対座標(X,Y)分の平行移動及び車両絶対方向角A相当の逆回転変換を施した関係となる。 As shown in the figure, the absolute coordinate system (XY coordinate plane in FIG. 4) allows for parallel movement of the vehicle absolute coordinates (X, Y) with respect to the vehicle coordinate system (xy coordinate plane in FIG. 4), and The relationship is obtained by performing inverse rotational transformation corresponding to the absolute direction angle A.

したがって、制御装置20-2は、物体絶対座標(U,W)を以下の式(1)により求める。 Therefore, the control device 20-2 determines the object absolute coordinates (U, W) using the following equation (1).

Figure 0007382799000001
Figure 0007382799000001

なお、式(1)の第1式の右辺第2項の行列は、逆回転変換、すなわち回転角を「-A」とした場合の回転変換に相当する。 Note that the matrix of the second term on the right side of the first equation of equation (1) corresponds to inverse rotational transformation, that is, rotational transformation when the rotation angle is set to "-A".

次に、動きベクトルの変換について説明する。動きベクトルは、時間当たりの周囲物体Oの位置変化であるため、車両座標系から絶対座標系への変換に際して平行移動成分に相当する車両絶対座標(X,Y)の項は含まれない。このため、絶対動きベクトル(VU,VW)は、相対動きベクトル(vu,vw)に対して車両絶対方向角A相当の逆回転変換を施した項のみで表すことができる。 Next, motion vector conversion will be explained. Since the motion vector is a change in the position of the surrounding object O per time, the term of the vehicle absolute coordinates (X, Y) corresponding to the parallel movement component is not included when converting from the vehicle coordinate system to the absolute coordinate system. Therefore, the absolute motion vector (VU, VW) can be expressed only by a term obtained by subjecting the relative motion vector (vu, vw) to an inverse rotational transformation corresponding to the vehicle absolute direction angle A.

具体的に、制御装置20-2は、絶対動きベクトル(VU,VW)を以下の式(2)により求める。 Specifically, the control device 20-2 calculates the absolute motion vector (VU, VW) using the following equation (2).

Figure 0007382799000002
Figure 0007382799000002

さらに、図4から明らかなように、絶対動きベクトル方向角VBは、車両絶対方向角Aと相対動きベクトル方向角vbの和に等しい。このため、制御装置20-2は、絶対動きベクトル方向角VBを以下の式(3)により求める。

Figure 0007382799000003
Furthermore, as is clear from FIG. 4, the absolute motion vector direction angle VB is equal to the sum of the vehicle absolute direction angle A and the relative motion vector direction angle Vb. Therefore, the control device 20-2 determines the absolute motion vector direction angle VB using the following equation (3).
Figure 0007382799000003

なお、以下では必要に応じて、第1車両10-1の物体絶対座標(U,W)、絶対動きベクトル(VU,VW)、及び絶対動きベクトル方向角VBをそれぞれ、「第1物体絶対座標(V1,W1)」、「第1絶対動きベクトル(VU1,VW1)」、及び「第1絶対動きベクトル方向角VB1」と称する。 In the following, the object absolute coordinates (U, W), absolute motion vector (VU, VW), and absolute motion vector direction angle VB of the first vehicle 10-1 will be referred to as "first object absolute coordinates" as necessary. (V 1 , W 1 ),” “first absolute motion vector (VU 1 , VW 1 ),” and “first absolute motion vector direction angle VB 1 .”

また、第2車両10-2の物体絶対座標(U,W)、絶対動きベクトル(VU,VW)、及び絶対動きベクトル方向角VBをそれぞれ、「第2物体絶対座標(U2,W2)」、「第2絶対動きベクトル(VU2,VW2)」、及び「第2絶対動きベクトル方向角VB2」と称する。 Further, the object absolute coordinates (U, W), absolute motion vector (VU, VW), and absolute motion vector direction angle VB of the second vehicle 10-2 are respectively expressed as "second object absolute coordinates (U 2 , W 2 )". ", "second absolute motion vector (VU 2 , VW 2 )", and "second absolute motion vector direction angle VB 2 ".

図3に戻り、ステップS300において、制御装置20-2は、同一物体判定処理を実行する。 Returning to FIG. 3, in step S300, the control device 20-2 executes identical object determination processing.

図5は、本実施形態の同一物体候補抽出処理を説明するフローチャートである。 FIG. 5 is a flowchart illustrating the same object candidate extraction process of this embodiment.

図示のように、同一物体候補抽出処理では、先ずステップS310において、制御装置20-2は、同一物体候補を抽出する処理を行う。 As shown in the figure, in the same object candidate extraction process, first in step S310, the control device 20-2 performs a process to extract the same object candidates.

具体的に、制御装置20-2は、第1車両10-1において複数の第1周囲物体O1が観測され、且つ第2車両10-2において複数の第2周囲物体O2が観測される場合に、これら内で現実的に相互に同一物体である可能性があるものを抽出する。 Specifically, when a plurality of first surrounding objects O1 are observed in the first vehicle 10-1 and a plurality of second surrounding objects O2 are observed in the second vehicle 10-2, the control device 20-2 , among these, those that may actually be the same object are extracted.

より詳細には、制御装置20-2は、複数の第1周囲物体O1と複数の第2周囲物体O2との任意の組み合わせに対して、絶対座標系における位置座標から両物体間の距離を演算する。そして、制御装置20-2は、この物体間距離が所定の距離閾値THs以下となる第1周囲物体O1及び第2周囲物体O2を同一物体候補として抽出する。 More specifically, the control device 20-2 calculates the distance between the plurality of first surrounding objects O1 and the plurality of second surrounding objects O2 from the position coordinates in the absolute coordinate system for any combination of both objects. do. Then, the control device 20-2 extracts the first surrounding object O1 and the second surrounding object O2 for which the inter-object distance is equal to or less than a predetermined distance threshold THs as identical object candidates.

なお、距離閾値THsは、相互に同一となる第1周囲物体O1及び第2周囲物体O2の抽出漏れを抑制する効果と、多数の同一物体候補を抽出して後の動きベクトル演算を実行することによる演算負荷の増大を回避する効果と、のバランスを考慮して好適な値に設定される。 Note that the distance threshold THs has the effect of suppressing the omission of extraction of the first surrounding object O1 and the second surrounding object O2 that are the same, and the effect of extracting a large number of identical object candidates and performing subsequent motion vector calculation. This is set to a suitable value in consideration of the balance between the effect of avoiding an increase in calculation load due to

次に、ステップS340において、制御装置20-2は、同一物体候補として抽出した第1周囲物体O1及び第2周囲物体O2のそれぞれの絶対動きベクトル(VU,VW)が規定の相関関係を満たすか否かを判定する。 Next, in step S340, the control device 20-2 determines whether the respective absolute motion vectors (VU, VW) of the first surrounding object O1 and the second surrounding object O2 extracted as the same object candidates satisfy a prescribed correlation. Determine whether or not.

ここで、本実施形態における規定の相関関係は、第1周囲物体O1及び第2周囲物体O2が相互に同一の物体であると判断できる程度にこれらの絶対動きベクトルの差が小さい関係として定められる。 Here, the prescribed correlation in this embodiment is defined as a relationship in which the difference in absolute motion vectors between the first surrounding object O1 and the second surrounding object O2 is small enough to determine that they are the same object. .

言い換えると、規定の相関関係は、第1絶対動きベクトル(VU1,VW1)と第2絶対動きベクトル(VU2,VW2)間における大きさの差(絶対値の差)、及びそれぞれの方向の差(第1絶対動きベクトル方向角VB1と第2絶対動きベクトル方向角VB2の差)の観点から定まる動きベクトル差ΔV12が、予め定められる動きベクトル差閾値THv以下となる関係として定められる。 In other words, the prescribed correlation is the difference in magnitude (difference in absolute value) between the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ), and As a relationship such that the motion vector difference ΔV 12 determined from the viewpoint of the difference in direction (the difference between the first absolute motion vector direction angle VB 1 and the second absolute motion vector direction angle VB 2 ) is equal to or less than a predetermined motion vector difference threshold THv. determined.

なお、動きベクトル差閾値THvは、周辺センサ1の計測系の性質、計測誤差、及び演算誤差などを考慮した上で、第1周囲物体O1及び第2周囲物体O2が相互に同一であると判断できる程度に、動きベクトル差ΔV12が0に近いか否かという観点から定められる。 The motion vector difference threshold THv is determined by determining that the first surrounding object O1 and the second surrounding object O2 are the same, taking into consideration the characteristics of the measurement system of the surrounding sensor 1, measurement errors, calculation errors, etc. It is determined from the viewpoint of whether the motion vector difference ΔV 12 is as close to 0 as possible.

特に、周辺センサ1で検出される周辺情報としてカメラの撮像画像が取得される場合、視差演算における誤差、カメラの画素数とレンズの画角から算出できる画素に対する角度の大きさ、及び上述した動きベクトル演算のための特徴点の追跡の際の計測誤差などを考慮して設定することが好ましい。 In particular, when an image captured by a camera is acquired as peripheral information detected by the peripheral sensor 1, errors in parallax calculation, the size of the angle to the pixel that can be calculated from the number of pixels of the camera and the angle of view of the lens, and the above-mentioned movement It is preferable to set this in consideration of measurement errors during tracking of feature points for vector calculation.

したがって、制御装置20-2は、動きベクトル差ΔV12が動きベクトル差閾値THvを越える場合に規定の相関関係を満たさないと判断し、ステップS360の処理に移行する。すなわち、この場合、制御装置20-2は、第1周囲物体O1及び第2周囲物体O2が相互に同一物体ではないと判断して本処理を終了する。 Therefore, if the motion vector difference ΔV 12 exceeds the motion vector difference threshold THv, the control device 20-2 determines that the prescribed correlation is not satisfied, and proceeds to the process of step S360. That is, in this case, the control device 20-2 determines that the first surrounding object O1 and the second surrounding object O2 are not the same object, and ends this process.

一方、制御装置20-2は、動きベクトル差ΔV12が動きベクトル差閾値THv以下の場合に規定の相関関係を満たすと判断し、ステップS350の処理を実行する。すなわち、この場合、制御装置20-2は、第1周囲物体O1及び第2周囲物体O2が相互に同一物体であると判断して、ステップS400の処理に移行する。 On the other hand, the control device 20-2 determines that the prescribed correlation is satisfied when the motion vector difference ΔV 12 is less than or equal to the motion vector difference threshold THv, and executes the process of step S350. That is, in this case, the control device 20-2 determines that the first surrounding object O1 and the second surrounding object O2 are the same object, and proceeds to the process of step S400.

図3に戻り、ステップS400において、制御装置20-2は、統合処理を実行する。具体的に、制御装置20-2は、第1周囲物体O1及び第2周囲物体O2を同一の周囲物体Oとして出力装置3を介してマップ情報を更新する。なお、この場合、マップ情報に実際に反映させる周囲物体Oの情報は、第1車両10-1の周辺センサ1と第2車両10-2の周辺センサ1の内のより精度の高い側で取得された情報を採用することが好ましい。 Returning to FIG. 3, in step S400, the control device 20-2 executes integration processing. Specifically, the control device 20-2 updates the map information via the output device 3 by treating the first surrounding object O1 and the second surrounding object O2 as the same surrounding object O. In this case, the information on the surrounding objects O that is actually reflected in the map information is acquired by the more accurate one of the surrounding sensor 1 of the first vehicle 10-1 and the surrounding sensor 1 of the second vehicle 10-2. It is preferable to use the information provided.

以上説明した物体認識方法を具体的なシーンに適用した例について説明する。 An example in which the object recognition method described above is applied to a specific scene will be described.

図6は、物体認識方法を具体的なシーンに適用した例について説明する図である。 FIG. 6 is a diagram illustrating an example in which the object recognition method is applied to a specific scene.

特に、図6では、相互に反対車線を走行する第1車両10-1及び第2車両10-2が道路上における周囲物体O(車両10以外の車両、道路上の障害物、又は歩行者など)を観測するシーンを想定している。なお、図6においては4つの周囲物体Oが第1車両10-1及び第2車両10-2の周辺に存在する例を示し、これらにそれぞれ「a」、「c」、及び「d」の符号を付す。また、図6上においては、物体a、物体c、及び物体dの絶対動きベクトル(VU,VW)の方向を一点鎖線矢印で模式的に示している。 In particular, in FIG. 6, the first vehicle 10-1 and the second vehicle 10-2 traveling in opposite lanes are surrounded by surrounding objects O (vehicles other than the vehicle 10, obstacles on the road, pedestrians, etc.) on the road. ) is assumed to be observed. Note that FIG. 6 shows an example in which four surrounding objects O exist around the first vehicle 10-1 and the second vehicle 10-2, and these are marked with "a", "c", and "d", respectively. Attach a sign. Further, in FIG. 6, the directions of the absolute motion vectors (VU, VW) of object a, object c, and object d are schematically shown by dashed-dotted line arrows.

また、図6中の破線で示す円αは、物体cに着目した場合(特に、物体cの第2観測点Cr2に着目した場合)における上述のステップS310における同一物体候補を抽出するために定められる距離閾値THsの範囲を表す。すなわち、この円αは、第2観測点Cr2を中心とした半径が距離閾値THsに相当する円となる。 Furthermore, the circle α indicated by the broken line in FIG. 6 is used to extract identical object candidates in the above-mentioned step S310 when focusing on object c (especially when focusing on the second observation point Cr 2 of object c). It represents the range of the determined distance threshold THs. That is, this circle α is a circle whose radius is centered on the second observation point Cr 2 and corresponds to the distance threshold THs.

ここで、第1車両10-1は、第2車両10-2に対して反対車線で逆向きに走行している。このため、図6から明らかなように、第1車両10-1が物体cを観測する際に検出する第1観測点Cr1は、第2車両10-2が物体cを観測する際に検出する第2観測点Cr2と異なっている。 Here, the first vehicle 10-1 is traveling in the opposite direction to the second vehicle 10-2 in the opposite lane. Therefore, as is clear from FIG. 6, the first observation point Cr 1 detected when the first vehicle 10-1 observes the object c is detected when the second vehicle 10-2 observes the object c. It is different from the second observation point Cr 2 .

このため、同一の物体cであっても、第1車両10-1で観測される物体cの位置情報と第2車両10-2で観測される物体cの位置情報は相互に異なることとなる。したがって、第2車両10-2の制御装置20-2からみると、第1車両10-1から取得する物体cの観測情報と、自身が観測した物体cの観測情報が一致せず、これらが異なる物体であるとして認識されることが想定される。これに対して、同一物体であると判断するための第1観測点Cr1と第2観測点Cr2の間のずれの閾値を比較的大きくすることも考えられる。しかしながら、この場合には、第1車両10-1と第2車両10-2において実際には異なる物体を観測しているにもかかわらず、これらが同一の物体であると誤判断される可能性がある。 Therefore, even if the object c is the same, the position information of the object c observed by the first vehicle 10-1 and the position information of the object c observed by the second vehicle 10-2 are different from each other. . Therefore, from the viewpoint of the control device 20-2 of the second vehicle 10-2, the observation information of the object c acquired from the first vehicle 10-1 and the observation information of the object c observed by itself do not match. It is assumed that the objects will be recognized as different objects. On the other hand, it is also conceivable to set a relatively large threshold value for the deviation between the first observation point Cr 1 and the second observation point Cr 2 for determining that they are the same object. However, in this case, there is a possibility that the first vehicle 10-1 and the second vehicle 10-2 may be mistakenly determined to be the same object, even though they are actually observing different objects. There is.

このような状況に対して、本実施形態では物体の位置情報に加え、観測位置の違いには依存しない絶対動きベクトル(VU,VW)を参照することで、同一物体を異なる物体と判断する後認識を防止して、物体認識の精度をより向上させることができる。図6に示すシーンに当てはめてより具体的に説明する。 In response to this situation, in this embodiment, in addition to the position information of the object, absolute motion vectors (VU, VW) that do not depend on the difference in observation position are referred to. By preventing recognition, the accuracy of object recognition can be further improved. This will be explained in more detail by applying it to the scene shown in FIG.

先ず、同一物体候補(ステップS310)により、円αの外に存在する物体dは物体cに対する同一物体候補から除かれる。 First, in the same object candidates (step S310), the object d existing outside the circle α is removed from the same object candidates for the object c.

次に、物体c及び物体aの間における動きベクトル差ΔV12を動きベクトル差閾値THvと比較する判定(ステップS340)により、物体cは物体aと同一ではない判断される。 Next, by comparing the motion vector difference ΔV 12 between the object c and the object a with the motion vector difference threshold THv (step S340), it is determined that the object c is not the same as the object a.

より具体的に説明すると、第1車両10-1による物体aの第1観測点Cr1を追跡することで定められる第1絶対動きベクトル(VU1,VW1)が、第2車両10-2による物体cの第2観測点Cr2を追跡することで定められる第2絶対動きベクトル(VU2,VW2)と反対向き(より詳細には図上上下方向において相互に反対向き)となる。このため、物体cと物体aの間における動きベクトル差ΔV12(図6では絶対値の差)が動きベクトル差閾値THvを上回り、物体aと物体cは同一ではないと判断されることとなる(ステップS340のNo及びステップS360)。 More specifically, the first absolute motion vector (VU 1 , VW 1 ) determined by tracking the first observation point Cr 1 of the object a by the first vehicle 10-1 is The direction is opposite to the second absolute motion vector (VU 2 , VW 2 ) determined by tracking the second observation point Cr 2 of the object c (more specifically, the directions are opposite to each other in the vertical direction in the figure). Therefore, the motion vector difference ΔV 12 (absolute value difference in FIG. 6) between object c and object a exceeds the motion vector difference threshold THv, and it is determined that object a and object c are not the same. (No in step S340 and step S360).

一方、第1車両10-1による物体cの第1観測点Cr1を追跡することで定められる第1絶対動きベクトル(VU1,VW1)は、第2車両10-2による同じ物体cの第2観測点Cr2を追跡することで定められる第2絶対動きベクトル(VU2,VW2)と略一致する。 On the other hand, the first absolute motion vector (VU 1 , VW 1 ) determined by tracking the first observation point Cr 1 of the object c by the first vehicle 10-1 is the same as that of the same object c by the second vehicle 10-2. This substantially matches the second absolute motion vector (VU 2 , VW 2 ) determined by tracking the second observation point Cr 2 .

このため、物体cの第1観測点Cr1と第2観測点Cr2の間における動きベクトル差ΔV12は動きベクトル差閾値THvを下回る。すなわち、第1車両10-1により観測される第1観測点Cr1と第2車両10-2により観測される第2観測点Cr2は同一の物体cのものであると判断されることとなる(ステップS340のYes及びステップS350)。 Therefore, the motion vector difference ΔV 12 between the first observation point Cr 1 and the second observation point Cr 2 of the object c is less than the motion vector difference threshold THv. That is, it is determined that the first observation point Cr 1 observed by the first vehicle 10-1 and the second observation point Cr 2 observed by the second vehicle 10-2 belong to the same object c. (Yes in step S340 and step S350).

特に、図6に示す例においては、観測位置である第1車両10-1及び第2車両10-2が相対的に移動しているため、それぞれの立場から見た物体cの動きベクトルである第1相対動きベクトル(vu1,vw1)及び第2相対動きベクトル(vu2,vw2)は相互にずれることが想定される。しかしながら、これらを共通の座標系に変換した第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)であれば、上記各観測位置の相対移動の影響が含まれないため、物体同一性の判定を好適に実行することができる。 In particular, in the example shown in FIG. 6, since the first vehicle 10-1 and the second vehicle 10-2, which are the observation positions, are moving relatively, the motion vector of the object c as seen from each position is It is assumed that the first relative motion vector (vu 1 , vw 1 ) and the second relative motion vector (vu 2 , vw 2 ) are shifted from each other. However, if these are the first absolute motion vectors (VU 1 , VW 1 ) and second absolute motion vectors (VU 2 , VW 2 ) converted into a common coordinate system, the influence of the relative movement of each observation position is eliminated. Since it is not included, it is possible to suitably determine object identity.

以上説明した構成を有する本実施形態によれば、以下の作用効果を奏する。 According to this embodiment having the configuration described above, the following effects are achieved.

本実施形態では、複数の観測位置からそれぞれの周囲に存在する物体である周囲物体Oを認識する物体認識方法が提供される。 This embodiment provides an object recognition method for recognizing surrounding objects O, which are objects existing around each observation position, from a plurality of observation positions.

この物体認識方法では、第1観測位置(第1車両10-1)に対する第1周囲物体O1の相対位置である第1物体相対位置としての第1物体相対座標(u1,w1)、及び第1車両10-1を基準とした第1周囲物体O1の動きベクトルである第1相対動きベクトル(vu1,vw1)を取得し、第2観測位置(第2車両10-2)に対する第2周囲物体の相対位置である第2物体相対位置である第2物体相対座標(u2,w2)、及び第2車両10-2を基準とした第2周囲物体O2の動きベクトルである第2相対動きベクトル(vu2,vw2)を取得する(図3のステップS100)。そして、 In this object recognition method, first object relative coordinates (u 1 , w 1 ) as the first object relative position, which is the relative position of the first surrounding object O1 with respect to the first observation position (first vehicle 10-1), and A first relative motion vector (vu 1 , vw 1 ), which is a motion vector of the first surrounding object O1 with respect to the first vehicle 10-1, is obtained, and a first relative motion vector (vu 1 , vw 1 ) is obtained, and The second object relative coordinates (u 2 , w 2 ) are the relative positions of the second surrounding objects, and the second object relative coordinates (u 2 , w 2 ) are the relative positions of the second surrounding objects, and the second object relative coordinates (u 2 , w 2 ) are the relative positions of the second surrounding objects O2, and Two relative motion vectors (vu 2 , vw 2 ) are obtained (step S100 in FIG. 3). and,

そして、第1物体相対座標(u1,w1)、第1相対動きベクトル(vu1,vw1)、第2物体相対座標(u2,w2)、及び第2相対動きベクトル(vu2,vw2)に基づいて、第1周囲物体O1と第2周囲物体O2が同一であるか否かを判定する同一物体判定処理(図5のステップS300~ステップS360)を実行する。 Then, the first object relative coordinates (u 1 , w 1 ), the first relative motion vector (vu 1 , vw 1 ), the second object relative coordinates (u 2 , w 2 ), and the second relative motion vector (vu 2 , vw 2 ), the same object determination process (steps S300 to S360 in FIG. 5) is executed to determine whether the first surrounding object O1 and the second surrounding object O2 are the same.

これにより、第1周囲物体O1と第2周囲物体O2の物体同一性の判定が、第1観測位置及び第2観測位置から見たこれらの位置情報である第1物体相対座標(u1,w1)及び第2物体相対座標(u2,w2)に加え、各観測位置から見た第1相対動きベクトル(vu1,vw1)及び第2相対動きベクトル(vu2,vw2)に基づいて行われることとなる。ここで、第1周囲物体O1及び第2周囲物体O2が同一の周囲物体Oである場合、両観測位置からの周囲物体Oの観測点(第1観測点Cr1及び第2観測点Cr2)が異なっても、基本的に周囲物体Oの動き(並進運動)の軌跡を表す動きベクトルは不変である。すなわち、周囲物体Oの動きベクトルは位置情報とは異なり、観測位置の違いそれ自体に対しては影響を受けない。したがって、物体同一性の判定のあたり、周囲物体Oの動きベクトルを用いることによって、複数の観測位置から同一の周囲物体Oを観測しているにもかかわらず、これを異なる物体と誤認識するという事態の発生を抑制することができ、物体認識の精度がより向上する。 As a result, the object identity of the first surrounding object O1 and the second surrounding object O2 can be determined based on the first object relative coordinates (u 1 , w 1 ) and the second object relative coordinates (u 2 , w 2 ), as well as the first relative motion vector (vu 1 , vw 1 ) and the second relative motion vector (vu 2 , vw 2 ) seen from each observation position. This will be done based on the following. Here, if the first surrounding object O1 and the second surrounding object O2 are the same surrounding object O, the observation points of the surrounding object O from both observation positions (first observation point Cr 1 and second observation point Cr 2 ) Even if the values are different, the motion vector representing the trajectory of the movement (translational movement) of the surrounding object O is basically unchanged. That is, unlike position information, the motion vector of the surrounding object O is not affected by the difference in observation position itself. Therefore, when determining object identity, by using the motion vector of the surrounding object O, even though the same surrounding object O is observed from multiple observation positions, it may be mistakenly recognized as a different object. It is possible to suppress the occurrence of such situations, and the accuracy of object recognition is further improved.

特に、本実施形態の物体認識方法では、第1物体相対座標(u1,w1)、第1相対動きベクトル(vu1,vw1)、第2物体相対座標(u2,w2)、及び第2相対動きベクトル(vu2,vw2)をそれぞれ共通の座標系(絶対座標系)に変換して第1物体位置としての第1物体絶対座標(V1,W1)、第1動きベクトルとしての第1絶対動きベクトル(VU1,VW1)、第2物体位置としての第2物体絶対座標(U2,W2)、及び第2動きベクトルとしての第2絶対動きベクトル(VU2,VW2)を求める(図3のステップS200)。そして、同一物体判定処理では、第1物体絶対座標(V1,W1)、第1絶対動きベクトル(VU1,VW1)、第2物体絶対座標(U2,W2)、及び第2絶対動きベクトル(VU2,VW2)に基づいて第1周囲物体O1と第2周囲物体O2が同一であるか否かを判定する(図5のステップS310~ステップS360)。 In particular, in the object recognition method of this embodiment, the first object relative coordinates (u 1 , w 1 ), the first relative motion vector (vu 1 , vw 1 ), the second object relative coordinates (u 2 , w 2 ), and the second relative motion vectors (vu 2 , vw 2 ) are respectively converted into a common coordinate system (absolute coordinate system) to obtain the first object absolute coordinates (V 1 , W 1 ) as the first object position and the first movement. A first absolute motion vector (VU 1 , VW 1 ) as a vector, a second object absolute coordinate (U 2 , W 2 ) as a second object position, and a second absolute motion vector (VU 2 ) as a second motion vector. , VW 2 ) (step S200 in FIG. 3). In the same object determination process, the first object absolute coordinates (V 1 , W 1 ), the first absolute motion vector (VU 1 , VW 1 ), the second object absolute coordinates (U 2 , W 2 ), and the second Based on the absolute motion vectors (VU 2 , VW 2 ), it is determined whether the first surrounding object O1 and the second surrounding object O2 are the same (steps S310 to S360 in FIG. 5).

これにより、異なる観測位置でそれぞれ観測される第1周囲物体O1と第2周囲物体O2の位置及び動きベクトルの情報を、統一化された座標系で扱うことができる。このため、第1周囲物体O1と第2周囲物体O2の物体同一性の判定に係る処理の煩雑化を抑制することができる。 Thereby, information on the positions and motion vectors of the first surrounding object O1 and the second surrounding object O2, which are respectively observed at different observation positions, can be handled in a unified coordinate system. Therefore, it is possible to suppress the complexity of the process related to determining the object identity between the first surrounding object O1 and the second surrounding object O2.

さらに、第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の相互関係(それらの間の差)は、第1相対動きベクトル(vu1,vw1)及び第2相対動きベクトル(vu2,vw2)の相互関係とは異なり、各観測位置の相対移動に対しても不変となる。このため、観測位置を構成する第1車両10-1及び第2車両10-2自体が移動している場合であっても、物体同一性の判定を高精度に実行することができる。 Furthermore, the interrelationship (difference between them) of the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) is the first relative motion vector (vu 1 , vw 1 ) and the second relative motion vector (vu 2 , vw 2 ), it remains unchanged with respect to the relative movement of each observation position. Therefore, even if the first vehicle 10-1 and the second vehicle 10-2 constituting the observation position are moving, object identity determination can be performed with high accuracy.

したがって、特に、本実施形態のように、周辺状況を検出する周辺センサ1を備えた第1車両10-1及び第2車両10-2をそれぞれ第1観測位置及び第2観測位置に設定した観測系(特に、観測位置が移動する観測系)において、判定精度の向上に資することとなる。 Therefore, in particular, as in the present embodiment, observation is performed in which the first vehicle 10-1 and the second vehicle 10-2, which are equipped with the surrounding sensor 1 that detects the surrounding situation, are set at the first observation position and the second observation position, respectively. This contributes to improving the determination accuracy in systems (particularly in observation systems where the observation position moves).

また、本実施形態の物体認識方法において、上記同一物体判定処理では、第1物体絶対座標(V1,W1)及び第2物体絶対座標(U2,W2)の相互距離が所定閾値(距離閾値THs)以下となる第1周囲物体O1及び第2周囲物体O2を抽出する(図5のステップS310)。そして、抽出された第1周囲物体O1及び第2周囲物体O2が相互に同一であるか否かを、第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)に基づいて判定する(ステップS340~ステップS360)。 Further, in the object recognition method of the present embodiment, in the same object determination process, the mutual distance between the first object absolute coordinates (V 1 , W 1 ) and the second object absolute coordinates (U 2 , W 2 ) is a predetermined threshold ( A first surrounding object O1 and a second surrounding object O2 whose distance is less than or equal to a distance threshold THs are extracted (step S310 in FIG. 5). Then, it is determined whether the extracted first surrounding object O1 and second surrounding object O2 are the same as each other using the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) (steps S340 to S360).

すなわち、先ず、現実的に同一である可能性のある距離閾値THs以下として観測される第1周囲物体O1及び第2周囲物体O2を同一物体候補として抽出した上で、これらの動きベクトルに基づく物体同一性の判定が実行されることとなる。したがって、そもそも、観測された距離が相互に大きく離れていることで同一物体である可能性が低い第1周囲物体O1及び第2周囲物体O2に対しては、動きベクトルを用いた物体同一性の判定に係る処理を省略することができる。このため、第1周囲物体O1と第2周囲物体O2の同一性の精度を維持しつつ、制御装置20-2の演算負担を低減することができる。 That is, first, the first surrounding object O1 and the second surrounding object O2, which are observed to be less than or equal to the distance threshold THs, which may realistically be the same, are extracted as identical object candidates, and then the objects are extracted based on their motion vectors. A determination of identity will be performed. Therefore, in the first place, for the first surrounding object O1 and the second surrounding object O2, which are unlikely to be the same object because their observed distances are far apart from each other, object identity analysis using motion vectors is difficult. Processing related to determination can be omitted. Therefore, it is possible to reduce the calculation load on the control device 20-2 while maintaining the accuracy of the identity of the first surrounding object O1 and the second surrounding object O2.

さらに、本実施形態の物体認識方法では、抽出された第1周囲物体O1の第1絶対動きベクトル(VU1,VW1)及び第2周囲物体O2の第2絶対動きベクトル(VU2,VW2)が予め規定された相関関係を満たすか否かを判定する(図5のステップS340)。そして、第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)が上記相関関係を満たす場合と判断した場合に、第1周囲物体O1と第2周囲物体O2が同一であるとみなす(ステップS340のYes及びステップS350)。 Furthermore, in the object recognition method of this embodiment, the first absolute motion vector (VU 1 , VW 1 ) of the first surrounding object O1 and the second absolute motion vector (VU 2 , VW 2 ) of the second surrounding object O2 are extracted. ) satisfies a predefined correlation (step S340 in FIG. 5). Then, when it is determined that the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) satisfy the above correlation, the first surrounding object O1 and the second surrounding object It is assumed that O2 is the same (Yes in step S340 and step S350).

すなわち、種々の条件に応じて第1周囲物体O1と第2周囲物体O2を相互に同一と判断する観点からそれぞれの第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)が満たすべき好適な条件を相関関係として設定し、当該相関関係を満たすか否かにより物体同一性の判定が実行される。特に、周辺センサ1の計測系の性質、計測誤差、及び動きベクトルの演算誤差、及び上述の観測差角Δθなどの要因に応じて相関関係を定めることで、動きベクトルに基づく物体同一性の判定を現実の観測系により高精度に合致させることができる。 That is, from the viewpoint of determining that the first surrounding object O1 and the second surrounding object O2 are the same according to various conditions, the respective first absolute motion vectors (VU 1 , VW 1 ) and second absolute motion vectors (VU 2 , VW 2 ) is set as a correlation, and object identity is determined based on whether the correlation is satisfied. In particular, by determining the correlation according to factors such as the properties of the measurement system of the peripheral sensor 1, measurement errors, motion vector calculation errors, and the above-mentioned observation difference angle Δθ, object identity can be determined based on motion vectors. can be made to match the actual observation system with higher precision.

また、本実施形態の物体認識方法において、上記相関関係は、第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の差である動きベクトル差が所定の動きベクトル差閾値THv以下となる関係である。 Furthermore, in the object recognition method of the present embodiment, the above correlation is such that the motion vector difference, which is the difference between the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ), is a predetermined difference. The relationship is such that the motion vector difference threshold value THv is less than or equal to the motion vector difference threshold value THv.

上述のように、基本的に並進運動する周囲物体Oの動きベクトルは、第1車両10-1と第2車両10-2の間における第1観測点Cr1及び第2観測点Cr2の位置の違いに対しては不変である。このため、動きベクトル差を動きベクトル差閾値THv以下となるような関係を相関関係とすることによって、第1周囲物体O1と第2周囲物体O2の同一性を好適に判断することができる。特に、動きベクトル差閾値THvは基本的には0に近い値としつつも、センサ系の誤差等を適宜考慮した値とすることで、物体同一性の判定をより高精度にすることができる。 As mentioned above, the motion vector of the surrounding object O that basically moves in translation is the position of the first observation point Cr 1 and the second observation point Cr 2 between the first vehicle 10-1 and the second vehicle 10-2. It remains unchanged with respect to differences in . Therefore, by setting a correlation such that the motion vector difference is less than or equal to the motion vector difference threshold THv, it is possible to suitably determine the identity of the first surrounding object O1 and the second surrounding object O2. In particular, the motion vector difference threshold THv is basically set to a value close to 0, but the object identity can be determined with higher precision by setting it to a value that appropriately takes into account errors in the sensor system.

また、本実施形態によれば、上記物体認識方法を実行するための物体認識装置(第2車両10-2の制御装置20-2)が提供される。 Further, according to the present embodiment, an object recognition device (control device 20-2 of the second vehicle 10-2) for executing the object recognition method described above is provided.

そして、この制御装置20-2は、物体相対位置取得部(物体相対位置演算部13)と、相対動きベクトル取得部(相対動きベクトル演算部14)と、同一物体判定処理部(物体認識処理部15)と、を備える(図2参照)。 The control device 20-2 includes an object relative position acquisition section (object relative position calculation section 13), a relative motion vector acquisition section (relative motion vector calculation section 14), and an identical object determination processing section (object recognition processing section). 15) and (see FIG. 2).

物体相対位置演算部13は、第1観測位置(第1車両10-1)に対する第1周囲物体O1の相対位置である第1物体相対位置としての第1物体相対座標(u1,w1)、及び第2観測位置(第2車両10-2)に対する第2周囲物体の相対位置である第2物体相対位置である第2物体相対座標(u2,w2)を取得する。 The object relative position calculation unit 13 calculates first object relative coordinates (u 1 , w 1 ) as the first object relative position, which is the relative position of the first surrounding object O1 with respect to the first observation position (first vehicle 10-1). , and second object relative coordinates (u 2 , w 2 ) that are the second object relative position that is the relative position of the second surrounding object with respect to the second observation position (second vehicle 10-2).

相対動きベクトル演算部14は、第1車両10-1を基準とした第1周囲物体O1の動きベクトルである第1相対動きベクトル(vu1,vw1)、及び第2車両10-2を基準とした第2周囲物体O2の動きベクトルである第2相対動きベクトル(vu2,vw2)を取得する。 The relative motion vector calculation unit 14 calculates a first relative motion vector (vu 1 , vw 1 ) which is a motion vector of the first surrounding object O1 with the first vehicle 10-1 as a reference, and a first relative motion vector (vu 1 , vw 1 ) with the second vehicle 10-2 as a reference. A second relative motion vector (vu 2 , vw 2 ) that is a motion vector of the second surrounding object O2 is obtained.

そして、物体認識処理部15は、第1物体相対座標(u1,w1)、第1相対動きベクトル(vu1,vw1)、第2物体相対座標(u2,w2)、及び第2相対動きベクトル(vu2,vw2)に基づいて、第1周囲物体O1と第2周囲物体O2が同一であるか否かを判定する。 The object recognition processing unit 15 then generates the first object relative coordinates (u 1 , w 1 ), the first relative motion vector (vu 1 , vw 1 ), the second object relative coordinates (u 2 , w 2 ), and the Based on the two relative motion vectors (vu 2 , vw 2 ), it is determined whether the first surrounding object O1 and the second surrounding object O2 are the same.

これにより、本実施形態の物体認識方法を実行するための好適な制御構成(プログラム構成)が実現される。 Thereby, a suitable control configuration (program configuration) for executing the object recognition method of this embodiment is realized.

(第2実施形態)
以下、第2実施形態について説明する。なお、第1実施形態と同様の要素には同一の符号を付し、その説明を省略する。特に、本実施形態では、周囲物体Oが旋回動作を行っている場合において、第1周囲物体O1と第2周囲物体O2の同一性を判断する態様を説明する。
(Second embodiment)
The second embodiment will be described below. Note that the same elements as in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted. In particular, in this embodiment, a mode will be described in which the identity of the first surrounding object O1 and the second surrounding object O2 is determined when the surrounding object O is performing a turning motion.

図7は、本実施形態の同一物体候補抽出処理を説明するフローチャートである。図示のように、本実施形態の制御装置20-2は、第1実施形態で説明した同一物体候補抽出処理で抽出される第1周囲物体O1と第2周囲物体O2に対して、ステップS320以降の処理を実行する。 FIG. 7 is a flowchart illustrating the same object candidate extraction process of this embodiment. As shown in the figure, the control device 20-2 of the present embodiment controls the first surrounding object O1 and the second surrounding object O2 extracted in the same object candidate extraction process described in the first embodiment from step S320 onwards. Execute the process.

具体的に、ステップS320において、制御装置20-2は、周囲物体Oが旋回中であるか否かの判定を行う。具体的に、制御装置20-2は、絶対動きベクトル(VU,VW)の方向の時間変化が予め定められる閾値より大きい場合に、周囲物体Oが旋回していると判断する。一方、制御装置20-2は、絶対動きベクトル(VU,VW)の方向の時間変化がこの閾値以下である場合に、周囲物体Oが旋回していないと判断する。 Specifically, in step S320, the control device 20-2 determines whether the surrounding object O is turning. Specifically, the control device 20-2 determines that the surrounding object O is turning when the time change in the direction of the absolute motion vector (VU, VW) is larger than a predetermined threshold. On the other hand, the control device 20-2 determines that the surrounding object O is not turning when the time change in the direction of the absolute motion vector (VU, VW) is less than or equal to this threshold value.

特に、制御装置20-2は、第1絶対動きベクトル方向角VB1の時間変化及び第2絶対動きベクトル方向角VB2の時間変化のそれぞれと、所定の旋回判定閾値と、の間の大小を比較する。そして、制御装置20-2は、これらの内の少なくとも一方が旋回判定閾値を越えた場合に、周囲物体O(より詳細には第1周囲物体O1及び第2周囲物体O2の双方)が旋回していると判断し、そうでない場合には旋回していないと判断する。 In particular, the control device 20-2 determines the magnitude between each of the time change of the first absolute motion vector direction angle VB 1 and the time change of the second absolute motion vector direction angle VB 2 and a predetermined turning determination threshold. compare. Then, the control device 20-2 causes the surrounding object O (more specifically, both the first surrounding object O1 and the second surrounding object O2) to turn when at least one of these exceeds the turning determination threshold. If not, it is determined that the vehicle is not turning.

このように、第1絶対動きベクトル方向角VB1及び第2絶対動きベクトル方向角VB2の時間変化の少なくとも一方が閾値を超える場合に周囲物体Oが旋回していると判断する構成としたことで、周囲物体Oの旋回がより確実に検出される。より詳細には、第1観測点Cr1及び第2観測点Cr2の一方が旋回中心付近に位置する場合など、当該一方の絶対動きベクトル方向角VBの時間変化が小さくなるシーンにおいても、誤判定が好適に抑制される。 In this way, the configuration is such that it is determined that the surrounding object O is turning when at least one of the temporal changes in the first absolute motion vector direction angle VB 1 and the second absolute motion vector direction angle VB 2 exceeds the threshold value. Therefore, the rotation of the surrounding object O can be detected more reliably. More specifically, even in a scene where the temporal change in the absolute motion vector direction angle VB of one of the first observation point Cr 1 and the second observation point Cr 2 is small, such as when one of the first observation point Cr 1 and the second observation point Cr 2 is located near the turning center, the error can be avoided. Judgment is suitably suppressed.

なお、周囲物体Oの旋回判定において、各絶対動きベクトル方向角VBの時間変化を用いることに代え、又はこれとともに、第1絶対動きベクトル(VU1,VW1)の大きさと第2絶対動きベクトル(VU2,VW2)の大きさの相対関係を考慮しても良い。 In addition, in determining the turning of the surrounding object O, instead of using the time change of each absolute motion vector direction angle VB, or in addition to this, the magnitude of the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector are used. The relative relationship between the sizes of (VU 2 , VW 2 ) may also be considered.

そして、制御装置20-2は周囲物体Oが旋回していないと判断すると、第1実施形態と同様にステップS340以降の処理を実行する。一方、制御装置20-2は、周囲物体Oが旋回していると判断するとステップS330の処理に移行する。 Then, when the control device 20-2 determines that the surrounding object O is not turning, it executes the processes from step S340 onwards, as in the first embodiment. On the other hand, if the control device 20-2 determines that the surrounding object O is turning, the control device 20-2 shifts to the process of step S330.

ステップS330において、制御装置20-2は動きベクトル補正処理を実行する。ここで、本実施形態の動きベクトル補正処理は、ステップS340において、動きベクトル差閾値THvと比較される動きベクトル差ΔV12を補正する処理である。 In step S330, the control device 20-2 executes motion vector correction processing. Here, the motion vector correction process of this embodiment is a process of correcting the motion vector difference ΔV 12 that is compared with the motion vector difference threshold THv in step S340.

既に説明したように、周囲物体Oの非旋回時(並進運動時)には、第1観測点Cr1と第2観測点Cr2の間の位置の違いはそれぞれの第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)に影響を与えるものでは無い。 As already explained, when the surrounding object O is not rotating (translational motion), the difference in position between the first observation point Cr 1 and the second observation point Cr 2 is determined by the respective first absolute motion vectors (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ).

一方で、周囲物体Oの旋回時(回転運動時)には、第1観測点Cr1及び第2観測点Cr2は旋回中心の距離の違いに応じてそれぞれの移動速度が異なってくるため、第1車両10-1及び第2車両10-2の位置(より詳細には周囲物体Oに対する第1車両10-1と第2車両10-2の相対位置関係)によっては、第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)が相互に異なることとなる。 On the other hand, when the surrounding object O turns (rotational movement), the first observation point Cr 1 and the second observation point Cr 2 have different moving speeds depending on the difference in the distance from the center of rotation. Depending on the positions of the first vehicle 10-1 and the second vehicle 10-2 (more specifically, the relative positional relationship between the first vehicle 10-1 and the second vehicle 10-2 with respect to the surrounding object O), the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) are different from each other.

したがって、旋回時には、実際には第1周囲物体O1及び第2周囲物体O2が相互に同一であったとしても、第1観測点Cr1及び第2観測点Cr2と旋回中心の相対位置関係次第では、ステップS340における判定で動きベクトル差ΔV12が動きベクトル差閾値THvを越えたり、超えなかったりすることが想定される。 Therefore, when turning, even if the first surrounding object O1 and the second surrounding object O2 are actually the same, it depends on the relative positional relationship between the first observation point Cr 1 and the second observation point Cr 2 and the turning center. In this case, it is assumed that the motion vector difference ΔV 12 may or may not exceed the motion vector difference threshold THv in the determination in step S340.

このような状況に対して、本実施形態の制御装置20-2は、周囲物体Oの旋回を検出した場合において、動きベクトル差閾値THvと比較すべき動きベクトル差ΔV12自体を適切に補正する観点から動きベクトル補正処理を実行する。以下、動きベクトル補正処理についてより詳細に説明する。 In such a situation, the control device 20-2 of the present embodiment appropriately corrects the motion vector difference ΔV 12 itself to be compared with the motion vector difference threshold THv when the turning of the surrounding object O is detected. Execute motion vector correction processing from the viewpoint. The motion vector correction process will be explained in more detail below.

図8は、動きベクトル補正処理を説明するフローチャートである。 FIG. 8 is a flowchart illustrating motion vector correction processing.

先ず、ステップS331において、制御装置20-2は、第1観測方向DO1と第2観測方向DO2のずれ表すパラメータとして観測差角Δθを演算する。 First, in step S331, the control device 20-2 calculates the observation difference angle Δθ as a parameter representing the deviation between the first observation direction DO 1 and the second observation direction DO 2 .

より具体的に、制御装置20-2は、絶対座標系において第1観測方向DO1に対応するベクトル(第1車両絶対座標(X1,Y1)から第1物体絶対座標(V1,W1)に向かう方向のベクトル)、及び第2観測方向DO2に対応するベクトル(第2車両絶対座標(X2,Y2)から第2物体絶対座標(U2,W2)に向かう方向のベクトル)からそれらのなす角を求め、その絶対値を観測差角Δθとして演算する。 More specifically, the control device 20-2 controls the vector corresponding to the first observation direction DO 1 in the absolute coordinate system (from the first vehicle absolute coordinates (X 1 , Y 1 ) to the first object absolute coordinates (V 1 , W 1 )), and a vector corresponding to the second observation direction DO 2 (vector in the direction from the second vehicle absolute coordinates (X 2 , Y 2 ) to the second object absolute coordinates (U 2 , W 2 ) (vector), and calculate its absolute value as the observed difference angle Δθ.

次に、ステップS332において、制御装置20-2は、演算した観測差角Δθが所定の第1差角閾値THa1以下であるか否かを判定する。そして、制御装置20-2は、観測差角Δθが第1差角閾値THa1以下であると判断すると、ステップS340の処理に移行する。すなわち、この場合には、実質的に動きベクトル差ΔV12の補正が行われることなく、動きベクトル補正処理が終了することとなる。 Next, in step S332, the control device 20-2 determines whether the calculated observed difference angle Δθ is less than or equal to a predetermined first difference angle threshold THa1. When the control device 20-2 determines that the observed difference angle Δθ is less than or equal to the first difference angle threshold THa1, the control device 20-2 proceeds to the process of step S340. That is, in this case, the motion vector correction process ends without substantially correcting the motion vector difference ΔV 12 .

一方、制御装置20-2は、観測差角Δθが第1差角閾値THa1を越えると判断すると、ステップS333の処理に移行する。 On the other hand, if the control device 20-2 determines that the observed difference angle Δθ exceeds the first difference angle threshold THa1, the process proceeds to step S333.

ステップS333において、制御装置20-2は、観測差角Δθが所定の第2差角閾値THa2以下であるか否かを判定する。すなわち、観測差角Δθが第1差角閾値THa1を越え且つ第2差角閾値THa2以下の範囲であるかが判定されることとなる。 In step S333, the control device 20-2 determines whether the observed difference angle Δθ is less than or equal to a predetermined second difference angle threshold THa2. That is, it is determined whether the observed difference angle Δθ is in a range that exceeds the first difference angle threshold THa1 and is equal to or less than the second difference angle threshold THa2.

制御装置20-2は、観測差角Δθが第2差角閾値THa2以下であると判断すると、動きベクトル差ΔV12に対して後述する第1補正を実行する(ステップS334)。そして、制御装置20-2は、第1補正後の動きベクトル差ΔV12を用いて図7のステップS340の判定及びそれ以降の処理を実行する。 When the control device 20-2 determines that the observed difference angle Δθ is less than or equal to the second difference angle threshold THa2, it performs a first correction to be described later on the motion vector difference ΔV 12 (step S334). Then, the control device 20-2 uses the motion vector difference ΔV 12 after the first correction to execute the determination in step S340 of FIG. 7 and the subsequent processing.

一方、制御装置20-2は、観測差角Δθが第2差角閾値THa2を越えると判断すると、動きベクトル差ΔV12に対して後述する第2補正を実行する(ステップS335)。そして、制御装置20-2は、第2補正後の動きベクトル差ΔV12を用いて図7のステップS340の判定及びそれ以降の処理を実行する。 On the other hand, if the control device 20-2 determines that the observed difference angle Δθ exceeds the second difference angle threshold THa2, it performs a second correction to be described later on the motion vector difference ΔV 12 (step S335). Then, the control device 20-2 uses the motion vector difference ΔV 12 after the second correction to execute the determination in step S340 of FIG. 7 and the subsequent processing.

以下では、動きベクトル補正処理における観測差角Δθに基づいて定められる動きベクトル差ΔV12の補正の態様について、より具体的に説明する。 Below, the mode of correction of the motion vector difference ΔV 12 determined based on the observed difference angle Δθ in the motion vector correction process will be described in more detail.

図9A~図9Cは、動きベクトル補正処理の詳細を説明するための図である。特に、図9Aには、観測差角Δθが第1差角閾値THa1以下である場合(ステップS332の判定がYesの場合)の実際の観測系の態様を模式的に示している。また、図9Bには、観測差角Δθが第1差角閾値THa1を越え且つ第2差角閾値THa2以下である場合(ステップS332の判定がNo且つステップS333の判定がYesの場合)の実際の観測系の態様を模式的に示している。さらに、図9Cは、観測差角Δθが第2差角閾値THa2を越える場合(ステップS333の判定がNoの場合)の実際の観測系の態様を模式的に示している。 9A to 9C are diagrams for explaining details of motion vector correction processing. In particular, FIG. 9A schematically shows the mode of the actual observation system when the observation difference angle Δθ is less than or equal to the first difference angle threshold THa1 (when the determination in step S332 is Yes). FIG. 9B also shows the actual situation when the observed difference angle Δθ exceeds the first difference angle threshold THa1 and is less than or equal to the second difference angle threshold THa2 (when the determination in step S332 is No and the determination in step S333 is Yes). This diagram schematically shows the aspect of the observation system. Further, FIG. 9C schematically shows the state of the actual observation system when the observation difference angle Δθ exceeds the second difference angle threshold THa2 (when the determination in step S333 is No).

さらに、図9A~図9Cにおいては、周囲物体Oを構成する点集合の一部を黒点で示し、該黒点の動きベクトルを一点二鎖線で模式的に示す Furthermore, in FIGS. 9A to 9C, a part of the set of points constituting the surrounding object O is shown as a black dot, and the motion vector of the black dot is schematically shown as a dot-double chain line.

先ず、図9Aに示す観測差角Δθが第1差角閾値THa1以下である場合には、周囲物体Oに対する第1車両10-1による第1観測点Cr1と第2車両10-2による第2観測点Cr2は双方とも旋回方向に対して略直交する同一の観測平面H1に位置することとなる。このため、周囲物体Oが旋回していても、第1観測点Cr1に係る第1絶対動きベクトル方向角VB1と第2観測点Cr2に係る第2絶対動きベクトル方向角VB2は相互に略一致することとなる。 First, if the observation difference angle Δθ shown in FIG . The two observation points Cr 2 are both located on the same observation plane H1 that is substantially orthogonal to the turning direction. Therefore, even if the surrounding object O is turning, the first absolute motion vector direction angle VB 1 related to the first observation point Cr 1 and the second absolute motion vector direction angle VB 2 related to the second observation point Cr 2 are mutually different. This is approximately the same as .

したがって、この場合、制御装置20-2は、第1実施形態で説明した非旋回時の場合と同様に、動きベクトル差ΔV12を補正することなく、動きベクトル差閾値THvとの大小関係に基づいて物体の同一性判断を行う。この目的のために、第1差角閾値THa1は、第1車両10-1による第1観測点Cr1と第2車両10-2による第2観測点Cr2が同一の観測平面H1上に存在するか否かの好適な推定を可能とする値に設定される。 Therefore, in this case, as in the case of non-turning described in the first embodiment, the control device 20-2 does not correct the motion vector difference ΔV 12 but based on the magnitude relationship with the motion vector difference threshold THv. to determine the identity of the object. For this purpose, the first difference angle threshold THa1 is such that the first observation point Cr 1 by the first vehicle 10-1 and the second observation point Cr 2 by the second vehicle 10-2 are on the same observation plane H1. The value is set to a value that enables suitable estimation of whether or not to do so.

次に、図9Bに示す観測差角Δθが第1差角閾値THa1を越え且つ第2差角閾値THa2以下の場合には、第2車両10-2による第2観測点Cr2が上記観測平面H1に位置していても、第1車両10-1による第1観測点Cr1は当該観測平面H1に直交する観測平面H2(すなわち、周囲物体Oの側面に沿った平面)に位置することとなる。このため、周囲物体Oが旋回すると、観測平面H1上に位置する第2観測点Cr2に係る第2絶対動きベクトル(VU2,VW2)は、観測平面H2上に位置する第1観測点Cr1に係る第1絶対動きベクトル(VU1,VW1)に対して大きさ及び方向の双方の観点からずれることとなる。 Next, when the observation difference angle Δθ shown in FIG. 9B exceeds the first difference angle threshold THa1 and is less than or equal to the second difference angle threshold THa2, the second observation point Cr 2 by the second vehicle 10-2 is located at the above observation plane. Even if it is located at H1, the first observation point Cr1 by the first vehicle 10-1 is located at the observation plane H2 (that is, the plane along the side surface of the surrounding object O) orthogonal to the observation plane H1. Become. Therefore, when the surrounding object O turns, the second absolute motion vector (VU 2 , VW 2 ) related to the second observation point Cr 2 located on the observation plane H1 is the same as that of the first observation point Cr 2 located on the observation plane H2. This results in a deviation from the first absolute motion vector (VU 1 , VW 1 ) related to Cr 1 in terms of both magnitude and direction.

したがって、この場合、制御装置20-2は、第2観測点Cr2が位置する観測平面H1と第1観測点Cr1が位置する観測平面H2との違いに起因して生じるそれぞれの絶対動きベクトル(VU,VW)の相違を考慮して、動きベクトル差ΔV12の補正(第1補正)を実行する。 Therefore, in this case, the control device 20-2 controls each absolute motion vector caused by the difference between the observation plane H1 where the second observation point Cr 2 is located and the observation plane H2 where the first observation point Cr 1 is located. Taking into account the difference in (VU, VW), the motion vector difference ΔV 12 is corrected (first correction).

より詳細には、制御装置20-2は、周囲物体Oの旋回時において、その旋回方向に直交する観測平面H1上の第2観測点Cr2の運動軌跡、及び観測平面H1とは異なる観測平面H2上の第1観測点Cr1の運動軌跡の関係を好適に表す力学モデルに基づいて動きベクトル差ΔV12の補正を実行する。 More specifically, the control device 20-2 controls the movement locus of the second observation point Cr 2 on the observation plane H1 perpendicular to the direction of rotation and the observation plane different from the observation plane H1 when the surrounding object O turns. The motion vector difference ΔV 12 is corrected based on a dynamic model that suitably represents the relationship between the motion trajectories of the first observation point Cr 1 on H2.

特に、周囲物体Oが車両又はこれに類する走行体である場合には、力学モデルとして二輪モデルを用いることで、上述した第2観測点Cr2及び第1観測点Cr1のそれぞれの運動軌跡の違いに応じて適切な動きベクトル差ΔV12の補正を実行することが可能となる。 In particular, when the surrounding object O is a vehicle or a similar traveling object, by using a two-wheeled model as the dynamic model, the respective motion trajectories of the second observation point Cr 2 and the first observation point Cr 1 described above can be It becomes possible to appropriately correct the motion vector difference ΔV 12 according to the difference.

より詳細には、図9Bの例においては、第2絶対動きベクトル(VU2,VW2)を二輪モデルにおける後輪の動きベクトルとし、第1絶対動きベクトル(VU1,VW1)を二輪モデルにおける二輪側面の動きベクトルとすることで、当該二輪モデルに合致した旋回時の第2観測点Cr2及び第1観測点Cr1の運動軌跡の違いを適切に評価することができる。結果として、この運動軌跡に応じた好適な動きベクトル差ΔV12の補正を実現することができる。 More specifically, in the example of FIG. 9B, the second absolute motion vector (VU 2 , VW 2 ) is the motion vector of the rear wheel in the two-wheel model, and the first absolute motion vector (VU 1 , VW 1 ) is the motion vector of the rear wheel in the two-wheel model. By setting the motion vector of the two-wheel side surface in , it is possible to appropriately evaluate the difference in the motion trajectories of the second observation point Cr 2 and the first observation point Cr 1 during a turn that matches the two-wheel model. As a result, it is possible to appropriately correct the motion vector difference ΔV 12 according to this motion trajectory.

さらに、図9Cに示す観測差角Δθが第2差角閾値THa2を越える場合には、第2車両10-2による第2観測点Cr2が上記観測平面H1に位置していても、第1車両10-1による第1観測点Cr1は当該観測平面H1と平行で且つ反対側(周囲物体Oの長手方向において対向する側)の観測平面H3に位置することとなる。 Furthermore, if the observation difference angle Δθ shown in FIG. 9C exceeds the second difference angle threshold THa2, even if the second observation point Cr 2 by the second vehicle 10-2 is located on the observation plane H1, the first The first observation point Cr 1 by the vehicle 10-1 is located on an observation plane H3 that is parallel to the observation plane H1 and on the opposite side (opposite side in the longitudinal direction of the surrounding object O).

このため、周囲物体Oが旋回すると、観測平面H1上に位置する第2観測点Cr2に係る第2絶対動きベクトル(VU2,VW2)は、観測平面H3上に位置する第1観測点Cr1に係る第1絶対動きベクトル(VU1,VW1)に対して大きさ及び方向の双方の観点からずれることとなる。 Therefore, when the surrounding object O turns, the second absolute motion vector (VU 2 , VW 2 ) related to the second observation point Cr 2 located on the observation plane H1 is the same as that of the first observation point Cr 2 located on the observation plane H3. This results in a deviation from the first absolute motion vector (VU 1 , VW 1 ) related to Cr 1 in terms of both magnitude and direction.

したがって、この場合、制御装置20-2は、第2観測点Cr2が位置する観測平面H1と第1観測点Cr1が位置する観測平面H3との相違に起因するそれぞれの動きベクトルの相違を考慮して、動きベクトル差ΔV12の補正(第2補正)を実行する。 Therefore, in this case, the control device 20-2 calculates the difference in motion vectors caused by the difference between the observation plane H1 where the second observation point Cr 2 is located and the observation plane H3 where the first observation point Cr 1 is located. Taking this into account, the motion vector difference ΔV 12 is corrected (second correction).

より詳細には、制御装置20-2は、周囲物体Oの旋回時において、その旋回方向に直交する観測平面H1上の第2観測点Cr2の運動軌跡、及び観測平面H1とは異なる観測平面H3上の第1観測点Cr1の運動軌跡の関係を好適に表す力学モデルに基づいて動きベクトル差ΔV12の補正を実行する。 More specifically, the control device 20-2 controls the movement locus of the second observation point Cr 2 on the observation plane H1 perpendicular to the direction of rotation and the observation plane different from the observation plane H1 when the surrounding object O turns. The motion vector difference ΔV 12 is corrected based on a dynamic model that suitably represents the relationship between the motion trajectories of the first observation point Cr 1 on H3.

特に、周囲物体Oが車両又はこれに類する走行体である場合には、力学モデルとして二輪モデルを用いることで、上述した第2観測点Cr2及び第1観測点Cr1のそれぞれの運動軌跡の違いに応じて適切な動きベクトル差ΔV12の補正を実行することが可能となる。 In particular, when the surrounding object O is a vehicle or a similar traveling object, by using a two-wheeled model as the dynamic model, the respective motion trajectories of the second observation point Cr 2 and the first observation point Cr 1 described above can be It becomes possible to appropriately correct the motion vector difference ΔV 12 according to the difference.

より詳細には、図9Cの例においては、第2絶対動きベクトル(VU2,VW2)を二輪モデルにおける後輪の動きベクトルとし、第1絶対動きベクトル(VU1,VW1)を二輪モデルにおける前輪の動きベクトルとすることで、当該二輪モデルに合致した旋回時の第2観測点Cr2及び第1観測点Cr1の運動軌跡の違いを適切に評価することができる。結果として、この運動軌跡に応じた好適な動きベクトル差ΔV12の補正を実現することができる。 More specifically, in the example of FIG. 9C, the second absolute motion vector (VU 2 , VW 2 ) is the motion vector of the rear wheel in the two-wheel model, and the first absolute motion vector (VU 1 , VW 1 ) is the motion vector of the rear wheel in the two-wheel model. By setting the motion vector of the front wheel in , it is possible to appropriately evaluate the difference between the motion trajectories of the second observation point Cr 2 and the first observation point Cr 1 during a turn that matches the two-wheel model. As a result, it is possible to appropriately correct the motion vector difference ΔV 12 according to this motion trajectory.

以上説明した構成を有する本実施形態によれば、以下の作用効果を奏する。 According to this embodiment having the configuration described above, the following effects are achieved.

本実施形態の物体認識方法では、第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の少なくとも一方の方向の時間変化に基づいて周囲物体Oが旋回しているか否かを判定し(図7のステップS320)、周囲物体Oが旋回していると判断すると、上記相関関係(動きベクトル差ΔV12)として該周囲物体Oの旋回時用に補正された補正相関関係(第1補正又は第2補正後の動きベクトル差ΔV12)を設定する(ステップS330)。そして、第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)が補正相関関係を満たす場合と判断した場合に、第1周囲物体O1と第2周囲物体O2が同一であるとみなす。 In the object recognition method of this embodiment, the surrounding object O turns based on the temporal change in at least one direction of the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ). If it is determined that the surrounding object O is turning (step S320 in FIG. 7), the above correlation (motion vector difference ΔV 12 ) is corrected for when the surrounding object O is turning. A corrected correlation (motion vector difference ΔV 12 after first correction or second correction) is set (step S330). Then, when it is determined that the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) satisfy the corrected correlation, the first surrounding object O1 and the second surrounding object Assume that O2 is the same.

これにより、第1周囲物体O1と第2周囲物体O2が同一であると判断する観点から定まる第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の間の相関関係を、周囲物体Oの旋回している場合における第2観測点Cr2及び第1観測点Cr1のそれぞれの運動軌跡の違いに起因した相互の動きベクトルのずれを勘案してより適切に設定することができる。結果として、物体同一性の判定精度をより高めることができる。 As a result, the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) determined from the viewpoint of determining that the first surrounding object O1 and the second surrounding object O2 are the same. The correlation between them is calculated by taking into account the deviation of the mutual motion vectors caused by the difference in the respective motion trajectories of the second observation point Cr 2 and the first observation point Cr 1 when the surrounding object O is rotating. Can be set appropriately. As a result, the accuracy of determining object identity can be further improved.

特に、本実施形態の物体認識方法では、第1観測位置(第1車両10-1)による第1周囲物体O1の観測方向である第1観測方向Do1を取得し、第2観測位置(第2車両10-2)の観測方向である第2観測方向Do2を取得する。第1観測方向Do1と第2観測方向Do2との差である観測差角Δθが所定の第1閾値(第1差角閾値THa1)を超える場合に、周囲物体Oの旋回に応じた第1観測位置からの第1観測点Cr1及び第2観測点Cr2の各運動軌跡の相違を記述する力学モデルを適用して補正相関関係を設定する(図8のステップS332のNo、図9B、及び図9C参照)。 In particular, in the object recognition method of this embodiment, the first observation direction Do 1 , which is the observation direction of the first surrounding object O1 by the first observation position (first vehicle 10-1), is acquired, and the second observation position (first vehicle 10-1) A second observation direction Do 2 , which is the observation direction of the second vehicle 10-2), is obtained. When the observation difference angle Δθ, which is the difference between the first observation direction Do 1 and the second observation direction Do 2 , exceeds a predetermined first threshold (first difference angle threshold THa1), the A corrected correlation is set by applying a dynamic model that describes the difference between the motion trajectories of the first observation point Cr 1 and the second observation point Cr 2 from one observation position (No in step S332 in FIG. 8, FIG. 9B , and see FIG. 9C).

これにより、観測差角Δθが特定関係にある場合における第1観測点Cr1及び第2観測点Cr2が存在する位置の違いをより適切に推定し、これらの間の運動軌跡の違いがより好適に反映された補正相関関係を設定することができる。結果として、物体同一性の判定精度をさらに高めることができる。 As a result, when the observation difference angle Δθ has a specific relationship, the difference in the positions of the first observation point Cr 1 and the second observation point Cr 2 can be more appropriately estimated, and the difference in the motion trajectory between them can be more accurately estimated. A corrected correlation that is suitably reflected can be set. As a result, the accuracy of determining object identity can be further improved.

なお、本実施形態の物体認識方法では、第1差角閾値THa1を、第1周囲物体O1と第2周囲物体O2が相互に同一の物体であると仮定した場合に、第1観測点Cr1及び第2観測点Cr2が周囲物体O上における同一の観測平面(例えば、図9Aの観測平面H1)上に存在するか否かを判断する観点から定める。 In addition, in the object recognition method of this embodiment, the first difference angle threshold THa1 is set to the first observation point Cr 1 when it is assumed that the first surrounding object O1 and the second surrounding object O2 are the same object. and the second observation point Cr 2 are determined from the viewpoint of determining whether or not they exist on the same observation plane (for example, observation plane H1 in FIG. 9A) on the surrounding object O.

すなわち、第1差角閾値THa1が、周囲物体Oの旋回時において第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の間の差が大きく変化する境界点(第1観測点Cr1及び第2観測点Cr2の各運動軌跡の一致性が顕著に失われる点)として設定されることとなる。したがって、観測差角Δθがこのように設定された第1差角閾値THa1を跨いだ以降に上記力学モデルが適用された相関関係の補正が実行されることとなるので、物体同一性の判定精度をより一層高めることができる。 That is, the first difference angle threshold THa1 is such that the difference between the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) changes significantly when the surrounding object O turns. This will be set as a boundary point (a point where the consistency of the respective movement trajectories of the first observation point Cr 1 and the second observation point Cr 2 is significantly lost). Therefore, after the observed difference angle Δθ crosses the first difference angle threshold THa1 set in this way, the correction of the correlation by applying the above dynamic model will be performed, so the accuracy of determining object identity will be can be further enhanced.

さらに、力学モデルとして二輪モデルを用いる。そして、観測差角Δθが第1差角閾値THa1を超え且つ所定の第2閾値(第2差角閾値THa2)以下である場合(ステップS332のNo及びステップS333のYes)には、第1動きベクトル及び第2動きベクトルの一方である第2絶対動きベクトル(VU2,VW2)を二輪モデルにおける車輪(特に後輪)の動きベクトルとみなし、他方の第1絶対動きベクトル(VU1,VW1)を二輪モデルにおける車体側面の動きベクトルとみなす。そして、これにより、周囲物体Oの旋回に起因する第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の相互のずれを評価する。さらに、上記補正相関関係として、このずれを相関関係に反映させた第1補正相関関係(第1補正後の動きベクトル差ΔV12)を設定する。 Furthermore, a two-wheel model is used as a dynamic model. If the observed difference angle Δθ exceeds the first difference angle threshold THa1 and is less than or equal to the predetermined second threshold (second difference angle threshold THa2) (No in step S332 and Yes in step S333), the first movement The second absolute motion vector (VU 2 , VW 2 ), which is one of the vector and the second motion vector, is regarded as the motion vector of the wheels (especially the rear wheels) in the two-wheel model, and the other first absolute motion vector (VU 1 , VW 1 ) is regarded as the motion vector of the side of the vehicle body in the two-wheeled model. Thereby, the mutual deviation between the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) caused by the rotation of the surrounding object O is evaluated. Further, as the corrected correlation, a first corrected correlation (movement vector difference ΔV 12 after the first correction) in which this deviation is reflected in the correlation is set.

また、観測差角Δθが所定の第2差角閾値THa2を越える場合(ステップS333のNo)には、第1動きベクトル及び第2動きベクトルの一方である第1絶対動きベクトル(VU1,VW1)を二輪モデルにおける前輪の動きベクトルとみなし、他方の第2絶対動きベクトル(VU2,VW2)を二輪モデルにおける後輪の動きベクトルとみなす。そして、これにより、周囲物体Oの旋回に起因する第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の相互のずれを評価する。さらに、上記補正相関関係として、このずれを相関関係に反映させた第2補正相関関係(第2補正後の動きベクトル差ΔV12)を設定する。 Further, if the observed difference angle Δθ exceeds the predetermined second difference angle threshold THa2 (No in step S333), the first absolute motion vector (VU 1 , VW 1 ) is regarded as the motion vector of the front wheel in the two-wheel model, and the other second absolute motion vector (VU 2 , VW 2 ) is regarded as the motion vector of the rear wheel in the two-wheel model. Thereby, the mutual deviation between the first absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) caused by the rotation of the surrounding object O is evaluated. Further, as the corrected correlation, a second corrected correlation (movement vector difference ΔV 12 after second correction) in which this deviation is reflected in the correlation is set.

これにより、周囲物体Oが車両又はこれに類する走行体である場合においては、既存の二輪モデルを用いることで新たに力学モデルを構築することなく、周囲物体Oの旋回時における第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の間のずれが好適に反映された補正相関関係を設定することができる。 As a result, when the surrounding object O is a vehicle or a similar traveling object, by using an existing two-wheel model, the first absolute motion vector when turning the surrounding object O can be calculated without constructing a new dynamic model. It is possible to set a corrected correlation in which the deviation between (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) is suitably reflected.

(第3実施形態)
以下、第3実施形態について説明する。なお、第1実施形態又は第2実施形態と同様の要素には同一の符号を付し、その説明を省略する。
(Third embodiment)
The third embodiment will be described below. Note that elements similar to those in the first embodiment or the second embodiment are denoted by the same reference numerals, and explanations thereof will be omitted.

図10は、本実施形態の物体認識方法を説明するフローチャートである。図示のように、本実施形態では、ステップS200´に係る座標統一処理の具体的態様が第1実施形態で説明した座標統一処理(図3のステップS200)と異なる。 FIG. 10 is a flowchart illustrating the object recognition method of this embodiment. As shown in the figure, in this embodiment, the specific aspects of the coordinate unification process related to step S200' are different from the coordinate unification process (step S200 in FIG. 3) described in the first embodiment.

具体的に、ステップS200´において、制御装置20-2は、物体相対座標(u,w)、相対動きベクトル(vu,vw)、及び相対動きベクトル方向角vbを、第2車両10-2を基準とする第2車両座標系上の表示に変換する。すなわち、物体同一性の判定に用いる共通の座標系として、第1実施形態で説明した絶対座標系に代え、第2車両座標系を用いる。そして、制御装置20-2は、第2車両座標系上の表示に変換された各量に基づいて、第1実施形態又は第2実施形態に係るステップS300以降の処理を実行する。 Specifically, in step S200', the control device 20-2 determines the object relative coordinates (u, w), the relative motion vector (vu, vw), and the relative motion vector direction angle vb relative to the second vehicle 10-2. The display is converted into a display on the second vehicle coordinate system as a reference. That is, as a common coordinate system used for determining object identity, the second vehicle coordinate system is used instead of the absolute coordinate system described in the first embodiment. Then, the control device 20-2 executes the processing from step S300 onward according to the first embodiment or the second embodiment, based on each quantity converted to the display on the second vehicle coordinate system.

このように、周囲物体Oの位置情報及び動きベクトルの情報を絶対座標系に代えて、第2車両座標系上の表示に表した場合であっても、若干の数学的処理の変更を除いて同様に物体同一性の判定を実行することができる。 In this way, even when the position information and motion vector information of the surrounding object O are displayed on the second vehicle coordinate system instead of the absolute coordinate system, the information can be displayed without changing the mathematical processing. Similarly, determination of object identity can be performed.

具体的には、上記式(1)~式(3)を以下の式(4)~式(6)に置き換えることで、ステップS300以降の各処理を実行することが可能である。 Specifically, by replacing the above equations (1) to (3) with the following equations (4) to (6), it is possible to execute each process after step S300.

Figure 0007382799000004
Figure 0007382799000004

Figure 0007382799000005
Figure 0007382799000005

Figure 0007382799000006
Figure 0007382799000006

なお、各式中において「´」を付けた文字が第2車両座標系上の表示に変更された部分である。特に、式中の「A´」は、絶対座標系の場合と同様に第2車両座標系における基準方向(すなわち、第2車両10-2の向き)に対する車両10の向きのずれ角を表す(以下、これを「車両座標系相対方向角A´」と称する)。この定義から明らかなように、基準となる第2車両10-2に関する車両座標系相対方向角A´2は0となる。一方、第1車両10-1に関する車両座標系相対方向角A´1は第2車両10-2の向きに対するずれに相当する。 Note that in each formula, the characters with "'" are the parts that have been changed to be displayed on the second vehicle coordinate system. In particular, "A'" in the formula represents the deviation angle of the direction of the vehicle 10 with respect to the reference direction (i.e., the direction of the second vehicle 10-2) in the second vehicle coordinate system, as in the case of the absolute coordinate system ( Hereinafter, this will be referred to as "vehicle coordinate system relative direction angle A'"). As is clear from this definition, the vehicle coordinate system relative direction angle A ' 2 with respect to the second vehicle 10-2, which is the reference, is zero. On the other hand, the vehicle coordinate system relative direction angle A ' 1 with respect to the first vehicle 10-1 corresponds to a deviation with respect to the direction of the second vehicle 10-2.

また、式中(4)中の(X´,Y´)は、第2車両座標系で表示した車両10の位置座標となる。このため、第2車両座標系における第2車両10-2の位置を表す(X2´,Y2´)は原点(0,0)と一致する。一方、第2車両座標系における第1車両10-1の位置を表す(X1´,Y1´)は、第1車両10-1に対する第2車両10-2の相対位置に相当する。 Moreover, (X', Y') in formula (4) are the position coordinates of the vehicle 10 displayed in the second vehicle coordinate system. Therefore, (X 2 ′, Y 2 ′) representing the position of the second vehicle 10-2 in the second vehicle coordinate system coincides with the origin (0, 0). On the other hand, (X 1 ', Y 1 ') representing the position of the first vehicle 10-1 in the second vehicle coordinate system corresponds to the relative position of the second vehicle 10-2 with respect to the first vehicle 10-1.

したがって、例えば、式(4)における物体相対座標(u,w)の部分に第2物体相対座標(u2,w2)を適用する場合、X´、Y´、及びA´が全て0となるため、右辺第1項は0ベクトルとなり、第2項の行列は単位行列となる。したがって、この場合、第2物体相対座標(u2,w2)は式(4)の変換に対して不変となる。なお、同様に、第2相対動きベクトル(vu2,vw2)及び第2相対動きベクトル方向角vb2を式(5)及び式(6)で表される変換に適用する場合にも、これらの値は不変となる。 Therefore, for example, when applying the second object relative coordinates (u 2 , w 2 ) to the object relative coordinates (u, w) in equation (4), X', Y', and A' are all 0. Therefore, the first term on the right side becomes a 0 vector, and the matrix of the second term becomes a unit matrix. Therefore, in this case, the second object relative coordinates (u 2 , w 2 ) remain unchanged with respect to the transformation of equation (4). Similarly, when applying the second relative motion vector (vu 2 , vw 2 ) and the second relative motion vector direction angle vb 2 to the conversion expressed by equations (5) and (6), these The value of will remain unchanged.

以上説明した構成を有する本実施形態によれば、以下の作用効果を奏する。 According to this embodiment having the configuration described above, the following effects are achieved.

本実施形態の物体認識方法では、第2観測位置としての第2車両10-2に同一物体判定処理を実行する制御装置20-2が設置される場合に、第1物体相対座標(u1,w1)及び第1相対動きベクトル(vu1,vw1)を、共通の座標系として第2車両10-2を基準とする座標系(第2車両座標系)に変換する。 In the object recognition method of this embodiment, when the control device 20-2 that executes the same object determination process is installed in the second vehicle 10-2 serving as the second observation position, the first object relative coordinates (u 1 , w 1 ) and the first relative motion vectors (vu 1 , vw 1 ) are converted into a coordinate system (second vehicle coordinate system) with the second vehicle 10-2 as a reference as a common coordinate system.

これにより、周囲物体Oを観測する観測位置(第2車両10-2)に同一物体判定処理を実行する制御装置20-2が配置される場合において、各量を第2車両10-2の位置を基準とした座標系で表して同一物体判定処理を実行することができる。したがって、移動体である第2車両10-2に、本実施形態の物体認識方法を実行するための制御装置20-2を搭載する場合においては、当該第2車両10-2自身の位置を基準とした座標系にて各演算を実行できるため、利便性が向上する。 As a result, in the case where the control device 20-2 that executes the same object determination process is placed at the observation position (second vehicle 10-2) where the surrounding object O is observed, each quantity is calculated from the position of the second vehicle 10-2. It is possible to perform the same object determination process by representing the coordinate system based on the reference coordinate system. Therefore, when the second vehicle 10-2, which is a moving body, is equipped with the control device 20-2 for executing the object recognition method of the present embodiment, the position of the second vehicle 10-2 itself is used as a reference. Since each calculation can be executed in the coordinate system, convenience is improved.

以上、本発明の実施形態について説明したが、上記各実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。 Although the embodiments of the present invention have been described above, each of the above embodiments merely shows a part of the application examples of the present invention, and the technical scope of the present invention is limited to the specific configuration of the above embodiments. isn't it.

例えば、第1周囲物体O1及び第2周囲物体O2が同一の周囲物体Oと判断された結果を、自動運転制御又は運転支援制御における第2車両10-2の走行制御(駆動制御及び操舵制御)などに適宜用いても良い。 For example, the result of determining that the first surrounding object O1 and the second surrounding object O2 are the same surrounding object O is used in the driving control (drive control and steering control) of the second vehicle 10-2 in automatic driving control or driving support control. It may also be used as appropriate.

さらに、上記各実施形態においては、物体認識方法に係る各処理を実行するための機能を第2車両10-2の制御装置20-2に構成する例を説明した。しかしながら、これに限られず、当該機能を第1車両10-1の制御装置20―1に構成しても良い。また、当該機能を、第1車両10-1の制御装置20―1及び第2車両10-2の制御装置20-2による分散処理で実現される構成としても良い。さらに、当該機能を、第1車両10-1及び第2車両10-2の以外の外部サーバ(クラウド等)に構成しても良い。 Furthermore, in each of the above embodiments, an example has been described in which the control device 20-2 of the second vehicle 10-2 is configured with functions for executing each process related to the object recognition method. However, the present invention is not limited to this, and the function may be configured in the control device 20-1 of the first vehicle 10-1. Further, the function may be realized by distributed processing by the control device 20-1 of the first vehicle 10-1 and the control device 20-2 of the second vehicle 10-2. Furthermore, the function may be configured in an external server (such as a cloud) other than the first vehicle 10-1 and the second vehicle 10-2.

また、上記各実施形態では、周囲物体Oの観測位置が2箇所(第1車両10-1及び第2車両10-2)である場合について説明した。しかしながら、3箇所以上の観測位置から周囲物体Oを観測する場合において、上記実施形態で説明した物体認識方法を適用しても良い。この場合、例えば、3箇所以上の観測位置の中から2つの観測位置の組み合わせを1又は複数組選択して、選択した各組み合わせに上記実施形態で説明した処理を実行し、得られた複数の処理結果を適宜統合することができる。 Furthermore, in each of the above embodiments, a case has been described in which the surrounding object O is observed at two locations (first vehicle 10-1 and second vehicle 10-2). However, when observing the surrounding object O from three or more observation positions, the object recognition method described in the above embodiment may be applied. In this case, for example, one or more combinations of two observation positions are selected from among three or more observation positions, the processing described in the above embodiment is executed for each selected combination, and the resulting plurality of Processing results can be integrated as appropriate.

さらに、上記各実施形態では、第1観測位置及び第2観測位置の双方が移動体である車両10に構成される例について説明した。しかしながら、これに限られず、第1観測位置及び第2観測位置の少なくとも何れか一方を定置の観測設備(例えば、道路に設置される定点カメラなどの固定の観測設備)に構成した場合に、上記実施形態で説明した物体認識方法に係る処理を適用することもできる。また、第1観測位置及び第2観測位置を車両10以外の任意の観測手段で構成し、周囲物体Oとしても車両などの道路上で運動するもの以外の任意の観測対象とし、上記各実施形態で説明した物体認識方法を適宜修正しつつ適用しても良い。 Furthermore, in each of the embodiments described above, an example has been described in which both the first observation position and the second observation position are configured in the vehicle 10, which is a moving body. However, the present invention is not limited to this, and if at least one of the first observation position and the second observation position is configured as a fixed observation facility (for example, a fixed observation facility such as a fixed point camera installed on a road), the above-mentioned Processing related to the object recognition method described in the embodiment can also be applied. Further, the first observation position and the second observation position are configured by arbitrary observation means other than the vehicle 10, and the surrounding object O is also an arbitrary observation target other than those moving on the road such as a vehicle, and each of the above embodiments The object recognition method described above may be applied while being modified as appropriate.

さらに、任意の観測手段及び観測対象からなる観測系において上記各実施形態で説明した物体認識方法を適用する場合には、周囲物体Oを剛体とみなすことで認識精度が低下する可能性も想定される。すなわち、同一の周囲物体Oであってもその変形を伴う場合には、当該周囲物体Oにおける第1観測点Cr1及び第2観測点Cr2の相対位置関係が時間変化することで、第1絶対動きベクトル(VU1,VW1)及び第2絶対動きベクトル(VU2,VW2)の間のずれが生じることが想定される。したがって、この場合には、周囲物体Oの変形特性を取得し、この変形特性を考慮してステップS340(図5又は図7)における判定に用いる動きベクトル差ΔV12又は動きベクトル差閾値THvを適宜補正しても良い。 Furthermore, when applying the object recognition method described in each of the above embodiments to an observation system consisting of arbitrary observation means and observation targets, it is assumed that the recognition accuracy may be reduced by regarding the surrounding object O as a rigid body. Ru. In other words, if the same surrounding object O is accompanied by deformation, the relative positional relationship between the first observation point Cr 1 and the second observation point Cr 2 in the surrounding object O changes over time, so that the first It is assumed that a deviation between the absolute motion vector (VU 1 , VW 1 ) and the second absolute motion vector (VU 2 , VW 2 ) occurs. Therefore, in this case, the deformation characteristics of the surrounding object O are acquired, and the motion vector difference ΔV 12 or the motion vector difference threshold THv used for the determination in step S340 (FIG. 5 or FIG. 7) is appropriately determined in consideration of the deformation characteristics. It may be corrected.

また、上記実施形態において、物体同一性の判定に用いる共通の座標系として、GPS情報等に基づく絶対座標系、又は主として物体認識方法に係る処理を実行する制御装置20-2が搭載された第2車両10-2の位置を基準とする座標系を採用する例について説明した。しかしながら、物体同一性の判定に用いる共通の座標系としては、これら以外にも適宜好適な任意の座標系を採用することができる。また、必ずしも共通の座標系を用いず、第1物体相対座標(u1,w1)、第1相対動きベクトル(vu1,vw1)、第2物体相対座標(u2,w2)、及び第2相対動きベクトル(vu2,vw2)をそのまま用いて同一物体判定処理を実行しても良い。なお、この場合、ステップS340(図5又は図7)における判定に用いる動きベクトル差ΔV12(第1相対動きベクトル(vu1,vw1)と第2相対動きベクトル(vu2,vw2)の差)又は動きベクトル差閾値THvを、観測位置である第1車両10-1及び第2車両10-2自体が運動することに起因したこれら両相対動きベクトルのずれを考慮して適宜補正する。 Further, in the above embodiment, as a common coordinate system used for determining object identity, an absolute coordinate system based on GPS information or the like, or a control device 20-2 equipped with a control device 20-2 that mainly executes processing related to an object recognition method is used. An example in which a coordinate system based on the position of two vehicles 10-2 is adopted has been described. However, as a common coordinate system used for determining object identity, any suitable coordinate system other than these may be adopted as appropriate. Furthermore, without necessarily using a common coordinate system, first object relative coordinates (u 1 , w 1 ), first relative motion vector (vu 1 , vw 1 ), second object relative coordinates (u 2 , w 2 ), The same object determination process may be performed using the second relative motion vectors (vu 2 , vw 2 ) as they are. In this case, the motion vector difference ΔV 12 (between the first relative motion vector (vu 1 , vw 1 ) and the second relative motion vector (vu 2 , vw 2 ) used for the determination in step S340 (FIG. 5 or 7) The difference) or the motion vector difference threshold THv is appropriately corrected in consideration of the deviation of these relative motion vectors caused by the movement of the first vehicle 10-1 and the second vehicle 10-2 themselves, which are the observation positions.

さらに、上記各実施形態で説明した物体認識方法をコンピュータである制御装置20に実行させるための物体認識プログラム、及び当該物体認識プログラムを記憶した記憶媒体も、本出願における出願時の明細書等に記載された事項の範囲内に含まれる。 Furthermore, an object recognition program for causing the control device 20, which is a computer, to execute the object recognition method described in each of the above embodiments, and a storage medium storing the object recognition program are also described in the specification etc. at the time of filing of this application. Included within the scope of the stated matters.

1 周辺センサ
2 内部センサ
3 外部通信機
10 車両
10-1 第1車両
10-2 第2車両
11 自己位置演算部
13 物体相対位置演算部
14 相対動きベクトル演算部
15 物体認識処理部
20 制御装置
24 座標統一部
25 同一物体判定処理部
26 物体統合処理部
1 Peripheral sensor 2 Internal sensor 3 External communication device 10 Vehicle 10-1 First vehicle 10-2 Second vehicle 11 Self-position calculation section 13 Object relative position calculation section 14 Relative motion vector calculation section 15 Object recognition processing section 20 Control device 24 Coordinate unification section 25 Same object determination processing section 26 Object integration processing section

Claims (9)

複数の観測位置からそれぞれの周囲に存在する物体である周囲物体を認識する物体認識方法であって、
第1観測位置に対する第1周囲物体の相対位置である第1物体相対位置、及び前記第1観測位置を基準とした前記第1周囲物体の動きベクトルである第1相対動きベクトルを取得し、
第2観測位置に対する第2周囲物体の相対位置である第2物体相対位置、及び前記第2観測位置を基準とした前記第2周囲物体の動きベクトルである第2相対動きベクトルを取得し、
前記第1物体相対位置、前記第1相対動きベクトル、前記第2物体相対位置、及び前記第2相対動きベクトルに基づいて、前記第1周囲物体と前記第2周囲物体が同一であるか否かを判定する同一物体判定処理を実行し、
前記第1物体相対位置、前記第1相対動きベクトル、前記第2物体相対位置、及び前記第2相対動きベクトルをそれぞれ共通の座標系に変換して第1物体位置、第1動きベクトル、第2物体位置、及び第2動きベクトルを求め、
前記同一物体判定処理では、
前記第1物体位置及び前記第2物体位置の相互距離が所定閾値以下となる前記第1周囲物体及び前記第2周囲物体を抽出し、
抽出された前記第1周囲物体の前記第1動きベクトル及び前記第2周囲物体の前記第2動きベクトルが予め規定された相関関係を満たすか否かを判定し、
前記第1動きベクトル及び前記第2動きベクトルの少なくとも一方の方向の時間変化に基づいて前記周囲物体が旋回しているか否かを判定し、
前記周囲物体が旋回していると判断すると、
前記相関関係として該周囲物体の旋回時用に補正された補正相関関係を設定し、
前記第1動きベクトル及び前記第2動きベクトルが前記補正相関関係を満たす場合と判断した場合に、前記第1周囲物体と前記第2周囲物体が同一であるとみなす、
物体認識方法。
An object recognition method that recognizes surrounding objects that are objects that exist around each from multiple observation positions, the method comprising:
Obtaining a first object relative position that is a relative position of a first surrounding object with respect to a first observation position, and a first relative motion vector that is a motion vector of the first surrounding object with respect to the first observation position,
Obtaining a second object relative position that is a relative position of a second surrounding object with respect to a second observation position, and a second relative motion vector that is a motion vector of the second surrounding object with respect to the second observation position,
Based on the first object relative position, the first relative motion vector, the second object relative position, and the second relative motion vector, whether the first surrounding object and the second surrounding object are the same. Execute the same object determination process to determine the
The first object relative position, the first relative motion vector, the second object relative position, and the second relative motion vector are each converted into a common coordinate system to obtain a first object position, a first motion vector, and a second object relative position. Determine the object position and the second motion vector,
In the same object determination process,
extracting the first surrounding object and the second surrounding object for which a mutual distance between the first object position and the second object position is equal to or less than a predetermined threshold;
determining whether the first motion vector of the extracted first surrounding object and the second motion vector of the second surrounding object satisfy a predefined correlation;
determining whether the surrounding object is turning based on a temporal change in at least one direction of the first motion vector and the second motion vector;
When it is determined that the surrounding object is rotating,
setting a corrected correlation corrected for when the surrounding object turns as the correlation;
If it is determined that the first motion vector and the second motion vector satisfy the corrected correlation, the first surrounding object and the second surrounding object are considered to be the same;
Object recognition method.
請求項に記載の物体認識方法であって、
前記相関関係は、前記第1動きベクトル及び前記第2動きベクトルの差である動きベクトル差が所定の動きベクトル差閾値以下となる関係である、
物体認識方法。
The object recognition method according to claim 1 ,
The correlation is a relationship in which a motion vector difference, which is a difference between the first motion vector and the second motion vector, is less than or equal to a predetermined motion vector difference threshold;
Object recognition method.
請求項1又は2に記載の物体認識方法であって、
前記第1観測位置による前記第1周囲物体の観測方向である第1観測方向を取得し、
前記第2観測位置による前記第2周囲物体の観測方向である第2観測方向を取得し、
前記第1観測方向と前記第2観測方向との差が所定の第1閾値を超える場合に、前記周囲物体の旋回に応じた前記第1観測位置からの第1観測点及び前記第2観測位置からの第2観測点の各運動軌跡の相違を記述する力学モデルを適用して前記補正相関関係を設定する、
物体認識方法。
The object recognition method according to claim 1 or 2 ,
obtaining a first observation direction that is an observation direction of the first surrounding object by the first observation position;
obtaining a second observation direction that is an observation direction of the second surrounding object by the second observation position;
If the difference between the first observation direction and the second observation direction exceeds a predetermined first threshold, a first observation point and a second observation point from the first observation position according to the rotation of the surrounding object. setting the corrected correlation by applying a dynamic model that describes the difference between the respective movement trajectories of the second observation point from
Object recognition method.
請求項に記載の物体認識方法であって、
前記第1閾値を、
前記第1周囲物体及び前記第2周囲物体が相互に同一の物体であると仮定した場合に、前記第1観測点及び前記第2観測点が前記周囲物体上における同一の観測平面上に存在するか否かを判断する観点から定める、
物体認識方法。
The object recognition method according to claim 3 ,
The first threshold value is
When it is assumed that the first surrounding object and the second surrounding object are the same object, the first observation point and the second observation point exist on the same observation plane on the surrounding object. determined from the perspective of determining whether or not
Object recognition method.
請求項に記載の物体認識方法であって、
前記力学モデルとして二輪モデルを用い、
前記第1観測方向と前記第2観測方向との差が前記第1閾値を超え且つ所定の第2閾値以下である場合には、
前記第1動きベクトル及び前記第2動きベクトルの一方を前記二輪モデルにおける車輪の動きベクトルとみなし、他方を前記二輪モデルにおける車体側面の動きベクトルとみなすことで、前記周囲物体の旋回に起因する前記第1動きベクトル及び前記第2動きベクトルの相互のずれを評価し、
前記補正相関関係として、前記ずれを前記相関関係に反映させた第1補正相関関係を設定する、
物体認識方法。
The object recognition method according to claim 4 ,
Using a two-wheel model as the dynamic model,
If the difference between the first observation direction and the second observation direction exceeds the first threshold and is less than or equal to a predetermined second threshold,
By regarding one of the first motion vector and the second motion vector as a motion vector of a wheel in the two-wheeled model, and regarding the other as a motion vector of a side surface of the vehicle body in the two-wheeled model, Evaluating the mutual deviation of the first motion vector and the second motion vector,
setting a first corrected correlation in which the deviation is reflected in the correlation as the corrected correlation;
Object recognition method.
請求項に記載の物体認識方法であって、
前記力学モデルとして二輪モデルを用い、
前記第1観測方向と前記第2観測方向との差が所定の第2閾値を越える場合には、
前記第1動きベクトル及び前記第2動きベクトルの一方を前記二輪モデルにおける前輪の動きベクトルとみなし、他方を前記二輪モデルにおける後輪の動きベクトルとみなすことで、前記周囲物体の旋回に起因する前記第1動きベクトル及び前記第2動きベクトルの相互のずれを評価し、
前記補正相関関係として、前記ずれを前記相関関係に反映させた第2補正相関関係を設定する、
物体認識方法。
The object recognition method according to claim 5 ,
Using a two-wheel model as the dynamic model,
If the difference between the first observation direction and the second observation direction exceeds a predetermined second threshold,
By regarding one of the first motion vector and the second motion vector as the motion vector of the front wheel in the two-wheel model and the other as the motion vector of the rear wheel in the two-wheel model, Evaluating the mutual deviation of the first motion vector and the second motion vector,
setting a second corrected correlation in which the deviation is reflected in the correlation as the corrected correlation;
Object recognition method.
請求項1~6の何れか1項に記載の物体認識方法であって、
前記第2観測位置に前記同一物体判定処理を実行する制御装置が設置される場合に、
前記第1物体相対位置及び前記第1相対動きベクトルを、前記共通の座標系として前記第2観測位置を基準とする座標系を変換する、
物体認識方法。
The object recognition method according to any one of claims 1 to 6 ,
When a control device that executes the same object determination process is installed at the second observation position,
converting the first object relative position and the first relative motion vector into a coordinate system based on the second observation position as the common coordinate system;
Object recognition method.
請求項1~の何れか1項に記載の物体認識方法であって、
周辺状況を検出するセンサを備えた第1車両及び第2車両をそれぞれ前記第1観測位置及び前記第2観測位置に設定することで実行される、
物体認識方法。
The object recognition method according to any one of claims 1 to 7 ,
carried out by setting a first vehicle and a second vehicle equipped with sensors for detecting surrounding conditions at the first observation position and the second observation position, respectively;
Object recognition method.
複数の観測位置からそれぞれの周囲に存在する物体である周囲物体を認識する物体認識装置であって、
物体相対位置取得部と、相対動きベクトル取得部と、同一物体判定処理部と、を備え、
前記物体相対位置取得部は、
第1観測位置に対する第1周囲物体の相対位置である第1物体相対位置、及び第2観測位置に対する第2周囲物体の相対位置である第2物体相対位置を取得し、
前記相対動きベクトル取得部は、
前記第1観測位置を基準とした前記第1周囲物体の動きベクトルである第1相対動きベクトル、及び前記第2観測位置を基準とした前記第2周囲物体の動きベクトルである第2相対動きベクトルを取得し、
前記第1物体相対位置、前記第1相対動きベクトル、前記第2物体相対位置、及び前記第2相対動きベクトルをそれぞれ共通の座標系に変換して第1物体位置、第1動きベクトル、第2物体位置、及び第2動きベクトルを求め、
前記同一物体判定処理部は、
前記第1物体位置及び前記第2物体位置の相互距離が所定閾値以下となる前記第1周囲物体及び前記第2周囲物体を抽出し、
抽出された前記第1周囲物体の前記第1動きベクトル及び前記第2周囲物体の前記第2動きベクトルが予め規定された相関関係を満たすか否かを判定し、
前記第1動きベクトル及び前記第2動きベクトルの少なくとも一方の方向の時間変化に基づいて前記周囲物体が旋回しているか否かを判定し、
前記周囲物体が旋回していると判断すると、
前記相関関係として該周囲物体の旋回時用に補正された補正相関関係を設定し、
前記第1動きベクトル及び前記第2動きベクトルが前記補正相関関係を満たす場合と判断した場合に、前記第1周囲物体と前記第2周囲物体が同一であるとみなす、
物体認識装置。
An object recognition device that recognizes surrounding objects that are objects that exist around each from a plurality of observation positions,
Comprising an object relative position acquisition unit, a relative motion vector acquisition unit, and an identical object determination processing unit,
The object relative position acquisition unit includes:
Obtaining a first object relative position that is the relative position of the first surrounding object with respect to the first observation position, and a second object relative position that is the relative position of the second surrounding object with respect to the second observation position,
The relative motion vector acquisition unit includes:
a first relative motion vector that is a motion vector of the first surrounding object relative to the first observation position; and a second relative motion vector that is a motion vector of the second surrounding object relative to the second observation position. get
The first object relative position, the first relative motion vector, the second object relative position, and the second relative motion vector are each converted into a common coordinate system to obtain a first object position, a first motion vector, and a second object relative position. Determine the object position and the second motion vector,
The same object determination processing unit includes:
extracting the first surrounding object and the second surrounding object for which a mutual distance between the first object position and the second object position is equal to or less than a predetermined threshold;
determining whether the first motion vector of the extracted first surrounding object and the second motion vector of the second surrounding object satisfy a predefined correlation;
determining whether the surrounding object is turning based on a temporal change in at least one direction of the first motion vector and the second motion vector;
When it is determined that the surrounding object is rotating,
setting a corrected correlation corrected for when the surrounding object turns as the correlation;
If it is determined that the first motion vector and the second motion vector satisfy the corrected correlation, the first surrounding object and the second surrounding object are considered to be the same;
Object recognition device.
JP2019202694A 2019-11-07 2019-11-07 Object recognition method and object recognition device Active JP7382799B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019202694A JP7382799B2 (en) 2019-11-07 2019-11-07 Object recognition method and object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019202694A JP7382799B2 (en) 2019-11-07 2019-11-07 Object recognition method and object recognition device

Publications (2)

Publication Number Publication Date
JP2021077045A JP2021077045A (en) 2021-05-20
JP7382799B2 true JP7382799B2 (en) 2023-11-17

Family

ID=75899861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019202694A Active JP7382799B2 (en) 2019-11-07 2019-11-07 Object recognition method and object recognition device

Country Status (1)

Country Link
JP (1) JP7382799B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341020A (en) 2001-03-15 2002-11-27 Fujitsu Ten Ltd Signal processing method of scan type fm-cw radar
JP2008293099A (en) 2007-05-22 2008-12-04 Mazda Motor Corp Driving support device for vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002341020A (en) 2001-03-15 2002-11-27 Fujitsu Ten Ltd Signal processing method of scan type fm-cw radar
JP2008293099A (en) 2007-05-22 2008-12-04 Mazda Motor Corp Driving support device for vehicle

Also Published As

Publication number Publication date
JP2021077045A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
JP7461720B2 (en) Vehicle position determination method and vehicle position determination device
CN110312912B (en) Automatic vehicle parking system and method
US10900793B2 (en) Vehicle path guiding apparatus and method
US10436884B2 (en) Calibration of laser and vision sensors
CN112985416B (en) Robust positioning and mapping method and system based on laser and visual information fusion
US9811742B2 (en) Vehicle-surroundings recognition device
US20210027490A1 (en) Apparatus for Determining an Angle of a Trailer Attached to A Vehicle
KR102016551B1 (en) Apparatus and method for estimating position
JP7404010B2 (en) Position estimation device and method
KR102547274B1 (en) Moving robot and method for estiating location of moving robot
EP3324210B1 (en) Self-calibrating sensor system for a wheeled vehicle
Lagisetty et al. Object detection and obstacle avoidance for mobile robot using stereo camera
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
Tomažič et al. Fusion of visual odometry and inertial navigation system on a smartphone
JP6988873B2 (en) Position estimation device and computer program for position estimation
JP7382799B2 (en) Object recognition method and object recognition device
CN116543032A (en) Impact object ranging method, device, ranging equipment and storage medium
Dichgans et al. Robust Vehicle Tracking with Monocular Vision using Convolutional Neuronal Networks
CN112859127A (en) Navigation device and operation method thereof
Winkens et al. Optical truck tracking for autonomous platooning
WO2023017624A1 (en) Drive device, vehicle, and method for automated driving and/or assisted driving
US11686837B2 (en) Apparatus and method for determining kinetic information
KR102212268B1 (en) Localization system and means of transportation with the same and computing device for executing the same
US20240036193A1 (en) Detecting and Determining Relevant Variables of an Object by Means of Ultrasonic Sensors
Van Crombrugge et al. Fast Ground Detection for Range Cameras on Road Surfaces Using a Three-Step Segmentation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231107

R150 Certificate of patent or registration of utility model

Ref document number: 7382799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150