JP2022097190A - Object recognition device and object recognition method - Google Patents

Object recognition device and object recognition method Download PDF

Info

Publication number
JP2022097190A
JP2022097190A JP2020210632A JP2020210632A JP2022097190A JP 2022097190 A JP2022097190 A JP 2022097190A JP 2020210632 A JP2020210632 A JP 2020210632A JP 2020210632 A JP2020210632 A JP 2020210632A JP 2022097190 A JP2022097190 A JP 2022097190A
Authority
JP
Japan
Prior art keywords
size
data
observation data
unit
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020210632A
Other languages
Japanese (ja)
Other versions
JP7504016B2 (en
Inventor
英明 玉積
Hideaki Tamazumi
崇暢 大倉
Takanobu Okura
真一 立岩
Shinichi Tateiwa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Mitsubishi Electric Corp
Original Assignee
Mazda Motor Corp
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp, Mitsubishi Electric Corp filed Critical Mazda Motor Corp
Priority to JP2020210632A priority Critical patent/JP7504016B2/en
Publication of JP2022097190A publication Critical patent/JP2022097190A/en
Application granted granted Critical
Publication of JP7504016B2 publication Critical patent/JP7504016B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

To provide an object recognition device and an object recognition method that can suppress reduction in determination accuracy of a correlation.SOLUTION: An object recognition device D includes: a clustering section 22 that obtains observation data which is object state information including a size and a position of an object by clustering a detection point obtained by detecting the object around its own device in a predetermined detection range; a prediction section 28 that obtains prediction data of the object state information on the basis of past observation data; a correlation section 25 that determines whether the object represented by the observation data and the object represented by the prediction data are identical by correlation processing between the observation data and the prediction data; and a first size correction section 24 that corrects at least one of the size of the object in the observation data and the size of the object in the prediction data so that the size of the object in the observation data and the size of the object in the prediction data match before the correlation processing.SELECTED DRAWING: Figure 1

Description

本発明は、自機の周囲に存在する物体を認識する物体認識装置および物体認識方法に関する。 The present invention relates to an object recognition device and an object recognition method for recognizing an object existing around the own machine.

近年、安全技術への要求や自動運転技術への要求等から、周囲状況の認識が要望されている。特に例えば車両やロボット等の移動体における衝突回避や車線変更等の場合では、移動体の側方における状況認識が重要である。このため、移動体には、周囲の状況を認識するために、物体を検知する物体認識装置(物体検知装置)が搭載されることが多い。このような物体を検知して認識する技術は、例えば、特許文献1や特許文献2に開示されている。 In recent years, there has been a demand for recognition of the surrounding situation due to demands for safety technology and automatic driving technology. In particular, in the case of collision avoidance or lane change in a moving body such as a vehicle or a robot, it is important to recognize the situation on the side of the moving body. For this reason, the moving body is often equipped with an object recognition device (object detection device) that detects an object in order to recognize the surrounding situation. Techniques for detecting and recognizing such an object are disclosed in, for example, Patent Document 1 and Patent Document 2.

この特許文献1に開示されたレーダ装置は、物標による反射波に基づいて前記物標との距離、相対速度および角度のデータのうち少なくとも一つを含む前記物標の観測データを導出する導出部と、前記観測データを予測した予測データを生成する予測部と、前記予測データに基づいて予測範囲を設定する設定部と、前記導出部によって今回導出された観測データが前記予測範囲内である場合に、前記導出部によって前回導出された観測データと前記今回導出された観測データとが時間的に連続する同一物標の観測データであると判定する判定部と、を備える。このような物体の検出では、観測データと予測データとの相関関係の判定によって、検出タイミングごとに物体の同一性が判定される。 The radar device disclosed in Patent Document 1 derives the observation data of the target including at least one of the data of the distance, the relative speed and the angle from the target based on the reflected wave by the target. The unit, the prediction unit that generates the prediction data that predicts the observation data, the setting unit that sets the prediction range based on the prediction data, and the observation data derived this time by the derivation unit are within the prediction range. In this case, it is provided with a determination unit for determining that the observation data previously derived by the derivation unit and the observation data derived this time are observation data of the same target that are continuous in time. In the detection of such an object, the identity of the object is determined at each detection timing by determining the correlation between the observation data and the prediction data.

前記特許文献2に開示された物体検出装置は、車両に搭載され、当該車両周辺の物体を検出する物体検出装置であって、前記車両周辺の物体を検出することによって得られた捕捉点を示す信号を用いて、当該捕捉点それぞれの移動方向を算出する移動方向算出手段と、予め検出対象となる物体の形状に応じた枠および当該物体で想定されている進行方向として当該枠に進行基準方向を設定し、前記捕捉点のうち、前記移動方向に当該進行基準方向を合わせた当該枠内に存在する捕捉点を同じ物体の捕捉点として判定する判定手段とを備える。このような物体の検出では、単一の物体での複数の補足点は、いわゆるグループ化(クラスタリング)によって、1つに纏められるが、前記特許文献2に開示された物体検出装置では、前記物体の形状に応じた枠が設定され、この枠内に入るか否かを判断することによってクラスタリングが行われている。 The object detection device disclosed in Patent Document 2 is an object detection device mounted on a vehicle and detecting an object around the vehicle, and indicates a capture point obtained by detecting an object around the vehicle. A movement direction calculation means for calculating the movement direction of each of the capture points using a signal, a frame corresponding to the shape of the object to be detected in advance, and a travel reference direction in the frame as the travel direction assumed for the object. Is provided, and among the capture points, a determination means for determining a capture point existing in the frame in which the traveling reference direction is aligned with the movement direction is provided as a capture point of the same object. In the detection of such an object, a plurality of supplementary points in a single object are combined into one by so-called grouping (clustering), but in the object detection device disclosed in Patent Document 2, the object is described. A frame is set according to the shape of the above, and clustering is performed by determining whether or not the frame is within this frame.

特開2018-063130号公報Japanese Unexamined Patent Publication No. 2018-063130 特開2010-156567号公報JP-A-2010-156567

ところで、例えばレーダ装置等の、物体を検出(センシング)する検出器(センサ)は、予め規定された所定の検出範囲内で物体を検出している。前記検出器の性能限界から、検出範囲内に物体が存在していても、前記物体の一部で検出点が生成され、物体の残部での検出点が漏れてしまうことがある。例えば前記検出器がレーダ装置である場合、この現象は、検出角の端付近で発生し易い。前記物体の一部での検出点に基づきクラスタリングによって物体の検出領域として生成された枠(クラスタ枠)のサイズ(枠サイズ、物体のサイズ(物体の大きさ))は、前記物体の一部での検出点であるから、前回のタイミングで検出した物体のサイズとは異なってしまう。このため、サイズに基づき、前回の検出タイミングで検出した物体と今回の検出タイミングで検出した物体との相関関係を判定する場合、相関関係の判定精度が低下してしまう。 By the way, a detector (sensor) for detecting (sensing) an object, such as a radar device, detects an object within a predetermined detection range defined in advance. Due to the performance limit of the detector, even if an object exists within the detection range, a detection point may be generated in a part of the object and the detection point in the rest of the object may leak. For example, when the detector is a radar device, this phenomenon is likely to occur near the end of the detection angle. The size (frame size, object size (object size)) of the frame (cluster frame) generated as the detection area of the object by clustering based on the detection point in the part of the object is the part of the object. Since it is the detection point of, it will be different from the size of the object detected at the previous timing. Therefore, when determining the correlation between the object detected at the previous detection timing and the object detected at the current detection timing based on the size, the determination accuracy of the correlation is lowered.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、相関関係の判定精度の低下を抑制できる物体認識装置および物体認識方法を提供することである。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an object recognition device and an object recognition method capable of suppressing a decrease in correlation determination accuracy.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかる物体認識装置は、所定の検出範囲で自機の周囲における物体を検出することによって得られた1または複数の検出点をクラスタリングすることによって、前記物体のサイズおよび位置を含む物体状態情報である観測データを求めるクラスタリング部と、過去の観測データに基づいて前記物体状態情報を予測した予測データを求める予測部と、前記観測データで表される物体と前記予測データで表される物体とが同一であるか否かを、前記観測データと前記予測データとの相関処理によって判定する相関部と、前記相関部で相関処理を実施する前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するサイズ補正部とを備える。好ましくは、上述の物体認識装置において、前記検出点は、送信波の反射波に基づいて所定の検出範囲で物体を検出するレーダ装置によって得られたものである。好ましくは、上述の物体認識装置において、前記検出点は、ステレオカメラで撮像した1対の画像に基づいて所定の検出範囲で物体を検出する物体検出装置によって得られたものである。 As a result of various studies, the present inventor has found that the above object can be achieved by the following invention. That is, the object recognition device according to one aspect of the present invention has the size of the object and the size of the object by clustering one or a plurality of detection points obtained by detecting the object around the own machine within a predetermined detection range. A clustering unit that obtains observation data that is object state information including position, a prediction unit that obtains prediction data that predicts the object state information based on past observation data, an object represented by the observation data, and the prediction data. A correlation unit that determines whether or not the object represented by is the same by the correlation processing between the observation data and the prediction data, and an object in the observation data before the correlation processing is performed by the correlation unit. It is provided with a size correction unit that corrects at least one of the size of the object in the observation data and the size of the object in the prediction data so that the size of the object and the size of the object in the prediction data match. Preferably, in the above-mentioned object recognition device, the detection point is obtained by a radar device that detects an object in a predetermined detection range based on the reflected wave of the transmitted wave. Preferably, in the above-mentioned object recognition device, the detection point is obtained by an object detection device that detects an object in a predetermined detection range based on a pair of images captured by a stereo camera.

このような物体検出装置は、相関処理を実施する前に、観測データにおける物体のサイズと予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するので、サイズの違いに起因する相関関係の判定精度の低下を、抑制できる。 Such an object detection device is such that the size of the object in the observation data and the size of the object in the prediction data match so that the size of the object in the observation data and the size of the object in the prediction data match before performing the correlation processing. Since at least one of the sizes is corrected, it is possible to suppress a decrease in the determination accuracy of the correlation due to the difference in size.

他の一態様では、上述の物体認識装置において、前記物体のサイズは、前記物体が存在する領域を囲む枠のサイズであり、前記サイズ補正部は、前記枠における、前記自機から最も近い最近接点の位置が、補正の前後で、同一となるように、補正する。 In another aspect, in the above-mentioned object recognition device, the size of the object is the size of a frame surrounding the area where the object exists, and the size correction unit is the closest to the own machine in the frame. Correct the contact positions so that they are the same before and after the correction.

このような物体認識装置は、高い検出精度を持つ最近接点、の位置を、補正の前後で、同一となるように、補正するので、補正後で位置精度を維持またはその低下を抑制できる。 Since such an object recognition device corrects the positions of the recent contacts having high detection accuracy so that they are the same before and after the correction, the position accuracy can be maintained or its deterioration can be suppressed after the correction.

他の一態様では、これら上述の物体認識装置において、前記物体のサイズは、前記物体が存在する領域を囲む矩形枠のサイズであり、前記サイズ補正部は、所定の第1座標軸と、前記第1座標軸に直交する第2座標軸と、前記自機の中心位置を座標原点とする座標系を設定した場合に、前記矩形枠の辺が前記第1座標軸または前記第2座標軸と交差する場合、前記交差する辺における前記自機から最も近い最近接辺において、一方象限に延びる第1部分辺の第1長さと他方象限に延びる第2部分辺の第2長さとの比が、補正の前後で、同一となるように、補正する。好ましくは、上述の物体認識装置において、前記第1座標軸は、前記検出範囲の中心線である視認方向に沿って延びている。好ましくは、上述の物体認識装置において、前記第1座標軸は、移動する場合における前記自機の進行方向に沿って延びている。 In another aspect, in these above-mentioned object recognition devices, the size of the object is the size of a rectangular frame surrounding the area where the object exists, and the size correction unit has a predetermined first coordinate axis and the first coordinate axis. When the second coordinate axis orthogonal to one coordinate axis and the coordinate system whose coordinate origin is the center position of the own machine are set and the sides of the rectangular frame intersect with the first coordinate axis or the second coordinate axis, the above The ratio of the first length of the first partial side extending to one quadrant to the second length of the second partial side extending to the other quadrant at the closest tangent to the own machine at the intersecting side is before and after the correction. Correct so that they are the same. Preferably, in the above-mentioned object recognition device, the first coordinate axis extends along the viewing direction, which is the center line of the detection range. Preferably, in the above-mentioned object recognition device, the first coordinate axis extends along the traveling direction of the own machine when moving.

このような物体認識装置は、高い検出精度を持つ傾向にある最近接辺、における象限ごとの各部分辺での各長さの比を、補正の前後で、同一となるように、補正するので、補正後で位置精度を維持またはその低下を抑制できる。 Such an object recognition device corrects the ratio of each length at each partial side of each quadrant in the nearest edge, which tends to have high detection accuracy, so that it is the same before and after the correction. The position accuracy can be maintained or its deterioration can be suppressed after the correction.

他の一態様では、これら上述の物体認識装置において、前記物体のサイズは、前記物体が存在する領域を囲む矩形枠のサイズであり、前記サイズ補正部は、前記予測データの矩形枠が前記検出範囲を超えて存在する場合、前記検出範囲と交差する辺における前記自機から最も近い第2最近接辺において、前記検出範囲を超えて延びる第3部分辺の第3長さと前記検出範囲内に延びる第4部分辺の第4長さとの比が、前記予測データと補正後の前記観測データとで、同一となるように、前記観測データにおける物体のサイズを補正する。 In another aspect, in these above-mentioned object recognition devices, the size of the object is the size of a rectangular frame surrounding the area where the object exists, and in the size correction unit, the rectangular frame of the prediction data is detected. If it exists beyond the range, it is within the third length of the third partial side extending beyond the detection range and within the detection range at the second closest edge closest to the own machine at the side intersecting the detection range. The size of the object in the observed data is corrected so that the ratio of the extended fourth partial side to the fourth length is the same in the predicted data and the corrected observation data.

予測データの矩形枠が検出範囲を超えて存在する場合、観測データにおける物体のサイズは、前記検出範囲外の部分で欠損している可能性がある。上記物体認識装置は、予測データの矩形枠の最近接辺における検出範囲内外ごとの各部分辺での各長さの比を、前記予測データと補正後の前記観測データとで、同一となるように、観測データにおける物体のサイズを補正するので、前記欠損を補うことができ、補正後で位置精度を維持またはその低下を抑制できる。 If the rectangular frame of the prediction data exists beyond the detection range, the size of the object in the observation data may be missing in the portion outside the detection range. In the object recognition device, the ratio of each length in each partial side of the detection range in the nearest edge of the rectangular frame of the prediction data is the same in the prediction data and the corrected observation data. In addition, since the size of the object in the observation data is corrected, the defect can be compensated, and the position accuracy can be maintained or its deterioration can be suppressed after the correction.

他の一態様では、これら上述の物体認識装置において、前記サイズ補正部で補正する前に、前記クラスタリング部で求めた観測データにおける物体のサイズに基づいて、予め定義された複数のサイズ中から1つのサイズを選択し、前記選択したサイズを前記観測データにおける物体のサイズとするとともに、前記選択したサイズから求めた位置を前記観測データにおける物体の位置とするように、前記観測データにおける物体のサイズおよび位置を置き換える置換部をさらに備える。 In another aspect, in the above-mentioned object recognition device, one of a plurality of predefined sizes is used based on the size of the object in the observation data obtained by the clustering unit before the correction is performed by the size correction unit. The size of the object in the observation data is selected so that the selected size is the size of the object in the observation data and the position obtained from the selected size is the position of the object in the observation data. And further includes a replacement that replaces the position.

このような物体認識装置は、予め定義された複数のサイズ中から選択したサイズに、前記観測データにおける物体のサイズに置き換えるので、検出点の検出漏れによるサイズの変動を抑制できる。 Since such an object recognition device replaces the size selected from a plurality of predefined sizes with the size of the object in the observation data, it is possible to suppress the fluctuation of the size due to the detection omission of the detection point.

本発明の他の一態様にかかる物体認識方法は、所定の検出範囲で自機の周囲における物体を検出することによって得られた1または複数の検出点をクラスタリングすることによって、前記物体のサイズおよび位置を含む物体状態情報である観測データを求めるクラスタリング工程と、過去の観測データに基づいて前記物体状態情報を予測した予測データを求める予測工程と、前記観測データで表される物体と前記予測データで表される物体とが同一であるか否かを、前記観測データと前記予測データとの相関処理によって判定する相関処理工程と、前記相関処理工程で相関処理を実施する前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するサイズ補正工程とを備える。 The object recognition method according to another aspect of the present invention is the size of the object and the size of the object by clustering one or more detection points obtained by detecting the object around the own machine within a predetermined detection range. A clustering process for obtaining observation data which is object state information including a position, a prediction process for obtaining prediction data for predicting the object state information based on past observation data, and an object represented by the observation data and the prediction data. The observation data before performing the correlation processing in the correlation processing step of determining whether or not the object represented by is the same or not by the correlation processing between the observation data and the prediction data, and the correlation processing step. The size correction step of correcting at least one of the size of the object in the observation data and the size of the object in the prediction data is provided so that the size of the object in the prediction data and the size of the object in the prediction data match.

このような物体検出方法は、相関処理を実施する前に、観測データにおける物体のサイズと予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するので、サイズの違いに起因する相関関係の判定精度の低下を、抑制できる。 In such an object detection method, the size of the object in the observation data and the size of the object in the prediction data are matched so that the size of the object in the observation data and the size of the object in the prediction data match before the correlation processing is performed. Since at least one of the sizes is corrected, it is possible to suppress a decrease in the determination accuracy of the correlation due to the difference in size.

本発明にかかる物体認識装置および物体認識方法は、相関関係の判定精度の低下を抑制できる。 The object recognition device and the object recognition method according to the present invention can suppress a decrease in the accuracy of determining the correlation.

実施形態における、第1ないし第5検出部を備える場合の物体認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of the object recognition apparatus in the case which includes the 1st to 5th detection part in an embodiment. 車両に取り付けられた第1ないし第5検出部を説明するための図である。It is a figure for demonstrating the 1st to 5th detection part attached to a vehicle. サイズの置換処理を説明するための図である。It is a figure for demonstrating the size replacement process. 第1および第2サイズ補正処理を説明するための図である。It is a figure for demonstrating the 1st and 2nd size correction processing. 認識データの生成およびその利用に関する前記物体認識装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the said object recognition apparatus regarding the generation and use of recognition data. 図5に示す第1サイズ補正処理、相関処理およびサイズのリセットに関する前記物体認識装置の動作を示すフローチャートである。FIG. 5 is a flowchart showing the operation of the object recognition device regarding the first size correction process, the correlation process, and the size reset shown in FIG. 図5に示す第2サイズ補正処理および認識データの生成に関する前記物体認識装置の動作を示すフローチャートである。FIG. 5 is a flowchart showing the operation of the object recognition device regarding the second size correction process and the generation of recognition data shown in FIG. 前記物体認識装置の効果を説明するための図である。It is a figure for demonstrating the effect of the object recognition apparatus.

以下、図面を参照して、本発明の1または複数の実施形態が説明される。しかしながら、発明の範囲は、開示された実施形態に限定されない。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。 Hereinafter, one or more embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the disclosed embodiments. It should be noted that the configurations with the same reference numerals in the respective drawings indicate the same configurations, and the description thereof will be omitted as appropriate. In the present specification, when they are generically referred to, they are indicated by reference numerals without subscripts, and when they refer to individual configurations, they are indicated by reference numerals with subscripts.

実施形態における物体認識装置は、自機の周囲に存在する物体(所定の範囲で前記自機から視認可能な物体)を認識するための装置である。この物体認識装置は、所定の検出範囲で自機の周囲における物体を検出することによって得られた1または複数の検出点をクラスタリングすることによって、前記物体のサイズおよび位置を含む物体状態情報である観測データを求めるクラスタリング部と、過去の観測データに基づいて前記物体状態情報を予測した予測データを求める予測部と、前記観測データで表される物体と前記予測データで表される物体とが同一であるか否かを、前記観測データと前記予測データとの相関処理によって判定する相関部と、前記相関部で相関処理を実施する前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するサイズ補正部(第1サイズ補正部)とを備える。そして、本実施形態では、この物体認識装置は、前記クラスタリング部で求めた観測データと前記予測部で求めた予測データとに基づいて、認識結果としての物体状態情報である認識データを求める認識部と、前記認識部で認識データを求める前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するサイズ補正部(第2サイズ補正部)とをさらに備える。このような物体認識装置は、単独で用いられてもよく、他の装置に搭載されてもよい(組み込まれてもよい)。前記他の装置は、例えば車両やロボット等の移動体移動体であっても、移動体で無くてもよい。ここでは、一例として、前記検出点を得るための検出部をさらに備え、車両(移動体の一例)に搭載された物体認識装置を例に、より具体的に説明する。 The object recognition device in the embodiment is a device for recognizing an object existing around the own machine (an object visible from the own machine within a predetermined range). This object recognition device is object state information including the size and position of the object by clustering one or a plurality of detection points obtained by detecting an object around the own machine within a predetermined detection range. The clustering unit that obtains the observation data, the prediction unit that obtains the prediction data that predicts the object state information based on the past observation data, and the object represented by the observation data and the object represented by the prediction data are the same. The correlation unit that determines whether or not the data is based on the correlation processing between the observation data and the prediction data, and the size of the object in the observation data and the object in the prediction data before the correlation processing is performed by the correlation unit. A size correction unit (first size correction unit) for correcting at least one of the size of the object in the observation data and the size of the object in the prediction data is provided so as to match the size of. Then, in the present embodiment, this object recognition device is a recognition unit that obtains recognition data that is object state information as a recognition result based on the observation data obtained by the clustering unit and the prediction data obtained by the prediction unit. And, before the recognition data is obtained by the recognition unit, the size of the object in the observation data and the size of the object in the prediction data so that the size of the object in the observation data and the size of the object in the prediction data match. A size correction unit (second size correction unit) for correcting at least one of the two is further provided. Such an object recognition device may be used alone or may be mounted on another device (may be incorporated). The other device may or may not be a moving body such as a vehicle or a robot. Here, as an example, an object recognition device that further includes a detection unit for obtaining the detection point and is mounted on a vehicle (an example of a moving body) will be described more specifically.

図1は、実施形態における、第1ないし第5検出部を備える場合の物体認識装置の構成を示すブロック図である。図2は、車両に取り付けられた第1ないし第5検出部を説明するための図である。図3は、サイズの置換処理を説明するための図である。図3Aは、置換前のクラスタ枠を示し、図3Bは、置換後のクラスタ枠を示す。図4は、第1および第2サイズ補正処理を説明するための図である。図4Aおよび図4Bは、補正対象のクラスタ枠が1つの象限内に存在する場合を示し、図4Cおよび図4Dは、補正対象のクラスタ枠が複数の象限にわたって存在する場合を示し、図4Eおよび図4Fは、予測データのクラスタ枠が検出部の検出範囲を超えて存在する場合を示す。図4A、図4Cおよび図4Eは、補正前を示し、図4B、図4Dおよび図4Fは、補正後を示す。 FIG. 1 is a block diagram showing a configuration of an object recognition device when the first to fifth detection units are provided in the embodiment. FIG. 2 is a diagram for explaining the first to fifth detection units attached to the vehicle. FIG. 3 is a diagram for explaining the size replacement process. FIG. 3A shows a cluster frame before replacement, and FIG. 3B shows a cluster frame after replacement. FIG. 4 is a diagram for explaining the first and second size correction processes. 4A and 4B show the case where the cluster frame to be corrected exists in one quadrant, and FIGS. 4C and 4D show the case where the cluster frame to be corrected exists over a plurality of quadrants. FIG. 4F shows a case where the cluster frame of the predicted data exists beyond the detection range of the detection unit. 4A, 4C and 4E show before the correction, and FIGS. 4B, 4D and 4F show after the correction.

実施形態における物体認識装置Dは、例えば、図1に示すように、制御処理部2と、記憶部3とを備える。図1に示す例では、物体認識装置Dは、さらに、検出点を得るための5個の第1ないし第5検出部1-1~1-5を備えている。 The object recognition device D in the embodiment includes, for example, a control processing unit 2 and a storage unit 3, as shown in FIG. In the example shown in FIG. 1, the object recognition device D further includes five first to fifth detection units 1-1 to 1-5 for obtaining detection points.

第1ないし第5検出部1-1~1-5は、それぞれ、制御処理部2に接続され、制御処理部2の制御に従って、所定の検出範囲で当該物体認識装置Dの周囲における物体を検出し、その検出結果を検出点として制御処理部2に出力する装置である。前記移動体とは、自機の位置を変えることができる装置であり、例えば車両やロボット等である。前記車両は、例えば工場内の部品搬送車、自動車および鉄道車両等である。本実施形態では、上述したように、第1ないし第5検出部1-1~1-5は、移動体の一例である車両VCに搭載される。これら第1ないし第5検出部1-1~1-5は、車両VCの周囲における物体(自車両VCとは異なる他の物体)をより広い範囲で検出できるように、例えば、図2に示すように、車両VCの前方および各コーナーに配設される。第1検出部1-1は、車両VCの前方部における略中央位置に設けられ、車両VCの進行方向である第1方向PRを中心に所定の第1検出範囲RFで車両VCの周囲における物体を検出する。第2検出部1-2は、前記車両VCにおける一方側の前方端(例えば右前方コーナ)に設けられ、前記一方側の車幅方向より斜め前方の第2方向FRを中心に所定の第2検出範囲RRFで車両VCの周囲における物体を検出する。第3検出部1-3は、前記車両VCにおける前記一方側の後方端(例えば右後方コーナ)に設けられ、前記一方側の車幅方向より斜め後方の第3方向BRを中心に所定の第3検出範囲RRBで車両VCの周囲における物体を検出する。第4検出部1-4は、前記車両VCにおける他方側の前方端(例えば左前方コーナ)に設けられ、前記他方側の車幅方向より斜め前方の第4方向FLを中心に所定の第4検出範囲RLFで車両VCの周囲における物体を検出する。第5検出部1-5は、前記車両VCにおける前記他方側の後方端(例えば左後方コーナ)に設けられ、前記他方側の車幅方向より斜め後方の第5方向BLを中心に所定の第5検出範囲RLBで車両VCの周囲における物体を検出する。ここで、本実施形態では、物体認識装置Dは、車両VCに搭載されるので、車両VC(移動体)の周囲は、本実施形態において、当該物体認識装置Dの周囲(自機の周囲)を意味し、その一例に相当する。同様に、後述の車両VC(移動体)の中心位置は、本実施形態において、当該物体認識装置Dの中心位置(自機の中心位置)を意味し、その一例に相当する。 The first to fifth detection units 1-1 to 1-5 are connected to the control processing unit 2, respectively, and detect an object around the object recognition device D within a predetermined detection range according to the control of the control processing unit 2. Then, the detection result is output to the control processing unit 2 as a detection point. The moving body is a device capable of changing the position of its own machine, such as a vehicle or a robot. The vehicle is, for example, a parts carrier vehicle, an automobile, a railroad vehicle, or the like in a factory. In the present embodiment, as described above, the first to fifth detection units 1-1 to 1-5 are mounted on the vehicle VC which is an example of the moving body. These first to fifth detection units 1-1 to 1-5 are shown in FIG. 2, for example, so that an object around the vehicle VC (another object different from the own vehicle VC) can be detected in a wider range. As such, it is arranged in front of the vehicle VC and at each corner. The first detection unit 1-1 is provided at a substantially central position in the front portion of the vehicle VC, and is an object around the vehicle VC in a predetermined first detection range RF centered on the first direction PR which is the traveling direction of the vehicle VC. Is detected. The second detection unit 1-2 is provided at the front end on one side (for example, the right front corner) of the vehicle VC, and is a predetermined second centering on the second direction FR diagonally forward from the vehicle width direction on the one side. The detection range RRF detects an object around the vehicle VC. The third detection unit 1-3 is provided at the rear end of the vehicle VC on one side (for example, the right rear corner), and is a predetermined third detection unit centered on a third direction BR diagonally rearward from the vehicle width direction on the one side. 3 Detection range RRB detects an object around the vehicle VC. The fourth detection unit 1-4 is provided at the front end (for example, the left front corner) on the other side of the vehicle VC, and is a predetermined fourth centering on the fourth direction FL diagonally forward from the vehicle width direction on the other side. The detection range RLF detects an object around the vehicle VC. The fifth detection unit 1-5 is provided at the rear end of the other side of the vehicle VC (for example, the left rear corner), and is a predetermined fifth detection unit centered on a fifth direction BL diagonally rearward from the vehicle width direction of the other side. 5 Detection range RLB detects objects around the vehicle VC. Here, in the present embodiment, since the object recognition device D is mounted on the vehicle VC, the periphery of the vehicle VC (moving body) is the periphery of the object recognition device D (around the own machine) in the present embodiment. Means, and corresponds to one example. Similarly, the center position of the vehicle VC (moving body) described later means the center position of the object recognition device D (center position of the own machine) in the present embodiment, and corresponds to an example thereof.

これら第1ないし第5検出部1-1~1-5は、それぞれ、例えば、所定の送信波を送信し、物体で反射した送信波の反射波を受信することにより、前記物体を検出し、前記物体の方向と前記物体までの距離を測定することにより、前記物体の位置(自車両VCに対する前記物体の相対位置(相対方向、相対距離))を測定するレーダ装置である。前記送信波は、例えば、ミリ波帯の電磁波であってよく、あるいは、赤外のレーザ光であってよく、あるいは、超音波であってよい。これら第1ないし第5検出部1-1~1-5は、それぞれ、例えば、ミリ波帯の送信波を第1ないし第5検出範囲RF、RRF、RRB、RLF、RLBで走査しながら送信する送信部と、前記送信波が物体で反射した反射波を受信する受信部と、前記送信波と前記反射波とに基づいて前記物体の方向と前記物体までの距離とを求めることで、前記物体の位置を検出点として求める信号処理部とを備える。前記信号処理部は、前記検出範囲の走査における前記送信波の送信方向から前記物体の方向を求め、前記送信波の送信タイミングと前記反射波の受信タイミングとの時間差に基づいて、前記物体までの距離を求める(TOF(Time-Of-Flight)方式)。なお、第1ないし第5検出部1-1~1-5は、このような構成に限らず、適宜な構成、例えば、複数の受信アンテナを備え、前記複数の受信アンテナが受信した反射波の位相差から前記物体の方向を求める装置であっても良い。そして、本実施形態では、第1ないし第5検出部1-1~1-5の一例としてのレーダ装置は、送信波に対する反射波のドップラーシフトに基づき、自車両VCに対する前記物体の相対速度も求め、制御処理部2へ出力している。 Each of the first to fifth detection units 1-1 to 1-5 detects the object by transmitting a predetermined transmission wave and receiving the reflected wave of the transmission wave reflected by the object, respectively. It is a radar device that measures the position of the object (the relative position (relative direction, relative distance) of the object with respect to the own vehicle VC) by measuring the direction of the object and the distance to the object. The transmitted wave may be, for example, an electromagnetic wave in the millimeter wave band, an infrared laser beam, or an ultrasonic wave. These first to fifth detection units 1-1 to 1-5 transmit, for example, transmission waves in the millimeter wave band while scanning them in the first to fifth detection ranges RF, RRF, RRB, RLF, and RLB, respectively. The object is obtained by determining the direction of the object and the distance to the object based on the transmitting unit, the receiving unit that receives the reflected wave reflected by the transmitted wave, and the transmitted wave and the reflected wave. It is provided with a signal processing unit that obtains the position of the above as a detection point. The signal processing unit obtains the direction of the object from the transmission direction of the transmission wave in the scanning of the detection range, and based on the time difference between the transmission timing of the transmission wave and the reception timing of the reflected wave, reaches the object. Find the distance (TOF (Time-Of-Flight) method). The first to fifth detection units 1-1 to 1-5 are not limited to such a configuration, but include an appropriate configuration, for example, a plurality of receiving antennas, and the reflected wave received by the plurality of receiving antennas. It may be a device that obtains the direction of the object from the phase difference. Further, in the present embodiment, the radar device as an example of the first to fifth detection units 1-1 to 1-5 also has a relative velocity of the object with respect to the own vehicle VC based on the Doppler shift of the reflected wave with respect to the transmitted wave. It is obtained and output to the control processing unit 2.

物体は、所定の大きさを持つので、1個の物体における、検出部1の空間分解能に応じた各位置(各箇所)から1または複数の反射波が得られるので、これら第1ないし第5検出部1-1~1-5は、それぞれ、1個の物体から1または複数の検出点を検出する。これら第1ないし第5検出部1-1~1-5は、それぞれ、このように検出した1または複数の検出点(物体における相対位置(相対方向、相対距離)および相対速度)を制御処理部2へ出力する。なお、これら第1ないし第5検出部1-1~1-5は、それぞれ、レーダ装置に限らず、他の装置、例えば、ステレオカメラで撮像した1対の画像に基づいて所定の検出範囲で物体を検出する物体検出装置であってもよい。 Since the object has a predetermined size, one or a plurality of reflected waves can be obtained from each position (each location) corresponding to the spatial resolution of the detection unit 1 in one object. The detection units 1-1 to 1-5 each detect one or a plurality of detection points from one object. These first to fifth detection units 1-1 to 1-5 control processing units for one or more detection points (relative position (relative direction, relative distance) and relative speed in the object) detected in this way, respectively. Output to 2. The first to fifth detection units 1-1 to 1-5 are not limited to radar devices, but are within a predetermined detection range based on a pair of images captured by another device, for example, a stereo camera. It may be an object detection device that detects an object.

記憶部3は、制御処理部2に接続され、制御処理部2の制御に従って各種の所定のプログラムおよび各種の所定のデータを記憶する回路である。前記各種の所定のプログラムには、例えば、物体認識装置Dの各部1、3を当該各部の機能に応じてそれぞれ制御する制御プログラムや、第1ないし第5検出範囲RF、RRF、RRB、RLF、RLBで車両VC(移動体)の周囲における物体を検出することによって得られた1または複数の検出点をクラスタリングすることによって、前記物体のサイズおよび位置を含む物体状態情報である観測データを求めるクラスタリングプログラムや、過去の観測データに基づいて前記物体状態情報を予測した予測データを求める予測プログラムや、前記観測データで表される物体と前記予測データで表される物体とが同一であるか否かを、前記観測データと前記予測データとの相関処理によって判定する相関プログラムや、前記相関プログラムで相関処理を実施する前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正する第1サイズ補正プログラムや、前記クラスタリングプログラムで求めた観測データと前記予測プログラムで求めた予測データに基づいて、認識結果としての物体状態情報である認識データを求める認識プログラムや、前記認識プログラムで認識データを求める前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正する第2サイズ補正プログラムや、前記第1サイズ補正プログラムで補正する前に、前記クラスタリングプログラムで求めた観測データにおける物体のサイズに基づいて、予め定義された複数のサイズ中から1つのサイズを選択し、前記選択したサイズを前記観測データにおける物体のサイズとするとともに、前記選択したサイズから求めた位置を前記観測データにおける物体の位置とするように、前記観測データにおける物体のサイズおよび位置を置き換える置換プログラムや、前記認識プログラムで求めた認識データを利用した所定の処理を実施する認識データ利用プログラム等の制御処理プログラムが含まれる。前記各種の所定のデータには、例えば物体のサイズの置換で用いる、前記予め定義された複数のサイズ等の各プログラムを実行する上で必要なデータ等が含まれる。記憶部3は、例えば不揮発性の記憶素子であるROM(Read Only Memory)や書き換え可能な不揮発性の記憶素子であるEEPROM(Electrically Erasable Programmable Read Only Memory)等を備える。そして、記憶部3は、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる制御処理部2のワーキングメモリとなるRAM(Random Access Memory)等を含む。 The storage unit 3 is a circuit connected to the control processing unit 2 and stores various predetermined programs and various predetermined data under the control of the control processing unit 2. The various predetermined programs include, for example, a control program that controls each part 1 and 3 of the object recognition device D according to the function of each part, and first to fifth detection ranges RF, RRF, RRB, and RLF. By clustering one or more detection points obtained by detecting an object around the vehicle VC (moving body) with RLB, clustering to obtain observation data which is object state information including the size and position of the object. Whether or not the object represented by the observation data and the object represented by the prediction data are the same as the program, the prediction program that obtains the prediction data that predicts the object state information based on the past observation data, and the prediction data. The size of the object in the observation data and the size of the object in the prediction data match before the correlation process for determining the observation data and the prediction data is performed or the correlation processing is performed by the correlation program. The first size correction program that corrects at least one of the size of the object in the observation data and the size of the object in the prediction data, and the observation data obtained by the clustering program and the prediction obtained by the prediction program. Based on the data, the size of the object in the observation data and the size of the object in the prediction data are determined before the recognition program for obtaining the recognition data which is the object state information as the recognition result and the recognition data in the recognition program. A second size correction program that corrects at least one of the size of the object in the observation data and the size of the object in the prediction data so as to match, and the clustering program before correction by the first size correction program. Based on the size of the object in the observation data obtained in the above, one size is selected from a plurality of predefined sizes, the selected size is used as the size of the object in the observation data, and the selected size is used. Recognition data that performs predetermined processing using the replacement program that replaces the size and position of the object in the observation data and the recognition data obtained by the recognition program so that the obtained position is the position of the object in the observation data. Control processing programs such as usage programs are included. The various predetermined data include, for example, data necessary for executing each program such as a plurality of predefined sizes used for replacing the size of an object. The storage unit 3 includes, for example, a ROM (Read Only Memory) which is a non-volatile storage element, an EEPROM (Electrically Erasable Programmable Read Only Memory) which is a rewritable non-volatile storage element, and the like. The storage unit 3 includes a RAM (Random Access Memory) or the like that serves as a working memory of the so-called control processing unit 2 that stores data or the like generated during the execution of the predetermined program.

制御処理部2は、物体認識装置Dの各部1、3を当該各部の機能に応じてそれぞれ制御し、車両VCの周囲に存在する物体を認識するための回路である。制御処理部2は、例えば、CPU(Central Processing Unit)およびその周辺回路を備えて構成される。制御処理部2は、前記制御処理プログラムが実行されることによって、制御部21、クラスタリング部22、置換部23、第1サイズ補正部24、相関部25、第2サイズ補正部26、認識部27,予測部28および認識データ利用部29を機能的に備える。 The control processing unit 2 is a circuit for controlling each unit 1 and 3 of the object recognition device D according to the function of each unit and recognizing an object existing around the vehicle VC. The control processing unit 2 includes, for example, a CPU (Central Processing Unit) and its peripheral circuits. When the control processing program is executed, the control processing unit 2 includes a control unit 21, a clustering unit 22, a replacement unit 23, a first size correction unit 24, a correlation unit 25, a second size correction unit 26, and a recognition unit 27. , The prediction unit 28 and the recognition data utilization unit 29 are functionally provided.

制御部21は、物体認識装置Dの各部1、3を当該各部の機能に応じてそれぞれ制御し、物体認識装置Dの全体制御を司るものである。 The control unit 21 controls each of the units 1 and 3 of the object recognition device D according to the function of each unit, and controls the entire control of the object recognition device D.

クラスタリング部22は、第1ないし第5検出範囲RF、RRF、RRB、RLF、RLBで車両VCの周囲における物体を第1ないし第5検出部1-1~1-5により検出することによって得られた1または複数の検出点をクラスタリングすることによって、前記物体のサイズおよび位置を含む物体状態情報である観測データを求めるものである。前記物体状態情報は、本実施形態では、物体のサイズおよび位置(相対方向、相対距離)を含むだけでなく、物体の相対速度を含む。上述したように、物体は、所定の大きさを持つので、1個の物体における、検出部1の空間分解能に応じた各位置(各箇所)から1または複数の反射波が得られるから、これら第1ないし第5検出部1-1~1-5は、それぞれ、1個の物体から1または複数の検出点を検出する。このため、クラスタリング部22は、第1ないし第5検出部1-1~1-5によって検出された検出点をクラスタリング(グループ分け)し、クラスタ(グループ)を1つの物体から得られた検出点の集合として定義する。クラスタリング手法には、例えば最短距離法、群平均法およびウォード法等の種々の手法が知られており、利用できる。なお、第1ないし第5検出部1-1~1-5のそれぞれから出力される検出点は、それぞれ、各検出部1-1~1-5の各配設位置を基準としているので、検出点をクラスタリングする前に、1つの統一した座標系で表され、物体の位置(相対方向、相対距離)および相対速度もこの座標系で表される。クラスタリング部22は、クラスタに、当該クラスタに属する検出点を囲む枠(クラスタ枠)を、当該クラスタに対応付けられた物体が存在する領域を囲む枠として生成し、当該クラスタに属する検出点の代表点を求める。当該クラスタに対応付けられた物体のサイズは、この生成したクラスタ枠のサイズ(枠サイズ)で表され、当該クラスタに対応付けられた物体の位置は、代表点の位置で表され、その速度は、前記代表点の速度で表される。前記代表点は、例えば、クラスタ枠の中心位置や、重心位置等である。本実施形態では、前記代表点は、クラスタ枠の中心位置とされる。クラスタ枠は、予め設定された、例えば円形や扇形等の任意の形状であってよいが、本実施形態では、矩形であり、矩形の枠(矩形枠)である。ここで、物体が検出部1の略真正面や略真側面に位置する場合、前記物体からの複数の検出点は、線状に並ぶため、クラスタリング部22で生成されるクラスタ枠としての矩形には、線分を含むものとする。このような線分のクラスタ枠も、後述するように、置換部23で矩形に置き換えられる。本実施形態では、クラスタ枠は、矩形枠であるので、代表点としての中央位置は、対角線の交点となる。 The clustering unit 22 is obtained by detecting an object around the vehicle VC in the first to fifth detection ranges RF, RRF, RRB, RLF, and RLB by the first to fifth detection units 1-1 to 1-5. By clustering one or a plurality of detection points, observation data which is object state information including the size and position of the object is obtained. In the present embodiment, the object state information includes not only the size and position (relative direction, relative distance) of the object, but also the relative velocity of the object. As described above, since the object has a predetermined size, one or a plurality of reflected waves can be obtained from each position (each location) according to the spatial resolution of the detection unit 1 in one object. The first to fifth detection units 1-1 to 1-5 each detect one or a plurality of detection points from one object. Therefore, the clustering unit 22 clusters (groups) the detection points detected by the first to fifth detection units 1-1 to 1-5, and the clusters (groups) are the detection points obtained from one object. Defined as a set of. As the clustering method, various methods such as the shortest distance method, the group average method, and Ward's method are known and can be used. Since the detection points output from each of the first to fifth detection units 1-1 to 1-5 are based on the respective arrangement positions of the respective detection units 1-1 to 1-5, they are detected. Before clustering points, they are represented in one unified coordinate system, and the position (relative direction, relative distance) and relative velocity of the object are also represented in this coordinate system. The clustering unit 22 generates a frame (cluster frame) surrounding the detection points belonging to the cluster in the cluster as a frame surrounding the area in which the object associated with the cluster exists, and is a representative of the detection points belonging to the cluster. Find the point. The size of the object associated with the cluster is represented by the size of the generated cluster frame (frame size), the position of the object associated with the cluster is represented by the position of the representative point, and the velocity is , Represented by the speed of the representative point. The representative points are, for example, the center position of the cluster frame, the position of the center of gravity, and the like. In the present embodiment, the representative point is the center position of the cluster frame. The cluster frame may have an arbitrary shape such as a circle or a fan shape, which is set in advance, but in the present embodiment, it is a rectangle and is a rectangular frame (rectangular frame). Here, when the object is located substantially directly in front of or substantially directly on the side surface of the detection unit 1, the plurality of detection points from the object are arranged in a line segment, so that the rectangle as the cluster frame generated by the clustering unit 22 is formed. , Shall include line segments. The cluster frame of such a line segment is also replaced with a rectangle by the replacement unit 23, as will be described later. In the present embodiment, since the cluster frame is a rectangular frame, the central position as a representative point is an intersection of diagonal lines.

置換部23は、第1サイズ補正部24で補正する前に、クラスタリング部22で求めた観測データにおける物体のサイズに基づいて、予め定義された複数のサイズ中から1つのサイズを選択し、この選択したサイズを前記観測データにおける物体のサイズとするとともに、前記選択したサイズから求めた位置を前記観測データにおける物体の位置とするように、前記観測データにおける物体のサイズおよび位置を置き換えるものである。 The replacement unit 23 selects one size from a plurality of predefined sizes based on the size of the object in the observation data obtained by the clustering unit 22 before the correction is performed by the first size correction unit 24. It replaces the size and position of the object in the observation data so that the selected size is the size of the object in the observation data and the position obtained from the selected size is the position of the object in the observation data. ..

より具体的には、例えば、サイズは、4個の第1ないし第4サイズ区分XS、S、M、Lに分けられる。第1サイズ区分は、検出部1で検出した物体が例えば歩行者等であることを想定した区分であり、第1サイズ区分のクラスタ枠(第1クラスタ枠)は、長さ1.0[m]で幅1.0[m](1.0[m]×1.0[m])の矩形枠である。第2サイズ区分は、検出部1で検出した物体が例えば自転車等であることを想定した区分であり、第2サイズ区分のクラスタ枠(第2クラスタ枠)は、長さ2.0[m]で幅1.0[m](2.0[m]×1.0[m])の矩形枠である。第3サイズ区分は、検出部1で検出した物体が例えば普通車両等であることを想定した区分であり、第3サイズ区分のクラスタ枠(第3クラスタ枠)は、長さ5.0[m]で幅1.8[m](5.0[m]×1.8[m])の矩形枠である。第4サイズ区分は、検出部1で検出した物体が例えば大型車両等であることを想定した区分であり、第4サイズ区分のクラスタ枠(第4クラスタ枠)は、長さ10[m]で幅2.0[m](10[m]×2.0[m])の矩形枠である。なお、この例では、サイズを4個に区分けしたが、区分けの個数は、任意である。 More specifically, for example, the size is divided into four first to fourth size divisions XS, S, M, L. The first size category is a category assuming that the object detected by the detection unit 1 is, for example, a pedestrian, and the cluster frame (first cluster frame) of the first size category has a length of 1.0 [m. ] Is a rectangular frame having a width of 1.0 [m] (1.0 [m] × 1.0 [m]). The second size classification is a classification assuming that the object detected by the detection unit 1 is, for example, a bicycle, and the cluster frame (second cluster frame) of the second size classification has a length of 2.0 [m]. It is a rectangular frame having a width of 1.0 [m] (2.0 [m] × 1.0 [m]). The third size classification is a classification assuming that the object detected by the detection unit 1 is, for example, an ordinary vehicle, and the cluster frame (third cluster frame) of the third size classification has a length of 5.0 [m. ] Is a rectangular frame having a width of 1.8 [m] (5.0 [m] × 1.8 [m]). The fourth size classification is a classification assuming that the object detected by the detection unit 1 is, for example, a large vehicle, and the cluster frame (fourth cluster frame) of the fourth size classification has a length of 10 [m]. It is a rectangular frame having a width of 2.0 [m] (10 [m] × 2.0 [m]). In this example, the size is divided into four, but the number of divisions is arbitrary.

このような第1ないし第4サイズ区分およびそれらの第1ないし第4クラスタ枠が予め定義されて記憶部3に記憶され、置換部23は、まず、クラスタリング部22で求めた観測データにおける物体のサイズ、すなわち、前記物体に対応付けられたクラスタの矩形枠における長さおよび幅のうちの少なくとも一方より大きなサイズ区分のクラスタ枠における長さおよび幅のうちの少なくとも一方を持ち、かつ、サイズの最小なクラスタ枠のサイズ区分を、第1ないし第4サイズ区分の中から選択する。より詳しくは、例えば、置換部23は、クラスタリング部22で求めた、物体に対応付けられたクラスタの矩形枠における長さおよび幅より大きな長さおよび幅を持ち、かつ、サイズの最小なクラスタ枠のサイズ区分を、第1ないし第4サイズ区分の中から選択する。一例では、クラスタリング部22で求めたクラスタの矩形枠が1.2[m]×0.8[m]である場合、第2サイズ区分Sが選択され、クラスタリング部22で求めたクラスタの矩形枠は、2.0[m]×1.0[m]の第2クラスタ枠に置き換えられる。あるいは、例えば、置換部23は、クラスタリング部22で求めた、物体に対応付けられたクラスタの矩形枠における長さより大きな長さを持ち、かつ、サイズの最小なクラスタ枠のサイズ区分を、第1ないし第4サイズ区分の中から選択する。一例では、クラスタリング部22で求めたクラスタの矩形枠が4.4[m]×0[m]である場合、第3サイズ区分Mが選択され、クラスタリング部22で求めたクラスタの矩形枠は、5.0[m]×1.8[m]の第3クラスタ枠に置き換えられる。あるいは、例えば、置換部23は、クラスタリング部22で求めた、物体に対応付けられたクラスタの矩形枠における幅より大きな幅を持ち、かつ、サイズの最小なクラスタ枠のサイズ区分を、第1ないし第4サイズ区分の中から選択する。一例では、クラスタリング部22で求めたクラスタの矩形枠が1.0[m]×0.8[m]である場合、第1サイズ区分XSが選択され、クラスタリング部22で求めたクラスタの矩形枠は、1.0[m]×1.0[m]の第1クラスタ枠に置き換えられる。次に、置換部23は、クラスタリング部22で求めたクラスタの矩形枠における、車両VCから最も近い最近接点の位置が、置き換えの前後で、同一となるように、前記選択したサイズ区分のクラスタ枠を設定する。そして、置換部23は、この設定したクラスタ枠の中心位置を代表点の位置として求める。これによって、前記選択したサイズを前記観測データにおける物体のサイズとするとともに、前記選択したサイズから求めた位置を前記観測データにおける物体の位置とするように、前記観測データにおける物体のサイズおよび位置が置き換えられる。本実施形態では、置換部23は、前記代表点の速度を求め、速度を置き換え得てよいが、速度は、クラスタ枠の置き換えの前後で略変化しないので、速度の置き換えは、省略してよい。このように検出精度が比較的高い最近接点を基準に、クラスタ枠FRを置き換えることで、置き換えの前後で位置精度を維持またはその低下を抑制できる。 Such first to fourth size divisions and their first to fourth cluster frames are defined in advance and stored in the storage unit 3, and the replacement unit 23 first determines the object in the observation data obtained by the clustering unit 22. It has at least one of the length and width in the rectangular frame of the cluster associated with the object, that is, at least one of the length and width in the cluster frame of the larger size division, and is the smallest in size. Select the size classification of the cluster frame from the first to fourth size classifications. More specifically, for example, the replacement unit 23 has a length and width larger than the length and width of the rectangular frame of the cluster associated with the object obtained by the clustering unit 22, and has the smallest cluster frame. The size category of is selected from the first to fourth size categories. In one example, when the rectangular frame of the cluster obtained by the clustering unit 22 is 1.2 [m] × 0.8 [m], the second size category S is selected, and the rectangular frame of the cluster obtained by the clustering unit 22 is selected. Is replaced with a second cluster frame of 2.0 [m] × 1.0 [m]. Alternatively, for example, the replacement unit 23 has a length larger than the length in the rectangular frame of the cluster associated with the object obtained by the clustering unit 22, and the size division of the cluster frame having the smallest size is the first. Or select from the 4th size category. In one example, when the rectangular frame of the cluster obtained by the clustering unit 22 is 4.4 [m] × 0 [m], the third size division M is selected, and the rectangular frame of the cluster obtained by the clustering unit 22 is It is replaced with a third cluster frame of 5.0 [m] × 1.8 [m]. Alternatively, for example, the replacement unit 23 has a width larger than the width in the rectangular frame of the cluster associated with the object obtained by the clustering unit 22, and determines the size classification of the cluster frame having the smallest size. Select from the 4th size category. In one example, when the rectangular frame of the cluster obtained by the clustering unit 22 is 1.0 [m] × 0.8 [m], the first size division XS is selected, and the rectangular frame of the cluster obtained by the clustering unit 22 is selected. Is replaced with a first cluster frame of 1.0 [m] × 1.0 [m]. Next, the replacement unit 23 has the cluster frame of the selected size division so that the positions of the most recent contacts closest to the vehicle VC in the rectangular frame of the cluster obtained by the clustering unit 22 are the same before and after the replacement. To set. Then, the replacement unit 23 obtains the center position of the set cluster frame as the position of the representative point. As a result, the size and position of the object in the observation data are set so that the selected size is the size of the object in the observation data and the position obtained from the selected size is the position of the object in the observation data. Will be replaced. In the present embodiment, the replacement unit 23 may obtain the speed of the representative point and replace the speed, but since the speed does not substantially change before and after the replacement of the cluster frame, the replacement of the speed may be omitted. .. By replacing the cluster frame FR with the recent contact having a relatively high detection accuracy as a reference, the position accuracy can be maintained or its deterioration can be suppressed before and after the replacement.

例えば、図3Aに示す、クラスタリング部22で求めたクラスタの矩形枠FRb1は、図3Bに示す、第1ないし第4サイズ区分から選択された第2サイズ区分Sの第2クラスタ枠FRa1に置き換えられ、この置き換えられた第2クラスタ枠FRa1は、クラスタリング部22で求めたクラスタの矩形枠FRb1における、車両VCから最も近い最近接点CSb1の位置が、置き換えの前後で、同一となるように、点CSa1(=CSb1)で設定され、このように設定された第2クラスタ枠FRa1の中心位置CPa1が求められる。これによって、クラスタリング部22で求めた観測データは、図3Aに示す矩形枠FRb1およびその中心位置CPb1から、図3Bに示す第2クラスタ枠FRa1およびその中心位置CPa1に置き換えられる。 For example, the rectangular frame FRb1 of the cluster obtained by the clustering unit 22 shown in FIG. 3A is replaced with the second cluster frame FRa1 of the second size category S selected from the first to fourth size categories shown in FIG. 3B. The replaced second cluster frame FRa1 has a point such that the position of the latest contact CS b1 closest to the vehicle VC in the rectangular frame FRb1 of the cluster obtained by the clustering unit 22 is the same before and after the replacement. The center position CP a1 of the second cluster frame FRa1 set in CS a1 (= CS b1 ) and set in this way is obtained. As a result, the observation data obtained by the clustering unit 22 is replaced from the rectangular frame FRb1 shown in FIG. 3A and its center position CP b1 to the second cluster frame FRa1 shown in FIG. 3B and its center position CP a1 .

あるいは、例えば、図3Aに示す、クラスタリング部22で求めたクラスタの矩形枠FRb2(線分のクラスタ枠)は、図3Bに示す、第1ないし第4サイズ区分から選択された第3サイズ区分Mの第3クラスタ枠FRa2に置き換えられ、この置き換えられた第3クラスタ枠FRa2は、クラスタリング部22で求めたクラスタの矩形枠FRb2における、車両VCから最も近い最近接点CSb2の位置が、置き換えの前後で、同一となるように、点CSa2(=CSb2)で設定され、このように設定された第3クラスタ枠FRa2の中心位置CPa2が求められる。 Alternatively, for example, the rectangular frame FRb2 (cluster frame of the line segment) of the cluster obtained by the clustering unit 22 shown in FIG. 3A is the third size category M selected from the first to fourth size categories shown in FIG. 3B. In the replaced third cluster frame FRa2, the position of the nearest contact CS b2 closest to the vehicle VC in the rectangular frame FRb2 of the cluster obtained by the clustering unit 22 is before and after the replacement. Then, the center position CP a2 of the third cluster frame FRa2 set in this way is obtained, which is set at the point CS a2 (= CS b2 ) so as to be the same.

ここで、図3に示すように、所定の第1座標軸Xと、前記第1座標軸Xに直交する第2座標軸Yと、前記車両VCの中心位置を座標原点(0、0)とする座標系を設定した場合に、クラスタリング部22で求めたクラスタの矩形枠の辺が前記第1座標軸Xまたは前記第2座標軸Yと交差する場合、前記交差する辺における前記車両VCから最も近い最近接辺において、一方象限に延びる第1部分辺の第1長さと他方象限に延びる第2部分辺の第2長さとの比が、置き換えの前後で、同一となるように、置き換える。前記第1座標軸Xは、例えば、前記検出範囲の中心線である視認方向に沿って延びている(例えば、第1検出部1-1のみの場合に、前記視認方向は、検出範囲RFの中心線PRである)。あるいは、例えば、前記第1座標軸Xは、移動する場合における前記自機の進行方向に沿って延びている。本実施形態では、車両VC(移動体)に搭載されているので、前記第1座標軸Xは、車両VCの進行方向に沿って延びている。 Here, as shown in FIG. 3, a coordinate system in which a predetermined first coordinate axis X, a second coordinate axis Y orthogonal to the first coordinate axis X, and a center position of the vehicle VC are coordinate origins (0, 0). When the side of the rectangular frame of the cluster obtained by the clustering unit 22 intersects with the first coordinate axis X or the second coordinate axis Y, at the closest tangent to the vehicle VC at the intersecting side. , The ratio of the first length of the first partial side extending to one quadrant to the second length of the second partial side extending to the other quadrant is replaced so as to be the same before and after the replacement. The first coordinate axis X extends, for example, along the viewing direction which is the center line of the detection range (for example, in the case of only the first detection unit 1-1, the viewing direction is the center of the detection range RF. Line PR). Alternatively, for example, the first coordinate axis X extends along the traveling direction of the own machine when moving. In the present embodiment, since it is mounted on the vehicle VC (moving body), the first coordinate axis X extends along the traveling direction of the vehicle VC.

この図3Aに示す矩形枠FRb2の辺Sは、第2座標軸Yと第2座標軸Y上の最近接点CSb2で交差しており、この矩形枠FRb2は、前記交差する辺における前記車両VCから最も近い最近接辺Sにおいて、一方象限に延びる第1部分辺CSb2の第1長さL1と他方象限に延びる第2部分辺CSb2の第2長さL2との比(L1:L2)が、置き換えの前後で、同一となるように、クラスタ枠FRa2に置き換えられる。すなわち、クラスタ枠FRa2における前記車両VCから最も近い最近接辺S’S’において、一方象限に延びる第1部分辺CSa2S’の第1長さL’1、および、他方象限に延びる第2部分辺CSa2S’の第2長さL’2は、それぞれ、L1:L2=L’1:L’2で与えられる長さである。 The sides S 1 S 2 of the rectangular frame FRb2 shown in FIG. 3A intersect the second coordinate axis Y at the recent contact CS b2 on the second coordinate axis Y, and the rectangular frame FRb2 is the vehicle at the intersecting sides. At the nearest edge S 1 S 2 closest to the VC, the first length L1 of the first partial side CS b2 S 1 extending to one quadrant and the second length L2 of the second partial side CS b2 S 2 extending to the other quadrant. It is replaced with the cluster frame FRa2 so that the ratio (L1: L2) with and is the same before and after the replacement. That is, in the nearest tangent S'1 S'2 closest to the vehicle VC in the cluster frame FRa2 , the first length L' 1 of the first partial side CS a2 S'1 extending to one quadrant and the other quadrant. The second length L' 2 of the extending second partial side CS a2 S'2 is the length given by L1: L2 = L'1: L'2, respectively.

これによって、クラスタリング部22で求めた観測データは、図3Aに示す矩形枠FRb2およびその中心位置CPb2から、図3Bに示す第3クラスタ枠FRa2およびその中心位置CPa2に置き換えられる。 As a result, the observation data obtained by the clustering unit 22 is replaced from the rectangular frame FRb2 shown in FIG. 3A and its center position CP b2 to the third cluster frame FRa2 shown in FIG. 3B and its center position CP a2 .

なお、これら上述の場合において、クラスタ枠の各辺は、それぞれ、置き換えの前後で、平行とされる。すなわち、クラスタ枠で表される物体の進行方向が置き換えの前後で維持される。 In these above-mentioned cases, each side of the cluster frame is parallel before and after the replacement. That is, the traveling direction of the object represented by the cluster frame is maintained before and after the replacement.

第1サイズ補正部24は、相関部25で相関処理を実施する前に、観測データにおける物体のサイズと予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するものである。上述したように、観測データにおける物体のサイズと予測データにおける物体のサイズの相違が相関処理で不都合となるので、サイズを補正する補正対象は、観測データにおける物体のサイズと予測データにおける物体のサイズとのどちらでもよい。 Before the correlation processing is performed by the correlation unit 25, the first size correction unit 24 determines the size of the object in the observation data and the prediction so that the size of the object in the observation data and the size of the object in the prediction data match. It corrects at least one of the sizes of objects in the data. As described above, the difference between the size of the object in the observation data and the size of the object in the prediction data is inconvenient in the correlation processing, so the correction target for correcting the size is the size of the object in the observation data and the size of the object in the prediction data. Either is fine.

より具体的には、第1に、第1サイズ補正部24は、クラスタ枠における、車両VC(移動体)から最も近い最近接点の位置が、補正の前後で、同一となるように、補正する。 More specifically, first, the first size correction unit 24 corrects the position of the nearest contact point closest to the vehicle VC (moving body) in the cluster frame so that it is the same before and after the correction. ..

一例では、図4Aに示すように、観測データにおける物体のクラスタ枠FRb3および予測データにおける物体のクラスタ枠FRb4の場合、ここでは、便宜上、観測データにおける物体のサイズを補正する場合には、図4Bに示すように、クラスタ枠FRb3における最近接点CSb3の位置が補正の前後で一致するように、クラスタ枠FRb3は、最近接点CSa3(=最近接点CSb3)を持ち、かつ、クラスタ枠FRb4のサイズを持つクラスタ枠FRa3に補正される。これにより、観測データにおける物体の位置は、クラスタ枠FRb3の中心位置CPb3からクラスタ枠FRa3の中心位置CPa3に補正される。図4Bに示す予測データにおける物体のクラスタ枠FRa4は、不補正であるので、図4Aに示す予測データにおける物体のクラスタ枠FRb4である(クラスタ枠FRb4=クラスタ枠FRa4、クラスタ枠FRb4の中心位置CPb4=クラスタ枠FRa4の中心位置CPa4)。 In one example, as shown in FIG. 4A, in the case of the cluster frame FRb3 of the object in the observation data and the cluster frame FRb4 of the object in the prediction data, here, for convenience, when correcting the size of the object in the observation data, FIG. 4B. As shown in, the cluster frame FRb3 has the recent contact CS a3 (= recent contact CS b3 ) and has the cluster frame FRb4 so that the positions of the recent contacts CS b3 in the cluster frame FRb3 match before and after the correction. It is corrected to the cluster frame FRa3 having a size. As a result, the position of the object in the observation data is corrected from the center position CP b3 of the cluster frame FRb3 to the center position CP a3 of the cluster frame FRa3. Since the cluster frame FRa4 of the object in the prediction data shown in FIG. 4B is uncorrected, it is the cluster frame FRb4 of the object in the prediction data shown in FIG. 4A (cluster frame FRb4 = cluster frame FRa4, center position CP of the cluster frame FRb4). b4 = center position CP a4 of the cluster frame FRa4).

第2に、所定の第1座標軸Xと、前記第1座標軸Xに直交する第2座標軸Yと、前記車両VCの中心位置を座標原点(0、0)とする座標系を設定した場合に、クラスタ枠の辺が前記第1座標軸Xまたは前記第2座標軸Yと交差する場合、第1サイズ補正部24は、前記交差する辺における前記車両VCから最も近い最近接辺において、一方象限に延びる第1部分辺の第1長さと他方象限に延びる第2部分辺の第2長さとの比が、補正の前後で、同一となるように、補正する。図3の場合と同様に、前記第1座標軸Xは、例えば、前記検出範囲の中心線である視認方向に沿って延びている。あるいは、例えば、前記第1座標軸Xは、移動する場合における前記自機の進行方向に沿って延びている。本実施形態では、車両VC(移動体)に搭載されているので、前記第1座標軸Xは、車両VCの進行方向に沿って延びている。この場合も、上記と同様に、第1サイズ補正部24は、クラスタ枠における、車両VCから最も近い最近接点の位置が、補正の前後で、同一となるように、補正する。 Second, when a predetermined first coordinate axis X, a second coordinate axis Y orthogonal to the first coordinate axis X, and a coordinate system having the center position of the vehicle VC as the coordinate origin (0, 0) are set. When the side of the cluster frame intersects the first coordinate axis X or the second coordinate axis Y, the first size correction unit 24 extends to one quadrant at the closest tangent to the vehicle VC at the intersecting side. The ratio of the first length of one partial side to the second length of the second partial side extending to the other quadrant is corrected so as to be the same before and after the correction. Similar to the case of FIG. 3, the first coordinate axis X extends, for example, along the viewing direction which is the center line of the detection range. Alternatively, for example, the first coordinate axis X extends along the traveling direction of the own machine when moving. In the present embodiment, since it is mounted on the vehicle VC (moving body), the first coordinate axis X extends along the traveling direction of the vehicle VC. In this case as well, the first size correction unit 24 corrects the position of the nearest contact point closest to the vehicle VC in the cluster frame so that it is the same before and after the correction.

一例では、図4Cに示すように、観測データにおける物体のクラスタ枠FRb5および予測データにおける物体のクラスタ枠FRb6の場合、これらクラスタ枠FRb5およびクラスタ枠FRb6それぞれが第2座標軸Yと交差(この例では直交)している。ここでは、便宜上、観測データにおける物体のサイズを補正する場合には、図4Cに示すように、クラスタ枠FRb5で第2座標軸Yと交差する辺における最近接辺Sにおいて、一方象限(この例では第1象限)に延びる第1部分辺CPb5の第1長さa1と他方象限(この例では第4象限)に延びる第2部分辺CPb5の第2長さa2との比(a1:a2)が、補正の前後で、同一となるように、クラスタ枠FRb5は、図4Dに示すように、一方象限(この例では第1象限)に延びる第1部分辺CPa5S’の第1長さa’1と他方象限(この例では第4象限)に延びる第2部分辺CPa5S’の第2長さa’2との比(a’1:a’2)が前記比(a1:a2)であって(a’1:a’2=a1:a2)、かつ、第2座標軸Y上の最近接点CSa5(=最近接点CSb5)を持ち、かつ、クラスタ枠FRb6のサイズを持つクラスタ枠FRa5に補正される。これにより、観測データにおける物体の位置は、クラスタ枠FRb5の中心位置CPb5からクラスタ枠FRa5の中心位置CPa5に補正される。図4Dに示す予測データにおける物体のクラスタ枠FRa6は、不補正であるので、図4Cに示す予測データにおける物体のクラスタ枠FRb6である(クラスタ枠FRb6=クラスタ枠FRa6、クラスタ枠FRb6の中心位置CPb6=クラスタ枠FRa6の中心位置CPa6)。なお、上述では、これらクラスタ枠FRb5およびクラスタ枠FRb6それぞれが第2座標軸Yと交差(この例では直交)しているが、補正対象のクラスタ枠の辺が第1座標軸Xまたは第2座標軸Yと交差する場合に上述の処理が適用され、補正対象外のクラスタ枠の辺は、第1座標軸Xまたは第2座標軸Yと交差してもよく、前記交差しなくてもよい。 In one example, as shown in FIG. 4C, in the case of the cluster frame FRb5 of the object in the observation data and the cluster frame FRb6 of the object in the prediction data, each of the cluster frame FRb5 and the cluster frame FRb6 intersects the second coordinate axis Y (in this example,). (Orthogonal). Here, for convenience, when correcting the size of the object in the observation data, as shown in FIG. 4C , in the nearest quadrant S3 S4 at the side intersecting the second coordinate axis Y in the cluster frame FRb5 , one quadrant ( In this example, the first length a1 of the first partial side CP b5 S3 extending to the first quadrant ) and the second length a2 of the second partial side CP b5 S4 extending to the other quadrant (the fourth quadrant in this example). As shown in FIG. 4D, the cluster frame FRb5 extends to one quadrant (the first quadrant in this example) so that the ratio (a1: a2) to and (a1: a2) is the same before and after the correction. The ratio of the first length a'1 of a5 S'3 to the second length a'2 of the second partial side CP a5 S'4 extending to the other quadrant ( fourth quadrant in this example) (a'1: 1. a'2) is the ratio (a1: a2), (a'1: a'2 = a1: a2), and has the latest contact CS a5 (= recent contact CS b5 ) on the second coordinate axis Y. And, it is corrected to the cluster frame FRa5 having the size of the cluster frame FRb6. As a result, the position of the object in the observation data is corrected from the center position CP b5 of the cluster frame FRb5 to the center position CP a5 of the cluster frame FRa5. Since the cluster frame FRa6 of the object in the prediction data shown in FIG. 4D is uncorrected, it is the cluster frame FRb6 of the object in the prediction data shown in FIG. 4C (cluster frame FRb6 = cluster frame FRa6, center position CP of the cluster frame FRb6). b6 = center position CP a6 of the cluster frame FRa6). In the above, the cluster frame FRb5 and the cluster frame FRb6 each intersect the second coordinate axis Y (orthogonal in this example), but the side of the cluster frame to be corrected is the first coordinate axis X or the second coordinate axis Y. When they intersect, the above process is applied, and the sides of the cluster frame that are not subject to correction may or may not intersect the first coordinate axis X or the second coordinate axis Y.

第3に、予測データにおける物体のクラスタ枠が検出部1の検出範囲を超えて存在する場合、第1サイズ補正部24は、前記検出範囲と交差する辺における車両VC(移動体)から最も近い第2最近接辺において、前記検出範囲を超えて延びる第3部分辺の第3長さと前記検出範囲内に延びる第4部分辺の第4長さとの比が、前記予測データと補正後の前記観測データとで、同一となるように、前記観測データにおける物体のサイズを補正する。この場合も、第1サイズ補正部24は、クラスタ枠における、車両VCから最も近い最近接点の位置が、補正の前後で、同一となるように、補正するが、前記検出範囲と交差する最近接辺の交点を起点に前記最近接辺を延ばすので、前記最近接点における、前記最近接辺の延長方向と直交する直交方向の位置が補正の前後で、同一となるように、補正する。 Third, when the cluster frame of the object in the prediction data exists beyond the detection range of the detection unit 1, the first size correction unit 24 is the closest to the vehicle VC (moving body) at the side intersecting the detection range. In the second closest edge, the ratio of the third length of the third partial side extending beyond the detection range to the fourth length of the fourth partial side extending within the detection range is the predicted data and the corrected said. The size of the object in the observation data is corrected so that it becomes the same as the observation data. In this case as well, the first size correction unit 24 corrects the position of the nearest contact point closest to the vehicle VC in the cluster frame so that it is the same before and after the correction, but the closest contact intersects the detection range. Since the nearest tangent side is extended starting from the intersection of the sides, the position of the recent contact point in the orthogonal direction orthogonal to the extension direction of the closest tangent side is corrected so as to be the same before and after the correction.

一例では、図4Eに示すように、観測データにおける物体のクラスタ枠FRb7および予測データにおける物体のクラスタ枠FRb8の場合、予測データにおける物体のクラスタ枠FRb8は、第3検出部1-3の検出範囲RRBを超えて存在している。この場合では、観測データにおける物体のサイズを補正することが望ましい。図4Eに示すように、クラスタ枠FRb8で第3検出部1-3の検出範囲RRBと交差する辺における第2最近接辺Sにおいて、前記検出範囲RRBを超えて延びる第3部分辺BPの第3長さb1と前記検出範囲RRB内に延びる第4部分辺BPの第4長さb2との比(b1:b2)が、前記予測データと補正後の前記観測データとで、同一となるように、クラスタ枠FRb7は、図4Fに示すように、第3検出部1-3の検出範囲RRBと交差する辺における第2最近接辺Sにおいて、前記検出範囲RRBを超えて延びる第3部分辺BPの第3長さa’1と前記検出範囲RRB内に延びる第4部分辺BPの第4長さa’2との比(a’1:a’2)が前記比(b1:b2)であって(a’1:a’2=b1:b2)、かつ、クラスタ枠FRb7の最近接点CSb7における、前記第2最近接辺Sの延長方向と直交する直交方向(この例では第2座標軸Yの方向)の位置に前記第2最近接辺Sを持ち、かつ、クラスタ枠FRb8のサイズを持つクラスタ枠FRa7に補正される。これにより、観測データにおける物体の位置は、クラスタ枠FRb7の中心位置CPb7からクラスタ枠FRa7の中心位置CPa7に補正される。なお、図4Eに示すクラスタ枠FRb7の最近接点CSb7は、上述のように、前記最近接点における、前記最近接辺の延長方向と直交する直交方向の位置が補正の前後で、同一となるように、補正するから、補正の前後で第2座標軸Yの座標値が維持される結果、図4Fに示すクラスタ枠FRa7では、第2座標軸Y上で最近接点CSa7(車両VCの真横の点)となっている。図4Fに示す予測データにおける物体のクラスタ枠FRa8は、不補正であるので、図4Eに示す予測データにおける物体のクラスタ枠FRb8である(クラスタ枠FRb8=クラスタ枠FRa8、クラスタ枠FRb8の中心位置CPb8=クラスタ枠FRa8の中心位置CPa8)。 In one example, as shown in FIG. 4E, in the case of the cluster frame FRb7 of the object in the observation data and the cluster frame FRb8 of the object in the prediction data, the cluster frame FRb8 of the object in the prediction data is the detection range of the third detection unit 1-3. It exists beyond the RRB. In this case, it is desirable to correct the size of the object in the observation data. As shown in FIG. 4E, in the second closest edge S5 S6 at the side intersecting the detection range RRB of the third detection unit 1-3 in the cluster frame FRb8 , the third partial side extending beyond the detection range RRB. The ratio (b1: b2) of the third length b1 of the BP 1 S 5 to the fourth length b2 of the fourth partial side BP 1 S 6 extending within the detection range RRB is the predicted data and the corrected said. As shown in FIG. 4F, the cluster frame FRb7 is located on the second closest edge S7 S8 at the side intersecting the detection range RRB of the third detection unit 1-3 so as to be the same as the observation data. The third length a'1 of the third partial side BP 2 S 7 extending beyond the detection range RRB and the fourth length a'2 of the fourth partial side BP 2 S 8 extending within the detection range RRB. The ratio (a'1: a'2) is the ratio (b1: b2) (a'1: a'2 = b1: b2), and the second contact CS b7 of the cluster frame FRb7. The second closest edge S 7 S 8 is held at a position orthogonal to the extension direction of the closest edge S 7 S 8 (in this example, the direction of the second coordinate axis Y), and the size of the cluster frame FRb 8 is set. It is corrected to the cluster frame FRa7 to have. As a result, the position of the object in the observation data is corrected from the center position CP b7 of the cluster frame FRb7 to the center position CP a7 of the cluster frame FRa7. As described above, the recent contact CS b7 of the cluster frame FRb7 shown in FIG. 4E has the same position in the recent contact in the orthogonal direction orthogonal to the extension direction of the nearest contact before and after the correction. As a result of maintaining the coordinate values of the second coordinate axis Y before and after the correction, in the cluster frame FRa7 shown in FIG. 4F, the recent contact CS a7 (point directly beside the vehicle VC) on the second coordinate axis Y. It has become. Since the cluster frame FRa8 of the object in the prediction data shown in FIG. 4F is uncorrected, it is the cluster frame FRb8 of the object in the prediction data shown in FIG. 4E (cluster frame FRb8 = cluster frame FRa8, center position CP of the cluster frame FRb8). b8 = center position CP a8 of the cluster frame FRa8).

なお、これら上述の第1ないし第3の場合において、クラスタ枠の各辺は、それぞれ、補正の前後で、平行とされる。すなわち、クラスタ枠で表される物体の進行方向が補正の前後で維持される。 In the first to third cases described above, each side of the cluster frame is parallel before and after the correction. That is, the traveling direction of the object represented by the cluster frame is maintained before and after the correction.

相関部25は、観測データで表される物体と予測データで表される物体とが同一であるか否かを、前記観測データと前記予測データとの相関処理によって判定するものである。 The correlation unit 25 determines whether or not the object represented by the observation data and the object represented by the prediction data are the same by the correlation processing between the observation data and the prediction data.

より具体的には、例えば、相関部25は、第1サイズ補正部24による補正後において、予測データにおける物体の位置(本実施形態では代表点としてのクラスタ枠FRの中心位置)を中心とした、予め決められた所定の範囲(相関判定範囲)内に、観測データにおける物体の位置(本実施形態では代表点としてのクラスタ枠FRの中心位置)が存在するか否かによって、前記相関処理を実行する。相関部25は、前記相関判定範囲内に前記観測データにおける物体の位置(代表点)が存在する場合には、観測データで表される物体と予測データで表される物体とが同一であると判定し、前記相関判定範囲内に前記観測データにおける物体の位置(代表点)が存在しない場合には、観測データで表される物体と予測データで表される物体とが同一ではないと判定する。観測データで表される物体が全ての、予測データで表される物体と同一ではないと判定すると、相関部25は、この相関の無い観測データで表される物体を新たに認識した物体として扱う。一方、相関部25は、所定の回数、連続して、観測データで表される物体のいずれにも同一であると判定されなかった予測データで表される物体を、車両VCの周囲から外れた物体として扱う。前記相関判定範囲は、同一性を判定する当該物体認識装置Dの仕様に応じて適宜に設定され、例えば、予測データにおける物体のサイズ(本実施形態ではクラスタ枠のサイズ)に設定される。このような相関処理の場合では、補正の前後で代表点を適切に移動させるために、最近接点の位置を補正の前後で維持することが望ましい。 More specifically, for example, the correlation unit 25 is centered on the position of the object in the prediction data (the center position of the cluster frame FR as a representative point in the present embodiment) after the correction by the first size correction unit 24. The correlation process is performed depending on whether or not the position of the object in the observation data (the center position of the cluster frame FR as a representative point in the present embodiment) exists within a predetermined range (correlation determination range) determined in advance. Run. When the position (representative point) of the object in the observation data exists within the correlation determination range, the correlation unit 25 determines that the object represented by the observation data and the object represented by the prediction data are the same. If the position (representative point) of the object in the observation data does not exist within the correlation determination range, it is determined that the object represented by the observation data and the object represented by the prediction data are not the same. .. If it is determined that the object represented by the observation data is not the same as all the objects represented by the prediction data, the correlation unit 25 treats the object represented by this uncorrelated observation data as a newly recognized object. .. On the other hand, the correlation unit 25 continuously deviates from the surroundings of the vehicle VC an object represented by the predicted data which is not determined to be the same as any of the objects represented by the observation data for a predetermined number of times. Treat as an object. The correlation determination range is appropriately set according to the specifications of the object recognition device D for determining the identity, and is set, for example, to the size of the object in the prediction data (the size of the cluster frame in the present embodiment). In the case of such correlation processing, it is desirable to maintain the position of the recent contact point before and after the correction in order to appropriately move the representative point before and after the correction.

あるいは、例えば、相関部25は、第1サイズ補正部24による補正後において、予測データにおける物体と観測データにおける物体との重なり部分の面積(本実施形態では予測データにおける物体のクラスタ枠と観測データにおける物体のクラスタ枠との重なり部分の面積)が、予め決められた所定の閾値(相関判定閾値)以上であるか否かによって前記相関処理を実行する。相関部25は、前記相関判定閾値以上である場合には、観測データで表される物体と予測データで表される物体とが同一であると判定し、前記相関判定閾値未満である場合には、観測データで表される物体と予測データで表される物体とが同一ではないと判定する。前記相関判定閾値は、同一性を判定する当該物体認識装置Dの仕様に応じて適宜に設定される。このような相関処理の場合では、重複部分の面積を評価するので、最近接点の位置を補正の前後で維持することは必ずしも必要ではない。 Alternatively, for example, the correlation unit 25 is the area of the overlapping portion between the object in the prediction data and the object in the observation data after the correction by the first size correction unit 24 (in this embodiment, the cluster frame of the object in the prediction data and the observation data. The correlation process is executed depending on whether or not the area of the overlapping portion of the object with the cluster frame in the above is equal to or greater than a predetermined threshold value (correlation determination threshold value). The correlation unit 25 determines that the object represented by the observation data and the object represented by the prediction data are the same when it is equal to or higher than the correlation determination threshold, and when it is less than the correlation determination threshold, the correlation unit 25 determines that the object is the same. , It is determined that the object represented by the observation data and the object represented by the prediction data are not the same. The correlation determination threshold value is appropriately set according to the specifications of the object recognition device D for determining the identity. In the case of such correlation processing, since the area of the overlapping portion is evaluated, it is not always necessary to maintain the position of the recent contact point before and after the correction.

そして、相関部25は、このような相関処理の終了後に、第1サイズ補正部24で補正された物体のサイズを補正前に戻す。本実施形態では、上述のように、観測データにおける物体のサイズ(クラスタ枠FR)が補正されたので、観測データにおける物体のサイズ(クラスタ枠FR)が補正前に戻される。すなわち、置換部23で置き換えられたサイズが観測データにおける物体のサイズとなる。 Then, after the completion of such the correlation processing, the correlation unit 25 returns the size of the object corrected by the first size correction unit 24 to before the correction. In the present embodiment, as described above, the size of the object in the observation data (cluster frame FR) is corrected, so that the size of the object in the observation data (cluster frame FR) is returned before the correction. That is, the size replaced by the replacement unit 23 is the size of the object in the observation data.

第2サイズ補正部26は、認識部27で認識データを求める前に、観測データにおける物体のサイズと予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するものである。 The second size correction unit 26 sets the size of the object in the observation data and the prediction data so that the size of the object in the observation data and the size of the object in the prediction data match before the recognition data is obtained by the recognition unit 27. It corrects at least one of the sizes of objects in.

より具体的な補正方法は、第1サイズ補正部24と同様である。ずなわち、第2サイズ補正部26は、クラスタ枠における、車両VC(移動体)から最も近い最近接点の位置が、補正の前後で、同一となるように、補正する。所定の第1座標軸Xと、前記第1座標軸Xに直交する第2座標軸Yと、前記車両VCの中心位置を座標原点(0、0)とする座標系を設定した場合に、クラスタ枠の辺が前記第1座標軸Xまたは前記第2座標軸Yと交差する場合、第2サイズ補正部26は、前記交差する辺における前記車両VCから最も近い最近接辺において、一方象限に延びる第1部分辺の第1長さと他方象限に延びる第2部分辺の第2長さとの比が、補正の前後で、同一となるように、補正する。予測データにおける物体のクラスタ枠が検出部1の検出範囲を超えて存在する場合、第2サイズ補正部26は、前記検出範囲と交差する辺における車両VC(移動体)から最も近い第2最近接辺において、前記検出範囲を超えて延びる第3部分辺の第3長さと前記検出範囲内に延びる第4部分辺の第4長さとの比が、前記予測データと補正後の前記観測データとで、同一となるように、前記観測データにおける物体のサイズを補正する。 A more specific correction method is the same as that of the first size correction unit 24. That is, the second size correction unit 26 corrects the position of the nearest contact point from the vehicle VC (moving body) in the cluster frame so that it is the same before and after the correction. When a predetermined first coordinate axis X, a second coordinate axis Y orthogonal to the first coordinate axis X, and a coordinate system in which the center position of the vehicle VC is the coordinate origin (0, 0) are set, the sides of the cluster frame are set. When crosses the first coordinate axis X or the second coordinate axis Y, the second size correction unit 26 is a first partial side extending in one quadrant at the nearest closest side to the vehicle VC at the intersecting side. The ratio of the first length to the second length of the second partial side extending to the other quadrant is corrected so as to be the same before and after the correction. When the cluster frame of the object in the prediction data exists beyond the detection range of the detection unit 1, the second size correction unit 26 is the closest to the vehicle VC (moving body) at the side intersecting the detection range. In the side, the ratio of the third length of the third partial side extending beyond the detection range to the fourth length of the fourth partial side extending within the detection range is the ratio between the predicted data and the corrected observation data. , Correct the size of the object in the observation data so that they are the same.

認識部27は、クラスタリング部22で求めた観測データと予測部28で求めた予測データとに基づいて、認識結果としての物体状態情報である認識データを求めるものである。認識部27は、観測データにおける物体の位置、予測データにおける物体の位置および速度に基づいて認識データにおける物体の速度を求める。 The recognition unit 27 obtains recognition data, which is object state information as a recognition result, based on the observation data obtained by the clustering unit 22 and the prediction data obtained by the prediction unit 28. The recognition unit 27 obtains the velocity of the object in the recognition data based on the position of the object in the observation data and the position and velocity of the object in the prediction data.

予測部28は、過去の観測データに基づいて物体状態情報を予測した予測データを求めるものである。 The prediction unit 28 obtains prediction data for predicting object state information based on past observation data.

より具体的には、認識部27および予測部28は、いわゆるカルマンフィルタ等を用いることによって、過去の観測データに基づいて予測データを求め、クラスタリング部22で求め、置換部23で置き換えられた観測データと予測部28で求めた予測データとに基づいて認識データを求める。より詳しくは、本実施形態では、サンプリング周期Tで繰り返し物体が検出され、このサンプリング周期Tで繰り返し認識データが求められる。この繰り返しのサンプリングタイミングの時刻tにおいて、観測データにおける物体の位置(クラスタ枠の中心位置)をxokとし、予測データにおける物体の位置をxpkとし、認識データにおける物体の位置をxskとし、前記予測データにおける物体の速度をvpkとし、前記認識データにおける物体の速度をvskとし、所定の第1パラメータをαとし、所定の第2パラメータをβとする場合、認識データにおける物体の位置xskおよび速度vskは、次式1および式2で求められ、予測データにおける物体の位置xpkおよび速度vpkは、次式3および式4で求められる。第1および第2パラメータα、βは、いわゆるα-βフィルタにおける位置および速度の予測依存性に対するゲインであり、適宜に設定される。
式1;xsk=xpk+α×(xok-xpk
式2;vsk=vpk+β/T×(xok-xpk
式3;xpk=xsk-1+T×vsk-1
式4;vpk=vsk-1
More specifically, the recognition unit 27 and the prediction unit 28 obtain prediction data based on past observation data by using a so-called Kalman filter or the like, obtain the prediction data in the clustering unit 22, and replace the observation data in the replacement unit 23. And the recognition data is obtained based on the prediction data obtained by the prediction unit 28. More specifically, in the present embodiment, the repetitive object is detected in the sampling cycle T, and the repetitive recognition data is obtained in the sampling cycle T. At the time tk of this repeated sampling timing, the position of the object in the observation data (center position of the cluster frame) is x ok , the position of the object in the prediction data is x pk , and the position of the object in the recognition data is x sk . When the velocity of the object in the prediction data is v pk , the velocity of the object in the recognition data is v sk , the predetermined first parameter is α, and the predetermined second parameter is β, the object in the recognition data The position x sk and the velocity v sk are obtained by the following equations 1 and 2, and the position x pk and the velocity v pk of the object in the prediction data are obtained by the following equations 3 and 4. The first and second parameters α and β are gains for the prediction dependence of the position and velocity in the so-called α-β filter, and are appropriately set.
Equation 1; x sk = x pk + α × (x ok -x pk )
Equation 2; v sk = v pk + β / T × (x ok -x pk )
Equation 3; x pk = x sk-1 + T × v sk-1
Equation 4; v pk = v sk-1

一方、時刻tにおいて、予測データにおける物体のサイズをspkとし、認識データにおける物体のサイズをsskとする場合、予測部28は、予測データにおける物体のサイズspkを、次式5で求める。
式5;spk=ssk-1
On the other hand, when the size of the object in the prediction data is spk and the size of the object in the recognition data is sk at the time tk, the prediction unit 28 sets the size spk of the object in the prediction data by the following equation 5. Ask.
Equation 5; s pk = s sk-1

そして、本実施形態では、認識部27は、上述のように認識データにおける物体の位置を求めた後に、さらに、第2サイズ補正部26で補正する前での、観測データにおける物体のサイズおよび予測データにおける物体のサイズのうちの大きい方のサイズを選択し、この選択したサイズを前記認識データにおける物体のサイズとするように、前記認識データにおける物体のサイズを置き換える。観測データにおける物体のサイズおよび予測データにおける物体のサイズのうちの小さい方は、検出点が漏れてそのサイズになった虞があるため、上述のように、両者のうちの大きい方のサイズに置き換えることで、認識データにおける物体のサイズを真のサイズに近づけることができる。この結果、後述する認識データ利用部29における衝突判定等の精度が向上する。前記物体のサイズの置き換えでは、図3を用いて上述した置換部23の置き換えと同様に処理される。すなわち、置換部23は、クラスタリング部22で求めた観測データにおける物体のサイズを、上述のように選択したサイズ区分のサイズに、置き換えの前後で最近接点の位置や各象限内の各部分辺における各長さの比が同一となるように、置き換えたが、ここでは、認識部27は、観測データにおける物体のサイズを、第2サイズ補正部26で補正する前での、観測データにおける物体のサイズおよび予測データにおける物体のサイズのうちの大きい方のサイズに、置き換えの前後で最近接点の位置や各象限内の各部分辺における各長さの比が同一となるように、置き換える。 Then, in the present embodiment, the recognition unit 27 obtains the position of the object in the recognition data as described above, and then further corrects the size and prediction of the object in the observation data before the correction by the second size correction unit 26. The larger size of the object size in the data is selected and the size of the object in the recognition data is replaced so that the selected size is the size of the object in the recognition data. The smaller of the size of the object in the observation data and the size of the object in the prediction data may leak the detection point and become that size, so replace it with the larger size of both as described above. This makes it possible to bring the size of the object in the recognition data closer to the true size. As a result, the accuracy of collision determination and the like in the recognition data utilization unit 29, which will be described later, is improved. The replacement of the size of the object is processed in the same manner as the replacement of the replacement portion 23 described above with reference to FIG. That is, the replacement unit 23 sets the size of the object in the observation data obtained by the clustering unit 22 to the size of the size division selected as described above, and before and after the replacement, the position of the latest contact point and each partial side in each quadrant. It was replaced so that the ratio of each length would be the same, but here, the recognition unit 27 of the object in the observation data before the size of the object in the observation data is corrected by the second size correction unit 26. Replace with the larger size of the size of the object in the size and prediction data so that the position of the most recent contact and the ratio of each length at each partial side in each quadrant are the same before and after the replacement.

このように認識データにおける物体のサイズを置き換えるので、認識部27は、この置き換えた物体のサイズで物体の位置(クラスタ枠の中心位置)を求め、この求めた物体の位置を前記認識データにおける物体の位置とするように、前記認識データにおける物体の位置を置き換える。 Since the size of the object in the recognition data is replaced in this way, the recognition unit 27 obtains the position of the object (center position of the cluster frame) by the size of the replaced object, and the position of the obtained object is the object in the recognition data. The position of the object in the recognition data is replaced so as to be the position of.

これによって最終的な認識データにおける物体のサイズ、位置および速度が求められる。 This gives the size, position and velocity of the object in the final recognition data.

認識データ利用部29は、認識部27で求めた認識データを利用した所定の処理を実施するものである。例えば、認識データ利用部29は、車両VCと第1ないし第5検出部1-1~1-5で検出した物体とが衝突するか否かを判定する衝突判定部である。前記衝突判定部は、例えば、車両VCの位置および速度と前記物体の認識データにおけるサイズ、位置および速度とに基づいて前記衝突の有無を判定する。前記衝突判定部は、前記衝突有りと判定した場合に、警報の報知等をしてもよい。あるいは、例えば、認識データ利用部29は、車両VCを自動的に車線変更等を行う自動運転処理を実施する自動運転処理部である。前記自動運転処理部は、例えば車線変更では、カメラの画像から白線を検出し、車両VCの走行車線と変更先の車線とを認識し、車両VCの位置および速度と前記物体の認識データにおけるサイズ、位置および速度とに基づいて車両VCと前記物体との衝突を回避しつつ車線変更する。 The recognition data utilization unit 29 carries out a predetermined process using the recognition data obtained by the recognition unit 27. For example, the recognition data utilization unit 29 is a collision determination unit that determines whether or not the vehicle VC collides with an object detected by the first to fifth detection units 1-1 to 1-5. The collision determination unit determines the presence or absence of the collision based on, for example, the position and speed of the vehicle VC and the size, position, and speed in the recognition data of the object. When the collision determination unit determines that there is a collision, the collision determination unit may notify an alarm or the like. Alternatively, for example, the recognition data utilization unit 29 is an automatic driving processing unit that performs an automatic driving process for automatically changing lanes of the vehicle VC. For example, when changing lanes, the automatic driving processing unit detects a white line from the image of the camera, recognizes the traveling lane of the vehicle VC and the lane to be changed, and determines the position and speed of the vehicle VC and the size in the recognition data of the object. , Position and speed to change lanes while avoiding collisions between the vehicle VC and the object.

このような物体認識装置Dにおける制御処理部2および記憶部3は、いわゆるECU(Electronic Control Unit)と呼称されるコンピュータによって構成可能である。 The control processing unit 2 and the storage unit 3 in such an object recognition device D can be configured by a computer called an so-called ECU (Electronic Control Unit).

なお、第1サイズ補正部24は、前記相関部で相関処理を実施する前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するサイズ補正部の一例に相当する。 In addition, the first size correction unit 24 of the object in the observation data so that the size of the object in the observation data and the size of the object in the prediction data match before the correlation processing is performed in the correlation unit. It corresponds to an example of a size correction unit that corrects at least one of the size and the size of the object in the prediction data.

次に、本実施形態の動作について説明する。図5は、認識データの生成およびその利用に関する前記物体認識装置の動作を示すフローチャートである。図6は、図5に示す第1サイズ補正処理、相関処理およびサイズのリセットに関する前記物体認識装置の動作を示すフローチャートである。図7は、図5に示す第2サイズ補正処理および認識データの生成に関する前記物体認識装置の動作を示すフローチャートである。 Next, the operation of this embodiment will be described. FIG. 5 is a flowchart showing the operation of the object recognition device regarding the generation and use of recognition data. FIG. 6 is a flowchart showing the operation of the object recognition device regarding the first size correction process, the correlation process, and the size reset shown in FIG. FIG. 7 is a flowchart showing the operation of the object recognition device regarding the second size correction process and the generation of recognition data shown in FIG.

このような物体認識装置Dは、車両VCが稼働を始めると、必要な各部の初期化を実行し、その稼働を始める。その制御処理プログラムの実行によって、制御処理部2には、制御部21、クラスタリング部22、置換部23、第1サイズ補正部24、相関部25、第2サイズ補正部26、認識部27、予測部28および認識データ利用部29が機能的に構成される。 When the vehicle VC starts operation, such an object recognition device D executes necessary initialization of each part and starts the operation. By executing the control processing program, the control processing unit 2 includes a control unit 21, a clustering unit 22, a replacement unit 23, a first size correction unit 24, a correlation unit 25, a second size correction unit 26, a recognition unit 27, and a prediction unit. The unit 28 and the recognition data utilization unit 29 are functionally configured.

物体認識装置Dは、車両VC(移動体)の周囲における物体の認識では、図5に示す次の各動作を所定のサンプリング周期Tで繰り返し実行している。 The object recognition device D repeatedly executes each of the following operations shown in FIG. 5 in a predetermined sampling cycle T in recognizing an object around the vehicle VC (moving body).

図5において、物体認識装置Dは、今回のサンプリングタイミングの時刻tでの、第1ないし第5検出部1-1~1-5で検出した検出点を第1ないし第5検出部1-1~1-5から取得する(S1)。 In FIG. 5, the object recognition device D detects the detection points detected by the first to fifth detection units 1-1 to 1-5 at the time tk of the sampling timing of the first to fifth detection units 1-. Obtained from 1 to 1-5 (S1).

次に、物体認識装置Dは、制御処理部2のクラスタリング部22によって、第1ないし第5検出範囲RF、RRF、RRB、RLF、RLBで車両VC(移動体)の周囲における物体を、処理S1で第1ないし第5検出部1-1~1-5から取得した1または複数の検出点をクラスタリングすることによって、前記物体の観測データを求める(S2)。 Next, the object recognition device D processes an object around the vehicle VC (moving body) in the first to fifth detection ranges RF, RRF, RRB, RLF, and RLB by the clustering unit 22 of the control processing unit 2. The observation data of the object is obtained by clustering one or a plurality of detection points acquired from the first to fifth detection units 1-1 to 1-5 in (S2).

次に、物体認識装置Dは、制御処理部2の置換部23によって、クラスタリング部22で求めた観測データにおける物体のサイズに基づいて、予め定義された複数のサイズ中から1つのサイズを選択し、この選択したサイズを前記観測データにおける物体のサイズとするとともに、前記選択したサイズから求めた位置を前記観測データにおける物体の位置とするように、前記観測データにおける物体のサイズおよび位置を置き換える(S3)。 Next, the object recognition device D selects one size from a plurality of predefined sizes based on the size of the object in the observation data obtained by the clustering unit 22 by the replacement unit 23 of the control processing unit 2. , The size and position of the object in the observation data are replaced so that the selected size is the size of the object in the observation data and the position obtained from the selected size is the position of the object in the observation data (. S3).

次に、物体認識装置Dは、制御処理部2の予測部28によって、過去の観測データに基づいて予測データを求める(S4)。本実施形態では、予測データにおける物体のサイズspk、位置xpkおよび速度vpkが、それぞれ、spk=ssk-1、xpk=xsk-1+T×vsk-1、vpk=vsk-1によって求められる。 Next, the object recognition device D obtains the prediction data based on the past observation data by the prediction unit 28 of the control processing unit 2 (S4). In the present embodiment, the size spk , position x pk , and velocity v pk of the object in the prediction data are spk = s sk-1 , x pk = x sk-1 , + T × v sk-1 , v pk =, respectively. Obtained by v sk-1 .

物体認識装置Dは、制御処理部2によって、第1サイズ補正処理、相関処理およびサイズのリセットを実行する(S5)。 The object recognition device D executes the first size correction process, the correlation process, and the size reset by the control processing unit 2 (S5).

この処理S5では、より具体的には、図6に示す各動作が実行される。 More specifically, in this process S5, each operation shown in FIG. 6 is executed.

図6において、物体認識装置Dは、制御処理部2の第1サイズ補正部24によって、観測データにおける物体のサイズと予測データにおける物体のサイズとが異なるか否かを判定する(S51)。この判定では、置換部23によって物体のサイズは、本実施形態では、第1ないし第4サイズ区分のいずれかであるので、サイズ区分で同否が判定される。この判定の結果、両データの各サイズ区分が異なる場合(Yes)には、物体認識装置Dは、次に処理S52を実行した後に、処理S53を実行する。一方、前記判定の結果、両データの各サイズ区分が同じ場合(No)には、物体認識装置Dは、次に、処理S53を実行する。 In FIG. 6, the object recognition device D determines whether or not the size of the object in the observation data and the size of the object in the prediction data are different by the first size correction unit 24 of the control processing unit 2 (S51). In this determination, since the size of the object is one of the first to fourth size categories in the present embodiment by the replacement unit 23, the same or not is determined by the size category. As a result of this determination, when each size classification of the two data is different (Yes), the object recognition device D executes the process S53 after the next process S52. On the other hand, as a result of the determination, when each size classification of both data is the same (No), the object recognition device D next executes the process S53.

この処理S52では、物体認識装置Dは、第1サイズ補正部24によって、観測データにおける物体のサイズと予測データにおける物体のサイズとが一致するように、本実施形態では、前記観測データにおける物体のサイズを補正する。 In this process S52, in the present embodiment, the object recognition device D uses the first size correction unit 24 to match the size of the object in the observation data with the size of the object in the prediction data. Correct the size.

前記処理S53では、物体認識装置Dは、制御処理部2の相関部25によって、観測データで表される物体と予測データで表される物体とが同一であるか否かを、前記観測データと前記予測データとの相関処理によって判定する。この判定の結果、両データの各物体が同一である場合(Yes)には、物体認識装置Dは、次に処理S54を実行した後に、処理S55を実行する。一方、前記判定の結果、両データの各物体が同一ではない場合(No)には、物体認識装置Dは、次に、処理S55を実行する。 In the processing S53, the object recognition device D uses the correlation unit 25 of the control processing unit 2 to determine whether or not the object represented by the observation data and the object represented by the prediction data are the same as the observation data. Judgment is made by correlation processing with the prediction data. As a result of this determination, when each object of both data is the same (Yes), the object recognition device D executes the process S55 after the next process S54. On the other hand, as a result of the determination, when the objects of both data are not the same (No), the object recognition device D then executes the process S55.

この処理S54では、物体認識装置Dは、相関部25によって、前記観測データで表される物体を前記予測データで表される物体に対応付ける。これによって各サンプリングタイミングごとに物体のトラッキング(追跡)が行われる。 In this process S54, the object recognition device D associates the object represented by the observation data with the object represented by the prediction data by the correlation unit 25. As a result, object tracking is performed at each sampling timing.

前記処理S55では、物体認識装置Dは、相関部25によって、サイズをリセットするために、第1サイズ補正部24で補正された物体のサイズを補正前に戻し、処理S5を終了する。 In the process S55, the object recognition device D returns the size of the object corrected by the first size correction unit 24 before the correction in order to reset the size by the correlation unit 25, and ends the process S5.

図5に戻って、次に、物体認識装置Dは、制御処理部2によって、第2サイズ補正処理、相関処理および認識データの生成を実行する(S6)。 Returning to FIG. 5, next, the object recognition device D executes the second size correction process, the correlation process, and the generation of the recognition data by the control processing unit 2 (S6).

この処理S6では、より具体的には、図7に示す各動作が実行される。 More specifically, in this process S6, each operation shown in FIG. 7 is executed.

図7において、物体認識装置Dは、制御処理部2の第2サイズ補正部26によって、観測データにおける物体のサイズと予測データにおける物体のサイズとが異なるか否かを、本実施形態ではサイズ区分で判定する(S61)。この判定の結果、両データの各サイズ区分が異なる場合(Yes)には、物体認識装置Dは、次に処理S62を実行した後に、処理S63を実行する。一方、前記判定の結果、両データの各サイズ区分が同じ場合(No)には、物体認識装置Dは、次に、処理S63を実行する。 In FIG. 7, the object recognition device D determines whether or not the size of the object in the observation data and the size of the object in the prediction data are different by the second size correction unit 26 of the control processing unit 2 in the present embodiment. (S61). As a result of this determination, when each size classification of the two data is different (Yes), the object recognition device D executes the process S63 after the next process S62. On the other hand, as a result of the determination, when each size classification of both data is the same (No), the object recognition device D next executes the process S63.

この処理S62では、物体認識装置Dは、第2サイズ補正部26によって、観測データにおける物体のサイズと予測データにおける物体のサイズとが一致するように、本実施形態では、前記観測データにおける物体のサイズを補正する。 In this process S62, in the present embodiment, the object recognition device D has the object in the observation data so that the size of the object in the observation data and the size of the object in the prediction data match by the second size correction unit 26. Correct the size.

前記処理S63では、物体認識装置Dは、制御処理部2の認識部27によって、本実施形態では、上述の式1を用いて認識データにおける物体の位置xskを求める。 In the processing S63, the object recognition device D obtains the position x sk of the object in the recognition data by the recognition unit 27 of the control processing unit 2 using the above equation 1 in the present embodiment.

次に、物体認識装置Dは、認識部27によって、本実施形態では、上述の式2を用いて認識データにおける物体の速度vskを求める(S64)。 Next, the object recognition device D obtains the velocity vsk of the object in the recognition data by the recognition unit 27 using the above equation 2 in the present embodiment (S64).

次に、物体認識装置Dは、認識部27によって、観測データにおける物体のサイズおよび予測データにおける物体のサイズのうちの大きい方のサイズを選択し、この選択したサイズを前記認識データにおける物体のサイズとするように、前記認識データにおける物体のサイズを置き換える(S65)。 Next, the object recognition device D selects the larger size of the size of the object in the observation data and the size of the object in the prediction data by the recognition unit 27, and uses this selected size as the size of the object in the recognition data. The size of the object in the recognition data is replaced with the above (S65).

そして、物体認識装置Dは、認識部27によって、この処理S65で置き換えた物体のサイズで物体の位置(クラスタ枠の中心位置)を求め、この求めた物体の位置を前記認識データにおける物体の位置とするように、前記認識データにおける物体の位置を置き換え、処理S6を終了する。 Then, the object recognition device D obtains the position of the object (center position of the cluster frame) by the size of the object replaced by the process S65 by the recognition unit 27, and the position of the obtained object is the position of the object in the recognition data. The position of the object in the recognition data is replaced with the above-mentioned recognition data, and the process S6 is terminated.

図5に戻って、次に、物体認識装置Dは、制御処理部2の認識データ利用部29によって、処理S6で求めた認識データを利用した所定の処理を実施する(S7)。 Returning to FIG. 5, next, the object recognition device D performs a predetermined process using the recognition data obtained in the process S6 by the recognition data utilization unit 29 of the control processing unit 2 (S7).

このような処理S2ないし処理S7の各処理が、観測データで表される物体ごとに実行され、今般のサンプリングタイミングでの処理を終了する。なお、上述したように、観測データで表される物体が全ての、予測データで表される物体と同一ではないと判定すると、相関部25は、この相関の無い観測データで表される物体を新たに認識した物体として扱う。一方、相関部25は、所定の回数、連続して、観測データで表される物体のいずれにも同一であると判定されなかった予測データで表される物体を、車両VCの周囲から外れた物体として扱う。 Each of the processes S2 to S7 is executed for each object represented by the observation data, and the process at the current sampling timing is completed. As described above, when it is determined that the object represented by the observation data is not the same as all the objects represented by the prediction data, the correlation unit 25 determines the object represented by this uncorrelated observation data. Treat it as a newly recognized object. On the other hand, the correlation unit 25 continuously deviates from the surroundings of the vehicle VC an object represented by the predicted data which is not determined to be the same as any of the objects represented by the observation data for a predetermined number of times. Treat as an object.

以上説明したように、実施形態における物体認識装置Dおよびこれに実装された物体認識方法は、第1サイズ補正部24によって、相関処理を実施する前に、観測データにおける物体のサイズと予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するので、サイズの違いに起因する相関関係の判定精度の低下を、抑制できる。 As described above, the object recognition device D and the object recognition method implemented therein in the embodiment are described in the object size in the observation data and the prediction data before the correlation processing is performed by the first size correction unit 24. Since at least one of the size of the object in the observation data and the size of the object in the prediction data is corrected so as to match the size of the object, the decrease in the determination accuracy of the correlation due to the difference in size can be prevented. It can be suppressed.

上記物体認識装置Dおよび物体認識方法は、第2サイズ補正部26によって、認識データを求める前に、観測データにおける物体のサイズと予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するので、サイズの違いに起因する、少なくとも物体のサイズの検出精度および位置の検出精度それぞれの低下を抑制できる。本実施形態では、速度の検出精度の低下も抑制できる。 The object recognition device D and the object recognition method are described in the observation data so that the size of the object in the observation data and the size of the object in the prediction data match before the recognition data is obtained by the second size correction unit 26. Since at least one of the size of the object and the size of the object in the prediction data is corrected, it is possible to suppress a decrease in at least the detection accuracy of the size of the object and the detection accuracy of the position due to the difference in size. In the present embodiment, it is possible to suppress a decrease in speed detection accuracy.

図8は、前記物体認識装置の効果を説明するための図である。図8Aは、前回の観測データに基づく予測データを示し、図8Bは、今回の検出点を示し、図8Cは、図8Bに示す検出点に基づきクラスタリングによって得られた観測データを示す。図8Cに示す観測データは、サイズ区分で置き換える前の観測データである。 FIG. 8 is a diagram for explaining the effect of the object recognition device. 8A shows the prediction data based on the previous observation data, FIG. 8B shows the current detection point, and FIG. 8C shows the observation data obtained by clustering based on the detection point shown in FIG. 8B. The observation data shown in FIG. 8C is the observation data before being replaced by the size classification.

一般に、例えばレーダ装置等の、物体を検出(センシング)する検出器(センサ、本実施形態では第1ないし第5検出部1-1~1-5が相当する)は、予め規定された所定の検出範囲内で物体を検出している。図8に示す例では、車両VCの右前方に配置された検出器は、右前方から右側面の中程までの略120度の扇形である検出範囲RRFで物体を検出し、車両VCの右後方に配置された検出器は、右側面の中程から右後方までの略120度の扇形である検出範囲RRBで物体を検出している。前記検出器の性能限界から、検出範囲内に物体が存在していても、例えば、図8Bに示すように、前記物体の一部での検出点が生成され、物体の残部での検出点が漏れてしまうことがある。特に、検出範囲RRF、RRBの境界付近では、検出精度が低下し易く、検出範囲RRFと検出範囲RRBとの重なり付近でも、このような漏れが生じてしまう場合がある。図8Cに示す、前記物体の一部での検出点に基づきクラスタリングによって生成されたクラスタ枠は、前記物体の一部での検出点であるから、真のクラスタ枠とは異なってしまう。このため、図8Aに示す前回の観測データに基づく予測データと、図8Cに示す、図8Bに示す検出点に基づきクラスタリングによって得られた観測データとで、サイズに基づき、前回で検出した物体と今回で検出した物体との相関関係を判定する場合、相関関係の判定精度が低下してしまう。例えば、本実施形態のような相関処理によって判定すると、枠サイズに依存する代表点の位置関係が真の位置関係と異なるため、相関関係の判定精度が低下してしまう。 In general, a detector (sensor, corresponding to the first to fifth detection units 1-1 to 1-5 in this embodiment) for detecting (sensing) an object, such as a radar device, is a predetermined predetermined device. An object is detected within the detection range. In the example shown in FIG. 8, the detector arranged on the right front side of the vehicle VC detects the object in the detection range RRF which is a fan shape of about 120 degrees from the right front side to the middle of the right side surface, and detects the object on the right side of the vehicle VC. The detector arranged at the rear detects the object in the detection range RRB which is a fan shape of about 120 degrees from the middle of the right side surface to the right rear. Due to the performance limit of the detector, even if an object exists within the detection range, for example, as shown in FIG. 8B, a detection point is generated in a part of the object, and a detection point in the rest of the object is generated. It may leak. In particular, the detection accuracy tends to decrease near the boundary between the detection ranges RRF and RRB, and such leakage may occur even near the overlap between the detection range RRF and the detection range RRB. The cluster frame generated by clustering based on the detection points on a part of the object shown in FIG. 8C is different from the true cluster frame because it is the detection point on a part of the object. Therefore, the predicted data based on the previous observation data shown in FIG. 8A and the observation data obtained by clustering based on the detection point shown in FIG. 8B shown in FIG. 8C are the objects detected last time based on the size. When determining the correlation with the object detected this time, the accuracy of determining the correlation is lowered. For example, when the determination is made by the correlation processing as in the present embodiment, the positional relationship of the representative points depending on the frame size is different from the true positional relationship, so that the determination accuracy of the correlation is lowered.

しかしながら、実施形態における物体認識装置Dおよび物体認識方法は、上述のように、相関処理を実施する前に、第1サイズ補正部24によってサイズを補正するので、サイズの違いに起因する相関関係の判定精度の低下を、抑制できる。 However, in the object recognition device D and the object recognition method in the embodiment, as described above, the size is corrected by the first size correction unit 24 before the correlation processing is performed, so that the correlation due to the difference in size is caused. It is possible to suppress a decrease in determination accuracy.

一方、物体のサイズの、物体の領域における所定の点(代表点)の位置が物体の位置とされる場合、上述のように物体のサイズの検出精度が低下すると、検出結果に基づく物体の領域が真の物体の領域からずれるので、物体の位置の精度も低下してしまい、その結果、前記物体の速度の精度も低下してしまう。 On the other hand, when the position of a predetermined point (representative point) of the size of the object in the area of the object is the position of the object, if the detection accuracy of the size of the object decreases as described above, the area of the object based on the detection result. Is deviated from the region of the true object, so that the accuracy of the position of the object is also reduced, and as a result, the accuracy of the speed of the object is also reduced.

しかしながら、実施形態における物体認識装置Dおよび物体認識方法は、上述のように、認識データを求める前に、第2サイズ補正部26によってサイズを補正するので、サイズの違いに起因する、物体のサイズの検出精度、位置の検出精度および速度の検出精度それぞれの低下を抑制できる。 However, as described above, the object recognition device D and the object recognition method in the embodiment correct the size by the second size correction unit 26 before obtaining the recognition data, so that the size of the object is caused by the difference in size. It is possible to suppress the deterioration of the detection accuracy of the, the detection accuracy of the position, and the detection accuracy of the speed.

上記物体認識装置Dおよび物体認識方法は、高い検出精度を持つ最近接点、の位置を、第1サイズ補正部24による補正の前後で、同一となるように、補正するので、補正後で位置精度を維持またはその低下を抑制できる。上記物体認識装置Dおよび物体認識方法は、前記最近接点の位置を、第2サイズ補正部26による補正の前後で、同一となるように、補正するので、補正後で位置精度を維持またはその低下を抑制できる。 The object recognition device D and the object recognition method correct the positions of the recent contacts having high detection accuracy so that they are the same before and after the correction by the first size correction unit 24. Therefore, the position accuracy is corrected after the correction. Can be maintained or its decline can be suppressed. Since the object recognition device D and the object recognition method correct the positions of the recent contacts so that they are the same before and after the correction by the second size correction unit 26, the position accuracy is maintained or deteriorated after the correction. Can be suppressed.

上記物体認識装置Dおよび物体認識方法は、高い検出精度を持つ傾向にある最近接辺、における象限ごとの各部分辺での各長さの比を、第1サイズ補正部24による補正の前後で、同一となるように、補正するので、補正後で位置精度を維持またはその低下を抑制できる。上記物体認識装置Dおよび物体認識方法は、前記最近接辺における象限ごとの各部分辺での各長さの比を、第2サイズ補正部26による補正の前後で、同一となるように、補正するので、補正後で位置精度を維持またはその低下を抑制できる。 In the object recognition device D and the object recognition method, the ratio of each length in each partial side in each quadrant in the nearest edge, which tends to have high detection accuracy, is corrected before and after the correction by the first size correction unit 24. Since the correction is made so that they are the same, the position accuracy can be maintained or the deterioration thereof can be suppressed after the correction. The object recognition device D and the object recognition method correct the ratio of each length in each partial side of each quadrant in the nearest quadrant so as to be the same before and after the correction by the second size correction unit 26. Therefore, the position accuracy can be maintained or its deterioration can be suppressed after the correction.

予測データの矩形枠が検出範囲を超えて存在する場合、観測データにおける物体のサイズは、前記検出範囲外の部分で欠損している可能性がある。上記物体認識装置Dおよび物体認識方法は、予測データの矩形枠の最近接辺における検出範囲内外ごとの各部分辺での各長さの比を、第1サイズ補正部24により前記予測データと補正後の前記観測データとで、同一となるように、観測データにおける物体のサイズを補正するので、前記欠損を補うことができ、補正後で位置精度を維持またはその低下を抑制できる。上記物体認識装置Dおよび物体認識方法は、予測データの矩形枠の最近接辺における検出範囲内外ごとの各部分辺での各長さの比を、第2サイズ補正部26により前記予測データと補正後の前記観測データとで、観測データにおける物体のサイズを補正するので、前記欠損を補うことができ、補正後で位置精度を維持またはその低下を抑制できる。 If the rectangular frame of the prediction data exists beyond the detection range, the size of the object in the observation data may be missing in the portion outside the detection range. In the object recognition device D and the object recognition method, the ratio of each length in each partial side of the detection range in the nearest edge of the rectangular frame of the prediction data is corrected by the first size correction unit 24 with the prediction data. Since the size of the object in the observation data is corrected so that it becomes the same as the observation data later, the defect can be compensated, and the position accuracy can be maintained or the deterioration thereof can be suppressed after the correction. In the object recognition device D and the object recognition method, the ratio of each length in each partial side of the detection range in the nearest edge of the rectangular frame of the prediction data is corrected by the second size correction unit 26 with the prediction data. Since the size of the object in the observation data is corrected with the observation data later, the defect can be compensated, and the position accuracy can be maintained or the decrease thereof can be suppressed after the correction.

上記物体認識装置Dおよび物体認識方法は、予め定義された複数のサイズ中から選択したサイズに、前記観測データにおける物体のサイズに置き換えるので、検出点の検出漏れによるサイズの変動を抑制できる。 Since the object recognition device D and the object recognition method replace the size selected from a plurality of predefined sizes with the size of the object in the observation data, it is possible to suppress the fluctuation of the size due to the detection omission of the detection point.

第2サイズ補正部26は、小さい方の物体のサイズに合わせて補正する場合がある。上上記物体認識装置Dおよび物体認識方法は、第2サイズ補正部26で補正する前での、観測データにおける物体のサイズおよび予測データにおける物体のサイズのうちの大きい方のサイズを選択し、この選択したサイズを認識データにおける物体のサイズとするように、前記認識データにおける物体のサイズを置き換えるので、前記場合を回避でき、適切な物体の大きさを持つ認識データを求めることができる。 The second size correction unit 26 may correct according to the size of the smaller object. Above The object recognition device D and the object recognition method select the larger size of the object size in the observation data and the object size in the prediction data before the correction by the second size correction unit 26. Since the size of the object in the recognition data is replaced so that the selected size is the size of the object in the recognition data, the above case can be avoided and the recognition data having an appropriate object size can be obtained.

上記物体認識装置Dおよび物体認識方法は、観測データにおける物体の位置、予測データにおける物体の位置および速度に基づいて認識データにおける物体の速度を求めるので、検出精度の低下を抑制した物体の位置に基づくことで速度の検出精度の低下を抑制できる。 Since the object recognition device D and the object recognition method obtain the speed of the object in the recognition data based on the position of the object in the observation data and the position and speed of the object in the prediction data, the position of the object in which the deterioration of the detection accuracy is suppressed can be obtained. Based on this, it is possible to suppress a decrease in speed detection accuracy.

なお、上述の実施形態では、2次元で説明したが、3次元でも同様に説明できる。この場合、クラスタ枠は、直方体となり、クラスタ枠としての矩形に含まれる線分は、平面となる。 In the above-described embodiment, the explanation is given in two dimensions, but the same can be explained in three dimensions. In this case, the cluster frame is a rectangular parallelepiped, and the line segment included in the rectangle as the cluster frame is a plane.

また、上述の実施形態では、観測データ、予測データおよび認識データの物体状態情報は、サイズ、位置および速度を含んだが、さらに、加速度を含んでもよい。この場合では、時刻tにおいて、前記観測データにおける物体の加速度をaokとし、前記予測データにおける物体の加速度をapkとし、前記認識データにおける物体の加速度をaskとし、所定の第3パラメータをγとする場合に、認識データにおける物体の位置xskおよび速度vskは、上述の式1および式2で求められ、前記認識データにおける物体の加速度askは、ask=apk+γ/T×(xok-xpk)によって求められる。この場合では、予測データにおける物体の位置xpk、速度vpkおよび加速度apkは、xpk=xsk-1+T×vsk-1+(T/2)×ask-1、vpk=vsk-1+T×ask-1、apk=ask-1によって求める。第3パラメータγは、いわゆるα-β-γフィルタにおける加速度の予測依存性に対するゲインであり、適宜に設定される。 Further, in the above-described embodiment, the object state information of the observation data, the prediction data, and the recognition data includes the size, the position, and the velocity, but may further include the acceleration. In this case, at time tk , the acceleration of the object in the observation data is a ok , the acceleration of the object in the prediction data is a pk , the acceleration of the object in the recognition data is a sk , and a predetermined third parameter. When is γ, the position x sk and the velocity v sk of the object in the recognition data are obtained by the above equations 1 and 2, and the acceleration a sk of the object in the recognition data is a sk = a pk + γ /. It is obtained by T 2 × (x ok − x pk ). In this case, the position x pk , velocity v pk and acceleration a pk of the object in the prediction data are x pk = x sk-1 + T x v sk-1 + (T 2/2 ) x a sk-1 , v pk . = V sk-1 + T × a sk-1 , a pk = a sk-1 . The third parameter γ is a gain with respect to the prediction dependence of acceleration in the so-called α-β-γ filter, and is appropriately set.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。 In order to express the present invention, the present invention has been appropriately and sufficiently described through the embodiments with reference to the drawings described above, but those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that it is possible. Therefore, unless the modified or improved form implemented by a person skilled in the art is at a level that deviates from the scope of rights of the claims stated in the claims, the modified form or the improved form is the scope of rights of the claims. It is interpreted to be included in.

D 物体認識装置
FR(FRb1~FRb8、FRa1~FRa8) クラスタ枠
CP(CPb1~CPb8、CPa1~CPa8) 中央位置(代表点の一例)
CS(CPb1~CPb3、CPb5、CPb7、CPa1~CPa3、CPa5、CPa7) 最近接点
R(RF、RRF、RRB、RLF、RLB) 検出範囲
1-1~1-5 第1ないし第5検出部
2 制御処理部
3 記憶部
21 制御部
22 クラスタリング部
23 置換部
24 第1サイズ補正部
25 相関部
26 第2サイズ補正部
27 認識部
28 予測部
29 認識データ利用部(ex.衝突判定部)

D Object recognition device FR (FRb1 to FRb8, FRa1 to FRa8) Cluster frame CP (CP b1 to CP b8 , CP a1 to CP a8 ) Central position (example of representative point)
CS (CP b1 to CP b3 , CP b5 , CP b7 , CP a1 to CP a3 , CP a5 , CP a7 ) Recent contacts R (RF, RRF, RRB, RLF, RLB) Detection range 1-1 to 1-5 1st to 5th detection unit 2 Control processing unit 3 Storage unit 21 Control unit 22 Clustering unit 23 Replacement unit 24 1st size correction unit 25 Correlation unit 26 2nd size correction unit 27 Recognition unit 28 Prediction unit 29 Recognition data utilization unit (ex) .Collision judgment unit)

Claims (6)

所定の検出範囲で自機の周囲における物体を検出することによって得られた1または複数の検出点をクラスタリングすることによって、前記物体のサイズおよび位置を含む物体状態情報である観測データを求めるクラスタリング部と、
過去の観測データに基づいて前記物体状態情報を予測した予測データを求める予測部と、
前記観測データで表される物体と前記予測データで表される物体とが同一であるか否かを、前記観測データと前記予測データとの相関処理によって判定する相関部と、
前記相関部で相関処理を実施する前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するサイズ補正部とを備える、
物体認識装置。
A clustering unit that obtains observation data that is object state information including the size and position of the object by clustering one or a plurality of detection points obtained by detecting an object around the own machine within a predetermined detection range. When,
A prediction unit that obtains prediction data that predicts the object state information based on past observation data,
A correlation unit that determines whether or not the object represented by the observation data and the object represented by the prediction data are the same by the correlation processing between the observation data and the prediction data.
Before performing the correlation processing in the correlation unit, the size of the object in the observation data and the size of the object in the prediction data are matched so that the size of the object in the observation data and the size of the object in the prediction data match. It is equipped with a size correction unit that corrects at least one of them.
Object recognition device.
前記物体のサイズは、前記物体が存在する領域を囲む枠のサイズであり、
前記サイズ補正部は、前記枠における、前記自機から最も近い最近接点の位置が、補正の前後で、同一となるように、補正する、
請求項1に記載の物体認識装置。
The size of the object is the size of the frame surrounding the area where the object exists.
The size correction unit corrects the position of the nearest contact point closest to the own machine in the frame so that it is the same before and after the correction.
The object recognition device according to claim 1.
前記物体のサイズは、前記物体が存在する領域を囲む矩形枠のサイズであり、
前記サイズ補正部は、所定の第1座標軸と、前記第1座標軸に直交する第2座標軸と、前記自機の中心位置を座標原点とする座標系を設定した場合に、前記矩形枠の辺が前記第1座標軸または前記第2座標軸と交差する場合、前記交差する辺における前記自機から最も近い最近接辺において、一方象限に延びる第1部分辺の第1長さと他方象限に延びる第2部分辺の第2長さとの比が、補正の前後で、同一となるように、補正する、
請求項1または請求項2に記載の物体認識装置。
The size of the object is the size of a rectangular frame surrounding the area where the object exists.
When the size correction unit sets a predetermined first coordinate axis, a second coordinate axis orthogonal to the first coordinate axis, and a coordinate system having the center position of the own machine as the coordinate origin, the sides of the rectangular frame are set. When intersecting with the first coordinate axis or the second coordinate axis, the first length of the first partial side extending to one quadrant and the second portion extending to the other quadrant at the closest tangent to the own machine at the intersecting side. Correct so that the ratio to the second length of the side is the same before and after the correction.
The object recognition device according to claim 1 or 2.
前記物体のサイズは、前記物体が存在する領域を囲む矩形枠のサイズであり、
前記サイズ補正部は、前記予測データの矩形枠が前記検出範囲を超えて存在する場合、前記検出範囲と交差する辺における前記自機から最も近い第2最近接辺において、前記検出範囲を超えて延びる第3部分辺の第3長さと前記検出範囲内に延びる第4部分辺の第4長さとの比が、前記予測データと補正後の前記観測データとで、同一となるように、前記観測データにおける物体のサイズを補正する、
請求項1ないし請求項3のいずれか1項に記載の物体認識装置。
The size of the object is the size of a rectangular frame surrounding the area where the object exists.
When the rectangular frame of the prediction data exists beyond the detection range, the size correction unit exceeds the detection range at the second nearest contact side closest to the own machine at the side intersecting the detection range. The observation so that the ratio of the third length of the extending third partial side to the fourth length of the fourth partial side extending within the detection range is the same in the predicted data and the corrected observation data. Correct the size of the object in the data,
The object recognition device according to any one of claims 1 to 3.
前記サイズ補正部で補正する前に、前記クラスタリング部で求めた観測データにおける物体のサイズに基づいて、予め定義された複数のサイズ中から1つのサイズを選択し、前記選択したサイズを前記観測データにおける物体のサイズとするとともに、前記選択したサイズから求めた位置を前記観測データにおける物体の位置とするように、前記観測データにおける物体のサイズおよび位置を置き換える置換部をさらに備える、
請求項1ないし請求項4のいずれか1項に記載の物体認識装置。
Before correction by the size correction unit, one size is selected from a plurality of predefined sizes based on the size of the object in the observation data obtained by the clustering unit, and the selected size is used as the observation data. Further includes a replacement part that replaces the size and position of the object in the observation data so that the position obtained from the selected size is the position of the object in the observation data.
The object recognition device according to any one of claims 1 to 4.
所定の検出範囲で自機の周囲における物体を検出することによって得られた1または複数の検出点をクラスタリングすることによって、前記物体のサイズおよび位置を含む物体状態情報である観測データを求めるクラスタリング工程と、
過去の観測データに基づいて前記物体状態情報を予測した予測データを求める予測工程と、
前記観測データで表される物体と前記予測データで表される物体とが同一であるか否かを、前記観測データと前記予測データとの相関処理によって判定する相関処理工程と、
前記相関処理工程で相関処理を実施する前に、前記観測データにおける物体のサイズと前記予測データにおける物体のサイズとが一致するように、前記観測データにおける物体のサイズおよび前記予測データにおける物体のサイズのうちの少なくとも一方を補正するサイズ補正工程とを備える、
物体認識方法。
A clustering step of obtaining observation data which is object state information including the size and position of the object by clustering one or a plurality of detection points obtained by detecting an object around the own machine within a predetermined detection range. When,
A prediction process for obtaining prediction data that predicts the object state information based on past observation data, and
A correlation processing step of determining whether or not the object represented by the observation data and the object represented by the prediction data are the same by the correlation processing between the observation data and the prediction data.
Before performing the correlation processing in the correlation processing step, the size of the object in the observation data and the size of the object in the prediction data so that the size of the object in the observation data and the size of the object in the prediction data match. A size correction step for correcting at least one of them is provided.
Object recognition method.
JP2020210632A 2020-12-18 2020-12-18 OBJECT RECOGNITION DEVICE AND OBJECT RECOGNITION METHOD Active JP7504016B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020210632A JP7504016B2 (en) 2020-12-18 2020-12-18 OBJECT RECOGNITION DEVICE AND OBJECT RECOGNITION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020210632A JP7504016B2 (en) 2020-12-18 2020-12-18 OBJECT RECOGNITION DEVICE AND OBJECT RECOGNITION METHOD

Publications (2)

Publication Number Publication Date
JP2022097190A true JP2022097190A (en) 2022-06-30
JP7504016B2 JP7504016B2 (en) 2024-06-21

Family

ID=82165477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020210632A Active JP7504016B2 (en) 2020-12-18 2020-12-18 OBJECT RECOGNITION DEVICE AND OBJECT RECOGNITION METHOD

Country Status (1)

Country Link
JP (1) JP7504016B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4843571B2 (en) 2007-07-04 2011-12-21 本田技研工業株式会社 Vehicle object detection device
JP6460822B2 (en) 2015-02-10 2019-01-30 国立大学法人金沢大学 Moving object tracking method and moving object tracking apparatus
JP6685836B2 (en) 2016-05-30 2020-04-22 株式会社東芝 Information processing apparatus and information processing method
JP6333437B1 (en) 2017-04-21 2018-05-30 三菱電機株式会社 Object recognition processing device, object recognition processing method, and vehicle control system
JP6805970B2 (en) 2017-06-09 2020-12-23 トヨタ自動車株式会社 Target information acquisition device
JP6911788B2 (en) 2018-02-13 2021-07-28 株式会社デンソーウェーブ Vehicle recognition device, vehicle recognition system, vehicle recognition program
JP7067354B2 (en) 2018-08-09 2022-05-16 株式会社Ihi Object detection device and object detection method
JPWO2020152816A1 (en) 2019-01-24 2021-02-18 三菱電機株式会社 Tracking device and tracking method
CN114730014A (en) 2019-11-29 2022-07-08 三菱电机株式会社 Object recognition device and object recognition method

Also Published As

Publication number Publication date
JP7504016B2 (en) 2024-06-21

Similar Documents

Publication Publication Date Title
US10922561B2 (en) Object recognition device and vehicle travel control system
US11001258B2 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
EP3287945B1 (en) Automated vehicle road model definition system
EP1378762B1 (en) Identical object determination method and apparatus and displacement correction method and apparatus in a multisensor system
US9053554B2 (en) Object detection device using an image captured with an imaging unit carried on a movable body
WO2017170798A1 (en) Object recognition device and object recognition method
JP3349060B2 (en) Outside monitoring device
JP7018277B2 (en) Object detection device, object detection method and vehicle control system
JP5884912B2 (en) Collision determination device and collision determination method
JP6458651B2 (en) Road marking detection device and road marking detection method
JP7045155B2 (en) Target recognition device, target recognition method and vehicle control system
US20180218228A1 (en) Apparatus and method for controlling vehicle
WO2012133457A1 (en) Object recognition device
JP5012270B2 (en) Object detection device
US11091153B2 (en) Vehicle control apparatus and vehicle control method
WO2017170799A1 (en) Object recognition device and object recognition method
EP3432033B1 (en) Object detection device, object detection method, and program
JP2014142241A (en) Three-dimensional position estimation device, vehicle controller, and three-dimensional position estimation method
JPWO2020049892A1 (en) In-vehicle radar system
US20230034208A1 (en) Processing Apparatus and Point Cloud Elimination Method
JP2022097190A (en) Object recognition device and object recognition method
JP2022097191A (en) Object recognition device and object recognition method
JP6672750B2 (en) Object detection device
JP7570222B2 (en) OBJECT RECOGNITION DEVICE AND OBJECT RECOGNITION METHOD
US20230182728A1 (en) Collision determination apparatus, collision determination method, collision avoidance system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240611

R150 Certificate of patent or registration of utility model

Ref document number: 7504016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150