JP5583523B2 - Object recognition device - Google Patents
Object recognition device Download PDFInfo
- Publication number
- JP5583523B2 JP5583523B2 JP2010193659A JP2010193659A JP5583523B2 JP 5583523 B2 JP5583523 B2 JP 5583523B2 JP 2010193659 A JP2010193659 A JP 2010193659A JP 2010193659 A JP2010193659 A JP 2010193659A JP 5583523 B2 JP5583523 B2 JP 5583523B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- target object
- estimated
- type
- rectangle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
この発明は、車載レーダの反射の検出パターンから対象物体の車両等の種別を認識する物体認識装置に関する。 The present invention relates to an object recognition apparatus that recognizes the type of a target object such as a vehicle from a reflection detection pattern of an in-vehicle radar.
従来、車両の分野においては、様々な予防安全技術の研究開発が行われており、前方衝突被害軽減システムや後側方警報システムなどの種々の予防安全システムが実用化されている。しかしながら、これらの従来システムはいずれも車両(自動車)の一方向のみの検出を対象とし、適用範囲が狭く、車両以外の障害物(自転車、歩行者等)も多く混在する複雑な交通環境には適用が困難である。 Conventionally, various preventive safety technologies have been researched and developed in the field of vehicles, and various preventive safety systems such as a front collision damage reduction system and a rear side warning system have been put into practical use. However, all of these conventional systems are intended for detection in only one direction of a vehicle (automobile), have a narrow application range, and are in a complicated traffic environment where many obstacles other than vehicles (bicycles, pedestrians, etc.) are mixed. It is difficult to apply.
様々な交通環境下で、色々な方向からの衝突に対応するためには、対象車両の後部形状を認識するだけではなく、あらゆる方向からの形状を認識することが必要になると考えられる。また、車両も含めた様々な対象物体(障害物)の属性(種別)を認識することは、複雑な交通環境において有用であり、予防安全システムの適応範囲を広げ、効果を向上するのに大きく役立つと考えられるが、容易ではない。 In order to deal with collisions from various directions under various traffic environments, it is considered necessary to recognize not only the rear shape of the target vehicle but also the shapes from all directions. In addition, recognizing the attributes (types) of various target objects (obstacles) including vehicles is useful in complex traffic environments, and can greatly enhance the application range of preventive safety systems and improve the effectiveness. It may be helpful but not easy.
車載レーダの反射のパターンから対象物体を認識する方法として、車載レーダとしてのレーザレーダにより検出されたある時点の反射点群(クラスタ)の検出パターンが、設定したL、I、Oの3種類のパターンのいずれに属するかによって、認識する対象物体を区別して推定し、認識することが提案されている(例えば、非特許文献1参照)。 As a method of recognizing a target object from the reflection pattern of the vehicle-mounted radar, the detection pattern of the reflection point group (cluster) detected at a certain point of time by the laser radar as the vehicle-mounted radar has three types of set L, I, and O. It has been proposed to identify and recognize a target object to be recognized depending on which pattern it belongs to (for example, see Non-Patent Document 1).
しかしながら、前記非特許文献1に記載の認識では、レーザレーダにより検出されたある時点の1フレームのクラスタの検出パターンから対象物体を推定して認識している。しかも、物体のパターン数が少ない(具体的には矩形形状、フェンスや壁、その他の形状の物体の3つそれぞれに対してL、I、Oの1つずつのパターン)。
However, in the recognition described in
これに対して、対象物体は、車載レーダに対して種々の方向(前後方向、横方向等)に移動し、車載レーダに対する向きや姿勢等が時間変化するため、同じ対象物体であっても車載レーダの反射のクラスタの検出パターンは時々刻々変化し、前記非特許文献1に記載の認識では、多種類の対象物体のクラスタの検出パターンを的確に該当する物体のパターンに当てはめて識別することができず、対象物体の種別の認識率(正答率)が極めて低くなる。なお、対象物体の種別を正確に識別できれば、認識した対象物体に応じて警報タイミングを異ならせる等の最適な運転支援が実現する。
On the other hand, the target object moves in various directions (front-rear direction, lateral direction, etc.) with respect to the vehicle-mounted radar, and the direction, orientation, etc. with respect to the vehicle-mounted radar change over time. The detection pattern of the radar reflection cluster changes from time to time, and in the recognition described in Non-Patent
そこで、本出願人は、レーザレーダに代表される車載レーダの反射の検出パターンから対象物体の種別(属性)を推定して対象物体を高い認識率で認識する物体認識装置を既に発明し、出願している(特願2009−215241号)。この既出願においては、自転車や歩行者などでもレーザレーダの反射が得られることから、例えばレーザレーダにより対象物体の種別の推定(属性推定)を行なう際、対象物体の形状が同一物体においても位置や向きにより異なることに着目し、対象物体としての四輪車、二輪車、歩行者等の反射点群(クラスタ)のパターンとして、形状の異なるパターンを複数用意し、パターンマッチングにより、その特徴を抽出してレーザレーダの毎フレームの検出パターンを識別し、パターン認識に用いられる周知のSVM識別器により、各フレームの認識結果(スコア)をパターン別に時系列に累積することで対象物体の種別を推定して認識する。 Therefore, the present applicant has already invented an object recognition apparatus that recognizes a target object with a high recognition rate by estimating the type (attribute) of the target object from a reflection detection pattern of an on-vehicle radar typified by a laser radar. (Japanese Patent Application No. 2009-215241). In this existing application, since the reflection of the laser radar can be obtained even by a bicycle or a pedestrian, for example, when the type of the target object is estimated (attribute estimation) by the laser radar, the position of the target object is also the same object. Paying attention to the difference in direction and orientation, prepare multiple patterns with different shapes as reflection point cloud patterns (clusters) for target vehicles such as four-wheeled vehicles, two-wheeled vehicles, and pedestrians, and extract their features by pattern matching Then, the detection pattern of each frame of the laser radar is identified, and the type of the target object is estimated by accumulating the recognition results (scores) of each frame in time series for each pattern by a known SVM discriminator used for pattern recognition. And recognize.
この場合、時系列の複数フレームの検出パターンを蓄積することで、対象物体の移動の方向や姿勢等の時間変化を吸収し、それらの影響を排除して対象物体の種別を精度よく推定して対象物体を認識できる。 In this case, by accumulating the detection patterns of multiple time-series frames, it absorbs changes in the time and direction of the target object, eliminates those effects, and accurately estimates the type of the target object. The target object can be recognized.
前記既出願に記載の物体認識装置の場合、対象物体の認識精度は向上するが、その種別を推定するために、時系列の複数フレームの検出パターンを分類して蓄積する必要があり、その分、時間がかかり、より迅速に対象物体の種別を推定することが望まれる。また、対象物体の全体の大きさや移動の向きまでは知ることは難しい。 In the case of the object recognition device described in the above-mentioned application, the recognition accuracy of the target object is improved, but in order to estimate the type, it is necessary to classify and accumulate the detection patterns of a plurality of time series frames. Therefore, it is time consuming and it is desired to estimate the type of the target object more quickly. Also, it is difficult to know the overall size of the target object and the direction of movement.
本発明は、車載レーダの反射の検出パターンから迅速に対象物体の種別を推定し、また、障害物の大きさや移動の向きを把握できるようにすることを目的とする。 It is an object of the present invention to quickly estimate the type of a target object from the reflection detection pattern of an on-vehicle radar and to grasp the size of an obstacle and the direction of movement.
上記した目的を達成するために、本発明の物体認識装置は、車載レーダから得られた対象物体の複数の反射点の距離情報を水平面上にプロットして画像を形成し、形成した画像のフレーム毎に前記各反射点を連結して得られる反射点群の検出パターンに基づいて前記対象物体の種別を識別する物体認識装置であって、前記車載レーダに対する前記対象物体の移動により変化する前記検出パターンが前記対象物体の横方向の長さおよび縦方向の長さのいずれであるかを推定する推定手段と、推定した前記横方向の長さおよび前記縦方向の長さの少なくともいずれか一方から前記対象物体の種別を識別する識別手段とを備えたことを特徴としている(請求項1)。 In order to achieve the above object, the object recognition apparatus of the present invention forms an image by plotting distance information of a plurality of reflection points of a target object obtained from an on-vehicle radar on a horizontal plane, and forming a frame of the formed image. An object recognition device for identifying a type of the target object based on a detection pattern of a reflection point group obtained by connecting the reflection points for each of the detection points, wherein the detection changes as the target object moves with respect to the in-vehicle radar An estimation means for estimating whether the pattern is a horizontal length or a vertical length of the target object, and at least one of the estimated horizontal length and vertical length An identification means for identifying the type of the target object is provided (claim 1).
請求項1の発明の場合、交通環境に存在する殆どの物体は矩形であって、その横方向の長さおよび縦方向の長さが、道路運送車両法の定め等に基づき、種別によって異なることに着目し、推定手段により、車載レーダの反射の検出パターンから対象物体の横方向の長さおよび縦方向の長さを推定し、推定した横方向の長さおよび縦方向の長さの少なくともいずれか一方から、識別手段により、その種別を認識できる。
In the case of the invention of
この場合、前記既出願のように時系列の各フレームが特徴抽出した検出パターンを累積して蓄積結果の多数のパターンマッチングを行なう必要がなく、1フレームの検出パターンからでも対象物体の種別を推定でき、迅速に対象物体の種別を推定できる。しかも、対象物体の横方向の長さおよび縦方向の長さを推定できるので、対象物体の全体の大きさや移動の向きを知ることもできる。 In this case, there is no need to accumulate the detection patterns obtained by extracting the features of each time-series frame as in the above-mentioned application and perform many pattern matching of the accumulated results, and the type of the target object is estimated from the detection pattern of one frame. The type of the target object can be estimated quickly. In addition, since the length in the horizontal direction and the length in the vertical direction of the target object can be estimated, the overall size and the direction of movement of the target object can also be known.
つぎに、本発明をより詳細に説明するため、一実施形態について、図1〜図16を参照して詳述する。 Next, in order to describe the present invention in more detail, an embodiment will be described in detail with reference to FIGS.
図1は車両(自車)1が備える本実施形態の物体認識装置の構成を示し、車載レーダとしてのレーザレーダ2は、広範囲の物体を検知できることと、物体の形状が連続的に推定できることが必要であり、例えば下記の表1に示す仕様であり、前部の車両バンパー位置に取り付けられ、レーザの投光高さに応じた水平断面で移動物体の距離データを取得する。すなわち、レーザレーダ2は車両1の前方のほぼ110°の範囲を探査する広角の測距レーダであり、近赤外線を利用すること等により、自転車や歩行者などでの反射も得られるものであり、バンパー位置に取り付けられて車両1の前方を例えば80mS秒間隔のフレーム毎に探査し、前方の他の車両(自動車)、2輪車、歩行者(人)等での反射波を受信して前方の移動するこれらの対象物体の距離データを取得し、この距離データを反射波の受信出力として受信処理部3に出力する。なお、本実施形態においては、対象物体を二輪車、軽自動車、小型車、普通車とする。
FIG. 1 shows a configuration of an object recognition device of this embodiment provided in a vehicle (own vehicle) 1. A
受信処理部3は、前記距離データを受け取ってクラスタリング処理部4に送る。
The
クラスタリング処理部4は、前記受信出力の各反射点の距離データ等に基づき、レーザレーダ2から得られた各反射点の距離情報を水平面上にプロットして反射点の画像を形成する。すなわち、前記対象物体の反射点は離散的であるため、クラスタリング処理部4は、例えば周知のモルフォロジー演算を用いて近傍の各反射点を連結して、近傍の反射点同士をかたまり(反射点群のクラスタ)にまとめ、対象物体でのフレーム毎の各反射点群の検出パターン(クラスタ)を追跡処理部5に出力する。
The
追跡処理部5はフレーム毎の検出パターンを一時記憶し、例えば、新たなフレームの反射が得られる毎に、その反射の各検出パターンと直前のフレームの検出パターンとを比較して同じクラスタのパターンか否かを判断し、例えば、検出パターンにパターン識別のラベルを付す等する。
The
追跡処理部5によりラベルが付される等した毎フレームの各検出パターンの情報は、矩形推定部6に送られる。矩形推定部6は本発明の推定手段を含み、各検出パターンにつき、レーザレーダ2に対する対象物体の移動により変化する検出パターンが対象物体の横方向の長さおよび縦方向の長さのいずれであるかを推定して対象物体の矩形形状を推定する。
Information of each detection pattern of each frame, such as a label attached by the
すなわち、交通環境に存在する殆どの物体(車、自転車、バイク、トラックetc.)は矩形に近い形状をしている。そこで、矩形推定部6は、全ての対象物体は矩形であるという前提をもとに、反射点情報(反射点の各検出パターンの情報)から矩形を推定する。この矩形の推定では、物体の向きも併せて推定する。
That is, most objects (cars, bicycles, motorcycles, trucks, etc.) present in the traffic environment have a shape close to a rectangle. Therefore, the
矩形推定部6の推定結果は本発明の識別手段を形成する物体属性推定部7に送られ、物体属性推定部7は、矩形推定部6の各1フレームの矩形の推定結果に基づき、毎フレームに対象物体の種別を推定し、二輪車、軽自動車、小型車、普通車の類別に投票して種別(属性)を多数決処理で決定する。物体属性推定部7が推定した種別は運転支援部8に送られ、運転支援部8は推定された種別に応じた運転支援を行う。
The estimation result of the
図2は前記矩形推定の概略の処理手順を示し、まず、受信処理部3に1フレームの反射点情報(レーザレーダ)が得られると(ステップS1)、そのフレーム毎(毎時刻)に、クラスタリング処理部4は反射点情報をクラスタリング処理して検出パターンを求める(ステップS2)。追跡処理部5はその検出パターンを追跡し(ステップS3)、矩形推定部6は、追跡処理部5の追跡結果に基づき、前記反射点情報の検出パターンが対象物体の矩形の直行する幅(横方向の長さ)、奥行き(縦方向の長さ(車長))のどちらの軸のパターンに該当するかを特定してその時点の当該矩形の少なくともいずれか一方の軸の端点の位置を検出する(ステップS4)。つぎに、1フレームでの検出した端点の動きベクトルから、前記対象物体の向きを推定するとともに、前記矩形の幅と奥行の長さを推定してその時点の前記矩形の車両サイズを推定し、さらに、推定した車両サイズを、予め記憶した道路運送車両法で定められている各車両の車両サイズをもとに修正して矩形サイズの更新を行なう(ステップS5)。更に、推定された矩形サイズを元に、時系列にクラス(種別)投票を行ない(ステップS6)、投票値によりクラスを決定して対象物体の種別を識別する(ステップS7)。投票を行なうクラスは、本実施形態の場合、二輪車、軽自動車、小型車、普通車以上の四種類である。
FIG. 2 shows an outline processing procedure of the rectangle estimation. First, when one frame of reflection point information (laser radar) is obtained in the reception processing unit 3 (step S1), clustering is performed for each frame (every time). The
上記処理手順を、さらに詳細に説明する。 The above processing procedure will be described in more detail.
<矩形の推定>
「端点検出」
前記の端点の検出においては、まず、幅または奥行きとなる軸の検出を行なう。この軸の検出は、クラスタリングで得られた検出パターン(図3(a)、(b)は車両の場合の検出パターンの一例Dpa、他の例Dpbを示す)の全ての反射点を、クラスタ中心を原点として1度ずつ回転させ、その都度水平方向の濃度投影を行ない、濃度値がピークとなる回転状態から少なくとも矩形のL字の2辺のいずれか1辺となる軸を見つけ、一軸しか見つけられなければ、その軸となす角が直角な方向に前記L字の2辺の残りの1辺となるもう一方の軸を設定する(図4(a)、(b)は検出パターンDpa、Dpbそれぞれの軸の検出例を示し、(a)は水平、垂直の二軸の検出例、(b)は垂直の一軸の検出例)。なお、濃度値が閾値以下の場合は軸はないものとするため、軸の本数は0本、1本または2本となる。
<Rectangle estimation>
"End point detection"
In the detection of the end points, first, the axis that becomes the width or the depth is detected. This axis is detected by using all the reflection points of the detection pattern obtained by clustering (FIGS. 3A and 3B show an example Dpa of the detection pattern in the case of a vehicle and another example Dpb) as the cluster center. Rotate by 1 degree with the origin as the origin, and in each case, perform density projection in the horizontal direction, find the axis that is at least one of the two sides of the rectangular L-shape from the rotation state where the density value peaks, and find only one axis If not, the other axis which is the remaining one of the two sides of the L-shape is set in a direction perpendicular to the angle formed by the axis (FIGS. 4A and 4B show detection patterns Dpa and Dpb). An example of detection of each axis is shown, (a) is a detection example of two horizontal and vertical axes, and (b) is a detection example of one vertical axis). When the density value is less than or equal to the threshold value, there are no axes, and the number of axes is 0, 1 or 2.
端点は、見つけられた軸が二本の場合、軸同士が交差する点と軸の端の点の3点である(図5(a)の各○印が検出パターンDpaの端点)。見つけられた軸が一本の場合、端点は軸の端に存在する反射点の2点であるが、端点が2点のみでは矩形が生成できないため、3点目の端点を仮に生成する。3点目の端点は、一本の軸を90度回転した前記もう一方の軸上のレーザレーダ1から反対側にある反射点とする(図5(b)の各○印が検出パターンDpbの端点であり、そのうち破線上の検出パターンDpbから離れた丸印が3点目の端点である)。
In the case where two axes are found, the end points are three points, that is, a point where the axes intersect each other and a point at the end of the axis (the circles in FIG. 5A are the end points of the detection pattern Dpa). When only one axis is found, the end points are two reflection points existing at the end of the axis, but a rectangle cannot be generated with only two end points, so the third end point is temporarily generated. The third end point is a reflection point on the opposite side from the
「幅、奥行きの決定」
矩形を推定する際には、対象物体の幅と奥行きの情報が必要となるが、端点のみではどちらが幅または奥行きかは不明である。そこで、その対象物体の時系列の例えば2フレームの動きベクトルにより、幅と奥行きの決定を行なう。
"Determination of width and depth"
When estimating a rectangle, information on the width and depth of the target object is required, but it is not clear which is the width or depth only by the end points. Therefore, the width and depth are determined based on, for example, two frames of motion vectors in time series of the target object.
例えば、図6に示すように、丸印の複数の反射点のクラスタの検出パターンDpc、Dpdが検出される場合、その検出パターンDpc、Dpdの矩形の形状は図中の○印を付した数字1、2のいずれの形状にも推定可能であって特定できないが、図7のように、動きベクトルから対象物体が実線矢印の方向に動いていることが分かれば、矩形の向きを特定して形状を推定できる。 For example, as shown in FIG. 6, when detection patterns Dpc and Dpd of a cluster of a plurality of reflection points indicated by circles are detected, the rectangular shapes of the detection patterns Dpc and Dpd are numbers with circles in the figure. 1 and 2 can be estimated and cannot be specified, but if the target object moves in the direction of the solid arrow from the motion vector as shown in FIG. 7, the direction of the rectangle is specified. The shape can be estimated.
矩形の向きが特定されると、幅と奥行きは、車両(二輪車、軽自動車、小型車、普通車)に装着されている車輪の向きから考え、動き方向と直角の軸が幅、動き方向の軸が長さと推定できる。 When the orientation of the rectangle is specified, the width and depth are considered from the direction of the wheel mounted on the vehicle (two-wheeled vehicle, light vehicle, small vehicle, ordinary vehicle), the axis perpendicular to the movement direction is the width, the axis of the movement direction Can be estimated as a length.
ところで、対象物体の動き方向はクラスタの中心や重心の移動から推定することも考えられるが、その場合は、ノイズによる影響やクラスタの大きさが時刻毎に変化すること等から、安定した動き方向が観測できず、検出が不安定になる。 By the way, the movement direction of the target object may be estimated from the movement of the center or center of gravity of the cluster. In this case, however, the stable movement direction is due to the influence of noise and the size of the cluster changing with time. Cannot be observed, and detection becomes unstable.
そこで、本実施形態では、安定して検出できる情報として、レーザレーダ2で軽自動車、小型車、普通車(四輪車)や二輪車を観測した場合に矩形のいずれかの角が必ず観測されることに着目し、対象物体の角の移動量を動きベクトルとする。物体の角は、二軸の場合は軸の交点とし、一軸の場合は軸上の自車1に近い点とする。
Therefore, in the present embodiment, as information that can be stably detected, when a light vehicle, a small vehicle, a normal vehicle (four-wheeled vehicle), or a two-wheeled vehicle is observed with the
このようにして動きベクトルを求めると、動きベクトルと矩形の軸が垂直または並行に近いかを見て対象物体の矩形のパターンを分類するため、時系列の複数フレーム(例えば2フレーム)の検出パターンの矩形について角の動きベクトルと二軸の角度を比較する。 When the motion vector is obtained in this way, a rectangular pattern of the target object is classified by looking at whether the motion vector and the axis of the rectangle are close to vertical or parallel. Compare the angular motion vector and the biaxial angle for the rectangle.
図8(a)、(b)はそれぞれ時系列の2フレームの検出パターン(パターンDpe、DpfとパターンDpg、Dph)の矩形の移動と実線矢印の動きベクトルを示し、Δt時刻の検出パターンDpe、Dpgの矩形の角を点P、軸上にある端点を点A、B、(Δt+N)時刻の検出パターンDpf、Dphの角をP´とすると、幅、奥行きの角度との関係は、自車1と対象物体との位置関係によって大きく図8(a)、(b)の2パターンA、Bに分類できる。 FIGS. 8 (a) and 8 (b) show the movement of the rectangle and the motion vector of the solid arrow in the two time-series detection patterns (patterns Dpe, Dpf and Dpg, Dph), respectively, and the detection pattern Dpe at time Δt, If the rectangular corner of Dpg is point P, the end points on the axis are points A and B, and the detection pattern Dpf of (Δt + N) time, and the corner of Dph is P ′, the relationship between the width and depth angles is 1 can be roughly classified into two patterns A and B shown in FIGS. 8A and 8B.
パターンAは対象物体の車両の前方の角が見えている場合であり、パターンBは対象物体の車両後方の角が見えている場合である。それぞれの場合において、∠APP´と∠BPP´を比較する。パターンAの場合は、∠APP´<∠BPP´であれば、APが奥行き、BPが幅となる。パターンBの場合は、|180−∠APP’|<∠BPAであれば、軸APが奥行き、軸BPが幅である。パターンAかパターンBかの判断は、∠APB+∠BPAが90度以下の場合はパターンA、90度以上の場合はパターンBとする。このようにして、検出パターンの矩形の幅の長さ、奥行きの長さを、その移動方向を判別して検出する。 The pattern A is a case where the front corner of the target object is visible, and the pattern B is a case where the rear corner of the target object is visible. In each case, ∠APP ′ and ∠BPP ′ are compared. In the case of the pattern A, if ∠APP ′ <∠BPP ′, AP is the depth and BP is the width. In the case of the pattern B, if | 180−∠APP ′ | <∠BPA, the axis AP is the depth and the axis BP is the width. Whether pattern A or pattern B is determined is pattern A when ∠APB + ∠BPA is 90 ° or less, and pattern B when ∠APB + ∠BPA is 90 ° or more. In this manner, the width of the rectangle of the detection pattern and the length of the depth are detected by determining the moving direction.
「車両構造パターンによるサイズ推定」
つぎに、各フレームの矩形の幅と奥行きの長さは、オクルージョンの問題などもあり、必ずしも対象物体の本来の幅、奥行きの長さには一致しないため、各フレームの矩形の幅と奥行きから、対象物体のサイズ推定を行なう。
"Size estimation by vehicle structure pattern"
Next, the rectangle width and depth length of each frame has occlusion problems and does not necessarily match the original width and depth length of the target object. The size of the target object is estimated.
対象物体である二輪車、軽自動車、小型車、普通車の車両サイズは、つぎの表2に示すように道路運送車両法により定められている。 As shown in Table 2 below, vehicle sizes of target objects such as motorcycles, light cars, small cars, and ordinary cars are determined by the Road Transport Vehicle Law.
そのため、矩形が二輪車、軽自動車、小型車、普通車のどの規定サイズに当てはまるかで、矩形の幅、奥行きの長さ(サイズ)を更新する。すなわち、幅、奥行きの少なくともいずれか一方が表2の各車両の条件を超えれば、幅、奥行きを同表のその上位の車両(類別)のサイズに更新する。この更新は、端点の位置を推定された車両サイズに合わせて変更して行う。 For this reason, the width and depth length (size) of the rectangle are updated depending on whether the rectangle corresponds to a specified size of a motorcycle, a light vehicle, a small vehicle, or a normal vehicle. That is, if at least one of the width and depth exceeds the condition of each vehicle in Table 2, the width and depth are updated to the size of the upper vehicle (classification) in the table. This update is performed by changing the position of the end point according to the estimated vehicle size.
このようにして推定した対象車両の推定結果を物体属性推定部7に送り、対象物体を二輪車、軽自動車、小型車、普通車のいずれかの属性に分類する。
The estimation result of the target vehicle thus estimated is sent to the object
図9は観測された矩形の幅と奥行きのサイズから、車両サイズを推定した結果を示す。同図(a)は自車1の前を検出対象の他車両が右から左に通過していく際の各フレーム時点の反射点の検出パターンを示し、同図(b)はフレーム毎に観測した端点を示し、同図(c)はオクルージョンなどを考慮せずに観測された各フレームの端点を結んで形成した矩形を示し、同図(d)は道路運送車両法により定められている車両サイズを考慮してサイズを更新し、更新後の各1フレームの矩形からの対象物体の属性のクラス分類の結果を示す。図9(a)〜(d)の1〜8の数字は時系列のフレーム番号を示し、図9(d)のTは二輪車、Lは軽自動車、Cは小型車の類別結果を示す。なお、図9(d)には示していないが普通車の類別結果はOとする。また、図9(a)〜(d)のmは自車1の位置を示す。
FIG. 9 shows the result of estimating the vehicle size from the observed width and depth of the rectangle. (A) in the figure shows a detection pattern of reflection points at the time of each frame when another vehicle to be detected passes from right to left in front of the
矩形推定部6の各1フレームの検出パターンからも対象物体の属性を認識できるが、認識精度を高めるためには、対象物体の移動にしたがって検出パターンが変化し、後述するように矩形の幅、奥行きのサイズが変化することから、矩形推定部6の推定結果を物体属性推定部7に送って二輪車、軽自動車、小型車、普通車の類別に投票し、時系列の複数フレームの類別の多数決処理で対象物体の種別を決定する。
Although the attribute of the target object can be recognized from the detection pattern of each frame of the
「投票による車両種別決定」
上記したように矩形のサイズは対象物の移動に伴って時々刻々変化するため、各1フレームの推定された矩形から推定される対象物の車両サイズも時々刻々に変化する。そこで、物体属性推定部7は、一定期間の各1フレームの矩形それぞれから推定された車両の類別結果(種別)に基づき、矩形推定部6の推定結果を二輪車、軽自動車、小型車、普通車の類別に投票し、投票結果の最も多数の車両に種別を決定する。
"Vehicle type determination by voting"
As described above, since the size of the rectangle changes from time to time as the object moves, the vehicle size of the object estimated from the estimated rectangle of each frame also changes from time to time. Therefore, the object
図10は図9(d)のような各1フレームの種別を複数フレームについて投票した結果を示し、このようにすれば、1フレーム目では二輪車に分類されているが、徐々に軽自動車または小型車に分類されるようになり、7、8フレーム目では小型車の分類に保持されることが分かる。すなわち、投票により、二輪車の誤認識は低減し、軽自動車あるいは小型車の認識が増え、後半からは小型車に認識され続けて認識精度が向上する。 FIG. 10 shows the result of voting for each frame type for a plurality of frames as shown in FIG. 9 (d). In this way, the first frame is classified as a two-wheeled vehicle. It can be seen that in the seventh and eighth frames, the small car classification is maintained. That is, voting reduces the misrecognition of motorcycles, increases the recognition of mini cars or small cars, and continues to be recognized by small cars from the second half, improving the recognition accuracy.
そして、物体属性推定部7が各時点に投票結果によって推定した車種(属性)が運転支援部8に送られ、運転支援部8は推定された車種に応じて警報タイミングをずらす等して最適な運転支援を行う。この場合、対象物体の車種の推定精度が向上するので、運転支援精度が向上する。
Then, the vehicle type (attribute) estimated by the object
<実験例>
実験では、(1)矩形のサイズが正しく推定できていること、(2)物体の向きが正しく推定できていることを確認するため、対象物体の四輪車(小型車)、二輪車(自転車)が自車1の前を8の字に走行した場合及び、交差点で止まっている自車1の前を種々の車両が走行する場合に、車種を推定した。
<Experimental example>
In the experiment, in order to confirm that (1) the size of the rectangle was correctly estimated and (2) the direction of the object was correctly estimated, the target object was a four-wheeled vehicle (small car) or two-wheeled vehicle (bicycle). The vehicle type was estimated when traveling in front of the
図11(a)、(b)は対象物体TGの四輪車(小型車)の正面図、側面図であり、同図(c)は対象物体TGの四輪車(小型車)が自車1の前を8の字に走行した場合にその反射点が捉えた矩形の形状の10フレームの観測例を示す。図12(a)、(b)は対象物体TGの二輪車(自転車)の正面図、側面図であり、同図(c)は対象物体TGの二輪車(自転車)が自車1の前を8の字に走行した場合にその反射点が捉えた矩形の形状の10フレームの観測例を示す。図13(a)は右折するために交差点で止まっている自車1の前を○印を付した数字1〜3の対象物体TGの各車両が走行するシーンを示し、実線の矢印線は各車両の走行方向を示し、破線の矢印線は止まっている自車mの右折方向を示す。同図(b)はその場合の各車両の観測例を示す。なお、歩行者については、軸が検出されないため、四輪車、二輪車以外の物体は歩行者と認識した。
FIGS. 11A and 11B are a front view and a side view of a four-wheeled vehicle (small vehicle) of the target object TG, and FIG. 11C shows a four-wheeled vehicle (small vehicle) of the target object TG of the
(実験結果)
図11、図12の観測について、時系列のフレーム数を420フレームとして、1フレーム毎に矩形サイズから種別を推定し、また、数フレームの投票結果の矩形サイズから種別を推定し、さらに、それらの正答率および向きの正答率も確認したところ以下の結果が得られた。
(Experimental result)
11 and 12, assuming that the number of time-series frames is 420 frames, the type is estimated from the rectangular size for each frame, the type is estimated from the rectangular size of the voting results of several frames, and further, When the correct answer rate and the correct answer rate of the direction were confirmed, the following results were obtained.
図14(a)は対象物体TGである四輪車(小型車)の図11の観測に基づく1フレーム毎の矩形サイズからの種別の推定結果を示し、図14(b)は対象物体TGである四輪車(小型車)の図12の観測に基づく投票結果からの種別の推定結果を示す。また、つぎの表3の(a)、(b)はそれらの種別の正答率、向きの正答率を示す。なお、図14(a)、(b)の矢印線は対象物体TGの走行方向を示す。 FIG. 14A shows the estimation result of the type from the rectangular size for each frame based on the observation of FIG. 11 of the four-wheeled vehicle (small car) that is the target object TG, and FIG. 14B is the target object TG. The estimation result of the classification from the voting result based on the observation of FIG. 12 of the four-wheeled vehicle (small vehicle) is shown. Moreover, (a) and (b) of the following Table 3 show the correct answer rate of those types and the correct answer rate of direction. Note that the arrow lines in FIGS. 14A and 14B indicate the traveling direction of the target object TG.
図13の対象物体TGは小型車(C)であるのに対して、図14(a)では軽自動車(L)となっているフレームがあり、クラス正解率は76%であった。図14(b)では全てのフレームにおいて小型車(C)と正しく識別された。また、向きについては2フレームで誤推定があった。 The target object TG in FIG. 13 is a small car (C), whereas in FIG. 14 (a), there is a frame that is a light car (L), and the class accuracy rate was 76%. In FIG. 14B, all the frames were correctly identified as the small car (C). In addition, the direction was erroneously estimated in two frames.
図15は対象物体TGの二輪車(自転車(T))の図12の観測に基づく投票結果からの種別の推定結果を示す。また、つぎの表4の(a)、(b)は1フレームの推定結果、投票結果からの推定結果、種別の正答率、向きの正答率を示す。なお、図15の矢印線は対象物体TGの走行方向を示す。 FIG. 15 shows the type estimation result from the voting result based on the observation of the motorcycle (bicycle (T)) of the target object TG in FIG. Further, (a) and (b) of Table 4 below show the estimation result of one frame, the estimation result from the voting result, the correct answer rate of the type, and the correct answer rate of the direction. In addition, the arrow line of FIG. 15 shows the traveling direction of the target object TG.
図15の自転車(T)については、投票による識別率は98%であり、間違えたシーンは投票値が得られるまでの4フレームのみであった。 For the bicycle (T) in FIG. 15, the recognition rate by voting was 98%, and the wrong scene was only 4 frames until the voting value was obtained.
図16は図13(a)の交差点で右折するために止まっている自車1の前を種々の車両が走行するシーンでの170フレームの投票結果を示し、同図において、横軸はフレーム、縦軸は分類種別(種別クラス)を示す。○印のついた数字1〜3は図13(b)の○印のついた数字1の小型車、数字2の普通車、数字3の普通車を示し、それらの間で、投票値が次第に正解に近づくことが判明した。また、全ての車両の向きは正しく検出できた。正答率は83%、正答に到る平均フレーム時間は、つぎの表5に示すように16.4フレームであった。
FIG. 16 shows 170-frame voting results in a scene in which various vehicles travel in front of the
以上説明したように、本実施形態の場合、矩形推定部6、物体属性推定部7を備えたことにより、レーザレーダ2のみを用いて対象物体の種類(属性)を推定することができ、具体的には、交通環境に存在する殆どの物体は矩形であるという仮定をもとに、予め記憶した道路運送車両法で定められている車両の規定サイズを参照して検出パターンの矩形の大きさを推定し、時系列での種別(クラス)の投票によって、二輪車、軽自動車、小型車、普通車の種別を精度よく推定でき、また、対象物体の向きについてもほぼ正しく推定することができる。
As described above, in the case of the present embodiment, since the
そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行なうことが可能であり、例えば、車載レーダは,レーザレーダ2に限るものではなく、ミリ波レーダ、超音波レーダ等であってもよい。また、車載レーダの探査範囲はどのようであってもよく、車載レーダは、車両1の後方や左右側を探査するものであってもよく、車両1の全周を探査するものであってもよい。
The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. It is not limited, and may be a millimeter wave radar, an ultrasonic radar, or the like. Further, the search range of the on-vehicle radar may be any, and the on-vehicle radar may search for the rear and left and right sides of the
つぎに、矩形推定部6、物体属性推定部7、運転支援部8の構成や処理手順等が前記実施形態と異なっていてもよいのも勿論であり、物体属性推定部7において、投票総フレーム数等は実験等に基づいて適当数に設定すればよい。また、対象物体には歩行者を含めてもよく、その種別の種類や数は前記実施形態のものに限るものではない。さらに、簡単には、各1フレームの検出パターンについて、対象物体の横方向の長さおよび縦方向の長さのいずれであるかを推定し、その長さから、あるいはその長さに該当する道路運送車両法の表1の長さから、該当する種別の横方向の長さ(幅)および縦方向の長さ(奥行き)を決定して種別を行なってもよい。
Next, it goes without saying that the configurations and processing procedures of the
そして、本発明は、車載レーダを用いた種々の車両の物体認識装置に適用することができる。 The present invention can be applied to various vehicle object recognition apparatuses using on-vehicle radars.
1 車両(自車)
2 レーザレーダ
6 矩形推定部
7 物体属性推定部
1 Vehicle (own vehicle)
2
Claims (1)
前記車載レーダに対する前記対象物体の移動により変化する前記検出パターンが前記対象物体の横方向の長さおよび縦方向の長さのいずれであるかを推定する推定手段と、
推定した前記横方向の長さおよび前記縦方向の長さの少なくともいずれか一方から前記対象物体の種別を識別する識別手段とを備えたことを特徴とする物体認識装置。 The distance information of the plurality of reflection points of the target object obtained from the on- vehicle radar is plotted on a horizontal plane to form an image, and the reflection point group obtained by connecting the reflection points for each frame of the formed image is detected. An object recognition device for identifying a type of the target object based on a pattern,
Estimating means for estimating whether the detection pattern that changes due to the movement of the target object with respect to the on-vehicle radar is a horizontal length or a vertical length of the target object;
An object recognition apparatus comprising: an identification unit that identifies a type of the target object from at least one of the estimated length in the horizontal direction and the length in the vertical direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010193659A JP5583523B2 (en) | 2010-08-31 | 2010-08-31 | Object recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010193659A JP5583523B2 (en) | 2010-08-31 | 2010-08-31 | Object recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012052838A JP2012052838A (en) | 2012-03-15 |
JP5583523B2 true JP5583523B2 (en) | 2014-09-03 |
Family
ID=45906332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010193659A Expired - Fee Related JP5583523B2 (en) | 2010-08-31 | 2010-08-31 | Object recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5583523B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2518099C1 (en) * | 2012-10-22 | 2014-06-10 | Виктор Леонидович Семенов | Method of measuring length of moving object and device for realising said method |
JP6291781B2 (en) * | 2013-10-17 | 2018-03-14 | 株式会社デンソー | Perimeter monitoring device and perimeter monitoring system |
JP6342169B2 (en) * | 2014-01-29 | 2018-06-13 | セコム株式会社 | Object detection sensor and program |
JP6345558B2 (en) * | 2014-09-24 | 2018-06-20 | 株式会社クボタ | Autonomous vehicle |
TWI710798B (en) | 2016-01-29 | 2020-11-21 | 學校法人明治大學 | Laser scanning system atteched on moving object, laser scanning method for laser scanner atteched on moving object, and laser scanning program |
JP6561869B2 (en) * | 2016-02-16 | 2019-08-21 | トヨタ自動車株式会社 | Vehicle shape estimation device |
KR101890482B1 (en) | 2016-11-07 | 2018-09-28 | 숭실대학교산학협력단 | Appartus for distinction of stop and movement using radar spectrum and method thereof |
JP6983915B2 (en) * | 2017-06-12 | 2021-12-17 | コンチネンタル オートモーティブ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Rear pre-crash safety system |
JP6911788B2 (en) * | 2018-02-13 | 2021-07-28 | 株式会社デンソーウェーブ | Vehicle recognition device, vehicle recognition system, vehicle recognition program |
JP7295648B2 (en) * | 2019-02-05 | 2023-06-21 | 古河電気工業株式会社 | RADAR DEVICE AND RADAR SYSTEM CONTROL METHOD |
CN111427032B (en) * | 2020-04-24 | 2022-02-01 | 森思泰克河北科技有限公司 | Room wall contour recognition method based on millimeter wave radar and terminal equipment |
CN114913469B (en) * | 2022-07-11 | 2022-11-22 | 浙江大华技术股份有限公司 | Method for establishing vehicle length estimation model, terminal equipment and storage medium |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002107453A (en) * | 2000-09-28 | 2002-04-10 | Tokyu Car Corp | Beam sweeping radar device, moving body, object detecting device in fixed measuring area and contour measuring device |
JP3952874B2 (en) * | 2002-06-19 | 2007-08-01 | 日産自動車株式会社 | Front object recognition device |
JP2007187618A (en) * | 2006-01-16 | 2007-07-26 | Omron Corp | Object identifying device |
JP5499424B2 (en) * | 2007-04-16 | 2014-05-21 | トヨタ自動車株式会社 | Object detection device |
JP5700940B2 (en) * | 2010-03-16 | 2015-04-15 | ダイハツ工業株式会社 | Object recognition device |
-
2010
- 2010-08-31 JP JP2010193659A patent/JP5583523B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012052838A (en) | 2012-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5583523B2 (en) | Object recognition device | |
JP5700940B2 (en) | Object recognition device | |
Ziebinski et al. | Review of advanced driver assistance systems (ADAS) | |
US11538254B2 (en) | Safety system for a vehicle to detect and warn of a potential collision | |
US9180814B2 (en) | Vehicle rear left and right side warning apparatus, vehicle rear left and right side warning method, and three-dimensional object detecting device | |
JP2011186584A (en) | Object recognition apparatus | |
JP5938569B2 (en) | Advanced driver support system considering azimuth information and operation method thereof | |
CN113998034A (en) | Rider assistance system and method | |
Park et al. | Robust range estimation with a monocular camera for vision-based forward collision warning system | |
JP2011065400A (en) | Object recognition apparatus | |
EP3594853A2 (en) | Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device | |
Ra et al. | Part-based vehicle detection in side-rectilinear images for blind-spot detection | |
JP2008276689A (en) | Obstacle-recognition device for vehicle | |
JP2012089114A (en) | Obstacle recognition device | |
JP2008009843A (en) | Obstacle discrimination device | |
JP2012173230A (en) | Body recognizing device | |
Tanaka et al. | Vehicle detection based on perspective transformation using rear-view camera | |
Fuerstenberg et al. | Pedestrian detection and classification by laserscanners | |
JP2006140636A (en) | Obstacle detecting device and method | |
Jyothi et al. | Driver assistance for safe navigation under unstructured traffic environment | |
Tsuchiya et al. | Real-time vehicle detection using a single rear camera for a blind spot warning system | |
JP2006047033A (en) | Object recognition method and device | |
Inoue et al. | Following vehicle detection using multiple cameras | |
Rammohan et al. | Automotive Collision Avoidance System: A Review | |
WO2023139978A1 (en) | Vehicle-mounted camera device, vehicle-mounted camera system, and image storage method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140415 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140610 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140715 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140716 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5583523 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |