JP5583523B2 - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP5583523B2
JP5583523B2 JP2010193659A JP2010193659A JP5583523B2 JP 5583523 B2 JP5583523 B2 JP 5583523B2 JP 2010193659 A JP2010193659 A JP 2010193659A JP 2010193659 A JP2010193659 A JP 2010193659A JP 5583523 B2 JP5583523 B2 JP 5583523B2
Authority
JP
Japan
Prior art keywords
vehicle
target object
estimated
type
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010193659A
Other languages
Japanese (ja)
Other versions
JP2012052838A (en
Inventor
華子 山代
憲一 山田
敏夫 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2010193659A priority Critical patent/JP5583523B2/en
Publication of JP2012052838A publication Critical patent/JP2012052838A/en
Application granted granted Critical
Publication of JP5583523B2 publication Critical patent/JP5583523B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、車載レーダの反射の検出パターンから対象物体の車両等の種別を認識する物体認識装置に関する。   The present invention relates to an object recognition apparatus that recognizes the type of a target object such as a vehicle from a reflection detection pattern of an in-vehicle radar.

従来、車両の分野においては、様々な予防安全技術の研究開発が行われており、前方衝突被害軽減システムや後側方警報システムなどの種々の予防安全システムが実用化されている。しかしながら、これらの従来システムはいずれも車両(自動車)の一方向のみの検出を対象とし、適用範囲が狭く、車両以外の障害物(自転車、歩行者等)も多く混在する複雑な交通環境には適用が困難である。   Conventionally, various preventive safety technologies have been researched and developed in the field of vehicles, and various preventive safety systems such as a front collision damage reduction system and a rear side warning system have been put into practical use. However, all of these conventional systems are intended for detection in only one direction of a vehicle (automobile), have a narrow application range, and are in a complicated traffic environment where many obstacles other than vehicles (bicycles, pedestrians, etc.) are mixed. It is difficult to apply.

様々な交通環境下で、色々な方向からの衝突に対応するためには、対象車両の後部形状を認識するだけではなく、あらゆる方向からの形状を認識することが必要になると考えられる。また、車両も含めた様々な対象物体(障害物)の属性(種別)を認識することは、複雑な交通環境において有用であり、予防安全システムの適応範囲を広げ、効果を向上するのに大きく役立つと考えられるが、容易ではない。   In order to deal with collisions from various directions under various traffic environments, it is considered necessary to recognize not only the rear shape of the target vehicle but also the shapes from all directions. In addition, recognizing the attributes (types) of various target objects (obstacles) including vehicles is useful in complex traffic environments, and can greatly enhance the application range of preventive safety systems and improve the effectiveness. It may be helpful but not easy.

車載レーダの反射のパターンから対象物体を認識する方法として、車載レーダとしてのレーザレーダにより検出されたある時点の反射点群(クラスタ)の検出パターンが、設定したL、I、Oの3種類のパターンのいずれに属するかによって、認識する対象物体を区別して推定し、認識することが提案されている(例えば、非特許文献1参照)。   As a method of recognizing a target object from the reflection pattern of the vehicle-mounted radar, the detection pattern of the reflection point group (cluster) detected at a certain point of time by the laser radar as the vehicle-mounted radar has three types of set L, I, and O. It has been proposed to identify and recognize a target object to be recognized depending on which pattern it belongs to (for example, see Non-Patent Document 1).

しかしながら、前記非特許文献1に記載の認識では、レーザレーダにより検出されたある時点の1フレームのクラスタの検出パターンから対象物体を推定して認識している。しかも、物体のパターン数が少ない(具体的には矩形形状、フェンスや壁、その他の形状の物体の3つそれぞれに対してL、I、Oの1つずつのパターン)。   However, in the recognition described in Non-Patent Document 1, the target object is estimated and recognized from the detection pattern of the cluster of one frame detected at a certain time point by the laser radar. Moreover, the number of object patterns is small (specifically, one pattern of L, I, and O for each of three objects of rectangular shape, fence, wall, and other shapes).

これに対して、対象物体は、車載レーダに対して種々の方向(前後方向、横方向等)に移動し、車載レーダに対する向きや姿勢等が時間変化するため、同じ対象物体であっても車載レーダの反射のクラスタの検出パターンは時々刻々変化し、前記非特許文献1に記載の認識では、多種類の対象物体のクラスタの検出パターンを的確に該当する物体のパターンに当てはめて識別することができず、対象物体の種別の認識率(正答率)が極めて低くなる。なお、対象物体の種別を正確に識別できれば、認識した対象物体に応じて警報タイミングを異ならせる等の最適な運転支援が実現する。   On the other hand, the target object moves in various directions (front-rear direction, lateral direction, etc.) with respect to the vehicle-mounted radar, and the direction, orientation, etc. with respect to the vehicle-mounted radar change over time. The detection pattern of the radar reflection cluster changes from time to time, and in the recognition described in Non-Patent Document 1, it is possible to accurately identify and apply the detection patterns of the clusters of various types of target objects to the corresponding object patterns. The recognition rate (correct answer rate) of the target object type is extremely low. If the type of the target object can be accurately identified, optimal driving support such as changing the alarm timing according to the recognized target object is realized.

そこで、本出願人は、レーザレーダに代表される車載レーダの反射の検出パターンから対象物体の種別(属性)を推定して対象物体を高い認識率で認識する物体認識装置を既に発明し、出願している(特願2009−215241号)。この既出願においては、自転車や歩行者などでもレーザレーダの反射が得られることから、例えばレーザレーダにより対象物体の種別の推定(属性推定)を行なう際、対象物体の形状が同一物体においても位置や向きにより異なることに着目し、対象物体としての四輪車、二輪車、歩行者等の反射点群(クラスタ)のパターンとして、形状の異なるパターンを複数用意し、パターンマッチングにより、その特徴を抽出してレーザレーダの毎フレームの検出パターンを識別し、パターン認識に用いられる周知のSVM識別器により、各フレームの認識結果(スコア)をパターン別に時系列に累積することで対象物体の種別を推定して認識する。   Therefore, the present applicant has already invented an object recognition apparatus that recognizes a target object with a high recognition rate by estimating the type (attribute) of the target object from a reflection detection pattern of an on-vehicle radar typified by a laser radar. (Japanese Patent Application No. 2009-215241). In this existing application, since the reflection of the laser radar can be obtained even by a bicycle or a pedestrian, for example, when the type of the target object is estimated (attribute estimation) by the laser radar, the position of the target object is also the same object. Paying attention to the difference in direction and orientation, prepare multiple patterns with different shapes as reflection point cloud patterns (clusters) for target vehicles such as four-wheeled vehicles, two-wheeled vehicles, and pedestrians, and extract their features by pattern matching Then, the detection pattern of each frame of the laser radar is identified, and the type of the target object is estimated by accumulating the recognition results (scores) of each frame in time series for each pattern by a known SVM discriminator used for pattern recognition. And recognize.

この場合、時系列の複数フレームの検出パターンを蓄積することで、対象物体の移動の方向や姿勢等の時間変化を吸収し、それらの影響を排除して対象物体の種別を精度よく推定して対象物体を認識できる。   In this case, by accumulating the detection patterns of multiple time-series frames, it absorbs changes in the time and direction of the target object, eliminates those effects, and accurately estimates the type of the target object. The target object can be recognized.

ステファン ウェンダー(Stefan Wender)、他3名、「クラシフィケーション オブ レーザースキャナー メジャーメンツ アット インターセクション シナリオズ ウイズ オートマティク パラメータ オプティマイゼーション(Classification of Laserscanner Measurements at Intersection Scenarios with Automatic Parameter Optimization)」、Intelligent Vehicles Symposium,2005.Proceedings.IEEE、IEEE、2005年6月、p.94−99Stephan Wender, 3 others, “Classification of Laserscanner Measurement at Interstitial Measurement at Interstitial Measurement in Interstitial Stimulation Measurement.” 2005. Proceedings. IEEE, IEEE, June 2005, p. 94-99

前記既出願に記載の物体認識装置の場合、対象物体の認識精度は向上するが、その種別を推定するために、時系列の複数フレームの検出パターンを分類して蓄積する必要があり、その分、時間がかかり、より迅速に対象物体の種別を推定することが望まれる。また、対象物体の全体の大きさや移動の向きまでは知ることは難しい。   In the case of the object recognition device described in the above-mentioned application, the recognition accuracy of the target object is improved, but in order to estimate the type, it is necessary to classify and accumulate the detection patterns of a plurality of time series frames. Therefore, it is time consuming and it is desired to estimate the type of the target object more quickly. Also, it is difficult to know the overall size of the target object and the direction of movement.

本発明は、車載レーダの反射の検出パターンから迅速に対象物体の種別を推定し、また、障害物の大きさや移動の向きを把握できるようにすることを目的とする。   It is an object of the present invention to quickly estimate the type of a target object from the reflection detection pattern of an on-vehicle radar and to grasp the size of an obstacle and the direction of movement.

上記した目的を達成するために、本発明の物体認識装置は、車載レーダから得られた対象物体の複数の反射点の距離情報を水平面上にプロットして画像を形成し、形成した画像のフレーム毎に前記各反射点を連結して得られる反射点群の検出パターンに基づいて前記対象物体の種別を識別する物体認識装置であって、前記車載レーダに対する前記対象物体の移動により変化する前記検出パターンが前記対象物体の横方向の長さおよび縦方向の長さのいずれであるかを推定する推定手段と、推定した前記横方向の長さおよび前記縦方向の長さの少なくともいずれか一方から前記対象物体の種別を識別する識別手段とを備えたことを特徴としている(請求項1)。 In order to achieve the above object, the object recognition apparatus of the present invention forms an image by plotting distance information of a plurality of reflection points of a target object obtained from an on-vehicle radar on a horizontal plane, and forming a frame of the formed image. An object recognition device for identifying a type of the target object based on a detection pattern of a reflection point group obtained by connecting the reflection points for each of the detection points, wherein the detection changes as the target object moves with respect to the in-vehicle radar An estimation means for estimating whether the pattern is a horizontal length or a vertical length of the target object, and at least one of the estimated horizontal length and vertical length An identification means for identifying the type of the target object is provided (claim 1).

請求項1の発明の場合、交通環境に存在する殆どの物体は矩形であって、その横方向の長さおよび縦方向の長さが、道路運送車両法の定め等に基づき、種別によって異なることに着目し、推定手段により、車載レーダの反射の検出パターンから対象物体の横方向の長さおよび縦方向の長さを推定し、推定した横方向の長さおよび縦方向の長さの少なくともいずれか一方から、識別手段により、その種別を認識できる。   In the case of the invention of claim 1, most objects present in the traffic environment are rectangular, and the length in the horizontal direction and the length in the vertical direction differ depending on the type based on the provisions of the Road Transport Vehicle Law. The estimation means estimates the horizontal length and the vertical length of the target object from the reflection detection pattern of the on-vehicle radar, and at least one of the estimated horizontal length and vertical length is estimated. On the other hand, the type can be recognized by the identification means.

この場合、前記既出願のように時系列の各フレームが特徴抽出した検出パターンを累積して蓄積結果の多数のパターンマッチングを行なう必要がなく、1フレームの検出パターンからでも対象物体の種別を推定でき、迅速に対象物体の種別を推定できる。しかも、対象物体の横方向の長さおよび縦方向の長さを推定できるので、対象物体の全体の大きさや移動の向きを知ることもできる。   In this case, there is no need to accumulate the detection patterns obtained by extracting the features of each time-series frame as in the above-mentioned application and perform many pattern matching of the accumulated results, and the type of the target object is estimated from the detection pattern of one frame. The type of the target object can be estimated quickly. In addition, since the length in the horizontal direction and the length in the vertical direction of the target object can be estimated, the overall size and the direction of movement of the target object can also be known.

本発明の一実施形態のブロック図である。It is a block diagram of one embodiment of the present invention. 図1の車両のクラスの説明図である。It is explanatory drawing of the class of the vehicle of FIG. (a)、(b)は図1の検出パターン例の説明図である。(A), (b) is explanatory drawing of the example of a detection pattern of FIG. (a)、(b)は図3(a)、(b)の検出パターンの軸の説明図である。(A), (b) is explanatory drawing of the axis | shaft of the detection pattern of Fig.3 (a), (b). (a)、(b)は図3(a)、(b)の検出パターンの端点の説明図である。(A), (b) is explanatory drawing of the end point of the detection pattern of Fig.3 (a), (b). 矩形の形状の説明図である。It is explanatory drawing of a rectangular shape. 図6の矩形の形状の動きベクトルの説明図である。It is explanatory drawing of the motion vector of the rectangular shape of FIG. (a)、(b)は矩形の形状の分類の説明図である。(A), (b) is explanatory drawing of the classification | category of a rectangular shape. (a)〜(d)は時系列の各1フレームの検出パターンから矩形を形成する処理の説明図である。(A)-(d) is explanatory drawing of the process which forms a rectangle from the detection pattern of each one frame of a time series. 数フレームの矩形の投票結果の説明図である。It is explanatory drawing of the vote result of the rectangle of several frames. (a)〜(c)は車両の実験例の説明図である。(A)-(c) is explanatory drawing of the experimental example of a vehicle. (a)〜(c)は自転車の実験例の説明図である。(A)-(c) is explanatory drawing of the experimental example of a bicycle. (a)、(b)は交差点での実験例の説明図である。(A), (b) is explanatory drawing of the experiment example in an intersection. (a)、(b)は車両の実験例の各1フレームの認識結果、数フレームの投票結果の説明図である。(A), (b) is explanatory drawing of the recognition result of each 1 frame of the experimental example of a vehicle, and the voting result of several frames. 自転車の実験例の投票結果の説明図である。It is explanatory drawing of the vote result of the experimental example of a bicycle. 交差点での実験例の投票結果の説明図である。It is explanatory drawing of the vote result of the experiment example in an intersection.

つぎに、本発明をより詳細に説明するため、一実施形態について、図1〜図16を参照して詳述する。   Next, in order to describe the present invention in more detail, an embodiment will be described in detail with reference to FIGS.

図1は車両(自車)1が備える本実施形態の物体認識装置の構成を示し、車載レーダとしてのレーザレーダ2は、広範囲の物体を検知できることと、物体の形状が連続的に推定できることが必要であり、例えば下記の表1に示す仕様であり、前部の車両バンパー位置に取り付けられ、レーザの投光高さに応じた水平断面で移動物体の距離データを取得する。すなわち、レーザレーダ2は車両1の前方のほぼ110°の範囲を探査する広角の測距レーダであり、近赤外線を利用すること等により、自転車や歩行者などでの反射も得られるものであり、バンパー位置に取り付けられて車両1の前方を例えば80mS秒間隔のフレーム毎に探査し、前方の他の車両(自動車)、2輪車、歩行者(人)等での反射波を受信して前方の移動するこれらの対象物体の距離データを取得し、この距離データを反射波の受信出力として受信処理部3に出力する。なお、本実施形態においては、対象物体を二輪車、軽自動車、小型車、普通車とする。   FIG. 1 shows a configuration of an object recognition device of this embodiment provided in a vehicle (own vehicle) 1. A laser radar 2 as an in-vehicle radar can detect a wide range of objects and can continuously estimate the shape of an object. Necessary, for example, the specifications shown in Table 1 below are attached to the front vehicle bumper position, and the distance data of the moving object is acquired in a horizontal section according to the laser projection height. In other words, the laser radar 2 is a wide-angle ranging radar that searches a range of approximately 110 ° in front of the vehicle 1 and can also be reflected by a bicycle or a pedestrian by using near infrared rays. The front of the vehicle 1 attached to the bumper position is searched for every frame, for example, at intervals of 80 mS seconds, and reflected waves from other vehicles (automobiles), two-wheeled vehicles, pedestrians (people), etc. are received. The distance data of these target objects moving forward is acquired, and this distance data is output to the reception processing unit 3 as a reception output of the reflected wave. In the present embodiment, the target object is a two-wheeled vehicle, a light vehicle, a small vehicle, or a normal vehicle.

Figure 0005583523
Figure 0005583523

受信処理部3は、前記距離データを受け取ってクラスタリング処理部4に送る。   The reception processing unit 3 receives the distance data and sends it to the clustering processing unit 4.

クラスタリング処理部4は、前記受信出力の各反射点の距離データ等に基づき、レーザレーダ2から得られた各反射点の距離情報を水平面上にプロットして反射点の画像を形成する。すなわち、前記対象物体の反射点は離散的であるため、クラスタリング処理部は、例えば周知のモルフォロジー演算を用いて近傍の各反射点を連結して、近傍の反射点同士をかたまり(反射点群のクラスタ)にまとめ、対象物体でのフレーム毎の各反射点群の検出パターン(クラスタ)を追跡処理部5に出力する。 The clustering processing unit 4 plots the distance information of each reflection point obtained from the laser radar 2 on the horizontal plane based on the distance data of each reflection point of the reception output and forms an image of the reflection point. That is, since the reflection points of the target object are discrete, the clustering processing unit 4 connects the reflection points in the vicinity using, for example, a well-known morphological operation, and groups the reflection points in the vicinity (reflection point group). And a detection pattern (cluster) of each reflection point group for each frame of the target object is output to the tracking processing unit 5.

追跡処理部5はフレーム毎の検出パターンを一時記憶し、例えば、新たなフレームの反射が得られる毎に、その反射の各検出パターンと直前のフレームの検出パターンとを比較して同じクラスタのパターンか否かを判断し、例えば、検出パターンにパターン識別のラベルを付す等する。   The tracking processing unit 5 temporarily stores a detection pattern for each frame. For example, each time a reflection of a new frame is obtained, the detection pattern of the reflection is compared with the detection pattern of the immediately preceding frame, and the pattern of the same cluster. For example, a label for pattern identification is attached to the detected pattern.

追跡処理部5によりラベルが付される等した毎フレームの各検出パターンの情報は、矩形推定部6に送られる。矩形推定部6は本発明の推定手段を含み、各検出パターンにつき、レーザレーダ2に対する対象物体の移動により変化する検出パターンが対象物体の横方向の長さおよび縦方向の長さのいずれであるかを推定して対象物体の矩形形状を推定する。   Information of each detection pattern of each frame, such as a label attached by the tracking processing unit 5, is sent to the rectangle estimation unit 6. The rectangular estimation unit 6 includes the estimation means of the present invention, and for each detection pattern, the detection pattern that changes due to the movement of the target object with respect to the laser radar 2 is either the horizontal length or the vertical length of the target object. And the rectangular shape of the target object is estimated.

すなわち、交通環境に存在する殆どの物体(車、自転車、バイク、トラックetc.)は矩形に近い形状をしている。そこで、矩形推定部6は、全ての対象物体は矩形であるという前提をもとに、反射点情報(反射点の各検出パターンの情報)から矩形を推定する。この矩形の推定では、物体の向きも併せて推定する。 That is, most objects (cars, bicycles, motorcycles, trucks, etc.) present in the traffic environment have a shape close to a rectangle. Therefore, the rectangle estimation unit 6 estimates the rectangle from the reflection point information (information of each detection pattern of the reflection point) on the assumption that all the target objects are rectangles. In the estimation of the rectangle, the direction of the object is also estimated.

矩形推定部6の推定結果は本発明の識別手段を形成する物体属性推定部7に送られ、物体属性推定部7は、矩形推定部6の各1フレームの矩形の推定結果に基づき、毎フレームに対象物体の種別を推定し、二輪車、軽自動車、小型車、普通車の類別に投票して種別(属性)を多数決処理で決定する。物体属性推定部7が推定した種別は運転支援部8に送られ、運転支援部8は推定された種別に応じた運転支援を行う。   The estimation result of the rectangle estimation unit 6 is sent to the object attribute estimation unit 7 forming the identification means of the present invention, and the object attribute estimation unit 7 is based on the rectangle estimation result of each frame of the rectangle estimation unit 6 for each frame. Then, the type of the target object is estimated, and the type (attribute) is determined by the majority process by voting according to the types of motorcycles, light cars, small cars, and ordinary cars. The type estimated by the object attribute estimation unit 7 is sent to the driving support unit 8, and the driving support unit 8 performs driving support according to the estimated type.

図2は前記矩形推定の概略の処理手順を示し、まず、受信処理部3に1フレームの反射点情報(レーザレーダ)が得られると(ステップS1)、そのフレーム毎(毎時刻)に、クラスタリング処理部4は反射点情報をクラスタリング処理して検出パターンを求める(ステップS2)。追跡処理部5はその検出パターンを追跡し(ステップS3)、矩形推定部6は、追跡処理部5の追跡結果に基づき、前記反射点情報の検出パターンが対象物体の矩形の直行する幅(横方向の長さ)、奥行き(縦方向の長さ(車長))のどちらの軸のパターンに該当するかを特定してその時点の当該矩形の少なくともいずれか一方の軸の端点の位置を検出する(ステップS4)。つぎに、1フレームでの検出した端点の動きベクトルから、前記対象物体の向きを推定するとともに、前記矩形の幅と奥行の長さを推定してその時点の前記矩形の車両サイズを推定し、さらに、推定した車両サイズを、予め記憶した道路運送車両法で定められている各車両の車両サイズをもとに修正して矩形サイズの更新を行なう(ステップS5)。更に、推定された矩形サイズを元に、時系列にクラス(種別)投票を行ない(ステップS6)、投票値によりクラスを決定して対象物体の種別を識別する(ステップS7)。投票を行なうクラスは、本実施形態の場合、二輪車、軽自動車、小型車、普通車以上の四種類である。 FIG. 2 shows an outline processing procedure of the rectangle estimation. First, when one frame of reflection point information (laser radar) is obtained in the reception processing unit 3 (step S1), clustering is performed for each frame (every time). The processing unit 4 performs a clustering process on the reflection point information to obtain a detection pattern (step S2). The tracking processing unit 5 tracks the detection pattern (step S3), and the rectangle estimation unit 6 is based on the tracking result of the tracking processing unit 5 and the width (horizontal) of the reflection point information detection pattern orthogonal to the rectangle of the target object. Direction length) or depth (vertical length (vehicle length)) which corresponds to the pattern of the axis, and detect the position of the end point of at least one of the axes of the rectangle at that time (Step S4). Next, from the motion vector of the end point detected in one frame, the direction of the target object is estimated, the width of the rectangle and the length of the depth are estimated, and the vehicle size of the rectangle at that time is estimated, Furthermore, the estimated vehicle size is corrected based on the vehicle size of each vehicle defined by the road transport vehicle law stored in advance to update the rectangular size (step S5). Further, based on the estimated rectangular size, class (type) voting is performed in time series (step S6), and the class is determined by the vote value to identify the type of the target object (step S7). In the case of this embodiment, there are four types of classes for voting: motorcycles, mini cars, small cars, and ordinary cars.

上記処理手順を、さらに詳細に説明する。   The above processing procedure will be described in more detail.

<矩形の推定>
「端点検出」
前記の端点の検出においては、まず、幅または奥行きとなる軸の検出を行なう。この軸の検出は、クラスタリングで得られた検出パターン(図3(a)、(b)は車両の場合の検出パターンの一例Dpa、他の例Dpbを示す)の全ての反射点を、クラスタ中心を原点として1度ずつ回転させ、その都度水平方向の濃度投影を行ない、濃度値がピークとなる回転状態から少なくとも矩形のL字の2辺のいずれか1辺となる軸を見つけ、一軸しか見つけられなければ、その軸となす角が直角な方向に前記L字の2辺の残りの1辺となるもう一方の軸を設定する(図4(a)、(b)は検出パターンDpa、Dpbそれぞれの軸の検出例を示し、(a)は水平、垂直の二軸の検出例、(b)は垂直の一軸の検出例)。なお、濃度値が閾値以下の場合は軸はないものとするため、軸の本数は0本、1本または2本となる。
<Rectangle estimation>
"End point detection"
In the detection of the end points, first, the axis that becomes the width or the depth is detected. This axis is detected by using all the reflection points of the detection pattern obtained by clustering (FIGS. 3A and 3B show an example Dpa of the detection pattern in the case of a vehicle and another example Dpb) as the cluster center. Rotate by 1 degree with the origin as the origin, and in each case, perform density projection in the horizontal direction, find the axis that is at least one of the two sides of the rectangular L-shape from the rotation state where the density value peaks, and find only one axis If not, the other axis which is the remaining one of the two sides of the L-shape is set in a direction perpendicular to the angle formed by the axis (FIGS. 4A and 4B show detection patterns Dpa and Dpb). An example of detection of each axis is shown, (a) is a detection example of two horizontal and vertical axes, and (b) is a detection example of one vertical axis). When the density value is less than or equal to the threshold value, there are no axes, and the number of axes is 0, 1 or 2.

端点は、見つけられた軸が二本の場合、軸同士が交差する点と軸の端の点の3点である(図5(a)の各○印が検出パターンDpaの端点)。見つけられた軸が一本の場合、端点は軸の端に存在する反射点の2点であるが、端点が2点のみでは矩形が生成できないため、3点目の端点を仮に生成する。3点目の端点は、一本の軸を90度回転した前記もう一方の軸上のレーザレーダ1から反対側にある反射点とする(図5(b)の各○印が検出パターンDpbの端点であり、そのうち破線上の検出パターンDpbから離れた丸印が3点目の端点である)。   In the case where two axes are found, the end points are three points, that is, a point where the axes intersect each other and a point at the end of the axis (the circles in FIG. 5A are the end points of the detection pattern Dpa). When only one axis is found, the end points are two reflection points existing at the end of the axis, but a rectangle cannot be generated with only two end points, so the third end point is temporarily generated. The third end point is a reflection point on the opposite side from the laser radar 1 on the other axis obtained by rotating one axis by 90 degrees (each circle mark in FIG. 5B indicates the detection pattern Dpb). An end point of which a circle away from the detection pattern Dpb on the broken line is the third end point).

「幅、奥行きの決定」
矩形を推定する際には、対象物体の幅と奥行きの情報が必要となるが、端点のみではどちらが幅または奥行きかは不明である。そこで、その対象物体の時系列の例えば2フレームの動きベクトルにより、幅と奥行きの決定を行なう。
"Determination of width and depth"
When estimating a rectangle, information on the width and depth of the target object is required, but it is not clear which is the width or depth only by the end points. Therefore, the width and depth are determined based on, for example, two frames of motion vectors in time series of the target object.

例えば、図6に示すように、丸印の複数の反射点のクラスタの検出パターンDpc、Dpdが検出される場合、その検出パターンDpc、Dpdの矩形の形状は図中の○印を付した数字1、2のいずれの形状にも推定可能であって特定できないが、図7のように、動きベクトルから対象物体が実線矢印の方向に動いていることが分かれば、矩形の向きを特定して形状を推定できる。   For example, as shown in FIG. 6, when detection patterns Dpc and Dpd of a cluster of a plurality of reflection points indicated by circles are detected, the rectangular shapes of the detection patterns Dpc and Dpd are numbers with circles in the figure. 1 and 2 can be estimated and cannot be specified, but if the target object moves in the direction of the solid arrow from the motion vector as shown in FIG. 7, the direction of the rectangle is specified. The shape can be estimated.

矩形の向きが特定されると、幅と奥行きは、車両(二輪車、軽自動車、小型車、普通車)に装着されている車輪の向きから考え、動き方向と直角の軸が幅、動き方向の軸が長さと推定できる。   When the orientation of the rectangle is specified, the width and depth are considered from the direction of the wheel mounted on the vehicle (two-wheeled vehicle, light vehicle, small vehicle, ordinary vehicle), the axis perpendicular to the movement direction is the width, the axis of the movement direction Can be estimated as a length.

ところで、対象物体の動き方向はクラスタの中心や重心の移動から推定することも考えられるが、その場合は、ノイズによる影響やクラスタの大きさが時刻毎に変化すること等から、安定した動き方向が観測できず、検出が不安定になる。   By the way, the movement direction of the target object may be estimated from the movement of the center or center of gravity of the cluster. In this case, however, the stable movement direction is due to the influence of noise and the size of the cluster changing with time. Cannot be observed, and detection becomes unstable.

そこで、本実施形態では、安定して検出できる情報として、レーザレーダ2で軽自動車、小型車、普通車(四輪車)や二輪車を観測した場合に矩形のいずれかの角が必ず観測されることに着目し、対象物体の角の移動量を動きベクトルとする。物体の角は、二軸の場合は軸の交点とし、一軸の場合は軸上の自車1に近い点とする。   Therefore, in the present embodiment, as information that can be stably detected, when a light vehicle, a small vehicle, a normal vehicle (four-wheeled vehicle), or a two-wheeled vehicle is observed with the laser radar 2, one of the corners of the rectangle is necessarily observed. The amount of movement of the corner of the target object is used as a motion vector. In the case of two axes, the corner of the object is the intersection of the axes, and in the case of one axis, it is a point close to the own vehicle 1 on the axis.

このようにして動きベクトルを求めると、動きベクトルと矩形の軸が垂直または並行に近いかを見て対象物体の矩形のパターンを分類するため、時系列の複数フレーム(例えば2フレーム)の検出パターンの矩形について角の動きベクトルと二軸の角度を比較する。   When the motion vector is obtained in this way, a rectangular pattern of the target object is classified by looking at whether the motion vector and the axis of the rectangle are close to vertical or parallel. Compare the angular motion vector and the biaxial angle for the rectangle.

図8(a)、(b)はそれぞれ時系列の2フレームの検出パターン(パターンDpe、DpfとパターンDpg、Dph)の矩形の移動と実線矢印の動きベクトルを示し、Δt時刻の検出パターンDpe、Dpgの矩形の角を点P、軸上にある端点を点A、B、(Δt+N)時刻の検出パターンDpf、Dphの角をP´とすると、幅、奥行きの角度との関係は、自車1と対象物体との位置関係によって大きく図8(a)、(b)の2パターンA、Bに分類できる。 FIGS. 8 (a) and 8 (b) show the movement of the rectangle and the motion vector of the solid arrow in the two time-series detection patterns (patterns Dpe, Dpf and Dpg, Dph), respectively, and the detection pattern Dpe at time Δt, If the rectangular corner of Dpg is point P, the end points on the axis are points A and B, and the detection pattern Dpf of (Δt + N) time, and the corner of Dph is P ′, the relationship between the width and depth angles is 1 can be roughly classified into two patterns A and B shown in FIGS. 8A and 8B.

パターンAは対象物体の車両の前方の角が見えている場合であり、パターンBは対象物体の車両後方の角が見えている場合である。それぞれの場合において、∠APP´と∠BPP´を比較する。パターンAの場合は、∠APP´<∠BPP´であれば、APが奥行き、BPが幅となる。パターンBの場合は、|180−∠APP’|<∠BPAであれば、軸APが奥行き、軸BPが幅である。パターンAかパターンBかの判断は、∠APB+∠BPAが90度以下の場合はパターンA、90度以上の場合はパターンBとする。このようにして、検出パターンの矩形の幅の長さ、奥行きの長さを、その移動方向を判別して検出する。   The pattern A is a case where the front corner of the target object is visible, and the pattern B is a case where the rear corner of the target object is visible. In each case, ∠APP ′ and ∠BPP ′ are compared. In the case of the pattern A, if ∠APP ′ <∠BPP ′, AP is the depth and BP is the width. In the case of the pattern B, if | 180−∠APP ′ | <∠BPA, the axis AP is the depth and the axis BP is the width. Whether pattern A or pattern B is determined is pattern A when ∠APB + ∠BPA is 90 ° or less, and pattern B when ∠APB + ∠BPA is 90 ° or more. In this manner, the width of the rectangle of the detection pattern and the length of the depth are detected by determining the moving direction.

「車両構造パターンによるサイズ推定」
つぎに、各フレームの矩形の幅と奥行きの長さは、オクルージョンの問題などもあり、必ずしも対象物体の本来の幅、奥行きの長さには一致しないため、各フレームの矩形の幅と奥行きから、対象物体のサイズ推定を行なう。
"Size estimation by vehicle structure pattern"
Next, the rectangle width and depth length of each frame has occlusion problems and does not necessarily match the original width and depth length of the target object. The size of the target object is estimated.

対象物体である二輪車、軽自動車、小型車、普通車の車両サイズは、つぎの表2に示すように道路運送車両法により定められている。   As shown in Table 2 below, vehicle sizes of target objects such as motorcycles, light cars, small cars, and ordinary cars are determined by the Road Transport Vehicle Law.

Figure 0005583523
Figure 0005583523

そのため、矩形が二輪車、軽自動車、小型車、普通車のどの規定サイズに当てはまるかで、矩形の幅、奥行きの長さ(サイズ)を更新する。すなわち、幅、奥行きの少なくともいずれか一方が表2の各車両の条件を超えれば、幅、奥行きを同表のその上位の車両(類別)のサイズに更新する。この更新は、端点の位置を推定された車両サイズに合わせて変更して行う。   For this reason, the width and depth length (size) of the rectangle are updated depending on whether the rectangle corresponds to a specified size of a motorcycle, a light vehicle, a small vehicle, or a normal vehicle. That is, if at least one of the width and depth exceeds the condition of each vehicle in Table 2, the width and depth are updated to the size of the upper vehicle (classification) in the table. This update is performed by changing the position of the end point according to the estimated vehicle size.

このようにして推定した対象車両の推定結果を物体属性推定部7に送り、対象物体を二輪車、軽自動車、小型車、普通車のいずれかの属性に分類する。   The estimation result of the target vehicle thus estimated is sent to the object attribute estimation unit 7, and the target object is classified into one of the attributes of a two-wheeled vehicle, a light vehicle, a small vehicle, and a normal vehicle.

図9は観測された矩形の幅と奥行きのサイズから、車両サイズを推定した結果を示す。同図(a)は自車1の前を検出対象の他車両が右から左に通過していく際の各フレーム時点の反射点の検出パターンを示し、同図(b)はフレーム毎に観測した端点を示し、同図(c)はオクルージョンなどを考慮せずに観測された各フレームの端点を結んで形成した矩形を示し、同図(d)は道路運送車両法により定められている車両サイズを考慮してサイズを更新し、更新後の各1フレームの矩形からの対象物体の属性のクラス分類の結果を示す。図9(a)〜(d)の1〜8の数字は時系列のフレーム番号を示し、図9(d)のTは二輪車、Lは軽自動車、Cは小型車の類別結果を示す。なお、図9(d)には示していないが普通車の類別結果はOとする。また、図9(a)〜(d)のmは自車1の位置を示す。   FIG. 9 shows the result of estimating the vehicle size from the observed width and depth of the rectangle. (A) in the figure shows a detection pattern of reflection points at the time of each frame when another vehicle to be detected passes from right to left in front of the own vehicle 1, and (b) in FIG. (C) shows a rectangle formed by connecting the end points of each frame observed without considering occlusion, etc., and (d) shows a vehicle defined by the Road Transport Vehicle Law. The size is updated in consideration of the size, and the result of class classification of the attribute of the target object from the rectangle of each updated frame is shown. Numbers 1 to 8 in FIGS. 9A to 9D indicate time-series frame numbers. In FIG. 9D, T indicates a motorcycle, L indicates a light vehicle, and C indicates a small vehicle classification result. Although not shown in FIG. 9 (d), the classification result for ordinary vehicles is O. Further, m in FIGS. 9A to 9D indicates the position of the host vehicle 1.

矩形推定部6の各1フレームの検出パターンからも対象物体の属性を認識できるが、認識精度を高めるためには、対象物体の移動にしたがって検出パターンが変化し、後述するように矩形の幅、奥行きのサイズが変化することから、矩形推定部6の推定結果を物体属性推定部7に送って二輪車、軽自動車、小型車、普通車の類別に投票し、時系列の複数フレームの類別の多数決処理で対象物体の種別を決定する。   Although the attribute of the target object can be recognized from the detection pattern of each frame of the rectangle estimation unit 6, in order to increase the recognition accuracy, the detection pattern changes according to the movement of the target object. Since the size of the depth changes, the estimation result of the rectangle estimation unit 6 is sent to the object attribute estimation unit 7 to vote for the types of motorcycles, light vehicles, small vehicles, and ordinary vehicles, and the majority processing of the time series of multiple frames To determine the type of the target object.

「投票による車両種別決定」
上記したように矩形のサイズは対象物の移動に伴って時々刻々変化するため、各1フレームの推定された矩形から推定される対象物の車両サイズも時々刻々に変化する。そこで、物体属性推定部7は、一定期間の各1フレームの矩形それぞれから推定された車両の類別結果(種別)に基づき、矩形推定部6の推定結果を二輪車、軽自動車、小型車、普通車の類別に投票し、投票結果の最も多数の車両に種別を決定する。
"Vehicle type determination by voting"
As described above, since the size of the rectangle changes from time to time as the object moves, the vehicle size of the object estimated from the estimated rectangle of each frame also changes from time to time. Therefore, the object attribute estimation unit 7 determines the estimation result of the rectangle estimation unit 6 based on the vehicle classification result (type) estimated from each rectangle of each frame for a certain period of time for a motorcycle, a light vehicle, a small vehicle, and a normal vehicle. Vote by category, and determine the type of the largest number of vehicles in the voting results.

図10は図9(d)のような各1フレームの種別を複数フレームについて投票した結果を示し、このようにすれば、1フレーム目では二輪車に分類されているが、徐々に軽自動車または小型車に分類されるようになり、7、8フレーム目では小型車の分類に保持されることが分かる。すなわち、投票により、二輪車の誤認識は低減し、軽自動車あるいは小型車の認識が増え、後半からは小型車に認識され続けて認識精度が向上する。   FIG. 10 shows the result of voting for each frame type for a plurality of frames as shown in FIG. 9 (d). In this way, the first frame is classified as a two-wheeled vehicle. It can be seen that in the seventh and eighth frames, the small car classification is maintained. That is, voting reduces the misrecognition of motorcycles, increases the recognition of mini cars or small cars, and continues to be recognized by small cars from the second half, improving the recognition accuracy.

そして、物体属性推定部7が各時点に投票結果によって推定した車種(属性)が運転支援部8に送られ、運転支援部8は推定された車種に応じて警報タイミングをずらす等して最適な運転支援を行う。この場合、対象物体の車種の推定精度が向上するので、運転支援精度が向上する。   Then, the vehicle type (attribute) estimated by the object attribute estimation unit 7 based on the voting result at each time point is sent to the driving support unit 8, and the driving support unit 8 shifts the alarm timing according to the estimated vehicle type to optimize the vehicle type. Provide driving assistance. In this case, since the estimation accuracy of the vehicle type of the target object is improved, the driving support accuracy is improved.

<実験例>
実験では、(1)矩形のサイズが正しく推定できていること、(2)物体の向きが正しく推定できていることを確認するため、対象物体の四輪車(小型車)、二輪車(自転車)が自車1の前を8の字に走行した場合及び、交差点で止まっている自車1の前を種々の車両が走行する場合に、車種を推定した。
<Experimental example>
In the experiment, in order to confirm that (1) the size of the rectangle was correctly estimated and (2) the direction of the object was correctly estimated, the target object was a four-wheeled vehicle (small car) or two-wheeled vehicle (bicycle). The vehicle type was estimated when traveling in front of the host vehicle 1 in a figure 8 and when various vehicles traveled in front of the host vehicle 1 stopped at the intersection.

図11(a)、(b)は対象物体TGの四輪車(小型車)の正面図、側面図であり、同図(c)は対象物体TGの四輪車(小型車)が自車1の前を8の字に走行した場合にその反射点が捉えた矩形の形状の10フレームの観測例を示す。図12(a)、(b)は対象物体TGの二輪車(自転車)の正面図、側面図であり、同図(c)は対象物体TGの二輪車(自転車)が自車1の前を8の字に走行した場合にその反射点が捉えた矩形の形状の10フレームの観測例を示す。図13(a)は右折するために交差点で止まっている自車1の前を○印を付した数字1〜3の対象物体TGの各車両が走行するシーンを示し、実線の矢印線は各車両の走行方向を示し、破線の矢印線は止まっている自車mの右折方向を示す。同図(b)はその場合の各車両の観測例を示す。なお、歩行者については、軸が検出されないため、四輪車、二輪車以外の物体は歩行者と認識した。   FIGS. 11A and 11B are a front view and a side view of a four-wheeled vehicle (small vehicle) of the target object TG, and FIG. 11C shows a four-wheeled vehicle (small vehicle) of the target object TG of the subject vehicle 1. An example of observation of 10 frames of a rectangular shape captured by the reflection point when traveling in front of the figure 8 is shown. 12A and 12B are a front view and a side view of the two-wheeled vehicle (bicycle) of the target object TG, and FIG. 12C is a front view of the two-wheeled vehicle (bicycle) of the target object TG 8 in front of the own vehicle 1. An example of observation of 10 frames of a rectangular shape captured by a reflection point when traveling in a letter is shown. FIG. 13 (a) shows a scene in which the vehicles of the target objects TG with the numbers 1 to 3 marked with a circle run in front of the own vehicle 1 that stops at the intersection to make a right turn. The traveling direction of the vehicle is indicated, and the broken arrow line indicates the right turn direction of the own vehicle m that has stopped. FIG. 5B shows an observation example of each vehicle in that case. For pedestrians, since no axis was detected, objects other than four-wheeled vehicles and two-wheeled vehicles were recognized as pedestrians.

(実験結果)
図11、図12の観測について、時系列のフレーム数を420フレームとして、1フレーム毎に矩形サイズから種別を推定し、また、数フレームの投票結果の矩形サイズから種別を推定し、さらに、それらの正答率および向きの正答率も確認したところ以下の結果が得られた。
(Experimental result)
11 and 12, assuming that the number of time-series frames is 420 frames, the type is estimated from the rectangular size for each frame, the type is estimated from the rectangular size of the voting results of several frames, and further, When the correct answer rate and the correct answer rate of the direction were confirmed, the following results were obtained.

図14(a)は対象物体TGである四輪車(小型車)の図11の観測に基づく1フレーム毎の矩形サイズからの種別の推定結果を示し、図14(b)は対象物体TGである四輪車(小型車)の図12の観測に基づく投票結果からの種別の推定結果を示す。また、つぎの表3の(a)、(b)はそれらの種別の正答率、向きの正答率を示す。なお、図14(a)、(b)の矢印線は対象物体TGの走行方向を示す。   FIG. 14A shows the estimation result of the type from the rectangular size for each frame based on the observation of FIG. 11 of the four-wheeled vehicle (small car) that is the target object TG, and FIG. 14B is the target object TG. The estimation result of the classification from the voting result based on the observation of FIG. 12 of the four-wheeled vehicle (small vehicle) is shown. Moreover, (a) and (b) of the following Table 3 show the correct answer rate of those types and the correct answer rate of direction. Note that the arrow lines in FIGS. 14A and 14B indicate the traveling direction of the target object TG.

Figure 0005583523
Figure 0005583523

図13の対象物体TGは小型車(C)であるのに対して、図14(a)では軽自動車(L)となっているフレームがあり、クラス正解率は76%であった。図14(b)では全てのフレームにおいて小型車(C)と正しく識別された。また、向きについては2フレームで誤推定があった。 The target object TG in FIG. 13 is a small car (C), whereas in FIG. 14 (a), there is a frame that is a light car (L), and the class accuracy rate was 76%. In FIG. 14B, all the frames were correctly identified as the small car (C). In addition, the direction was erroneously estimated in two frames.

図15は対象物体TGの二輪車(自転車(T))の図12の観測に基づく投票結果からの種別の推定結果を示す。また、つぎの表4の(a)、(b)は1フレームの推定結果、投票結果からの推定結果、種別の正答率、向きの正答率を示す。なお、図15の矢印線は対象物体TGの走行方向を示す。   FIG. 15 shows the type estimation result from the voting result based on the observation of the motorcycle (bicycle (T)) of the target object TG in FIG. Further, (a) and (b) of Table 4 below show the estimation result of one frame, the estimation result from the voting result, the correct answer rate of the type, and the correct answer rate of the direction. In addition, the arrow line of FIG. 15 shows the traveling direction of the target object TG.

Figure 0005583523
Figure 0005583523

図15の自転車(T)については、投票による識別率は98%であり、間違えたシーンは投票値が得られるまでの4フレームのみであった。   For the bicycle (T) in FIG. 15, the recognition rate by voting was 98%, and the wrong scene was only 4 frames until the voting value was obtained.

図16は図13(a)の交差点で右折するために止まっている自車1の前を種々の車両が走行するシーンでの170フレームの投票結果を示し、同図において、横軸はフレーム、縦軸は分類種別(種別クラス)を示す。○印のついた数字1〜3は図13(b)の○印のついた数字1の小型車、数字2の普通車、数字3の普通車を示し、それらの間で、投票値が次第に正解に近づくことが判明した。また、全ての車両の向きは正しく検出できた。正答率は83%、正答に到る平均フレーム時間は、つぎの表5に示すように16.4フレームであった。   FIG. 16 shows 170-frame voting results in a scene in which various vehicles travel in front of the host vehicle 1 that is stopped to make a right turn at the intersection of FIG. 13 (a). In FIG. The vertical axis indicates the classification type (type class). Numbers 1 to 3 with ○ indicate the small car with the number 1 in FIG. 13B, the ordinary car with the number 2, and the ordinary car with the number 3, and the vote value gradually becomes correct among them. Turned out to be close. In addition, all vehicle orientations were detected correctly. The correct answer rate was 83%, and the average frame time to reach the correct answer was 16.4 frames as shown in Table 5 below.

Figure 0005583523
Figure 0005583523

以上説明したように、本実施形態の場合、矩形推定部6、物体属性推定部7を備えたことにより、レーザレーダ2のみを用いて対象物体の種類(属性)を推定することができ、具体的には、交通環境に存在する殆どの物体は矩形であるという仮定をもとに、予め記憶した道路運送車両法で定められている車両の規定サイズを参照して検出パターンの矩形の大きさを推定し、時系列での種別(クラス)の投票によって、二輪車、軽自動車、小型車、普通車の種別を精度よく推定でき、また、対象物体の向きについてもほぼ正しく推定することができる。   As described above, in the case of the present embodiment, since the rectangular estimation unit 6 and the object attribute estimation unit 7 are provided, the type (attribute) of the target object can be estimated using only the laser radar 2. Specifically, based on the assumption that almost all objects present in the traffic environment are rectangular, the size of the rectangle of the detection pattern is referred to by referring to the pre-stored vehicle size specified in the Road Transport Vehicle Law. The type of two-wheeled vehicle, light vehicle, small vehicle, or ordinary vehicle can be accurately estimated by voting the type (class) in time series, and the direction of the target object can be estimated almost correctly.

そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行なうことが可能であり、例えば、車載レーダは,レーザレーダ2に限るものではなく、ミリ波レーダ、超音波レーダ等であってもよい。また、車載レーダの探査範囲はどのようであってもよく、車載レーダは、車両1の後方や左右側を探査するものであってもよく、車両1の全周を探査するものであってもよい。   The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. It is not limited, and may be a millimeter wave radar, an ultrasonic radar, or the like. Further, the search range of the on-vehicle radar may be any, and the on-vehicle radar may search for the rear and left and right sides of the vehicle 1 or may search the entire circumference of the vehicle 1. Good.

つぎに、矩形推定部6、物体属性推定部7、運転支援部8の構成や処理手順等が前記実施形態と異なっていてもよいのも勿論であり、物体属性推定部7において、投票総フレーム数等は実験等に基づいて適当数に設定すればよい。また、対象物体には歩行者を含めてもよく、その種別の種類や数は前記実施形態のものに限るものではない。さらに、簡単には、各1フレームの検出パターンについて、対象物体の横方向の長さおよび縦方向の長さのいずれであるかを推定し、その長さから、あるいはその長さに該当する道路運送車両法の表1の長さから、該当する種別の横方向の長さ(幅)および縦方向の長さ(奥行き)を決定して種別を行なってもよい。   Next, it goes without saying that the configurations and processing procedures of the rectangular estimation unit 6, the object attribute estimation unit 7, and the driving support unit 8 may be different from those in the above embodiment. The number or the like may be set to an appropriate number based on experiments or the like. In addition, pedestrians may be included in the target object, and the type and number of types are not limited to those in the above embodiment. Furthermore, simply, for each detection pattern of one frame, it is estimated whether the length in the horizontal direction or the vertical length of the target object, and the road corresponding to the length is calculated from the length. The classification may be performed by determining the horizontal length (width) and vertical length (depth) of the corresponding type from the length of Table 1 of the Transport Vehicle Law.

そして、本発明は、車載レーダを用いた種々の車両の物体認識装置に適用することができる。   The present invention can be applied to various vehicle object recognition apparatuses using on-vehicle radars.

1 車両(自車)
2 レーザレーダ
6 矩形推定部
7 物体属性推定部
1 Vehicle (own vehicle)
2 Laser radar 6 Rectangle estimation unit 7 Object attribute estimation unit

Claims (1)

車載レーダから得られた対象物体の複数の反射点の距離情報を水平面上にプロットして画像を形成し、形成した画像のフレーム毎に前記各反射点を連結して得られる反射点群の検出パターンに基づいて前記対象物体の種別を識別する物体認識装置であって、
前記車載レーダに対する前記対象物体の移動により変化する前記検出パターンが前記対象物体の横方向の長さおよび縦方向の長さのいずれであるかを推定する推定手段と、
推定した前記横方向の長さおよび前記縦方向の長さの少なくともいずれか一方から前記対象物体の種別を識別する識別手段とを備えたことを特徴とする物体認識装置。
The distance information of the plurality of reflection points of the target object obtained from the on- vehicle radar is plotted on a horizontal plane to form an image, and the reflection point group obtained by connecting the reflection points for each frame of the formed image is detected. An object recognition device for identifying a type of the target object based on a pattern,
Estimating means for estimating whether the detection pattern that changes due to the movement of the target object with respect to the on-vehicle radar is a horizontal length or a vertical length of the target object;
An object recognition apparatus comprising: an identification unit that identifies a type of the target object from at least one of the estimated length in the horizontal direction and the length in the vertical direction.
JP2010193659A 2010-08-31 2010-08-31 Object recognition device Expired - Fee Related JP5583523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010193659A JP5583523B2 (en) 2010-08-31 2010-08-31 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010193659A JP5583523B2 (en) 2010-08-31 2010-08-31 Object recognition device

Publications (2)

Publication Number Publication Date
JP2012052838A JP2012052838A (en) 2012-03-15
JP5583523B2 true JP5583523B2 (en) 2014-09-03

Family

ID=45906332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010193659A Expired - Fee Related JP5583523B2 (en) 2010-08-31 2010-08-31 Object recognition device

Country Status (1)

Country Link
JP (1) JP5583523B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2518099C1 (en) * 2012-10-22 2014-06-10 Виктор Леонидович Семенов Method of measuring length of moving object and device for realising said method
JP6291781B2 (en) * 2013-10-17 2018-03-14 株式会社デンソー Perimeter monitoring device and perimeter monitoring system
JP6342169B2 (en) * 2014-01-29 2018-06-13 セコム株式会社 Object detection sensor and program
JP6345558B2 (en) * 2014-09-24 2018-06-20 株式会社クボタ Autonomous vehicle
TWI710798B (en) 2016-01-29 2020-11-21 學校法人明治大學 Laser scanning system atteched on moving object, laser scanning method for laser scanner atteched on moving object, and laser scanning program
JP6561869B2 (en) * 2016-02-16 2019-08-21 トヨタ自動車株式会社 Vehicle shape estimation device
KR101890482B1 (en) 2016-11-07 2018-09-28 숭실대학교산학협력단 Appartus for distinction of stop and movement using radar spectrum and method thereof
JP6983915B2 (en) * 2017-06-12 2021-12-17 コンチネンタル オートモーティブ ゲゼルシャフト ミット ベシュレンクテル ハフツング Rear pre-crash safety system
JP6911788B2 (en) * 2018-02-13 2021-07-28 株式会社デンソーウェーブ Vehicle recognition device, vehicle recognition system, vehicle recognition program
JP7295648B2 (en) * 2019-02-05 2023-06-21 古河電気工業株式会社 RADAR DEVICE AND RADAR SYSTEM CONTROL METHOD
CN111427032B (en) * 2020-04-24 2022-02-01 森思泰克河北科技有限公司 Room wall contour recognition method based on millimeter wave radar and terminal equipment
CN114913469B (en) * 2022-07-11 2022-11-22 浙江大华技术股份有限公司 Method for establishing vehicle length estimation model, terminal equipment and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002107453A (en) * 2000-09-28 2002-04-10 Tokyu Car Corp Beam sweeping radar device, moving body, object detecting device in fixed measuring area and contour measuring device
JP3952874B2 (en) * 2002-06-19 2007-08-01 日産自動車株式会社 Front object recognition device
JP2007187618A (en) * 2006-01-16 2007-07-26 Omron Corp Object identifying device
JP5499424B2 (en) * 2007-04-16 2014-05-21 トヨタ自動車株式会社 Object detection device
JP5700940B2 (en) * 2010-03-16 2015-04-15 ダイハツ工業株式会社 Object recognition device

Also Published As

Publication number Publication date
JP2012052838A (en) 2012-03-15

Similar Documents

Publication Publication Date Title
JP5583523B2 (en) Object recognition device
JP5700940B2 (en) Object recognition device
Ziebinski et al. Review of advanced driver assistance systems (ADAS)
US11538254B2 (en) Safety system for a vehicle to detect and warn of a potential collision
US9180814B2 (en) Vehicle rear left and right side warning apparatus, vehicle rear left and right side warning method, and three-dimensional object detecting device
JP2011186584A (en) Object recognition apparatus
JP5938569B2 (en) Advanced driver support system considering azimuth information and operation method thereof
CN113998034A (en) Rider assistance system and method
Park et al. Robust range estimation with a monocular camera for vision-based forward collision warning system
JP2011065400A (en) Object recognition apparatus
EP3594853A2 (en) Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
Ra et al. Part-based vehicle detection in side-rectilinear images for blind-spot detection
JP2008276689A (en) Obstacle-recognition device for vehicle
JP2012089114A (en) Obstacle recognition device
JP2008009843A (en) Obstacle discrimination device
JP2012173230A (en) Body recognizing device
Tanaka et al. Vehicle detection based on perspective transformation using rear-view camera
Fuerstenberg et al. Pedestrian detection and classification by laserscanners
JP2006140636A (en) Obstacle detecting device and method
Jyothi et al. Driver assistance for safe navigation under unstructured traffic environment
Tsuchiya et al. Real-time vehicle detection using a single rear camera for a blind spot warning system
JP2006047033A (en) Object recognition method and device
Inoue et al. Following vehicle detection using multiple cameras
Rammohan et al. Automotive Collision Avoidance System: A Review
WO2023139978A1 (en) Vehicle-mounted camera device, vehicle-mounted camera system, and image storage method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140716

R150 Certificate of patent or registration of utility model

Ref document number: 5583523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees