JP2012173230A - Body recognizing device - Google Patents
Body recognizing device Download PDFInfo
- Publication number
- JP2012173230A JP2012173230A JP2011037846A JP2011037846A JP2012173230A JP 2012173230 A JP2012173230 A JP 2012173230A JP 2011037846 A JP2011037846 A JP 2011037846A JP 2011037846 A JP2011037846 A JP 2011037846A JP 2012173230 A JP2012173230 A JP 2012173230A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- vehicle
- reflection point
- recognized
- point group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
この発明は、車載レーダが受信した反射点群のパターンから車両、自転車、人(歩行者)等の物体を認識する物体認識装置に関する。 The present invention relates to an object recognition apparatus for recognizing an object such as a vehicle, a bicycle, or a person (pedestrian) from a pattern of reflection points received by an in-vehicle radar.
従来、車両の分野においては、様々な予防安全技術の研究開発が行われており、前方衝突被害軽減システムや後側方警報システムなどの種々の予防安全システムが実用化されつつある。 Conventionally, various preventive safety technologies have been researched and developed in the field of vehicles, and various preventive safety systems such as a front collision damage reduction system and a rear side warning system are being put into practical use.
これらのシステムにおいて、レーザレーダに代表される車載レーダが受信した反射点群のパターンから車両、自転車、歩行者等の物体を区別して認識することができれば、安価に予防安全システムの適用範囲が広がる。 In these systems, if an object such as a vehicle, a bicycle, or a pedestrian can be distinguished and recognized from the pattern of reflection points received by an on-vehicle radar represented by a laser radar, the applicable range of the preventive safety system can be expanded at a low cost. .
そして、車載レーダとしてのレーザレーダが受信した反射点群のパターンが、設定したL、I、Oの3種類のパターンのいずれに属するかによって、物体を区別して認識することが提案されている(例えば、非特許文献1参照)。 Then, it has been proposed to distinguish and recognize an object depending on which of the set three types of patterns L, I, and O the reflection point group pattern received by the laser radar as the vehicle-mounted radar belongs to ( For example, refer nonpatent literature 1).
非特許文献1に記載のようにレーザレーダ受信した反射点群のパターンから物体を区別して認識する場合、認識対象の物体である車両、モータバイク、自転車、歩行者等を矩形とみなし、前記反射点群のパターンが矩形の一部を形成するとして、その矩形が車両、モータバイク、自転車、歩行者のいずれの矩形に属するかを推定(属性推定)し、物体を認識することが考えられる。
As described in Non-Patent
図7は上記の属性推定による物体認識の一例を示す。この場合、自車両100のレーザレーダ101により前方をスキャンし、レーザレーダ101からパルス出力されたレーザが前方の認識対象の車両200、モータバイク300それぞれの一部(図7では左側および後端部)のエッジで反射することにより、これらのエッジに沿った車両200、モータバイク300それぞれの各反射点rがレーザレーダ101に受信されて検出される。そして、各反射点rはクラスタリング処理により近いもの同士が1つのクラスタにまとめられて反射点群を形成する。
FIG. 7 shows an example of object recognition based on the attribute estimation. In this case, the
このとき、自車両100からみて車両200とモータバイク300が離れていれば、車両200の反射点群とモータバイク300の反射点群とは別個のクラスタCa、クラスタCbの反射点群となり、クラスタCa、Cbそれぞれの反射点群のL字状のパターンに基づく矩形Ra、Rbの属性推定から、自車100の前方の車両200、モータバイク300を認識できる。
At this time, if the
しかしながら、車両200とモータバイク300とが自車100からみて接近していると、つぎに説明するように、属性推定が困難になって車両200およびモータバイク300を認識できなくなる。
However, if the
図8は属性推定が困難になる一例を示す。この場合は、自車両100からみて車両200とモータバイク300が接近し、車両200の各反射点rとモータバイク300の各反射点rとが連続して繋がったようになり、それらの反射点rは1つのクラスタCcの反射点群のパターンにまとめられる。このとき、クラスタCcの反射点群のパターンに基づく矩形Rcは車両、モータバイク、自転車、歩行者のいずれの矩形にも該当しないため、矩形Rcからの認識対象の物体の属性推定が困難になり、車両200およびモータバイク300を認識できなくなる。
FIG. 8 shows an example in which attribute estimation becomes difficult. In this case, the
そして、上記のように認識対象の物体の属性推定が困難になって認識できなくなる事態は、認識対象の複数の物体が接近している場合だけでなく、例えば認識対象の物体と他の物体(例えばガードレール等)とが接近し、それらの反射点が連続して繋がったようになる場合にも生じる。 As described above, the situation in which the attribute estimation of the recognition target object becomes difficult and the recognition cannot be performed is not only when the plurality of recognition target objects are close to each other, for example, the recognition target object and other objects ( This also occurs when, for example, a guard rail or the like approaches and the reflection points are continuously connected.
なお、自車両100に車載カメラのような他のセンサをさらに備え、このセンサにより認識対象の各物体を検出し、レーザレーダ101が受信した反射点群をクラスタリング処理する際に認識対象の物体毎に別個のクラスタの反射点群としてまとめるようにして、認識対象の複数の物体が接近している場合や、認識対象の物体と他の物体とが接近している場合にもそれらの物体の認識が行なえるようにすることが考えられるが、この場合は、車載カメラのような他のセンサをさらに備える必要があり、高価になって実用的でない。
In addition, the
本発明は、車載カメラのような他のセンサをさらに備えることなく低コストに、車載レーダが受信した反射点群のパターンから認識対象の物体を認識できるようにすることを目的とする。なお、本発明において、「L字状部分」には自車両からみてL字の部分および、L字を左右反転した逆L字の部分を含む。 An object of the present invention is to enable recognition of an object to be recognized from a pattern of a reflection point group received by an in-vehicle radar at a low cost without further providing another sensor such as an in-vehicle camera. In the present invention, the “L-shaped portion” includes an L-shaped portion as viewed from the host vehicle and an inverted L-shaped portion obtained by horizontally inverting the L-shape.
上記した目的を達成するために、本発明の物体認識装置は、車載レーダが受信した反射点群のパターンに基づいて物体を認識する物体認識装置であって、前記パターンから自車両に対して反対方向に屈曲したL字状部分を分離する分離手段と、前記分離手段により分離された前記L字状部分が一部を構成する矩形から物体を認識する認識手段とを備えたことを特徴としている(請求項1)。 In order to achieve the above object, an object recognition apparatus of the present invention is an object recognition apparatus that recognizes an object based on a pattern of a reflection point group received by an in-vehicle radar, and is opposed to the vehicle from the pattern. Separating means for separating an L-shaped portion bent in a direction, and recognition means for recognizing an object from a rectangle that constitutes a part of the L-shaped portion separated by the separating means. (Claim 1).
請求項1の発明によれば、車載レーダが受信した反射点群のパターンにおける認識対象の物体の部分は、自車両と反対方向に屈曲したL字状になることに着目して、分離手段により車載レーダが受信した反射点群のパターンから該当するL字状部分が分離される。さらに、車両、モータバイク、自転車、歩行者等の物体を矩形とみなし、分離された各L字状部分が一部を構成する矩形に基づき、認識手段によって認識対象の各物体を認識することができる。
According to the invention of
この場合、前記反射点群のパターンに認識対象の複数の物体の反射点が含まれていても、各物体の反射点は異なるL字状部分を形成するので、これらのL字状部分を分離することで、各L字状部分のパターンに基づいて認識対象の各物体を一物体(同一物体)として誤認識することなく確実に認識できる。 In this case, even if the reflection point group pattern includes reflection points of a plurality of objects to be recognized, the reflection points of each object form different L-shaped parts, so that these L-shaped parts are separated. By doing so, each object to be recognized can be reliably recognized as one object (same object) based on the pattern of each L-shaped portion without being erroneously recognized.
また、前記反射点群のパターンに認識対象の物体と認識対象外の他の物体の反射点が含まれていても、認識対象の物体の反射点を前記反射点群のパターンからL字状部分として分離することができ、分離したL字状部分のパターンに基づいて認識対象の物体を確実に認識することができる。 In addition, even if the reflection point group pattern includes reflection points of a recognition target object and other objects that are not recognition targets, the reflection point of the recognition target object is changed to an L-shaped portion from the reflection point group pattern. And the object to be recognized can be reliably recognized based on the pattern of the separated L-shaped part.
したがって、車載カメラのような他のセンサをさらに備えることなく低コストに、車載レーダが受信した反射点群のパターンから認識対象の物体の部分を確実に分離してその物体を確実に認識することができる。 Therefore, it is possible to reliably separate the object part to be recognized from the reflection point cloud pattern received by the in-vehicle radar at a low cost without further providing other sensors such as an in-vehicle camera. Can do.
本発明の物体認識装置の一実施形態について、図1〜図6を参照して説明する。 An embodiment of the object recognition apparatus of the present invention will be described with reference to FIGS.
図1は自車両1が備える物体認識装置の構成を示し、この物体認識装置は車載レーダとしてのレーザレーダ2を備える。レーザレーダ2は、自車両1の前方の所定範囲(例えばほぼ180°の範囲)を探査する広角の測距レーダであり、近赤外線を利用すること等により、自転車や歩行者などの反射も得られる。そして、レーザレーダ2は、例えば自車両1のフロントバンパーに取り付けられ、自車両1の前方を例えば80ms秒間隔のフレーム毎に探査しつつレーザパルスを出力し、前方の他の車両(自動車)、モータバイク、自転車、歩行者(人)等の物体での反射を受信して各反射点の位置データ(自車両1からの距離および左右方向の位置のデータ)を受信処理部3に出力する。なお、レーザレーダ2は、実際には前方を上下左右に走査するが、ここでは、説明を簡単にするため、レーザレーダ2は左右方向に探査するものとする。
FIG. 1 shows a configuration of an object recognition device provided in the
受信処理部3は、レーザレーダ2の各反射点の位置データを受け取ってマイクロコンピュータ構成の認識処理部4のクラスタリング処理部5に送る。
The reception processing unit 3 receives the position data of each reflection point of the
図2は物体認識装置の物体認識の処理過程を模式的に示し、図7、図8で説明した場合と同様に、自車両1のレーザレーダ2から自車両1の前方をスキャンしつつパルス出力されたレーザが前方の認識対象の物体である車両200、モータバイク300それぞれの一部(図2では左側および後部)のエッジで反射し、これらのエッジでの反射がレーザレーダ2に受信されて車両200、モータバイク300それぞれのエッジに沿った各反射点rが検出され、受信処理部3は各反射点rの位置データを図1のクラスタリング処理部5に送る。
FIG. 2 schematically shows an object recognition processing process of the object recognition apparatus, and outputs a pulse while scanning the front of the
クラスタリング処理部5は、各反射点rの位置データに基づき、例えば周知のモルフォロジー演算を用いて近傍の各反射点rを連結し、近傍の反射点r同士をかたまり(反射点群のクラスタ)にまとめてクラスタリング処理する。このクラスタリング処理により形成される図2のクラスタC1の反射点群のパターンP1が、本発明の車載レーダが受信した反射点群のパターンである。
Based on the position data of each reflection point r, the
そして、図2の反射点群のパターンP1は、障害物となる認識対象の車両200、モータバイク300が自車両1からみて接近しているため、それらの反射点rがクラスタC1の反射点群として連結されて含まれる。なお、車両200、モータバイク300が自車両1からみて離れている場合には、図7で説明したように、クラスタリング処理によって車両200の反射点群のパターンと、モータバイク300の反射点群のパターンとが別個に形成される。
The pattern P1 of the reflection point group in FIG. 2 is that the
つぎに、クラスタリング処理部5の前記反射点群のパターンP1は、本発明の分離手段を形成する図1の分離処理部6に送られる。分離処理部6はパターンP1から自車両1に対して反対方向に屈曲したL字状部分L1、L2を分離する。
Next, the reflection point group pattern P1 of the
すなわち、パターンP1に車両200、モータバイク300のような認識対象の複数の物体が含まれる場合、通常、自車両1は各物体を右手前方(または左手前方)に検出することになり、各物体でのレーザの反射点はL字(または左右反転した逆L字)の2辺のエッジの反射点になる。この場合、各物体の反射点群はパターンP1のL字状部分L1、L2のような自車両1に対して反対方向に屈曲したL字状部分を形成する。そこで、分離処理部6は、パターンP1のL字状部分L1、L2を、それぞれ物体の反射点群のパターン(図2のパターンP11、P12)であるとして分離する。この分離の手法は後述する。なお、パターンP1が認識対象の1つの物体のパターンであれば、L字状部分が1つだけになるので分離後のパターンも1つになる。
That is, when the pattern P1 includes a plurality of objects to be recognized such as the
分離処理部6で分離されたパターンP11、P12は、設定された複数フレームに亘って追跡するため識別ラベルが付されてRAMやフラッシュメモリ等からなる図1の記憶部7に書き込まれて保持されるとともに、本発明の認識手段を形成する図1の物体属性推定部8に送られる。
The patterns P11 and P12 separated by the
物体属性推定部8は、外乱等による誤った分離結果を排除するため、その間の自車両1と前方の各物体の相対的な移動等を考慮して複数フレームに亘ってパターンP11、P12を追跡し、前記複数フレームに亘って同じパターンP11、P12が検出されること等を条件に、パターンP11、P12がそれぞれ認識対象の物体のパターンであることを判断し、パターンP11、P12それぞれをL字状(または逆L字状)の2辺(一部)とする図2の矩形R11、R12を作図して形成する。さらに、例えば、形成した矩形R11、R12と車両、モータバイク、自転車、歩行者等の認識対象の物体毎の設定された矩形とのパターンマッチングにより、矩形R11、R12がどの物体の矩形に属するかを判定して矩形R11、R12の物体の属性(車両、モータバイク、自転車、歩行者等のいずれに属するか)を推定して認識する。そして、推定結果を図1の運転支援部9に送る。
The object attribute estimation unit 8 tracks the patterns P11 and P12 over a plurality of frames in consideration of the relative movement of the
運転支援部9は、物体属性推定部8の認識結果から、自車両1の前方に車両200、モータバイク300が障害物として存在することを把握し、認識結果に応じた予防安全の運転支援を行う。
The driving support unit 9 grasps from the recognition result of the object attribute estimation unit 8 that the
図3のステップS1〜S6は上記物体認識装置の概略の処理手順を示し、まず、受信処理部3によりレーザレーダ2の各反射点rの位置データを取得し(ステップS1)、そのデータに基づき、クラスタリング処理部5により各反射点rをクラスタリングする(ステップS2)。 Steps S1 to S6 in FIG. 3 show an outline processing procedure of the object recognition apparatus. First, the reception processing unit 3 acquires position data of each reflection point r of the laser radar 2 (step S1), and based on the data. Then, each reflection point r is clustered by the clustering processing unit 5 (step S2).
つぎに、分離処理部部6により、クラスタリング処理部5の処理結果の反射点群のパターンP1から自車両1に対して反対方向に屈曲したL字状部分L1、L2を分離する。
Next, the
そして、物体属性推定部8により、L字状部分L1、L2のパターンP11、P12を複数フレームに亘って追跡し(ステップS4)、この追跡によりL字状部分L1、L2のパターンP11、P12が認識対象の物体のパターンであることを確認すると、L字状部分L1、L2のパターンP11、P2の矩形R11、R12の物体の属性を推定してその物体を認識する(ステップS5)。 Then, the object attribute estimation unit 8 tracks the patterns P11 and P12 of the L-shaped portions L1 and L2 over a plurality of frames (step S4), and the patterns P11 and P12 of the L-shaped portions L1 and L2 are traced by this tracking. If the pattern of the object to be recognized is confirmed, the attributes of the objects of the rectangles R11 and R12 of the patterns P11 and P2 of the L-shaped portions L1 and L2 are estimated to recognize the object (step S5).
さらに、物体属性推定部8の認識結果に基づき、運転支援部9により必要な運転支援を行なう。 Further, based on the recognition result of the object attribute estimation unit 8, the driving support unit 9 performs necessary driving support.
つぎに、分離処理部6の分離手法について説明する。
Next, a separation method of the
前記したパターンP1の各L字状部分L1、L2をそれぞれ物体(車両200、モータバイク300)の反射点群のパターン(図2のパターンP11、P12)に分離する場合、例えばL字状の基準パターンを用いたパターンマッチングで行なうことも考えられるが、本実施形態では、パターンP1の各L字状部分L1、L2のつなぎ部分(図2に破線で囲んだ部分)が自車両1からみて凹んだ凹部分αになり、パターンP1のいずれかの端から反射点rをたどると、L字状部分L1またはL字状部分L2の折曲点の凸部分(図2に1点破線で囲んだ部分)βを通って凹部分αに到達することに着目し、つぎに説明するようにしてパターンPを凹部分(つなぎ部分)αで切断してパターンP11、P12に分離する。
When separating the L-shaped portions L1 and L2 of the pattern P1 into the reflection point group patterns (patterns P11 and P12 in FIG. 2) of the object (
すなわち、認識対象の物体が矩形であるという前提のもとでは、レーザレーダ2の反射点群のクラスタC1のパターンP1は、1つの物体(例えば車両200またはモータバイク300)のパターンであれば凹部分αは存在しないが、接近した複数の物体(例えば車両200とモータバイク300)を含むパターンであれば各物体のパターン(例えばパターンP11、P12)の境界に凹部分αが存在し、その前にL字(または逆L字)の折曲の凸部分βが存在する。
That is, on the assumption that the object to be recognized is a rectangle, the pattern P1 of the cluster C1 of the reflection point group of the
そこで、分離処理部6は、パターンP1の一端または他端から反射点rをたどり、その軌跡の向きが所定角度以上変わって前記軌跡が自車両1の反対側に屈曲する部分を凸部分βの候補位置β*として検出し、それからさらに反射点rをたどって軌跡が所定角度以上変化して屈曲する部分を凹部分αの候補位置α*として検出する。
Therefore, the
図4は接近した車両200とモータバイク300のパターンP1における候補位置α*、β*を示し、パターンP1の一端側(例えば図4の上側の端部)と凹部分αの候補位置α*との間にモータバイク300の凸部分βの候補位置β*があり、パターンP1の他端側(例えば図4の下側の端部)と凹部分αの候補位置α*との間に車両200の凸部分βの候補位置β*がある。この場合、検出した車両200の凸部分βの候補位置β*またはモータバイク300の凸部分βの候補位置β*から前記軌跡をたどり、所定角度以上変化して折曲する部分が凹部分αの候補位置α*として検出される。
FIG. 4 shows the candidate positions α * and β * in the pattern P1 of the
さらに、図4に示すように、検出した候補位置β*から反射点rをたどって到達する凹部分αの候補位置α*までの直線距離(長さ)をWxとし、設定され判定しきい値の長さをW0とすると、Wx≧W0であることを条件に、検出した候補位置α*を凹部αの位置として確定し、パターンP1を凹部分αの位置で切断してパターンP11、P12に分離する。 Furthermore, as shown in FIG. 4, a straight line distance (length) from the detected candidate position β * to the candidate position α * of the concave portion α that reaches the reflection point r by tracing the reflection point r is set as Wx, and the determination threshold value is set. , Wx ≧ W0, the detected candidate position α * is determined as the position of the recess α, and the pattern P1 is cut at the position of the recess α to obtain patterns P11 and P12. To separate.
そして、パターンP1が車両200のパターンP11とモータバイク300のパターンP12に分離されることにより、1つのパターンP1に認識対象の複数の物体(車両200とモータバイク300)の反射点rが含まれていても、パターンP1を各物体のパターンP11、P12に分離し、各物体をそれぞれの矩形R11、R12の属性推定に基づいて個別に認識することができる。
Then, by separating the pattern P1 into the pattern P11 of the
なお、1つのパターンP1に認識対象の3個以上の物体の反射点rが含まれている場合にも、同様にして各物体の境界の凹部分αを検出し、パターンP1を各凹部分αで分離することにより、分離された各物体のパターンを得てそれぞれの矩形を求め、各矩形の物体の属性推定に基づいて認識対象の各物体を個別に認識することができる。 Even when the reflection point r of three or more objects to be recognized is included in one pattern P1, the concave portion α at the boundary of each object is detected in the same manner, and the pattern P1 is detected as each concave portion α. By separating in (5), it is possible to obtain a pattern of each separated object, obtain each rectangle, and individually recognize each object to be recognized based on attribute estimation of each rectangular object.
そして、Wx≧W0であることを条件とするのは、例えばパターンP1が車両200のドアミラー等の膨らんだ部分を含むと、その部分でもパターンP1に同じような凹部や凸部が生じるので、これらの部分では分離しないようにするためである。
The condition that Wx ≧ W0 is that, for example, if the pattern P1 includes a bulging portion such as a door mirror of the
図5(a)はクラスタリング処理部5の反射点群のパターンが単独の車両200の前端および右側のエッジの反射点群のパターンP2である場合を示し、このとき、パターンP2が車両200のドアミラー200aの部分で微小ではあるが突出しているとすると、パターンP2のドアミラー200aの部分を拡大した同図(b)に示すように、パターンP2の反射点rをたどる軌跡がドアミラー200aの突出端部(図中の破線γで囲んだ部分)で所定角度以上変化して折曲し、この部分を凸部分βとして誤検出する可能性がある。さらに、この誤検出に基づき、反射点rをたどって前記軌跡がつぎに所定角度以上変化して折曲する部分(図中の破線δで囲んだ2個所のずれかの部分)を凹部分αとして誤検出すると、破線δの部分でパターンP2が誤って分離される。
FIG. 5A shows a case where the pattern of the reflection point group of the
ここで、図5(b)の破線γの部分と破線δの部分との直線距離ωxは、図4の凸部分βの候補位置β*から反射点rをたどる方向に到達する凹部分αの候補位置α*までの直線距離Wxに比して十分小さい。 Here, the linear distance ωx between the broken line γ portion and the broken line δ portion in FIG. 5B is the concave portion α reaching the reflection point r from the candidate position β * of the convex portion β in FIG. It is sufficiently smaller than the linear distance Wx to the candidate position α *.
そこで、前記した判定しきい値W0を、W0>ωxに設定し、認識対象の物体にドアミラー200aのような突出した部分がある場合に、図5(b)の破線δのその部分を凹部分αとして誤検出しないようにする。
Therefore, when the above-described determination threshold value W0 is set to W0> ωx, and there is a protruding portion such as the
つぎに、レーザレーダ2の反射点群のパターンが認識対象の1つの物体の反射点のパターンであっても、そのパターンに例えば路側のガードレール等の認識対象外の反射点が含まれるような場合には、パターンの分離が必要になる。
Next, even if the pattern of the reflection point group of the
図6は自車両1が進む方向にガードレール400に接近して認識対象の車両200が停車している場合を示し、この場合、反射点rのクラスタリング処理によって車両200とガードレール400の反射点rを含む反射点群のパターンP3が得られる。このパターンP3には、車両200の前端と左側のエッジの反射点rに基づくL字状部分L3の折曲の凸部分βと、車両200とガードレール400の境界の凹部分αとが存在する。
FIG. 6 shows a case where the
そして、分離処理部6は、上記した分離の処理により、パターンP3の反射点rを車両200側の端部からたどって凸部分βの候補位置を検出し、さらに、パターンP3の反射点rをたどって凹部分αの候補位置を検出し、この候補位置を凹部分αに確定して凹部分αでパターンP3を切断し、図6に示すように、前記パターンP11と同様の車両200のパターンP31と、ガードレール400のパターンP32とに分離する。なお、図6の凸部分βと凹部分αの直線距離WyもWy>W0である。また、パターンP3の反射点rをガードレール400側の端部からたどると、凸部βを検出したとしても、それに続く凹部分αは検出できないので、このような場合には、パターンP3の反射点rを車両200側の端部までたどった後、パターンP3の反射点rを車両200側の端部から再びたどって凸部βおよびそれに続く凹部分αを検出して凹部分αを確定する。
Then, the
したがって、パターンP3に認識対象の物体(例えば車両200)と他の物体(例えばガードレール)の反射点が含まれている場合にも、認識対象の物体のパターンP31を分離し、その物体を矩形R31の属性推定に基づいて認識することができる。 Accordingly, even when the pattern P3 includes reflection points of an object to be recognized (for example, the vehicle 200) and another object (for example, a guardrail), the pattern P31 of the object to be recognized is separated and the object is rectangular R31. Can be recognized based on the attribute estimation.
以上説明したように、本実施形態によれば、レーザレーダ2が受信した反射点群のパターンP1、P2、P3に複数の物体が含まれている場合や認識対象の物体と他の物体とが含まれている場合にも、パターンP1、P2、P3から認識対象の各物体のL字状部分L1、L2、L3を個別のパターンP11、P12、P31に分離し、車載カメラのような他のセンサをさらに備えて検出することなく、低コストに属性推定を行なって認識対象の各物体を確実に認識することができる。
As described above, according to the present embodiment, a case where a plurality of objects are included in the reflection point cloud patterns P1, P2, and P3 received by the
そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行なうことが可能であり、例えば、本発明の車載レーダは、レーザレーダに限るものではなく、ミリ波レーダ、超音波レーダ等であってもよいのは勿論である。また、車載レーダの探査範囲はどのようであってもよく、車載レーダは、自車両1の後方や左右側を探査するものであってもよく、自車両1の全周を探査するものであってもよい。そして、例えば車載レーダにより自車両の後方を探査し、自車両の後方の物体を認識する場合等にも本発明を同様に適用することができる。
The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. Of course, it is not limited to a radar, and may be a millimeter wave radar, an ultrasonic radar, or the like. The search range of the in-vehicle radar may be any, and the in-vehicle radar may search for the rear and left and right sides of the
つぎに、認識対象の物体は、前記した車両、モータバイク、自転車、歩行者等の一部であってもよく、それら以外の物体であってもよい。 Next, the recognition target object may be a part of the above-described vehicle, motorbike, bicycle, pedestrian, or the like, or may be an object other than these.
つぎに、分離処理部6により分離されたパターンに基づく物体属性推定部8の属性推定手法はどのようであってもよく、前記実施形態の推定手法に限るものではない。
Next, the attribute estimation method of the object attribute estimation unit 8 based on the pattern separated by the
そして、本発明は、車載レーダを備えた種々の車両の物体認識装置に適用することができる。 And this invention is applicable to the object recognition apparatus of the various vehicles provided with the vehicle-mounted radar.
1 自車両
2 レーザレーダ
3 受信処理部
4 認識処理部
5 クラスタリング処理部
6 分離処理部
8 物体属性推定部
L1、L2、L3 L字状部分
P1、P2、P3、P11、P12、P31、P32 パターン
R11、R12、R31 矩形
r 反射点
DESCRIPTION OF
Claims (1)
前記パターンから自車両に対して反対方向に屈曲したL字状部分を分離する分離手段と、
前記分離手段により分離された前記L字状部分が一部を構成する矩形から物体を認識する認識手段とを備えたことを特徴とする物体認識装置。 An object recognition device for recognizing an object based on a pattern of reflection points received by an on-vehicle radar,
Separating means for separating an L-shaped portion bent in the opposite direction with respect to the host vehicle from the pattern;
An object recognition apparatus comprising: a recognition means for recognizing an object from a rectangle in which the L-shaped part separated by the separation means constitutes a part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011037846A JP2012173230A (en) | 2011-02-24 | 2011-02-24 | Body recognizing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011037846A JP2012173230A (en) | 2011-02-24 | 2011-02-24 | Body recognizing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012173230A true JP2012173230A (en) | 2012-09-10 |
Family
ID=46976252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011037846A Withdrawn JP2012173230A (en) | 2011-02-24 | 2011-02-24 | Body recognizing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012173230A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017150895A (en) * | 2016-02-23 | 2017-08-31 | 株式会社デンソー | Object recognition device |
JP2017215214A (en) * | 2016-05-31 | 2017-12-07 | パナソニックIpマネジメント株式会社 | Moving object detection device, program and record medium |
CN109143220A (en) * | 2017-06-16 | 2019-01-04 | 电装波动株式会社 | Vehicle identifier, vehicle identification system, storage medium |
JP2019138804A (en) * | 2018-02-13 | 2019-08-22 | 株式会社デンソーウェーブ | Vehicle recognition device, vehicle recognition system and vehicle recognition program |
JPWO2021038267A1 (en) * | 2019-08-28 | 2021-03-04 | ||
JP2021086298A (en) * | 2019-11-26 | 2021-06-03 | 日立Astemo株式会社 | Control device and method for mobile body |
WO2021177351A1 (en) * | 2020-03-06 | 2021-09-10 | 株式会社デンソー | Object recognition device |
RU2779522C1 (en) * | 2019-08-28 | 2022-09-08 | Ниссан Мотор Ко., Лтд. | Object recognition method and object recognition device |
-
2011
- 2011-02-24 JP JP2011037846A patent/JP2012173230A/en not_active Withdrawn
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017150895A (en) * | 2016-02-23 | 2017-08-31 | 株式会社デンソー | Object recognition device |
JP2017215214A (en) * | 2016-05-31 | 2017-12-07 | パナソニックIpマネジメント株式会社 | Moving object detection device, program and record medium |
JP7103759B2 (en) | 2017-06-16 | 2022-07-20 | 株式会社デンソーウェーブ | Vehicle recognition device, vehicle recognition system, vehicle recognition program |
CN109143220A (en) * | 2017-06-16 | 2019-01-04 | 电装波动株式会社 | Vehicle identifier, vehicle identification system, storage medium |
JP2019003513A (en) * | 2017-06-16 | 2019-01-10 | 株式会社デンソーウェーブ | Vehicle recognition device, vehicle recognition system, and vehicle recognition program |
JP2019138804A (en) * | 2018-02-13 | 2019-08-22 | 株式会社デンソーウェーブ | Vehicle recognition device, vehicle recognition system and vehicle recognition program |
US20220270375A1 (en) * | 2019-08-28 | 2022-08-25 | Nissan Motor Co., Ltd. | Object Recognition Method and Object Recognition Device |
WO2021038267A1 (en) * | 2019-08-28 | 2021-03-04 | 日産自動車株式会社 | Object recognition method and object recognition device |
JPWO2021038267A1 (en) * | 2019-08-28 | 2021-03-04 | ||
RU2779522C1 (en) * | 2019-08-28 | 2022-09-08 | Ниссан Мотор Ко., Лтд. | Object recognition method and object recognition device |
JP7226565B2 (en) | 2019-08-28 | 2023-02-21 | 日産自動車株式会社 | Object recognition method and object recognition device |
US11861914B2 (en) | 2019-08-28 | 2024-01-02 | Nissan Motor Co., Ltd. | Object recognition method and object recognition device |
JP2021086298A (en) * | 2019-11-26 | 2021-06-03 | 日立Astemo株式会社 | Control device and method for mobile body |
WO2021106509A1 (en) * | 2019-11-26 | 2021-06-03 | 日立Astemo株式会社 | Apparatus and method for controlling mobile body |
JP7401273B2 (en) | 2019-11-26 | 2023-12-19 | 日立Astemo株式会社 | Mobile body control device and method |
WO2021177351A1 (en) * | 2020-03-06 | 2021-09-10 | 株式会社デンソー | Object recognition device |
JP2021139814A (en) * | 2020-03-06 | 2021-09-16 | 株式会社デンソー | Object recognition device |
JP7310658B2 (en) | 2020-03-06 | 2023-07-19 | 株式会社デンソー | Object recognition device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5700940B2 (en) | Object recognition device | |
JP5583523B2 (en) | Object recognition device | |
Grubb et al. | 3D vision sensing for improved pedestrian safety | |
JP2012173230A (en) | Body recognizing device | |
JP4558758B2 (en) | Obstacle recognition device for vehicles | |
US8164432B2 (en) | Apparatus, method for detecting critical areas and pedestrian detection apparatus using the same | |
US8040227B2 (en) | Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device | |
US20170297488A1 (en) | Surround view camera system for object detection and tracking | |
US9280900B2 (en) | Vehicle external environment recognition device | |
JP5178276B2 (en) | Image recognition device | |
JP2011186584A (en) | Object recognition apparatus | |
JP2012089114A (en) | Obstacle recognition device | |
US20200307560A1 (en) | Apparatus and method for controlling vehicle | |
US20140002658A1 (en) | Overtaking vehicle warning system and overtaking vehicle warning method | |
JP2011065400A (en) | Object recognition apparatus | |
CN108027237B (en) | Periphery recognition device | |
JP2015153162A (en) | Boundary line recognition device | |
WO2017043358A1 (en) | Object detecting device and object detecting method | |
US20120155711A1 (en) | Apparatus and method for analyzing video | |
Singh et al. | SideEye: Mobile assistant for blind spot monitoring | |
JP2006140636A (en) | Obstacle detecting device and method | |
KR101750615B1 (en) | Device and method for object recognition and detection | |
EP2662828B1 (en) | A vision system and method for a motor vehicle | |
JP2012118683A (en) | Pedestrian recognition device | |
JP4762830B2 (en) | Perimeter monitoring system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |