JP2012173230A - Body recognizing device - Google Patents

Body recognizing device Download PDF

Info

Publication number
JP2012173230A
JP2012173230A JP2011037846A JP2011037846A JP2012173230A JP 2012173230 A JP2012173230 A JP 2012173230A JP 2011037846 A JP2011037846 A JP 2011037846A JP 2011037846 A JP2011037846 A JP 2011037846A JP 2012173230 A JP2012173230 A JP 2012173230A
Authority
JP
Japan
Prior art keywords
pattern
vehicle
reflection point
recognized
point group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011037846A
Other languages
Japanese (ja)
Inventor
Hanako Yamashiro
華子 山代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2011037846A priority Critical patent/JP2012173230A/en
Publication of JP2012173230A publication Critical patent/JP2012173230A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a body recognizing device capable of recognizing a body of a recognition object from a pattern of a reflection point group received by an onboard radar, at a low cost without additionally installing another sensor such as an onboard camera.SOLUTION: A body recognizing device separates, by using a separation processing unit 6, an L-shaped pattern portion bent in a direction opposite to an own vehicle 1 out of a pattern of a reflection point group received by a laser radar 2, and recognizes a body of a recognition object by using a body attribute estimating unit 8 based on a rectangle of which one part is constituted by the L-shaped pattern portion separated by the separation processing unit 6.

Description

この発明は、車載レーダが受信した反射点群のパターンから車両、自転車、人(歩行者)等の物体を認識する物体認識装置に関する。   The present invention relates to an object recognition apparatus for recognizing an object such as a vehicle, a bicycle, or a person (pedestrian) from a pattern of reflection points received by an in-vehicle radar.

従来、車両の分野においては、様々な予防安全技術の研究開発が行われており、前方衝突被害軽減システムや後側方警報システムなどの種々の予防安全システムが実用化されつつある。   Conventionally, various preventive safety technologies have been researched and developed in the field of vehicles, and various preventive safety systems such as a front collision damage reduction system and a rear side warning system are being put into practical use.

これらのシステムにおいて、レーザレーダに代表される車載レーダが受信した反射点群のパターンから車両、自転車、歩行者等の物体を区別して認識することができれば、安価に予防安全システムの適用範囲が広がる。   In these systems, if an object such as a vehicle, a bicycle, or a pedestrian can be distinguished and recognized from the pattern of reflection points received by an on-vehicle radar represented by a laser radar, the applicable range of the preventive safety system can be expanded at a low cost. .

そして、車載レーダとしてのレーザレーダが受信した反射点群のパターンが、設定したL、I、Oの3種類のパターンのいずれに属するかによって、物体を区別して認識することが提案されている(例えば、非特許文献1参照)。   Then, it has been proposed to distinguish and recognize an object depending on which of the set three types of patterns L, I, and O the reflection point group pattern received by the laser radar as the vehicle-mounted radar belongs to ( For example, refer nonpatent literature 1).

ステファン ウェンダー(Stefan Wender)、他3名、「クラシフィケーション オブ レーザースキャナー メジャーメンツ アット インターセクション シナリオズ ウイズ オートマティク パラメータ オプティマイゼーション(Classification of Laserscanner Measurements at Intersection Scenarios with Automatic Parameter Optimization)」、Intelligent Vehicles Symposium,2005.Proceedings.IEEE、IEEE、2005年6月、p.94−99Stephan Wender, 3 others, “Classification of Laserscanner Measurement at Interstitial Measurement at Interstitial Measurement in Interstitial Stimulation Measurement.” 2005. Proceedings. IEEE, IEEE, June 2005, p. 94-99

非特許文献1に記載のようにレーザレーダ受信した反射点群のパターンから物体を区別して認識する場合、認識対象の物体である車両、モータバイク、自転車、歩行者等を矩形とみなし、前記反射点群のパターンが矩形の一部を形成するとして、その矩形が車両、モータバイク、自転車、歩行者のいずれの矩形に属するかを推定(属性推定)し、物体を認識することが考えられる。   As described in Non-Patent Document 1, when recognizing and recognizing an object from the pattern of the reflection point group received by laser radar, the object, vehicle, motorbike, bicycle, pedestrian, or the like that is the object to be recognized is regarded as a rectangle, and the reflection is performed. Assuming that the point cloud pattern forms a part of a rectangle, it is conceivable that an object is recognized by estimating (attribute estimation) whether the rectangle belongs to a rectangle of a vehicle, a motorbike, a bicycle, or a pedestrian.

図7は上記の属性推定による物体認識の一例を示す。この場合、自車両100のレーザレーダ101により前方をスキャンし、レーザレーダ101からパルス出力されたレーザが前方の認識対象の車両200、モータバイク300それぞれの一部(図7では左側および後端部)のエッジで反射することにより、これらのエッジに沿った車両200、モータバイク300それぞれの各反射点rがレーザレーダ101に受信されて検出される。そして、各反射点rはクラスタリング処理により近いもの同士が1つのクラスタにまとめられて反射点群を形成する。   FIG. 7 shows an example of object recognition based on the attribute estimation. In this case, the laser radar 101 of the host vehicle 100 scans the front, and the laser pulse output from the laser radar 101 is a part of each of the vehicle 200 and the motorbike 300 to be recognized in front (left side and rear end in FIG. 7). The reflection points r of the vehicle 200 and the motorbike 300 along these edges are received by the laser radar 101 and detected. Then, the reflection points r that are closer together by the clustering process are combined into one cluster to form a reflection point group.

このとき、自車両100からみて車両200とモータバイク300が離れていれば、車両200の反射点群とモータバイク300の反射点群とは別個のクラスタCa、クラスタCbの反射点群となり、クラスタCa、Cbそれぞれの反射点群のL字状のパターンに基づく矩形Ra、Rbの属性推定から、自車100の前方の車両200、モータバイク300を認識できる。   At this time, if the vehicle 200 and the motorbike 300 are separated from the host vehicle 100, the reflection point group of the vehicle 200 and the reflection point group of the motorbike 300 become separate cluster Ca and cluster Cb reflection point groups. The vehicle 200 and the motorbike 300 in front of the host vehicle 100 can be recognized from the attribute estimation of the rectangles Ra and Rb based on the L-shaped patterns of the reflection points of Ca and Cb.

しかしながら、車両200とモータバイク300とが自車100からみて接近していると、つぎに説明するように、属性推定が困難になって車両200およびモータバイク300を認識できなくなる。   However, if the vehicle 200 and the motorbike 300 are close to each other when viewed from the host vehicle 100, attribute estimation becomes difficult and the vehicle 200 and the motorbike 300 cannot be recognized, as will be described below.

図8は属性推定が困難になる一例を示す。この場合は、自車両100からみて車両200とモータバイク300が接近し、車両200の各反射点rとモータバイク300の各反射点rとが連続して繋がったようになり、それらの反射点rは1つのクラスタCcの反射点群のパターンにまとめられる。このとき、クラスタCcの反射点群のパターンに基づく矩形Rcは車両、モータバイク、自転車、歩行者のいずれの矩形にも該当しないため、矩形Rcからの認識対象の物体の属性推定が困難になり、車両200およびモータバイク300を認識できなくなる。   FIG. 8 shows an example in which attribute estimation becomes difficult. In this case, the vehicle 200 and the motorbike 300 approach each other when viewed from the host vehicle 100, and the reflection points r of the vehicle 200 and the reflection points r of the motorbike 300 are continuously connected. r is collected into a pattern of reflection point groups of one cluster Cc. At this time, since the rectangle Rc based on the pattern of the reflection point group of the cluster Cc does not correspond to any rectangle of a vehicle, a motorbike, a bicycle, or a pedestrian, it is difficult to estimate the attribute of the recognition target object from the rectangle Rc. The vehicle 200 and the motorbike 300 cannot be recognized.

そして、上記のように認識対象の物体の属性推定が困難になって認識できなくなる事態は、認識対象の複数の物体が接近している場合だけでなく、例えば認識対象の物体と他の物体(例えばガードレール等)とが接近し、それらの反射点が連続して繋がったようになる場合にも生じる。   As described above, the situation in which the attribute estimation of the recognition target object becomes difficult and the recognition cannot be performed is not only when the plurality of recognition target objects are close to each other, for example, the recognition target object and other objects ( This also occurs when, for example, a guard rail or the like approaches and the reflection points are continuously connected.

なお、自車両100に車載カメラのような他のセンサをさらに備え、このセンサにより認識対象の各物体を検出し、レーザレーダ101が受信した反射点群をクラスタリング処理する際に認識対象の物体毎に別個のクラスタの反射点群としてまとめるようにして、認識対象の複数の物体が接近している場合や、認識対象の物体と他の物体とが接近している場合にもそれらの物体の認識が行なえるようにすることが考えられるが、この場合は、車載カメラのような他のセンサをさらに備える必要があり、高価になって実用的でない。   In addition, the host vehicle 100 further includes another sensor such as an in-vehicle camera, and each sensor to be recognized is detected by the sensor, and each object to be recognized is clustered when the reflection point group received by the laser radar 101 is clustered. As a group of reflection points in separate clusters, recognition is possible even when multiple objects to be recognized are close to each other or when the object to be recognized is close to other objects. However, in this case, it is necessary to further include another sensor such as a vehicle-mounted camera, which is expensive and impractical.

本発明は、車載カメラのような他のセンサをさらに備えることなく低コストに、車載レーダが受信した反射点群のパターンから認識対象の物体を認識できるようにすることを目的とする。なお、本発明において、「L字状部分」には自車両からみてL字の部分および、L字を左右反転した逆L字の部分を含む。   An object of the present invention is to enable recognition of an object to be recognized from a pattern of a reflection point group received by an in-vehicle radar at a low cost without further providing another sensor such as an in-vehicle camera. In the present invention, the “L-shaped portion” includes an L-shaped portion as viewed from the host vehicle and an inverted L-shaped portion obtained by horizontally inverting the L-shape.

上記した目的を達成するために、本発明の物体認識装置は、車載レーダが受信した反射点群のパターンに基づいて物体を認識する物体認識装置であって、前記パターンから自車両に対して反対方向に屈曲したL字状部分を分離する分離手段と、前記分離手段により分離された前記L字状部分が一部を構成する矩形から物体を認識する認識手段とを備えたことを特徴としている(請求項1)。   In order to achieve the above object, an object recognition apparatus of the present invention is an object recognition apparatus that recognizes an object based on a pattern of a reflection point group received by an in-vehicle radar, and is opposed to the vehicle from the pattern. Separating means for separating an L-shaped portion bent in a direction, and recognition means for recognizing an object from a rectangle that constitutes a part of the L-shaped portion separated by the separating means. (Claim 1).

請求項1の発明によれば、車載レーダが受信した反射点群のパターンにおける認識対象の物体の部分は、自車両と反対方向に屈曲したL字状になることに着目して、分離手段により車載レーダが受信した反射点群のパターンから該当するL字状部分が分離される。さらに、車両、モータバイク、自転車、歩行者等の物体を矩形とみなし、分離された各L字状部分が一部を構成する矩形に基づき、認識手段によって認識対象の各物体を認識することができる。   According to the invention of claim 1, focusing on the fact that the part of the object to be recognized in the pattern of the reflection point group received by the in-vehicle radar is L-shaped bent in the opposite direction to the host vehicle, the separating means The corresponding L-shaped part is separated from the pattern of the reflection point group received by the in-vehicle radar. Furthermore, an object such as a vehicle, a motorbike, a bicycle, a pedestrian, etc. is regarded as a rectangle, and each object to be recognized can be recognized by the recognition means based on a rectangle in which each separated L-shaped part constitutes a part. it can.

この場合、前記反射点群のパターンに認識対象の複数の物体の反射点が含まれていても、各物体の反射点は異なるL字状部分を形成するので、これらのL字状部分を分離することで、各L字状部分のパターンに基づいて認識対象の各物体を一物体(同一物体)として誤認識することなく確実に認識できる。   In this case, even if the reflection point group pattern includes reflection points of a plurality of objects to be recognized, the reflection points of each object form different L-shaped parts, so that these L-shaped parts are separated. By doing so, each object to be recognized can be reliably recognized as one object (same object) based on the pattern of each L-shaped portion without being erroneously recognized.

また、前記反射点群のパターンに認識対象の物体と認識対象外の他の物体の反射点が含まれていても、認識対象の物体の反射点を前記反射点群のパターンからL字状部分として分離することができ、分離したL字状部分のパターンに基づいて認識対象の物体を確実に認識することができる。   In addition, even if the reflection point group pattern includes reflection points of a recognition target object and other objects that are not recognition targets, the reflection point of the recognition target object is changed to an L-shaped portion from the reflection point group pattern. And the object to be recognized can be reliably recognized based on the pattern of the separated L-shaped part.

したがって、車載カメラのような他のセンサをさらに備えることなく低コストに、車載レーダが受信した反射点群のパターンから認識対象の物体の部分を確実に分離してその物体を確実に認識することができる。   Therefore, it is possible to reliably separate the object part to be recognized from the reflection point cloud pattern received by the in-vehicle radar at a low cost without further providing other sensors such as an in-vehicle camera. Can do.

本発明の物体認識装置の一実施形態のブロック図である。It is a block diagram of one embodiment of an object recognition device of the present invention. 図1の認識処理の説明図である。It is explanatory drawing of the recognition process of FIG. 図1の動作説明用のフローチャートである。It is a flowchart for operation | movement description of FIG. 図1のクラスタリング処理部から分離処理部に送られる反射点群のパターンの一例の説明図である。It is explanatory drawing of an example of the pattern of the reflective point group sent to the isolation | separation processing part from the clustering process part of FIG. (a)は図1のクラスタリング処理部から分離処理部に送られる反射点群のパターンの他の例の説明図、(b)はその一部の拡大図である。(A) is explanatory drawing of the other example of the pattern of the reflective point group sent to the isolation | separation processing part from the clustering process part of FIG. 1, (b) is the one part enlarged view. 図1のクラスタリング処理部から分離処理部に送られる反射点群のパターンのさらに他の例の分離、認識の説明図である。It is explanatory drawing of isolation | separation and recognition of the further another example of the pattern of the reflective point group sent to the isolation | separation processing part from the clustering process part of FIG. 認識対象の複数の物体それぞれの反射点群のパターンが得られる場合の認識処理の説明図である。It is explanatory drawing of the recognition process in case the pattern of the reflection point group of each of the some object of recognition object is obtained. 認識対象の複数の物体を含む反射点群の1つのパターンが得られる場合の従来の認識処理の説明図である。It is explanatory drawing of the conventional recognition process in case one pattern of the reflective point group containing the several object of recognition object is obtained.

本発明の物体認識装置の一実施形態について、図1〜図6を参照して説明する。   An embodiment of the object recognition apparatus of the present invention will be described with reference to FIGS.

図1は自車両1が備える物体認識装置の構成を示し、この物体認識装置は車載レーダとしてのレーザレーダ2を備える。レーザレーダ2は、自車両1の前方の所定範囲(例えばほぼ180°の範囲)を探査する広角の測距レーダであり、近赤外線を利用すること等により、自転車や歩行者などの反射も得られる。そして、レーザレーダ2は、例えば自車両1のフロントバンパーに取り付けられ、自車両1の前方を例えば80ms秒間隔のフレーム毎に探査しつつレーザパルスを出力し、前方の他の車両(自動車)、モータバイク、自転車、歩行者(人)等の物体での反射を受信して各反射点の位置データ(自車両1からの距離および左右方向の位置のデータ)を受信処理部3に出力する。なお、レーザレーダ2は、実際には前方を上下左右に走査するが、ここでは、説明を簡単にするため、レーザレーダ2は左右方向に探査するものとする。   FIG. 1 shows a configuration of an object recognition device provided in the own vehicle 1, and this object recognition device includes a laser radar 2 as an in-vehicle radar. The laser radar 2 is a wide-angle ranging radar that searches a predetermined range in front of the host vehicle 1 (for example, a range of about 180 °). By using near-infrared rays, reflection from a bicycle or a pedestrian can be obtained. It is done. The laser radar 2 is attached to, for example, a front bumper of the host vehicle 1 and outputs a laser pulse while exploring the front of the host vehicle 1 for each frame at intervals of, for example, 80 ms. Reflection on an object such as a motorcycle, bicycle, pedestrian (person), etc. is received, and position data (distance from the vehicle 1 and position data in the left-right direction) of each reflection point is output to the reception processing unit 3. The laser radar 2 actually scans the front, up, down, left, and right, but here, the laser radar 2 searches in the left-right direction for the sake of simplicity.

受信処理部3は、レーザレーダ2の各反射点の位置データを受け取ってマイクロコンピュータ構成の認識処理部4のクラスタリング処理部5に送る。   The reception processing unit 3 receives the position data of each reflection point of the laser radar 2 and sends it to the clustering processing unit 5 of the recognition processing unit 4 having a microcomputer configuration.

図2は物体認識装置の物体認識の処理過程を模式的に示し、図7、図8で説明した場合と同様に、自車両1のレーザレーダ2から自車両1の前方をスキャンしつつパルス出力されたレーザが前方の認識対象の物体である車両200、モータバイク300それぞれの一部(図2では左側および後部)のエッジで反射し、これらのエッジでの反射がレーザレーダ2に受信されて車両200、モータバイク300それぞれのエッジに沿った各反射点rが検出され、受信処理部3は各反射点rの位置データを図1のクラスタリング処理部5に送る。   FIG. 2 schematically shows an object recognition processing process of the object recognition apparatus, and outputs a pulse while scanning the front of the own vehicle 1 from the laser radar 2 of the own vehicle 1 as in the case described with reference to FIGS. The reflected laser is reflected at the edges of a part of the vehicle 200 and the motorbike 300 (the left side and the rear in FIG. 2) which are objects to be recognized in front, and the reflection at these edges is received by the laser radar 2 Each reflection point r along the edge of each of the vehicle 200 and the motorbike 300 is detected, and the reception processing unit 3 sends the position data of each reflection point r to the clustering processing unit 5 in FIG.

クラスタリング処理部5は、各反射点rの位置データに基づき、例えば周知のモルフォロジー演算を用いて近傍の各反射点rを連結し、近傍の反射点r同士をかたまり(反射点群のクラスタ)にまとめてクラスタリング処理する。このクラスタリング処理により形成される図2のクラスタC1の反射点群のパターンP1が、本発明の車載レーダが受信した反射点群のパターンである。   Based on the position data of each reflection point r, the clustering processing unit 5 connects the reflection points r in the vicinity using, for example, a well-known morphological operation, and sets the reflection points r in the vicinity as a cluster (cluster of reflection points). Perform clustering processing collectively. The reflection point group pattern P1 of the cluster C1 of FIG. 2 formed by this clustering processing is the reflection point group pattern received by the in-vehicle radar of the present invention.

そして、図2の反射点群のパターンP1は、障害物となる認識対象の車両200、モータバイク300が自車両1からみて接近しているため、それらの反射点rがクラスタC1の反射点群として連結されて含まれる。なお、車両200、モータバイク300が自車両1からみて離れている場合には、図7で説明したように、クラスタリング処理によって車両200の反射点群のパターンと、モータバイク300の反射点群のパターンとが別個に形成される。   The pattern P1 of the reflection point group in FIG. 2 is that the vehicle 200 to be recognized and the motorbike 300 that are obstacles approach each other as viewed from the own vehicle 1, so that the reflection point r is the reflection point group of the cluster C1. Concatenated as included. When the vehicle 200 and the motorbike 300 are separated from the host vehicle 1, as described in FIG. 7, the reflection point cloud pattern of the vehicle 200 and the reflection point cloud of the motorbike 300 are processed by the clustering process. The pattern is formed separately.

つぎに、クラスタリング処理部5の前記反射点群のパターンP1は、本発明の分離手段を形成する図1の分離処理部6に送られる。分離処理部6はパターンP1から自車両1に対して反対方向に屈曲したL字状部分L1、L2を分離する。   Next, the reflection point group pattern P1 of the clustering processing unit 5 is sent to the separation processing unit 6 of FIG. 1 forming the separation means of the present invention. The separation processing unit 6 separates L-shaped portions L1 and L2 bent in the opposite direction with respect to the host vehicle 1 from the pattern P1.

すなわち、パターンP1に車両200、モータバイク300のような認識対象の複数の物体が含まれる場合、通常、自車両1は各物体を右手前方(または左手前方)に検出することになり、各物体でのレーザの反射点はL字(または左右反転した逆L字)の2辺のエッジの反射点になる。この場合、各物体の反射点群はパターンP1のL字状部分L1、L2のような自車両1に対して反対方向に屈曲したL字状部分を形成する。そこで、分離処理部6は、パターンP1のL字状部分L1、L2を、それぞれ物体の反射点群のパターン(図2のパターンP11、P12)であるとして分離する。この分離の手法は後述する。なお、パターンP1が認識対象の1つの物体のパターンであれば、L字状部分が1つだけになるので分離後のパターンも1つになる。   That is, when the pattern P1 includes a plurality of objects to be recognized such as the vehicle 200 and the motorbike 300, the host vehicle 1 normally detects each object in the right hand front (or left hand front). The reflection point of the laser at is the reflection point of the edge of the two sides of the L shape (or the inverted L shape reversed left and right). In this case, the reflection point group of each object forms an L-shaped portion bent in the opposite direction with respect to the own vehicle 1 such as the L-shaped portions L1 and L2 of the pattern P1. Therefore, the separation processing unit 6 separates the L-shaped portions L1 and L2 of the pattern P1 as the reflection point group patterns of the object (patterns P11 and P12 in FIG. 2). This separation method will be described later. If the pattern P1 is a pattern of one object to be recognized, there will be only one L-shaped part, so there will be only one pattern after separation.

分離処理部6で分離されたパターンP11、P12は、設定された複数フレームに亘って追跡するため識別ラベルが付されてRAMやフラッシュメモリ等からなる図1の記憶部7に書き込まれて保持されるとともに、本発明の認識手段を形成する図1の物体属性推定部8に送られる。   The patterns P11 and P12 separated by the separation processing unit 6 are written and held in the storage unit 7 of FIG. 1 having an identification label for tracking over a plurality of set frames and configured by a RAM, a flash memory, or the like. At the same time, it is sent to the object attribute estimation unit 8 of FIG. 1 forming the recognition means of the present invention.

物体属性推定部8は、外乱等による誤った分離結果を排除するため、その間の自車両1と前方の各物体の相対的な移動等を考慮して複数フレームに亘ってパターンP11、P12を追跡し、前記複数フレームに亘って同じパターンP11、P12が検出されること等を条件に、パターンP11、P12がそれぞれ認識対象の物体のパターンであることを判断し、パターンP11、P12それぞれをL字状(または逆L字状)の2辺(一部)とする図2の矩形R11、R12を作図して形成する。さらに、例えば、形成した矩形R11、R12と車両、モータバイク、自転車、歩行者等の認識対象の物体毎の設定された矩形とのパターンマッチングにより、矩形R11、R12がどの物体の矩形に属するかを判定して矩形R11、R12の物体の属性(車両、モータバイク、自転車、歩行者等のいずれに属するか)を推定して認識する。そして、推定結果を図1の運転支援部9に送る。   The object attribute estimation unit 8 tracks the patterns P11 and P12 over a plurality of frames in consideration of the relative movement of the host vehicle 1 and each of the objects ahead in order to eliminate erroneous separation results due to disturbance or the like. Then, on the condition that the same patterns P11 and P12 are detected over the plurality of frames, it is determined that the patterns P11 and P12 are the patterns of the objects to be recognized, and each of the patterns P11 and P12 is L-shaped. The rectangles R11 and R12 of FIG. 2 having two sides (parts) of the shape (or inverted L shape) are drawn and formed. Further, for example, by the pattern matching between the formed rectangles R11 and R12 and the rectangles set for each recognition target object such as a vehicle, a motorbike, a bicycle, and a pedestrian, which rectangle the rectangles R11 and R12 belong to And the attributes of the objects of the rectangles R11 and R12 (whether they belong to a vehicle, a motorbike, a bicycle, a pedestrian, etc.) are estimated and recognized. And an estimation result is sent to the driving assistance part 9 of FIG.

運転支援部9は、物体属性推定部8の認識結果から、自車両1の前方に車両200、モータバイク300が障害物として存在することを把握し、認識結果に応じた予防安全の運転支援を行う。   The driving support unit 9 grasps from the recognition result of the object attribute estimation unit 8 that the vehicle 200 and the motorbike 300 exist as obstacles in front of the host vehicle 1, and provides driving support for preventive safety according to the recognition result. Do.

図3のステップS1〜S6は上記物体認識装置の概略の処理手順を示し、まず、受信処理部3によりレーザレーダ2の各反射点rの位置データを取得し(ステップS1)、そのデータに基づき、クラスタリング処理部5により各反射点rをクラスタリングする(ステップS2)。   Steps S1 to S6 in FIG. 3 show an outline processing procedure of the object recognition apparatus. First, the reception processing unit 3 acquires position data of each reflection point r of the laser radar 2 (step S1), and based on the data. Then, each reflection point r is clustered by the clustering processing unit 5 (step S2).

つぎに、分離処理部部6により、クラスタリング処理部5の処理結果の反射点群のパターンP1から自車両1に対して反対方向に屈曲したL字状部分L1、L2を分離する。   Next, the separation processing unit 6 separates the L-shaped portions L1 and L2 that are bent in the opposite direction with respect to the host vehicle 1 from the reflection point group pattern P1 of the processing result of the clustering processing unit 5.

そして、物体属性推定部8により、L字状部分L1、L2のパターンP11、P12を複数フレームに亘って追跡し(ステップS4)、この追跡によりL字状部分L1、L2のパターンP11、P12が認識対象の物体のパターンであることを確認すると、L字状部分L1、L2のパターンP11、P2の矩形R11、R12の物体の属性を推定してその物体を認識する(ステップS5)。   Then, the object attribute estimation unit 8 tracks the patterns P11 and P12 of the L-shaped portions L1 and L2 over a plurality of frames (step S4), and the patterns P11 and P12 of the L-shaped portions L1 and L2 are traced by this tracking. If the pattern of the object to be recognized is confirmed, the attributes of the objects of the rectangles R11 and R12 of the patterns P11 and P2 of the L-shaped portions L1 and L2 are estimated to recognize the object (step S5).

さらに、物体属性推定部8の認識結果に基づき、運転支援部9により必要な運転支援を行なう。   Further, based on the recognition result of the object attribute estimation unit 8, the driving support unit 9 performs necessary driving support.

つぎに、分離処理部6の分離手法について説明する。   Next, a separation method of the separation processing unit 6 will be described.

前記したパターンP1の各L字状部分L1、L2をそれぞれ物体(車両200、モータバイク300)の反射点群のパターン(図2のパターンP11、P12)に分離する場合、例えばL字状の基準パターンを用いたパターンマッチングで行なうことも考えられるが、本実施形態では、パターンP1の各L字状部分L1、L2のつなぎ部分(図2に破線で囲んだ部分)が自車両1からみて凹んだ凹部分αになり、パターンP1のいずれかの端から反射点rをたどると、L字状部分L1またはL字状部分L2の折曲点の凸部分(図2に1点破線で囲んだ部分)βを通って凹部分αに到達することに着目し、つぎに説明するようにしてパターンPを凹部分(つなぎ部分)αで切断してパターンP11、P12に分離する。   When separating the L-shaped portions L1 and L2 of the pattern P1 into the reflection point group patterns (patterns P11 and P12 in FIG. 2) of the object (vehicle 200, motorbike 300), respectively, for example, an L-shaped reference Although it is conceivable to perform pattern matching using a pattern, in this embodiment, the connecting portions of the L-shaped portions L1 and L2 of the pattern P1 (portions surrounded by broken lines in FIG. 2) are recessed when viewed from the own vehicle 1. When the reflection point r is traced from either end of the pattern P1, the convex portion of the bending point of the L-shaped portion L1 or L-shaped portion L2 (enclosed by a one-dot broken line in FIG. 2) Part) Focusing on reaching the concave portion α through β, the pattern P is cut at the concave portion (connecting portion) α and separated into patterns P11 and P12 as described below.

すなわち、認識対象の物体が矩形であるという前提のもとでは、レーザレーダ2の反射点群のクラスタC1のパターンP1は、1つの物体(例えば車両200またはモータバイク300)のパターンであれば凹部分αは存在しないが、接近した複数の物体(例えば車両200とモータバイク300)を含むパターンであれば各物体のパターン(例えばパターンP11、P12)の境界に凹部分αが存在し、その前にL字(または逆L字)の折曲の凸部分βが存在する。   That is, on the assumption that the object to be recognized is a rectangle, the pattern P1 of the cluster C1 of the reflection point group of the laser radar 2 is concave if it is a pattern of one object (for example, the vehicle 200 or the motorbike 300). Although the portion α does not exist, if the pattern includes a plurality of objects (for example, the vehicle 200 and the motorbike 300) that are close to each other, a concave portion α exists at the boundary between the patterns (for example, the patterns P11 and P12) of each object. There is a convex portion β of an L-shaped (or reverse L-shaped) bent.

そこで、分離処理部6は、パターンP1の一端または他端から反射点rをたどり、その軌跡の向きが所定角度以上変わって前記軌跡が自車両1の反対側に屈曲する部分を凸部分βの候補位置β*として検出し、それからさらに反射点rをたどって軌跡が所定角度以上変化して屈曲する部分を凹部分αの候補位置α*として検出する。   Therefore, the separation processing unit 6 traces the reflection point r from one end or the other end of the pattern P1, changes the direction of the trajectory by a predetermined angle or more, and converts the portion where the trajectory is bent to the opposite side of the own vehicle 1 to the convex portion β. A candidate position β * is detected, and then a part that is bent by tracing the reflection point r and changing the trajectory by a predetermined angle or more is detected as a candidate position α * of the concave portion α.

図4は接近した車両200とモータバイク300のパターンP1における候補位置α*、β*を示し、パターンP1の一端側(例えば図4の上側の端部)と凹部分αの候補位置α*との間にモータバイク300の凸部分βの候補位置β*があり、パターンP1の他端側(例えば図4の下側の端部)と凹部分αの候補位置α*との間に車両200の凸部分βの候補位置β*がある。この場合、検出した車両200の凸部分βの候補位置β*またはモータバイク300の凸部分βの候補位置β*から前記軌跡をたどり、所定角度以上変化して折曲する部分が凹部分αの候補位置α*として検出される。   FIG. 4 shows the candidate positions α * and β * in the pattern P1 of the vehicle 200 and the motorbike 300 that are close to each other, and one end side (for example, the upper end portion in FIG. 4) of the pattern P1 and the candidate position α * of the concave portion α. There is a candidate position β * of the convex portion β of the motorbike 300 between the other end side (for example, the lower end portion of FIG. 4) of the pattern P1 and the candidate position α * of the concave portion α. There is a candidate position β * of the convex portion β. In this case, the trajectory is traced from the detected candidate position β * of the convex portion β of the vehicle 200 or the candidate position β * of the convex portion β of the motorbike 300, and the portion that is bent by changing by a predetermined angle or more is the concave portion α. It is detected as a candidate position α *.

さらに、図4に示すように、検出した候補位置β*から反射点rをたどって到達する凹部分αの候補位置α*までの直線距離(長さ)をWxとし、設定され判定しきい値の長さをW0とすると、Wx≧W0であることを条件に、検出した候補位置α*を凹部αの位置として確定し、パターンP1を凹部分αの位置で切断してパターンP11、P12に分離する。   Furthermore, as shown in FIG. 4, a straight line distance (length) from the detected candidate position β * to the candidate position α * of the concave portion α that reaches the reflection point r by tracing the reflection point r is set as Wx, and the determination threshold value is set. , Wx ≧ W0, the detected candidate position α * is determined as the position of the recess α, and the pattern P1 is cut at the position of the recess α to obtain patterns P11 and P12. To separate.

そして、パターンP1が車両200のパターンP11とモータバイク300のパターンP12に分離されることにより、1つのパターンP1に認識対象の複数の物体(車両200とモータバイク300)の反射点rが含まれていても、パターンP1を各物体のパターンP11、P12に分離し、各物体をそれぞれの矩形R11、R12の属性推定に基づいて個別に認識することができる。   Then, by separating the pattern P1 into the pattern P11 of the vehicle 200 and the pattern P12 of the motorbike 300, one pattern P1 includes the reflection points r of a plurality of objects to be recognized (the vehicle 200 and the motorbike 300). Even so, the pattern P1 can be separated into the patterns P11 and P12 of each object, and each object can be individually recognized based on the attribute estimation of the respective rectangles R11 and R12.

なお、1つのパターンP1に認識対象の3個以上の物体の反射点rが含まれている場合にも、同様にして各物体の境界の凹部分αを検出し、パターンP1を各凹部分αで分離することにより、分離された各物体のパターンを得てそれぞれの矩形を求め、各矩形の物体の属性推定に基づいて認識対象の各物体を個別に認識することができる。   Even when the reflection point r of three or more objects to be recognized is included in one pattern P1, the concave portion α at the boundary of each object is detected in the same manner, and the pattern P1 is detected as each concave portion α. By separating in (5), it is possible to obtain a pattern of each separated object, obtain each rectangle, and individually recognize each object to be recognized based on attribute estimation of each rectangular object.

そして、Wx≧W0であることを条件とするのは、例えばパターンP1が車両200のドアミラー等の膨らんだ部分を含むと、その部分でもパターンP1に同じような凹部や凸部が生じるので、これらの部分では分離しないようにするためである。   The condition that Wx ≧ W0 is that, for example, if the pattern P1 includes a bulging portion such as a door mirror of the vehicle 200, the same concave and convex portions are generated in the pattern P1. This is to prevent separation in the part of.

図5(a)はクラスタリング処理部5の反射点群のパターンが単独の車両200の前端および右側のエッジの反射点群のパターンP2である場合を示し、このとき、パターンP2が車両200のドアミラー200aの部分で微小ではあるが突出しているとすると、パターンP2のドアミラー200aの部分を拡大した同図(b)に示すように、パターンP2の反射点rをたどる軌跡がドアミラー200aの突出端部(図中の破線γで囲んだ部分)で所定角度以上変化して折曲し、この部分を凸部分βとして誤検出する可能性がある。さらに、この誤検出に基づき、反射点rをたどって前記軌跡がつぎに所定角度以上変化して折曲する部分(図中の破線δで囲んだ2個所のずれかの部分)を凹部分αとして誤検出すると、破線δの部分でパターンP2が誤って分離される。   FIG. 5A shows a case where the pattern of the reflection point group of the clustering processing unit 5 is the reflection point group pattern P2 of the front end and the right edge of the single vehicle 200. At this time, the pattern P2 is the door mirror of the vehicle 200. Assuming that the protrusion 200a is small but protrudes in the portion 200a, the locus following the reflection point r of the pattern P2 is a protruding end of the door mirror 200a as shown in FIG. There is a possibility that the bent portion is changed by a predetermined angle or more at (a portion surrounded by a broken line γ in the figure), and this portion is erroneously detected as a convex portion β. Further, based on this erroneous detection, a portion where the locus is bent by changing by a predetermined angle or more following the reflection point r (a portion between two positions surrounded by a broken line δ in the figure) is a concave portion α. As a result, the pattern P2 is erroneously separated at the broken line δ.

ここで、図5(b)の破線γの部分と破線δの部分との直線距離ωxは、図4の凸部分βの候補位置β*から反射点rをたどる方向に到達する凹部分αの候補位置α*までの直線距離Wxに比して十分小さい。   Here, the linear distance ωx between the broken line γ portion and the broken line δ portion in FIG. 5B is the concave portion α reaching the reflection point r from the candidate position β * of the convex portion β in FIG. It is sufficiently smaller than the linear distance Wx to the candidate position α *.

そこで、前記した判定しきい値W0を、W0>ωxに設定し、認識対象の物体にドアミラー200aのような突出した部分がある場合に、図5(b)の破線δのその部分を凹部分αとして誤検出しないようにする。   Therefore, when the above-described determination threshold value W0 is set to W0> ωx, and there is a protruding portion such as the door mirror 200a on the object to be recognized, that portion of the broken line δ in FIG. Avoid misdetection as α.

つぎに、レーザレーダ2の反射点群のパターンが認識対象の1つの物体の反射点のパターンであっても、そのパターンに例えば路側のガードレール等の認識対象外の反射点が含まれるような場合には、パターンの分離が必要になる。   Next, even if the pattern of the reflection point group of the laser radar 2 is the pattern of the reflection point of one object to be recognized, the pattern includes a reflection point outside the recognition target such as a roadside guardrail, for example. For this, it is necessary to separate the patterns.

図6は自車両1が進む方向にガードレール400に接近して認識対象の車両200が停車している場合を示し、この場合、反射点rのクラスタリング処理によって車両200とガードレール400の反射点rを含む反射点群のパターンP3が得られる。このパターンP3には、車両200の前端と左側のエッジの反射点rに基づくL字状部分L3の折曲の凸部分βと、車両200とガードレール400の境界の凹部分αとが存在する。   FIG. 6 shows a case where the recognition target vehicle 200 is stopped by approaching the guard rail 400 in the direction in which the host vehicle 1 travels. In this case, the reflection point r between the vehicle 200 and the guard rail 400 is determined by clustering processing of the reflection point r. A reflection point group pattern P3 is obtained. The pattern P3 includes a bent convex portion β of the L-shaped portion L3 based on the reflection point r of the front end and the left edge of the vehicle 200, and a concave portion α at the boundary between the vehicle 200 and the guard rail 400.

そして、分離処理部6は、上記した分離の処理により、パターンP3の反射点rを車両200側の端部からたどって凸部分βの候補位置を検出し、さらに、パターンP3の反射点rをたどって凹部分αの候補位置を検出し、この候補位置を凹部分αに確定して凹部分αでパターンP3を切断し、図6に示すように、前記パターンP11と同様の車両200のパターンP31と、ガードレール400のパターンP32とに分離する。なお、図6の凸部分βと凹部分αの直線距離WyもWy>W0である。また、パターンP3の反射点rをガードレール400側の端部からたどると、凸部βを検出したとしても、それに続く凹部分αは検出できないので、このような場合には、パターンP3の反射点rを車両200側の端部までたどった後、パターンP3の反射点rを車両200側の端部から再びたどって凸部βおよびそれに続く凹部分αを検出して凹部分αを確定する。   Then, the separation processing unit 6 detects the candidate position of the convex portion β by tracing the reflection point r of the pattern P3 from the end on the vehicle 200 side by the above-described separation processing, and further, the reflection point r of the pattern P3. Then, the candidate position of the concave portion α is detected, this candidate position is determined as the concave portion α, the pattern P3 is cut by the concave portion α, and the pattern of the vehicle 200 similar to the pattern P11 as shown in FIG. It separates into P31 and the pattern P32 of the guardrail 400. The linear distance Wy between the convex portion β and the concave portion α in FIG. 6 is also Wy> W0. Further, when the reflection point r of the pattern P3 is traced from the end on the guard rail 400 side, even if the convex portion β is detected, the subsequent concave portion α cannot be detected. In such a case, the reflective point of the pattern P3 After r is traced to the end on the vehicle 200 side, the reflection point r of the pattern P3 is traced again from the end on the vehicle 200 side to detect the convex portion β and the subsequent concave portion α to determine the concave portion α.

したがって、パターンP3に認識対象の物体(例えば車両200)と他の物体(例えばガードレール)の反射点が含まれている場合にも、認識対象の物体のパターンP31を分離し、その物体を矩形R31の属性推定に基づいて認識することができる。   Accordingly, even when the pattern P3 includes reflection points of an object to be recognized (for example, the vehicle 200) and another object (for example, a guardrail), the pattern P31 of the object to be recognized is separated and the object is rectangular R31. Can be recognized based on the attribute estimation.

以上説明したように、本実施形態によれば、レーザレーダ2が受信した反射点群のパターンP1、P2、P3に複数の物体が含まれている場合や認識対象の物体と他の物体とが含まれている場合にも、パターンP1、P2、P3から認識対象の各物体のL字状部分L1、L2、L3を個別のパターンP11、P12、P31に分離し、車載カメラのような他のセンサをさらに備えて検出することなく、低コストに属性推定を行なって認識対象の各物体を確実に認識することができる。   As described above, according to the present embodiment, a case where a plurality of objects are included in the reflection point cloud patterns P1, P2, and P3 received by the laser radar 2, or an object to be recognized and other objects are detected. Even if included, the L-shaped portions L1, L2, L3 of each object to be recognized are separated into individual patterns P11, P12, P31 from the patterns P1, P2, P3, Without further detecting the sensor, it is possible to reliably recognize each object to be recognized by performing attribute estimation at low cost.

そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行なうことが可能であり、例えば、本発明の車載レーダは、レーザレーダに限るものではなく、ミリ波レーダ、超音波レーダ等であってもよいのは勿論である。また、車載レーダの探査範囲はどのようであってもよく、車載レーダは、自車両1の後方や左右側を探査するものであってもよく、自車両1の全周を探査するものであってもよい。そして、例えば車載レーダにより自車両の後方を探査し、自車両の後方の物体を認識する場合等にも本発明を同様に適用することができる。   The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. Of course, it is not limited to a radar, and may be a millimeter wave radar, an ultrasonic radar, or the like. The search range of the in-vehicle radar may be any, and the in-vehicle radar may search for the rear and left and right sides of the host vehicle 1 and search for the entire circumference of the host vehicle 1. May be. For example, the present invention can be similarly applied to a case where the rear of the host vehicle is searched by an in-vehicle radar to recognize an object behind the host vehicle.

つぎに、認識対象の物体は、前記した車両、モータバイク、自転車、歩行者等の一部であってもよく、それら以外の物体であってもよい。   Next, the recognition target object may be a part of the above-described vehicle, motorbike, bicycle, pedestrian, or the like, or may be an object other than these.

つぎに、分離処理部6により分離されたパターンに基づく物体属性推定部8の属性推定手法はどのようであってもよく、前記実施形態の推定手法に限るものではない。   Next, the attribute estimation method of the object attribute estimation unit 8 based on the pattern separated by the separation processing unit 6 may be any method, and is not limited to the estimation method of the embodiment.

そして、本発明は、車載レーダを備えた種々の車両の物体認識装置に適用することができる。   And this invention is applicable to the object recognition apparatus of the various vehicles provided with the vehicle-mounted radar.

1 自車両
2 レーザレーダ
3 受信処理部
4 認識処理部
5 クラスタリング処理部
6 分離処理部
8 物体属性推定部
L1、L2、L3 L字状部分
P1、P2、P3、P11、P12、P31、P32 パターン
R11、R12、R31 矩形
r 反射点
DESCRIPTION OF SYMBOLS 1 Own vehicle 2 Laser radar 3 Reception process part 4 Recognition process part 5 Clustering process part 6 Separation process part 8 Object attribute estimation part L1, L2, L3 L-shaped part P1, P2, P3, P11, P12, P31, P32 pattern R11, R12, R31 Rectangular r Reflection point

Claims (1)

車載レーダが受信した反射点群のパターンに基づいて物体を認識する物体認識装置であって、
前記パターンから自車両に対して反対方向に屈曲したL字状部分を分離する分離手段と、
前記分離手段により分離された前記L字状部分が一部を構成する矩形から物体を認識する認識手段とを備えたことを特徴とする物体認識装置。
An object recognition device for recognizing an object based on a pattern of reflection points received by an on-vehicle radar,
Separating means for separating an L-shaped portion bent in the opposite direction with respect to the host vehicle from the pattern;
An object recognition apparatus comprising: a recognition means for recognizing an object from a rectangle in which the L-shaped part separated by the separation means constitutes a part.
JP2011037846A 2011-02-24 2011-02-24 Body recognizing device Withdrawn JP2012173230A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011037846A JP2012173230A (en) 2011-02-24 2011-02-24 Body recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011037846A JP2012173230A (en) 2011-02-24 2011-02-24 Body recognizing device

Publications (1)

Publication Number Publication Date
JP2012173230A true JP2012173230A (en) 2012-09-10

Family

ID=46976252

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011037846A Withdrawn JP2012173230A (en) 2011-02-24 2011-02-24 Body recognizing device

Country Status (1)

Country Link
JP (1) JP2012173230A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017150895A (en) * 2016-02-23 2017-08-31 株式会社デンソー Object recognition device
JP2017215214A (en) * 2016-05-31 2017-12-07 パナソニックIpマネジメント株式会社 Moving object detection device, program and record medium
CN109143220A (en) * 2017-06-16 2019-01-04 电装波动株式会社 Vehicle identifier, vehicle identification system, storage medium
JP2019138804A (en) * 2018-02-13 2019-08-22 株式会社デンソーウェーブ Vehicle recognition device, vehicle recognition system and vehicle recognition program
JPWO2021038267A1 (en) * 2019-08-28 2021-03-04
JP2021086298A (en) * 2019-11-26 2021-06-03 日立Astemo株式会社 Control device and method for mobile body
WO2021177351A1 (en) * 2020-03-06 2021-09-10 株式会社デンソー Object recognition device
RU2779522C1 (en) * 2019-08-28 2022-09-08 Ниссан Мотор Ко., Лтд. Object recognition method and object recognition device

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017150895A (en) * 2016-02-23 2017-08-31 株式会社デンソー Object recognition device
JP2017215214A (en) * 2016-05-31 2017-12-07 パナソニックIpマネジメント株式会社 Moving object detection device, program and record medium
JP7103759B2 (en) 2017-06-16 2022-07-20 株式会社デンソーウェーブ Vehicle recognition device, vehicle recognition system, vehicle recognition program
CN109143220A (en) * 2017-06-16 2019-01-04 电装波动株式会社 Vehicle identifier, vehicle identification system, storage medium
JP2019003513A (en) * 2017-06-16 2019-01-10 株式会社デンソーウェーブ Vehicle recognition device, vehicle recognition system, and vehicle recognition program
JP2019138804A (en) * 2018-02-13 2019-08-22 株式会社デンソーウェーブ Vehicle recognition device, vehicle recognition system and vehicle recognition program
US20220270375A1 (en) * 2019-08-28 2022-08-25 Nissan Motor Co., Ltd. Object Recognition Method and Object Recognition Device
WO2021038267A1 (en) * 2019-08-28 2021-03-04 日産自動車株式会社 Object recognition method and object recognition device
JPWO2021038267A1 (en) * 2019-08-28 2021-03-04
RU2779522C1 (en) * 2019-08-28 2022-09-08 Ниссан Мотор Ко., Лтд. Object recognition method and object recognition device
JP7226565B2 (en) 2019-08-28 2023-02-21 日産自動車株式会社 Object recognition method and object recognition device
US11861914B2 (en) 2019-08-28 2024-01-02 Nissan Motor Co., Ltd. Object recognition method and object recognition device
JP2021086298A (en) * 2019-11-26 2021-06-03 日立Astemo株式会社 Control device and method for mobile body
WO2021106509A1 (en) * 2019-11-26 2021-06-03 日立Astemo株式会社 Apparatus and method for controlling mobile body
JP7401273B2 (en) 2019-11-26 2023-12-19 日立Astemo株式会社 Mobile body control device and method
WO2021177351A1 (en) * 2020-03-06 2021-09-10 株式会社デンソー Object recognition device
JP2021139814A (en) * 2020-03-06 2021-09-16 株式会社デンソー Object recognition device
JP7310658B2 (en) 2020-03-06 2023-07-19 株式会社デンソー Object recognition device

Similar Documents

Publication Publication Date Title
JP5700940B2 (en) Object recognition device
JP5583523B2 (en) Object recognition device
Grubb et al. 3D vision sensing for improved pedestrian safety
JP2012173230A (en) Body recognizing device
JP4558758B2 (en) Obstacle recognition device for vehicles
US8164432B2 (en) Apparatus, method for detecting critical areas and pedestrian detection apparatus using the same
US8040227B2 (en) Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
US20170297488A1 (en) Surround view camera system for object detection and tracking
US9280900B2 (en) Vehicle external environment recognition device
JP5178276B2 (en) Image recognition device
JP2011186584A (en) Object recognition apparatus
JP2012089114A (en) Obstacle recognition device
US20200307560A1 (en) Apparatus and method for controlling vehicle
US20140002658A1 (en) Overtaking vehicle warning system and overtaking vehicle warning method
JP2011065400A (en) Object recognition apparatus
CN108027237B (en) Periphery recognition device
JP2015153162A (en) Boundary line recognition device
WO2017043358A1 (en) Object detecting device and object detecting method
US20120155711A1 (en) Apparatus and method for analyzing video
Singh et al. SideEye: Mobile assistant for blind spot monitoring
JP2006140636A (en) Obstacle detecting device and method
KR101750615B1 (en) Device and method for object recognition and detection
EP2662828B1 (en) A vision system and method for a motor vehicle
JP2012118683A (en) Pedestrian recognition device
JP4762830B2 (en) Perimeter monitoring system

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513