JP6411942B2 - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP6411942B2
JP6411942B2 JP2015088455A JP2015088455A JP6411942B2 JP 6411942 B2 JP6411942 B2 JP 6411942B2 JP 2015088455 A JP2015088455 A JP 2015088455A JP 2015088455 A JP2015088455 A JP 2015088455A JP 6411942 B2 JP6411942 B2 JP 6411942B2
Authority
JP
Japan
Prior art keywords
point group
cluster
object recognition
cluster point
integrated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015088455A
Other languages
Japanese (ja)
Other versions
JP2016206026A (en
Inventor
映 酒井
映 酒井
秀明 三澤
秀明 三澤
村瀬 洋
洋 村瀬
大輔 出口
大輔 出口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Denso Corp
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Denso Corp
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Denso Corp, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2015088455A priority Critical patent/JP6411942B2/en
Publication of JP2016206026A publication Critical patent/JP2016206026A/en
Application granted granted Critical
Publication of JP6411942B2 publication Critical patent/JP6411942B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、自車両の周囲に位置する物体を認識する物体認識装置に関する。   The present invention relates to an object recognition device for recognizing an object located around a host vehicle.

上記の物体認識装置として、レーザレーダによって得られる距離情報に含まれるマルチエコー(1つのレーザ光から複数の物体の距離情報を得る技術)を用いて解像度を向上させる技術が知られている(例えば、特許文献1参照)。   As said object recognition apparatus, the technique which improves the resolution using the multi-echo (technology which acquires the distance information of several objects from one laser beam) contained in the distance information obtained by a laser radar is known (for example, , See Patent Document 1).

特表2014−142242号公報Special table 2014-142242 gazette

しかしながら、上記物体認識装置は、マルチエコーを検出可能なレーザレーダは高機能かつ高価なものであるため、シングルエコー(1つのレーザ光から1つの距離情報のみを得る技術)を用いて解像度を向上させることに対する要求がある。   However, since the above-mentioned object recognition device has a high-function and expensive laser radar capable of detecting multi-echo, the resolution is improved by using a single echo (a technique for obtaining only one distance information from one laser beam). There is a demand for making it happen.

そこで、このような問題点を鑑み、自車両の周囲に位置する物体を認識する物体認識装置において、マルチエコーを用いることなく解像度を向上できるようにすることを本発明の目的とする。   Therefore, in view of such problems, it is an object of the present invention to improve resolution without using multi-echo in an object recognition apparatus that recognizes an object positioned around the host vehicle.

本発明の物体認識装置において、測距点群取得手段は、物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にて前記レーザ光の反射光を受光することで得られるそれぞれの距離と反射強度を含む測距点群を取得する。また、クラスタリング手段は、測距点群をクラスタリングする。(以下、クラスタリング手段で生成された測距点群のクラスタをクラスタ点群と呼ぶ。)次に、点群補正手段は、クラスタ点群の位置をクラスタ毎に設定された位置に補正する。(以下、点群補正手段で補正されたクラスタ点群を補正クラスタ点群と呼ぶ。)
統合手段は、過去時刻及び現在時刻の補正クラスタ点群を用いて、各クラスタ点群を統合する。(以下、統合手段で生成されたクラスタ点群を統合クラスタ点群と呼ぶ。)各クラスタについて得られた現在時刻の補正クラスタ点群を、過去において各クラスタについて得られた過去時刻の統合クラスタ点群に統合して現在時刻の統合クラスタ点群を生成する。
In the object recognition apparatus of the present invention, the distance measurement point group acquisition unit irradiates a laser beam to each irradiation region obtained by dividing a detection region for detecting an object in a grid shape in the horizontal direction and the vertical direction in advance, and applies to each irradiation region. Then, a distance measuring point group including each distance and reflection intensity obtained by receiving the reflected light of the laser beam is acquired. The clustering means clusters the distance measuring point group. (Hereinafter, a cluster of distance measuring point groups generated by the clustering means is referred to as a cluster point group.) Next, the point group correcting means corrects the position of the cluster point group to a position set for each cluster. (Hereinafter, the cluster point group corrected by the point group correcting means is referred to as a corrected cluster point group.)
The integration unit integrates each cluster point group using the corrected cluster point group of the past time and the current time. (Hereinafter, the cluster point group generated by the integration means is referred to as an integrated cluster point group.) The corrected cluster point group of the current time obtained for each cluster is the integrated cluster point of the past time obtained for each cluster in the past. An integrated cluster point group at the current time is generated by integrating the group.

このような物体認識装置によれば、1回分の測距点群でなく、過去において得られた測距点群も用いて物体を認識することができるので、マルチエコーを用いることなく解像度を向上させることができる。   According to such an object recognition apparatus, since an object can be recognized using not only a single distance measurement point group but also a distance measurement point group obtained in the past, the resolution can be improved without using multi-echo. Can be made.

なお、各請求項の記載は、可能な限りにおいて任意に組み合わせることができる。この際、一部構成を除外してもよい。   In addition, description of each claim can be arbitrarily combined as much as possible. At this time, a part of the configuration may be excluded.

運転支援システム1の概略構成を示す説明図である。1 is an explanatory diagram showing a schematic configuration of a driving support system 1. FIG. 実施形態において、レーザ光を照射する領域を示す模式図である。In embodiment, it is a schematic diagram which shows the area | region which irradiates a laser beam. レーダ制御部11が実行する物体認識処理を示すフローチャートである。It is a flowchart which shows the object recognition process which the radar control part 11 performs. 測距点群とクラスタリング結果の一例を示す鳥瞰図である。It is a bird's-eye view which shows an example of a ranging point group and a clustering result. クラスタ点群の一例を示す立体図である。It is a three-dimensional view showing an example of a cluster point group. 第1実施形態の超解像処理を示すフローチャートである。It is a flowchart which shows the super-resolution process of 1st Embodiment. 第1実施形態の超解像処理の概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the super-resolution process of 1st Embodiment. 第1実施形態の識別処理を示すフローチャートである。It is a flowchart which shows the identification process of 1st Embodiment. 第2実施形態の超解像処理を示すフローチャートである。It is a flowchart which shows the super-resolution process of 2nd Embodiment. 第2実施形態の超解像処理の概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the super-resolution process of 2nd Embodiment. 第3実施形態の超解像処理を示すフローチャートである。It is a flowchart which shows the super-resolution process of 3rd Embodiment. クラスタ点群をモデルに基づいてパーツ点群に分解する例を示す模式図である。It is a schematic diagram which shows the example which decomposes | disassembles a cluster point group into parts point group based on a model. 第3実施形態の超解像処理の概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the super-resolution process of 3rd Embodiment. 第4実施形態の超解像処理を示すフローチャートである。It is a flowchart which shows the super-resolution process of 4th Embodiment. 距離と反射強度との原理上の関係を示すグラフである。It is a graph which shows the theoretical relationship between distance and reflection intensity. 第5実施形態の超解像処理を示すフローチャートである。It is a flowchart which shows the super-resolution process of 5th Embodiment. 第5実施形態の超解像処理の概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the super-resolution process of 5th Embodiment. 第6実施形態の超解像処理を示すフローチャートである。It is a flowchart which shows the super-resolution process of 6th Embodiment. 第6実施形態の超解像処理の概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the super-resolution process of 6th Embodiment. 第7実施形態の識別処理を示すフローチャートである。It is a flowchart which shows the identification process of 7th Embodiment. 第8実施形態の識別処理を示すフローチャートである。It is a flowchart which shows the identification process of 8th Embodiment. 第8実施形態において補正クラスタ点群領域の一例を示す説明図である。It is explanatory drawing which shows an example of a correction | amendment cluster point group area | region in 8th Embodiment. 第9実施形態の識別処理を示すフローチャートである。It is a flowchart which shows the identification process of 9th Embodiment.

以下に本発明にかかる実施の形態を図面と共に説明する。
[第1実施形態]
[本実施形態の構成]
図1は本実施形態の運転支援システム1の概略構成を示す説明図、図2はレーザ光を照射する領域を示す模式図である。運転支援システム1は、例えば乗用車等の車両(以下「自車両」ともいう。)に搭載されており、図1に示すように、レーダ装置10と、車両制御部30と、を備えている。
Embodiments according to the present invention will be described below with reference to the drawings.
[First Embodiment]
[Configuration of this embodiment]
FIG. 1 is an explanatory diagram showing a schematic configuration of the driving support system 1 of the present embodiment, and FIG. 2 is a schematic diagram showing a region to be irradiated with laser light. The driving support system 1 is mounted on a vehicle such as a passenger car (hereinafter also referred to as “own vehicle”), and includes a radar device 10 and a vehicle control unit 30 as shown in FIG.

レーダ装置10は、レーダ制御部11と、走査駆動部12と、光学ユニット13とを備えている。
レーダ制御部11は、CPU18と、ROM,RAM等のメモリ19と、を備えた周知のコンピュータとして構成されている。CPU18は、メモリ19に記憶されたプログラムに従って、後述する物体認識処理等の各種処理を実施する。なお、レーダ制御部11は、回路等によるハードウェアで構成してもよい。
The radar apparatus 10 includes a radar control unit 11, a scanning drive unit 12, and an optical unit 13.
The radar control unit 11 is configured as a known computer including a CPU 18 and a memory 19 such as a ROM or a RAM. The CPU 18 performs various processes such as an object recognition process to be described later according to a program stored in the memory 19. The radar control unit 11 may be configured by hardware such as a circuit.

走査駆動部12は、例えばモータ等のアクチュエータとして構成されており、レーダ制御部11からの指令を受けて、光学ユニット13を水平方向および鉛直方向の任意の方向に向けることができるよう構成されている。なお、走査駆動部12は、レーダ制御部11からの走査開始信号を受ける度に、レーザ光を照射すべき全ての領域から反射光を得る、1サイクル分の走査ができるように光学ユニット13を駆動する。   The scanning drive unit 12 is configured as an actuator such as a motor, for example, and is configured to be able to direct the optical unit 13 in an arbitrary direction in the horizontal direction and the vertical direction in response to a command from the radar control unit 11. Yes. Each time the scanning drive unit 12 receives a scanning start signal from the radar control unit 11, the scanning drive unit 12 obtains reflected light from all the areas to be irradiated with laser light so that the optical unit 13 can perform scanning for one cycle. To drive.

光学ユニット13は、レーダ制御部11からの指令に応じてレーザ光を射出する発光部14と、発光部14からのレーザ光(図1では実線の矢印で示す)が物体50に反射したときの反射光(図1では破線の矢印で示す)を受光する受光部15と、を備えている。   The optical unit 13 emits laser light in response to a command from the radar control unit 11, and laser light from the light emitting unit 14 (indicated by a solid line arrow in FIG. 1) is reflected on the object 50. And a light receiving unit 15 that receives reflected light (indicated by broken arrows in FIG. 1).

なお、走査駆動部12は、結果として発光部14によるレーザ光の射出方向が受光部15により反射光を受光可能な方向と同じ方向となるよう変化させられる構成であればよい。例えば、走査駆動部12は、光学ユニット13に換えて、光学ユニット13に備えられたレーザ光および反射光を任意の方向に反射させるミラーを駆動するよう構成されていてもよい。   As a result, the scanning drive unit 12 may be configured so that the emission direction of the laser light from the light emitting unit 14 is changed to the same direction as the direction in which the light receiving unit 15 can receive the reflected light. For example, instead of the optical unit 13, the scanning drive unit 12 may be configured to drive a mirror that reflects laser light and reflected light in the optical unit 13 in an arbitrary direction.

この場合には、複数の反射面を有するミラーを走査駆動部12で回転させることによって水平方向にレーザ光を走査し、反射面の角度をそれぞれ異なる角度に設定することによって、鉛直方向にもレーザ光を振りつつ走査する構成を採用すればよい。また、1つの反射面を有するミラーを任意の方向に向ける機構を採用してもよい。   In this case, the laser beam is scanned in the horizontal direction by rotating a mirror having a plurality of reflecting surfaces by the scanning drive unit 12 and the angles of the reflecting surfaces are set to different angles, so that the laser beam is also vertically aligned. A configuration for scanning while shaking light may be employed. Further, a mechanism for directing a mirror having one reflecting surface in an arbitrary direction may be employed.

また、走査駆動部12は、受光部15のみの方向を変化させる構成でもよい。この場合、発光部14は、発光部14の方向を変化させることなく、受光部15が走査される領域の一部または全体にレーザ光を照射可能な構成にされていてもよい。   Further, the scanning drive unit 12 may be configured to change the direction of only the light receiving unit 15. In this case, the light emitting unit 14 may be configured to be able to irradiate a part or the whole of the region where the light receiving unit 15 is scanned without changing the direction of the light emitting unit 14.

上述のようにレーダ装置10は、自車両周囲の任意の方向(本実施形態では自車両の進行方向である前方)の所定領域に対して、走査しつつ間欠的に電磁波であるレーザ光を照射し、その反射光をそれぞれ受信することによって、自車両前方の物体を各測距点として検出するレーザレーダとして構成されている。   As described above, the radar apparatus 10 intermittently irradiates a predetermined area in an arbitrary direction around the host vehicle (in the present embodiment, the front in the traveling direction of the host vehicle) with laser light that is an electromagnetic wave while scanning. And it is comprised as a laser radar which detects the object ahead of the own vehicle as each ranging point by receiving the reflected light, respectively.

ここで、本実施形態のレーダ装置10においてレーダ制御部11は、前述のように走査駆動部12を利用して、光学ユニット13から照射されるレーザ光を所定の領域内において走査させるが、詳細には図2に示すように、この領域の左上隅から右上隅に水平方向右側にレーザ光を照射させる範囲を変化させつつ間欠的に等間隔(等角度)でレーザ光を照射させ、レーザ光が右上隅に到達すると、左上隅よりも所定角度だけ下方の領域から水平方向右側にレーザ光を照射させる範囲を変化させつつ再びレーザ光を照射させる。   Here, in the radar apparatus 10 of the present embodiment, the radar control unit 11 scans the laser light emitted from the optical unit 13 within a predetermined region using the scanning drive unit 12 as described above. As shown in FIG. 2, the laser beam is irradiated intermittently at equal intervals (equal angles) while changing the range in which the laser beam is irradiated horizontally from the upper left corner to the upper right corner of this region. When reaching the upper right corner, the laser beam is irradiated again while changing the range in which the laser beam is irradiated from the region below the upper left corner by a predetermined angle to the right side in the horizontal direction.

この作動を繰り返すことによってレーダ装置10は、所定領域の全域に順次レーザ光を照射させることになる。そしてレーダ装置10は、反射光を受信したタイミングとレーザ光を照射した方向とに基づいて、レーザ光を照射する度に物体(測距点)の位置を演算する。   By repeating this operation, the radar apparatus 10 sequentially irradiates the entire region of the predetermined region with laser light. The radar apparatus 10 calculates the position of the object (ranging point) each time the laser beam is irradiated based on the timing at which the reflected light is received and the direction in which the laser beam is irradiated.

なお、レーザ光の出射方向については、レーザ光を照射する全領域をレーザ光が照射される領域毎にマトリクス状に区切り、各領域に番号を付すことによって特定できるようにしておく。例えば、図2に示すように、水平方向については左から順に番号を付し、この番号を方位番号と呼ぶ。また、鉛直方向については上から順に番号を付し、この番号をライン番号と呼ぶ。   Note that the laser beam emission direction can be specified by dividing the entire region irradiated with the laser beam into a matrix for each region irradiated with the laser beam and assigning a number to each region. For example, as shown in FIG. 2, numbers are assigned in order from the left in the horizontal direction, and these numbers are called orientation numbers. Also, numbers are assigned in order from the top in the vertical direction, and these numbers are called line numbers.

上記の[数1]において、iはライン番号、jは方位番号、rは距離、Iは反射強度を表す。 In the above [Expression 1], i represents a line number, j represents an orientation number, r represents a distance, and I represents a reflection intensity.

次に、車両制御部30においては、CPU,ROM,RAM等からなる周知のコンピュータとして構成されており、ROM等に記憶されたプログラムに従って、自車両の挙動を制御する処理や、運転者に対する報知を行う等の各種処理を実施する。例えば、車両制御部30は、自車両の挙動を変更するような(或いは挙動の変更を促すような)運転支援を行う旨の指令をレーダ装置10から受けると、この指令に応じた制御信号を表示装置、音声出力装置、制動装置、操舵装置等の何れかに出力するようにすればよい。   Next, the vehicle control unit 30 is configured as a well-known computer including a CPU, a ROM, a RAM, and the like, and controls the behavior of the host vehicle according to a program stored in the ROM or the like, or notifies the driver. Various processes such as performing are performed. For example, when the vehicle control unit 30 receives a command from the radar apparatus 10 to perform driving support such as changing the behavior of the host vehicle (or urging the behavior to be changed), the vehicle control unit 30 sends a control signal corresponding to the command. What is necessary is just to make it output to any of a display apparatus, an audio | voice output apparatus, a braking device, a steering apparatus, etc.

[本実施形態の処理]
このように構成された運転支援システム1において、レーダ制御部11は、図3に示す物体認識処理を実施する。物体認識処理は、例えば1サイクル分の全ラインおよび全方位の測距点群が得られる毎に実施される処理である。
[Process of this embodiment]
In the driving support system 1 configured as described above, the radar control unit 11 performs the object recognition process shown in FIG. The object recognition process is a process that is performed every time, for example, all the lines for one cycle and the distance measurement point group in all directions are obtained.

物体認識処理では、図3に示すように、まず、測距点群を取得する(S110)。測距点群とは、レーザ光の照射領域毎に得られる物体の座標を表す1サイクル分の測距点の集合であり、測距点の距離(或いは3次元座標)と反射強度の情報とが含まれる。   In the object recognition processing, as shown in FIG. 3, first, a distance measuring point group is acquired (S110). The range-finding point group is a set of range-finding points for one cycle representing the coordinates of the object obtained for each irradiation region of the laser beam. Is included.

続いて、クラスタリング(S120)、およびクラスタリングで特定された各クラスタの追跡を行う(S130)。クラスタリング処理では、例えば、互いに近接する複数の測距点をクラスタリングすることで、各物体に対応するクラスタを得る。   Subsequently, clustering (S120) and tracking of each cluster specified by the clustering is performed (S130). In the clustering process, for example, a cluster corresponding to each object is obtained by clustering a plurality of distance measuring points close to each other.

また、追跡処理では、クラスタの位置が前フレーム(前サイクルにて得られた測距点群)にて特定されたクラスタに近接するか否かを判定し、近接する場合にこれらが同じ物体から得られたクラスタであると推定する。この場合、各クラスタを時間方向に紐付け各IDを付与し、各クラスタの速度を算出する。   Further, in the tracking process, it is determined whether or not the position of the cluster is close to the cluster specified in the previous frame (the distance measurement point group obtained in the previous cycle). Estimated to be the obtained cluster. In this case, each cluster is linked in the time direction, each ID is given, and the speed of each cluster is calculated.

詳細には、例えば、「Multilayer LIDAR-Based Pedestrian Tracking in Urban Environments, S. Sato, M. Hashimoto, M. Takita, K. Takagi, T. Ogawa; IV2010」等にて開示されている手法を採用できる。   Specifically, for example, the method disclosed in `` Multilayer LIDAR-Based Pedestrian Tracking in Urban Environments, S. Sato, M. Hashimoto, M. Takita, K. Takagi, T. Ogawa; IV2010 '' can be adopted. .

このようなクラスタリングによって1つまたは複数のクラスタを得る。K個のクラスタが得られた場合、各クラスタCのパラメタを以下のように定義する。 One or more clusters are obtained by such clustering. When K clusters are obtained, the parameters of each cluster C k are defined as follows.

上記の[数2]において、x、yは任意に定義されたクラスタの位置を表す。また、w、dは、クラスタCの幅(x軸方向の長さ)、および奥行き幅(y軸方向の長さ)を表す。 In the above [Expression 2], x k and y k represent the positions of arbitrarily defined clusters. Further, w k and d k represent the width (length in the x-axis direction) and the depth width (length in the y-axis direction) of the cluster C k .

ここで、図4に測距点群とクラスタリング結果の一例を示す。なお、本実施形態では、自車両の右方向をx軸の正とし、自車両の前方をy軸の正とする。また、鉛直方向の上方向をz軸の正とする。図4に示す例では、例えば、クラスタの左端と右端の中心のx座標をx、クラスタの前端のy座標をyとする。 Here, FIG. 4 shows an example of distance measurement point groups and clustering results. In the present embodiment, the right direction of the host vehicle is positive on the x axis, and the front side of the host vehicle is positive on the y axis. Also, the upward direction in the vertical direction is positive on the z axis. In the example shown in FIG. 4, for example, the x coordinate of the center of the left end and the right end of the cluster is x k , and the y coordinate of the front end of the cluster is y k .

クラスタCを構成する測距点の集合がクラスタ点群であり、例えば、図5に示すように、N個の測距点で構成される点群としてRAM等のメモリにて保持する。
特に本実施形態では、点群の情報に加え、点群を取得した時刻の情報も保持する。
A set of ranging points constituting the cluster C k is a cluster point group, and is held in a memory such as a RAM as a point group composed of N k ranging points as shown in FIG.
In particular, in this embodiment, in addition to the point cloud information, information on the time when the point cloud is acquired is also held.

続いて、超解像処理を実施する(S150)。超解像処理は、過去のフレームにおいて得られたクラスタ点群と、今回のフレームにおいて得られたクラスタ点群とを、位置を補正して統合する処理である。なお、超解像処理は、各フレームで得られたクラスタ点群毎に実施される。 Subsequently, super-resolution processing is performed (S150). The super-resolution process is a process of correcting the position and integrating the cluster point group obtained in the past frame and the cluster point group obtained in the current frame. Note that the super-resolution processing is performed for each cluster point group obtained in each frame.

超解像処理では、図6に示すように、まず、クラスタ点群の重心座標を演算する(S210)。この処理では、例えば、下記式を用いて重心座標を得る。   In the super-resolution processing, as shown in FIG. 6, first, the barycentric coordinates of the cluster point group are calculated (S210). In this process, for example, the barycentric coordinates are obtained using the following equation.

続いて、座標変換を実施する(S220)。この処理では、例えば、下記式を用いてクラスタ点群の重心座標が原点となるよう平行移動させる。これにより得られたクラスタ点群を補正クラスタ点群と呼ぶ。 Subsequently, coordinate conversion is performed (S220). In this processing, for example, translation is performed using the following equation so that the barycentric coordinates of the cluster point group become the origin. The cluster point group thus obtained is called a corrected cluster point group.

続いて、現在時刻で得られた補正クラスタ点群を、過去時刻で得られた統合クラスタ点群に統合して、現在時刻の統合クラスタ点群を生成する(S230)。 Subsequently, the corrected cluster point group obtained at the current time is integrated with the integrated cluster point group obtained at the past time to generate an integrated cluster point group at the current time (S230).

この処理では、図7に示すように、例えば、時刻(T−1)では、時刻(T−2)にて保持されていた統合クラスタ点群と、時刻(T−1)にて得られた補正クラスタ点群を統合する。そして、時刻Tでは、時刻(T−1)にて保持されていた統合クラスタ点群と、時刻Tにて得られた補正クラスタ点群とをさらに統合する。つまり、ある物体を追跡できれば、各物体の統合クラスタ点群として、より高解像度の測距点が保持できることになる。 In this processing, as shown in FIG. 7, for example, at time (T-1), the integrated cluster point group held at time (T-2) and obtained at time (T-1). The correction cluster point cloud is integrated. At time T, the integrated cluster point group held at time (T-1) and the corrected cluster point group obtained at time T are further integrated. That is, if a certain object can be tracked, a higher-resolution distance measuring point can be held as an integrated cluster point group for each object.

このような処理が終了すると、超解像処理を終了する。続いて、図3に戻り、統合クラスタ点群をメモリに格納して保存する(S160)。
続いて、識別処理を実施する(S170)。識別処理は、各統合クラスタ点群に対応する物体の種別を識別する処理である。
When such processing ends, the super-resolution processing ends. Subsequently, returning to FIG. 3, the integrated cluster point cloud is stored in the memory and saved (S160).
Subsequently, identification processing is performed (S170). The identification process is a process of identifying the type of object corresponding to each integrated cluster point group.

識別処理では、図8に示すように、まず、統合クラスタ点群に付随した時刻情報を用いて、識別処理に有効な測距点を選定する(S310)。ここでは、例えば、現時刻から過去所定フレーム(THCT)分の測距点のみを使用し、それ以前の測距点は使用しないよう設定する。 In the identification process, as shown in FIG. 8, first, a distance measuring point effective for the identification process is selected using time information attached to the integrated cluster point group (S310). Here, for example, only the distance measurement points for the past predetermined frame (TH CT ) from the current time are used, and the previous distance measurement points are not used.

すなわち、古いデータは信頼性が乏しい可能性があるため、使用されにくく設定する。他には、例えば統合クラスタ点群の中で、時刻が現在に近い測距点ほど重み付けを大きくして識別を行ってもよい。 That is, since old data may have poor reliability, it is set to be difficult to use. In addition, for example, in the integrated cluster point group, the distance measuring point whose time is closer to the present time may be identified by increasing the weight.

続いて、選定した測距点を用いて、各クラスタの特徴量を抽出する(S320)。例えば、選定した測距点から得られる、クラスタの幅、高さ、アスペクト比、相対速度、等の各種特徴量を抽出する。   Subsequently, the feature amount of each cluster is extracted using the selected distance measuring point (S320). For example, various feature amounts such as cluster width, height, aspect ratio, and relative speed obtained from the selected distance measuring point are extracted.

そして、前記特徴量と予め用意した識別モデルを用いて識別スコアの演算を行う(S330)。例えば、既知の多クラスSVM(Support Vector Machine)を用いる。この処理では、予め種別毎にSVMモデルを学習しておき、各モデルと抽出した特徴量を用いて種別毎の識別スコアを求める。そして、スコアが最大となるモデルの種別を、そのクラスタを示す種別として決定する。   Then, an identification score is calculated using the feature amount and an identification model prepared in advance (S330). For example, a known multi-class SVM (Support Vector Machine) is used. In this process, an SVM model is learned in advance for each type, and an identification score for each type is obtained using each model and the extracted feature amount. Then, the model type with the maximum score is determined as the type indicating the cluster.

このような処理が終了すると、識別処理を終了し、物体認識処理も終了する。
[本実施形態による効果]
上記のように詳述した第1実施形態の運転支援システム1においてレーダ制御部11は、物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にてレーザ光の反射光を受光することで得られるそれぞれの距離と反射強度を表す測距点群を取得する。また、レーダ制御部11は、測距点群をクラスタリングし、クラスタ点群の位置をクラスタ毎に設定された位置に補正した補正クラスタ点群を生成する。
When such processing ends, the identification processing ends, and the object recognition processing also ends.
[Effects of this embodiment]
In the driving support system 1 according to the first embodiment described in detail above, the radar control unit 11 irradiates a laser beam for each irradiation region obtained by dividing a detection region for detecting an object in a grid shape in the horizontal direction and the vertical direction in advance. Then, a distance measuring point group representing each distance and reflection intensity obtained by receiving the reflected light of the laser beam in each irradiation region is acquired. Further, the radar control unit 11 clusters the distance measurement point group, and generates a corrected cluster point group in which the position of the cluster point group is corrected to a position set for each cluster.

また、レーダ制御部11は、各クラスタについて得られた現在時刻の補正クラスタ点群を、過去において各クラスタについて得られた過去時刻の統合クラスタ点群に統合して現在時刻の統合クラスタ点群を生成する。そして、レーダ制御部11は、統合クラスタ点群を識別する。   Further, the radar control unit 11 integrates the corrected cluster point group of the current time obtained for each cluster into the integrated cluster point group of the past time obtained for each cluster in the past to obtain the integrated cluster point group of the current time. Generate. The radar control unit 11 identifies the integrated cluster point group.

このような運転支援システム1によれば、1回分の測距点群でなく、過去において得られた測距点群も用いて物体を認識することができるので、マルチエコーを用いることなく解像度を向上させることができる。   According to the driving support system 1 as described above, an object can be recognized using not only one distance measuring point group but also a distance measuring point group obtained in the past, so that the resolution can be reduced without using multi-echo. Can be improved.

また、運転支援システム1においてレーダ制御部11は、クラスタ点群の原点の位置を、過去において得られた統合クラスタ点群にて設定された原点の位置と一致させる補正を行う。   In the driving support system 1, the radar control unit 11 performs correction to match the position of the origin of the cluster point group with the position of the origin set in the integrated cluster point group obtained in the past.

このような運転支援システム1によれば、物体の位置の補正を確実に行うことができる。
また、運転支援システム1においてレーダ制御部11は、各測距点の取得時刻を含む統合クラスタ点群を生成し、取得時刻に応じた重み付けを行った上で統合クラスタ点群を利用する。
According to such a driving support system 1, the position of the object can be reliably corrected.
Further, in the driving support system 1, the radar control unit 11 generates an integrated cluster point group including the acquisition time of each ranging point, uses the integrated cluster point group after performing weighting according to the acquisition time.

このような運転支援システム1によれば、各測距点を取得した時刻に応じて重み付けを行った上で物体の識別を行うため、信頼度の高い情報のみを用いて高精度な識別を行うことができる。   According to such a driving support system 1, the object is identified after weighting according to the time at which each ranging point is acquired, and therefore, the highly accurate identification is performed using only highly reliable information. be able to.

[第2実施形態]
次に、別形態の運転支援システムについて説明する。本実施形態(第2実施形態)では、第1実施形態の運転支援システム1と異なる箇所のみを詳述し、第1実施形態の運転支援システム1と同様の箇所については、同一の符号を付して説明を省略する。また簡単のため、時刻情報は用いない形態にて説明する。
[Second Embodiment]
Next, another type of driving support system will be described. In the present embodiment (second embodiment), only the portions different from the driving support system 1 of the first embodiment are described in detail, and the same portions as those of the driving support system 1 of the first embodiment are denoted by the same reference numerals. Therefore, the description is omitted. Further, for simplicity, the description will be made in a form in which time information is not used.

第2実施形態の運転支援システムでは、図6に示す超解像処理に代えて、図9に示す超解像処理を実施する。すなわち、第2実施形態の超解像処理では、図9に示すように、まず各クラスタ点群をxy平面へ射影する(S360)。   In the driving support system of the second embodiment, the super-resolution process shown in FIG. 9 is performed instead of the super-resolution process shown in FIG. That is, in the super-resolution processing of the second embodiment, as shown in FIG. 9, first, each cluster point group is projected onto the xy plane (S360).

xy平面への射影とは、3次元空間の任意の点(x、y、z)を2次元空間の点(x、y)に写像することを意味する。   Projection onto the xy plane means mapping an arbitrary point (x, y, z) in the three-dimensional space to a point (x, y) in the two-dimensional space.

次に、射影後のクラスタ点群に対して主成分分析を行う(S370)。 Next, principal component analysis is performed on the cluster point group after projection (S370).

例えば、主成分分析の結果を図10の破線矢印で表す。 For example, the result of the principal component analysis is represented by a broken line arrow in FIG.

続いて、回転変換を行う(S380)。この処理では、図10の上段および中段に示すように、第1主成分である長軸がx軸と平行になるように回転する座標変換を行う。   Subsequently, rotation conversion is performed (S380). In this process, as shown in the upper and middle stages of FIG. 10, coordinate transformation is performed so that the major axis, which is the first principal component, rotates in parallel with the x-axis.

続いて、上記補正クラスタ点群の統合処理を行う(S390)。 Subsequently, the correction cluster point group is integrated (S390).

このようにすると、図10に示すように、時刻(T−1)および時刻Tにおいてそれぞれ異なる方向のクラスタ点群の向きを、x軸の方向に揃えてから統合できることになる。このような処理が終了すると、第2実施形態の超解像処理を終了する。 In this way, as shown in FIG. 10, it is possible to integrate the cluster point groups in different directions at time (T-1) and time T after aligning them in the x-axis direction. When such processing is finished, the super-resolution processing of the second embodiment is finished.

すなわち、上記の第2実施形態の運転支援システムにおいてレーダ制御部11は、クラスタ点群の方向を推定し、クラスタ点群の方向を予め設定された方向に回転させる。
このような第2実施形態の運転支援システムによれば、時間とともに物体が回転した場合であっても、物体の方向を揃えた上で過去における測距点群とともに利用でき、高精度な識別を行うことができる。
That is, in the driving support system of the second embodiment, the radar control unit 11 estimates the direction of the cluster point group, and rotates the direction of the cluster point group in a preset direction.
According to the driving support system of the second embodiment as described above, even when the object rotates with time, it can be used together with the distance measuring point group in the past after aligning the direction of the object, and highly accurate identification can be performed. It can be carried out.

[第3実施形態]
次に、第3実施形態の運転支援システムについて説明する。簡単のため、時刻情報は用いない形態にて説明する。第3実施形態の運転支援システムでは、クラスタ点群を複数のパーツに分割してさらに各パーツの方向を推定し、各パーツのそれぞれについてパーツの方向を予め設定された方向に回転させる。(以下、分割されたそれぞれの点群をパーツ点群と呼ぶ。)
具体的には、図11に示す第3実施形態の超解像処理を実施する。第3実施形態の超解像処理では、図11に示すように、まず、クラスタを構成する各パーツを検出し(S410)、パーツ点群を抽出する(S420)。
[Third Embodiment]
Next, the driving assistance system of 3rd Embodiment is demonstrated. For simplicity, the description will be made in a form in which time information is not used. In the driving support system of the third embodiment, the cluster point group is divided into a plurality of parts, the direction of each part is further estimated, and the direction of the part is rotated in a predetermined direction for each part. (Hereinafter, each divided point cloud is called a part point cloud.)
Specifically, the super-resolution processing of the third embodiment shown in FIG. 11 is performed. In the super-resolution processing of the third embodiment, as shown in FIG. 11, first, each part constituting the cluster is detected (S410), and a part point group is extracted (S420).

例えば、識別対象として歩行者を考える。図12の符号41にて示すように、歩行者のパーツ(例えば頭・腕・胴体・脚)毎に識別器を用意する。そして、物体が歩行者である可能性がある場合、符号42に示すそれぞれのパーツを構成する各測距点を、識別器に基づいてパーツ毎に抽出し、符号43に示すパーツ点群を得る。この処理の際には、例えば、下記の技術を用いることができる。
「Pedestrian Detection Combining RGB and Dense LIDAR Data, C. Premebida, J. Carreira, J. Batista, U. Nunes; IROS2014」
続いて、抽出したパーツ点群の補正を行う。すなわち、歩行者が直立状態のときを標準姿勢と定義し、各パーツの位置と向きが重なるように座標変換する。具体的には、前記第2実施例と同様の考え方で、まず各パーツ点群に対して主成分分析を行う(S430)。
For example, a pedestrian is considered as an identification target. As indicated by reference numeral 41 in FIG. 12, a discriminator is prepared for each pedestrian part (for example, head, arm, torso, leg). When there is a possibility that the object is a pedestrian, each distance measuring point constituting each part indicated by reference numeral 42 is extracted for each part based on the discriminator, and a part point group indicated by reference numeral 43 is obtained. . In this process, for example, the following technique can be used.
"Pedestrian Detection Combining RGB and Dense LIDAR Data, C. Premebida, J. Carreira, J. Batista, U. Nunes; IROS2014"
Subsequently, the extracted part point group is corrected. That is, when the pedestrian is in an upright state, it is defined as a standard posture, and coordinate conversion is performed so that the position and orientation of each part overlap. Specifically, principal component analysis is first performed on each part point group in the same way as in the second embodiment (S430).

続いて、各パーツ点群に対して回転変換を行う(S435)。この処理では、図13の上段および中段に示すように、第1主成分ベクトルがy軸と平行になるように回転する座標変換を行う。 Subsequently, rotation conversion is performed on each part point group (S435). In this process, as shown in the upper and middle stages of FIG. 13, coordinate transformation is performed so that the first principal component vector rotates so as to be parallel to the y-axis.

そして、標準姿勢となったクラスタ点群を、補正クラスタ点群として保持する。 Then, the cluster point group having the standard posture is held as a corrected cluster point group.

これらの処理によって、図13に示すように、時刻によって手足の位置がまちまちであった歩行者であっても(図13上段参照)、手足の位置が統一された状態で(図13中段参照)、統合することができる。 As a result of these processes, as shown in FIG. 13, even in the case of a pedestrian whose position of limbs varies depending on time (see the upper part of FIG. 13), the position of the limbs is unified (see the middle part of FIG. 13) Can be integrated.

続いて、補正クラスタ点群の統合処理を行う(S440)。   Subsequently, a correction cluster point group integration process is performed (S440).

すなわち、各取得時間で各パーツの向きが異なる場合であっても、各パーツの位置が統一された状態で(図13中段参照)、補正クラスタ点群が統合されることになる(図13下段参照)。このような処理が終了すると第3実施形態の超解像処理を終了する。 That is, even when the orientation of each part differs at each acquisition time, the correction cluster point group is integrated (see the lower part of FIG. 13) with the positions of the parts being unified (see the middle part of FIG. 13). reference). When such processing is finished, the super-resolution processing of the third embodiment is finished.

このような第3実施形態の運転支援システムによれば、例えば、歩行者が腕を振る場合等、物体を構成するパーツの方向が変化した場合においても、各パーツの方向を揃えた上で過去における測距点群とともに利用でき、高精度な識別を行うことができる。   According to the driving support system of the third embodiment, for example, even when the direction of the parts constituting the object changes, such as when a pedestrian swings his arm, the past is performed after aligning the directions of the parts. Can be used together with the distance measuring point group in FIG.

[第4実施形態]
次に、第4実施形態の運転支援システムについて説明する。簡単のため、時刻情報は用いない形態にて説明する。第4実施形態の運転支援システムにおいては、レーダ制御部11は距離に応じて反射強度を補正する。そして、反射強度も用いて統合クラスタ点群を識別する。
[Fourth Embodiment]
Next, the driving assistance system of 4th Embodiment is demonstrated. For simplicity, the description will be made in a form in which time information is not used. In the driving support system of the fourth embodiment, the radar control unit 11 corrects the reflection intensity according to the distance. Then, the integrated cluster point group is identified using the reflection intensity.

第4実施形態の超解像処理では、図14に示すように、まず、距離と反射強度とを含むクラスタ点群を取得する。   In the super-resolution processing of the fourth embodiment, as shown in FIG. 14, first, a cluster point group including a distance and a reflection intensity is acquired.

そして、反射強度の正規化を行う(S470)。 Then, the reflection intensity is normalized (S470).

すなわち、図15に示すように、原理上において反射強度Iが距離rの2乗に反比例する特性(反射強度の距離二乗則)を利用して、測距点群が同距離(r=1)に存在すると仮定した反射強度となるよう反射強度を補正する。 That is, as shown in FIG. 15, the distance measurement point group has the same distance (r = 1) by utilizing the characteristic that the reflection intensity I is inversely proportional to the square of the distance r in principle (distance square law of the reflection intensity). The reflection intensity is corrected so that the reflection intensity is assumed to exist in

そして、反射強度を補正した補正クラスタ点群を用いて、統合処理を行う(S480)。   Then, integration processing is performed using the corrected cluster point group whose reflection intensity is corrected (S480).

このようにする場合、予め補正後の反射強度を用いて識別モデルを学習しておき、識別処理では、補正後の反射強度も用いて統合点群クラスタの種別を識別する。 In this case, an identification model is learned in advance using the corrected reflection intensity, and in the identification process, the type of integrated point cloud cluster is identified using the corrected reflection intensity.

このような第4実施形態の運転支援システムによれば、距離に応じて反射強度を補正するので、距離に依存しない識別モデルを構築でき、高精度な識別を行うことができる。
[第5実施形態]
次に、第5実施形態の運転支援システムについて説明する。簡単のため、時刻情報は用いない形態にて説明する。第5実施形態の運転支援システムにおいては、自車両の姿勢(傾き)を取得し、自車両の姿勢に応じて測距点群を補正する。
According to the driving support system of the fourth embodiment, the reflection intensity is corrected according to the distance, so that an identification model that does not depend on the distance can be constructed, and highly accurate identification can be performed.
[Fifth Embodiment]
Next, the driving assistance system of 5th Embodiment is demonstrated. For simplicity, the description will be made in a form in which time information is not used. In the driving support system of the fifth embodiment, the attitude (tilt) of the host vehicle is acquired, and the distance measuring point group is corrected according to the attitude of the host vehicle.

詳細には、図16に示す超解像処理を実施する。第5実施形態の超解像処理では、図16に示すように、まず、自車両の姿勢推定の一例としてピッチング推定を行う(S510)。ピッチング推定処理は周知であり、例えば、特開2003−043147号公報に記載の技術を用いることができる。また、車両の傾きセンサ等からの情報を利用してもよい。   Specifically, the super-resolution process shown in FIG. 16 is performed. In the super-resolution processing of the fifth embodiment, as shown in FIG. 16, first, pitching estimation is performed as an example of the posture estimation of the host vehicle (S510). The pitching estimation process is well known, and for example, the technique described in Japanese Patent Laid-Open No. 2003-043147 can be used. Information from a vehicle tilt sensor or the like may be used.

続いて、測距点群の回転変換を実施する(S520)。この処理では、推定したピッチング角αを用いて、ピッチング時に得られた測距点群が実際には物体のどの位置に相当するかを特定し、測距点群を補正する。   Subsequently, rotation conversion of the distance measuring point group is performed (S520). In this process, the estimated pitching angle α is used to identify which position of the object the distance measurement point group obtained during pitching actually corresponds to and correct the distance measurement point group.

続いて、自車両のピッチングを補正した補正クラスタ点群を用いて統合する(S530)。 Then, it integrates using the correction | amendment cluster point group which correct | amended pitching of the own vehicle (S530).

このような処理を実施すると、例えば、図17に示すように、車両のピッチングによって各時刻に異なる位置のクラスタ点群が得られる。例えば、時刻(T−2)にてピッチングが発生していない場合のクラスタ点群に比較し、時刻(T−1)にて自車両が上向きにピッチングしていると比較的高い位置のクラスタ点群が得られ、時刻Tにて自車両が下向きにピッチングしていると比較的低い位置のクラスタ点群が得られる。 When such processing is performed, for example, as shown in FIG. 17, a cluster point group at a different position at each time is obtained by pitching of the vehicle. For example, compared to the cluster point group when no pitching occurs at time (T-2), the cluster point at a relatively high position when the host vehicle is pitching upward at time (T-1). When the vehicle is pitched downward at time T, a cluster point group at a relatively low position is obtained.

図17に示すように、これらの補正クラスタ点群を統合すると、ピッチングによる点群補正を実施しない場合と比較して、より高解像度な、又は鉛直方向により広い範囲の統合クラスタ点群が得られることになる。このような処理が終了すると、第5実施形態の超解像処理を終了する。   As shown in FIG. 17, when these correction cluster point groups are integrated, an integrated cluster point group having a higher resolution or a wider range in the vertical direction can be obtained as compared with a case where point group correction by pitching is not performed. It will be. When such processing is finished, the super-resolution processing of the fifth embodiment is finished.

このような第5実施形態の運転支援システムによれば、自車両の姿勢(傾き)に応じて測距点群を補正することで、より高解像度な、又は鉛直方向により広い範囲の統合クラスタ点群が得られるので、高精度な識別を行うことができる。   According to the driving support system of the fifth embodiment as described above, by correcting the distance measuring point group according to the posture (tilt) of the host vehicle, the integrated cluster points having a higher resolution or a wider range in the vertical direction. Since a group is obtained, highly accurate identification can be performed.

[第6実施形態]
次に、第6実施形態の運転支援システムについて説明する。簡単のため、時刻情報は用いない形態にて説明する。第6実施形態の運転支援システムにおいては、過去における識別結果を取得し、種別に基づいて物体の形状に合致するように補正クラスタ点群を生成する。
[Sixth Embodiment]
Next, the driving assistance system of 6th Embodiment is demonstrated. For simplicity, the description will be made in a form in which time information is not used. In the driving support system of the sixth embodiment, past identification results are acquired, and a corrected cluster point group is generated so as to match the shape of the object based on the type.

具体的には、図18に示す超解像処理を実施する。第6実施形態の超解像処理では、図18に示すように、まず、前回の識別結果を取得する(S560)。そして、識別結果に応じて点群補正処理の際に利用する点群モデルを選択する(S570)。   Specifically, the super-resolution process shown in FIG. 18 is performed. In the super-resolution processing of the sixth embodiment, as shown in FIG. 18, first, the previous identification result is acquired (S560). Then, a point cloud model to be used in the point cloud correction process is selected according to the identification result (S570).

続いて、点群モデルフィッティングを実施する(S580)。この処理では、例えば図19に示すように、時刻(T−2)にて電柱であると識別され、電柱の点群モデルが選択された場合には、電柱の点群モデルに最も合致するように、時刻(T−1)における各クラスタ点群を補正する。   Subsequently, point cloud model fitting is performed (S580). In this process, for example, as shown in FIG. 19, when a utility pole point cloud model is selected at time (T−2) and the utility pole point cloud model is selected, it most closely matches the utility pole point cloud model. First, each cluster point group at time (T-1) is corrected.

より具体的には、例えば、ICP(Iterative Closest Point)等の一般的に知られる2点群のフィッティング技術を利用すればよい。この処理では、点群間の位置の誤差が最小となるようにクラスタ点群が補正され、補正クラスタ点群を生成する。   More specifically, for example, a generally known two-point group fitting technique such as ICP (Iterative Closest Point) may be used. In this process, the cluster point group is corrected so that the positional error between the point groups is minimized, and a corrected cluster point group is generated.

続いて、前述のような補正クラスタ点群の統合処理を行い(S590)、第6実施形態の超解像処理を終了する。
このような第6実施形態の運転支援システムによれば、物体の種別が識別できている場合には、その形状に合わせて位置を補正するので、補正精度が向上し高精度な識別を行うことができる。
Subsequently, the correction cluster point group integration process as described above is performed (S590), and the super-resolution process of the sixth embodiment is terminated.
According to the driving support system of the sixth embodiment, when the type of the object can be identified, the position is corrected according to the shape, so that the correction accuracy is improved and high-precision identification is performed. Can do.

[第7実施形態]
次に、第7実施形態の運転支援システムについて説明する。第7実施形態の運転支援システムにおいては、レーダ制御部11は、測距点群取得時の測距点の距離に応じた重み付けを行った上で統合クラスタ点群を用い、識別処理を行う。
なお、点群補正処理については、例えばここでは第1実施形態の重心座標変換を用いて説明する。
[Seventh Embodiment]
Next, the driving assistance system of 7th Embodiment is demonstrated. In the driving support system of the seventh embodiment, the radar control unit 11 performs identification processing using the integrated cluster point group after performing weighting according to the distance of the distance measuring point at the time of acquiring the distance measuring point group.
Note that the point group correction processing will be described here using, for example, the barycentric coordinate conversion of the first embodiment.

具体的には、まず、クラスタ点群を取得する際に、各測距点の距離rも記録しておく。   Specifically, first, when acquiring the cluster point group, the distance r of each ranging point is also recorded.

次に、重心座標を用いた座標変換にて補正クラスタ点群を得る。 Next, a corrected cluster point group is obtained by coordinate conversion using the barycentric coordinates.

そして、測距点の距離を含む補正クラスタ点群を用いて統合する。 Then, integration is performed using a corrected cluster point group including the distance of the distance measuring point.

そして、第7実施形態の運転支援システムでは、図20に示す識別処理を実施する。第7実施形態の識別処理では、図20に示すように、まず、統合クラスタ点群に付随した距離情報を用いて、識別処理に有効な測距点を選定する(S610)。 And in the driving assistance system of 7th Embodiment, the identification process shown in FIG. 20 is implemented. In the identification processing of the seventh embodiment, as shown in FIG. 20, first, distance measurement points effective for the identification processing are selected using distance information associated with the integrated cluster point group (S610).

この処理では、例えば、所定距離(THr)以内の測距点のみを使用し、それ以遠の測距点は使用しないよう設定する。すなわち、ある程度遠距離のデータは信頼性が乏しい可能性があるため、使用されにくく設定する。他には、例えば統合クラスタ点群の中で、距離が近い測距点ほど重み付けを大きくして識別を行ってもよい。 In this process, for example, it is set so that only a distance measuring point within a predetermined distance (TH r ) is used and a distance measuring point beyond that is not used. That is, since data at a certain distance may be unreliable, it is set to be difficult to use. In addition, for example, in the integrated cluster point group, a distance measuring point having a shorter distance may be identified by increasing the weight.

以下、図8にて示したS320およびS330の処理を実施し、第7実施形態の識別処理を終了する。 Thereafter, the processing of S320 and S330 shown in FIG. 8 is performed, and the identification processing of the seventh embodiment is terminated.

このような第7実施形態の運転支援システムによれば、各測距点の距離に応じて重み付けを行った上で物体の識別を行うため、信頼度の高い情報のみを用いて高精度な識別を行うことができる。   According to the driving support system of the seventh embodiment, since the object is identified after weighting according to the distance of each ranging point, the highly accurate identification is performed using only highly reliable information. It can be performed.

[第8実施形態]
次に、第8実施形態の運転支援システムについて説明する。第8実施形態の運転支援システムにおいては、レーダ制御部11は、測距点の距離から得られるレーザ光の照射領域(以下、測距点領域と呼ぶ。)とその面積(以下、測距点面積と呼ぶ。)に基づいてクラスタ点群のレーザ光の照射領域(以下、クラスタ点群領域と呼ぶ。)の面積(以下、クラスタ点群面積と呼ぶ。)を演算し、クラスタ点群面積を利用して統合クラスタ点群を識別する。また、第8実施形態の運転支援システムにおいてレーダ制御部11は、今回得られたクラスタ点群領域と、過去におけるクラスタ点群領域との和集合(以下、統合クラスタ点群領域と呼ぶ。)の面積(以下、統合クラスタ点群面積と呼ぶ。)を用いて統合クラスタ点群を識別する。
なお、点群補正処理については、例えばここでは第1実施形態の重心座標変換を用いて説明する。
[Eighth Embodiment]
Next, the driving assistance system of 8th Embodiment is demonstrated. In the driving support system of the eighth embodiment, the radar control unit 11 includes a laser light irradiation area (hereinafter referred to as a distance measuring point area) obtained from the distance of the distance measuring point and its area (hereinafter referred to as the distance measuring point). The area of the cluster point group irradiated with laser light (hereinafter referred to as the cluster point group area) is calculated based on the area (hereinafter referred to as the area of the cluster point group). Use to identify integrated cluster point cloud. In the driving support system of the eighth embodiment, the radar control unit 11 is a sum of the cluster point cloud region obtained this time and the cluster point cloud region in the past (hereinafter referred to as an integrated cluster point cloud region). An integrated cluster point group is identified using an area (hereinafter referred to as an integrated cluster point group area).
Note that the point group correction processing will be described here using, for example, the barycentric coordinate conversion of the first embodiment.

具体的には、まず、測距点群を取得する際に、各測距点の測距点領域を記録しておく。   Specifically, first, when acquiring a distance measuring point group, a distance measuring point area of each distance measuring point is recorded.

なお、測距点領域は、距離が大きくなるに従って領域が大きくなるよう設定される。
次に、重心座標を用いた座標変換にて補正クラスタ点群を得る。
The distance measuring point area is set so that the area increases as the distance increases.
Next, a corrected cluster point group is obtained by coordinate conversion using the barycentric coordinates.

続いて、測距点領域を含む補正クラスタ点群を用いて統合する。 Subsequently, integration is performed using a corrected cluster point group including a distance measuring point area.

そして、第8実施形態の運転支援システムでは、図21に示す識別処理を実施する。第8実施形態の識別処理では、まず、統合クラスタ点群面積を演算する(S660)。この際、図22に示すように、時刻(T−1)における補正クラスタ点群領域と時刻Tにおける補正クラスタ点群領域に対して、各測距点面積の総和を統合クラスタ点群面積とする。 And in the driving assistance system of 8th Embodiment, the identification process shown in FIG. 21 is implemented. In the identification processing of the eighth embodiment, first, the integrated cluster point cloud area is calculated (S660). At this time, as shown in FIG. 22, for the corrected cluster point cloud region at time (T-1) and the corrected cluster point cloud region at time T, the total sum of the distance measuring point areas is defined as the integrated cluster point cloud area. .

続いて、統合クラスタ点群面積を特徴量として、予め用意した識別モデルを用いて識別スコアの演算を行う(S670)。このような処理が終了すると、第8実施形態の識別処理を終了する。 Subsequently, using the integrated cluster point cloud area as a feature amount, an identification score is calculated using an identification model prepared in advance (S670). When such a process ends, the identification process of the eighth embodiment ends.

このような第8実施形態の運転支援システムによれば、統合クラスタ点群面積を用いて物体を識別するので、物体の面積を高精度に表現でき、高精度な識別を行うことができる。   According to the driving support system of the eighth embodiment as described above, the object is identified using the integrated cluster point cloud area. Therefore, the area of the object can be expressed with high accuracy, and high-precision identification can be performed.

[第9実施形態]
次に、第9実施形態の運転支援システムについて説明する。第9実施形態の運転支援システムにおいては、レーダ制御部11は追跡処理(S130)を用いて各クラスタの速度を取得し、予め速度別に学習したモデルから各クラスタの速度に応じて1つのモデルを選択し、選択したモデルを用いて識別を行う。
[Ninth Embodiment]
Next, the driving assistance system of 9th Embodiment is demonstrated. In the driving support system of the ninth embodiment, the radar control unit 11 acquires the speed of each cluster using the tracking process (S130), and selects one model from the model previously learned for each speed according to the speed of each cluster. Select and identify using the selected model.

すなわち、図23に示す識別処理を実施する。第9実施形態の識別処理では、図23に示すように、まず、各統合クラスタ点群の平均速度を演算する(S710)。この処理では、自車速や舵角から自車両の速度を求めるとともに、追跡処理(S130)に基づいて各クラスタの速度v(t)を求める。そして、過去一連のクラスタの速度の平均を統合クラスタ点群の平均速度とする。 That is, the identification process shown in FIG. 23 is performed. In the identification processing of the ninth embodiment, as shown in FIG. 23, first, the average speed of each integrated cluster point group is calculated (S710). In this process, the speed of the host vehicle is determined from the host vehicle speed and the steering angle, and the speed v k (t) of each cluster is determined based on the tracking process (S130). Then, the average speed of a series of past clusters is set as the average speed of the integrated cluster point group.

続いて、モデルを選定する(S720)。ここで、レーダ制御部11においては、予め物体の種別および物体の速度の区分に応じて複数のモデルが準備されている。例えば歩行者の場合、静止状態では姿勢の変化が小さいが、移動中には姿勢の変化が大きいため、速度に応じて複数のモデルを準備する。 Subsequently, a model is selected (S720). Here, in the radar control unit 11, a plurality of models are prepared in advance according to the type of the object and the classification of the object speed. For example, in the case of a pedestrian, the change in posture is small in a stationary state, but the change in posture is large during movement. Therefore, a plurality of models are prepared according to the speed.

続いて、選定したモデルを用いて識別スコアの演算を行う(S730)。このような処理が終了すると、第9実施形態の識別処理を終了する。
このような第9実施形態の運転支援システムによれば、速度に応じて姿勢が変化する場合であっても、姿勢変化に対して頑強な識別を行うことができる。
Subsequently, an identification score is calculated using the selected model (S730). When such a process ends, the identification process of the ninth embodiment ends.
According to the driving support system of the ninth embodiment, even if the posture changes according to the speed, it is possible to identify robustly against the posture change.

[その他の実施形態]
本発明は、上記の実施形態によって何ら限定して解釈されない。また、上記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、各請求項に係る発明の理解を容易にする目的で使用しており、各請求項に係る発明の技術的範囲を限定する意図ではない。上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
[Other Embodiments]
The present invention is not construed as being limited by the above embodiment. Further, the reference numerals used in the description of the above embodiments are also used in the claims as appropriate, but they are used for the purpose of facilitating the understanding of the invention according to each claim, and the invention according to each claim. It is not intended to limit the technical scope of The functions of one component in the above embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment as long as a subject can be solved. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

上述した運転支援システムの他、当該運転支援システムの構成要素となる制御装置、当該運転支援システムとしてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、運転支援方法など、種々の形態で本発明を実現することもできる。   In addition to the driving support system described above, the control device that is a component of the driving support system, a program for causing a computer to function as the driving support system, a medium on which the program is recorded, a driving support method, etc. The invention can also be realized.

[実施形態の構成と本発明の手段との対応関係]
上記実施形態においてレーダ制御部11は本発明でいう物体認識装置に相当する。また、上記実施形態においてレーダ制御部11が実行する処理のうちのS110の処理は本発明でいう測距点群取得手段に相当し、上記実施形態におけるS120の処理は本発明でいうクラスタリング手段に相当し、S150の処理は本発明でいう点群補正手段と統合手段に相当し、S170の処理は本発明でいう識別手段に相当する。
[Correspondence between Configuration of Embodiment and Means of Present Invention]
In the above embodiment, the radar control unit 11 corresponds to the object recognition apparatus referred to in the present invention. Moreover, the process of S110 among the processes executed by the radar control unit 11 in the above embodiment corresponds to the distance measuring point group acquisition means referred to in the present invention, and the process of S120 in the above embodiment corresponds to the clustering means referred to in the present invention. Correspondingly, the process of S150 corresponds to the point cloud correction means and the integration means in the present invention, and the process of S170 corresponds to the identification means in the present invention.

さらに、上記実施形態におけるS210〜S220、S360〜S380、S410〜S435、S460〜S470、S510〜S520、S560〜S580の処理は本発明でいう点群補正手段に相当し、上記実施形態におけるS230、S390、S440、S480、S530、S590の処理は本発明でいう統合手段に相当する。また、上記実施形態におけるS170、S320〜S330、S660〜S670の処理は本発明でいう識別手段に相当し、上記実施形態におけるS360〜S370の処理は本発明でいうクラスタ方向推定手段に相当する。   Furthermore, the processes of S210 to S220, S360 to S380, S410 to S435, S460 to S470, S510 to S520, and S560 to S580 in the above embodiment correspond to the point cloud correction means referred to in the present invention. The processes of S390, S440, S480, S530, and S590 correspond to the integration means referred to in the present invention. In addition, the processes of S170, S320 to S330, and S660 to S670 in the above embodiment correspond to the identifying means in the present invention, and the processes in S360 to S370 in the above embodiment correspond to the cluster direction estimating means in the present invention.

さらに、上記実施形態におけるS380の処理は本発明でいうクラスタ回転補正手段に相当し、上記実施形態におけるS410の処理は本発明でいう点群分割手段に相当する。また、上記実施形態におけるS430の処理は本発明でいうパーツ方向推定手段に相当し、上記実施形態におけるS435の処理は本発明でいうパーツ回転補正手段に相当する。   Further, the process of S380 in the above embodiment corresponds to the cluster rotation correcting means in the present invention, and the process of S410 in the above embodiment corresponds to the point group dividing means in the present invention. Further, the process of S430 in the above embodiment corresponds to the part direction estimating means in the present invention, and the process of S435 in the above embodiment corresponds to the part rotation correcting means in the present invention.

さらに、上記実施形態におけるS470の処理は本発明でいう反射強度補正手段に相当し、上記実施形態におけるS510の処理は本発明でいう自車両姿勢取得手段に相当する。また、上記実施形態におけるS520の処理は本発明でいう姿勢補正手段に相当し、上記実施形態におけるS560の処理は本発明でいう識別結果取得手段に相当に相当する。   Further, the process of S470 in the above embodiment corresponds to the reflection intensity correcting means referred to in the present invention, and the process of S510 in the above embodiment corresponds to the own vehicle posture acquiring means referred to in the present invention. In addition, the process of S520 in the above embodiment corresponds to the posture correction unit in the present invention, and the process of S560 in the above embodiment corresponds to the identification result acquisition unit in the present invention.

さらに、上記実施形態におけるS660の処理は本発明でいう面積演算手段に相当し、上記実施形態におけるS710の処理は本発明でいう速度取得手段に相当する。   Furthermore, the process of S660 in the above embodiment corresponds to the area calculating means in the present invention, and the process of S710 in the above embodiment corresponds to the speed acquisition means in the present invention.

1…運転支援システム、10…レーダ装置、11…レーダ制御部、12…走査駆動部、13…光学ユニット、14…発光部、15…受光部、18…CPU、19…メモリ、30…車両制御部。   DESCRIPTION OF SYMBOLS 1 ... Driving assistance system, 10 ... Radar apparatus, 11 ... Radar control part, 12 ... Scanning drive part, 13 ... Optical unit, 14 ... Light emission part, 15 ... Light receiving part, 18 ... CPU, 19 ... Memory, 30 ... Vehicle control Department.

Claims (13)

自車両に搭載され、自車両の周囲に位置する物体を認識する物体認識装置(2)であって、
物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にて前記レーザ光の反射光を受光することで得られるそれぞれの物体との距離情報を測距点として、複数の測距点の集合を表す測距点群を取得する測距点群取得手段(S110)と、
前記測距点群をクラスタリングし、クラスタ点群を得るクラスタリング手段(S120)と、
前記クラスタ点群の位置をクラスタ毎に設定された位置に補正した補正クラスタ点群を生成する点群補正手段(S210〜S220、S360〜S380、S410〜S435、S460〜S470、S510〜S520、S560〜S580)と、
それぞれのクラスタについて得られた現在時刻の補正クラスタ点群を、過去において各クラスタについて得られた過去時刻の統合クラスタ点群に統合した現在時刻の統合クラスタ点群を得る統合手段(S230、S390、S440、S480、S530、S590)と、
を備え
前記点群補正手段は、
クラスタ点群を複数のパーツに分割して、前記各パーツを構成する点群を表すパーツ点群を生成する点群分割手段(S410)と、
前記複数のパーツのそれぞれについてパーツ点群の方向を推定するパーツ方向推定手段(S430)と、
前記複数のパーツ点群の方向を予め設定された方向に回転させるパーツ回転補正手段(S435)と、
を備えたことを特徴とする物体認識装置。
An object recognition device (2) that is mounted on a host vehicle and recognizes an object located around the host vehicle,
Each of the detection areas obtained by detecting the detection area for detecting an object in each of the irradiation areas obtained by previously dividing the detection area into a grid shape in the horizontal direction and the vertical direction, and receiving the reflected light of the laser light in each irradiation area Distance measurement point group acquisition means (S110) for acquiring a distance measurement point group representing a set of a plurality of distance measurement points using distance information from the object as distance measurement points;
Clustering means for clustering the distance measurement point group to obtain a cluster point group (S120);
Point group correction means (S210 to S220, S360 to S380, S410 to S435, S460 to S470, S510 to S520, S560) for generating corrected cluster point groups in which the positions of the cluster point groups are corrected to positions set for each cluster. To S580),
Integration means (S230, S390, S390, S390) for obtaining an integrated cluster point group of the current time obtained by integrating the corrected cluster point group of the current time obtained for each cluster into the integrated cluster point group of the past time obtained for each cluster in the past. S440, S480, S530, S590),
Equipped with a,
The point cloud correction means includes
Point group dividing means (S410) for dividing the cluster point group into a plurality of parts and generating a part point group representing the point group constituting each part;
Part direction estimating means (S430) for estimating the direction of the part point group for each of the plurality of parts;
Part rotation correction means (S435) for rotating the direction of the plurality of parts point groups in a preset direction;
An object recognition apparatus characterized by comprising:
請求項1に記載の物体認識装置において、前記統合クラスタ点群を用いて物体の種別を識別する識別手段(S170、S320〜S330、S660〜S670)、
を備えたことを特徴とする物体認識装置。
The object recognition apparatus according to claim 1, wherein an identification unit (S170, S320 to S330, S660 to S670) for identifying a type of an object using the integrated cluster point cloud,
An object recognition apparatus characterized by comprising:
請求項1または請求項2に記載の物体認識装置において、
前記点群補正手段は、それぞれのクラスタ点群の原点の位置を、過去において得られた統合クラスタ点群にて設定された原点の位置と一致させる補正を行うこと
を特徴とする物体認識装置。
The object recognition apparatus according to claim 1 or 2,
The object recognition apparatus characterized in that the point group correction means performs correction to match the position of the origin of each cluster point group with the position of the origin set in the integrated cluster point group obtained in the past.
自車両に搭載され、自車両の周囲に位置する物体を認識する物体認識装置(2)であって、
物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にて前記レーザ光の反射光を受光することで得られるそれぞれの物体との距離情報を測距点として、複数の測距点の集合を表す測距点群を取得する測距点群取得手段(S110)と、
前記測距点群をクラスタリングし、クラスタ点群を得るクラスタリング手段(S120)と、
前記クラスタ点群の位置をクラスタ毎に設定された位置に補正した補正クラスタ点群を生成する点群補正手段(S210〜S220、S360〜S380、S410〜S435、S460〜S470、S510〜S520、S560〜S580)と、
それぞれのクラスタについて得られた現在時刻の補正クラスタ点群を、過去において各クラスタについて得られた過去時刻の統合クラスタ点群に統合した現在時刻の統合クラスタ点群を得る統合手段(S230、S390、S440、S480、S530、S590)と、
前記統合クラスタ点群を用いて物体の種別を識別する識別手段(S170、S320〜S330、S660〜S670)と、
前記統合クラスタ点群において、各測距点の各照射領域の重複領域に応じて重み付けすることで、統合クラスタ点群の照射領域の重み付き面積を演算する面積演算手段(S660)と、
を備え、
前記識別手段は、前記重み付き面積を用いて物体の種別を識別すること
を特徴とする物体認識装置。
An object recognition device (2) that is mounted on a host vehicle and recognizes an object located around the host vehicle,
Each of the detection areas obtained by detecting the detection area for detecting an object in each of the irradiation areas obtained by previously dividing the detection area into a grid shape in the horizontal direction and the vertical direction, and receiving the reflected light of the laser light in each irradiation area Distance measurement point group acquisition means (S110) for acquiring a distance measurement point group representing a set of a plurality of distance measurement points using distance information from the object as distance measurement points;
Clustering means for clustering the distance measurement point group to obtain a cluster point group (S120);
Point group correction means (S210 to S220, S360 to S380, S410 to S435, S460 to S470, S510 to S520, S560) for generating corrected cluster point groups in which the positions of the cluster point groups are corrected to positions set for each cluster. To S580),
Integration means (S230, S390, S390, S390) for obtaining an integrated cluster point group of the current time obtained by integrating the corrected cluster point group of the current time obtained for each cluster into the integrated cluster point group of the past time obtained for each cluster in the past. S440, S480, S530, S590),
Identification means (S170, S320 to S330, S660 to S670) for identifying the type of the object using the integrated cluster point cloud;
In the integrated cluster point group, area calculation means (S660) for calculating a weighted area of the irradiation region of the integrated cluster point group by weighting according to the overlapping region of each irradiation region of each ranging point;
With
The identification means identifies an object type using the weighted area.
Object recognition apparatus according to claim.
請求項に記載の物体認識装置において、
前記点群補正手段は、それぞれのクラスタ点群の原点の位置を、過去において得られた統合クラスタ点群にて設定された原点の位置と一致させる補正を行うこと
を特徴とする物体認識装置。
The object recognition apparatus according to claim 4 ,
The object recognition apparatus characterized in that the point group correction means performs correction to match the position of the origin of each cluster point group with the position of the origin set in the integrated cluster point group obtained in the past.
請求項4または請求項に記載の物体認識装置において、
前記点群補正手段は、
クラスタ点群の方向を推定するクラスタ方向推定手段(S360〜S370)と、
クラスタ点群の方向を予め設定された方向に回転させるクラスタ回転補正手段(S380)と、
を備えたことを特徴とする物体認識装置。
In the object recognition device according to claim 4 or 5 ,
The point cloud correction means includes
Cluster direction estimation means (S360 to S370) for estimating the direction of the cluster point group;
Cluster rotation correction means (S380) for rotating the direction of the cluster point group in a preset direction;
An object recognition apparatus characterized by comprising:
請求項4または請求項に記載の物体認識装置において、
前記点群補正手段は、
クラスタ点群を複数のパーツに分割して、前記各パーツを構成する点群を表すパーツ点群を生成する点群分割手段(S410)と、
前記複数のパーツのそれぞれについてパーツ点群の方向を推定するパーツ方向推定手段(S430)と、
前記複数のパーツ点群の方向を予め設定された方向に回転させるパーツ回転補正手段(S435)と、
を備えたことを特徴とする物体認識装置。
In the object recognition device according to claim 4 or 5 ,
The point cloud correction means includes
Point group dividing means (S410) for dividing the cluster point group into a plurality of parts and generating a part point group representing the point group constituting each part;
Part direction estimating means (S430) for estimating the direction of the part point group for each of the plurality of parts;
Part rotation correction means (S435) for rotating the direction of the plurality of parts point groups in a preset direction;
An object recognition apparatus characterized by comprising:
請求項2または請求項4〜請求項7の何れか1項に記載の物体認識装置において、
前記測距点群取得手段は、距離と反射強度とを含む測距点群を取得するよう構成され、
当該物体認識装置は、
距離に応じて反射強度を補正する反射強度補正手段(S470)、を備え、
前記識別手段は、反射強度も用いて物体の種別を識別すること
を特徴とする物体認識装置。
In the object recognition device according to claim 2 or any one of claims 4 to 7 ,
The distance measuring point group acquisition means is configured to acquire a distance measuring point group including a distance and a reflection intensity,
The object recognition device
Reflection intensity correction means (S470) for correcting the reflection intensity according to the distance,
The object recognizing apparatus characterized in that the identifying means identifies the type of an object using reflection intensity.
請求項2または請求項4〜請求項8の何れか1項に記載の物体認識装置において、
前記点群補正手段は、測距点群の取得時刻を含む補正クラスタ点群を生成し、
前記識別手段は、前記統合クラスタ点群に含まれる測距点の取得時刻に応じた重み付けを行った上で利用すること
を特徴とする物体認識装置。
The object recognition apparatus according to claim 2 or any one of claims 4 to 8 ,
The point group correction means generates a correction cluster point group including the time of acquisition of the distance measurement point group,
The identification means is used after weighting according to the acquisition time of the distance measurement points included in the integrated cluster point group.
請求項2または請求項4〜請求項9の何れか1項に記載の物体認識装置において、
前記識別手段は、前記統合クラスタ点群に含まれる測距点の距離に応じた重み付けを行った上で利用すること
を特徴とする物体認識装置。
The object recognition apparatus according to claim 2 or any one of claims 4 to 9 ,
The object recognition apparatus is characterized in that the identification means is used after performing weighting according to the distance of distance measurement points included in the integrated cluster point group.
請求項2または請求項4〜請求項10の何れか1項に記載の物体認識装置において、
統合クラスタ点群の速度を取得する速度取得手段(S710)、
を備え、
前記識別手段は、予め準備された複数のモデルから前記物体の速度に応じてモデルを選択し、該選択したモデルを用いて物体の種別を識別すること
を特徴とする物体認識装置。
The object recognition device according to claim 2 or any one of claims 4 to 10 ,
Speed acquisition means (S710) for acquiring the speed of the integrated cluster point cloud;
With
The object recognition apparatus, wherein the identification unit selects a model from a plurality of models prepared in advance according to the speed of the object, and identifies the type of the object using the selected model.
請求項1〜請求項11の何れか1項に記載の物体認識装置において、
自車両の姿勢を取得する自車両姿勢取得手段(S510)と、
自車両の姿勢に応じて測距点群の位置を補正する姿勢補正手段(S520)と、
を備えたことを特徴とする物体認識装置。
The object recognition device according to any one of claims 1 to 11 ,
Own vehicle posture acquisition means (S510) for acquiring the posture of the own vehicle;
Attitude correction means (S520) for correcting the position of the distance measuring point group according to the attitude of the host vehicle;
An object recognition apparatus characterized by comprising:
請求項1〜請求項12の何れか1項に記載の物体認識装置において、
過去における識別結果を取得する識別結果取得手段(S560)、
を備え、
前記点群補正手段は、前記物体の種別に基づいて、前記種別に対応して予め設定された形状に合わせて位置を補正するように補正クラスタ点群を生成すること
を特徴とする物体認識装置。
In the object recognition device according to any one of claims 1 to 12 ,
Identification result acquisition means (S560) for acquiring identification results in the past;
With
The point group correcting unit generates a corrected cluster point group based on the type of the object so as to correct the position according to a shape set in advance corresponding to the type. .
JP2015088455A 2015-04-23 2015-04-23 Object recognition device Active JP6411942B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015088455A JP6411942B2 (en) 2015-04-23 2015-04-23 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015088455A JP6411942B2 (en) 2015-04-23 2015-04-23 Object recognition device

Publications (2)

Publication Number Publication Date
JP2016206026A JP2016206026A (en) 2016-12-08
JP6411942B2 true JP6411942B2 (en) 2018-10-24

Family

ID=57487763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015088455A Active JP6411942B2 (en) 2015-04-23 2015-04-23 Object recognition device

Country Status (1)

Country Link
JP (1) JP6411942B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018151211A1 (en) * 2017-02-15 2018-08-23 株式会社Preferred Networks Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
JP6955203B2 (en) * 2017-09-11 2021-10-27 コニカミノルタ株式会社 Object detection system and object detection program
JP6989766B2 (en) * 2017-09-29 2022-01-12 ミツミ電機株式会社 Radar device and target detection method
JP6954812B2 (en) * 2017-11-24 2021-10-27 トヨタ自動車株式会社 Object recognition device
JP7069927B2 (en) * 2018-03-26 2022-05-18 株式会社デンソー Object recognition device and object recognition method
JP7244220B2 (en) * 2018-06-13 2023-03-22 株式会社デンソーテン Radar device and target data output method
JP7147848B2 (en) * 2018-07-31 2022-10-05 株式会社ニコン Processing device, posture analysis system, processing method, and processing program
US10878580B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method
US11592524B2 (en) * 2018-11-02 2023-02-28 Waymo Llc Computation of the angle of incidence of laser beam and its application on reflectivity estimation
WO2020110802A1 (en) * 2018-11-30 2020-06-04 株式会社小糸製作所 On-vehicle object identification system, automobile, vehicle lamp, classifier learning method, and arithmetic operation device
KR102083482B1 (en) * 2018-12-13 2020-03-02 국민대학교산학협력단 Lidar-based vehicle travelable area detection apparatus and method
WO2020240609A1 (en) * 2019-05-24 2020-12-03 日本電気株式会社 Member identification device, member identification method, and computer-readable medium
CN112394334B (en) 2019-08-16 2024-05-28 富士通株式会社 Clustering device and method for radar reflection points and electronic equipment
CN112749594B (en) * 2019-10-31 2022-04-22 浙江商汤科技开发有限公司 Information completion method, lane line identification method, intelligent driving method and related products
EP3885787B1 (en) * 2020-03-27 2022-05-04 Sick Ag Detection of distance measurement data
JP7445890B2 (en) 2020-06-10 2024-03-08 パナソニックIpマネジメント株式会社 Processing device, processing method, program, and radar device
KR102420808B1 (en) * 2020-09-15 2022-07-14 (주)스마트레이더시스템 System for detecting posture based on radar point cloud
JP2023034318A (en) * 2021-08-30 2023-03-13 京セラ株式会社 Electronic apparatus, method for controlling electronic apparatus, and program
CN114371485B (en) * 2022-03-21 2022-06-10 中汽研(天津)汽车工程研究院有限公司 Obstacle prediction and tracking method based on ICP and multi-feature data association

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3450189B2 (en) * 1998-06-16 2003-09-22 ダイハツ工業株式会社 Pedestrian detection system and control method thereof
JP2002352399A (en) * 2001-05-23 2002-12-06 Mitsubishi Electric Corp Vehicle surroundings monitor
JP5287392B2 (en) * 2009-03-17 2013-09-11 トヨタ自動車株式会社 Object identification device
JP5700940B2 (en) * 2010-03-16 2015-04-15 ダイハツ工業株式会社 Object recognition device
JP5630377B2 (en) * 2011-05-25 2014-11-26 株式会社デンソー Object identification device and object identification program
DE102013203300A1 (en) * 2012-02-27 2013-08-29 Denso Corporation Image processing apparatus for use in vehicle control system for detecting pedestrian captured by camera, has object region estimating unit estimating object region in which object is present on basis of partial regions

Also Published As

Publication number Publication date
JP2016206026A (en) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6411942B2 (en) Object recognition device
JP6938846B2 (en) Object recognition device
JP6777403B2 (en) Object recognition device and program
JP6825569B2 (en) Signal processor, signal processing method, and program
CN111191600B (en) Obstacle detection method, obstacle detection device, computer device, and storage medium
CN108603936B (en) Laser scanning system, laser scanning method, non-transitory computer-readable storage medium
US10444363B2 (en) System and method for off angle three-dimensional face standardization for robust performance
KR102012179B1 (en) APPARATUS AND METHOD FOR CALIBRATING LiDAR-CAMERA BASED ON 3D PLANE EXTRATION
JP2010185769A (en) Object detector
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP2011065338A (en) Object tracking device and program
AU2015270607B2 (en) Device for detection of obstacles in a horizontal plane and detection method implementing such a device
JP2006209318A (en) Apparatus and method for detecting number of people
JP2022045947A5 (en)
KR20200076628A (en) Location measuring method of mobile device, location measuring device and electronic device
JP6458577B2 (en) Image ranging device
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
JP2007233440A (en) On-vehicle image processor
CN117557999A (en) Image joint labeling method, computer equipment and medium
CN113516685B (en) Target tracking method, device, equipment and storage medium
JP5439948B2 (en) Guiding device and target judging device
JP2019045199A (en) Object detection system and object detection program
KR20170086799A (en) Apparatus and method for determing 3d object using rotation of laser
JPWO2020110802A1 (en) In-vehicle object identification system, automobile, vehicle lighting equipment, classifier learning method, arithmetic processing device
WO2018074357A1 (en) Position recognizing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180927

R150 Certificate of patent or registration of utility model

Ref document number: 6411942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250