JP6911312B2 - Object identification device - Google Patents

Object identification device Download PDF

Info

Publication number
JP6911312B2
JP6911312B2 JP2016185478A JP2016185478A JP6911312B2 JP 6911312 B2 JP6911312 B2 JP 6911312B2 JP 2016185478 A JP2016185478 A JP 2016185478A JP 2016185478 A JP2016185478 A JP 2016185478A JP 6911312 B2 JP6911312 B2 JP 6911312B2
Authority
JP
Japan
Prior art keywords
geometric feature
clustering
vehicle
target
targeted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016185478A
Other languages
Japanese (ja)
Other versions
JP2018048949A (en
Inventor
嘉修 竹前
嘉修 竹前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016185478A priority Critical patent/JP6911312B2/en
Publication of JP2018048949A publication Critical patent/JP2018048949A/en
Application granted granted Critical
Publication of JP6911312B2 publication Critical patent/JP6911312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自動運転システムに用いて好適な物体識別装置に関する。 The present invention relates to an object identification device suitable for use in an automated driving system.

特許文献1には、クラスタを構成する測距点群の自車両の進行方向に対する傾きが予め設定した閾値以内であれば、当該クラスタが表す物標は、移動物体ではなく、道路に沿って設置された壁状物体であると判断する方法が開示されている。 In Patent Document 1, if the inclination of the AF point group constituting the cluster with respect to the traveling direction of the own vehicle is within a preset threshold value, the target represented by the cluster is installed along the road instead of a moving object. A method for determining that the wall-like object is formed is disclosed.

特開2013−36978号公報Japanese Unexamined Patent Publication No. 2013-36978

道路の曲率が大きいカーブ出入り口などにおいては、道路に沿って設置された壁状物体の自車両の進行方向に対する傾きは大きくなる。この場合、上記方法では、自車両の進行方向に対する測距点群の傾きが閾値を超えてしまうために、壁状物体であるにもかかわらず壁状物体ではないと誤判断してしまうおそれがある。 At curved entrances and exits where the curvature of the road is large, the inclination of the wall-shaped object installed along the road with respect to the traveling direction of the own vehicle becomes large. In this case, in the above method, since the inclination of the AF point group with respect to the traveling direction of the own vehicle exceeds the threshold value, there is a risk of erroneously determining that the object is not a wall object even though it is a wall object. be.

本発明は、上述のような課題に鑑みてなされたものであり、道路に沿って設置された壁状物体を移動物体として誤認することを低減することができる物体識別装置を提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an object identification device capable of reducing misidentification of a wall-shaped object installed along a road as a moving object. And.

上記の目的を達成するため、本発明に係る物体識別装置は、
自車両の前方に存在する物体の測距データを取得する測距データ取得手段と、
前記測距データ取得手段が取得した測距データをクラスタリングするクラスタリング手段と、
前記クラスタリング手段により物標化された測距点群それぞれについて、そのサイズを示す物標サイズを計算し、前記物標サイズが所定値以上となる前記クラスタリング手段により物標化された測距点群の幾何学的特徴量を計算する第1の幾何学的特徴量計算手段と、
前記自車両が走行している道路の地図情報と前記自車両の位置情報とに基づいて前記自車両の前方における道路境界を認識するか、或いは、前記自車両の前方を撮影した撮影画像に対する白線認識処理によって前記道路境界を認識する道路境界認識手段と、
前記道路境界認識手段で認識された前記道路境界の幾何学的特徴量を計算する第2の幾何学的特徴量計算手段と、
前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が予め設定した閾値以内である場合、前記物標サイズが所定値以上となる前記クラスタリング手段により物標化された測距点群は道路に沿って設置された壁状の物体であると判断する判断手段と、
備え、
前記クラスタリング手段は、
前回フレームで前記クラスタリングにより物標化された測距点群の高さが所定の閾値以下である場合、前回フレームで物標化された測距点群の位置及び速度に基づいて、前回フレームで物標化された測距点群に係る物標の今回フレームにおける位置を推定し、
推定された前記物標の位置の範囲に含まれる前記測距データを今回フレームにおける前記クラスタリングの対象から除外する
ことを特徴とする。
In order to achieve the above object, the object identification device according to the present invention is
Distance measurement data acquisition means for acquiring distance measurement data of an object existing in front of the own vehicle, and
A clustering means for clustering the distance measurement data acquired by the distance measurement data acquisition means, and
For each of the AF point groups targeted by the clustering means, the target size indicating the size is calculated, and the AF point group targeted by the clustering means whose target size is equal to or larger than a predetermined value. The first geometric feature calculation means for calculating the geometric features of
The road boundary in front of the own vehicle is recognized based on the map information of the road on which the own vehicle is traveling and the position information of the own vehicle, or a white line with respect to the photographed image taken in front of the own vehicle. A road boundary recognition means that recognizes the road boundary by recognition processing,
A second geometric feature calculation means for calculating the geometric feature of the road boundary recognized by the road boundary recognition means, and a second geometric feature calculation means.
A preset threshold value is the difference between the geometric feature calculated by the first geometric feature calculation means and the geometric feature calculated by the second geometric feature calculation means. If it is within the range, the distance measuring point group targeted by the clustering means whose target size is equal to or larger than a predetermined value is determined to be a wall-shaped object installed along the road.
Equipped with a,
The clustering means
When the height of the AF point cloud targeted by the clustering in the previous frame is equal to or less than a predetermined threshold value, the position and velocity of the AF point cloud targeted in the previous frame are used in the previous frame. Estimate the position of the target in the current frame related to the targeted AF point cloud, and
It is characterized in that the distance measurement data included in the estimated position range of the target is excluded from the target of the clustering in the current frame .

前記判断手段は、前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が前記閾値より大きい場合であっても、前記クラスタリング手段により物標化された測距点群が前記道路境界の形状に沿って所定時間、所定速度以上の速さで移動していない場合、前記測距点群は道路に沿って設置された壁状の物体であると判断するように構成されてもよい。このような構成によれば、壁状物体を移動物体として誤認することをより低減することができる。 The determination means is the difference between the geometric feature amount calculated by the first geometric feature amount calculation means and the geometric feature amount calculated by the second geometric feature amount calculation means. Is larger than the threshold value, but when the AF point group targeted by the clustering means does not move along the shape of the road boundary for a predetermined time at a speed equal to or higher than a predetermined speed, the above. The AF point group may be configured to determine that it is a wall-like object installed along the road. According to such a configuration, it is possible to further reduce the misidentification of the wall-shaped object as a moving object.

本発明に係る物体識別装置によれば、物標化された測距点群の幾何学的特徴量と、道路境界の幾何学的特徴量とを比較するので、道路の曲率が物体の識別結果に影響することを抑えることができる。つまり、この発明によれば、道路の曲率が大きいカーブ出入り口などにおいても、道路に沿って設置された壁状物体の識別精度を正しく壁状物体として識別することが可能であり、壁状物体を移動物体として誤認することを低減することができる。また、物標サイズが所定値未満である測距点群を幾何学的特徴量の計算の対象から除外することにより、トラックやバスのような長尺車両が道路に進入している場合であっても、長尺車両を壁状物体と誤認することを低減することができる。さらに、前記クラスタリング手段において、特定の測距データを今回フレームにおけるクラスタリングの対象から除外することにより、縁石のような壁状物体ではない静止物体を識別対象から除外して、物体識別に掛かる演算量を低減することができる。 According to the object identification device according to the present invention, the geometric feature amount of the targeted AF point group is compared with the geometric feature amount of the road boundary, so that the curvature of the road is the identification result of the object. It is possible to suppress the influence on. That is, according to the present invention, it is possible to correctly identify the wall-shaped object installed along the road as a wall-shaped object even at a curved entrance / exit having a large curvature of the road. It is possible to reduce misidentification as a moving object. In addition, when a long vehicle such as a truck or a bus is entering the road by excluding a group of AF points whose target size is less than a predetermined value from the calculation of geometric features. However, it is possible to reduce the misidentification of a long vehicle as a wall-like object. Further, in the clustering means, by excluding specific ranging data from the target of clustering in the frame this time, a stationary object that is not a wall-like object such as a rim stone is excluded from the identification target, and the amount of calculation required for object identification. Can be reduced.

実施の形態1に係る自動運転システムの構成を示すブロック図である。It is a block diagram which shows the structure of the automatic operation system which concerns on Embodiment 1. FIG. 測距データ取得部の機能について説明する図である。It is a figure explaining the function of the distance measurement data acquisition part. クラスタリング部の機能について説明する図である。It is a figure explaining the function of the clustering part. 第1の幾何学的特徴量計算部の機能について説明する図である。It is a figure explaining the function of the 1st geometric feature calculation part. 道路境界認識部の機能について説明する図である。It is a figure explaining the function of the road boundary recognition part. 第2の幾何学的特徴量計算部の機能について説明する図である。It is a figure explaining the function of the 2nd geometric feature calculation part. 判断部の機能について説明する図である。It is a figure explaining the function of the determination part. 実施の形態1に係る物体識別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object identification process which concerns on Embodiment 1. FIG. 実施の形態2に係る道路境界認識部の機能について説明する図である。It is a figure explaining the function of the road boundary recognition part which concerns on Embodiment 2. FIG. 実施の形態2に係る物体識別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object identification process which concerns on Embodiment 2. 壁状物体と長尺車両との誤認を防ぐ方法を説明する図である。It is a figure explaining the method of preventing the misidentification of a wall-shaped object and a long vehicle. 実施の形態3に係る物体識別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object identification process which concerns on Embodiment 3. 実施の形態4に係る物体識別処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the object identification process which concerns on Embodiment 4.

以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, when the number, quantity, quantity, range, etc. of each element is referred to in the embodiment shown below, the reference is made unless otherwise specified or clearly specified by the number in principle. The present invention is not limited to the number of the above. In addition, the structure described in the embodiments shown below is not necessarily essential to the present invention, except when explicitly stated or when it is clearly specified in principle.

実施の形態1
図1は、実施の形態1に係る自動運転システムの構成を示す図である。自動運転システムは、それが搭載される車両の自動運転を実行する。自動運転システム1は、物体識別装置として機能する制御装置10と、自律認識センサであるライダー(LIDAR:Laser Imaging Detection and Ranging)2、レーダー3及びカメラ4を備える。これらの自律認識センサは、直接、或いは、車両内に構築されたCAN(Controller Area Network)等の通信ネットワークを介して制御装置10に接続されている。制御装置10は、自律認識センサで得られた物体情報より、車両の略全周囲の状況を把握することができる。
Embodiment 1
FIG. 1 is a diagram showing a configuration of an automatic driving system according to the first embodiment. The autonomous driving system performs autonomous driving of the vehicle on which it is mounted. The automatic driving system 1 includes a control device 10 that functions as an object identification device, a lidar (LIDAR: Laser Imaging Detection and Ranging) 2 that is an autonomous recognition sensor, a radar 3, and a camera 4. These autonomous recognition sensors are directly connected to the control device 10 or via a communication network such as a CAN (Controller Area Network) constructed in the vehicle. The control device 10 can grasp the situation around substantially the entire vehicle from the object information obtained by the autonomous recognition sensor.

自動運転システム1は、さらに、GPS(Global Positioning System)受信機5、地図データベース6、ナビゲーションシステム7、HMI(Human Machine Interface)8及びアクチュエータ9を備える。GPS受信機5は、GPS衛星が発信する信号に基づいて自車両の位置を示す位置情報を取得する手段である。地図データベース6は、例えば、車両に搭載されたHDDやSSD等のストレージ内に形成されている。地図データベース6が有する地図情報には、道路の位置情報、道路形状の情報、交差点及び分岐点の位置情報、道路のレーン情報等が含まれる。ナビゲーションシステム7は、GPS受信機5によって測定された自車両の位置情報と地図データベース6の地図情報とに基づいて、自車両の走行するルートを算出し、算出したルートの情報をHMI8を介して運転者に伝達するとともに、制御装置10へ出力する。HMI8は、乗員と制御装置10との間で情報の出力及び入力をするためのインターフェイスである。アクチュエータ9は、制御装置10からの操作信号に応じて動作し、その動作によって車両の走行状態を変化させる装置である。アクチュエータ9は、例えば、駆動系、制動系、操舵系のそれぞれに設けられている。これら以外にも、例えば、車速センサや加速度センサ等の自車両の走行状態に関する情報を得るための内部センサが自動運転システム1には備えられる。 The automatic driving system 1 further includes a GPS (Global Positioning System) receiver 5, a map database 6, a navigation system 7, an HMI (Human Machine Interface) 8, and an actuator 9. The GPS receiver 5 is a means for acquiring position information indicating the position of the own vehicle based on a signal transmitted by a GPS satellite. The map database 6 is formed in, for example, a storage such as an HDD or SSD mounted on a vehicle. The map information included in the map database 6 includes road position information, road shape information, intersection and branch point position information, road lane information, and the like. The navigation system 7 calculates the route on which the own vehicle travels based on the position information of the own vehicle measured by the GPS receiver 5 and the map information of the map database 6, and the calculated route information is transmitted via the HMI 8. It is transmitted to the driver and output to the control device 10. The HMI 8 is an interface for outputting and inputting information between the occupant and the control device 10. The actuator 9 is a device that operates in response to an operation signal from the control device 10 and changes the traveling state of the vehicle according to the operation. The actuator 9 is provided in each of the drive system, the braking system, and the steering system, for example. In addition to these, the automatic driving system 1 is provided with internal sensors such as a vehicle speed sensor and an acceleration sensor for obtaining information on the running state of the own vehicle.

制御装置10は、少なくとも1つのCPU、少なくとも1つのROM、少なくとも1つのRAMを有するECU(Electronic Control Unit)である。ROMには、自動運転のための各種のプログラムやマップを含む各種のデータが記憶されている。ROMに記憶されているプログラムがRAMにロードされ、CPUで実行されることで、制御装置10には様々な機能が実現される。なお、制御装置10は、複数のECUから構成されていてもよい。 The control device 10 is an ECU (Electronic Control Unit) having at least one CPU, at least one ROM, and at least one RAM. Various data including various programs and maps for automatic operation are stored in the ROM. The program stored in the ROM is loaded into the RAM and executed by the CPU, so that the control device 10 realizes various functions. The control device 10 may be composed of a plurality of ECUs.

図1には、制御装置10が有する自動運転のための機能のうち、特に、物体識別に関係する機能がブロックで表現されている。制御装置10が有する自動運転のためのその他の機能についての図示は省略されている。 In FIG. 1, among the functions for automatic operation of the control device 10, the functions related to object identification are represented by blocks. Illustration of other functions of the control device 10 for automatic operation is omitted.

制御装置10は、自車両の周辺に存在する物体を認識し、道路に沿って設置された壁状物体と移動物体とを判別する機能を有する。この機能は、制御装置10が備える測距データ取得部11、クラスタリング部12、第1の幾何学的特徴量計算部13、道路境界認識部14、第2の幾何学的特徴量計算部15、及び判断部16により実現される。ただし、これらの部11,12,13,14、15、16は、制御装置10内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがCPUで実行されたときにソフトウェア的に実現される。 The control device 10 has a function of recognizing an object existing around the own vehicle and discriminating between a wall-shaped object installed along the road and a moving object. This function includes a distance measurement data acquisition unit 11, a clustering unit 12, a first geometric feature calculation unit 13, a road boundary recognition unit 14, and a second geometric feature calculation unit 15 included in the control device 10. And it is realized by the judgment unit 16. However, these parts 11, 12, 13, 14, 15, and 16 do not exist as hardware in the control device 10, but are realized by software when the program stored in the ROM is executed by the CPU. Will be done.

測距データ取得部11は、自車両の周囲に存在する物体の測距データを自律認識センサより取得する。測距データには、測距点までの距離に関する情報、測距点の高さに関する情報、及び測距点の方向に関する情報が含まれる。測距データ取得部11は、ライダー2で得た情報を用いること、レーダー3で得た情報を用いること、カメラ4で得た情報を用いること、センサフュージョンによって複数種類の自律認識センサの情報を組み合わせて用いること、のうち少なくとも1つの方法による測距データの取得が可能である。測距データ取得部11は、取得した測距データに基づき、各測距点の走行面内での位置を特定する。図2には、自車両に対する前方方向の距離をX軸にとり、横方向の位置をY軸にとった平面(以下、XY平面という)上での測距点の分布の一例が示されている。 The distance measurement data acquisition unit 11 acquires distance measurement data of an object existing around the own vehicle from the autonomous recognition sensor. The distance measurement data includes information on the distance to the distance measurement point, information on the height of the distance measurement point, and information on the direction of the distance measurement point. The ranging data acquisition unit 11 uses the information obtained by the rider 2, the information obtained by the radar 3, the information obtained by the camera 4, and the information of a plurality of types of autonomous recognition sensors by sensor fusion. It is possible to acquire distance measurement data by at least one method of using them in combination. The distance measurement data acquisition unit 11 specifies the position of each distance measurement point in the traveling surface based on the acquired distance measurement data. FIG. 2 shows an example of the distribution of AF points on a plane (hereinafter referred to as XY plane) in which the distance in the forward direction with respect to the own vehicle is taken on the X-axis and the position in the lateral direction is taken on the Y-axis. ..

クラスタリング部12は、測距データ取得部11が取得した測距データをクラスタリングする。クラスタリングは、各測距点のX平面上での位置と高さとに基づいて行われる。また、前回フレームでのクラスタリングの結果との連続性を保つように行われる。クラスタリング部12によるクラスタリングの具体的な方法には特に限定はない。公知のクラスタリング方法を用いることができる。図3には、XY平面上に分布する測距点をクラスタリングによって物標化した結果の一例が示されている。長方形の枠は物標を示し、長方形の枠で囲まれた測距点群が物標化された測距点群である。 The clustering unit 12 clusters the distance measurement data acquired by the distance measurement data acquisition unit 11. Clustering is performed based on the position and height of each AF point on the X plane. In addition, it is performed so as to maintain continuity with the result of clustering in the previous frame. The specific method of clustering by the clustering unit 12 is not particularly limited. A known clustering method can be used. FIG. 3 shows an example of the result of targeting the AF points distributed on the XY plane by clustering. The rectangular frame indicates a target, and the range-finding point group surrounded by the rectangular frame is the target range-finding point group.

第1の幾何学的特徴量計算部13は、クラスタリング部12により物標化された測距点群の幾何学的特徴量を計算する。幾何学的特徴量には、物標化された測距点群を最小二乗法等のフィッティング手法を用いて直線で近似した場合の、自車両の進行方向に対する直線の傾きが含まれる。また、幾何学的特徴量には、物標化された測距点群を最小二乗法等のフィッティング手法を用いて曲線で近似した場合の、曲線の曲率或いは曲率変化率が含まれる。第1の幾何学的特徴量計算部13は、傾き、曲率、曲率変化率のうちの少なくとも1つを計算する。図4には、物標化された測距点群を近似した直線が点線で描かれている。図4に示す例では、X軸に対する測距点群の傾き、具体的には、測距点群を近似した直線がX軸に対してなす角度が、第1の幾何学的特徴量として算出される。 The first geometric feature calculation unit 13 calculates the geometric feature of the AF point cloud targeted by the clustering unit 12. The geometric feature amount includes the slope of the straight line with respect to the traveling direction of the own vehicle when the target range-finding point cloud is approximated by a straight line using a fitting method such as the least squares method. In addition, the geometric feature amount includes the curvature of the curve or the rate of change in curvature when the target range-finding point cloud is approximated by a curve using a fitting method such as the least squares method. The first geometric feature calculation unit 13 calculates at least one of the inclination, the curvature, and the rate of change of curvature. In FIG. 4, a straight line that approximates the targeted AF point cloud is drawn by a dotted line. In the example shown in FIG. 4, the inclination of the AF point cloud with respect to the X axis, specifically, the angle formed by the straight line that approximates the AF point cloud with respect to the X axis is calculated as the first geometric feature amount. Will be done.

道路境界認識部14は、自車両の前方を撮影した撮影画像に対する白線認識処理によって道路境界を認識する。白線認識処理は、カメラ4の画像からのエッジ点の検出、エッジ線分の検出、エッジ線分のペアリング、そして、白線境界の選択の順で行われる。図5には、カメラ4の画像からエッジ点を検出する方法が示されている。カメラ4の画像を水平方向に左から右へ走査して、画素が黒から白へと変化するエッジ点と、画素が白から黒へと変化するエッジ点が探索される。この処理を垂直方向に上から下へ行うことで、エッジ点が直線上に並ぶエッジ線分が検出される。エッジ線分が白線のものであるなら、白線の両縁に対応して2本一組のエッジ線分が得られる。エッジ線分のペアリングは、白線のものではないエッジ線分を除外し、白線の可能性のあるエッジ線分を選択するために行われる。ペアリングにより選択されたエッジ線分の位置と過去の白線検出位置とが比較される。両者の間に連続性がある場合、選択されたエッジ線分は白線、つまり、道路境界として認識される。 The road boundary recognition unit 14 recognizes the road boundary by white line recognition processing for the captured image of the front of the own vehicle. The white line recognition process is performed in the order of detection of edge points from the image of the camera 4, detection of edge line segments, pairing of edge line segments, and selection of white line boundaries. FIG. 5 shows a method of detecting an edge point from the image of the camera 4. The image of the camera 4 is scanned horizontally from left to right to search for an edge point at which the pixel changes from black to white and an edge point at which the pixel changes from white to black. By performing this process vertically from top to bottom, an edge line segment in which edge points are aligned on a straight line is detected. If the edge line segment is that of a white line, a pair of edge line segments can be obtained corresponding to both edges of the white line. Edge line segment pairing is performed to exclude edge line segments that are not white lines and select edge line segments that may be white lines. The position of the edge line segment selected by pairing is compared with the past white line detection position. If there is continuity between the two, the selected edge segment is recognized as a white line, or road boundary.

第2の幾何学的特徴量計算部15は、道路境界認識部14で認識された道路境界をXY平面に写像し、XY平面上での道路境界の幾何学的特徴量を計算する。道路境界認識部14で計算される幾何学的特徴量には、道路境界の点列データを最小二乗法等のフィッティング手法を用いて直線で近似した場合の、自車両の進行方向に対する直線の傾きと、道路境界の点列データを最小二乗法等のフィッティング手法を用いて曲線で近似した場合の、曲線の曲率或いは曲率変化率が含まれる。第2の幾何学的特徴量計算部15は、傾き、曲率、曲率変化率のうち、第1の幾何学的特徴量計算部13で計算される幾何学的特徴量と同種の幾何学的特徴量を計算する。また、第2の幾何学的特徴量計算部15による幾何学的特徴量の計算は、クラスタリング部12により設定された物標を示す枠内の道路境界に対して行われる。図6には、物標内の道路境界を近似した直線が実線で描かれている。図6に示す例では、X軸に対する道路境界の傾き、具体的には、道路境界を近似した直線がX軸に対してなす角度が、第2の幾何学的特徴量として算出される。 The second geometric feature calculation unit 15 maps the road boundary recognized by the road boundary recognition unit 14 onto the XY plane, and calculates the geometric feature of the road boundary on the XY plane. The geometric feature calculated by the road boundary recognition unit 14 is the slope of the straight line with respect to the traveling direction of the own vehicle when the point sequence data of the road boundary is approximated by a straight line using a fitting method such as the least squares method. And, the curvature of the curve or the rate of change in curvature when the point sequence data of the road boundary is approximated by a curve using a fitting method such as the least squares method is included. The second geometric feature calculation unit 15 has the same type of geometric features as the geometric features calculated by the first geometric feature calculation unit 13 among the inclination, curvature, and curvature change rate. Calculate the quantity. Further, the calculation of the geometric feature amount by the second geometric feature amount calculation unit 15 is performed on the road boundary in the frame indicating the target set by the clustering unit 12. In FIG. 6, a straight line that approximates the road boundary in the target is drawn as a solid line. In the example shown in FIG. 6, the inclination of the road boundary with respect to the X-axis, specifically, the angle formed by the straight line that approximates the road boundary with respect to the X-axis is calculated as the second geometric feature amount.

判断部16は、第1の幾何学的特徴量計算部13により計算された第1の幾何学的特徴量と、第2の幾何学的特徴量計算部15により計算された第2の幾何学的特徴量との差を物標ごとに計算する。例えば、幾何学的特徴量として傾きと曲率が計算された場合、判断部16は、傾きの差と曲率の差をそれぞれ計算する。図7には、物標化された測距点群を近似した直線が点線で描かれ、物標内の道路境界を近似した直線が実線で描かれている。図7に示す例では、X軸に対する測距点群の傾きと道路境界の傾きとの差、具体的には、測距点群を近似した直線と道路境界を近似した直線とがなす角度が算出される。 The determination unit 16 has a first geometric feature calculated by the first geometric feature calculation unit 13 and a second geometry calculated by the second geometric feature calculation unit 15. Calculate the difference from the target feature amount for each target. For example, when the slope and the curvature are calculated as the geometric features, the determination unit 16 calculates the difference in the slope and the difference in the curvature, respectively. In FIG. 7, a straight line that approximates the targeted AF point cloud is drawn by a dotted line, and a straight line that approximates the road boundary in the target is drawn by a solid line. In the example shown in FIG. 7, the difference between the inclination of the AF point cloud and the inclination of the road boundary with respect to the X-axis, specifically, the angle formed by the straight line that approximates the AF point cloud and the straight line that approximates the road boundary. It is calculated.

第1の幾何学的特徴量と第2の幾何学的特徴量との間に差がない場合、或いは、その差が微少である場合、クラスタリング部12により物標化された測距点群は道路に沿って設置された壁状の物体である可能性が高い。判断部16は、差の絶対値が予め設定した閾値以内である場合、物標化された測距点群は道路に沿って設置された壁状の物体であると判断する。判断部16は、この判断結果に応じて、物標化された測距点群をトラッキング処理の対象に含めるか、或いは、トラッキング処理の対象から除外するかを決定する。 If there is no difference between the first geometric feature and the second geometric feature, or if the difference is small, the AF point cloud targeted by the clustering unit 12 is It is likely to be a wall-like object installed along the road. When the absolute value of the difference is within a preset threshold value, the determination unit 16 determines that the targeted AF point group is a wall-shaped object installed along the road. The determination unit 16 determines whether to include the targeted AF point cloud in the tracking process or exclude it from the tracking process according to the determination result.

上記の各部11,12,13,14、15、16の機能により、制御装置10は物体識別装置として機能する。図8は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。物体識別装置としての制御装置10は、このフローチャートに示す処理を所定の周期で繰り返し実施している。 The control device 10 functions as an object identification device by the functions of the above-mentioned parts 11, 12, 13, 14, 15, and 16. FIG. 8 is a flowchart showing the flow of the object identification process according to the present embodiment. The control device 10 as the object identification device repeatedly executes the process shown in this flowchart at a predetermined cycle.

まず、ステップS1では、カメラ4の画像に対する白線認識処理によって自車両の前方における道路境界が認識される。また、ステップS1の処理と平行して、ステップS2及びS3の処理が行われる。ステップS2では、ライダー2或いはレーダー3により自車両の周囲に存在する物体の測距データが取得される。ステップS3では、ステップS2で取得された測距データがクラスタリングされ、測距点群が物標化される。 First, in step S1, the road boundary in front of the own vehicle is recognized by the white line recognition process for the image of the camera 4. Further, the processes of steps S2 and S3 are performed in parallel with the process of step S1. In step S2, the distance measurement data of the objects existing around the own vehicle are acquired by the rider 2 or the radar 3. In step S3, the distance measurement data acquired in step S2 is clustered, and the distance measurement point cloud is targeted.

ステップS4では、物標毎に、ステップS3で物標化された測距点群の幾何学的特徴量が計算される。ここでは、測距点群の幾何学的特徴量として、測距点群の傾きが計算されるとする。また、ステップS5では、物標毎に、ステップS1で認識された道路境界の幾何学的特徴量が計算される。ここで計算される幾何学的特徴量は、ステップS4で計算される幾何学的特徴量と同じく傾きである。 In step S4, the geometric feature amount of the AF point group targeted in step S3 is calculated for each target. Here, it is assumed that the slope of the AF point group is calculated as the geometric feature of the AF point group. Further, in step S5, the geometric feature amount of the road boundary recognized in step S1 is calculated for each target. The geometric feature calculated here is the same slope as the geometric feature calculated in step S4.

ステップS6では、ステップS4で計算された測距点群の傾きと、ステップS5で計算された道路境界の傾きとが比較される。そして、それらの差の絶対値が計算される。ステップS7では、ステップS6で計算された測距点群の傾きと道路境界の傾きとの差(絶対値)が閾値以内かどうか判定される。傾きの差が閾値以内である場合、次の処理としてステップS8が選択され、傾きの差が閾値より大きい場合、次の処理としてステップS9が選択される。 In step S6, the slope of the AF point cloud calculated in step S4 is compared with the slope of the road boundary calculated in step S5. Then, the absolute value of the difference is calculated. In step S7, it is determined whether or not the difference (absolute value) between the slope of the AF point cloud calculated in step S6 and the slope of the road boundary is within the threshold value. If the difference in slope is within the threshold value, step S8 is selected as the next process, and if the difference in slope is larger than the threshold value, step S9 is selected as the next process.

ステップS8では、ステップS3で物標化された測距点群がトラッキング処理から除外される。測距点群の傾きと道路境界の傾きとの間に明確な差がない場合、その測距点群は道路に沿って設置された壁状の物体である可能性が高いからである。逆に、ステップS9では、ステップS3で物標化された測距点群がトラッキング処理の対象とされる。そして、その測距点群に係る物標情報が出力される。物標情報には、物標の位置、速度、加速度等の情報が含まれる。物標情報は、車間距離制御やレーン変更制御等の車両の運転制御に用いられる。 In step S8, the AF point cloud targeted in step S3 is excluded from the tracking process. This is because if there is no clear difference between the inclination of the AF point group and the inclination of the road boundary, the AF point group is likely to be a wall-like object installed along the road. On the contrary, in step S9, the AF point cloud targeted in step S3 is targeted for the tracking process. Then, the target information related to the AF point group is output. The target information includes information such as the position, speed, and acceleration of the target. The target information is used for vehicle operation control such as inter-vehicle distance control and lane change control.

以上の手順で行われる物体識別処理によれば、物標化された測距点群の幾何学的特徴量と、道路境界の幾何学的特徴量とを比較するので、道路の曲率が物体の識別結果に影響することを抑えることができる。ゆえに、本実施の形態に係る自動運転システムによれば、道路の曲率が大きいカーブ出入り口などにおいても、道路に沿って設置された壁状物体の識別精度を正しく壁状物体として識別することが可能であり、壁状物体を移動物体として誤認することを低減することができる。 According to the object identification process performed in the above procedure, the geometric feature of the targeted AF point group is compared with the geometric feature of the road boundary, so that the curvature of the road is the object. It is possible to suppress the influence on the identification result. Therefore, according to the automatic driving system according to the present embodiment, it is possible to correctly identify the wall-shaped object installed along the road as a wall-shaped object even at a curved entrance / exit having a large curvature of the road. Therefore, it is possible to reduce the misidentification of a wall-shaped object as a moving object.

実施の形態2
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムと実施の形態1に係る自動運転システムとの相違は、道路境界認識部14による道路境界の認識方法にある。
Embodiment 2
The automatic driving system according to the present embodiment has the configuration shown in FIG. 1 like the automatic driving system according to the first embodiment. The difference between the automatic driving system according to the present embodiment and the automatic driving system according to the first embodiment lies in the method of recognizing the road boundary by the road boundary recognition unit 14.

本実施の形態では、道路境界認識部14は、カメラ4の画像と地図情報とを用いた自己位置推定によって道路境界を認識する。図9には、自己位置推定の方法が示されている。まず、自車両の位置が中心となるようにカメラ4の画像が平面上に投影される。また、GPS受信機5により特定した自車両の位置に基づいて、自車両の周囲の地図画像が地図データベース6から検索される。そして、平面上に投影したカメラ画像と地図画像とが照合される。地図画像より道路境界のおおよその位置がわかるので、2つの画像を照合することにより、カメラ画像から道路境界の点列データを抽出することができる。 In the present embodiment, the road boundary recognition unit 14 recognizes the road boundary by self-position estimation using the image of the camera 4 and the map information. FIG. 9 shows a method of self-position estimation. First, the image of the camera 4 is projected on a plane so that the position of the own vehicle is at the center. Further, a map image around the own vehicle is searched from the map database 6 based on the position of the own vehicle specified by the GPS receiver 5. Then, the camera image projected on the plane and the map image are collated. Since the approximate position of the road boundary can be known from the map image, the point sequence data of the road boundary can be extracted from the camera image by collating the two images.

図10は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1のステップS1の処理に代えて、ステップS1′の処理が行われる。ステップS1′では、カメラ4の画像と地図情報とを用いた自己位置推定によって道路境界が認識される。ステップS2からステップS10までの残りの処理については、実施の形態1からの変更はない。なお、道路境界の認識方法として、カメラ4の画像と地図情報とを用いた自己位置推定による道路境界の認識と、白線認識処理による道路境界の認識とを併用することも可能である。 FIG. 10 is a flowchart showing the flow of the object identification process according to the present embodiment. In the object identification process according to the present embodiment, the process of step S1'is performed instead of the process of step S1 of the first embodiment. In step S1', the road boundary is recognized by self-position estimation using the image of the camera 4 and the map information. The remaining processes from step S2 to step S10 are not changed from the first embodiment. As a road boundary recognition method, it is also possible to use both the recognition of the road boundary by self-position estimation using the image of the camera 4 and the map information and the recognition of the road boundary by the white line recognition process.

実施の形態3
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムでは、トラックやバスのような長尺車両と壁状物体とを誤認しないための新たな機能が、第1の幾何学的特徴量計算部13と判断部16とに与えられている。
Embodiment 3
The automatic driving system according to the present embodiment has the configuration shown in FIG. 1 like the automatic driving system according to the first embodiment. In the automatic driving system according to the present embodiment, new functions for not misidentifying a long vehicle such as a truck or a bus and a wall-shaped object are the first geometric feature calculation unit 13 and the determination unit 16. Is given to.

本実施の形態では、第1の幾何学的特徴量計算部13は、クラスタリング部12により物標化された測距点群の物標サイズを計算する。物標サイズとは、物標を示す長方形の枠の横幅、長さ、それらの比率のうちの少なくとも一つである。物標サイズに対しては、壁状物体と長尺車両とを判別するための閾値が設定されている。物標サイズが閾値未満である場合、第1の幾何学的特徴量計算部13は、その物標が示す測距点群を幾何学的特徴量の計算の対象から除外する。除外された測距点群は、壁状物体ではない移動物体である可能性が高い。ゆえに、判断部16は、第1の幾何学的特徴量計算部13で除外された測距点群をトラッキング処理の対象に含め、その測距点群に係る物標情報を出力する。 In the present embodiment, the first geometric feature calculation unit 13 calculates the target size of the AF point cloud targeted by the clustering unit 12. The target size is at least one of the width, length, and ratio of the rectangular frame indicating the target. For the target size, a threshold value for distinguishing between a wall-shaped object and a long vehicle is set. When the target size is less than the threshold value, the first geometric feature calculation unit 13 excludes the AF point cloud indicated by the target from the calculation of the geometric feature. The excluded AF point cloud is likely to be a moving object that is not a wall-like object. Therefore, the determination unit 16 includes the AF point group excluded by the first geometric feature calculation unit 13 as the target of the tracking process, and outputs the target information related to the AF point group.

また、本実施の形態では、判断部16は、物標化された測距点群が道路境界の形状に沿って所定時間、所定速度以上の速さで移動しているかどうかによって、長尺車両と壁状物体とを判別する。具体的には、判断部16は、所定閾値以上の速度が所定時間以上継続していること(条件A)と、各時刻の物標位置のレーン中心位置に対する横位置誤差が所定時間以上継続していること(条件B)の両方が満足されているかどうか判定する。図11に示す例では、時刻T−2,T−1,Tにおける物標の位置の変化から、物標化された測距点群の速度が計算されて閾値速度と比較されるとともに、レーン中心位置に対する物標位置の横位置誤差が計算される。なお、レーン中心位置は左右の白線の位置から計算される。条件Aと条件Bのいずれか一方でも満たされていない場合、判断部16は、その測距点群は長尺車両である可能性が高いと判断し、その測距点群に係る物標情報の出力を中止する。 Further, in the present embodiment, the determination unit 16 determines whether or not the targeted AF point group is moving along the shape of the road boundary for a predetermined time at a speed equal to or higher than a predetermined speed. And a wall-like object. Specifically, in the determination unit 16, the speed of the predetermined threshold value or higher continues for a predetermined time or longer (condition A), and the lateral position error of the target position at each time with respect to the lane center position continues for the predetermined time or longer. It is determined whether or not both of the above (condition B) are satisfied. In the example shown in FIG. 11, the velocity of the targeted AF point cloud is calculated from the change in the position of the target at time T-2, T-1, and T and compared with the threshold velocity, and the lane is used. The lateral position error of the target position with respect to the center position is calculated. The lane center position is calculated from the positions of the white lines on the left and right. If either condition A or condition B is not satisfied, the determination unit 16 determines that the AF point group is likely to be a long vehicle, and the target information related to the AF point group. Stops the output of.

図12は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS101の処理が行われる。ステップS101の処理は、ステップS3の処理の後、ステップS4の処理の前に行われる。ステップS101では、ステップS3で物標化された測距点群の物標サイズが閾値以上かどうか判定される。物標サイズが閾値以上である場合、ステップS4に進んで測距点群の幾何学的特徴量(例えば傾き)が算出される。しかし、物標サイズが閾値未満である場合、ステップS4からステップS7までをスキップしてステップS9に進み、ステップS3で物標化された測距点群はトラッキング処理の対象とされる。ステップS101の処理が加えられたことにより、トラックやバスのような長尺車両を壁状物体と誤認することは抑えられる。 FIG. 12 is a flowchart showing the flow of the object identification process according to the present embodiment. In the object identification process according to the present embodiment, the process of step S101 is performed in addition to the object identification process according to the first embodiment or the second embodiment. The process of step S101 is performed after the process of step S3 and before the process of step S4. In step S101, it is determined whether or not the target size of the AF point cloud targeted in step S3 is equal to or larger than the threshold value. When the target size is equal to or larger than the threshold value, the process proceeds to step S4 to calculate the geometric feature amount (for example, inclination) of the AF point group. However, if the target size is less than the threshold value, steps S4 to S7 are skipped and the process proceeds to step S9, and the AF point cloud targeted in step S3 is subject to tracking processing. By adding the process of step S101, it is possible to prevent a long vehicle such as a truck or a bus from being mistaken for a wall-like object.

さらに、本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS102の処理が行われる。ステップS102の処理は、ステップS9の処理の後、ステップS10の処理の前に行われる。ステップS102では、ステップS1で得られた白線情報を用いて、トラッキング処理の対象となっている物標の過去の移動履歴が解析される。そして、前述の条件Aと条件Bの両方が満たされていれば、ステップS10に進んで物標情報が出力される。しかし、前述の条件Aと条件Bの一方でも満たされていない場合、物標情報の出力は中止される。ステップS102の処理が行われることにより、壁状物体をトラックやバスのような長尺車両と誤認することは抑えられる。 Further, in the object identification process according to the present embodiment, the process of step S102 is performed in addition to the object identification process according to the first embodiment or the second embodiment. The process of step S102 is performed after the process of step S9 and before the process of step S10. In step S102, the past movement history of the target targeted for tracking processing is analyzed using the white line information obtained in step S1. Then, if both the above-mentioned condition A and condition B are satisfied, the process proceeds to step S10 and the target information is output. However, if either of the above-mentioned conditions A and B is not satisfied, the output of the target information is stopped. By performing the process of step S102, it is possible to prevent the wall-shaped object from being mistaken for a long vehicle such as a truck or a bus.

実施の形態4
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムと実施の形態1に係る自動運転システムとの相違は、クラスタリング部12に与えられた物体識別に掛かる演算量を低減する機能にある。
Embodiment 4
The automatic driving system according to the present embodiment has the configuration shown in FIG. 1 like the automatic driving system according to the first embodiment. The difference between the automatic driving system according to the present embodiment and the automatic driving system according to the first embodiment lies in the function of reducing the amount of calculation required for object identification given to the clustering unit 12.

本実施の形態では、物体識別に掛かる演算量を低減する方法として、測距点を間引いてクラスタリングすることが行われる。測距点を間引く方法には次の2つの方法がある。まず、第1の方法と第2の方法に共通の手順として、前回フレームで物標化された測距点群の位置及び速度を利用して、今回フレームでの物標の位置が推定される。そして、物体は剛体であるとの仮定により、前回フレームと同じ高さ・横幅・長さの物標枠が今回フレームでの物標の枠として用いられる。 In the present embodiment, as a method of reducing the amount of calculation required for object identification, clustering is performed by thinning out the AF points. There are the following two methods for thinning out the AF points. First, as a procedure common to the first method and the second method, the position of the target in the frame this time is estimated by using the position and velocity of the AF point cloud targeted in the previous frame. .. Then, assuming that the object is a rigid body, a target frame having the same height, width, and length as the previous frame is used as the target frame in the current frame.

第1の方法では、今回フレームでの物標の枠に入る測距点について、一定間隔で測距点を間引くか、或いは、距離の大きさに応じて間引き量を変えて間引く(例えば距離が近いほど間引く量を大きくする)ことが行われる。第2の方法では、前回フレームの物標枠のサイズ、特に高さが閾値以下であった場合、今回フレームでの物標の枠に入る全ての測距点をクラスタリングの対象から除外する。このような方法を実施することにより、物体識別に掛かる演算量を低減することができる。特に、第2の方法を実施することにより、縁石のような壁状物体ではない静止物体を識別対象から除外して、物体識別に掛かる演算量を低減することができる。 In the first method, the focus points that fall into the frame of the target in the frame this time are thinned out at regular intervals, or the thinning amount is changed according to the size of the distance (for example, the distance is thinned out). The closer it is, the larger the amount of thinning out) is performed. In the second method, when the size of the target frame of the previous frame, particularly the height, is equal to or less than the threshold value, all the AF points that fall within the target frame of the current frame are excluded from the clustering target. By implementing such a method, it is possible to reduce the amount of calculation required for object identification. In particular, by implementing the second method, it is possible to exclude a stationary object that is not a wall-shaped object such as a curb from the identification target and reduce the amount of calculation required for object identification.

図13は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS201の処理が行われる。ステップS201の処理は、ステップS2の処理の後、ステップS3の処理の前に行われる。ステップS201では、ステップS2で取得された測距点から上記の第1の方法と第2の方法のいずれか一つ方法にて測距点が間引かれる。そして、ステップS3では、間引かれた測距点に対してクラスタリングが行われる。ステップS4以降の内容には実施の形態1或いは実施の形態2から変更はないので、フローチャートへの記載は省略されている。 FIG. 13 is a flowchart showing the flow of the object identification process according to the present embodiment. In the object identification process according to the present embodiment, the process of step S201 is performed in addition to the object identification process according to the first embodiment or the second embodiment. The process of step S201 is performed after the process of step S2 and before the process of step S3. In step S201, the AF points are thinned out from the AF points acquired in step S2 by any one of the first method and the second method described above. Then, in step S3, clustering is performed on the thinned AF points. Since the contents after step S4 are not changed from the first embodiment or the second embodiment, the description in the flowchart is omitted.

1 自動運転システム
2 ライダー
3 レーダー
4 カメラ
5 GPS受信機
6 地図データベース
7 ナビゲーションシステム
8 HMI
9 アクチュエータ
10 制御装置(物体識別装置)
11 測距データ取得部(測距データ取得手段)
12 クラスタリング部(クラスタリング手段)
13 第1の幾何学的特徴量計算部(第1の幾何学的特徴量計算手段)
14 道路境界認識部(道路境界認識手段)
15 第2の幾何学的特徴量計算部(第2の幾何学的特徴量計算手段)
16 判断部(判断手段)
1 Autonomous driving system 2 Rider 3 Radar 4 Camera 5 GPS receiver 6 Map database 7 Navigation system 8 HMI
9 Actuator 10 Control device (object identification device)
11 Distance measurement data acquisition unit (distance measurement data acquisition means)
12 Clustering unit (clustering means)
13 First geometric feature calculation unit (first geometric feature calculation means)
14 Road boundary recognition unit (road boundary recognition means)
15 Second geometric feature calculation unit (second geometric feature calculation means)
16 Judgment unit (judgment means)

Claims (1)

自車両の前方に存在する物体の測距データを取得する測距データ取得手段と、
前記測距データ取得手段が取得した測距データをクラスタリングするクラスタリング手段と、
前記クラスタリング手段により物標化された測距点群それぞれについて、そのサイズを示す物標サイズを計算し、前記物標サイズが所定値以上となる前記クラスタリング手段により物標化された測距点群の幾何学的特徴量を計算する第1の幾何学的特徴量計算手段と、
前記自車両が走行している道路の地図情報と前記自車両の位置情報とに基づいて前記自車両の前方における道路境界を認識するか、或いは、前記自車両の前方を撮影した撮影画像に対する白線認識処理によって前記道路境界を認識する道路境界認識手段と、
前記道路境界認識手段で認識された前記道路境界の幾何学的特徴量を計算する第2の幾何学的特徴量計算手段と、
前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が予め設定した閾値以内である場合、前記物標サイズが所定値以上となる前記クラスタリング手段により物標化された測距点群は道路に沿って設置された壁状の物体であると判断する判断手段と、
を備え、
前記クラスタリング手段は、
前回フレームで前記クラスタリングにより物標化された測距点群の高さが所定の閾値以下である場合、前回フレームで物標化された測距点群の位置及び速度に基づいて、前回フレームで物標化された測距点群に係る物標の今回フレームにおける位置を推定し、
推定された前記物標の位置の範囲に含まれる前記測距データを今回フレームにおける前記クラスタリングの対象から除外する
ことを特徴とする物体識別装置。
Distance measurement data acquisition means for acquiring distance measurement data of an object existing in front of the own vehicle, and
A clustering means for clustering the distance measurement data acquired by the distance measurement data acquisition means, and
For each of the AF point groups targeted by the clustering means, the target size indicating the size is calculated, and the AF point group targeted by the clustering means whose target size is equal to or larger than a predetermined value. The first geometric feature calculation means for calculating the geometric features of
The road boundary in front of the own vehicle is recognized based on the map information of the road on which the own vehicle is traveling and the position information of the own vehicle, or a white line with respect to the photographed image taken in front of the own vehicle. A road boundary recognition means that recognizes the road boundary by recognition processing,
A second geometric feature calculation means for calculating the geometric feature of the road boundary recognized by the road boundary recognition means, and a second geometric feature calculation means.
A preset threshold value is the difference between the geometric feature calculated by the first geometric feature calculation means and the geometric feature calculated by the second geometric feature calculation means. If it is within the range, the distance measuring point group targeted by the clustering means whose target size is equal to or larger than a predetermined value is determined to be a wall-shaped object installed along the road.
With
The clustering means
When the height of the AF point cloud targeted by the clustering in the previous frame is equal to or less than a predetermined threshold value, the position and velocity of the AF point cloud targeted in the previous frame are used in the previous frame. Estimate the position of the target in the current frame related to the targeted AF point cloud, and
An object identification device characterized in that the distance measurement data included in the estimated position range of the target is excluded from the target of the clustering in the current frame.
JP2016185478A 2016-09-23 2016-09-23 Object identification device Active JP6911312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016185478A JP6911312B2 (en) 2016-09-23 2016-09-23 Object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016185478A JP6911312B2 (en) 2016-09-23 2016-09-23 Object identification device

Publications (2)

Publication Number Publication Date
JP2018048949A JP2018048949A (en) 2018-03-29
JP6911312B2 true JP6911312B2 (en) 2021-07-28

Family

ID=61767531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016185478A Active JP6911312B2 (en) 2016-09-23 2016-09-23 Object identification device

Country Status (1)

Country Link
JP (1) JP6911312B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7290240B2 (en) * 2018-04-27 2023-06-13 成典 田中 Object recognition device
JP2019200182A (en) * 2018-05-18 2019-11-21 株式会社豊田自動織機 Object sensing device
JP7156195B2 (en) * 2019-07-17 2022-10-19 トヨタ自動車株式会社 object recognition device
JP7120181B2 (en) 2019-08-22 2022-08-17 トヨタ自動車株式会社 Object recognition device
WO2021192032A1 (en) * 2020-03-24 2021-09-30 三菱電機株式会社 Information processing device and information processing method
WO2023194761A1 (en) * 2022-04-08 2023-10-12 日産自動車株式会社 Information processing method and information processing device
CN116859406B (en) * 2023-09-05 2023-11-28 武汉煜炜光学科技有限公司 Calculation method and device for vehicle speed based on laser radar

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4878483B2 (en) * 2006-03-13 2012-02-15 オムロンオートモーティブエレクトロニクス株式会社 Radar equipment
JP5551892B2 (en) * 2009-06-19 2014-07-16 富士通テン株式会社 Signal processing apparatus and radar apparatus
JP2012089114A (en) * 2010-09-24 2012-05-10 Toyota Motor Corp Obstacle recognition device
JP5664252B2 (en) * 2011-01-12 2015-02-04 トヨタ自動車株式会社 Pedestrian detection device
JP2013036978A (en) * 2011-07-12 2013-02-21 Denso Corp Target detection apparatus and wall determination method
JP5820774B2 (en) * 2012-06-21 2015-11-24 株式会社豊田中央研究所 Road boundary estimation apparatus and program
US9834207B2 (en) * 2014-04-15 2017-12-05 GM Global Technology Operations LLC Method and system for detecting, tracking and estimating stationary roadside objects

Also Published As

Publication number Publication date
JP2018048949A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP6911312B2 (en) Object identification device
JP6747269B2 (en) Object recognition device
JP5966747B2 (en) Vehicle travel control apparatus and method
US11260861B2 (en) Method, device and computer-readable storage medium with instructions for determining the lateral position of a vehicle relative to the lanes on a roadway
KR20200014931A (en) Vehicle information storage method, vehicle driving control method, and vehicle information storage device
US9779315B2 (en) Traffic signal recognition apparatus and traffic signal recognition method
JP6654923B2 (en) Map information output device
JP7077910B2 (en) Bound line detection device and lane marking method
CN107957258B (en) Road mark recognition device
JP2008123462A (en) Object detector
JP2019108116A (en) Device and method for controlling speed of vehicle in longitudinal direction
CN113859263B (en) Scheduled travel route setting device and scheduled travel route setting method
JP6115429B2 (en) Own vehicle position recognition device
CN114103954A (en) Travel lane planning device, storage medium, and travel lane planning method
JP6690510B2 (en) Object recognition device
US20170124880A1 (en) Apparatus for recognizing vehicle location
CN116524454A (en) Object tracking device, object tracking method, and storage medium
JP7435513B2 (en) Vehicle control device and vehicle control method
JP2020057146A (en) Traveling lane estimation device, traveling lane estimation method, and control program
EP4060643B1 (en) Traffic signal recognition method and traffic signal recognition device
US11156466B2 (en) Lane determination device
US11679769B2 (en) Traffic signal recognition method and traffic signal recognition device
JP7095559B2 (en) Bound line detection device and lane marking method
RU2779773C1 (en) Traffic light recognition method and traffic light recognition device
US20230152807A1 (en) Vehicle control system and vehicle driving method using the vehicle control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R151 Written notification of patent or utility model registration

Ref document number: 6911312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151