JP2018048949A - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP2018048949A
JP2018048949A JP2016185478A JP2016185478A JP2018048949A JP 2018048949 A JP2018048949 A JP 2018048949A JP 2016185478 A JP2016185478 A JP 2016185478A JP 2016185478 A JP2016185478 A JP 2016185478A JP 2018048949 A JP2018048949 A JP 2018048949A
Authority
JP
Japan
Prior art keywords
geometric feature
feature amount
point group
road boundary
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016185478A
Other languages
Japanese (ja)
Other versions
JP6911312B2 (en
Inventor
嘉修 竹前
Kashu Takemae
嘉修 竹前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016185478A priority Critical patent/JP6911312B2/en
Publication of JP2018048949A publication Critical patent/JP2018048949A/en
Application granted granted Critical
Publication of JP6911312B2 publication Critical patent/JP6911312B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object recognition device with which it is possible to reduce the possibility of a wall-shaped object installed along a road being misrecognized as a mobile object.SOLUTION: The object recognition device acquires the distance measurement data of an object present ahead of the vehicle (S2), clusters the acquired distance measurement data (S3), and calculates an inclination of a distance measurement point group turned into a target by clustering against the traveling direction of the vehicle (S4). The object recognition device recognizes a road boundary by performing a white line recognition process on a captured image of surroundings ahead of the vehicle (S1), and calculates an inclination of the recognized road boundary against the traveling direction of the vehicle (S5). The object recognition device compares the inclination of the distance measurement point group and the inclination of the road boundary (S6), and determines, when a difference between the two is within a preset threshold, that the distance measurement point group turned into the target is a wall-shaped object installed along the road (S7).SELECTED DRAWING: Figure 8

Description

本発明は、自動運転システムに用いて好適な物体識別装置に関する。   The present invention relates to an object identification device suitable for use in an automatic driving system.

特許文献1には、クラスタを構成する測距点群の自車両の進行方向に対する傾きが予め設定した閾値以内であれば、当該クラスタが表す物標は、移動物体ではなく、道路に沿って設置された壁状物体であると判断する方法が開示されている。   In Patent Document 1, if the inclination of the distance measuring point group constituting the cluster with respect to the traveling direction of the host vehicle is within a preset threshold value, the target represented by the cluster is not a moving object but is installed along the road. Disclosed is a method for determining that the object is a wall-like object.

特開2013−36978号公報JP 2013-36978 A

道路の曲率が大きいカーブ出入り口などにおいては、道路に沿って設置された壁状物体の自車両の進行方向に対する傾きは大きくなる。この場合、上記方法では、自車両の進行方向に対する測距点群の傾きが閾値を超えてしまうために、壁状物体であるにもかかわらず壁状物体ではないと誤判断してしまうおそれがある。   In a curved doorway with a large curvature of the road, the inclination of the wall-like object installed along the road with respect to the traveling direction of the host vehicle becomes large. In this case, in the above method, since the inclination of the distance measuring point group with respect to the traveling direction of the host vehicle exceeds the threshold value, there is a possibility that it is erroneously determined that the object is not a wall-like object even though it is a wall-like object. is there.

本発明は、上述のような課題に鑑みてなされたものであり、道路に沿って設置された壁状物体を移動物体として誤認することを低減することができる物体識別装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide an object identification device that can reduce misidentification of a wall-like object installed along a road as a moving object. And

上記の目的を達成するため、本発明に係る物体識別装置は、
自車両の前方に存在する物体の測距データを取得する測距データ取得手段と、
前記測距データ取得手段が取得した測距データをクラスタリングするクラスタリング手段と、
前記クラスタリング手段により物標化された測距点群の幾何学的特徴量を計算する第1の幾何学的特徴量計算手段と、
前記自車両が走行している道路の地図情報と前記自車両の位置情報とに基づいて前記自車両の前方における道路境界を認識するか、或いは、前記自車両の前方を撮影した撮影画像に対する白線認識処理によって前記道路境界を認識する道路境界認識手段と、
前記道路境界認識手段で認識された前記道路境界の幾何学的特徴量を計算する第2の幾何学的特徴量計算手段と、
前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が予め設定した閾値以内である場合、前記クラスタリング手段により物標化された測距点群は道路に沿って設置された壁状の物体であると判断する判断手段と、
を備えることを特徴とする。
In order to achieve the above object, an object identification device according to the present invention includes:
Ranging data acquisition means for acquiring ranging data of an object existing in front of the host vehicle;
Clustering means for clustering the distance measurement data acquired by the distance measurement data acquisition means;
First geometric feature amount calculating means for calculating a geometric feature amount of the distance measuring point group targeted by the clustering means;
Based on the map information of the road on which the host vehicle is traveling and the position information of the host vehicle, a road boundary in front of the host vehicle is recognized, or a white line for a photographed image obtained by shooting the front of the host vehicle Road boundary recognition means for recognizing the road boundary by recognition processing;
Second geometric feature amount calculating means for calculating a geometric feature amount of the road boundary recognized by the road boundary recognition means;
A threshold in which a difference between the geometric feature amount calculated by the first geometric feature amount calculating means and the geometric feature amount calculated by the second geometric feature amount calculating means is set in advance. A determination unit that determines that the range-finding point group targeted by the clustering unit is a wall-like object installed along the road,
It is characterized by providing.

前記第1の幾何学的特徴量計算手段は、前記クラスタリング手段により物標化された測距点群の物標サイズが閾値未満である場合、前記測距点群を幾何学的特徴量の計算の対象から除外するように構成されてもよい。このような構成によれば、トラックやバスのような長尺車両が道路に進入している場合であっても、長尺車両を壁状物体と誤認することを低減することができる。   The first geometric feature amount calculation means calculates the geometric feature amount of the distance measurement point group when the target size of the distance measurement point group targeted by the clustering means is less than a threshold value. It may be configured to be excluded from the target. According to such a configuration, even when a long vehicle such as a truck or a bus enters the road, it is possible to reduce misidentification of the long vehicle as a wall-like object.

前記判断手段は、前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が前記閾値より大きい場合であっても、前記クラスタリング手段により物標化された測距点群が前記道路境界の形状に沿って所定時間、所定速度以上の速さで移動していない場合、前記測距点群は道路に沿って設置された壁状の物体であると判断するように構成されてもよい。このような構成によれば、壁状物体を移動物体として誤認することをより低減することができる。   The determination means includes a difference between the geometric feature quantity calculated by the first geometric feature quantity calculation means and the geometric feature quantity calculated by the second geometric feature quantity calculation means. Even when the distance measuring point group targeted by the clustering means is not moving at a speed higher than a predetermined speed for a predetermined time along the shape of the road boundary, The distance measurement point group may be configured to determine that the object is a wall-like object installed along the road. According to such a configuration, it is possible to further reduce misidentification of a wall-like object as a moving object.

前記クラスタリング手段は、前回フレームで物標化された測距点群の位置及び速度に基づいて今回フレームでの前記測距点群の位置を推定し、前回フレームでの前記測距点群の高さが閾値以下であった場合、今回フレームにおいて前記測距点群が位置すると推定される範囲に含まれる測距データをクラスタリングの対象から除外するように構成されてもよい。このような構成によれば、縁石のような壁状物体ではない静止物体を識別対象から除外して、物体識別に掛かる演算量を低減することができる。   The clustering means estimates the position of the distance measurement point group in the current frame based on the position and speed of the distance measurement point group targeted in the previous frame, and determines the height of the distance measurement point group in the previous frame. If the distance is less than or equal to the threshold, the distance measurement data included in the range in which the distance measurement point group is estimated to be located in the current frame may be excluded from the clustering target. According to such a configuration, a stationary object that is not a wall-like object such as a curb can be excluded from identification targets, and the amount of calculation required for object identification can be reduced.

本発明に係る物体識別装置によれば、物標化された測距点群の幾何学的特徴量と、道路境界の幾何学的特徴量とを比較するので、道路の曲率が物体の識別結果に影響することを抑えることができる。つまり、この発明によれば、道路の曲率が大きいカーブ出入り口などにおいても、道路に沿って設置された壁状物体の識別精度を正しく壁状物体として識別することが可能であり、壁状物体を移動物体として誤認することを低減することができる。   According to the object identification device of the present invention, the geometric feature value of the target ranging point group is compared with the geometric feature value of the road boundary, so that the road curvature is the result of object identification. Can be suppressed. In other words, according to the present invention, it is possible to correctly identify the wall-shaped object installed along the road as a wall-like object even at a curved doorway where the curvature of the road is large. Misidentification as a moving object can be reduced.

実施の形態1に係る自動運転システムの構成を示すブロック図である。1 is a block diagram illustrating a configuration of an automatic driving system according to a first embodiment. 測距データ取得部の機能について説明する図である。It is a figure explaining the function of a ranging data acquisition part. クラスタリング部の機能について説明する図である。It is a figure explaining the function of a clustering part. 第1の幾何学的特徴量計算部の機能について説明する図である。It is a figure explaining the function of the 1st geometric feature-value calculation part. 道路境界認識部の機能について説明する図である。It is a figure explaining the function of a road boundary recognition part. 第2の幾何学的特徴量計算部の機能について説明する図である。It is a figure explaining the function of the 2nd geometric feature-value calculation part. 判断部の機能について説明する図である。It is a figure explaining the function of a judgment part. 実施の形態1に係る物体識別処理の流れを示すフローチャートである。3 is a flowchart showing a flow of object identification processing according to the first embodiment. 実施の形態2に係る道路境界認識部の機能について説明する図である。It is a figure explaining the function of the road boundary recognition part which concerns on Embodiment 2. FIG. 実施の形態2に係る物体識別処理の流れを示すフローチャートである。6 is a flowchart showing a flow of object identification processing according to the second embodiment. 壁状物体と長尺車両との誤認を防ぐ方法を説明する図である。It is a figure explaining the method of preventing misidentification with a wall-like object and a elongate vehicle. 実施の形態3に係る物体識別処理の流れを示すフローチャートである。12 is a flowchart showing a flow of object identification processing according to the third embodiment. 実施の形態4に係る物体識別処理の流れを示すフローチャートである。14 is a flowchart showing a flow of object identification processing according to the fourth embodiment.

以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。   Embodiments of the present invention will be described below with reference to the drawings. However, in the embodiment shown below, when referring to the number of each element, quantity, quantity, range, etc., unless otherwise specified or clearly specified in principle, the reference However, the present invention is not limited to these numbers. Further, the structures described in the embodiments described below are not necessarily essential to the present invention unless otherwise specified or clearly specified in principle.

実施の形態1
図1は、実施の形態1に係る自動運転システムの構成を示す図である。自動運転システムは、それが搭載される車両の自動運転を実行する。自動運転システム1は、物体識別装置として機能する制御装置10と、自律認識センサであるライダー(LIDAR:Laser Imaging Detection and Ranging)2、レーダー3及びカメラ4を備える。これらの自律認識センサは、直接、或いは、車両内に構築されたCAN(Controller Area Network)等の通信ネットワークを介して制御装置10に接続されている。制御装置10は、自律認識センサで得られた物体情報より、車両の略全周囲の状況を把握することができる。
Embodiment 1
FIG. 1 is a diagram illustrating a configuration of an automatic driving system according to the first embodiment. The automatic driving system performs automatic driving of a vehicle on which the automatic driving system is mounted. The automatic driving system 1 includes a control device 10 that functions as an object identification device, a lidar (LIDAR: Laser Imaging Detection and Ranging) 2 that is an autonomous recognition sensor, a radar 3, and a camera 4. These autonomous recognition sensors are connected to the control device 10 directly or via a communication network such as a CAN (Controller Area Network) built in the vehicle. The control device 10 can grasp the situation of substantially the entire periphery of the vehicle from the object information obtained by the autonomous recognition sensor.

自動運転システム1は、さらに、GPS(Global Positioning System)受信機5、地図データベース6、ナビゲーションシステム7、HMI(Human Machine Interface)8及びアクチュエータ9を備える。GPS受信機5は、GPS衛星が発信する信号に基づいて自車両の位置を示す位置情報を取得する手段である。地図データベース6は、例えば、車両に搭載されたHDDやSSD等のストレージ内に形成されている。地図データベース6が有する地図情報には、道路の位置情報、道路形状の情報、交差点及び分岐点の位置情報、道路のレーン情報等が含まれる。ナビゲーションシステム7は、GPS受信機5によって測定された自車両の位置情報と地図データベース6の地図情報とに基づいて、自車両の走行するルートを算出し、算出したルートの情報をHMI8を介して運転者に伝達するとともに、制御装置10へ出力する。HMI8は、乗員と制御装置10との間で情報の出力及び入力をするためのインターフェイスである。アクチュエータ9は、制御装置10からの操作信号に応じて動作し、その動作によって車両の走行状態を変化させる装置である。アクチュエータ9は、例えば、駆動系、制動系、操舵系のそれぞれに設けられている。これら以外にも、例えば、車速センサや加速度センサ等の自車両の走行状態に関する情報を得るための内部センサが自動運転システム1には備えられる。   The automatic driving system 1 further includes a GPS (Global Positioning System) receiver 5, a map database 6, a navigation system 7, an HMI (Human Machine Interface) 8, and an actuator 9. The GPS receiver 5 is means for acquiring position information indicating the position of the host vehicle based on a signal transmitted from a GPS satellite. The map database 6 is formed in a storage such as an HDD or an SSD mounted on the vehicle, for example. The map information included in the map database 6 includes road position information, road shape information, intersection and branch point position information, road lane information, and the like. The navigation system 7 calculates the route traveled by the host vehicle based on the position information of the host vehicle measured by the GPS receiver 5 and the map information in the map database 6, and the calculated route information is transmitted via the HMI 8. While transmitting to a driver | operator, it outputs to the control apparatus 10. The HMI 8 is an interface for outputting and inputting information between the occupant and the control device 10. The actuator 9 is a device that operates according to an operation signal from the control device 10 and changes the traveling state of the vehicle by the operation. The actuator 9 is provided in each of a drive system, a braking system, and a steering system, for example. In addition to these, the automatic driving system 1 is provided with an internal sensor for obtaining information on the traveling state of the host vehicle, such as a vehicle speed sensor and an acceleration sensor.

制御装置10は、少なくとも1つのCPU、少なくとも1つのROM、少なくとも1つのRAMを有するECU(Electronic Control Unit)である。ROMには、自動運転のための各種のプログラムやマップを含む各種のデータが記憶されている。ROMに記憶されているプログラムがRAMにロードされ、CPUで実行されることで、制御装置10には様々な機能が実現される。なお、制御装置10は、複数のECUから構成されていてもよい。   The control device 10 is an ECU (Electronic Control Unit) having at least one CPU, at least one ROM, and at least one RAM. The ROM stores various types of data including various programs and maps for automatic operation. Various functions are realized in the control device 10 by loading a program stored in the ROM into the RAM and executing it by the CPU. In addition, the control apparatus 10 may be comprised from several ECU.

図1には、制御装置10が有する自動運転のための機能のうち、特に、物体識別に関係する機能がブロックで表現されている。制御装置10が有する自動運転のためのその他の機能についての図示は省略されている。   In FIG. 1, among functions for automatic driving that the control device 10 has, in particular, functions related to object identification are represented by blocks. The illustration of other functions for automatic operation of the control device 10 is omitted.

制御装置10は、自車両の周辺に存在する物体を認識し、道路に沿って設置された壁状物体と移動物体とを判別する機能を有する。この機能は、制御装置10が備える測距データ取得部11、クラスタリング部12、第1の幾何学的特徴量計算部13、道路境界認識部14、第2の幾何学的特徴量計算部15、及び判断部16により実現される。ただし、これらの部11,12,13,14、15、16は、制御装置10内にハードウェアとして存在するものではなく、ROMに記憶されたプログラムがCPUで実行されたときにソフトウェア的に実現される。   The control device 10 has a function of recognizing an object existing around the host vehicle and discriminating between a wall-like object installed along the road and a moving object. This function includes a distance measurement data acquisition unit 11, a clustering unit 12, a first geometric feature amount calculation unit 13, a road boundary recognition unit 14, a second geometric feature amount calculation unit 15 provided in the control device 10, And the determination part 16 implement | achieves. However, these units 11, 12, 13, 14, 15, and 16 do not exist as hardware in the control device 10, but are realized by software when a program stored in the ROM is executed by the CPU. Is done.

測距データ取得部11は、自車両の周囲に存在する物体の測距データを自律認識センサより取得する。測距データには、測距点までの距離に関する情報、測距点の高さに関する情報、及び測距点の方向に関する情報が含まれる。測距データ取得部11は、ライダー2で得た情報を用いること、レーダー3で得た情報を用いること、カメラ4で得た情報を用いること、センサフュージョンによって複数種類の自律認識センサの情報を組み合わせて用いること、のうち少なくとも1つの方法による測距データの取得が可能である。測距データ取得部11は、取得した測距データに基づき、各測距点の走行面内での位置を特定する。図2には、自車両に対する前方方向の距離をX軸にとり、横方向の位置をY軸にとった平面(以下、XY平面という)上での測距点の分布の一例が示されている。   The ranging data acquisition unit 11 acquires ranging data of an object existing around the host vehicle from the autonomous recognition sensor. The distance measurement data includes information regarding the distance to the distance measurement point, information regarding the height of the distance measurement point, and information regarding the direction of the distance measurement point. The ranging data acquisition unit 11 uses information obtained by the rider 2, uses information obtained by the radar 3, uses information obtained by the camera 4, and obtains information on a plurality of types of autonomous recognition sensors by sensor fusion. The distance measurement data can be obtained by at least one of the methods used in combination. The distance measurement data acquisition unit 11 specifies the position of each distance measurement point in the travel plane based on the acquired distance measurement data. FIG. 2 shows an example of the distribution of distance measuring points on a plane (hereinafter referred to as the XY plane) in which the distance in the forward direction relative to the host vehicle is taken as the X axis and the lateral position is taken as the Y axis. .

クラスタリング部12は、測距データ取得部11が取得した測距データをクラスタリングする。クラスタリングは、各測距点のX平面上での位置と高さとに基づいて行われる。また、前回フレームでのクラスタリングの結果との連続性を保つように行われる。クラスタリング部12によるクラスタリングの具体的な方法には特に限定はない。公知のクラスタリング方法を用いることができる。図3には、XY平面上に分布する測距点をクラスタリングによって物標化した結果の一例が示されている。長方形の枠は物標を示し、長方形の枠で囲まれた測距点群が物標化された測距点群である。   The clustering unit 12 clusters the ranging data acquired by the ranging data acquisition unit 11. Clustering is performed based on the position and height of each ranging point on the X plane. Further, it is performed so as to maintain continuity with the result of clustering in the previous frame. The specific method of clustering by the clustering unit 12 is not particularly limited. A known clustering method can be used. FIG. 3 shows an example of a result obtained by converting the ranging points distributed on the XY plane into targets by clustering. A rectangular frame indicates a target, and is a distance measuring point group in which the distance measuring point group surrounded by the rectangular frame is converted into a target.

第1の幾何学的特徴量計算部13は、クラスタリング部12により物標化された測距点群の幾何学的特徴量を計算する。幾何学的特徴量には、物標化された測距点群を最小二乗法等のフィッティング手法を用いて直線で近似した場合の、自車両の進行方向に対する直線の傾きが含まれる。また、幾何学的特徴量には、物標化された測距点群を最小二乗法等のフィッティング手法を用いて曲線で近似した場合の、曲線の曲率或いは曲率変化率が含まれる。第1の幾何学的特徴量計算部13は、傾き、曲率、曲率変化率のうちの少なくとも1つを計算する。図4には、物標化された測距点群を近似した直線が点線で描かれている。図4に示す例では、X軸に対する測距点群の傾き、具体的には、測距点群を近似した直線がX軸に対してなす角度が、第1の幾何学的特徴量として算出される。   The first geometric feature amount calculation unit 13 calculates the geometric feature amount of the distance measuring point group targeted by the clustering unit 12. The geometric feature amount includes the slope of the straight line with respect to the traveling direction of the host vehicle when the target ranging point group is approximated by a straight line using a fitting method such as the least square method. Further, the geometric feature amount includes a curvature of a curve or a curvature change rate when a target distance measuring point group is approximated by a curve using a fitting method such as a least square method. The first geometric feature quantity calculation unit 13 calculates at least one of inclination, curvature, and curvature change rate. In FIG. 4, a straight line approximating the target ranging point group is drawn with a dotted line. In the example shown in FIG. 4, the inclination of the distance measuring point group with respect to the X axis, specifically, the angle formed by the straight line approximating the distance measuring point group with respect to the X axis is calculated as the first geometric feature amount. Is done.

道路境界認識部14は、自車両の前方を撮影した撮影画像に対する白線認識処理によって道路境界を認識する。白線認識処理は、カメラ4の画像からのエッジ点の検出、エッジ線分の検出、エッジ線分のペアリング、そして、白線境界の選択の順で行われる。図5には、カメラ4の画像からエッジ点を検出する方法が示されている。カメラ4の画像を水平方向に左から右へ走査して、画素が黒から白へと変化するエッジ点と、画素が白から黒へと変化するエッジ点が探索される。この処理を垂直方向に上から下へ行うことで、エッジ点が直線上に並ぶエッジ線分が検出される。エッジ線分が白線のものであるなら、白線の両縁に対応して2本一組のエッジ線分が得られる。エッジ線分のペアリングは、白線のものではないエッジ線分を除外し、白線の可能性のあるエッジ線分を選択するために行われる。ペアリングにより選択されたエッジ線分の位置と過去の白線検出位置とが比較される。両者の間に連続性がある場合、選択されたエッジ線分は白線、つまり、道路境界として認識される。   The road boundary recognition unit 14 recognizes the road boundary by white line recognition processing for a captured image obtained by photographing the front of the host vehicle. The white line recognition process is performed in the order of edge point detection from the image of the camera 4, edge line segment detection, edge line segment pairing, and white line boundary selection. FIG. 5 shows a method for detecting an edge point from the image of the camera 4. The image of the camera 4 is scanned in the horizontal direction from left to right, and an edge point where the pixel changes from black to white and an edge point where the pixel changes from white to black are searched. By performing this process from top to bottom in the vertical direction, an edge line segment in which edge points are arranged on a straight line is detected. If the edge line is a white line, a set of two edge lines corresponding to both edges of the white line is obtained. The pairing of edge line segments is performed in order to select edge line segments that may be white lines by excluding edge line segments that are not white line segments. The position of the edge line segment selected by pairing is compared with the past white line detection position. When there is continuity between the two, the selected edge line segment is recognized as a white line, that is, a road boundary.

第2の幾何学的特徴量計算部15は、道路境界認識部14で認識された道路境界をXY平面に写像し、XY平面上での道路境界の幾何学的特徴量を計算する。道路境界認識部14で計算される幾何学的特徴量には、道路境界の点列データを最小二乗法等のフィッティング手法を用いて直線で近似した場合の、自車両の進行方向に対する直線の傾きと、道路境界の点列データを最小二乗法等のフィッティング手法を用いて曲線で近似した場合の、曲線の曲率或いは曲率変化率が含まれる。第2の幾何学的特徴量計算部15は、傾き、曲率、曲率変化率のうち、第1の幾何学的特徴量計算部13で計算される幾何学的特徴量と同種の幾何学的特徴量を計算する。また、第2の幾何学的特徴量計算部15による幾何学的特徴量の計算は、クラスタリング部12により設定された物標を示す枠内の道路境界に対して行われる。図6には、物標内の道路境界を近似した直線が実線で描かれている。図6に示す例では、X軸に対する道路境界の傾き、具体的には、道路境界を近似した直線がX軸に対してなす角度が、第2の幾何学的特徴量として算出される。   The second geometric feature amount calculation unit 15 maps the road boundary recognized by the road boundary recognition unit 14 to the XY plane, and calculates the geometric feature amount of the road boundary on the XY plane. The geometric feature amount calculated by the road boundary recognition unit 14 includes the slope of the straight line with respect to the traveling direction of the host vehicle when the point boundary data of the road boundary is approximated by a straight line using a fitting method such as the least square method. And curve curvature or curvature change rate when the road boundary point sequence data is approximated by a curve using a fitting method such as the least square method. The second geometric feature amount calculation unit 15 is the same geometric feature as the geometric feature amount calculated by the first geometric feature amount calculation unit 13 among the slope, curvature, and curvature change rate. Calculate the quantity. The calculation of the geometric feature amount by the second geometric feature amount calculation unit 15 is performed on the road boundary in the frame indicating the target set by the clustering unit 12. In FIG. 6, a straight line approximating the road boundary in the target is drawn as a solid line. In the example shown in FIG. 6, the inclination of the road boundary with respect to the X axis, specifically, the angle formed by the straight line approximating the road boundary with respect to the X axis is calculated as the second geometric feature amount.

判断部16は、第1の幾何学的特徴量計算部13により計算された第1の幾何学的特徴量と、第2の幾何学的特徴量計算部15により計算された第2の幾何学的特徴量との差を物標ごとに計算する。例えば、幾何学的特徴量として傾きと曲率が計算された場合、判断部16は、傾きの差と曲率の差をそれぞれ計算する。図7には、物標化された測距点群を近似した直線が点線で描かれ、物標内の道路境界を近似した直線が実線で描かれている。図7に示す例では、X軸に対する測距点群の傾きと道路境界の傾きとの差、具体的には、測距点群を近似した直線と道路境界を近似した直線とがなす角度が算出される。   The determination unit 16 includes a first geometric feature amount calculated by the first geometric feature amount calculation unit 13 and a second geometric feature amount calculated by the second geometric feature amount calculation unit 15. The difference from the target feature is calculated for each target. For example, when the inclination and the curvature are calculated as the geometric feature amount, the determination unit 16 calculates a difference in inclination and a difference in curvature, respectively. In FIG. 7, a straight line that approximates the target ranging point group is drawn with a dotted line, and a straight line that approximates a road boundary in the target is drawn with a solid line. In the example shown in FIG. 7, the difference between the inclination of the distance measuring point group and the inclination of the road boundary with respect to the X axis, specifically, the angle formed by the straight line approximating the distance measuring point group and the straight line approximating the road boundary. Calculated.

第1の幾何学的特徴量と第2の幾何学的特徴量との間に差がない場合、或いは、その差が微少である場合、クラスタリング部12により物標化された測距点群は道路に沿って設置された壁状の物体である可能性が高い。判断部16は、差の絶対値が予め設定した閾値以内である場合、物標化された測距点群は道路に沿って設置された壁状の物体であると判断する。判断部16は、この判断結果に応じて、物標化された測距点群をトラッキング処理の対象に含めるか、或いは、トラッキング処理の対象から除外するかを決定する。   When there is no difference between the first geometric feature quantity and the second geometric feature quantity, or when the difference is very small, the ranging point group targeted by the clustering unit 12 is There is a high possibility that the object is a wall-like object installed along the road. When the absolute value of the difference is within a preset threshold, the determination unit 16 determines that the target ranging point group is a wall-like object installed along the road. Based on the determination result, the determination unit 16 determines whether to include the target ranging point group as a tracking processing target or exclude it from the tracking processing target.

上記の各部11,12,13,14、15、16の機能により、制御装置10は物体識別装置として機能する。図8は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。物体識別装置としての制御装置10は、このフローチャートに示す処理を所定の周期で繰り返し実施している。   The control device 10 functions as an object identification device by the functions of the above-described units 11, 12, 13, 14, 15, and 16. FIG. 8 is a flowchart showing the flow of object identification processing according to the present embodiment. The control device 10 as the object identification device repeatedly performs the processing shown in this flowchart at a predetermined cycle.

まず、ステップS1では、カメラ4の画像に対する白線認識処理によって自車両の前方における道路境界が認識される。また、ステップS1の処理と平行して、ステップS2及びS3の処理が行われる。ステップS2では、ライダー2或いはレーダー3により自車両の周囲に存在する物体の測距データが取得される。ステップS3では、ステップS2で取得された測距データがクラスタリングされ、測距点群が物標化される。   First, in step S1, a road boundary in front of the host vehicle is recognized by white line recognition processing on the image of the camera 4. In parallel with the process of step S1, the processes of steps S2 and S3 are performed. In step S2, distance measurement data of an object existing around the host vehicle is acquired by the rider 2 or the radar 3. In step S3, the distance measurement data acquired in step S2 is clustered, and the distance measurement point group is converted into a target.

ステップS4では、物標毎に、ステップS3で物標化された測距点群の幾何学的特徴量が計算される。ここでは、測距点群の幾何学的特徴量として、測距点群の傾きが計算されるとする。また、ステップS5では、物標毎に、ステップS1で認識された道路境界の幾何学的特徴量が計算される。ここで計算される幾何学的特徴量は、ステップS4で計算される幾何学的特徴量と同じく傾きである。   In step S4, for each target, the geometric feature amount of the distance measuring point group that has been targeted in step S3 is calculated. Here, it is assumed that the gradient of the distance measurement point group is calculated as the geometric feature amount of the distance measurement point group. In step S5, the geometric feature amount of the road boundary recognized in step S1 is calculated for each target. The geometric feature amount calculated here is the same as the geometric feature amount calculated in step S4.

ステップS6では、ステップS4で計算された測距点群の傾きと、ステップS5で計算された道路境界の傾きとが比較される。そして、それらの差の絶対値が計算される。ステップS7では、ステップS6で計算された測距点群の傾きと道路境界の傾きとの差(絶対値)が閾値以内かどうか判定される。傾きの差が閾値以内である場合、次の処理としてステップS8が選択され、傾きの差が閾値より大きい場合、次の処理としてステップS9が選択される。   In step S6, the slope of the distance measuring point group calculated in step S4 is compared with the slope of the road boundary calculated in step S5. Then, the absolute value of these differences is calculated. In step S7, it is determined whether or not the difference (absolute value) between the inclination of the distance measuring point group calculated in step S6 and the inclination of the road boundary is within a threshold value. If the difference in inclination is within the threshold, step S8 is selected as the next process, and if the difference in inclination is greater than the threshold, step S9 is selected as the next process.

ステップS8では、ステップS3で物標化された測距点群がトラッキング処理から除外される。測距点群の傾きと道路境界の傾きとの間に明確な差がない場合、その測距点群は道路に沿って設置された壁状の物体である可能性が高いからである。逆に、ステップS9では、ステップS3で物標化された測距点群がトラッキング処理の対象とされる。そして、その測距点群に係る物標情報が出力される。物標情報には、物標の位置、速度、加速度等の情報が含まれる。物標情報は、車間距離制御やレーン変更制御等の車両の運転制御に用いられる。   In step S8, the distance measuring point group targeted in step S3 is excluded from the tracking process. This is because, when there is no clear difference between the inclination of the distance measurement point group and the inclination of the road boundary, the distance measurement point group is highly likely to be a wall-like object installed along the road. On the other hand, in step S9, the distance measuring point group that is the target in step S3 is the target of the tracking process. Then, target information related to the distance measuring point group is output. The target information includes information such as the position, speed, and acceleration of the target. The target information is used for vehicle operation control such as inter-vehicle distance control and lane change control.

以上の手順で行われる物体識別処理によれば、物標化された測距点群の幾何学的特徴量と、道路境界の幾何学的特徴量とを比較するので、道路の曲率が物体の識別結果に影響することを抑えることができる。ゆえに、本実施の形態に係る自動運転システムによれば、道路の曲率が大きいカーブ出入り口などにおいても、道路に沿って設置された壁状物体の識別精度を正しく壁状物体として識別することが可能であり、壁状物体を移動物体として誤認することを低減することができる。   According to the object identification process performed in the above procedure, the geometric feature value of the target ranging point group is compared with the geometric feature value of the road boundary. It can suppress affecting the identification result. Therefore, according to the automatic driving system according to the present embodiment, it is possible to correctly identify the identification accuracy of the wall-like object installed along the road as a wall-like object even at a curved doorway where the curvature of the road is large. It is possible to reduce misidentification of a wall-like object as a moving object.

実施の形態2
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムと実施の形態1に係る自動運転システムとの相違は、道路境界認識部14による道路境界の認識方法にある。
Embodiment 2
Similar to the automatic driving system according to the first embodiment, the automatic driving system according to the present embodiment has the configuration shown in FIG. The difference between the automatic driving system according to the present embodiment and the automatic driving system according to the first embodiment is in the road boundary recognition method by the road boundary recognition unit 14.

本実施の形態では、道路境界認識部14は、カメラ4の画像と地図情報とを用いた自己位置推定によって道路境界を認識する。図9には、自己位置推定の方法が示されている。まず、自車両の位置が中心となるようにカメラ4の画像が平面上に投影される。また、GPS受信機5により特定した自車両の位置に基づいて、自車両の周囲の地図画像が地図データベース6から検索される。そして、平面上に投影したカメラ画像と地図画像とが照合される。地図画像より道路境界のおおよその位置がわかるので、2つの画像を照合することにより、カメラ画像から道路境界の点列データを抽出することができる。   In the present embodiment, the road boundary recognition unit 14 recognizes the road boundary by self-position estimation using the image of the camera 4 and map information. FIG. 9 shows a self-position estimation method. First, the image of the camera 4 is projected on a plane so that the position of the host vehicle is the center. Further, a map image around the host vehicle is searched from the map database 6 based on the position of the host vehicle specified by the GPS receiver 5. Then, the camera image projected on the plane and the map image are collated. Since the approximate position of the road boundary is known from the map image, the point sequence data of the road boundary can be extracted from the camera image by comparing the two images.

図10は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1のステップS1の処理に代えて、ステップS1′の処理が行われる。ステップS1′では、カメラ4の画像と地図情報とを用いた自己位置推定によって道路境界が認識される。ステップS2からステップS10までの残りの処理については、実施の形態1からの変更はない。なお、道路境界の認識方法として、カメラ4の画像と地図情報とを用いた自己位置推定による道路境界の認識と、白線認識処理による道路境界の認識とを併用することも可能である。   FIG. 10 is a flowchart showing the flow of object identification processing according to the present embodiment. In the object identification process according to the present embodiment, the process of step S1 ′ is performed instead of the process of step S1 of the first embodiment. In step S1 ′, the road boundary is recognized by self-position estimation using the image of the camera 4 and map information. The remaining processes from step S2 to step S10 are not changed from the first embodiment. As a road boundary recognition method, it is possible to use both road boundary recognition by self-position estimation using the image of the camera 4 and map information and road boundary recognition by white line recognition processing.

実施の形態3
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムでは、トラックやバスのような長尺車両と壁状物体とを誤認しないための新たな機能が、第1の幾何学的特徴量計算部13と判断部16とに与えられている。
Embodiment 3
Similar to the automatic driving system according to the first embodiment, the automatic driving system according to the present embodiment has the configuration shown in FIG. In the automatic driving system according to the present embodiment, new functions for preventing misidentification of a long vehicle such as a truck or a bus and a wall-like object are the first geometric feature quantity calculation unit 13 and the determination unit 16. And given to.

本実施の形態では、第1の幾何学的特徴量計算部13は、クラスタリング部12により物標化された測距点群の物標サイズを計算する。物標サイズとは、物標を示す長方形の枠の横幅、長さ、それらの比率のうちの少なくとも一つである。物標サイズに対しては、壁状物体と長尺車両とを判別するための閾値が設定されている。物標サイズが閾値未満である場合、第1の幾何学的特徴量計算部13は、その物標が示す測距点群を幾何学的特徴量の計算の対象から除外する。除外された測距点群は、壁状物体ではない移動物体である可能性が高い。ゆえに、判断部16は、第1の幾何学的特徴量計算部13で除外された測距点群をトラッキング処理の対象に含め、その測距点群に係る物標情報を出力する。   In the present embodiment, the first geometric feature quantity calculation unit 13 calculates the target size of the distance measuring point group that has been targeted by the clustering unit 12. The target size is at least one of the width, length, and ratio of the rectangular frame indicating the target. For the target size, a threshold value for distinguishing between a wall-like object and a long vehicle is set. When the target size is less than the threshold value, the first geometric feature amount calculation unit 13 excludes the distance measurement point group indicated by the target from the target for calculating the geometric feature amount. There is a high possibility that the excluded ranging point group is a moving object that is not a wall-like object. Therefore, the determination unit 16 includes the distance measurement point group excluded by the first geometric feature value calculation unit 13 as a target of tracking processing, and outputs target information related to the distance measurement point group.

また、本実施の形態では、判断部16は、物標化された測距点群が道路境界の形状に沿って所定時間、所定速度以上の速さで移動しているかどうかによって、長尺車両と壁状物体とを判別する。具体的には、判断部16は、所定閾値以上の速度が所定時間以上継続していること(条件A)と、各時刻の物標位置のレーン中心位置に対する横位置誤差が所定時間以上継続していること(条件B)の両方が満足されているかどうか判定する。図11に示す例では、時刻T−2,T−1,Tにおける物標の位置の変化から、物標化された測距点群の速度が計算されて閾値速度と比較されるとともに、レーン中心位置に対する物標位置の横位置誤差が計算される。なお、レーン中心位置は左右の白線の位置から計算される。条件Aと条件Bのいずれか一方でも満たされていない場合、判断部16は、その測距点群は長尺車両である可能性が高いと判断し、その測距点群に係る物標情報の出力を中止する。   Further, in the present embodiment, the determination unit 16 determines whether the target distance measuring point group is moving along the shape of the road boundary for a predetermined time at a speed equal to or higher than a predetermined speed. And wall-like objects. Specifically, the determination unit 16 determines that the speed equal to or higher than a predetermined threshold has continued for a predetermined time (Condition A) and that the lateral position error of the target position at each time with respect to the lane center position continues for a predetermined time or longer. Whether or not both (condition B) are satisfied. In the example shown in FIG. 11, the speed of the target ranging point group is calculated from the change in the position of the target at times T-2, T-1, and T, and is compared with the threshold speed. A lateral position error of the target position with respect to the center position is calculated. The lane center position is calculated from the positions of the left and right white lines. If either condition A or condition B is not satisfied, the determination unit 16 determines that the distance measurement point group is likely to be a long vehicle, and the target information related to the distance measurement point group Cancel the output of.

図12は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS101の処理が行われる。ステップS101の処理は、ステップS3の処理の後、ステップS4の処理の前に行われる。ステップS101では、ステップS3で物標化された測距点群の物標サイズが閾値以上かどうか判定される。物標サイズが閾値以上である場合、ステップS4に進んで測距点群の幾何学的特徴量(例えば傾き)が算出される。しかし、物標サイズが閾値未満である場合、ステップS4からステップS7までをスキップしてステップS9に進み、ステップS3で物標化された測距点群はトラッキング処理の対象とされる。ステップS101の処理が加えられたことにより、トラックやバスのような長尺車両を壁状物体と誤認することは抑えられる。   FIG. 12 is a flowchart showing the flow of object identification processing according to the present embodiment. In the object identification process according to the present embodiment, the process of step S101 is performed in addition to the object identification process according to the first or second embodiment. The process of step S101 is performed after the process of step S3 and before the process of step S4. In step S101, it is determined whether or not the target size of the distance measuring point group targeted in step S3 is greater than or equal to a threshold value. When the target size is equal to or larger than the threshold value, the process proceeds to step S4, and the geometric feature amount (for example, inclination) of the distance measuring point group is calculated. However, if the target size is less than the threshold value, steps S4 to S7 are skipped and the process proceeds to step S9, and the distance measuring point group targeted in step S3 is the target of the tracking process. By adding the processing in step S101, it is possible to prevent a long vehicle such as a truck or a bus from being mistaken as a wall-like object.

さらに、本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS102の処理が行われる。ステップS102の処理は、ステップS9の処理の後、ステップS10の処理の前に行われる。ステップS102では、ステップS1で得られた白線情報を用いて、トラッキング処理の対象となっている物標の過去の移動履歴が解析される。そして、前述の条件Aと条件Bの両方が満たされていれば、ステップS10に進んで物標情報が出力される。しかし、前述の条件Aと条件Bの一方でも満たされていない場合、物標情報の出力は中止される。ステップS102の処理が行われることにより、壁状物体をトラックやバスのような長尺車両と誤認することは抑えられる。   Furthermore, in the object identification process according to the present embodiment, the process of step S102 is performed in addition to the object identification process according to the first or second embodiment. The process of step S102 is performed after the process of step S9 and before the process of step S10. In step S102, the past movement history of the target to be tracked is analyzed using the white line information obtained in step S1. And if both the above-mentioned conditions A and B are satisfied, it will progress to Step S10 and will output target information. However, if either of the above conditions A and B is not satisfied, the output of the target information is stopped. By performing the process of step S102, it is possible to suppress the misidentification of the wall-like object as a long vehicle such as a truck or a bus.

実施の形態4
本実施の形態に係る自動運転システムは、実施の形態1に係る自動運転システムと同じく、図1に示す構成を有する。本実施の形態に係る自動運転システムと実施の形態1に係る自動運転システムとの相違は、クラスタリング部12に与えられた物体識別に掛かる演算量を低減する機能にある。
Embodiment 4
Similar to the automatic driving system according to the first embodiment, the automatic driving system according to the present embodiment has the configuration shown in FIG. The difference between the automatic driving system according to the present embodiment and the automatic driving system according to the first embodiment is in the function of reducing the amount of calculation applied to the object identification given to the clustering unit 12.

本実施の形態では、物体識別に掛かる演算量を低減する方法として、測距点を間引いてクラスタリングすることが行われる。測距点を間引く方法には次の2つの方法がある。まず、第1の方法と第2の方法に共通の手順として、前回フレームで物標化された測距点群の位置及び速度を利用して、今回フレームでの物標の位置が推定される。そして、物体は剛体であるとの仮定により、前回フレームと同じ高さ・横幅・長さの物標枠が今回フレームでの物標の枠として用いられる。   In the present embodiment, as a method of reducing the amount of calculation required for object identification, clustering is performed by thinning out distance measuring points. There are the following two methods for thinning the distance measuring points. First, as a procedure common to the first method and the second method, the position of the target in the current frame is estimated using the position and speed of the distance measuring point group that was targeted in the previous frame. . Based on the assumption that the object is a rigid body, a target frame having the same height, width, and length as the previous frame is used as the target frame in the current frame.

第1の方法では、今回フレームでの物標の枠に入る測距点について、一定間隔で測距点を間引くか、或いは、距離の大きさに応じて間引き量を変えて間引く(例えば距離が近いほど間引く量を大きくする)ことが行われる。第2の方法では、前回フレームの物標枠のサイズ、特に高さが閾値以下であった場合、今回フレームでの物標の枠に入る全ての測距点をクラスタリングの対象から除外する。このような方法を実施することにより、物体識別に掛かる演算量を低減することができる。特に、第2の方法を実施することにより、縁石のような壁状物体ではない静止物体を識別対象から除外して、物体識別に掛かる演算量を低減することができる。   In the first method, the distance measurement points that fall within the target frame in the current frame are thinned at fixed intervals, or thinned by changing the thinning amount according to the distance size (for example, the distance is The closer the closer, the larger the amount to be thinned out). In the second method, when the size of the target frame in the previous frame, particularly the height, is equal to or less than the threshold value, all ranging points that fall within the target frame in the current frame are excluded from the clustering targets. By implementing such a method, the amount of calculation required for object identification can be reduced. In particular, by performing the second method, a stationary object that is not a wall-like object such as a curb can be excluded from the identification target, and the amount of calculation required for object identification can be reduced.

図13は、本実施の形態に係る物体識別処理の流れを示すフローチャートである。本実施の形態に係る物体識別処理では、実施の形態1或いは実施の形態2に係る物体識別処理に加えて、ステップS201の処理が行われる。ステップS201の処理は、ステップS2の処理の後、ステップS3の処理の前に行われる。ステップS201では、ステップS2で取得された測距点から上記の第1の方法と第2の方法のいずれか一つ方法にて測距点が間引かれる。そして、ステップS3では、間引かれた測距点に対してクラスタリングが行われる。ステップS4以降の内容には実施の形態1或いは実施の形態2から変更はないので、フローチャートへの記載は省略されている。   FIG. 13 is a flowchart showing the flow of object identification processing according to the present embodiment. In the object identification process according to the present embodiment, the process of step S201 is performed in addition to the object identification process according to the first or second embodiment. The process of step S201 is performed after the process of step S2 and before the process of step S3. In step S201, the distance measuring points are thinned out from the distance measuring points acquired in step S2 by any one of the first method and the second method. In step S3, clustering is performed on the thinned distance measuring points. Since the content after step S4 is not changed from the first embodiment or the second embodiment, the description in the flowchart is omitted.

1 自動運転システム
2 ライダー
3 レーダー
4 カメラ
5 GPS受信機
6 地図データベース
7 ナビゲーションシステム
8 HMI
9 アクチュエータ
10 制御装置(物体識別装置)
11 測距データ取得部(測距データ取得手段)
12 クラスタリング部(クラスタリング手段)
13 第1の幾何学的特徴量計算部(第1の幾何学的特徴量計算手段)
14 道路境界認識部(道路境界認識手段)
15 第2の幾何学的特徴量計算部(第2の幾何学的特徴量計算手段)
16 判断部(判断手段)
1 Automatic Driving System 2 Rider 3 Radar 4 Camera 5 GPS Receiver 6 Map Database 7 Navigation System 8 HMI
9 Actuator 10 Control device (object identification device)
11 Ranging data acquisition unit (Ranging data acquisition means)
12 Clustering unit (clustering means)
13 1st geometric feature-value calculation part (1st geometric feature-value calculation means)
14 Road boundary recognition part (road boundary recognition means)
15 Second geometric feature amount calculation unit (second geometric feature amount calculation means)
16 Judgment part (judgment means)

Claims (1)

自車両の前方に存在する物体の測距データを取得する測距データ取得手段と、
前記測距データ取得手段が取得した測距データをクラスタリングするクラスタリング手段と、
前記クラスタリング手段により物標化された測距点群の幾何学的特徴量を計算する第1の幾何学的特徴量計算手段と、
前記自車両が走行している道路の地図情報と前記自車両の位置情報とに基づいて前記自車両の前方における道路境界を認識するか、或いは、前記自車両の前方を撮影した撮影画像に対する白線認識処理によって前記道路境界を認識する道路境界認識手段と、
前記道路境界認識手段で認識された前記道路境界の幾何学的特徴量を計算する第2の幾何学的特徴量計算手段と、
前記第1の幾何学的特徴量計算手段により計算された幾何学的特徴量と、前記第2の幾何学的特徴量計算手段により計算された幾何学的特徴量との差が予め設定した閾値以内である場合、前記クラスタリング手段により物標化された測距点群は道路に沿って設置された壁状の物体であると判断する判断手段と、
を備えることを特徴とする物体識別装置。
Ranging data acquisition means for acquiring ranging data of an object existing in front of the host vehicle;
Clustering means for clustering the distance measurement data acquired by the distance measurement data acquisition means;
First geometric feature amount calculating means for calculating a geometric feature amount of the distance measuring point group targeted by the clustering means;
Based on the map information of the road on which the host vehicle is traveling and the position information of the host vehicle, a road boundary in front of the host vehicle is recognized, or a white line for a photographed image obtained by shooting the front of the host vehicle Road boundary recognition means for recognizing the road boundary by recognition processing;
Second geometric feature amount calculating means for calculating a geometric feature amount of the road boundary recognized by the road boundary recognition means;
A threshold in which a difference between the geometric feature amount calculated by the first geometric feature amount calculating means and the geometric feature amount calculated by the second geometric feature amount calculating means is set in advance. A determination unit that determines that the range-finding point group targeted by the clustering unit is a wall-like object installed along the road,
An object identification device comprising:
JP2016185478A 2016-09-23 2016-09-23 Object identification device Active JP6911312B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016185478A JP6911312B2 (en) 2016-09-23 2016-09-23 Object identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016185478A JP6911312B2 (en) 2016-09-23 2016-09-23 Object identification device

Publications (2)

Publication Number Publication Date
JP2018048949A true JP2018048949A (en) 2018-03-29
JP6911312B2 JP6911312B2 (en) 2021-07-28

Family

ID=61767531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016185478A Active JP6911312B2 (en) 2016-09-23 2016-09-23 Object identification device

Country Status (1)

Country Link
JP (1) JP6911312B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192059A (en) * 2018-04-27 2019-10-31 田中 成典 Object recognition device
JP2019200182A (en) * 2018-05-18 2019-11-21 株式会社豊田自動織機 Object sensing device
CN112241004A (en) * 2019-07-17 2021-01-19 丰田自动车株式会社 Object recognition device
WO2021192032A1 (en) * 2020-03-24 2021-09-30 三菱電機株式会社 Information processing device and information processing method
US11538252B2 (en) 2019-08-22 2022-12-27 Toyota Jidosha Kabushiki Kaisha Object recognition device
CN116859406A (en) * 2023-09-05 2023-10-10 武汉煜炜光学科技有限公司 Calculation method and device for vehicle speed based on laser radar
WO2023194761A1 (en) * 2022-04-08 2023-10-12 日産自動車株式会社 Information processing method and information processing device

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248057A (en) * 2006-03-13 2007-09-27 Omron Corp Radar device
JP2011002346A (en) * 2009-06-19 2011-01-06 Fujitsu Ten Ltd Signal processing device and radar device
JP2012089114A (en) * 2010-09-24 2012-05-10 Toyota Motor Corp Obstacle recognition device
JP2012145444A (en) * 2011-01-12 2012-08-02 Toyota Motor Corp Pedestrian detection device
JP2013036978A (en) * 2011-07-12 2013-02-21 Denso Corp Target detection apparatus and wall determination method
JP2014006588A (en) * 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc Road surface boundary estimation device and program
US20150293216A1 (en) * 2014-04-15 2015-10-15 GM Global Technology Operations LLC Method and system for detecting, tracking and estimating stationary roadside objects

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007248057A (en) * 2006-03-13 2007-09-27 Omron Corp Radar device
JP2011002346A (en) * 2009-06-19 2011-01-06 Fujitsu Ten Ltd Signal processing device and radar device
JP2012089114A (en) * 2010-09-24 2012-05-10 Toyota Motor Corp Obstacle recognition device
JP2012145444A (en) * 2011-01-12 2012-08-02 Toyota Motor Corp Pedestrian detection device
JP2013036978A (en) * 2011-07-12 2013-02-21 Denso Corp Target detection apparatus and wall determination method
JP2014006588A (en) * 2012-06-21 2014-01-16 Toyota Central R&D Labs Inc Road surface boundary estimation device and program
US20150293216A1 (en) * 2014-04-15 2015-10-15 GM Global Technology Operations LLC Method and system for detecting, tracking and estimating stationary roadside objects

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192059A (en) * 2018-04-27 2019-10-31 田中 成典 Object recognition device
JP2019200182A (en) * 2018-05-18 2019-11-21 株式会社豊田自動織機 Object sensing device
CN112241004A (en) * 2019-07-17 2021-01-19 丰田自动车株式会社 Object recognition device
US11538252B2 (en) 2019-08-22 2022-12-27 Toyota Jidosha Kabushiki Kaisha Object recognition device
WO2021192032A1 (en) * 2020-03-24 2021-09-30 三菱電機株式会社 Information processing device and information processing method
JP7019118B1 (en) * 2020-03-24 2022-02-14 三菱電機株式会社 Information processing equipment and information processing method
CN115244594A (en) * 2020-03-24 2022-10-25 三菱电机株式会社 Information processing apparatus, information processing method, and computer program
CN115244594B (en) * 2020-03-24 2023-10-31 三菱电机株式会社 Information processing apparatus and information processing method
WO2023194761A1 (en) * 2022-04-08 2023-10-12 日産自動車株式会社 Information processing method and information processing device
CN116859406A (en) * 2023-09-05 2023-10-10 武汉煜炜光学科技有限公司 Calculation method and device for vehicle speed based on laser radar
CN116859406B (en) * 2023-09-05 2023-11-28 武汉煜炜光学科技有限公司 Calculation method and device for vehicle speed based on laser radar

Also Published As

Publication number Publication date
JP6911312B2 (en) 2021-07-28

Similar Documents

Publication Publication Date Title
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
JP6911312B2 (en) Object identification device
JP5441549B2 (en) Road shape recognition device
JP6747269B2 (en) Object recognition device
EP3644294A1 (en) Vehicle information storage method, vehicle travel control method, and vehicle information storage device
US9779315B2 (en) Traffic signal recognition apparatus and traffic signal recognition method
JP2008123462A (en) Object detector
US11200432B2 (en) Method and apparatus for determining driving information
JP7077910B2 (en) Bound line detection device and lane marking method
CN107957258B (en) Road mark recognition device
US11042759B2 (en) Roadside object recognition apparatus
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
US20230245323A1 (en) Object tracking device, object tracking method, and storage medium
JP2018084987A (en) Object recognition device
US11769337B2 (en) Traffic signal recognition method and traffic signal recognition device
US11679769B2 (en) Traffic signal recognition method and traffic signal recognition device
US20200049516A1 (en) Lane determination device
RU2779773C1 (en) Traffic light recognition method and traffic light recognition device
US20230260294A1 (en) Apparatus, method, and computer program for estimating road edge
CN115050205B (en) Map generation device and position recognition device
US20240017748A1 (en) Device, method, and computer program for lane determination
US20240077320A1 (en) Vehicle controller, method, and computer program for vehicle control
US20230186638A1 (en) Device for determining a topography of a vehicle environment, vehicle and method
US20220276069A1 (en) Map generation apparatus
CN117434552A (en) Vehicle detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210608

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210621

R151 Written notification of patent or utility model registration

Ref document number: 6911312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151