JP7149171B2 - Object recognition method and object recognition device - Google Patents

Object recognition method and object recognition device Download PDF

Info

Publication number
JP7149171B2
JP7149171B2 JP2018222162A JP2018222162A JP7149171B2 JP 7149171 B2 JP7149171 B2 JP 7149171B2 JP 2018222162 A JP2018222162 A JP 2018222162A JP 2018222162 A JP2018222162 A JP 2018222162A JP 7149171 B2 JP7149171 B2 JP 7149171B2
Authority
JP
Japan
Prior art keywords
vehicle
detection
detection points
trajectory
detection point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018222162A
Other languages
Japanese (ja)
Other versions
JP2020085713A (en
Inventor
宏寿 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2018222162A priority Critical patent/JP7149171B2/en
Publication of JP2020085713A publication Critical patent/JP2020085713A/en
Application granted granted Critical
Publication of JP7149171B2 publication Critical patent/JP7149171B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体認識方法及び物体認識装置に関する。 The present invention relates to an object recognition method and an object recognition device.

従来より、レーザレーダを用いた物体のトラッキング方法が知られている(特許文献1)。特許文献1に記載された発明は、レーザレーダによって検出された検出点を用いてクラスタを作成し、クラスタに含まれる検出点の移動量に基づいてクラスタの形状の一致度を算出し、算出された形状の一致度が所定閾値以上の場合にクラスタを1つの物体として特定する。これにより、特許文献1に記載された発明は、物体を特定でき、さらに物体の速度も算出することができる。 Conventionally, an object tracking method using a laser radar is known (Patent Document 1). The invention described in Patent Document 1 creates a cluster using detection points detected by a laser radar, calculates the matching degree of the shape of the cluster based on the amount of movement of the detection points included in the cluster, and calculates the degree of matching. A cluster is specified as one object when the matching degree of the shape obtained is equal to or higher than a predetermined threshold. As a result, the invention described in Patent Document 1 can identify an object and also calculate the velocity of the object.

特開2013-228259号公報JP 2013-228259 A

自車両に大きなヨーレートが発生するシーン(急カーブ、交差点の右折(左折)など)において、自車両から見た物体の見え方が大きく変化する。例えば、急カーブの先に停止車両が居たり、交差点の右折(左折)先に駐車車両が居たりする場合、自車両から見た停止車両または駐車車両の見え方が大きく変化する。しかしながら、特許文献1に記載された発明は、自車両に大きなヨーレートが発生するシーンについて言及しておらず、このようなシーンにおいて物体の速度を精度よく算出することができないおそれがある。 In scenes where the own vehicle experiences a large yaw rate (sharp curves, right turns (left turns) at intersections, etc.), the appearance of objects seen from the own vehicle changes significantly. For example, when there is a stopped vehicle ahead of a sharp curve or a parked vehicle ahead of a right turn (left turn) at an intersection, the appearance of the stopped or parked vehicle seen from the own vehicle changes greatly. However, the invention described in Patent Document 1 does not refer to a scene in which a large yaw rate occurs in the own vehicle, and there is a possibility that the velocity of the object cannot be calculated accurately in such a scene.

本発明は、上記問題に鑑みて成されたものであり、その目的は、物体の速度を精度よく算出することができる物体認識方法及び物体認識装置を提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problem, and an object thereof is to provide an object recognition method and an object recognition apparatus capable of accurately calculating the velocity of an object.

本発明の一態様に係る物体認識方法は、自車両が将来進む軌道を推定する。物体認識方法は、第1の時刻において複数の第1の検出点を検出し、第1の時刻とは異なる第2の時刻において複数の第2の検出点を検出する。物体認識方法は、複数の第1の検出点から軌道までの距離を用いて、複数の第1の検出点の中から、軌道までの距離が最も短い検出点である自車両に最も近い第1の検出点を抽出し、複数の第2の検出点から軌道までの距離を用いて、複数の第2の検出点の中から、軌道までの距離が最も短い検出点である自車両に最も近い第2の検出点を抽出する。物体認識方法は、抽出された第1の検出点及び第2の検出点の位置の時間変化から、自車両に最も近い検出点の速度ベクトルを算出する。物体認識方法は、速度ベクトルを軌道の接線方向の速度成分及び法線方向の速度成分に分解し、接線方向の速度成分を自車両に対する物体の相対速度として算出する。 An object recognition method according to an aspect of the present invention estimates a future trajectory of an own vehicle. The object recognition method detects a plurality of first detection points at a first time and detects a plurality of second detection points at a second time different from the first time. The object recognition method uses the distances from the plurality of first detection points to the track, and selects the first detection point closest to the own vehicle, which is the detection point with the shortest distance to the track , from among the plurality of first detection points. , and using the distances from a plurality of second detection points to the track, a detection point closest to the own vehicle, which is the detection point with the shortest distance to the track, is selected from the plurality of second detection points. A second detection point is extracted. The object recognition method calculates the velocity vector of the closest detection point to the own vehicle from the temporal change in the positions of the extracted first detection point and second detection point. The object recognition method decomposes the velocity vector into a tangential velocity component and a normal velocity component of the track, and calculates the tangential velocity component as the relative velocity of the object with respect to the own vehicle.

本発明によれば、物体の速度を精度よく算出することができる。 According to the present invention, it is possible to accurately calculate the velocity of an object.

図1は、本発明の第1実施形態に係る物体認識装置の概略構成図である。FIG. 1 is a schematic configuration diagram of an object recognition device according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る物体認識装置の一動作例を説明するフローチャートである。FIG. 2 is a flow chart explaining an operation example of the object recognition device according to the first embodiment of the present invention. 図3は、走行シーンの一例を説明する図である。FIG. 3 is a diagram illustrating an example of a driving scene. 図4は、検出点を分類する方法の一例を説明する図である。FIG. 4 is a diagram illustrating an example of a method of classifying detection points. 図5は、検出点を追跡する方法の一例を説明する図である。FIG. 5 is a diagram illustrating an example of a method of tracking detection points. 図6は、速度ベクトルの一例を説明する図である。FIG. 6 is a diagram illustrating an example of velocity vectors. 図7は、速度ベクトルの分解の一例を説明する図である。FIG. 7 is a diagram illustrating an example of decomposition of velocity vectors. 図8は、本発明の第2実施形態に係る物体認識装置の概略構成図である。FIG. 8 is a schematic configuration diagram of an object recognition device according to a second embodiment of the present invention. 図9は、本発明の第2実施形態に係る物体認識装置の一動作例を説明するフローチャートである。FIG. 9 is a flow chart illustrating an operation example of the object recognition device according to the second embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.

(第1の実施形態)
(物体認識装置1の構成例)
図1を参照して、物体認識装置1の構成例を説明する。図1に示すように、物体認識装置1は、センサ10と、地図データベース11と、GPS受信機12と、コントローラ20と、アクチュエータ30と、スピーカ31と、ディスプレイ32と、を備える。
(First embodiment)
(Configuration example of object recognition device 1)
A configuration example of the object recognition device 1 will be described with reference to FIG. As shown in FIG. 1, the object recognition device 1 includes a sensor 10, a map database 11, a GPS receiver 12, a controller 20, an actuator 30, a speaker 31, and a display 32.

物体認識装置1は、自動運転機能を有する車両に搭載されてもよく、自動運転機能を有しない車両に搭載されてもよい。また、物体認識装置1は、自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも何れかのアクチュエータが乗員の操作なしに制御されている状態を指す。そのため、その他のアクチュエータが乗員の操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態を指す。 The object recognition device 1 may be installed in a vehicle having an automatic driving function, or may be installed in a vehicle without an automatic driving function. Further, the object recognition device 1 may be installed in a vehicle capable of switching between automatic driving and manual driving. Note that automatic driving in this embodiment refers to, for example, a state in which at least one of actuators such as a brake, an accelerator, and a steering is controlled without being operated by a passenger. Therefore, other actuators may be operated by the passenger's operation. Further, automatic operation may be a state in which any control such as acceleration/deceleration control or lateral position control is being executed. Further, manual driving in this embodiment refers to a state in which the driver is operating the brake, accelerator, and steering, for example.

センサ10は、自車両に搭載され、自車両の周囲の物体を検出する装置である。センサ10は、ライダ、レーダ、ミリ波レーダ、レーザレンジファインダ、ソナーなどを含む。センサ10は、自車両の周囲の物体として、他車両、バイク、自転車、歩行者を含む移動物体、及び、障害物、落下物、駐車車両を含む静止物体を検出する。また、センサ10は、移動物体及び静止物体の自車両に対する位置、姿勢(ヨー角)、大きさ、速度、加速度、減速度、ヨーレートを検出する。また、センサ10は、車輪速センサ、操舵角センサ、及びジャイロセンサなどを含んでもよい。センサ10は、検出した情報をコントローラ20に出力する。 The sensor 10 is a device that is mounted on the own vehicle and detects objects around the own vehicle. The sensor 10 includes lidar, radar, millimeter wave radar, laser range finder, sonar, and the like. The sensor 10 detects moving objects including other vehicles, motorcycles, bicycles and pedestrians, and stationary objects including obstacles, falling objects and parked vehicles as objects around the own vehicle. The sensor 10 also detects the position, orientation (yaw angle), size, speed, acceleration, deceleration, and yaw rate of the moving and stationary objects with respect to the host vehicle. Also, the sensor 10 may include a wheel speed sensor, a steering angle sensor, a gyro sensor, and the like. The sensor 10 outputs detected information to the controller 20 .

本実施形態では、センサ10は、ライダまたはレーダとして説明する。ライダまたはレーダは、電波を物体に向けて走査し、その反射波を測定することにより、物体までの距離や方向を測定する。また、ライダまたはレーダは、物体のポイントクラウドを検出点として取得する。ポイントクラウドとは、コントローラ20が処理する点の集合である。通常、ポイントクラウドは、3次元座標(x、y、z)で表現される。なお、物体のポイントクラウドを取得する方法は、ライダまたはレーダに限定されない。例えば、カメラ画像からそれぞれ周囲の画素と区別可能な特徴を持つ画素をポイントクラウドとして取得する方法が挙げられる。この方法には、例えば非特許文献「Jianbo Shi and Carlo Tomasi, "Good Features to Track," 1994 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94), 1994, pp.593 - 600.」に記載の方法が用いられる。 In this embodiment, sensor 10 is described as lidar or radar. A lidar or radar scans an object with radio waves and measures the reflected wave to measure the distance and direction to the object. Lidar or radar also acquires point clouds of objects as detection points. A point cloud is a collection of points processed by the controller 20 . A point cloud is usually represented by three-dimensional coordinates (x, y, z). Note that the method of acquiring the point cloud of an object is not limited to lidar or radar. For example, there is a method of obtaining a point cloud of pixels each having a feature distinguishable from surrounding pixels from a camera image. This method includes, for example, the non-patent document "Jianbo Shi and Carlo Tomasi, "Good Features to Track," 1994 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94), 1994, pp.593-600." method is used.

地図データベース11は、カーナビゲーション装置などに記憶されているデータベースであって、道路情報、施設情報など経路案内に必要となる各種データが記憶されている。また、地図データベース11には、道路の構造、道路の車線数、車線の位置、道路境界線、物標などの情報が記憶されている。地図データベース11は、コントローラ20の要求に応じて地図情報をコントローラ20に出力する。なお、道路情報、物標情報などの各種データは必ずしも地図データベース11から取得されるものに限定されず、センサ10により取得されてもよく、また車車間通信、路車間通信を用いて取得されてもよい。また、道路情報、物標情報などの各種データが外部に設置されたサーバに記憶されている場合、コントローラ20は、通信により随時これらのデータをサーバから取得してもよい。また、コントローラ20は、外部に設置されたサーバから定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。 The map database 11 is a database stored in a car navigation device or the like, and stores various data necessary for route guidance such as road information and facility information. The map database 11 also stores information such as the structure of roads, the number of lanes on roads, the positions of lanes, road boundaries, and targets. The map database 11 outputs map information to the controller 20 in response to requests from the controller 20 . Various data such as road information and target information are not necessarily acquired from the map database 11, and may be acquired by the sensor 10, or may be acquired using vehicle-to-vehicle communication or road-to-vehicle communication. good too. In addition, when various data such as road information and target information are stored in a server installed outside, the controller 20 may acquire these data from the server at any time through communication. Further, the controller 20 may periodically acquire the latest map information from an externally installed server and update the map information it holds.

GPS受信機12は、人工衛星からの電波を受信することにより、地上における自車両の位置(以下、自己位置と称する場合がある)及び自車両の姿勢を検出する。GPS受信機12は、検出した自車両の位置情報及び姿勢情報をコントローラ20に出力する。 The GPS receiver 12 detects the position of the vehicle on the ground (hereinafter sometimes referred to as the self-position) and the attitude of the vehicle by receiving radio waves from satellites. The GPS receiver 12 outputs the detected position information and attitude information of the own vehicle to the controller 20 .

コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、物体認識装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、物体認識装置1が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって物体認識装置1が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路として、軌道推定部21と、抽出部22と、追跡部23と、相対速度算出部24と、運転支援部25と、を備える。 The controller 20 is a general-purpose microcomputer having a CPU (Central Processing Unit), memory, and an input/output unit. A computer program for functioning as the object recognition device 1 is installed in the microcomputer. By executing the computer program, the microcomputer functions as a plurality of information processing circuits included in the object recognition device 1. FIG. Here, an example of realizing a plurality of information processing circuits provided in the object recognition apparatus 1 by software will be shown. It is also possible to construct a circuit. Also, a plurality of information processing circuits may be configured by individual hardware. The controller 20 includes a trajectory estimation unit 21, an extraction unit 22, a tracking unit 23, a relative speed calculation unit 24, and a driving support unit 25 as a plurality of information processing circuits.

軌道推定部21は、自己位置及び自車両の姿勢を用いて、自車両が将来進む軌道を推定する。 The trajectory estimation unit 21 estimates the trajectory that the vehicle will travel in the future using the self-position and the attitude of the vehicle.

抽出部22は、センサ10によって検出された検出点の中から、自車両に最も近い検出点を抽出する。 The extraction unit 22 extracts a detection point closest to the own vehicle from among the detection points detected by the sensor 10 .

追跡部23は、抽出部22によって抽出された自車両に最も近い検出点を追跡する。また、追跡部23は、追跡結果に基づいて自車両に最も近い検出点の速度ベクトルを算出する。 The tracking unit 23 tracks the closest detection point to the own vehicle extracted by the extraction unit 22 . Also, the tracking unit 23 calculates the velocity vector of the detection point closest to the own vehicle based on the tracking result.

相対速度算出部24は、追跡部23によって算出された速度ベクトルを用いて自車両に対する物体の相対速度を算出する。 The relative velocity calculation unit 24 uses the velocity vector calculated by the tracking unit 23 to calculate the relative velocity of the object with respect to the own vehicle.

運転支援部25は、相対速度算出部24によって算出された相対速度と、自車両に最も近い検出点までの距離Lに基づいて運転支援を行う。運転支援部25は、スピーカ31またはディスプレイ32を介して乗員に報知したり、アクチュエータ30を制御したりする。なお、アクチュエータ30には、ブレーキアクチュエータ、アクセルアクチュエータ、ステアリングアクチュエータなどが含まれる。 The driving assistance unit 25 performs driving assistance based on the relative speed calculated by the relative speed calculation unit 24 and the distance L to the detection point closest to the own vehicle. The driving support unit 25 notifies the passenger via the speaker 31 or the display 32 and controls the actuator 30 . The actuator 30 includes a brake actuator, an accelerator actuator, a steering actuator, and the like.

次に、図2~図7を参照して、物体認識装置1の一動作例を説明する。 Next, an operation example of the object recognition device 1 will be described with reference to FIGS. 2 to 7. FIG.

図2に示すステップS101において、センサ10は、自車両40の周囲の物体(図3に示す停止車両41)を検出する。図3に示す停止車両41は、自車両40の前方に位置し、停止している。センサ10は、停止車両41の表面上にある複数の検出点を検出する。なお、図3に示す例では、説明の都合上、一つの検出点60が図示されているが、実際には停止車両41の表面上において複数の検出点が検出される。複数の検出点については後述する。なお、複数の検出点は、一つの物体の表面上にある複数の検出点を意味する場合と、自車両40の周囲の様々な物体の検出点を意味する場合がある。 In step S101 shown in FIG. 2, the sensor 10 detects an object (stopped vehicle 41 shown in FIG. 3) around the own vehicle 40. FIG. A stopped vehicle 41 shown in FIG. 3 is positioned in front of the own vehicle 40 and is stopped. Sensor 10 detects a plurality of detection points on the surface of stopped vehicle 41 . In addition, in the example shown in FIG. 3, one detection point 60 is shown for convenience of explanation, but a plurality of detection points are actually detected on the surface of the stopped vehicle 41 . A plurality of detection points will be described later. A plurality of detection points may mean a plurality of detection points on the surface of one object, or may mean detection points of various objects around the vehicle 40 .

処理はステップ103に進み、GPS受信機12は、自己位置及び自車両40の姿勢を検出する。 The process proceeds to step 103 and the GPS receiver 12 detects its own position and the attitude of the vehicle 40 .

処理はステップ105に進み、コントローラ20は、自己位置と、自車両40の姿勢と、地図データベース11とを用いて、自車両40が走行している車線を取得する。なお、以下では、自車両40が走行している車線を単に自車線という。本実施形態に係る物体認識装置1は、図3に示すカーブのように、自車両40に大きなヨーレートが発生するシーンで適用されるものとして説明する。自車両40に大きなヨーレートが発生するシーンには、カーブ、交差点の右折(左折)などが含まれる。もちろん、本実施形態に係る物体認識装置1は、自車両40に大きなヨーレートが発生するシーン以外に適用されてもよい。 The process proceeds to step 105 , and the controller 20 uses the self-position, the attitude of the vehicle 40 and the map database 11 to acquire the lane in which the vehicle 40 is traveling. In addition, below, the lane in which the own vehicle 40 is driving is simply called the own lane. The object recognition apparatus 1 according to the present embodiment will be described as being applied to a scene in which a large yaw rate occurs in the own vehicle 40, such as the curve shown in FIG. Scenes in which a large yaw rate occurs in the own vehicle 40 include curves, right turns (left turns) at intersections, and the like. Of course, the object recognition device 1 according to the present embodiment may be applied to scenes other than scenes in which the host vehicle 40 experiences a large yaw rate.

処理はステップ107に進み、軌道推定部21は、自己位置及び自車両40の姿勢を用いて、自車線上における自車両40が将来進む軌道50を推定する(図3参照)。軌道50は、一例として、図3に示すように、自車線の中心を通る。 The process proceeds to step 107, and the trajectory estimation unit 21 estimates the future trajectory 50 of the vehicle 40 on the own lane using the self-position and the attitude of the vehicle 40 (see FIG. 3). As an example, the track 50 passes through the center of the own lane, as shown in FIG.

処理はステップS109に進み、抽出部22は、自車両40に最も近い検出点を抽出する。自車両40に最も近い検出点について図4を参照して説明する。図4に示すように、センサ10は、自車両40の周囲において複数の検出点70~73を検出する。これらの検出点には、自車両40の走行に関係する検出点と、自車両40の走行に関係しない検出点が含まれる。一例として、自車線上で検出された検出点は、自車両40の走行に関係する検出点と判断され、自車線から離れた位置で検出された検出点は、自車両40の走行に関係しない検出点と判断される。 The process proceeds to step S<b>109 , and the extraction unit 22 extracts the closest detection point to the own vehicle 40 . A detection point closest to the own vehicle 40 will be described with reference to FIG. As shown in FIG. 4, the sensor 10 detects multiple detection points 70 to 73 around the host vehicle 40 . These detection points include detection points related to travel of the own vehicle 40 and detection points not related to the travel of the own vehicle 40 . As an example, a detection point detected on the own lane is determined as a detection point related to travel of the own vehicle 40, and a detection point detected at a position away from the own lane is not related to the travel of the own vehicle 40. It is judged as a detection point.

検出点70~73の中から、自車両40の走行に関係しない検出点は、ノイズとして除去されることが求められる。その方法の一例として、検出点から軌道50までの距離を用いる方法が考えられる。理由は、検出点から軌道50までの距離が短いほど、その検出点は自車両40の走行に関係する検出点である可能性が高いからである。換言すれば、検出点から軌道50までの距離が長いほど、その検出点は自車両40の走行に関係する検出点である可能性は低い。 Among the detection points 70 to 73, the detection points that are not related to the running of the own vehicle 40 are required to be removed as noise. As an example of the method, a method using the distance from the detection point to the trajectory 50 can be considered. The reason is that the shorter the distance from the detection point to the track 50, the higher the possibility that the detection point is related to the running of the own vehicle 40. FIG. In other words, the longer the distance from the detection point to the track 50 , the less likely the detection point is related to the running of the own vehicle 40 .

そこで、抽出部22は、図4に示すように検出点70~73から、軌道50に向かってそれぞれ垂線を引く。抽出部22は、垂線の長さ80~83と、所定値とを比較する。本実施形態において、長さ80は、所定値より長く、長さ81~83は、所定値以下である。この場合、抽出部22は、長さ81~83の中から、最も短い距離を選択する。つまり、抽出部22は、検出点71~73の中から、軌道50までの距離が最も短い検出点を抽出する。軌道50までの距離が最も短い検出点が、自車両40に最も近い検出点である。図4に示す例では、検出点71が自車両40に最も近い検出点である。なお、所定値と比較する理由は、所定値より長い場所に位置する検出点70は、自車両40の走行に関係しない検出点であり、このような検出点70を除去するためである。 Therefore, the extraction unit 22 draws perpendicular lines toward the trajectory 50 from the detection points 70 to 73 as shown in FIG. The extraction unit 22 compares the lengths 80 to 83 of the perpendiculars with a predetermined value. In this embodiment, the length 80 is longer than the predetermined value and the lengths 81-83 are less than or equal to the predetermined value. In this case, the extraction unit 22 selects the shortest distance from the lengths 81-83. That is, the extraction unit 22 extracts the detection point with the shortest distance to the trajectory 50 from the detection points 71 to 73 . The detection point with the shortest distance to the track 50 is the closest detection point to the own vehicle 40 . In the example shown in FIG. 4 , the detection point 71 is the detection point closest to the own vehicle 40 . The reason for the comparison with the predetermined value is that detection points 70 positioned longer than the predetermined value are detection points that are not related to the running of the vehicle 40, and such detection points 70 are removed.

処理はステップS111に進み、追跡部23は、ステップS109で抽出された自車両40に最も近い検出点を追跡する。自車両40に最も近い検出点の追跡について図5を参照して説明する。図5に示すように、時刻tにおいて、センサ10は、停止車両41の表面上にある複数の検出点を検出する。なお、図5に示す例では、説明の都合上、一つの検出点60が図示されているが、実際には停止車両41の表面上において複数の検出点が検出される。抽出部22は、軌道50までの距離が最も短い検出点60を、自車両40に最も近い検出点として抽出する。つまり、時刻tにおいて、検出点60は自車両40に最も近い検出点である。 The process proceeds to step S111, and the tracking unit 23 tracks the closest detection point to the host vehicle 40 extracted in step S109. Tracking of the detection point closest to own vehicle 40 will be described with reference to FIG. As shown in FIG. 5, at time t, sensor 10 detects a plurality of detection points on the surface of stopped vehicle 41 . In the example shown in FIG. 5, one detection point 60 is shown for convenience of explanation, but actually a plurality of detection points are detected on the surface of the stopped vehicle 41 . The extraction unit 22 extracts the detection point 60 with the shortest distance to the track 50 as the detection point closest to the own vehicle 40 . That is, the detection point 60 is the closest detection point to the own vehicle 40 at the time t.

時間は進み、時刻t+1において、図5に示すように、自車両40は少し進み、停止車両41は停止したままである。時刻t+1において、センサ10は、停止車両41の表面上にある複数の検出点(検出点60、61、62)を検出する。抽出部22は、検出点60、61、62の中から、軌道50までの距離が最も短い検出点62を、自車両40に最も近い検出点として抽出する。 Time advances, and at time t+1, as shown in FIG. 5, the own vehicle 40 advances a little and the stopped vehicle 41 remains stopped. At time t+1, sensor 10 detects a plurality of detection points (detection points 60 , 61 , 62 ) on the surface of stopped vehicle 41 . The extraction unit 22 extracts the detection point 62 with the shortest distance to the track 50 from among the detection points 60 , 61 , 62 as the detection point closest to the own vehicle 40 .

時刻tにおいて、自車両40に最も近い検出点は検出点60であり、時刻t+1において、自車両40に最も近い検出点は検出点62である。追跡部23は、時間が時刻tから時刻t+1に進んだ場合、検出点60、検出点62の順に追跡する。図6に示すように、追跡部23が検出点60、検出点62の順に追跡した結果、検出点60から検出点62に向かう速度ベクトル90が得られる。つまり、追跡部23は、検出点60及び検出点62の位置の時間変化(検出点60から検出点62への推移)から、自車両40に最も近い検出点の速度ベクトルを算出する。 The detection point closest to the vehicle 40 at time t is the detection point 60 , and the detection point closest to the vehicle 40 at time t+1 is the detection point 62 . When the time advances from time t to time t+1, the tracking unit 23 tracks the detection point 60 and then the detection point 62 in that order. As shown in FIG. 6, the tracking unit 23 tracks the detection point 60 and the detection point 62 in that order, and as a result, a velocity vector 90 directed from the detection point 60 to the detection point 62 is obtained. That is, the tracking unit 23 calculates the velocity vector of the detection point closest to the own vehicle 40 from the temporal change in the positions of the detection points 60 and 62 (transition from the detection point 60 to the detection point 62).

処理はステップS113に進み、相対速度算出部24は、図7に示すように、ステップ111で算出された速度ベクトル90を、軌道50の接線方向の速度成分Vt及び法線方向の速度成分Vnに分解する。そして、相対速度算出部24は、速度成分Vtを自車両40に対する停止車両41の相対速度として算出する。 The process proceeds to step S113, and the relative velocity calculator 24 converts the velocity vector 90 calculated in step S111 into velocity component Vt in the tangential direction and velocity component Vn in the normal direction of the track 50, as shown in FIG. disassemble. Then, the relative speed calculator 24 calculates the speed component Vt as the relative speed of the stopped vehicle 41 with respect to the own vehicle 40 .

処理はステップS115に進み、運転支援部25は、ステップ113で算出された相対速度と、自車両40に最も近い検出点までの距離L(図4参照)に基づいて運転支援を行う。例えば、相対速度と距離Lから算出されるTTC(Time To Collision)が所定値より小さい場合、運転支援部25は、スピーカ31またはディスプレイ32を介して乗員に報知したり、アクチュエータ30を制御して減速を行ったりする。 The process proceeds to step S115, and the driving support unit 25 performs driving support based on the relative speed calculated in step S113 and the distance L (see FIG. 4) to the detection point closest to the own vehicle 40. FIG. For example, when the TTC (Time To Collision) calculated from the relative speed and the distance L is smaller than a predetermined value, the driving support unit 25 notifies the passenger via the speaker 31 or the display 32 or controls the actuator 30. Decelerate.

処理はステップS117に進み、自車両40の乗員が、イグニッションをオフした場合(ステップS117でYes)、一連の処理は終了する。ユーザが、イグニッションをオフしていない場合(ステップS117でNo)、処理はステップS101に戻る。なお、本実施形態におけるイグニッションのオフは、自車両40の停止、自車両40の電源システムの停止を含む。イグニッションのオフは、自車両40の車室内に設けられたイグニッションスイッチをオフすることによって実現されてもよく、自車両40の車室内に設けられた電源システムスイッチをオフすることによって実現されてもよい。 The process proceeds to step S117, and when the occupant of the own vehicle 40 turns off the ignition (Yes in step S117), the series of processes ends. If the user has not turned off the ignition (No in step S117), the process returns to step S101. Turning off the ignition in this embodiment includes stopping the vehicle 40 and stopping the power supply system of the vehicle 40 . Turning off the ignition may be realized by turning off an ignition switch provided in the vehicle interior of the vehicle 40, or may be realized by turning off a power system switch provided in the vehicle interior of the vehicle 40. good.

(作用効果)
以上説明したように、第1実施形態に係る物体認識装置1によれば、以下の作用効果が得られる。
(Effect)
As described above, according to the object recognition device 1 according to the first embodiment, the following effects are obtained.

物体認識装置1は、自己位置及び自車両40の姿勢を用いて、自車線上における自車両40が将来進む軌道50を推定する(図3参照)。物体認識装置1は、第1の時刻(図5に示す時刻t)において、センサ10を用いて複数の第1の検出点(図5に示す検出点60)を検出する。物体認識装置1は、第1の時刻とは異なる第2の時刻(図5に示す時刻t+1)においてセンサ10を用いて複数の第2の検出点(図5に示す検出点60~62)を検出する。物体認識装置1は、複数の第1の検出点の位置及び軌道50を用いて、複数の第1の検出点の中から、自車両40に最も近い第1の検出点(図5に示す検出点60)を抽出する。物体認識装置1は、複数の第2の検出点の位置及び軌道50を用いて、複数の第2の検出点の中から、自車両40に最も近い第2の検出点(図5に示す検出点62)を抽出する。物体認識装置1は、抽出された自車両40に最も近い第1の検出点及び自車両40に最も近い第2の検出点の位置の時間変化から、自車両40に最も近い検出点の速度ベクトル90を算出する(図6参照)。物体認識装置1は、速度ベクトル90を軌道50の接線方向の速度成分Vt及び法線方向の速度成分Vnに分解する。物体認識装置1は、接線方向の速度成分Vtを自車両40に対する停止車両41の相対速度として算出する。これにより物体認識装置1は、自車両40から見た停止車両41の見え方が大きく変化するシーン(自車両に大きなヨーレートが発生するシーン)において、停止車両41の速度を精度よく算出することができる。もちろん、物体認識装置1が検出する物体は、停止車両41に限定されない。物体認識装置1は、停止していない車両の速度も、同様の方法により精度よく算出することができる。 The object recognition device 1 uses the self-position and the attitude of the vehicle 40 to estimate the trajectory 50 along which the vehicle 40 will travel in the future (see FIG. 3). The object recognition device 1 detects a plurality of first detection points (detection points 60 shown in FIG. 5) using the sensor 10 at a first time (time t shown in FIG. 5). The object recognition device 1 detects a plurality of second detection points (detection points 60 to 62 shown in FIG. 5) using the sensor 10 at a second time (time t+1 shown in FIG. 5) different from the first time. To detect. The object recognition device 1 uses the positions of the plurality of first detection points and the trajectory 50 to select the first detection point closest to the own vehicle 40 (the detection point shown in FIG. 5) from the plurality of first detection points. Extract point 60). The object recognition apparatus 1 uses the positions of the plurality of second detection points and the trajectory 50 to select the second detection point closest to the own vehicle 40 (the detection point shown in FIG. 5) from the plurality of second detection points. Extract point 62). The object recognition device 1 calculates the velocity vector of the detection point closest to the own vehicle 40 based on the temporal change in the positions of the extracted first detection point closest to the own vehicle 40 and the second detection point closest to the own vehicle 40. 90 is calculated (see FIG. 6). The object recognition device 1 decomposes the velocity vector 90 into a tangential velocity component Vt and a normal velocity component Vn of the trajectory 50 . The object recognition device 1 calculates the tangential velocity component Vt as the relative velocity of the stopped vehicle 41 with respect to the own vehicle 40 . As a result, the object recognition apparatus 1 can accurately calculate the speed of the stopped vehicle 41 in a scene in which the appearance of the stopped vehicle 41 as seen from the own vehicle 40 changes significantly (a scene in which a large yaw rate occurs in the own vehicle). can. Of course, the object detected by the object recognition device 1 is not limited to the stopped vehicle 41 . The object recognition device 1 can also accurately calculate the speed of a vehicle that is not stopped by the same method.

また、物体認識装置1は、複数の検出点70~73から軌道50に向かってそれぞれ垂線を引き、垂線の長さ80~83が所定値以下の検出点の中から自車両40に最も近い検出点を抽出する(図4参照)。図4において、長さ81~83が、所定値以下である。物体認識装置1は、長さ81~83に対応する検出点71~73の中から自車両40に最も近い検出点を抽出する。このように軌道50から所定の範囲内の検出点のみ用いられるため、自車両40の走行に関係する物体のみ抽出される。 Further, the object recognition apparatus 1 draws perpendicular lines from the plurality of detection points 70 to 73 toward the track 50, and detects the closest detection points to the own vehicle 40 from among the detection points whose perpendicular lengths 80 to 83 are equal to or less than a predetermined value. Extract points (see FIG. 4). In FIG. 4, lengths 81-83 are equal to or less than a predetermined value. The object recognition device 1 extracts the detection point closest to the own vehicle 40 from among the detection points 71-73 corresponding to the lengths 81-83. Since only detection points within a predetermined range from the track 50 are used in this way, only objects related to the running of the own vehicle 40 are extracted.

また、物体認識装置1は、垂線の長さが最も短い検出点を自車両40に最も近い検出点として抽出する。図4において、垂線の長さ81が最も短い検出点71が自車両40に最も近い検出点である。これにより、物体認識装置1は、道路形状が複雑であっても、精度よく物体を追跡することができる。 Further, the object recognition device 1 extracts the detection point with the shortest perpendicular length as the detection point closest to the own vehicle 40 . In FIG. 4 , the detection point 71 with the shortest perpendicular length 81 is the closest detection point to the own vehicle 40 . As a result, the object recognition device 1 can accurately track the object even if the shape of the road is complicated.

また、物体認識装置1は、地図データベース11と、自己位置とに基づいて、軌道50を算出する。これにより、物体認識装置1は、高精度な軌道50を遠方まで設定することができる。これにより、物体認識装置1は、より早期に物体を認識することができる。 Also, the object recognition device 1 calculates a trajectory 50 based on the map database 11 and the self-position. Thereby, the object recognition device 1 can set the highly accurate trajectory 50 to a long distance. Thereby, the object recognition device 1 can recognize the object earlier.

(第2の実施形態)
(物体認識装置2の構成例)
次に、図8~図9を参照して、本発明の第2実施形態について説明する。第1実施形態と重複する構成については符号を引用してその説明は省略する。以下、相違点を中心に説明する。
(Second embodiment)
(Configuration example of object recognition device 2)
Next, a second embodiment of the present invention will be described with reference to FIGS. 8 and 9. FIG. Reference numerals are used for configurations that overlap with the first embodiment, and descriptions thereof are omitted. The following description will focus on the differences.

図8に示すように、第2実施形態に係る物体認識装置2は、カメラ13と、クラスタ抽出部26をさらに備える。 As shown in FIG. 8 , the object recognition device 2 according to the second embodiment further includes a camera 13 and a cluster extraction section 26 .

カメラ13は、自車両40に搭載され、自車両40の周囲を撮影する。カメラ13は、CCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ13は、画像処理機能を有しており、撮像した画像(カメラ画像)から白線、道路境界線、道路端、物標(例えば縁石)などを検出する。 The camera 13 is mounted on the own vehicle 40 and photographs the surroundings of the own vehicle 40 . The camera 13 has an imaging device such as a CCD (charge-coupled device) or a CMOS (complementary metal oxide semiconductor). The camera 13 has an image processing function, and detects white lines, road boundaries, road edges, targets (for example, curbs), etc. from captured images (camera images).

クラスタ抽出部26は、複数の検出点をクラスタ(物体)として抽出する。このような方法は、クラスタリングと呼ばれる。クラスタ抽出部26は、一例として、複数の検出点の中から、2点間の距離が所定値以下の検出点をクラスタリングする。図5に示す例では、時刻t+1において、検出点60~62がクラスタリングされ、停止車両41を示すクラスタとして抽出される。 The cluster extraction unit 26 extracts a plurality of detection points as clusters (objects). Such a method is called clustering. As an example, the cluster extraction unit 26 clusters detection points whose distance between two points is equal to or less than a predetermined value from among the plurality of detection points. In the example shown in FIG. 5, the detection points 60 to 62 are clustered at time t+1 and extracted as a cluster indicating the stopped vehicle 41 .

次に、図9のフローチャートを参照して、物体認識装置2の一動作例を説明する。 Next, an operation example of the object recognition device 2 will be described with reference to the flowchart of FIG.

ステップS201~203、207、213~219は、図2に示すステップS101~103、107、111~117と同じため、説明を省略する。 Steps S201 to 203, 207 and 213 to 219 are the same as steps S101 to 103, 107 and 111 to 117 shown in FIG. 2, so description thereof will be omitted.

ステップS205において、コントローラ20は、自己位置と、カメラ画像とを用いて、自車両40が走行している車線(自車線)を取得する。第2実施形態において、コントローラ20は、地図データベース11の代わりにカメラ画像を用いて自車線を取得するため、道路構造が地図データベース11に反映されていない地域であっても、自車線を取得できる。 In step S205, the controller 20 acquires the lane (own lane) in which the own vehicle 40 is traveling using the self position and the camera image. In the second embodiment, the controller 20 acquires the own lane using camera images instead of the map database 11, so even in areas where the road structure is not reflected in the map database 11, the own lane can be acquired. .

ステップS209において、クラスタ抽出部26は、ステップS201で検出された複数の検出点の中から、第1実施形態と同様に軌道50までの距離が所定値以下の検出点を抽出する。このように抽出された検出点の中から、クラスタ抽出部26は、2点間の距離が所定値以下の検出点をクラスタリングする。これにより、クラスタ抽出部26は、軌道50に近接するクラスタを抽出することができる。 In step S209, the cluster extracting unit 26 extracts detection points whose distance to the trajectory 50 is equal to or less than a predetermined value, as in the first embodiment, from the plurality of detection points detected in step S201. From the detection points thus extracted, the cluster extraction unit 26 clusters the detection points whose distance between two points is equal to or less than a predetermined value. Thereby, the cluster extraction unit 26 can extract clusters close to the trajectory 50 .

ステップS211において、抽出部22は、ステップS209で抽出されたクラスタに含まれる検出点の中から、軌道50までの距離が最も短い検出点を自車両40に最も近い検出点として抽出する。 In step S<b>211 , the extraction unit 22 extracts the detection point with the shortest distance to the track 50 as the detection point closest to the own vehicle 40 from among the detection points included in the clusters extracted in step S<b>209 .

(作用効果)
以上説明したように、第2実施形態に係る物体認識装置2によれば、以下の作用効果が得られる。
(Effect)
As described above, according to the object recognition device 2 according to the second embodiment, the following effects are obtained.

物体認識装置2は、第1実施形態と同様に複数の検出点から軌道50に向かってそれぞれ垂線を引き、垂線の長さが所定値以下の検出点を抽出する。このように抽出された検出点の中から、物体認識装置2は、2点間の距離が所定値以下の検出点をクラスタリングする。これにより、物体認識装置2は、軌道50に近接するクラスタを抽出することができる。そして、物体認識装置2は、クラスタリングされたクラスタに含まれる検出点の中から、軌道50までの距離が最も短い検出点を自車両40に最も近い検出点として抽出する。このように、物体認識装置2は、検出点をクラスタリングした後に、自車両40に最も近い検出点を抽出するため、ノイズを除去することができ、精度よく物体を認識することができる。 As in the first embodiment, the object recognition device 2 draws perpendicular lines from a plurality of detection points toward the trajectory 50, and extracts detection points whose perpendicular lengths are equal to or less than a predetermined value. From the detection points thus extracted, the object recognition device 2 clusters the detection points whose distance between the two points is equal to or less than a predetermined value. Thereby, the object recognition device 2 can extract clusters close to the trajectory 50 . Then, the object recognition device 2 extracts the detection point with the shortest distance to the trajectory 50 from among the detection points included in the clustered clusters as the detection point closest to the own vehicle 40 . In this way, after clustering the detection points, the object recognition device 2 extracts the detection points closest to the own vehicle 40, so noise can be removed and objects can be recognized with high accuracy.

物体認識装置2は、カメラ13によって取得された自車両40の前方の道路構造に基づいて、軌道50を算出する。これにより、物体認識装置2は、道路構造が地図データベース11に反映されていない地域であっても、自車線を取得できる。 The object recognition device 2 calculates the trajectory 50 based on the road structure in front of the own vehicle 40 acquired by the camera 13 . As a result, the object recognition device 2 can acquire its own lane even in an area where the road structure is not reflected in the map database 11 .

上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。また、物体認識装置1及び物体認識装置2は、コンピュータの機能を改善しうる。 Each function described in the above embodiments may be implemented by one or more processing circuits. Processing circuitry includes programmed processing devices, such as processing devices that include electrical circuitry. Processing circuitry also includes devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions. Also, the object recognition device 1 and the object recognition device 2 can improve the function of the computer.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 While embodiments of the present invention have been described above, the discussion and drawings forming part of this disclosure should not be construed as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.

1、2 物体認識装置
10 センサ
11 地図データベース
12 GPS受信機
13 カメラ
20 コントローラ
21 軌道推定部
22 抽出部
23 追跡部
24 相対速度算出部
25 運転支援部
26 クラスタ抽出部
30 アクチュエータ
31 スピーカ
32 ディスプレイ
1, 2 Object recognition device 10 Sensor 11 Map database 12 GPS receiver 13 Camera 20 Controller 21 Trajectory estimation unit 22 Extraction unit 23 Tracking unit 24 Relative velocity calculation unit 25 Driving support unit 26 Cluster extraction unit 30 Actuator 31 Speaker 32 Display

Claims (7)

自車両に搭載されたセンサを用いて、前記自車両の周囲の物体の表面上にある複数の検出点を検出し、前記センサによって検出された前記複数の検出点を用いて前記物体を認識する物体認識方法であって、
前記自車両が将来進む軌道を推定し、
第1の時刻において前記センサを用いて前記複数の第1の検出点を検出し、
前記第1の時刻とは異なる第2の時刻において前記センサを用いて複数の第2の検出点を検出し、
前記複数の第1の検出点から前記軌道までの距離を用いて、前記複数の第1の検出点の中から、前記軌道までの距離が最も短い検出点である前記自車両に最も近い第1の検出点を抽出し、
前記複数の第2の検出点から前記軌道までの距離を用いて、前記複数の第2の検出点の中から、前記軌道までの距離が最も短い検出点である前記自車両に最も近い第2の検出点を抽出し、
抽出された前記自車両に最も近い前記第1の検出点及び前記自車両に最も近い前記第2の検出点の位置の時間変化から、前記自車両に最も近い検出点の速度ベクトルを算出し、
前記速度ベクトルを前記軌道の接線方向の速度成分及び法線方向の速度成分に分解し、
前記接線方向の速度成分を前記自車両に対する前記物体の相対速度として算出する
ことを特徴とする物体認識方法。
A sensor mounted on the own vehicle is used to detect a plurality of detection points on the surface of an object around the own vehicle, and the object is recognized using the plurality of detection points detected by the sensor. An object recognition method comprising:
estimating the future trajectory of the own vehicle;
Detecting the plurality of first detection points using the sensor at a first time;
Detecting a plurality of second detection points using the sensor at a second time different from the first time,
Using the distances from the plurality of first detection points to the trajectory, a first detection point closest to the subject vehicle, which is the detection point with the shortest distance to the trajectory, is selected from among the plurality of first detection points. Extract the detection points of
Using the distances from the plurality of second detection points to the trajectory, a second detection point closest to the own vehicle, which is the detection point with the shortest distance to the trajectory, is selected from the plurality of second detection points. Extract the detection points of
calculating the velocity vector of the detection point closest to the own vehicle from the time change of the extracted positions of the first detection point closest to the own vehicle and the second detection point closest to the own vehicle;
decomposing the velocity vector into a tangential velocity component and a normal velocity component of the trajectory;
An object recognition method, wherein the speed component in the tangential direction is calculated as a relative speed of the object with respect to the own vehicle.
前記複数の検出点から前記軌道に向かってそれぞれ垂線を引き、
前記垂線の長さが所定値以下の検出点の中から前記自車両に最も近い検出点を抽出する
ことを特徴とする請求項1に記載の物体認識方法。
drawing perpendicular lines from the plurality of detection points toward the trajectory;
2. The object recognition method according to claim 1, wherein a detection point closest to the own vehicle is extracted from among the detection points whose vertical length is equal to or less than a predetermined value.
前記垂線の長さが最も短い検出点を前記自車両に最も近い検出点として抽出する
ことを特徴とする請求項2に記載の物体認識方法。
3. The object recognition method according to claim 2, wherein the detection point having the shortest perpendicular length is extracted as the detection point closest to the host vehicle.
前記複数の検出点から前記軌道に向かってそれぞれ垂線を引き、
前記垂線の長さが所定値以下の検出点の中から、2点間の距離が所定値以下の検出点をクラスタリングし、
クラスタリングされたクラスタに含まれる検出点の中から、前記自車両に最も近い検出点を抽出する
ことを特徴とする請求項1~3のいずれか1項に記載の物体認識方法。
drawing perpendicular lines from the plurality of detection points toward the trajectory;
clustering the detection points whose distance between the two points is a predetermined value or less from among the detection points whose perpendicular length is a predetermined value or less;
4. The object recognition method according to any one of claims 1 to 3, wherein a detection point closest to the own vehicle is extracted from among the detection points included in the clustered clusters.
地図データベースと、前記自車両の位置とに基づいて、前記軌道を算出する
ことを特徴とする請求項1~4のいずれか1項に記載の物体認識方法。
The object recognition method according to any one of claims 1 to 4, wherein the trajectory is calculated based on a map database and the position of the own vehicle.
前記自車両に搭載されたカメラによって取得された、前記自車両の前方の道路構造に基づいて、前記軌道を算出する
ことを特徴とする請求項1~4のいずれか1項に記載の物体認識方法。
The object recognition according to any one of claims 1 to 4, wherein the trajectory is calculated based on a road structure in front of the vehicle, which is acquired by a camera mounted on the vehicle. Method.
自車両に搭載されたセンサを用いて、前記自車両の周囲の物体の表面上にある複数の検出点を検出し、前記センサによって検出された前記複数の検出点を用いて前記物体を認識するコントローラを備える物体認識装置であって、
前記コントローラは、
前記自車両が将来進む軌道を推定し、
第1の時刻において前記センサを用いて前記複数の第1の検出点を検出し、
前記第1の時刻とは異なる第2の時刻において前記センサを用いて複数の第2の検出点を検出し、
前記複数の第1の検出点から前記軌道までの距離を用いて、前記複数の第1の検出点の中から、前記軌道までの距離が最も短い検出点である前記自車両に最も近い第1の検出点を抽出し、
前記複数の第2の検出点から前記軌道までの距離を用いて、前記複数の第2の検出点の中から、前記軌道までの距離が最も短い検出点である前記自車両に最も近い第2の検出点を抽出し、
抽出された前記自車両に最も近い前記第1の検出点及び前記自車両に最も近い前記第2の検出点の位置の時間変化から、前記自車両に最も近い検出点の速度ベクトルを算出し、
前記速度ベクトルを前記軌道の接線方向の速度成分及び法線方向の速度成分に分解し、
前記接線方向の速度成分を前記自車両に対する前記物体の相対速度として算出する
ことを特徴とする物体認識装置。
A sensor mounted on the own vehicle is used to detect a plurality of detection points on the surface of an object around the own vehicle, and the object is recognized using the plurality of detection points detected by the sensor. An object recognition device comprising a controller,
The controller is
estimating the future trajectory of the own vehicle;
Detecting the plurality of first detection points using the sensor at a first time;
Detecting a plurality of second detection points using the sensor at a second time different from the first time,
Using the distances from the plurality of first detection points to the trajectory, a first detection point closest to the subject vehicle, which is the detection point with the shortest distance to the trajectory, is selected from among the plurality of first detection points. Extract the detection points of
Using the distances from the plurality of second detection points to the trajectory, a second detection point closest to the own vehicle, which is the detection point with the shortest distance to the trajectory, is selected from the plurality of second detection points. Extract the detection points of
calculating the velocity vector of the detection point closest to the own vehicle from the time change of the extracted positions of the first detection point closest to the own vehicle and the second detection point closest to the own vehicle;
decomposing the velocity vector into a tangential velocity component and a normal velocity component of the trajectory;
An object recognition device, wherein the speed component in the tangential direction is calculated as a relative speed of the object with respect to the own vehicle.
JP2018222162A 2018-11-28 2018-11-28 Object recognition method and object recognition device Active JP7149171B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018222162A JP7149171B2 (en) 2018-11-28 2018-11-28 Object recognition method and object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018222162A JP7149171B2 (en) 2018-11-28 2018-11-28 Object recognition method and object recognition device

Publications (2)

Publication Number Publication Date
JP2020085713A JP2020085713A (en) 2020-06-04
JP7149171B2 true JP7149171B2 (en) 2022-10-06

Family

ID=70907597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222162A Active JP7149171B2 (en) 2018-11-28 2018-11-28 Object recognition method and object recognition device

Country Status (1)

Country Link
JP (1) JP7149171B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005009881A (en) 2003-06-16 2005-01-13 Nissan Motor Co Ltd Forward object position detector
JP2005138764A (en) 2003-11-07 2005-06-02 Nissan Motor Co Ltd Driving operation assisting device for vehicle, and vehicle with driving operation assisting device for vehicle
JP2006133956A (en) 2004-11-04 2006-05-25 Honda Motor Co Ltd Control object deciding device for vehicle
JP2009014479A (en) 2007-07-04 2009-01-22 Honda Motor Co Ltd Object detection device for vehicle
JP2011196943A (en) 2010-03-23 2011-10-06 Denso Corp Recognition device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3608259B2 (en) * 1995-07-20 2005-01-05 マツダ株式会社 Automobile route estimation device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005009881A (en) 2003-06-16 2005-01-13 Nissan Motor Co Ltd Forward object position detector
JP2005138764A (en) 2003-11-07 2005-06-02 Nissan Motor Co Ltd Driving operation assisting device for vehicle, and vehicle with driving operation assisting device for vehicle
JP2006133956A (en) 2004-11-04 2006-05-25 Honda Motor Co Ltd Control object deciding device for vehicle
JP2009014479A (en) 2007-07-04 2009-01-22 Honda Motor Co Ltd Object detection device for vehicle
JP2011196943A (en) 2010-03-23 2011-10-06 Denso Corp Recognition device

Also Published As

Publication number Publication date
JP2020085713A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
CN108628300B (en) Route determination device, vehicle control device, route determination method, and storage medium
CN109313856B (en) Object detection method and object detection device
EP3477614B1 (en) Vehicle control method and vehicle control device
CN109328376B (en) Object tracking method and object tracking device
EP3217376A2 (en) Object detecting device, object detecting method, and computer-readable medium
US11634139B2 (en) Vehicle control device, vehicle control method, and storage medium
US20190065838A1 (en) Vehicle control apparatus, vehicle, vehicle control method, and storage medium
JP2018048949A (en) Object recognition device
JP7334795B2 (en) Vehicle control method and vehicle control device
EP3912877B1 (en) Driving assistance method and driving assistance device
WO2017013692A1 (en) Travel lane determination device and travel lane determination method
KR101724868B1 (en) Apparatus and method for recognizing traffic mark based on image
JP2023116424A (en) Method and device for determining position of pedestrian
JP7149171B2 (en) Object recognition method and object recognition device
JP7226583B2 (en) Traffic light recognition method and traffic light recognition device
JP6699728B2 (en) Inter-vehicle distance estimation method and inter-vehicle distance estimation device
JP2018185156A (en) Target position estimation method and target position estimation device
JP7336861B2 (en) Behavior prediction method and behavior prediction device
JP7149172B2 (en) Object recognition method and object recognition device
JP2021047609A (en) Periphery recognition device, periphery recognition method, and program
JP7236279B2 (en) Driving support method and driving support device
US20220254056A1 (en) Distance calculation apparatus and vehicle position estimation apparatus
JP7083768B2 (en) Recognition device, vehicle control device, recognition method, and program
JP2019151261A (en) Operation characteristic estimation method and operation characteristic estimation device
EP4141482A1 (en) Systems and methods for validating camera calibration in real-time

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220812

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R150 Certificate of patent or registration of utility model

Ref document number: 7149171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150