JP7149172B2 - Object recognition method and object recognition device - Google Patents

Object recognition method and object recognition device Download PDF

Info

Publication number
JP7149172B2
JP7149172B2 JP2018222178A JP2018222178A JP7149172B2 JP 7149172 B2 JP7149172 B2 JP 7149172B2 JP 2018222178 A JP2018222178 A JP 2018222178A JP 2018222178 A JP2018222178 A JP 2018222178A JP 7149172 B2 JP7149172 B2 JP 7149172B2
Authority
JP
Japan
Prior art keywords
vehicle
blind spot
object recognition
sensor
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018222178A
Other languages
Japanese (ja)
Other versions
JP2020085716A (en
Inventor
宏寿 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2018222178A priority Critical patent/JP7149172B2/en
Publication of JP2020085716A publication Critical patent/JP2020085716A/en
Application granted granted Critical
Publication of JP7149172B2 publication Critical patent/JP7149172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、物体認識方法及び物体認識装置に関する。 The present invention relates to an object recognition method and an object recognition device.

従来より、レーザレーダを用いた物体のトラッキング方法が知られている(特許文献1)。特許文献1に記載された発明は、レーザレーダによって検出された検出点を用いてクラスタを作成し、クラスタに含まれる検出点の移動量に基づいてクラスタの形状の一致度を算出し、算出された形状の一致度が所定閾値以上の場合にクラスタを1つの物体として特定する。これにより、特許文献1に記載された発明は、物体を特定でき、さらに物体の速度も算出することができる。 Conventionally, an object tracking method using a laser radar is known (Patent Document 1). The invention described in Patent Document 1 creates a cluster using detection points detected by a laser radar, calculates the matching degree of the shape of the cluster based on the amount of movement of the detection points included in the cluster, and calculates the degree of matching. A cluster is specified as one object when the matching degree of the shape obtained is equal to or higher than a predetermined threshold. As a result, the invention described in Patent Document 1 can identify an object and also calculate the velocity of the object.

特開2013-228259号公報JP 2013-228259 A

センサの死角から出てくる物体は、徐々に見えてくるため、自車両から見た物体の見え方が大きく変化する。しかしながら、特許文献1に記載された発明は、センサの死角から出てくる物体について言及しておらず、センサの死角から出てくる物体の速度を精度よく算出することができないおそれがある。 Since an object coming out of the blind spot of the sensor gradually becomes visible, the appearance of the object as seen from the own vehicle changes greatly. However, the invention described in Patent Literature 1 does not refer to an object coming out of the blind spot of the sensor, and there is a possibility that the speed of the object coming out of the blind spot of the sensor cannot be accurately calculated.

本発明は、上記問題に鑑みて成されたものであり、その目的は、物体の速度を精度よく算出することができる物体認識方法及び物体認識装置を提供することである。 SUMMARY OF THE INVENTION The present invention has been made in view of the above problem, and an object thereof is to provide an object recognition method and an object recognition apparatus capable of accurately calculating the velocity of an object.

本発明の一態様に係る物体認識方法は、センサが検出可能な範囲と、センサが検出不可
能な範囲との境界を示す死角境界の位置を算出する。物体認識方法は、センサにより地図データベースを取得し、自車両の位置を取得する。物体認識方法は、地図データベースと自車両の位置とに基づいて、自車両が合流点に接近中か否かを判断する。物体認識方法は、自車両が合流点に接近中である場合、自車両が走行する第1車線に合流する第2車線上に死角境界を設定する。物体認識方法は、自車両が合流点に接近中であり、かつ、第1車線と第2車線との間に物体を認識した場合、物体を障害物と判断し、クラスタリングされた障害物の端部の検出点と、センサとを結んだ直線の延長線上に、死角境界を設定する。物体認識方法は、センサにより検出された複数の検出点をクラスタリングし、クラスタリングされたクラスタが、死角境界に接するか否かを判断する。物体認識方法は、死角境界に接するクラスタに含まれる複数の検出点の中から、死角境界から最も離れた検出点を抽出し、抽出した検出点を追跡する。
An object recognition method according to an aspect of the present invention calculates a position of a blind spot boundary indicating a boundary between a sensor detectable range and a sensor undetectable range. The object recognition method acquires a map database using a sensor and acquires the position of the own vehicle. The object recognition method determines whether or not the vehicle is approaching a junction based on the map database and the position of the vehicle. The object recognition method sets a blind spot boundary on the second lane that merges with the first lane on which the own vehicle is traveling when the own vehicle is approaching a merging point. In the object recognition method, when the own vehicle is approaching a merging point and an object is recognized between the first lane and the second lane, the object is judged as an obstacle, and clustered edges of the obstacle are identified. A blind spot boundary is set on an extension of a straight line connecting the detection point of the part and the sensor. The object recognition method clusters a plurality of detection points detected by a sensor, and determines whether the clustered cluster touches the blind spot boundary. The object recognition method extracts a detection point farthest from the blind spot boundary from among a plurality of detection points included in a cluster that touches the blind spot boundary, and tracks the extracted detection point.

本発明によれば、物体の速度を精度よく算出することができる According to the present invention, it is possible to accurately calculate the velocity of an object.

図1は、本発明の第1実施形態に係る物体認識装置の概略構成図である。FIG. 1 is a schematic configuration diagram of an object recognition device according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る物体認識装置の一動作例を説明するフローチャートである。FIG. 2 is a flow chart explaining an operation example of the object recognition device according to the first embodiment of the present invention. 図3は、死角境界の一例を説明する図である。FIG. 3 is a diagram illustrating an example of a blind spot boundary. 図4は、本発明の第2実施形態に係る物体認識装置の概略構成図である。FIG. 4 is a schematic configuration diagram of an object recognition device according to a second embodiment of the present invention. 図5は、本発明の第2実施形態に係る物体認識装置の一動作例を説明するフローチャートである。FIG. 5 is a flow chart illustrating an operation example of the object recognition device according to the second embodiment of the present invention. 図6は、死角境界の設定方法の一例を説明する図である。FIG. 6 is a diagram illustrating an example of a blind spot boundary setting method. 図7は、追跡方法の一例を説明する図である。FIG. 7 is a diagram explaining an example of a tracking method.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.

(第1の実施形態)
(物体認識装置1の構成例)
図1を参照して、物体認識装置1の構成例を説明する。図1に示すように、物体認識装置1は、センサ10と、コントローラ20と、ディスプレイ30と、を備える。
(First embodiment)
(Configuration example of object recognition device 1)
A configuration example of the object recognition device 1 will be described with reference to FIG. As shown in FIG. 1, the object recognition device 1 includes a sensor 10, a controller 20, and a display 30.

物体認識装置1は、自動運転機能を有する車両に搭載されてもよく、自動運転機能を有しない車両に搭載されてもよい。また、物体認識装置1は、自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも何れかのアクチュエータが乗員の操作なしに制御されている状態を指す。そのため、その他のアクチュエータが乗員の操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態を指す。 The object recognition device 1 may be installed in a vehicle having an automatic driving function, or may be installed in a vehicle without an automatic driving function. Further, the object recognition device 1 may be installed in a vehicle capable of switching between automatic driving and manual driving. Note that automatic driving in this embodiment refers to, for example, a state in which at least one of actuators such as a brake, an accelerator, and a steering is controlled without being operated by a passenger. Therefore, other actuators may be operated by the passenger's operation. Further, automatic operation may be a state in which any control such as acceleration/deceleration control or lateral position control is being executed. Further, manual driving in this embodiment refers to a state in which the driver is operating the brake, accelerator, and steering, for example.

センサ10は、自車両に搭載され、自車両の周囲の物体を検出する装置である。センサ10は、ライダ、レーダ、ミリ波レーダ、レーザレンジファインダ、ソナーなどを含む。センサ10は、自車両の周囲の物体として、他車両、バイク、自転車、歩行者を含む移動物体、及び、障害物、落下物、駐車車両を含む静止物体を検出する。また、センサ10は、移動物体及び静止物体の自車両に対する位置、姿勢(ヨー角)、大きさ、速度、加速度、減速度、ヨーレートを検出する。また、センサ10は、車輪速センサ、操舵角センサ、及びジャイロセンサなどを含んでもよい。センサ10は、検出した情報をコントローラ20に出力する。 The sensor 10 is a device that is mounted on the own vehicle and detects objects around the own vehicle. The sensor 10 includes lidar, radar, millimeter wave radar, laser range finder, sonar, and the like. The sensor 10 detects moving objects including other vehicles, motorcycles, bicycles and pedestrians, and stationary objects including obstacles, falling objects and parked vehicles as objects around the own vehicle. The sensor 10 also detects the position, orientation (yaw angle), size, speed, acceleration, deceleration, and yaw rate of the moving and stationary objects with respect to the host vehicle. Also, the sensor 10 may include a wheel speed sensor, a steering angle sensor, a gyro sensor, and the like. The sensor 10 outputs detected information to the controller 20 .

本実施形態では、センサ10は、ライダまたはレーダとして説明する。ライダまたはレーダは、電波を物体に向けて走査し、その反射波を測定することにより、物体までの距離や方向を測定する。また、ライダまたはレーダは、物体のポイントクラウドを検出点として取得する。ポイントクラウドとは、コントローラ20が処理する点の集合である。通常、ポイントクラウドは、3次元座標(x、y、z)で表現される。なお、物体のポイントクラウドを取得する方法は、ライダまたはレーダに限定されない。例えば、カメラ画像からそれぞれ周囲の画素と区別可能な特徴を持つ画素をポイントクラウドとして取得する方法が挙げられる。この方法には、例えば非特許文献「Jianbo Shi and Carlo Tomasi, "Good Features to Track," 1994 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94), 1994, pp.593 - 600.」に記載の方法が用いられる。 In this embodiment, sensor 10 is described as lidar or radar. A lidar or radar scans an object with radio waves and measures the reflected wave to measure the distance and direction to the object. Lidar or radar also acquires point clouds of objects as detection points. A point cloud is a collection of points processed by the controller 20 . A point cloud is usually represented by three-dimensional coordinates (x, y, z). Note that the method of acquiring the point cloud of an object is not limited to lidar or radar. For example, there is a method of obtaining a point cloud of pixels each having a feature distinguishable from surrounding pixels from a camera image. This method includes, for example, the non-patent document "Jianbo Shi and Carlo Tomasi, "Good Features to Track," 1994 IEEE Conference on Computer Vision and Pattern Recognition (CVPR'94), 1994, pp.593-600." method is used.

コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、物体認識装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、物体認識装置1が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって物体認識装置1が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路として、死角境界算出部21と、物体認識部22と、運転支援部23と、を備える。 The controller 20 is a general-purpose microcomputer having a CPU (Central Processing Unit), memory, and an input/output unit. A computer program for functioning as the object recognition device 1 is installed in the microcomputer. By executing the computer program, the microcomputer functions as a plurality of information processing circuits included in the object recognition device 1. FIG. Here, an example of realizing a plurality of information processing circuits provided in the object recognition apparatus 1 by software will be shown. It is also possible to construct a circuit. Also, a plurality of information processing circuits may be configured by individual hardware. The controller 20 includes a blind spot boundary calculation unit 21, an object recognition unit 22, and a driving support unit 23 as a plurality of information processing circuits.

死角境界算出部21は、センサ10の死角境界の位置を算出し、算出結果に基づいて死角境界を設定する。物体認識部22は、センサ10によって検出された検出点をクラスタリングしたり、追跡したりする。運転支援部23は、物体認識部22の処理結果に基づいて運転支援を行う。 The blind spot boundary calculator 21 calculates the position of the blind spot boundary of the sensor 10 and sets the blind spot boundary based on the calculation result. The object recognition unit 22 clusters and tracks detection points detected by the sensor 10 . The driving assistance unit 23 performs driving assistance based on the processing result of the object recognition unit 22 .

次に、図2及び図3を参照して、物体認識装置1の一動作例を説明する。 Next, an operation example of the object recognition device 1 will be described with reference to FIGS. 2 and 3. FIG.

図2に示すステップS101において、死角境界算出部21は、センサ10の死角境界の位置を算出し、算出結果に基づいて死角境界を設定する。本実施形態において、死角境界とは、センサ10が検出可能な範囲と、センサ10が検出不可能な範囲との境界を示す。通常、センサ10には、性能を示す指標として、検出可能な範囲(検出距離)が設定されている。死角境界算出部21は、センサ10の性能(検出距離)に基づいて、センサ10の死角境界の位置を算出する。一例として、死角境界は、図3の51によって示される。死角境界51に囲まれる領域50(図3の斜線部)は、センサ10が検出可能な範囲を示す。なお、図3において、死角境界51の形状は、半円形状であるが、これに限定されない。死角境界51の形状は、円形状、扇形状、方形状、多角形状を含む。なお、死角境界51の算出方法(設定方法)は、これに限定されない。他の方法は、第2実施形態で説明する。 In step S101 shown in FIG. 2, the blind spot boundary calculator 21 calculates the position of the blind spot boundary of the sensor 10, and sets the blind spot boundary based on the calculation result. In the present embodiment, the blind spot boundary indicates a boundary between a range detectable by the sensor 10 and a range undetectable by the sensor 10 . Normally, the sensor 10 is set with a detectable range (detection distance) as an indicator of performance. The blind spot boundary calculator 21 calculates the position of the blind spot boundary of the sensor 10 based on the performance (detection distance) of the sensor 10 . As an example, the blind spot boundary is indicated by 51 in FIG. A region 50 (hatched area in FIG. 3) surrounded by a blind spot boundary 51 indicates a detectable range of the sensor 10 . In addition, in FIG. 3, the shape of the blind spot boundary 51 is a semicircular shape, but is not limited to this. The shape of the blind spot boundary 51 includes a circular shape, a fan shape, a rectangular shape, and a polygonal shape. The calculation method (setting method) of the blind spot boundary 51 is not limited to this. Other methods are described in the second embodiment.

処理はステップ103に進み、センサ10は、自車両40の周囲の物体(図3に示す他車両60、61)を検出する。図3に示すように、センサ10は、他車両60、61の表面上にある複数の検出点(検出点70~77)を検出する。 The process proceeds to step 103, and the sensor 10 detects objects around the host vehicle 40 (other vehicles 60 and 61 shown in FIG. 3). As shown in FIG. 3, the sensor 10 detects a plurality of detection points (detection points 70 to 77) on the surfaces of other vehicles 60 and 61. As shown in FIG.

処理はステップ105に進み、物体認識部22は、ステップ103で検出された検出点70~77をクラスタリングする。クラスタリングとは、複数の検出点をクラスタ(物体)として抽出する手法である。物体認識部22は、一例として、複数の検出点の中から、2点間の距離が所定値以下の検出点をクラスタリングする。具体的には、図3に示す検出点70~75がクラスタリングされ、一つのクラスタ60(他車両60)として抽出される。同様に、図3に示す検出点76~77がクラスタリングされ、一つのクラスタ61(他車両61)として抽出される。 The process proceeds to step 105 , and the object recognition unit 22 clusters the detection points 70 to 77 detected in step 103 . Clustering is a method of extracting a plurality of detection points as clusters (objects). As an example, the object recognition unit 22 clusters detection points whose distance between two points is equal to or less than a predetermined value from a plurality of detection points. Specifically, the detection points 70 to 75 shown in FIG. 3 are clustered and extracted as one cluster 60 (another vehicle 60). Similarly, the detection points 76 to 77 shown in FIG. 3 are clustered and extracted as one cluster 61 (another vehicle 61).

処理はステップ107に進み、物体認識部22は、ステップS105で抽出されたクラスタ60、61が、死角境界51に接するか否かを判断する。図3に示す例において、クラスタ61は、死角境界51に接している。一方、クラスタ60は、死角境界51に接していない。この場合、物体認識部22は、クラスタ61は死角境界51に接する、と判断する。また、物体認識部22は、クラスタ60は死角境界51に接していない、と判断する。 The process proceeds to step 107 , and the object recognition unit 22 determines whether the clusters 60 and 61 extracted in step S 105 are in contact with the blind spot boundary 51 . In the example shown in FIG. 3, the cluster 61 abuts the blind spot boundary 51 . On the other hand, cluster 60 is not in contact with blind spot boundary 51 . In this case, the object recognition unit 22 determines that the cluster 61 contacts the blind spot boundary 51 . Also, the object recognition unit 22 determines that the cluster 60 is not in contact with the blind spot boundary 51 .

死角境界51に接するクラスタ61は、センサ10の死角から出てくる物体、または、センサ10の死角に消えていく物体である。本実施形態では、死角境界51に接するクラスタ61は、センサ10の死角から出てくる物体として説明する。センサ10の死角から出てくる物体(クラスタ61)は、徐々に見えてくるため、センサ10から見た物体の見え方が大きく変化する。 A cluster 61 bordering the blind spot boundary 51 is an object coming out of the blind spot of the sensor 10 or disappearing into the blind spot of the sensor 10 . In this embodiment, the cluster 61 that contacts the blind spot boundary 51 will be described as an object coming out of the blind spot of the sensor 10 . Since the object (cluster 61) emerging from the blind spot of the sensor 10 gradually becomes visible, the appearance of the object seen from the sensor 10 changes greatly.

そこで、物体認識部22は、死角境界51に接するクラスタ61に含まれる複数の検出点(検出点76~77)の中から、死角境界51から最も離れた検出点(検出点77)を抽出する(ステップS109)。処理は、ステップS111に進み、物体認識部22は、ステップS109で抽出された検出点77を追跡する。このように、物体認識部22が死角境界51から最も離れた検出点(検出点77)を追跡することによって、センサ10から見た物体(他車両61)の見え方が大きく変化するシーンにおいても、物体認識部22は、物体(他車両61)の速度を精度よく算出することができる。 Therefore, the object recognition unit 22 extracts the detection point (detection point 77) farthest from the blind spot boundary 51 from a plurality of detection points (detection points 76 to 77) included in the cluster 61 that contacts the blind spot boundary 51. (Step S109). The process proceeds to step S111, and the object recognition unit 22 tracks the detection point 77 extracted in step S109. In this way, the object recognition unit 22 tracks the detection point (detection point 77) that is the farthest from the blind spot boundary 51, so that even in a scene where the appearance of the object (other vehicle 61) seen from the sensor 10 changes greatly, , the object recognition unit 22 can accurately calculate the speed of the object (another vehicle 61).

なお、死角境界51に接していないクラスタ60に含まれる複数の検出点(検出点70~75)については、周知の方法によって追跡される(ステップS107でNo)。 A plurality of detection points (detection points 70 to 75) included in the cluster 60 not in contact with the blind spot boundary 51 are tracked by a well-known method (No in step S107).

処理はステップ113に進み、運転支援部23は、ステップS111で追跡された他車両60、61の情報をディスプレイ30に表示して運転支援を行う。 The process proceeds to step 113, and the driving support unit 23 displays information on the other vehicles 60 and 61 tracked in step S111 on the display 30 to support driving.

処理はステップ115に進み、自車両40の乗員が、イグニッションをオフした場合(ステップS115でYes)、一連の処理は終了する。ユーザが、イグニッションをオフしていない場合(ステップS115でNo)、処理はステップS103に戻る。なお、本実施形態におけるイグニッションのオフは、自車両40の停止、自車両40の電源システムの停止を含む。イグニッションのオフは、自車両40の車室内に設けられたイグニッションスイッチをオフすることによって実現されてもよく、自車両40の車室内に設けられた電源システムスイッチをオフすることによって実現されてもよい。 The process proceeds to step 115, and when the occupant of the own vehicle 40 turns off the ignition (Yes in step S115), the series of processes ends. If the user has not turned off the ignition (No in step S115), the process returns to step S103. Turning off the ignition in this embodiment includes stopping the vehicle 40 and stopping the power supply system of the vehicle 40 . Turning off the ignition may be realized by turning off an ignition switch provided in the vehicle interior of the vehicle 40, or may be realized by turning off a power system switch provided in the vehicle interior of the vehicle 40. good.

(作用効果)
以上説明したように、第1実施形態に係る物体認識装置1によれば、以下の作用効果が得られる。
(Effect)
As described above, according to the object recognition device 1 according to the first embodiment, the following effects are obtained.

物体認識装置1は、センサ10が検出可能な範囲と、センサ10が検出不可能な範囲との境界を示す死角境界51の位置を算出し、算出結果に基づいて死角境界を設定する。物体認識装置1は、センサ10により検出された複数の検出点(図3に示す検出点70~75、76~77)をクラスタリングする。物体認識装置1は、クラスタリングされたクラスタ(図3に示すクラスタ60、61)が死角境界51に接するか否かを判断する。物体認識装置1は、死角境界51に接するクラスタ61に含まれる複数の検出点(図3に示す検出点76~77)の中から、死角境界51から最も離れた検出点77を抽出する。そして、物体認識装置1は、抽出された検出点77を追跡する。これにより、センサ10から見た物体(図3に示す他車両61)の見え方が大きく変化するシーンにおいても、物体認識装置1は、他車両61の速度を精度よく算出することができる。 The object recognition device 1 calculates the position of a blind spot boundary 51 that indicates the boundary between the range detectable by the sensor 10 and the range undetectable by the sensor 10, and sets the blind spot boundary based on the calculation result. The object recognition device 1 clusters a plurality of detection points detected by the sensor 10 (detection points 70 to 75 and 76 to 77 shown in FIG. 3). The object recognition device 1 determines whether or not the clustered clusters (the clusters 60 and 61 shown in FIG. 3) touch the blind spot boundary 51 . The object recognition device 1 extracts a detection point 77 farthest from the blind spot boundary 51 from among a plurality of detection points (detection points 76 to 77 shown in FIG. 3) included in the cluster 61 contacting the blind spot boundary 51 . Then, the object recognition device 1 tracks the extracted detection point 77 . As a result, the object recognition apparatus 1 can accurately calculate the speed of the other vehicle 61 even in a scene where the appearance of the object (the other vehicle 61 shown in FIG. 3) as seen from the sensor 10 changes significantly.

また、死角境界51が設定されるため、物体認識装置1は、センサ10が検出可能な範囲に進入してきた物体を早期に認識することができる。 Also, since the blind spot boundary 51 is set, the object recognition device 1 can quickly recognize an object that has entered the detectable range of the sensor 10 .

また、物体認識装置1は、検出点76~77をクラスタリングした後に追跡する。これにより、自車両40の走行に関係しないノイズは除去される。 Also, the object recognition device 1 tracks the detection points 76 and 77 after clustering them. As a result, noise unrelated to the running of the own vehicle 40 is removed.

(第2の実施形態)
(物体認識装置2の構成例)
次に、図4~図7を参照して、本発明の第2実施形態について説明する。第1実施形態と重複する構成については符号を引用してその説明は省略する。以下、相違点を中心に説明する。
(Second embodiment)
(Configuration example of object recognition device 2)
Next, a second embodiment of the present invention will be described with reference to FIGS. 4 to 7. FIG. Reference numerals are used for configurations that overlap with the first embodiment, and descriptions thereof are omitted. The following description will focus on the differences.

図4に示すように、第2実施形態に係る物体認識装置2は、地図データベース11と、GPS受信機12をさらに備える。 As shown in FIG. 4, the object recognition device 2 according to the second embodiment further includes a map database 11 and a GPS receiver 12. FIG.

地図データベース11は、カーナビゲーション装置などに記憶されているデータベースであって、道路情報、施設情報など経路案内に必要となる各種データが記憶されている。また、地図データベース11には、道路の構造、道路の車線数、車線の位置、道路境界線、物標などの情報が記憶されている。地図データベース11は、コントローラ20の要求に応じて地図情報をコントローラ20に出力する。なお、道路情報、物標情報などの各種データは必ずしも地図データベース11から取得されるものに限定されず、センサ10により取得されてもよく、また車車間通信、路車間通信を用いて取得されてもよい。また、道路情報、物標情報などの各種データが外部に設置されたサーバに記憶されている場合、コントローラ20は、通信により随時これらのデータをサーバから取得してもよい。また、コントローラ20は、外部に設置されたサーバから定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。 The map database 11 is a database stored in a car navigation device or the like, and stores various data necessary for route guidance such as road information and facility information. The map database 11 also stores information such as the structure of roads, the number of lanes on roads, the positions of lanes, road boundaries, and targets. The map database 11 outputs map information to the controller 20 in response to requests from the controller 20 . Various data such as road information and target information are not necessarily acquired from the map database 11, and may be acquired by the sensor 10, or may be acquired using vehicle-to-vehicle communication or road-to-vehicle communication. good too. In addition, when various data such as road information and target information are stored in a server installed outside, the controller 20 may acquire these data from the server at any time through communication. Further, the controller 20 may periodically acquire the latest map information from an externally installed server and update the map information it holds.

GPS受信機12は、人工衛星からの電波を受信することにより、地上における自車両40の位置(以下、自己位置と称する場合がある)及び自車両40の姿勢を検出する。GPS受信機12は、検出した自車両40の位置情報及び姿勢情報をコントローラ20に出力する。 The GPS receiver 12 detects the position of the vehicle 40 on the ground (hereinafter sometimes referred to as the self-position) and the attitude of the vehicle 40 by receiving radio waves from satellites. The GPS receiver 12 outputs the detected position information and attitude information of the own vehicle 40 to the controller 20 .

次に、図5~図7を参照して、物体認識装置2の一動作例を説明する。 Next, an operation example of the object recognition device 2 will be described with reference to FIGS. 5 to 7. FIG.

ステップ201において、センサ10は、自車両40の周囲の物体を検出する。 At step 201 , the sensor 10 detects objects around the host vehicle 40 .

処理はステップ203に進み、GPS受信機12は、自己位置及び自車両40の姿勢を検出する。 The process proceeds to step 203 and the GPS receiver 12 detects the self position and the attitude of the own vehicle 40 .

処理はステップ205に進み、物体認識部22は、地図データベース11から自己位置の周辺の地図情報を取得する。 The process proceeds to step 205 , and the object recognition section 22 acquires map information around the self-position from the map database 11 .

処理はステップ207に進み、物体認識部22は、ステップS203で検出された自己位置及び自車両40の姿勢と、ステップS205で取得された地図情報とに基づいて、自車両40が走行している車線を取得する。なお、以下では、自車両40が走行している車線を単に自車線という。図6に示す90は、自車線である。また、物体認識部22は、ステップS203で検出された自己位置及び自車両40の姿勢と、ステップS205で取得された地図情報とに基づいて、自車両40が合流点または交差点に接近中か否かを判断する。図6に示すように、自車両40が合流点に接近中である場合(ステップS207でYes)、処理はステップS209に進む。一方、自車両40が合流点または交差点に接近中でない場合(ステップS207でNo)、処理はステップS221に進む。 The process proceeds to step 207, and the object recognition unit 22 determines that the vehicle 40 is running based on the self-position and attitude of the vehicle 40 detected in step S203 and the map information acquired in step S205. get the lane In addition, below, the lane in which the own vehicle 40 is driving is simply called the own lane. 90 shown in FIG. 6 is the own lane. Further, the object recognition unit 22 determines whether or not the vehicle 40 is approaching a merging point or an intersection based on the self-position and attitude of the vehicle 40 detected in step S203 and the map information acquired in step S205. determine whether As shown in FIG. 6, when the vehicle 40 is approaching the junction (Yes in step S207), the process proceeds to step S209. On the other hand, if the host vehicle 40 is not approaching the junction or intersection (No in step S207), the process proceeds to step S221.

ステップS209において、物体認識部22は、地図データベース11から自車線90に合流する車線91の情報(位置情報、構造情報)を取得する(図6参照)。なお、図示は省略するが、自車両40が交差点に接近中の場合、物体認識部22は、地図データベース11から自車線に交差する車線の情報を取得する。 In step S209, the object recognition unit 22 acquires information (positional information, structure information) of the lane 91 that merges with the own lane 90 from the map database 11 (see FIG. 6). Although illustration is omitted, when the own vehicle 40 is approaching an intersection, the object recognition unit 22 acquires information on lanes intersecting with the own lane from the map database 11 .

処理はステップS211に進み、死角境界算出部21は、センサ10の死角が存在するか否かを判断する。具体的には、死角境界算出部21は、自車線90と車線91との間に複数の検出点が検出されたか否かを判断する。図6に示すように、自車線90と車線91との間に複数の検出点80~87が検出された場合、検出点80~87はクラスタリングされ、物体として認識される。さらにこの物体は障害物92(例えば、壁)として判断される。物体が障害物であるか否かは、一例として、地図情報に基づいて判断される。図6に示すように、センサ10の死角が存在する場合(ステップS211でYes)、処理はステップS213に進む。一方、センサ10の死角が存在しない場合(ステップS211でNo)、処理はステップS221に進む。 The process proceeds to step S211, and the blind spot boundary calculator 21 determines whether or not the sensor 10 has a blind spot. Specifically, blind spot boundary calculator 21 determines whether or not a plurality of detection points are detected between own lane 90 and lane 91 . As shown in FIG. 6, when a plurality of detection points 80-87 are detected between the own lane 90 and the lane 91, the detection points 80-87 are clustered and recognized as an object. Further, this object is determined as an obstacle 92 (eg, a wall). Whether or not an object is an obstacle is determined, for example, based on map information. As shown in FIG. 6, when there is a blind spot of the sensor 10 (Yes in step S211), the process proceeds to step S213. On the other hand, if there is no blind spot of the sensor 10 (No in step S211), the process proceeds to step S221.

ステップS213において、死角境界算出部21は、自車両40(センサ10)とクラスタリングされた障害物92の端部の検出点80とを結んだ直線の延長線93上に死角境界を設定する(図6参照)。なお、図6において、他車両62は死角に隠れているため検出されないが、例えば、図7では、他車両62の検出点88、89が検出される。 In step S213, the blind spot boundary calculator 21 sets the blind spot boundary on a straight extension line 93 connecting the own vehicle 40 (sensor 10) and the detection points 80 at the ends of the clustered obstacles 92 (Fig. 6). In FIG. 6, the other vehicle 62 is hidden in a blind spot and is not detected, but in FIG. 7, detection points 88 and 89 of the other vehicle 62 are detected.

処理はステップ215に進み、物体認識部22は、図7に示す検出点88、89をクラスタリングする。処理はステップ217に進み、物体認識部22は、クラスタリングされたクラスタ(他車両62)が死角境界に接するか否かを判断する。図7に示すように、クラスタ(他車両62)が死角境界に接する場合(ステップS217でYes)、処理はステップS219に進む。 The process proceeds to step 215, and the object recognition section 22 clusters the detection points 88 and 89 shown in FIG. The process proceeds to step 217, and the object recognition unit 22 determines whether or not the clustered cluster (other vehicle 62) is in contact with the blind spot boundary. As shown in FIG. 7, when the cluster (other vehicle 62) is in contact with the blind spot boundary (Yes in step S217), the process proceeds to step S219.

ステップS219において、物体認識部22は、死角境界から最も離れた検出点(図7に示す検出点89)を抽出する。検出点89は、車線91上において、死角境界から最も離れた検出点である。処理はステップS221に進み、物体認識部22は、ステップS219で抽出された検出点89を追跡する。 In step S219, the object recognition unit 22 extracts the detection point (detection point 89 shown in FIG. 7) that is farthest from the blind spot boundary. Detection point 89 is the farthest detection point from the blind spot boundary on lane 91 . The process proceeds to step S221, and the object recognition unit 22 tracks the detection point 89 extracted in step S219.

処理はステップ223に進み、物体認識部22は、追跡結果に基づいて、検出点89の速度ベクトルを算出する。一例として物体認識部22は、検出点89の位置の時間変化から、検出点89の速度ベクトルを算出する。そして、物体認識部22は、速度ベクトルを車線91の進行方向の速度成分及び進行方向に直角な方向の速度成分に分解する。 The process proceeds to step 223, and the object recognition section 22 calculates the velocity vector of the detection point 89 based on the tracking result. As an example, the object recognition unit 22 calculates the velocity vector of the detection point 89 from the temporal change in the position of the detection point 89 . Then, the object recognition unit 22 decomposes the velocity vector into a velocity component in the traveling direction of the lane 91 and a velocity component in a direction perpendicular to the traveling direction.

処理はステップ225に進み、運転支援部23は、ステップ223で算出された車線91の進行方向の速度成分を用いて、他車両62が合流点に到達するまでに要する時間を算出する。そして、運転支援部23は、算出した時間をディスプレイ30に表示して運転支援を行う。 The process proceeds to step 225 , and the driving support unit 23 uses the speed component in the traveling direction of the lane 91 calculated in step 223 to calculate the time required for the other vehicle 62 to reach the merging point. Then, the driving support unit 23 displays the calculated time on the display 30 to perform driving support.

(作用効果)
以上説明したように、第2実施形態に係る物体認識装置2によれば、以下の作用効果が得られる。
(Effect)
As described above, according to the object recognition device 2 according to the second embodiment, the following effects are obtained.

物体認識装置2は、GPS受信機12によって検出された自己位置及び自車両40の姿勢と、地図データベース11から取得した地図情報とに基づいて、自車両40が合流点または交差点に接近中か否かを判断する。自車両40が合流点または交差点に接近中である場合、物体認識装置2は、自車線90(第1車線)に合流するまたは交差する車線91上に死角境界を設定する。これにより、物体認識装置2は、見通しの悪い合流点または交差点においても物体を早期に認識することができ、物体の速度を精度よく算出することができる。 The object recognition device 2 determines whether or not the vehicle 40 is approaching a merging point or an intersection based on the self-position and attitude of the vehicle 40 detected by the GPS receiver 12 and the map information acquired from the map database 11. determine whether When the own vehicle 40 is approaching a merging point or an intersection, the object recognition device 2 sets a blind spot boundary on the lane 91 that joins or intersects with the own lane 90 (first lane). As a result, the object recognition device 2 can quickly recognize an object even at a junction or an intersection with poor visibility, and can accurately calculate the speed of the object.

物体認識装置2は、自車両40が合流点または交差点に接近中であり、かつ、自車線90と、車線91(第2車線)との間に物体を認識した場合、この物体を障害物92と判断する(図6参照)。そして、図6に示すように、物体認識装置2は、クラスタリングされた障害物92の端部の検出点80と、自車両40(センサ10)とを結んだ直線の延長線93上に死角境界を直接設定する。このように第2実施形態に係る物体認識装置2によれば、自車両40が見通しの悪い合流点(または交差点)に接近中の場合のみ、死角境界が直接設定される。 When the own vehicle 40 is approaching a junction or an intersection and an object is recognized between the own lane 90 and the lane 91 (second lane), the object recognition device 2 recognizes this object as an obstacle 92 . (See FIG. 6). Then, as shown in FIG. 6, the object recognition device 2 draws a blind spot boundary on a straight extension line 93 connecting the detection point 80 at the end of the clustered obstacle 92 and the own vehicle 40 (sensor 10). directly. As described above, according to the object recognition device 2 according to the second embodiment, the blind spot boundary is set directly only when the host vehicle 40 is approaching a junction (or intersection) with poor visibility.

また、物体認識装置2は、図7に示すように、車線91上において、死角境界から最も離れた検出点89を抽出し、抽出した検出点89を追跡する。このように、物体認識装置2は、自車線90に合流する車線91上の検出点89を追跡することにより、自車両40の走行に関係する物体(他車両62)を認識することができる。 Further, as shown in FIG. 7, the object recognition device 2 extracts a detection point 89 farthest from the blind spot boundary on the lane 91 and tracks the extracted detection point 89 . Thus, the object recognition device 2 can recognize an object (another vehicle 62) related to the running of the own vehicle 40 by tracking the detection point 89 on the lane 91 that merges with the own lane 90. FIG.

また、物体認識装置2は、検出点89の速度ベクトルを車線91の進行方向の速度成分及び進行方向に直角な方向の速度成分に分解する。これにより、物体認識装置2は、自車両40の走行に関係する速度情報(車線91の進行方向の速度成分)を精度よく算出することができる。 The object recognition device 2 also decomposes the velocity vector of the detection point 89 into a velocity component in the traveling direction of the lane 91 and a velocity component in a direction perpendicular to the traveling direction. Thereby, the object recognition device 2 can accurately calculate the speed information (the speed component in the traveling direction of the lane 91) related to the running of the own vehicle 40. FIG.

上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。また、物体認識装置1及び物体認識装置2は、コンピュータの機能を改善しうる。 Each function described in the above embodiments may be implemented by one or more processing circuits. Processing circuitry includes programmed processing devices, such as processing devices that include electrical circuitry. Processing circuitry also includes devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions. Also, the object recognition device 1 and the object recognition device 2 can improve the function of the computer.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 While embodiments of the present invention have been described above, the discussion and drawings forming part of this disclosure should not be construed as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.

1、2 物体認識装置
10 センサ
11 地図データベース
12 GPS受信機
20 コントローラ
21 死角境界算出部
22 物体認識部
23 運転支援部
30 ディスプレイ
1, 2 Object recognition device 10 Sensor 11 Map database 12 GPS receiver 20 Controller 21 Blind spot boundary calculator 22 Object recognition unit 23 Driving support unit 30 Display

Claims (4)

自車両に搭載されたセンサを用いて、前記自車両の周囲の物体の表面上にある複数の検出点を検出し、前記センサにより検出された前記複数の検出点をクラスタリングし、クラスタリングされたクラスタを前記物体として認識する物体認識方法であって、
前記センサが検出可能な範囲と、前記センサが検出不可能な範囲との境界を示す死角境界の位置を算出し、
地図データベースを取得し、
前記自車両の位置を取得し、
前記地図データベースと前記自車両の位置とに基づいて、前記自車両が合流点に接近中か否かを判断し、
前記自車両が前記合流点に接近中である場合、前記自車両が走行する第1車線に合流する第2車線上に前記死角境界を設定し、
前記自車両が前記合流点に接近中であり、かつ、前記第1車線と前記第2車線との間に前記物体を認識した場合、前記物体を障害物と判断し、
クラスタリングされた前記障害物の端部の検出点と、前記センサとを結んだ直線の延長線上に、前記死角境界を設定し、
前記クラスタが、前記死角境界に接するか否かを判断し、
前記死角境界に接するクラスタに含まれる複数の検出点の中から、前記死角境界から最も離れた検出点を抽出し、
抽出した検出点を追跡する
ことを特徴とする物体認識方法。
A sensor mounted on the own vehicle is used to detect a plurality of detection points on the surface of an object around the own vehicle, the plurality of detection points detected by the sensor are clustered, and a clustered cluster is obtained. is an object recognition method for recognizing as the object,
Calculate the position of the blind spot boundary indicating the boundary between the detectable range of the sensor and the undetectable range of the sensor,
get the map database,
obtaining the position of the own vehicle;
determining whether the own vehicle is approaching a junction based on the map database and the position of the own vehicle;
when the own vehicle is approaching the merging point, setting the blind spot boundary on a second lane that merges with the first lane on which the own vehicle travels;
determining that the object is an obstacle when the own vehicle is approaching the merging point and the object is recognized between the first lane and the second lane;
setting the blind spot boundary on an extension of a straight line connecting the clustered detection point of the edge of the obstacle and the sensor;
determining whether the cluster touches the blind spot boundary;
Extracting a detection point farthest from the blind spot boundary from among a plurality of detection points included in a cluster that is in contact with the blind spot boundary,
An object recognition method characterized by tracing extracted detection points.
前記第2車線上において、前記死角境界から最も離れた検出点を抽出し、抽出した検出
点を追跡する
ことを特徴とする請求項に記載の物体認識方法。
2. The object recognition method according to claim 1 , wherein a detection point farthest from the blind spot boundary is extracted on the second lane, and the extracted detection point is tracked.
前記死角境界から最も離れた検出点の速度ベクトルを前記第2車線の進行方向の速度成分及び前記進行方向に直角な方向の速度成分に分解する
ことを特徴とする請求項に記載の物体認識方法。
3. The object recognition according to claim 2 , wherein the velocity vector of the detection point farthest from the blind spot boundary is decomposed into a velocity component in the traveling direction of the second lane and a velocity component in a direction perpendicular to the traveling direction. Method.
自車両に搭載されたセンサを用いて、前記自車両の周囲の物体の表面上にある複数の検出点を検出し、前記センサにより検出された前記複数の検出点をクラスタリングし、クラスタリングされたクラスタを前記物体として認識するコントローラを備える物体認識装置であって、
前記コントローラは、
前記センサが検出可能な範囲と、前記センサが検出不可能な範囲との境界を示す死角境界の位置を算出し、
地図データベースを取得し、
前記自車両の位置を取得し、
前記地図データベースと前記自車両の位置とに基づいて、前記自車両が合流点に接近中か否かを判断し、
前記自車両が前記合流点に接近中である場合、前記自車両が走行する第1車線に合流する第2車線上に前記死角境界を設定し、
前記自車両が前記合流点に接近中であり、かつ、前記第1車線と前記第2車線との間に前記物体を認識した場合、前記物体を障害物と判断し、
クラスタリングされた前記障害物の端部の検出点と、前記センサとを結んだ直線の延長線上に、前記死角境界を設定し、
前記クラスタが、前記死角境界に接するか否かを判断し、
前記死角境界に接するクラスタに含まれる複数の検出点の中から、前記死角境界から最も離れた検出点を抽出し、
抽出した検出点を追跡する
ことを特徴とする物体認識装置。
A sensor mounted on the own vehicle is used to detect a plurality of detection points on the surface of an object around the own vehicle, the plurality of detection points detected by the sensor are clustered, and a clustered cluster is obtained. is an object recognition device comprising a controller that recognizes as the object,
The controller is
Calculate the position of the blind spot boundary indicating the boundary between the detectable range of the sensor and the undetectable range of the sensor,
get the map database,
obtaining the position of the own vehicle;
determining whether the own vehicle is approaching a junction based on the map database and the position of the own vehicle;
when the own vehicle is approaching the merging point, setting the blind spot boundary on a second lane that merges with the first lane on which the own vehicle travels;
determining that the object is an obstacle when the own vehicle is approaching the merging point and the object is recognized between the first lane and the second lane;
setting the blind spot boundary on an extension of a straight line connecting the clustered detection point of the edge of the obstacle and the sensor;
determining whether the cluster touches the blind spot boundary;
Extracting a detection point farthest from the blind spot boundary from among a plurality of detection points included in a cluster that is in contact with the blind spot boundary,
An object recognition device characterized by tracking extracted detection points.
JP2018222178A 2018-11-28 2018-11-28 Object recognition method and object recognition device Active JP7149172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018222178A JP7149172B2 (en) 2018-11-28 2018-11-28 Object recognition method and object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018222178A JP7149172B2 (en) 2018-11-28 2018-11-28 Object recognition method and object recognition device

Publications (2)

Publication Number Publication Date
JP2020085716A JP2020085716A (en) 2020-06-04
JP7149172B2 true JP7149172B2 (en) 2022-10-06

Family

ID=70907590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018222178A Active JP7149172B2 (en) 2018-11-28 2018-11-28 Object recognition method and object recognition device

Country Status (1)

Country Link
JP (1) JP7149172B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002122669A (en) 2000-10-18 2002-04-26 Nissan Motor Co Ltd Object position detecting method
JP2002296350A (en) 2001-03-30 2002-10-09 Nissan Motor Co Ltd Object detector
JP2005009881A (en) 2003-06-16 2005-01-13 Nissan Motor Co Ltd Forward object position detector
JP2006258545A (en) 2005-03-16 2006-09-28 Honda Motor Co Ltd Preceding vehicle recognition apparatus
JP2007257338A (en) 2006-03-23 2007-10-04 Toyota Central Res & Dev Lab Inc Potential risk estimation device
JP2009014479A (en) 2007-07-04 2009-01-22 Honda Motor Co Ltd Object detection device for vehicle
JP2009086788A (en) 2007-09-28 2009-04-23 Hitachi Ltd Vehicle surrounding monitoring device
JP2011150633A (en) 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc Object detection device and program
JP2011196943A (en) 2010-03-23 2011-10-06 Denso Corp Recognition device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002122669A (en) 2000-10-18 2002-04-26 Nissan Motor Co Ltd Object position detecting method
JP2002296350A (en) 2001-03-30 2002-10-09 Nissan Motor Co Ltd Object detector
JP2005009881A (en) 2003-06-16 2005-01-13 Nissan Motor Co Ltd Forward object position detector
JP2006258545A (en) 2005-03-16 2006-09-28 Honda Motor Co Ltd Preceding vehicle recognition apparatus
JP2007257338A (en) 2006-03-23 2007-10-04 Toyota Central Res & Dev Lab Inc Potential risk estimation device
JP2009014479A (en) 2007-07-04 2009-01-22 Honda Motor Co Ltd Object detection device for vehicle
JP2009086788A (en) 2007-09-28 2009-04-23 Hitachi Ltd Vehicle surrounding monitoring device
JP2011150633A (en) 2010-01-25 2011-08-04 Toyota Central R&D Labs Inc Object detection device and program
JP2011196943A (en) 2010-03-23 2011-10-06 Denso Corp Recognition device

Also Published As

Publication number Publication date
JP2020085716A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
CN109489673B (en) Data driven map update system for autonomous vehicles
CN110386142B (en) Pitch angle calibration method for autonomous vehicle
CN108089571B (en) Method and system for predicting vehicle traffic behavior of unmanned vehicles to make driving decisions
CN109313856B (en) Object detection method and object detection device
US9880554B2 (en) Misrecognition determination device
CN110597243B (en) V2X communication-based vehicle lane system of autonomous vehicle
US11900812B2 (en) Vehicle control device
US10325163B2 (en) Vehicle vision
CN109328376B (en) Object tracking method and object tracking device
CN109491378B (en) Road segment based route guidance system for autonomous vehicles
US20160363647A1 (en) Vehicle positioning in intersection using visual cues, stationary objects, and gps
WO2019021437A1 (en) Travel assistance method and travel assistance device
JP2020087191A (en) Lane boundary setting apparatus and lane boundary setting method
WO2017013692A1 (en) Travel lane determination device and travel lane determination method
JP7149172B2 (en) Object recognition method and object recognition device
JPWO2017216856A1 (en) Inter-vehicle distance estimation method and inter-vehicle distance estimation apparatus
JP6819441B2 (en) Target position estimation method and target position estimation device
KR20160149564A (en) Apparatus and method for recognizing traffic mark based on image
JP7149171B2 (en) Object recognition method and object recognition device
JP7083768B2 (en) Recognition device, vehicle control device, recognition method, and program
JP7336861B2 (en) Behavior prediction method and behavior prediction device
JP7172730B2 (en) Vehicle display control device, vehicle display control method, vehicle display control program
US20210231811A1 (en) Recognition device and method
EP4141482A1 (en) Systems and methods for validating camera calibration in real-time
US20240067233A1 (en) Controller, method, and computer program for vehicle control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220926

R150 Certificate of patent or registration of utility model

Ref document number: 7149172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150