JP2023032080A - Object recognition device - Google Patents

Object recognition device Download PDF

Info

Publication number
JP2023032080A
JP2023032080A JP2021137975A JP2021137975A JP2023032080A JP 2023032080 A JP2023032080 A JP 2023032080A JP 2021137975 A JP2021137975 A JP 2021137975A JP 2021137975 A JP2021137975 A JP 2021137975A JP 2023032080 A JP2023032080 A JP 2023032080A
Authority
JP
Japan
Prior art keywords
detected
vehicle
detection
curvature
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021137975A
Other languages
Japanese (ja)
Inventor
陽平 鈴木
Yohei Suzuki
友一朗 古賀
Yuichiro Koga
幹生 大林
Mikio Obayashi
拓也 中川
Takuya Nakagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2021137975A priority Critical patent/JP2023032080A/en
Priority to PCT/JP2022/030781 priority patent/WO2023026875A1/en
Publication of JP2023032080A publication Critical patent/JP2023032080A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

To provide an object recognition device capable of properly recognizing the shape of an object while reducing the amount of memory used.SOLUTION: An object recognition device 10 applies to a vehicle that includes an object detection device 22 for detecting objects. While a vehicle is running, the object recognition device extracts a predetermined number of detection points per object out of the multiple detection points detected in time series by the object detection device and recognizes the shape of the object based on the predetermined number of detection points. The object recognition device 10 is configured to determine that the detected surface of the object is curved based on multiple detection points detected in time series by the object detection device while the vehicle is running, and based on the determination result, changes the execution mode of the object recognition performed by the predetermined number of detection points.SELECTED DRAWING: Figure 1

Description

本発明は、自車両周辺の物体を認識する物体認識装置に関する。 The present invention relates to an object recognition device that recognizes objects around a vehicle.

従来、例えば電磁波又は音波を用いて自車両周辺の物体を検出し、その検出結果に基づいて物体を認識する装置が知られている。例えば特許文献1の装置は、自車両の走行中に自車両周辺の物体における複数の検出点を時系列で検出し、検出された順番が前後する検出点を連結した複数の線分(ベクトル)に基づいて平面状物体の形状を認識する。 2. Description of the Related Art Conventionally, there has been known a device that detects an object around a vehicle using, for example, electromagnetic waves or sound waves and recognizes the object based on the detection result. For example, the device of Patent Document 1 detects a plurality of detection points on an object around the vehicle in time series while the vehicle is running, and generates a plurality of line segments (vectors) connecting the detection points in different order. Recognize the shape of a planar object based on

特許第4809690号公報Japanese Patent No. 4809690

車両の走行中においては、時系列で複数の検出点が検出され、その検出点を全てメモリに記憶する構成であると使用メモリ量が嵩むことになる。そのため、複数の検出点の間引きにより1物体につき所定点数の検出点を抽出し、その所定点数の検出点により物体の形状を認識することが考えられる。これにより、物体認識に要する使用メモリ量の削減が可能となる。 While the vehicle is running, a plurality of detection points are detected in time series, and if all the detection points are stored in the memory, the amount of memory used will increase. Therefore, it is conceivable to extract a predetermined number of detection points for each object by thinning out a plurality of detection points, and to recognize the shape of the object from the predetermined number of detection points. This makes it possible to reduce the amount of memory used for object recognition.

しかしながら、物体の被検出面が自車両側に凸となる曲面状である場合には、検出点に点数制限があることに起因して、検出点により認識される物体の形状と物体の実形状との間に差異が生じる。これにより、物体の形状の認識精度が低下することが懸念される。なお、物体における凸状の曲面を正しく認識できないと、物体付近を自車両が通過する際に、その物体に対して自車両が近づき過ぎてもそれを把握できないことが懸念される。 However, when the surface to be detected of the object is a curved surface that is convex toward the own vehicle, there is a limit on the number of detection points. There is a difference between As a result, there is concern that the accuracy of recognizing the shape of the object may decrease. In addition, if the convex curved surface of the object cannot be correctly recognized, there is a concern that when the own vehicle passes near the object, it cannot be recognized even if the own vehicle is too close to the object.

本発明は上記課題に鑑みたものであり、使用メモリ量の削減を図りつつ、物体の形状を適正に認識することができる物体認識装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an object recognition apparatus capable of appropriately recognizing the shape of an object while reducing the amount of memory used.

上記課題を解決する手段は、物体を検出する物体検出装置を備える車両に適用され、車両走行時において、前記物体検出装置により時系列で検出された複数の検出点のうち1物体につき所定点数の検出点を抽出し、その所定点数の検出点に基づいて物体形状を認識する物体認識装置であって、車両走行時において、前記物体検出装置により時系列で検出された前記複数の検出点に基づいて、物体の被検出面が曲面状であることを判定する判定部と、前記判定部の判定結果に基づいて、前記所定点数の検出点により行われる物体認識の実施態様を変更する態様変更部と、を備える。 Means for solving the above-mentioned problems is applied to a vehicle equipped with an object detection device for detecting an object. An object recognition device for extracting detection points and recognizing the shape of an object based on a predetermined number of the detection points, wherein the object recognition device detects the shape of an object based on the plurality of detection points detected in time series by the object detection device while the vehicle is running. a determination unit that determines whether the surface to be detected of the object is curved; and a mode change unit that changes the mode of object recognition performed by the predetermined number of detection points based on the determination result of the determination unit. And prepare.

車両の走行時には、車両周囲に様々な物体が存在し、その物体が物体検出装置により検出される。この場合、使用メモリ量の削減を図るべく、物体検出装置により時系列で検出された複数の検出点のうち1物体につき所定点数の検出点を抽出し、その所定点数の検出点に基づいて物体形状を認識することが考えられる。ただしこの場合、物体の被検出面が車両側に凸となる曲面状であると、物体の認識精度が低下することが懸念される。 Various objects exist around the vehicle while the vehicle is running, and the objects are detected by the object detection device. In this case, in order to reduce the amount of memory used, a predetermined number of detection points are extracted for each object from a plurality of detection points detected in time series by the object detection device, and the object is detected based on the predetermined number of detection points. It is conceivable to recognize shapes. However, in this case, if the surface to be detected of the object is a curved surface that protrudes toward the vehicle, there is a concern that the accuracy of object recognition may decrease.

上記構成では、車両走行時において、物体検出装置により時系列で検出された複数の検出点に基づいて、物体の被検出面が曲面状であることを判定し、その判定結果に基づいて、所定点数の検出点により行われる物体認識の実施態様を変更するようにした。この場合、物体の被検出面が曲面状でない状況と曲面状である状況とで互いに異なる態様で物体認識を行うことができ、物体の形状を適正に認識することができる。その結果、使用メモリ量の削減を図りつつ、物体の形状を適正に認識することができる。 In the above configuration, when the vehicle is running, it is determined that the surface to be detected of the object is curved based on the plurality of detection points detected in time series by the object detection device. The embodiment of the object recognition performed by the detection point of the score was changed. In this case, object recognition can be performed in different manners depending on whether the surface to be detected of the object is curved or not curved, and the shape of the object can be properly recognized. As a result, it is possible to properly recognize the shape of the object while reducing the amount of memory used.

走行制御システムの全体構成図。FIG. 1 is an overall configuration diagram of a travel control system; 平面状物体から取得される検出点群を示す図。FIG. 4 is a diagram showing a detection point cloud acquired from a planar object; 曲面状物体から取得される検出点群を示す図。The figure which shows the detection point group acquired from a curved-surface-shaped object. 運転支援処理の処理手順を示すフローチャート。4 is a flowchart showing a processing procedure of driving support processing; 曲率半径算出処理の処理手順を示すフローチャート。4 is a flowchart showing a processing procedure of curvature radius calculation processing; 各検出点における角度情報を示す図。The figure which shows the angle information in each detection point. 検出点間距離、離間距離、及び曲率半径を示す図。The figure which shows the distance between detection points, a separation distance, and a curvature radius. 運転支援処理における分割の一例を示す図。The figure which shows an example of the division|segmentation in a driving assistance process. 運転支援制御を駐車支援制御に適用した一例を示す図。The figure which shows an example which applied driving assistance control to parking assistance control. 運転支援制御を駐車支援制御に適用した一例を示す図。The figure which shows an example which applied driving assistance control to parking assistance control.

以下、本発明に係る物体認識装置を、車載の走行制御システム100に適用した実施形態について、図面を参照しつつ説明する。走行制御システム100は、自車両周辺に存在する物体を認識するとともに、その認識結果に基づいて、自車両50が物体に対して近づき過ぎないようにしつつ運転支援制御(運転アシスト)を実施する。 An embodiment in which an object recognition device according to the present invention is applied to a vehicle-mounted travel control system 100 will be described below with reference to the drawings. The cruise control system 100 recognizes objects existing around the own vehicle, and based on the recognition result, performs driving support control (driving assist) while preventing the own vehicle 50 from getting too close to the object.

図1に示すように、本実施形態に係る走行制御システム100は、物体認識装置としてのECU10と、センサ類20と、被制御装置30とを備えている。センサ類20としては、例えば、カメラセンサ21、レーダセンサ22、ヨーレートセンサ23、車速センサ24等が備えられている。 As shown in FIG. 1 , a cruise control system 100 according to this embodiment includes an ECU 10 as an object recognition device, sensors 20 and a controlled device 30 . The sensors 20 include, for example, a camera sensor 21, a radar sensor 22, a yaw rate sensor 23, a vehicle speed sensor 24, and the like.

カメラセンサ21は、例えば単眼カメラであり、自車両周辺を撮像する。本実施形態では、自車両50は、カメラセンサ21として、フロントカメラ、リアカメラ、右サイドカメラ、左サイドカメラを有している。フロントカメラは、自車両50のフロントガラスの上端付近等に設置されており、自車両前方の所定領域を撮像する。リアカメラは、自車両50の後部(例えばトランク付近)に取り付けられており、自車両後方の所定領域を撮像する。右サイドカメラは、自車両50の右側面(例えばドアミラー付近)に取り付けられており、自車両右側方の所定領域を撮像する。左サイドカメラは、自車両50の左側面(例えばドアミラー付近)に取り付けられており、自車両左側方の所定領域を撮像する。各カメラにより撮像された画像はECU10へ出力される。 The camera sensor 21 is, for example, a monocular camera, and images the surroundings of the vehicle. In this embodiment, the host vehicle 50 has a front camera, a rear camera, a right side camera, and a left side camera as the camera sensors 21 . The front camera is installed near the upper end of the windshield of the vehicle 50 or the like, and captures an image of a predetermined area in front of the vehicle. The rear camera is attached to the rear part of the own vehicle 50 (for example, near the trunk), and images a predetermined area behind the own vehicle. The right side camera is attached to the right side of the vehicle 50 (for example, near the door mirror) and captures an image of a predetermined area on the right side of the vehicle. The left side camera is attached to the left side of the vehicle 50 (for example, near the door mirror) and captures an image of a predetermined area on the left side of the vehicle. An image captured by each camera is output to the ECU 10 .

レーダセンサ22は、自車両周辺に探査波を送信し、その探査波の反射波を受信することで自車両周辺に存在する物体の距離情報を取得する測距センサである。本実施形態では、自車両50は、レーダセンサ22として、フロントレーダ、リアレーダ、右サイドレーダ、左サイドレーダを有している。フロントレーダは、自車両50の前面においてその光軸が自車両前方を向くように取り付けられている。リアレーダは、自車両50の後面においてその光軸が自車両後方を向くように取り付けられている。右サイドレーダは、自車両50の右側面においてその光軸が自車両右側方を向くように取り付けられている。左サイドレーダは、自車両50の左側面においてその光軸が自車両左側方を向くように取り付けられている。 The radar sensor 22 is a ranging sensor that acquires distance information of objects existing around the vehicle by transmitting exploration waves to the vicinity of the vehicle and receiving reflected waves of the exploration waves. In this embodiment, the host vehicle 50 has a front radar, a rear radar, a right side radar, and a left side radar as the radar sensors 22 . The front radar is mounted on the front surface of the vehicle 50 so that its optical axis faces the front of the vehicle. The rear radar is attached to the rear surface of the own vehicle 50 so that its optical axis faces the rear of the own vehicle. The right side radar is mounted on the right side of the vehicle 50 so that its optical axis faces the right side of the vehicle. The left side radar is mounted on the left side of the vehicle 50 so that its optical axis faces the left side of the vehicle.

各レーダは、規定時間ごとに探査波であるミリ波帯の指向性のある送信波を走査するとともに、物体の表面で反射された反射波を複数のアンテナにより受信することで物体までの距離、物体の方位、及び物体の自車両50に対する相対速度等を距離情報として取得する。各レーダは、探査波の送信時刻と反射波の受信時刻とにより、物体までの距離を算出して取得する。また、各レーダは、複数のアンテナが受信した反射波の位相差により、物体の方位を算出して取得する。さらに、各レーダは、物体の表面で反射された反射波の、ドップラー効果により変化した周波数により、物体の相対速度を算出して取得する。各レーダにより撮像された距離情報はECU10へ出力される。なお、本実施形態において、レーダセンサ22が「物体検出装置」に相当する。 Each radar scans a directional transmission wave in the millimeter wave band, which is a search wave, at regular intervals. The azimuth of the object, the relative speed of the object with respect to the own vehicle 50, and the like are acquired as distance information. Each radar calculates and acquires the distance to the object from the time of transmission of the search wave and the time of reception of the reflected wave. Further, each radar calculates and acquires the azimuth of an object based on the phase difference between reflected waves received by a plurality of antennas. Furthermore, each radar calculates and obtains the relative velocity of the object from the frequency of the reflected wave reflected by the surface of the object, which is changed by the Doppler effect. Distance information captured by each radar is output to the ECU 10 . In this embodiment, the radar sensor 22 corresponds to the "object detection device".

ヨーレートセンサ23は、自車両50の旋回角速度を検出する周知のヨーレートセンサとして構成される。車速センサ24は、車輪の回転速度、つまりは自車両50の走行速度を検出する。これらのセンサ23,24による検出結果は、ECU10に出力される。 The yaw rate sensor 23 is configured as a known yaw rate sensor that detects the turning angular velocity of the own vehicle 50 . The vehicle speed sensor 24 detects the rotational speed of the wheels, that is, the running speed of the vehicle 50 . Detection results by these sensors 23 and 24 are output to the ECU 10 .

ECU10は、CPU,ROM,RAM,フラッシュメモリ等からなる周知のマイクロコンピュータを備えた制御装置である。ECU10は、自車両周辺の物体を検出する。ECU10は、カメラセンサ21から取得される画像に基づいて物体を検出するとともに、レーダセンサ22から取得される距離情報に基づいて物体を検出する。 The ECU 10 is a control device having a well-known microcomputer composed of CPU, ROM, RAM, flash memory, and the like. The ECU 10 detects objects around the vehicle. The ECU 10 detects objects based on images acquired from the camera sensor 21 and also detects objects based on distance information acquired from the radar sensor 22 .

詳細には、ECU10は、カメラセンサ21から取得される画像に対して、テンプレートマッチング(パターン認識)等の周知の画像処理を行うことにより、画像内に存在する物体を検出する。本実施形態では、物体を特定するためのテンプレートとして、物体ごとの特徴をパターン化した全身辞書が記憶されている。ECU10は、辞書に記憶された物体の実寸法と、画像上の物体の大きさである画像寸法との比に基づいて物体までの距離を算出する。また、ECU10は、画像の下端部中央を原点として、原点に対する画像上の物体の方位を算出する。ECU10は、画像から算出した物体までの距離及び物体の方位により物体の相対位置及び存在領域等を算出し、これらの情報を検出点の情報として取得する。 Specifically, the ECU 10 detects an object existing in the image by performing well-known image processing such as template matching (pattern recognition) on the image acquired from the camera sensor 21 . In this embodiment, as a template for specifying an object, a whole-body dictionary is stored in which the features of each object are patterned. The ECU 10 calculates the distance to the object based on the ratio between the actual size of the object stored in the dictionary and the image size, which is the size of the object on the image. The ECU 10 also calculates the orientation of the object on the image with respect to the origin, with the center of the lower end of the image as the origin. The ECU 10 calculates the relative position and presence area of the object from the distance to the object and the azimuth of the object calculated from the image, and acquires this information as detection point information.

また、ECU10は、レーダセンサ22から取得される距離情報に含まれる物体までの距離及び物体の方位により物体の相対位置及び存在領域等を算出し、これらの情報を検出点の情報として取得する。 In addition, the ECU 10 calculates the relative position of the object, the existence area, etc. of the object based on the distance to the object and the orientation of the object included in the distance information obtained from the radar sensor 22, and obtains this information as detection point information.

ECU10は、検出された複数の検出点に基づいて、自車両周辺に存在する物体の形状を認識し、被制御装置30を用いて自車両50の駆動力及び制動力を調整する。被制御装置30は、加速装置であるアクセル装置31と減速装置であるブレーキ装置32と操舵装置33とを有する。アクセル装置31は、ドライバのアクセル操作又はECU10からの制御指令により、自車両50に駆動力を付与する。ブレーキ装置32は、ドライバのブレーキ操作又はECU10からの制御指令により、自車両50に制動力を付与する。操舵装置33は、ドライバのハンドル操作又はECU10からの制御指令により、自車両50の操舵を制御する。 The ECU 10 recognizes the shape of an object existing around the vehicle based on the detected plurality of detection points, and adjusts the driving force and braking force of the vehicle 50 using the controlled device 30 . The controlled device 30 has an accelerator device 31 as an acceleration device, a brake device 32 as a deceleration device, and a steering device 33 . The accelerator device 31 applies driving force to the host vehicle 50 according to a driver's accelerator operation or a control command from the ECU 10 . The braking device 32 applies a braking force to the own vehicle 50 according to a driver's braking operation or a control command from the ECU 10 . The steering device 33 controls the steering of the host vehicle 50 according to the driver's steering wheel operation or control commands from the ECU 10 .

ところで、図2に示すように、自車両周辺に存在する物体として、自車両50側の外表面である被検出面が平面で構成されている平面状物体B1が存在する場合、ECU10は、平面状物体B1に対する複数の検出点に基づいて自車両50の運転支援制御を実施する。ECU10は、自車両50が平面状物体B1の左側方を走行する際に、レーダセンサ22(右サイドレーダ)により平面状物体B1の左側面を検出し、複数の検出点(黒丸、白丸)を取得する。ECU10は、時系列で検出された複数の検出点のうち1物体につき所定点数の検出点(黒丸)を抽出するように間引きし、その所定点数の検出点の情報をメモリ11に記憶する。本実施形態では、1物体につき3点の検出点が抽出され、図2に示す例では、複数の検出点D1~D11のうち、最初に検出された検出点D1、最後に検出された検出点D11、及び検出点D1と検出点D2との間に検出された検出点D6が抽出される。検出点D6は、検出点D1の検出タイミングと検出点D2の検出タイミングとの中央のタイミングに検出された検出点である。 By the way, as shown in FIG. 2, when there is a planar object B1 having a planar surface to be detected, which is the outer surface of the vehicle 50, as an object existing around the vehicle, the ECU 10 detects the planar object B1. Driving support control of the own vehicle 50 is performed based on a plurality of detection points for the shaped object B1. When the own vehicle 50 travels on the left side of the planar object B1, the ECU 10 detects the left side of the planar object B1 with the radar sensor 22 (right side radar) and detects a plurality of detection points (black circles, white circles). get. The ECU 10 thins out a predetermined number of detection points (black circles) for each object from a plurality of detection points detected in time series, and stores information on the predetermined number of detection points in the memory 11 . In this embodiment, three detection points are extracted for each object, and in the example shown in FIG. D11 and a detection point D6 detected between the detection points D1 and D2 are extracted. A detection point D6 is a detection point detected at a middle timing between the detection timing of the detection point D1 and the detection timing of the detection point D2.

ECU10は、メモリ11に記憶された検出点に基づいて、平面状物体B1の形状を認識する。図2に示す例では、メモリ11に記憶された検出点D1,D6,D11のうち、取得された順番が前後する検出点D1と検出点D6とが線分SE1で連結され、検出点D6と検出点D11とが線分SE2で連結される。そして、線分SE1,SE2により平面状物体B1の形状が認識される。そして、ECU10は、認識した平面状物体B1の形状に基づいて運転支援制御を行うことにより、自車両50が平面状物体B1に対して近づき過ぎないようにしつつ自車両50を走行させる。例えば、ECU10は、アクセル装置31及びブレーキ装置32を用いて加減速制御を行いつつ、操舵装置33を用いて操舵支援を行う。 Based on the detection points stored in the memory 11, the ECU 10 recognizes the shape of the planar object B1. In the example shown in FIG. 2, of the detection points D1, D6, and D11 stored in the memory 11, the detection point D1 and the detection point D6, which are obtained in different order, are connected by a line segment SE1. The detection point D11 is connected by a line segment SE2. The shape of the planar object B1 is recognized from the line segments SE1 and SE2. Then, the ECU 10 performs driving support control based on the recognized shape of the planar object B1, thereby causing the own vehicle 50 to travel while preventing the own vehicle 50 from getting too close to the planar object B1. For example, the ECU 10 uses the steering device 33 to assist steering while performing acceleration/deceleration control using the accelerator device 31 and the brake device 32 .

メモリ11に記憶される検出点が所定点数に制限されることで、物体認識に要する使用メモリ量が削減される。図2に示すように、自車両周辺に存在する物体が平面状物体B1である場合、メモリ11に記憶されている検出点の数が所定点数であっても、検出点により認識される平面状物体B1の形状と平面状物体B1の実形状に差異が生じることがない。 By limiting the number of detection points stored in the memory 11 to a predetermined number, the amount of memory used for object recognition is reduced. As shown in FIG. 2, when the object existing around the vehicle is a planar object B1, even if the number of detection points stored in the memory 11 is a predetermined number, the planar object B1 recognized by the detection points There is no difference between the shape of the object B1 and the actual shape of the planar object B1.

しかしながら、図3に示すように、自車両周辺に存在する物体が、自車両50側に凸となる曲面状の被検出面を有している曲面状物体B2である場合、検出点により認識される曲面状物体B2の形状と曲面状物体B2の実形状に差異が生じ、曲面状物体B2の形状の認識精度が低下する。具体的には、自車両50を基準として、線分SE1,SE2が、曲面状物体B2の被検出面よりも奥側に位置することにより、曲面状物体B2の自車両50側の一部に、ECU10により認識されない部分(以下、欠け部分)KBが生じる。例えば、車両では、前後の隅部が凸状の曲面となっているため、自車両50が他車両の前後の隅部付近を通過する際に、他車両の前後の隅部付近を被検出面とすると、この隅部付近に欠け部分KBが生じる。この場合、認識した曲面状物体B2の形状に基づいて運転支援制御を行っても、自車両50が曲面状物体B2に対して近づき過ぎることが懸念される。 However, as shown in FIG. 3, when the object existing around the own vehicle is a curved object B2 having a curved surface to be detected that is convex toward the own vehicle 50, it is recognized by the detection point. A difference occurs between the shape of the curved object B2 and the actual shape of the curved object B2, and the recognition accuracy of the shape of the curved object B2 is lowered. Specifically, with the vehicle 50 as a reference, the line segments SE1 and SE2 are located on the far side of the surface to be detected of the curved object B2, so that a part of the curved object B2 on the vehicle 50 side is detected. , a portion (hereinafter referred to as a missing portion) KB that is not recognized by the ECU 10 is generated. For example, since the front and rear corners of a vehicle are convex curved surfaces, when the own vehicle 50 passes through the front and rear corners of another vehicle, the front and rear corners of the other vehicle are projected onto the surface to be detected. Then, a missing portion KB is generated near this corner. In this case, even if driving support control is performed based on the recognized shape of the curved object B2, there is a concern that the host vehicle 50 may come too close to the curved object B2.

そこで、本実施形態では、自車両50の走行時に時系列で検出された複数の検出点に基づいて、曲面状物体B2の被検出面が曲面状であることを判定し、その判定結果に基づいて、所定点数の検出点により行われる物体認識の実施態様を変更するようにした。具体的には、曲面状物体B2の被検出面が曲面状であると判定された場合に、所定点数である検出点の数、つまり物体認識に用いる検出点の数を多くするようにした。これにより、使用メモリ量の削減を図りつつ、曲面状物体B2の形状を適正に認識することができる。 Therefore, in the present embodiment, it is determined that the surface to be detected of the curved object B2 is curved based on a plurality of detection points detected in time series while the host vehicle 50 is running, and based on the determination result, Therefore, the embodiment of object recognition performed by a predetermined number of detection points is changed. Specifically, when the surface to be detected of the curved object B2 is determined to be curved, the predetermined number of detection points, that is, the number of detection points used for object recognition is increased. As a result, the shape of the curved object B2 can be properly recognized while reducing the amount of memory used.

図4に、本実施形態の運転支援処理のフローチャートを示す。ECU10は、所定周期ごとに運転支援処理を繰り返し実施する。 FIG. 4 shows a flowchart of the driving assistance process of this embodiment. The ECU 10 repeatedly executes the driving support process at predetermined intervals.

運転支援処理を開始すると、ステップS11では、レーダセンサ22により物体の検出点を検出する。運転支援処理が繰り返し実施されることで、ステップS11の処理が繰り返し実施される。その結果、自車両50の走行中において、検出対象の物体が曲面状物体B2である場合に、その複数の検出点が時系列で検出される。 When the driving support process is started, the detection point of the object is detected by the radar sensor 22 in step S11. By repeatedly performing the driving support process, the process of step S11 is repeatedly performed. As a result, when the object to be detected is the curved object B2 while the own vehicle 50 is running, a plurality of detection points thereof are detected in time series.

ステップS13では、曲率半径算出処理を実施する。曲率半径算出処理では、ステップS11で検出された複数の検出点に基づいて、曲面状物体B2の被検出面の曲率半径Rを算出する。なお、本実施形態において、ステップS13の処理が「算出部」に相当する。 In step S13, a curvature radius calculation process is performed. In the curvature radius calculation process, the curvature radius R of the surface to be detected of the curved object B2 is calculated based on the plurality of detection points detected in step S11. In addition, in this embodiment, the process of step S13 corresponds to a "calculation part."

図5に、曲率半径算出処理のフローチャートを示す。曲率半径算出処理を開始すると、ステップS21では、曲率半径Rの算出に用いる複数の検出点である検出点群DAを設定する。 FIG. 5 shows a flowchart of the curvature radius calculation process. When the curvature radius calculation process is started, in step S21, a detection point group DA, which is a plurality of detection points used for calculating the curvature radius R, is set.

図6に示すように、曲面状物体B2が、互いに直交する2つの平面の隅部(角部)に曲面を有しており、図6に矢印YAで示すように、自車両50が隅部付近を走行しながら曲面状物体B2を検出する場合、検出された複数の検出点には、曲面を検出した検出点(黒丸、白丸)とともに平面を検出した検出点(×)が含まれる。ステップS21では、検出された複数の検出点のうち、曲面を検出した検出点を検出点群DAとして設定する。メモリ11に記憶される検出点の情報には、各検出点とその検出点が検出された際のレーダセンサ22の位置との結ぶベクトルの角度を示す角度情報JBが含まれている。図6に示すように、平面を検出した検出点の角度情報JBは略一定であるのに対して、曲面を検出した検出点の角度情報JBは互いに異なる。ステップS21では、角度情報JBのばらつき度合に基づいて、検出点群DAを設定する。図6に示す例では、検出点D1~D11が検出点群DAとして設定される。 As shown in FIG. 6, the curved object B2 has curved surfaces at the corners (corners) of two planes perpendicular to each other, and as indicated by the arrow YA in FIG. When the curved object B2 is detected while traveling nearby, the plurality of detected detection points includes the detection points (black circles, white circles) at which the curved surface is detected and the detection points (x) at which the plane is detected. In step S21, among the plurality of detected detection points, the detection points where the curved surface is detected are set as the detection point group DA. The detection point information stored in the memory 11 includes angle information JB indicating the angle of the vector connecting each detection point and the position of the radar sensor 22 when the detection point was detected. As shown in FIG. 6, the angle information JB of the detection points where the plane is detected is substantially constant, whereas the angle information JB of the detection points where the curved surface is detected is different. In step S21, a detection point group DA is set based on the degree of variation of the angle information JB. In the example shown in FIG. 6, the detection points D1 to D11 are set as the detection point group DA.

ステップS22では、ステップS21で設定した検出点群DAから、始点及び終点を設定する。始点及び終点のそれぞれは、検出点群DAに含まれる複数の検出点の1点であり、以下の2つの条件を満たすように設定される。(1)始点は、終点よりも先に検出された検出点である。(2)始点及び終点の間には、少なくとも1つの他の検出点が含まれる。なお、本実施形態において、始点及び終点は「所定の2点」に相当する。 In step S22, a start point and an end point are set from the detection point group DA set in step S21. Each of the start point and the end point is one of a plurality of detection points included in the detection point group DA, and is set so as to satisfy the following two conditions. (1) A start point is a detection point detected earlier than an end point. (2) At least one other detection point is included between the start point and the end point. In addition, in this embodiment, the start point and the end point correspond to "predetermined two points".

ステップS23では、始点及び終点の間の線分距離Wを算出する。図7には、始点が検出点D2に設定され、終点が検出点D10に設定された場合の線分距離Wが記載されている。 In step S23, the line segment distance W between the start point and the end point is calculated. FIG. 7 shows the line segment distance W when the start point is set at the detection point D2 and the end point is set at the detection point D10.

ステップS24では、離間距離Hを算出する。図7に示すように、始点及び終点を通る直線LAを引き、始点及び終点の間の検出点から直線LAまでの距離が、離間距離Hとなる。なお、始点及び終点の間に複数の検出点が含まれる場合には、それらの検出点から直線LAまでの距離のうち最も長いものを、離間距離Hとして選択する。図7に示す例では、検出点D6から直線LAまでの距離が、離間距離Hとして選択されている。 In step S24, the separation distance H is calculated. As shown in FIG. 7, a straight line LA passing through the start point and the end point is drawn, and the separation distance H is the distance from the detection point between the start point and the end point to the straight line LA. If a plurality of detection points are included between the start point and the end point, the longest distance from those detection points to the straight line LA is selected as the separation distance H. In the example shown in FIG. 7, the distance H from the detection point D6 to the straight line LA is selected.

ステップS25では、ステップS24で算出した離間距離Hがゼロであるか否かを判定する。離間距離Hの算出に用いた検出点が直線LA上に位置しており、離間距離Hがゼロである場合には、ステップS29に進む。一方、離間距離Hの算出に用いた検出点が直線LA上に位置していない場合には、ステップS26に進む。 In step S25, it is determined whether or not the separation distance H calculated in step S24 is zero. If the detection point used to calculate the separation distance H is located on the straight line LA and the separation distance H is zero, the process proceeds to step S29. On the other hand, if the detection point used to calculate the separation distance H is not positioned on the straight line LA, the process proceeds to step S26.

ステップS26では、曲率半径Rを算出する。図7に示すように、離間距離Hがゼロでない場合、始点、終点、及び離間距離Hの算出に用いた検出点の3点の検出点を通る円CAが定まり、この円CAの半径が曲率半径Rとなる。円CAにおいて、線分距離Wは、始点及び終点の間の円弧に対する弦の長さを示し、離間距離Hは、該弦から対応する円弧までの距離を示す。この場合、曲率半径Rは、線分距離W及び離間距離Hを用いて、以下の数式(1)のように表すことができる。

Figure 2023032080000002
In step S26, the radius of curvature R is calculated. As shown in FIG. 7, when the separation distance H is not zero, a circle CA passing through the three detection points of the starting point, the end point, and the detection point used to calculate the separation distance H is determined, and the radius of this circle CA is the curvature. It has a radius R. In the circle CA, the line segment distance W indicates the length of the chord for the arc between the start and end points, and the separation distance H indicates the distance from the chord to the corresponding arc. In this case, the radius of curvature R can be expressed using the line segment distance W and the separation distance H as shown in Equation (1) below.
Figure 2023032080000002

ステップS27では、ステップS26で算出した曲率半径Rが最小であるか否かを判定する。このとき、今回算出した曲率半径Rが前回までの曲率半径Rの最小値よりも小さければ、今回の曲率半径Rが最小であるとする。曲率半径Rが最小である場合、ステップS28において、今回算出した曲率半径Rをメモリ11に記憶して、メモリ11に記憶される曲率半径Rを更新し、ステップS29に進む。一方、曲率半径Rが最小でない場合、今回算出した曲率半径Rを記憶することなくステップS29に進む。 In step S27, it is determined whether or not the radius of curvature R calculated in step S26 is the minimum. At this time, if the curvature radius R calculated this time is smaller than the minimum value of the curvature radii R up to the last time, it is assumed that the current curvature radius R is the minimum. If the curvature radius R is the minimum, in step S28, the curvature radius R calculated this time is stored in the memory 11, the curvature radius R stored in the memory 11 is updated, and the process proceeds to step S29. On the other hand, if the radius of curvature R is not the minimum, the process proceeds to step S29 without storing the radius of curvature R calculated this time.

ステップS29では、始点及び終点の全ての組合せで曲率半径Rを算出したか否かを判定する。全ての組合せで曲率半径Rを算出していない場合、ステップS22に戻る。一方、全ての組合せで曲率半径Rを算出した場合、曲率半径算出処理を終了する。 In step S29, it is determined whether or not the radius of curvature R has been calculated for all combinations of starting points and ending points. If the radius of curvature R has not been calculated for all combinations, the process returns to step S22. On the other hand, when the radius of curvature R is calculated for all combinations, the radius of curvature calculation process ends.

図4に戻り、曲率半径算出処理が終了すると、ステップS14に進む。ステップS14では、ステップS11で検出された複数の検出点に基づいて、曲面状物体B2の被検出面が曲面状であることを判定する。具体的には、ステップS28で最後に更新された曲率半径Rが所定の閾値Rthよりも小さいか否かを判定する。曲率半径Rが閾値Rthよりも小さい場合、曲面状物体B2の被検出面が曲面状であると判定し、ステップS15に進む。 Returning to FIG. 4, when the radius of curvature calculation process ends, the process proceeds to step S14. In step S14, based on the plurality of detection points detected in step S11, it is determined that the surface to be detected of the curved object B2 is curved. Specifically, in step S28, it is determined whether or not the last updated radius of curvature R is smaller than a predetermined threshold value Rth. If the curvature radius R is smaller than the threshold value Rth, it is determined that the surface to be detected of the curved object B2 is curved, and the process proceeds to step S15.

ステップS15では、曲面状物体B2を2つの物体とみなして分割し、ステップS16に進む。具体的には、曲面状物体B2の被検出面のうち、検出点群DAが検出された曲面を2つの曲面とに分割する。これにより、検出点群DAは、分割後の第1の曲面に対応する第1検出点群DA1と、第2の曲面に対応する第2検出点群DA2に分割される。なお、本実施形態において、ステップS15の処理が「態様変更部」に相当する。 In step S15, curved object B2 is regarded as two objects and divided, and the process proceeds to step S16. Specifically, of the surfaces to be detected of the curved object B2, the curved surface on which the detection point group DA is detected is divided into two curved surfaces. As a result, the detection point group DA is divided into a first detection point group DA1 corresponding to the divided first curved surface and a second detection point group DA2 corresponding to the second curved surface. It should be noted that in the present embodiment, the process of step S15 corresponds to the "mode changing section".

一方、ステップS14において、曲率半径Rが閾値Rthよりも大きい場合、曲面状物体B2が曲面を有していないと判定し、検出点群DAを分割することなくステップS16に進む。なお、本実施形態において、ステップS14の処理が「判定部」に相当する。 On the other hand, if the curvature radius R is larger than the threshold value Rth in step S14, it is determined that the curved object B2 does not have a curved surface, and the process proceeds to step S16 without dividing the detection point group DA. In addition, in this embodiment, the process of step S14 corresponds to a "judgment part."

ステップS16では、物体ごとに、所定点数の検出点の情報をメモリ11に記憶する。続くステップS17では、メモリ11に記憶された所定点数の検出点に基づいて物体の形状を認識する。そのため、ステップS15で曲面状物体B2が2つの物体とみなされて分割された場合には、分割後の物体ごとに、所定点数の検出点に基づいて物体の形状が認識される。 In step S16, information on a predetermined number of detection points is stored in the memory 11 for each object. In the subsequent step S17, the shape of the object is recognized based on the predetermined number of detection points stored in the memory 11. FIG. Therefore, when the curved object B2 is regarded as two objects and divided in step S15, the shape of each divided object is recognized based on the predetermined number of detection points.

ステップS18では、ステップS17で認識した曲面状物体B2の形状に基づいて、自車両50の運転支援制御を実施し、本処理を一旦終了する。 In step S18, based on the shape of the curved object B2 recognized in step S17, the driving support control of the own vehicle 50 is performed, and this process is once terminated.

続いて、図8に、物体が分割される効果について説明する。図8(A)に示すように、曲面状物体B2の被検出面が曲面状であるにも関わらず曲面状物体B2が分割されないと、検出点群DAから抽出された3点の検出点D1,D6,D11により曲面状物体B2の形状が認識される。そのため、欠け部分KBが比較的大きくなる。 Next, with reference to FIG. 8, the effect of dividing an object will be described. As shown in FIG. 8A, when the curved object B2 is not divided even though the surface to be detected of the curved object B2 is curved, the three detection points D1 extracted from the detection point group DA , D6 and D11 recognize the shape of the curved object B2. Therefore, the missing portion KB becomes relatively large.

本実施形態では、図8(B)に分割線LBで示すように、曲面状物体B2の被検出面が曲面状であると判定され、曲面状物体B2が2つの物体とみなされて分割された場合には、検出点群DAが第1検出点群DA1及び第2検出点群DA2に分割される。図8(B)に示す例では、検出点D1~D11を含む検出点群DAが、検出点D1~D6を含む第1検出点群DA1と、検出点D7~D11を含む第2検出点群DA2に分割される。そして、第1検出点群DA1から抽出された3点の検出点D1,D3,D6、及び第2検出点群DA2から抽出された3点の検出点D7,D9,D11により曲面状物体B2の形状が認識される。そのため、物体が分割されない場合に比べて多くの検出点により曲面状物体B2の形状を認識することができ、欠け部分KBを小さくすることができる。これにより、認識した曲面状物体B2の形状に基づいて運転支援制御が行われた場合でも、自車両50が曲面状物体B2に対して近づき過ぎることを適正に抑制することができる。 In the present embodiment, as indicated by the dividing line LB in FIG. 8B, it is determined that the surface to be detected of the curved object B2 is curved, and the curved object B2 is regarded as two objects and divided. In this case, the detection point group DA is divided into a first detection point group DA1 and a second detection point group DA2. In the example shown in FIG. 8B, the detection point group DA including the detection points D1 to D11 includes a first detection point group DA1 including the detection points D1 to D6 and a second detection point group including the detection points D7 to D11. divided into DA2. Then, three detection points D1, D3, and D6 extracted from the first detection point group DA1 and three detection points D7, D9, and D11 extracted from the second detection point group DA2 are used to detect the curved object B2. Shapes are recognized. Therefore, the shape of the curved object B2 can be recognized from more detection points than when the object is not divided, and the missing portion KB can be reduced. As a result, even when driving support control is performed based on the recognized shape of the curved object B2, it is possible to appropriately prevent the host vehicle 50 from getting too close to the curved object B2.

以上詳述した本実施形態によれば、以下の効果が得られるようになる。 According to this embodiment detailed above, the following effects can be obtained.

自車両50の走行時において、時系列で検出された複数の検出点に基づいて、物体の被検出面が曲面状であることを判定し、その判定結果に基づいて、所定点数の検出点により行われる物体認識の実施態様を変更するようにした。この場合、物体の被検出面が曲面状でない状況と曲面状である状況とで互いに異なる態様で物体認識を行うことができ、物体の形状を適正に認識することができる。その結果、使用メモリ量の削減を図りつつ、物体の形状を適正に認識することができる。 When the own vehicle 50 is running, it is determined that the surface to be detected of the object is curved based on a plurality of detection points detected in time series. The implementation of object recognition performed has been changed. In this case, object recognition can be performed in different manners depending on whether the surface to be detected of the object is curved or not curved, and the shape of the object can be properly recognized. As a result, it is possible to properly recognize the shape of the object while reducing the amount of memory used.

検出された複数の検出点に基づいて、物体の被検出面の曲率半径Rを算出し、算出された曲率半径Rが閾値Rthよりも小さい場合に、被検出面が曲面状であることを判定するようにした。曲面状である物体の曲率半径Rは、曲面状でない物体の曲率半径Rよりも小さくなる。そのため、算出された曲率半径Rが閾値Rthよりも小さいか否かを判定することにより、物体が曲面状であることを適正に判定することができる。 Based on the detected plurality of detection points, the radius of curvature R of the surface to be detected of the object is calculated, and if the calculated radius of curvature R is smaller than a threshold value Rth, it is determined that the surface to be detected is curved. I made it The radius of curvature R of a curved object is smaller than the radius of curvature R of a non-curved object. Therefore, by determining whether or not the calculated radius of curvature R is smaller than the threshold Rth, it is possible to properly determine that the object has a curved surface.

線分距離W及び離間距離Hを用いて曲率半径Rを算出するようにした。線分距離Wの算出に用いた始点及び終点と、離間距離Hの算出に用いた検出点とにより、これら3点の検出点を通る円CAが定まる。円CAにおいて、線分距離Wは、始点及び終点の間の円弧に対する弦の長さを示しており、離間距離Hは、上記弦から円弧までの距離を示している。そのため、線分距離W及び離間距離Hを用いて、円CAの半径に相当する曲率半径Rを算出することができる。 The curvature radius R is calculated using the line segment distance W and the separation distance H. A circle CA that passes through these three detection points is determined by the start point and end point used to calculate the line segment distance W and the detection points used to calculate the separation distance H. FIG. In the circle CA, the line segment distance W indicates the length of the chord with respect to the arc between the start point and the end point, and the separation distance H indicates the distance from the chord to the arc. Therefore, using the line segment distance W and the separation distance H, it is possible to calculate the radius of curvature R corresponding to the radius of the circle CA.

物体の被検出面が曲面状である場合において、その被検出面での曲率半径Rが一律でないことがある。この場合、曲率半径Rが小さい部分ほど、物体の形状を適正に認識することが難しい。その点、算出された複数の曲率半径Rのうち最も小さい曲率半径Rを物体の被検出面の曲率半径Rとして選択するようにした。そのため、物体の被検出面のうち最も曲率半径が小さい部分においても、物体の形状を適切に認識することができる。 When the surface to be detected of the object is curved, the radius of curvature R of the surface to be detected may not be uniform. In this case, the smaller the curvature radius R, the more difficult it is to properly recognize the shape of the object. In this regard, the smallest radius of curvature R among the calculated multiple radiuses of curvature R is selected as the radius of curvature R of the surface to be detected of the object. Therefore, it is possible to appropriately recognize the shape of the object even in a portion having the smallest radius of curvature in the surface to be detected of the object.

物体の被検出面が曲面状であると判定された場合に、被検出面が曲面状でないと判定された場合に比べて、所定点数である検出点の数を多くするようにした。これにより、被検出面が曲面状である物体についての物体認識に要する検出点の数を多くすることができ、物体の形状を適正に認識することができる。 When the surface to be detected of the object is determined to be curved, the number of detection points, which is a predetermined number, is increased compared to when the surface to be detected is determined not to be curved. As a result, it is possible to increase the number of detection points required for recognizing an object having a curved surface to be detected, and to properly recognize the shape of the object.

物体の被検出面が曲面状であると判定された場合に、検出対象となっている物体を複数の物体とみなして分割し、分割後の物体ごとに、所定点数の検出点に基づいて物体形状を認識させるようにした。これにより、物体がN個(Nは2以上の自然数)に分割された場合には、所定点数のN倍の検出点により分割前の物体形状が認識され、被検出面が曲面状である物体の形状を適正に認識することができる。 When it is determined that the surface to be detected of the object is curved, the object to be detected is regarded as a plurality of objects and divided into multiple objects. Made to recognize the shape. As a result, when an object is divided into N pieces (N is a natural number of 2 or more), the shape of the object before division is recognized by N times the predetermined number of detection points, and an object having a curved surface to be detected can be detected. can be properly recognized.

本実施形態の運転支援制御は、以下に示すように、駐車車両(他車両)60の近傍の駐車エリアPAに自車両50を駐車する場合において有用である。車両においては、前面又は後面と側面との間の隅部が曲面状になっていることが考えられる。つまり、車両の隅部付近では車両外周面が平面、曲面、平面で切り替わり、それに伴い曲率半径Rが変化していることが考えられる。曲率半径Rが変化している場合、曲率半径Rが小さい部分ほど、物体の形状を適正に認識することが難しい。 The driving support control of the present embodiment is useful when the own vehicle 50 is parked in the parking area PA near the parked vehicle (another vehicle) 60, as described below. In a vehicle, it is conceivable that the corners between the front or rear surface and the side surfaces are curved. In other words, it is conceivable that the outer peripheral surface of the vehicle switches between a flat surface, a curved surface, and a flat surface near the corners of the vehicle, and the radius of curvature R changes accordingly. When the radius of curvature R is changing, it is more difficult to properly recognize the shape of the object in a portion where the radius of curvature R is smaller.

その点、本実施形態の運転支援制御によれば、隅部付近で算出された複数の曲率半径Rのうち最も小さい曲率半径Rを、隅部付近の曲率半径Rとして選択することにより、駐車車両60の隅部形状を正しく認識できる。これにより、駐車エリアPAに自車両50を駐車する場合において、駐車車両60に対する接触の可能性を低減することができる。 In this regard, according to the driving support control of the present embodiment, by selecting the smallest curvature radius R among the plurality of curvature radii R calculated near the corner as the curvature radius R near the corner, the parking vehicle The corner shape of 60 can be correctly recognized. As a result, the possibility of contact with the parked vehicle 60 can be reduced when the own vehicle 50 is parked in the parking area PA.

具体的には、図9に示すように、自車両50が駐車車両60の側方を通過した後に、駐車車両60の前方に位置する駐車エリアPAに駐車する場合がある。この場合、ECU10は、図9に矢印YBに示すように、自車両50の前面が駐車車両60の右前部60A付近を通過する際に、駐車車両60の右前部60Aを検出し、右前部60Aが曲面状であることを判定する。これにより、自車両50の後面が駐車車両60の右前部60Aの近傍を通過する際に、又は、その後、図9に矢印YCに示すように、自車両50が駐車車両60側に後進する際に、ECU10は、自車両50が駐車車両60の右前部60Aに対して近づき過ぎることを適正に抑制することができる。 Specifically, as shown in FIG. 9 , there are cases where own vehicle 50 parks in parking area PA located in front of parked vehicle 60 after passing by the side of parked vehicle 60 . In this case, the ECU 10 detects the front right portion 60A of the parked vehicle 60 when the front surface of the own vehicle 50 passes near the front right portion 60A of the parked vehicle 60 as indicated by an arrow YB in FIG. is curved. As a result, when the rear surface of the own vehicle 50 passes near the right front portion 60A of the parked vehicle 60, or when the own vehicle 50 moves backward toward the parked vehicle 60 as indicated by the arrow YC in FIG. In addition, the ECU 10 can appropriately prevent the host vehicle 50 from approaching the right front portion 60A of the parked vehicle 60 too much.

また、図10に示すように、自車両50が駐車車両60の前方を通過した後に、駐車車両60の側方に位置する駐車エリアPAに駐車する場合がある。この場合、ECU10は、図10に矢印YDに示すように、自車両50が駐車車両60の前方を通過する際に、駐車車両60の左前部60Bを検出し、左前部60Bが曲面状であることを判定する。これにより、その後、図10に矢印YEに示すように、自車両50が後進しながら右折して駐車車両60の左前部60Bの近傍を通過する際に、ECU10は、自車両50が駐車車両60の左前部60Bに対して近づき過ぎることを適正に抑制することができる。 Further, as shown in FIG. 10 , there are cases where own vehicle 50 parks in parking area PA located on the side of parked vehicle 60 after passing in front of parked vehicle 60 . In this case, the ECU 10 detects the left front portion 60B of the parked vehicle 60 when the own vehicle 50 passes in front of the parked vehicle 60 as indicated by an arrow YD in FIG. 10, and the left front portion 60B is curved. to judge. As a result, as shown by arrow YE in FIG. 10, when own vehicle 50 turns right while traveling backward and passes near left front portion 60B of parked vehicle 60, ECU 10 detects that own vehicle 50 is parked vehicle 60. It is possible to appropriately prevent the vehicle from approaching too much to the left front portion 60B.

(その他の実施形態)
上記各実施形態は、以下のように変更して実施してもよい。
(Other embodiments)
Each of the above embodiments may be modified and implemented as follows.

・上記実施形態では、物体の被検出面が曲面状であると判定されたことに基づいて、物体を2つに分割する例を示したが、分割数は3以上であってもよい。この場合、物体の被検出面の曲率半径Rに応じて分割数を可変に設定するようにしてもよく、例えば、曲率半径Rが小さいほど、分割数を多くするようにしてもよい。 - In the above-described embodiment, an example is shown in which an object is divided into two parts based on the determination that the surface to be detected of the object is curved, but the number of divisions may be three or more. In this case, the number of divisions may be variably set according to the radius of curvature R of the surface to be detected of the object. For example, the smaller the radius of curvature R, the greater the number of divisions.

・ECU10は、物体が分割された場合には、分割後の物体ごとに曲率半径Rを再度算出するようにしてもよい。そして、再度算出された曲率半径Rが閾値Rthよりも小さい場合には、分割後の物体を再度分割するようにしてもよい。 - When the object is divided, the ECU 10 may recalculate the radius of curvature R for each divided object. Then, when the recalculated radius of curvature R is smaller than the threshold value Rth, the divided object may be divided again.

・上記実施形態では、曲率半径Rの算出に数式(1)を用いたが、マップ等で曲率半径Rを算出してもよい。 - In the above-described embodiment, the formula (1) is used to calculate the radius of curvature R, but the radius of curvature R may be calculated using a map or the like.

・上記実施形態では、物体の被検出面で算出された複数の曲率半径Rのうち最小の曲率半径Rを選択するようにしたが、これに限られない。例えば、最小の曲率半径Rを含む複数の曲率半径Rの平均値を選択するようにしてもよい。例えば、始点が検出点D2に設定され、終点が検出点D10に設定された場合の曲率半径Rが最小であった場合に、当該曲率半径R、始点が検出点D1に設定され、終点が検出点D9に設定された場合の曲率半径R、及び始点が検出点D3に設定され、終点が検出点D11に設定された場合の曲率半径Rの平均値を算出し、この平均値を選択するようにしてもよい。 - In the above-described embodiment, the smallest radius of curvature R is selected from among the plurality of radiuses of curvature R calculated on the surface to be detected of the object, but the present invention is not limited to this. For example, an average value of a plurality of curvature radii R including the smallest curvature radius R may be selected. For example, when the starting point is set to the detection point D2 and the end point is set to the detection point D10 and the curvature radius R is the minimum, the curvature radius R and the start point are set to the detection point D1, and the end point is detected. The average value of the curvature radius R when the point D9 is set and the curvature radius R when the start point is set at the detection point D3 and the end point is set at the detection point D11 is calculated, and this average value is selected. can be

・撮像装置は、単眼カメラに限られず、ステレオカメラであってもよい。送信波及び反射波を用いる装置は、レーダセンサ22に限られず、レーザセンサであってもよい。 - The imaging device is not limited to a monocular camera, and may be a stereo camera. A device using transmitted waves and reflected waves is not limited to the radar sensor 22, and may be a laser sensor.

・本開示に記載の物体認識装置及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体認識装置及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体認識装置及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 - The object recognition apparatus and method described in the present disclosure can be performed by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. , may be implemented. Alternatively, the object recognition apparatus and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the object recognition apparatus and techniques described in this disclosure are a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. may be implemented by one or more dedicated computers configured by The computer program may also be stored as computer-executable instructions on a computer-readable non-transitional tangible recording medium.

10…ECU、22…レーダセンサ。 10 -- ECU, 22 -- radar sensor.

Claims (7)

物体を検出する物体検出装置(22)を備える車両に適用され、車両走行時において、前記物体検出装置により時系列で検出された複数の検出点のうち1物体につき所定点数の検出点を抽出し、その所定点数の検出点に基づいて物体形状を認識する物体認識装置(10)であって、
車両走行時において、前記物体検出装置により時系列で検出された前記複数の検出点に基づいて、物体の被検出面が曲面状であることを判定する判定部と、
前記判定部の判定結果に基づいて、前記所定点数の検出点により行われる物体認識の実施態様を変更する態様変更部と、
を備える物体認識装置。
Applied to a vehicle equipped with an object detection device (22) for detecting an object, extracting a predetermined number of detection points per object from among a plurality of detection points detected in time series by the object detection device (22) while the vehicle is running. , an object recognition device (10) for recognizing an object shape based on the predetermined number of detection points,
a determination unit that determines whether a surface to be detected of an object is curved based on the plurality of detection points detected in time series by the object detection device while the vehicle is running;
a mode changing unit that changes a mode of object recognition performed by the predetermined number of detection points based on the determination result of the determining unit;
An object recognition device comprising:
前記物体検出装置により検出された前記複数の検出点に基づいて、前記被検出面の曲率半径を算出する算出部を備え、
前記判定部は、前記算出部により算出された前記曲率半径が所定の閾値よりも小さい場合に、前記被検出面が曲面状であると判定する、請求項1に記載の物体認識装置。
a calculation unit that calculates a radius of curvature of the surface to be detected based on the plurality of detection points detected by the object detection device;
2. The object recognition device according to claim 1, wherein the determination unit determines that the surface to be detected is curved when the radius of curvature calculated by the calculation unit is smaller than a predetermined threshold.
前記算出部は、前記複数の検出点のうち所定の2点を通る直線を引き、その所定の2点間の距離と、その2点間に存在する他の検出点から前記直線までの距離とに基づいて、前記曲率半径を算出する、請求項2に記載の物体認識装置。 The calculator draws a straight line passing through two predetermined points among the plurality of detection points, and calculates a distance between the predetermined two points and a distance from another detection point existing between the two points to the straight line. 3. The object recognition device according to claim 2, wherein said radius of curvature is calculated based on . 前記算出部は、前記複数の検出点について複数の組み合わせで2点を通る直線をそれぞれ引き、それら各直線に対応する複数の前記曲率半径を算出し、算出された複数の前記曲率半径のうち最も小さい前記曲率半径を、前記被検出面の曲率半径として選択する、請求項3に記載の物体認識装置。 The calculation unit draws a straight line passing through two points in a plurality of combinations of the plurality of detection points, calculates a plurality of the curvature radii corresponding to each of the straight lines, and 4. The object recognition device according to claim 3, wherein the small radius of curvature is selected as the radius of curvature of the surface to be detected. 他車両(60)の近傍を通過する際に、当該他車両の前後の隅部付近を前記被検出面とする物体認識装置であり、
前記算出部は、前記隅部付近における前記複数の検出点について複数の組み合わせで2点を通る直線をそれぞれ引き、それら各直線に対応する複数の前記曲率半径を算出し、算出された複数の前記曲率半径のうち最も小さい前記曲率半径を、前記隅部付近の曲率半径として選択する、請求項3に記載の物体認識装置。
An object recognition device that, when passing near another vehicle (60), uses the vicinity of the front and rear corners of the other vehicle as the surface to be detected,
The calculating unit draws a straight line passing through two points in a plurality of combinations of the plurality of detection points near the corner, calculates a plurality of the curvature radii corresponding to each of the straight lines, and calculates the plurality of the calculated radii of curvature. 4. The object recognition device according to claim 3, wherein the smallest radius of curvature is selected as the radius of curvature near the corner.
前記態様変更部は、前記判定部により前記被検出面が曲面状であると判定された場合に、前記被検出面が曲面状でないと判定された場合に比べて、前記所定点数である前記検出点の数を多くする、請求項1から5のいずれか一項に記載の物体認識装置。 The mode changing unit is configured such that when the determining unit determines that the surface to be detected has a curved surface, the detection surface having the predetermined number of points is higher than a case where the surface to be detected is determined not to have a curved surface. The object recognition device according to any one of claims 1 to 5, wherein the number of points is increased. 前記態様変更部は、前記判定部により前記被検出面が曲面状であると判定された場合に、検出対象となっている物体を複数の物体とみなして分割し、分割後の物体ごとに、前記所定点数の検出点に基づいて物体形状を認識させる、請求項1から5のいずれか一項に記載の物体認識装置。 When the determination unit determines that the surface to be detected has a curved surface, the aspect changing unit divides the object to be detected by considering the object to be detected as a plurality of objects, and for each object after division, 6. The object recognition device according to claim 1, wherein the object shape is recognized based on the predetermined number of detection points.
JP2021137975A 2021-08-26 2021-08-26 Object recognition device Pending JP2023032080A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021137975A JP2023032080A (en) 2021-08-26 2021-08-26 Object recognition device
PCT/JP2022/030781 WO2023026875A1 (en) 2021-08-26 2022-08-12 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021137975A JP2023032080A (en) 2021-08-26 2021-08-26 Object recognition device

Publications (1)

Publication Number Publication Date
JP2023032080A true JP2023032080A (en) 2023-03-09

Family

ID=85323211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021137975A Pending JP2023032080A (en) 2021-08-26 2021-08-26 Object recognition device

Country Status (2)

Country Link
JP (1) JP2023032080A (en)
WO (1) WO2023026875A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006189393A (en) * 2005-01-07 2006-07-20 Toyota Motor Corp Peripheral object information acquiring device, and parking support device using same
JP4618506B2 (en) * 2005-10-20 2011-01-26 アイシン精機株式会社 Object recognition device
US8686875B2 (en) * 2009-08-26 2014-04-01 Mitsubishi Electric Corporation Parking support device
JP5581758B2 (en) * 2010-03-18 2014-09-03 富士通株式会社 Person detection device, person detection method, and program
US20190310651A1 (en) * 2018-04-10 2019-10-10 Uber Technologies, Inc. Object Detection and Determination of Motion Information Using Curve-Fitting in Autonomous Vehicle Applications
CN109398232A (en) * 2018-09-30 2019-03-01 北京长城华冠汽车科技股份有限公司 A kind of reversing display methods and system
JP7265027B2 (en) * 2019-10-01 2023-04-25 日立Astemo株式会社 Processing device and point cloud reduction method

Also Published As

Publication number Publication date
WO2023026875A1 (en) 2023-03-02

Similar Documents

Publication Publication Date Title
US10055650B2 (en) Vehicle driving assistance device and vehicle having the same
CN107408345B (en) Method and device for determining presence of target object
US10569767B2 (en) Vehicle control apparatus and vehicle control method
US10297156B2 (en) Driving support apparatus for a vehicle
WO2022156276A1 (en) Target detection method and apparatus
CN109204311B (en) Automobile speed control method and device
US20210403037A1 (en) Arithmetic operation system for vehicles
JP6231526B2 (en) Travel control device
JP6468136B2 (en) Driving support device and driving support method
US20150269445A1 (en) Travel division line recognition apparatus and travel division line recognition program
WO2018207782A1 (en) Parking space detection device
US10527719B2 (en) Object detection apparatus and object detection method
WO2018030271A1 (en) Travel control device
US11970186B2 (en) Arithmetic operation system for vehicles
US20210394749A1 (en) Arithmetic operation device for vehicle
KR20140076866A (en) Measurement Method and Apparatus for Measuring Curvature of Lane Using Behavior of Preceding Vehicle
JP2019018788A (en) Vehicle control device and vehicle control method
WO2019021591A1 (en) Image processing device, image processing method, program, and image processing system
US11731647B2 (en) Road shape recognizer, autonomous drive system and method of recognizing road shape
JP5049853B2 (en) Vehicle object detection device
WO2023026875A1 (en) Object recognition device
US10929695B2 (en) Obstacle detection apparatus
CN115959111A (en) Vehicle control device, vehicle control method, and storage medium
CN115959112A (en) Vehicle control device, vehicle control method, and storage medium
WO2023021927A1 (en) Parking assistance device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240314