WO2024080202A1 - 角度誤差推定装置および角度誤差推定方法 - Google Patents

角度誤差推定装置および角度誤差推定方法 Download PDF

Info

Publication number
WO2024080202A1
WO2024080202A1 PCT/JP2023/036200 JP2023036200W WO2024080202A1 WO 2024080202 A1 WO2024080202 A1 WO 2024080202A1 JP 2023036200 W JP2023036200 W JP 2023036200W WO 2024080202 A1 WO2024080202 A1 WO 2024080202A1
Authority
WO
WIPO (PCT)
Prior art keywords
angle
observation
angle error
object detection
moving
Prior art date
Application number
PCT/JP2023/036200
Other languages
English (en)
French (fr)
Inventor
卓也 ▲高▼山
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2024080202A1 publication Critical patent/WO2024080202A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating

Definitions

  • This disclosure relates to an angle error estimation device and an angle error estimation method for estimating the angle error of a radar device.
  • Patent Document 1 describes a technology in which a radar device mounted on a vehicle observes the horizontal angle and relative speed of stationary objects in the vicinity of the vehicle while the vehicle is traveling, and estimates the angle error for each of multiple horizontal angles by determining the deviation from an ideal curve as the horizontal angle error.
  • Patent Document 1 has the problem that as a vehicle passes beside a stationary object and moves away from the stationary object, the change in speed in response to a change in horizontal angle becomes smaller, and the accuracy of estimating the angle error decreases.
  • the present disclosure improves the estimation accuracy of the angle error of a radar device.
  • One aspect of the present disclosure is an angle error estimation device that estimates an angle error, which is an error in an azimuth angle detected by at least one radar device mounted on a moving object.
  • the angle error estimation device disclosed herein includes a first information acquisition unit, a second information acquisition unit, a stationary object detection unit, a movement direction calculation unit, an average calculation unit, and an angle error calculation unit.
  • the first information acquisition unit is configured to acquire object detection information including at least position information indicating the position of an object present near the moving body from at least one radar device that includes the side of the moving body as an object detection area.
  • the second information acquisition unit is configured to acquire movement trajectory information for identifying the movement trajectory of the moving object.
  • the stationary object detection unit is configured to detect stationary objects, which are objects that are stationary to the side of the moving body, based on the object detection information.
  • the movement direction calculation unit is configured to calculate, for each of the multiple stationary objects detected by the stationary object detection unit, a movement direction indication value that indicates the movement direction of the stationary object as seen from the moving object, assuming that the moving object is moving in a straight line, for each observation angle at which the stationary object is observed by at least one radar device, based on the object detection information and the movement trajectory information.
  • the average calculation unit is configured to classify the multiple movement direction indication values calculated by the movement direction calculation unit into multiple observation angles, and calculate, for each observation angle, the average value of the multiple movement direction indication values classified by observation angle as the movement direction average value.
  • the angular error calculation unit is configured to calculate an angular error for each observation angle based on an average movement trajectory, which is a movement trajectory calculated based on the average values of multiple movement directions calculated for each observation angle, and a reference movement trajectory set as the movement trajectory of a stationary object when there is no angular error.
  • the angle error estimation device of the present disclosure configured in this manner calculates the angle error for each observation angle based on the average movement trajectory and the reference movement trajectory, and therefore is able to suppress a decrease in the estimation accuracy of the angle error when the vehicle moves away from a stationary object, compared to when the angle error is calculated based on a change in speed in response to a change in the observation angle. This allows the angle error estimation device of the present disclosure to improve the estimation accuracy of the angle error of the radar device.
  • Another aspect of the present disclosure is an angle error estimation method implemented by an angle error estimation device that estimates an angle error, which is an error in an azimuth angle detected by at least one radar device mounted on a moving object.
  • the angle error estimation device acquires object detection information including at least position information indicating the position of an object present near the moving body from at least one radar device that includes the side of the moving body as an object detection area.
  • the angle error estimation device acquires movement trajectory information for identifying the movement trajectory of a moving object.
  • the angle error estimation device detects stationary objects, which are objects that are stationary to the side of a moving body, based on object detection information.
  • the angle error estimation device calculates, for each of the detected stationary objects, a movement direction indication value that indicates the movement direction of the stationary object as seen from the moving object, assuming that the moving object is moving in a straight line, for each observation angle at which the stationary object is observed by at least one radar device, based on the object detection information and movement trajectory information.
  • the angle error estimation device classifies the calculated multiple movement direction indication values into multiple observation angles, and for each observation angle, calculates the average of the multiple movement direction indication values classified by observation angle as the average movement direction value.
  • the angle error estimation device calculates the angle error for each observation angle based on an average movement trajectory, which is a movement trajectory calculated based on the average values of multiple movement directions calculated for each observation angle, and a reference movement trajectory set as the movement trajectory of a stationary object when there is no angle error.
  • the angle error estimation method disclosed herein is a method executed by the angle error estimation device disclosed herein, and by executing this method, it is possible to obtain the same effect as the angle error estimation device disclosed herein.
  • FIG. 13 is a flowchart showing a tilt calculation process.
  • FIG. 13 is a diagram illustrating a method for determining whether an object is stationary or not.
  • FIG. 11 is a diagram for explaining a method for calculating a stationary object tilt.
  • FIG. 13 is a diagram for explaining coordinate conversion of an observation angle.
  • FIG. 13 is a diagram for explaining components of a stationary object movement trajectory that are added due to turning.
  • FIG. 5 is a flowchart showing an angle correction process according to the first embodiment.
  • 13 is a graph showing the average value of stationary object inclination for each observation angle, and a graph showing the number of observations for each observation angle.
  • 1A to 1C are diagrams illustrating the basic principle of an angle error calculation process.
  • 13 is a flowchart showing an angle error calculation process.
  • FIG. 13 is a diagram illustrating a method for calculating a radial distance.
  • 1 is a graph showing an angle error for each observation angle.
  • FIG. 2 is a diagram showing radar observation angles. 1 is a graph showing the relationship between a radar observation angle and an angle error.
  • 5 is a flowchart showing a vehicle information provision process.
  • 10 is a flowchart showing an angle correction process according to a second embodiment.
  • the vehicle information providing device 1 of this embodiment is mounted on a vehicle, and as shown in FIG. 1, includes a head-up display device 2, a left rear radar device 3, a right rear radar device 4, a vehicle speed sensor 5, a yaw rate sensor 6, and a control unit 7.
  • the vehicle on which the vehicle information providing device 1 is mounted is referred to as the host vehicle.
  • the head-up display device 2 emits display light for displaying an image from below the windshield toward the windshield. This allows the driver to visually recognize the projected virtual image superimposed on the actual scenery in front of the vehicle.
  • the left rear radar device 3 and the right rear radar device 4 transmit radar waves toward the surroundings of the vehicle and receive the reflected radar waves.
  • the left rear radar device 3 and the right rear radar device 4 are also referred to as radar device 3 and radar device 4, respectively.
  • the left rear radar device 3 and the right rear radar device 4 are installed at the left end and the right end of the rear of the vehicle, respectively.
  • the radar devices 3 and 4 employ, for example, the well-known FMCW method, which alternately transmits radar waves in the uplink modulation section and radar waves in the downlink modulation section at a preset modulation period T, and receives the reflected radar waves.
  • the radar devices 3 and 4 detect, for each modulation period T, the distance to the point where the radar wave is reflected (hereinafter, the observation point), the relative speed with respect to the observation point (hereinafter, the observation point relative speed), and the azimuth angle at which the observation point is located (hereinafter, the observation point azimuth angle).
  • the radar devices 3 and 4 also output observation point information indicating the observation point distance, observation point relative speed, and observation point azimuth angle of the detected observation point to the control unit 7.
  • the vehicle speed sensor 5 detects the vehicle's traveling speed v and outputs a vehicle speed detection signal indicative of the detection result.
  • the yaw rate sensor 6 detects the vehicle's yaw rate ⁇ and outputs a yaw rate detection signal indicative of the detection result.
  • the control unit 7 is an electronic control device mainly composed of a microcomputer equipped with a CPU 11, a ROM 12, a RAM 13, etc.
  • the various functions of the microcomputer are realized by the CPU 11 executing a program stored in a non-transitive physical recording medium.
  • the ROM 12 corresponds to the non-transitive physical recording medium storing the program.
  • the execution of this program executes a method corresponding to the program. Note that some or all of the functions executed by the CPU 11 may be configured in hardware using one or more ICs, etc. Furthermore, the number of microcomputers constituting the control unit 7 may be one or more.
  • the control unit 7 executes various processes based on inputs from the radar devices 3, 4, the vehicle speed sensor 5, and the yaw rate sensor 6, and controls the head-up display device 2. Specifically, the control unit 7 determines whether or not a vehicle in the adjacent lanes on the left and right sides of the vehicle is approaching from behind the vehicle based on the detection results of the radar devices 3, 4, the vehicle speed sensor 5, and the yaw rate sensor 6, and if a vehicle is approaching, causes the head-up display device 2 to display a warning image indicating that a vehicle is approaching from behind the vehicle on the left or right side.
  • the left rear radar device 3 is installed on the inside of the bumper at the left rear of the vehicle.
  • the left rear radar device 3 detects surrounding vehicles that are present within the object detection area R1 by transmitting radar waves toward the rear of the vehicle.
  • the right rear radar device 4 is installed on the inside of the bumper at the right rear of the vehicle.
  • the right rear radar device 4 detects surrounding vehicles that are present within the object detection area R2 by transmitting radar waves toward the rear of the vehicle.
  • the left rear radar device 3 is mounted so that the center axis CA1 of the object detection area R1 faces in a direction tilted by an installation angle ⁇ to the rear left side with respect to the width direction Dw of the vehicle.
  • the right rear radar device 4 is mounted so that the center axis CA2 of the object detection area R2 faces in a direction tilted by an installation angle ⁇ to the rear right side with respect to the width direction Dw of the vehicle.
  • object detection region R1 includes a left object detection region R11 that detects objects on the left side of the host vehicle, a rear object detection region R12 that detects objects directly behind the host vehicle, and a right object detection region R13 that detects objects on the right side of the host vehicle.
  • object detection region R2 includes a left object detection region R11, a rear object detection region R12, and a right object detection region R13.
  • the radar devices 3 and 4 are installed inside the bumper, so the radar waves emitted from the radar devices 3 and 4 pass through the bumper and are transmitted to the outside of the vehicle. If the surface of the bumper is curved, the radar waves are refracted by the bumper, causing a deviation in the transmission and reception directions of the radar waves, resulting in an angle error between the azimuth angle at which the object is located and the observation point azimuth angle observed by the radar devices 3 and 4.
  • the left rear radar device 3 detects multiple observation points P1, P2, P3, P4, P5, and P6 caused by the vehicle VH2.
  • Observation point P1 is the position observed when the host vehicle VH1 passes directly beside the stationary vehicle VH2, and it is assumed that the lateral position of observation point P1 is the actual lateral position of the stationary vehicle VH2.
  • the actual lateral position of stationary vehicle VH2 at the time when observation point P6 is observed is determined so that distances r1 and r2 are equal, as shown by position P11, and position P11 is located on dashed line L1.
  • Distance r1 is the distance between observation point P6 and radar device 3.
  • Distance r2 is the distance between position P11 and radar device 3.
  • the difference between the azimuth angle of position P11 and the azimuth angle of observation point P6 is calculated as the angle correction amount.
  • the tilt calculation process is executed every time the modulation period T elapses while the control unit 7 is operating.
  • the CPU 11 of the control unit 7 first acquires observation point information from the radar devices 3 and 4 in S10, as shown in FIG. 5.
  • the CPU 11 acquires a vehicle speed detection signal from the vehicle speed sensor 5 and acquires a yaw rate detection signal from the yaw rate sensor 6.
  • the CPU 11 determines whether the observation point corresponding to the observation point information acquired in S10 is a point where a reflection occurred from a stationary object. Specifically, as shown in FIG. 6, the CPU 11 determines that the observation point is a point where a reflection occurred from a stationary object if the absolute value of (Vr-v ⁇ cos ⁇ ) is close to 0, where Vr is the observation point relative speed, v is the traveling speed of the host vehicle, and ⁇ is the angle between the direction of the straight line connecting the observation point and the radar device 3 or radar device 4 and the traveling direction of the host vehicle.
  • the CPU 11 judges whether or not the radar devices 3 and 4 have detected a stationary object based on the judgment result in S30.
  • the CPU 11 ends the tilt calculation process.
  • the CPU 11 calculates, in S50, the observation angle ⁇ m of the observation point corresponding to the observation point information acquired in S10.
  • the observation angle ⁇ m is an angle in which the left lateral side of the vehicle is set to 0° and the counterclockwise direction is positive.
  • the CPU 11 performs coordinate conversion on the observation point of the stationary object detected by the radar device 4 as if it were data detected by the radar device 3 to calculate the observation angle ⁇ m , and stores the result in the RAM 13.
  • the CPU 11 increments the observation count for the corresponding observation angle (i.e., adds 1) in S60.
  • the observation count for the observation angle is set for each of the radar devices 3 and 4. In this embodiment, the observation count is set for each of the observation angles of 0°, 1°, 2°, 3°, ..., 179°, and 180°.
  • the CPU 11 determines whether the observation point corresponding to the currently acquired observation point information (hereinafter, the current observation point) represents the same object as the observation point corresponding to the previously acquired observation point information (i.e., before the modulation period T) (hereinafter, the previous observation point).
  • the CPU 11 calculates the predicted position and predicted speed of the current observation point corresponding to the previous observation point based on the previously acquired observation point information, and if the difference between the predicted position and predicted speed and the observed position and observed speed of the current observation point are smaller than the preset upper limit position difference and upper limit speed difference, respectively, it determines that the current observation point represents the same object as the previous observation point.
  • the CPU 11 determines in S80 whether the vehicle's traveling speed v exceeds a preset first tilt determination value.
  • the CPU 11 determines in S80 whether the absolute value of the host vehicle's yaw rate ⁇ is less than a preset second tilt judgment value.
  • the CPU 11 ends the tilt calculation process.
  • the CPU 11 calculates the stationary object tilt in S100.
  • the X direction component of the observation position of the previous observation point is defined as xm (t-1)
  • the Y direction component of the observation position of the previous observation point is defined as ym (t-1)
  • the X direction component of the observation position of the current observation point is defined as xm (t)
  • the Y direction component of the observation position of the current observation point is defined as ym (t).
  • Time t is the execution timing of the current tilt calculation process.
  • Time (t-1) is the execution timing of the previous tilt calculation process.
  • the X direction component and the Y direction component of the stationary object movement trajectory added by the turning of the vehicle are defined as ⁇ x and ⁇ y, respectively.
  • the CPU 11 sets the observation angle ⁇ m of the previous observation point as the observation angle ⁇ m (t), and calculates the stationary object tilt at the observation angle ⁇ m (t) using equation (1).
  • the host vehicle travels at a travel speed v and turns at a yaw rate ⁇ between time (t-1) and time t.
  • the host vehicle moves a distance equivalent to v x T along the traveling direction at time (t-1), and moves a distance equivalent to v x ⁇ x T2 /2 along a direction perpendicular to the traveling direction at time (t-1).
  • the host vehicle rotates horizontally by an angle equivalent to ⁇ x T.
  • the radar device 3 is the origin, the vehicle's traveling direction is the X-axis, and the direction perpendicular to the traveling direction is the Y-axis.
  • the radar device 3 is the origin, the vehicle's traveling direction is the X-axis, and the direction perpendicular to the traveling direction is the Y-axis.
  • the radar device 3 is the origin, the vehicle's traveling direction is the X-axis, and the direction perpendicular to the traveling direction is the Y-axis.
  • the radar device 3 is the origin, the vehicle's traveling direction is the X-axis, and the direction perpendicular to the traveling direction is the Y-axis.
  • the radar device 3 is the origin, the vehicle's traveling direction is the X-axis, and the direction perpendicular to the traveling direction is the Y-axis.
  • equations (2) and (3) hold.
  • ⁇ T ⁇ y(t) in equation (2) corresponds to ⁇ x
  • the right-hand side of equation (3) corresponds to ⁇ y.
  • the CPU 11 stores in the RAM 13 the stationary object inclination calculated in S100 in association with the radar device that detected the observation point corresponding to the stationary object inclination (i.e., radar device 3 or radar device 4) and the observation angle ⁇ m (t), and terminates the inclination calculation process.
  • the radar device that detected the observation point corresponding to the stationary object inclination (i.e., radar device 3 or radar device 4) and the observation angle ⁇ m (t), and terminates the inclination calculation process.
  • the angle correction process is executed every time a preset execution period (e.g., one hour) elapses while the control unit 7 is operating.
  • the angle correction process is executed for each of the radar device 3 and the radar device 4.
  • the procedure of the angle correction process performed for the radar device 3 will be described.
  • the angle correction process performed for the radar device 4 has the same procedure as the angle correction process performed for the radar device 3.
  • the CPU 11 of the control unit 7 first calculates the average value of the stationary object tilt for each observation angle in S210 as shown in Fig. 10. Specifically, the CPU 11 calculates the average value of the stationary object tilt for each observation angle for the multiple stationary object tilts stored in the process of S110 from the end of the previous angle correction process to the start of the current angle correction process. For example, when N stationary object tilts at observation angles ⁇ m are stored, the CPU 11 divides the sum of the N stationary object tilts by N to calculate the average value of the stationary object tilt for the observation angle ⁇ m .
  • a graph G1 in Fig. 11 shows the average value of the stationary object tilt for each observation angle for multiple stationary objects observed by the radar device 3.
  • the CPU 11 sets a valid continuous interval in S220. Specifically, the CPU 11 sets the range of observation angles in which the number of observations is equal to or greater than a preset validity determination value (e.g., 500) as the valid continuous interval.
  • Graph G2 in FIG. 11 shows the number of observations for each observation angle for multiple stationary objects observed by the radar device 3.
  • the valid continuous interval AS1 of the radar device 3 is 64° to 88°
  • the valid continuous interval AS2 of the radar device 3 is 94° to 113°.
  • the CPU 11 determines whether the valid continuous section is valid. Specifically, the CPU 11 determines whether the section length of the valid continuous section is equal to or greater than a preset valid continuous judgment value (e.g., 10°), and if the section length is equal to or greater than the valid continuous judgment value, determines that the valid continuous section is valid.
  • a preset valid continuous judgment value e.g. 10°
  • the CPU 11 ends the angle correction process. On the other hand, if the valid continuous section is valid, the CPU 11 executes the angle error calculation process in S240.
  • the angle error calculation process estimates the trajectory of a stationary object located 1 m away from the side of the vehicle in a direction perpendicular to the vehicle's traveling direction when the vehicle is traveling straight ahead.
  • the lateral position of the stationary object is constant at 1 m because the vehicle is moving straight, and the shape of the trajectory is a straight line, as shown by the dashed line L11.
  • the shape of the trajectory is not a straight line, as shown by the solid line L12.
  • the angle error at any angle is calculated by comparing the trajectory predicted from the inclination of the stationary object movement trajectory with the movement trajectory when there is no angle error.
  • the dashed line L11 corresponds to the reference movement trajectory L11 described later.
  • the solid line L12 corresponds to the average movement trajectory L12 described later.
  • the CPU 11 of the control unit 7 When the angle error calculation process is executed, the CPU 11 of the control unit 7 first sets the first angle instruction value n stored in the RAM 13 to 0 in S310, as shown in FIG. 13.
  • the CPU 11 sets the first maximum angle command value K at S320. Specifically, the CPU 11 subtracts the start angle value of the valid continuous interval from the end angle value of the valid continuous interval, and sets the result as the first maximum angle command value K. For example, since the valid continuous interval AS1 is 64° to 88°, the first maximum angle command value K is 24.
  • the CPU 11 sets the radial distance r0 at angle ⁇ 0 of the valid continuous section to (1/cos ⁇ 0 ). That is, in the angle error calculation process, it is assumed that the angle error is 0 up to the start angle of the valid continuous section.
  • the CPU 11 calculates the radial distance r n+1 at the observation angle ⁇ n+1 using the following equation (4):
  • ⁇ in the equation (4) is the average value of the stationary object inclination at the observation angle ⁇ n .
  • equation (4) corresponds to calculating point CP2 where a line extended from previously calculated point CP1 at stationary object tilt ⁇ intersects with a line in the direction of observation angle ⁇ n+1 .
  • the CPU 11 determines in S350 whether the radial distance r_n +1 is longer than the radial distance r_n . If the radial distance r_n +1 is equal to or shorter than the radial distance r_n , the CPU 11 ends the angle error calculation process.
  • the CPU 11 calculates the angle error in S360. Specifically, the CPU 11 calculates a true angle estimate ⁇ true using equation (5), and further calculates the angle error by subtracting the true angle estimate ⁇ true from the observed angle ⁇ n+1 . The CPU 11 then stores the calculated angle error in the RAM 13 in association with the observed angle.
  • the CPU 11 increments the first angle command value n at S370.
  • the CPU 11 determines whether the first angle command value n is equal to or greater than the first maximum angle command value K. If the first angle command value n is less than the first maximum angle command value K, the CPU 11 proceeds to S340. On the other hand, if the first angle command value n is equal to or greater than the first maximum angle command value K, the CPU 11 ends the angle error calculation process.
  • FIG. 13 shows the procedure for calculating the angle error in one valid continuous section.
  • the CPU 11 calculates the angle error by executing the processes of S310 to S380 for each of the valid continuous sections AS1 and AS2.
  • the CPU 11 calculates the angle error at the observation angle between the valid continuous interval AS1 and the valid continuous interval AS2 by interpolation in S250. Specifically, the CPU 11 calculates the angle error by interpolating the angle error at the maximum observation angle in the valid continuous interval AS1 and the angle error at the minimum observation angle in the valid continuous interval AS2 by drawing a straight line between them.
  • the CPU 11 calculates the angle errors at observation angles of 89°, 90°, 91°, 92°, and 93° by drawing a straight line between the angle error AE1 at the maximum observation angle (i.e., 88°) within the valid continuous interval AS1 and the angle error AE2 at the minimum observation angle (i.e., 94°) within the valid continuous interval AS2.
  • the CPU 11 creates an angle error table in S260 and ends the angle correction process. Specifically, the CPU 11 first converts the observation angle into an angle centered on the central axis CA1 of the radar device 3 (hereinafter, radar observation angle). In the process of S260 in the angle correction process performed on the radar device 4, the CPU 11 converts the observation angle into an angle centered on the central axis CA2 of the radar device 4 (hereinafter, radar observation angle).
  • FIG. 16 shows the radar observation angle ⁇ radar centered on the central axis CA2 of the radar device 4.
  • the observation angle within the effective continuous section of the radar device 3 is converted into an angle centered on the central axis CA1 of the radar device 3, and the observation angle within the effective continuous section of the radar device 4 is converted into an angle centered on the central axis CA2 of the radar device 4.
  • the CPU 11 then creates an angle error table by setting the corresponding angle error for each of the multiple radar observation angles.
  • FIG. 17 is a graph showing the relationship between the radar observation angle and the angle error in the radar device 3.
  • the solid line in the graph of FIG. 17 shows the angle error calculated by the angle error calculation process.
  • the dashed line in the graph of FIG. 17 shows the true value of the angle error.
  • the vehicle information provision process is a process that is repeatedly executed while the control unit 7 is operating.
  • the CPU 11 of the control unit 7 first determines in S510 whether new observation point information has been acquired from the radar devices 3 and 4, as shown in FIG. 18. If the observation point information has not been acquired, the CPU 11 ends the vehicle information provision process. On the other hand, if the observation point information has been acquired, the CPU 11 corrects in S520 the observation point azimuth angle indicated by the observation point information acquired in S510 based on the angle error table created in S260. That is, the CPU 11 identifies the radar observation angle corresponding to the observation point azimuth angle, and extracts the angle error corresponding to this radar observation angle from the angle error table. The CPU 11 then corrects the observation point azimuth angle by adding the extracted angle error to the radar observation angle corresponding to the observation point azimuth angle.
  • the CPU 11 determines whether vehicles in adjacent lanes on the left and right sides of the vehicle are approaching from behind the vehicle based on the observation point information acquired in S510, the observation point orientation corrected in S520, and the detection results of the vehicle speed sensor 5 and yaw rate sensor 6.
  • the CPU 11 displays a warning image on the head-up display device 2 indicating that a vehicle is approaching from the left or right side of the vehicle, at S540, and ends the vehicle information provision process.
  • the control unit 7 of the vehicle information providing device 1 configured in this manner estimates the angle error, which is the error in the azimuth angle detected by the radar devices 3 and 4 mounted on the vehicle VH1.
  • the control unit 7 acquires observation point information including at least the observation point distance and observation point azimuth angle indicating the position of an object present near the vehicle VH1 from the radar devices 3 and 4, which include the sides of the vehicle VH1 as object detection areas R1 and R2.
  • the control unit 7 acquires a vehicle speed detection signal and a yaw rate detection signal to identify the movement trajectory of the host vehicle VH1.
  • the control unit 7 detects stationary objects, which are objects that are stationary to the side of the vehicle VH1, based on the observation point information.
  • the control unit 7 calculates, for each of the detected stationary objects, the stationary object inclination, which indicates the direction of movement of the stationary object as seen from the vehicle VH1, assuming that the vehicle VH1 is moving straight, for each observation angle at which the radar devices 3 and 4 observe the stationary object, based on the observation point information, the vehicle speed detection signal, and the yaw rate detection signal.
  • the control unit 7 classifies the calculated multiple stationary object inclinations into multiple observation angles, and calculates the average value of the multiple stationary object inclinations classified by observation angle (hereinafter, the average inclination value) for each observation angle.
  • the control unit 7 calculates the angle error for each observation angle based on a movement trajectory L12 (hereinafter, average movement trajectory L12) calculated based on multiple average inclination values calculated for each observation angle, and a reference movement trajectory L11 set as the movement trajectory of a stationary object when there is no angle error.
  • a movement trajectory L12 hereinafter, average movement trajectory L12
  • control unit 7 Since the control unit 7 calculates the angle error for each observation angle based on the average movement trajectory L12 and the reference movement trajectory L11, the control unit 7 can suppress the decrease in the accuracy of the estimation of the angle error when the vehicle VH1 moves away from a stationary object, compared to the case where the angle error is calculated based on the change in speed in response to the change in the observation angle. This allows the control unit 7 to improve the accuracy of the estimation of the angle error of the radar devices 3 and 4.
  • the control unit 7 also determines that the average tilt value of the observation angles is valid when the number of multiple stationary object tilts classified by the observation angles (i.e., the number of observations) is equal to or greater than a preset validity judgment value for each of the multiple observation angles, and sets a valid continuous section in which the observation angles for which the average tilt value is valid are continuous. If the section length of the valid continuous section is equal to or greater than a preset validity judgment value, the control unit 7 further calculates an average movement trajectory L12 based on the average tilt values of the multiple observation angles in the valid continuous section, and calculates an angle error for each of the multiple observation angles in the valid continuous section.
  • control unit 7 calculates the angle error by excluding the average tilt value with a small number of observations, it is possible to suppress a decrease in the accuracy of estimating the angle error.
  • the control unit 7 also prohibits the calculation of the stationary object inclination when the traveling speed v of the host vehicle VH1 is equal to or lower than a preset first inclination judgment value. This allows the control unit 7 to suppress the calculation of the angle error using a stationary object inclination with a large error, and suppresses a decrease in the estimation accuracy of the angle error. This is because when the traveling speed v is low, the length of the movement trajectory of the stationary object becomes short, and the error in the stationary object inclination becomes large.
  • the control unit 7 also prohibits the calculation of the stationary object inclination when the absolute value of the yaw rate ⁇ of the host vehicle VH1 is equal to or greater than a second inclination judgment value set in advance. This allows the control unit 7 to suppress the calculation of the angle error using a stationary object inclination with a large error, and suppresses a decrease in the estimation accuracy of the angle error. This is because when the yaw rate ⁇ is large, it becomes difficult to accurately cancel the movement trajectory caused by the turning of the host vehicle VH1.
  • the object detection region R1 of the radar device 3 also includes a left object detection region R11 that detects stationary objects on the left side of the host vehicle VH1, and a right object detection region R13 that detects stationary objects on the right side of the host vehicle VH1.
  • the control unit 7 calculates the angle error for each observation angle corresponding to the left object detection region R11 of the radar devices 3 and 4 (i.e., the observation angle within the effective continuous section AS1). The control unit 7 also calculates the angle error for each observation angle corresponding to the right object detection region R13 of the radar devices 3 and 4 (i.e., the observation angle within the effective continuous section AS2). The control unit 7 calculates the angle error of the observation angle between the observation angle corresponding to the left object detection region R11 and the observation angle corresponding to the right object detection region R13 by interpolation using the angle error of the observation angle corresponding to the left object detection region R11 and the angle error of the observation angle corresponding to the right object detection region R13. This allows the control unit 7 to estimate the angle error in an angle range that includes the observation angle corresponding to directly behind the host vehicle VH1.
  • the control unit 7 also corrects the observation point azimuth angle detected by the radar devices 3 and 4 using the angle error. This allows the control unit 7 to improve the position detection accuracy of the radar devices 3 and 4.
  • control unit 7 corresponds to an angle error estimation device
  • the host vehicle VH1 corresponds to a moving body
  • S10 corresponds to processing as the first information acquisition unit
  • the observation point distance and observation point azimuth angle correspond to position information
  • the observation point information corresponds to object detection information.
  • S20 corresponds to processing as a second information acquisition unit
  • the vehicle speed detection signal and the yaw rate detection signal correspond to movement trajectory information
  • S30 corresponds to processing as a stationary object detection unit
  • S100 corresponds to processing as a movement direction calculation unit
  • the stationary object inclination corresponds to a movement direction indication value.
  • S210 corresponds to the processing performed by the average calculation unit
  • the average tilt value corresponds to the average movement direction value
  • S220 to S240 correspond to the processing performed by the angle error calculation unit.
  • S80 corresponds to processing as a speed prohibition unit
  • the first slope judgment value corresponds to a speed prohibition judgment value
  • S90 corresponds to processing as a yaw rate prohibition unit
  • the second slope judgment value corresponds to a yaw rate prohibition judgment value
  • radar device 3 corresponds to the left radar device
  • radar device 4 corresponds to the right radar device
  • S250 corresponds to the processing as an interpolation calculation unit
  • S520 corresponds to the processing as an angle correction unit.
  • the second embodiment of the vehicle information providing device 1 differs from the first embodiment in that the angle correction process has been changed.
  • the CPU 11 of the control unit 7 first calculates the average value of the stationary object inclination for each observation angle in S710, as in S210, as shown in FIG. 19.
  • step S720 the CPU 11 sets the second angle instruction value q stored in the RAM 13 to 0.
  • the CPU 11 sets the radial distance r0 at the angle ⁇ 0 to (1/cos ⁇ 0 ).
  • the observation angles ⁇ 0 , ⁇ 1 , ⁇ 2 , ..., ⁇ 179 , and ⁇ 180 correspond to 0°, 1°, 2°, ..., 179°, and 180°, respectively.
  • the CPU 11 determines whether the number of observations at the observation angle ⁇ q +1 is equal to or greater than a preset validity determination value (e.g., 500). If the number of observations at the observation angle ⁇ q +1 is less than the validity determination value, in S750, the CPU 11 sets the radial distance rq +1 at the observation angle ⁇ q +1 to (1/cos ⁇ q +1 ) and proceeds to S790. That is, the CPU 11 sets the angle error at the observation angle ⁇ q +1 to 0.
  • a preset validity determination value e.g. 500
  • the CPU 11 calculates, in S760, the radial distance r q+1 at the observation angle ⁇ q+ 1 using equation (4), in the same manner as in S340.
  • the CPU 11 determines whether or not the radial distance rq +1 is longer than the radial distance rq , in the same manner as in S350. If the radial distance rq +1 is equal to or less than the radial distance rq , the CPU 11 proceeds to S790.
  • the CPU 11 calculates the angle error in S780 in the same manner as in S360, and then proceeds to S790.
  • the CPU 11 determines whether the second angle command value q is equal to or greater than the second maximum angle command value J (e.g., 180). If the second angle command value q is less than the second maximum angle command value J, the CPU 11 proceeds to S740. On the other hand, if the second angle command value q is equal to or greater than the second maximum angle command value J, the CPU 11 creates an angle error table in S810 in the same manner as in S260, and ends the angle correction process.
  • the second maximum angle command value J e.g. 180
  • the control unit 7 of the vehicle information providing device 1 configured in this manner calculates the average movement trajectory L12 by determining that the average tilt value of the observation angles is valid when the number of multiple stationary object tilts classified by the observation angles (i.e., the number of observations) is equal to or greater than a preset validity judgment value for each of the multiple observation angles, and calculates the angle error corresponding to the observation angle. Since such a control unit 7 calculates the angle error by excluding the average tilt values with a small number of observations, it is possible to suppress a decrease in the estimation accuracy of the angle error.
  • S710 corresponds to the processing performed by the average calculation unit
  • the average tilt value corresponds to the average movement direction value
  • S720 to S800 correspond to the processing performed by the angle error calculation unit.
  • control unit 7 and the method described in the present disclosure may be realized by a dedicated computer provided by configuring a processor and memory programmed to execute one or more functions embodied in a computer program.
  • control unit 7 and the method described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits.
  • control unit 7 and the method described in the present disclosure may be realized by one or more dedicated computers configured by combining a processor and memory programmed to execute one or more functions with a processor configured with one or more hardware logic circuits.
  • the computer program may be stored in a computer-readable non-transient tangible recording medium as instructions executed by a computer. The method for realizing the functions of each unit included in the control unit 7 does not necessarily need to include software, and all of the functions may be realized using one or more hardware.
  • Multiple functions possessed by one component in the above embodiments may be realized by multiple components, or one function possessed by one component may be realized by multiple components. Furthermore, multiple functions possessed by multiple components may be realized by one component, or one function realized by multiple components may be realized by one component. Furthermore, part of the configuration of the above embodiments may be omitted. Furthermore, at least part of the configuration of the above embodiments may be added to or substituted for the configuration of the other above embodiments.
  • control unit 7 In addition to the control unit 7 described above, the present disclosure can also be realized in various forms, such as a system including the control unit 7 as a component, a program for causing a computer to function as the control unit 7, a non-transient physical recording medium such as a semiconductor memory on which this program is recorded, and an angle error estimation method.
  • An angle error estimation device (7) that estimates an angle error, which is an error in an azimuth angle detected by at least one radar device (3, 4) mounted on a moving body (VH1), comprising: A first information acquisition unit (S10) configured to acquire object detection information including at least position information indicating a position of an object present near the moving body from the at least one radar device including a side of the moving body as an object detection area; A second information acquisition unit (S20) configured to acquire movement trajectory information for identifying a movement trajectory of the moving object; a stationary object detection unit (S30) configured to detect a stationary object that is an object that is stationary on the side of the moving body based on the object detection information; a movement direction calculation unit (S100) configured to calculate, for each of the plurality of stationary objects detected by the stationary object detection unit, a movement direction indication value indicating a movement direction of the stationary object as viewed from the moving object on the assumption that the moving object is moving straight, for each observation angle at which the at which the at
  • Item 1 is an angle error estimating device
  • the angle error calculation unit (S720 to S800) calculates the average movement trajectory by determining that the movement direction average value of the observation angles is valid when the number of the plurality of movement direction indication values classified by the observation angles is equal to or greater than a predetermined validity determination value for each of the plurality of observation angles, and calculates the angle error corresponding to the observation angles.
  • the angle error estimating device determines that the moving direction average value of the observation angles is valid when the number of the multiple moving direction indication values classified by the observation angles is equal to or greater than a predetermined validity judgment value for each of the multiple observation angles, and sets a valid continuous section in which the observation angles in which the moving direction average value is valid are continuous, and further calculates the average moving trajectory based on the moving direction average value of the multiple observation angles in the valid continuous section when the section length of the valid continuous section is equal to or greater than a predetermined valid continuous judgment value, and calculates the angle error for each of the multiple observation angles in the valid continuous section.
  • An angle error estimating device according to any one of items 1 to 3, An angle error estimation device comprising: a speed prohibition unit (S80) configured to prohibit the movement direction calculation unit from calculating the movement direction instruction value when the traveling speed of the moving body is equal to or lower than a preset speed prohibition judgment value.
  • a speed prohibition unit S80 configured to prohibit the movement direction calculation unit from calculating the movement direction instruction value when the traveling speed of the moving body is equal to or lower than a preset speed prohibition judgment value.
  • An angle error estimating device according to any one of items 1 to 4, An angle error estimation device comprising a yaw rate prohibition unit (S90) configured to prohibit the movement direction calculation unit from calculating the movement direction instruction value when the absolute value of the yaw rate of the moving body is equal to or greater than a predetermined yaw rate prohibition judgment value.
  • a yaw rate prohibition unit S90 configured to prohibit the movement direction calculation unit from calculating the movement direction instruction value when the absolute value of the yaw rate of the moving body is equal to or greater than a predetermined yaw rate prohibition judgment value.
  • the object detection area of the at least one radar device includes a left object detection area that detects the stationary object on the left side of the moving body, and a right object detection area that detects the stationary object on the right side of the moving body, the angular error calculation unit calculates the angular error for each of the observation angles corresponding to the left object detection area, and calculates the angular error for each of the observation angles corresponding to the right object detection area; an interpolation calculation unit (S250) configured to calculate the angular error of the observation angle between the observation angle corresponding to the left object detection area and the observation angle corresponding to the right object detection area by interpolation using the angular error of the observation angle corresponding to the left object detection area and the angular error of the observation angle corresponding to the right object detection area.
  • S250 interpolation calculation unit
  • An angle error estimating device according to any one of claims 1 to 6, An angle error estimation device comprising an angle correction unit (S520) configured to correct the azimuth angle detected by the at least one radar device using the angle error.
  • S520 angle correction unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

角度誤差推定装置(7)は、検出された複数の静止物のそれぞれについて、物体検出情報および移動軌跡情報に基づいて、レーダ装置(3,4)が静止物を観測した観測角度ごとに、移動体(VH1)が直進していると仮定した場合において移動体から見た静止物の移動方向を示す移動方向指示値を算出する。角度誤差推定装置は、複数の移動方向指示値を、複数の観測角度ごとに分類し、観測角度ごとに、観測角度で分類された複数の移動方向指示値の平均値を移動方向平均値として算出する。角度誤差推定装置は、観測角度ごとに複数の移動方向平均値に基づいて算出される平均移動軌跡と、角度誤差がない場合における静止物の移動軌跡として設定された基準移動軌跡とに基づいて、観測角度ごとに角度誤差を算出する。

Description

角度誤差推定装置および角度誤差推定方法 関連出願の相互参照
 本国際出願は、2022年10月11日に日本国特許庁に出願された日本国特許出願第2022-163258号に基づく優先権を主張するものであり、日本国特許出願第2022-163258号の全内容を参照により本国際出願に援用する。
 本開示は、レーダ装置の角度誤差を推定する角度誤差推定装置および角度誤差推定方法に関する。
 特許文献1には、車両が走行しているときに、車両に搭載されているレーダ装置が、車両の付近に存在する静止物の水平角度および相対速度を観測し、理想曲線からのずれを水平角度の誤差として、複数の水平角度ごとに角度誤差を推定する技術が記載されている。
米国特許出願公開第2015/0070207号明細書

 発明者の詳細な検討の結果、特許文献1に記載の技術では、車両が静止物の側方を通過して車両が静止物から遠ざかるほど、水平角度の変化に対する速度変化が小さくなり、角度誤差の推定精度が低下するという課題が見出された。
 本開示は、レーダ装置の角度誤差の推定精度を向上させる。

 本開示の一態様は、移動体に搭載された少なくとも1つのレーダ装置が検出する方位角度の誤差である角度誤差を推定する角度誤差推定装置である。
 本開示の角度誤差推定装置は、第1情報取得部と、第2情報取得部と、静止物検出部と、移動方向算出部と、平均算出部と、角度誤差算出部とを備える。
 第1情報取得部は、移動体の側方を物体検出領域として含む少なくとも1つのレーダ装置から、移動体の付近に存在する物体の位置を示す位置情報を少なくとも含む物体検出情報を取得するように構成される。
 第2情報取得部は、移動体の移動軌跡を特定するための移動軌跡情報を取得するように構成される。
 静止物検出部は、物体検出情報に基づいて、移動体の側方において静止している物体である静止物を検出するように構成される。
 移動方向算出部は、静止物検出部により検出された複数の静止物のそれぞれについて、物体検出情報および移動軌跡情報に基づいて、少なくとも1つのレーダ装置が静止物を観測した観測角度ごとに、移動体が直進していると仮定した場合において移動体から見た静止物の移動方向を示す移動方向指示値を算出するように構成される。
 平均算出部は、移動方向算出部により算出された複数の移動方向指示値を、複数の観測角度ごとに分類し、観測角度ごとに、観測角度で分類された複数の移動方向指示値の平均値を移動方向平均値として算出するように構成される。
 角度誤差算出部は、観測角度ごとに算出された複数の移動方向平均値に基づいて算出される移動軌跡である平均移動軌跡と、角度誤差がない場合における静止物の移動軌跡として設定された基準移動軌跡とに基づいて、観測角度ごとに角度誤差を算出するように構成される。
 このように構成された本開示の角度誤差推定装置は、上記の平均移動軌跡と上記の基準移動軌跡とに基づいて観測角度ごとに角度誤差を算出するため、観測角度の変化に対する速度変化に基づいて角度誤差を算出する場合よりも、車両が静止物から遠ざかる場合における角度誤差の推定精度の低下を抑制することができる。これにより、本開示の角度誤差推定装置は、レーダ装置の角度誤差の推定精度を向上させることができる。
 本開示の別の態様は、移動体に搭載された少なくとも1つのレーダ装置が検出する方位角度の誤差である角度誤差を推定する角度誤差推定装置が実行する角度誤差推定方法である。
 本開示の角度誤差推定方法では、角度誤差推定装置が、移動体の側方を物体検出領域として含む少なくとも1つのレーダ装置から、移動体の付近に存在する物体の位置を示す位置情報を少なくとも含む物体検出情報を取得する。
 本開示の角度誤差推定方法では、角度誤差推定装置が、移動体の移動軌跡を特定するための移動軌跡情報を取得する。
 本開示の角度誤差推定方法では、角度誤差推定装置が、物体検出情報に基づいて、移動体の側方において静止している物体である静止物を検出する。
 本開示の角度誤差推定方法では、角度誤差推定装置が、検出された複数の静止物のそれぞれについて、物体検出情報および移動軌跡情報に基づいて、少なくとも1つのレーダ装置が静止物を観測した観測角度ごとに、移動体が直進していると仮定した場合において移動体から見た静止物の移動方向を示す移動方向指示値を算出する。
 本開示の角度誤差推定方法では、角度誤差推定装置が、算出された複数の移動方向指示値を、複数の観測角度ごとに分類し、観測角度ごとに、観測角度で分類された複数の移動方向指示値の平均値を移動方向平均値として算出する。
 本開示の角度誤差推定方法では、角度誤差推定装置が、観測角度ごとに算出された複数の移動方向平均値に基づいて算出される移動軌跡である平均移動軌跡と、角度誤差がない場合における静止物の移動軌跡として設定された基準移動軌跡とに基づいて、観測角度ごとに角度誤差を算出する。
 本開示の角度誤差推定方法は、本開示の角度誤差推定装置にて実行される方法であり、当該方法を実行することで、本開示の角度誤差推定装置と同様の効果を得ることができる。
車両用情報提供装置の構成を示すブロック図である。 レーダ装置の設置位置および物体検出領域を示す図である。 左側物体検出領域、後側物体検出領域および右側物体検出領域を示す図である。 角度補正量を算出する原理を説明する図である。 傾き算出処理を示すフローチャートである。 静止物であるか否かを判断する方法を説明する図である。 静止物傾きを算出する方法を説明する図である。 観測角度の座標変換を説明する図である。 旋回によって加わる静止物移動軌跡の成分を説明する図である。 第1実施形態の角度補正処理を示すフローチャートである。 観測角度毎に静止物傾きの平均値を示すグラフ、および、観測角度毎に観測数を示すグラフである。 角度誤差算出処理の基本原理を説明する図である。 角度誤差算出処理を示すフローチャートである。 半径距離を算出する方法を説明する図である。 観測角度毎に角度誤差を示すグラフである。 レーダ観測角度を示す図である。 レーダ観測角度と角度誤差との関係を示すグラフである。 車両用情報提供処理を示すフローチャートである。 第2実施形態の角度補正処理を示すフローチャートである。
 [第1実施形態]
 以下に本開示の第1実施形態を図面とともに説明する。
 本実施形態の車両用情報提供装置1は、車両に搭載され、図1に示すように、ヘッドアップディスプレイ装置2、左後方レーダ装置3、右後方レーダ装置4、車速センサ5、ヨーレートセンサ6および制御部7を備えている。以下、車両用情報提供装置1を搭載している車両を自車両という。
 ヘッドアップディスプレイ装置2は、画像を表示するための表示光を、ウインドシールドの下方からウインドシールドに向けて照射する。これにより、運転者は、その投影された虚像を車両前方の実際の風景に重ねて視認することができる。
 左後方レーダ装置3および右後方レーダ装置4は、レーダ波を自車両の周囲に向けて送信し、反射したレーダ波を受信する。以下、左後方レーダ装置3および右後方レーダ装置4をそれぞれ、レーダ装置3およびレーダ装置4ともいう。左後方レーダ装置3および右後方レーダ装置4はそれぞれ、自車両の後方の左端および自車両の後方の右端に設置される。
 レーダ装置3,4は、例えば周知のFMCW方式を採用しており、上り変調区間のレーダ波と下り変調区間のレーダ波を予め設定された変調周期Tで交互に送信し、反射したレーダ波を受信する。これにより、レーダ装置3,4は、変調周期T毎に、レーダ波を反射した地点(以下、観測点)までの距離(以下、観測点距離)と、観測点との相対速度(以下、観測点相対速度)と、観測点が存在する方位角度(以下、観測点方位角度)とを検出する。またレーダ装置3,4は、検出した観測点の観測点距離と観測点相対速度と観測点方位角度とを示す観測点情報を制御部7へ出力する。
 車速センサ5は、自車両の走行速度vを検出し、検出結果を示す車速検出信号を出力する。ヨーレートセンサ6は、自車両のヨーレートωを検出し、検出結果を示すヨーレート検出信号を出力する。
 制御部7は、CPU11、ROM12およびRAM13等を備えたマイクロコンピュータを中心に構成された電子制御装置である。マイクロコンピュータの各種機能は、CPU11が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、ROM12が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、CPU11が実行する機能の一部または全部を、一つあるいは複数のIC等によりハードウェア的に構成してもよい。また、制御部7を構成するマイクロコンピュータの数は1つでも複数でもよい。
 制御部7は、レーダ装置3,4、車速センサ5およびヨーレートセンサ6からの入力に基づいて各種処理を実行し、ヘッドアップディスプレイ装置2を制御する。具体的には、制御部7は、レーダ装置3,4、車速センサ5およびヨーレートセンサ6の検出結果に基づいて、自車両の左側および右側の隣接車線に存在する車両が自車両の後方から接近しているか否かを判断し、車両が接近している場合に、左側または右側の後方から車両が接近している旨を示す警告画像をヘッドアップディスプレイ装置2に表示させる。
 図2に示すように、左後方レーダ装置3は、自車両の左後方においてバンパの内側に設置される。左後方レーダ装置3は、自車両の後方に向けてレーダ波を送信することにより、物体検出領域R1内に存在する周辺車両を検出する。
 右後方レーダ装置4は、自車両の右後方においてバンパの内側に設置される。右後方レーダ装置4は、自車両の後方に向けてレーダ波を送信することにより、物体検出領域R2内に存在する周辺車両を検出する。
 左後方レーダ装置3は、物体検出領域R1の中心軸CA1が、自車両の幅方向Dwに対して後方の左側に取付角度φ傾いた方向を向くように取り付けられている。右後方レーダ装置4は、物体検出領域R2の中心軸CA2が、自車両の幅方向Dwに対して後方の右側に取付角度φ傾いた方向を向くように取り付けられている。
 図3に示すように、物体検出領域R1は、自車両の左側方における物体を検出する左側物体検出領域R11と、自車両の真後ろにおける物体を検出する後側物体検出領域R12と、自車両の右側方における物体を検出する右側物体検出領域R13とを含む。物体検出領域R2は、物体検出領域R1と同様に、左側物体検出領域R11と、後側物体検出領域R12と、右側物体検出領域R13とを含む。
 まず、レーダ装置3,4において角度誤差を算出する原理を説明する。
 レーダ装置3,4は、上述のように、バンパの内側に設置されているため、レーダ装置3,4から照射されるレーダ波はバンパを透過して車両の外部へ送信される。バンパの表面が曲面である場合には、レーダ波がバンパで屈折するため、レーダ波の送信方向および受信方向がずれてしまい、物体が存在する方位角度と、レーダ装置3,4が観測する観測点方位角度との間に角度誤差が生じる。
 図4に示すように、直進している自車両VH1が、静止している車両VH2(以下、静止車両VH2)の右側を通過するとする。この場合に、静止車両VH2の移動軌跡は、破線L1で示すように、直線となる。
 そして左後方レーダ装置3は、時間経過に伴い、車両VH2に起因した複数の観測点P1,P2,P3,P4,P5,P6を検出したとする。
 角度誤差が生じている場合には、自車両VH1が静止車両VH2から遠ざかるにつれて、左後方レーダ装置3により観測される静止車両VH2の観測点の横位置と、静止車両VH2の実際の横位置との差が大きくなる。
 観測点P1は、自車両VH1が静止車両VH2の真横を通過したときに観測された位置であり、観測点P1の横位置が、静止車両VH2の実際の横位置であると仮定する。
 上記のように仮定すると、観測点P6を観測した時点における静止車両VH2の実際の横位置は、位置P11で示すように、距離r1と距離r2とが等しく、且つ、位置P11が破線L1上に位置するように決定される。距離r1は、観測点P6とレーダ装置3との間の距離である。距離r2は、位置P11とレーダ装置3との間の距離である。
 これにより、位置P11の方位角度と観測点P6の方位角度との差分が、角度補正量として算出される。
 次に、制御部7が実行する傾き算出処理の手順を説明する。傾き算出処理は、制御部7の動作中において変調周期Tが経過する毎に実行される処理である。
 傾き算出処理が実行されると、制御部7のCPU11は、図5に示すように、まずS10にて、レーダ装置3,4から観測点情報を取得する。
 CPU11は、S20にて、車速センサ5から車速検出信号を取得し、ヨーレートセンサ6からヨーレート検出信号を取得する。
 CPU11は、S30にて、S10で取得した観測点情報に対応する観測点が静止物で反射した地点であるか否かを判断する。具体的には、CPU11は、図6に示すように、観測点相対速度をVrとし、自車両の走行速度をvとし、観測点とレーダ装置3またはレーダ装置4とを結ぶ直線の方向と自車両の進行方向とでなす角度をΘとして、(Vr-v×cosΘ)の絶対値が0付近である場合に、観測点が静止物で反射した地点であると判断する。
 図5に示すように、CPU11は、S40にて、S30での判断結果に基づいて、レーダ装置3,4が静止物を検出したか否かを判断する。ここで、静止物を検出していない場合には、CPU11は、傾き算出処理を終了する。一方、静止物を検出した場合には、CPU11は、S50にて、S10で取得した観測点情報に対応する観測点の観測角度θを算出する。図7に示すように、観測角度θは、自車両の左真横を0°とし、反時計回りを正とする角度である。なお、CPU11は、関数共通化のために、図8に示すように、レーダ装置4が検出した静止物の観測点について、レーダ装置3で検出したデータであるかのように座標変換を実行して観測角度θを算出し、RAM13に記憶する。
 図5に示すように、CPU11は、S60にて、該当する観測角度の観測数をインクリメント(すなわち、1加算)する。なお、観測角度の観測数は、レーダ装置3,4それぞれに対して設けられている。本実施形態の観測数は、0°,1°,2°,3°,・・・・・,179°,180°の観測角度毎に設定されている。
 CPU11は、S70にて、今回取得した観測点情報に対応する観測点(以下、今回観測点)が、前回(すなわち、変調周期T前に)取得した観測点情報に対応する観測点(以下、前回観測点)と同一の物体を表すものであるか否かを判断する。
 具体的には、CPU11は、前回取得した観測点情報に基づいて、前回観測点に対応する今回観測点の予測位置および予測速度を算出し、その予測位置および予測速度と、今回観測点の観測位置および観測速度との差分がそれぞれ予め設定された上限位置差および上限速度差より小さい場合には、今回観測点が前回観測点と同一の物体を表すものであると判断する。
 ここで、今回観測点が前回観測点と同一の物体を表すものではない場合には、CPU11は、傾き算出処理を終了する。一方、今回観測点が前回観測点と同一の物体を表すものである場合には、CPU11は、S80にて、自車両の走行速度vが予め設定された第1傾き判定値を超えているか否かを判断する。
 ここで、自車両の走行速度vが第1傾き判定値以下である場合には、CPU11は、傾き算出処理を終了する。一方、自車両の走行速度vが第1傾き判定値を超えている場合には、CPU11は、S80にて、自車両のヨーレートωの絶対値が予め設定された第2傾き判定値未満であるか否かを判断する。ここで、自車両のヨーレートωの絶対値が第2傾き判定値以上場合には、CPU11は、傾き算出処理を終了する。
 一方、自車両のヨーレートωの絶対値が第2傾き判定値未満である場合には、CPU11は、S100にて、静止物傾きを算出する。
 図7に示すように、レーダ装置3を原点とし、自車両の進行方向をX軸とし、進行方向に対して垂直な方向をY軸とする座標系において、前回観測点の観測位置のX方向成分をx(t―1)、前回観測点の観測位置のY方向成分をy(t―1)、今回観測点の観測位置のX方向成分をx(t)、今回観測点の観測位置のY方向成分をy(t)とする。時刻tは、今回の傾き算出処理の実行タイミングである。時刻(t―1)は、前回の傾き算出処理の実行タイミングである。また、自車両が旋回することによって加わる静止物移動軌跡のX方向成分およびY方向成分をそれぞれ、ΔxおよびΔyとする。
 この場合に、CPU11は、前回観測点の観測角度θを観測角度θ(t)として、観測角度θ(t)における静止物傾きを式(1)で算出する。
Figure JPOXMLDOC01-appb-M000001
 
 図9に示すように、自車両が、時刻(t―1)と時刻tとの間において、走行速度vで走行し、ヨーレートωで旋回したとする。この場合に、自車両は、時刻(t―1)における進行方向に沿って、v×Tに相当する距離を移動し、時刻(t―1)における進行方向に対して垂直な方向に沿って、v×ω×T/2に相当する距離を移動する。さらに自車両は、ω×Tに相当する角度だけ水平方向に回転する。
 時刻(t―1)において、レーダ装置3を原点とし、自車両の進行方向をX軸とし、進行方向に対して垂直な方向をY軸とする座標系を座標系CS1とする。時刻tにおいて、レーダ装置3を原点とし、自車両の進行方向をX軸とし、進行方向に対して垂直な方向をY軸とする座標系を座標系CS2とする。
 座標系CS1における静止物の位置のX方向成分およびY方向成分をそれぞれ、x(t―1)およびy(t―1)とし、座標系CS2における静止物の位置のX方向成分およびY方向成分をそれぞれ、x(t)およびy(t)とすると、式(2)および式(3)が成立する。式(2)におけるω×T×y(t)がΔxに相当し、式(3)における右辺がΔyに相当する。
Figure JPOXMLDOC01-appb-M000002
 
 図5に示すように、CPU11は、S110にて、S100で算出した静止物傾きを、静止物傾きに対応する観測点を検出したレーダ装置(すなわち、レーダ装置3またはレーダ装置4)と、観測角度θ(t)とに対応付けて、RAM13に記憶し、傾き算出処理を終了する。
 次に、制御部7が実行する角度補正処理の手順を説明する。角度補正処理は、制御部7の動作中において、予め設定された実行周期(例えば、1時間)が経過する毎に実行される処理である。なお、角度補正処理は、レーダ装置3およびレーダ装置4のそれぞれに対して実行される。以下では、レーダ装置3に対して行われる角度補正処理の手順を説明する。レーダ装置4に対して行われる角度補正処理は、レーダ装置3に対して行われる角度補正処理と同様の手順を備える。
 角度補正処理が実行されると、制御部7のCPU11は、図10に示すように、まずS210にて、観測角度毎に静止物傾きの平均値を算出する。具体的には、CPU11は、前回の角度補正処理が終了してから、今回の角度補正処理が開始されるまでの間において、S110の処理で記憶された複数の静止物傾きについて、観測角度毎に静止物傾きの平均値を算出する。例えば、観測角度θの静止物傾きがN個記憶されている場合には、CPU11は、N個の静止物傾きの総和をNで除算した除算値を、観測角度θの静止物傾きの平均値として算出する。図11のグラフG1は、レーダ装置3が観測した複数の静止物について観測角度毎に静止物傾きの平均値を示している。
 図10に示すように、CPU11は、S220にて、有効連続区間を設定する。具体的には、CPU11は、観測数が予め設定された有効判定値(例えば、500)以上となる観測角度の範囲を有効連続区間として設定する。図11のグラフG2は、レーダ装置3が観測した複数の静止物について観測角度毎に観測数を示している。グラフG2では、レーダ装置3の有効連続区間AS1は64°~88°であり、レーダ装置3の有効連続区間AS2は94°~113°である。
 図10に示すように、CPU11は、S230にて、有効連続区間が有効であるか否かを判断する。具体的には、CPU11は、有効連続区間の区間長が予め設定された有効連続判定値(例えば、10°)以上であるか否かを判断し、区間長が有効連続判定値以上である場合に、有効連続区間が有効であると判断する。
 ここで、有効連続区間が有効でない場合には、CPU11は、角度補正処理を終了する。一方、有効連続区間が有効である場合には、CPU11は、S240にて、角度誤差算出処理を実行する。
 ここで、角度誤差算出処理の基本原理を説明する。
 図12に示すように、角度誤差算出処理では、自車両が直進する場合において、自車両の真横から、自車両の進行方向に対して垂直な方向に沿って1mの距離にある静止物がどのような軌跡を描くかが推定される。
 角度誤差がない場合には、静止物の横位置は、自車が直進しているために、1mで一定であり、破線L11で示すように、軌跡の形状は直線である。しかし、実際には、角度誤差によって、実線L12で示すように、軌跡の形状が直線にならない。
 角度誤差算出処理では、静止物移動軌跡の傾きから予想した軌跡と、角度誤差がない場合の移動軌跡とを比較することで、任意の角度における角度誤差を算出する。破線L11は、後述する基準移動軌跡L11に相当する。実線L12は、後述する平均移動軌跡L12に相当する。
 次に、角度誤差算出処理の手順を説明する。
 角度誤差算出処理が実行されると、制御部7のCPU11は、図13に示すように、まずS310にて、RAM13に設けられた第1角度指示値nを0に設定する。
 CPU11は、S320にて、第1最大角度指示値Kを設定する。具体的には、CPU11は、有効連続区間の終了角度の値から、有効連続区間の開始角度の値を減算した減算値を第1最大角度指示値Kとして設定する。例えば、有効連続区間AS1は64°~88°であるため、第1最大角度指示値Kは24である。
 CPU11は、S330にて、有効連続区間の角度θにおける半径距離rを(1/cosθ)とする。すなわち、角度誤差算出処理では、有効連続区間の開始角度までは角度誤差が0であると仮定している。
 CPU11は、S340にて、観測角度θn+1における半径距離rn+1を式(4)により算出する。式(4)におけるαは、観測角度θにおける静止物傾きの平均値である。
Figure JPOXMLDOC01-appb-M000003
 
 図14に示すように、式(4)は、前回算出した点CP1から静止物傾きαで延長した線が、観測角度θn+1の方向の線と交わる点CP2を算出することに相当する。
 図13に示すように、CPU11は、S350にて、半径距離rn+1が半径距離rより長いか否かを判断する。ここで、半径距離rn+1が半径距離r以下である場合には、CPU11は、角度誤差算出処理を終了する。
 一方、半径距離rn+1が半径距離rより長い場合には、CPU11は、S360にて、角度誤差を算出する。具体的には、CPU11は、式(5)により真の角度推定値θtrueを算出し、更に、観測角度θn+1から真の角度推定値θtrueを減算した減算値を角度誤差として算出する。そしてCPU11は、算出した角度誤差を観測角度に対応付けてRAM13に記憶する。
Figure JPOXMLDOC01-appb-M000004
 
 CPU11は、S370にて、第1角度指示値nをインクリメントする。
 CPU11は、S380にて、第1角度指示値nが第1最大角度指示値K以上であるか否かを判断する。ここで、第1角度指示値nが第1最大角度指示値K未満である場合には、CPU11は、S340に移行する。一方、第1角度指示値nが第1最大角度指示値K以上である場合には、CPU11は、角度誤差算出処理を終了する。
 なお、図13では、1つの有効連続区間において角度誤差を算出する手順を示している。しかし、S240の角度誤差算出処理において、CPU11は、有効連続区間AS1,AS2のそれぞれについて、S310~S380の処理を実行することにより、角度誤差を算出する。
 図10に示すように、S240の角度誤差算出処理が終了すると、CPU11は、S250にて、有効連続区間AS1と有効連続区間AS2との間の観測角度における角度誤差を内挿により算出する。具体的には、CPU11は、有効連続区間AS1内で最大の観測角度における角度誤差と、有効連続区間AS2内で最小の観測角度における角度誤差との間を直線で結ぶことにより内挿し、角度誤差を算出する。
 例えば図15に示すように、CPU11は、有効連続区間AS1内で最大の観測角度(すなわち、88°)における角度誤差AE1と、有効連続区間AS2内で最小の観測角度(すなわち、94°)における角度誤差AE2との間を直線で結ぶことにより、観測角度89°,90°,91°,92°,93°における角度誤差を算出する。
 S250の処理が終了すると、図10に示すように、CPU11は、S260にて、角度誤差テーブルを作成し、角度補正処理を終了する。具体的には、CPU11は、まず、観測角度を、レーダ装置3の中心軸CA1を中心とした角度(以下、レーダ観測角度)に変換する。なお、レーダ装置4に対して行われる角度補正処理におけるS260の処理では、CPU11は、観測角度を、レーダ装置4の中心軸CA2を中心とした角度(以下、レーダ観測角度)に変換する。図16は、レーダ装置4の中心軸CA2を中心としたレーダ観測角度θradarを示している。すなわち、レーダ装置3の有効連続区間内の観測角度は、レーダ装置3の中心軸CA1を中心とした角度に変換され、レーダ装置4の有効連続区間内の観測角度は、レーダ装置4の中心軸CA2を中心とした角度に変換される。そしてCPU11は、複数のレーダ観測角度毎に、対応する角度誤差を設定することにより、角度誤差テーブルを作成する。
 図17は、レーダ装置3におけるレーダ観測角度と角度誤差との関係を示すグラフである。図17のグラフにおける実線は、角度誤差算出処理により算出された角度誤差を示す。図17のグラフにおける破線は、角度誤差の真値を示す。
 次に、制御部7が実行する車両用情報提供処理の手順を説明する。車両用情報提供処理は、制御部7の動作中において繰り返し実行される処理である。
 車両用情報提供処理が実行されると、制御部7のCPU11は、図18に示すように、まずS510にて、レーダ装置3,4から観測点情報を新たに取得したか否かを判断する。ここで、観測点情報を取得していない場合には、CPU11は、車両用情報提供処理を終了する。一方、観測点情報を取得した場合には、CPU11は、S520にて、S510で取得した観測点情報が示す観測点方位角度を、S260で作成した角度誤差テーブルに基づいて補正する。すなわち、CPU11は、観測点方位角度に対応するレーダ観測角度を特定し、このレーダ観測角度に対応する角度誤差を角度誤差テーブルから抽出する。そしてCPU11は、観測点方位角度に対応するレーダ観測角度に、抽出した角度誤差を加算することにより、観測点方位角度を補正する。
 CPU11は、S530にて、S510で取得した観測点情報と、S520で補正した観測点方位と、車速センサ5およびヨーレートセンサ6の検出結果とに基づいて、自車両の左側および右側の隣接車線に存在する車両が自車両の後方から接近しているか否かを判断する。
 ここで、自車両の左側および右側の隣接車線に存在する車両が自車両の後方から接近していない場合には、CPU11は、車両用情報提供処理を終了する。一方、自車両の左側または右側の隣接車線に存在する車両が自車両の後方から接近している場合には、CPU11は、S540にて、左側または右側の後方から車両が接近している旨を示す警告画像をヘッドアップディスプレイ装置2に表示させ、車両用情報提供処理を終了する。
 このように構成された車両用情報提供装置1の制御部7は、自車両VH1に搭載されたレーダ装置3,4が検出する方位角度の誤差である角度誤差を推定する。
 制御部7は、自車両VH1の側方を物体検出領域R1,R2として含むレーダ装置3,4から、自車両VH1の付近に存在する物体の位置を示す観測点距離および観測点方位角度を少なくとも含む観測点情報を取得する。
 制御部7は、自車両VH1の移動軌跡を特定するための車速検出信号およびヨーレート検出信号を取得する。
 制御部7は、観測点情報に基づいて、自車両VH1の側方において静止している物体である静止物を検出する。
 制御部7は、検出された複数の静止物のそれぞれについて、観測点情報、車速検出信号およびヨーレート検出信号に基づいて、レーダ装置3,4が静止物を観測した観測角度ごとに、自車両VH1が直進していると仮定した場合において自車両VH1から見た静止物の移動方向を示す静止物傾きを算出する。
 制御部7は、算出された複数の静止物傾きを、複数の観測角度ごとに分類し、観測角度ごとに、観測角度で分類された複数の静止物傾きの平均値(以下、傾き平均値)を算出する。
 制御部7は、観測角度ごとに算出された複数の傾き平均値に基づいて算出される移動軌跡L12(以下、平均移動軌跡L12)と、角度誤差がない場合における静止物の移動軌跡として設定された基準移動軌跡L11とに基づいて、観測角度ごとに角度誤差を算出する。
 このような制御部7は、上記の平均移動軌跡L12と上記の基準移動軌跡L11とに基づいて観測角度ごとに角度誤差を算出するため、観測角度の変化に対する速度変化に基づいて角度誤差を算出する場合よりも、自車両VH1が静止物から遠ざかる場合における角度誤差の推定精度の低下を抑制することができる。これにより、制御部7は、レーダ装置3,4の角度誤差の推定精度を向上させることができる。
 また制御部7は、複数の観測角度のそれぞれについて、観測角度で分類された複数の静止物傾きの数(すなわち、観測数)が予め設定された有効判定値以上である場合に、観測角度の傾き平均値が有効であるとして、傾き平均値が有効である観測角度が連続している有効連続区間を設定する。制御部7は、更に、有効連続区間の区間長が予め設定された有効連続判定値以上である場合に、有効連続区間内の複数の観測角度の傾き平均値に基づいて平均移動軌跡L12を算出し、有効連続区間内の複数の観測角度ごとに角度誤差を算出する。
 このような制御部7は、観測数が少ない傾き平均値を除外して角度誤差を算出するため、角度誤差の推定精度の低下を抑制することができる。
 また制御部7は、自車両VH1の走行速度vが予め設定された第1傾き判定値以下である場合に、静止物傾きの算出を禁止する。これにより、制御部7は、誤差が大きい静止物傾きを用いて角度誤差が算出されるのを抑制し、角度誤差の推定精度の低下を抑制することができる。走行速度vが小さい合には、静止物の移動軌跡の長さが短くなり、静止物傾きの誤差が大きくなるためである。
 また制御部7は、自車両VH1のヨーレートωの絶対値が予め設定された第2傾き判定値以上である場合に、静止物傾きの算出を禁止する。これにより、制御部7は、誤差が大きい静止物傾きを用いて角度誤差が算出されるのを抑制し、角度誤差の推定精度の低下を抑制することができる。ヨーレートωが大きい場合には、自車両VH1の旋回による移動軌跡を正確にキャンセルすることが困難になるためである。
 また、レーダ装置3の物体検出領域R1は、自車両VH1の左側方における静止物を検出する左側物体検出領域R11と、自車両VH1の右側方における静止物を検出する右側物体検出領域R13とを含む。
 制御部7は、レーダ装置3,4の左側物体検出領域R11に対応する観測角度(すなわち、有効連続区間AS1内の観測角度)ごとに角度誤差を算出する。また制御部7は、レーダ装置3,4の右側物体検出領域R13に対応する観測角度(すなわち、有効連続区間AS2内の観測角度)ごとに角度誤差を算出する。制御部7は、左側物体検出領域R11に対応する観測角度と右側物体検出領域R13に対応する観測角度との間の観測角度の角度誤差を、左側物体検出領域R11に対応する観測角度の角度誤差と、右側物体検出領域R13に対応する観測角度の角度誤差とを用いた内挿により算出する。これにより、制御部7は、自車両VH1の真後ろに対応する観測角度を含む角度範囲の角度誤差を推定することができる。
 また制御部7は、レーダ装置3,4が検出した観測点方位角度を角度誤差を用いて補正する。これにより、制御部7は、レーダ装置3,4の位置検出精度を向上させることができる。
 以上説明した実施形態において、制御部7は角度誤差推定装置に相当し、自車両VH1は移動体に相当し、S10は第1情報取得部としての処理に相当し、観測点距離および観測点方位角度は位置情報に相当し、観測点情報は物体検出情報に相当する。
 また、S20は第2情報取得部としての処理に相当し、車速検出信号およびヨーレート検出信号は移動軌跡情報に相当し、S30は静止物検出部としての処理に相当し、S100は移動方向算出部としての処理に相当し、静止物傾きは移動方向指示値に相当する。
 また、S210は平均算出部としての処理に相当し、傾き平均値は移動方向平均値に相当し、S220~S240は角度誤差算出部としての処理に相当する。
 また、S80は速度禁止部としての処理に相当し、第1傾き判定値は速度禁止判定値に相当し、S90はヨーレート禁止部としての処理に相当し、第2傾き判定値はヨーレート禁止判定値に相当する。
 また、レーダ装置3は左側レーダ装置に相当し、レーダ装置4は右側レーダ装置に相当し、S250は内挿算出部としての処理に相当し、S520は角度補正部としての処理に相当する。
 [第2実施形態]
 以下に本開示の第2実施形態を図面とともに説明する。なお第2実施形態では、第1実施形態と異なる部分を説明する。共通する構成については同一の符号を付す。
 第2実施形態の車両用情報提供装置1は、角度補正処理が変更された点が第1実施形態と異なる。
 次に、第2実施形態の角度補正処理の手順を説明する。
 第2実施形態の角度補正処理が実行されると、制御部7のCPU11は、図19に示すように、まずS710にて、S210と同様にして、観測角度毎に静止物傾きの平均値を算出する。
 CPU11は、S720にて、RAM13に設けられた第2角度指示値qを0に設定する。
 CPU11は、S730にて、角度φにおける半径距離rを(1/cosθ)とする。観測角度θ,θ,θ,・・・,θ179,θ180はそれぞれ、0°,1°,2°,・・・,179°,180°に対応する。
 CPU11は、S740にて、観測角度θq+1における観測数が予め設定された有効判定値(例えば、500)以上であるか否かを判断する。ここで、観測角度θq+1における観測数が有効判定値未満である場合には、CPU11は、S750にて、観測角度θq+1における半径距離rq+1を(1/cosθq+1)とし、S790に移行する。すなわち、CPU11は、観測角度θq+1における角度誤差を0とする。
 一方、観測角度θq+1における観測数が有効判定値以上である場合には、CPU11は、S760にて、S340と同様にして、観測角度θq+1における半径距離rq+1を式(4)により算出する。
 CPU11は、S770にて、S350と同様にして、半径距離rq+1が半径距離rより長いか否かを判断する。ここで、半径距離rq+1が半径距離r以下である場合には、CPU11は、S790に移行する。
 一方、半径距離rq+1が半径距離rより長い場合には、CPU11は、S780にて、S360と同様にして、角度誤差を算出し、S790に移行する。
 S790に移行すると、CPU11は、第2角度指示値qをインクリメントする。
 CPU11は、S800にて、第2角度指示値qが第2最大角度指示値J(例えば、180)以上であるか否かを判断する。ここで、第2角度指示値qが第2最大角度指示値J未満である場合には、CPU11は、S740に移行する。一方、第2角度指示値qが第2最大角度指示値J以上である場合には、CPU11は、S810にて、S260と同様にして、角度誤差テーブルを作成し、角度補正処理を終了する。
 このように構成された車両用情報提供装置1の制御部7は、複数の観測角度のそれぞれについて、観測角度で分類された複数の静止物傾きの数(すなわち、観測数)が予め設定された有効判定値以上である場合に、観測角度の傾き平均値が有効であるとして平均移動軌跡L12を算出し、観測角度に対応する角度誤差を算出する。このような制御部7は、観測数が少ない傾き平均値を除外して角度誤差を算出するため、角度誤差の推定精度の低下を抑制することができる。
 以上説明した実施形態において、S710は平均算出部としての処理に相当し、傾き平均値は移動方向平均値に相当し、S720~S800は角度誤差算出部としての処理に相当する。
 以上、本開示の一実施形態について説明したが、本開示は上記実施形態に限定されるものではなく、種々変形して実施することができる。
 本開示に記載の制御部7およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部7およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部7およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。制御部7に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
 上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。
 上述した制御部7の他、当該制御部7を構成要素とするシステム、当該制御部7としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、角度誤差推定方法など、種々の形態で本開示を実現することもできる。
[本明細書が開示する技術思想]
[項目1]
 移動体(VH1)に搭載された少なくとも1つのレーダ装置(3,4)が検出する方位角度の誤差である角度誤差を推定する角度誤差推定装置(7)であって、
 前記移動体の側方を物体検出領域として含む前記少なくとも1つのレーダ装置から、前記移動体の付近に存在する物体の位置を示す位置情報を少なくとも含む物体検出情報を取得するように構成された第1情報取得部(S10)と、
 前記移動体の移動軌跡を特定するための移動軌跡情報を取得するように構成された第2情報取得部(S20)と、
 前記物体検出情報に基づいて、前記移動体の側方において静止している物体である静止物を検出するように構成された静止物検出部(S30)と、
 前記静止物検出部により検出された複数の前記静止物のそれぞれについて、前記物体検出情報および前記移動軌跡情報に基づいて、前記少なくとも1つのレーダ装置が前記静止物を観測した観測角度ごとに、前記移動体が直進していると仮定した場合において前記移動体から見た前記静止物の移動方向を示す移動方向指示値を算出するように構成された移動方向算出部(S100)と、
 前記移動方向算出部により算出された複数の前記移動方向指示値を、複数の前記観測角度ごとに分類し、前記観測角度ごとに、前記観測角度で分類された複数の前記移動方向指示値の平均値を移動方向平均値として算出するように構成された平均算出部(S210,S710)と、
 前記観測角度ごとに算出された複数の前記移動方向平均値に基づいて算出される移動軌跡である平均移動軌跡と、前記角度誤差がない場合における前記静止物の移動軌跡として設定された基準移動軌跡とに基づいて、前記観測角度ごとに前記角度誤差を算出するように構成された角度誤差算出部(S220~S240,S720~S800)と
 を備える角度誤差推定装置。
 [項目2]
 項目1に記載の角度誤差推定装置であって、
 前記角度誤差算出部(S720~S800)は、複数の前記観測角度のそれぞれについて、前記観測角度で分類された複数の前記移動方向指示値の数が予め設定された有効判定値以上である場合に、前記観測角度の前記移動方向平均値が有効であるとして前記平均移動軌跡を算出し、前記観測角度に対応する前記角度誤差を算出する角度誤差推定装置。
 [項目3]
 項目1に記載の角度誤差推定装置であって、
 前記角度誤差算出部(S220~S240)は、複数の前記観測角度のそれぞれについて、前記観測角度で分類された複数の前記移動方向指示値の数が予め設定された有効判定値以上である場合に、前記観測角度の前記移動方向平均値が有効であるとして、前記移動方向平均値が有効である前記観測角度が連続している有効連続区間を設定し、更に、前記有効連続区間の区間長が予め設定された有効連続判定値以上である場合に、前記有効連続区間内の複数の前記観測角度の前記移動方向平均値に基づいて前記平均移動軌跡を算出し、前記有効連続区間内の複数の前記観測角度ごとに前記角度誤差を算出する角度誤差推定装置。
 [項目4]
 項目1~項目3の何れか1項に記載の角度誤差推定装置であって、
 前記移動体の走行速度が予め設定された速度禁止判定値以下である場合に、前記移動方向算出部による前記移動方向指示値の算出を禁止するように構成された速度禁止部(S80)を備える角度誤差推定装置。
 [項目5]
 項目1~項目4の何れか1項に記載の角度誤差推定装置であって、
 前記移動体のヨーレートの絶対値が予め設定されたヨーレート禁止判定値以上である場合に、前記移動方向算出部による前記移動方向指示値の算出を禁止するように構成されたヨーレート禁止部(S90)を備える角度誤差推定装置。
 [項目6]
 項目1~項目5の何れか1項に記載の角度誤差推定装置であって、
 前記少なくとも1つのレーダ装置の前記物体検出領域は、前記移動体の左側方における前記静止物を検出する左側物体検出領域と、前記移動体の右側方における前記静止物を検出する右側物体検出領域とを含み、
 前記角度誤差算出部は、前記左側物体検出領域に対応する前記観測角度ごとに前記角度誤差を算出し、前記右側物体検出領域に対応する前記観測角度ごとに前記角度誤差を算出し、
 前記左側物体検出領域に対応する前記観測角度と前記右側物体検出領域に対応する前記観測角度との間の前記観測角度の前記角度誤差を、前記左側物体検出領域に対応する前記観測角度の前記角度誤差と、前記右側物体検出領域に対応する前記観測角度の前記角度誤差とを用いた内挿により算出するように構成された内挿算出部(S250)を備える角度誤差推定装置。
 [項目7]
 項目1~項目6の何れか1項に記載の角度誤差推定装置であって、
 前記少なくとも1つのレーダ装置が検出した前記方位角度を前記角度誤差を用いて補正するように構成された角度補正部(S520)を備える角度誤差推定装置。
 [項目8]
 移動体(VH1)に搭載された少なくとも1つのレーダ装置(3,4)が検出する方位角度の誤差である角度誤差を推定する角度誤差推定装置(7)が実行する角度誤差推定方法であって、
 前記角度誤差推定装置が、前記移動体の側方を物体検出領域として含む前記少なくとも1つのレーダ装置から、前記移動体の付近に存在する物体の位置を示す位置情報を少なくとも含む物体検出情報を取得し、
 前記角度誤差推定装置が、前記移動体の移動軌跡を特定するための移動軌跡情報を取得し、
 前記角度誤差推定装置が、前記物体検出情報に基づいて、前記移動体の側方において静止している物体である静止物を検出し、
 前記角度誤差推定装置が、検出された複数の前記静止物のそれぞれについて、前記物体検出情報および前記移動軌跡情報に基づいて、前記少なくとも1つのレーダ装置が前記静止物を観測した観測角度ごとに、前記移動体が直進していると仮定した場合において前記移動体から見た前記静止物の移動方向を示す移動方向指示値を算出し、
 前記角度誤差推定装置が、算出された複数の前記移動方向指示値を、複数の前記観測角度ごとに分類し、前記観測角度ごとに、前記観測角度で分類された複数の前記移動方向指示値の平均値を移動方向平均値として算出し、
 前記角度誤差推定装置が、前記観測角度ごとに算出された複数の前記移動方向平均値に基づいて算出される移動軌跡である平均移動軌跡と、前記角度誤差がない場合における前記静止物の移動軌跡として設定された基準移動軌跡とに基づいて、前記観測角度ごとに前記角度誤差を算出する角度誤差推定方法。

Claims (8)

  1.  移動体(VH1)に搭載された少なくとも1つのレーダ装置(3,4)が検出する方位角度の誤差である角度誤差を推定する角度誤差推定装置(7)であって、
     前記移動体の側方を物体検出領域として含む前記少なくとも1つのレーダ装置から、前記移動体の付近に存在する物体の位置を示す位置情報を少なくとも含む物体検出情報を取得するように構成された第1情報取得部(S10)と、
     前記移動体の移動軌跡を特定するための移動軌跡情報を取得するように構成された第2情報取得部(S20)と、
     前記物体検出情報に基づいて、前記移動体の側方において静止している物体である静止物を検出するように構成された静止物検出部(S30)と、
     前記静止物検出部により検出された複数の前記静止物のそれぞれについて、前記物体検出情報および前記移動軌跡情報に基づいて、前記少なくとも1つのレーダ装置が前記静止物を観測した観測角度ごとに、前記移動体が直進していると仮定した場合において前記移動体から見た前記静止物の移動方向を示す移動方向指示値を算出するように構成された移動方向算出部(S100)と、
     前記移動方向算出部により算出された複数の前記移動方向指示値を、複数の前記観測角度ごとに分類し、前記観測角度ごとに、前記観測角度で分類された複数の前記移動方向指示値の平均値を移動方向平均値として算出するように構成された平均算出部(S210,S710)と、
     前記観測角度ごとに算出された複数の前記移動方向平均値に基づいて算出される移動軌跡である平均移動軌跡と、前記角度誤差がない場合における前記静止物の移動軌跡として設定された基準移動軌跡とに基づいて、前記観測角度ごとに前記角度誤差を算出するように構成された角度誤差算出部(S220~S240,S720~S800)と
     を備える角度誤差推定装置。
  2.  請求項1に記載の角度誤差推定装置であって、
     前記角度誤差算出部(S720~S800)は、複数の前記観測角度のそれぞれについて、前記観測角度で分類された複数の前記移動方向指示値の数が予め設定された有効判定値以上である場合に、前記観測角度の前記移動方向平均値が有効であるとして前記平均移動軌跡を算出し、前記観測角度に対応する前記角度誤差を算出する角度誤差推定装置。
  3.  請求項1に記載の角度誤差推定装置であって、
     前記角度誤差算出部(S220~S240)は、複数の前記観測角度のそれぞれについて、前記観測角度で分類された複数の前記移動方向指示値の数が予め設定された有効判定値以上である場合に、前記観測角度の前記移動方向平均値が有効であるとして、前記移動方向平均値が有効である前記観測角度が連続している有効連続区間を設定し、更に、前記有効連続区間の区間長が予め設定された有効連続判定値以上である場合に、前記有効連続区間内の複数の前記観測角度の前記移動方向平均値に基づいて前記平均移動軌跡を算出し、前記有効連続区間内の複数の前記観測角度ごとに前記角度誤差を算出する角度誤差推定装置。
  4.  請求項1~請求項3の何れか1項に記載の角度誤差推定装置であって、
     前記移動体の走行速度が予め設定された速度禁止判定値以下である場合に、前記移動方向算出部による前記移動方向指示値の算出を禁止するように構成された速度禁止部(S80)を備える角度誤差推定装置。
  5.  請求項1~請求項3の何れか1項に記載の角度誤差推定装置であって、
     前記移動体のヨーレートの絶対値が予め設定されたヨーレート禁止判定値以上である場合に、前記移動方向算出部による前記移動方向指示値の算出を禁止するように構成されたヨーレート禁止部(S90)を備える角度誤差推定装置。
  6.  請求項1~請求項3の何れか1項に記載の角度誤差推定装置であって、
     前記少なくとも1つのレーダ装置の前記物体検出領域は、前記移動体の左側方における前記静止物を検出する左側物体検出領域と、前記移動体の右側方における前記静止物を検出する右側物体検出領域とを含み、
     前記角度誤差算出部は、前記左側物体検出領域に対応する前記観測角度ごとに前記角度誤差を算出し、前記右側物体検出領域に対応する前記観測角度ごとに前記角度誤差を算出し、
     前記左側物体検出領域に対応する前記観測角度と前記右側物体検出領域に対応する前記観測角度との間の前記観測角度の前記角度誤差を、前記左側物体検出領域に対応する前記観測角度の前記角度誤差と、前記右側物体検出領域に対応する前記観測角度の前記角度誤差とを用いた内挿により算出するように構成された内挿算出部(S250)を備える角度誤差推定装置。
  7.  請求項1~請求項3の何れか1項に記載の角度誤差推定装置であって、
     前記少なくとも1つのレーダ装置が検出した前記方位角度を前記角度誤差を用いて補正するように構成された角度補正部(S520)を備える角度誤差推定装置。
  8.  移動体(VH1)に搭載された少なくとも1つのレーダ装置(3,4)が検出する方位角度の誤差である角度誤差を推定する角度誤差推定装置(7)が実行する角度誤差推定方法であって、
     前記角度誤差推定装置が、前記移動体の側方を物体検出領域として含む前記少なくとも1つのレーダ装置から、前記移動体の付近に存在する物体の位置を示す位置情報を少なくとも含む物体検出情報を取得し、
     前記角度誤差推定装置が、前記移動体の移動軌跡を特定するための移動軌跡情報を取得し、
     前記角度誤差推定装置が、前記物体検出情報に基づいて、前記移動体の側方において静止している物体である静止物を検出し、
     前記角度誤差推定装置が、検出された複数の前記静止物のそれぞれについて、前記物体検出情報および前記移動軌跡情報に基づいて、前記少なくとも1つのレーダ装置が前記静止物を観測した観測角度ごとに、前記移動体が直進していると仮定した場合において前記移動体から見た前記静止物の移動方向を示す移動方向指示値を算出し、
     前記角度誤差推定装置が、算出された複数の前記移動方向指示値を、複数の前記観測角度ごとに分類し、前記観測角度ごとに、前記観測角度で分類された複数の前記移動方向指示値の平均値を移動方向平均値として算出し、
     前記角度誤差推定装置が、前記観測角度ごとに算出された複数の前記移動方向平均値に基づいて算出される移動軌跡である平均移動軌跡と、前記角度誤差がない場合における前記静止物の移動軌跡として設定された基準移動軌跡とに基づいて、前記観測角度ごとに前記角度誤差を算出する角度誤差推定方法。
PCT/JP2023/036200 2022-10-11 2023-10-04 角度誤差推定装置および角度誤差推定方法 WO2024080202A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022163258A JP2024056405A (ja) 2022-10-11 2022-10-11 角度誤差推定装置および角度誤差推定方法
JP2022-163258 2022-10-11

Publications (1)

Publication Number Publication Date
WO2024080202A1 true WO2024080202A1 (ja) 2024-04-18

Family

ID=90669194

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/036200 WO2024080202A1 (ja) 2022-10-11 2023-10-04 角度誤差推定装置および角度誤差推定方法

Country Status (2)

Country Link
JP (1) JP2024056405A (ja)
WO (1) WO2024080202A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003057334A (ja) * 2001-08-15 2003-02-26 Fujitsu Ten Ltd レーダの水平方向軸ずれ発生検出装置、軸ずれ量決定装置、および軸ずれ補正装置
JP2009210485A (ja) * 2008-03-05 2009-09-17 Honda Motor Co Ltd 車両用走行安全装置
CN111679256A (zh) * 2020-07-23 2020-09-18 杭州智波科技有限公司 汽车毫米波雷达的角度校准方法、装置、系统及存储介质
WO2021024711A1 (ja) * 2019-08-02 2021-02-11 日立オートモティブシステムズ株式会社 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
CN112782658A (zh) * 2021-03-17 2021-05-11 成都安智杰科技有限公司 一种雷达角度校准方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003057334A (ja) * 2001-08-15 2003-02-26 Fujitsu Ten Ltd レーダの水平方向軸ずれ発生検出装置、軸ずれ量決定装置、および軸ずれ補正装置
JP2009210485A (ja) * 2008-03-05 2009-09-17 Honda Motor Co Ltd 車両用走行安全装置
WO2021024711A1 (ja) * 2019-08-02 2021-02-11 日立オートモティブシステムズ株式会社 エイミング装置、運転制御システム、及びセンサデータの補正量の計算方法
CN111679256A (zh) * 2020-07-23 2020-09-18 杭州智波科技有限公司 汽车毫米波雷达的角度校准方法、装置、系统及存储介质
CN112782658A (zh) * 2021-03-17 2021-05-11 成都安智杰科技有限公司 一种雷达角度校准方法及装置

Also Published As

Publication number Publication date
JP2024056405A (ja) 2024-04-23

Similar Documents

Publication Publication Date Title
US10922561B2 (en) Object recognition device and vehicle travel control system
CN109155109B (zh) 物标检测装置
CN109212531B (zh) 确定目标车辆取向的方法
US10836388B2 (en) Vehicle control method and apparatus
JP5835243B2 (ja) 物標認識装置
US10392015B2 (en) Vehicle control device and vehicle control method
JP6443318B2 (ja) 物体検出装置
US11300415B2 (en) Host vehicle position estimation device
US9102329B2 (en) Tracking control apparatus
US8847792B2 (en) Object detection apparatus and object detection program
US20180149740A1 (en) Object detection apparatus and object detection method
JP6432538B2 (ja) 衝突予測装置
WO2021070916A1 (ja) 軸ずれ推定装置
US20170254881A1 (en) Apparatus for detecting axial misalignment
WO2024080202A1 (ja) 角度誤差推定装置および角度誤差推定方法
US20220228862A1 (en) Axial deviation estimating device
JP4849013B2 (ja) 車両周辺監視装置
JP7408236B2 (ja) 位置推定方法及び位置推定装置
JP6818902B2 (ja) 車両検知システム
JP6999239B2 (ja) 画像処理装置および画像処理方法
JP7225079B2 (ja) 障害物認識装置
JP2020003337A (ja) レーダ装置及び信号処理方法
WO2021070684A1 (ja) 推定装置
JP2022015511A (ja) 壁判定装置
JP2022032109A (ja) 衝突判定装置、衝突判定方法および衝突回避システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23877207

Country of ref document: EP

Kind code of ref document: A1