WO2022250086A1 - 軸ずれ推定装置 - Google Patents

軸ずれ推定装置 Download PDF

Info

Publication number
WO2022250086A1
WO2022250086A1 PCT/JP2022/021413 JP2022021413W WO2022250086A1 WO 2022250086 A1 WO2022250086 A1 WO 2022250086A1 JP 2022021413 W JP2022021413 W JP 2022021413W WO 2022250086 A1 WO2022250086 A1 WO 2022250086A1
Authority
WO
WIPO (PCT)
Prior art keywords
reflector
vehicle
misalignment
axis
preceding vehicle
Prior art date
Application number
PCT/JP2022/021413
Other languages
English (en)
French (fr)
Inventor
康弘 鈴木
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2022250086A1 publication Critical patent/WO2022250086A1/ja
Priority to US18/518,244 priority Critical patent/US20240094341A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4008Means for monitoring or calibrating of parts of a radar system of transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4021Means for monitoring or calibrating of parts of a radar system of receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/4034Antenna boresight in elevation, i.e. in the vertical plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9329Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles cooperating with reflectors or transponders

Definitions

  • the present disclosure relates to an axis deviation estimating device that estimates the amount of axis deviation of a radar device.
  • Patent Document 1 describes a radar device that calculates a deviation angle between a vertical angle at a reflection point where the intensity of a reflected wave is maximum and a main scan angle, and corrects the main scan angle based on this deviation angle. It is
  • the present disclosure improves the accuracy of estimating the amount of axis misalignment.
  • One aspect of the present disclosure is a shaft misalignment estimation device that includes a reflector information acquisition unit and a shaft misalignment amount calculation unit.
  • the reflector information acquisition unit is configured to acquire reflector position information indicating the position of the reflector of the preceding vehicle traveling in front of the vehicle, based on the detection result by the radar device mounted on the vehicle.
  • the axis deviation amount calculation unit calculates the axis deviation of the radar device by a maximum likelihood estimation method using a likelihood model in which a correspondence relationship between the position of the reflector and the presence probability of the reflector is set in advance and a plurality of pieces of reflector position information. configured to calculate a quantity.
  • the shaft misalignment estimating apparatus of the present disclosure configured in this way can calculate the shaft misalignment amount by using the likelihood model, taking into account the variation in the installation positions of the reflectors of the preceding vehicle. can improve the estimation accuracy of
  • FIG. 1 is a block diagram showing the configuration of a vehicle obstacle recognition device; FIG. It is a figure which shows the irradiation range of a radar wave.
  • FIG. 4 is a diagram showing the configuration of a selected field of view; 4 is a flow chart showing a main routine; 4 is a flowchart showing feature amount calculation processing;
  • FIG. 4 is a diagram showing an intensity distribution image of a traveling vehicle existing in front of the host vehicle; It is a figure explaining the method of reflector height determination. It is a figure explaining the method of occlusion determination. It is a figure which shows a real image and a virtual image. It is a figure which shows reflector mounting height distribution. It is a figure explaining the calculation method of a likelihood model.
  • the vehicle obstacle recognition device 1 of this embodiment includes an electronic control device 10, a radar device 20, and a sensor section 30, as shown in FIG.
  • the vehicle equipped with the vehicle obstacle recognition device 1 will be referred to as the own vehicle.
  • the electronic control unit 10 is an electronic control unit mainly composed of a microcomputer equipped with a CPU 11, ROM, RAM, and the like.
  • Various functions of the microcomputer are realized by CPU 11 executing a program stored in a non-transitional substantive recording medium.
  • the ROM corresponds to a non-transitional substantive recording medium storing programs. Also, by executing this program, a method corresponding to the program is executed.
  • a part or all of the functions executed by the CPU 11 may be configured as hardware using one or a plurality of ICs or the like. Further, the number of microcomputers constituting the electronic control unit 10 may be one or more.
  • the electronic control unit 10 includes a CPU 11 , a semiconductor memory 12 such as RAM, ROM and flash memory (hereinafter referred to as memory 12 ), and a communication section 13 .
  • the communication unit 13 is connected to other in-vehicle devices via a communication line so as to enable data communication, and transmits and receives data according to, for example, the CAN communication protocol.
  • CAN is an abbreviation for Controller Area Network.
  • CAN is a registered trademark.
  • the radar device 20 is mounted on the front side of the own vehicle VH.
  • the radar wave By scanning and irradiating the radar wave toward the front of the own vehicle VH and detecting the reflected radar wave, the distance to the point where the radar wave is reflected (hereinafter referred to as the ranging point) on the object and the ranging point to measure the angle of
  • the radar device 20 measures the distance and angle of the range-finding point for each frame, with the above measurement cycle being one frame.
  • the radar device 20 may be, for example, a so-called millimeter-wave radar that uses electromagnetic waves in the millimeter-wave band as radar waves, a laser radar that uses laser light as radar waves, or a laser radar that uses laser light as radar waves. It may be a sonar that uses sound waves.
  • the radar device 20 receives the reflected radar wave in the form of a pulse waveform. Then, the radar device 20 detects a pulse waveform whose reception intensity exceeds the detection threshold as a ranging point, and uses the reception intensity at the peak of this pulse waveform as the reflection intensity.
  • the radar device 20 also calculates the distance of the ranging point based on the peak time tp of the pulse waveform. Further, the radar device 20 calculates the horizontal angle and vertical angle at which the ranging point exists based on the scanning direction of the radar wave.
  • the radar device 20 then outputs ranging point information indicating the distance, horizontal angle, vertical angle, and reflection intensity of the ranging point to the electronic control unit 10 .
  • the electronic control unit 10 transmits the measurement result of the radar device 20 to, for example, the driving assistance device 40 that performs driving assistance via the communication unit 13 .
  • the sensor unit 30 has at least one sensor that detects the behavior of the own vehicle.
  • the sensor unit 30 includes a vehicle speed sensor 31 that outputs a vehicle speed detection signal corresponding to the vehicle speed to the electronic control unit 10, and a yaw rate sensor that outputs a yaw rate detection signal corresponding to the yaw rate to the electronic control unit 10. 32.
  • the radar device 20 acquires ranging points based on the horizontal angle and vertical angle. Therefore, as shown in the image G1 in FIG. 3, the positions of the distance measuring points can be expressed by arranging a plurality of pixels in a two-dimensional matrix.
  • One pixel includes distance information and intensity information of the range-finding point. Note that one pixel includes a plurality of ranging points when receiving a plurality of reflected radar waves.
  • the intersection point O between the horizontal axis and the vertical axis in the image G1 of FIG. 3 is a ranging point located on an extension of the optical axis LA in the direction in which the radar device 20 mounted on the vehicle transmits and receives radar waves. handle.
  • FIG. 3 shows a state in which the optical axis LA is shifted upward with respect to the horizontal direction HD.
  • a state in which the optical axis LA and the horizontal direction HD match is a state in which there is no axis deviation.
  • the electronic control unit 10 uses a selected field of view that is a part of the field of view that can be detected by the radar device 20, and detects objects reflected in the selected field of view.
  • the image G1 shown in FIG. 3 is formed by arranging 26 pixels in the horizontal direction and 16 pixels in the vertical direction.
  • the selected fields of view FV1 and FV2 shown in FIG. 3 are formed by arranging 22 pixels in the horizontal direction and 10 pixels in the vertical direction.
  • the selected field of view FV1 is selected centering on the center line LC1, and the center line LC1 overlaps the optical axis LA.
  • a region below the selected field of view FV1 is selected with the center line LC2 as the center.
  • FIG. 3 shows a state in which the selected field of view FV1 is shifted upward with respect to the horizontal direction HD.
  • the selected field of view FV1 is shifted upward with respect to the horizontal direction HD.
  • the electronic control unit 10 corrects the axial misalignment by changing the position of the selected field of view according to the amount of the axial misalignment.
  • the first to tenth observation layers LY1 to LY10 shown in FIG. 3 indicate observation layers in the selected field of view FV1.
  • the main routine is a process that is repeatedly executed for each measurement period while the electronic control unit 10 is operating.
  • the CPU 11 of the electronic control unit 10 first executes object tracking in S10, as shown in FIG.
  • the CPU 11 first measures one or more ranging points detected by the radar device 20 in the most recent frame (that is, the current frame) based on the distance and angle of the ranging point. Calculate the horizontal and vertical position of the point.
  • the lateral position is a position along the vehicle width direction of the vehicle with the vehicle as a starting point.
  • the vertical position is a position along a direction perpendicular to the vehicle width direction with the host vehicle as a starting point.
  • the CPU 11 determines whether each ranging point of the current frame (hereinafter referred to as current ranging point) represents the same target as the ranging point of the previous frame (hereinafter referred to as previous ranging point).
  • current ranging point the same target as the ranging point of the previous frame
  • previous ranging point the same target as the ranging point of the previous frame
  • the CPU 11 calculates the predicted position of the current ranging point corresponding to the previous ranging point based on the information of the previous ranging point, and calculates the difference between the predicted position and the position of the current ranging point. is smaller than a preset upper limit value, it is determined that there is a history connection, and the ranging point determined to have a history connection over a plurality of frames (for example, 5 frames) is regarded as a target. recognize. Further, the CPU 11 calculates the relative speed of the current range-finding point based on the difference between the position of the current range-finding point and the position of the previous range-finding point, and the measurement period (that is, the time of one frame).
  • the CPU 11 selects ranging points that are associated with the same object from the ranging points recognized as targets and that satisfy the same object selection condition (hereinafter referred to as the same object).
  • object AF point the same object selection condition
  • the conditions for selecting the same object in this embodiment are, for example, "the range-finding point of the target that is closest to the own vehicle" as a representative range-finding point, and the distance between this representative range-finding point and the is equal to or less than a preset distance selection determination value, the angle difference is equal to or less than a preset angle selection determination value, and the difference in relative speed is equal to or less than a preset relative speed selection determination value. That is.
  • the CPU 11 selects the rightmost ranging point (hereinafter referred to as the rightmost ranging point) and the leftmost ranging point from among the same object ranging points selected based on the calculated lateral position.
  • a distance point (hereinafter referred to as the leftmost distance measurement point) is extracted.
  • the CPU 11 determines the center value between the lateral position of the rightmost distance measuring point and the lateral position of the leftmost distance measuring point as the central lateral position x of the object.
  • the electronic control unit 10 also determines the difference between the lateral position of the rightmost ranging point and the lateral position of the leftmost ranging point as the lateral width of the object.
  • the CPU 11 Based on the calculated vertical position, the CPU 11 further determines the frontmost ranging point (hereinafter referred to as the frontmost ranging point) and the rearmost ranging point (hereinafter referred to as the rearmost ranging point). and extract Then, the CPU 11 determines the center value between the vertical position of the foremost distance measuring point and the vertical position of the rearmost distance measuring point as the center vertical position y of the object. The CPU 11 also determines the difference between the vertical position of the foremost distance measuring point and the vertical position of the rearmost distance measuring point as the depth of the object.
  • the CPU 11 recognizes a rectangle surrounding the rightmost, leftmost, frontmost, and rearmost ranging points as an object.
  • the CPU 11 determines the center horizontal position x and the center vertical position of the object in the previous and current frames when there is a history connection between the object in the previous frame and the object in the current frame. Using y and the measurement period (that is, the time of one frame), the horizontal relative velocity vx and vertical relative velocity vy of the object in the current frame are calculated.
  • the CPU 11 determines the center horizontal position x and the center vertical position y of the object recognized in the previous frame. , the horizontal relative velocity vx and the vertical relative velocity vy, the center horizontal position x, the center vertical position y, the horizontal relative velocity vx, and the vertical relative velocity vy of the object recognized in the current frame are obtained.
  • the CPU 11 selects a vehicle from among the objects recognized in the process of S10 based on preset vehicle extraction conditions. Extract.
  • the vehicle extraction conditions are that the center lateral position x is within the range of -2.5 m to 2.5 m, the center vertical position y is within the range of 30 m to 150 m, and the vertical absolute speed is 40 km / h or less. is an object that becomes The vertical absolute speed is a speed obtained by adding the vehicle speed to the vertical relative speed vy.
  • the CPU 11 identifies the distance and observation layer of the reflector on the vehicle extracted at S110.
  • An image G2 shown in FIG. 6 is an image obtained by photographing a traveling vehicle existing in front of the own vehicle with a camera.
  • the reflector is reflected in the area surrounded by the circles CL1 and CL2.
  • An image G3 shown in FIG. 6 is an intensity distribution image obtained by detecting a traveling vehicle existing in front of the own vehicle with the radar device 20 . Areas surrounded by circles CL3 and CL4 are range-finding points corresponding to reflectors.
  • the CPU 11 first determines, for each of the vehicles extracted in S110, a reflection intensity equal to or greater than a preset reflector determination value for extracting a reflector from among a plurality of range-finding points constituting the vehicle. Extract the AF points that have Then, the CPU 11 specifies the range-finding point having the highest reflection intensity among the extracted range-finding points as the range-finding point corresponding to the reflector. Furthermore, the CPU 11 sets the distance of the specified distance measuring point as the distance of the reflector. The CPU 11 also calculates an observation layer based on the specified distance and angle of the range-finding point, and sets this observation layer as the observation layer of the reflector.
  • the CPU 11 executes reflector height determination in S130, as shown in FIG. Specifically, the CPU 11 first determines, for each of the vehicles reflected in the selected field of view, an area of a plurality of pixels that constitute the vehicle (hereinafter referred to as vehicle pixel area) and pixels in which the reflector exists (hereinafter referred to as reflector pixels). to identify the vehicle pixel area.
  • reflector pixels pixels in which the reflector exists.
  • a rectangle R1 in the selected view image G4 is the vehicle pixel area of the first vehicle, and a rectangle R2 in the selected view image G4 is the vehicle pixel area of the second vehicle.
  • a rectangle R3 in the selected field of view image G4 is an area formed by pixels whose reflection intensity is equal to or greater than the reflector judgment value in the first vehicle.
  • a rectangle R4 in the selected field of view image G4 is an area formed by pixels whose reflection intensity is equal to or greater than the reflector determination value in the fourth vehicle.
  • a rectangle R5 in the selected field of view image G4 is the reflector pixel of the first vehicle.
  • a rectangle R6 in the selected field of view image G4 is the reflector pixel of the second vehicle.
  • the CPU 11 specifies the lowest observation layer (hereinafter referred to as the lowest layer) in the vehicle pixel area and the observation layer where the reflector pixels are located (hereinafter referred to as the reflector layer) for each of the vehicles reflected in the selected field of view. . Further, the CPU 11 calculates the number of observation layers existing between the lowest observation layer and the reflector layer (hereinafter referred to as the number of height layers).
  • the lowest layer of the first vehicle is the ninth observation layer LY9, and the reflector layer of the first vehicle is the eighth observation layer LY8.
  • the lowest layer of the second vehicle is the ninth observation layer LY9, and the reflector layer of the second vehicle is the fifth observation layer LY5. Therefore, the number of height layers of the first vehicle is "1" as indicated by arrow AL1, and the number of height layers of the second vehicle is "4" as indicated by arrow AL2.
  • the CPU 11 calculates the height of the reflector (hereinafter referred to as reflector height) for each of the vehicles reflected in the selected field of view, using the distance of the distance measuring point located on the lowest layer and the number of height layers. . Then, the CPU 11 determines whether or not the calculated reflector height exceeds a preset exclusion determination height (for example, 1.5 m) for each vehicle reflected in the selected field of view. Then, the CPU 11 excludes vehicles whose reflector height exceeds the exclusion determination high, and sets vehicles whose reflector height is equal to or less than the exclusion determination high as estimation target vehicles.
  • reflector height the height of the reflector
  • the CPU 11 executes occlusion determination in S140, as shown in FIG.
  • occlusion occurs when a first preceding vehicle PV1 exists in front of the radar device 20 of the host vehicle, and a second preceding vehicle PV2 exists in front of the first preceding vehicle PV1. , a state in which the first preceding vehicle PV1 hides a part of the second preceding vehicle PV2 as viewed from the radar device 20 .
  • the CPU 11 extracts hidden vehicles by occlusion determination. Then, the CPU 11 excludes the vehicle extracted by the occlusion determination from the vehicles set as the estimation target vehicles.
  • the CPU 11 recognizes a rectangular object RC1 due to the existence of the first preceding vehicle PV1, and recognizes a rectangular object RC2 due to the existence of the second preceding vehicle PV2.
  • the direction in which the object RC2 exists when viewed from the radar device 20 is the same as the direction in which the object RC1 exists when viewed from the radar device 20, and the distance of the object RC2 is longer than the distance of the object RC1. Therefore, the CPU 11 can determine that the first preceding vehicle PV1 is partially hiding the second preceding vehicle PV2.
  • the second preceding vehicle PV2 which is a hidden vehicle
  • the axis misalignment amount estimation accuracy may decrease. Therefore, hidden vehicles are excluded from estimation target vehicles.
  • the first preceding vehicle PV1 which is a non-hidden vehicle
  • the CPU 11 executes virtual image determination in S150, as shown in FIG.
  • the virtual image is a radar wave transmitted from the radar device 20 reflected by a stationary object (a tunnel wall or a soundproof wall in FIG. 9), then reflected by the object, and then reflected by the stationary object. It is an image that is recognized as an object when the radar device 20 receives the radar wave.
  • the virtual image may appear shifted in the height direction depending on the positional relationship between the wall and the object to be measured. Therefore, if a virtual image is learned as a vehicle, the accuracy of estimating the amount of axis misalignment decreases.
  • the upper diagram of FIG. 9 is a diagram of the radar device 20 and the real and virtual images viewed from above the radar device 20 .
  • the lower diagram in FIG. 9 is a diagram of the radar device 20 and the real and virtual images viewed from behind the radar device 20 .
  • the CPU 11 identifies a pair of the virtual image and the real image from among the tracked vehicles based on a preset pair determination condition, and selects the vehicle with the smaller reflection intensity among the identified pairs. , is extracted as a virtual image. Since the virtual image has a feature that the differences in distance and relative speed from the real image are equal to or less than preset threshold values (for example, the difference in distance is 5 m or less and the difference in speed is 5 km/h or less).
  • a pair determination condition is set based on.
  • the CPU 11 extracts a vehicle determined to be a virtual image through virtual image determination. Then, the CPU 11 excludes the vehicle extracted by the virtual image determination from the vehicles set as the estimation target vehicle.
  • the CPU 11 determines in S160 whether or not there are any remaining estimation target vehicles that have not been excluded by the processes of S130 to S150, as shown in FIG.
  • the CPU 11 terminates the feature amount calculation process.
  • the CPU 11 stores the distance of the reflector of the estimation target vehicle and the observation layer as feature values in the feature value list provided in the memory 12 in S170. Then, the feature amount calculation process ends.
  • the CPU 11 determines in S30 whether or not a preset estimation possibility determination condition has been established, as shown in FIG.
  • the estimable determination condition of the present embodiment is that all of a first determination condition, a second determination condition, and a third determination condition, which will be described later, are satisfied.
  • the first determination condition is that the vehicle speed of the own vehicle is equal to or higher than the first determination speed (eg, 40 km/h).
  • the vehicle speed of the own vehicle is detected by a vehicle speed sensor 31 .
  • the second judgment condition is that the vehicle is traveling straight. Whether or not the vehicle is traveling straight is determined by whether or not the radius of curvature of the road on which the vehicle is traveling is greater than or equal to a preset second determination radius (for example, 1500 m). That is, when the radius of curvature is equal to or greater than the second determination radius, it is determined that the vehicle is traveling straight.
  • the radius of curvature of the road is calculated based on the vehicle speed detected by the vehicle speed sensor 31 and the yaw rate detected by the yaw rate sensor 32 .
  • the third determination condition is that the distance and observation layer of the reflectors of one or more estimation target vehicles are stored in the feature quantity list.
  • the height at which the reflector is mounted in the vehicle (hereafter referred to as the reflector mounting height) varies from vehicle to vehicle.
  • the range of reflector mounting heights is stipulated by safety standards. For example, in Japan, it is stipulated in Article 210 of the "Notice Defining Details of Safety Standards for Road Transport Vehicles", and in the United States, it is stipulated in Federal Motor Vehicle Safety Standard 108.
  • the reflector mounting height distribution HD shown in FIG. 10 the horizontal axis indicates the reflector mounting height, and the vertical axis indicates the frequency.
  • the reflector mounting heights are distributed in the range of 200 mm to 1500 mm.
  • the likelihood model is prepared in advance. created.
  • the likelihood model defines the presence probability of the reflector according to the distance and vertical angle of the reflector of the preceding vehicle in the absence of axis misalignment.
  • the likelihood model is calculated by dividing the distance from the radar device 20 into a plurality of distance sections and arranging the reflector mounting height distribution for each distance section.
  • the selected field of view comprises first, second, third, fourth, fifth and sixth observation layers LY1, LY2, LY3, LY4, LY5 and LY6 in order from the top.
  • the vertical angular ranges in the first to sixth observation layers LY1 to LY6 are equal to each other.
  • the probability of existence in the first to fourth observation layers LY1 to LY4 is high, and the probability of existence in the fifth observation layer LY5 is 2. It is 0, which is the lowest and has the lowest existence probability in the sixth observation layer LY6.
  • the existence probability in the fifth and sixth observation layers LY5 and LY6 is 0, which is the lowest, and the presence probability in the fourth observation layer LY4 is the lowest.
  • the existence probability is the third lowest, the existence probability in the first observation layer LY1 is the fourth lowest, and the existence probability in the third observation layer LY3 is the highest.
  • the existence probability in the first, fifth, and sixth observation layers LY1, LY5, and LY6 is 0, which is the lowest, and the second observation
  • the existence probability in the layer LY2 is the fourth lowest
  • the existence probability in the fourth observation layer LY4 is the fifth lowest
  • the existence probability in the third observation layer LY3 is the highest.
  • the horizontal axis is set to the distance from the radar device 20, the vertical axis is set to the vertical angle, and the likelihood is set according to the combination of the distance and the vertical angle.
  • the distance interval is set to 5 m and the vertical angle interval is set to 0.2°.
  • the likelihood is "10” when the distance is 10 m and the vertical angle is 2.3°.
  • the likelihood is "33” when the distance is 35 m and the vertical angle is 0.3°.
  • the likelihood is "0” when the distance is 70 m and the vertical angle is 1.9°.
  • the CPU 11 calculates the axis deviation amount probability distribution using the plurality of feature amounts (that is, the distance of the reflector and the observation layer) stored in the feature amount list and the likelihood model.
  • the axis deviation amount is x
  • the feature amount is z
  • the number of feature amounts stored in the feature amount list is m. be done.
  • FIG. 13 a method for calculating the axis deviation amount probability distribution P(z
  • FIG. 13 a method for calculating the axis deviation amount probability distribution P(z
  • the first feature amount, the second feature amount, and the third feature amount are stored in the feature amount list.
  • the distance of the reflector is 30 m and the observation layer is the first observation layer LY1.
  • the distance of the reflector is 60 m and the observation layer is the second observation layer LY2.
  • the distance of the reflector is 80 m and the observation layer is the third observation layer LY3.
  • the first observation layer LY1 includes a range of vertical angles of 1.2° to 1.8°.
  • the second observation layer LY2 includes a range of vertical angles from 0.6° to 1.2°.
  • the third observation layer LY3 includes a range of vertical angles from 0.0° to 0.6°.
  • the fourth observation layer LY4 includes a range of vertical angles from -0.6° to 0.0°.
  • the fifth observation layer LY5 includes a range of vertical angles from -1.2° to -0.6°.
  • the sixth observation layer LY6 includes a range of vertical angles from -1.8° to -1.2°.
  • the reflector distance is 30 m
  • the observation layer is the first observation layer LY1. Therefore, in the likelihood model LM, the likelihoods when the distance of the reflector is 30 m and the angles are 1.3°, 1.5°, and 1.7°, that is, "7" and "8""10" is extracted. Then, “25”, which is the sum of "7", "8", and "10", is the likelihood for the first feature amount when the axis deviation amount is assumed to be 0°. This likelihood corresponds to L(z 1
  • x 0°).
  • the reflector distance is 60 m
  • the observation layer is the second observation layer LY2. Therefore, in the likelihood model LM, the likelihoods when the reflector distance is 60 m and the angles are 0.7°, 0.9°, and 1.1°, that is, “5” and “8” "15” is extracted. Then, “28”, which is the sum of "5", "8", and "15”, is the likelihood for the second feature amount when the axis deviation amount is assumed to be 0°. This likelihood corresponds to L(z 2
  • x 0°).
  • the reflector distance is 80 m
  • the observation layer is the third observation layer LY3. Therefore, in the likelihood model LM, the likelihoods when the reflector distance is 80 m and the angles are 0.1°, 0.3°, and 0.5°, that is, “21” and “35” "50” is extracted. Then, "106", which is the sum of "21”, “35”, and "50", is the likelihood for the third feature amount when the axis deviation amount is assumed to be 0°. This likelihood corresponds to L(z 3
  • x 0°).
  • the sum of likelihoods corresponding to the first, second, and third feature amounts when it is assumed that the amount of deviation is 0°, that is, the sum of "25”, “28", and “106" is " 159” is a value corresponding to the probability P (z
  • x 0°) when it is assumed that the amount of axis deviation is 0°.
  • the first observation layer LY1 includes a range of vertical angles of 1.8° to 2.4°.
  • the second observation layer LY2 includes vertical angles ranging from 1.2° to 1.8°.
  • the third observation layer LY3 includes vertical angles ranging from 0.6° to 1.2°.
  • the fourth observation layer LY4 includes vertical angles ranging from 0.0° to 0.6°.
  • the fifth observation layer LY5 includes vertical angles ranging from -0.6° to 0.0°.
  • the sixth observation layer LY6 includes vertical angles ranging from -1.2° to -0.6°.
  • the reflector distance is 30 m
  • the observation layer is the first observation layer LY1. Therefore, in the likelihood model LM, the likelihoods when the distance of the reflector is 30 m and the angles are 1.9°, 2.1°, and 2.3°, that is, "5" and "4""2" is extracted. Then, “11”, which is the sum of "5", "4", and "2", is the likelihood for the first feature amount when it is assumed that the axis deviation amount is 0.6°. This likelihood corresponds to L(z 1
  • x 0.6°).
  • the reflector distance is 60 m
  • the observation layer is the second observation layer LY2. Therefore, in the likelihood model LM, the likelihood when the distance of the reflector is 60 m and the angles are 1.3°, 1.5°, and 1.7°, that is, between "0" and "0""0" is extracted. Then, "0”, which is the sum of "0", "0", and "0", is the likelihood for the second feature amount when it is assumed that the axis deviation amount is 0.6°. This likelihood corresponds to L(z 2
  • x 0.6°).
  • the reflector distance is 80 m
  • the observation layer is the third observation layer LY3. Therefore, in the likelihood model LM, the likelihoods when the distance of the reflector is 80 m and the angles are 0.7°, 0.9°, and 1.1°, that is, "8" and "4""0" is extracted. Then, "12", which is the sum of "8", "4", and "0", is the likelihood for the third feature amount when the axis deviation amount is assumed to be 0.6°. This likelihood corresponds to L(z 3
  • x 0.6°).
  • x 0.6°) when it is assumed that the axis misalignment amount is 0.6°.
  • x) is normalized so that the value integrated over the entire range of x becomes 1.
  • the CPU 11 updates the axis deviation amount probability distribution in S50 as shown in FIG. Specifically, the CPU 11 sets P t ⁇ 1 to the axis misalignment amount probability distribution updated in S50 in the previous frame, and P 0 to the axis misalignment amount probability distribution calculated in S40 in the current frame.
  • the axis misalignment probability distribution updated in S50 in the frame is Pt , and the weighting factor is a.
  • the CPU 11 calculates the amount of shaft misalignment based on the probability distribution of the amount of shaft misalignment updated in S50, and proceeds to S70. Specifically, as shown in FIG. 15, the CPU 11 assumes that the shaft misalignment amount probability distribution Pt updated in S50 is a normal distribution ND, and calculates the average value and the standard deviation.
  • the CPU 11 sets the peak position w peak of the axis deviation amount probability distribution Pt as the axis deviation amount ⁇ . Further, the CPU 11 sets half the difference between the first position wm and the second position wp , which is 60% of the peak value Peak, as the standard deviation ⁇ , as shown in the following equation (3). Note that the value of the first position wp is greater than the value of the second position wm .
  • the correction conditions of this embodiment are that the number of feature quantities stored in the feature quantity list is equal to or greater than a preset first correction determination value, and that the standard deviation ⁇ calculated in S60 is preset It is equal to or less than the second correction determination value.
  • the CPU 11 terminates the main routine.
  • the CPU 11 calculates the correction amount of the axial deviation in S80.
  • the axis misalignment correction amount is calculated by subtracting the latest axis misalignment amount among the axis misalignment amounts calculated up to the previous frame from the axis misalignment amount calculated for the current frame.
  • the CPU 11 corrects the axial misalignment by moving the selected visual field along the Z-axis direction by the amount of axial misalignment correction calculated in S80. Note that movement along the Z-axis direction in the selected field of view can be performed only for each vertical angle corresponding to one observation layer. Therefore, in S80, the axis deviation correction amount is calculated in units of the vertical angle for one observation layer.
  • the electronic control unit 10 configured in this manner acquires the distance and observation layer of the reflector of the preceding vehicle traveling in front of the vehicle based on the detection result by the radar device 20 mounted on the own vehicle VH.
  • the electronic control unit 10 uses a likelihood model LM in which the correspondence relationship between the distance and vertical angle of the reflector and the presence probability of the reflector is preset, and the distance and observation layer of a plurality of reflectors, using the maximum likelihood estimation method. , the axis deviation amount of the radar device 20 is calculated.
  • the electronic control unit 10 can calculate the amount of axis deviation in consideration of the variation in the installation position of the reflector of the preceding vehicle. be able to.
  • the electronic control unit 10 determines whether or not the reflector height exceeds a preset exclusion determination height, and if the reflector height exceeds the exclusion determination height, the reflector height exceeds the exclusion determination height. Remove the distance and observation layer of the reflector that is in the off-axis calculation.
  • the electronic control unit 10 determines whether or not an occlusion occurs in which a part of the second preceding vehicle PV2 is hidden behind the first preceding vehicle PV1 with respect to the radar device 20, and determines whether or not occlusion has occurred. If so, the distance to the reflector of the second preceding vehicle PV2 and the observation layer are excluded from the calculation of the axis deviation amount.
  • the electronic control unit 10 determines whether or not the preceding vehicle is a virtual image, and when it is determined that the preceding vehicle is a virtual image, the distance and observation layer of the reflector of the preceding vehicle which is judged to be a virtual image. , are excluded from the calculation of the amount of misalignment.
  • the electronic control unit 10 can calculate the amount of axis misalignment by excluding reflectors that are inappropriate for calculation of the amount of axis misalignment, so that the accuracy of estimating the amount of axis misalignment can be further improved.
  • the existence probability of the reflector is set based on the distribution of the installation height of the reflectors of the vehicles on sale and the radar installation height.
  • the electronic control unit 10 can further improve the accuracy of estimating the amount of shaft misalignment.
  • the electronic control unit 10 corresponds to the shaft deviation estimation device
  • S110 and S120 correspond to the processing of the reflector information acquisition section
  • S40 to S60 correspond to the processing of the shaft deviation amount calculation section
  • the distance of the reflector and the observation layer correspond to the reflector position information.
  • S130 corresponds to processing as a reflector height exclusion unit
  • S140 corresponds to processing as an occlusion exclusion unit
  • S150 corresponds to processing as a virtual image exclusion unit.
  • the electronic controller 10 and techniques thereof described in this disclosure can be performed by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. , may be implemented. Alternatively, the electronic controller 10 and techniques described in this disclosure may be implemented by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the electronic controller 10 and techniques described in this disclosure may be a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may also be implemented by one or more dedicated computers configured in combination. Computer programs may also be stored as computer-executable instructions on a computer-readable non-transitional tangible recording medium. The method of realizing the function of each part included in the electronic control unit 10 does not necessarily include software, and all the functions may be realized using one or more pieces of hardware.
  • a plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or a function possessed by one component may be realized by a plurality of components. Also, a plurality of functions possessed by a plurality of components may be realized by a single component, or a function realized by a plurality of components may be realized by a single component. Also, part of the configuration of the above embodiment may be omitted. Also, at least part of the configuration of the above embodiment may be added or replaced with respect to the configuration of the other above embodiment.
  • a system having the electronic control device 10 as a component, a program for causing a computer to function as the electronic control device 10, a non-transitional substantive record such as a semiconductor memory in which the program is recorded can also be implemented in various forms such as a medium and an axis deviation estimation method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

軸ずれ推定装置(10)は、リフレクタ情報取得部(S110,S120)と、軸ずれ量算出部(S40~S60)とを備える。リフレクタ情報取得部は、車両(VH)に搭載されたレーダ装置(20)による検出結果に基づいて、車両の前方で走行する先行車両のリフレクタの位置を示すリフレクタ位置情報を取得する。軸ずれ量算出部は、リフレクタの位置とリフレクタの存在確率との対応関係が予め設定された尤度モデルと、複数のリフレクタ位置情報とを用いて、最尤推定法により、レーダ装置の軸ずれ量を算出する。

Description

軸ずれ推定装置 関連出願の相互参照
 本国際出願は、2021年5月28日に日本国特許庁に出願された日本国特許出願第2021-090345号に基づく優先権を主張するものであり、日本国特許出願第2021-090345号の全内容を参照により本国際出願に援用する。
 本開示は、レーダ装置の軸ずれ量を推定する軸ずれ推定装置に関する。
 特許文献1には、反射波の強度が最大となる反射点における垂直方向の角度と、メインスキャン角度とのずれ角度を演算し、このずれ角度に基づいてメインスキャン角度を修正するレーダ装置が記載されている。
特許第4890928号公報
 アダプティブクルーズコントロール機能の高性能化および高機能化により、レーダ装置は、より遠方の車両を検出することが求められている。このため、レーダ装置が車両に搭載された後におけるレーダ装置の軸ずれ量を高精度に推定する必要がある。
 発明者の詳細な検討の結果、レーダ装置によって追跡している車両において反射強度が最も高い反射点(すなわち、リフレクタ)の垂直角度に基づいて軸ずれ量を推定すると、リフレクタの搭載高さのばらつきのために、軸ずれ量の推定精度が低下してしまうという課題が見出された。
 本開示は、軸ずれ量の推定精度を向上させる。
 本開示の一態様は、リフレクタ情報取得部と、軸ずれ量算出部とを備える軸ずれ推定装置である。
 リフレクタ情報取得部は、車両に搭載されたレーダ装置による検出結果に基づいて、車両の前方で走行する先行車両のリフレクタの位置を示すリフレクタ位置情報を取得するように構成される。
 軸ずれ量算出部は、リフレクタの位置とリフレクタの存在確率との対応関係が予め設定された尤度モデルと、複数のリフレクタ位置情報とを用いて、最尤推定法により、レーダ装置の軸ずれ量を算出するように構成される。
 このように構成された本開示の軸ずれ推定装置は、尤度モデルを用いることによって、先行車両のリフレクタの設置位置のばらつきを考慮して軸ずれ量を算出することができるため、軸ずれ量の推定精度を向上させることができる。
車両用障害物認識装置の構成を示すブロック図である。 レーダ波の照射範囲を示す図である。 選択視野の構成を示す図である。 メインルーチンを示すフローチャートである。 特徴量算出処理を示すフローチャートである。 自車両の前方に存在する走行車両の強度分布画像を示す図である。 リフレクタ高判定の方法を説明する図である。 オクルージョン判定の方法を説明する図である。 実像および虚像を示す図である。 リフレクタ搭載高分布を示す図である。 尤度モデルの算出方法を説明する図である。 尤度モデルの一例を示す図である。 軸ずれ量が0°であると仮定したときの確率を算出する方法を説明する図である。 軸ずれ量が0.6°であると仮定したときの確率を算出する方法を説明する図である。 平均値および標準偏差の算出方法を説明する図である。
 以下に本開示の実施形態を図面とともに説明する。
 本実施形態の車両用障害物認識装置1は、図1に示すように、電子制御装置10と、レーダ装置20と、センサ部30とを備える。以下、車両用障害物認識装置1を搭載した車両を自車両という。
 電子制御装置10は、CPU11、ROMおよびRAM等を備えたマイクロコンピュータを中心に構成された電子制御装置である。マイクロコンピュータの各種機能は、CPU11が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、ROMが、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムの実行により、プログラムに対応する方法が実行される。なお、CPU11が実行する機能の一部または全部を、一つあるいは複数のIC等によりハードウェア的に構成してもよい。また、電子制御装置10を構成するマイクロコンピュータの数は1つでも複数でもよい。
 電子制御装置10は、CPU11と、RAM、ROMおよびフラッシュメモリ等の半導体メモリ12(以下、メモリ12)と、通信部13とを備える。
 通信部13は、通信線を介して他の車載装置との間でデータ通信可能に接続されており、例えばCAN通信プロトコルに従ってデータの送受信を行う。CANは、Controller Area Networkの略である。CANは登録商標である。
 レーダ装置20は、図2に示すように、自車両VHの前側に搭載され、予め設定された測定周期が経過する毎に、自車両VHの車幅方向に水平および垂直方向の所定角度範囲内でレーダ波を自車両VHの前方へ向けて走査しながら照射し、反射したレーダ波を検出することによって、物体においてレーダ波を反射した箇所(以下、測距点)までの距離と測距点の角度とを測定する。
 レーダ装置20は、上記の測定周期を1フレームとして、1フレーム毎に、測距点の距離および角度を測定する。
 なお、レーダ装置20は、例えば、レーダ波としてミリ波帯の電磁波を使用するいわゆるミリ波レーダであってもよいし、レーダ波としてレーザ光を用いるレーザレーダであってもよいし、レーダ波として音波を用いるソナーであってもよい。
 レーダ装置20は、反射したレーダ波をパルス波形で受信する。そしてレーダ装置20は、受信強度が検出閾値を超えたパルス波形を測距点として検出し、このパルス波形のピーク時の受信強度を反射強度とする。
 またレーダ装置20は、パルス波形のピーク時の時間tpに基づいて、測距点の距離を算出する。さらにレーダ装置20は、レーダ波の走査方向に基づいて、測距点が存在する水平角度および垂直角度を算出する。
 そしてレーダ装置20は、測距点の距離、水平角度および垂直角度と、反射強度とを示す測距点情報を電子制御装置10へ出力する。
 また電子制御装置10は、図1に示すように、通信部13を介して、レーダ装置20による測定結果を、例えば、運転支援を行う運転支援装置40へ送信する。
 センサ部30は、自車両の挙動を検出する少なくとも1つのセンサを備える。本実施形態では、一例として、センサ部30は、車速に応じた車速検出信号を電子制御装置10へ出力する車速センサ31と、ヨーレートに応じたヨーレート検出信号を電子制御装置10へ出力するヨーレートセンサ32とを備える。
 レーダ装置20は、水平角度および垂直角度に基づいて、測距点を取得する。そのため、図3の画像G1で示すように、測距点の位置は、複数の画素を二次元行列状に配列することで表現することができる。1画素は、測距点の距離の情報と、強度情報とを含む。なお、1画素は、反射した複数のレーダ波を受信する場合には、複数の測距点を含む。
 図3の画像G1における水平方向軸と垂直方向軸との交点Oは、自車両に搭載されたレーダ装置20がレーダ波を送受信する方向となる光軸LAの延長線上に位置する測距点に対応する。図3は、光軸LAが水平方向HDに対して上方向にずれている状態を示している。光軸LAと水平方向HDとが一致している状態が、軸ずれが無い状態である。
 電子制御装置10は、レーダ装置20により検出可能な視野の一部分を切り出した領域を選択視野とし、選択視野に映っている物体を検出する。
 図3に示す画像G1は、水平方向に沿って26画素が配列され、且つ、垂直方向に沿って16画素が配列されることによって形成されている。図3に示す選択視野FV1,FV2は、水平方向に沿って22画素が配列され、且つ、垂直方向に沿って10画素が配列されることによって形成されている。
 選択視野FV1は、中心線LC1を中心として選択された状態で、その中心線LC1は光軸LAと重なる。一方、選択視野FV2は、中心線LC2を中心として選択された状態で、選択視野FV1よりも下側の領域が選択される。
 図3は、選択視野FV1が水平方向HDに対して上方向にずれている状態を示す。この場合に、選択視野FV2で示すように、選択視野FV1より下を選択することによって、水平方向HDに対する光軸LAのずれを補正することができる。
 すなわち、電子制御装置10は、軸ずれ量に応じて選択視野の位置を変更することによって、軸ずれを補正する。
 以下、選択視野において、上から1,2,3,4,5,6,7,8,9,10番目の行をそれぞれ、第1,2,3,4,5,6,7,8,9,10観測レイヤLY1,LY2,LY3,LY4,LY5,LY6,LY7,LY8,LY9,LY10という。図3に記載されている第1~10観測レイヤLY1~LY10は、選択視野FV1における観測レイヤを示している。
 次に、電子制御装置10が実行するメインルーチンの手順を説明する。メインルーチンは、電子制御装置10の動作中において測定周期毎に繰り返し実行される処理である。
 メインルーチンが実行されると、電子制御装置10のCPU11は、図4に示すように、まずS10にて、物体追跡を実行する。
 具体的には、CPU11は、まず、直近のフレーム(すなわち、今回のフレーム)でレーダ装置20により検出された1または複数の測距点について、測距点の距離および角度に基づいて、測距点の横位置および縦位置を算出する。横位置は、自車両を起点として自車両の車幅方向に沿った位置である。縦位置は、自車両を起点として車幅方向に対して垂直な方向に沿った位置である。
 そしてCPU11は、今回のフレームの測距点(以下、今回測距点)毎に、前回のフレームの測距点(以下、前回測距点)と同一の物標を表すものであるか否かを判定する履歴追尾処理を実行する。
 具体的には、CPU11は、前回測距点の情報に基づいて、前回測距点に対応する今回測距点の予測位置を算出し、その予測位置と、今回測距点の位置との差分が予め設定された上限値より小さい場合には、履歴接続があるものと判断し、複数のフレーム(例えば5フレーム)に渡って履歴接続があると判断された測距点を物標であると認識する。さらにCPU11は、今回測距点の位置と前回測距点の位置との差分と、測定周期(すなわち、1フレームの時間)とに基づいて、今回測距点の相対速度を算出する。
 次にCPU11は、物標であると認識された測距点のうち、同一の物体に起因した測距点を選択するために予め設定された同一物体選択条件を満たす測距点(以下、同一物体測距点)を選択する。なお、本実施形態における同一物体選択条件は、例えば「自車両から最も近い位置に存在している物標の測距点」を代表測距点として、この代表測距点との間で、距離の差が予め設定された距離選択判定値以下あり、且つ、角度の差が予め設定された角度選択判定値以下あり、且つ、相対速度の差が予め設定された相対速度選択判定値以下であることである。
 さらにCPU11は、選択された同一物体測距点の中から、算出された横位置に基づいて、最も右側に位置する測距点(以下、最右端測距点)と、最も左側に位置する測距点(以下、最左端測距点)とを抽出する。そしてCPU11は、最右端測距点の横位置と最左端測距点の横位置との中心値を、物体の中心横位置xとして決定する。また電子制御装置10は、最右端測距点の横位置と最左端測距点の横位置との差を、物体の横幅として決定する。
 さらにCPU11は、算出された縦位置に基づいて、最も前側に位置する測距点(以下、最前端測距点)と、最も後側に位置する測距点(以下、最後端測距点)とを抽出する。そしてCPU11は、最前端測距点の縦位置と最後端測距点の縦位置との中心値を、物体の中心縦位置yとして決定する。またCPU11は、最前端測距点の縦位置と最後端測距点の縦位置との差を、物体の奥行として決定する。
 従って、CPU11は、最右端測距点、最左端測距点、最前端測距点および最後端測距点を囲む矩形を物体として認識する。
 さらにCPU11は、履歴追尾処理による判定結果に基づいて、前回のフレームにおける物体と今回のフレームにおける物体とで履歴接続がある場合に、前回および今回のフレームにおける物体の中心横位置xおよび中心縦位置yと、測定周期(すなわち、1フレームの時間)とを用いて、今回のフレームにおける物体の横相対速度vxおよび縦相対速度vyを算出する。
 またCPU11は、前回のフレームで認識された物体について、今回のフレームで認識された物体と履歴接続できなかった場合には、前回のフレームで認識された物体の中心横位置x、中心縦位置y、横相対速度vxおよび縦相対速度vyに基づいて外挿することにより、今回のフレームで認識された物体の中心横位置x、中心縦位置y、横相対速度vxおよび縦相対速度vyとする。
 そしてS10の処理が終了すると、CPU11は、S20にて、特徴量算出処理を実行する。
 ここで、特徴量算出処理の手順を説明する。
 特徴量算出処理が実行されると、CPU11は、図5に示すように、まずS110にて、S10の処理で認識された物体の中から、予め設定された車両抽出条件に基づいて、車両を抽出する。車両抽出条件は、中心横位置xが-2.5m~2.5mの範囲内であり、且つ、中心縦位置yが30m~150mの範囲内であり、且つ、縦絶対速度が40km/h以下となる物体である。縦絶対速度は、縦相対速度vyに自車速を加算した速度である。
 次にCPU11は、S120にて、S110で抽出された車両におけるリフレクタの距離および観測レイヤを特定する。
 図6に示す画像G2は、自車両の前方に存在する走行車両をカメラで撮影することにより得られた画像である。画像G2において、円CL1,CL2で囲まれた領域には、リフレクタが映っている。
 図6に示す画像G3は、自車両の前方に存在する走行車両をレーダ装置20で検出することによって得られた強度分布画像である。円CL3,CL4で囲まれた領域は、リフレクタに対応する測距点である。
 CPU11は、S120にて、まず、S110で抽出された車両のそれぞれについて、車両を構成する複数の測距点の中から、リフレクタを抽出するために予め設定されたリフレクタ判定値以上の反射強度を有する測距点を抽出する。そしてCPU11は、抽出した測距点の中から、最も反射強度が大きい測距点を、リフレクタに対応する測距点として特定する。さらにCPU11は、特定した測距点の距離を、リフレクタの距離として設定する。またCPU11は、特定した測距点の距離および角度に基づいて、観測レイヤを算出し、この観測レイヤを、リフレクタの観測レイヤとして設定する。
 S120の処理が終了すると、図5に示すように、CPU11は、S130にて、リフレクタ高判定を実行する。具体的には、CPU11は、まず、選択視野に映っている車両のそれぞれついて、車両を構成する複数の画素の領域(以下、車両画素領域)と、リフレクタが存在する画素(以下、リフレクタ画素)とを特定する。
 例えば、図7に示す選択視野画像G4には、2台の車両が映っている。選択視野画像G4における矩形R1は第1車両の車両画素領域であり、選択視野画像G4における矩形R2は第2車両の車両画素領域である。
 選択視野画像G4における矩形R3は、第1車両において反射強度がリフレクタ判定値以上の画素によって構成される領域である。選択視野画像G4における矩形R4は、第4車両において反射強度がリフレクタ判定値以上の画素によって構成される領域である。
 選択視野画像G4における矩形R5は、第1車両のリフレクタ画素である。選択視野画像G4における矩形R6は、第2車両のリフレクタ画素である。
 そしてCPU11は、選択視野に映っている車両のそれぞれついて、車両画素領域における最下端の観測レイヤ(以下、最下端レイヤ)と、リフレクタ画素が位置する観測レイヤ(以下、リフレクタレイヤ)とを特定する。さらにCPU11は、最下端観測レイヤとリフレクタレイヤとの間に存在する観測レイヤの数(以下、高さレイヤ数)を算出する。
 図7に示す選択視野画像G4では、第1車両の最下端レイヤは第9観測レイヤLY9であり、第1車両のリフレクタレイヤは第8観測レイヤLY8である。また、第2車両の最下端レイヤは第9観測レイヤLY9であり、第2車両のリフレクタレイヤは第5観測レイヤLY5である。このため、第1車両の高さレイヤ数は、矢印AL1で示すように「1」であり、第2車両の高さレイヤ数は、矢印AL2で示すように「4」である。
 さらにCPU11は、選択視野に映っている車両のそれぞれついて、最下端レイヤに位置する測距点の距離と、高さレイヤ数とを用いて、リフレクタの高さ(以下、リフレクタ高)を算出する。そしてCPU11は、選択視野に映っている車両のそれぞれついて、算出されたリフレクタ高が予め設定された除外判定高(例えば、1.5m)を超えるか否かを判断する。そしてCPU11は、リフレクタ高が除外判定高を超えている車両を除外し、リフレクタ高が除外判定高以下である車両を推定対象車両に設定する。
 S130の処理が終了すると、図5に示すように、CPU11は、S140にて、オクルージョン判定を実行する。オクルージョンは、例えば図8に示すように、自車両のレーダ装置20の前方に第1先行車両PV1が存在し、さらに第1先行車両PV1の前方に第2先行車両PV2が存在している場合において、レーダ装置20から見て第2先行車両PV2の一部を第1先行車両PV1が隠す状態をいう。
 CPU11は、オクルージョン判定によって、隠されている車両を抽出する。そしてCPU11は、推定対象車両に設定されている車両の中から、オクルージョン判定によって抽出した車両を推定対象車両から除外する。
 以下に、オクルージョン判定の方法の一例を説明する。
 図8に示すように、CPU11は、第1先行車両PV1の存在に起因して矩形状の物体RC1を認識し、第2先行車両PV2の存在に起因して矩形状の物体RC2を認識しているとする。レーダ装置20から見て物体RC2が存在する方向と、レーダ装置20から見て物体RC1が存在する方向とが一致しており、且つ、物体RC2の距離は物体RC1の距離より長い。このため、CPU11は、第2先行車両PV2の一部を第1先行車両PV1が隠す状態であると判断することができる。
 隠された車両である第2先行車両PV2についてはリフクタRF2も隠されている可能性がある。そして、第2先行車両PV2のリフクタRF2であると誤認識された測距点を用いて軸ずれ量の推定を行うと、軸ずれ量の推定精度が低下する恐れがある。このため、隠されている車両は推定対象車両から除外される。一方、隠されていない車両である第1先行車両PV1については、リフクタRF1も隠されていないと判断され、推定対象車両から除外されない。
 S140の処理が終了すると、CPU11は、図5に示すように、S150にて、虚像判定を実行する。虚像は、図9に示すように、レーダ装置20から送信されたレーダ波が静止物(図9では、トンネル壁や防音壁)で反射した後に物体で反射し、その後、上記の静止物で反射したレーダ波をレーダ装置20が受信することで、物体と認識される像である。虚像は、壁や測定対象との位置関係によって、高さ方向にずれて見えることがある。このため、虚像を車両として学習してしまうと、軸ずれ量の推定精度が低下する。なお、図9の上側の図は、レーダ装置20、実像および虚像をレーダ装置20の上方から見た図である。図9の下側の図は、レーダ装置20、実像および虚像をレーダ装置20の後方から見た図である。
 具体的には、CPU11は、追跡された車両の中から、予め設定されたペア判定条件に基づいて、虚像および実像のペアを特定し、特定したペアのうち、反射強度が小さい方の車両を、虚像として抽出する。虚像は、実像に対して距離および相対速度のそれぞれの差が予め設定された閾値以下(例えば、距離差が5m以下、且つ、速度差が5km/h以下)となる特徴があるため、この特徴に基づいてペア判定条件が設定される。
 CPU11は、虚像判定によって、虚像であると判定された車両を抽出する。そしてCPU11は、推定対象車両に設定されている車両の中から、虚像判定によって抽出した車両を推定対象車両から除外する。
 S150の処理が終了すると、CPU11は、図5に示すように、S160にて、S130~S150の処理によって除外されずに残っている推定対象車両が存在しているか否かを判断する。ここで、推定対象車両が存在していない場合には、CPU11は、特徴量算出処理を終了する。
 一方、推定対象車両が存在している場合には、CPU11は、S170にて、推定対象車両におけるリフレクタの距離および観測レイヤを、特徴量として、メモリ12に設けられている特徴量リスト内に記憶して、特徴量算出処理を終了する。
 特徴量算出処理が終了すると、CPU11は、図4に示すように、S30にて、予め設定された推定可能判定条件が成立したか否かを判断する。本実施形態の推定可能判定条件は、後述する第1判定条件、第2判定条件および第3判定条件の全てが成立することである。
 第1判定条件は、自車両の車速が第1判定速度(例えば、40km/h)以上であることである。なお、自車両の車速は、車速センサ31によって検出される。
 第2判定条件は、自車両が直進していることである。なお、自車両が直進しているか否かは、自車両が走行している道路の曲率半径が予め設定された第2判定半径(例えば、1500m)以上であるか否かによって判断される。すなわち、曲率半径が第2判定半径以上である場合に、自車両が直進していると判断される。なお、道路の曲率半径は、車速センサ31によって検出される車速と、ヨーレートセンサ32によって検出されるヨーレートとに基づいて算出される。
 第3判定条件は、特徴量リストに、1台以上の推定対象車両におけるリフレクタの距離および観測レイヤが記憶されていることである。
 S30にて、推定可能判定条件が成立していない場合には、CPU11は、S70に移行する。一方、推定可能判定条件が成立している場合には、CPU11は、S40にて、軸ずれ量確率分布を算出する。
 ここで、軸ずれ量確率分布について説明する。
 車両においてリフレクタが搭載されている高さ(以下、リフレクタ搭載高)は、車両毎にばらついている。しかし、リフレクタ搭載高の範囲は保安基準により規定されている。例えば、日本では、「道路運送車両の保安基準の細目を定める告示」における第210条で規定され、米国では、Federal Motor Vehicle Safety Standard 108で規定されている。
 また、販売されている車両の種類(以下、車種)毎のリフレクタ搭載高と、車種毎の販売台数とに基づいて、例えば図10に示すように、リフレクタ搭載高の分布を算出することが可能である。図10に示すリフレクタ搭載高分布HDでは、横軸にリフレクタ搭載高が設定され、縦軸に頻度が設定されている。そして、図10に示すリフレクタ搭載高分布HDでは、リフレクタ搭載高は200mm~1500mmの範囲で分布している。
 そして、リフレクタ搭載高分布と、レーダ装置20が自車両に設置されている高さ(以下、レーダ設置高)と、レーダ装置20の選択視野における観測レイヤとに基づいて、尤度モデルが事前に作成される。尤度モデルは、軸ずれが無い状態において、先行車両のリフレクタの距離および垂直角度に応じたリフレクタの存在確率を定義する。
 尤度モデルは、レーダ装置20からの距離を複数の距離区間に分割し、距離区間毎リフレクタ搭載高分布を配置することにより算出される。
 説明を簡略化するために、図11に示すように、選択視野が、上から順に第1,2,3,4,5,6観測レイヤLY1,LY2,LY3,LY4,LY5,LY6を備えているとする。第1~6観測レイヤLY1~LY6における垂直角度範囲は互いに等しい。
 例えば、レーダ装置20から距離D1離れた位置では、リフレクタ搭載高分布HD1で示すように、第1~4観測レイヤLY1~LY4での存在確率が高く、第5観測レイヤLY5での存在確率が2番目に低く、第6観測レイヤLY6での存在確率が最も低い0である。
 また、レーダ装置20から距離D2離れた位置では、リフレクタ搭載高分布HD2で示すように、第5,6観測レイヤLY5,LY6での存在確率が最も低い0であり、第4観測レイヤLY4での存在確率が3番目に低く、第1観測レイヤLY1での存在確率が4番目に低く、第3観測レイヤLY3での存在確率が最も高い。
 また、レーダ装置20から距離D3離れた位置では、リフレクタ搭載高分布HD3で示すように、第1,5,6観測レイヤLY1,LY5,LY6での存在確率が最も低い0であり、第2観測レイヤLY2での存在確率が4番目に低く、第4観測レイヤLY4での存在確率が5番目に低く、第3観測レイヤLY3での存在確率が最も高い。
 図12に示す尤度モデルLMでは、横軸にレーダ装置20からの距離が設定され、縦軸に垂直角度が設定され、距離と垂直角度との組み合わせに応じて尤度が設定される。また尤度モデルLMでは、距離区間が5mに設定され、垂直角度区間が0.2°に設定されている。
 例えば、矩形R11で示すように、距離が10mであり、垂直角度が2.3°である場合の尤度は「10」である。また、矩形R12で示すように、距離が35mであり、垂直角度が0.3°である場合の尤度は「33」である。また、矩形R13で示すように、距離が70mであり、垂直角度が1.9°である場合の尤度は「0」である。
 そしてCPU11は、S40にて、特徴量リスト内に記憶されている複数の特徴量(すなわち、リフレクタの距離および観測レイヤ)と、尤度モデルとを用いて、軸ずれ量確率分布を算出する。
 軸ずれ量をxとし、特徴量をzとし、特徴量リスト内に記憶されている特徴量の数をmとして、軸ずれ量確率分布P(z|x)は、下式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 ここで、軸ずれ量確率分布P(z|x)の算出方法を図13および図14を用いて説明する。
 例えば、特徴量リスト内に第1特徴量、第2特徴量および第3特徴量が記憶されているとする。そして第1特徴量において、リフレクタの距離が30mであり、観測レイヤが第1観測レイヤLY1であるとする。また第2特徴量において、リフレクタの距離が60mであり、観測レイヤが第2観測レイヤLY2であるとする。また第3特徴量において、リフレクタの距離が80mであり、観測レイヤが第3観測レイヤLY3であるとする。
 図13に示すように、軸ずれ量が0°であると仮定した場合には、第1観測レイヤLY1は垂直角度が1.2°~1.8°の範囲を含むとする。第2観測レイヤLY2は垂直角度が0.6°~1.2°の範囲を含むとする。第3観測レイヤLY3は垂直角度が0.0°~0.6°の範囲を含むとする。第4観測レイヤLY4は垂直角度が-0.6°~0.0°の範囲を含むとする。第5観測レイヤLY5は垂直角度が-1.2°~-0.6°の範囲を含むとする。第6観測レイヤLY6は垂直角度が-1.8°~-1.2°の範囲を含むとする。
 第1特徴量では、リフレクタの距離が30mであり、観測レイヤが第1観測レイヤLY1である。このため、尤度モデルLMにおいて、リフレクタの距離が30mであり、角度が1.3°,1.5°,1.7°であるときの尤度、すなわち、「7」と「8」と「10」とが抽出される。そして、「7」と「8」と「10」との総和である「25」が、軸ずれ量が0°であると仮定したときの第1特徴量に対する尤度となる。この尤度は、L(z|x=0°)に相当する。
 また第2特徴量では、リフレクタの距離が60mであり、観測レイヤが第2観測レイヤLY2である。このため、尤度モデルLMにおいて、リフレクタの距離が60mであり、角度が0.7°,0.9°,1.1°であるときの尤度、すなわち、「5」と「8」と「15」とが抽出される。そして、「5」と「8」と「15」との総和である「28」が、軸ずれ量が0°であると仮定したときの第2特徴量に対する尤度となる。この尤度は、L(z|x=0°)に相当する。
 また第3特徴量では、リフレクタの距離が80mであり、観測レイヤが第3観測レイヤLY3である。このため、尤度モデルLMにおいて、リフレクタの距離が80mであり、角度が0.1°,0.3°,0.5°であるときの尤度、すなわち、「21」と「35」と「50」とが抽出される。そして、「21」と「35」と「50」との総和である「106」が、軸ずれ量が0°であると仮定したときの第3特徴量に対する尤度となる。この尤度は、L(z|x=0°)に相当する。
 このため、ずれ量が0°であると仮定したときの第1,2,3特徴量に対応する尤度の総和、すなわち、「25」と「28」と「106」との総和である「159」が、軸ずれ量が0°であると仮定したときの確率P(z|x=0°)に相当する値となる。
 また、図14に示すように、軸ずれ量が0.6°であると仮定した場合には、第1観測レイヤLY1は垂直角度が1.8°~2.4°の範囲を含む。第2観測レイヤLY2は垂直角度が1.2°~1.8°の範囲を含む。第3観測レイヤLY3は垂直角度が0.6°~1.2°の範囲を含む。第4観測レイヤLY4は垂直角度が0.0°~0.6°の範囲を含む。第5観測レイヤLY5は垂直角度が-0.6°~0.0°の範囲を含む。第6観測レイヤLY6は垂直角度が-1.2°~-0.6°の範囲を含む。
 第1特徴量では、リフレクタの距離が30mであり、観測レイヤが第1観測レイヤLY1である。このため、尤度モデルLMにおいて、リフレクタの距離が30mであり、角度が1.9°,2.1°,2.3°であるときの尤度、すなわち、「5」と「4」と「2」とが抽出される。そして、「5」と「4」と「2」との総和である「11」が、軸ずれ量が0.6°であると仮定したときの第1特徴量に対する尤度となる。この尤度は、L(z|x=0.6°)に相当する。
 また第2特徴量では、リフレクタの距離が60mであり、観測レイヤが第2観測レイヤLY2である。このため、尤度モデルLMにおいて、リフレクタの距離が60mであり、角度が1.3°,1.5°,1.7°であるときの尤度、すなわち、「0」と「0」と「0」とが抽出される。そして、「0」と「0」と「0」との総和である「0」が、軸ずれ量が0.6°であると仮定したときの第2特徴量に対する尤度となる。この尤度は、L(z|x=0.6°)に相当する。
 また第3特徴量では、リフレクタの距離が80mであり、観測レイヤが第3観測レイヤLY3である。このため、尤度モデルLMにおいて、リフレクタの距離が80mであり、角度が0.7°,0.9°,1.1°であるときの尤度、すなわち、「8」と「4」と「0」とが抽出される。そして、「8」と「4」と「0」との総和である「12」が、軸ずれ量が0.6°であると仮定したときの第3特徴量に対する尤度となる。この尤度は、L(z|x=0.6°)に相当する。
 このため、軸ずれ量が0.6°であると仮定したときの第1,2,3特徴量に対応する尤度の総和、すなわち、「11」と「0」と「12」との総和である「23」が、軸ずれ量が0.6°であると仮定したときの確率P(z|x=0.6°)に相当する値となる。
 そして、軸ずれ量がφであると仮定したときの確率P(z|x=φ)の算出を、例えば、尤度モデルLMで設定されている角度-1.7°,-1.5°,-1.3°,-1.1°,・・・,-0.1°,0.1°,0.3°,・・・,3.3°,3.5°,3.7°のそれぞれで行うことによって、軸ずれ量確率分布P(z|x)が得られる。
 但し、軸ずれ量確率分布P(z|x)は、xの全範囲で積分した値が1となるように正規化される。
 S40の処理が終了すると、CPU11は、図4に示すように、S50にて、軸ずれ量確率分布を更新する。具体的には、CPU11は、前回のフレームにおけるS50で更新された軸ずれ量確率分布をPt-1とし、今回のフレームにおけるS40で算出された軸ずれ量確率分布をPとし、今回のフレームにおけるS50で更新される軸ずれ量確率分布をPとし、重み係数をaとして、下式(2)により軸ずれ量確率分布を更新する。
 P = a×Pt-1+(1-a)×P ・・・(2)
 さらにCPU11は、S60にて、S50で更新された軸ずれ量確率分布に基づいて軸ずれ量を算出し、S70に移行する。具体的には、CPU11は、図15に示すように、S50で更新された軸ずれ量確率分布Pを正規分布NDと仮定して、平均値および標準偏差を算出する。
 すなわち、CPU11は、軸ずれ量確率分布Pのピーク位置wpeakを軸ずれ量δとする。またCPU11は、下式(3)に示すように、ピーク値Peakに対して60%の値となる第1位置wと第2位置wとの差の半分を標準偏差σとする。なお、第1位置wの値は第2位置wの値より大きい。
 σ = (w-w)/2 ・・・(3)
 S70に移行すると、CPU11は、図4に示すように、予め設定された補正開始条件が成立したか否かを判断する。本実施形態の補正条件は、特徴量リスト内に記憶されている特徴量の数が予め設定された第1補正判定値以上であり、且つ、S60で算出された標準偏差σが予め設定された第2補正判定値以下であることである。
 ここで、補正開始条件が成立していない場合には、CPU11は、メインルーチンを終了する。一方、補正開始条件が成立している場合には、CPU11は、S80にて、軸ずれ補正量を算出する。軸ずれ補正量は、今回のフレームで算出された軸ずれ量から、前回のフレームまでに算出された軸ずれ量の中で最新の軸ずれ量を減算することによって算出される。
 そしてCPU11は、S90にて、S80で算出された軸ずれ補正量だけ選択視野をZ軸方向に沿って移動させることによって、軸ずれを補正する。なお、選択視野におけるZ軸方向に沿った移動は、1観測レイヤ分の垂直角度毎にしか行えない。このため、S80にて、軸ずれ補正量は、1観測レイヤ分の垂直角度を単位として算出される。
 S90の処理が終了すると、CPU11は、メインルーチンを終了する。
 このように構成された電子制御装置10は、自車両VHに搭載されたレーダ装置20による検出結果に基づいて、車両の前方で走行する先行車両のリフレクタの距離および観測レイヤを取得する。
 電子制御装置10は、リフレクタの距離および垂直角度とリフレクタの存在確率との対応関係が予め設定された尤度モデルLMと、複数のリフレクタの距離および観測レイヤとを用いて、最尤推定法により、レーダ装置20の軸ずれ量を算出する。
 このような電子制御装置10は、尤度モデルを用いることによって、先行車両のリフレクタの設置位置のばらつきを考慮して軸ずれ量を算出することができるため、軸ずれ量の推定精度を向上させることができる。
 また電子制御装置10は、リフレクタ高が予め設定された除外判定高を超えているか否かを判断し、リフレクタ高が除外判定高を超えている場合には、リフレクタ高が除外判定高を超えているリフレクタの距離および観測レイヤを、軸ずれ量の算出から除外する。
 また電子制御装置10は、レーダ装置20に対して第2先行車両PV2の一部が第1先行車両PV1に隠されているオクルージョンが発生しているか否かを判断し、オクルージョンが発生していると判断した場合には、第2先行車両PV2のリフレクタの距離および観測レイヤを、軸ずれ量の算出から除外する。
 また電子制御装置10は、先行車両が虚像であるか否かを判断し、先行車両が虚像であると判断した場合には、虚像であると判断された先行車両のリフレクタの距離および観測レイヤを、軸ずれ量の算出から除外する。
 これにより、電子制御装置10は、軸ずれ量の算出に不適切なリフレクタを除外して、軸ずれ量の算出を行うことができるため、軸ずれ量の推定精度を更に向上させることができる。
 また、リフレクタの存在確率は、販売されている車両のリフレクタの設置高さの分布と、レーダ設置高とに基づいて設定される。これにより、電子制御装置10は、軸ずれ量の推定精度を更に向上させることができる。
 以上説明した実施形態において、電子制御装置10は軸ずれ推定装置に相当し、S110,S120はリフレクタ情報取得部としての処理に相当し、S40~S60は軸ずれ量算出部としての処理に相当し、リフレクタの距離および観測レイヤはリフレクタ位置情報に相当する。
 また、S130はリフレクタ高除外部としての処理に相当し、S140は*オクルージョン除外部としての処理に相当し、S150は虚像除外部としての処理に相当する。
 以上、本開示の一実施形態について説明したが、本開示は上記実施形態に限定されるものではなく、種々変形して実施することができる。
 本開示に記載の電子制御装置10およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の電子制御装置10およびその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の電子制御装置10およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。電子制御装置10に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
 上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加または置換してもよい。
 上述した電子制御装置10の他、当該電子制御装置10を構成要素とするシステム、当該電子制御装置10としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実体的記録媒体、軸ずれ推定方法など、種々の形態で本開示を実現することもできる。

Claims (7)

  1.  車両(VH)に搭載されたレーダ装置(20)による検出結果に基づいて、前記車両の前方で走行する先行車両のリフレクタの位置を示すリフレクタ位置情報を取得するように構成されたリフレクタ情報取得部(S110,S120)と、
     前記リフレクタの位置と前記リフレクタの存在確率との対応関係が予め設定された尤度モデルと、複数の前記リフレクタ位置情報とを用いて、最尤推定法により、前記レーダ装置の軸ずれ量を算出するように構成された軸ずれ量算出部(S40~S60)と
     を備える軸ずれ推定装置(10)。
  2.  請求項1に記載の軸ずれ推定装置であって、
     前記尤度モデルにおける前記リフレクタの位置は、前記レーダ装置と前記リフレクタとの間の距離と、前記レーダ装置がレーダ波を送受信する方向となる光軸(LA)に対して前記リフレクタが存在する垂直方向の角度である垂直角度とを含む軸ずれ推定装置。
  3.  請求項1または請求項2に記載の軸ずれ推定装置であって、
     前記リフレクタの高さが予め設定された除外判定高を超えているか否かを判断し、前記リフレクタの高さが前記除外判定高を超えている場合には、前記リフレクタの高さが前記除外判定高を超えている前記リフレクタ位置情報を、前記軸ずれ量算出部による前記軸ずれ量の算出から除外するように構成されたリフレクタ高除外部(S130)を備える軸ずれ推定装置。
  4.  請求項1~請求項3の何れか1項に記載の軸ずれ推定装置であって、
     複数の前記先行車両のうち、一つの前記先行車両を第1先行車両とし、前記第1先行車両とは異なる前記先行車両を第2先行車両として、前記レーダ装置に対して前記第2先行車両の一部が前記第1先行車両に隠されているオクルージョンが発生しているか否かを判断し、前記オクルージョンが発生していると判断した場合には、前記第2先行車両の前記リフレクタ位置情報を、前記軸ずれ量算出部による前記軸ずれ量の算出から除外するように構成されたオクルージョン除外部(S140)を備える軸ずれ推定装置。
  5.  請求項1~請求項4の何れか1項に記載の軸ずれ推定装置であって、
     前記先行車両が虚像であるか否かを判断し、前記先行車両が前記虚像であると判断した場合には、前記虚像であると判断された前記先行車両の前記リフレクタ位置情報を、前記軸ずれ量算出部による前記軸ずれ量の算出から除外するように構成された虚像除外部(S150)を備える軸ずれ推定装置。
  6.  請求項1~請求項5の何れか1項に記載の軸ずれ推定装置であって、
     前記リフレクタの前記存在確率は、販売されている前記車両の前記リフレクタの設置高さの分布に基づいて設定される軸ずれ推定装置。
  7.  請求項1~請求項6の何れか1項に記載の軸ずれ推定装置であって、
     前記リフレクタの前記存在確率は、前記レーダ装置が設置される高さに基づいて設定される軸ずれ推定装置。
PCT/JP2022/021413 2021-05-28 2022-05-25 軸ずれ推定装置 WO2022250086A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/518,244 US20240094341A1 (en) 2021-05-28 2023-11-22 Misalignment calculation apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-090345 2021-05-28
JP2021090345A JP2022182658A (ja) 2021-05-28 2021-05-28 軸ずれ推定装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/518,244 Continuation US20240094341A1 (en) 2021-05-28 2023-11-22 Misalignment calculation apparatus

Publications (1)

Publication Number Publication Date
WO2022250086A1 true WO2022250086A1 (ja) 2022-12-01

Family

ID=84230079

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/021413 WO2022250086A1 (ja) 2021-05-28 2022-05-25 軸ずれ推定装置

Country Status (3)

Country Link
US (1) US20240094341A1 (ja)
JP (1) JP2022182658A (ja)
WO (1) WO2022250086A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184331A (ja) * 2002-12-05 2004-07-02 Denso Corp 車両用物体認識装置
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2008094249A (ja) * 2006-10-11 2008-04-24 Denso Corp 車両検出装置及びヘッドランプ制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004184331A (ja) * 2002-12-05 2004-07-02 Denso Corp 車両用物体認識装置
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2008094249A (ja) * 2006-10-11 2008-04-24 Denso Corp 車両検出装置及びヘッドランプ制御装置

Also Published As

Publication number Publication date
JP2022182658A (ja) 2022-12-08
US20240094341A1 (en) 2024-03-21

Similar Documents

Publication Publication Date Title
JP6784943B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP5689907B2 (ja) 車両において通行物体位置検出を向上する方法
JP6208260B2 (ja) 物体認識装置
JP4407920B2 (ja) 障害物認識方法及び障害物認識装置
JPH07129898A (ja) 障害物検出装置
KR20140122810A (ko) 차선 추정 장치 및 그 방법
WO2016021606A1 (ja) 複数の物体検出手段を用いた物体認識装置
JP4052291B2 (ja) 車両用画像処理装置
JP2016065760A (ja) 物体検出装置
US8675047B2 (en) Detection device of planar area and stereo camera system
CN111699404A (zh) 行驶辅助目标获取方法与装置、雷达、行驶系统与车辆
Nishigaki et al. Vision-based lateral position improvement of radar detections
KR101030317B1 (ko) 스테레오 비전을 이용하여 장애물을 추적하는 장치 및 방법
WO2019065970A1 (ja) 車両用外界認識装置
JP6204782B2 (ja) オフロードダンプトラック
JP7071154B2 (ja) 道路境界検出装置
WO2022250086A1 (ja) 軸ずれ推定装置
EP3896387B1 (en) Image processing device
JP7064400B2 (ja) 物体検知装置
WO2020036039A1 (ja) ステレオカメラ装置
CN110488320A (zh) 一种利用立体视觉检测车辆距离的方法
WO2022019162A1 (ja) 距離検出装置
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method
JP2005332120A (ja) 障害物認識方法及び障害物認識装置
JP2020030466A (ja) 物体検知装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22811356

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22811356

Country of ref document: EP

Kind code of ref document: A1