WO2016031919A1 - 軸ずれ診断装置 - Google Patents

軸ずれ診断装置 Download PDF

Info

Publication number
WO2016031919A1
WO2016031919A1 PCT/JP2015/074250 JP2015074250W WO2016031919A1 WO 2016031919 A1 WO2016031919 A1 WO 2016031919A1 JP 2015074250 W JP2015074250 W JP 2015074250W WO 2016031919 A1 WO2016031919 A1 WO 2016031919A1
Authority
WO
WIPO (PCT)
Prior art keywords
target
detection performance
recognition
detection
vehicle
Prior art date
Application number
PCT/JP2015/074250
Other languages
English (en)
French (fr)
Inventor
高木 亮
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/506,677 priority Critical patent/US10705186B2/en
Publication of WO2016031919A1 publication Critical patent/WO2016031919A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • G01S7/4034Antenna boresight in elevation, i.e. in the vertical plane
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction

Definitions

  • the present invention relates to a technique for detecting an axial deviation of a beam sensor mounted on a vehicle.
  • the axis deviation of the beam sensor means that a reference axis (hereinafter referred to as a beam axis) along the traveling direction of the beam output from the beam sensor is deviated from a previously designed axis position. .
  • a beam sensor has been used to perform various controls for improving the driving safety of a vehicle.
  • This beam sensor detects a target existing around the vehicle by transmitting a probe beam such as a laser beam, an ultrasonic wave, and a millimeter wave and detecting a reflected beam.
  • the beam sensor is attached to a predetermined mounting position of the vehicle so that the exploration beam is irradiated to a predetermined irradiation range, and its beam axis coincides with a pre-designed axis position. For this reason, if the mounting position of the beam sensor is deviated from a predetermined mounting position due to some factor, the beam axis may be shifted from a pre-designed axial position. There is a risk that the waves will not be irradiated. Thereby, the detection accuracy of the target in a beam sensor falls, and there exists a possibility that the problem that the precision of various controls which improve the driving
  • the deviation of the beam axis from the predesigned axis position is also simply referred to as an axis deviation.
  • the axial deviation in the vertical plane including the beam axis is referred to as the vertical axial deviation
  • the axial deviation in the horizontal plane including the beam axis is also referred to as the horizontal axial deviation.
  • Patent Document 1 detects a vanishing point based on an image captured while a vehicle equipped with a laser beam sensor is running.
  • This technology detects an error between the laser beam delivery direction and the vehicle straight direction based on the detected vanishing point and the laser beam delivery direction when adjusting the laser beam axis, that is, when the vehicle is stopped. To do.
  • This technique corrects the laser beam transmission direction based on the detected error.
  • Patent Document 1 can correct the laser beam transmission direction based on vanishing points detected from an image captured while a vehicle equipped with a laser beam sensor is traveling.
  • this technique corrects the laser beam transmission direction when the laser beam axis is adjusted, that is, when the vehicle is stopped. Therefore, with this technology, it has been difficult to detect the axial deviation of the laser beam sensor when the vehicle is traveling.
  • a first object of this disclosure is to provide a technique for detecting an axial deviation of a beam axis in a beam sensor mounted on a vehicle when the vehicle is traveling.
  • a second object of the present disclosure is to improve detection accuracy of a beam axis misalignment in a beam sensor mounted on a vehicle.
  • a first aspect of the present invention is a diagnosis of a beam sensor (11) that is mounted on a vehicle, transmits a probe beam, receives a reflected beam based on the probe beam, and detects a target based on the received reflected beam.
  • the diagnostic apparatus includes a diagnostic unit (13d, S300) for diagnosing whether or not a vertical axis deviation, which is an axis deviation with respect to a design beam axis position in a vertical direction corresponding to a vehicle height direction, has occurred with respect to the search beam. Have.
  • the diagnostic device may detect the detection performance based on the detection performance information indicating whether or not the target detection performance by the beam sensor may be lower than the predetermined detection performance.
  • the diagnosis by the diagnosis unit is executed, and the detection performance is lower than the predetermined detection performance.
  • the determination unit 13c, S200 prohibits the diagnosis by the diagnosis unit.
  • the vertical axis which is an axis deviation with respect to the design beam axis position in the vertical direction. Do not perform misalignment diagnosis. For this reason, it is possible to suppress erroneous detection of a situation in which the detection performance of the target by the beam sensor may be deteriorated as a vertical axis deviation that is an axis deviation with respect to the design beam axis position in the vertical direction. it can. That is, the detection accuracy of the vertical deviation of the beam sensor can be improved.
  • a beam sensor (11) is mounted on a vehicle, transmits a probe beam, receives a reflected beam based on the probe beam, and detects a target based on the received reflected beam.
  • This diagnostic apparatus diagnoses whether or not a vertical axis deviation, which is an axis deviation with respect to the design beam axis position in the vertical direction corresponding to the vehicle height direction, has occurred with respect to the search beam, and the vertical axis deviation has occurred. If there is, a diagnostic means (13d, S300) for obtaining the vertical axis deviation amount is provided.
  • the diagnostic apparatus further includes an information acquisition unit that acquires detection performance information indicating whether or not the target detection performance by the beam sensor may be lower than a predetermined detection performance. Further, the detection performance information indicates that there is a possibility that the detection performance may be lower than the predetermined detection performance by correcting the vertical axis deviation amount obtained by the diagnosis unit in the diagnostic device. In this case, the value of the vertical axis deviation amount is set to be smaller than the value of the vertical axis deviation value obtained by the diagnostic means when there is no possibility that the detection performance is lower than the predetermined detection performance.
  • a correction unit (S220) is included.
  • the value of the vertical axis deviation amount is lower than the predetermined detection performance.
  • the amount of vertical axis deviation is corrected so as to be smaller than the value of the amount of vertical axis deviation when there is no possibility of being. By this correction, the vertical axis deviation amount of the beam sensor can be obtained as an appropriate value in consideration of a decrease in detection performance.
  • FIG. 1 is a block diagram showing an example of the configuration of a driving support system and a target recognition apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a diagram for explaining a mounting position of the radar sensor shown in FIG. 1 with respect to the vehicle.
  • FIG. 3 is a diagram for explaining an axial deviation in the horizontal direction and an axial deviation in the vertical direction of the radar sensor shown in FIG.
  • FIG. 4 is a diagram for explaining detection ranges of the radar sensor and the image sensor shown in FIG.
  • FIG. 5A is a graph showing an example of the intensity distribution of the reflected beam obtained by the beam recognition unit shown in FIG. 1 in a state where the detection performance of the radar sensor shown in FIG. 1 has not deteriorated.
  • FIG. 1 is a block diagram showing an example of the configuration of a driving support system and a target recognition apparatus according to the first embodiment of the present invention.
  • FIG. 2 is a diagram for explaining a mounting position of the radar sensor shown in FIG. 1 with respect to the vehicle.
  • FIG. 5B is a graph illustrating an example of the intensity distribution of the reflected beam obtained by the beam recognition unit illustrated in FIG. 1 in a state where the detection performance of the radar sensor illustrated in FIG. 1 is degraded.
  • FIG. 6 is a flowchart schematically showing an example of the radar axis misalignment diagnosis process according to the first embodiment of the present invention.
  • FIG. 7 is a flowchart schematically showing an example of vertical axis deviation diagnosis processing in the radar axis deviation diagnosis processing shown in FIG. 6.
  • FIG. 8A is a flowchart showing detection count processing in the vertical axis deviation diagnosis processing.
  • FIG. 8B is a diagram showing a distance determination table used in the detection count process.
  • FIG. 9A is an explanatory diagram illustrating an example of equations used for the abnormal recognition rate calculation processing and the abnormal recognition rate calculation processing in the vertical axis deviation diagnosis processing.
  • FIG. 9B is a diagram illustrating an example of a specific method for obtaining the first ratio calculation process.
  • FIG. 9C is a diagram illustrating an example of a specific method for obtaining the second ratio calculation process.
  • FIG. 10A is a graph showing the relationship between the distance from the host vehicle to the preceding vehicle and the target double recognition ratio when weighting is not performed on the first counter, the second counter, and the third counter. It is.
  • FIG. 10B shows the distance between the host vehicle and the preceding vehicle and the target double recognition ratio when weighting is performed on at least one of the first counter, the second counter, and the third counter.
  • FIG. 11A is a diagram showing a first map used for a vertical axis deviation amount calculation process in the vertical axis deviation diagnosis process.
  • FIG. 11B is a diagram showing a second map used for the vertical axis deviation amount calculation process in the vertical axis deviation diagnosis process.
  • FIG. 12 is a diagram for explaining the effect of the vertical axis misalignment diagnosis process according to the first embodiment and the detection count process according to the third embodiment.
  • FIG. 13 is a flowchart illustrating an example of an axis misalignment diagnosis process according to the second embodiment of the present invention.
  • FIG. 14A is a flowchart schematically showing an example of detection count processing according to the third embodiment of the present invention.
  • FIG. 14B is a diagram illustrating an example of a distance determination table according to the third embodiment of this invention.
  • FIG. 15A is an explanatory diagram illustrating an example of expressions used in the abnormal recognition rate calculation process and the abnormal recognition rate calculation process in the vertical axis misalignment diagnosis process according to the third embodiment.
  • FIG. 15B is a diagram illustrating an example of a specific method for obtaining the first ratio calculation process according to the third embodiment.
  • FIG. 15C is a diagram illustrating an example of a specific method for obtaining the second ratio calculation process according to the third embodiment.
  • FIG. 16 is a flowchart illustrating an example of an axis misalignment diagnosis process according to the fourth embodiment of the present invention.
  • FIG. 15A is an explanatory diagram illustrating an example of expressions used in the abnormal recognition rate calculation process and the abnormal recognition rate calculation process in the vertical axis misalignment diagnosis process according to the third embodiment.
  • FIG. 15B is a diagram illustrating an example of a specific method for
  • FIG. 17 is a timing chart for explaining the operation of the target recognition apparatus according to the fourth embodiment.
  • FIG. 18 is a flowchart illustrating an example of an axis misalignment diagnosis process according to the fifth embodiment of the present invention.
  • FIG. 19 is a timing chart for explaining the operation of the target recognition apparatus according to the fifth embodiment.
  • FIG. 20 is a flowchart illustrating an example of the axis misalignment diagnosis process according to the sixth embodiment of the present invention.
  • FIG. 21 is a diagram illustrating an example of a table that is prepared in the target recognition apparatus according to the sixth embodiment and represents the relationship between the correction coefficient and the detection performance deterioration factor.
  • FIG. 22 is a timing chart for explaining the operation of the target recognition apparatus according to another embodiment of the present invention.
  • the driving support system 10 of the first embodiment includes a radar sensor 11, an image sensor 12, a target recognition device 13, and a driving support execution device 14.
  • the driving support system 10 is mounted on the vehicle 1.
  • the target recognition device 13 is connected to each of the radar sensor 11, the image sensor 12, and the driving support execution device 14 so as to be able to communicate with each other.
  • the radar sensor 11 irradiates a radar wave (radar beam) toward the first exploration area set in front of the host vehicle 1, and receives the reflected wave (reflected beam).
  • a radar wave radar beam
  • the radar sensor 11 and the target recognition device 13 constitute a well-known FMCW (Frequency Modulated Continuous Wave) radar that uses millimeter waves to detect a target existing in the first exploration area.
  • FMCW Frequency Modulated Continuous Wave
  • the radar sensor 11 is attached to a predetermined position at the front end of the host vehicle 1.
  • the center axis (radar axis) of the detection range is the front-rear direction of the host vehicle 1 (the longitudinal direction of the host vehicle 1 and the x-axis direction shown in FIG. 2) and the vertical direction.
  • the vehicle height direction perpendicular to the y-axis direction shown in FIG. 2 which is the x-axis direction and the vehicle width direction and the z-axis direction shown in FIG. 2 is attached at a predetermined angle. .
  • the radar sensor 11 has a predetermined direction (here, as an example) in the vehicle width direction (y-axis direction) in the xy plane (horizontal plane) of the host vehicle 1. (the direction of the x-axis) is attached so that the center axis M of the detection range is a predetermined angle ⁇ Y0 .
  • the radar sensor 11 has a predetermined direction in the vehicle height direction (z-axis direction) (here, the z-axis direction as an example) in the xz plane (vertical plane). Is attached at a predetermined angle ⁇ Z0 .
  • an angle (for example, ⁇ Ym ) between the center axis M of the detection range and a predetermined direction (x-axis) in the vehicle width direction is a predetermined angle in the horizontal plane.
  • the state changed from ⁇ Y0 (the shifted state) is referred to as a state in which a horizontal axis deviation has occurred.
  • an angle (for example, ⁇ Zm ) formed by the center axis M of the detection range and a predetermined direction (z-axis) in the vehicle height direction in the vertical plane is a predetermined angle.
  • the state changed from ⁇ Z0 (the shifted state) is referred to as a state in which an axial shift occurs in the vertical direction.
  • the radar sensor 11 is disposed, for example, in the central portion of the front end of the vehicle 1, and the frequency linearly increases (uplink modulation) and decreases (downlink modulation) with respect to time.
  • Transmit the transmitted wave (transmission beam) toward the first exploration area receive the radio wave (reflected beam) reflected by the target ahead, transmit the transmission wave (transmission beam) and the received wave (reception beam)
  • the radar sensor 11 extracts a beat signal having a beat frequency corresponding to the distance and relative speed between the radar sensor 11 and the target as received data.
  • the radar sensor 11 at least one of a transmission antenna and a reception antenna is configured by an array antenna. Note that a combination of a transmission antenna and a reception antenna is called a channel.
  • the radar sensor 11 extracts a beat signal for each channel.
  • the radar sensor 11 performs AD conversion on the extracted beat signal using an AD converter and outputs the result.
  • the output beat signal is input to the target recognition device 13.
  • the image sensor 12 includes, for example, a CCD camera disposed above the radar sensor 11 at the front end portion of the host vehicle 1, for example.
  • the second exploration area set in front of the vehicle 1 is imaged.
  • the CCD camera uses an angular range wider than the detection range of the radar sensor 11 as a detection range (see FIG. 4).
  • the first exploration region (first detection range) by the radar sensor 11 is a predetermined along the horizontal direction (the vehicle width direction of the vehicle 1) around the beam axis of the radar beam. For example, it is a region that expands in a fan shape so as to have an angle of view.
  • the second exploration region (second detection range) by the image sensor 12 is a region that spreads in a fan shape, for example, so as to have a predetermined angle of view along the horizontal direction (vehicle width direction) with the optical axis at the center. is there.
  • the beam axis of the radar sensor 11 and the optical axis of the image sensor 12 coincide with each other when viewed from above the vehicle 1.
  • the first exploration area (first detection range) by the radar sensor 11 has a predetermined angle of view along the vertical direction (the height direction of the vehicle 1) around the beam axis of the radar sensor 11.
  • it is fan-shaped.
  • the second exploration region (second detection range) by the image sensor 12 extends, for example, in a fan shape so as to have a predetermined angle of view along the vertical direction (height direction) around the optical axis. (See FIG. 12A).
  • the first search area and the second search area overlap each other.
  • the image sensor 12 detects a predetermined target (vehicle, pedestrian, etc.) existing within the imaging range by performing known image processing such as template matching on the imaging data captured by the CCD camera.
  • the image sensor 12 transmits information on the target (hereinafter referred to as an image target) detected by this processing to the target recognition device 13 as image target information.
  • the image target information includes at least information about the type, size, and position (distance, azimuth) of the detected image target.
  • the target recognition device 13 includes, for example, a microcomputer including a CPU 31, a ROM 32, and a RAM 33, and a digital signal processor (DSP) 34 for executing signal processing such as fast Fourier transform (FFT).
  • DSP digital signal processor
  • the CPU 31 of the target recognition device 13 functions as a beam recognition unit 13 a that recognizes various targets existing in the first exploration area and generates target information to be provided to the driving support execution device 14.
  • the CPU 31 of the target recognition device 13 recognizes various targets existing in the second exploration area according to the image target information acquired from the image sensor 12 and provides the target to the driving support execution device 14. It functions as an image recognition unit 13b that generates mark information.
  • the beam recognizing unit 13a calculates the intensity distribution of the reflected beam received in the first search area according to the beat signal acquired from the radar sensor 11. Then, the beam recognizing unit 13a recognizes the azimuth in which the intensity of the received reflected beam is equal to or greater than the predetermined threshold A as the azimuth where the predetermined target exists. In the first embodiment, the beam recognition unit 13a recognizes a preceding vehicle traveling in front of the host vehicle 1 as a predetermined target. In addition, since the recognition method of the various targets in the target recognition process by the beam recognition part 13a and the image recognition part 13b is a known technique, detailed description is abbreviate
  • the target recognition device 13 determines whether or not the target detection performance by the radar sensor 11 may be lower than the predetermined detection performance, and determines to output the determination result as detection performance information.
  • a portion 13c is provided. For example, if dirt is attached in the front direction of the radar sensor 11, that is, the direction in which the radar wave is emitted from the radar sensor 11, the detection performance of the radar sensor 11 is deteriorated compared to when no dirt is attached. . In such a case, as shown in FIG. 5B as an example, the intensity of the received reflected beam decreases, and even in an azimuth where the intensity of the received reflected beam is greater than or equal to a predetermined threshold A when there is no dirt.
  • the intensity of the received reflected beam is less than a predetermined threshold A. That is, there is a possibility that the preceding vehicle is not detected.
  • the intensity of the received reflected beam is similarly reduced when it is raining or snowing or when it is affected by sand dust.
  • the determination unit 13c of the target recognition device 13 may detect the radar sensor when the intensity of the reflected beam received in the entire range (all detection range) of the first search area is less than a predetermined threshold B smaller than the threshold A.
  • Detection performance information indicating that there is a possibility that the detection performance of the radar sensor 11 is degraded, and the detection performance of the radar sensor 11 is degraded when the intensity of the received radio wave is greater than or equal to the threshold value B in the entire detection range. Detection performance information indicating that there is no possibility of being present.
  • the CPU 13 of the target recognizing device 13 functions as an axis misalignment diagnosis unit that executes a radar axis misalignment diagnosis process for determining whether or not an axis misalignment has occurred in the radar sensor 11.
  • the driving assistance execution device 14 controls various on-vehicle devices according to the processing result (target information) in the target recognition device 13 and executes predetermined driving assistance.
  • the driving support execution device 14 includes at least a monitor that displays various images and a speaker that outputs an alarm sound and guidance sound as in-vehicle devices to be controlled.
  • the driving support execution device 14 may further include various control devices that control the internal combustion engine, the power train mechanism, the brake mechanism, and the like mounted on the host vehicle 1 as in-vehicle devices to be controlled.
  • the target recognition device 13 acquires the detection performance information described above (step S100). Note that the processing in step S100 by the CPU 31 or the hardware configuration corresponding to the processing corresponds to an example of the information acquisition unit. Next, the target recognition device 13 determines whether or not the target detection performance by the radar sensor 11 may be lower than the predetermined detection performance (step S200).
  • the target recognition device 13 detects the target by the radar sensor 11 when the detection performance information acquired in step S100 indicates that the detection performance of the radar sensor 11 may be degraded. It is determined that there is a possibility that the performance is lower than the predetermined detection performance (step S200; YES), execution of the vertical axis deviation diagnosis process is prohibited, and this radar axis deviation diagnosis process is terminated. That is, the target recognizing device 13 does not execute the vertical axis deviation diagnosis process, and ends the radar axis deviation diagnosis process.
  • step S100 when the detection performance information acquired in step S100 indicates that there is no possibility that the detection performance of the radar sensor 11 has deteriorated (NO in step S200), the target recognition device 13 In step S300, vertical axis deviation diagnosis processing is executed.
  • step S200 the hardware configuration that implements the determination process of step S200 by the CPU 31 or the determination process of step S200 corresponds to, for example, the determination unit 13c.
  • the hardware configuration that realizes the diagnostic processing in step S300 by the CPU 31 or the diagnostic processing in step S300 corresponds to, for example, the diagnostic unit 13d.
  • the target recognition device 13 After executing the vertical axis deviation diagnosis process in step S300, the target recognition device 13 ends the radar axis deviation diagnosis process.
  • the target recognition apparatus 13 executes a detection count process that is a subroutine (S1010).
  • the detection count process will be described later.
  • the vertical axis deviation diagnosis process proceeds to step S1020.
  • step S1020 the target recognizing device 13 executes a target bi-recognition ratio calculation process that is a subroutine.
  • the target bi-recognition ratio calculation process will be described later.
  • the vertical axis deviation diagnosis process proceeds to step 1030.
  • step S1030 the target recognition device 13 executes an abnormal recognition rate calculation process.
  • the abnormal recognition ratio calculation process will be described later.
  • the vertical axis deviation diagnosis process proceeds to step S1040.
  • step S1040 vertical axis deviation amount calculation processing is executed.
  • the vertical axis deviation amount calculation process will be described later. Thereafter, the target recognition device 13 ends the vertical axis misalignment diagnosis process.
  • the target recognition device 13 determines whether or not the image target and the millimeter wave target match (S1110).
  • the image target refers to the preceding vehicle 9 that has been image-recognized by the image sensor 12
  • the millimeter wave target refers to the preceding vehicle 9 that has been radar-recognized by the radar sensor 11.
  • the coincidence between the image target and the millimeter wave target means that the recognized preceding vehicle 9 is recognized by both the radar recognition by the radar sensor 11 and the image recognition by the image sensor 12.
  • the target recognizing device 13 recognizes the preceding vehicle recognized when the radar-recognized preceding vehicle 9 exists within a predetermined range including the image-recognized preceding vehicle 9. It is determined that the vehicle 9 has been recognized by both radar recognition by the radar sensor 11 and image recognition by the image sensor 12.
  • the target recognition device 13 includes identification information (for example, appearance information of the millimeter wave target) included in the millimeter wave target obtained based on the radar recognition result by the radar sensor 11 and an image by the image sensor 12. It is determined whether or not the identification information (for example, appearance information of the image target) included in the image target obtained based on the recognition result matches.
  • identification information included in the millimeter wave target matches the identification information included in the image target as a result of this determination, the target recognition device 13 is the same by both the radar sensor 11 and the image sensor 12. It is determined that the target, i.e., the same preceding vehicle is recognized.
  • step S1110 If the determination in step S1110 is affirmative (S1110: YES), the detection count process proceeds to step S1120. On the other hand, when it is negative determination (S1110: NO), a detection count process transfers to step S1130.
  • step S1120 the target recognition device 13 performs target distance determination. Specifically, the target recognition device 13 determines the distance between the host vehicle 1 and the preceding vehicle 9 that has undergone radar recognition and image recognition. For the target distance determination, either the radar recognition result or the image recognition result may be used. Thereafter, the detection count process proceeds to step S1140.
  • step S1130 the target recognition device 13 performs target distance determination. Specifically, the target recognition device 13 determines the distance between the host vehicle 1 and the preceding vehicle 9 that has been image-recognized. Note that the result of image recognition is used for this target distance determination. Thereafter, the detection count process proceeds to step S1170.
  • step S1140 the target recognition apparatus 13 determines whether or not the radar recognition result is abnormal recognition. Specifically, the target recognition device 13 determines whether or not the radar recognition by the radar sensor 11 is an abnormal recognition result. If the determination result is affirmative, that is, if the radar recognition result is an abnormal recognition result (step S1140: YES), the detection count process proceeds to step S1160. On the other hand, when a negative determination is made, that is, when the radar recognition result is a normal recognition result (step S1140: NO), the detection count process proceeds to step S1150.
  • the abnormal recognition result means, for example, a result different from the normal recognition result in the first embodiment.
  • the resolution of the radar recognition result is inferior to the resolution of the radar recognition result in the normal case, or when the same target is detected continuously (periodically), in a certain cycle, due to disturbance, The case where the target cannot be detected is included in the abnormal recognition result.
  • the target recognizing device 13 increments the first counter C1 of hardware or software prepared in the own device 13.
  • the target recognizing device 13 is exemplified in FIG. 8B and refers to the distance determination table prepared in the own device 13 between the own vehicle 1 and the preceding vehicle 9 determined in step S1120.
  • the first counter C1 corresponding to the distance is incremented.
  • the first counter C1 is a counter indicating the number of times the preceding vehicle 9 has been normally recognized by the radar (that is, the preceding vehicle 9 is recognized by both the radar recognition by the radar sensor 11 and the image recognition by the image sensor 12). Counter) indicating the number of times the image has been recorded, and is prepared for each distance area set in the distance determination table.
  • a distance area is set in increments of 10 m from 0 m to 100 m, and one distance area is set for 100 m or more.
  • a distance index “ “1” to “11” are assigned respectively.
  • the target recognizing device 13 increments a second counter C2 of hardware or software prepared in the own device 13.
  • the target recognition device 13 refers to the distance determination table illustrated in FIG. 8B, and the second counter C2 to which the distance between the host vehicle 1 and the preceding vehicle 9 determined in step S1120 is applicable. Is incremented.
  • the second counter C2 is a counter indicating the number of times the preceding vehicle 9 has been recognized abnormally by the radar, that is, the number of times the preceding vehicle 9 has been recognized abnormally by both the radar recognition and the image recognition. It is prepared for each distance area set in the distance determination table. Thereafter, the target recognizing device 13 ends the detection count process.
  • the target recognizing device 13 increments a third counter C3 of hardware or software prepared in the own device 13.
  • the target recognition device 13 refers to the distance determination table illustrated in FIG. 8B, and the third counter C3 corresponding to the distance between the host vehicle 1 and the preceding vehicle 9 determined in step S1130. Is incremented.
  • the third counter C3 is a counter indicating the number of times that the preceding vehicle 9 has been subjected only to image recognition without laser recognition, and is provided for each distance region set in the distance determination table. Thereafter, the target recognizing device 13 ends the detection count process.
  • Target bi-recognition ratio calculation process Next, the target bi-recognition ratio calculation process which is a subroutine executed in S1020 of the vertical axis deviation diagnosis process will be described with reference to FIG.
  • the target recognizing device 13 executes the target bi-recognition ratio calculation process when the vertical axis deviation diagnosis process proceeds to step S1020.
  • the target recognition device 13 multiplies each value of the first counter C1 by a corresponding first coefficient, and multiplies each value of the second counter C2 by a corresponding second coefficient, Each value of the third counter C3 is multiplied by the corresponding third coefficient (see FIG. 9A).
  • the weight in the region where the distance from the own vehicle 1 to the preceding vehicle 9 is small is relatively smaller than the weight in the region where the distance from the own vehicle 1 to the preceding vehicle 9 is large.
  • Set the coefficient to be is set such that the weight in the region where the distance from the host vehicle 1 to the preceding vehicle 9 is large is relatively larger than the weight in the region where the distance from the host vehicle 1 to the preceding vehicle 9 is small.
  • the target recognition device 13 calculates a target / both recognition ratio. Specifically, the target recognizing device 13 sets the weighted first counter C1 value, the weighted first counter C1 value, and the weighted first counter C1 value for each distance area set in the distance determination table.
  • the target double recognition ratio is calculated by dividing the value of the second counter C2 and the weighted third counter C3 by the added value (expressed as a percentage (%), see FIG. 9B).
  • This target bi-recognition ratio is defined as the number of times the preceding vehicle 9 is recognized by both the radar recognition processing and the image recognition processing, and the number of times the preceding vehicle 9 is recognized by at least one of the image recognition processing or the radar recognition processing.
  • An example of the relationship ie, the ratio
  • the target bi-recognition ratio increases, and if the number of times of recognition in the image recognition process increases, the target bi-recognition ratio The value of decreases.
  • the target recognizing device 13 ends the target bi-recognition ratio calculation process.
  • the target recognizing device 13 executes an abnormal recognition rate calculation process when the vertical axis deviation diagnosis process proceeds to step S1030. First, the target recognizing device 13 multiplies each value of the first counter C1 by a corresponding first coefficient, and multiplies each value of the second counter C2 by a corresponding second coefficient ( (See FIG. 9A).
  • the target recognition device 13 calculates an abnormal recognition rate. Specifically, the target recognizing device 13 sets the weighted second counter C2 value, the weighted first counter C1 value, and the weighted value for each distance area set in the distance determination table. The value of the second counter C2 is divided by the added value and expressed as a percentage (%) (see FIG. 9C).
  • the target recognition device 13 ends the abnormal recognition ratio calculation process.
  • the target recognizing device 13 executes the vertical axis deviation amount calculation process when the vertical axis deviation diagnosis process proceeds to step S1040.
  • the target recognizing device 13 performs the vertical axis deviation generated in the radar sensor 11 according to the target double recognition ratio calculated in S1020 of the vertical axis deviation diagnosis process and the abnormal recognition ratio calculated in step S1030.
  • the amount (vertical axis deviation amount) is estimated (vertical axis deviation estimation amount).
  • the target recognition apparatus 13 is exemplified in FIG. 11A, and refers to a map M prepared in the own apparatus 13, and a map M to which the calculated target bi-recognition ratio and abnormal recognition ratio correspond. Identify the top area. Then, the target recognizing device 13 determines that the vertical axis deviation amount of the value assigned to the specified area has occurred (see FIG. 11B).
  • each region on the map M and the value of the vertical axis deviation amount assigned to each region are set in advance by experiments or the like.
  • the target bi-recognition ratio the larger the target bi-recognition ratio value, the smaller the vertical axis deviation (absolute value), and the smaller the target bi-recognition ratio value, the smaller the vertical axis deviation (absolute value).
  • the vertical axis deviation amount tends to be positive when the abnormal recognition ratio value is large, and the vertical axis deviation amount tends to be negative when the abnormal recognition ratio value is small.
  • the target recognition device 13 sets each area on the map M and the value of the vertical axis deviation amount assigned to each area. In the example shown in FIG. 11B, when the target bi-recognition ratio is X% and the abnormal recognition ratio is Y%, the target recognizing device 13 shifts “ ⁇ degrees (deg)” to the vertical axis deviation. Estimate as a quantity.
  • the target recognition device 13 ends the vertical axis deviation amount calculation processing.
  • the following effects can be obtained.
  • the detection performance of the target by the radar sensor 11 is lowered before the detection of the axial deviation of the radar sensor 11 in the vertical direction. Judging whether there is a possibility.
  • the target recognition device 13 does not perform the axis misalignment diagnosis in the vertical direction.
  • the vertical axis misalignment diagnosis process of the first embodiment described above includes, for example, a target double recognition ratio, that is, the number of times a target such as a preceding vehicle has been recognized in both the radar recognition process and the image recognition process, It is diagnosed whether or not a vertical axis misalignment occurs in the radar sensor 11 based on the relationship (that is, the ratio) with the number of times the target is recognized in at least one of the image recognition process and the radar recognition process. .
  • a target double recognition ratio that is, the number of times a target such as a preceding vehicle has been recognized in both the radar recognition process and the image recognition process
  • the vertical axis misalignment diagnosis process of the first embodiment generates a vertical axis misalignment in the radar sensor 11 based on whether or not the target can be recognized by both the radar recognition process and the image recognition process. It is diagnosed whether or not.
  • the fact that the target is not recognized by both the image recognition processing and the radar recognition processing may also occur for a reason different from the vertical axis misalignment in the radar sensor 11. For example, it may also occur due to a decrease in target detection performance by the radar sensor 11.
  • the vertical axis misalignment diagnosis according to the first embodiment is performed in this state.
  • the diagnosis process is executed by the process, there is a possibility that the vertical axis misalignment of the radar sensor 11 may be erroneously detected even though the vertical axis misalignment does not occur in the radar sensor 11.
  • the target recognition apparatus 13 determines that there is a possibility that the target detection performance of the radar sensor 11 has deteriorated, the target axis recognition diagnosis in the vertical direction is performed. It is configured not to run.
  • a situation in which the detection performance of the target by the radar sensor 11 may be deteriorated is a situation in which an axial deviation occurs in the vertical direction.
  • the effect of suppressing erroneous detection can be obtained. That is, the first embodiment can obtain the effect of suppressing erroneous detection of the axial deviation of the beam sensor such as the radar sensor 11 in the vertical direction.
  • the target recognition device 13 executes a vertical axis misalignment diagnosis process, and the beam of the radar sensor 11 or the like. It is diagnosed whether or not an axial deviation of the sensor occurs in the vertical direction, and when an axial deviation occurs in the vertical direction of the beam sensor, the amount of axial deviation is detected. That is, the target recognizing device 13 diagnoses whether or not an axis deviation in the vertical direction has occurred in a situation where it is certain that there is no possibility that the detection performance of the target by the radar sensor 11 is degraded. When an axial deviation occurs in the vertical direction, the amount of axial deviation can be detected. Therefore, in the first embodiment, as a second effect, various controls for improving the traveling safety of the vehicle 1 can be executed with high accuracy based on the detected amount of axial deviation in the vertical direction. Can be obtained.
  • the target recognizing device 13 performs radar recognition of the preceding vehicle 9 traveling in front of the host vehicle 1 in the vertical axis misalignment diagnosis process, and detects the front of the host vehicle 1 based on the captured image obtained by capturing the front of the host vehicle 1. Image recognition of the traveling preceding vehicle 9 is performed. Then, the target recognition device 30 determines that the number of times that the preceding vehicle 9 is recognized by both radar recognition and image recognition based on the radar recognition result and the image recognition result of the preceding vehicle is at least the number of times that the preceding vehicle 9 is recognized by image recognition. Calculate the share. An example of this ratio is the target double recognition ratio.
  • the target recognizing device 13 detects a vertical axis deviation generated in a beam sensor such as the radar sensor 11 in accordance with the calculated ratio value (see FIGS. 12A and 12B). Thereby, 1st Embodiment can acquire the 3rd effect that the axial shift in the vertical direction of the radar sensor 11 mounted in the own vehicle 1 can be detected with high accuracy when the own vehicle 1 is traveling. .
  • the target recognizing device 13 calculates the target bi-recognition ratio according to the distance from the own vehicle 1 to the preceding vehicle 9 in the vertical axis deviation diagnosis process. Then, the target recognizing device 13 has a vertical axis deviation generated in the radar sensor 11 in accordance with the value obtained by adding the weighted target bi-recognition ratio values by distance. Diagnose whether or not. Accordingly, the first embodiment obtains the fourth effect that it is possible to more accurately diagnose whether or not the vertical axis deviation of the radar sensor 11 mounted on the host vehicle 1 has occurred. Can do.
  • the target recognizing device 13 determines the ratio of the preceding vehicle 9 that is normally recognized, that is, the normal recognition ratio, and the ratio of the preceding vehicle 9 that is abnormally recognized, that is, the abnormal recognition ratio, in the vertical axis deviation diagnosis process. Calculate each.
  • the target recognizing device 13 diagnoses whether or not a vertical axis deviation has occurred in a beam sensor such as the radar sensor 11 according to the calculated normal recognition ratio and non-normal recognition ratio. If the target recognition device 13 is diagnosed as having an axial misalignment in the vertical direction, the target recognizing device 13 determines whether the upper axis misalignment or the lower axis misalignment and determines the amount of the axis misalignment. .
  • the first embodiment has the fifth effect that the amount of axial misalignment in the vertical direction of the beam sensor such as the radar sensor 11 mounted on the host vehicle 1 can be detected more accurately when the host vehicle 1 travels. Obtainable.
  • the target recognition device 13 corresponds to an example of a detection device, a determination unit, an axis deviation detection unit, a radar recognition unit, and an image recognition unit.
  • S200 corresponds to an example of processing as a determination unit
  • S300 corresponds to an example of processing as an axis deviation detection unit.
  • a radar axis misalignment diagnosis process according to the second embodiment will be described with reference to the flowchart of FIG.
  • the target recognizing device 13 executes the same processing as in the first embodiment for steps S100 and S200.
  • step S200 determines in step S200 that there is no possibility that the detection performance of the target by the radar sensor 11 is deteriorated (step S200: NO)
  • the target recognition device 13 is the same as the first embodiment.
  • the vertical axis deviation diagnosis process in step S300 is executed. Then, after the execution is completed, the target recognition device 13 ends the radar axis misalignment diagnosis process.
  • step S400 determines in step S200 that there is a possibility that the target detection performance of the radar sensor 11 has deteriorated (step S200: YES)
  • the target recognition device 13 executes the process of step S400. All the counters C1 to C3 are reset.
  • the processing in step S400 in the CPU 13 or the hardware configuration corresponding to this processing corresponds to, for example, a reset unit.
  • the target recognition device 13 resets various counters used for the detection count process, that is, the first counter C1, the second counter C2, and the third counter C3. Then, the target recognition device 13 ends the radar axis misalignment diagnosis process.
  • the target recognizing device 13 is used for the vertical axis misalignment diagnosis process (detection count process) when it is determined in the radar axis misalignment diagnosis process that the target sensor detection performance by the radar sensor 11 may be deteriorated.
  • Various counters that is, the first counter C1, the second counter C2, and the third counter C3 are all reset.
  • the radar sensor 11 may have degraded target detection performance.
  • the radar sensor 11 it is assumed that it takes time until the detection performance information indicating that the detection performance is deteriorated after the detection performance of the target by the radar sensor 11 is actually reduced. .
  • the target recognition apparatus 13 of the second embodiment acquires detection performance information indicating that the detection performance of the target by the radar sensor 11 may be degraded.
  • the first to third counters C1 to C3 are reset. For this reason, it is accumulated in the first to third counters C1 to C3 during the period from when the target detection performance degradation by the radar sensor 11 actually occurs until the detection performance information indicating the degradation is acquired.
  • the target recognition device 13 corresponds to an example of a first count unit, a second count unit, and a reset unit.
  • S1170 corresponds to an example of processing as the first counting unit
  • S1150 and S1160 correspond to an example of processing as the second counting unit
  • S400 corresponds to an example of processing as the resetting unit.
  • the target recognizing device 13 detects an axial deviation generated in the radar sensor 11 based on radar recognition and image recognition of the preceding vehicle 9.
  • the target recognizing device 13 is different from the first embodiment in that the vehicle height of the preceding vehicle 9 is taken into account when detecting the axis deviation.
  • the target recognition device 13 executes a detection count process illustrated in FIG. 14 instead of the detection count process illustrated in FIG. 8 in step S1010.
  • the target recognizing device 13 executes the target bi-recognition ratio calculation process illustrated in FIG. 15 instead of the target bi-recognition ratio calculation process illustrated in FIG.
  • the target recognizing device 13 executes an abnormal recognition rate calculation process illustrated in FIG. 15 instead of the abnormal recognition ratio calculation process illustrated in FIG.
  • the target recognizing device 13 executes vertical axis deviation amount calculation processing similar to that of the first embodiment.
  • step S1205 the target recognizing device 13 determines whether or not the image target and the millimeter wave target are the same as in step S1110. That is, the target recognition device 13 determines whether or not the same preceding vehicle 9 has been recognized by both radar recognition by the radar sensor 11 and image recognition by the image sensor 12. If an affirmative determination is made by the target recognizing device 13 (step S1205: YES), the detection count process proceeds to step S1210. On the other hand, when a negative determination is made by the target recognition device 13 (step S1205: NO), the detection count process proceeds to step S1215.
  • step S1210 the target recognition device 13 performs target distance determination. Specifically, the target recognition device 13 determines the distance between the host vehicle 1 and the preceding vehicle 9 that has undergone radar recognition and image recognition. For the target distance determination, either the radar recognition result or the image recognition result may be used. Thereafter, the detection count process proceeds to step S1220.
  • step S1215 as in step S1130, the target recognition device 13 performs target distance determination. Specifically, the target recognition device 13 determines the distance between the host vehicle 1 and the preceding vehicle 9 that has been image-recognized. Note that the result of image recognition is used for this target distance determination. Thereafter, the detection count process proceeds to step S1235.
  • step S1220 the target recognizing device 13 determines whether or not the radar recognition by the radar sensor 11 is a millimeter wave abnormal recognition, similarly to step S1140. Specifically, the target recognition device 13 determines whether or not the radar recognition by the radar sensor 11 is normal recognition. Here, if the target recognition device 13 makes an affirmative determination, that is, if the radar recognition result is an abnormal recognition result (step S1220: YES), the detection count process proceeds to step S1230. On the other hand, when a negative determination is made, that is, when the radar recognition result is a normal recognition result (step S1220: NO), the detection count process proceeds to step S1225.
  • step S1225 the target recognition device 13 determines whether the vehicle height of the preceding vehicle 9 is higher than the vehicle height of a standard vehicle. Specifically, the target recognition device 13 determines whether or not the vehicle height of the preceding vehicle 9 is greater than a predetermined threshold using the result of image recognition.
  • the predetermined threshold is a value set for the purpose of excluding the preceding vehicle 9 having a vehicle height higher than that of a standard vehicle, such as a truck, in order to increase the accuracy of vertical axis deviation detection. It is set in advance by an experiment or the like (see FIGS. 12C and 12D). If the result of determination in step S1225 is affirmative (step S1225: YES), the detection count process proceeds to step S1245. On the other hand, if the determination is negative (step S1225: NO), the detection count process proceeds to step S1240.
  • step S1230 similar to the processing in step S1225, the target recognition device 13 determines whether the vehicle height of the preceding vehicle 9 is higher than the vehicle height of a standard vehicle. Specifically, the target recognition device 13 determines whether the vehicle height of the preceding vehicle 9 is larger than the predetermined threshold using the result of the image recognition. If the result of determination in step S1230 is affirmative (S1230: YES), the detection count process proceeds to step S1255. On the other hand, if the determination is negative (S1230: NO), the detection count process proceeds to step S1250.
  • step S1235 the target recognition device 13 determines whether the vehicle height of the preceding vehicle 9 is higher than the vehicle height of a standard vehicle, as in the process of step S1225. Specifically, the target recognition device 13 determines whether the vehicle height of the preceding vehicle 9 is larger than the predetermined threshold using the result of the image recognition. If the result of determination in step S1235 is affirmative (S1235: YES), the detection count process proceeds to step S1265. On the other hand, if the determination is negative (S1235: NO), the detection process proceeds to step S1260.
  • the target recognizing device 13 increments the fourth counter C4 of hardware or software prepared in the own device 13.
  • the target recognizing device 13 is exemplified in FIG. 14B and refers to the distance determination table prepared in the own device 13 between the own vehicle 1 and the preceding vehicle 9 determined in step S1210.
  • the fourth counter C4 corresponding to the distance is incremented.
  • This distance determination table is similar to the distance determination table illustrated in FIG. 8B, but may have different setting contents.
  • the fourth counter C4 is a counter indicating the number of times the preceding vehicle 9 whose vehicle height is less than the predetermined threshold has been normally recognized by the radar, and is set for each distance region set in the distance determination table. . Thereafter, the target recognition device 13 ends the detection count process.
  • step S1245 the target recognition device 13 increments the fifth counter C5 of hardware or software prepared in the device 13 itself.
  • the target recognizing device 13 is exemplified in FIG. 14B and refers to the distance determination table prepared in the own device 13 between the own vehicle 1 and the preceding vehicle 9 determined in step S1210.
  • the fifth counter C5 corresponding to the distance is incremented.
  • the fifth counter C5 is a counter indicating the number of times the preceding vehicle having a vehicle height equal to or higher than the predetermined threshold is normally recognized by the radar, and is set for each distance region set in the distance determination table. . Thereafter, the target recognition device 13 ends the detection count process.
  • step S1250 the target recognizing device 13 increments a sixth counter C6 of hardware or software prepared in the own device 30.
  • the target recognition device 13 is exemplified in FIG. 14B and refers to the distance determination table prepared in the own device 13, and the distance between the own vehicle V and the preceding vehicle determined in step S1210.
  • the corresponding sixth counter C6 is incremented.
  • the sixth counter C6 is a counter indicating the number of times the preceding vehicle whose vehicle height is less than the predetermined threshold has been abnormally recognized by the radar, and is set for each distance region set in the distance determination table. Yes. Thereafter, the target recognition device 13 ends the detection count process.
  • step S1255 the target recognition device 13 increments the seventh counter C7 of hardware or software prepared in the own device 13.
  • the target recognizing device 13 is exemplified in FIG. 14B and refers to the distance determination table prepared in the own device 13 between the own vehicle 1 and the preceding vehicle 9 determined in step S1210.
  • the seventh counter C7 corresponding to the distance is incremented.
  • the seventh counter C7 is a counter indicating the number of times the preceding vehicle having a vehicle height equal to or higher than a predetermined threshold has been abnormally recognized by the radar, and is set for each distance region set in the distance determination table. . Thereafter, the target recognition device 13 ends the detection count process.
  • step S1260 the target recognizing device 13 increments an eighth counter C8 of hardware or software prepared in the own device 13.
  • the target recognizing device 13 is exemplified in FIG. 14B and refers to the distance determination table prepared in the own device 13 between the own vehicle 1 and the preceding vehicle 9 determined in step S1215.
  • the eighth counter C8 corresponding to the distance is incremented.
  • the eighth counter C8 is a counter that indicates the number of times that a preceding vehicle having a vehicle height less than a predetermined threshold has been subjected to only image recognition without being laser-recognized, and for each distance region set in the distance determination table. Is set. Thereafter, the target recognition device 13 ends the detection count process.
  • the target recognizing device 13 increments a ninth counter C9 of hardware or software prepared in the own device 13.
  • the target recognizing device 13 is exemplified in FIG. 14B and refers to the distance determination table prepared in the own device 13 between the own vehicle 1 and the preceding vehicle 9 determined in step S1215.
  • the ninth counter C9 corresponding to the distance is incremented.
  • the ninth counter C9 is a counter that indicates the number of times that a preceding vehicle having a vehicle height equal to or higher than a predetermined threshold is not recognized by the laser but is only recognized by the image, and for each distance region set in the distance determination table. Is set. Thereafter, the target recognition device 13 ends the detection count process.
  • the target recognizing device 13 multiplies each value of the fourth counter C4 by a corresponding predetermined fourth coefficient to correspond to each value of the fifth counter C5. Multiply by a predetermined fifth coefficient.
  • the target recognizing device 13 adds the value of the fourth counter C4 obtained by multiplication and the value of the corresponding fifth counter C5 obtained by multiplication. As a result, a first count addition value is obtained for each distance region set in the distance determination table.
  • the target recognition device 13 multiplies each value of the sixth counter C6 by a corresponding predetermined sixth coefficient, and each corresponding value of the seventh counter C7 Multiply by the seventh coefficient. Then, the target recognition apparatus 13 adds the value of the sixth counter C6 obtained by multiplication and the value of the corresponding seventh counter C7 obtained by multiplication. As a result, a second count addition value is obtained for each distance region set in the distance determination table.
  • the target recognizing device 13 multiplies each value of the eighth counter C8 by a corresponding predetermined eighth coefficient to correspond to each value of the ninth counter C9. Multiply by a predetermined ninth coefficient.
  • the target recognizing device 30 adds the value of the eighth counter C8 obtained by multiplication and the value of the corresponding ninth counter C9 obtained by multiplication. As a result, a third count addition value is obtained for each distance region set in the distance determination table.
  • the fourth to ninth coefficients are set in advance by experiments or the like in order to weight each corresponding counter.
  • the target recognition device 13 calculates a target / both recognition ratio. Specifically, the target recognizing device 13 sets the first count addition value, the second count addition value, and the third count for each distance region set in the distance determination table.
  • the target double recognition ratio is calculated by dividing the added value by the added value (expressed as a percentage (%), see FIG. 15B).
  • the target recognizing device 13 ends the target bi-recognition ratio calculation process.
  • the target recognizing device 13 multiplies each value of the fourth counter C4 by a corresponding predetermined fourth coefficient to correspond to each value of the fifth counter C5. Multiply by a predetermined fifth coefficient.
  • the target recognizing device 13 adds the value of the fourth counter C4 obtained by multiplication and the value of the corresponding fifth counter C5 obtained by multiplication. As a result, a first count addition value is obtained for each distance region set in the distance determination table.
  • the target recognition device 13 multiplies each value of the sixth counter C6 by a corresponding predetermined sixth coefficient to correspond to each value of the seventh counter C7. Multiply by a predetermined seventh coefficient. Then, the target recognition apparatus 13 adds the value of the sixth counter C6 obtained by multiplication and the value of the corresponding seventh counter C7 obtained by multiplication. As a result, a second count addition value is obtained for each distance region set in the distance determination table.
  • the target recognition device 13 calculates an abnormal recognition rate. Specifically, the target recognizing device 13 adds a first count addition value and a first count addition value and a second count addition value for each distance area set in the distance determination table.
  • the abnormal recognition rate is calculated by dividing by (represented as a percentage (%), see FIG. 15C).
  • the target recognition device 13 ends the abnormal recognition ratio calculation process.
  • the target recognition apparatus 13 of the third embodiment calculates the target double recognition ratio and the non-normal recognition ratio for each vehicle height of the preceding vehicle 9 in the vertical axis misalignment diagnosis process (detection count process). An axis deviation in the vertical plane generated in the radar sensor 11 is detected according to the target double recognition ratio and the abnormal recognition ratio for each vehicle height. Thereby, it is possible to detect the axis deviation with higher accuracy.
  • the target recognition device 13 determines whether or not the recognized vehicle height of the preceding vehicle 9 is greater than a predetermined threshold in the vertical axis deviation diagnosis process (detection counting process), and the vehicle height is greater than the predetermined threshold.
  • the preceding vehicle 9 is excluded and the target double recognition ratio and the abnormal recognition ratio are calculated. Thereby, it is possible to detect the axis deviation with higher accuracy.
  • the fourth embodiment is different from the first embodiment in that processing for setting detection performance information (steps S10 to S50) is added in the radar axis misalignment diagnosis processing.
  • a radar axis misalignment diagnosis process will be described with reference to the flowchart of FIG.
  • the target recognizing device 13 that is, the CPU 13
  • the execution unit of the radar axis deviation diagnosis process is described as a cycle.
  • the target recognition device 13 determines whether or not a factor causing a decrease in target detection performance by the radar sensor 11 has occurred (step S10).
  • rain is used as a reduction factor. That is, when it is raining, specifically, when a wiper (WIPER DEVICE, indicated by a virtual line in FIG. 1) for removing raindrops or the like on the front window, rear window, etc. in the vehicle 1 is operating. Therefore, it is determined that a factor for lowering the radar sensor 11 has occurred (there is a factor for reduction). Note that whether or not it is raining may be determined based on an image captured by the image sensor 12.
  • the radar axis deviation diagnosis process proceeds to step S11 when it is determined that there is a decrease factor, and proceeds to step S12 when it is determined that there is no decrease factor.
  • step S11 in which the radar axis misalignment diagnosis process proceeds when it is determined that there is a decrease factor, the target recognition device 13 has a logical low level represented by 0 or a logical high level represented by 1.
  • a performance degradation flag which is 1-bit information is set. Specifically, the target recognition device 13 substitutes 1 for the performance deterioration flag. Then, the radar axis deviation diagnosis process proceeds to step S40.
  • step S12 in which the radar axis deviation diagnosis process proceeds when it is determined that there is no reduction factor, the target recognition device 13 resets the performance reduction flag. Specifically, 0 is substituted for the performance deterioration flag.
  • step S13 the target recognizing device 13 acquires the value of the previous flag, that is, the value of the performance degradation flag in the previous cycle. As will be described later, the value of the previous flag is recorded in the RAM 33.
  • the target recognizing device 13 determines whether or not the elapsed time from the change point of the performance deterioration factor is equal to or longer than the non-determination period.
  • the change point of the performance degradation factor means the timing when the presence or absence of the performance degradation factor has changed from the presence of the degradation factor to the absence of the degradation factor.
  • the rain has stopped from the raining state. The timing at which the state changes is called the time of change.
  • the non-determination period is determined based on the performance degradation factor.
  • the predetermined time is set.
  • the target recognition device 13 (CPU 31) performs a process of determining a change time based on the performance deterioration flag in a process different from the radar axis misalignment diagnosis process, for example.
  • a determination unit 13f is provided, and the elapsed time from the change point is recorded in the RAM 33 by the change point determination unit 13f.
  • step S15 determines that the elapsed time from the time of the change is equal to or longer than the non-determination period (step S15: YES).
  • step S15: NO the radar axis misalignment diagnosis process proceeds to step S40.
  • step S30 the target recognition device 13 sets the detection performance information of the radar sensor 11 to a good state. Thereafter, the radar axis misalignment diagnosis process proceeds to step S50.
  • step S40 the target recognition device 13 sets the detection performance information to a lowered state. Thereafter, the radar axis misalignment diagnosis process proceeds to step S50.
  • the target recognition device 13 records the current detection performance flag value in the RAM 33 as the previous flag value.
  • the target recognizing device 13 executes the same processing as in the first embodiment.
  • step S15 the detection performance of the radar sensor 11 may be deteriorated due to the influence of rain. Therefore, information indicating that there is a possibility that the target detection performance by the radar sensor 11 is degraded is received as detection performance information in step S100. As a result, the non-execution state in which the vertical axis misalignment diagnosis process is not executed is continued (see NO in step S200 and FIG. 17D).
  • the detection performance does not change from a lowering state to a good state immediately in response to this change.
  • a lowering factor which is a factor that lowers the detection performance
  • the detection performance does not change from a lowering state to a good state immediately in response to this change.
  • rain is used as a lowering factor
  • the radar sensor 11 when rain is used as a lowering factor, even if the raining state, which has a lowering factor, changes from the raining state, which has no lowering factor, to the state where the rain has stopped, the radar sensor 11 after the rain has stopped.
  • raindrops are attached to the detection window, the detection performance of the radar sensor 11 is lowered.
  • Step S200 the non-execution state in which the vertical axis deviation diagnosis process is not executed is continued.
  • the non-determination period is desirably set longer than the time necessary for drying raindrops attached to the detection window of the radar sensor 11 after the rain has stopped, for example.
  • the process of step S10 by the CPU 31 or the hardware configuration corresponding to the process corresponds to an example of a decrease factor determination unit
  • the process of step S40 by the CPU 31 or the hardware corresponding to the process corresponds to an example of setting means.
  • the non-determination period corresponds to an example of a non-detection period.
  • the fourth step is that S11 to S15 in the flowchart shown in FIG. 16 which is processing until the setting contents of the detection performance information are determined are replaced with S21 to S25. It is different from the embodiment.
  • step S10 the target recognizing device 13 determines the presence or absence of a decrease factor, similar to S10 shown in FIG.
  • the target recognition device 13 executes the process of step S21 when it is determined that there is a reduction factor, and executes the process of step S22 when it is determined that there is no reduction factor.
  • the target recognition device 13 sets a rain detection flag that is 1-bit information having a logical low level represented by 0 or a logical high level represented by 1. set. Specifically, the target recognition device 13 substitutes 1 for the rain detection flag (step S21). The radar axis misalignment diagnosis process proceeds to step S25.
  • the target recognition device 13 if it is determined that there is no decrease factor, the target recognition device 13 resets the rain detection flag (step S22). Specifically, the target recognition device 13 substitutes 0 for the rain detection flag.
  • step S23 the target recognizing device 13 determines whether or not the elapsed time from the change from the raining state to the non-raining state is equal to or longer than a predetermined non-determination period.
  • the target recognizing device 13 executes the process of step S25 when the elapsed time from the change from the rainy state to the non-rainy state is equal to or longer than the non-determination period, and when the elapsed time is less than the non-determination period, the process of step S24. Execute.
  • the point of change from a rainy state to a non-rainy state refers to the timing when the rainy state has changed to a state where rain has stopped.
  • the non-determination period is set to a predetermined time necessary for drying the raindrops adhering to the detection window of the radar sensor 11 after the rain, which is a performance degradation factor, has stopped. ing.
  • the target recognition device 13 executes a process of determining a change time based on a rain detection flag in a process different from the radar axis misalignment diagnosis process.
  • a determination unit 13f is provided, and the elapsed time from the change point is recorded in the RAM 33 by the change point determination unit 13f.
  • the target recognition device 13 sets the rain detection flag that has been reset (step S24). Specifically, the target recognition device 13 assigns 1 to the rain detection flag and overwrites the rain detection flag.
  • step S25 the target recognition device 13 determines whether or not the rain detection flag is set. Specifically, the target recognition device 13 determines that the rain detection flag is set when the value of the rain detection flag is 1. The target recognition device 13 executes the process of step S30 when the rain detection flag is set, and executes the process of step S40 when the rain detection flag is not set. *
  • the target recognizing device 13 performs the same processing as in FIG. 16 for steps S30 to S40 and steps S100 to S300.
  • FIG. 19 a non-determination period from a change time t11 when the rain has changed to a rain stop state is illustrated.
  • FIG. 19A a change time t11 when the rain has changed to a rain stop state is illustrated.
  • FIG. 19B a non-determination period from a change time t11 when the rain has changed to a rain stop state is illustrated.
  • the non-execution state is continued (see NO in step S200 and see FIG. 19D).
  • step S24 by the CPU 31 or the hardware configuration corresponding to the process corresponds to an example of a changing unit.
  • processing (S210 to S220) for acquiring a correction coefficient for correcting the vertical axis deviation amount is added in the radar axis deviation diagnosis process (S300). This is different from the first embodiment.
  • the target recognizing device 13 performs the same processing as in FIG. 6 for step S100, step S200, and step S300.
  • the target recognizing device 13 executes the process of step S21 when there is a possibility that the target detection performance by the radar sensor 11 is degraded (step S200; YES).
  • the target recognizing device 13 identifies a deteriorating factor in which the detection performance is deteriorating.
  • the target recognition device 13 operates the vehicle 1 from an operation signal from the wiper, an image captured by the image sensor 12, and / or various sensors (shown by virtual lines in FIG. 1) mounted on the vehicle 1.
  • the wiper is operating based on the detection signal indicating the state (running state)
  • the rain is identified as a factor in reducing the detection performance.
  • step S220 the target recognizing device 13 obtains a correction coefficient for correcting the amount of axis deviation detected in step S300 in accordance with the detection performance deterioration factor specified in step S210, and the process of step S300A. Execute.
  • step S300A of the fifth embodiment the target recognition apparatus 13 sets the vertical axis deviation amount calculated by the axis deviation amount calculation process in step S210 in the axis deviation amount calculation process (see S1040) shown in FIG.
  • the vertical axis deviation amount is corrected by multiplying the correction coefficient obtained in the above. Then, the target recognition device 13 ends the radar axis misalignment diagnosis process.
  • the value of the correction coefficient obtained in step S220 is recorded in the ROM 32 as a table as shown in FIG. That is, in this table, different values P and Q are set as correction coefficients depending on whether the detection performance degradation factor is not rain or rain. For example, the correction coefficient value Q when it is raining is set smaller than the correction coefficient P value when it is not raining.
  • the target recognizing device 13 reads from the table stored in the ROM 32 the correction coefficient Q corresponding to the information whose detection performance deterioration factor is rain, that is, the correction coefficient Q smaller than the correction coefficient P when it is not rain (Ste S220).
  • the target recognition device 13 performs, for example, based on the specified detection performance reduction factor.
  • the obtained vertical deviation amount is corrected based on a correction coefficient obtained in advance by experiments or the like.
  • the vertical axis deviation amount obtained by executing the vertical axis deviation diagnosis processing according to the first embodiment under the detection performance degradation situation caused by rain is the first implementation under the detection performance degradation situation other than rain. It is expected that the vertical axis deviation amount obtained by executing the vertical axis deviation diagnosis process of the embodiment will be larger.
  • the target recognition apparatus 13 of the sixth embodiment is configured such that the vertical axis deviation amount in a detection performance degradation situation caused by rain is greater than the vertical axis deviation amount in a detection performance degradation situation caused by factors other than rain. , Calculate smaller (see step S300A).
  • the target recognition apparatus 13 of the sixth embodiment corrects the obtained vertical axis deviation amount to remove the error component based on the detection performance degradation factor from the obtained vertical axis deviation amount.
  • the target recognizing device 13 configured as described above executes the vertical axis misalignment diagnosis process (S300A) even when there is a possibility that the detection performance of the radar sensor 11 is deteriorated, and an appropriate vertical axis It is possible to detect the amount of deviation, that is, the amount of deviation in the vertical direction in consideration of the detection performance degradation factor.
  • the target recognition device 13 corresponds to an example of a diagnosis unit, an information acquisition unit, and a correction unit.
  • step S100 processing by the CPU 31 or a hardware configuration corresponding to the processing corresponds to an example of an information acquisition unit.
  • the processing in step S220 by the CPU 31, the processing in step S1040 in step S300A, or the hardware configuration corresponding to the processing (steps S220 and S1040) corresponds to an example of a correction unit.
  • the target recognizing device 13 detects the amount of axial deviation of the radar sensor 11 in the vertical axis deviation diagnosis processing.
  • the present invention is not limited to this, and the radar sensor 11 is not limited thereto. It is also possible to determine whether or not an axis deviation in the vertical direction has occurred, that is, only make a diagnosis.
  • the axial deviation in the vertical direction is defined based on the angle formed by the central axis M of the detection range of the radar sensor 11 and the vertical direction (y-axis). It is not limited.
  • the axial deviation in the vertical direction may be defined based on the angle between the central axis M and the horizontal direction (x-axis direction) in the vertical direction.
  • the axis of the radar sensor 11 for defining the axis deviation may be an axis different from the central axis M. For example, an axis extending from the radar sensor 11 toward the target search range is determined, and this axis An axial deviation in the vertical direction may be defined.
  • the vertical axis deviation diagnosis process described in the third embodiment is applied to the vertical axis deviation diagnosis process (S300) of the radar axis deviation diagnosis process (see FIG. 13) executed by the target recognition device 13 in the second embodiment. May be.
  • various counters shown in the flowchart of FIG. 14, that is, the fourth to ninth counters are reset.
  • the target recognition device 13 indicates that the detection performance of the radar sensor 11 may be lowered when the intensity of the received reflected beam is lowered.
  • the present invention is not limited to this configuration.
  • the target recognition device 13 may detect that there is a possibility that the detection performance of the radar sensor 11 is deteriorated based on various methods and output the detection performance information.
  • the target recognition device 13 determines in step S200 whether or not the wiper is in an operating state by the wiper itself, the image sensor 12, and / or the sensor, and determines that the wiper is operating. In this case, it is determined that a meteorological factor such as rain or snow that lowers the detection performance of the radar sensor 11 has occurred, and detection indicating that the detection performance of the radar sensor 11 may be reduced. Performance information may be output.
  • step S200 the target recognizing device 13 determines whether or not the driver of the host vehicle 1 has operated the wiper.
  • the radar sensor 11 such as rain or snow is used.
  • the detection performance information indicating that the detection performance of the radar sensor 11 may be reduced may be output by determining that a weather factor that lowers the detection performance of the radar sensor 11 has occurred.
  • the non-determination period is set based on a factor that reduces the detection performance of the radar sensor 11.
  • the non-determination period is set to a time necessary for drying raindrops adhering to the detection window of the radar sensor 11 after rain, which is a decrease factor, has stopped.
  • the present invention is not limited to this example.
  • the non-determination period may be set to a time required to dry the snow attached to the detection window of the radar sensor 11 after the decrease factor snow has stopped.
  • the non-determination period is preferably set to a longer time when snow is detected as a decrease factor than when rain is detected as a decrease factor.
  • the non-determination period is set based on a factor that lowers the detection performance of the radar sensor 11, but the present invention is not limited to this.
  • the non-determination period may be set based on the speed of the vehicle 1 on which the target recognition device 13 is mounted.
  • FIG. 22 is a modification of the radar axis misalignment diagnosis process of the fourth embodiment shown in FIG.
  • the target recognition device 13 that is, the CPU 13 acquires the speed of the vehicle 1 from, for example, one of the sensors shown in FIG. 1 before executing the process in step S15.
  • the target recognizing device 13 obtains the relationship between the non-determination period corresponding to the speed of the vehicle 1 recorded in the ROM 32 in advance, with the value of the non-determination period corresponding to the acquired speed of the vehicle 1. It is also possible to obtain from the table to represent. In the table, when the speed of the vehicle 1 is lower than a predetermined threshold, the non-determination period is set to a longer time than when the speed of the vehicle 1 is higher than the threshold. Is desirable.
  • each of the first to sixth embodiments may be distributed as a plurality of constituent elements, or the functions of the plurality of constituent elements may be integrated into one constituent element. Further, at least a part of the configuration of each of the first to sixth embodiments may be replaced with a known configuration having a similar function. Further, a part of the configuration of each of the first to sixth embodiments may be omitted as long as the problem can be solved. Further, at least a part of the configuration of each of the first to sixth embodiments may be added to or replaced with the configuration of the other embodiments. In addition, all the aspects included in the technical idea specified from the wording described in the claims are embodiments of the present invention.
  • the present invention is realized in various forms such as a program for causing the target recognition device 13 to function, a medium on which the program is recorded, and an axis misalignment determination method. can do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

 探査ビームに対し、車高方向に対応する垂直方向における設計ビーム軸位置に対する軸ずれである垂直軸ずれが発生しているか否かを診断する診断部と、ビームセンサによる物標の検出性能が所定の検出性能よりも低下している可能性が有るか否かを示す検出性能情報に基づいて、前記検出性能が前記所定の検出性能よりも低下している可能性が無いことを第1の検出状態として前記検出性能情報が示す場合、前記診断部による診断を実行し、前記検出性能が前記所定の検出性能よりも低下している可能性があることを第2の検出状態として前記検出性能情報が示す場合、前記診断部による診断を禁止する判断部と、を備えた診断装置である。

Description

軸ずれ診断装置
 本発明は、車両に搭載されるビームセンサの軸ずれを検出する技術に関する。なお、ビームセンサの軸ずれとは、ビームセンサから出力されたビームの進行方向に沿った基準となる軸(以下、ビーム軸とする)が予め設計された軸位置に対してずれることを意味する。
 従来、車両の走行安全性を向上させる各種制御を行うために、ビームセンサが用いられている。このビームセンサは、レーザ光、超音波、ミリ波等の探査ビームを送信し、反射ビームを検出することによって、車両周辺に存在する物標を検知する。
 ビームセンサは、予め定められた照射範囲に探査ビームが照射されるように、車両の予め定められた取付位置に取り付けられ、そのビーム軸が予め設計された軸位置に一致する。このため、何らかの要因によってビームセンサの取付位置が予め定められた取付位置に対してずれると、ビーム軸が予め設計された軸位置に対してずれる恐れがあり、この結果、所定の照射範囲にレーダ波が照射されなくなる恐れがある。これにより、ビームセンサにおける物標の検出精度が低下し、車両の走行安全性を向上させる各種制御の精度が低下するという問題が生じる恐れがある。なお、上記ビーム軸の予め設計された軸位置に対するずれを単に軸ずれとも記載する。また、この軸ずれとして、ビーム軸を含む垂直面内における軸ずれを垂直方向の軸ずれとし、ビーム軸を含む水平面内における軸ずれを水平方向の軸ずれとも記載する。
 そこで、ビームセンサの軸ずれを検出するための技術が提案されている。
 例えば、特許文献1に記載された技術は、レーザビームセンサが搭載された車両の走行中に撮像した画像に基づいて消失点を検出する。この技術は、レーザビーム軸の調整時、すなわち、車両停止時において、検出された消失点とレーザビームの送出方向とに基づいて、レーザビームの送出方向と車両直進方向との間の誤差を検出する。そして、この技術は、検出された誤差に基づいて、レーザビームの送出方向の補正を行う。
特開2004-205398号公報
 上記特許文献1に記載の技術は、レーザビームセンサが搭載された車両の走行中に撮像された画像により検出された消失点に基づいて、レーザビームの送出方向の補正を行うことはできる。しかしながら、この技術は、レーザビーム軸の調整時、すなわち、車両停止時において、レーザビームの送出方向の補正を行うものである。したがって、この技術では、車両の走行時において、レーザビームセンサの軸ずれを検出することは困難であった。
 本開示は、このような課題に鑑みなされたものである。例えば、この開示は、車両に搭載されるビームセンサにおけるビーム軸の軸ずれを車両走行時に検出する技術を提供することを第1の目的とする。
 また、本開示は、車両に搭載されるビームセンサにおけるビーム軸の軸ずれの検出精度を向上させることを第2の目的とする。
 本発明の第1の態様は、車両に搭載されて探査ビームを送信し、該探査ビームに基づく反射ビームを受信し、受信した反射ビームに基づいて物標を検出するビームセンサ(11)の診断装置である。この診断装置は、前記探査ビームに対し、車高方向に対応する垂直方向における設計ビーム軸位置に対する軸ずれである垂直軸ずれが発生しているか否かを診断する診断部(13d、S300)を有している。また、診断装置は、前記ビームセンサによる物標の検出性能が所定の検出性能よりも低下している可能性が有るか否かを示す検出性能情報に基づいて、前記検出性能が前記所定の検出性能よりも低下している可能性が無いことを第1の検出状態として前記検出性能情報が示す場合、前記診断部による診断を実行し、前記検出性能が前記所定の検出性能よりも低下している可能性があることを第2の検出状態として前記検出性能情報が示す場合、前記診断部による診断を禁止する判断部(13c、S200)を有している。
 本発明の第1の態様によれば、ビームセンサによる物標の検出性能が低下している可能性があると判断された場合には、垂直方向における設計ビーム軸位置に対する軸ずれである垂直軸ずれの診断を実行しない。このため、ビームセンサによる物標の検出性能が低下している可能性がある状況を、前記垂直方向における設計ビーム軸位置に対する軸ずれである垂直軸ずれとして誤って検出することを抑制することができる。すなわち、ビームセンサの垂直軸ずれの検出精度を向上させることができる。
 本発明の第2の態様は、車両に搭載されて探査ビームを送信し、該探査ビームに基づく反射ビームを受信し、受信した反射ビームに基づいて物標を検出するビームセンサ(11)の診断装置である。この診断装置は、前記探査ビームに対し、車高方向に対応する垂直方向における設計ビーム軸位置に対する軸ずれである垂直軸ずれが発生しているか否かを診断し、垂直軸ずれが発生している場合、その垂直軸ずれ量を求める診断手段(13d、S300)を有している。また、診断装置は、前記ビームセンサによる物標の検出性能が所定の検出性能よりも低下している可能性が有るか否かを示す検出性能情報を取得する情報取得部を有している。さらに、診断装置は、前記診断部により求められた垂直軸ずれ量を補正することにより、前記検出性能が前記所定の検出性能よりも低下している可能性が有ることを前記検出性能情報が示す場合における前記垂直軸ずれ量の値が、前記検出性能が前記所定の検出性能よりも低下している可能性が無い場合における当該診断手段により求められた当該垂直軸ずれ量の値よりも小さくする補正部(S220)を有している。
 本発明の第2の態様は、検出性能が所定の検出性能よりも低下している可能性が有る場合における垂直軸ずれ量の値が、該検出性能が前記所定の検出性能よりも低下している可能性が無い場合における垂直軸ずれ量の値よりも小さくなるように、当該垂直軸ずれ量を補正している。この補正により、ビームセンサの垂直軸ずれ量を、検出性能の低下を加味した適切な値として求めることができる。
 なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。
図1は、本発明の第1の実施形態に関わる運転支援システム及び物標認識装置の構成の一例を示すブロック図である。 図2は、図1に示すレーダセンサの車両に対する取付位置を説明する図である。 図3は、図1に示すレーダセンサの水平方向における軸ずれ、及び垂直方向における軸ずれを説明する図である。 図4は、図1に示すレーダセンサ及び画像センサの検知範囲をそれぞれ説明する図である。 図5Aは、図1に示すレーダセンサの検出性能が低下していない状態における、図1に示すビーム認識部により得られた反射ビームの強度分布の一例を示すグラフである。 図5Bは、図1に示すレーダセンサの検出性能が低下している状態における、図1に示すビーム認識部により得られた反射ビームの強度分布の一例を示すグラフである。 図6は、本発明の第1の実施形態に関わるレーダ軸ずれ診断処理の一例を概略的に表すフローチャートである。 図7は、図6に示すレーダ軸ずれ診断処理における垂直軸ずれ診断処理の位一例を概略的に示すフローチャート。 図8Aは、前記垂直軸ずれ診断処理における検知カウント処理を表すフローチャートである。 図8Bは、前記検知カウント処理において用いられる距離判定表を示す図である。 図9Aは、前記垂直軸ずれ診断処理における非正常認識割合演算処理および非正常認識割合演算処理に用いられる式の一例を表す説明図である。 図9Bは、前記第1の割合演算処理の具体的な求め方の一例を示す図である。 図9Cは、前記第2の割合演算処理の具体的な求め方の一例を示す図である。 図10Aは、第1のカウンタ、第2のカウンタ、および第3のカウンタに対して重み付けが行われていない場合の自車両から先行車両までの距離と物標双認識割合との関係を示すグラフである。 図10Bは、第1のカウンタ、第2のカウンタ、および第3のカウンタにおける少なくとも1つに対して重み付けが行われていた場合の自車両から先行車両までの距離と物標双認識割合との関係を示すグラフである。 図11Aは、前記垂直軸ずれ診断処理における垂直軸ずれ量演算処理に用いられる第1のマップを示す図である。 図11Bは、前記垂直軸ずれ診断処理における垂直軸ずれ量演算処理に用いられる第2のマップを示す図である。 図12は、第1の実施形態に係る前記垂直軸ずれ診断処理の効果を説明するとともに、前記第3の実施形態に係る検知カウント処理を説明する図である。 図13は、本発明の第2の実施形態に関わる軸ずれ診断処理の一例を示すフローチャートである。 図14Aは、本発明の第3実施形態に関わる検知カウント処理の一例を概略的に示すフローチャートである。 図14Bは、本発明の第3実施形態の距離判定表の一例を示す図である。 図15Aは、第3実施形態に関わる、前記垂直軸ずれ診断処理における非正常認識割合演算処理および非正常認識割合演算処理に用いられる式の一例を表す説明図である。 図15Bは、第3実施形態に関わる、前記第1の割合演算処理の具体的な求め方の一例を示す図である。 図15Cは、第3実施形態に関わる、前記第2の割合演算処理の具体的な求め方の一例を示す図である。 図16は、本発明の第4の実施形態に関わる軸ずれ診断処理の一例を示すフローチャートである。 図17は、第4の実施形態に関わる物標認識装置動作を説明するためのタイミングチャートである。 図18は、本発明の第5の実施形態に関わる軸ずれ診断処理の一例を示すフローチャートである。 図19は、第5の実施形態に関わる物標認識装置の動作を説明するためのタイミングチャートである。 図20は、本発明の第6の実施形態に関わる軸ずれ診断処理の一例を示すフローチャートである。 図21は、第6の実施形態における物標認識装置に用意された、補正係数と検出性能低下要因との関係を表すテーブルの一例を示す図である。 図22は、本発明の他の実施形態に関わる物標認識装置の動作を説明するためのタイミングチャートである。
 以下、本発明が適用された実施形態について、図面を用いて説明する。
 [1.第1実施形態]
 [1-1.構成]
 図1に示すように、第1の実施形態の運転支援システム10は、レーダセンサ11と、画像センサ12と、物標認識装置13と、運転支援実行装置14と、を備えている。この運転支援システム10は、車両1に搭載されている。物標認識装置13は、レーダセンサ11、画像センサ12および運転支援実行装置14のそれぞれと通信可能に接続されている。
 レーダセンサ11は、自車両1の前方に設定された第1の探査領域に向けてレーダ波(レーダビーム)を照射し、その反射波(反射ビーム)を受信する。例えば、レーダセンサ11は、物標認識装置13とともに、ミリ波を利用して第1の探査領域内に存在する物標を検知する周知のFMCW(Frequency Modulated Continuous Wave)レーダを構成する。
 図2に示すように、レーダセンサ11は、自車両1の前端部における所定位置に取り付けられている。具体的には、レーダセンサ11は、その検知範囲の中心軸(レーダ軸)が、自車両1の前後方向(自車両1の長手方向であって、図2に示すx軸方向)及び上下方向(x軸方向及び車幅方向である図2に示すy軸方向と直交する車高方向であって、図2に示すz軸方向)に対して、それぞれ所定角度となるように取り付けられている。
 すなわち、一例として図3における(a)に示すように、レーダセンサ11は、自車両1のxy平面(水平面)内において、車幅方向(y軸方向)における所定の方向(ここでは、一例としてx軸の方向)に対して、検知範囲の中心軸Mが所定角度θY0となるように取り付けられている。また、図3における(c)に示すように、レーダセンサ11は、xz平面(垂直面)内において、車高方向(z軸方向)における所定の方向(ここでは、一例としてz軸の方向)に対して所定角度θZ0となるように取り付けられている。
 以下では、一例として図3における(b)に示すように、水平面内において検知範囲の中心軸Mと車幅方向における所定の方向(x軸)とのなす角度(例えば、θYm)が所定角度θY0から変化した状態(ずれた状態)を、水平方向における軸ずれが発生している状態という。また、一例として図3における(d)に示すように、垂直面内において検知範囲の中心軸Mと車高方向における所定の方向(z軸)とのなす角度(例えば、θZm)が所定角度θZ0から変化した状態(ずれた状態)を、垂直方向における軸ずれが発生している状態という。
 具体的には、レーダセンサ11は、図2に示すように、例えば、車両1の前端部の中央部分に配置され、時間に対して周波数を直線的に上昇(上り変調)および下降(下り変調)させた送信波(送信ビーム)を第1の探査領域に向けて送信し、前方の物標で反射された電波(反射ビーム)を受信し、送信波(送信ビーム)と受信波(受信ビーム)とをミキシングする。そして、レーダセンサ11は、該レーダセンサ11と物標との距離及び相対速度に対応したビート周波数をもつビート信号を受信データとして抽出する。
 例えば、レーダセンサ11は、送信アンテナ及び受信アンテナのうち少なくとも一方がアレイアンテナによって構成されている。なお、送信アンテナと受信アンテナの組み合わせをチャンネルと呼ぶものとする。レーダセンサ11は、チャンネル毎にビート信号を抽出している。レーダセンサ11は、抽出したビート信号を、ADコンバータによってAD変換して出力する。出力されたビート信号は、物標認識装置13に入力される。
 画像センサ12は、図2に示すように、例えば自車両1の前端部におけるレーダセンサ11の上方に配置された例えばCCDカメラを備え、このCCDカメラにより自車両1の周囲、本実施形態では自車両1の前方に設定された第2の探査領域を撮像する。
 CCDカメラは、レーダセンサ11の検知範囲より広い角度範囲を検知範囲とする(図4参照)。
 すなわち、図4に示すように、レーダセンサ11による第1の探査領域(第1の検知範囲)は、レーダビームのビーム軸を中心として水平方向(車両1の車幅方向)に沿って所定の画角を有するように例えば扇形に広がる領域である。また、画像センサ12による第2の探査領域(第2の検知範囲)は、その光軸を中心として水平方向(車幅方向)に沿って所定の画角を有するように例えば扇形に広がる領域である。なお、図4に示すように、車両1の上方から見て、レーダセンサ11のビーム軸と画像センサ12の光軸とは一致している。
 また、レーダセンサ11による第1の探査領域(第1の検知範囲)は、レーダセンサ11のビーム軸を中心として垂直方向(車両1の高さ方向)に沿っても所定の画角を有するように例えば扇形に広がっている。同様に、画像センサ12による第2の探査領域(第2の検知範囲)は、その光軸を中心として垂直方向(高さ方向)に沿っても所定の画角を有するように例えば扇形に広がっている(図12(a)参照)。
 この結果、第1の探査領域と第2の探査領域とは、少なくとも一部が重複するようになっている。
 画像センサ12は、CCDカメラで撮像した撮像データに対して、テンプレートマッチング等の周知の画像処理を行うことにより、撮像範囲内に存在する所定の物標(車両、歩行者等)を検出する。
 そして、画像センサ12は、この処理により検出された物標(以下、画像物標という)の情報を画像物標情報として物標認識装置13へ送信する。なお、画像物標情報には、検出した画像物標の種類、大きさ、位置(距離、方位)についての情報が少なくとも含まれている。
 物標認識装置13は、例えば、CPU31、ROM32、RAM33からなるマイクロコンピュータと、高速フーリエ変換(FFT)等の信号処理を実行するためのデジタルシグナルプロセッサ(DSP)34とを備える。
 物標認識装置13のCPU31は、第1の探査領域内に存在する各種物標を認識し、運転支援実行装置14に提供するための物標情報を生成するビーム認識部13aとして機能する。
 また、物標認識装置13のCPU31は、画像センサ12から取得した画像物標情報に従って、第2の探査領域内に存在する各種物標を認識し、運転支援実行装置14に提供するための物標情報を生成する画像認識部13bとして機能する。
 例えば、ビーム認識部13aは、一例として図5Aに示すように、レーダセンサ11から取得したビート信号に従って、第1の探査領域内における受信した反射ビームの強度分布を算出する。そして、ビーム認識部13aは、受信した反射ビームの強度が所定の閾値A以上となる方位を所定の物標の存在する方位として認識する。なお、第1の実施形態では、ビーム認識部13aは、自車両1の前方を走行する先行車両を所定の物標として認識する。
 なお、ビーム認識部13aおよび画像認識部13bによる物標認識処理における各種物標の認識方法については周知の技術であるので、詳しい説明は省略する。
 また、物標認識装置13は、レーダセンサ11による物標の検出性能が所定の検出性能よりも低下している可能性があるか否かを判断し、判断結果を検出性能情報として出力する判断部13cを備えている。例えば、レーダセンサ11における正面方向、すなわちレーダセンサ11からレーダ波が照射される方向に汚れが付着していると、汚れが付着していないときと比べて、レーダセンサ11の検出性能が低下する。このような場合、一例として図5Bに示すように、受信した反射ビームの強度が低下し、仮に汚れが付着していない場合に受信した反射ビームの強度が所定の閾値A以上となる方位においても、受信した反射ビームの強度が所定の閾値A未満となる可能性がある。すなわち、先行車両が検出されない可能性が生じる。なお、レーダセンサ11の正面方向に汚れが付着している場合以外にも、雨や雪が降っている場合や、砂ぼこりの影響がある場合等においても同様に、受信した反射ビームの強度が低下し、先行車両が検出されない可能性が生じる。一例として、物標認識装置13の判断部13cは、第1の探査領域の全範囲(全検知範囲)において受信した反射ビームの強度が閾値Aより小さい所定の閾値B未満である場合にレーダセンサ11の検出性能が低下している可能性があることを表す検出性能情報を出力し、全検知範囲において受信した電波の強度が閾値B以上である場合にレーダセンサ11の検出性能が低下している可能性がないことを表す検出性能情報を出力する。
 さらに、物標認識装置13のCPU13は、レーダセンサ11に軸ずれが生じているか否かを判定する、レーダ軸ずれ診断処理を実行する軸ずれ診断部として機能する。
 運転支援実行装置14は、物標認識装置13における処理結果(物標情報)に従い、各種車載機器を制御して所定の運転支援を実行する。運転支援実行装置14は、制御対象となる車載機器として、各種画像を表示するモニタや、警報音や案内音声を出力するスピーカを少なくとも備える。また、運転支援実行装置14は、制御対象となる車載機器として、さらに、自車両1に搭載された内燃機関、パワートレイン機構、ブレーキ機構等を制御する各種制御装置を含んでいてもよい。
 [1-2.処理]
 [1-2-1.レーダ軸ずれ診断処理]
 物標認識装置13(すなわち、CPU13)が実行するレーダ軸ずれ診断処理について、図6のフローチャートを用いて説明する。本処理は、例えば、ACCスイッチ(auto cruise control switch)がオンされており、物標認識装置13による処理結果(物標情報)に基づいて、運転支援実行装置14により、例えば、自車両1の速度を、先行車両との距離に応じて自動制御するクルーズコントロールが実行されている間、繰り返し実行される。
 はじめに、物標認識装置13は、上述した検出性能情報を取得する(ステップS100)。なお、CPU31によるステップS100の処理、あるいは該処理に対応するハードウェア構成が情報取得手段の一例に相当する。
 次いで、物標認識装置13は、レーダセンサ11による物標検出性能が所定の検出性能よりも低下している可能性があるか否か判断する(ステップS200)。
 ここで、物標認識装置13は、ステップS100にて取得した検出性能情報がレーダセンサ11の検出性能が低下している可能性があることを表している場合、レーダセンサ11による物標の検出性能が所定の検出性能よりも低下している可能性があると判定し(ステップS200;YES)、垂直軸ずれ診断処理の実行を禁止して、本レーダ軸ずれ診断処理を終了する。すなわち、物標認識装置13は、垂直軸ずれ診断処理を実行せず、本レーダ軸ずれ診断処理を終了する。
 一方、ステップS100にて取得した検出性能情報がレーダセンサ11の検出性能が低下している可能性が無いことを表している場合(ステップS200の判断の結果NO)、物標認識装置13は、ステップS300にて垂直軸ずれ診断処理を実行する。
 なお、CPU31によるステップS200の判断処理、あるいはステップS200の判断処理を実現するハードウェア構成が、例えば、判断手段13cに対応する。
 また、CPU31によるステップS300の診断処理、あるいはステップS300の診断処理を実現するハードウェア構成が、例えば、診断手段13dに対応する。
 ステップS300による垂直軸ずれ診断処理を実行した後、物標認識装置13は、本レーダ軸ずれ診断処理を終了する。
 [1-2-2.垂直軸ずれ診断処理]
 次に、レーダ軸ずれ診断処理のS300にて実行される垂直軸ずれ診断処理の一例を、図7のフローチャートを参照して説明する。なお、以下で説明する垂直軸ずれ診断処理において、単に軸ずれという場合には、垂直方向の軸ずれをいうものとする。
 最初に、物標認識装置13は、サブルーチンである検知カウント処理を実行する(S1010)。なお、検知カウント処理については後述する。その後、垂直軸ずれ診断処理は、ステップS1020に移行する。
 ステップS1020では、物標認識装置13は、サブルーチンである物標双認識割合演算処理を実行する。なお、物標双認識割合演算処理については後述する。その後、垂直軸ずれ診断処理は、ステップ1030に移行する。
 ステップS1030では、物標認識装置13は、非正常認識割合演算処理を実行する。なお、非正常認識割合演算処理については後述する。その後、垂直軸ずれ診断処理は、ステップS1040に移行する。
 ステップS1040では、垂直軸ずれ量演算処理を実行する。なお、垂直軸ずれ量演算処理については後述する。その後、物標認識装置13は、本垂直軸ずれ診断処理を終了する。
 [1-2-2-1.距離別カウント処理]
 次に、垂直軸ずれ診断処理のS1010にて実行されるサブルーチンである検知カウント処理について図8Aのフローチャートを参照して説明する。
 まず、物標認識装置13は、画像物標とミリ波物標とが一致しているか否かを判定する(S1110)。なお、このステップS1110において、画像物標とは、画像センサ12によって画像認識された先行車両9を指し、ミリ波物標とは、レーダセンサ11によってレーダ認識された先行車両9を指す。また、画像物標とミリ波物標との一致とは、認識された先行車両9が、レーダセンサ11によるレーダ認識と画像センサ12による画像認識の双方で認識されたことを言う。
 一例として、物標認識装置13は、画像認識された先行車両9を含む予め定められた範囲内にレーダ認識された先行車両9が存在していることが検出された場合に、認識された先行車両9が、レーダセンサ11によるレーダ認識と画像センサ12による画像認識の双方で認識されたと判定する。
 例えば、物標認識装置13は、レーダセンサ11によるレーダ認識結果に基づいて得られたミリ波物標に含まれる識別情報(例えば、そのミリ波物標の外観情報)と、画像センサ12による画像認識結果に基づいて得られた画像物標に含まれる識別情報(例えば、その画像物標の外観情報)とが一致しているか否かを判断する。この判断の結果、ミリ波物標に含まれる識別情報と画像物標に含まれる識別情報とが一致している場合、物標認識装置13は、レーダセンサ11および画像センサ12の双方により、同一の物標、すなわち、同一の先行車両が認識されたと判断する。
 このステップS1110において肯定判断である場合(S1110:YES)、検知カウント処理はステップS1120に移行する。一方、否定判断である場合(S1110:NO)、検知カウント処理はステップS1130に移行する。
 ステップS1120では、物標認識装置13は、物標距離判定を行う。具体的には、物標認識装置13は、自車両1とレーダ認識および画像認識された先行車両9との間の距離を判定する。なお、この物標距離判定には、レーダ認識の結果または画像認識の結果の何れを用いてもよい。この後、検知カウント処理は、ステップS1140に移行する。
 ステップS1130では、物標認識装置13は、物標距離判定を行う。具体的には、物標認識装置13は、自車両1と画像認識された先行車両9との間の距離を判定する。なお、この物標距離判定には、画像認識の結果を用いる。この後、検知カウント処理は、ステップS1170に移行する。
 ステップS1140では、物標認識装置13は、レーダ認識結果が非正常認識であるか否かを判断する。具体的には、物標認識装置13は、レーダセンサ11によるレーダ認識が非正常な認識結果であったか否かを判定する。ここで、肯定判断、すなわち、レーダ認識結果が非正常な認識結果であった場合(ステップS1140:YES)、検知カウント処理は、ステップS1160に移行する。一方、否定判断、すなわち、レーダ認識結果が正常な認識結果であった場合(ステップS1140:NO)、検知カウント処理は、ステップS1150に移行する。
 なお、非正常認識結果とは、第1の実施形態では、例えば、正常な認識結果とは異なる結果を意味する。例えば、レーダ認識結果の解像度が、正常な場合のレーダ認識結果の解像度よりも劣る場合や、同一の物標を連続的(周期的)に検知している状態において、あるサイクルにおいて、外乱により、上記物標が検知できなかった場合等が、上記非正常認識結果に含まれる。
 ステップS1150では、物標認識装置13は、自装置13内に用意されたハードウェアあるいはソフトウェアの第1のカウンタC1をインクリメントする。
 具体的には、物標認識装置13は、図8Bに例示され、自装置13内に用意された距離判定表を参照して、ステップS1120で判定した自車両1と先行車両9との間の距離が該当する第1のカウンタC1をインクリメントする。なお、第1のカウンタC1とは、先行車両9が正常にレーダ認識された回数を示すカウンタ(すなわち、先行車両9が、レーダセンサ11によるレーダ認識と画像センサ12による画像認識の双方で認識された回数を示すカウンタ)であり、距離判定表に設定された距離領域ごとに用意されている。また、距離判定表には、図8Bに例示するように、0mから100mまでは10m刻みで距離領域が設定され、100m以上は一つの距離領域が設定されており、各距離領域に距離インデックス「1」~「11」がそれぞれ付されている。なお、距離判定表の設定内容については、10m以外の刻みや距離領域数であってもよい。物標認識装置13は、この後、検知カウント処理を終了する。
 ステップS1160では、物標認識装置13は、自装置13内に用意されたハードウェアあるいはソフトウェアの第2のカウンタC2をインクリメントする。
 具体的には、物標認識装置13は、図8Bに例示する距離判定表を参照して、ステップS1120で判定した自車両1と先行車両9との間の距離が該当する第2のカウンタC2をインクリメントする。なお、第2のカウンタC2とは、先行車両9が非正常にレーダ認識された回数を示すカウンタ、すなわち、先行車両9がレーダ認識および画像認識の双方により非正常に認識された回数を示しており、距離判定表に設定された距離領域ごとに用意されている。物標認識装置13は、この後、検知カウント処理を終了する。
 ステップS1170では、物標認識装置13は、自装置13内に用意されたハードウェアあるいはソフトウェアの第3のカウンタC3をインクリメントする。
 具体的には、物標認識装置13は、図8Bに例示する距離判定表を参照して、ステップS1130で判定した自車両1と先行車両9との間の距離が該当する第3のカウンタC3をインクリメントする。なお、第3のカウンタC3とは、先行車両9がレーザ認識はされずに画像認識のみされた回数を示すカウンタであり、距離判定表に設定された距離領域ごとに用意されている。物標認識装置13は、この後、検知カウント処理を終了する。
 [1-2-2-2.物標双認識割合演算処理]
 次に、垂直軸ずれ診断処理のS1020にて実行されるサブルーチンである物標双認識割合演算処理について図9を参照して説明する。
 物標認識装置13は、垂直軸ずれ診断処理がステップS1020に移行した際に、本物標双認識割合演算処理を実行する。
 まず、物標認識装置13は、第1のカウンタC1の値それぞれに、対応する第1の係数を乗算するとともに、第2のカウンタC2の値それぞれに、対応する第2の係数を乗算し、第3のカウンタC3の値それぞれに、対応する第3の係数を乗算する(図9A参照)。
 なお、第1の係数、第2の係数、および第3の係数については、第1のカウンタC1、第2のカウンタC2および第3のカウンタC3の値それぞれに対して重み付けを行うために、実験等により予め設定されている。
 上記設定の一例について、図10Aに例示される自車両Vから先行車両までの距離と、後述する物標双認識割合との関係を示すグラフを用いて説明する。
 このグラフからも明らかなように、自車両1から先行車両までの距離が小さい領域では、レーダセンサ11に軸ずれが生じていない場合の物標双認識割合(詳細は後述する)の値と、レーダセンサ11に軸ずれが生じている場合の物標双認識割合の値との差異が小さい。一方、自車両1から先行車両までの距離が大きい領域では、レーダセンサ11に軸ずれが生じていない場合の物標双認識割合の値と、レーダセンサ11に軸ずれが生じている場合の物標双認識割合の値との差異が大きくなる傾向がある。
 このため、図10Bに示すように、例えば、自車両1から先行車両9までの距離が小さい領域における重みが、自車両1から先行車両9までの距離が大きい領域における重みよりも相対的に小さくなるような係数を設定する。言い換えれば、自車両1から先行車両9までの距離が大きい領域における重みが、自車両1から先行車両9までの距離が小さい領域における重みよりも相対的に大きくなるような係数を設定する。
 図10Aおよび図10Bに例示されたケースでは、車両1と先行車両9との距離がαm未満のカウンタに対して数値「0」の係数θを掛け合わせる。これにより、差が出にくい距離領域の情報を削除して、全体の精度を向上させる(図10B参照)。
 続いて、物標認識装置13は、物標双認識割合を算出する。具体的には、物標認識装置13は、距離判定表に設定された距離領域ごとに、重み付け後の第1のカウンタC1の値を、重み付け後の第1のカウンタC1の値と重み付け後の第2のカウンタC2の値と重み付け後の第3のカウンタC3の値とを加算した値で除算することにより、物標双認識割合を算出する(百分率(%)で表す、図9B参照)。
 この物標双認識割合は、先行車両9を、レーダ認識処理および画像認識処理の双方で認識した回数と、先行車両9を少なくとも画像認識処理またはレーダ認識処理の内の一方で認識した回数との関係(すなわち、割合)の一例を表している。例えば、レーダ認識処理および画像認識処理の双方で認識した回数が増加すれば、物標双認識割合の値は増大し、画像認識処理の単独で認識した回数が増加すれば、物標双認識割合の値は減少する。
 この後、物標認識装置13は、物標双認識割合演算処理を終了する。
 [1-2-2-3.非正常認識割合演算処理]
 次に、垂直軸ずれ診断処理のS1030にて実行されるサブルーチンである非正常認識割合演算処理について図9を用いて説明する。
 物標認識装置13は、垂直軸ずれ診断処理がステップS1030に移行した際に、非正常認識割合演算処理を実行する。
 まず、物標認識装置13は、第1のカウンタC1の値それぞれに、対応する第1の係数を乗算するとともに、第2のカウンタC2の値それぞれに、対応する第2の係数を乗算する(図9A参照)。
 続いて、物標認識装置13は、非正常認識割合を算出する。具体的には、物標認識装置13は、距離判定表に設定された距離領域ごとに、重み付け後の第2のカウンタC2の値を、重み付け後の第1のカウンタC1の値と重み付け後の第2のカウンタC2の値とを加算した値で除算し、百分率(%)で表す(図9C参照)。
 この後、物標認識装置13は、非正常認識割合演算処理を終了する。
 [1-2-2-4.垂直軸ずれ量演算処理]
 次に、垂直軸ずれ診断処理のS1040にて実行されるサブルーチンである垂直軸ずれ量演算処理について図11を用いて説明する。
 物標認識装置13は、垂直軸ずれ診断処理がステップS1040に移行した際に、本垂直軸ずれ量演算処理を実行する。
 ここでは、物標認識装置13は、垂直軸ずれ診断処理のS1020で算出した物標双認識割合およびステップS1030で算出した非正常認識割合に応じて、レーダセンサ11に生じた垂直方向における軸ずれ量(垂直軸ずれ量)を推定する(垂直軸ずれ推定量)。
 具体的には、物標認識装置13は、図11Aに例示され、自装置13内に用意されたマップMを参照して、算出した物標双認識割合および非正常認識割合が該当するマップM上の領域を特定する。そして、物標認識装置13は、その特定した領域に割り当てられた値の垂直軸ずれ量が発生していると判定する(図11B参照)。
 なお、上記マップM上の各領域および各領域に割り当てられた垂直軸ずれ量の値については、実験等により予め設定される。
 例えば、物標双認識割合については、物標双認識割合の値が大きいと垂直軸ずれ量(絶対値)が小さく、物標双認識割合の値が小さいと垂直軸ずれ量(絶対値)が大きい傾向がある。
 また、非正常認識割合については、非正常認識割合の値が大きいと垂直軸ずれ量がプラスであり、非正常認識割合の値が小さいと垂直軸ずれ量がマイナスである傾向がある。なお、レーダビーム軸を含む垂直面内において、該レーダビーム軸が設計ビーム軸位置に対して上側にずれた場合をプラスのずれ量とし、下側にずれた場合をマイナスのずれ量とする。物標認識装置13は、これらに従って、上記マップM上の各領域および各領域に割り当てられた垂直軸ずれ量の値を設定する。図11Bに示す例では、物標双認識割合がX%であり、非正常認識割合がY%である場合には、物標認識装置13は、「-α度(deg)」を垂直軸ずれ量として推定する。
 その後、物標認識装置13は、本垂直軸ずれ量演算処理を終了する。
 [1-3.効果]
 以上詳述した第1実施形態によれば、以下の効果が得られる。
 第1の実施形態に関わる運転支援システム10における物標認識装置13は、レーダセンサ11の垂直方向における軸ずれの検出を実行する前に、レーダセンサ11による物標の検出性能が低下している可能性があるか否かを判断している。この結果、レーダセンサ11による物標の検出性能が低下している可能性があると判断した場合には、物標認識装置13は、垂直方向における軸ずれの診断を実行しない。
 すなわち、上述した第1実施形態の垂直軸ずれ診断処理は、例えば、物標双認識割合、すなわち、先行車両等の物標を、レーダ認識処理および画像認識処理の双方で認識した回数と、物標を少なくとも画像認識処理あるいはレーダ認識処理の一方で認識した回数との関係(すなわち、割合)、に基づいて、レーダセンサ11における垂直方向の軸ずれが発生しているか否かを診断している。
 言い換えれば、上記第1実施形態の垂直軸ずれ診断処理は、物標がレーダ認識処理および画像認識処理の双方で認識できたか否かに基づいて、レーダセンサ11における垂直方向の軸ずれが発生しているか否かを診断している。
 ところで、物標が画像認識処理及びレーダ認識処理の両方で認識されないことは、レーダセンサ11における垂直方向の軸ずれとは異なる理由によっても生じ得る。例えば、レーダセンサ11による物標の検出性能の低下等によっても生じ得る。
 すなわち、物標が画像認識処理及びレーダ認識処理の両方で認識されないことが、レーダセンサ11による物標の検出性能の低下によって生じている場合、この状態において、第1実施形態の垂直軸ずれ診断処理により診断処理を実行すると、レーダセンサ11に垂直方向の軸ずれが生じていないにも関わらず、レーダセンサ11の垂直方向における軸ずれを誤って検出するおそれが有る。
 この点、第1の実施形態に関わる物標認識装置13は、レーダセンサ11による物標の検出性能が低下している可能性があると判断した場合には、垂直方向における軸ずれの診断を実行しないように構成されている。
 このため、第1の実施形態は、第1の効果として、レーダセンサ11による物標の検出性能が低下している可能性がある状況を、垂直方向における軸ずれが発生している状況であるという様に誤って検出することを抑制するという効果を得ることができる。すなわち、第1の実施形態は、レーダセンサ11等のビームセンサの垂直方向における軸ずれについての誤検出を抑制するという効果を得ることができる。
 一方、レーダセンサ11による物標の検出性能が低下している可能性が無いと判断した場合には、物標認識装置13は、垂直軸ずれ診断処理を実行して、レーダセンサ11等のビームセンサの垂直方向における軸ずれが発生しているか否かを診断し、ビームセンサの垂直方向における軸ずれが発生している場合に、その軸ずれ量を検出する。すなわち、物標認識装置13は、レーダセンサ11による物標の検出性能が低下している可能性ないことが確実な状況で、垂直方向における軸ずれが発生しているか否かを診断し、該垂直方向における軸ずれが発生していた場合に、その軸ずれ量を検出することができる。このため、第1の実施形態は、第2の効果として、検出した垂直方向における軸ずれ量に基づいて、車両1の走行安全性を向上させる各種制御を、精度よく実行することができるという効果を得ることができる。
 物標認識装置13は、垂直軸ずれ診断処理において、自車両1の前方を走行する先行車両9のレーダ認識を行うとともに、自車両1の前方を撮像した撮像画像に基づき自車両1の前方を走行する先行車両9の画像認識を行う。そして、物標認識装置30は、先行車両のレーダ認識結果および画像認識結果に基づき、先行車両9をレーダ認識および画像認識の双方で認識した回数が先行車両9を少なくとも画像認識で認識した回数に占める割合を算出する。なお、この割合の一例が、上記物標双認識割合である。物標認識装置13は、その算出した割合の値に応じて、レーダセンサ11等のビームセンサに生じた垂直方向における軸ずれを検出する(図12(a)および(b)参照)。これにより、第1の実施形態は、自車両1に搭載されるレーダセンサ11の垂直方向における軸ずれを自車両1の走行時に精度良く検出することができるという第3の効果を得ることができる。
 物標認識装置13は、垂直軸ずれ診断処理において、自車両1から先行車両9までの距離別に上記物標双認識割合を算出する。そして、物標認識装置13は、その算出した距離別の物標双認識割合の値に重み付けを行った後に合算した値に応じてレーダセンサ11に生じた垂直方向における軸ずれが発生しているか否かを診断する。第1の実施形態は、これにより、自車両1に搭載されるレーダセンサ11の垂直方向における軸ずれが発生しているか否かをより精度良く診断することができるという第4の効果を得ることができる。
 物標認識装置13は、垂直軸ずれ診断処理において、正常に認識された先行車両9の割合、すなわち正常認識割合と、非正常に認識された先行車両9の割合、すなわち非正常認識割合とをそれぞれ算出する。そして、物標認識装置13は、その算出した正常認識割合および非正常認識割合に応じてレーダセンサ11等のビームセンサに生じた垂直方向における軸ずれが発生しているか否かを診断する。そして、物標認識装置13は、垂直方向における軸ずれが発生していると診断された場合には、上方向の軸ずれか下方向の軸ずれかを判定するとともにその軸ずれ量を判定する。これにより、第1実施形態は、自車両1に搭載されるレーダセンサ11等のビームセンサの垂直方向における軸ずれ量を自車両1走行時により精度良く検出することができるという第5の効果を得ることができる。
 なお、第1実施形態では、物標認識装置13が、検出装置、判断手段、軸ずれ検出手段、レーダ認識手段、画像認識手段、の一例に相当する。また、S200が判断手段としての処理の一例に相当し、S300が軸ずれ検出手段としての処理の一例に相当する。
 [2.第2実施形態]
 [2-1.第1実施形態との相違点]
 第2実施形態は、基本的な構成は第1実施形態と同様である。このため、共通する構成については説明を省略し、相違点を中心に説明する。
 第2実施形態では、図13に示すように、物標認識装置13が、レーダ軸ずれ診断処理において、レーダセンサ11による物標の検出性能が低下している可能性があると判断した場合に、全てのカウンタC1~C3のリセットを行う点で、第1実施形態と相違する。
 [2-2.処理]
 第2実施形態のレーダ軸ずれ診断処理について、図13のフローチャートを用いて説明する。
 物標認識装置13は、ステップS100およびS200については、第1の実施形態と同様の処理を実行する。
 ここで、物標認識装置13は、ステップS200にて、レーダセンサ11による物標の検出性能が低下している可能性が無いと判断した場合(ステップS200:NO)、第1の実施形態と同様に、ステップS300の垂直軸ずれ診断処理を実行する。そして、実行終了後、物標認識装置13は、本レーダ軸ずれ診断処理を終了する。
 一方、物標認識装置13は、ステップS200にて、レーダセンサ11による物標の検出性能が低下している可能性があると判断した場合(ステップS200:YES)、ステップS400の処理を実行し、全てのカウンタC1~C3のリセットを実行する。なお、CPU13におけるこのステップS400の処理、あるいはこの処理に対応するハードウェア構成が、例えばリセット手段に対応する。
 具体的には、物標認識装置13は、検知カウント処理に用いる各種カウンタ、すなわち、第1のカウンタC1、第2のカウンタC2、及び第3のカウンタC3を、リセットする。そして、物標認識装置13は、本レーダ軸ずれ診断処理を終了する。
 [2-3.効果]
 以上詳述した第2実施形態によれば、前述した第1実施形態の第1~第5の効果に加えて、以下の効果が得られる。
 物標認識装置13は、レーダ軸ずれ診断処理において、レーダセンサ11による物標の検出性能が低下している可能性があると判断した場合に、垂直軸ずれ診断処理(検知カウント処理)に用いる各種カウンタ、すなわち、第1のカウンタC1、第2のカウンタC2、および第3のカウンタC3を全てリセットする。
 ここで、レーダセンサ11においてレーダセンサ11による物標の検出性能が低下している可能性があると仮定する。そして、レーダセンサ11において、レーダセンサ11による物標の検出性能が実際に低下してから、その検出性能低下していることを表す検出性能情報が取得される迄に時間を要するものと仮定する。このように仮定した状況においても、第2実施形態の物標認識装置13は、レーダセンサ11による物標の検出性能が低下している可能性があることを表す検出性能情報が取得されると、第1~第3のカウンタC1~C3をリセットする。このため、レーダセンサ11による物標の検出性能の低下が実際に発生してから、その低下を表す検出性能情報が取得されるまでの間に第1~第3のカウンタC1~C3に蓄積されたカウント値、すなわち誤ったカウント値が垂直軸ずれ診断処理に用いられることを防止することができる。この結果、第2の実施形態は、第6の効果として、垂直軸ずれ診断処理において精度良く垂直方向における軸ずれが生じているか否かを判断し、かつ該軸ずれが発生していた場合、その軸ずれを精度よく検出することができるという効果を得ることができる。
 なお、第2実施形態では、物標認識装置13が、第1のカウント手段、第2のカウント手段、及びリセット手段、の一例に相当する。また、S1170が第1のカウント手段としての処理の一例に相当し、S1150、S1160が第2のカウント手段としての処理の一例に相当し、S400がリセット手段としての処理の一例に相当する。
 [3.第3実施形態]
 [3-1.第1実施形態との相違点]
 第3実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
 前述した第1実施形態では、物標認識装置13は、先行車両9のレーダ認識および画像認識に基づき、レーダセンサ11に生じた垂直方向における軸ずれを検出した。これに対し、第3実施形態では、物標認識装置13は、軸ずれの検出の際に、先行車両9の車高を考慮する点で、第1実施形態と相違する。
 [3-2.処理]
 具体的には、物標認識装置13は、垂直軸ずれ診断処理において、ステップS1010では、図8に例示する検知カウント処理に代えて図14に例示する検知カウント処理を実行する。また、物標認識装置13は、ステップS1020では、図9に例示する物標双認識割合演算処理に代えて図15に例示する物標双認識割合演算処理を実行する。また、物標認識装置13は、ステップS1030では、図9に例示する非正常認識割合演算処理に代えて図15に例示する非正常認識割合演算処理を実行する。なお、物標認識装置13は、ステップS1040では、第1の実施形態と同様の垂直軸ずれ量演算処理を実行する。
 以下に、第3の実施形態に関わる検知カウント処理、物標双認識割合演算処理および非正常認識割合演算処理について順に説明する。
 [3-2-1.検知カウント処理]
 垂直軸ずれ診断処理のS1010にて実行される距離別カウント処理について、図14を用いて説明する。
 ステップS1205において、物標認識装置13は、ステップS1110と同様に、画像物標とミリ波物標とが一致しているか否かを判断する。すなわち、物標認識装置13は、同一の先行車両9が、レーダセンサ11によるレーダ認識と画像センサ12による画像認識の双方で認識されたか否かを判定する。ここで、物標認識装置13により肯定判断が行われた場合(ステップS1205:YES)、検知カウント処理は、ステップS1210に移行する。一方、物標認識装置13により否定判断が行われた場合(ステップS1205:NO)、検知カウント処理は、ステップS1215に移行する。
 ステップS1210では、物標認識装置13は、物標距離判定を行う。具体的には、物標認識装置13は、自車両1とレーダ認識および画像認識された先行車両9との間の距離を判定する。なお、この物標距離判定には、レーダ認識の結果または画像認識の結果の何れを用いてもよい。この後、検知カウント処理は、ステップS1220に移行する。
 ステップS1215では、ステップS1130と同様に、物標認識装置13は、物標距離判定を行う。具体的には、物標認識装置13は、自車両1と画像認識された先行車両9との間の距離を判定する。なお、この物標距離判定には、画像認識の結果を用いる。この後、検知カウント処理は、ステップS1235に移行する。
 ステップS1220では、物標認識装置13は、ステップS1140と同様に、レーダセンサ11によるレーダ認識がミリ波非正常認識であるか否かを判定する。具体的には、物標認識装置13は、レーダセンサ11によるレーダ認識が正常な認識ではなかったか否かを判定する。ここで、物標認識装置13は、肯定判断、すなわち、レーダ認識結果が非正常な認識結果であった場合(ステップS1220:YES)、検知カウント処理はステップS1230に移行する。一方、否定判断、すなわち、レーダ認識結果が正常な認識結果であった場合(ステップS1220:NO)、検知カウント処理は、ステップS1225に移行する。
 ステップS1225では、物標認識装置13は、先行車両9の車高が標準的な車両の車高より高いか否かを判定する。具体的には、物標認識装置13は、画像認識の結果を用いて、先行車両9の車高が所定の閾値よりも大きいか否かを判定する。なお、所定の閾値とは、垂直軸ずれ検出の精度を高めるために、トラック等の、標準的な車両の車高より車高が高い先行車両9を除外する目的で設定される値であり、実験等により予め設定される(図12(c)および(d)参照)。ステップS1225の判断の結果、肯定判断である場合には(ステップS1225:YES)、検知カウント処理は、ステップS1245に移行する。一方、否定判断である場合には(ステップS1225:NO)、検知カウント処理は、ステップS1240に移行する。
 ステップS1230では、ステップS1225の処理と同様に、物標認識装置13は、先行車両9の車高が標準的な車両の車高より高いか否かを判定する。具体的には、物標認識装置13は、画像認識の結果を用いて、先行車両9の車高が上記所定の閾値よりも大きいか否かを判定する。ステップS1230の判断の結果、肯定判断である場合には(S1230:YES)、検知カウント処理は、ステップS1255に移行する。一方、否定判断である場合には(S1230:NO)、検知カウント処理は、ステップS1250に移行する。
 ステップS1235では、ステップS1225の処理と同様に、物標認識装置13は、先行車両9の車高が標準的な車両の車高より高いか否かを判定する。具体的には、物標認識装置13は、画像認識の結果を用いて、先行車両9の車高が上記所定の閾値よりも大きいか否かを判定する。ステップS1235の判断の結果、肯定判断である場合には(S1235:YES)、検知カウント処理は、ステップS1265に移行する。一方、否定判断である場合には(S1235:NO)、検知処理は、ステップS1260に移行する。
 ステップS1240では、物標認識装置13は、自装置13内に用意されたハードウェアあるいはソフトウェアの第4のカウンタC4をインクリメントする。具体的には、物標認識装置13は、図14Bに例示され、自装置13内に用意された距離判定表を参照して、ステップS1210で判定した自車両1と先行車両9との間の距離が該当する第4のカウンタC4をインクリメントする。なお、この距離判定表は、図8Bに例示する距離判定表と同様であるが、異なる設定内容としてもよい。なお、第4のカウンタC4とは、車高が所定閾値未満である先行車両9が正常にレーダ認識された回数を示すカウンタであり、距離判定表に設定された距離領域ごとに設定されている。この後、物標認識装置13は、検知カウント処理を終了する。
 ステップS1245では、物標認識装置13は、自装置13内に用意されたハードウェアあるいはソフトウェアの第5のカウンタC5をインクリメントする。具体的には、物標認識装置13は、図14Bに例示され、自装置13内に用意された距離判定表を参照して、ステップS1210で判定した自車両1と先行車両9との間の距離が該当する第5のカウンタC5をインクリメントする。なお、第5のカウンタC5とは、車高が上記所定閾値以上である先行車両が正常にレーダ認識された回数を示すカウンタであり、距離判定表に設定された距離領域ごとに設定されている。その後、物標認識装置13は、検知カウント処理を終了する。
 ステップS1250では、物標認識装置13は、自装置30内に用意されたハードウェアあるいはソフトウェアの第6のカウンタC6をインクリメントする。
 具体的には、物標認識装置13は、図14Bに例示され、自装置13内に用意された距離判定表を参照して、ステップS1210で判定した自車両Vと先行車両との間の距離が該当する第6のカウンタC6をインクリメントする。なお、第6のカウンタC6とは、車高が上記所定閾値未満である先行車両が非正常にレーダ認識された回数を示すカウンタであり、距離判定表に設定された距離領域ごとに設定されている。その後、物標認識装置13は、検知カウント処理を終了する。
 ステップS1255では、物標認識装置13は、自装置13内に用意されたハードウェアあるいはソフトウェアの第7のカウンタC7をインクリメントする。
 具体的には、物標認識装置13は、図14Bに例示され、自装置13内に用意された距離判定表を参照して、ステップS1210で判定した自車両1と先行車両9との間の距離が該当する第7のカウンタC7をインクリメントする。なお、第7のカウンタC7とは、車高が所定閾値以上である先行車両が非正常にレーダ認識された回数を示すカウンタであり、距離判定表に設定された距離領域ごとに設定されている。その後、物標認識装置13は、検知カウント処理を終了する。
 ステップS1260では、物標認識装置13は、自装置13内に用意されたハードウェアあるいはソフトウェアの第8のカウンタC8をインクリメントする。
 具体的には、物標認識装置13は、図14Bに例示され、自装置13内に用意された距離判定表を参照して、ステップS1215で判定した自車両1と先行車両9との間の距離が該当する第8のカウンタC8をインクリメントする。なお、第8のカウンタC8とは、車高が所定閾値未満である先行車両がレーザ認識はされずに画像認識のみされた回数を示すカウンタであり、距離判定表に設定された距離領域ごとに設定されている。その後、物標認識装置13は、検知カウント処理を終了する。
 ステップS1265では、物標認識装置13は、自装置13内に用意されたハードウェアあるいはソフトウェアの第9のカウンタC9をインクリメントする。
 具体的には、物標認識装置13は、図14Bに例示され、自装置13内に用意された距離判定表を参照して、ステップS1215で判定した自車両1と先行車両9との間の距離が該当する第9のカウンタC9をインクリメントする。なお、第9のカウンタC9とは、車高が所定閾値以上である先行車両がレーザ認識はされずに画像認識のみされた回数を示すカウンタであり、距離判定表に設定された距離領域ごとに設定されている。その後、物標認識装置13は、検知カウント処理を終了する。
 [3-2-2.物標双認識割合演算処理]
 次に、垂直軸ずれ診断処理のS1020にて実行する物標双認識割合演算処理について図15A~図15Cを用いて説明する。
 まず、物標認識装置13は、図15Aに示すように、第4のカウンタC4の値それぞれに、対応する所定の第4の係数を乗算し、第5のカウンタC5の値それぞれに、対応する所定の第5の係数を乗算する。そして、物標認識装置13は、乗算により得られた第4のカウンタC4の値と乗算により得られた対応する第5のカウンタC5の値とを加算する。この結果、距離判定表に設定された距離領域ごとに、第1のカウント加算値が得られる。
 物標認識装置13は、図15Aに示すように、第6のカウンタC6の値それぞれに、対応する所定の第6の係数を乗算し、第7のカウンタC7の値それぞれに、対応する所定の第7の係数を乗算する。そして、物標認識装置13は、乗算により得られた第6のカウンタC6の値と乗算により得られた対応する第7のカウンタC7の値とを加算する。この結果、距離判定表に設定された距離領域ごとに、第2のカウント加算値が得られる。
 さらに、物標認識装置13は、図15Aに示すように、第8のカウンタC8の値それぞれに、対応する所定の第8の係数を乗算し、第9のカウンタC9の値それぞれに、対応する所定の第9の係数を乗算する。そして、物標認識装置30は、乗算により得られた第8のカウンタC8の値と乗算により得られた対応する第9のカウンタC9の値とを加算する。この結果、距離判定表に設定された距離領域ごとに、第3のカウント加算値が得られる。
 なお、第4~第9の係数については、対応するそれぞれのカウンタに対して重み付けを行うために、実験等により予め設定される。
 続いて、物標認識装置13は、物標双認識割合を算出する。具体的には、物標認識装置13は、距離判定表に設定された距離領域ごとに、第1のカウント加算値を、第1のカウント加算値、第2のカウント加算値および第3のカウント加算値とを加算した値で除算することにより、物標双認識割合を算出する(百分率(%)で表す、図15B参照)。
 この後、物標認識装置13は、物標双認識割合演算処理を終了する。
 [3-2-2.非正常認識割合演算処理]
 次に、垂直軸ずれ診断処理のS1030にて実行される非正常認識割合演算処理について図15A~図15Cを用いて説明する。
 まず、物標認識装置13は、図15Aに示すように、第4のカウンタC4の値それぞれに、対応する所定の第4の係数を乗算し、第5のカウンタC5の値それぞれに、対応する所定の第5の係数を乗算する。そして、物標認識装置13は、乗算により得られた第4のカウンタC4の値と乗算により得られた対応する第5のカウンタC5の値とを加算する。この結果、距離判定表に設定された距離領域ごとに、第1のカウント加算値が得られる。
 続いて、物標認識装置13は、図15Aに示すように、第6のカウンタC6の値それぞれに、対応する所定の第6の係数を乗算し、第7のカウンタC7の値それぞれに、対応する所定の第7の係数を乗算する。そして、物標認識装置13は、乗算により得られた第6のカウンタC6の値と乗算により得られた対応する第7のカウンタC7の値とを加算する。この結果、距離判定表に設定された距離領域ごとに、第2のカウント加算値が得られる。
 続いて、物標認識装置13は、非正常認識割合を算出する。具体的には、物標認識装置13は、距離判定表に設定された距離領域ごとに、第1のカウント加算値を、第1のカウント加算値および第2のカウント加算値とを加算した値で除算することにより、非正常認識割合を算出する(百分率(%)で表す、図15C参照)。
 この後、物標認識装置13は、非正常認識割合演算処理を終了する。
 [3-3.効果]
 以上詳述した第3実施形態によれば、前述した第1実施形態の効果に加え、以下の効果が得られる。
 第3の実施形態の物標認識装置13は、垂直軸ずれ診断処理(検知カウント処理)において、先行車両9の車高別に前記物標双認識割合および非正常認識割合を算出し、その算出した車高別の前記物標双認識割合および非正常認識割合に応じてレーダセンサ11に生じた垂直面内での軸ずれを検出する。これにより、より精度よく軸ずれを検出することができる。
 また、物標認識装置13は、垂直軸ずれ診断処理(検知カウント処理)において、認識した先行車両9の車高が所定閾値よりも大きいか否かを判定し、車高が所定閾値よりも大きい先行車両9については除外して前記物標双認識割合および非正常認識割合を算出する。これにより、より精度よく軸ずれを検出することができる。
 [4.第4実施形態]
 [4-1.第1実施形態との相違点]
 第4実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
 第4実施形態では、図16に示すように、レーダ軸ずれ診断処理において、検出性能情報を設定する処理(ステップS10~S50)が追加される点で、第1実施形態と相違する。
 [4-2.処理]
 第4実施形態のレーダ軸ずれ診断処理について、図16のフローチャートを用いて説明する。上述したように、物標認識装置13(すなわち、CPU13)は、ACCスイッチがオンの状態において、このレーダ軸ずれ診断処理を所定間隔で繰り返し実行している。なお、レーダ軸ずれ診断処理の実行単位をサイクルとして記載する。
 レーダ軸ずれ診断処理の今回のサイクルにおいて、物標認識装置13は、レーダセンサ11による物標の検出性能が低下する低下要因が発生しているか否か判断する(ステップS10)。第4実施形態では、例えば雨を低下要因とする。すなわち、雨が降っている場合に、具体的には車両1における、フロントウインドウ、リアウインドウ等における雨滴等を除去するワイパ(WIPER DEVICE、図1に仮想線で示す)が作動している場合に、レーダセンサ11の低下要因が発生している(低下要因有り)と判断する。なお、雨が降っているか否かは、画像センサ12により撮像された画像に基づいて判断してもよい。レーダ軸ずれ診断処理は、低下要因有りと判断した場合にはステップS11に移行し、低下要因無しと判断した場合には、ステップS12に移行する。
 低下要因有りと判断された場合にレーダ軸ずれ診断処理が移行するステップS11では、物標認識装置13は、0で表される論理的ローレベル、あるいは1で表される論理的ハイレベルを有する1ビットの情報である性能低下フラグをセットする。具体的には、物標認識装置13は、性能低下フラグに1を代入する。そして、レーダ軸ずれ診断処理は、ステップS40に移行する。
 低下要因無しと判断された場合にレーダ軸ずれ診断処理が移行するステップS12では、物標認識装置13は、上記性能低下フラグをリセットする。具体的には、性能低下フラグに0を代入する。
 続くステップS13では、物標認識装置13は、前回フラグの値、すなわち前回サイクルにおける性能低下フラグの値を取得する。後述するように、前回フラグの値は、RAM33に記録されている。
 次にステップS15では、物標認識装置13は、性能低下要因の変化時点からの経過時間が非判定期間以上であるか否かを判断する。
 ここで、性能低下要因の変化時点とは、性能低下要因の有無が低下要因有りから低下要因無しに変化したタイミングをいい、第4の実施形態では、雨が降っている状態から雨がやんだ状態に変化したタイミングを変化時点という。非判定期間は、性能低下要因に基づいて定められており、第4の実施形態では、性能低下要因である雨がやんだ後にレーダセンサ11の検出窓に付着している雨滴を乾かすために必要な予め定められた時間に設定されている。
 なお、第4実施形態では、物標認識装置13(CPU31)は、例えば、本レーダ軸ずれ診断処理とは別の処理において、性能低下フラグに基づいて変化時点を判断する処理を実行する変化時点判断部13fを有しており、この変化時点判断部13fにより、変化時点からの経過時間がRAM33に記録されるようになっている。
 物標認識装置13により、この変化時点からの経過時間が非判定期間以上である場合には(ステップS15:YES)、レーダ軸ずれ診断処理は、ステップS30に移行する。一方、物標認識装置13により、この変化時点からの経過時間が非判定期間未満である場合には(ステップS15:NO)、レーダ軸ずれ診断処理は、ステップS40に移行する。
 ステップS30では、物標認識装置13は、レーダセンサ11の検出性能情報を良好状態に設定する。この後、レーダ軸ずれ診断処理は、ステップS50に移行する。
 ステップS40では、物標認識装置13は、検出性能情報を低下状態に設定する。この後、レーダ軸ずれ診断処理は、ステップS50に移行する。
 続くステップS50では、物標認識装置13は、現在の検出性能フラグの値を前回フラグの値としてRAM33に記録する。
 次に、ステップS100~S200では、物標認識装置13は、上記第1の実施形態と同様の処理を実行する。
 このような第4本実施形態のレーダ軸ずれ診断処理では、一例として図17に示すように、雨が降っている状態から雨がやんだ状態へ変化した変化時点t1から非判定期間p1の間においては、雨のやんだ状態(図17の(a)参照)ではあるが、雨の影響によりレーダセンサ11の検出性能の低下している可能性がある状態と判断される(ステップS15;NO)。したがって、検出性能情報として、レーダセンサ11による物標の検出性能が低下している可能性があることを表す情報がステップS100により受けられる。この結果、垂直軸ずれ診断処理を実行しない非実行状態が継続される(ステップS200の判断の結果NO、および図17の(d)参照)。
 [4-3.効果]
 以上詳述した第4実施形態によれば、前述した第1実施形態の第1~第5の効果に加え、以下の効果が得られる。
 例えば、レーダセンサ11では、検出性能を低下させる要因である低下要因の有る状態から無い状態へ変化したとしても、この変化に即座に対応して、検出性能が低下状態から良好状態へ変化しないことが有り得る。例えば、雨を低下要因とする場合、低下要因の有る状態である雨が降っている状態から低下要因の無い状態である雨がやんだ状態へ変化したとしても、雨がやんだ後にレーダセンサ11の検出窓に雨滴が付着しているような場合は、レーダセンサ11の検出性能は低下状態となる。
 これに対し、第4の実施形態では、雨が降っている状態から雨がやんだ状態へ変化した変化時点から非判定期間の間は、レーダセンサ11の検出性能が低下しているおそれがあると判断され(ステップS200;YES)、垂直軸ずれ診断処理を実行しない非実行状態が継続される。この構成によれば、レーダセンサ11の検出窓に雨滴の付着しているおそれのある間は垂直方向における軸ずれの検出及び補正が実行されないため、垂直方向における軸ずれについて誤った補正の行われることを抑制することができる。なお、非判定期間は、例えば、雨がやんだ後にレーダセンサ11の検出窓に付着している雨滴を乾かすために必要な時間よりも長く設定されることが望ましい。
 なお、第4実施形態では、CPU31によるステップS10の処理、あるいは該処理に対応するハードウェア構成が、低下要因判断手段の一例に相当し、CPU31によるステップS40の処理、あるいは該処理に対応するハードウェア構成が設定手段の一例に相当する。また、非判定期間が非検出期間の一例に相当する。
 [5.第5実施形態]
 [5-1.第1実施形態との相違点]
 第5実施形態は、基本的な構成は第4実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
 第5実施形態では、図18に示すように、検出性能情報の設定内容を決定するまでの処理である図16に示すフローチャートのS11~S15が、S21~S25に置換される点で、第4実施形態と相違する。
 [5-2.処理]
 第5実施形態のレーダ軸ずれ診断処理について、図18のフローチャートを用いて説明する。
 はじめに、物標認識装置13は、ステップS10では、図16に示すS10と同様に、低下要因の有無を判断する。物標認識装置13は、低下要因有りと判断した場合にステップS21の処理を実行し、低下要因無しと判断した場合に、ステップS22の処理を実行する。
 低下要因有りと判断された場合においては、物標認識装置13は、0で表される論理的ローレベル、あるいは1で表される論理的ハイレベルを有する1ビットの情報である雨検出フラグをセットする。具体的には、物標認識装置13は、雨検出フラグに1を代入する(ステップS21)。レーダ軸ずれ診断処理は、ステップS25に移行する。
 一方、低下要因無しと判断された場合においては、物標認識装置13は、上記雨検出フラグをリセットする(ステップS22)。具体的には、物標認識装置13は、雨検出フラグに0を代入する。
 続くステップS23では、物標認識装置13は、降雨状態から非降雨状態への変化時点からの経過時間が所定の非判定期間以上であるか否かを判断する。物標認識装置13は、降雨状態から非降雨状態への変化時点からの経過時間が非判定期間以上である場合にステップS25の処理を実行し、非判定期間未満である場合にステップS24の処理を実行する。
 ここで、降雨状態から非降雨状態への変化時点とは、降雨状態から雨がやんだ状態に変化したタイミングをいう。非判定期間は、第4の実施形態と同様に、性能低下要因である雨がやんだ後にレーダセンサ11の検出窓に付着している雨滴を乾かすために必要な予め定められた時間に設定されている。
 なお、第5実施形態では、物標認識装置13(CPU31)は、例えば、本レーダ軸ずれ診断処理とは別の処理において、雨検出フラグに基づいて変化時点を判断する処理を実行する変化時点判断部13fを有しており、この変化時点判断部13fにより、変化時点からの経過時間がRAM33に記録されるようになっている。
 変化時点からの経過時間が非判定期間未満である場合においては、物標認識装置13は、リセットされていた雨検出フラグをセットする(ステップS24)。具体的には、物標認識装置13は、雨検出フラグに1を代入して該雨検出フラグを上書きする。
 ステップS25では、物標認識装置13は、雨検出フラグがセットされているか否かを判断する。具体的には、物標認識装置13は、雨検出フラグの値が1である場合に雨検出フラグがセットされていると判断する。物標認識装置13は、雨検出フラグがセットされている場合にステップS30の処理を実行し、雨検出フラグがセットされていない場合に、ステップS40の処理を実行する。 
 物標認識装置13は、ステップS30~S40、およびステップS100~S300については、図16と同様の処理を行う。
 このように構成された第5本実施形態のレーダ軸ずれ診断処理では、一例として図19に示すように、雨が降っている状態から雨がやんだ状態へ変化した変化時点t11から非判定期間p11の間においては、雨のやんだ状態ではあるが(図19(a)参照)、雨が降っている状態として検出され(図19の(b)参照)、垂直軸ずれ診断処理を実行しない非実行状態が継続される(ステップS200の判断の結果NO、および図19の(d)参照)。
 [5-3.効果]
 以上詳述した第5実施形態によれば、前述した第4実施形態の効果と同様の効果が奏される。
 なお、第5実施形態では、CPU31によるステップS24の処理、あるいは該処理に対応するハードウェア構成が、変更手段の一例に相当する。
 [6.第6実施形態]
 [6-1.第1実施形態との相違点]
 第6実施形態は、基本的な構成は第1実施形態と同様であるため、共通する構成については説明を省略し、相違点を中心に説明する。
 第6実施形態では、図20に示すように、レーダ軸ずれ診断処理(S300)において、垂直軸ずれ量の補正を行う補正係数を取得するための処理(S210~S220)が追加される点で、第1実施形態と相違する。
 [6-2.処理]
 第6実施形態のレーダ軸ずれ診断処理について、図20のフローチャートを用いて説明する。
 物標認識装置13は、ステップS100、ステップS200、およびステップS300については、図6と同様の処理を行う。
 物標認識装置13は、レーダセンサ11による物標の検出性能が低下している可能性が有る場合(ステップS200;YES)に、ステップS21の処理を実行する。
 ステップS210では、物標認識装置13は、検出性能が低下している低下要因を特定する。例えば、物標認識装置13は、ワイパからの動作信号、画像センサ12により撮像された画像、および/または車両1に搭載された各種センサ(図1に仮想線で示す)からの車両1の動作状態(走行状態)を表す検出信号に基づいてワイパが動作していることを検出した場合は、雨を検出性能低下要因であると特定する。
 続くステップS220では、物標認識装置13は、ステップS210で特定した検出性能低下要因に応じて、ステップS300で検出される軸ずれ量の補正を行うための補正係数を取得し、ステップS300Aの処理を実行する。
 すなわち、第5実施形態のステップS300Aでは、物標認識装置13は、図7に示す軸ずれ量演算処理(S1040参照)において、該軸ずれ量演算処理によって算出した垂直軸ずれ量にステップS210にて取得した補正係数を乗算することにより、垂直軸ずれ量の補正を行う。そして、物標認識装置13は本レーダ軸ずれ診断処理を終了する。
 ステップS220で求められる補正係数の値は、一例として、図21に示すようなテーブルとしてROM32に記録されている。すなわち、このテーブルには、検出性能低下要因が雨でない場合と、雨である場合とで、補正係数として異なる値PおよびQが設定されている。また、例えば、雨である場合の補正係数の値Qは、雨で無い場合の補正係数Pの値よりも小さく設定されている。
 例えば、レーダセンサ11の検出性能が低下している可能性のあることを表す検出性能情報が取得され(ステップS100)、その検出性能低下要因が雨であると特定(ステップS210)された場合、物標認識装置13は、ROM32に記憶されたテーブルから、検出性能低下要因が雨である情報に対応する補正係数Q、すなわち、雨ではない場合の補正係数Pよりも小さい補正係数Qを読み出す(ステップS220)。
 [6-3.効果]
 以上詳述した第6実施形態によれば、前述した第1実施形態の第1~第5の効果に加え、以下の効果が得られる。
 レーダセンサ11の検出性能が低下している可能性があるとき、具体的に検出性能低下要因が特定されている場合、物標認識装置13は、特定された検出性能低下要因に基づいて、例えば実験等により予め求められた補正係数に基づいて、求められた垂直ずれ量を補正する。
 例えば、第6の実施形態では、雨に起因する検出性能の低下量は、他の要因に基づく検出性能低下量よりも、大きいと仮定している。この場合、雨に起因する検出性能低下状況下において、第1実施形態の垂直軸ずれ診断処理を実行して得られた垂直軸ずれ量は、雨以外の検出性能低下状況下において、第1実施形態の垂直軸ずれ診断処理を実行して得られた垂直軸ずれ量よりも大きくなることが予想される。
 この点、第6実施形態の物標認識装置13は、雨に起因する検出性能低下状況下における垂直軸ずれ量を、雨以外の要因に起因する検出性能低下状況下における垂直軸ずれ量よりも、小さく算出する(ステップS300A参照)。
 すなわち、第6実施形態の物標認識装置13は、求められた垂直軸ずれ量を補正することにより、求められた垂直軸ずれ量の中から、検出性能低下要因に基づく誤差成分を除去する。
 このように構成された物標認識装置13は、レーダセンサ11の検出性能が低下している可能性があるときにも、垂直軸ずれ診断処理(S300A)を実行し、適切な垂直方向の軸ずれ量、すなわち、検出性能低下要因を考慮した垂直方向のずれ量を検出することができる。
 なお、第6実施形態では、物標認識装置13が、診断手段、情報取得手段、補正手段の一例に相当する。また、CPU31によるステップS100処理、あるいは該処理に対応するハードウェア構成が情報取得手段の一例に相当する。CPU31によるステップS220の処理およびステップS300AにおけるステップS1040の処理、あるいは該処理(ステップS220、S1040)に対応するハードウェア構成が補正手段の一例に相当する。
 [7.他の実施形態]
 以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
 第1~第6の実施形態では、物標認識装置13は、垂直軸ずれ診断処理において、レーダセンサ11の垂直方向への軸ずれ量を検出していたが、これに限らず、レーダセンサ11の垂直方向への軸ずれが発生しているか否かを判断、すなわち診断だけをしてもよい。
 上記第1~第6の実施形態では、レーダセンサ11の検知範囲の中心軸Mと垂直方向(y軸)とのなす角度に基づいて、垂直方向における軸ずれを定義していたが、これに限るものではない。例えば、垂直方向において中心軸Mと水平方向(x軸方向)とのなす角度に基づいて、垂直方向における軸ずれを定義してもよい。また、軸ずれを定義するためのレーダセンサ11の軸は中心軸Mとは異なる軸であってもよく、例えばレーダセンサ11を起点として物標の探索範囲に向かって延びる軸を定め、この軸について垂直方向における軸ずれを定義してもよい。
 上記第2実施形態において物標認識装置13が実行するレーダ軸ずれ診断処理(図13参照)の垂直軸ずれ診断処理(S300)に、上記第3実施形態に記載の垂直軸ずれ診断処理を適用してもよい。この場合、レーダセンサ11の検出性能が低下している可能性がある場合に実行するカウンタリセットでは、図14のフローチャートに示す各種カウンタ、すなわち、第4~第9のカウンタをリセットする。
 上記第1~第3実施形態では、物標認識装置13は、一例として受信した反射ビームの強度が低下している場合に、レーダセンサ11の検出性能が低下している可能性があることを表す検出性能情報を出力していたが、本発明は、この構成に限定されるものではない。
 例えば、物標認識装置13は、種々の方法に基づいてレーダセンサ11の検出性能が低下している可能性があることを検出して検出性能情報を出力してよい。
 例えば、物標認識装置13は、ステップS200において、ワイパが作動状態であるか否かを、該ワイパ自体、画像センサ12、および/またはセンサによって判断し、ワイパが作動していると判断した場合には、雨や雪等のようなレーダセンサ11の検出性能を低下させる気象要因が発生しているものと判断し、レーダセンサ11の検出性能が低下している可能性があることを表す検出性能情報を出力してもよい。
 また、物標認識装置13は、ステップS200において、自車両1の運転者がワイパを操作したか否かを判断し、ワイパが操作されたと判断したときには、雨や雪等のようなレーダセンサ11の検出性能を低下させる気象要因が発生しているものと判断して、レーダセンサ11の検出性能が低下している可能性があることを表す検出性能情報を出力してもよい。
 第4~第6実施係蹄において、非判定期間は、レーダセンサ11の検出性能の低下要因に基づいて設定されている。例えば上記第4~第6の実施形態では、非判定期間は、低下要因である雨がやんだ後にレーダセンサ11の検出窓に付着している雨滴を乾かすために必要な時間に設定されているが、本発明はこの例に限定されるものではない。
 例えば、非判定期間は、低下要因が雪である場合に、低下要因である雪がやんだ後にレーダセンサ11の検出窓に付着している雪を乾かすために必要な時間に設定されてもよい。なお、非判定期間は、低下要因として雪が検出された場合は、低下要因として雨が検出された場合よりも長い時間に設定されることが望ましい。
 上記第4~第6実施形態では、非判定期間は、レーダセンサ11の検出性能の低下要因に基づいて設定されているが、本発明はこれに限るものではない。例えば、非判定期間は、物標認識装置13の搭載された車両1の速度に基づいて設定されてもよい。
 例えば、図22は、図16に示す第4実施形態のレーダ軸ずれ診断処理の変形例である。図22におけるステップS14に示すように、物標認識装置13(すなわち、CPU13)は、ステップS15の処理を実行する前に、車両1の速度を、例えば図1に示すセンサの1つから取得する(ステップS14)。そして、ステップS14において、物標認識装置13は、取得した車両1の速度に応じた非判定期間の値を、予めROM32に記録された、車両1の速度と対応する非判定期間との関係を表すテーブルから取得することも可能である。なお、該テーブルにおいて、非判定期間は、車両1の速度が所定の閾値よりも低速である場合には、車両1の速度が該閾値以上の高速である場合よりも長い時間に設定されることが望ましい。
 上記第1~第6実施形態それぞれにおける1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記第1~第6実施形態それぞれの構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記第1~第6の実施形態それぞれの構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記第1~第6実施形態それぞれの構成の少なくとも一部を、他の実施形態の構成に対して付加、置換等してもよい。なお、特許請求の範囲に記載の文言から特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
 本発明は、前述した運転支援システム10及び物標認識装置13の他、当該物標認識装置13を機能させるためのプログラム、このプログラムを記録した媒体、軸ずれ判定方法など、種々の形態で実現することができる。
 1…自車両 10…運転支援システム 11…レーダセンサ 12…画像センサ 13…物標認識装置 14…運転支援実行装置 31…CPU。

Claims (10)

  1.  車両に搭載されて探査ビームを送信し、該探査ビームに基づく反射ビームを受信し、受信した反射ビームに基づいて物標を検出するビームセンサ(11)の診断装置であって、
     前記探査ビームに対し、車高方向に対応する垂直方向における設計ビーム軸位置に対する軸ずれである垂直軸ずれが発生しているか否かを診断する診断手段(13d、S300)と、
     前記ビームセンサによる物標の検出性能が所定の検出性能よりも低下している可能性が有るか否かを示す検出性能情報に基づいて、前記検出性能が前記所定の検出性能よりも低下している可能性が無いことを第1の検出状態として前記検出性能情報が示す場合、前記診断手段による診断を実行し、前記検出性能が前記所定の検出性能よりも低下している可能性があることを第2の検出状態として前記検出性能情報が示す場合、前記診断手段による診断を禁止する判断手段(13c、S200)と、
    を備えたことを特徴とする診断装置。
  2.  請求項1に記載の診断装置であって、
     前記診断手段は、前記垂直軸ずれが発生していると判断した場合、その垂直軸ずれにおける前記探査ビームの前記設計ビーム軸位置に対するずれ量を垂直軸ずれ量として検出することを特徴とする診断装置。
  3.  請求項2に記載の診断装置であって、
     前記ビームセンサによる前記反射ビームを受信した結果から、自車両の前方に対する第1の物標認識処理を繰り返し行うビーム認識手段(13a)と、
     画像センサ(20)により撮像された自車両の前方の撮像画像に基づき、自車両の前方に対する第2の物標認識処理を繰り返し行う画像認識手段(13b)と、を備え、
     前記診断手段は、
     前記ビーム認識手段(13a)による前記第1の物標認識処理の結果、および前記画像認識手段(13b)による前記第2の物標認識処理の結果に基づいて、前記自車両前方を走行する少なくとも1つの先行車両を第1の物標認識処理および第2の物標認識処理の双方で認識した回数と、当該少なくとも1つの先行車両を、第1物標認識処理または第2の物標認識処理の少なくとも一方で認識した回数との関係を求め、求めた関係に応じて、前記ビームセンサ(11)の探査ビーム軸を含む垂直面内における該探査ビーム軸の設計ビーム軸位置に対する軸ずれ量を前記垂直軸ずれ量として検出する軸ずれ検出手段(S1010~S1040)と、
    を備えたことを特徴とする診断装置。
  4.  請求項3に記載の診断装置であって、
     前記ビーム認識手段は、前記少なくとも1つの先行車両を前記第1の物標認識処理により認識した回数をカウントするビーム認識用カウンタ(C1)を備え、
     前記画像認識手段は、前記少なくとも1つの先行車両を前記第2の物標認識処理により認識した回数をカウントする画像認識用カウンタ(C3)を備え、
     前記診断装置は、前記判断手段により前記検出性能が前記所定の検出性能よりも低下している可能性があることを前記検出性能情報が示す場合、前記ビーム認識用カウンタおよび画像認識用カウンタによりそれぞれカウントされたカウント値をリセットするリセット手段(13e、S400)を備えたことを特徴とする診断装置。
  5.  請求項1から請求項4のいずれか一項に記載の診断装置であって、
     前記ビームセンサによる物標の検出性能を低下させる低下要因の有無を検出する低下要因判断手段(S10)と、
     前記低下要因判断手段による判断結果に基づいて、前記検出性能情報を、前記第2の検出状態に設定する設定手段(S40)と、
    を備えたことを特徴とする診断装置。
  6.  請求項5に記載の診断装置であって、
     前記設定手段は、前記低下要因判断手段による判断結果が低下要因無しであるとき(S10;NO)、前記低下要因判断手段により前記低下要因の有無が有りから無しに変化した変化時点からの経過時間が予め定められた非検出期間未満である場合(S15;NO)に、前記検出性能情報を、前記第2の検出状態に設定することを特徴とする診断装置。
  7.  請求項5に記載の診断装置であって、
     前記低下要因判断手段による判断結果が低下要因無しであるとき(S10;NO)、前記低下要因の有無が有りから無しに変化した変化時点からの経過時間が予め定められた非検出期間未満である場合(S23;NO)には、前記低下要因判断手段による判断結果を前記低下要因有りに変更する変更手段(S24)を備えたことを特徴とする診断装置。
  8.  請求項6または請求項7に記載の診断装置であって、
     前記非検出期間は、前記低下要因に基づいて設定されることを特徴とする診断装置。
  9.  請求項6または請求項7に記載の診断装置であって、
     前記非検出期間は、当該診断装置の搭載された前記車両の速度に基づいて設定されることを特徴とする診断装置。
  10.  車両に搭載されて探査ビームを送信し、該探査ビームに基づく反射ビームを受信し、受信した反射ビームに基づいて物標を検出するビームセンサ(11)の診断装置であって、
     前記探査ビームに対し、車高方向に対応する垂直方向における設計ビーム軸位置に対する軸ずれである垂直軸ずれが発生しているか否かを診断し、垂直軸ずれが発生している場合、その垂直軸ずれ量を求める診断手段(13d、S300)と、
     前記ビームセンサによる物標の検出性能が所定の検出性能よりも低下している可能性が有るか否かを示す検出性能情報を取得する情報取得手段(S100)と、
     前記診断手段により求められた垂直軸ずれ量を補正することにより、前記検出性能が前記所定の検出性能よりも低下している可能性が有ることを前記検出性能情報が示す場合における前記垂直軸ずれ量の値が、前記検出性能が前記所定の検出性能よりも低下している可能性が無い場合における当該診断手段により求められた当該垂直軸ずれ量の値よりも小さくする補正手段(S220)と、
    備えたことを特徴とする診断装置。
PCT/JP2015/074250 2014-08-27 2015-08-27 軸ずれ診断装置 WO2016031919A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/506,677 US10705186B2 (en) 2014-08-27 2015-08-27 Apparatus for detecting axial misalignment

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2014173075 2014-08-27
JP2014-173075 2014-08-27
JP2015024521A JP6265149B2 (ja) 2014-08-27 2015-02-10 検出装置
JP2015-024521 2015-02-10

Publications (1)

Publication Number Publication Date
WO2016031919A1 true WO2016031919A1 (ja) 2016-03-03

Family

ID=55399803

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/074250 WO2016031919A1 (ja) 2014-08-27 2015-08-27 軸ずれ診断装置

Country Status (3)

Country Link
US (1) US10705186B2 (ja)
JP (1) JP6265149B2 (ja)
WO (1) WO2016031919A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107179530A (zh) * 2016-03-11 2017-09-19 罗伯特·博世有限公司 用于求取固定在车辆上的探测设备的失调的装置
EP3457165A1 (en) * 2017-09-13 2019-03-20 Toyota Jidosha Kabushiki Kaisha Driving support device and control method of driving support device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6475543B2 (ja) * 2015-03-31 2019-02-27 株式会社デンソー 車両制御装置、及び車両制御方法
US10852418B2 (en) * 2016-08-24 2020-12-01 Magna Electronics Inc. Vehicle sensor with integrated radar and image sensors
JP7197447B2 (ja) * 2019-09-05 2022-12-27 株式会社Soken 折返判定装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002174684A (ja) * 2000-12-08 2002-06-21 Omron Corp 測距装置の軸調整方法
US6809806B1 (en) * 2003-05-27 2004-10-26 International Truck Intellectual Property Company, Llc Apparatus and method for verifying the beam axis of front-looking land vehicle transceiver antenna
JP2008203179A (ja) * 2007-02-22 2008-09-04 Mitsubishi Electric Corp 電波軸調整装置および電波軸調整方法
JP2008215912A (ja) * 2007-03-01 2008-09-18 Mazda Motor Corp 車両用障害物検知装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1114754A (ja) * 1997-06-18 1999-01-22 Omron Corp 物体検出装置
JP4428208B2 (ja) 2004-11-16 2010-03-10 株式会社デンソー 車両用物体認識装置
US7414706B2 (en) * 2004-12-22 2008-08-19 Northrop Grumman Corporation Method and apparatus for imaging a target using cloud obscuration prediction and detection
US7706978B2 (en) * 2005-09-02 2010-04-27 Delphi Technologies, Inc. Method for estimating unknown parameters for a vehicle object detection system
DE102007001103A1 (de) * 2007-01-04 2008-07-10 Siemens Ag Vertikale Ausrichtung eines Lidar-Sensors
JP2009085920A (ja) 2007-10-03 2009-04-23 Nissan Motor Co Ltd 車両用レーザレーダ装置および車両用レーザレーダ装置の汚れ判定方法
US20090292468A1 (en) * 2008-03-25 2009-11-26 Shunguang Wu Collision avoidance method and system using stereo vision and radar sensor fusion
JP2012194169A (ja) * 2011-03-17 2012-10-11 Hyundai Mobis Co Ltd 車両レーダーのアライメント方法及びシステム
US8441394B2 (en) * 2011-07-11 2013-05-14 Delphi Technologies, Inc. System and method for detecting obstructions and misalignment of ground vehicle radar systems
EP2639781A1 (en) * 2012-03-14 2013-09-18 Honda Motor Co., Ltd. Vehicle with improved traffic-object position detection
JP5978754B2 (ja) * 2012-05-16 2016-08-24 株式会社デンソー レーダ装置
JP2014052347A (ja) * 2012-09-10 2014-03-20 Denso Corp レーダ装置
US9025140B2 (en) * 2013-05-07 2015-05-05 Google Inc. Methods and systems for detecting weather conditions including sunlight using vehicle onboard sensors
DE102013209530A1 (de) * 2013-05-23 2014-11-27 Robert Bosch Gmbh Bestimmung eines elevations-dejustagewinkels eines radarsensors eines kraftfahrzeugs
JP6321448B2 (ja) * 2013-06-03 2018-05-09 株式会社デンソー レーダ装置、及びプログラム
KR101558660B1 (ko) * 2013-10-10 2015-10-07 현대자동차주식회사 멀티 계층 라이더의 빔 각도 보정 장치 및 그 방법
JP6428270B2 (ja) 2014-02-10 2018-11-28 株式会社デンソー 軸ずれ検出装置
TWI590969B (zh) * 2014-08-20 2017-07-11 啟碁科技股份有限公司 預警方法及車用雷達系統
JP6256252B2 (ja) * 2014-08-21 2018-01-10 株式会社デンソーウェーブ 固定型非同軸系レーザレーダ走査装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002174684A (ja) * 2000-12-08 2002-06-21 Omron Corp 測距装置の軸調整方法
US6809806B1 (en) * 2003-05-27 2004-10-26 International Truck Intellectual Property Company, Llc Apparatus and method for verifying the beam axis of front-looking land vehicle transceiver antenna
JP2008203179A (ja) * 2007-02-22 2008-09-04 Mitsubishi Electric Corp 電波軸調整装置および電波軸調整方法
JP2008215912A (ja) * 2007-03-01 2008-09-18 Mazda Motor Corp 車両用障害物検知装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107179530A (zh) * 2016-03-11 2017-09-19 罗伯特·博世有限公司 用于求取固定在车辆上的探测设备的失调的装置
EP3457165A1 (en) * 2017-09-13 2019-03-20 Toyota Jidosha Kabushiki Kaisha Driving support device and control method of driving support device

Also Published As

Publication number Publication date
JP6265149B2 (ja) 2018-01-24
US20170261601A1 (en) 2017-09-14
US10705186B2 (en) 2020-07-07
JP2016048228A (ja) 2016-04-07

Similar Documents

Publication Publication Date Title
JP6212880B2 (ja) 物標認識装置
JP6428270B2 (ja) 軸ずれ検出装置
WO2016031919A1 (ja) 軸ずれ診断装置
JP5991332B2 (ja) 衝突回避制御装置
JP6321464B2 (ja) レーダ装置
US10427689B2 (en) Vehicle control apparatus
JP6303956B2 (ja) 軸ずれ量推定装置
JP6338871B2 (ja) レーダ装置、車両制御システム及び信号処理方法
US9977126B2 (en) Radar apparatus
US11346922B2 (en) Object recognition apparatus and object recognition method
WO2016021606A1 (ja) 複数の物体検出手段を用いた物体認識装置
CN106605153B (zh) 轴偏移诊断装置
JP2018024359A (ja) 走行制御装置
JP6358155B2 (ja) 軸ズレ判定装置
JP4184096B2 (ja) 先行車両推定方法
JP7188894B2 (ja) レーダ装置及び信号処理方法
WO2015119298A1 (ja) ビームセンサの軸ずれ検出装置
JP7028722B2 (ja) 軸ずれ角検出装置
JPH11344559A (ja) Fm−cwレーダの信号処理装置
JP7230619B2 (ja) 物体検出装置
JP2005250660A (ja) ターゲット推定装置
JP7125288B2 (ja) レーダ装置及び信号処理方法
CN113811787A (zh) 车载用物体检测系统
JP7424548B2 (ja) 車両用レーダ装置
WO2016117487A1 (ja) 車両制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15836210

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15506677

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15836210

Country of ref document: EP

Kind code of ref document: A1