WO2014010546A1 - 故障判定装置 - Google Patents

故障判定装置 Download PDF

Info

Publication number
WO2014010546A1
WO2014010546A1 PCT/JP2013/068618 JP2013068618W WO2014010546A1 WO 2014010546 A1 WO2014010546 A1 WO 2014010546A1 JP 2013068618 W JP2013068618 W JP 2013068618W WO 2014010546 A1 WO2014010546 A1 WO 2014010546A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
moving target
determined
vehicle
camera
Prior art date
Application number
PCT/JP2013/068618
Other languages
English (en)
French (fr)
Inventor
洋治 笹渕
弘之 小池
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to JP2013553725A priority Critical patent/JP5497248B1/ja
Priority to CN201380004732.1A priority patent/CN104040606B/zh
Priority to EP13816074.2A priority patent/EP2787497A4/en
Priority to US14/362,511 priority patent/US8917321B1/en
Priority to CA2858309A priority patent/CA2858309C/en
Publication of WO2014010546A1 publication Critical patent/WO2014010546A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/588Velocity or trajectory determination systems; Sense-of-movement determination systems deriving the velocity value from the range measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/932Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles using own vehicle data, e.g. ground speed, steering wheel direction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9325Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles for inter-vehicle distance regulation, e.g. navigating in platoons
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a failure determination apparatus that determines the presence or absence of an abnormality in an imaging unit in an object recognition apparatus including a transmission and reception unit and an imaging unit.
  • both the radar device (source / receiver) and the camera (imager) are used. There are some which use the detection result to determine the presence of an object and the type of the object.
  • the transmission output of the radar apparatus is switched to large and small, and from the detection result based on the reflected wave received at the large transmission output, the detection result based on the reflected wave received at the small transmission output
  • a technique for extracting an object other than a vehicle and performing pattern matching processing on the extracted object based on an image captured by a camera by removing There is.
  • Patent Document 1 does not disclose the failure of the radar device or the camera.
  • the accuracy of the object recognition is affected when any one of the radar device and the camera has an abnormality.
  • it influences various controls (for example, alerting control, contact avoidance control, etc.) that the host vehicle can take on the object recognized by the object recognition device. Therefore, when there is an abnormality in the camera, it is necessary to immediately notify the user of the abnormality.
  • the aspect which concerns on this invention provides the failure determination apparatus which can determine abnormality of an imaging means early.
  • the present invention adopts the following means in order to solve the above problems.
  • the failure determination device transmits an electromagnetic wave toward a predetermined range around the host vehicle and receives a reflected wave generated by the electromagnetic wave reflected by an object present around the host vehicle.
  • Emitting means and receiving means imaging means for imaging the predetermined range around the host vehicle, moving target determining means for determining whether the object detected by the emitting and receiving means is a moving target,
  • An object extracting unit for extracting a specific object from an image captured by the imaging unit, and the object determined as the moving target by the moving target determining unit is the specific object by the object extracting unit
  • a failure determination unit that determines that the imaging unit is in an abnormal state when it can not be determined that there is an error.
  • the object determined as the moving target by the moving target determining means is the specific object by the object extracting means
  • the imaging means can not determine that the object is in the abnormal state
  • the predetermined area around the host vehicle is illuminated by the illumination device, and the object is illuminated even by the illumination device.
  • the failure determination unit may determine that the imaging unit is in the abnormal state.
  • the object detected by the transmission and reception means is a moving target
  • the object is likely to be a specific object, and thus the specific object is previously determined by the transmission and reception means
  • an object that is highly likely to be a person for example, a pedestrian or a vehicle
  • a specific object is extracted from the image of the imaging means after being illuminated by the illumination device, and an abnormal state of the imaging means is determined by the failure determination means. It is possible to prevent the imaging unit from being erroneously determined to be in an abnormal state when it is not possible to determine whether it is a specific object due to darkness.
  • FIG. 6 is a diagram showing an example of a number-of-decisions calculation table for calculating the number of camera failures determined in accordance with the moving speed of the object.
  • the failure determination device of the first embodiment according to the present invention is incorporated in an object recognition device 1, and the object recognition device 1 automatically performs, for example, the driving force of an internal combustion engine 21 as a driving source. It is mounted on a vehicle that travels by transmitting it to the drive wheels of the vehicle via a transmission (T / M) 22 such as a transmission (AT) or a continuously variable automatic transmission (CVT).
  • the vehicle includes a brake actuator 23, a steering actuator 24, a notification device 25, and a headlight 26 in addition to the object recognition device 1.
  • the object recognition device 1 includes a radar device (source and receiver means) 2, a camera unit (imaging means) 3, a host vehicle state sensor 4, and an electronic control unit 10.
  • the radar device 2 transmits, for example, an electromagnetic wave such as a laser beam or a millimeter wave forward in the traveling direction of the host vehicle, and the transmitted electromagnetic wave is an object outside the host vehicle (for example, a structure, a pedestrian, other vehicles And the like, and mixes the transmitted electromagnetic wave and the received electromagnetic wave (reflected wave) to generate a beat signal, and outputs the beat signal to the electronic control unit 10.
  • the camera unit 3 includes a camera 3a including a CCD camera, a CMOS camera, and the like, and an image processing unit 3b.
  • the image processing unit 3b performs predetermined image processing, such as filtering and binarization processing, on the image of the external world ahead of the traveling direction of the host vehicle obtained by imaging with the camera 3a, for example, from pixels of a two-dimensional array Image data is generated and output to the electronic control unit 10.
  • the host vehicle state sensor 4 is, for example, a vehicle speed sensor that detects the speed (vehicle speed) of the host vehicle as vehicle information of the host vehicle, a yaw rate sensor that detects a yaw rate (rotational angular velocity about the vertical axis of the vehicle center of gravity), steering A steering angle sensor that detects an angle (direction and magnitude of a steering angle input by the driver) or an actual steering angle (turning angle) according to the steering angle, a steering torque sensor that detects a steering torque, Positioning signals such as GPS (Global Positioning System) signals for measuring the position of a vehicle by using a position signal, position signals transmitted from an information transmission device outside the vehicle, etc., and further, appropriate gyro sensors and acceleration sensors Position sensor that detects the current position and traveling direction of the vehicle based on the detection result of the vehicle, a sensor that detects the amount of depression of the accelerator pedal, and the depression state of the brake pedal. It is configured to include a sensor that knowledge.
  • the electronic control unit 10 includes an object detection unit 11, a moving target determination unit (moving target determination unit) 12, an object extraction unit (object extraction unit) 13, a failure determination unit (failure determination unit) 14, and vehicle control. And a unit 15.
  • the object detection unit 11 calculates the position, velocity, reflection level, etc. of the object that has reflected the electromagnetic wave based on the beat signal input from the radar device 2 and outputs the calculated information to the moving target determination unit 12 Do.
  • the velocity of the object can be calculated from the velocity of the vehicle and the relative velocity with the vehicle which is detected by the radar device 2 and calculated based on the position information of the object with a time difference.
  • the moving target determination unit 12 determines whether the object is a moving object (moving target) based on the velocity of the object input from the object detecting unit 11 or a non-moving object, that is, a stationary object It determines whether or not the object is not a target object), and outputs the determination result to the failure determination unit 14 and the vehicle control unit 15. Further, the object detection unit 11 calculates a predicted position of the object after a predetermined time based on the calculated velocity (or relative velocity) of the object, and outputs the predicted position information to the object extraction unit 13.
  • the object extraction unit 13 receives image data from the camera unit 3 and also receives predicted position information of the object from the object detection unit 11.
  • the object extraction unit 13 sets an area of a predetermined size (hereinafter, referred to as an integrated range) on the image data input from the camera unit 3 based on the input predicted position information, for example, centering on the predicted position.
  • the object extraction unit 13 extracts an object on the image data by edge extraction based on the luminance value of the pixels included in the set integrated range, and the human body stored in advance for the extracted object. Pattern matching processing is performed with the model image of the vehicle, and it is determined whether the extracted object matches the model image of the human body or the vehicle. Then, the object extraction unit 13 outputs the determination result to the failure determination unit 14 and the vehicle control unit 15.
  • the failure determination unit 14 determines the determination result input from the moving target determination unit 12, that is, the determination result as to whether it is a moving target or a stationary object, and the determination result input from the object extraction unit 13, that is, the object extracted on the image data. It is determined whether the camera unit 3 is in an abnormal state based on the determination result of whether or not the model image of the human body or the vehicle is matched. In the first embodiment, the “specific object” is a pedestrian or a vehicle. In addition, when it is determined that the camera unit 3 is in an abnormal state, the failure determination unit 14 outputs a camera failure signal to the notification device 25, and the user of the object recognition device 1 via the notification device 25 determines that the object recognition device 1 is abnormal or the camera unit. Report 3 abnormalities.
  • the vehicle control unit 15 determines the discrimination result input from the moving target discrimination unit 12, that is, the discrimination result as to whether it is a moving target or a stationary object, and the discrimination result input from the object extracting unit 13, that is, the object extracted on the image data It is determined whether the detected object is a pedestrian or a vehicle based on the determination result of whether the human body or the vehicle is matched with the model image, and the traveling of the own vehicle is performed according to the determination result. Control. For example, when it is determined that the detected object is a pedestrian or a vehicle and there is a possibility that the object contacts the vehicle, the traveling of the vehicle is controlled to avoid the contact.
  • the vehicle control unit 15 controls a control signal for controlling the driving force of the internal combustion engine 21, a control signal for controlling the speed change operation of the transmission 22, and a control signal for controlling the speed reduction operation by the brake actuator 23. At least one of the control signals for controlling the steering operation of the steering mechanism (not shown) of the own vehicle according to the control signal is output, and the deceleration control or the steering control of the own vehicle is executed as the contact avoidance operation. In addition, the vehicle control unit 15 controls at least one of the output timing and the output content of the alarm by the notification device 25 in accordance with the magnitude of the possibility of contact with the pedestrian or the vehicle.
  • the object recognition device 1 when the radar device 2 detects the presence of an object, the integrated range is set on the image data obtained by the camera unit 3 based on the predicted position of the object, and extracted in the integrated range Pattern matching processing is performed on the object, and when matching is performed, the object is set as a pedestrian candidate or a vehicle candidate, and information acquired by the radar device 2 with respect to the object (for example, position information, forward / backward movement speed, etc.) And information acquired by the camera unit 3 (for example, object type information, lateral movement speed, etc.) are integrated.
  • the object recognition apparatus 1 is a system that recognizes whether the detected object is a pedestrian or a vehicle based on the information acquired by the radar apparatus 2 and the information acquired by the camera unit 3. If there is an abnormality in the camera unit 3, it affects the recognition result of the object recognition device 1. Therefore, when there is an abnormality in the camera unit 3, it is necessary to detect an abnormal state at an early stage and to notify the user.
  • a specific object that is, a pedestrian or a vehicle in the integrated range on the image data of the camera unit 3 although the moving target is detected by the radar device 2. If the camera unit 3 can not be determined, it is determined that the camera unit 3 has an abnormality.
  • the abnormal state of the camera unit 3 includes, for example, contamination of the lens of the camera 3a, a case where the imaging range of the camera 3a is shifted, disconnection of a signal line from the camera unit 3 to the electronic control device 10, and the like.
  • an object that is not a moving target that is, a stationary object
  • object recognition by the camera unit 3 when the object is a stationary object such as a telephone pole.
  • the object since it is not determined that the object is the specific object (ie, a pedestrian or a vehicle), it can not be finally determined what the object is. Therefore, if a stationary object is included in the object detected by the radar device 2 which is the determination material of the abnormality determination of the camera unit 3, in the case as described above, the camera unit is erroneously determined to be abnormal. In order to prevent such a determination, stationary objects were excluded from the objects detected by the radar device 2 when determining the abnormality of the camera unit 3.
  • step S101 the radar device 2 detects an object present ahead of the traveling direction of the vehicle, detects the reflection level of the reflected wave, and calculates the position and velocity of the object.
  • step S102 it is determined whether the detected object is a moving target based on the velocity of the object calculated in step S101.
  • FIG. 3 is a view showing an example of object detection by the radar device 2.
  • reference symbol V indicates a vehicle
  • reference symbols Xa, Xb, Xc, Xd, and Xe indicate objects detected by the radar device 2. Is shown.
  • objects Xa, Xb and Xc indicate objects determined to be stationary objects
  • objects Xd and Xe indicate objects determined to be moving targets.
  • the radar device 2 can not determine what the detected object is.
  • step S102 If the determination result in step S102 is "YES", the object detected by the radar device 2 is a moving target, so the process proceeds to step S103, and based on the image data of the camera unit 3, the image data is Object extraction is performed within the integrated range set in.
  • step S104 pattern matching processing is performed on the object extracted in step S103, and it is determined whether or not matching is performed with a model image of a person or vehicle stored in advance.
  • step S104 determines whether the determination result in step S104 is "YES" or "YES" or "YES"
  • the initial value of the camera failure determination count C n is 0.
  • FIG. 4A is a view showing an example of object detection by the camera unit 3 when the camera unit 3 is functioning normally, and shows a case where an object is extracted in an integrated range for each object in image data. There is.
  • This example shows a case where the objects Xa to Xe detected by the radar device 2 are also detected on the image data of the camera unit 3.
  • the objects Xc and Xd are walked by pattern matching processing.
  • the object Xe is an object determined to be a vehicle by pattern matching processing
  • the objects Xa and Xb are objects determined not to be a pedestrian or a vehicle by pattern matching processing. That is, in FIG.
  • the moving target Xd detected by the radar device 2 is determined to be a pedestrian by the object detection of the camera unit 3, and the moving target Xe detected by the radar device 2 is an object of the camera unit 3
  • symbol V shows the own vehicle in FIG. 4A and 4B.
  • step S104 determines whether the camera failure determination count is “NO” or "NO"
  • FIG. 4B is a view showing an example of object detection by the camera unit 3 when the camera unit 3 is in an abnormal state.
  • an object is extracted in each integrated range for each object in image data
  • the case is shown in which none of the objects can be determined to be a human body or a vehicle as a result of the pattern matching process. That is, FIG. 4B shows a case where the moving targets Xd and Xe detected by the radar device 2 can not be determined as a pedestrian or a vehicle by the object detection of the camera unit 3. In this case, the camera failure determination count is incremented by one.
  • the moving targets Xd and Xe detected by the radar device 2 are not extracted as objects in the integrated range on the image data, they can not be discriminated as pedestrians or vehicles by object detection of the camera unit 3 Since the case is included, the camera failure determination count is also incremented by one in this case.
  • the camera failure determination frequency N may be a fixed value of 1 or more (for example, any integer such as “1”, “5” or “10”), but the moving speed of the moving target or the object by the radar device 2 It is also possible to change according to the intensity (i.e., the reflection level) of the reflected wave reflected by the object in detection.
  • FIG. 5 is an example of a determination number calculation table for calculating the camera failure determination number N according to the moving speed of the moving target.
  • the camera failure determination frequency N is set to “1” when the moving speed is equal to or higher than a predetermined value, and the camera failure determination frequency N is set to a larger value as the moving speed becomes slower than the predetermined value.
  • the reflection level when the reflection level in object detection by the radar device 2 is low, it is difficult to separate from noise or a stationary object, and it is determined that what is detected by the radar device 2 is a moving target As the reflection level is lower, it is difficult to determine that the camera unit 3 is abnormal by setting the number N of camera failure determinations to be larger as the reflection level is lower. This prevents an erroneous determination of camera abnormality.
  • FIG. 6 is an example of a number-of-decisions calculation table for calculating the number N of camera failure determinations according to the magnitude of the reflection level.
  • the camera failure determination frequency N is set to “1” when the reflection level is equal to or higher than a predetermined value, and the camera failure determination frequency N is set to a larger value as the reflection level becomes lower than the predetermined value.
  • the number of camera failures determined when the moving speed and the reflection level are preset reference values is set as the reference number N 0.
  • step S108 it is determined whether the current value C n of the camera failure determination count exceeds the camera failure determination number N. If the determination result in step S108 is “NO” (C n ⁇ N), the process proceeds to step S109, and the camera malfunction determination flag is set to “0”. On the other hand, if the determination result in step S108 is "YES” (C n > N), the process proceeds to step S110, the camera failure determination flag is set to "1", and the execution of this routine is once ended. Thus, it is determined that the camera unit 3 is in an abnormal state.
  • the failure determination process is repeatedly performed for each object detected by the radar device 2 with the series of processes in steps S101 to S110 as one cycle, and is performed simultaneously and in parallel for each object. Then, when a plurality of moving targets are detected by the radar device 2, when the camera failure determination count C n exceeds the number N of camera failure determinations in the failure determination process for at least one of the moving targets.
  • the camera unit 3 is determined to be in an abnormal state.
  • the camera failure determination count C n calculated for each moving object is added up, and the total number of the summed camera failure determination counts C n is If the camera failure determination frequency N is exceeded, it may be determined that the camera unit 3 is in an abnormal state.
  • the radar when the object detected by the radar device 2 is a moving target, the radar is used by utilizing the fact that the object is likely to be a pedestrian or a vehicle. Since the camera unit 3 determines whether the object is a pedestrian or a vehicle after detecting a moving target having a high possibility of being a pedestrian or a vehicle by the device 2, the camera unit 3 detects a pedestrian or a vehicle When it can be determined that the camera unit 3 is normal, it can be determined that the camera unit 3 is normal. When the camera unit 3 can not be determined to be a pedestrian or a vehicle, the camera unit 3 is in an abnormal state. It can be determined that Therefore, the abnormal state of the camera unit 3 can be determined early.
  • the camera failure determination frequency N is set to a larger value, so the moving speed is slower or As the reflection level is lower, it can be made more difficult to determine that the camera unit 3 is in an abnormal state, whereby an erroneous determination can be prevented.
  • failure determination of the camera unit 3 in the failure determination apparatus of the second embodiment according to the present invention will be described.
  • the environment around the host vehicle is dark, such as when the host vehicle is traveling at night or in a tunnel, it is difficult to extract an object from the image data of the camera unit 3, and pattern matching processing It may be difficult.
  • the moving target is detected by the radar device 2, it can be determined that the moving target is a pedestrian or a vehicle in the integrated range on the image data of the camera unit 3 If it is determined that there is an abnormality in the camera unit 3 even if it is not present, there is a possibility that an erroneous determination will be made.
  • the integration on the image data of the camera unit 3 is performed even though the moving target is detected by the radar device 2
  • the headlight 26 of the own vehicle is turned on to increase the camera failure determination count instead of immediately increasing the camera failure determination count.
  • image data is generated again based on the image captured by the camera 3a, and it is determined whether the moving target is a pedestrian or a vehicle in the integrated range on the image data, The camera failure determination count is increased when it can not be determined as a pedestrian or a vehicle.
  • steps S101 to S105 and steps S107 to S110 are the same as the processes of the same step numbers in the first embodiment, and the flow of these processes is also the same as that of the first embodiment, and thus the description thereof is omitted.
  • the determination result in step S104 is "NO"
  • the process proceeds to step S111, and the headlight 26 is turned on.
  • step S112 an object is extracted from the image data generated based on the image captured by the camera 3a after the headlight 26 is turned on, within the integrated range set on the image data.
  • step S113 pattern matching processing is performed on the object extracted in step S112, and it is determined whether or not matching is performed with a model image of a person or vehicle stored in advance.
  • the failure determination apparatus of the second embodiment in addition to the operation and effects of the failure determination apparatus of the first embodiment described above, after the headlight 26 is turned on, the image is captured again by the camera 3a, and the image data is captured. Since it is determined based on whether the moving target is a pedestrian or a vehicle, the camera unit 3 is abnormal when the pedestrian or the vehicle can not be determined due to the darkness of the surrounding environment such as night travel or travel in a tunnel It is possible to prevent an erroneous determination as a state.
  • the present invention is not limited to the embodiments described above.
  • the camera failure determination count is calculated for each object detected by the radar device 2.
  • the camera failure determination count is incremented by “1” when it can not be determined as a pedestrian or a vehicle with respect to at least one moving target in step.
  • the integrated value of the camera failure determination count is the camera failure determination If the number N is exceeded, it is also possible to determine that the camera unit 3 is abnormal.
  • a specific object is a pedestrian or a vehicle, but it is also possible to add an animal such as a dog or a cat to the specific object.
  • the detection direction of the object is not limited to the forward traveling direction of the host vehicle, and may be the rear in the front-rear direction of the host vehicle or the side of the host vehicle.
  • Control using an object determined to be a specific object by the object recognition device 1 in which the failure determination device is incorporated is not limited to travel control for avoiding contact between the own vehicle and the object, and a specific object
  • various controls that can be taken by the vehicle with respect to a specific object such as follow-up traveling control in which the vehicle travels following the preceding vehicle, are possible.

Abstract

 故障判定装置は、レーダ装置(2)と、カメラユニット(3)と、レーダ装置(2)により検知された物体が移動物標であるか否かを判別する移動物標判別部(12)と、カメラユニット(3)により撮像された画像から特定の物体を抽出する物体抽出部(13)と、移動物標判別部(12)により移動物標であると判別された物体が物体抽出部(13)によって前記特定の物体であると判別することができない場合に、カメラユニット(3)が異常状態であると判定する故障判定部(14)と、を備える。

Description

故障判定装置
 本発明は、発受信手段と撮像手段とを備える物体認識装置における前記撮像手段の異常の有無を判定する故障判定装置に関するものである。
 本願は、2012年7月10日に出願された日本国特願2012-154963号に基づき優先権を主張し、その内容をここに援用する。
 自車両の周辺、例えば自車両の進行方向前方に存在する歩行者や車両等の物体を認識する物体認識装置として、レーダ装置(発受信手段)とカメラ(撮像手段)の両方を用いて両者の検出結果を利用して物体の存在および物体の種類を判別するものがある。
 例えば、特許文献1には、レーダ装置の送信出力を大小に切り替え、大きい送信出力のときに受信された反射波に基づく検出結果から、小さい送信出力のときに受信された反射波に基づく検出結果を取り除くことにより、車両以外の物体を抽出し、抽出された物体に対してカメラで撮像された画像に基づいてパターンマッチング処理を行い、歩行者であるか否かを判別する技術が記載されている。
日本国特開2005-157765号公報
 しかしながら、特許文献1には、レーダ装置やカメラの故障に関しての開示はない。
 前記物体認識装置のようにレーダ装置とカメラの二つの検出結果に基づいて物体を認識する場合には、レーダ装置とカメラのいずれか一方でも異常があるときには、物体認識の精度に影響を及ぼす。さらに、物体認識装置により認識した物体に対して自車両が取り得る各種の制御(例えば、注意喚起制御や接触回避制御等)に影響を及ぼす。
 そのため、カメラに異常があるときには、早急に異常であることをユーザーに報知する必要がある。
 そこで、本発明に係る態様は、撮像手段の異常を早期に判断することができる故障判定装置を提供するものである。
 本発明は、上記課題を解決するために以下の手段を採用した。
(1)本発明に係る一態様の故障判定装置は、自車両周辺の所定範囲に向けて電磁波を発信するとともに、該電磁波が該自車両周辺に存在する物体により反射されて生じる反射波を受信する発受信手段と、前記自車両周辺の前記所定範囲を撮像する撮像手段と、前記発受信手段により検知された前記物体が移動物標であるか否かを判別する移動物標判別手段と、前記撮像手段により撮像された画像から特定の物体を抽出する物体抽出手段と、前記移動物標判別手段により前記移動物標であると判別された前記物体が前記物体抽出手段によって前記特定の物体であると判別することができない場合に、前記撮像手段が異常状態であると判定する故障判定手段と、を備える。
(2)上記(1)の態様において、前記移動物標判別手段により前記移動物標であると判別された前記物体の移動速度が小さいほど、前記撮像手段が前記異常状態であると判定され難くしてもよい。
(3)上記(1)または(2)の態様において、前記移動物標判別手段により前記移動物標であると判別された前記物体から反射された前記反射波の反射レベルが低いほど、前記撮像手段が前記異常状態であると判定され難くしてもよい。
(4)上記(1)から(3)のいずれか1つの態様において、前記移動物標判別手段により前記移動物標であると判別された前記物体が前記物体抽出手段によって前記特定の物体であると判別することができない場合に、前記撮像手段が前記異常状態であると判定する前に前記自車両周辺の前記所定範囲を照明装置により照明し、該照明装置で照明しても前記物体が前記物体抽出手段によって前記特定の物体であると判別することができない場合に、前記故障判定手段は前記撮像手段が前記異常状態であると判定してもよい。
 上記(1)の態様によれば、発受信手段により検知された物体が移動物標である場合は該物体は特定の物体である可能性が高く、このように発受信手段により予め特定の物体(例えば、歩行者や車両)である可能性の高い物体を検知した上で、撮像手段によって前記特定の物体であるか判別することができるかを判定しているので、撮像手段の異常状態(すなわち、故障)を早期に判定することができる。
 上記(2)の場合、移動物標判別手段により移動物標と検知されたときであっても移動速度が遅い場合は、ノイズや静止物との切り分けが困難であり、発受信手段により検知された物体が確実に移動物標であると判定することが困難であるので、移動速度が遅いほど、撮像手段が異常状態であるとの判定をし難くすることで、誤判定を防止することができる。
 上記(3)の場合、移動物標判別手段により移動物標と検知されたときであっても該物体からの反射波の反射レベルが低い場合は、ノイズや静止物との切り分けが困難であり、発受信手段により検知された物体が確実に移動物標であると判定することが困難であるので、反射レベルが低いほど、撮像手段が異常状態であるとの判定をし難くすることで、誤判定を防止することができる。
 上記(4)の場合、照明装置で照明した上で撮像手段の画像から特定の物体を抽出し、故障判定手段により撮像手段の異常状態を判定するので、夜間走行やトンネル内走行など周囲環境の暗さに起因して特定の物体であるか否かの判別ができないときに撮像手段が異常状態であると誤判定されるのを防止することができる。
本発明に係る第1実施形態の故障判定装置を備える物体認識装置のブロック図である。 前記第1実施形態の故障判定装置における故障判定処理を示すフローチャートである。 レーダ装置による物体検知の一例を示す図である。 カメラユニットによる物体検知の一例(カメラユニットが正常である場合)を示す図である。 カメラユニットによる物体検知の一例(カメラユニットが異常である場合)を示す図である。 物体の移動速度に応じてカメラ故障確定回数を算出するための確定回数算出テーブルの一例を示す図である。 物体の反射レベルに応じてカメラ故障確定回数を算出するための確定回数算出テーブルの一例を示す図である。 本発明に係る第2実施形態の故障判定装置における故障判定処理を示すフローチャートである。
 以下、本発明に係る故障判定装置の実施形態を図1から図7の図面を参照して説明する。
 図1に示すように、本発明に係る第1実施形態の故障判定装置は物体認識装置1に組み込まれており、物体認識装置1は、例えば駆動源としての内燃機関21の駆動力を、オートマチックトランスミッション(AT)あるいは無段自動変速機(CVT)等のトランスミッション(T/M)22を介して車両の駆動輪に伝達して走行する車両に搭載されている。この車両は、物体認識装置1のほかに、ブレーキアクチュエータ23、ステアリングアクチュエータ24、報知装置25、ヘッドライト26、とを備えている。
 物体認識装置1は、レーダ装置(発受信手段)2と、カメラユニット(撮像手段)3と、自車両状態センサ4と、電子制御装置10と、を備えている。
 レーダ装置2は、例えばレーザ光やミリ波等の電磁波を自車両の進行方向前方に向けて発信すると共に、この発信した電磁波が自車両の外部の物体(例えば、構造物、歩行者、他車両等)によって反射されたときに生じた反射波を受信し、発信した電磁波と受信した電磁波(反射波)とを混合してビート信号を生成し、電子制御装置10へ出力する。
 カメラユニット3は、CCDカメラやCMOSカメラ等からなるカメラ3aと、画像処理部3bとを備えて構成されている。画像処理部3bは、カメラ3aにより撮像して得た自車両の進行方向前方の外界の画像に対して、例えばフィルタリングや二値化処理等の所定の画像処理を行い、二次元配列の画素からなる画像データを生成して電子制御装置10へ出力する。
 自車両状態センサ4は、自車両の車両情報として、例えば自車両の速度(車速)を検出する車速センサや、ヨーレート(車両重心の上下方向軸回りの回転角速度)を検出するヨーレートセンサや、操舵角(運転者が入力した操舵角度の方向と大きさ)や操舵角に応じた実舵角(転舵角)を検出する舵角センサや、操舵トルクを検出する操舵トルクセンサや、例えば人工衛星を利用して車両の位置を測定するためのGPS(Global Positioning System)信号等の測位信号や自車両の外部の情報発信装置から発信される位置信号等、さらには、適宜のジャイロセンサや加速度センサ等の検出結果に基づいて自車両の現在位置および進行方向を検出する位置センサや、アクセルペダルの踏み込み量を検出するセンサや、ブレーキペダルの踏み込み状態を検知するセンサ等を備えて構成されている。自車両状態センサ4は、検出した情報に応じた車両情報信号を電子制御装置10へ出力する。
 電子制御装置10は、物体検出部11、移動物標判別部(移動物標判別手段)12と、物体抽出部(物体抽出手段)13と、故障判定部(故障判定手段)14と、車両制御部15と、を備えている。
 物体検出部11は、レーダ装置2から入力されるビート信号に基づいて、電磁波を反射した物体の位置、速度、反射レベル等を算出し、算出したこれらの情報を移動物標判別部12へ出力する。なお、物体の速度は、時間差を持ってレーダ装置2により検出され物体の位置情報に基づいて算出される自車両との相対速度と、自車両の速度とから算出することができる。
 移動物標判別部12は、物体検出部11から入力された物体の速度に基づいて、該物体が移動している物体(移動物標)であるか、移動していない物体すなわち静止物(移動物標でない物体)であるかを判別し、その判別結果を故障判定部14および車両制御部15へ出力する。
 また、物体検出部11は、算出された物体の速度(または相対速度)に基づいて該物体の所定時間後の予測位置を算出し、この予測位置情報を物体抽出部13へ出力する。
 物体抽出部13には、カメラユニット3から画像データが入力されるとともに、物体検出部11から物体の予測位置情報が入力される。物体抽出部13は、カメラユニット3から入力される画像データ上に、入力した予測位置情報に基づき例えば予測位置を中心にして所定の大きさの領域(以下、統合範囲と称す)を設定する。
 さらに、物体抽出部13は、設定された統合範囲に含まれる画素の輝度値に基づいてエッジ抽出により画像データ上の物体を抽出し、抽出した物体に対して、予め記憶しておいた人体および車両のモデル画像とパターンマッチング処理を行い、抽出した物体が人体または車両のモデル画像とマッチングするか否かを判別する。そして、物体抽出部13は、その判別結果を故障判定部14および車両制御部15へ出力する。
 故障判定部14は、移動物標判別部12から入力した判別結果、すなわち移動物標か静止物かの判別結果と、物体抽出部13から入力した判別結果、すなわち画像データ上で抽出した物体が人体または車両のモデル画像とマッチングしたか否かの判別結果とに基づいて、カメラユニット3が異常状態であるか否かを判定する。この第1実施形態において「特定の物体」とは、歩行者または車両である。
 また、故障判定部14は、カメラユニット3が異常状態であると判定した場合に、カメラ故障信号を報知装置25へ出力し、報知装置25を介してユーザーに物体認識装置1の異常またはカメラユニット3の異常を報知する。
 車両制御部15は、移動物標判別部12から入力した判別結果、すなわち移動物標か静止物かの判別結果と、物体抽出部13から入力した判別結果、すなわち画像データ上で抽出した物体が人体または車両のモデル画像とマッチングしたか否かの判別結果とに基づいて、検出された物体が歩行者または車両であるか否かを判別し、その判別結果に応じて、自車両の走行を制御する。
 例えば、検出された物体が歩行者または車両であると判別され、該物体が自車両と接触する可能性がある場合には、接触を回避するように自車両の走行を制御する。より具体的には、車両制御部15は、内燃機関21の駆動力を制御する制御信号およびトランスミッション22の変速動作を制御する制御信号およびブレーキアクチュエータ23による減速動作を制御する制御信号およびステアリングアクチュエータ24による自車両の操舵機構(図示略)の操向動作を制御する制御信号のうちの少なくとも何れかの制御信号を出力し、接触回避動作として自車両の減速制御または操向制御を実行する。
 また、車両制御部15は、歩行者または車両との接触可能性の大きさに応じて、報知装置25による警報の出力タイミングおよび出力内容の少なくとも何れかを制御する。
 次に、故障判定部14において実行されるカメラユニット3の故障判定処理を説明する。
 この物体認識装置1では、レーダ装置2によって物体の存在を検知した場合に、カメラユニット3で得た画像データ上に該物体の予測位置に基づいて統合範囲を設定し、該統合範囲において抽出した物体に対してパターンマッチング処理を行い、マッチングした場合に該物体を歩行者候補あるいは車両候補とするとともに、該物体に対しレーダ装置2で取得した情報(例えば、位置情報や前後移動移動速度等)とカメラユニット3で取得した情報(例えば、物体の種別情報や横移動速度等)とを統合する。
 このように物体認識装置1は、レーダ装置2で取得した情報とカメラユニット3で取得した情報とに基づいて、検知した物体が歩行者または車両であるか否かを認識するシステムであるので、カメラユニット3に異常がある場合には物体認識装置1の認識結果に影響を及ぼす。そのため、カメラユニット3に異常がある場合には、早期に異常状態であることを検知し、ユーザーに報知する必要がある。
 そこで、この物体認識装置1の故障判定装置では、レーダ装置2によって移動物標が検知されたにもかかわらず、カメラユニット3の画像データ上の統合範囲において特定の物体(すなわち、歩行者または車両)を判別することができなかった場合には、カメラユニット3に異常があると判定することとした。カメラユニット3の異常状態には、例えば、カメラ3aのレンズ等の汚れや、カメラ3aの撮像範囲がずれてしまった場合や、カメラユニット3から電子制御装置10への信号線の断線等が含まれる。
 ここで、レーダ装置2により検出される物体を移動物標に限定した理由について説明する。レーダ装置2によって物体が検知された場合であっても、移動物標でないもの(すなわち静止物)は、例えば該物体が電柱等の静止物であった場合には、カメラユニット3による物体認識においても前記特定の物体(すなわち、歩行者または車両)であると判別されないため、結局、該物体が何であるか判別することができない。したがって、カメラユニット3の異常判定の判断材料となるレーダ装置2により検出される物体に静止物を含ませると、前記のような場合にカメラユニットに異常ありと誤判断してしまう。このようなご判断を防止するために、カメラユニット3の異常を判定する際には、レーダ装置2により検出される物体から静止物を排除した。
 次に、この第1実施形態におけるカメラユニット3の故障判定処理について、図2のフローチャートに従って説明する。
 図2のフローチャートに示す故障判定処理ルーチンは、電子制御装置10によって一定時間毎に繰り返し実行される。
 まず、ステップS101において、レーダ装置2により自車両の進行方向前方に存在する物体を検出し、反射波の反射レベルを検出するとともに、該物体の位置、速度を算出する。
 次に、ステップS102に進み、ステップS101において算出された物体の速度に基づいて、検出された物体が移動物標か否かを判別する。
 図3は、レーダ装置2による物体検知の一例を示した図であり、図中符号Vは自車両を示し、図中符号Xa,Xb,Xc,Xd,Xeはレーダ装置2により検出された物体を示している。図3において、物体Xa,Xb,Xcは静止物と判別された物体を示し、物体Xd,Xeは移動物標と判別された物体を示している。ただし、レーダ装置2では検出された物体が何であるかまで判別することはできない。
 ステップS102における判定結果が「YES」である場合には、レーダ装置2により検出された物体は移動物標であるので、ステップS103に進み、カメラユニット3の画像データに基づいて、該画像データ上に設定した統合範囲内で物体の抽出を行う。
 次に、ステップS104に進み、ステップS103で抽出された物体に対してパターンマッチング処理を行い、予め記憶されていた人または車両のモデル画像とマッチングするか否かを判定する。
 ステップS104における判定結果が「YES」である場合には、ステップS105に進み、カメラ故障確定カウントの前回値Cn-1に「0」を加算した値を、カメラ故障確定カウントの今回値Cとして更新する(C=Cn-1+0)。つまり、ステップS104における判定結果が「YES」ということは、レーダ装置2により移動物標が検出され、且つ、カメラユニット3の画像データ上の統合範囲において該移動物標が特定の物体(すなわち、歩行者または車両)であると判別することができたので、カメラユニット3は正常に機能していると判断することができる。したがって、この場合には、カメラ故障確定カウントCの値を増加させない。なお、カメラ故障確定カウントCの初期値は0とする。
 図4Aはカメラユニット3が正常に機能しているときのカメラユニット3による物体検知の一例を示した図であり、画像データ上の各物体毎の統合範囲に物体が抽出された場合を示している。この例は、レーダ装置2により検出された物体Xa~Xeが、カメラユニット3の画像データ上でも検出された場合を示しており、図4A及び4Bにおいて、物体Xc,Xdはパターンマッチング処理により歩行者と判別された物体であり、物体Xeはパターンマッチング処理により車両と判別された物体であり、物体Xa,Xbはパターンマッチング処理により歩行者または車両ではないと判別された物体である。
 つまり、図4Aは、レーダ装置2により検知された移動物標Xdがカメラユニット3の物体検知により歩行者であると判別され、レーダ装置2により検知された移動物標Xeがカメラユニット3の物体検知により車両であると判別された場合を示している。この場合、カメラ故障確定カウントCの値は増加しない。なお、図4A及び4Bにおいて符号Vは自車両を示す。
 一方、ステップS104における判定結果が「NO」である場合には、ステップS106に進み、カメラ故障確定カウントの前回値Cn-1に「1」を加算した値を、カメラ故障確定カウントの今回値Cとして更新する(C=Cn-1+1)。つまり、ステップS104における判定結果が「NO」ということは、レーダ装置2により移動物標が検出されているにもかかわらず、カメラユニット3の画像データ上の統合範囲において該移動物標が前記特定の物体であると判別することができないので、カメラユニット3が異常状態である可能性が高い。そこで、この場合には、カメラ故障確定カウントCの値を「1」だけ増加させる。
 図4Bはカメラユニット3が異常状態のときのカメラユニット3による物体検知の一例を示した図であり、この例は、画像データ上の各物体毎の統合範囲のそれぞれに物体は抽出されたが、いずれの物体もパターンマッチング処理の結果、人体または車両であると判別することができなかった場合を示している。
 つまり、図4Bは、レーダ装置2により検知された移動物標Xd,Xeが、カメラユニット3の物体検知により歩行者または車両であると判別することができなかった場合を示している。この場合には、カメラ故障確定カウントが1つ増加する。
 なお、レーダ装置2により検知された移動物標Xd,Xeが、画像データ上の統合範囲において物体として抽出されない場合も、カメラユニット3の物体検知により歩行者または車両であると判別することができない場合に含まれるので、この場合にもカメラ故障確定カウントが1つ増加する。
 次に、ステップS105,106からステップS107に進み、カメラ故障確定回数Nを算出する。カメラ故障確定回数Nは、1以上の固定値(例えば、「1」あるいは「5」や「10」等の任意の整数)としてもよいが、移動物標の移動速度や、レーダ装置2による物体検知において物体で反射された反射波の強さ(すなわち反射レベル)に応じて変えることも可能である。
 レーダ装置2により検知された移動物標の移動速度が遅い場合は、ノイズや静止物との切り分けが難しく、レーダ装置2により検知されたものが確実に移動物標であると判定することが困難であるので、移動速度が遅いものほど、カメラ故障確定回数Nを大きく設定することにより、カメラユニット3が異常であるとの判定をし難くする。これによりカメラ異常の誤判定を防止する。
 図5は、移動物標の移動速度に応じてカメラ故障確定回数Nを算出するための確定回数算出テーブルの一例である。この例では、移動速度が所定値以上においてカメラ故障確定回数Nは「1」に設定され、移動速度が前記所定値よりも遅くなればなるほどカメラ故障確定回数Nは大きな値に設定される。
 反射レベルについても同様であり、レーダ装置2による物体検知における反射レベルが低い場合は、ノイズや静止物との切り分けが難しく、レーダ装置2により検知されたものが確実に移動物標であると判定することが困難であるので、反射レベルが低いものほど、カメラ故障確定回数Nを大きく設定することにより、カメラユニット3が異常であるとの判定をし難くする。これによりカメラ異常の誤判定を防止する。
 図6は、反射レベルの大きさに応じてカメラ故障確定回数Nを算出するための確定回数算出テーブルの一例である。この例では、反射レベルが所定値以上においてカメラ故障確定回数Nは「1」に設定され、反射レベルが前記所定値よりも低くなればなるほどカメラ故障確定回数Nは大きな値に設定される。
 また、移動速度と反射レベルの両方に応じてカメラ故障確定回数Nを算出する場合には、移動速度および反射レベルが予め設定した基準値のときのカメラ故障確定回数を基準回数Nとして設定しておき、図5および図6に示される各テーブルの縦軸を係数k1,k2(1以上)とし、前記各テーブルを参照して移動速度に応じた係数k1と反射レベルに応じた係数k2を求め、これら係数を基準回数Nに乗じてカメラ故障確定回数Nを算出することができる(N=N・k1・k2)。
 次に、ステップS107からステップS108に進み、カメラ故障確定カウントの今回値Cがカメラ故障確定回数Nを越えているか否かを判定する。
 ステップS108における判定結果が「NO」(C≦N)である場合には、ステップS109に進み、カメラ故障確定フラグを「0」とする。
 一方、ステップS108における判定結果が「YES」(C>N)である場合には、ステップS110に進み、カメラ故障確定フラグを「1」として、本ルーチンの実行を一旦終了する。これにより、カメラユニット3が異常状態であると確定する。
 この故障判定処理は、前記ステップS101~S110の一連の処理を1サイクルとして、レーダ装置2により検出された各物体毎に繰り返し実行され、各物体に対して同時並行に実行される。そして、レーダ装置2により複数の移動物標が検出されている場合には、少なくともいずれか1つの移動物標に対する故障判定処理においてカメラ故障確定カウントCがカメラ故障確定回数Nを越えた場合に、カメラユニット3が異常状態であると確定する。
 あるいは、レーダ装置2により複数の移動物標が検出されている場合に、各移動物標毎に算出したカメラ故障確定カウントCを合算して、合算されたカメラ故障確定カウントCの総数がカメラ故障確定回数Nを越えた場合に、カメラユニット3が異常状態であると確定してもよい。
 この第1実施形態の故障判定装置によれば、レーダ装置2により検知された物体が移動物標である場合は、該物体が歩行者または車両である可能性が高いことを利用して、レーダ装置2により予め歩行者または車両である可能性の高い移動物標を検知した上で、カメラユニット3によって歩行者または車両であるかを判別しているので、カメラユニット3により歩行者または車両であると判別することができたときはカメラユニット3が正常であると判定することができ、カメラユニット3により歩行者または車両であると判別することができないときはカメラユニット3が異常状態であると判定することができる。したがって、カメラユニット3の異常状態を早期に判定することができる。
 また、レーダ装置2により検知された移動物標の移動速度が遅いほど、あるいは、反射レベルが低いほど、カメラ故障確定回数Nを大きい値に設定しているので、移動速度が遅いほど、あるいは、反射レベルが低いほど、カメラユニット3が異常状態であると判定され難くすることができ、これにより誤判定を防止することができる。
 次に、本発明に係る第2実施形態の故障判定装置におけるカメラユニット3の故障判定について説明する。
 自車両が夜間走行している場合やトンネル内を走行している場合など、自車両の周囲の環境が暗いときには、カメラユニット3の画像データから物体を抽出するのが困難で、パターンマッチング処理が困難な場合がある。このようなときに、レーダ装置2によって移動物標が検知されたにもかかわらず、カメラユニット3の画像データ上の統合範囲において該移動物標が歩行者または車両であると判別することができなかったからといって、カメラユニット3に異常があると判定すると誤判定となる虞がある。
 第2実施形態の故障判定装置における故障判定処理では、このような誤判定を防止するために、レーダ装置2によって移動物標が検知されたにもかかわらず、カメラユニット3の画像データ上の統合範囲において該移動物標が歩行者または車両であると判別することができなかった場合には、直ぐにカメラ故障確定カウントを増加させるのではなく、自車両のヘッドライト26を点灯させて自車両の進行方向前方を照明した上で、再度カメラ3aにより撮像された画像に基づいて画像データを生成し、この画像データ上の統合範囲において移動物標が歩行者または車両であるかを判別し、それでも歩行者または車両であると判別することができない場合に、カメラ故障確定カウントを増加させるようにした。
 以下、第2実施形態の故障判定処理を、図7のフローチャートに従って説明する。
 ステップS101~S105、およびステップS107~S110の処理は、第1実施形態における同一ステップ番号の処理と同じであり、これらの処理の流れも第1実施形態と同じであるので説明を省略する。
 ステップS104における判定結果が「NO」である場合には、ステップS111に進み、ヘッドライト26を点灯する。
 次に、ステップS112に進み、ヘッドライト26の点灯後にカメラ3aにより撮像された画像に基づいて生成された画像データに対して、該画像データ上に設定した統合範囲内で物体の抽出を行う。
 次に、ステップS113に進み、ステップS112で抽出された物体に対してパターンマッチング処理を行い、予め記憶されていた人または車両のモデル画像とマッチングするか否かを判定する。
 ステップS113における判定結果が「YES」である場合、すなわち移動物標が歩行者または車両であると判別することができた場合には、ステップS105に進み、カメラ故障確定カウントの前回値Cn-1に「0」を加算した値を、カメラ故障確定カウントの今回値Cとして更新する(C=Cn-1+0)。
 一方、ステップS113における判定結果が「NO」である場合、すなわち移動物標が歩行者または車両であると判別することができない場合には、ステップS106に進み、カメラ故障確定カウントの前回値Cn-1に「1」を加算した値を、カメラ故障確定カウントの今回値Cとして更新する(C=Cn-1+1)。
 そして、ステップS105,106からステップS107に進む。その後は第1実施形態と同様の処理を実行する。
 この第2実施形態の故障判定装置によれば、前述した第1実施形態の故障判定装置の作用・効果に加えて、ヘッドライト26を点灯した上で再度カメラ3aで撮像し、その画像データに基づいて移動物標が歩行者または車両であるかの判別を行うので、夜間走行やトンネル内走行など周囲環境の暗さに起因して歩行者または車両の判別ができないときにカメラユニット3が異常状態であると誤判定されるのを防止することができる。
〔他の実施形態〕
 なお、本発明は前述した実施形態に限られるものではない。
 例えば、前述した実施形態では、レーダ装置2により複数の移動物標が検出されている場合に、レーダ装置2により検出された各物体毎にカメラ故障確定カウントを算出したが、1つの画像データ上において少なくとも1つの移動物標に対して歩行者または車両と判別することができなかった場合に、カメラ故障確定カウントを「1」増加するようにし、このカメラ故障確定カウントの積算値がカメラ故障確定回数Nを越えた場合に、カメラユニット3が異常であると判定することも可能である。
 また、前述した実施形態では、特定の物体を歩行者または車両としているが、特定の物体に、犬や猫等の動物などを加えることも可能である。
 物体の検知方向は自車両の進行方向前方に限るものではなく、自車両の前後方向の後方や、自車両の側方であってもよい。
 故障判定装置が組み込まれた物体認識装置1により特定の物体と判別された物体を用いる制御は、自車両と物体との接触回避のための走行制御に限定されるものではなく、特定の物体を先行車両とし、自車両を先行車両に追従して走行させる追従走行制御等、特定の物体に対して自車両が取り得る各種の制御が可能である。
 各実施形態における各構成及びそれらの組み合わせ等は一例であり、本発明の趣旨から逸脱しない範囲内で、構成の付加、省略、置換、およびその他の変更が可能である。
2 レーダ装置(発受信手段)
3 カメラユニット(撮像手段)
12 移動物標判別部(移動物標判別手段)
13 物体抽出部(物体抽出手段)
14 故障判定部(故障判定手段)
26 ヘッドライト(照明装置)

Claims (4)

  1.  自車両周辺の所定範囲に向けて電磁波を発信するとともに、該電磁波が該自車両周辺に存在する物体により反射されて生じる反射波を受信する発受信手段と、
     前記自車両周辺の前記所定範囲を撮像する撮像手段と、
     前記発受信手段により検知された前記物体が移動物標であるか否かを判別する移動物標判別手段と、
     前記撮像手段により撮像された画像から特定の物体を抽出する物体抽出手段と、
     前記移動物標判別手段により前記移動物標であると判別された前記物体が前記物体抽出手段によって前記特定の物体であると判別することができない場合に、前記撮像手段が異常状態であると判定する故障判定手段と、
     を備えることを特徴とする故障判定装置。
  2.  前記移動物標判別手段により前記移動物標であると判別された前記物体の移動速度が小さいほど、前記撮像手段が前記異常状態であると判定され難くすることを特徴とする請求項1に記載の故障判定装置。
  3.  前記移動物標判別手段により前記移動物標であると判別された前記物体から反射された前記反射波の反射レベルが低いほど、前記撮像手段が前記異常状態であると判定され難くすることを特徴とする請求項1または請求項2に記載の故障判定装置。
  4.  前記移動物標判別手段により前記移動物標であると判別された前記物体が前記物体抽出手段によって前記特定の物体であると判別することができない場合に、前記撮像手段が前記異常状態であると判定する前に前記自車両周辺の前記所定範囲を照明装置により照明し、該照明装置で照明しても前記物体が前記物体抽出手段によって前記特定の物体であると判別することができない場合に、前記故障判定手段は前記撮像手段が前記異常状態であると判定することを特徴とする請求項1から請求項3のいずれか1項に記載の故障判定装置。
PCT/JP2013/068618 2012-07-10 2013-07-08 故障判定装置 WO2014010546A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013553725A JP5497248B1 (ja) 2012-07-10 2013-07-08 故障判定装置
CN201380004732.1A CN104040606B (zh) 2012-07-10 2013-07-08 故障判定装置
EP13816074.2A EP2787497A4 (en) 2012-07-10 2013-07-08 DEFAULT ASSESSMENT APPARATUS
US14/362,511 US8917321B1 (en) 2012-07-10 2013-07-08 Failure-determination apparatus
CA2858309A CA2858309C (en) 2012-07-10 2013-07-08 Failure-determination apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-154963 2012-07-10
JP2012154963 2012-07-10

Publications (1)

Publication Number Publication Date
WO2014010546A1 true WO2014010546A1 (ja) 2014-01-16

Family

ID=49916000

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/068618 WO2014010546A1 (ja) 2012-07-10 2013-07-08 故障判定装置

Country Status (6)

Country Link
US (1) US8917321B1 (ja)
EP (1) EP2787497A4 (ja)
JP (1) JP5497248B1 (ja)
CN (1) CN104040606B (ja)
CA (1) CA2858309C (ja)
WO (1) WO2014010546A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106537481A (zh) * 2014-08-07 2017-03-22 日立汽车系统株式会社 行动计划装置
JP2017159871A (ja) * 2016-03-11 2017-09-14 トヨタ自動車株式会社 車両用照明装置
JP2017216517A (ja) * 2016-05-30 2017-12-07 アイシン精機株式会社 画像表示システム
WO2018061425A1 (ja) * 2016-09-29 2018-04-05 パナソニックIpマネジメント株式会社 センサ故障検出装置およびそのための制御方法
WO2019172103A1 (ja) * 2018-03-08 2019-09-12 日立オートモティブシステムズ株式会社 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置
JP2019205032A (ja) * 2018-05-22 2019-11-28 クラリオン株式会社 車載用故障検出装置、及び故障検出方法
WO2020250528A1 (ja) * 2019-06-14 2020-12-17 マツダ株式会社 外部環境認識装置
JP2021149820A (ja) * 2020-03-23 2021-09-27 株式会社デンソー センサ評価装置

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5991332B2 (ja) * 2014-02-05 2016-09-14 トヨタ自動車株式会社 衝突回避制御装置
CN106663342A (zh) * 2014-02-13 2017-05-10 充电网公司 执行与连接的车辆相关联的行动
JP6292097B2 (ja) * 2014-10-22 2018-03-14 株式会社デンソー 側方測距センサ診断装置
KR102288399B1 (ko) * 2014-10-30 2021-08-10 현대모비스 주식회사 차량 경보 장치
CN105869367B (zh) * 2015-01-20 2020-09-29 深圳辉锐天眼科技有限公司 一种基于联网视频监控的故障标定方法
KR101673776B1 (ko) * 2015-06-05 2016-11-07 현대자동차주식회사 자동차용 헤드유닛 및 카메라 유닛의 고장 진단 방법
DE102016203472A1 (de) * 2016-03-03 2017-09-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Verarbeitungseinheit zur Detektion von Objekten auf Basis von asynchronen Sensordaten
JP6600271B2 (ja) * 2016-03-31 2019-10-30 株式会社デンソー 物体認識装置及び物体認識方法
DE102016217264A1 (de) 2016-09-09 2018-03-15 Honda Motor Co., Ltd. Fahrzeugfahrt-Unterstützungsvorrichtung
JPWO2018155142A1 (ja) * 2017-02-21 2019-07-11 日立オートモティブシステムズ株式会社 車両制御装置
JP6289767B1 (ja) * 2017-03-07 2018-03-07 三菱電機株式会社 故障検出装置、故障検出方法及び故障検出プログラム
DE112017008078B4 (de) * 2017-11-13 2022-03-17 Mitsubishi Electric Corporation Fehlererfassungsvorrichtung, fehlererfassungsverfahren und fehlererfassungsprogramm
EP3740451A1 (de) 2018-01-18 2020-11-25 Sew-Eurodrive GmbH & Co. KG Verfahren zum betreiben einer anlage und anlage
CN108508872B (zh) * 2018-04-18 2020-05-05 鄂尔多斯市普渡科技有限公司 一种无人驾驶汽车信息采集系统的故障检测方法
CN108760239B (zh) * 2018-06-21 2020-05-08 江苏本能科技有限公司 车辆识别装置检测方法及系统
CN112400315A (zh) * 2018-07-13 2021-02-23 Abb瑞士股份有限公司 拍摄装置监测方法
US11393204B2 (en) * 2018-09-18 2022-07-19 Capital One Service, LLC Monitoring systems and methods
JP7115180B2 (ja) * 2018-09-21 2022-08-09 トヨタ自動車株式会社 画像処理システムおよび画像処理方法
JP2020104547A (ja) 2018-12-26 2020-07-09 株式会社日立製作所 外界センサの故障検出装置、及び、外界センサの故障検出方法
CN111670380A (zh) * 2019-01-09 2020-09-15 深圳市大疆创新科技有限公司 测距装置的异常记录方法、测距装置及可移动平台
US10831189B2 (en) * 2019-01-31 2020-11-10 StradVision, Inc. Learning method and learning device for providing functional safety by warning driver about potential dangerous situation by using explainable AI which verifies detection processes of autonomous driving network, and testing method and testing device using the same
US11851088B2 (en) * 2020-03-11 2023-12-26 Baidu Usa Llc Method for determining capability boundary and associated risk of a safety redundancy autonomous system in real-time
KR20210136567A (ko) * 2020-05-08 2021-11-17 현대자동차주식회사 차량의 커뮤니케이션 조명 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252147A (ja) * 2002-02-26 2003-09-10 Toyota Motor Corp 車両用障害物検出装置
JP2005157765A (ja) 2003-11-26 2005-06-16 Alpine Electronics Inc 歩行者検出装置
JP2006292621A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
JP2007163258A (ja) * 2005-12-13 2007-06-28 Alpine Electronics Inc 車載センサの補正装置および方法
JP2009029367A (ja) * 2007-07-30 2009-02-12 Mazda Motor Corp 車両の前照灯制御装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09142236A (ja) * 1995-11-17 1997-06-03 Mitsubishi Electric Corp 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置
DE19546506A1 (de) * 1995-12-13 1997-06-19 Daimler Benz Ag Fahrzeug-Navigationssystem und Signalverarbeitungsverfahren für ein solches Navigationssystem
US20040083035A1 (en) * 1996-09-25 2004-04-29 Ellis Christ G. Apparatus and method for automatic vision enhancement in a traffic complex
JP3843502B2 (ja) * 1996-09-30 2006-11-08 マツダ株式会社 車両用動体認識装置
DE10149115A1 (de) * 2001-10-05 2003-04-17 Bosch Gmbh Robert Objekterfassungsvorrichtung
JP4738778B2 (ja) * 2003-10-15 2011-08-03 富士通テン株式会社 画像処理装置、運転支援装置および運転支援システム
DE102005009702A1 (de) * 2005-03-03 2006-09-07 Robert Bosch Gmbh Abstandsmessvorrichtung und Verfahren zur Funktionsprüfung einer Abstandsmessung
JP4598653B2 (ja) * 2005-05-13 2010-12-15 本田技研工業株式会社 衝突予知装置
JP5146716B2 (ja) * 2007-03-01 2013-02-20 マツダ株式会社 車両用障害物検知装置
DE102007018470A1 (de) * 2007-04-19 2008-10-23 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren zur Objektplausibilisierung
WO2009141092A1 (de) * 2008-05-21 2009-11-26 Adc Automotive Distance Control Systems Gmbh Fahrerassistenzsystem zur vermeidung von kollisionen eines fahrzeugs mit fussgängern
JP5150527B2 (ja) * 2009-02-03 2013-02-20 株式会社日立製作所 車両用衝突回避支援装置
US7924146B2 (en) * 2009-04-02 2011-04-12 GM Global Technology Operations LLC Daytime pedestrian detection on full-windscreen head-up display
JP5210233B2 (ja) * 2009-04-14 2013-06-12 日立オートモティブシステムズ株式会社 車両用外界認識装置及びそれを用いた車両システム
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003252147A (ja) * 2002-02-26 2003-09-10 Toyota Motor Corp 車両用障害物検出装置
JP2005157765A (ja) 2003-11-26 2005-06-16 Alpine Electronics Inc 歩行者検出装置
JP2006292621A (ja) * 2005-04-13 2006-10-26 Toyota Motor Corp 物体検出装置
JP2007163258A (ja) * 2005-12-13 2007-06-28 Alpine Electronics Inc 車載センサの補正装置および方法
JP2009029367A (ja) * 2007-07-30 2009-02-12 Mazda Motor Corp 車両の前照灯制御装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2787497A4

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10725474B2 (en) 2014-08-07 2020-07-28 Hitachi Automotive Systems, Ltd. Action planning device having a trajectory generation and determination unit that prevents entry into a failure occurrence range
EP3179463A4 (en) * 2014-08-07 2018-04-04 Hitachi Automotive Systems, Ltd. Action planning device
CN106537481B (zh) * 2014-08-07 2019-06-04 日立汽车系统株式会社 行动计划装置
US10761536B2 (en) 2014-08-07 2020-09-01 Hitachi Automotive Systems, Ltd. Action planning device having a trajectory generation and determination unit
CN106537481A (zh) * 2014-08-07 2017-03-22 日立汽车系统株式会社 行动计划装置
JP2017159871A (ja) * 2016-03-11 2017-09-14 トヨタ自動車株式会社 車両用照明装置
US10421389B2 (en) 2016-03-11 2019-09-24 Toyota Jidosha Kabushiki Kaisha Vehicle lighting system
JP2017216517A (ja) * 2016-05-30 2017-12-07 アイシン精機株式会社 画像表示システム
WO2017208585A1 (ja) * 2016-05-30 2017-12-07 アイシン精機株式会社 画像表示システム
WO2018061425A1 (ja) * 2016-09-29 2018-04-05 パナソニックIpマネジメント株式会社 センサ故障検出装置およびそのための制御方法
CN109643492A (zh) * 2016-09-29 2019-04-16 松下知识产权经营株式会社 传感器故障检测装置及其控制方法
JPWO2018061425A1 (ja) * 2016-09-29 2019-07-18 パナソニックIpマネジメント株式会社 センサ故障検出装置およびそのための制御方法
JP2019158390A (ja) * 2018-03-08 2019-09-19 日立オートモティブシステムズ株式会社 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置
WO2019172103A1 (ja) * 2018-03-08 2019-09-12 日立オートモティブシステムズ株式会社 信号処理システム、及びその評価システム、並びにその信号処理システムに用いられる信号処理装置
JP2019205032A (ja) * 2018-05-22 2019-11-28 クラリオン株式会社 車載用故障検出装置、及び故障検出方法
JP7137356B2 (ja) 2018-05-22 2022-09-14 フォルシアクラリオン・エレクトロニクス株式会社 車載用故障検出装置、及び故障検出方法
WO2020250528A1 (ja) * 2019-06-14 2020-12-17 マツダ株式会社 外部環境認識装置
JP2020204822A (ja) * 2019-06-14 2020-12-24 マツダ株式会社 外部環境認識装置
JP7298323B2 (ja) 2019-06-14 2023-06-27 マツダ株式会社 外部環境認識装置
JP2021149820A (ja) * 2020-03-23 2021-09-27 株式会社デンソー センサ評価装置

Also Published As

Publication number Publication date
US8917321B1 (en) 2014-12-23
JP5497248B1 (ja) 2014-05-21
CA2858309A1 (en) 2014-01-16
JPWO2014010546A1 (ja) 2016-06-23
CN104040606A (zh) 2014-09-10
EP2787497A1 (en) 2014-10-08
US20140368668A1 (en) 2014-12-18
EP2787497A4 (en) 2015-09-16
CA2858309C (en) 2015-08-18
CN104040606B (zh) 2015-08-26

Similar Documents

Publication Publication Date Title
WO2014010546A1 (ja) 故障判定装置
EP3285084B1 (en) Vehicle communication system for cloud-hosting sensor-data
US10997436B2 (en) Object detection apparatus and object detection method
JP6369390B2 (ja) 車線合流判定装置
US9731728B2 (en) Sensor abnormality detection device
US10901078B2 (en) Monitoring device and monitoring method
EP2808700B1 (en) Drive assist device, and vehicle using drive assist device
JP4602277B2 (ja) 衝突判定装置
US20140156158A1 (en) Vehicle driving support control apparatus
JP5651642B2 (ja) 物体位置検知装置
CN110290997B (zh) 车辆控制装置
JP5785578B2 (ja) 車両周辺監視装置
JP2013117475A (ja) 障害物検出装置
JP2007072641A (ja) 危険車両検出装置
JP2017058761A (ja) 運転支援装置及び運転支援プログラム
JP2010162975A (ja) 車両制御システム
JP6429360B2 (ja) 物体検出装置
JP5806647B2 (ja) 物体認識装置
CN113002535A (zh) 驾驶员辅助设备和驾驶员辅助方法
JP2008286566A (ja) 車載装置
JP2016159763A (ja) 車両の制御装置
CN113173160B (zh) 车辆用防碰撞装置及车辆用防碰撞方法
JP2005145396A (ja) 車両用運転支援装置
JP4652260B2 (ja) 障害物認識装置
JP5651649B2 (ja) 物体位置検知装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013553725

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13816074

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2013816074

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14362511

Country of ref document: US

Ref document number: 2013816074

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2858309

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE