WO2019124014A1 - 車載撮像装置、洗浄方法及びコンピュータプログラム - Google Patents

車載撮像装置、洗浄方法及びコンピュータプログラム Download PDF

Info

Publication number
WO2019124014A1
WO2019124014A1 PCT/JP2018/043844 JP2018043844W WO2019124014A1 WO 2019124014 A1 WO2019124014 A1 WO 2019124014A1 JP 2018043844 W JP2018043844 W JP 2018043844W WO 2019124014 A1 WO2019124014 A1 WO 2019124014A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
vehicle
unit
lens
cleaning
Prior art date
Application number
PCT/JP2018/043844
Other languages
English (en)
French (fr)
Inventor
敦司 清水
Original Assignee
株式会社オートネットワーク技術研究所
住友電装株式会社
住友電気工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オートネットワーク技術研究所, 住友電装株式会社, 住友電気工業株式会社 filed Critical 株式会社オートネットワーク技術研究所
Publication of WO2019124014A1 publication Critical patent/WO2019124014A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/56Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens
    • B60S1/60Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens for signalling devices, e.g. reflectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to an on-vehicle imaging device including a camera externally attached to a vehicle, a cleaning method for the on-vehicle imaging device, and a computer program.
  • Patent Document 1 a plurality of cleaning heads provided coaxially with the optical axis of a lens in a camera of an automobile and having an annular shape are provided, and a plurality of cleaning solutions are jetted toward the lens on the annular inner wall of the cleaning head.
  • a cleaning device for a camera provided with a nozzle is disclosed.
  • a vehicle-mounted imaging device is a vehicle-mounted imaging device including a camera externally attached to a vehicle, the detection unit detecting a dirt level of a lens of the camera, and a detection result of the detection unit.
  • a determination unit that determines whether or not the camera is used within a predetermined time, and a cleaning unit that cleans the lens based on the determination result of the determination unit.
  • a cleaning method is a cleaning method for cleaning a lens of a camera mounted on a vehicle-mounted imaging device including a camera externally attached to a vehicle and a cleaning unit that cleans a lens of the camera. Detecting a dirt level of a lens of the camera, determining whether the camera is used within a predetermined time based on a result of the detection, and cleaning the lens based on the result of the determination.
  • a computer program causes a computer to detect a dirt level of a lens of a camera externally attached to a vehicle, and based on a result of the detection, determine whether the camera is used within a predetermined time. And executing a process of outputting an instruction to clean the lens based on the result of the determination.
  • FIG. 1 is a schematic view showing an example of the configuration of a vehicle-mounted imaging device according to Embodiment 1.
  • FIG. 2 is a block diagram schematically illustrating a configuration of a cleaning unit of the in-vehicle imaging device according to the first embodiment.
  • FIG. 2 is a functional block diagram showing a main configuration of a control unit of the in-vehicle imaging device according to the first embodiment.
  • 7 is a flowchart illustrating lens cleaning processing in the on-vehicle imaging device according to the first embodiment.
  • FIG. 6 is an explanatory view for explaining determination processing of a time determination unit in the on-vehicle imaging device according to the first embodiment.
  • FIG. 1 is a schematic view showing an example of the configuration of a vehicle-mounted imaging device according to Embodiment 1.
  • FIG. 2 is a block diagram schematically illustrating a configuration of a cleaning unit of the in-vehicle imaging device according to the first embodiment.
  • FIG. 2 is a functional block diagram showing a
  • FIG. 6 is an explanatory view for explaining determination processing of a time determination unit in the on-vehicle imaging device according to the first embodiment.
  • 7 is a flowchart illustrating lens cleaning processing in the on-vehicle imaging device according to the second embodiment.
  • FIG. 13 is a schematic view showing an example of the configuration of an on-vehicle imaging device according to Embodiment 3.
  • the camera image can not be confirmed at all, although it is a short time of several seconds. That is, while the cleaning liquid is being jetted to the lens, the driver can not confirm the surroundings of such a vehicle at all, and it becomes a very dangerous situation while traveling.
  • an object of the present invention to provide an on-vehicle imaging device, a cleaning method, and a computer program capable of safely cleaning a camera without interfering with the use of the camera.
  • the on-vehicle imaging device includes a detection unit that detects a dirt level of a lens of the camera, and a detection result of the detection unit.
  • a determination unit that determines based on whether or not the camera is used within a predetermined time, and a cleaning unit that cleans the lens based on the determination result of the determination unit.
  • the detection unit detects the dirt level of the lens of the camera, and the determination unit detects the contamination level within the predetermined time from the present based on the detection result of the detection unit. Determine if the camera is used. If the determination unit determines that the camera is not used within a predetermined time from now, the cleaning unit cleans the lens. Therefore, since the lens is cleaned only when the camera is not used within a predetermined time from the present, safety can be secured without preventing the use of the camera.
  • the schedule determination unit determines the camera within the first threshold time based on the guidance information and the distance between the vehicle and another vehicle. Determine if you are going to use Therefore, at present, the use of the camera is unnecessary, and the cleaning unit cleans the lens only when the camera is not scheduled to be used within the first threshold time, so that the lens It can be cleaned.
  • the cleaning apparatus may include a time determination unit that determines whether the lens is present, and the cleaning unit cleans the lens based on the determination result of the time determination unit.
  • the schedule determination unit determines that the camera is to be used
  • the time interval until the time according to the schedule is equal to or longer than the second threshold time.
  • the cleaning unit cleans the lens. Therefore, even if it is determined by the schedule determination unit that the camera is scheduled to be used, the time interval until the time according to the schedule is longer than the required time for cleaning (second threshold time).
  • the cleaning unit cleans the lens, and it is possible to suppress as much as possible the deterioration of the visibility of the image captured by the camera due to the contamination.
  • the cleaning unit cleans the lens regardless of the result of the determination by the determination unit. Therefore, in the case of an emergency where the image taken by the camera can not be read as it is extremely dirty, the cleaning unit quickly cleans the lens without waiting for the determination result.
  • the on-vehicle imaging device includes a remaining amount detection unit that detects a remaining amount of the cleaning liquid before the detection of the dirt level by the detection unit, and the detection unit The contamination level is detected based on the detection result of the detection unit.
  • the remaining amount detecting unit detects the remaining amount of the cleaning liquid before the detection of the dirt level by the detecting unit.
  • the remaining amount of the cleaning liquid is one. If the amount is equal to or less than the number of washings, detection of the dirt level by the detection unit and washing by the washing unit are not performed. Therefore, unnecessary burden on the supply mechanism (for example, a pump) of the cleaning liquid and noise generation due to the idle rotation of the supply mechanism can be prevented in advance.
  • the on-vehicle imaging device when the contamination level is between the first threshold and a third threshold lower than the first threshold, outputs an inquiry about whether or not the lens needs cleaning And an output unit for
  • the output unit may ask the driver whether or not the lens needs cleaning if the dirt level is between the first threshold and the third threshold. I do. Therefore, even when the dirt level is between the first threshold and the third threshold and does not hinder the reading of the captured image of the camera, the washing by the washing unit is performed according to the driver's need. obtain.
  • a cleaning method includes cleaning the lens of the camera with an on-vehicle imaging device including a camera externally attached to a vehicle and a cleaning unit that cleans the lens of the camera.
  • an on-vehicle imaging device including a camera externally attached to a vehicle and a cleaning unit that cleans the lens of the camera.
  • a dirt level of a lens of the camera is detected, the use / non-use of the camera within a predetermined time is determined based on the result of the detection, and the lens is cleaned based on the result of the determination. including.
  • the dirt level of the lens of the camera is detected, and based on the result of the detection, it is determined whether the camera is used within a predetermined time from the present. If it is determined that the camera is not used within a predetermined time from the present, the cleaning unit cleans the lens. Therefore, since the lens is cleaned only when the camera is not used within a predetermined time from the present, safety can be secured without preventing the use of the camera.
  • the computer program detects the dirt level of the lens of the camera externally attached to the vehicle in the computer, and based on the detection result, whether or not the camera is used within a predetermined time And, based on the result of the determination, execute a process of outputting an instruction to clean the lens.
  • the dirt level of the lens of the camera is detected, and based on the result of the detection, it is determined whether the camera is used within a predetermined time from the present. If it is determined that the camera is not used within a predetermined time from the present, the cleaning unit is made to clean the lens. Therefore, since the lens is cleaned only when the camera is not used within a predetermined time from the present, safety can be secured without preventing the use of the camera.
  • FIG. 1 is a schematic view showing one configuration example of the on-vehicle imaging device 100 according to the first embodiment.
  • the on-vehicle imaging device 100 according to the first embodiment includes a control unit 10.
  • the control unit 10 is connected to a camera 80 externally attached to a vehicle (not shown) and a voice instruction receiving unit 90 for receiving a driver's voice instruction.
  • control unit 10 includes an IG information acquisition unit 20 that acquires an IG signal representing an operating state of a motor (such as an engine or a motor) of the vehicle, and a vehicle speed information acquisition unit 30 that acquires vehicle speed information representing the current speed of the vehicle.
  • the navigation information acquisition unit 70 is connected.
  • control unit 10 is connected to a cleaning unit 3 for cleaning the camera 80 using a cleaning solution, and a remaining amount detection unit 2 for detecting the remaining amount of the cleaning solution in the cleaning solution tank described later.
  • the output unit 4 is connected to the control unit 10.
  • the IG information acquisition unit 20 acquires the IG signal from the IG switch.
  • the IG switch is a switch for switching the operating state of the motor of the vehicle. When the IG signal is on, it indicates that the motor is operating, and when the IG signal is off, the IG switch is in operation. Indicates that the prime mover is at rest.
  • the vehicle speed information acquisition unit 30 acquires the vehicle speed information from a vehicle speed sensor (not shown).
  • the vehicle speed sensor detects the traveling speed of the vehicle, and outputs an electrical signal (vehicle speed information) according to the traveling speed.
  • the vehicle speed information acquisition unit 30 samples such an electrical signal, converts it into digital data, and outputs this data to the control unit 10.
  • the shift information acquisition unit 40 acquires the shift information from the transmission controller.
  • Such shift information includes, for example, a forward position (D: drive, first speed, second speed, etc.), a reverse position (R: reverse), and the like.
  • the steering angle acquisition unit 50 acquires the steering angle from a steering sensor that measures the steering angle of the vehicle.
  • the steering sensor is provided on the steering shaft of such a vehicle, measures the steering angle of the steering wheel, and outputs it to the steering angle acquisition unit 50.
  • the direction information acquisition unit 60 acquires the direction indication information from the direction indicator light switch.
  • the turn indicator light switch turns on / off any of the turn indicator lights according to the state of the lever that receives the on / off instruction of the turn indicator light indicating the traveling direction of the vehicle, such as right turn, left turn, lane change, etc.
  • the navigation information acquisition unit 70 acquires navigation information (guidance information) as described above.
  • the navigation information is information indicating a route for guiding the vehicle to the destination input to the car navigation device. Therefore, the navigation information includes information such as a point to turn right and a point to turn left.
  • FIG. 2 is a block diagram schematically illustrating the configuration of the cleaning unit 3 of the in-vehicle imaging device 100 according to the first embodiment.
  • the cleaning unit 3 has a nozzle 31 that jets the cleaning liquid toward the lens 85 of the camera 80.
  • the nozzle 31 is tubular, and one end is opened toward the lens 85 of the camera 80 and the other end is connected to the pump 32.
  • the pump 32 supplies high-pressure cleaning fluid to the nozzle 31.
  • the pump 32 is connected to a cleaning solution tank 33 for storing the cleaning solution supplied to the nozzle 31.
  • the pump 32 incorporates the cleaning solution of the cleaning solution tank 33 and supplies the cleaning solution to the nozzle 31, and the nozzle 31 jets the cleaning solution toward the lens 85 of the camera 80 to clean the surface of the lens 85.
  • the remaining amount detection unit 2 detects the amount of cleaning fluid remaining in the cleaning fluid tank 33.
  • the remaining amount detection unit 2 detects the remaining amount of the cleaning liquid in the cleaning liquid tank 33 using, for example, various sensors such as a float type liquid level sensor or a conductive type level switch.
  • the cameras 80 are disposed at a plurality of locations outside the vehicle.
  • the camera 80 includes, for example, a front camera 81 provided in front of the vehicle and showing a traveling direction, and a rear camera 82 provided behind the vehicle and showing a direction opposite to the traveling direction.
  • the camera 80 includes a port camera 83 and a port camera 84 which are provided on the port and the starboard of the vehicle and play a role of a so-called electronic side mirror.
  • Image data captured by the porthole camera 83 and the starboard camera 84 is displayed on a display unit (not shown) in the cabin of the vehicle.
  • the porthole camera 83 and the starboard camera 84 will be described as an example.
  • a microphone (not shown) is connected to the voice instruction receiving unit 90, and the driver's voice is collected by the microphone and converted into an electric signal (voice signal).
  • the voice signal is input to the voice instruction receiving unit 90, and the voice instruction receiving unit 90 AD converts the input voice signal into digital voice data, and performs voice recognition based on the AD converted voice data.
  • FIG. 3 is a functional block diagram showing the main configuration of the control unit 10 of the in-vehicle imaging device 100 according to the first embodiment.
  • the control unit 10 includes a CPU 11, a detection unit 12, a determination unit 13, and a storage unit 17.
  • the detection unit 12 detects the degree of contamination (dirt level) of the lens 85 of the camera 80.
  • the detection unit 12 detects the contamination level using the IG signal from the IG switch as a trigger. Specifically, the detection unit 12 starts detecting the dirt level when the IG signal changes from off to on. In other words, when the driver turns on the engine of such a vehicle, the detection unit 12 starts the detection of the dirt level.
  • the detection unit 12 performs known edge detection processing on the captured images output by the left eyelid camera 83 and the right eyelid camera 84, and generates an edge image.
  • the detection unit 12 extracts, from the generated edge image, a pixel in which the intensity of the edge suddenly changes (dark portion).
  • the detection unit 12 extracts, from the generated edge image, a pixel whose edge intensity is weak and blurred. Specifically, the detection unit 12 extracts an edge whose edge strength included in the edge image is within a predetermined threshold range. When the water drop is on the edge, it shows a low value in the edge image. Accordingly, it is possible to detect the water droplets that have arrived at the port camera 83 and the port camera 84.
  • the detection unit 12 detects the ratio of the pixels extracted by the above-described method to the total number of pixels of the captured image output from the left-eye camera 83 or the right-eye camera 84 as the dirt level.
  • the present invention is not limited to the above description, and the captured image in a state in which the porthole camera 83 and the starboard camera 84 are not soiled and stored in advance in the storage unit 17 and the left port camera 83 and the starboard camera 84 output
  • the dirt level may be detected by comparing with a captured image.
  • the determination unit 13 determines, based on the detection result of the detection unit 12, whether or not the left camera 83 and the right camera 84 are used within a predetermined time from the present.
  • the cleaning unit 3 cleans the lens 85 based on the determination result of the determination unit 13.
  • the determination unit 13 further includes a current determination unit 14, a schedule determination unit 15, and a time determination unit 16. Details will be described below.
  • the current determination unit 14 determines whether it is necessary to use the port camera 83 or the starboard camera 84 at present based on the operation status of the vehicle and the distance to another vehicle.
  • the operating condition at least includes at which shift position the transmission is currently located, is currently changing lanes, or is turning left or right.
  • the current determination unit 14 recognizes which shift position the transmission is currently at. For example, when it is recognized that the shift position is currently at the reverse position (R), the current determination unit 14 determines that it is necessary to use the porthole camera 83 or the starboard camera 84.
  • the current determination unit 14 recognizes whether the vehicle is currently changing lanes. For example, when any of the direction indicator lights is currently in the on state, the current determination unit 14 determines that it is necessary to use the porthole camera 83 or the starboard camera 84.
  • the current determination unit 14 recognizes whether the vehicle is currently turning left or right. For example, when the steering angle is equal to or greater than a predetermined threshold, the current determination unit 14 determines that it is necessary to use the left camera 83 or the right camera 84.
  • the current determination unit 14 recognizes the distance to another vehicle behind based on the captured image captured by the rear camera 82.
  • the present determination unit 14 uses the left camera 83 or the right camera 84 in preparation for rapid approach of the other vehicle. Determine that it is necessary.
  • the schedule determination unit 15 determines whether to use the left camera 83 or the right camera 84 within the first threshold time based on the navigation information of the car navigation device and the distance to another vehicle. Do.
  • the first threshold time is, for example, one minute.
  • the navigation information is information indicating a route to a destination, and includes information such as a point to be turned right and a point to be turned left.
  • the schedule determination unit 15 determines that there is a plan to use the porthole camera 83 or the starboard camera 84 within the first threshold time.
  • the schedule determination unit 15 recognizes a distance to another vehicle behind based on a captured image captured by the rear camera 82.
  • the distance to the rear other vehicle is within the second threshold distance, for example, 80 m
  • the other end of the camera is prepared for approaching (scheduled) such other vehicle, and the schedule determination unit 15 detects the left camera within the first threshold time. It is determined that there is a plan to use 83 or the starboard camera 84.
  • the time determination unit 16 determines whether the time interval up to the time according to the schedule is equal to or longer than a second threshold time Determine
  • the second threshold time is a time corresponding to the time required for cleaning the lens 85 once, and is, for example, 10 seconds.
  • the time determination unit 16 calculates the relative speed of the other vehicle behind based on the captured image captured by the rear camera 82 at different times, and the time (time interval) for approaching the own vehicle is the second It is determined whether it is more than threshold time.
  • the approach to the vehicle means, for example, being located within a radius of 5 m.
  • the time determination unit 16 continues until the vehicle reaches a left turn point or a right turn point etc. It is determined whether or not the time interval of is greater than or equal to the second threshold time.
  • the current determination unit 14, the schedule determination unit 15, and the time determination unit 16 recognize the distance to the other rear vehicle
  • the case of using the captured image from the rear camera 82 has been described.
  • the form is not limited to this.
  • a radar instead of the rear camera 82, a radar may be used.
  • the CPU 11 controls each of the above-described parts by loading a control program stored in advance in the ROM (not shown) onto the RAM (not shown) and executing the control program.
  • the in-vehicle imaging device 100 is operated.
  • the CPU 11 outputs an instruction to clean the lens 85 to the cleaning unit 3 based on the determination result of the determination unit 13 (the current determination unit 14, the schedule determination unit 15, and the time determination unit 16).
  • the storage unit 17 is configured of, for example, a non-volatile storage medium such as a flash memory, an EEPROM (registered trademark), an HDD, an MRAM (magnetic resistance memory), an FeRAM (ferroelectric memory), or an OUM. Further, the storage unit 17 stores the first threshold time and the second threshold time, and the first threshold distance and the second threshold distance described above. Furthermore, the storage unit 17 stores threshold values (first threshold value, second threshold value, and third threshold value) representing the dirt level, which will be described later.
  • a non-volatile storage medium such as a flash memory, an EEPROM (registered trademark), an HDD, an MRAM (magnetic resistance memory), an FeRAM (ferroelectric memory), or an OUM. Further, the storage unit 17 stores the first threshold time and the second threshold time, and the first threshold distance and the second threshold distance described above. Furthermore, the storage unit 17 stores threshold values (first threshold value, second threshold value, and third threshold value) representing the dirt level, which will be described later.
  • the output unit 4 is for outputting information to be transmitted to the driver.
  • the output unit 4 is, for example, a speaker, a display unit, or the like.
  • the output unit 4 is assumed to be a speaker.
  • FIG. 4 is a flowchart illustrating the cleaning process of the lens 85 in the on-vehicle imaging device 100 according to the first embodiment.
  • the case of cleaning the lens of the porthole camera 83 or the starboard camera 84 will be described as an example.
  • the IG switch When the driver starts the engine, the IG switch outputs an ON IG signal. Using such an IG signal as a trigger, the detection unit 12 detects the dirt level of the porthole camera 83 and the starboard camera 84 (step S101). The contamination level detection by the detection unit 12 has already been described, and the detailed description is omitted here.
  • the CPU 11 determines whether or not there is dirt based on the detection result of the dirt level by the detection unit 12 (step S102).
  • the CPU 11 compares with the first threshold stored in the storage unit 17 and determines that the dirt is present if the detected dirt level is equal to or higher than the first threshold (for example, 30%).
  • step S102 NO
  • the process returns to step S101.
  • the timer unit (not shown) is instructed to measure time, and the detection unit 12 is instructed again to detect the contamination level after a predetermined time has elapsed based on the time measurement result of the timer unit.
  • the CPU 11 determines whether the stain level is equal to or higher than the second threshold stored in the storage unit 17 (step S103).
  • the second threshold is, for example, 80%.
  • step S103 If it is determined that the dirt level is equal to or higher than the second threshold (step S103: YES), the CPU 11 instructs the washing unit 3 to wash the left-hand camera 83 or the right-hand camera 84 whose dirt level is higher than the second threshold. . In response to the instruction from the CPU 11, the cleaning unit 3 cleans the lens of the porthole camera 83 or the starboard camera 84 (step S112).
  • the detection unit 12 detects the contamination level by using the ON signal of IG as a trigger, at the time of step S103, it is the time soon after the engine is started on such a vehicle and the vehicle is still It is highly likely that you have not run for the first time. Therefore, when the dirt level is very high at 80% or more, the lens of the high dirt level port camera 83 or starboard camera 84 is immediately cleaned to ensure safety.
  • step S103 determines that the dirt level is not the second threshold (80%) or more (step S103: NO).
  • the vehicle speed information is acquired from the vehicle speed information acquisition unit 30, and the vehicle is currently traveling. It is determined (step S104). That is, the CPU 11 determines whether the vehicle speed is currently zero.
  • step S104 determines that the own vehicle is not currently traveling (step S104), for example, if the own vehicle is waiting for a signal, the cleaning of the dirty left camera 83 or right eye camera 84 to the cleaning unit 3 Then, the cleaning unit 3 cleans the lens of the porthole camera 83 or the starboard camera 84 (step S112).
  • step S104 determines whether guidance by the car navigation device is being performed by monitoring the car navigation device. (Step S105).
  • step S105 NO
  • the CPU 11 When it is determined that the guidance by the car navigation device is not being performed (step S105: NO), the CPU 11 outputs voice information asking whether to clean the lens 85 via the output unit 4 And the driver is inquired (step S106).
  • the CPU 11 collects the driver's voice via the microphone. The CPU 11 determines whether or not an instruction for the inquiry has been received from the driver by monitoring the collected result (step S107).
  • step S107: NO If it is determined that the instruction has not been received from the driver for a predetermined time (step S107: NO), the CPU 11 returns the process to step S106 and makes an inquiry again.
  • step S107: YES voice recognition is performed based on voice data relating to the collected voice, and the received instruction instructs cleaning of dirt. It is determined whether it is an instruction (step S108). That is, it is determined whether or not the received instruction is a "yes" instruction.
  • step S108: YES When it is determined that the received instruction is the execution instruction (step S108: YES), the CPU 11 instructs the cleaning unit 3 to clean the dirty porthole camera 83 or starboard camera 84, and the cleaning unit 3 is the porthole camera 83 or The lens of the starboard camera 84 is cleaned (step S112). If the CPU 11 determines that the received instruction is not an execution instruction (step S108: NO), the process ends.
  • step S105 if it is determined by the CPU 11 that guidance by the car navigation device is being carried out (step S105: YES), is it necessary to use the left camera 83 or the right camera 84 at present? It is determined whether or not (step S109). Such determination by the current determination unit 14 is performed based on the operation status of the own vehicle and the distance to another vehicle. This has already been described and will not be described in detail here.
  • step S109 If it is determined by the current determination unit 14 that it is currently necessary to use the porthole camera 83 or the starboard camera 84 (step S109: YES), the process ends.
  • the schedule determination unit 15 starts receiving the left eye within the first threshold time. It is determined whether there is a plan to use the camera 83 or the starboard camera 84 (step S110). The schedule determination unit 15 performs such determination based on the navigation information of the car navigation device and the distance between the other vehicle and the own vehicle. This has already been described and will not be described in detail here.
  • step S110: NO the CPU 11 selects the dirty portside camera 83 or the starboard camera 84.
  • the cleaning unit 3 is instructed to clean, and the cleaning unit 3 cleans the lens of the porthole camera 83 or the starboard camera 84 (step S112).
  • the schedule determination unit 15 determines whether there is a plan to use the left camera 83 or the right camera 84 within the first threshold time (step S110: YES). It is determined whether the time interval up to the time is equal to or more than the second threshold time (step S111).
  • step S111: NO When it is determined by the time determination unit 16 that the time interval up to the time according to the schedule is not the second threshold time (step S111: NO), the process ends. In addition, when it is determined by the time determination unit 16 that the time interval up to the time according to the schedule is the second threshold time or more (step S111: YES), the CPU 11 selects the dirty left-hand camera 83 or the starboard camera 84 The washing unit 3 instructs the washing unit 3 to wash the lens of the porthole camera 83 or the starboard camera 84 (step S112).
  • FIG. 5 and 6 are explanatory diagrams for explaining the determination processing of the time determination unit 16 in the on-vehicle imaging device 100 according to the first embodiment.
  • white arrows indicate the moving direction of the vehicle.
  • the schedule determination unit 15 uses the left camera 83 or the right camera 84 within the first threshold time. Determine that there is a schedule.
  • the time determination unit 16 determines whether the time interval until the time when the other vehicle approaches the own vehicle 1 (see FIG. 6) is equal to or longer than the second threshold time.
  • the time interval is equal to or longer than the second threshold time, in other words, it is determined that the time until the left camera 83 or the right camera 84 is used is sufficiently longer than the time required for the dirt cleaning, the cleaning unit 3 Cleaning is performed.
  • the lens 85 of the camera 80 is cleaned when it is not necessary to use the camera 80 at present and to use it within a predetermined time. Further, even if it is planned to use the camera 80 within a predetermined time from now, the lens 85 of the camera 80 is cleaned if the time required for the cleaning can be reliably ensured.
  • the camera 80 can be safely cleaned each time the camera 80 becomes dirty, without interfering with the use of the camera 80.
  • FIG. 7 is a flowchart for explaining the cleaning process of the lens 85 in the on-vehicle imaging device 100 according to the second embodiment.
  • the case of cleaning the lens of the porthole camera 83 or the starboard camera 84 will be described as an example.
  • the remaining amount detection unit 2 detects the amount of the cleaning liquid remaining in the cleaning liquid tank 33.
  • the CPU 11 determines, based on the detection result of the remaining amount detection unit 2, whether or not the cleaning liquid of an amount necessary for cleaning the lens 85 at one time remains in the cleaning liquid tank 33 (step S 201).
  • step S201: NO If the CPU 11 determines that the cleaning liquid of the amount necessary for cleaning the lens 85 for one time does not remain in the cleaning liquid tank 33 (step S201: NO), the process ends. In addition, when it is determined by the CPU 11 that the washing liquid equal to or more than the amount necessary to wash the lens 85 remains in the washing liquid tank 33 (step S201: YES), the detection unit 12 is triggered by the IG signal. The dirt levels of the porthole camera 83 and the starboard camera 84 are detected (step S202). The contamination level detection by the detection unit 12 has already been described, and the detailed description is omitted here.
  • the CPU 11 determines whether the detected dirt level is less than 10% based on the detection result of the dirt level by the detection unit 12 (step S203). If the CPU 11 determines that the detected dirt level is less than 10% (step S203: YES), the process returns to step S202. Specifically, the timer unit is instructed to measure time, and based on the time measurement result of the timer unit, the detection unit 12 is instructed again to detect the contamination level after a predetermined time has elapsed.
  • step S203 determines again whether the detected dirt level is 30% or more (step S204).
  • step S 204 NO
  • the dirt of the lens 85 is cleaned via the output unit 4 although the detected dirt level is not 30% or more.
  • Voice information asking whether or not to execute is output, and the driver is inquired (step S205).
  • the CPU 11 collects the driver's voice via the microphone.
  • the CPU 11 monitors the result of the sound collection to determine whether an instruction for the inquiry has been received from the driver (step S206).
  • step S206 NO
  • the CPU 11 returns the process to step S205 and makes an inquiry again.
  • step S206: YES voice recognition is performed based on voice data relating to the collected voice, and the received instruction instructs cleaning of dirt. It is determined whether it is an instruction (step S207).
  • step S207: YES When the CPU 11 determines that the received instruction is an execution instruction (step S207: YES), the process proceeds to step S209. If the CPU 11 determines that the received instruction is not an execution instruction (step S207: NO), the process ends.
  • step S204 determines in step S204 that the detected dirt level is 30% or more (step S204: YES). the process proceeds to step S208.
  • step S208 to step S217 in the following are the same as the processes of step S103 to step S112 in FIG. 4, and the detailed description will be omitted.
  • the camera 80 can be safely cleaned each time the camera 80 becomes dirty without preventing the use of the camera 80.
  • the cleaning liquid having a quantity larger than the amount necessary for cleaning the lens 85 at one time remains in the cleaning liquid tank 33 prior to the cleaning of the dirt of the lens 85 by the cleaning unit 3. Check if there is. Therefore, unnecessary load on the cleaning solution pump 32 and noise generation due to the idle rotation of the pump 32 can be prevented in advance.
  • the detection unit 12, the current determination unit 14, the schedule determination unit 15, and the time determination unit 16 described above may be configured by hardware logic, and are constructed in software by the CPU 11 executing a predetermined program. It may be done.
  • the control unit 10 described above may be a dedicated unit for performing the cleaning of the lens 85 of the camera 80, and an ECU (Electronic Control Unit) provided in the vehicle may play a role of the control unit 10. You may configure.
  • ECU Electronic Control Unit
  • FIG. 8 is a schematic view showing one configuration example of the on-vehicle imaging device 100 according to the third embodiment.
  • the on-vehicle imaging device 100 according to the third embodiment is configured such that a computer program for performing an operation can also be provided by a portable recording medium A such as a CD-ROM or a USB memory via the I / F 5. It is done.
  • the on-vehicle imaging device 100 according to the third embodiment is configured to be able to download the computer program from an external device via a communication unit (not shown). The contents are described below.
  • the on-vehicle image pickup apparatus 100 is provided with an exterior (or interior) recording medium reading device (not shown), and the recording medium reading device detects the dirt level of the lens 85 of the camera 80, Based on the detection result, it is determined whether or not the camera 80 is used within a predetermined time from the present, and based on the determination result, a portable type having a computer program or the like recorded thereon for causing the cleaning unit 3 to clean the lens 85
  • the CPU 11 installs the computer program in the ROM.
  • the computer program is loaded into the RAM and executed.
  • the recording medium may be a so-called program medium, a tape system such as a magnetic tape and a cassette tape, a magnetic disk such as a flexible disk and a hard disk, and a disk system of an optical disk such as a CD-ROM / MO / MD / DVD.
  • a card system such as an IC card (including a memory card) / optical card etc., or a medium carrying a fixed program code including a semiconductor memory such as mask ROM, EPROM, EEPROM (registered trademark), flash ROM etc. good.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

車両に外付けされるカメラを備える車載撮像装置において、前記カメラのレンズの汚れレベルを検出する検出部(12)と、検出部(12)の検出結果に基づいて、現在から所定時間内における前記カメラの使用有無を判定する判定部(13)と、判定部(13)の判定結果に基づいて、前記レンズの洗浄を行う洗浄部とを備える。

Description

車載撮像装置、洗浄方法及びコンピュータプログラム
 本発明は、車両に外付けされるカメラを備える車載撮像装置、該車載撮像装置の洗浄方法及びコンピュータプログラムに関する。
 本出願は、2017年12月18日出願の日本出願第2017-241995号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。
 特許文献1には、自動車のカメラにおけるレンズの光軸と同軸上に設けられ、環状の形状を有する洗浄ヘッドを備え、前記洗浄ヘッドの環状内壁に、前記レンズに向けて洗浄液を噴射する複数のノズルが設けられたカメラの洗浄装置が開示されている。
特開2016-78841号公報
 本開示の一態様に係る車載撮像装置は、車両に外付けされるカメラを備える車載撮像装置において、前記カメラのレンズの汚れレベルを検出する検出部と、前記検出部の検出結果に基づいて、所定時間内における前記カメラの使用有無を判定する判定部と、前記判定部の判定結果に基づいて、前記レンズの洗浄を行う洗浄部とを備える。
 本開示の一態様に係る洗浄方法は、車両に外付けされるカメラと、該カメラのレンズの洗浄を行う洗浄部とを備える車載撮像装置にて、前記カメラのレンズを洗浄する洗浄方法において、前記カメラのレンズの汚れレベルを検出し、前記検出の結果に基づいて、所定時間内における前記カメラの使用有無を判定し、前記判定の結果に基づいて、前記レンズの洗浄を行うことを含む。
 本開示の一態様に係るコンピュータプログラムは、コンピュータに、車両に外付けされるカメラのレンズの汚れレベルを検出し、前記検出の結果に基づいて、所定時間内における前記カメラの使用有無を判定し、前記判定の結果に基づいて、前記レンズを洗浄する命令を出力する処理を実行させる。
実施形態1に係る車載撮像装置の一構成例を示す模式図である。 実施形態1に係る車載撮像装置の洗浄部の構成を模式的に例示するブロック図である。 実施形態1に係る車載撮像装置の制御部の要部構成を示す機能ブロック図である。 実施形態1に係る車載撮像装置における、レンズの洗浄処理を説明するフローチャートである。 実施形態1に係る車載撮像装置における、時間判定部の判定処理を説明する説明図である。 実施形態1に係る車載撮像装置における、時間判定部の判定処理を説明する説明図である。 実施形態2に係る車載撮像装置における、レンズの洗浄処理を説明するフローチャートである。 実施形態3に係る車載撮像装置の一構成例を示す模式図である。
[本開示が解決しようとする課題]
 洗浄液を用いて前記カメラのレンジを洗浄する場合、数秒間の短い時間ではあるものの、全くカメラの画像を確認できなくなる。すなわち、洗浄液がレンズに噴射された間は、運転者が斯かる車両の周囲を全く確認できなくなり、走行中でもあれば非常に危ない状況となる。
 しかしながら、上述した特許文献1のカメラの洗浄装置は、このような問題について考慮しておらず、前記問題を解決することは出来ない。
 そこで、カメラの使用を妨げることなく、安全にカメラの洗浄を行うことができる車載撮像装置、洗浄方法及びコンピュータプログラムを提供することにある。
[本開示の効果]
 本開示によれば、カメラの使用を妨げることなく、該カメラが汚れた場合は、その都度安全に斯かるカメラを洗浄することができる。
[本発明の実施形態の説明]
 最初に本発明の実施態様を列挙して説明する。以下に記載する実施形態の少なくとも一部を任意に組み合わせてもよい。
(1)本開示の一態様に係る車載撮像装置は、車両に外付けされるカメラを備える車載撮像装置において、前記カメラのレンズの汚れレベルを検出する検出部と、前記検出部の検出結果に基づいて、所定時間内における前記カメラの使用有無を判定する判定部と、前記判定部の判定結果に基づいて、前記レンズの洗浄を行う洗浄部とを備える。
 上記の一態様に係る車載撮像装置にあっては、前記検出部が前記カメラのレンズの汚れレベルを検出し、前記検出部の検出結果に基づいて、前記判定部が現在から所定時間内における前記カメラの使用有無を判定する。前記判定部が現在から所定時間内における前記カメラの使用が無いと判定された場合、前記洗浄部が前記レンズの洗浄を行う。
 従って、現在から所定時間内における前記カメラの使用が無い場合のみ、前記レンズの洗浄を行うので、前記カメラの使用を妨げず、安全を確保できる。
(2)本開示の一態様に係る車載撮像装置は、前記判定部は、前記車両の運行状況、及び、前記車両と他車との距離に基づいて、現在、前記カメラの使用が必要か否かを判定する現在判定部と、前記車両のカーナビゲーション装置からの案内情報、及び、前記車両と他車との距離に基づいて、第1閾値時間内に、前記カメラを使用する予定があるか否かを判定する予定判定部とを含む。
 上記の一態様に係る車載撮像装置にあっては、前記現在判定部が前記車両の運行状況、及び、前記車両と他車との距離に基づいて、現在、前記カメラの使用が必要か否かを判定し、現在、前記カメラの使用が不要である場合、前記予定判定部が、前記案内情報、及び、前記車両と他車との距離に基づいて、前記第1閾値時間内に、前記カメラを使用する予定があるか否かを判定する。
 従って、現在、前記カメラの使用が不要であり、かつ前記第1閾値時間内に、前記カメラを使用する予定がない場合のみ、前記洗浄部が前記レンズの洗浄を行うので、安全に前記レンズの洗浄を行うことができる。
(3)本開示の一態様に係る車載撮像装置は、前記予定判定部によって前記カメラを使用する予定があると判定された場合、前記予定に係る時刻までの時間間隔が第2閾値時間以上であるか否かを判定する時間判定部を備え、前記洗浄部は、前記時間判定部の判定結果に基づいて、前記レンズの洗浄を行う。
 上記の一態様に係る車載撮像装置にあっては、前記予定判定部によって前記カメラを使用する予定があると判定された場合、前記予定に係る時刻までの時間間隔が前記第2閾値時間以上であると前記時間判定部に判定された場合は、前記洗浄部が前記レンズの洗浄を行う。
 従って、前記予定判定部によって前記カメラを使用する予定があると判定された場合であっても、前記予定に係る時刻までの時間間隔が、洗浄の所要時間(第2閾値時間)より長い場合は、前記洗浄部が前記レンズの洗浄を行い、汚れによって前記カメラの撮像画像の視認性が悪くなることを極力抑制できる。
(4)本開示の一態様に係る車載撮像装置は、前記汚れレベルが第1閾値と、該第1閾値より高い第2閾値との間である場合、前記判定部による判定の結果に基づいて、前記洗浄部が前記レンズの洗浄を行い、前記汚れレベルが前記第2閾値以上である場合、前記判定部による判定の結果に関わらず、前記洗浄部が前記レンズの洗浄を行う。
 上記の一態様に係る車載撮像装置にあっては、前記汚れレベルが前記第1閾値より高い第2閾値以上であると検出された場合、すなわち、汚れが酷く前記カメラの撮像画像の判読がつかない場合は、前記判定部による判定の結果に関わらず、前記洗浄部が前記レンズの洗浄を行う。
 従って、汚れが酷く前記カメラの撮像画像の判読がつかないような、緊急の場合は、判定結果を待たずに、迅速に前記洗浄部が前記レンズの洗浄を行う。
(5)本開示の一態様に係る車載撮像装置は、前記検出部による前記汚れレベルの検出の前に、洗浄液の残量を検出する残量検出部を備え、前記検出部は、前記残量検出部の検出結果に基づいて、前記汚れレベルの検出を行う。
 上記の一態様に係る車載撮像装置にあっては、前記検出部による前記汚れレベルの検出の前に、前記残量検出部が洗浄液の残量を検出し、例えば、洗浄液の残量が、一回の洗浄分以下である場合は、前記検出部による前記汚れレベルの検出及び前記洗浄部による洗浄が実行されない。
 従って、洗浄液の供給機構(例えば、ポンプ)における不要の負担、及び、前記供給機構の空回りによる騒音発生を未然に防止できる。
(6)本開示の一態様に係る車載撮像装置は、前記汚れレベルが前記第1閾値と、該第1閾値より低い第3閾値との間である場合、前記レンズの洗浄要否を問う出力を行う出力部を備える。
 上記の一態様に係る車載撮像装置にあっては、前記汚れレベルが前記第1閾値と前記第3閾値との間である場合、前記出力部が運転者に前記レンズの洗浄要否を問う出力を行う。
 従って、前記汚れレベルが前記第1閾値と前記第3閾値との間であり、前記カメラの撮像画像の判読に妨げにならない場合でも、運転者の必要に応じて前記洗浄部による洗浄が実行され得る。
(7)本開示の一態様に係る洗浄方法は、車両に外付けされるカメラと、該カメラのレンズの洗浄を行う洗浄部とを備える車載撮像装置にて、前記カメラのレンズを洗浄する洗浄方法において、前記カメラのレンズの汚れレベルを検出し、前記検出の結果に基づいて、所定時間内における前記カメラの使用有無を判定し、前記判定の結果に基づいて、前記レンズの洗浄を行うことを含む。
 上記の一態様に係る洗浄方法にあっては、前記カメラのレンズの汚れレベルが検出され、斯かる検出の結果に基づいて、現在から所定時間内における前記カメラの使用有無が判定される。現在から所定時間内における前記カメラの使用が無いと判定された場合、前記洗浄部が前記レンズの洗浄を行う。
 従って、現在から所定時間内における前記カメラの使用が無い場合のみ、前記レンズの洗浄を行うので、前記カメラの使用を妨げず、安全を確保できる。
(8)本開示の一態様に係るコンピュータプログラムは、コンピュータに、車両に外付けされるカメラのレンズの汚れレベルを検出し、前記検出の結果に基づいて、所定時間内における前記カメラの使用有無を判定し、前記判定の結果に基づいて、前記レンズを洗浄する命令を出力する処理を実行させる。
 上記の一態様に係るコンピュータプログラムにあっては、前記カメラのレンズの汚れレベルが検出され、斯かる検出の結果に基づいて、現在から所定時間内における前記カメラの使用有無が判定される。現在から所定時間内における前記カメラの使用が無いと判定された場合、前記洗浄部に前記レンズの洗浄を実行させる。
 従って、現在から所定時間内における前記カメラの使用が無い場合のみ、前記レンズの洗浄を行うので、前記カメラの使用を妨げず、安全を確保できる。
[本発明の実施形態の詳細]
 本開示の実施形態に係る車載撮像装置、洗浄方法及びコンピュータプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
(実施形態1)
  図1は、実施形態1に係る車載撮像装置100の一構成例を示す模式図である。本実施形態1に係る車載撮像装置100は、制御部10を備えている。制御部10には、車両(図示せず)に外付けされたカメラ80と、運転者の音声指示を受け付ける音声指示受付部90とが接続されている。
 また、制御部10には、車両の原動機(エンジン又はモータ等)の動作状態を表すIG信号を取得するIG情報取得部20と、車両の現在速度を表す車速情報を取得する車速情報取得部30と、前記車両の変速機の変速位置を表すシフト情報を取得するシフト情報取得部40と、前記車両のステアリングホイールの操舵角を取得する操舵角取得部50と、前記車両の進行方向を表す方向指示灯(フィンカー)の動作状況を表す方向指示情報を取得する方向情報取得部60と、前記車両のカーナビゲーション装置(図示せず)からナビゲーション情報(以下、ナビ情報と略する。)を取得するナビ情報取得部70とが接続されている。
 更に、制御部10には、洗浄液を用いてカメラ80を洗浄する洗浄部3と、後述する洗浄液タンクの洗浄液の残量を検出する残量検出部2とが接続されている。なお、制御部10には、出力部4が接続されている。
 IG情報取得部20はIGスイッチから前記IG信号を取得する。前記IGスイッチは、前記車両の原動機の動作状態を切り替えるスイッチであり、前記IG信号がオン状態である場合は前記原動機が動作中であることを示し、前記IG信号がオフ状態である場合は前記原動機が停止中であることを示す。
 車速情報取得部30は、車速センサ(図示せず)から前記車速情報を取得する。前記車速センサは、前記車両の走行速度を検知し、走行速度に応じた電気信号(車速情報)を出力する。車速情報取得部30は、斯かる電気信号をサンプリングしてデジタルのデータに変換し、このデータを制御部10に出力する。
 シフト情報取得部40は、トランスミッションコントローラから前記シフト情報を取得する。斯かるシフト情報は、例えば、前進位置(D:ドライブ、1速、2速など)、後退位置(R:リバース)などを含む。
 操舵角取得部50は、前記車両の操舵角を測定する操舵センサから、前記操舵角を取得する。前記操舵センサは斯かる車両のステアリングシャフトに設けられており、ステアリングホイールの操舵角を測定して、操舵角取得部50に出力する。
 方向情報取得部60は、方向指示灯スイッチから前記方向指示情報を取得する。前記方向指示灯スイッチは、右折、左折、車線変更等、前記車両の進行方向を示す前記方向指示灯のオン・オフ指示を受け付けるレバーの状態に応じて何れかの方向指示灯を適宜オン・オフさせる。
 ナビ情報取得部70は上述したようにナビ情報(案内情報)を取得する。前記ナビ情報は、前記カーナビゲーション装置に入力された目的地まで斯かる車両を案内する為の道順を示す情報である。従って、前記ナビ情報には、右折すべき地点、左折すべき地点等の情報が含まれる。
 図2は、実施形態1に係る車載撮像装置100の洗浄部3の構成を模式的に例示するブロック図である。
 洗浄部3は、カメラ80のレンズ85に向けて洗浄液を噴射するノズル31を有している。ノズル31は管状であり、一端がカメラ80のレンズ85に向けて開口しており、他端がポンプ32に接続されている。ポンプ32は、ノズル31に高圧の洗浄液を供給する。ポンプ32には、ノズル31に供給する洗浄液を貯留する洗浄液タンク33が接続されている。ポンプ32が洗浄液タンク33の洗浄液を組み込みノズル31に送水し、ノズル31が斯かる洗浄液をカメラ80のレンズ85に向かって噴射し、レンズ85の表面の汚れを落とす。
 残量検出部2は、洗浄液タンク33に残っている洗浄液の量を検出する。残量検出部2は、例えば、フロート式液面センサ又は導電式レベルスイッチ等の各種センサを用いて、洗浄液タンク33内の洗浄液の残量を検出する。
 カメラ80は、前記車両の外側の複数箇所に配置されている。カメラ80は、例えば、車両の前に設けられ、進行方向を映す前方カメラ81、前記車両の後に設けられ前記進行方向と逆方向を映す後方カメラ82を含む。また、カメラ80は、前記車両の左舷及び右舷に設けられ、いわゆる電子サイドミラーの役割をなす、左舷カメラ83及び右舷カメラ84を含む。左舷カメラ83及び右舷カメラ84によって撮像された画像データは車両の室内に表示部(図示せず)に表示される。以下においては、説明の便宜上、左舷カメラ83及び右舷カメラ84を例に説明する。
 音声指示受付部90にはマイク(図示せず)が接続されており、運転者の音声は前記マイクで集音され、電気信号(音声信号)に変換される。前記音声信号は音声指示受付部90に入力され、音声指示受付部90は、入力された音声信号をデジタルの音声データにAD変換し、AD変換された音声データに基づいて音声認識を行う。
 図3は、実施形態1に係る車載撮像装置100の制御部10の要部構成を示す機能ブロック図である。制御部10は、CPU11と、検出部12と、判定部13と、記憶部17とを備えている。
 検出部12は、カメラ80のレンズ85の汚れの度合い(汚れレベル)を検出する。検出部12は、前記IGスイッチからの前記IG信号をトリガーとして汚れレベルの検出を行う。詳しくは、前記IG信号がオフからオンに変わったときから、検出部12は前記汚れレベルの検出を開始する。換言すれば、運転者が斯かる車両のエンジンをかけたとき、検出部12は前記汚れレベルの検出を開始する。
 検出部12は、例えば、左舷カメラ83及び右舷カメラ84が出力した撮像画像に対して周知のエッジ検出処理を行い、エッジ画像を生成する。検出部12は生成されたエッジ画像の中からエッジの強度が急変する(暗部)画素を抽出する。
 また、検出部12は生成されたエッジ画像の中からエッジ強度が弱くぼけた画素を抽出する。具体的には、検出部12は、エッジ画像に含まれるエッジ強度が所定の閾値範囲内のエッジを抽出する。水滴がエッジについている場合、エッジ画像において低い値を示す。従って、これによって、左舷カメラ83及び右舷カメラ84に着いている水滴を検出することができる。
 検出部12は、左舷カメラ83又は右舷カメラ84から出力した撮像画像の全画素数に対して、上述した方法によって抽出された画素が占める割合を、前記汚れレベルとして検出する。
 また、以上の記載に限るものでなく、予め記憶部17に記憶して置いた、左舷カメラ83及び右舷カメラ84が汚れていない状態での撮像画像と、左舷カメラ83及び右舷カメラ84が出力した撮像画像とを比較することによって、前記汚れレベルの検出を行っても良い。
 判定部13は、検出部12の検出結果に基づいて、現在から所定時間内における左舷カメラ83及び右舷カメラ84の使用有無を判定する。判定部13の判定結果に基づいて、洗浄部3はレンズ85の洗浄を行う。更に、判定部13は、現在判定部14と、予定判定部15と、時間判定部16とを更に有する。以下、詳しく説明する。
 現在判定部14は、自車の運行状況、及び、他車との距離に基づいて、現在、左舷カメラ83又は右舷カメラ84を使用する必要があるか否かを判定する。ここで、運行状況は、少なくとも、前記変速機が現在どの変速位置にあるか、現在車線変更中であるか、左折又は右折しているかを含む。
 具体的に、現在判定部14は、シフト情報取得部40が取得した前記シフト情報に基づいて、前記変速機が現在どの変速位置にあるかを認識する。例えば、現在判定部14は、現在、前記変速位置が後退位置(R)にあると認識した場合、左舷カメラ83又は右舷カメラ84を使用する必要があると判定する。
 また、現在判定部14は、方向情報取得部60が取得した前記方向指示情報に基づいて、現在、自車が車線変更中であるかを認識する。例えば、現在、何れかの方向指示灯がオン状態である場合、現在判定部14は左舷カメラ83又は右舷カメラ84を使用する必要があると判定する。
 更に、現在判定部14は、操舵角取得部50が取得した前記操舵角に基づいて、現在、自車が左折又は右折しているかを認識する。例えば、前記操舵角が所定の閾値以上である場合、現在判定部14は左舷カメラ83又は右舷カメラ84を使用する必要があると判定する。
 そして、現在判定部14は、後方カメラ82が撮像した撮像画像に基づいて、後方の他車との距離を認識する。後方の他車との距離が第1閾値距離以内である場合、例えば、50m以内である場合、斯かる他車の急接近に備え、現在判定部14は左舷カメラ83又は右舷カメラ84を使用する必要があると判定する。
 予定判定部15は、前記カーナビゲーション装置のナビ情報、及び、他車との距離に基づいて、これから第1閾値時間内に左舷カメラ83又は右舷カメラ84を使用する予定があるか否かを判定する。前記第1閾値時間は例えば、1分である。また、前記ナビ情報は、上述したように、目的地までの道順を示す情報であり、右折すべき地点、左折すべき地点等の情報が含まれる。
 具体的に、予定判定部15は、ナビ情報取得部70から取得した前記ナビ情報に基づいて、前記第1閾値時間内に左折又は右折するか、すなわち、1分以内に、左折地点又は右折地点等に着く(予定)か判定する。前記第1閾値時間内に左折又は右折すると判定した場合、予定判定部15は、前記第1閾値時間内に左舷カメラ83又は右舷カメラ84を使用する予定があると判定する。
 また、予定判定部15は、後方カメラ82が撮像した撮像画像に基づいて、後方の他車との距離を認識する。後方の他車との距離が第2閾値距離以内である場合、例えば、80mである場合、斯かる他車の接近(予定)に備え、予定判定部15は前記第1閾値時間内に左舷カメラ83又は右舷カメラ84を使用する予定があると判定する。
 時間判定部16は、予定判定部15によって左舷カメラ83及び右舷カメラ84を使用する予定があると判定された場合、前記予定に係る時刻までの時間間隔が第2閾値時間以上であるか否かを判定する。前記第2閾値時間は、一回のレンズ85の洗浄に必要な時間に対応する時間であり、例えば、10秒である。
 例えば、時間判定部16は、後方カメラ82が異なる時刻で撮像した撮像画像に基づいて、後方の他車の相対速度を算出し、自車に接近するまでの時間(時間間隔)が前記第2閾値時間以上であるか否かを判定する。ここでいう、自車への接近は、例えば、5m半径内に位置することを言う。
 また、時間判定部16は、車速情報取得部30から取得した前記車速情報と、ナビ情報取得部70から取得した前記ナビ情報とに基づいて、自車がこれから左折地点又は右折地点等に着くまでの時間間隔が前記第2閾値時間以上であるか否かを判定する。
 以上の記載においては、現在判定部14、予定判定部15及び時間判定部16が後方の他車との距離を認識する際、後方カメラ82からの撮像画像を用いる場合について説明したが、本実施形態はこれに限るものでない。例えば、後方カメラ82の代わりに、レーダを用いても良い。
 CPU11は、ROM(図示せず)に予め格納されている制御プログラムをRAM(図示せず)上にロードして実行することによって、上述した各部分の制御を行ない、装置全体を本実施形態の車載撮像装置100として動作させる。例えば、CPU11は、判定部13(現在判定部14、予定判定部15及び時間判定部16)の判定結果に基づいて、レンズ85を洗浄する指示を洗浄部3に出力する。
 記憶部17は、例えば、フラッシュメモリ、EEPROM(登録商標)、HDD、MRAM(磁気抵抗メモリ)、FeRAM(強誘電体メモリ)、又は、OUM等の不揮発性の記憶媒体により構成されている。また、記憶部17は、上述した、第1閾値時間及び第2閾値時間、並びに、第1閾値距離及び第2閾値距離を記憶している。更に、記憶部17は、後述する、汚れレベルを表す閾値(第1閾値、第2閾値及び第3閾値)を記憶している。
 出力部4は、運転者に伝えるべき情報を出力するためのものである。出力部4は、例えば、スピーカ、表示部等である。説明の便宜上、以下においては、出力部4がスピーカであるとする。
 図4は、実施形態1に係る車載撮像装置100における、レンズ85の洗浄処理を説明するフローチャートである。説明の便宜上、左舷カメラ83又は右舷カメラ84のレンズを洗浄する場合を例に挙げて説明する。
 運転者がエンジン始動をかけた場合、前記IGスイッチがオンのIG信号を出力する。斯かるIG信号をトリガーとして、検出部12は左舷カメラ83及び右舷カメラ84の汚れレベルを検出する(ステップS101)。検出部12による汚れレベル検出については、既に説明しており、ここでは詳しい説明を省略する。
 CPU11は、検出部12による汚れレベルの検出結果に基づいて、汚れがあるか否かを判定する(ステップS102)。CPU11は記憶部17に記憶されている第1閾値と対比することにより、検出された汚れレベルが第1閾値(例えば、30%)以上であれば、汚れがあると判定する。
 CPU11は汚れがないと判定した場合(ステップS102:NO)、処理をステップS101に戻す。詳しくは、計時部(図示せず)に計時を指示し、前記計時部の計時結果に基づいて、所定時間の経過後に検出部12に再び汚れレベルの検出を指示する。
 また、CPU11は汚れがあると判定した場合(ステップS102:YES)、汚れレベルが記憶部17に記憶されている第2閾値以上であるか否かを判定する(ステップS103)。斯かる第2閾値は、例えば、80%である。
 CPU11は汚れレベルが前記第2閾値以上であると判定した場合(ステップS103:YES)、直ちに、汚れレベルが前記第2閾値より高い左舷カメラ83又は右舷カメラ84の洗浄を洗浄部3に指示する。CPU11からの指示に応じて洗浄部3は左舷カメラ83又は右舷カメラ84のレンズを洗浄する(ステップS112)。
 汚れレベルが80%を超える場合は、運転者が撮像画像を殆ど判読できない状態であり、前記車両の左側及び右側が確認できない状態である。これに対して、検出部12はオンのIG信号をトリガーとして汚れレベルを検出するので、ステップS103の時点では、斯かる車両にエンジン始動がかかってから間もない時期であり、前記車両が未だ走行を初めていない可能性が高い。従って、汚れレベルが80%以上で非常に高い場合は、直ちに、汚れレベルの高い左舷カメラ83又は右舷カメラ84のレンツの洗浄を行い、安全を確保する。
 CPU11は、汚れレベルが前記第2閾値(80%)以上でないと判定した場合(ステップS103:NO)、車速情報取得部30から前記車速情報を取得し、自車が現在走行中であるか否かを判定する(ステップS104)。すなわち、CPU11は車速が現在0であるか否かを判定する。
 CPU11は、自車が現在走行中でないと判定した場合(ステップS104)、例えば、自車が信号待機しているような場合、汚れている左舷カメラ83又は右舷カメラ84の洗浄を洗浄部3に指示し、洗浄部3は左舷カメラ83又は右舷カメラ84のレンズを洗浄する(ステップS112)。
 また、CPU11は、自車が現在走行中であると判定した場合(ステップS104:YES)、前記カーナビゲーション装置を監視することによって、前記カーナビゲーション装置による案内が実施中であるか否かを判定する(ステップS105)。
 CPU11は、前記カーナビゲーション装置による案内が実施中ではないと判定した場合(ステップS105:NO)、出力部4を介して、レンズ85の汚れの洗浄を実行するか否かを問う音声情報を出力し、運転者に問い合わせする(ステップS106)。
 上述した問い合わせに対して、運転者は「はい」又は「いいえ」と音声にて指示すると、CPU11は前記マイクを介して運転者の音声を集音する。CPU11は集音した結果を監視することによって、運転者から前記問い合わせに対する指示を受け付けたか否かを判定する(ステップS107)。
 CPU11は、所定時間の間、運転者から指示を受け付けていないと判定した場合(ステップS107:NO)、処理をステップS106に戻し、再び問い合わせを行う。
 また、CPU11は、運転者から指示を受け付けたと判定した場合(ステップS107:YES)、集音された音声に係る音声データに基づいて音声認識を行い、受け付けた指示が汚れの洗浄を指示する実行指示であるか否かを判定する(ステップS108)。すなわち、受け付けた指示が「はい」の指示であるか否かが判定される。
 CPU11は、受け付けた指示が実行指示であると判定した場合(ステップS108:YES)、汚れている左舷カメラ83又は右舷カメラ84の洗浄を洗浄部3に指示し、洗浄部3は左舷カメラ83又は右舷カメラ84のレンズを洗浄する(ステップS112)。また、CPU11は、受け付けた指示が実行指示でないと判定した場合(ステップS108:NO)、処理を終了する。
 一方、CPU11によって、前記カーナビゲーション装置による案内が実施中であると判定された場合(ステップS105:YES)、現在判定部14が、現在、左舷カメラ83又は右舷カメラ84を使用する必要があるか否かを判定する(ステップS109)。現在判定部14による斯かる判定は、自車の運行状況、及び、他車との距離に基づいて行われる。これについては、既に説明しており、ここでは詳しい説明を省略する。
 現在判定部14によって、現在、左舷カメラ83又は右舷カメラ84を使用する必要があると判定された場合(ステップS109:YES)、処理は終了する。
 また、現在判定部14によって、現在、左舷カメラ83及び右舷カメラ84を使用する必要がないと判定された場合(ステップS109:NO)、予定判定部15は、これから前記第1閾値時間内に左舷カメラ83又は右舷カメラ84を使用する予定があるか否かを判定する(ステップS110)。予定判定部15は、前記カーナビゲーション装置のナビ情報、及び、他車と自車との距離に基づいて、斯かる判定を行う。これについては、既に説明しており、ここでは詳しい説明を省略する。
 予定判定部15によって、前記第1閾値時間内に左舷カメラ83又は右舷カメラ84を使用する予定がないと判定された場合(ステップS110:NO)、CPU11は汚れた左舷カメラ83又は右舷カメラ84の洗浄を洗浄部3に指示し、洗浄部3は左舷カメラ83又は右舷カメラ84のレンズを洗浄する(ステップS112)。
 一方、予定判定部15によって、前記第1閾値時間内に左舷カメラ83又は右舷カメラ84を使用する予定があると判定された場合(ステップS110:YES)、時間判定部16は、前記予定に係る時刻までの時間間隔が前記第2閾値時間以上であるか否かを判定する(ステップS111)。
 時間判定部16によって、前記予定に係る時刻までの時間間隔が前記第2閾値時間以上でないと判定された場合(ステップS111:NO)、処理は終了する。また、時間判定部16によって、前記予定に係る時刻までの時間間隔が前記第2閾値時間以上であると判定された場合(ステップS111:YES)、CPU11は、汚れた左舷カメラ83又は右舷カメラ84の洗浄を洗浄部3に指示し、洗浄部3は左舷カメラ83又は右舷カメラ84のレンズを洗浄する(ステップS112)。
 図5及び図6は、実施形態1に係る車載撮像装置100における、時間判定部16の判定処理を説明する説明図である。図5中、白い矢印は車両の移動方向を示している。
 図5に示すように、他車が自車1(車両)の後方に80m離れて走行している場合、予定判定部15は前記第1閾値時間内に左舷カメラ83又は右舷カメラ84を使用する予定があると判定する。
 この際、時間判定部16が、前記他車が自車1に接近する(図6参照)時刻までの時間間隔が前記第2閾値時間以上であるか否かを判定する。斯かる時間間隔が前記第2閾値時間以上である場合、換言すれば、左舷カメラ83又は右舷カメラ84の使用までの時間が、汚れ洗浄にかかる時間より十分長いと判定された場合、洗浄部3による洗浄が実行される。
 以上のように、実施形態1に係る車載撮像装置100においては、カメラ80を現在使用する必要がなく、かつこれから所定時間以内に使用する予定がない場合、カメラ80のレンズ85を洗浄する。
 また、これから所定時間以内にカメラ80を使用する予定がある場合であっても、洗浄にかかる時間を確実に確保できる場合には、カメラ80のレンズ85を洗浄する。
 従って、カメラ80の使用を妨げることなく、カメラ80が汚れた場合は、その都度安全にカメラ80を洗浄することができる。
(実施形態2)
 図7は、実施形態2に係る車載撮像装置100における、レンズ85の洗浄処理を説明するフローチャートである。説明の便宜上、左舷カメラ83又は右舷カメラ84のレンズを洗浄する場合を例に挙げて説明する。
 運転者がエンジン始動をかけた場合、検出部12による汚れレベル検出に先立って、残量検出部2は、洗浄液タンク33に残っている洗浄液の量を検出する。CPU11は、残量検出部2の検出結果に基づいて、一回のレンズ85の洗浄に必要な量以上の洗浄液が洗浄液タンク33に残っているが否か判定する(ステップS201)。
 CPU11は、一回のレンズ85の洗浄に必要な量以上の洗浄液が洗浄液タンク33に残っていないと判定した場合(ステップS201:NO)、処理を終了する。また、CPU11によって、一回のレンズ85の洗浄に必要な量以上の洗浄液が洗浄液タンク33に残っていると判定された場合(ステップS201:YES)、前記IG信号をトリガーとして、検出部12は左舷カメラ83及び右舷カメラ84の汚れレベルを検出する(ステップS202)。検出部12による汚れレベル検出については、既に説明しており、ここでは詳しい説明を省略する。
 CPU11は、検出部12による汚れレベルの検出結果に基づいて、検出された汚れレベルが10%未満であるか否かを判定する(ステップS203)。CPU11は、検出された汚れレベルが10%未満であると判定した場合(ステップS203:YES)、処理をステップS202に戻す。詳しくは、前記計時部に計時を指示し、前記計時部の計時結果に基づいて、所定時間の経過後に検出部12に再び汚れレベルの検出を指示する。
 また、CPU11は、検出された汚れレベルが10%未満でないと判定した場合(ステップS203:NO)、検出された汚れレベルが30%以上であるか否かを再び判定する(ステップS204)。
 CPU11は、検出された汚れレベルが30%以上でないと判定した場合(ステップS204:NO)、出力部4を介して、検出された汚れレベルが30%以上ではないがレンズ85の汚れの洗浄を実行するか否かを問う音声情報を出力し、運転者に問い合わせする(ステップS205)。
 上述した問い合わせに対して、運転者は「はい」又は「いいえ」と音声にて指示すると、CPU11は前記マイクを介して運転者の音声を集音する。CPU11は集音した結果を監視することによって、運転者から前記問い合わせに対する指示を受け付けたか否かを判定する(ステップS206)。
 CPU11は、所定時間の間、運転者から指示を受け付けていないと判定した場合(ステップS206:NO)、処理をステップS205に戻し、再び問い合わせを行う。
 また、CPU11は、運転者から指示を受け付けたと判定した場合(ステップS206:YES)、集音された音声に係る音声データに基づいて音声認識を行い、受け付けた指示が汚れの洗浄を指示する実行指示であるか否かを判定する(ステップS207)。
 CPU11は、受け付けた指示が実行指示であると判定した場合(ステップS207:YES)、ステップS209の処理に進む。また、CPU11は、受け付けた指示が実行指示でないと判定した場合(ステップS207:NO)、処理を終了する。
 一方、ステップS204にて、CPU11は、検出された汚れレベルが30%以上であると判定した場合(ステップS204:YES)、ステップS208の処理に進む。
 以降における、ステップS208~ステップS217の処理は、図4における、ステップS103~ステップS112の処理と同じであり、詳しい説明を省略する。
 実施形態2に係る車載撮像装置100においては、実施形態1と同様、カメラ80の使用を妨げることなく、カメラ80が汚れた場合は、その都度安全にカメラ80を洗浄することができる。
 また、実施形態2に係る車載撮像装置100においては、洗浄部3によるレンズ85の汚れの洗浄に先立って、一回のレンズ85の洗浄に必要な量以上の洗浄液が洗浄液タンク33に残っているが否かを確認する。従って、洗浄液のポンプ32に不要の負担がかかること、及び、ポンプ32の空回りによる騒音発生を未然に防止することができる。
 実施形態1と同様の部分については、同一の符号を付して詳細な説明を省略する。
 なお、上述した検出部12、現在判定部14、予定判定部15及び時間判定部16は、ハードウェアロジックによって構成してもよいし、CPU11が所定のプログラムを実行することにより、ソフトウェア的に構築されてもよい。
 上述した、制御部10は、カメラ80のレンズ85の洗浄を実行するための専用のものであっても良く、車両に備えられたECU(Electronic Control Unit)が制御部10の役割をなすように構成しても良い。
(実施形態3)
 図8は、実施形態3に係る車載撮像装置100の一構成例を示す模式図である。
 実施形態3に係る車載撮像装置100は、動作を行うためのコンピュータプログラムが、I/F5を介してCD-ROM、USBメモリ等の可搬型記録媒体Aで提供することも可能であるように構成されている。さらに、実施形態3に係る車載撮像装置100は、前記コンピュータプログラムを、外部装置から図示しない通信部を介してダウンロードすることも可能であるように構成されている。以下に、その内容を説明する。
 実施形態3に係る車載撮像装置100は外装(又は内装)の記録媒体読み取り装置(図示せず)を備えており、該記録媒体読み取り装置に、カメラ80のレンズ85の汚れレベルを検出し、前記検出の結果に基づいて、現在から所定時間内におけるカメラ80の使用有無を判定し、前記判定の結果に基づいて、洗浄部3にレンズ85の洗浄を実行させるコンピュータプログラム等が記録された可搬型記録媒体Aを挿入して、例えば、CPU11が前記ROMにこのコンピュータプログラムをインストールする。かかるコンピュータプログラムは前記RAMにロードして実行される。これにより、実施形態3に係る車載撮像装置100として機能する。
 前記記録媒体としては、いわゆるプログラムメディアであっても良く、磁気テープ及びカセットテープ等のテープ系、フレキシブルディスク及びハードディスク等の磁気ディスク並びにCD-ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM、EEPROM(登録商標)、フラッシュROM等による半導体メモリを含めた固定的にプログラムコードを担持する媒体であっても良い。
 実施形態1と同様の部分については、同一の符号を付して詳細な説明を省略する。
 開示された実施形態1~3はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
 1 自車
 2 残量検出部
 3 洗浄部
 4 出力部
 11 CPU
 12 検出部
 13 判定部
 14 現在判定部
 15 予定判定部
 16 時間判定部
 80 カメラ
 81 前方カメラ
 82 後方カメラ
 83 左舷カメラ
 84 右舷カメラ
 85 レンズ
 100 車載撮像装置
 

Claims (8)

  1.  車両に外付けされるカメラを備える車載撮像装置において、
     前記カメラのレンズの汚れレベルを検出する検出部と、
     前記検出部の検出結果に基づいて、所定時間内における前記カメラの使用有無を判定する判定部と、
     前記判定部の判定結果に基づいて、前記レンズの洗浄を行う洗浄部と
     を備える車載撮像装置。
  2.  前記判定部は、
     前記車両の運行状況、及び、前記車両と他車との距離に基づいて、現在、前記カメラの使用が必要か否かを判定する現在判定部と、
     前記車両のカーナビゲーション装置からの案内情報、及び、前記車両と他車との距離に基づいて、第1閾値時間内に、前記カメラを使用する予定があるか否かを判定する予定判定部と
     を含む請求項1に記載の車載撮像装置。
  3.  前記予定判定部によって前記カメラを使用する予定があると判定された場合、前記予定に係る時刻までの時間間隔が第2閾値時間以上であるか否かを判定する時間判定部を備え、
     前記洗浄部は、前記時間判定部の判定結果に基づいて、前記レンズの洗浄を行う請求項2に記載の車載撮像装置。
  4.  前記汚れレベルが第1閾値と、該第1閾値より高い第2閾値との間である場合、前記判定部による判定の結果に基づいて、前記洗浄部が前記レンズの洗浄を行い、
     前記汚れレベルが前記第2閾値以上である場合、前記判定部による判定の結果に関わらず、前記洗浄部が前記レンズの洗浄を行う請求項1から3の何れか一つに記載の車載撮像装置。
  5.  前記検出部による前記汚れレベルの検出の前に、洗浄液の残量を検出する残量検出部を備え、
     前記検出部は、前記残量検出部の検出結果に基づいて、前記汚れレベルの検出を行う請求項1から4の何れか一つに記載の車載撮像装置。
  6.  前記汚れレベルが前記第1閾値と、該第1閾値より低い第3閾値との間である場合、前記レンズの洗浄要否を問う出力を行う出力部を備える請求項4に記載の車載撮像装置。
  7.  車両に外付けされるカメラと、該カメラのレンズの洗浄を行う洗浄部とを備える車載撮像装置にて、前記カメラのレンズを洗浄する洗浄方法において、
     前記カメラのレンズの汚れレベルを検出し、
     前記検出の結果に基づいて、所定時間内における前記カメラの使用有無を判定し、
     前記判定の結果に基づいて、前記レンズの洗浄を行うことを含む洗浄方法。
  8.  コンピュータに、
     車両に外付けされるカメラのレンズの汚れレベルを検出し、
     前記検出の結果に基づいて、所定時間内における前記カメラの使用有無を判定し、
     前記判定の結果に基づいて、前記レンズを洗浄する命令を出力する処理を実行させるコンピュータプログラム。
     
     
PCT/JP2018/043844 2017-12-18 2018-11-28 車載撮像装置、洗浄方法及びコンピュータプログラム WO2019124014A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-241995 2017-12-18
JP2017241995A JP2019107990A (ja) 2017-12-18 2017-12-18 車載撮像装置、洗浄方法及びコンピュータプログラム

Publications (1)

Publication Number Publication Date
WO2019124014A1 true WO2019124014A1 (ja) 2019-06-27

Family

ID=66993369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/043844 WO2019124014A1 (ja) 2017-12-18 2018-11-28 車載撮像装置、洗浄方法及びコンピュータプログラム

Country Status (2)

Country Link
JP (1) JP2019107990A (ja)
WO (1) WO2019124014A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113173144A (zh) * 2020-01-24 2021-07-27 丰田自动车株式会社 车载传感器清洗装置
US20210362688A1 (en) * 2018-03-07 2021-11-25 Koito Manufacturing Co., Ltd. Vehicle cleaner system, vehicle system, cleaning method performed by vehicle cleaner system, and vehicle cleaner control device
CN114550123A (zh) * 2022-04-25 2022-05-27 江苏日盈电子股份有限公司 车载摄像头的污染判断方法、污染判断系统以及清洗方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009220719A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 車載カメラ雨滴除去装置
JP2011240917A (ja) * 2009-09-29 2011-12-01 Denso Corp 車両用操作装置
WO2014007175A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 車載環境認識装置
WO2014007286A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 状態認識システム及び状態認識方法
WO2014010580A1 (ja) * 2012-07-11 2014-01-16 日産自動車株式会社 車載カメラの洗浄装置
JP2016015583A (ja) * 2014-07-01 2016-01-28 クラリオン株式会社 車載用撮像装置
JP2018047878A (ja) * 2016-09-23 2018-03-29 株式会社デンソーテン 付着物除去装置および付着物除去方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009220719A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 車載カメラ雨滴除去装置
JP2011240917A (ja) * 2009-09-29 2011-12-01 Denso Corp 車両用操作装置
WO2014007175A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 車載環境認識装置
WO2014007286A1 (ja) * 2012-07-03 2014-01-09 クラリオン株式会社 状態認識システム及び状態認識方法
WO2014010580A1 (ja) * 2012-07-11 2014-01-16 日産自動車株式会社 車載カメラの洗浄装置
JP2016015583A (ja) * 2014-07-01 2016-01-28 クラリオン株式会社 車載用撮像装置
JP2018047878A (ja) * 2016-09-23 2018-03-29 株式会社デンソーテン 付着物除去装置および付着物除去方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210362688A1 (en) * 2018-03-07 2021-11-25 Koito Manufacturing Co., Ltd. Vehicle cleaner system, vehicle system, cleaning method performed by vehicle cleaner system, and vehicle cleaner control device
CN113173144A (zh) * 2020-01-24 2021-07-27 丰田自动车株式会社 车载传感器清洗装置
CN113173144B (zh) * 2020-01-24 2023-11-10 丰田自动车株式会社 车载传感器清洗装置
CN114550123A (zh) * 2022-04-25 2022-05-27 江苏日盈电子股份有限公司 车载摄像头的污染判断方法、污染判断系统以及清洗方法

Also Published As

Publication number Publication date
JP2019107990A (ja) 2019-07-04

Similar Documents

Publication Publication Date Title
WO2019124014A1 (ja) 車載撮像装置、洗浄方法及びコンピュータプログラム
CN109070848B (zh) 用于清洁机动车辆的光学检测系统的传感器的设备
JP6748206B2 (ja) 運転支援装置
US20190283736A1 (en) Parking control device and vehicle control device
US20150298657A1 (en) method and device for controlling a cleaning apparatus for a vehicle camera, method for cleaning a vehicle camera and camera system for a vehicle
JP2016179767A (ja) 車両用制御装置、車両用制御プログラム、及び車両
US20170313253A1 (en) Method for operating a driver assistance system of a motor vehicle, driver assistance system and motor vehicle
WO2018150661A1 (ja) 車載用撮像装置
US10625782B2 (en) Surroundings monitoring apparatus
JP2007221200A (ja) 車両周辺監視装置
CN113165643B (zh) 停车辅助装置
CN112977465A (zh) 用于确定机动车辆中的拖车挂钩铰接角度的方法和设备
JP6711045B2 (ja) 車載撮像装置の水滴除去装置
JP2008137548A (ja) 車輌用ウォッシャ装置
US11491916B2 (en) Tow assist apparatus
CN114513630A (zh) 车载传感器清洗装置及车载传感器清洗方法
JP2007038773A (ja) 車載カメラ点検装置
US20200273153A1 (en) Surroundings monitoring apparatus
CN110997427A (zh) 用于控制布置在车辆外轮廓上的至少一个传感器的至少一个清洗装置的方法
US20220410849A1 (en) Carwash device, car-washing method, storage medium stored with car-washing program, and car-washing system
US11597370B2 (en) Electrical control device for headlight of wiper of autonomous vehicle based on driving state
JP4682936B2 (ja) 車両用運転支援装置
JP7334757B2 (ja) センサ洗浄システム、センサ洗浄方法、及び車両
JP2023072485A (ja) 警告装置、警告方法、及びプログラム
JP5244836B2 (ja) ワイパ制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18891690

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18891690

Country of ref document: EP

Kind code of ref document: A1