WO2018110389A1 - 車両用照明システムおよび車両 - Google Patents

車両用照明システムおよび車両 Download PDF

Info

Publication number
WO2018110389A1
WO2018110389A1 PCT/JP2017/043829 JP2017043829W WO2018110389A1 WO 2018110389 A1 WO2018110389 A1 WO 2018110389A1 JP 2017043829 W JP2017043829 W JP 2017043829W WO 2018110389 A1 WO2018110389 A1 WO 2018110389A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
vehicle
camera
mode
unit
Prior art date
Application number
PCT/JP2017/043829
Other languages
English (en)
French (fr)
Inventor
直樹 多々良
俊宏 岡村
増田 剛
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to EP17879867.4A priority Critical patent/EP3556607A4/en
Priority to US16/469,881 priority patent/US10965878B2/en
Priority to JP2018556610A priority patent/JP6963563B2/ja
Priority to CN201780077503.0A priority patent/CN110087946B/zh
Publication of WO2018110389A1 publication Critical patent/WO2018110389A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/06Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle
    • B60Q1/08Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights adjustable, e.g. remotely-controlled from inside vehicle automatically
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS

Definitions

  • the present invention relates to a vehicle lighting system and a vehicle.
  • the automatic driving mode refers to a mode in which traveling of the vehicle is automatically controlled.
  • the manual operation mode refers to a mode in which driving of the vehicle is controlled by the driver.
  • the autonomous driving vehicle the running of the vehicle is automatically controlled by a computer.
  • automatic driving vehicles vehicles running in the automatic driving mode
  • manual driving vehicles vehicles running in the manual driving mode
  • Patent Document 1 discloses an automatic following traveling system in which a following vehicle automatically follows a preceding vehicle.
  • each of the preceding vehicle and the following vehicle has a display device, and character information for preventing another vehicle from interrupting between the preceding vehicle and the following vehicle is displayed on the display device of the preceding vehicle.
  • character information indicating that the vehicle is following the vehicle is displayed on the display device of the following vehicle.
  • an autonomous driving vehicle acquires information ahead by a camera and controls the vehicle according to the acquired information.
  • strong light such as light emitted from the headlight of an oncoming vehicle enters the camera, halation occurs in the camera, making it difficult to efficiently acquire information ahead of the vehicle.
  • a vehicle lighting system includes: A light source unit capable of irradiating light in front of the vehicle in at least two irradiation modes including a first irradiation mode and a second irradiation mode that irradiates light at an illuminance higher than the first irradiation mode; A camera capable of imaging the front of the vehicle; A shooting control unit for setting an irradiation mode of the light source unit and an imaging timing of the camera; An image generation unit that performs arithmetic processing on an image acquired by the camera; The photographing control unit When the light source unit is irradiating the front of the vehicle in the first irradiation mode, the front of the vehicle is imaged by the camera and the first image is output to the image generation unit, When the light source unit is illuminating the front of the vehicle in the second irradiation mode, the front of the vehicle is imaged by the camera and a second image is output to the image generation unit, The image generation unit generates a single output image
  • an output image is generated from the first image and the second image.
  • the first image and the second image have a relationship in which one disadvantage is complemented by the other advantage. Accordingly, by generating an output image from both, a dark object that is difficult to recognize due to insufficient light quantity in the first image is more easily recognized by the second image. Bright objects that are difficult to recognize due to halation in the second image are more easily recognized by the first image.
  • information ahead of the vehicle can be acquired well regardless of the amount of incident light.
  • the image generation unit replaces a part of the first image with a luminance equal to or lower than a first threshold with a part of the second image corresponding to the part.
  • the output image may be obtained by replacing a portion of the second image having a luminance equal to or higher than the second threshold higher than the first threshold with a part of the first image corresponding to the portion.
  • a dark object that is difficult to recognize due to a lack of light amount in the first image is easily recognized by a portion replaced by the second image.
  • Bright objects that are difficult to recognize due to halation occurring in the second image are more easily recognized by the portion replaced by the first image. Therefore, it is possible to satisfactorily complement the image by replacing the portion of the first image that is difficult to recognize with the portion of the second image and replacing the portion of the second image that is difficult to recognize with the portion of the first image.
  • the imaging control unit may control the light source unit so as to alternately switch between the first irradiation mode and the second irradiation mode.
  • the first image and the second image can be reliably acquired by switching the irradiation mode alternately between the first irradiation mode and the second irradiation mode with the light source unit. Complementary processing can be performed.
  • the light source unit is configured to irradiate light forward of the vehicle in the first irradiation mode during normal times
  • the imaging control unit may control the light source unit so as to change to the second irradiation mode at predetermined intervals.
  • the light source unit emits light in the first irradiation mode, which normally has low illuminance, so that it is difficult to give glare to oncoming vehicles and the like.
  • the predetermined interval may be 20 msec or less.
  • the flicker is not given to the driver even by switching between the first irradiation mode and the second irradiation mode.
  • a vehicle lighting system includes: A light source unit capable of emitting light to the front of the vehicle; A camera unit capable of imaging the front of the vehicle in at least two shooting modes including a first shooting mode and a second shooting mode having a higher sensitivity and / or a longer exposure time than the first shooting mode; A shooting control unit for setting the shooting mode and the shooting timing of the camera unit; An image generation unit that performs arithmetic processing on an image acquired by the camera unit; The photographing control unit Causing the camera unit to capture the front of the vehicle in the first shooting mode and outputting the first image to the image generation unit; Causing the camera unit to take an image of the front of the vehicle in the second shooting mode and outputting a second image to the image generation unit; The image generation unit generates a single output image from the first image and the second image.
  • the camera unit can capture the front of the vehicle in the first shooting mode and the second shooting mode with higher sensitivity and / or longer exposure time than the first shooting mode. is there. And an output image is produced
  • the first image captured in the first imaging mode and the second image captured in the second imaging mode with higher sensitivity and / or longer exposure time than the first imaging mode have one disadvantage in the other It has a complementary relationship. Therefore, by generating an output image from both images, a dark object that is difficult to recognize due to blackout due to insufficient light in the first image is more easily recognized by the second image.
  • Bright objects that are difficult to recognize due to halation caused by excessive light quantity in the second image are more easily recognized by the first image.
  • the output images complemented each other are obtained by substituting the easily recognizable portions of the first image and the second image, information ahead of the vehicle can be obtained well regardless of the amount of incident light.
  • the image generation unit replaces a portion of the first image having a luminance equal to or lower than a first threshold with a part of the second image corresponding to the portion, and / or the second image includes the first image.
  • the output image may be obtained by substituting a part of the first image corresponding to the part of the first threshold corresponding to the part with a luminance higher than the second threshold.
  • a dark object that is difficult to recognize due to a lack of light amount in the first image is easily recognized by a portion replaced by the second image.
  • a bright object that is difficult to recognize due to halation caused by excessive light quantity in the second image is more easily recognized by the portion replaced by the first image. Therefore, it is possible to satisfactorily complement the image by replacing a difficult-to-recognize part of the first image with a part of the second image, or by replacing a difficult-to-recognize part of the second image with a part of the first image.
  • the camera unit A first camera for photographing the front of the vehicle in the first photographing mode; A second camera for photographing the front of the vehicle in the second photographing mode,
  • the photographing control unit may photograph the first camera and the second camera at the same time.
  • the first image and the second image can be acquired without a time difference. Therefore, there is no positional deviation of the object between the first image and the second image, and the first image and the second image can be obtained. It is easy to associate the positional relationship between two images.
  • the photographing control unit may cause the camera unit to photograph by alternately switching the first photographing mode and the second photographing mode.
  • the first image and the second image are reliably acquired by switching the shooting mode alternately between the first shooting mode and the second shooting mode with the camera unit. Complementary processing can be performed.
  • the camera unit can be configured with a single camera, the system can be simplified.
  • the photographing control unit may be configured to photograph in the first photographing mode after photographing in the second photographing mode with a short exposure time.
  • the first image and the second image can be acquired with a short time difference, and the displacement of the object between the first image and the second image can be suppressed as much as possible.
  • a vehicle according to the present invention includes the vehicle illumination system according to any one of (1) to (10).
  • peripheral information such as a pedestrian, an oncoming vehicle, a preceding vehicle, a sign, and a road surface is obtained from the obtained output image, and based on this peripheral information, for example, automatic driving control is good. Can be done.
  • the present invention it is possible to provide a vehicle illumination system and a vehicle that can acquire information ahead of the vehicle satisfactorily regardless of the amount of incident light.
  • FIG. 1 is a top view of a vehicle according to a first embodiment of the present invention.
  • FIG. 1B is a side view of the vehicle shown in FIG. 1A.
  • It is a block diagram of a vehicle system. It is a block diagram of the lighting system for vehicles concerning the embodiment of the present invention.
  • It is a figure which shows the image
  • FIG. 7B is a side view of the vehicle shown in FIG. 7A. It is a block diagram of a vehicle system. It is a block diagram of the lighting system for vehicles concerning a third embodiment.
  • left-right direction is a direction including “upward direction” and “downward direction”.
  • front-rear direction is a direction including “front direction” and “rear direction”.
  • left / right direction is a direction including “left direction” and “right direction”.
  • FIG. 1A and 1B show a vehicle 1 equipped with a vehicle illumination system 20 according to the first embodiment.
  • FIG. 1A shows a top view of the vehicle 1
  • FIG. 1B shows a side view of the vehicle 1.
  • the vehicle 1 is an automobile that can travel in the automatic operation mode, and includes a vehicle illumination system 20.
  • FIG. 2 shows a block diagram of the vehicle system 2.
  • the vehicle system 2 includes a vehicle control unit 3, a sensor 5, a camera 6, a radar 7, an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, and wireless communication.
  • Unit 10 and map information storage unit 11.
  • the vehicle system 2 includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • the vehicle control unit 3 is composed of an electronic control unit (ECU).
  • the electronic control unit includes a processor such as a CPU (Central Processing Unit), a ROM (Read Only Memory) in which various vehicle control programs are stored, and a RAM (Random Access Memory) in which various vehicle control data are temporarily stored. It is comprised by.
  • the processor is configured to develop a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the vehicle control unit 3 is configured to control the traveling of the vehicle 1.
  • the sensor 5 includes an acceleration sensor, a speed sensor, a gyro sensor, and the like.
  • the sensor 5 is configured to detect the traveling state of the vehicle 1 and output traveling state information to the vehicle control unit 3.
  • the sensor 5 is a seating sensor that detects whether the driver is sitting in the driver's seat, a face direction sensor that detects the direction of the driver's face, an external weather sensor that detects external weather conditions, and whether there is a person in the vehicle. You may further provide the human sensor etc. to detect.
  • the sensor 5 may include an illuminance sensor that detects the illuminance of the surrounding environment of the vehicle 1.
  • the camera 6 is a camera including an image pickup element such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS).
  • the camera 6 is a camera that detects visible light or an infrared camera that detects infrared rays.
  • the radar 7 is a millimeter wave radar, a microwave radar, a laser radar, or the like.
  • the camera 6 and the radar 7 are configured to detect a surrounding environment (another vehicle, a pedestrian, a road shape, a traffic sign, an obstacle, etc.) of the vehicle 1 and output the surrounding environment information to the vehicle control unit 3. .
  • the HMI 8 includes an input unit that receives an input operation from the driver, and an output unit that outputs traveling information and the like to the driver.
  • the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode switching switch for switching the operation mode of the vehicle 1, and the like.
  • the output unit is a display that displays various travel information.
  • the GPS 9 is configured to acquire the current position information of the vehicle 1 and output the acquired current position information to the vehicle control unit 3.
  • the wireless communication unit 10 is configured to receive travel information of other vehicles around the vehicle 1 from other vehicles and to transmit the travel information of the vehicle 1 to other vehicles (inter-vehicle communication).
  • the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as traffic lights and beacon lights, and to transmit travel information of the vehicle 1 to the infrastructure equipment (road-to-vehicle communication).
  • the map information storage unit 11 is an external storage device such as a hard disk drive in which map information is stored, and is configured to output the map information to the vehicle control unit 3.
  • the vehicle control unit 3 determines at least one of the steering control signal, the accelerator control signal, and the brake control signal based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. Generate one automatically.
  • the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
  • the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
  • the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and to control the accelerator device 17 based on the received accelerator control signal.
  • the vehicle system 2 automatically controls the traveling of the vehicle 1.
  • the vehicle control unit 3 when the vehicle 1 travels in the manual operation mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal according to the manual operation of the driver with respect to the accelerator pedal, the brake pedal, and the steering wheel.
  • the steering control signal, the accelerator control signal, and the brake control signal are generated by the driver's manual operation, so that the traveling of the vehicle 1 is controlled by the driver.
  • the operation mode includes an automatic operation mode and a manual operation mode.
  • the automatic driving mode includes a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
  • the vehicle system 2 In the fully automatic driving mode, the vehicle system 2 automatically performs all traveling control of steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle 1 can be driven.
  • the vehicle system 2 In the advanced driving support mode, the vehicle system 2 automatically performs all travel control of steering control, brake control, and accelerator control, and the driver does not drive the vehicle 1 although it is in a state where the vehicle 1 can be driven.
  • the vehicle system 2 In the driving support mode, the vehicle system 2 automatically performs some traveling control among the steering control, the brake control, and the accelerator control, and the driver drives the vehicle 1 under the driving support of the vehicle system 2.
  • the vehicle system 2 In the manual operation mode, the vehicle system 2 does not automatically perform traveling control, and the driver drives the vehicle 1 without driving assistance from the vehicle system 2.
  • the operation mode of the vehicle 1 may be switched by operating an operation mode changeover switch.
  • the vehicle control unit 3 changes the driving mode of the vehicle 1 into four driving modes (fully automatic driving mode, advanced driving support mode, driving support mode, manual driving mode) according to the driver's operation on the driving mode changeover switch. ).
  • the driving mode of the vehicle 1 is automatically set based on information on a travelable section where the autonomous driving vehicle can travel, a travel prohibition section where travel of the autonomous driving vehicle is prohibited, or information on an external weather condition. It may be switched.
  • the vehicle control unit 3 switches the operation mode of the vehicle 1 based on these pieces of information.
  • the driving mode of the vehicle 1 may be automatically switched by using a seating sensor, a face direction sensor, or the like. In this case, the vehicle control unit 3 switches the operation mode of the vehicle 1 based on output signals from the seating sensor and the face direction sensor.
  • the vehicle illumination system 20 includes a light source unit 21 and a camera 6.
  • the light source unit 21 is provided on the left and right of the front portion of the vehicle 1 and irradiates the front of the vehicle 1.
  • the camera 6 is provided near the center in the width direction at the front portion of the vehicle 1.
  • the light source unit 21 and the camera 6 are each connected to the vehicle control unit 3.
  • the light source unit 21 and the camera 6 are not limited to separate units, and the light source unit 21 and the camera 6 may be integrally provided.
  • FIG. 3 is a block diagram of the vehicle lighting system 20. As shown in FIG. 3, the vehicle illumination system 20 includes a shooting control unit 24 and an image generation unit 25. The imaging control unit 24 and the image generation unit 25 are provided in the vehicle control unit 3.
  • the light source unit 21 is connected to the illuminance setting unit 22, and the illuminance setting unit 22 is connected to the imaging control unit 24 of the vehicle control unit 3.
  • the light source unit 21 is configured to be able to irradiate light in front of the vehicle in at least two irradiation modes including a first irradiation mode and a second irradiation mode that irradiates light with an illuminance higher than that in the first irradiation mode.
  • the light source unit 21 is a light source mounted on a lamp that irradiates light to the entire imaging range of the camera 6 in front of the vehicle.
  • the light source unit 21 is mounted inside a vehicle headlamp capable of forming a high beam light distribution pattern or a low beam light distribution pattern.
  • the illuminance setting unit 22 performs illuminance control of the light source unit 21 based on a command from the imaging control unit 24.
  • the light source unit 21 is switched between the first irradiation mode and the second irradiation mode by the illuminance control of the illuminance setting unit 22.
  • the illuminance setting unit 22 and the light source unit 21 are components constituting the lamp unit of the vehicle 1.
  • the camera 6 is connected to the shutter control unit 23.
  • the shutter control unit 23 is connected to the shooting control unit 24 of the vehicle control unit 3.
  • the camera 6 captures an image in front of the vehicle 1 and acquires information in front of the vehicle 1.
  • the shutter control unit 23 controls the imaging timing of the camera 6 based on a command from the imaging control unit 24.
  • the camera 6 is connected to the image generation unit 25 of the vehicle control unit 3 and transmits captured image data to the image generation unit 25.
  • the image generation unit 25 acquires image data from the camera 6 and performs arithmetic processing on the acquired image.
  • the camera 6 photographs the front of the vehicle 1 to detect the surrounding environment of the vehicle 1 during automatic driving, and acquires information such as a pedestrian, an oncoming vehicle, a preceding vehicle, a sign, and a road surface.
  • the vehicle control unit 3 controls the automatic driving of the vehicle 1 based on the peripheral information of the vehicle 1 obtained from the image from the camera 6.
  • the camera sensitivity is set high or the exposure time is set long. This secures the amount of light received from the object and obtains a clear image without blackout.
  • the sensitivity of the camera is set low or the exposure time is set short. Thereby, the amount of light received from the object is adjusted to obtain a clear image without halation.
  • the camera sensitivity is set by adjusting the aperture value and ISO sensitivity of the camera.
  • the camera sensitivity is set high or the exposure time is set long so that pedestrians can be recognized efficiently, a clear image without blackout can be obtained.
  • the halation is caused by reflected light from the sign, light emitted from the headlight of the oncoming vehicle, light emitted from the sign light of the preceding vehicle, reflected light from the road surface in the immediate vicinity of the host vehicle, etc. It is difficult to recognize these efficiently.
  • FIG. 4A to 4C are diagrams showing images in front of the vehicle 1.
  • FIG. 4A is a schematic diagram showing an actual video
  • FIG. 4B is a schematic diagram showing an image with insufficient light quantity
  • FIG. 4C is an image with excessive light quantity. It is a schematic diagram which shows.
  • the light source unit 21 irradiates light in front of the vehicle 1 with light having lower illuminance in the first irradiation mode than in the second irradiation mode. Therefore, if the actual image in front of the vehicle 1 is the image shown in FIG. 4A, the image (first image) taken by the camera 6 in the first irradiation mode is caused by excessive light quantity as shown in FIG. 4B. It is easy to recognize an object with high reflectivity such as the sign H without causing halation, but blackout (A portion indicated by hatching in FIG. 4B) is likely to occur due to insufficient light quantity.
  • the light source unit 21 irradiates the front of the vehicle 1 with light having higher illuminance than in the first irradiation mode in the second irradiation mode. Therefore, the image (second image) taken by the camera 6 in the second irradiation mode is easy to recognize a dark object without causing blackout due to insufficient light amount. Excessive amount of light tends to cause halation (B portion in FIG. 4C).
  • FIG. 5 is a flowchart showing processing executed by the vehicle lighting system 20 according to the first embodiment.
  • the imaging control unit 24 issues a command to the illuminance setting unit 22 and commands the shutter control unit 23 to image the front of the vehicle 1 with the camera 6 when the mode of the light source unit 21 is set to the first irradiation mode. And the 1st image which is the image data is output to the image generation part 25 (step S01). Thereby, the image generation part 25 acquires the image of FIG. 4B mentioned above.
  • the imaging control unit 24 issues a command to the illuminance setting unit 22 to set the mode of the light source unit 21 to the second irradiation mode, and when the light source unit 21 is irradiating the front of the vehicle 1 with a high beam, the shutter control unit A command is issued to 23 and the front of the vehicle 1 is imaged by the camera 6. And the 2nd image which is the image data is output to the image generation part 25 (step S02). Thereby, the image generation part 25 acquires the image of FIG. 4C mentioned above.
  • the imaging control unit 24 switches the light source unit 21 between the first irradiation mode and the second irradiation mode alternately at predetermined intervals to acquire the first image and the second image.
  • Commands are sent to the setting unit 22 and the shutter control unit 23.
  • the imaging control unit 24 issues a command to the illuminance setting unit 22 so that the light source unit 21 is irradiated with light in front of the vehicle 1 in the first irradiation mode in normal times, and the light source unit 21 is turned on at predetermined intervals.
  • the predetermined interval as the timing of switching the irradiation mode of the light source unit 21 is 20 msec or less.
  • the image generation unit 25 identifies an area where the light amount is insufficient (blackout) (part A in FIG. 4B) in the first image transmitted from the camera 6 (step S03). Specifically, the image generation unit 25 determines a portion of the first image that is equal to or lower than a first threshold value that is a preset luminance threshold value, and specifies first position coordinates that are coordinates of the portion.
  • the image generation unit 25 specifies information on the first position coordinates in the second image based on the second image (step S04). That is, in the second image, the light quantity shortage (blackout) area specified in the first image is specified.
  • the image generation unit 25 replaces the information of the first image with the information of the second image for the first position coordinates. Thereby, in the first image, an intermediate image in which a portion having a luminance equal to or lower than the first threshold is replaced with a part of the second image corresponding to the portion is acquired (step S05).
  • an intermediate image without blackout can be acquired.
  • An object such as a sign
  • the intensity of the reflected light from the object may be an intensity suitable for obtaining a clear image by the camera 6. Is expensive.
  • an object such as a pedestrian
  • the intensity of reflected light is often weak.
  • the light source unit 21 is set in the second mode with high illuminance so that the intensity of the reflected light from the object becomes a suitable intensity for a clear image by the camera 6, and the camera 6 captures an image.
  • blackout has not occurred in the image acquired by the camera 6 when the light source unit 21 is in the second irradiation mode. Therefore, the blacked out region in the image of FIG. 4B acquired by the camera 6 when the light source unit 21 is in the first irradiation mode is represented by the image of FIG. 4C acquired by the camera 6 when the light source unit 21 is in the second irradiation mode. Replace. Thereby, an intermediate image without blackout can be acquired.
  • the vehicle lighting system 20 may additionally execute the following processing.
  • the image generation unit 25 specifies an excessive light amount (halation) region (B portion in FIG. 4C) in the acquired intermediate image (step S06). Specifically, the image generation unit 25 determines a portion having a luminance equal to or higher than a preset second threshold in the intermediate image, and specifies a second position coordinate that is a coordinate of the portion. And the image generation part 25 specifies the information of a 2nd position coordinate in a 1st image (step S07).
  • the second threshold value is a light intensity threshold value that is higher than the first threshold value.
  • the image generation unit 25 replaces the information of the intermediate image with the information of the first image for the second position coordinates. Thereby, in the second image portion in the intermediate image, an output image in which a portion having a luminance equal to or higher than the second threshold is replaced with a part of the first image corresponding to the portion is complemented (step S08). .
  • the image generation unit 25 determines that the acquired intermediate image (step S05) does not have a luminance portion equal to or higher than the second threshold and does not have excessive light amount (halation), the acquired intermediate image is used as an output image. The process ends.
  • the vehicle system 2 After the above-described image complementation processing, the vehicle system 2 acquires peripheral information such as a pedestrian, an oncoming vehicle, a preceding vehicle, a sign, and a road surface from the obtained output image, and automatically drives the vehicle 1 based on the peripheral information. Control.
  • the imaging control unit 24 issues a command to the illuminance setting unit 22 to switch the irradiation mode of the light source unit 21, thereby acquiring the first image and the second image. Accordingly, the shooting timing of the first image and the second image is slightly different, and the shooting points of both the first image and the second image are shifted. For this reason, the vehicle illumination system 20 captures the first image and the second image in a short time without affecting the image complementing process. Note that a correction process for correcting a positional shift between the first image and the second image may be performed before the image is complemented.
  • an output image is generated from the first image and the second image.
  • the first image and the second image have a relationship in which one disadvantage is complemented by the other advantage.
  • a dark object that is difficult to recognize due to insufficient light quantity in the first image is more easily recognized by the portion replaced by the second image. In this way, a clear image can be obtained by replacing the hard-to-recognize portion of the first image with the portion of the second image.
  • the output images complemented with each other in the easily recognizable portions of the first image and the second image are acquired, so that the light quantity of the incident light is not affected.
  • the information ahead of the vehicle 1 can be acquired satisfactorily.
  • the first image and the second image are switched by alternately switching the irradiation mode in the light source unit 21 between the first irradiation mode and the second irradiation mode. It is possible to reliably acquire and perform image complement processing.
  • the light source unit 21 is configured to irradiate light forward of the vehicle 1 in the first irradiation mode with low illuminance at normal times, and the light source unit 21 is controlled to change to the second irradiation mode at predetermined intervals. By doing so, it is difficult to give glare to oncoming vehicles.
  • the flicker is not given to the driver even by switching between the first irradiation mode and the second irradiation mode.
  • peripheral information such as a pedestrian, an oncoming vehicle, a preceding vehicle, a sign, and a road surface, is acquired from the obtained output image, and this Control of automatic driving can be performed satisfactorily based on the peripheral information.
  • FIG. 6 is a flowchart showing image complementation processing by the vehicle lighting system 20 according to the second embodiment.
  • the imaging control unit 24 issues a command to the illuminance setting unit 22 and sets the light source unit 21 in the first irradiation mode, issues a command to the shutter control unit 23 and causes the camera 6 to image the front of the vehicle 1 and the image.
  • the first image which is data, is output to the image generation unit 25 (step S11). Thereby, the image generation unit 25 acquires the image shown in FIG. 4B.
  • the imaging control unit 24 issues a command to the illuminance setting unit 22 and the light source unit 21 is in the second irradiation mode
  • the imaging control unit 24 issues a command to the shutter control unit 23 to cause the camera 6 to image the front of the vehicle 1.
  • the second image which is the image data, is output to the image generation unit 25 (step S12).
  • the image generation part 25 acquires the image shown to FIG. 4C.
  • the image generation unit 25 identifies an excessive light amount (halation) region (B portion in FIG. 4C) in the second image transmitted from the camera 6 (step S13). Specifically, the image generation unit 25 determines a part of the second image whose luminance is equal to or higher than the second threshold value, and specifies a second position coordinate that is a coordinate of the part.
  • the image generation unit 25 specifies the information on the second position coordinates in the first image based on the first image (step S14). That is, in the first image, the excessive light amount (halation) area specified in the second image is specified.
  • the image generation unit 25 replaces the information of the second image with the information of the first image for the second position coordinates. Thereby, in the second image, an intermediate image in which a portion having a luminance equal to or higher than the second threshold is replaced with a part of the first image corresponding to the portion is acquired (step S15).
  • an intermediate image without halation can be acquired.
  • An object such as a pedestrian
  • the intensity of the reflected light from the object may be an intensity suitable for obtaining a clear image by the camera 6. Is expensive.
  • an object such as a sign
  • the intensity of the reflected light is often too high.
  • the light source unit 21 is set to the first mode with low illuminance so that the intensity of the reflected light from the object becomes a suitable intensity for a clear image by the camera 6, and the camera 6 captures an image.
  • the region in FIG. 4C acquired by the camera 6 when the light source unit 21 is in the second irradiation mode is an area where halation has occurred, and the image of FIG. 4B acquired by the camera 6 when the light source unit 21 is in the first irradiation mode.
  • the image generation unit 25 may execute the following processing as necessary.
  • an area where the light amount is insufficient (blackout) (part A in FIG. 4B) is specified (step S16).
  • the image generation unit 25 determines a portion below the first threshold in the intermediate image and specifies the first position coordinates that are the coordinates of the portion.
  • the image generation part 25 specifies the information of a 1st position coordinate in a 2nd image (step S17).
  • the image generation unit 25 replaces the information of the intermediate image with the information of the second image for the first position coordinates. Thereby, in the first image portion in the intermediate image, an output image in which a portion having a luminance equal to or lower than the first threshold is replaced with a part of the second image corresponding to the portion is complemented (step S18). .
  • the image generation unit 25 determines that the acquired intermediate image (step S15) does not have a luminance portion equal to or lower than the first threshold and that there is no light intensity (blackout), the acquired intermediate image is output as an output image. To finish the process.
  • the vehicle system 2 After the above-described image complementation processing, the vehicle system 2 acquires peripheral information such as a pedestrian, an oncoming vehicle, a preceding vehicle, a sign, and a road surface from the obtained output image, and automatically drives the vehicle 1 based on the peripheral information. Control.
  • the vehicle since the output images complemented with each other in the easily recognizable portions of the first image and the second image are acquired, the vehicle can be satisfactorily used regardless of the amount of incident light.
  • the information ahead of 1 can be acquired.
  • FIG. 7A and 7B show a vehicle 100 on which the vehicle illumination system 120 according to the third embodiment is mounted.
  • FIG. 7A shows a top view of the vehicle 100
  • FIG. 7B shows a side view of the vehicle 100.
  • the vehicle 100 is an automobile that can travel in the automatic operation mode, and includes a vehicle illumination system 120.
  • FIG. 8 shows a block diagram of the vehicle system 200.
  • the vehicle system 200 includes a vehicle control unit 3, a sensor 5, a camera unit 30, a radar 7, an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, and a radio.
  • a communication unit 10 and a map information storage unit 11 are provided.
  • the vehicle system 200 includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • the vehicle control unit 3 is composed of an electronic control unit (ECU).
  • the electronic control unit includes a processor such as a CPU (Central Processing Unit), a ROM (Read Only Memory) in which various vehicle control programs are stored, and a RAM (Random Access Memory) in which various vehicle control data are temporarily stored. It is comprised by.
  • the processor is configured to develop a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the vehicle control unit 3 is configured to control the traveling of the vehicle 100.
  • the sensor 5 includes an acceleration sensor, a speed sensor, a gyro sensor, and the like.
  • the sensor 5 is configured to detect the traveling state of the vehicle 100 and output traveling state information to the vehicle control unit 3.
  • the sensor 5 is a seating sensor that detects whether the driver is sitting in the driver's seat, a face direction sensor that detects the direction of the driver's face, an external weather sensor that detects external weather conditions, and whether there is a person in the vehicle. You may further provide the human sensor etc. to detect.
  • the sensor 5 may include an illuminance sensor that detects the illuminance of the surrounding environment of the vehicle 100.
  • the camera unit 30 is a camera including an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS).
  • the camera unit 30 is a camera that detects visible light or an infrared camera that detects infrared rays.
  • the radar 7 is a millimeter wave radar, a microwave radar, a laser radar, or the like.
  • the camera unit 30 and the radar 7 are configured to detect the surrounding environment (another vehicle, a pedestrian, a road shape, a traffic sign, an obstacle, etc.) of the vehicle 100 and output the surrounding environment information to the vehicle control unit 3. Yes.
  • the HMI 8 includes an input unit that receives an input operation from the driver, and an output unit that outputs traveling information and the like to the driver.
  • the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode switching switch for switching the operation mode of the vehicle 100, and the like.
  • the output unit is a display that displays various travel information.
  • the GPS 9 is configured to acquire the current position information of the vehicle 100 and output the acquired current position information to the vehicle control unit 3.
  • the wireless communication unit 10 is configured to receive travel information of other vehicles around the vehicle 100 from other vehicles and transmit the travel information of the vehicle 100 to other vehicles (inter-vehicle communication).
  • the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as traffic lights and beacon lights, and to transmit travel information of the vehicle 100 to the infrastructure equipment (road-to-vehicle communication).
  • the map information storage unit 11 is an external storage device such as a hard disk drive in which map information is stored, and is configured to output the map information to the vehicle control unit 3.
  • the vehicle control unit 3 selects at least one of the steering control signal, the accelerator control signal, and the brake control signal based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. Generate one automatically.
  • the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
  • the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
  • the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and to control the accelerator device 17 based on the received accelerator control signal.
  • traveling of the vehicle 100 is automatically controlled by the vehicle system 200.
  • the vehicle control unit 3 when the vehicle 100 travels in the manual operation mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal in accordance with the driver's manual operation with respect to the accelerator pedal, the brake pedal, and the steering wheel.
  • the steering control signal, the accelerator control signal, and the brake control signal are generated by the driver's manual operation, so that the traveling of the vehicle 100 is controlled by the driver.
  • the operation mode includes an automatic operation mode and a manual operation mode.
  • the automatic driving mode includes a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
  • the vehicle system 200 automatically performs all traveling control of steering control, brake control, and accelerator control, and the driver is not in a state in which the vehicle 100 can be driven.
  • the vehicle system 200 automatically performs all the traveling control of the steering control, the brake control, and the accelerator control, and the driver does not drive the vehicle 100 even though the vehicle 100 can be driven.
  • the vehicle system 200 In the driving support mode, the vehicle system 200 automatically performs some travel control among steering control, brake control, and accelerator control, and the driver drives the vehicle 100 under the driving support of the vehicle system 200.
  • the vehicle system 200 In the manual operation mode, the vehicle system 200 does not automatically perform traveling control, and the driver drives the vehicle 100 without driving assistance from the vehicle system 200.
  • the operation mode of the vehicle 100 may be switched by operating an operation mode switch.
  • the vehicle control unit 3 changes the driving mode of the vehicle 100 into four driving modes (fully automatic driving mode, advanced driving support mode, driving support mode, manual driving mode) according to the driver's operation on the driving mode changeover switch. ).
  • the driving mode of the vehicle 100 is automatically set based on information on a travelable section where the autonomous driving vehicle can travel, information on a travel prohibition section where travel of the autonomous driving vehicle is prohibited, or information on external weather conditions. It may be switched.
  • the vehicle control unit 3 switches the operation mode of the vehicle 100 based on these pieces of information.
  • the driving mode of the vehicle 100 may be automatically switched by using a seating sensor, a face direction sensor, or the like. In this case, the vehicle control unit 3 switches the operation mode of the vehicle 100 based on output signals from the seating sensor and the face direction sensor.
  • the vehicle illumination system 120 includes a light source unit 21 and a camera unit 30.
  • the light source unit 21 is provided on the left and right in the front portion of the vehicle 100 and irradiates the front of the vehicle 100.
  • the camera unit 30 includes a first camera 6 ⁇ / b> A and a second camera 6 ⁇ / b> B that are disposed at a front portion of the vehicle 100 with an interval in the width direction.
  • the light source unit 21, the first camera 6 ⁇ / b> A, and the second camera 6 ⁇ / b> B are each connected to the vehicle control unit 3.
  • the light source unit 21 and the camera unit 30 may be separate bodies, or the light source unit 21, the first camera 6A, and the second camera 6B may be provided integrally.
  • the light source unit 21 is a light source mounted on a lamp that irradiates light to the entire imaging range of the camera unit 30.
  • the light source unit 21 is mounted inside the vehicle headlamp.
  • FIG. 9 is a block diagram of the vehicle lighting system 120. As shown in FIG. 9, the vehicular lighting system 120 includes a shooting control unit 24 and an image generation unit 25. The imaging control unit 24 and the image generation unit 25 are provided in the vehicle control unit 3.
  • the camera unit 30 includes a shutter control unit 23, a sensitivity setting unit 26, and an exposure time setting unit 27.
  • the first camera 6A and the second camera 6B are connected to the shutter control unit 23, the sensitivity setting unit 26, and the exposure time setting unit 27, respectively.
  • These shutter control unit 23, sensitivity setting unit 26 and exposure time setting unit 27 are connected to the imaging control unit 24.
  • the first camera 6 ⁇ / b> A and the second camera 6 ⁇ / b> B are connected to the image generation unit 25 of the vehicle control unit 3, and transmit captured image data to the image generation unit 25.
  • the image generation unit 25 acquires image data from the first camera 6A and the second camera 6B, and performs arithmetic processing on the acquired images.
  • the first camera 6A and the second camera 6B are cameras capable of adjusting sensitivity and exposure time, respectively.
  • the shutter control unit 23 controls the imaging timing of the first camera 6A and the second camera 6B based on a command from the imaging control unit 24.
  • the sensitivity setting unit 26 sets the sensitivity of the first camera 6A and the second camera 6B based on a command from the imaging control unit 24.
  • the exposure time setting unit 27 sets the exposure times of the first camera 6A and the second camera 6B based on a command from the imaging control unit 24.
  • the camera unit 30 can take an image of the front of the vehicle 100 in at least two shooting modes including a first shooting mode and a second shooting mode according to a command from the shooting control unit 24.
  • the second shooting mode is a shooting mode for shooting with higher sensitivity and longer exposure time than the first shooting mode.
  • the second shooting mode may be a shooting mode in which shooting is performed with higher sensitivity or longer exposure time than the first shooting mode.
  • the first shooting mode may be set to the same exposure time with higher sensitivity than the second shooting mode.
  • the first shooting mode may be set to the same sensitivity with an exposure time longer than that of the second shooting mode.
  • the camera unit 30 may be configured to be able to shoot in three or more shooting modes having different sensitivities and exposure times.
  • the camera unit 30 sets shooting with the first camera 6A to the first shooting mode and sets shooting with the second camera 6B to the second shooting mode in response to a command from the shooting control unit 24. 6A and the second camera 6B are photographed simultaneously.
  • the camera unit 30 transmits the first image data captured by the first camera 6 ⁇ / b> A and the second image data captured by the second camera 6 ⁇ / b> B to the image generation unit 25.
  • the first camera 6A and the second camera 6B capture the front of the vehicle 100 in order to detect the surrounding environment of the vehicle 100 during automatic driving, and information on pedestrians, oncoming vehicles, preceding vehicles, signs, road surfaces, and the like. To get. And the vehicle control part 3 controls the automatic driving
  • the sensitivity of the camera is high and / or the exposure time is set to be long. This secures the amount of light received from the object and obtains a clear image without blackout.
  • the camera sensitivity is set low and / or the exposure time is set short. Thereby, the amount of light received from the object is adjusted to obtain a clear image without halation.
  • the camera sensitivity is set by adjusting the aperture value and ISO sensitivity of the camera.
  • the camera sensitivity is set high or the exposure time is set long so that pedestrians can be recognized efficiently, a clear image without blackout can be obtained.
  • the halation is caused by reflected light from the sign, light emitted from the headlight of the oncoming vehicle, light emitted from the sign light of the preceding vehicle, reflected light from the road surface in the immediate vicinity of the host vehicle, etc. It is difficult to recognize these efficiently.
  • the first shooting mode of the first camera 6A has lower sensitivity and shorter exposure time than the second shooting mode of the second camera 6B. Therefore, if the actual image in front of the vehicle 100 is the image shown in FIG. 4A, the image (first image) taken by the first camera 6A in the first shooting mode is caused by excessive light quantity as shown in FIG. 4B. It is easy to recognize an object with high reflectivity such as the sign H without causing halation. However, on the other hand, the first image is likely to have blackout (A portion indicated by hatching in FIG. 4B) in which the light amount is insufficient and the image is darkened.
  • the second shooting mode of the second camera 6B has higher sensitivity and longer exposure time than the first shooting mode of the first camera 6A. Therefore, the image (second image) photographed by the second camera 6B in the second photographing mode can easily recognize a dark object without causing blackout due to insufficient light quantity.
  • the second image tends to cause halation (B portion in FIG. 4C) due to an excessive amount of light in an object such as a marker H.
  • the image captured by the camera unit 30 with the first camera 6A in the first irradiation mode or the image captured with the second camera 6B in the second irradiation mode may not be a clear image. Therefore, in the third embodiment, the first image and the second image are described as described below in order to improve the recognition of the object in the image captured by the camera unit 30 for acquiring the peripheral information of the vehicle 100. To generate a single output image.
  • FIG. 5 is a flowchart showing processing executed by the vehicle lighting system 120 according to the third embodiment, similarly to the first embodiment.
  • the imaging control unit 24 issues a command to the sensitivity setting unit 26 and the exposure time setting unit 27 to set the mode of the first camera 6A as the first imaging mode. Then, the shooting control unit 24 issues a command to the shutter control unit 23, causes the first camera 6A to take an image of the front of the vehicle 100 in the first shooting mode, and outputs the first image that is the image data to the image generation unit 25. (Step S01). Thereby, the image generation part 25 acquires the image of FIG. 4B mentioned above.
  • the shooting control unit 24 issues a command to the sensitivity setting unit 26 and the exposure time setting unit 27 to set the mode of the second camera 6B to the second shooting mode. Then, the shooting control unit 24 issues a command to the shutter control unit 23, causes the second camera 6B to capture the front of the vehicle 100 in the second shooting mode, and outputs the second image that is the image data to the image generation unit 25. (Step S02). Thereby, the image generation part 25 acquires the image of FIG. 4C mentioned above.
  • the imaging control unit 24 issues a command to the shutter control unit 23 so that the first camera 6A and the second camera 6B simultaneously perform imaging in front of the vehicle 100.
  • the image generation unit 25 specifies a region where the light amount is insufficient (blackout) (A portion in FIG. 4B) in the first image transmitted from the first camera 6A (step S03). Specifically, the image generation unit 25 determines a portion of the first image that is equal to or lower than a first threshold value that is a preset luminance threshold value, and specifies first position coordinates that are coordinates of the portion.
  • the image generation unit 25 specifies information on the first position coordinate in the second image based on the second image transmitted from the second camera 6B (step S04). That is, in the second image, the light quantity shortage (blackout) area specified in the first image is specified.
  • the image generation unit 25 replaces the information of the first image with the information of the second image for the first position coordinates. Thereby, in the first image, an intermediate image in which a portion having a luminance equal to or lower than the first threshold is replaced with a part of the second image corresponding to the portion is acquired (step S05).
  • an intermediate image without blackout can be acquired.
  • An object such as a sign
  • the first camera 6A of the camera unit 30 captures an image in the first photographing mode with low sensitivity and short exposure time, the first camera 6A acquires a clear image of the intensity of reflected light from the object.
  • the strength is suitable for.
  • an object such as a pedestrian
  • the intensity of reflected light is often weak.
  • the image is captured by the second camera 6B in the second imaging mode in which the sensitivity is high and the exposure time is long so that it is suitable for capturing an image with a clear intensity of reflected light from the object.
  • the vehicle lighting system 120 may additionally execute the following processing.
  • the image generation unit 25 specifies an excessive light amount (halation) region (B portion in FIG. 4C) in the acquired intermediate image (step S06). Specifically, the image generation unit 25 determines a portion having a luminance equal to or higher than a preset second threshold in the intermediate image, and specifies a second position coordinate that is a coordinate of the portion. And the image generation part 25 specifies the information of a 2nd position coordinate in a 1st image (step S07).
  • the second threshold is a threshold having a higher brightness than the first threshold.
  • the image generation unit 25 replaces the information of the intermediate image with the information of the first image for the second position coordinates. Thereby, in the second image portion in the intermediate image, an output image in which a portion having a luminance equal to or higher than the second threshold is replaced with a part of the first image corresponding to the portion is complemented (step S08). .
  • the image generation unit 25 determines that the acquired intermediate image (step S05) does not have a luminance portion equal to or higher than the second threshold and does not have excessive light amount (halation), the acquired intermediate image is used as an output image. The process ends.
  • the vehicle system 200 acquires peripheral information such as a pedestrian, an oncoming vehicle, a preceding vehicle, a sign, and a road surface from the obtained output image, and automatically drives the vehicle 100 based on the peripheral information. Control.
  • the camera unit 30 has a higher sensitivity than the first shooting mode and the first shooting mode and / or exposure time.
  • the front of the vehicle 100 can be imaged in the long second imaging mode. And an output image is produced
  • the first image captured in the first imaging mode and the second image captured in the second imaging mode with higher sensitivity and / or longer exposure time than the first imaging mode have one disadvantage in the other It has a complementary relationship.
  • the output images complemented each other are obtained by substituting the easily recognizable portions of the first image and the second image.
  • the information ahead of the vehicle 100 can be acquired well regardless of the amount of light.
  • the camera unit 30 captures the front of the vehicle in the first photographing mode and the second camera that photographs the front of the vehicle in the second photographing mode. 6B is photographed at the same time. Therefore, since the first image and the second image can be acquired without a time difference, there is no positional deviation of the object between the first image and the second image, and the positional relationship between the first image and the second image is associated. It's easy to do.
  • peripheral information such as a pedestrian, an oncoming vehicle, a preceding vehicle, a sign, a road surface, is acquired from the obtained output image, and this Control of automatic driving can be performed satisfactorily based on the peripheral information.
  • FIG. 6 is a flowchart showing image complementation processing by the vehicle lighting system 120 according to the fourth embodiment, as in the second embodiment.
  • the imaging control unit 24 issues a command to the sensitivity setting unit 26 and the exposure time setting unit 27 to set the mode of the first camera 6A as the first imaging mode. Then, the shooting control unit 24 issues a command to the shutter control unit 23, causes the first camera 6A to image the front of the vehicle 100 in the first shooting mode, and outputs the first image as the image data to the image generation unit 25. (Step S11). Thereby, the image generation unit 25 acquires the image shown in FIG. 4B.
  • the shooting control unit 24 issues a command to the sensitivity setting unit 26 and the exposure time setting unit 27 to set the mode of the second camera 6B to the second shooting mode. Then, the shooting control unit 24 issues a command to the shutter control unit 23, causes the second camera 6B to capture the front of the vehicle 100 in the second shooting mode, and outputs the second image that is the image data to the image generation unit 25. (Step S12). Thereby, the image generation part 25 acquires the image shown to FIG. 4C.
  • the imaging control unit 24 issues a command to the shutter control unit 23 so that the first camera 6A and the second camera 6B simultaneously perform imaging in front of the vehicle 100.
  • the image generation unit 25 identifies an excessive light amount (halation) region (B portion in FIG. 4C) in the second image transmitted from the second camera 6B (step S13). Specifically, the image generation unit 25 determines a part of the second image whose luminance is equal to or higher than the second threshold value, and specifies a second position coordinate that is a coordinate of the part.
  • the image generation unit 25 specifies information on the second position coordinates in the first image based on the first image transmitted from the first camera 6A (step S14). That is, in the first image, the excessive light amount (halation) area specified in the second image is specified.
  • the image generation unit 25 replaces the information of the second image with the information of the first image for the second position coordinates. Thereby, in the second image, an intermediate image in which a portion having a luminance equal to or higher than the second threshold is replaced with a part of the first image corresponding to the portion is acquired (step S15).
  • the image is captured by the first camera 6A in the first imaging mode in which the sensitivity is low and the exposure time is shortened so that the intensity of the reflected light from the object is suitable for capturing a clear image.
  • the image generation unit 25 may execute the following processing as necessary.
  • an area where the light amount is insufficient (blackout) (part A in FIG. 4B) is specified (step S16).
  • the image generation unit 25 determines a portion where the luminance is equal to or less than the first threshold in the intermediate image, and specifies the first position coordinates that are the coordinates of the portion.
  • the image generation part 25 specifies the information of a 1st position coordinate in a 2nd image (step S17).
  • the image generation unit 25 replaces the information of the intermediate image with the information of the second image for the first position coordinates. Thereby, in the first image portion in the intermediate image, an output image in which a portion having a luminance equal to or lower than the first threshold is replaced with a part of the second image corresponding to the portion is complemented (step S18). .
  • the image generation unit 25 determines that the acquired intermediate image (step S15) does not have a luminance portion equal to or lower than the first threshold and that there is no light intensity (blackout), the acquired intermediate image is output as an output image. To finish the process.
  • the vehicle system 200 acquires peripheral information such as a pedestrian, an oncoming vehicle, a preceding vehicle, a sign, and a road surface from the obtained output image, and automatically drives the vehicle 100 based on the peripheral information. Control.
  • the vehicular illumination system 120 by replacing the hard-to-recognize part of the second image with the part of the first image, the first image and the second image can be easily recognized. Get the complemented output image. Therefore, information ahead of the vehicle 100 can be obtained with good and certainty from the output image regardless of the amount of incident light.
  • the present invention is not limited to this.
  • a first camera that can only shoot in the first shooting mode and a camera unit that can shoot only in the second shooting mode or that has a second camera obtain a first image from the first camera
  • You may comprise so that a 2nd image may be acquired from a camera.
  • the camera unit 30 includes the first camera 6A and the second camera 6B.
  • the present invention is not limited to this.
  • the camera control unit 24 controls the camera unit 30 including one camera by issuing a command to the shutter control unit 23
  • the first image capture mode and the second image capture mode are switched alternately. Two images may be taken.
  • the camera unit 30 can be composed of a single camera, the vehicle lighting system 120 can be simplified.
  • the imaging control unit 24 captures the first image with a short exposure time after capturing in the second imaging mode with a long exposure time. It is preferable to shoot in one shooting mode. If it does in this way, a 1st image and a 2nd image can be acquired by a short time difference, and position shift of a subject between the 1st image and the 2nd image can be suppressed as much as possible.
  • the driving mode of the vehicle has been described as including the fully automatic driving mode, the advanced driving support mode, the driving support mode, and the manual driving mode. Should not be limited to mode.
  • the driving mode of the vehicle may include at least one of these four modes.
  • the driving mode of the vehicle may include only the fully automatic driving mode.
  • the vehicular lighting device is configured to always display information indicating the fully automatic operation mode toward the outside of the vehicle.
  • the driving mode of the vehicle may include only the manual driving mode.
  • the vehicular illumination device is configured to always display information indicating the manual operation mode toward the outside of the vehicle.
  • the classification and display form of the driving mode of the vehicle may be changed as appropriate in accordance with laws and regulations concerning automatic driving in each country.
  • the definitions of “fully automated driving mode”, “advanced driving support mode”, and “driving support mode” described in the description of the present embodiment are merely examples, and laws or regulations relating to automatic driving in each country or In accordance with the rules, these definitions may be changed as appropriate.
  • the light source unit 21 is a light source mounted on a lamp that can irradiate the entire imaging range of the camera 6
  • the light source unit may be a light source mounted on a lamp capable of forming a high beam light distribution pattern.
  • the lamp including the light source unit forms a high beam light distribution pattern in the first irradiation mode with normal illuminance and a high beam light distribution pattern in the second irradiation mode with higher illuminance than the first irradiation mode.
  • the light source unit may be a light source mounted on a lamp capable of forming a low beam light distribution pattern, or a light source mounted on a lamp capable of forming a light distribution pattern other than a high beam light distribution pattern or a low beam light distribution pattern. It may be.
  • the present invention is not limited thereto.
  • the light source unit may be mounted on the vehicle separately from the lamp that can form the high beam distribution pattern and the low beam distribution pattern.
  • the light source unit 21 includes a first light source and a second light source that can emit light having different intensities, and the first image is acquired when the first light source is turned on and the second light source is turned off.
  • the second image may be acquired when the light source is turned off and the second light source is turned on.

Abstract

第一照射モードと、第一照射モードよりも高い照度で光を照射する第二照射モードで車両(1)の前方へ光を照射可能な光源ユニット(21)と、車両(1)の前方を撮像可能なカメラ(6)と、光源ユニット(21)の照射モード、および、カメラ(6)の撮像タイミングを設定する撮影制御部(24)と、カメラ(6)が取得した画像を演算処理する画像生成部(25)と、を有し、撮影制御部(24)は、光源ユニット(21)が第一照射モードで車両(1)の前方を照射しているときに、カメラ(6)により車両(1)の前方を撮像させて第一画像を画像生成部(25)へ出力させ、光源ユニット(21)が第二照射モードで車両(1)の前方を照射しているときに、カメラ(6)により車両(1)の前方を撮像させて第二画像を画像生成部(25)へ出力させ、画像生成部(25)は、第一画像と第二画像とにより単一の出力画像を生成する。

Description

車両用照明システムおよび車両
 本発明は、車両用照明システムおよび車両に関する。
 現在、自動車の自動運転技術の研究が各国で盛んに行われており、車両が自動運転モードで公道を走行可能とするための法整備が各国で検討されている。ここで、自動運転モードとは、車両の走行が自動制御されるモードをいう。一方、手動運転モードとは、車両の走行が運転者により制御されるモードをいう。自動運転車ではコンピュータにより自動的に車両の走行が制御される。
 このように、将来において、公道上では自動運転モードで走行中の車両(以下、自動運転車という。)と手動運転モードで走行中の車両(以下、手動運転車という。)が混在することが予想される。
 特許文献1には、先行車に後続車が自動追従走行した自動追従走行システムが開示されている。当該自動追従走行システムでは、先行車と後続車の各々が表示装置を備えており、先行車と後続車との間に他車が割り込むことを防止するための文字情報が先行車の表示装置に表示されると共に、自動追従走行である旨を示す文字情報が後続車の表示装置に表示される。
日本国特開平9-277887号公報
 ところで、自動運転の車両は、カメラによって前方の情報を取得し、取得した情報に応じて車両を制御している。このカメラに対向車の前照灯から出射された光などの強い光が入射すると、カメラにハレーションが生じてしまい、車両前方の情報を効率的に取得しにくくなる。
 本発明は、入射する光の光量によらず良好に車両前方の情報を取得できる車両用照明システムおよび車両を提供することを目的とする。
(1) 本発明にかかる車両用照明システムは、
 第一照射モードと、前記第一照射モードよりも高い照度で光を照射する第二照射モードを含む少なくとも2つの照射モードで車両前方へ光を照射可能な光源ユニットと、
 車両前方を撮像可能なカメラと、
 前記光源ユニットの照射モード、および、前記カメラの撮像タイミングを設定する撮影制御部と、
 前記カメラが取得した画像を演算処理する画像生成部と、を有し、
 前記撮影制御部は、
  前記光源ユニットが前記第一照射モードで車両前方を照射しているときに、前記カメラにより車両前方を撮像させて第一画像を前記画像生成部へ出力させ、
  前記光源ユニットが前記第二照射モードで車両前方を照射しているときに、前記カメラにより車両前方を撮像させて第二画像を前記画像生成部へ出力させ、
 前記画像生成部は、前記第一画像と前記第二画像とにより単一の出力画像を生成する。
 この構成の車両用照明システムによれば、第一画像と第二画像とにより、出力画像を生成する。第一画像と第二画像は、一方の短所が他方の長所で補完される関係を有する。したがって両者から出力画像を生成することにより、第一画像において光量不足により認識しにくい暗い対象物は、第二画像により認識しやすくなる。第二画像においてハレーションが生じてしまい認識しにくい明るい対象物は、第一画像により認識しやすくなる。このように、本発明に係る車両用照明システムによれば、入射する光の光量によらず良好に車両前方の情報を取得できる。
(2) 上記本発明に係る車両用照明システムにおいて、前記画像生成部は、前記第一画像において第一閾値以下の輝度の部分を該部分に対応する前記第二画像の一部で置換し、および/または、前記第二画像で前記第一閾値より高い第二閾値以上の輝度の部分を該部分に対応する前記第一画像の一部で置換して、前記出力画像を得るものでもよい。
 この構成の車両用照明システムによれば、第一画像において光量不足により認識しにくい暗い対象物は、第二画像により置換された部分により認識しやすくなる。第二画像においてハレーションが生じてしまい認識しにくい明るい対象物は、第一画像により置換された部分により認識しやすくなる。したがって、第一画像の認識しにくい部分を第二画像の部分で置換し、第二画像の認識しにくい部分を第一画像の部分で置換することで、画像を良好に補完することができる。
(3) 上記本発明に係る車両用照明システムにおいて、前記撮影制御部は、前記第一照射モードと前記第二照射モードとを交互に切り替えるように前記光源ユニットを制御するものでもよい。
 この構成の車両用照明システムによれば、光源ユニットで照射モードを第一照射モードと第二照射モードとに交互に切り替えることで、第一画像と第二画像とを確実に取得して画像の補完処理を行うことができる。
(4) 上記本発明に係る車両用照明システムにおいて、
 前記光源ユニットは、通常時は前記第一照射モードで車両前方へ光を照射するように構成され、
 前記撮影制御部は、所定間隔おきに前記第二照射モードへ変更するように前記光源ユニットを制御するものでもよい。
 この構成の車両用照明システムによれば、光源ユニットは、通常時は低い照度である第一照射モードで光を照射するので、対向車などにグレアを与えにくい。
(5) 上記本発明に係る車両用照明システムにおいて、前記所定間隔は20msec以下であるものでもよい。
 この構成の車両用照明システムによれば、第一照射モードと第二照射モードとの切替によっても、運転者にちらつき感(flicker)を与えない。
(6) 本発明にかかる車両用照明システムは、
 車両前方へ光を照射可能な光源ユニットと、
 第一撮影モードと、前記第一撮影モードよりも感度の高い、および/または、露光時間の長い第二撮影モードを含む少なくとも2つの撮影モードで車両前方を撮像可能なカメラユニットと、
 前記カメラユニットの前記撮影モードおよび撮像タイミングを設定する撮影制御部と、
 前記カメラユニットが取得した画像を演算処理する画像生成部と、を有し、
 前記撮影制御部は、
  前記カメラユニットにより前記第一撮影モードで車両前方を撮像させて第一画像を前記画像生成部へ出力させ、
  前記カメラユニットにより前記第二撮影モードで車両前方を撮像させて第二画像を前記画像生成部へ出力させ、
 前記画像生成部は、前記第一画像と前記第二画像とにより単一の出力画像を生成する。
 この構成の車両用照明システムによれば、カメラユニットは、第一撮影モードと、第一撮影モードよりも感度の高い、および/または、露光時間の長い第二撮影モードで車両前方を撮像可能である。そして、第一撮影モードで撮像された第一画像と第二撮影モードで撮像された第二画像とにより、出力画像を生成する。第一撮影モードで撮像された第一画像と、第一撮像モードよりも感度の高い、および/または、露光時間の長い第二撮像モードで撮像された第二画像は、一方の短所が他方の長所で補完される関係を有する。
 したがって、両者の画像から出力画像を生成することにより、第一画像において光量不足によりブラックアウトして認識しにくい暗い対象物は、第二画像により認識しやすくなる。第二画像において光量過多によるハレーションが生じて認識しにくい明るい対象物は、第一画像により認識しやすくなる。このように、第一画像および第二画像の認識しやすい部分を互いに置換することで互いに補完した出力画像を取得するので、入射する光の光量によらず良好に車両前方の情報を取得できる。
(7) 前記画像生成部は、前記第一画像において第一閾値以下の輝度の部分を該部分に対応する前記第二画像の一部で置換し、および/または、前記第二画像で前記第一閾値より高い第二閾値以上の輝度の部分を該部分に対応する前記第一画像の一部で置換して、前記出力画像を得るものでもよい。
 この構成の車両用照明システムによれば、第一画像において光量不足により認識しにくい暗い対象物は、第二画像により置換された部分により認識しやすくなる。第二画像において光量過多によるハレーションが生じてしまい認識しにくい明るい対象物は、第一画像により置換された部分により認識しやすくなる。したがって、第一画像の認識しにくい部分を第二画像の部分で置換する、あるいは、第二画像の認識しにくい部分を第一画像の部分で置換することで、画像を良好に補完することができ、光量過多によるハレーションが生じた箇所や光量不足によりブラックアウトが生じた箇所の情報を確実に取得できる。
(8) 前記カメラユニットは、
  前記第一撮影モードで車両前方を撮影する第一カメラと、
  前記第二撮影モードで車両前方を撮影する第二カメラと、を有し、
 前記撮影制御部は、前記第一カメラと前記第二カメラを同時に撮影させるものでもよい。
 この構成の車両用照明システムによれば、第一画像と第二画像とを時間差なく取得できるので、第一画像と第二画像との間において対象物の位置ずれがなく、第一画像と第二画像の位置関係の対応付けをしやすい。
(9) 前記撮影制御部は、前記第一撮影モードと前記第二撮影モードを交互に切り替えて前記カメラユニットに撮影させるものでもよい。
 この構成の車両用照明システムによれば、カメラユニットで撮影モードを第一撮影モードと第二撮影モードとに交互に切り替えることで、第一画像と第二画像とを確実に取得して画像の補完処理を行うことができる。しかも、単一のカメラでカメラユニットが構成できるので、システムを簡略にできる。
(10) 前記撮影制御部は、露光時間の短い前記第二撮影モードで撮影した後に前記第一撮影モードで撮影させるものでもよい。
 この構成の車両用照明システムによれば、短い時間差で第一画像と第二画像とを取得でき、第一画像と第二画像との間における対象物の位置ずれを極力抑えることができる。
(11) 本発明にかかる車両は、上記(1)から(10)のいずれかの車両用照明システムを備えている。
 この構成の車両によれば、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて、例えば、自動運転の制御を良好に行うことができる。
 本発明によれば、入射する光の光量によらず良好に車両前方の情報を取得できる車両用照明システムおよび車両が提供できる。
本発明の第一実施形態に係る車両の上面図である。 図1Aに示す車両の側面図である。 車両システムのブロック図である。 本発明の実施形態に係る車両用照明システムのブロック図である。 車両前方の映像を示す図であって、実際の映像を示す模式図である。 車両前方の映像を示す図であって、光量不足の画像を示す模式図である。 車両前方の映像を示す図であって、光量過多の画像を示す模式図である。 第一実施形態に係る車両用照明システムによる画像補完処理を示すフローチャートである。 第二実施形態に係る車両用照明システムによる画像補完処理を示すフローチャートである。 本発明の第三実施形態に係る車両の上面図である。 図7Aに示す車両の側面図である。 車両システムのブロック図である。 第三実施形態に係る車両用照明システムのブロック図である。
 以下、本発明の実施形態(以下、本実施形態という。)について図面を参照しながら説明する。尚、本実施形態の説明において既に説明された部材と同一の参照番号を有する部材については、説明の便宜上、その説明は省略する。また、本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 また、本実施形態の説明では、説明の便宜上、「左右方向」、「前後方向」、「上下方向」について適宜言及する。これらの方向は、図1A及び図1Bに示す車両1について設定された相対的な方向である。ここで、「上下方向」は、「上方向」及び「下方向」を含む方向である。「前後方向」は、「前方向」及び「後方向」を含む方向である。「左右方向」は、「左方向」及び「右方向」を含む方向である。
<第一実施形態>
 図1A及び図1Bは、第一実施形態に係る車両用照明システム20が搭載された車両1を示す。図1Aは、車両1の上面図を示し、図1Bは車両1の側面図を示す。車両1は、自動運転モードで走行可能な自動車であって、車両用照明システム20を備えている。
 まず、図2を参照して車両1の車両システム2について説明する。図2は、車両システム2のブロック図を示している。図2に示すように、車両システム2は、車両制御部3と、センサ5と、カメラ6と、レーダ7と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、地図情報記憶部11とを備えている。さらに、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備えている。
 車両制御部3は、電子制御ユニット(ECU)により構成されている。電子制御ユニットは、CPU(Central Processing Unit)等のプロセッサと、各種車両制御プログラムが記憶されたROM(Read Only Memory)と、各種車両制御データが一時的に記憶されるRAM(Random Access Memory)とにより構成されている。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。車両制御部3は、車両1の走行を制御するように構成されている。
 センサ5は、加速度センサ、速度センサ及びジャイロセンサ等を備えている。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。さらに、センサ5は、車両1の周辺環境の照度を検出する照度センサを備えていてもよい。
 カメラ6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、可視光を検出するカメラや、赤外線を検出する赤外線カメラである。レーダ7は、ミリ波レーダ、マイクロ波レーダ又はレーザーレーダ等である。カメラ6とレーダ7は、車両1の周辺環境(他車、歩行者、道路形状、交通標識、障害物等)を検出し、周辺環境情報を車両制御部3に出力するように構成されている。
 HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイである。
 GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。無線通信部10は、車両1の周囲にいる他車の走行情報を他車から受信すると共に、車両1の走行情報を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。地図情報記憶部11は、地図情報が記憶されたハードディスクドライブ等の外部記憶装置であって、地図情報を車両制御部3に出力するように構成されている。
 車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
 一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
 次に、車両1の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両1を運転する。
 また、車両1の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両1の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両1の運転モードは、自動運転車が走行可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両1の運転モードを切り替える。さらに、車両1の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両1の運転モードを切り替える。
 次に、車両用照明システム20の詳細を説明する。図1A及び図1Bに示すように、車両用照明システム20は、光源ユニット21と、カメラ6とを備えている。光源ユニット21は、車両1の前部における左右に設けられており、車両1の前方を照射する。カメラ6は、車両1の前部における幅方向の中央付近に設けられている。光源ユニット21及びカメラ6は、それぞれ車両制御部3に接続されている。なお、光源ユニット21とカメラ6とは、別体のものに限らず、光源ユニット21にカメラ6が一体に設けられたものでも良い。
 図3は、車両用照明システム20のブロック図である。図3に示すように、車両用照明システム20は、撮影制御部24と、画像生成部25とを備えている。撮影制御部24及び画像生成部25は、車両制御部3に設けられている。
 光源ユニット21は、照度設定部22に接続されており、照度設定部22は、車両制御部3の撮影制御部24に接続されている。光源ユニット21は、第一照射モードと、第一照射モードよりも高い照度で光を照射する第二照射モードを含む少なくとも2つの照射モードで車両前方へ光を照射可能に構成されている。光源ユニット21は、本実施形態では、車両前方のカメラ6の撮像範囲の全体に光を照射する灯具に搭載された光源である。光源ユニット21は、ハイビーム配光パターンやロービーム配光パターンを形成可能な車両用前照灯の内部に搭載されている。
 照度設定部22は、撮影制御部24からの指令に基づいて、光源ユニット21の照度制御を行う。光源ユニット21は、照度設定部22の照度制御によって第一照射モードと第二照射モードとに切り替えられる。照度設定部22と光源ユニット21が車両1のランプユニットを構成する部品である。
 カメラ6は、シャッタ制御部23に接続されている。シャッタ制御部23は、車両用制御部3の撮影制御部24に接続されている。カメラ6は、車両1の前方の映像を撮影して車両1の前方の情報を取得する。シャッタ制御部23は、撮影制御部24からの指令に基づいて、カメラ6による撮像タイミングを制御する。カメラ6は、車両用制御部3の画像生成部25に接続されており、撮影した画像のデータを画像生成部25に送信する。画像生成部25は、カメラ6から画像のデータを取得し、取得した画像を演算処理する。
 カメラ6は、自動運転の際の車両1の周辺環境を検出するために車両1の前方を撮影し、歩行者、対向車、前走車、標識、路面などの情報を取得する。そして、車両制御部3は、カメラ6からの画像から得られる車両1の周辺情報に基づいて車両1の自動運転の制御を行う。
 ところで、カメラは、人間の目に比べて、明るい対象物と暗い対象物とを同時に認識することが難しい。例えば、暗い対象物を撮像する場合には、カメラの感度が高く設定されるか露光時間が長く設定される。これにより、対象物から受け取る光の量を確保して、ブラックアウトのない明瞭な像を取得する。逆に、明るい対象物を撮像する場合には、カメラの感度が低く設定されるか露光時間が短く設定される。これにより、対象物から受け取る光の量を調整して、ハレーションのない明瞭な像を取得する。なお、カメラの感度の設定は、カメラの絞り値やISO感度を調整することで設定される。
 自動運転可能な車両に搭載されるカメラが情報として取得する歩行者、対向車、前走車、標識、路面などの対象物のうち、標識からの反射光、対向車の前照灯から出射される光、前走車の標識灯から出射される光、自車両のすぐ近傍の路面からの反射光は、その強度が高い。このため、これらの光の強度に適合するように、カメラの感度や露光時間を設定しておくと、強い光で画像が白くぼやけるハレーションが生じることなくこれらの対象物を明確に認識できる。しかしその一方で、歩行者からの反射光は弱いため、カメラが歩行者を効率よく認識することが難しい。
 一方で、歩行者を効率よく認識できるようにカメラの感度を高く設定したり露光時間を長く設定しておくと、ブラックアウトのない明瞭な像を取得できる。しかしその一方で、標識からの反射光、対向車の前照灯から出射される光、前走車の標識灯から出射される光、自車両のすぐ近傍の路面からの反射光などによってハレーションが生じてしまい、これらを効率よく認識することが難しい。
 図4Aから図4Cは、車両1の前方の映像を示す図であって、図4Aは実際の映像を示す模式図、図4Bは光量不足の画像を示す模式図、図4Cは光量過多の画像を示す模式図である。
 光源ユニット21は、第一照射モードでは、第二照射モードに比べて、照度の低い光を車両1の前方へ照射する。したがって、車両1の前方の実際の画像が図4Aに示す画像とすると、第一照射モードのときにカメラ6によって撮影された画像(第一画像)は、図4Bに示すように、光量過多によるハレーションを生じさせずに標識Hのような反射率の高い対象物を認識しやすいが、光量不足となって画像が暗転するブラックアウト(図4Bにおけるハッチングで示したA部)が生じやすい。
 光源ユニット21は、第二照射モードでは、第一照射モードに比べて照度の高い光を車両1の前方へ照射する。したがって、第二照射モードのときにカメラ6によって撮影された画像(第二画像)は、光量不足によるブラックアウトを生じさせずに暗い対象物を認識しやすいが、標識Hなどの対象物では、光量過多となってハレーション(図4CにおけるB部)が生じやすい。
 このように、光源ユニット21が第一照射モード、第二照射モードのそれぞれのときにカメラ6が撮像した画像の各々では、明瞭な画像を得ることが難しい場合がある。そこで、第一実施形態では、車両1の周辺情報を取得するためのカメラ6で撮像した画像における対象物の認識性を高めるために、次に説明するように、第一画像と第二画像とにより単一の出力画像を生成する処理を行う。
 図5は、第一実施形態に係る車両用照明システム20が実行する処理を示すフローチャートである。
 撮影制御部24は、照度設定部22に指令を出して光源ユニット21のモードを第一照射モードとしているときに、シャッタ制御部23へ指令を出してカメラ6により車両1の前方を撮像させる。そして、その画像データである第一画像を画像生成部25へ出力させる(ステップS01)。これにより、画像生成部25は、上述した図4Bの画像を取得する。
 また、撮影制御部24は、照度設定部22に指令を出して光源ユニット21のモードを第二照射モードとし、光源ユニット21がハイビームで車両1の前方を照射しているときに、シャッタ制御部23へ指令を出してカメラ6により車両1の前方を撮像させる。そして、その画像データである第二画像を画像生成部25へ出力させる(ステップS02)。これにより、画像生成部25は、上述した図4Cの画像を取得する。
 ここで、撮影制御部24は、例えば、光源ユニット21を、第一照射モードと第二照射モードとを所定間隔ごとに交互に切り替えて第一画像と第二画像とを取得するように、照度設定部22及びシャッタ制御部23へ指令を出す。なお、撮影制御部24は、通常時は光源ユニット21を第一照射モードで車両1の前方へ光を照射させるように照度設定部22に指令を出しておき、所定間隔おきに光源ユニット21を第二照射モードへ変更するように照度設定部22に指令を出すことで、第一画像と第二画像とを取得するようにしても良い。この場合、光源ユニット21の照射モードの切り替えるタイミングとなる所定間隔としては、20msec以下とするのが好ましい。
 次に、画像生成部25は、カメラ6から送信された第一画像において、光量不足(ブラックアウト)の領域(図4BにおけるA部)を特定する(ステップS03)。具体的には、画像生成部25は、第一画像において、予め設定した輝度の閾値である第一閾値以下の部分を割り出し、その部分の座標である第一位置座標を特定する。
 画像生成部25は、第二画像に基づいて、この第二画像における第一位置座標の情報を特定する(ステップS04)。つまり、第二画像において、第一画像で特定した光量不足(ブラックアウト)の領域を特定する。
 次いで、画像生成部25は、第一位置座標について、第一画像の情報を第二画像の情報に置換する。これにより、第一画像において、第一閾値以下の輝度の部分が、その部分に対応する第二画像の一部で置換された中間画像を取得する(ステップS05)。
 このように、図4Bにおいてブラックアウトした領域を、図4Cの画像により置換することにより、ブラックアウトのない中間画像を取得することができる。
 ブラックアウトが生じるおそれの少ない対象物(標識など)は反射率が高い。このため、光源ユニット21が比較的照度の弱い第一照射モードのときに、この対象物からの反射光の強度がカメラ6により明瞭な像を取得するのに適した強度となっている可能性が高い。
 一方で、ブラックアウトが生じやすい対象物(歩行者など)は反射率が低く、その反射光の強度が弱いことが多い。そこで、この対象物からの反射光の強度がカメラ6により明瞭な像を適した強度となるように、光源ユニット21を照度の高い第二モードとし、カメラ6で撮像する。光源ユニット21が第二照射モードのときにカメラ6で取得した画像にはブラックアウトが生じていない可能性が高い。
 そこで、光源ユニット21が第一照射モードのときにカメラ6が取得した図4Bの画像においてブラックアウトした領域を、光源ユニット21が第二照射モードのときにカメラ6が取得した図4Cの画像により置換する。これにより、ブラックアウトのない中間画像を取得することができる。
 なお、車両用照明システム20は以下の処理を追加で実行してもよい。
 画像生成部25は、取得した中間画像において、光量過多(ハレーション)の領域(図4CにおけるB部)を特定する(ステップS06)。具体的には、画像生成部25は、中間画像において、輝度が予め設定した第二閾値以上の部分を割り出し、その部分の座標である第二位置座標を特定する。そして、画像生成部25は、第一画像において、第二位置座標の情報を特定する(ステップS07)。第二閾値は、第一閾値より高い光量の閾値である。
 次いで、画像生成部25は、第二位置座標について、中間画像の情報を第一画像の情報に置換する。これにより、中間画像中の第二画像部分において、第二閾値以上の輝度の部分が、その部分に対応する第一画像の一部で置換されて補完された出力画像を取得する(ステップS08)。
 なお、画像生成部25は、取得した中間画像(ステップS05)に、第二閾値以上の輝度の部分がなく、光量過多(ハレーション)がないと判断した場合は、取得した中間画像を出力画像として処理を終了する。
 上記の画像補完処理後、車両システム2は、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて車両1の自動運転の制御を行う。
 なお、上記の画像補完処理では、撮影制御部24が照度設定部22に指令を出して光源ユニット21の照射モードを切り替えることで、第一画像及び第二画像を取得している。したがって、第一画像と第二画像とは、その撮影タイミングが僅かに異なり、第一画像と第二画像の両者の撮影ポイントがずれることとなる。このため、車両用照明システム20では、第一画像及び第二画像を、画像の補完処理に影響が生じることがない短時間で撮影する。なお、画像の補完を行う前に、第一画像と第二画像との位置ずれを補正する補正処理を行っても良い。
 以上、説明したように、第一実施形態に係る車両用照明システム20によれば、第一画像と第二画像とにより、出力画像を生成する。第一画像と第二画像は、一方の短所が他方の長所で補完される関係を有する。第一画像において光量不足により認識しにくい暗い対象物は、第二画像により置換された部分により認識しやすくなる。このように、第一画像の認識しにくい部分を第二画像の部分で置換することで、明瞭な画像を得ることができる。
 このように、第一実施形態に係る車両用照明システム20によれば、第一画像および第二画像の認識しやすい部分で互いに補完した出力画像を取得するので、入射する光の光量によらず良好に車両1の前方の情報を取得できる。
 特に、第一実施形態の車両用照明システム20によれば、光源ユニット21での照射モードを第一照射モードと第二照射モードとで交互に切り替えることで、第一画像と第二画像とを確実に取得して画像の補完処理を行うことができる。
 また、光源ユニット21を、通常時は照度の低い第一照射モードで車両1の前方へ光を照射するように構成し、所定間隔おきに第二照射モードへ変更するように光源ユニット21を制御することで、対向車などへグレアを与えにくい。
 この場合、光源ユニット21の照射モードの切り替える所定間隔を20msec以下とすれば、第一照射モードと第二照射モードとの切替によっても、運転者にちらつき感(flicker)を与えない。
 そして、第一実施形態に係る車両用照明システム20を備えた車両1によれば、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて自動運転の制御を良好に行うことができる。
<第二実施形態>
 次に、第二実施形態の画像補完処理について説明する。
 この第二実施形態では、画像補完処理における制御の流れが第一実施形態と異なる。
 図6は、第二実施形態に係る車両用照明システム20による画像補完処理を示すフローチャートである。
 撮影制御部24は、照度設定部22に指令を出して光源ユニット21を第一照射モードとしているときに、シャッタ制御部23へ指令を出してカメラ6により車両1の前方を撮像させ、その画像データである第一画像を画像生成部25へ出力させる(ステップS11)。これにより、画像生成部25は、図4Bに示した画像を取得する。
 また、撮影制御部24は、照度設定部22に指令を出して光源ユニット21を第二照射モードとしているときに、シャッタ制御部23へ指令を出してカメラ6により車両1の前方を撮像させ、その画像データである第二画像を画像生成部25へ出力させる(ステップS12)。これにより、画像生成部25は、図4Cに示した画像を取得する。
 次に、画像生成部25は、カメラ6から送信された第二画像において、光量過多(ハレーション)の領域(図4CにおけるB部)を特定する(ステップS13)。具体的には、画像生成部25は、第二画像において、輝度が第二閾値以上の部分を割り出し、その部分の座標である第二位置座標を特定する。
 画像生成部25は、第一画像に基づいて、この第一画像における第二位置座標の情報を特定する(ステップS14)。つまり、第一画像において、第二画像で特定した光量過多(ハレーション)の領域を特定する。
 次いで、画像生成部25は、第二位置座標について、第二画像の情報を第一画像の情報に置換する。これにより、第二画像において、第二閾値以上の輝度の部分が、その部分に対応する第一画像の一部で置換された中間画像を取得する(ステップS15)。
 このように、図4Cにおいてハレーションが生じた領域を、図4Bの画像により置換することにより、ハレーションのない中間画像を取得することができる。
 ハレーションが生じるおそれの少ない対象物(歩行者など)は反射率が低い。このため、光源ユニット21が比較的照度の高い第二照射モードのときに、この対象物からの反射光の強度がカメラ6により明瞭な像を取得するのに適した強度となっている可能性が高い。
 一方で、ハレーションが生じやすい対象物(標識など)は反射率が高く、その反射光の強度が高すぎることが多い。そこで、この対象物からの反射光の強度がカメラ6により明瞭な像を適した強度となるように、光源ユニット21を照度の低い第一モードとし、カメラ6で撮像する。光源ユニット21が第一照射モードのときにカメラ6で取得した画像にはハレーションが生じていない可能性が高い。
 そこで、光源ユニット21が第二照射モードのときにカメラ6が取得した図4Cの画像においてハレーションが生じた領域を、光源ユニット21が第一照射モードのときにカメラ6が取得した図4Bの画像により置換する。これにより、ハレーションのない中間画像を取得することができる。
 次に、画像生成部25は、必要に応じて以下の処理を実行してもよい。
 取得した中間画像において、光量不足(ブラックアウト)の領域(図4BにおけるA部)を特定する(ステップS16)。具体的には、画像生成部25は、中間画像において、第一閾値以下の部分を割り出し、その部分の座標である第一位置座標を特定する。そして、画像生成部25は、第二画像において、第一位置座標の情報を特定する(ステップS17)。
 次いで、画像生成部25は、第一位置座標について、中間画像の情報を第二画像の情報に置換する。これにより、中間画像中の第一画像部分において、第一閾値以下の輝度の部分が、その部分に対応する第二画像の一部で置換されて補完された出力画像を取得する(ステップS18)。
 なお、画像生成部25は、取得した中間画像(ステップS15)に、第一閾値以下の輝度の部分がなく、光量不足(ブラックアウト)がないと判断した場合は、取得した中間画像を出力画像として処理を終了する。
 上記の画像補完処理後、車両システム2は、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて車両1の自動運転の制御を行う。
 この第二実施形態に係る車両用照明システム20の場合も、第一画像および第二画像の認識しやすい部分で互いに補完した出力画像を取得するので、入射する光の光量によらず良好に車両1の前方の情報を取得できる。
 つまり、第二画像の認識しにくい部分を第一画像の部分で置換することで、第一画像および第二画像の認識しやすい部分で互いに補完した出力画像を取得する。したがって、この出力画像から車両1の前方の情報を確実に得ることができる。
<第三実施形態>
 次に、第三実施形態の画像補完処理について説明する。
 図7A及び図7Bは、第三実施形態に係る車両用照明システム120が搭載された車両100を示す。図7Aは、車両100の上面図を示し、図7Bは車両100の側面図を示す。車両100は、自動運転モードで走行可能な自動車であって、車両用照明システム120を備えている。
 まず、図8を参照して車両100の車両システム200について説明する。図8は、車両システム200のブロック図を示している。図8に示すように、車両システム200は、車両制御部3と、センサ5と、カメラユニット30と、レーダ7と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、地図情報記憶部11とを備えている。さらに、車両システム200は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備えている。
 車両制御部3は、電子制御ユニット(ECU)により構成されている。電子制御ユニットは、CPU(Central Processing Unit)等のプロセッサと、各種車両制御プログラムが記憶されたROM(Read Only Memory)と、各種車両制御データが一時的に記憶されるRAM(Random Access Memory)とにより構成されている。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されている。車両制御部3は、車両100の走行を制御するように構成されている。
 センサ5は、加速度センサ、速度センサ及びジャイロセンサ等を備えている。センサ5は、車両100の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。さらに、センサ5は、車両100の周辺環境の照度を検出する照度センサを備えていてもよい。
 カメラユニット30は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラユニット30は、可視光を検出するカメラや、赤外線を検出する赤外線カメラである。レーダ7は、ミリ波レーダ、マイクロ波レーダ又はレーザーレーダ等である。カメラユニット30とレーダ7は、車両100の周辺環境(他車、歩行者、道路形状、交通標識、障害物等)を検出し、周辺環境情報を車両制御部3に出力するように構成されている。
 HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両100の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイである。
 GPS9は、車両100の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。無線通信部10は、車両100の周囲にいる他車の走行情報を他車から受信すると共に、車両100の走行情報を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両100の走行情報をインフラ設備に送信するように構成されている(路車間通信)。地図情報記憶部11は、地図情報が記憶されたハードディスクドライブ等の外部記憶装置であって、地図情報を車両制御部3に出力するように構成されている。
 車両100が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、自動運転モードでは、車両100の走行は車両システム200により自動制御される。
 一方、車両100が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両100の走行は運転者により制御される。
 次に、車両100の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム200がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両100を運転できる状態にはない。高度運転支援モードでは、車両システム200がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両100を運転できる状態にはあるものの車両100を運転しない。運転支援モードでは、車両システム200がステアリング制御、ブレーキ制御及びアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム200の運転支援の下で運転者が車両100を運転する。一方、手動運転モードでは、車両システム200が走行制御を自動的に行わないと共に、車両システム200の運転支援なしに運転者が車両100を運転する。
 また、車両100の運転モードは、運転モード切替スイッチを操作することで切り替えられてもよい。この場合、車両制御部3は、運転モード切替スイッチに対する運転者の操作に応じて、車両100の運転モードを4つの運転モード(完全自動運転モード、高度運転支援モード、運転支援モード、手動運転モード)の間で切り替える。また、車両100の運転モードは、自動運転車が走行可能である走行可能区間や自動運転車の走行が禁止されている走行禁止区間についての情報または外部天候状態についての情報に基づいて自動的に切り替えられてもよい。この場合、車両制御部3は、これらの情報に基づいて車両100の運転モードを切り替える。さらに、車両100の運転モードは、着座センサや顔向きセンサ等を用いることで自動的に切り替えられてもよい。この場合、車両制御部3は、着座センサや顔向きセンサからの出力信号に基づいて、車両100の運転モードを切り替える。
 次に、車両用照明システム120の詳細を説明する。図7A及び図7Bに示すように、車両用照明システム120は、光源ユニット21と、カメラユニット30とを備えている。光源ユニット21は、車両100の前部における左右に設けられており、車両100の前方を照射する。カメラユニット30は、車両100の前部に幅方向に間隔をあけて配置された第一カメラ6Aと第二カメラ6Bとを備えている。光源ユニット21、第一カメラ6Aおよび第二カメラ6Bは、それぞれ車両制御部3に接続されている。なお、光源ユニット21とカメラユニット30とは、別体であってもよいし、光源ユニット21と第一カメラ6Aおよび第二カメラ6Bがそれぞれ一体に設けられていてもよい。光源ユニット21は、第三実施形態では、カメラユニット30の撮像範囲の全体に光を照射する灯具に搭載された光源である。光源ユニット21は、車両用前照灯の内部に搭載されている。
 図9は、車両用照明システム120のブロック図である。図9に示すように、車両用照明システム120は、撮影制御部24と、画像生成部25とを備えている。撮影制御部24及び画像生成部25は、車両制御部3に設けられている。
 カメラユニット30は、シャッタ制御部23、感度設定部26及び露光時間設定部27を備えている。第一カメラ6Aおよび第二カメラ6Bはそれぞれ、シャッタ制御部23、感度設定部26及び露光時間設定部27に接続されている。これらのシャッタ制御部23、感度設定部26及び露光時間設定部27は、撮影制御部24に接続されている。
 第一カメラ6Aおよび第二カメラ6Bは、車両制御部3の画像生成部25に接続されており、撮影した画像のデータを画像生成部25に送信する。画像生成部25は、第一カメラ6Aおよび第二カメラ6Bから画像のデータを取得し、取得した画像を演算処理する。
 第一カメラ6Aおよび第二カメラ6Bは、車両100の前方の映像を撮影して車両100の前方の情報を取得する。第一カメラ6Aおよび第二カメラ6Bは、それぞれ感度および露光時間を調整可能なカメラである。シャッタ制御部23は、撮影制御部24からの指令に基づいて、第一カメラ6Aおよび第二カメラ6Bによる撮像タイミングを制御する。感度設定部26は、撮影制御部24からの指令に基づいて、第一カメラ6Aおよび第二カメラ6Bの感度を設定する。露光時間設定部27は、撮影制御部24からの指令に基づいて、第一カメラ6Aおよび第二カメラ6Bの露光時間を設定する。
 カメラユニット30は、撮影制御部24からの指令により、第一撮影モードと第二撮影モードとを含む少なくとも2つの撮影モードで車両100の前方を撮影することが可能とされている。第二撮影モードは、第一撮影モードよりも高い感度かつ長い露光時間で撮影する撮影モードである。なお、第二撮影モードは、第一撮影モードよりも高い感度または長い露光時間で撮影した撮影モードとしてもよい。なお、第一撮影モードを、第二撮影モードより高い感度で同じ露光時間に設定してもよい。あるいは、第一撮影モードを、第二撮影モードより長い露光時間で同じ感度に設定してもよい。なお、カメラユニット30は、互いに感度や露光時間の異なる3つ以上の撮影モードで撮影可能に構成されていてもよい。
 カメラユニット30は、撮影制御部24からの指令により、第一カメラ6Aでの撮影を第一撮影モードに設定するとともに、第二カメラ6Bでの撮影を第二撮影モードに設定し、第一カメラ6Aと第二カメラ6Bとを同時に撮影させる。カメラユニット30は、第一カメラ6Aで撮影した第一画像のデータと、第二カメラ6Bで撮影した第二画像のデータとを画像生成部25へ送信する。
 第一カメラ6Aおよび第二カメラ6Bは、自動運転の際の車両100の周辺環境を検出するために車両100の前方を撮影し、歩行者、対向車、前走車、標識、路面などの情報を取得する。そして、車両制御部3は、第一カメラ6Aおよび第二カメラ6Bからの画像から得られる車両100の周辺情報に基づいて車両100の自動運転の制御を行う。
 ところで、カメラは、人間の目に比べて、明るい対象物と暗い対象物とを同時に認識することが難しい。例えば、暗い対象物を撮像する場合には、カメラの感度が高く、および/または、露光時間が長く設定される。これにより、対象物から受け取る光の量を確保して、ブラックアウトのない明瞭な像を取得する。逆に、明るい対象物を撮像する場合には、カメラの感度が低く、および/または、露光時間が短く設定される。これにより、対象物から受け取る光の量を調整して、ハレーションのない明瞭な像を取得する。なお、カメラの感度の設定は、カメラの絞り値やISO感度を調整することで設定される。
 自動運転可能な車両に搭載されるカメラが情報として取得する歩行者、対向車、前走車、標識、路面などの対象物のうち、標識からの反射光、対向車の前照灯から出射される光、前走車の標識灯から出射される光、自車両のすぐ近傍の路面からの反射光は、その強度が高い。このため、これらの光の強度に適合するように、カメラの感度や露光時間を設定しておくと、強い光で画像が白くぼやけるハレーションが生じることなくこれらの対象物を明確に認識できる。しかしその一方で、歩行者からの反射光は弱いため、カメラが歩行者を効率よく認識することが難しい。
 一方で、歩行者を効率よく認識できるようにカメラの感度を高く設定したり露光時間を長く設定しておくと、ブラックアウトのない明瞭な像を取得できる。しかしその一方で、標識からの反射光、対向車の前照灯から出射される光、前走車の標識灯から出射される光、自車両のすぐ近傍の路面からの反射光などによってハレーションが生じてしまい、これらを効率よく認識することが難しい。
 図4Aから図4Cは、車両1と同様に、車両100の前方の映像を示す図であって、図4Aは実際の映像を示す模式図、図4Bは光量不足の画像を示す模式図、図4Cは光量過多の画像を示す模式図である。
 第一カメラ6Aの第一撮影モードは、第二カメラ6Bの第二撮影モードに比べて、感度が低く露光時間が短い。したがって、車両100の前方の実際の画像が図4Aに示す画像とすると、第一撮影モードの第一カメラ6Aによって撮影された画像(第一画像)は、図4Bに示すように、光量過多によるハレーションを生じさせずに標識Hのような反射率の高い対象物を認識しやすい。しかしその一方で、第一画像は、光量不足となって画像が暗転するブラックアウト(図4Bにおけるハッチングで示したA部)が生じやすい。
 これに対して、第二カメラ6Bの第二撮影モードでは、第一カメラ6Aの第一撮影モードに比べて、感度が高く露光時間が長い。したがって、第二撮影モードの第二カメラ6Bによって撮影された画像(第二画像)は、光量不足によるブラックアウトを生じさせずに暗い対象物を認識しやすい。しかしその一方で、第二画像は、標識Hなどの対象物では、光量過多となってハレーション(図4CにおけるB部)が生じやすい。
 このように、カメラユニット30が第一照射モードの第一カメラ6Aで撮像した画像、あるいは、第二照射モードの第二カメラ6Bで撮像した画像は、明瞭な画像とならない場合がある。そこで、第三実施形態では、車両100の周辺情報を取得するためのカメラユニット30で撮像した画像における対象物の認識性を高めるために、次に説明するように、第一画像と第二画像とにより単一の出力画像を生成する処理を行う。
 図5は、第一実施形態と同様に、第三実施形態に係る車両用照明システム120が実行する処理を示すフローチャートである。
 撮影制御部24は、感度設定部26及び露光時間設定部27に指令を出して第一カメラ6Aのモードを第一撮影モードとする。そして、撮影制御部24は、シャッタ制御部23に指令を出して第一撮影モードで第一カメラ6Aにより車両100の前方を撮像させ、その画像データである第一画像を画像生成部25へ出力させる(ステップS01)。これにより、画像生成部25は、上述した図4Bの画像を取得する。
 また、撮影制御部24は、感度設定部26及び露光時間設定部27に指令を出して第二カメラ6Bのモードを第二撮影モードとする。そして、撮影制御部24は、シャッタ制御部23に指令を出して第二撮影モードで第二カメラ6Bにより車両100の前方を撮像させ、その画像データである第二画像を画像生成部25へ出力させる(ステップS02)。これにより、画像生成部25は、上述した図4Cの画像を取得する。
 ここで、撮影制御部24は、第一カメラ6Aおよび第二カメラ6Bによる車両100の前方の撮像を同時に実行させるように、シャッタ制御部23に指令を出す。
 次に、画像生成部25は、第一カメラ6Aから送信された第一画像において、光量不足(ブラックアウト)の領域(図4BにおけるA部)を特定する(ステップS03)。具体的には、画像生成部25は、第一画像において、予め設定した輝度の閾値である第一閾値以下の部分を割り出し、その部分の座標である第一位置座標を特定する。
 画像生成部25は、第二カメラ6Bから送信された第二画像に基づいて、この第二画像における第一位置座標の情報を特定する(ステップS04)。つまり、第二画像において、第一画像で特定した光量不足(ブラックアウト)の領域を特定する。
 次いで、画像生成部25は、第一位置座標について、第一画像の情報を第二画像の情報に置換する。これにより、第一画像において、第一閾値以下の輝度の部分が、その部分に対応する第二画像の一部で置換された中間画像を取得する(ステップS05)。
 このように、図4Bにおいてブラックアウトした領域を、図4Cの画像により置換することにより、ブラックアウトのない中間画像を取得することができる。
 ブラックアウトが生じるおそれの少ない対象物(標識など)は反射率が高い。このため、カメラユニット30の第一カメラ6Aが、感度が低く露光時間が短い第一撮影モードで撮像したときに、この対象物からの反射光の強度が第一カメラ6Aにより明瞭な像を取得するのに適した強度となっている可能性が高い。
 一方で、ブラックアウトが生じやすい対象物(歩行者など)は反射率が低く、その反射光の強度が弱いことが多い。そこで、この対象物からの反射光の強度が明瞭な像を撮像するのに好適なように、感度を高く露光時間を長くした第二撮影モードとした第二カメラ6Bで撮像する。第二撮影モードとした第二カメラ6Bで取得した画像にはブラックアウトが生じていない可能性が高い。そこで、第一撮影モードとした第一カメラ6Aが取得した図4Bの画像においてブラックアウトした領域を、第二撮影モードとした第二カメラ6Bが取得した図4Cの画像により置換することにより、ブラックアウトのない中間画像を取得することができる。
 なお、車両用照明システム120は以下の処理を追加で実行してもよい。
 画像生成部25は、取得した中間画像において、光量過多(ハレーション)の領域(図4CにおけるB部)を特定する(ステップS06)。具体的には、画像生成部25は、中間画像において、輝度が予め設定した第二閾値以上の部分を割り出し、その部分の座標である第二位置座標を特定する。そして、画像生成部25は、第一画像において、第二位置座標の情報を特定する(ステップS07)。第二閾値は、第一閾値より高い輝度の閾値である。
 次いで、画像生成部25は、第二位置座標について、中間画像の情報を第一画像の情報に置換する。これにより、中間画像中の第二画像部分において、第二閾値以上の輝度の部分が、その部分に対応する第一画像の一部で置換されて補完された出力画像を取得する(ステップS08)。
 なお、画像生成部25は、取得した中間画像(ステップS05)に、第二閾値以上の輝度の部分がなく、光量過多(ハレーション)がないと判断した場合は、取得した中間画像を出力画像として処理を終了する。
 上記の画像補完処理後、車両システム200は、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて車両100の自動運転の制御を行う。
 以上、説明したように、第三実施形態に係る車両用照明システム120によれば、カメラユニット30は、第一撮影モードと、第一撮影モードよりも感度の高い、および/または、露光時間の長い第二撮影モードで車両100の前方を撮像可能である。そして、第一撮影モードで撮像された第一画像と第二撮影モードで撮像された第二画像とにより、出力画像を生成する。第一撮影モードで撮像された第一画像と、第一撮像モードよりも感度の高い、および/または、露光時間の長い第二撮像モードで撮像された第二画像は、一方の短所が他方の長所で補完される関係を有する。
 したがって、第一画像と第二画像から出力画像を生成することにより、第一画像において光量不足によりブラックアウトして認識しにくい暗い対象物が、第二画像により認識しやすくなる。このように、第三実施形態に係る車両用照明システム120によれば、第一画像および第二画像の認識しやすい部分を互いに置換することで互いに補完した出力画像を取得するので、入射する光の光量によらず良好に車両100の前方の情報を取得できる。
 特に、第三実施形態の車両用照明システム120によれば、カメラユニット30が、第一撮影モードで車両前方を撮影する第一カメラ6Aと、第二撮影モードで車両前方を撮影する第二カメラ6Bとで同時に撮影させる。したがって、第一画像と第二画像とを時間差なく取得できるので、第一画像と第二画像との間において対象物の位置ずれがなく、第一画像と第二画像の位置関係の対応付けをしやすい。
 そして、第三実施形態に係る車両用照明システム120を備えた車両100によれば、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて自動運転の制御を良好に行うことができる。
<第四実施形態>
 次に、第四実施形態の画像補完処理について説明する。
 この第四実施形態では、画像補完処理における制御の流れが第三実施形態と異なる。
 図6は、第二実施形態と同様に、第四実施形態に係る車両用照明システム120による画像補完処理を示すフローチャートである。
 撮影制御部24は、感度設定部26及び露光時間設定部27に指令を出して第一カメラ6Aのモードを第一撮影モードとする。そして、撮影制御部24は、シャッタ制御部23に指令を出して第一撮影モードで第一カメラ6Aにより車両100の前方を撮像させ、その画像データである第一画像を画像生成部25へ出力させる(ステップS11)。これにより、画像生成部25は、図4Bに示した画像を取得する。
 また、撮影制御部24は、感度設定部26及び露光時間設定部27に指令を出して第二カメラ6Bのモードを第二撮影モードとする。そして、撮影制御部24は、シャッタ制御部23に指令を出して第二撮影モードで第二カメラ6Bにより車両100の前方を撮像させ、その画像データである第二画像を画像生成部25へ出力させる(ステップS12)。これにより、画像生成部25は、図4Cに示した画像を取得する。
 ここで、撮影制御部24は、第一カメラ6Aおよび第二カメラ6Bによる車両100の前方の撮像を同時に実行させるように、シャッタ制御部23に指令を出す。
 次に、画像生成部25は、第二カメラ6Bから送信された第二画像において、光量過多(ハレーション)の領域(図4CにおけるB部)を特定する(ステップS13)。具体的には、画像生成部25は、第二画像において、輝度が第二閾値以上の部分を割り出し、その部分の座標である第二位置座標を特定する。
 画像生成部25は、第一カメラ6Aから送信された第一画像に基づいて、この第一画像における第二位置座標の情報を特定する(ステップS14)。つまり、第一画像において、第二画像で特定した光量過多(ハレーション)の領域を特定する。
 次いで、画像生成部25は、第二位置座標について、第二画像の情報を第一画像の情報に置換する。これにより、第二画像において、第二閾値以上の輝度の部分が、その部分に対応する第一画像の一部で置換された中間画像を取得する(ステップS15)。
 このように、図4Cにおいてハレーションが生じた領域を、図4Bの画像により置換することにより、ハレーションのない中間画像を取得することができる。
 ハレーションが生じるおそれの少ない対象物(標識など)は反射率が低い。このため、カメラユニット30の第二カメラ6Bが、感度が高く露光時間が長い第二撮影モードで撮像したときに、この対象物からの反射光の強度が第二カメラ6Bにより明瞭な像を取得するのに適した強度となっている可能性が高い。
 一方で、ハレーションが生じやすい対象物(歩行者など)は反射率が高く、第二撮影モードにとってはその反射光の強度が高すぎることが多い。そこで、この対象物からの反射光の強度が明瞭な像を撮像するのに適した強度となるように、感度を低く露光時間を短くした第一撮影モードとした第一カメラ6Aで撮像する。第一撮影モードとした第一カメラ6Aで取得した画像にはハレーションが生じていない可能性が高い。そこで、第二撮影モードとした第二カメラ6Bが取得した図4Cの画像においてハレーションが生じた領域を、第一撮影モードとした第一カメラ6Aが取得した図4Bの画像により置換することにより、ハレーションのない中間画像を取得することができる。
 次に、画像生成部25は、必要に応じて以下の処理を実行してもよい。
 取得した中間画像において、光量不足(ブラックアウト)の領域(図4BにおけるA部)を特定する(ステップS16)。具体的には、画像生成部25は、中間画像において、輝度が第一閾値以下の部分を割り出し、その部分の座標である第一位置座標を特定する。そして、画像生成部25は、第二画像において、第一位置座標の情報を特定する(ステップS17)。
 次いで、画像生成部25は、第一位置座標について、中間画像の情報を第二画像の情報に置換する。これにより、中間画像中の第一画像部分において、第一閾値以下の輝度の部分が、その部分に対応する第二画像の一部で置換されて補完された出力画像を取得する(ステップS18)。
 なお、画像生成部25は、取得した中間画像(ステップS15)に、第一閾値以下の輝度の部分がなく、光量不足(ブラックアウト)がないと判断した場合は、取得した中間画像を出力画像として処理を終了する。
 上記の画像補完処理後、車両システム200は、得られた出力画像から歩行者、対向車、前走車、標識、路面などの周辺情報を取得し、この周辺情報に基づいて車両100の自動運転の制御を行う。
 この第二実施形態に係る車両用照明システム120によれば、第二画像の認識しにくい部分を第一画像の部分で置換することで、第一画像および第二画像の認識しやすい部分で互いに補完した出力画像を取得する。したがって、入射する光の光量によらず、出力画像から車両100の前方の情報を良好かつ確実に得ることができる。
 なお、上記実施形態では、第一カメラ6Aおよび第二カメラ6Bとして、それぞれ感度や露光時間を調整可能なカメラを用いた例を説明したが、本発明はこれに限られない。例えば、第一撮影モードでのみ撮影可能な第一カメラと、第二撮影モードでのみ撮影可能か第二カメラを備えたカメラユニットを用いて、第一カメラから第一画像を取得し、第二カメラから第二画像を取得するように構成してもよい。
 また、上記実施形態では、カメラユニット30が、第一カメラ6Aと第二カメラ6Bとを備えた例を説明したが、本発明はこれに限られない。例えば、一つのカメラを備えたカメラユニット30を撮影制御部24がシャッタ制御部23へ指令を出して制御することで、第一撮影モードと第二撮影モードを交互に切り替えて第一画像および第二画像を撮影しても良い。この場合、カメラユニット30で撮影モードを第一撮影モードと第二撮影モードとに交互に切り替えることで、第一画像と第二画像とを確実に取得して画像の補完処理を行うことができる。単一のカメラでカメラユニット30が構成できるので、車両用照明システム120を簡略にできる。
 また、単一のカメラを備えたカメラユニット30で第一画像および第二画像を交互に撮影する場合、撮影制御部24は、露光時間の長い第二撮影モードで撮影した後に露光時間の短い第一撮影モードで撮影させるのが好ましい。このようにすれば、短い時間差で第一画像と第二画像とを取得でき、第一画像と第二画像との間における対象物の位置ずれを極力抑えることができる。
 以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が上記実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。上記実施形態は単なる一例であって、特許請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は特許請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
 上述した実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードは、これら4つのモードの少なくとも1つを含んでいてもよい。例えば、車両の運転モードは、完全自動運転モードのみを含んでいてもよい。この場合、車両用照明装置は、車両の外部に向けて完全自動運転モードを示す情報を常に表示するように構成される。一方、車両の運転モードは、手動運転モードのみを含んでいてもよい。この場合、車両用照明装置は、車両の外部に向けて手動運転モードを示す情報を常に表示するように構成される。
 さらに、車両の運転モードの区分や表示形態は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。
 なお、上述した実施形態においては、光源ユニット21が、カメラ6の撮像範囲の全体に光を照射可能な灯具に搭載された光源である例を説明したが、本発明はこれに限られない。光源ユニットは、ハイビーム配光パターンを形成可能な灯具に搭載された光源であってもよい。この場合には、光源ユニットを含む灯具は、通常の照度の第一照射モードでハイビーム配光パターンと、第一照射モードよりも高い照度の第二照射モードでハイビーム配光パターンを形成する。
 あるいは、光源ユニットはロービーム配光パターンを形成可能な灯具に搭載された光源であってもよいし、ハイビーム配光パターンやロービーム配光パターン以外の配光パターンを形成可能な灯具に搭載された光源であってもよい。
 また、上述した実施形態においては、光源ユニット21がハイビーム配光パターンやロービーム配光パターンを形成可能な灯具の内部に設けられた例を説明したが、本発明はこれに限られない。光源ユニットは、ハイビーム配光パターンやロービーム配光パターンを形成可能な灯具とは別に車両に搭載されていてもよい。
 また、上述した実施形態においては、光源ユニット21が第一照射モードと第二照射モードを照射可能に構成した例を説明したが、本発明はこれに限られない。例えば、光源ユニットが互いに異なる強度の光を出射可能な第一光源と第二光源を備え、第一光源を点灯させて第二光源を消灯させているときに第一画像を取得し、第一光源を消灯させて第二光源を点灯させているときに第二画像を取得するように構成してもよい。
 本出願は、2016年12月15日に出願された日本国特許出願(特願2016-243273号)に開示された内容と、2016年12月15日に出願された日本国特許出願(特願2016-243274号)に開示された内容とを適宜援用する。
 

Claims (11)

  1.  第一照射モードと、前記第一照射モードよりも高い照度で光を照射する第二照射モードを含む少なくとも2つの照射モードで車両前方へ光を照射可能な光源ユニットと、
     車両前方を撮像可能なカメラと、
     前記光源ユニットの照射モード、および、前記カメラの撮像タイミングを設定する撮影制御部と、
     前記カメラが取得した画像を演算処理する画像生成部と、を有し、
     前記撮影制御部は、
      前記光源ユニットが前記第一照射モードで車両前方を照射しているときに、前記カメラにより車両前方を撮像させて第一画像を前記画像生成部へ出力させ、
      前記光源ユニットが前記第二照射モードで車両前方を照射しているときに、前記カメラにより車両前方を撮像させて第二画像を前記画像生成部へ出力させ、
     前記画像生成部は、前記第一画像と前記第二画像とにより単一の出力画像を生成する、車両用照明システム。
  2.  前記画像生成部は、前記第一画像において第一閾値以下の輝度の部分を該部分に対応する前記第二画像の一部で置換し、および/または、前記第二画像で前記第一閾値より高い第二閾値以上の輝度の部分を該部分に対応する前記第一画像の一部で置換して、前記出力画像を得る、請求項1に記載の車両用照明システム。
  3.  前記撮影制御部は、前記第一照射モードと前記第二照射モードとを交互に切り替えるように前記光源ユニットを制御する、請求項1または2に記載の車両用照明システム。
  4.  前記光源ユニットは、通常時は前記第一照射モードで車両前方へ光を照射するように構成され、
     前記撮影制御部は、所定間隔おきに前記第二照射モードへ変更するように前記光源ユニットを制御する、請求項1または2に記載の車両用照明システム。
  5.  前記所定間隔は20msec以下である、請求項4に記載の車両用照明システム。
  6.  車両前方へ光を照射可能な光源ユニットと、
     第一撮影モードと、前記第一撮影モードよりも感度の高い、および/または、露光時間の長い第二撮影モードを含む少なくとも2つの撮影モードで車両前方を撮像可能なカメラユニットと、
     前記カメラユニットの前記撮影モードおよび撮像タイミングを設定する撮影制御部と、
     前記カメラユニットが取得した画像を演算処理する画像生成部と、を有し、
     前記撮影制御部は、
      前記カメラユニットにより前記第一撮影モードで車両前方を撮像させて第一画像を前記画像生成部へ出力させ、
      前記カメラユニットにより前記第二撮影モードで車両前方を撮像させて第二画像を前記画像生成部へ出力させ、
     前記画像生成部は、前記第一画像と前記第二画像とにより単一の出力画像を生成する、車両用照明システム。
  7.  前記画像生成部は、前記第一画像において第一閾値以下の輝度の部分を該部分に対応する前記第二画像の一部で置換し、および/または、前記第二画像で前記第一閾値より高い第二閾値以上の輝度の部分を該部分に対応する前記第一画像の一部で置換して、前記出力画像を得る、請求項6に記載の車両用照明システム。
  8.  前記カメラユニットは、
      前記第一撮影モードで車両前方を撮影する第一カメラと、
      前記第二撮影モードで車両前方を撮影する第二カメラと、を有し、
     前記撮影制御部は、前記第一カメラと前記第二カメラを同時に撮影させる、請求項6または7に記載の車両用照明システム。
  9.  前記撮影制御部は、前記第一撮影モードと前記第二撮影モードを交互に切り替えて前記カメラユニットに撮影させる、請求項6または7に記載の車両用照明システム。
  10.  前記撮影制御部は、露光時間の短い前記第二撮影モードで撮影した後に前記第一撮影モードで撮影させる、請求項9に記載の車両用照明システム。
  11.  請求項1から10のいずれか一項に記載の車両用照明システムを備えた車両。
     
PCT/JP2017/043829 2016-12-15 2017-12-06 車両用照明システムおよび車両 WO2018110389A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP17879867.4A EP3556607A4 (en) 2016-12-15 2017-12-06 VEHICLE LIGHTING SYSTEM AND VEHICLE
US16/469,881 US10965878B2 (en) 2016-12-15 2017-12-06 Vehicle illumination system and vehicle
JP2018556610A JP6963563B2 (ja) 2016-12-15 2017-12-06 車両用照明システムおよび車両
CN201780077503.0A CN110087946B (zh) 2016-12-15 2017-12-06 车辆用照明系统和车辆

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2016-243274 2016-12-15
JP2016-243273 2016-12-15
JP2016243273 2016-12-15
JP2016243274 2016-12-15

Publications (1)

Publication Number Publication Date
WO2018110389A1 true WO2018110389A1 (ja) 2018-06-21

Family

ID=62558667

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/043829 WO2018110389A1 (ja) 2016-12-15 2017-12-06 車両用照明システムおよび車両

Country Status (5)

Country Link
US (1) US10965878B2 (ja)
EP (1) EP3556607A4 (ja)
JP (1) JP6963563B2 (ja)
CN (1) CN110087946B (ja)
WO (1) WO2018110389A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020100638A1 (ja) * 2018-11-12 2020-05-22 株式会社小糸製作所 車両用ランプシステム
CN111327834A (zh) * 2018-12-13 2020-06-23 通用汽车环球科技运作有限责任公司 用于相机盲区中的物体检测的方法和设备
JP2020162035A (ja) * 2019-03-27 2020-10-01 マレリ株式会社 画像表示装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7020215B2 (ja) * 2018-03-19 2022-02-16 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
JP7204551B2 (ja) * 2019-03-19 2023-01-16 株式会社小糸製作所 車両用監視システム
US11115602B2 (en) * 2019-06-11 2021-09-07 Watchguard Video, Inc. Emulating light sensitivity of a target
CN115349251A (zh) * 2020-03-23 2022-11-15 株式会社小糸制作所 摄像系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09277887A (ja) 1996-04-16 1997-10-28 Honda Motor Co Ltd 自動追従走行システム
JP2003087645A (ja) * 2001-09-07 2003-03-20 Olympus Optical Co Ltd デジタルカメラ
JP2013147112A (ja) * 2012-01-18 2013-08-01 Fuji Heavy Ind Ltd 車両の走行環境認識装置
JP2016189557A (ja) * 2015-03-30 2016-11-04 ソニー株式会社 撮像素子およびその駆動方法、並びに電子機器

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6456206B1 (en) * 1994-09-12 2002-09-24 Richard M. Rocca Inclement weather safety system
JP2004048455A (ja) * 2002-07-12 2004-02-12 Niles Co Ltd 撮像システム
US7319805B2 (en) * 2003-10-06 2008-01-15 Ford Motor Company Active night vision image intensity balancing system
JP4777798B2 (ja) * 2006-03-02 2011-09-21 富士フイルム株式会社 固体撮像装置とその駆動方法
CN101404728B (zh) * 2008-11-12 2010-09-22 深圳市迅雷网络技术有限公司 一种数字图像曝光调整的方法和装置
JPWO2012067028A1 (ja) * 2010-11-16 2014-05-12 コニカミノルタ株式会社 画像入力装置および画像処理装置
DE102011076795A1 (de) * 2011-05-31 2012-09-20 Robert Bosch Gmbh Verfahren zum Bestimmen einer Nickbewegung einer in einem Fahrzeug verbauten Kamera und Verfahren zur Steuerung einer Lichtaussendung zumindest eines Frontscheinwerfers eines Fahrzeugs
JP5952532B2 (ja) * 2011-06-02 2016-07-13 株式会社小糸製作所 画像処理装置および配光制御方法
JP5370413B2 (ja) * 2011-06-06 2013-12-18 株式会社デンソー 認識対象検出装置
EP2851864B1 (en) * 2012-05-18 2016-09-07 Nissan Motor Co., Ltd. Vehicular display apparatus, vehicular display method, and vehicular display program
CN103780840B (zh) * 2014-01-21 2016-06-08 上海果壳电子有限公司 一种高品质成像的双摄像成像装置及其方法
CN103986874A (zh) * 2014-05-29 2014-08-13 宇龙计算机通信科技(深圳)有限公司 一种图像获取装置、图像获取方法及终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09277887A (ja) 1996-04-16 1997-10-28 Honda Motor Co Ltd 自動追従走行システム
JP2003087645A (ja) * 2001-09-07 2003-03-20 Olympus Optical Co Ltd デジタルカメラ
JP2013147112A (ja) * 2012-01-18 2013-08-01 Fuji Heavy Ind Ltd 車両の走行環境認識装置
JP2016189557A (ja) * 2015-03-30 2016-11-04 ソニー株式会社 撮像素子およびその駆動方法、並びに電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3556607A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020100638A1 (ja) * 2018-11-12 2020-05-22 株式会社小糸製作所 車両用ランプシステム
JP7339963B2 (ja) 2018-11-12 2023-09-06 株式会社小糸製作所 車両用ランプシステム
US11787330B2 (en) 2018-11-12 2023-10-17 Koito Manufacturing Co., Ltd. Vehicle lamp system
CN111327834A (zh) * 2018-12-13 2020-06-23 通用汽车环球科技运作有限责任公司 用于相机盲区中的物体检测的方法和设备
CN111327834B (zh) * 2018-12-13 2022-02-18 通用汽车环球科技运作有限责任公司 用于相机盲区中的物体检测的方法和设备
JP2020162035A (ja) * 2019-03-27 2020-10-01 マレリ株式会社 画像表示装置
JP7213732B2 (ja) 2019-03-27 2023-01-27 マレリ株式会社 画像表示装置

Also Published As

Publication number Publication date
US10965878B2 (en) 2021-03-30
JPWO2018110389A1 (ja) 2019-10-24
CN110087946B (zh) 2023-01-10
US20190320106A1 (en) 2019-10-17
EP3556607A1 (en) 2019-10-23
EP3556607A4 (en) 2020-10-07
CN110087946A (zh) 2019-08-02
JP6963563B2 (ja) 2021-11-10

Similar Documents

Publication Publication Date Title
WO2018110389A1 (ja) 車両用照明システムおよび車両
JP5680573B2 (ja) 車両の走行環境認識装置
JP5617999B2 (ja) 車載周辺物認識装置及びこれを用いる運転支援装置
JP6075331B2 (ja) 車両用照明装置
CN110944874B (zh) 车辆用照明系统以及车辆
JP7339963B2 (ja) 車両用ランプシステム
US11454539B2 (en) Vehicle lamp
JP2005350010A (ja) ステレオ式車外監視装置
US9616805B2 (en) Method and device for controlling a headlamp of a vehicle
JP2018203244A (ja) 車両用ヘッドランプシステムおよびその制御方法
CN111267722A (zh) 车辆用灯系统
CN110121444B (zh) 照明装置
JP2008296759A (ja) 情報処理装置および方法、並びにプログラム
JP7139309B2 (ja) 照明装置
WO2021049239A1 (ja) 車両用ランプシステム
JP2012185669A (ja) 車両検知装置及びこれを用いる車両配光制御装置
CN111267719A (zh) 车辆用前照灯系统
JP6663770B2 (ja) 車両の配光制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17879867

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018556610

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017879867

Country of ref document: EP

Effective date: 20190715