WO2023026617A1 - 撮像装置および映像表示システム - Google Patents

撮像装置および映像表示システム Download PDF

Info

Publication number
WO2023026617A1
WO2023026617A1 PCT/JP2022/021444 JP2022021444W WO2023026617A1 WO 2023026617 A1 WO2023026617 A1 WO 2023026617A1 JP 2022021444 W JP2022021444 W JP 2022021444W WO 2023026617 A1 WO2023026617 A1 WO 2023026617A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
unit
video signal
brightness
illuminance
Prior art date
Application number
PCT/JP2022/021444
Other languages
English (en)
French (fr)
Inventor
康孝 松本
康之 合田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2023026617A1 publication Critical patent/WO2023026617A1/ja
Priority to US18/536,577 priority Critical patent/US20240107174A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/28Circuitry to measure or to take account of the object contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Definitions

  • the present disclosure relates to imaging devices and video display systems.
  • driving support systems using cameras have been installed in vehicles.
  • these driving support systems for example, there is a system that displays an image of the surroundings of the vehicle captured by a camera on an electronic mirror that replaces the rearview mirror and the side mirror.
  • Patent Document 1 according to the brightness around the vehicle, a day mode in which the exposure state of the camera is optimally adjusted for a bright place in the daytime, a night mode in which the exposure state of the camera is optimally adjusted for a dark place at night, It has a twilight mode in which the exposure of the camera is optimally adjusted for twilight in the evening, and switches between these modes according to the brightness around the vehicle as measured by the illuminance meter mounted on the vehicle.
  • An object of the present disclosure is to provide an imaging device and a video display system capable of accurate and quick mode switching.
  • the imaging device includes an imaging unit that captures an image of an observation target in accordance with the exposure state according to the brightness measured by the brightness measurement unit that measures the brightness outside the vehicle and generates a video signal; a first imaging mode setting unit for setting an exposure state when the imaging unit performs imaging based on the signal level of the video signal generated by the unit; and imaging in the exposure state set by the first imaging mode setting unit. and a video output unit for outputting the video signal.
  • the imaging device measures the brightness measured by the brightness measurement unit that measures the brightness outside the vehicle, among the plurality of brightness measurement units that measure the brightness in different directions inside and outside the vehicle.
  • An imaging unit that captures an image of an observation target according to the corresponding exposure state and generates a video signal, a plurality of brightness difference values respectively measured by the plurality of brightness measurement units, and the brightness measured by the plurality of brightness measurement units.
  • a second imaging mode setting unit for setting the exposure state when the imaging unit performs imaging based on the brightness of the outside of the vehicle, and imaging in the exposure state set by the second imaging mode setting unit and a video output unit for outputting the video signal.
  • FIG. 1 is a system configuration diagram showing an example of the overall configuration of a video display system according to the first embodiment.
  • FIG. 2 is an external view showing an example of an electronic mirror included in the image display system according to the first embodiment.
  • FIG. 3 is a hardware block diagram showing an example of the hardware configuration of the video display system.
  • FIG. 4 is a diagram illustrating how the camera according to the first embodiment sets the video output mode based on the illuminance measured by the illuminometer and the level of the video signal output by the imaging device.
  • FIG. 7 is an external view showing an example of an electronic mirror included in the image display system according to the second embodiment.
  • FIG. 8 is a diagram for explaining how the camera according to the second embodiment sets the video output mode based on a plurality of illuminances measured by the illuminometer.
  • FIG. 9 is a functional block diagram showing an example of the functional configuration of a camera according to the second embodiment;
  • FIG. 10 is a flowchart showing an example of the flow of processing performed by the camera according to the second embodiment.
  • FIG. 11 is a diagram illustrating a method for setting the video output mode by the camera according to the third embodiment based on the illuminance outside the vehicle measured by the illuminometer and the level of the video signal output by the camera. be.
  • FIG. 12 is a functional block diagram showing an example of the functional configuration of a camera according to the third embodiment;
  • FIG. 13 is a flow chart showing an example of the flow of processing performed by the camera according to the third embodiment.
  • FIG. 1 is a system configuration diagram showing an example of the overall configuration of a video display system according to the first embodiment.
  • the video display system 10a is mounted on the vehicle 15 and includes a camera 20a and an electronic mirror 30.
  • the camera 20a is installed, for example, at the rear of the vehicle 15 with the rear of the vehicle 15 (the negative side of the X axis) directed.
  • the camera 20a has an imaging element such as a CMOS or CCD, for example, and images the rear of the vehicle 15 .
  • the camera 20a is an example of an imaging device in the present disclosure.
  • the electronic mirror 30 has both the function of a general mirror-type rearview mirror and the function of displaying an image behind the vehicle 15 captured by the camera 20a. The structure of the electronic mirror 30 will be described later in detail.
  • the electronic mirror 30 is an example of a display device in the present disclosure.
  • FIG. 2 is an external view showing an example of an electronic mirror included in the image display system according to the first embodiment.
  • the electronic mirror 30 includes a display panel 34 inside a housing 36 .
  • the display panel 34 is, for example, a liquid crystal panel or an organic EL panel.
  • the display surface of the display panel 34 is arranged facing the opening of the housing 36 .
  • a half mirror 35 is installed so as to face the display surface of the display panel 34 .
  • the electronic mirror 30 is attached to the windshield of the vehicle 15 or the ceiling via the attachment portion 37 .
  • An operation switch 38 is attached to the bottom of the housing 36 of the electronic mirror 30 .
  • the display on the display panel 34 and the reflected image behind the vehicle 15 reflected on the half mirror 35 are switched.
  • the display panel 34 is in a non-display state.
  • An illuminance sensor 40a is installed on the front side (X-axis positive side) of the vehicle 15 of the housing 36 of the electronic mirror 30.
  • the illuminance sensor 40a is composed of, for example, a photodiode, and outputs an electric signal corresponding to external brightness.
  • a light receiving portion of the illuminance sensor 40 a is installed facing the front side of the vehicle 15 .
  • Another sensor having the same function as the photodiode may be used as the illuminance sensor 40a.
  • the mounting position of the illuminance sensor 40 a is not limited to the housing 36 of the electronic mirror 30 .
  • the illuminance sensor 40a may be installed in the vicinity of the camera 20a with the back of the vehicle 15 facing. Note that the illuminance sensor 40a is an example of a brightness measurement unit in the present disclosure.
  • FIG. 3 is a hardware block diagram showing an example of the hardware configuration of the video display system.
  • the image display system 10a includes a camera 20a, an electronic mirror 30, and an illuminance sensor 40a.
  • the camera 20 a further includes a light receiving element 21 , a video signal processor 22 , a system microcomputer 23 , a serializer 24 and a connector 25 .
  • the light receiving element 21 converts the brightness of the optical image formed on the light receiving element 21 by the lens (optical system) of the camera 20a into an electric signal, that is, performs so-called photoelectric conversion.
  • the light receiving element 21 further includes a photoelectric conversion section 21a, a drive control section 21b, and an interface section 21c. Note that the light receiving element 21 is an aggregate of a plurality of cells. Each cell is also called a pixel, and the larger the number of pixels, the higher the resolution of the generated video signal.
  • the photoelectric conversion unit 21a performs photoelectric conversion to convert the brightness of the optical image formed on the light receiving element 21 into an electric signal.
  • the drive control unit 21b controls the exposure time of the photoelectric conversion unit 21a, the timing of photoelectric conversion performed by the photoelectric conversion unit 21a, and the like.
  • the interface unit 21c controls the output timing of the video signal.
  • the video signal processor 22 generates a YC signal (luminance signal (Y) and chromaticity signal (C)) from the video signal generated by the light receiving element 21 .
  • the video signal processor 22 is also called an ISP (Image Signal Processor).
  • the video signal processor 22 further includes a video signal processing section 22a and an interface section 22b.
  • the video signal processing unit 22a performs dynamic range and NR (Noise Reduction) correction on the video signal generated by the light receiving element 21 to generate a YC signal.
  • the interface unit 22b controls the input/output timing of video signals.
  • the system microcomputer 23 performs preset signal processing in cooperation with the video signal processor 22 . Specifically, the system microcomputer 23 sets imaging conditions when the light receiving element 21 performs imaging based on the illuminance measured by the illuminance sensor 40a. Details of the specific signal processing will be described later.
  • the serializer 24 converts the video signal output by the video signal processor 22 from a parallel signal to a serial signal.
  • the connector 25 electrically connects the camera 20a and the electronic mirror 30.
  • the electronic mirror 30 includes a connector 31, a deserializer 32, an image processing IC 33, and a display panel 34.
  • the connector 31 electrically connects the electronic mirror 30 and the camera 20a.
  • the deserializer 32 converts the serial signal of the video signal output from the camera 20a into a parallel signal.
  • the video processing IC 33 performs gradation correction, etc. of the video signal to generate a video signal to be displayed on the display panel 34 .
  • the display panel 34 displays the video signal generated by the video processing IC 33 .
  • the electronic mirror 30 includes a half mirror 35 superimposed on the display panel 34 as described in FIG. , the video signal displayed on the display panel 34 and the reflected image behind the vehicle 15 reflected on the half mirror 35 are switched and displayed.
  • the functions and the like of the illuminance sensor 40a are as described above.
  • FIG. 4 is a diagram illustrating how the camera according to the first embodiment sets the video output mode based on the illuminance measured by the illuminometer and the level of the video signal output by the imaging device.
  • the illuminance sensor 40 a measures the brightness outside the vehicle 15 . Therefore, by setting the exposure state of the camera 20a according to the illuminance L measured by the illuminance sensor 40a and taking an image, it is possible to generate a highly visible video signal regardless of the brightness of the outside of the vehicle 15. can be done.
  • the image display system 10a has a day mode in which the exposure state of the camera 20a is optimally adjusted for a bright place in the daytime, a night mode in which the exposure state of the camera 20a is optimally adjusted for a dark place at night, and an exposure state of the camera 20a. Equipped with a twilight mode that is optimally adjusted for twilight in the evening.
  • the day mode, night mode, and twilight mode are collectively referred to as imaging modes.
  • the camera 20a further adjusts the exposure state of the camera 20a based on the signal level of the video signal captured in the exposure state based on the illuminance L measured by the illuminance sensor 40a.
  • the illuminance L is an example of brightness in the present disclosure.
  • the signal level of the video signal may be, for example, the average value P of the video signal, or may be a value based on the shape of the frequency distribution (histogram) of the values of the video signal.
  • FIG. 4 shows an example of an imaging mode that is set based on the illuminance L measured by the illuminance sensor 40a and the average value P of the video signal captured in the exposure state set according to the illuminance L.
  • the system microcomputer 23 of the camera 20a acquires the illuminance L measured by the illuminance sensor 40a, and sets the exposure time according to the illuminance L in the system microcomputer 23 or the video signal processor 22. Then, the photoelectric conversion unit 21a performs photoelectric conversion based on the set exposure time.
  • the drive control unit 21b of the light receiving element 21 sets, for example, three levels of exposure time according to the magnitude (brightness) of the illuminance L. Specifically, depending on whether the illuminance L is large (bright), medium, or small (dark), the brighter the exposure time, the shorter the exposure time is set.
  • the video signal processing unit 22a acquires the video signal imaged with the set exposure time, and calculates the average value P of the brightness of the image.
  • the system microcomputer 23 acquires the average value P and sets the imaging mode (day mode, twilight mode, and night mode) according to the magnitude of the average value P.
  • FIG. 4 shows an example of imaging modes set in this way.
  • the average value P of the video signal is higher than the preset brightness thresholds Pa and Pb (Pa>Pb) (equal to or greater than the brightness threshold Pa)
  • Pa>Pb the preset brightness threshold
  • the illuminance L is high
  • the twilight mode is set when it is medium
  • the night mode is set when the illuminance L is low. It should be noted that whether the illuminance L is large, medium or small is determined by comparison with a preset illuminance threshold.
  • the twilight mode is set when the illuminance L is high or medium, and the night mode is set when the illuminance L is low.
  • the night mode is set regardless of the magnitude of the illuminance L.
  • FIG. 5 is a functional block diagram showing an example of the functional configuration of the camera according to the first embodiment
  • the camera 20a realizes each functional part shown in FIG.
  • the camera 20a includes an illuminance acquisition unit 51, an imaging control unit 52, an average value calculation unit 53, a first imaging mode setting unit 54, a halation suppression processing unit 55, and a dark area visualization processing unit 56. , a video output unit 57 , and an operation control unit 58 .
  • the illuminance acquisition unit 51 acquires the illuminance L measured by the illuminance sensor 40 a that measures the brightness outside the vehicle 15 .
  • the imaging control unit 52 generates a video signal that captures an image of the observation target according to the exposure state set by the first imaging mode setting unit 54 .
  • the imaging control unit 52 is an example of an imaging unit in the present disclosure.
  • the average value calculation unit 53 calculates the average value P of the video signal generated by the imaging control unit 52 .
  • the first imaging mode setting unit 54 sets the exposure state when the imaging unit performs imaging based on the illuminance L and the signal level of the video signal generated by the imaging control unit 52 .
  • the halation suppression processing unit 55 corrects the gradation of the video signal so that, when the number of pixels exceeding a predetermined signal level in the imaged video signal exceeds the threshold, the number of pixels does not exceed the threshold. Halation suppression processing is performed. Note that the halation suppression processing unit 55 is an example of a first gradation correction unit in the present disclosure.
  • the dark area visualization processing unit 56 raises the signal level of the image signal to make the whole visible.
  • the dark area visualization processing unit 56 is an example of a second gradation correction unit in the present disclosure.
  • the video output unit 57 outputs to the electronic mirror 30 a video signal captured in the exposure state set by the first imaging mode setting unit 54 .
  • the operation control unit 58 controls the overall operation state of the camera 20a.
  • FIG. 6 is a flowchart illustrating an example of the flow of processing performed by the camera according to the first embodiment
  • the illuminance acquisition unit 51 acquires the illuminance L measured by the illuminance sensor 40a (step S11).
  • the imaging control unit 52 performs imaging in an exposure state according to the illuminance L acquired by the illuminance acquisition unit 51 (step S12).
  • the average value calculation unit 53 calculates the average value P of the video signal captured by the imaging control unit 52 (step S13).
  • the first imaging mode setting unit 54 sets the imaging mode based on the illuminance L and the average value P of the video signal calculated by the average value calculation unit 53 (step S14).
  • the imaging control unit 52 performs imaging in the imaging mode set by the first imaging mode setting unit 54 (step S15).
  • the first imaging mode setting unit 54 determines whether the current imaging mode is the night mode (step S16). If it is determined that the current imaging mode is the night mode (step S16: Yes), the process proceeds to step S17. On the other hand, if it is not determined that the current imaging mode is the night mode (step S16: No), the process proceeds to step S19.
  • step S16 When it is determined in step S16 that the current imaging mode is the night mode, the halation suppression processing unit 55 performs , halation suppression processing is performed to correct the gradation of the video signal so that the number of pixels does not exceed the threshold (step S17). Note that the specific processing content of the halation suppression processing is not limited to this.
  • the dark area visualization processing unit 56 increases the signal level of the video signal when the number of pixels below a predetermined signal level in the imaged video signal exceeds the threshold value, that is, when the low-luminance region is wide. dark area visualization processing is performed to make the whole visible (step S18). Since the process of increasing the signal level of the image to make the whole image easier to see is a commonly used technique, detailed description thereof will be omitted.
  • the video output unit 57 outputs the video signal to the electronic mirror 30 (step S19).
  • the operation control unit 58 determines whether the ignition of the vehicle 15 is OFF (step S20). When it is determined that the ignition of the vehicle 15 is OFF (step S20: Yes), the camera 20a terminates the processing of FIG. On the other hand, if it is not determined that the ignition of the vehicle 15 is OFF (step S20: No), the process returns to step S11.
  • the camera 20a (imaging device) of the first embodiment measures the illuminance L (brightness) outside the vehicle 15 according to the illuminance L measured by the illuminance sensor 40a (brightness measurement unit).
  • the image pickup control unit 52 image pickup unit
  • the image pickup control unit 52 A first imaging mode setting unit 54 for setting an exposure state for imaging, and a video output unit 57 for outputting a video signal captured in the exposure state set by the first imaging mode setting unit 54. . Therefore, it is possible to provide an imaging apparatus capable of accurate and quick imaging mode switching.
  • the first imaging mode setting unit 54 causes the imaging control unit 52 (imaging unit) to perform imaging based on the average value P of the signal level of the video signal. Set the exposure state when performing. Therefore, since the signal level of the video signal that quickly detects the brightness of the object to be imaged is used to set the exposure state for imaging, the imaging mode can be quickly switched.
  • the first imaging mode setting unit 54 sets the exposure state when the imaging control unit 52 (imaging unit) performs imaging to at least daytime and nighttime. Set to the state corresponding to the time of twilight. Therefore, the visibility of the video signal output by the video output unit 57 can be adjusted according to the typical light environment when the vehicle 15 is running.
  • the first imaging mode setting unit 54 sets the exposure state when the imaging control unit 52 (imaging unit) performs imaging to a state corresponding to nighttime.
  • the halation suppression process corrects the gradation of the video signal so that the number of pixels does not exceed the threshold. It further includes a section 55 (first gradation correction section). Therefore, it is possible to suppress the occurrence of halation in the imaged video signal due to the headlights of the following vehicle.
  • the first imaging mode setting unit 54 sets the exposure state when the imaging control unit 52 (imaging unit) performs imaging to a state corresponding to nighttime.
  • a dark area visualization processing unit 56 (second gradation correction unit) is further provided for increasing the signal level of the video signal to make the whole visible when the captured video signal is below a predetermined signal level. Therefore, at night, it is possible to display a highly visible image compared to a reflected image reflected in a normal rear-view mirror.
  • FIG. 7 is an external view showing an example of an electronic mirror included in the image display system according to the second embodiment.
  • the structure of the electronic mirror 30 itself is the same as that described in the first embodiment.
  • An illuminance sensor 40b is installed in the electronic mirror 30 of the present embodiment in addition to the illuminance sensor 40a.
  • the illuminance sensor 40b is installed at the lower end of the housing 36 of the electronic mirror 30 (lower end on the Z-axis negative side) so that the light receiving part faces downward. That is, the illuminance sensor 40b is installed at a position where light from the outside of the vehicle 15 is not likely to hit the vehicle 15 while the vehicle 15 is traveling in a tunnel, an indoor parking lot, or the like.
  • the installation positions of the illuminance sensors 40a and 40b are not limited to the positions shown in FIG. For example, the illuminance sensors 40a and 40b may be installed near the camera 20b.
  • the hardware configuration of the camera 20b is the same as the hardware configuration of the camera 20a, and differs only in that the illuminance measured by the two illuminance sensors 40a and 40b is acquired, and in the implemented program. Therefore, hardware components of the camera 20b are described using the same reference numerals as those described in the first embodiment.
  • FIG. 8 is a diagram for explaining how the camera according to the second embodiment sets the video output mode based on a plurality of illuminances measured by the illuminometer.
  • La be the illuminance measured by the illuminance sensor 40a
  • Lb be the illuminance measured by the illuminance sensor 40b.
  • the camera 20b measures the illuminance La measured by the illuminance sensor 40a.
  • the exposure state of the camera 20b is set according to the brightness of the outside.
  • the camera 20b adjusts the brightness of the illuminance La outside the vehicle 15, for example, in three steps.
  • Set the exposure time Specifically, by setting a shorter exposure time as the illuminance La is high (bright), medium, or low (dark), the day mode, twilight mode, and night mode described in the first embodiment are performed. Set mode.
  • the camera 20b sets the imaging mode to the night mode regardless of the magnitudes of the illuminances La and Lb.
  • the illuminance La measured by the illuminance sensor 40a fluctuates according to the lighting conditions outside the vehicle 15. For example, when the vehicle 15 is traveling in a tunnel at night, the illuminance La This is because there are cases where the value of is large. This is because if the imaging mode is set based only on the illuminance La, the daytime mode or twilight mode will be set when the vehicle is traveling in a tunnel instead of the nighttime mode.
  • FIG. 9 is a functional block diagram showing an example of the functional configuration of a camera according to the second embodiment.
  • the camera 20b implements each functional part shown in FIG.
  • the camera 20 b includes an illuminance acquisition unit 61 , an imaging control unit 62 , an illuminance difference value calculation unit 63 , a second imaging mode setting unit 64 , an image output unit 65 , an operation control unit 66 and
  • the illuminance acquisition unit 61 obtains the illuminance La measured by the illuminance sensor 40a that measures the brightness of the outside of the vehicle 15, and the illuminance Lb measured by the illuminance sensor 40b that is installed at a position where light from the outside of the vehicle 15 is difficult to hit. to get
  • the imaging control unit 62 generates a video signal that captures an image of the observation target according to the exposure state set by the second imaging mode setting unit 64 .
  • the imaging control unit 62 is an example of an imaging unit in the present disclosure.
  • the illuminance difference value calculator 63 calculates the difference value ⁇ L between the illuminance La and the illuminance Lb.
  • the second imaging mode setting unit 64 selects the difference value ⁇ L between the plurality of illuminances La and Lb respectively measured by the illuminance sensors 40a and 40b and the illuminances La and Lb measured by the plurality of illuminance sensors 40a and 40b. , and the external illuminance La, the imaging control unit 62 sets the exposure state when imaging.
  • the video output unit 65 outputs to the electronic mirror 30 a video signal captured in the exposure state set by the second imaging mode setting unit 64 .
  • the operation control unit 66 controls the overall operating state of the camera 20b.
  • the camera 20b may further include the halation suppression processing unit 55 and the dark area visualization processing unit 56 described in the first embodiment.
  • FIG. 10 is a flowchart showing an example of the flow of processing performed by the camera according to the second embodiment.
  • the illuminance acquisition unit 61 acquires a plurality of illuminances La and Lb respectively measured by the illuminance sensors 40a and 40b (step S31).
  • the second imaging mode setting unit 64 determines whether the difference value ⁇ L is smaller than the difference value threshold (step S33). If it is determined that the difference value ⁇ L is smaller than the difference value threshold (step S33: Yes), the process proceeds to step S34. On the other hand, if it is determined that the difference value ⁇ L is not smaller than the difference value threshold (step S33: No), the process proceeds to step S35.
  • the second imaging mode setting unit 64 sets the imaging mode based on the illuminance La outside the vehicle 15 (step S34). After that, the process proceeds to step S36.
  • the exposure time may be set shorter as the illuminance La is higher (bright), medium, or lower (dark).
  • step S33 determines whether the difference value ⁇ L is smaller than the difference value threshold. If it is not determined in step S33 that the difference value ⁇ L is smaller than the difference value threshold, the second imaging mode setting unit 64 sets the imaging mode to the night mode (step S35). After that, the process proceeds to step S36.
  • the imaging control unit 62 performs imaging in the imaging mode set by the second imaging mode setting unit 64 (step S36).
  • the video output unit 65 outputs the video signal to the electronic mirror 30 (step S37).
  • the operation control unit 66 determines whether the ignition of the vehicle 15 is OFF (step S38). When it is determined that the ignition of the vehicle 15 is OFF (step S38: Yes), the camera 20b terminates the processing of FIG. On the other hand, if it is not determined that the ignition of the vehicle 15 is OFF (step S38: No), the process returns to step S31.
  • the camera 20b (imaging device) of the second embodiment includes a plurality of illuminance sensors 40a and 40b (brightness measuring units) that measure illuminance (brightness) in different directions inside and outside the vehicle 15.
  • an imaging control unit 62 (image capturing unit) that captures an image of an observation target in accordance with an exposure state corresponding to the illuminance La measured by the illuminance sensor 40a that measures the brightness outside the vehicle 15 and generates a video signal, and a plurality of illuminance Based on the difference value ⁇ L between the plurality of illuminances La and Lb respectively measured by the sensors 40a and 40b and the illuminance La outside the vehicle 15 among the illuminances La and Lb respectively measured by the plurality of illuminance sensors 40a and 40b,
  • a second imaging mode setting unit 64 for setting an exposure state when the imaging control unit 62 performs imaging, and a video output for outputting a video signal captured in the exposure state set by the second imaging mode setting unit 64. a portion 65; Therefore, it is possible to prevent the imaging mode from being erroneously set to the daytime mode due to the influence of illumination light in a tunnel, an indoor parking lot, or the like.
  • the second imaging mode setting unit 64 sets the plurality of illuminance sensors when the difference value ⁇ L between the plurality of illuminances La and Lb is smaller than the difference value threshold.
  • the illuminances La and Lb measured by 40a and 40b an exposure state corresponding to the illuminance La outside the vehicle 15 is set. Therefore, if there is no difference in brightness between the inside and outside of the vehicle 15, the imaging mode is set based on the illuminance La outside the vehicle 15, so the imaging mode should be set according to the brightness of the driving environment of the vehicle 15. can be done.
  • At least one of the plurality of illuminance sensors 40a and 40b is installed at a position where light from the outside of the vehicle 15 is less likely to hit. Therefore, the difference in brightness between the inside and outside of the vehicle 15 can be easily and reliably determined.
  • the second imaging mode setting unit 64 sets the exposure state when the imaging control unit 62 (imaging unit) performs imaging at least between daytime and nighttime. Set to the state corresponding to the time of twilight. Therefore, the visibility of the video signal output by the video output unit 65 can be adjusted according to the typical light environment when the vehicle 15 is running.
  • the image display system 10c (not shown) is installed in the vehicle 15 and includes a camera 20c instead of the camera 20a included in the image display system 10a (see FIG. 1).
  • the image display system 10c also includes an electronic mirror 30 shown in FIG.
  • FIG. 11 is a diagram illustrating a method for setting the video output mode by the camera according to the third embodiment based on the illuminance outside the vehicle measured by the illuminometer and the level of the video signal output by the camera. be.
  • La be the illuminance measured by the illuminance sensor 40a
  • Lb be the illuminance measured by the illuminance sensor 40b.
  • the camera 20c detects the illuminance La measured by the illuminance sensor 40a.
  • the exposure state of the camera 20b is set according to the brightness of the outside.
  • the camera 20c changes, for example, three levels of brightness according to the magnitude (brightness) of the illuminance La outside the vehicle 15.
  • Set the exposure time Specifically, by setting a shorter exposure time as the illuminance La is high (bright), medium, or low (dark), the day mode, twilight mode, and night mode described in the first embodiment are performed. Set mode.
  • the camera 20c based on the signal level of the video signal captured in the exposure state based on the illuminance La measured by the illuminance sensor 40a, Adjust the exposure state of the camera 20c.
  • the signal level of the video signal may be the average value P of the video signal, for example.
  • the illuminance La when the average value P of the video signal is higher than the preset brightness thresholds Pa and Pb (Pa>Pb) (equal to or greater than the brightness threshold Pa), when the illuminance La is large, the illuminance La is set in the day mode.
  • the twilight mode is set when it is medium, and the night mode is set when the illuminance La is low. It should be noted that whether the illuminance La is large, medium or small is determined by comparison with a preset illuminance threshold.
  • the dusk mode is set when the illuminance La is high or medium, and the night mode is set when the illuminance La is low.
  • the night mode is set regardless of the magnitude of the illuminance L.
  • FIG. 12 is a functional block diagram showing an example of the functional configuration of a camera according to the third embodiment
  • the camera 20c implements each functional part shown in FIG.
  • the camera 20c includes an illuminance acquisition unit 71, an imaging control unit 72, an illuminance difference value calculation unit 73, an average value calculation unit 74, a second imaging mode setting unit 75, and a third It has an imaging mode setting unit 76 , a video output unit 77 , and an operation control unit 78 .
  • the illuminance acquisition unit 71 obtains the illuminance La measured by the illuminance sensor 40a that measures the brightness of the outside of the vehicle 15, and the illuminance Lb measured by the illuminance sensor 40b installed at a position where the light from the outside of the vehicle 15 is difficult to hit. to get
  • the imaging control unit 72 generates a video signal that captures an image of the observation target according to the exposure state set by the second imaging mode setting unit 75 or the third imaging mode setting unit 76. Note that the imaging control unit 72 is an example of an imaging unit in the present disclosure.
  • the illuminance difference value calculator 73 calculates the difference value ⁇ L between the illuminance La and the illuminance Lb.
  • the average value calculation unit 74 calculates the average value P of the video signal generated by the imaging control unit 72 .
  • the second imaging mode setting unit 75 selects the difference value ⁇ L between the plurality of illuminances La and Lb respectively measured by the plurality of illuminance acquisition units 71 and the illuminance measured by the plurality of illuminance acquisition units 71 . Based on the illuminance La, an exposure state is set when the imaging control unit 72 (imaging unit) performs imaging.
  • the third imaging mode setting unit 76 causes the imaging control unit 72 (imaging unit) to perform imaging when the difference value ⁇ L between the plurality of illuminances La and Lb respectively measured by the plurality of illuminance acquisition units 71 is larger than the difference value threshold. Based on the average value P (signal level) of the obtained video signal, the imaging control unit 72 sets the exposure state when imaging.
  • the video output unit 77 outputs to the electronic mirror 30 a video signal captured in the exposure state set by the second imaging mode setting unit 75 or the third imaging mode setting unit 76 .
  • the operation control unit 78 controls the overall operation state of the camera 20c.
  • the camera 20c may further include the halation suppression processing unit 55 and the dark area visualization processing unit 56 described in the first embodiment.
  • FIG. 13 is a flow chart showing an example of the flow of processing performed by the camera according to the third embodiment.
  • the illuminance acquisition unit 71 acquires a plurality of illuminances La and Lb respectively measured by the illuminance sensors 40a and 40b (step S41).
  • the second imaging mode setting unit 75 sets the imaging mode based on the illuminance La outside the vehicle 15 (step S43).
  • the imaging control unit 72 performs imaging in the imaging mode set by the second imaging mode setting unit 75 (step S44).
  • the second imaging mode setting unit 75 determines whether the difference value ⁇ L is smaller than the difference value threshold (step S45). If it is determined that the difference value ⁇ L is smaller than the difference value threshold (step S45: Yes), the process proceeds to step S46. On the other hand, if it is determined that the difference value ⁇ L is not smaller than the difference value threshold (step S45: No), the process proceeds to step S47.
  • step S45 When it is determined in step S45 that the difference value ⁇ L is smaller than the difference value threshold, the video output unit 77 outputs the video signal to the electronic mirror 30 (step S46). After that, the process proceeds to step S50.
  • step S45 if it is not determined in step S45 that the difference value ⁇ L is smaller than the difference value threshold, the average value calculation unit 74 calculates the average value P of the video signal captured by the imaging control unit 72 (step S47).
  • the third imaging mode setting unit 76 sets the imaging mode based on the illuminance La outside the vehicle 15 and the average value P of the video signal calculated by the average value calculating unit 74 (step S48).
  • the imaging control unit 72 performs imaging in the imaging mode set by the third imaging mode setting unit 76 (step S49). After that, the process proceeds to step S46 described above.
  • step S50 the operation control unit 78 determines whether the ignition of the vehicle 15 is OFF (step S50). When it is determined that the ignition of the vehicle 15 is OFF (step S50: Yes), the camera 20c terminates the processing of FIG. On the other hand, if it is not determined that the ignition of the vehicle 15 is OFF (step S50: No), the process returns to step S41.
  • the camera 20c detects the image captured by the imaging control unit 72 (imaging unit) when the difference value ⁇ L between the illuminances La and Lb is larger than the difference value threshold.
  • the image output unit 77 further includes a third imaging mode setting unit 76 that sets the exposure state when the imaging control unit 72 performs imaging based on the average value P (signal level) of the signal. A video signal captured in the exposure state set by the imaging mode setting unit 76 is output. Therefore, even if there is a difference in brightness between the inside and outside of the vehicle 15, it is possible to set an imaging mode with higher visibility based on the signal level of the imaged image.
  • the third imaging mode setting unit 76 sets the signal level of the video signal generated by the imaging control unit 72 to at least daytime, nighttime, and twilight. Convert to the corresponding signal level. Therefore, the visibility of the video signal output by the video output unit 77 can be adjusted according to the typical light environment when the vehicle 15 is running.
  • 10a, 10b, 10c Video display system 15 Vehicles 20a, 20b, 20c Camera (imaging device) 22 video signal processor (ISP) 23 System microcomputer 30 Electronic mirror (display device) 34 display panel 35 half mirror 36 housings 40a, 40b illuminance sensor (brightness measuring unit) 51, 61 illuminance acquisition units 52, 62 imaging control unit (imaging unit) 53 average value calculation unit 54 first imaging mode setting unit 55 halation suppression processing unit (first gradation correction unit) 56 Dark Visualization Processing Unit (Second Gradation Correction Unit) 57, 65 video output units 58, 66 operation control unit 63 illuminance difference value calculation units 64, 75 second imaging mode setting unit 76 third imaging mode setting units L, La, Lb illuminance (brightness) P Average value Pa, Pb Brightness threshold ⁇ L Difference value

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

カメラ(撮像装置)は、車両の外部の照度(明るさ)を計測する照度センサ(明るさ計測部)が計測した照度に応じた露出状態によって観測対象を撮像して映像信号を生成する撮像制御部(撮像部)と、照度と撮像制御部が生成した映像信号の信号レベルとに基づいて、撮像制御部が撮像を行う際の露出状態を設定する第1の撮像モード設定部と、第1の撮像モード設定部が設定した露出状態で撮像された映像信号を出力する映像出力部と、を備える。

Description

撮像装置および映像表示システム
 本開示は、撮像装置および映像表示システムに関する。
 近年、カメラを用いた各種の運転支援システムが車両に搭載されている。これらの運転支援システムの中には、例えば、カメラが撮像した車両周囲の画像を、バックミラーやサイドミラーから置き換えた電子ミラーに表示するものがある。
 このような電子ミラーにあっては、従来のミラーと同等以上の映像の画質が求められる。近年は、カメラに用いられる撮像素子のダイナミックレンジを拡大した広ダイナミックレンジの撮像素子が実用化されており、より一層の高画質化が図られている。
 例えば、特許文献1では、車両周囲の明るさに応じて、カメラの露出状態が昼間の明るい場所に最適調整された昼モード、カメラの露出状態が夜間の暗い場所に最適調整された夜モード、カメラの露出状態が夕方の薄暮に最適調整された薄暮モードを備えて、車両に搭載された照度計が計測した車両周囲の明るさに応じて、これらのモードの切り替えを行っている。
特許第6717333号公報
 しかしながら、照度計が計測した車両周囲の明るさに応じたモード切り替えを行うための演算時間が必要となるため、トンネルの出入口や立体駐車場等の明暗が急激に変化する環境においては、モード切り替えが瞬時に行えないという問題があった。また、車両周囲の局所照明の影響によって、本来とは異なるモードに設定されてしまうという問題があった。例えば、照度計が、トンネル内に設置された照明の明るさを検知すると、実際よりも高い照度が計測されるため、本来夜モードにすべきところが、昼モードのままになってしまうという問題があった。
 本開示は、正確かつ素早いモード切り替えが可能な撮像装置および映像表示システムを提供することを目的とする。
 本開示に係る撮像装置は、車両の外部の明るさを計測する明るさ計測部が計測した明るさに応じた露出状態によって観測対象を撮像して映像信号を生成する撮像部と、明るさと撮像部が生成した映像信号の信号レベルとに基づいて、撮像部が撮像を行う際の露出状態を設定する第1の撮像モード設定部と、第1の撮像モード設定部が設定した露出状態で撮像された映像信号を出力する映像出力部と、を備えることを特徴とする。
 また、本開示に係る撮像装置は、車両の内外の異なる方向の明るさを計測する複数の明るさ計測部のうち、車両の外部の明るさを計測する明るさ計測部が計測した明るさに応じた露出状態によって観測対象を撮像して映像信号を生成する撮像部と、複数の明るさ計測部がそれぞれ計測した複数の明るさの差分値と、複数の明るさ計測部が計測した明るさのうち車両の外部の明るさと、に基づいて、撮像部が撮像を行う際の露出状態を設定する第2の撮像モード設定部と、第2の撮像モード設定部によって設定された露出状態で撮像された映像信号を出力する映像出力部と、を備えることを特徴とする。
 本開示に係る撮像装置によれば、正確かつ素早いモード切り替えを行うことができる。
図1は、第1の実施形態に係る映像表示システムの全体構成の一例を示すシステム構成図である。 図2は、第1の実施形態に係る映像表示システムが備える電子ミラーの一例を示す外観図である。 図3は、映像表示システムのハードウェア構成の一例を示すハードウェアブロック図である。 図4は、第1の実施形態に係るカメラが、照度計が計測した照度と、撮像装置が出力する映像信号のレベルとに基づいて、映像出力モードを設定する方法を説明する図である。 図5は、第1の実施形態に係るカメラの機能構成の一例を示す機能ブロック図である。 図6は、第1の実施形態に係るカメラが行う処理の流れの一例を示すフローチャートである。 図7は、第2の実施形態に係る映像表示システムが備える電子ミラーの一例を示す外観図である。 図8は、第2の実施形態に係るカメラが、照度計が計測した複数の照度に基づいて、映像出力モードを設定する方法を説明する図である。 図9は、第2の実施形態に係るカメラの機能構成の一例を示す機能ブロック図である。 図10は、第2の実施形態に係るカメラが行う処理の流れの一例を示すフローチャートである。 図11は、第3の実施形態に係るカメラが、照度計が計測した車両外部の照度と、カメラが出力する映像信号のレベルとに基づいて、映像出力モードを設定する方法を説明する図である。 図12は、第3の実施形態に係るカメラの機能構成の一例を示す機能ブロック図である。 図13は、第3の実施形態に係るカメラが行う処理の流れの一例を示すフローチャートである。
(第1の実施形態)
 以下、図面を参照しながら、本開示に係る撮像装置および映像表示システムの第1の実施形態について説明する。
(映像表示システムの全体構成)
 まず、図1を用いて、映像表示システム10aの全体構成を説明する。図1は、第1の実施形態に係る映像表示システムの全体構成の一例を示すシステム構成図である。
 映像表示システム10aは、車両15に搭載されて、カメラ20aと電子ミラー30とを備える。カメラ20aは、例えば、車両15の後部に、車両15の後方(X軸負側)を向けて設置される。カメラ20aは、例えば、CMОSやCCD等の撮像素子を備えて、車両15の後方を撮像する。なお、カメラ20aは、本開示における撮像装置の一例である。電子ミラー30は、電子ミラー30は、一般的なミラータイプの後写鏡の機能と、カメラ20aが撮像した車両15の後方の映像を表示する機能とを併せ持つ。電子ミラー30の構造について、詳しくは後述する。なお、電子ミラー30は、本開示における表示装置の一例である。
 次に、図2を用いて、電子ミラー30の構造を説明する。図2は、第1の実施形態に係る映像表示システムが備える電子ミラーの一例を示す外観図である。
 電子ミラー30は、筐体36の内部に、ディスプレイパネル34を内包する。ディスプレイパネル34は、例えば、液晶パネルや有機ELパネル等である。ディスプレイパネル34の表示面は、筐体36の開口部の側を向けて配置される。さらに、ディスプレイパネル34の表示面に対向するように、ハーフミラー35が設置されている。
 電子ミラー30は、取付部37を介して、車両15のウインドシールド、または天井に取り付けられる。
 電子ミラー30の筐体36の下部には、操作スイッチ38が取り付けられる。操作スイッチ38を操作することにとって、ディスプレイパネル34による表示と、ハーフミラー35に写る車両15の後方の反射像とを切り替える。なお、ハーフミラー35に写る反射像を表示する際には、ディスプレイパネル34は非表示の状態となる。
 電子ミラー30の筐体36の車両15の前方側(X軸正側)には、照度センサ40aが設置される。照度センサ40aは、例えばフォトダイオードで構成されて、外部の明るさに応じた電気信号を出力する。なお、照度センサ40aの受光部は、車両15の前方側に向けて設置される。なお、照度センサ40aとして、フォトダイオードと同じ機能を有する別のセンサを用いてもよい。また、ここでは、照度センサ40aが電子ミラー30の筐体36に取り付けられた例を示したが、照度センサ40aの取付位置は、電子ミラー30の筐体36に限定されるものではない。例えば、照度センサ40aを、カメラ20aの近傍に、車両15の後方を向けて設置してもよい。なお、照度センサ40aは、本開示における明るさ計測部の一例である。
(映像表示システムのハードウェア構成)
 図3を用いて、映像表示システム10aのハードウェア構成を説明する。図3は、映像表示システムのハードウェア構成の一例を示すハードウェアブロック図である。
 映像表示システム10aは、カメラ20aと、電子ミラー30と、照度センサ40aとを備える。
 カメラ20aは、更に、受光素子21と、映像信号処理プロセッサ22と、システムマイコン23と、シリアライザ24とコネクタ25とを備える。
 受光素子21は、カメラ20aが備えるレンズ(光学系)が受光素子21上の結像させた光学像の明るさを電気信号に変換する、いわゆる光電変換を行う。受光素子21は、更に、光電変換部21aと、駆動制御部21bと、インタフェース部21cとを備える。なお、受光素子21は、複数のセルの集合体である。各セルは画素とも呼ばれて、画素数が多いほど、生成される映像信号の解像度が高い。
 光電変換部21aは、受光素子21に結像した光学像の明るさを電気信号に変換する光電変換を行う。
 駆動制御部21bは、光電変換部21aの露光時間と、光電変換部21aが行う光電変換のタイミング等を制御する。
 インタフェース部21cは、映像信号の出力タイミングを制御する。
 映像信号処理プロセッサ22は、受光素子21が生成した映像信号からYC信号(輝度信号(Y)と色度信号(C))を生成する。映像信号処理プロセッサ22は、ISP(Image Signal Processor)とも呼ばれる。映像信号処理プロセッサ22は、更に、映像信号処理部22aと、インタフェース部22bとを備える。映像信号処理部22aは、受光素子21が生成した映像信号に対して、ダイナミックレンジやNR(Noise Reduction)補正を行ってYC信号を生成する。インタフェース部22bは、映像信号の入出力タイミングを制御する。
 システムマイコン23は、映像信号処理プロセッサ22と協働することによって、予め設定された信号処理を行う。具体的には、システムマイコン23は、照度センサ40aが測定した照度に基づいて、受光素子21が撮像を行う際の撮像条件の設定等を行う。具体的な信号処理の内容については後述する。
 シリアライザ24は、映像信号処理プロセッサ22が出力する映像信号を、パラレル信号からシリアル信号に変換する。
 コネクタ25は、カメラ20aと電子ミラー30とを電気的に接続する。
 電子ミラー30は、コネクタ31と、デシリアライザ32と映像処理IC33と、ディスプレイパネル34とを備える。
 コネクタ31は、電子ミラー30とカメラ20aとを電気的に接続する。
 デシリアライザ32は、カメラ20aから出力された映像信号を、シリアル信号をパラレル信号に変換する。
 映像処理IC33は、映像信号の階調補正等を行って、ディスプレイパネル34に表示させる映像信号を生成する。
 ディスプレイパネル34は、映像処理IC33が生成した映像信号を表示する。
 なお、図3には図示しないが、電子ミラー30は、図2で説明したように、ディスプレイパネル34に重畳して設置されたハーフミラー35を備え、電子ミラー30は、操作スイッチ38の操作によって、ディスプレイパネル34に表示された映像信号と、ハーフミラー35に映った車両15の後方の反射像とを切り替えて表示する。
 照度センサ40aの機能等については、前記した通りである。
(照度センサが計測した明るさと映像信号のレベルとに基づく露出状態の設定)
 図4を用いて、照度センサ40aが計測した明るさとカメラ20aが撮像した映像信号とから、カメラ20aの露出状態を設定する方法を説明する。図4は、第1の実施形態に係るカメラが、照度計が計測した照度と、撮像装置が出力する映像信号のレベルとに基づいて、映像出力モードを設定する方法を説明する図である。
 照度センサ40aは、車両15の外部の明るさを計測する。したがって、照度センサ40aが計測した照度Lに応じてカメラ20aの露出状態を設定して撮像を行うことによって、車両15の外部の明るさによらずに、視認性の高い映像信号を生成することができる。映像表示システム10aは、カメラ20aの露出状態が昼間の明るい場所に最適調整された昼モードと、カメラ20aの露出状態が夜間の暗い場所に最適調整された夜モードと、カメラ20aの露出状態が夕方の薄暮に最適調整された薄暮モードとを備える。以下、昼モードと、夜モードと、薄暮モードとを総称して撮像モードと呼ぶ。
 カメラ20aは、更に、照度センサ40aが計測した照度Lに基づく露出状態で撮像した映像信号の信号レベルに基づいて、カメラ20aの露出状態を調整する。なお、照度Lは、本開示における、明るさの一例である。
 なお、映像信号の信号レベルは、例えば映像信号の平均値Pとしてもよいし、映像信号の値の頻度分布(ヒストグラム)の形状に基づく値としてもよい。
 図4は、照度センサ40aが計測した照度Lと、照度Lに応じて設定した露出状態で撮像した映像信号の平均値Pとに基づいて設定される撮像モードの一例を示す。
 カメラ20aのシステムマイコン23は、照度センサ40aが計測した照度Lを取得して、システムマイコン23、または映像信号処理プロセッサ22において、照度Lに応じた露光時間を設定する。そして、光電変換部21aは、設定された露光時間に基づいて光電変換を行う。
 受光素子21の駆動制御部21bは、照度Lの大きさ(明るさ)に応じて、例えば3段階の露光時間を設定する。具体的には、照度Lの大(明)、中、小(暗)に応じて、明るいほど短い露光時間を設定する。
 映像信号処理部22aは、設定された露光時間で撮像された映像信号を取得して、画像の明るさの平均値Pを算出する。
 システムマイコン23は、平均値Pを取得して、平均値Pの大きさに応じた撮像モード(昼モードと薄暮モードと夜モード)を設定する。
 図4は、こうして設定される撮像モードの一例を示す。例えば、予め設定した明るさ閾値Pa,Pb(Pa>Pb)に対して、映像信号の平均値Pが高い(明るさ閾値Pa以上である)場合、照度Lが大きいときには昼モード、照度Lが中のときには薄暮モード、照度Lが小さいときには夜モードが設定される。なお、照度Lの大中小は、予め設定された照度閾値との比較によって決定する。
 また、映像信号の平均値Pが中程度(明るさ閾値Pb以上Pa未満)である場合、照度Lが大、または中のときには薄暮モード、照度Lが小さいときには夜モードが設定される。
 また、映像信号の平均値Pが低い(明るさ閾値Pc未満である)場合は、照度Lの大きさによらず、夜モードが設定される。
 なお、明るさ閾値Pa,Pbの値は、受光素子21の仕様によっても異なるが、例えば、生成される映像信号の量子化レベルが8ビットの場合、Pa=90、Pb=6.5等の値が用いられる。また、図4に示す撮像モードの設定例は一例であって、これ以外のマップによって撮像モードを設定してもよい。
(カメラの機能構成)
 図5を用いて、第1の実施形態に係るカメラ20aの機能構成を説明する。図5は、第1の実施形態に係るカメラの機能構成の一例を示す機能ブロック図である。
 カメラ20aは、予めシステムマイコン23に格納されたプログラムを実行することによって、映像信号処理プロセッサ22とシステムマイコン23との中に、図5に示す各機能部を実現する。
 具体的には、カメラ20aは、照度取得部51と、撮像制御部52と、平均値算出部53と、第1の撮像モード設定部54と、ハレーション抑制処理部55と、暗部可視化処理部56と、映像出力部57と、動作制御部58とを備える。
 照度取得部51は、車両15の外部の明るさを計測する照度センサ40aが計測した照度Lを取得する。
 撮像制御部52は、第1の撮像モード設定部54が設定した露出状態によって観測対象を撮像した映像信号を生成する。なお、撮像制御部52は、本開示における撮像部の一例である。
 平均値算出部53は、撮像制御部52が生成した映像信号の平均値Pを算出する。
 第1の撮像モード設定部54は、照度Lと、撮像制御部52が生成した映像信号の信号レベルと、に基づいて、当該撮像部が撮像を行う際の露出状態を設定する。
 ハレーション抑制処理部55は、撮像された映像信号の中の、所定の信号レベルを超える画素数が閾値を超えた場合に、当該画素数が閾値を超えないように、映像信号の階調を補正するハレーション抑制処理を行う。なお、ハレーション抑制処理部55は、本開示における第1の階調補正部の一例である。
 暗部可視化処理部56は、撮像された映像信号が、所定の信号レベルを下回る場合に、映像信号の信号レベルを上げて全体を見えやすくする。なお、暗部可視化処理部56は、本開示における第2の階調補正部の一例である。
 映像出力部57は、第1の撮像モード設定部54が設定した露出状態で撮像された映像信号を、電子ミラー30に出力する。
 動作制御部58は、カメラ20aの全体の動作状態を制御する。
(カメラが行う処理の流れ)
 図6を用いて、第1の実施形態に係るカメラ20aが行う処理の流れを説明する。図6は、第1の実施形態に係るカメラが行う処理の流れの一例を示すフローチャートである。
 照度取得部51は、照度センサ40aが計測した照度Lを取得する(ステップS11)。
 撮像制御部52は、照度取得部51が取得した照度Lに応じた露出状態で撮像を行う(ステップS12)。
 平均値算出部53は、撮像制御部52が撮像した映像信号の平均値Pを算出する(ステップS13)。
 第1の撮像モード設定部54は、照度Lと、平均値算出部53が算出した映像信号の平均値Pとに基づいて、撮像モードを設定する(ステップS14)。
 撮像制御部52は、第1の撮像モード設定部54が設定した撮像モードで撮像を行う(ステップS15)。
 第1の撮像モード設定部54は、現在の撮像モードが夜モードであるかを判定する(ステップS16)。現在の撮像モードが夜モードであると判定される(ステップS16:Yes)とステップS17に進む。一方、現在の撮像モードが夜モードであると判定されない(ステップS16:No)とステップS19に進む。
 ステップS16において、現在の撮像モードが夜モードであると判定されると、ハレーション抑制処理部55は、撮像された映像信号の中の、所定の信号レベルを超える画素数が閾値を超えた場合に、当該画素数が閾値を超えないように、映像信号の階調を補正するハレーション抑制処理を行う(ステップS17)。なお、ハレーション抑制処理の具体的な処理内容は、これに限定されるものではない。
 次に、暗部可視化処理部56は、撮像された映像信号の中の、所定の信号レベルを下回る画素数が閾値を超えた場合、即ち低輝度領域が広い場合に、映像信号の信号レベルを上げて全体を見えやすくする暗部可視化処理を行う(ステップS18)。なお、画像の信号レベルを上げて全体を見えやすくする処理は、一般に利用されている手法であるため、詳細な説明は省略する。
 映像出力部57は、映像信号を電子ミラー30に出力する(ステップS19)。
 動作制御部58は、車両15のイグニッションがOFFであるかを判定する(ステップS20)。車両15のイグニッションがOFFであると判定される(ステップS20:Yes)と、カメラ20aは、図6の処理を終了する。一方、車両15のイグニッションがOFFであると判定されない(ステップS20:No)と、ステップS11に戻る。
(第1の実施形態の作用効果)
 以上説明したように、第1の実施形態のカメラ20a(撮像装置)は、車両15の外部の照度L(明るさ)を計測する照度センサ40a(明るさ計測部)が計測した照度Lに応じた露出状態によって観測対象を撮像して映像信号を生成する撮像制御部52(撮像部)と、照度Lと撮像制御部52が生成した映像信号の信号レベルとに基づいて、撮像制御部52が撮像を行う際の露出状態を設定する第1の撮像モード設定部54と、第1の撮像モード設定部54が設定した露出状態で撮像された映像信号を出力する映像出力部57と、を備える。したがって、正確かつ素早い撮像モード切り替えが可能な撮像装置を提供することができる。
 また、第1の実施形態のカメラ20a(撮像装置)において、第1の撮像モード設定部54は、映像信号の信号レベルの平均値Pに基づいて、撮像制御部52(撮像部)が撮像を行う際の露出状態を設定する。したがって、撮像対象物の明るさを素早く検出する映像信号の信号レベルを利用して撮像を行う際の露出状態を設定するため、撮像モードの切替を素早く行うことができる。
 また、第1の実施形態のカメラ20a(撮像装置)において、第1の撮像モード設定部54は、撮像制御部52(撮像部)が撮像を行う際の露出状態を、少なくとも、昼間と夜間と薄暮時とにそれぞれ対応する状態に設定する。したがって、映像出力部57が出力する映像信号の視認性を、車両15の走行時における代表的な光環境に応じたものとすることができる。
 また、第1の実施形態のカメラ20a(撮像装置)は、第1の撮像モード設定部54が、撮像制御部52(撮像部)が撮像する際の露出状態を夜間に対応する状態に設定した際に、撮像された映像信号の中の、所定の信号レベルを超える画素数が閾値を超えた場合に、前記画素数が閾値を超えないように、映像信号の階調を補正するハレーション抑制処理部55(第1の階調補正部)を更に備える。したがって、後続車両の前照灯によって、撮像された映像信号にハレーションが発生するのを抑制することができる。
 また、第1の実施形態のカメラ20a(撮像装置)は、第1の撮像モード設定部54が、撮像制御部52(撮像部)が撮像する際の露出状態を夜間に対応する状態に設定した際に、撮像された映像信号が、所定の信号レベルを下回る場合に、映像信号の信号レベルを上げて全体を見えやすくする暗部可視化処理部56(第2の階調補正部)を更に備える。したがって、夜間において、通常の後写鏡に写る反射像に比べて、視認性の高い映像を表示させることができる。
(第2の実施形態)
 次に、本開示の第2の実施形態である映像表示システム10bについて説明する。映像表示システム10b(非図示)は、車両15に設置されて、映像表示システム10a(図1参照)が備えるカメラ20aの代わりにカメラ20bを備える。また、映像表示システム10bは、図7に示す電子ミラー30を備える。図7は、第2の実施形態に係る映像表示システムが備える電子ミラーの一例を示す外観図である。
 電子ミラー30自体の構造は、第1の実施形態で説明したものと同じである。そして、本実施形態の電子ミラー30には、前記した照度センサ40aに加えて、照度センサ40bが設置される。
 照度センサ40bは、電子ミラー30の筐体36の下端(Z軸負側の下端)に、受光部が下を向くように設置される。即ち、照度センサ40bは、車両15がトンネル内や屋内駐車場等を走行している際に、車両15の外部からの光が当たりにくい位置に設置される。なお、照度センサ40a,40bの設置位置は、図7に示す位置に限られない。例えば、照度センサ40a,40bを、カメラ20bの近傍に設置してもよい。
 カメラ20bのハードウェア構成は、カメラ20aのハードウェア構成と同じであり、2個の照度センサ40a,40bが計測した照度を取得する点と、実装されるプログラムのみが異なる。そのため、カメラ20bのハードウェア構成要素については、第1の実施形態で説明したのと同じ符号を用いて説明する。
(照度センサが計測した明るさに基づく露出状態の設定)
 図8を用いて、照度センサ40a,40bが計測した照度La,Lbから、カメラ20bの適切な露出状態を設定する方法を説明する。図8は、第2の実施形態に係るカメラが、照度計が計測した複数の照度に基づいて、映像出力モードを設定する方法を説明する図である。
 照度センサ40aが計測した照度をLa、照度センサ40bが計測した照度をLbとする。
 カメラ20bは、照度センサ40aが計測した照度Laと、照度センサ40bが計測した照度Lbとの差分値ΔLが所定値よりも小さい場合に、照度センサ40aが計測した照度La、即ち、車両15の外部の明るさに応じて、カメラ20bの露出状態を設定する。
 具体的には、カメラ20bは、照度Laと照度Lbとの差分値ΔLが所定値よりも小さい場合に、車両15の外部の照度Laの大きさ(明るさ)に応じて、例えば3段階の露光時間を設定する。具体的には、照度Laの大(明)、中、小(暗)に応じて、明るいほど短い露光時間を設定することによって、第1の実施形態で説明した、昼モード、薄暮モード、夜モードを設定する。
 一方、カメラ20bは、照度Laと照度Lbとの差分値ΔLが所定値以上である場合には、照度La,Lbの大きさに関わらずに、撮像モードを夜モードに設定する。これは、照度センサ40aが計測する照度Laは、車両15の外部の照明状態に応じて変動するため、例えば、夜間にトンネル内を走行している場合に、トンネル内の照明光によって、照度Laが大きな値を呈する場合があるためである。照度Laのみに基づいて撮像モードを設定すると、トンネル内を走行している場合に、本来は夜モードとすべきところが、昼モードまたは薄暮モードになってしまうためである。
(カメラの機能構成)
 図9を用いて、第2の実施形態に係るカメラ20bの機能構成を説明する。図9は、第2の実施形態に係るカメラの機能構成の一例を示す機能ブロック図である。
 カメラ20bは、予めシステムマイコン23に格納されたプログラムを実行することによって、映像信号処理プロセッサ22とシステムマイコン23との中に、図9に示す各機能部を実現する。
 具体的には、カメラ20bは、照度取得部61と、撮像制御部62と、照度の差分値算出部63と、第2の撮像モード設定部64と、映像出力部65と、動作制御部66とを備える。
 照度取得部61は、車両15の外部の明るさを計測する照度センサ40aが計測した照度Laと、車両15の外部からの光が当たりにくい位置に設置された照度センサ40bが計測した照度Lbとを取得する。
 撮像制御部62は、第2の撮像モード設定部64が設定した露出状態によって観測対象を撮像した映像信号を生成する。なお、撮像制御部62は、本開示における撮像部の一例である。
 照度の差分値算出部63は、照度Laと照度Lbとの差分値ΔLを算出する。
 第2の撮像モード設定部64は、照度センサ40a,40bがそれぞれ計測した複数の照度La,Lbの差分値ΔLと、複数の照度センサ40a,40bが計測した照度La,Lbのうち、車両15の外部の照度Laと、に基づいて、撮像制御部62が撮像を行う際の露出状態を設定する。
 映像出力部65は、第2の撮像モード設定部64が設定した露出状態で撮像された映像信号を、電子ミラー30に出力する。
 動作制御部66は、カメラ20bの全体の動作状態を制御する。
 なお、カメラ20bは、更に、第1の実施形態で説明したハレーション抑制処理部55と暗部可視化処理部56とを備えてもよい。
(カメラが行う処理の流れ)
 図10を用いて、第2の実施形態に係るカメラ20bが行う処理の流れを説明する。図10は、第2の実施形態に係るカメラが行う処理の流れの一例を示すフローチャートである。
 照度取得部61は、照度センサ40a,40bがそれぞれ計測した複数の照度La,Lbを取得する(ステップS31)。
 照度の差分値算出部63は、照度Laと照度Lbとの差分値ΔL(=La-Lb)を算出する(ステップS32)。
 第2の撮像モード設定部64は、差分値ΔLが差分値閾値よりも小さいかを判定する(ステップS33)。差分値ΔLが差分値閾値よりも小さいと判定される(ステップS33:Yes)とステップS34に進む。一方、差分値ΔLが差分値閾値よりも小さいと判定されない(ステップS33:No)とステップS35に進む。
 ステップS33において、差分値ΔLが差分値閾値よりも小さいと判定されると、第2の撮像モード設定部64は、車両15の外部の照度Laに基づいて撮像モードを設定する(ステップS34)。その後、ステップS36に進む。なお、具体的な撮像モードの設定方法は、例えば、照度Laの大(明)、中、小(暗)に応じて、明るいほど短い露光時間を設定すればよい。
 一方、ステップS33において、差分値ΔLが差分値閾値よりも小さいと判定されないと、第2の撮像モード設定部64は、撮像モードを夜モードに設定する(ステップS35)。その後、ステップS36に進む。
 撮像制御部62は、第2の撮像モード設定部64が設定した撮像モードで撮像を行う(ステップS36)。
 映像出力部65は、映像信号を電子ミラー30に出力する(ステップS37)。
 動作制御部66は、車両15のイグニッションがOFFであるかを判定する(ステップS38)。車両15のイグニッションがOFFであると判定される(ステップS38:Yes)と、カメラ20bは、図10の処理を終了する。一方、車両15のイグニッションがOFFであると判定されない(ステップS38:No)と、ステップS31に戻る。
(第2の実施形態の作用効果)
 以上説明したように、第2の実施形態のカメラ20b(撮像装置)は、車両15の内外の異なる方向の照度(明るさ)を計測する複数の照度センサ40a,40b(明るさ計測部)のうち、車両15の外部の明るさを計測する照度センサ40aが計測した照度Laに応じた露出状態によって観測対象を撮像して映像信号を生成する撮像制御部62(撮像部)と、複数の照度センサ40a,40bがそれぞれ計測した複数の照度La,Lbの差分値ΔLと、複数の照度センサ40a,40bがそれぞれ計測した照度La,Lbのうち車両15の外部の照度Laと、に基づいて、撮像制御部62が撮像を行う際の露出状態を設定する第2の撮像モード設定部64と、第2の撮像モード設定部64によって設定された露出状態で撮像された映像信号を出力する映像出力部65と、を備える。したがって、トンネル内や屋内駐車場等において、照明光の影響によって、撮像モードが誤って昼モードに設定されるのを防止することができる。
 また、第2の実施形態のカメラ20b(撮像装置)において、第2の撮像モード設定部64は、複数の照度La,Lbの差分値ΔLが差分値閾値よりも小さい場合に、複数の照度センサ40a,40bが計測した照度La,Lbのうち、車両15の外部の照度Laに応じた露出状態を設定する。したがって、車両15の内外の明るさに差がない場合は、車両15の外部の照度Laに基づいて撮像モードを設定するため、車両15の走行環境の明るさに応じた撮像モードを設定することができる。
 また、第2の実施形態のカメラ20b(撮像装置)において、複数の照度センサ40a,40bのうち、少なくとも1つは、車両15の外部からの光が当たりにくい位置に設置される。したがって、車両15の内外の明るさの差を、簡単かつ確実に判定することができる。
 また、第2の実施形態のカメラ20b(撮像装置)において、第2の撮像モード設定部64は、撮像制御部62(撮像部)が撮像を行う際の露出状態を、少なくとも、昼間と夜間と薄暮時とにそれぞれ対応する状態に設定する。したがって、映像出力部65が出力する映像信号の視認性を、車両15の走行時における代表的な光環境に応じたものとすることができる。
(第3の実施形態)
 次に、本開示の第3の実施形態である映像表示システム10cについて説明する。映像表示システム10c(非図示)は、車両15に設置されて、映像表示システム10a(図1参照)が備えるカメラ20aの代わりにカメラ20cを備える。また、映像表示システム10cは、図7に示す電子ミラー30を備える。
(照度センサが計測した明るさと映像信号のレベルとに基づく露出状態の設定)
 図11を用いて、照度センサ40a,40bが計測した照度La,Lbと、カメラ20cが生成した映像信号のレベルとから、カメラ20cの適切な露出状態を設定する方法を説明する。図11は、第3の実施形態に係るカメラが、照度計が計測した車両外部の照度と、カメラが出力する映像信号のレベルとに基づいて、映像出力モードを設定する方法を説明する図である。
 照度センサ40aが計測した照度をLa、照度センサ40bが計測した照度をLbとする。
 カメラ20cは、照度センサ40aが計測した照度Laと、照度センサ40bが計測した照度Lbとの差分値ΔLが所定値よりも小さい場合に、照度センサ40aが計測した照度La、即ち、車両15の外部の明るさに応じて、カメラ20bの露出状態を設定する。
 具体的には、カメラ20cは、照度Laと照度Lbとの差分値ΔLが所定値よりも小さい場合に、車両15の外部の照度Laの大きさ(明るさ)に応じて、例えば3段階の露光時間を設定する。具体的には、照度Laの大(明)、中、小(暗)に応じて、明るいほど短い露光時間を設定することによって、第1の実施形態で説明した、昼モード、薄暮モード、夜モードを設定する。
 一方、カメラ20cは、照度Laと照度Lbとの差分値ΔLが所定値以上である場合には、照度センサ40aが計測した照度Laに基づく露出状態で撮像した映像信号の信号レベルに基づいて、カメラ20cの露出状態を調整する。映像信号の信号レベルは、例えば映像信号の平均値Pとすればよい。
 例えば、予め設定した明るさ閾値Pa,Pb(Pa>Pb)に対して、映像信号の平均値Pが高い(明るさ閾値Pa以上である)場合、照度Laが大きいときには昼モード、照度Laが中のときには薄暮モード、照度Laが小さいときには夜モードが設定される。なお、照度Laの大中小は、予め設定された照度閾値との比較によって決定する。
 また、映像信号の平均値Pが中程度(明るさ閾値Pb以上Pa未満)である場合、照度Laが大、または中のときには薄暮モード、照度Laが小さいときには夜モードが設定される。
 また、映像信号の平均値Pが低い(明るさ閾値Pc未満である)場合は、照度Lの大きさによらず、夜モードが設定される。
 なお、明るさ閾値Pa,Pbの値は、受光素子21の仕様によっても異なるが、例えば、生成される映像信号の量子化レベルが8ビットの場合、Pa=90、Pb=6.5等の値が用いられる。また、図11に示す撮像モードの設定例は一例であって、これ以外のマップによって撮像モードを設定してもよい。
(カメラの機能構成)
 図12を用いて、第3の実施形態に係るカメラ20cの機能構成を説明する。図12は、第3の実施形態に係るカメラの機能構成の一例を示す機能ブロック図である。
 カメラ20cは、予めシステムマイコン23に格納されたプログラムを実行することによって、映像信号処理プロセッサ22とシステムマイコン23との中に、図12に示す各機能部を実現する。
 具体的には、カメラ20cは、照度取得部71と、撮像制御部72と、照度の差分値算出部73と、平均値算出部74と、第2の撮像モード設定部75と、第3の撮像モード設定部76と、映像出力部77と、動作制御部78とを備える。
 照度取得部71は、車両15の外部の明るさを計測する照度センサ40aが計測した照度Laと、車両15の外部からの光が当たりにくい位置に設置された照度センサ40bが計測した照度Lbとを取得する。
 撮像制御部72は、第2の撮像モード設定部75、または第3の撮像モード設定部76設定した露出状態によって、観測対象を撮像した映像信号を生成する。なお、撮像制御部72は、本開示における撮像部の一例である。
 照度の差分値算出部73は、照度Laと照度Lbとの差分値ΔLを算出する。
 平均値算出部74は、撮像制御部72が生成した映像信号の平均値Pを算出する。
 第2の撮像モード設定部75は、複数の照度取得部71がそれぞれ計測した複数の照度La,Lbの差分値ΔLと、複数の照度取得部71が計測した照度のうち、車両15の外部の照度Laと、に基づいて、撮像制御部72(撮像部)が撮像を行う際の露出状態を設定する。
 第3の撮像モード設定部76は、複数の照度取得部71がそれぞれ計測した複数の照度La,Lbの差分値ΔLが差分値閾値よりも大きい場合に、撮像制御部72(撮像部)が撮像した映像信号の平均値P(信号レベル)に基づいて、撮像制御部72が撮像を行う際の露出状態を設定する。
 映像出力部77は、第2の撮像モード設定部75、または第3の撮像モード設定部76が設定した露出状態で撮像された映像信号を、電子ミラー30に出力する。
 動作制御部78は、カメラ20cの全体の動作状態を制御する。
 なお、カメラ20cは、更に、第1の実施形態で説明したハレーション抑制処理部55と暗部可視化処理部56とを備えてもよい。
(カメラが行う処理の流れ)
 図13を用いて、第3の実施形態に係るカメラ20cが行う処理の流れを説明する。図13は、第3の実施形態に係るカメラが行う処理の流れの一例を示すフローチャートである。
 照度取得部71は、照度センサ40a,40bがそれぞれ計測した複数の照度La,Lbを取得する(ステップS41)。
 照度の差分値算出部73は、照度Laと照度Lbとの差分値ΔL(=La-Lb)を算出する(ステップS42)。
 第2の撮像モード設定部75は、車両15の外部の照度Laに基づいて撮像モードを設定する(ステップS43)。
 撮像制御部72は、第2の撮像モード設定部75が設定した撮像モードで撮像を行う(ステップS44)。
 第2の撮像モード設定部75は、差分値ΔLが差分値閾値よりも小さいかを判定する(ステップS45)。差分値ΔLが差分値閾値よりも小さいと判定される(ステップS45:Yes)とステップS46に進む。一方、差分値ΔLが差分値閾値よりも小さいと判定されない(ステップS45:No)とステップS47に進む。
 ステップS45において、差分値ΔLが差分値閾値よりも小さいと判定されると、映像出力部77は、映像信号を電子ミラー30に出力する(ステップS46)。その後、ステップS50に進む。
 一方、ステップS45において、差分値ΔLが差分値閾値よりも小さいと判定されないと、平均値算出部74は、撮像制御部72が撮像した映像信号の平均値Pを算出する(ステップS47)。
 第3の撮像モード設定部76は、車両15の外部の照度Laと、平均値算出部74が算出した映像信号の平均値Pとに基づいて、撮像モードを設定する(ステップS48)。
 撮像制御部72は、第3の撮像モード設定部76が設定した撮像モードで撮像を行う(ステップS49)。その後、前述したステップS46に進む。
 ステップS46に続いて、動作制御部78は、車両15のイグニッションがOFFであるかを判定する(ステップS50)。車両15のイグニッションがOFFであると判定される(ステップS50:Yes)と、カメラ20cは、図13の処理を終了する。一方、車両15のイグニッションがOFFであると判定されない(ステップS50:No)と、ステップS41に戻る。
(第3の実施形態の作用効果)
 以上説明したように、第3の実施形態のカメラ20c(撮像装置)は、照度La,Lbの差分値ΔLが差分値閾値よりも大きい場合に、撮像制御部72(撮像部)が撮像した映像信号の平均値P(信号レベル)に基づいて、撮像制御部72が撮像を行う際の露出状態を設定する第3の撮像モード設定部76を、更に備えて、映像出力部77は、第3の撮像モード設定部76が設定した露出状態で撮像された映像信号を出力する。したがって、車両15の内外で明るさの差がある場合であっても、撮像された映像の信号レベルに基づいて、より視認性が高い撮像モードを設定することができる。
 また、第3の実施形態のカメラ20c(撮像装置)において、第3の撮像モード設定部76は、撮像制御部72が生成する映像信号の信号レベルを、少なくとも、昼間と夜間と薄暮時とにそれぞれ対応する信号レベルに変換する。したがって、映像出力部77が出力する映像信号の視認性を、車両15の走行時における代表的な光環境に応じたものとすることができる。
 以上、本発明の実施の形態について説明したが、上述した実施の形態は、例として提示したものであり、本発明の範囲を限定することは意図していない。この新規な実施の形態は、その他の様々な形態で実施されることが可能である。また、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、この実施の形態は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
10a,10b,10c     映像表示システム
15              車両
20a,20b,20c     カメラ(撮像装置)
22              映像信号処理プロセッサ(ISP)
23              システムマイコン
30              電子ミラー(表示装置)
34              ディスプレイパネル
35              ハーフミラー
36              筐体
40a,40b         照度センサ(明るさ計測部)
51,61           照度取得部
52,62           撮像制御部(撮像部)
53              平均値算出部
54              第1の撮像モード設定部
55              ハレーション抑制処理部(第1の階調補正部)
56              暗部可視化処理部(第2の階調補正部)
57,65           映像出力部
58,66           動作制御部
63              照度の差分値算出部
64,75           第2の撮像モード設定部
76              第3の撮像モード設定部
L,La,Lb         照度(明るさ)
P               平均値
Pa,Pb           明るさ閾値
ΔL              差分値

Claims (12)

  1.  車両の外部の明るさを計測する明るさ計測部が計測した明るさに応じた露出状態によって観測対象を撮像して映像信号を生成する撮像部と、
     前記明るさと前記撮像部が生成した映像信号の信号レベルとに基づいて、当該撮像部が撮像を行う際の露出状態を設定する第1の撮像モード設定部と、
     前記第1の撮像モード設定部が設定した露出状態で撮像された映像信号を出力する映像出力部と、
     を備える撮像装置。
  2.  前記第1の撮像モード設定部は、
     前記映像信号の信号レベルの平均値に基づいて、前記撮像部が撮像を行う際の露出状態を設定する請求項1に記載の撮像装置。
  3.  前記第1の撮像モード設定部は、
     前記撮像部が撮像を行う際の露出状態を、少なくとも、昼間と夜間と薄暮時とにそれぞれ対応する状態に設定する、
     請求項1または請求項2に記載の撮像装置。
  4.  前記第1の撮像モード設定部が、前記撮像部が撮像する際の露出状態を夜間に対応する状態に設定した際に、
     撮像された映像信号の中の、所定の信号レベルを超える画素数が閾値を超えた場合に、前記画素数が閾値を超えないように、前記映像信号の階調を補正する第1の階調補正部を更に備える、
     請求項3に記載の撮像装置。
  5.  前記第1の撮像モード設定部が、前記撮像部が撮像する際の露出状態を夜間に対応する状態に設定した際に、
     撮像された映像信号が、所定の信号レベルを下回る場合に、当該映像信号の信号レベルを上げて全体を見えやすくする第2の階調補正部を更に備える、
     請求項3または請求項4に記載の撮像装置。
  6.  車両の内外の異なる方向の明るさを計測する複数の明るさ計測部のうち、当該車両の外部の明るさを計測する明るさ計測部が計測した明るさに応じた露出状態によって観測対象を撮像して映像信号を生成する撮像部と、
     前記複数の明るさ計測部がそれぞれ計測した複数の明るさの差分値と、前記複数の明るさ計測部が計測した明るさのうち前記車両の外部の明るさと、に基づいて、前記撮像部が撮像を行う際の露出状態を設定する第2の撮像モード設定部と、
     前記第2の撮像モード設定部によって設定された露出状態で撮像された映像信号を出力する映像出力部と、
     を備える撮像装置。
  7.  前記第2の撮像モード設定部は、前記明るさの差分値が差分値閾値よりも小さい場合に、前記複数の明るさ計測部が計測した明るさのうち、前記車両の外部の明るさに応じた露出状態を設定する、
     請求項6に記載の撮像装置。
  8.  前記明るさの差分値が前記差分値閾値よりも大きい場合に、前記撮像部が撮像した映像信号の信号レベルに基づいて、当該撮像部が撮像を行う際の露出状態を設定する第3の撮像モード設定部を、更に備えて、
     前記映像出力部は、前記第3の撮像モード設定部が設定した露出状態で撮像された映像信号を出力する、
     請求項7に記載の撮像装置。
  9.  前記複数の明るさ計測部のうち、少なくとも1つは、前記車両の外部からの光が当たりにくい位置に設置される、
     請求項6から請求項8のいずれか1項に記載の撮像装置。
  10.  前記第2の撮像モード設定部は、
     前記撮像部が生成する映像信号の信号レベルを、少なくとも、昼間と夜間と薄暮時とにそれぞれ対応する信号レベルに変換する、
     請求項6から請求項9のいずれか1項に記載の撮像装置。
  11.  前記第3の撮像モード設定部は、
     前記撮像部が生成する映像信号の信号レベルを、少なくとも、昼間と夜間と薄暮時とにそれぞれ対応する信号レベルに変換する、
     請求項8に記載の撮像装置。
  12.  請求項1から請求項11のいずれか1項に記載の撮像装置と、
     前記撮像装置の映像出力部が出力した映像信号を表示する表示装置と、を備える
     映像表示システム。
PCT/JP2022/021444 2021-08-27 2022-05-25 撮像装置および映像表示システム WO2023026617A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/536,577 US20240107174A1 (en) 2021-08-27 2023-12-12 Imaging device and image display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021139353A JP2023032961A (ja) 2021-08-27 2021-08-27 撮像装置および映像表示システム
JP2021-139353 2021-08-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/536,577 Continuation US20240107174A1 (en) 2021-08-27 2023-12-12 Imaging device and image display system

Publications (1)

Publication Number Publication Date
WO2023026617A1 true WO2023026617A1 (ja) 2023-03-02

Family

ID=85321708

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/021444 WO2023026617A1 (ja) 2021-08-27 2022-05-25 撮像装置および映像表示システム

Country Status (3)

Country Link
US (1) US20240107174A1 (ja)
JP (1) JP2023032961A (ja)
WO (1) WO2023026617A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274257A (ja) * 2001-03-19 2002-09-25 Nissan Motor Co Ltd 車両用監視装置
JP2005167842A (ja) * 2003-12-04 2005-06-23 Denso Corp 車載監視カメラの露出制御装置
JP2010073009A (ja) * 2008-09-19 2010-04-02 Denso Corp 画像処理装置
JP2011166523A (ja) * 2010-02-10 2011-08-25 Sony Corp 撮像装置、撮像装置の制御方法及びプログラム
JP2016049260A (ja) * 2014-08-29 2016-04-11 アルプス電気株式会社 車載用撮像装置
JP2020104804A (ja) * 2018-12-28 2020-07-09 トヨタ自動車株式会社 電子ミラーシステム
JP2020150323A (ja) * 2019-03-11 2020-09-17 マレリ株式会社 画像表示装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002274257A (ja) * 2001-03-19 2002-09-25 Nissan Motor Co Ltd 車両用監視装置
JP2005167842A (ja) * 2003-12-04 2005-06-23 Denso Corp 車載監視カメラの露出制御装置
JP2010073009A (ja) * 2008-09-19 2010-04-02 Denso Corp 画像処理装置
JP2011166523A (ja) * 2010-02-10 2011-08-25 Sony Corp 撮像装置、撮像装置の制御方法及びプログラム
JP2016049260A (ja) * 2014-08-29 2016-04-11 アルプス電気株式会社 車載用撮像装置
JP2020104804A (ja) * 2018-12-28 2020-07-09 トヨタ自動車株式会社 電子ミラーシステム
JP2020150323A (ja) * 2019-03-11 2020-09-17 マレリ株式会社 画像表示装置

Also Published As

Publication number Publication date
JP2023032961A (ja) 2023-03-09
US20240107174A1 (en) 2024-03-28

Similar Documents

Publication Publication Date Title
US10063786B2 (en) Vehicle vision system with enhanced low light capabilities
JP5877277B2 (ja) 撮像装置及び画像表示方法
JP5257695B2 (ja) 監視装置
US7817190B2 (en) Method and apparatus for processing an image exposed to backlight
JP2007304407A (ja) 車載カメラ用自動露出装置および車載カメラ用自動露出方法
US10525902B2 (en) Convertible roof opening detection for mirror camera
WO2023026617A1 (ja) 撮像装置および映像表示システム
KR101601324B1 (ko) 차량용 카메라 시스템의 영상 획득 방법
CN109788211B (zh) 拍摄图像显示系统、电子镜系统以及拍摄图像显示方法
JP2011181019A (ja) 俯瞰画像生成装置
KR20050080365A (ko) 카메라 촬영 시 이동 통신 단말기의 제어 방법
WO2023176116A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR102339358B1 (ko) 악천후 상황에서의 시인성 향상을 위한 차량용 영상처리 장치
JP7213732B2 (ja) 画像表示装置
CN113401048B (zh) 车用取像装置及其设定方法
KR20210097378A (ko) 저조도용 카메라를 활용한 cctv 시스템
JP2021113872A (ja) 画像表示装置
KR100934433B1 (ko) 저조도용 카메라
JP2004312301A (ja) 画像表示方法、画像表示システム及び表示装置
JP2023122897A (ja) 画像合成装置
JP2006005621A (ja) 撮像装置
JP2006005624A (ja) 撮像装置
JP2020036165A (ja) 画像表示装置、画像表示システム
JP2003250081A (ja) 車載カメラ
JP2006005623A (ja) 撮像装置

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE