WO2004008743A1 - 撮像システム - Google Patents

撮像システム Download PDF

Info

Publication number
WO2004008743A1
WO2004008743A1 PCT/JP2003/008778 JP0308778W WO2004008743A1 WO 2004008743 A1 WO2004008743 A1 WO 2004008743A1 JP 0308778 W JP0308778 W JP 0308778W WO 2004008743 A1 WO2004008743 A1 WO 2004008743A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
signal
image processing
imaging
field
Prior art date
Application number
PCT/JP2003/008778
Other languages
English (en)
French (fr)
Inventor
Hiroyuki Kawamura
Hironori Hoshino
Takeshi Fukuda
Original Assignee
Niles Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Niles Co., Ltd. filed Critical Niles Co., Ltd.
Priority to CA002494095A priority Critical patent/CA2494095A1/en
Priority to AU2003281132A priority patent/AU2003281132A1/en
Priority to EP03741324A priority patent/EP1530367A4/en
Priority to US10/520,407 priority patent/US20050258370A1/en
Publication of WO2004008743A1 publication Critical patent/WO2004008743A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/103Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using camera systems provided with artificial illumination device, e.g. IR light source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8053Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for bad weather conditions or night vision

Definitions

  • the present invention relates to an imaging system using a CCD camera or the like.
  • a CCD camera 101 is provided as an image pickup means, and a DSP (Digital Signal Processor) 103 and a digital camera are provided as image processing units. 1; 105.
  • DSP Digital Signal Processor
  • the CPU 105 and the DSP 103 are connected via a multiplex circuit 107, and a signal from a shutter speed setting switch 109 is input to the CPU 105.
  • the shutter speed setting switch 109 allows the user to set the shirt speed for the ODD (odd) field and the shutter speed for the EVEN (even) field, respectively.
  • the CPU 105 reads the setting state of the shirt evening speed setting switch 109 and outputs the shutter speed setting value of each field.
  • the field pulse signal shown in Fig. 17 is output from the DSP 103, and when the output signal is high, the shutter speed setting value output on the EVEN side is output; when the output signal is low, the shutter speed setting on the ODD side is output.
  • the value output is input to the shutdown speed setting input terminal of the DSP 103 by the multiplex circuit 107. Therefore, a different shutter speed can be set for each field by the imaging system as shown in FIG.
  • FIG. 18 is an image obtained by irradiating infrared light forward with an IR lamp, which is an infrared light irradiating means, while the vehicle is driving at night, and capturing an image of the front of the vehicle with a CCD camera mounted on the vehicle.
  • the area around bright light sources such as headlamps for oncoming vehicles and lighting for gas stations, has become invisible due to blooming. This is because the automatic shutdown speed is controlled so that the darkness of the entire screen is averaged and output. It is also possible to reduce the blooming (halation) by increasing the shirt evening speed, but in this case, the background becomes completely invisible as shown in FIG.
  • the control of FIG. 16 for changing the shutter speed for each field is so-called double exposure control, in which a different shutter speed is set for each field.
  • double exposure control in which a different shutter speed is set for each field.
  • each field image is output alternately and can be displayed on a monitor as a clear image as shown in FIG.
  • This imaging device is a camera equipped with an imaging device 111. It has a unit 113 and a processing unit 115.
  • FIG. 22 is a conceptual diagram of image processing by the image pickup device of FIG. 21.
  • a through image in the figure refers to a direct output of the image pickup device 111 of the camera unit 113.
  • the memory image refers to the signal of the immediately preceding field once stored in the image memory 117.
  • the main subject at the time of light emission is blackened for each ODD field set at a high shirt evening speed, and the background is overexposed for each EVEN field set at the same slow speed.
  • the signal consists of a signal delayed by one field period, overexposure and underexposure occur in a different field from the through image. Therefore, the output image at the bottom of FIG. 22 can be obtained by appropriately combining the through image and the memory image.
  • the synthesis of the through image and the memory image is performed based on the through image and the memory image. Since partially selected images are superimposed and synthesized, images with different exposure amounts are joined. Therefore, the flicker of the entire screen is eliminated as in the simple double exposure control, but there is a problem that the boundary between the through image and the memory image becomes unnatural. Disclosure of the invention
  • An object of the present invention is to provide an imaging system capable of outputting a clearer image.
  • An object of the present invention is to provide an infrared light irradiating unit for irradiating infrared light, an imaging unit for imaging a place illuminated by the infrared light irradiating unit and converting the image into an electric signal, and a signal of the imaging unit.
  • An image processing unit that changes the accumulation time at a predetermined cycle and continuously and periodically outputs images with different exposure amounts, wherein the image processing unit extends and expands the images with different exposure amounts in the vertical direction. After both images This is achieved by averaging the signal levels to form a combined image.
  • infrared light can be irradiated by the infrared light irradiation means.
  • the imaging means can image the place illuminated by the infrared light irradiating means and convert it into an electric signal.
  • the signal accumulation time of the image pickup means can be changed at a predetermined cycle, and images having different exposure amounts can be output continuously and periodically.
  • the image processing unit can expand the images having different exposure amounts in the vertical direction, and average the signal levels of both images after the expansion to form a combined image.
  • the double exposure control can show both dark and invisible parts in a bright image and parts that cannot be seen due to blooming (halation) in a dark image, but the boundary and flicker due to the difference in the exposure amount appear on the output image. Can be suppressed, and a clearer image can be output.
  • the image processing unit performs the decompression by inserting an average value of signal levels of vertically adjacent pixels therebetween.
  • the image processing section performs the expansion by inserting the average value of the signal levels of the pixels adjacent in the vertical direction between the pixels, the image can be expanded without difficulty, and a clearer image output can be performed. Can be performed.
  • the image processing unit presets a target value of the exposure amount and controls the signal accumulation time according to the target value.
  • the image processing unit can set the target value of the exposure amount in advance, and control the signal accumulation time according to the target value. Therefore, a dark area can be projected brighter, strong incident light can be suppressed, blooming (halation) can be further suppressed, and a clearer image can be output. Is an electric signal of the imaging means And the signal accumulation time is controlled by comparing the integrated electric signal with a reference value set in advance according to the target value.
  • the image processing unit can control the signal accumulation time by integrating the electric signal of the imaging unit and comparing the integrated electric signal with a reference value set in advance according to the target value. Therefore, the signal accumulation time can be controlled more accurately, and a clearer image can be output.
  • the image processing unit may control the signal accumulation time by comparing the number of pixels whose electric signal of the imaging unit exceeds a reference value with a reference pixel number set in advance according to the target value. I do.
  • the image processing unit can control the signal accumulation time by comparing the number of pixels for which the electric signal of the imaging unit exceeds a reference value with a reference pixel number preset according to the target value. it can. For this reason, the signal accumulation time can be controlled more accurately, and a clearer image output can be performed.
  • the imaging system of the present invention is characterized in that the infrared light irradiation unit, the imaging unit, and the image processing unit
  • the infrared light irradiating means irradiates infrared light to the outside of the vehicle, and the imaging means captures an image of the outside of the vehicle.
  • the infrared light irradiating means, the imaging means, and the image processing unit are provided in the vehicle, the infrared light irradiating means irradiates infrared light to the outside of the car, and the imaging means irradiates outside the car. Images can be taken. Therefore, while suppressing blooming (halation) due to the illumination of the headlamp of the oncoming vehicle, dark areas can be projected brightly and clearly, and the outside of the vehicle can be confirmed by a clear image output.
  • FIG. 1 is a conceptual diagram of an automobile to which a first embodiment of the present invention is applied.
  • FIG. 2 is a block diagram of an imaging unit and an image processing unit according to the first embodiment of the present invention. It is a lock figure.
  • FIG. 3 is a flowchart of the first embodiment of the present invention.
  • FIG. 4 is an output image diagram of simple double exposure control according to the first embodiment of the present invention.
  • FIG. 5 relates to the first embodiment of the present invention, wherein (a) is a divided image diagram of the ODD field, and (b) is a divided image diagram of the EVEN field.
  • FIG. 6 relates to the first embodiment of the present invention, wherein (a) is an expanded image of an ODD field, and (b) is an expanded image of an EVEN field.
  • FIG. 7 relates to the first embodiment of the present invention, wherein (a) is an image quality adjustment diagram of the ODD field, and (b) is an image quality adjustment diagram of the EVEN field.
  • FIG. 8 is a diagram of an average combined image according to the first embodiment of the present invention.
  • FIG. 9 is a block diagram of an imaging unit and an image processing unit according to the second embodiment of the present invention.
  • FIG. 10 is a timing chart of a process according to the second embodiment of the present invention.
  • FIG. 11 is an explanatory diagram showing an example of a CCD area according to the second embodiment of the present invention.
  • FIG. 12 is a flowchart according to the second embodiment of the present invention.
  • FIG. 13 is a flowchart showing switching of the shutter speed in the integrated average value detection method according to the second embodiment of the present invention.
  • FIG. 14 is a flowchart showing a shirt evening speed switch of the peak value detection method according to the second embodiment of the present invention.
  • FIG. 15 relates to the second embodiment of the present invention, in which (a) is a divided image diagram of an ODD field, and (b) is a divided image diagram of an EVEN field.
  • FIG. 16 is a block diagram according to a conventional example.
  • FIG. 17 is an output diagram of a field pulse according to the conventional example.
  • FIG. 18 is an output image diagram at a normal shutter speed according to the conventional example.
  • FIG. 19 is an output image diagram of the high-speed shirt evening speed according to the conventional example.
  • Fig. 20 is an output image showing the blooming (halation) phenomenon.
  • FIG. 21 is a block diagram according to another conventional example.
  • FIG. 22 is an image forming diagram according to another conventional example. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a conceptual diagram of an automobile to which the first embodiment of the present invention is applied
  • FIG. 2 is a block diagram of an imaging system according to the first embodiment
  • FIG. 3 is a flowchart according to the first embodiment.
  • FIG. 4 relates to the first embodiment, and is an output image diagram by simple double exposure control
  • FIG. 5 is a field division image
  • (a) is a division image diagram of an ODD field
  • (b) is an EVEN field
  • Fig. 6 shows a field decompressed image
  • (a) is an ODD field decompressed image
  • (b) is an EVEN field decompressed image
  • Fig. 7 is a field image quality adjustment image
  • (a) is an image quality adjustment image of the ODD field
  • (b) is an image quality adjustment image of the EVEN field
  • Fig. 8 is an average composite image.
  • an imaging system according to a first embodiment of the present invention is applied to an automobile.
  • An automobile 1 has an IR lamp 3 as an infrared light irradiating unit, and a CCD camera as an imaging unit. 5 and an image processing unit 7 as an image processing section, and a head-up display 9 is provided.
  • the IR lamp 3 is automatically turned on to enable imaging in a dark place such as at night. This is for irradiating infrared light in front of the traveling direction of the car 1.
  • the CCD camera 5 captures an image of the front of the vehicle 1 in the traveling direction irradiated with the infrared light, and converts the image into an electric signal.
  • the electric signal in this case is a signal converted by the photodiode of the photosensitive section in the CCD camera 5.
  • the image processing unit 7 changes the signal accumulation time of the CCD camera 5 at a predetermined cycle, and continuously and periodically outputs images having different exposure amounts.
  • the signal accumulation time is the signal accumulation time of each pixel.
  • Changing the signal accumulation time in a predetermined cycle means changing the number of pulses for discharging unnecessary charges accumulated in each pixel to change the resulting accumulation time.
  • To output images with different exposures continuously and periodically means that the shutter speed is set for each ODD field and EVEN field by the electronic shutter operation, and the image of each field read at each shutter speed is read. Is output continuously and alternately every 160 seconds.
  • the image processing unit 7 expands the images having different exposure amounts in the vertical direction, and averages the signal levels of the expanded images to form a combined image.
  • Extending the images with different exposure amounts in the vertical direction means that the divided image of the ODD field and the divided image of the EVEN field obtained as images with different exposure amounts by changing the shutter speed in this embodiment are respectively It means to extend twice vertically. Also, averaging the signal levels of the two-sided images after decompression to form a composite image means that In the divided images of each field, the signal levels of the corresponding pixels are averaged to output one image.
  • the image processing unit 7 includes, in addition to the CPU 11 and the DSP 13, an image memory 15, an operation memory 17, a video output memory 19, a DZA converter 21, and the like. I have.
  • the CPU 11 performs various operations and can control the shutdown speed for each of the ODD field and the EVEN field by a configuration similar to that described with reference to FIG. That is, the CPU 11 receives a shirt speed control signal from the CPU 11 to the DSP 13.
  • the DSP 13 converts a signal from the CCD camera 5 into a digital signal and processes the digital signal.
  • the image memory 15 stores the image data for one frame output from the DSP 13.
  • the CPU 11 divides the frame image data captured in the image memory 15 into ODD fields and EVEN fields, and writes the divided data into the operation memory 17.
  • the CPU 11 expands each field image written in the arithmetic memory 17 twice in the vertical direction, and performs image quality adjustment such as gamma correction and contrast adjustment on each expanded screen.
  • the average of these two image data is averaged, and the averaged image data is transferred to the video output memory 19, DZA-converted by the DZA converter 21, and output as, for example, an NTSC signal.
  • FIG. 3 shows a flowchart of the first embodiment.
  • the imaging system according to the first embodiment is also basically a double exposure control, and the process of “initial setting of shutter speed” is first executed in step S1 according to the flowchart of FIG.
  • step S1 for example, the ODD field side is set to the low shutter speed as described above, and the EVEN field side is set to the high shutter speed. Set to fast shutter speed.
  • the shutter speed on the ODD field side is set to 1/60 second, and the shutter speed on the EVEN field side is set to 11000 seconds, and the process proceeds to step S2. It is also possible to select another speed for each shuttle speed.
  • the ODD field can be set to a high shutter speed, and the EVEN field can be set to a low shutter speed.
  • step S2 a process of “CCD imaging” is executed.
  • the CPU 11 outputs the shutter speed control signal on the ODD field side and the shirt speed control signal on the EVEN field side set in step S1 to the DSP 13.
  • imaging is performed by the CCD camera 5 according to the drive signal, and signal charges are performed in all pixels of the photodiode in the photosensitive section of the CCD camera 5.
  • the signal charges of the odd-numbered pixels in every other pixel of the photodiode in the photosensitive section are read out in 1Z60 seconds.
  • the signal charges of the even-numbered pixels are read out with an accumulation time of 1/1000 seconds, and the flow proceeds to step S3.
  • step S3 “DSP processing” is executed.
  • step S3 the signal charges read out by the CCD camera 5 are taken in, converted into digital signals by the AZD converter, subjected to signal processing, and output, and the process proceeds to step S4. I do.
  • step S4 the process of "memory storage” is executed, the processed signal output from the DSP 13 is stored in the image memory 15, and the process proceeds to step S5.
  • step S5 the process of "whether or not one frame capture is completed" is executed, and it is determined whether or not the processed signal output from the DSP 13 has been captured by the image memory 15 for one frame. . Capture one frame into image memory 15 If not, the process returns to step S2, and the processes of step S3, step S4, and step S5 are repeated thereafter. When it is determined in step S5 that the acquisition of the processed signal for one frame has been completed, the process proceeds to step S6.
  • step S6 the process of “writing to field division operation memory” is executed.
  • the frame image data fetched into the image memory 15 by the CPU 11 is divided into ODD fields and EVEN fields, and the divided data is written into the operation memory 17 and the process proceeds to step S7.
  • Transition Since the image data for each of the ODD field and the EVEN field written in the arithmetic memory 17 is every other data in the vertical direction, the image data compressed in the vertical direction by a factor of two is used. Has become.
  • step S7 the process of "double expansion” is executed, and the image data of the ODD field and the EVEN field written in the operation memory 17 are expanded twice in the vertical direction.
  • the expansion method is to extend one pixel for each field to two pixels in the vertical direction, or to insert it between the upper and lower two pixels by taking the average value of the signal levels of the upper and lower two pixels
  • step S8 processing of “gamma correction and contrast adjustment” is performed, and image quality adjustment such as gamma correction and contrast adjustment is performed on each decompressed screen in step S7, and the process proceeds to step S9.
  • step S9 "two-screen averaging" processing is performed, and the average of the image data expanded twice in the vertical direction of the ODD field and the EVEN field is calculated.
  • the signal levels of the corresponding pixels in the ODD field and the EVEN field are averaged by simple averaging, and a new frame of image data is formed by the averaged signal levels.
  • image formation is performed by synthesizing the image data of each field that has been doubled and expanded. And the process proceeds to step S10.
  • step S10 the process of "transfer of video output memory” is executed, and the synthesized image data is transferred to the video output memory 19, and the process proceeds to step S11. All of the above processing is not performed in a time-division manner. For example, output is always performed from the output memory even during capture to the image memory. Also, while the image data is being processed in the image memory, the image signal of the next frame is continuously captured.
  • step S11 the processing of "DZA conversion, NTSC output" is executed, and the digital signal of the image data is converted into an analog signal by the DZA converter 21 and output as, for example, an NTSC signal.
  • the signal output from the image processing unit 7 is output to the head-up display 9 shown in FIG.
  • the head-up display 9 displays an image on the windshield, and the driver of the car 1 can accurately grasp the situation in front of the vehicle even in a dark place such as at night by checking the image.
  • image data processing as shown in FIGS. 4 to 7 is performed by the processing according to the flowchart in FIG. 3, and an image as shown in FIG. 8 can be displayed on the head-up display 9. .
  • the image shown in FIG. 4 is image data for one frame which is taken into the image memory 15 by the double exposure control by the processing of the steps S1 to S5.
  • the image data of FIG. 4 is divided into the image data of the ODD field in FIG. 5 (a) and the image data of the EVEN field in FIG. 5 (b) by the field division in step S6. Divided. In the ODD field where the shirt evening speed was slowed down, the bright parts were saturated and flew away, and the dark parts were clearly seen. Looks sharp.
  • the divided image data of FIG. 5 is expanded twice as in step S7, and the ODD field expanded image of FIG. 6 (a) and the EVEN field expanded image of FIG. 6 (b) are expanded. Is obtained.
  • the gamma correction and contrast adjustment of step S8 are performed on each of the expanded images, and the image quality adjustment data of the ⁇ DD field in FIG. 7 (a) and the image adjustment data of the EVEN field in FIG. 7 (b) Is performed.
  • step S9 by averaging the signal levels of the two expanded images as described above by the two-screen averaging in step S9, the combined image formation is performed, and the image output as shown in FIG. 8 is performed.
  • the output image in Fig. 8 is much clearer than the output image by simple double exposure control in Fig. 4, and blooming (halation) caused by strong light such as headlights of oncoming vehicles is apparent. By properly suppressing the), not only the information around the light source can be seen, but also dark areas can be seen more clearly overall.
  • the simple double exposure control of FIG. 4 only outputs images with different exposure amounts continuously and periodically, so that the output image flickers as shown in FIG. I will invite you.
  • the image is divided into ODD fields and EVEN fields, and the combined image is formed by averaging the signal levels of the two expanded images. A clearer image as shown in the figure could be output.
  • FIG. 10 is a block diagram of the imaging system according to the embodiment
  • FIG. 10 is a time chart showing the processing timing of the CPU
  • FIG. 11 is a conceptual diagram showing the size of the image data of each field for calculating the shirt speed.
  • FIG. 12 is a flowchart of the second embodiment
  • FIG. 13 is a flowchart of shirt speed calculation using the integrated average value detection method
  • FIG. 14 is a flowchart of shutter speed calculation using the peak value detection method.
  • FIG. 15 shows the divided images, (a) is a divided image diagram of the ODD field, and (b) is a divided image diagram of the EVEN field. Note that components corresponding to those in the first embodiment are denoted by the same reference numerals and described.
  • an analog front end IC (CDS / AGC / ADC) 23 is shown in addition to the CCD camera 5, the DSP 13, and the CPU 11.
  • This analog front end IC 23 captures the signal charge of the CCD camera 5, removes noise on the signal, performs auto gain control, and then performs AZD conversion.
  • the analog front end IC 23 is a generally provided circuit.
  • the image processing unit 7A changes the signal accumulation time of the CCD camera 5 at a predetermined cycle, and continuously outputs images having different exposure amounts periodically. Is set in advance, and the signal accumulation time, that is, the shirt evening speed is controlled according to the target value. ''
  • the analog front end Data from all pixels of camera 5 is received, shutter speed is controlled by CPU 11 according to the target value of exposure, and fed back to DSP 13 and analog front-end IC 23.
  • the operation in the CPU 11 is performed for each of the ODD field and the EVEN field.
  • the shirt evening speed of the ODD field and the EVEN field by the CPU 11 is initially set in the same manner as in the first embodiment, and the shutter speed is used for the same signal charge as in the first embodiment. Reading is performed. By reading out the signal charges, the shutter speeds of the ODD field and the EVEN field are further switched and controlled according to the target value of the exposure amount. This switching control of the shutter speed is performed, for example, at a processing timing as shown in FIG. “AE” in Fig.
  • FIG. 10 refers to exposure control of the CCD camera, and is a general term for controlling the aperture of the lens, the speed of the electronic shirt, the analog or digital gain of the CCD camera, and the like.
  • the focus is on the electronic shutter of the CCD camera at one speed.
  • the processing timing of the EVEN field and the ODD field is different, but both fields perform the same operation. That is, the switching of the V-sync (vertical synchronization signal) switches the field pulse between the ODD field and the EVEN field.
  • V-sync vertical synchronization signal
  • the DSP 13 reads a charge signal from the CCD camera 5 via the analog front-end IC 23, the charge amount is integrated for each predetermined area of the CCD camera 5 (for example, an area obtained by dividing the CCD surface into 6). The task of averaging is repeated. Alternatively, the operation of counting the number of pixels having a value exceeding the set charge amount is repeatedly performed. This operation is continued until each field of ODDZE VEN is completed. At the end of the operation, the CPU 11 reads the integrated average value or the peak count value for each area from the DSP 13 ((and 1 in FIG. 10). ), Based on that, calculate the shirt evening speed (2 and 5), and output the shutter speed in that field to DSP 13 before the field at the next timing (3).
  • the same operation is repeated each time the ODD field and EVEN field are switched. Will be returned.
  • the charge accumulation amount of the CCD camera 5 is compared with the target luminance level which is the target value of the exposure amount, and the shutter speed is determined so that the charge accumulation amount in the CCD camera converges to the target luminance level.
  • the optimal parameters are determined after experimental evaluation as adjustment items.
  • the target brightness level is such that in the case of a field where the speed of the shirt is too slow in the field, even if a strong spotlight such as the headlight of an oncoming vehicle comes in as an image, it is ignored and the white portion is saturated. It is clear enough to be seen, and in the case of dark images with a fast shutter speed, the spot light is narrowed down so that the surrounding images are easy to see.
  • a method using an integrated average value detection method for both the EVEN field and the ODD field a method using the peak value detection method for both the EVEN field and the ODD field, an integrated average value detection method for the EVEN field, ⁇ ⁇ ⁇
  • the integrated average value detection method switches the shutter speed by scanning the image data and comparing the total integrated value of the luminance value of each pixel with a reference value.
  • the peak value detection method scans image data, counts each pixel when the luminance value of each pixel is equal to or greater than the peak charge reference value, and compares the number of pixels with the reference pixel number. It switches the shutter speed.
  • the size of the image to be scanned to determine the shutter speed is determined by dividing the image data shown in FIG. Accordingly, an example of 512 pixels ⁇ 256 lines as shown in FIG. 11 is used.
  • FIG. 12 shows a flowchart of the second embodiment.
  • the microcomputer calculates the integrated charge average and peak force value calculated inside the DSP 13 and reads the information from the DSP 13 to calculate the shutter speed in the next field. The calculation is described in a mixed manner.
  • the flowchart of FIG. 12 is basically the same as the flowchart of FIG. 3 of the first embodiment, and the corresponding steps are denoted by the same step numbers.
  • step S12 is added between step S9 and step S10, and the shutter speed is set at step S12 in contrast to the initial setting of the shutter speed at step S1. Switching is in progress.
  • CHARGE charge integrated value
  • step S22 a charge integration value (CHARGE) is calculated.
  • step S27 it is determined whether or not the X value has ended at 511 pixels. If the X value has not reached 512 pixels, step S22, step S23, step S24, step S25, step S26, and step S27 are repeated, and charge integration is performed.
  • step S28 When the charge integration of all pixels of 512 pixels ⁇ 256 lines is performed by the processing of steps S22 to S27, the process proceeds to step S28.
  • step S28 if the accumulated charge value exceeds the reference value 1 (CHARGE 1 (REF)) (YE S), the process shifts to step S29 and the shutter speed (SHUTTER) is set one step faster (SHUTTE R—1).
  • step S28 when the charge integrated value is lower than the reference value 1, the process proceeds to step S30, and it is determined whether the charge integrated value is lower than the reference value 2 (CHARGE 2 (R EF)). . If the integrated charge value is lower than the reference value 2 (CHARGE 2 (REF)) (YES), the process proceeds to step S31, otherwise (NO), the process proceeds to step S10.
  • the optimum parameters are determined after experiment evaluation in advance, so as to maintain the target luminance level of each field.
  • step S31 the shutter speed (SHUTTER) is set one step slower (SHUTTER + 1).
  • the range of the shirt evening speed is set to 160 to 1Z10000 seconds, for example, 1Z60 seconds, 1/100 seconds, 1Z250 seconds, 1500 seconds are set as ODD fields, and 1Z 1000 seconds, 12000 seconds, Set the shirt evening speed so that 1/4 000 seconds and 1/10000 seconds are the EVEN field.
  • one step faster than 1Z60 seconds means that the shutter speed is 00 seconds.
  • Shutter speed One step slower than 1/4000 second means shirt evening speed is 1 Z 2 000 seconds.
  • the above shutter speeds are merely examples, and it is possible to freely set a wider range of shutter speeds for each field or set a smaller interval between the shutter speeds. .
  • the shutter speed is reduced because the intensity of the overall brightness level is higher than a certain amount of strong light such as the headlights of oncoming vehicles. It tries to reduce the brightness level by increasing the speed. If the charge integrated value is lower than the reference value 2, the overall brightness level is low, so the shutter speed is reduced to increase the brightness level. In this case, the reference value 1 is set as a higher luminance level than the reference value 2. If the charge integrated value is within the reference values 1-2, the shirt evening speed is maintained as it is.
  • Fig. 13 the EVEN field and the ODD field are not particularly distinguished, but the shutter speed of the EVEN field and the ODD field is changed by the initial setting of the shirt evening speed in step S1.
  • the reference values 1 and 2 of each field differ according to the initial setting, and the respective shutter speeds are switched according to the flowchart of FIG.
  • the peak counter (i) power is reset to zero.
  • the peak count scans the image data as described above and counts the pixels when the luminance value of each pixel is equal to or higher than the peak charge reference value.
  • step S42 the coordinate value X of the pixel in the horizontal direction is reset to 0, and the coordinate value Y of the pixel in the vertical direction is reset to 0, and the process proceeds to step S43.
  • step S43 it is determined whether or not the integrated charge value (CHARG #) of the pixel at the coordinates ((, ⁇ ) is equal to or greater than a preset peak charge reference value (PEAK (REF)).
  • PEAK preset peak charge reference value
  • step S46 The process of step S46 is repeated.
  • step S49 it is determined whether or not the X value has reached 51 1 pixel. If the X value has not reached 512 pixels, step S43, step S44, step S45, step S43 Steps 46, S47, S48 and S49 are repeated, and pixels equal to or higher than the peak charge reference value are counted.
  • step S50 OUNTER 1 (REF)
  • step S51 the shirt evening speed (SHUTTER) is set one step faster (SHUTTER—Do
  • step S50 If the peak charge pixel number is less than the peak charge reference pixel number 1 in step S50, the process proceeds to step S52, where the peak charge pixel number is the peak charge reference pixel number 2 (COUNTER 2 (REF)). Is determined. If the peak charge pixel count is less than the peak charge reference pixel count 2 (COUNTER 2 (REF)) (YES), the process proceeds to step S53; otherwise (NO), the process proceeds to step S10. .
  • the optimum parameters are determined so as to maintain the target luminance level of each field after performing an experimental evaluation in advance as described above.
  • step S53 the shirt evening speed (SHUTTER) is set one step slower (SHUTTER + 1).
  • the peak charge pixel number exceeds the peak charge reference pixel number 1 as described above, strong light such as a headlight of an oncoming vehicle exists more than a certain level, and the overall brightness level is high. It attempts to reduce the brightness level by making one speed faster. If the peak charge pixel count is less than the peak charge reference pixel count 2, the overall brightness level is low, so the shirt speed is reduced to increase the brightness level. In this case, the peak charge reference pixel number 1 is set as a luminance level higher than the peak charge reference pixel number 2. If the peak charge pixel number is within the peak charge reference pixel number of 1 or 2, the shutter speed is maintained as it is. In FIG.
  • the EVEN field and the ODD field are not particularly distinguished, but the shutter speeds of the EVEN field and the ODD field are determined by the initial setting of the shutter speed in step S1. Since the speed is changed, the number of peak charge reference pixels 2 in each field is different according to the initial setting, and the switching of each shutdown speed can be changed according to the flow chart in Fig. 14. It is what is done.
  • the shutter speed initially set in step S1 is appropriately changed in step S12 to change the divided image data of each field as shown in FIG. Obtainable.
  • Fig. 15 corresponds to Fig. 5, where (a) is the ODD field and (b) is the EVEN field.
  • (a) is the ODD field
  • (b) is the EVEN field.
  • the spot light is further narrowed down, and the surrounding images are easier to see. Therefore, a sharper image can be obtained as a whole.
  • the integrated average value detection method or the peak value detection method is used for both the ODD field and the EVEN field.
  • the integrated average value detection method is used for the EVEN field
  • the peak value detection method is used for the ⁇ DD field.
  • the peak value detection method can be used in the EVEN field
  • the integrated average value detection method can be used in the ODD field.
  • the reference value is set so that the brightness of the entire screen is 50% gray.
  • the number of reference pixels is set so that the highest light intensity part in the screen is 100% white.
  • the electric charge readout is not limited to the readout of a single pixel, but can be read out and handled as a cluster of several pixels.
  • the output image is displayed on the head-up display 9, but may be displayed on a display provided in a vehicle interior or the like.
  • the IR lamp 3 illuminates the front of the vehicle in the traveling direction, it may illuminate the rear or side.
  • the imaging system is not limited to an automobile, and may be configured as another vehicle such as a motorcycle, a ship, or the like, or as an imaging system independent of the vehicle.
  • the imaging system grasps the situation in front of the vehicle by irradiating infrared light to the front and checking the image captured by the in-vehicle CCD camera or the like while the vehicle is driving at night. Suitable to do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

前方に赤外光を照射するためのIRランプと、前方を撮像して電気信号に変換するCCDカメラ5と、CCDカメラ5の信号蓄積時間を所定の周期で変化させ露光量の異なる画像を連続して周期的に出力する画像処理ユニット7とを備え、前記画像処理ユニット7は、露光量の異なる画像を縦方向に伸長させると共に伸長後の両画像の信号レベルを平均化することで合成した画像形成を行わせることを特徴とする。

Description

明 細 書 撮像システム
技術分野
本発明は、 CCDカメラ等を用いた撮像システムに関する。 背景技術
従来の撮像システムとしては、 例えば第 16図に示すようなものがある 。 この第 16図では、 撮像手段として CCDカメラ 1 0 1を備え、 画像処 理部として DS P (Digital Signal Processer) 103及びじ?1; 105 を備えている。
前記 C PU 105と D S P 103とはマルチプレクス回路 107を介し て接続され、 C PU 105にはシャッタースピード設定スィツチ 109か らの信号が入力されるようになっている。 シャッ夕一スピ一ド設定スィッ チ 109は、 ODD (奇数番目) フィールド用のシャツ夕一スピードと E VEN (偶数番目) フィールド用のシャッタースピードとをそれぞれ設定 できるようになつている。
すなわちシャツ夕一スピード設定スィッチ 109の設定状態を CPU 1 05で読み取り、 各フィールドのシャッタースピード設定値をェンコ一ド 出力する。 DS P 1 03からは第 17図で示すフィールドパルス信号が出 力され、 出力信号がハイの場合は EVEN側のシャッ夕一スピ一ド設定値 出力が、 ローの場合は ODD側のシャッタースピード設定値出力が、 マル チプレクス回路 107によって D S P 103のシャッ夕ースピ一ド設定入 力端子に入力される。 従って、 第 1 6図のような撮像システムによってフ ィールド毎に異なるシャッタースピードを設定することができる。 一般に、 C C Dカメラで撮影する場合、 O D Dフィールド、 E V E Nフ ィ一ルド共にシャッタ一スピードが同じである自動シャッタースピードの とき、 第 1 8図のように周囲が暗い状態の中に明るい光源が入るとその光 源周辺がブルーミング (ハレーション) によって見えなくなる。 この第 1 8図は、 自動車の夜間走行中に前方を赤外光照射手段である I Rランプで 前方に赤外光を照射し、 車載の C C Dカメラで走行前方を撮像した画像で ある。 対向車のへッドランプやガソリンスタンドの照明等の明るい光源の 周辺がブルーミングによって見えなくなつている。 これは自動シャッ夕ス ピードでは、 画面全体の暗さを平均して出力するようにコントロールされ るためである。 シャツ夕一スピードを高速にしてブルーミング (ハレ一シ ヨン) を抑えるようにすることもできるが、 この場合は第 1 9図のように 、 背景が全く見えなくなってしまう。
これに対し、 前記の各フィ一ルド毎にシャッタースピードを変える第 1 6図の制御は、 いわゆる二重露光制御と言われているもので、 フィールド 毎に異なるシャッタースピードを設定している。 これにより、 明るい映像 と暗い映像とを交互に出力し、 明るい映像 (この場合は O D Dフィールド ) では暗くて見えなくなった部分を映し出し、 暗い映像 (この場合は E V E Nフィールド) ではブルーミング (ハレーション) で見えなかった部分 を映し出すことが可能となる。
そして、 各フィールド画像を交互に出力し、 第 2 0図のように鮮明な映 像としてモニタに表示させることができる。
しかし、 前記単純な二重露光制御では、 各フィールドの一方は明るい映 像、 他方は暗い映像となり、 これらを交互に表示することになり、 モニタ 上でちらつきを招くという問題がある。
これに対し、 特公平 7— 9 7 8 4 1号公報に記載された第 2 1図に示す ような撮像装置がある。 この撮像装置は、 撮像素子 1 1 1を備えたカメラ 部 1 1 3と、 処理部 1 1 5とを備えている。
第 2 2図は、 前記第 2 1図の撮像装置による画像処理の概念図を示すも ので、 図中スルー画とは、 前記カメラ部 1 1 3の撮像素子 1 1 1の直接出 力をいい、 メモリ画は画像メモリ 1 1 7に一旦記憶された直前フィールド の信号を言う。
前記スルー画では、 シャツ夕ースピードの速く設定された O D Dフィー ルド毎に発光時の主被写体が黒潰れになり、 同遅く設定された E V E Nフ ィールド毎に背景が白飛びになっている。 またメモリ画では、 1フィール ド期間遅延した信号からなるので、 白飛び、 黒潰れはスルー画とは異なる フィールドで生じている。 従って、 これらスル一画とメモリ画とを適切に 組み合わせることによって第 2 2図最下段の出力画像を得ることができる しかしながら、 このスルー画とメモリ画との合成は、 スルー画及びメモ リ画から部分的に選択した画像を重ね合わせて合成するものであるため、 露光量の異なる画像を繋ぎ合わせる状態となる。 従って、 前記単純な二重 露光制御のように画面全体のちらつきはなくなるが、 スルー画及びメモリ 画の両画像の境界が不自然なものになるという問題がある。 発明の開示
本発明は、 より鮮明な画像出力を可能とする撮像システムの提供を課題 とする。
本発明の目的は、 赤外光を照射するための赤外光照射手段と、 前記赤外 光照射手段により照射された場所を撮像して電気信号に変換する撮像手段 と、 前記撮像手段の信号蓄積時間を所定の周期で変化させ露光量の異なる 画像を連続して周期的に出力する画像処理部とを備え、 前記画像処理部は 、 前記露光量の異なる画像を縦方向に伸長させると共に伸長後の両画像の 信号レベルを平均化することで合成した画像形成を行わせることにより達 成される。
従って、 赤外光照射手段によって赤外光を照射することができる。 撮像 手段は赤外光照射手段により照射された場所を撮像して、 電気信号に変換 することができる。 画像処理部では撮像手段の信号蓄積時間を所定の周期 で変化させ、 露光量の異なる画像を連続して周期的に出力することができ る。
そして画像処理部は、 前記露光量の異なる画像を縦方向に伸長させると 共に、 伸長後の両画像の信号レベルを平均化することで合成した画像形成 を行わせることができる。
従って、 二重露光制御によって、 明るい映像では暗くて見えない部分、 暗い映像ではブルーミング (ハレーション) で見えない部分をともに映し 出すことができながら、 出力画像上に露光量の違いによる境目やちらつき ができるのが抑制され、 より鮮明な画像出力を行うことができる。
本発明の撮像システムは、 前記画像処理部は、 縦方向に隣接する画素の 信号レベルの平均値を間に挿入して前記伸長を行う。
従って、 前記画像処理部は、 縦方向に隣接する画素の信号レベルの平均 値を間に挿入して前記伸長を行うため、 画像の伸長を無理なく行わせるこ とができ、 より鮮明な画像出力を行わせることができる。
本発明の撮像システムは、 前記画像処理部は、 前記露光量の目標値を予 め設定し、 該目標値に応じて前記信号蓄積時間を制御する。
従って、 前記画像処理部は前記露光量の目標値を予め設定し、 該目標値 に応じて前記信号蓄積時間を制御することができる。 従って、 暗い領域を より明るく映したり、 強い入射光を抑えてブルーミング (ハレーション) をより抑制することができ、 より鮮明な画像出力を行わせることができる 本発明の撮像システムは、 前記画像処理部は、 前記撮像手段の電気信号 を積算し、 該積算した電気信号と前記目標値に応じて予め設定した基準値 との比較により前記信号蓄積時間を制御する。
従って、 前記画像処理部は前記撮像手段の電気信号を積算し、 該積算し た電気信号と前記目標値に応じて予め設定した基準値との比較により前記 信号蓄積時間を制御することができる。 このため、 信号蓄積時間をより的 確に制御することができ、 より鮮明な画像出力を行わせることができる。 本発明の撮像システムは、 前記画像処理部は、 前記撮像手段の電気信号 が基準値を上回る画素の数と前記目標値に応じて予め設定した基準画素数 との比較により前記信号蓄積時間を制御する。
従って、 前記画像処理部は前記撮像手段の電気信号が基準値を上回る画 素の数と前記目標値に応じて予め設定した基準画素数との比較により、 前 記信号蓄積時間を制御することができる。 このため、 信号蓄積時間をより 的確に制御することができ、 より鮮明な画像出力を行わせることができる 本発明の撮像システムは、 前記赤外光照射手段、 撮像手段、 及び画像処 理部は、 自動車に備えられ、 前記赤外光照射手段は、 前記自動車の外方に 赤外光を照射し、 前記撮像手段は、 前記自動車の外方を撮像する。
従って、 前記赤外光照射手段、 撮像手段及び画像処理部は自動車に備え られ、 前記赤外光照射手段は前記自動車の外方に赤外光照射し、 前記撮像 手段は前記自動車の外方を撮像することができる。 従って、 対向車のへッ ドランプの照明等によるブルーミング (ハレーション) を抑制しながら、 暗い部分を明るく鮮明に映し出し、 鮮明な画像出力によって自動車の外方 を確認することができる。 図面の簡単な説明
第 1図は、 本発明の第 1実施形態を適用した自動車の概念図である。 第 2図は、 本発明の第 1実施形態に係り、 撮像手段及び画像処理部のブ ロック図である。
第 3図は、 本発明の第 1実施形態のフローチャートである。
第 4図は、 本発明の第 1実施形態に係り、 単純な二重露光制御の出力画 像図である。
第 5図は、 本発明の第 1実施形態に係り、 (a) は ODDフィールドの 分割画像図、 (b) は EVENフィールドの分割画像図である。
第 6図は、 本発明の第 1実施形態に係り、 (a) は ODDフィールドの 伸長画像図、 (b) は EVENフィールドの伸長画像図である。
第 7図は、 本発明の第 1実施形態に係り、 (a) は ODDフィールドの 画質調整図、 (b) は EVENフィールドの画質調整図である。
第 8図は、 本発明の第 1実施形態に係り、 合成された平均合成画像図で ある。
第 9図は、 本発明の第 2実施形態に係る撮像手段及び画像処理部のプロ ック図である。
第 10図は、 本発明の第 2実施形態に係り、 処理のタイミングチャート である。
第 1 1図は、 本発明の第 2実施形態に係り、 CCDエリアの一例を示す 説明図である。
第 12図は、 本発明の第 2実施形態に係るフローチャートである。
第 13図は、 本発明の第 2実施形態に係り、 積分平均値検出法のシャツ タ一スピード切替を示すフローチヤ一トである。
第 14図は、 本発明の第 2実施形態に係り、 ピーク値検出法のシャツ夕 ースピード切替を示すフローチャートである。
第 1 5図は、 本発明の第 2実施形態に係り、 (a) は ODDフィールド の分割画像図、 (b) は EVENフィールドの分割画像図である。
第 16図は、 従来例に係るブロック図である。
第 17図は、 従来例に係り、 フィールドパルスの出力図である。 第 18図は、 従来例に係り、 通常のシャッタースピードによる出力画像 図である。
第 19図は、 従来例に係り、 高速シャツ夕一スピードによる出力画像図 である。
第 20図は、 ブルーミング (ハレーション) 現象を示す出力画像図であ る。
第 21図は、 他の従来例に係るブロック図である。
第 22図は、 他の従来例に係り、 画像形成図である。 発明を実施するための最良の形態
(第 1実施形態)
第 1図〜第 8図は本発明の第 1実施形態を示している。 第 1図は本発明 の第 1実施形態を適用した自動車の概念図、 第 2図は第 1実施形態に係る 撮像システムのブロック図、 第 3図は第 1実施形態に係るフローチャート である。 第 4図は第 1実施形態に係り、 単純な二重露光制御による出力画 像図、 第 5図はフィールド分割画像であり、 (a) は ODDフィールドの 分割画像図、 (b) は EVENフィールドの分割画像図、 第 6図はフィー ルド伸長画像を示し、 (a) は ODDフィールドの伸長画像図、 (b) は EVENフィールドの伸長画像図である。 第 7図はフィールド画質調整画 像であり、 (a) は ODDフィールドの画質調整画像図、 (b) は EVE Nフィ一ルドの画質調整画像図、 第 8図は平均合成画像図である。
まず第 1図のように、 本発明の第 1実施形態に係る撮像システムは、 自 動車に適用されたもので、 自動車 1には赤外光照射手段として I Rランプ 3と、 撮像手段として CCDカメラ 5と、 画像処理部として画像処理ュニ ット 7とが備えられる他、 へッドアップディスプレイ 9が備えられている 前記 I Rランプ 3は、 夜間等、 暗所における撮像を可能にするため自動 車 1の走行方向の前方に赤外光を照射するためのものである。 前記 C C D カメラ 5は、 前記赤外光が照射された前記自動車 1の走行方向の前方を撮 像し、 電気信号に変換するものである。 この場合の電気信号は、 前記 C C Dカメラ 5における感光部のフォトダイォードによって変換されたもので ある。 前記画像処理ユニット 7は、 前記 C C Dカメラ 5の信号蓄積時間を 所定の周期で変化させ、 露光量の異なる画像を連続して周期的に出力する 前記信号蓄積時間は、 各画素毎の信号蓄積時間であり、 信号蓄積時間を 所定の周期で変化させるとは、 各画素に蓄積された不要電荷を吐き出すパ ルスの回数を変化させることにより結果的に蓄積される時間を変化させる ことであり、 いわゆる電子シャツ夕一動作を言う。 また露光量の異なる画 像を連続して周期的に出力するとは、 電子シャッター動作によって O D D フィールド、 E V E Nフィールド毎にシャッタースピードを設定し、 それ ぞれのシャッタースピードで読み出された各フィールドの画像を 1 6 0 秒毎に連続して交互に出力することを言う。
そして、 シャッタースピードを速くした高速シャッターでは、 暗い部分 は映りにくいが明るい部分は鮮明に映り、 シャツ夕一スピードを遅くした 低速シャツ夕一では、 明るい部分は飽和して飛んでしまい暗い部分が鮮明 に映ることになる。 前記画像処理ユニット 7は、 前記露光量の異なる画 像を縦方向に伸長させると共に、 伸長後の両画像の信号レベルを平均化す ることで合成した画像形成を行わせる。
前記露光量の異なる画像を縦方向に伸長させるとは、 本実施形態におい てシャッタースピードを変えることによって露光量の異なる画像として得 られた O D Dフィールドの分割画像と、 E V E Nフィールドの分割画像と をそれぞれ縦方向に 2倍に伸長させることを言う。 また伸長後の両面像の 信号レベルを平均化することで合成した画像形成を行わせるとは、 伸長し た各フィールドの分割画像において、 対応する画素の信号レベルを平均化 し、 1つの画像出力を行うことを言う。
第 2図のように、 前記画像処理ュニット 7は、 CPU1 1、 DS P 1 3 のほか、 画像メモリ 1 5、 演算用メモリ 1 7、 映像出力用メモリ 19、 D ZA変換器 21などを備えている。
前記 CPU 1 1は、 各種演算を行うと共に、 第 16図で説明したものと 同様な構成によって ODDフィールド、 EVENフィ一ルド毎のシャッ夕 一スピードをコントロールできるようになつている。 すなわち CPU 1 1 から DS P 13へシャツ夕一スピードコントロール信号が入力されるよう になっている。
前記 D S P 13は、 CCDカメラ 5からの信号をデジタル信号に変換し て処理するものである。 前記画像メモリ 1 5は、 前記 DS P 13から出力 される 1フレーム分の画像デ一夕を取り込むものである。
前記 CPU 1 1は、 前記画像メモリ 1 5に取り込まれたフレーム画像デ —夕を ODDフィールド、 EVENフィールド毎に分割し、 演算用メモリ 1 7に書き込む。 また CPU 1 1は前記演算用メモリ 17に書き込まれた 各フィールド画像を縦方向に 2倍に伸長し、 各伸長画面に対しガンマ補正 やコントラスト調整などの画質調整を施す。 これら 2つの画像デ一夕の平 均がとられ、 平均して合成された画像データは映像出力用メモリ 19に転 送され、 DZA変換器 21で DZA変換され、 例えば NTSC信号として 出力される。
第 3図は、 第 1実施形態のフローチャートを示している。 第 1実施形態 に係る撮像システムも基本的には二重露光制御であり、 第 3図のフローチ ャ一トにより、 まずステップ S 1で 「シャッタースピード初期設定」 の処 理が実行される。 このステップ S 1では、 例えば ODDフィールド側を前 記のように低速シャッタースピードに設定し、 EVENフィールド側を高 速シャッタースピードに設定する。
本実施形態では、 ODDフィ一ルド側のシャッタースピードを 1 /60 秒とし、 EVENフィールド側を 1 1000秒に設定し、 ステップ S 2 へ移行する。 なお各シャッ夕一スピードは他のスピードを選択することも 可能である。 ODDフィールド側を高速シャッタースピード、 EVENフ ィールド側を低速シャッタースピ一ドに設定することもできる。
ステップ S 2では、 「CCD撮像」 の処理が実行される。 このステップ S 2では、 CPU 1 1から前記ステップ S 1で設定された ODDフィール ド側のシャッタースピードコントロール信号及び E V E Nフィ一ルド側の シャツ夕一スピードコントロール信号が DS P 13へ出力される。
そして、 駆動信号によって CCDカメラ 5による撮像が行われ、 CCD カメラ 5の感光部のフォトダイオードの全画素で信号電荷が行われる。 O DDフィールド側では感光部のフォトダイォード全画素のうち垂直方向に 1つおき奇数番目の画素の信号電荷が 1Z60秒で読み出される。 EVE Nフィールド側では偶数番目の画素の信号電荷が蓄積時間 1/1000秒 で読み出され、 ステップ S 3へ移行する。
ステップ S 3では、 「DS P処理」 が実行される。 このステップ S 3で は、 前記 CCDカメラ 5で読み出された信号電荷が取り込まれ、 AZD変 換器によってデジタル信号に変換され、 信号処理が行われて該信号が出力 され、 ステップ S 4へ移行する。
ステップ S 4では、 「メモリ格納」 の処理が実行され、 前記 DS P 1 3 で出力された処理信号が画像メモリ 15に格納され、 ステップ S 5へ移行 する。
ステップ S 5では、 「 1フレーム取込終了か否か」 の処理が実行され、 前記 DS P 1 3から出力された処理信号が画像メモリ 1 5に 1フレーム分 取り込まれたか否かが判断される。 画像メモリ 15に 1フレーム分取り込 まれていない間は、 ステップ S 2へ戻り、 以下ステップ S 3、 ステップ S 4、 ステップ S 5の処理が繰り返される。 ステップ S 5において 1フレー ム分の処理信号の取込が終了したと判断されたときに、 ステップ S 6へ移 行する。
ステップ S 6では、 「フィールド分割演算メモリ書き込み」 の処理が実 行される。 このステップ S 6では、 C PU 1 1により画像メモリ 1 5に取 り込まれた前記フレーム画像データを ODDフィールド、 EVENフィ一 ルド毎に分割し、 演算用メモリ 1 7に書き込み、 ステップ S 7へ移行する 。 前記演算用メモリ 17に書き込まれた ODDフィールド、 EVENフィ 一ルド毎の画像データは、 それぞれ縦方向に 1つおきのデータであるため 、 それぞれ縦方向に 2分の 1に圧縮された画像データとなっている。 前記ステップ S 7では、 「2倍伸長」 の処理が実行され、 前記演算用メ モリ 17に書き込まれた ODDフィールド、 EVENフィールドの画像デ 一夕を垂直方向に 2倍に伸長する。 この場合の伸長方法としては、 各フィ 一ルド毎の 1画素を垂直方向に 2画素に引き延ばす方法、 あるいは上下 2 画素の信号レベルの平均値をとつて上下 2画素の間に挿入する方法がある ステップ S 8では、 「ガンマ補正、 コントラスト調整」 の処理が実行さ れ、 ステップ S 7での各伸長画面に対しガンマ補正やコントラスト調整な どの画質調整が施され、 ステップ S 9へ移行する。
ステップ S 9では、 「2画面平均」 の処理が実行され、 前記 ODDフィ ールド、 E V E Nフィールドの垂直方向に 2倍に伸長された画像データの 平均をとる。 ここでは ODDフィールド、 EVENフィールドの対応する 各画素の信号レベルが単純平均により平均化され、 該平均化された各信号 レベルによって新たな 1フレーム分の画像データを形成する。 これによつ て前記 2倍に伸長された各フィ一ルド毎の画像データを合成した画像形成 を行わせ、 ステップ S 10へ移行する。
ステップ S 10では、 「映像出力用メモリ転送」 の処理が実行され、 前 記合成された画像データが映像出力用メモリ 19へ転送され、 ステップ S 1 1へ移行する。 以上の処理は、 全て時分割で行われるわけではなく、 例 えば画像メモリへの取り込み中にも常に出力用メモリから出力が行われて いる。 また、 画像メモリに取り込まれたデータを画像処理しているときに も次のフレームの画像信号の取り込みは継続している。
ステップ S 1 1では、 「DZA変換、 NTSC出力」 の処理が実行され 、 前記画像データのデジタル信号が DZA変換器 2 1でアナログ信号に変 換されて、 例えば NTS C信号として出力される。
こうして前記画像処理ュニット 7から出力された信号は、 第 1図で示す へッドアップディスプレイ 9に出力される。 へッドアップディスプレイ 9 では、 フロントウィンドウガラスに画像を表示し、 自動車 1の運転者は前 記画像を確認することによって夜間等、 暗所においても車両前方の状況を 的確に把握することができる。
すなわち、 前記第 3図のフローチャートによる処理によって、 第 4図〜 第 7図のような画像データの処理が行われ、 第 8図のような画像をへッド アップディスプレイ 9によって表示することができる。
第 4図の画像は、 前記ステップ S 1〜ステップ S 5までの処理による二 重露光制御により前記画像メモリ 1 5に取り込まれた 1フレーム分の画像 データである。 この第 4図の画像データが、 前記ステップ S 6のフィール ド分割によって第 5図 (a) の ODDフィールドの画像デ一夕と、 第 5図 (b) の EVENフィールドの画像デ一夕とに分割される。 シャツ夕一ス ピードを遅くした ODDフィールドでは、 明るい部分は飽和して飛んでし まい暗い部分が鮮明に映り、 シャツ夕一スピードを速くした EVENフィ 一ルドでは、 暗い部分は映りにくいが明るい部分は鮮明に映る。 分割された第 5図の画像データは、 前記ステップ S 7のように 2倍に伸 長され、 第 6図 (a ) の O D Dフィールド伸長画像と、 第 6図 (b ) の E V E Nフィールド伸長画像とが得られる。 この各伸長画像に対し、 前記ス テツプ S 8のガンマ補正、 コントラスト調整を行い、 第 7図 (a ) の〇D Dフィールドの画質調整データ、 第 7図 (b ) の E V E Nフィールドの画 質調整データが行われる。
そして、 前記ステップ S 9の 2画面平均により、 前記のように伸長後の 両画像の信号レベルを平均することで、 合成した画像形成を行わせ、 第 8 図のような画像出力を行う。
この第 8図の出力画像は、 第 4図の単純な二重露光制御による出力画像 と比較して明らかなように、 はるかに鮮明な画像となり、 対向車のヘッド ライトなど強い光によるブルーミング (ハレーション) を的確に抑えるこ とで、 光源周辺の情報が見えるだけでなく、 暗い部分も全体的により鮮明 に見えている。
すなわち前記したように、 第 4図の単純な二重露光制御だけでは露光量 の異なる画像を連続して周期的に出力するだけであるため、 出力画像とし ては第 4図のようにちらつきを招いてしまう。 これに対し、 本発明第 1実 施形態では、 O D Dフィールド、 E V E Nフィールド毎に分割し、 伸長し た両画像の信号レベルを平均化することで合成した画像形成を行わせてい るため、 第 8図のようなより鮮明な画像を出力することができた。
また第 8図の出力画像では、 信号レベルを平均化することで合成した画 像形成を行わせるため、 露光量の異なった画像を部分的に合成する場合に 比べて、 画像に境目がなく、 ちらつきのないより鮮明な画像を出力するこ とができた。
(第 2実施形態)
第 9図〜第 1 5図は本発明の第 2実施形態を示している。 第 9図は第 2 実施形態に係る撮像システムのブロック図、 第 10図は CPUの処理タイ ミングを示すタイムチャート、 第 1 1図はシャツ夕一スピードを計算する 各フィールドの画像デ一夕の大きさを示す概念図である。 第 12図は第 2 実施形態のフローチャート、 第 1 3図は積分平均値検出法を用いたシャツ 夕一スピード計算のフローチャート、 第 14図はピーク値検出法を用いた シャッタースピード計算のフローチャートである。 第 15図は分割画像を 示し、 (a) は ODDフィールドの分割画像図、 (b) は EVENフィ一 ルドの分割画像図である。 なお、 第 1実施形態と対応する構成部分には同 符号を付して説明する。
第 9図のように本実施形態の撮像システムでは、 CCDカメラ 5、 DS P 13、 CPU 1 1の他に、 アナログフロントエンド I C (CDS/AG C/ADC) 23が示されている。 このアナログフロントエンド I C 23 は、 CCDカメラ 5の信号電荷を取り込み、 信号上のノイズ除去、 オート ゲインコントロールをした上で、 AZD変換するものである。 アナログフ ロントエンド I C 23は、 前記第 1実施形態の第 2図のブロック図には示 していないが、 一般的に設けられている回路である。
本実施形態において、 画像処理ユニット 7 Aは、 CCDカメラ 5の信号 蓄積時間を所定の周期で変化させ、 露光量の異なる画像を連続して周期的 に出力する場合に、 前記露光量の目標値を予め設定し、 該目標値に応じて 前記信号蓄積時間すなわちシャツ夕一スピードを制御する構成としたもの である。 ''
前記アナログフロントエンド 1。 23から03? 13がじじ0カメラ 5 の全画素のデータを受け取り、 CPU 1 1により露光量の目標値に応じて シャッタースピードのコントロールを行い、 DSP 13、 アナログフロン トエンド I C 23にフィードバックする。 この CPU 1 1での動作を OD Dフィールド、 EVENフィールド毎に行う。 前記 CPU 1 1による ODDフィールド、 EVENフィールドのシャツ 夕一スピードは、 前記第 1実施形態と同様に、 まず初期設定が行われ、 こ のシャッタースピ一ドにより第 1実施形態と同様な信号電荷の読み出しが 行われる。 この信号電荷の読み出しにより露光量の目標値に応じて ODD フィールド、 EVENフィールドのシャッタースピードがさらに切替制御 される。 このシャッタースピードの切替制御は、 例えば第 10図のような 処理タイミングで行われる。 なお、 第 10図の 「AE」 は、 CCDカメラ の露光制御のことであり、 レンズの絞り、 CCDカメラの電子シャツ夕一 速度、 アナログあるいはデジタルゲインの制御等を総称したものである。 この第 10図では C CDカメラの電子シャッタ一速度に絞って考えている 第 10図において、 EVENフィールド、 ODDフィールドの処理タイ ミングはずれているが、 両フィールドは共に同じ動作を行う。 すなわち、 V— s yn c (垂直同期信号) の切替によってフィールドパルスが ODD フィールド、 EVENフィールドとに切り替わる。 通常、 CCDカメラ 5 からアナログフロントェンド I C 23を経由して D S P 1 3が電荷信号を 読み取る時、 CCDカメラ 5の決められたエリア毎 (例えば CCD面を 6 分割したエリア) に電荷量を積分して平均化するという作業を繰り返し行 つている。 或いはまた、 設定された電荷量を超える値を持った画素の数を カウントするという作業を繰り返し行っている。 この作業は、 ODDZE V E N各フィールドが終わるまで続けられ、 それが終わるタイミングで C PU 1 1が D S P 1 3からエリァ毎の積分平均値、 或いはピークカウント 値を読み出し (第 1 0図の①及び④)、 それを基にシャツ夕一スピードの 計算を行い (②及び⑤)、 次のタイミングの当該フィールドの前にそのフ ィ一ルドでのシャッタースピ一ドを D S P 13に出力する (③)。
以下、 ODDフィールド、 EVENフィールドの切替毎に同じ動作が繰 り返される。 この結果、 CCDカメラ 5の電荷蓄積量と露光量の目標値で ある目標輝度レベルとを比較し、 CCDカメラでの電荷蓄積量が目標輝度 レベルに収束するようにシャッタースピ一ドが決定される。 目標輝度レべ ルに対しては、 調整項目として実験評価した上で最適なパラメ一夕が決定 される。 この場合、 目標輝度レベルとしては、 シャツ夕一スピードが遅い フィールドの場合には対向車の前照灯のような強いスポット光が映像とし て入ってきても無視ざれて白飽和され、 暗い部分が鮮明に見える程度のも のであり、 シャッタースピードが速い暗い映像の場合には、 スポット光を 絞り込み、 その周辺の映像が見やすくなる程度のものである。
前記シャッタースピードの決定方法としては、 EVENフィールド、 O D Dフィ一ルド共に積分平均値検出法を用いる方法、 EVENフィールド 、 ODDフィールド共にピーク値検出法を用いる方法、 EVENフィール ドに積分平均値検出法、 〇 D Dフィールドにピーク値検出法を用いる方法 、 或いは、 EVENフィールドにピーク値検出法、 ODDフィールドに積 分平均値検出法を用いる方法がある。 積分平均値検出法は、 画像デ一夕を 走査して各画素毎の輝度値の全積算値を基準値と比較することによりシャ ッ夕一スピードを切替えるものである。 ピーク値検出法は、 画像データを 走査して各画素の輝度値がピーク電荷基準値と同等かそれ以上の場合にそ の画素をカウントし、 該画素の数を基準画素数と比較することによりシャ ッ夕一スピ一ドを切替えるものである。
ここで、 本実施形態ではシャッタースピードを決定するために走査する 画像の大きさは、 各フィールドが縦方向に 1つおきのデ一夕であるから前 記第 5図で示した分割画像データに応じて第 1 1図のように 512画素 X 256ラインを例としている。
第 1 2図は、 第 2実施形態のフローチャートを示している。 シャッター スピード計算の流れを分かりやすくするため、 このフローチャートでは、 通常は DSP 13内部で行われている電荷積算平均値算出、 及びピーク力 ゥント値算出と、 それらの情報を DSP 13から読み出して次のフィ一ル ドでのシャッタースピードを計算するためのマイコンでの計算作業とを混 在して説明している。 第 1 2図のフローチャートは、 第 1実施形態の第 3 図のフローチャートと基本的には同一であり、 対応するステップに同ステ ップ番号を付している。
そして、 第 12図の本実施形態のフローチャートでは、 ステップ S 9、 ステップ S 10の間にステップ S 12を加え、 ステップ S 1のシャッ夕一 スピード初期設定に対し、 ステップ S 1 2でシャッタースピードの切替を 行っている。
前記シャツ夕一スピードの切替を積分平均値検出法で行う場合は、 第 1 2図のステップ S 9からステップ S 12へ移行すると、 第 1 3図のフロー チャートが実行されるように構成される。 第 13図のステップ S 21では リセット処理が行われ、 電荷積算値 (CHARGE) =0、 横方向におけ る画素の座標値 X=0、 縦方向における画素の座標値 Y= 0にリセットさ れ、 ステップ S 22へ移行する。
ステップ S 22では、 電荷積算値 (CHARGE) の計算が行われる。 ステップ S 23では、 Y値が 1ステップずつカウントされる (Y = Y + 1)。
ステップ S 24では、 Υ値が 256ラインに至ったか否かの判断が行わ れ、 Υ= 256となるまでステップ S 22、 ステップ S 23、 ステップ S 24の処理が繰り返される。 こうして Χ=0において、 Υ=0から Υ=2 55まで電荷積算が行われると、 ステップ S 25において Υ値が 0とされ 、 ステップ S 26において X値が 1ステップカウントされる (Χ = Χ+ 1 )。
ステップ S 27では、 X値が 5 1 1画素終了したか否かの判断が行われ 、 X値が 5 1 2画素まで至っていない場合には、 ステップ S 22、 ステツ プ S 23、 ステップ S 24、 ステップ S 25、 ステップ S 26、 ステップ S 27が繰り返され、 電荷積算が行われる。
このステップ S 22〜ステップ S 27の処理によって、 512画素 X 2 56ラインの全ての画素の電荷積算が行われると、 ステップ S 28へ移行 する。
ステップ S 28では、 電荷積算値が基準値 1 (CHARGE 1 (REF )) を上回る場合には (YE S)、 ステップ S 29へ移行し、 シャッター スピード (SHUTTER) が 1ステップ速く設定される (SHUTTE R— 1)。
前記ステップ S 28において、 電荷積算値が基準値 1を下回る場合には 、 ステップ S 30へ移行し、 電荷積算値が基準値 2 (CHARGE 2 (R EF)) を下回るか否かが判断される。 電荷積算値が基準値 2 (CHAR GE 2 (REF)) を下回る場合 (YES) には、 ステップ S 3 1へ移行 し、 そうでない場合 (NO) には前記ステップ S 10へ移行する。
ここで基準値 1, 2では、 予め実験評価した上で、 各フィールドの目標 輝度レベルを維持するように最適なパラメ一夕が決定されている。
ステップ S 31では、 シャッタースピード (SHUTTER) が 1ステ ップ遅く設定される (SHUTTER+ 1)。
ここで、 シャツ夕一スピードの範囲を 1 60〜1Z10000秒に設 定した場合、 例えば 1Z60秒、 1/100秒、 1Z250秒、 1 50 0秒を ODDフィールドとし、 1Z 1000秒、 1 2000秒、 1/4 000秒、 1/10000秒を EVENフィールドというようにシャツ夕 一スピードを設定する。 例えば、 1Z60秒よりも 1ステップ速くとは、 シャッタースピ一ドカ 00秒となることである。 シャッタースピ一 ドカ 1/4000秒よりも 1ステップ遅くとは、 シャツ夕一スピードが 1 Z 2 0 0 0秒となることである。
なお、 上記シャッタースピードは、 あくまでも例示であって、 夫々のフ ィ一ルドのシャッタースピードの範囲をもっと広く設定したり、 夫々のシ ャッ夕ースピードの間隔を小さく設定したりすることは自由である。 こうして、 電荷積算値が基準値 1を上回る場合には、 対向車の前照灯な ど強い光が一定以上に存在し、 全体の輝度レベルが高いものとなっている ため、 シャッタースピ一ドを速くして輝度レベルを下げようとするもので ある。 また電荷積算値が基準値 2を下回る場合には、 全体の輝度レベルが 暗いため、 シャッ夕ースピードを遅くして輝度レベルを上げようとするも のである。 この場合、 基準値 1は基準値 2よりも高い輝度レベルとして設 定されている。 そして電荷積算値が基準値 1〜2内の場合には、 シャツ夕 ースピードはそのまま維持されることになる。
なお第 1 3図では、 特に E V E Nフィールド、 O D Dフィールドを区別 はしていないが、 ステップ S 1のシャツ夕一スピード初期設定によって、 E V E Nフィールド、 O D Dフィールドのそれぞれのシャッタースピード を変えているため、 これに応じて各フィールドの基準値 1, 2は初期設定 に応じて異なったものとなっており、 第 1 3図のフローチャートによりそ れぞれのシャッタースピ一ドの切替が行われるものである。
前記シャッタースピードの切替をピーク値検出法で行う場合は、 第 1 2 図のステップ S 9からステップ S 1 2へ移行すると、 第 1 4図のフローチ ヤートが実行されるように構成されている。
第 1 4図のステップ S 4 1ではリセット処理が行われ、 「 i = 0」 の処 理が実行される。 このステップ S 4 1では、 ピークカウンタ ( i ) 力 0に リセットされる。 ピークカウン夕は、 前記のように画像データを走査して 各画素の輝度値がピーク電荷基準値と同等かそれ以上の場合にその画素を カウントするものである。 ステップ S 42では、 横方向における画素の座標値 X= 0、 縦方向にお ける画素の座標値 Y= 0にリセットし、 ステップ S 43へ移行する。 ステップ S 43では、 座標 (Χ, Υ) の画素の電荷積算値 (CHARG Ε) が予め設定されたピーク電荷基準値 (PEAK (REF)) と同等か それ以上か否かが判断される。 ステップ S 43で、 座標 (X, Y) の画素 の電荷積算値がピーク電荷基準値と同等かそれ以上と判断されたときはス テツプ S 44へ移行し、 そうでなければステップ S 45へ移行する。 ステップ S 44では、 ピークカウン夕が 1つカウントされる ( i = i + 1)。
ステップ S 45では、 Y値が 1ステップずつカウントされる (Y = Y + 1)。
ステップ S 46では、 Υ値が 256ラインに至ったか否かの判断が行わ れ、 Υ= 256となるまでステップ S 43、 ステップ S 44、 ステップ S
45、 ステップ S 46の処理が繰り返される。 こうして Χ=0において、 Υ= 0から Υ= 255まで走査されると、 ステップ S 47において Υ値が 0とされ、 ステップ S 48において X値が 1ステップカウントされる (X =Χ+ 1 )„
ステップ S 49では、 X値が 51 1画素終了したか否かの判断が行われ 、 X値が 5 12画素まで至っていない場合には、 ステップ S 43、 ステツ プ S 44、 ステップ S 45、 ステップ S 46、 ステップ S 47、 ステップ S 48、 ステップ S 49が繰り返され、 ピーク電荷基準値と同等かそれ以 上の画素がカウントされる。
このステップ S 43〜ステップ S 49の処理によって、 51 2画素 X 2
56ラインの全ての画素の走査が行われると、 ステップ S 50へ移行する ステップ S 50では、 ピーク電荷画素数がピーク電荷基準画素数 1 (C OUNTER 1 (RE F)) を上回る場合 (YES) にステップ S 51へ 移行し、 シャツ夕一スピード (SHUTTER) が 1ステップ速く設定さ れる (SHUTTER— Do
前記ステップ S 50において、 ピーク電荷画素数がピーク電荷基準画素 数 1を下回る場合には、 ステップ S 52へ移行し、 ピーク電荷画素数がピ —ク電荷基準画素数 2 (COUNTER 2 (REF)) を下回るか否かが 判断される。 ピーク電荷画素数がピーク電荷基準画素数 2 (COUNTE R 2 (REF)) を下回る場合 (YES) には、 ステップ S 53へ移行し 、 そうでない場合 (NO) には前記ステップ S 10へ移行する。
ここでピーク電荷基準画素数 1, 2では、 前記したように予め実験評価 した上で、 各フィールドの目標輝度レベルを維持するように最適なパラメ 一夕が決定されている。
ステップ S 53では、 シャツ夕一スピード (SHUTTER) が 1ステ ップ遅く設定される (SHUTTER+ 1)。
こうしてピーク電荷画素数がピーク電荷基準画素数 1を上回る場合には 、 対向車の前照灯など強い光が一定以上に存在し、 全体の輝度レベルが高 いものとなっているため、 シャッ夕一スピ一ドを速くして輝度レベルを下 げようとするものである。 またピーク電荷画素数がピーク電荷基準画素数 2を下回る場合には、 全体の輝度レベルが暗いため、 シャツ夕一スピード を遅くして輝度レベルを上げようとするものである。 この場合、 ピーク電 荷基準画素数 1はピーク電荷基準画素数 2よりも多い輝度レベルとして設 定されている。 そしてピーク電荷画素数がピーク電荷基準画素数 1〜 2内 の場合には、 シャッタースピードはそのまま維持されることになる。 なお第 14図においても、 特に EVENフィールド、 ODDフィールド を区別はしていないが、 ステップ S 1のシャッタースピード初期設定によ つて、 EVENフィールド、 ODDフィールドのそれぞれのシャッタース ピードを変えているため、 これに応じて各フィールドのピーク電荷基準画 素数 2は初期設定に応じて異なったものとなっており、 第 14図のフ ローチャートによりそれぞれのシャッ夕ースピードの切替が行われるもの である。
従って、 本実施形態では、 ステップ S 1で初期設定したシャッタースピ —ドに対し、 ステップ S 12でシャッタースピードを適宜切り替えること によって、 第 1 5図に示すような各フィールドの分割画像デ一夕を得るこ とができる。
第 1 5図は、 第 5図に対応したもので、 (a) は例えば ODDフィール ド、 (b) は EVENフィールドである。 第 5図と比較しても明らかなよ うに、 明るく設定された ODDフィールドでは、 自動車の前照灯のような 強い光源のスポット光が映像として入ってきてもそれは無視され、 白飽和 するような映像となり、 暗い部分がより鮮明な映像となっている。 また ( b) の EVENフィールドでは、 スポット光をより絞り込み、 その周辺の 映像がより見やすくなつている。 よって、 全体的によりメリハリのある鮮 明な画像を得ることができる。
このような第 15図の画像を用い、 第 1実施形態の第 6図, 第 7図, 第 8図のような処理を施すことによってより鮮明な出力画像を得ることがで きる。
本実施形態では、 前記 ODDフィールド、 EVENフィールドのそれぞ れに共に積分平均値検出法あるいはピーク値検出法を用いたが、 EVEN フィールドに積分平均値検出法、 〇 D Dフィールドにピーク値検出法を用 い、 或いは EVENフィールドにピーク値検出法、 ODDフィールドに積 分平均値検出法を用いることも可能である。 これによつて、 より最適なシ ャッ夕一スピードを得ることができる。 この場合、 積分平均値検出法では 、 画面全体の明るさが 50 %グレーとなるように基準値を設定する。 ピー ク値検出法では、 画面内の最高光量部を 100%白となるように基準画素 数を設定する。 こうすることで、 明るく設定された ODDフィールドでは 、 暗い部分がより鮮明な映像となり、 暗く設定された EVENフィールド では、 スポット光をより絞り込み、 その周辺の映像がより見やすくなる。 前記 ODDフィールド、 EVENフィールドにおいて、 各画素毎の電荷 を処理する DSP 13によっては、 電荷読み出しを単一画素の読み出しに 限らず、 いくつかの画素のかたまりとして読み出し扱うこともできる。 上記実施形態では、 出力画像をへッドアップディスプレイ 9で表示する ようにしたが、 車室内等に備えられたディスプレイに表示するように構成 することもできる。 また、 I Rランプ 3で自動車の走行方向前方を照射す るようにしたが、 後方或いは側方等を照射するようにしても良い。
前記撮像システムは、 自動車に限らず二輪車、 船舶等、 他の乗り物、 あ るいは乗り物から独立した撮像システムとして構成することもできる。 産業上の利用可能性
以上説明した通り、 本発明に係る撮像システムは、 自動車の夜間走行中 に、 前方に赤外光を照射し車載の CCDカメラ等で撮像した画像を確認す ることによって、 車両前方の状況を把握するのに適している。

Claims

請 求 の 範 囲
1 . 赤外光を照射するための赤外光照射手段と、
前記赤外光照射手段により照射された場所を撮像して電気信号に変換す る撮像手段と、
前記撮像手段の信号蓄積時間を所定の周期で変化させ露光量の異なる画 像を連続して周期的に出力する画像処理部とを備え、
前記画像処理部は、 前記露光量の異なる画像を縦方向に伸長させると共 に伸長後の両画像の信号レベルを平均化することで合成した画像形成を行 わせることを特徴とする撮像システム。
2 . 請求の範囲第 1項記載の撮像システムであって、
前記画像処理部は、 縦方向に隣接する画素の信号レベルの平均値を間に 挿入して前記伸長を行うことを特徴とする撮像システム。
3 . 請求の範囲第 1項又は第 2項に記載の撮像システムであって、 前記画像処理部は、 前記露光量の目標値を予め設定し、 該目標値に応じ て前記信号蓄積時間を制御することを特徴とする撮像システム。
4 . 請求の範囲第 3項記載の撮像システムであって、
前記画像処理部は、 前記撮像手段の電気信号を積算し、 該積算した電気 信号と前記目標値に応じて予め設定した基準値との比較により前記信号蓄 積時間を制御することを特徴とする撮像システム。
5 . 請求の範囲第 3項記載の撮像システムであって、
前記画像処理部は、 前記撮像手段の電気信号が基準値を上回る画素の数 と前記目標値に応じて予め設定した基準画素数との比較により前記信号蓄 積時間を制御することを特徴とする撮像システム。
6 . 請求の範囲第 1項〜第 5項の何れかに記載の撮像システムであって、 前記赤外光照射手段、 撮像手段、 及び画像処理部は、 自動車に備えられ 前記 ¾ ^外光照射手段は、 前記自動車の外方に赤外光を照射し、 前記撮像手段は、 前記自動車の外方を撮像することを特徴とする撮像シ ステム。
PCT/JP2003/008778 2002-07-11 2003-07-10 撮像システム WO2004008743A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CA002494095A CA2494095A1 (en) 2002-07-11 2003-07-10 Image pickup system
AU2003281132A AU2003281132A1 (en) 2002-07-11 2003-07-10 Image pickup system
EP03741324A EP1530367A4 (en) 2002-07-11 2003-07-10 SHOOTING SYSTEM
US10/520,407 US20050258370A1 (en) 2002-07-11 2003-07-10 Imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002202569A JP2004048345A (ja) 2002-07-11 2002-07-11 撮像システム
JP2002-202569 2002-07-11

Publications (1)

Publication Number Publication Date
WO2004008743A1 true WO2004008743A1 (ja) 2004-01-22

Family

ID=30112631

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/008778 WO2004008743A1 (ja) 2002-07-11 2003-07-10 撮像システム

Country Status (7)

Country Link
US (1) US20050258370A1 (ja)
EP (1) EP1530367A4 (ja)
JP (1) JP2004048345A (ja)
CN (1) CN1675920A (ja)
AU (1) AU2003281132A1 (ja)
CA (1) CA2494095A1 (ja)
WO (1) WO2004008743A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100464572C (zh) * 2007-07-25 2009-02-25 北京中星微电子有限公司 一种图像合成方法和装置
WO2012155951A1 (en) * 2011-05-13 2012-11-22 Valeo Schalter Und Sensoren Gmbh Camera arrangement for a vehicle and method for calibrating a camera and for operating a camera arrangement
JP5680573B2 (ja) * 2012-01-18 2015-03-04 富士重工業株式会社 車両の走行環境認識装置
JP6330383B2 (ja) * 2014-03-12 2018-05-30 株式会社デンソー 合成画像生成装置、および合成画像生成プログラム
JP6537231B2 (ja) * 2014-08-11 2019-07-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN105991933B (zh) * 2015-02-15 2019-11-08 比亚迪股份有限公司 图像传感器
CN105991934B (zh) * 2015-02-15 2019-11-08 比亚迪股份有限公司 成像系统
CN105991935B (zh) * 2015-02-15 2019-11-05 比亚迪股份有限公司 曝光控制装置及曝光控制方法
CN110869804B (zh) * 2017-07-13 2023-11-28 苹果公司 用于光发射深度传感器的提前-滞后脉冲计数
US10593029B2 (en) 2018-03-21 2020-03-17 Ford Global Technologies, Llc Bloom removal for vehicle sensors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0556343A (ja) * 1991-08-22 1993-03-05 Olympus Optical Co Ltd 電子的撮像装置
JPH1198418A (ja) * 1997-09-24 1999-04-09 Toyota Central Res & Dev Lab Inc 撮像装置
JPH11201741A (ja) * 1998-01-07 1999-07-30 Omron Corp 画像処理方法およびその装置
JP2000228747A (ja) * 1998-12-03 2000-08-15 Olympus Optical Co Ltd 画像処理装置
JP2001148805A (ja) * 1999-11-22 2001-05-29 Matsushita Electric Ind Co Ltd 固体撮像装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6498620B2 (en) * 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
US6806907B1 (en) * 1994-04-12 2004-10-19 Canon Kabushiki Kaisha Image pickup apparatus having exposure control
US5880777A (en) * 1996-04-15 1999-03-09 Massachusetts Institute Of Technology Low-light-level imaging and image processing
JP3630905B2 (ja) * 1997-02-28 2005-03-23 キヤノン株式会社 撮像方法及び撮像装置
US6133960A (en) * 1998-06-26 2000-10-17 Lsi Logic Corporation Field-based upsampling method for performing zoom in a digital video system
US6753914B1 (en) * 1999-05-26 2004-06-22 Lockheed Martin Corporation Image correction arrangement
JP2001281529A (ja) * 2000-03-29 2001-10-10 Minolta Co Ltd デジタルカメラ
JP3649992B2 (ja) * 2000-05-12 2005-05-18 三洋電機株式会社 画像信号処理装置及び画像信号処理方法
US20020067413A1 (en) * 2000-12-04 2002-06-06 Mcnamara Dennis Patrick Vehicle night vision system
JP3949903B2 (ja) * 2001-04-09 2007-07-25 東芝エルエスアイシステムサポート株式会社 撮像装置及び撮像信号処理方法
US6560029B1 (en) * 2001-12-21 2003-05-06 Itt Manufacturing Enterprises, Inc. Video enhanced night vision goggle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0556343A (ja) * 1991-08-22 1993-03-05 Olympus Optical Co Ltd 電子的撮像装置
JPH1198418A (ja) * 1997-09-24 1999-04-09 Toyota Central Res & Dev Lab Inc 撮像装置
JPH11201741A (ja) * 1998-01-07 1999-07-30 Omron Corp 画像処理方法およびその装置
JP2000228747A (ja) * 1998-12-03 2000-08-15 Olympus Optical Co Ltd 画像処理装置
JP2001148805A (ja) * 1999-11-22 2001-05-29 Matsushita Electric Ind Co Ltd 固体撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1530367A4 *

Also Published As

Publication number Publication date
EP1530367A4 (en) 2007-10-17
AU2003281132A1 (en) 2004-02-02
CN1675920A (zh) 2005-09-28
EP1530367A1 (en) 2005-05-11
US20050258370A1 (en) 2005-11-24
JP2004048345A (ja) 2004-02-12
CA2494095A1 (en) 2004-01-22

Similar Documents

Publication Publication Date Title
JP4154157B2 (ja) 撮像装置
JP3892172B2 (ja) 固体撮像装置
WO2008056789A1 (fr) Dispositif de traitement d'image embarqué et procédé de commande pour un dispositif de traitement d'image embarqué
JP2004072237A (ja) ストロボ装置及びカメラ
JP2006245784A (ja) 固体撮像装置及びその駆動方法並びに撮像システム
JP2011234318A (ja) 撮像装置
JP2011193065A (ja) 撮像装置
JP3970903B2 (ja) 撮像システム
JP3793487B2 (ja) 撮像システム
JP2014230708A (ja) 内視鏡
WO2004008743A1 (ja) 撮像システム
JP2004048455A (ja) 撮像システム
CN107431759B (zh) 摄像装置、摄像方法、电子设备以及车载电子设备
KR20090091597A (ko) 카메라의 백라이트 보정 장치 및 방법
JP2005191954A (ja) 撮像システム
JP2008230464A (ja) 車載カメラ用自動露出装置
JP5440245B2 (ja) 撮像装置
JP4652105B2 (ja) 撮像素子を使用する監視カメラを用いる監視システム
JP5381541B2 (ja) 撮像装置
KR101601324B1 (ko) 차량용 카메라 시스템의 영상 획득 방법
KR20050019844A (ko) 촬상시스템
JP2005033709A (ja) 車両用周辺監視装置
JP5360589B2 (ja) 画像撮像装置
JP6338062B2 (ja) 画像処理装置および撮像装置並びに画像処理方法
JP2006109171A (ja) 車両用表示装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU CA CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003741324

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10520407

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003281132

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 2494095

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1020057000552

Country of ref document: KR

Ref document number: 20038165449

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020057000552

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2003741324

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2003741324

Country of ref document: EP