WO2002103632A1 - Synthetiseur d'images - Google Patents

Synthetiseur d'images Download PDF

Info

Publication number
WO2002103632A1
WO2002103632A1 PCT/JP2002/005985 JP0205985W WO02103632A1 WO 2002103632 A1 WO2002103632 A1 WO 2002103632A1 JP 0205985 W JP0205985 W JP 0205985W WO 02103632 A1 WO02103632 A1 WO 02103632A1
Authority
WO
WIPO (PCT)
Prior art keywords
image signal
exposure
signal
image
reference value
Prior art date
Application number
PCT/JP2002/005985
Other languages
English (en)
French (fr)
Inventor
Kazuhiro Tsujino
Original Assignee
Sanyo Electric Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co., Ltd. filed Critical Sanyo Electric Co., Ltd.
Priority to US10/481,479 priority Critical patent/US7511739B2/en
Publication of WO2002103632A1 publication Critical patent/WO2002103632A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals

Definitions

  • the present invention relates to an image synthesizing apparatus, and more particularly to an image synthesizing apparatus which is applied to, for example, a digital camera and generates a synthetic image signal based on an image signal obtained by long-time exposure and an image signal obtained by short-time exposure.
  • Conventional technology is applied to, for example, a digital camera and generates a synthetic image signal based on an image signal obtained by long-time exposure and an image signal obtained by short-time exposure.
  • a YUV signal is generated based on the RGB signal obtained by the pre-exposure of the image sensor, and the integrated value (brightness evaluation value) of the Y signal satisfies a predetermined condition.
  • the optimum exposure is determined.
  • the main exposure of the image sensor is performed according to the optimum exposure amount, and the YUV signal based on the RGB signal obtained by this is recorded on the recording medium.
  • the output characteristics of the image sensor in the long-time exposure and the short-time exposure change as shown in, for example, FIG. 20 (A) and FIG. 20 (B).
  • FIG. 20 (A) when the brightness of the object, that is, the intensity of the light reflected from the object reaches L1, the output of the image sensor is saturated.
  • FIG. 20 (B) the output of the image sensor is saturated when the brightness of the subject reaches L 2 (> L 1).
  • the Y level of each pixel forming the long exposure image signal is compared with the reference value Y1 corresponding to the brightness L1, and when the condition of Y level and Y1 is satisfied, the long exposure image signal is obtained.
  • the composite with the expanded dynamic range as shown in Fig. 21 An image signal is obtained.
  • the color level of a specific color will be saturated even if the subject is photographed with the optimum exposure.
  • a macro shot of a human face skin color
  • the R level is much higher than the G level and B level. Since the Y signal is generated based on the RGB signal, if the ratio of the RGB signal is distorted, even if the optimal exposure amount is determined so that the luminance evaluation value satisfies the predetermined condition, the R signal obtained by the main exposure will be The level saturates. As a result, the ratio of the RGB signals deviates from the original ratio, and the hue of the reproduced image is distorted. '
  • a main object of the present invention is to provide a novel image synthesizing apparatus.
  • Another object of the present invention is to provide an image synthesizing apparatus capable of preventing distortion of a hue of a synthesized image signal as much as possible.
  • Another object of the present invention is to provide an image synthesizing method capable of preventing distortion of a hue of a synthesized image signal as much as possible.
  • the image synthesizing device that generates a synthetic image signal of the subject based on the image signal includes: a comparison that compares a brightness-related level of one of the first image signal and the second image signal with a reference value; Means: selecting the first image signal when the brightness-related level is equal to or lower than the reference value; second selecting means for selecting the second image signal when the brightness-related level is higher than the reference value; Detect color bias Bias degree detecting means; and reducing means for reducing the reference value based on the bias degree.
  • the first image When generating a composite image signal based on the first image signal obtained by the first exposure according to the first exposure amount and the second image signal obtained by the second exposure according to the second exposure amount, the first image The brightness-related level of one of the signal and the second image signal is compared with a reference value by the comparing means. When the brightness-related level is equal to or less than the reference value, the first image signal is selected by the first selecting means. When the brightness-related level is larger than the brightness-related level, the second image signal is selected by the second selecting means. As a result, a composite image signal is generated.
  • the bias detecting means detects the color bias of the subject, and the reducing means reduces the reference value based on the detected bias.
  • the degree of bias is determined by detecting color saturation and luminance saturation of a specific color based on the third image signal, and calculating the color saturation. Can be obtained by subtracting the luminance saturation degree from. When all color levels are saturated, the luminance level is also saturated. Then, a pixel in which the color level of the specific color is saturated but the luminance level is not saturated can be regarded as being biased toward the specific color. For this reason, the bias is obtained by subtracting the luminance saturation from the color saturation.
  • the predetermined exposure amount is preferably smaller than the first exposure amount and larger than the second exposure amount.
  • the greater the bias the greater the reference value decreases.
  • the larger the degree of bias the easier it is to select the second image signal.
  • the determination unit determines whether each of the plurality of portions forming the subject image satisfies a predetermined condition.
  • the reducing means weights the degree of bias in accordance with the number of parts satisfying the predetermined condition, and reduces the reference value based on the weighting result.
  • the predetermined condition includes a first condition that the portion of interest is a specific color, and a second condition that the portion of interest is high luminance.
  • the first image signal of the subject obtained by the first exposure according to the first exposure amount and the second image signal of the subject obtained by the second exposure according to the second exposure amount smaller than the first exposure amount The image synthesizing method for generating a synthetic image signal of a subject on the basis of (a) the brightness-related level of one of the first image signal and the second image signal is set as a reference value. (B) selecting the first image signal when the brightness-related level is below the reference value; (c) selecting the second image signal when the brightness-related level is greater than the reference value; (d) subject And (e) reducing the reference value based on the bias.
  • the first image signal and One of the brightness-related levels of the second image signal is compared with a reference value.
  • the brightness-related level is equal to or lower than the reference value
  • the first image signal is selected.
  • the second image signal is selected.
  • the reference value is reduced based on the color deviation of the subject.
  • the second exposure amount is smaller than the first exposure amount, even when the color of the subject is biased toward a specific color, the color component of the specific color is hardly saturated and the hue of the second image signal is hardly distorted. If the reference value is reduced based on the detected degree of bias, the second image signal is easily selected, and the phenomenon that the hue of the composite image signal is distorted can be suppressed.
  • FIG. 1 is a block diagram showing one embodiment of the present invention
  • FIG. 2 is a block diagram showing an example of a signal processing circuit applied to the embodiment of FIG.
  • FIG. 3 is a flowchart showing a part of the operation of the CPU applied to the embodiment of FIG. 1;
  • Figure 4 is a flow diagram der D showing another portion of the operation of the CPU applied to the embodiment in FIG; t
  • FIG. 5 is a flowchart showing another part of the operation of the CPU applied to the embodiment of FIG. 1;
  • FIG. 6 is a flow chart showing still another part of the operation of the CPU applied to the embodiment of FIG. 1;
  • FIG. 7 is a flowchart showing another part of the operation of the CPU applied to the embodiment of FIG.
  • FIG. 8 is an illustrative view showing one example of a table for storing an RGB signal and a Y signal.
  • FIG. 9 is a block diagram showing another embodiment of the present invention.
  • FIG. 10 is a block diagram showing an example of a signal processing circuit applied to the embodiment of FIG. 9;
  • FIG. 11 is a flowchart showing a part of the operation of the CPU applied to the embodiment of FIG.
  • FIG. 12 is a flowchart showing another part of the operation of the CPU applied to the embodiment of FIG. 9;
  • FIG. 13 is a flowchart showing another part of the operation of the CPU applied to the embodiment of FIG. 9;
  • FIG. 14 is a flowchart showing yet another portion of the operation of the CPU applied to the embodiment of FIG. 9;
  • FIG. 15 is a flowchart showing another part of the operation of the CPU applied to the embodiment of FIG. 9;
  • FIG. 16 is a flowchart showing yet another portion of the operation of the CPU applied to the embodiment of FIG. 9;
  • FIG. 17 is a flowchart showing another part of the operation of the CPU applied to the embodiment of FIG. 9;
  • FIG. 18 is an illustrative view showing a part of the operation of the embodiment in FIG. 9;
  • FIG. 19 is an illustrative view showing another portion of the operation of the FIG. 9 embodiment
  • Fig. 20 (A) is a graph showing the sensor output with respect to the brightness of the subject when performing long-time exposure
  • Fig. 20 (B) is a graph showing the sensor output with respect to the brightness of the subject when short-time exposure is performed;
  • FIG. 21 is an illustrative view showing a synthesis process of a long-time exposure image signal and a short-time exposure image signal;
  • FIG. 22 (A) is an illustrative view showing one example of a long-time exposure image
  • FIG. 22 (B) is an illustrative view showing one example of a short-time exposure image provided with a gain.
  • FIG. 22C is an illustrative view showing one example of a composite image.
  • a digital camera 10 of this embodiment includes an optical lens 12 and an aperture member 14.
  • the optical image of the subject is incident on the light receiving surface of a CCD imager (image sensor) 16 through these members.
  • a camera signal corresponding to the incident optical image that is, a raw image signal is generated by photoelectric conversion.
  • the light receiving surface is covered with a color filter (not shown) in a primary color bay array, and each pixel signal forming a camera signal has only one of R, G, and B color information. .
  • the CPU 44 sets the aperture amount and the exposure time in the aperture member 14 and the TG (Timing Generator) 18, respectively, and instructs the TG 18 to perform the exposure every 1/15 second.
  • the TG 18 exposes the CCD imager 16 every 1/15 second, and reads a camera signal generated by the exposure from the CCD imager 16.
  • the camera signal of each frame read every 1/15 second is given to the signal processing circuit 24 through the well-known noise removal and level adjustment in the CDSZAGC circuit 20 and the A / D conversion in the AZD converter 22. .
  • the signal processing circuit 24 is configured as shown in FIG.
  • Each pixel that forms the camera signal has an R information signal (R signal) and a G information signal (G signal). ) And the B information signal (B signal), so each pixel is missing.
  • the two color information signals are complemented by the color separation circuit 24b. From the color separation circuit 24b, the R signal, G signal and B signal forming each pixel are output simultaneously.
  • the R, G, and B signals output for each pixel are supplied to a YUV conversion circuit 24d via a white balance adjustment circuit 24c, whereby the Y signal (brightness) and the U signal (color difference) are output. : RY) and V signal (color difference: B ⁇ Y) are generated.
  • the switch SW1 is connected to the terminal S2, and the image signal output from the signal processing circuit 24 is supplied to the second memory controller 30 via the switch SW1.
  • the second memory controller 30 writes the given image signal into the image signal storage area 32a of the second memory 32.
  • the video encoder 34 reads the image signal of the image signal storage area 32a through the second memory controller 30, encodes the read image signal of each frame into a NTSC format composite image signal, and encodes the encoded image signal.
  • the supplied composite image signal is supplied to the LCD monitor 36.
  • a real-time moving image of the subject that is, a through image is displayed at a frame rate of 15 fps.
  • the CPU 44 instructs the TG 18 to perform pre-exposure, and captures the RGB signal and the Y signal generated by the signal processing circuit 24 based on the pre-exposure.
  • the CPU 44 determines the reference value Ys for image composition based on the R signal and the G signal, adjusts the white balance based on the RGB signal, and determines the first exposure time for long exposure based on the Y signal.
  • the determined first exposure time Sml is longer than the optimal exposure time for normal photography (photography in which only one main exposure is performed), and the second exposure time Sm2 is shorter than the optimal exposure time.
  • the CPU 44 instructs the TG 18 to perform long-time exposure (main exposure according to the first exposure time Sml) and short-time exposure (main exposure according to the second exposure time Sm2) in each of the two frames of interest.
  • the TG18 subjects the CCD imager 16 to long-time exposure in the first frame of the two frames of interest, and reads the camera signal generated by long-time exposure and short-time exposure in the second frame. To 16 The camera signal generated by the short-time exposure is read from the CCD imager 16 in the frame following the second frame.
  • the CPU 44 instructs the first memory controller 26 to write.
  • the long-time exposure image signal is stored in the first memory 28 by the first memory controller 26.
  • the CPU 44 also changes the gain of the multiplier 24a shown in FIG. To read out the long-time exposure image signal.
  • the signal processing circuit 24 outputs a short-time exposure image signal based on the short-time exposure and to which the gain N is applied, and outputs a long-time exposure image signal from the first memory controller 26.
  • a long-time exposure image signal and a short-time exposure image signal corresponding to the same pixel are simultaneously supplied to the terminals S1 and S2 of the switch SW1.
  • the CPU 44 further captures the Y signal of each pixel forming the long-time exposure image signal, compares the level of the captured Y signal with the reference value Ys for each pixel, and switches according to the comparison result. Controls switching of SW1.
  • Switch SW1 is connected to terminal S1 when the condition of Y signal level ⁇ Ys is satisfied, and is connected to terminal S2 when the condition of ⁇ signal level> ⁇ s is satisfied.
  • a pixel signal that forms a long-time exposure image signal is selected, and when connected to terminal S2, a pixel signal that forms a short-time exposure image signal is selected.
  • a composite image signal with an expanded dynamic range is generated.
  • the CPU 44 commands the second memory controller 30 to write.
  • the synthesized image signal is temporarily stored in the image signal storage area 32 a of the second memory 32 by the second memory controller 30.
  • the CPU 44 instructs the JPEG codec 38 to perform a compression process.
  • the JPEG codec 38 reads out the composite image signal stored in the image signal storage area 32a through the second memory controller 30, and performs a compression process on the read composite image signal according to the JPEG format.
  • the JPEG codec 38 converts the generated compressed image signal into a second memory controller. Give to 30.
  • the compressed image signal is stored in the compressed signal storage area 32b by the second memory controller 30.
  • the CPU 44 reads the compressed image signal from the compressed signal storage area 32b through the second memory controller 30, and records the read compressed image signal on the memory card 42. This allows the memory card
  • the memory card 42 is a non-volatile recording medium that is detachable, and the memory card 42 can be accessed by the CPU 44 when the memory card 42 is inserted into the slot 40.
  • step S1 a through image display process is performed in step S1, and it is determined in step S3 whether the shirt button 46 has been operated. While the shirt evening button 46 is not operated, the processing returns to step S1 via the monitor AE processing in step S5. As a result, the aperture amount set on the aperture member 14 and the exposure time set on the TG 18 are repeatedly adjusted, and a through image with an appropriate brightness is displayed on the monitor 36.
  • the processing of steps S1 and S5 is executed in response to a VD pulse generated every 1Z15 seconds from TG18.
  • step S7 exposure setting for photometry is performed in step S7. Specifically, the exposure time of 1/1200 second is set to TG 18, and the maximum opening amount is set to the stop member 14.
  • step S9 it is determined whether or not a VD pulse has been supplied from the TG 18. If YES, a pre-exposure for photometry is instructed to the TG 18 in step S11. The TG 18 performs pre-exposure for 11200 seconds in the current frame to which the command is given, and reads the camera signal generated by the pre-exposure from the CCD imager 16 in the next frame following the current frame. The Y signal based on the read camera signal is plotted in the same frame as the read frame.
  • step S13 determines whether or not a VD pulse has been generated.
  • the Y signal for one frame is fetched from the YUV conversion circuit 24d. Captured The Y signal for one frame is a ⁇ signal based on the pre-exposure in step S11.
  • an exposure time Sp and an aperture amount F are calculated based on the captured ⁇ ⁇ ⁇ ⁇ signal. Specifically, a luminance evaluation value Iy is obtained by integrating the Y signal over one frame period, and an exposure time SP and an aperture amount F that satisfy the luminance evaluation value Iy in a predetermined condition are calculated.
  • the aperture amount F is set in the aperture member 14, and the exposure time Sp is set in the TG 18.
  • the exposure setting in step S19 is an exposure setting for determining the reference value Ys, adjusting the white balance, and determining the optimal exposure time.
  • step S21 When a VD pulse is generated after this exposure setting, YES is determined in step S21, and a pre-exposure is instructed to the TG 18 in step S23.
  • the TG 18 performs a pre-exposure according to the exposure time Sp, and reads out the camera signal generated by the pre-exposure from the brackets from the CCD imager 16.
  • step S27 When a VD pulse is generated after the pre-exposure command, the processing proceeds from step S25 to step S27, where the RGB signal output from the white balance adjustment circuit 24c shown in FIG. 2 and the output from the YUV conversion circuit 24d are output.
  • the acquired Y signal is captured.
  • the captured RGB signal and Y signal are both signals based on the pre-exposure in step S23.
  • step S29 the fetched RGB signal and Y signal are stored in a table 44a shown in FIG. At this time, a common pixel number is assigned to the RGB signal and the Y signal of the same pixel.
  • step S31 it is determined whether or not the capture of the signal of one frame has been completed, and the processing of steps S27 and S29 is repeated until the determination of YES is made.
  • step S33 the reference value Ys is determined based on the captured R and G signals, and in step S35, the gain of the white balance adjustment circuit 22 is set to an optimum value based on the captured R0B signal. Then, in step S37, the optimum exposure time is calculated based on the fetched Y signal.
  • step S39 Since the optimal exposure time calculated in step S37 is the optimal exposure time when performing only one main exposure, in step S39 a longer time than the optimal exposure time is set for the first exposure for long-time exposure. The time Sm 1 is determined. In step S41, a time shorter than the optimum exposure time is determined as the second exposure time S m 2 for short-time exposure.
  • step S43 the first exposure time Sml is set to TG18, and the subsequent VD In response to the generation of the pulse, YES is determined in step S45.
  • step S47 the initial gain is set in the multiplier 24a shown in FIG. 2, the main exposure is commanded to the TG 18 in step S49, and the write command is given to the first memory controller 2.6 in step S51.
  • the TG 18 performs a long-time exposure according to the first exposure time Sml, and reads a camera signal generated thereby from the CCD imager 16.
  • the read camera signal has the characteristics shown in FIG.
  • the signal processing circuit 24 generates a long-time exposure image signal based on the camera signal, and the generated long-time exposure image signal is written into the first memory 28 by the first memory controller 26.
  • step S53 the second exposure time Sm2 is set to TG18, and YES is determined in step S55 in response to the subsequent generation of the VD pulse.
  • step S57 the gain N is set in the multiplier 24a.
  • step S59 the main exposure is commanded to the TG 18, and in step S61, a read command is given to the first controller 26.
  • the TG 18 performs short-time exposure according to the second exposure time Sm2, and the camera signal generated thereby has the characteristics shown in FIG. 20 (B).
  • the signal processing circuit 24 generates a short-time exposure image signal provided with a gain N based on the camera signal obtained by the short-time exposure.
  • the first memory controller 26 reads a long-time exposure image signal from the first memory 28 in response to the read command.
  • the long-time exposure image signal and the short-time exposure image signal are simultaneously applied to the terminals S1 and S2 forming the switch SW1. That is, the X-th pixel signal forming the long-time exposure image signal is supplied to the terminal S1, and the X-th pixel signal forming the short-time exposure image signal is supplied to the terminal S2.
  • step S63 a write command is given to the second memory controller 30, and in the following step S65, a Y signal is fetched from the first memory controller.
  • the captured Y signal is a Y signal that forms a long-time exposure image signal, and the timing at which the Xth Y signal is captured is slightly shorter than the timing at which the Xth pixel signal (YUV signal) is applied to the terminal S1.
  • step S67 the level of the fetched Y signal is compared with a reference value Ys. If the condition of Y signal level> Ys is satisfied, the process proceeds to step S69, and the condition of Y signal level ⁇ Ys is satisfied. If so, the process proceeds to step S71.
  • step S69 switch SW1 is connected to terminal S1 for selection of a long-time exposure image signal
  • step S71 switch SW1 is connected to terminal S2 for selection of a short-time exposure image signal.
  • step S73 it is determined whether the comparison process for one frame has been completed, and the processes in steps S65 to S71 are repeated until the determination is YES.
  • step S33 a composite image signal for one frame having the characteristics shown in FIG. 21 is generated. Since a write command is given to the second memory controller 30 prior to the switching control of the switch SW1, the generated composite image signal is stored in the second memory controller 32 by the second memory controller 30. Stored in area 32a.
  • step S75 a compression instruction is given to the JPEG codec 38.
  • step S77 the compressed image signal generated by the JPEG codec 38 and secured in the compressed signal storage area 32b of the SDRAM 32 Is recorded on the memory card 42 in a file format. Upon completion of the recording process, the process returns to step S1.
  • the reference value determination processing in step S33 is executed according to a subroutine shown in FIG.
  • step S81 the total number Rsat of pixels having a saturated R signal level is detected
  • step S83 the total number Gsat of pixels having a saturated G signal level is detected.
  • These processes are performed by comparing each of the R signal and the G signal stored in the table 44a with the threshold value, and the number of pixels whose R level exceeds the threshold value and the number of pixels whose G level exceeds the threshold value are calculated as R and R, respectively.
  • sat and G sat The detected Rsat and Gsat can be defined as the color saturation of the R signal and the color saturation of the G signal, respectively.
  • step S85 the number of difference pixels Rsat-N is calculated by subtracting Gsat from Rsat.
  • step S87 it is determined whether Rsat-N is greater than "0". If Y E S, the process directly proceeds to step S 91. If NO, R sat — N is set to “0” in step S 89, and then the process proceeds to step S 91.
  • the R and B signals are also saturated (that is, the luminance level
  • Gsat can also be defined as luminance saturation.
  • Rsat—N calculated in step S87 can be regarded as the total number of pixels in which the R signal level is saturated without luminance saturation, and the degree of deviation of the R signal with respect to the G signal Can also be considered.
  • the processing in steps S87 and S89 takes into account that Rsat-N may have a negative value due to an error in the setting of the signal processing circuit 24.
  • the reason for calculating R sat -N related to the R signal is that the R signal has the greatest effect on the human skin color.
  • step S91 it is determined whether the condition shown in Expression 1 is satisfied. If the condition is satisfied, the process proceeds directly to step S95. If the condition is not satisfied, the process proceeds to step S95 via updating Rsat-N according to equation 2 in step S93. In step S95, the reference value Ys is determined according to Equation 3.
  • Y s max maximum value that Y s can take
  • Equation 3 Since Ysmax and Ysmin are the maximum and minimum values that Ys can take, respectively, Ys must be determined in the range of Ysmax to Ysmin. According to Equation 3, to obtain Ys by subtracting R sat—N * K from Ysmax, in order to keep Ys within the range of Y smax to Y sm in, R sat__N * K becomes “Y s max — Must be less than or equal to "Ysmin". Therefore, when the condition of Equation 1 is not satisfied, R sat — N * K is corrected according to Equation 2.
  • the long exposure image signal and the short exposure image signal When generating a composite image signal based on the image signal, the Y signal level of the long-time exposure image signal is compared with a reference value Ys (S67). When the condition of Y signal level ⁇ Ys is satisfied, a long-time exposure image signal is selected by the switch SW1 (S69), and when the condition of ⁇ signal level> Ys is satisfied, the short-time exposure image signal is selected by the switch SW1. The time exposure image signal is selected (S71). As a result, a composite image signal is generated.
  • the degree of color deviation of the object is detected prior to the switching control of the switch SW1 (S81 to S85), and the reference value is reduced based on the detected degree of deviation (S95).
  • the Y level is also saturated. For this reason, pixels whose R level is saturated but whose Y level is not saturated can be regarded as being biased toward red. Therefore, by subtracting the color saturation of the G level from the color saturation of the R level, the degree of bias toward red can be obtained.
  • &thgr; 3 & 1 is subtracted from &thgr; 3 &1; when calculating R sat-N. Instead, the total number of pixels where the Y signal level is saturated is calculated. Ys at may be detected and subtracted from Ys at from R sat.
  • the aperture amount is set to a fixed value (aperture amount obtained by pre-exposure) to vary the exposure time. In addition or instead of the exposure time, the aperture amount may be varied.
  • the value Ys may be determined.
  • the reference value Ys is linearly changed according to the value of R sat—N, but the reference value Y s is nonlinearly changed according to the value of R sat—N ( (For example, according to a quadratic function). Further, in this embodiment, the long-time exposure is performed first, and then the short-time exposure is performed. However, the order may be reversed.
  • the total number Gsat of pixels whose G level is saturated is subtracted from the total number Rsat of pixels whose R level is saturated.
  • the digital camera 10 of another embodiment differs from the digital camera 10 in that the counters 44 r and 44 g are formed in the CPU 44 and that the digital camera 10 shown in FIGS. It is the same as the embodiment of FIG. 1 except that the processing according to the flowchart shown is executed by the CPU 44.
  • Steps S 101 to S 13 31 shown in FIGS. 11 and 12 are the same as steps S 1 to S 31 shown in FIGS. 3 and 4, and are shown in FIGS. 13 to 15.
  • Steps S155 to S193 are the same as steps S39 to S77 shown in FIGS. For this reason, a duplicate description of the same parts will be omitted.
  • steps S127 and S129 shown in FIG. 12 is performed over one frame period, and if YES is determined in step S131, the white balance adjustment processing is performed in step S135. Is performed, and the optimum exposure time is calculated in step S137.
  • the white balance adjustment and the calculation of the optimal exposure time are performed based on the RGB signal and the Y signal stored in Table 44a, respectively.
  • the optimum exposure time is set to TG18 in step S139.
  • step S141 it is determined whether or not a VD pulse is generated.
  • pre-exposure is performed in step S143. This pre-exposure is performed according to the aperture amount F calculated in step S117 and the optimum exposure time calculated in step S137. If a VD pulse is generated after pre-exposure according to such an optimal exposure amount, YES is determined in step S145 and steps 314 to 315 are performed. In 1, the same processing as in steps S127 to S131 is performed. Thus, one frame of the RGB signal and the Y signal based on the pre-exposure in step S143 are stored in the table 44a. If “YES” is determined in the step S151, the process proceeds to the step S155 through the reference value determination process in the step S153.
  • step S153 The reference value determination processing in step S153 is executed according to the subroutine shown in FIGS. First, in step S201, the count value Rcnt of the counter 44r and the count value Gcnt of the counter 44g are set to "0", and in step S203, referring to the template 44a, Yij, (R- G) ij and (B—G) ij are calculated.
  • the subject image is divided into eight in the horizontal and vertical directions as shown in FIG. 18, and a total of 64 divided areas are formed on the screen.
  • i and j indicate the positions of the divided areas in the horizontal and vertical directions, respectively, and one of “1” to “8” is assigned to i and j.
  • Y ij indicates an integrated value of the Y signal detected from the divided area (i, j), and can be defined as a luminance evaluation value.
  • (RG) ij indicates the difference between the integrated values of the R signal and G signal detected from the divided area (i, j)
  • (B—G) ij indicates the difference between the integrated areas (i, j). The difference between the integrated values of the B signal and G signal obtained is shown below.
  • step S205 the calculation of Expression 4 is performed. According to Equation 4, each of (R-G) ij and (BG) ij is divided by the luminance evaluation value.
  • the numerical values indicated by (RG) ij and (B—G) ij reflect the exposure amount during pre-exposure. In other words, the numerical value increases when the exposure amount is large, but decreases when the exposure amount is small. If (R ⁇ G) ij and (B ⁇ G) ij having such characteristics are defined as the color evaluation value of each divided area, the color evaluation value varies depending on the exposure amount. On the other hand, the color of the subject does not inherently depend on the exposure amount, and the color of the subject is always the same as long as the subject and the light source do not change. Therefore, even if the exposure is changed, the color valuation should keep the same value.
  • Equation 4 (R—G) i
  • Each of j and (BG) ij is divided by a luminance evaluation value Yij related to the exposure amount, and the divided value is used as a color evaluation value.
  • the color evaluation value does not depend on the exposure amount, and the color of the subject can be accurately evaluated.
  • step S207 it is determined whether or not fy (RG) ij and fy (B—G) ij are included in the area R of the color distribution diagram shown in FIG. 19.
  • step S209 Y ij exceeds the threshold th1. Is determined. If one of steps S207 and S209 is determined as NO, the process proceeds to step S213, but if both steps S207 and S209 are determined as YES, the process proceeds to step S211. The value Rcnt is incremented, and then the process proceeds to step S213.
  • step S213 when the color evaluation value of the divided area of interest belongs to area R and the image of the divided area has high luminance, fy (RG) ij and fy (BG) are determined in step S213. It is determined whether or not ij is included in the area G of the color distribution diagram shown in FIG. 19. In step S215, it is determined whether or not Y ij exceeds the threshold value t2. If NO is determined in step S213 or S215, the process proceeds directly to step S219, but if YES is determined in both steps S213 and S215, the count value Gcnt is increased in step S217. The value is incremented, and the process proceeds to step S219. Therefore, the count value Gent is incremented when the color evaluation value of the divided area of interest belongs to the area G and the image of the divided area has high luminance.
  • step S219 it is determined whether or not the determination processing has been performed for all the divided areas shown in FIG. 18, and the processing in steps S203 to S217 is repeated until it is determined that YES is determined.
  • the count value Rcnt is updated according to the determination results of steps S207 and S211 and the count value Gcnt is updated according to the determination results of steps S213 and S215.
  • the area shown in Fig. 19 is an area containing a lot of R components
  • area G is an area containing a lot of G components. Therefore, the count value Rcnt increases as the brightness increases and the portion including the R component increases, and the force increases as the brightness increases and the partial force including the G component increases.
  • the event value Gcnt increases.
  • the area R also includes the color of human skin. Therefore, when a human face is photographed in a bright place, the count value Rcnt is incremented when determining the divided area where the face image exists.
  • step S221 Rsat, Gsat and Bsat are detected with reference to the table 44a.
  • Rsat is the color saturation related to R
  • Gsat is the color saturation related to G
  • B sat is the total number of pixels at which the B level is saturated, and can be defined as the color saturation of B.
  • R s a t-N R s a t— Gs a t
  • Gsat is defined as the luminance saturation in the embodiment of FIG.
  • the luminance level is saturated without saturation of the luminance level, and Gsat cannot be defined as the luminance saturation for such subjects.
  • the luminance level is saturated, not only the G level but also the B level is saturated. Therefore, it can be said that the smaller value of Gsat and Bsat is closer to the number of pixels in which the luminance level is saturated. Therefore, in step S225, Gsat is compared with Bsat, and the smaller value is subtracted from Rsat to obtain Rsat-N, which is the degree of deviation of the R signal.
  • step S231 the value of the calculated Rsat-N is determined. Then, if the condition of R sat—N> 0 is satisfied, the process directly proceeds to step S235, and if the condition of R sat—N ⁇ 0 is satisfied, R sat__N is set to “0” in step S233, Thereafter, the process proceeds to step S235.
  • This process is the same as steps S87 and S89 shown in FIG.
  • R s a t_N R s a t-N ⁇ R c n t

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Color Image Communication Systems (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Cameras In General (AREA)

Description

明細
技術分野
この発明は、画像合成装置に関し、特にたとえばディジタルカメラに適用され、 長時間露光によって得られた画像信号と短時間露光によって得られた画像信号と に基づいて合成画像信号を生成する、 画像合成装置に関する。 従来技術
ディジタルカメラでは、 シャツ夕ボタンが押されると、 イメージセンサのプリ 露光によって得られた R G B信号に基づいて YUV信号が生成され、 Y信号の積 分値 (輝度評価値) が所定条件を満たすように最適露光量が決定される。 ィメー ジセンサの本露光は最適露光量に従つて行われ、 これによつて得られた R G B信 号に基づく YUV信号が記録媒体に記録される。
また、 ディジタルカメラとしては、 ダイナミックレンジ拡大モードが選択され たときに、 同じ被写体の長時間露光および短時間露光を行い、 長時間露光画像信 号と利得が付与された短時間露光画像信号とを互いに合成するものがある。 長時間露光および短時間露光でのイメージセンサの出力特性は、 たとえば図 2 0 (A) および図 2 0 (B) に示すように変化する。 図 2 0 (A) によれば、 被 写体の明るさつまり被写体からの反射光の強さが L 1に達した時点でィメ一ジセ ンサの出力が飽和する。一方、 図 2 0 (B) によれば、被写体の明るさが L 2 (> L 1 ) に達した時点でイメージセンサの出力が飽和する。 このため、 長時間露光 画像信号を形成する各画素の Yレベルを明るさ L 1に対応する基準値 Y 1と比較 して、 Yレベルく Y 1の条件力成立するときに長時間露光画像信号を選択し、 Y レベル≥Y 1の条件が成立するときに利得 Νが付与された短時間露光画像信号を 選択するようにすれば、 図 2 1に示すようにダイナミックレンジが拡大された合 成画像信号が得られる。
しかし、 被写体の色に偏りがあると、 最適露光量で被写体を撮影しても、 特定 色の色レベルが飽和してしまう。 たとえば、 人の顔 (肌色) をマクロ撮影したと きの R G B信号の比率に注目すると、 Rレベルは Gレベルおよび Bレベルに比べ て大幅に高くなる。 Y信号は R G B信号に基づいて生成されるため、 R G B信号 の比率カ 端に歪むと、 輝度評価値が所定条件を満たすように最適露光量を決定 したとしても、 本露光によって得られる R信号のレベルは飽和する。 この結果、 R G B信号の比率が本来の比率からずれてしまい、 再現される画像の色相が歪ん でしまう。 '
このような色相の歪みの問題は、 特定色に偏つた被写体をダイナミックレンジ 拡大モードで撮影したときに顕著に生じる。 たとえば、 図 2 2 (A) に示す長時 間露光画像のように、顔を形成する部分 Aの Yレベルが基準値 Y 1を超えており、 部分 Bの Yレベルが基準値 Y 1以下でかつ Rレベルが飽和している場合、 この長 時間露光画像を図 2 2 (B) に示す短時間露光画像 (利得付与済み) と合成する と、 図 2 2 (C) に示すように部分 Bの色相のみが歪んだ合成画像が生成されて しまう。 この場合、 部分 Bが浮き出したように表示され、 図 2 2 (A) に示す長 時間露光画像よりも色相の歪みが目立つてしまう。 発明の概要
それゆえに、 この発明の主たる目的は、 新規な画像合成装置を提供することで ある。
この発明の他の目的は、 合成画像信号の色相に歪みが生じるのをできるだけ防 止できる、 画像合成装置を提供することである。
この発明のその他の目的は、 合成画像信号の色相に歪みが生じるのをできるだ け防止できる、 画像合成方法を提供することである。
この発明によれば、 第 1露光量に従う第 1露光によって得られた被写体の第 1 画像信号と第 1露光量よりも少ない第 2露光量に従う第 2露光によって得られた 被写体の第 2画像信号とに基づいて被写体の合成画像信号を生成する画像合成装 置は、 次のものを備える:第 1画像信号および第 2画像信号のいずれか一方の明 るさ関連レベルを基準値と比較する比較手段;明るさ関連レベルが基準値以下の とき第 1画像信号を選択する第 1選択手段;明るさ関連レベルが基準値よりも大 きいとき第 2画像信号を選択する第 2選択手段;被写体の色の偏り度を検出する 偏り度検出手段;および偏り度に基づいて基準値を減少させる減少手段。
第 1露光量に従う第 1露光によって得られた第 1画像信号と第 2露光量に従う 第 2露光によつて得られた第 2画像信号とに基づいて合成画像信号を生成すると き、 第 1画像信号および第 2画像信号のいずれか一方の明るさ関連レベルが、 比 較手段によって基準値と比較される。 明るさ関連レベルが基準値以下のときは第 1画像信号が第 1選択手段によって選択され、 明るさ関連レベルカ堪準値よりも 大きいときは第 2画像信号が第 2選択手段によって選択される。 これによつて、 合成画像信号が生成される。 一方、 偏り度検出手段は被写体の色の偏り度を検出 し、 減少手段は検出された偏り度に基づいて基準値を減少させる。
第 2露光量は第 1露光量よりも少ないため、 被写体の色が特定色に偏っている ときでも、 特定色の色成分は飽和しにくく、 第 2画像信号の色相も歪みにくい。 検出された偏り度に基づいて基準値を減少させるようにすれば、 第 2画像信号が 選択されやすくなり、 合成画像信号の色相に歪みが生じる現象が抑えられる。 所定露光量に従う露光によつて得られた被写体の第 3画像信号を取り込む場合、 偏り度は、 当該第 3画像信号に基づいて特定色の色飽和度および輝度飽和度を検 出し、 色飽和度から輝度飽和度を減算することによって求めることができる。 全 ての色レベルが飽和したときは、 輝度レベルも飽和する。 すると、 特定色の色レ ベルは飽和するが輝度レベルが飽和していない画素は、 特定色に偏っているとみ なすことができる。 このため、 色飽和度から輝度飽和度を減算することで、 偏り 度が求められる。
特定色の色レベルが飽和している画素の数を色飽和度とみなし、 輝度が飽和し ている画素の数を輝度飽和度とみなせば、 偏り度を正確かつ容易に算出できる。 なお、 所定露光量は、 好ましくは、 第 1露光量よりも少なくかつ第 2露光量よ りも多い。
ある実施例では、偏り度が大きいほど基準値が大きく減少する。これによつて、 偏り度が大きいほど、 第 2画像信号が選択されやすくなる。
他の実施例では、 被写体像を形成する複数部分の各々が所定条件を満たすかど うかが、 判別手段によって判別される。 減少手段は、 所定条件を満たす部分の数 に応じて偏り度に重み付けを施し、重み付け結果に基づいて基準値を減少させる。 所定条件は、 好ましくは、 注目する部分が特定色であるという第 1条件、 および 注目する部分が高輝度であるという第 2条件を含む。
この発明によれば、 第 1露光量に従う第 1露光によって得られた被写体の第 1 画像信号と第 1露光量よりも少ない第 2露光量に従う第 2露光によって得られた 被写体の第 2画像信号とに基づいて被写体の合成画像信号を生成する画像合成方 法は、次のステップを備える:(a )第 1画像信号および第 2画像信号のいずれか —方の明るさ関連レベルを基準値と比較し;(b )明るさ関連レベルが基準値以下 のとき第 1画像信号を選択し;( c )明るさ関連レベルが基準値よりも大きいとき 第 2画像信号を選択し;(d )被写体の色の偏り度を検出し;そして (e )偏り度 に基づいて基準値を減少させる。
第 1露光量に従う第 1露光によって得られた第 1画像信号と第 2露光量に従う 第 2露光によって得られた第 2画像信号とに基づいて合成画像信号を生成すると き、 第 1画像信号および第 2画像信号のいずれか一方の明るさ関連レベルが、 基 準値と比較される。 明るさ関連レベルが基準値以下のときは第 1画像信号が選択 され、明るさ関連レベルが基準値よりも大きいときは第 2画像信号が選択される。 これによつて、 合成画像信号が生成される。 ここで、 基準値は、 被写体の色の偏 り度に基づいて基準値を減少される。
第 2露光量は第 1露光量よりも少ないため、 被写体の色が特定色に偏つている ときでも、 特定色の色成分は飽和しにくく、 第 2画像信号の色相も歪みにくい。 検出された偏り度に基づいて基準値を減少させるようにすれば、 第 2画像信号が 選択されやすくなり、 合成画像信号の色相に歪みが生じる現象が抑えられる。 この発明の上述の目的, その他の目的, 特徴および利点は、 図面を参照して行 う以下の実施例の詳細な説明から一層明らかとなろう。 図面の簡単な説明
図 1はこの発明の一実施例を示すブロック図であり ;
図 2は図 1実施例に適用される信号処理回路の一例を示すプロック図であ
Ό ;
図 3は図 1実施例に適用される C P Uの動作の一部を示すフロー図であり ; 図 4は図 1実施例に適用される C P Uの動作の他の一部を示すフロー図であ D ; t
図 5は図 1実施例に適用される C P Uの動作のその他の一部を示すフロー図 であり ;
図 6は図 1実施例に適用される C P Uの動作のさらにその他の一部を示すフ ロー図であり ;
図 7は図 1実施例に適用される C P Uの動作の他の一部を示すフロー図であ り
図 8は R G B信号および Y信号を格納するテーブルの一例を示す図解図であ
0 ;
図 9はこの発明の他の実施例を示すブロック図であり ;
図 1 0は図 9実施例に適用される信号処理回路の一例を示すブロック図であ ;
図 1 1は図 9実施例に適用される C P Uの動作の一部を示すフロー図であ
Ό ;
図 1 2は図 9実施例に適用される C P Uの動作の他の一部を示すフロー図で あり ;
図 1 3は図 9実施例に適用される C P Uの動作のその他の一部を示すフロー 図であり ;
図 1 4は図 9実施例に適用される C P Uの動作のさらにその他の一部を示す フロ一図であり ;
図 1 5は図 9実施例に適用される C P Uの動作の他の一部を示すフロー図で あり ;
図 1 6は図 9実施例に適用される C P Uの動作のさらにその他の一部を示す フロー図であり ;
図 1 7は図 9実施例に適用される C P Uの動作の他の一部を示すフロー図で あり ;
図 1 8は図 9実施例の動作の一部を示す図解図であり ;
図 1 9は図 9実施例の動作の他の一部を示す図解図であり ; 図 20 (A) は長時間露光を行ったときの被写体の明るさに対するセンサ出 力を示すグラフであり ;
図 20 (B) は短時間露光を行ったときの被写体の明るさに対するセンサ出 力を示すグラフであり ;
図 21は長時間露光画像信号と短時間露光画像信号の合成処理を示す図解図 であり ;
図 22 (A) は長時間露光画像の一例を示す図解図であり ;
図 22 (B)は利得が付与された短時間露光画像の一例を示す図解図であり; そして
図 22 (C) は合成画像の一例を示す図解図である。 発明を実施するための最良の形態
図 1を参照して、 この実施例のディジタルカメラ 10は、 光学レンズ 12およ び絞り部材 14を含む。 被写体の光学像は、 これらの部材を経て C C Dイメージ ャ (イメージセンサ) 16の受光面に入射される。 受光面では、 入射された光学 像に対応するカメラ信号つまり生画像信号が光電変換によって生成される。なお、 受光面は、 原色べィャ配列の色フィルタ (図示せず) によって覆われ、 カメラ信 号を形成する各々の画素信号は、 R, Gおよび Bのいずれか 1つの色情報のみを 持つ。
電源が投入されると、 CPU44は、 絞り量および露光時間を絞り部材 14お よび TG (Timing Generator) 18にそれぞれ設定し、 1/15秒毎に露光を T G 18に命令する。 TG18は、 1/15秒毎に CCDイメージャ 16を露光し、 当該露光によって生成されるカメラ信号を CCDイメージャ 16から読み出す。 1/15秒毎に読み出された各フレームのカメラ信号は、 CDSZAGC回路 2 0における周知のノィズ除去およびレベル調整と AZD変換器 22における A/ D変換とを経て、 信号処理回路 24に与えられる。
信号処理回路 24は、 図 2に示すように構成される。 カメラ信号は、 乗算器 2 4 aで利得 (=刀期値) を付与され、 色分離回路 24 aによって色分離を施され る。カメラ信号を形成する各々の画素は R情報信号(R信号), G情報信号(G信 号) および B情報信号 (B信号) のいずれか 1つしか持っていないため、 各画素 が不足する 2つの色情報信号が色分離回路 24 bによって補完される。 色分離回 路 24 bからは、 各々の画素を形成する R信号, G信号および B信号が同時に出 力される。 1画素毎に出力された R信号, G信号および B信号は、 白バランス調 整回路 24 cを経て YUV変換回路 24 dに与えられ、 これによつて Y信号 (輝 度), U信号 (色差: R-Y) および V信号 (色差: B— Y) からなる画像信号が 生成される。
図 1に戻って、 スィッチ SW1は端子 S 2と接続されており、 信号処理回路 2 4から出力された画像信号は、 スィッチ SW1を介して第 2メモリコントローラ 30に与えられる。 第 2メモリコントローラ 30は、 与えられた画像信号を第 2 メモリ 32の画像信号格納エリァ 32 aに書き込む。
ビデオエンコーダ 34は、 画像信号格納エリア 32 aの画像信号を第 2メモリ コントローラ 30を通して読み出し、 読み出された各フレームの画像信号を NT SCフォ一マツトのコンポジット画像信号にエンコードし、 そしてエンコードさ れたコンポジット画像信号を LCDモニタ 36に供給する。 LCDモニタ 36に は、 被写体のリアルタイム動画像つまりスルー画像が 15 f p sのフレームレー トで表示される。
シャツ夕ポタン 46が押されると、 CPU 44は、 プリ露光を TG 18に命令 し、 当該プリ露光に基づいて信号処理回路 24で生成された RGB信号および Y 信号を取り込む。 CPU44は、 R信号および G信号に基づいて画像合成のため の基準値 Ysを決定し、 RGB信号に基づいて白バランスを調整し、 そして Y信 号に基づいて長時間露光用の第 1露光時間 S m 1と短時間露光用の第 2露光時間 Sm 2とを決定する。 決定された第 1露光時間 Smlは通常撮影 (1回だけ本露 光を行う撮影) のときの最適露光時間よりも長く、 第 2露光時間 Sm2は当該最 適露光時間よりも短い。 CPU44は続いて、 注目する 2フレームの各々で長時 間露光 (第 1露光時間 Smlに従う本露光) と短時間露光 (第 2露光時間 Sm2 に従う本露光) とを TG18に命令する。 TG18は、 注目する 2フレームの 1 フレーム目で CCDイメージャ 16に長時間露光を施し、 2フレーム目で長時間 露光によって生成されたカメラ信号の読み出しと短時間露光とを CCDイメージ ャ 16に施す。 短時間露光によって生成されたカメラ信号は、 2フレーム目に続 くフレームで CCDイメージャ 16から読み出される。
CPU44は、 長時間露光画像信号 (長時間露光に基づく画像信号) が信号処 理回路 24から出力されるとき、 第 1メモリコントローラ 26に書き込みを命令 する。 長時間露光画像信号は、 第 1メモリコント口一ラ 26によって第 1メモリ 28に格納される。 CPU44はまた、 短時間露光によって生成されたカメラ信 号が CCDイメージャ 16から読み出されるとき、 図 2に示す乗算器 24 aの利 得を初期値から所定値 Nに変更し、 第 1メモリコントローラ 26に長時間露光画 像信号の読み出しを命令する。 信号処理回路 24からは、 短時間露光に基づくか つ利得 Nが付与された短時間露光画像信号が出力され、 第 1メモリコントローラ 26からは長時間露光画像信号が出力される。 スィッチ SW1の端子 S 1および S 2には、 同じ画素に対応する長時間露光画像信号および短時間露光画像信号が 同時に与えられる。
C P U 44はさらに、 長時間露光画像信号を形成する各々の画素の Y信号を取 り込み、 取り込んだ Y信号のレベルと基準値 Ysとを 1画素毎に比較し、 そして 比較結果に応じてスィッチ SW1の切り換えを制御する。 スィッチ SW1は、 Y 信号レベル≤Y sの条件が成立するとき端子 S 1と接続され、 Υ信号レベル >Υ sの条件が成立するとき端子 S 2と接続される。 端子 S 1との接続時は長時間露 光画像信号を形成する画素信号が選択され、 端子 S 2との接続時は短時間露光画 像信号を形成する画素信号が選択され、 これによつてダイナミックレンジが拡大 された合成画像信号が生成される。
合成画像信号がスィッチ SW1から出力されるとき、 CPU44は、 第 2メモ リコントローラ 30に書き込みを命令する。 合成画像信号は、 第 2メモリコント ローラ 30によって第 2メモリ 32の画像信号格納エリァ 32 aに一時的に格納 される。 CPU44は続いて、 J PEGコーデック 38に圧縮処理を命令する。 J PEGコーデック 38は、 画像信号格納エリア 32 aに格納された合成画像信 号を第 2メモリコントローラ 30を通して読み出し、 読み出された合成画像信号 に J PEGフォーマツトに準じた圧縮処理を施す。 圧縮画像信号が得られると、 J PEGコーデック 38は、 生成された圧縮画像信号を第 2メモリコントローラ 30に与える。 圧縮画像信号は、 第 2メモリコントローラ 30によって圧縮信号 格納エリア 32 bに格納される。
圧縮画像信号の格納処理が完了すると、 CPU44は、 第 2メモリコント口一 ラ 30を通して圧縮信号格納エリァ 32 bから圧縮画像信号を読み出し、 読み出 した圧縮画像信号をメモリカード 42に記録する。 これによつて、 メモリカード
42内に画像ファイルが作成される。 なお、 メモリカード 42は着脱自在な不揮 発性の記録媒体であり、 当該メモリカード 42はスロット 40に装着されたとき に CPU44によってアクセス可能となる。
電源が投入されると、 図 3〜図 7に示すフロ一図に従う処理が C P U 44によ つて実行される。 なお、 このフロー図に対応する制御プログラムは、 ROM48 に記憶される。
まずステツプ S 1でスルー画像表示処理を行われ、 ステップ S 3でシャツ夕ポ タン 46の操作の有無が判別される。 シャツ夕ボタン 46が操作されない間、 処 理は、 ステップ S 5におけるモニタ用 AE処理を経てステップ S 1に戻る。 これ によって、 絞り部材 14に設定される絞り量および TG18に設定される露光時 間が、繰り返し調整され、 適度な明るさのスルー画像がモニタ 36に表示される。 なお、 ステップ S 1および S 5の処理は、 TG18から 1Z15秒毎に発生する VDパルスに応答して実行される。
シャツ夕ポタン 46が操作されると、 ステップ S 7で測光用の露光設定が行わ れる。 具体的には、 1/1200秒の露光時間が TG18に設定され、 最大開放 の絞り量が絞り部材 14に設定される。 ステップ S 9では TG18から VDパル スが与えられたかどうかが判断され、 YESであればステップ S 11で測光のた めのプリ露光が TG 18に命令される。 TG18は、 命令が与えられた現フレー ムで 1 1200秒間のプリ露光を行い、 当該プリ露光によって生成されたカメ ラ信号を現フレームに続く次フレームで CCDイメージャ 16から読み出す。 読 み出されたカメラ信号に基づく Y信号は、 読み出しフレームと同じフレームで図
2に示す YUV変換回路 24 dから出力される。 このため、 VDパルスの発生の 有無がステップ S 13で判別され、 YESと判断されたときにステップ S 15で
1フレーム分の Y信号が YUV変換回路 24 dから取り込まれる。 取り込まれた 1フレーム分の Y信号は、 ステップ S 11のプリ露光に基づく Υ信号である。 ステップ S 17では、 取り込まれた Υ信号に基づいて露光時間 Spおよび絞り 量 Fが算出される。 具体的には、 1フレーム期間にわたる Y信号の積分によって 輝度評価値 I yが求められ、 当該輝度評価値 I yが所定条件を満たす露光時間 S Pおよび絞り量 Fが算出される。 ステップ S 19では、 絞り量 Fが絞り部材 14 に設定され、 露光時間 S pが TG 18に設定する。 なお、 ステップ S 19におけ る露光設定は、 基準値 Ysの決定, 白バランス調整および最適露光時間の決定の ための露光設定である。
この露光設定の後に VDパルスが発生すると、 ステップ S 21で YESと判断 され、 ステップ S 23でプリ露光が TG 18に命令される。 TG 18は露光時間 S pに従うプリ露光を行い、 かっこのプリ露光によって生成されたカメラ信号を CCDイメージャ 16から読み出す。 プリ露光の命令の後に VDパルスが発生す ると、 処理がステップ S 25からステップ S 27に進み、 図 2に示す白バランス 調整回路 24 cから出力された RGB信号と YUV変換回路 24 dから出力され た Y信号とが取り込まれる。 取り込まれた RGB信号および Y信号はいずれも、 ステップ S 23のプリ露光に基づく信号である。 ステップ S 29では、 取り込ま れた R G B信号および Y信号を図 8に示すテーブル 44 aに格納する。このとき、 同じ画素の RGB信号および Y信号には、 共通の画素番号が割り当てられる。 ス テツプ S 31では 1フレームの信号の取り込みが完了したかどうかが判断され、 YESと判断されるまでステップ S 27および S 29の処理が繰り返される。 ステップ S 33では取り込まれた R信号および G信号に基づいて基準値 Ysが 決定され、 ステップ S 35では取.り込まれた R0B信号に基づいて白バランス調 整回路 22のゲインが最適値に設定され、 ステップ S 37では取り込まれた Y信 号に基づいて最適露光時間が算出される。 ステップ S 37で算出される最適露光 時間は本露光を 1回だけ行う場合に最適となる露光時間であるため、 ステップ S 39では当該最適露光時間よりも長い時間が長時間露光用の第 1露光時間 Sm 1 として決定され、 ステップ S 41では当該最適露光時間よりも短い時間が短時間 露光用の第 2露光時間 S m 2として決定される。
ステップ S43では第 1露光時間 Smlが TG18に設定され、 その後の VD パルスの発生に応答してステップ S 45で YESと判断される。 すると、 ステツ プ S 47で図 2に示す乗算器 24aに初期利得が設定され、 ステップ S 49で本 露光が TG18に命令され、 そしてステップ S 51で第 1メモリコントローラ 2. 6に書き込み命令が与えられる。 TG18は、 第 1露光時間 Smlに従う長時間 露光を行い、 これによつて生成されたカメラ信号を CCDイメージャ 16から読 み出す。 読み出されたカメラ信号は、 図 20 (A) に示す特性を有する。 信号処 理回路 24は当該カメラ信号に基づいて長時間露光画像信号を生成し、 生成され た長時間露光画像信号は第 1メモリコントローラ 26によって第 1メモリ 28に 書き込まれる。
ステップ S 53では第 2露光時間 S m 2が T G 18に設定され、 その後の V D パルスの発生に応答してステップ S 55で YESと判断される。 ステップ S 57 では利得 Nが乗算器 24 aに設定され、 ステップ S 59では本露光が TG 18に 命令され、 ステップ S 61では第 1コントローラ 26に読み出し命令が与えられ る。 TG18は第 2露光時間 Sm2に従う短時間露光を行い、 これによつて生成 されたカメラ信号は図 20 (B) に示す特性を有する。 信号処理回路 24は、 短 時間露光によって得られたカメラ信号に基づいて、 利得 Nが付与された短時間露 光画像信号を生成する。 一方、 第 1メモリコントローラ 26は、 読み出し命令に 応答して長時間露光画像信号を第 1メモリ 28から読み出す。
この結果、 長時間露光画像信号および短時間露光画像信号は、 スィッチ SW1 を形成する端子 S 1および S 2に同時に与えられる。 つまり、 長時間露光画像信 号を形成する X番目の画素信号が端子 S 1に与えられると同時に、 短時間露光画 像信号を形成する X番目の画素信号が端子 S 2に与えられる。
ステップ S 63では第 2メモリコントローラ 30に書き込み命令が与えられ、 続くステップ S 65では Y信号が第 1メモリコントローラ 26から取り込まれる。 取り込まれる Y信号は長時間露光画像信号を形成する Y信号であり、 X番目の Y 信号が取り込まれるタイミングは、 X番目の画素信号 (YUV信号) が端子 S 1 に与えられるタイミングよりもわずかに早い。 ステップ S 67では、 取り込まれ た Y信号のレベルが基準値 Ysと比較される。 そして、 Y信号レベル >Ysの条 件が満たされれば処理はステップ S 69に進み、 Y信号レベル≤Y sの条件が満 たされれば処理はステップ S 7 1に進む。 ステップ S 6 9では長時間露光画像信 号の選択のためにスィッチ S W 1が端子 S 1に接続され、 ステップ S 7 1では短 時間露光画像信号の選択のためにスィッチ SW 1が端子 S 2に接続される。 ステ ップ S 7 3では 1フレームの比較処理が完了したかどうか判別され、 Y E Sと判 断されるまでステップ S 6 5〜S 7 1の処理が繰り返される。
これによつて、 図 2 1に示す特性を持つ 1フレーム分の合成画像信号が生成さ れる。 スィッチ SW 1の切り換え制御に先立って第 2メモリコントローラ 3 0に 書き込み命令を与えているため、 生成された合成画像信号は第 2メモリコント口 ーラ 3 0によって第 2メモリ 3 2の画像信号格納エリア 3 2 aに格納される。 ステヅプ S 7 5では J P E Gコーデック 3 8に圧縮命令が与えられ、 ステツプ S 7 7では J P E Gコ一デック 3 8によって生成されかつ S D RAM 3 2の圧縮 信号格納エリア 3 2 bに確保された圧縮画像信号がファイル形式でメモリカード 4 2に記録される。こうして記録処理が完了すると、処理はステップ S 1に戻る。 ステップ S 3 3における基準値決定処理は、 図 7に示すサブルーチンに従って 実行される。 まずステップ S 8 1で R信号レベルが飽和している画素の総数 R s a tが検出され、 ステップ S 8 3で G信号レベルが飽和している画素の総数 G s a tが検出される。 これらの処理はテーブル 4 4 aに格納された R信号および G 信号の各々と閾値との比較によって行われ、 Rレベルが閾値を超える画素数およ び Gレベルが閾値を超える画素数がそれぞれ R s a tおよび G s a tとされる。 検出された R s a tおよび G s a tはそれぞれ、 R信号の色飽和度および G信号 の色飽和度と定義することができる。
ステップ S 8 5では、 R s a tから G s a tを減算することによって差分画素 数 R s a t— Nが算出される。 ステップ S 8 7では R s a t— Nが " 0 " よりも 大きいかどうか判断する。 Y E Sであればそのままステップ S 9 1に進み、 NO であればステップ S 8 9で R s a t— Nを " 0 " に設定してからステップ S 9 1 に進む。
Y信号は、 R信号, G信号および B信号に R: G: B = 3 : 6 : 1の比率で加 重加算を施して生成される。 このため、 G信号が Y信号に最も大きな影響を与え る。 また、 G信号が飽和するときは R信号および B信号も飽和し (つまり輝度レ ベルが飽和し)、 G信号は飽和するが R信号または B信号は飽和しないような現象 は、 通常は発生しない。 このため、 Gs a tは輝度飽和度と定義することもでき る。 そうすると、 ステップ S 87で算出される Rs a t— Nは、 輝度飽和が生じ ることなく R信号レベルが飽和している画素の総数とみなすことができ、 G信号 を基準とした R信号の偏り度とみなすこともできる。
なお、 ステップ S 87および S 89の処理は、 信号処理回路 24の設定の誤差 によって Rs a t—Nがマイナスの数値を示すおそれがあることを考慮したもの である。 また、 R信号に関連する R s a t—Nを算出するようにしたのは、 R信 号が人の肌の色に最も大きな影響を与えるからである。
ステップ S 91では、 数式 1に示す条件が満たされるかどうかが判別される。 条件が満たされれば処理はそのままステップ S 95に進むが、 条件が満たさなけ ればステップ S 93での数式 2に従う Rs a t—Nの更新を経てステップ S 95 に進む。 ステップ S 95では、 数式 3に従って基準値 Ysを決定する。
[数式 1]
R s a t― N * K≤ Y s ma x— Y s m i n
K:定数
Y s m a x : Y sがとりうる最大値
Y sm i n: Y sがとりうる最小値
[数式 2]
R s a t一 N *K = Ysmax— Ysmi n
[数式 3]
Y s =Υ s ma x-R s a t _N *
Ysmaxおよび Ysmi nはそれぞれ Y sがとりうる最大値および最小値で あるため、 Ysは Ysmax〜Ysmi nの範囲で決定する必要がある。 数式 3 によれば、 Ysmaxから R s a t—N *Kを減算して Ysを求めるため、 Ys を Y sma x〜Y sm i nの範囲に収めるためには、 R s a t__N*Kは "Y s max— Ysmi n"以下でなければならない。 このため、 数式 1の条件を満た さないときに、 数式 2に従って R s a t— N*Kが補正される。
以上の説明から分かるように、 長時間露光画像信号と短時間露光画像信号とに 基づいて合成画像信号を生成するとき、 長時間露光画像信号の Y信号レベルが基 準値 Y sと比較される (S 67)。そして、 Y信号レベル≤Y sの条件が満たされ るときはスィヅチ SW1によって長時間露光画像信号が選択され(S 69)、 Υ信 号レベル〉 Y sの条件が満たされるときはスィツチ SW1によって短時間露光画 像信号が選択される (S 71)。 これによつて、 合成画像信号が生成される。 被写 体の色の偏り度はこのようなスィッチ S W 1の切り換え制御に先立つて検出され (S 81〜S 85)、 検出された偏り度に基づいて基準値が減少する (S 95)。 被写体の色の偏り度は、 プリ露光によって得られた R信号および G信号に基づ いて Rレベルの色飽和度および Gレベルの色飽和度(=輝度飽和度)を検出し(S 81, S 83)、 色飽和度から輝度飽和度を減算する (S 85) ことによって求め られる。 Rレベル, Gレベルおよび Bレベルが全て飽和したときは、 Yレベルも 飽和する。 このため、 Rレベルは飽和するが Yレベル力飽和していない画素は、 赤色に偏っているとみなすことができる。 このため、 Rレベルの色飽和度から G レベルの色飽和度を減算することで、 赤色への偏り度が求められる。
短時間露光の場合は、 被写体の色が特定色に偏っていても、 特定色の色成分は 飽和しにくく、 短時間露光画像信号の色相も歪みにくい。 このため、 検出された 偏り度に基づいて基準値 Y sを減少させるようにすれば、 短時間露光画像信号が 選択されやすくなり、 合成画像信号の色相に歪みが生じる現象を抑えることがで きる。
なお、 この実施例では、 R s a t— Nを求めるとき、 3 & 1;から& 3 & 1:を 減算するようにしているが、 これに代えて Y信号レベルが飽和している画素の総 数 Ys a tを検出し、 R s a tから Ys a tから減算するようにしてもよい。 ま た、この実施例では、長時間露光および短時間露光を行うとき絞り量を固定値(プ リ露光で求めた絞り量) とし、 露光時間を変動させるようにしているが、 露光時 間に加えてまたは露光時間に代えて、 絞り量を変動させるようにしてもよい。 さらに、 この実施例では、 R s a t— Nに基づいて基準値 Ysを決定するよう にしているが、 B s a t_N (=B s a t— G s a t) を算出し、 当該 B s a t —Nに基づいて基準値 Ysを決定するようにしてもよい。 そうすれば、 B信号を 多く含む色について、 色相が歪んだ部分が浮き出すような現象の発生を防止する ことができる。
また、 数式 3に従う演算では、 基準値 Y sを R s a t— Nの値に応じて線形に 変化させるようにしているが、 基準値 Y sは、 R s a t— Nの値に応じて非線形 に (たとえば 2次関数に従って) 変化させてもよい。 さらに、 この実施例では、 長時間露光を先に実行し、 続いて短時間露光を実行するようにしているが、 この 順序は逆でもよい。
さらに、 この実施例では、 R s a t— Nを求めるとき Rレベルが飽和している 画素の総数 R s a tから Gレベルが飽和している画素の総数 G s a tを減算する ようにしている。 しかし、 Rレベルおよび Gレベルを 1画素毎に閾値と比較し、 Rレベルは飽和するが Gレベルは飽和しない画素の数を積分し、 そして積分値を R s a t—Nと定義するようにしてもよい。
図 9および図 1 0を参照して、 他の実施例のディジタルカメラ 1 0は、 C P U 4 4内にカウンタ 4 4 rおよび 4 4 gが形成される点、 および図 1 1〜図 1 7に 示すフロー図に従う処理が C P U 4 4によって実行される点を除き、 図 1実施例 と同様である。 また、 図 1 1および図 1 2に示すステップ S 1 0 1〜S 1 3 1は 図 3および図 4に示すステップ S 1〜S 3 1と同様であり、 図 1 3〜図 1 5に示 すステップ S 1 5 5〜S 1 9 3は図 4〜図 6に示すステップ S 3 9〜S 7 7と同 様である。 このため、 同様の部分についての重複した説明は省略する。
図 1 2に示すステツプ S 1 2 7および S 1 2 9の処理が 1フレーム期間にわた つて行われ、 ステップ S 1 3 1で Y E Sと判断されると、 ステップ S 1 3 5で白 バランス調整処理が行われ、 ステップ S 1 3 7で最適露光時間が算出される。 白 パランス調整および最適露光時間の算出はそれぞれ、 テーブル 4 4 aに格納され た R G B信号および Y信号に基づいて行われる。 最適露光時間が算出されると、 当該最適露光時間がステップ S 1 3 9で T G 1 8に設定される。
ステップ S 1 4 1では VDパルスの発生の有無が判別され、 Y E Sと判断され たときにステップ S 1 4 3でプリ露光を行われる。 このプリ露光は、 ステップ S 1 1 7で算出された絞り量 Fおよびステップ S 1 3 7で算出された最適露光時間 に従って実行される。 このような最適露光量に従うプリ露光の後に VDパルスが 発生すると、 ステップ S 1 4 5で Y E Sと判断され、 ステップ3 1 4 7〜3 1 5 1でステップ S 127〜S 131と同様の処理が行われる。 これによつて、 ステ ップ S 143のプリ露光に基づく 1フレームの RGB信号および Y信号がテープ ル 44 aに格納される。 ステップ S 151で YESと判断されると、 処理はステ ップ S 153における基準値決定処理を経てステップ S 155に進む。
ステップ S 153の基準値決定処理は、 図 16および図 17に示すサブルーチ ンに従って実行される。 まずステップ S 201でカウンタ 44 rのカウント値 R c n tおよびカウンタ 44 gのカウント値 Gc n tが " 0" に設定され、 ステツ プ S 203でテ一プル 44 aを参照して Y i j , (R— G) i jおよび (B— G) i jが算出される。
被写体像は図 18に示すように水平方向および垂直方向に 8分割され、 合計 6 4個の分割エリァが画面上に形成される。 iおよび jはそれぞれ水平方向および 垂直方向における分割エリアの位置を示し、 "1"〜 "8"のいずれか 1つが iお よび jに割り当てられる。 Y i jは分割エリア ( i , j ) から検出された Y信号 の積分値を示し、輝度評価値と定義することができる。一方、 (R-G) i jは分 割エリア ( i, j) から検出された R信号および G信号の各々の積分値の差分を 示し、 (B— G) i jは分割エリア (i, j )から検出された B信号および G信号 の各々の積分値の差分を示す。
ステップ S 205では、数式 4の演算が実行される。数式 4によれば、 (R-G) i jおよび (B— G) i jの各々が輝度評価値によって割り算する。
[数式 4]
f y (R-G) i j = (R-G) i j ZY i j
f y (B-G) i j = (B-G) i j /Y i j
(R-G) i jおよび (B— G) i jが示す数値には、 プリ露光時の露光量が 反映される。 つまり、 露光量が多ければ数値は大きくなるが、 露光量が小さけれ ば数値は小さくなる。 このような特性を持つ (R— G) i jおよび (B— G) i jを各分割エリアの色評価値と定義すると、色評価値は露光量によって変動する。 一方、 被写体の色は本来的に露光量に依存せず、 被写体および光源が変化しない 限り、 被写体の色は常に同じである。 したがって、 露光量が変更されても、 色評 価値は同じ値をとり続けるべきである。 このため、 数式 4に従って (R— G) i jおよび (B— G) i jの各々が露光量に関連する輝度評価値 Y i jによって割 り算され、 割り算値が色評価値とされる。 これによつて色評価値は露光量に依存 しなくなり、 被写体の色を正確に評価することができる。
ステップ S 207では f y (R-G) i jおよび f y (B— G) i jが図 19 に示す色分布図のエリア Rに含まれるかどうかが判別され、 ステップ S 209で は Y i jが閾値 t h 1を上回るかどうかが判別される。 ステップ S 207および S 209のいずれか一方でも NOと判断されると、 処理はそのままステップ S 2 13に進むが、ステップ S 207および S 209の両方で YESと判断されると、 ステップ S 211でカウント値 Rc n tがインクリメントされ、 その後処理がス テツプ S213に進む。 したがって、 カウント値 Re n tは、 注目する分割エリ ァの色評価値がェリア Rに属しかつ当該分割ェリァの画像が高輝度であるときに、 ステップ S 213では f y (R-G) i jおよび f y (B-G) i jが図 19 に示す色分布図のエリア Gに含まれるかどうかが判別され、 ステップ S 215で は Y i jが閾値 t 2を上回るかどうかが判別される。 ステップ S 213または S 215で NOと判断されると処理はそのままステップ S 219に進むが、 ステ ップ S 213および S 215の両方で YESと判断されると、 ステップ S 217 でカウント値 Gc n tがインクリメントされ、 その後処理がステップ S 219に 進む。 したがって、 カウント値 Ge n tは、 注目する分割エリアの色評価値がェ リァ Gに属しかつ当該分割ェリァの画像が高輝度であるときに、 インクリメント される。
ステップ S 219では図 18に示す全ての分割エリアについて判別処理が行わ れたかどうかが判断され、 Y E Sと判断されるまでステップ S 203〜S 217 の処理が繰り返される。 この結果、 ステップ S 207および S 211の判別結果 に応じてカウント値 Rcn tが更新され、 ステップ S 213および S 215の判 別結果に応じてカウント値 Gc n tが更新される。
図 19に示すエリア: は R成分を多く含むエリアであり、 エリア Gは G成分を 多く含むエリアである。 したがって、 高輝度でかつ R成分を含む部分が多いほど カウント値 Rcn tが大きくなり、 高輝度でかつ G成分を含む部分力多いほど力 ゥント値 Gc n tが大きくなる。また、図 19から分かるように、エリア Rには、 人間の肌の色も含まれる。このため、明るい場所で人間の顔が撮影されたときは、 顔の画像が存在する分割エリアを判別するときにカウント値 Rc n tがインクリ メントされる。
ステップ S 221では、 テーブル 44 aを参照して R s a t, Gs a tおよび B s a tが検出される。 上述のように、 Rs a tは Rの関する色飽和度であり、 Gs a tは Gに関する色飽和度である。 また、 B s a tは Bレベルが飽和してい る画素の総数であり、 Bに関する色飽和度と定義することができる。
ステップ S 223ではカウント値 Gc n tが判別され、 ステップ S 225では Gs a tおよび B s a tが互いに比較される。 G c n t = 0であるか、 Gen t ≥1であっても Gs a t≤B s a tであれば、 処理はステップ S 227に進む。 一方、 Ge n 1;≥1でかっ03 a t>B s a tであれば、 処理はステップ S 22 9に進む。 ステップ S 227では数式 5に従って R s a t_Nが算出され、 ステ ップ S 229では数式 6に従って R s a t— Nが算出される。
[数式 5]
R s a t一 N = R s a t— Gs a t
[数式 6]
R s a t一 N = R s a t -B s a t
上述のように、 通常は G信号が飽和するときに輝度レベルも飽和するため、 図 1実施例では Gs a tが輝度飽和度と定義される。 そして、 Rs a tから Gs a tを減算することによって、 輝度レベルは飽和していないが Rレベルが飽和して いる画素の総数が求められる。 しかし、 被写体によっては輝度レベルが飽和せず に Gレベルが飽和するものもあり、 このような被写体では Gs a tを輝度飽和度 と定義することはできない。 一方、 輝度レベルが飽和するときは Gレベルだけで なく Bレベルも飽和するため、 Gs a tおよび B s a tのうち小さい方の数値が、 輝度レベル力飽和している画素数に近いと言える。 このため、 ステップ S 225 で Gs a tが B s a tと比較され、 小さい方の数値を Rs a tから減算すること で、 R信号の偏り度である Rs a t— Nが求められる。
また、 Gcn t = 0のときは、 被写体に G成分が含まれない力 あるいは被写 体の輝度が全体的に低い。 このため、 原則通り、 Gs a tを輝度飽和度と定義す ることができる。 このとき、 処理は、 ステップ S 225の比較処理を経ることな くステップ S 227に進み、 数式 5に従って R s a t— Nが求められる。
ステップ S 231では、 算出された R s a t— Nの値が判別される。 そして、 R s a t—N>0の条件が成立すれば処理はそのままステップ S 235に進み、 R s a t— N≤0の条件が成立すればステップ S 233で R s a t__Nが "0" に設定され、 その後処理がステップ S 235に進む。 この処理は、 図 7に示すス テツプ S 87および S 89と同じである。
ステップ S 235では、 カウント値 Rc n tが "1" と比較される。 そして、 R c n t≥ 1の条件が成立すればステップ S 237で数式 7に従って R s a t— Nが更新され、 R c n t = 0の条件が成立すればステツプ S 239で Rs a t— Nが "0" に設定される。
[数式 7]
R s a t_N = R s a t一 N氺 R c n t
R s a t— Nが確定すると、 ステップ S 241〜S 245で図 7に示すステツ プ S 91〜S 95と同様の処理が行われる。 これによつて、 基準値 Y sが決定さ れる。
一般のユーザは人間を被写体として選ぶことが多いため、 人間の肌の画像に色 相の歪みが現れるような事態はできるだけ回避するべきである。 このため、 人間 の肌の画像に最も多く含まれる R成分が注目され、 R c n t≥ 1の条件が成立す るときに R s a t— Nが Rcn tによって掛け算される。 つまり、 高輝度でかつ 色評価値が Rエリアに属する分割ェリアの数によって、 Rの偏り度に重み付けが かけられる。 これによつて、 カウント値 Rcn tが大きいほど基準値 Ysが低下 し、 短時間露光画像信号が図 9に示すスイッチ S W 1によつて選択されやすくな る。 この結果、 R成分を含む色について色相の歪みが抑制される。
なお、 Rc n t = 0のとき、 Rs a t_Nは " 0" に設定され、 これによつて 基準値 Ysは最大値 Ys maxに設定される。 カウント値 R c n tが " 0 " とな るのは、全ての分割エリアの画像が低輝度であるか R成分を含まないときである。 このような場合、 基準値 Ysを最大値 Ysmaxに設定しても色相は歪まないと 思われるため、 基準値 Y sが最大値 Y s m a xに設定される。
この発明が詳細に説明され図示されたが、 それは単なる図解および一例として 用いたものであり、 限定であると解されるべきではないことは明らかであり、 こ の発明の精神および範囲は添付されたクレームの文言によってのみ限定される。

Claims

請求の範囲
1 . 第 1露光量に従う第 1露光によって得られた被写体の第 1画像信号と第 1 露光量よりも少ない第 2露光量に従う第 2露光によつて得られた前記被写体の第 2画像信号とに基づいて前記被写体の合成画像信号を生成する画像合成装置であ つて、 次のものを備える:
前記第 1画像信号および前記第 2画像信号のいずれか一方の明るさ関連レベル を基準値と比較する比較手段;
前記明るさ関連レベルが前記基準値以下のとき前記第 1画像信号を選択する第 1選択手段;
前記明るさ関連レベルが前記基準値よりも大きいとき前記第 2画像信号を選択 する第 2選択手段;
前記被写体の色の偏り度を検出する偏り度検出手段;および
前記偏り度に基づいて前記基準値を減少させる減少手段。
2 . クレーム 1に従属する画像合成装置であって、 所定露光量に従う露光によ つて得られた前記被写体の第 3画像信号を取り込む取り込み手段をさらに備え、 前記偏り度検出手段は、 前記第 3画像信号に基づいて特定色の色飽和度を検出 する色飽和度検出手段、 前記第 3画像信号の輝度飽和度を検出する輝度飽和度検 出手段、 および前記色飽和度から前記輝度飽和度を減算する減算手段を含む。
3. クレーム 2に従属する画像合成装置であって、 前記色飽和度検出手段は前 記特定色の色レベルが飽和している画素の第 1画素数を検出し、 前記輝度飽和度 検出手段は輝度が飽和している画素の第 2画素数を検出する。
4. クレーム 2または 3に従属する画像合成装置であって、 前記所定露光量は 前記第 1露光量よりも少なくかつ前記第 2露光量よりも多い。
5 . クレーム 1ないし 4のいずれかに従属する画像合成装置であって、 前記減 少手段は前記偏り度が大きいほど前記基準値を大きく減少させる。
6 . クレ一ム 1ないし 4のいずれかに従属する画像合成装置であって、 被写体 像を形成する複数部分の各々が所定条件を満たすかどうかを判別する判別手段を さらに備え、
前記減少手段は、 前記所定条件を満たす部分の数に応じて前記偏り度に重み付 けを施す重み付け手段、 および前記重み付け手段による重み付け結果に基づいて 前記基準値を減少させる基準値減少手段を含む。
7 . クレーム 6に従属する画像合成装置であって、 前記所定条件は、 注目する 部分が特定色であるという第 1条件、 および前記注目する部分が高輝度であると いう第 2条件を含む。
8 . クレーム 1ないし 7のいずれかに従属する画像合成装置を備えるディジ夕 ルカメラ。
9 . 第 1露光量に従う第: I露光によって得られた被写体の第 1画像信号と第 1 露光量よりも少ない第 2露光量に従う第 2露光によって得られた前記被写体の第 2画像信号とに基づいて前記被写体の合成画像信号を生成する画像合成方法であ つて、 次のステップを備える:
( a ) 前記第 1画像信号および前記第 2画像信号のいずれか一方の明るさ関連 レベルを基準値と比較し;
( b ) 前記明るさ関連レベルが前記基準値以下のとき前記第 1画像信号を選択 し;
( c ) 前記明るさ関連レベルが前記基準値よりも大きいとき前記第 2画像信号 を選択し;
( d ) 前記被写体の色の偏り度を検出し;そして
( e ) 前記偏り度に基づいて前記基準値を減少させる。
1 0 . クレーム 9に従属する画像合成方法であって、 所定露光量に従う露光に よって得られた前記被写体の第 3画像信号を取り込むステップ (f ) をさらに備 え、
前記ステップ (d ) は、 前記第 3画像信号に基づいて特定色の色飽和度を検出 するステップ(d— 1 )、前記第 3画像信号の輝度飽和度を検出するステップ(d 一 2 )、 および前記色飽和度から前記輝度飽和度を減算するステップ(d— 3 ) を 含む。
PCT/JP2002/005985 2001-06-19 2002-06-14 Synthetiseur d'images WO2002103632A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US10/481,479 US7511739B2 (en) 2001-06-19 2002-06-14 Image combining apparatus for combining multiple exposure based on luminance properties

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2001-184287 2001-06-19
JP2001184287 2001-06-19
JP2001-213085 2001-07-13
JP2001213085A JP3510868B2 (ja) 2001-06-19 2001-07-13 画像合成装置

Publications (1)

Publication Number Publication Date
WO2002103632A1 true WO2002103632A1 (fr) 2002-12-27

Family

ID=26617157

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/005985 WO2002103632A1 (fr) 2001-06-19 2002-06-14 Synthetiseur d'images

Country Status (4)

Country Link
US (1) US7511739B2 (ja)
JP (1) JP3510868B2 (ja)
CN (1) CN1288597C (ja)
WO (1) WO2002103632A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3631169B2 (ja) 2001-06-19 2005-03-23 三洋電機株式会社 ディジタルカメラ
US7348957B2 (en) * 2003-02-14 2008-03-25 Intel Corporation Real-time dynamic design of liquid crystal display (LCD) panel power management through brightness control
US20050057484A1 (en) * 2003-09-15 2005-03-17 Diefenbaugh Paul S. Automatic image luminance control with backlight adjustment
US20050057485A1 (en) * 2003-09-15 2005-03-17 Diefenbaugh Paul S. Image color transformation to compensate for register saturation
US8358262B2 (en) 2004-06-30 2013-01-22 Intel Corporation Method and apparatus to synchronize backlight intensity changes with image luminance changes
JP4567593B2 (ja) * 2005-12-27 2010-10-20 三星デジタルイメージング株式会社 撮像装置および撮影方法
JP4662880B2 (ja) * 2006-04-03 2011-03-30 三星電子株式会社 撮像装置,及び撮像方法
JP4979969B2 (ja) * 2006-04-03 2012-07-18 三星電子株式会社 撮像装置および撮像方法
JP5100066B2 (ja) * 2006-09-06 2012-12-19 パナソニック株式会社 撮像装置および撮像方法
CN1949881B (zh) * 2006-11-03 2010-06-30 中国科学院光电技术研究所 高速ccd相机数据合成系统
JP2008124928A (ja) * 2006-11-14 2008-05-29 Toshiba Corp オートホワイトバランスシステム
CN101401445B (zh) * 2006-12-15 2011-05-18 利达电子株式会社 相对曝光量测定装置以及方法
JP2008252195A (ja) * 2007-03-29 2008-10-16 Yamaha Corp Cmos固体撮像装置
US20090073293A1 (en) * 2007-06-27 2009-03-19 Yoel Yaffe CMOS image sensors with increased dynamic range and methods of operating the same
JP5082776B2 (ja) * 2007-10-31 2012-11-28 オムロン株式会社 画像処理装置
KR100925191B1 (ko) * 2008-02-25 2009-11-06 엘지전자 주식회사 카메라의 백라이트 보정 장치 및 방법
KR101436835B1 (ko) 2008-04-04 2014-09-02 삼성전자주식회사 디지털 영상 처리기에서 광 역광 보정을 수행하기 위한데이터 결정 장치 및 방법
JP5183297B2 (ja) * 2008-05-19 2013-04-17 三洋電機株式会社 画像処理装置、撮像装置及び画像処理方法
US8736751B2 (en) * 2008-08-26 2014-05-27 Empire Technology Development Llc Digital presenter for displaying image captured by camera with illumination system
JP5188453B2 (ja) 2009-05-25 2013-04-24 パナソニック株式会社 カメラ装置および露光制御方法
JP2013066145A (ja) * 2011-08-31 2013-04-11 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
WO2013097907A1 (en) * 2011-12-30 2013-07-04 Barco N.V. Method and system for determining image retention
WO2013179250A1 (en) * 2012-05-30 2013-12-05 Evertech Properties Limited Article authentication apparatus having a built-in light emitting device and camera
KR101387023B1 (ko) * 2013-02-28 2014-04-18 김태권 하이 다이나믹 레인지 영상 뷰어 및 그의 영상 처리 방법
WO2016044983A1 (zh) * 2014-09-22 2016-03-31 华为技术有限公司 一种图像处理方法、装置及电子设备
TWI498848B (zh) * 2014-10-13 2015-09-01 Quanta Comp Inc 多重曝光成像系統及其白平衡方法
TWI576653B (zh) * 2015-07-31 2017-04-01 廣達電腦股份有限公司 曝光控制系統及其方法
US10880504B2 (en) * 2016-12-27 2020-12-29 Canon Kabushiki Kaisha Image pickup device, image capturing system, and movable body

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141229A (ja) * 1992-10-27 1994-05-20 Matsushita Electric Ind Co Ltd 高ダイナミックレンジ撮像・合成方法及び高ダイナミックレンジ撮像装置
JPH11355787A (ja) * 1998-06-09 1999-12-24 Konica Corp 画像処理装置及び画像出力装置
JP2000050160A (ja) * 1998-08-03 2000-02-18 Ricoh Co Ltd 画像合成装置,画像合成方法及び画像合成方法を記憶した記憶媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5638118A (en) * 1987-06-09 1997-06-10 Canon Kabushiki Kaisha Image sensing device with diverse storage times used in picture composition
US5633677A (en) * 1989-11-30 1997-05-27 Canon Kabushiki Kaisha Television camera apparatus
US5801773A (en) * 1993-10-29 1998-09-01 Canon Kabushiki Kaisha Image data processing apparatus for processing combined image signals in order to extend dynamic range
JP4245699B2 (ja) * 1998-09-16 2009-03-25 オリンパス株式会社 撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06141229A (ja) * 1992-10-27 1994-05-20 Matsushita Electric Ind Co Ltd 高ダイナミックレンジ撮像・合成方法及び高ダイナミックレンジ撮像装置
JPH11355787A (ja) * 1998-06-09 1999-12-24 Konica Corp 画像処理装置及び画像出力装置
JP2000050160A (ja) * 1998-08-03 2000-02-18 Ricoh Co Ltd 画像合成装置,画像合成方法及び画像合成方法を記憶した記憶媒体

Also Published As

Publication number Publication date
CN1518724A (zh) 2004-08-04
CN1288597C (zh) 2006-12-06
US20040233307A1 (en) 2004-11-25
JP2003078921A (ja) 2003-03-14
US7511739B2 (en) 2009-03-31
JP3510868B2 (ja) 2004-03-29

Similar Documents

Publication Publication Date Title
WO2002103632A1 (fr) Synthetiseur d'images
US8150208B2 (en) Image pickup apparatus having stability checker for specific object feature value, and program and method for control of image pickup including checking stability of specific object feature value
US8514293B2 (en) Moving image processing device and method for performing different image processings to moving object region and still object region
US7509042B2 (en) Digital camera, image capture method, and image capture control program
US7912282B2 (en) Image processing apparatus for correcting an input image and image processing method therefor
US8199203B2 (en) Imaging apparatus and imaging method with face detection based on scene recognition results
US8681242B2 (en) Image signal processing system
US8970719B2 (en) Image processing apparatus and image processing method
JP2749921B2 (ja) 撮像装置
JP2006352795A (ja) 撮像装置及び画像処理方法
JP2010028596A (ja) 撮像装置
US8471953B2 (en) Electronic camera that adjusts the distance from an optical lens to an imaging surface
US7577354B2 (en) Digital camera with face detection function for red eye reduction
JP7403242B2 (ja) 画像処理システム、画像処理方法、及びプログラム
JP2002290707A (ja) 画像処理装置
CN104247398A (zh) 摄像设备及其控制方法
US7251057B2 (en) Digital camera
US7876366B2 (en) Electronic camera
JP2008160291A (ja) 画像信号処理装置、画像信号処理プログラム及び撮像装置
JP3297485B2 (ja) 撮像装置
JP4422353B2 (ja) 電子カメラ
JP5351663B2 (ja) 撮像装置およびその制御方法
US20050206756A1 (en) Electronic camera
JP3871681B2 (ja) 撮像装置及びカメラ
JP2023090628A (ja) 画像処理装置および画像処理方法、撮像装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN ID KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 10481479

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 028123131

Country of ref document: CN

122 Ep: pct application non-entry in european phase