WO2006109703A1 - 撮影システム、および映像信号処理プログラム - Google Patents

撮影システム、および映像信号処理プログラム Download PDF

Info

Publication number
WO2006109703A1
WO2006109703A1 PCT/JP2006/307409 JP2006307409W WO2006109703A1 WO 2006109703 A1 WO2006109703 A1 WO 2006109703A1 JP 2006307409 W JP2006307409 W JP 2006307409W WO 2006109703 A1 WO2006109703 A1 WO 2006109703A1
Authority
WO
WIPO (PCT)
Prior art keywords
shooting
video signal
unit
information amount
information
Prior art date
Application number
PCT/JP2006/307409
Other languages
English (en)
French (fr)
Inventor
Masao Sambongi
Akira Ueno
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to EP06731357A priority Critical patent/EP1871095A4/en
Priority to US11/918,111 priority patent/US20090086059A1/en
Publication of WO2006109703A1 publication Critical patent/WO2006109703A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction

Definitions

  • the present invention relates to an imaging system that performs gradation conversion processing on a video signal, and a video signal processing program, and more particularly to a shooting system that can generate a high-quality video signal in consideration of shooting conditions, and a video signal It relates to the processing program.
  • the scale of the signal in the input and processing system with respect to the final output signal gradation width (usually 8 bits).
  • the adjustment range (about 10 to 14 bits) is set wider. In this case, it is necessary to perform gradation conversion so that it matches the gradation width of the output system. In the past, conversion was performed using fixed gradation characteristics for standard scenes. A method is also proposed in which the tone characteristics corresponding to the shooting scene are obtained and converted adaptively.
  • Japanese Laid-Open Patent Publication No. 2 0 03-6 9 8 2 1 discloses an example in which gradation conversion is performed with an emphasis on the main subject by estimating a shooting situation.
  • the above example also discloses an example in which side effects such as noise are suppressed by imposing a certain restriction on the obtained gradation characteristics.
  • a method has also been proposed in which the video signal is subjected to gradation conversion independently for each region.
  • Japanese Patent No. 3 4 6 5 2 2 6 discloses an example in which a video signal is divided into regions based on texture information and gradation conversion is adaptively performed for each region.
  • the present invention has been made in view of the above problems, and in a photographing system that performs gradation conversion processing on a video signal, a high-definition video signal can be efficiently generated according to the photographing situation.
  • An object is to provide a photographing system and a video signal processing program. Disclosure of invention
  • the imaging system of the present invention is a shooting system that performs gradation conversion processing on a video signal of an image shot by the shooting means, and determines the shooting status of the image.
  • An imaging amount determination unit for changing the information amount of the video signal in accordance with the imaging status determined by the imaging state determination unit, and an image whose information amount has been changed by the information amount changing unit
  • Gradation conversion means for performing gradation conversion processing in accordance with gradation conversion characteristics obtained using a signal.
  • Embodiments relating to the invention of (1) correspond to the first embodiment, the second embodiment, and the third embodiment shown in FIGS.
  • the photographing condition determining means of the present invention includes the photographing condition determining unit 10 08 shown in FIGS. 1 and 3, the photographing condition determining unit 10 08 shown in FIGS. 1 1 and the shooting situation determination unit 2 0 0 8 shown in FIG.
  • the information amount changing means includes the information amount changing unit 10 07 shown in FIG. 1, the information amount changing unit 10 07 shown in FIGS. 6 and 9, and the information amount changing unit shown in FIG. 2 0 0 7 a corresponds.
  • the tone converting means corresponds to the tone converting unit 110 shown in FIGS. 1 and 6 and the tone converting unit 2 0 10 shown in FIG.
  • the information amount of the video signal is changed according to the shooting situation, and the gradation conversion processing is performed according to the gradation conversion characteristics obtained by using the video signal with the changed information amount. Yes.
  • this configuration according to the difference in the shooting conditions, for example, depending on whether or not the shooting situation has a large contrast between light and dark, an efficient floor with a balance between processing time and high image quality is achieved. Key conversion can be performed.
  • the invention of (2) is the invention of (1), further comprising a shooting situation receiving means for receiving a setting of a shooting situation at the time of shooting the image from a user, wherein the shooting situation judging means is the shooting situation receiving means The shooting status of the image is determined based on the shooting status received in (1).
  • the embodiment relating to the present invention corresponds to the first embodiment shown in FIGS. 1 to 5 or the third embodiment shown in FIGS. 11 to 13.
  • the photographing status receiving means of this invention corresponds to the external I ZF section 1 14 shown in FIGS.
  • determining the shooting status of the image according to the shooting status received by the shooting status receiving means includes the shooting condition acquisition unit 2 0 0, the overall estimation unit 2 0 4 of FIG. 3 and FIG. 1 2 (a), 2 0 5
  • the invention of (2) obtains the shooting situation set by the user. According to this configuration, the shooting conditions can be acquired at high speed by using the shooting conditions set by the user.
  • the invention of (3) is characterized in that, in the invention of (1), the shooting situation determination means determines the shooting situation from the video signal.
  • the shooting situation determination means determines the shooting situation from the video signal.
  • the related embodiment corresponds to the first embodiment shown in FIGS. 1 to 5 or the third embodiment shown in FIGS. 11 to 13. Determination of the shooting situation from the video signal of the present invention is performed by the overall estimation unit 20 4 shown in FIG. 3 or the overall estimation unit 2 05 shown in FIG.
  • the shooting situation of the video signal is determined from the video signal. According to this configuration, since the shooting situation is determined from the video signal, the shooting situation can be determined even when the user has not set the shooting situation.
  • the photographing condition determining means includes a focus position calculating means for calculating a focus position at the time of shooting, and a luminance for calculating a luminance distribution of the photographed video signal. And a distribution calculation unit, wherein the photographing situation is determined based on the in-focus position calculated by the in-focus position calculation unit and the brightness distribution calculated by the luminance distribution calculation unit.
  • the embodiment of the invention of (4) corresponds to the first embodiment shown in FIGS. 1 to 5 or the third embodiment shown in FIGS. 11 to 13.
  • the focus position calculation means of the invention is the focus position estimation unit 2 0 1 shown in FIG. 3 and FIG. 12, and the brightness distribution calculation means is the subject distribution shown in FIG. 3 and FIG.
  • Each of the estimation units 2 0 2 corresponds.
  • the shooting situation is determined by the overall estimation unit 20 04 shown in FIG. 3 or the overall estimation unit 2 0 5 shown in FIG.
  • the shooting state of the video signal is determined by the in-focus position calculating means and the luminance distribution calculating means. According to this configuration, since the shooting situation is determined from the in-focus position and the luminance distribution, the shooting situation can be determined with high accuracy.
  • the photographing condition determining means includes a focus position calculating means for calculating a focus position at the time of photographing, and a luminance for calculating a luminance distribution of the photographed video signal.
  • Distribution calculation means, classification according to the focus position calculated by the focus position calculation means, and the luminance distribution calculation means The shooting situation is judged based on the combination with the classification based on the luminance distribution calculated in the step.
  • the embodiment relating to the present invention corresponds to the first embodiment shown in FIGS. 1 to 5 or the third embodiment shown in FIGS. 11 to 13.
  • the in-focus position calculating means of the present invention corresponds to the in-focus position estimating section 2101 force S of FIGS. 3 and 12, and the luminance distribution calculating means corresponds to the subject distribution estimating section 202.
  • the overall estimation unit 20 04 shown in FIG. 3 or the overall estimation unit 20 05 shown in FIG. 12 is classified by the focus position calculated by the focus position calculation unit, and the luminance distribution calculation unit Based on the combination with the classification based on the luminance distribution calculated in step 1, the shooting situation is determined.
  • the shooting situation of the video signal is determined based on the combination of the classification based on the in-focus position and the classification based on the luminance distribution. According to this configuration, since the shooting situation is determined by the classification based on the in-focus position and the brightness, the shooting situation can be determined with high accuracy.
  • the photographing condition determining means determines the photographing condition based on a result of comparing the shutter speed at the time of photographing and the luminance of the photographed image with a predetermined threshold. It is characterized by that.
  • the embodiment relating to the present invention corresponds to the first embodiment shown in FIGS.
  • the determination of the shooting situation according to the present invention is performed by the night view estimation unit 20 3 and the overall estimation unit 20 4 shown in FIG.
  • the shooting situation is determined using information on the shutter speed at the time of shooting and the luminance of the video signal. According to this configuration, it is possible to determine the shooting situation with high accuracy based on the brightness of the shirt.
  • the photographing condition determining means is based on whether or not the shutter speed at the time of photographing and the brightness of the photographed image and a predetermined threshold have a predetermined relationship.
  • First determination unit for determining shooting conditions And after the determination by the first determination unit, a second determination unit that determines the shooting situation based on the focus position at the time of shooting and the luminance distribution of the shot image, The determination of the shooting situation is performed by the determination unit and the second determination unit.
  • the embodiment relating to the present invention corresponds to the first embodiment shown in FIGS.
  • the first determination unit of the present invention corresponds to the night view estimation unit 20 3 and the overall estimation unit 20 4 shown in FIG.
  • the second determination unit corresponds to the in-focus position estimation unit 20 01, the subject distribution estimation unit 20 2, and the overall estimation unit 20 4 shown in FIG. Further, the shooting situation is determined by the overall estimation unit 20 4 shown in FIG.
  • the shooting situation is first determined by the shutter speed and brightness, and then determined by using the information on the in-focus position and the brightness distribution. According to this configuration, for example, it is possible to determine whether or not the shooting situation is a night view first, and the shooting situation can be determined efficiently.
  • the invention of (8) is characterized in that, in the invention of (1), the information amount changing means changes the information amount of the video signal by changing the resolution of the video signal.
  • the embodiment relating to the present invention corresponds to the third embodiment shown in FIGS. 11 to 13.
  • the information amount changing unit 2 0 0 7a shown in FIG. 11 changes the information amount of the video signal by changing the resolution of the video signal of the present invention.
  • the invention of (9) is the invention for converting the gradation from the gradation conversion characteristics obtained by using the video signal after the resolution is changed by the information amount changing means in the invention of (8).
  • Gradation conversion characteristic calculation means for calculating a first correction coefficient and changing the calculated first correction coefficient to a second correction coefficient corresponding to the resolution of the video signal before the resolution is changed,
  • the gradation converting means performs gradation conversion using the second correction coefficient.
  • the embodiment relating to the present invention is a third embodiment shown in FIGS. Corresponds to the embodiment.
  • the gradation conversion characteristic calculation means of this invention corresponds to the correction coefficient calculation unit 2 0 0 7 b and the correction coefficient correction unit 2 0 0 7 c shown in FIG.
  • the information amount of the video signal is changed by changing the resolution of the video signal. According to this configuration, since the resolution of the video signal is changed, it is possible to efficiently perform gradation conversion on the digital video signal and obtain a high-quality video signal.
  • the invention of (10) is characterized in that, in the invention of (1), the information amount changing means changes the information amount of the video signal by changing a bit length of the video signal.
  • the embodiment relating to the present invention corresponds to the first embodiment and the second embodiment shown in FIGS.
  • Changing the information amount of the video signal by changing the bit length of the video signal according to the present invention means that the information amount changing unit 10 07 shown in FIG. 1 and the information shown in FIGS. This is done by the quantity changer 1 00 7
  • the information amount of the video signal is changed by changing the bit length of the video signal. According to this configuration, since the bit length of the video signal is changed, it is possible to efficiently perform gradation conversion on the digital video signal and obtain a high-quality video signal.
  • the shooting situation determining means determines a shooting situation for each of a plurality of areas constituting the image, and the information amount changing means is provided for each of the areas.
  • the amount of information of the corresponding video signal is changed according to the shooting situation for each area.
  • the embodiment relating to the present invention corresponds to the second embodiment shown in FIGS.
  • the determination of the shooting situation for each of a plurality of areas constituting the image of the present invention may be performed by the specific color detection unit 30 0, the dark part detection unit 3 0 1, the region estimation unit 3 0 2, or the figure shown in FIG. This is performed by the frequency calculation unit 3 0 3 and the region estimation unit 3 0 4 shown in FIG.
  • the amount of information of the video signal corresponding to each of the areas is The change according to the shooting situation for each area is performed by the information amount changing unit 10 07 shown in FIG.
  • the amount of information of the video signal is changed by determining the shooting situation for each region. According to this configuration, since the shooting situation is determined for each region, it is possible to accurately determine the shooting situation and obtain a high-quality video signal.
  • the invention of (12) is the invention of (11), wherein the photographing situation determination means is at least one of color information obtained based on the video signal or luminance information obtained based on the video signal.
  • the photographing situation determination means is at least one of color information obtained based on the video signal or luminance information obtained based on the video signal.
  • One of the features is that the shooting status is judged by one.
  • the embodiment relating to the present invention corresponds to the second embodiment shown in FIGS. According to the present invention, it is possible to determine a shooting state based on at least one of color information obtained based on the video signal and luminance information obtained based on the video signal.
  • the specific color detection shown in FIG. This is performed by the unit 300, the dark part detection unit 301, and the good region estimation unit 302.
  • the shooting status of each area is judged using color information or luminance information. According to this configuration, since only the color information or the luminance information is used, it is possible to determine the shooting situation of the area at high speed.
  • the invention of (1 3) is characterized in that, in the invention of (1 1), the imaging situation determination means determines the imaging situation for each area according to the amount of the high frequency component of the spatial frequency in the area. .
  • the embodiment relating to the present invention corresponds to the second embodiment shown in FIGS.
  • the imaging condition for each area is determined according to the amount of the high-frequency component of the spatial frequency in the area by the frequency calculation section 30 3 and the area estimation section 304 shown in FIG.
  • the shooting situation of each region is determined using the frequency information.
  • the frequency information of the image is used to determine the shooting situation.
  • the information amount changing means sets the bit length of the video signal corresponding to each of the plurality of regions for each of the regions according to the photographing situation for each of the regions. By changing to, the amount of information of the video signal is changed.
  • the embodiment relating to the present invention corresponds to the second embodiment shown in FIGS.
  • the area bit length changing means of the present invention corresponds to the information amount changing unit 1007 shown in FIG. 6 and FIG.
  • the bit length of the video signal is changed for each region. According to this configuration, since the bit length for each area of the video signal is changed, it is possible to efficiently perform gradation conversion on the digital video signal and obtain a high-quality video signal.
  • the invention of (15) is characterized in that, in the invention of (1), an information amount changing process avoiding means for controlling so as not to perform the processing by the information amount changing means is provided.
  • Embodiments relating to the present invention correspond to the first embodiment, the second embodiment, and the third embodiment shown in FIGS.
  • the control unit 1 1 3, the control unit 1 0 1 3, and the control unit 2 0 1 3 correspond to the information amount change processing avoidance means of the present invention. According to the present invention, a high-quality video signal can be obtained without changing the amount of information according to the situation, and the processing speed can be increased.
  • the video signal processing program of the present invention includes a procedure for reading a video signal of an image into a computer, a procedure for determining a shooting state of the image, and the determination.
  • the procedure for changing the information amount of the video signal according to the shooting situation and the procedure for performing gradation conversion processing according to the gradation conversion characteristics obtained using the video signal with the changed information amount are executed. It is characterized by making it.
  • An embodiment relating to this invention is the following: The first embodiment, the second embodiment, and the third embodiment correspond.
  • the video signal processing program determines a shooting situation for each of a plurality of areas constituting the image and a procedure for reading the video signal of the image into a computer.
  • a procedure for changing the information amount of the video signal corresponding to each region according to a shooting situation for each region, and a gradation conversion characteristic obtained by using the video signal whose information amount is changed And a procedure for performing gradation conversion processing according to the method.
  • the embodiment relating to the present invention corresponds to the second embodiment.
  • the inventions of (16) and (17) allow video signal processing to be realized on a computer by a program. This makes it possible to execute high-quality video signal processing quickly and accurately.
  • a shooting system that performs gradation conversion processing on a video signal
  • An imaging system that can do this can be provided.
  • FIG. 1 is a configuration diagram of the first embodiment.
  • FIG. 2 is an explanatory diagram of a pattern for evaluation photometry in the first embodiment.
  • FIG. 3 is a configuration diagram of the photographing situation determination unit in the first embodiment.
  • FIG. 4 is an explanatory diagram of shooting scene estimation in the first embodiment.
  • FIG. 5 is a flowchart showing the processing procedure of the first embodiment.
  • FIG. 6 is a configuration diagram of the second embodiment.
  • FIG. 7 is a configuration diagram of a shooting situation determination unit in the second embodiment.
  • FIG. 8 is a configuration diagram of a shooting situation determination unit in the second embodiment.
  • FIG. 9 is a configuration diagram of the information amount changing unit in the second embodiment.
  • FIG. 10 is a flowchart showing the processing procedure of the second embodiment.
  • FIG. 11 is a block diagram of the third embodiment.
  • FIG. 12 is a configuration diagram of a shooting situation determination unit in the third embodiment.
  • FIG. 13 is an explanatory diagram for explaining a method of calculating the resolution in the third embodiment.
  • FIG. 1 is a block diagram of the first embodiment
  • Fig. 2 is an explanatory diagram of a division pattern for evaluation metering
  • Fig. 3 is a block diagram of a shooting state determination unit
  • Fig. 4 is a scene estimation from AF information and AE information.
  • FIG. 5 is a flowchart showing a processing procedure by the imaging system.
  • FIG. 1 is a configuration diagram of the first embodiment, showing the configuration of the imaging system 10 of the present invention.
  • An image photographed through the lens system 100, the aperture 1 0 1, and the CCD 1 0 2 is converted into a digital signal by the AZD 104.
  • a The video signal converted into a digital signal from ZD 104 is composed of a buffer 1 0 5, an information amount changing unit 1 0 7, a signal processing unit 1 0 9, a gradation converting unit 1 1 0 and a compressing unit 1 1 1 Via, and input to the output 1 1 2 such as a memory card.
  • the photometric evaluation unit 1 06 is connected to the aperture 1 0 1 and the CCD 1 0 2, and the in-focus detection unit 1 1 5 is connected to the AF motor 1 0 3.
  • the buffer 1 0 5 is connected to the information amount changing unit 1 0 7, the photometric evaluation unit 1 0 6, and the in-focus detection unit 1 1 5.
  • the shooting state determination unit 1 0 8 is connected to the information amount changing unit 1 0 7.
  • Control unit 1 1 3 is AZD 104, photometric evaluation unit 1 0 6, focus detection unit 1 1 5, Information amount change unit 1 0 7, Shooting condition determination unit 1 0 8, Signal processing unit 1 0 9, Tone conversion unit 1 1 0 and compression unit 1 1 Supervise.
  • an external I unit 1 1 4 equipped with a power switch (not shown), a shirt turbo button, and an interface for switching various modes during shooting is also connected to the control unit 1 1 3 in both directions.
  • Control unit 1 1 3 A / D 1 04, Metering evaluation unit 1 0 6, Focus detection unit 1 1 5, Information change unit 1 0 7, Shooting status determination unit 1 0 8, Signal processing unit 1 0 9,
  • Each processing performed by the gradation converting unit 110 and the compressing unit 11 1 1 is appropriately performed on the basis of a video signal processing program stored in a memory such as a ROM by the CPU installed in the imaging system 10. This is done while reading and writing the necessary data in the storage device.
  • Figure 1 illustrates the signal flow.
  • the user can shoot the shooting mode (ex. Auto shooting, landscape shooting, portrait shooting, close-up shooting, night view shooting, strobe flash shooting, etc.), ISO sensitivity, shutter speed, aperture, etc. via the external I ZF section 1 1 4
  • the set shooting conditions are stored in the control unit 1 1 3.
  • the control unit 1 1 3 transfers the set shooting conditions to the shooting status determination unit 1 0 8.
  • the imaging system 10 performs pre-photographing.
  • images shot through the lens system 100, aperture 1 0 1 and CCD 1 0 2 are quantized by the AZD 1 04 and converted into digital signals, which are converted into video signals.
  • Transfer to buffer 1 0 5 In this embodiment, it is quantized to 14 b i t by AZD 104.
  • the video signal in the buffer 1 0 5 is transferred to the information amount changing unit 1 0 7, the photometric evaluation unit 1 0 6 and the in-focus detection unit 1 1 5.
  • the metering evaluation unit 1 0 6 calculates the appropriate exposure taking into consideration the set ISO sensitivity, shutter speed at the limit of camera shake, etc., and the aperture 1 0 1 and CCD 1 Controls exposure conditions such as shutter speed of 02. Further, the photometric evaluation unit 106 calculates parameters for calculating AE information to be described later indicating the luminance distribution. In the present embodiment, as the parameters for calculating the AE information, average luminance levels al to a 13 when the image is divided into a plurality of regions are used.
  • FIG. 2 is an explanatory diagram of division patterns for evaluation photometry, and parameters for calculating AE information according to this embodiment will be described.
  • the image is divided into a plurality of regions (1 3 in the example of the present embodiment), the luminance level corresponding to each region is extracted from the video signal, and the luminance level in each region is extracted. Average luminance levels a i to a 13 are calculated.
  • the in-focus detection unit 1 15 detects the edge intensity in the video signal, and controls the AF motor 10 3 that drives the lens system 100 so that the edge intensity is maximized. Then, the position of the lens system 100 when the edge intensity is maximum is acquired as a focusing condition.
  • the information is input to the control unit 1 13 via the external I Z F unit 1 14, and the imaging system 10 performs actual imaging.
  • the video signal of the image shot in the main shooting is transferred to the buffer 105 as in the case of the pre-shooting.
  • the actual photographing is performed based on the exposure condition obtained by the photometry evaluation unit 10 06 and the focusing condition obtained by the in-focus detection unit 1 15, and the exposure condition and the focusing condition are controlled by the control unit 1 1 3 Forwarded to
  • the photometric evaluation unit 1 06 calculates the values of the above average luminance levels al to a 13 based on the video signal of the image taken in the actual photographing.
  • the video signal in the buffer 1 0 5 is transferred to the information amount changing unit 1 0 7.
  • the control unit 1 1 3 is the shooting condition, the average brightness level al to a 1 3 obtained by the photometric evaluation unit 1 0 6 and the exposure condition, and the in-focus condition obtained by the in-focus detection unit 1 1 5. Transfer to 1 0 8
  • the shooting status determination unit 10 8 determines the shooting status of the entire screen based on the transferred shooting conditions, average luminance levels al to a 13, exposure conditions, and focusing conditions. The determined shooting situation is transferred to the information amount changing unit 107.
  • the information amount change unit 10 7 sets the bit length of the entire screen of the video signal transferred from the buffer 1 0 5 using a bit shift or the like. change. For example, the bit length is changed from 1 4 b it force to 1 2 b i t. The video signal with the changed bit length is transferred to the signal processing unit 109. Based on the control of the control unit 1 1 3, the signal processing unit 1 0 9 performs color conversion processing, enhancement processing, and the like on the video signal, and transfers them to the gradation conversion unit 1 1 0.
  • the gradation conversion unit 1 1 0 changes the gradation conversion characteristics independently for each pixel or region by a method such as local histogram flattening. Perform the conversion process.
  • the tone conversion characteristic is calculated using the video signal after the information amount has been changed by the information amount changing unit 107, and the information amount has been changed by the information amount changing unit 107. Tone conversion processing is performed on the subsequent video signal.
  • gradation conversion characteristics is performed as described in Patent Document 2, for example.
  • a clip value that determines the degree of smoothing of the density histogram is determined according to the degree of variation of the density value.
  • the concentration histogram is clipped with the clip value, and a cumulative histogram is created from the concentration histogram after the clip.
  • using the accumulated histogram as a density conversion curve determine the correction coefficient for gradation conversion by applying it to each pixel or area of the input video signal. To calculate the characteristics of gradation conversion.
  • the video signal after the gradation conversion processing is transferred to the compression unit 1 1 1.
  • the compression unit 1 1 1 performs compression processing based on the control of the control unit 1 1 3 and transfers the processing result to the output unit 1 1 2.
  • the output unit 1 1 2 records and stores the video signal on a recording medium such as a memory card.
  • FIG. 3 is a block diagram showing an example of the configuration of the shooting situation determination unit 1 08.
  • the shooting condition determination unit 1 0 8 includes a shooting condition acquisition unit 2 0 0, an in-focus position estimation unit 2 0 1, an object distribution estimation unit 2 0 2, a night view estimation unit 2 0 3, and an overall estimation unit 2 0 4 Is provided.
  • the control unit 11 3 is bidirectionally connected to the imaging condition acquisition unit 20 0 0, the in-focus position estimation unit 2 0 1, the subject distribution estimation unit 2 0 2, and the night scene estimation unit 2 0 3.
  • the photographing condition acquisition unit 20 0, the in-focus position estimation unit 2 0 1, the subject distribution estimation unit 2 0 2, and the night scene estimation unit 2 0 3 are connected to the overall estimation unit 2 0 4.
  • the overall estimation unit 20 04 is connected to the information amount changing unit 10 07.
  • the shooting condition acquisition unit 2 0 0 is the shooting condition set in the external IZF unit 1 1 4, for example, the type of shooting mode (eg auto shooting, landscape shooting, portrait shooting, close-up shooting, night view shooting, flash shooting) Get the information indicating.
  • the acquisition result is transferred to the overall estimation unit 204.
  • the in-focus position estimation unit 20 0 1 acquires the in-focus condition set by the in-focus detection unit 1 1 5 from the control unit 1 1 3 and determines from the CCD 1 0 2 to the subject that is in focus.
  • the in-focus position indicating the position is calculated based on the in-focus condition.
  • AF information that classifies the calculated in-focus position is obtained. For example, AF information is obtained by classifying the in-focus position into 5 m to ⁇ (landscape shooting), lm to 5 m (portrait shooting), or less than 1 m (close-up shooting).
  • the classification result is transferred to the overall estimation unit 204.
  • the subject distribution estimator 2 0 2 calculates AE information in the photometric evaluator 1 0 6 Average brightness levels al to a 13 calculated as parameters are obtained. Then, based on the acquired average luminance levels al to a 13, AE information indicating the luminance distribution is calculated. There are various methods for calculating the AE information indicating the luminance distribution, but in this embodiment, the AE information is expressed by the evaluation parameters S 1 to S 3 shown in Equation (1), and the evaluation parameters S 1 to S AE information is calculated by calculating 3. The subject distribution estimator 2 0 2 transfers the calculated AE information to the overall estimator 2 0 4.
  • m a x () is a function that returns the maximum value.
  • Evaluation parameter S1 is the luminance difference between left and right in the center
  • S2 is the larger of the luminance difference between the upper center and upper left and right of the inner periphery
  • S3 is either the upper left or right of the outer periphery It means the difference between the larger one and the average brightness of the entire screen.
  • the AE information may be calculated based on an expression other than the expression (1) as long as it indicates a luminance distribution.
  • the parameters for calculating the AE information are not limited to the average luminance levels al to a 1 3 of the present embodiment, and the photometric evaluation unit 10 6 uses the average luminance levels al to a 1 3.
  • Other parameters may be calculated from the video signal. For example, instead of the average of the brightness levels, other values calculated based on a predetermined calculation formula may be used as parameters from the brightness level of each region into which the image is divided.c
  • the night view estimation unit 2 0 3 has a predetermined length. If the exposure is timed and the average brightness level of the entire screen is below a predetermined threshold, the captured image is estimated to be a night scene image.
  • the night view estimation unit 20 3 obtains the average luminance level al to a 13 obtained by the photometry evaluation unit 10 6 and the exposure conditions, and the image shot based on these is the night view image. presume.
  • the estimation result is It is transferred to the overall estimation unit 2 0 4.
  • the overall estimation unit 204 determines whether or not the shooting mode obtained by the shooting condition acquisition unit 20 0 is auto shooting.
  • Auto shooting is a shooting mode in which the user takes a picture without specifying the subject situation in particular, and the shooting system 10 is a mode in which the subject situation is automatically estimated and shot. .
  • the overall estimation unit 20 4 determines the shooting state by a different method depending on whether or not the shooting mode obtained by the shooting condition acquisition unit 200 is auto shooting. When it is determined that the shooting mode is other than auto shooting, the shooting status is determined based on the shooting mode obtained by the shooting condition acquisition unit 200. In other words, it is determined that the shooting mode set by the user is the shooting status. The determination result is transferred to the information amount changing unit 1 07.
  • the shooting mode includes settings such as landscape shooting, portrait shooting, close-up shooting, night view shooting, strobe flash shooting, etc. in addition to auto shooting.
  • Shooting modes are not limited to these.
  • the shooting mode of the shooting system 10 includes various combinations of ISO sensitivity, shutter speed, aperture, etc. that are considered suitable for shooting in various situations, taking into consideration the situation of the subject (shooting scene). Etc., or other shooting modes may be used as long as the processing content of the video signal is set.
  • Landscape shooting is a shooting mode intended for shooting landscapes.
  • the contrast between images is large, and the amount of halftone information is often reduced due to the gradation of dark areas with narrow gradation being spread by gradation conversion processing. Therefore, in the case of landscape photography, it is preferable that the bit length set by the information amount changing unit 107 is longer.
  • the information amount changing unit 10 07 maintains the same gradation of the video signal as 14 bits as when quantized by AZD 10 04.
  • Portrait shooting is a shooting mode intended for shooting people. In the case of portrait photography, the contrast in the image is not very large compared to the landscape, but the gradation of the face is important.
  • the information amount change unit 1 0 7 can display video in 1 2 bit, which is lower in gradation than landscape photography. Change the amount of signal information.
  • Close-up shooting is a shooting mode that is intended for shooting close-up subjects.
  • the information amount changing unit 1 07 changes the information amount of the video signal to 1 2 b i t.
  • Night scene shooting is a shooting mode intended for shooting in the dark.
  • the amount of halftone information often decreases because the gradation conversion process widens the dark gradation. Therefore, in the case of landscape photography, it is preferable that the bit length set by the information amount changing unit 107 is longer.
  • the information amount changing unit 1 07 maintains the same gradation of the video signal as 1 4 b i t as quantized by A Z D 1 0 4.
  • Strobe flash photography is a shooting mode that is intended to shoot with a flash.
  • flash photography it is considered that there are many dark areas, so the amount of halftone information is often reduced in order to expand the dark areas by gradation conversion processing. Therefore, in the case of flash photography, it is preferable that the bit length set by the information amount changing unit 107 is longer.
  • the information amount changing unit 10 7 maintains the same gradation of the video signal as 14 bits, which is the same as when quantized by A and D 104. To do.
  • the gradation of the video signal is changed to AZD 1 for landscape photography, night scene photography, and strobe flash photography.
  • the information amount changing unit 107 has a suitable information amount corresponding to each shooting mode.
  • the information amount changing unit 1 07 changes the information amount of the video signal to 12 bits for landscape photography, night scene photography, and strobe flash photography, and changes the information amount of the video signal to 10 bits for portrait photography. It may be changed.
  • the shooting mode obtained by the shooting condition acquisition unit 200 is auto shooting.
  • the overall estimation unit 2 0 4 has an in-focus position estimation unit 2 0 1, an object distribution estimation unit 2 0 2, and Based on the information from the night view estimation unit 20 3, the shooting situation is judged.
  • the overall estimation unit 2 0 4 determines that the shooting situation is night scene shooting, and the information is changed to the information amount change unit 1 0 Transfer to 7.
  • the overall estimation unit 2 0 4 uses the AF information from the in-focus position estimation unit 2 0 1 and the subject distribution.
  • the AE information (evaluation parameters S 1 to S 3) from the estimation unit 202 is used to determine the shooting situation.
  • FIG. 4 is an explanatory diagram showing the shooting status determined by the overall estimation unit 204 based on the result of the combination of AF information and AE information, and the bit length set by the information amount changing unit 107 It is.
  • the overall estimation unit 20 4 determines whether or not the evaluation parameter S 3 is greater than a predetermined threshold value Th 1, whether the evaluation parameter S 2 is greater than a predetermined threshold value Th 2, and an evaluation parameter.
  • the AE information is classified according to whether S 1 is greater than a predetermined threshold value Th 3.
  • the overall estimation unit 204 determines that the shooting situation is landscape shooting. Further, when the evaluation parameter S 3 is larger than the predetermined threshold value Th 1, the upper area of a 1 0 or a 1 1 shown in FIG. 2 is defined. Since it is higher than the average brightness of the entire surface, it is determined that the shooting state is landscape shooting with the sky at the top, and the information is transferred to the information amount changing unit 1 0 7. Since such a scene is considered to have a wide dynamic range, the information amount changing unit 107 is the same as when the amount of information of the video signal is quantized by A / D 10 04. To maintain.
  • the shooting situation is determined to be a landscape shot with no sky or low sky.
  • the information is transferred to the information amount changing unit 1 0 7.
  • the information amount changing unit 107 changes the information amount of the video signal to, for example, 1 2 bit.
  • the overall estimation unit 20 4 determines that the shooting state is person shooting. Further, when the evaluation parameter S 2 is larger than the predetermined threshold value Th 2, as shown in FIG. 2, there is a luminance difference between the upper center a 4 and the upper left and right a 6 and a 7, so that one person It is determined that the image is taken, and the information is transferred to the information amount changing unit 1 0 7.
  • the gradation level of the face is important, but the gradation level of the face is important. For example, change to 1 2 bits.
  • the information amount changer 1 0 7 sets the information amount of the video signal to, for example, 1 0 bit. Change to
  • the overall estimation unit 204 determines that the shooting state is close-up shooting. Further, the evaluation parameter S 1 is a predetermined value. If it is greater than the threshold value T h 3, there is a luminance difference between the left and right in the center, and it is determined that the image is a close-up shooting of a plurality of objects, and the information is transferred to the information amount changing unit 1 07. In the case of close-up photography of multiple objects, the difference in brightness between the multiple objects may be large, so the information amount changing unit 1 07 changes the information amount of the video signal to 12 bits, for example.
  • the gradation of the video signal is set to A / D 1 in landscape photography with the sky above.
  • the example of maintaining the same 14 bits as quantized at 0 4 has been explained, but the information amount changing unit 1 0 7 has an image so that it has a suitable information amount according to each shooting mode. The amount of signal information can be changed.
  • the information amount changing unit 1 0 7 changes the information amount of the video signal to 1 2 bits in landscape photography with the sky in the upper part, landscape photography with no sky (or less sky) in the upper part, Change the amount of video signal information to 1 O bit for portrait shooting and close-up shooting of multiple objects, and change the amount of video signal information to 8 bits for multiple-person shooting and close-up shooting of a single object You may make it do.
  • the bit length of the video signal is changed according to the shooting conditions, so even if the video signal has a large difference in brightness or there are many dark areas, the bit length is increased, so that gradation conversion processing is performed. Even after the image processing, halftone information is maintained to some extent, and high-quality video signals can be obtained. Also, for video signals with little difference in light and darkness and few dark areas, gradation conversion processing is applied. Therefore, the amount of halftone information does not decrease so much. By shortening the bit length, it is not necessary to use signal lines for unnecessary bits, and power consumption can be reduced.
  • the information amount changing unit 10 7 changes the information amount of the video signal obtained by shooting in a certain shooting situation according to the shooting situation, so that an information amount suitable for the shooting situation is obtained. A video signal having the same is generated. For this reason, it is possible to perform processing using a video signal suitable for each shooting situation.
  • the shooting situation is determined for each shot, and the information amount of the video signal obtained in one shot is changed according to the shooting situation. Therefore, it is not necessary to provide a special image sensor to increase the amount of video signal information by shooting multiple times or to obtain a video signal having different information amount according to the shooting situation.
  • the shooting situation is determined by the combination of the AF information and the AE information at the time of shooting.
  • the calculation is performed using preset calculation information using the in-focus position and the AE information as parameters, and the shooting situation is determined using the calculation result. It is also possible.
  • the imaging system 10 as a computer acquires the signal of an image captured by an external CCD or other imaging means as raw data, and information at the time of imaging (imaging conditions) ) As header information, and the above-mentioned photometric evaluation unit 1 0 6, in-focus detection unit 1 1 5, information amount change unit 1 0 7, shooting status determination unit 1 0 8, signal processing unit 1 0 9, Performs processing by gradation converter 1 1 0, compression unit 1 1 1 and control unit 1 1 3 Configuration is also possible.
  • FIG. 5 is a flowchart regarding processing performed in the imaging system 10 in the first exemplary embodiment of the present invention.
  • step S1 load the image signal.
  • step S2 the shooting situation determination unit 1 0 8 acquires the shooting situation.
  • step S3 the information amount changing unit 107 changes the bit length of the video signal.
  • step S4 the signal processor 1 0 9 performs predetermined signal processing.
  • step S5 gradation conversion processing is performed by the gradation conversion unit 110.
  • step S6 it is determined whether all the pixels have been processed by the control unit 1 1 3 or not. If this determination result is NO, the process returns to step S4 and unprocessed.
  • the loop process of steps S4 to S6 is repeated for the pixels, and when all the pixels are processed and the determination result is YES, the process ends.
  • FIG. 6 is a block diagram of the second embodiment
  • FIGS. 7 and 8 are block diagrams of a photographing state determination unit
  • FIG. 9 is a block diagram of an information amount changing unit
  • FIG. 10 is an imaging system of the second embodiment. It is a flowchart showing the processing procedure by.
  • FIG. 6 is a configuration diagram of the second embodiment, showing the configuration of the imaging system 20 of the present invention.
  • the same name and code are assigned to the same components as those in the first embodiment.
  • differences from the first embodiment will be mainly described.
  • An image photographed through the lens system 100, the aperture 10 1, and the CCD 10 2 is converted into a digital signal by the AZD 104.
  • the video signal converted into a digital signal from AZD 104 is converted into a buffer 1 0 5, an information amount change unit 1 0 0 7, a signal processing unit 1 0 9, a gradation conversion unit 1 1 0 and a compression unit 1 1 1 Via, it is input to the output section 1 1 2 of the memory card.
  • Buffer 1 0 5 is a photometric evaluation unit 1 0 6, in-focus detection unit 1 1 5, information The quantity changing unit 1 0 0 7 and the thinning-out unit 5 0 0 are connected. Thinning part
  • Control unit 1 0 1 3 is a photometric evaluation unit 1 0
  • Each processing performed by CPU mounted on imaging system 20 is R Based on the video signal processing program stored in the memory such as OM, it is performed while reading and writing necessary data to the storage device such as RAM as appropriate.
  • Figure 6 illustrates the signal flow.
  • the user When the user fully presses the shutter button via the external I / F unit 1 1 4, actual shooting is performed, and the video signal is transferred to the buffer 1 0 5.
  • the video signal in the buffer 105 is transferred to the thinning unit 500.
  • the video signal In the thinning unit 5 0 0, the video signal is thinned out at a predetermined interval and transferred to the interpolation unit 5 0 1.
  • the thinning unit 500 0 performs thinning using 2 ⁇ 2 pixels as a basic block unit. For example, in the present embodiment, it is assumed that only 2 ⁇ 2 pixels at the upper left are read for 16 ⁇ 16 pixels. As a result, the video signal is reduced to a size of (1 Z8) X (1/8). As a result, the imaging system 20 handles the captured image by dividing it into a plurality of areas each consisting of 16 ⁇ 16 pixels.
  • Interpolation unit 5 0 1 is thinned out by the above thinning unit 5 0 0
  • the RGB three-plate video signal is generated by the linear interpolation processing for the received video signal, and this is transferred to the shooting situation determination unit 1 0 0 8.
  • the shooting status determination unit 1 0 0 8 calculates information such as skin color, dark part, and frequency component from the three-plate signal from the interpolation unit 5 0 1. After that, the video signal thinned out based on the above information is labeled, and the label information is transferred to the information amount changing unit 1 0 0 7.
  • the video signal is reduced to a size of (1 Z8) X (1/8) by the thinning-out part 5 0 0, it is 8 X 8 block units, that is, 1 6 X 1 with respect to the original video signal. Labeling is performed for each area of 6 pixels.
  • the information amount changing unit 1 0 0 7 independently sets the bit length for each area of the video signal transferred from the buffer 1 0 5 based on the information labeled from the shooting state determination unit 1 0 0 8. Change to The video signal in which the bit length of each area is changed is transferred to the signal processing unit 109.
  • the signal processing unit 1 0 9 performs known color conversion processing, enhancement processing, and the like based on the control of the control unit 1 0 1 3 and transfers them to the gradation conversion unit 1 1 0.
  • the gray level conversion unit 110 converts the gray level for each pixel or each region by a method such as local histogram flattening as in the first embodiment. Tone conversion processing is performed by changing the characteristics independently. Also in this embodiment, tone conversion characteristics are calculated using the video signal after the information amount has been changed by the information amount changing unit 1 0 0 7, and the information amount is changed by the information amount changing unit 1 0 0 7. The tone conversion process is performed on the video signal after the image. The video signal after the gradation conversion process is transferred to the compression unit 1 1 1.
  • the compression unit 1 1 1 performs a compression process or the like based on the control of the control unit 1 0 1 3 and transfers it to the output unit 1 1 2.
  • the output unit 1 1 2 records and saves video signals on a recording medium such as a memory card.
  • FIG. 7 is a configuration diagram showing an example of the configuration of the shooting situation determination unit 1 0 0 8.
  • the shooting status determination unit 1 0 0 8 includes a specific color detection unit 3 0 0 and a dark part detection unit 3 0 1 And an area estimation unit 3 0 2.
  • the catching section 5 0 1 is connected to the specific color detection section 3 0 0 and the dark section detection section 3 0 1.
  • the specific color detection section 3 0 0 and the dark section detection section 3 0 1 are connected to the area estimation section 3 0 2. It is connected to the.
  • the area estimation unit 3 0 2 is connected to the information amount changing unit 1 0 0 7.
  • the control unit 1 0 13 is connected bidirectionally to the specific color detection unit 3 0 0, the dark part detection unit 3 0 1, and the region estimation unit 3 0 2.
  • the specific color detection unit 30 0 reads out the RGB three-plate video signal from the interpolation unit 5 0 1, and uses this as a predetermined color space, for example, C b and C in the YC b C r space as shown in Equation (2). r Convert to signal.
  • R, G, and B represent the R video signal, G video signal, and B video signal, respectively.
  • the calculated color difference signals C b and C r are averaged by a basic block of 2 ⁇ 2 pixels.
  • the color difference signals Cb and Cr in the basic block only a specific color region is extracted by a predetermined threshold process.
  • the specific color indicates skin color, sky blue, green, and the like.
  • the extracted results are labeled with a block unit of 2 ⁇ 2 pixels with respect to the thinned three-plate video signal and transferred to the region estimation unit 302. For example, 1 is assigned to the skin color area, 2 to the sky blue area, 3 to the green area, and 0 to the other areas.
  • the dark part detection unit 30 1 is assigned to the skin color area, 2 to the sky blue area, 3 to the green area, and 0 to the other areas.
  • the luminance signal Y calculated by equation (3) is averaged with a basic block of 2 X 2 pixels.
  • the luminance signal Y in the basic block is A small area is extracted as the buttocks area.
  • the thinned three-plate video signal is labeled in block units of 2 ⁇ 2 pixels and transferred to the region estimation unit 30 2. For example, the label is assigned 4 for dark areas and 0 for other areas.
  • the region estimation unit 30 2 gives label information based on information from the specific color detection unit 30 0 0 and the dark portion detection unit 3 0 1.
  • Label information is, for example, 1 for the skin color area, 2 for the sky blue area, 3 for the green area, 4 for the dark area, 5 for the skin color area and the heel area, 6 for the sky color area and the dark area, and 6 for the green area and the dark area. 7. 0 is assigned to other areas. These pieces of label information are transferred to the information amount changing unit 1007.
  • the color information and the luminance information are obtained from the video signal, and the shooting situation is determined using the color information and the luminance information.
  • the method for determining the shooting situation is not necessarily limited to this.
  • the shooting information may be determined using only color information or luminance information. It is also possible to determine the shooting situation by obtaining information other than color information and luminance information from the video signal. For example, as shown in FIG. 8, it is also possible to obtain frequency information from a video signal and determine the shooting situation using the frequency information.
  • FIG. 8 is a configuration diagram showing another example of the configuration of the shooting situation determination unit 1 0 0 8.
  • the photographing situation determination unit 10 08 includes a frequency calculation unit 30 03 and an area estimation unit 30 04.
  • the interpolation unit 5 0 1 is connected to the frequency calculation unit 30 3.
  • the frequency calculation unit 30 03 is connected to the region estimation unit 30 04, and the region estimation unit 30 04 is connected to the information amount changing unit 10 07.
  • the control unit 10 13 is bi-directionally connected to the wave number calculation unit 30 3 and the information amount changing unit 1 0 0 7.
  • the frequency calculation unit 303 reads the RGB three-plate video signal from the interpolation unit 51 in a predetermined block size, for example, a block of 8 ⁇ 8 pixels.
  • the imaging system 2 0 converts the captured image to the original image. Handle it by dividing it into multiple areas of 6 4 X 6 4 pixels in the image.
  • the read 8 x 8 pixel unit block is converted into frequency components by DCT (Discrete Cosine Transform).
  • the amount of the high frequency component of each block is obtained from the above frequency component, and transferred to the region estimation unit 30 4 in units of blocks.
  • the region estimation unit 304 gives a label proportional to the amount of high-frequency components to each region corresponding to each block, and transfers the label to the information amount changing unit 1007. In this way, the region estimation unit 304 determines the shooting situation of each region based on the amount of the high-frequency component for each region, and performs labeling.
  • the conversion to the frequency component is not limited to DCT, and any conversion such as Fou r i e r conversion or W a v e 1 e t conversion can be used.
  • each area is a skin color area, a sky blue area, a green area, a dark area, a skin color area and a dark area .
  • the sky blue area and the dark area, the green area and the dark area, or the other area, or the amount of the high frequency component in each area is obtained and labeled in each area.
  • the shooting situation is judged for each area.
  • FIG. 9 is a configuration diagram showing an example of the configuration of the information amount changing unit 1 0 0 7.
  • the information amount changing unit 10 0 7 includes an area dividing unit 4 0 0, a buffer A 4 0 1, a bit length changing unit 4 0 2, and a nother B 4 0 3 force.
  • the noferer 10 5 and the photographing state determination unit 1 0 0 8 are connected to the area dividing unit 4 0 0, and the area dividing unit 4 0 0 is connected to the buffer A 4 0 1.
  • the notafer A 4 0 1 is connected to the bit length change unit 4 0 2, and the bit length change unit 4 0 2 is connected to the buffer B 4 0 3.
  • the noffer B 4 0 3 is connected to the signal processing unit 1 0 9.
  • the control unit 1 0 1 3 is bidirectionally connected to the area dividing unit 4 0 0 and the bit length changing unit 4 0 2.
  • the area division unit 400 divides the video signal in the buffer 105 into each area based on the label information transferred from the shooting situation determination unit 10 08.
  • the divided video signal is transferred to the buffer A 4 0 1.
  • the bit length changing unit 402 changes the information amount of the video signal of each divided area by changing the bit length by bit shift or the like for each area.
  • the gradation of the dark area may be widened by the gradation conversion process, so a longer bit length is preferable.
  • the information amount changing unit 1 0 0 7 quantizes the gradation of the video signal with AZD 1 0 4. Maintain the same 14 bits as when converted. Since the area labeled as the sky blue area is a bright area, the information amount changing unit 1 0 07 uses the information amount of the video signal corresponding to the area labeled as the sky blue area, for example, Change to 1 O bit.
  • the information amount changing unit 1 0 0 7 changes the information amount of the video signal corresponding to the region labeled as the region that is neither the dark region nor the sky blue region to 1 2 bit in consideration of versatility.
  • the information amount changing unit 1 0 0 7 changes the gradation of the video signal to A / D 1 0 4 Maintains the same 14 bits as when quantized at.
  • the information amount changing unit 1 0 0 7 changes the information amount of the video signal corresponding to the region labeled as a region labeled when there are few high-frequency components to 1 2 bits in consideration of versatility. To do.
  • the video signal whose bit length has been changed for each area is transferred to buffer B 4 0 3 and transferred from buffer B 4 0 3 to the signal processor. 1 0 9.
  • the bit length of the video signal corresponding to each area is changed according to the shooting situation with the above configuration, the bit length is large even in an area where there is a significant difference in lightness or dark areas. By making the length longer, halftone information is maintained to some extent even after gradation conversion processing, and a high-quality video signal can be obtained. Also, for video signal areas where there is not much difference between light and dark and there are few dark areas, the amount of halftone information is not reduced by the gradation conversion process, so it is unnecessary by shortening the bit length. It is not necessary to use signal lines for a large number of bits, and power consumption can be reduced.
  • the imaging system 20 including imaging means such as the lens system 100, the aperture 100, and the CCD 100. It is not necessary to be limited to such a configuration.
  • the imaging system 20 as a computer acquires the video signal of an image captured by an external imaging means such as a CCD as raw data, and the information amount changing unit 1 described above. It is also possible to adopt a configuration in which processing is performed by 0 7, shooting state determination unit 1 0 0 8, signal processing unit 1 0 9, tone conversion unit 1 1 0, compression unit 1 1 1, and control unit 1 0 1 3
  • FIG. 10 shows a flowchart relating to processing performed in the photographing system 20 according to the second embodiment of the present invention.
  • step S1 load the video signal of the image.
  • step S 2 the shooting status is acquired by the shooting status determination unit 1 0 0 8.
  • step S10 the information amount changing unit 1 0 0 7 divides the video signal area, and in step S3, the information amount changing unit 1 0 0 7 corresponds to each area. Change the signal bit length according to the shooting conditions in each area.
  • predetermined signal processing is performed by the signal processing unit 1009.
  • step S5 gradation conversion processing is performed by the gradation conversion unit 110.
  • step S 1 it is determined whether or not processing has been performed for all areas by the control unit 1 0 1 3. If this determination result is NO, step S 1 Return to the process of 0 and repeat the loop process of step S1 0, steps S3 to S5, step 1 1. If all pixels are processed, and the determination result is YES, the process is terminated.
  • FIG. 11 is a block diagram of the third embodiment
  • FIG. 12 is a block diagram of the imaging state acquisition unit
  • FIG. 13 is an explanatory diagram for explaining a method for calculating the resolution.
  • the same names and symbols are assigned to the same configurations as those of the first embodiment shown in FIG. 1 and the second embodiment shown in FIG. 6.
  • differences from the first embodiment and the second embodiment will be mainly described.
  • An image shot through the lens system 100, aperture 1, 101 and CCD 10 2 is converted into a digital signal by AZD 104.
  • the signal from AZD 104 is connected to output unit 1 1 2 such as memory card via buffer 1 0 5, signal processing unit 1 0 9, gradation conversion unit 20 1 0, compression unit 1 1 1 ing.
  • the photometric evaluation unit 1 0 6 is connected to the aperture 1 0 1 and C C D 1 0 2.
  • the in-focus detection unit 1 1 5 is connected to the AF motor 1 0 3.
  • the buffer 105 is connected to the photometric evaluation unit 106.
  • the photographing state determination unit 2 0 0 8 is connected to the information amount changing unit 2007 a.
  • the resolution changing unit 2007 a is connected to the correction coefficient calculating unit 20 07 b, and the correction coefficient calculating unit 200 07 b is connected to the correction coefficient correcting unit 2007 c.
  • the correction coefficient correction unit 2007 c is connected to the gradation conversion unit 20 10.
  • the control unit 20 1 3 includes an AZD 104, a photometric evaluation unit 10 06, an in-focus detection unit 1 15, a signal processing unit 10 09, and an information amount changing unit 2 0 0 7 a, which performs resolution change of the present invention.
  • Correction coefficient calculation unit 2 0 0 7 b, correction coefficient correction unit 2 007 c, shooting condition determination unit 2 008, tone conversion unit 1 1 0, compression unit 1 1 1 and output unit 1 1 2 It supervises the processing of each part. In addition, it has an external power switch, shutter button, and interface for switching various modes during shooting. Part I ZF part 1 1 4 is also connected bidirectionally to control part 2 0 1 3.
  • the CPU installed in 0 is performed while reading and writing the necessary data in the storage device such as RAM as appropriate.
  • the signal flow is explained in Fig. 11.
  • Shooting conditions such as ISO sensitivity, shutter speed, aperture, etc., by the user via the external I ZF section 1 1 4 shooting mode (eg auto shooting, landscape shooting, portrait shooting, close-up shooting, night scene shooting, flash photography)
  • the set shooting conditions are
  • the control unit 2 0 1 3 transfers the set shooting conditions to the shooting status determination unit 2 0 0 8. Thereafter, when the user presses the shutter button halfway, the photographing system 30 performs pre-photographing. When pre-photographing is performed, the video signal captured via the lens system 100, aperture 1, and CCD 1002 is quantized by the A / D 1004 and buffered as a video signal. 1 0 is transferred to 5. The video signal in the notifier 1 0 5 is transferred to the photometric evaluation unit 1 0 6.
  • the photometric evaluation unit 10 6 controls the electronic shutter speed of the aperture 1 0 1 and the CCD 1 0 2 and calculates parameters for calculating AE information.
  • the in-focus detection unit 1 15 controls the AF motor 10 0 3 that drives the lens system 100 and uses the position of the lens system 100 as a focusing condition. get.
  • the information is input to the control unit 2 0 1 3 via the external I ZF unit 1 1 4 and the imaging system
  • 3 0 performs the actual shooting. Pre-shooting video signals of images shot during actual shooting In the same manner as above, it is transferred to the buffer 1 0 5. The actual photographing is performed based on the exposure condition obtained by the photometry evaluation unit 10 6 and the focusing condition obtained by the in-focus detection unit 1 15. The exposure condition and the focusing condition are controlled by the control unit 20. 1 Transferred to 3.
  • the photometric evaluation unit 106 calculates the values of the average luminance levels a 1 to a 13 based on the video signal of the image taken in the main shooting, as in the first embodiment.
  • the control unit 2 0 1 3 determines the shooting conditions based on the shooting conditions, the average luminance levels al to a 1 3 obtained by the photometric evaluation unit 1 0 6 and the exposure conditions and the focusing conditions obtained by the in-focus detection unit 1 1 5. Transfer to part 2 0 0 8.
  • the video signal in the buffer 1 0 5 is transferred to the signal processing unit 1 0 9.
  • the signal processing unit 1 0 9 Based on the control of the control unit 2 0 1 3, the signal processing unit 1 0 9 performs color conversion processing, enhancement processing, etc. on the video signal, and converts the obtained video signal into an information amount changing unit 2 0 0 7 a, Transfer to the shooting status acquisition unit 2 0 0 8 and the gradation conversion unit 2 0 1 0.
  • the shooting status determination unit 2 0 8 determines the shooting status based on the transferred shooting conditions, average luminance levels al to a 1 3, exposure conditions, and focusing conditions.
  • the determined shooting situation is transferred to the information amount changing unit 2 0 0 7 a.
  • the information amount changing unit 2 0 0 7 a changes the resolution of the video signal transferred from the buffer 1 0 5 based on the shooting status from the shooting status determination unit 2 0 0 8.
  • the video signal whose resolution has been changed is transferred to the correction coefficient calculator 2 0 0 7 b.
  • the resolution can be changed by various known methods. For example, the resolution is changed as follows. When changing the resolution to 1, the video signal is divided into multiple blocks consisting of n x n pixels.
  • a pixel value representing each block is calculated by applying an n ⁇ n mouth-pass filter to the video signal of each block composed of n ⁇ n pixels.
  • the video signal is converted into a 1 n resolution video signal represented by the calculated pixel value.
  • the resolution can be changed by the bilinear method or the bicubic method. Pixel The resolution can also be changed by thinning out.
  • the correction coefficient calculator 2 0 0 7 b calculates tone conversion characteristics using the video signal after the information amount has been changed by the information amount change unit 2 0 0 7 a.
  • the gradation conversion characteristics are calculated by the same method as that in the first embodiment, and the correction coefficient for performing gradation conversion by acting on each pixel of the video signal whose resolution has been changed is the first one. Calculated as a correction factor.
  • the calculated first correction coefficient is transferred to the correction coefficient correction unit 2 0 0 7 c.
  • the first correction coefficient calculated here is a correction coefficient corresponding to the video signal whose resolution has been changed by the information amount changing unit 2 0 0 7 a. Therefore, the correction coefficient correction unit 2 0 0 7 c is the original video signal output from the signal processing unit 1 0 9 (the video signal before the resolution is changed by the information amount changing unit 2 0 0 7 a) The first correction coefficient is expanded (enlarged) to correspond to the resolution. The second correction coefficient obtained by interpolation (enlargement) with respect to the first correction coefficient is transferred to the gradation conversion unit 2 0 10.
  • the gradation converter 2 0 1 0 performs gradation conversion processing on the original video signal output from the signal processor 1 0 9 using the transferred second correction coefficient.
  • the video signal after gradation conversion processing is transferred to the compression unit 1 1 1.
  • the compression unit 1 1 1 performs a known compression process based on the control of the control unit 2 0 1 3 and transfers it to the output unit 1 1 2.
  • the output unit 1 1 2 records and saves the video signal to a memory card.
  • FIG. 12 (a) is a configuration diagram showing an example of the configuration of the shooting situation determination unit 2 0 8.
  • the shooting situation determination unit 2 0 0 8 includes a shooting condition acquisition unit 2 0 0, an in-focus position estimation unit 2 0 1, a subject distribution estimation unit 2 0 2, and an overall estimation unit 2 0 5.
  • the signal processing unit 1 0 9 is connected to the subject distribution estimation unit 2 0 2.
  • the control unit 2 0 1 3 is bidirectionally connected to the imaging condition acquisition unit 2 0 0, in-focus position estimation unit 2 0 1, subject distribution estimation unit 2 0 2, and overall estimation unit 2 0 5, Condition acquisition unit 2 0 0, in-focus position estimation unit 2 0 1 and
  • the subject distribution estimator 2 0 2 is connected to the overall estimator 2 0 5.
  • the overall estimation unit 2 0 5 is connected to the resolution changing unit 2 0 0 7 a.
  • the shooting condition acquisition unit 2 0 0 is the shooting condition set by the external IZF unit 1 1 4, such as the type of shooting mode (for example, auto shooting, landscape shooting, portrait shooting, close-up shooting, night scene shooting, strobe flash shooting) Get information indicating The acquisition result is transferred to the overall estimation unit 205.
  • the type of shooting mode for example, auto shooting, landscape shooting, portrait shooting, close-up shooting, night scene shooting, strobe flash shooting
  • the in-focus position estimation unit 2 0 1 acquires the in-focus condition set by the in-focus detection unit 1 1 5 from the control unit 2 0 1 3, and obtains the focus from the CCD 1 0 2 to the subject that is in focus.
  • the in-focus position indicating the position is calculated based on the in-focus condition.
  • the AF information that classifies the calculated in-focus position is obtained. For example, if the in-focus position is 5 m to ⁇ (landscape shooting), In! Obtain AF information that is categorized as ⁇ 5 m (portrait), 1 m or less (close-up).
  • the classification result is transferred to the overall estimation unit 204.
  • the subject distribution estimation unit 20 2 acquires the average luminance levels a 1 to a 13 calculated as parameters for calculating the AE information by the photometry evaluation unit 10 6, and is the same as in the first embodiment. Next, AE information indicating the luminance distribution is calculated. The subject distribution estimation unit 2 0 2 transfers the calculated AE information to the overall estimation unit 2 0 5.
  • the overall estimation unit 205 determines whether or not the shooting mode obtained by the shooting condition acquisition unit 20 0 is auto shooting.
  • the overall estimation unit 205 determines the shooting state by a different method depending on whether or not the shooting mode obtained by the shooting condition acquisition unit 200 is auto shooting.
  • the overall estimation unit 205 determines the shooting status based on the information obtained by the shooting condition acquisition unit 200. That is, it is determined that the shooting mode set by the user is the shooting status. The determination result is transferred to the information amount changing unit 2 0 0 7 a. Note that in the imaging system 30 of the present embodiment, the first As in the case of the embodiment, in addition to auto shooting, there are settings for landscape shooting, portrait shooting, close-up shooting, night scene shooting, flash firing shooting, etc., but the shooting mode is limited to these. is not.
  • the information amount changing unit 2 0 0 7 a changes the resolution of the video signal to a resolution that is considered to be optimal according to the type of the shooting mode in consideration of a balance between processing time and high image quality. This changes the amount of information in the video signal.
  • An example is given below.
  • the information amount changer 2 0 0 7 a should not change the resolution much compared to the original video signal. For example, change the image size to about 14.
  • the depiction of a person's face is important.
  • the information amount changing unit 2 0 0 7 a changes the image size to, for example, about 1 Z 10.
  • the information amount changing unit 2 0 0 7 a changes the image size to about 1/4, for example.
  • the resolution so much that you want to maintain a large amount of information.
  • change the image size to about 1 to 4.
  • the shooting mode obtained by the shooting condition acquisition unit 200 is auto shooting.
  • the overall estimation unit 205 determines that the shooting mode obtained by the shooting condition acquisition unit 20 0 is auto shooting
  • the AF information from the in-focus position estimation unit 2 0 1 and subject distribution estimation Based on the AE information from unit 202, the shooting status is determined.
  • the overall estimation unit 205 determines, using the same method as in the first embodiment, that the shooting situation is one person shooting, multiple person shooting, and the like.
  • the information amount changing unit 2 0 0 7 a changes the resolution of the video signal to a resolution that is considered optimal in accordance with the shooting situation in consideration of the balance between processing time and high image quality.
  • An example is given below.
  • the information amount changing unit 2 0 0 7 a Change to about ⁇ ⁇ ⁇ ⁇ .
  • the information amount changing unit 2 0 0 7 a changes the image size to, for example, about 1 Z 4.
  • the information amount changing unit 2 0 0 7 a changes the image size to, for example, about 14 in consideration of versatility.
  • the combination of AF information and AE information obtained from the video signal is used to determine the shooting situation, but it is not necessary to be limited to this. For example, it is possible to perform a calculation using preset calculation information using the in-focus position and AE information as parameters, and use the calculation result to determine the shooting situation. It is also possible to determine the shooting situation by obtaining information other than color information and luminance information from the video signal. For example, frequency information may be used as shown in the configuration diagram of FIG. 12 (b).
  • FIG. 1 2 (b) shows another example of the configuration of the photographing situation determination unit 20 08 and includes a frequency calculation unit 303.
  • the signal processor 1 0 9 is connected to the frequency calculator 3 0 3.
  • the control unit 2 0 1 3 is bidirectionally connected to the frequency calculation unit 3 0 3, and the frequency calculation unit 3 0 3 is connected to the information amount change unit 2 0 0 7 a.
  • the frequency calculation unit 303 reads the video signal from the signal processing unit 109 in a predetermined area (block) size, for example, 8 ⁇ 8 pixel unit, and reads the read block as in the second embodiment. Is converted to a frequency component.
  • the frequency calculating unit 30 03 transfers the converted frequency component to the information amount changing unit 2 0 0 7 a.
  • the frequency calculation unit 303 determines the shooting situation of each block by the frequency component by obtaining the frequency component for each block in this way.
  • the information amount changing unit 2 0 0 7 a changes the data amount of the video signal by changing the resolution of the video signal according to a predetermined rule.
  • Figure 1 3 shows the information
  • FIG. 11 is an explanatory diagram for defining rules for changing the resolution of a video signal in the amount change unit 2 0 0 7 a.
  • the horizontal axis in Figure 13 is the frequency component, and the vertical axis is the resolution after the change. If the maximum value of the frequency component of the image is fm as shown in Fig. 13, the image resolution (reduction ratio) is set according to this value. In this case, the image reduction ratio R is set as shown in equation (4).
  • f N represents the Nyquist frequency of the image.
  • frequencies f and m in a certain area may be used as shown in Fig. 13. Note that the conversion to the frequency component does not need to be limited to DCT, and any conversion such as a known Fou ri e r conversion or a W a v e 1 e t conversion can be used.
  • Processing performed in the imaging system 30 according to the third embodiment of the present invention is performed according to the following procedure.
  • the video signal of the image is read.
  • the shooting situation determination unit 2 0 0 8 acquires the shooting situation.
  • the signal processor 1 0 9 performs predetermined signal processing.
  • the information amount changing unit 2 0 0 7 a changes the resolution of the video signal.
  • gradation conversion processing is performed on all pixels or all regions by the gradation conversion unit 2 0 10.
  • the information amount changing unit 1 07, the information amount changing unit 1 0 0 7, and the information amount changing unit 2 0 0 7 An example in which the judgment process by a is always performed is shown. However, depending on the shooting situation, as described in (a), (b), and (c) below, the information amount changing unit 1 07, the information amount changing unit 1 0 0 7, and the information amount changing unit 2 Instead of performing the judgment process based on 0 0 7 a, the process by the gradation conversion unit 1 1 0 and the gradation conversion unit 2 0 1 0 is performed according to a predetermined gradation conversion characteristic. You can also Or, depending on the instructions from the user,
  • the information amount changing unit 1 07, the information amount changing unit 1 0 0 7, and the information amount changing unit 2 0 0 7 may be performed. This makes it possible to obtain a high-quality video signal without changing the amount of information and to improve the processing speed in a predetermined shooting situation or depending on a user instruction.
  • the control unit 1 1 3 receives the determination result of the shooting state determination unit 1 0 8 and determines whether or not the shooting state is a predetermined shooting state. When the control unit 1 1 3 determines that the shooting state is a predetermined shooting state, the control unit 1 1 3 does not perform processing by the information amount changing unit 1 0 7 on the video signal from the buffer 1 0 5, The video signal from the buffer 1 0 5 is controlled to be input to the signal processing unit 1 0 9.
  • the control unit 1 0 1 3 receives the determination result of the shooting situation determination unit 1 0 8 and determines whether or not the shooting situation is a predetermined shooting situation. Then, the control unit 1 0 1 3 does not perform processing by the information amount changing unit 1 0 0 7 on the video signal from the buffer 1 0 5 when it is determined that the shooting state is a predetermined shooting state. Thus, control is performed so that the video signal from the buffer 1 0 5 is input to the signal processing unit 1 0 9.
  • the control unit 2 0 1 3 receives the determination result of the shooting situation determination unit 2 0 8 and determines whether or not the shooting situation is a predetermined shooting situation.
  • the control unit 2 0 1 3 determines that the shooting state is a predetermined shooting state
  • the information amount changing unit 2 0 0 7 a, the correction coefficient calculating unit 2 0 0 7 b, and the correction coefficient correcting unit 2 0 0 7 Control to perform gradation conversion on the video signal from the signal processing unit 1 0 9 using the gradation conversion characteristic determined in advance without using the processing by c. To do.
  • control unit 1 1 3, the control unit 1 01 3, and the control unit 20 1 3 receive an instruction from the user via the external I ZF unit 1 14 before the main photographing. If the user receives an instruction not to change the information amount, the processing by the shooting status determination unit 108, 1008, 2008, the information amount change unit
  • control is performed by the control unit 1 1 3 and the control unit 1013 so that the video signal from the buffer 105 is input to the signal processing unit 109.
  • the control unit 20 so that the gradation conversion unit 20 10 performs gradation conversion on the video signal from the signal processing unit 110 using a predetermined gradation conversion characteristic.
  • the bit length or resolution of the video signal is changed according to the shooting situation by the above configuration, and the bit length Or, since the tone conversion processing is performed according to the tone conversion characteristics obtained using the video signal with the changed resolution, a high-quality image corresponding to the shooting situation can be processed at an appropriate processing speed according to the shooting situation. Can be performed.
  • the present invention it is possible to provide a shooting system and a video signal processing program capable of efficiently generating a high-quality video signal according to a shooting situation.

Abstract

本発明の撮影システムは、撮影手段(レンズ系100、絞り101、CCD102)で撮影された画像の映像信号に対して、撮影状況を考慮した階調変換処理を行う。第1の実施形態においては、前記画像の撮影状況を判定する撮影状況判定部(108)と、該撮影状況判定部(108)で判定された撮影状況に応じて、前記映像信号の情報量を変更する情報量変更部(107)と、該情報量変更部(107)によって情報量が変更された映像信号を用いて得られる階調変換特性に応じて階調変換処理を行う階調変換部(110)とを有する。

Description

明 細 書
撮影システム、 および映像信号処理プログラム 技 術 分 野
本発明は、 映像信号に対して階調変換処理を行う撮像システム、 お よび映像信号処理プログラムに係わり、 特に撮影状況を考慮して高品 位な映像信号を生成可能な撮影システム、 および映像信号処理プログ ラムに関するものである。
背 景 技 術
現在のデジタルスチルカメラゃビデオ力メラなどでは、 デジタル信号 処理の桁落ちによる画質劣化を防止するため、 最終的な出力信号の階 調幅 (通常 8 b i t ) に対して入力および処理系における信号の階調 幅 ( 1 0〜 1 4 b i t程度) をより広く設定している。 この場合、 出 力系の階調幅に合致するよう階調変換を行う必要がある。 従来は、 標 準的なシーンに対する固定的な階調特性により変換されていた。 また、 撮影シーンに対応する階調特性を求め、 適応的に変換する手法も提案 されている。
例えば、 特開 2 0 0 3— 6 9 8 2 1号公報には、 撮影状況を推定す ることで主要被写体を重視した階調変換を行う例が開示されている。 上記例では、 得られた階調特性に一定の制限を課すことにより、 ノィ ズなどの副作用を抑制する例も併せて開示されている。 一方、 映像信 号を領域ごとに独立に階調変換する手法も提案されている。 例えば、 特許 3 4 6 5 2 2 6号公報には、 テクスチャ情報に基づき映像信号を 領域に分割し、 各領域に対して適応的に階調変換を行う例が開示され ている。
従来の固定的な階調特性による階調変換では、 逆光などの標準的で ない状況では適切な映像信号が得られないという課題があった。 また、 特開 2 0 0 3— 6 9 8 2 1号公報に示される方法では、 一枚の映像信 号に対して 1つの階調特性により階調変換を行うため、 明暗差の大き いシーンでは十分な改善効果が得られないという課題があった。 さら に、 特許 3 4 6 5 2 2 6号公報に示される方法では、 領域ごとに独立 した階調特性により階調変換を行うため明暗比の大きいシーンでも十 分な改善効果が得られるが、 暗部の階調が広がることにより、 中間調 の情報量が少なくなり、 見た目に不自然な映像となる場合があるとい う課題があった。 本発明は、 上記問題に鑑みてなされたものであり、 映像信号に対す る階調変換処理を行う撮影システムにおいて、 撮影状況に応じて、 高 品位な映像信号を効率的に生成することのできる撮影システム、 およ ぴ映像信号処理プログラムを提供することを目的とする。 発 明 の 開 示
( 1 ) . 上記目的を達成するために、 本発明の撮影システムは、 撮 影手段で撮影された画像の映像信号に対して階調変換処理を行う撮影 システムにおいて、 前記画像の撮影状況を判定する撮影状況判定手段 と、 該撮影状況判定手段で判定された撮影状況に応じて前記映像信号 の情報量を変更する情報量変更手段と、 該情報量変更手段によって情 報量が変更された映像信号を用いて得られる階調変換特性に応じて階 調変換処理を行う階調変換手段と、 を有することを特徴とする。
( 1 ) の発明に関する実施形態は、 図 1〜図 1 3に示される第 1の 実施形態, 第 2の実施形態,. 第 3の実施形態がそれぞれ対応する。 こ の発明の撮影状況判定手段は、 図 1、 図 3に示される撮影状況判定部 1 0 8や、 図 6、 図 7に示される撮影状況判定部 1 0 0 8、 および図 1 1、 図 1 2に示される撮影状況判定部 2 0 0 8が該当する。 また、 情報量変更手段は、 図 1に示される情報量変更部 1 0 7や、 図 6 , 図 9に示される情報量変更部 1 0 0 7、 および図 1 1に示される情報量 変更部 2 0 0 7 aが該当する。 さらに、 階調変換手段は、 図 1および 図 6に示される階調変換部 1 1 0や、 図 1 1に示される階調変換部 2 0 1 0が該当する。
( 1 ) の発明は、 撮影状況に応じて、 映像信号の情報量を変更して、 情報量が変更された映像信号を用いて得られる階調変換特性に応じて 階調変換処理を行っている。 この構成によれば、 撮影状況の違いに応 じて、 例えば明暗差の大きい撮影状況であるか否かに応じて、 処理時 間と画像の高品位化のバランスのとれた、 効率的な階調変換を行うこ とが可能となる。
( 2 ) の発明は、 ( 1 ) の発明において、 前記画像を撮影する際の撮 影状況の設定をユーザから受け付ける撮影状況受付手段をさらに備え、 前記撮影状況判定手段は、 前記撮影状況受付手段で受け付けた撮影状 況によって前記画像の撮影状況を判定することを特徴と,する。
この発明に関する実施形態は、 図 1〜図 5に示される第 1の実施形 態、 又は図 1 1〜図 1 3に示される第 3の実施形態が対応する。 この 発明の撮影状況受付手段は、 図 3, 図 1 1に示される外部 I ZF部 1 1 4が該当する。 また、 前記撮影状況受付手段で受け付けた撮影状況 によって前記画像の撮影状況を钾定することは、 図 3、 図 1 2 ( a ) の撮影条件取得部 2 0 0、 全体推定部 2 0 4、 2 0 5により行う。
( 2 ) の発明は、 ユーザから設定された撮影状況を取得している。 この構成によれば、 ユーザから設定された撮影条件を用いることによ り撮影条件の取得が高速に行える。
( 3 ) の発明は、 ( 1 ) の発明において、 前記撮影状況判定手段は、 前記映像信号から撮影状況を判定することを特徴とする。 この発明に 関する実施形態は、 図 1〜図 5に示される第 1の実施形態、 又は図 1 1〜図 1 3に示される第 3の実施形態が対応する。 この発明の映像信 号から撮影状況を判定することは、 図 3に示される全体推定部 2 0 4、 又は図 1 2に示される全体推定部 2 0 5により行う。
( 3 ) の発明は、 映像信号の撮影状況を映像信号から判定している。 この構成によれば、 映像信号から撮影状況を判定するため、 ユーザが 撮影状況を設定していない場合でも、 撮影状況の判定が行える。
( 4 ) の発明は、 ( 1 ) の発明において、 前記撮影状況判定手段は、 撮影時の合焦位置を算出する合焦位置算出手段と、 撮影された映像信 号の輝度分布を算出する輝度分布算出手段と、 を有し、 前記合焦位置 算出手段で算出した合焦位置と、 前記輝度分布算出手段で算出した輝 度分布とに基づいて撮影状況の判定を行うことを特徴とする。
( 4 ) の発明の実施形態は、 図 1〜図 5に示される第 1の実施形態 又は図 1 1〜図 1 3に示される第 3の実施形態が対応する。 (4 ) の発 明の合焦位置算出手段は、 図 3、 図 1 2に示される合焦位置推定部 2 0 1が、 輝度分布算出手段は、 図 3、 図 1 2に示される被写体分布推 定部 2 0 2がそれぞれ該当する。 撮影状況の判定は、 図 3に示される 全体推定部 2 0 4、 又は図 1 2に示される全体推定部 2 0 5により行 Ό o
( 4 ) の発明は、 合焦位置算出手段と輝度分布算出手段により映像 信号の撮影状況を判定している。 この構成によれば、 合焦位置と輝度 分布から撮影状況を判定しているので、 高精度な撮影状況の判定を行 うことができる。
( 5 ) の発明は、 ( 1 ) の発明において、 前記撮影状況判定手段は、 撮影時の合焦位置を算出する合焦位置算出手段と、 撮影された映像信 号の輝度分布を算出する輝度分布算出手段と、 を有し、 前記合焦位置 算出手段で算出した合焦位置による分類分けと、 前記輝度分布算出手 段で算出した輝度分布による分類分けとの組み合わせに基づいて、 撮 影状況の判定を行うことを特徴とする。
この発明に関する実施の形態は、 図 1〜図 5に示される第 1の実施 形態又は図 1 1〜図 1 3に示される第 3の実施形態が対応する。 この 発明の合焦位置算出手段は、 図 3 , 図 1 2の合焦位置推定部 2 0 1力 S、 また、 輝度分布算出手段は、 被写体分布推定部 2 0 2がそれぞれ該当 する。 図 3に示される全体推定部 2 0 4、 又は図 1 2に示される全体 推定部 2 0 5は、 前記合焦位置算出手段で算出した合焦位置による分 類分けと、 前記輝度分布算出手段で算出した輝度分布による分類分け との組み合わせに基づいて、 撮影状況の判定を行う。
( 5 ) の発明は、 合焦位置による分類分けと輝度分布による分類分 けとの組み合わせに基づいて映像信号の撮影状況を判定している。 こ の構成によれば、 合焦位置と輝度による分類により撮影状況を判定す るため、 高精度な撮影状況の判定が行える。
( 6 ) .の発明は、 (1 ) の発明において、 前記撮影状況判定手段は、 撮影時のシャッター速度および撮影された画像の輝度を所定の閾値と 比較した結果に基づいて撮影状況を判定することを特徴とする。 この 発明に関する実施形態は、 図 1〜図 5に示される第 1の実施形態が対 応する。 この発明による撮影状況の判定は、 図 3に示される夜景推定 部 2 0 3および全体推定部 2 0 4により行う。
( 6 ) の発明は、 撮影時のシャッター速度および映像信号の輝度の 情報を用いて撮影状況を判定している。 この構成によれば、 シャツタ 一速度おょぴ輝度によって撮影状況の判定を高精度に行うことが可能 となる。
( 7 ) の発明は、 ( 1 ) の発明において、 前記撮影状況判定手段は、 撮影時のシャッター速度および撮影された画像の輝度と所定の閾値と が所定の関係にあるか否かに基づいて撮影状況を判定する第一判定部 と、 前記第一判定部での判定の後に、 撮影時の合焦位置および撮影さ れた画像の輝度分布に基づいて撮影状況の判定を行う第二判定部と、 を有し、 前記第一判定部および前記第二判定部によって撮影状況の判 定を行うことを特徴とする。
この発明に関する実施形態は、 図 1〜図 5に示される第 1の実施形 態が対応する。 この発明の第一判定部は、 図 3に示される夜景推定部 2 0 3および全体推定部 2 0 4がそれぞれ該当する。 また、 第二判定 部は、 図 3に示される合焦位置推定部 2 0 1、 被写体分布推定部 2 0 2および全体推定部 2 0 4がそれぞれ該当する。 さらに、 撮影状況の 判定は、 図 3に示される全体推定部 2 0 4により行う。
( 7 ) の発明は、 撮影状況を、 まずシャッター速度及び輝度で判定 し、 その後に合焦位置と輝度分布の情報を用いて判定する。 この構成 によれば、 撮影状況について、 例えば、 先に夜景か否かの判定を行う ことが可能となり、 撮影状況の判定を効率よく行うことができる。
( 8 ) の発明は、 ( 1 ) の発明において、 前記情報量変更手段は、 前 記映像信号の解像度を変更することで前記映像信号の情報量を変更す ることを特徴とする。 この発明に関する実施形態は、 図 1 1〜図 1 3 に示される第 3の実施形態が対応する。 この発明の、 映像信号の解像 度を変更することで映像信号の情報量を変更することは、 図 1 1に示 される情報量変更部 2 0 0 7 aにより行う。
( 9 ) の発明は、 (8 ) の発明において、 前記情報量変更手段によつ て解像度が変更された後の映像信号を用いて得られる階調変換特性か ら階調変換を行うための第 1の補正係数を算出し、 該算出した第 1の 補正係数を前記解像度が変更される前の映像信号の解像度に対応する 第 2の補正係数に変更する階調変換特性算出手段を備え、 前記階調変 換手段は、 前記第 2の補正係数を用いて階調変換を行うことを特徴と する。 この発明に関する実施形態は、 図 1 1〜図 1 3に示される第 3 の実施形態が対応する。 この発明の、 階調変換特性算出手段は、 図 1 1に示される補正係数算出部 2 0 0 7 b及び補正係数修正部 2 0 0 7 cが該当する。
( 8)、 ( 9 ) の発明は、 映像信号の解像度を変更することにより、 映像信号の情報量を変更している。 この構成によれば、 映像信号の解 像度を変更するため、 デジタル映像信号に対する階調変換を効率的に 行い、 高品位の映像信号を得ることができる。
( 1 0) の発明は、 ( 1 ) の発明において、 前記情報量変更手段は、 前記映像信号のビッ ト長を変更することで前記映像信号の情報量を変 更することを特徴とする。 この発明に関する実施形態は、 図 1〜図 10 に示される第 1の実施形態、 第 2の実施形態が対応する。 この発明の、 映像信号のビッ ト長を変更することで映像信号の情報量を変更するこ とは、 図 1に示される情報量変更部 1 0 7や、 図 6, 図 9に示される 情報量変更部 1 00 7により行う。
( 1 0 ) の発明は、 映像信号のビッ ト長を変更することにより、 映 像信号の情報量を変更している。 この構成によれば、 映像信号のビッ ト長を変更するため、 デジタル映像信号に対する階調変換を効率的に 行い、 高品位の映像信号を得ることができる。
( 1 1 ) の発明は、 ( 1 ) の発明において、 前記撮影状況判定手段は、 前記画像を構成する複数の領域毎に撮影状況を判定し、 前記情報量変 更手段は、 前記領域にそれぞれ対応する映像信号の情報量を当該領域 毎の撮影状況に応じて変更することを特徴とする。 この発明に関する 実施形態は、 図 6〜図 1 0に示される第 2の実施形態が対応する。 こ の発明の画像を構成する複数の領域毎に撮影状況を判定することは、 図 7に示される特定色検出部 3 0 0、 暗部検出部 3 0 1、 領域推定部 3 0 2、 又は図 8に示される周波数算出部 3 0 3、 領域推定部 3 0 4 により行う。 前記領域にそれぞれ対応する映像信号の情報量を当該領 域毎の撮影状況に応じて変更することは、 図 6に示される情報量変更 部 1 0 7により行う。
( 1 1 ) の発明は、 領域毎に撮影状況を判定して映像信号の情報量 を変更している。 この構成によれば、 領域毎に撮影状況を判定してい るため、 精度よく撮影状況を判定して、 高品位な映像信号を得ること ができる。
( 1 2) の発明は、 ( 1 1 ) の発明において、 前記撮影状況判定手段 は、 前記映像信号に基づいて求める色情報または前記映像信号に基づ いて求める輝度情報のうちの少なく ともいずれか一方によって撮影状 況を判定することを特徴とする。 この発明に関する実施形態は、 図 6 〜図 1 0に示される第 2の実施形態が対応する。 この発明の、 前記映 像信号に基づいて求める色情報または前記映像信号に基づいて求める 輝度情報のうちの少なく ともいずれか一方によって撮影状況を判定す ることは、 図 7に示される特定色検出部 3 0 0、 暗部検出部 3 0 1お よぴ領域推定部 3 0 2により行う。
( 1 2) の発明は、 色情報または輝度情報を用いて各領域の撮影状 況を判定している。 この構成によれば、 色情報または輝度情報のみを 用いるため、 領域の撮影状況の判定が高速に行える。
( 1 3) の発明は、 ( 1 1 ) の発明において、 前記撮影状況判定手段 は、 前記領域における空間周波数の高周波成分の量に応じて当該領域 毎の撮影状況を判定することを特徴とする。 この発明に関する実施形 態は、 図 6〜図 1 0に示される第 2の実施形態が対応する。 この発明 の、 前記領域における空間周波数の高周波成分の量に応じて当該領域 毎の撮影状況を判定することは、 図 8に示される周波数算出部 3 0 3 及ぴ領域推定部 3 04により行う。
( 1 3 ) の発明は、 周波数情報を用いて各領域の撮影状況を判定し ている。 この構成によれば、 撮影状況の判定を画像の周波数情報を用 いて行うことで、 画像の特性に応じて高品位な映像信号を得ることが できる。
( 1 4) の発明は、 ( 1 1 ) の発明において、 前記情報量変更手段は、 前記複数の領域にそれぞれ対応する映像信号のビッ ト長を前記領域毎 の撮影状況に応じて当該領域毎に変更することで, 前記映像信号の情 報量を変更することを特徴とする。 この発明に関する実施形態は、 図 6〜図 1 0に示される第 2の実施形態が対応する。 この発明の領域ビ ッ ト長変更手段は、 図 6および図 9に示される情報量変更部 1 0 0 7 が該当する。
( 1 4) の発明は、 映像信号のビッ ト長を領域毎に変更している。 この構成によれば、 映像信号の領域毎のビッ ト長を変更するため、 デ ジタル映像信号に対する階調変換を効率的に行い、 高品位の映像信号 を得ることができる。
( 1 5) の発明は、 ( 1 ) の発明において、 前記情報量変更手段によ る処理を行わないように制御する情報量変更処理回避手段を備えたこ とを特徴とする。 この発明に関する実施形態は、 図 1〜図 1 3に示さ れる第 1の実施形態, 第 2の実施形態, 第 3の実施形態がそれぞれ対 応する。 この発明の情報量変更処理回避手段は、 制御部 1 1 3、 制御 部 1 0 1 3、 制御部 2 0 1 3が該当する。 この発明によれば、 状況に 応じて情報量を変更せずに高品質な映像信号を得たり、 処理速度を向 上させたりすることができる。
( 1 6) . 上記目的を達成するために、 本発明の映像信号処理プログ ラムは、 コンピュータに、 画像の映像信号を読み込む手順と、 前記画 像の撮影状況を判定する手順と、 前記判定された撮影状況に応じて前 記映像信号の情報量を変更する手順と、 前記情報量が変更された映像 信号を用いて得られる階調変換特性に応じて階調変換処理を行う手順 とを実行させることを特徴とする。 この発明に関する実施形態は、 第 1の実施形態, 第 2の実施形態, 第 3の実施形態が対応する。
( 1 7 ) . 上記目的を達成するために、 本発明の映像信号処理プログ ラムは、 コンピュータに、 画像の映像信号を読み込む手順と、 前記画 像を構成する複数の領域毎に撮影状況を判定する手順と、 前記領域毎 にそれぞれ対応する映像信号の情報量を当該領域毎の撮影状況に応じ て変更する手順と、 前記情報量が変更された映像信号を用いて得られ る階調変換特性に応じて階調変換処理を行う手順とを実行させること を特徴とする。 この発明に関する実施形態は、 第 2の実施形態が対応 する。
( 1 6 )、 ( 1 7 ) の発明は、 映像信号処理をプログラムによってコ ンピュータに実現させるものである。 このため、 迅速にしかも正確に 高品位な映像信号処理を実行させることが可能となる。
本発明によれば、 映像信号に対する階調変換処理を行う撮影システ ムにおいて、 映像信号の情報量を撮影状況に応じて可変とすることに よって、 高品位な映像信号を効率的に得ることのできる撮影システム を提供することができる。 また、 コンピュータで高品位な映像信号を 効率的に生成することのできる映像信号処理プログラムを得ることが できる。 図面の簡単な説明
図 1は第 1の実施形態の構成図である。
図 2は第 1の実施形態における評価測光用のパターンの説明図であ る。
図 3は第 1の実施形態における撮影状況判定部の構成図である。
図 4は第 1の実施形態における撮影シーン推定の説明図である。
図 5は第 1の実施形態の処理手順を示すフローチヤ一トである。
図 6は第 2の実施形態の構成図である。 図 7は第 2の実施形態における撮影状況判定部の構成図である。
図 8は第 2の実施形態における撮影状況判定部の構成図である。
図 9は第 2の実施形態における情報量変更部の構成図である。
図 1 0は第 2の実施形態の処理手順を示すフローチヤ一トである。 図 1 1は第 3の実施形態の構成図である。
図 1 2は第 3の実施形態における撮影状況判定部の構成図である。 図 1 3は第 3の実施形態における解像度を算出する方法を説明する ための説明図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について図を参照して説明する。 図 1は 第 1の実施形態の構成図、 図 2は評価測光用の分割パターンの説明図、 図 3は撮影状況判定部の構成図、 図 4は A F情報と A E情報からの撮 影シーン推定の説明図、 図 5は撮像システムによる処理手順を示すフ ローチャートである。
図 1は、 第 1の実施形態の構成図であり、 本発明の撮影システム 1 0の有する構成を示している。 レンズ系 1 00、 絞り 1 0 1、 C CD 1 0 2を介して撮影された画像は、 AZD 1 04にてデジタル信号へ 変換される。 A ZD 1 04からのデジタル信号に変換された映像信号 は、 バッファ 1 0 5、 情報量変更部 1 0 7、 信号処理部 1 0 9, 階調 変換部 1 1 0および圧縮部 1 1 1を経由して、 メモリ カー ドなどの出 力部 1 1 2に入力される。 測光評価部 1 0 6は、 絞り 1 0 1および C CD 1 0 2へ接続されており、 合焦点検出部 1 1 5は AFモータ 1 0 3へ接続されている。 バッファ 1 0 5は、 情報量変更部 1 0 7、 測光 評価部 1 0 6および合焦点検出部 1 1 5へ接続されている。
撮影状況判定部 1 0 8は、 情報量変更部 1 0 7へ接続されている。 制御部 1 1 3は、 AZD 1 04、 測光評価部 1 0 6、 合焦点検出部 1 1 5、 情報量変更部 1 0 7、 撮影状況判定部 1 0 8、 信号処理部 1 0 9、 階調変換部 1 1 0および圧縮部 1 1 1へ双方向に接続され、 各部 の処理を統括する。 さらに、 図示しない電源スィッチ、 シャツターボ タン、 撮影時の各種モードの切り換えを行うためのインターフェース を備えた外部 I 部 1 1 4も、 制御部 1 1 3に双方向に接続されて いる。
制御部 1 1 3、 A/D 1 04、 測光評価部 1 0 6、 合焦点検出部 1 1 5、 情報量変更部 1 0 7、 撮影状況判定部 1 0 8、 信号処理部 1 0 9、 階調変換部 1 1 0および圧縮部 1 1 1によって行われる各処理は、 撮像システム 1 0に搭載された C P Uが R OM等のメモリに記憶され た映像信号処理プログラムに基づいて、 適宜 RAM等の記憶装置に必 要なデータを読み書きしながら行われる。
図 1において、 信号の流れを説明する。 ユーザが外部 I ZF部 1 1 4を介して、 撮影モード (例えばオート撮影、 風景撮影、 人物撮影、 接写撮影、 夜景撮影、 ス トロボ発光撮影など)、 I S O感度、 シャツタ 一速度、 絞り等の撮影条件を設定すると、 設定された撮影条件を制御 部 1 1 3で記憶する。 制御部 1 1 3は、 設定された撮影条件を撮影状 況判定部 1 0 8へ転送する。 その後、 ユーザが不図示のシャツターボ タンを半押しすることで、 撮像システム 1 0はプリ撮影を行う。 プリ 撮影が行われると、 レンズ系 1 00、 絞り 1 0 1、 C CD 1 0 2を介 して撮影された画像は、 AZD 1 04にて量子化されてデジタル信号 に変換され、 映像信号としてバッファ 1 0 5へ転送される。 本実施形 態では、 AZD 1 04にて 1 4 b i tに量子化される。 バッファ 1 0 5内の映像信号は、 情報量変更部 1 0 7、 測光評価部 1 0 6および合 焦点検出部 1 1 5へ転送される。
測光評価部 1 0 6では、 設定された I S O感度、 手ぶれ限界のシャ ッター速度などを加味して適正露光を算出し、 絞り 1 0 1や C CD 1 0 2のシャッター速度などの露光条件を制御する。 さらに、 測光評価 部 1 0 6は、 輝度分布を示す後述の A E情報を算出するためのパラメ ータを算出する。 本実施形態では、 A E情報を算出するためのパラメ ータと して、 画像を複数の領域に分割したときの各領域の平均輝度レ ベノレ a l〜 a 1 3を用いている。
図 2は評価測光用の分割パターンの説明図であり、 本実施形態の A E情報を算出するためのパラメータを説明する。 図 2に示すように、 画像を複数 (本実施形態の例では 1 3 ) の領域に分割して扱い、 映像 信号から各領域に対応する輝度レベルを抽出して、 各領域内で輝度レ ベルの平均値である平均輝度レベル a i〜 a 1 3を算出する。
合焦点検出部 1 1 5は、 映像信号中のエッジ強度を検出し、 これが 最大となるようにレンズ系 1 0 0を駆動する A Fモータ 1 0 3を制御 する。 そして、 エッジ強度が最大となるときのレンズ系 1 0 0の位置 を合焦条件として取得する。
次に、 ユーザが不図示のシャッターボタンを全押しにすると、 その 情報が外部 I Z F部 1 1 4を介して制御部 1 1 3へ入力され、 撮像シ ステム 1 0は本撮影を行う。 本撮影で撮影された画像の映像信号はプ リ撮影と同様にバッファ 1 0 5へ転送される。 本撮影は、 測光評価部 1 0 6にて求められた露光条件、 合焦点検出部 1 1 5にて求められた 合焦条件に基づき行われ、 露光条件と合焦条件は制御部 1 1 3へ転送 される。
測光評価部 1 0 6は、 本撮影で撮影された画像の映像信号に基づい て、 上述の平均輝度レベル a l〜 a 1 3の値を算出する。 バッファ 1 0 5内の映像信号は、 情報量変更部 1 0 7へ転送される。 制御部 1 1 3は、 撮影条件、 測光評価部 1 0 6で求めた平均輝度レベル a l〜 a 1 3および露光条件、 合焦点検出部 1 1 5で求めた合焦条件を、 撮影 状況判定部 1 0 8へ転送する。 撮影状況判定部 1 0 8は、 転送された撮影条件、 平均輝度レベル a l〜 a 1 3、 露光条件および合焦条件に基づき画面全体に関する撮影 状況を判定する。 判定した撮影状況は、 情報量変更部 1 0 7へ転送さ れる。
情報量変更部 1 0 7は、 撮影状況判定部 1 0 8からの撮影状況の判 定に基づき、 バッファ 1 0 5から転送される映像信号の画面全体のビ ッ ト長をビッ トシフ トなどにより変更する。 例えば 1 4 b i t力 ら 1 2 b i tなどへビッ ト長を変更する。 ビッ ト長が変更された映像信号 は、 信号処理部 1 0 9へ転送される。 信号処理部 1 0 9は、 制御部 1 1 3の制御に基づき、 映像信号に対して色変換処理や強調処理等を行 い、 階調変換部 1 1 0へ転送する。
階調変換部 1 1 0は、 制御部 1 1 3の制御に基づき、 局所的なヒス トグラム平坦化等の方法により、 画素毎あるいは領域毎に階調変換特 性を独立に変化させて階調変換処理を行う。 本実施形態では、 情報量 変更部 1 0 7で情報量が変更された後の映像信号を用いて階調変換特 性を算出して、 情報量変更部 1 0 7で情報量を変更された後の映像信 号に対する階調変換処理を行う。
階調変換の特性の算出は、 例えば、 前記特許文献 2のように行う。 最初に、 情報量変更部 1 0 7で情報量が変更された後の映像信号で表 される画像中の領域毎に、 各領域に対応する映像信号から濃度ヒス ト グラムを作成し、 該濃度ヒス トグラムの濃度値のばらつき具合いを算 出する。 次に、 該濃度値のばらつき具合に応じて、 該濃度ヒス トグラ ムの平滑化の度合いを左右するクリ ップ値を決定する。 さらに、 該ク リ ップ値で上記濃度ヒス トグラムをクリ ッビングし、 タリ ッビング後 の濃度ヒス トグラムから累積ヒス トグラムを作成する。 最後に、 累積 ヒス トグラムを濃度変換曲線として、 入力された映像信号の画素毎或 いは領域毎に作用させて階調変換を行うための補正係数を定めること で、 階調変換の特性を算出する。
階調変換処理後の映像信号は、 圧縮部 1 1 1へ転送される。 圧縮部 1 1 1は、 制御部 1 1 3の制御に基づき圧縮処理等を行い、 処理結果 を出力部 1 1 2へ転送する。 出力部 1 1 2は、 メモリカードなどの記 録媒体へ映像信号を記録保存する。
図 3は撮影状況判定部 1 0 8の構成の一例を示す構成図である。 撮 影状況判定部 1 0 8は、 撮影条件取得部 2 0 0、 合焦位置推定部 2 0 1、 被写体分布推定部 2 0 2、 夜景推定部 2 0 3およぴ全体推定部 2 0 4を備える。 制御部 1 1 3は、 撮影条件取得部 2 0 0、 合焦位置推 定部 2 0 1、 被写体分布推定部 2 0 2および夜景推定部 2 0 3へ双方 向に接続されている。 また、 撮影条件取得部 2 0 0、 合焦位置推定部 2 0 1、 被写体分布推定部 2 0 2および夜景推定部 2 0 3は、 全体推 定部 2 0 4に接続されている。 全体推定部 2 0 4は、 情報量変更部 1 0 7に接続されている。
撮影条件取得部 2 0 0は、 外部 I Z F部 1 1 4にて設定された撮影 条件、 例えば撮影モードの種別 (例えばオート撮影、 風景撮影、 人物 撮影、 接写撮影、 夜景撮影、 ス トロボ発光撮影) を示す情報を取得す る。 取得結果は全体推定部 2 0 4に転送される。
合焦位置推定部 2 0 1は、 制御部 1 1 3から合焦点検出部 1 1 5で 設定された合焦条件を取得して、 C C D 1 0 2から最もピントが合つ ている被写体までの位置を示す合焦位置を、 合焦条件に基づいて算出 する。 そして、 算出した合焦位置を分類した A F情報を得る。 例えば、 合焦位置を 5 m〜∞ (風景撮影)、 l m〜 5 m (人物撮影)、 1 m以下 (接写撮影) などに分類した A F情報を得る。 分類結果は全体推定部 2 0 4に転送される。 被写体分布推定部 2 0 2は、 測光評価部 1 0 6で A E情報を算出す るためのパラメータと して算出された平均輝度レベル a l〜 a 1 3を 取得する。 そして、 取得した平均輝度レベル a l〜 a 1 3に基づいて, 輝度分布を示す A E情報を算出する。 輝度分布を示す A E情報を算出 する方法は様々に考えられるが、 本実施形態では、 ( 1 ) 式に示す評価 用パラメータ S 1〜 S 3で A E情報を表現し、 評価用パラメータ S 1 〜S 3を算出することで A E情報を算出している。 被写体分布推定部 2 0 2は、 算出した A E情報を全体推定部 2 0 4に転送する。
Si ― |θ2 一 <¾|
(¾ = max (|ひ 4一
Figure imgf000018_0001
13
¾ = max (aio,aii) 一》 , ai/13 丄)
( 1 ) 式において、 m a x () は最大値を返す関数である。 評価用 パラメータ S 1は中央部の左右の輝度差を、 S 2は内周部の上側中央 と上側左右のいずれかの輝度差の大きい方を、 S 3は外周部の上側左 右のいずれかの大きい方と画面全体の平均輝度との差を意味する。
A E情報は、 輝度分布を示すようなものであれば、 ( 1 ) 式以外の式 に基づいて算出してもよい。 また、 A E情報を算出するためのパラメ ータも、 本実施形態の平均輝度レベル a l〜 a 1 3に限定されるもの ではなく、 測光評価部 1 0 6において、 平均輝度レベル a l〜 a 1 3 以外のパラメータを映像信号から算出するようにしてもよい。 例えば、 輝度レベルの平均ではなく、 画像を分割した各領域の輝度レベルから、 所定の計算式に基づいて計算される他の値をパラメータとしてもよい c 夜景推定部 2 0 3は、 所定の長時間露光で、 かつ画面全体の平均輝 度レベルが所定の閾値以下の場合に、 撮影された画像が夜景の画像で あると推定する。 夜景推定部 2 0 3は、 測光評価部 1 0 6で求められ た平均輝度レベル a l〜 a 1 3や露光条件を取得して、 これらに基づ いて撮影された画像が夜景の画像であると推定する。 この推定結果は 全体推定部 2 0 4に転送される。
全体推定部 2 0 4は、 最初に、 撮影条件取得部 2 0 0で得られた撮 影モードがオート撮影か否かを判断する。 なお、 オート撮影とは、 ュ 一ザが被写体の状況を特に指定しないで撮影を行う撮影のモードであ り、 撮影システム 1 0が被写体の状況を自動的に推定して撮影を行う モードである。
全体推定部 2 0 4は、 撮影条件取得部 2 0 0で得られた撮影モード がォート撮影であるか否かに応じて異なる方法で撮影状況を判定する。 撮影モードが、 オート撮影以外であると判定したときは、 撮影条件取 得部 2 0 0で得られた撮影モードに基づいて撮影状況を判定する。 す なわち、 ユーザにより設定された撮影モードが撮影状況であると判定 する。 この判定結果は情報量変更部 1 0 7へ転送される。
本実施形態の撮影システム 1 0では、 撮影モードと して、 オート撮 影以外に、 風景撮影、 人物撮影、 接写撮影、 夜景撮影、 ス トロボ発光 撮影などの設定を備えている。 撮影モードは、 これらに限定されるも のではない。 撮影システム 1 0が備える撮影モードと しては、 撮影さ れる被写体の状況 (撮影シーン) を様々に考慮して、 各状況における 撮影で好適と考えられる I S O感度、 シャッター速度、 絞り等の組み 合わせ等が設定されたり、 映像信号の処理内容が設定されていれば、 他の撮影モードであってもよい。
風景撮影は、 風景の撮影を意図した撮影モードである。 風景撮影の 場合、 画像中の明暗差が大きい場合が多く、 階調変換処理によって階 調が狭い暗部の階調が広がることにより、 中間調の情報量が少なくな ることが多い。 そのため、 風景撮影の場合、 情報量変更部 1 0 7にて 設定されるビッ ト長は長い方が好ましい。 本実施形態の例では、 風景 撮影の場合、 情報量変更部 1 0 7は、 映像信号の階調を、 A Z D 1 0 4にて量子化されたときと同じ 1 4 b i tに維持する。 人物撮影は、 人物の撮影を意図した撮影モードである。 人物撮影の 場合、 風景に比べて画像中の明暗差はあまり大きくないが、 顔の階調 表現が重要である。 したがって、 人物撮影の場合、 風景撮影ほどの階 調は必要ないが、 ある程度の階調を確保するために、 情報量変更部 1 0 7は、 風景撮影よりも階調の低い 1 2 b i tに映像信号の情報量を 変更する。
接写撮影は、 被写体を近くで撮影をすることを意図した撮影モード である。 接写撮影の場合、 汎用性を考慮して、 情報量変更部 1 0 7は、 1 2 b i tに映像信号の情報量を変更する。
夜景撮影は、 暗がりのなかでの撮影を意図した撮影モードである。 夜景撮影の場合は、 喑部が多いため、 階調変換処理によって暗部の階 調を広げるために中間調の情報量が少なくなることが多い。 そのため、 風景撮影の場合、 情報量変更部 1 0 7にて設定されるビッ ト長は長い 方が好ましい。 本実施形態の例では、 風景撮影の場合、 情報量変更部 1 0 7は、 映像信号の階調を、 A Z D 1 0 4にて量子化されたときと 同じ 1 4 b i tに維持する。
ス トロポ発光撮影は、 ス トロボを発光させて撮影を行うことを意図 した撮影モードである。 ス ト ロボ発光撮影の場合、 暗部が多いと考え られるため、 階調変換処理によって暗部の階調を広げるために中間調 の情報量が少なくなることが多い。 そのため、 ス トロボ発光撮影の場 合、 情報量変更部 1 0 7にて設定されるビッ ト長は長い方が好ましい。 本実施形態の例では、 ス トロボ発光撮影の場合、 情報量変更部 1 0 7 は、 映像信号の階調を、 A , D 1 0 4にて量子化されたときと同じ 1 4 b i tに維持する。
以上では、 A Z D 1 0 4にて量子化されたときに 1 4 b i tの情報 量を有する映像信号を得ているため、 風景撮影、 夜景撮影、 ス トロボ 発光撮影において映像信号の階調を A Z D 1 0 4にて量子化されたと きと同じ 1 4 b i tに維持している例を説明したが、 情報量変更部 1 0 7が各撮影モードに応じた好適な情報量を有するように映像信号の 情報量を変更すればよい。 例えば、 情報量変更部 1 0 7は、 風景撮影、 夜景撮影、 ス ト ロボ発光撮影において映像信号の情報量を 1 2 b i t に変更して、 人物撮影において映像信号の情報量を 1 0 b i tに変更 するようにしてもよい。
次に、 撮影条件取得部 2 0 0で得られた撮影モードがォ一ト撮影の 場合について説明する。 全体推定部 2 0 4は、 撮影条件取得部 2 0 0 で得られた撮影モードがォ一ト撮影であると判定したとき、 合焦位置 推定部 2 0 1、 被写体分布推定部 2 0 2および夜景推定部 2 0 3から の情報に基づき、 撮影状況の判定を行う。
撮影された画像が夜景の画像であると夜景推定部 2 0 3で推定され た場合は、 全体推定部 2 0 4は撮影状況を夜景撮影であると判定し、 その情報を情報量変更部 1 0 7へ転送する。 一方、 撮影された画像が 夜景の画像であると夜景推定部 2 0 3で推定された場合は、 全体推定 部 2 0 4は、 合焦位置推定部 2 0 1からの A F情報と、 被写体分布推 定部 2 0 2からの A E情報 (評価用パラメータ S 1〜 S 3 ) を用いて 撮影状況を判定する。
図 4は、 全体推定部 2 0 4で A F情報と A E情報の組み合わせの結 果に基づいて判定される撮影状況と、 情報量変更部 1 0 7にて設定さ れるビッ ト長を示す説明図である。 全体推定部 2 0 4では、 評価用パ ラメータ S 3が所定の閾値 T h 1より大きいか否か、 評価用パラメ一 タ S 2が所定の閾値 T h 2より大きいか否か、 評価用パラメータ S 1 が所定の閾値 T h 3より大きいか否かで、 A E情報を分類分けする。
A F情報が 5 m以上の場合に、 全体推定部 2 0 4は撮影状況を風景 撮影と判定する。 さらに評価用パラメータ S 3が所定の閾値 T h 1よ り大きい場合には、 図 2に示す a 1 0または a 1 1の上部の領域が画 面全体の平均輝度より高いため、 撮影状況を上部に空のある風景撮影 と判定し、 その情報を情報量変更部 1 0 7 へ転送する。 このよ うな風 景はダイナミックレンジが広いと考えられるため、 情報量変更部 1 0 7は、 映像信号の情報量を、 A / D 1 0 4にて量子化されたときと同 じ 1 4 b i tに維持する。
一方、 A F情報が 5 m以上の場合でも、 評価用パラメータ S 3が所 定の閾値 T h 1 より大きくない場合は、 撮影状況を上部に空のないま たは空の少ない風景撮影と判定し、 その情報を情報量変更部 1 0 7 へ 転送する。 この場合、 主要被写体は植物や建造物と考えられ、 それほ ど明暗差がないため、 情報量変更部 1 0 7は、 映像信号の情報量を例 えば 1 2 b i tに変更する。
次に、 A F情報が 1 m以上 5 m未満の場合には、 全体推定部 2 0 4 は撮影状況を人物撮影と判定する。 さらに、 評価用パラメータ S 2が 所定の閾値 T h 2より大きい場合には、 図 2に示すように、 上側中央 a 4 と上側左右 a 6 、 a 7との輝度差があるため 1人の人物撮影と判 定し、 その情報を情報量変更部 1 0 7 へ転送する。 1人の人物撮影の 場合には、 上部に空のある風景撮影ほどの階調は必要ないが顔の階調 が重要となるので、 情報量変更部 1 0 7は、 映像信号の情報量を例え ば 1 2 b i tに変更する。
一方、 A F情報が l m以上 5 m未満の場合でも、 評価用パラメータ S 2が所定の閾値 T h 2より大きくない場合は、 複数人の人物撮影と 判定し、 その情報を情報量変更部 1 0 7へ転送する。 複数人の人物撮 影の場合には、 顔が小さい場合が多く、 顔の階調はさほど重要ではな くなるので、 情報量変更部 1 0 7は、 映像信号の情報量を例えば 1 0 b i tに変更する。
最後に、 A F情報が 1 m未満の場合には、 全体推定部 2 0 4は撮影 状況を接写撮影と判定する。 さらに、 評価用パラメータ S 1が所定の 閾値 T h 3より大きい場合には、 中央部の左右の輝度差があり、 複数 の物体の接写撮影であると判定し、 その情報を情報量変更部 1 0 7へ 転送する。 複数の物体の接写撮影の場合、 複数の物体の明暗差が大き い場合があるので、 情報量変更部 1 0 7は、 映像信号の情報量を例え ば 1 2 b i tに変更する。
一方、 A F情報が 1 m未満の場合でも、 評価用パラメータ S 1が所 定の閾値 T h 3より大きくない場合は、 単一の物体の接写撮影である と判定し、 その情報を情報量変更部 1 0 7へ転送する。 単一の物体の 接写撮影である場合、 複数の物体の接写撮影の場合に比べて必要な明 度差が大きくはないと考えられるため、 情報量変更部 1 0 7は、 映像 信号の情報量を例えば 1 0 b i tに変更する。
以上では、 A Z D 1 0 4にて量子化されたときに 1 4 b i tの情報 量を有する映像信号を得ているため、 上部に空のある風景撮影におい て映像信号の階調を A / D 1 0 4にて量子化されたときと同じ 1 4 b i tに維持している例を説明したが、 情報量変更部 1 0 7が各撮影モ 一ドに応じた好適な情報量を有するように映像信号の情報量を変更す ればよい。 例えば、 情報量変更部 1 0 7は、 上部に空のある風景撮影 において映像信号の情報量を 1 2 b i tに変更して、 上部に空のない (または空の少ない) 風景撮影、 1人の人物撮影、 複数の物体の接写 撮影の場合において映像信号の情報量を 1 O b i tに変更して、 複数 人の人物撮影、 単一の物体の接写撮影において映像信号の情報量を 8 b i tに変更するようにしてもよい。
上記構成により、 撮影状況に応じて映像信号のビッ ト長を変更する ため、 明暗の差が激しい、 あるいは暗部が多い映像信号であってもビ ッ ト長を長くすることにより、 階調変換処理を行った後でも中間調の 情報がある程度保たれ、 高品位な映像信号が得られる。 また、 明暗の 差があまりなく、 暗部が少ない映像信号に対しては、 階調変換処理に よって中間調の情報量の減少はあまりないので、 ビッ ト長を短くする ことにより、 不要なビッ ト分の信号線を用いる必要が無くなり、 消費 電力を少なくすることができる。
以上のように、 情報量変更部 1 0 7が、 ある撮影状況における撮影 で得た映像信号の情報量をその撮影状況に応じて変更することで、 撮 影状況に応じて適した情報量を有する映像信号を生成している。 この ため、 各撮影状況に適した映像信号を用いた処理をその'後に行うこと が可能となる。 また、 撮影状況に応じた情報量を有する映像信号を得 るために、 撮影ごとに撮影状況を判定して、 1回の撮影で得た映像信 号の情報量をその撮影状況に応じて変更しているため、 複数回の撮影 を行って映像信号の情報量を増やしたり、 撮影状況に応じた異なる情 報量を有する映像信号を得るための特別な撮像素子等を備える必要が ない。
なお、 上記図 4の構成では、 撮影時の A F情報と A E情報との組み 合わせにより、 撮影状況を判定している。 本発明においては、 図 4の 構成に代えて、 合焦位置や A E情報をパラメータとした予め設定され た計算情報で計算を行い、 その計算結果を用いて、 撮影状況を判定す る構成とすることも可能である。
さらに、 上記実施形態ではレンズ系 1 0 0、 絞り 1 0 1、 C C D 1 0 2等の撮影手段を備えた撮影システム 1 0で画像の撮影からの一連 の処理が行われる例を示したが、 このような構成に限定される必要は ない。 例えば、 コンピュータと しての撮影システム 1 0が、 外部にあ る C C D等の撮影手段で撮影された画像の信号を未処理のままの R a wデータとして取得するとともに、 撮影時の情報 (撮影条件) をへッ ダ情報として取得し、 上述の測光評価部 1 0 6、 合焦点検出部 1 1 5、 情報量変更部 1 0 7、 撮影状況判定部 1 0 8、 信号処理部 1 0 9、 階 調変換部 1 1 0、 圧縮部 1 1 1および制御部 1 1 3による処理を行う 構成も可能である。
図 5は、 本発明の第 1の実施形態例における撮影システム 1 0で行 われる処理に関するフローチャートを示す。 手順 S 1にて、 画像の映 像信号を読み込む。 手順 S 2にて、 撮影状況判定部 1 0 8によって撮 影状況を取得する。 次に、 手順 S 3にて、 情報量変更部 1 0 7によつ て映像信号のビッ ト長を変更する。 手順 S 4にて、 信号処理部 1 0 9 によって、 所定の信号処理を行う。 続いて、 手順 S 5にて、 階調変換 部 1 1 0によつて階調変換処理を行う。 手順 S 6にて、 制御部 1 1 3 によって全画素に対して処理が行われたか否かを判定し、 この判定結 果が NOの場合には、 手順 S 4の処理に戻り、 未処理の画素に対して 手順 S 4〜 S 6のループ処理を繰り返し、 全画素に対して処理が行わ れて前記判定結果が YE Sの場合に、 処理を終了する。
次に、 本発明の第 2の実施形態について説明する。 図 6は第 2の実 施形態の構成図、 図 7、 図 8は撮影状況判定部の構成図、 図 9は情報 量変更部の構成図、 図 1 0は第 2の実施形態の撮像システムによる処 理手順を示すフローチヤ一トである。
図 6は、 第 2の実施形態の構成図であり、 本発明の撮影システム 2 0が有する構成を示している。 第 1の実施形態と同一の構成には、 同 一の名称と符号を割り当てている。 以下、 第 1の実施形態と異なる点 を主に説明する。
レンズ系 1 0 0、 絞り 1 0 1、 C CD 1 0 2を介して撮影された画 像は、 AZD 1 04にてデジタル信号へ変換される。 AZD 1 04か らのデジタル信号に変換された映像信号は、 バッファ 1 0 5、 情報量 変更部 1 00 7、 信号処理部 1 0 9、 階調変換部 1 1 0および圧縮部 1 1 1を経由して、 メモリカードなどの出力部 1 1 2に入力されてい る。
バッファ 1 0 5は、 測光評価部 1 0 6、 合焦点検出部 1 1 5、 情報 量変更部 1 0 0 7および間引き部 5 0 0に接続されている。 間引き部
5 0 0は補間部 5 0 1に接続されている。 補間部 5 0 1は撮影状況判 定部 1 0 0 8に接続されている。 撮影状況判定部 1 0 0 8は情報量変 更部 1 0 0 7へ接続されている。 制御部 1 0 1 3は、 測光評価部 1 0
6、 合焦点検出部 1 1 5、 情報量変更部 1 0 0 7、 撮影状況判定部 1 0 0 8、 信号処理部 1 0 9、 階調変換部 1 1 0、 圧縮部 1 1 1、 間引 き部 5 0 0および補間部 5 0 1へ双方向に接続され、 各部の処理を統 括する。
制御部 1 0 1 3、 Α/Ό 1 0 4、 測光評価部 1 0 6、 合焦点検出部 1 1 5、 情報量変更部 1 0 0 7、 撮影状況判定部 1 0 0 8、 信号処理 部 1 0 9、 階調変換部 1 1 0、 圧縮部 1 1 1、 間引き部 5 0 0および 捕間部 5 0 1によって行われる各処理は、 撮像システム 2 0に搭載さ れた C PUが R OM等のメモリに記憶された映像信号処理プログラム に基づいて、 適宜 RAM等の記憶装置に必要なデータを読み書きしな がら行われる。
図 6において、 信号の流れを説明する。 ユーザが外部 I /F部 1 1 4を介してシャッターボタンを全押しすることにより本撮影が行われ、 映像信号がバッファ 1 0 5に転送される。 バッファ 1 0 5内の映像信 号は間引き部 5 0 0に転送される。 間引き部 5 0 0において、 映像信 号は所定間隔で間引かれ補間部 5 0 1へ転送される。
間引き部 5 0 0は、 C C D 1 0 2で撮影される画像が B a y e r型 の単板信号である場合、 2 X 2画素を基本プロック単位として間引き を行う。 例えば、 本実施例では、 1 6 X 1 6画素に対して左上の 2 X 2 画素のみを読み込むものとする。 これにより、 映像信号は ( 1 Z8) X ( 1 / 8 ) のサイズに縮小されることになる。 これにより、 撮影シ ステム 2 0では、 撮像された画像を 1 6x1 6画素で構成される複数の 領域に分割して扱う。 補間部 5 0 1は、 上記間引き部 5 0 0で間引か れた映像信号に対して、 線形補間処理にて RG Bの三板の映像信号を 生成し、 これを撮影状況判定部 1 0 0 8へ転送する。
撮影状況判定部 1 0 0 8では、 補間部 5 0 1からの三板化された信 号から、 肌色, 暗部, 周波数成分などの情報を算出する。 その後、 上 記情報に基づき間引かれた映像信号に対してラベル付けを行い、 その ラベル情報は情報量変更部 1 0 0 7へ転送される。 映像信号が、 間引 き部 5 0 0によって ( 1 Z8) X ( 1 / 8 ) のサイズに縮小された場 合、 元の映像信号に対して 8 X 8のブロック単位、 すなわち 1 6 X 1 6 画素単位の領域毎でラベル付けが行われることになる。
情報量変更部 1 0 0 7は、 撮影状況判定部 1 0 0 8からのラベル付 けされた情報に基づき、' バッファ 1 0 5から転送される映像信号の各 領域毎のビッ ト長を独立に変更する。 各領域のビッ ト長が変更された 映像信号は、 信号処理部 1 0 9へ転送される。 信号処理部 1 0 9は、 制御部 1 0 1 3の制御に基づき公知の色変換処理や強調処理等を行い、 階調変換部 1 1 0へ転送する。
階調変換部 1 1 0は、 制御部 1 0 1 3の制御に基づき、 上記第 1の 実施形態と同様に局所的なヒ ストグラム平坦化等の方法により、 画素 毎あるいは領域毎に階調変換特性を独立に変化させて階調変換処理を 行う。 本実施形態でも、 情報量変更部 1 0 0 7で情報量が変更された 後の映像信号を用いて階調変換特性を算出して、 情報量変更部 1 0 0 7で情報量を変更された後の映像信号に対する階調変換処理を行う。 階調変換処理後の映像信号は圧縮部 1 1 1へ転送される。 圧縮部 1 1 1は制御部 1 0 1 3の制御に基づき圧縮処理等を行い、 出力部 1 1 2 へ転送する。 出力部 1 1 2はメモリカードなどの記録媒体へ映像信号 を記録保存する。
図 7は、 撮影状況判定部 1 0 0 8の構成の一例を示す構成図である。 撮影状況判定部 1 0 0 8は、 特定色検出部 3 0 0、 暗部検出部 3 0 1 および領域推定部 3 0 2からなる。 捕間部 5 0 1は、 特定色検出部 3 0 0および暗部検出部 3 0 1へ接続されており、 特定色検出部 3 0 0 および暗部検出部 3 0 1は、 領域推定部 3 0 2に接続されている。 領 域推定部 3 0 2は情報量変更部 1 0 0 7に接続されている。
制御部 1 0 1 3は、 特定色検出部 3 0 0、 暗部検出部 3 0 1および 領域推定部 3 0 2に双方向に接続されている。 特定色検出部 3 0 0は、 補間部 5 0 1から RGBの三板の映像信号を読み出し、 これを所定の 色空間、 例えば ( 2) 式にあるような YC b C r空間の C b、 C r信 号に変換する。
Cb = -0.1687 R - 0.33126G -I- 0-50000S
Cr = 0.50000^ - 0.41869G - 0.081315 (2)
( 2) 式において、 R、 G、 Bはそれぞれ Rの映像信号、 Gの映像 信号、 Bの映像信号を表す。 算出された色差信号 C b、 C rは、 2 X 2画素単位の基本プロックで平均化される。 基本プロック内の色差信 号 C b、 C rは、 所定の閾値処理により特定色領域のみが抽出される。 ここで、 特定色は例えば、 肌色、 空色、 緑色等を指すものとする。 抽 出された結果は、 間引きされた三板の映像信号に対して、 2 X 2画素 のブロック単位でラベル付けされて領域推定部 3 0 2へ転送される。 ラベルは、 例えば、 肌色領域は 1、 空色領域は 2、 緑色領域は 3、 そ の他の領域は 0が付与される。 次に暗部検出部 3 0 1は、 補間部 5 0
1からの R G Bの三板の映像信号を読み出し、 これを ( 3 ) 式に示さ れる輝度信号 Yへ変換する。
Y = 0.29900i2 + Q.58700G + 0.11400B ( 3 )
( 3 ) 式で算出された輝度信号 Yは、 2 X 2画素単位の基本プロッ クで平均化される。 基本ブロック内の輝度信号 Yは、 所定の閾値より 小さい領域が喑部領域と して抽出される。 この結果は、 間引きされた 三板の映像信号に対して 2 X 2画素のプロック単位でラベル付けされ て領域推定部 3 0 2 へ転送される。 ラベルは例えば暗部領域は 4, そ の他の領域は 0が付与される。
領域推定部 3 0 2は、 特定色検出部 3 0 0および暗部検出部 3 0 1 からの情報に基づき、 ラベル情報を付与する。 ラベル情報は、 例えば、 肌色領域を 1、 空色領域を 2、 緑色領域を 3、 暗部領域を 4、 肌色領 域かつ喑部領域を 5、 空色領域かつ暗部領域を 6、 緑色領域かつ暗部 領域を 7、 その他の領域は 0が付与される。 これらのラベル情報は情 報量変更部 1 0 0 7へ転送される。
なお、 本例では、 映像信号から色情報と輝度情報を求めて、 色情報 と輝度情報を用いて撮影状況を判定したが、 撮影状況の判定方法は、 これに限定される必要はない。 例えば、 色情報あるいは輝度情報のみ で撮影情報を判定してもよい。 また、 映像信号から色情報や輝度情報 以外の他の情報を求めて撮影状況を判定することもできる。 例えば、 図 8に示されるように映像信号から周波数情報を求めて、 周波数情報 を用いて撮影状況を判定するようにすることもできる。
図 8は、 撮影状況判定部 1 0 0 8の構成の別の例を示す構成図であ る。 撮影状況判定部 1 0 0 8は、 周波数算出部 3 0 3および領域推定 部 3 0 4からなる。 補間部 5 0 1は、 周波数算出部 3 0 3に接続され ている。 周波数算出部 3 0 3は領域推定部 3 0 4に接続されており、 領域推定部 3 0 4は情報量変更部 1 0 0 7に接続されている。 制御部 1 0 1 3は、 波数算出部 3 0 3および情報量変更部 1 0 0 7 へ双方向 に接続される。
周波数算出部 3 0 3は、 補間部 5 0 1からの R G Bの三板の映像信 号を所定のブロックサイズ、 例えば 8 X 8画素単位のブロックで読み 出す。 これにより、 撮像システム 2 0では、 撮像された画像を元の画 像における 6 4 X 6 4画素で構成される複数の領域に分割して扱う。 読み出された 8 X 8画素単位のプロックは、 D C T (D i s c r e t e C o s i n e T r a n s f o r m) により周波数成分に変換さ れる。
上記周波数成分から、 各ブロックの高周波成分の量を求め、 ブロッ ク単位で領域推定部 3 0 4へ転送する。 領域推定部 3 0 4は、 高周波 成分の量に比例したラベルを各プロックに対応する領域毎に付与し、 当該ラベルを情報量変更部 1 00 7へ転送する。 領域推定部 3 0 4は、 このように領域毎の高周波成分の量によって各領域の撮影状況を判定 し、 ラベル付けを行う。 なお、 周波数成分への変換は、 D CTに限定 される必要はなく、 F o u r i e r変換や W a v e 1 e t変換などの 任意の変換を使用することができる。
本実施形態では、 このように撮影状況判定部 1 0 0 8で、 各領域が 肌色領域であるか、 空色領域であるか、 緑色領域であるか、 暗部領域 であるか、 肌色領域かつ暗部領域であるか、 空色領域かつ暗部領域で あるか、 緑色領域かつ暗部領域であるか、 その他の領域であるかを判 定し、 または、 各領域の高周波成分の量を求めて、 各領域にラベル付 けを行うことで、 領域毎に撮影状況を判定している。
図 9は、 情報量変更部 1 0 0 7の構成の一例を示す構成図である。 情報量変更部 1 0 0 7は、 領域分割部 4 0 0、 バッファ A 4 0 1、 ビ ッ ト長変更部 4 0 2、 ノ ッファ B 4 0 3力 らなる。 ノ ッファ 1 0 5お よび撮影状況判定部 1 0 0 8は、 領域分割部 4 0 0に接続されており、 領域分割部 4 0 0はバッファ A4 0 1に接続されている。 ノ ッファ A 4 0 1はビッ ト長変更部 4 0 2に接続されており、 ビッ ト長変更部 4 0 2はバッファ B 4 0 3に接続されている。 ノ ッファ B 4 0 3は信号 処理部 1 0 9に接続されている。 制御部 1 0 1 3は、 領域分割部 4 0 0およびビット長変更部 4 0 2へ双方向に接続されている。 領域分割部 4 0 0は、 撮影状況判定部 1 0 0 8から転送されるラベ ル情報に基づき、 バッファ 1 0 5内の映像信号を各領域に分割する。 分割された映像信号はバッファ A 4 0 1に転送される。 ビッ ト長変更 部 4 0 2は、 分割された各領域の映像信号の情報量を各領域毎にビッ トシフトなどによるビット長の変更によって変更する。
例えば、 暗部領域であるとラベル付けされた領域に対応する映像信 号に対しては、 階調変換処理で暗部の階調が広がる場合があるので、 ビッ ト長は長い方が好ましい。 本実施形態の例では、 暗部領域である とラベル付けされた領域に対応する映像信号に対して、 情報量変更部 1 0 0 7は、 映像信号の階調を、 A Z D 1 0 4にて量子化されたとき と同じ 1 4 b i tに維持する。 空色領域であるとラベル付けされた領 域は明るい領域であるので、 情報量変更部 1 0 0 7は、 空色領域であ るとラベル付けされた領域に対応する映像信号の情報量を、 例えば 1 O b i tに変更する。 情報量変更部 1 0 0 7は、 暗部領域でも空色領 域でもない領域であるとラベル付けされた領域に対応する映像信号の 情報量を、 汎用性を考慮して 1 2 b i tに変更する。
高周波成分の量でラベル付けした場合には、 高周波成分が多い場合 にラベル付けされた領域は細かい構造が多く、 明暗差が大きい場合が あるので、 ビッ ト長は長い方が好ましい。 本実施形態の例では、 暗部 領域であるとラベル付けされた領域に対応する映像信号に対して、 情 報量変更部 1 0 0 7は、 映像信号の階調を、 A / D 1 0 4にて量子化 されたときと同じ 1 4 b i tに維持する。 情報量変更部 1 0 0 7は、 高周波成分が少ない場合にラベル付けされた領域であるとラベル付け された領域に対応する映像信号の情報量を、 汎用性を考慮して 1 2 b i tに変更する。
領域毎にビッ ト長が変更された映像信号はバッファ B 4 0 3に転送 され、 バッファ B 4 0 3から信号処理部. 1 0 9に転送される。 本実施形態では、 上記構成により、 撮影状況に応じて各領域に対応 する映像信号のビッ ト長を変更するため、 明暗の差が激しい、 あるい は暗部が多い領域であってもビッ ト長を長くすることにより、 階調変 換処理を行った後でも中間調の情報がある程度保たれ、 高品位な映像 信号が得られる。 また, 明暗の差があまりなく、 暗部が少ない映像信 号の領域に対しては、 階調変換処理よる中間調の情報量の減少はあま りないので、 ビッ ト長を短くすることにより、 不要なビッ ト分の信号 線を用いる必要が無くなり、 消費電力を少なくすることができる。
なお、 上記実施例では、 レンズ系 1 0 0、 絞り 1 0 1、 C C D 1 0 2等の撮影手段を備えた撮影システム 2 0で画像の撮影からの一連の 処理が行われる例を示したが、 このような構成に限定される必要はな い。 例えば、 コンピュータと しての撮影システム 2 0が、 外部にある C C D等の撮影手段で撮影された画像の映像信号を未処理のままの R a wデータとして取得して、 上述の情報量変更部 1 0 0 7、 撮影状況 判定部 1 0 0 8、 信号処理部 1 0 9、 階調変換部 1 1 0、 圧縮部 1 1 1および制御部 1 0 1 3による処理を行う構成も可能である。
図 1 0は、 本発明の第 2の実施形態例における撮影システム 2 0で 行われる処理に関するフローチャートを示す。 手順 S 1にて、 画像の 映像信号を読み込む。 手順 S 2にて、 撮影状況判定部 1 0 0 8によつ て撮影状況を取得する。 次に、 手順 S 1 0にて、 情報量変更部 1 0 0 7によって映像信号の領域を分割し、 さらに手順 S 3にて、 情報量変 更部 1 0 0 7によって各領域に対応する映像信号のビッ ト長を、 各領 域の撮影状況に応じて変更する。 続いて手順 S 4にて、 信号処理部 1 0 9によつて所定の信号処理を行う。
続いて、 手順 S 5にて、 階調変換部 1 1 0によって階調変換処理を 行う。 手順 S 1 1にて制御部 1 0 1 3によって全領域に対して処理が 行われたか否かを判定し、 この判定結果が N Oの場合には、 手順 S 1 0の処理に戻り、 手順 S 1 0、 手順 S 3〜 S 5、 手順 1 1のループ処 理を繰り返す。 全画素に対して処理が行われて、 前記判定結果が YE Sの場合に処理を終了する。
次に、 本発明の第 3の実施形態について説明する。 図 1 1は第 3の 実施形態の構成図、 図 1 2は撮影状況取得部の構成図、 図 1 3は解像 度を算出する方法を説明するための説明図である。 図 1 1の構成図で は、 図 1に示した第 1の実施形態、 図 6に示した第 2の実施形態と同 一の構成には、 同一の名称と符号を割り当てている。 以下、 第 1の実 施形態や第 2の実施形態と異なる点を主に説明する。
レンズ系 1 0 0、 絞り 1 0 1、 C CD 1 0 2を介して撮影された映 像は、 AZD 1 04にてデジタル信号へ変換される。 AZD 1 04か らの信号は、 バッファ 1 0 5、 信号処理部 1 0 9、 階調変換部 20 1 0、 圧縮部 1 1 1を経由してメモリカードなどの出力部 1 1 2に接続 されている。 測光評価部 1 0 6は、 絞り 1 0 1および C C D 1 0 2へ 接続されている。 合焦点検出部 1 1 5は AFモータ 1 0 3へ接続され ている。 バッファ 10 5は測光評価部 106へ接続されている。
撮影状況判定部 2 0 0 8は、 情報量変更部 200 7 aへ接続されて いる。 解像度変更部 200 7 aは捕正係数算出部 20 0 7 bへ接続さ れており、 補正係数算出部 2 00 7 bは補正係数修正部 200 7 cへ 接続されている。 補正係数修正部 200 7 cは階調変換部 20 1 0へ 接続されている。 制御部 20 1 3は、 AZD 1 04、 測光評価部 1 0 6、 合焦点検出部 1 1 5、 信号処理部 1 0 9、 本発明の解像度変更を 行う情報量変更部 2 0 0 7 a , 補正係数算出部 2 0 0 7 b , 捕正係数 修正部 200 7 c、 撮影状況判定部 200 8、 階調変換部 20 1 0、 圧縮部 1 1 1および出力部 1 1 2へ双方向に接続され、 各部の処理を 統括する。 さらに図示しない電源スィッチ、 シャッターボタン、 撮影 時の各種モードの切り換えを行うためのインターフェースを備えた外 部 I ZF部 1 1 4も制御部 2 0 1 3に双方向に接続されている。
制御部 2 0 1 3、 A/D 1 0 4、 測光評価部 1 0 6、 合焦点検出部 1 1 5、 情報量変更部 2 0 0 7 a、 補正係数算出部 2 0 0 7 b、 捕正 係数修正部 2 0 0 7 c、 撮影状況判定部 2 0 0 8、 信号処理部 1 0 9、 階調変換部 2 0 1 0および圧縮部 1 1 1によって行われる各処理は、 撮影システム 3 0に搭載された C P Uが R OM等のメモリに記憶され た映像信号処理プログラムに基づいて、 適宜 RAM等の記憶装置に必 要なデータを読み書きしながら行われる。
図 1 1において信号の流れを説明する。 ユーザが外部 I ZF部 1 1 4を介して撮影モード (例えばオート撮影、 風景撮影、 人物撮影、 接 写撮影、 夜景撮影、 ス トロボ発光撮影など)、 I S O感度、 シャッター 速度、 絞り等の撮影条件を設定すると、 設定された撮影条件を制御部
2 0 1 3で記憶する。 制御部 2 0 1 3は、 設定された撮影条件を撮影 状況判定部 2 0 0 8へ転送する。 その後、 ユーザがシャッターボタン を半押しすることで、 撮影システム 3 0はプリ撮影を行う。 プリ撮影 が行われると、 レンズ系 1 0 0、 絞り 1 0 1、 C C D 1 0 2を介して 撮影された映像信号は A/D 1 0 4にて量子化されて、 映像信号と し てバッファ 1 0 5へ転送される。 ノ ッファ 1 0 5内の映像信号は、 測 光評価部 1 0 6へ転送される。
測光評価部 1 0 6では、 第 1の実施形態と同様に、 絞り 1 0 1や C CD 1 0 2の電子シャッター速度などを制御し、 また、 A E情報を算 出するためのパラメータを算出する。 さらに、 合焦点検出部 1 1 5は、 第 1の実施形態と同様に、 レンズ系 1 0 0を駆動する A Fモータ 1 0 3を制御して、 レンズ系 1 0 0の位置を合焦条件として取得する。
次に、 ユーザがシャッターボタンを全押しにすると、 その情報が外 部 I ZF部 1 1 4を介して制御部 2 0 1 3へ入力され、 撮影システム
3 0は本撮影を行う。 本撮影で撮影された画像の映像信号はプリ撮影 と同様にバッファ 1 0 5へ転送される。 本撮影は、 測光評価部 1 0 6 にて求められた露光条件、 合焦点検出部 1 1 5にて求められた合焦条 件に基づき行われ、 露光条件と合焦条件は制御部 2 0 1 3へ転送され る。
測光評価部 1 0 6は、 本撮影で撮影された画像の映像信号に基づい て、 第 1の実施形態と同様に、 平均輝度レベル a l〜 a 1 3の値を算出 する。 制御部 2 0 1 3は、 撮影条件、 測光評価部 1 0 6で求めた平均 輝度レベル a l〜 a 1 3および露光条件、 合焦点検出部 1 1 5で求め た合焦条件を、 撮影状況判定部 2 0 0 8へ転送する。 バッファ 1 0 5 内の映像信号は、 信号処理部 1 0 9へ転送される。 信号処理部 1 0 9 は、 制御部 2 0 1 3の制御に基づき、 映像信号に対して色変換処理や 強調処理等を行い、 得られた映像信号を情報量変更部 2 0 0 7 a、 撮 影状況取得部 2 0 0 8及び階調変換部 2 0 1 0へ転送する。
撮影状況判定部 2 0 0 8は、 転送された撮影条件、 平均輝度レベル a l〜 a 1 3、 露光条件および合焦条件に基づき撮影状況を判定する。 判定した撮影状況は、 情報量変更部 2 0 0 7 aへ転送される。 情報量 変更部 2 0 0 7 aは、 撮影状況判定部 2 0 0 8からの撮影状況に基づ きバッファ 1 0 5から転送される映像信号の解像度を変更する。 解像 度が変更された映像信号は、 補正係数算出部 2 0 0 7 bへ転送される。 解像度の変更は、 公知の各種の方法で行うことができる。 例えば解像 度の変更を次のように行う。 解像度を 1 に変更する場合、 映像信 号を、 n X nの画素で構成される複数のブロックに分割する。 そして n X nの画素で構成される各ブロックの映像信号に対して、 n X nの口 ーパスフィルタをかけることで、 各ブロックを代表する画素値を算出 する。 以上の処理により、 映像信号が算出した画素値で表される 1 nの解像度の映像信号に変換される。 解像度の変更方法は、 他にも、 バイ リニア法やバイキュービック法で行うこともできる。 また、 画素 の間引きによって解像度を変更することもできる。
補正係数算出部 2 0 0 7 bは、 情報量変更部 2 0 0 7 aで情報量が 変更された後の映像信号を用いて、 階調変換特性を算出する。 階調変 換特性の算出は、 上記第 1実施形態と同様の方法で行い、 解像度が変 更された映像信号の各画素に作用させて階調変換を行うための補正係 数を第 1の補正係数と して算出する。 算出された第 1の補正係数は補 正係数修正部 2 0 0 7 c へ転送される。
ここで算出された第 1の捕正係数は、 情報量変更部 2 0 0 7 aで解像 度が変更された映像信号に対応する補正係数となっている。 そこで、 捕正係数修正部 2 0 0 7 cは、 信号処理部 1 0 9から出力される元の 映像信号 (情報量変更部 2 0 0 7 aで解像度が変更される前の映像信 号) の解像度に対応するよ うに、 第 1の補正係数に対する捕間 (拡 大) を行う。 第 1の補正係数に対する補間 (拡大) によって得た第 2 の補正係数は、 階調変換部 2 0 1 0へ転送される。
階調変換部 2 0 1 0は転送された第 2の捕正係数を用いて、 信号処 理部 1 0 9から出力される元の映像信号に対して階調変換処理を行う。 階調変換処理後の映像信号は圧縮部 1 1 1 へ転送される。 圧縮部 1 1 1は制御部 2 0 1 3の制御に基づき公知の圧縮処理等を行い、 出力部 1 1 2 へ転送する。 出力部 1 1 2はメモリカードなどへ映像信号を記 録保存する。
図 1 2 ( a ) は、 撮影状況判定部 2 0 0 8の構成の一例を示す構成 図である。 撮影状況判定部 2 0 0 8は、 撮影条件取得部 2 0 0、 合焦 位置推定部 2 0 1、 被写体分布推定部 2 0 2および全体推定部 2 0 5 を備える。 信号処理部 1 0 9は被写体分布推定部 2 0 2に接続されて いる。 制御部 2 0 1 3は、 撮影条件取得部 2 0 0、 合焦位置推定部 2 0 1、 被写体分布推定部 2 0 2および全体推定部 2 0 5 へ双方向に接 続されており、 撮影条件取得部 2 0 0、 合焦位置推定部 2 0 1および 被写体分布推定部 2 0 2は全体推定部 2 0 5へ接続されている。 全体 推定部 2 0 5は解像度変更部 2 0 0 7 aへ接続されている。
撮影条件取得部 2 0 0は、 外部 I Z F部 1 1 4にて設定された撮影 条件、 例えば撮影モー ドの種別 (例えばオート撮影、 風景撮影、 人物 撮影、 接写撮影、 夜景撮影、 ス トロボ発光撮影) を示す情報を取得す る。 取得結果は全体推定部 2 0 5に転送される。
合焦位置推定部 2 0 1は、 制御部 2 0 1 3から合焦点検出部 1 1 5 で設定された合焦条件を取得して、 C C D 1 0 2から最もピントが合 つている被写体までの位置を示す合焦位置を、 合焦条件に基づいて算 出する。 そして、 算出した合焦位置を分類した A F情報を得る。 例え ば、 合焦位置を 5 m〜∞ (風景撮影)、 I n!〜 5 m (人物撮影)、 1 m 以下 (接写撮影) などに分類した A F情報を得る。 分類結果は全体推 定部 2 0 4に転送される。
被写体分布推定部 2 0 2は、 測光評価部 1 0 6で A E情報を算出す るためのパラメータとして算出された平均輝度レベル a 1〜a 1 3を 取得して、 第 1の実施形態と同様に、 輝度分布を示す A E情報を算出 する。 被写体分布推定部 2 0 2は、 算出した A E情報を全体推定部 2 0 5に転送する。
全体推定部 2 0 5は、 最初に、 撮影条件取得部 2 0 0で得られた撮 影モードがオート撮影か否かを判断する。 全体推定部 2 0 5は、 撮影 条件取得部 2 0 0で得られた撮影モードがォ一ト撮影であるか否かに 応じて異なる方法で撮影状況を判定する。
全体推定部 2 0 5は、 撮影モードがォ一ト撮影以外であると判定し たときは、 撮影条件取得部 2 0 0で得られた情報に基づいて撮影状況 の判定を行う。 すなわち、 ユーザにより設定された撮影モードが撮影 状況であると判定する。 この判定結果は情報量変更部 2 0 0 7 aへ転 送される。 なお、 本実施形態の撮影システム 3 0においても、 第 1の 実施形態と同様に、 撮影モードとして、 オート撮影以外に、 風景撮影、 人物撮影、 接写撮影、 夜景撮影、 ス トロボ発光撮影などの設定を備え ているが、 撮影モードは、 これらに限定されるものではない。
情報量変更部 2 0 0 7 aは、 処理時間と画像の高画質化とのバラン スを考慮して、 撮影モードの種別に応じて最適と考えられる解像度に 映像信号の解像度を変更する。 これにより映像信号の情報量を変更す る。 以下に一例をあげる。 風景撮影の場合、 細部の描写が重要となる ので、 情報量変更部 2 0 0 7 aは、 もとの映像信号と比べて解像度を あまり変化させないようにする。 例えば、 画像サイズを 1 4程度に 変更する。 人物撮影の場合、 人物の顔の描写が重要となる。 通常の人 物撮影の場合、 画像に対する顔の占める割合は比較的大きいので、 情 報量変更部 2 0 0 7 aは画像サイズを例えば 1 Z 1 0程度に変更する。 接写撮影の場合、 汎用性を考慮して、 情報量変更部 2 0 0 7 aは画像 サイズを例えば 1 / 4程度に変更する。 夜景撮影ゃス トロボ撮影の場 合、 情報量を多く維持したいため、 解像度をあまり変化させないよう にする。 例えば、 画像サイズを 1ノ 4程度に変更する。
次に、 撮影条件取得部 2 0 0で得られた撮影モードがォ一ト撮影の 場合について説明する。 全体推定部 2 0 5は、 撮影条件取得部 2 0 0 で得られた撮影モードがォ一ト撮影であると判定したとき、 合焦位置 推定部 2 0 1からの A F情報と、 被写体分布推定部 2 0 2からの A E 情報に基づいて、 撮影状況の判定を行う。
全体推定部 2 0 5は、 第 1の実施形態と同様の方法で、 撮影状況を 1人の人物撮影、 複数人の人物撮影などと判断する。 情報量変更部 2 0 0 7 aは、 処理時間と画像の高画質化とのバランスを考慮して、 撮 影状況に応じて最適と考えられる解像度に映像信号の解像度を変更す る。 以下に一例をあげる。 1人の人物撮影の場合は、 顔の占める割合 が比較的大きいので、 情報量変更部 2 0 0 7 aは画像サイズを例えば ΐ Ζ ΐ ο程度に変更する。 一方、 複数人の人物撮影の場合は、 顔が小 さい場合が多いので、 情報量変更部 2 0 0 7 aは画像サイズを例えば 1 Z 4程度に変更する。 また、 A F情報が 1 m〜 5 m以外の撮影状況 の場合は、 情報量変更部 2 0 0 7 aは、 汎用性を考慮して画像サイズ を例えば 1 4程度に変更する。
なお、 図 1 2 ( a ) の例では、 撮影状況を判定するために映像信号 中から求められる A F情報と A E情報の組み合わせを用いたが、 これ に限定される必要はない。 例えば、 合焦位置や A E情報をパラメータ とした予め設定された計算情報で計算を行い、 その計算結果を用いて、 撮影状況を判定する構成とすることも可能である。 また、 映像信号か ら色情報や輝度情報以外の他の情報を求めて撮影状況を判定すること もできる。 例えば、 図 1 2 ( b ) の構成図に示されるように周波数情 報を用いてもよい。
図 1 2 ( b ) は、 撮影状況判定部 2 0 0 8の構成の他の一例を示す もので、 周波数算出部 3 0 3を備える。 信号処理部 1 0 9は周波数算 出部 3 0 3へ接続されている。 制御部 2 0 1 3は、 周波数算出部 3 0 3へ双方向に接続されており、 周波数算出部 3 0 3は情報量変更部 2 0 0 7 aへ接続されている。
周波数算出部 3 0 3は、 信号処理部 1 0 9からの映像信号を所定の 領域 (プロック) サイズ、 例えば 8 X 8画素単位で読み出し、 第 2の 実施形態と同様に、 読み出されたプロックを周波数成分に変換する。 周波数算出部 3 0 3は、 変換した周波数成分を情報量変更部 2 0 0 7 aへ転送する。 周波数算出部 3 0 3は、 このようにブロック毎の周波 成分を求めることで、 各プロックの撮影状況を周波数成分で判定して いる。
情報量変更部 2 0 0 7 aは所定の規則にしたがって映像信号の解像 度を変更することで、 映像信号のデータ量を変更する。 図 1 3は、 情 報量変更部 2 0 0 7 aにおいて映像信号の解像度を変更する際の規則 を定める説明図である。 図 1 3の横軸が周波数成分、 縦軸が変更後の 解像度を示す。 図 1 3のように画像の周波数成分の最大値が f mの場 合、 この値に応じて画像の解像度 (縮小率) を設定する。 この場合、 画像の縮小率 Rを (4 ) 式のように設定する。
R = f m/ f N (4)
(ここで、 f Nは画像のナイキスト周波数を表す。 ) 周波数成分の最大値 f mの代わりに、 図 1 3に示したように、 ある 所定の面積における周波数 f , mを用いでもよい。 なお、 周波数成分 への変換は D C Tに限定される必要はなく、 公知の F o u r i e r変 換ゃ W a v e 1 e t変換などの任意の変換を使用することができる。
このように、 図 1 2 ( b ) の例で.は、 8 X 8画素単位で構成される 領域毎の周波数成分から、 各領域の撮影状況を判断している。
本発明の第 3の実施形態における撮影システム 3 0で行われる処理 は以下の手順で行われる。 まず、 画像の映像信号を読み込む。 続いて、 撮影状況判定部 2 0 0 8によって撮影状況を取得する。 次に、 信号処 理部 1 0 9によって、 所定の信号処理を行う。 次に、 情報量変更部 2 0 0 7 aによって映像信号の解像度を変更する。 次に、 階調変換部 2 0 1 0によって全画素又は全領域に対して階調変換処理を行う。
以上説明した第 1の実施形態、 第 2の実施形態、 第 3の実施形態で は、 情報量変更部 1 0 7や、 情報量変更部 1 0 0 7、 および情報量変 更部 2 0 0 7 aによる判断処理を必ず行う例を示した。 しかし、 撮影 状況によっては、 以下の ( a )、 (b )、 ( c ) で説明するように、 情報 量変更部 1 0 7や、 情報量変更部 1 0 0 7、 および情報量変更部 2 0 0 7 aによる判断処理を行わずに、 予め定められた階調変換特性によ つて階調変換部 1 1 0、 階調変換部 2 0 1 0による処理を行うように することもできる。 または、 ユーザからの指示によっては、 以下の
( d ) で説明するように、 情報量変更部 1 0 7や、 情報量変更部 1 0 0 7、 および情報量変更部 2 0 0 7 aによる判断処理を行わずに、 予 め定められた階調変換特性によって階調変換部 1 1 0、 階調変換部 2 0 1 0による処理を行うようにすることもできる。 これにより、 所定 の撮影状況の場合や、 ユーザの指示によっては、 情報量を変更せずに 高品質な映像信号を得ることができるとともに、 処理速度を向上させ ることができる。
( a ) 第 1の実施形態では、 制御部 1 1 3が撮影状況判定部 1 0 8 の判定結果を受け、 撮影状況が所定の撮影状況であるか否か判断する。 そして、 制御部 1 1 3は、 撮影状況が所定の撮影状況であると判断し た場合に、 バッファ 1 0 5からの映像信号に対して情報量変更部 1 0 7による処理を行わないで、 バッファ 1 0 5からの映像信号を信号処 理部 1 0 9へ入力するように制御する。
( b ) 第 2の実施形態では、 制御部 1 0 1 3が撮影状況判定部 1 0 0 8の判定結果を受け、 撮影状況が所定の撮影状況であるか否か判断 する。 そして、 制御部 1 0 1 3は、 撮影状況が所定の撮影状況である と判断した場合に、 バッファ 1 0 5からの映像信号に対して情報量変 更部 1 0 0 7による処理を行わないで、 バッファ 1 0 5からの映像信 号を信号処理部 1 0 0 9へ入力するように制御する。
( c ) 第 3の実施形態では、 制御部 2 0 1 3が撮影状況判定部 2 0 0 8の判定結果を受け、 撮影状況が所定の撮影状況であるか否か判断 する。 そして、 制御部 2 0 1 3は、 撮影状況が所定の撮影状況である と判断した場合に、 情報量変更部 2 0 0 7 a , 補正係数算出部 2 0 0 7 b、 補正係数修正部 2 0 0 7 cによる処理を行わないで、 階調変換 部 2 0 1 0が予め定められた階調変換特性を用いて信号処理部 1 0 9 からの映像信号に対する階調変換を行うように制御する。 ( d ) 制御部 1 1 3、 制御部 1 01 3、 制御部 20 1 3は、 外部 I ZF部 1 14を介して本撮影の前にユーザからの指示を受ける。 そし て、 情報量を変更しない旨のユーザからの指示を受けた場合には、 撮 影状況判定部 1 08、 1008、 2008による処理、 情報量変更部
107や情報量変更部 1007、 および情報量変更部 2007 a、 捕 正係数算出部 2007 b、 補正係数修正部 2007 cによる処理を行 わないように、 制御部 1 1 3、 制御部 1 0 1 3、 制御部 201 3で制 御する。 そして、 第 1の実施形態や、 第 2の実施形態の場合は、 バッ ファ 105からの映像信号を信号処理部 1 09へ入力するように、 制 御部 1 1 3、 制御部 101 3で制御する。 第 3の実施形態の場合は、 階調変換部 20 1 0が予め定められた階調変換特性を用いて信号処理 部 1 09からの映像信号に対する階調変換を行うように、 制御部 20
13で制御する。
以上に説明したように、 第 1の実施形態、 第 2の実施形態、 第 3の 実施形態では、 上記構成により、 撮影状況に応じて映像信号のビッ ト 長又は解像度を変更し、 ビッ ト長又は解像度が変更された映像信号を 用いて得られる階調変換特性に応じて階調変換処理を行っているため、 撮影状況に応じた高品位な画像を、 撮影状況に応じた適切な処理速度 で行うことが可能となる。
産業上の利用可能性
以上説明したように、 本発明によれば、 撮影状況に応じて、 高品位 な映像信号を効率的に生成することのできる撮影システム、 および映 像信号処理プログラムを提供することができる。

Claims

請 求 の 範 囲
1 . 撮影手段で撮影された画像の映像信号に対して階調変換処理を 行う撮影システムにおいて、
前記画像の撮影状況を判定する撮影状況判定手段と、 該撮影状況判 定手段で判定された撮影状況に応じて前記映像信号の情報量を変更す る情報量変更手段と、 該情報量変更手段によって情報量が変更された 映像信号を用いて得られる階調変換特性に応じて階調変換処理を行う 階調変換手段と、 を有することを特徴とする撮影システム。
2 . 前記画像を撮影する際の撮影状況の設定をユーザから受け付け る撮影状況受付手段をさらに備え、 前記撮影状況判定手段は、 前記撮 影状況受付手段で受け付けた撮影状況によって前記画像の撮影状況を 判定することを特徴とする請求項 1に記載の撮影システム。
3 . 前記撮影状況判定手段は、 前記映像信号から撮影状況を判定す ることを特徴とする請求項 1に記載の撮影システム。
4 . 前記撮影状況判定手段は、 撮影時の合焦位置を算出する合焦位 置算出手段と、 撮影された映像信号の輝度分布を算出する輝度分布算 出手段と、 を有し、 前記合焦位置算出手段で算出した合焦位置と、 前 記輝度分布算出手段で算出した輝度分布とに基づいて撮影状況の判定 を行うことを特徴とする請求項 1に記載の撮影システム。
5 . 前記撮影状況判定手段は、 撮影時の合焦位置を算出する合焦位 置算出手段と、 撮影された映像信号の輝度分布を算出する輝度分布算 出手段と、 を有し、 前記合焦位置算出手段で算出した合焦位置による 分類分けと、 前記輝度分布算出手段で算出した輝度分布による分類分 けとの組み合わせに基づいて、 撮影状況の判定を行うことを特徴とす る請求項.1に記載の撮影システム。
6 . 前記撮影状況判定手段は、 撮影時のシャ ッター速度および撮影 された画像の輝度を所定の閾値と比較した結果に基づいて撮影状況を 判定することを特徴とする請求項 1に記載の撮影システム。
7 . 前記撮影状況判定手段は、 撮影時のシャッター速度および撮影 された画像の輝度と所定の閾値とが所定の関係にあるか否かに基づい て撮影状況を判定する第一判定部と、 前記第一判定部での判定の後に、 撮影時の合焦位置および撮影された画像の輝度分布に基づいて撮影状 況の判定を行う第二判定部と、 を有し、 前記第一判定部および前記第 二判定部によって撮影状況の判定を行うことを特徴とする請求項 1に 記載の撮影システム。
8 . 前記情報量変更手段は、 前記映像信号の解像度を変更すること で前記映像信号の情報量を変更することを特徴とする請求項 1に記載 の撮影システム。
9 . 前記情報量変更手段によって解像度が変更された後の映像信号 を用いて得られる階調変換特性から階調変換を行うための第 1 の補正 係数を算出し、 該算出した第 1の補正係数を前記解像度が変更される 前の映像信号の解像度に対応する第 2の補正係数に変更する階調変換 特性算出手段を備え、 前記階調変換手段は、 前記第 2の補正係数を用 いて階調変換を行うことを特徴とする請求項 8に記載の撮像システム。
1 0 . 前記情報量変更手段は、 前記映像信号のビッ ト長を変更する ことで前記映像信号の情報量を変更することを特徴とする請求項 1に 記載の撮影システム。
1 1 . 前記撮影状況判定手段は、 前記画像を構成する複数の領域毎 に撮影状況を判定し、 前記情報量変更手段は、 前記領域にそれぞれ対 応する映像信号の情報量を当該領域毎の撮影状況に応じて変更するこ とを特徴とする請求項 1に記載の撮影システム。
1 2 . 前記撮影状況判定手段は、 前記映像信号に基づいて求める色 情報または前記映像信号に基づいて求める輝度情報のうちの少なく と もいずれか一方によって撮影状況を判定することを特徴とする請求項 1 1に記載の撮影システム。
1 3 . 前記撮影状況判定手段は、 前記領域における空間周波数の高 周波成分の量に応じて当該領域毎の撮影状況を判定することを特徴と する請求項 1 1に記載の撮影システム。
1 4 . 前記情報量変更手段は、 前記複数の領域にそれぞれ対応する 映像信号のビッ ト長を前記領域毎の撮影状況に応じて当該領域毎に変 更することで、 前記映像信号の情報量を変更することを特徴とする請 求項 1 1に記載の撮影システム。
1 5 . 前記情報量変更手段による処理を行わないように制御する情 報量変更処理回避手段を備えたことを特徴とする請求項 1に記載の撮 影システム。
1 6 . コンピュータに、 画像の映像信号を読み込む手順と、 前記画像 の撮影状況を判定する手順と、 前記判定された撮影状況に応じて前記 映像信号の情報量を変更する手順と、 前記情報量が変更された映像信 号を用いて得られる階調変換特性に応じて階調変換処理を行う手順とを 実行させることを特徴とする映像信号処理プログラム。
1 7 . コンピュータに、 画像の映像信号を読み込む手順と、 前記画像 を構成する複数の領域毎に撮影状況を判定する手順と、 前記領域毎に それぞれ対応する映像信号の情報量を当該領域毎の撮影状況に応じて 変更する手順と、 前記情報量が変更された映像信号を用いて得られる 階調変換特性に応じて階調変換処理を行う手順とを実行させることを特 徴とする映像信号処理プログラム。
PCT/JP2006/307409 2005-04-12 2006-03-31 撮影システム、および映像信号処理プログラム WO2006109703A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP06731357A EP1871095A4 (en) 2005-04-12 2006-03-31 PICTURE SIZING SYSTEM AND PICTURE SIGNAL PROCESSING PROGRAM
US11/918,111 US20090086059A1 (en) 2005-04-12 2006-03-31 Image Taking System, and Image Signal Processing Program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-114188 2005-04-12
JP2005114188A JP2006295581A (ja) 2005-04-12 2005-04-12 撮影システム、および映像信号処理プログラム

Publications (1)

Publication Number Publication Date
WO2006109703A1 true WO2006109703A1 (ja) 2006-10-19

Family

ID=37086978

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/307409 WO2006109703A1 (ja) 2005-04-12 2006-03-31 撮影システム、および映像信号処理プログラム

Country Status (5)

Country Link
US (1) US20090086059A1 (ja)
EP (1) EP1871095A4 (ja)
JP (1) JP2006295581A (ja)
CN (1) CN101160954A (ja)
WO (1) WO2006109703A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4628937B2 (ja) 2005-12-01 2011-02-09 オリンパス株式会社 カメラシステム
JP5375401B2 (ja) * 2009-07-22 2013-12-25 カシオ計算機株式会社 画像処理装置及び方法
WO2013067335A1 (en) 2011-11-02 2013-05-10 Wagner Steven D Actively stabilized payload support apparatus and methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285700A (ja) * 2000-03-29 2001-10-12 Nec Corp 撮像装置
JP2004179930A (ja) * 2002-11-27 2004-06-24 Matsushita Electric Ind Co Ltd 画像処理装置
JP2004242068A (ja) * 2003-02-06 2004-08-26 Konica Minolta Holdings Inc 画像処理方法、画像処理装置及び画像処理プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5107293A (en) * 1988-09-09 1992-04-21 Canon Kabushiki Kaisha Automatic image stabilization device
US5313308A (en) * 1989-08-31 1994-05-17 Canon Kabushiki Kaisha Image forming apparatus which changes its tone reproducing property in accordance with ambient conditions
JP3728744B2 (ja) * 1998-09-18 2005-12-21 富士写真フイルム株式会社 プリント方法及び装置
US6836288B1 (en) * 1999-02-09 2004-12-28 Linvatec Corporation Automatic exposure control system and method
DE19908435A1 (de) * 1999-02-26 2000-09-07 Meta Motoren Energietech Verfahren und Vorrichtung zur Impulsaufladung einer Kolbenbrennkraftmaschine
JP3465226B2 (ja) * 1999-10-18 2003-11-10 学校法人慶應義塾 画像濃度変換処理方法
US6989859B2 (en) * 2000-12-22 2006-01-24 Eastman Kodak Company Camera having user interface ambient sensor viewer adaptation compensation and method
JP4048104B2 (ja) * 2002-11-21 2008-02-13 富士フイルム株式会社 撮像装置及び撮像方法
US20040151376A1 (en) * 2003-02-05 2004-08-05 Konica Minolta Holdings, Inc. Image processing method, image processing apparatus and image processing program
JP3838222B2 (ja) * 2003-05-30 2006-10-25 コニカミノルタフォトイメージング株式会社 撮像装置
JP4438047B2 (ja) * 2003-07-28 2010-03-24 キヤノン株式会社 焦点調節装置、撮像装置、およびその制御方法
JP4285290B2 (ja) * 2004-03-22 2009-06-24 富士ゼロックス株式会社 画像処理装置、画像処理方法、およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001285700A (ja) * 2000-03-29 2001-10-12 Nec Corp 撮像装置
JP2004179930A (ja) * 2002-11-27 2004-06-24 Matsushita Electric Ind Co Ltd 画像処理装置
JP2004242068A (ja) * 2003-02-06 2004-08-26 Konica Minolta Holdings Inc 画像処理方法、画像処理装置及び画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1871095A4 *

Also Published As

Publication number Publication date
US20090086059A1 (en) 2009-04-02
EP1871095A4 (en) 2009-06-24
JP2006295581A (ja) 2006-10-26
CN101160954A (zh) 2008-04-09
EP1871095A1 (en) 2007-12-26

Similar Documents

Publication Publication Date Title
US10021313B1 (en) Image adjustment techniques for multiple-frame images
US8488015B2 (en) Camera using preview image to select exposure
JP3762725B2 (ja) 撮像システムおよび画像処理プログラム
US8355059B2 (en) Image capturing apparatus and control method thereof
US8724898B2 (en) Signal processor and storage medium storing signal processing program
WO2005041560A1 (ja) 信号処理システム、信号処理方法、信号処理プログラム
WO2005104531A1 (ja) 映像信号処理装置と映像信号処理プログラムおよび映像信号記録媒体
JP5887303B2 (ja) 画像信号処理装置,撮像装置および画像処理プログラム
JP2008104009A (ja) 撮像装置および撮像方法
JP5468930B2 (ja) 画像処理装置及び画像処理プログラム
JP2007329619A (ja) 映像信号処理装置と映像信号処理方法、および映像信号処理プログラム。
US20020196483A1 (en) Digital camera
WO2006109702A1 (ja) 画像処理装置と撮像装置、および画像処理プログラム
JPH1169372A (ja) 画像の明度調整方法およびその方法に使用するデジタルカメラ並びに画像処理装置
WO2006109703A1 (ja) 撮影システム、および映像信号処理プログラム
JP2007013270A (ja) 撮像装置
JP4765240B2 (ja) 圧縮符号化方法,圧縮符号化プログラムを記録した記録媒体,および圧縮符号化方法を実施する電子カメラ
JP2017126920A (ja) 撮像装置
JP2009022044A (ja) 画像処理装置及び画像処理プログラム
JP2002247410A (ja) 画像処理装置、画像処理方法および記録媒体
JP5351663B2 (ja) 撮像装置およびその制御方法
WO2022158318A1 (ja) 撮像装置、撮像装置の制御方法および制御プログラム
JP3541812B2 (ja) デジタルカメラ
JP2003046778A (ja) 画像処理システム
JP3904257B2 (ja) 撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680011947.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006731357

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11918111

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

WWP Wipo information: published in national office

Ref document number: 2006731357

Country of ref document: EP