WO2022172639A1 - 撮像装置、撮像方法、プログラム - Google Patents

撮像装置、撮像方法、プログラム Download PDF

Info

Publication number
WO2022172639A1
WO2022172639A1 PCT/JP2021/048812 JP2021048812W WO2022172639A1 WO 2022172639 A1 WO2022172639 A1 WO 2022172639A1 JP 2021048812 W JP2021048812 W JP 2021048812W WO 2022172639 A1 WO2022172639 A1 WO 2022172639A1
Authority
WO
WIPO (PCT)
Prior art keywords
flicker
timing
exposure
imaging
image
Prior art date
Application number
PCT/JP2021/048812
Other languages
English (en)
French (fr)
Inventor
智子 鈴木
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2022581237A priority Critical patent/JPWO2022172639A1/ja
Publication of WO2022172639A1 publication Critical patent/WO2022172639A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene

Definitions

  • This technology relates to an imaging device, an imaging method, and a program, and particularly to technology for reducing the effects of flicker.
  • the captured image may be affected by flicker.
  • flicker In imaging devices (cameras), the captured image may be affected by flicker.
  • fluorescent lamps which are widely used as indoor light sources, and LEDs (Light Emitting Diodes), which are becoming increasingly popular in recent years, cause so-called flicker, in which illumination light periodically flickers under the influence of commercial power supply frequencies. Therefore, in an image captured in such an illumination environment, deterioration in image quality such as color unevenness due to such flicker occurs.
  • Japanese Unexamined Patent Application Publication No. 2002-200001 discloses a technique for performing so-called flickerless imaging in which the influence of flicker is reduced by detecting the cycle and peak timing of flicker components and performing control to synchronize the timing of exposure with the peak timing. ing.
  • flickerless imaging is performed in a combination in which the curtain speed is sufficiently shorter than the flicker cycle.
  • the flicker cycle of the light source is 100 Hz or 120 Hz
  • the shutter speed is about 1 to 4 ms due to the mechanical shutter. This is because if the curtain speed is not sufficiently shorter than the flicker period, flicker remains in the frame of the captured image even if flickerless imaging is performed.
  • the present disclosure proposes a technique for avoiding the influence of flicker without limiting to, for example, the condition that the curtain speed is sufficiently shorter than the period of flicker.
  • An imaging apparatus includes a control unit that performs flickerless imaging exposure timing control for synchronizing specific timing within an exposure period with the peak timing based on the period of the detected flicker component and the peak timing of the flicker component. and a flicker correction unit that performs flicker correction to reduce intra-frame flicker of the image data based on the detection result of the phase relationship between each line of the image data obtained by the flickerless imaging and the flicker light source.
  • flickerless imaging a case is assumed in which a specific timing within an exposure period is synchronized with the peak timing of flicker components. To correct a flicker component that occurs even when such flickerless imaging is performed.
  • the flicker correction unit calculates a flicker correction value for each line based on the phase of the flicker for each line and the amplitude of the flicker for each line as the flicker correction. Then, the image data may be corrected line by line. By performing flicker correction for each line, correction suitable for the relationship between the exposure timing of each line and the flicker period is performed.
  • the flicker correction unit may obtain the phase of flicker for each line and the amplitude of flicker for each line from flicker detection results for flickerless imaging. .
  • Information on the phase and amplitude of flicker for each line obtained from the results of flicker detection performed for flickerless imaging is used for flicker correction.
  • the flicker correction unit performs the flicker correction at least when the curtain speed in the imaging operation is longer than a predetermined value based on the period of flicker. Flickerless imaging is most effective when the curtain speed is sufficiently shorter than the flicker period. Conversely, if the condition that the curtain speed is sufficiently shorter than the flicker period is not met, the effect of flickerless imaging is small. In that case, flicker correction is performed.
  • control unit controls whether or not to perform the flicker correction by the flicker correction unit based on the relationship between the flicker period and the curtain speed.
  • the control unit acquires information on the curtain speed and the flicker cycle, and determines whether or not to execute flicker correction based on whether the relationship between them satisfies a predetermined relationship condition.
  • the control unit uses information about a flicker period obtained as a flicker detection result for the flickerless imaging to determine whether or not to perform the flicker correction. .
  • Information on the flicker period obtained from the result of flicker detection performed for flickerless imaging is used for execution determination of flicker correction.
  • the control unit determines whether or not the flicker correction is to be performed based on the information on the curtain speed based on the image size or the shutter method, which is selected as the imaging operation at the time of determination processing. It can be considered to be used for That is, it corresponds to the fact that the curtain speed varies depending on the image size and the shutter method.
  • the specific timing may be the timing of the center of gravity of exposure.
  • the timing of the exposure center of gravity is the timing at the approximate center of the exposure period of the approximate center line in the vertical direction of the image sensor.
  • control unit does not perform exposure timing control for the flickerless imaging when a deviation amount between the specific timing and the peak timing is within a set margin. can be considered.
  • control for synchronization is not performed if the specific timing is shifted within a margin.
  • the controller controls that the shift amount between the specific timing and the peak timing is within a set margin.
  • the specific timing of exposure is not necessarily adjusted to the flicker peak, but the amount of shift is taken into consideration and correction is applied.
  • the imaging device performs flickerless imaging exposure timing control for synchronizing specific timing within an exposure period with the peak timing based on the period of the detected flicker component and the peak timing of the flicker component.
  • flicker correction is performed to reduce intra-frame flicker of the image data based on the detection result of the phase relationship between each line of the image data obtained by the flickerless imaging and the flicker light source. This allows flicker correction to be performed during flickerless imaging.
  • a program according to the present technology is a program that causes an arithmetic processing device to execute the flicker correction process described above. This makes it possible to easily realize the imaging apparatus of the present disclosure.
  • FIG. 1 is a block diagram of an imaging device according to an embodiment of the present technology
  • FIG. FIG. 10 is an explanatory diagram of the flow of processing during recording standby and during capture
  • 3 is a block diagram of the essential parts of the digital signal processing unit of the embodiment
  • FIG. FIG. 4 is an explanatory diagram of the phase, period and amplitude of flicker
  • FIG. 4 is an explanatory diagram of flickerless imaging
  • 4 is a block diagram of a flicker detection/correction unit according to the embodiment
  • FIG. FIG. 10 is an explanatory diagram of a case where the flicker-less imaging is also affected by flicker
  • FIG. 4 is an explanatory diagram of a relationship between a flicker cycle and still image capturing parameters according to the embodiment; 9 is a flow chart of setting processing for execution/non-execution of flicker correction according to the embodiment.
  • FIG. 11 is an explanatory diagram of a case where a live view image becomes non-smooth; 4A and 4B are explanatory diagrams of exposure and live view image display according to the embodiment;
  • FIG. 4 is a flow chart of flickerless control according to the margin of the embodiment;
  • FIG. 5 is an explanatory diagram of an example of margin setting according to the embodiment;
  • Image is a term that includes still images and moving images.
  • a “line” refers to a line of pixels arranged in the horizontal direction in one frame image as a still image or moving image.
  • Capture exposure refers to an exposure operation for image recording that is performed in response to a user (photographer) operating a release button (shutter button) of an imaging device.
  • a “capture image” is an image based on image signals obtained by capture exposure. A captured image is recorded on a recording medium as a still image, a plurality of still images by continuous shooting, one frame of a moving image, or the like.
  • Inter-frame exposure is exposure performed during a period between capture exposures during continuous shooting, and is particularly exposure for generating live view images. Therefore, readout from the imaging element can be readout of a smaller number of pixels than capture exposure (exposure for low-resolution images).
  • a “live view image” or “LV image” refers to an image captured by an imaging device and displayed on a display unit in a state that the user can view the image. That is, it is an image showing the scene on the subject side in real time. For example, before a still image is released, a low-resolution image is captured in the same manner as in inter-frame exposure, and image data for each frame of a live view image is generated.
  • a live view image for continuous shooting is generated from both capture exposure and interframe exposure. In general, captured images are generated and recorded as high-resolution images that reflect the number of pixels of the image sensor, but live view images It is generated and displayed as a resolution image.
  • FIG. 1 shows a configuration example of an imaging device 1 according to an embodiment.
  • an image pickup device 12 configured by, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor via an image pickup optical system 11, and is photoelectrically converted by the image pickup device 12. provides an analog image signal.
  • CMOS Complementary Metal Oxide Semiconductor
  • a CMOS sensor that operates in a rolling shutter system is assumed.
  • the imaging optical system 11 is provided with various lenses such as a zoom lens, a focus lens, and a condenser lens, an aperture mechanism, a drive mechanism for the zoom lens, and a drive mechanism for the focus lens.
  • a mechanical shutter eg a focal plane shutter may also be provided.
  • the imaging device 12 has a plurality of pixels having a photodiode (photogate), a transfer gate (shutter transistor), a switching transistor (address transistor), an amplification transistor, a reset transistor (reset gate), etc. on a CMOS substrate, for example. are arranged in a pattern, and a vertical scanning circuit, a horizontal scanning circuit, and an image signal output circuit are formed.
  • the image pickup device 12 may be of either a primary color system or a complementary color system, and the analog image signal obtained from the image pickup device 12 is a primary color signal of RGB or a color signal of a complementary color system.
  • the imaging device 12 may be configured without a color filter so that the analog image signal obtained from the imaging device 12 is a black-and-white image signal.
  • An analog image signal from the imaging device 12 is sample-held for each color signal in an analog signal processing unit 13 configured as an IC (Integrated circuit), and amplitude is controlled by AGC (Automatic Gain Control). It is adjusted and converted into a digital image signal by A/D (Analog to Digital) conversion.
  • AGC Automatic Gain Control
  • a digital image signal (hereinafter referred to as image data) from the analog signal processing unit 13 is input to the temporary storage unit 26 .
  • image data A digital image signal (hereinafter referred to as image data) from the analog signal processing unit 13 is input to the temporary storage unit 26 .
  • the imaging device 12 and the analog signal processing section 13, or further the temporary storage section 26 may be integrated.
  • a frame memory, which will be described below, may be provided in the stacked imaging device as the temporary storage unit 26 .
  • the temporary storage section 26 includes two frame memories 26A and 26B in this example.
  • the image data from the analog signal processing section 13 are alternately stored in the frame memory 26A and the frame memory 26B. That is, the temporary storage unit 26 stores two consecutively captured image frames.
  • the image data stored in the temporary storage section 26 are sequentially output to the digital signal processing section 20 from the preceding stored frame. That is, from the frame memory 26A and the frame memory 26B, the images are alternately output to the digital signal processing section 20 in accordance with the imaging order.
  • the digital signal processing unit 20 is configured as an image processing processor by an arithmetic processing device such as a DSP (Digital Signal Processor).
  • the digital signal processing unit 20 performs various signal processing on the input image data. For example, as a camera process, the digital signal processing unit 20 performs preprocessing, synchronization processing, YC generation processing, and the like. Further, in the digital signal processing unit 20, the image data that has been subjected to these various processes is subjected to file formation processing such as compression encoding for recording and communication, formatting, generation and addition of metadata, and the like, and then recorded. Generate files for use and communication.
  • file formation processing such as compression encoding for recording and communication, formatting, generation and addition of metadata, and the like
  • an image file in a format such as JPEG, TIFF (Tagged Image File Format), or GIF (Graphics Interchange Format) is generated as a still image file. It is also conceivable to generate an image file in the MP4 format, which is used for recording MPEG-4 compliant moving images and audio. It is also conceivable to generate an image file as raw (RAW) image data.
  • the digital signal processing unit 20 also performs resolution conversion processing on image data that has been subjected to various types of signal processing, and generates low-resolution image data for live view display, for example.
  • a flicker detection/correction unit 25 is provided in the digital signal processing unit 20 .
  • the flicker detection/correction unit 25 detects the period and peak timing of flicker and transmits the information to the camera control unit 21 so that flickerless imaging can be performed.
  • the flickerless imaging which will be described in detail later, is an imaging operation capable of reducing the influence of flicker caused by a flickering light source on image quality (degradation of image quality).
  • the flicker detection/correction unit 25 also performs flicker correction processing for flicker reduction on image data obtained by flickerless imaging. The details of flicker correction will also be described later.
  • the memory unit 27 indicates a buffer memory for image data.
  • the image data processed by the digital signal processing unit 20 is temporarily stored in the memory unit 27 and transferred to the display unit 15, the recording control unit 14, or the communication unit 16 at a predetermined timing.
  • the recording control unit 14 performs recording and reproduction on a recording medium such as a non-volatile memory.
  • the recording control unit 14 performs processing for recording image files such as moving image data and still image data on a recording medium, for example.
  • a recording control unit 14 may be configured as a flash memory built in the imaging device 1 and its writing/reading circuit.
  • the recording control unit 14 may be configured by a card recording/reproducing unit that performs recording/reproducing access to a recording medium detachable from the imaging apparatus 1, such as a memory card (portable flash memory, etc.).
  • the recording control unit 14 may be implemented as an HDD (Hard Disk Drive) or the like as a form incorporated in the imaging device 1 .
  • HDD Hard Disk Drive
  • the display unit 15 is a display unit that provides various displays to the photographer. For example, display by a liquid crystal panel (LCD: Liquid Crystal Display) or an organic EL (Electro-Luminescence) display arranged in the housing of the imaging device 1. A panel or viewfinder.
  • the display unit 15 executes various displays on the display screen based on instructions from the camera control unit 21 .
  • the display unit 15 displays a reproduced image of image data read from the recording medium by the recording control unit 14 .
  • the display unit 15 is supplied with the image data of the picked-up image whose resolution has been converted for display by the digital signal processing unit 20, and performs display corresponding thereto, for example, display of a live view image.
  • the display unit 15 displays various operation menus, icons, messages, etc., that is, GUI (Graphical User Interface) on the screen based on the instruction of the camera control unit 21 .
  • GUI Graphic User Interface
  • the communication unit 16 performs wired or wireless data communication and network communication with external devices. For example, image data (still image files and moving image files) and metadata are transmitted and output to external information processing devices, display devices, recording devices, playback devices, and the like.
  • image data still image files and moving image files
  • metadata are transmitted and output to external information processing devices, display devices, recording devices, playback devices, and the like.
  • the communication unit 16 performs various network communications such as the Internet, a home network, and a LAN (Local Area Network), and can transmit and receive various data to and from servers, terminals, etc. on the network. .
  • the operation unit 17 collectively indicates an input device for a user to perform various operation inputs. Specifically, the operation unit 17 indicates various operators (keys, dials, touch panels, touch pads, etc.) provided on the housing of the imaging device 1 . A user's operation is detected by the operation unit 17 , and a signal corresponding to the input operation is sent to the camera control unit 21 .
  • the AE (Automatic Exposure) detection unit 18 performs detection processing for automatic exposure adjustment from the digital image signal and supplies brightness information to the camera control unit 21 .
  • the camera control unit 21 is configured by a microcomputer (arithmetic processing unit) having a CPU (Central Processing Unit).
  • the memory unit 19 stores information and the like used by the camera control unit 21 for processing.
  • a ROM Read Only Memory
  • RAM Random Access Memory
  • flash memory and the like are comprehensively illustrated.
  • the memory section 19 may be a memory area built into the microcomputer chip as the camera control section 21, or may be configured by a separate memory chip.
  • the camera control unit 21 controls the entire imaging apparatus 1 by executing programs stored in the ROM of the memory unit 19, flash memory, or the like.
  • the camera control unit 21 controls various signal processing instructions in the digital signal processing unit 20, imaging operations and recording operations according to user's operations, playback operations of recorded image files, and the like.
  • the camera control unit 21 also performs automatic exposure control based on the detection signal from the AE detection unit 18 , such as operation control of the aperture mechanism, shutter speed control of the image sensor 12 , and AGC gain control in the analog signal processing unit 13 .
  • the camera control unit 21 also performs drive control of the focus lens and the zoom lens according to autofocus control, manual focus operation, zoom operation, and the like.
  • the camera control unit 21 is provided with a function as a flickerless control unit 24, for example, by software. Therefore, the camera control unit 21 corresponds to an imaging control device that performs flickerless control.
  • the flickerless control unit 24 performs timing control for synchronizing specific timing (for example, the timing of the center of gravity of exposure) with the peak timing based on the period of the detected flicker component and the peak timing of the flicker component. That is, control is performed so that flickerless imaging is performed.
  • specific timing for example, the timing of the center of gravity of exposure
  • exposure period refers to the effective exposure period of mechanical shutters and electronic shutters.
  • the flickerless control unit 24 performs control so that the flicker detection/correction unit 25 in the digital signal processing unit 20 performs flicker correction when such flickerless imaging is performed.
  • the flickerless control unit 24 may cause the flicker detection/correction unit 25 to always perform flicker correction, or may set whether or not to perform flicker correction depending on conditions.
  • the flickerless control unit 24 performs flickerless imaging when the amount of deviation between the flicker peak timing and the specific timing within the exposure period is within the margin set as the allowable amount of deviation from the peak timing. In some cases, timing control for is not performed.
  • the margin is set within a range such that the flickerless imaging effect is maintained to some extent without shifting the exposure period. Such an operation will be described later as "flickerless control according to margin".
  • the RAM in the memory unit 19 is used as a working area for the CPU of the camera control unit 21 to perform various data processing, and is used for temporary storage of data, programs, and the like.
  • the ROM and flash memory (non-volatile memory) in the memory unit 19 store an OS (Operating System) for the CPU to control each unit, application programs for various operations, firmware, and various setting information. Used.
  • Various types of setting information include communication setting information, setting information related to imaging operation, setting information related to image processing, and the like.
  • the setting information related to the imaging operation includes exposure setting, shutter speed setting, shutter speed setting of mechanical shutter or electronic shutter, mode setting, margin setting, and the like.
  • the driver unit 22 includes, for example, a motor driver for the zoom lens drive motor, a motor driver for the focus lens drive motor, a motor driver for the motor of the aperture mechanism, and the like. These motor drivers apply drive currents to the corresponding drivers in accordance with instructions from the camera control unit 21 to move the focus lens and zoom lens, open and close the diaphragm blades of the diaphragm mechanism, and the like.
  • the shutter speed, exposure timing, and the like in the image sensor 12 are determined according to the timing signal from the timing generator 23 .
  • a timing generator 23 outputs various timing signals to the imaging element 12 based on the timing control signal from the camera control section 21 . As a result, the imaging device 12 is driven under the control of the camera control section 21 .
  • an arrow LV indicates the flow of live view image data
  • an arrow CAP indicates the flow of captured image data.
  • FIG. 2A shows the flow of processing when displaying a live view image while waiting for a release operation or a moving image recording start operation.
  • Light incident through the imaging optical system 11 enters the imaging element 12, and the imaging element 12 outputs an image signal by photoelectric conversion.
  • the image signal in this case is a relatively low-resolution image signal for live view display.
  • the image sensor 12 when the image sensor 12 outputs image signals for live view display, it does not output all pixels, but outputs pixel signals of a small number of pixels by thinning out some pixels.
  • pixel signals of almost all the pixels of the image sensor 12 are output.
  • the image signal from the imaging element 12 is processed by the analog signal processing section 13 and supplied to the temporary storage section 26 as a digital signal.
  • the image data digitized as described above are alternately stored in the frame memories 26A and 26B frame by frame.
  • the image data stored in the temporary storage section 26 are sequentially output to the digital signal processing section 20 from the previously stored frame.
  • the digital signal processing unit 20 performs necessary processing to generate image data for live view display, and stores the image data in the memory unit 27 .
  • the display unit 15 displays the LV image stored in the memory unit 27.
  • FIG. 2B shows the flow of data processing when recording a captured image.
  • the process of FIG. 2B is performed.
  • the release operation When the user performs a release operation, light incident through the imaging optical system 11 enters the imaging element 12, and exposure processing is started.
  • a release lag release time lag
  • the time is about 15 msec to 30 msec.
  • the image pickup device 12 When the exposure processing in the image pickup device 12 is completed, the image pickup device 12 outputs an image signal obtained by photoelectric conversion to the analog signal processing section 13 .
  • the image signal in this case is, for example, a high-resolution image signal for still image recording.
  • the arrow LV is shown thin and the arrow CAP is shown thick, but this expresses the number of pixels of the image signal by the thickness of the arrow.
  • the image data converted into digital signals by the analog signal processing section 13 is processed by the digital signal processing section 20 via the temporary storage section 26 .
  • the digital signal processing unit 20 generates high-resolution image data for recording and also generates low-resolution image data for live view display, and stores them in the memory unit 27 together.
  • the image data for recording is transferred to the recording control unit 14 and processed for recording, and the image data for live view display is transferred to the display unit 15 and used for live view display.
  • the live view display is performed before and during the release operation for recording a still image, but there is a phenomenon (blackout) in which the display of the live view image is interrupted at the timing after the release. Processing for preventing the live view image from being cut off due to blackout will be described.
  • the camera control unit 21 interrupts the exposure of the live view image and instructs the imaging element 12 to change the mode. For example, it instructs to change readout pixels, resolution, etc. for capture exposure. Then, the camera control unit 21 starts the capture exposure of the image sensor 12 after preparation for the capture exposure is completed.
  • the exposure for the live view image being executed is interrupted at the timing of the release operation, making it impossible to display the live view image of that frame and causing a blackout.
  • the blackout continues until a capture exposure is made and a frame of live view image based on the capture exposure is displayed as in FIG. 2B.
  • the live view image of the frame can be displayed.
  • preparation for capture exposure is performed, and after preparation, capture exposure is performed, and the image data of the capture exposure is stored in the frame memory 26B.
  • the display of the live view image can be continued using the image data in the frame memory 26A until the live view image data based on the image data of the capture exposure can be generated. This will not cause a blackout.
  • live view images can be continuously displayed even during continuous shooting, for example.
  • capture exposure is repeated at a predetermined cycle. If the cycle of this capture exposure is longer than one frame cycle based on the frame rate of the live view image, one or more frame-to-frame exposures are performed between capture exposures. For example, exposure operations such as “capture exposure”, “interframe exposure”, “interframe exposure”, “capture exposure”, “interframe exposure”, “interframe exposure”, etc. are repeated until the end of continuous shooting.
  • FIG. 3 shows a configuration example of part of the digital signal processing section 20, particularly a configuration example for explaining the positioning of the flicker detection/correction section 25.
  • FIG. 3 shows a configuration example in the case of a primary color system.
  • the primary color system is a three-plate system in which the imaging optical system 11 of FIG. As the imaging device 12, it is a one-plate system having one imaging device in which color filters of RGB colors are sequentially and repeatedly arranged for each pixel in the horizontal direction of the screen on the light incident surface.
  • the clamp circuit 41 clamps the black level of the input RGB primary color signal to a predetermined level, and the gain adjustment circuit 42 adjusts the gain of the RGB primary color signal after clamping according to the exposure amount. adjusted.
  • the flicker detection/correction units 25R, 25G, and 25B detect the period of the flicker component and the peak timing of the flicker component for flickerless imaging.
  • the flicker detection/correction units 25R, 25G, and 25B can also perform flicker correction processing to reduce flicker components in the RGB primary color signals.
  • the RGB primary color signals that have passed through the flicker detection/correction units 25R, 25G, and 25B have their white balance adjusted by the white balance adjustment circuit 43, and the gamma correction circuit 44 converts the gradation of the RGB primary color signals after white balance adjustment.
  • a synthesis matrix circuit 45 generates an output luminance signal Y and color difference signals RY and BY from the RGB primary color signals after gamma correction.
  • the luminance signal Y is generally generated after all RGB primary color signals have been processed, as shown in FIG. Both the flicker component of each color component and luminance component can be sufficiently reduced.
  • a flicker detection/correction unit 25 may be provided to detect flicker components in the luminance signal Y and reduce them.
  • Flickerless Imaging and Flicker Correction> Flickerless imaging will be described.
  • the frame rate is 60 fps (frames per second) and the commercial power frequency is 50 Hz (hertz) will be described.
  • the characteristics of the flicker component generated in this case are as follows. • 5/3 cycles occur in one screen (3 frames (fields may be used) is a repetition cycle). ⁇ The phase changes for each line. ⁇ It can be handled as a sine wave having a frequency (100 Hz) twice as high as the commercial power frequency (50 Hz).
  • the exposure timing differs for each horizontal line, so the amount of light received varies depending on the horizontal line. Therefore, even if the fluorescent lamp illuminates the space uniformly, as shown in FIG. exist.
  • the flicker component amplitude of the flicker component
  • the flicker component is highest in the horizontal line shifted from the top line by 3/5 of the total number of lines included in one screen.
  • the flicker component can be represented by a sin function (sine wave) having amplitude, period, and initial phase as shown in FIG. Note that the initial phase means the phase at the top line.
  • the phase of each horizontal line changes according to the frame. That is, for each frame, the horizontal line whose image signal value is higher than the average value and the horizontal line whose image signal value is lower than the average value change.
  • a sine wave with a different initial phase is obtained. For example, if flicker caused by a fluorescent lamp occurs at 100 Hz and the frame rate is 60 fps, five periods of fluorescent lamp flicker correspond to three frames. Therefore, the initial phase becomes the same phase every three frames. Thus, the flicker component fluctuates according to horizontal lines and frames.
  • Imaging that reduces the influence of flicker appearing in such an image is flickerless imaging. Description will be made with reference to the schematic diagram of FIG. FIG. 5 shows the amplitude of the flickering light source with a period of 10 ms. An exposure operation 100 is also shown. The exposure operation 100 is schematically represented by a parallelogram defined by the number of horizontal lines L arranged in the vertical direction, the readout period (curtain speed) R from the beginning to the end of effective pixels, and the exposure period (shutter speed) e. ing.
  • the exposure period is shorter than one period of flicker, and the timing of the exposure center of gravity coincides with the flicker peak timing PT.
  • the timing of the exposure center of gravity is the timing at the approximate center of the exposure period of the approximate center line in the vertical direction of the image sensor.
  • the next exposure operation 101 has the timing shown in the figure due to the period of the exposure operation.
  • the period of flicker does not match the frame period corresponding to the frame rate of the captured image.
  • exposure is performed during a period in which the amplitude of flicker is considerably reduced, such as the trough portion of the flicker waveform. In this case, the flicker has a relatively large effect on the image.
  • the timing of the exposure operation 101 is delayed so that the timing of the exposure center of gravity is synchronized with the flicker peak timing PT as indicated by the exposure operation 101S.
  • the influence of flicker can be reduced in each frame. Capturing an image by controlling the exposure timing in this way is called flickerless imaging.
  • the flicker detection/correction unit 25 (25R, 25G, 25B) in the digital signal processing unit 20 performs flicker detection, detects the peak timing and frequency, and detects the camera control unit 21 (flickerless control). 24).
  • the flicker detection/correction unit 25 also performs flicker correction for reducing flicker components occurring in the frame of the image data.
  • the flicker detection/correction unit 25 that performs such flicker detection and flicker correction will be described with reference to FIG.
  • the input image signal means the RGB primary color signal or luminance signal input to the flicker detection/correction unit 25 (25R, 25G, 25B) as shown in FIG.
  • the output image signal means the RGB primary color signal or luminance signal after processing in the flicker detection/correction unit 25 (25R, 25G, 25B).
  • the flicker detection/correction unit 25 of FIG. 6 includes, for example, a normalized integral value calculation block 30, a DFT (Discrete Fourier Transform) block 50, a flicker generation block 55, a frequency estimation/peak detection block 60, and a calculation block 65.
  • the normalized integral value calculation block 30 includes an integral block 31 , an integral value holding block 32 , an average value calculation block 33 , a difference calculation block 34 and a normalization block 35 .
  • the integration block 31 integrates the input image signal In'(x, y) over one line in the horizontal direction of the screen to calculate the integrated value Fn(y).
  • the calculated integral value Fn(y) is stored and held in the integral value holding block 32 for flicker detection in subsequent frames.
  • the integral value holding block 32 is configured to be able to hold the integral values for frames required for processing (for example, two frames).
  • the average value calculation block 33 calculates, for example, the average value AVE[Fn(y)] of the three integrated values Fn(y), Fn_1(y), Fn_2(y). Note that Fn_1(y) is the integral value Fn_1(y) of the same line one frame before, Fn_2(y) is the integral value Fn_2(y) of the same line two frames before, and these integral values is a value read from the integral value holding block 32 .
  • the difference calculation block 34 calculates the difference between the integration value Fn(y) supplied from the integration block 31 and the integration value Fn_1(y) from the previous frame supplied from the integration value holding block 32 .
  • the difference value Fn(y)-Fn_1(y) With the difference value Fn(y)-Fn_1(y), the effect of the object is sufficiently removed, so the appearance of the flicker component (flicker coefficient) appears more clearly than with the integral value Fn(y).
  • the difference value Fn(y)-Fn_1(y) from the difference calculation block 34 is normalized by dividing by the average value AVE [Fn(y)] from the average value calculation block 33.
  • a normalization process is performed, and a difference value gn(y) after normalization is calculated.
  • the DFT block 50 performs a discrete Fourier transform on data corresponding to one wavelength (L lines) of flicker in the difference value gn(y) after normalization from the normalization block 35 . Thereby, the amplitude ⁇ m and the initial phase ⁇ mn of each flicker component are estimated. Note that the initial phase ⁇ mn is held in association with a counter generated in the imaging device 1 every predetermined time (for example, every 0.5 ⁇ s (microseconds)).
  • the initial phase ⁇ mn calculated in DFT block 50 is provided to frequency estimation/peak detection block 60 .
  • the frequency estimation/peak detection block 60 estimates at least the frequency of the flicker component (light source), in other words, the period of the flicker component, based on the input initial phase ⁇ mn, and further detects the peak timing of the flicker component. .
  • the frequency estimation/peak detection block 60 estimates the frequency of the flicker component from the time difference based on the frame rate and the phase difference of the initial phase ⁇ mn.
  • the frequency estimation/peak detection block 60 detects the peak timing of the flicker component from, for example, the initial phase ⁇ mn in the first frame and a counter associated with the initial phase ⁇ mn.
  • the time interval of the counter finds the timing at which the flicker component that can be approximated by a sine wave peaks (for example, 90 degrees).
  • the peak of the flicker component is the point where the amplitude of the flicker component is maximum, as described above.
  • the camera control unit 21 can control the timing of the imaging device for the flickerless imaging described above.
  • the flicker detection/correction unit 25 By providing such a flicker detection/correction unit 25, it is possible to detect the characteristics of the flicker component, that is, the cycle and peak timing of the flicker component based on the captured image without providing a separate sensor or the like. . Therefore, it is possible to prevent an increase in cost due to an increase in the number of parts. Also, it is possible to reduce the size of the imaging device. Note that the process of obtaining the characteristics of the flicker component is not limited to the above-described method, and any known method can be applied.
  • the flicker detection/correction unit 25 can perform flicker correction to reduce the flicker component occurring in the image signal.
  • the flicker generation block 55 calculates a flicker correction value for each line using the amplitude ⁇ m of the flicker component from the DFT block 50 and the estimated value of the initial phase ⁇ mn. Then, the calculation block 65 performs correction calculation using the flicker correction value for each line from the flicker generation block 55 for each line of the input image signal In'(x, y). As a result, the flicker component contained in the input image signal In'(x, y) is almost completely removed, and the output image signal (RGB primary color signal or luminance signal after flicker reduction processing) is substantially A signal component In(x, y) that does not contain a flicker component is obtained.
  • flicker correction is performed by the flicker detection/correction unit 25 while flickerless imaging is performed based on the period and peak timing of the flicker component detected by the flicker detection/correction unit 25. I will explain.
  • FIG. 7 shows an exposure operation 100 in which, for example, a flickering light source of 100 Hz is used and the curtain speed R is sufficiently shorter than the period T of flickering.
  • the exposure barycenter timing WT is matched with the peak timing PT as shown in the figure, the image becomes flickerless as schematically shown in the lower part of the figure.
  • the above "sufficiently short" should be assumed to be an appropriate numerical value for each imaging device 1, but for example, a fluorescent lamp or the like is a light source. If the curtain speed is about 2 to 4 ms for the period of 10 ms/8.3 ms, it can be said to be sufficiently short. In that case, when the curtain speed R is approximately 20 to 40% or more of the period T, the effect of flickerless imaging can be sufficiently obtained.
  • the exposure operation 102 shows a case where the condition that the curtain speed R is sufficiently shorter than the flicker period is not satisfied.
  • flickerless imaging cannot completely avoid the influence of flicker even if the exposure center-of-gravity timing WT is aligned with the peak timing PT as shown in the figure. That is, as schematically shown in the lower part of the drawing, the influence of flicker remains in the upper and lower parts of the frame of the image.
  • the imaging apparatus 1 performs flickerless imaging and flicker correction in the following procedure.
  • the flicker detection/correction unit 25 accumulates and detects a plurality of image data sent from the imaging element 12 at regular time intervals, and obtains the flicker peak timing PT and period T, using the configuration shown in FIG. .
  • the camera control unit 21 flickerless control unit 24
  • the imaging device 12 performs imaging (exposure/readout) based on timing control.
  • the flicker detection/correction unit 25 multiplies the gain for each line to the captured image data to correct flicker.
  • FIG. 8 shows the relationship between flicker during flickerless imaging and still image parameters.
  • the number of horizontal lines L, the curtain speed R, and the exposure period e are shown as the exposure operation 102, but the condition is that the curtain speed R (readout time) is relatively long and sufficiently short with respect to the period T of flicker. does not meet
  • the phase required for flicker correction is not the phase of the actual flicker light source, but the phase on the image plane considering the exposure period e.
  • the timing is adjusted so that the flicker peak timing PT comes to the center of the image plane.
  • the exposure center-of-gravity timing WT coincides with the peak timing PT.
  • the amplitude for each line in the phase for each line obtained above is obtained. That is, the amplitude of the line is obtained from the amplitude at the peak timing PT and the phase of the line.
  • the flicker waveform integrated according to the shutter speed at the time of imaging can be modeled, and the amplitude value corresponding to the n lines can be referenced to obtain the flicker waveform.
  • the flicker waveform may be tabulated and the amplitude of the corresponding phase may be referenced to obtain the amplitude.
  • the flicker generation block 55 in FIG. 6 obtains such a flicker correction value for each line.
  • the calculation block 65 performs flicker correction using the flicker correction value for each line of the input image signal In'(x,y). That is, by giving each line a correction gain corresponding to the reciprocal of the flicker correction value of that line, the amplitude difference due to flicker is eliminated in the line on the image, and the amplitude caused by the light source is uniformed within the frame of the image. make it
  • the flicker correction is to perform gain correction on the upper and lower ends of the image affected by flicker. For this reason, there is also the advantage that it is possible to prevent deterioration of image quality in the central portion of the image.
  • the phase relationship with the peak timing PT is defined by performing flickerless imaging, the calculation process of the flicker correction value for each line is facilitated, and the processing load does not increase.
  • the flicker correction value can be obtained by using information on the peak timing PT detected for flickerless imaging and its amplitude, which is effective in not increasing the processing load so much.
  • the image pickup apparatus 1 includes, for example, one that adopts a mechanical shutter and has a fixed curtain speed, one that can switch between a mechanical shutter and an electronic shutter as an image pickup operation setting, and an image pickup device that uses an electronic shutter with different curtain speeds.
  • the curtain speed changes depending on the image size.
  • the curtain speed is different when reading from the image sensor 12 in full size (36.0 mm ⁇ 24.0 mm) and in APS-C size (22.4 mm ⁇ 15.0 mm).
  • an electronic shutter has a longer curtain speed than a mechanical shutter.
  • the camera control unit 21 selects whether or not to perform flicker correction depending on the image size, shutter method, and the like.
  • FIG. 9 A processing example is shown in FIG.
  • the camera control unit 21 performs the processing of FIG. 9, for example, periodically or at timing according to changes in imaging mode, shutter setting, and the like.
  • step S10 the camera control unit 21 determines the curtain speed R in the current imaging operation. This can be determined from the settings that are valid in the current still image capturing. For example, the camera control unit 21 determines the curtain speed R at the time of imaging based on the current image size (full size/ASP-C) setting, the shutter method (electronic shutter/mechanical shutter) setting, and the like.
  • the current image size full size/ASP-C
  • the shutter method electronic shutter/mechanical shutter
  • step S11 the camera control unit 21 determines the period T of flicker. This can be determined by obtaining information from the flicker detection/correction unit 25 .
  • the period T of flicker is determined during live view imaging before the release operation.
  • step S12 the camera control unit 21 (curtain speed R)/(period T) ⁇ (1/x) It is determined whether or not. However, x>1. In other words, the judgment is based on the condition that the curtain speed R is shorter than 1/x of the cycle T. In this case, x may be set to an appropriate value as a threshold for determining a state in which the curtain speed R is sufficiently shorter than the cycle T.
  • step S14 If (curtain speed R)/(cycle T) ⁇ (1/x), curtain speed R is sufficiently shorter than cycle T. Therefore, the camera control unit 21 proceeds to step S14 to turn off the flicker correction. In other words, flickerless imaging is performed, but flicker correction is not performed. On the other hand, if (curtain speed R)/(cycle T) ⁇ (1/x) does not hold, the curtain speed R cannot be said to be sufficiently shorter than the cycle T. Therefore, the camera control unit 21 proceeds to step S13 to turn on the flicker correction. In other words, flicker correction is performed while performing flickerless imaging.
  • flicker correction is turned off if the curtain speed is shorter than 1/x of the detected flicker cycle, and flicker correction is performed if the curtain speed is 1/x or more of the detected flicker cycle. As a result, flicker correction is appropriately performed depending on the situation.
  • the cycle T in step S11 is periodically determined, and steps S12, S13, and S14 are performed in accordance with the relationship between the determined cycle T and the fixed curtain speed R.
  • the live view image is not smooth during continuous shooting, it may be difficult for the user to frame the subject.
  • the flicker peak timing PT and the exposure center of gravity timing WT may be slightly shifted to the extent that the influence of flicker is not visible on the screen. If so, it is conceivable to allow it.
  • FIG. 10 shows the flicker amplitude of a 121 Hz light source and the exposure operation during imaging at 20 fps under that light source.
  • This is an example of the operation during continuous shooting, and assumes that the capture exposure CPE is performed a plurality of times and two frame-to-frame exposures IE1 and IE2 are performed between the capture exposure CPE and the next capture exposure CPE. showing.
  • the exposure operation of one frame is indicated by a parallelogram determined by curtain speed, exposure time and the number of horizontal lines as shown in FIG.
  • the shape of the parallelogram in the figure is only a schematic and does not strictly indicate curtain speed, exposure time, and number of lines. 10 to 13, however, the case where the curtain speed R is sufficiently shorter than the flicker cycle T will be described as an example. As described above, this is a case where flicker correction does not necessarily have to be performed to reduce flicker. This is for explaining that the effect can be obtained.
  • a synchronizing signal SensV in FIG. 10 is a synchronizing signal for the imaging operation of the imaging device 12 , and the timing is variably set under the control of the camera control unit 21 .
  • the synchronizing signal SysV is a synchronizing signal for the display operation of the display unit 15, and has vertical timing at a predetermined frame rate (20 fps in this case). The image display of each frame of the live view image is performed at the timing according to the synchronization signal SysV.
  • the timing of the first capture exposure CPE is controlled so that the exposure center-of-gravity timing WT is synchronized with the flicker peak timing PT.
  • inter-frame exposures IE1 and IE2 are performed at timings corresponding to the frame rate of 20 fps.
  • the LV image CPP based on the capture exposure CPE is displayed in the frame after the capture exposure CPE ends, the LV image IP1 based on the inter-frame exposure IE1 is displayed in the next frame, and the LV image IP1 based on the interframe exposure IE1 is displayed in the next frame.
  • the LV image IP2 based on the inter-frame exposure IE2 is displayed.
  • the next capture exposure CPE is performed, but if the cycle is maintained as it is, the timing of the exposure center of gravity will not match the peak timing PT. done. That is, it delays the synchronization signal SensV.
  • the capture exposure CPE after time t12 is also flickerless imaging in which the exposure center-of-gravity timing WT coincides with the peak timing PT.
  • inter-frame exposures IE1 and IE2 are performed at timings corresponding to the frame rate of 20 fps.
  • the capture exposure CPE is delayed by the timing control TS, the same LV image IP2 is displayed continuously for two frame periods in the display of the live view image. This is because the capture exposure CPE has not ended at the start of the second frame after time t12.
  • a plurality of still image data as continuous shots obtained by the capture exposure CPE can be images with less influence of flicker by flickerless imaging.
  • the same image continues as the live view image. That is, the frame rate viewed by the user (hereinafter referred to as "user-viewed frame rate") fluctuates.
  • the time difference from the capture exposure CPE to the LV image CPP based thereon, the time difference from the inter-frame exposure IE1 to the LV image IP1, and the time difference from the inter-frame exposure IE2 to the LV image IP2 are the latency of the live view image.
  • the latency fluctuates (the inclination of the arrow indicating the display start timing from the exposure end timing is not constant).
  • the user will come to recognize that the movement of the live-view image is not smooth.
  • the movement of the moving image as the live view image is awkward, it becomes difficult to adjust the angle of view aiming at the subject.
  • flickerless imaging and flicker correction are performed so as to reduce the influence of flicker appearing in an image to be recorded, and smoothness of the live view image is not impaired as much as possible. do.
  • FIG. 11 shows the flicker of the light source at 121 Hz, the capture exposure CPE and the inter-frame exposures IE1 and IE2, the synchronization signal SensV, the synchronization signal SysV, and the LV images CPP, IP1, and IP2, which are each frame of the live view image, as in FIG. showing.
  • An enlarged view for showing the shift between the flicker peak timing PT and the exposure gravity center timing WT of the capture exposure CPE is shown in the upper part of the drawing.
  • the timing of the first capture exposure CPE is controlled so that the exposure center-of-gravity timing WT is synchronized with the flicker peak timing PT.
  • inter-frame exposures IE1 and IE2 are performed at timings corresponding to the frame rate of 20 fps.
  • the LV image CPP based on the capture exposure CPE is displayed in the frame after the capture exposure CPE ends, the LV image IP1 based on the inter-frame exposure IE1 is displayed in the next frame, and the LV image IP1 based on the interframe exposure IE1 is displayed in the next frame.
  • the LV image IP2 based on the interframe exposure IE2 is displayed.
  • the timing at which the next capture exposure CPE is performed is assumed to be the timing at which the exposure cycle is maintained. That is, the period length from the start timing of the exposure period of the previous inter-frame exposure IE2 to the start timing of the exposure period of the current capture exposure CPE, and This timing is the same as the period length up to the start timing of the exposure period.
  • the exposure center timing WT does not match the peak timing PT.
  • the amount of deviation of the exposure barycenter timing WT from the peak timing PT is within the margin M, as shown in the enlarged view.
  • the margin M is set as a range in which it can be evaluated that the image is not affected by flicker even if the timing WT of the center of gravity of exposure deviates from the peak timing PT.
  • timing control is not performed to delay the start timing of the capture exposure CPE so as to match the exposure center timing WT with the peak timing PT. That is, the capture exposure CPE is executed as it is while maintaining the cycle of the frame rate of 20 fps by the synchronization signal SensV. After that, similarly, the inter-frame exposures IE1 and IE2 are performed at timings corresponding to the frame rate of 20 fps.
  • the amount of deviation of the exposure barycenter timing WT from the peak timing PT is within the range of the margin M, as shown in the enlarged view. Therefore, timing control for delaying the start timing of the capture exposure CPE is not performed so that the exposure center-of-gravity timing WT coincides with the peak timing PT. That is, the capture exposure CPE and the inter-frame exposures IE1 and IE2 are executed while maintaining the cycle of the frame rate of 20 fps.
  • timing control TS is performed to delay the start timing so that the exposure barycenter timing WT coincides with the peak timing PT, and capture exposure CPE is performed.
  • the timing control TS as flickerless imaging is switched according to the relationship between the deviation amount of the exposure barycenter timing WT from the peak timing PT and the margin M.
  • the LV images CPP, IP1, and IP2 are sequentially displayed at a constant frame rate and latency until time t5, and smooth moving image display is realized. After time t5, the timing control TS is performed, so that the user-visible frame rate and latency fluctuate. It is possible to make it difficult for the user to feel that smoothness is impaired.
  • the image data obtained when the timing control TS for flickerless imaging is not performed is an image in which the influence of flicker is hardly seen, the quality of the image to be recorded is maintained. Moreover, if flicker correction is performed, the effect of slight flicker caused by a slight deviation between the peak timing PT and the exposure center-of-gravity timing WT can be reduced. can be recorded.
  • control section 24 A processing example of the camera control unit 21 (flickerless control unit 24) for realizing a flickerless imaging operation with such a margin M set will be described with reference to FIG.
  • the flickerless control section 24 is abbreviated as "control section 24".
  • FIG. 12 shows an example of processing of the control unit 24 during a period during which a continuous shooting operation is being performed, for example, a period during which the user continues to press the release button in continuous shooting mode.
  • the control unit 24 proceeds from step S101 to step S102, and executes timing control as flickerless imaging for the first capture exposure CPE.
  • the exposure timing is controlled so that the exposure center-of-gravity timing WT coincides with the peak timing PT.
  • step S103 the control unit 24 causes the digital signal processing unit 20 to perform image processing for still image recording and live view display based on the capture exposure CPE.
  • step S104 the control unit 24 proceeds from step S104 to step S105.
  • the control unit 24 proceeds from step S105 to step S108 when it is the timing of the capture exposure CPE based on the synchronizing signal SensV, otherwise proceeds from step S105 to step S106. Therefore, at the point in time after executing the process corresponding to the capture exposure CPE in step S103, the control unit 24 performs timing control of the inter-frame exposure IE1 in step S106.
  • the inter-frame exposure IE1 that maintains the period based on the synchronization signal SensV is executed, and in step S107, the digital signal processing unit 20 executes image processing for live view display according to the inter-frame exposure IE1.
  • the control unit 24 proceeds to steps S104, S105, S106, and S107 to execute image processing for inter-frame exposure IE2 and live view display accordingly.
  • step S105 the control unit 24 calculates the deviation amount between the exposure center timing WT and the peak timing PT when the capture exposure CPE is performed at the timing while maintaining the period based on the synchronization signal SensV. Then, in step S109, the control unit 24 compares the displacement amount and the margin M.
  • control unit 24 executes timing control for flickerless imaging in step S110 so that the exposure center-of-gravity timing WT coincides with the peak timing PT.
  • control unit 24 proceeds to step S111, and executes the capture exposure CPE while maintaining the current exposure cycle.
  • step S104 The above processing from step S103 to step S111 is repeated until it is determined in step S104 that the continuous shooting operation has ended. As a result, flickerless imaging is performed assuming a margin M as shown in FIG.
  • the margin M can be set according to the amplitude and cycle of flicker. It should be set as a range that can be evaluated. Then, flicker correction widens the range in which it can be evaluated that the influence of flicker occurring in the image is not observed, and thus the margin M can be widened.
  • FIG. 13 shows the relationship between curtain speed and margin. If flicker correction is not performed and exposure is performed during a period in which the amplitude value of flicker is, for example, the threshold value th1 or more, the influence of flicker is hardly seen in the image.
  • Exposure operations 74, 75, and 76 at curtain speed R are schematically indicated by oblique lines, and their exposure gravity centers are indicated as exposure gravity center timings WT74, WT75, and WT76. Note that these exposure operations 74, 75, and 76 do not mean that exposure is performed three times, but are examples of patterns in which the exposure period differs with respect to the flicker period.
  • FIG. 13 shows that, in the case of the curtain speed R, if the exposure is performed in the period from the exposure operation 74 to the exposure operation 76, the flicker amplitude value is equal to or greater than the threshold value th1 during the exposure period. showing. That is, even if the exposure center-of-gravity timing WT becomes any of the exposure center-of-gravity timings WT74, WT75, and WT76, flicker hardly affects the image. Therefore, in this case, the margin M can be set as the illustrated margin M1 before and after the peak timing PT.
  • the margin M can be set as the illustrated margin M2 before and after the peak timing PT.
  • the margin M widens in this way, the frequency of performing timing control for flickerless imaging decreases. Then, it is possible to reduce the frequency in which the same images are continuously displayed in the live view images as described with reference to FIG. 10 . Therefore, by performing flicker correction, it is possible to provide a smoother live view image.
  • the imaging apparatus 1 synchronizes a specific timing (for example, exposure barycenter timing WT) within an exposure period with the peak timing PT based on the period T of the detected flicker component and the peak timing PT of the flicker component.
  • a camera control unit 21 flickerless control unit 24
  • flicker detection/correction unit 25 that performs flicker correction to reduce intra-frame flicker of image data based on the detection result of the phase relationship between each line of image data obtained by flickerless imaging and the flicker light source.
  • flicker correction is performed by calculating a flicker correction value for each line based on the phase of flicker for each line and the amplitude of flicker for each line, and correcting the image data for each line. Stated. As a result, a correction value can be obtained according to the relationship between the exposure timing of each line and the flicker amplitude in the flicker period, and appropriate correction can be performed for each line.
  • the flicker detection/correction unit 25 is configured to obtain the phase of flicker for each line and the amplitude of flicker for each line from the flicker detection result for flickerless imaging. That is, information on the phase and amplitude of flicker for each line obtained from the result of flicker detection performed for flickerless imaging is used for flicker correction. As a result, flicker correction can be performed using the processing result for flickerless imaging, and processing is made more efficient.
  • flickerless imaging and flicker correction can be performed simultaneously to reduce the influence of flicker without restrictions on shutter speed.
  • flicker correction may be performed at all times.
  • the flickerless control unit 24 in the embodiment controls whether or not to perform flicker correction by the flicker detection/correction unit 25 based on the relationship between the flicker period T and the curtain speed R (see FIG. 9).
  • the flickerless control unit 24 sets execution or non-execution of flicker correction by the flicker detection/correction unit 25 by the process of FIG. 9, for example, at regular timing or timing when some trigger occurs. By doing so, flicker correction can be executed when necessary according to the imaging environment and imaging settings.
  • the flickerless control unit 24 of the embodiment uses the flicker period information obtained as the flicker detection result for flickerless imaging to determine whether or not flicker correction is to be performed. As a result, it is possible to determine whether flicker correction is to be performed using the processing result for flickerless imaging, and the processing is made more efficient.
  • the flickerless control unit 24 of the embodiment uses information about the curtain speed R based on the image size or the shutter method, which is selected as the imaging operation at the time of determination processing, to determine whether flicker correction is to be performed. rice field.
  • the curtain speed it is possible to specify the curtain speed at the time of the determination process in FIG. 9 and to determine whether flicker correction is to be performed. Therefore, it is possible to determine whether or not flicker correction is to be performed in accordance with the fluctuation of the curtain speed.
  • the specific timing to be matched with the peak timing PT in flickerless imaging is the exposure center-of-gravity timing WT.
  • it is the timing at approximately the center of the exposure period of the approximately center line in the vertical direction of the image sensor.
  • the most appropriate flickerless effect can be obtained by aligning the timing at the approximate center of the frame with the flicker peak timing.
  • the exposure center of gravity does not have to be exact. Therefore, the specific timing does not have to be strictly the center of gravity of exposure.
  • the flickerless control unit 24 does not perform exposure timing control for flickerless imaging when the amount of deviation between a specific timing (for example, the exposure barycenter timing WT) and the peak timing PT is within a set margin. (See FIGS. 11 and 12).
  • a specific timing for example, the exposure barycenter timing WT
  • the peak timing PT is within a set margin.
  • the operations shown in FIGS. 11 and 12 are performed when continuous shooting is performed while live view images are being displayed.
  • such flickerless control according to the margin M is effective not only during continuous shooting, but also during live view display before the start of still image capturing and live view display during movie mode. be. That is, even when performing exposure for a live view display image, while performing timing control so as to match the exposure timing to the flicker peak, if the deviation amount is within the margin M, it is adjusted to the peak. Avoid timing control. As a result, it is possible to reduce the frequency of changes in the user-visible frame rate of image data based on exposure and changes in latency until image output, and as a result, it is possible to realize smooth live view image display.
  • a program according to an embodiment is a program that causes an arithmetic processing unit such as a CPU to execute the flicker correction described above. That is, the program of the embodiment performs flickerless imaging by synchronizing a specific timing (for example, the exposure barycenter timing WT) with the peak timing PT based on the period T of the detected flicker component and the peak timing PT of the flicker component. flicker for reducing flicker within a frame of image data based on the detection result of the phase relationship between each line of image data obtained by flickerless imaging and the flicker light source. It is a program for executing correction. With such a program, the digital signal processing section 20 having the flicker detection/correction section 25 described above can be realized by an arithmetic processing device such as a DSP or a microcomputer.
  • programs can be recorded in advance in a HDD as a recording medium built in equipment such as a computer device, or in a ROM or the like in a microcomputer having a CPU.
  • the program may be a flexible disc, CD-ROM (Compact Disc Read Only Memory), MO (Magneto Optical) disc, DVD (Digital Versatile Disc), Blu-ray Disc (registered trademark), magnetic disc, semiconductor It can be temporarily or permanently stored (recorded) in a removable recording medium such as a memory or memory card.
  • Such removable recording media can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • the present technology can also adopt the following configuration.
  • a control unit that performs flickerless imaging exposure timing control for synchronizing specific timing within an exposure period with the peak timing based on the period of the detected flicker component and the peak timing of the flicker component; and a flicker correction unit that performs flicker correction to reduce intra-frame flicker of the image data based on the detection result of the phase relationship between each line of the image data obtained by the flickerless imaging and the flicker light source.
  • the flicker correction unit as the flicker correction, calculating a flicker correction value for each line based on the phase of the flicker for each line and the amplitude of the flicker for each line, and performing processing for correcting the image data for each line;
  • Device that performs flickerless imaging exposure timing control for synchronizing specific timing within an exposure period with the peak timing based on the period of the detected flicker component and the peak timing of the flicker component
  • a flicker correction unit that performs flicker correction to reduce intra-frame flicker of the image data based on the
  • the flicker correction unit The imaging apparatus according to (2) above, wherein the phase of the flicker for each line and the amplitude of the flicker for each line are obtained from flicker detection results for the flickerless imaging.
  • the flicker correction unit The imaging apparatus according to any one of (1) to (3) above, wherein the flicker correction is performed at least when curtain speed in imaging operation is longer than a predetermined value based on a flicker period.
  • the control section controls whether or not the flicker correction section executes the flicker correction based on a relationship between a flicker period and a curtain speed.
  • the control unit The imaging apparatus according to (5) above, wherein information about a flicker period obtained as a flicker detection result for the flickerless imaging is used for determining whether or not the flicker correction is to be performed.
  • the control unit The imaging apparatus according to (5) or (6) above, wherein curtain speed information based on an image size or a shutter method selected as an imaging operation at the time of determination processing is used for determining whether or not to perform the flicker correction.
  • the control unit The imaging apparatus according to any one of (1) to (8) above, wherein the flickerless imaging exposure timing control is not performed when the deviation amount between the specific timing and the peak timing is within a set margin.
  • the control unit When performing continuous shooting or movie shooting while displaying Live View images, The imaging apparatus according to (9), wherein the exposure timing control for the flickerless imaging is not performed when the amount of deviation between the specific timing and the peak timing is within a set margin.
  • the imaging device performing flickerless imaging exposure timing control for synchronizing specific timing within an exposure period with the peak timing based on the period of the detected flicker component and the peak timing of the flicker component;
  • An image pickup method wherein flicker correction is performed to reduce flicker within a frame of image data based on a detection result of a phase relationship between each line of image data obtained by the flickerless image pickup and a flicker light source.
  • An arithmetic processing unit of an imaging device that performs exposure timing control for flickerless imaging for synchronizing specific timing within an exposure period with the peak timing based on the period of the detected flicker component and the peak timing of the flicker component, A program for executing flicker correction for reducing intra-frame flicker of image data based on the detection result of the phase relationship between each line of image data obtained by the flickerless imaging and the flicker light source.
  • imaging device 11 imaging optical system 12 imaging element 13 analog signal processing unit 14 recording control unit 15 display unit 20 digital signal processing unit 21 camera control unit 24 flickerless control units 25, 25R, 25G, 25B flicker detection/correction unit 31 integration block 32 integral value holding block 33 average value calculation block 34 difference calculation block 35 normalization block 50 DFT block 55 flicker generation block 60 frequency estimation/peak detection block 65 calculation block

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)

Abstract

撮像装置は、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行う制御部を備える。またフリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を行うフリッカ補正部を備える。

Description

撮像装置、撮像方法、プログラム
 本技術は撮像装置、撮像方法、プログラムに関し、特にフリッカの影響を低減する技術に関する。
 撮像装置(カメラ)では、撮像した画像にフリッカの影響が生じる場合がある。例えば室内用の光源として普及している蛍光灯や、近年普及が拡大しているLED(Light Emitting Diode)等は、商用電源周波数の影響により周期的に照明光が明滅するいわゆるフリッカが生じる。そのため、そのような照明環境下で撮像した画像では、このようなフリッカによる色むら等の画質の低下が生じる。
 下記特許文献1では、フリッカ成分の周期およびピークのタイミングを検出し、ピークタイミングに露光のタイミングを同期させる制御を行うことで、フリッカの影響を低減した、いわゆるフリッカレス撮像を行う技術が開示されている。
WO2017/217137号公報
 ところでフリッカレス撮像は、幕速がフリッカの周期よりも十分に短い組み合わせのときに行うようにしている。例えば光源のフリッカ周期が100Hzや120Hzであり、メカニカルシャッターにより幕速が約1~4msのような組み合わせである。
 これは、幕速がフリッカの周期よりも十分短い状態ではない場合、フリッカレス撮像を行っても、撮像された画像のフレーム内にフリッカが残ってしまうためである。
 ところが近年、幕速の長い電子シャッター速度の使用や、LED光源による高周波のフリッカ環境下での撮像の機会も増え、幕速がフリッカの周期よりも十分に短いといった撮影条件とならないことも多くなり、そのような場合でもフリッカ軽減を行う要請が高まっている。
 そこで本開示では、例えば幕速がフリッカの周期よりも十分に短いという条件に限定せずにフリッカの影響を回避する技術を提案する。
 本技術に係る撮像装置は、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて前記ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行う制御部と、前記フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を行うフリッカ補正部と、を備える。
 いわゆるフリッカレス撮像として、フリッカ成分のピークタイミングに露光期間内の特定タイミングを同期させるようにする場合を想定する。そのようなフリッカレス撮像を行う場合でも生ずるフリッカ成分を補正する。
 上記した本技術に係る撮像装置においては、前記フリッカ補正部は、前記フリッカ補正として、前記ライン毎のフリッカの位相と、前記ライン毎のフリッカの振幅に基づいて前記ライン毎にフリッカ補正値を算出し、画像データを、前記ライン毎に補正する処理を行うことが考えられる。
 ライン毎にフリッカ補正を行うことで、各ラインの露光タイミングとフリッカ周期との関係に適した補正を行うようにする。
 上記した本技術に係る撮像装置においては、前記フリッカ補正部は、前記ライン毎のフリッカの位相と前記ライン毎のフリッカの振幅を、前記フリッカレス撮像のためのフリッカ検出結果から求めることが考えられる。
 フリッカレス撮像のために行うフリッカ検出結果により得られるライン毎のフリッカの位相と振幅の情報を、フリッカ補正に使用する。
 上記した本技術に係る撮像装置においては、前記フリッカ補正部は、少なくとも、撮像動作における幕速がフリッカの周期に基づく所定値よりも長い場合に前記フリッカ補正を行うことが考えられる。
 フリッカレス撮像は幕速がフリッカの周期よりも十分に短い場合に最も効果がある。逆に幕速がフリッカの周期よりも十分に短いという条件に合わない場合にはフリッカレス撮像の効果が小さい。その場合にフリッカ補正を行うようにする。
 上記した本技術に係る撮像装置においては、前記制御部は、フリッカ周期と幕速の関係に基づいて前記フリッカ補正部による前記フリッカ補正の実行の有無の制御を行うことが考えられる。
 制御部は、幕速とフリッカ周期の情報を取得し、その関係が所定の関係条件となっているか否かにより、フリッカ補正を実行するか否かを決める。
 上記した本技術に係る撮像装置においては、前記制御部は、前記フリッカレス撮像のためのフリッカ検出結果として得られるフリッカ周期の情報を、前記フリッカ補正の実行の有無の判定に用いることが考えられる。
 フリッカレス撮像のために行うフリッカ検出結果により得られるフリッカ周期の情報を、フリッカ補正の実行判定に使用する。
 上記した本技術に係る撮像装置においては、前記制御部は、判定処理時点の撮像動作として選択されている、画像サイズ又はシャッター方式に基づく幕速の情報を、前記フリッカ補正の実行の有無の判定に用いることが考えられる。
 即ち画像サイズやシャッター方式により幕速が変動することに対応する。
 上記した本技術に係る撮像装置においては、前記特定タイミングは、露光重心のタイミングであることが考えられる。
 例えば露光重心のタイミングは、撮像素子の垂直方向における略中央ラインの露光期間の略中央のタイミングである。
 上記した本技術に係る撮像装置においては、前記制御部は、前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記フリッカレス撮像の露光タイミング制御を行わないようにすることが考えられる。
 フリッカレス撮像として、フリッカ成分のピークタイミングに露光期間内の特定タイミングを同期させるようにする場合に、その特定タイミングがマージン内のずれであれば、同期のための制御をおこなわないようにする。
 上記した本技術に係る撮像装置においては、前記制御部は、ライブビュー画像の表示を行いながら連写撮像または動画撮像を行う場合に、前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記フリッカレス撮像の露光タイミング制御を行わないようにすることが考えられる。
 連写中において、露光の特定タイミングを必ずしもフリッカピークに合わせず、ずれ量を加味して補正をかけるようにする。
 本技術に係る撮像方法は、撮像装置が、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて前記ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行うとともに、前記フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を行う撮像方法である。
 これによりフリッカレス撮像の際にフリッカ補正が行われるようにする。
 本技術に係るプログラムは、以上のフリッカ補正の処理を演算処理装置に実行させるプログラムである。
 これにより本開示の撮像装置を容易に実現できるようにする。
本技術の実施の形態の撮像装置のブロック図である。 記録待機時とキャプチャ時の処理の流れの説明図である。 実施の形態のデジタル信号処理部の要部のブロック図である。 フリッカの位相、周期及び振幅の説明図である。 フリッカレス撮像の説明図である。 実施の形態のフリッカ検波・補正部のブロック図である。 フリッカレス撮像によってもフリッカの影響が生ずる場合の説明図である。 実施の形態のフリッカ周期と静止画撮像のパラメータの関係の説明図である。 実施の形態のフリッカ補正の実行の有無の設定処理のフローチャートである。 ライブビュー画像が非円滑になる場合の説明図である。 実施の形態の露光及びライブビュー画像表示の説明図である。 実施の形態のマージンに応じたフリッカレス制御のフローチャートである。 実施の形態のマージン設定例の説明図である。
 以下、実施の形態を次の順序で説明する。
<1.撮像装置の構成>
<2.フリッカレス撮像とフリッカ補正>
<3.マージンに応じたフリッカレス制御>
<4.まとめ及び変形例>
 なお、本開示で用いる用語のいくつかについて、その意味を説明しておく。
 「画像」は静止画、動画を含む用語である。
 「ライン」は静止画又は動画としての1フレームの画像において水平方向に並ぶ画素のラインを指す。
 「キャプチャ露光」は、ユーザ(撮像者)が、撮像装置のレリーズボタン(シャッターボタン)を操作することに応じて行われる画像記録のための露光動作を指す。
 「キャプチャ画像」はキャプチャ露光によって得られた画像信号に基づく画像である。キャプチャ画像は静止画、連写による複数の静止画、動画の1フレームなどとして記録媒体に記録される。
 「コマ間露光」は、連写撮像の際に、キャプチャ露光と次のキャプチャ露光の間の期間に行われる露光であり、特にライブビュー画像を生成するための露光である。従って撮像素子からの読出はキャプチャ露光よりも少ない画素数の読出(低解像度画像用の露光)とすることができる。
 「ライブビュー画像」又は「LV画像」は、撮像素子により撮像されて表示部にユーザが視認可能な状態で表示される画像を指す。即ちリアルタイムでの被写体側の光景を示す画像である。
 例えば静止画のレリーズ操作前の時点では、コマ間露光と同様の低解像度画像の撮像が行われてライブビュー画像の各フレームの画像データが生成される。
 連写撮像の場合のライブビュー画像は、キャプチャ露光とコマ間露光の両方から生成される。
 なお一般的に、キャプチャ画像は、撮像素子の画素数を反映した高画素数の高解像度画像として生成され、記録されるが、ライブビュー画像は、表示部の表示可能な画素数に合わせた低解像度の画像として生成されて表示される。
<1.撮像装置の構成>
 図1は実施の形態の撮像装置1の構成例を示している。
 撮像装置1では、被写体からの光が、撮像光学系11を介して例えばCMOS(Complementary Metal Oxide Semiconductor)センサにより構成される撮像素子12に入射して、撮像素子12で光電変換され、撮像素子12からアナログ画像信号が得られる。特に本実施の形態の場合、ローリングシャッター方式で動作するCMOSセンサを想定している。
 撮像光学系11には、ズームレンズ、フォーカスレンズ、集光レンズ等の各種レンズや、絞り機構、ズームレンズの駆動機構、フォーカスレンズの駆動機構が設けられている。メカニカルシャッター(例えばフォーカルプレーンシャッター)が設けられる場合もある。
 撮像素子12は、例えばCMOS基板上に、フォトダイオード(フォトゲート)、転送ゲート(シャッタートランジスタ)、スイッチングトランジスタ(アドレストランジスタ)、増幅トランジスタ、リセットトランジスタ(リセットゲート)などを有する画素が複数、2次元状に配列されて形成されるとともに、垂直走査回路、水平走査回路および画像信号出力回路が形成されたものである。
 撮像素子12は、原色系と補色系のいずれでもよく、撮像素子12から得られるアナログ画像信号は、RGB各色の原色信号または補色系の色信号である。また撮像素子12がカラーフィルタを有さない構成とされて、撮像素子12から得られるアナログ画像信号は白黒の画像信号となるようにしてもよい。
 撮像素子12からのアナログ画像信号は、IC(Integrated circuit:集積回路)として構成されたアナログ信号処理部13において、色信号ごとに、サンプルホールドされ、AGC(Automatic Gain Control :自動利得制御)によって振幅調整され、A/D(Analog to Digital)変換によってデジタル画像信号に変換される。
 アナログ信号処理部13からのデジタル画像信号(以下、画像データ)は、一時記憶部26に入力される。
 なお撮像素子12とアナログ信号処理部13、或いはさらに一時記憶部26は、一体化されている場合もある。また一時記憶部26として次に述べるフレームメモリは積層型撮像素子内に設けられてもよい。
 一時記憶部26は、この例では2つのフレームメモリ26A、26Bを備えている。
 アナログ信号処理部13からの画像データは、フレームメモリ26Aと、フレームメモリ26Bに交互に格納される。すなわち一時記憶部26は、2つの連続撮像された画像フレームを格納する。一時記憶部26に格納された画像データは、先行格納フレームから、順次、デジタル信号処理部20に出力される。すなわち、フレームメモリ26Aと、フレームメモリ26Bから、交互に撮像順に従って、順次、デジタル信号処理部20に出力される。
 このようにフレームメモリ26A,26Bを備えることで、例えば連写撮像中にもライブビュー画像を継続して、ブラックアウトすることなく表示させることができる。
 デジタル信号処理部20は、例えばDSP(Digital Signal Processor)等の演算処理装置により画像処理プロセッサとして構成される。このデジタル信号処理部20は、入力された画像データに対して、各種の信号処理を施す。例えばカメラプロセスとしてデジタル信号処理部20は、前処理、同時化処理、YC生成処理等を行う。
 またデジタル信号処理部20では、これらの各種処理が施された画像データについて、ファイル形成処理として、例えば記録用や通信用の圧縮符号化、フォーマティング、メタデータの生成や付加などを行って記録用や通信用のファイル生成を行う。例えば静止画ファイルとしてJPEG、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式の画像ファイルの生成を行う。またMPEG-4準拠の動画・音声の記録に用いられているMP4フォーマットなどとしての画像ファイルの生成を行うことも考えられる。
 なおロー(RAW)画像データとして画像ファイルを生成することも考えられる。
 またデジタル信号処理部20では、各種の信号処理が施された画像データに対して、解像度変換処理を実行し、例えばライブビュー表示のために低解像度化した画像データを生成する。
 またデジタル信号処理部20にはフリッカ検波・補正部25が設けられる。
 フリッカ検波・補正部25は、フリッカレス撮像が実行できるようにするため、フリッカの周期やピークタイミングを検出して、それらの情報をカメラ制御部21に伝える処理を行う。
 フリッカレス撮像とは、詳細は後述するが、フリッカ光源から生じるフリッカによる画質への影響(画質の低下)を低減することができる撮像動作である。
 またフリッカ検波・補正部25は、フリッカレス撮像により得られた画像データに対して、さらにフリッカ低減のためのフリッカ補正の処理も行う。
 フリッカ補正についても詳細は後述する。
 メモリ部27は、画像データのバッファメモリを示している。
 デジタル信号処理部20で処理された画像データは、メモリ部27に一旦格納され、所定のタイミングで表示部15や記録制御部14、或いは通信部16に転送される。
 記録制御部14は、例えば不揮発性メモリによる記録媒体に対して記録再生を行う。記録制御部14は例えば記録媒体に対し動画データや静止画データ等の画像ファイルを記録する処理を行う。
 記録制御部14の実際の形態は多様に考えられる。例えば記録制御部14は、撮像装置1に内蔵されるフラッシュメモリとその書込/読出回路として構成されてもよい。また記録制御部14は、撮像装置1に着脱できる記録媒体、例えばメモリカード(可搬型のフラッシュメモリ等)に対して記録再生アクセスを行うカード記録再生部による形態でもよい。また記録制御部14は、撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
 表示部15は撮像者に対して各種表示を行う表示部であり、例えば撮像装置1の筐体に配置される液晶パネル(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等による表示パネルやビューファインダーとされる。
 表示部15は、カメラ制御部21の指示に基づいて表示画面上に各種表示を実行させる。
 例えば表示部15は、記録制御部14において記録媒体から読み出された画像データの再生画像を表示させる。
 また表示部15にはデジタル信号処理部20で表示用に解像度変換された撮像画像の画像データが供給され、それに応じた表示、例えばライブビュー画像の表示を行う。
 また表示部15はカメラ制御部21の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
 通信部16は、外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う。例えば外部の情報処理装置、表示装置、記録装置、再生装置等に対して画像データ(静止画ファイルや動画ファイル)やメタデータの送信出力を行う。
 また通信部16はネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワーク通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うことができる。
 操作部17は、ユーザが各種操作入力を行うための入力デバイスを総括して示している。具体的には操作部17は撮像装置1の筐体に設けられた各種の操作子(キー、ダイヤル、タッチパネル、タッチパッド等)を示している。
 操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部21へ送られる。
 AE(Automatic Exposure)検波部18は、デジタル画像信号から自動露光調整のための検波処理を行い、明るさ情報をカメラ制御部21に供給する。
 カメラ制御部21はCPU(Central Processing Unit)を備えたマイクロコンピュータ(演算処理装置)により構成される。
 メモリ部19は、カメラ制御部21が処理に用いる情報等を記憶する。図示するメモリ部19としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなどを包括的に示している。
 メモリ部19はカメラ制御部21としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
 カメラ制御部21はメモリ部19のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1の全体を制御する。
 例えばカメラ制御部21は、デジタル信号処理部20における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作等の制御を行う。
 またカメラ制御部21は、AE検波部18からの検波信号に基づく自動露出制御として、絞り機構の動作制御、撮像素子12のシャッタースピードの制御、アナログ信号処理部13におけるAGCゲイン制御を行う。
 またカメラ制御部21は、オートフォーカス制御やマニュアルフォーカス操作、ズーム操作等に応じてのフォーカスレンズやズームレンズの駆動制御を行う。
 またカメラ制御部21には、フリッカレス制御部24としての機能が例えばソフトウェアにより設けられている。従ってカメラ制御部21はフリッカレス制御を行う撮像制御装置に相当する。
 フリッカレス制御部24は、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、ピークタイミングに露光期間内の特定タイミング(例えば露光重心のタイミング)を同期させるタイミング制御を行う。即ちフリッカレス撮像が実行されるように制御する。
 なお、ここでいう露光期間とはメカニカルシャッター、電子シャッターによる有効露光期間を指す。
 またフリッカレス制御部24は、このようなフリッカレス撮像を行う場合に、デジタル信号処理部20におけるフリッカ検波・補正部25でフリッカ補正が行われるように制御する。
 フリッカレス制御部24は、フリッカ検波・補正部25でフリッカ補正が常時行われるようにする場合もあるし、条件に応じてフリッカ補正の実行の有無を設定する場合もある。
 またフリッカレス制御部24は、フリッカレス撮像に関して、フリッカのピークタイミングと露光期間内の特定タイミングのずれ量がピークタイミングからのずれ許容量として設定したマージン内であるときは、上記のフリッカレス撮像のためのタイミング制御を行わないようにする場合もある。マージンは、露光期間をずらさなくても、フリッカレス撮像効果が或る程度維持されるような範囲に設定される。
 このような動作については、「マージンに応じたフリッカレス制御」として後述する。
 メモリ部19におけるRAMは、カメラ制御部21のCPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
メモリ部19におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、各種動作のためのアプリケーションプログラムや、ファームウエア、各種の設定情報等の記憶に用いられる。
 各種の設定情報としては、通信設定情報、撮像動作に関する設定情報、画像処理に係る設定情報などがある。撮像動作に関する設定情報としては、露出設定、シャッタースピード設定、メカニカルシャッター又は電子シャッターの幕速設定、モード設定、上述のマージンの設定などがある。
 ドライバ部22には、例えばズームレンズ駆動モータに対するモータドライバ、フォーカスレンズ駆動モータに対するモータドライバ、絞り機構のモータに対するモータドライバ等が設けられている。
 これらのモータドライバはカメラ制御部21からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させることになる。
 撮像素子12におけるシャッタースピードや、露光タイミングなどは、タイミングジェネレータ23によるタイミング信号に応じて決定される。
 タイミングジェネレータ23はカメラ制御部21からのタイミング制御信号に基づいて撮像素子12に対する各種タイミング信号を出力する。これにより撮像素子12がカメラ制御部21の制御に基づいて駆動されることになる。
 ここで、静止画記録の待機中などのライブビュー画像の表示の際と、キャプチャ画像の記録時のデータ処理の流れを図2A、図2Bで説明しておく。
 各図において矢印LVはライブビュー画像データの流れ、矢印CAPはキャプチャ画像データの流れを示している。
 まず図2Aは、レリーズ操作や動画記録開始操作の待機中にライブビュー画像表示を行うときの処理の流れである。
 撮像光学系11を介して入射される光は撮像素子12に入射し、撮像素子12は光電変換による画像信号を出力する。
 なお、この場合の画像信号はライブビュー表示用の比較的低解像度の画像信号である。例えば撮像素子12は、ライブビュー表示のための画像信号を出力する際は、全画素の出力を行うことなく、一部を間引いた低画素数の画素信号の出力を行う。
 一方、キャプチャ露光により記録用の画像信号を出力する際は、高画素数の記録用の画像を生成する必要があるため、撮像素子12のほぼ全画素の画素信号の出力を行う。
 図2Aにおいて撮像素子12からの画像信号はアナログ信号処理部13で処理され、デジタル信号として一時記憶部26に供給される。上述のようにデジタル化された画像データは、フレーム毎に、フレームメモリ26A、26Bに交互に格納される。そして一時記憶部26に格納された画像データは、先行格納フレームから、順次、デジタル信号処理部20に出力される。デジタル信号処理部20では必要な処理を行ってライブビュー表示のための画像データを生成し、メモリ部27に格納する。表示部15は、メモリ部27に格納されたLV画像を表示する。
 図2Bはキャプチャ画像の記録時のデータ処理の流れである。例えばユーザがレリーズ操作を行うと、この図2Bの処理が行われる。
 ユーザがレリーズ操作を行うと、撮像光学系11を介して入射される光は撮像素子12に入射し露光処理が開始される。ただし、レリーズ操作後、撮像素子12における露光処理が開始されるまでには一定の時間間隔、すなわち、レリーズラグ(レリーズタイムラグ)がある。例えば約15msecから30msec程度の時間である、
 撮像素子12における露光処理が終了すると、撮像素子12は、光電変換による画像信号をアナログ信号処理部13に出力する。この場合の画像信号は、例えば静止画記録用の高解像度の画像信号である。
 なお図2A、図2Bでは矢印LVを細く、矢印CAPを太く示しているが、これは画像信号の画素数を矢印の太さで表現したものである。
 アナログ信号処理部13でデジタル信号に変換された画像データは一時記憶部26を介してデジタル信号処理部20で処理される。この場合、デジタル信号処理部20は、記録用の高解像度の画像データを生成するとともに、ライブビュー表示のための低解像度の画像データも生成し、併せてメモリ部27に格納する。そして記録用の画像データは記録制御部14に転送されて記録処理され、ライブビュー表示用の画像データは表示部15に転送されてライブビュー表示に用いられる。
 以上のように静止画記録のためのレリーズ操作前の状態、及びレリーズ操作時には、ライブビュー表示が行われるが、レリーズ後のタイミングでライブビュー画像の表示が途切れる現象(ブラックアウト)がある。
 このライブビュー画像がブラックアウトして途切れることを防止する処理について説明しておく。
 ライブビュー画像の露光中にレリーズ操作が行われると、カメラ制御部21は、撮像素子12に対して、ライブビュー画像の露光を中断させ、モード変更を指示する。例えばキャプチャ露光をするために読出画素や解像度などの変更を指示する。そしてカメラ制御部21は、キャプチャ露光の準備が整った後に撮像素子12のキャプチャ露光を開始させる。
 このような動作の流れにおいては、レリーズ操作タイミングにおいて実行中のライブビュー画像のための露光が中断させられることで、そのフレームのライブビュー画像が表示できなくなり、ブラックアウトが発生する。ブラックアウトは、キャプチャ露光が行われて、図2Bのようなキャプチャ露光に基づくライブビュー画像のフレームが表示されるまで続く。
 そのようなブラックアウトを防止するための一手法として、レリーズ操作タイミングで行われていたライブビュー画像のための露光を中断させないという手法がある。即ちレリーズタイミングにおいて実行中のライブビュー画像のための露光を中断させずに完了まで待ち、その画像データを例えばフレームメモリ26Aに格納することで、そのフレームのライブビュー画像を表示できるようにする。
 ライブビュー画像の露光が完了した後に、キャプチャ露光の準備を行い、準備後にキャプチャ露光を行うが、そのキャプチャ露光の画像データはフレームメモリ26Bに格納していくようにする。すると、キャプチャ露光の画像データに基づくライブビュー画像データが生成できまでの期間、フレームメモリ26Aの画像データを用いてライブビュー画像の表示を継続できる。これによりブラックアウトが発生しない。
 ブラックアウトを防止する手法は他にもある。例えばライブビュー画像のための露光を行ってフレームメモリ26Bに書き込んでいるときにレリーズ操作が行われたら、その露光を中断し、フレームメモリ26Aに格納済み最新画像(例えば露光を中断したフレームの1つ前のフレームの画像データ)をフレームメモリ26Bにコピーする。そしてフレームメモリ26Bからの画像でライブビュー画像の表示を継続するようにする。このときキャプチャ露光の画像データは、フレームメモリ26Aに書き込まれていき、キャプチャ露光の完了後、そのキャプチャ露光の画像データに基づくライブビュー画像が表示されるようにする。
 このようにフレームメモリ26A、26Bを使用することで、レリーズ操作時にライブビュー画像が途切れないようにすることができる。
 また同様の処理で、例えば連写撮像中にも、ライブビュー画像を継続して表示させることができる。
 連写撮像中は、所定周期でキャプチャ露光を繰り返す。このキャプチャ露光の周期が、ライブビュー画像のフレームレートによる1フレーム周期より長い場合、キャプチャ露光とキャプチャ露光の間に1又は複数回のコマ間露光を行う。
 例えば「キャプチャ露光」「コマ間露光」「コマ間露光」「キャプチャ露光」「コマ間露光」「コマ間露光」・・・というような露光動作を連写終了まで繰り返す。
 この場合に、コマ間露光からキャプチャ露光に切り替わるときに、上述のレリーズタイミングと同様の制御を行えば、連写中にブラックアウトを生じさせずにライブビュー画像を表示させることができる。
 次に、デジタル信号処理部20の一部の構成例、特にフリッカ検波・補正部25の位置づけを説明するための構成例を図3に示す。図3は原色系システムの場合の構成例である。
 原色系システムは、図1の撮像光学系11が被写体からの光をRGB各色の色光に分離する分解光学系を有し、撮像素子12としてRGB各色用の撮像素子を有する3板システム、または、撮像素子12として、光入射面にRGB各色の色フィルタが画面水平方向に1画素ごとに順次、繰り返し配列された一つの撮像素子を有する1板システムである。
 図3のデジタル信号処理部20では、クランプ回路41で、入力のRGB原色信号の黒レベルが所定レベルにクランプされ、ゲイン調整回路42で、露出量に応じてクランプ後のRGB原色信号のゲインが調整される。
 フリッカ検波・補正部25R,25G,25Bでは、フリッカレス撮像のために、フリッカ成分の周期やフリッカ成分のピークタイミングの検出を行う。またフリッカ検波・補正部25R,25G,25Bでは、RGB原色信号中のフリッカ成分を低減させるフリッカ補正処理も可能である。
 フリッカ検波・補正部25R,25G,25Bを経たRGB原色信号は、ホワイトバランス調整回路43でホワイトバランスが調整され、ガンマ補正回路44で、ホワイトバランス調整後のRGB原色信号の階調が変換され、合成マトリクス回路45で、ガンマ補正後のRGB原色信号から、出力の輝度信号Yおよび色差信号R-Y,B-Yが生成される。
 原色系システムでは、一般に図3のようにRGB原色信号の処理が全て終了した後に輝度信号Yが生成されるので、RGB原色信号の処理過程でRGB原色信号中のフリッカ成分を低減することによって、各色成分および輝度成分のフリッカ成分を共に十分に低減することができる。
 ただし、図3のようにフリッカ検波・補正部25R,25G,25BによってRGB各色の原色信号ごとにフリッカ成分を検出し、低減する代わりに、例えば、合成マトリクス回路45の輝度信号Yの出力側にフリッカ検波・補正部25を設けて、輝度信号Y中のフリッカ成分を検出し、低減するように構成してもよい。
<2.フリッカレス撮像とフリッカ補正>
 フリッカレス撮像について説明する。
 まず図4により、NTSCシステムを例に挙げて、蛍光灯により生じるフリッカ成分の一例について説明する。なお、ここでは、フレームレートを60fps(frames per second)、商用電源周波数を50Hz(ヘルツ)とした場合について説明する。この場合に生じるフリッカ成分の特徴は以下の通りである。
・1画面中には、5/3周期分発生する(3フレーム(フィールドでもよい)を繰り返し周期とする)。
・1ラインごとに位相が変化する。
・商用電源周波数(50Hz)の2倍の周波数(100Hz)を持つ正弦波として扱うことができる。
 上記の特徴から、フリッカ現象が起きている際には、図4のようなフリッカ成分が発生している。なお、図4では、上側(画面上部)から下側(画面下部)に向かって走査が行われているものとする。
 撮像素子12では、水平ラインごとに露光タイミングが異なるため、水平ラインに応じて受光量が変化してしまう。よって、蛍光灯が空間的に均一に照明していたとしても、図4のように、画像信号の値が平均値よりも高い水平ラインと、画像信号の値が平均値よりも小さい水平ラインが存在してしまう。
 例えば、図4のフレームでは、画像中の最も上の水平ライン、すなわち、先頭ラインでフリッカ成分(フリッカ成分の振幅)が最も高くなるピークとなっている。さらに、先頭ラインから、1画面に含まれる総ライン数の3/5に相当するラインずれた水平ラインで、フリッカ成分も最も高くなる。
 このようにフリッカ成分は、図4に示すような振幅、周期、及び初期位相を持つsin関数(正弦波)で表すことができる。なお初期位相とは先頭ラインでの位相を意味している。
 さらに、フレームに応じて、各水平ラインの位相が変化する。すなわち、フレーム毎に、画像信号の値が平均値よりも高い水平ラインと、画像信号の値が平均値よりも低い水平ラインが変化する。次のフレームでは、初期位相が異なる正弦波となる。例えば、蛍光灯によるフリッカが100Hzで発生し、フレームレートが60fpsであるとすると、蛍光灯のフリッカの5周期分が、3フレームに相当する時間となる。よって、3フレーム毎に初期位相が同じ位相となる。このように、水平ラインおよびフレームに応じて、フリッカ成分が変動する。
 このような画像に表れるフリッカの影響を低減する撮像がフリッカレス撮像である。
 図5の模式図で説明する。図5ではフリッカ光源の10ms周期の振幅を示している。また露光動作100を示している。露光動作100は、垂直方向に並ぶ水平ライン数L、有効画素の先頭から最後までの読出期間(幕速)R、露光期間(シャッタースピード)eで規定される平行四辺形で模式的に示されている。
 この露光動作100の場合、露光期間がフリッカの1周期より短く、かつ露光重心のタイミングが、フリッカのピークタイミングPTと一致している。露光重心のタイミングとは、撮像素子の垂直方向における略中央ラインの露光期間の略中央のタイミングである。
 このようにピークタイミングPTに同期するようなタイミングで露光を行うと、フリッカの影響を低減させた画像を得ることができる。
 ここで、露光動作の周期により、次の露光動作101が図示のタイミングになったとする。上述のようにフリッカの周期と撮像画像のフレームレートに応じたフレーム周期は一致しているわけではないので、ある時点で露光動作100のようになっても、他の時点で露光動作101のようにフリッカ波形の谷の部分など、フリッカの振幅がかなり低下している期間に露光を行うことも生ずる。この場合、画像にフリッカの影響が比較的大きく現れてしまう。
 そこで、露光動作101のタイミングを遅らせ、露光動作101Sとして示すように、露光重心のタイミングがフリッカのピークタイミングPTに同期するようにする。
 このようにタイミング制御を行うことで、各フレームにおいてフリッカの影響を低減できる。このように露光タイミングを制御して撮像を行うことをフリッカレス撮像と呼ぶ。
 このフリッカレス撮像を行うには、カメラ制御部21(フリッカレス制御部24)が、フリッカの周波数とピークタイミングを検知することが必要となる。
 本実施の形態の場合、デジタル信号処理部20におけるフリッカ検波・補正部25(25R,25G,25B)がフリッカ検波を行い、そのピークタイミングと周波数を検出して、カメラ制御部21(フリッカレス制御部24)に通知するようにしている。
 なお、フリッカ検波・補正部25は、以上のようなフリッカ検波に加えて、画像データにおいてフレーム内に生じているフリッカ成分を低減するフリッカ補正も行う例としている。
 このようなフリッカ検波、及びフリッカ補正を行うフリッカ検波・補正部25について、図6で説明する。
 なお図6のフリッカ検波・補正部25の説明において、入力画像信号とは、図3のようにフリッカ検波・補正部25(25R,25G,25B)に入力されるRGB原色信号または輝度信号を意味し、出力画像信号とは、フリッカ検波・補正部25(25R,25G,25B)での処理後のRGB原色信号または輝度信号を意味する。
 図6のフリッカ検波・補正部25は、例えば、正規化積分値算出ブロック30、DFT(離散フーリエ変換)ブロック50、フリッカ生成ブロック55、周波数推定/ピーク検出ブロック60、演算ブロック65を備えている。
 正規化積分値算出ブロック30は、積分ブロック31、積分値保持ブロック32、平均値計算ブロック33、差分計算ブロック34、正規化ブロック35を備えている。
 積分ブロック31は、入力画像信号In'(x,y)の画面水平方向に1ライン分に渡って積分し、積分値Fn(y)を算出する。算出された積分値Fn(y)は、以後のフレームでのフリッカ検出用に、積分値保持ブロック32に記憶保持される。積分値保持ブロック32は、処理に必要なフレーム分(例えば2フレーム分)の積分値を保持できる構成とされる。
 平均値計算ブロック33は、例えば3つの積分値Fn(y),Fn_1(y),Fn_2(y)の平均値AVE[Fn(y)]を算出する。なお、Fn_1(y)は、1フレーム前の同じラインの積分値Fn_1(y)であり、Fn_2(y)は、2フレーム前の同じラインの積分値Fn_2(y)であり、これらの積分値は積分値保持ブロック32から読み出された値である。
 差分計算ブロック34は、積分ブロック31から供給される積分値Fn(y)と、積分値保持ブロック32から供給される1フレーム前の積分値Fn_1(y)との差分を算出する。差分値Fn(y)-Fn_1(y)では、被写体の影響が十分除去されるため、積分値Fn(y)に比べてフリッカ成分(フリッカ係数)の様子が明確に現れる。
 さらに、正規化ブロック35で、差分計算ブロック34からの差分値Fn(y)-Fn_1(y)が、平均値計算ブロック33からの平均値AVE[Fn(y)]で除算されることによる正規化処理がなされ、正規化後の差分値gn(y)が算出される。
 DFTブロック50は、正規化ブロック35からの正規化後の差分値gn(y)の、フリッカの1波長分(Lライン分)に相当するデータを、離散フーリエ変換する。これにより、各次のフリッカ成分の振幅γmおよび初期位相Φmnが推定される。なお、初期位相Φmnは、撮像装置1内において生成される所定時間毎(例えば、0.5μs(マイクロ秒)毎)のカウンタに対応付けられて保持される。
 DFTブロック50で計算された初期位相Φmnは、周波数推定/ピーク検出ブロック60に供給される。周波数推定/ピーク検出ブロック60は、入力される初期位相Φmnに基づいて、少なくともフリッカ成分(光源)の周波数、換言すればフリッカ成分の周期を推定し、さらに、フリッカ成分のピークのタイミングを検出する。例えば、周波数推定/ピーク検出ブロック60は、フレームレートに基づく時間差と初期位相Φmnの位相差とからフリッカ成分の周波数を推定する。さらに、周波数推定/ピーク検出ブロック60は、例えば最初のフレームにおける初期位相Φmnと当該初期位相Φmnに対応付けられたカウンタとからフリッカ成分のピークのタイミングを検出する。
 例えば、初期位相Φmnが60度であれば、正弦波で近似できるフリッカ成分のピーク(例えば90度)がでるタイミングをカウンタの時間間隔を使用して求めることが可能である。フリッカ成分のピークとは、上述したように、フリッカ成分の振幅が最大となる箇所である。
 このように周波数推定/ピーク検出ブロック60により得られた情報がカメラ制御部21(フリッカレス制御部24)に通知される。
 カメラ制御部21は、フリッカの周波数やピークタイミングを知ることで、上述のフリッカレス撮像としての撮像素子のタイミング制御が可能になる。
 このようなフリッカ検波・補正部25を備えることで、別体のセンサ等を設けなくても、撮像画像に基づいてフリッカ成分の特徴、即ちフリッカ成分の周期やピークタイミング等を検出することができる。このため、部品点数の増加によるコストの増加を防止できる。また、撮像装置の小型化が可能となる。なお、フリッカ成分の特徴を求める処理は、上述した方法に限定されるものではなく、公知の方法を適用することができる。
 更にこのフリッカ検波・補正部25では、画像信号に生じているフリッカ成分を低減するようなフリッカ補正を行うことができる。
 フリッカ生成ブロック55では、DFTブロック50からのフリッカ成分の振幅γm,初期位相Φmnの推定値等を用いてライン毎のフリッカ補正値を算出する。
 そして、演算ブロック65は、フリッカ生成ブロック55からのライン毎のフリッカ補正値を用いた補正演算を入力画像信号In'(x,y)のライン毎に行う。
 これによって、入力画像信号In'(x,y)に含まれるフリッカ成分がほぼ完全に除去され、演算ブロック65からは、出力画像信号(フリッカ低減処理後のRGB原色信号または輝度信号)として、実質的にフリッカ成分を含まない信号成分In(x,y)が得られる。
 以上のように、フリッカ検波・補正部25で検出されるフリッカ成分の周期やピークタイミングに基づいて、フリッカレス撮像が行われながら、さらにフリッカ検波・補正部25でフリッカ補正を行うことについて、以下説明していく。
 図5で説明したフリッカレス撮像は、幕速Rがフリッカの周期よりも十分に短い場合に有効である。
 図7には露光動作100として、例えば100Hzのフリッカ光源でフリッカの周期Tよりも幕速Rが十分に短い場合を示している。この場合、図のように露光重心タイミングWTをピークタイミングPTに合わせると図の下方に模式的に示すようにフリッカレスとなる。
 なおシャッター速度やフリッカ光源波形によって明るさムラの出方が変わるため、上記の「十分に短い」は、撮像装置1毎に適切な数値が想定されるべきであるが、例えば蛍光灯などで光源周期が10ms/8.3msに対して、幕速が約2~4ms程度であれば、十分に短いといえる。その場合、幕速Rが周期Tの約2~4割強の場合、フリッカレス撮像の効果が十分に得られるということになる。
 一方で露光動作102は、幕速Rがフリッカの周期よりも十分に短いという条件を満たさない場合を示している。
 この場合、フリッカレス撮像により、図のように露光重心タイミングWTをピークタイミングPTに合わせてもフリッカの影響を回避しきれない。つまり図の下方に模式的に示すように画像のフレーム内の上下にフリッカの影響が残ってしまう。
 そして近年では、幕速の長い電子シャッターを用いた撮像装置を用いることや、高周波のLED照明下の撮像環境が増えていることから、幕速Rと周期Tの関係において、フリッカレス撮像のみではフリッカの影響を抑えきれないことが生じやすくなっている。
 そこで実施の形態の撮像装置1では、フリッカの周期Tに対して幕速Rが十分に短いという条件になっていなくとも、フリッカレス撮像時に画面の上下端に出てくるフリッカの影響を、ゲイン補正することによって低減する。これがフリッカ補正を行う意味である。
 撮像装置1は、フリッカレス撮像とフリッカ補正を、次の手順で行う。
1)フリッカ検波・補正部25が、上述の図6の構成により、撮像素子12から一定時間間隔で送られてくる複数の画像データを蓄積、検波し、フリッカのピークタイミングPTと周期Tを求める。
2)カメラ制御部21(フリッカレス制御部24)は、検出されたピークタイミングPTから周期倍数のタイミングで露光重心が合うように、撮像素子12の露光開始のタイミング制御を行う。
3)撮像素子12では、タイミング制御に基づいた撮像(露光/読出)を行う。
4)撮像された画像データに対して、フリッカ検波・補正部25においてライン毎にゲインを掛け、フリッカを補正する。
 フリッカ補正の具体的な手法を説明する。
 まずフリッカ補正に必要になるフリッカのライン毎の位相、振幅を次のように求める。
 [ライン毎の位相]
 図8にフリッカレス撮像時のフリッカと静止画パラメータの関係を示す。この場合、露光動作102として、水平ライン数L、幕速R、露光期間eを示しているが、幕速R(読出時間)が比較的長く、フリッカの周期Tに対して十分に短いという条件を満たしていない。
 フリッカ補正に必要になる位相は、実際のフリッカ光源の位相ではなく露光期間eを考慮した像面上の位相になる。そして上述のように、フリッカレス撮像を行う際には、像面の中心にフリッカのピークタイミングPTが来るようにタイミングを合わせる。この図では露光重心タイミングWTがピークタイミングPTと一致している。
 この場合、nライン目の位相radは、一例として次の計算式で求めることができる。
 nライン目の位相[rad]=π+R×(2π/T)×((n-1)/L-1/2)
 [ライン毎の振幅]
 検出時に求めたフリッカの波形、振幅の最大値から、上記で求めたライン毎の位相におけるライン毎の振幅を求める。つまりピークタイミングPTにおける振幅と、或るラインの位相から、そのラインの振幅を求める。
 具体的には、撮像時のシャッター速度に応じて積分したフリッカ波形をモデル化し、nラインに相当する振幅値を参照して求めることができる。
 もしくはフリッカ波形をテーブル化し、該当する位相の振幅を参照して求めてもよい。
 このようにライン毎の振幅を求めた場合、ピークタイミングPTの振幅と、そのラインの振幅の差が、そのラインについて補正すべきフリッカ補正値となる。
 図6のフリッカ生成ブロック55では、このようなフリッカ補正値をライン毎に求める。
 そして演算ブロック65は、入力画像信号In'(x,y)のライン毎に、フリッカ補正値を用いたフリッカ補正を行う。即ちライン毎に、そのラインのフリッカ補正値の逆数に相当する補正ゲインを与えることで、画像上のラインにおいてフリッカによる振幅差が解消され、光源に起因する振幅が画像のフレーム内で均一化されるようにする。
 これにより、フリッカレス撮像によっても解消しきれない場合のフリッカの影響を低減することができる。従って例えば周期の短いLED光源下での撮像時もフリッカ低減効果を得ることができる。
 またフリッカレス撮像により露光重心をフリッカのピークタイミングに合わせるため、フリッカ補正は、フリッカの影響が生じる画像の上下端についてゲイン補正をするということになる。このため画像中心部の画質劣化を防ぐことができるという利点もある。
 またフリッカレス撮像を行うことで、ピークタイミングPTとの位相関係が規定されることになるため、ライン毎のフリッカ補正値の算出処理は容易化され、処理負担は増大しない。さらに、フリッカレス撮像のために検出するピークタイミングPTとその振幅の情報を流用してフリッカ補正値を求めることができることも、処理負担をさほど増加させないという点で有効である。
 ところで撮像装置1としては、例えばメカニカルシャッターを採用して幕速が固定のものもあれば、撮像動作設定としてメカニカルシャッターと電子シャッターを切り替えることができるもの、さらには電子シャッターにおいて幕速が異なる撮像動作が行われるものもある。例えば画サイズによって幕速が変化する。同一の撮像素子12を用いる場合で、画サイズが小さいと撮像素子12における切り出し領域が小さくなるため幕速は早くなる。
 例えば撮像素子12からの読出をフルサイズ(36.0mm×24.0mm)で行う場合とAPS-Cサイズ(22.4mm×15.0mm)で行う場合では幕速が異なる。
 また、一般的に電子シャッターの方がメカニカルシャッターよりも幕速が長い。但し近年ではメカニカルシャッターとほぼ同等の幕速が可能な電子シャッターも存在する。
 このような事情で撮像装置1としては撮像時の幕速は必ずしも一定ではない。
 さらに撮像環境としてフリッカ光源も多様であり、フリッカの周期Tも環境によって変化する。
 このようなことを考慮すると、フリッカレス撮像のみで十分な場合と、フリッカレス撮像と共にフリッカ補正を行う方がよい場合が生ずることが想定される。
 そこで、カメラ制御部21(フリッカレス制御部24)が、画サイズやシャッター方式などによって、フリッカ補正を行うか、行わないかを選択するようにすることが考えられる。
 処理例を図9に示す。
 カメラ制御部21は例えば定期的に、或いは撮像モードやシャッター設定などの変更に応じたタイミングなどで、図9の処理を行う。
 ステップS10でカメラ制御部21は現在の撮像動作における幕速Rを判定する。
 これは現在の静止画撮像において有効となっている設定から判定できる。例えばカメラ制御部21は、現在の画サイズ(フルサイズ/ASP-C)の設定や、シャッター方式(電子シャッター/メカニカルシャッター)の設定などから、撮像時の幕速Rを判定する。
 ステップS11でカメラ制御部21はフリッカの周期Tを判定する。これはフリッカ検波・補正部25からの情報を取得することで判定できる。例えばレリーズ操作前のライブビュー撮像中などに、フリッカの周期Tの判定を行う。
 ステップS12でカメラ制御部21は、
 (幕速R)/(周期T)<(1/x)
 であるか否かを判定する。但しx>1である。
 つまり幕速Rが周期Tの1/xよりも短いという条件の判定である。
 この場合のxは、幕速Rが周期Tよりも十分に短いという状態を判定する閾値として適切な値が設定されればよい。
 (幕速R)/(周期T)<(1/x)である場合は、幕速Rが周期Tよりも十分に短い。そのためカメラ制御部21はステップS14に進み、フリッカ補正をオフ設定とする。つまりフリッカレス撮像を行うが、フリッカ補正を行わない状態とする。
 一方、(幕速R)/(周期T)<(1/x)ではない場合は、幕速Rが周期Tよりも十分に短いとはいえない状態である。そのためカメラ制御部21はステップS13に進み、フリッカ補正をオン設定とする。つまりフリッカレス撮像を行いつつフリッカ補正も行われる状態とする。
 以上の処理により、幕速が検出したフリッカ周期の1/xより短ければフリッカ補正がオフとなり、幕速が検出したフリッカ周期の1/x以上の場合はフリッカ補正を行うことになる。これにより状況に応じてフリッカ補正が適切に行われることになる。
 なお、幕速Rが変化しない撮像装置1であっても、撮像環境に応じたフリッカの周期Tの変動を想定して、このような制御を行うことが有用である。
 例えば定期的にステップS11の周期Tの判定を行い、判定した周期Tと固定の幕速Rの関係で、ステップS12,S13,S14を行うようにすればよい。
<3.マージンに応じたフリッカレス制御>
 ライブビューを表示しながら複数の静止画撮像を行う連写モードでは、フリッカレス撮像時に露光重心タイミングWTをフリッカのピークタイミングPTに合わせるため、一定間隔でライブビュー画を更新することが難しいという事情がある。
 撮像タイミングによっては、同じライブビュー画が複数回続いて視認上のフレームレートの変化が生じることや、レリーズ操作に応じた露光の画像の表示までの遅延量が変わること(レイテンシの変化)があり、ライブビュー表示が円滑ではなくなる現象が発生する。
 連写中にライブビュー画像が円滑でなくなると、ユーザによる被写体へのフレーミングを難しくすることがある。
 この問題を回避するために、静止画の露光タイミングをフリッカのピークに合わせるフリッカレス撮像において、画面にフリッカの影響が見えない程度にフリッカのピークタイミングPTと露光重心タイミングWTについて、若干のずれであれば、それを許容することが考えられる。
 この際に、幕速Rがフリッカの周期Tよりも十分に短く、画面の上下端に縞が出ない場合であっても、フリッカ補正を併用することで、上記の許容できるタイミングずれの範囲を広げて、ライブビュー画像が非円滑なる事象の発生をさらに低減することができる。
 以下、マージンに応じたフリッカレス制御として、ピークタイミングPTと露光重心タイミングWTのずれを、設定したマージン内であれば許容する処理について説明する。
 まず、フリッカレス撮像によってライブビュー画像表示の円滑性が低下する例を図10で説明する。
 図10では121Hz光源のフリッカ振幅と、その光源の元での20fpsでの撮像時の露光動作を示している。これは連写撮像中の動作を例としており、キャプチャ露光CPEが複数回行われるとともに、キャプチャ露光CPEと次のキャプチャ露光CPEの間に、2回のコマ間露光IE1,IE2が行われる場合を示している。1フレームの露光動作は図5のように幕速と露光時間と水平ライン数で決まる平行四辺形で示している。
 図の平行四辺形の形状はあくまで模式的なもので、幕速、露光時間、ライン数を厳密に示すものではない。ただしこの図10から図13までは、幕速Rがフリッカの周期Tよりも十分に短い場合を例にして説明する。これは上述のように、フリッカ低減のためには必ずしもフリッカ補正を行わなくてもよい場合であるが、そのような場合であっても、フリッカ補正を行うことで、ライブビュー画像の円滑化という効果が得られることを説明するためである。
 図10の同期信号SensVは、撮像素子12の撮像動作に対する同期信号であり、カメラ制御部21の制御によりタイミングが可変設定される。
 同期信号SysVは、表示部15の表示動作に対する同期信号であり、所定のフレームレート(この場合20fps)の垂直タイミングとなる。ライブビュー画像は同期信号SysVに従ったタイミングで各フレームの画像表示が行われる。
 ユーザによる連写撮像の操作が行われ、時点t10以降に最初のキャプチャ露光CPEが行われるとする。この場合、最初のキャプチャ露光CPEは、露光重心タイミングWTがフリッカのピークタイミングPTと同期するように、タイミング制御が行われる。
 その後、20fpsのフレームレートに応じたタイミングでコマ間露光IE1,IE2が行われていく。
 ライブビュー画像は、キャプチャ露光CPEの終了後のフレームで、キャプチャ露光CPEに基づくLV画像CPPが表示され、次のフレームでは、コマ間露光IE1に基づくLV画像IP1が表示され、更に次のフレームでは、コマ間露光IE2に基づくLV画像IP2が表示されるようになる。
 時点t12以降は、次のキャプチャ露光CPEが行われるタイミングとなるが、そのまま周期を保つと露光重心のタイミングがピークタイミングPTに一致しないため、キャプチャ露光CPEの開始タイミングを遅らせるようにタイミング制御TSが行われる。つまり同期信号SensVを遅らせる。
 これにより時点t12以降のキャプチャ露光CPEも、露光重心タイミングWTがピークタイミングPTに一致したフリッカレス撮像となる。その後、20fpsのフレームレートに応じたタイミングでコマ間露光IE1,IE2が行われていく。
 ところがこの場合、タイミング制御TSでキャプチャ露光CPEが遅らされたことで、ライブビュー画像の表示は、同じLV画像IP2が2フレーム期間連続で表示されることになる。時点t12以降の2フレーム目の開始時点で、キャプチャ露光CPEが終了していないためである。
 時点t13、時点t14も、それぞれ同期信号SensVを遅らせるタイミング制御TSを行うことで、キャプチャ露光CPEの露光重心タイミングWTがピークタイミングPTに一致したフリッカレス撮像となる。
 時点t14以降のライブビュー画像については、キャプチャ露光CPEの遅れにより、同じLV画像IP2が2フレーム期間連続で表示されることが生じている。
 この図10の例の場合、キャプチャ露光CPEで得られる連写としての複数の静止画データは、フリッカレス撮像により、フリッカの影響の少ない画像とすることができる。
 ところが、上述の時点t12以降や、時点t14以降、ライブビュー画像として同じ画像が連続する。つまりユーザが視認する上でのフレームレート(以下「ユーザ視認フレームレート」という)が変動する状態となる。
 また、キャプチャ露光CPEからそれに基づくLV画像CPPまでの時間差、コマ間露光IE1からLV画像IP1までの時間差、コマ間露光IE2からLV画像IP2までの時間差が、それぞれライブビュー画像のレイテンシとなるが、図の例の場合、レイテンシが変動する(露光終了タイミングから表示開始タイミングを示す矢印の傾きが一定にならない)。
 このようなユーザ視認フレームレートやレイテンシの変動によって、ユーザにとっては、ライブビュー画像について、動きが円滑でないものと認識されるようになってしまう。
 特に、ライブビュー画像で被写体を追いながら連写操作をしているときに、ライブビュー画像としての動画の動きがぎこちない状態であると、被写体を狙った画角調整も困難になる。
 そこで本実施の形態では、フリッカレス制御の際に、記録する画像に表れるフリッカの影響を低減するようにフリッカレス撮像及びフリッカ補正を行いつつ、なるべくライブビュー画像の円滑性が損なわれないようにする。
 図11は、図10と同様に121Hz光源のフリッカ、キャプチャ露光CPEとコマ間露光IE1,IE2、同期信号SensV、同期信号SysV、及びライブビュー画像の各フレームとなるLV画像CPP、IP1、IP2を示している。
 なお、フリッカのピークタイミングPTとキャプチャ露光CPEの露光重心タイミングWTのずれを示すための拡大図を、図の上方に示している。
 ユーザによる連写撮像操作が行われ、時点t1以降に最初のキャプチャ露光CPEが行われるとする。図10の場合と同様に、最初のキャプチャ露光CPEは、露光重心タイミングWTがフリッカのピークタイミングPTと同期するように、タイミング制御が行われる。
 その後、20fpsのフレームレートに応じたタイミングでコマ間露光IE1,IE2が行われていく。
 ライブビュー画像は、キャプチャ露光CPEの終了後のフレームで、キャプチャ露光CPEに基づくLV画像CPPが表示され、次のフレームでは、コマ間露光IE1に基づくLV画像IP1が表示され、更に次のフレームでは、コマ間露光IE2に基づくLV画像IP2が表示される。
 時点t2以降は、次のキャプチャ露光CPEが行われるタイミングとなる。次のキャプチャ露光CPEが行われるタイミングとは、露光周期を保ったタイミングを想定する。つまり前回のコマ間露光IE2の露光期間の開始タイミングから今回のキャプチャ露光CPEの露光期間の開始タイミングまでの期間長と、前々回のコマ間露光IE1の露光期間の開始タイミングから前回コマ間露光IE2の露光期間の開始タイミングまでの期間長とが同一であるタイミングである。
 このような露光周期を保つキャプチャ露光CPEを考えると、露光重心タイミングWTがピークタイミングPTに一致しない。
 但しこの場合、拡大図に示すように、露光重心タイミングWTのピークタイミングPTからのずれ量は、マージンMの範囲内である。
 マージンMは、露光重心タイミングWTがピークタイミングPTよりずれていたとしても、画像にフリッカの影響が見られないと評価できる範囲として設定されている。
 このようにずれ量がマージンMの範囲内である場合、露光重心タイミングWTをピークタイミングPTに一致させるようにキャプチャ露光CPEの開始タイミングを遅らせるタイミング制御を行わない。つまり同期信号SensVによる20fpsのフレームレートの周期を維持しつつ、そのままキャプチャ露光CPEを実行させる。
 さらにその後同様に、20fpsのフレームレートに応じたタイミングでコマ間露光IE1,IE2が行われるようにする。
 時点t3、時点t4についても、拡大図に示すように、露光重心タイミングWTのピークタイミングPTからのずれ量は、マージンMの範囲内である。そのため露光重心タイミングWTをピークタイミングPTに一致させるようにキャプチャ露光CPEの開始タイミングを遅らせるタイミング制御を行わない。つまり20fpsのフレームレートの周期を維持しつつ、キャプチャ露光CPE、コマ間露光IE1,IE2を実行させる。
 時点t5からのキャプチャ露光CPEtについては、露光重心タイミングWTdのピークタイミングPTからのずれ量が、マージンMの範囲外になってしまったとする。
 この場合は、露光重心タイミングWTをピークタイミングPTに一致させるように開始タイミングを遅らせるタイミング制御TSを行い、キャプチャ露光CPEを行う。
 このように露光重心タイミングWTのピークタイミングPTからのずれ量とマージンMの関係に応じて、フリッカレス撮像としてのタイミング制御TSを行うか否かを切り替える。
 これにより、ライブビュー画像のユーザ視認フレームレートやレイテンシが変化する頻度を低減できる。図の例の場合、時点t5までは、一定のフレームレート及びレイテンシでLV画像CPP、IP1、IP2が順次表示されており、円滑な動画表示が実現できている。
 時点t5以降では、タイミング制御TSを行うためユーザ視認フレームレート及びレイテンシが変動してしまうが、このような状態となる頻度は、図7の動作に比較して低減できるため、ライブビュー画像の動画としての円滑性が損なわれることをユーザが感じにくくすることができる。
 またフリッカレス撮像としてのタイミング制御TSを行わないときの画像データも、フリッカの影響がほぼ見られない画像となるため、記録する画像の品質も保たれる。
 その上、フリッカ補正を行うようにすれば、ピークタイミングPTと露光重心タイミングWTが若干ずれていることによるわずかなフリッカの影響も低減されるため、フリッカの影響はほぼ除去でき、高画質な画像の記録が実現できる。
 このようなマージンMを設定したフリッカレス撮像動作を実現するための、カメラ制御部21(フリッカレス制御部24)の処理例を図12で説明する。なお図9の説明においてはフリッカレス制御部24を「制御部24」と略称表記する。
 図12は連写撮像操作が行われている期間、例えば連写モードとしてユーザがレリーズボタンを押し続けている期間の制御部24の処理例を示している。
 連写撮像操作が開始されると、制御部24はステップS101からステップS102に進み、最初のキャプチャ露光CPEについて、フリッカレス撮像としてのタイミング制御を実行する。例えば露光重心タイミングWTがピークタイミングPTに一致するように露光タイミングを制御する。
 ステップS103で制御部24は、キャプチャ露光CPEに基づく静止画記録及びライブビュー表示のための画像処理をデジタル信号処理部20に実行させる。
 連写撮像操作が継続している期間は、制御部24はステップS104からステップS105に進む。
 制御部24は、同期信号SensVに基づくキャプチャ露光CPEのタイミングであるときはステップS105からステップS108に進み、それ以外はステップS105からステップS106に進む。従ってステップS103でキャプチャ露光CPEに応じた処理を実行した後の時点では、制御部24は、ステップS106でコマ間露光IE1のタイミング制御を行うことになる。この場合、同期信号SensVに基づく周期を保ったコマ間露光IE1を実行させ、ステップS107でデジタル信号処理部20においてコマ間露光IE1に応じたライブビュー表示のための画像処理を実行させる。
 その後も制御部24は、ステップS104,S105,S106,S107と進みコマ間露光IE2及びそれに応じたライブビュー表示のための画像処理を実行させる。
 次のキャプチャ露光CPEのタイミングになると、制御部24はステップS105からステップS108に進む。この場合、制御部24は、同期信号SensVに基づく周期を維持したままのタイミングでキャプチャ露光CPEを行った場合における露光重心タイミングWTと、ピークタイミングPTのずれ量を算出する。
 そしてステップS109で制御部24は、すれ量とマージンMの比較を行う。
 もしずれ量がマージンMより大きい場合は、制御部24はステップS110でフリッカレス撮像としてのタイミング制御を実行し、露光重心タイミングWTがピークタイミングPTに一致するようする。
 一方、ずれ量はマージンMの範囲内である場合は、制御部24はステップS111に進み、現在の露光周期を維持したままでキャプチャ露光CPEを実行させる。
 以上のステップS103からステップS111までの処理を、ステップS104で連写撮像操作が終了と判定されるまで繰り返す。
 これにより図11のようなマージンMを想定したフリッカレス撮像が実行される。
 このようなフリッカレス撮像において、フリッカ補正を行うことで、マージンMを広げることができる点について説明する。
 マージンMは、フリッカの振幅や周期に応じて設定すればよく、露光重心タイミングWT等の露光期間の所定のタイミングと、ピークタイミングPTのずれ量が、画像に生じるフリッカの影響が見られないと評価できる範囲として設定されればよい。
 すると、フリッカ補正によって、画像に生じるフリッカの影響が見られないと評価できる範囲が広がることで、マージンMを広げることができるということになる。
 図13は幕速とマージンの関係を示している。
 仮に、フリッカ補正を行わないとすると、フリッカの振幅値が例えば閾値th1以上の期間に露光が行われるのであれば、画像にフリッカの影響がほぼ見られないとする。
 斜線により模式的に幕速Rの露光動作74,75,76を示し、及びそれらの露光重心を露光重心タイミングWT74,WT75,WT76として示している。
 なお、この露光動作74,75,76は、3回露光が行われるという意味ではなく、フリッカ周期に対して露光期間が異なっているパターンを例示したものである。
 この図13は、幕速Rの場合、露光を、露光動作74から露光動作76で示す範囲内の期間に行えば、その露光期間中にフリッカの振幅値は閾値th1以上となっていることを示している。つまり露光重心タイミングWTが、露光重心タイミングWT74,WT75,WT76のいずれとなっても、画像にフリッカの影響がほとんど生じないことになる。
 従って、この場合、マージンMは、ピークタイミングPTから前後に図示のマージンM1として設定することができる。
 一方、フリッカ補正を行う場合、フリッカの振幅値が例えば閾値th2以上の期間に露光が行われるのであれば、画像にフリッカの影響がほぼ見られないとする。
 すると、同じ幕速Rの場合、露光を、露光動作84から露光動作86で示す範囲内の期間に行えば、その露光期間中にフリッカの振幅値は閾値th2以上となる。つまり露光重心タイミングWTが、露光重心タイミングWT84,WT85,WT86のいずれとなっても、画像にフリッカの影響がほとんど生じないことになる。
 従って、この場合、マージンMは、ピークタイミングPTから前後に図示のマージンM2として設定することができる。
 このようにマージンMが広がると、フリッカレス撮像のためのタイミング制御を行う頻度が減ることになる。すると図10で説明したような、ライブビュー画像で同じ画像が連続してしまう頻度も低減できる。従って、フリッカ補正を行うことで、より円滑なライブビュー画像を提供できることになる。
<4.まとめ及び変形例>
 以上の実施の形態の撮像装置1や撮像制御装置(カメラ制御部21)によれば、以下のような効果を得ることができる。
 実施の形態の撮像装置1は、検出されたフリッカ成分の周期Tおよび該フリッカ成分のピークタイミングPTに基づいて、ピークタイミングPTに露光期間内の特定タイミング(例えば露光重心タイミングWT)を同期させるフリッカレス撮像の露光タイミング制御を行うカメラ制御部21(フリッカレス制御部24)を備える。またフリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を行うフリッカ検波・補正部25を備える。
 これにより幕速Rと周期Tの関係により、フリッカレス撮像を行っても低減しきれないようなフリッカ成分を低減又は解消でき、撮像される画像データの品質を向上させることができる。
 またフリッカレス撮像とフリッカ補正を併用することで、例えば画像の中心部分はフリッカピークの明るい部分で撮像し、フリッカ補正ゲインによる画質劣化の影響を少なくするといった利点も得られる。
 実施の形態では、フリッカ補正として、ライン毎のフリッカの位相と、ライン毎のフリッカの振幅に基づいてライン毎にフリッカ補正値を算出し、画像データを、ライン毎に補正する処理を行うことを述べた。
 これにより各ラインの露光タイミングとフリッカ周期におけるフリッカ振幅との関係に応じて補正値が求められ、ライン毎に適切な補正を行うことが可能になる。
 実施の形態では、フリッカ検波・補正部25は、ライン毎のフリッカの位相とライン毎のフリッカの振幅をフリッカレス撮像のためのフリッカ検出結果から求める構成とした。即ちフリッカレス撮像のために行うフリッカ検出結果により得られるライン毎のフリッカの位相と振幅の情報を、フリッカ補正に使用する。
 これによりフリッカレス撮像のための処理結果を用いてフリッカ補正を行うことができ、処理が効率化される。
 実施の形態のフリッカ検波・補正部25は、少なくとも、撮像動作における幕速Rがフリッカの周期Tに基づく所定値よりも長い場合にフリッカ補正を行う例を述べた。つまり幕速Rがフリッカの周期Tよりも十分に短いという条件が整わない場合である。
 これによりフリッカレス撮像の効果が十分に得られないときにフリッカ補正により、フリッカ低減を行うことで、画像品質を維持又は向上させることができる。
 特に近年、幕速の長い電子シャッターを用いる場合や、高周波のLED光源の撮影環境の場合などでも、フリッカ軽減の市場要求が高まっている。このような撮像時の幕速がフリッカ周期よりも長くなりやすい環境で、フリッカレス撮像とフリッカ補正を同時に行うことで、シャッター速度の制約なく、フリッカの影響を軽減することができる。
 但し、フリッカ周期と幕速の関係にかかわらず、常時、フリッカ補正を行うようにしてもよい。
 実施の形態のフリッカレス制御部24は、フリッカの周期Tと幕速Rの関係に基づいてフリッカ検波・補正部25によるフリッカ補正の実行の有無の制御を行う例を挙げた(図9参照)
 フリッカレス制御部24は、定期的なタイミングや何らかのトリガが生じたタイミングで、例えば図9の処理によりフリッカ検波・補正部25によるフリッカ補正の実行設定又は不実行設定を行う。このようにすることで、撮像環境や撮像設定に応じて必要な場合にフリッカ補正が実行されるようにすることができる。
 実施の形態のフリッカレス制御部24は、フリッカレス撮像のためのフリッカ検出結果として得られるフリッカ周期の情報を、フリッカ補正の実行の有無の判定に用いる例を挙げた。
 これによりフリッカレス撮像のための処理結果を用いてフリッカ補正の実行判定を行うことができ、処理が効率化される。
 実施の形態のフリッカレス制御部24は、判定処理時点の撮像動作として選択されている、画像サイズ又はシャッター方式に基づく幕速Rの情報を、フリッカ補正の実行の有無の判定に用いる例を挙げた。
 これにより、図9の判定処理の時点における幕速を特定し、フリッカ補正の実行判定を行うことができる。従って幕速の変動に対応して、フリッカ補正の実行の有無の判定を行うことができる。
 実施の形態では、フリッカレス撮像でピークタイミングPTと一致させる特定タイミングは、露光重心タイミングWTとした。つまり撮像素子の垂直方向における略中央ラインの露光期間の略中央のタイミングである。
 当該フレームの略中央のタイミングをフリッカのピークタイミングに合わせることで最も適切にフリッカレス効果を得ることができる。なお、露光重心は厳密でなくともよい。従って特定タイミングとは、厳密に露光重心とならなくてもよい。
 そして露光重心をフリッカのピークに合わせ、画像の上下端をフリッカ補正としてのゲイン処理を行うことで、画像中心部の画質劣化を防ぐことができる。
 実施の形態では、フリッカレス制御部24が、特定タイミング(例えば露光重心タイミングWT)とピークタイミングPTのずれ量が設定したマージン内であるときはフリッカレス撮像の露光タイミング制御を行わない例を挙げた(図11,図12参照)。
 これにより、露光期間の開始を遅らせるような制御を行う機会を減少させることができる。その結果、露光に基づく画像データのユーザが視認するフレームレートが変化することや、画像出力までのレイテンシが変化する頻度を低減できる。また、タイミング制御TSを行わないことで、レリーズラグを低減できる場合もある。
 そして、フリッカ補正を行うことで、図13で説明したようにマージンMを広く設定できる。従って画像が円滑でなくなる状態の発生頻度を、より低下させ、表示品質の向上を促進できる。
 なお、このような効果は、幕速がフリッカ周期に対して十分短い場合でも得ることができる。そのため、このようなマージンMに応じてフリッカレス撮像のための露光タイミング制御を行わないようにする場合は、フリッカ補正を常に行うようにすることも考えられる。
 実施の形態では、図11,図12の動作を、ライブビュー画像の表示を行いながら連写撮像を行う場合に行うとした。
 これにより連写撮像中に、ライブビュー画像のユーザ視認フレームレートが変化することや、ライブビュー画像の出力までのレイテンシが変化する頻度を低減できる。従ってフリッカレス撮像を行いながらも、非円滑な、或いは応答性が悪いライブビュー画像が表示されることを低減できる。このため、被写体をライブビュー画像で確認しながら連写撮像操作を続けているときに、ユーザは目的の被写体を狙いやすくなる。
 なおこのようなマージンMに応じたフリッカレス制御は、連写撮像時だけでなく、静止画の撮像開始前のライブビュー表示の際や、動画モード中などにおけるライブビュー表示の際にも有効である。即ち、ライブビュー表示画のための露光を行っているときも、フリッカのピークに露光のタイミングを合わせるようにタイミング制御をしつつ、ずれ量がマージンM内であれば、ピークに合わせ込むようなタイミング制御を行わないようにする。これにより、露光に基づく画像データのユーザ視認フレームレートが変化することや、画像出力までのレイテンシが変化する頻度を低減でき、結果として円滑なライブビュー画像表示を実現できる。
 実施の形態のプログラムは、上述のフリッカ補正を、例えばCPU等の演算処理装置に実行させるプログラムである。
 即ち実施の形態のプログラムは、検出されたフリッカ成分の周期Tおよび該フリッカ成分のピークタイミングPTに基づいてピークタイミングPTに露光期間内の特定タイミング(例えば露光重心タイミングWT)を同期させるフリッカレス撮像の露光タイミング制御を行う撮像装置1の演算処理装置に、フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を実行させるプログラムである。
 このようなプログラムにより、上述したフリッカ検波・補正部25を有するデジタル信号処理部20をDSP、マイクロコンピュータ等の演算処理装置により実現できる。
 これらのプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。あるいはまたプログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて前記ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行う制御部と、
 前記フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を行うフリッカ補正部と、を備えた
 撮像装置。
 (2)
 前記フリッカ補正部は、前記フリッカ補正として、
 前記ライン毎のフリッカの位相と前記ライン毎のフリッカの振幅に基づいて前記ライン毎にフリッカ補正値を算出し、画像データを、前記ライン毎に補正する処理を行う
 上記(1)に記載の撮像装置。
 (3)
 前記フリッカ補正部は、
 前記ライン毎のフリッカの位相と前記ライン毎のフリッカの振幅を、前記フリッカレス撮像のためのフリッカ検出結果から求める
 上記(2)に記載の撮像装置。
 (4)
 前記フリッカ補正部は、
 少なくとも、撮像動作における幕速がフリッカの周期に基づく所定値よりも長い場合に前記フリッカ補正を行う
 上記(1)から(3)のいずれかに記載の撮像装置。
 (5)
 前記制御部は、フリッカ周期と幕速の関係に基づいて前記フリッカ補正部による前記フリッカ補正の実行の有無の制御を行う
 上記(1)から(4)のいずれかに記載の撮像装置。
 (6)
 前記制御部は、
 前記フリッカレス撮像のためのフリッカ検出結果として得られるフリッカ周期の情報を、前記フリッカ補正の実行の有無の判定に用いる
 上記(5)に記載の撮像装置。
 (7)
 前記制御部は、
 判定処理時点の撮像動作として選択されている、画像サイズ又はシャッター方式に基づく幕速の情報を、前記フリッカ補正の実行の有無の判定に用いる
 上記(5)又は(6)に記載の撮像装置。
 (8)
 前記特定タイミングは、露光重心のタイミングである 上記(1)から(7)のいずれかに記載の撮像装置。
 (9)
 前記制御部は、
 前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記フリッカレス撮像の露光タイミング制御を行わない
 上記(1)から(8)のいずれかに記載の撮像装置。
 (10)
 前記制御部は、
 ライブビュー画像の表示を行いながら連写撮像または動画撮像を行う場合に、
 前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記フリッカレス撮像の露光タイミング制御を行わないようにする
 上記(9)に記載の撮像装置。
 (11)
 撮像装置が、
 検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて前記ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行うとともに、
 前記フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を行う
 撮像方法。
 (12)
 検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて前記ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行う撮像装置の演算処理装置に、
 前記フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を実行させるプログラム。
1 撮像装置
11 撮像光学系
12 撮像素子
13 アナログ信号処理部
14 記録制御部
15 表示部
20 デジタル信号処理部
21 カメラ制御部
24 フリッカレス制御部
25,25R,25G,25B フリッカ検波・補正部
31 積分ブロック
32 積分値保持ブロック
33 平均値計算ブロック
34 差分計算ブロック
35 正規化ブロック
50 DFTブロック
55 フリッカ生成ブロック
60 周波数推定/ピーク検出ブロック
65 演算ブロック

Claims (12)

  1.  検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて前記ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行う制御部と、
     前記フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を行うフリッカ補正部と、を備えた
     撮像装置。
  2.  前記フリッカ補正部は、前記フリッカ補正として、
     前記ライン毎のフリッカの位相と前記ライン毎のフリッカの振幅に基づいて前記ライン毎にフリッカ補正値を算出し、画像データを、前記ライン毎に補正する処理を行う
     請求項1に記載の撮像装置。
  3.  前記フリッカ補正部は、
     前記ライン毎のフリッカの位相と前記ライン毎のフリッカの振幅を、前記フリッカレス撮像のためのフリッカ検出結果から求める
     請求項2に記載の撮像装置。
  4.  前記フリッカ補正部は、
     少なくとも、撮像動作における幕速がフリッカの周期に基づく所定値よりも長い場合に前記フリッカ補正を行う
     請求項1に記載の撮像装置。
  5.  前記制御部は、フリッカ周期と幕速の関係に基づいて前記フリッカ補正部による前記フリッカ補正の実行の有無の制御を行う
    請求項1に記載の撮像装置。
  6.  前記制御部は、
     前記フリッカレス撮像のためのフリッカ検出結果として得られるフリッカ周期の情報を、前記フリッカ補正の実行の有無の判定に用いる
     請求項5に記載の撮像装置。
  7.  前記制御部は、
     判定処理時点の撮像動作として選択されている、画像サイズ又はシャッター方式に基づく幕速の情報を、前記フリッカ補正の実行の有無の判定に用いる
     請求項5に記載の撮像装置。
  8.  前記特定タイミングは、露光重心のタイミングである
     請求項1に記載の撮像装置。
  9.  前記制御部は、
     前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記フリッカレス撮像の露光タイミング制御を行わない
     請求項1に記載の撮像装置。
  10.  前記制御部は、
     ライブビュー画像の表示を行いながら連写撮像または動画撮像を行う場合に、
     前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記フリッカレス撮像の露光タイミング制御を行わないようにする
     請求項9に記載の撮像装置。
  11.  撮像装置が、
     検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて前記ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行うとともに、
     前記フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を行う
     撮像方法。
  12.  検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて前記ピークタイミングに露光期間内の特定タイミングを同期させるフリッカレス撮像の露光タイミング制御を行う撮像装置の演算処理装置に、
     前記フリッカレス撮像により得られた画像データの各ラインとフリッカ光源の位相関係の検出結果に基づいて、画像データのフレーム内フリッカを低減するフリッカ補正を実行させるプログラム。
PCT/JP2021/048812 2021-02-09 2021-12-28 撮像装置、撮像方法、プログラム WO2022172639A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022581237A JPWO2022172639A1 (ja) 2021-02-09 2021-12-28

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-019212 2021-02-09
JP2021019212 2021-02-09

Publications (1)

Publication Number Publication Date
WO2022172639A1 true WO2022172639A1 (ja) 2022-08-18

Family

ID=82837598

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/048812 WO2022172639A1 (ja) 2021-02-09 2021-12-28 撮像装置、撮像方法、プログラム

Country Status (2)

Country Link
JP (1) JPWO2022172639A1 (ja)
WO (1) WO2022172639A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158964A (ja) * 2005-12-07 2007-06-21 Sony Corp 画像処理装置および撮像装置
JP2012142853A (ja) * 2011-01-05 2012-07-26 Nikon Corp 撮像装置および画像処理制御プログラム
WO2017217137A1 (ja) * 2016-06-15 2017-12-21 ソニー株式会社 撮像制御装置、撮像制御方法およびプログラム
JP2020088667A (ja) * 2018-11-28 2020-06-04 キヤノン株式会社 撮像装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007158964A (ja) * 2005-12-07 2007-06-21 Sony Corp 画像処理装置および撮像装置
JP2012142853A (ja) * 2011-01-05 2012-07-26 Nikon Corp 撮像装置および画像処理制御プログラム
WO2017217137A1 (ja) * 2016-06-15 2017-12-21 ソニー株式会社 撮像制御装置、撮像制御方法およびプログラム
JP2020088667A (ja) * 2018-11-28 2020-06-04 キヤノン株式会社 撮像装置

Also Published As

Publication number Publication date
JPWO2022172639A1 (ja) 2022-08-18

Similar Documents

Publication Publication Date Title
JP4173457B2 (ja) 撮影装置及びその制御方法
JP6950698B2 (ja) 撮像制御装置、撮像制御方法および撮像装置
US10771713B2 (en) Imaging control device, imaging control method, and program
JP6466786B2 (ja) 撮像装置、撮像方法およびプログラム
CN104717435A (zh) 摄像装置以及摄像方法
JP6244062B2 (ja) 撮影装置、撮影装置本体、及び撮影装置の制御方法
JP2011169998A (ja) 撮像装置及び撮像方法及びこの撮像方法を実行するためのプログラムが記録されたコンピュータが読み取り可能な記録媒体
JP6911850B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2022172639A1 (ja) 撮像装置、撮像方法、プログラム
JP5948997B2 (ja) 撮像装置及び撮像方法
WO2022158202A1 (ja) 撮像装置、撮像制御方法、プログラム
WO2022153682A1 (ja) 撮像装置、撮像制御方法、プログラム
JP4221051B2 (ja) 撮影装置及びその制御方法
JP4397766B2 (ja) 撮像装置
JP4310755B2 (ja) 撮影装置及びその制御方法
JP2006050031A (ja) 撮影装置
JP4326997B2 (ja) 撮像装置および合焦方法、制御プログラム、記録媒体
JP2005354292A (ja) 撮像装置、撮像方法
JP2007060327A (ja) 撮像装置
JP2008236808A (ja) 撮影装置及びその制御方法
JP2013197937A (ja) 撮像装置、露出制御方法、及びプログラム
JP5720382B2 (ja) 撮像装置
JP2013106228A (ja) 撮像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21925881

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022581237

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21925881

Country of ref document: EP

Kind code of ref document: A1