WO2022153682A1 - 撮像装置、撮像制御方法、プログラム - Google Patents

撮像装置、撮像制御方法、プログラム Download PDF

Info

Publication number
WO2022153682A1
WO2022153682A1 PCT/JP2021/043165 JP2021043165W WO2022153682A1 WO 2022153682 A1 WO2022153682 A1 WO 2022153682A1 JP 2021043165 W JP2021043165 W JP 2021043165W WO 2022153682 A1 WO2022153682 A1 WO 2022153682A1
Authority
WO
WIPO (PCT)
Prior art keywords
timing
exposure
image
margin
flicker
Prior art date
Application number
PCT/JP2021/043165
Other languages
English (en)
French (fr)
Inventor
芳明 小池
智子 鈴木
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to JP2022575104A priority Critical patent/JPWO2022153682A1/ja
Priority to EP21919573.2A priority patent/EP4280590A1/en
Priority to US18/260,365 priority patent/US20240031686A1/en
Priority to CN202180089315.6A priority patent/CN116806430A/zh
Publication of WO2022153682A1 publication Critical patent/WO2022153682A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/7795Circuitry for generating timing or clock signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS

Definitions

  • This technology relates to an imaging device, an imaging control method, and a program, and particularly to a technique for performing imaging that reduces the influence of flicker.
  • the image captured may be affected by flicker.
  • flicker For example, fluorescent lamps, which are widely used as indoor light sources, and LEDs (Light Emitting Diodes), which have been widely used in recent years, generate so-called flicker in which the illumination light blinks periodically due to the influence of the commercial power frequency.
  • flicker In the captured image, the image quality is deteriorated due to such flicker, such as color unevenness.
  • Patent Document 1 below discloses a technique for performing so-called flickerless imaging in which the influence of flicker is reduced by detecting the period and peak timing of the flicker component and controlling the exposure timing to be synchronized with the peak timing. ing.
  • the user mainly refers to a person who performs an image using a camera) display on a display panel provided on the back of the camera or a display unit such as an EVF (electric viewfinder).
  • the released image that is, the live view image is confirmed, the shooting timing is determined, and the release button (shutter button) is operated.
  • the live view image cannot be displayed due to circumstances such as switching of the exposure operation, and blackout of the display unit may occur.
  • Patent Document 2 discloses a technique for avoiding blackout.
  • the live view image is always updated at regular intervals. It becomes difficult. Specifically, depending on the timing of imaging, the frame rate visually recognized by the user may change due to the same live view image being repeated multiple times, and the period from exposure to display of the live view image (latency) may increase. It may change. Due to such fluctuations in the frame rate and latency visually recognized by the user, a smooth live view image may not be displayed, and it may be difficult for the user to frame while viewing the live view image.
  • this technology proposes a technology that can reduce the situation where the live view image becomes unsmooth while realizing imaging with less influence of flicker.
  • the imaging apparatus performs timing control for synchronizing a specific timing within the exposure period with the peak timing based on the detected period of the flicker component and the peak timing of the flicker component, and also performs the specific timing and the above.
  • the control unit that executes the margin-compatible flickerless control that does not perform the timing control is provided.
  • flickerless imaging when a specific timing within the exposure period is synchronized with the peak timing of the flicker component, if the specific timing is a deviation within the margin, control for synchronization is not performed. ..
  • An imaging control device including such a control unit can also be assumed.
  • control unit executes the margin-compatible flickerless control when performing continuous shooting imaging while displaying a live view image.
  • Flickerless imaging is performed when continuous shooting is performed while displaying a live view image.
  • execution or non-execution of timing control is determined depending on whether or not there is a timing shift within the margin. do.
  • a capture exposure for generating both one still image and a live view image constituting the continuous shooting image and a live view image for generating the live view image at the time of continuous shooting imaging 1 the control unit performs the timing control in the first capture exposure after the start of continuous shooting imaging, and in the second and subsequent capture exposures, the deviation amount of the specific timing is increased. It is conceivable that the timing control is not performed if it is within the margin, and the timing control is performed if the deviation amount of the specific timing is not within the margin.
  • the timing of the first continuous shot is controlled so that the image is flickerless. In the second and subsequent capture exposures, margin-compatible flickerless control is performed.
  • the control unit has a period length from the start timing of the previous exposure period to the start timing of the current exposure period, and the previous exposure period from the start timing of the previous exposure period. It is conceivable to determine whether or not the amount of deviation from the peak timing of the specific timing of the current exposure period is within the margin, which is the same as the period length up to the start timing of. That is, while maintaining the exposure cycle, the execution / non-execution of the timing control is determined according to how much the specific timing of the exposure period deviates from the peak timing.
  • the specific timing is the timing of the center of gravity of exposure.
  • the timing of the center of gravity of exposure is the timing at approximately the center of the exposure period of the substantially center line in the vertical direction of the image sensor.
  • the margin is set according to the curtain speed. This is because the faster the curtain speed, the wider the range of the timing shift amount that is less susceptible to flicker.
  • the margin is set according to the amount of exposure loss from the peak level of the flicker component. This is because the range of the timing shift amount, which is not easily affected by flicker, differs depending on the exposure loss amount.
  • a different value may be set as the margin depending on whether or not the flicker correction is performed based on the detected period of the flicker component and the peak timing of the flicker component. Conceivable. This is because when the flicker correction for reducing the influence of the flicker is performed, the range in which the influence of the flicker is inconspicuous in the image becomes wide.
  • the margin is set according to the number of pixels read from the image pickup device. Since the curtain speed may change due to the difference in the number of read pixels, the margin is set according to the number of read pixels. Further, it is conceivable that the margin is set depending on whether or not the exposure of the image to be recorded is used. This is because the tolerance for the influence of flicker is different. Further, it is conceivable that the margin is set narrower than the period during which the image to be recorded is not exposed when the image to be recorded is exposed.
  • the imaging control method performs timing control for synchronizing a specific timing within the exposure period with the peak timing based on the detected period of the flicker component and the peak timing of the flicker component, and at the same time, the specific timing is controlled.
  • This is an imaging control method in which the imaging control device executes margin-compatible flickerless control in which the timing control is not performed when the deviation amount is within the margin set as the deviation allowable amount from the peak timing. This prevents the timing control for flickerless imaging from occurring with or without timing control.
  • the program according to the present technology is a program that causes the arithmetic processing unit to execute the above-mentioned margin-compatible flickerless control. This makes it possible to easily realize the image pickup control device and the image pickup device of the present disclosure.
  • Capture exposure refers to an exposure operation for image recording performed in response to a user (imaging person) operating a release button (shutter button) of an imaging device.
  • a “capture image” is an image based on an image signal obtained by capture exposure. The captured image is recorded on the recording medium as a still image, a plurality of still images by continuous shooting, one frame of a moving image, and the like.
  • the “inter-frame exposure” is an exposure performed during a period between a capture exposure and a next capture exposure during continuous shooting, and is an exposure for generating a live view image in particular. Therefore, the reading from the image sensor can be a reading with a smaller number of pixels (exposure for a low-resolution image) than the capture exposure.
  • the "live view image” or “LV image” refers to an image imaged by an image sensor and displayed on a display unit in a state in which a user can see it. That is, it is an image showing a scene on the subject side in real time.
  • a low-resolution image similar to the inter-frame exposure is captured and image data of each frame of the live view image is generated.
  • the live view image in the case of continuous shooting is generated from both capture exposure and inter-frame exposure.
  • a captured image is generated and recorded as a high-resolution image with a high number of pixels that reflects the number of pixels of the image sensor, but a live view image is a low image that matches the number of pixels that can be displayed on the display unit. It is generated and displayed as a resolution image.
  • FIG. 1 shows a configuration example of the image pickup apparatus 1 of the embodiment.
  • the image pickup device 1 the light from the subject is incident on the image pickup device 12 composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor via the image pickup optical system 11, and the image pickup device 1 is used. Photoelectric conversion is performed by 12, and an analog image signal is obtained from the image sensor 12.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the imaging optical system 11 is provided with various lenses such as a zoom lens, a focus lens, and a condenser lens, an aperture mechanism, a zoom lens drive mechanism, and a focus lens drive mechanism.
  • a mechanical shutter for example, a focal plane shutter may be provided.
  • the image pickup element 12 has a plurality of pixels having a photodiode (photogate), a transfer gate (shutter transistor), a switching transistor (address transistor), an amplification transistor, a reset transistor (reset gate), and the like on a CMOS substrate, for example, in two dimensions. Along with being arranged in a shape, a vertical scanning circuit, a horizontal scanning circuit, and an image signal output circuit are formed.
  • the image pickup element 12 may be either a primary color system or a complementary color system, and the analog image signal obtained from the image pickup element 12 is a primary color signal of each RGB color or a complementary color system color signal. Further, the image sensor 12 may be configured not to have a color filter, and the analog image signal obtained from the image sensor 12 may be a black and white image signal.
  • the analog image signal from the image pickup element 12 is sample-held for each color signal in the analog signal processing unit 13 configured as an IC (Integrated circuit), and is oscillated by AGC (Automatic Gain Control). It is adjusted and converted into a digital image signal by A / D (Analog to Digital) conversion.
  • the digital image signal (hereinafter, image data) from the analog signal processing unit 13 is input to the temporary storage unit 26.
  • the image sensor 12, the analog signal processing unit 13, or the temporary storage unit 26 may be integrated. Further, the frame memory described below as the temporary storage unit 26 may be provided in the stacked image sensor.
  • the temporary storage unit 26 includes two frame memories 26A and 26B in this example.
  • the image data from the analog signal processing unit 13 is alternately stored in the frame memory 26A and the frame memory 26B. That is, the temporary storage unit 26 stores two continuously captured image frames.
  • the image data stored in the temporary storage unit 26 is sequentially output to the digital signal processing unit 20 from the preceding storage frame. That is, the frames are alternately output from the frame memory 26A and the frame memory 26B to the digital signal processing unit 20 in the order of imaging.
  • the digital signal processing unit 20 is configured as an image processing processor by, for example, a DSP (Digital Signal Processor) or the like.
  • the digital signal processing unit 20 performs various signal processing on the input image data. For example, as a camera process, the digital signal processing unit 20 performs preprocessing, simultaneous processing, YC generation processing, and the like. Further, the digital signal processing unit 20 records the image data subjected to these various processes by performing, for example, compression coding for recording or communication, formatting, generation or addition of metadata, etc. as file forming processing. Generate files for use and communication. For example, as a still image file, an image file in a format such as JPEG, TIFF (Tagged Image File Format), GIF (Graphics Interchange Format) is generated.
  • JPEG Joint Photographics Interchange Format
  • an image file as an MP4 format or the like used for recording MPEG-4 compliant video / audio. It is also conceivable to generate an image file as raw image data. Further, the digital signal processing unit 20 executes resolution conversion processing on the image data subjected to various signal processing, and generates low-resolution image data for, for example, live view display.
  • the digital signal processing unit 20 is provided with a flicker detection / correction unit 25.
  • the flicker detection / correction unit 25 detects the flicker cycle and peak timing and transmits the information to the camera control unit 21 in order to enable the flickerless imaging. Further, the flicker detection / correction unit 25 may perform correction processing for reducing flicker on the image data.
  • the memory unit 27 shows a buffer memory for image data.
  • the image data processed by the digital signal processing unit 20 is temporarily stored in the memory unit 27 and transferred to the display unit 15, the recording control unit 14, or the communication unit 16 at a predetermined timing.
  • the recording control unit 14 records and reproduces, for example, a recording medium using a non-volatile memory.
  • the recording control unit 14 performs a process of recording an image file such as moving image data or still image data on a recording medium, for example.
  • the actual form of the recording control unit 14 can be considered in various ways.
  • the recording control unit 14 may be configured as a flash memory built in the image pickup apparatus 1 and a write / read circuit thereof.
  • the recording control unit 14 may be in the form of a card recording / playback unit that performs recording / playback access to a recording medium that can be attached to / detached from the image pickup device 1, for example, a memory card (portable flash memory or the like).
  • the recording control unit 14 may be realized as an HDD (Hard Disk Drive) or the like as a form built in the image pickup apparatus 1.
  • the display unit 15 is a display unit that displays various displays to the imager, for example, a display by a liquid crystal panel (LCD: Liquid Crystal Display) or an organic EL (Electro-Luminescence) display arranged in the housing of the image pickup device 1. It is said to be a panel or viewfinder.
  • the display unit 15 causes various displays to be executed on the display screen based on the instruction of the camera control unit 21.
  • the display unit 15 displays a reproduced image of the image data read from the recording medium by the recording control unit 14.
  • the display unit 15 is supplied with image data of the captured image whose resolution has been converted by the digital signal processing unit 20 for display, and displays correspondingly, for example, a live view image.
  • the display unit 15 causes various operation menus, icons, messages, etc., that is, display as a GUI (Graphical User Interface) to be executed on the screen based on the instruction of the camera control unit 21.
  • GUI Graphic User Interface
  • the communication unit 16 performs data communication and network communication with an external device by wire or wirelessly. For example, image data (still image file or moving image file) or metadata is transmitted and output to an external information processing device, display device, recording device, playback device, or the like. Further, as a network communication unit, the communication unit 16 can perform various network communications such as the Internet, a home network, and a LAN (Local Area Network), and can transmit and receive various data to and from servers, terminals, and the like on the network. ..
  • network communications such as the Internet, a home network, and a LAN (Local Area Network)
  • the operation unit 17 collectively shows input devices for the user to perform various operation inputs. Specifically, the operation unit 17 shows various controls (keys, dials, touch panels, touch pads, etc.) provided in the housing of the image pickup apparatus 1. The operation unit 17 detects the user's operation, and the signal corresponding to the input operation is sent to the camera control unit 21.
  • the AE (Automatic Exposure) detection unit 18 performs detection processing for automatic exposure adjustment from the digital image signal, and supplies brightness information to the camera control unit 21.
  • the camera control unit 21 is composed of a microcomputer (arithmetic processing unit) equipped with a CPU (Central Processing Unit).
  • the memory unit 19 stores information or the like used for processing by the camera control unit 21.
  • a ROM Read Only Memory
  • RAM Random Access Memory
  • flash memory and the like are comprehensively shown.
  • the memory unit 19 may be a memory area built in the microcomputer chip as the camera control unit 21, or may be configured by a separate memory chip.
  • the camera control unit 21 controls the entire image pickup device 1 by executing a program stored in the ROM of the memory unit 19, the flash memory, or the like.
  • the camera control unit 21 controls various signal processing instructions in the digital signal processing unit 20, imaging operation and recording operation according to the user's operation, reproduction operation of the recorded image file, and the like. Further, the camera control unit 21 performs operation control of the aperture mechanism, shutter speed control of the image sensor 12, and AGC gain control in the analog signal processing unit 13 as automatic exposure control based on the detection signal from the AE detection unit 18. Further, the camera control unit 21 controls the drive of the focus lens and the zoom lens according to the autofocus control, the manual focus operation, the zoom operation, and the like.
  • the camera control unit 21 is provided with a function as a margin-compatible flickerless control unit 24, for example, by software. Therefore, the camera control unit 21 corresponds to an image pickup control device that performs margin-compatible flickerless control.
  • the margin-compatible flickerless control unit 24 performs timing control for synchronizing a specific timing within the exposure period (for example, the timing of the exposure center of gravity) with the peak timing based on the detected period of the flicker component and the peak timing of the flicker component. .. That is, control is performed so that flickerless imaging is executed.
  • the exposure period refers to the effective exposure period by the mechanical shutter and the electronic shutter.
  • the timing control for the flickerless imaging is not performed.
  • the margin is set in a range in which the flickerless imaging effect is maintained to some extent without shifting the exposure period.
  • the flickerless imaging is an imaging operation capable of reducing the influence of flicker generated from the flicker light source on the image quality (deterioration of the image quality), which will be described in detail later.
  • the RAM in the memory unit 19 is used for temporarily storing data, programs, and the like as a work area for various data processing of the CPU of the camera control unit 21.
  • the ROM and flash memory (nonvolatile memory) in the memory unit 19 are used to store an OS (Operating System) for the CPU to control each unit, application programs for various operations, firmware, various setting information, and the like. Used.
  • Various setting information includes communication setting information, setting information related to imaging operation, setting information related to image processing, and the like.
  • the setting information related to the imaging operation includes an exposure setting, a shutter speed setting, a mechanical shutter or electronic shutter curtain speed setting, a mode setting, and the above-mentioned margin setting.
  • the driver unit 22 is provided with, for example, a motor driver for the zoom lens drive motor, a motor driver for the focus lens drive motor, a motor driver for the diaphragm mechanism motor, and the like. These motor drivers apply a drive current to the corresponding driver in response to an instruction from the camera control unit 21 to move the focus lens and the zoom lens, open and close the diaphragm blades of the diaphragm mechanism, and the like.
  • the shutter speed, exposure timing, and the like of the image sensor 12 are determined according to the timing signal of the timing generator 23.
  • the timing generator 23 outputs various timing signals to the image sensor 12 based on the timing control signal from the camera control unit 21. As a result, the image sensor 12 is driven under the control of the camera control unit 21.
  • FIGS. 2A and 2B the flow of data processing when displaying a live view image such as while waiting for still image recording and when recording a captured image will be described with reference to FIGS. 2A and 2B.
  • the arrow LV indicates the flow of live view image data
  • the arrow CAP indicates the flow of captured image data.
  • FIG. 2A shows a processing flow when displaying a live view image while waiting for a release operation or a moving image recording start operation.
  • the light incident through the image pickup optical system 11 enters the image pickup element 12, and the image pickup element 12 outputs an image signal by photoelectric conversion.
  • the image signal in this case is a relatively low resolution image signal for live view display.
  • the image sensor 12 when the image sensor 12 outputs an image signal for live view display, it outputs a pixel signal having a low number of pixels with a part thinned out, without outputting all the pixels.
  • the image sensor 12 when outputting an image signal for recording by capture exposure, it is necessary to generate an image for recording with a high number of pixels, so that the pixel signal of almost all pixels of the image sensor 12 is output.
  • the image signal from the image sensor 12 is processed by the analog signal processing unit 13 and supplied to the temporary storage unit 26 as a digital signal.
  • the image data digitized as described above is alternately stored in the frame memories 26A and 26B for each frame. Then, the image data stored in the temporary storage unit 26 is sequentially output to the digital signal processing unit 20 from the preceding storage frame.
  • the digital signal processing unit 20 performs necessary processing to generate image data for live view display, and stores the image data in the memory unit 27.
  • the display unit 15 displays the LV image stored in the memory unit 27.
  • FIG. 2B shows a flow of data processing at the time of recording a captured image.
  • the process of FIG. 2B is performed.
  • the light incident on the image pickup optical system 11 enters the image pickup element 12 and the exposure process is started.
  • a release lag release time lag
  • the time is about 15 msec to 30 msec.
  • the image sensor 12 When the exposure process in the image sensor 12 is completed, the image sensor 12 outputs the image signal by photoelectric conversion to the analog signal processing unit 13.
  • the image signal in this case is, for example, a high-resolution image signal for recording a still image.
  • the arrow LV is shown thin and the arrow CAP is shown thick, but this represents the number of pixels of the image signal by the thickness of the arrow.
  • the image data converted into a digital signal by the analog signal processing unit 13 is processed by the digital signal processing unit 20 via the temporary storage unit 26.
  • the digital signal processing unit 20 generates high-resolution image data for recording, and also generates low-resolution image data for live view display, and stores the image data in the memory unit 27 at the same time. Then, the image data for recording is transferred to the recording control unit 14 for recording processing, and the image data for live view display is transferred to the display unit 15 and used for the live view display.
  • the live view display is performed in the state before the release operation for recording a still image and during the release operation, but there is a phenomenon (blackout) that the display of the live view image is interrupted at the timing after the release.
  • blackout a phenomenon that the display of the live view image is interrupted at the timing after the release.
  • the camera control unit 21 interrupts the exposure of the live view image and instructs the image sensor 12 to change the mode. For example, in order to perform capture exposure, it is instructed to change the read pixel, the resolution, and the like. Then, the camera control unit 21 starts the capture exposure of the image pickup device 12 after the preparation for the capture exposure is completed.
  • the exposure for the live view image being executed is interrupted at the release operation timing, so that the live view image of the frame cannot be displayed and blackout occurs.
  • the blackout continues until the capture exposure is performed and a frame of the live view image based on the capture exposure as shown in FIG. 2B is displayed.
  • the exposure for the live view image being executed is not interrupted and waits until the completion, and the image data is stored in the frame memory 26A, for example, so that the live view image of the frame can be displayed.
  • the capture exposure is prepared, and the capture exposure is performed after the preparation.
  • the image data of the capture exposure is stored in the frame memory 26B.
  • the display of the live view image can be continued using the image data of the frame memory 26A until the live view image data based on the image data of the capture exposure can be generated. As a result, blackout does not occur.
  • the live view image can be continuously displayed even during continuous shooting, for example.
  • the capture exposure is repeated at a predetermined cycle.
  • the capture exposure cycle is longer than one frame cycle according to the frame rate of the live view image, one or a plurality of inter-frame exposures are performed between the capture exposures. For example, exposure operations such as “capture exposure”, “inter-frame exposure”, “inter-frame exposure”, “capture exposure”, “inter-frame exposure”, “inter-frame exposure”, etc. are repeated until the end of continuous shooting.
  • the live view image can be displayed without causing blackout during continuous shooting.
  • FIG. 3 shows a partial configuration example of the digital signal processing unit 20, particularly a configuration example for explaining the positioning of the flicker detection / correction unit 25.
  • FIG. 3 is a configuration example in the case of a primary color system.
  • the primary color system is a three-plate system in which the image pickup optical system 11 of FIG. 1 has a decomposition optical system that separates the light from the subject into color light of each RGB color, and has an image pickup element for each RGB color as the image pickup element 12.
  • the image sensor 12 is a one-plate system having one image sensor in which color filters of each color of RGB are sequentially and repeatedly arranged for each pixel in the horizontal direction of the screen on the light incident surface.
  • the black level of the input RGB primary color signal is clamped to a predetermined level by the clamping circuit 41, and the gain of the RGB primary color signal after clamping is clamped by the gain adjusting circuit 42 according to the exposure amount. It will be adjusted.
  • the flicker detection / correction units 25R, 25G, and 25B detect the period of the flicker component and the peak timing of the flicker component for flickerless imaging. Further, the flicker detection / correction units 25R, 25G, and 25B can also perform flicker correction processing for reducing the flicker component in the RGB primary color signal.
  • the white balance of the RGB primary color signal that has passed through the flicker detection / correction units 25R, 25G, and 25B is adjusted by the white balance adjustment circuit 43, and the gradation of the RGB primary color signal after the white balance adjustment is converted by the gamma correction circuit 44.
  • the output brightness signals Y and the color difference signals RY and BY are generated from the RGB primary color signals after gamma correction.
  • the luminance signal Y is generally generated after all the processing of the RGB primary color signal is completed as shown in FIG. 3. Therefore, by reducing the flicker component in the RGB primary color signal in the process of processing the RGB primary color signal, the flicker component in the RGB primary color signal is reduced. Both the flicker component of each color component and the brightness component can be sufficiently reduced.
  • a flicker detection / correction unit 25 may be provided to detect and reduce the flicker component in the luminance signal Y.
  • Flickerless imaging and flicker correction> Flickerless imaging will be described.
  • an example of a flicker component generated by a fluorescent lamp will be described by taking an NTSC system as an example.
  • the frame rate is 60 fps (frames per second) and the commercial power frequency is 50 Hz (hertz) will be described.
  • the characteristics of the flicker component generated in this case are as follows. ⁇ 5/3 cycles are generated in one screen (3 frames (may be a field) are repeated cycles). -The phase changes for each line. -It can be treated as a sine wave having a frequency (100 Hz) twice the commercial power frequency (50 Hz).
  • the image sensor 12 since the exposure timing is different for each horizontal line, the amount of light received changes according to the horizontal line. Therefore, even if the fluorescent lamp is illuminated spatially uniformly, as shown in FIG. 4, there are horizontal lines in which the image signal value is higher than the average value and horizontal lines in which the image signal value is smaller than the average value. It will exist. For example, in the frame of FIG. 4, the uppermost horizontal line in the image, that is, the peak where the flicker component (amplitude of the flicker component) becomes the highest at the head line. Further, the horizontal line deviated from the head line, which corresponds to 3/5 of the total number of lines included in one screen, has the highest flicker component.
  • the flicker component can be represented by a sin function (sine wave) having an amplitude, a period, and an initial phase as shown in FIG.
  • the initial phase means the phase at the head line.
  • each horizontal line changes according to the frame. That is, for each frame, a horizontal line in which the value of the image signal is higher than the average value and a horizontal line in which the value of the image signal is lower than the average value change. In the next frame, it becomes a sine wave with a different initial phase. For example, assuming that flicker caused by a fluorescent lamp is generated at 100 Hz and the frame rate is 60 fps, five cycles of flicker of the fluorescent lamp are times corresponding to three frames. Therefore, the initial phase is the same every three frames. In this way, the flicker component varies depending on the horizontal line and the frame.
  • Flickerless imaging is an imaging that reduces the influence of flicker that appears in such an image. This will be described with reference to the schematic diagram of FIG. FIG. 5 shows the amplitude of the flicker light source with a period of 10 ms. Further, the exposure operation 100 is shown.
  • the exposure operation 100 is schematically represented by a parallelogram defined by the number of vertical lines L, the reading period (curtain speed) R from the beginning to the end of the effective pixels, and the exposure period (shutter speed) e.
  • the exposure period is shorter than one cycle of the flicker, and the timing of the exposure center of gravity coincides with the peak timing PT of the flicker.
  • the timing of the center of gravity of exposure is the timing at the substantially center of the exposure period of the substantially center line in the vertical direction of the image sensor.
  • next exposure operation 101 is at the timing shown in the figure due to the cycle of the exposure operation.
  • the flicker cycle and the frame cycle according to the frame rate of the captured image do not match, so even if the exposure operation 100 is performed at a certain point in time, the exposure operation 101 is performed at another time point. Exposure may also occur during periods when the flicker amplitude is significantly reduced, such as in the valleys of the flicker waveform. In this case, the effect of flicker appears relatively large in the image.
  • the timing of the exposure operation 101 is delayed so that the timing of the exposure center of gravity is synchronized with the peak timing PT of the flicker as shown as the exposure operation 101S.
  • the influence of flicker can be reduced in each frame.
  • Performing imaging by controlling the exposure timing in this way is called flickerless imaging.
  • the camera control unit 21 (margin-compatible flickerless control unit 24) needs to detect the flicker frequency and peak timing.
  • the flicker detection / correction unit 25 (25R, 25G, 25B) in the digital signal processing unit 20 performs flicker detection, detects the peak timing and frequency thereof, and the camera control unit 21 (margin-compatible flicker). The less control unit 24) is notified.
  • the flicker detection / correction unit 25 also performs flicker correction for reducing the flicker component in the image data.
  • the input image signal means an RGB primary color signal or a luminance signal input to the flicker detection / correction unit 25 (25R, 25G, 25B) as shown in FIG.
  • the output image signal means an RGB primary color signal or a luminance signal after processing by the flicker detection / correction unit 25 (25R, 25G, 25B).
  • the flicker detection / correction unit 25 of FIG. 6 includes, for example, a normalized integral value calculation block 30, a DFT (discrete Fourier transform) block 50, a flicker generation block 55, a frequency estimation / peak detection block 60, and a calculation block 65. ..
  • the normalized integral value calculation block 30 includes an integral block 31, an integral value holding block 32, an average value calculation block 33, a difference calculation block 34, and a normalization block 35.
  • the integration block 31 integrates the input image signal In'(x, y) over one line in the horizontal direction of the screen, and calculates the integration value Fn (y).
  • the calculated integrated value Fn (y) is stored and held in the integrated value holding block 32 for flicker detection in subsequent frames.
  • the integrated value holding block 32 is configured to be able to hold the integrated value for the number of frames (for example, two frames) required for processing.
  • the average value calculation block 33 calculates, for example, the average value AVE [Fn (y)] of the three integrated values Fn (y), Fn_1 (y), and Fn_1 (y). Note that Fn_1 (y) is the integral value Fn_1 (y) of the same line one frame before, and Fn_1 (y) is the integral value Fn_1 (y) of the same line two frames before, and these integral values. Is the value read from the integral value holding block 32.
  • the difference calculation block 34 calculates the difference between the integrated value Fn (y) supplied from the integrated block 31 and the integrated value Fn_1 (y) one frame before supplied from the integrated value holding block 32. With the difference value Fn (y) -Fn_1 (y), the influence of the subject is sufficiently removed, so that the flicker component (flicker coefficient) appears more clearly than the integrated value Fn (y).
  • the difference value Fn (y) -Fn_1 (y) from the difference calculation block 34 is divided by the mean value AVE [Fn (y)] from the mean value calculation block 33.
  • the conversion process is performed, and the difference value gn (y) after normalization is calculated.
  • the DFT block 50 performs discrete Fourier transform on the data corresponding to one wavelength (L line) of the flicker of the difference value gn (y) after normalization from the normalization block 35. As a result, the amplitude ⁇ m and the initial phase ⁇ mn of each next-order flicker component are estimated.
  • the initial phase ⁇ mn is associated with and held in the counter for each predetermined time (for example, every 0.5 ⁇ s (microseconds)) generated in the image pickup apparatus 1.
  • the initial phase ⁇ mn calculated by the DFT block 50 is supplied to the frequency estimation / peak detection block 60.
  • the frequency estimation / peak detection block 60 estimates at least the frequency of the flicker component (light source), in other words, the period of the flicker component, based on the input initial phase ⁇ mn, and further detects the peak timing of the flicker component. ..
  • the frequency estimation / peak detection block 60 estimates the frequency of the flicker component from the time difference based on the frame rate and the phase difference of the initial phase ⁇ mn. Further, the frequency estimation / peak detection block 60 detects the peak timing of the flicker component from, for example, the initial phase ⁇ mn in the first frame and the counter associated with the initial phase ⁇ mn.
  • the timing at which the peak of the flicker component (for example, 90 degrees) that can be approximated by a sine wave appears can be obtained by using the time interval of the counter.
  • the peak of the flicker component is a place where the amplitude of the flicker component is maximized.
  • the information obtained by the frequency estimation / peak detection block 60 in this way is notified to the camera control unit 21 (margin-compatible flickerless control unit 24).
  • the camera control unit 21 can control the timing of the image sensor as described above for flickerless imaging.
  • the image pickup device can be miniaturized.
  • the process for determining the characteristics of the flicker component is not limited to the above-mentioned method, and a known method can be applied.
  • the flicker detection / correction unit 25 can perform flicker correction so as to reduce the flicker component generated in the image signal.
  • the flicker coefficient ⁇ n (y) is calculated from the estimated values of ⁇ m and ⁇ mn from the DFT block 50. Then, the calculation block 65 adds 1 to the flicker coefficient ⁇ n (y) from the flicker generation block 53, and applies an inverse gain by dividing the input image signal In'(x, y) by the sum [1 + ⁇ n (y)]. Perform processing. As a result, the flicker component contained in the input image signal In'(x, y) is almost completely removed, and the output image signal (RGB primary color signal or luminance signal after the flicker reduction processing) is substantially removed from the calculation block 65. A signal component In (x, y) that does not contain a flicker component can be obtained.
  • the flicker detection unit 25 By providing the flicker detection / correction unit 25 as described above, flickerless imaging control becomes possible, and further, flicker correction can prevent deterioration of the image quality of the image.
  • the flicker detection unit may be configured without the calculation block 65 and the flicker generation block 55 from the configuration of FIG.
  • Margin-compatible flickerless control reduces the frequency with which the live view image becomes a non-smooth moving image due to flickerless imaging, for example, when continuous shooting is performed while displaying the live view image. be.
  • FIG. 7 shows the flicker amplitude of a 121 Hz light source and the exposure operation at 20 fps under the light source.
  • This is an example of the operation during continuous shooting, in which the capture exposure CPE is performed a plurality of times and the two inter-frame exposures IE1 and IE2 are performed between the capture exposure CPE and the next capture exposure CPE. Shown.
  • the exposure operation of one frame is shown by a parallelogram determined by the shutter speed, the exposure time, and the number of horizontal lines as shown in FIG.
  • the shape of the parallelogram in the figure is merely a schematic shape, and does not strictly indicate the shutter speed, exposure time, or number of lines.
  • the synchronization signal SensV is a synchronization signal for the imaging operation of the image sensor 12, and the timing is variably set by the control of the camera control unit 21.
  • the synchronization signal SysV is a synchronization signal for the display operation of the display unit 15, and has a vertical timing of a predetermined frame rate (20 fps in this case). For the live view image, the image of each frame is displayed at the timing according to the synchronization signal SysV.
  • the operation of continuous shooting imaging is performed by the user, and the first capture exposure CPE is performed after the time point t10.
  • timing control is performed so that the exposure center of gravity timing WT is synchronized with the peak timing PT of the flicker.
  • the inter-frame exposures IE1 and IE2 are performed at the timing corresponding to the frame rate of 20 fps.
  • the LV image CPP based on the capture exposure CPE is displayed in the frame after the end of the capture exposure CPE, the LV image IP1 based on the inter-frame exposure IE1 is displayed in the next frame, and the LV image IP1 based on the inter-frame exposure IE1 is displayed in the next frame.
  • the LV image IP2 based on the inter-frame exposure IE2 will be displayed.
  • the timing control TS is set to delay the start timing of the capture exposure CPE. Will be done. That is, the synchronization signal SensV is delayed.
  • the capture exposure CPE after the time point t12 also becomes a flickerless image in which the exposure center of gravity timing WT matches the peak timing PT.
  • the inter-frame exposures IE1 and IE2 are performed at the timing corresponding to the frame rate of 20 fps.
  • the capture exposure CPE is delayed by the timing control TS, the same LV image IP2 is displayed for two consecutive frame periods in the live view image display. This is because the capture exposure CPE has not ended at the start of the second frame after the time point t12.
  • the timing control TS for delaying the synchronization signal SensV is performed, so that the exposure center of gravity timing WT of the capture exposure CPE coincides with the peak timing PT, resulting in flickerless imaging.
  • the same LV image IP2 may be displayed continuously for two frames due to the delay of the capture exposure CPE.
  • the plurality of still image data as continuous shooting obtained by the capture exposure CPE can be an image that is less affected by flicker.
  • the frame rate for the user to visually recognize (hereinafter referred to as "user-visualized frame rate") fluctuates.
  • the time difference from the capture exposure CPE to the LV image CPP based on it, the time difference from the inter-frame exposure IE1 to the LV image IP1, and the time difference from the inter-frame exposure IE2 to the LV image IP2 are the latencies of the live view image.
  • the latency fluctuates (the inclination of the arrow indicating the display start timing from the exposure end timing is not constant).
  • the user will perceive the live view image as not moving smoothly.
  • the continuous shooting operation is performed while chasing the subject in the live view image, if the movement of the moving image as the live view image is awkward, it becomes difficult to adjust the angle of view aiming at the subject.
  • FIG. 8 shows the flicker of the 121 Hz light source, the capture exposure CPE and the inter-frame exposure IE1 and IE2, the synchronization signal SensV, the synchronization signal SysV, and the LV images CPP, IP1, and IP2 as frames of the live view image, as in FIG. Shown.
  • An enlarged view for showing the deviation between the peak timing PT of the flicker and the exposure center of gravity timing WT of the capture exposure CPE is shown in the upper part of the figure.
  • the continuous shooting imaging operation is performed by the user, and the first capture exposure CPE is performed after the time point t1. Similar to the case of FIG. 7, the timing of the first capture exposure CPE is controlled so that the exposure center of gravity timing WT is synchronized with the peak timing PT of the flicker. After that, the inter-frame exposures IE1 and IE2 are performed at the timing corresponding to the frame rate of 20 fps.
  • the LV image CPP based on the capture exposure CPE is displayed in the frame after the end of the capture exposure CPE, the LV image IP1 based on the inter-frame exposure IE1 is displayed in the next frame, and the LV image IP1 based on the inter-frame exposure IE1 is displayed in the next frame. , The LV image IP2 based on the inter-frame exposure IE2 is displayed.
  • the timing at which the next capture exposure CPE is performed assumes the timing at which the exposure cycle is maintained. That is, the period length from the start timing of the exposure period of the previous inter-frame exposure IE2 to the start timing of the exposure period of the current capture exposure CPE, and the start timing of the exposure period of the previous inter-frame exposure IE1 to the start timing of the previous inter-frame exposure IE2 This is the timing at which the period length up to the start timing of the exposure period is the same. Considering the capture exposure CPE that maintains such an exposure cycle, the exposure center of gravity timing WT does not match the peak timing PT.
  • the amount of deviation of the exposure center of gravity timing WT from the peak timing PT is within the range of the margin M.
  • the margin M is set as a range in which it can be evaluated that the influence of flicker is not observed in the image even if the exposure center of gravity timing WT deviates from the peak timing PT.
  • the timing control for delaying the start timing of the capture exposure CPE is not performed so that the exposure center of gravity timing WT matches the peak timing PT. That is, the capture exposure CPE is executed as it is while maintaining the period of the frame rate of 20 fps by the synchronization signal SensV. Further, similarly thereafter, the inter-frame exposures IE1 and IE2 are performed at the timing corresponding to the frame rate of 20 fps.
  • the amount of deviation of the exposure center of gravity timing WT from the peak timing PT is within the range of the margin M also at the time point t3 and the time point t4. Therefore, the timing control for delaying the start timing of the capture exposure CPE is not performed so that the exposure center of gravity timing WT matches the peak timing PT. That is, the capture exposure CPE and the inter-frame exposure IE1 and IE2 are executed while maintaining the period of the frame rate of 20 fps.
  • the timing control TS for delaying the start timing is performed so that the exposure center of gravity timing WT matches the peak timing PT, and the capture exposure CPE is performed.
  • the timing control TS As a result, it is switched whether or not to perform the timing control TS as the flickerless imaging according to the relationship between the deviation amount of the exposure center of gravity timing WT from the peak timing PT and the margin M.
  • the LV images CPP, IP1 and IP2 are sequentially displayed at a constant frame rate and latency up to the time point t5, and smooth moving image display can be realized.
  • the time point t5 since the timing control TS is performed, the user visual frame rate and the latency fluctuate, but the frequency of such a state can be reduced as compared with the operation of FIG. It is possible to make it difficult for the user to feel that the smoothness of the image is impaired.
  • the image data when the timing control TS is not performed is also an image in which the influence of flicker is hardly seen, the quality of the recorded image can be maintained.
  • the flicker correction is performed as described in FIG. 6, the influence of the slight flicker due to the slight deviation between the peak timing PT and the exposure center of gravity timing WT is also reduced, so that the influence of the flicker is almost the same. It can be removed and high-quality image recording can be realized.
  • control unit 24 A processing example of the margin-compatible flickerless control unit 24 for realizing such a margin-compatible flickerless imaging operation will be described with reference to FIG. In the description of FIG. 9, the margin-corresponding flickerless control unit 24 is abbreviated as “control unit 24”.
  • FIG. 9 shows a processing example of the control unit 24 during the period during which the continuous shooting imaging operation is being performed, for example, during the period during which the user keeps pressing the release button in the continuous shooting mode.
  • the control unit 24 proceeds from step S101 to step S102 to execute timing control as flickerless imaging for the first capture exposure CPE.
  • the exposure timing is controlled so that the exposure center of gravity timing WT coincides with the peak timing PT.
  • step S103 the control unit 24 causes the digital signal processing unit 20 to perform image processing for still image recording and live view display based on the capture exposure CPE.
  • step S104 the control unit 24 proceeds from step S104 to step S105.
  • the control unit 24 proceeds from step S105 to step S108 when it is the timing of the capture exposure CPE based on the synchronization signal SensV, and proceeds from step S105 to step S106 otherwise. Therefore, at the time after executing the process according to the capture exposure CPE in step S103, the control unit 24 controls the timing of the inter-frame exposure IE1 in step S106.
  • the inter-frame exposure IE1 having a period based on the synchronization signal SensV is executed, and in step S107, the digital signal processing unit 20 executes image processing for live view display according to the inter-frame exposure IE1.
  • the control unit 24 proceeds to steps S104, S105, S106, and S107 to execute the inter-frame exposure IE2 and the image processing for the live view display corresponding thereto.
  • step S105 the control unit 24 calculates the deviation amount of the exposure center of gravity timing WT and the peak timing PT when the capture exposure CPE is performed at the timing while maintaining the period based on the synchronization signal SensV. Then, in step S109, the control unit 24 compares the deviation amount and the margin M.
  • control unit 24 executes timing control as flickerless imaging in step S110 so that the exposure center of gravity timing WT coincides with the peak timing PT.
  • control unit 24 proceeds to step S111 to execute the capture exposure CPE while maintaining the current exposure cycle.
  • step S103 the continuous shooting imaging operation is completed.
  • step S104 the margin-compatible flickerless imaging as shown in FIG. 8 is executed.
  • Margin setting example> An example of setting the margin M will be described.
  • the margin M may be set according to the amplitude and period of the flicker. It may be set as a range that can be evaluated.
  • the image pickup apparatus 1 may have one fixed set value as such a margin M. For example, it is sufficient that there is one set value as the margin M that can correspond to various imaging modes. However, the range where the influence of flicker is not seen is expected to fluctuate according to various conditions. Therefore, it is conceivable to set the margin M as described below.
  • FIG. 10 shows the relationship between the curtain speed and the margin. If the exposure is performed during the period when the amplitude value of the flicker is, for example, the threshold value th1 or more, it is assumed that the influence of the flicker is hardly observed in the image.
  • the shaded lines schematically show the exposure operations 71, 72, and 73 at the curtain speed R1, and the exposure centers of gravity thereof are shown as the exposure center of gravity timings WT71, WT72, and WT73. Note that the exposure operations 71, 72, and 73 do not mean that the exposure is performed three times, but exemplifies a pattern in which the exposure period is different with respect to the flicker cycle.
  • FIG. 10 shows that, in the case of the curtain speed R1, if the exposure is performed during the period within the range indicated by the exposure operation 71 to the exposure operation 73, the amplitude value of the flicker is equal to or higher than the threshold value th1 during the exposure period. Shown. That is, regardless of whether the exposure center of gravity timing WT is the exposure center of gravity timing WT71, WT72, or WT73, the image is hardly affected by flicker. Therefore, in this case, the margin M can be set as the illustrated margin M1 before and after the peak timing PT.
  • the exposure operations 81, 82, and 83 at the curtain speed R2 are schematically shown by diagonal lines, and their exposure centers of gravity are shown as the exposure center of gravity timings WT81, WT82, and WT83.
  • the amplitude value of the flicker becomes the threshold value th1 or more during the exposure period. It is shown that.
  • the permissible exposure center of gravity timing WT is within the range of the exposure center of gravity timing WT81 to WT83. Therefore, the margin M can be set as the illustrated margin M2 before and after the peak timing PT.
  • the margin M may be set according to the curtain speed. Therefore, when the curtain speed changes due to a change in the imaging mode or replacement of an interchangeable lens, it is desirable to change the margin M as well.
  • the margin M can be modulated as follows, for example, with reference to the margin M1 in FIG.
  • the margin M can be dynamically set from the amount of exposure loss when the peak timing PT is matched with the exposure center of gravity timing WT.
  • FIG. 11 shows that the margin M is set as the exposure loss amount from the peak timing PT in the flicker cycle T, assuming an exposure loss amount D that can be evaluated that the influence of flicker does not appear in the image.
  • the exposure loss amount is, for example, the exposure amount by the flicker light source obtained when the peak timing PT and the exposure center of gravity timing WT match, and the exposure amount by the flicker light source obtained when the exposure center of gravity timing WT deviates from the peak timing PT. It is a difference.
  • the exposure operations 74, 75, and 76 of the curtain speed R shown in the figure are exposures that can maintain a certain degree of image quality when the exposure loss amount D is assumed. For example, by correcting the amount of exposure loss by the gain processing of flicker correction in the digital signal processing unit 20 (flicker detection / correction unit 25), even if the peak timing PT and the exposure center of gravity timing WT deviate, it is equivalent to the case where they do not deviate. The amount of exposure can be secured. However, since the image quality is deteriorated by the gain processing, it is not desirable to set the amount of exposure loss that can be dealt with by the gain processing unnecessarily large.
  • the corresponding exposure loss amount D is set within an acceptable range. Then, when the exposure loss amount D is set as shown in the figure, the margin M may be set within the range of the exposure center of gravity timings WT74, WT75, and WT76.
  • the exposure loss amount is set as shown as the exposure loss amount D'in the figure.
  • the degree of image quality deterioration due to gain processing differs depending on the performance of the image sensor 12, the image pickup mode, and the like.
  • the required image quality also depends on the product / model of the camera. Therefore, it may be possible to set a larger exposure loss amount D'.
  • the exposure may be performed during the period shown as the exposure operations 84, 85, 86 at the same curtain speed R. That is, the margin M'may be set so as to cover the range of the exposure center of gravity timings WT84, WT85, and WT86.
  • the margin M corresponding to the exposure loss amount D as described above is obtained as follows.
  • the margin M may be variably set according to the size of the image read from the image sensor 12.
  • FIG. 12 shows a case where the reading from the image sensor 12 is a full size (36.0 mm ⁇ 24.0 mm) and a case where the APS-C size (22.4 mm ⁇ 15.0 mm) is read.
  • the flicker amplitude value that can be evaluated as having no influence of flicker on the image is the threshold value th1 or more.
  • the full-size read exposure operation 77,78,79 and the APS-C size exposure operation 87,88,89 show the curtain speed due to the difference in the number of pixels (number of lines) due to the difference in the read range on the screen.
  • the curtain speed R1 and the curtain speed R2 are different. Therefore, in the case of full-size reading, it is appropriate to set the margin M1 to cover the exposure center of gravity timings WT77, WT78, WT79, and in the case of APS-C reading, it is appropriate to set the margin M2 to cover the exposure center of gravity timings WT87, WT88, WT89. It becomes.
  • the margin M varies depending on how much the influence of flicker is tolerated.
  • the margin M in an image for recording, the margin M is narrowed, but during the period when the live view image is only exposed (that is, the period when the capture exposure is not performed) such as when waiting for release, the margin M is widened and the flicker.
  • the less control may be relaxed.
  • the chance of performing the above-mentioned timing control TS can be reduced, and the smoothness of the live view image as a moving image can be further improved.
  • the margin M may be changed depending on whether the flicker correction is performed or not. That is, when the flicker correction is performed, even if the margin M is set in a wider range than when the flicker correction is not performed, it can be evaluated that there is almost no influence of the flicker appearing in the image. In other words, in order to obtain the same image quality as when the flicker correction is not performed, the margin M can be widened while the flicker correction is performed, and the frequency of fluctuations in the user-visible frame rate and latency can be further reduced.
  • the image pickup apparatus 1 and the camera control unit 21 of the embodiment provide a timing control TS that synchronizes a specific timing within the exposure period with the peak timing PT based on the detected period of the flicker component and the peak timing PT of the flicker component.
  • a control unit (margin-compatible flickerless control unit 24) that executes margin-compatible flickerless control without performing timing control TS when the deviation amount between the specific timing and the peak timing PT is within the set margin M is provided. This makes it possible to reduce the chances of performing control that delays the start of the exposure period. As a result, it is possible to reduce the frequency with which the user-visualized frame rate of the image data based on the exposure changes and the latency to the image output changes. Further, the release lag may be reduced by not performing the timing control TS.
  • the margin-corresponding flickerless control unit 24 of the embodiment has described an example in which the margin-corresponding flickerless control is executed when continuous shooting imaging is performed while displaying a live view image.
  • such a margin-compatible flickerless control is effective not only at the time of continuous shooting imaging but also at the time of live view display before the start of imaging of a still image, or at the time of live view display in a moving image mode or the like. That is, even when the exposure for the live view display image is performed, the timing is controlled so that the exposure timing is adjusted to the peak of the flicker, and if the deviation amount is within the margin, the timing is adjusted to the peak. Do not control. As a result, it is possible to reduce the frequency with which the user-viewing frame rate of the image data based on the exposure changes and the latency until the image output changes, and as a result, a smooth live view image display can be realized.
  • a capture exposure CPE for generating one still image and a live view image constituting the continuous shooting image, and one or a plurality of inter-frame exposures for generating a live view image For example, when the inter-frame exposure IE1, IE2) is repeated, the margin-compatible flickerless control unit 24 performs timing control in the first capture exposure CPE after the start of continuous shooting imaging, and in the second and subsequent capture exposure CPEs, An example has been described in which the timing control TS is not performed if the deviation amount of the specific timing is within the margin M, and the timing control TS is performed if the deviation amount of the specific timing is not within the margin M (see FIGS. 8 and 9).
  • the period length from the start timing of the previous exposure period to the start timing of the current exposure period is the same as the period length from the start timing of the previous exposure period to the start timing of the previous exposure period.
  • the specific timing described above is the exposure center of gravity timing WT. That is, it is the timing at the substantially center of the exposure period of the substantially center line in the vertical direction of the image sensor.
  • the flickerless effect can be obtained most appropriately by matching the timing at the substantially center of the frame with the peak timing of the flicker.
  • the center of gravity of exposure does not have to be exact. Therefore, the specific timing does not have to be exactly the center of gravity of exposure.
  • the margin M may be set so as to determine the amount of deviation from the peak timing PT with reference to the exposure start timing and the end timing.
  • the margin M is set according to the curtain speed (see FIG. 10).
  • the margin can be increased when the curtain speed is fast and the margin can be reduced when the curtain speed is slow.
  • the margin can be increased as much as possible according to the curtain speed within the range where it can be evaluated that the influence of flicker does not appear.
  • the margin M is set according to the amount of exposure loss from the level at the peak timing PT of the flicker component (see FIG. 11).
  • the margin M is changed depending on whether or not the flicker correction for correcting the image data is performed with the gain set for each line based on the detected period of the flicker component and the peak timing of the flicker component.
  • An example was given.
  • flicker correction it is possible to reduce the frequency of changes in the user-viewing frame rate and latency by increasing the margin. This also improves the quality of live view images.
  • the margin M is set according to the number of pixels read from the image sensor.
  • the curtain speed also changes, so it is preferable to set a margin according to the curtain speed.
  • the margin is set according to whether or not the exposure of the image to be recorded is used. For example, if the image is used only for live view display, the tolerance for the influence of flicker is relatively large.
  • the margin depending on whether or not the image to be recorded is exposed.
  • the margin is the exposure of the image to be recorded, it is set narrower than the period during which the image to be recorded is not exposed, which is suitable for improving the quality of the recorded image.
  • the program of the embodiment is a program that causes an arithmetic processing unit such as a CPU to execute the above-mentioned margin-corresponding flickerless control. That is, the program of the embodiment is a timing control TS that synchronizes a specific timing within the exposure period (for example, the exposure center of gravity timing WT) with the peak timing PT based on the detected period of the flicker component and the peak timing PT of the flicker component.
  • the timing control TS is not performed, that is, the above-mentioned margin-compatible flickerless control is executed in the arithmetic processing unit. It is a program to let you. With such a program, the camera control unit 21 described above can be realized by an arithmetic processing unit such as a microcomputer.
  • These programs can be recorded in advance in an HDD as a recording medium built in a device such as a computer device, a ROM in a microcomputer having a CPU, or the like.
  • the programs are flexible discs, CD-ROMs (Compact Disc Read Only Memory), MO (Magneto Optical) discs, DVDs (Digital Versatile Discs), Blu-ray discs (Blu-ray Disc®), magnetic discs, semiconductors. It can be temporarily or permanently stored (recorded) in a removable recording medium such as a memory or a memory card.
  • Such removable recording media can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • the present technology can also adopt the following configurations.
  • An imaging device provided with a control unit that executes margin-compatible flickerless control in which the timing control is not performed when the timing is within the margin.
  • the control unit In the first capture exposure after the start of continuous shooting, the timing control is performed. In the second and subsequent capture exposures, the timing control is not performed if the deviation amount of the specific timing is within the margin, and the timing control is performed if the deviation amount of the specific timing is not within the margin (2).
  • the imaging apparatus according to. (4) The control unit The period length from the start timing of the previous exposure period to the start timing of the current exposure period is the same as the period length from the start timing of the previous exposure period to the start timing of the previous exposure period.
  • the imaging apparatus determines whether or not the amount of deviation of the specific timing of the period from the peak timing is within the margin.
  • the margin is set according to the amount of exposure loss from the peak level of the flicker component.
  • a different value is set as the margin depending on whether or not the flicker correction is performed based on the detected period of the flicker component and the peak timing of the flicker component.
  • Imaging device (9) The imaging device according to any one of (1) to (8) above, wherein the margin is set according to the number of pixels read from the image sensor. (10) The imaging device according to any one of (1) to (9) above, wherein the margin is set according to whether or not the exposure of the image to be recorded is used. (11) The image pickup apparatus according to (10) above, wherein the margin is set narrower than the period during which the image to be recorded is not exposed when the image to be recorded is exposed.
  • timing control is performed to synchronize the specific timing within the exposure period with the peak timing, and the deviation amount of the specific timing deviates from the peak timing.
  • An imaging control method in which the imaging control device executes margin-compatible flickerless control in which the timing control is not performed when the amount is within the margin set as the allowable amount.
  • timing control is performed to synchronize the specific timing within the exposure period with the peak timing, and the deviation amount of the specific timing deviates from the peak timing.
  • a program that causes an arithmetic processing unit to execute margin-compatible flickerless control that does not perform the timing control when it is within the margin set as the allowable amount.
  • Imaging device 11 Imaging optical system 12 Imaging element 13 Analog signal processing unit 14 Recording control unit 15 Display unit 16 Communication unit 17 Operation unit 18 AE detection unit 19 Memory unit 20 Digital signal processing unit 21 Camera control unit 22 Driver unit 24 Margin compatible Flickerless control unit 25, 25R, 25G, 25B Flicker detection / correction unit 26 Temporary storage unit 26A, 26B Frame memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

撮像制御装置は、マージン対応フリッカレス制御を実行する制御部を備える。マージン対応フリッカレス制御は、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、特定タイミングのずれ量がピークタイミングからのずれ許容量として設定したマージン内であるときはタイミング制御を行わないとする制御である。

Description

撮像装置、撮像制御方法、プログラム
 本技術は撮像装置、撮像制御方法、プログラムに関し、特にフリッカの影響を低減する撮像を行う場合の技術に関する。
 撮像装置(カメラ)では、撮像した画像にフリッカの影響が生じる場合がある。例えば室内用の光源として普及している蛍光灯や近年普及が拡大しているLED(Light Emitting Diode)等は、商用電源周波数の影響により周期的に照明光が明滅するいわゆるフリッカが生じる。撮像画像では、このようなフリッカによる色むら等の画質の低下が生じる。
 下記特許文献1では、フリッカ成分の周期およびピークのタイミングを検出し、ピークタイミングに露光のタイミングを同期させる制御を行うことで、フリッカの影響を低減した、いわゆるフリッカレス撮像を行う技術が開示されている。
 また、多くのユーザ(本開示ではユーザとは主に、カメラを使用して撮像を行う者を指す)は、カメラの背面に設けられた表示パネルやEVF(electric viewfinder)等の表示部に表示された画像、即ちライブビュー画像を確認して撮影タイミングを決定し、レリーズボタン(シャッターボタン)を操作する。このレリーズ操作の際に、露光動作の切り替えなどの事情でライブビュー画像が表示できず、表示部のブラックアウトが生ずることがある。
 特許文献2にはブラックアウトを回避する技術が開示されている。
WO2017/217137号公報 WO2018/179711号公報
 ところで、例えばライブビュー画像を表示しながら撮像を行う連写モードの際に、フリッカレス撮像を行って、露光タイミングをフリッカのピークタイミングに合わせるようにすると、常に一定間隔でライブビュー画像を更新することが難しくなる。
 具体的には、撮像のタイミングによっては、同じライブビュー画像が複数回続くことでユーザが視認するフレームレートが変化してしまうことや、露光からライブビュー画像の表示までの期間長(レイテンシ)が変わることがある。
 このようなユーザが視認するフレームレートやレイテンシの変動により、円滑なライブビュー画像が表示できないといったことが生じ、ユーザにとってはライブビュー画像を見ながらフレーミングすることが難しくなる場合がある。
 そこで本技術は、フリッカの影響の少ない撮像を実現しつつ、ライブビュー画像が円滑でなくなる事態を低減することができる技術を提案する。
 本技術に係る撮像装置は、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、前記ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記タイミング制御を行わないマージン対応フリッカレス制御を実行する制御部を備える。
 いわゆるフリッカレス撮像として、フリッカ成分のピークタイミングに露光期間内の特定タイミングを同期させるようにする場合に、その特定タイミングがマージン内のずれであれば、同期のための制御をおこなわないようにする。
 なお、このような制御部を備える撮像制御装置を想定することもできる。
 上記した本技術に係る撮像装置においては、前記制御部は、ライブビュー画像の表示を行いながら連写撮像を行う場合に前記マージン対応フリッカレス制御を実行することが考えられる。
 ライブビュー画像を表示させながら連写撮像を行う場合に、フリッカレス撮像を行うのであるが、その際に、マージン内のタイミングずれであるか否かに応じてタイミング制御の実行又は不実行を決定する。
 上記した本技術に係る撮像装置においては、連写撮像時に、連写画像を構成する1つの静止画像及びライブビュー画像の双方を生成するためのキャプチャ露光と、ライブビュー画像を生成するための1又は複数のコマ間露光とを繰り返す場合において、前記制御部は、連写撮像開始後の最初のキャプチャ露光では、前記タイミング制御を行い、2回目以降のキャプチャ露光では、前記特定タイミングのずれ量が前記マージン内であれば前記タイミング制御を行わず、前記特定タイミングのずれ量が前記マージン内でなければ前記タイミング制御を行うことが考えられる。
 連写の1枚目はフリッカレス撮像となるようにタイミング制御する。2枚目以降のキャプチャ露光では、マージン対応フリッカレス制御が行われるようにする。
 上記した本技術に係る撮像装置においては、前記制御部は、前回の露光期間の開始タイミングから今回の露光期間の開始タイミングまでの期間長と、前々回の露光期間の開始タイミングから前記前回の露光期間の開始タイミングまでの期間長と同一であり、今回の露光期間の特定タイミングの前記ピークタイミングからのずれ量が前記マージン内となるか否かを判定することが考えられる。
 つまり、露光周期を保った状態で、露光期間の特定タイミングがピークタイミングからどれだけずれるかに応じて、タイミング制御の実行/不実行を決定する。
 上記した本技術に係る撮像装置においては、前記特定タイミングは、露光重心のタイミングであることが考えられる。
 例えば露光重心のタイミングは、撮像素子の垂直方向における略中央ラインの露光期間の略中央のタイミングである。
 上記した本技術に係る撮像装置においては、前記マージンは幕速に応じて設定されることが考えられる。
 幕速が早いほど、フリッカの影響を受けにくいタイミングずれ量の範囲が広くなるためである。
 上記した本技術に係る撮像装置においては、前記マージンはフリッカ成分のピークレベルからの露光落ち量に応じて設定されることが考えられる。
 露光落ち量によりフリッカの影響を受けにくいタイミングずれ量の範囲が異なるためである。
 上記した本技術に係る撮像装置においては、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいてフリッカ補正が行われるか否かにより、前記マージンとして、異なる値が設定されることが考えられる。
 フリッカの影響を低減するフリッカ補正が行われる場合、画像にフリッカの影響が目立たない範囲が広くなるためである。
 上記した本技術に係る撮像装置においては、前記マージンは撮像素子からの読出画素数に応じて設定されることが考えられる。
 読出画素数が異なることで幕速も変化することが生じるため、読出画素数に応じてマージンを設定する。
 また前記マージンは記録する画像の露光であるか否かに応じて設定されることが考えられる。フリッカの影響に対する許容度合いがことなるためである。
 また前記マージンは、前記記録する画像の露光である場合に、前記記録する画像の露光を行っていない期間よりも狭く設定されることが考えられる。
 本技術に係る撮像制御方法は、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、前記ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、前記特定タイミングのずれ量が前記ピークタイミングからのずれ許容量として設定したマージン内であるときは前記タイミング制御を行わないマージン対応フリッカレス制御を、撮像制御装置が実行する撮像制御方法である。
 これによりフリッカレス撮像としてのタイミング制御を行う場合と行わない場合とが生じないようにする。
 本技術に係るプログラムは、以上のマージン対応フリッカレス制御を演算処理装置に実行させるプログラムである。
 これにより本開示の撮像制御装置、撮像装置を容易に実現できるようにする。
本技術の実施の形態の撮像装置のブロック図である。 記録待機時とキャプチャ時の処理の流れの説明図である。 実施の形態のデジタル信号処理部の要部のブロック図である。 フリッカの位相、周期及び振幅の説明図である。 フリッカレス撮像の説明図である。 実施の形態のフリッカ検波・補正部のブロック図である。 ライブビュー画像が非円滑になる場合の説明図である。 実施の形態の露光及びライブビュー画像表示の説明図である。 実施の形態のマージン対応フリッカレス制御のフローチャートである。 実施の形態の幕速に応じたマージン設定例の説明図である。 実施の形態の露光落ち量に応じたマージン設定例の説明図である。 実施の形態の読出画像に応じたマージン設定例の説明図である。
 以下、実施の形態を次の順序で説明する。
<1.撮像装置の構成>
<2.フリッカレス撮像とフリッカ補正>
<3.マージン対応フリッカレス制御>
<4.マージンの設定例>
<5.まとめ及び変形例>
 なお、本開示で用いる用語のいくつかについて、その意味を説明しておく。
 「キャプチャ露光」は、ユーザ(撮像者)が、撮像装置のレリーズボタン(シャッターボタン)を操作することに応じて行われる画像記録のための露光動作をさす。
 「キャプチャ画像」はキャプチャ露光によって得られた画像信号に基づく画像である。キャプチャ画像は静止画、連写による複数の静止画、動画の1フレームなどとして記録媒体に記録される。
 「コマ間露光」は、連写撮像の際に、キャプチャ露光と次のキャプチャ露光の間の期間に行われる露光であり、特にライブビュー画像を生成するための露光である。従って撮像素子からの読出はキャプチャ露光よりも少ない画素数の読出(低解像度画像用の露光)とすることができる。
 「ライブビュー画像」又は「LV画像」は、撮像素子により撮像されて表示部にユーザが視認可能な状態で表示される画像を指す。即ちリアルタイムでの被写体側の光景を示す画像である。
 例えば静止画のレリーズ操作前の時点では、コマ間露光と同様の低解像度画像の撮像が行われてライブビュー画像の各フレームの画像データが生成される。
 連写撮像の場合のライブビュー画像は、キャプチャ露光とコマ間露光の両方から生成される。
 なお一般的に、キャプチャ画像は、撮像素子の画素数を反映した高画素数の高解像度画像として生成され、記録されるが、ライブビュー画像は、表示部の表示可能な画素数に合わせた低解像度の画像として生成されて表示される。
<1.撮像装置の構成>
 図1は実施の形態の撮像装置1の構成例を示している。
 撮像装置1では、被写体からの光が、撮像光学系11を介して例えばCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどにより構成される撮像素子12に入射して、撮像素子12で光電変換され、撮像素子12からアナログ画像信号が得られる。
 撮像光学系11には、ズームレンズ、フォーカスレンズ、集光レンズ等の各種レンズや、絞り機構、ズームレンズの駆動機構、フォーカスレンズの駆動機構が設けられている。メカニカルシャッター(例えばフォーカルプレーンシャッター)が設けられる場合もある。
 撮像素子12は、例えばCMOS基板上に、フォトダイオード(フォトゲート)、転送ゲート(シャッタートランジスタ)、スイッチングトランジスタ(アドレストランジスタ)、増幅トランジスタ、リセットトランジスタ(リセットゲート)などを有する画素が複数、2次元状に配列されて形成されるとともに、垂直走査回路、水平走査回路および画像信号出力回路が形成されたものである。
 撮像素子12は、原色系と補色系のいずれでもよく、撮像素子12から得られるアナログ画像信号は、RGB各色の原色信号または補色系の色信号である。また撮像素子12がカラーフィルタを有さない構成とされて、撮像素子12から得られるアナログ画像信号は白黒の画像信号となるようにしてもよい。
 撮像素子12からのアナログ画像信号は、IC(Integrated circuit:集積回路)として構成されたアナログ信号処理部13において、色信号ごとに、サンプルホールドされ、AGC(Automatic Gain Control :自動利得制御)によって振幅調整され、A/D(Analog to Digital)変換によってデジタル画像信号に変換される。
 アナログ信号処理部13からのデジタル画像信号(以下、画像データ)は、一時記憶部26に入力される。
 なお撮像素子12とアナログ信号処理部13、或いはさらに一時記憶部26は、一体化されている場合もある。また一時記憶部26として次に述べるフレームメモリは積層型撮像素子内に設けられてもよい。
 一時記憶部26は、この例では2つのフレームメモリ26A、26Bを備えている。
 アナログ信号処理部13からの画像データは、フレームメモリ26Aと、フレームメモリ26Bに交互に格納される。すなわち一時記憶部26は、2つの連続撮像された画像フレームを格納する。一時記憶部26に格納された画像データは、先行格納フレームから、順次、デジタル信号処理部20に出力される。すなわち、フレームメモリ26Aと、フレームメモリ26Bから、交互に撮像順に従って、順次、デジタル信号処理部20に出力される。
 このようにフレームメモリ26A,26Bを備えることで、例えば連写撮像中にもライブビュー画像を継続して、ブラックアウトすることなく表示させることができる。
 デジタル信号処理部20は、例えばDSP(Digital Signal Processor)等により画像処理プロセッサとして構成される。このデジタル信号処理部20は、入力された画像データに対して、各種の信号処理を施す。例えばカメラプロセスとしてデジタル信号処理部20は、前処理、同時化処理、YC生成処理等を行う。
 またデジタル信号処理部20では、これらの各種処理が施された画像データについて、ファイル形成処理として、例えば記録用や通信用の圧縮符号化、フォーマティング、メタデータの生成や付加などを行って記録用や通信用のファイル生成を行う。例えば静止画ファイルとしてJPEG、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式の画像ファイルの生成を行う。またMPEG-4準拠の動画・音声の記録に用いられているMP4フォーマットなどとしての画像ファイルの生成を行うことも考えられる。
 なおロー(RAW)画像データとして画像ファイルを生成することも考えられる。
 またデジタル信号処理部20では、各種の信号処理が施された画像データに対して、解像度変換処理を実行し、例えばライブビュー表示のために低解像度化した画像データを生成する。
 またデジタル信号処理部20にはフリッカ検波・補正部25が設けられる。
 フリッカ検波・補正部25は、フリッカレス撮像が実行できるようにするため、フリッカの周期やピークタイミングを検出して、それらの情報をカメラ制御部21に伝える処理を行う。
 またフリッカ検波・補正部25は、画像データに対してフリッカ低減のための補正処理を行う場合もある。
 メモリ部27は、画像データのバッファメモリを示している。
 デジタル信号処理部20で処理された画像データは、メモリ部27に一旦格納され、所定のタイミングで表示部15や記録制御部14、或いは通信部16に転送される。
 記録制御部14は、例えば不揮発性メモリによる記録媒体に対して記録再生を行う。記録制御部14は例えば記録媒体に対し動画データや静止画データ等の画像ファイルを記録する処理を行う。
 記録制御部14の実際の形態は多様に考えられる。例えば記録制御部14は、撮像装置1に内蔵されるフラッシュメモリとその書込/読出回路として構成されてもよい。また記録制御部14は、撮像装置1に着脱できる記録媒体、例えばメモリカード(可搬型のフラッシュメモリ等)に対して記録再生アクセスを行うカード記録再生部による形態でもよい。また記録制御部14は、撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
 表示部15は撮像者に対して各種表示を行う表示部であり、例えば撮像装置1の筐体に配置される液晶パネル(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等による表示パネルやビューファインダーとされる。
 表示部15は、カメラ制御部21の指示に基づいて表示画面上に各種表示を実行させる。
 例えば表示部15は、記録制御部14において記録媒体から読み出された画像データの再生画像を表示させる。
 また表示部15にはデジタル信号処理部20で表示用に解像度変換された撮像画像の画像データが供給され、それに応じた表示、例えばライブビュー画像の表示を行う。
 また表示部15はカメラ制御部21の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に実行させる。
 通信部16は、外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う。例えば外部の情報処理装置、表示装置、記録装置、再生装置等に対して画像データ(静止画ファイルや動画ファイル)やメタデータの送信出力を行う。
 また通信部16はネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワーク通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うことができる。
 操作部17は、ユーザが各種操作入力を行うための入力デバイスを総括して示している。具体的には操作部17は撮像装置1の筐体に設けられた各種の操作子(キー、ダイヤル、タッチパネル、タッチパッド等)を示している。
 操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部21へ送られる。
 AE(Automatic Exposure)検波部18は、デジタル画像信号から自動露光調整のための検波処理を行い、明るさ情報をカメラ制御部21に供給する。
 カメラ制御部21はCPU(Central Processing Unit)を備えたマイクロコンピュータ(演算処理装置)により構成される。
 メモリ部19は、カメラ制御部21が処理に用いる情報等を記憶する。図示するメモリ部19としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなどを包括的に示している。
 メモリ部19はカメラ制御部21としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
 カメラ制御部21はメモリ部19のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1の全体を制御する。
 例えばカメラ制御部21は、デジタル信号処理部20における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作等の制御を行う。
 またカメラ制御部21は、AE検波部18からの検波信号に基づく自動露出制御として、絞り機構の動作制御、撮像素子12のシャッタースピードの制御、アナログ信号処理部13におけるAGCゲイン制御を行う。
 またカメラ制御部21は、オートフォーカス制御やマニュアルフォーカス操作、ズーム操作等に応じてのフォーカスレンズやズームレンズの駆動制御を行う。
 またカメラ制御部21には、マージン対応フリッカレス制御部24としての機能が例えばソフトウェアにより設けられている。従ってカメラ制御部21はマージン対応フリッカレス制御を行う撮像制御装置に相当する。
 マージン対応フリッカレス制御部24は、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、ピークタイミングに露光期間内の特定タイミング(例えば露光重心のタイミング)を同期させるタイミング制御を行う。即ちフリッカレス撮像が実行されるように制御する。なお露光期間とはメカニカルシャッター、電子シャッターによる有効露光期間を指す。
 但し、その特定タイミングのずれ量がピークタイミングからのずれ許容量として設定したマージン内であるときは、上記のフリッカレス撮像のためのタイミング制御を行わないようにする。マージンは、露光期間をずらさなくても、フリッカレス撮像効果がある程度維持されるような範囲に設定される。
 なおフリッカレス撮像とは、詳細は後述するが、フリッカ光源から生じるフリッカによる画質への影響(画質の低下)を低減することができる撮像動作である。
 メモリ部19におけるRAMは、カメラ制御部21のCPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
メモリ部19におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、各種動作のためのアプリケーションプログラムや、ファームウエア、各種の設定情報等の記憶に用いられる。
 各種の設定情報としては、通信設定情報、撮像動作に関する設定情報、画像処理に係る設定情報などがある。撮像動作に関する設定情報としては、露出設定、シャッタースピード設定、メカニカルシャッター又は電子シャッターの幕速設定、モード設定、上述のマージンの設定などがある。
 ドライバ部22には、例えばズームレンズ駆動モータに対するモータドライバ、フォーカスレンズ駆動モータに対するモータドライバ、絞り機構のモータに対するモータドライバ等が設けられている。
 これらのモータドライバはカメラ制御部21からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させることになる。
 撮像素子12におけるシャッタースピードや、露光タイミングなどは、タイミングジェネレータ23によるタイミング信号に応じて決定される。
 タイミングジェネレータ23はカメラ制御部21からのタイミング制御信号に基づいて撮像素子12に対する各種タイミング信号を出力する。これにより撮像素子12がカメラ制御部21の制御に基づいて駆動されることになる。
 ここで、静止画記録の待機中などのライブビュー画像の表示の際と、キャプチャ画像の記録時のデータ処理の流れを図2A、図2Bで説明しておく。
 各図において矢印LVはライブビュー画像データの流れ、矢印CAPはキャプチャ画像データの流れを示している。
 まず図2Aは、レリーズ操作や動画記録開始操作の待機中にライブビュー画像表示を行うときの処理の流れである。
 撮像光学系11を介して入射される光は撮像素子12に入射し、撮像素子12は光電変換による画像信号を出力する。
 なお、この場合の画像信号はライブビュー表示用の比較的低解像度の画像信号である。例えば撮像素子12は、ライブビュー表示のための画像信号を出力する際は、全画素の出力を行うことなく、一部を間引いた低画素数の画素信号の出力を行う。
 一方、キャプチャ露光により記録用の画像信号を出力する際は、高画素数の記録用の画像を生成する必要があるため、撮像素子12のほぼ全画素の画素信号の出力を行う。
 図2Aにおいて撮像素子12からの画像信号はアナログ信号処理部13で処理され、デジタル信号として一時記憶部26に供給される。上述のようにデジタル化された画像データは、フレーム毎に、フレームメモリ26A、26Bに交互に格納される。そして一時記憶部26に格納された画像データは、先行格納フレームから、順次、デジタル信号処理部20に出力される。デジタル信号処理部20では必要な処理を行ってライブビュー表示のための画像データを生成し、メモリ部27に格納する。表示部15は、メモリ部27に格納されたLV画像を表示する。
 図2Bはキャプチャ画像の記録時のデータ処理の流れである。例えばユーザがレリーズ操作を行うと、この図2Bの処理が行われる。
 ユーザがレリーズ操作を行うと、撮像光学系11を介して入射される光は撮像素子12に入射し露光処理が開始される。ただし、レリーズ操作後、撮像素子12における露光処理が開始されるまでには一定の時間間隔、すなわち、レリーズラグ(レリーズタイムラグ)がある。例えば約15msecから30msec程度の時間である、
 撮像素子12における露光処理が終了すると、撮像素子12は、光電変換による画像信号をアナログ信号処理部13に出力する。この場合の画像信号は、例えば静止画記録用の高解像度の画像信号である。
 なお図2A、図2Bでは矢印LVを細く、矢印CAPを太く示しているが、これは画像信号の画素数を矢印の太さで表現したものである。
 アナログ信号処理部13でデジタル信号に変換された画像データは一時記憶部26を介してデジタル信号処理部20で処理される。この場合、デジタル信号処理部20は、記録用の高解像度の画像データを生成するとともに、ライブビュー表示のための低解像度の画像データも生成し、併せてメモリ部27に格納する。そして記録用の画像データは記録制御部14に転送されて記録処理され、ライブビュー表示用の画像データは表示部15に転送されてライブビュー表示に用いられる。
 以上のように静止画記録のためのレリーズ操作前の状態、及びレリーズ操作時には、ライブビュー表示が行われるが、レリーズ後のタイミングでライブビュー画像の表示が途切れる現象(ブラックアウト)がある。
 このライブビュー画像がブラックアウトして途切れることを防止する処理について説明しておく。
 ライブビュー画像の露光中にレリーズ操作が行われると、カメラ制御部21は、撮像素子12に対して、ライブビュー画像の露光を中断させ、モード変更を指示する。例えばキャプチャ露光をするために読出画素や解像度などの変更を指示する。そしてカメラ制御部21は、キャプチャ露光の準備が整った後に撮像素子12のキャプチャ露光を開始させる。
 このような動作の流れにおいては、レリーズ操作タイミングにおいて実行中のライブビュー画像のための露光が中断させられることで、そのフレームのライブビュー画像が表示できなくなり、ブラックアウトが発生する。ブラックアウトは、キャプチャ露光が行われて、図2Bのようなキャプチャ露光に基づくライブビュー画像のフレームが表示されるまで続く。
 そのようなブラックアウトを防止するための一手法として、レリーズ操作タイミングで行われていたライブビュー画像のための露光を中断させないという手法がある。即ちレリーズタイミングにおいて実行中のライブビュー画像のための露光を中断させずに完了まで待ち、その画像データを例えばフレームメモリ26Aに格納することで、そのフレームのライブビュー画像を表示できるようにする。
 ライブビュー画像の露光が完了した後に、キャプチャ露光の準備を行い、準備後にキャプチャ露光を行うが、そのキャプチャ露光の画像データはフレームメモリ26Bに格納していくようにする。すると、キャプチャ露光の画像データに基づくライブビュー画像データが生成できまでの期間、フレームメモリ26Aの画像データを用いてライブビュー画像の表示を継続できる。これによりブラックアウトが発生しない。
 ブラックアウトを防止する手法は他にもある。例えばライブビュー画像のための露光を行ってフレームメモリ26Bに書き込んでいるときにレリーズ操作が行われたら、その露光を中断し、フレームメモリ26Aに格納済み最新画像(例えば露光を中断したフレームの1つ前のフレームの画像データ)をフレームメモリ26Bにコピーする。そしてフレームメモリ26Bからの画像でライブビュー画像の表示を継続するようにする。このときキャプチャ露光の画像データは、フレームメモリ26Aに書き込まれていき、キャプチャ露光の完了後、そのキャプチャ露光の画像データに基づくライブビュー画像が表示されるようにする。
 このようにフレームメモリ26A、26Bを使用することで、レリーズ操作時にライブビュー画像が途切れないようにすることができる。
 また同様の処理で、例えば連写撮像中にも、ライブビュー画像を継続して表示させることができる。
 連写撮像中は、所定周期でキャプチャ露光を繰り返す。このキャプチャ露光の周期が、ライブビュー画像のフレームレートによる1フレーム周期より長い場合、キャプチャ露光とキャプチャ露光の間に1又は複数回のコマ間露光を行う。
 例えば「キャプチャ露光」「コマ間露光」「コマ間露光」「キャプチャ露光」「コマ間露光」「コマ間露光」・・・というような露光動作を連写終了まで繰り返す。
 この場合に、コマ間露光からキャプチャ露光に切り替わるときに、上述のレリーズタイミングと同様の制御を行えば、連写中にブラックアウトを生じさせずにライブビュー画像を表示させることができる。
 次に、デジタル信号処理部20の一部の構成例、特にフリッカ検波・補正部25の位置づけを説明するための構成例を図3に示す。図3は原色系システムの場合の構成例である。
 原色系システムは、図1の撮像光学系11が被写体からの光をRGB各色の色光に分離する分解光学系を有し、撮像素子12としてRGB各色用の撮像素子を有する3板システム、または、撮像素子12として、光入射面にRGB各色の色フィルタが画面水平方向に1画素ごとに順次、繰り返し配列された一つの撮像素子を有する1板システムである。
 図3のデジタル信号処理部20では、クランプ回路41で、入力のRGB原色信号の黒レベルが所定レベルにクランプされ、ゲイン調整回路42で、露出量に応じてクランプ後のRGB原色信号のゲインが調整される。
 フリッカ検波・補正部25R,25G,25Bでは、フリッカレス撮像のために、フリッカ成分の周期やフリッカ成分のピークタイミングの検出を行う。またフリッカ検波・補正部25R,25G,25Bでは、RGB原色信号中のフリッカ成分を低減させるフリッカ補正処理も可能である。
 フリッカ検波・補正部25R,25G,25Bを経たRGB原色信号は、ホワイトバランス調整回路43でホワイトバランスが調整され、ガンマ補正回路44で、ホワイトバランス調整後のRGB原色信号の階調が変換され、合成マトリクス回路45で、ガンマ補正後のRGB原色信号から、出力の輝度信号Yおよび色差信号R-Y,B-Yが生成される。
 原色系システムでは、一般に図3のようにRGB原色信号の処理が全て終了した後に輝度信号Yが生成されるので、RGB原色信号の処理過程でRGB原色信号中のフリッカ成分を低減することによって、各色成分および輝度成分のフリッカ成分を共に十分に低減することができる。
 ただし、図3のようにフリッカ検波・補正部25R,25G,25BによってRGB各色の原色信号ごとにフリッカ成分を検出し、低減する代わりに、例えば、合成マトリクス回路45の輝度信号Yの出力側にフリッカ検波・補正部25を設けて、輝度信号Y中のフリッカ成分を検出し、低減するように構成してもよい。
<2.フリッカレス撮像とフリッカ補正>
 フリッカレス撮像について説明する。
 まず図4により、NTSCシステムを例に挙げて、蛍光灯により生じるフリッカ成分の一例について説明する。なお、ここでは、フレームレートを60fps(frames per second)、商用電源周波数を50Hz(ヘルツ)とした場合について説明する。この場合に生じるフリッカ成分の特徴は以下の通りである。
・1画面中には、5/3周期分発生する(3フレーム(フィールドでもよい)を繰り返し周期とする)。
・1ラインごとに位相が変化する。
・商用電源周波数(50Hz)の2倍の周波数(100Hz)を持つ正弦波として扱うことができる。
 上記の特徴から、フリッカ現象が起きている際には、図4のようなフリッカ成分が発生している。なお、図4では、上側(画面上部)から下側(画面下部)に向かって走査が行われているものとする。
 撮像素子12では、水平ラインごとに露光タイミングが異なるため、水平ラインに応じて受光量が変化してしまう。よって、蛍光灯が空間的に均一に照明していたとしても、図4のように、画像信号の値が平均値よりも高い水平ラインと、画像信号の値が平均値よりも小さい水平ラインが存在してしまう。
 例えば、図4のフレームでは、画像中の最も上の水平ライン、すなわち、先頭ラインでフリッカ成分(フリッカ成分の振幅)が最も高くなるピークとなっている。さらに、先頭ラインから、1画面に含まれる総ライン数の3/5に相当するラインずれた水平ラインで、フリッカ成分も最も高くなる。
 このようにフリッカ成分は、図4に示すような振幅、周期、及び初期位相を持つsin関数(正弦波)で表すことができる。なお初期位相とは先頭ラインでの位相を意味している。
 さらに、フレームに応じて、各水平ラインの位相が変化する。すなわち、フレーム毎に、画像信号の値が平均値よりも高い水平ラインと、画像信号の値が平均値よりも低い水平ラインが変化する。次のフレームでは、初期位相が異なる正弦波となる。例えば、蛍光灯によるフリッカが100Hzで発生し、フレームレートが60fpsであるとすると、蛍光灯のフリッカの5周期分が、3フレームに相当する時間となる。よって、3フレーム毎に初期位相が同じ位相となる。このように、水平ラインおよびフレームに応じて、フリッカ成分が変動する。
 このような画像に表れるフリッカの影響を低減する撮像がフリッカレス撮像である。
 図5の模式図で説明する。図5ではフリッカ光源の10ms周期の振幅を示している。また露光動作100を示している。露光動作100は、垂直ライン数L、有効画素の先頭から最後までの読出期間(幕速)R、露光期間(シャッタースピード)eで規定される平行四辺形で模式的に示されている。
 この露光動作100の場合、露光期間がフリッカの1周期より短く、かつ露光重心のタイミングが、フリッカのピークタイミングPTと一致している。露光重心のタイミングとは、撮像素子の垂直方向における略中央ラインの露光期間の略中央のタイミングである。
 このようにピークタイミングPTに同期するようなタイミングで露光を行うと、フリッカの影響を低減させた画像を得ることができる。
 ここで、露光動作の周期により、次の露光動作101が図示のタイミングになったとする。上述のようにフリッカの周期と撮像画像のフレームレートに応じたフレーム周期は一致しているわけではないので、ある時点で露光動作100のようになっても、他の時点で露光動作101のようにフリッカ波形の谷の部分など、フリッカの振幅がかなり低下している期間に露光を行うことも生ずる。この場合、画像にフリッカの影響が比較的大きく現れてしまう。
 そこで、露光動作101のタイミングを遅らせ、露光動作101Sとして示すように、露光重心のタイミングがフリッカのピークタイミングPTに同期するようにする。
 このようにタイミング制御を行うことで、各フレームにおいてフリッカの影響を低減できる。このように露光タイミングを制御して撮像を行うことをフリッカレス撮像と呼ぶ。
 このようなフリッカレス撮像を行うには、カメラ制御部21(マージン対応フリッカレス制御部24)が、フリッカの周波数とピークタイミングを検知することが必要となる。
 本実施の形態の場合、デジタル信号処理部20におけるフリッカ検波・補正部25(25R,25G,25B)がフリッカ検波を行い、そのピークタイミングと周波数を検出して、カメラ制御部21(マージン対応フリッカレス制御部24)に通知するようにしている。
 なお、フリッカ検波・補正部25は、以上のようなフリッカ検波に加えて、画像データにおけるフリッカ成分を低減するフリッカ補正も行う例としている。
 このようなフリッカ検波、及びフリッカ補正を行うフリッカ検波・補正部25について、図6で説明する。
 なお図6のフリッカ検波・補正部25の説明において、入力画像信号とは、図3のようにフリッカ検波・補正部25(25R,25G,25B)に入力されるRGB原色信号または輝度信号を意味し、出力画像信号とは、フリッカ検波・補正部25(25R,25G,25B)での処理後のRGB原色信号または輝度信号を意味する。
 図6のフリッカ検波・補正部25は、例えば、正規化積分値算出ブロック30、DFT(離散フーリエ変換)ブロック50、フリッカ生成ブロック55、周波数推定/ピーク検出ブロック60、演算ブロック65を備えている。
 正規化積分値算出ブロック30は、積分ブロック31、積分値保持ブロック32、平均値計算ブロック33、差分計算ブロック34、正規化ブロック35を備えている。
 積分ブロック31は、入力画像信号In'(x,y)の画面水平方向に1ライン分に渡って積分し、積分値Fn(y)を算出する。算出された積分値Fn(y)は、以後のフレームでのフリッカ検出用に、積分値保持ブロック32に記憶保持される。積分値保持ブロック32は、処理に必要なフレーム分(例えば2フレーム分)の積分値を保持できる構成とされる。
 平均値計算ブロック33は、例えば3つの積分値Fn(y),Fn_1(y),Fn_2(y)の平均値AVE[Fn(y)]を算出する。なお、Fn_1(y)は、1フレーム前の同じラインの積分値Fn_1(y)であり、Fn_2(y)は、2フレーム前の同じラインの積分値Fn_2(y)であり、これらの積分値は積分値保持ブロック32から読み出された値である。
 差分計算ブロック34は、積分ブロック31から供給される積分値Fn(y)と、積分値保持ブロック32から供給される1フレーム前の積分値Fn_1(y)との差分を算出する。差分値Fn(y)-Fn_1(y)では、被写体の影響が十分除去されるため、積分値Fn(y)に比べてフリッカ成分(フリッカ係数)の様子が明確に現れる。
 さらに、正規化ブロック35で、差分計算ブロック34からの差分値Fn(y)-Fn_1(y)が、平均値計算ブロック33からの平均値AVE[Fn(y)]で除算されることによる正規化処理がなされ、正規化後の差分値gn(y)が算出される。
 DFTブロック50は、正規化ブロック35からの正規化後の差分値gn(y)の、フリッカの1波長分(Lライン分)に相当するデータを、離散フーリエ変換する。これにより、各次のフリッカ成分の振幅γmおよび初期位相Φmnが推定される。なお、初期位相Φmnは、撮像装置1内において生成される所定時間毎(例えば、0.5μs(マイクロ秒)毎)のカウンタに対応付けられて保持される。
 DFTブロック50で計算された初期位相Φmnは、周波数推定/ピーク検出ブロック60に供給される。周波数推定/ピーク検出ブロック60は、入力される初期位相Φmnに基づいて、少なくともフリッカ成分(光源)の周波数、換言すればフリッカ成分の周期を推定し、さらに、フリッカ成分のピークのタイミングを検出する。例えば、周波数推定/ピーク検出ブロック60は、フレームレートに基づく時間差と初期位相Φmnの位相差とからフリッカ成分の周波数を推定する。さらに、周波数推定/ピーク検出ブロック60は、例えば最初のフレームにおける初期位相Φmnと当該初期位相Φmnに対応付けられたカウンタとからフリッカ成分のピークのタイミングを検出する。
 例えば、初期位相Φmnが60度であれば、正弦波で近似できるフリッカ成分のピーク(例えば90度)がでるタイミングをカウンタの時間間隔を使用して求めることが可能である。フリッカ成分のピークとは、上述したように、フリッカ成分の振幅が最大となる箇所である。
 このように周波数推定/ピーク検出ブロック60により得られた情報がカメラ制御部21(マージン対応フリッカレス制御部24)に通知される。
 カメラ制御部21は、フリッカの周波数やピークタイミングを知ることで、上述のフリッカレス撮像としての撮像素子のタイミング制御が可能になる。
 このようなフリッカ検波・補正部25を備えることで、別体のセンサ等を設けなくても、撮像画像に基づいてフリッカ成分の特徴、即ちフリッカ成分の周期やピークタイミング等を検出することができる。このため、部品点数の増加によるコストの増加を防止できる。また、撮像装置の小型化が可能となる。なお、フリッカ成分の特徴を求める処理は、上述した方法に限定されるものではなく、公知の方法を適用することができる。
 更にこのフリッカ検波・補正部25では、画像信号に生じているフリッカ成分を低減するようなフリッカ補正を行うことができる。
 フリッカ生成ブロック55では、DFTブロック50からのγm,Φmnの推定値から、フリッカ係数Γn(y)が算出される。
 そして、演算ブロック65は、フリッカ生成ブロック53からのフリッカ係数Γn(y)に1を加え、その和[1+Γn(y)]で入力画像信号In'(x,y)を除算する逆ゲインをかける処理を行う。
 これによって、入力画像信号In'(x,y)に含まれるフリッカ成分がほぼ完全に除去され、演算ブロック65からは、出力画像信号(フリッカ低減処理後のRGB原色信号または輝度信号)として、実質的にフリッカ成分を含まない信号成分In(x,y)が得られる。
 以上のようなフリッカ検波・補正部25を備えることで、フリッカレス撮像制御が可能になると共に、更にフリッカ補正により、画像の画質低下を防止できる。
 なお、フリッカ補正を行わずに、少なくともフリッカレス撮像を行うことのみを考えれば、図6の構成から、演算ブロック65とフリッカ生成ブロック55を備えずに、フリッカ検出部として構成してもよい。
<3.マージン対応フリッカレス制御>
 以下、本実施の形態におけるマージン対応フリッカレス制御について説明する。
 この制御は、例えばライブビュー画像を表示しながら連写撮像を行っているような場合などにおいて、フリッカレス撮像に起因してライブビュー画像が非円滑な動画になってしまう頻度を低減するものである。
 まず、フリッカレス撮像によってライブビュー画像の表示品質が低下することを図7で説明する。
 図7では121Hz光源のフリッカ振幅と、その光源の元での20fpsでの撮像時の露光動作を示している。これは連写撮像中の動作を例としており、キャプチャ露光CPEが複数回行われるとともに、キャプチャ露光CPEと次のキャプチャ露光CPEの間に、2回のコマ間露光IE1,IE2が行われる場合を示している。1フレームの露光動作は図5のように幕速と露光時間と水平ライン数で決まる平行四辺形で示している。なお図の平行四辺形の形状はあくまで模式的なもので、幕速、露光時間、ライン数を厳密に示すものではない。
 同期信号SensVは、撮像素子12の撮像動作に対する同期信号であり、カメラ制御部21の制御によりタイミングが可変設定される。
 同期信号SysVは、表示部15の表示動作に対する同期信号であり、所定のフレームレート(この場合20fps)の垂直タイミングとなる。ライブビュー画像は同期信号SysVに従ったタイミングで各フレームの画像表示が行われる。
 ユーザによる連写撮像の操作が行われ、時点t10以降に最初のキャプチャ露光CPEが行われるとする。この場合、最初のキャプチャ露光CPEは、露光重心タイミングWTがフリッカのピークタイミングPTと同期するように、タイミング制御が行われる。
 その後、20fpsのフレームレートに応じたタイミングでコマ間露光IE1,IE2が行われていく。
 ライブビュー画像は、キャプチャ露光CPEの終了後のフレームで、キャプチャ露光CPEに基づくLV画像CPPが表示され、次のフレームでは、コマ間露光IE1に基づくLV画像IP1が表示され、更に次のフレームでは、コマ間露光IE2に基づくLV画像IP2が表示されるようになる。
 時点t12以降は、次のキャプチャ露光CPEが行われるタイミングとなるが、そのまま周期を保つと露光重心のタイミングがピークタイミングPTに一致しないため、キャプチャ露光CPEの開始タイミングを遅らせるようにタイミング制御TSが行われる。つまり同期信号SensVを遅らせる。
 これにより時点t12以降のキャプチャ露光CPEも、露光重心タイミングWTがピークタイミングPTに一致したフリッカレス撮像となる。その後、20fpsのフレームレートに応じたタイミングでコマ間露光IE1,IE2が行われていく。
 ところがこの場合、タイミング制御TSでキャプチャ露光CPEが遅らされたことで、ライブビュー画像の表示は、同じLV画像IP2が2フレーム期間連続で表示されることになる。時点t12以降の2フレーム目の開始時点で、キャプチャ露光CPEが終了していないためである。
 時点t13、時点t14も、それぞれ同期信号SensVを遅らせるタイミング制御TSを行うことで、キャプチャ露光CPEの露光重心タイミングWTがピークタイミングPTに一致したフリッカレス撮像となる。
 時点t14以降のライブビュー画像については、キャプチャ露光CPEの遅れにより、同じLV画像IP2が2フレーム期間連続で表示されることが生じている。
 この図7の例の場合、キャプチャ露光CPEで得られる連写としての複数の静止画データは、フリッカの影響の少ない画像とすることができる。
 ところが、上述の時点t12以降や、時点t14以降、ライブビュー画像として同じ画像が連続する。つまりユーザが視認する上でのフレームレート(以下「ユーザ視認フレームレート」という)が変動する状態となる。
 また、キャプチャ露光CPEからそれに基づくLV画像CPPまでの時間差、コマ間露光IE1からLV画像IP1までの時間差、コマ間露光IE2からLV画像IP2までの時間差が、それぞれライブビュー画像のレイテンシとなるが、図の例の場合、レイテンシが変動する(露光終了タイミングから表示開始タイミングを示す矢印の傾きが一定にならない)。
 このようなユーザ視認フレームレートやレイテンシの変動によって、ユーザにとっては、ライブビュー画像について、動きが円滑でないものと認識されるようになってしまう。
 特に、ライブビュー画像で被写体を追いながら連写操作をしているときに、ライブビュー画像としての動画の動きがぎこちない状態であると、被写体を狙った画角調整も困難になる。
 そこで本実施の形態では、マージン対応フリッカレス制御として、記録する画像に表れるフリッカの影響を低減するようにフリッカレス撮像を行いつつ、なるべくライブビュー画像の円滑性が損なわれないようにする。
 図8は、図7と同様に121Hz光源のフリッカ、キャプチャ露光CPEとコマ間露光IE1,IE2、同期信号SensV、同期信号SysV、及びライブビュー画像の各フレームとなるLV画像CPP、IP1、IP2を示している。
 なお、フリッカのピークタイミングPTとキャプチャ露光CPEの露光重心タイミングWTのずれを示すための拡大図を、図の上方に示している。
 ユーザによる連写撮像操作が行われ、時点t1以降に最初のキャプチャ露光CPEが行われるとする。図7の場合と同様に、最初のキャプチャ露光CPEは、露光重心タイミングWTがフリッカのピークタイミングPTと同期するように、タイミング制御が行われる。
 その後、20fpsのフレームレートに応じたタイミングでコマ間露光IE1,IE2が行われていく。
 ライブビュー画像は、キャプチャ露光CPEの終了後のフレームで、キャプチャ露光CPEに基づくLV画像CPPが表示され、次のフレームでは、コマ間露光IE1に基づくLV画像IP1が表示され、更に次のフレームでは、コマ間露光IE2に基づくLV画像IP2が表示される。
 時点t2以降は、次のキャプチャ露光CPEが行われるタイミングとなる。次のキャプチャ露光CPEが行われるタイミングとは、露光周期を保ったタイミングを想定する。つまり前回のコマ間露光IE2の露光期間の開始タイミングから今回のキャプチャ露光CPEの露光期間の開始タイミングまでの期間長と、前々回のコマ間露光IE1の露光期間の開始タイミングから前回コマ間露光IE2の露光期間の開始タイミングまでの期間長とが同一であるタイミングである。
 このような露光周期を保つキャプチャ露光CPEを考えると、露光重心タイミングWTがピークタイミングPTに一致しない。
 但しこの場合、拡大図に示すように、露光重心タイミングWTのピークタイミングPTからのずれ量は、マージンMの範囲内である。
 マージンMは、露光重心タイミングWTがピークタイミングPTよりずれていたとしても、画像にフリッカの影響が見られないと評価できる範囲として設定されている。
 このようにずれ量がマージンMの範囲内である場合、露光重心タイミングWTをピークタイミングPTに一致させるようにキャプチャ露光CPEの開始タイミングを遅らせるタイミング制御を行わない。つまり同期信号SensVによる20fpsのフレームレートの周期を維持しつつ、そのままキャプチャ露光CPEを実行させる。
 さらにその後同様に、20fpsのフレームレートに応じたタイミングでコマ間露光IE1,IE2が行われるようにする。
 時点t3、時点t4についても、拡大図に示すように、露光重心タイミングWTのピークタイミングPTからのずれ量は、マージンMの範囲内である。そのため露光重心タイミングWTをピークタイミングPTに一致させるようにキャプチャ露光CPEの開始タイミングを遅らせるタイミング制御を行わない。つまり20fpsのフレームレートの周期を維持しつつ、キャプチャ露光CPE、コマ間露光IE1,IE2を実行させる。
 時点t5からのキャプチャ露光CPEtについては、露光重心タイミングWTdのピークタイミングPTからのずれ量が、マージンMの範囲外になってしまったとする。
 この場合は、露光重心タイミングWTをピークタイミングPTに一致させるように開始タイミングを遅らせるタイミング制御TSを行い、キャプチャ露光CPEを行う。
 このように露光重心タイミングWTのピークタイミングPTからのずれ量とマージンMの関係に応じて、フリッカレス撮像としてのタイミング制御TSを行うか否かを切り替える。
 これにより、ライブビュー画像のユーザ視認フレームレートやレイテンシが変化する頻度を低減できる。図の例の場合、時点t5までは、一定のフレームレート及びレイテンシでLV画像CPP、IP1、IP2が順次表示されており、円滑な動画表示が実現できている。
 時点t5以降では、タイミング制御TSを行うためユーザ視認フレームレート及びレイテンシが変動してしまうが、このような状態となる頻度は、図7の動作に比較して低減できるため、ライブビュー画像の動画としての円滑性が損なわれることをユーザが感じにくくすることができる。
 またタイミング制御TSを行わないときの画像データも、フリッカの影響がほぼ見られない画像となるため、記録する画像の品質も保たれる。
 その上、図6で説明したようにフリッカ補正を行うようにすれば、ピークタイミングPTと露光重心タイミングWTが若干ずれていることによるわずかなフリッカの影響も低減されるため、フリッカの影響はほぼ除去でき、高画質な画像の記録が実現できる。
 このようなマージン対応フリッカレス撮像動作を実現するための、マージン対応フリッカレス制御部24の処理例を図9で説明する。なお図9の説明においてはマージン対応フリッカレス制御部24を「制御部24」と略称表記する。
 図9は連写撮像操作が行われている期間、例えば連写モードとしてユーザがレリーズボタンを押し続けている期間の制御部24の処理例を示している。
 連写撮像操作が開始されると、制御部24はステップS101からステップS102に進み、最初のキャプチャ露光CPEについて、フリッカレス撮像としてのタイミング制御を実行する。例えば露光重心タイミングWTがピークタイミングPTに一致するように露光タイミングを制御する。
 ステップS103で制御部24は、キャプチャ露光CPEに基づく静止画記録及びライブビュー表示のための画像処理をデジタル信号処理部20に実行させる。
 連写撮像操作が継続している期間は、制御部24はステップS104からステップS105に進む。
 制御部24は、同期信号SensVに基づくキャプチャ露光CPEのタイミングであるときはステップS105からステップS108に進み、それ以外はステップS105からステップS106に進む。従ってステップS103でキャプチャ露光CPEに応じた処理を実行した後の時点では、制御部24は、ステップS106でコマ間露光IE1のタイミング制御を行うことになる。この場合、同期信号SensVに基づく周期を保ったコマ間露光IE1を実行させ、ステップS107でデジタル信号処理部20においてコマ間露光IE1に応じたライブビュー表示のための画像処理を実行させる。
 その後も制御部24は、ステップS104,S105,S106,S107と進みコマ間露光IE2及びそれに応じたライブビュー表示のための画像処理を実行させる。
 次のキャプチャ露光CPEのタイミングになると、制御部24はステップS105からステップS108に進む。この場合、制御部24は、同期信号SensVに基づく周期を維持したままのタイミングでキャプチャ露光CPEを行った場合における露光重心タイミングWTと、ピークタイミングPTのずれ量を算出する。
 そしてステップS109で制御部24は、ずれ量とマージンMの比較を行う。
 もしずれ量がマージンMより大きい場合は、制御部24はステップS110でフリッカレス撮像としてのタイミング制御を実行し、露光重心タイミングWTがピークタイミングPTに一致するようする。
 一方、ずれ量はマージンMの範囲内である場合は、制御部24はステップS111に進み、現在の露光周期を維持したままでキャプチャ露光CPEを実行させる。
 以上のステップS103からステップS111までの処理を、ステップS104で連写撮像操作が終了と判定されるまで繰り返す。
 これにより図8のようなマージン対応フリッカレス撮像が実行される。
 なお、以上の例は連写撮像中の動作として説明したが、連写撮像中だけでなく、動画や1枚の静止画撮像開始前のライブビュー表示画に対しても、フリッカレス撮像を行う場合に、マージンMの範囲内であれば、ピークタイミングPTと露光重心タイミングWTがずれていても、そのままの周期で露光を実行させること(結果的にピークタイミングPTと露光重心タイミングWTをずらすこと)で、円滑なライブビュー表示を実現できる。
<4.マージンの設定例>
 マージンMの設定例について説明する。
 マージンMは、フリッカの振幅や周期に応じて設定すればよく、露光重心タイミングWT等の露光期間の所定のタイミングと、ピークタイミングPTのずれ量が、画像に生じるフリッカの影響が見られないと評価できる範囲として設定されればよい。
 撮像装置1は、このようなマージンMとして固定の1つの設定値を備えているようにすればよい。例えば各種の撮像モードなどに対応できるマージンMとして1つの設定値があればよい。
 但し、フリッカの影響が見られない範囲としては、各種の条件に応じて変動することが想定される。そこで、以下説明するようなマージンMの設定も考えられる。
 図10は幕速とマージンの関係を示している。
 フリッカの振幅値が例えば閾値th1以上の期間に露光が行われるのであれば、画像にフリッカの影響がほぼ見られないとする。
 斜線により模式的に幕速R1の露光動作71,72,73を示し、及びそれらの露光重心を露光重心タイミングWT71,WT72,WT73として示している。
 なお、この露光動作71,72,73は、3回露光が行われるという意味ではなく、フリッカ周期に対して露光期間が異なっているパターンを例示したものである。
 この図10は、幕速R1の場合、露光を、露光動作71から露光動作73で示す範囲内の期間に行えば、その露光期間中にフリッカの振幅値は閾値th1以上となっていることを示している。つまり露光重心タイミングWTが、露光重心タイミングWT71,WT72,WT73のいずれとなっても、画像にフリッカの影響がほとんど生じないことになる。
 従って、この場合、マージンMは、ピークタイミングPTから前後に図示のマージンM1として設定することができる。
 また同様に斜線により模式的に幕速R2の露光動作81,82,83を示し、及びそれらの露光重心を露光重心タイミングWT81,WT82,WT83として示している。
 これは、幕速R1よりも遅い幕速R2の場合は、露光動作81から露光動作83の範囲内となる期間に露光を行えば、その露光期間中にフリッカの振幅値が閾値th1以上となることを示している。
 すると許容できる露光重心タイミングWTは、露光重心タイミングWT81からWT83の範囲内となる。従ってマージンMは、ピークタイミングPTから前後に図示のマージンM2として設定することができる。
 このようにマージンMは、幕速に応じて設定することが考えられる。また従って、撮像モード変更や交換レンズの付け替えなどにより幕速が変化する場合、マージンMも変更することが望ましい。
 例えばマージンMは、例えば図10のマージンM1を基準にして、次のように変調することができる。
Figure JPOXMLDOC01-appb-M000001
 また、ピークタイミングPTを露光重心タイミングWTに合わせた場合からの露光落ち量から、マージンMを動的に設定することもできる。
 図11は、フリッカ周期Tにおいて、ピークタイミングPTからの露光落ち量として、画像にフリッカの影響が現れないと評価できる露光落ち量Dを想定して、マージンMが設定されていることを示している。
 露光落ち量とは、例えばピークタイミングPTと露光重心タイミングWTが一致するときに得られるフリッカ光源による露光量と、露光重心タイミングWTがピークタイミングPTから外れたときに得られるフリッカ光源による露光量の差分である。
 図示する幕速Rの露光動作74,75,76は、露光落ち量Dを想定したときに、ある程度の画像品質を保つことのできる露光となる。
 例えばデジタル信号処理部20(フリッカ検波・補正部25)におけるフリッカ補正のゲイン処理で露光落ち量を補正することによって、ピークタイミングPTと露光重心タイミングWTがずれていても、ずれていない場合と同等の露光量を確保できる。ところが、ゲイン処理によって画質劣化が生ずるため、ゲイン処理で対応できる露光落ち量をむやみに大きく設定することは望ましくない。従ってゲイン処理による画質劣化度合いとの兼ね合いで、許容できる範囲で、対応可能な露光落ち量Dを設定することになる。
 そして、図のように露光落ち量Dが設定された場合、露光重心タイミングWT74,WT75,WT76の範囲で、マージンMを設定すればよいことになる。
 ここで露光落ち量が、図の露光落ち量D’として示すように設定とされたとする。
 例えばゲイン処理による画質劣化具合は、撮像素子12の性能や撮像モードなどにより異なる。また要求される画質もカメラとしての製品/モデルなどによってことなる。そのため、より大きい露光落ち量D’を設定できる場合がある。
 この場合、同じ幕速Rの露光動作84,85,86として示すような期間に露光を行ってもよいことになる。つまり露光重心タイミングWT84,WT85,WT86の範囲をカバーするようにマージンM’が設定されればよい。
 以上のような、露光落ち量Dに応じたマージンMは、次のように求められる。
Figure JPOXMLDOC01-appb-M000002
 また、撮像素子12からの読出画像サイズによってマージンMを可変設定してもよい。
 図12は、撮像素子12からの読出がフルサイズ(36.0mm×24.0mm)の場合とAPS-Cサイズ(22.4mm×15.0mm)の場合を示している。
 画像にフリッカの影響がないと評価できるフリッカ振幅値が閾値th1以上であるとする。フルサイズ読出の露光動作77,78,79と、APS-Cサイズの露光動作87,88,89は、画面内の読出範囲の違いよる画素数(ライン数)の違いにより、幕速が、図示する幕速R1と幕速R2のように異なることになる。
 従って、フルサイズ読出の場合は、露光重心タイミングWT77,WT78,WT79をカバーするマージンM1とし、APS-C読出の場合は、露光重心タイミングWT87,WT88,WT89をカバーするマージンM2とすることが適切となる。
 以上、マージンMの設定について各種の例を説明したが、これ以外にもマージンMの設定例は各種考えられる。
 例えばフリッカの影響をどの程度許容するかによってもマージンMは変動する。例えば記録用の画像では、マージンMを狭くするが、レリーズ待機時などにライブビュー画像の露光を行っているのみの期間(つまりキャプチャ露光を行っていない期間)では、マージンMを広くしてフリッカレス制御を緩和してもよい。それにより、ライブビュー画像の露光において、上述のタイミング制御TSが行われる機会をより少なくすることができ、ライブビュー画像の動画としての円滑性を、より向上させることができる。
 また、図6に示したフリッカ検波・補正部25の構成例では、フリッカ補正が行われる例を述べた。
 このフリッカ補正を行うか否かをモードにより切り替えることも考えられる。そして、フリッカ補正を行う場合と行わない場合とで、マージンMが変更されるようにしてもよい。
 つまりフリッカ補正を行う場合、フリッカ補正を行わない場合よりも広い範囲でマージンMを設定しても、画像に現れるフリッカの影響がほとんどないと評価できるようになるためである。換言すれば、フリッカ補正を行わない場合と同等の画質を得るために、フリッカ補正を行いつつマージンMを広げ、ユーザ視認フレームレートやレイテンシの変動が生ずる頻度をより低減することが可能である。
<5.まとめ及び変形例>
 以上の実施の形態の撮像装置1や撮像制御装置(カメラ制御部21)によれば、以下のような効果を得ることができる。
 実施の形態の撮像装置1やカメラ制御部21は、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングPTに基づいて、ピークタイミングPTに露光期間内の特定タイミングを同期させるタイミング制御TSを行うとともに、特定タイミングとピークタイミングPTのずれ量が設定したマージンM内であるときはタイミング制御TSを行わないマージン対応フリッカレス制御を実行する制御部(マージン対応フリッカレス制御部24)を備える。
 これにより、露光期間の開始を遅らせるような制御を行う機会を減少させることができる。その結果、露光に基づく画像データのユーザ視認フレームレートが変化することや、画像出力までのレイテンシが変化する頻度を低減できる。
 また、タイミング制御TSを行わないことで、レリーズラグを低減できる場合もある。
 実施の形態のマージン対応フリッカレス制御部24は、ライブビュー画像の表示を行いながら連写撮像を行うときにマージン対応フリッカレス制御を実行する例を述べた。
 これにより、ライブビュー画像のユーザ視認フレームレートが変化することや、ライブビュー画像の出力までのレイテンシが変化する頻度を低減できる。従ってフリッカレス撮像を行いながらも、非円滑な、或いは応答性が悪いライブビュー画像が表示されることを低減できる。従って被写体をライブビュー画像で確認しながら連写撮像操作を続けているときに、ユーザは目的の被写体を狙いやすくなる。
 なおこのようなマージン対応フリッカレス制御は、連写撮像時だけでなく、静止画の撮像開始前のライブビュー表示の際や、動画モード中などにおけるライブビュー表示の際にも有効である。即ち、ライブビュー表示画のための露光を行っているときも、フリッカのピークに露光のタイミングを合わせるようにタイミング制御をしつつ、ずれ量がマージン内であれば、ピークに合わせ込むようなタイミング制御を行わないようにする。これにより、露光に基づく画像データのユーザ視認フレームレートが変化することや、画像出力までのレイテンシが変化する頻度を低減でき、結果として円滑なライブビュー画像表示を実現できる。
 実施の形態では、連写撮像時に、連写画像を構成する1つの静止画像及びライブビュー画像を生成するためのキャプチャ露光CPEと、ライブビュー画像を生成するための1又は複数のコマ間露光(例えばコマ間露光IE1,IE2)とを繰り返す場合において、マージン対応フリッカレス制御部24は、連写撮像開始後の最初のキャプチャ露光CPEでは、タイミング制御を行い、2回目以降のキャプチャ露光CPEでは、特定タイミングのずれ量がマージンM内であればタイミング制御TSを行わず、特定タイミングのずれ量がマージンM内でなければタイミング制御TSを行う例を述べた(図8、図9参照)。
 1枚目で露光期間の特定タイミング(例えば露光重心タイミングWT)をフリッカのピークタイミングPTに合わせることで、フリッカの影響の少ない画像データが得られる。2枚目以降の画像となるキャプチャ露光CPEの際に、タイミング制御TSを行うのを必要最小限とすることで、連写の各画像においてフリッカの影響を低減しつつ、ライブビュー画像の円滑性を向上させることができる。
 実施の形態では、前回の露光期間の開始タイミングから今回の露光期間の開始タイミングまでの期間長と、前々回の露光期間の開始タイミングから前回の露光期間の開始タイミングまでの期間長とが同一であるように露光周期を保つことを想定し、今回の露光期間の特定タイミングのピークタイミングPTからのずれ量がマージンM内となるか否かを判定する例を挙げた。
 つまり、露光周期を保った状態で、露光重心タイミングWTがピークタイミングPTからどれだけずれるかに応じて、タイミング制御TSの実行/不実行を決定する例とした。
 これにより、なるべく露光周期を一定に保つ状態が続くように制御されることになる。従って、例えばライブビュー画像のユーザ視認フレームレートやレイテンシの変化を少なくできる。
 実施の形態では、上記の特定タイミングは、露光重心タイミングWTであるとした。つまり撮像素子の垂直方向における略中央ラインの露光期間の略中央のタイミングである。
 当該フレームの略中央のタイミングをフリッカのピークタイミングに合わせることで最も適切にフリッカレス効果を得ることができる。なお、露光重心は厳密でなくともよい。従って特定タイミングとは、厳密に露光重心とならなくてもよい。
 また露光開始タイミングや終了タイミングを基準にしてピークタイミングPTとのずれ量を判断するようにマージンMが設定されてもよい。
 実施の形態では、マージンMは幕速に応じて設定される例を述べた(図10参照)。
 幕速が早いほど、フリッカの影響を受けにくいタイミングのずれ量の範囲が広くなるためである。
 例えば電子シャッターとメカニカルシャッターのように幕速が異なる場合や、電子シャッターにおいて幕速を変化させる場合などがある。
 これらに対応して、幕速に応じてマージンを設定する場合、幕速が早ければマージンを大きくし、幕速が遅い場合はマージンを小さくすることができる。これにより、フリッカの影響が表れないと評価できる範囲で、幕速に応じて可能な限りマージンを大きくすることができる。従って幕速に応じて、なるべくユーザ視認フレームレートやレイテンシの変化を小さくでき、ライブビュー画像の品質も改善できる。
 また、幕速が異なるモードとして、例えばフルサイズとAPS-Cサイズのような画サイズが異なるモードにもそれぞれ適合する状態の制御が可能となる。
 実施の形態では、マージンMはフリッカ成分のピークタイミングPTでのレベルからの露光落ち量に応じて設定される例を述べた(図11参照)。
 露光落ち量に応じてマージンを設定することで、フリッカの影響が表れないと評価できる範囲で、露光落ち量に応じて動的に、できるだけマージンを大きくすることができる。従ってなるべくユーザ視認フレームレートやレイテンシの変化を小さくでき、ライブビュー画像の品質も改善できる。
 実施の形態では、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいてライン毎に設定されたゲインで画像データを補正するフリッカ補正が行われるか否かにより、マージンMが変更される例を述べた。
 フリッカ補正を行う場合はマージンを大きくすることで、ユーザ視認フレームレートやレイテンシの変化が起こる頻度をより少なくすることができる。これもライブビュー画像の品質を改善につながる。
 実施の形態では、マージンMは撮像素子からの読出画素数に応じて設定される例を述べた。例えばフルサイズとAPS-Cのように画サイズが異なり、読出画素数が異なるモードでは、幕速も変化するため、幕速に応じてマージンを設定することが好適となる。
 もちろん、フルサイズ/APSCに限らず、全画素読出/間引き読出などに応じてマージンを設定することも好適である。
 また実施の形態では、マージンは記録する画像の露光であるか否かに応じて設定される例を挙げた。例えばライブビュー表示にのみ用いる画像であれば、比較的フリッカの影響に対する許容度合いが大きくなる。一方、記録画像では、品質維持のためにフリッカの影響をより低減したい。そのため、記録する画像の露光であるか否かによりマージンを可変することが好適である。特にこの場合、ライブビュー表示中はマージンを大きくすることで、ユーザ視認フレームレートやレイテンシの変化が起こる頻度をより少なくすることができ、ライブビュー画像の品質を改善につながる。
 またマージンは、記録する画像の露光である場合に、記録する画像の露光を行っていない期間よりも狭く設定されることで、記録画像の品質向上に適している。
 実施の形態のプログラムは、上述のマージン対応フリッカレス制御を、例えばCPU等の演算処理装置に実行させるプログラムである。
 即ち実施の形態のプログラムは、検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングPTに基づいて、ピークタイミングPTに露光期間内の特定タイミング(例えば露光重心タイミングWT)を同期させるタイミング制御TSを行うとともに、特定タイミングのずれ量がピークタイミングPTからのずれ許容量として設定したマージンM内であるときはタイミング制御TSを行わない制御、即ち上述のマージン対応フリッカレス制御を演算処理装置に実行させるプログラムである。
 このようなプログラムにより、上述したカメラ制御部21をマイクロコンピュータ等の演算処理装置により実現できる。
 これらのプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。あるいはまたプログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 なお本技術は以下のような構成も採ることができる。
 (1)
 検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、前記ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記タイミング制御を行わないマージン対応フリッカレス制御を実行する制御部を備えた
 撮像装置。
 (2)
 前記制御部は、ライブビュー画像の表示を行いながら連写撮像を行う場合に前記マージン対応フリッカレス制御を実行する
 上記(1)に記載の撮像装置。
 (3)
 連写撮像時に、連写画像を構成する1つの静止画像及びライブビュー画像の双方を生成するためのキャプチャ露光と、ライブビュー画像を生成するための1又は複数のコマ間露光とを繰り返す場合において、
 前記制御部は、
 連写撮像開始後の最初のキャプチャ露光では、前記タイミング制御を行い、
 2回目以降のキャプチャ露光では、前記特定タイミングのずれ量が前記マージン内であれば前記タイミング制御を行わず、前記特定タイミングのずれ量が前記マージン内でなければ前記タイミング制御を行う
 上記(2)に記載の撮像装置。
 (4)
 前記制御部は、
 前回の露光期間の開始タイミングから今回の露光期間の開始タイミングまでの期間長と、前々回の露光期間の開始タイミングから前記前回の露光期間の開始タイミングまでの期間長とが同一であり、今回の露光期間の特定タイミングの前記ピークタイミングからのずれ量が前記マージン内となるか否かを判定する
 上記(1)から(3)のいずれかに記載の撮像装置。
 (5)
 前記特定タイミングは、露光重心のタイミングである
 上記(1)から(4)のいずれかに記載の撮像装置。
 (6)
 前記マージンは幕速に応じて設定される
 上記(1)から(5)のいずれかに記載の撮像装置。
 (7)
 前記マージンはフリッカ成分のピークレベルからの露光落ち量に応じて設定される
 上記(1)から(6)のいずれかに記載の撮像装置。
 (8)
 検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいてフリッカ補正が行われるか否かにより、前記マージンとして、異なる値が設定される
 上記(1)から(7)のいずれかに記載の撮像装置。
 (9)
 前記マージンは撮像素子からの読出画素数に応じて設定される
 上記(1)から(8)のいずれかに記載の撮像装置。
 (10)
 前記マージンは記録する画像の露光であるか否かに応じて設定される
 上記(1)から(9)のいずれかに記載の撮像装置。
 (11)
 前記マージンは、前記記録する画像の露光である場合に、前記記録する画像の露光を行っていない期間よりも狭く設定される
 上記(10)に記載の撮像装置。
 (12)
 検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、前記ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、前記特定タイミングのずれ量が前記ピークタイミングからのずれ許容量として設定したマージン内であるときは前記タイミング制御を行わないマージン対応フリッカレス制御を、撮像制御装置が実行する
 撮像制御方法。
 (13)
 検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、前記ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、前記特定タイミングのずれ量が前記ピークタイミングからのずれ許容量として設定したマージン内であるときは前記タイミング制御を行わないマージン対応フリッカレス制御を、演算処理装置に実行させるプログラム。
1 撮像装置
11 撮像光学系
12 撮像素子
13 アナログ信号処理部
14 記録制御部
15 表示部
16 通信部
17 操作部
18 AE検波部
19 メモリ部
20 デジタル信号処理部
21 カメラ制御部
22 ドライバ部
24 マージン対応フリッカレス制御部
25,25R,25G,25B フリッカ検波・補正部
26 一時記憶部
26A,26B フレームメモリ

Claims (13)

  1.  検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、前記ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、前記特定タイミングと前記ピークタイミングのずれ量が設定したマージン内であるときは前記タイミング制御を行わないマージン対応フリッカレス制御を実行する制御部を備えた
     撮像装置。
  2.  前記制御部は、ライブビュー画像の表示を行いながら連写撮像を行う場合に前記マージン対応フリッカレス制御を実行する
     請求項1に記載の撮像装置。
  3.  連写撮像時に、連写画像を構成する1つの静止画像及びライブビュー画像の双方を生成するためのキャプチャ露光と、ライブビュー画像を生成するための1又は複数のコマ間露光とを繰り返す場合において、
     前記制御部は、
     連写撮像開始後の最初のキャプチャ露光では、前記タイミング制御を行い、
     2回目以降のキャプチャ露光では、前記特定タイミングのずれ量が前記マージン内であれば前記タイミング制御を行わず、前記特定タイミングのずれ量が前記マージン内でなければ前記タイミング制御を行う
     請求項2に記載の撮像装置。
  4.  前記制御部は、
     前回の露光期間の開始タイミングから今回の露光期間の開始タイミングまでの期間長と、前々回の露光期間の開始タイミングから前記前回の露光期間の開始タイミングまでの期間長とが同一であり、今回の露光期間の特定タイミングの前記ピークタイミングからのずれ量が前記マージン内となるか否かを判定する
     請求項1に記載の撮像装置。
  5.  前記特定タイミングは、露光重心のタイミングである
     請求項1に記載の撮像装置。
  6.  前記マージンは幕速に応じて設定される
     請求項1に記載の撮像装置。
  7.  前記マージンはフリッカ成分のピークレベルからの露光落ち量に応じて設定される
     請求項1に記載の撮像装置。
  8.  検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいてフリッカ補正が行われるか否かにより、前記マージンとして、異なる値が設定される
     請求項1に記載の撮像装置。
  9.  前記マージンは撮像素子からの読出画素数に応じて設定される
     請求項1に記載の撮像装置。
  10.  前記マージンは記録する画像の露光であるか否かに応じて設定される
     請求項1に記載の撮像装置。
  11.  前記マージンは、前記記録する画像の露光である場合に、前記記録する画像の露光を行っていない期間よりも狭く設定される
     請求項10に記載の撮像装置。
  12.  検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、前記ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、前記特定タイミングのずれ量が前記ピークタイミングからのずれ許容量として設定したマージン内であるときは前記タイミング制御を行わないマージン対応フリッカレス制御を、撮像制御装置が実行する
     撮像制御方法。
  13.  検出されたフリッカ成分の周期および該フリッカ成分のピークタイミングに基づいて、前記ピークタイミングに露光期間内の特定タイミングを同期させるタイミング制御を行うとともに、前記特定タイミングのずれ量が前記ピークタイミングからのずれ許容量として設定したマージン内であるときは前記タイミング制御を行わないマージン対応フリッカレス制御を、
     演算処理装置に実行させるプログラム。
PCT/JP2021/043165 2021-01-12 2021-11-25 撮像装置、撮像制御方法、プログラム WO2022153682A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022575104A JPWO2022153682A1 (ja) 2021-01-12 2021-11-25
EP21919573.2A EP4280590A1 (en) 2021-01-12 2021-11-25 Imaging device, imaging control method, and program
US18/260,365 US20240031686A1 (en) 2021-01-12 2021-11-25 Imaging apparatus, imaging control method, and program
CN202180089315.6A CN116806430A (zh) 2021-01-12 2021-11-25 成像装置、成像控制方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-002695 2021-01-12
JP2021002695 2021-01-12

Publications (1)

Publication Number Publication Date
WO2022153682A1 true WO2022153682A1 (ja) 2022-07-21

Family

ID=82447155

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/043165 WO2022153682A1 (ja) 2021-01-12 2021-11-25 撮像装置、撮像制御方法、プログラム

Country Status (5)

Country Link
US (1) US20240031686A1 (ja)
EP (1) EP4280590A1 (ja)
JP (1) JPWO2022153682A1 (ja)
CN (1) CN116806430A (ja)
WO (1) WO2022153682A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252401A (ja) * 2007-03-29 2008-10-16 Fujifilm Corp 撮像システム、撮像方法、および撮像プログラム
JP2015088917A (ja) * 2013-10-30 2015-05-07 キヤノン株式会社 撮像装置、撮像方法、プログラム、及び記録媒体
WO2017217137A1 (ja) * 2016-06-15 2017-12-21 ソニー株式会社 撮像制御装置、撮像制御方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252401A (ja) * 2007-03-29 2008-10-16 Fujifilm Corp 撮像システム、撮像方法、および撮像プログラム
JP2015088917A (ja) * 2013-10-30 2015-05-07 キヤノン株式会社 撮像装置、撮像方法、プログラム、及び記録媒体
WO2017217137A1 (ja) * 2016-06-15 2017-12-21 ソニー株式会社 撮像制御装置、撮像制御方法およびプログラム

Also Published As

Publication number Publication date
CN116806430A (zh) 2023-09-26
EP4280590A1 (en) 2023-11-22
US20240031686A1 (en) 2024-01-25
JPWO2022153682A1 (ja) 2022-07-21

Similar Documents

Publication Publication Date Title
JP4173457B2 (ja) 撮影装置及びその制御方法
JP6950698B2 (ja) 撮像制御装置、撮像制御方法および撮像装置
JP2007318725A (ja) カメラ、カメラの撮影制御方法、プログラム、記録媒体
JP2011166397A (ja) 撮像装置および撮像装置の制御方法
JP2018006827A (ja) 撮像装置、撮像プログラム、撮像方法
JP5909997B2 (ja) 撮像装置および撮像装置の制御方法
KR20130031176A (ko) 디스플레이 장치 및 방법
JP2006033123A (ja) 撮像装置
US8681245B2 (en) Digital photographing apparatus, and method for providing bokeh effects
JP6911850B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5948997B2 (ja) 撮像装置及び撮像方法
JP2006217505A (ja) 撮影装置
WO2022153682A1 (ja) 撮像装置、撮像制御方法、プログラム
JP2004080376A (ja) 動画撮像装置及び動画再生装置
JP2004180151A (ja) デジタルカメラ
US20110058063A1 (en) Digital photographing apparatus, method of controlling the same, and recording medium storing program to execute the method
JP6728010B2 (ja) 撮像装置及び撮像装置の制御方法
WO2022172639A1 (ja) 撮像装置、撮像方法、プログラム
JP4331087B2 (ja) 撮影装置及びその制御方法
JP2007060327A (ja) 撮像装置
WO2022158202A1 (ja) 撮像装置、撮像制御方法、プログラム
JP4221051B2 (ja) 撮影装置及びその制御方法
JP4310756B2 (ja) 撮影装置及びその制御方法
JP4310755B2 (ja) 撮影装置及びその制御方法
JP5631084B2 (ja) 画像記録装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21919573

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022575104

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18260365

Country of ref document: US

Ref document number: 202180089315.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021919573

Country of ref document: EP

Effective date: 20230814