WO2018123342A1 - 撮像装置、フリッカ検出方法、およびコンピュータ読取可能な記録媒体 - Google Patents

撮像装置、フリッカ検出方法、およびコンピュータ読取可能な記録媒体 Download PDF

Info

Publication number
WO2018123342A1
WO2018123342A1 PCT/JP2017/041558 JP2017041558W WO2018123342A1 WO 2018123342 A1 WO2018123342 A1 WO 2018123342A1 JP 2017041558 W JP2017041558 W JP 2017041558W WO 2018123342 A1 WO2018123342 A1 WO 2018123342A1
Authority
WO
WIPO (PCT)
Prior art keywords
flicker
imaging
divided region
fringes
fringe
Prior art date
Application number
PCT/JP2017/041558
Other languages
English (en)
French (fr)
Inventor
雅隼 野田
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Publication of WO2018123342A1 publication Critical patent/WO2018123342A1/ja
Priority to US16/432,867 priority Critical patent/US10623656B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/745Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Definitions

  • the present invention relates to an imaging device, a flicker detection method, and a computer-readable recording medium that can determine the presence of flicker when a light source includes flicker.
  • an image obtained by the image sensor may have a luminance difference depending on the exposure timing.
  • the light source of illumination light that repeats blinking is called a flicker light source, and various methods for detecting whether the light source that illuminates the subject is a flicker light source have been proposed.
  • the above-mentioned synchro scan function is a difficult operation because the user must find a fine stripe pattern generated from high-frequency flicker and find a shutter speed that is synchronized with the flicker frequency.
  • the present invention has been made in view of such circumstances, and provides an imaging apparatus, a flicker detection method, and a computer-readable recording medium that allow a user to easily perform flicker cancellation. Objective.
  • An image pickup apparatus includes an image pickup device that picks up a subject image via an optical system, and an image pickup range of the image pickup device divided into a plurality of regions and outputs pixel signals output from the image pickup device.
  • a flicker fringe detector that detects a flicker fringe that is expected to exist by photometry of the divided area based on the above, and a discriminator that discriminates whether or not the flicker fringe detector has detected the flicker fringe
  • the flicker fringe detection unit reduces the area of the divided region and detects a divided region where flicker fringes are expected to exist when the discriminating unit determines that the flicker fringe cannot be detected.
  • a flicker detection method is a flicker detection method in an image pickup apparatus having an image pickup device that picks up a subject image via an optical system, and the image pickup range of the image pickup device is divided into a plurality of regions. Then, based on the pixel signal output from the image sensor, photometric measurement is performed on the divided area to detect a divided area where flicker fringes are expected to be present, and it is determined whether the flicker fringes are detected, When it is determined that flicker fringes cannot be detected, the area of the divided region is reduced to detect a divided region where flicker fringes are expected to exist.
  • a computer-readable recording medium is a computer-readable recording medium that records a program to be executed by a computer of an imaging apparatus having an imaging element that captures a subject image via an optical system.
  • the program includes the following: The imaging range of the imaging device is divided into a plurality of regions, and the divided regions are measured based on pixel signals output from the imaging device, and flicker fringes are expected to exist. If the flicker fringe is detected, it is predicted that flicker fringe is present by reducing the area of the divided area. To detect the divided area.
  • an imaging apparatus a flicker detection method, and a computer-readable recording medium that allow a user to easily perform flicker cancellation.
  • FIG. 1 is a block diagram mainly showing an electrical configuration of a camera according to an embodiment of the present invention. It is a figure explaining the photometry range detected for flicker detection in the camera which concerns on one Embodiment of this invention.
  • 6 is a flowchart illustrating an operation for flicker detection of a camera according to an embodiment of the present invention. 6 is a flowchart illustrating an operation for flicker detection of a camera according to an embodiment of the present invention. 6 is a flowchart illustrating an operation for detecting flicker fringe spacing and fringe movement of a camera according to an embodiment of the present invention. It is a figure which shows an example of a flicker detection in the camera in one Embodiment of this invention.
  • This camera has an imaging unit, and the imaging unit converts the subject image into image data, and displays the subject image on a display unit arranged on the back of the main body based on the converted image data.
  • the photographer determines the composition and shooting timing by observing the live view display. A still image can be taken by operating the release button.
  • the image data recorded on the recording medium can be reproduced and displayed on the display unit when the reproduction mode is selected.
  • the camera according to the present embodiment detects the flicker fringe and the flicker fringe movement based on the pixel data within the photometric range (for example, S5, S11 to S15 in FIG. 3A, S19). If the flicker frequency cannot be obtained, the photometry range is narrowed and the flicker frequency is obtained by the same processing (for example, see S17 and S25 in FIG. 3B).
  • the photometric range for example, S5, S11 to S15 in FIG. 3A, S19.
  • FIG. 1 is a block diagram mainly showing an electrical configuration of the camera according to the present embodiment.
  • This camera has a camera body 10 and a lens barrel 20 that can be attached to and detached from the camera body 10.
  • the camera shown in the present embodiment is a so-called interchangeable lens camera in which the camera body 10 and the lens barrel 20 are configured separately.
  • the present invention is not limited to this, and the lens barrel may be in the form of a camera integrated with the camera body.
  • a control unit 11 In the camera body 10, a control unit 11, an imaging control unit 17, an imaging element 18, and a mechanical shutter 19 are arranged.
  • the mechanical shutter 19 is a so-called focal plane shutter or lens shutter disposed on the front side of the image sensor 18.
  • the mechanical shutter 19 allows the subject luminous flux from the lens barrel 20 to pass during a predetermined exposure time (determined by the shutter speed) during still image shooting. Further, at the time of moving image shooting or live view display, the mechanical shutter 19 is opened, and the imaging control unit 17 controls the exposure time by the electronic shutter.
  • the mechanical shutter 19 is not limited to the focal plane shutter, but may be another type of shutter such as a lens shutter. Further, the mechanical shutter 19 may be omitted and only the electronic shutter by the image sensor 18 may be used. In this case, the exposure time is controlled by the electronic shutter even in the case of still image shooting.
  • the imaging device 18 is a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary MOS) image sensor, or the like, and is disposed on an extension line of the optical axis O of the optical system of the lens barrel 20.
  • the imaging element 18 has a plurality of photoelectric conversion pixels, receives an object image (light image) formed by the lens barrel 20 on the imaging surface, photoelectrically converts the object image by each photoelectric conversion pixel, A pixel signal is generated and output to the imaging control unit 17.
  • the image sensor 18 functions as an image sensor that captures a subject image via an optical system.
  • the imaging control unit 17 has an imaging control circuit, and performs readout control of pixel signals from the imaging element 18 based on a control signal from the control unit 11.
  • the imaging control unit 17 can control the exposure time (electronic shutter speed) of the plurality of photoelectric conversion pixels by controlling the electronic shutter of the imaging element 18.
  • ISO sensitivity can be controlled by amplifying pixel signals read from a plurality of photoelectric conversion pixels at a predetermined amplification factor.
  • the control unit 11 is a controller including peripheral circuits such as a CPU (Central Processing Unit) and an ASIC (Application Specific Integrated Circuit), and controls the camera body 10 and the lens barrel 20 via an interface circuit (not shown). .
  • the CPU controls the entire camera according to a program stored in a non-volatile memory such as a flash memory.
  • the control unit 11 includes an exposure setting value calculation unit 12, an aperture value transmission / reception unit 13, a shutter speed / sensitivity operation control unit 14, a camera information display unit 15, and a photometry control unit 16.
  • the aperture value transmission / reception unit 13 includes a communication circuit as a peripheral circuit.
  • the camera information display unit 15 includes a display device and a backlight device, and includes a display unit such as a rear display panel. Each unit such as the exposure set value calculation unit 12 is executed by software by a CPU or the like.
  • the control unit 11 divides the imaging range of the imaging device into a plurality of regions (see, for example, FIGS. 2 and 5), and measures the divided region based on the pixel signal output by the imaging device to cause flicker fringes. Then, it functions as a flicker fringe detection unit that detects an expected divided region (see, for example, S5 in FIG. 3A). Further, the control unit 11 functions as a determination unit that determines whether or not the flicker fringe detection unit has detected the flicker fringe (for example, see S7 in FIG. 3A).
  • the flicker fringe detection unit described above detects a divided region in which flicker fringes are expected to be present by reducing the area of the divided region when the discriminating unit determines that the flicker fringe cannot be detected (for example, (See S17 and S25 in FIG. 3B)
  • control unit 11 determines the interval between the first divided region and the second divided region on the image sensor that is expected to have flicker stripes, and the readout time corresponding to the first divided region and the second divided region. It functions as a flicker frequency calculation unit that calculates the flicker frequency corresponding to the flicker fringes based on the difference between them (see, for example, equations (2) and (3), S3 in FIG. 3A).
  • the discrimination unit described above causes the flicker fringe detection unit to detect flicker fringes, and discriminates whether or not the flicker fringes can be detected based on the interval on the image sensor in the divided area where the flicker fringes exist (for example, FIG. 3B). S15 etc.). Further, the determination unit determines whether or not the flicker fringe has been detected based on the difference between the intervals on the image sensor in the divided area where the flicker fringe exists and the flicker frequency (for example, see S15 in FIG. 3B). .
  • the flicker fringe detection unit described above causes the imaging device to perform an imaging operation at a first frame rate, and detects a divided region where flicker fringes are expected to exist based on pixel signals from different imaging operations (for example, (See S5 etc. in FIG. 3A).
  • the determination unit described above determines whether or not the position of the divided region where flicker fringes are expected to change is changed, and in the case of determining that there is no change, the flicker stripe detection unit detects the second frame rate by the image sensor.
  • the image pickup operation is executed, and a divided region where flicker fringes are expected to be present is detected based on pixel signals from different image pickup operations (see, for example, S9 in FIG. 3A, S23 in FIG. 3B).
  • the flicker fringe detection unit described above causes the imaging operation to be performed at the first frame rate and the first electronic shutter speed by the imaging element, and flicker fringes are expected to exist based on pixel signals from different imaging operations.
  • a divided area is detected (see, for example, S5 in FIG. 3A).
  • the determination unit described above determines whether or not the position of the divided region where flicker fringes are expected to change is changed, and in the case of determining that there is no change, the flicker fringe detection unit uses the image sensor to detect the second electronic shutter.
  • the imaging operation is executed at a speed, and a divided area where flicker fringes are expected to be present is detected based on pixel signals obtained by different imaging operations (for example, in S59 to S75 in FIG. 4, the shutter speed for flicker fringes that do not move) (Detection is performed based on whether the flicker fringe density changes by changing the second electronic shutter speed).
  • the control unit 11 functions as a control unit that controls operations of the flicker fringe detection unit and the display unit.
  • the control unit performs an imaging operation in a time-division manner with the imaging element, and acquires an imaging signal used in the flicker fringe detection unit and an imaging signal used for display on the display unit.
  • the camera information display unit 15 includes a rear display panel such as a liquid crystal display panel or an organic EL and a display control circuit, and displays an image for flicker removal output from the photometry control unit 16.
  • the display panel is arranged on the back of the camera body, and displays various images such as a live view image, a reproduction image, and a menu image for setting various information of the camera.
  • the rear display panel is disposed on the rear surface of the camera body, it may be located at any other position, or an EVF (electrical viewfinder) may be used as a matter of course.
  • the camera information display unit 15 functions as a display unit that performs display based on the imaging output of the imaging device.
  • the photometry control unit 16 inputs the pixel signal from the image sensor 18 and the exposure setting value calculated by the exposure setting value calculation unit 12, and determines whether or not flicker occurs.
  • An exposure setting value calculation unit 12 in the control unit 11 receives a pixel signal from the imaging control unit 19 and an aperture value, a mechanical shutter speed, an electronic shutter speed, and an ISO for obtaining appropriate exposure from subject luminance based on the pixel signal. Calculate sensitivity and so on. Further, the result of flicker determination is input from the photometry control unit 16, and if flicker occurs, an electronic shutter speed and / or mechanical shutter speed that cancels the flicker is calculated.
  • the aperture value calculated by the exposure setting value calculation unit 12 is transmitted to the aperture operation control unit 23 in the lens barrel 20 via the aperture value transmission / reception unit 13.
  • the shutter speed and sensitivity calculated by the exposure setting value calculation unit 12 are output to the shutter speed / sensitivity operation control unit 14.
  • the aperture value transmission / reception unit 13 includes a communication circuit for transmitting and receiving between the camera body 10 and the lens barrel 20, and the aperture value calculated by the exposure setting value calculation unit 12 on the camera body 10 side is used as the lens barrel. This is transmitted to the 20th diaphragm operation control unit 23.
  • the aperture value transmission / reception unit 13 is configured such that when the aperture operation control unit 23 on the lens barrel 20 side is changed to an aperture value based on the focal length (zoom encoder value) detected by the zoom position detection unit 24, The changed aperture value is received.
  • the shutter speed / sensitivity operation control unit 14 inputs the electronic shutter speed and ISO sensitivity calculated by the exposure setting value calculation unit 12, and performs operation control so that the electronic shutter speed and ISO sensitivity are obtained. Further, when taking a still image, the mechanical shutter 19 is controlled so that the shutter speed calculated by the exposure setting value calculation unit 12 is obtained. At the time of moving image shooting or live view display, the mechanical shutter 19 is opened.
  • a front group lens 21a In the lens barrel 20, a front group lens 21a, a rear group lens 21b, a diaphragm 22, a diaphragm operation control unit 23, a zoom position detection unit 24, and a diaphragm operation unit 25 are provided.
  • the front group lens 21a and the rear group lens 21b (collectively, the photographic lens 21 or the photographic optical system) adjust the focus lens in the photographic lens 21 to adjust the subject image on the imaging surface of the image sensor 18.
  • the focal length can be changed by adjusting the zoom lens of the photographic lens 21.
  • the diaphragm 22 is disposed in the optical path of the taking lens 21.
  • the aperture 22 is mechanically variably driven by the aperture operating unit 25. By changing the aperture diameter, it is possible to change the amount of subject light incident on the image sensor 18.
  • the zoom position detection unit 24 has a so-called zoom encoder, detects the position of the zoom lens in the taking lens 21 (that is, focal length information), and outputs it to the aperture operation control unit 23.
  • the flicker determination in this embodiment is performed by the following (A) to (C).
  • (B) Search for moving stripes based on photometric information for each photometric area, and detect flicker fringe spacing and movement. Then, the detected fringe interval is collated with the frequency range calculated in (A), and it is determined whether the collated frequency matches the condition of the amount of movement of the fringe between the detected frames. The flicker frequency is used. If the flicker fringe is not a moving fringe, the same processing is performed again by changing the frame rate. The reason for changing the frame rate will be described later.
  • the frame rate is changed for the following reason.
  • the flicker frequency is a numerical value that is a multiple of the frame rate
  • the flicker stripe does not move. Flicker stripes that do not move are difficult to distinguish from object patterns as they are, and cause false detection. Therefore, in this embodiment, in order to check whether the flicker frequency condition is met from the fringe interval and the amount of movement of the fringe between frames, the frame rate is changed under the condition that the flicker fringe does not move. It is also possible to make a flicker judgment without changing the frame rate by switching the shutter speed (Tv) value between frames, checking if the density of flicker fringes that do not move changes, and determining whether the flicker fringes are due to flicker. it can.
  • the flicker determination is performed by detecting the interval of flicker fringes generated by flicker and the movement of the fringes.
  • a frequency range in which luminance change due to flicker can be determined in the current photometric range is calculated.
  • the flicker cycle that can be detected is expressed in units of divided photometric areas. Therefore, the flicker frequency that can be detected in a predetermined divided photometry area can be detected as a frequency range that depends on the number of divisions in the photometry area.
  • the flicker frequency is, for example, 50 Hz or 60 Hz when the light source is the same as the frequency of the commercial power source and the brightness changes. However, in the case of an LED light source or the like, the flicker frequency is not the same as the commercial power supply frequency, and may be higher. When the flicker frequency is high, the interval between flicker stripes is narrowed, making detection difficult. Therefore, in the present embodiment, first, flicker is detected in a detectable frequency range, and flicker detection is performed while changing the detection range.
  • the upper limit of the flicker frequency that can be detected is limited by the number of pixels of the image sensor 18 corresponding to the divided photometry area. This is because in order to ensure the reliability of photometry, the number of pixels in one divided photometry area needs to be a predetermined number or more.
  • the outer frame on the left shows the photometric range 31, and the area surrounded by the dotted line shows the multi-segment photometric area 32.
  • the gray line extending in the horizontal direction shows flicker stripes 33, and eleven flicker stripes appear in the photometric range 31 with a flicker stripe interval 35. That is, one flicker stripe appears corresponding to one photometry area. In this case, it cannot be determined that flicker stripes are present.
  • the flicker frequency is further increased. It is determined that the frequency is high.
  • the photometric range reduction process means that the photometric area is narrowed and the photometric area is set again with the same number of photometric areas as before the reduction process within the narrowed photometric range. Note that the number of photometry areas to be reset is not necessarily the same as the number of previous photometry areas.
  • the moving fringe flicker detection process is performed in the set photometry range, and if the frequency range that can be detected in the photometry range does not correspond to the flicker frequency, the photometry range reduction process is performed ( The process of increasing the frequency range that can be detected is repeated.
  • the flicker fringe spacing is 1 [area] when it cannot be detected, the flicker fringe spacing can be (2 / vertical area division) [area].
  • flicker frequencies of various light source devices and illumination devices are generally known, and such flicker frequencies are stored in a nonvolatile memory in advance. Then, it can be determined whether or not the detected frequency range corresponds to the stored flicker frequency.
  • FIGS. 3A, 3B, and 4 are executed by the CPU in the control unit 11 controlling each unit in accordance with a program stored in a memory (not shown).
  • the acquisition time for one area is calculated (S1).
  • One area corresponds to the photometric ranges 31 and 41 in FIG. 2, and the photometric range for flicker detection becomes gradually narrower.
  • a time for reading out the pixel data of one area within the currently set photometric range is calculated for the image sensor 18.
  • the one area acquisition time Ta can be calculated from the following equation (1).
  • Ta Thd [sec] * (Ne-1) + Ti
  • Thd is a time [sec] for shifting the time to start accumulation for one line in the horizontal area of the image sensor 18 for each line.
  • the shift time for shifting the accumulation start time for each line is set as a control parameter for rolling shutter control of the COMS image sensor, for example.
  • Ne is the number of pixels in the vertical direction (number of vertical lines) of the divided photometry area.
  • Ti is an accumulation time (integration time).
  • fmin (1 / Ta) * INT (11 / Ls)
  • fmax (1 / Ta) * (INT (11 / Ls) +1)
  • x is the number of flicker stripe intervals (number of flicker stripes ⁇ 1)
  • Ls is the stripe interval (the distance between the flicker stripes and the flicker stripes is converted into the number of vertical widths of the photometric area)
  • fmin is the minimum frequency
  • fmax is Maximum frequency
  • Ta means 1 area acquisition time [sec]
  • * means multiplication.
  • the number of vertical area divisions is 11.
  • the fringe interval and the fringe movement amount are detected from the photometric result (S5).
  • flicker fringes and fringe movement amounts are calculated based on pixel data acquired within the set photometric range.
  • the fringe interval detected in this step [number of areas], represented by the number of vertical areas in FIG. 2) and the amount of movement of the stripes between frames ([number of areas]) are detected.
  • the flicker frequency candidate A is determined from the fringe interval detected in this step and the frequency range calculated in step S3 (see the equations (2) and (3) above).
  • step S5 if the fringe interval and the fringe movement amount are detected, then (a) the fringe itself cannot be detected, or (b) the fringe does not move even if the frame rate (fps) is changed in the previous processing, or ( c) It is determined whether or not it was determined as “non-detection” in the previous process (S7).
  • the determination is made based on whether or not flicker fringes can be detected as a result of the detection in step S5.
  • the determination of whether or not flicker stripes can be detected will be described in detail with reference to FIG. In S23, which will be described later, it is determined whether or not the flicker fringe position has moved between frames despite the change in the frame rate.
  • step S21 it is determined whether or not “non-detection” is determined in step S21 described later. It is determined whether any one of (a) to (c) satisfies the condition. In this embodiment, the determination is made using the three conditions (a) to (c). However, any one or two conditions may be used, and another condition may be added.
  • step S7 If all the conditions are not satisfied as a result of the determination in step S7, that is, the fringes themselves can be detected, the fringes are moved by changing the frame rate (fps) in the previous process, and “not detected” in the previous process. If it is not determined, it is determined whether or not the detected stripe is moving (S9). Here, it is determined whether or not the flicker fringe position has moved between frames.
  • the frequency candidate A is calculated from the detection result of the stripe interval (S11).
  • the frequency HA [Hz] of the frequency candidate A is calculated by the following equation (6).
  • HA (fmin + fmax) / 2 (6)
  • fmin means the minimum frequency
  • fmax means the maximum frequency.
  • a fringe movement amount is calculated from the frequency candidate A (S13).
  • the amount of movement of the fringes between frames MC ([number of areas]) is calculated according to (7) below.
  • MC ⁇ Fr / (1 / HA) ⁇ remainder * (1 / Ta) (7)
  • Fr represents the frame rate period [sec]
  • HA represents the frequency HA [Hz] of the frequency candidate A
  • Ta represents one area acquisition time [sec].
  • the detected stripe movement amount matches the calculated stripe movement amount (S15).
  • the amount of movement of the stripe between frames detected in step S5 is equal to the amount of movement MC of the stripe between frames calculated by the calculation based on the above equation (7). If the difference between the two is within a predetermined value, it is determined that they are equivalent.
  • step S15 If the result of determination in step S15 is that the amount of fringe movement matches between detection and calculation, frequency candidate A (frequency HA) is determined as the flicker frequency, and this process ends (S19). Since the detected inter-frame movement amount of the fringes and the inter-frame movement amount MC of the fringes calculated are equal, the frequency candidate A is formally determined as the flicker frequency.
  • step S15 determines whether the amount of fringe movement between the detected frames does not match the calculated amount of fringe movement between frames. If the result of determination in step S15 is that the amount of fringe movement between the detected frames does not match the calculated amount of fringe movement between frames, it is determined as “non-detection” and the process is repeated from the start (S21). ). Since the actual flicker fringe is different from the frequency of the flicker fringe when the frequency candidate A is used as the frequency candidate A, the frequency candidate A is incorrect. Therefore, returning to step S1, the flicker frequency is detected again.
  • step S9 if the result of this determination is that the detected fringes have not moved, the frame rate is changed and the processing is restarted from the start (S23). If the amount of movement of the stripe between frames is less than a predetermined value, it is determined that the stripe does not move in synchronization with the frame rate period and the flicker period. In order to move the flicker fringes, the frame rate is changed, and the process returns to step S1 to determine again the amount of movement of the fringes between frames.
  • step S7 if any of the conditions (a) to (c) in step S7 is satisfied, whether the size of the photometric range when the photometric range is narrowed (reduced) has reached a predetermined limit. It is determined whether or not (S17). If the determination result in step S7 is Yes, flicker fringes cannot be detected in the current photometric range. In this case, the photometric range is narrowed (reduced) as described with reference to FIG. The reduction ratio is (2 / total area division number) times. In this narrowed photometric range, the measurement is divided into the same number of photometric areas as before the change, and the process is restarted from the calculation of the frequency range in which the luminance change due to flicker stripes can be determined (step S1).
  • the predetermined limit of the size of the photometric range when narrowed (reduced) depends on the number of pixels of the image sensor 18. If the number of pixels is large, a sufficient resolution can be ensured even if the photometric range is reduced, so that flicker fringes can be determined. Therefore, the upper limit of the flicker frequency that can be detected is determined by the number of pixels of the image sensor.
  • step S17 If the result of determination in step S17 is that the limit has not been reached, the photometry range is narrowed (reduced), and the process is restarted from the start (S25). On the other hand, if the limit has been reached, it is determined that there is no flicker, and the process is terminated (S27).
  • flicker fringes are detected using pixel data of each area within the photometric range, and further, it is detected whether the flicker fringes are moving between frames ( (See S5, S7, S9).
  • the frequency candidate A is calculated (S11), and the flicker fringe movement between frames is calculated from the frequency candidate A (S13). Whether the fringe movement between the result and the actual frame matches is collated (S15). If they match, the frequency candidate A is determined as the flicker frequency (S19).
  • step S23 in order to move the flicker fringes, the frame rate is changed and the amount of movement of the fringes between frames is determined again by calculation. However, the following modifications may be made.
  • step S23 the electronic shutter speed is changed without changing the frame rate.
  • step S5 instead of detecting the amount of movement of the stripe, the amount of change in the density (luminance) of the flicker stripe that does not move is detected between frames with different electronic shutter speeds. When the amount of change in the flicker fringe density (luminance) is greater than a predetermined value, it is determined that the flicker fringe stripe.
  • step S7 determines whether flicker fringes themselves can be detected in step S7, that is, flicker determination.
  • This flicker determination is processed at predetermined time intervals.
  • the first frame is controlled by acquiring the luminance value of three consecutive frames out of the imaging output repeated at a predetermined cycle based on the luminance value based on the pixel data acquired by the image sensor 18.
  • the second frame is performed at the same shutter speed.
  • the shutter speed controlled by the first and second frames is increased by one step, the sensitivity is increased by one step, the exposure level is maintained, and the shutter speed is changed.
  • Flicker determination is performed using the luminance values of these three frames.
  • live view exposure control is first performed (S51).
  • the aperture value, shutter speed, and sensitivity are calculated so that the exposure level is appropriate, and the calculated values are set as the lens aperture, the electronic shutter of the image sensor, and the sensitivity.
  • the luminance value of the first frame is acquired (S53).
  • the luminance of each area is calculated based on the imaging output.
  • the luminance value has the same meaning as the photometric value.
  • Each area corresponds to the above-mentioned photometry area and divided photometry area.
  • step S51 live view exposure control
  • shutter speed electronic shutter speed
  • sensitivity as those of the first frame.
  • Exposure is performed by setting, and the brightness value of the second frame is acquired from the imaging output (S57).
  • the luminance of each area is calculated based on the imaging output of the second frame.
  • the control value is changed, that is, the shutter speed is incremented by +1 and the sensitivity value (ISO sensitivity) is incremented by +1 (S59).
  • the shutter speed is increased by one step.
  • the sensitivity is increased by one step so that the exposure does not become under.
  • an imaging operation for the third frame is performed to obtain an imaging output.
  • the luminance value of each area is acquired based on the imaging output of the third frame (S61).
  • the fluctuation amount of the first and second frames is calculated (S63).
  • the brightness value difference is calculated for each area corresponding to the brightness value of each area obtained in the first frame and the second frame.
  • the fluctuation amount of the second and third frames is calculated (S65).
  • the difference of the luminance value is calculated as a variation amount for each corresponding area.
  • the luminance change of two frames having the same integration time (shutter speed) of the image sensor and the luminance change of two frames having different integration times (shutter speed) can be acquired as the variation amount for each area.
  • step S67 After calculating the fluctuation amount, it is next determined whether or not the change in the fluctuation amount of the second and third frames is large (S67).
  • the difference between the maximum value and the minimum value of the variation amounts of the areas of the second and third frames obtained in step S65 “the amplitude of the variation amount of the third frame and the second frame” is 1 obtained in step S63. If the difference between the maximum value and the minimum value of the fluctuation amount of each area of the second frame is sufficiently larger than the “amplitude of the second frame-1 frame”, and if it is determined to be sufficiently large, It is determined that the change in the fluctuation amount of the second and third frames is large, and it is determined that one of the flicker determinations is met.
  • step S69 it is next determined whether or not the periodicity evaluation is met (S69).
  • the periodicity evaluation it is determined based on whether or not the appearance of the stripe corresponds to the flicker periodicity, that is, whether or not the number of stripes, the interval between the stripes, and the amount of movement of the stripe correspond to the flicker characteristics.
  • step S69 If the result of determination in step S69 is periodic evaluation, it is determined as flicker (S75). On the other hand, if the determination result in step S67 or step S69 is No, it is determined that there is no flicker. When flicker determination is performed, the original flow is restored.
  • step S67No or step S69No the following processing may be performed. It is determined whether or not the variation of the first and second frames is large. If the change in the amount of change in the first and second frames is greater than a predetermined value, it is determined whether or not the periodicity evaluation is applicable as described above. If it falls under periodicity evaluation, it is determined that there is flicker. This is because, under the condition that the flicker cycle is not synchronized with the frame frequency, the change in the fluctuation amount of the first and second frames is large, so that the flicker situation is judged and flicker is present. Further, when the change in the fluctuation amount of the first and second frames is equal to or less than a predetermined value, or when it does not correspond to periodicity evaluation, it is determined that there is no flicker.
  • the integration time of each frame is different, it is applied only when the method of checking the density of flicker stripes that do not move is used. Basically, the comparison is made with a common integration time.
  • the detection of flicker fringes by detecting whether or not the number of fringes and the spacing between the fringes are satisfied as flicker conditions, monitoring is performed over a plurality of frames, thereby preventing erroneous detection based on movement of patterns due to camera shake. be able to.
  • the photometric range may change in order to perform flicker detection.
  • the display range in accordance with the change in the photometric range, from the user's point of view, the enlargement ratio of the display screen changes arbitrarily and the appearance is poor. Therefore, when the high frequency flicker detection mode is set by the menu operation, the display exposure is fixed (AEL), and the camera continues the full screen display. Since the photometry range for automatic exposure control (AE) does not depend on the display size, the photometry range is internally changed (reduced) for flicker detection, and the area is divided by a predetermined number of divisions. The detection process (B) is performed.
  • the flicker detection process When the flicker detection process is completed, the result is displayed to the user and provided to the exposure setting value calculation unit 12 to be reflected in the exposure control.
  • the flicker detection result is used for an exposure setting in which the shutter speed Tv is synchronized with the flicker cycle and the flicker is erased. In this way, the display range is fixed without showing the enlarged display corresponding to the reduction of the photometric range in the flicker detection process to the user.
  • the display image 51 is a live view image displayed on the camera information display unit 15 when flicker is detected.
  • Frames surrounded by broken lines in the display image 51 and arranged at grid positions are a plurality of divided photometric areas 61.
  • the outer frame of the plurality of photometry areas 61 is a photometry range 62.
  • Ob is the main subject.
  • the broken line indicating the photometric area may not be displayed on the camera information display unit 15 when the user does not need to recognize it. This has the effect of preventing the image from being superimposed on the main subject image and becoming difficult to see. Further, only the outer frame (solid line) of the photometric area may be displayed.
  • the display image 51 is at the start of high-frequency flicker detection as described above.
  • the camera information display unit 15 fixes (AEL) the exposure immediately before the start of high-frequency flicker detection and performs full-screen display.
  • the exposure setting value calculation unit 12 performs a moving fringe flicker detection process.
  • the display image 52 is a display image when flicker is detected again when the display image 51 is displayed (FIG. 3A: S7 (Yes) ⁇ S17 (No) ⁇ S25).
  • Frames surrounded by broken lines in the display image 52 and arranged at grid positions are a plurality of divided photometric range areas 63.
  • the outer frame of the plurality of photometric areas 63 is a photometric range 64.
  • the photometric range 64 is calculated by flicker as described above, and the size of the photometric range 64 is narrower than the photometric range 62, but the number of divisions of the photometric area in each photometric range is the same, so the size of the photometric area 63 is It is narrower than the photometry area 61.
  • the center position to be reduced as the photometric range is the position of the main subject Ob (for example, the center of the main subject Ob). As the main subject, any position such as an AF position, a face detection position, or a manually set exposure area position is determined.
  • the camera information display unit 15 fixes (AEL) the exposure immediately before the start of detection of high-frequency flicker and performs full-screen display. Further, as described above, the exposure setting value calculation unit 12 reduces the photometry range, divides the reduced photometry area, and performs a moving fringe flicker detection process based on the detection result in the divided photometry area.
  • the display image 53 is a display image when flicker is detected again when flicker cannot be detected when the display image 52 is displayed.
  • a frame surrounded by a broken line in the display image 53 and arranged at a grid-like position is a plurality of divided photometric range areas 65.
  • the outer frame of the plurality of photometric areas 65 is a photometric range 66.
  • the size of the photometry area 66 is narrower than that of the photometry range 64, but since the number of divisions of the photometry area in each photometry range is the same, the size of the photometry area 65 is narrower than that of the photometry area 63.
  • the camera information display unit 15 is fixed (AEL) at the exposure immediately before the start of the detection of the high-frequency flicker and performs full screen display.
  • the exposure setting value calculation unit 12 further reduces the photometric range to divide the photometric area, and performs a moving fringe flicker detection process.
  • the display image 54 is displayed when the flicker cannot be detected when the display image 53 is displayed, and when the limit of the photometry range is further reached (S17 Yes in FIG. 3B), that is, the display image at the end of the detection of the high frequency flicker. It is.
  • Frames surrounded by broken lines in the display image 54 and arranged at grid positions are a plurality of divided photometric range areas 67.
  • the outer frame of the plurality of photometric areas 67 is a photometric range 68. Since the photometric range 68 has reached the limit of reduction of the photometric range, it returns to the normal state when the display image 51 is displayed.
  • the camera information display unit 15 cancels exposure fixation (AEL) immediately before the start of detection of high-frequency flicker, and returns to the normal display state.
  • the exposure setting value calculation unit 12 transmits the determination result of “non-detection” to the exposure control block in the exposure setting value calculation unit 12, and returns the photometric range to the normal state. Further, it may be displayed to the user that the flicker is “not detected”.
  • the display image 55 is a display image when flicker can be detected in the state of the display images 51, 52, or 53.
  • Frames surrounded by broken lines in the display image 55 and arranged at grid positions are a plurality of divided photometric range areas 69.
  • the outer frame of the plurality of photometry areas 69 is a photometry range 70.
  • the photometry range 70 returns to the normal state when the display image 51 is detected because flicker has been detected.
  • the exposure fixing (AEL) immediately before the start of the detection of the high frequency flicker is canceled, and the normal display state is restored.
  • the exposure setting value calculation unit 12 returns the photometry area to the normal state (see the photometry area 69), transmits the detected frequency determination result to the exposure control block in the exposure setting value calculation unit 12, and sets the shutter speed Tv in the flicker cycle. Perform exposure settings to synchronize and eliminate flicker. Further, it may be displayed to the user that flicker is detected.
  • the shooting at this time is called “electronic shutter still”
  • the imaging drive mode number of pixels, curtain speed, etc.
  • the imaging drive mode used for still images has a large number of pixels, which increases the power consumption of the imaging device and peripheral circuits.
  • a drive mode with low power consumption is often used separately from the electronic shutter still.
  • the user can select and set another display mode “LED flicker compatible mode” as a mode specialized for flicker detection / removal apart from normal live view display.
  • the imaging drive mode for live view display (the control mode of the imaging device 18 and the imaging control unit 17) is set to the same drive mode as the imaging of the electronic shutter still and displayed. Is desirable.
  • the flicker state that occurs when the live view is displayed is equivalent to the image captured by the electronic shutter still.
  • the user can confirm flicker removal in an image captured by the electronic shutter still while viewing the live view display.
  • the “LED flicker detection function” for executing the above-described flicker determination process (A) and (B) is executed by a user operation.
  • the processes (A) and (B) are executed, and the flicker detection process is performed. During this process, the exposure is fixed and the user waits for the process to be completed.
  • An operation unit capable of setting the shutter speed Tv with one touch is provided in the range of the shutter speed Tv candidates shown in (ii) above.
  • Examples of the operation unit include button assignment and touch panel operation. This is because when the user manually adjusts the shutter speed Tv to remove flicker, the resolution of the shutter speed is high, so there are many options for the shutter speed Tv, and the time until the user matches the target shutter speed Tv. It will take. Therefore, it is desirable to set the shutter speed Tv by a one-touch operation.
  • the one-touch operation of the shutter speed Tv in the above (iii) After the one-touch operation of the shutter speed Tv in the above (iii), if the shutter speed Tv is not completely synchronized with the flicker frequency, the user manually corrects a slight deviation.
  • the photometry area is divided while changing the photometry range, and the flicker is performed over a wide range of frequencies up to the high frequency flicker. Can be detected.
  • the following processes (1) to (3) are performed.
  • the frequency range corresponding to the photometric area interval of flicker fringes can be calculated from the readout time of the multi-divided photometric area with respect to the current photometric range (for example, equations (2), (3), (See S3 in 3A)
  • Moving fringes are detected from the photometric information for each photometric area, and the flicker fringe spacing and moving amount are detected. Then, the interval between the detected fringes is compared with the frequency range calculated in the above (1), and it is confirmed whether the condition of the compared frequency and the amount of movement of the fringe between the detected frames is met (for example, S7 in FIG. 3A). reference). If the conditions are met, the frequency is determined as the flicker frequency. If the flicker fringe is not a moving fringe, the frame rate is changed and the same process is performed again (see S23 in FIG. 3B). Note that when the flicker frequency is detected without switching the frame rate, the value of the shutter speed Tv is switched between frames to check whether the density of flicker fringes that do not move changes, and it is determined whether the flicker fringes are caused.
  • the above (1) and (2) are processed while the camera is on standby for photographing.
  • a high-frequency flicker detection mode is entered by menu operation, the exposure for display is fixed (AEL), and the camera continues full screen display.
  • the AE metering range is not displayed, and a predetermined area division is performed while changing (reducing) the electrical processing of the camera, and flicker detection is performed.
  • the user is allowed to perform the display without showing an enlarged display of the photometric range.
  • the imaging range of the imaging device is divided into a plurality of regions, and the divided region is measured based on the pixel signal output from the imaging device, and flicker fringes are expected to exist.
  • the divided areas to be detected are detected (see, for example, S5 in FIG. 2, FIG. 3A, FIG. 5, etc.).
  • it is determined whether or not the flicker fringe has been detected see, for example, S7 in FIG. 3A). If it is determined that the flicker fringe cannot be detected, the area of the divided region is reduced and flicker fringes are expected to exist. (See, for example, S17 and S25 in FIG. 3B). For this reason, the user can easily cancel the flicker. In other words, if flicker fringes cannot be detected, the flicker fringes can be detected more easily by reducing the flicker fringe detection range.
  • the flicker determination process is performed by software by the CPU mainly in accordance with a program (see FIGS. 3A, 3B, and 4).
  • the present invention is not limited to software, and a part or the whole may be executed by hardware.
  • the exposure setting value calculation unit 12, the aperture value transmission / reception unit 13, the shutter speed / sensitivity operation control unit 14, the camera information display unit 15, and the photometry control unit 16 are included in the internal configuration of the control unit 11. And a part executed by software by the CPU and a part constituted by hardware.
  • the control unit 11 may be configured separately.
  • a hardware configuration such as a gate circuit generated based on a programming language described in Verilog may be used, or a hardware configuration using software such as a DSP (Digital Signal Processor) may be used. . Of course, these may be combined appropriately.
  • a part of the CPU function may be realized by a circuit executed by a program code such as a DSP, or may be a hardware configuration such as a gate circuit generated based on a program language described by Verilog. Also, it may be realized by a hardware circuit.
  • the digital camera is used as the photographing device.
  • the camera may be a digital single lens reflex camera, a mirrorless camera, a compact digital camera, a video camera, a movie
  • a camera for moving images such as a camera may be used, and a scientific device such as a mobile phone, a smartphone, a personal digital assistant (PC), a personal computer (PC), a tablet computer, a game machine, etc., a medical camera, a microscope, etc.
  • the present invention can be applied to any device for photographing that may cause flicker.
  • control described mainly in the flowchart is often set by a program and may be stored in a recording medium or a recording unit.
  • the recording method for the recording medium and the recording unit may be recorded at the time of product shipment, may be a distributed recording medium, or may be downloaded via the Internet.
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, you may delete some components of all the components shown by embodiment.
  • constituent elements over different embodiments may be appropriately combined.
  • DESCRIPTION OF SYMBOLS 10 ... Camera body, 11 ... Control part, 12 ... Exposure setting value calculating part, 13 ... Aperture value transmission / reception part, 14 ... Shutter speed / sensitivity operation control part, 15 ... Camera Information display unit, 16 ... photometry control unit, 17 ... imaging control unit, 18 ... imaging device, 19 ... mechanical shutter, 20 ... lens barrel, 21a ... front group lens, 21b ... rear group lens, 22 ... aperture, 23 ... aperture operation control unit, 24 ... zoom position detection unit, 25 ... aperture operation unit, 31 ... photometric range, 32 ... Photometric area 33: Flicker stripe 35: Flicker stripe interval 41: Photometric range 42 ...
  • Photometric area 43 Flicker stripe 45: Flicker stripe interval 51- 55 ... display image, 61 ... photometry area, 62 ... photometry range, 3 ... metering area, 64 ... metering range, 65 ... metering area, 66 ... metering range, 67 ... metering area, 68 ... metering range, 69 ... metering area, 70 ... Photometric range

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

ユーザが簡単にフリッカキャンセルを行うことができるようにした撮像装置およびフリッカ検出方法を提供する。撮像素子の撮像範囲の中の測光範囲62を複数の測光エリア61に分割し、撮像素子が出力する画素信号に基づいて分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出し、フリッカ縞が検出できたか否かを判別し、フリッカ縞が検出できないと判別された場合に、測光範囲64中の分割領域の面積を縮小した測光エリア63を測光してフリッカ縞が存在すると予想される分割領域の検出を行う。

Description

撮像装置、フリッカ検出方法、およびコンピュータ読取可能な記録媒体
 本発明は、光源にフリッカが含まれる場合に、このフリッカの存在を判定できる撮像装置、フリッカ検出方法、およびコンピュータ読取可能な記録媒体に関する。
 明滅を繰り返す照明光に照らされた被写体を撮像素子で撮影した場合、撮像素子によって得られる画像は、露光タイミングによって輝度差が生じることがある。この明滅を繰り返す照明光の光源はフリッカ光源と呼ばれ、被写体を照明する光源がフリッカ光源によるものであるか否かを検出方法について種々提案されている。
 例えば、特許文献1には、フリッカによって発生する縞と縞の間隔、縞のフレーム間移動量を予め記憶しておき、多分割された測光エリアの測光情報を取得し、この測光情報に基づいて算出した縞と縞の間隔、縞のフレーム間移動量が周波数での条件と合致するかを判定する。この判定結果が合致すれば、その縞がフリッカであると決定している。
 また、近年はインバータ電源を用いたLED光源が普及しており、シンクロスキャン機能など、高周波フリッカの画像の写り込みを抑制するようにしたカメラが市販されている。このシンクロスキャン機能は、ユーザが背面液晶やEVF(Electronic View Finder:電子ビューファインダ)等において画像を観察しながら、シャッタ速度を調整し、フリッカ縞の写り込みを抑制する。
特開2013-89991号公報
 前述のシンクロスキャン機能は、高周波フリッカから生じる微細な縞模様をユーザが見つけ、フリッカ周波数と同期するシャッタ速度を探し出さなければならず、困難な作業である。
 本発明は、このような事情を鑑みてなされたものであり、ユーザが簡単にフリッカキャンセルを行うことができるようにした撮像装置、フリッカ検出方法、およびコンピュータ読取可能な記録媒体を提供することを目的とする。
 本発明の第1の態様に係る撮像装置は、光学系を介して被写体像を撮像する撮像素子と、上記撮像素子の撮像範囲を複数の領域に分割し、上記撮像素子が出力する画素信号に基づいて上記分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出するフリッカ縞検出部と、上記フリッカ縞検出部によりフリッカ縞が検出できたか否かを判別する判別部と、を有し、上記フリッカ縞検出部は、上記判別部によりフリッカ縞が検出できないと判別された場合に、上記分割領域の面積を縮小してフリッカ縞が存在すると予想される分割領域の検出を行う。
 本発明の第2の態様に係るフリッカ検出方法は、光学系を介して被写体像を撮像する撮像素子を有する撮像装置におけるフリッカ検出方法であって、上記撮像素子の撮像範囲を複数の領域に分割し、上記撮像素子が出力する画素信号に基づいて上記分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出し、上記フリッカ縞が検出できたか否かを判別し、上記フリッカ縞が検出できないと判別された場合に、上記分割領域の面積を縮小してフリッカ縞が存在すると予想される分割領域の検出を行う。
 本発明の第3の態様に係る、コンピュータ読取可能な記録媒体は、光学系を介して被写体像を撮像する撮像素子を有する撮像装置のコンピュータに実行させるプログラムを記録したコンピュータ読取可能な記録媒体であって、上記プログラムは以下を含む:上記撮像素子の撮像範囲を複数の領域に分割し、上記撮像素子が出力する画素信号に基づいて上記分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出し、上記フリッカ縞が検出できたか否かを判別し、上記フリッカ縞が検出できないと判別された場合に、上記分割領域の面積を縮小してフリッカ縞が存在すると予想される分割領域の検出を行う。
 本発明によれば、ユーザが簡単にフリッカキャンセルを行うことができるようにした撮像装置、フリッカ検出方法、およびコンピュータ読取可能な記録媒体を提供することができる。
本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。 本発明の一実施形態に係るカメラにおいて、フリッカ検出用に検出する測光範囲について説明する図である。 本発明の一実施形態に係るカメラのフリッカ検出のための動作を示すフローチャートである。 本発明の一実施形態に係るカメラのフリッカ検出のための動作を示すフローチャートである。 本発明の一実施形態に係るカメラのフリッカの縞間隔と縞移動を検出するための動作を示すフローチャートである。 本発明の一実施形態におけるカメラにおいて、フリッカを検出の一例を示す図である。
 以下、本発明を一実施形態としてデジタルカメラに適用した例について説明する。このカメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を本体の背面に配置した表示部にライブビュー表示する。撮影者はライブビュー表示を観察することにより、構図や撮影タイミングを決定する。レリーズ釦を操作することにより静止画の撮影ができる。記録媒体に記録された画像データは、再生モードを選択すると、表示部に再生表示することができる。
 また、本実施形態におけるカメラは、フリッカを検出するにあたって、測光範囲内の画素データに基づいてフリッカ縞とフリッカ縞移動を検出してフリッカ周波数を求める(例えば、図3AのS5、S11~S15、S19)。フリッカ周波数を求めることができない場合には、測光範囲を狭くして、同様の処理によってフリッカ周波数を求める(例えば、図3BのS17、S25参照)。
 図1は、本実施形態に係るカメラの主として電気的構成を示すブロック図である。このカメラは、カメラ本体10と、カメラ本体10に着脱できるレンズ鏡筒20を有する。なお、本実施形態に示すカメラは、カメラ本体10とレンズ鏡筒20を別体で構成した所謂レンズ交換式カメラである。しかし、これに限らず、レンズ鏡筒がカメラ本体と一体化したカメラの形態であってもよい。
 カメラ本体10内には、制御部11、撮像制御部17、撮像素子18、メカニカルシャッタ19が配置されている。
 メカニカルシャッタ19は、撮像素子18の前面側に配置された、所謂、フォーカルプレーンシャッタやレンズシャッタである。このメカニカルシャッタ19は、静止画撮影の際には、レンズ鏡筒20からの被写体光束を、所定の露光時間(シャッタ速度で決まる)の間、通過させる。また、動画撮影時やライブビュー表示時には、メカニカルシャッタ19は開放状態となり、撮像制御部17が電子シャッタによって露光時間を制御する。なお、メカニカルシャッタ19は、フォーカルプレーンシャッタに限らず、レンズシャッタ等の他の形式のシャッタでもよい。またメカニカルシャッタ19を省略し、撮像素子18による電子シャッタのみでもよい。この場合には、静止画撮影の場合であっても電子シャッタで露光時間を制御する。
 撮像素子18は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサ等であり、レンズ鏡筒20の光学系の光軸Oの延長線上に配置される。撮像素子18は、複数の光電変換画素を有し、レンズ鏡筒20によって結像された被写体像(光像)を撮像面で受光し、この被写体像を各光電変換画素によって光電変換して、画素信号を生成し、撮像制御部17に出力する。この撮像素子18は、光学系を介して被写体像を撮像する撮像素子として機能する。
 撮像制御部17は、撮像制御回路を有し、制御部11からの制御信号に基づいて、撮像素子18から画素信号の読み出し制御を行う。撮像制御部17は、撮像素子18の電子シャッタを制御して、複数の光電変換画素での露光時間(電子シャッタ速度)を制御することができる。また、複数の光電変換画素から読み出した画素信号を所定の増幅率で増幅することにより、ISO感度を制御することができる。
 制御部11は、CPU(Central Processing Unit)やASIC(Application Specific Integrated Circuit)等の周辺回路を含むコントローラであり、不図示のインターフェース回路を介して、カメラ本体10やレンズ鏡筒20の制御を行う。CPUは、フラッシュメモリ等の不揮発性メモリに記憶されたプログラムに従って、カメラ全体の制御を行う。制御部11内には、露出設定値演算部12、絞り値送受信部13、シャッタ速度・感度動作制御部14、カメラ情報表示部15、測光制御部16を有する。絞り値送受信部13は周辺回路として通信回路を含む。カメラ情報表示部15は表示デバイスとバックライトデバイス等を有し、背面表示パネル等の表示部を含む。また露出設定値演算部12等の各部は、CPU等によってソフトウエア的に実行される。
 制御部11は、撮像素子の撮像範囲を複数の領域に分割し(例えば、図2、図5参照)、撮像素子が出力する画素信号に基づいて分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出するフリッカ縞検出部として機能する(例えば、図3AのS5等参照)。また、制御部11は、フリッカ縞検出部によりフリッカ縞が検出できたか否かを判別する判別部として機能する(例えば、図3AのS7等参照)。また、上述のフリッカ縞検出部は、判別部によりフリッカ縞が検出できないと判別された場合に、分割領域の面積を縮小してフリッカ縞が存在すると予想される分割領域の検出を行う(例えば、図3BのS17、S25参照)
 また、制御部11は、フリッカ縞が存在すると予想される第1の分割領域と第2の分割領域の撮像素子上の間隔と、第1の分割領域と第2の分割領域に対応する読み出し時刻の差に基づいてフリッカ縞に対応するフリッカの周波数を算出するフリッカ周波数算出部として機能する(例えば、式(2)(3)、図3AのS3参照)。
 上述の判別部は、フリッカ縞検出部によりフリッカ縞を検出させ、フリッカ縞が存在する分割領域の撮像素子上での間隔に基づいてフリッカ縞が検出できたか否かを判別する(例えば、図3BのS15等参照)。また、判別部は、フリッカ縞が存在する分割領域の撮像素子上での間隔の差とフリッカの周波数に基づいてフリッカ縞が検出できたか否かを判別する(例えば、図3BのS15等参照)。
 また、上述のフリッカ縞検出部は、撮像素子による第1のフレームレートで撮像動作を実行させ、異なる撮像動作による画素信号に基づいてフリッカ縞が存在すると予想される分割領域を検出する(例えば、図3AのS5等参照)。上述の判別部は、フリッカ縞が存在すると予想される分割領域の位置が変化するか否かを判別し、変化しないと判別する場合に、フリッカ縞検出部は、撮像素子により第2のフレームレートで撮像動作を実行させ、異なる撮像動作による画素信号に基づいてフリッカ縞が存在すると予想される分割領域を検出する(例えば、図3AのS9、図3BのS23等参照)。
 また、上述のフリッカ縞検出部は、撮像素子による第1のフレームレート、及び第1の電子シャッタ速度で撮像動作を実行させ、異なる撮像動作による画素信号に基づいてフリッカ縞が存在すると予想される分割領域を検出する(例えば、図3AのS5等参照)。上述の判別部は、フリッカ縞が存在すると予想される分割領域の位置が変化するか否かを判別し、変化しないと判別する場合に、フリッカ縞検出部は、撮像素子により第2の電子シャッタ速度で撮像動作を実行させ、異なる撮像動作による画素信号に基づいてフリッカ縞が存在すると予想される分割領域を検出する(例えば、図4のS59~S75において、移動しないフリッカ縞に対してシャッタ速度(第2の電子シャッタ速度)を変更することによって、フリッカ縞の濃さが変化するかによって検出する)。
 制御部11は、フリッカ縞検出部と表示部の動作を制御する制御部として機能する。この制御部は、撮像素子により時分割に撮像動作を行ってフリッカ縞検出部で使用される撮像信号と表示部の表示に使用される撮像信号を取得する。
 カメラ情報表示部15は、液晶表示パネルや有機EL等の背面表示パネルと表示制御回路を含み、測光制御部16から出力されるフリッカ除去用の画像が表示される。また、表示パネルは、カメラ本体の背面に配置され、ライブビュー画像、再生画像、カメラの各種情報設定用のメニュー画像等、種々の画像が表示される。なお、背面表示パネルはカメラ本体の背面に配置されるが、これ以外の位置でもよく、またEVF(electrical view finder:電子ビューファインダ)等を用いても勿論かまわない。カメラ情報表示部15は、撮像素子の撮像出力に基づく表示を行う表示部として機能する。
 測光制御部16は、撮像素子18からの画素信号と、露出設定値演算部12によって演算された露出設定値を入力し、フリッカが発生する状態か否かを判定する。
 制御部11内の露出設定値演算部12は、撮像制御部19から画素信号を入力し、この画素信号に基づく被写体輝度から適正露光にするための絞り値、メカニカルシャッタ速度、電子シャッタ速度、ISO感度等を算出する。また、測光制御部16から、フリッカ判定の結果を入力し、フリッカが発生する場合には、フリッカをキャンセルするような電子シャッタ速度および/またはメカニカルシャッタ速度を算出する。
 露出設定値演算部12によって算出された絞り値は、絞り値送受信部13を介して、レンズ鏡筒20内の絞り動作制御部23に送信する。また、露出設定値演算部12によって算出されたシャッタ速度と感度は、シャッタ速度・感度動作制御部14に出力する。
 絞り値送受信部13は、カメラ本体10とレンズ鏡筒20の間で送受信するための通信回路を有し、カメラ本体10側の露出設定値演算部12で算出された絞り値を、レンズ鏡筒20側の絞り動作制御部23に送信する。また、絞り値送受信部13は、レンズ鏡筒20側の絞り動作制御部23が、ズーム位置検出部24によって検出された焦点距離(ズームエンコーダ値)に基づく絞り値に変更された場合には、この変更された絞り値を受信する。
 シャッタ速度・感度動作制御部14は、露出設定値演算部12によって算出された電子シャッタ速度やISO感度を入力し、この電子シャッタ速度やISO感度となるように、動作制御を行う。また、静止画撮影の際には、露出設定値演算部12で算出されたシャッタ速度となるように、メカニカルシャッタ19の制御を行う。動画撮影時やライブビュー表示時には、メカニカルシャッタ19を開放状態とする。
 レンズ鏡筒20内には、前群レンズ21a、後群レンズ21b、絞り22、絞り動作制御部23、ズーム位置検出部24、絞り動作部25が備えられている。
 前群レンズ21aおよび後群レンズ21b(総称する場合には、撮影レンズ21または撮影光学系)は、撮影レンズ21の内のフォーカスレンズを調節することにより、撮像素子18の撮像面上に被写体像を結像させることができ、撮影レンズ21の内のズームレンズを調節することにより、焦点距離を変化させることができる。
 絞り22は、撮影レンズ21の光路中に配置されている。絞り22は、絞り動作部25によって開口径が機械的に可変駆動される。開口径が変化することにより、撮像素子18に入射する被写体光量を変化させることができる。
 ズーム位置検出部24は、所謂ズームエンコーダを有し、撮影レンズ21の中のズームレンズの位置(すなわち、焦点距離情報)を検出し、絞り動作制御部23に出力する。
 次に、本実施形態におけるフリッカ判定の概要について説明する。本実施形態におけるフリッカ判定は、下記の(A)~(C)によって行う。
 (A) 現在の測光範囲に対して、多分割した測光エリアの読出し時間から、フリッカ縞の測光エリア間隔に対応する周波数を算出する。
 (B) 測光エリア毎の測光情報に基づいて移動縞を検索し、フリッカ縞の間隔と移動を検出する。そして、検出した縞の間隔を(A)において算出した周波数範囲と照合し、照合した周波数と検出したフレーム間の縞の移動量の条件が合うかを判定し、条件が合えば、その周波数をフリッカ周波数とする。フリッカ縞が移動縞でなければ、フレームレートを変更して、再度同じ処理を実施する。フレームレートを変更する理由については、後述する。
 (C) 上記(B)でフリッカ周波数の判定ができない場合には、現在の測光エリアで検出できる周波数よりも高速のフリッカであることから、測光範囲を狭くし、その範囲で同様のエリア数に分割し、上述の(A)(B)の処理を行う。(A)から(C)の処理を繰り返すことにより、高周波のフリッカまで検出を行う。
 上述の(B)において、フレームレートを変更するのは、下記の理由による。フリッカ周波数が、フレームレートの倍数となる数値の場合、フリッカ縞は移動しない。移動しないフリッカ縞は、そのままでは物体の模様と区別が難しいため、誤検出の原因となる。そこで、本実施形態においては、縞の間隔とフレーム間の縞の移動量からフリッカ周波数の条件に合うかを確認するため、移動しないフリッカ縞になる条件では、フレームレートを変更する。なお、フレーム間でシャッタ速度(Tv)の値を切り替え、移動しないフリッカ縞の濃さが変わるかチェックし、フリッカによる縞か判断することによって、フレームレートを変えずに、フリッカ判断をすることもできる。
 フリッカ判定は、フリッカによって発生するフリッカ縞の間隔と縞の移動を検出することによって行う。本実施形態においては、上述の(A)で述べたように、現在の測光範囲でフリッカによる輝度変化を判定できる周波数の範囲を算出する。ここで、分割測光エリア毎にフリッカ縞の有無を判定するので、検出できるフリッカ周期は分割測光エリア単位で表される。したがって、所定の分割測光エリアにより検出できるフリッカ周波数は、測光エリアの分割数に依存する周波数範囲として検出することができる。
 フリッカ周波数は、例えば、光源が商用電源の周波数と同じで明暗が変化する場合には、50Hzまたは60Hzとなる。しかし、LED光源等の場合には、フリッカ周波数が商用電源周波数とは同じにならず、更に高周波の場合がある。フリッカ周波数が高周波の場合には、フリッカ縞の間隔が狭くなり、検出が困難となる。そこで、本実施形態においては、まず、検出できる周波数範囲にてフリッカを検出し、この検出範囲を変えながらフリッカ検出を行う。また、検出できるフリッカ周波数の上限は、分割測光エリアに対応する撮像素子18の画素数により制限される。これは、測光の信頼性を確保するためには、1個の分割測光エリアの画素数を所定数以上とする必要があるためである。
 図2を用いて、測光範囲を変えることにより、検出できるフリッカ周波数の範囲が変わることについて説明する。多分割された測光エリアの分割数がフリッカ縞間隔に対して少ない場合、フリッカ縞がフレームごとに移動していたとしても測光結果から縞を判別することができない。その場合、測光範囲を狭く(縮小)して同様にエリア分割を行うことでフリッカ縞間隔に対するエリアの細かさを確保する。また、フレームレートとフリッカ周波数が同期する場合は、フリッカ縞を移動させるように、例えば、フレームレート変更を行う。
 図2において、左側の外枠は測光範囲31を示し、点線で囲まれたエリアは多分割測光エリア32を示す。測光範囲31内には、11×11=121エリアの測光エリアが設けられている。また、横方向に延びた灰色のラインは、フリッカ縞33を示し、測光範囲31内には、フリッカ縞間隔35で11本のフリッカ縞が現われている。つまり、1個の測光エリアに対して1個のフリッカ縞が対応して現れている状態を示している。この場合にはフリッカ縞が存在することを判定できない。
 図2において、右側の外枠は測光範囲41を示し、この測光範囲は、図2の左側の測光範囲31内の測光範囲41を拡大したものである。すなわち、測光範囲41は、測光範囲31の一部に新たな測光範囲として設定される。そして、設定された測光範囲41を、測光範囲31の場合と同様に分割される。点線で囲まれたエリアは多分割測光エリア42であり、測光範囲41内にも、11×11=121エリアの測光エリアが設けられている。また、横方向に延びた灰色のラインは、フリッカ縞を示し、測光範囲41内には、フリッカ縞間隔45を有する2本のフリッカ縞が現われている。
 図2の測光範囲31のフリッカ縞間隔35(フリッカ縞とフリッカ縞の間隔)は、測光エリアの縦幅に相当する個数に換算して1であるが、測光範囲を(2/縦エリア分割数)倍(図2では、2/11=1/5.5倍)に縮小することによって、フリッカ縞間隔45を測光エリア縦幅に換算して5としている。フリッカ縞の間隔が2以上あれば、フリッカ縞の移動によるフレーム毎の測光結果の違いを検出できる。ただし、フレーム周期とフリッカ周期が同期する場合には、縞が移動せず、移動縞(異なるフレームで移動する縞)を検出することができなくなる。この場合には、フレームレートを変更して、再度確認すればよい。
 測光範囲の一部を新たな測光範囲として設定し、つまり、測光範囲を縮小(測光範囲を狭く)し、かつフレームレートを変更しても移動縞フリッカを検出できない場合には、フリッカ周波数が更に高周波数であると判定する。そして、再度、測光範囲を縮小して同様の検出・判定を、フリッカ周波数の検出の限界となる測光範囲に縮小されるまで繰り返し行う。なお、測光範囲の縮小処理は、測光範囲を狭くし、狭くした測光範囲内を縮小処理前の測光エリアの数と同等の数で、再度測光エリアを設定することをいう。なお、再設定する測光エリアの数は、前の測光エリアの数と必ずしも同じでなくてもよい。
 このように、本実施形態においては、設定した測光範囲で移動縞フリッカの検出処理を実施し、その測光範囲で検出できる周波数範囲がフリッカ周波数に該当しなければ、測光範囲の縮小処理を行い(測光範囲を狭くする)、検出できる周波数範囲を高くする処理を繰り返す。検出できなかった時のフリッカ縞の間隔が1[エリア]だった場合に、フリッカ縞の間隔を(2/縦エリア分割数)[エリア]にすることができるように、検出できなかった時の測光範囲を縮小する倍率は、(2/縦エリア分割数)[倍]とする。例えば、縦エリアの分割数が11であれば、縮小倍率は2/11=1/5.5倍とすればよい。なお、様々な光源装置、照明装置のフリッカ周波数は、一般的に知られており、このようなフリッカ周波数を予め不揮発性メモリに記憶しておく。そして、検出した周波数範囲が、記憶しているフリッカ周波数に該当するか否か判定することができる。
 次に、図3A、図3B、図4に示すフローチャートを用いて、本実施形態におけるフリッカ検出について説明する。これらのフローは、制御部11内のCPUがメモリ(不図示)に記憶されたプログラムに従って、各部を制御することにより実行する。
 図3Aに示すフローがスタートすると、まず、1エリアの取得時間を算出する(S1)。1エリアは、図2の測光範囲31、41等に相当し、フリッカ検出のための測光範囲は次第に狭くなる。このステップでは、撮像素子18に対して、現在設定されている測光範囲内の1エリアの画素データを読み出すための時間を算出する。
 なお、1エリア取得時間Taは、下記(1)式より算出できる。
 Ta=Thd[sec]*(Ne-1)+Ti ・・・(1)
 Thdは、撮像素子18の水平方向のエリア内の1ライン分の蓄積を開始する時刻を1ライン毎にずらす時間[sec]である。1ライン毎に蓄積開始時刻をずらすためのずらし時間は、例えばCOMSイメージセンサのローリングシャッタ制御の制御パラメータとして設定される。また、Neは、分割された測光エリアの縦方向画素数(縦方向ライン数)である。Tiは蓄積時間(積分時間)である。
 1エリアの取得時間を算出すると、次に、フリッカ縞の間隔に応じたフリッカ周波数の取り得る範囲の最大値と最小値を算出する(S3)。測光範囲内のフリッカ縞の間隔数xに対応する周波数の範囲は下記(2)(3)式によって算出できる。
 fmin=(1/Ta)*(x) ・・・(2)
 fmax=(1/Ta)*(x+1)} ・・・(3)
 また、下記(4)(5)式により算出してもよい。
 fmin=(1/Ta)*INT(11/Ls) ・・・(4)
 fmax=(1/Ta)*(INT(11/Ls)+1) ・・・(5)
 ここで、xはフリッカ縞の間隔の数(フリッカ縞の数-1)、Lsは縞間隔(フリッカ縞とフリッカ縞の距離を測光エリアの縦幅数に換算)、fminは最小周波数、fmaxは最大周波数、Taは1エリア取得時間[sec]、*は乗算を意味する。なお、式(4)(5)については、縦エリアの分割数を11としている。
 フリッカ縞間隔に応じたフリッカ周波数の最大値と最小値を算出すると、次に、測光結果から縞間隔と縞移動量を検出する(S5)。ここでは、設定された測光範囲内で取得した画素データに基づいて、フリッカ縞と縞移動量を算出する。このステップで検出した縞間隔([エリア数]、図2の縦方向のエリア数で表す)と、縞のフレーム間移動量([エリア数])を検出する。このステップで検出した縞間隔と、ステップS3で算出した周波数範囲(上述の式(2)(3)参照)から、フリッカ周波数の候補Aを決定する。
 ステップS5において、縞間隔と縞移動量を検出すると、次に、(a)縞自体を検出できない、または(b)前回処理でフレームレート(fps)を変更しても縞が移動しない、または(c)前回処理で「非検出」と判定されたか否かについて判定する(S7)。ここでは、ステップS5における検出の結果、フリッカ縞として検出できたか否かに基づいて判定する。なお、フリッカ縞として検出できるか否かの判定については、後述する図4を用いて詳述する。また、後述するS23において、フレームレートを変更したにも関わらず、フレーム間でフリッカ縞の位置が移動していないか否かについて判定する。また、後述するステップS21において「非検出」と判定されたか否かを判定する。これらの(a)~(c)のいずれか1つでも条件を満たすか否かを判定する。なお、本実施形態においては、(a)~(c)の3つの条件を用いて判定しているが、いずれか1つまたは2つでもよく、別の条件を追加してもよい。
 ステップS7における判定の結果、全ての条件を満たしていない場合、すなわち、縞自体を検出でき、かつ前回処理でフレームレート(fps)を変更して縞が移動し、かつ前回処理で「非検出」と判定されていない場合には、検出した縞が移動しているか否かについて判定する(S9)。ここでは、フレーム間で、フリッカ縞の位置が移動したか否かについて判定する。
 ステップS9における判定の結果、検出した縞が移動している場合、つまり複数フレーム間で縞の位置が異なると判定する場合には、縞間隔の検出結果から周波数候補Aを算出する(S11)。ここで、周波数候補Aの周波数HA[Hz]は、下記(6)式によって算出する。
 HA=(fmin+fmax)/2 ・・・(6)
 なお、fminは最小周波数、fmaxは最大周波数を意味する。
 周波数候補Aを算出すると、次に、周波数候補Aから演算による縞移動量を算出する(S13)。ここでは、検出した縞のフレーム間移動量と、ステップS11で算出した周波数候補Aを用いて、下記(7)によって、演算による縞のフレーム間移動量MC([エリア数])を算出する。
 MC={Fr/(1/HA)}の余り*(1/Ta) ・・・(7)
 ここで、Frはフレームレート周期[sec]、HAは周波数候補Aの周波数HA[Hz]、Taは1エリア取得時間[sec]を意味する。
 演算による縞移動量を算出すると、次に、検出した縞移動量が演算した縞移動量と一致するか否かについて判定する(S15)。ここでは、ステップS5にて検出した縞のフレーム間移動量と、上記(7)式に基づく演算で算出した縞のフレーム間移動量MCが同等か否かを判定する。両者の差が所定値以内であれば、同等と判定する。
 ステップS15における判定の結果、縞移動量が検出と演算で一致していれば、周波数候補A(周波数HA)をフリッカ周波数として判定し、この処理を終了する(S19)。検出した縞のフレーム間移動量と、演算で出した縞のフレーム間移動量MCが同等になったことから、周波数候補Aを正式にフリッカ周波数として決定する。
 一方、ステップS15における判定の結果、検出したフレーム間の縞移動量と演算したフレーム間の縞移動量が一致していない場合には、「非検出」と判定し、スタートから処理をやり直す(S21)。実際のフリッカ縞が、周波数候補Aとした場合のフリッカ縞の周波数と異なることから、周波数候補Aが誤っていたことになる。そこで、ステップS1に戻って、再度、フリッカ周波数の検出を行う。
 ステップS9に戻り、この判定の結果、検出した縞が移動していない場合には、フレームレートを変更し、スタートから処理をやり直す(S23)。縞のフレーム間移動量が所定値未満となる場合は、フレームレート周期とフリッカ周期が同期して縞が移動していないと判定する。フリッカ縞を移動させるため、フレームレートを変更して、ステップS1に戻り、再度演算による縞のフレーム間移動量の判定を行う。
 ステップS7に戻り、ステップS7の(a)~(c)のいずれかの条件を満たした場合には、測光範囲を狭く(縮小)した場合の測光範囲の大きさが所定の限界に達しているか否かを判定する(S17)。ステップS7における判定の結果がYesの場合は、現状の測光範囲ではフリッカ縞を検出できない場合であり、この場合には、図2を用いて説明したように、測光範囲を狭く(縮小)する。縮小倍率は、(2/総エリア分割数)倍である。この狭くなった測光範囲で、変更前と同じ分割数の測光エリアに分割し、フリッカ縞による輝度変化を判定できる周波数の範囲を算出するところ(ステップS1)から処理をやり直す。
 なお、ステップS17における判定にあたって、狭く(縮小)した場合の測光範囲の大きさの所定の限界は、撮像素子18の画素数に依存する。画素数が多ければ測光範囲を縮小しても十分な解像度が確保されるため、フリッカ縞の判定を行うことができる。従って、検出できるフリッカ周波数の上限は撮像素子の画素数で決まる。
 ステップS17における判定の結果、限界に達していない場合には、測光範囲を狭く(縮小)してからスタートから処理をやり直す(S25)。一方、限界に達している場合には、フリッカは無いと判定し、処理を終了する(S27)。
 このように、本実施形態におけるフローにおいては、測光範囲内の各エリアの画素データを用いて、フリッカ縞を検出し、さらにフレーム間でフリッカ縞が移動しているか否かを検出している(S5、S7、S9参照)。この結果、フリッカ縞を検出し更にフリッカ縞が移動している場合には、周波数候補Aを算出し(S11)、この周波数候補Aからフレーム間のフリッカ縞移動を演算し(S13)、この演算結果と実際のフレーム間の縞移動が一致しているかを照合し(S15)、一致していた場合には周波数候補Aをフリッカ周波数と決定している(S19)。
 また、フリッカ縞自体を検出できない等の場合には(S7Yes)、測光範囲を狭くして、再度、フリッカ検出を行うようにしている(S17、S25)。なお、ステップS23においては、フリッカ縞を移動させるため、フレームレートを変更して、再度演算による縞のフレーム間移動量の判定を行っているが、以下の変形例としてもよい。ステップS23において、フレームレートを変更せずに、電子シャッタ速度を変更する。そして、ステップS5にて、縞の移動量を検出する代わりに、電子シャッタ速度が異なるフレーム間で、移動しないフリッカ縞の濃さ(輝度)の変化量を検出する。フリッカ縞の濃さ(輝度)の変化量が所定値よりも大きい場合に、フリッカによる縞であると判断する。
 次に、図4に示すフローチャートを用いて、ステップS7において、フリッカ縞自体を検出できるか、すなわちフリッカ判定について説明する。なお、このフリッカ判定は、所定時間間隔で処理される。この処理の概要として、撮像素子18で取得された画素データに基づく輝度値を元に、所定の周期で繰り返される撮像出力のうち、3駒連続した駒の輝度値を取得する制御で、1駒目と2駒目は同じシャッタ速度で行う。3駒目は1,2駒目で制御されたシャッタ速度を1段分速くし、感度を1段上げて露出レベルを維持してシャッタ速度を変更する制御を行う。この3駒の輝度値を用いてフリッカ判定を行う。
 フリッカ判定のフローに入ると、まずライブビュー露出制御を行う(S51)。ここでは、輝度値に基づいて、露出レベルが適正になるような絞り値、シャッタ速度、感度を算出し、算出した各値をレンズの絞り、撮像素子の電子シャッタ、感度に設定して撮像動作を行い、撮像出力を取得する。続いて、1駒目の輝度値を取得する(S53)。ここでは、撮像出力に基づいて各エリアの輝度を算出する。なお、輝度値は測光値と同じ意味としている。また各エリアは、前述の測光エリア、分割測光エリアに相当する。
 1駒目の輝度値を取得すると、次に、ステップS51と同様に、ライブビュー露出制御を行い(S55)、つまり、1駒目とそれぞれ同じ絞り値、シャッタ速度(電子シャッタ速度)、感度に設定して露出を実行し撮像出力より、2駒目の輝度値を取得する(S57)。ここでは、2駒目の撮像出力に基づいて各エリアの輝度を算出する。
 2駒目の輝度値を取得すると、次に、制御値変更、すなわちシャッタ速度を+1段、感度値(ISO感度)を+1段する(S59)。ここでは、ステップS53で制御した絞り値、シャッタ速度、感度のうち、シャッタ速度を1段分速くする。シャッタ速度を高速にした分により露出がアンダーにならないように感度を1段増加させる。そして3駒目の撮像動作を行い、撮像出力を取得する。続いて、3駒目の撮像出力に基づいて、各エリアの輝度値を取得する(S61)。
 3駒目の輝度値を取得すると、続いて、1、2駒目の変動量を算出する(S63)。ここでは、1駒目と2駒目で得られた各エリアの輝度値について対応するエリア毎に輝度値の差分を算出する。
 次に、2、3駒目の変動量を算出する(S65)。ここでは、2駒目と3駒目で得られた各エリアの輝度値について、対応するエリア毎に輝度値の差分を変動量として算出する。ステップS63、S65において、エリア毎に撮像素子の積分時間(シャッタ速度)が同じ2つの駒の輝度変化と積分時間(シャッタ速度)が異なる2つの駒の輝度変化をそれぞれ変動量として取得できる。
 変動量を算出すると、次に、2、3駒目の変動量の変化が大か否かを判定する(S67)。ステップS65で得られた2、3駒目の各エリアの変動量のうちの最大値と最小値の差「3駒目-2駒目の変動量の振幅」が、ステップS63で得られた1、2駒目の各エリアの変動量のうちの最大値と最小値の差「2駒目-1駒目の振幅」よりも十分大きいかどうかを比較し、十分大きいと判断された場合に、2、3駒目の変動量の変化が大と判定し、フリッカ判定のうちの一つの条件に該当したと判定するものである。
 ステップS67における判定の結果、2、3駒目の変動量の変化が大の場合には、次に、周期性評価に該当するか否かを判定する(S69)。ここでは、縞の現れ方がフリッカの周期性に該当するか否か、すなわち、縞の本数、縞の間隔、縞の移動量がフリッカの特性に該当するか否に基づいて判定する。
 ステップS69における判定の結果、周期性評価に該当する場合は、フリッカと判定する(S75)。一方、ステップS67またはステップS69における判定結果がNoの場合には、フリッカがないと判定する。フリッカ判定を行うと元のフローに戻る。
 なお、ステップS67No、またはステップS69Noの場合は、次のような処理を行ってもよい。1、2駒目の変動量の変化が大か否かを判定する。そして、1、2駒目の変動量の変化が所定値より大きい場合は、前述と同様に周期性評価に該当するか否かを判定する。そして、周期性評価に該当する場合は、フリッカありと判定する。これは、フリッカ周期がフレーム周波数に同期しない条件の場合には、1、2駒目の変動量の変化が大きいので、このフリッカ状況を判定してフリッカありとするものである。また、1、2駒目の変動量の変化が所定値以下の場合、または周期性評価に該当しない場合は、フリッカなしと判定する。
 また、各駒の積分時間を異なるものにする場合は、移動しないフリッカ縞の濃さをチェックする手法をとる場合のみに適用する。基本的には、共通の積分時間で比較する。また、フリッカ縞の検出に関して、縞の本数、縞の間隔がフリッカの条件として成立か否かの判定にあたって、複数フレームに亘り監視することにより、手ぶれによる模様の移動に基づいて誤検出を防止することができる。
 次に、測光範囲と表示範囲の関係について説明する。本実施形態においては、フリッカ検出を行うために測光範囲が変化することがある。この測光範囲の変化に合わせて表示範囲を変えようにすることが考えられるが、ユーザの観点からみると、表示画面の拡大率が勝手に変わっていき見栄えが悪い。そこで、メニュー操作で高周波フリッカ検出モードが設定された場合には、表示用の露出を固定(AEL)し、カメラは全画面表示を継続する。自動露出制御(AE)用の測光範囲は表示のサイズに依存することはないので、フリッカ検出用に測光範囲を内部的に変更(縮小)しながら一定の分割数でエリア分割して、上述の(B)の検出処理を行う。
 フリッカ検出処理が完了したら、結果をユーザに表示し、また露出設定値演算部12に提供し、露出制御に反映させる。なお、本実施形態においては、フリッカ検出の結果は、フリッカ周期にシャッタ速度Tvを同期させ、フリッカを消去するような露出設定に利用される事を想定している。このように、ユーザにフリッカ検出処理の際に、測光範囲の縮小に対応するような拡大表示を見せることなく表示範囲を一定する。
 次に、図5を用いて、測光範囲と表示範囲の関係の詳細について説明する。表示画像51は、フリッカ検出した際のカメラ情報表示部15に表示されるライブビュー画像である。表示画像51中の破線で囲まれ、格子状の位置に配置された枠は、分割された複数の測光エリア61である。また、複数の測光エリア61の外枠が測光範囲62である。なお、Obは主被写体である。測光エリアを示す破線は、ユーザに認識させる必要がない場合は、カメラ情報表示部15に表示しなくてもよい。主要被写体の画像に重畳して表示され見にくくなることを防止する効果がある。また、測光エリアの外枠(実線)だけを表示するようにしてもよい。
 表示画像51は、前述した通り高周波フリッカの検出開始時であり、この状態では、カメラ情報表示部15は、高周波フリッカの検出開始直前の露出で固定(AEL)し、全画面表示を行っている。また、露出設定値演算部12は、移動縞フリッカ検出処理を実施する。
 表示画像52は、表示画像51の表示時にフリッカを検出できなかった場合に、再度、フリッカ検出を行う際(図3A:S7(Yes)→S17(No)→S25)の表示画像である。表示画像52中の破線で囲まれ、格子状の位置に配置された枠は、分割された複数の測光範囲エリア63である。また、複数の測光エリア63の外枠が測光範囲64である。測光範囲64は、前述のようにフリッカ、算出され、測光範囲64のサイズは測光範囲62よりも狭いが、各測光範囲内の測光エリアの分割数は同じであるので、測光エリア63のサイズは測光エリア61よりも狭くなっている。測光範囲として縮小する中心位置は、主要被写体Obの位置(たとえば、主要被写体Obの中心)としている。主要被写体としては、AF位置、顔検出位置、手動で設定された露出エリアの位置等、いずれかの位置を決定する。
 表示画像52が表示されている状態では、カメラ情報表示部15は、高周波フリッカの検出開始直前の露出で固定(AEL)し、全画面表示を行っている。また、露出設定値演算部12は、前述したように測光範囲を縮小して、縮小した測光エリアの分割を行い、分割した測光エリアでの検出結果に基づいて移動縞フリッカ検出処理を実施する。
 表示画像53は、表示画像52の表示時にフリッカを検出できなかった場合に、再度、フリッカ検出を行う際の表示画像である。表示画像53中の破線で囲まれ、格子状の位置に配置された枠は、分割された複数の測光範囲エリア65である。また、複数の測光エリア65の外枠が測光範囲66である。測光範囲66のサイズは測光範囲64よりも狭いが、各測光範囲内の測光エリアの分割数は同じであるので、測光エリア65のサイズは測光エリア63よりも狭くなっている。
 表示画像53が表示されている状態では、カメラ情報表示部15は、高周波フリッカの検出開始直前の露出で固定(AEL)し、全画面表示を行っている。また、露出設定値演算部12は、さらに測光範囲を縮小して測光エリアの分割を行い、移動縞フリッカ検出処理を実施する。
 表示画像54は、表示画像53の表示時にフリッカを検出できなかった場合で、かつ更に測光範囲の縮小の限界に達した場合(図3BのS17Yes)、すなわち、高周波フリッカの検出終了時の表示画像である。表示画像54中の破線で囲まれ、格子状の位置に配置された枠は、分割された複数の測光範囲エリア67である。また、複数の測光エリア67の外枠が測光範囲68である。測光範囲68は、測光範囲の減縮の限界に達したことから、表示画像51の際の通常状態に戻る。
 表示画像54が表示されている状態では、カメラ情報表示部15は、高周波フリッカの検出開始直前の露出固定(AEL)を解除し、通常表示状態に戻る。また露出設定値演算部12は、「非検出」の判定結果を露出設定値演算部12内の露出制御ブロックに伝え、測光範囲を通常状態に戻す。また、フリッカを「非検出」であったことをユーザに表示してもよい。
 表示画像55は、表示画像51、52、または53の状態でフリッカを検出することができた場合の表示画像である。表示画像55中の破線で囲まれ、格子状の位置に配置された枠は、分割された複数の測光範囲エリア69である。また、複数の測光エリア69の外枠が測光範囲70である。測光範囲70は、フリッカを検出できたことから、表示画像51の際の通常状態に戻る。
 表示画像55が表示されている状態では、高周波フリッカの検出開始直前の露出固定(AEL)を解除し、通常表示状態に戻る。露出設定値演算部12は、測光エリアを通常状態に戻し(測光エリア69参照)、検出した周波数の判定結果を露出設定値演算部12内の露出制御ブロックに伝え、フリッカ周期にシャッタ速度Tvを同期させ、フリッカを消去するような露出設定を行う。また、フリッカが検出されたことをユーザに表示してもよい。
 次に、ユーザがフリッカ周期に、手動でシャッタ速度Tvを同期させ、フリッカを消す処理を行う場合について説明する。この場合には、ユーザが背面パネル等に表示されるフリッカ縞を確認しながら、シャッタ速度Tvを手動操作して縞を消すことになる。そして、背面パネル等に画像を表示する際の露出制御用のシャッタ速度Tvと、静止画撮影時の露出制御用のシャッタ速度Tvを同じ値とすることにより、静止画撮影による画像にフリッカが生じないように設定することができる。
 静止画を電子シャッタで撮影する(この時の撮影を「電子シャッタスチル」と称す)際に生じてしまうフリッカ縞を、ユーザが確認しながら縞を消す場合、フリッカ縞の見え方を静止画撮影時と同等にするため、ライブビュー表示時の撮像の駆動モード(画素数、幕速等)を、ライブビュー画像と電子シャッタスチルで同じにする必要がある。しかし、一般的に静止画用に使用する撮像の駆動モードは画素数が多いため、撮像素子および周辺回路の消費電力が高くなってしまう。そこで、ライブビュー表示を行う際には電子シャッタスチル用とは別に消費電力の低い駆動モードを常用する事が多い。
 本実施形態においては、消費電力の面からも、通常のライブビュー表示とは別にフリッカ検出・除去に特化したモードとして、別の表示モード「LEDフリッカ対応モード」をユーザが選択・設定できるものとする。LEDフリッカ対応モードが設定された場合には、ライブビュー表示用の撮像駆動モード(撮像素子18および撮像制御部17の制御モード)を電子シャッタスチルの撮像と同じ駆動モードに設定し、表示することが望ましい。これによって、ライブビュー表示された際に発生するフリッカ状態が電子シャッタスチルにて撮像する画像と同等になる。ユーザは細かくシャッタ速度Tvを調節することによって、ライブビュー表示を目視しながら電子シャッタスチルにて撮像する画像におけるフリッカ除去の確認をすることができる。
 LEDフリッカ対応モードの補助機能として、上述したフリッカ判定の概要の処理(A)(B)を実行する「LEDフリッカ検出機能」を、ユーザ操作により実行するようする。ユーザが「LEDフリッカ検出機能」の実行を開始させると、処理(A)(B)が実行され、フリッカ検出処理が行われる。この処理中は露出固定となり、ユーザは処理完了待ちの状態になる。
 フリッカ検出処理が完了すると、以下に示す(i)~(iv)が行われることによって、ユーザが手動でフリッカを除去することができる。
 (i) フリッカ検出結果に従って、フリッカの有り・無しの情報を画面上に表示する(ガイド表示)。
 (ii) フリッカ有りが表示される場合には、フリッカを除去できるシャッタ速度Tv候補の範囲の情報を画面上に表示する(ガイド表示)。
 (iii) 上記(ii)で示したシャッタ速度Tv候補の範囲に、ワンタッチでシャッタ速度Tvを設定できる操作部を設けておく。操作部としては、例えば、ボタン割り当てやタッチパネル操作等がある。これは、ユーザが手動でシャッタ速度Tvを細かく調節してフリッカを除去する場合、シャッタ速度の分解能が高いため、シャッタ速度Tvの選択肢が多岐にわたり、目的のシャッタ速度Tvにユーザが合わせるまで時間がかかってしまう。そこで、ワンタッチ操作によってシャッタ速度Tvを設定するようにしておくことが望ましい。
 (iv) 上記(iii)でシャッタ速度Tvをワンタッチ操作した後、完全にフリッカ周波数と同期するシャッタ速度Tvでない場合には、ユーザが微小なズレを手動で補正する。
 このように、本発明の一実施形態においては、多分割した測光エリアの測光結果から縞を検出しと、測光範囲を変えながら測光エリアを分割するようにし、高周波フリッカまで、広範囲の周波数でフリッカを検出することができる。本発明の一実施形態においては、下記(1)~(3)の処理を行う。
 (1) 現在測光範囲に対して、多分割した測光エリアの読み出し時間から、フリッカ縞の測光エリア間隔に対応する周波数の範囲を算出することができる(例えば、式(2)(3)、図3AのS3参照)
 (2) 測光エリアごとの測光情報から移動縞の検出を実施しフリッカ縞の間隔と移動量を検出する。そして、検出した縞の間隔を上述の(1)で算出した周波数範囲に照らし合わせ、照らし合わせた周波数と検出したフレーム間の縞の移動量の条件が合うか確認する(例えば、図3AのS7参照)。条件が合えば、その周波数をフリッカ周波数として判定する。また、フリッカ縞が、移動縞でなければフレームレートを変更して再度同じ処理を実施する(図3BのS23参照)。なお、フレームレートを切り替えずにフリッカ周波数を検出する場合には、フレーム間でシャッタ速度Tvの値を切り替え、移動しないフリッカ縞の濃さが変わるかチェックし、フリッカによる縞か判断する。
 (3) 上述の(2)でフリッカ周波数を判定できない場合は現在の条件より高速のフリッカ周波数であると判定し、測光範囲を狭くし、その範囲で同様のエリア数に分割して、上述の(1)の処理へ戻る(例えば、図3BのS17No、S25参照)。上述の(1)~(3)の処理を繰り返し、高周波のフリッカまで検出を行う。
 また、本発明の一実施形態においては、上述の(1)(2)をカメラの撮影待機中に処理実施する。メニュー操作で、高周波フリッカ検出モードに入ったら、表示用の露出を固定(AEL)し、カメラは全画面表示を継続する。AE用の測光範囲は表示することなく、カメラの電気的処理として変更(縮小)しながら一定のエリア分割を行い、フリッカ検出を行う。ユーザには、測光範囲の拡大表示を見せることなく実施させている。
 このように、本発明の一実施形態においては、撮像素子の撮像範囲を複数の領域に分割し、撮像素子が出力する画素信号に基づいて分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出している(例えば、図2、図3AのS5、図5等参照)。そして、フリッカ縞が検出できたか否かを判別し(例えば、図3AのS7参照)、フリッカ縞が検出できないと判別された場合に、分割領域の面積を縮小してフリッカ縞が存在すると予想される分割領域の検出を行う(例えば、図3BのS17、S25参照)。このため、ユーザが簡単にフリッカキャンセルを行うことができる。すなわち、フリッカ縞を検出できない場合には、フリッカ縞を検出する範囲を縮小して行うことより、フリッカ縞を検出しやすくなる。
 なお、本発明の一実施形態においては、フリッカ判定処理は主としてプログラムに従ってCPUがソフトウエアで処理している(図3A、図3B、図4参照)。しかし、ソフトウエアに限らず、一部または全部をハードウエアで実行するようにしてもよい。
 また、本発明の一実施形態においては、露出設定値演算部12、絞り値送受信部13、シャッタ速度・感度動作制御部14、カメラ情報表示部15、測光制御部16を制御部11の内部構成とし、CPUによってソフトウエア的に実行する部分と、ハードウエアによって構成される部分を有している。しかし、これに限らず、制御部11とは別体の構成としても勿論かまわない。また、ヴェリログ(Verilog)によって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またDSP(Digital Signal Processor)等のソフトを利用したハードウエア構成を利用してもよい。これらは適宜組み合わせてもよいことは勿論である。また、CPUの機能の一部をDSP等のプログラムコードで実行される回路で実現するようにしてもよく、ヴェリログによって記述されたプログラム言語に基づいて生成されたゲート回路等のハードウエア構成でもよく、またハードウエア回路によって実現するようにしてもよい。
 また、本発明の一実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもミラーレスカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラ、医療用カメラ、顕微鏡等の科学機器用のカメラ、自動車搭載用カメラ、監視用カメラでも構わない。いずれにしても、フリッカが発生する可能性のある撮影のための機器であれば、本発明を適用することができる。
 また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定のできることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。
 また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。
 本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
10・・・カメラ本体、11・・・制御部、12・・・露出設定値演算部、13・・・絞り値送受信部、14・・・シャッタ速度・感度動作制御部、15・・・カメラ情報表示部、16・・・測光制御部、17・・・撮像制御部、18・・・撮像素子、19・・・メカニカルシャッタ、20・・・レンズ鏡筒、21a・・・前群レンズ、21b・・・後群レンズ、22・・・絞り、23・・・絞り動作制御部、24・・・ズーム位置検出部、25・・・絞り動作部、31・・・測光範囲、32・・・測光エリア、33・・・フリッカ縞、35・・・フリッカ縞間隔、41・・・測光範囲、42・・・測光エリア、43・・・フリッカ縞、45・・・フリッカ縞間隔、51~55・・・表示画像、61・・・測光エリア、62・・・測光範囲、63・・・測光エリア、64・・・測光範囲、65・・・測光エリア、66・・・測光範囲、67・・・測光エリア、68・・・測光範囲、69・・・測光エリア、70・・・測光範囲

Claims (11)

  1.  光学系を介して被写体像を撮像する撮像素子と、
     上記撮像素子の撮像範囲を複数の領域に分割し、上記撮像素子が出力する画素信号に基づいて上記分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出するフリッカ縞検出部と、
     上記フリッカ縞検出部によりフリッカ縞が検出できたか否かを判別する判別部と、
     を有し、
     上記フリッカ縞検出部は、上記判別部によりフリッカ縞が検出できないと判別された場合に、上記分割領域の面積を縮小してフリッカ縞が存在すると予想される分割領域の検出を行うことを特徴とする撮像装置。
  2.  上記フリッカ縞が存在すると予想される第1の分割領域と第2の分割領域の上記撮像素子上の間隔と、上記第1の分割領域と第2の分割領域に対応する蓄積時刻の差に基づいて上記フリッカ縞に対応するフリッカの周波数を算出するフリッカ周波数算出部を、具備することを特徴とする請求項1に記載の撮像装置。
  3.  上記判別部は、フリッカ縞検出部によりフリッカ縞を検出させ、フリッカ縞が存在する分割領域の上記撮像素子上での間隔に基づいてフリッカ縞が検出できたか否かを判別することを特徴とする請求項1に記載の撮像装置。
  4.  上記判別部は、上記フリッカ縞が存在する分割領域の上記撮像素子上での間隔の差と上記フリッカの周波数に基づいてフリッカ縞が検出できたか否かを判別することを特徴とする請求項3に記載の撮像装置。
  5.  上記フリッカ縞検出部は、上記撮像素子による第1のフレームレートで撮像動作を実行させ、異なる撮像動作による画素信号に基づいてフリッカ縞が存在すると予想される分割領域を検出し、
     上記判別部は、上記フリッカ縞が存在すると予想される分割領域の位置が変化するか否かを判別し、変化しないと判別する場合に、上記フリッカ縞検出部は、上記撮像素子により第2のフレームレートで撮像動作を実行させ、異なる撮像動作による画素信号に基づいてフリッカ縞が存在すると予想される分割領域を検出する、
     ことを特徴とする請求項1に記載の撮像装置。
  6.  上記フリッカ縞検出部は、上記撮像素子による第1のフレームレート、及び第1の電子シャッタ速度で撮像動作を実行させ、異なる撮像動作による画素信号に基づいてフリッカ縞が存在すると予想される分割領域を検出し、
     上記判別部は、上記フリッカ縞が存在すると予想される分割領域の位置が変化するか否かを判別し、変化しないと判別する場合に、上記フリッカ縞検出部は、上記撮像素子により第2の電子シャッタ速度で撮像動作を実行させ、異なる撮像動作による画素信号に基づいてフリッカ縞が存在すると予想される分割領域を検出する、
     ことを特徴とする請求項1に記載の撮像装置。
  7.  上記撮像装置は、上記撮像素子の撮像出力に基づく表示を行う表示部と、
     上記フリッカ縞検出部と上記表示部の動作を制御する制御部を有し、
     上記制御部は、上記撮像素子により時分割に撮像動作を行って上記フリッカ縞検出部で使用される撮像信号と上記表示部の表示に使用される撮像信号を取得することを特徴とする請求項1乃至6のいずれか一項に記載の撮像装置。
  8.  光学系を介して被写体像を撮像する撮像素子を有する撮像装置におけるフリッカ検出方法において、
     上記撮像素子の撮像範囲を複数の領域に分割し、上記撮像素子が出力する画素信号に基づいて上記分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出し、
     上記フリッカ縞が検出できたか否かを判別し、
     上記フリッカ縞が検出できないと判別された場合に、上記分割領域の面積を縮小してフリッカ縞が存在すると予想される分割領域の検出を行う、
     ことを特徴とするフリッカ検出方法。
  9.  上記フリッカ縞が存在すると予想される第1の分割領域と第2の分割領域の上記撮像素子上の間隔と、上記第1の分割領域と第2の分割領域に対応する蓄積時刻の差に基づいて上記フリッカ縞に対応するフリッカの周波数を算出することを特徴とする請求項8に記載のフリッカ検出方法。
  10.  光学系を介して被写体像を撮像する撮像素子を有する撮像装置のコンピュータに実行させるプログラムを記録したコンピュータ読取可能な記録媒体において、プログラムは以下を含む。
     上記撮像素子の撮像範囲を複数の領域に分割し、上記撮像素子が出力する画素信号に基づいて上記分割された領域を測光してフリッカ縞が存在すると予想される分割領域を検出し、
     上記フリッカ縞が検出できたか否かを判別し、
     上記フリッカ縞が検出できないと判別された場合に、上記分割領域の面積を縮小してフリッカ縞が存在すると予想される分割領域の検出を行う、
     ことを特徴とするプログラムを記録したコンピュータ読取可能な記録媒体。
  11.  上記フリッカ縞が存在すると予想される第1の分割領域と第2の分割領域の上記撮像素子上の間隔と、上記第1の分割領域と第2の分割領域に対応する蓄積時刻の差に基づいて上記フリッカ縞に対応するフリッカの周波数を算出することを特徴とする請求項10に記載のプログラムを記録したコンピュータ読取可能な記録媒体。
PCT/JP2017/041558 2016-12-28 2017-11-17 撮像装置、フリッカ検出方法、およびコンピュータ読取可能な記録媒体 WO2018123342A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/432,867 US10623656B2 (en) 2016-12-28 2019-06-05 Imaging device and flicker detection method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016255632A JP6320503B1 (ja) 2016-12-28 2016-12-28 撮像装置、フリッカ検出方法、およびプログラム
JP2016-255632 2016-12-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/432,867 Continuation US10623656B2 (en) 2016-12-28 2019-06-05 Imaging device and flicker detection method

Publications (1)

Publication Number Publication Date
WO2018123342A1 true WO2018123342A1 (ja) 2018-07-05

Family

ID=62106178

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/041558 WO2018123342A1 (ja) 2016-12-28 2017-11-17 撮像装置、フリッカ検出方法、およびコンピュータ読取可能な記録媒体

Country Status (3)

Country Link
US (1) US10623656B2 (ja)
JP (1) JP6320503B1 (ja)
WO (1) WO2018123342A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020079946A1 (ja) * 2018-10-17 2020-04-23 コニカミノルタ株式会社 フリッカ測定装置、フリッカ測定方法、フリッカ測定プログラム、フリッカ評価支援装置、フリッカ評価支援方法およびフリッカ評価支援プログラム
JP2020072392A (ja) * 2018-10-31 2020-05-07 キヤノン株式会社 撮像装置、撮像装置の制御方法およびプログラム
JP2021189341A (ja) * 2020-06-01 2021-12-13 キヤノン株式会社 撮像装置、制御方法およびプログラム
CN112351216B (zh) * 2020-10-10 2022-04-05 深圳开阳电子股份有限公司 检测和消除视频闪烁的方法及图像处理设备
JP2022170437A (ja) * 2021-04-28 2022-11-10 キヤノン株式会社 電子機器及びその制御方法
CN113596344B (zh) * 2021-07-26 2023-10-24 艾酷软件技术(上海)有限公司 拍摄处理方法、装置、电子设备和可读存储介质
CN114354138A (zh) * 2021-12-30 2022-04-15 杭州电子科技大学 一种基于图像处理的屏幕频闪检测系统及方法
WO2024055290A1 (en) * 2022-09-16 2024-03-21 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method of detecting flicker area in captured image, electronic device and computer-readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189129A (ja) * 2001-12-18 2003-07-04 Sony Corp 撮像信号処理装置及びフリッカ検出方法
JP2008079099A (ja) * 2006-09-22 2008-04-03 Sony Corp 固体撮像装置、撮像装置、プログラム
JP2009017213A (ja) * 2007-07-04 2009-01-22 Canon Inc 撮像装置
JP2009055489A (ja) * 2007-08-29 2009-03-12 Kyocera Corp 撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5945395B2 (ja) 2011-10-13 2016-07-05 オリンパス株式会社 撮像装置
US9473706B2 (en) * 2013-12-09 2016-10-18 Apple Inc. Image sensor flicker detection
CN107431769B (zh) * 2015-03-02 2018-07-10 富士胶片株式会社 摄像装置、闪烁检测方法及闪烁检测程序
KR20170111460A (ko) * 2016-03-28 2017-10-12 삼성전자주식회사 카메라를 통해 획득한 영상 처리 방법 및 장치전자 장치
JP6727933B2 (ja) * 2016-06-01 2020-07-22 キヤノン株式会社 撮像装置及び制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189129A (ja) * 2001-12-18 2003-07-04 Sony Corp 撮像信号処理装置及びフリッカ検出方法
JP2008079099A (ja) * 2006-09-22 2008-04-03 Sony Corp 固体撮像装置、撮像装置、プログラム
JP2009017213A (ja) * 2007-07-04 2009-01-22 Canon Inc 撮像装置
JP2009055489A (ja) * 2007-08-29 2009-03-12 Kyocera Corp 撮像装置

Also Published As

Publication number Publication date
US20190289191A1 (en) 2019-09-19
JP2018107770A (ja) 2018-07-05
US10623656B2 (en) 2020-04-14
JP6320503B1 (ja) 2018-05-09

Similar Documents

Publication Publication Date Title
JP6320503B1 (ja) 撮像装置、フリッカ検出方法、およびプログラム
JP6108946B2 (ja) 撮像装置、制御方法、プログラム及び記憶媒体
KR101757654B1 (ko) 촬상장치, 그 제어 방법 및 기억매체
JP6370134B2 (ja) 撮像装置、その制御方法、および制御プログラム
WO2018101092A1 (ja) 撮像装置およびフリッカ判定方法
JP6296697B2 (ja) 撮像装置、制御方法、プログラム及び記憶媒体
US9854178B2 (en) Image pickup apparatus with flicker detection and having plurality of unit pixel areas, control method therefor, and storage medium
US9871975B2 (en) Imaging apparatus and control method
US10205886B2 (en) Imaging apparatus, control method, and storage medium
CN105915807B (zh) 计算光量变化特性的方法和电子设备
JP6381380B2 (ja) 撮像装置、制御方法及びそのプログラム
US10212344B2 (en) Image capturing device and control method capable of adjusting exposure timing based on detected light quantity change characteristic
JP2020167626A (ja) 撮像装置およびその制御方法
JP6456038B2 (ja) 電子機器、光量変化特性の算出方法、プログラム及び記憶媒体
JP2013162188A (ja) パノラマ撮影機能付きカメラ
JP6505295B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP6391319B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2016014762A (ja) 撮像装置及びその制御方法
JP6598927B2 (ja) 撮像装置、制御方法、プログラム及び記憶媒体
US11678062B2 (en) Image capturing apparatus, control method thereof, and storage medium for performing exposure control by prioritizing increasing an image capturing sensitivity
JP2018093527A (ja) 撮像装置、制御方法、プログラム及び記憶媒体
JP6351778B2 (ja) 撮像装置、制御方法、プログラム及び記憶媒体
JP2018006804A (ja) 撮像装置、その制御方法、及びプログラム
JP2017098777A (ja) 撮像装置及びその制御方法、プログラム
JP2016039579A (ja) 撮像装置、制御方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17888251

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17888251

Country of ref document: EP

Kind code of ref document: A1