JP2009213076A - Imaging device and control method thereof - Google Patents
Imaging device and control method thereof Download PDFInfo
- Publication number
- JP2009213076A JP2009213076A JP2008056623A JP2008056623A JP2009213076A JP 2009213076 A JP2009213076 A JP 2009213076A JP 2008056623 A JP2008056623 A JP 2008056623A JP 2008056623 A JP2008056623 A JP 2008056623A JP 2009213076 A JP2009213076 A JP 2009213076A
- Authority
- JP
- Japan
- Prior art keywords
- flicker
- light source
- light
- detection
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像素子を用いて被写体を撮影する撮像装置およびその制御方法に関する。 The present invention relates to an imaging apparatus that captures a subject using an imaging element and a control method thereof.
従来、撮像素子から所定の周期で読み出した撮像信号による画像信号を逐次、装置に設けられた液晶ディスプレイなどの表示装置に出力する、所謂ライブビューモードを有する撮像装置が普及している。ライブビューモードを用いることで、撮影者は、ファインダを覗き込むことなく、被写体像をリアルタイムに観察することができる。ライブビューモードは、動画像を主に撮影するデジタルビデオカメラのみならず、静止画像を主に撮影するデジタルカメラにも搭載されている。 2. Description of the Related Art Conventionally, an imaging apparatus having a so-called live view mode in which an image signal based on an imaging signal read out from an imaging element at a predetermined cycle is sequentially output to a display device such as a liquid crystal display provided in the apparatus has been widely used. By using the live view mode, the photographer can observe the subject image in real time without looking into the viewfinder. The live view mode is installed not only in digital video cameras that mainly shoot moving images but also in digital cameras that mainly shoot still images.
ライブビューモードによる表示や記録を、商用電源の周波数に応じて点滅を繰り返す、蛍光灯などの光源下で行うと、記録画像やライブビューモードによる表示画像にフリッカが発生することがある。このフリッカは、撮像素子における電荷の蓄積時間と、撮像素子から電荷を読み出す際の周期によるフレーム周波数と、蛍光灯の発光周波数との関係により発生する。 If display or recording in the live view mode is performed under a light source such as a fluorescent lamp that repeatedly blinks according to the frequency of the commercial power supply, flicker may occur in the recorded image or the display image in the live view mode. This flicker occurs due to the relationship between the charge accumulation time in the image sensor, the frame frequency based on the period when the charge is read from the image sensor, and the emission frequency of the fluorescent lamp.
蛍光灯照明下におけるフリッカの発生について、図1を用いて概略的に説明する。なお、図1において、蛍光灯は、チョークコイルを用いたタイプであるものとする。図1(a)は、商用電源の単相正弦波を示し、図1(b)は、この商用電源で蛍光灯に印加される電圧の一例の時間変化を示す。図1(c)は、図1(b)のように電圧が印加された蛍光灯から発生する光量(輝度)の一例の時間変化を示す。この例では、蛍光灯は、商用電源の1周期に2回、発光するので、蛍光灯の発光周波数は、電源周波数の2倍となる。すなわち、電源周波数が50Hzの地域では蛍光灯の発光周波数は100Hzとなり、電源周波数が60Hzの地域では発光周波数が120Hzとなる。 The occurrence of flicker under fluorescent lamp illumination will be schematically described with reference to FIG. In FIG. 1, the fluorescent lamp is assumed to be a type using a choke coil. Fig.1 (a) shows the single phase sine wave of a commercial power source, and FIG.1 (b) shows the time change of an example of the voltage applied to a fluorescent lamp with this commercial power source. FIG.1 (c) shows the time change of an example of the light quantity (luminance) which generate | occur | produces from the fluorescent lamp to which the voltage was applied like FIG.1 (b). In this example, since the fluorescent lamp emits light twice in one cycle of the commercial power supply, the emission frequency of the fluorescent lamp is twice the power supply frequency. That is, the light emission frequency of the fluorescent lamp is 100 Hz in an area where the power supply frequency is 50 Hz, and the light emission frequency is 120 Hz in an area where the power supply frequency is 60 Hz.
光量が周期的に変化する光源下では、撮像素子における電荷の蓄積時間tが一定であっても、電荷の蓄積動作の開始および終了のタイミングによって蓄積される電荷の量が異なり、露光量が異なってしまう。この様子を図1(d)および図1(e)に示す。露光量は光量を時間で積分した値となるので、露光時間tが一定でも、蛍光灯の光量が多い期間の露光量(面積S1)と、蛍光灯の光量が少ない期間の露光量(面積S2)とを比較すると、S1≠S2となり、等しい露光量が得られないことが分かる。 Under a light source in which the amount of light periodically changes, even if the charge accumulation time t in the image sensor is constant, the amount of charge accumulated differs depending on the timing of the start and end of the charge accumulation operation, and the exposure amount differs. End up. This state is shown in FIG. 1 (d) and FIG. 1 (e). Since the exposure amount is a value obtained by integrating the light amount with time, even when the exposure time t is constant, the exposure amount (area S 1 ) during the period when the light amount of the fluorescent lamp is large and the exposure amount (area during the period when the light amount of the fluorescent lamp is small. Comparing with (S 2 ), it can be seen that S 1 ≠ S 2 , and an equal exposure amount cannot be obtained.
この、光量が周期的に変化する光源下における、電荷の蓄積動作の開始および終了のタイミングによる露光量の差が、記録画像やライブビューモードでの表示画像に対して、フリッカとなって現れる。 The difference in the exposure amount depending on the start and end timing of the charge accumulation operation under a light source whose light quantity changes periodically appears as flicker on the recorded image and the display image in the live view mode.
ところで、撮像素子としてCCD(Charge Coupled Device)を用いた撮像装置では、電荷の蓄積時間の開始、終了がそれぞれ全画素で同一タイミングであるグローバル電子シャッタを用いている。そのため、フレーム周波数と蛍光灯の発光周波数により、1画面全体がフリッカの影響を受ける面フリッカになる。面フリッカでは、1画面全体に補正をかければフリッカの影響を除去することができ、既に実用化もされている。 By the way, in an image pickup apparatus using a CCD (Charge Coupled Device) as an image pickup element, a global electronic shutter in which the start and end of charge accumulation time are the same for all pixels is used. Therefore, the entire screen is a surface flicker that is affected by the flicker due to the frame frequency and the light emission frequency of the fluorescent lamp. In the surface flicker, if the entire screen is corrected, the influence of the flicker can be removed and has already been put into practical use.
一方、近年では、1ライン毎に画素を順次リセットして電荷を蓄積し、その後1ライン毎に画素から順次電荷を読み出す、撮像素子(例えばCMOSイメージセンサ)を使った撮像装置が普及している。なお、CMOSは、Complementary Metal-Oxide Semiconductorの略称である。 On the other hand, in recent years, an imaging device using an imaging element (for example, a CMOS image sensor) is widely used that sequentially resets pixels for each line, accumulates charges, and then sequentially reads the charges from the pixels for each line. . CMOS is an abbreviation for Complementary Metal-Oxide Semiconductor.
CMOSイメージセンサでは、ローリング電子シャッタにより画面を1ライン毎に読み出していく。そのため、電荷の蓄積時間とフレーム周波数(1秒間当たりの画面数)と蛍光灯の発光周波数との関係から、撮像画面内に横縞状のラインフリッカが発生する場合がある。また、動画像のフレーム周波数によっては、ラインフリッカによる横縞が縦方向に移動するように見えるため、鑑賞時に著しく不快な画面になる。ラインフリッカでは、電荷の蓄積時間を蛍光灯の発光周期の整数倍の時間に設定してライン毎の露出量を揃えることで、フリッカの影響を除去することができる。 In the CMOS image sensor, the screen is read line by line by a rolling electronic shutter. For this reason, horizontal stripe-like line flicker may occur in the imaging screen due to the relationship between the charge accumulation time, the frame frequency (the number of screens per second), and the emission frequency of the fluorescent lamp. Also, depending on the frame frequency of the moving image, the horizontal stripes due to the line flicker appear to move in the vertical direction, so that the screen becomes extremely uncomfortable during viewing. In line flicker, the effect of flicker can be eliminated by setting the charge accumulation time to an integral multiple of the light emission period of the fluorescent lamp and aligning the exposure amount for each line.
このように、従来から、映像信号中のフリッカ成分を抑制するための手法が知られている。しかしながら、面フリッカとラインフリッカの何れを除去するにしても、それぞれ専用の制御が必要になる。そのため、何らかのタイミングでフリッカの有無を検知し、この検知結果に応じてフリッカ対策の制御を行う方法が一般的である。なお、以下では、フリッカ対策の制御を行う動作モードをフリッカ消去モードと呼び、フリッカ対策の制御を行わない動作モードを通常モードと呼ぶ。 Thus, conventionally, a technique for suppressing a flicker component in a video signal is known. However, in order to remove either surface flicker or line flicker, dedicated control is required. Therefore, a general method is to detect the presence or absence of flicker at some timing and control flicker countermeasures according to the detection result. Hereinafter, an operation mode in which flicker countermeasure control is performed is referred to as a flicker erasing mode, and an operation mode in which flicker countermeasure control is not performed is referred to as a normal mode.
フリッカ検知を行うタイミングとしては、ライブビューモード開始直後の所定期間が従来から知られている。 As a timing for performing flicker detection, a predetermined period immediately after the start of the live view mode is conventionally known.
また、特許文献1には、線形特性領域と、対数特性領域の光電変換特性を持ち、かつ非積分形の画素構成を有する撮像素子を用いたカメラにおいてフリッカ対策を行う技術が開示されている。特許文献1の記載によれば、このような撮像素子では、各光電変換特性領域でフリッカから受ける影響が異なるため、使用する光電変換特性が切り替わった場合は、所定期間内に再度フリッカ検知手段を駆動させる。
しかしながら、これら従来の構成においては、被写体が存在する環境の光源が変化することによるフリッカの有無の変化に対応できないという問題点があった。 However, these conventional configurations have a problem in that they cannot cope with changes in the presence or absence of flicker due to changes in the light source in the environment where the subject exists.
例えば、日照がありフリッカの発生しない屋外でライブビューモードを起動させた後、そのまま蛍光灯照明下の屋内に移動した場合について考える。この場合、ライブビューモードを起動させた時点では屋外であったため、ライブビューモード開始直後にはフリッカが検知されず、フリッカ対策を行わない通常モードでライブビューが実行される。このままの状態で蛍光灯照明下である屋内に移動しても、ライブビューが通常モードで実行され続けるため、ライブビュー表示画像は、蛍光灯によるフリッカの影響を受けてしまうことになる。 For example, consider a case where the live view mode is activated outdoors where there is sunshine and flicker does not occur, and then moved indoors under fluorescent lighting. In this case, since it was outdoor when the live view mode was activated, flicker is not detected immediately after the start of the live view mode, and the live view is executed in the normal mode in which no flicker countermeasure is taken. Even if it moves to the indoors under the illumination of the fluorescent lamp in this state, the live view continues to be executed in the normal mode, so the live view display image is affected by flicker caused by the fluorescent lamp.
また例えば、上述とは逆に、蛍光灯照明下の屋内でライブビューモードを起動させ、そのまま、フリッカの発生しない屋外に移動した場合について考える。この場合、ライブビューモードを起動させた時点では蛍光灯照明下の屋内であったため、フリッカが検知され、フリッカ対策を行うフリッカ消去モードでライブビューが実行される。このままの状態で屋外に移動した場合、フリッカ消去モードのままライブビューライブビューが実行され続けることになる。 Also, for example, conversely to the above, consider a case where the live view mode is activated indoors under fluorescent lamp illumination, and the vehicle is moved outdoors without flicker. In this case, when the live view mode is activated, since it is indoors under fluorescent lamp illumination, flicker is detected, and the live view is executed in the flicker erasure mode in which flicker countermeasures are taken. When the user moves outdoors in this state, the live view live view is continuously executed in the flicker erasure mode.
フリッカ消去モードにおいては、例えばCMOSイメージセンサであれば、上述したように、電荷の蓄積時間が蛍光灯の発光周期の整数倍に制御される。そのため、電荷の蓄積時間すなわち露光時間を離散的にしか設定できない。したがって、適正露出を得るためには、光学的な絞り調整と、撮像素子のISO感度の調整とを併用する必要がある。 In the flicker erasing mode, for example, in the case of a CMOS image sensor, as described above, the charge accumulation time is controlled to be an integral multiple of the light emission period of the fluorescent lamp. Therefore, the charge accumulation time, that is, the exposure time can be set only discretely. Therefore, in order to obtain proper exposure, it is necessary to use both optical aperture adjustment and adjustment of ISO sensitivity of the image sensor.
このとき、絞りを絞った場合は、被写界深度が深くなるため、ライブビューによる表示画像で被写体のピントを確認することが難しくなる。また、絞り調整を行うために絞り機構を駆動すると、機械的な駆動音が発生してしまい、動画記録中においては、この絞り駆動音が記録動画と共に録音されてしまう。 At this time, when the aperture is reduced, the depth of field becomes deep, and it is difficult to confirm the focus of the subject on the display image by live view. Further, when the diaphragm mechanism is driven to adjust the diaphragm, a mechanical driving sound is generated, and this diaphragm driving sound is recorded together with the recorded moving image during moving image recording.
さらに、フリッカの検出を常に行うようにし、その検知結果に応じて、ライブビューを通常モードで実行するか、フリッカ消去モードで実行するかを常時切り替えられるような構成にすることも考えられる。しかしながらこの場合、フリッカ検知のための演算処理が常に行われることになり、演算負荷が大きくなってしまうという問題点があった。 Further, it is conceivable that the flicker detection is always performed, and whether the live view is executed in the normal mode or the flicker erasure mode is always switched according to the detection result. However, in this case, calculation processing for flicker detection is always performed, and there is a problem that calculation load increases.
さらに、上述した特許文献1も、撮影環境でフリッカが検出された場合に、撮像素子の光電変換特性を変化させるようにしたものであって、光源の変化によるフリッカの有無の変化に対応してフリッカ対策の有無を制御するものではない。 Furthermore, the above-described Patent Document 1 also changes the photoelectric conversion characteristics of the image sensor when flicker is detected in a shooting environment, and responds to changes in the presence or absence of flicker due to changes in the light source. It does not control the presence or absence of flicker countermeasures.
したがって、この発明の目的は、光源の変化に応じて適応的にフリッカ対策を行うことが可能な撮像装置およびその制御方法を提供することにある。 Accordingly, an object of the present invention is to provide an imaging apparatus capable of adaptively taking measures against flicker according to a change in a light source and a control method therefor.
本発明は、上述した課題を解決するために、被写体からの光を画素ごとに電荷に変換して蓄積する撮像素子と、撮像素子が蓄積した電荷を画素ごとに読み出し1画面の撮像信号として出力する読み出し手段と、被写体に光を照射する光源の変化を検知する光源変化検知手段と、撮像信号に含まれるフリッカを検知するフリッカ検知手段と、撮像信号中のフリッカ検知手段により検知されたフリッカを抑制するフリッカ抑制手段と、光源変化検知手段により光源の変化が検知されたら、フリッカ検知手段によるフリッカの検知を行い、フリッカ検知手段でフリッカが検知された場合にフリッカ抑制手段による抑制処理を行うように制御する制御手段とを有することを特徴とする撮像装置である。 In order to solve the above-described problem, the present invention converts the light from the subject into charges for each pixel and accumulates them, reads the charges accumulated by the image sensor for each pixel, and outputs them as an image signal for one screen. Reading means, a light source change detecting means for detecting a change in a light source for irradiating light on a subject, a flicker detecting means for detecting flicker included in an imaging signal, and a flicker detected by a flicker detecting means in the imaging signal. When a change in the light source is detected by the flicker suppressing unit and the light source change detecting unit, the flicker is detected by the flicker detecting unit, and when the flicker is detected by the flicker detecting unit, the suppression process by the flicker suppressing unit is performed. And an image pickup apparatus having control means for controlling the image pickup device.
また、本発明は、被写体からの光を画素ごとに電荷に変換して蓄積する撮像素子が蓄積した電荷を画素ごとに読み出し1画面の撮像信号として出力する読み出しステップと、被写体に光を照射する光源の変化を検知する光源変化検知ステップと、撮像信号に含まれるフリッカを検知するフリッカ検知ステップと、撮像信号中のフリッカ検知ステップにより検知されたフリッカを抑制するフリッカ抑制ステップと、光源変化検知ステップにより光源の変化が検知されたら、フリッカ検知ステップによるフリッカの検知を行い、フリッカ検知ステップでフリッカが検知された場合にフリッカ抑制ステップによる抑制処理を行うように制御する制御ステップとを有することを特徴とする撮像装置の制御方法である。 In addition, the present invention reads out the charge accumulated by the imaging device that converts and accumulates light from the subject into charges for each pixel and outputs the charges as a one-screen imaging signal, and irradiates the subject with light. A light source change detection step for detecting a change in the light source, a flicker detection step for detecting flicker included in the imaging signal, a flicker suppression step for suppressing flicker detected by the flicker detection step in the imaging signal, and a light source change detection step And a control step for performing control so as to perform flicker detection in the flicker detection step when flicker is detected in the flicker detection step when a change in the light source is detected by the flicker detection step. It is the control method of the imaging device.
このような構成により、本発明によれば、光源の変化に応じて適応的にフリッカ対策を行うことができる。 With such a configuration, according to the present invention, it is possible to adaptively take measures against flicker according to changes in the light source.
以下、この発明の実施形態を、図面を参照しながら説明する。図2は、本発明を適用可能なデジタル一眼レフレックスカメラ(以下、デジタルカメラと略称する)の一例の断面図を示す。なお、図2(a)は、デジタルカメラ101の通常状態での断面図であり、図2(b)は、露光時やライブビュー時の状態すなわちライブビューモードでの断面図である。通常状態は、撮影光路を介して入射された光による被写体像を、光学ファインダで確認することができる状態である。 Embodiments of the present invention will be described below with reference to the drawings. FIG. 2 is a cross-sectional view of an example of a digital single lens reflex camera (hereinafter simply referred to as a digital camera) to which the present invention can be applied. 2A is a cross-sectional view of the digital camera 101 in a normal state, and FIG. 2B is a cross-sectional view in a state at the time of exposure and live view, that is, a live view mode. The normal state is a state in which an object image by light incident through the photographing optical path can be confirmed with an optical viewfinder.
図2(a)において、デジタルカメラ101の前面に、撮影レンズ102が装着される。撮影レンズ102は交換可能とされ、デジタルカメラ101と撮影レンズ102は、マウント接点群112を介して電気的にも接続される。さらに、撮影レンズ102の中には、絞り113があり、デジタルカメラ101内に取り込む光量を調整できるようになっている。 In FIG. 2A, a photographic lens 102 is attached to the front surface of the digital camera 101. The taking lens 102 can be exchanged, and the digital camera 101 and the taking lens 102 are also electrically connected via the mount contact group 112. Further, the photographing lens 102 has a diaphragm 113 so that the amount of light taken into the digital camera 101 can be adjusted.
ハーフミラーからなるメインミラー103は、ファインダ観察状態では撮影光路上に斜設され、撮影レンズ102からの撮影光束をファインダ光学系へと反射する一方、透過光は、サブミラー104を介してAFユニット105へと入射する。なお、AFはAuto Focusの略称である。AFユニット105は、位相差検出方式のAFセンサからなり、ピント位置にフォーカシングレンズを移動させるための処理を行う。AFユニット105は、撮影レンズ102の二次結像面を焦点検出ラインセンサー上に形成することによって、撮影レンズ102の焦点調節状態を検出し、その検出結果に基づき図示されないフォーカシングレンズを駆動して自動焦点検出を行う。 The main mirror 103 composed of a half mirror is obliquely arranged on the photographing optical path in the finder observation state, and reflects the photographing light beam from the photographing lens 102 to the finder optical system, while the transmitted light passes through the sub mirror 104 and the AF unit 105. Incident to. Note that AF is an abbreviation for Auto Focus. The AF unit 105 includes a phase difference detection type AF sensor, and performs processing for moving the focusing lens to a focus position. The AF unit 105 detects the focus adjustment state of the photographic lens 102 by forming the secondary imaging surface of the photographic lens 102 on the focus detection line sensor, and drives a focusing lens (not shown) based on the detection result. Perform auto focus detection.
光源検知手段としての光源検知ユニット116は、被写体の分光分布を検知する。AFユニット105と撮像素子とでは、分光感度分布が異なる。そのため、撮影レンズ102が持つ軸上色収差によって、被写体の分光分布によってピント位置が異なる場合がある。例えば、より赤みがかった光の光源であるタングステン光による照明下と、より青みがかった光の光源である蛍光灯による照明下とでは、光源の分光分布に応じて被写体の分光分布も異なるため、ピント位置も異なってしまう可能性がある。光源検知ユニット116により光源の種類を検知し、検知結果に基づきAFユニット105で得られたピント位置を補正する。 A light source detection unit 116 as a light source detection unit detects a spectral distribution of a subject. The spectral sensitivity distribution is different between the AF unit 105 and the image sensor. Therefore, the focus position may vary depending on the spectral distribution of the subject due to the longitudinal chromatic aberration of the photographing lens 102. For example, the subject's spectral distribution differs depending on the spectral distribution of the light source under illumination with tungsten light, which is a light source of reddish light, and under illumination with a fluorescent lamp, which is a light source of bluish light. May also be different. The light source detection unit 116 detects the type of the light source, and corrects the focus position obtained by the AF unit 105 based on the detection result.
自動焦点検出制御時は、光源検知ユニット116の出力と、撮影レンズ102内に設けられたROM(図示しない)に記憶された軸上色収差情報とに基づき、AFユニット105の出力から演算されたフォーカシングレンズ駆動量を補正する。光源検知ユニット116についての詳細は、後述する。 During automatic focus detection control, focusing calculated from the output of the AF unit 105 based on the output of the light source detection unit 116 and axial chromatic aberration information stored in a ROM (not shown) provided in the photographing lens 102. Correct the lens drive amount. Details of the light source detection unit 116 will be described later.
撮影レンズ102の光軸上に、メインミラー103およびサブミラー104を介してフォーカルプレーンシャッタ107(以下、シャッタ107)、ローパスフィルタ106および撮像素子108が配置される。 A focal plane shutter 107 (hereinafter referred to as shutter 107), a low-pass filter 106, and an image sensor 108 are arranged on the optical axis of the photographing lens 102 via a main mirror 103 and a sub mirror 104.
ファインダ光学系を構成する撮影レンズ102の予定結像面に、ピント板109が配置される。ペンタプリズム110は、撮影レンズ102から入射されメインミラー103に反射された光の光路をアイピース114に向けるように変更する。撮影者は、アイピース114からピント板109を観察することによって、撮影画面を確認することができる。AE(Auto Exposure)ユニット111は、露光量の自動計測を行うもので、測光を行う際に使用する。 A focus plate 109 is disposed on the planned image plane of the photographic lens 102 constituting the finder optical system. The pentaprism 110 changes the light path of the light incident from the photographing lens 102 and reflected by the main mirror 103 so as to be directed to the eyepiece 114. The photographer can confirm the photographing screen by observing the focus plate 109 from the eyepiece 114. An AE (Auto Exposure) unit 111 performs automatic measurement of an exposure amount, and is used when performing photometry.
ライブビュー開始/終了ボタン117は、ライブビューを行うライブビューモードのON/OFFを、操作される度に切り替える。ライブビューモード若しくは露光時には、図2(b)に例示されるように、サブミラー104が撮影光路外に退避し、シャッタ107が開くことによって、撮影光束を撮像素子108に導く構成となる。 The live view start / end button 117 switches ON / OFF of a live view mode for performing live view every time it is operated. In the live view mode or exposure, as illustrated in FIG. 2B, the sub mirror 104 is retracted out of the photographing optical path, and the shutter 107 is opened to guide the photographing light flux to the image sensor 108.
レリーズボタン115は、半押し、全押しの状態を持つ二段押し込み式のスイッチである。レリーズボタン115が半押しされる事によって、AE動作、AF動作などの撮影前の準備動作が行われる。そして、レリーズボタン115が全押しされる事によって、図2(b)に例示される状態となり、撮影レンズ102を介して入射された被写体からの光で撮像素子108が露光されて、撮影処理が行われる。 The release button 115 is a two-stage push-in switch that is half-pressed and fully pressed. By pressing the release button 115 halfway, preparatory operations such as an AE operation and an AF operation are performed. When the release button 115 is fully pressed, the state illustrated in FIG. 2B is obtained, and the image sensor 108 is exposed with light from the subject incident through the photographing lens 102, and the photographing process is performed. Done.
ディスプレイユニット118がデジタルカメラ101の背面に取り付けられる。ディスプレイユニット118は、例えば液晶パネルによって構成され、撮影者が撮影した画像を直接的に確認できるようになっている。また、ライブビューモードにおいては、撮像素子108から出力された撮像信号による動画映像が逐次的に表示される。 A display unit 118 is attached to the back of the digital camera 101. The display unit 118 is configured by a liquid crystal panel, for example, and can directly check an image taken by the photographer. In the live view mode, a moving image based on the imaging signal output from the image sensor 108 is sequentially displayed.
図3は、光源検知ユニット116の一例の構成を示す。光源検知ユニット116は、第1の測光センサ301および第2の測光センサ302と、これら第1および第2の測光センサ301および302に入射する光を制限するフィルタ303および304からなる。フィルタ303は、第1および第2の測光センサ301および302に共通して設けられる。一方、フィルタ304は、第1および第2の測光センサ301および302のうち一方に設けられる。図3の例では、フィルタ304は、第2の測光センサ302に対して設けられる。すなわち、第2の測光センサ302には、光がフィルタ303および304を介して入射されることになる。 FIG. 3 shows an exemplary configuration of the light source detection unit 116. The light source detection unit 116 includes a first photometric sensor 301 and a second photometric sensor 302, and filters 303 and 304 that limit light incident on the first and second photometric sensors 301 and 302. The filter 303 is provided in common with the first and second photometric sensors 301 and 302. On the other hand, the filter 304 is provided in one of the first and second photometric sensors 301 and 302. In the example of FIG. 3, the filter 304 is provided for the second photometric sensor 302. That is, light enters the second photometric sensor 302 via the filters 303 and 304.
図4は、第1および第2の測光センサ301および302の一例の分光感度特性(i)と、フィルタ303および304の分光透過特性(ii)および(iii)の例を示す。図4において、横軸は波長であり、縦軸は、測光センサ301および302の場合、ピークの感度を1とした場合の相対的な感度を示す。また、フィルタ303および304の場合、縦軸は透過率を示す。第1および第2の測光センサ301および302は、波長が300nm近傍からなだらかに感度が上昇し、波長が800nm近傍を感度のピークとして、波長が800nm以上で感度が減少する分光感度特性を有する。実用的には、波長が400nm以上の帯域で用いられる。 FIG. 4 shows an example of spectral sensitivity characteristics (i) of the first and second photometric sensors 301 and 302 and spectral transmission characteristics (ii) and (iii) of the filters 303 and 304. In FIG. 4, the horizontal axis represents the wavelength, and the vertical axis represents the relative sensitivity when the peak sensitivity is 1 in the case of the photometric sensors 301 and 302. In the case of the filters 303 and 304, the vertical axis indicates the transmittance. The first and second photometric sensors 301 and 302 have spectral sensitivity characteristics in which the sensitivity increases gradually from the vicinity of the wavelength of 300 nm, the sensitivity is peaked at the wavelength of near 800 nm, and the sensitivity decreases at the wavelength of 800 nm or more. Practically, the wavelength is used in a band of 400 nm or more.
フィルタ303は、図4に分光透過特性(ii)として例示するように、波長が750nm近傍以上の波長の光をカットする、IRカットフィルタである。また、フィルタ304は、例えば第2の測光センサ302の前面にコーティングされて構成され、図4に分光透過特性(iii)として例示されるように、波長が600nm近傍以下の波長の光をカットする。フィルタ303および304は、波長が600nm近傍から波長が750nm近傍までの光を第2の測光センサ302に対して選択的に透過させる、バンドパスフィルタとして機能する。 The filter 303 is an IR cut filter that cuts light having a wavelength of about 750 nm or more, as exemplified by the spectral transmission characteristic (ii) in FIG. The filter 304 is formed by coating the front surface of the second photometric sensor 302, for example, and cuts light having a wavelength of about 600 nm or less, as exemplified by the spectral transmission characteristic (iii) in FIG. . The filters 303 and 304 function as bandpass filters that selectively transmit light having a wavelength from about 600 nm to a wavelength of about 750 nm to the second photometric sensor 302.
光源検知ユニット116は、フィルタ303および304により入射光の分光特性がそれぞれ異ならされた、これら第1および第2の測光センサ301および302の出力を比較して、被写体の分光分布特性すなわち光源の種別を判別する。 The light source detection unit 116 compares the outputs of the first and second photometric sensors 301 and 302 whose spectral characteristics of incident light are made different by the filters 303 and 304, respectively, and compares the spectral distribution characteristics of the subject, that is, the type of the light source. Is determined.
図5は、代表的な各種光源の分光分布特性の例を示す。図5において、横軸は波長を示し、縦軸は、光の相対エネルギを示す。特性L1は、タングステン光であるフラッドランプの一例の分光分布特性を示す。フラッドランプは、短波長側から長波長側に向けて、エネルギが増加していく分光分布特性を有する。特性L2は、蛍光灯の一例の分光分布特性を示す。蛍光灯は、周知のように、アーク放電により水銀蒸気を発光させ、この光を蛍光体で可視光線に変換している。そのため、分光分布特性には、水銀蒸気の発光特性により光の三原色に相当する波長にエネルギのピークが存在し、ピーク以外の部分では、エネルギが極めて小さい。特性L3は、太陽光の分光分布特性を示す。太陽光の分光分布特性は、特性L1に示すタングステン光による分光分布特性に比べ、波長が650nm以上の長波長成分の割合が少なくなる。 FIG. 5 shows examples of spectral distribution characteristics of typical various light sources. In FIG. 5, the horizontal axis indicates the wavelength, and the vertical axis indicates the relative energy of light. A characteristic L1 indicates a spectral distribution characteristic of an example of a flood lamp that is tungsten light. The flood lamp has a spectral distribution characteristic in which energy increases from the short wavelength side toward the long wavelength side. A characteristic L2 indicates a spectral distribution characteristic of an example of a fluorescent lamp. As is well known, a fluorescent lamp emits mercury vapor by arc discharge and converts this light into visible light by a phosphor. Therefore, in the spectral distribution characteristics, there is an energy peak at a wavelength corresponding to the three primary colors of light due to the emission characteristics of mercury vapor, and the energy is extremely small in portions other than the peak. A characteristic L3 indicates the spectral distribution characteristic of sunlight. In the spectral distribution characteristic of sunlight, the ratio of the long wavelength component having a wavelength of 650 nm or more is smaller than the spectral distribution characteristic of tungsten light shown in the characteristic L1.
光源検知ユニット116内の第1の測光センサ301は、フィルタ303により400nm〜750nm程度の波長範囲の光が入射される。これに対して、第2の測光センサ302は、フィルタ303および304により、600nm〜nm程度の波長範囲の光が入射される。すなわち、第1の測光センサ301の出力は、400nm〜750nm程度の波長範囲の光のエネルギを、センサ自体の分光特性に応じて積分したものとなる。また、第2の測光センサ302の出力は、600nm〜750nm程度の波長範囲の光のエネルギを、センサ自体の分光特性に応じて積分したものとなる。 The first photometric sensor 301 in the light source detection unit 116 receives light having a wavelength range of about 400 nm to 750 nm through the filter 303. On the other hand, in the second photometric sensor 302, light having a wavelength range of about 600 nm to nm is incident by the filters 303 and 304. That is, the output of the first photometric sensor 301 is obtained by integrating the energy of light in the wavelength range of about 400 nm to 750 nm according to the spectral characteristics of the sensor itself. The output of the second photometric sensor 302 is obtained by integrating the energy of light in the wavelength range of about 600 nm to 750 nm according to the spectral characteristics of the sensor itself.
タングステン光は、図5に特性L1として示されるように、波長が600nm近傍以上の長波長側の分光成分のエネルギが、波長が600nm近傍以下の短波長側の分光成分のエネルギに対して大きい。一方、太陽光は、図5に特性L2として示されるように、波長が650nmを境に、タングステン光よりも短波長成分のエネルギが大きく、長波長成分のエネルギが小さい。したがって、第1の測光センサ301と第2の測光センサ302との出力差について、タングステン光と太陽光とを比較した場合、タングステン光の場合の出力差の方が、太陽光の場合の出力差よりも小さくなる。 As shown by the characteristic L1 in FIG. 5, in the tungsten light, the energy of the spectral component on the long wavelength side having a wavelength of about 600 nm or more is larger than the energy of the spectral component on the short wavelength side having a wavelength of about 600 nm or less. On the other hand, as shown by the characteristic L2 in FIG. 5, sunlight has a shorter wavelength component energy and a longer wavelength component energy smaller than tungsten light at a wavelength of 650 nm. Accordingly, when comparing the tungsten light and sunlight with respect to the output difference between the first photometric sensor 301 and the second photometric sensor 302, the output difference in the case of tungsten light is greater than the output difference in the case of sunlight. Smaller than.
なお、第1および第2の測光センサ301および302の出力差は、第1および第2の測光センサ301および302の出力の比を用いるものとする。 The output difference between the first and second photometric sensors 301 and 302 uses the ratio of the outputs of the first and second photometric sensors 301 and 302.
蛍光灯については、特性L2に例示されるように、波長が600nm以上の長波長成分のエネルギがピーク波長以外では非常に小さい。そのため、蛍光灯の光の長波長成分のエネルギは、タングステン光や太陽光に比べ、顕著に小さい。また、蛍光灯では、波長が600nmを境として長波長成分と短波長成分とを比較した場合、短波長側の分光成分のエネルギが長波長側の分光成分のエネルギに対して大きい。したがって、第1および第2の測光センサ301および302の出力差が非常に大きくなる。 As for the fluorescent lamp, as illustrated in the characteristic L2, the energy of the long wavelength component having a wavelength of 600 nm or more is very small except for the peak wavelength. For this reason, the energy of the long wavelength component of the light of the fluorescent lamp is significantly smaller than that of tungsten light or sunlight. Further, in a fluorescent lamp, when comparing a long wavelength component and a short wavelength component with a wavelength of 600 nm as a boundary, the energy of the short wavelength side spectral component is larger than the energy of the long wavelength side spectral component. Therefore, the output difference between the first and second photometric sensors 301 and 302 becomes very large.
このように、光源検知ユニット116において、第1および第2の測光センサ301および302の出力差は、光源が蛍光灯の場合に最も大きく、次に太陽光の場合の出力差が大きく、タングステン光による出力差は、最も小さいものとなる。したがって、第1および第2の測光センサ301および302の出力差に対する閾値判断を行うことで、光源種類の判別を行うことができる。例えば、光源が蛍光灯によるものか太陽光によるものかを判別する閾値Th1と、光源が太陽光によるものかタングステン光によるものかを判別する閾値Th2とを設定することが考えられる。 As described above, in the light source detection unit 116, the output difference between the first and second photometric sensors 301 and 302 is the largest when the light source is a fluorescent lamp, and then the output difference when sunlight is the largest. The output difference due to is the smallest. Therefore, it is possible to determine the type of light source by performing a threshold determination for the output difference between the first and second photometric sensors 301 and 302. For example, it is conceivable to set a threshold Th 1 for determining whether the light source is a fluorescent lamp or sunlight, and a threshold Th 2 for determining whether the light source is sunlight or tungsten light.
図6は、本発明に適用可能なデジタルカメラ101の一例の構成を示す。なお、図6において、上述の図2と共通する部分には同一の符号を付し、詳細な説明を省略する。図6において、ミラーボックス201は、上述したメインミラー103とサブミラー104とで構成される。ミラーボックス201は、入射光をAFユニット105およびAEユニット111へと導く状態(図2(a)参照)と、メインミラー103およびサブミラー104を入射光路から退避させる状態(図2(b)参照)とで切り替える。 FIG. 6 shows an exemplary configuration of the digital camera 101 applicable to the present invention. In FIG. 6, the same reference numerals are given to the portions common to FIG. 2 described above, and detailed description thereof is omitted. In FIG. 6, the mirror box 201 includes the main mirror 103 and the sub mirror 104 described above. The mirror box 201 guides incident light to the AF unit 105 and the AE unit 111 (see FIG. 2A), and retracts the main mirror 103 and the sub mirror 104 from the incident light path (see FIG. 2B). Switch with.
入射光をAFユニット105およびAEユニット111に導く状態では、ミラーボックス201は、メインミラー103により入射光を透過光と反射光とに分割する。そして、透過光はサブミラー104に照射し、反射光をピント板109およびペンタプリズム110を介してAEユニット111に導く。また、サブミラー104に照射された光は、サブミラー104で反射されAFユニット105に導かれる。 In a state where the incident light is guided to the AF unit 105 and the AE unit 111, the mirror box 201 divides the incident light into transmitted light and reflected light by the main mirror 103. Then, the transmitted light is applied to the sub mirror 104 and the reflected light is guided to the AE unit 111 through the focus plate 109 and the pentaprism 110. Further, the light irradiated to the sub mirror 104 is reflected by the sub mirror 104 and guided to the AF unit 105.
制御手段としての撮影制御部202は、例えばマイクロコンピュータからなり、図示されないROM及びRAMを有し、ROMに予め記憶されたプログラムやデータに従いRAMをワークメモリとして用いて、このデジタルカメラ101全体の動作を制御する。 The photographing control unit 202 as a control unit includes, for example, a microcomputer, has a ROM and a RAM (not shown), and uses the RAM as a work memory in accordance with programs and data stored in the ROM in advance. To control.
撮影制御部202に対して、シャッタ駆動部203、ミラー駆動部204、絞り駆動部205およびレンズ駆動部206が接続される。また、図示は省略するが、AFユニット105の出力とAEユニット111の出力とが撮影制御部202に供給される。 A shutter drive unit 203, a mirror drive unit 204, an aperture drive unit 205, and a lens drive unit 206 are connected to the imaging control unit 202. Although not shown, the output of the AF unit 105 and the output of the AE unit 111 are supplied to the imaging control unit 202.
シャッタ駆動部203、ミラー駆動部204および絞り駆動部205は、それぞれ、撮影制御部202の制御に応じてシャッタ107、メインミラー103およびサブミラー104、ならびに、絞り113を駆動する。撮影制御部202は、図示されない操作部に対する操作により設定された各種設定値や、AEユニット111の出力、レリーズボタン115に対する操作などに応じて、これらシャッタ駆動部203、ミラー駆動部204および絞り駆動部205の制御を行う。 The shutter driving unit 203, the mirror driving unit 204, and the aperture driving unit 205 drive the shutter 107, the main mirror 103, the sub mirror 104, and the aperture 113, respectively, under the control of the imaging control unit 202. The imaging control unit 202 performs the shutter driving unit 203, the mirror driving unit 204, and the aperture driving in accordance with various setting values set by operating an operation unit (not shown), the output of the AE unit 111, the operation on the release button 115, and the like. The unit 205 is controlled.
撮影制御部202に対し、さらに、光源検知ユニット116の出力が供給される。撮影制御部202は、この光源検知ユニット116の出力と、AFユニット105の出力とに基づきレンズ駆動部206を制御し、撮影レンズ102内の図示されないフォーカシングレンズを駆動する。 Further, the output of the light source detection unit 116 is supplied to the imaging control unit 202. The imaging control unit 202 controls the lens driving unit 206 based on the output of the light source detection unit 116 and the output of the AF unit 105 to drive a focusing lens (not shown) in the imaging lens 102.
撮像素子108は、例えばCMOSイメージセンサからなり、撮影制御部202の制御により図示されないクロック発生部で発生されたクロックに従い、ローリング電子シャッタ方式により電荷が読み出される。すなわち、撮像素子108において、画面の左上隅の画素から、画素単位で水平方向に1ラインの電荷の読み出しがなされ、さらに垂直方向に上から下に向けてライン毎の電荷の読み出しがなされる。読み出された電荷は、電気信号に変換され、撮像信号として出力される。この撮像信号は、A/D変換器207によりデジタル信号に変換される。撮像素子108および撮影制御部202により読み出し手段が構成される。 The image sensor 108 is composed of, for example, a CMOS image sensor, and charges are read by a rolling electronic shutter system in accordance with a clock generated by a clock generator (not shown) under the control of the imaging controller 202. That is, in the image sensor 108, one line of charge is read in the horizontal direction from the pixel at the upper left corner of the screen in the pixel unit, and further, the charge for each line is read from the top to the bottom in the vertical direction. The read charge is converted into an electrical signal and output as an imaging signal. This imaging signal is converted into a digital signal by the A / D converter 207. The image sensor 108 and the imaging control unit 202 constitute reading means.
信号処理部208は、図示されないメモリを用い、A/D変換器207でデジタル信号に変換された撮像信号に対して信号処理を施し、輝度信号および色信号を形成する。このときホワイトバランス処理手段としての信号処理部208は、撮像信号に基づきホワイトバランス処理を行い、その結果得られた信号から輝度信号および色信号を形成する。また、ホワイトバランス処理の結果を示す情報は、撮影制御部202に渡される。 The signal processing unit 208 uses a memory (not shown) and performs signal processing on the imaging signal converted into a digital signal by the A / D converter 207 to form a luminance signal and a color signal. At this time, the signal processing unit 208 as white balance processing means performs white balance processing based on the imaging signal, and forms a luminance signal and a color signal from the resulting signal. Information indicating the result of the white balance process is passed to the imaging control unit 202.
なお、ホワイトバランス処理は、以下の方法で行うことができる。すなわち、撮像信号からR(赤色)、G(緑色)およびB(青色)信号を形成し、これらR、GおよびB信号をそれぞれ撮像素子108の1画面で積分する。そして、R、GおよびB信号が1画面分で積分されたレベルを比較し、比較結果に基づき、R、GおよびB信号のレベルが互いに等しくなるように、RおよびB信号のゲインを調整し、R、GおよびB信号のレベルのバランスを補正する。ホワイトバランス処理によるR、GおよびB信号のレベルのバランスの補正量を示す情報として、RおよびB信号のゲイン調整値を用いることができる。 The white balance process can be performed by the following method. That is, R (red), G (green), and B (blue) signals are formed from the image pickup signal, and these R, G, and B signals are respectively integrated on one screen of the image sensor 108. Then, the R, G, and B signals are compared with the level integrated for one screen, and the gains of the R and B signals are adjusted so that the levels of the R, G, and B signals are equal to each other based on the comparison result. , R, G and B signal level balance is corrected. As information indicating the correction amount of the level balance of the R, G, and B signals by the white balance processing, the gain adjustment values of the R and B signals can be used.
表示部209は、信号処理部208から出力された映像データや画像データをディスプレイユニット118に表示可能な形式の信号に変換する。そして、表示部209は、この変換された信号によりディスプレイユニット118を駆動し、ディスプレイユニット118に対して映像や画像を表示させる。 The display unit 209 converts the video data and image data output from the signal processing unit 208 into a signal in a format that can be displayed on the display unit 118. Then, the display unit 209 drives the display unit 118 with the converted signal, and causes the display unit 118 to display a video or an image.
記録部210は、撮影に伴い信号処理部208から出力された画像データを記録媒体に記録する。記録媒体としては、書き換え可能な不揮発性メモリを適用することができる。また、記録部210は、画像データに対して所定の圧縮符号化方式を用いて圧縮符号化を行い、圧縮符号化された画像データを記録媒体に記録することができる。 The recording unit 210 records the image data output from the signal processing unit 208 along with shooting on a recording medium. As the recording medium, a rewritable nonvolatile memory can be applied. The recording unit 210 can perform compression encoding on the image data using a predetermined compression encoding method, and can record the compression encoded image data on a recording medium.
このような構成において、例えば、撮影者によりライブビュー開始/終了ボタン117が操作されると、撮影制御部202は、デジタルカメラ101の各部を制御し、デジタルカメラ101の動作モードをライブビューモードに移行させる。ライブビューモードにおいて、撮影制御部202は、図2(b)に例示されるように、メインミラー103およびサブミラー104を入射光路から退避させるようにミラー駆動部204を制御する。それとと共に、撮影制御部202は、シャッタ107を開状態とするようにシャッタ駆動部203を制御する。 In such a configuration, for example, when the live view start / end button 117 is operated by the photographer, the shooting control unit 202 controls each unit of the digital camera 101 and sets the operation mode of the digital camera 101 to the live view mode. Transition. In the live view mode, the imaging control unit 202 controls the mirror driving unit 204 to retract the main mirror 103 and the sub mirror 104 from the incident optical path, as illustrated in FIG. At the same time, the photographing control unit 202 controls the shutter driving unit 203 so that the shutter 107 is opened.
被写体からの光は、撮影レンズ102、絞り113およびシャッタ107を介して撮像素子108に照射される。撮像素子108は、照射された光を光電変換により電荷に変換し、ローリング電子シャッタにより電荷を画素単位およびライン毎に読み出し、撮像信号として出力する。なお、撮像信号は、フレーム単位すなわち撮像素子108の1画面を単位として所定のフレームレートで連続的に読み出され、動画像すなわち映像信号として出力される。以下、ライブビューモードにおいて撮像素子108から出力される撮像信号は、映像信号であるものとして説明を行う。 Light from the subject is irradiated to the image sensor 108 through the photographing lens 102, the diaphragm 113 and the shutter 107. The image sensor 108 converts the irradiated light into electric charge by photoelectric conversion, reads out the electric charge for each pixel and line by a rolling electronic shutter, and outputs it as an imaging signal. The imaging signal is continuously read at a predetermined frame rate in units of frames, that is, one screen of the image sensor 108, and is output as a moving image, that is, a video signal. In the following description, it is assumed that the image signal output from the image sensor 108 in the live view mode is a video signal.
撮像素子108から出力された映像信号は、A/D変換器207によりデジタル信号に変換されて信号処理部208に供給される。信号処理部208は、供給された映像信号に対して信号処理を施して輝度信号や色信号を形成し、カラー映像信号を生成する。また、信号処理部208は、映像信号からR、GおよびB信号を形成し、これらR、G、およびB信号に基づきホワイトバランス処理を行う。ホワイトバランス処理の処理結果は、信号処理部208から撮影制御部202に渡される。 The video signal output from the image sensor 108 is converted into a digital signal by the A / D converter 207 and supplied to the signal processing unit 208. The signal processing unit 208 performs signal processing on the supplied video signal to form a luminance signal and a color signal, and generates a color video signal. The signal processing unit 208 forms R, G, and B signals from the video signal, and performs white balance processing based on these R, G, and B signals. The processing result of the white balance processing is passed from the signal processing unit 208 to the shooting control unit 202.
信号処理部208から出力されたカラー映像信号は、表示部209および記録部210に供給される。表示部209は、供給されたカラー映像信号をディスプレイユニット118に表示可能な形式の信号に変換してディスプレイユニット118に供給する。 The color video signal output from the signal processing unit 208 is supplied to the display unit 209 and the recording unit 210. The display unit 209 converts the supplied color video signal into a signal in a format that can be displayed on the display unit 118 and supplies the converted signal to the display unit 118.
さらに、信号処理部208で形成された輝度信号が撮影制御部202に渡される。測定手段としての撮影制御部202は、この輝度信号に基づき被写体の測光演算を行い、所謂撮像面AEの動作を行う。すなわち、撮像面AEにより、被写体からの光の光量が測定される。この撮像面AEについては、公知の技術であるため、ここでの詳細な説明を省略する。撮影制御部202は、撮像面AEの演算結果に基づき露光時の絞り値、シャッタスピードを決定し、シャッタ駆動部203および絞り駆動部205を制御する。 Further, the luminance signal formed by the signal processing unit 208 is passed to the imaging control unit 202. The photographing control unit 202 as a measuring unit performs a photometric calculation of the subject based on the luminance signal, and performs a so-called imaging surface AE operation. That is, the amount of light from the subject is measured by the imaging surface AE. Since this imaging surface AE is a known technique, a detailed description thereof will be omitted here. The imaging control unit 202 determines the aperture value and shutter speed at the time of exposure based on the calculation result of the imaging surface AE, and controls the shutter driving unit 203 and the aperture driving unit 205.
さらにまた、撮影制御部202は、撮影レンズ102内にある図示されないフォーカシングレンズを駆動しつつ、信号処理部208で得られた映像信号のコントラストを連続的に演算することで、所謂コントラスト検出方式によるAF処理も行う。このコントラスト検出方式によるAF処理については、公知の技術であると共に本発明と関わりが薄いため、説明を省略する。撮影制御部202は、このコントラスト検出方式によるAF処理の結果に基づきフォーカシングレンズの位置を決定し、決定された位置にフォーカシングレンズを移動するように、レンズ駆動部206を制御する。 Furthermore, the shooting control unit 202 continuously calculates the contrast of the video signal obtained by the signal processing unit 208 while driving a focusing lens (not shown) in the shooting lens 102, so that a so-called contrast detection method is used. AF processing is also performed. The AF processing by this contrast detection method is a known technique and is not related to the present invention, and thus description thereof is omitted. The imaging control unit 202 determines the position of the focusing lens based on the result of the AF processing by this contrast detection method, and controls the lens driving unit 206 so as to move the focusing lens to the determined position.
光源検知ユニット116の出力が撮影制御部202に供給される。撮影制御部202は、この光源検知ユニット116の出力に基づき、上述したようにして光源の種類を判別する。 The output of the light source detection unit 116 is supplied to the imaging control unit 202. The imaging control unit 202 determines the type of light source as described above based on the output of the light source detection unit 116.
図7は、本実施形態におけるライブビューモードでの一例の動作を示すフローチャートである。ライブビュー開始/終了ボタン117が操作され、ライブビューモードが起動されると、ステップS10で、撮影制御部202により、撮像面AEを用いて被写体の測光が行われ、被写体からの光の光量が測定される。 FIG. 7 is a flowchart showing an exemplary operation in the live view mode in the present embodiment. When the live view start / end button 117 is operated and the live view mode is activated, in step S10, the photographing control unit 202 performs photometry of the subject using the imaging surface AE, and the amount of light from the subject is determined. Measured.
次のステップS11で、撮影制御部202により、ステップS10の測定結果に対する閾値判断が行われる。すなわち、ライブビューモードでは、被写体が蛍光灯照明下であれば、フリッカ消去モードを実行してラインフリッカの抑制処理を行う必要がある。ここで、一般的に、蛍光灯は直視してもEv(Exposure Value)が14程度の明るさであるため、被写体が極度に明るければ主たる光源が蛍光灯ではないと考えることができ、この場合にはフリッカ検知を行う必要が無い。そこで、測定結果に対して閾値判断を行い、被写体の明るさが閾値を越えるときには、フリッカ検知を行わないようにする。例えば、上述のEv=14を閾値として用いることができる。ステップS10による測定の結果得られた明るさが閾値を越えていると判断された場合は、処理は後述するステップS15に移行される。 In the next step S <b> 11, the photographing control unit 202 determines a threshold for the measurement result in step S <b> 10. That is, in the live view mode, if the subject is under fluorescent lamp illumination, it is necessary to execute the flicker elimination mode and perform the line flicker suppression process. Here, in general, even if the fluorescent lamp is directly viewed, the Ev (Exposure Value) is about 14 brightness, so if the subject is extremely bright, it can be considered that the main light source is not the fluorescent lamp. Does not require flicker detection. Therefore, a threshold determination is performed on the measurement result, and flicker detection is not performed when the brightness of the subject exceeds the threshold. For example, Ev = 14 described above can be used as the threshold value. If it is determined that the brightness obtained as a result of the measurement in step S10 exceeds the threshold, the process proceeds to step S15 described later.
一方、ステップS11で、ステップS10による測定の結果得られた明るさが閾値以下であると判断された場合には、処理はステップS12に移行される。ステップS12では、フリッカ検知手段としての撮影制御部202によりフリッカ検知機能が起動され、撮像信号中のフリッカの検知が行われる。なお、フリッカ検知機能による動作の詳細については、後述する。 On the other hand, if it is determined in step S11 that the brightness obtained as a result of the measurement in step S10 is equal to or less than the threshold value, the process proceeds to step S12. In step S12, the flicker detection function is activated by the photographing control unit 202 as flicker detection means, and flicker in the image pickup signal is detected. Details of the operation by the flicker detection function will be described later.
処理はステップS13に移行され、撮影制御部202により、ステップS12で起動されたフリッカ検知動作の結果に基づき、表示部209に表示するための映像信号中においてラインフリッカが発生しているか否かが判断される。若し、ラインフリッカが発生していないと判断されれば、処理はステップS14に移行される。ステップS14では、撮影制御部202は、ライブビューモードを、フリッカ抑制を行わない通常モードで実行する。 The process proceeds to step S13, and whether or not line flicker has occurred in the video signal to be displayed on the display unit 209 based on the result of the flicker detection operation started in step S12 by the imaging control unit 202. To be judged. If it is determined that no line flicker has occurred, the process proceeds to step S14. In step S14, the imaging control unit 202 executes the live view mode in a normal mode in which flicker suppression is not performed.
次のステップS15で、光源変化検知手段としての撮影制御部202により、光源に変化があるか否かが判断される。すなわち、ライブビューモード実行中に被写体の照明環境が「蛍光灯以外のものから蛍光灯に変化」、若しくは、「蛍光灯から蛍光灯以外のものに変化」した場合には、再度フリッカ検知機能を起動させて、ラインフリッカの有無を確認し直すのが望ましい。そこで、このステップS15では、光源の変化の有無を検知し、光源の変化が検知されたら処理をステップS12に戻して、再び、フリッカ検知機能を起動させる。 In the next step S15, the photographing control unit 202 as the light source change detecting means determines whether or not there is a change in the light source. In other words, if the lighting environment of the subject changes from a non-fluorescent light to a fluorescent light or changes from a fluorescent light to a non-fluorescent light while the live view mode is being executed, the flicker detection function is activated again. It is desirable to start and check the presence of line flicker. Therefore, in step S15, the presence or absence of a change in the light source is detected. If a change in the light source is detected, the process returns to step S12 to activate the flicker detection function again.
本実施形態では、光源の変化を検知する方法として、以下の3つの方法を用いる。第1の方法は、撮像面AEの測定結果を用いる方法である。すなわち、ライブビューモード動作中において、撮像面AEによる測定結果の変化量が予め設定された所定量以上である場合、光源が変化したと考えることができる。一例として、屋内での撮影から屋外での撮影に移行したり、またはその逆など、撮影シーンが変化した場合に、この変化に伴い光源が変化することが考えられる。 In the present embodiment, the following three methods are used as a method of detecting a change in the light source. The first method is a method using the measurement result of the imaging surface AE. That is, it can be considered that the light source has changed when the change amount of the measurement result by the imaging surface AE is equal to or larger than a predetermined amount during the live view mode operation. As an example, when the shooting scene changes, such as when the shooting is switched from indoor shooting to outdoor shooting, or vice versa, the light source may change with this change.
第2の方法は、ホワイトバランス処理の結果を用いる方法である。すなわち、ライブビューモード動作中において、ホワイトバランス処理結果の変化量が予め設定された所定量以上となった場合に、光源が変化したと考えることができる。一例として、ホワイトバランス処理によるR信号およびB信号それぞれに対するゲイン調整値の比を、閾値と比較することが考えられる。 The second method is a method using the result of white balance processing. That is, during the live view mode operation, it can be considered that the light source has changed when the amount of change in the white balance processing result is equal to or greater than a predetermined amount. As an example, it is conceivable to compare the ratio of the gain adjustment value for each of the R signal and the B signal by the white balance processing with a threshold value.
第3の方法は、光源検知ユニット116の出力結果を用いる方法である。上述したように、光源検知ユニット116では、被写体の光源の種別を判別できる。そのため、ライブビューモード動作中に光源検知ユニット116の出力の変化量が予め設定された閾値以上となった場合に、光源が変化したと考えることができる。 The third method is a method using the output result of the light source detection unit 116. As described above, the light source detection unit 116 can determine the type of light source of the subject. Therefore, it can be considered that the light source has changed when the amount of change in the output of the light source detection unit 116 is equal to or greater than a preset threshold value during the live view mode operation.
本実施形態では、ステップS15における光源の変化の検知を、撮像面AEの測定結果の変化量、ホワイトバランス処理結果の変化量および光源検知ユニット116の出力結果の変化量を用いて行う。すなわち、本実施形態では、これらの変化量のうち何れか1つが、それぞれに対して設定された所定量以上であったときに、光源が変化したと判断することで行う。これに限らず、撮像面AEの測定結果、ホワイトバランス処理結果および光源検知ユニット116の出力結果を組み合わせて光源が変化したか否かを判断し、光源の変化の検知を行ってもよい。 In the present embodiment, the change of the light source in step S15 is detected using the change amount of the measurement result of the imaging surface AE, the change amount of the white balance processing result, and the change amount of the output result of the light source detection unit 116. That is, in this embodiment, it is determined by determining that the light source has changed when any one of these change amounts is equal to or greater than a predetermined amount set for each. Not limited to this, the measurement result of the imaging surface AE, the white balance processing result, and the output result of the light source detection unit 116 may be combined to determine whether or not the light source has changed, and the change in the light source may be detected.
上述した、ステップS15で光源の変化が検知されなければ、処理はステップS16に移行され、撮影制御部202によりライブビューモードが終了したか否かが判断される。若し、ライブビュー開始/終了ボタン117が操作されていなければ、ライブビューモードが終了していないと判断され、処理はステップS15に戻され、光源の変化の検知が行われる。一方、ライブビュー開始/終了ボタン117が操作された場合には、撮影制御部202によりライブビューモードが終了され、この図7のフローチャートにおける一連の処理が終了される。 If a change in the light source is not detected in step S15 described above, the process proceeds to step S16, and the shooting control unit 202 determines whether or not the live view mode has ended. If the live view start / end button 117 is not operated, it is determined that the live view mode has not ended, and the process returns to step S15 to detect a change in the light source. On the other hand, when the live view start / end button 117 is operated, the shooting control unit 202 ends the live view mode, and a series of processes in the flowchart of FIG.
上述のステップS13で、ラインフリッカが発生していると判断されれば、処理はステップS17に移行される。ステップS17では、ラインフリッカの周期を検知する処理が行われる。このラインフリッカ周期の検知処理の具体例については、後述する。ステップS17でラインフリッカの周期が検知されたら、処理はステップS18に移行される。 If it is determined in step S13 described above that line flicker has occurred, the process proceeds to step S17. In step S17, processing for detecting the cycle of line flicker is performed. A specific example of this line flicker cycle detection process will be described later. If the line flicker cycle is detected in step S17, the process proceeds to step S18.
ステップS18では、フリッカ抑制手段としての撮影制御部202は、ライブビューモードを、ラインフリッカを抑制するように制御するフリッカ消去モードで実行する。具体的には、撮像素子における電荷の蓄積時間をフリッカ周期の整数倍になるように制御すれば、フリッカに基づく電荷の蓄積量がライン毎に揃うので、ラインフリッカが抑制される。 In step S18, the imaging control unit 202 as flicker suppressing means executes the live view mode in a flicker erasing mode that controls to suppress line flicker. Specifically, if the charge accumulation time in the image sensor is controlled to be an integral multiple of the flicker cycle, the amount of charge accumulation based on flicker is aligned for each line, so that line flicker is suppressed.
例えば、商用電源の周波数が50Hzの場合には、蛍光灯の発光周波数が100Hzであってフリッカ周波数も100Hzとなるので、蓄積時間を10msecの整数倍に制御する。また例えば、商用電源の周波数が60Hzの場合には、蛍光灯の発光周波数が120Hzであってフリッカ周波数も120Hzとなるので、蓄積時間を8.33・・・msec(=1000/120msec)の整数倍に制御する。 For example, when the frequency of the commercial power supply is 50 Hz, the light emission frequency of the fluorescent lamp is 100 Hz and the flicker frequency is also 100 Hz, so the accumulation time is controlled to an integral multiple of 10 msec. For example, when the frequency of the commercial power source is 60 Hz, the emission frequency of the fluorescent lamp is 120 Hz and the flicker frequency is also 120 Hz, so the accumulation time is an integer of 8.33... Msec (= 1000/120 msec). Control twice.
処理はステップS19に移行され、上述したステップS15と同様にして、撮影制御部202により、光源の変化の検知が行われる。若し、光源の変化が検知されたら、処理はステップS12に戻され、撮影制御部202により再びフリッカ検知動作が起動される。このフリッカ検知動作の結果、ラインフリッカが検知されなければ(ステップS13)、処理はステップS14に移行される。そして、撮影制御部202により、先のステップS18で実行されたフリッカ消去モードによる動作が停止され、ライブビューモードが、フリッカ抑制を行わない通常モードで実行される。 The process proceeds to step S19, and a change in the light source is detected by the imaging control unit 202 in the same manner as in step S15 described above. If a change in the light source is detected, the process returns to step S12, and the photographing control unit 202 activates the flicker detection operation again. If line flicker is not detected as a result of the flicker detection operation (step S13), the process proceeds to step S14. Then, the shooting control unit 202 stops the operation in the flicker elimination mode executed in the previous step S18, and the live view mode is executed in the normal mode in which flicker suppression is not performed.
一方、ステップS19で光源の変化が検知されなければ、処理はステップS20に移行され、上述のステップS16と同様にしてライブビューモードが終了したか否かが判断される。そして、ライブビューモードが終了していないと判断されれば、処理はステップS19に戻され、光源の変化の検知が行われる。一方、ライブビューモードが終了したと判断されれば、図7のフローチャートによる一連の処理が終了される。 On the other hand, if a change in the light source is not detected in step S19, the process proceeds to step S20, and it is determined whether or not the live view mode is ended as in step S16 described above. If it is determined that the live view mode has not ended, the process returns to step S19, and a change in the light source is detected. On the other hand, if it is determined that the live view mode has ended, a series of processes according to the flowchart of FIG. 7 is ended.
上述のように、本実施形態では、ライブビューモードにおいて、表示部209に表示される映像にラインフリッカが発生しているか否かに関わらず光源の変化の検知が行われる。そして、光源の変化が検知されると、フリッカ検知機能を起動させ、表示部209に表示される映像にラインフリッカが発生しているか否かを検知するようにしている。そのため、光源の変化に対して適応的にフリッカ消去モードを起動させることができる。 As described above, in the present embodiment, in the live view mode, the change in the light source is detected regardless of whether or not line flicker occurs in the video displayed on the display unit 209. When a change in the light source is detected, a flicker detection function is activated to detect whether or not line flicker has occurred in the video displayed on the display unit 209. Therefore, the flicker erasing mode can be activated adaptively with respect to changes in the light source.
次に、上述したステップS12で起動されるフリッカ検知動作について説明する。図7のフローチャートにおけるステップS12、ステップS13およびステップS17では、以下に説明するようにして、撮像信号中のラインフリッカの発生の有無、ラインフリッカの周期を求める。 Next, the flicker detection operation activated in step S12 described above will be described. In step S12, step S13, and step S17 in the flowchart of FIG. 7, the presence / absence of occurrence of line flicker in the imaging signal and the cycle of line flicker are obtained as described below.
図8は、ラインフリッカの発生原理を説明するための図である。図8において、蛍光灯の発光周期と、撮像素子108における各ラインの信号と、ディスプレイユニット118の表示画面400における一例の表示との関係が示されている。なお、上述したように、本実施形態では、撮像素子108としてCMOSイメージセンサを用いている。 FIG. 8 is a diagram for explaining the principle of occurrence of line flicker. FIG. 8 shows the relationship between the light emission period of the fluorescent lamp, the signal of each line in the image sensor 108, and an example display on the display screen 400 of the display unit 118. As described above, in this embodiment, a CMOS image sensor is used as the image sensor 108.
図8に例示されるように、蛍光灯の光量がある周期で変動すると共に、撮像素子108において電荷の蓄積タイミングが1ライン毎に順次変化していく。この場合、各ラインにおいて電荷を蓄積したタイミングでの蛍光灯の光量に応じて撮像素子108から読み出された撮像信号が変動し、表示画面400に対し、図8の左側に例示されるような、ラインフリッカによる縞模様が発生する。この縞の間隔は、蛍光灯の発光周期に対応するため、この縞の間隔を計算することで、ラインフリッカの周期を求めることができる。具体的には、表示画面400に表示される画像信号のライン方向の射影(水平射影と呼ぶ)を取り、周期を算出すればよい。 As illustrated in FIG. 8, the light amount of the fluorescent lamp varies with a certain period, and the charge accumulation timing in the image sensor 108 changes sequentially for each line. In this case, the image pickup signal read from the image pickup device 108 fluctuates in accordance with the light quantity of the fluorescent lamp at the timing when charges are accumulated in each line, and the display screen 400 is illustrated on the left side of FIG. A stripe pattern due to line flicker occurs. Since the interval between the stripes corresponds to the light emission cycle of the fluorescent lamp, the cycle of the line flicker can be obtained by calculating the interval between the stripes. Specifically, the projection in the line direction of the image signal displayed on the display screen 400 (referred to as horizontal projection) may be taken to calculate the period.
ここで、実際に被写体を撮影した場合には、画面内に多種の反射率が存在するため、画像信号の水平射影も、被写体の反射率の影響を受けたものとなる。つまり、画像信号の水平射影は、蛍光灯の発光周期すなわちラインに応じて変化する光量に、被写体のライン毎に対応する反射率を乗じたものとなる。 Here, when the subject is actually photographed, since there are various reflectances in the screen, the horizontal projection of the image signal is also affected by the reflectance of the subject. That is, the horizontal projection of the image signal is obtained by multiplying the amount of light that changes according to the light emission period of the fluorescent lamp, that is, the line, by the reflectance corresponding to each line of the subject.
ここで、図9(a)および図9(b)に例示されるような、被写体が同一であり、ラインフリッカによる縞模様の位相が互いに180°ずれた2枚の画像Aと画像Bとを考える。画像AおよびBのそれぞれについて、画像信号の水平射影AhおよびBhを演算し、これら水平射影AhおよびBhについて比Ah/Bhを求める。被写体の反射率による成分は、水平射影AhおよびBhにおける比の値が1となるので、被写体の反射率の影響を取り除きフリッカ成分のみを取り出した信号を得ることができる。 Here, as illustrated in FIGS. 9A and 9B, two images A and B having the same subject and having stripe patterns caused by line flickers shifted by 180 ° are combined. Think. For each of the images A and B, the horizontal projections Ah and Bh of the image signal are calculated, and the ratio Ah / Bh is obtained for these horizontal projections Ah and Bh. The component based on the reflectance of the subject has a ratio value of 1 in the horizontal projections Ah and Bh, so that it is possible to obtain a signal obtained by removing only the flicker component by removing the influence of the reflectance of the subject.
例えば、信号処理部208のメモリに、撮像素子108からの映像信号の輝度成分による画像信号を展開し、信号処理部208が、水平射影AhおよびBhに関する演算を行うことが考えられる。これに限らず、信号処理部208から撮影制御部202に対してこの輝度成分による画像信号を転送し、撮影制御部202がこの画像信号をRAMに展開して、水平射影AhおよびBhに関する演算を行うようにしてもよい。さらに、表示部209が有する図示されないビデオメモリを用いて、水平射影AhおよびBhに関する演算を行うこともできる。 For example, it is conceivable that an image signal based on the luminance component of the video signal from the image sensor 108 is developed in the memory of the signal processing unit 208, and the signal processing unit 208 performs calculations regarding the horizontal projections Ah and Bh. Not limited to this, an image signal based on this luminance component is transferred from the signal processing unit 208 to the imaging control unit 202, and the imaging control unit 202 develops this image signal in the RAM, and performs calculations relating to the horizontal projections Ah and Bh. You may make it perform. Furthermore, the calculation regarding the horizontal projections Ah and Bh can be performed using a video memory (not shown) included in the display unit 209.
ここで、商用電源の周波数は、50Hzまたは60Hzである。撮像素子108での読み出しを、例えば45msec周期、すなわち22.22・・・fpsといったフレームレートで撮像素子108での読み出しを行う。こうすることで、50Hzおよび60Hzの何方の周波数であっても、連続的に読み出された2枚の画面において、ラインフリッカによる縞模様の位相が略180°ずれることになる。 Here, the frequency of the commercial power supply is 50 Hz or 60 Hz. Reading by the image sensor 108 is performed by the image sensor 108 at a frame rate of 45 msec, that is, 22.22... Fps, for example. By doing so, the phase of the striped pattern due to the line flicker is shifted by approximately 180 ° on the two continuously read screens at any frequency of 50 Hz and 60 Hz.
商用電源の周波数が50Hzの場合、電源の周期は20msecであり、蛍光灯の発光周期は、この1/2で10msecとなる。したがって、蛍光灯の発光周期に対して半周期ずれた信号が欲しければ、nを整数として、例えば10msec×n+10/2msecだけ後のタイミングで、撮像素子108での読み出しを行えばよい。また、商用電源の周波数が60Hzの場合、電源の周期は16.66・・・msec(=1000/60msec)であり、蛍光灯の発光周期は、この1/2で8.33・・・msec(=1000/120msec)となる。したがって、蛍光灯の発光周期に対して半周期ずれた信号が欲しければ、mを整数として、例えば8.33・・・msec×m+8.33・・・/2msecだけ後のタイミングで、撮像素子108での読み出しを行えばよい。 When the frequency of the commercial power source is 50 Hz, the cycle of the power source is 20 msec, and the light emission cycle of the fluorescent lamp is ½ of this and becomes 10 msec. Therefore, if a signal shifted by a half cycle with respect to the light emission cycle of the fluorescent lamp is desired, reading by the image sensor 108 may be performed at a timing after, for example, 10 msec × n + 10/2 msec, where n is an integer. When the frequency of the commercial power source is 60 Hz, the cycle of the power source is 16.66... Msec (= 1000/60 msec), and the luminous cycle of the fluorescent lamp is halved to 8.33. (= 1000/120 msec). Therefore, if a signal deviated by a half period with respect to the light emission period of the fluorescent lamp is desired, m is an integer, for example, 8.33... Msec × m + 8.33. Reading may be performed at
例えば、n=4、m=5とすることで、電源の周波数が50Hzの場合には、1画面分の読み出しを行った後、45msec後に次の読み出しが行われ、ラインフリッカによる縞模様が互いに180°ずれた2枚の画面を得ることができる。また、電源の周波数が60Hzの場合には、1画面分の読み出しを行ったAと、45.833・・・msec後に次の読み出しが行われ、ラインフリッカによる縞模様が互いに略180°ずれた2枚の画面を得ることができる。 For example, by setting n = 4 and m = 5, when the frequency of the power supply is 50 Hz, after reading for one screen, the next reading is performed after 45 msec, and the stripe patterns due to line flicker are mutually connected. Two screens shifted by 180 ° can be obtained. In addition, when the frequency of the power source is 60 Hz, the next reading is performed after A which has been read for one screen, and 45.833... Msec, and the stripe patterns due to the line flicker are shifted from each other by approximately 180 °. Two screens can be obtained.
図10を用いて、ラインフリッカの有無を判断する処理について説明する。図10(a)は、上述のようにして、ラインフリッカによる縞模様が180°ずれた画像Aおよび画像Bの水平射影AhおよびBhから算出した、Ah/Bhによる一例の波形を示す。図10(a)において、横軸はライン数であり、例えば表示画面400の上端からのライン数である。横軸は、1水平ラインの走査時間との積を取れば、時間となる。また、縦軸は、例えば輝度値である。 A process for determining the presence or absence of line flicker will be described with reference to FIG. FIG. 10A shows an example of a waveform by Ah / Bh calculated from the horizontal projections Ah and Bh of the images A and B in which the stripe pattern due to the line flicker is shifted by 180 ° as described above. In FIG. 10A, the horizontal axis is the number of lines, for example, the number of lines from the upper end of the display screen 400. The horizontal axis represents time if the product with the scanning time of one horizontal line is taken. The vertical axis is, for example, a luminance value.
図10(a)の例では、波形の振幅が所定量よりも大きければ、ラインフリッカが発生していると判断することができる。実際には、画面内の照度ムラなどにより、誤検出してしまう可能性がある。そこで、図10(a)に例示するように、波形に対してウィンドウ#1およびウィンドウ#2というように、観察領域を決めるウィンドウを2つ設定し、これらウィンドウ#1およびウィンドウ#2内の波形について、自己相関を計算する。そして、図10(b)に例示されるように、自己相関の計算結果による波形を得る。図10(b)において、横軸がライン数若しくは時間、縦軸が相関値である。 In the example of FIG. 10A, if the amplitude of the waveform is larger than a predetermined amount, it can be determined that line flicker has occurred. Actually, there is a possibility of erroneous detection due to uneven illuminance in the screen. Therefore, as illustrated in FIG. 10A, two windows for determining the observation area are set for the waveform, such as window # 1 and window # 2, and the waveforms in these windows # 1 and # 2 are set. Calculate the autocorrelation for. Then, as illustrated in FIG. 10B, a waveform based on the autocorrelation calculation result is obtained. In FIG. 10B, the horizontal axis represents the number of lines or time, and the vertical axis represents the correlation value.
なお、ここでは、自己相関の計算を、ウィンドウ#1の波形に対してウィンドウ#2の波形をずらしてくことで計算するものとする。また、ウィンドウ#1の波形のピークと、ウィンドウ#2の波形のピークとが重なった場合を相関値が100とし、ウィンドウ#1の波形のピークと、ウィンドウ#2の波形のボトムとが重なった場合を相関値が0とする。 Here, the autocorrelation is calculated by shifting the waveform of window # 2 with respect to the waveform of window # 1. The correlation value is 100 when the peak of the waveform of window # 1 and the peak of the waveform of window # 2 overlap, and the peak of the waveform of window # 1 and the bottom of the waveform of window # 2 overlap. In this case, the correlation value is 0.
図10(b)の自己相関の計算結果による波形の周期がラインフリッカの周期となる。また、ラインフリッカが発生してない場合には、この図10(b)の波形の振幅が小さくなるため、この波形の相関値に対して閾値を設定し、閾値判定を行うことでラインフリッカの発生の有無を判断することができる。一例として、第1の閾値と、第1の閾値より値が小さい第2の閾値とを設定し、波形のピークの値が第1の閾値よりも大きいか、或いは、波形のボトムの値が第2の閾値よりも小さいときに、ラインフリッカが発生していると判断する。これに限らず、波形のピークのみ、波形のボトムのみを用いてラインフリッカの発生の有無を判定することも考えられる。 The period of the waveform based on the autocorrelation calculation result in FIG. 10B is the line flicker period. Further, when no line flicker occurs, the amplitude of the waveform in FIG. 10B becomes small. Therefore, by setting a threshold value for the correlation value of this waveform and performing the threshold determination, The presence or absence of occurrence can be determined. As an example, a first threshold value and a second threshold value that is smaller than the first threshold value are set, and the waveform peak value is greater than the first threshold value, or the waveform bottom value is the first threshold value. When the threshold value is smaller than 2, it is determined that line flicker has occurred. However, the present invention is not limited to this, and it is also conceivable to determine whether or not line flicker occurs using only the peak of the waveform and only the bottom of the waveform.
このラインフリッカの有無の判断についても、上述の水平射影AhおよびBhに関する処理と同様に、撮影制御部202や信号処理部208が、信号処理部208のメモリや撮影制御部202のRAMなどを用いて、自己相関の計算など行うようにできる。 Regarding the determination of the presence / absence of the line flicker, the imaging control unit 202 and the signal processing unit 208 use the memory of the signal processing unit 208, the RAM of the imaging control unit 202, and the like, similarly to the processing related to the horizontal projections Ah and Bh described above. Thus, autocorrelation can be calculated.
なお、上述では、本発明が静止画像の撮影を主とするデジタルカメラに適用されるように説明したが、これはこの例に限定されず、本発明を動画像の撮影を主とするデジタルビデオカメラに適用させてもよい。 In the above description, the present invention has been described as applied to a digital camera mainly for taking still images. However, the present invention is not limited to this example, and the present invention is a digital video mainly for taking moving images. You may make it apply to a camera.
また、上述では、本発明に適用される撮像素子が、ローリング電子シャッタを用い、1ライン毎に画素を順次リセットして電荷を蓄積し、その1ライン毎に画素から順次電荷を読み出す、CMOSイメージセンサであるものとして説明した。これはこの例に限定されず、グローバル電子シャッタを用い、電荷の蓄積時間の開始、終了をそれぞれ全画素で同一タイミングで行う、CCDといった撮像素子を、本発明に適用させることもできる。 In the above description, the image sensor applied to the present invention uses a rolling electronic shutter to sequentially reset the pixels for each line, accumulate charges, and sequentially read the charges from the pixels for each line. It was described as being a sensor. This is not limited to this example, and an imaging device such as a CCD that uses a global electronic shutter and starts and ends charge accumulation time at the same timing for all pixels can also be applied to the present invention.
CCDを撮像素子として用いる場合には、フレームタイミングで撮像素子から読み出された撮像信号について、フレーム毎に輝度値を積分し、フレーム間でこの輝度値を比較することで、フリッカ検知を行うことが考えられる。 When a CCD is used as an image sensor, flicker detection is performed by integrating the luminance value for each frame of the image signal read from the image sensor at the frame timing and comparing the luminance value between frames. Can be considered.
101 デジタルカメラ
102 撮影レンズ
103 メインミラー
111 AEユニット
116 光源検知ユニット
117 ライブビュー開始/終了ボタン
118 ディプレイユニット
202 撮影制御部
208 信号処理部
209 表示部
101 Digital Camera 102 Shooting Lens 103 Main Mirror 111 AE Unit 116 Light Source Detection Unit 117 Live View Start / End Button 118 Display Unit 202 Shooting Control Unit 208 Signal Processing Unit 209 Display Unit
Claims (7)
前記撮像素子が蓄積した前記電荷を前記画素ごとに読み出し1画面の撮像信号として出力する読み出し手段と、
前記被写体に光を照射する光源の変化を検知する光源変化検知手段と、
前記撮像信号に含まれるフリッカを検知するフリッカ検知手段と、
前記撮像信号中の前記フリッカ検知手段により検知された前記フリッカを抑制するフリッカ抑制手段と、
前記光源変化検知手段により前記光源の変化が検知されたら、前記フリッカ検知手段による前記フリッカの検知を行い、前記フリッカ検知手段でフリッカが検知された場合に前記フリッカ抑制手段による抑制処理を行うように制御する制御手段と
を有する
ことを特徴とする撮像装置。 An image sensor that converts and accumulates light from the subject into charges for each pixel;
A readout unit that reads out the electric charge accumulated in the imaging element for each pixel and outputs it as an imaging signal of one screen;
A light source change detecting means for detecting a change in a light source for irradiating the subject with light;
Flicker detection means for detecting flicker included in the imaging signal;
Flicker suppression means for suppressing the flicker detected by the flicker detection means in the imaging signal;
When the change of the light source is detected by the light source change detection unit, the flicker is detected by the flicker detection unit, and when the flicker is detected by the flicker detection unit, the suppression process by the flicker suppression unit is performed. An image pickup apparatus comprising a control means for controlling.
前記光源変化検知手段は、前記光源検知手段により検知された前記光源の種類が変化した場合に、前記光源の変化があったと検知する
ことを特徴とする請求項1に記載の撮像装置。 A light source detection means for detecting the type of the light source;
The imaging apparatus according to claim 1, wherein the light source change detection unit detects that the light source has changed when the type of the light source detected by the light source detection unit changes.
前記光源変化検知手段は、前記ホワイトバランス処理手段による前記ホワイトバランスの補正量が所定量以上に変化した場合に、前記光源の変化があったと検知する
ことを特徴とする請求項1または請求項2に記載の撮像装置。 White balance processing means for correcting white balance for the imaging signal;
3. The light source change detection unit detects that the light source has changed when the correction amount of the white balance by the white balance processing unit changes to a predetermined amount or more. The imaging device described in 1.
前記光源変化検知手段は、前記測定手段の測定結果に基づき、前記被写体からの光の光量が所定量以上に変化した場合に、前記光源の変化があったと検知する
ことを特徴とする請求項1乃至請求項3の何れか1項に記載の撮像装置。 A measuring means for measuring the amount of light from the subject;
2. The light source change detection unit detects that the light source has changed when the amount of light from the subject changes to a predetermined amount or more based on a measurement result of the measurement unit. The imaging device according to any one of claims 3 to 4.
前記測定手段による測定結果に基づき、前記光量が閾値以上であれば、前記光源変化検知手段の検知結果に関わらず前記フリッカ検知手段によるフリッカの検知を行わないように制御する
ことを特徴とする請求項4に記載の撮像装置。 The control means includes
The flicker detection by the flicker detection unit is controlled so as not to be performed regardless of the detection result of the light source change detection unit based on the measurement result of the measurement unit if the light amount is equal to or greater than a threshold value. Item 5. The imaging device according to Item 4.
前記制御手段は、
前記測定手段による測定結果に基づき、前記被写体からの光の光量が閾値以上であれば、前記光源変化検知手段の検知結果に関わらず前記フリッカ検知手段によるフリッカの検知を行わないように制御する
ことを特徴とする請求項1乃至請求項3の何れか1項に記載の撮像装置。 A measuring means for measuring the amount of light from the subject;
The control means includes
Based on the measurement result by the measurement means, if the amount of light from the subject is greater than or equal to a threshold value, control is performed so that flicker detection by the flicker detection means is not performed regardless of the detection result of the light source change detection means. The imaging device according to any one of claims 1 to 3, wherein
前記被写体に光を照射する光源の変化を検知する光源変化検知ステップと、
前記撮像信号に含まれるフリッカを検知するフリッカ検知ステップと、
前記撮像信号中の前記フリッカ検知ステップにより検知された前記フリッカを抑制するフリッカ抑制ステップと、
前記光源変化検知ステップにより前記光源の変化が検知されたら、前記フリッカ検知ステップによる前記フリッカの検知を行い、前記フリッカ検知ステップでフリッカが検知された場合に前記フリッカ抑制ステップによる抑制処理を行うように制御する制御ステップと
を有する
ことを特徴とする撮像装置の制御方法。 A readout step of reading out the charges accumulated by the image sensor for converting light from the subject into charges for each pixel and storing the charges as an image signal for one screen;
A light source change detection step for detecting a change in a light source that irradiates the subject with light; and
A flicker detection step for detecting flicker included in the imaging signal;
A flicker suppression step for suppressing the flicker detected by the flicker detection step in the imaging signal;
When the change of the light source is detected by the light source change detection step, the flicker is detected by the flicker detection step, and when the flicker is detected by the flicker detection step, the suppression process by the flicker suppression step is performed. And a control step for controlling the imaging apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008056623A JP2009213076A (en) | 2008-03-06 | 2008-03-06 | Imaging device and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008056623A JP2009213076A (en) | 2008-03-06 | 2008-03-06 | Imaging device and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009213076A true JP2009213076A (en) | 2009-09-17 |
Family
ID=41185746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008056623A Withdrawn JP2009213076A (en) | 2008-03-06 | 2008-03-06 | Imaging device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009213076A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013024933A (en) * | 2011-07-15 | 2013-02-04 | Canon Inc | Image pickup apparatus, control method thereof, and computer program |
JP2015041823A (en) * | 2013-08-20 | 2015-03-02 | キヤノン株式会社 | Imaging apparatus, control method of the same, program, and storage medium |
JP2016152537A (en) * | 2015-02-18 | 2016-08-22 | キヤノン株式会社 | Imaging apparatus, control method therefor, and control program |
JP2016154285A (en) * | 2015-02-20 | 2016-08-25 | キヤノン株式会社 | Imaging apparatus, electronic device and calculation method for light quantity change property |
JP2018133826A (en) * | 2018-05-30 | 2018-08-23 | キヤノン株式会社 | Imaging apparatus, control method thereof, and control program |
EP3588938A1 (en) | 2018-06-29 | 2020-01-01 | Canon Kabushiki Kaisha | Image pickup apparatus capable of performing image pickup with reduced flicker influence, method for controlling the same, program, and storage medium |
CN114268744A (en) * | 2021-12-16 | 2022-04-01 | 上海研鼎信息技术有限公司 | Camera flicker test system and test method |
-
2008
- 2008-03-06 JP JP2008056623A patent/JP2009213076A/en not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013024933A (en) * | 2011-07-15 | 2013-02-04 | Canon Inc | Image pickup apparatus, control method thereof, and computer program |
JP2015041823A (en) * | 2013-08-20 | 2015-03-02 | キヤノン株式会社 | Imaging apparatus, control method of the same, program, and storage medium |
JP2016152537A (en) * | 2015-02-18 | 2016-08-22 | キヤノン株式会社 | Imaging apparatus, control method therefor, and control program |
JP2016154285A (en) * | 2015-02-20 | 2016-08-25 | キヤノン株式会社 | Imaging apparatus, electronic device and calculation method for light quantity change property |
JP2018133826A (en) * | 2018-05-30 | 2018-08-23 | キヤノン株式会社 | Imaging apparatus, control method thereof, and control program |
EP3588938A1 (en) | 2018-06-29 | 2020-01-01 | Canon Kabushiki Kaisha | Image pickup apparatus capable of performing image pickup with reduced flicker influence, method for controlling the same, program, and storage medium |
US11012634B2 (en) | 2018-06-29 | 2021-05-18 | Canon Kabushiki Kaisha | Image pickup apparatus capable of performing image pickup with reduced flicker influence, method for controlling the same, and storage medium |
US11284015B2 (en) | 2018-06-29 | 2022-03-22 | Canon Kabushiki Kaisha | Image pickup apparatus capable of performing image pickup with reduced flicker influence, method for controlling the same, and storage medium |
EP4322544A2 (en) | 2018-06-29 | 2024-02-14 | Canon Kabushiki Kaisha | Image pickup apparatus capable of performing image pickup with reduced flicker influence, method for controlling the same, program, and storage medium |
CN114268744A (en) * | 2021-12-16 | 2022-04-01 | 上海研鼎信息技术有限公司 | Camera flicker test system and test method |
CN114268744B (en) * | 2021-12-16 | 2024-03-29 | 上海研鼎信息技术有限公司 | Camera flicker test system and test method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9503616B2 (en) | Image capturing apparatus | |
US9294684B2 (en) | Photographing apparatus capable of flash light emission | |
US7920782B2 (en) | Imaging device | |
KR101295648B1 (en) | Image capturing apparatus and control method therefor | |
KR101757654B1 (en) | Image capturing apparatus, method of controlling the same, and storage medium | |
TWI423664B (en) | Imaging apparatus and exposure control method | |
JP5775732B2 (en) | Camera and camera control method | |
JP2008187615A (en) | Imaging device, imaging apparatus, control method, and program | |
KR20090098197A (en) | Digital photographing apparatus to control flash lighting, controlling method for the same, and recording medium which records the program for carrying the same method | |
JP2008191335A (en) | Imaging apparatus and imaging system | |
JP5597243B2 (en) | Imaging device | |
JP2009213076A (en) | Imaging device and control method thereof | |
JP2008070611A (en) | Imaging apparatus, exposure condition adjustment method and program | |
JP2006098771A (en) | Focus detecting device, imaging apparatus, imaging system, and lens unit | |
JP2011166753A (en) | Imaging apparatus | |
JP6478670B2 (en) | Image processing apparatus and control method thereof | |
JP2008236032A (en) | Photographing device | |
JP5791765B2 (en) | Imaging apparatus and control method thereof | |
JP2009053568A (en) | Imaging apparatus and imaging system | |
JP5473493B2 (en) | Imaging apparatus and control method thereof | |
JP6388392B2 (en) | Scene discrimination device, control method thereof, control program, and imaging device | |
US10873707B2 (en) | Image pickup apparatus and method, for ensuring correct color temperature based on first or second preliminary light emission of a flash device | |
JP2013044928A (en) | Imaging apparatus and imaging method | |
JP2013044938A (en) | Imaging apparatus and imaging method | |
JP6924089B2 (en) | Imaging device and its control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110510 |