JP2012227893A - Camera and control method therefor - Google Patents

Camera and control method therefor Download PDF

Info

Publication number
JP2012227893A
JP2012227893A JP2011096484A JP2011096484A JP2012227893A JP 2012227893 A JP2012227893 A JP 2012227893A JP 2011096484 A JP2011096484 A JP 2011096484A JP 2011096484 A JP2011096484 A JP 2011096484A JP 2012227893 A JP2012227893 A JP 2012227893A
Authority
JP
Japan
Prior art keywords
flicker
camera
value
image sensor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011096484A
Other languages
Japanese (ja)
Other versions
JP5775732B2 (en
Inventor
Yasunori Kudo
泰則 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2011096484A priority Critical patent/JP5775732B2/en
Priority to CN201210111247.1A priority patent/CN102752513B/en
Publication of JP2012227893A publication Critical patent/JP2012227893A/en
Application granted granted Critical
Publication of JP5775732B2 publication Critical patent/JP5775732B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To release constrained flicker countermeasure control quickly by detecting disappearance of flicker accurately.SOLUTION: In a camera performing live view display, an imaging element is exposed by setting the integration time Tint of a shift value 502 different from a multiple of the flicker period Tf when the flicker is detected, and a predetermined flicker component is left intentionally within a range capable of correction processing so that disappearance of flicker can be detected by the presence of the flicker component. When the flicker is detected, imaging conditions for flicker countermeasure are set and deterioration of image quality due to flicker is prevented by image processing, e.g. synthesis of a plurality of continuous frames. When the flicker is not detected, the flicker countermeasure is inhibited and video display is performed by setting the quality priority imaging conditions.

Description

本発明は、カメラおよびカメラの制御方法に関する。   The present invention relates to a camera and a camera control method.

交流の商用電源で動作するためにフリッカを持つフリッカ光源の照明下で、フリッカによる動画の画質劣化を防ぐフリッカ対策として特許文献1のように、撮像素子の電子シャッタ速(積分時間)を、商用電源周波数の整数倍とすることや、特許文献2のように、フレームレートにより、シャッタ速を1/100の整数倍か、1/120の整数倍かを切り換えることで、フリッカ周期と撮像素子の制御を同期させてフリッカの影響をなくす技術が提案されている。   As a countermeasure against flicker that prevents image quality deterioration of moving images due to flicker under illumination of a flicker light source having flicker to operate with an AC commercial power supply, the electronic shutter speed (integration time) of the image sensor is commercial By setting the integral frequency of the power supply frequency or switching the shutter speed to an integral multiple of 1/100 or an integral multiple of 1/120 according to the frame rate as in Patent Document 2, the flicker cycle and the imaging element are switched. There has been proposed a technique for eliminating the influence of flicker by synchronizing the control.

特公昭61−056915号公報Japanese Patent Publication No. 61-056915 特許第3826904号公報Japanese Patent No. 3826904

上述の従来技術は、フリッカ光源下では画質向上に有効だが、このフリッカ対策を行った後のイメージャから出力されるデータにはフリッカ成分がほとんど無いために、フリッカ光源下から離れて、フリッカ成分を持たない非フリッカ光源下で撮影していても被写体からフリッカ成分が無くなったこと、すなわちフリッカ対策が不要になったことを検出することができない。
フリッカを考慮してシャッタ速を制限すると、他の絞りや感度で細かい露出あわせをする複雑な補正処理を行う必要が生じる。
すなわち、絞りを頻繁に変更すれば被写界深度が頻繁に変化して落ち着きの無い動画像になり、感度を高くするとノイズ増加により動画の画質低下につながる。
このため、非フリッカ光源下では、フリッカ対策のためのシャッタ速の制限を取り除きシャッタ速を細かく制御することが望ましい。
The above-described prior art is effective for improving the image quality under the flicker light source, but since the data output from the imager after the countermeasure against the flicker has almost no flicker component, the flicker component is separated from the flicker light source. Even if shooting is performed under a non-flicker light source that does not have, it is impossible to detect that the flicker component has disappeared from the subject, that is, it is not necessary to take countermeasures against flicker.
If the shutter speed is limited in consideration of flicker, it is necessary to perform complicated correction processing for fine exposure adjustment with another aperture and sensitivity.
That is, if the aperture is changed frequently, the depth of field changes frequently, resulting in a moving image that does not become settled. If the sensitivity is increased, the image quality of the moving image is reduced due to increased noise.
For this reason, under a non-flicker light source, it is desirable to finely control the shutter speed by removing the restriction on the shutter speed as a countermeasure against flicker.

本発明の目的は、フリッカの消失を的確に検出し、制約の多いフリッカ対策制御を速やかに解除することが可能な技術を提供することにある。
本発明の他の目的は、ライブビューにおける画品質をフリッカの有無に応じて最適な状態に維持すること可能な技術を提供することにある。
An object of the present invention is to provide a technique capable of accurately detecting disappearance of flicker and quickly releasing flicker countermeasure control with many restrictions.
Another object of the present invention is to provide a technique capable of maintaining an image quality in a live view in an optimum state according to the presence or absence of flicker.

本発明の第1の観点は、光を電気信号に変換する撮像素子の出力より画像データを取得する撮像手段と、
前記撮像素子の出力から被写体の輝度を検出する輝度検出手段と、
前記輝度検出手段により得られた前記被写体の輝度に基づいて、前記撮像素子の積分時間を制御する露出制御手段と、
前記被写体がフリッカ光源で照明されているフリッカ状態を検出するフリッカ検出手段と、
を具備したカメラにおいて、
前記露出制御手段は、前記フリッカ検出手段が前記フリッカ状態を検出した場合に、商用電源周期を整数倍した第1の値から当該第1の値に応じた所定の第2の値を加減算して得られた第3の値を、積分時間として前記撮像素子を制御する
ことを特徴としたカメラを提供する。
According to a first aspect of the present invention, there is provided an imaging unit that acquires image data from an output of an imaging device that converts light into an electrical signal;
Luminance detection means for detecting the luminance of the subject from the output of the image sensor;
Exposure control means for controlling the integration time of the image sensor based on the brightness of the subject obtained by the brightness detection means;
Flicker detection means for detecting a flicker state in which the subject is illuminated by a flicker light source;
In a camera equipped with
When the flicker detection unit detects the flicker state, the exposure control unit adds or subtracts a predetermined second value corresponding to the first value from a first value obtained by multiplying the commercial power cycle by an integer. The camera is characterized in that the image sensor is controlled using the obtained third value as an integration time.

本発明の第2の観点は、被写体がフリッカ光源で照明されているフリッカ状態を撮像素子の出力から検出したとき前記撮像素子の積分時間を変更するカメラの制御方法において、
前記フリッカ状態が完全に消失するフリッカ周期の整数倍の第1の値から当該第1の値に応じた第2の値を加減算した第3の値を前記撮像素子の積分時間に設定する第1ステップと、
前記第2の値に応じて前記撮像素子の出力に残存するフリッカ成分による前記被写体の輝度変動を打ち消す補正処理を施した画像信号を表示装置に出力する第2ステップと、
を含むカメラの制御方法を提供する。
According to a second aspect of the present invention, there is provided a camera control method for changing an integration time of the image sensor when a flicker state in which a subject is illuminated with a flicker light source is detected from an output of the image sensor.
A first value obtained by adding or subtracting a second value corresponding to the first value from a first value that is an integral multiple of the flicker cycle at which the flicker state completely disappears is set as the integration time of the image sensor. Steps,
A second step of outputting to the display device an image signal that has been subjected to correction processing that cancels luminance fluctuations of the subject due to a flicker component remaining in the output of the image sensor in accordance with the second value;
The control method of the camera containing is provided.

本発明によれば、フリッカの消失を的確に検出し、制約の多いフリッカ対策制御を速やかに解除することが可能な技術を提供することができる。
また、ライブビューにおける画品質をフリッカの有無に応じて最適な状態に維持すること可能な技術を提供することができる。
According to the present invention, it is possible to provide a technique capable of accurately detecting disappearance of flicker and quickly releasing flicker countermeasure control with many restrictions.
In addition, it is possible to provide a technique capable of maintaining the image quality in the live view in an optimum state according to the presence or absence of flicker.

本発明の一実施の形態であるカメラの制御方法を実施するカメラの構成の一例を示す概念図である。It is a conceptual diagram which shows an example of a structure of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の一例を示すフローチャートである。It is a flowchart which shows an example of an effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の一例を示す概念図である。It is a conceptual diagram which shows an example of the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. ローリングシャッタ方式の撮像素子を用いるカメラにおけるフリッカの影響と、連続フレーム平均の効果を示す概念図である。It is a conceptual diagram which shows the influence of the flicker in the camera using the image pick-up element of a rolling shutter system, and the effect of a continuous frame average. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の一例を示すプログラム線図である。It is a program diagram which shows an example of the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 従来のフリッカを考慮したプログラム線図である。It is a program diagram in consideration of conventional flicker. 被写体の明るさの時間変化の中で、フリッカ成分のみを抽出したグラフのモデル図である。FIG. 5 is a model diagram of a graph in which only flicker components are extracted in the time change of the brightness of an object. 本発明の参考技術でフリッカ周期の倍数で撮像素子の積分時間を設定するフリッカ対策の作用を示す概念図である。It is a conceptual diagram which shows the effect | action of the countermeasure against flicker which sets the integration time of an image pick-up element by the multiple of a flicker period with the reference technique of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の一例を示す概念図である。It is a conceptual diagram which shows an example of the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラで用いられるシャッタ速テーブルの構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the shutter speed table used with the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラで用いられるシャッタ速テーブルの構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the shutter speed table used with the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラで用いられるプログラム線図である。It is a program diagram used with the camera which implements the control method of the camera which is one embodiment of the present invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用を説明する概念図である。It is a conceptual diagram explaining the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用を説明する概念図である。It is a conceptual diagram explaining the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用を説明する概念図である。It is a conceptual diagram explaining the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用を説明する概念図である。It is a conceptual diagram explaining the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラのフリッカ対策のライブビュー表示の一例を示す概念図である。It is a conceptual diagram which shows an example of the live view display of the countermeasure against the flicker of the camera which implements the control method of the camera which is one embodiment of this invention. フリッカ成分が強い場合のライブビュー表示の画像を示す概念図である。It is a conceptual diagram which shows the image of a live view display when a flicker component is strong. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の変形例を示すフローチャートである。It is a flowchart which shows the modification of the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用のさらに他の変形例を示すフローチャートである。It is a flowchart which shows the further another modification of the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention. 本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用のさらに他の変形例を示す概念図である。It is a conceptual diagram which shows the further another modification of the effect | action of the camera which implements the control method of the camera which is one embodiment of this invention.

本実施の形態では、一態様として、カメラの撮像素子の出力におけるフリッカ検出後、電子シャッタ速(積分時間、露出時間)を変更する制御において、フリッカが完全に消失するフリッカ周期の整数倍の時間(第1の値)に、フリッカ成分の強度や、整数倍の倍数に応じた時間(第2の値)を加減算した積分時間(第3の値)に設定する。加減算する時間は、フリッカ検出が可能である最低限レベルであり、フリッカの強度により求められる時間である。
そして、露出時間をフリッカ周期の整数倍からズラした分、残されたフリッカ成分による輝度変動を打ち消す方向に画処理ゲインをかけた画像信号を、液晶表示などの後処理に送る。
このようにすることで、イメージャから出力されるデータにはフリッカ検出に必要な程度のフリッカ成分が残されており、フリッカ対策制御中もフリッカの有無を監視しつづけることが可能となる。
フリッカ成分が消失したとき、制約の多いプログラム線図や画像処理等によるフリッカ対策制御を停止させる。
つまり、被写体の輝度が、フリッカ周期の倍数の積分時間近傍で狙いの露出レベルにできる範囲内において、上述の制御を行うことで、撮像素子から出力されるデータのフリッカ成分の強度を制御することで、フリッカ検出手段が、フリッカ対策中も常時、フリッカ検出の有無を判断できるようにし、かつ、フリッカ成分の軽減手段が対応できる強度のフリッカ成分に抑える制御で実現する。
これにより、被写体の照明が、フリッカがある状態から無い状態になったとき、カメラがフリッカ消失を検出し、カメラ制御や画質に制約が生じるフリッカ対策制御を速やかに解除することが可能になる。
この結果、例えば、ライブビューにおけるスルー画品質を、フリッカ有無に応じて最適な状態に維持することが可能になる。
In the present embodiment, as one aspect, in the control for changing the electronic shutter speed (integration time, exposure time) after flicker detection in the output of the image sensor of the camera, a time that is an integral multiple of the flicker cycle during which the flicker disappears completely The (first value) is set to an integration time (third value) obtained by adding / subtracting the time (second value) corresponding to the flicker component intensity or a multiple of an integer multiple. The addition / subtraction time is the minimum level at which flicker detection is possible, and is the time determined by the flicker intensity.
Then, an image signal obtained by multiplying the exposure time by an integral multiple of the flicker cycle and multiplied by the image processing gain in a direction to cancel the luminance fluctuation due to the remaining flicker component is sent to post-processing such as liquid crystal display.
By doing so, flicker components necessary for flicker detection remain in the data output from the imager, and it is possible to continue monitoring the presence or absence of flicker even during flicker countermeasure control.
When the flicker component disappears, the flicker countermeasure control by the program diagram or image processing with many restrictions is stopped.
In other words, the intensity of the flicker component of the data output from the image sensor is controlled by performing the above-described control within the range where the luminance of the subject can reach the target exposure level in the vicinity of the integration time that is a multiple of the flicker cycle. Thus, the flicker detection means can always determine whether or not flicker is detected even during flicker countermeasures, and the flicker component mitigation means can control the flicker component to be able to cope with the intensity.
As a result, when the illumination of the subject is changed from the state with flicker to the state without flicker, the camera detects flicker disappearance and can quickly cancel the flicker countermeasure control that restricts camera control and image quality.
As a result, for example, the live view quality in the live view can be maintained in an optimum state according to the presence or absence of flicker.

以下、図面を参照しながら、本発明の実施の形態について詳細に説明する。
[撮影装置の構成]
図1は、本発明の一実施の形態であるカメラの制御方法を実施するカメラの構成の一例を示す概念図である。
図2は、本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の一例を示すフローチャートである。
図3は、本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の一例を示す概念図である。
図1に例示されるように、本実施の形態では、撮影装置であるカメラとして、デジタル一眼レフカメラに適用した例を示す。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[Configuration of Shooting Device]
FIG. 1 is a conceptual diagram showing an example of the configuration of a camera that implements a camera control method according to an embodiment of the present invention.
FIG. 2 is a flowchart showing an example of the operation of the camera that implements the camera control method according to the embodiment of the present invention.
FIG. 3 is a conceptual diagram showing an example of the operation of the camera that implements the camera control method according to the embodiment of the present invention.
As illustrated in FIG. 1, the present embodiment shows an example in which the present invention is applied to a digital single-lens reflex camera as a camera that is a photographing apparatus.

図1に示される本実施の形態のデジタル一眼レフカメラ(以下、単に「カメラM」と記す)は、ボディユニット100と、例えば交換可能なレンズユニット(すなわちレンズ鏡筒)200を備えている。
ボディユニット100には、撮影した画像データを記録しておく記録メディア131が装着可能となっている。記録メディア131は、通信コネクタ130を介してボディユニット100に接続される。
レンズユニット200は、ボディユニット100の前面に設けられた、図示しないレンズマウントを介して着脱自在であり、このカメラMにおいて交換可能である。
このレンズユニット200は、撮影レンズ210aおよび撮影レンズ210bと、絞り203と、レンズ駆動機構204と、絞り駆動機構202と、レンズ制御用マイクロコンピュータ(以下、「レンズ制御マイコン」と記す)201とから構成されている。
The digital single-lens reflex camera (hereinafter simply referred to as “camera M”) of the present embodiment shown in FIG. 1 includes a body unit 100 and, for example, a replaceable lens unit (that is, a lens barrel) 200.
The body unit 100 can be loaded with a recording medium 131 for recording photographed image data. The recording medium 131 is connected to the body unit 100 via the communication connector 130.
The lens unit 200 is detachable via a lens mount (not shown) provided on the front surface of the body unit 100, and can be exchanged in the camera M.
The lens unit 200 includes a photographic lens 210 a and a photographic lens 210 b, a diaphragm 203, a lens driving mechanism 204, a diaphragm driving mechanism 202, and a lens control microcomputer (hereinafter referred to as “lens control microcomputer”) 201. It is configured.

撮影レンズ210aおよび撮影レンズ210bは、レンズ駆動機構204内に備えられている図示しないDCモータによって、光軸方向に駆動される。
絞り203は、絞り駆動機構202内に備えられている図示しないステッピングモータによって駆動される。
また、レンズ制御マイコン201は、レンズ駆動機構204や絞り駆動機構202などの、レンズユニット200内の各部を駆動制御する。
このレンズ制御マイコン201は、後述するボディ制御マイコン101と、通信コネクタ160を介して電気的に接続されており、ボディ制御マイコン101と各種のデータの授受が可能であり、ボディ制御マイコン101により制御される。
一方、ボディユニット100は、以下のように構成されている。
The taking lens 210a and the taking lens 210b are driven in the optical axis direction by a DC motor (not shown) provided in the lens driving mechanism 204.
The diaphragm 203 is driven by a stepping motor (not shown) provided in the diaphragm drive mechanism 202.
The lens control microcomputer 201 drives and controls each part in the lens unit 200 such as the lens driving mechanism 204 and the aperture driving mechanism 202.
The lens control microcomputer 201 is electrically connected to a body control microcomputer 101 (described later) via a communication connector 160, and can exchange various data with the body control microcomputer 101, and is controlled by the body control microcomputer 101. Is done.
On the other hand, the body unit 100 is configured as follows.

レンズユニット200内の撮影レンズ210aおよび撮影レンズ210b、絞り203等の光学系を介して入射される図示しない被写体からの光束の光軸上には、フォーカルプレーン式のシャッタユニット120と、前記光学系を通過した被写体像を光電変換するための撮像素子111が設けられている。
撮像素子111は、撮像素子駆動IC110により光電変換等の動作が制御される。
すなわち、撮影レンズ210aおよび撮影レンズ210bを通った光束は、シャッタユニット120を経由して撮像素子111の撮像面に結像される。
撮像素子111は、上述のようにして結像された被写体像を光電変換して、アナログ電気信号に変換する。
前記電気信号は、撮像素子駆動IC110により、画像処理IC102が処理するためのデジタル電気信号に変換され、画像処理IC102により、画像信号に変換される。
On the optical axis of a light beam from a subject (not shown) that is incident through an optical system such as the photographing lens 210a and the photographing lens 210b in the lens unit 200 and the diaphragm 203, a focal plane shutter unit 120 and the optical system are provided. An image sensor 111 is provided for photoelectrically converting a subject image that has passed through.
The image sensor 111 is controlled in operation such as photoelectric conversion by the image sensor driving IC 110.
That is, the light flux that has passed through the photographing lens 210 a and the photographing lens 210 b is imaged on the imaging surface of the imaging element 111 via the shutter unit 120.
The image sensor 111 photoelectrically converts the subject image formed as described above and converts it into an analog electrical signal.
The electric signal is converted into a digital electric signal to be processed by the image processing IC 102 by the image sensor driving IC 110 and converted into an image signal by the image processing IC 102.

また、ボディユニット100は、撮像素子111、撮像素子駆動IC110と、記憶領域として設けられた半導体メモリ104と、液晶モニタ140と、通信コネクタ130を介して記録メディア131とが、画像処理を行うための画像処理IC102に接続されており、これらは、電子撮像機能と共に電子記録表示機能を提供できるように構成されている。
半導体メモリ104は、例えば、SDRAM(Synchronous Dynamic Random Access Memory)等で構成されている。
In the body unit 100, the image sensor 111, the image sensor drive IC 110, the semiconductor memory 104 provided as a storage area, the liquid crystal monitor 140, and the recording medium 131 via the communication connector 130 perform image processing. These are configured to be able to provide an electronic recording display function together with an electronic imaging function.
The semiconductor memory 104 is composed of, for example, an SDRAM (Synchronous Dynamic Random Access Memory) or the like.

記録メディア131は、各種の半導体メモリカードや外付けのハードディスクドライブ(HDD)等の外部記録媒体であり、通信コネクタ130を介してボディユニット100と通信可能、且つ交換可能に装着される。   The recording medium 131 is an external recording medium such as various semiconductor memory cards or an external hard disk drive (HDD), and is attached to the body unit 100 via the communication connector 130 so as to be exchangeable.

また、画像処理IC102は、このボディユニット100内の各部を制御するためのボディ制御用マイクロコンピュータ(以下、ボディ制御マイコンと略記する)101に接続されている。
このボディ制御マイコン101は、カメラMの全体の動作を制御する制御手段の他、連写時の撮影間隔を計測する図示しないタイマ、計数手段、モード設定手段、検出手段、判定手段、演算手段等の機能を有している。
これらのボディ制御マイコン101の機能は、例えば、制御プログラム103によって実現される。すなわち、ボディ制御マイコン101が制御プログラム103を実行することによって、ボディ制御マイコン101の制御機能が実現される。
本実施の形態の場合には、後述のフローチャートに例示されるフリッカ関連の制御機能や、ライブビュー関連の制御機能が制御プログラム103によって実現される。
The image processing IC 102 is connected to a body control microcomputer (hereinafter abbreviated as a body control microcomputer) 101 for controlling each part in the body unit 100.
The body control microcomputer 101 includes a control unit that controls the overall operation of the camera M, a timer (not shown) that measures a shooting interval during continuous shooting, a counting unit, a mode setting unit, a detection unit, a determination unit, a calculation unit, and the like. It has the function of
The functions of these body control microcomputers 101 are realized by a control program 103, for example. That is, when the body control microcomputer 101 executes the control program 103, the control function of the body control microcomputer 101 is realized.
In the case of the present embodiment, a flicker-related control function and a live view-related control function exemplified in a flowchart described later are realized by the control program 103.

なお、ボディ制御マイコン101は、レンズユニット200が接続される通信コネクタ160およびシャッタ制御駆動回路121等と接続されており、更に、カメラMの動作状態を表示出力によって撮影者へ告知するための液晶モニタ140と、カメラ操作スイッチ150(SW)と、図示されていない電源が接続されている。
なお、ボディ制御マイコン101とレンズ制御マイコン201とは、レンズユニット200をボディユニット100へ装着することにより、通信コネクタ160を介して通信可能に電気的接続がなされる。
そして、レンズ制御マイコン201がボディ制御マイコン101に従属して連携動作することで、デジタルカメラとして稼動するようになっている。
The body control microcomputer 101 is connected to the communication connector 160 to which the lens unit 200 is connected, the shutter control drive circuit 121, and the like, and further, a liquid crystal for notifying the photographer of the operation state of the camera M by display output. A monitor 140, a camera operation switch 150 (SW), and a power source (not shown) are connected.
The body control microcomputer 101 and the lens control microcomputer 201 are electrically connected to each other via the communication connector 160 by attaching the lens unit 200 to the body unit 100.
The lens control microcomputer 201 operates in cooperation with the body control microcomputer 101 to operate as a digital camera.

シャッタ制御駆動回路121は、シャッタユニット120における図示しない先幕と後幕との動きを制御すると共に、ボディ制御マイコン101との間で、シャッタの開閉動作を制御する信号と先幕が走行完了時の信号の授受を行う。
液晶モニタ140は、カメラMの動作状態を可視化してユーザ(撮影者)へ告知するものである。
The shutter control drive circuit 121 controls the movement of a front curtain and a rear curtain (not shown) in the shutter unit 120, and when a signal for controlling the opening / closing operation of the shutter and the front curtain is completed with the body control microcomputer 101. Send and receive signals.
The liquid crystal monitor 140 visualizes the operating state of the camera M and notifies the user (photographer).

また、液晶モニタ140は、必要に応じて、液晶画面の表面に生じる押圧力の変化や静電容量の変化から指が触れた位置を検出するタッチパネルやタッチスクリーンの機能を備えることができる。
その場合、液晶モニタ140にユーザが指で触れると、ユーザが触れた位置を検出しボディ制御マイコン101へ検出位置を送信する。
液晶モニタ140で検出された位置に応じて、ボディ制御マイコン101が撮影モード変更やメニューを表示するなどの制御を行うことで、液晶モニタ140を操作手段として用いることもできる。
図1および図2では、液晶モニタ140から、画像処理IC102を経由してボディ制御マイコン101へ情報を送るものを図示している。
In addition, the liquid crystal monitor 140 can have a touch panel or touch screen function for detecting a position touched by a finger from a change in pressing force or a change in capacitance generated on the surface of the liquid crystal screen as necessary.
In that case, when the user touches the liquid crystal monitor 140 with a finger, the position touched by the user is detected and the detected position is transmitted to the body control microcomputer 101.
Depending on the position detected by the liquid crystal monitor 140, the body control microcomputer 101 can perform control such as changing the shooting mode or displaying a menu, whereby the liquid crystal monitor 140 can be used as an operation means.
FIGS. 1 and 2 illustrate a case in which information is sent from the liquid crystal monitor 140 to the body control microcomputer 101 via the image processing IC 102.

カメラ操作スイッチ150は、例えば撮影動作の実行を指示するレリーズスイッチ、電源のオン・オフを切り替えるパワースイッチなど、ユーザがカメラMを操作するために必要な操作ボタン等の操作手段を含むスイッチ群で構成される。   The camera operation switch 150 is a switch group including operation means such as an operation button necessary for the user to operate the camera M, such as a release switch for instructing execution of a photographing operation, a power switch for switching on / off the power source, and the like. Composed.

ボディユニット100には、電源として備えられた図示しない電池の電圧を、カメラMの上述の各回路やユニットが必要とする電圧に変換して供給する図示しない電源回路が設けられている。
なお、特に図示しないが、フラッシュ等の機能をボディユニット100に備えていてもよい。その場合には、図示しないフラッシュ用通信コネクタを介して図示しないフラッシュ制御用マイクロコンピュータおよび発光制御回路等がボディ制御マイコン101に接続される。
The body unit 100 is provided with a power supply circuit (not shown) that converts a voltage of a battery (not shown) provided as a power source into a voltage required by each circuit and unit of the camera M and supplies the converted voltage.
Although not particularly illustrated, the body unit 100 may be provided with a function such as a flash. In that case, a flash control microcomputer and a light emission control circuit (not shown) are connected to the body control microcomputer 101 via a flash communication connector (not shown).

次に、本実施の形態のカメラMによる撮影動作およびライブビュー動作の一例について説明する。
[撮影動作]
まず、ボディ制御マイコン101により画像処理IC102が制御されて、撮像素子111と撮像素子駆動IC110から画像データが画像処理IC102に入力されると、画像処理IC102は、この画像データを、一時保存用メモリである半導体メモリ104に保存する。
なお、半導体メモリ104は、画像処理IC102が画像処理のためにワークエリアとしても使用される。
また、画像処理IC102は、この画像データをJPEGデータ等の所望のデータフォーマットに変換する画像処理を行って、記録メディア131に保存させることができる。
Next, an example of a shooting operation and a live view operation performed by the camera M according to the present embodiment will be described.
[Shooting operation]
First, when the image processing IC 102 is controlled by the body control microcomputer 101 and image data is input to the image processing IC 102 from the imaging element 111 and the imaging element driving IC 110, the image processing IC 102 stores the image data in a temporary storage memory. Is stored in the semiconductor memory 104.
The semiconductor memory 104 is also used as a work area for the image processing IC 102 to perform image processing.
Further, the image processing IC 102 can perform image processing for converting the image data into a desired data format such as JPEG data, and can store the image data in the recording medium 131.

シャッタ制御駆動回路121は、ボディ制御マイコン101からシャッタを駆動制御するための信号を受け取るとシャッタユニット120を制御してシャッタの開閉動作を行わせる。
それと共に、フラッシュを備えている場合には、所定のタイミングで、ボディ制御マイコン101から図示しないフラッシュ用通信コネクタを介してフラッシュ制御用マイクロコンピュータおよび発光制御回路に対し、フラッシュを発光させるための発光信号を出力する。
When the shutter control drive circuit 121 receives a signal for controlling the drive of the shutter from the body control microcomputer 101, the shutter control drive circuit 121 controls the shutter unit 120 to open and close the shutter.
At the same time, if a flash is provided, light emission for causing the flash to be emitted from the body control microcomputer 101 to the flash control microcomputer and the light emission control circuit via a flash communication connector (not shown) at a predetermined timing. Output a signal.

このときに撮像素子111と撮像素子駆動IC110から出力された画像データに対して所定の画像処理を行って記録メディア131に記録することで撮影動作が完了する。
撮影レンズ210aおよび撮影レンズ210bからの光束は撮像素子111へと導かれる。
At this time, predetermined image processing is performed on the image data output from the image sensor 111 and the image sensor drive IC 110 and recorded in the recording medium 131, whereby the photographing operation is completed.
The light beams from the photographing lens 210 a and the photographing lens 210 b are guided to the image sensor 111.

例えば1秒当たり30枚程度の割合で連続的に露光を行い、このときに撮像素子111と撮像素子駆動IC110から出力される画像データを、画像処理IC102によりビデオ信号に変換して液晶モニタ140に与えることで、被写体の動画像を実時間で液晶モニタ140に表示させることができる。
このような表示は「ライブビュー」と呼ばれており、周知である。なお、液晶モニタ140での画像データのライブビュー表示を本実施の形態のカメラMで行わせるには、ユーザが上述したカメラ操作スイッチ150の中のモード変更スイッチを操作して、ライブビューモードを選択すればよい。
なお、ライブビュー動作時には、撮影レンズ210aおよび撮影レンズ210bからの光束は常に撮像素子111へと導かれているので、被写体の明るさの測光処理や、被写体に対する周知の測距処理を、撮像素子111と撮像素子駆動IC110から出力される画像データに基づいて画像処理IC102に行わせることができる。
以降、このようにして、撮像素子111と撮像素子駆動IC110から出力される画像データに基づいて画像処理IC102およびボディ制御マイコン101により行われる被写体の明るさの測光処理および被写体に対する測距および自動合焦(AF)の処理を、それぞれ「ライブビュー測光」および「ライブビューAF」と称することとする。
For example, the exposure is continuously performed at a rate of about 30 sheets per second, and image data output from the image sensor 111 and the image sensor drive IC 110 at this time is converted into a video signal by the image processing IC 102 and is applied to the liquid crystal monitor 140. By providing, the moving image of the subject can be displayed on the liquid crystal monitor 140 in real time.
Such a display is called “live view” and is well known. In addition, in order to perform live view display of image data on the liquid crystal monitor 140 with the camera M of the present embodiment, the user operates the mode change switch in the camera operation switch 150 described above to change the live view mode. Just choose.
In the live view operation, since the light flux from the photographing lens 210a and the photographing lens 210b is always guided to the image sensor 111, photometry processing of the brightness of the subject and known distance measurement processing for the subject are performed. 111 and the image processing IC 102 based on image data output from the image sensor driving IC 110.
Thereafter, in this manner, subject brightness photometry processing and subject distance measurement and automatic adjustment performed by the image processing IC 102 and the body control microcomputer 101 based on the image data output from the image sensor 111 and the image sensor drive IC 110 are performed. The focus (AF) processing is referred to as “live view metering” and “live view AF”, respectively.

次に、本実施の形態のカメラMにおける、フリッカ対策に関連した動作の一例について図2のフローチャート等を用いて説明する。
本実施の形態のカメラMはカメラ操作スイッチ150に存在する電源SWを投入すると、図2に例示される下記の一連の動作を行う。
Next, an example of an operation related to flicker countermeasures in the camera M of the present embodiment will be described with reference to the flowchart of FIG.
The camera M according to the present embodiment performs the following series of operations illustrated in FIG. 2 when the power SW existing in the camera operation switch 150 is turned on.

(ステップS101)
このステップS101では、ボディユニット100の電源がOFFからONになったことで行う制御を行う。
一般的にイニシャライズ処理と呼ばれているもので、ボディユニット100に設けられたマイクロコンピュータやICなどの起動、ボディユニット100に接続されているレンズユニット200への電源供給と通信による初期化、などを行う。
(Step S101)
In step S101, the control performed when the power supply of the body unit 100 is switched from OFF to ON is performed.
Generally called initialization processing, activation of a microcomputer or IC provided in the body unit 100, initialization by power supply and communication to the lens unit 200 connected to the body unit 100, etc. I do.

(ステップS102)
このステップS102では、前述のライブビュー動作を開始する準備を行う。すなわち、レンズユニット200へ通信コネクタ160を介して絞り駆動指示を行い、予め決められた所定の絞り値を設定するとともに、撮像素子駆動IC110へ電子シャッタ積分時間と感度の設定を行い、シャッタ制御駆動回路121によりシャッタユニット120を開いて撮像素子111が受光するようにする、という制御を行う。
(Step S102)
In step S102, preparation for starting the above-described live view operation is performed. That is, an aperture drive instruction is given to the lens unit 200 via the communication connector 160, a predetermined aperture value is set in advance, an electronic shutter integration time and sensitivity are set to the image sensor drive IC 110, and shutter control drive is performed. The circuit 121 performs control such that the shutter unit 120 is opened and the image sensor 111 receives light.

(ステップS103)
このステップS103では、前述のライブビュー動作を開始する。
撮像素子111は設定された電子シャッタ速で積分動作を行い、撮像素子駆動IC110を介して画像処理IC102へ撮像出力結果が送られる。
このステップS103の時点では、電子シャッタ速は前述のようなフリッカ光源を意識したシャッタ速にする必要は無い。画質最優先で適切なシャッタ速を選択する。
画像処理IC102は、例えば、図3に例示されるように、撮像素子111に結像した像300aの撮像出力を画像データ300bに変換して液晶モニタ140に表示し、同時に画像処理IC102は、ボディ制御マイコン101に被写体の輝度算出用のデータを送信する。
被写体の輝度算出用のデータとは、撮像素子111に結像した像300aを所定の複数の輝度測定領域300に分割して平均化したデータなど、マイクロコンピュータで被写体の輝度を計算できるような数値データ301であり、この数値データを送付する。
(Step S103)
In step S103, the above-described live view operation is started.
The image sensor 111 performs an integration operation at the set electronic shutter speed, and an image output result is sent to the image processing IC 102 via the image sensor drive IC 110.
At the time of step S103, the electronic shutter speed need not be a shutter speed that is conscious of the flicker light source as described above. Select an appropriate shutter speed with the highest priority on image quality.
For example, as illustrated in FIG. 3, the image processing IC 102 converts an imaging output of an image 300 a formed on the imaging element 111 into image data 300 b and displays it on the liquid crystal monitor 140. Data for calculating the luminance of the subject is transmitted to the control microcomputer 101.
The data for calculating the luminance of the subject is a numerical value that allows the microcomputer to calculate the luminance of the subject, such as data obtained by dividing the image 300a formed on the image sensor 111 into a plurality of predetermined luminance measurement regions 300 and averaging the data. This is data 301, and this numerical data is sent.

(ステップS104)
このステップS104では、ボディ制御マイコン101で輝度計算を行う。
被写体の画像データを複数の輝度測定領域300に分割した数値データ301から、それぞれの分割領域に応じた輝度を算出する。
輝度は撮像素子111と、設定した感度、レンズユニット200に制御させた絞り値、電子シャッタ速(撮像素子111の積分時間と同値)によって、撮像素子111の各輝度測定領域300にどのくらいの光が照射したかが計算される。
(Step S104)
In step S104, the body control microcomputer 101 performs luminance calculation.
From the numerical data 301 obtained by dividing the image data of the subject into a plurality of luminance measurement areas 300, the luminance corresponding to each divided area is calculated.
The brightness depends on the image sensor 111, the set sensitivity, the aperture value controlled by the lens unit 200, and the electronic shutter speed (the same value as the integration time of the image sensor 111). The irradiation is calculated.

(ステップS105)
このステップS105では、得られた各輝度測定領域300毎の輝度からフリッカがあるかどうかを判断する。
ここで、本実施の形態のフリッカ検出の一例について述べる。
商用電源の周波数は50Hzまたは60Hzである。フリッカ対策のなされていない基本的な蛍光灯のフリッカ光源の明滅周波数は、蛍光灯の原理上、電源周波数の2倍となる。すなわち100Hzまたは120Hzである。周期に換算すると、それぞれ1/100[s]=10[ms]、1/120[s]=8.33[ms]となる。
(Step S105)
In step S105, it is determined whether there is flicker from the obtained luminance for each luminance measurement region 300.
Here, an example of flicker detection according to this embodiment will be described.
The frequency of the commercial power supply is 50 Hz or 60 Hz. The flicker frequency of a flicker light source of a basic fluorescent lamp that does not take countermeasures against flicker is twice the power supply frequency due to the principle of the fluorescent lamp. That is, 100 Hz or 120 Hz. When converted into periods, 1/100 [s] = 10 [ms] and 1/120 [s] = 8.33 [ms], respectively.

図4は、ローリングシャッタ方式の撮像素子111を用いるカメラMにおけるフリッカの影響と、連続フレーム平均の効果を示す概念図である。
図4において、上部には、フリッカ成分の輝度と経過時間の関係を示すグラフ401が描かれている。
グラフ401の下側には、ローリングシャッタが画面の上から下へ積分する積分タイミング毎の走査ライン402が図示されている。撮像の垂直同期信号VDと同期したタイミングで撮像の上の走査ライン402が積分を開始し、上から下に向かって順次の走査ライン402へ時間差をもって積分を開始する例である。
FIG. 4 is a conceptual diagram showing the effect of flicker in the camera M using the rolling shutter type image sensor 111 and the effect of continuous frame averaging.
In FIG. 4, a graph 401 showing the relationship between the luminance of the flicker component and the elapsed time is drawn at the top.
On the lower side of the graph 401, a scanning line 402 for each integration timing at which the rolling shutter integrates from the top to the bottom of the screen is shown. This is an example in which the upper scanning line 402 of imaging starts integration at a timing synchronized with the vertical synchronization signal VD of imaging, and integration is started with a time difference from the top to the lower scanning line 402 sequentially.

1フレーム取得中に被写体の輝度が変化すれば、積分するタイミングにより得られる撮像出力は異なる。フリッカ成分の輝度が一番低いタイミングで積分した場合、その走査ライン402は他の走査ライン402に比べ撮像出力が小さく、その結果、図4の下段に図示された撮像データ403の画像のように、中央に暗い縞模様403aが入ることになる。   If the luminance of the subject changes during acquisition of one frame, the imaging output obtained varies depending on the integration timing. When integration is performed at the timing when the luminance of the flicker component is the lowest, the scanning line 402 has a smaller imaging output than the other scanning lines 402, and as a result, like the image of the imaging data 403 illustrated in the lower part of FIG. A dark striped pattern 403a enters in the center.

フリッカ周期Tfとフレームレートが同期していない場合、次の駒では、輝度の一番暗いタイミングで積分する走査ライン402が前のフレームと異なり、暗い縞の位置が変化した撮像データが得られる。
フリッカ周期Tfと、画像取得周期(図では垂直同期信号VDで表される周期)の最小公倍数となるフレーム数の撮像出力の平均値は、上下の走査ライン402の間の撮像出力差が無くなり、結果としてフリッカ成分の影響がほとんど無い撮像データ404を得られる。
When the flicker cycle Tf and the frame rate are not synchronized with each other, in the next frame, the scanning line 402 to be integrated at the darkest timing of luminance is different from the previous frame, and imaging data in which the position of dark stripes is changed is obtained.
The average value of the imaging output of the number of frames that is the least common multiple of the flicker cycle Tf and the image acquisition cycle (the cycle represented by the vertical synchronization signal VD in the figure) eliminates the imaging output difference between the upper and lower scanning lines 402, As a result, it is possible to obtain imaging data 404 that is hardly affected by the flicker component.

ここでの撮像データは、図3で説明したとおり、各輝度測定領域300毎の輝度データにも変換可能であり、同様に平均をとることでフリッカ成分の無い被写界の輝度データを得ることも可能である。
ある1フレームで得られる各輝度測定領域300毎の輝度と、前記複数フレーム分を各輝度測定領域300毎に平均した輝度を、各輝度測定領域300毎に輝度の差分をとることで、フリッカ成分で生じた横縞状の縞模様403aのみの輝度を取得することができる。
簡単な判断例としては、縞の高輝度部と低輝度部の差異が0.5段以上ならフリッカ有り、というようなことである程度判断できる。
この縞模様403aの強度や縞の発生状況から、フリッカ光源の照明下での撮影が否かを判断することができる。
As described with reference to FIG. 3, the imaging data here can be converted into luminance data for each luminance measurement region 300, and similarly, the luminance data of the scene without flicker components can be obtained by taking the average. Is also possible.
A flicker component is obtained by taking a luminance difference between each luminance measurement region 300 and a luminance obtained by averaging the luminance of each luminance measurement region 300 obtained in one frame and the luminance measurement region 300 for each of the plurality of frames. It is possible to acquire the luminance of only the horizontal stripe-like striped pattern 403a generated in the above.
As a simple determination example, it can be determined to some extent that there is flicker if the difference between the high-intensity part and the low-intensity part of the stripe is 0.5 or more.
From the intensity of the stripe pattern 403a and the state of occurrence of the stripe, it can be determined whether or not shooting is performed under the illumination of the flicker light source.

このような判断方法の場合、図2のフローチャートにおいては電源投入後まだ3フレーム未満分の輝度しか取得していない場合は、フリッカ判定できないので、フリッカが無い、という判断をして次の処理を行う。
ステップS104からステップS115の処理ループ中、過去3フレーム以上の被写体の輝度が得られた状態でステップS105のフリッカ検出処理にきて、フリッカ有無を前述の方法で判断することが可能となる。
In the case of such a determination method, in the flowchart of FIG. 2, if only the luminance of less than 3 frames has been acquired after the power is turned on, flicker determination cannot be performed, so it is determined that there is no flicker and the next processing is performed. Do.
During the processing loop from step S104 to step S115, it is possible to determine the presence / absence of flicker by the flicker detection process of step S105 with the luminance of the subject of the past three frames or more being obtained.

(ステップS106)
このステップS106では、フリッカ検出の有無に応じて処理を分ける。ステップS105で行われた判断がフリッカ無しの場合はステップS107へ進む。ステップS105で行われた判断がフリッカ有りの場合はステップS110へ進む。
(Step S106)
In step S106, the process is divided according to the presence or absence of flicker detection. If the determination made in step S105 is no flicker, the process proceeds to step S107. If the determination made in step S105 is flicker, the process proceeds to step S110.

(ステップS107)
このステップS107では、性能優先の露出値の計算を行う。すなわち、輝度に応じて、絞り、シャッタ速、感度を設定する。
図5は、本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の一例を示すプログラム線図である。
輝度の細かい変動に対しては、シャッタ速の調整で対応し、感度は例えばノイズが目立たない感度に設定する。
絞りは変化しないように制御する。
この制御は、静止画撮影を主においたカメラで一般的に採用されている絞り機構の構成で特に有効である制御である。絞りを変えると被写界深度が大きく変化する光学構成や、レンズの絞りによる光量制御を段階的にしか行えない構成の場合に最適な制御である。このような構成では、絞りを動かすことを極力抑えたほうが動画品質がよい。
一方、動画用に特化された絞り機構を持つビデオカメラの絞り機構は、被写界深度が変化しないNDフィルタと呼ばれる減光の光学部材を用いたり、無段階で光量制御できる構成であり、絞りで光量制御しても悪影響を少ないので、輝度の細かい変動を絞りで行うことが可能であり、シャッタ速や感度をなるべく変えないという制御が一般的である。
しかし、どちらにしても絞りの光量制御範囲は無限ではなく、被写体の明るさによってはシャッタ速や感度を変更する必要がある。ここでは、シャッタ制御が制約無く輝度に応じて設定する、という制御を示している。
(Step S107)
In step S107, a performance-priority exposure value is calculated. That is, the aperture, shutter speed, and sensitivity are set according to the luminance.
FIG. 5 is a program diagram showing an example of the operation of the camera that implements the camera control method according to the embodiment of the present invention.
Small fluctuations in brightness are dealt with by adjusting the shutter speed, and the sensitivity is set to a sensitivity where noise is not noticeable, for example.
The aperture is controlled so as not to change.
This control is particularly effective in the configuration of an aperture mechanism that is generally employed in cameras mainly for still image shooting. This control is optimal for an optical configuration in which the depth of field changes greatly when the aperture is changed, or a configuration in which the light amount control by the lens aperture can be performed only in stages. In such a configuration, the moving image quality is better when the movement of the aperture is suppressed as much as possible.
On the other hand, the diaphragm mechanism of a video camera having a diaphragm mechanism specialized for moving images is a configuration that can use a dimming optical member called an ND filter whose depth of field does not change or can control the amount of light in a stepless manner. Even if the amount of light is controlled by the diaphragm, there is little adverse effect. Therefore, it is possible to perform fine fluctuations of the brightness with the diaphragm, and control is generally performed so that the shutter speed and sensitivity are not changed as much as possible.
In any case, however, the light amount control range of the aperture is not infinite, and it is necessary to change the shutter speed and sensitivity depending on the brightness of the subject. Here, the control that the shutter control is set according to the luminance without restriction is shown.

露光時間が1フレームの全時間の半分未満だと、動く被写体が滑らかに表示されない。例えばフレームレートが30fpsの場合、1フレームの全時間は1/30s=33.33msである露光時間が16ms程度間でなら動く被写体が滑らかに表示される。この現象を考慮してフレームレートの全時間〜フレームレートの半分の時間内で輝度に応じて細かく設定する。   If the exposure time is less than half of the total time of one frame, the moving subject is not displayed smoothly. For example, when the frame rate is 30 fps, the moving subject is smoothly displayed if the exposure time is about 16 ms, where the total time of one frame is 1/30 s = 33.33 ms. In consideration of this phenomenon, the frame rate is finely set in accordance with the luminance within the entire frame rate to half the frame rate.

このような露出決定をするプログラム線図を図5に記載する。
図5のプログラム線図601では、説明の簡略化のため感度一定とし、絞りとシャッタ速のみ駆動させる例を記載している。実際は感度も制御することで、絞りやシャッタ速をより動画画質に望ましい制御にする。
図5に記載したプログラム線図601は、縦軸が絞り状態を示すAV値(カッコ内にはF値)、横軸はシャッタ速を示すTV値(カッコ内は秒時)である。
露出値EV(=AV+TV)が大きいほど図の右上方向にプロットされる。
このプログラム線図601では、露出値の細かい制御をシャッタ速で行い、絞りがなるべくF2.8で一定に維持される領域が多くなるようにしている。
これが「性能優先の露出計算である」ということを説明するため、比較として従来のフリッカを考慮したプログラム線図を図6に記載する。
FIG. 5 shows a program diagram for determining such exposure.
In the program diagram 601 in FIG. 5, an example is described in which the sensitivity is constant and only the aperture and the shutter speed are driven to simplify the description. In practice, the sensitivity is also controlled to make the aperture and shutter speed more desirable for moving image quality.
In the program diagram 601 shown in FIG. 5, the vertical axis represents an AV value indicating the aperture state (F value in parentheses), and the horizontal axis represents a TV value indicating shutter speed (seconds in parentheses).
The larger the exposure value EV (= AV + TV) is plotted in the upper right direction of the figure.
In this program diagram 601, fine control of the exposure value is performed at the shutter speed so that the area where the aperture is maintained constant at F2.8 as much as possible is increased.
In order to explain that this is “performance-priority exposure calculation”, a program diagram considering conventional flicker is shown in FIG. 6 as a comparison.

図6は、従来のフリッカを考慮したプログラム線図である。
この図6のプログラム線図602では、シャッタ速を、50Hzフリッカに対応して、フリッカ周期Tfの倍数となるシャッタ速を用いるようにしている。
TV値の制御に制約がある場合、AV値を動かして被写体の輝度に追従することになるが、AV値が常に動き続けることになり、さらにシャッタ速を変更するスレッシュでは絞り値が大きく動くことになる。
シャッタ速と異なり、絞りの駆動速度が遅いことによる輝度追従遅れや、撮像素子が大きいカメラで大きいイメージサークルの光学系ではAV値が小さいときに被写界深度が浅くなるという現象が目立ち、例えば手前の人物にピントが合っていた場合、AV値の変化による被写界深度の変化で、背景が被写体の微妙な輝度に応じてボケたりピントが合ったりを繰り返し、動画の見栄えが落ち着かなくなる。
AV値の変わりに感度(SV)で補えば、ノイズが増減することになる。
FIG. 6 is a program diagram in consideration of conventional flicker.
In the program diagram 602 of FIG. 6, the shutter speed corresponding to 50 Hz flicker is used as a shutter speed that is a multiple of the flicker cycle Tf.
When there is a restriction on the control of the TV value, the AV value is moved to follow the luminance of the subject. However, the AV value always keeps moving, and the aperture value moves greatly in the threshold for changing the shutter speed. become.
Unlike the shutter speed, there is a noticeable phenomenon that the depth of field becomes shallow when the AV value is small in an optical system with a large image circle in a camera with a large image sensor, such as a luminance follow-up delay due to a slow aperture driving speed. When the person in front is in focus, the background is repeatedly blurred or focused according to the subtle brightness of the subject due to the change in the depth of field due to the change in the AV value, and the appearance of the moving image does not settle down.
If the sensitivity (SV) compensates for the change of the AV value, the noise increases or decreases.

(ステップS108)
このステップS108では、ライブビュー中の露出制御を行う。
すなわち、ステップS107で決定された絞り値となるようにレンズユニット200の絞り203を制御し、ステップS107で決定されたシャッタ速と感度で撮像素子111を制御する。
(Step S108)
In step S108, exposure control during live view is performed.
That is, the aperture 203 of the lens unit 200 is controlled so as to be the aperture value determined in step S107, and the image sensor 111 is controlled with the shutter speed and sensitivity determined in step S107.

(ステップS109)
このステップS109では、ライブビュー表示を行う。
すなわち、ステップS108で得られた撮像出力を、画像処理IC102により画像データに変換して液晶モニタ140に表示し、同時に画像処理IC102は、ボディ制御マイコン101に被写体の輝度算出用の数値データ301を送信する。
(Step S109)
In step S109, live view display is performed.
That is, the imaging output obtained in step S108 is converted into image data by the image processing IC 102 and displayed on the liquid crystal monitor 140. At the same time, the image processing IC 102 stores numerical data 301 for calculating the luminance of the subject in the body control microcomputer 101. Send.

(ステップS110)
このステップS110では、フリッカ対策の露出値の計算が行われる。
すなわち、フリッカが検出された場合のシャッタ速、感度、絞りの演算処理を行う。従来の制御は、前述した図6のプログラム線図のように、フリッカ周期Tfの倍数となるシャッタ速を用いていたが、本実施の形態のカメラMではこのシャッタ速の算出方法は、従来とは全く異なる。
図7は、被写体の明るさの時間変化の中で、フリッカ成分のみを抽出したグラフのモデル図である。フリッカ成分は周期的に変化している。また、撮像素子111に届いた光を積分する時間を積分時間Tintとする。このTintの逆数がシャッタ速である。そして積分を開始した時間をtsとする。
(Step S110)
In step S110, an exposure value for flicker countermeasures is calculated.
That is, the shutter speed, sensitivity, and aperture calculation processing when flicker is detected is performed. The conventional control uses a shutter speed that is a multiple of the flicker cycle Tf as shown in the program diagram of FIG. 6 described above. In the camera M of the present embodiment, the shutter speed calculation method is the same as the conventional method. Is completely different.
FIG. 7 is a model diagram of a graph in which only the flicker component is extracted in the temporal change in the brightness of the subject. The flicker component changes periodically. Further, the time for integrating the light reaching the image sensor 111 is defined as an integration time Tint. The reciprocal of this Tint is the shutter speed. The time when the integration is started is assumed to be ts.

ここで、撮像素子111にある光電流変換素子により変換される電流の中のフリッカ成分を、時間tで出力が変わる以下の(1)式の関数で表すと、
Tint時間積分したフリッカ成分の電荷量Qflcは、以下の(2)式で示される。
関数f(t)を積分した関数をF(t)で表すと、上述の(2)式は、以下の(3)式で表すことができる。
ここで、積分時間Tintがフリッカ周期Tfの倍数の場合、以下の(4)式の関係が成立し、積分時間Tintを設定した場合、図8Aのように、撮像出力からフリッカ成分は存在しなくなる。
しかし本実施の形態では完全にフリッカ成分を取り除いてしまうシャッタ速には設定しない。
すると、以下の(5)式で示されるフリッカ成分ΔQが動画像に現れる。
例えば画面の上から下へ順番に積分してゆくローリングシャッタ式の撮像素子111では、図8Bのように縞模様403aとして表される。
本実施の形態では、この縞模様403aを、フリッカ検出可能でかつ、動画品質への影響を抑えた量になるようにコントロールする。
Here, when the flicker component in the current converted by the photocurrent conversion element in the image sensor 111 is expressed by a function of the following expression (1) whose output changes at time t,
The flicker component charge amount Qflc obtained by integrating the Tint time is expressed by the following equation (2).
When a function obtained by integrating the function f (t) is represented by F (t), the above equation (2) can be represented by the following equation (3).
Here, when the integration time Tint is a multiple of the flicker cycle Tf, the relationship of the following expression (4) is established, and when the integration time Tint is set, the flicker component does not exist from the imaging output as shown in FIG. 8A. .
However, in this embodiment, the shutter speed is not set to completely remove the flicker component.
Then, a flicker component ΔQ expressed by the following equation (5) appears in the moving image.
For example, in the rolling shutter type imaging device 111 that integrates sequentially from the top to the bottom of the screen, it is represented as a striped pattern 403a as shown in FIG. 8B.
In the present embodiment, the stripe pattern 403a is controlled so that the flicker can be detected and the amount on the moving image quality is suppressed.

フリッカ成分ΔQの関数f(t)を求めるのは演算コストがかかるため、本実施の形態では、一例として、予め測定されたデータや、フリッカ波形モデルから算出した値から、図9Aおよび図9Bのようなシャッタ速テーブル500を作成して用いる。
このシャッタ速テーブル500は、例えば、半導体メモリ104に設定され、ボディ制御マイコン101(制御プログラム103)からアクセスされる。
図9Aは、光源が50Hzのフリッカであると検出した場合に設定するシャッタ速である。
Since it is computationally expensive to obtain the function f (t) of the flicker component ΔQ, in this embodiment, as an example, from the data calculated in advance and the value calculated from the flicker waveform model, FIG. 9A and FIG. 9B are used. Such a shutter speed table 500 is created and used.
The shutter speed table 500 is set in the semiconductor memory 104, for example, and is accessed from the body control microcomputer 101 (control program 103).
FIG. 9A shows the shutter speed set when it is detected that the light source has 50 Hz flicker.

従来は図9Aのシャッタ速テーブル500の左側で示されるフリッカ周期Tfの倍数501(第1の値)を設定したシャッタ速であるが、本実施の形態では右側のシフト値502(第3の値)ように積分時間を短めにシフトさせている。このシャッタ速テーブル500に沿ったプログラム線図を図9Cに示す。
この図9Cのプログラム線図603では、シャッタ速が早くなるほど、ズラす量(シフト値502に対応)を小さくしているのは、同じ割合のシャッタ速ずらし量でも、シャッタ速が早いほどフリッカの影響が大きく出るためである。ずらす方向は、例示されたプログラム線図603の場合では積分時間を減らす方向だが、積分時間を増やす方向でも同様の効果を得られる。
同様にして、商用電源周波数60Hzの光源でのシャッタ速テーブル500を図9Bに示す。
考え方は上述の図9Aの50Hzの場合と同様である。この図9Aおよび図9Bで例示した本実施の形態のシャッタ速テーブル500のシフト値502の設定に関する基本的な考え方を図10A、図10B、図10Cを参照して説明する。
Conventionally, the shutter speed is set at a multiple 501 (first value) of the flicker cycle Tf shown on the left side of the shutter speed table 500 in FIG. 9A. In this embodiment, the right shift value 502 (third value) is set. ) So that the integration time is shifted short. A program diagram along the shutter speed table 500 is shown in FIG. 9C.
In the program diagram 603 of FIG. 9C, the amount of deviation (corresponding to the shift value 502) decreases as the shutter speed increases. The flicker of the flicker increases as the shutter speed increases even at the same shutter speed shift amount. This is because the impact is significant. The shifting direction is a direction in which the integration time is decreased in the case of the illustrated program diagram 603, but the same effect can be obtained in a direction in which the integration time is increased.
Similarly, a shutter speed table 500 with a light source having a commercial power frequency of 60 Hz is shown in FIG. 9B.
The idea is the same as in the case of 50 Hz in FIG. 9A described above. The basic concept regarding the setting of the shift value 502 of the shutter speed table 500 of this embodiment illustrated in FIGS. 9A and 9B will be described with reference to FIGS. 10A, 10B, and 10C.

図10Aは、フリッカ周期Tfの倍数の積分時間とのズレにより、積分するタイミングで積分値が変わることを示す図である。
横軸下の四角のタイムスロット511はフリッカ1周期分を示しており、「1」、「2」の数字の入った2個のタイムスロット511は、積分時間がフリッカ2周期分を示している。この2周期分はいつのタイミングで積分しても積分値は同じである。積分時間をフリッカ周期Tfで割った余り分タイムスロット512(第2の値)に「余」と記載された時間分の積分値401aは、フリッカによる輝度変動を示すグラフ401の斜線で示される部分の面積で示されるが、積分するタイミングによって斜線の面積が変わる。この積分タイミングによる変化分が、フリッカの影響として現れる。
FIG. 10A is a diagram showing that the integration value changes at the timing of integration due to a deviation from the integration time that is a multiple of the flicker cycle Tf.
A square time slot 511 below the horizontal axis indicates one cycle of flicker, and two time slots 511 including numbers “1” and “2” indicate two cycles of flicker. . The integrated value is the same regardless of the timing of these two cycles. An integral value 401a corresponding to the time indicated as “remainder” in the remainder time slot 512 (second value) obtained by dividing the integration time by the flicker cycle Tf is a portion indicated by diagonal lines of the graph 401 indicating the luminance fluctuation due to flicker. The hatched area changes depending on the integration timing. This change due to the integration timing appears as an effect of flicker.

図10Bは前述の余り分タイムスロット512の部分を小さくしたものである。積分時間全体に対して、余り分タイムスロット512の割合が小さければ、積分タイミングによる積分出力の変動量は小さくフリッカ縞は目立たなくなる。   FIG. 10B is a diagram in which the portion of the time slot 512 described above is reduced. If the ratio of the time slot 512 is small with respect to the entire integration time, the fluctuation amount of the integration output due to the integration timing is small, and the flicker fringe becomes inconspicuous.

図10Cは、フリッカ周期Tfの2周期分から少し少ない時間の積分状態を示す図である。この場合は、フリッカ2周期分の積分時に比べて斜線部分の積分値401aが減る分の変動があると考え、斜線部が図10Bと同様小さいと考えられる。このように、シフト値502において、基本的にはフリッカ周期Tfの倍数からのずらす割合を小さくすればフリッカ成分ΔQは小さくなる、と考えることができる。   FIG. 10C is a diagram illustrating an integration state in a little less time than the two flicker periods Tf. In this case, it is considered that there is a fluctuation corresponding to a decrease in the integral value 401a of the hatched portion compared to the integration for two cycles of flicker, and the hatched portion is considered to be small as in FIG. 10B. Thus, in the shift value 502, it can be considered that the flicker component ΔQ is basically reduced if the ratio of shift from the multiple of the flicker cycle Tf is reduced.

図10Dは積分時間が、フリッカ周期1つ分と2つ分の比較図である。フリッカ周期1つ分のタイムスロット511の積分時間では、2つ分のタイムスロット511に比べて全積分時間に対する斜線の積分値401aの割合が大きくなる。よって、シフト値502において、同じフリッカ成分ΔQを残す場合は、シャッタ速が短いほど、フリッカ周期Tfの倍数からのシャッタ速ずらし分は小さく設定する。   FIG. 10D is a comparison diagram for integration times of one and two flicker periods. In the integration time of the time slot 511 corresponding to one flicker cycle, the ratio of the hatched integration value 401a to the total integration time is larger than that in the time slot 511 corresponding to two. Therefore, when the same flicker component ΔQ is left in the shift value 502, the shutter speed shift from the multiple of the flicker cycle Tf is set to be smaller as the shutter speed is shorter.

このようにして、例えばフリッカ周期1倍(一つのタイムスロット511の場合)の積分時間の場合、例えばフリッカ周期Tfから±5%までずらしてもで動画画質的に目立たたず、フリッカ検出は4%程度あれば検出可能ということであれば5%まで積分時間をずらす。
例えばフリッカ周期2倍(二つのタイムスロット511)の積分時間のときに積分時間をずらせる量が10%であり、かつ、フリッカ検出は7%ずらせば検出可能ということであれば、8%程度シャッタ速をずらす、というシャッタ速テーブル500を作成する。
In this way, for example, in the case of an integration time of flicker period 1 time (in the case of one time slot 511), even if it is shifted from the flicker period Tf by ± 5%, for example, the image quality is not noticeable and flicker detection is 4 If it is possible to detect if approximately%, the integration time is shifted to 5%.
For example, if the amount of shift of the integration time is 10% when the integration time is twice the flicker cycle (two time slots 511), and if the flicker detection can be detected by shifting 7%, it is about 8%. A shutter speed table 500 for shifting the shutter speed is created.

このようにして、シャッタ速がフリッカ周期Tfよりも長秒時で露出制御可能な場合は、フリッカの影響を完全に消すシャッタ速ではなくフリッカ検出に必要な分のフリッカ成分ΔQを残すシャッタ速で制御することができる。
動画画質的に目立たないシャッタ速のずらし量は、ステップS110で後述する画像処理によるフリッカ対策を含めて目立たないずらし量である。
In this way, when the exposure control is possible at a shutter speed longer than the flicker cycle Tf, the shutter speed that leaves the flicker component ΔQ necessary for flicker detection is used instead of the shutter speed that completely eliminates the influence of flicker. Can be controlled.
The shutter speed shift amount that is not conspicuous in terms of the moving image quality is a conspicuous shift amount including a flicker countermeasure by image processing, which will be described later in step S110.

(ステップS111)
このステップS111では、ライブビュー中の露出制御を行う。
フリッカを持つ照明下のライブビュー露出制御では、ステップS110で決定された絞り値となるようにレンズユニット200の絞り203を制御し、ステップS107で決定されたシャッタ速と感度で撮像素子111を制御する。
(Step S111)
In step S111, exposure control during live view is performed.
In live view exposure control under illumination with flicker, the aperture 203 of the lens unit 200 is controlled so as to be the aperture value determined in step S110, and the image sensor 111 is controlled with the shutter speed and sensitivity determined in step S107. To do.

(ステップS112)
このステップS112では、ライブビュー表示において、フリッカ対策の画像処理を行う。
図11は、本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の一例を示す概念図である。
すなわち、フリッカ成分ΔQを含んだ撮像出力から、フリッカ成分ΔQの影響を軽減した画像に変換して液晶モニタ140に表示するために、フリッカ周期Tfと、画像取得周期(垂直同期信号VDで表される信号の周期)の最小公倍数となるフレーム数の撮像出力を平均値化した画像を、画像処理IC102で生成する。
例えば商用電源周波数が50Hzの環境下で、30fpsのフレームレートでライブビューを行う場合には、図11では、ローリングシャッタ方式における例であるが3フレーム(連続した3つの撮像データ403)を合成して画像(撮像データ404)を生成することで、フリッカ成分ΔQを軽減できる。
グローバルシャッタ方式の撮像素子111においても、周期的に駒毎に異なる明るさの絵を合成することで、同様の効果を得ることができる。
このような画像処理による方法は、図12で示すようにフリッカ成分ΔQが強い場合は合成した画像はフリッカ成分が残ってしまう。この他、フリッカ成分ΔQの明暗縞と逆になるゲインをかける方法も公知である。フリッカ成分ΔQで暗い部分を明るく画像処理で上げて、明るい部分は画像処理で暗くする、というような処理で、フリッカ成分ΔQが強ければ、ゲインを強くかけることになるが、ゲインをあげればノイズ増加になり、やはり不自然な絵が生成されることになる。
このように、画像処理によるフリッカ成分対策も限界があるが本実施の形態では、ステップS110で算出するシャッタ速を、ステップS112の画像処理によるフリッカ対策が対応可能な程度のフリッカ成分ΔQを残すようにシャッタ速を決めるので、最終的な液晶モニタ140に常時される絵(撮像データ404)は適切にフリッカ成分ΔQが除去されている。
ただし、被写体が非常に明るい場合で絞りと感度の制御範囲では、シャッタ速をフリッカ周期Tfよりも短くしないと適正な明るさにできない場合は、シャッタ速によるフリッカ成分ΔQの調整はできずステップS112の対策のみでフリッカ成分を消すことになる。そのため絞りはAV値を大きくできるレンズ、感度はより低い感度が設定できる撮像素子111を用いることが望ましい。
(Step S112)
In step S112, flicker countermeasure image processing is performed in live view display.
FIG. 11 is a conceptual diagram showing an example of the operation of a camera that implements the camera control method according to an embodiment of the present invention.
That is, in order to convert the imaging output including the flicker component ΔQ into an image in which the influence of the flicker component ΔQ is reduced and display on the liquid crystal monitor 140, the flicker cycle Tf and the image acquisition cycle (represented by the vertical synchronization signal VD) are displayed. The image processing IC 102 generates an image obtained by averaging the imaging outputs of the number of frames that is the least common multiple of the signal cycle).
For example, when live view is performed at a frame rate of 30 fps under an environment where the commercial power supply frequency is 50 Hz, FIG. 11 shows an example of the rolling shutter method, but three frames (three consecutive imaging data 403) are synthesized. Thus, the flicker component ΔQ can be reduced by generating the image (imaging data 404).
In the global shutter type imaging device 111, the same effect can be obtained by periodically synthesizing pictures with different brightness for each frame.
In such a method based on image processing, as shown in FIG. 12, when the flicker component ΔQ is strong, the synthesized image has a flicker component remaining. In addition, a method of applying a gain that is opposite to the light and dark stripes of the flicker component ΔQ is also known. If the flicker component ΔQ is bright, the dark portion is brightened by image processing, and the bright portion is darkened by image processing. If the flicker component ΔQ is strong, the gain is increased, but if the gain is increased, the noise is increased. As a result, an unnatural picture is generated.
Thus, although flicker component countermeasures by image processing are limited, in the present embodiment, the shutter speed calculated in step S110 is left with a flicker component ΔQ that can cope with flicker countermeasures by image processing in step S112. Since the shutter speed is determined, the flicker component ΔQ is appropriately removed from the picture (imaging data 404) that is constantly displayed on the final liquid crystal monitor 140.
However, if the subject is very bright and the shutter speed is not shorter than the flicker cycle Tf in the aperture and sensitivity control range, the flicker component ΔQ cannot be adjusted based on the shutter speed, and the step S112 cannot be adjusted. The flicker component can be erased only with the above measures. Therefore, it is desirable to use a lens that can increase the AV value for the diaphragm and an image sensor 111 that can set a lower sensitivity.

(ステップS113)
このステップS113ではレリーズSWの操作を判定する。
カメラ操作スイッチ150にあるレリーズSWがユーザにより押された場合、ステップS114に進む。押されなければステップS115へ進む。
(Step S113)
In step S113, the operation of the release SW is determined.
If the user presses the release SW on the camera operation switch 150, the process proceeds to step S114. If not, the process proceeds to step S115.

(ステップS114)
このステップS114では、ライブビュー動作をいったん停止し、上述のステップS104で得られた輝度値から、静止画撮影として最適な絞り値、電子シャッタ速、感度を算出する。
算出された値から、前述の「撮影動作」を行う。
(Step S114)
In step S114, the live view operation is temporarily stopped, and the optimum aperture value, electronic shutter speed, and sensitivity for still image shooting are calculated from the luminance value obtained in step S104 described above.
From the calculated value, the above-described “shooting operation” is performed.

(ステップS115)
このステップS115では、ボディユニット100の電源状態を判定する。
カメラ操作スイッチ150にある電源SWがOFFされていない場合は、次のフレームの露出動作を行うため、ステップS104に戻り、輝度計算を行う。
電源SWがOFFされないかぎり、ステップS104からステップS115を繰り返し行う。繰り返している間、液晶モニタ140には連続した絵が表示されるライブビュー動作となる。
電源SWがOFFされていたら、カメラMの電源をOFFする制御を行う。
(Step S115)
In step S115, the power state of the body unit 100 is determined.
If the power switch SW on the camera operation switch 150 is not turned off, the process returns to step S104 to perform the brightness calculation in order to perform the exposure operation for the next frame.
Unless the power SW is turned off, Steps S104 to S115 are repeated. During the repetition, a live view operation is performed in which successive pictures are displayed on the liquid crystal monitor 140.
If the power SW is turned off, the camera M is turned off.

以上が本実施の形態のカメラおよびカメラの制御方法の動作である。
このように、本実施の形態の場合には、フリッカ周期Tfの整数倍からずれたシフト値502のように、撮像素子111の積分時間Tintを設定し、撮像素子111に意図的にフリッカ成分ΔQを残すように制御することで、フリッカ検出後、フリッカ対策を実施してもステップS105でフリッカ検出を実現することが可能である。
このため、被写体からフリッカ成分ΔQが消失したときには、ステップS106でフリッカが消失したことを確実に判定でき、フリッカ対策を必要としない通常のライブビュー表示のためのステップS107以降の処理に移行することが可能となる。
よって、フリッカがあるときはステップS110〜ステップS112の露出制御で、フリッカが無いときは動画画質がより良いステップS107〜ステップS109の制御というように常時、被写体のフリッカ成分ΔQに応じて、フリッカ対策の有無が切り替わる制御となる。
The above is the operation of the camera and the camera control method of the present embodiment.
As described above, in the case of the present embodiment, the integration time Tint of the image sensor 111 is set like the shift value 502 deviated from an integral multiple of the flicker cycle Tf, and the flicker component ΔQ is intentionally set in the image sensor 111. By controlling so as to leave the flicker detection, flicker detection can be realized in step S105 even if flicker countermeasures are implemented after flicker detection.
For this reason, when the flicker component ΔQ disappears from the subject, it can be reliably determined in step S106 that the flicker has disappeared, and the process proceeds to the processing after step S107 for normal live view display that does not require any flicker countermeasures. Is possible.
Therefore, when there is flicker, the exposure control in steps S110 to S112 is performed, and when there is no flicker, the moving image quality is better, such as the control in steps S107 to S109. This is a control for switching the presence or absence of.

図13は、本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用の変形例を示すフローチャートである。
フリッカ対策における上述のステップS112は必須の処理ではなく、もしフリッカ検出能力が高く、ライブビュー表示の動画画質にほとんど問題とならないレベルのフリッカ成分ΔQから、フリッカがあることを検出できる場合は、図13のフローチャートのように、すなわち、ステップS111〜ステップS112の画像処理によるフリッカ対策を省いても良い。
図14は、本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用のさらに他の変形例を示すフローチャートである。
図15は、本発明の一実施の形態であるカメラの制御方法を実施するカメラの作用のさらに他の変形例を示す概念図である。
これまでの実施の形態は、光源がフリッカ光源のみで照明されている場合の対応を例示した。
これに対して、フリッカ光源と、非フリッカ光源の混交光源を考慮した実施の形態として図14のフローチャートの処理を例示する。
この図14のフローチャートでは、上述の図2のフローチャートにおけるステップS105、ステップS106、ステップS110を、ステップS105a、ステップS106a、ステップS110aにそれぞれ変更している。
フリッカを持つ光源と、フリッカを持たない光源の両方で照明された被写体は、フリッカを持つ光源の寄与率によりフリッカ強度が異なる。
そこで、本変形例では、このような場合も想定して必要最小限のフリッカ対策制御を行うべく、ステップS105aでフリッカ成分ΔQの強さを、例えばフリッカ成分の明暗輝度差から求め、このフリッカ成分ΔQの強度によってシャッタ速を求める。
以下に図14のフローチャートを参照して、上述の図2のフローチャートからの変更部分を説明する。
FIG. 13 is a flowchart showing a modified example of the operation of the camera that implements the camera control method according to the embodiment of the present invention.
The above-described step S112 in the countermeasure against flicker is not an essential process. If flicker is detected from the flicker component ΔQ having a high flicker detection capability and hardly causing a problem with the moving image quality of the live view display, As shown in the flowchart of FIG. 13, that is, flicker countermeasures by image processing in steps S111 to S112 may be omitted.
FIG. 14 is a flowchart showing still another modified example of the operation of the camera that implements the camera control method according to the embodiment of the present invention.
FIG. 15 is a conceptual diagram showing still another modified example of the operation of the camera that implements the camera control method according to the embodiment of the present invention.
The embodiments so far illustrated the correspondence when the light source is illuminated only by the flicker light source.
On the other hand, the processing of the flowchart of FIG. 14 is illustrated as an embodiment in which a mixed light source of a flicker light source and a non-flicker light source is considered.
In the flowchart of FIG. 14, steps S105, S106, and S110 in the flowchart of FIG. 2 are changed to steps S105a, S106a, and S110a, respectively.
A subject illuminated by both a light source having flicker and a light source not having flicker has different flicker intensity depending on the contribution ratio of the light source having flicker.
Therefore, in the present modification, in order to perform the minimum necessary flicker countermeasure control in consideration of such a case, the strength of the flicker component ΔQ is obtained from, for example, the brightness difference between the flicker components in step S105a, and this flicker component is obtained. The shutter speed is obtained from the intensity of ΔQ.
Hereinafter, with reference to the flowchart of FIG. 14, a modified portion from the flowchart of FIG. 2 described above will be described.

(ステップS105a)
このステップS105aではフリッカ光源と非フリッカ光源の混交光源を考慮したフリッカ検出を行う。
前述した方法で、フリッカ成分ΔQのみを抽出し、このフリッカ成分ΔQの輝度変動幅が、0.2段以下ならフリッカ成分ΔQが小レベル(レベルL1)、0.2段以上0.5段未満であればフリッカ成分ΔQが中レベル(レベルL2)、0.5段以上であれば大レベル(レベルL3)、というように、フリッカ有無のほかに、フリッカ成分ΔQのレベル分けも行う。
(Step S105a)
In step S105a, flicker detection is performed in consideration of a mixed light source of a flicker light source and a non-flicker light source.
If only the flicker component ΔQ is extracted by the above-described method, and the luminance fluctuation width of the flicker component ΔQ is 0.2 level or less, the flicker component ΔQ is a low level (level L1), 0.2 level or more and less than 0.5 level. In addition to the presence / absence of flicker, the flicker component ΔQ is also divided into levels such that the flicker component ΔQ is at the medium level (level L2), and the flicker component ΔQ is at the high level (level L3).

(ステップS106a)
このステップS106aでは、フリッカ成分ΔQのレベル判定を行う。
フリッカ強度が、ステップS105aで判定された大、中、小のうち大(レベルL3)、中(レベルL2)の場合、ステップS110へ移動しフリッカ対策処理を行う。フリッカが検出されても強度が小さく、液晶モニタ表示で目立たない小さいレベル(レベルL1)であればフリッカ無しの制御と同様の制御を行う。
(Step S106a)
In step S106a, the level of the flicker component ΔQ is determined.
If the flicker intensity is large (level L3) or medium (level L2) among the large, medium, and small determined in step S105a, the process moves to step S110 and flicker countermeasure processing is performed. If flicker is detected and the intensity is small and the level is not noticeable on the liquid crystal monitor display (level L1), the control similar to the control without flicker is performed.

(ステップS110a)
このステップS110aではフリッカ光源と非フリッカ光源の混交光源を考慮した場合のフリッカ対策の露出計算を行う。
図15には、商用電源周波数50Hzの地域における、フリッカ強度とずらし量の関係の一例を示すシャッタ速テーブル500が例示されている。
フリッカ強度に応じて、フリッカ周期Tfの倍数(倍数501)から、シフト値502a(レベルL3)、シフト値502b(レベルL2)のようにシャッタ速をずらす。
この実施の形態では強度をレベルL3とレベルL2の2つに分類したシャッタ速テーブル500を例示しているが、より多く強度を分類したシャッタ速テーブル500を用いてもよい。
フリッカ強度が中程度(レベルL2)であれば、フリッカ強度が大(レベルL3)のときよりシャッタ速を大きくずらして露出することでフリッカ成分ΔQを残すように制御し、次のフリッカ検出を安定して行うようにしている。
このようにすれば、フリッカ照明と非フリッカ照明とが混在するか否かに影響されることなく、フリッカ検出をいつでも安定して行うことが可能であり、フリッカ対策を必要最小限に抑えることができるので、ライブビュー表示等における動画品質低下をより最小限に抑えることができる。
(Step S110a)
In this step S110a, an exposure calculation for flicker countermeasures when a mixed light source of a flicker light source and a non-flicker light source is considered is performed.
FIG. 15 illustrates a shutter speed table 500 showing an example of the relationship between the flicker intensity and the shift amount in an area where the commercial power supply frequency is 50 Hz.
In accordance with the flicker intensity, the shutter speed is shifted from a multiple (multiple 501) of the flicker cycle Tf to a shift value 502a (level L3) and a shift value 502b (level L2).
In this embodiment, the shutter speed table 500 in which the intensity is classified into the level L3 and the level L2 is illustrated, but the shutter speed table 500 in which the intensity is classified more may be used.
If the flicker intensity is medium (level L2), control is performed so that the flicker component ΔQ remains by exposing the shutter speed to a greater degree than when the flicker intensity is high (level L3), and the next flicker detection is stable. And do it.
In this way, flicker detection can be performed stably at any time without being affected by whether or not flicker illumination and non-flicker illumination are mixed, and flicker countermeasures can be minimized. As a result, it is possible to further minimize degradation of moving image quality in live view display or the like.

以上説明したように、本発明の実施の形態によれば、ライブビュー中、撮像素子111の出力からフリッカ検出を行う構成のカメラMにおいて、フリッカ検出後のライブビュー制御のシャッタ速算出時において、フリッカ検出が可能なレベルのフリッカ成分ΔQが撮像出力に残るようにシャッタ速を決定することで、被写体のフリッカ成分の有無の変化に対し、リアルタイムでフリッカ対策の露出制御と、通常の露出制御とを的確に切り換えることができる。
この結果、ライブビューにおける画品質をフリッカの有無に応じて最適な状態に維持すること可能となる。
なお、本発明は、上述の実施の形態に例示した構成に限らず、その趣旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
As described above, according to the embodiment of the present invention, in the camera M configured to detect flicker from the output of the image sensor 111 during live view, when calculating the shutter speed for live view control after flicker detection, By determining the shutter speed so that the flicker component ΔQ at a level where flicker can be detected remains in the imaging output, exposure control for flicker countermeasures and normal exposure control in real time against changes in the presence or absence of the flicker component of the subject Can be switched accurately.
As a result, the image quality in the live view can be maintained in an optimum state according to the presence or absence of flicker.
Needless to say, the present invention is not limited to the configuration exemplified in the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention.

(付記1)
撮像素子と、撮像素子の出力を、画像に変換する手段と、
前記画像を、常時表示しつづける構図確認手段と、
撮像素子の出力から、被写体輝度を取得する手段と、
得られた被写体輝度から、狙いの撮像出力レベルを得るために撮像素子に照射する光量と撮像素子の感度と、撮像素子内の光電変換素子の積分時間を制御する露出制御手段と、
被写体がフリッカ光源で照明されているかどうかを検出する手段と、
を設けたカメラにおいて、
フリッカ検出時、前記積分時間を、10msの整数倍、または8.333msの整数倍値に、倍数に応じた時間を加減算した積分時間で露出制御が可能な被写体輝度では、前記加減算した積分時間で制御することを特徴としたカメラ。
(付記2)
撮像素子と、撮像素子の出力を、画像に変換する手段と、
前記画像を、常時表示しつづける構図確認手段と、
撮像素子の出力から、被写体輝度を取得する手段と、
得られた被写体輝度から、狙いの撮像出力レベルを得るために撮像素子に照射する光量と撮像素子の感度と、撮像素子内の光電変換素子の積分時間を制御する露出制御手段と、
被写体がフリッカ光源で照明されているかどうかを検出する手段と、
を設けたカメラにおいて、
フリッカ検出時、またはフリッカ成分があらかじめ決められた強度以上のときに前記積分時間を、10msの整数倍、または8.333msの整数倍の時間に、フリッカ成分の強度に応じて計算される時間を加減算した積分時間で露出制御が可能な被写体輝度では、前記加減算した積分時間で制御することを特徴としたカメラ。
(Appendix 1)
An image sensor and means for converting the output of the image sensor into an image;
Composition confirmation means for continuously displaying the image;
Means for acquiring subject brightness from the output of the image sensor;
An exposure control means for controlling the amount of light irradiated to the image sensor and the sensitivity of the image sensor in order to obtain a target image output level from the obtained subject luminance, and the integration time of the photoelectric conversion element in the image sensor;
Means for detecting whether the subject is illuminated by a flicker light source;
In the camera with
When the flicker is detected, the integration time is an integral multiple of 10 ms, or an integral multiple of 8.333 ms, and subject brightness that can be controlled with the integral time obtained by adding or subtracting the time corresponding to the multiple, the integration time obtained by the addition or subtraction is used. A camera characterized by control.
(Appendix 2)
An image sensor and means for converting the output of the image sensor into an image;
Composition confirmation means for continuously displaying the image;
Means for acquiring subject brightness from the output of the image sensor;
An exposure control means for controlling the amount of light irradiated to the image sensor and the sensitivity of the image sensor in order to obtain a target image output level from the obtained subject luminance, and the integration time of the photoelectric conversion element in the image sensor;
Means for detecting whether the subject is illuminated by a flicker light source;
In the camera with
When flicker is detected or when the flicker component is greater than or equal to a predetermined intensity, the integration time is set to an integral multiple of 10 ms, or an integral multiple of 8.333 ms, and the time calculated according to the flicker component intensity A camera characterized in that, with subject brightness that allows exposure control with an addition / subtraction integration time, control is performed with the addition / subtraction integration time.

100 ボディユニット
101 ボディ制御マイコン
102 画像処理IC
103 制御プログラム
104 半導体メモリ
110 撮像素子駆動IC
111 撮像素子
120 シャッタユニット
121 シャッタ制御駆動回路
130 通信コネクタ
131 記録メディア
140 液晶モニタ
150 カメラ操作スイッチ
160 通信コネクタ
200 レンズユニット
201 レンズ制御マイコン
202 絞り駆動機構
203 絞り
204 レンズ駆動機構
210a 撮影レンズ
210b 撮影レンズ
300 輝度測定領域
301 数値データ
401 グラフ
401a 積分値
402 走査ライン
403 撮像データ
403a 縞模様
404 撮像データ
500 シャッタ速テーブル
501 倍数
502 シフト値
502a シフト値
502b シフト値
511 タイムスロット
512 余り分タイムスロット
603 プログラム線図
M カメラ
100 body unit 101 body control microcomputer 102 image processing IC
103 Control Program 104 Semiconductor Memory 110 Image Sensor Drive IC
111 Image sensor 120 Shutter unit 121 Shutter control drive circuit 130 Communication connector 131 Recording medium 140 Liquid crystal monitor 150 Camera operation switch 160 Communication connector 200 Lens unit 201 Lens control microcomputer 202 Aperture drive mechanism 203 Aperture 204 Lens drive mechanism 210a Shooting lens 210b Shooting lens 300 Brightness Measurement Area 301 Numerical Data 401 Graph 401a Integration Value 402 Scan Line 403 Imaging Data 403a Stripe Pattern 404 Imaging Data 500 Shutter Speed Table 501 Multiple 502 Shift Value 502a Shift Value 502b Shift Value 511 Time Slot 512 Time Slot 603 Program Line Figure M Camera

Claims (8)

光を電気信号に変換する撮像素子の出力より画像データを取得する撮像手段と、
前記撮像素子の出力から被写体の輝度を検出する輝度検出手段と、
前記輝度検出手段により得られた前記被写体の輝度に基づいて、前記撮像素子の積分時間を制御する露出制御手段と、
前記被写体がフリッカ光源で照明されているフリッカ状態を検出するフリッカ検出手段と、
を具備したカメラにおいて、
前記露出制御手段は、前記フリッカ検出手段が前記フリッカ状態を検出した場合に、商用電源周期を整数倍した第1の値から当該第1の値に応じた所定の第2の値を加減算して得られた第3の値を、積分時間として前記撮像素子を制御する
ことを特徴としたカメラ。
Imaging means for acquiring image data from an output of an imaging device that converts light into an electrical signal;
Luminance detection means for detecting the luminance of the subject from the output of the image sensor;
Exposure control means for controlling the integration time of the image sensor based on the brightness of the subject obtained by the brightness detection means;
Flicker detection means for detecting a flicker state in which the subject is illuminated by a flicker light source;
In a camera equipped with
When the flicker detection unit detects the flicker state, the exposure control unit adds or subtracts a predetermined second value corresponding to the first value from a first value obtained by multiplying the commercial power cycle by an integer. The camera, wherein the image sensor is controlled using the obtained third value as an integration time.
前記露出制御手段は、前記フリッカ検出手段が前記フリッカ状態を検出し、前記第3の値を積分時間として前記撮像素子を制御している際に、前記フリッカ検出手段が、前記フリッカ状態が消失したことを検出した場合に、
前記第3の値を積分時間とする制御を中止する
ことを特徴とする請求項1に記載のカメラ。
The exposure control unit detects the flicker state when the flicker detection unit detects the flicker state, and the flicker state disappears when the image sensor is controlled using the third value as an integration time. If we detect that
The camera according to claim 1, wherein the control using the third value as an integration time is stopped.
前記撮像手段の取得した前記画像データを表示する表示手段を有し、
前記表示手段は、前記露出制御手段が前記第3の値を積分時間として前記撮像素子を制御している際には、前記撮像手段が連続して取得した複数の前記画像データを合成した画像データを表示する
ことを特徴とする請求項1に記載のカメラ。
Display means for displaying the image data acquired by the imaging means;
When the exposure control unit controls the image sensor using the third value as an integration time, the display unit combines the plurality of pieces of image data acquired continuously by the imaging unit. The camera according to claim 1, wherein the camera is displayed.
前記露出制御手段は、前記露光時間と前記撮像素子の出力に占める前記フリッカ成分の割合との関係が設定されたシャッタ速テーブルを具備し、前記第2の値に応じて前記シャッタ速テーブルを参照することにより前記第3の値を決定することを特徴とする請求項1記載のカメラ。   The exposure control means includes a shutter speed table in which a relationship between the exposure time and the ratio of the flicker component in the output of the image sensor is set, and refers to the shutter speed table according to the second value. The camera according to claim 1, wherein the third value is determined. 被写体がフリッカ光源で照明されているフリッカ状態を撮像素子の出力から検出したとき前記撮像素子の積分時間を変更するカメラの制御方法において、
前記フリッカ状態が完全に消失するフリッカ周期の整数倍の第1の値から当該第1の値に応じた第2の値を加減算した第3の値を前記撮像素子の積分時間に設定する第1ステップと、
前記第2の値に応じて前記撮像素子の出力に残存するフリッカ成分による前記被写体の輝度変動を打ち消す補正処理を施した画像信号を表示装置に出力する第2ステップと、
を含むカメラの制御方法。
In a camera control method for changing the integration time of the image sensor when a flicker state in which a subject is illuminated by a flicker light source is detected from the output of the image sensor,
A first value obtained by adding or subtracting a second value corresponding to the first value from a first value that is an integral multiple of the flicker cycle at which the flicker state completely disappears is set as the integration time of the image sensor. Steps,
A second step of outputting to the display device an image signal that has been subjected to correction processing that cancels luminance fluctuations of the subject due to a flicker component remaining in the output of the image sensor in accordance with the second value;
A method for controlling a camera including:
前記第2ステップでは、前記撮像素子の出力から前記フリッカ成分が消失したとき、前記補正処理を抑止する
ことを特徴とする請求項5記載のカメラの制御方法。
6. The camera control method according to claim 5, wherein, in the second step, the correction process is suppressed when the flicker component disappears from the output of the image sensor.
前記第2ステップでは、前記第3の値を積分時間として前記撮像素子を制御している際には、前記補正処理として前記撮像素子の出力から連続して取得した複数の画像データを合成した画像データを前記表示装置に表示する
ことを特徴とする請求項5記載のカメラの制御方法。
In the second step, when the image sensor is controlled using the third value as an integration time, an image obtained by synthesizing a plurality of image data continuously acquired from the output of the image sensor as the correction process 6. The method of controlling a camera according to claim 5, wherein data is displayed on the display device.
前記第1ステップでは、前記積分時間と前記撮像素子の出力に占める前記フリッカ成分の割合との関係をシャッタ速テーブルに設定し、前記第2の値に応じて前記シャッタ速テーブルを参照することにより前記第3の値を決定することを特徴とする請求項5記載のカメラの制御方法。   In the first step, a relationship between the integration time and the ratio of the flicker component in the output of the image sensor is set in a shutter speed table, and the shutter speed table is referred to according to the second value. 6. The camera control method according to claim 5, wherein the third value is determined.
JP2011096484A 2011-04-22 2011-04-22 Camera and camera control method Expired - Fee Related JP5775732B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011096484A JP5775732B2 (en) 2011-04-22 2011-04-22 Camera and camera control method
CN201210111247.1A CN102752513B (en) 2011-04-22 2012-04-16 Camera and method for controlling camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011096484A JP5775732B2 (en) 2011-04-22 2011-04-22 Camera and camera control method

Publications (2)

Publication Number Publication Date
JP2012227893A true JP2012227893A (en) 2012-11-15
JP5775732B2 JP5775732B2 (en) 2015-09-09

Family

ID=47032395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011096484A Expired - Fee Related JP5775732B2 (en) 2011-04-22 2011-04-22 Camera and camera control method

Country Status (2)

Country Link
JP (1) JP5775732B2 (en)
CN (1) CN102752513B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207944A (en) * 2014-04-22 2015-11-19 日本放送協会 Video camera apparatus, processing method of video signal, and video signal processor
WO2018101092A1 (en) * 2016-11-30 2018-06-07 オリンパス株式会社 Imaging device and flicker determination method
CN108174117A (en) * 2015-08-10 2018-06-15 广东欧珀移动通信有限公司 Eliminate method, system and the mobile terminal and medium product of flicker

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10819914B2 (en) * 2017-04-25 2020-10-27 Sharp Kabushiki Kaisha Illuminance sensor, proximity sensor, electronic device, and surveillance system
TWI670686B (en) * 2018-03-02 2019-09-01 群光電子股份有限公司 Image capture system and capture process adjusting method thereof
CN111246051B (en) * 2018-11-09 2021-06-29 浙江宇视科技有限公司 Method, device, equipment and storage medium for automatically detecting stripes and inhibiting stripes
KR20210126067A (en) * 2019-03-13 2021-10-19 코니카 미놀타 가부시키가이샤 Residual DC measuring device, residual DC measuring method and residual DC measuring program
CN110445952B (en) * 2019-07-15 2021-12-21 浙江大华技术股份有限公司 Picture flicker processing method, device, equipment and storage medium of camera
CN110636229B (en) * 2019-10-24 2021-06-22 重庆紫光华山智安科技有限公司 Image light supplement adjusting method and device and electronic equipment
CN111638756B (en) * 2020-05-29 2022-03-22 Oppo广东移动通信有限公司 Control method, control device, electronic terminal, and computer-readable storage medium
CN115529409A (en) * 2021-06-24 2022-12-27 荣耀终端有限公司 Shooting method and related device
CN116366983B (en) * 2023-05-29 2023-10-20 荣耀终端有限公司 Shooting method, electronic device and readable medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229353A (en) * 2004-02-13 2005-08-25 Renesas Technology Corp Image pickup device and flicker detection method
JP2008011226A (en) * 2006-06-29 2008-01-17 Kyocera Corp Method and device for detecting flicker of imaging apparatus
JP2010147565A (en) * 2008-12-16 2010-07-01 Canon Inc Imaging apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1245018C (en) * 2002-12-17 2006-03-08 北京中星微电子有限公司 Method for eliminating scintilltion of moving picture
CN100591094C (en) * 2006-05-24 2010-02-17 华为技术有限公司 A flicker restraint method
JP2009077057A (en) * 2007-09-19 2009-04-09 Olympus Imaging Corp Imaging apparatus, and control method for imaging apparatus
CN101582992B (en) * 2008-05-15 2012-12-19 鸿富锦精密工业(深圳)有限公司 System and method for eliminating flicker

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229353A (en) * 2004-02-13 2005-08-25 Renesas Technology Corp Image pickup device and flicker detection method
JP2008011226A (en) * 2006-06-29 2008-01-17 Kyocera Corp Method and device for detecting flicker of imaging apparatus
JP2010147565A (en) * 2008-12-16 2010-07-01 Canon Inc Imaging apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015207944A (en) * 2014-04-22 2015-11-19 日本放送協会 Video camera apparatus, processing method of video signal, and video signal processor
CN108174117A (en) * 2015-08-10 2018-06-15 广东欧珀移动通信有限公司 Eliminate method, system and the mobile terminal and medium product of flicker
CN108174117B (en) * 2015-08-10 2021-04-02 Oppo广东移动通信有限公司 Method and system for eliminating flicker, mobile terminal and medium product
WO2018101092A1 (en) * 2016-11-30 2018-06-07 オリンパス株式会社 Imaging device and flicker determination method

Also Published As

Publication number Publication date
JP5775732B2 (en) 2015-09-09
CN102752513B (en) 2015-04-22
CN102752513A (en) 2012-10-24

Similar Documents

Publication Publication Date Title
JP5775732B2 (en) Camera and camera control method
JP5945395B2 (en) Imaging device
JP6051516B2 (en) Imaging apparatus and imaging method
US9485434B2 (en) Image capturing apparatus, control method, and program thereof
CN110661947B (en) Image pickup apparatus, control method thereof, and storage medium
WO2018101092A1 (en) Imaging device and flicker determination method
US10602051B2 (en) Imaging apparatus, control method, and non-transitory storage medium
JP2014220763A (en) Imaging device, control method, program, and storage medium
JP2014220764A (en) Imaging device, control method, program, and storage medium
JP2010130231A (en) Imaging apparatus
CN105407269B (en) Image pickup apparatus and control method thereof
JP2018107705A (en) Imaging apparatus, control method and program and recording medium for the imaging apparatus
JP6399843B2 (en) Imaging apparatus and control method thereof
US10356326B2 (en) Camera
JP2019161499A (en) Imaging apparatus
JP2009213076A (en) Imaging device and control method thereof
JP2011232671A (en) Imaging apparatus
JP5586415B2 (en) Camera control method and camera
JP2016039596A (en) Imaging device and control method therefor
JP5371539B2 (en) Imaging device
JP6924089B2 (en) Imaging device and its control method
JP2017005495A (en) Imaging apparatus, method for controlling the same, and program
JP2018133826A (en) Imaging apparatus, control method thereof, and control program
US11678062B2 (en) Image capturing apparatus, control method thereof, and storage medium for performing exposure control by prioritizing increasing an image capturing sensitivity
US20220345611A1 (en) Image capturing apparatus and control method thereof and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150115

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150706

R151 Written notification of patent or utility model registration

Ref document number: 5775732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees