JP5720250B2 - Imaging apparatus and image processing control program - Google Patents

Imaging apparatus and image processing control program Download PDF

Info

Publication number
JP5720250B2
JP5720250B2 JP2011000664A JP2011000664A JP5720250B2 JP 5720250 B2 JP5720250 B2 JP 5720250B2 JP 2011000664 A JP2011000664 A JP 2011000664A JP 2011000664 A JP2011000664 A JP 2011000664A JP 5720250 B2 JP5720250 B2 JP 5720250B2
Authority
JP
Japan
Prior art keywords
image
image data
image processing
processing unit
flicker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011000664A
Other languages
Japanese (ja)
Other versions
JP2012142853A (en
Inventor
祐起 喜多
祐起 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011000664A priority Critical patent/JP5720250B2/en
Publication of JP2012142853A publication Critical patent/JP2012142853A/en
Application granted granted Critical
Publication of JP5720250B2 publication Critical patent/JP5720250B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置および画像処理制御プログラムに関する。   The present invention relates to an imaging apparatus and an image processing control program.

撮像素子の予め設定された領域から読み出した電気信号を用いてフリッカ周波数を判定する撮像装置が知られている(例えば特許文献1)。また、固体撮像素子の各画素における露光時間を照明のフリッカ周期の半分だけずれたタイミングで別々に読み出して、得られた2系統の信号を同時化して足し合わせる固体撮像素子が知られている(例えば特許文献2)。
[先行技術文献]
[特許文献]
[特許文献1]特開2009−77065号公報
[特許文献2]特開2003−32551号公報
There is known an imaging apparatus that determines a flicker frequency using an electrical signal read from a preset area of an imaging element (for example, Patent Document 1). Further, a solid-state imaging device is known in which the exposure time in each pixel of the solid-state imaging device is read out separately at a timing shifted by half the flicker cycle of illumination, and the obtained two systems of signals are synchronized and added together ( For example, Patent Document 2).
[Prior art documents]
[Patent Literature]
[Patent Document 1] JP 2009-77065 A [Patent Document 2] JP 2003-32551 A

照明光の光強度が周期的に変化するだけでなく照明光の色温度も時間的に変化する場合、輝度ムラが生じるだけでなく色被りが画像領域毎に変わってしまうという課題があった。   When not only the light intensity of the illumination light periodically changes but also the color temperature of the illumination light changes with time, there is a problem that not only luminance unevenness occurs but also the color covering changes for each image region.

上記課題を解決するために、本発明の第1の態様における撮像装置は、順次に露光される複数の画素ラインを有する撮像素子と、撮像素子で複数回露光して生成された複数の画像を重ね合わせて、重ね合わせ画像を生成する画像処理部とを備え、画像処理部は、複数の画素ラインに平行な複数の帯状の画像領域毎にホワイトバランス補正を施した重ね合わせ画像を生成する。   In order to solve the above-described problem, an imaging device according to a first aspect of the present invention includes an imaging device having a plurality of pixel lines that are sequentially exposed, and a plurality of images that are generated by being exposed multiple times by the imaging device. And an image processing unit that generates a superimposed image, and the image processing unit generates a superimposed image in which white balance correction is performed for each of a plurality of strip-shaped image regions parallel to a plurality of pixel lines.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

実施形態によるカメラ100のシステム構成図である。1 is a system configuration diagram of a camera 100 according to an embodiment. 静止画撮影モードでの処理の一例を模式的に示す図である。It is a figure which shows typically an example of the process in still image shooting mode. 画像データ210の色成分を説明する図である。It is a figure explaining the color component of the image data. ホワイトバランス補正された重ね合わせ画像400の一例である。3 is an example of a superimposed image 400 that has been subjected to white balance correction. ホワイトバランス補正を部分領域で行う処理例を模式的に示す図である。It is a figure which shows typically the example of a process which performs white balance correction | amendment in a partial area. 静止画撮影モードでの処理フロー図である。It is a processing flow figure in still picture photography mode. 動画撮影モードでの処理の一例を模式的に示す図である。It is a figure which shows typically an example of the process in video recording mode. 動画撮影モードでの処理フロー図を示す図である。It is a figure which shows the processing flowchart in a moving image shooting mode. 撮影およびフレーム生成の処理を実行するフロー図である。It is a flowchart which performs the process of imaging | photography and a frame production | generation.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係るカメラ100のシステム構成図を示す。カメラ100は光学系101を備える。光学系101は、ズームレンズ、フォーカスレンズ等により構成される。被写体光は光軸に沿って光学系101に入射し、撮像素子103の前面に配置されたフォーカルプレーンシャッタ102を通過して撮像素子103の受光面に被写体像として結像する。   FIG. 1 is a system configuration diagram of a camera 100 according to the present embodiment. The camera 100 includes an optical system 101. The optical system 101 includes a zoom lens, a focus lens, and the like. Subject light enters the optical system 101 along the optical axis, passes through a focal plane shutter 102 disposed in front of the image sensor 103, and forms an image as a subject image on the light receiving surface of the image sensor 103.

撮像素子103は、被写体像である光学像を光電変換する素子であり、例えば、CCD、CMOSセンサが用いられる。撮像素子103で光電変換された被写体像は、電荷として読み出されてアンプ部104でゲイン調整等がなされる。アンプ部104で増幅された信号は、アナログ信号としてA/D変換器105へ転送され、A/D変換器105でデジタル信号に変換される。撮像素子103の電荷読み出し、フォーカルプレーンシャッタ102の駆動等の制御は、システム制御部114の同期制御を受けたタイミング発生部112が供給するクロック信号により制御される。   The image sensor 103 is an element that photoelectrically converts an optical image that is a subject image, and for example, a CCD or a CMOS sensor is used. The subject image photoelectrically converted by the image sensor 103 is read out as electric charge, and gain adjustment or the like is performed by the amplifier unit 104. The signal amplified by the amplifier unit 104 is transferred as an analog signal to the A / D converter 105 and converted to a digital signal by the A / D converter 105. Controls such as charge readout of the image sensor 103 and driving of the focal plane shutter 102 are controlled by a clock signal supplied by the timing generator 112 that receives synchronization control of the system controller 114.

デジタル信号に変換された被写体像は、画像データとして順次処理される。A/D変換器105によりデジタル信号に変換された画像データは、画像処理部107へ引き渡されて処理される。具体的には、A/D変換器105によりデジタル信号に変換された画像データは、メモリ制御部106の制御により、内部メモリ108に一旦記憶される。内部メモリ108は、高速で読み書きのできるランダムアクセスメモリであり、例えばDRAM、SRAMなどが用いられる。内部メモリ108は、連写撮影、動画撮影において高速に連続して画像データが生成される場合に、画像処理の順番を待つバッファメモリとしての役割を担う。また、画像処理部107が行う画像処理、圧縮処理において、ワークメモリとしての役割も担う。したがって、内部メモリ108は、これらの役割を担うに相当する十分なメモリ容量を備える。メモリ制御部106は、いかなる作業にどれくらいのメモリ容量を割り当てるかを制御する。   The subject image converted into the digital signal is sequentially processed as image data. The image data converted into a digital signal by the A / D converter 105 is delivered to the image processing unit 107 and processed. Specifically, the image data converted into a digital signal by the A / D converter 105 is temporarily stored in the internal memory 108 under the control of the memory control unit 106. The internal memory 108 is a random access memory that can be read and written at high speed, and for example, a DRAM, an SRAM, or the like is used. The internal memory 108 serves as a buffer memory that waits for the order of image processing when image data is continuously generated at high speed in continuous shooting and moving image shooting. In addition, the image processing unit 107 also serves as a work memory in the image processing and compression processing. Therefore, the internal memory 108 has a sufficient memory capacity corresponding to these roles. The memory control unit 106 controls how much memory capacity is allocated to what work.

画像処理部107は、設定されている撮影モード、ユーザからの指示に従って、画像データを規格化された画像フォーマットの画像データに変換する。例えば、カメラ100の撮影モードの一部として静止画撮影モードおよび動画撮影モードを有しており、静止画撮影モードで静止画像としてJPEGファイルを生成する場合、画像処理部107は、色変換処理、ガンマ処理、ホワイトバランス補正等の画像処理を行った後に適応離散コサイン変換等を施して圧縮処理を行う。また、例えば動画撮影モードで動画像としてのMPEGファイルを生成する場合、画像処理部107は、生成された連続する静止画としてのフレーム画像に対して、フレーム内符号化、フレーム間符号化、量子化、エントロピー符号化等を施して圧縮処理を行う。   The image processing unit 107 converts the image data into image data of a standardized image format according to the set shooting mode and an instruction from the user. For example, when having a still image shooting mode and a moving image shooting mode as part of the shooting mode of the camera 100 and generating a JPEG file as a still image in the still image shooting mode, the image processing unit 107 performs color conversion processing, After performing image processing such as gamma processing and white balance correction, compression processing is performed by performing adaptive discrete cosine transform or the like. For example, when generating an MPEG file as a moving image in the moving image shooting mode, the image processing unit 107 performs intra-frame coding, inter-frame coding, quantum coding on the generated continuous frame image as a still image. Compression processing is performed by performing encoding and entropy coding.

変換された画像データは再び内部メモリ108に保管される。画像処理部107によって処理された静止画像データ、動画像データは、システム制御部114の制御により、内部メモリ108から記録媒体IF111を介して、不揮発性メモリである記録媒体122に記録される。記録媒体122は、フラッシュメモリ等により構成される。記録媒体122は、カメラ100の本体に対して着脱可能な不揮発性メモリであってよい。   The converted image data is stored in the internal memory 108 again. Still image data and moving image data processed by the image processing unit 107 are recorded on the recording medium 122 which is a nonvolatile memory from the internal memory 108 via the recording medium IF 111 under the control of the system control unit 114. The recording medium 122 is configured by a flash memory or the like. The recording medium 122 may be a non-volatile memory that can be attached to and detached from the main body of the camera 100.

画像処理部107は、記録用に処理される画像データに並行して、表示用の画像データを生成する。生成された表示用の画像データは、表示制御部109の制御に従って、液晶パネル等で構成される表示部110に表示される。また、表示制御部109は、画像の表示と共に、もしくは画像を表示することなく、カメラ100の各種設定に関する様々なメニュー項目を、表示部110に表示することができる。   The image processing unit 107 generates display image data in parallel with the image data processed for recording. The generated display image data is displayed on the display unit 110 configured by a liquid crystal panel or the like under the control of the display control unit 109. In addition, the display control unit 109 can display various menu items related to various settings of the camera 100 on the display unit 110 with or without displaying an image.

カメラ100は、上記の画像処理における各々の要素も含めて、システム制御部114により直接的または間接的に制御される。システム制御部114は、電気的に消去・記録可能な不揮発性メモリであるシステムメモリを有する。システムメモリは、EEPROM(登録商標)等により構成される。システム制御部114が有するシステムメモリは、カメラ100の動作時に必要な定数、変数、プログラム等を、カメラ100の非動作時にも失われないよう記録している。システム制御部114は、定数、変数、プログラム等を適宜内部メモリ108に展開して、カメラ100の制御に利用する。カメラ100の動作時に必要な変数として、後述する照明光の明滅周波数を示す変数を含んでよい。   The camera 100 is directly or indirectly controlled by the system control unit 114 including each element in the image processing described above. The system control unit 114 includes a system memory that is an electrically erasable / recordable nonvolatile memory. The system memory is configured by EEPROM (registered trademark) or the like. The system memory included in the system control unit 114 records constants, variables, programs, and the like necessary when the camera 100 is operating so that they are not lost even when the camera 100 is not operating. The system control unit 114 expands constants, variables, programs, and the like as appropriate in the internal memory 108 and uses them for controlling the camera 100. The variable necessary for the operation of the camera 100 may include a variable indicating a blinking frequency of illumination light described later.

カメラ100は、ユーザからの操作を受け付ける操作部材120を備えている。システム制御部114は、操作部材120が操作されたことを検知する。システム制御部114は、検出された操作に応じた動作を実行する。例えば、操作部材120としてのレリーズスイッチが操作されたことを検知したときには、システム制御部114は、被写体像を光電変換して画像データを生成する一連の撮影動作を実行する。また、カメラ100の撮影モードの一部として、後述するように、少なくとも色被りを低減する撮影モードであるフリッカ低減モードを含むことができる。本実施形態において、フリッカ低減モードは、輝度ムラおよび色被りを低減する撮影モードとする。システム制御部114は、フリッカ低減モードのON/OFFを指示する操作を、操作部材120を通じてユーザから受け付けることができる。   The camera 100 includes an operation member 120 that receives an operation from a user. The system control unit 114 detects that the operation member 120 has been operated. The system control unit 114 performs an operation according to the detected operation. For example, when it is detected that the release switch as the operation member 120 is operated, the system control unit 114 performs a series of shooting operations for photoelectrically converting the subject image to generate image data. Further, as described later, as a part of the shooting mode of the camera 100, at least a flicker reduction mode that is a shooting mode for reducing color covering can be included. In the present embodiment, the flicker reduction mode is a shooting mode that reduces luminance unevenness and color covering. The system control unit 114 can accept an operation for instructing ON / OFF of the flicker reduction mode from the user through the operation member 120.

また、システム制御部114は、照明光の明滅周波数に関する情報を、操作部材120を通じてユーザから受け付けてよい。例えば、システム制御部114は、カメラ100の使用地域を指示する操作を、照明光の明滅周波数に関する情報として操作部材120を通じて受け付ける。システム制御部114は、指示された使用地域で用いられる交流電源の周波数に基づいて、照明光の明滅周波数を決定してよい。例えば、システム制御部114は、50Hzの交流電源が用いられる使用地域が指示された場合、照明光の明滅周波数を示す変数に100Hzを示す値を設定する。一方、システム制御部114は、60Hzの交流電源が用いられる使用地域が指示された場合、照明光の明滅周波数を示す変数に120Hzを示す値を設定する。明滅周期は、明滅周波数の逆数によって算出され得る。なお、ユーザからの操作の他、システム制御部114は、GPS情報に基づきカメラ100の現在位置を検出して、現在位置に基づき照明光の明滅周波数を特定してよい。この場合、カメラ100は、GPS衛星からの信号を受信するGPSモジュールを備えてもよい。   Further, the system control unit 114 may receive information regarding the blinking frequency of the illumination light from the user through the operation member 120. For example, the system control unit 114 receives an operation for instructing the use area of the camera 100 through the operation member 120 as information on the blinking frequency of the illumination light. The system control unit 114 may determine the blinking frequency of the illumination light based on the frequency of the AC power source used in the instructed usage region. For example, the system control unit 114 sets a value indicating 100 Hz to the variable indicating the blinking frequency of the illumination light when the use area where the AC power supply of 50 Hz is used is instructed. On the other hand, the system control unit 114 sets a value indicating 120 Hz to the variable indicating the blinking frequency of the illumination light when the use region where the 60 Hz AC power supply is used is indicated. The blinking cycle can be calculated by the reciprocal of the blinking frequency. In addition to the operation from the user, the system control unit 114 may detect the current position of the camera 100 based on the GPS information and specify the blinking frequency of the illumination light based on the current position. In this case, the camera 100 may include a GPS module that receives a signal from a GPS satellite.

光学系101は、レンズ制御部113によって制御される。レンズ制御部113は、例えば、ユーザの指示に応じてズームレンズを駆動し、被写体像の画角を変更する。また、レンズ制御部113は、AF情報に基づいてフォーカスレンズを駆動し、被写体像を撮像素子103の受光面上で合焦させる。レンズ制御部113は、操作部材120等を通じてユーザによって指定された被写体に対して、オートフォーカスの制御を実行してよい。また、レンズ制御部113は、画像処理部107が処理した画像データまたは測光センサの出力を解析して露出値を算出する。レンズ制御部113は、算出した露出値に従って、光学系101が有する絞りの制御信号を出力する。   The optical system 101 is controlled by the lens control unit 113. For example, the lens control unit 113 drives the zoom lens in accordance with a user instruction to change the angle of view of the subject image. In addition, the lens control unit 113 drives the focus lens based on the AF information, and focuses the subject image on the light receiving surface of the image sensor 103. The lens control unit 113 may perform autofocus control on a subject designated by the user through the operation member 120 or the like. The lens control unit 113 also calculates the exposure value by analyzing the image data processed by the image processing unit 107 or the output of the photometric sensor. The lens control unit 113 outputs a control signal for the diaphragm of the optical system 101 according to the calculated exposure value.

図2は、カメラ100における静止画撮影モード時の処理の一例を、照明光の明滅パターンとともに模式的に示す。ここでは、照明光の明滅パターンとして、交流電源で駆動される蛍光灯の点滅により生じる明滅パターン200を例示する。蛍光灯は、電源周波数の倍の周波数で点滅を繰り返す。例えば、50Hzの交流電源で駆動される蛍光灯は、100Hzで点滅を繰り返す。   FIG. 2 schematically shows an example of processing in the still image shooting mode in the camera 100 together with a blinking pattern of illumination light. Here, a blinking pattern 200 generated by blinking of a fluorescent lamp driven by an AC power source is illustrated as a blinking pattern of illumination light. The fluorescent lamp repeatedly blinks at a frequency twice the power frequency. For example, a fluorescent lamp driven by a 50 Hz AC power supply repeats blinking at 100 Hz.

システム制御部114は、レリーズスイッチが操作されて静止画撮影が指示されると、露光時間T1の露光を2度実行するよう、カメラ100の各部を制御する。具体的には、カメラ100のフォーカルプレーンシャッタ102は、撮像素子103の前面を、時間長さT1をかけてシャッタ幕を2度走行させることにより、撮像素子103で2度露光する。本例では、フォーカルプレーンシャッタ102は、時刻t1から時刻t2にかけて撮像素子103の前面を走行して1回目の露光をした後に、時刻t3から時刻t4にかけて撮像素子103の前面を走行して2回目の露光を行う。第1回目の露光後に撮像素子103から読み出された画像データ210は、内部メモリ108に記憶される。また、2回目の露光後に撮像素子103から読み出された画像データ220も内部メモリ108に記憶される。   When the release switch is operated and still image shooting is instructed, the system control unit 114 controls each unit of the camera 100 so as to perform exposure for the exposure time T1 twice. Specifically, the focal plane shutter 102 of the camera 100 exposes twice with the image sensor 103 by running the shutter curtain twice over the front surface of the image sensor 103 over a time length T1. In this example, the focal plane shutter 102 travels in front of the image sensor 103 from time t1 to time t2 and performs the first exposure, and then travels in front of the image sensor 103 from time t3 to time t4. Perform the exposure. Image data 210 read from the image sensor 103 after the first exposure is stored in the internal memory 108. The image data 220 read from the image sensor 103 after the second exposure is also stored in the internal memory 108.

静止画撮影時には、撮像素子103が有する複数の画素ラインは、フォーカルプレーンシャッタ102によって順次に露光されるので、画像データ210および画像データ220には、照明光の明滅によって生じた輝度ムラが現れる。本図の画像データ210および画像データ220では、輝度ムラを分かり易く説明するために、照明光による輝度成分のみを示している。輝度ムラは、フォーカルプレーンシャッタ102の走行方向に生じる。本例では、フォーカルプレーンシャッタ102の走行方向は画像上のY方向に対応し、X方向に延びる画素ラインの個々は略同時に露光されるとする。したがって、画像データ210および画像データ220には、X方向に延びる複数の帯の間で、輝度ムラが現れる。   At the time of still image shooting, the plurality of pixel lines of the image sensor 103 are sequentially exposed by the focal plane shutter 102, and thus luminance unevenness caused by flickering of illumination light appears in the image data 210 and the image data 220. In the image data 210 and the image data 220 in this figure, only the luminance component due to the illumination light is shown in order to easily explain the luminance unevenness. The luminance unevenness occurs in the traveling direction of the focal plane shutter 102. In this example, it is assumed that the traveling direction of the focal plane shutter 102 corresponds to the Y direction on the image, and each pixel line extending in the X direction is exposed substantially simultaneously. Therefore, in the image data 210 and the image data 220, luminance unevenness appears between a plurality of bands extending in the X direction.

本例のように、露光時間T1が明滅周期よりも短く、明滅周期の半周期よりも長い場合、画像データ210上には帯状の明部および帯状の暗部の少なくとも一方が1つ現れる。本例のように照明光の輝度が極小となる時刻t1から露光を開始した場合、暗部の帯は、画像データ210のY方向の最上部に現れる。そして、照明光の輝度が極大となる時刻に対応するY方向の位置に、明部の帯が現れる。   As in this example, when the exposure time T1 is shorter than the blinking cycle and longer than the half cycle of the blinking cycle, at least one of a strip-shaped bright portion and a strip-shaped dark portion appears on the image data 210. When exposure is started from time t1 when the luminance of illumination light is minimized as in this example, the dark band appears at the top in the Y direction of the image data 210. A bright band appears at a position in the Y direction corresponding to the time when the luminance of the illumination light reaches a maximum.

本例において、1回目の露光と2回目の露光とは、明滅周期の2.5周期分ずれて行われる。すなわち、2回目の露光は、時刻t1から、明滅周期の2.5周期分だけ後の時刻t3から開始される。2回目の露光は、照明光の輝度が極大となる時刻t3から開始されるので、画像データ220のY方向の輝度分布は、画像データ210のY方向の輝度分布と位相が逆転する。具体的には、画像データ220において暗部の帯が現れる位置は、画像データ210において明部が現れる位置と一致する。そして、画像データ220において明部の帯が現れる位置は、画像データ210において暗部が現れる位置と一致する。   In this example, the first exposure and the second exposure are performed with a deviation of 2.5 blinking cycles. That is, the second exposure is started from time t3 after 2.5 blinking cycles from time t1. Since the second exposure is started from time t3 when the luminance of the illumination light reaches a maximum, the luminance distribution in the Y direction of the image data 220 is reversed in phase with the luminance distribution in the Y direction of the image data 210. Specifically, the position where the dark band appears in the image data 220 matches the position where the bright part appears in the image data 210. The position where the bright portion band appears in the image data 220 matches the position where the dark portion appears in the image data 210.

画像処理部107は、画像データ210と画像データ220とを重ね合わせて平均化することにより、重ね合わせ画像データ230を生成する。輝度変化が互いに逆相となる画像データを重ね合わせることで重ね合わせ画像データ230が生成されるので、画像データ230に現れる輝度ムラは、画像データ210および画像データ220に現れる輝度ムラと比較して、著しく低減される。   The image processing unit 107 generates superimposed image data 230 by superimposing and averaging the image data 210 and the image data 220. Since the superimposed image data 230 is generated by superimposing the image data whose luminance changes are opposite to each other, the luminance unevenness appearing in the image data 230 is compared with the luminance unevenness appearing in the image data 210 and the image data 220. , Significantly reduced.

図3は、画像データ210を色成分毎に模式的に示す。白色照明用の蛍光灯には、白色に近い照明光を発光するために、発光スペクトルが異なる複数の蛍光物質が用いられる。これらの蛍光体が互いに異なる発光特性を有する場合、照明光のスペクトルも時間的に変化する。例えば、蛍光灯に通常用いられる蛍光体によれば、R成分およびG成分と比較して、B成分の輝度が早く減衰する。また、R成分の輝度は、G成分と比較してゆっくりと減衰する場合がある。このため、画像データ210および画像データ220には、それぞれ色被りが生じる。   FIG. 3 schematically shows the image data 210 for each color component. A fluorescent lamp for white illumination uses a plurality of fluorescent materials having different emission spectra in order to emit illumination light close to white. When these phosphors have different light emission characteristics, the spectrum of the illumination light also changes with time. For example, according to a phosphor normally used for a fluorescent lamp, the luminance of the B component attenuates faster than the R component and the G component. In addition, the luminance of the R component may attenuate more slowly than the G component. For this reason, the image data 210 and the image data 220 are each covered with color.

蛍光灯照明下ではB成分の輝度が比較的に早く減衰するので、図示されるように、B成分の画像データ210cには、R成分の画像データ210aおよびG成分の画像データ210bと比較して、幅広な暗部が現れる。また、R成分の画像データ210aには、G成分の画像データ210bと比較して、狭幅の暗部が現れる。したがって、画像データ210上の暗部領域は、B成分の輝度の強い落ち込みに対応して、黄色成分が強い帯状の領域となる。   Since the luminance of the B component attenuates relatively quickly under fluorescent lamp illumination, the B component image data 210c is compared with the R component image data 210a and the G component image data 210b, as shown in the figure. A wide dark part appears. Further, a narrower dark portion appears in the R component image data 210a than in the G component image data 210b. Therefore, the dark area on the image data 210 is a band-like area with a strong yellow component corresponding to a strong drop in the brightness of the B component.

画像データ220も、各色成分のY方向の輝度分布が逆相となる点を除いて、画像データ210と同様である。このような画像データ210と画像データ220とを重ね合わせた場合に、画像データ230上では色被りが残ってしまう場合がある。例えば、画像データ210の略白色な明部と、画像データ220の黄色の暗部を重ね合わせることで、画像データ230には黄色寄りの色を持つ帯が現れる。   The image data 220 is the same as the image data 210 except that the luminance distribution in the Y direction of each color component is in reverse phase. When such image data 210 and image data 220 are superimposed, color covering may remain on the image data 230. For example, a band having a color closer to yellow appears in the image data 230 by superimposing a substantially white bright part of the image data 210 and a yellow dark part of the image data 220.

一方で、例えば時刻t1から明滅周期の1/4周期分ずれた時刻では、照明光のB成分は他の色成分と比較して大きくは落ち込んでいないとすると、対応する画像データ210の帯は略白色となる。時刻t3から1/4周期分ずれた時刻に対応する画像データ220上の帯も同様に、略白色となる。したがって、重ね合わせ画像データ230上の対応する帯は略白色となる。この場合、重ね合わせ画像データ230には、黄色寄りの色を持つ帯と、略白色な帯とが少なくとも含まれる。このように、画像データ230には、照明光の色温度の変化に応じて、色温度が異なる帯状の領域が複数現れる。   On the other hand, for example, at the time shifted from the time t1 by a quarter of the blinking cycle, if the B component of the illumination light is not significantly reduced compared to the other color components, the band of the corresponding image data 210 is It becomes almost white. Similarly, the band on the image data 220 corresponding to the time shifted by ¼ period from the time t3 is also substantially white. Accordingly, the corresponding band on the superimposed image data 230 is substantially white. In this case, the superimposed image data 230 includes at least a band having a yellowish color and a substantially white band. As described above, a plurality of band-like regions having different color temperatures appear in the image data 230 according to changes in the color temperature of the illumination light.

図4は、ホワイトバランス補正された重ね合わせ画像400の一例を示す。画像処理部107は、画像データ210と画像データ220とを重ね合わせた画像データに、Y方向の位置が異なる複数の帯領域410−1〜6を設定する。そして、画像処理部107は、帯領域410−1〜6毎に、ホワイトバランス補正を施す。具体的には、画像処理部107は、帯領域410のそれぞれにおける色差信号(R−Y、B−Y)に基づいてホワイトバランスのゲインを帯領域410のそれぞれについて決定して、帯領域410のそれぞれについて決定したゲインに基づいて色信号の処理をする。また、画像処理部107は、帯領域410−1〜6毎に、輝度補正を施してもよい。画像処理部107が帯領域410−1〜6毎にホワイトバランス補正を施すことで、画像データ230の全領域に対してホワイトバランス補正をした場合と比較して、画像データ230に含まれる色被りを著しく低減することができる。   FIG. 4 shows an example of a superimposed image 400 that has been subjected to white balance correction. The image processing unit 107 sets a plurality of band areas 410-1 to 6-6 having different positions in the Y direction in the image data obtained by superimposing the image data 210 and the image data 220. Then, the image processing unit 107 performs white balance correction for each of the band regions 410-1 to 410-6. Specifically, the image processing unit 107 determines the white balance gain for each of the band regions 410 based on the color difference signals (RY, BY) in each of the band regions 410, and The color signal is processed based on the gain determined for each. Further, the image processing unit 107 may perform brightness correction for each of the band regions 410-1 to 410-6. Compared with the case where the image processing unit 107 performs white balance correction for each of the band regions 410-1 to 6 and white balance correction is performed on the entire region of the image data 230, the color coverage included in the image data 230. Can be significantly reduced.

ここで、帯領域410のそれぞれのY方向の幅は、予め定められた固定値であってよい。また、分割する帯領域410の数も、予め定められた固定値であってよい。一方、画像処理部107は、帯領域410の幅および分割する帯領域410の数の少なくとも一方を、可変制御してもよい。   Here, the width in the Y direction of each band region 410 may be a predetermined fixed value. Further, the number of band regions 410 to be divided may be a predetermined fixed value. On the other hand, the image processing unit 107 may variably control at least one of the width of the band region 410 and the number of band regions 410 to be divided.

例えば、画像処理部107は、画像領域毎に異なる幅の帯領域410を設定してよい。上述したように、照明光の点滅が滅状態になるタイミングでB成分が強く落ち込む。したがって、画像データ230における当該暗部に対応する領域において、色温度が大きく変化する。このため、画像処理部107は、画像データ230における暗部に対応する領域において、他の領域よりも帯領域410の幅を小さく設定してよい。   For example, the image processing unit 107 may set a band region 410 having a different width for each image region. As described above, the B component strongly falls at the timing when the blinking of the illumination light is turned off. Therefore, the color temperature changes greatly in the area corresponding to the dark part in the image data 230. For this reason, the image processing unit 107 may set the width of the band region 410 to be smaller than the other regions in the region corresponding to the dark portion in the image data 230.

ここで、画像処理部107は、画像データ210および画像データ220の少なくとも一方に基づいて、帯領域410の幅を小さくすべき領域を設定してよい。具体的には、画像処理部107は、画像データ210および画像データ220の少なくとも一方のY方向の輝度分布に基づいて暗部となる帯領域を特定して、特定した暗部となる領域を、帯領域410の幅を小さくすべき領域として設定してよい。   Here, the image processing unit 107 may set an area where the width of the band area 410 should be reduced based on at least one of the image data 210 and the image data 220. Specifically, the image processing unit 107 specifies a band region that is a dark part based on the luminance distribution in the Y direction of at least one of the image data 210 and the image data 220, and determines the region that is the specified dark part as a band region. The width of 410 may be set as an area to be reduced.

その他にも、画像処理部107は、画像データ210と画像データ220との比較結果に基づいて、帯領域410の幅を小さくすべき領域を特定してよい。例えば、画像処理部107は、画像データ210と画像データ220との間で輝度値の差が予め定められた値よりも大きい領域を、帯領域410の幅を小さくすべき領域として設定してよい。図2で例示したように露光タイミングが明滅周期の半周期分ずれている場合、画像間の輝度値の差が最大となる領域が、暗部の領域に対応する。このため、画像データ間の輝度値の差に基づいて、色温度が大きく変化する領域を適切に特定できる場合がある。露光タイミングのずれが明滅周期の半周期分に一致していない場合や、照明光の照度分布が不均一である場合は、輝度値の差が最大となる領域と暗部領域とが完全に一致しない場合がある。しかしながら、輝度値の差が大きい領域は、照明光の明滅の影響を大きく受けている領域であるといえるので、当該領域で色温度が大きく変化している蓋然性が高い。したがって、当該領域で帯領域410の幅を小さくすることで、色温度が大きく変化する蓋然性が高い領域について、色温度をきめ細やかに補正することができる。   In addition, the image processing unit 107 may specify an area where the width of the band area 410 should be reduced based on the comparison result between the image data 210 and the image data 220. For example, the image processing unit 107 may set an area where the difference in luminance value between the image data 210 and the image data 220 is larger than a predetermined value as an area where the width of the band area 410 should be reduced. . As illustrated in FIG. 2, when the exposure timing is shifted by a half cycle of the blinking cycle, a region where the difference in luminance value between images is maximum corresponds to a dark region. For this reason, there may be a case where a region where the color temperature greatly changes can be appropriately identified based on a difference in luminance value between image data. If the difference in exposure timing does not match the half cycle of the blinking cycle, or if the illuminance distribution of the illumination light is non-uniform, the area where the brightness value difference is the maximum and the dark area do not match completely There is a case. However, since a region with a large difference in luminance value can be said to be a region that is greatly affected by flickering of illumination light, there is a high probability that the color temperature is greatly changed in the region. Therefore, by reducing the width of the band region 410 in the region, the color temperature can be finely corrected for a region having a high probability that the color temperature changes greatly.

また、画像処理部107は、フォーカルプレーンシャッタ102のシャッタ幕速が遅いほど、より多くの帯領域410に分割してホワイトバランス補正をしてよい。図2で説明したように、露光期間T1で露光すると、画像データ210および画像データ220には、明部および暗部の少なくとも一方を1つ含まれる。シャッタ幕速を低くして、露光期間を点滅周期よりも長くすると、明部または暗部の少なくとも一方が複数現れる。つまり、シャッタ幕速を低くするほど、画像データ上での輝度の変化率が大きくなる。したがって、照明光の色温度の変化率も大きくなる。帯領域410の幅を固定値とすると、1つの帯領域410内における色温度の変化率が大きくなるので、ホワイトバランス補正によって正しく色温度を補正することができない場合がある。画像処理部107が、シャッタ幕速が遅いほどより多くの帯領域410に分割してホワイトバランス補正を施すことで、照明光の色温度をきめ細やかに補正することができる。   Further, the image processing unit 107 may perform white balance correction by dividing into more band regions 410 as the shutter curtain speed of the focal plane shutter 102 is lower. As described with reference to FIG. 2, when exposure is performed in the exposure period T1, the image data 210 and the image data 220 include at least one of a bright part and a dark part. When the shutter curtain speed is lowered and the exposure period is made longer than the blinking cycle, at least one of a bright part and a dark part appears. That is, the lower the shutter curtain speed, the greater the rate of change in luminance on the image data. Therefore, the change rate of the color temperature of the illumination light is also increased. If the width of the band area 410 is a fixed value, the change rate of the color temperature in one band area 410 becomes large, and thus the color temperature may not be corrected correctly by white balance correction. The image processing unit 107 divides into more band regions 410 and performs white balance correction as the shutter curtain speed is slower, so that the color temperature of the illumination light can be finely corrected.

図5は、重ね合わせおよびホワイトバランス補正を特定の部分領域で行う場合の処理例を模式的に示す。画像データ510および画像データ520は、それぞれ画像データ210および画像データ520に対応する、被写体像を含む画像データである。   FIG. 5 schematically shows an example of processing in a case where overlay and white balance correction are performed in a specific partial region. Image data 510 and image data 520 are image data including subject images corresponding to image data 210 and image data 520, respectively.

蛍光灯の点滅による影響は、蛍光灯の近くの被写体に対して大きく現れる。また、環境光よりも蛍光灯の光が強く当たる被写体ほど、照明光のフリッカの影響をより大きく受ける。例示した画像データ510および画像データ520では、フリッカの影響は、部分領域515および部分領域525に大きく現れる。一方、他の画像領域には、環境光が主として当たる被写体が写り込んでいるので、フリッカの影響は比較的に小さい。   The influence of the flashing of the fluorescent lamp appears greatly on the subject near the fluorescent lamp. In addition, the subject to which the fluorescent light is more intense than the ambient light is more affected by the flicker of the illumination light. In the illustrated image data 510 and image data 520, the influence of flicker appears greatly in the partial area 515 and the partial area 525. On the other hand, since the subject to which the ambient light is mainly reflected is reflected in the other image areas, the influence of flicker is relatively small.

画像処理部107は、画像データ510の部分領域515に、画像データ520の部分領域525の画像を重ね合わせる。このとき、画像処理部107は、画像データ510と画像データ520との間のブレを補正して、重ね合わせ処理を行うことが好ましい。例えば、画像処理部107は、画像データ510と画像データ520との間の移動ベクトルを算出して、算出した移動ベクトルに基づいて部分領域525をずらして重ね合わせる。   The image processing unit 107 superimposes the image of the partial area 525 of the image data 520 on the partial area 515 of the image data 510. At this time, it is preferable that the image processing unit 107 corrects a blur between the image data 510 and the image data 520 and performs an overlay process. For example, the image processing unit 107 calculates a movement vector between the image data 510 and the image data 520 and shifts and overlaps the partial areas 525 based on the calculated movement vector.

画像処理部107は、得られた画像データ530内の部分領域515に対応する領域に対して、1以上の帯領域540を設定する。本例では、複数の帯領域540−1および帯領域540−2を設定する。そして、画像処理部107は、各帯領域540に対してホワイトバランス補正を施す。このため、照明光のフリッカによる色被りを低減することができる。また、画像処理部107は、画像データ530における部分領域515以外の領域に対して、ホワイトバランス補正を施す。   The image processing unit 107 sets one or more band regions 540 for the region corresponding to the partial region 515 in the obtained image data 530. In this example, a plurality of band areas 540-1 and band areas 540-2 are set. Then, the image processing unit 107 performs white balance correction on each band region 540. For this reason, it is possible to reduce color coverage due to flickering of illumination light. In addition, the image processing unit 107 performs white balance correction on an area other than the partial area 515 in the image data 530.

画像データ530において部分領域515以外の領域は、フリッカの影響を大きく受けていないので、色被りは実質的に環境光によるものだけである。このため、部分領域515以外の領域全体でホワイトバランス補正を施すことで、環境光の色温度をきちんと補正することができる。また、本例の画像処理によれば、部分領域515以外の領域では画像データ520を重ね合わせないので、その領域でブレのない画像を提供することができる。   Since areas other than the partial area 515 in the image data 530 are not greatly affected by flicker, the color coverage is substantially only due to ambient light. For this reason, the color temperature of the ambient light can be properly corrected by performing white balance correction on the entire area other than the partial area 515. Further, according to the image processing of this example, since the image data 520 is not superimposed in an area other than the partial area 515, it is possible to provide a blur-free image in that area.

画像処理部107は、画像データ210に基づいて、部分領域515を特定してよい。例えば、画像処理部107は、輝度が帯状に変化している部分領域を、フリッカの影響が生じている部分領域として特定してよい。例えば、画像処理部107は、帯状の領域毎に算出された輝度の平均値に基づいて、輝度が帯状に変化している部分領域を特定してよい。また、画像処理部107は、例えば帯状の領域毎に算出された輝度の平均値に基づき、予め定められた値より大きい輝度の変化成分が検出された部分領域を、フリッカの影響が生じている部分領域として特定してよい。また、画像処理部107は、画像データ210と画像データ220との比較結果に基づいて、部分領域515を特定してよい。例えば、画像処理部107は、画像データ210と画像データ220との間で輝度値の差が予め定められた値よりも大きい部分領域を、フリッカの影響が生じている部分領域として特定してよい。   The image processing unit 107 may specify the partial area 515 based on the image data 210. For example, the image processing unit 107 may specify a partial region whose luminance changes in a band shape as a partial region where the influence of flicker occurs. For example, the image processing unit 107 may specify a partial region where the luminance changes in a band shape based on the average value of luminance calculated for each band-like region. In addition, the image processing unit 107 is affected by flicker in a partial area in which a luminance change component larger than a predetermined value is detected based on, for example, an average luminance value calculated for each band-shaped area. It may be specified as a partial area. Further, the image processing unit 107 may identify the partial region 515 based on the comparison result between the image data 210 and the image data 220. For example, the image processing unit 107 may specify a partial area where the difference in luminance value between the image data 210 and the image data 220 is larger than a predetermined value as a partial area where flicker influence occurs. .

図6は、静止画撮影時の処理フロー図を示す。処理フローは、静止画撮影のレリーズスイッチが操作されたことを検知したときに、開始される。また、本フロー図においては、特に断わらない限りシステム制御部114が主体となって動作する。   FIG. 6 shows a process flow diagram during still image shooting. The processing flow is started when it is detected that the release switch for still image shooting is operated. In this flowchart, the system control unit 114 operates mainly unless otherwise specified.

処理フローが開始されると、ステップS602で、1枚目の静止画である第1静止画が撮影される。具体的には、フォーカルプレーンシャッタ102を走行させて露光することで、第1静止画が撮影される。メモリ制御部106は、第1静止画の画像データを、内部メモリ108に記憶する。また、タイミング発生部112は、2枚目の静止画を撮影すべき撮影タイミングでフォーカルプレーンシャッタ102を駆動するクロックを発生するよう、設定される。具体的には、タイミング発生部112は、1枚目の静止画を撮影したときのフォーカルプレーンシャッタ102の先幕の走行開始タイミングから、照明光の明滅周期の(N+1/2)倍だけ後のタイミングで当該クロックを発生するよう、設定される。ここでNは0以上の整数とする。   When the processing flow is started, a first still image that is the first still image is captured in step S602. Specifically, the first still image is taken by running and exposing the focal plane shutter 102. The memory control unit 106 stores the image data of the first still image in the internal memory 108. The timing generator 112 is set so as to generate a clock for driving the focal plane shutter 102 at the shooting timing at which the second still image should be shot. Specifically, the timing generator 112 is (N + 1/2) times after the blinking period of the illumination light from the start timing of the front curtain of the focal plane shutter 102 when the first still image is captured. It is set to generate the clock at the timing. Here, N is an integer of 0 or more.

ステップS604で、フリッカ低減モードがONに設定されているか否かを判断する。フリッカ低減モードがONに設定されている場合、画像処理部107は、第1静止画の画像データに基づいて、フリッカの影響が生じているか否かを判断する(ステップS606)。フリッカの影響が生じている場合、画像処理部107は、第1静止画内でフリッカの影響が生じている領域であるフリッカ領域を検出する(ステップS608)。フリッカの影響が生じている領域は、図5に関連して説明した方法で特定することができる。   In step S604, it is determined whether or not the flicker reduction mode is set to ON. If the flicker reduction mode is set to ON, the image processing unit 107 determines whether or not the flicker has occurred based on the image data of the first still image (step S606). If the flicker effect has occurred, the image processing unit 107 detects a flicker area that is an area in which the flicker effect has occurred in the first still image (step S608). The area where the flicker influence occurs can be identified by the method described in relation to FIG.

ステップS610で、明滅周期の半周期分ずれた位相で、2枚目の静止画である第2静止画を撮影する。このとき、フォーカルプレーンシャッタ102の先幕は、タイミング発生部112から供給されたクロックに同期して走行を開始する。メモリ制御部106は、第2静止画の画像データを、内部メモリ108に記憶する。ステップS612で、画像処理部107は、第1静止画の画像データと第2静止画の画像データとを比較して、ブレ量を検出する。   In step S610, a second still image, which is the second still image, is photographed with a phase shifted by a half cycle of the blinking cycle. At this time, the front curtain of the focal plane shutter 102 starts running in synchronization with the clock supplied from the timing generator 112. The memory control unit 106 stores the image data of the second still image in the internal memory 108. In step S612, the image processing unit 107 compares the image data of the first still image and the image data of the second still image, and detects the blur amount.

ステップS614で、画像処理部107は、第1静止画のフリッカ領域に、第2静止画のフリッカ領域の画像を加算する。このとき、画像処理部107は、ステップS612で検出したブレ量に基づいて、第2静止画のフリッカ領域の画像に対してブレ補正を施して、ブレ補正された画像を、第1静止画のフリッカ領域に加算する。   In step S614, the image processing unit 107 adds the image of the flicker area of the second still image to the flicker area of the first still image. At this time, the image processing unit 107 performs blur correction on the image in the flicker area of the second still image based on the blur amount detected in step S612, and converts the blur-corrected image into the first still image. Add to the flicker area.

ステップS616で、画像処理部107は、フリッカ領域内で帯状の画像領域を設定して、帯状の画像領域毎にホワイトバランス補正を施す。このとき、画像領域毎の色温度のバラツキが低減するよう、帯状の画像領域毎にホワイトバランス補正を施すことが望ましい。例えば、複数の画像領域のうち最大輝度に対応する領域をホワイトバランスの基準として、帯状の画像領域毎にホワイトバランス補正を施すことが望ましい。ステップS618で、画像処理部107は、フリッカ領域以外の画像領域に対してホワイトバランス補正を施す。画像処理部107によってホワイトバランス補正が施された出力用の静止画データは、内部メモリ108内に保管される。内部メモリ108内に保管された出力用の静止画データは、表示制御部109の制御により表示部110に表示されてよい。出力用の静止画データを記録媒体122に記録する場合、後述するステップS620に進む。   In step S616, the image processing unit 107 sets a band-shaped image area in the flicker area, and performs white balance correction for each band-shaped image area. At this time, it is desirable to perform white balance correction for each band-shaped image region so that variation in color temperature for each image region is reduced. For example, it is desirable to perform white balance correction for each band-shaped image region using a region corresponding to the maximum luminance among a plurality of image regions as a reference for white balance. In step S618, the image processing unit 107 performs white balance correction on an image area other than the flicker area. Output still image data that has been subjected to white balance correction by the image processing unit 107 is stored in the internal memory 108. The output still image data stored in the internal memory 108 may be displayed on the display unit 110 under the control of the display control unit 109. When recording still image data for output on the recording medium 122, the process proceeds to step S620 described later.

ステップS604で、フリッカ低減モードがONに設定されていなければ、ステップS630へ進む。また、ステップS606で、フリッカの影響が生じていなければ、ステップS630へ進む。ステップS630では、画像処理部107は、第1静止画の画像データ全体に対して、ホワイトバランス補正を施す。画像処理部107によりホワイトバランス補正が施された出力用の静止画データは、内部メモリ108内に保管される。内部メモリ108内に保管された出力用の静止画データは、表示制御部109の制御により表示部110に表示されてよい。出力用の静止画データを記録媒体122に記録する場合、ステップS620に進む。   If the flicker reduction mode is not set to ON in step S604, the process proceeds to step S630. In step S606, if there is no flicker effect, the process proceeds to step S630. In step S630, the image processing unit 107 performs white balance correction on the entire image data of the first still image. The output still image data that has been subjected to white balance correction by the image processing unit 107 is stored in the internal memory 108. The output still image data stored in the internal memory 108 may be displayed on the display unit 110 under the control of the display control unit 109. When the still image data for output is recorded on the recording medium 122, the process proceeds to step S620.

ステップS620で、画像処理部107は出力用の静止画データを符号化する。そして、符号化された出力用の静止画データが記録媒体IF111を通じて記録媒体122に記録される。ステップS620における記録媒体122への記録が完了すると、一連の静止画撮影動作を終了する。   In step S620, the image processing unit 107 encodes still image data for output. The encoded still image data for output is recorded on the recording medium 122 through the recording medium IF111. When the recording on the recording medium 122 in step S620 is completed, the series of still image shooting operations is terminated.

図7は、カメラ100における動画撮影モードでの処理の一例を、照明光の明滅パターン700とともに模式的に示す。   FIG. 7 schematically illustrates an example of processing in the moving image shooting mode in the camera 100 together with a blinking pattern 700 of illumination light.

システム制御部114は、操作部材120が操作されて動画撮影が指示されると、CMOSセンサとしての撮像素子103をローリング読み出しするよう、カメラ100の各部を制御する。具体的には、システム制御部114がフォーカルプレーンシャッタ102を開放状態として、撮像素子103が有する画素ラインに対するリセット動作、光電荷の蓄積動作および読み出し動作等の駆動動作を、複数の画素ラインに対して一定の時間差で順次に行わせる。具体的には、タイミング発生部112は、垂直同期信号を時間間隔T2で発生して撮像素子103に供給する。したがって、時間間隔T2毎に撮影が行われる。ここで、時間間隔T2は、照明光の明滅周期の1/2に設定されているとする。   The system control unit 114 controls each unit of the camera 100 so as to perform rolling reading of the image sensor 103 as a CMOS sensor when the operation member 120 is operated to instruct moving image shooting. Specifically, the system control unit 114 opens the focal plane shutter 102 and performs drive operations such as a reset operation, a photocharge accumulation operation, and a read operation on the pixel lines of the image sensor 103 for a plurality of pixel lines. In sequence with a certain time difference. Specifically, the timing generator 112 generates a vertical synchronization signal at a time interval T <b> 2 and supplies it to the image sensor 103. Therefore, photographing is performed at every time interval T2. Here, it is assumed that the time interval T2 is set to ½ of the blinking cycle of the illumination light.

図2等に関連して説明した静止画撮影と同様に、本例のローリング読み出しによっても複数の画素ラインが順次に露光されるので、複数の画素ラインで電荷蓄積の同時性がない。このため、各画像データには、静止画撮影で説明した輝度ムラと同様の輝度ムラが生じる。本図においても、輝度ムラを分かり易く説明するために、画像データ710および画像データ720として照明光による輝度成分のみを示している。輝度ムラは、略同時に露光される画素ラインに垂直な方向に生じる。1つの画素ラインが行方向に形成されている場合、輝度ムラは列方向に生じる。   Similar to the still image shooting described with reference to FIG. 2 and the like, since the plurality of pixel lines are sequentially exposed by the rolling readout of this example, there is no simultaneous charge accumulation in the plurality of pixel lines. For this reason, each image data has a luminance unevenness similar to the luminance unevenness described in the still image shooting. Also in this drawing, in order to easily explain the luminance unevenness, only the luminance component due to the illumination light is shown as the image data 710 and the image data 720. The luminance unevenness occurs in a direction perpendicular to the pixel line exposed at substantially the same time. When one pixel line is formed in the row direction, luminance unevenness occurs in the column direction.

本例のように照明光の輝度が極小となる時刻t10で垂直同期信号が発生している場合、暗部の帯は、画像データ710のY方向の最上部に現れる。そして、照明光の輝度が極大となる時刻t11に対応して、明部の帯がY方向の最下部に現れる。また、時刻t11で生成された垂直同期信号に同期して撮影された画像データ720では、明部の帯がY方向の最上部に現れ、照明光の輝度が極小となる時刻t12に対応して、暗部の帯がY方向の最下部に現れる。   When the vertical synchronization signal is generated at time t10 when the luminance of the illumination light is minimized as in the present example, the dark band appears at the top of the image data 710 in the Y direction. Then, corresponding to the time t11 at which the luminance of the illumination light is maximized, a bright zone appears at the bottom in the Y direction. In addition, in the image data 720 captured in synchronization with the vertical synchronization signal generated at time t11, the bright band appears at the top in the Y direction, corresponding to time t12 when the luminance of the illumination light is minimized. A dark band appears at the bottom in the Y direction.

画像データ720のY方向の輝度分布は、画像データ710のY方向の輝度分布と位相が逆転する。画像処理部107は、画像データ710と画像データ720とを重ね合わせて平均化することにより、動画を構成するフレームとしての重ね合わせ画像データ730を生成する。輝度変化が互いに逆相となる画像データを重ね合わせることで重ね合わせ画像データ730が生成されるので、画像データ730に現れる輝度ムラは、画像データ710および画像データ720に現れる輝度ムラと比較して、著しく低減される。   The luminance distribution in the Y direction of the image data 720 is reversed in phase from the luminance distribution in the Y direction of the image data 710. The image processing unit 107 generates superimposed image data 730 as a frame constituting a moving image by superimposing the image data 710 and the image data 720 and averaging them. Since the superimposed image data 730 is generated by superimposing the image data whose luminance changes are opposite to each other, the luminance unevenness appearing in the image data 730 is compared with the luminance unevenness appearing in the image data 710 and the image data 720. , Significantly reduced.

照明光の明滅の次の周期であるt12〜t14についても同様に、2つの画像データを重ね合わせることで、1つのフレームを生成する。システム制御部114は、本動作が繰り返されるようカメラ100の各部を制御することで、動画を構成する複数のフレームを生成する。   Similarly, for t12 to t14, which is the next cycle of flickering of illumination light, one frame is generated by superimposing two image data. The system control unit 114 controls each unit of the camera 100 so that this operation is repeated, thereby generating a plurality of frames constituting the moving image.

本例では、動画撮影時の処理を分かり易く説明することを目的として、輝度ムラについて説明して、色被りについては特に言及しなかった。しかし、静止画撮影と同様に、重ね合わせて得られた画像データに色被りが残る場合がある。画像処理部107は、静止画撮影に関連して上述したように、動画フレームとしての各重ね合わせ画像に対して、複数の帯領域毎にホワイトバランス補正をする。これにより、各動画フレームの色被りを低減することができる。   In this example, for the purpose of explaining the processing at the time of moving image shooting in an easy-to-understand manner, luminance unevenness is described, and color covering is not particularly mentioned. However, as in still image shooting, there may be a case where color covering remains in the image data obtained by superimposing. As described above in connection with still image shooting, the image processing unit 107 performs white balance correction for each of the plurality of band regions on each superimposed image as a moving image frame. Thereby, the color covering of each moving image frame can be reduced.

図8は、動画撮影時の処理フロー図を示す。処理フローは、操作部材120に対して動画撮影指示操作がなされたことを検知したときに、開始される。また、本フロー図においては、特に断わらない限りシステム制御部114が主体となって動作する。   FIG. 8 shows a processing flow diagram during moving image shooting. The processing flow is started when it is detected that a moving image shooting instruction operation has been performed on the operation member 120. In this flowchart, the system control unit 114 operates mainly unless otherwise specified.

処理フローが開始されると、ステップS802で、フリッカ低減モードがONに設定されているか否かを判断する。フリッカ低減モードがONに設定されている場合、フレームレートをフリッカに合わせて設定する(ステップS804)。例えば、内部メモリ108に展開された照明光の明滅周波数を示す変数に基づき、タイミング発生部112は、照明光の明滅周期の(N+1/2)倍の時間間隔で、垂直同期信号を発生するよう設定される。ここでNは0以上の整数とする。また、タイミング発生部112は、各画素ラインを駆動するタイミングを示すクロックを発生するよう設定される。   When the processing flow is started, it is determined in step S802 whether the flicker reduction mode is set to ON. If the flicker reduction mode is set to ON, the frame rate is set according to the flicker (step S804). For example, based on a variable indicating the blinking frequency of the illumination light developed in the internal memory 108, the timing generator 112 generates the vertical synchronization signal at a time interval (N + 1/2) times the blinking period of the illumination light. Is set. Here, N is an integer of 0 or more. The timing generator 112 is set to generate a clock that indicates the timing for driving each pixel line.

ステップS806で、撮像素子103に対するローリング読み出しを開始する。ステップS808で、撮影およびフレーム生成の処理を実行する。具体的なシーケンスについては後述する。撮影およびフレーム生成の処理が完了すると、ステップS810で、ローリング読み出しを停止する。生成された複数のフレームを記録媒体122に記録する場合、ステップS808で生成された複数のフレームが画像処理部107によって動画として符号化処理され、記録媒体IF111を通じて記録媒体122に動画として記録される(ステップS812)。ステップS812における記録媒体122への記録が完了すると、一連の動画撮影動作を終了する。   In step S806, rolling readout for the image sensor 103 is started. In step S808, shooting and frame generation processing is executed. A specific sequence will be described later. When the photographing and frame generation processing is completed, rolling readout is stopped in step S810. When recording a plurality of generated frames on the recording medium 122, the plurality of frames generated in step S808 are encoded as moving images by the image processing unit 107 and recorded as moving images on the recording medium 122 through the recording medium IF111. (Step S812). When the recording on the recording medium 122 in step S812 is completed, the series of moving image shooting operations is terminated.

本フローのステップS804において、フレームレートをフリッカに合わせて設定するとして説明した。例えば、100Hzの明滅に対応すべく図7に例示したフレームレートで撮影する場合、出力用の動画として100fpsの動画が得られる。一方、30fpsの動画を生成するよう要求されている場合、100fpsの動画を30fpsの動画に変換する必要がある。例えば、ステップS812において、画像処理部107は、100fpsの動画を30fpsの動画に変換して、記録媒体に記録してよい。フレームレートを変換する処理が介在するが、低フレームレートの動画への変換処理であるので、画質は実質的に劣化しない。   In step S804 of this flow, it has been described that the frame rate is set according to the flicker. For example, when shooting at the frame rate illustrated in FIG. 7 to cope with blinking at 100 Hz, a moving image of 100 fps is obtained as a moving image for output. On the other hand, when it is requested to generate a 30 fps moving image, it is necessary to convert the 100 fps moving image into a 30 fps moving image. For example, in step S812, the image processing unit 107 may convert a 100 fps moving image into a 30 fps moving image and record it on a recording medium. Although there is an intervening process for converting the frame rate, the image quality is not substantially deteriorated because it is a conversion process to a low frame rate moving image.

ところで、図7に例示したフレームレートは、ステップS804に関連して説明したN=0の場合に該当する。N=1とすると、出力用の動画のフレームレートは33.3fpsとなり、要求された30fpsよりも高い。したがって、当該動画のフレームレートを要求された30fpsに変換しても、画質が著しく劣化することはない。しかし、N=2の場合、出力用の動画のフレームレートは20fpsとなり、要求された30fpsよりも低くなる。このため、この動画を要求された30fpsに変換したとすると、N=0またはN=1の場合と比較して、画質の劣化は大きくなる。そこで、ステップS804では、明滅の周期および要求されたフレームレートに基づき、要求されたフレームレートよりも出力用の動画のフレームレートが高くなるよう、撮影のフレームレートを設定することが望ましい。   Incidentally, the frame rate illustrated in FIG. 7 corresponds to the case of N = 0 described in relation to step S804. If N = 1, the frame rate of the moving image for output is 33.3 fps, which is higher than the requested 30 fps. Therefore, even if the frame rate of the moving image is converted to the required 30 fps, the image quality does not deteriorate significantly. However, when N = 2, the frame rate of the moving image for output is 20 fps, which is lower than the requested 30 fps. For this reason, if this moving image is converted to the required 30 fps, the degradation of image quality is greater than when N = 0 or N = 1. Therefore, in step S804, it is desirable to set the shooting frame rate based on the blinking cycle and the requested frame rate so that the frame rate of the moving image for output is higher than the requested frame rate.

具体的には、明滅周期をTとした場合に、ステップS804において、要求されたフレームレートの逆数よりも2×(N+1/2)×Tが小さくなるという条件を満たすNを算出する。そして、算出したNを用いて、撮影のフレームレート(N+1/2)×Tを設定することが望ましい。このとき、当該条件を満たす最も大きいNを用いて、撮影のフレームレートを設定してよい。   Specifically, assuming that the blinking cycle is T, in step S804, N that satisfies the condition that 2 × (N + ½) × T is smaller than the inverse of the requested frame rate is calculated. Then, it is desirable to set the shooting frame rate (N + 1/2) × T using the calculated N. At this time, the shooting frame rate may be set using the largest N that satisfies the condition.

図9は、撮影およびフレーム生成の処理を実行するフロー図である。すなわち、図8のステップS808の詳細フロー図である。   FIG. 9 is a flowchart for executing the photographing and frame generation processing. That is, it is a detailed flowchart of step S808 in FIG.

ステップS902で第1フレームの読み出しが完了すると、ステップS904でメモリ制御部106が第1フレームの画像データを、内部メモリ108に記憶する。ステップS906で第2フレームの読み出しが完了すると、ステップS906でメモリ制御部106が第2フレームの画像データを、内部メモリ108に記憶する。   When the reading of the first frame is completed in step S902, the memory control unit 106 stores the image data of the first frame in the internal memory 108 in step S904. When the reading of the second frame is completed in step S906, the memory control unit 106 stores the image data of the second frame in the internal memory 108 in step S906.

ステップS910で、フリッカ低減モードがONに設定されているか否かを判断する。フリッカ低減モードがONに設定されている場合、画像処理部107は、第1フレームおよび第1フレームの少なくとも一方に基づいて、フリッカの影響が生じているか否かを判断する(ステップS912)。フリッカの影響が生じている場合、画像処理部107は、第1フレーム内でフリッカの影響が生じている領域であるフリッカ領域を検出する(ステップS914)。フリッカの影響が生じている領域は、図5に関連して説明した方法と同様の方法を適用して検出することができる。ステップS916で、画像処理部107は、第1フレームと第2フレームとを比較して、ブレ量を検出する。   In step S910, it is determined whether the flicker reduction mode is set to ON. When the flicker reduction mode is set to ON, the image processing unit 107 determines whether or not the flicker has occurred based on at least one of the first frame and the first frame (step S912). When the flicker influence is generated, the image processing unit 107 detects a flicker area that is an area where the flicker influence occurs in the first frame (step S914). The area where the flicker is generated can be detected by applying a method similar to the method described with reference to FIG. In step S916, the image processing unit 107 compares the first frame and the second frame to detect the shake amount.

ステップS918で、画像処理部107は、第1フレームのフリッカ領域に、第2フレームのフリッカ領域の画像を加算する。このとき、画像処理部107は、ステップS916で検出したブレ量に基づいて、第2フレームのフリッカ領域の画像に対してブレ補正を施して、ブレ補正された画像を、第1フレームのフリッカ領域に加算する。   In step S918, the image processing unit 107 adds the image of the flicker area of the second frame to the flicker area of the first frame. At this time, the image processing unit 107 performs blur correction on the image in the flicker area of the second frame based on the blur amount detected in step S916, and converts the blur-corrected image into the flicker area of the first frame. Add to.

ステップS920で、画像処理部107は、フリッカ領域内で帯状の画像領域を設定して、帯状の画像領域毎にホワイトバランス補正を施す。ステップS922で、フリッカ領域以外の画像領域に対してホワイトバランス補正を施す。画像処理部107によってホワイトバランス補正が施された出力用のフレームは、内部メモリ108内に保管される。内部メモリ108内に保管された出力用のフレームは、表示制御部109の制御により表示部110に表示されてよい。本ステップの後、ステップS924に進む。   In step S920, the image processing unit 107 sets a band-shaped image area in the flicker area, and performs white balance correction for each band-shaped image area. In step S922, white balance correction is performed on the image area other than the flicker area. The output frame subjected to the white balance correction by the image processing unit 107 is stored in the internal memory 108. The output frame stored in the internal memory 108 may be displayed on the display unit 110 under the control of the display control unit 109. After this step, the process proceeds to step S924.

ステップS910で、フリッカ低減モードがONに設定されていなければ、ステップS930へ進む。また、ステップS912で、フリッカの影響が生じていなければ、ステップS930へ進む。ステップS930では、画像処理部107は、第1フレームの画像データ全体に対してホワイトバランス補正を施す。また、画像処理部107は、第2フレームの画像データ全体に対してホワイトバランス補正を施す。画像処理部107がホワイトバランス補正を施すことにより生成された2つのフレームは、出力用のフレームとして内部メモリ108内に保管される。内部メモリ108内に保管された出力用のフレームは、表示制御部109の制御により表示部110に表示されてよい。本ステップの後、ステップS924に進む。   If the flicker reduction mode is not set to ON in step S910, the process proceeds to step S930. In step S912, if there is no flicker effect, the process proceeds to step S930. In step S930, the image processing unit 107 performs white balance correction on the entire image data of the first frame. The image processing unit 107 performs white balance correction on the entire image data of the second frame. Two frames generated by the image processing unit 107 performing white balance correction are stored in the internal memory 108 as output frames. The output frame stored in the internal memory 108 may be displayed on the display unit 110 under the control of the display control unit 109. After this step, the process proceeds to step S924.

ステップS924で、動画撮影の終了が、操作部材120を通じて指示されたか否かを判断する。動画撮影の終了が指示されていない場合、ステップS902に進み、動画撮影の終了が指示されるまで、出力用のフレームが生成され続ける。動画撮影の終了が指示されている場合、撮影およびフレーム生成の処理に関する一連の処理を終了して、図8のフローに戻る。   In step S924, it is determined whether or not the end of the moving image shooting is instructed through the operation member 120. If the end of moving image shooting is not instructed, the process proceeds to step S902, and output frames continue to be generated until the end of moving image shooting is instructed. When the end of moving image shooting is instructed, a series of processing relating to shooting and frame generation processing ends, and the flow returns to the flow of FIG.

本実施形態で説明したとおり、静止撮影モードにおいてフォーカルプレーンシャッタ102を駆動することで、撮像素子103が有する複数の画素ラインが順次に露光される。また、動画撮影モードにおいてCMOSセンサとしての撮像素子103をローリング読み出しすることで、撮像素子103が有する複数の画素ラインが順次に露光される。   As described in the present embodiment, by driving the focal plane shutter 102 in the still photographing mode, a plurality of pixel lines included in the image sensor 103 are sequentially exposed. In addition, in the moving image shooting mode, a plurality of pixel lines included in the image sensor 103 are sequentially exposed by performing rolling readout of the image sensor 103 as a CMOS sensor.

上記においては、2つの画像を重ね合わせて重ね合わせ画像を生成するとして説明した。しかし、画像処理部107は、3以上の複数の画像を重ね合わせて重ね合わせ画像を生成してもよい。すなわち、画像処理部107は、撮像素子103で複数回露光して生成された複数の画像を重ね合わせて、重ね合わせ画像を生成する。そして、画像処理部107は、重ね合わせ画像に対して、複数の画素ラインに平行な複数の帯状の画像領域毎にホワイトバランス補正を施す。複数の画像の重ね合わせにより、輝度ムラを低減した静止画、動画フレームを生成することができる。また、帯状の画像領域毎にホワイトバランス補正を施すことにより、色被りを低減した静止画、動画フレームを生成することができる。すなわち、カメラ100によれば、照明光のフリッカの影響を低減した静止画、動画フレームを生成することができる。   In the above description, it has been described that two images are superimposed to generate a superimposed image. However, the image processing unit 107 may generate a superimposed image by superimposing a plurality of three or more images. That is, the image processing unit 107 generates a superimposed image by superimposing a plurality of images generated by performing multiple exposures with the image sensor 103. Then, the image processing unit 107 performs white balance correction on the superimposed image for each of a plurality of strip-shaped image regions parallel to the plurality of pixel lines. By superimposing a plurality of images, a still image and a moving image frame with reduced luminance unevenness can be generated. In addition, by performing white balance correction for each band-shaped image region, it is possible to generate still images and moving image frames with reduced color coverage. That is, according to the camera 100, it is possible to generate still images and moving image frames in which the influence of flickering of illumination light is reduced.

上記においては、複数の画像を重ね合わせた後にホワイトバランス補正を施すとして説明した。しかし、画像処理部107は、複数の画像のそれぞれに対して、帯状の画像領域毎にホワイトバランス補正を施してから重ね合わせることにより、ホワイトバランス補正が施された重ね合わせ画像を生成してもよい。すなわち、重ね合わせ処理とホワイトバランス処理を適用する順番にかかわらず、画像処理部107は、複数の画素ラインに平行な複数の帯状の画像領域毎にホワイトバランス補正を施した重ね合わせ画像を生成することができる。また、画像処理部107は、複数の画像を重ね合わせるとき、少なくとも一部の領域で重ね合わせ処理をしてよい。また、画像処理部107は、少なくとも一部の領域でホワイトバランス補正を施してよい。上述したように、画像処理部107は、撮像素子103が生成する画像内のフリッカの影響が生じる部分領域に対して、複数の帯状の画像領域毎にホワイトバランス補正を施してよい。このように、画像処理部107は、フリッカの影響が生じる部分領域に対して、複数の画像を重ね合わせて、複数の帯状の画像領域毎にホワイトバランス補正を施してよい。   In the above description, it has been described that white balance correction is performed after a plurality of images are superimposed. However, the image processing unit 107 may generate a superimposed image on which white balance correction has been performed by performing white balance correction on each of the plurality of images after performing white balance correction on each band-shaped image region. Good. That is, regardless of the order in which the overlay process and the white balance process are applied, the image processing unit 107 generates a superimposed image in which white balance correction is performed for each of a plurality of strip-shaped image regions parallel to the plurality of pixel lines. be able to. Further, the image processing unit 107 may perform superimposition processing on at least a part of a region when superimposing a plurality of images. The image processing unit 107 may perform white balance correction in at least a part of the area. As described above, the image processing unit 107 may perform white balance correction for each of a plurality of band-shaped image regions on a partial region in which an effect of flicker in an image generated by the image sensor 103 is generated. In this manner, the image processing unit 107 may perform white balance correction for each of the plurality of strip-shaped image regions by superimposing a plurality of images on the partial region where the flicker is affected.

上記においては主として、静止画撮影モードでは、照明光の明滅周期よりも短く、明滅周期の半周期よりも長い露光時間T1で露光するとして説明した。また、動画撮影モードにおいて、明滅周期の半分の時間間隔T2でフレームを撮影するとして説明した。すなわち、画像処理部107が、フリッカの周期に対して半周期ずれた位相で撮像素子103で露光して生成された2つの画像を重ね合わせるとして説明した。しかし、静止画撮影における露光時間、動画撮影におけるフレーム間隔は、上記に限られない。上記の重ね合わせおよびホワイトバランス補正処理は、フリッカの影響を受ける露光時間およびフレーム間隔であれば、どのような場合でも適用することができる。フリッカの影響を受ける露光時間およびフレーム間隔としては、露光時間やフレーム間隔が明滅周期の同程度である場合を例示することができる。一方、1の画素ラインが露光される時間長さが明滅周期と同程度以上である場合、フリッカの影響を受けないとみなすことができる。また、静止画撮影において、シャッタ幕速が極めて高速な場合、例えば、露光時間が明滅周期と比較して十分に短い場合も、フリッカの影響を受けないとみなすことができる。   In the above description, in the still image shooting mode, it has been described that exposure is performed with an exposure time T1 that is shorter than the blinking cycle of the illumination light and longer than the half cycle of the blinking cycle. In the moving image shooting mode, it has been described that a frame is shot at a time interval T2 that is half the blinking cycle. That is, it has been described that the image processing unit 107 superimposes two images generated by exposure by the image sensor 103 with a phase shifted by a half cycle with respect to the flicker cycle. However, the exposure time in still image shooting and the frame interval in moving image shooting are not limited to the above. The above overlay and white balance correction processes can be applied in any case as long as the exposure time and frame interval are affected by flicker. As the exposure time and frame interval affected by flicker, a case where the exposure time and frame interval are approximately the same as the blinking cycle can be exemplified. On the other hand, when the time length for which one pixel line is exposed is equal to or longer than the blinking cycle, it can be regarded as not affected by flicker. In still image shooting, when the shutter curtain speed is extremely high, for example, when the exposure time is sufficiently short as compared with the blinking cycle, it can be regarded as not affected by flicker.

したがって、フリッカの影響を受ける露光時間またはフレーム間隔である場合、上記の重ね合わせおよびホワイトバランス補正処理を適用し、フリッカの影響を受けない露光時間またはフレーム間隔である場合、上記の重ね合わせおよびホワイトバランス補正処理を適用しないようにしてよい。上記においては、フリッカ低減モードのON/OFFを判断して処理を切り替えるとして説明した。しかし、フリッカ低減モードのON/OFFの判断を、フリッカの影響を受ける露光時間またはフレーム間隔であるか否かの判断に替えることができる。   Therefore, when the exposure time or frame interval is affected by flicker, the above overlay and white balance correction processing is applied. When the exposure time or frame interval is not affected by flicker, the above overlay and white interval are applied. The balance correction process may not be applied. In the above description, it has been described that the process is switched by determining whether the flicker reduction mode is ON / OFF. However, ON / OFF determination of the flicker reduction mode can be replaced with determination of whether the exposure time or frame interval is affected by flicker.

上記においては主として、照明光の明滅に対して、明滅周期の半周期分ずれた位相で次の露光が開始されるとして説明した。しかし、次の露光が明滅周期に対してきっちり半周期分ずれている必要はない。次の露光が明滅周期の半周期分ずれた位相で開始されることが最も好ましいが、次の露光開始までの時間長さが明滅周期の整数倍と一致していなければ、次の露光開始までの時間長さはどのような値であってもよい。次の露光開始までの時間長さが明滅周期の整数倍と一致している場合を除き、フリッカの影響を低減する一定の効果を期待することができる。   In the above description, it has been mainly described that the next exposure is started with a phase shifted by a half cycle of the blinking cycle with respect to the blinking of the illumination light. However, it is not necessary for the next exposure to be exactly half a cycle away from the blinking cycle. Most preferably, the next exposure is started with a phase that is shifted by a half cycle of the blink cycle, but if the time length until the start of the next exposure does not match an integer multiple of the blink cycle, the next exposure starts. The time length of may be any value. Unless the time length until the start of the next exposure coincides with an integral multiple of the blinking cycle, a certain effect of reducing the influence of flicker can be expected.

上記において、照明光として蛍光灯による照明光を例示した。しかし、照明光として、水銀灯等の、色温度が時間的に変化する他の光源による照明光を例示することができる。商用の交流電源で駆動され、電源周波数に応じて明滅する光源が、照明光の光源として用いられている環境下で撮影する場合に、上記の処理、例えば上記の重ね合わせおよびホワイトバランス補正処理を適用することができる。例えば50Hzの系統電源で駆動される光源であれば、例えば100Hzで明滅することが期待される。60Hzの系統電源で駆動される光源であれば、例えば120Hzで明滅することが期待される。したがって、系統電源に応じた周波数、例えば100Hz〜120Hzの明滅周期に基づいて、上記のフリッカの影響を受けるか否かを判断してもよい。また、上記のように、次の露光を開始するまでの時間長さは、例えば100Hz〜120Hzの明滅周波数に基づいて設定されてよい。例えば、次の露光を開始するまでの時間長さを、1/100の整数倍でなく、かつ、1/120の整数倍でもない値に設定してよい。また、明滅周期の半周期分ずれた位相で次の露光が開始されるべく、次の露光を開始するまでの時間長さを、当該明滅周波数に基づいて設定してよい。例えば、次の露光を開始するまでの時間長さを、カメラ100が現在位置する地域で使用される系統電源の周波数に基づいて設定してよい。カメラ100の現在位置は、GPS情報等に基づいて特定してよい。   In the above, the illumination light by a fluorescent lamp was illustrated as illumination light. However, the illumination light can be exemplified by illumination light from another light source whose color temperature changes with time, such as a mercury lamp. When shooting in an environment where a light source that is driven by a commercial AC power supply and blinks according to the power supply frequency is used as a light source of illumination light, the above processing, for example, the above overlay and white balance correction processing is performed. Can be applied. For example, a light source driven by a 50 Hz system power supply is expected to blink at, for example, 100 Hz. If the light source is driven by a 60 Hz system power supply, for example, it is expected to blink at 120 Hz. Therefore, it may be determined whether or not it is affected by the flicker based on a frequency according to the system power supply, for example, a blinking cycle of 100 Hz to 120 Hz. Further, as described above, the time length until the start of the next exposure may be set based on, for example, a blinking frequency of 100 Hz to 120 Hz. For example, the time length until the start of the next exposure may be set to a value that is not an integer multiple of 1/100 and not an integer multiple of 1/120. Further, the time length until the next exposure is started may be set based on the blink frequency so that the next exposure is started with a phase shifted by a half cycle of the blink cycle. For example, the time length until the next exposure starts may be set based on the frequency of the system power supply used in the area where the camera 100 is currently located. The current position of the camera 100 may be specified based on GPS information or the like.

上記において説明したように、画像処理部107は、撮像素子103が生成する画像にフリッカの影響が生じる場合に、複数の帯状の画像領域毎にホワイトバランス補正を施す。フリッカの影響が生じない場合は、画像処理部107は、画像全体でホワイトバランス補正をすればよい。また、上記のように、画像処理部107は、帯状の輝度分布が生じている場合に、フリッカの影響が生じた旨を判断することができる。具体的には、画像処理部107は、撮像素子103が生成した画像が、複数の画素ラインに垂直な方向に輝度の周期性を有する場合に、フリッカの影響が生じた旨を判断する。その他にも、カメラ100に周囲光を検出するセンサを設けて、当該センサ出力に基づいて、撮像素子103が生成する画像にフリッカの影響が生じるか否かを判断してよい。センサ出力としては、明るさの時間変化情報、周囲光のスペクトル情報等を例示することができる。例えば、明るさが周期的に変化している場合、フリッカの影響が生じるとして判断してよい。また、周囲光のスペクトルが、蛍光灯からの発光スペクトル、水銀灯からの発光スペクトル等の、予め定められたスペクトルと、予め定められた値を超える一致度で一致する場合に、フリッカの影響が生じるとして判断してよい。その他にも、上記のように、フリッカの影響を受ける露光時間またはフレーム間隔である場合に、撮像素子103が生成する画像にフリッカの影響が生じると判断してよい。このように、フリッカの影響が実際に生じているか否かの判断を要することなく、フリッカの影響を受ける可能性のある撮影条件で撮影する場合に、撮像素子103が生成する画像にフリッカの影響が生じると判断してよい。   As described above, the image processing unit 107 performs white balance correction for each of a plurality of strip-shaped image regions when the image generated by the image sensor 103 is affected by flicker. If there is no flicker effect, the image processing unit 107 may perform white balance correction on the entire image. Further, as described above, the image processing unit 107 can determine that the influence of flicker has occurred when a band-like luminance distribution is generated. Specifically, the image processing unit 107 determines that the effect of flicker has occurred when the image generated by the image sensor 103 has luminance periodicity in a direction perpendicular to the plurality of pixel lines. In addition, a sensor that detects ambient light may be provided in the camera 100, and based on the sensor output, it may be determined whether an image generated by the image sensor 103 is affected by flicker. Examples of sensor output include brightness time change information, ambient light spectrum information, and the like. For example, when the brightness changes periodically, it may be determined that the influence of flicker occurs. Also, flicker effects occur when the ambient light spectrum matches a predetermined spectrum such as an emission spectrum from a fluorescent lamp or an emission spectrum from a mercury lamp with a degree of coincidence exceeding a predetermined value. You may judge as. In addition, as described above, when the exposure time or frame interval is affected by flicker, it may be determined that the image generated by the image sensor 103 is affected by flicker. In this manner, when shooting is performed under shooting conditions that may be affected by flicker without determining whether flicker is actually affected, the effect of flicker is exerted on the image generated by the image sensor 103. It may be determined that this occurs.

上記においては、例えば図5に関連して説明したように、画像処理部107は、部分領域を重ね合わせる場合に、ブレを補正して部分領域を重ね合わせるとして説明した。しかし、画像処理部107は、画像の全体を重ね合わせる場合にも、ブレを補正して重ね合わせてよい。すなわち、画像処理部107は、部分領域を重ね合わせるか画像全体を重ね合わせるかにかかわらず、複数の画像間のブレを補正して重ね合わせてよい。本処理によれば、手ぶれ等の影響も低減された画像を提供することができる。また、以上に説明したカメラ100によれば、内部メモリ108に画像データとして記憶してから画像処理を施すので、画像データに基づいて、フリッカに関する情報や手ぶれ量等の、種々の情報を得ることができる。   In the above description, for example, as described with reference to FIG. 5, the image processing unit 107 has been described as correcting the blur and superimposing the partial areas when overlapping the partial areas. However, the image processing unit 107 may also superimpose the image by correcting the blur when superimposing the entire image. That is, the image processing unit 107 may correct and overlap blur between a plurality of images regardless of whether the partial areas are overlapped or the entire image is overlapped. According to this processing, it is possible to provide an image in which the influence of camera shake or the like is reduced. Further, according to the camera 100 described above, since image processing is performed after being stored as image data in the internal memory 108, various information such as information on flicker and the amount of camera shake can be obtained based on the image data. Can do.

上記においては、カメラ100がフォーカルプレーンシャッタ102を備え、静止画撮影モードではフォーカルプレーンシャッタ102を用いて撮影し、動画画撮影モードではローリング読み出しにより撮影するとした。カメラ100は、フォーカルプレーンシャッタ102を備えずともよく、静止画撮影モードにおいてもローリング読み出しをしてよい。また、動画撮影モードにおいても、フォーカルプレーンシャッタ102を駆動して動画を撮影してもよい。また、カメラ100のシャッタ機能は、電子先幕シャッタと、メカ後幕シャッタとの組み合わで実装されてよく、撮像素子103は、電子先幕シャッタとメカ後幕シャッタとによって画素ラインが順次に露光されてよい。   In the above description, it is assumed that the camera 100 includes the focal plane shutter 102, images are taken using the focal plane shutter 102 in the still image shooting mode, and rolling reading is performed in the moving image shooting mode. The camera 100 may not include the focal plane shutter 102 and may perform rolling reading even in the still image shooting mode. In the moving image shooting mode, the focal plane shutter 102 may be driven to shoot a moving image. The shutter function of the camera 100 may be implemented by a combination of an electronic front curtain shutter and a mechanical rear curtain shutter, and the image sensor 103 sequentially exposes pixel lines by the electronic front curtain shutter and the mechanical rear curtain shutter. May be.

上記実施形態で説明したカメラ100は、レンズ交換式一眼レフカメラ、コンパクトデジタルカメラ、ミラーレス一眼カメラおよびビデオカメラはもちろん、カメラ機能付きの携帯電話等として適用できる。上記の画像処理部107における画像処理を、パーソナルコンピュータなどの電子情報処理装置が実行することができる。電子情報処理装置は、当該画像処理の実行を制御する制御プログラムをロードして、読み込んだ制御プログラムに従って動作することにより、当該画像処理を実行してよい。電子情報処理装置は、制御プログラムを記憶しているコンピュータ読取可能な記録媒体を読み込むことによって、制御プログラムをロードすることができる。   The camera 100 described in the above embodiment can be applied to a mobile phone with a camera function as well as a lens interchangeable single-lens reflex camera, a compact digital camera, a mirrorless single-lens camera, and a video camera. The image processing in the image processing unit 107 can be executed by an electronic information processing apparatus such as a personal computer. The electronic information processing apparatus may execute the image processing by loading a control program that controls execution of the image processing and operating according to the read control program. The electronic information processing apparatus can load the control program by reading a computer-readable recording medium storing the control program.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

100 カメラ、101 光学系、102 フォーカルプレーンシャッタ、103 撮像素子、104 アンプ部、105 A/D変換器、106 メモリ制御部、107 画像処理部、108 内部メモリ、109 表示制御部、110 表示部、111 記録媒体IF、112 タイミング発生部、113 レンズ制御部、114 システム制御部、120 操作部材、122 記録媒体、200 明滅パターン、210、220、230、510、520、530、710、720、730 画像データ、400 重ね合わせ画像、410、540、540 帯領域、515、525 部分領域 DESCRIPTION OF SYMBOLS 100 Camera, 101 Optical system, 102 Focal plane shutter, 103 Image pick-up element, 104 Amplifier part, 105 A / D converter, 106 Memory control part, 107 Image processing part, 108 Internal memory, 109 Display control part, 110 Display part, 111 recording medium IF, 112 timing generation unit, 113 lens control unit, 114 system control unit, 120 operation member, 122 recording medium, 200 blinking pattern, 210, 220, 230, 510, 520, 530, 710, 720, 730 image Data, 400 Superimposed image, 410, 540, 540 Band area, 515, 525 Partial area

Claims (8)

順次に露光される複数の画素ラインを有する撮像素子と、
フリッカの影響が生じる場合に、前記影響が生じる部分領域に対して、前記撮像素子で複数回露光して生成された複数の画像を重ね合わせ、前記複数の画素ラインに平行な複数の帯状の画像領域毎にホワイトバランス補正を施して重ね合わせ画像を生成する画像処理部と
備える撮像装置。
An image sensor having a plurality of pixel lines exposed sequentially;
A plurality of strip-like images parallel to the plurality of pixel lines are obtained by superimposing a plurality of images generated by the image sensor being exposed a plurality of times on a partial region where the influence is caused when flicker is generated. An image processing unit for generating a superimposed image by performing white balance correction for each region ;
An imaging apparatus comprising:
前記部分領域は、実質的に環境光のみを受けた領域以外の領域である請求項1に記載の撮像装置。The imaging device according to claim 1, wherein the partial region is a region other than a region that substantially receives only ambient light. 前記画像処理部は、前記フリッカの周期に対して半周期ずれた位相で前記撮像素子で露光して生成された2つの画像を重ね合わせる請求項1または2に記載の撮像装置。 Wherein the image processing unit, an imaging apparatus according to claim 1 or 2 superposing two images generated by exposing by the imaging device in a half cycle out of phase with respect to the period of the flicker. 前記画像処理部は、前記撮像素子が生成した画像が、前記複数の画素ラインに垂直な方向に輝度の周期性を有する場合に、前記フリッカの影響が生じた旨を判断する請求項1から3のいずれか一項に記載の撮像装置。 Wherein the image processing unit, an image which the imaging device is generated, if it has a periodicity of the brightness in a direction perpendicular to said plurality of pixel lines, claims 1 to 3 determine that the influence of the flicker has occurred The imaging device according to any one of the above. 前記画像処理部は、前記複数の画像間のブレを補正して重ね合わせる請求項1からのいずれか一項に記載の撮像装置。 Wherein the image processing unit, an imaging apparatus according to any one of claims 1 to 4, superimposed to correct the blur between the plurality of images. 前記撮像素子に対してローリング読み出しをする読み出し部をさらに備える請求項1からのいずれか一項に記載の撮像装置。 Imaging device according to claim 1, further comprising a reading unit for rolling read in any one of 5 with respect to the image sensor. 前記複数の画素ラインを順次に露光するフォーカルプレーンシャッタをさらに備える請求項1からのいずれか一項に記載の撮像装置。 The imaging apparatus according to any one of claims 1 to 5, further comprising a focal plane shutter for sequentially exposing the plurality of pixel lines. 画像処理制御プログラムであって、コンピュータに、
フリッカの影響が生じる場合に、前記影響が生じる部分領域に対して、順次に露光される複数の画素ラインを有する撮像素子で複数回露光して生成された複数の画像を重ね合わせるステップと、
前記複数の画素ラインに平行な複数の帯状の画像領域毎にホワイトバランス補正を施して重ね合わせ画像を生成するステップと
実行させる画像処理制御プログラム。
An image processing control program for a computer
Superimposing a plurality of images generated by exposure multiple times with an imaging device having a plurality of pixel lines that are sequentially exposed to a partial region where the effect occurs when flicker effects occur ;
Generating a superimposed image by performing white balance correction for each of a plurality of strip-shaped image areas parallel to the plurality of pixel lines;
An image processing control program for executing
JP2011000664A 2011-01-05 2011-01-05 Imaging apparatus and image processing control program Active JP5720250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011000664A JP5720250B2 (en) 2011-01-05 2011-01-05 Imaging apparatus and image processing control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011000664A JP5720250B2 (en) 2011-01-05 2011-01-05 Imaging apparatus and image processing control program

Publications (2)

Publication Number Publication Date
JP2012142853A JP2012142853A (en) 2012-07-26
JP5720250B2 true JP5720250B2 (en) 2015-05-20

Family

ID=46678671

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011000664A Active JP5720250B2 (en) 2011-01-05 2011-01-05 Imaging apparatus and image processing control program

Country Status (1)

Country Link
JP (1) JP5720250B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6412364B2 (en) * 2014-08-04 2018-10-24 日本放送協会 Imaging apparatus and imaging method
WO2022172639A1 (en) * 2021-02-09 2022-08-18 ソニーグループ株式会社 Imaging device, imaging method, and program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10304249A (en) * 1997-04-22 1998-11-13 Toshiba Corp Solid-state image pickup device
JP2000023040A (en) * 1998-06-30 2000-01-21 Toshiba Corp Solid-state image pickup device and system on-chip solid- state image pickup device
JP3899859B2 (en) * 2001-07-11 2007-03-28 ソニー株式会社 Solid-state imaging device, driving method thereof, and camera system
JP2004328117A (en) * 2003-04-22 2004-11-18 Fuji Photo Film Co Ltd Digital camera and photographing control method
JP4539432B2 (en) * 2005-05-16 2010-09-08 ソニー株式会社 Image processing apparatus and imaging apparatus
JP2007142554A (en) * 2005-11-15 2007-06-07 Nikon Corp Digital camera
JP2007259335A (en) * 2006-03-24 2007-10-04 Nec Electronics Corp Image processing method and apparatus
JP2008113237A (en) * 2006-10-30 2008-05-15 Kyocera Corp Flicker detecting method and device in imaging apparatus
JP2010021645A (en) * 2008-07-08 2010-01-28 Nikon Corp Image processing apparatus, image capturing apparatus, and image processing program

Also Published As

Publication number Publication date
JP2012142853A (en) 2012-07-26

Similar Documents

Publication Publication Date Title
US10244159B2 (en) Image capturing apparatus and control method thereof
JP5474653B2 (en) Imaging apparatus and imaging method
TWI446098B (en) Imaging device and its shutter drive mode selection method
US7539403B2 (en) Image-taking apparatus
JP2015115922A (en) Imaging apparatus and imaging method
JP2011193065A (en) Imaging equipment
JP2006222935A (en) Electronic still camera, image capturing method, program and storage medium
US9167173B2 (en) Image capturing apparatus configured to perform a cyclic shooting operation and method of controlling the same
JP2009077057A (en) Imaging apparatus, and control method for imaging apparatus
JP4614143B2 (en) Imaging apparatus and program thereof
JP7190355B2 (en) Image processing device and image processing method
US20100141791A1 (en) Video camera
JP5943561B2 (en) Imaging device, control method thereof, and control program
JP5720250B2 (en) Imaging apparatus and image processing control program
JP2012119788A (en) Imaging device, image processing device, imaging method and image processing method
JP5569361B2 (en) Imaging apparatus and white balance control method
JP4869801B2 (en) Imaging device
JP2014230121A (en) Imaging apparatus and pixel defect detection method
JP4855363B2 (en) Imaging apparatus and camera shake correction method in imaging apparatus
JP2009147806A (en) Imaging apparatus
JP6515469B2 (en) Imaging device, imaging method and program
US11736658B2 (en) Image pickup apparatus, image pickup method, and storage medium
JP2010193286A (en) Camera apparatus with flash dimming function
JP2009080244A (en) Imaging apparatus and method for correcting irradiation area in imaging apparatus
JP2009118001A (en) Imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150309

R150 Certificate of patent or registration of utility model

Ref document number: 5720250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250