JP2016096551A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2016096551A
JP2016096551A JP2015230656A JP2015230656A JP2016096551A JP 2016096551 A JP2016096551 A JP 2016096551A JP 2015230656 A JP2015230656 A JP 2015230656A JP 2015230656 A JP2015230656 A JP 2015230656A JP 2016096551 A JP2016096551 A JP 2016096551A
Authority
JP
Japan
Prior art keywords
average value
image
imaging
frequency
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015230656A
Other languages
Japanese (ja)
Inventor
雅人 武石
Masahito Takeishi
雅人 武石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015230656A priority Critical patent/JP2016096551A/en
Publication of JP2016096551A publication Critical patent/JP2016096551A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device that can calculate the flickering frequency of a light source without complicating calculation processing.SOLUTION: An imaging device has an imaging element 12, an achieving unit 21a, an average value calculator 21b and a frequency calculator 21c. The imaging element is an XY address scan type imaging element having an imaging area in which plural pixels are two-dimensionally arranged. The achieving unit successively achieves an image signal of a partial area which is thinned and read out from the imaging area when a thinning and reading instruction is made to the imaging element on a line basis. The average value calculator calculates the average value of brightness of the image signal of each frame. The frequency calculator calculates the flickering frequency of a light source on the basis of the time variation of the average value calculated every frame.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

現在、一般的なXYアドレス走査型の撮像素子を備える撮像装置では、アドレス指定によりライン毎に電荷蓄積時間を制御するローリングシャッタ方式が採用されている。   Currently, an image pickup apparatus including a general XY address scanning type image pickup element employs a rolling shutter system that controls a charge accumulation time for each line by address designation.

このローリングシャッタ方式を用いて蛍光灯下で動画撮影が行われた場合、蛍光灯の光源の明滅周波数(例えば、50Hz又は60Hzの商用電源周波数)による周期的な輝度変化の影響により、画像に横縞状のむら(以下、「フリッカ」という。)が生じる場合がある。   When moving pictures are taken under a fluorescent lamp using this rolling shutter method, horizontal stripes appear in the image due to the influence of periodic luminance changes due to the flicker frequency of the fluorescent lamp light source (for example, the commercial power supply frequency of 50 Hz or 60 Hz). In some cases, unevenness (hereinafter referred to as “flicker”) occurs.

そこで、光源の明滅周波数(50Hz又は60Hz)を算出し、その明滅周波数に基づいてフリッカを抑制する撮像装置が提案されている(例えば、特許文献1参照)。   In view of this, there has been proposed an imaging apparatus that calculates the flicker frequency (50 Hz or 60 Hz) of a light source and suppresses flicker based on the flicker frequency (see, for example, Patent Document 1).

特開2003−189129号公報JP 2003-189129 A

しかし、特許文献1の撮像装置では、1フレームの画像を垂直走査方向に分割して複数のフリッカ検波枠を設定し、時間的に変動する各フリッカ検波枠内の輝度値のデータからフリッカ成分を抽出した後、光源の明滅周波数を算出する。そのため、特許文献1の撮像装置では、演算処理が一般的に複雑になるという問題点を有している。   However, in the imaging apparatus of Patent Document 1, a plurality of flicker detection frames are set by dividing an image of one frame in the vertical scanning direction, and flicker components are obtained from luminance value data in each flicker detection frame that varies with time. After extraction, the flicker frequency of the light source is calculated. For this reason, the imaging device of Patent Document 1 has a problem that the arithmetic processing is generally complicated.

そこで、本発明は、上記事情に鑑み、演算処理が複雑にならずに光源の明滅周波数を算出することができる撮像装置を提供することを目的とする。   In view of the above circumstances, an object of the present invention is to provide an imaging apparatus capable of calculating the blinking frequency of a light source without complicating arithmetic processing.

第1の発明に係る撮像装置は、撮像素子と、取得部と、平均値算出部と、周波数算出部とを備える。撮像素子は、複数の画素が2次元的に配列された撮像領域を有するXYアドレス走査型の撮像素子である。取得部は、撮像素子にライン単位の間引き読み出しを指示することにより、撮像領域の内から間引き読み出しされた部分領域の画像信号を順次取得する。平均値算出部は、フレーム毎に画像信号の明るさの平均値を算出する。周波数算出部は、フレーム毎に算出された平均値の時間的変化に基づいて、光源の周波数を算出する。   An imaging apparatus according to a first aspect includes an imaging element, an acquisition unit, an average value calculation unit, and a frequency calculation unit. The imaging device is an XY address scanning type imaging device having an imaging region in which a plurality of pixels are two-dimensionally arranged. The acquisition unit sequentially acquires image signals of the partial areas that have been thinned and read out from the imaging area by instructing the imaging element to perform thinning readout in units of lines. The average value calculation unit calculates the average value of the brightness of the image signal for each frame. The frequency calculation unit calculates the frequency of the light source based on the temporal change of the average value calculated for each frame.

第2の発明は、第1の発明において、撮像素子は、複数色のカラーフィルタのいずれかが各画素に配置されたカラー撮像素子である。また、撮像素子は、撮像領域の異なる行同士で同列の同色画素の出力値を加算する第1加算回路と撮像領域の異なる列同士で同行の同色画素の出力値を加算する第2加算回路との少なくとも一方を備える。取得部は、第1加算回路と第2加算回路との少なくとも一方で出力値が加算された後の画像信号をライン単位で取得する。   In a second aspect based on the first aspect, the image pickup device is a color image pickup device in which any one of a plurality of color filters is arranged in each pixel. In addition, the imaging element includes a first addition circuit that adds the output values of the same color pixels in the same column between different rows in the imaging region, and a second addition circuit that adds the output values of the same color pixels in the same row between different columns in the imaging region At least one of the above. The acquisition unit acquires the image signal after the output value is added to at least one of the first addition circuit and the second addition circuit in units of lines.

本発明の撮像装置によれば、演算処理が複雑にならずに光源の明滅周波数を算出するこ
とができる。
According to the imaging apparatus of the present invention, the blinking frequency of the light source can be calculated without complicating the arithmetic processing.

本発明の撮像装置の一実施形態である電子カメラ1の内部構成例を説明するブロック図1 is a block diagram illustrating an internal configuration example of an electronic camera 1 that is an embodiment of an imaging apparatus of the present invention. 比較例として、従来行われているCMOS撮像素子のフリッカ検出の一例について説明する図As a comparative example, a diagram for explaining an example of flicker detection of a CMOS image sensor that is conventionally performed 電子カメラ1のフリッカ検出の動作の一例を示すフローチャートThe flowchart which shows an example of the operation | movement of the flicker detection of the electronic camera 1. 本実施形態におけるフリッカ検出の原理を説明する図The figure explaining the principle of the flicker detection in this embodiment 本実施形態におけるフリッカ検出の原理を説明する図The figure explaining the principle of the flicker detection in this embodiment 図4(d)に示すフレームの一部拡大図Partial enlarged view of the frame shown in FIG. 第1実施形態の変形例を説明する図The figure explaining the modification of 1st Embodiment

以下、図面に基づいて本発明の実施の形態を詳細に説明する。図1は、本発明の撮像装置の一実施形態である電子カメラ1の内部構成例を説明するブロック図である。この電子カメラ1は、静止画撮影機能のみならず、動画撮影機能も有する。図1に示す通り電子カメラ1は、撮影レンズ11と、撮像素子12と、タイミングジェネレータ(以下、「TG」という。)13と、アナログフロントエンド部(以下、「AFE」という。)14と、画像処理部15と、RAM(Random Access Memory)16と、ROM(Read Only Memory)17と、表示モニタ18と、記録インターフェース部(以下、「記録I/F部」という。)19と、操作部20と、CPU(Central Processing Unit)21と、バス22とを備える。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram illustrating an internal configuration example of an electronic camera 1 which is an embodiment of an imaging apparatus of the present invention. The electronic camera 1 has not only a still image shooting function but also a moving image shooting function. As shown in FIG. 1, the electronic camera 1 includes a photographing lens 11, an image sensor 12, a timing generator (hereinafter referred to as “TG”) 13, an analog front end unit (hereinafter referred to as “AFE”) 14, and An image processing unit 15, a RAM (Random Access Memory) 16, a ROM (Read Only Memory) 17, a display monitor 18, a recording interface unit (hereinafter referred to as “recording I / F unit”) 19, and an operation unit. 20, a CPU (Central Processing Unit) 21, and a bus 22.

このうち、AFE14、画像処理部15、RAM16、ROM17、表示モニタ18、記録I/F部19及びCPU21は、バス22を介して互いに接続されている。   Among these, the AFE 14, the image processing unit 15, the RAM 16, the ROM 17, the display monitor 18, the recording I / F unit 19, and the CPU 21 are connected to each other via a bus 22.

撮影レンズ11は、フォーカスレンズやズームレンズを含む複数のレンズ群で構成されている。なお、簡単のため、図1では、撮影レンズ11を1枚のレンズとして図示する。この撮影レンズ11は、不図示のレンズ駆動装置によって制御される。   The photographing lens 11 includes a plurality of lens groups including a focus lens and a zoom lens. For the sake of simplicity, FIG. 1 shows the photographing lens 11 as a single lens. The photographing lens 11 is controlled by a lens driving device (not shown).

撮像素子12は、一例として複数の画素を2次元的(M行N列)に配列し、XYアドレス指定により任意のラインを読み出し可能なCMOS(Complementary Metal−Oxide Semiconductor)型の撮像素子である。また、撮像素子12の撮像面には、被写体像をカラー検出するために、赤色(R)、緑色(G)、青色(B)の3種類のカラーフィルタが、一例としてベイヤー配列で配置されている。また、撮像素子12は、XYアドレス指定により任意の画素同士の出力値を加算する画素加算回路12aを有する。なお、画素加算回路12aの詳細については、変形例で後述する。   The image pickup device 12 is a CMOS (Complementary Metal-Oxide Semiconductor) type image pickup device in which a plurality of pixels are arranged two-dimensionally (M rows and N columns) as an example, and an arbitrary line can be read by XY addressing. In addition, on the image pickup surface of the image pickup device 12, three types of color filters of red (R), green (G), and blue (B) are arranged in a Bayer array as an example in order to detect the color of the subject image. Yes. In addition, the imaging element 12 includes a pixel addition circuit 12a that adds output values of arbitrary pixels by XY addressing. Details of the pixel addition circuit 12a will be described later in a modification.

TG13は、CPU21からの指示に従い撮像素子12及びAFE14の各々へ向けて駆動信号を送出し、それによって両者の駆動タイミングを制御する。   The TG 13 sends a drive signal to each of the image sensor 12 and the AFE 14 in accordance with an instruction from the CPU 21, thereby controlling the drive timing of both.

AFE14は、撮像素子12が生成する画像信号(RGB信号)に対して信号処理を施すアナログフロントエンド回路である。このAFE14は、画像信号のゲイン調整やA/D変換などを行う。このAFE14が出力する画像信号は、RAM16に一時的に記録される。   The AFE 14 is an analog front end circuit that performs signal processing on an image signal (RGB signal) generated by the image sensor 12. The AFE 14 performs image signal gain adjustment, A / D conversion, and the like. The image signal output from the AFE 14 is temporarily recorded in the RAM 16.

画像処理部15は、RAM16に記録されている画像信号を読み出し、各種の画像処理(階調変換処理、輪郭強調処理、ホワイトバランス処理、YC変換処理等)を施す。   The image processing unit 15 reads the image signal recorded in the RAM 16 and performs various image processing (gradation conversion processing, contour enhancement processing, white balance processing, YC conversion processing, etc.).

ROM17は、電子カメラ1の制御を行うプログラム等を予め記憶している不揮発性のフラッシュメモリである。このROM17には、CPU21の制御により間引き読み出しする指定アドレスを示すアドレス情報等が予め記録されている。   The ROM 17 is a non-volatile flash memory that stores a program for controlling the electronic camera 1 in advance. In the ROM 17, address information indicating a designated address to be thinned and read out under the control of the CPU 21 is recorded in advance.

表示モニタ18は、静止画像や電子カメラ1の操作メニュー等を表示する。表示モニタ18には、液晶モニタ等を適宜選択して用いることができる。   The display monitor 18 displays a still image, an operation menu of the electronic camera 1, and the like. As the display monitor 18, a liquid crystal monitor or the like can be appropriately selected and used.

記録I/F部19には、着脱自在の記録媒体30を接続するためのコネクタが形成されている。そして、記録I/F部19は、CPU21からの指示により、そのコネクタに接続された記録媒体30にアクセスして静止画像や動画の記録処理等を行う。この記録媒体30は、例えば、不揮発性のメモリカードである。図1では、コネクタに接続された後の記録媒体30を示している。   The recording I / F unit 19 is formed with a connector for connecting a detachable recording medium 30. Then, the recording I / F unit 19 accesses the recording medium 30 connected to the connector according to an instruction from the CPU 21 and performs recording processing of still images and moving images. The recording medium 30 is, for example, a non-volatile memory card. FIG. 1 shows the recording medium 30 after being connected to the connector.

操作部20は、例えば、コマンド選択用のコマンドダイヤル、電源ボタン、レリーズ釦等を有している。そして、操作部20は、電子カメラ1を操作するための指示入力を受け付ける。また、操作部20は、コマンドダイヤルを介して、例えば、動画の撮影モードの選択入力を受け付ける。ここで、動画の撮影モードの指示入力を受け付けると、フリッカ検出用のプログラムがCPU21の制御により開始する。   The operation unit 20 includes, for example, a command dial for command selection, a power button, a release button, and the like. Then, the operation unit 20 receives an instruction input for operating the electronic camera 1. In addition, the operation unit 20 receives, for example, a selection input of a moving image shooting mode via a command dial. Here, when an instruction input for a moving image shooting mode is received, a flicker detection program starts under the control of the CPU 21.

CPU21は、電子カメラ1の統括的な制御を行うプロセッサである。CPU21は、ROM17に予め格納されたプログラムを実行することにより電子カメラ1の各部を制御する。例えば、CPU21は、XYアドレス指定によりライン毎に電荷蓄積時間を制御するローリングシャッタ方式を用いて、撮像素子12からの画像信号の読み出し等の撮像を制御する。なお、本実施形態では、例えば、後述する図3に示すフローの処理で使用するフリッカ検出用のプログラムを記録媒体30に記録して、この記録媒体30に記録されたプログラムをROM17に記録してもよい。これにより、新たな機能を追加するファームウエアとして、フリッカ検出用のプログラムを適用することが可能となる。   The CPU 21 is a processor that performs overall control of the electronic camera 1. The CPU 21 controls each part of the electronic camera 1 by executing a program stored in the ROM 17 in advance. For example, the CPU 21 controls imaging such as reading of an image signal from the imaging element 12 using a rolling shutter system that controls the charge accumulation time for each line by XY addressing. In the present embodiment, for example, a flicker detection program used in the flow process shown in FIG. 3 to be described later is recorded on the recording medium 30, and the program recorded on the recording medium 30 is recorded on the ROM 17. Also good. As a result, a flicker detection program can be applied as firmware for adding a new function.

また、CPU21は、取得部21aと、平均値算出部21bと、周波数算出部21cとしても機能する。なお、本実施形態では、図1において、取得部21aと、平均値算出部21bと、周波数算出部21cとを各ブロックに分けているが、例えば、ASIC(画像エンジン:Application Specific Integrated Circuit)のように各ブロックを1つの機能単位に集約して用いてもよい。   The CPU 21 also functions as an acquisition unit 21a, an average value calculation unit 21b, and a frequency calculation unit 21c. In the present embodiment, in FIG. 1, the acquisition unit 21a, the average value calculation unit 21b, and the frequency calculation unit 21c are divided into blocks, but for example, an ASIC (Image Specific Integrated Circuit) of ASIC (Image Engine: Application Specific Integrated Circuit). In this way, each block may be integrated into one functional unit.

取得部21aは、TG13を介して撮像素子12にライン単位の間引き読み出しを指示することにより、撮像領域の内から間引き読み出しされた部分領域の画像信号を所定のフレームレートで順次取得する。この場合、ライン単位に間引き読み出しされた部分領域の画像信号に基づいて生成するフレームは、各々RAM16に一時的に記録される。なお、所定のフレームレートは、フリッカ検出可能なフレームレートであって、後述する通り、例えば600fpsである。   The acquisition unit 21a instructs the image pickup device 12 to perform thinning readout in units of lines via the TG 13, and sequentially acquires the image signals of the partial areas read out from the imaging area at a predetermined frame rate. In this case, each frame generated based on the image signal of the partial area thinned and read out in units of lines is temporarily recorded in the RAM 16. The predetermined frame rate is a frame rate at which flicker can be detected, and is, for example, 600 fps as described later.

平均値算出部21bは、フレーム毎に画像信号の明るさの平均値を算出する。具体的には、平均値算出部21bは、A/D変換された後のRGB信号に対して、R、G、B毎に信号値をフレーム毎に加算した後、各々平均値を求める。なお、画像処理部15が、RGB信号をYC変換処理して輝度信号(Y)及び色差信号(C)に変換することにより、平均値算出部21bは、輝度信号に基づく輝度値の平均値をフレーム毎に算出してもよい。   The average value calculation unit 21b calculates the average value of the brightness of the image signal for each frame. Specifically, the average value calculation unit 21b adds the signal values for each of R, G, and B for each frame to the RGB signals after A / D conversion, and then obtains the average value. The image processing unit 15 performs YC conversion processing on the RGB signal to convert it into a luminance signal (Y) and a color difference signal (C), whereby the average value calculation unit 21b calculates the average value of the luminance values based on the luminance signal. You may calculate for every frame.

周波数算出部21cは、フレーム毎に算出されたR、G、B毎の平均値の時間的変化に基づいて、明滅周波数を算出する。なお、詳細については、後述するフローチャート(図3)を参照して説明する。   The frequency calculation unit 21c calculates the blinking frequency based on the temporal change in the average value for each R, G, and B calculated for each frame. Details will be described with reference to a flowchart (FIG. 3) described later.

次に、電子カメラ1のフリッカ検出の動作について説明する。ここでは、説明の便宜上、比較例として従来のフリッカ検出の一例について説明する。   Next, the flicker detection operation of the electronic camera 1 will be described. Here, for convenience of explanation, an example of conventional flicker detection will be described as a comparative example.

図2は、比較例として、従来行われているCMOS撮像素子のフリッカ検出の一例について説明する図である。図2(a)は、蛍光灯の輝度変化の様子を模式的に示した図である。図2(b)は、1フレームの画像の読み出し開始を示す垂直同期信号のタイミングチャートを示す図である。図2(c)は、ローリングシャッタ制御を模式的に示す図である。図2(d)は、蛍光灯下で明滅周波数に起因して発生するフリッカを誇張して示した図である。   FIG. 2 is a diagram for explaining an example of flicker detection of a CMOS image sensor conventionally performed as a comparative example. Fig.2 (a) is the figure which showed typically the mode of the brightness | luminance change of the fluorescent lamp. FIG. 2B is a timing chart of the vertical synchronization signal indicating the start of reading one frame image. FIG. 2C is a diagram schematically showing rolling shutter control. FIG. 2D is an exaggerated view of flicker generated due to the blinking frequency under a fluorescent lamp.

なお、蛍光灯は、明滅周波数(商用電源周波数)の各サイクルに輝度変化を2回起こす。つまり、この輝度変化は、明滅周波数の2倍の周波数に相当する周期で繰り返される。そのため、50Hzの場合は、1/100秒、60Hzの場合は、1/120秒の明滅周期になる。   Note that the fluorescent lamp causes a luminance change twice in each cycle of the blinking frequency (commercial power supply frequency). That is, this luminance change is repeated at a period corresponding to a frequency twice as high as the blinking frequency. Therefore, the blinking period is 1/100 second in the case of 50 Hz, and 1/120 second in the case of 60 Hz.

ここで、50Hzの蛍光灯下で動画撮影をする場合を想定し、撮像素子12のライン毎の電荷蓄積時間が、明滅周期(1/100秒)のn倍(nは整数、但し、0を除く)に対応する周期でない場合(すなわち、フリッカが検出されることを意味する)について説明する。この場合、図2(c)に示すラインaの電荷蓄積時間に応じた蛍光灯の光量の積分量と、図2(c)に示すラインbの電荷蓄積時間に応じた蛍光灯の光量の積分量とは異なる。そのため、図2(d)に示すように1画面内での明るさはライン単位で一定とならず、フリッカが発生してしまう。なお、図2(d)では、フリッカの検出領域を細かく区切って、検出を行うことを模式的に表している。   Here, assuming the case of shooting a movie under a 50 Hz fluorescent lamp, the charge accumulation time for each line of the image sensor 12 is n times the blinking cycle (1/100 seconds) (n is an integer, where 0 is set) A case where the cycle does not correspond to (excluding) (that is, flicker is detected) will be described. In this case, the integral amount of the fluorescent lamp light quantity corresponding to the charge accumulation time of the line a shown in FIG. 2C and the integral of the fluorescent lamp light quantity corresponding to the charge accumulation time of the line b shown in FIG. It is different from the amount. Therefore, as shown in FIG. 2D, the brightness within one screen is not constant for each line, and flicker occurs. FIG. 2D schematically shows that detection is performed by finely dividing the flicker detection area.

従来、CMOS撮像素子のフリッカ検出では、1画面内に現れる横縞に基づいて蛍光灯の明滅周波数を算出することがなされているが、演算処理が複雑になりやすい。そこで、本実施形態では、演算処理が簡単で、精度良く蛍光灯の明滅周波数を算出する手段を提供する。なお、本実施形態では、ローリングシャッタ方式による電荷蓄積時間(ローリングシャッタ速度)を明滅周期のn倍に設定するため、明滅周波数から明滅周期(明滅周波数の逆数)を算出することとする。   Conventionally, in flicker detection of a CMOS image sensor, the flicker frequency of a fluorescent lamp is calculated based on horizontal stripes appearing in one screen, but the arithmetic processing tends to be complicated. Therefore, in the present embodiment, a means for calculating the flicker frequency of the fluorescent lamp with high accuracy is provided. In this embodiment, since the charge accumulation time (rolling shutter speed) by the rolling shutter method is set to n times the blinking cycle, the blinking cycle (reciprocal of the blinking frequency) is calculated from the blinking frequency.

図3は、電子カメラ1のフリッカ検出の動作の一例を示すフローチャートである。このフローチャートは、コマンドダイヤル等で動画撮影モードが選択されると、CPU21の制御により開始される。   FIG. 3 is a flowchart illustrating an example of the flicker detection operation of the electronic camera 1. This flowchart is started by the control of the CPU 21 when the moving image shooting mode is selected by a command dial or the like.

ステップS101:CPU21は、撮像素子11を駆動する。具体的には、CPU21は、TG13を介して、撮像素子11及びAFE14へ向けて駆動信号を送出し、600fpsのフレームレートでフレームの画像信号を取得する指示を出す。ここで、CPU21は、ローリングシャッタ方式により、画像信号を撮像素子12に順次出力させる。   Step S101: The CPU 21 drives the image sensor 11. Specifically, the CPU 21 sends a drive signal to the image sensor 11 and the AFE 14 via the TG 13 and issues an instruction to acquire a frame image signal at a frame rate of 600 fps. Here, the CPU 21 sequentially outputs image signals to the image sensor 12 by a rolling shutter system.

なお、説明の便宜上、この600fpsのフレームレートは、フリッカ検出用であって、実際の動画撮影時には、CPU21は、動画フォーマットに応じて、例えば、24fps、30fps、50fps若しくは60fps等のフレームレートに設定する。つまり、フリッカ検出時には、CPU21は、フレームレートを通常の動画撮影時よりも速くする。ここで、CPU21は、1ライン単位で電荷蓄積時間を設定してもよく、連続する複数ラインで1つの電荷蓄積時間を設定してもよい。   For convenience of explanation, the frame rate of 600 fps is for flicker detection. At the time of actual moving image shooting, the CPU 21 sets a frame rate such as 24 fps, 30 fps, 50 fps or 60 fps according to the moving image format. To do. That is, when flicker is detected, the CPU 21 makes the frame rate faster than that during normal moving image shooting. Here, the CPU 21 may set the charge accumulation time for each line, or may set one charge accumulation time for a plurality of continuous lines.

ステップS102:CPU21の取得部21aは、撮像素子12にライン単位の間引き読み出しを指示する。これにより、取得部21aは、撮像領域の内から間引き読み出しさ
れた部分領域の画像信号を順次取得する。なお、各々の間引き読み出しするラインでの電荷蓄積時間は一定であるが、その取得時期は時間軸方向に相違している。
Step S102: The acquisition unit 21a of the CPU 21 instructs the image sensor 12 to perform thinning readout in units of lines. Thereby, the acquisition unit 21a sequentially acquires the image signals of the partial areas read out from the imaging area. The charge accumulation time in each thinning-out readout line is constant, but the acquisition timing is different in the time axis direction.

図4、図5は、本実施形態におけるフリッカ検出の原理を説明する図である。図4(a)は、蛍光灯の輝度変化の様子を模式的に示した図である。図4(b)は、垂直同期信号のタイミングチャートを示す図である。図4(c)は、本実施形態におけるローリングシャッタ制御を模式的に示す図である。図4(d)は、本実施形態におけるフレームの読み出しを模式的に示す図である。なお、図4(d)では、撮像素子12のX方向が水平走査方向を表しており、撮像素子12のY方向が垂直走査方向を表している。   4 and 5 are diagrams for explaining the principle of flicker detection in this embodiment. FIG. 4A is a diagram schematically showing how the fluorescent lamp changes in luminance. FIG. 4B is a timing chart of the vertical synchronization signal. FIG. 4C is a diagram schematically showing rolling shutter control in the present embodiment. FIG. 4D is a diagram schematically illustrating frame reading in the present embodiment. In FIG. 4D, the X direction of the image sensor 12 represents the horizontal scanning direction, and the Y direction of the image sensor 12 represents the vertical scanning direction.

図4(d)において、取得部21aは、撮像素子12の撮像領域の内、例えば、予め指定したラインL1、L2、L3、L4の画像信号の読み出しを撮像素子12に指示する。すると、撮像素子12は、部分領域(ラインL1〜L4)に基づくフレームの画像信号を出力する。図5では、1フレームの読み出し時間毎に画像信号が画像として出力されて行く様子を模式的に示している。すなわち、本実施形態では、間引き読み出ししない場合と比較して、間引き読み出しを行うと、1画面(1フレーム)を高速に読み出せる。こうすると、蛍光灯の明滅の影響が、図2(d)に示すような1画面内での空間的な横縞状の濃淡変化ではなくなる。つまり、蛍光灯の明滅の影響は、図5に示す通り、1画面の濃淡変化が少なく画面内で一様に近くなり、フレームの画面全体における時間軸方向での明るさの変化に置き換わる。ここで、撮像素子12が出力する部分領域(ラインL1〜L4)に基づくフレームの画像信号は、AFE14でA/D変換され、順次RAM16に保存される。   In FIG. 4D, the acquisition unit 21a instructs the image sensor 12 to read out image signals of, for example, lines L1, L2, L3, and L4 specified in advance in the image pickup region of the image sensor 12. Then, the image sensor 12 outputs a frame image signal based on the partial regions (lines L1 to L4). FIG. 5 schematically shows a state in which an image signal is output as an image every reading time of one frame. That is, in the present embodiment, one screen (one frame) can be read at a higher speed when thinning readout is performed than when thinning readout is not performed. In this way, the influence of the flickering of the fluorescent lamp is no longer a spatial change in horizontal stripes in one screen as shown in FIG. In other words, as shown in FIG. 5, the influence of the flickering of the fluorescent lamp is less uniform in one screen and becomes almost uniform in the screen, and is replaced with a change in brightness in the time axis direction of the entire frame screen. Here, the image signals of the frames based on the partial areas (lines L1 to L4) output from the image sensor 12 are A / D converted by the AFE 14 and sequentially stored in the RAM 16.

ステップS103:CPU21の平均値算出部21bは、フレーム毎に画像信号の明るさの平均値を算出する。   Step S103: The average value calculation unit 21b of the CPU 21 calculates the average value of the brightness of the image signal for each frame.

図6は、図4(d)に示すフレームの一部拡大図である。図6では、簡単のため、ベイヤー配列状に並んだ4ライン分(L1〜L4)の部分領域に基づくフレームを示しており、図6に示す各R、G、Bに対応する画像信号の値がRAM16に記録される。   FIG. 6 is a partially enlarged view of the frame shown in FIG. For the sake of simplicity, FIG. 6 shows frames based on partial areas of four lines (L1 to L4) arranged in a Bayer array, and values of image signals corresponding to R, G, and B shown in FIG. Is recorded in the RAM 16.

平均値算出部21bは、RAM16から順次部分領域の画像信号を読み出し、R、G、B毎に信号値を加算した後、各々平均値を求める。そして、CPU21は、フレーム毎の各々の平均値を一旦RAMに記録する。CPU21は、明滅周波数を算出するためのサンプリングデータとして、例えば、フレームの画像として20フレーム分の各々の平均値を記録する。なお、20フレームは一例であってフレーム数が多い程、CPU21の周波数算出部21cは、明滅周波数をより正確に算出することができるようになる。   The average value calculation unit 21b sequentially reads out the image signals of the partial areas from the RAM 16, adds the signal values for each of R, G, and B, and then obtains an average value. Then, the CPU 21 temporarily records each average value for each frame in the RAM. As the sampling data for calculating the blinking frequency, the CPU 21 records, for example, an average value for each of 20 frames as a frame image. Note that 20 frames is an example, and as the number of frames increases, the frequency calculation unit 21c of the CPU 21 can more accurately calculate the blinking frequency.

ステップS104:CPU21の周波数算出部21cは、フレーム毎に算出されたR、G、B毎の平均値の時間的変化に基づいて、明滅周期を算出する。具体的には、周波数算出部21cは、先ず、RAM16から20フレーム分のR、G、B毎の平均値を読み出す。次に、周波数算出部21cは、平均値が相対的に低いフレーム(画面が暗いフレームを意味する)が出現する周期をフレームレートに基づいて算出する。そして、周波数算出部21cは、平均値が相対的に低いフレームが出現する周期に基づいて、明滅周波数(例えば、50Hz又は60Hz)の算出を行う。そして、周波数算出部21cは、明滅周波数に基づいて、明滅周期を算出する。なお、周波数算出部21cは、平均値が相対的に高いフレームが出現する周期に基づいて、明滅周波数の算出を行ってもよい。或いは、周波数算出部21cは、平均値が相対的に低いフレームと平均値が相対的に高いフレームとが出現する周期に基づいて、明滅周波数の算出を行ってもよい。   Step S104: The frequency calculation unit 21c of the CPU 21 calculates the blinking cycle based on the temporal change of the average value for each R, G, and B calculated for each frame. Specifically, the frequency calculation unit 21c first reads average values for R, G, and B for 20 frames from the RAM 16. Next, the frequency calculation unit 21c calculates a period in which a frame having a relatively low average value (meaning a frame with a dark screen) appears based on the frame rate. Then, the frequency calculation unit 21c calculates a blinking frequency (for example, 50 Hz or 60 Hz) based on a cycle in which a frame having a relatively low average value appears. Then, the frequency calculation unit 21c calculates a blinking cycle based on the blinking frequency. Note that the frequency calculation unit 21c may calculate the blinking frequency based on the period in which frames with relatively high average values appear. Alternatively, the frequency calculation unit 21c may calculate the blinking frequency based on a cycle in which a frame having a relatively low average value and a frame having a relatively high average value appear.

ステップS105:CPU21は、明滅周期が算出できたか否かを判定する。周波数算
出部21cは、例えば蛍光灯下での撮影でない場合には、明滅周期を算出することができない。そのため、周波数算出部21cが明滅周期を算出できなかった場合(ステップS105:No)、ステップS108に移行する。CPU21は、動画撮影時のローリングシャッタ速度を任意に設定することができる(ステップS108)。つまり、フリッカの影響がないためである。但し、フリッカの影響が新たに出現するローリングシャッタ速度の設定は、除く。
Step S105: The CPU 21 determines whether or not the blinking cycle has been calculated. For example, the frequency calculating unit 21c cannot calculate the blinking cycle when the photographing is not performed under a fluorescent lamp. Therefore, when the frequency calculation unit 21c cannot calculate the blinking cycle (step S105: No), the process proceeds to step S108. The CPU 21 can arbitrarily set the rolling shutter speed during moving image shooting (step S108). That is, there is no influence of flicker. However, the setting of the rolling shutter speed at which the influence of flicker newly appears is excluded.

一方、周波数算出部21cが明滅周期を算出できた場合(ステップS105:Yes)、ステップS106に移行する。   On the other hand, when the frequency calculation unit 21c can calculate the blinking cycle (step S105: Yes), the process proceeds to step S106.

ステップS106:CPU21は、明滅周期のn倍のローリングシャッタ速度に設定する。これにより、フリッカは、検出されなくなる。   Step S106: The CPU 21 sets the rolling shutter speed to n times the blinking cycle. As a result, flicker is not detected.

ステップS107:CPU21は、動画撮影を開始させる。すなわち、CPU21は、TG13を介して、撮像素子11及びAFE14へ向けて駆動信号を送出し、蛍光灯下であれば、フリッカが検出されないローリングシャッタ速度で動画撮影を開始させる。また、蛍光灯下でなければ、任意のローリングシャッタ速度で動画撮影を開始させることが可能となる。そして、CPU21は、フローチャートの処理を終了させる。なお、CPU21は、動画撮影中においても、上記フローチャートのシーケンスを適宜行ってもよい。   Step S107: The CPU 21 starts moving image shooting. That is, the CPU 21 sends a drive signal to the image sensor 11 and the AFE 14 via the TG 13, and starts moving image shooting at a rolling shutter speed at which flicker is not detected if it is under a fluorescent lamp. Further, if it is not under a fluorescent lamp, moving image shooting can be started at an arbitrary rolling shutter speed. Then, the CPU 21 ends the process of the flowchart. Note that the CPU 21 may appropriately perform the sequence of the above flowchart even during moving image shooting.

以上より、本実施形態の電子カメラ1によれば、フリッカ検波枠を設定する必要がなくなる。これにより、電子カメラ1は、演算処理が複雑にならずに光源の明滅周波数を算出することができる。   As described above, according to the electronic camera 1 of the present embodiment, it is not necessary to set a flicker detection frame. Thus, the electronic camera 1 can calculate the blinking frequency of the light source without complicating the arithmetic processing.

すなわち、CPU21は、撮像素子12を間引き動作させることで、1フレームの読み出し時間を短縮でき、光源の明滅周期(明滅周波数の逆数)より短時間で画像信号を読み出すことができる。これにより、光源の明滅の影響が画面全体の明るさ変化になるので、周波数算出部21cは、簡単に明滅周波数を算出することができる。   That is, the CPU 21 can shorten the readout time of one frame by thinning the image sensor 12, and can read out an image signal in a shorter time than the blinking cycle (reciprocal of the blinking frequency) of the light source. As a result, the influence of the blinking of the light source results in a change in the brightness of the entire screen, so that the frequency calculating unit 21c can easily calculate the blinking frequency.

したがって、本実施形態では、1画面内に複数本のフリッカを検出する従来の手法ではなく、複数フレーム間で発生する面フリッカとして明滅周波数を算出することができる。   Therefore, in the present embodiment, the blinking frequency can be calculated as a surface flicker generated between a plurality of frames, instead of the conventional method of detecting a plurality of flickers in one screen.

次に、本実施形態の変形例について説明する。本実施形態において、取得部21aは、撮像素子12にライン単位の間引き読み出しを指示することにより、ライン単位に間引き読み出しされた部分領域の画像信号をフレームとして所定のフレームレート(例えば600fps)で順次取得する構成とした。   Next, a modification of this embodiment will be described. In the present embodiment, the acquisition unit 21a instructs the image pickup device 12 to perform thinning readout in units of lines, thereby sequentially using image signals of partial areas that have been read out in units of lines as frames, at a predetermined frame rate (for example, 600 fps). It was set as the composition to acquire.

本実施形態の変形例では、図1に示す通り、以下に述べる第1加算回路と第2加算回路とからなる画素加算回路12aを用いる。第1加算回路は、撮像領域の異なる行同士で同列の同色画素の出力値を加算する。第2加算回路は、撮像領域の異なる列同士で同行の同色画素の出力値を加算する。取得部21aは、第1加算回路と第2加算回路との少なくとも一方で出力値が加算された後の画像信号を所定のフレームレートで順次取得する。   In the modification of this embodiment, as shown in FIG. 1, a pixel addition circuit 12a including a first addition circuit and a second addition circuit described below is used. The first addition circuit adds the output values of the same color pixels in the same column in different rows of the imaging region. The second addition circuit adds the output values of the same color pixels in the same row in different columns of the imaging area. The acquisition unit 21a sequentially acquires the image signal after the output value is added at least one of the first addition circuit and the second addition circuit at a predetermined frame rate.

図7は、第1実施形態の変形例を説明する図である。図7(a)の左側に示す撮像領域の図ではR行(R、Gの組)とB行(B、Gの組)とは、交互に配列されているが、説明の便宜上、加算する行を色分けしている。また同様にして、図7(b)の上側に示す撮像領域の図では、加算するR列(R、Gの組)とB列(B、Gの組)とを色分けしている。   FIG. 7 is a diagram for explaining a modification of the first embodiment. In the figure of the imaging region shown on the left side of FIG. 7 (a), R rows (R and G pairs) and B rows (B and G pairs) are alternately arranged. The lines are color-coded. Similarly, in the figure of the imaging region shown on the upper side of FIG. 7B, the R column (R, G group) and B column (B, G group) to be added are color-coded.

図7(a)の左側に示す図において、CPU21は、撮像素子12に指示を出すことにより、撮像素子12の第1加算回路は、撮像領域の異なる行で垂直方向(図中、上下方向
)に隣り合う同色の画素同士の出力値を加算する。図7(a)の右側に示す図は、加算した結果を模式的に示している。
In the diagram shown on the left side of FIG. 7A, the CPU 21 issues an instruction to the image sensor 12, so that the first adder circuit of the image sensor 12 is in the vertical direction (up and down direction in the figure) in different rows of the imaging area. The output values of adjacent pixels of the same color are added. The diagram shown on the right side of FIG. 7A schematically shows the result of addition.

図7(b)の上側に示す図において、撮像素子12の第2加算回路は、撮像領域の異なる列で水平方向(図中、左右方向)に隣り合う同色の画素同士の出力値を加算する。図7(b)の下側に示す図は、加算した結果を模式的に示している。   In the diagram shown in the upper side of FIG. 7B, the second addition circuit of the image sensor 12 adds the output values of pixels of the same color adjacent in the horizontal direction (left-right direction in the figure) in different columns of the imaging region. . The diagram shown at the bottom of FIG. 7B schematically shows the result of addition.

CPU21は、加算された後の出力値に基づく画像信号をライン単位で読み出す。これにより、取得部21aは、撮像領域の内から間引き読み出しされた部分領域の画像信号を順次取得する。こうすると、各画素の電荷量が増えるほど画像の分解能が向上するので、CPU21の周波数算出部21cは、明滅周波数をより正確に算出することができるようになる。つまり、本実施形態では、図7(a)、(b)に示すような加算処理をした後に、画像信号を読み出すと、読み出し時間を短縮することが可能となる。   The CPU 21 reads an image signal based on the output value after the addition in units of lines. Thereby, the acquisition unit 21a sequentially acquires the image signals of the partial areas read out from the imaging area. By doing so, the resolution of the image improves as the charge amount of each pixel increases, so that the frequency calculation unit 21c of the CPU 21 can calculate the blinking frequency more accurately. That is, in the present embodiment, when the image signal is read out after performing addition processing as shown in FIGS. 7A and 7B, the read time can be shortened.

以上より、CPU21は、撮像素子12に間引き読み出しや画素加算処理を行わせることにより、明滅周波数の算出の負荷を低減することができる。   As described above, the CPU 21 can reduce the load of calculating the blinking frequency by causing the image sensor 12 to perform thinning readout and pixel addition processing.

なお、CPU21は、第1加算回路の処理と第2加算回路の処理とを組み合わせるようにしてもよい。また、図7では、2列同士あるいは2行同士の画素の出力値を加算した例を示したが、さらに加算する列あるいは行の数を増やしてもよい。また、同色の画素同士であれば、撮像素子12は、隣接する周囲の画素の出力値を加算してもよい。   Note that the CPU 21 may combine the processing of the first addition circuit and the processing of the second addition circuit. Moreover, although the example which added the output value of the pixel of 2 columns or 2 rows was shown in FIG. 7, you may increase the number of the column or rows to add further. In addition, if the pixels have the same color, the image sensor 12 may add the output values of adjacent neighboring pixels.

また、撮像素子12は、加算する画素間でフローティングディフュージョン(FD)及びアンプ等を共有する構成とすることで画素加算を行うようにしてもよい。   Further, the image sensor 12 may perform pixel addition by adopting a configuration in which a floating diffusion (FD), an amplifier, and the like are shared between the pixels to be added.

<実施形態の補足事項>
(1)本実施形態では、説明をわかりやすくするため、CPU21は、部分領域の画像信号を画像(フレーム)として一旦RAM16に記録した。平均値算出部21bは、ライン毎に画像信号を読み出しながら、画像としてRAM16に一旦記録させずにR、G、B毎に平均値を順次算出して、RAM16に上書きしてもよい。こうすると、さらに速く、周波数算出部21cは、明滅周波数の算出を行うことができる。
(2)本実施形態では、平均値算出部21bは、例えば、Gの画像信号の平均値だけを算出してもよい。そして、周波数算出部21cは、Gの画像信号の平均値だけで明滅周波数を算出してもよい。
(3)本実施形態では、RGBの3種類のカラーフィルタを採用したが、これに限られず、補色フィルタを用いて、平均値算出部21bは、明るさの平均値を求めてもよい。また、平均値算出部21bは、R、G、B毎に明るさの平均値を求めたが、RGBの画像信号を全て含めて、明るさの平均値を求めてもよい。
(4)本実施形態では、50Hz及び60Hzの周波数を採用したが、光源に応じて他の周波数であってもよい。
(5)本実施形態では、フリッカを検出するセンサとして、記録媒体30に記録する本画像を撮像する撮像素子12を採用したが、本画像を撮像する撮像素子12とは別途設けられた撮像素子(例えば、測光センサ)を採用してもよい。
(6)本実施形態では、アナログ出力センサの一例としてAFE14を採用したが、アナログ出力センサとして、TG13を内蔵するタイプを採用してもよい。また、本発明では、アナログ出力センサに代えてデジタル出力センサを採用してもよい。この場合、AFE14は、デジタル出力センサに内蔵される。また、デジタル出力センサは、TG13、画像処理部15、RAM16、ROM17、CPU21等も自由に組み合わせて内蔵してもよい。
<Supplementary items of the embodiment>
(1) In this embodiment, in order to make the explanation easy to understand, the CPU 21 once records the image signal of the partial area in the RAM 16 as an image (frame). The average value calculation unit 21b may read the image signal for each line and sequentially calculate the average value for each of R, G, and B without being temporarily recorded as an image in the RAM 16, and may overwrite the RAM 16. In this way, the frequency calculation unit 21c can calculate the blinking frequency even faster.
(2) In the present embodiment, the average value calculation unit 21b may calculate only the average value of the G image signal, for example. Then, the frequency calculation unit 21c may calculate the blinking frequency using only the average value of the G image signals.
(3) In the present embodiment, three types of RGB color filters are employed. However, the present invention is not limited to this, and the average value calculation unit 21b may obtain an average value of brightness using a complementary color filter. The average value calculation unit 21b calculates the average brightness value for each of R, G, and B. However, the average value calculation unit 21b may determine the average brightness value by including all the RGB image signals.
(4) In this embodiment, the frequencies of 50 Hz and 60 Hz are adopted, but other frequencies may be used depending on the light source.
(5) In the present embodiment, the image pickup device 12 that picks up the main image to be recorded on the recording medium 30 is used as the flicker detection sensor. However, the image pickup device is provided separately from the image pickup device 12 that picks up the main image. (For example, a photometric sensor) may be employed.
(6) In the present embodiment, the AFE 14 is employed as an example of the analog output sensor. However, a type incorporating the TG 13 may be employed as the analog output sensor. In the present invention, a digital output sensor may be employed instead of the analog output sensor. In this case, the AFE 14 is built in the digital output sensor. In addition, the digital output sensor may include TG 13, image processing unit 15, RAM 16, ROM 17, CPU 21, etc. in any combination.

1・・・電子カメラ、12・・・撮像素子、12a・・・画素加算回路、21a・・・取得部、21b・・・平均値算出部、21c・・・周波数算出部 DESCRIPTION OF SYMBOLS 1 ... Electronic camera, 12 ... Image sensor, 12a ... Pixel addition circuit, 21a ... Acquisition part, 21b ... Average value calculation part, 21c ... Frequency calculation part

Claims (2)

複数の画素が2次元的に配列された撮像領域を有するXYアドレス走査型の撮像素子と、
前記撮像素子にライン単位の間引き読み出しを指示することにより、前記撮像領域の内から間引き読み出しされた部分領域の画像信号を順次取得する取得部と、
フレーム毎に前記画像信号の明るさの平均値を算出する平均値算出部と、
前記フレーム毎に算出された前記平均値の時間的変化に基づいて、光源の周波数を算出する周波数算出部と、
を備えることを特徴とする撮像装置。
An XY address scanning type imaging device having an imaging region in which a plurality of pixels are two-dimensionally arranged;
An acquisition unit that sequentially acquires image signals of partial areas read out from the imaging area by instructing the imaging device to perform line-by-line readout.
An average value calculating unit for calculating an average value of the brightness of the image signal for each frame;
A frequency calculation unit that calculates a frequency of a light source based on a temporal change of the average value calculated for each frame;
An imaging apparatus comprising:
請求項1に記載の撮像装置において、
前記撮像素子は、複数色のカラーフィルタのいずれかが各画素に配置されたカラー撮像素子であって、前記撮像領域の異なる行同士で同列の同色画素の出力値を加算する第1加算回路と前記撮像領域の異なる列同士で同行の同色画素の出力値を加算する第2加算回路との少なくとも一方を備え、
前記取得部は、前記第1加算回路と前記第2加算回路との少なくとも一方で前記出力値が加算された後の画像信号を前記ライン単位で取得することを特徴とする撮像装置。
The imaging device according to claim 1,
The image pickup device is a color image pickup device in which any one of a plurality of color filters is arranged in each pixel, and a first addition circuit that adds output values of the same color pixels in the same column in different rows of the image pickup region; Including at least one of a second addition circuit that adds output values of the same color pixels in the same row in different columns of the imaging region;
The acquisition unit acquires the image signal after the output value is added to at least one of the first addition circuit and the second addition circuit in units of lines.
JP2015230656A 2015-11-26 2015-11-26 Imaging device Pending JP2016096551A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015230656A JP2016096551A (en) 2015-11-26 2015-11-26 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015230656A JP2016096551A (en) 2015-11-26 2015-11-26 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014207085A Division JP5846277B2 (en) 2014-10-08 2014-10-08 Imaging device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017242765A Division JP2018050346A (en) 2017-12-19 2017-12-19 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2016096551A true JP2016096551A (en) 2016-05-26

Family

ID=56071405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015230656A Pending JP2016096551A (en) 2015-11-26 2015-11-26 Imaging device

Country Status (1)

Country Link
JP (1) JP2016096551A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017202191A (en) * 2016-05-12 2017-11-16 サミー株式会社 Slot machine
JP2017202192A (en) * 2016-05-12 2017-11-16 サミー株式会社 Slot machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006129065A (en) * 2004-10-28 2006-05-18 Fuji Photo Film Co Ltd Photographing device and method of controlling the same
JP2007028573A (en) * 2005-06-13 2007-02-01 Sony Corp Image processing apparatus and image-pickup device
JP2008067132A (en) * 2006-09-08 2008-03-21 Casio Comput Co Ltd Imaging apparatus
JP2008160880A (en) * 2004-02-23 2008-07-10 Sony Corp Solid-state imaging apparatus, and driving method of solid-state imaging apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008160880A (en) * 2004-02-23 2008-07-10 Sony Corp Solid-state imaging apparatus, and driving method of solid-state imaging apparatus
JP2006129065A (en) * 2004-10-28 2006-05-18 Fuji Photo Film Co Ltd Photographing device and method of controlling the same
JP2007028573A (en) * 2005-06-13 2007-02-01 Sony Corp Image processing apparatus and image-pickup device
JP2008067132A (en) * 2006-09-08 2008-03-21 Casio Comput Co Ltd Imaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017202191A (en) * 2016-05-12 2017-11-16 サミー株式会社 Slot machine
JP2017202192A (en) * 2016-05-12 2017-11-16 サミー株式会社 Slot machine

Similar Documents

Publication Publication Date Title
JP5816015B2 (en) Solid-state imaging device and camera module
JP6019692B2 (en) Image pickup device, image pickup device control method, and image pickup apparatus
TWI323382B (en)
JP5161706B2 (en) Imaging apparatus and control method thereof
US9661210B2 (en) Image pickup device and image pickup apparatus
JP5523124B2 (en) Imaging device
JP2010114834A (en) Imaging apparatus
CN107154801B (en) Signal processing apparatus and method, image pickup apparatus, and control apparatus and method
JP2011109281A (en) Image pickup device and control method thereof
JP5581968B2 (en) Imaging device
JP5440245B2 (en) Imaging device
JP2009021985A (en) Imaging apparatus, and driving method of imaging apparatus
JP2016096551A (en) Imaging device
JP2016100879A (en) Imaging device and image processing method
JP5630132B2 (en) Imaging device
US20070269133A1 (en) Image-data noise reduction apparatus and method of controlling same
JP2018050346A (en) Imaging apparatus
JP2009135792A (en) Imaging device and image signal processing method
JP5866826B2 (en) Imaging device
JP5846277B2 (en) Imaging device
JP5299159B2 (en) Imaging apparatus and program
JP2009124238A (en) Imaging device and its flicker detecting method
JP4908939B2 (en) Imaging device
JP2013175919A (en) Imaging apparatus
JP2004153710A (en) Control method of imaging apparatus, and imaging apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20170323

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170323

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170421

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170919