JPWO2020021887A1 - Image processing equipment, imaging equipment, image processing methods and programs - Google Patents

Image processing equipment, imaging equipment, image processing methods and programs Download PDF

Info

Publication number
JPWO2020021887A1
JPWO2020021887A1 JP2020532206A JP2020532206A JPWO2020021887A1 JP WO2020021887 A1 JPWO2020021887 A1 JP WO2020021887A1 JP 2020532206 A JP2020532206 A JP 2020532206A JP 2020532206 A JP2020532206 A JP 2020532206A JP WO2020021887 A1 JPWO2020021887 A1 JP WO2020021887A1
Authority
JP
Japan
Prior art keywords
image data
unit
image
optical noise
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020532206A
Other languages
Japanese (ja)
Other versions
JP6896175B2 (en
Inventor
智行 河合
智行 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020021887A1 publication Critical patent/JPWO2020021887A1/en
Application granted granted Critical
Publication of JP6896175B2 publication Critical patent/JP6896175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/445Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by skipping some contiguous pixels within the read portion of the array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • H04N25/626Reduction of noise due to residual charges remaining after image readout, e.g. to remove ghost images or afterimages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Abstract

画像処理装置は、撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、かつ領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出す読出部と、撮像素子により撮像されてメモリ部に格納された撮像画像データが、読出部により再度読み出されたデータに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力する出力部と、を含む。The image processing device reads out the image data imaged by the image pickup element and transferred to the memory unit on which the optical noise is superimposed as area image data for each of the plurality of divided areas of the memory unit, and for each area image data. After the reading of the data is completed, the reading unit that reads the data in the predetermined area again and the captured image data that is captured by the imaging element and stored in the memory unit are according to the data read again by the reading unit. It includes an output unit that outputs corrected image data obtained by correcting each of a plurality of regions according to a fixed optical noise.

Description

本開示の技術は、画像処理装置、撮像装置、画像処理方法及びプログラムに関する。 The techniques of the present disclosure relate to image processing devices, imaging devices, image processing methods and programs.

CMOSイメージセンサはローリングシャッタと呼ばれる順次読み出し方式が一般的である。一方で、CMOSイメージセンサを用いながら、画素に隣接して電荷蓄積部を設け、全画素同時に電荷蓄積部に電荷を転送することで、電子グローバルシャッタを実現したイメージセンサも知られている。グローバルシャッタ方式を採用する場合、光電変換素子での光電変換で生成された電荷は、露光終了後から読み出しするまで電荷蓄積部に貯蔵される。 A CMOS image sensor generally uses a sequential readout method called a rolling shutter. On the other hand, there is also known an image sensor that realizes an electronic global shutter by providing a charge storage unit adjacent to a pixel and transferring charges to the charge storage unit at the same time for all pixels while using a CMOS image sensor. When the global shutter method is adopted, the electric charge generated by the photoelectric conversion by the photoelectric conversion element is stored in the charge storage unit from the end of exposure until it is read out.

しかし、電荷が電荷蓄積部に貯蔵されてから画像情報として読み出されるまでの間に、フォトダイオード及び/又は電荷蓄積部への迷光等により、露光以外の原因による電荷が発生し、電荷蓄積部に重畳されることがある。重畳された電荷は光ノイズと呼ばれるノイズとなり、撮像した画像に悪影響を与える。 However, between the time when the electric charge is stored in the charge storage part and the time when it is read out as image information, the electric charge is generated in the charge storage part due to a cause other than exposure due to stray light to the photodiode and / or the charge storage part. May be superimposed. The superimposed charge becomes noise called optical noise, which adversely affects the captured image.

このようなノイズを低減するため、例えば特開2012−134756号公報には、全ての画素を一括露光させ、露光終了のタイミングで、画素部が備える全ての画素の第1の転送部を駆動させて光電変換部が蓄積した光電荷を第1の蓄積部のみに一括転送させ、第1の蓄積部に蓄積された電荷を、第1の増幅部と、第1の接続部と、第1の出力信号線とを介して、光信号として読み出すとともに、第2の蓄積部に蓄積された電荷を、第2の増幅部と、第2の接続部と、第2の出力信号線とを介して、光ノイズ信号として読み出すように制御する撮像装置が開示されている。この構成によれば、第2の蓄積部には光ノイズ電荷だけが蓄積されるため、光ノイズ除去信号を取得することができるとされている。 In order to reduce such noise, for example, Japanese Patent Application Laid-Open No. 2012-134756 exposes all the pixels at once, and drives the first transfer unit of all the pixels included in the pixel unit at the timing of the end of exposure. The light charges accumulated by the photoelectric conversion unit are collectively transferred only to the first storage unit, and the charges accumulated in the first storage unit are transferred to the first amplification unit, the first connection unit, and the first storage unit. It is read out as an optical signal via the output signal line, and the charge accumulated in the second storage unit is read through the second amplification unit, the second connection unit, and the second output signal line. , An image pickup device that controls to read out as an optical noise signal is disclosed. According to this configuration, since only the optical noise charge is accumulated in the second storage unit, it is said that the optical noise removal signal can be acquired.

特開2006−108889号公報には、全画素の信号電荷を蓄積部(Floating Diffusion、FD)へ一括転送したあと信号を順次読み出す方式の撮像装置において、第一の行又は列と第二の行又は列の信号を減算して1行又は1列分の信号を得る固体撮像装置が開示されている。これによれば、露光時間を全画素同時としたS/Nの高い画像信号を取り出すことができ、ストロボ調光用信号、自動合焦用信号、電子ビューファインダーなど動画的撮影などの高速撮像に適しているとされている。 Japanese Patent Application Laid-Open No. 2006-108888 describes the first row or column and the second row in an image pickup device of a method in which signal charges of all pixels are collectively transferred to a flooring division (FD) and then signals are sequentially read out. Alternatively, a solid-state image sensor is disclosed in which a signal in a column is subtracted to obtain a signal for one row or one column. According to this, it is possible to take out an image signal with a high S / N with an exposure time of all pixels at the same time, and for high-speed imaging such as strobe dimming signal, automatic focusing signal, electronic viewfinder, etc. It is said to be suitable.

特開2008−028516号公報には、フォトダイオードと電荷蓄積部と転送トランジスタとリセットトランジスタと増幅トランジスタと選択トランジスタとを有する画素を二次元状に複数配列した画素部を備え、フォトダイオードの信号を全画素同時にリセットし、所定時間後にフォトダイオードから電荷蓄積部へ信号転送を行った後、画素からの信号読み出し動作を順次行うMOS型撮像素子と、MOS型撮像素子の各画素からの信号読み出し動作中に入射する光量を抑圧する入射光量変更手段としての絞り機構3を設けて構成したカメラシステムが開示されている。これにより、グローバルシャッター機能を有し、高輝度被写体撮像時においても信号劣化や偽信号の発生を防止できるようにしたカメラシステムを提供することができるとされている。 Japanese Unexamined Patent Publication No. 2008-028516 includes a pixel unit in which a plurality of pixels having a photodiode, a charge storage unit, a transfer transistor, a reset transistor, an amplification transistor, and a selection transistor are arranged in a two-dimensional manner, and a photodiode signal is provided. A MOS-type image pickup element that resets all pixels at the same time, transfers a signal from the photodiode to the charge storage unit after a predetermined time, and then sequentially performs a signal read-out operation from the pixels, and a signal read-out operation from each pixel of the MOS-type image pickup device. A camera system configured by providing a throttle mechanism 3 as a means for changing the amount of incident light that suppresses the amount of light incident therein is disclosed. As a result, it is said that it is possible to provide a camera system having a global shutter function and capable of preventing signal deterioration and generation of false signals even when imaging a high-brightness subject.

特開2011−216966号公報には、画素アレイ部の単位画素毎のオーバーフロードレインの電流値に対応した電圧値を、画素単位の受光量として検出する信号処理部の高輝度検出部と、高輝度検出部により読み出された電圧値に基づいて、画素アレイ部を構成する画素について、行単位で受光レベルの順位を求め、アドレスリストに登録するレベル解析部と、アドレスリストの情報で、システム制御部のアドレスリストを更新する信号処理部と、アドレスリストの行単位の順位の上位から順次行単位で、画素アレイ部より受光信号を読み出させるシステム制御部と、を備える撮像素子が開示されている。これにより、イメージセンサにより画像を撮像する際、ノイズの発生を低減することが可能とされている。 Japanese Patent Application Laid-Open No. 2011-216966 describes a high-brightness detection unit of a signal processing unit that detects a voltage value corresponding to an overflow drain current value for each unit pixel of a pixel array unit as a light-receiving amount for each pixel, and a high-brightness detection unit. Based on the voltage value read by the detection unit, the order of the light receiving level is obtained line by line for the pixels that make up the pixel array unit, and the system control is performed by the level analysis unit registered in the address list and the information in the address list. An image pickup device including a signal processing unit that updates the address list of the unit and a system control unit that reads a received signal from the pixel array unit in order from the top of the row unit rank of the address list is disclosed. There is. This makes it possible to reduce the generation of noise when an image is captured by the image sensor.

しかし、上記の特開2012−134756号公報、特開2006−108889号公報、特開2008−028516号公報、及び特開2011−216966号公報に開示された技術は、撮像素子又は撮像装置の機械的な構成を変更することなく、光ノイズを抑制した撮像画像を得ることは難しい。 However, the techniques disclosed in JP-A-2012-134756, JP-A-2006-108888, JP-A-2008-028516, and JP-A-2011-216966 are described in the machine of an image sensor or an image pickup apparatus. It is difficult to obtain an image sensor with suppressed optical noise without changing the specific configuration.

本開示の一つの実施形態は、撮像素子又は撮像装置の機械的な構成を変更することなく、光ノイズを抑制した撮像画像を得ることができる画像処理装置、撮像装置、画像処理方法及びプログラムを提供する。 One embodiment of the present disclosure provides an image processing device, an image pickup device, an image processing method, and a program capable of obtaining an image pickup image in which optical noise is suppressed without changing the mechanical configuration of the image pickup device or the image pickup device. provide.

第1の態様に係る画像処理装置は、複数の光電変換素子を備えた撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、かつ領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出す読出部と、撮像素子により撮像されてメモリ部に格納された撮像画像データが、読出部により再度読み出されたデータに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力する出力部と、を含む。これにより、撮像素子又は撮像装置の機械的な構成を変更することなく、光ノイズを抑制した撮像画像を得ることができる。 In the image processing apparatus according to the first aspect, the image data imaged by an image sensor provided with a plurality of photoelectric conversion elements and transferred to the memory unit on which optical noise is superimposed is transferred to a plurality of divided regions of the memory unit. Each of them is read out as area image data, and after the reading of each area image data is completed, the reading unit that reads out the data of the predetermined area again, and the captured image data that is captured by the image sensor and stored in the memory unit. However, the output unit includes an output unit that outputs the corrected image data obtained by correcting each of the plurality of regions according to the optical noise determined according to the data read again by the reading unit. As a result, it is possible to obtain an captured image in which optical noise is suppressed without changing the mechanical configuration of the imaging element or the imaging device.

第2の態様に係る画像処理装置において、予め定められた領域は、メモリ部から最初に読み出された領域である。これにより、最も長い時間の光ノイズだけのデータを取得することができ、より現実に近い光ノイズ量を測定、補正することができる。 In the image processing apparatus according to the second aspect, the predetermined area is the area first read from the memory unit. As a result, it is possible to acquire data of only the optical noise for the longest time, and it is possible to measure and correct the amount of optical noise that is closer to reality.

第3の態様に係る画像処理装置において、補正画像データは、読出部による読み出し順序が隣り合う一対の領域画像データの比較結果に基づいて、読出部による読み出し順序が後の領域画像データから、光ノイズを有する画素位置が定められ、定められた画素位置及び光ノイズの量に従って、領域毎に補正されて得られる。これにより、光ノイズが発生した位置と量とを別々に精度よく求めることができる。 In the image processing apparatus according to the third aspect, the corrected image data is based on the comparison result of a pair of area image data in which the reading order by the reading unit is adjacent to each other, and the reading order by the reading unit is later than that of the region image data. A pixel position having noise is determined, and the image is corrected for each region according to the determined pixel position and the amount of optical noise. As a result, the position and amount of light noise generated can be determined separately and accurately.

第4の態様に係る画像処理装置において、比較結果は、隣り合う一対の領域画像データの各々の画像データの差分である。これにより、光ノイズが発生した位置を精度よく求めることができる。 In the image processing apparatus according to the fourth aspect, the comparison result is the difference between the image data of each of the pair of adjacent region image data. As a result, the position where the optical noise is generated can be accurately obtained.

第5の態様に係る画像処理装置において、複数の光電変換素子は、予め定められた複数の原色の各々について感度を有する。これにより、カラー撮像素子に適用できる。 In the image processing apparatus according to the fifth aspect, the plurality of photoelectric conversion elements have sensitivity for each of the plurality of predetermined primary colors. As a result, it can be applied to a color image sensor.

第6の態様に係る画像処理装置において、領域画像データの各々は、メモリ部に格納された画像データが、複数の原色の各々について感度を有する光電変換素子が予め定められた配列を有するグループ単位で間引かれた領域画像データである。これにより、カラー撮像素子における光ノイズの検出精度が向上する。 In the image processing apparatus according to the sixth aspect, each of the area image data is a group unit in which the image data stored in the memory unit has a predetermined arrangement of photoelectric conversion elements having sensitivity for each of a plurality of primary colors. It is the area image data thinned out by. This improves the detection accuracy of optical noise in the color image sensor.

第7の態様に係る画像処理装置において、比較結果は、一対の領域画像データが同時化処理されてから比較された結果である。これにより、カラー撮像素子における光ノイズの検出精度が向上する。 In the image processing apparatus according to the seventh aspect, the comparison result is the result of comparison after the pair of region image data are simultaneously processed. This improves the detection accuracy of optical noise in the color image sensor.

第8の態様に係る画像処理装置において、一対の領域画像データの比較結果をフィルタ処理した結果に基づいて画素位置が定められるか、又は一対の領域画像データがフィルタ処理されてから比較された比較結果に基づいて画素位置が定められる。これにより、ローパスフィルタ処理で細い、又はコントラストが大きい被写体を撮像したときの光ノイズ検出精度が向上する。 In the image processing apparatus according to the eighth aspect, the pixel position is determined based on the result of filtering the comparison result of the pair of region image data, or the pair of region image data is filtered and then compared. The pixel position is determined based on the result. As a result, the optical noise detection accuracy when a thin or high-contrast subject is imaged by the low-pass filter processing is improved.

第9の態様に係る画像処理装置において、読出部は、予め定められた撮像条件を満足した場合に、複数の領域画像データ毎の読み出しが終了した後、データを再度読み出す処理を行う。これにより、光ノイズ補正が必要な撮像条件のときだけ光ノイズ補正処理を実行することができる。 In the image processing apparatus according to the ninth aspect, when the predetermined imaging conditions are satisfied, the reading unit performs a process of reading the data again after the reading of each of the plurality of area image data is completed. As a result, the optical noise correction process can be executed only under the imaging conditions that require optical noise correction.

第10の態様に係る画像処理装置において、撮像条件は、撮像素子による撮像時間が予め定められた時間より短いとの条件、及びメモリ部に格納された画像データ内に輝度が予め定められた輝度を上回る画像領域が存在するとの条件のうち少なくとも一方の条件である。これにより、上記の撮像条件のときだけ光ノイズ補正処理を実行することができる。 In the image processing apparatus according to the tenth aspect, the image pickup conditions are that the image pickup time by the image pickup device is shorter than the predetermined time, and the brightness is predetermined in the image data stored in the memory unit. This is at least one of the conditions that the image region exceeds the above. As a result, the optical noise correction process can be executed only under the above imaging conditions.

第11の態様に係る画像処理装置は、複数の領域の各々についての光ノイズの特性を示す光ノイズ特性情報が予め記憶された記憶部から光ノイズ特性情報を取得する取得部を更に含み、補正画像データは、撮像画像データが光ノイズと取得部によって取得された光ノイズ特性情報とに従って、領域毎に補正されて得られる。これにより、光ノイズ特性情報を予め取得することで、光ノイズ補正を正確に行うことができる。 The image processing apparatus according to the eleventh aspect further includes an acquisition unit that acquires optical noise characteristic information from a storage unit in which optical noise characteristic information indicating optical noise characteristics for each of a plurality of regions is stored in advance, and corrects the image processing apparatus. The image data is obtained by correcting the captured image data for each region according to the optical noise and the optical noise characteristic information acquired by the acquisition unit. As a result, the optical noise correction can be performed accurately by acquiring the optical noise characteristic information in advance.

第12の態様に係る画像処理装置において、光ノイズ特性情報は、複数の領域のうちの読出部により再度読み出される領域の光ノイズとして予め定められた値と、複数の領域のうちの領域と異なる領域の光ノイズとして予め定められた値との比に基づく値である。これにより、光ノイズ補正を迅速に行うことができる。 In the image processing apparatus according to the twelfth aspect, the optical noise characteristic information differs from a predetermined value as the optical noise of the region read again by the reading unit in the plurality of regions and the region among the plurality of regions. It is a value based on a ratio with a predetermined value as the optical noise of the region. As a result, optical noise correction can be performed quickly.

第13の態様に係る画像処理装置は、複数の光電変換素子を備えた撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出す読出部と、撮像素子により撮像されてメモリ部に格納された撮像画像データが、読出部により各々毎に読み出された領域画像データに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力する出力部と、を含む。これにより、撮像素子又は撮像装置の機械的な構成を変更することなく、光ノイズを抑制した撮像画像を得ることができる。 In the image processing apparatus according to the thirteenth aspect, the image data imaged by an image sensor provided with a plurality of photoelectric conversion elements and transferred to the memory unit on which optical noise is superimposed is transferred to a plurality of divided regions of the memory unit. A plurality of reading units that are read out as region image data for each, and a plurality of captured image data that are captured by the image sensor and stored in the memory unit according to optical noise determined according to the region image data read out for each region by the reading unit. Includes an output unit that outputs corrected image data obtained by correcting for each of the regions of. As a result, it is possible to obtain an captured image in which optical noise is suppressed without changing the mechanical configuration of the imaging element or the imaging device.

第14の態様に係る画像処理装置において、補正画像データは、読出部による読み出し順序が隣り合う一対の領域画像データの比較結果に基づいて、読出部による読み出し順序が後の領域画像データ内から、差分を有する画素位置が定められ、定められた画素位置及び差分に従って領域毎に補正されて得られる。これにより、撮像素子又は撮像装置の機械的な構成を変更することなく、光ノイズを抑制した撮像画像を得ることができる。 In the image processing apparatus according to the fourteenth aspect, the corrected image data is read from the area image data after which the reading order by the reading unit is later, based on the comparison result of the pair of area image data whose reading order is adjacent to each other. A pixel position having a difference is determined, and the image is corrected for each region according to the determined pixel position and the difference. As a result, it is possible to obtain an captured image in which optical noise is suppressed without changing the mechanical configuration of the imaging element or the imaging device.

第15の態様に係る画像処理装置において、領域は、行列方式で配列された光電変換素子のメモリ部を、予め定めた方法で行単位で間引いて得られる。これにより、フィールド読み出しの技術を適用することができる。 In the image processing apparatus according to the fifteenth aspect, the area is obtained by thinning out the memory units of the photoelectric conversion elements arranged in a matrix system in a row unit by a predetermined method. Thereby, the technique of field reading can be applied.

第16の態様に係る画像処理装置は、出力部により出力された補正画像データに基づく画像を表示部に対して表示させる制御を行う制御部を更に含む。これにより、補正画像データを表示することができる。 The image processing device according to the sixteenth aspect further includes a control unit that controls the display unit to display an image based on the corrected image data output by the output unit. As a result, the corrected image data can be displayed.

第17の態様に係る撮像装置は、第1の態様から第15の態様の何れか1つに係る画像処理装置と、撮像素子に対して撮像を開始させる指示を受け付ける受付部と、を含む。これにより、光ノイズ補正機能を有する撮像装置を得ることができる。 The image pickup apparatus according to the seventeenth aspect includes an image processing apparatus according to any one of the first to fifteenth aspects, and a reception unit that receives an instruction to start imaging from the image pickup device. This makes it possible to obtain an image pickup device having an optical noise correction function.

第18の態様に係る画像処理方法は、撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、かつ領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出し、撮像素子により撮像されてメモリ部に格納された撮像画像データが、再度読み出したデータに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む。 In the image processing method according to the eighteenth aspect, the image data imaged by the image sensor and transferred to the memory unit on which the optical noise is superimposed is read out as area image data for each of the plurality of divided areas of the memory unit. In addition, after the reading of each area image data is completed, the data of the predetermined area is read again, and the captured image data captured by the image sensor and stored in the memory unit is determined according to the read data again. This includes outputting corrected image data obtained by correcting each of a plurality of regions according to noise.

第19の態様に係る画像処理方法は、撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、撮像素子により撮像されてメモリ部に格納された撮像画像データが、各々毎に読み出した領域画像データに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む。 In the image processing method according to the nineteenth aspect, the image data imaged by the image sensor and transferred to the memory unit on which the optical noise is superimposed is read out as area image data for each of the plurality of divided areas of the memory unit. , The corrected image data obtained by correcting the captured image data captured by the image sensor and stored in the memory unit for each of a plurality of regions according to the optical noise determined according to the region image data read out for each region. Including to output.

第20の態様に係るプログラムは、コンピュータに、撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、かつ領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出し、撮像素子により撮像されてメモリ部に格納された撮像画像データが、再度読み出したデータに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む処理を実行させるためのプログラムである。 In the program according to the twentieth aspect, the image data captured by the computer with the image sensor and transferred to the memory unit on which the optical noise is superimposed is used as area image data for each of the plurality of divided areas of the memory unit. After the reading and the reading of each area image data are completed, the data of the predetermined area is read again, and the captured image data imaged by the image sensor and stored in the memory unit is determined according to the read data again. This is a program for executing a process including outputting corrected image data obtained by correcting each of a plurality of regions according to optical noise.

第21の態様に係るプログラムは、コンピュータに、撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、撮像素子により撮像されてメモリ部に格納された撮像画像データが、各々毎に読み出した領域画像データに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む処理を実行させるためのプログラムである。 In the program according to the 21st aspect, the image data captured by the computer with the image sensor and transferred to the memory unit on which the optical noise is superimposed is used as area image data for each of the plurality of divided areas of the memory unit. Corrected image data obtained by correcting the captured image data read by the image sensor and stored in the memory unit for each of a plurality of regions according to the optical noise determined according to the region image data read out for each region. It is a program for executing processing including outputting.

他の実施形態に係る画像処理装置は、プロセッサと、メモリを有する画像処理装置であって、プロセッサが、撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、かつ領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出し、撮像素子により撮像されてメモリ部に格納された撮像画像データが、再度読み出したデータに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む処理を実行する。 The image processing device according to another embodiment is an image processing device having a processor and a memory, and the image data imaged by the processor by the image pickup element and transferred to the memory unit on which optical noise is superimposed is stored in the memory unit. After each of the plurality of divided areas is read as area image data and the reading of each area image data is completed, the data of the predetermined area is read again, imaged by the imaging element, and stored in the memory unit. A process including outputting the corrected image data obtained by correcting each of the plurality of regions according to the optical noise determined according to the data read again is executed.

他の実施形態に係る画像処理装置は、プロセッサと、メモリを有する画像処理装置であって、プロセッサが、撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、撮像素子により撮像されてメモリ部に格納された撮像画像データが、読出部により各々毎に読み出された領域画像データに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む処理を実行する。 The image processing device according to another embodiment is an image processing device having a processor and a memory, and the image data imaged by the processor by the image sensor and transferred to the memory unit on which optical noise is superimposed is stored in the memory unit. Each of the plurality of divided areas is read as area image data, and the captured image data captured by the image sensor and stored in the memory unit is according to the area image data read out for each area by the reading unit. A process including outputting the corrected image data obtained by correcting each of the plurality of regions according to the determined optical noise is executed.

本開示の一つの実施形態によれば、撮像素子又は撮像装置の機械的な構成を変更することなく、光ノイズを抑制した撮像画像を得ることができる。 According to one embodiment of the present disclosure, it is possible to obtain an captured image in which optical noise is suppressed without changing the mechanical configuration of the imaging element or the imaging device.

第1実施形態に係る撮像装置の外観の一例を示す概略斜視図である。It is a schematic perspective view which shows an example of the appearance of the image pickup apparatus which concerns on 1st Embodiment. 図1に示す撮像装置の背面図である。It is a rear view of the image pickup apparatus shown in FIG. 第1実施形態に係る撮像装置の電気系の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the electric system of the image pickup apparatus which concerns on 1st Embodiment. 第1実施形態に係る撮像素子の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the image pickup device which concerns on 1st Embodiment. 第1実施形態に係る撮像素子の部分拡大平面図である。It is a partially enlarged plan view of the image pickup device which concerns on 1st Embodiment. メモリ部から画像データを読み出すタイムチャートであり、図6Aは、一実施形態に係るタイムチャートであり、図6Bは従来技術のタイムチャートである。It is a time chart which reads image data from a memory part, FIG. 6A is a time chart which concerns on one Embodiment, and FIG. 6B is a time chart of the prior art. 第1実施形態に係る撮像素子の領域を区分けする方法の一例である。This is an example of a method for dividing the region of the image sensor according to the first embodiment. 各フィールドの素子の配列の一例を示す図であり、図8Aは第1フィールドの画素配列を示し、図8Bは第2フィールドの画素配列を示し、図8Cは第3フィールドの画素配列を示す。8A shows an example of the arrangement of elements in each field, FIG. 8A shows the pixel arrangement of the first field, FIG. 8B shows the pixel arrangement of the second field, and FIG. 8C shows the pixel arrangement of the third field. 第1実施形態に係る差分取得処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the difference acquisition processing which concerns on 1st Embodiment. 第1実施形態に係る画像データ差分取得処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the image data difference acquisition processing which concerns on 1st Embodiment. 第1実施形態に係るノイズ位置決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the noise position determination processing which concerns on 1st Embodiment. 第1実施形態に係る撮像装置により撮像されて得られた撮像画像の分布態様の一例を示すノイズマップ図である。It is a noise map diagram which shows an example of the distribution mode of the captured image obtained by being imaged by the imaging apparatus which concerns on 1st Embodiment. 第1実施形態に係るフィールド画像補正処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the field image correction processing which concerns on 1st Embodiment. 第2実施形態に係るノイズ位置決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the noise position determination processing which concerns on 2nd Embodiment. 第3実施形態に係るノイズ位置決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the noise position determination processing which concerns on 3rd Embodiment. 第4実施形態に係るノイズ位置決定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the noise position determination processing which concerns on 4th Embodiment. 第5及び第6実施形態に係る光ノイズ補正処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the optical noise correction processing which concerns on 5th and 6th Embodiment. 第7実施形態に係る差分取得処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the difference acquisition processing which concerns on 7th Embodiment. 第8実施形態に係るノイズ補正要否処理の流れの一例示すフローチャートである。It is a flowchart which shows an example of the flow of the noise correction necessity processing which concerns on 8th Embodiment. 第8実施形態に係るノイズ補正要否処理の流れの変形例を示すフローチャートである。It is a flowchart which shows the modification of the flow of the noise correction necessity processing which concerns on 8th Embodiment. 第1〜第8実施形態に係る撮像装置に、可搬型の記憶媒体に記憶されたプログラムをインストールする態様の一例を示す模式図である。It is a schematic diagram which shows an example of the embodiment which installs the program stored in the portable storage medium in the image pickup apparatus which concerns on 1st to 8th Embodiment. 第9実施形態に係るスマートフォンの外観の一例を示す斜視図である。It is a perspective view which shows an example of the appearance of the smartphone which concerns on 9th Embodiment. 第9実施形態に係るスマートフォンの電気系の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the electric system of the smartphone which concerns on 9th Embodiment.

先ず、本明細書で使用される略称について説明する。「PLS」とは、“Parasitic Light Sensitivity)の略称を指す。「CMOS」とは、“Complementary Metal Oxide Semiconductor”の略称を指す。「OVF」とは、“Optical View Finder”の略称を指す。「EVF」とは、“Electric View Finder”の略称を指す。「LCD」とは、“Liquid Crystal Display”の略称を指す。「I/F」とは、“Interface”の略称を指す。「CPU」とは、“Central Processing Unit”の略称を指す。「ROM」とは、“Read Only Memory”の略称を指す。「RAM」とは、“Random Access Memory”の略称を指す。「EEPROM」とは、“Electrically Erasable Programmable Read Only Memory”の略称を指す。「ASIC」とは、“Application Specific Integrated Circuit”の略称を指す。「FPGA」とは、“Field Programmable Gate Array”の略称を指す。「PLD」とは、“Programmable Logic Device”の略称を指す。「LAN」とは、“Local Area Network”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。DVD−ROMとは、“Digital Versatile Disc Read Only Memory”の略称を指す。「SoC」とは、“System On Chip”の略称を指す。「IC」とは、“Integrated Circuit”の略称を指す。「PDA」とは、“Personal Digital Assistants”の略称を指す。「GPS」とは、“Global Positioning System”の略称を指す。「OELD」とは、“Organic Electro Luminescence Display”の略称を指す。「JPEG」とは、“Joint Photographic coding Experts Group”の略称を指す。「RFID」とは、“Radio Frequency Identification”の略称を指す。「SIM」とは、Subscriber Identity Module”の略称を指す。「UIM」とは、“User Identity Module Card”の略称を指す。「I/O」とは、“Input/Output”の略称を指す。 First, the abbreviations used in the present specification will be described. "PLS" refers to the abbreviation for "Parasitic Light Sensitivity". "CMOS" refers to the abbreviation for "Complementary Metal Oxide Photophobia". “OVF” refers to the abbreviation for “Optical View Finder”. "EVF" refers to the abbreviation for "Electric View Finder". "LCD" refers to the abbreviation for "Liquid Crystal Display". “I / F” refers to the abbreviation for “Interface”. "CPU" refers to the abbreviation for "Central Processing Unit". "ROM" refers to the abbreviation of "Read Only Memory". "RAM" refers to the abbreviation for "Random Access Memory". "EEPROM" refers to an abbreviation for "Electrically Erasable Programmable Read Only Memory". "ASIC" refers to an abbreviation for "Application Special Integrated Circuit". “FPGA” refers to the abbreviation for “Field Programmable Gate Array”. "PLD" refers to the abbreviation for "Programmable Logic Device". "LAN" refers to the abbreviation for "Local Area Network". SSD refers to the abbreviation of "Solid State Drive". USB refers to the abbreviation of "Universal Serial Bus". DVD-ROM is an abbreviation for "Digital Versail Disc Read Only Memory". "SoC" refers to the abbreviation for "System On Chip". "IC" refers to an abbreviation for "Integrated Circuit". "PDA" refers to the abbreviation for "Personal Digital Assistants". "GPS" refers to the abbreviation of "Global Positioning System". "OLELD" refers to the abbreviation for "Organic Electroluminescence Display". "JPEG" refers to the abbreviation for "Joint Photographic Coding Experts Group". "RFID" refers to the abbreviation for "Radio Frequency Identification". "SIM" refers to the abbreviation of "Subscriber Identity Module". "UIM" refers to the abbreviation of "User Identity Module". “I / O” refers to the abbreviation for “Input / Output”.

(第1実施形態)
以下、本開示の技術の実施形態の一例を、図面を参照しつつ説明する。図1は、第1実施形態に係る撮像装置100の外観の一例を示す斜視図である。図2は、図1に示す撮像装置100の背面図である。以下に説明する実施形態を適用可能な撮像装置としては、デジタルカメラ及びデジタルビデオカメラ等の撮像装置、電子内視鏡及びカメラ付携帯電話機等に搭載される撮像モジュール等があり、ここではデジタルカメラを例にして説明する。
(First Embodiment)
Hereinafter, an example of the embodiment of the technique of the present disclosure will be described with reference to the drawings. FIG. 1 is a perspective view showing an example of the appearance of the image pickup apparatus 100 according to the first embodiment. FIG. 2 is a rear view of the image pickup apparatus 100 shown in FIG. Imaging devices to which the embodiments described below can be applied include imaging devices such as digital cameras and digital video cameras, imaging modules mounted on electronic endoscopes and mobile phones with cameras, and the like. Here, digital cameras Will be described as an example.

撮像装置100は、レンズ交換式カメラであり、カメラ本体200と、カメラ本体200に交換可能に装着される交換レンズ300と、を含み、レフレックスミラーが省略されたデジタルカメラである。また、カメラ本体200には、ハイブリッドファインダー(登録商標)220が設けられている。ここで言うハイブリッドファインダー220とは、例えば、OVF及びEVFが選択的に使用可能なファインダーを指す。 The image pickup apparatus 100 is an interchangeable lens camera, and is a digital camera including a camera main body 200 and an interchangeable lens 300 interchangeably attached to the camera main body 200, and the reflex mirror is omitted. Further, the camera body 200 is provided with a hybrid finder (registered trademark) 220. The hybrid finder 220 referred to here refers to, for example, a finder in which OVF and EVF can be selectively used.

カメラ本体200と交換レンズ300とは、カメラ本体200に備えられたマウント256と、マウント256に対応する交換レンズ300側のマウント346(図3参照)とが結合されることにより交換可能に装着される。交換レンズ300は、撮影レンズ16及びフォーカスレンズ302を含み、カメラ本体200の撮像素子に被写体の光学像を送る。 The camera body 200 and the interchangeable lens 300 are interchangeably attached by combining the mount 256 provided on the camera body 200 and the mount 346 (see FIG. 3) on the interchangeable lens 300 side corresponding to the mount 256. The lens. The interchangeable lens 300 includes a photographing lens 16 and a focus lens 302, and sends an optical image of the subject to the image sensor of the camera body 200.

カメラ本体200の前面には、ハイブリッドファインダー220に含まれるOVFのファインダー窓241が設けられている。また、カメラ本体200の前面には、ファインダー切替えレバー214が設けられている。ファインダー切替えレバー214を矢印SW方向に回動させると、OVFで視認可能な光学像と、EVFで視認可能な電子像であるライブビュー画像とが選択的に表示される。なお、OVFの光軸L2は、交換レンズ300の光軸L1とは異なる光軸である。また、カメラ本体200の上面には、主としてレリーズボタン211及び撮影モード又は再生モード等の設定用のダイヤル212が設けられている。 An OVF finder window 241 included in the hybrid finder 220 is provided on the front surface of the camera body 200. A finder switching lever 214 is provided on the front surface of the camera body 200. When the finder switching lever 214 is rotated in the direction of the arrow SW, an optical image that can be seen by the OVF and a live view image that is an electronic image that can be seen by the EVF are selectively displayed. The optical axis L2 of the OVF is an optical axis different from the optical axis L1 of the interchangeable lens 300. Further, on the upper surface of the camera body 200, a release button 211 and a dial 212 for setting a shooting mode or a playback mode are mainly provided.

図2に示すカメラ本体200の背面には、OVFのファインダー接眼部242、表示部213、十字キー222、メニューキー224、選択ボタン225が設けられている。 On the back surface of the camera body 200 shown in FIG. 2, an OVF finder eyepiece 242, a display 213, a cross key 222, a menu key 224, and a selection button 225 are provided.

十字キー222は、メニューの選択、ズーム又はコマ送り等の各種の指令信号を出力するマルチファンクションのキーとして機能する。メニューキー224は、表示部213の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。選択ボタン225は、選択項目などの表示内容の消去及び/又は指定内容の取消し、あるいは1つ前の操作状態に戻すときなどに使用される。 The cross key 222 functions as a multifunction key that outputs various command signals such as menu selection, zoom, and frame advance. The menu key 224 is an operation key that has both a function as a menu button for issuing a command to display a menu on the screen of the display unit 213 and a function as an OK button for commanding confirmation and execution of selected contents. is there. The selection button 225 is used for erasing display contents such as selected items and / or canceling specified contents, or returning to the previous operation state.

表示部213は、例えばLCDにより実現され、撮影モード時に連続フレームで撮像されて得られた連続フレーム画像の一例であるライブビュー画像の表示に用いられる。ここでいう「ライブビュー画像」とは、一般的には「スルー画像」とも呼ばれている。また、表示部213は、静止画像の撮像の指示が与えられた場合に単一フレームで撮像されて得られた単一フレーム画像の一例である静止画像の表示にも用いられる。更に、表示部213は、再生モード時の再生画像の表示又はメニュー画面等の表示にも用いられる。表示部213は、タッチパネルディスプレイであってもよい。 The display unit 213 is realized by, for example, an LCD, and is used for displaying a live view image which is an example of a continuous frame image obtained by being imaged in a continuous frame in a shooting mode. The "live view image" here is also generally called a "through image". The display unit 213 is also used for displaying a still image, which is an example of a single frame image obtained by capturing an image in a single frame when an instruction to capture a still image is given. Further, the display unit 213 is also used for displaying a reproduced image in the reproduction mode or displaying a menu screen or the like. The display unit 213 may be a touch panel display.

図3は、第1実施形態に係る撮像装置100の電気系の要部構成の一例を示すブロック図である。 FIG. 3 is a block diagram showing an example of the configuration of a main part of the electrical system of the image pickup apparatus 100 according to the first embodiment.

撮像装置100は、撮像した静止画像及び動画像を記録するデジタルカメラであり、カメラ全体の動作は、CPU12によって統括制御されている。撮像装置100は、CPU12の他に、操作部14、I/F部24、一次記憶部26、二次記憶部27、エンコーダ34、表示制御部36、及び外部I/F39を含む。また、撮像装置100は、画像処理部28を含む。なお、CPU12及び表示制御部36は、本開示の技術に係る「制御部」の一例である。CPU12は、表示制御部36により出力された補正画像データに基づく画像を表示部213に対して表示させる制御を行う。また操作部14は、本開示の技術に係る「受付部」の一例である。受付部は、撮像素子に対して撮像を開始させるユーザからの指示を受け付ける。
また、本第1実施形態では、画像処理部28とは別のハードウェア構成として表示制御部36を設けているが、これに限らず、画像処理部28が表示制御部36と同様の機能を有するものとしてもよく、この場合、表示制御部36は不要となる。CPU12、操作部14、I/F部24、一次記憶部26、二次記憶部27、画像処理部28、エンコーダ34、表示制御部36、及び外部I/F39は、バス40を介して相互に接続されている。
The image pickup apparatus 100 is a digital camera that records captured still images and moving images, and the operation of the entire camera is controlled by the CPU 12. In addition to the CPU 12, the image pickup apparatus 100 includes an operation unit 14, an I / F unit 24, a primary storage unit 26, a secondary storage unit 27, an encoder 34, a display control unit 36, and an external I / F 39. Further, the image pickup apparatus 100 includes an image processing unit 28. The CPU 12 and the display control unit 36 are examples of the "control unit" according to the technology of the present disclosure. The CPU 12 controls the display unit 213 to display an image based on the corrected image data output by the display control unit 36. The operation unit 14 is an example of a "reception unit" according to the technique of the present disclosure. The reception unit receives an instruction from the user to start imaging on the image sensor.
Further, in the first embodiment, the display control unit 36 is provided as a hardware configuration different from the image processing unit 28, but the present invention is not limited to this, and the image processing unit 28 has the same function as the display control unit 36. In this case, the display control unit 36 becomes unnecessary. The CPU 12, the operation unit 14, the I / F unit 24, the primary storage unit 26, the secondary storage unit 27, the image processing unit 28, the encoder 34, the display control unit 36, and the external I / F 39 mutually via the bus 40. It is connected.

一次記憶部26は、各種プログラムの実行時のワークエリア等として用いられる揮発性のメモリである。一次記憶部26の一例としては、RAMが挙げられる。二次記憶部27は、各種プログラム及び各種パラメータ等が予め記憶された不揮発性のメモリである。二次記憶部27の一例としては、EEPROM又はフラッシュメモリ等が挙げられる。CPU12は、二次記憶部27に記憶されている各種プログラムを二次記憶部27から読み出し、読み出した各種プログラムを一次記憶部26に展開し、展開した各種プログラムを実行することで各部を制御する。 The primary storage unit 26 is a volatile memory used as a work area or the like when executing various programs. An example of the primary storage unit 26 is a RAM. The secondary storage unit 27 is a non-volatile memory in which various programs, various parameters, and the like are stored in advance. An example of the secondary storage unit 27 is an EEPROM, a flash memory, or the like. The CPU 12 reads various programs stored in the secondary storage unit 27 from the secondary storage unit 27, expands the read various programs in the primary storage unit 26, and controls each unit by executing the expanded programs. ..

操作部14は、レリーズボタン211、及び撮影モード等を選択するダイヤル212、表示部213、ファインダー切替えレバー214、十字キー222、メニューキー224及び選択ボタン225を含む。また、操作部14は、各種情報を受け付けるタッチパネルも含む。このタッチパネルは、例えば表示部213の表示画面に重ねられている。操作部14から出力された各種の操作信号はCPU12に入力される。 The operation unit 14 includes a release button 211, a dial 212 for selecting a shooting mode and the like, a display unit 213, a finder switching lever 214, a cross key 222, a menu key 224, and a selection button 225. The operation unit 14 also includes a touch panel that receives various information. This touch panel is superimposed on the display screen of the display unit 213, for example. Various operation signals output from the operation unit 14 are input to the CPU 12.

画像処理部28は、ホワイトバランスゲイン部及びガンマ補正部を有し(図示省略)、一次記憶部26に一時記憶された元のデジタル信号であるRAW画像に対して各処理部で順次信号処理を行う。すなわち、ホワイトバランスゲイン部は、R,G,B信号のゲインを調整することによりホワイトバランスを実行する。ガンマ補正部は、WBゲイン部でWBが実行された各R,G,B信号をガンマ補正する。 The image processing unit 28 has a white balance gain unit and a gamma correction unit (not shown), and each processing unit sequentially performs signal processing on a RAW image which is an original digital signal temporarily stored in the primary storage unit 26. Do. That is, the white balance gain unit executes white balance by adjusting the gains of the R, G, and B signals. The gamma correction unit gamma-corrects each R, G, B signal for which WB is executed in the WB gain unit.

エンコーダ34は、入力された信号を別の形式の信号に変換して出力する。ハイブリッドファインダー220は、電子像を表示するLCD247を有する。表示制御部36は表示部213とLCD247に各々接続されており、LCD247及び表示部213が選択的に制御されることによりLCD247又は表示部213により画像が表示される。本実施形態において、表示制御部36は、本開示の技術に係る「出力部」の一例であり、各種画像を表示部213又はLCD247に出力する。なお、以下では、表示部213及びLCD247を区別して説明する必要がない場合は「表示装置」と称する。 The encoder 34 converts the input signal into another type of signal and outputs the signal. The hybrid finder 220 has an LCD 247 that displays an electronic image. The display control unit 36 is connected to the display unit 213 and the LCD 247, respectively, and an image is displayed by the LCD 247 or the display unit 213 by selectively controlling the LCD 247 and the display unit 213. In the present embodiment, the display control unit 36 is an example of the “output unit” according to the technique of the present disclosure, and outputs various images to the display unit 213 or the LCD 247. In the following, when it is not necessary to distinguish between the display unit 213 and the LCD 247, the term “display device” is used.

外部I/F39は、LAN及び/又はインターネットなどの通信網に接続され、通信網を介して、サーバ、パーソナルコンピュータ、及び/又はプリンタ等の外部装置とCPU12との間の各種情報の送受信を司る。従って、撮像装置100は、外部装置としてプリンタが接続されている場合、撮影した静止画像をプリンタに出力して印刷させることができる。また、撮像装置100は、外部装置としてディスプレイが接続されている場合は、撮影した静止画像及び/又はライブビュー画像をディスプレイに出力して表示させることができる。 The external I / F 39 is connected to a communication network such as LAN and / or the Internet, and controls transmission / reception of various information between the CPU 12 and an external device such as a server, a personal computer, and / or a printer via the communication network. .. Therefore, when the printer is connected as an external device, the image pickup apparatus 100 can output the captured still image to the printer and print it. Further, when the display is connected as an external device, the image pickup apparatus 100 can output the captured still image and / or the live view image to the display and display it.

被写体を示す画像光は、撮影レンズ16及びシャッタ18を介して撮像素子20の受光面に結像される。撮像素子20は、いわゆる電子シャッタ機能を有しており、電子シャッタ機能を働かせることで、各光電変換素子51の電荷蓄積時間即ち露光時間を制御する。本実施形態では、撮像素子20の一例としてCMOSセンサが採用されているが、これに限らず、グローバルシャッタ方式、及び、後述のローリング方式での読み出しが実現可能な撮像素子であればよい。 The image light indicating the subject is imaged on the light receiving surface of the image sensor 20 via the photographing lens 16 and the shutter 18. The image pickup device 20 has a so-called electronic shutter function, and by activating the electronic shutter function, the charge accumulation time, that is, the exposure time of each photoelectric conversion element 51 is controlled. In the present embodiment, a CMOS sensor is adopted as an example of the image sensor 20, but the present invention is not limited to this, and any image sensor that can realize reading by the global shutter method and the rolling method described later may be used.

撮像素子20は、複数の光電変換素子51が横方向と縦方向に2次元的に配列されているCMOSセンサである。以下では、説明の便宜上、横方向を行方向とも称し、縦方向を列方向とも称する。 The image sensor 20 is a CMOS sensor in which a plurality of photoelectric conversion elements 51 are two-dimensionally arranged in the horizontal direction and the vertical direction. In the following, for convenience of explanation, the horizontal direction is also referred to as a row direction, and the vertical direction is also referred to as a column direction.

一例として図4に示すように、撮像素子20は、光電変換素子51、メモリ部53、及び画像処理回路61を有する。光電変換素子51は、レリーズボタン211が操作されることによって受け付けられた指示に従って被写体を撮像し、被写体を示す画像データを生成する。ここで、光電変換素子51により生成された画像データは、本開示の技術に係る「撮像画像データ」の一例である。メモリ部53は、光ノイズが重畳する特性を有しており、光電変換素子51から転送された画像データを格納する。撮像素子20は、I/F部24を介してバス40に接続されている。 As an example, as shown in FIG. 4, the image pickup device 20 includes a photoelectric conversion element 51, a memory unit 53, and an image processing circuit 61. The photoelectric conversion element 51 takes an image of the subject according to the instruction received by operating the release button 211, and generates image data indicating the subject. Here, the image data generated by the photoelectric conversion element 51 is an example of "captured image data" according to the technique of the present disclosure. The memory unit 53 has a characteristic that optical noise is superimposed, and stores the image data transferred from the photoelectric conversion element 51. The image sensor 20 is connected to the bus 40 via the I / F unit 24.

画像処理回路61は、本開示の技術に係る「読出部」の一例であり、メモリ部53から画像データを読み出す。画像処理回路61は、メモリ部53に転送された画像データを、メモリ部53の区分けされた複数の領域の各々毎に領域画像データとして読み出す。そして、画像処理回路61は、領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出す。以下、説明の便宜上、メモリ部53の区分けされた複数の領域を、単に「複数の領域」とも称する。また、ここで言う「予め定められた領域」とは、メモリ部53のうち、画像データが最初に領域画像データとして読み出された領域を指す。予め定められた領域は、光ノイズの影響を受け、光ノイズに起因するデータを蓄積する。なお、以下では、説明の便宜上、「予め定められた領域のデータ」を、「光ノイズデータ」とも称する。また、本実施形態では、光ノイズとして、PLSを想定しているが、PLSはあくまでも一例に過ぎず、他種類の光ノイズであってもよい。 The image processing circuit 61 is an example of a “reading unit” according to the technique of the present disclosure, and reads image data from the memory unit 53. The image processing circuit 61 reads out the image data transferred to the memory unit 53 as area image data for each of the plurality of divided areas of the memory unit 53. Then, the image processing circuit 61 reads out the data of the predetermined area again after the reading of each area image data is completed. Hereinafter, for convenience of explanation, the plurality of divided areas of the memory unit 53 are also simply referred to as “plurality of areas”. Further, the “predetermined area” referred to here refers to an area in the memory unit 53 in which the image data is first read as the area image data. The predetermined area is affected by the optical noise and accumulates data caused by the optical noise. In the following, for convenience of explanation, "data in a predetermined region" is also referred to as "optical noise data". Further, in the present embodiment, PLS is assumed as the optical noise, but PLS is merely an example, and may be other types of optical noise.

画像処理回路61は、補正処理部62及び記憶部64を有する。補正処理部62は、メモリ部53に格納された画像データをメモリ部53から読み出し、読み出した画像データを記憶部64に一時的に記憶する。補正処理部62は、記憶部64に記憶された画像データを、光ノイズデータに応じて定まる光ノイズに従って複数の領域の各々毎に補正することで補正画像データを生成する。補正画像データは、記憶部64に記憶された画像データに比べ、光ノイズの影響が抑制された画像である。 The image processing circuit 61 has a correction processing unit 62 and a storage unit 64. The correction processing unit 62 reads the image data stored in the memory unit 53 from the memory unit 53, and temporarily stores the read image data in the storage unit 64. The correction processing unit 62 generates corrected image data by correcting the image data stored in the storage unit 64 for each of a plurality of regions according to the optical noise determined according to the optical noise data. The corrected image data is an image in which the influence of optical noise is suppressed as compared with the image data stored in the storage unit 64.

画像処理回路61は、画像処理に係る複数の機能の回路を1つにまとめた集積回路であるASICであってもよい。また、例えば、画像処理回路61は、CPU、ROM及びRAMを含むコンピュータ、FPGA、又はPLDなどの他のハードウェア構成であっても良い。また、例えば、画像処理回路61は、ASIC、FPGA、PLD、及びコンピュータ等のうちの2種類以上のハードウェア構成の組み合わせであってもよい。 The image processing circuit 61 may be an ASIC that is an integrated circuit in which circuits having a plurality of functions related to image processing are integrated into one. Further, for example, the image processing circuit 61 may have another hardware configuration such as a computer including a CPU, ROM and RAM, an FPGA, or a PLD. Further, for example, the image processing circuit 61 may be a combination of two or more types of hardware configurations such as ASIC, FPGA, PLD, and a computer.

一例として図5に示すように、撮像素子20は、光電変換素子51と、メモリ部53と、フローティングディフュージョン部55と、を含む破線で囲むユニットが行方向に多数配されている。本実施形態では、横方向の一列を行という。また縦方向の1列を列という。例えば図5の上側の1行を(x)行とすると、下側の行は(x+1)行である。また図の左側の列を(y)列とすると、右側の列は(y+1)列である。なお、図5に示す例では、メモリ部53は光電変換素子51の横方向に隣接して設けられているが、メモリ部53と光電変換素子51との位置関係はこれに限られない。例えば、光電変換素子51の上方、又は下方にメモリ部53が配置されていてもよい。また、例えば、光電変換素子51にメモリ部53が重なって配置されていてもよい。 As an example, as shown in FIG. 5, in the image pickup element 20, a large number of units surrounded by a broken line including a photoelectric conversion element 51, a memory unit 53, and a floating diffusion unit 55 are arranged in the row direction. In this embodiment, one column in the horizontal direction is referred to as a row. One row in the vertical direction is called a row. For example, assuming that the upper row in FIG. 5 is the (x) row, the lower row is the (x + 1) row. If the left column in the figure is the (y) column, the right column is the (y + 1) column. In the example shown in FIG. 5, the memory unit 53 is provided adjacent to the photoelectric conversion element 51 in the lateral direction, but the positional relationship between the memory unit 53 and the photoelectric conversion element 51 is not limited to this. For example, the memory unit 53 may be arranged above or below the photoelectric conversion element 51. Further, for example, the memory unit 53 may be arranged so as to overlap the photoelectric conversion element 51.

ユーザが撮像装置100のレリーズボタン211を押すと、光電変換素子51の全ての画素がリセットされる。次いで設定された電荷蓄積時間だけ光電変換素子51が起動し、光を信号電荷に変換する。露光が終了すると、露光中に発生した信号電荷は、いわゆるグローバルシャッタ方式でメモリ部53に転送される。即ち、例えば、すべての有効画素の光電変換素子51に蓄積された信号電荷が、転送信号に同期してメモリ部53に一括して転送される。ここで言う「信号電荷」とは、被写体を撮像することにより生じる電荷を指す。また、信号電荷は、被写体を示す画像データに相当する。なお、ここではグローバルシャッタ方式を例示したが、ローリングシャッタ方式を適用することも可能である。 When the user presses the release button 211 of the image pickup apparatus 100, all the pixels of the photoelectric conversion element 51 are reset. Next, the photoelectric conversion element 51 is activated for the set charge accumulation time to convert light into signal charges. When the exposure is completed, the signal charge generated during the exposure is transferred to the memory unit 53 by the so-called global shutter method. That is, for example, the signal charges accumulated in the photoelectric conversion elements 51 of all the effective pixels are collectively transferred to the memory unit 53 in synchronization with the transfer signal. The "signal charge" here refers to the charge generated by imaging the subject. Further, the signal charge corresponds to image data indicating the subject. Although the global shutter method is illustrated here, the rolling shutter method can also be applied.

メモリ部53に一時的に格納された信号電荷は、画像処理回路61から入力される読み出し信号によってフローティングディフュージョン部55から信号電荷に応じたデジタル信号として順次読み出される。ここで、信号電荷を順次読み出す方式は、いわゆるローリング方式とも称される。なお、一例として図5に示す構成では、隣接する2つの行のメモリ部53からのそれぞれの信号電荷が、1つのフローティングディフュージョン部55から読み出される。 The signal charge temporarily stored in the memory unit 53 is sequentially read from the floating diffusion unit 55 as a digital signal according to the signal charge by the read signal input from the image processing circuit 61. Here, the method of sequentially reading the signal charges is also called a so-called rolling method. As an example, in the configuration shown in FIG. 5, the signal charges from the memory units 53 of the two adjacent rows are read out from one floating diffusion unit 55.

読み出しは、例えば、行ごとのローリング方式での読み出しであるため、すべてのメモリ部53の信号電荷を読み出すまでにある程度の時間がかかる。その間に、光電変換素子51及び/又はメモリ部53に発生した迷光等によるノイズ電荷が、信号電荷に重畳される。例えばメモリ部53に遮光部材を有しない等で外光に晒される場合は、メモリ部53からの光ノイズが信号電荷に重畳される。そのため、メモリ部53に格納され読み出される画像データは、被写体が撮像されることによって得られた画像データに、光ノイズが重畳された撮像画像データである。以下では、説明の便宜上、光ノイズが重畳された補正前の画像を撮像画像ともいう。本実施形態では、この撮像画像から重畳された光ノイズを除去するため、以下に示す処理を行う。 Since the reading is, for example, a row-by-row rolling method, it takes a certain amount of time to read the signal charges of all the memory units 53. During that time, noise charges due to stray light or the like generated in the photoelectric conversion element 51 and / or the memory unit 53 are superimposed on the signal charges. For example, when the memory unit 53 does not have a light-shielding member and is exposed to external light, the optical noise from the memory unit 53 is superimposed on the signal charge. Therefore, the image data stored and read out in the memory unit 53 is the captured image data in which optical noise is superimposed on the image data obtained by capturing the subject. In the following, for convenience of explanation, the image before correction on which optical noise is superimposed is also referred to as a captured image. In the present embodiment, the following processing is performed in order to remove the superimposed optical noise from the captured image.

図6は、露光時間に蓄積されメモリ部53に格納された画像データを読み出すタイムチャート(横軸が時間)の一例である。本実施形態では、一例として図6Aに示すように、メモリ部53に蓄積された画像データの画像処理回路61による読み出しは、メモリ部53が3つの領域に区分けされ、予め定められた順序で領域ごとに行う。ここで言う「3つの領域」とは、上述した「複数の領域」の一例である。 FIG. 6 is an example of a time chart (horizontal axis is time) for reading out image data accumulated in the exposure time and stored in the memory unit 53. In the present embodiment, as shown in FIG. 6A as an example, in the reading of the image data stored in the memory unit 53 by the image processing circuit 61, the memory unit 53 is divided into three areas, and the areas are divided into three areas in a predetermined order. Do it every time. The "three regions" referred to here are an example of the above-mentioned "plurality of regions".

本実施形態では、画像処理回路61が、例えば、図6Aの“F1”で示すように、最初に第1領域の画像データをローリング方式で読み出す。次に、画像処理回路61は、例えば、図6Aの“F2”で示すように、第2領域の画像データをローリング方式で読み出す。次に、画像処理回路61は、例えば、図6Aの“F3”で示すように、第3領域の画像データをローリング方式で読み出す。最後に、画像処理回路61は、例えば、図6Aの“RF1”で示すように、最初に読み出しを行った第1領域に対して再度読み出しを行う。 In the present embodiment, the image processing circuit 61 first reads out the image data of the first region by a rolling method, for example, as shown by “F1” in FIG. 6A. Next, the image processing circuit 61 reads out the image data in the second region by a rolling method, for example, as shown by “F2” in FIG. 6A. Next, the image processing circuit 61 reads out the image data in the third region by a rolling method, for example, as shown by “F3” in FIG. 6A. Finally, the image processing circuit 61 re-reads the first region that was first read, as shown by, for example, “RF1” in FIG. 6A.

第1領域に対して再度読み出しを行う場合、画像処理回路61は、光電変換素子51によって生成された撮影対象の信号電荷ではなく、最初に第1領域を読み出した後に第1領域に発生した光ノイズ成分に相当する前述の光ノイズデータを読み出す。このように、画像処理回路61が一度読み出しを行った領域に対して再度読み出しを行うことを、以下では、「空読み」とも称する。 When the first region is read again, the image processing circuit 61 does not read the signal charge of the imaging target generated by the photoelectric conversion element 51, but the light generated in the first region after first reading the first region. The above-mentioned optical noise data corresponding to the noise component is read out. In the following, re-reading the area that the image processing circuit 61 has read once is also referred to as "blank reading".

各領域の読み出し順序は特に限定されないが、後述の領域の区分け方法に関連して決めることが好ましい。また、空読みする領域は、最初に読み出しが行われた領域であることが好ましい。その理由については後述する。 The reading order of each region is not particularly limited, but it is preferably determined in relation to the region division method described later. Further, the blank reading area is preferably the area where the reading is performed first. The reason will be described later.

図6Bは、メモリ部53を区分けしないで1行目から最終行まで順次ローリング方式で読み出す従来方法を示すタイムチャートである。この読み出し方法を通常読み出しと称する。本実施形態では、画像処理回路61は、撮像条件により、画像データを分割して読み出す分割読み出し方法と、画像データを分割しないで順次読み出す通常読み出し方法とを使い分けることができる。 FIG. 6B is a time chart showing a conventional method of sequentially reading from the first row to the last row by a rolling method without dividing the memory unit 53. This reading method is called normal reading. In the present embodiment, the image processing circuit 61 can use a divided reading method for dividing and reading the image data and a normal reading method for sequentially reading the image data without dividing the image data, depending on the imaging conditions.

ここで、メモリ部53における領域の区分けの仕方について説明する。撮像素子20は、画素の色分割に応じて、予め複数の領域に区分けされている。領域は、メモリ部53に蓄積された信号電荷が均等に分割されるように区分けされる。より具体的には、各領域に含まれる記憶素子に対応する光電変換素子51の画素が撮像領域の中で位置的に均等に分布するように区分けされる。光電変換素子51の画素の各々にはメモリ部53の記憶素子が隣接して設けられているため、光電変換素子51の画素を均等に区分けすることは、メモリ部53を均等に区分けすることを意味する。このように区分けすることで、撮像画像の全体が各領域の画像データである領域画像データに均等に分割される。 Here, how to divide the area in the memory unit 53 will be described. The image sensor 20 is divided into a plurality of regions in advance according to the color division of the pixels. The area is divided so that the signal charge stored in the memory unit 53 is evenly divided. More specifically, the pixels of the photoelectric conversion element 51 corresponding to the storage element included in each region are divided so as to be evenly distributed in position in the imaging region. Since the storage elements of the memory unit 53 are provided adjacent to each of the pixels of the photoelectric conversion element 51, evenly dividing the pixels of the photoelectric conversion element 51 means that the memory unit 53 is evenly divided. means. By dividing in this way, the entire captured image is evenly divided into region image data which is image data of each region.

領域の区分けの方法の一例を図7に示す。図7に示す例では、撮像素子20は行方向に4896画素、列方向に3264画素を配列し、画素数として(4896×3264)個、アスペクト比として3:2が採用されている。しかし、画素数及びアスペクト比はこれに限られるものではない。 An example of the method of dividing the area is shown in FIG. In the example shown in FIG. 7, the image sensor 20 has 4896 pixels in the row direction and 3264 pixels in the column direction, and the number of pixels is (4896 × 3264) and the aspect ratio is 3: 2. However, the number of pixels and the aspect ratio are not limited to this.

本実施形態では、一例として図7に示すように行列方式で配列された画素が、行単位で周期的に間引かれて1つの領域に割り当てられている。具体的には、画素は3行ごとに1行全部が間引かれて1つの領域に割り当てられている。つまり、1行目の画素は第1領域に、2行目の画素は第2領域に、3行目の画素は第3領域に各々割り当てられる。本明細書では、間引くとは一部を抜き出すことを意味する。なお、以下では、「領域」を「フィールド」とも称する。 In the present embodiment, as shown in FIG. 7, pixels arranged in a matrix manner are periodically thinned out row by row and assigned to one area. Specifically, the pixels are allotted to one area by thinning out one line every three lines. That is, the pixels in the first row are assigned to the first region, the pixels in the second row are assigned to the second region, and the pixels in the third row are assigned to the third region. In the present specification, thinning out means extracting a part. In the following, the "area" is also referred to as a "field".

4行目以降も同様に、4行目の画素は第1フィールドに、5行目の画素は第2フィールドに、6行目の画素は第3フィールドに、順番に割り当てられる。つまり、行番号をフィールドの数である3で割ったときの余りが1の行の画素は第1フィールドに、余りが2の行の画素は第2フィールドに、行番号が3で割り切れる行の画素は第3フィールドに、割り当てられる。このような割り当てをすべての行の画素について行う。ここでは、撮像素子20の画素が行単位で周期的に間引かれて1つの領域に割り当てられることで複数の領域に分割されることを「フィールド分割」とも称する。 Similarly, in the fourth and subsequent rows, the pixels in the fourth row are assigned to the first field, the pixels in the fifth row are assigned to the second field, and the pixels in the sixth row are assigned to the third field in this order. That is, when the line number is divided by 3, which is the number of fields, the pixels of the line with a remainder of 1 are in the first field, the pixels of the line with a remainder of 2 are in the second field, and the line number is divisible by 3. Pixels are assigned to the third field. Such an allocation is made for the pixels in every row. Here, the fact that the pixels of the image sensor 20 are periodically thinned out line by line and assigned to one area to be divided into a plurality of areas is also referred to as "field division".

一例として図7に示すように、撮像素子20は、予め定められた複数の原色の各々について感度を有する。つまり、撮像素子20はカラー撮影が可能である。本実施形態では、R(赤)、G(緑)、B(青)の3色のカラーフィルタが各光電変換素子51上に配置されている。カラーフィルタの配置の仕方は、ベイヤー配列、WRGB配列、又はクリアビット配列などがある。 As shown in FIG. 7 as an example, the image sensor 20 has sensitivity for each of a plurality of predetermined primary colors. That is, the image sensor 20 is capable of color photographing. In the present embodiment, three color filters of R (red), G (green), and B (blue) are arranged on each photoelectric conversion element 51. As a method of arranging the color filter, there are a Bayer array, a WRGB array, a clear bit array, and the like.

本実施形態では、撮像素子20のカラーフィルタの配列は、行毎にフィールド分割しても各フィールドで適切なカラーフィルタの配列が保たれる。具体的には、1行目は、左からRフィルタ、Gフィルタ、Rフィルタ、Gフィルタと、RフィルタとGフィルタが交互に配列されている。2行目は、Gフィルタ、Bフィルタ、Gフィルタ、Bフィルタと、GフィルタとBフィルタが交互に配列されている。以下、奇数行は1行目と同じ配列であり、偶数行は2行目と同じ配列である。 In the present embodiment, the color filter arrangement of the image sensor 20 maintains an appropriate color filter arrangement in each field even if the fields are divided into rows. Specifically, in the first line, the R filter, the G filter, the R filter, the G filter, and the R filter and the G filter are arranged alternately from the left. In the second line, the G filter, the B filter, the G filter, the B filter, and the G filter and the B filter are arranged alternately. Hereinafter, the odd-numbered rows have the same array as the first row, and the even-numbered rows have the same array as the second row.

このように色分割された画素を図7に示す方法でフィールド分割した場合、第1フィールドから第3フィールドは図8A〜図8Cに示す配列になる。各フィールドとも、1088行×1632列の画素が配列されている。また、図8A〜図8Cに示されるように、第1フィールドから第3フィールドは3色の配列がいずれも同じであり、しかもその配列は区分けする前の全領域の配列と同じである。全画素を図7のように配列することにより、分割したときの各フィールドの配列が同じとなるため、フィールド分割読み出しを行った場合の光ノイズの検出精度が高くなる。なお、色分割の方法はカラーフィルタを用いる方法に限られず、例えばプリズムを用いる方法、フォトダイオードを積層する方法、又は有機光電膜を積層する方法等がある。 When the color-divided pixels are field-divided by the method shown in FIG. 7, the first to third fields have the arrangements shown in FIGS. 8A to 8C. In each field, pixels of 1088 rows × 1632 columns are arranged. Further, as shown in FIGS. 8A to 8C, the arrangement of the three colors is the same in the first field to the third field, and the arrangement is the same as the arrangement of the entire region before the division. By arranging all the pixels as shown in FIG. 7, the arrangement of each field at the time of division becomes the same, so that the detection accuracy of optical noise at the time of performing field division reading becomes high. The method of color division is not limited to the method of using a color filter, and there are, for example, a method of using a prism, a method of laminating photodiodes, a method of laminating organic photoelectric films, and the like.

以上のように、複数の原色の各々について感度を有する光電変換素子51が予め定められた配列を有する1つの行がグループ単位となっている。そして、全部の行が周期的に同じ領域に間引かれるため、各領域には、すべての光電変換素子51の画素を均等に3分割した光電変換素子51の画素が含まれる。なお、本実施形態では、メモリ部53が3つの領域に区分けされているが、区分けする領域の数はこれに限られず任意である。そして区分けの方法は、X分割する場合は行番号をXで割り、1余る行の画素を第1フィールド、2余る行の画素を第2フィールド、割り切れる行の画素を第Xフィールド、のようにして割り当てる。 As described above, one row in which the photoelectric conversion elements 51 having sensitivity for each of the plurality of primary colors have a predetermined arrangement is a group unit. Then, since all the rows are periodically thinned out to the same region, each region includes the pixels of the photoelectric conversion element 51 in which the pixels of all the photoelectric conversion elements 51 are evenly divided into three. In the present embodiment, the memory unit 53 is divided into three areas, but the number of divided areas is not limited to this and is arbitrary. Then, in the case of dividing into X, the line number is divided by X, the pixel of the 1 remaining line is the 1st field, the pixel of the 2 remaining lines is the 2nd field, and the pixel of the divisible line is the X field. And assign.

なお、各領域が、それぞれメモリ部53に蓄積されたすべての信号電荷が均等に分割されるように区分けできれば、領域の区分けは上記の方法に限られない。例えば、1行の画素を複数の領域に割り当てるようにしてもよい。また、複数の行をまとめて1つの領域に割り当ててもよい。 If each area can be divided so that all the signal charges stored in the memory unit 53 are evenly divided, the area division is not limited to the above method. For example, one line of pixels may be allocated to a plurality of areas. Further, a plurality of lines may be collectively assigned to one area.

次に、撮像装置100の本開示の技術に係る光ノイズの除去方法の一例について、図9〜図13を参照しながら説明する。 Next, an example of a method for removing optical noise according to the technique of the present disclosure of the image pickup apparatus 100 will be described with reference to FIGS. 9 to 13.

光ノイズの除去方法では、まずフィールド間の比較結果を取得する。本実施形態では、比較結果とは、隣り合う一対の領域画像データの各々の画像データの差分である。差分を取る対象となるフィールドは、読み出し順序が隣り合う一対のフィールドである。領域画像データは、補正処理部62による読み出し順序が隣り合う一対の領域画像データの比較結果に基づいて補正される。前述のように、補正処理部62は、最初に第1フィールドを読み出し、以下、第2フィールド及び第3フィールドの順で読み出す。従って、補正処理部62は、第1フィールドと第2フィールドとの差分を算出する。さらに、補正処理部62は、第2フィールドと第3フィールドとの差分を算出する。フィールドの数が3つの場合は、差分を取得する処理はこれで終了であるが、フィールドの数が4以上である場合、補正処理部62は、以下同様に最後のフィールドまで差分を取得する。 In the optical noise removal method, first, the comparison result between the fields is acquired. In the present embodiment, the comparison result is the difference between the image data of each pair of adjacent region image data. The fields for which the difference is to be taken are a pair of fields in which the reading order is adjacent. The region image data is corrected based on the comparison result of a pair of region image data whose reading order is adjacent to each other by the correction processing unit 62. As described above, the correction processing unit 62 first reads the first field, and then reads the second field and the third field in this order. Therefore, the correction processing unit 62 calculates the difference between the first field and the second field. Further, the correction processing unit 62 calculates the difference between the second field and the third field. When the number of fields is three, the process of acquiring the difference is completed. However, when the number of fields is four or more, the correction processing unit 62 acquires the difference up to the last field in the same manner.

一例として図9に示す差分取得処理では、先ず、ステップS100で、フィールド数レジスタMに初期値である2が記憶される。次のステップS102で、補正処理部62は、第Mフィールドと第(M−1)フィールドとの各々の画像データを読み出す。 As an example, in the difference acquisition process shown in FIG. 9, first, in step S100, the initial value 2 is stored in the field number register M. In the next step S102, the correction processing unit 62 reads out the image data of the Mth field and the (M-1) th field.

以下では、説明の便宜上、各フィールドの画像データを「フィールド画像データ」又は単に「画像データ」と称する。フィールド画像データは、メモリ部53から読み出され、記憶部64に記憶された画素毎のデータの集合である。前述のように画素は各フィールドとも1088行×1632列で配列されている。ここで、行数をx、列数をyとし、x行、y列目の画素を[x、y]と表す。そして、第Mフィールドの画像データの[x、y]の画素データをImageM[x、y]と表記し、第(M−1)フィールドの画像データの座標[x、y]の画素データをImage(M−1)[x、y]と表記する。ただし、xは1から1088まで、yは1から1632までである。 Hereinafter, for convenience of explanation, the image data of each field will be referred to as "field image data" or simply "image data". The field image data is a set of pixel-by-pixel data read from the memory unit 53 and stored in the storage unit 64. As described above, the pixels are arranged in 1088 rows × 1632 columns in each field. Here, the number of rows is x, the number of columns is y, and the pixels in the xth row and yth column are represented as [x, y]. Then, the pixel data of [x, y] of the image data in the M field is expressed as Image M [x, y], and the pixel data of the coordinates [x, y] of the image data in the (M-1) field is Image. (M-1) Notated as [x, y]. However, x is from 1 to 1088 and y is from 1 to 1632.

次のステップS104で、補正処理部62は、第Mフィールドの画像データから第(M−1)フィールドの画像データを差し引いた差分を取得する。差分は、読み出し順序が後のフィールドの画像データから、読み出し順序が先のフィールドの画像データを差し引きして求める。つまり、各フィールドの同じ[x、y]座標にあるデータを差し引きして差分を求める。 In the next step S104, the correction processing unit 62 acquires a difference obtained by subtracting the image data of the (M-1) field from the image data of the M field. The difference is obtained by subtracting the image data of the field whose read order is earlier from the image data of the field whose read order is later. That is, the difference is obtained by subtracting the data at the same [x, y] coordinates of each field.

ここで、ステップS104の処理を、図10を用いて詳細に説明する。一例として図10に示す画像データ差分取得処理は、まず、ステップS110で、座標レジスタに第Mフィールド及び第(M−1)フィールドの処理座標[x、y]としてx=1、y=1が記憶される。次に、ステップS112で、第Mフィールドの[1、1]座標の画素データから第(M−1)フィールドの[1、1]座標の画素データを差し引いたDifDataM[1、1]が記憶部64に記憶される。DifDataM[1、1]は第Mフィールドと第(M−1)フィールドの[1、1]座標の差分である。 Here, the process of step S104 will be described in detail with reference to FIG. As an example, in the image data difference acquisition process shown in FIG. 10, first, in step S110, x = 1 and y = 1 are set as the processing coordinates [x, y] of the Mth field and the (M-1) field in the coordinate register. Be remembered. Next, in step S112, DifDataM [1,1] obtained by subtracting the pixel data of the [1,1] coordinates of the (M-1) field from the pixel data of the [1,1] coordinates of the Mth field is stored in the storage unit. It is stored in 64. DifDataM [1,1] is the difference between the [1,1] coordinates of the Mth field and the (M-1) th field.

次のステップS114で、補正処理部62は、座標レジスタのy座標を1インクリメントし、その後、ステップS116へ移行する。
ステップS116で、補正処理部62は、yの値が1632を超えたか否かを判定する。ステップS116において、yの値が1632以下の場合は、判定が否定されて、画像データ差分取得処理は、ステップS112に戻る。ステップS116において、yの値が1632を超えた場合は、判定が肯定されて、画像データ差分取得処理は、ステップS118へ移行する。
In the next step S114, the correction processing unit 62 increments the y-coordinate of the coordinate register by 1, and then proceeds to step S116.
In step S116, the correction processing unit 62 determines whether or not the value of y exceeds 1632. If the value of y is 1632 or less in step S116, the determination is denied, and the image data difference acquisition process returns to step S112. If the value of y exceeds 1632 in step S116, the determination is affirmed, and the image data difference acquisition process proceeds to step S118.

ステップS118で、補正処理部62は、座標レジスタのxの値を1つインクリメントし、yの値を1に戻す。 In step S118, the correction processing unit 62 increments the value of x in the coordinate register by one and returns the value of y to 1.

次のステップS120で、補正処理部62は、xの値が1088を超えたか否かを判定する。ステップS120において、xの値が1088以下の場合は、判定が否定されて、画像データ差分取得処理は、ステップS112に戻る。ステップS120において、xの値が1088を超えた場合は、判定が肯定されて、補正処理部62は、画像データ差分取得処理を終了する。
なお、以上の処理は、対応する1画素毎に差分を取ったが、例えば対応する1行毎にまとめて差分を取ってもよい。
In the next step S120, the correction processing unit 62 determines whether or not the value of x exceeds 1088. If the value of x is 1088 or less in step S120, the determination is denied, and the image data difference acquisition process returns to step S112. If the value of x exceeds 1088 in step S120, the determination is affirmed, and the correction processing unit 62 ends the image data difference acquisition process.
In the above processing, the difference is taken for each corresponding pixel, but for example, the difference may be taken for each corresponding line.

画像データ差分取得処理が実行されることで、補正処理部62は、画素毎の差分を得る。得られた差分データは記憶部64に記憶される。全画素の差分を第Mフィールドの差分データDifDataM[x、y]と称する。第Mフィールドの画像差分データは、第Mフィールドの画像データの補正に用いられる。 By executing the image data difference acquisition process, the correction processing unit 62 obtains the difference for each pixel. The obtained difference data is stored in the storage unit 64. The difference between all pixels is referred to as the difference data DifDataM [x, y] in the Mth field. The image difference data in the M field is used for correcting the image data in the M field.

図9に戻り、ステップS106で、補正処理部62は、Mがフィールドの数と同じか否かを判定する。ステップS106において、Mがフィールドの数と異なる場合は、判定が否定されて、差分取得処理は、ステップS108へ移行する。ステップS108で、補正処理部62はMを1つインクリメントし、差分取得処理はステップS102に戻る。ステップS106において、Mがフィールドの数と同じ場合は、判定が肯定されて、補正処理部62は、差分取得処理を終了する。補正処理部62は、以上の差分取得処理を実行することで、第2フィールドから第Mフィールドまで、(M−1)個の画像差分データを得る。 Returning to FIG. 9, in step S106, the correction processing unit 62 determines whether or not M is the same as the number of fields. If M is different from the number of fields in step S106, the determination is denied and the difference acquisition process proceeds to step S108. In step S108, the correction processing unit 62 increments M by one, and the difference acquisition process returns to step S102. In step S106, if M is the same as the number of fields, the determination is affirmed, and the correction processing unit 62 ends the difference acquisition process. By executing the above difference acquisition process, the correction processing unit 62 obtains (M-1) image difference data from the second field to the M field.

次に補正処理部62は、光ノイズを有する画素位置を定める、ノイズ位置決定処理を行う。ノイズ位置決定処理とは、各フィールドで、座標毎の差分データがノイズであるか否かを判定してノイズ位置を決定する処理を指す。 Next, the correction processing unit 62 performs noise position determination processing for determining the pixel position having optical noise. The noise position determination process refers to a process of determining whether or not the difference data for each coordinate is noise in each field to determine the noise position.

一例として図11に示すノイズ位置決定処理では、先ず、ステップS130で、フィールド数レジスタMに初期値である2が記憶される。 As an example, in the noise position determination process shown in FIG. 11, first, in step S130, the initial value 2 is stored in the field number register M.

次のステップS132で、補正処理部62は、第2フィールドの差分データDifDataM[x、y]を記憶部64から取り込む。次のステップS134で、座標レジスタに座標データとしてx=1、y=1が記憶される。
次のステップS136で、補正処理部62は、DifDataM[1、1]が予め定めた閾値T1より大きいか否かを判定する。ここで、閾値T1とは、例えば、メモリ部53に蓄積された1画素分の信号電荷に光ノイズが重畳されて得られた1画素分の光ノイズデータのデータ量として、実機による試験及び/又はコンピュータ・シミュレーション等により予め得られた値を指す。
ステップS136において、DifDataM[1、1]が予め定めた閾値T1より大きい場合は、判定が肯定されて、ノイズ位置決定処理は、ステップS138へ移行する。ステップS136において、DifDataM[1、1]が予め定めた閾値T1以下の場合は、判定が否定されて、ノイズ位置決定処理は、ステップS140へ移行する。
ステップS138で、補正処理部62は、ノイズマップNmapM[1、1]に対して、光ノイズが存在することを示す値である“1”を付与し、その後、ノイズ位置決定処理は、ステップS142へ移行する。
ステップS140で、補正処理部62は、ノイズマップNmapM[1、1]に対して、光ノイズが存在しないことを示す値である“0”を付与し、その後、ノイズ位置決定処理は、ステップS142へ移行する。
In the next step S132, the correction processing unit 62 takes in the difference data DifDataM [x, y] of the second field from the storage unit 64. In the next step S134, x = 1 and y = 1 are stored as coordinate data in the coordinate register.
In the next step S136, the correction processing unit 62 determines whether or not the DifDataM [1, 1] is larger than the predetermined threshold value T1. Here, the threshold value T1 is, for example, the amount of optical noise data for one pixel obtained by superimposing optical noise on the signal charge for one pixel stored in the memory unit 53, and is tested by an actual machine and / Or, it refers to a value obtained in advance by computer simulation or the like.
In step S136, if DifDataM [1, 1] is larger than the predetermined threshold value T1, the determination is affirmed, and the noise position determination process shifts to step S138. In step S136, if DifDataM [1, 1] is equal to or less than the predetermined threshold value T1, the determination is denied and the noise position determination process proceeds to step S140.
In step S138, the correction processing unit 62 assigns “1”, which is a value indicating the existence of optical noise, to the noise map NmapM [1, 1], and then the noise position determination process is performed in step S142. Move to.
In step S140, the correction processing unit 62 assigns “0”, which is a value indicating that no optical noise exists, to the noise map NmapM [1, 1], and then the noise position determination process is performed in step S142. Move to.

次のステップS142で、補正処理部62は、第Mフィールドの差分データDifDataM[x、y]をすべて判定したかを判定する。ステップS142において、第Mフィールドの差分データDifDataM[x、y]をすべて判定していない場合は、判定が否定されて、ノイズ位置決定処理は、ステップS144へ移行する。ステップS142において、第Mフィールドの差分データDifDataM[x、y]をすべて判定した場合は、判定が肯定されて、ノイズ位置決定処理は、ステップS146へ移行する。
ステップS144で、補正処理部62は、x座標又はy座標を1つインクリメントし、その後、ノイズ位置決定処理は、ステップS136に戻る。なお、座標をインクリメントする手順は、図10に示す方法に準ずるので詳細な説明は省略する。
ステップS146で、補正処理部62は、Mがフィールドの数と同じか否かを判定する。ステップS146において、Mがフィールドの数と異なる場合は、判定が否定されて、ノイズ位置決定処理は、ステップS148へ移行する。
ステップS148で、補正処理部62は、Mの値を1つインクリメントし、その後、ノイズ位置決定処理は、ステップS132に戻り、補正処理部62は、次のフィールドである第(M+1)フィールドに対してステップS132から順に処理を実行する。
ステップS146において、Mがフィールドの数と同じ場合は、判定が肯定されて、補正処理部62は、ノイズ位置決定処理を終了する。
以上のように、読み出し順序が隣り合う2つのフィールドの画像データの差分から、読み出し順序が後のフィールドにおける光ノイズを有する画素位置が定められる。
In the next step S142, the correction processing unit 62 determines whether or not all the difference data DifDataM [x, y] in the M field have been determined. If all the difference data DifDataM [x, y] in the M field are not determined in step S142, the determination is denied and the noise position determination process proceeds to step S144. When all the difference data DifDataM [x, y] in the M field are determined in step S142, the determination is affirmed and the noise position determination process proceeds to step S146.
In step S144, the correction processing unit 62 increments the x-coordinate or the y-coordinate by one, and then the noise position determination process returns to step S136. Since the procedure for incrementing the coordinates conforms to the method shown in FIG. 10, detailed description thereof will be omitted.
In step S146, the correction processing unit 62 determines whether or not M is the same as the number of fields. If M is different from the number of fields in step S146, the determination is denied and the noise position determination process proceeds to step S148.
In step S148, the correction processing unit 62 increments the value of M by one, then the noise position determination processing returns to step S132, and the correction processing unit 62 returns to the next field, the (M + 1) field. The processing is executed in order from step S132.
In step S146, if M is the same as the number of fields, the determination is affirmed, and the correction processing unit 62 ends the noise position determination process.
As described above, the pixel position having the optical noise in the field whose reading order is later is determined from the difference between the image data of the two fields whose reading orders are adjacent to each other.

ノイズ位置決定処理により、ノイズの座標位置が決定されたノイズマップNmapM[x、y]がフィールド毎に得られる。ステップS138の処理又はステップS140の処理が実行されることで、ノイズマップの座標に対して、“1”又は“0”の2値データが付与される。ここで、ノイズマップの座標に対して2値化する理由は、光ノイズの量が被写体の信号電荷に比べて小さいからである。そのため、隣り合うフィールドの差分を取った場合に、得られる光ノイズはバックグラウンドである被写体の信号電荷に紛れて誤差が大きくなる可能性がある。そこで、ノイズマップは光ノイズが発生したか否かの判定、即ち光ノイズ発生位置の判定に用いられる。 By the noise position determination process, a noise map NmapM [x, y] in which the coordinate position of the noise is determined is obtained for each field. By executing the process of step S138 or the process of step S140, binary data of "1" or "0" is added to the coordinates of the noise map. Here, the reason for binarizing the coordinates of the noise map is that the amount of optical noise is smaller than the signal charge of the subject. Therefore, when the difference between adjacent fields is taken, the obtained optical noise may be mixed with the signal charge of the subject in the background and the error may become large. Therefore, the noise map is used to determine whether or not optical noise has occurred, that is, to determine the position where optical noise is generated.

図12は、ノイズマップに対して付与された2値データが“1”の部分を白で、ノイズマップに対して付与された2値データが“0”の部分を黒で表したノイズマップ図の一例である。図12に示す例では、白抜きの部分が、光ノイズが発生した位置を示している。 FIG. 12 is a noise map diagram in which the portion where the binary data given to the noise map is “1” is shown in white and the portion where the binary data given to the noise map is “0” is shown in black. This is an example. In the example shown in FIG. 12, the white portion indicates the position where the optical noise is generated.

次に、補正処理部62は、フィールド画像補正処理を行う。フィールド画像補正処理とは、ノイズマップNmapM[x、y]を用いて各フィールドの画像データを補正する処理を指す。 Next, the correction processing unit 62 performs field image correction processing. The field image correction process refers to a process of correcting image data in each field using the noise map NmapM [x, y].

一例として図13に示すフィールド画像補正処理では、先ず、ステップS150で、補正処理部62は、第1フィールドの空読みデータNdata[x、y]を記憶部64に取り込む。 As an example, in the field image correction process shown in FIG. 13, first, in step S150, the correction processing unit 62 takes in the blank reading data Ndata [x, y] of the first field into the storage unit 64.

次のステップS152で、フィールド数レジスタMに初期値である2が記憶される。次のステップS154で、補正処理部62は、第Mフィールドの画像データImageM[x、y]を記憶部64に取り込む。次のステップS156で、補正処理部62は、第MフィールドのノイズマップNmapM[x、y]を記憶部64に取り込む。次のステップS158で、座標レジスタに座標データとしてx=1、y=1が記憶される。 In the next step S152, the initial value 2 is stored in the field number register M. In the next step S154, the correction processing unit 62 takes in the image data ImageM [x, y] of the Mth field into the storage unit 64. In the next step S156, the correction processing unit 62 takes in the noise map NmapM [x, y] of the Mth field into the storage unit 64. In the next step S158, x = 1 and y = 1 are stored as coordinate data in the coordinate register.

次のステップS160で、補正処理部62は、処理座標の画像データImageM[x、y]を空読みデータNdata[x、y]とノイズマップNmapM[x、y]とを用いて補正する。具体的には、処理座標毎に、画像データから空読みデータとノイズマップとの積を差し引く。つまり、補正後の画像データをCImageM[x、y]とすると、“CImageM[x、y]=ImageM[x、y]−Ndata[x、y]×NmapM[x、y]”と表される。 In the next step S160, the correction processing unit 62 corrects the image data ImageM [x, y] of the processing coordinates by using the blank reading data Ndata [x, y] and the noise map NmapM [x, y]. Specifically, the product of the blank reading data and the noise map is subtracted from the image data for each processing coordinate. That is, assuming that the corrected image data is CIMageM [x, y], it is expressed as "CimageM [x, y] = ImageM [x, y] -Ndata [x, y] x NmapM [x, y]". ..

ノイズマップNmapM[x、y]のデータは、光ノイズが発生した座標位置を示している。つまり、発生した位置のデータは“1”、発生しない位置のデータは“0”である。一方、空読みデータは、発生した光ノイズだけが読み出されるため、その数値の精度が高い。そこで、ノイズマップのデータと空読みデータとを組み合わせることにより、光ノイズの位置と発生量を精度良く決定することができる。 The data of the noise map NmapM [x, y] shows the coordinate positions where the optical noise is generated. That is, the data at the position where it occurs is "1", and the data at the position where it does not occur is "0". On the other hand, in the blank reading data, since only the generated optical noise is read out, the accuracy of the numerical value is high. Therefore, by combining the noise map data and the blank reading data, the position and the amount of optical noise generated can be accurately determined.

ステップS162で、補正処理部62は、すべての座標の画像データを補正したか否かを判定する。ステップS162において、すべての座標の画像データを補正していない場合は、判定が否定されて、フィールド画像補正処理は、ステップS164へ移行する。ステップS162において、すべての座標の画像データを補正した場合は、判定が肯定されて、フィールド画像補正処理は、ステップS166へ移行する。 In step S162, the correction processing unit 62 determines whether or not the image data of all the coordinates has been corrected. If the image data of all the coordinates is not corrected in step S162, the determination is denied and the field image correction process proceeds to step S164. When the image data of all the coordinates are corrected in step S162, the determination is affirmed, and the field image correction process proceeds to step S166.

ステップS164で、補正処理部62は、x座標又はy座標をインクリメントし、その後、フィールド画像補正処理は、ステップS160へ移行する。なお、座標をインクリメントする手順は、図10に示す方法に準ずるので詳細な説明は省略する。
ステップS166で、補正処理部62は、Mがフィールドの数と同じか否かを判定する。ステップS166において、Mがフィールドの数と異なる場合は、判定が否定されて、フィールド画像補正処理は、ステップS168へ移行する。
ステップS168で、補正処理部62は、Mを1つインクリメントし、次の(M+1)フィールドに対してステップS154から順次に処理を実行する。
ステップS166において、Mがフィールドの数と同じ場合は、判定が肯定されて、補正処理部62は、フィールド画像補正処理を終了する。
In step S164, the correction processing unit 62 increments the x-coordinate or the y-coordinate, and then the field image correction processing shifts to step S160. Since the procedure for incrementing the coordinates conforms to the method shown in FIG. 10, detailed description thereof will be omitted.
In step S166, the correction processing unit 62 determines whether or not M is the same as the number of fields. If M is different from the number of fields in step S166, the determination is denied and the field image correction process proceeds to step S168.
In step S168, the correction processing unit 62 increments M by one and sequentially executes processing for the next (M + 1) field from step S154.
In step S166, if M is the same as the number of fields, the determination is affirmed, and the correction processing unit 62 ends the field image correction processing.

以上の処理により、第2フィールドから第Mフィールドまでの補正画像データが得られる。補正処理部62は、最初に読み出した第1フィールドの画像データと、第2フィールドから第Mフィールドまでの補正画像データを合わせることにより、1つの補正画像を得ることができる。 By the above processing, corrected image data from the second field to the M field can be obtained. The correction processing unit 62 can obtain one corrected image by combining the image data of the first field read first and the corrected image data from the second field to the M field.

本実施形態においては、読み出す順序が隣り合う一対のフィールドは、各フィールドの光電変換素子51が行単位で隣り合っている。隣り合う光電変換素子51は距離が非常に近いため、同じ露光時間にこれらのメモリ部53に蓄積される被写体の画像データの差は非常に小さいと考えられる。したがって、これらの隣り合うメモリ部53に蓄積された画像データの差分が大きければ、それは光ノイズによるものである蓋然性が高いと考えられる。本実施形態では、この特徴を利用して読み出す順序、即ち配列位置が隣り合う一対のフィールドの差分を取り、光ノイズを除去する。 In the present embodiment, in the pair of fields in which the reading order is adjacent, the photoelectric conversion elements 51 of each field are adjacent in row units. Since the adjacent photoelectric conversion elements 51 are very close to each other, it is considered that the difference in the image data of the subject stored in these memory units 53 at the same exposure time is very small. Therefore, if the difference between the image data stored in these adjacent memory units 53 is large, it is highly probable that it is due to optical noise. In the present embodiment, this feature is used to take the difference between the reading order, that is, the pair of fields in which the arrangement positions are adjacent to each other, and remove the optical noise.

さらに、本実施形態では、最初に読み出しをした第1フィールドを、最後に空読みする。空読みによって、最初に読み出した後、第2フィールドと第3フィールドを読み出す間に第1フィールドに発生した光ノイズが読み出される。これは第1フィールドに実際に発生した光ノイズであり、これと同じ程度の光ノイズが第2フィールド、第3フィールドにも発生していると考えられる。 Further, in the present embodiment, the first field read first is read blank at the end. By blank reading, after the first reading, the optical noise generated in the first field while reading the second field and the third field is read. This is the optical noise actually generated in the first field, and it is considered that the same degree of optical noise is also generated in the second field and the third field.

空読みするフィールドは最初に読み出しした第1フィールドでなくともよいが、他のフィールドでは空読みするまでの時間が少なくなる。そのため、実際に測定した光ノイズの量を、最後のフィールドを読み出すまでの時間から比例換算することになる。そのため、光ノイズを最も長く実測できるように、メモリ部53から最初に前記領域画像データが読み出されたフィールドを最後に空読みすることが好ましい。 The field to be read blank does not have to be the first field read first, but the time until the field to be read blank is reduced in other fields. Therefore, the amount of light noise actually measured is proportionally converted from the time until the last field is read out. Therefore, in order to measure the optical noise for the longest time, it is preferable to read the field in which the area image data is first read from the memory unit 53 last.

以上の第1実施形態によれば、光ノイズが発生する位置と光ノイズの量とを別々に精度良く決定することができる。そして決定した光ノイズのデータを用いて撮影した画像を補正することにより、撮像素子又は撮像装置の機械的な構成を変更することなく、光ノイズを抑制した撮像画像を得ることができる。 According to the above first embodiment, the position where the optical noise is generated and the amount of the optical noise can be determined separately and accurately. Then, by correcting the captured image using the determined optical noise data, it is possible to obtain an captured image in which the optical noise is suppressed without changing the mechanical configuration of the image pickup device or the image pickup device.

以上の実施形態は、例えば静止画像の撮影に適用することができる。また、例えば連写モードにおいては、1枚の画像を撮影するたびに上記の処理を行うことも可能である。あるいは、最初の1枚の撮影時に本方法を適用して得られた補正情報を記憶しておき、以降の撮影ではその補正情報を用いて撮影した撮像画像を補正するようにすれば、高速でかつ光ノイズの少ない連写画像を得ることができる。 The above embodiment can be applied to, for example, taking a still image. Further, for example, in the continuous shooting mode, it is possible to perform the above processing every time one image is taken. Alternatively, if the correction information obtained by applying this method at the time of the first shooting is stored and the captured image taken is corrected using the correction information in the subsequent shooting, the speed is increased. Moreover, it is possible to obtain a continuous shooting image with less optical noise.

また、第1実施形態では、撮像素子20に一体化された補正処理部62が光ノイズ補正処理を行う。しかし必ずしも補正処理部62が光ノイズ補正処理を行う必要はない。例えば、CPU12が二次記憶部27に記憶された光ノイズ補正プログラムを読み出して、光ノイズ補正処理を行ってもよい。 Further, in the first embodiment, the correction processing unit 62 integrated with the image sensor 20 performs optical noise correction processing. However, the correction processing unit 62 does not necessarily have to perform the optical noise correction processing. For example, the CPU 12 may read the optical noise correction program stored in the secondary storage unit 27 and perform the optical noise correction processing.

(第2実施形態)
次に第2実施形態について一例として図14に示すフローチャートを参照して説明する。なお、撮像装置100又は撮像素子20の機械的な構成等、以下に説明しない事項は第1実施形態と同じである。また、第1実施形態と同じ処理の場合は、データ名称を同じ名称として説明を簡略化した部分がある。また、第1実施形態の変形例は、以下の実施形態においても適用可能である。
(Second Embodiment)
Next, the second embodiment will be described as an example with reference to the flowchart shown in FIG. Items not described below, such as the mechanical configuration of the image pickup device 100 or the image pickup device 20, are the same as those in the first embodiment. Further, in the case of the same processing as in the first embodiment, there is a part in which the explanation is simplified by using the same data name. Further, the modified example of the first embodiment can also be applied to the following embodiments.

本第2実施形態に係る撮像装置100では、各フィールドの画像データが同時化処理された後にノイズマップNmapM[x、y]の作成が行われる。ここで、同時化とは、撮像素子20がカラー撮影可能な場合、画素毎に色の異なる隣接する画素のデータを補間して、全色のデータを含むようにする処理を指す。具体的には、補正処理部62は、撮像素子20のカラーフィルタの配列に対応した色補間処理を行い、同時化したR,G,B信号を生成する。 In the image pickup apparatus 100 according to the second embodiment, the noise map NmapM [x, y] is created after the image data of each field is simultaneously processed. Here, the simultaneousization refers to a process of interpolating the data of adjacent pixels having different colors for each pixel to include the data of all colors when the image sensor 20 is capable of color photographing. Specifically, the correction processing unit 62 performs color interpolation processing corresponding to the arrangement of the color filters of the image sensor 20 to generate simultaneous R, G, and B signals.

一例として図14に示すノイズ位置決定処理では、先ず、ステップS200で、フィールド数レジスタMに初期値である2が記憶され、その後、ノイズ位置決定処理は、ステップS202へ移行する。 As an example, in the noise position determination process shown in FIG. 14, first, in step S200, the initial value 2 is stored in the field number register M, and then the noise position determination process shifts to step S202.

ステップS202で、補正処理部62は、記憶部64に記憶されている第Mフィールドと第(M−1)フィールドとの各々の画像データを取り込み、その後、ノイズ位置決定処理は、ステップS204へ移行する。 In step S202, the correction processing unit 62 takes in the image data of the M field and the (M-1) field stored in the storage unit 64, and then the noise position determination process shifts to step S204. To do.

ステップS204で、補正処理部62は、第Mフィールドの画像データと第(M−1)フィールドの画像データとの各々を同時化する。即ち、補正処理部62は各フィールドの画素毎にカラーフィルタの配列に対応した色補間処理を行い、同時化したR,G,B信号を生成する。 In step S204, the correction processing unit 62 simultaneously synchronizes the image data in the M field and the image data in the (M-1) field. That is, the correction processing unit 62 performs color interpolation processing corresponding to the arrangement of the color filters for each pixel of each field, and generates simultaneous R, G, and B signals.

次のステップS206で、補正処理部62は、同時化した第Mフィールドの画像データから同時化した第(M−1)フィールドの画像データを差し引いた差分データDifDataM[x、y]を取得する。差分データDifDataM[x、y]は、各フィールドの同じ[x、y]座標にあるデータを差し引きして求める。差分の求め方は、図10を用いて説明した通りなので、詳細な説明は省略する。補正処理部62により取得された差分は、記憶部64に記憶される。 In the next step S206, the correction processing unit 62 acquires the difference data DifDataM [x, y] obtained by subtracting the simultaneous image data of the (M-1) field from the simultaneous image data of the M field. The difference data DifDataM [x, y] is obtained by subtracting the data at the same [x, y] coordinates of each field. Since the method of obtaining the difference is as described with reference to FIG. 10, detailed description thereof will be omitted. The difference acquired by the correction processing unit 62 is stored in the storage unit 64.

次のステップS208で、補正処理部62は、取得した差分データDifDataM[x、y]を取り込み、その後、ノイズ位置決定処理は、ステップS210へ移行する。 In the next step S208, the correction processing unit 62 takes in the acquired difference data DifDataM [x, y], and then the noise position determination process shifts to step S210.

ステップS210で、座標レジスタに座標データとしてx=1、y=1が記憶され、その後、ノイズ位置決定処理は、ステップS212へ移行する。 In step S210, x = 1 and y = 1 are stored as coordinate data in the coordinate register, and then the noise position determination process shifts to step S212.

ステップS212で、補正処理部62は、座標[1、1]の差分が予め定めた閾値T2よりも大きいか否かを判定する。ここで、閾値T2とは、例えば、メモリ部53に蓄積された1画素分の信号電荷に光ノイズが重畳されて得られた1画素分の光ノイズデータのデータ量として、実機による試験及び/又はコンピュータ・シミュレーション等により予め得られた値を指す。 In step S212, the correction processing unit 62 determines whether or not the difference between the coordinates [1, 1] is larger than the predetermined threshold value T2. Here, the threshold value T2 is, for example, the amount of optical noise data for one pixel obtained by superimposing optical noise on the signal charge for one pixel stored in the memory unit 53, and is tested by an actual machine and / Or, it refers to a value obtained in advance by computer simulation or the like.

ステップS212において、座標[1、1]の差分が予め定めた閾値T2よりも大きい場合は、判定が肯定されて、ノイズ位置決定処理は、ステップS214へ移行する。ステップS214で、補正処理部62は、ノイズマップNmapM[1、1]に対して、光ノイズが存在することを示す値である“1”を付与し、その後、ノイズ位置決定処理は、ステップS218へ移行する。ステップS212において、座標[1、1]の差分が予め定めた閾値T2以下の場合は、判定が否定されて、ノイズ位置決定処理は、ステップS216へ移行する。ステップS216で、補正処理部62は、ノイズマップNmapM[1、1]に対して、光ノイズが存在しないことを示す値である“0”を付与し、その後、ノイズ位置決定処理は、ステップS218へ移行する。 In step S212, when the difference between the coordinates [1, 1] is larger than the predetermined threshold value T2, the determination is affirmed, and the noise position determination process shifts to step S214. In step S214, the correction processing unit 62 assigns “1”, which is a value indicating the existence of optical noise, to the noise map NmapM [1, 1], and then the noise position determination process is performed in step S218. Move to. In step S212, if the difference between the coordinates [1, 1] is equal to or less than the predetermined threshold value T2, the determination is denied and the noise position determination process proceeds to step S216. In step S216, the correction processing unit 62 assigns “0”, which is a value indicating that no optical noise exists, to the noise map NmapM [1, 1], and then the noise position determination process is performed in step S218. Move to.

ステップS218で、補正処理部62は、すべての座標について差分を判定したか否かを判定する。ステップS218において、すべての座標について差分を判定していない場合は、判定が否定されて、ノイズ位置決定処理は、ステップS220へ移行する。ステップS218において、すべての座標について差分を判定した場合は、判定が肯定されて、ノイズ位置決定処理は、ステップS222へ移行する。 In step S218, the correction processing unit 62 determines whether or not the difference has been determined for all the coordinates. If the difference is not determined for all the coordinates in step S218, the determination is denied and the noise position determination process proceeds to step S220. When the difference is determined for all the coordinates in step S218, the determination is affirmed, and the noise position determination process proceeds to step S222.

ステップS220で、補正処理部62は、x座標又はy座標をインクリメントして、ノイズ位置決定処理は、ステップS212に戻る。 In step S220, the correction processing unit 62 increments the x-coordinate or the y-coordinate, and the noise position determination process returns to step S212.

ステップS222で、補正処理部62は、Mがフィールドの数と同じか否かを判定する。ステップS222において、Mがフィールドの数と同じではない場合は、判定が否定され、ノイズ位置決定処理は、ステップS224へ移行する。 In step S222, the correction processing unit 62 determines whether or not M is the same as the number of fields. If M is not the same as the number of fields in step S222, the determination is denied and the noise position determination process proceeds to step S224.

ステップS224で、補正処理部62は、Mを1つインクリメントして、次の(M+1)フィールドに対してステップS202から順次に処理を実行する。 In step S224, the correction processing unit 62 increments M by one and sequentially executes processing for the next (M + 1) field from step S202.

ステップS222において、Mがフィールドの数と同じ場合は、判定が肯定されて、補正処理部62は、ノイズ位置決定処理を終了する。 In step S222, if M is the same as the number of fields, the determination is affirmed, and the correction processing unit 62 ends the noise position determination process.

一例として図8に示したように、各フィールドでは、R,G,Bの全色が揃っている。また、各フィールドは全画素から画素を周期的に間引きして得た画像になっているので、少しずつ被写体位置が異なり、さらには、同色の画素が重ならない。従って、上記の第2実施形態に係る撮像装置100によれば、各フィールドを同時化して、各色を補間して比較することにより、各フィールド間の比較がしやすくなり、誤差の少ないノイズマップNmapM[x、y]を作成することができる。 As shown in FIG. 8 as an example, all the colors of R, G, and B are available in each field. Further, since each field is an image obtained by periodically thinning out pixels from all pixels, the subject position is slightly different, and pixels of the same color do not overlap. Therefore, according to the image pickup apparatus 100 according to the second embodiment described above, by simultaneously synchronizing each field and interpolating and comparing each color, it becomes easier to compare between each field, and the noise map NmapM with less error. [X, y] can be created.

(第3実施形態)
次に第3実施形態について一例として図15に示すフローチャートを参照して説明する。なお、第1実施形態又は第2実施形態と同じ処理の場合は、データ名称を同じ名称として説明を簡略化した部分がある。
(Third Embodiment)
Next, the third embodiment will be described as an example with reference to the flowchart shown in FIG. In addition, in the case of the same processing as the first embodiment or the second embodiment, there is a part where the explanation is simplified by using the same data name.

本第3実施形態に係る撮像装置100では、各フィールドの画像データに対してローパスフィルタ処理が施された上で、ノイズマップNmapM[x、y]の作成が行われる。以下、詳細に説明する。 In the image pickup apparatus 100 according to the third embodiment, the noise map NmapM [x, y] is created after the image data in each field is subjected to low-pass filter processing. Hereinafter, a detailed description will be given.

一例として図15に示すノイズ位置決定処理では、先ず、ステップS300で、フィールド数レジスタMに初期値である2が記憶され、その後、ステップS302へ移行する。 As an example, in the noise position determination process shown in FIG. 15, first, in step S300, the initial value 2 is stored in the field number register M, and then the process proceeds to step S302.

ステップS302で、補正処理部62は、記憶部64に記憶されている第Mフィールドと第(M−1)フィールドとの各々の画像データを取り込み、その後、ノイズ位置決定処理は、ステップS304へ移行する。 In step S302, the correction processing unit 62 takes in the image data of the M field and the (M-1) field stored in the storage unit 64, and then the noise position determination process shifts to step S304. To do.

ステップS304で、補正処理部62は、第Mフィールドの画像データと第(M−1)フィールドの画像データとの各々をそれぞれローパスフィルタ処理する。つまり、補正処理部62は、画素データの高周波成分を除去する。 In step S304, the correction processing unit 62 performs low-pass filter processing on each of the image data in the M field and the image data in the (M-1) field. That is, the correction processing unit 62 removes the high frequency component of the pixel data.

次のステップS306で、補正処理部62は、ローパスフィルタ処理した第Mフィールドの画像データとローパスフィルタ処理した第(M−1)フィールドの画像データとの差分データDifDataM[x、y]を取得する。補正処理部62は、取得した差分を記憶部64に記憶する。 In the next step S306, the correction processing unit 62 acquires the difference data DifDataM [x, y] between the low-pass filtered image data of the M field and the low-pass filtered image data of the (M-1) field. .. The correction processing unit 62 stores the acquired difference in the storage unit 64.

図15に示すステップS308以降の処理は、図14に示すノイズ位置決定処理のステップS208以降の処理に比べ、ステップS212の処理に代えてステップS312の処理を有する点が異なる。ステップS312の処理は、ステップS212の処理に比べ、閾値T2に代えて閾値T3が採用されている点が異なる。ここで、閾値T3とは、例えば、メモリ部53に蓄積された1画素分の信号電荷に光ノイズが重畳されて得られた1画素分の光ノイズデータのデータ量として、実機による試験及び/又はコンピュータ・シミュレーション等により予め得られた値を指す。 The processing after step S308 shown in FIG. 15 is different from the processing after step S208 of the noise position determining processing shown in FIG. 14 in that the processing of step S312 is performed instead of the processing of step S212. The process of step S312 is different from the process of step S212 in that the threshold value T3 is adopted instead of the threshold value T2. Here, the threshold value T3 is, for example, the amount of optical noise data for one pixel obtained by superimposing optical noise on the signal charge for one pixel stored in the memory unit 53, and is tested by an actual machine and / Or, it refers to a value obtained in advance by computer simulation or the like.

以下、図15に示すステップS308以降の処理は、一例として図14に示すノイズ位置決定処理のステップS208以降の処理とほぼ同様であるので、簡単に説明する。 Hereinafter, the processing after step S308 shown in FIG. 15 is substantially the same as the processing after step S208 of the noise position determination processing shown in FIG. 14 as an example, and thus will be briefly described.

補正処理部62は、記憶した差分を取り込み、差分を予め定めた閾値T3と比較する。補正処理部62は、差分が閾値T3より大きい場合は、ノイズマップNmapM[1、1]に対して、“1”を付与し、閾値T3以下である場合はノイズマップNmapM[1、1]に対して、“0”を付与することで、ノイズマップを生成する。 The correction processing unit 62 takes in the stored difference and compares the difference with a predetermined threshold value T3. The correction processing unit 62 assigns “1” to the noise map NmapM [1, 1] when the difference is larger than the threshold value T3, and assigns “1” to the noise map NmapM [1, 1] when the difference is equal to or less than the threshold value T3. On the other hand, by adding "0", a noise map is generated.

第3実施形態によれば、各フィールドは画素を周期的に間引きして得られた画像なので、細長い被写体、又はコントラストが強い被写体などの高周波の被写体は、隣り合うフィールドの同じ座標位置に片方のフィールドだけ写っていない場合がある。その場合、差分を取るとその座標で光ノイズが発生したと誤って判定されることがある。このような場合でも、ローパスフィルタなどで高周波数帯域を絞る処理を掛けることで境界が緩やかになり、検出誤差を少なくすることができ、誤差の少ないノイズマップNmapM[x、y]を作成することができる。 According to the third embodiment, since each field is an image obtained by periodically thinning out pixels, a high-frequency subject such as an elongated subject or a subject having high contrast is placed on one side at the same coordinate position in adjacent fields. Sometimes only the field is not shown. In that case, if the difference is taken, it may be erroneously determined that optical noise has occurred at the coordinates. Even in such a case, the boundary can be loosened by applying a process of narrowing down the high frequency band with a low-pass filter or the like, the detection error can be reduced, and a noise map NmapM [x, y] with less error can be created. Can be done.

(第4実施形態)
次に本第4実施形態について一例として図16に示すフローチャートを参照して説明する。本第4実施形態に係る撮像装置100では、上記第3実施形態と同様にフィルタ処理が実行されることでノイズ位置が決定されるが、第3実施形態と異なり、各フィールドの画像データの差分が算出されてからフィルタ処理が実行される。なお、以下の説明において、第3実施形態と同じ処理の場合、データ名称を同じ名称として説明を簡略化した部分がある。
(Fourth Embodiment)
Next, the fourth embodiment will be described as an example with reference to the flowchart shown in FIG. In the image pickup apparatus 100 according to the fourth embodiment, the noise position is determined by executing the filter processing in the same manner as in the third embodiment, but unlike the third embodiment, the difference in the image data of each field. Is calculated before the filtering process is executed. In the following description, in the case of the same processing as in the third embodiment, there is a part in which the description is simplified by using the same data name.

一例として図16に示すノイズ位置決定処理では、先ず、ステップS340で、フィールド数レジスタMに初期値である2が記憶され、その後、ノイズ位置決定処理は、ステップS342へ移行する。 As an example, in the noise position determination process shown in FIG. 16, first, in step S340, the initial value 2 is stored in the field number register M, and then the noise position determination process shifts to step S342.

ステップS342で、補正処理部62は、記憶部64に記憶されている第Mフィールドの画像データと第(M−1)フィールドの画像データとを取り込み、その後、ノイズ位置決定処理は、ステップS344へ移行する。 In step S342, the correction processing unit 62 takes in the image data of the M field and the image data of the (M-1) field stored in the storage unit 64, and then the noise position determination process proceeds to step S344. Transition.

ステップS344で、補正処理部62は、第Mフィールドの画像データと第(M−1)フィールドの画像データとの差分データDifDataM[x、y]を取得し、その後、ノイズ位置決定処理は、ステップS346へ移行する。 In step S344, the correction processing unit 62 acquires the difference data DifDataM [x, y] between the image data in the M field and the image data in the (M-1) field, and then the noise position determination process is performed in step S. Move to S346.

ステップS346で、補正処理部62は、取得した差分に対してローパスフィルタ処理を施す。 In step S346, the correction processing unit 62 performs low-pass filter processing on the acquired difference.

図16に示すステップS348以降の処理は、図15に示すノイズ位置決定処理のステップS308以降の処理に比べ、ステップS312の処理に代えてステップS352の処理を有する点が異なる。ステップS352の処理は、ステップS312の処理に比べ、閾値T3に代えて閾値T4が採用されている点が異なる。ここで、閾値T4とは、例えば、メモリ部53に蓄積された1画素分の信号電荷に光ノイズが重畳されて得られた1画素分の光ノイズデータのデータ量として、実機による試験及び/又はコンピュータ・シミュレーション等により予め得られた値を指す。 The processing after step S348 shown in FIG. 16 is different from the processing after step S308 of the noise position determining processing shown in FIG. 15 in that the processing of step S352 is performed instead of the processing of step S312. The process of step S352 is different from the process of step S312 in that the threshold value T4 is adopted instead of the threshold value T3. Here, the threshold value T4 is, for example, the amount of optical noise data for one pixel obtained by superimposing optical noise on the signal charge for one pixel stored in the memory unit 53, and is tested by an actual machine and / Or, it refers to a value obtained in advance by computer simulation or the like.

以下、図16に示すステップS348以降の処理は、一例として図15に示すノイズ位置決定処理のステップS308以降の処理とほぼ同様であるので、簡単に説明する。 Hereinafter, the processing after step S348 shown in FIG. 16 is substantially the same as the processing after step S308 of the noise position determination processing shown in FIG. 15 as an example, and thus will be briefly described.

補正処理部62は、ローパスフィルタ処理した差分を取り込み、閾値T4と比較する。補正処理部62は、差分が閾値T4より大きい場合は、ノイズマップNmapM[1、1]に対して、“1”を付与し、閾値T4以下である場合はノイズマップNmapM[1、1]に対して、“0”を付与することで、ノイズマップを生成する。 The correction processing unit 62 takes in the difference processed by the low-pass filter and compares it with the threshold value T4. The correction processing unit 62 assigns “1” to the noise map NmapM [1, 1] when the difference is larger than the threshold value T4, and assigns “1” to the noise map NmapM [1, 1] when the difference is equal to or less than the threshold value T4. On the other hand, by adding "0", a noise map is generated.

第4実施形態の効果は、第3実施形態の効果と同様である。各フィールドは画素を周期的に間引きして得られた画像なので、細長い被写体、又はコントラストが強い被写体などの高周波の被写体は、隣り合うフィールドの同じ座標位置に片方のフィールドだけ写っていない場合がある。その場合、差分を取ると大きな数値が得られることがある。このような場合でも、差分に対してローパスフィルタなどで高周波数帯域を絞る処理を掛けることで数値が小さくなり、検出誤差を少なくすることができ、誤差の少ないノイズマップNmapM[x、y]を作成することができる。 The effect of the fourth embodiment is the same as the effect of the third embodiment. Since each field is an image obtained by periodically thinning out pixels, a high-frequency subject such as an elongated subject or a subject with strong contrast may not appear in one field at the same coordinate position of adjacent fields. .. In that case, a large numerical value may be obtained by taking the difference. Even in such a case, the numerical value can be reduced by applying a process of narrowing the high frequency band to the difference with a low-pass filter or the like, the detection error can be reduced, and the noise map NmapM [x, y] with less error can be obtained. Can be created.

(第5実施形態)
次に第5実施形態について一例として図17に示すフローチャートを参照して説明する。本第5実施形態に係る撮像装置100では、光ノイズ特性情報を用いて画像データの光ノイズ補正が行われる。光ノイズ特性情報は、空読みされた第1フィールドの光ノイズ量から各フィールドに発生する光ノイズ量を計算する情報であり、記憶部64又は一次記憶部26に予め記憶されている。
(Fifth Embodiment)
Next, the fifth embodiment will be described as an example with reference to the flowchart shown in FIG. In the image pickup apparatus 100 according to the fifth embodiment, optical noise correction of image data is performed using optical noise characteristic information. The optical noise characteristic information is information for calculating the amount of optical noise generated in each field from the amount of optical noise in the first field that has been read blank, and is stored in advance in the storage unit 64 or the primary storage unit 26.

光ノイズ特性情報は、撮像素子20毎に定められている。光ノイズ特性情報は、予めフィールド区分けされたメモリ部53のうちのどのフィールドにどの程度の光ノイズが発生するかという特性値として、製造時又は出荷前に取得され、記憶部64又は一次記憶部26に記憶される。本第5実施形態に係る撮像装置100では、光ノイズ特性情報が、例えば、計算式あるいは換算係数といった形式で記憶されているが、本開示の技術はこれに限定されず、テーブルで記憶されていてもよい。 The optical noise characteristic information is defined for each image sensor 20. The optical noise characteristic information is acquired at the time of manufacture or before shipment as a characteristic value of how much optical noise is generated in which field of the memory unit 53 divided into fields in advance, and is stored in the storage unit 64 or the primary storage unit. It is stored in 26. In the image pickup apparatus 100 according to the fifth embodiment, the optical noise characteristic information is stored in a format such as a calculation formula or a conversion coefficient, but the technique of the present disclosure is not limited to this and is stored in a table. You may.

光ノイズ特性情報は、各フィールドにおいて、画素毎に規定されていてもよい。あるいは、光ノイズ特性情報はある範囲の複数の画素に対応させたデータであってもよい。また、色感度を有する撮像素子の場合は、色によって光ノイズの発生量及び発生頻度が異なるため、各色の素子毎に光ノイズ特性情報を規定しておくことが好ましい。光ノイズ特性情報は、画素毎に、範囲毎に、又は領域毎に異なっていてもよい。以下では、第Mフィールドの光ノイズ特性情報は画素毎に規定されているとして、CdataM[x,y]で表す。 The optical noise characteristic information may be specified for each pixel in each field. Alternatively, the optical noise characteristic information may be data corresponding to a plurality of pixels in a certain range. Further, in the case of an image sensor having color sensitivity, since the amount and frequency of light noise generated differ depending on the color, it is preferable to specify the light noise characteristic information for each element of each color. The optical noise characteristic information may be different for each pixel, each range, or each region. In the following, it is assumed that the optical noise characteristic information of the M field is defined for each pixel, and is represented by CdataM [x, y].

一例として図17に示す光ノイズ補正処理では、先ず、ステップS400で、補正処理部62は、記憶部64に記憶されている第1フィールドの空読みデータNdata[x,y]を取り込み、その後、光ノイズ補正処理は、ステップS402へ移行する。 As an example, in the optical noise correction processing shown in FIG. 17, first, in step S400, the correction processing unit 62 takes in the blank reading data Ndata [x, y] of the first field stored in the storage unit 64, and then takes in the blank reading data Ndata [x, y]. The optical noise correction process proceeds to step S402.

ステップS402で、フィールド数レジスタMに初期値である2が記憶され、その後、光ノイズ補正処理は、ステップS404へ移行する。 In step S402, the initial value 2 is stored in the field number register M, and then the optical noise correction process shifts to step S404.

ステップS404で、補正処理部62は、第Mフィールドの画像データImageM[x,y]を取り込み、その後、光ノイズ補正処理は、ステップS406へ移行する。 In step S404, the correction processing unit 62 takes in the image data ImageM [x, y] of the Mth field, and then the optical noise correction processing shifts to step S406.

ステップS406で、補正処理部62は、第MフィールドのノイズマップNmapM[x,y]を取り込み、その後、光ノイズ補正処理は、ステップS408へ移行する。 In step S406, the correction processing unit 62 takes in the noise map NmapM [x, y] of the Mth field, and then the optical noise correction processing shifts to step S408.

ステップS408で、補正処理部62は、第Mフィールドの光ノイズ特性情報CdataM[x,y]を取得する。なお、本ステップS408において、補正処理部62は、本開示の技術に係る「取得部」の一例である。 In step S408, the correction processing unit 62 acquires the optical noise characteristic information CdataM [x, y] in the Mth field. In this step S408, the correction processing unit 62 is an example of the “acquisition unit” according to the technique of the present disclosure.

次のステップS410で、座標レジスタに座標データとしてx=1、y=1が記憶され、その後、光ノイズ補正処理は、ステップS412へ移行する。 In the next step S410, x = 1 and y = 1 are stored as coordinate data in the coordinate register, and then the optical noise correction process proceeds to step S412.

ステップS412で、補正処理部62は、座標[1,1]の空読みデータと光ノイズ特性情報から光ノイズ量を計算する。つまり、補正処理部62は、Ndata[1,1]をCdataM[1,1]に規定された換算係数あるいは計算式を用いて計算する。ここで、CalNdataM[1,1]とは、計算された光ノイズ量を指す。 In step S412, the correction processing unit 62 calculates the amount of optical noise from the blank reading data of the coordinates [1,1] and the optical noise characteristic information. That is, the correction processing unit 62 calculates Ndata [1,1] using the conversion coefficient or calculation formula defined in CdataM [1,1]. Here, CalNdataM [1,1] refers to the calculated amount of optical noise.

次のステップS414で、補正処理部62は、座標[1,1]の画像データImageM[1,1]を、ノイズマップと、計算された光ノイズ量とを用いて補正する。ImageM[1,1]に対する補正は、2値化されたノイズマップのデータNmapM[1,1]と光ノイズ量CalNdataM[1,1]とを掛け合わせ、画像データImageM[1,1]から差し引かれることで実現される。 In the next step S414, the correction processing unit 62 corrects the image data ImageM [1,1] at the coordinates [1,1] by using the noise map and the calculated light noise amount. The correction for ImageM [1,1] is subtracted from the image data ImageM [1,1] by multiplying the binarized noise map data NmapM [1,1] and the optical noise amount CalNdataM [1,1]. It is realized by being.

次のステップS416で、補正処理部62は、すべての座標の画像データを処理したか否かを判定する。ステップS416において、すべての座標の画像データを処理していない場合は、判定が否定されて、光ノイズ補正処理はステップS418へ移行する。ステップS416において、すべての座標の画像データを処理している場合は、判定が肯定されて、光ノイズ補正処理はステップS420へ移行する。 In the next step S416, the correction processing unit 62 determines whether or not the image data of all the coordinates has been processed. If the image data of all the coordinates is not processed in step S416, the determination is denied and the optical noise correction process proceeds to step S418. When the image data of all the coordinates is processed in step S416, the determination is affirmed, and the optical noise correction process shifts to step S420.

ステップS418で、補正処理部62は、x座標又はy座標をインクリメントし、光ノイズ補正処理はステップS412に戻り、ステップS412以降の処理を順次に行う。 In step S418, the correction processing unit 62 increments the x-coordinate or the y-coordinate, the optical noise correction processing returns to step S412, and the processing after step S412 is sequentially performed.

ステップS420で、補正処理部62は、Mがフィールドの数と同じであるか否かを判定する。ステップS420において、Mがフィールドの数と同じでない場合は、判定が否定されて、光ノイズ補正処理は、ステップS422へ移行する。 In step S420, the correction processing unit 62 determines whether or not M is the same as the number of fields. If M is not the same as the number of fields in step S420, the determination is denied and the optical noise correction process proceeds to step S422.

ステップS422で、補正処理部62は、Mを1つインクリメントして光ノイズ補正処理はステップS404に戻る。補正処理部62は、次のフィールドの処理をステップS404から順次に行う。 In step S422, the correction processing unit 62 increments M by one, and the optical noise correction processing returns to step S404. The correction processing unit 62 sequentially performs the processing of the next field from step S404.

ステップS420において、Mがフィールドの数と同じである場合は、判定が肯定されて、補正処理部62は、光ノイズ補正処理を終了する。 In step S420, if M is the same as the number of fields, the determination is affirmed, and the correction processing unit 62 ends the optical noise correction processing.

以上の第5実施形態によれば、各フィールドで補正しなければならない光ノイズ量を、予め記憶していた光ノイズ特性情報を用いてより精度良く算出することができる。特に、色感度を有する撮像素子の場合は、色毎に光ノイズ特性情報を備えておくことで、光ノイズ量をより精度良く算出することができる。 According to the above fifth embodiment, the amount of optical noise that must be corrected in each field can be calculated more accurately by using the optical noise characteristic information stored in advance. In particular, in the case of an image sensor having color sensitivity, the amount of optical noise can be calculated more accurately by providing optical noise characteristic information for each color.

(第6実施形態)
次に第6実施形態について説明する。本第6実施形態に係る撮像装置100は、上記第5実施形態に係る撮像装置100に比べ、光ノイズ特性情報に代えて、光ノイズの発生量の比を光ノイズ特性情報として採用している点が異なる。この実施形態では、光ノイズ特性情報は、複数の領域のうちの補正処理部62により再度読み出される領域の光ノイズとして予め定められた値と、複数の領域のうちの領域と異なる領域の光ノイズとして予め定められた値との比に基づく値である。
(Sixth Embodiment)
Next, the sixth embodiment will be described. The image pickup apparatus 100 according to the sixth embodiment employs the ratio of the amount of light noise generated as the optical noise characteristic information instead of the optical noise characteristic information as compared with the image pickup apparatus 100 according to the fifth embodiment. The point is different. In this embodiment, the optical noise characteristic information includes a predetermined value as the optical noise of the region read out again by the correction processing unit 62 of the plurality of regions and the optical noise of the region different from the region of the plurality of regions. It is a value based on the ratio with the value predetermined as.

第6実施形態に係る撮像装置100では、第5実施形態で説明した光ノイズ特性情報CdataM[x,y]に代えて、予め測定した光ノイズ量PreNdataM[x,y]と、第1フィールドの空読みデータNdata[x,y]との比を用いる。即ち、“CdataM[x,y]=PreNdataM[x,y]/Ndata[x,y]”である。さらに、光ノイズ特性情報CdataM[x,y]は、色毎に設定しておくことが好ましい。 In the image pickup apparatus 100 according to the sixth embodiment, instead of the optical noise characteristic information CdataM [x, y] described in the fifth embodiment, the light noise amount PreNdataM [x, y] measured in advance and the first field The ratio with the blank reading data Ndata [x, y] is used. That is, "CdataM [x, y] = PreNdataM [x, y] / Ndata [x, y]". Further, the optical noise characteristic information CdataM [x, y] is preferably set for each color.

本第6実施形態に係る撮像装置100によれば、各フィールドで補正しなければならない光ノイズ量を、予め記憶していた光ノイズ特性情報を用いてより精度良く、かつ迅速に算出することができる。特に、本第6実施形態に係る撮像装置100によれば、色感度を有する撮像素子の場合、色毎に光ノイズ特性情報を備えておくことで、光ノイズ量をより精度良く、かつ迅速に算出することができる。 According to the image pickup apparatus 100 according to the sixth embodiment, the amount of optical noise that must be corrected in each field can be calculated more accurately and quickly by using the optical noise characteristic information stored in advance. it can. In particular, according to the image pickup device 100 according to the sixth embodiment, in the case of an image pickup device having color sensitivity, by providing light noise characteristic information for each color, the amount of light noise can be increased more accurately and quickly. Can be calculated.

(第7実施形態)
次に第7実施形態について一例として図18に示すフローチャートを参照して説明する。本第7実施形態に係る撮像装置100では、上記各実施形態で説明した撮像装置100に比べ、簡易な方法で光ノイズを補正する方法が採用されている。具体的には、メモリ部53に格納された撮像画像データが、補正処理部62により各々毎に読み出された領域画像データに応じて定まる光ノイズに従って複数の領域の各々毎に補正されて、補正画像データを得る方法である。
(7th Embodiment)
Next, the seventh embodiment will be described as an example with reference to the flowchart shown in FIG. In the image pickup apparatus 100 according to the seventh embodiment, a method of correcting optical noise by a simpler method is adopted as compared with the imaging apparatus 100 described in each of the above embodiments. Specifically, the captured image data stored in the memory unit 53 is corrected for each of the plurality of regions according to the optical noise determined according to the region image data read out for each region by the correction processing unit 62. This is a method of obtaining corrected image data.

一例として図18に示す差分取得処理では、先ず、ステップS500で、フィールド数レジスタMに初期値である“2”が記憶され、その後、差分取得処理は、ステップS502へ移行する。 As an example, in the difference acquisition process shown in FIG. 18, first, in step S500, the initial value “2” is stored in the field number register M, and then the difference acquisition process shifts to step S502.

ステップS502で、補正処理部62は、第Mフィールドの画像データImageM[x,y]と第(M−1)フィールドの画像データImage(M−1)[x,y]とを取り込み、その後、差分取得処理は、ステップS504へ移行する。 In step S502, the correction processing unit 62 takes in the image data Image M [x, y] of the Mth field and the image data Image (M-1) [x, y] of the (M-1) field, and then The difference acquisition process proceeds to step S504.

ステップS504で、補正処理部62は、第Mフィールドの画像データと第(M−1)フィールドの画像データとの差分データDifDataM[x、y]を取得する。
即ち、DifDataM[x、y]は、“DifDataM[x、y]=ImageM[x,y]−Image(M−1)[x,y]”で表される。
In step S504, the correction processing unit 62 acquires the difference data DifDataM [x, y] between the image data in the M field and the image data in the (M-1) field.
That is, DifDataM [x, y] is represented by "DifDataM [x, y] = ImageM [x, y] -Image (M-1) [x, y]".

差分データDifDataM[x、y]は、第(M−1)フィールドの画像データが読み出されてから第Mフィールドの画像データが読み出されるまでの間に第Mフィールドに発生した光ノイズに相当する。 The difference data DifDataM [x, y] corresponds to the optical noise generated in the M field between the time when the image data in the (M-1) field is read and the time when the image data in the M field is read. ..

次のステップS506で、補正処理部62は、第Mフィールドの画像データから、ステップS504で取得した差分データDifDataM[x、y]を差し引く。これにより、光ノイズを除いた第Mフィールドの画像データが得られる。 In the next step S506, the correction processing unit 62 subtracts the difference data DifDataM [x, y] acquired in step S504 from the image data in the M field. As a result, the image data of the Mth field excluding the optical noise can be obtained.

次のステップS508で、補正処理部62は、Mがフィールドの数と同じか否かを判定する。ステップS508において、Mがフィールドの数と同じでない場合は、判定が否定されて差分取得処理はステップS510へ移行する。 In the next step S508, the correction processing unit 62 determines whether or not M is the same as the number of fields. If M is not the same as the number of fields in step S508, the determination is denied and the difference acquisition process proceeds to step S510.

ステップS510で、補正処理部62は、Mを1つインクリメントして、差分取得処理はステップS502に戻る。補正処理部62は、次のフィールドの処理をステップS502から順次に行う。 In step S510, the correction processing unit 62 increments M by one, and the difference acquisition process returns to step S502. The correction processing unit 62 sequentially performs the processing of the next field from step S502.

ステップS508において、Mがフィールドの数と同じ場合は、判定が肯定されて、補正処理部62は差分取得処理を終了する。 In step S508, if M is the same as the number of fields, the determination is affirmed, and the correction processing unit 62 ends the difference acquisition process.

まとめると、補正画像データは、読み出し順序が隣り合う一対の領域画像データの比較結果に基づいて、読み出し順序が後の領域画像データ内から、差分を有する画素位置を定め、定められた画素位置及び差分に従って領域毎に補正して得られる。 In summary, the corrected image data determines the pixel position having a difference from the area image data whose read order is later, based on the comparison result of the pair of area image data whose reading order is adjacent to each other, and determines the pixel position and the determined pixel position and It is obtained by correcting each area according to the difference.

本第7実施形態に係る撮像装置100によれば、第1フィールドの空読みが行われずに、読み出し順が隣接するフィールド間の差分が取得されるので、第1フィールドの空読みが行われる場合に比べ、各フィールドの光ノイズの補正を迅速に行うことができる。 According to the image pickup apparatus 100 according to the seventh embodiment, the first field is not read blank, and the difference between the adjacent fields in the reading order is acquired. Therefore, when the first field is read blank. Compared with, the optical noise of each field can be corrected more quickly.

(第8実施形態)
次に第8実施形態について一例として図19に示すフローチャートを参照して説明する。本第8実施形態では、撮像装置100が、上記第1〜第7実施形態で説明した光ノイズの補正の要否を選択する方式を採用している。
(8th Embodiment)
Next, the eighth embodiment will be described as an example with reference to the flowchart shown in FIG. In the eighth embodiment, the image pickup apparatus 100 employs a method of selecting whether or not correction of optical noise described in the first to seventh embodiments is necessary.

図19には、画像処理回路61によって実行されるノイズ補正要否処理の流れの一例が示されている。一例として図19に示すように、先ず、ステップS600で、画像処理回路61は、ユーザによってマニュアルモードで設定された撮像条件、又はオート撮影モードでCPU12が設定した撮像条件のうち、撮像時間である露光時間が予め定めた時間閾値より短いか否かを判定する。また、画像処理回路61は、メモリ部53に格納されたライブビュー画像データにおいて、被写体に予め定めた閾値を超える輝度を有する画像領域があるか否かを判定する。画像処理回路61は、これらの2つの条件のうち、少なくとも何れか1つの条件を満たすか否かを判定する。 FIG. 19 shows an example of the flow of noise correction necessity processing executed by the image processing circuit 61. As an example, as shown in FIG. 19, first, in step S600, the image processing circuit 61 is the imaging time of the imaging conditions set by the user in the manual mode or the imaging conditions set by the CPU 12 in the auto imaging mode. It is determined whether or not the exposure time is shorter than the predetermined time threshold value. Further, the image processing circuit 61 determines whether or not the subject has an image area having a brightness exceeding a predetermined threshold value in the live view image data stored in the memory unit 53. The image processing circuit 61 determines whether or not at least one of these two conditions is satisfied.

ステップS600において、2つの条件のうち、少なくとも何れか1つの条件を満たす場合は、判定が肯定されて、ノイズ補正要否処理は、ステップS602に移行する。ステップS600において、2つの条件のうち、何れの条件も満たさない場合は、判定が否定されて、ノイズ補正要否処理は、ステップS604に移行する。 If at least one of the two conditions is satisfied in step S600, the determination is affirmed, and the noise correction necessity processing proceeds to step S602. If neither of the two conditions is satisfied in step S600, the determination is denied, and the noise correction necessity processing proceeds to step S604.

ステップS602で、補正処理部62は、光ノイズ補正モードを実行し、補正画像を得る。光ノイズ補正モードとは、光電変換素子51により撮影されて得られた撮像画像データに対して、上記各実施形態で説明した光ノイズを除去する補正を行う動作モードを指す。 In step S602, the correction processing unit 62 executes the optical noise correction mode and obtains a corrected image. The optical noise correction mode refers to an operation mode in which the captured image data captured by the photoelectric conversion element 51 is corrected to remove the optical noise described in each of the above embodiments.

ステップS604で、画像処理回路61は、光電変換素子51により撮影されて得られた撮像画像データに対して、上記各実施形態で説明した光ノイズを除去する補正を行わない通常の読み出し処理を実行する。 In step S604, the image processing circuit 61 executes a normal readout process of the captured image data captured by the photoelectric conversion element 51 without correction for removing the optical noise described in each of the above embodiments. To do.

なお、本第8実施形態では、ステップS600の処理が画像処理回路61によって実行される場合を例示したが、本開示の技術はこれに限定されない。例えば、ステップS600の処理はCPU12によって実行され、CPU12による実行結果が画像処理回路61に伝えられるようにしてもよい。 In the eighth embodiment, the case where the processing of step S600 is executed by the image processing circuit 61 is illustrated, but the technique of the present disclosure is not limited to this. For example, the process of step S600 may be executed by the CPU 12, and the execution result by the CPU 12 may be transmitted to the image processing circuit 61.

露光時間が短いと、相対的に撮像画像データの読み出し時間が長くなる。そのため、露光時間に得られる被写体からの光学像データに比べて、読み出し時間中に発生する光ノイズの量が相対的に増加する。つまり、光ノイズの影響が大きくなる。そのため、撮像時間が予め定めた閾値より短い場合は、光ノイズ補正をするメリットが大きくなる。また、被写体が撮像装置100によって撮像されると、被写体の輝度が大きくなるに従って光ノイズの発生量も大きくなる。そのため、被写体に予め定めた閾値を超える輝度領域がある場合は、光ノイズ補正をするメリットが大きくなる。 When the exposure time is short, the reading time of the captured image data becomes relatively long. Therefore, the amount of optical noise generated during the readout time is relatively increased as compared with the optical image data from the subject obtained during the exposure time. That is, the influence of optical noise becomes large. Therefore, when the imaging time is shorter than a predetermined threshold value, the merit of performing optical noise correction becomes large. Further, when the subject is imaged by the image pickup apparatus 100, the amount of light noise generated increases as the brightness of the subject increases. Therefore, when the subject has a luminance region exceeding a predetermined threshold value, the merit of performing optical noise correction becomes large.

本第8実施形態に係る撮像装置100によれば、撮像時間が閾値未満であるか、又は被写体に閾値を超える輝度を有する画像領域がある場合に、光ノイズ補正モードで撮影し、それ以外の場合は光ノイズ補正をしない通常モードで撮影をする。そのため、本第8実施形態に係る撮像装置100によれば、光ノイズ補正モード下で撮像画像データに対して光ノイズを除去する補正の頻度を必要最小限に留めることができる。 According to the image pickup apparatus 100 according to the eighth embodiment, when the image pickup time is less than the threshold value or the subject has an image region having brightness exceeding the threshold value, the image is taken in the optical noise correction mode, and other than that. In that case, shoot in the normal mode without optical noise correction. Therefore, according to the image pickup apparatus 100 according to the eighth embodiment, the frequency of correction for removing light noise from the captured image data under the light noise correction mode can be kept to the minimum necessary.

また、一例として図20に示すように、ステップS610で、画像処理回路61は、撮像時間が閾値未満であり、かつ被写体に閾値を超える輝度領域があるか否かを判定してもよい。ステップS610において、露光時間が閾値未満であり、かつ被写体に閾値を超える輝度領域がある場合は、判定が肯定されて、ノイズ補正要否処理は、ステップS612へ移行する。 Further, as shown in FIG. 20 as an example, in step S610, the image processing circuit 61 may determine whether or not the imaging time is less than the threshold value and the subject has a luminance region exceeding the threshold value. In step S610, when the exposure time is less than the threshold value and the subject has a luminance region exceeding the threshold value, the determination is affirmed, and the noise correction necessity processing shifts to step S612.

なお、ここでは、ステップS610の処理が画像処理回路61によって実行される場合を例示したが、本開示の技術はこれに限定されない。例えば、ステップS610の処理はCPU12によって実行され、CPU12による実行結果が画像処理回路61に伝えられるようにしてもよい。 Although the case where the process of step S610 is executed by the image processing circuit 61 is illustrated here, the technique of the present disclosure is not limited to this. For example, the process of step S610 may be executed by the CPU 12, and the execution result by the CPU 12 may be transmitted to the image processing circuit 61.

ステップS612で、補正処理部62は、図19に示すステップS602の処理に相当する処理を実行する。ステップS614で、画像処理回路61は、図19に示すステップS604の処理に相当する処理を実行する。従って、図20に示すノイズ補正要否処理が実行された場合であっても、図19に示すノイズ補正要否処理が実行された場合と同様の効果が得られる。 In step S612, the correction processing unit 62 executes a process corresponding to the process of step S602 shown in FIG. In step S614, the image processing circuit 61 executes a process corresponding to the process of step S604 shown in FIG. Therefore, even when the noise correction necessity processing shown in FIG. 20 is executed, the same effect as when the noise correction necessity processing shown in FIG. 19 is executed can be obtained.

以上の各実施形態で説明した光ノイズ補正処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。 The optical noise correction processing described in each of the above embodiments is merely an example. Therefore, it goes without saying that unnecessary steps may be deleted, new steps may be added, or the processing order may be changed within a range that does not deviate from the purpose.

以上の説明では、本開示の技術に係る各種処理が画像処理回路61によって実行される形態例を示したが、本開示の技術はこれに限定されず、本開示の技術に係る各種プログラムがCPU12によって実行されることによって実現されるようにしてもよい。さらに、本開示の技術はこれに限定されず、CPU12以外のCPUによって本開示の技術に係る各種プログラムが実行されるようにしてもよい。 In the above description, an example in which various processes related to the technique of the present disclosure are executed by the image processing circuit 61 is shown, but the technique of the present disclosure is not limited to this, and various programs related to the technique of the present disclosure are the CPU It may be realized by being executed by. Further, the technique of the present disclosure is not limited to this, and various programs related to the technique of the present disclosure may be executed by a CPU other than the CPU 12.

また、ここで言う「本開示の技術に係る各種処理」とは、差分取得処理、ノイズ位置決定処理、フィールド画像補正処理、光ノイズ補正処理、及びノイズ補正要否処理を指す。また、ここで言う「本開示の技術に係る各種プログラム」とは、差分取得プログラム、ノイズ位置決定プログラム、フィールド画像補正プログラム、光ノイズ補正プログラム、及びノイズ補正要否プログラムを指す。
すなわち、差分取得プログラムが画像処理回路61又はCPU12によって実行されることで差分取得処理が実現される。また、ノイズ位置決定プログラムが画像処理回路61又はCPU12によって実行されることでノイズ位置決定処理が実現される。また、フィールド画像補正プログラムが画像処理回路61又はCPU12によって実行されることでフィールド画像補正処理が実現される。また、光ノイズ補正プログラムが画像処理回路61又はCPU12によって実行されることで光ノイズ補正処理が実現される。更に、ノイズ補正要否プログラムが画像処理回路61又はCPU12によって実行されることでノイズ補正要否処理が実現される。なお、以下では、差分取得プログラム、ノイズ位置決定プログラム、フィールド画像補正プログラム、光ノイズ補正プログラム、及びノイズ補正要否プログラムを区別して説明する必要がない場合、「プログラムPG」と称する。
一例として図21に示すように、プログラムPGは、SSD、USBメモリ、又はDVD−ROM等の任意の可搬型の記憶媒体700に記憶させておいてもよい。この場合、記憶媒体700のプログラムPGが撮像装置100にインストールされ、インストールされたプログラムPGがCPU12によって実行される。
Further, the "various processes according to the technique of the present disclosure" referred to here refer to a difference acquisition process, a noise position determination process, a field image correction process, an optical noise correction process, and a noise correction necessity process. Further, the "various programs related to the technique of the present disclosure" referred to here refer to a difference acquisition program, a noise position determination program, a field image correction program, an optical noise correction program, and a noise correction necessity program.
That is, the difference acquisition process is realized by executing the difference acquisition program by the image processing circuit 61 or the CPU 12. Further, the noise position determination process is realized by executing the noise position determination program by the image processing circuit 61 or the CPU 12. Further, the field image correction process is realized by executing the field image correction program by the image processing circuit 61 or the CPU 12. Further, the optical noise correction processing is realized by executing the optical noise correction program by the image processing circuit 61 or the CPU 12. Further, the noise correction necessity processing is realized by executing the noise correction necessity program by the image processing circuit 61 or the CPU 12. In the following, when it is not necessary to distinguish between the difference acquisition program, the noise position determination program, the field image correction program, the optical noise correction program, and the noise correction necessity program, it is referred to as "program PG".
As an example, as shown in FIG. 21, the program PG may be stored in an arbitrary portable storage medium 700 such as an SSD, a USB memory, or a DVD-ROM. In this case, the program PG of the storage medium 700 is installed in the image pickup apparatus 100, and the installed program PG is executed by the CPU 12.

また、通信網(図示省略)を介して撮像装置100に接続される他のコンピュータ又はサーバ装置等の記憶部にプログラムPGを記憶させておき、プログラムPGが撮像装置100の要求に応じてダウンロードされるようにしてもよい。この場合、ダウンロードされたプログラムPGは撮像装置100のCPU12によって実行される。 Further, the program PG is stored in a storage unit of another computer or server device connected to the image pickup apparatus 100 via a communication network (not shown), and the program PG is downloaded in response to the request of the image pickup apparatus 100. You may do so. In this case, the downloaded program PG is executed by the CPU 12 of the image pickup apparatus 100.

上記実施形態において、例えば、本開示の技術に係る各種処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、上述したように、ソフトウェア、すなわち、プログラムを実行することで、本開示の技術に係る各種処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。 In the above embodiment, for example, various processors shown below can be used as hardware resources for executing various processes according to the technique of the present disclosure. Examples of the processor include, as described above, software, that is, a CPU, which is a general-purpose processor that functions as a hardware resource for executing various processes according to the technique of the present disclosure by executing a program. Further, examples of the processor include a dedicated electric circuit which is a processor having a circuit configuration specially designed for executing a specific process such as FPGA, PLD, or ASIC.

本開示の技術に係る各種処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、本開示の技術に係る各種処理を実行するハードウェア資源は1つのプロセッサであってもよい。 The hardware resource that executes various processes according to the technique of the present disclosure may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of processors). It may be composed of a combination of FPGA or a combination of CPU and FPGA). Further, the hardware resource for executing various processes according to the technique of the present disclosure may be one processor.

1つのプロセッサで構成する例としては、第1に、クライアント及びサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、本開示の技術に係る各種処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、本開示の技術に係る各種処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、本開示の技術に係る各種処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。 As an example of configuring with one processor, first, as represented by a computer such as a client and a server, one processor is configured by a combination of one or more CPUs and software, and this processor is disclosed in the present disclosure. There is a form that functions as a hardware resource that executes various processes related to the above technology. Secondly, as typified by SoC, there is a form in which a processor that realizes the functions of the entire system including a plurality of hardware resources for executing various processes related to the technology of the present disclosure with one IC chip is used. .. As described above, various processes according to the technique of the present disclosure are realized by using one or more of the above-mentioned various processors as hardware resources.

さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。 Further, as the hardware structure of these various processors, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined can be used.

(第9実施形態)
上記各実施形態では、撮像装置100を例示したが、撮像装置100の変形例である携帯端末装置としては、例えば、カメラ機能を各々有する携帯電話機、スマートフォン、PDA、又は携帯型ゲーム機などが挙げられる。以下では、スマートフォンを例に挙げ、図面を参照しつつ説明する。
(9th Embodiment)
In each of the above embodiments, the image pickup device 100 has been illustrated, but examples of the portable terminal device which is a modification of the image pickup device 100 include a mobile phone, a smartphone, a PDA, a portable game machine, and the like having a camera function. Be done. In the following, a smartphone will be taken as an example and described with reference to the drawings.

図22は、スマートフォン800の外観の一例を示す斜視図である。スマートフォン800は、平板状の筐体802を有し、筐体802の一方の面に表示部としての表示パネル821と、入力部としての操作パネル822とが一体となった表示入力部820を備えている。また、筐体802は、スピーカ831と、マイクロホン832と、操作部840と、カメラ部841とを備えている。なお、筐体802の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造又はスライド構造を有する構成を採用したりすることもできる。 FIG. 22 is a perspective view showing an example of the appearance of the smartphone 800. The smartphone 800 has a flat plate-shaped housing 802, and has a display input unit 820 in which a display panel 821 as a display unit and an operation panel 822 as an input unit are integrated on one surface of the housing 802. ing. Further, the housing 802 includes a speaker 831, a microphone 832, an operation unit 840, and a camera unit 841. The configuration of the housing 802 is not limited to this, and for example, a configuration in which the display unit and the input unit are independent may be adopted, or a configuration having a folding structure or a slide structure may be adopted.

図23は、図22に示すスマートフォン800の構成の一例を示すブロック図である。一例として図23に示すように、スマートフォン800は、主たる構成要素として、無線通信部810と、表示入力部820と、通信部830と、操作部840と、カメラ部841と、記憶部850と、外部入出力部860と、を備える。また、スマートフォン800は、主たる構成要素として、GPS受信部870と、モーションセンサ部880と、電源部890と、主制御部801と、を備える。また、スマートフォン800の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。 FIG. 23 is a block diagram showing an example of the configuration of the smartphone 800 shown in FIG. 22. As an example, as shown in FIG. 23, the smartphone 800 has, as main components, a wireless communication unit 810, a display input unit 820, a communication unit 830, an operation unit 840, a camera unit 841, and a storage unit 850. It includes an external input / output unit 860. Further, the smartphone 800 includes a GPS receiving unit 870, a motion sensor unit 880, a power supply unit 890, and a main control unit 801 as main components. Further, as a main function of the smartphone 800, it is provided with a wireless communication function for performing mobile wireless communication via the base station device BS and the mobile communication network NW.

無線通信部810は、主制御部801の指示に従って、移動通信網NWに収容された基地局装置BSに対して無線通信を行う。この無線通信が使用されることによって、音声データ、画像データ、電子メールデータ、Webデータ、及び/又はストリーミングデータ等の各種データの送受信が行われる。 The wireless communication unit 810 performs wireless communication to the base station device BS accommodated in the mobile communication network NW according to the instruction of the main control unit 801. By using this wireless communication, various data such as voice data, image data, e-mail data, Web data, and / or streaming data are transmitted and received.

表示入力部820は、いわゆるタッチパネルであって、表示パネル821と、操作パネル822とを備える。そのため、表示入力部820は、主制御部801の制御により、静止画像、動画、及び文字情報などを表示することで視覚的にユーザに情報を伝達し、かつ、表示した情報に対するユーザ操作を検出する。なお、生成された3Dを鑑賞する場合には、表示パネル821は、3D表示パネルであることが好ましい。 The display input unit 820 is a so-called touch panel, and includes a display panel 821 and an operation panel 822. Therefore, the display input unit 820 visually transmits information to the user by displaying still images, moving images, character information, and the like under the control of the main control unit 801 and detects the user operation for the displayed information. To do. When viewing the generated 3D, the display panel 821 is preferably a 3D display panel.

表示パネル821は、LCD又はOELDなどを表示デバイスとして用いることによって実現される。操作パネル822は、表示パネル821の表示面上に表示される画像を視認可能に載置され、ユーザの指及び/又は尖筆によって操作されることで、一又は複数の座標を検出するデバイスである。係るデバイスをユーザの指及び/又は尖筆によって操作すると、操作に起因して発生する検出信号を主制御部801に出力する。次いで、主制御部801は、受信した検出信号に基づいて、表示パネル821上の操作位置(座標)を検出する。 The display panel 821 is realized by using an LCD, OELD, or the like as a display device. The operation panel 822 is a device that visually mounts an image displayed on the display surface of the display panel 821 and detects one or more coordinates by being operated by a user's finger and / or a stylus. is there. When the device is operated with a user's finger and / or a stylus, a detection signal generated due to the operation is output to the main control unit 801. Next, the main control unit 801 detects the operation position (coordinates) on the display panel 821 based on the received detection signal.

表示入力部820は、スマートフォン800の表示パネル821と操作パネル822とは一体となって構成されている。具体的には、操作パネル822が表示パネル821に重ねられており、操作パネル822が表示パネル821を完全に覆っている。この配置を採用した場合、操作パネル822は、表示パネル821外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル822は、表示パネル821に重なる重畳部分についての検出領域である表示領域と、それ以外の表示パネル821に重ならない外縁部分についての検出領域である非表示領域とを備えていてもよい。 The display input unit 820 includes the display panel 821 of the smartphone 800 and the operation panel 822 integrally. Specifically, the operation panel 822 is superposed on the display panel 821, and the operation panel 822 completely covers the display panel 821. When this arrangement is adopted, the operation panel 822 may have a function of detecting a user operation even in an area outside the display panel 821. In other words, the operation panel 822 includes a display area which is a detection area for the overlapping portion overlapping the display panel 821 and a non-display area which is a detection area for the outer edge portion which does not overlap the other display panel 821. May be good.

なお、表示領域の大きさと表示パネル821の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル822が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。また、外縁部分の幅は、筐体802の大きさなどに応じて適宜設計されるものである。更に、操作パネル822で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、及び静電容量方式などが挙げられ、いずれの方式を採用することもできる。 The size of the display area and the size of the display panel 821 may be completely matched, but it is not always necessary to match the two. Further, the operation panel 822 may be provided with two sensitive regions, an outer edge portion and an inner portion other than the outer edge portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 802 and the like. Further, examples of the position detection method adopted by the operation panel 822 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method, and any of these methods is adopted. You can also do it.

通信部830は、スピーカ831及び/又はマイクロホン832を備える。通信部830は、マイクロホン832を通じて入力されたユーザの音声を主制御部801にて処理可能な音声データに変換して主制御部801に出力する。また、通信部830は、無線通信部810あるいは外部入出力部860により受信された音声データを復号してスピーカ831から出力する。また、例えば、スピーカ831を表示入力部820が設けられた面と同じ面に搭載し、マイクロホン832を筐体802の側面に搭載することができる。 The communication unit 830 includes a speaker 831 and / or a microphone 832. The communication unit 830 converts the user's voice input through the microphone 832 into voice data that can be processed by the main control unit 801 and outputs the voice data to the main control unit 801. Further, the communication unit 830 decodes the voice data received by the wireless communication unit 810 or the external input / output unit 860 and outputs the voice data from the speaker 831. Further, for example, the speaker 831 can be mounted on the same surface as the surface on which the display input unit 820 is provided, and the microphone 832 can be mounted on the side surface of the housing 802.

操作部840は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付ける。例えば、図22に示すように、操作部840は、スマートフォン800の筐体802の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式(モーメンタリ動作方式)のスイッチである。 The operation unit 840 is a hardware key using a key switch or the like, and receives an instruction from the user. For example, as shown in FIG. 22, the operation unit 840 is mounted on the side surface of the housing 802 of the smartphone 800, and is turned on when pressed with a finger or the like, and turned off by a restoring force such as a spring when the finger is released. It is a push button type (momentary operation method) switch.

記憶部850は、プログラムPG、制御データ、アプリケーションソフトウェア、通信相手の名称、及び電話番号などを対応づけたアドレスデータを記憶する。また、記憶部850は、送受信された電子メールのデータを記憶する。また、記憶部850は、WebブラウジングによりダウンロードされたWebデータ、及び/又はWebブラウジングによりダウンロードされたコンテンツデータを記憶する。また、記憶部850は、ストリーミングデータなどを一時的に記憶する。また、記憶部850は、スマートフォン内蔵の内部記憶部851と、着脱自在な外部メモリスロットを有する外部記憶部852と、を有する。なお、記憶部850を構成するそれぞれの内部記憶部851と外部記憶部852は、フラッシュメモリタイプ又はハードディスクタイプなどの格納媒体を用いることで実現される。格納媒体としては、この他にも、マルチメディアカードマイクロタイプ、カードタイプのメモリ、RAM、又はROMが例示できる。 The storage unit 850 stores address data associated with the program PG, control data, application software, the name of the communication partner, the telephone number, and the like. In addition, the storage unit 850 stores the data of the transmitted / received e-mail. In addition, the storage unit 850 stores the Web data downloaded by Web browsing and / or the content data downloaded by Web browsing. In addition, the storage unit 850 temporarily stores streaming data and the like. Further, the storage unit 850 has an internal storage unit 851 built in the smartphone and an external storage unit 852 having a detachable external memory slot. Each of the internal storage unit 851 and the external storage unit 852 constituting the storage unit 850 is realized by using a storage medium such as a flash memory type or a hard disk type. Other examples of the storage medium include a multimedia card micro type, a card type memory, RAM, or ROM.

外部入出力部860は、スマートフォン800に連結される全ての外部機器とのインタフェースの役割を果たすデバイスであり、他の外部機器に対して、通信等又はネットワークを介して直接的又は間接的に通信可能に接続されている。他の外部機器に通信等としては、例えば、USBが挙げられる。ネットワークとしては、例えば、インターネット、無線LAN、Bluetooth(登録商標))、RFID、又はIrDA(登録商標)が挙げられる。また、ネットワークの他の例としては、UWB(登録商標)又はZigBee(登録商標))などが挙げられる。 The external input / output unit 860 is a device that acts as an interface with all external devices connected to the smartphone 800, and directly or indirectly communicates with other external devices via communication or the like or a network. It is connected as possible. Examples of communication with other external devices include USB. Networks include, for example, the Internet, wireless LAN, Bluetooth®, RFID, or IrDA®. In addition, other examples of the network include UWB (registered trademark) or ZigBee (registered trademark)).

スマートフォン800に連結される外部機器としては、例えば、有線ヘッドセット、無線ヘッドセット、有線外部充電器、無線外部充電器、有線データポート、及び/又は無線データポートが挙げられる。スマートフォン800に連結される外部機器の他の例としては、カードソケットを介して接続されるメモリカードが挙げられる。スマートフォン800に連結される外部機器の他の例としては、SIM/UIMカードが挙げられる。スマートフォン800に連結される外部機器の他の例としては、オーディオ・ビデオI/O端子を介して接続される外部オーディオ・ビデオ機器が挙げられる。外部オーディオ・ビデオ機器の他にも、無線接続される外部オーディオ・ビデオ機器が挙げられる。また、外部オーディオ・ビデオ機器に代えて、例えば、有線又は無線で接続されるスマートフォンも適用可能である。また、外部オーディオ・ビデオ機器に代えて、例えば、有線又は無線で接続されるパーソナルコンピュータも適用可能である。また、外部オーディオ・ビデオ機器に代えて、例えば、有線又は無線で接続されるPDAも適用可能である。また、外部オーディオ・ビデオ機器に代えて、例えば、有線又は無線で接続されるパーソナルコンピュータも適用可能である。また、外部オーディオ・ビデオ機器に代えて、例えば、イヤホンなども適用可能である。 Examples of the external device connected to the smartphone 800 include a wired headset, a wireless headset, a wired external charger, a wireless external charger, a wired data port, and / or a wireless data port. Another example of an external device connected to the smartphone 800 is a memory card connected via a card socket. Another example of an external device connected to the smartphone 800 is a SIM / UIM card. Another example of an external device connected to the smartphone 800 is an external audio / video device connected via an audio / video I / O terminal. In addition to external audio / video equipment, there are external audio / video equipment that is wirelessly connected. Further, instead of the external audio / video device, for example, a smartphone connected by wire or wirelessly can be applied. Further, instead of the external audio / video device, for example, a personal computer connected by wire or wirelessly can be applied. Further, instead of the external audio / video device, for example, a PDA connected by wire or wirelessly can be applied. Further, instead of the external audio / video device, for example, a personal computer connected by wire or wirelessly can be applied. Further, instead of the external audio / video device, for example, an earphone or the like can be applied.

外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン800の内部の各構成要素に伝達したり、スマートフォン800の内部のデータを外部機器に伝送したりする。 The external input / output unit transmits the data transmitted from such an external device to each component inside the smartphone 800, or transmits the data inside the smartphone 800 to the external device.

GPS受信部870は、主制御部801の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン800の緯度、経度、及び/又は高度で表現される位置(スマートフォン800の現在位置)を検出する。GPS受信部870は、無線通信部810又は外部入出力部860から、スマートフォン800の現在位置を示す位置情報を取得できるときには、その位置情報を用いて位置を検出することもできる。 The GPS receiving unit 870 receives GPS signals transmitted from the GPS satellites ST1 to STn according to the instruction of the main control unit 801 and executes positioning calculation processing based on the received plurality of GPS signals to determine the latitude of the smartphone 800. Detects the position expressed in longitude and / or altitude (current position of the smartphone 800). When the GPS receiving unit 870 can acquire the position information indicating the current position of the smartphone 800 from the wireless communication unit 810 or the external input / output unit 860, the GPS receiving unit 870 can also detect the position using the position information.

モーションセンサ部880は、例えば、3軸の加速度センサなどを備え、主制御部801の指示にしたがって、スマートフォン800の物理的な動きを検出する。モーションセンサ部880によってスマートフォン800の物理的な動きが検出されることにより、スマートフォン800の動く方向及び加速度が検出される。この検出結果は、主制御部801に出力される。 The motion sensor unit 880 includes, for example, a three-axis acceleration sensor, and detects the physical movement of the smartphone 800 according to the instruction of the main control unit 801. By detecting the physical movement of the smartphone 800 by the motion sensor unit 880, the moving direction and acceleration of the smartphone 800 are detected. This detection result is output to the main control unit 801.

電源部890は、主制御部801の指示にしたがって、スマートフォン800の各部に、バッテリ(図示省略)に蓄えられる電力を供給する。 The power supply unit 890 supplies the electric power stored in the battery (not shown) to each unit of the smartphone 800 according to the instruction of the main control unit 801.

主制御部801は、マイクロプロセッサを備え、記憶部850が記憶するプログラムPG及び制御データにしたがって動作し、スマートフォン800の各部を制御する。また、主制御部801は、無線通信部810を通じて、音声通信及びデータ通信を行うために、通信系の各部を制御する移動通信制御機能を備えている。また、主制御部801は、アプリケーション処理機能も備えている。 The main control unit 801 includes a microprocessor and operates according to the program PG and control data stored in the storage unit 850 to control each unit of the smartphone 800. Further, the main control unit 801 is provided with a mobile communication control function that controls each unit of the communication system in order to perform voice communication and data communication through the wireless communication unit 810. The main control unit 801 also has an application processing function.

アプリケーション処理機能は、記憶部850が記憶するアプリケーションソフトウェアにしたがって主制御部801が動作することにより実現される。アプリケーション処理機能としては、例えば、赤外線通信機能、電子メール機能、及びWebブラウジング機能等が挙げられる。赤外線通信機能は、外部入出力部860を制御することで対向機器とデータ通信を行う機能である。電子メール機能は、電子メールの送受信を行う機能である。Webブラウジング機能は、Webページを閲覧する機能である。 The application processing function is realized by operating the main control unit 801 according to the application software stored in the storage unit 850. Examples of the application processing function include an infrared communication function, an e-mail function, a Web browsing function, and the like. The infrared communication function is a function of performing data communication with an opposite device by controlling the external input / output unit 860. The e-mail function is a function for sending and receiving e-mail. The Web browsing function is a function for browsing a Web page.

また、主制御部801は、画像処理機能を備えている。画像処理機能は、受信されたデータ及び/又はダウンロードされたストリーミングデータなどの静止画像及び/又は動画像のデータに基づいて、映像を表示入力部820に表示する等の機能である。つまり、画像処理機能とは、主制御部801が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部820に表示する機能を指す。 Further, the main control unit 801 has an image processing function. The image processing function is a function of displaying an image on the display input unit 820 based on the received data and / or the still image such as the downloaded streaming data and / or the moving image data. That is, the image processing function refers to a function in which the main control unit 801 decodes the image data, performs image processing on the decoding result, and displays the image on the display input unit 820.

更に、主制御部801は、表示パネル821に対する表示制御と、操作部840及び操作パネル822を通じたユーザ操作を検出する操作検出制御とを実行する。 Further, the main control unit 801 executes display control for the display panel 821 and operation detection control for detecting a user operation through the operation unit 840 and the operation panel 822.

表示制御が実行されることより、主制御部801は、アプリケーションソフトウェアを起動するためのアイコン及びスクロールバーなどのソフトキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル821の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動させる指示を受け付けるためのソフトキーを指す。 When the display control is executed, the main control unit 801 displays a window for displaying an icon for starting the application software and a soft key such as a scroll bar, or for composing an e-mail. The scroll bar refers to a soft key for receiving an instruction to move a display portion of an image for a large image or the like that cannot fit in the display area of the display panel 821.

また、操作検出制御が実行されることにより、主制御部801は、操作部840を通じたユーザ操作を検出したり、操作パネル822を通じて、上記アイコンに対する操作、及び上記ウィンドウの入力欄に対する文字列の入力を受け付けたりする。また、操作検出制御が実行されることにより、主制御部801は、スクロールバーを通じた表示画像のスクロール要求を受け付ける。 Further, by executing the operation detection control, the main control unit 801 detects the user operation through the operation unit 840, operates the icon through the operation panel 822, and inputs a character string to the input field of the window. Accepts input. Further, when the operation detection control is executed, the main control unit 801 receives a scroll request of the display image through the scroll bar.

更に、主制御部801は、タッチパネル制御機能を備えている。操作検出制御が実行されることにより主制御部801は、操作パネル822に対する操作位置が、表示パネル821に重なる重畳部分(表示領域)か、それ以外の表示パネル821に重ならない外縁部分(非表示領域)かを判定する。そして、主制御部801がタッチパネル制御機能を働かせることにより、主制御部801は、この判定結果を受けて、操作パネル822の感応領域及びソフトキーの表示位置を制御する。 Further, the main control unit 801 has a touch panel control function. When the operation detection control is executed, the main control unit 801 has the overlapped portion (display area) where the operation position with respect to the operation panel 822 overlaps the display panel 821, or the outer edge portion (non-display) which does not overlap with the other display panel 821. Area). Then, when the main control unit 801 activates the touch panel control function, the main control unit 801 receives the determination result and controls the sensitive area of the operation panel 822 and the display position of the soft key.

また、主制御部801は、操作パネル822に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置のうちの少なくとも1つから軌跡を描く操作を意味する。 Further, the main control unit 801 can also detect a gesture operation on the operation panel 822 and execute a preset function according to the detected gesture operation. Gesture operation is not a conventional simple touch operation, but draws a trajectory with a finger or the like, specifies multiple positions at the same time, or combines these to draw a trajectory from at least one of a plurality of positions. Means operation.

カメラ部841は、CMOSセンサを用いて撮像するデジタルカメラであり、図1等に示す撮像装置100と同様の機能を備えている。 The camera unit 841 is a digital camera that captures images using a CMOS sensor, and has the same functions as the imaging device 100 shown in FIG. 1 and the like.

また、カメラ部841は、マニュアルフォーカスモードとオートフォーカスモードとを切り替え可能である。マニュアルフォーカスモードが選択されると、操作部840又は表示入力部820に表示されるフォーカス用のアイコンボタン等を操作することにより、カメラ部841の撮影レンズのピント合わせが行われる。また、マニュアルフォーカスモード時には、例えばスプリットイメージが合成されたライブビュー画像を表示パネル821に表示させ、これによりマニュアルフォーカス時の合焦状態を確認できるようにしている。なお、図1に示すハイブリッドファインダー220をスマートフォン800に設けるようにしてもよい。 Further, the camera unit 841 can switch between the manual focus mode and the autofocus mode. When the manual focus mode is selected, the shooting lens of the camera unit 841 is focused by operating the focus icon button or the like displayed on the operation unit 840 or the display input unit 820. Further, in the manual focus mode, for example, a live view image in which a split image is combined is displayed on the display panel 821 so that the focusing state at the time of manual focus can be confirmed. The hybrid finder 220 shown in FIG. 1 may be provided in the smartphone 800.

また、カメラ部841は、主制御部801の制御により、撮像によって得た画像データを例えばJPEGなどの圧縮した画像データに変換する。そして、変換して得た画像データを記憶部850に記録したり、外部入出力部860及び/又は無線通信部810を通じて出力したりする。図22に示すにスマートフォン800において、カメラ部841は表示入力部820と同じ面に搭載されているが、カメラ部841の搭載位置はこれに限らず、表示入力部820の背面に搭載されてもよいし、あるいは、複数のカメラ部841が搭載されてもよい。なお、複数のカメラ部841が搭載されている場合には、撮像に供するカメラ部841を切り替えて単独にて撮像が行われたり、あるいは、複数のカメラ部841が同時に使用されることで撮像が行われたりする。 Further, the camera unit 841 converts the image data obtained by imaging into compressed image data such as JPEG under the control of the main control unit 801. Then, the image data obtained by conversion is recorded in the storage unit 850, or output through the external input / output unit 860 and / or the wireless communication unit 810. As shown in FIG. 22, in the smartphone 800, the camera unit 841 is mounted on the same surface as the display input unit 820, but the mounting position of the camera unit 841 is not limited to this, and even if it is mounted on the back surface of the display input unit 820. Alternatively, a plurality of camera units 841 may be mounted. When a plurality of camera units 841 are mounted, the camera unit 841 used for imaging can be switched to perform imaging independently, or the plurality of camera units 841 can be used at the same time to perform imaging. It will be done.

また、カメラ部841はスマートフォン800の各種機能に利用される。例えば、カメラ部841で取得した画像が表示パネル821に表示される。また、操作パネル822の操作入力のひとつとして、カメラ部841の画像が利用される。また、GPS受信部870が位置を検出する際に、カメラ部841からの画像を参照して位置を検出する。また、主制御部801は、3軸の加速度センサを用いずに、カメラ部841からの画像を参照することでスマートフォン800のカメラ部841の光軸方向を判断したり、現在の使用環境を判断したりする。更に、主制御部801は、3軸の加速度センサと併用することで、スマートフォン800のカメラ部841の光軸方向を判断したり、現在の使用環境を判断したりする。勿論、カメラ部841からの画像をアプリケーションソフトウェア内で利用することもできる。 Further, the camera unit 841 is used for various functions of the smartphone 800. For example, the image acquired by the camera unit 841 is displayed on the display panel 821. Further, an image of the camera unit 841 is used as one of the operation inputs of the operation panel 822. Further, when the GPS receiving unit 870 detects the position, the position is detected by referring to the image from the camera unit 841. Further, the main control unit 801 determines the optical axis direction of the camera unit 841 of the smartphone 800 by referring to the image from the camera unit 841 without using the 3-axis acceleration sensor, or determines the current usage environment. To do. Further, the main control unit 801 can be used in combination with the three-axis acceleration sensor to determine the optical axis direction of the camera unit 841 of the smartphone 800 and to determine the current usage environment. Of course, the image from the camera unit 841 can also be used in the application software.

その他、主制御部801は、静止画又は動画の画像データに各種情報を付加し、各種情報を付加した画像データを、記憶部850に記録したり、入出力部860又は無線通信部810を通じて出力したりする。ここで言う「各種情報」としては、例えば、静止画又は動画の画像データにGPS受信部870により取得した位置情報、及び/又は、マイクロホン832により取得した音声情報が挙げられる。音声情報は、主制御部等により、音声テキスト変換が行われることで得られるテキスト情報が用いられるようにしてもよい。この他にも、「各種情報」には、モーションセンサ部880により取得された姿勢情報等などが含まれていてもよい。 In addition, the main control unit 801 adds various information to the image data of the still image or moving image, records the image data to which the various information is added in the storage unit 850, or outputs the image data through the input / output unit 860 or the wireless communication unit 810. To do. Examples of the "various information" referred to here include position information acquired by the GPS receiver 870 and / or audio information acquired by the microphone 832 in the image data of a still image or a moving image. As the voice information, the text information obtained by performing the voice-to-text conversion by the main control unit or the like may be used. In addition to this, the "various information" may include posture information and the like acquired by the motion sensor unit 880.

以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。 The contents described and illustrated above are detailed explanations of the parts related to the technology of the present disclosure, and are merely examples of the technology of the present disclosure. For example, the above description of the configuration, function, action, and effect is an example of the configuration, function, action, and effect of a portion according to the art of the present disclosure. Therefore, unnecessary parts may be deleted, new elements may be added, or replacements may be made to the described contents and illustrated contents shown above within a range that does not deviate from the gist of the technique of the present disclosure. Needless to say. In addition, in order to avoid complications and facilitate understanding of the parts related to the technology of the present disclosure, the description contents and the illustrated contents shown above require special explanation in order to enable the implementation of the technology of the present disclosure. The explanation about common technical knowledge is omitted.

本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。 As used herein, "A and / or B" is synonymous with "at least one of A and B." That is, "A and / or B" means that it may be only A, only B, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as "A and / or B" is applied.

本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All documents, patent applications and technical standards described herein are to the same extent as if the individual documents, patent applications and technical standards were specifically and individually stated to be incorporated by reference. Incorporated by reference in the book.

本出願は、2018年7月27日出願の日本出願である特願2018−141678の優先権を主張するものであり、この出願の全内容は参照により本明細書に取り込まれる。
This application claims the priority of Japanese Patent Application No. 2018-141678, which is a Japanese application filed on July 27, 2018, and the entire contents of this application are incorporated herein by reference.

Claims (21)

複数の光電変換素子を備えた撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、前記メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、かつ前記領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出す読出部と、
前記撮像素子により撮像されて前記メモリ部に格納された撮像画像データが、前記読出部により再度読み出された前記データに応じて定まる光ノイズに従って前記複数の領域の各々毎に補正されて得られた補正画像データを出力する出力部と、
を含む画像処理装置。
The image data imaged by an image sensor equipped with a plurality of photoelectric conversion elements and transferred to the memory unit on which optical noise is superimposed is read out as area image data for each of the plurality of divided areas of the memory unit. After the reading of each area image data is completed, the reading unit that reads the data of the predetermined area again, and the reading unit.
The captured image data imaged by the image sensor and stored in the memory unit is obtained by being corrected for each of the plurality of regions according to the optical noise determined according to the data read again by the reading unit. An output unit that outputs corrected image data and
Image processing equipment including.
前記予め定められた領域は、前記メモリ部から最初に前記領域画像データが読み出された領域である、請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the predetermined area is an area in which the area image data is first read from the memory unit. 前記補正画像データは、前記読出部による読み出し順序が隣り合う一対の領域画像データの比較結果に基づいて、前記読出部による読み出し順序が後の領域画像データから、前記光ノイズを有する画素位置が定められ、定められた前記画素位置及び前記光ノイズの量に従って、前記領域毎に補正されて得られる請求項1又は2に記載の画像処理装置。 In the corrected image data, the pixel position having the optical noise is determined from the area image data whose reading order by the reading unit is later, based on the comparison result of a pair of region image data whose reading order is adjacent to each other by the reading unit. The image processing apparatus according to claim 1 or 2, which is obtained by correcting each region according to the determined pixel positions and the amount of optical noise. 前記比較結果は、前記隣り合う一対の領域画像データの各々の画像データの差分である請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the comparison result is a difference between the image data of each of the pair of adjacent region image data. 前記複数の光電変換素子は、予め定められた複数の原色の各々について感度を有する請求項3又は請求項4に記載の画像処理装置。 The image processing apparatus according to claim 3 or 4, wherein the plurality of photoelectric conversion elements have sensitivity for each of a plurality of predetermined primary colors. 前記領域画像データの各々は、前記メモリ部に格納された画像データが、前記複数の原色の各々について感度を有する光電変換素子が予め定められた配列を有するグループ単位で間引かれた領域画像データである請求項5に記載の画像処理装置。 Each of the area image data is the area image data in which the image data stored in the memory unit is thinned out in group units in which the photoelectric conversion elements having sensitivity for each of the plurality of primary colors have a predetermined arrangement. The image processing apparatus according to claim 5. 前記比較結果は、前記一対の領域画像データが同時化処理されてから比較された結果である請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the comparison result is a result of comparison after the pair of region image data are simultaneously processed. 前記画素位置は、前記一対の領域画像データの前記比較結果をフィルタ処理した結果に基づいて定められるか、又は前記一対の領域画像データがフィルタ処理されてから比較された前記比較結果に基づいて定められる請求項3から請求項7の何れか一項に記載の画像処理装置。 The pixel position is determined based on the result of filtering the comparison result of the pair of region image data, or is determined based on the comparison result of comparison after the pair of region image data is filtered. The image processing apparatus according to any one of claims 3 to 7. 前記読出部は、予め定められた撮像条件を満足した場合に、複数の前記領域画像データ毎の読み出しが終了した後、前記データを再度読み出す処理を行う請求項1から請求項8の何れか一項に記載の画像処理装置。 Any one of claims 1 to 8 in which the reading unit performs a process of re-reading the data after the reading of each of the plurality of the area image data is completed when the predetermined imaging conditions are satisfied. The image processing apparatus according to the section. 前記撮像条件は、前記撮像素子による撮像時間が予め定められた時間より短いとの条件、及び前記メモリ部に格納された画像データ内に輝度が予め定められた輝度を上回る画像領域が存在するとの条件のうち少なくとも一方の条件である請求項9に記載の画像処理装置。 The imaging conditions are that the imaging time by the image sensor is shorter than a predetermined time, and that there is an image region in the image data stored in the memory unit whose brightness exceeds the predetermined brightness. The image processing apparatus according to claim 9, which is at least one of the conditions. 前記複数の領域の各々についての光ノイズの特性を示す光ノイズ特性情報が予め記憶された記憶部から前記光ノイズ特性情報を取得する取得部を更に含み、
前記補正画像データは、前記撮像画像データが前記光ノイズと前記取得部によって取得された前記光ノイズ特性情報とに従って、前記領域毎に補正されて得られる請求項1から請求項10の何れか一項に記載の画像処理装置。
Further including an acquisition unit for acquiring the optical noise characteristic information from a storage unit in which the optical noise characteristic information indicating the optical noise characteristics for each of the plurality of regions is stored in advance.
The corrected image data is any one of claims 1 to 10 obtained by correcting the captured image data for each region according to the optical noise and the optical noise characteristic information acquired by the acquisition unit. The image processing apparatus according to the section.
前記光ノイズ特性情報は、前記複数の領域のうちの前記読出部により再度読み出される前記領域の光ノイズとして予め定められた値と、前記複数の領域のうちの前記領域と異なる領域の光ノイズとして予め定められた値との比に基づく値である請求項11に記載の画像処理装置。 The optical noise characteristic information includes a predetermined value as the optical noise of the region read again by the reading unit of the plurality of regions and the optical noise of a region different from the region of the plurality of regions. The image processing apparatus according to claim 11, which is a value based on a ratio to a predetermined value. 複数の光電変換素子を備えた撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、前記メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出す読出部と、
前記撮像素子により撮像されて前記メモリ部に格納された撮像画像データが、前記読出部により各々毎に読み出された領域画像データに応じて定まる光ノイズに従って前記複数の領域の各々毎に補正されて得られた補正画像データを出力する出力部と、
を含む画像処理装置。
A reading unit that reads out image data imaged by an image sensor equipped with a plurality of photoelectric conversion elements and transferred to a memory unit on which optical noise is superimposed as area image data for each of the plurality of divided areas of the memory unit. When,
The captured image data captured by the image sensor and stored in the memory unit is corrected for each of the plurality of regions according to the optical noise determined according to the region image data read for each region by the reading unit. An output unit that outputs the corrected image data obtained in
Image processing equipment including.
前記補正画像データは、前記読出部による読み出し順序が隣り合う一対の領域画像データの比較結果に基づいて、前記読出部による読み出し順序が後の領域画像データ内から、差分を有する画素位置が定められ、定められた前記画素位置及び前記差分に従って前記領域毎に補正されて得られる請求項13に記載の画像処理装置。 In the corrected image data, pixel positions having a difference are determined from the area image data whose reading order by the reading unit is later, based on the comparison result of a pair of area image data whose reading order is adjacent to each other by the reading unit. The image processing apparatus according to claim 13, wherein the image processing apparatus is obtained by correcting for each of the regions according to the predetermined pixel positions and the differences. 前記領域は、行列方式で配列された前記光電変換素子の前記メモリ部を、予め定めた方法で行単位で間引いて得られる、請求項1から請求項14の何れか一項に記載の画像処理装置。 The image processing according to any one of claims 1 to 14, wherein the region is obtained by thinning out the memory portions of the photoelectric conversion elements arranged in a matrix manner on a row-by-row basis by a predetermined method. apparatus. 前記出力部により出力された前記補正画像データに基づく画像を表示部に対して表示させる制御を行う制御部を更に含む請求項1から請求項15の何れか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 15, further comprising a control unit that controls the display unit to display an image based on the corrected image data output by the output unit. 請求項1から請求項16の何れか一項に記載の画像処理装置と、
前記撮像素子に対して撮像を開始させる指示を受け付ける受付部と、
を含む撮像装置。
The image processing apparatus according to any one of claims 1 to 16.
A reception unit that receives an instruction to start imaging to the image sensor, and a reception unit.
Imaging equipment including.
撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、前記メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、かつ前記領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出し、
前記撮像素子により撮像されて前記メモリ部に格納された撮像画像データが、再度読み出した前記データに応じて定まる光ノイズに従って前記複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む画像処理方法。
The image data captured by the image sensor and transferred to the memory unit on which the optical noise is superimposed is read out as area image data for each of the plurality of divided areas of the memory unit, and the area image data is read out. After finishing, read the data in the predetermined area again and read it again.
The imaged image data imaged by the image sensor and stored in the memory unit is corrected for each of the plurality of areas according to the optical noise determined according to the data read again, and the corrected image data obtained is output. Image processing methods that include doing.
撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、前記メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、
前記撮像素子により撮像されて前記メモリ部に格納された撮像画像データが、各々毎に読み出した領域画像データに応じて定まる光ノイズに従って前記複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む画像処理方法。
The image data captured by the image sensor and transferred to the memory unit on which the optical noise is superimposed is read out as area image data for each of the plurality of divided areas of the memory unit.
A corrected image obtained by correcting the captured image data captured by the image sensor and stored in the memory unit for each of the plurality of regions according to the optical noise determined according to the region image data read out for each region. An image processing method that includes outputting data.
コンピュータに、
撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、前記メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、かつ前記領域画像データ毎の読み出しが終了した後、予め定められた領域のデータを再度読み出し、
前記撮像素子により撮像されて前記メモリ部に格納された撮像画像データが、再度読み出した前記データに応じて定まる光ノイズに従って前記複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む処理を実行させるためのプログラム。
On the computer
The image data captured by the image sensor and transferred to the memory unit on which the optical noise is superimposed is read out as area image data for each of the plurality of divided areas of the memory unit, and the area image data is read out. After finishing, read the data in the predetermined area again and read it again.
The imaged image data imaged by the image sensor and stored in the memory unit is corrected for each of the plurality of areas according to the optical noise determined according to the data read again, and the corrected image data obtained is output. A program for executing processing including doing.
コンピュータに、
撮像素子で撮像され、光ノイズが重畳するメモリ部に転送された画像データを、前記メモリ部の区分けされた複数の領域の各々毎に領域画像データとして読み出し、
前記撮像素子により撮像されて前記メモリ部に格納された撮像画像データが、各々毎に読み出した領域画像データに応じて定まる光ノイズに従って前記複数の領域の各々毎に補正されて得られた補正画像データを出力することを含む処理を実行させるためのプログラム。

On the computer
The image data captured by the image sensor and transferred to the memory unit on which the optical noise is superimposed is read out as area image data for each of the plurality of divided areas of the memory unit.
A corrected image obtained by correcting the captured image data captured by the image sensor and stored in the memory unit for each of the plurality of regions according to the optical noise determined according to the region image data read out for each region. A program for executing processing including outputting data.

JP2020532206A 2018-07-27 2019-06-11 Image processing equipment, imaging equipment, image processing methods and programs Active JP6896175B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018141678 2018-07-27
JP2018141678 2018-07-27
PCT/JP2019/023128 WO2020021887A1 (en) 2018-07-27 2019-06-11 Image processing apparatus, imaging apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2020021887A1 true JPWO2020021887A1 (en) 2021-05-13
JP6896175B2 JP6896175B2 (en) 2021-06-30

Family

ID=69181402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020532206A Active JP6896175B2 (en) 2018-07-27 2019-06-11 Image processing equipment, imaging equipment, image processing methods and programs

Country Status (4)

Country Link
US (1) US11399145B2 (en)
JP (1) JP6896175B2 (en)
CN (1) CN112514370B (en)
WO (1) WO2020021887A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11895407B2 (en) * 2019-07-24 2024-02-06 Sony Group Corporation Imaging device and imaging method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087644A (en) * 2001-09-07 2003-03-20 Matsushita Electric Ind Co Ltd Device and method for picking up and displaying image and program
JP2010050535A (en) * 2008-08-19 2010-03-04 Toyota Motor Corp Imaging apparatus
JP2012134756A (en) * 2010-12-21 2012-07-12 Olympus Corp Imaging apparatus

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3860273B2 (en) * 1997-01-30 2006-12-20 ローム株式会社 Contact image sensor
JP4007986B2 (en) * 2004-09-21 2007-11-14 オリンパス株式会社 Imaging device
JP2006108889A (en) 2004-10-01 2006-04-20 Canon Inc Solid-state image pickup device
JP3868446B2 (en) * 2004-10-29 2007-01-17 オリンパス株式会社 Imaging device
JP2008028516A (en) 2006-07-19 2008-02-07 Olympus Corp Camera system
KR100790996B1 (en) * 2006-08-30 2008-01-03 삼성전자주식회사 Image sensor package, method of manufacturing the same and image sensor module including the same
JP2008216570A (en) * 2007-03-02 2008-09-18 Olympus Imaging Corp Imaging apparatus
JP5414358B2 (en) * 2009-05-20 2014-02-12 キヤノン株式会社 Imaging device
JP5220777B2 (en) * 2010-01-21 2013-06-26 オリンパス株式会社 Image processing apparatus, imaging apparatus, program, and image processing method
JP2011216966A (en) 2010-03-31 2011-10-27 Sony Corp Solid-state imaging element, and method of driving the same, and electronic equipment
JP5955007B2 (en) * 2012-02-01 2016-07-20 キヤノン株式会社 Imaging apparatus and imaging method
JP5948073B2 (en) * 2012-02-08 2016-07-06 株式会社 日立産業制御ソリューションズ Image signal processing apparatus and image signal processing method
US10136090B2 (en) * 2013-03-15 2018-11-20 Rambus Inc. Threshold-monitoring, conditional-reset image sensor
US9961255B2 (en) * 2016-02-09 2018-05-01 Canon Kabushiki Kaisha Image capturing apparatus, control method thereof, and storage medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087644A (en) * 2001-09-07 2003-03-20 Matsushita Electric Ind Co Ltd Device and method for picking up and displaying image and program
JP2010050535A (en) * 2008-08-19 2010-03-04 Toyota Motor Corp Imaging apparatus
JP2012134756A (en) * 2010-12-21 2012-07-12 Olympus Corp Imaging apparatus

Also Published As

Publication number Publication date
JP6896175B2 (en) 2021-06-30
CN112514370B (en) 2023-07-28
CN112514370A (en) 2021-03-16
US11399145B2 (en) 2022-07-26
US20210152763A1 (en) 2021-05-20
WO2020021887A1 (en) 2020-01-30

Similar Documents

Publication Publication Date Title
JP5937767B2 (en) Imaging apparatus and imaging method
US9237319B2 (en) Imaging device and automatic focus adjustment method
US10003731B2 (en) Image element, and imaging device and imaging method using the same for achieving improved image quality regardless of an incident angle of light
JP5946970B2 (en) Imaging apparatus and imaging method
US9473725B2 (en) Image-processing and encoded aperture pattern setting device and method, and image pickup device comprising same
US9743031B2 (en) Imaging device and imaging method
US9432643B2 (en) Image processing device, image capture device, image processing method, and non-transitory computer-readable medium
JP5866478B2 (en) Imaging apparatus, signal processing method, and signal processing program
US9432569B2 (en) Imaging device and focus control method
US11184523B2 (en) Imaging apparatus with phase difference detecting element
JP5833254B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6000446B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
CN104823094A (en) Image capture device and focus control method
WO2014087804A1 (en) Image capture device, image processing method, and program
US20150092093A1 (en) Imaging device and imaging method
JP6896175B2 (en) Image processing equipment, imaging equipment, image processing methods and programs
JP5680803B2 (en) Image processing apparatus and method, and imaging apparatus
JP2005277618A (en) Photography taking apparatus and device and method for correcting shading
WO2014045741A1 (en) Image processing device, imaging device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210608

R150 Certificate of patent or registration of utility model

Ref document number: 6896175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150