JP2009088800A - Color imaging device - Google Patents

Color imaging device Download PDF

Info

Publication number
JP2009088800A
JP2009088800A JP2007253760A JP2007253760A JP2009088800A JP 2009088800 A JP2009088800 A JP 2009088800A JP 2007253760 A JP2007253760 A JP 2007253760A JP 2007253760 A JP2007253760 A JP 2007253760A JP 2009088800 A JP2009088800 A JP 2009088800A
Authority
JP
Japan
Prior art keywords
color
image
color imaging
cpu
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007253760A
Other languages
Japanese (ja)
Inventor
Takuya Sato
▲琢▼也 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007253760A priority Critical patent/JP2009088800A/en
Publication of JP2009088800A publication Critical patent/JP2009088800A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a color imaging device for exibiting sufficient effect in a color shading correction. <P>SOLUTION: The color imaging device is provided with: a first color imaging element (16) for imaging an image of a field formed by a photographic lens; a second color imaging element (22) provided in addition to the first color imaging element to detect a color distribution of the field; a determining means (29) for determining the type of illuminating light that illuminates the field on the basis of the color distribution detected by the second color imaging element; and a setting means (29) for setting an amount of color shading compensation to be applied to the image generated by the first color imaging element in accordance with the type determined by the determining means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、カラー撮像装置に関する。   The present invention relates to a color imaging apparatus.

通常、カラー撮像素子の色シェーディングは、撮影レンズのF値などにより変化するが、被写界を照明する照明光の色温度によっても変化することが経験的に知られている。これに対処するため、カラー撮像素子が撮像前に生成した画像(スルー画像)に基づき照明光の色温度を判定し、その色温度に応じて色シェーディング補正の補正量を調節する電子カメラが提案されている(特許文献1等を参照)。
特開2005−278004号公報
Usually, the color shading of a color image sensor varies depending on the F value of the photographing lens, but it is empirically known that it also varies depending on the color temperature of the illumination light that illuminates the object scene. To cope with this, an electronic camera that determines the color temperature of illumination light based on an image (through image) generated by a color image sensor before imaging, and adjusts the amount of color shading correction according to the color temperature is proposed. (See Patent Document 1 and the like).
JP 2005-278004 A

しかしながら、特許文献1に記載の補正方法では、電子カメラの使用状況に依り補正効果が十分に現れない可能性のあることが判明した。   However, with the correction method described in Patent Document 1, it has been found that there is a possibility that the correction effect does not sufficiently appear depending on the use state of the electronic camera.

そこで本発明は、色シェーディング補正の補正効果を十分に引き出すことのできるカラー撮像装置を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a color imaging apparatus that can sufficiently bring out the correction effect of color shading correction.

本発明のカラー撮像装置は、撮影レンズが形成する被写界の像を撮像して保存用の画像を生成する第1のカラー撮像素子と、前記第1のカラー撮像素子とは別に設けられ、前記被写界の色分布を検出する第2のカラー撮像素子と、前記第2のカラー撮像素子が検出した色分布に基づき前記被写界を照明する照明光の種類を判定する判定手段と、前記第1のカラー撮像素子が生成した画像に施すべき色シェーディング補正の補正量を前記判定手段が判定した種類に応じて設定する設定手段とを備えたことを特徴とする。   The color imaging device of the present invention is provided separately from the first color imaging element that captures an image of the field formed by the photographing lens and generates an image for storage, and the first color imaging element, A second color image sensor that detects a color distribution of the object scene; and a determination unit that determines a type of illumination light that illuminates the object field based on the color distribution detected by the second color image sensor; And a setting unit configured to set a correction amount of color shading correction to be applied to an image generated by the first color imaging device according to the type determined by the determination unit.

なお、前記設定手段は、前記判定手段が判定した種類と、前記撮影レンズのF値と、前記撮影レンズの開口絞りの位置とに基づき前記補正量の設定を行ってもよい。   The setting unit may set the correction amount based on the type determined by the determination unit, the F value of the photographing lens, and the position of the aperture stop of the photographing lens.

また、本発明の何れかのカラー撮像装置は、前記設定手段が設定した補正量で前記第1のカラー撮像素子が生成した画像へ色シェーディング補正を施す補正手段を更に備えてもよい。   In addition, any one of the color imaging devices according to the present invention may further include a correction unit that performs color shading correction on an image generated by the first color imaging device with a correction amount set by the setting unit.

また、本発明の何れかのカラー撮像装置は、前記設定手段が設定した補正量を前記第1のカラー撮像素子が生成した画像と共に保存する記録手段を更に備えてもよい。   In addition, any one of the color imaging devices according to the present invention may further include a recording unit that stores the correction amount set by the setting unit together with the image generated by the first color imaging device.

本発明によれば、色シェーディング補正の補正効果を十分に引き出すことのできるカラー撮像装置が実現する。   According to the present invention, it is possible to realize a color imaging apparatus that can sufficiently bring out the correction effect of color shading correction.

[第1実施形態]
以下、本発明の第1実施形態を説明する。本実施形態は、電子カメラの実施形態である。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described. The present embodiment is an embodiment of an electronic camera.

先ず、電子カメラの撮影機構を説明する。図1は、電子カメラの光学系の構成を示す模式図である。図1に示すとおり電子カメラは、カメラ本体11と、撮影レンズ12を収容したレンズユニット13とを有する。レンズユニット13は、不図示のマウントを介してカメラ本体11に交換可能に装着される。その状態でレンズユニット13はカメラ本体11に対し電気的に接続される。   First, the photographing mechanism of the electronic camera will be described. FIG. 1 is a schematic diagram showing a configuration of an optical system of an electronic camera. As shown in FIG. 1, the electronic camera includes a camera body 11 and a lens unit 13 that houses a photographing lens 12. The lens unit 13 is replaceably attached to the camera body 11 via a mount (not shown). In this state, the lens unit 13 is electrically connected to the camera body 11.

カメラ本体11には、メインミラー14と、メカニカルシャッタ15と、カラー撮像素子16と、ファインダ光学系(17〜20)とが配置される。メインミラー14、メカニカルシャッタ15およびカラー撮像素子16は、撮影レンズ12の光軸に沿って配置され、ファインダ光学系(17〜20)はカメラ本体11の上部領域に配置される。   In the camera body 11, a main mirror 14, a mechanical shutter 15, a color image sensor 16, and a finder optical system (17 to 20) are arranged. The main mirror 14, the mechanical shutter 15, and the color image sensor 16 are disposed along the optical axis of the photographing lens 12, and the finder optical system (17 to 20) is disposed in the upper region of the camera body 11.

メインミラー14は不図示の回動軸の周りを回動し、それによって観察状態と退避状態との間で切り替わる。観察状態のメインミラー14は、メカニカルシャッタ15およびカラー撮像素子16の前方で傾斜配置される。この観察状態のメインミラー14は、撮影レンズ12が捉えた光束を上方へ反射してファインダ光学系(17〜20)へ導く。なお、メインミラー14の中央はハーフミラーとなっており、このときに撮影レンズ12が捉えた光束の一部はそのハーフミラー及びサブミラー(不図示)を介して焦点検出部(不図示)へ導かれる。   The main mirror 14 rotates around a rotation shaft (not shown), thereby switching between an observation state and a retracted state. The main mirror 14 in the observation state is inclined and disposed in front of the mechanical shutter 15 and the color image sensor 16. The main mirror 14 in the observation state reflects the light beam captured by the photographing lens 12 upward and guides it to the finder optical system (17 to 20). The center of the main mirror 14 is a half mirror, and a part of the light beam captured by the photographing lens 12 at this time is guided to a focus detection unit (not shown) via the half mirror and a sub mirror (not shown). It is burned.

一方、退避状態のメインミラー14は、上方に跳ね上げられて撮影レンズ12の光路から外れる。メインミラー14が退避状態にあるときには撮影レンズ12が捉えた光束の全部がメカニカルシャッタ15へ導かれる。   On the other hand, the retracted main mirror 14 is flipped upward and deviates from the optical path of the taking lens 12. When the main mirror 14 is in the retracted state, the entire light beam captured by the photographing lens 12 is guided to the mechanical shutter 15.

ファインダ光学系(17〜20)は、焦点板17と、コンデンサレンズ18と、ペンタプリズム19と、接眼レンズ20とを有している。また、ペンタプリズム19の近傍には再結像レンズ21および分割測光センサ22なども配置されている。   The finder optical system (17 to 20) includes a focusing screen 17, a condenser lens 18, a pentaprism 19, and an eyepiece lens 20. In addition, a re-imaging lens 21 and a split photometric sensor 22 are disposed in the vicinity of the pentaprism 19.

焦点板17は、退避状態にあるメインミラー14の上方に位置している。この焦点板17で結像した光束はコンデンサレンズ18を介してペンタプリズム19の下面へ入射する。ペンタプリズム19の下面へ入射した光束は、ペンタプリズム19の内部へ進入してペンタプリズム19の内面を反射した後、ペンタプリズム19の下面と垂直な面(射出面)からペンタプリズム19の外部へ射出し、接眼レンズ20へ向かう。   The focusing screen 17 is located above the main mirror 14 in the retracted state. The light beam formed by the focusing screen 17 enters the lower surface of the pentaprism 19 via the condenser lens 18. The light beam incident on the lower surface of the pentaprism 19 enters the interior of the pentaprism 19, reflects the inner surface of the pentaprism 19, and then passes from the surface (exit surface) perpendicular to the lower surface of the pentaprism 19 to the outside of the pentaprism 19. Ejected toward the eyepiece 20.

なお、ペンタプリズム19の下面へ入射した光束の一部は、ペンタプリズム19の内部へ進入してペンタプリズム19の内面を反射した後、前記射出面からペンタプリズム19の外部へ射出し、再結像レンズ21を介して分割測光センサ22へ向かう。   A part of the light beam incident on the lower surface of the pentaprism 19 enters the inside of the pentaprism 19 and is reflected from the inner surface of the pentaprism 19, and then exits from the exit surface to the outside of the pentaprism 19 to be recombined. It goes to the split photometric sensor 22 through the image lens 21.

次に、電子カメラの回路構成を説明する。図2は、電子カメラの回路構成を示すブロック図である。図2に示すとおりカメラ本体11には、カラー撮像素子16と、AFE16aと、タイミングジェネレータ(TG)16bと、分割測光センサ22と、A/D変換回路22aと、画像処理回路23と、バッファメモリ(MEM)24と、記録インタフェース(記録I/F)25と、操作スイッチ(SW)26と、CPU29と、RAM28と、ROM27と、バス31とが備えられる。このうち画像処理回路23、バッファメモリ24、記録インタフェース25、CPU29、RAM28、ROM27は、バス31を介して互いに接続されている。また、操作スイッチ26は、CPU29に接続されている。   Next, the circuit configuration of the electronic camera will be described. FIG. 2 is a block diagram showing a circuit configuration of the electronic camera. As shown in FIG. 2, the camera body 11 includes a color image sensor 16, an AFE 16a, a timing generator (TG) 16b, a divided photometric sensor 22, an A / D conversion circuit 22a, an image processing circuit 23, and a buffer memory. (MEM) 24, a recording interface (recording I / F) 25, an operation switch (SW) 26, a CPU 29, a RAM 28, a ROM 27, and a bus 31 are provided. Among these, the image processing circuit 23, the buffer memory 24, the recording interface 25, the CPU 29, the RAM 28, and the ROM 27 are connected to each other via a bus 31. The operation switch 26 is connected to the CPU 29.

カラー撮像素子16は、保存用の画像(本画像)を生成するために備えられたものである。カラー撮像素子16は、その撮像面に形成された被写界像を光電変換することにより、本画像の画像信号(アナログ信号)を生成する。   The color image sensor 16 is provided to generate a storage image (main image). The color imaging device 16 generates an image signal (analog signal) of the main image by photoelectrically converting the object scene image formed on the imaging surface.

なお、カラー撮像素子16の撮像面には、被写界像をカラー検出するために、赤色(R)、緑色(G)、青色(B)の3種類のカラーフィルタが例えばベイヤ配列で配置されている。これによって、カラー撮像素子16の撮像面には、R画素とG画素とB画素との3種類の画素が配置され、本画像の画像信号はR信号、G信号、B信号の3種類の信号から構成されることになる。なお、カラー撮像素子16の撮像面の全体には、光学ローパスフィルタや赤外光カットフィルタなどが設けられている。   Note that, on the imaging surface of the color imaging device 16, three types of color filters of red (R), green (G), and blue (B) are arranged in, for example, a Bayer array in order to detect the color of the object scene image. ing. As a result, three types of pixels of R pixel, G pixel, and B pixel are arranged on the imaging surface of the color imaging element 16, and the image signal of the main image has three types of signals of R signal, G signal, and B signal. It will consist of Note that an optical low-pass filter, an infrared light cut filter, and the like are provided on the entire imaging surface of the color imaging element 16.

AFE16aは、カラー撮像素子16が生成する画像信号に対して信号処理を施すアナログフロントエンド回路である。このAFE16aは、画像信号の相関二重サンプリングや、画像信号のゲイン調整や、画像信号のA/D変換などを行う。このAFE16aが出力する画像信号(ディジタル信号)は、本画像の画像データとして画像処理回路23へ入力される。   The AFE 16a is an analog front-end circuit that performs signal processing on an image signal generated by the color image sensor 16. The AFE 16a performs correlated double sampling of the image signal, gain adjustment of the image signal, A / D conversion of the image signal, and the like. The image signal (digital signal) output from the AFE 16a is input to the image processing circuit 23 as image data of the main image.

タイミングジェネレータ16bは、CPU29からの指示に従いカラー撮像素子16及びAFE16aの各々へ向けて駆動信号を送出し、それによって両者の駆動タイミングを制御する。   The timing generator 16b sends drive signals to each of the color image sensor 16 and the AFE 16a in accordance with instructions from the CPU 29, thereby controlling the drive timing of both.

分割測光センサ22は、モニタ用の画像(モニタ画像)を生成するために備えられたカラー撮像素子である。分割測光センサ22の撮像面には、カラー撮像素子16の撮像面に形成されるのと同じ被写界像が形成される。分割測光センサ22は、その被写界像を光電変換することによりモニタ画像の画像信号(アナログ信号)を生成する。   The divided photometric sensor 22 is a color image sensor provided for generating a monitor image (monitor image). The same object scene image as that formed on the imaging surface of the color image sensor 16 is formed on the imaging surface of the split photometric sensor 22. The split photometric sensor 22 photoelectrically converts the object scene image to generate an image signal (analog signal) of the monitor image.

なお、分割測光センサ22の撮像面には、被写界像をカラー検出するためにカラーフィルタが配置されている。よって、モニタ画像の画像信号も、R信号、G信号、B信号の3種類の信号から構成される。この分割測光センサ22が出力する画像信号は、A/D変換回路22aを介してCPU29へ入力される。   A color filter is disposed on the imaging surface of the split photometric sensor 22 for color detection of the object scene image. Therefore, the image signal of the monitor image is also composed of three types of signals, R signal, G signal, and B signal. The image signal output by the split photometric sensor 22 is input to the CPU 29 via the A / D conversion circuit 22a.

画像処理回路23は、AFE16aが出力する本画像の画像データに対して各種の画像処理を施す。画像処理回路23には、画像データへ色シェーディング補正を施す色シェーディング補正部23a、画像データへホワイトバランス補正を施すホワイトバランス補正部(WB)23b、画像データへ色補間処理を施す色補間処理部23c、画像データへ色変換処理などのその他の処理を施す処理部(その他の処理部)23dが配置される。これらの処理部に色シェーディング補正、ホワイトバランス補正、色補間処理、その他の処理は、パイプライン処理であり、この順に画像データへ施される。   The image processing circuit 23 performs various types of image processing on the image data of the main image output from the AFE 16a. The image processing circuit 23 includes a color shading correction unit 23a that performs color shading correction on image data, a white balance correction unit (WB) 23b that performs white balance correction on image data, and a color interpolation processing unit that performs color interpolation processing on image data. 23c, a processing unit (other processing unit) 23d for performing other processing such as color conversion processing on the image data is arranged. The color shading correction, white balance correction, color interpolation processing, and other processing in these processing units are pipeline processing, and are performed on the image data in this order.

なお、色シェーディング補正は、画像データのR信号、B信号へゲインgr,gbをそれぞれ乗算するものである。但し、色シェーディング量は画像上の位置(主に像高)によって異なるので、ゲインgr,gbの値は画像上のブロックによって異なる。ここで、画像上のブロックとは、画像を分割してできるできる複数のブロックのことであり、例えば、画像を縦25個、横30個に分割してできる750個のブロックである。以下、i番目のブロックを「第iブロック」と称し、第iブロック内の各画素のR信号に乗算されるゲインgrを「gri」とおき、第iブロック内の各画素のB信号に乗算されるゲインgbを「gbi」とおく。なお、この色シェーディング補正で使用される全てのゲイン(ゲイン群)gr1,…,gr750,gb1,…,gb750は、CPU29によって画像毎に算出・設定される。この算出方法の詳細については後述する。 The color shading correction is to multiply the R signal and B signal of the image data by gains g r and g b , respectively. However, since the color shading amount varies depending on the position (mainly image height) on the image, the values of the gains g r and g b vary depending on the blocks on the image. Here, the blocks on the image are a plurality of blocks that can be obtained by dividing the image, and are, for example, 750 blocks that can be obtained by dividing the image into 25 vertical and 30 horizontal. Hereinafter, the i-th block is referred to as "i-th block", the gain g r to be multiplied by the R signal of each pixel in the i-th block "g ri" Distant, B signals for each pixel in the i-th block The gain g b multiplied by is set to “g bi ”. Note that all gains (gain groups) g r1 ,..., G r750 , g b1 ,..., G b750 used in this color shading correction are calculated and set for each image by the CPU 29. Details of this calculation method will be described later.

また、ホワイトバランス補正は、画像データのR信号、B信号へゲインGr,Gbをそれぞれ乗算するものである。ゲインGr,Gbの値は画像上の全てのブロックで共通である。なお、このホワイトバランス補正で使用されるゲインCr,Gbも、CPU29によって画像毎に算出・設定される。この算出方法の詳細については後述する。 The white balance correction is to multiply the R signal and B signal of the image data by gains G r and G b , respectively. The values of the gains G r and G b are common to all the blocks on the image. The gains C r and G b used in the white balance correction are also calculated and set for each image by the CPU 29. Details of this calculation method will be described later.

バッファメモリ24は、画像処理回路23やCPU29による個々の処理の速度差を補償するために、本画像の画像データを一時的に記憶するメモリである。   The buffer memory 24 is a memory that temporarily stores the image data of the main image in order to compensate for the difference in speed between individual processes performed by the image processing circuit 23 and the CPU 29.

記録インタフェース25には、記憶媒体32を接続するためのコネクタが形成されている。記録インタフェース25は、そのコネクタに接続された記憶媒体32にアクセスし、本画像の画像データの書き込みや読み込みを行う。なお、記憶媒体32はハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。   The recording interface 25 is formed with a connector for connecting the storage medium 32. The recording interface 25 accesses the storage medium 32 connected to the connector, and writes and reads image data of the main image. The storage medium 32 is constituted by a hard disk, a memory card incorporating a semiconductor memory, or the like.

操作スイッチ26は、レリーズボタン、コマンドダイヤル、マルチセレクタなどであり、ユーザによる操作内容に応じてCPU29へ信号を与えるものである。例えばユーザは、レリーズボタンを全押しすることにより撮影の指示をCPU29へ与えることができる。また、ユーザは、マルチセレクタを操作することにより記録モードの切り替え指示をCPU29に与えることができる。   The operation switch 26 is a release button, a command dial, a multi-selector, and the like, and gives a signal to the CPU 29 in accordance with the operation content by the user. For example, the user can give a shooting instruction to the CPU 29 by fully pressing the release button. Further, the user can give an instruction to switch the recording mode to the CPU 29 by operating the multi selector.

なお、記録モードには通常記録モードとRAW記録モードとがあり、通常記録モードはCPU29が画像処理後の本画像の画像データを記憶媒体32に保存する記録モードであり、RAW記録モードは、CPU29が画像処理前の本画像の画像データ(RAWデータ)を記憶媒体32に保存する記録モードである。   The recording mode includes a normal recording mode and a RAW recording mode. The normal recording mode is a recording mode in which the CPU 29 stores the image data of the main image after image processing in the storage medium 32, and the RAW recording mode is the CPU 29. Is a recording mode in which the image data (RAW data) of the main image before image processing is stored in the storage medium 32.

CPU29は、電子カメラの統括的な制御を行うプロセッサである。CPU29は、ROM27に予め格納されたシーケンスプログラムをRAM28へ読み出し、そのプログラムを実行することにより、各処理のパラメータ(前述したゲインなど)を算出したり、電子カメラの各部を制御したりする。   The CPU 29 is a processor that performs overall control of the electronic camera. The CPU 29 reads out a sequence program stored in advance in the ROM 27 to the RAM 28 and executes the program to calculate parameters for each process (such as the gain described above) and to control each unit of the electronic camera.

なお、CPU29がレンズユニット13のレンズCPU(不図示)に対し撮影レンズ12のF値を指定すると、レンズCPUは、撮影レンズ12の開口絞り(不図示)の径を調節する。これによって撮影レンズ12のF値が設定される。   When the CPU 29 designates the F value of the photographing lens 12 with respect to the lens CPU (not shown) of the lens unit 13, the lens CPU adjusts the diameter of the aperture stop (not shown) of the photographing lens 12. Thereby, the F value of the taking lens 12 is set.

また、CPU29が焦点検出部(不図示)において生成されたデフォーカス信号をレンズユニット13のレンズCPUに与えると、レンズCPUは、そのデフォーカス信号がゼロとなるように撮影レンズ12の撮影距離を変化させる。これによって撮影レンズ12の自動焦点調節(AF)が行われる。   Further, when the CPU 29 gives the defocus signal generated in the focus detection unit (not shown) to the lens CPU of the lens unit 13, the lens CPU sets the shooting distance of the shooting lens 12 so that the defocus signal becomes zero. Change. Thereby, automatic focusing (AF) of the taking lens 12 is performed.

また、CPU29は、モニタ画像の画像信号から輝度評価値を抽出し、その輝度評価値と予め用意されたプログラム線図とに基づきメカニカルシャッタ15の開放時間、カラー撮像素子16の電荷蓄積時間、撮影レンズ12のF値、ストロボ発光のオン/オフなどの設定が行われる。   Further, the CPU 29 extracts a luminance evaluation value from the image signal of the monitor image, and based on the luminance evaluation value and a program diagram prepared in advance, the opening time of the mechanical shutter 15, the charge accumulation time of the color image sensor 16, and photographing. Settings such as the F value of the lens 12 and the on / off state of strobe light emission are performed.

また、CPU29は、レンズユニット13のレンズCPU(不図示)からレンズ情報を取り込むことができる。そのレンズ情報には、撮影レンズ12の焦点距離、被写体距離、絞り値(F値)、射出瞳位置(EPD)などの情報が含まれる。因みに、CPU29によるレンズ情報の取り込みは、撮影レンズ12の状態が変化する毎に、或いは定期的に行われるので、CPU29は常に最新のレンズ情報を認識することができる。   Further, the CPU 29 can fetch lens information from a lens CPU (not shown) of the lens unit 13. The lens information includes information such as the focal length of the photographing lens 12, the subject distance, the aperture value (F value), and the exit pupil position (EPD). Incidentally, since the lens information is taken in by the CPU 29 every time the state of the photographing lens 12 changes or periodically, the CPU 29 can always recognize the latest lens information.

また、CPU29は、プログラムの実行によって、被写界を照明する照明光の種類(照明種類)を判定することもできる。この判定には、例えば教師有り学習によって予め算出された判定基準が使用される。CPU29は、モニタ画像の画像信号から特徴量を抽出し、その特徴量と判別基準とを比較することにより照明種類を判定する。   The CPU 29 can also determine the type of illumination light (illumination type) that illuminates the object scene by executing the program. For this determination, for example, a criterion calculated in advance by supervised learning is used. The CPU 29 extracts the feature amount from the image signal of the monitor image, and determines the illumination type by comparing the feature amount with the discrimination criterion.

ROM27には、前述したプログラムの一部として、CPU29が照明種類を判定するのに必要な情報や、色シェーディング補正のゲイン群gr1,…,gr750,gb1,…,gb750を算出するのに必要な情報なども予め格納される。その情報には、図3(a)に示すとおりゲイン群gr1,…,gr750を算出するためのルックアップテーブルTRと、図3(b)に示すとおりゲイン群gb1,…,gb750を算出するためのルックアップテーブルTBとがある。以下、これらのルックアップテーブルTR,TBを詳しく説明する。 The ROM 27 calculates information necessary for the CPU 29 to determine the illumination type and the color shading correction gain groups g r1 ,..., G b750 , g b1 ,. Information necessary for this is also stored in advance. The information includes a look-up table T R for calculating the gain groups g r1 ,..., G r750 as shown in FIG. 3A and the gain groups g b1 ,. b750 is a lookup table T B for calculating the. Hereinafter, these lookup tables T R and T B will be described in detail.

(ルックアップテーブルTR
ルックアップテーブルTRの内容は、カラー撮像素子16のR画素に関する色シェーディング(=G画素の感度を基準としたR画素の相対感度の撮像面上の分布)によって予め決められる。
(Look-up table T R )
The contents of the look-up table T R is predetermined by the color shading for R pixels of the color image sensor 16 (= G pixel sensitivity distribution on the imaging plane of the relative sensitivity of the R pixel on the basis of).

通常、R画素に関する色シェーディングは、画像上の位置に依存する(主に像高に依存する)が、撮影レンズ12のF値と、撮影レンズ12のEPDとの組み合わせによっても変化する。さらには、図4(a)に示すとおり照明種類によっても変化する。   Usually, the color shading for the R pixel depends on the position on the image (mainly depends on the image height), but also changes depending on the combination of the F value of the photographing lens 12 and the EPD of the photographing lens 12. Furthermore, it changes also with illumination types as shown to Fig.4 (a).

図4(a)は、F値及びEPDが同じであって照明種類のみが異なるときのR画素に関する色シェーディングを説明する概念図である。図4(a)に示すとおり、R画素に関する色シェーディングは、照明種類が蛍光灯、水銀ランプ、ナトリウムランプなどである場合には少ししか発生しないが、照明種類が人工太陽光、ハロゲンランプ、ストロボ光などである場合には多く発生する。   FIG. 4A is a conceptual diagram illustrating color shading relating to an R pixel when the F value and EPD are the same and only the illumination type is different. As shown in FIG. 4 (a), the color shading relating to the R pixel hardly occurs when the illumination type is a fluorescent lamp, a mercury lamp, a sodium lamp, or the like, but the illumination type is artificial sunlight, a halogen lamp, or a strobe. It often occurs in the case of light.

その理由は、蛍光灯、水銀ランプ、ナトリウムランプなどの光源のシーンは赤外光が少ないシーンである可能性が高いのに対し、人工太陽光、ハロゲンランプ、ストロボ光などの光源のシーンは赤外光が多いシーンである可能性が高いことと、R画素に関する色シェーディングは入射する赤外光の絶対量が多いときほど大きくなることにあると考えられる。   The reason is that scenes of light sources such as fluorescent lamps, mercury lamps, and sodium lamps are likely to be scenes with little infrared light, whereas scenes of light sources such as artificial sunlight, halogen lamps, and strobe light are red. It is considered that there is a high possibility that the scene has a lot of outside light, and that color shading regarding the R pixel is increased as the absolute amount of incident infrared light is larger.

因みに、蛍光灯の色温度は約4500K、水銀ランプの色温度は約4200K、ナトリウムランプの色温度は約2100K、人工太陽光の色温度は約5000〜約6000K、ハロゲンランプの色温度は約4200K、ストロボ光の色温度は約5000〜約15000Kであるので、ハロゲンランプと水銀ランプとは色温度が同程度とみなせる。しかし、図4(a)に明らかなとおり、ハロゲンランプと水銀ランプとでは、R画素に関する色シェーディング量は互いに異なる。したがって、本実施形態では、R画素に関する色シェーディング量は、照明光の色温度ではなく種類(照明種類)に依存するとみなす。   Incidentally, the color temperature of the fluorescent lamp is about 4500K, the color temperature of the mercury lamp is about 4200K, the color temperature of the sodium lamp is about 2100K, the color temperature of artificial sunlight is about 5000 to about 6000K, and the color temperature of the halogen lamp is about 4200K. Since the color temperature of the strobe light is about 5000 to about 15000 K, the halogen lamp and the mercury lamp can be regarded as having the same color temperature. However, as is apparent from FIG. 4A, the color shading amount for the R pixel is different between the halogen lamp and the mercury lamp. Therefore, in this embodiment, the color shading amount regarding the R pixel is considered to depend on the type (illumination type), not the color temperature of the illumination light.

そこで本実施形態では、ルックアップテーブルTRを、F値及びEPD及び照明種類の様々な組み合わせと、それら組み合わせの各々に適したゲイン群gr1,…,gr750とを互いに対応付けて格納した三次元ルックアップテーブルとする。図3(a)に示すとおり、このルックアップテーブルTRに対しF値及びEPD及び照明種類が入力されると、そのF値及びEPD及び照明種類の組み合わせに適したゲイン群gr1,…,gr750がルックアップテーブルTRから出力される。 Therefore, in the present embodiment, the look-up table T R, and various combinations of F values and EPD and lighting types, group gain suitable for each of these combinations g r1, ..., stored in association with each other and g R750 A three-dimensional lookup table is used. As shown in FIG. 3 (a), this when the look-up table T R to F value and the EPD and the illumination type is entered, the F value and the EPD and the illumination type gain group g r1 suitable combination of, ..., g r750 is output from the look-up table T R.

(ルックアップテーブルTB
ルックアップテーブルTBの内容は、カラー撮像素子16のB画素に関する色シェーディング(=G画素の感度を基準としたB画素の相対感度の撮像面上の分布)によって予め決められる。
(Look-up table T B)
The contents of the look-up table T B is determined in advance by the color shading about B pixels of the color image sensor 16 (= G pixel sensitivity reference to distribution on the imaging plane of the relative sensitivity of B pixels of).

通常、B画素に関する色シェーディングは、画像上の位置に依存する(主に像高い依存する)が、撮影レンズ12のF値と、撮影レンズ12のEPDとの組み合わせによっても変化する。但し、図4(b)に示すとおりB画素に関する色シェーディングは照明種類によって殆ど変化しない。   Normally, the color shading for the B pixel depends on the position on the image (mainly on the image height), but also changes depending on the combination of the F value of the photographing lens 12 and the EPD of the photographing lens 12. However, as shown in FIG. 4B, the color shading for the B pixel hardly changes depending on the illumination type.

図4(b)は、F値及びEPDが同じであって照明種類のみが異なるときのB画素に関する色シェーディングを説明する概念図である。図4(b)に示すとおり、B画素に関する色シェーディングは、照明種類に依らず一定である。その理由は、B画素に関する色シェーディングは、入射する赤外光の絶対量によって殆ど変化しないことにある。   FIG. 4B is a conceptual diagram illustrating color shading relating to the B pixel when the F value and EPD are the same and only the illumination type is different. As shown in FIG. 4B, the color shading for the B pixel is constant regardless of the illumination type. The reason is that the color shading for the B pixel hardly changes depending on the absolute amount of incident infrared light.

そこで本実施形態では、ルックアップテーブルTBを、F値及びEPDの様々な組み合わせと、それら組み合わせの各々に適したゲイン群gB1,…,gB750とを互いに対応付けて格納した二次元ルックアップテーブルとする。図3(b)に示すとおり、このルックアップテーブルTBに対しF値及びEPDが入力されると、そのF値及びEPDの組み合わせに適したゲイン群gB1,…,gB750がルックアップテーブルTBから出力される。 Therefore, in the present embodiment, the look-up table T B, and various combinations of F values and EPD, group gain suitable for each of these combinations g B1, ..., the two-dimensional look-stored in association with each other and g B750 Up table. As shown in FIG. 3 (b), when the look-up table T F value and the EPD to B is entered, the F value and the EPD gain group g B1 suitable for combination with, ..., g B750 lookup table is output from the T B.

次に、撮影に関するCPU29の動作の流れを説明する。図5は、撮影に関するCPU29の動作フローチャートである。ここでは、電子カメラのオートホワイトバランス機能がオンされ、電子カメラの記録モードが通常記録モードに設定されていると仮定する。また、フローチャートの開始時点では、メインミラー14は観察状態の位置にあり、ユーザが被写界を接眼レンズ20から観察できるものとする。   Next, the flow of operation of the CPU 29 relating to shooting will be described. FIG. 5 is an operation flowchart of the CPU 29 regarding photographing. Here, it is assumed that the auto white balance function of the electronic camera is turned on and the recording mode of the electronic camera is set to the normal recording mode. At the start of the flowchart, the main mirror 14 is in the observation state, and the user can observe the object scene from the eyepiece 20.

ステップS101:CPU29は、レリーズボタンが半押しされたか否かを判別し、レリーズボタンが半押しされた場合はステップS102に移行し、レリーズボタンが半押しされていない場合はステップS101を繰り返す。   Step S101: The CPU 29 determines whether or not the release button is half-pressed. If the release button is half-pressed, the process proceeds to step S102, and if the release button is not half-pressed, the step S101 is repeated.

ステップS102:CPU29は、分割測光センサ22の連続駆動を開始する。これによってモニタ画像の画像信号が分割測光センサ22から出力され始める。   Step S102: The CPU 29 starts continuous driving of the divided photometric sensor 22. As a result, the image signal of the monitor image starts to be output from the divided photometric sensor 22.

ステップS103:CPU29は、焦点検出部(不図示)が生成するデフォーカス信号をレンズCPUへ与えることにより撮影レンズ12の自動焦点調節を行うと共に、モニタ画像から抽出される輝度評価値に基づき自動露出制御を行う。これによって撮影条件(メカニカルシャッタ15の開放時間、カラー撮像素子16の電荷蓄積時間、撮影レンズ12のF値、撮影レンズ12の撮影距離、撮影レンズ12のEPD、ストロボ発光の有無など)が設定される。   Step S103: The CPU 29 performs automatic focus adjustment of the photographing lens 12 by giving a defocus signal generated by a focus detection unit (not shown) to the lens CPU, and also automatically exposes based on the luminance evaluation value extracted from the monitor image. Take control. As a result, shooting conditions (such as the opening time of the mechanical shutter 15, the charge accumulation time of the color imaging device 16, the F value of the shooting lens 12, the shooting distance of the shooting lens 12, the EPD of the shooting lens 12, the presence or absence of strobe light emission) are set. The

ステップS104:CPU29は、モニタ画像から特徴量を抽出し、その特徴量と前述した判別基準とを比較することにより、現在の被写界を照らしている照明種類を判定する。   Step S104: The CPU 29 extracts a feature amount from the monitor image, and compares the feature amount with the above-described discrimination criterion to determine the type of illumination that illuminates the current scene.

ステップS105:CPU29は、レリーズボタンが全押しされたか否かを判別する。レリーズボタンが全押しされていない場合はS106へ移行し、レリーズボタンが全押しされた場合はS107へ移行する。   Step S105: The CPU 29 determines whether or not the release button has been fully pressed. If the release button is not fully depressed, the process proceeds to S106, and if the release button is fully depressed, the process proceeds to S107.

ステップS106:CPU29は、レリーズボタンの半押しが解除されたか否かを判別し、レリーズボタンの半押しが解除された場合には、分割測光センサ22の動作を停止させてからステップS101に戻り、レリーズボタンの半押しが継続されている場合は、ステップS105に戻る。   Step S106: The CPU 29 determines whether or not the half-press of the release button has been released. If the half-press of the release button has been released, the CPU 29 stops the operation of the divided photometric sensor 22 and returns to step S101. When the half-press of the release button is continued, the process returns to step S105.

ステップS107:CPU29は、ステップS103で設定された撮影条件の下で撮影(本画像の画像データの取得)を行う。すなわちCPU29は、メインミラー14を退避状態とし、メカニカルシャッタ15及びタイミングジェネレータ16bを駆動することにより、本画像の画像データを取得する。このときCPU29は、必要に応じて不図示のストロボ装置を駆動してストロボ光を発光する。なお、この撮影で取得された本画像のデータは、AFE16aを通過してからバッファメモリ24にバッファリングされる。撮影が終了すると、メインミラー14は再び観察状態に戻される。   Step S107: The CPU 29 performs shooting (acquisition of image data of the main image) under the shooting conditions set in step S103. That is, the CPU 29 acquires the image data of the main image by driving the mechanical shutter 15 and the timing generator 16b with the main mirror 14 in the retracted state. At this time, the CPU 29 drives a strobe device (not shown) as necessary to emit strobe light. Note that the data of the main image acquired by this shooting is buffered in the buffer memory 24 after passing through the AFE 16a. When the photographing is finished, the main mirror 14 is returned to the observation state again.

ステップS108:CPU29は、ステップS104で判定した照明種類と、最新のF値と、最新のEPDとを図3(a)に示したルックアップテーブルTRへ入力することによりゲイン群gr1,…,gr750を取得する。但し、ステップS107における撮影がストロボ撮影であった場合は、ストロボ光の影響が被写界に対して支配的であるとみなし、CPU29は、ルックアップテーブルTRへ入力する照明種類を、ステップS104で判定した照明種類に拘わらず「ストロボ光」とする。 Step S108: CPU 29 includes an illumination type determined in step S104, the latest F value, the latest 3 and EPD (a) to the gain group g r1 by inputting to the look-up table T R shown, ... , Gr750 . However, when the object in step S107 was flash photography, regarded as the influence of the strobe light is dominant with respect to the object scene, CPU 29 is an illumination type to be input to the look-up table T R, step S104 Regardless of the illumination type determined in step 1, “strobe light” is used.

また、CPU29は、最新のF値と、最新のEPDとを図3(b)に示したルックアップテーブルTBへ入力することによりゲイン群gb1,…,gb750を取得する。そして、CPU29は、取得したゲイン群gr1,・・・,gr750,gb1,…,gb750を、色シェーディング補正部23aへ設定する。 Further, CPU 29 obtains the latest F value, the gain group g b1 by inputting to the look-up table T B showing the latest EPD in FIG 3 (b), ..., a g B750. Then, the CPU 29 sets the acquired gain groups g r1 ,..., G r750 , g b1 ,..., G b750 to the color shading correction unit 23a.

ステップS109:CPU29は、ステップS104で判定した照明種類に基づき照明光の相関色温度を算出し、本画像中でその相関色温度を持った領域を無彩色化するのに必要なゲインGr,Gbを算出し、それをホワイトバランス補正部23bに設定する。なお、相関色温度の算出は、例えば次の(1)〜(3)の手順で行われる。 Step S109: The CPU 29 calculates the correlated color temperature of the illumination light based on the illumination type determined in Step S104, and obtains the gain G r , necessary for achromatic the region having the correlated color temperature in the main image. Gb is calculated and set in the white balance correction unit 23b. The correlation color temperature is calculated, for example, according to the following procedures (1) to (3).

(1)CPU29は、本画像を複数のブロックに分割し、個々のブロックの色度(ブロック内の平均色度)を算出し、その色度に応じて個々のブロックを色度座標上へ写像する。   (1) The CPU 29 divides the main image into a plurality of blocks, calculates the chromaticity of each block (average chromaticity in the block), and maps each block onto chromaticity coordinates according to the chromaticity. To do.

(2)CPU29は、それらブロックの中から、現在の照明種類に相当する色度範囲へと写像されたブロック群を見出し、それらブロック群の色度座標上の重心位置を算出する。なお、その算出では、輝度の高いブロックの個数を多めに計上してもよい。   (2) The CPU 29 finds a block group mapped to the chromaticity range corresponding to the current illumination type from these blocks, and calculates the center-of-gravity position on the chromaticity coordinates of these block groups. In the calculation, a larger number of blocks with high luminance may be counted.

(3)CPU29は、算出した重心位置の色度を相関色温度に換算し、それを照明光の相関色温度とする。   (3) The CPU 29 converts the calculated chromaticity of the center of gravity position into a correlated color temperature, and sets it as the correlated color temperature of the illumination light.

ステップS120:CPU29は、画像処理回路23に対し画像処理の指示を与える。このとき画像処理回路23は、本画像の画像データに対し色シェーディング補正、ホワイトバランス補正、色補間処理、及びその他の処理を施す。その際、色シェーディング補正ではステップS108で設定されたゲインが使用され、ホワイトバランス補正ではステップS109で設定されたゲインが使用される。そして、画像処理後の本画像の画像データは、CPU29によって圧縮処理され、記憶媒体32に保存される。   Step S120: The CPU 29 gives an image processing instruction to the image processing circuit 23. At this time, the image processing circuit 23 performs color shading correction, white balance correction, color interpolation processing, and other processing on the image data of the main image. At this time, the gain set in step S108 is used in the color shading correction, and the gain set in step S109 is used in the white balance correction. The image data of the main image after the image processing is compressed by the CPU 29 and stored in the storage medium 32.

以上、本実施形態の電子カメラは、本画像を生成するカラー撮像素子16とは別に、モニタ画像を生成する分割測光センサ22を備え、そのモニタ画像に基づき照明種類を判定する。そして、本実施形態の電子カメラは、その照明種類に応じて色シェーディング補正のゲインを算出する。   As described above, the electronic camera according to the present embodiment includes the split photometric sensor 22 that generates a monitor image separately from the color imaging element 16 that generates the main image, and determines the illumination type based on the monitor image. Then, the electronic camera of this embodiment calculates a gain for color shading correction according to the illumination type.

よって、本実施形態の電子カメラは、色シェーディング補正のゲインを算出するためにカラー撮像素子16を駆動する必要は無い。したがって、カラー撮像素子16が温度上昇する可能性は低く抑えられ、本画像の劣化は生じにくい。したがって、本画像に対する色シェーディング補正の効果は高い。   Therefore, the electronic camera of this embodiment does not need to drive the color image sensor 16 in order to calculate the gain for color shading correction. Therefore, the possibility that the color image sensor 16 rises in temperature is suppressed to a low level, and deterioration of the main image hardly occurs. Therefore, the effect of color shading correction on the main image is high.

また、本実施形態の電子カメラは、R画素に関する色シェーディング補正のゲインを、照明光の色温度に応じて算出する代わりに、照明種類に応じて算出する。前述したとおり、R画素に関する色シェーディングは、照明光の色温度に依存するのではなく、照明種類に依存するので、この算出方法によれば、色シェーディング補正のゲインを高精度に算出し、色シェーディング補正の効果を高めることができる。   In addition, the electronic camera of the present embodiment calculates the gain of color shading correction for the R pixel according to the illumination type instead of calculating according to the color temperature of the illumination light. As described above, the color shading relating to the R pixel does not depend on the color temperature of the illumination light, but depends on the type of illumination. Therefore, according to this calculation method, the color shading correction gain is calculated with high accuracy, and the color shading is calculated. The effect of shading correction can be enhanced.

[第2実施形態]
以下、本発明の第2実施形態を説明する。本実施形態も、電子カメラの実施形態である。ここでは、第1実施形態との相違点のみ説明する。相違点は、ROM27に格納されるルックアップテーブルと、ステップS108における処理とにある。
[Second Embodiment]
Hereinafter, a second embodiment of the present invention will be described. This embodiment is also an embodiment of an electronic camera. Here, only differences from the first embodiment will be described. The difference is in the lookup table stored in the ROM 27 and the processing in step S108.

本実施形態のROM27には、図6(a),(b),(c)に示すとおり、二次元のルックアップテーブルTRと、一次元のルックアップテーブルTCと、二次元のルックアップテーブルTBとが予め格納される。 The ROM27 of the present embodiment, as shown in FIG. 6 (a), (b) , (c), and a look-up table T R of the two-dimensional, and a look-up table T C one-dimensional, two-dimensional look-up and the table T B are stored in advance.

図6(a)に示すとおり、ルックアップテーブルTRは、F値及びEPDの様々な組み合わせと、それら組み合わせの各々に適したゲイン群gr1,…,gr750とを互いに対応づけて格納した二次元ルックアップテーブルである。但し、これらのゲイン群gr1,…,gr750は、何れも標準照明(例えば「蛍光灯」)に適したゲイン群である。 As shown in FIG. 6 (a), the look-up table T R has a variety of combinations of F values and EPD, combinations thereof each gain groups suitable for g r1, ..., stored in association with the g R750 together It is a two-dimensional lookup table. However, these gain groups g r1 ,..., G r750 are all gain groups suitable for standard illumination (for example, “fluorescent lamp”).

図6(b)に示すとおり、ルックアップテーブルTCは、様々な照明種類と、それら照明種類の各々に適した調整データ群Δgr1,…,Δgr750とを互いに対応づけて格納した一次元ルックアップテーブルである。この調整データ群Δgr1,…,Δgr750は、標準照明に適したゲイン群gr1,…,gr750を、個々の照明種類に適したゲイン群gr1’,…,gr750’に調整するためのデータ群である。 As shown in FIG. 6 (b), the look-up table T C includes a variety of lighting types, their illumination each type of adjustment data group Delta] g is suitable for r1, ..., one-dimensional stored in association with each other and Delta] g R750 Lookup table. The adjustment data group Delta] g r1, ..., Delta] g R750 is gain group g r1 suitable standard illumination, ..., the g R750, the gain group g r1 appropriate to the particular kind of lighting ', ..., g R750' is adjusted to It is a data group for.

なお、ここではgri’=gri−Δgriの関係がすべてのiに関して満たされるものとする。よって、「蛍光灯」に対応する調整データ群Δgr1,…,Δgr750はゼロとなる。また、「人口太陽光」や「ハロゲンランプ」や「ストロボ光」などに対応する調整データ群Δgr1,…,Δgr750は、「水銀ランプ」、「ナトリウムランプ」などに対応する調整データ群Δgr1,…,Δgr750よりも大きくなる。 Here, it is assumed that the relationship g ri ′ = g ri −Δg ri is satisfied for all i. Therefore, the adjustment data group Δg r1 ,..., Δg r750 corresponding to the “fluorescent lamp” is zero. Further, an adjustment data group Δg r1 ,..., Δg r750 corresponding to “ synthetic sunlight”, “halogen lamp”, “strobe light”, etc. is an adjustment data group Δg corresponding to “mercury lamp”, “sodium lamp”, etc. r1 ,..., Δg r750 is larger.

図6(c)に示すとおり、ルックアップテーブルTBは、F値及びEPDの様々な組み合わせと、それら組み合わせの各々に適したゲイン群gb1,…,gb750とを互いに対応づけて格納した二次元ルックアップテーブルである。 As shown in FIG. 6 (c), the look-up table T B includes various combinations of F values and EPD, combinations thereof each gain groups suitable for g b1, ..., stored in association with the g B750 mutually It is a two-dimensional lookup table.

そして、本実施形態のCPU29は、ステップS108において次の(1)〜(5)のとおり動作する。   Then, the CPU 29 of this embodiment operates as follows (1) to (5) in step S108.

(1)CPU29は、最新のF値と、最新のEPDとを図6(a)に示したルックアップテーブルTRへ入力することによりゲイン群gr1,…,gr750を取得する。 (1) CPU 29 includes the latest F value, the gain group g r1 by inputting to the look-up table T R showing the latest EPD in FIG 6 (a), ..., acquires g R750.

(2)CPU29は、ステップS104で判定した照明種類を図6(b)に示したルックアップテーブルTCへ入力することにより調整データ群Δgr1,…,Δgr750を取得する。但し、ステップS107における撮影がストロボ撮影であった場合、CPU29は、ルックアップテーブルTRへ入力する照明種類を、ステップS104で判定した照明種類に拘わらず「ストロボ光」とする。 (2) CPU 29, the adjustment data group Delta] g r1 by inputting the lighting type determined in step S104 to the look-up table T C shown in FIG. 6 (b), ..., acquires Delta] g R750. However, when the object in step S107 was flash photography, CPU 29 is an illumination type to be input to the look-up table T R, regardless of the illumination type determined in step S104 that the "strobe light".

(3)CPU29は、ゲイン群gr1,…,gr750の各々から調整データ群Δgr1,…,Δgr750を差し引くことにより、現在の照明種類に適したゲイン群gr1’,…,gr750’を取得する。 (3) CPU 29 may gain group g r1, ..., adjustment from each data group Delta] g r1 of g R750, ..., by subtracting Delta] g R750, the gain group g r1 suitable for the current illumination type ', ..., g R750 'Get.

(4)CPU29は、最新のF値と、最新のEPDとを図6(c)に示したルックアップテーブルTBへ入力することによりゲイン群gb1,…,gb750を取得する。 (4) CPU 29 is the latest F value, the gain group g b1 by inputting to the look-up table T B showing the latest EPD in FIG 6 (c), ..., acquires g B750.

(5)CPU29は、取得したゲイン群gr1’,・・・,gr750’,gb1,…,gb750を、色シェーディング補正部23aへ設定する。 (5) The CPU 29 sets the acquired gain groups g r1 ′,..., G r750 ′, g b1 , ..., g b750 in the color shading correction unit 23a.

つまり、本実施形態の電子カメラは、三次元のルックアップテーブルを使用する代わりに、二次元のルックアップテーブルと一次元のルックアップテーブルとを組み合わせて使用する。したがって、ROM27に予め格納すべき情報の情報量は、第1実施形態のそれよりも抑えられる。   That is, the electronic camera of this embodiment uses a combination of a two-dimensional lookup table and a one-dimensional lookup table instead of using a three-dimensional lookup table. Therefore, the amount of information to be stored in advance in the ROM 27 is suppressed more than that in the first embodiment.

[その他]
なお、第2実施形態では、R信号に関する2つのルックアップテーブルを、標準照明に適したゲイン群を算出するための二次元ルックアップテーブル(図6(a))と、そのゲイン群を現在の照明種類に適したゲイン群に調整するための一次元ルックアップテーブル(図6(b))との組み合わせとしたが、次の(A),(B)の何れかの組み合わせに代えてもよい。
[Others]
In the second embodiment, two look-up tables related to the R signal are converted into a two-dimensional look-up table (FIG. 6A) for calculating a gain group suitable for standard illumination, and the gain group is compared with the current gain group. Although the combination with a one-dimensional lookup table (FIG. 6B) for adjusting to a gain group suitable for the illumination type is used, the combination may be any of the following combinations (A) and (B). .

(A)標準F値に適したゲイン群を算出するための二次元ルックアップテーブルと、そのゲイン群を現在のF値に適したゲイン群に調整するための一次元ルックアップテーブルとの組み合わせ。なお、その場合、二次元ルックアップテーブルに入力される情報は、EPD及び照明種類であり、一次元ルックアップテーブルに入力される情報は、F値である。   (A) A combination of a two-dimensional lookup table for calculating a gain group suitable for the standard F value and a one-dimensional lookup table for adjusting the gain group to a gain group suitable for the current F value. In this case, information input to the two-dimensional lookup table is EPD and illumination type, and information input to the one-dimensional lookup table is an F value.

(B)標準EPDに適したゲイン群を算出するための二次元ルックアップテーブルと、そのゲイン群を現在のEPDに適したゲイン群に調整するための一次元ルックアップテーブルとの組み合わせ。なお、その場合、二次元ルックアップテーブルに入力される情報は、F値及び照明種類であり、一次元ルックアップテーブルに入力される情報は、EPDである。   (B) A combination of a two-dimensional lookup table for calculating a gain group suitable for standard EPD and a one-dimensional lookup table for adjusting the gain group to a gain group suitable for the current EPD. In this case, information input to the two-dimensional lookup table is the F value and the illumination type, and information input to the one-dimensional lookup table is EPD.

また、上記した何れかの実施形態では、ルックアップテーブルに格納される情報を、全てのブロックに関する情報としたが、一部のブロックに関する情報のみに制限してルックアップテーブルの情報量を低減してもよい。色シェーディング補正の補正量は主に像高に依存するので、画像を上下左右に4分割してできる1つの領域内の各ブロックに関する情報のみに制限してもよい。その場合、CPU29は、それらブロックに関する情報から他のブロックの情報を演算によって取得すればよい。但し、撮影後の画像処理を高速化するためには、前記した何れかの実施形態のように全ブロックに関する情報をルックアップテーブルに格納することが望ましい。   In any of the above-described embodiments, the information stored in the lookup table is information on all blocks. However, the information amount of the lookup table is reduced by limiting the information to only some blocks. May be. Since the correction amount of color shading correction mainly depends on the image height, it may be limited to only information relating to each block in one area formed by dividing the image into four parts vertically and horizontally. In that case, CPU29 should just acquire the information of another block from the information regarding those blocks by calculation. However, in order to speed up image processing after shooting, it is desirable to store information on all blocks in the lookup table as in any of the embodiments described above.

また、上記した何れかの実施形態では、照明種類の判定結果がレリーズボタンの半押し期間中に保持されたが、照明種類の判定がレリーズボタンの半押し期間に繰り返し行われ、判定結果がその都度更新されることとしてもよい。   Further, in any of the embodiments described above, the illumination type determination result is held during the half-press period of the release button, but the illumination type determination is repeatedly performed during the half-press period of the release button, and the determination result is It may be updated each time.

また、上記した何れかの実施形態では、電子カメラの記録モードが通常記録モードである場合を想定したので、画像処理後の画像データを保存したが、RAW記録モードであった場合、CPU29は、判定した照明種類のデータを付帯情報として本画像のRAWデータと共に記憶媒体32へ記録すればよい。その後、RAWデータの現像処理を行う際に、CPU29が記憶媒体32からRAWデータを読み込み、上述したステップS108以降を実行すればよい。   In any of the above-described embodiments, since it is assumed that the recording mode of the electronic camera is the normal recording mode, the image data after the image processing is stored. However, in the RAW recording mode, the CPU 29 The determined illumination type data may be recorded in the storage medium 32 together with the RAW data of the main image as supplementary information. Thereafter, when performing development processing of RAW data, the CPU 29 may read the RAW data from the storage medium 32 and execute the above-described step S108 and subsequent steps.

また、上記した何れかの実施形態では、色シェーディング補正の補正量の算出処理を電子カメラが実行したが、それら処理の一部又は全部をコンピュータに実行させてもよい。その場合、処理に必要なプログラムがコンピュータへインストールされる。そのインストールは、CD−ROMなどの記憶媒体やインターネットなどを介して行われる。   In any of the above-described embodiments, the electronic camera executes the correction processing for the color shading correction, but the computer may execute part or all of the processing. In that case, a program necessary for processing is installed in the computer. The installation is performed via a storage medium such as a CD-ROM or the Internet.

電子カメラの構成を示す模式図である。It is a schematic diagram which shows the structure of an electronic camera. 電子カメラの回路構成を示すブロック図である。It is a block diagram which shows the circuit structure of an electronic camera. 第1実施形態で使用されるルックアップテーブルを説明する図である。It is a figure explaining the look-up table used in 1st Embodiment. 照明種類と色シェーディングとの関係を説明する概念図である。It is a conceptual diagram explaining the relationship between illumination kind and color shading. 撮影に関するCPUの動作フローチャートである。It is an operation | movement flowchart of CPU regarding imaging | photography. 第2実施形態で使用されるルックアップテーブルを説明する図である。It is a figure explaining the lookup table used by 2nd Embodiment.

符号の説明Explanation of symbols

11…カメラ本体,16…カラー撮像素子,16a…AFE,22…分割測光センサ,22a…A/D変換回路,23…画像処理回路,24…バッファメモリ,25…記録インタフェース,26…操作スイッチ,29…CPU,28…RAM,27…ROM,31…バス
DESCRIPTION OF SYMBOLS 11 ... Camera body, 16 ... Color imaging device, 16a ... AFE, 22 ... Divided photometry sensor, 22a ... A / D conversion circuit, 23 ... Image processing circuit, 24 ... Buffer memory, 25 ... Recording interface, 26 ... Operation switch, 29 ... CPU, 28 ... RAM, 27 ... ROM, 31 ... Bus

Claims (4)

撮影レンズが形成する被写界の像を撮像して保存用の画像を生成する第1のカラー撮像素子と、
前記第1のカラー撮像素子とは別に設けられ、前記被写界の色分布を検出する第2のカラー撮像素子と、
前記第2のカラー撮像素子が検出した色分布に基づき前記被写界を照明する照明光の種類を判定する判定手段と、
前記第1のカラー撮像素子が生成した画像に施すべき色シェーディング補正の補正量を前記判定手段が判定した種類に応じて設定する設定手段と
を備えたことを特徴とするカラー撮像装置。
A first color imaging device that captures an image of a field formed by the photographing lens and generates an image for storage;
A second color image sensor provided separately from the first color image sensor and detecting a color distribution of the object scene;
Determination means for determining the type of illumination light that illuminates the object scene based on the color distribution detected by the second color image sensor;
A color imaging apparatus comprising: setting means for setting a correction amount of color shading correction to be applied to an image generated by the first color imaging element according to the type determined by the determination means.
請求項1に記載のカラー撮像装置において、
前記設定手段は、
前記判定手段が判定した種類と、前記撮影レンズのF値と、前記撮影レンズの開口絞りの位置とに基づき前記補正量の設定を行う
ことを特徴とするカラー撮像装置。
The color imaging device according to claim 1,
The setting means includes
The color imaging apparatus, wherein the correction amount is set based on a type determined by the determination unit, an F value of the photographing lens, and an aperture stop position of the photographing lens.
請求項1又は請求項2に記載のカラー撮像装置において、
前記設定手段が設定した補正量で前記第1のカラー撮像素子が生成した画像へ色シェーディング補正を施す補正手段を更に備えた
ことを特徴とするカラー撮像装置。
In the color imaging device according to claim 1 or 2,
A color imaging apparatus, further comprising: correction means for performing color shading correction on an image generated by the first color imaging device with a correction amount set by the setting means.
請求項1又は請求項2に記載のカラー撮像装置において、
前記設定手段が設定した補正量を前記第1のカラー撮像素子が生成した画像と共に保存する記録手段を更に備えた
ことを特徴とするカラー撮像装置。
In the color imaging device according to claim 1 or 2,
A color imaging apparatus, further comprising: a recording unit that stores the correction amount set by the setting unit together with the image generated by the first color imaging element.
JP2007253760A 2007-09-28 2007-09-28 Color imaging device Withdrawn JP2009088800A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007253760A JP2009088800A (en) 2007-09-28 2007-09-28 Color imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007253760A JP2009088800A (en) 2007-09-28 2007-09-28 Color imaging device

Publications (1)

Publication Number Publication Date
JP2009088800A true JP2009088800A (en) 2009-04-23

Family

ID=40661662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007253760A Withdrawn JP2009088800A (en) 2007-09-28 2007-09-28 Color imaging device

Country Status (1)

Country Link
JP (1) JP2009088800A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266736A (en) * 2009-05-15 2010-11-25 Canon Inc Focus detecting device
JP2011041056A (en) * 2009-08-12 2011-02-24 Samsung Techwin Co Ltd Imaging apparatus and imaging method
JP2011061659A (en) * 2009-09-14 2011-03-24 Nikon Corp Imaging apparatus
KR20150029590A (en) * 2013-09-09 2015-03-18 미디어텍 싱가폴 피티이. 엘티디. Method and associated apparatus for correcting color artifact of image
JP2020025171A (en) * 2018-08-06 2020-02-13 キヤノン株式会社 Imaging device, control method thereof, and imaging device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010266736A (en) * 2009-05-15 2010-11-25 Canon Inc Focus detecting device
JP2011041056A (en) * 2009-08-12 2011-02-24 Samsung Techwin Co Ltd Imaging apparatus and imaging method
JP2011061659A (en) * 2009-09-14 2011-03-24 Nikon Corp Imaging apparatus
KR20150029590A (en) * 2013-09-09 2015-03-18 미디어텍 싱가폴 피티이. 엘티디. Method and associated apparatus for correcting color artifact of image
JP2015053057A (en) * 2013-09-09 2015-03-19 メディアテック シンガポール ピーティーイー エルティーディー Method and associated apparatus for correcting color artifact of image
US9443322B2 (en) 2013-09-09 2016-09-13 Mediatek Singapore Pte. Ltd. Method and associated apparatus for correcting color artifact of image
KR101663871B1 (en) 2013-09-09 2016-10-07 미디어텍 싱가폴 피티이. 엘티디. Method and associated apparatus for correcting color artifact of image
JP2020025171A (en) * 2018-08-06 2020-02-13 キヤノン株式会社 Imaging device, control method thereof, and imaging device
JP7116620B2 (en) 2018-08-06 2022-08-10 キヤノン株式会社 Imaging element and imaging device

Similar Documents

Publication Publication Date Title
US20050212950A1 (en) Focal length detecting method, focusing device, image capturing method and image capturing apparatus
US20050099522A1 (en) Variable length encoding method and variable length decoding method
JP2008187615A (en) Imaging device, imaging apparatus, control method, and program
JP5092612B2 (en) Color imaging device
JP2010034717A (en) Digital still camera and method of controlling same
JP2009004895A (en) Imaging apparatus, image processor, and program
JP2009088800A (en) Color imaging device
JP2011069893A (en) Illuminator and camera system
JP6336337B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP4931250B2 (en) Imaging apparatus and control method
JP2014222899A (en) Imaging apparatus and control method thereof
JP5794665B2 (en) Imaging device
JP2004004449A (en) Exposure control system for camera
JP2010192991A (en) Imaging apparatus, control method and program
JP5430125B2 (en) Imaging apparatus, strobe system, and light emission control method
US7558474B2 (en) Imaging device
CN109387992B (en) Image pickup apparatus capable of sufficiently ensuring light emission accuracy and control method thereof
JP2003222787A (en) Digital camera
JP4995133B2 (en) Imaging apparatus and control method
US12069378B2 (en) Image capturing apparatus and control method thereof and storage medium
JP7158880B2 (en) IMAGING DEVICE, CONTROL METHOD THEREOF, AND CONTROL PROGRAM
JP6725030B2 (en) Imaging device
JP2012151597A (en) Camera and camera system
JP2002116370A (en) Image pickup device, focus control device, electronic camera and focusing method
JP2011114442A (en) Electronic camera

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101207