JP2007027943A - Imaging apparatus, program and method for processing shading - Google Patents

Imaging apparatus, program and method for processing shading Download PDF

Info

Publication number
JP2007027943A
JP2007027943A JP2005204135A JP2005204135A JP2007027943A JP 2007027943 A JP2007027943 A JP 2007027943A JP 2005204135 A JP2005204135 A JP 2005204135A JP 2005204135 A JP2005204135 A JP 2005204135A JP 2007027943 A JP2007027943 A JP 2007027943A
Authority
JP
Japan
Prior art keywords
image
shading
imaging device
correction amount
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005204135A
Other languages
Japanese (ja)
Inventor
Motoyuki Yamaguchi
基志 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005204135A priority Critical patent/JP2007027943A/en
Publication of JP2007027943A publication Critical patent/JP2007027943A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To deal with shading appropriately by judging whether a scene is susceptible to shading or not precisely. <P>SOLUTION: Out of 256 blocks obtained by dividing a pixel acquired by an imaging element into sixteen in the longitudinal/lateral direction, 156 blocks on the periphery of an image is used for counting the number of blocks of sky blue sky_num. After setting an exposure correction value D_BV_SKY depending on the number of blocks of sky blue sky_num, that exposure correction value is reflected on exposure setting during exposure. Since exposure correction is performed, based on the rate of sky blue region detected from the periphery of an image, one scene susceptible to shading, i.e. a scene where the sky is reflected on the greater part of an image, can be judged precisely and reduction in shading can be dealt with appropriately. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、被写体に係る画像を取得する撮像装置の技術に関する。   The present invention relates to a technique of an imaging apparatus that acquires an image related to a subject.

デジタルカメラ(撮像装置)等で撮影された画像に対する画像処理については、画像中央部の測光情報や測色情報に基づくヒストグラム等によって撮影シーンを判定し、その撮影シーンに応じたシェーディング補正を施こす技術が知られている(例えば特許文献1)。   For image processing on images taken with a digital camera (imaging device), etc., the shooting scene is determined by a histogram based on photometric information and colorimetric information at the center of the image, and shading correction is applied according to the shooting scene. A technique is known (for example, Patent Document 1).

特開2004−88408号公報JP 2004-88408 A

しかしながら、上記の特許文献1の技術では、画像中央部における測光・測色情報により撮影シーンを判定するが、画像中央部のみの情報から本当にシェーディングの影響を受けやすいシーンか否かの判定を精度良く行えるとは限らない。これでは、シェーディングに関する適切な対応が困難である。   However, in the technique of the above-described Patent Document 1, a shooting scene is determined based on photometric / colorimetric information at the center of the image, but it is accurate to determine whether the scene is really susceptible to shading from information only at the center of the image. Not always good. This makes it difficult to appropriately deal with shading.

また、公知技術である従来のシェーディング補正では、LUT等により画像周辺部のゲインを強制的に上げているため周辺部に斑点のような色ノイズが現れるような場合もあった。   Further, in the conventional shading correction which is a known technique, the gain at the peripheral portion of the image is forcibly increased by an LUT or the like, and color noise such as spots may appear in the peripheral portion.

本発明は、上記課題に鑑みてなされたものであり、シェーディングの影響を受けやすいシーンか否かを精度良く判定して適切な対応を行える撮像装置の技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique for an imaging apparatus that can accurately determine whether a scene is easily affected by shading and perform an appropriate response.

上記の課題を解決するため、請求項1の発明は、撮像装置であって、(a)被写体に係る画像を取得する撮像手段と、(b)前記画像を複数の領域に分割する分割手段と、(c)前記複数の領域それぞれに関する測光情報および/または測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知手段と、(d)前記シェーディングの影響度に応じた露出制御および/または画像処理を行う手段とを備え、前記画像処理は、前記画像に係る画素位置によらない処理である。   In order to solve the above-described problems, the invention of claim 1 is an imaging apparatus, wherein (a) an imaging unit that acquires an image relating to a subject, and (b) a dividing unit that divides the image into a plurality of regions. (C) based on photometric information and / or colorimetric information relating to each of the plurality of regions, detection means for detecting the degree of shading related to the image, and (d) exposure control according to the degree of influence of the shading, and And / or means for performing image processing, and the image processing is processing that does not depend on pixel positions related to the image.

また、請求項2の発明は、撮像装置であって、(a)被写体に係る画像を取得する撮像手段と、(b)前記画像を複数の領域に分割する分割手段と、(c)前記複数の領域それぞれに関する測光情報を取得する測光手段と、(d)前記複数の領域それぞれに関する測色情報を取得する測色手段と、(e)前記測光情報および/または前記測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知手段と、(f)前記シェーディングの影響度に応じた補正量を算出する補正量算出手段と、(g)前記補正量に基づく露出制御および/または画像処理を行う手段とを備え、前記画像処理は、前記画像に係る画素位置によらない処理である。   The invention of claim 2 is an imaging apparatus, wherein (a) an imaging means for acquiring an image relating to a subject, (b) a dividing means for dividing the image into a plurality of regions, and (c) the plurality of the plurality of areas. A photometric means for obtaining photometric information relating to each of the areas; (d) a colorimetric means for obtaining colorimetric information relating to each of the plurality of areas; and (e) the photometric information and / or the colorimetric information, Detection means for detecting the degree of shading related to the image; (f) correction amount calculation means for calculating a correction amount according to the degree of influence of shading; and (g) exposure control and / or image based on the correction amount. Means for performing processing, and the image processing is processing independent of a pixel position related to the image.

また、請求項3の発明は、請求項1または請求項2の発明に係る撮像装置において、前記測色情報は、YCrCbに関する色差の情報である。   According to a third aspect of the present invention, in the imaging apparatus according to the first or second aspect of the present invention, the colorimetric information is color difference information relating to YCrCb.

また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る撮像装置において、前記検知手段は、前記画像の周辺部に占める空色領域に基づき、前記シェーディングの影響度を検知する手段を有する。   According to a fourth aspect of the present invention, in the imaging apparatus according to any one of the first to third aspects of the present invention, the detection means determines the degree of influence of the shading based on a sky blue region that occupies the periphery of the image. It has a means to detect.

また、請求項5の発明は、請求項1ないし請求項4のいずれかの発明に係る撮像装置において、前記検知手段は、前記画像の周辺部に占める高輝度の白色領域に基づき、前記シェーディングの影響度を検知する手段を有する。   According to a fifth aspect of the present invention, in the imaging apparatus according to any one of the first to fourth aspects, the detection unit is configured to perform the shading based on a high-luminance white region occupying a peripheral portion of the image. Means for detecting the degree of influence.

また、請求項6の発明は、請求項1ないし請求項5のいずれかの発明に係る撮像装置において、前記検知手段は、前記画像の周辺部に占める特定の領域に基づき、前記シェーディングの影響度を検知する手段を有し、前記特定の領域は、特定色に関する近傍色の領域である。   According to a sixth aspect of the present invention, in the imaging apparatus according to any one of the first to fifth aspects of the present invention, the detection means is based on a specific area occupying the periphery of the image, and the degree of influence of the shading. The specific area is an area of a neighboring color related to the specific color.

また、請求項7の発明は、請求項1ないし請求項6のいずれかの発明に係る撮像装置において、前記検知手段は、前記複数の領域それぞれの測光情報から得られる画像全体での最大輝度と最小輝度との差に基づき、前記シェーディングの影響度を検知する手段を有する。   According to a seventh aspect of the present invention, in the imaging apparatus according to any one of the first to sixth aspects, the detection means has a maximum luminance in the entire image obtained from photometric information of each of the plurality of regions. Means for detecting the degree of influence of the shading based on the difference from the minimum luminance.

また、請求項8の発明は、請求項2の発明に係る撮像装置において、前記露出制御では、前記補正量に応じた露出補正が行われる。   According to an eighth aspect of the present invention, in the imaging apparatus according to the second aspect of the present invention, in the exposure control, exposure correction is performed according to the correction amount.

また、請求項9の発明は、請求項2の発明に係る撮像装置において、前記露出制御では、前記補正量に応じて、絞り値を絞り込み側に設定する補正が行われる。   According to a ninth aspect of the present invention, in the image pickup apparatus according to the second aspect of the present invention, in the exposure control, a correction for setting an aperture value to a narrowing side is performed according to the correction amount.

また、請求項10の発明は、請求項2の発明に係る撮像装置において、(h)前記補正量に基づき、複数のトーンカーブから1のトーンカーブを選択する選択手段をさらに備え、前記画像処理は、前記選択手段で選択される1のトーンカーブを用いた画像処理である。   The invention according to claim 10 is the imaging apparatus according to claim 2, further comprising: (h) selection means for selecting one tone curve from a plurality of tone curves based on the correction amount; Is image processing using one tone curve selected by the selection means.

また、請求項11の発明は、請求項2の発明に係る撮像装置において、前記補正量算出手段は、(f-1)撮影レンズの焦点距離に応じて前記補正量を調整する調整手段を有する。   According to an eleventh aspect of the present invention, in the imaging apparatus according to the second aspect of the invention, the correction amount calculating means includes (f-1) an adjusting means for adjusting the correction amount in accordance with a focal length of the photographing lens. .

また、請求項12の発明は、撮像装置に内蔵されたコンピュータにおいて実行されることにより、当該撮像装置を請求項1ないし請求項11のいずれかの発明に係る撮像装置として機能させるプログラムである。   A twelfth aspect of the invention is a program for causing an imaging device to function as the imaging device according to any one of the first to eleventh aspects of the invention when executed by a computer built in the imaging device.

また、請求項13の発明は、シェーディングに関する処理を行う方法であって、被写体に係る画像を取得する撮像工程と、前記画像を複数の領域に分割する分割工程と、前記複数の領域それぞれに関する測光情報を生成する測光工程と、前記複数の領域それぞれに関する測色情報を生成する測色工程と、前記測光情報および/または前記測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知工程と、前記シェーディングの影響度に応じた補正量を算出する補正量算出工程と、前記補正量に基づく露出制御および/または画像処理を行う処理工程とを備え、前記画像処理は、前記画像に係る画素位置によらない処理である。   The invention of claim 13 is a method for performing processing relating to shading, wherein an imaging step for acquiring an image relating to a subject, a division step for dividing the image into a plurality of regions, and photometry for each of the plurality of regions. A photometric step for generating information, a colorimetric step for generating colorimetric information for each of the plurality of regions, and a detection for detecting an influence of shading on the image based on the photometric information and / or the colorimetric information. A correction amount calculation step of calculating a correction amount according to the degree of influence of the shading, and a processing step of performing exposure control and / or image processing based on the correction amount, wherein the image processing is performed on the image. This process is independent of the pixel position.

請求項1ないし請求項13の発明によれば、撮像手段で取得される画像を分割した複数の領域それぞれに関する測光情報および/または測色情報に基づき、画像に係るシェーディングの影響度を検知し、シェーディングの影響度に応じた露出制御および/または画像の画素位置によらない画像処理を行う。その結果、シェーディングの影響を受けやすいシーンか否かを精度良く判定して適切な対応を行える。   According to the first to thirteenth aspects of the present invention, based on photometric information and / or colorimetric information regarding each of a plurality of regions obtained by dividing the image acquired by the imaging unit, the degree of shading related to the image is detected, Exposure control according to the degree of influence of shading and / or image processing independent of the pixel position of the image is performed. As a result, it is possible to accurately determine whether or not the scene is easily affected by shading and perform an appropriate response.

特に、請求項3の発明においては、測色情報がYCrCbに関する色差の情報であるため、演算負担を軽減して測色情報を迅速に取得できる。   In particular, in the invention of claim 3, since the colorimetric information is color difference information regarding YCrCb, it is possible to quickly obtain the colorimetric information while reducing the calculation burden.

また、請求項4の発明においては、画像の周辺部に占める空色領域に基づきシェーディングの影響度を検知するため、シェーディングの影響を受けやすい、例えば青空が多く含まれるシーンを精度良く判定できる。   In the invention of claim 4, since the influence degree of shading is detected based on the sky blue area in the peripheral portion of the image, it is possible to accurately determine a scene that is easily affected by shading, for example, contains a lot of blue sky.

また、請求項5の発明においては、画像の周辺部に占める高輝度の白色領域に基づきシェーディングの影響度を検知するため、シェーディングの影響を受けやすい、例えば雪景色が多く含まれるシーンを精度良く判定できる。   In the invention of claim 5, since the degree of influence of shading is detected based on a high-luminance white area occupying the peripheral portion of the image, a scene that is easily affected by shading, for example, a lot of snow scenes is accurately detected. Can be judged.

また、請求項6の発明においては、画像の周辺部に占める、特定色に関する近傍色の領域に基づきシェーディングの影響度を検知するため、シェーディングの影響を受けやすい、色のばらつきが少ないシーンを精度良く判定できる。   In the invention of claim 6, since the influence degree of the shading is detected based on the neighboring color region relating to the specific color in the peripheral portion of the image, a scene that is easily affected by the shading and has little color variation is accurately detected. Can judge well.

また、請求項7の発明においては、複数の領域それぞれの測光情報から得られる画像全体での最大輝度と最小輝度との差に基づきシェーディングの影響度を検知するため、シェーディングの影響を受けやすい低コントラストのシーンを精度良く判定できる。   In the invention of claim 7, since the degree of influence of shading is detected based on the difference between the maximum luminance and the minimum luminance in the entire image obtained from the photometric information of each of the plurality of areas, the low sensitivity to the influence of shading is low. Contrast scenes can be accurately determined.

また、請求項8の発明においては、露出制御では補正量に応じた露出補正が行われるため、画像処理によらずにシェーディングの影響を低減できる。   In the eighth aspect of the invention, since exposure correction is performed according to the correction amount in exposure control, the influence of shading can be reduced regardless of image processing.

また、請求項9の発明においては、露出制御では補正量に応じて絞り値を絞り込み側に設定する補正が行われるため、画像処理によらずにシェーディングの影響を低減できる。   In the invention of claim 9, since exposure control performs correction for setting the aperture value to the aperture side in accordance with the correction amount, the influence of shading can be reduced regardless of image processing.

また、請求項10の発明においては、画像処理は補正量に基づき複数のトーンカーブから選択される1のトーンカーブを用いた画像処理であるため、迅速にシェーディングの影響を低減できる。   In the invention of claim 10, since the image processing is image processing using one tone curve selected from a plurality of tone curves based on the correction amount, the influence of shading can be quickly reduced.

また、請求項11の発明においては、撮影レンズの焦点距離に応じて補正量を調整するため、シェーディングの影響を適切に低減できる。   In the invention of claim 11, since the correction amount is adjusted according to the focal length of the photographing lens, the influence of shading can be reduced appropriately.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<撮像装置1の構成>
図1〜図3は、本発明の実施形態に係る撮像装置1の外観の概略構成を示す図である。図1は撮像装置1の平面図、図2は図1のII−II位置から見た断面図、図3は撮像装置1の背面図に相当する。
<Configuration of Imaging Device 1>
1 to 3 are diagrams illustrating a schematic configuration of an external appearance of an imaging apparatus 1 according to an embodiment of the present invention. 1 is a plan view of the image pickup apparatus 1, FIG. 2 is a cross-sectional view taken from the position II-II in FIG. 1, and FIG.

撮像装置1は、例えばデジタルカメラとして構成されており、略直方体状をしているカメラ本体部2と、カメラ本体部2に着脱可能に装着される撮影レンズ3とを備えている。図1に示すように、撮像装置1は撮影画像を記録するメモリカード8が着脱可能に収納されるようになっている。また、撮像装置1は、4本の単三形乾電池E1〜E4を直列接続する電源電池Eを駆動源としている。   The imaging device 1 is configured as a digital camera, for example, and includes a camera body 2 that has a substantially rectangular parallelepiped shape and a photographing lens 3 that is detachably attached to the camera body 2. As shown in FIG. 1, the imaging apparatus 1 is configured so that a memory card 8 for recording a captured image is detachably accommodated. In addition, the imaging device 1 uses a power supply battery E that connects four AA batteries E1 to E4 in series as a drive source.

図2に示すように、ズームレンズである撮影レンズ3はレンズ群30を備えている。ここでは、撮影レンズ3として2群ズームレンズを示しており、レンズ群30は、大きく2つのレンズ群300,301に分類される。なお、図2および図3においては、図示の都合上、レンズ群300,301をそれぞれ一枚のレンズとして示している。ただし、実際には各レンズ群300,301は、一枚のレンズに限定されず、複数枚のレンズの集合体として構成されていても良い。   As shown in FIG. 2, the photographing lens 3 that is a zoom lens includes a lens group 30. Here, a two-group zoom lens is shown as the photographing lens 3, and the lens group 30 is roughly classified into two lens groups 300 and 301. 2 and 3, each of the lens groups 300 and 301 is shown as a single lens for convenience of illustration. However, actually, each lens group 300, 301 is not limited to a single lens, and may be configured as an aggregate of a plurality of lenses.

一方、カメラ本体部2の内部には、レンズ群300を駆動するためのモータM1、およびレンズ群301を駆動するモータM2が設けられている。これらのモータM1,M2を制御することにより、撮影レンズ3のズーム倍率を変更すること、および撮影レンズ3の合焦状態を変更すること(すなわちフォーカス動作)を行うことが可能である。   On the other hand, a motor M1 for driving the lens group 300 and a motor M2 for driving the lens group 301 are provided inside the camera body 2. By controlling these motors M1 and M2, it is possible to change the zoom magnification of the photographic lens 3 and change the focus state of the photographic lens 3 (that is, the focus operation).

また、撮影レンズ3のレンズ群30の後方位置の適所に、被写体に係る画像を取得するカラー撮像素子303が設けられている。カラー撮像素子303は、CCDからなるエリアセンサの各画素の表面に、R(赤)、G(緑)、B(青)のカラーフィルタが市松模様状に貼り付けられた単板式カラーエリアセンサで構成される。   In addition, a color image sensor 303 that acquires an image related to the subject is provided at an appropriate position behind the lens group 30 of the photographic lens 3. The color image sensor 303 is a single-plate color area sensor in which R (red), G (green), and B (blue) color filters are attached in a checkered pattern on the surface of each pixel of an area sensor composed of a CCD. Composed.

カメラ本体部2の前面には、図1のようにグリップ部Gが設けられ、カメラ本体部2の上端点の適所にポップアップ形式の内蔵フラッシュ5が設けられている。また、図3の如く、カメラ本体部2の上面にはシャッタボタン9が設けられている。このシャッタボタン9については、フォーカス調整用などのトリガーとして用いる半押し状態(S1)と、記録用撮影(本撮影)のトリガーとして用いる全押し状態(S2)とを検出し、判別する機能を有してる。   As shown in FIG. 1, a grip part G is provided on the front surface of the camera body 2, and a pop-up built-in flash 5 is provided at an appropriate position at the upper end of the camera body 2. As shown in FIG. 3, a shutter button 9 is provided on the upper surface of the camera body 2. The shutter button 9 has a function of detecting and discriminating a half-pressed state (S1) used as a trigger for focus adjustment or the like and a full-pressed state (S2) used as a trigger for recording photographing (main photographing). I'm doing it.

一方、カメラ本体部2の背面には、電子ビューファインダ(以下、「EVF」)20と液晶ディスプレイ(以下、「LCD」)10とが設けられている。なお、光学ファインダーとは異なり、撮影待機状態においてCCD303からの画像信号のライブビュー表示を行うEVF20とLCD10とがファインダーとしての機能を担っている。   On the other hand, an electronic viewfinder (hereinafter “EVF”) 20 and a liquid crystal display (hereinafter “LCD”) 10 are provided on the back of the camera body 2. Unlike the optical viewfinder, the EVF 20 and the LCD 10 that perform live view display of the image signal from the CCD 303 in the shooting standby state serve as a viewfinder.

また、LCD10は記録モードにおいて撮影モードや撮影条件等を設定するためのメニュー画面を表示したり、再生モードにおいてメモリカード8に記録された撮影画像を再生表示することが可能である。   Further, the LCD 10 can display a menu screen for setting a shooting mode, shooting conditions, and the like in the recording mode, and can reproduce and display a captured image recorded in the memory card 8 in the reproduction mode.

カメラ本体部2の背面左方には、電源スイッチ14が設けられている。この電源スイッチ14は記録モード(写真撮影の機能を果たすモード)と再生モード(記録画像をLCD10に再生するモード)とを切換設定するモード設定スイッチを兼ねている。すなわち、電源スイッチ14は3点スライドスイッチからなり、接点を中央の「OFF」位置に設定すると電源がオフになり、接点を上方の「REC」位置に設定すると電源がオンになるとともに記録モードとして設定され、接点を下方の「PLAY」位置に設定すると電源がオンになるとともに再生モードとして設定される。   A power switch 14 is provided on the rear left side of the camera body 2. The power switch 14 also serves as a mode setting switch for switching between a recording mode (a mode for performing a photography function) and a reproduction mode (a mode for reproducing a recorded image on the LCD 10). That is, the power switch 14 is a three-point slide switch. When the contact is set to the center “OFF” position, the power is turned off. When the contact is set to the upper “REC” position, the power is turned on and the recording mode is set. When the contact is set to the lower “PLAY” position, the power is turned on and the playback mode is set.

カメラ本体部2の背面右方には、4連スイッチ15が設けられている。4連スイッチ15は円形の操作ボタンを有し、この操作ボタンにおける上下左右の4方向のボタンSU、SD、SL、SRを押下することによって各種操作を行うことが可能となっている。例えば、LCD10に表示されるメニュー画面で選択された項目を変更したり、インデックス画面で選択された再生対象のコマを変更するためのスイッチとして機能する。また、記録モードにおいて左右方向のボタンSL,SRは、ズーム倍率を変更するためのスイッチとして機能する。具体的には、モータM1,M2の駆動により2つのレンズ群300,301の相対的な位置関係が変更されることによって、ズーム倍率が変更される。より詳細には、右方向スイッチSRを押下するとワイド側に連続的に移動し、左方向スイッチSLを押下するとテレ側に連続的に移動する。   A quadruple switch 15 is provided on the right side of the back surface of the camera body 2. The quadruple switch 15 has a circular operation button, and various operations can be performed by pressing buttons SU, SD, SL, and SR in four directions of up, down, left, and right in this operation button. For example, it functions as a switch for changing the item selected on the menu screen displayed on the LCD 10 or changing the frame to be reproduced selected on the index screen. In the recording mode, the left and right buttons SL and SR function as switches for changing the zoom magnification. Specifically, the zoom magnification is changed by changing the relative positional relationship between the two lens groups 300 and 301 by driving the motors M1 and M2. More specifically, when the right switch SR is pressed, the camera moves continuously to the wide side, and when the left switch SL is pressed, the camera moves continuously to the tele side.

また、4連スイッチ15の下方には、取消スイッチ33、実行スイッチ32、メニュー表示スイッチ34及びLCD表示スイッチ31等のスイッチ群16が設けられている。取消スイッチ33は、メニュー画面で選択された内容を取り消すためのスイッチである。実行スイッチ32は、メニュー画面で選択された内容を確定するまたは実行するためのスイッチである。メニュー表示スイッチ34は、LCD10にメニュー画面を表示させたり、メニュー画面の内容を切り換えたりするためのスイッチである。LCD表示スイッチ31は、LCD10の表示のオンオフ切り替えスイッチである。   A switch group 16 such as a cancel switch 33, an execution switch 32, a menu display switch 34, and an LCD display switch 31 is provided below the quadruple switch 15. The cancel switch 33 is a switch for canceling the content selected on the menu screen. The execution switch 32 is a switch for confirming or executing the content selected on the menu screen. The menu display switch 34 is a switch for displaying a menu screen on the LCD 10 and switching the contents of the menu screen. The LCD display switch 31 is an on / off switch for displaying on the LCD 10.

次に、撮像装置1の内部構成について説明する。図4は、撮像装置1の内部構成を示す概略ブロック図である。   Next, the internal configuration of the imaging apparatus 1 will be described. FIG. 4 is a schematic block diagram illustrating the internal configuration of the imaging apparatus 1.

撮影レンズ3は、レンズ群300,301とともに、内部に透過光量を調節するための絞り302を備えている。なお、図4においては、図示の都合上、絞り302がレンズ群301の後側に配置されるように示しているが、絞り302の配置はこのようなものに限定されない。たとえば、絞り302は、レンズ群301(ないし300)の内部に設けられていても良く、または、両レンズ群300,301の間に設けられていてもよい。   The taking lens 3 includes a lens group 300, 301 and a diaphragm 302 for adjusting the amount of transmitted light. In FIG. 4, for convenience of illustration, the diaphragm 302 is shown to be disposed on the rear side of the lens group 301, but the arrangement of the diaphragm 302 is not limited to this. For example, the diaphragm 302 may be provided inside the lens group 301 (or 300), or may be provided between both lens groups 300 and 301.

CCD303は、撮影レンズ3を通して入射された被写体からの光を所定の露光時間だけ受光して画像信号に光電変換して取り込む。CCD303は、光電変換後の画像信号を信号処理部120に出力する。このようにして、撮影光学系としての撮影レンズ3からの被写体像が画像として取得される。   The CCD 303 receives light from a subject incident through the photographing lens 3 for a predetermined exposure time, and photoelectrically converts it into an image signal and takes it in. The CCD 303 outputs the image signal after photoelectric conversion to the signal processing unit 120. In this way, the subject image from the photographing lens 3 as the photographing optical system is acquired as an image.

信号処理部120は、CCD303から出力される画像信号に所定のアナログ信号処理及びデジタル信号処理を行うものである。画像信号の信号処理は画像データを構成する各画素の受光信号毎に行われる。信号処理部120は、アナログ信号処理回路121、A/D変換回路122、シェーディング補正回路123、画像処理回路124、及び画像メモリ126を備えている。   The signal processing unit 120 performs predetermined analog signal processing and digital signal processing on the image signal output from the CCD 303. The signal processing of the image signal is performed for each light reception signal of each pixel constituting the image data. The signal processing unit 120 includes an analog signal processing circuit 121, an A / D conversion circuit 122, a shading correction circuit 123, an image processing circuit 124, and an image memory 126.

アナログ信号処理回路121はアナログ信号処理を行うものであり、主にCDS(相関二重サンプリング)回路及びAGC(オートゲインコントロール)回路からなり、CCD303から出力される画素信号のサンプリングノイズの低減と信号レベルの調整を行う。   The analog signal processing circuit 121 performs analog signal processing. The analog signal processing circuit 121 mainly includes a CDS (correlated double sampling) circuit and an AGC (auto gain control) circuit, and reduces the sampling noise of the pixel signal output from the CCD 303 and the signal. Adjust the level.

A/D変換回路122はアナログ信号処理回路121から出力されるアナログ信号である画素信号(画像信号)をデジタル信号である画素データ(画像データ)に変換するものである。A/D変換回路122は各画素で受光された画素信号を、例えば、12ビットのデジタル信号に変換し、0〜4095の階調値を有する画素データとする。変換後の画素データ(画像データ)は、画像メモリ126に一旦格納される。   The A / D conversion circuit 122 converts a pixel signal (image signal) that is an analog signal output from the analog signal processing circuit 121 into pixel data (image data) that is a digital signal. The A / D conversion circuit 122 converts the pixel signal received by each pixel into, for example, a 12-bit digital signal and sets it as pixel data having a gradation value of 0 to 4095. The converted pixel data (image data) is temporarily stored in the image memory 126.

シェーディング補正回路123は、A/D変換された画素データに対して、光学系によるシェーディング(画像周辺の光量低下)を補正するものである。具体的には、A/D変換回路122において変換された画像データと、画像周辺部のゲインが中央部より高く設定されるシェーディング補正係数との乗算処理を行って、シェーディング補正がなされる。   The shading correction circuit 123 corrects shading (a reduction in the amount of light around the image) by the optical system for the A / D converted pixel data. Specifically, the shading correction is performed by multiplying the image data converted by the A / D conversion circuit 122 and the shading correction coefficient in which the gain of the peripheral portion of the image is set higher than that of the central portion.

画像処理回路124は、WB(ホワイトバランス)回路、カラーバランス評価回路、画素補間回路、色補正回路、γ補正回路、色分解回路、空間フィルタ、解像度変換回路、圧縮伸長処理回路等を有している。このうち、WB回路は撮影画像のホワイトバランスを調整するものである。WB回路は、カラーバランス評価回路による撮影画像のカラーバランスに関する評価結果等を用いて、R,G,Bの各色成分の画素データのレベルを変換する。画素補間回路は、R,G,Bの3種類の色フィルタが分散配置されたベイヤー配列を有するCCD303において、各画素位置における3つの色成分R,G,Bのうち実際には存在しない2つの色成分を補間により求める回路であり、色補正回路は、フィルタの分光感度特性を補正する回路である。γ補正回路は画素データのγ特性を補正する回路であり、予め設定されたγ補正用テーブルを用いて各画素データのレベルを補正する。色分解回路は、(R,G,B)信号を(Y,Cr,Cb)信号に変換する回路である。この色分解処理は、マトリクス演算器を用いて行われる。空間フィルタはローパスフィルタおよびハイパスフィルタ等を用いてエッジ強調などの各種のフィルタ処理を行う回路である。解像度変換回路は所望の解像度に変換する回路であり、圧縮伸長処理回路はJPEG等の所定形式のデータへの圧縮処理、およびその逆の伸長処理を行う回路である。   The image processing circuit 124 includes a WB (white balance) circuit, a color balance evaluation circuit, a pixel interpolation circuit, a color correction circuit, a γ correction circuit, a color separation circuit, a spatial filter, a resolution conversion circuit, a compression / decompression processing circuit, and the like. Yes. Of these, the WB circuit is for adjusting the white balance of the photographed image. The WB circuit converts the level of the pixel data of each color component of R, G, and B using the evaluation result on the color balance of the photographed image by the color balance evaluation circuit. In the CCD 303 having a Bayer array in which three types of color filters of R, G, and B are dispersedly arranged, the pixel interpolating circuit includes two of the three color components R, G, and B that do not actually exist in each pixel position. The color component is obtained by interpolation, and the color correction circuit is a circuit that corrects the spectral sensitivity characteristic of the filter. The γ correction circuit is a circuit that corrects the γ characteristic of the pixel data, and corrects the level of each pixel data using a preset γ correction table. The color separation circuit is a circuit that converts (R, G, B) signals into (Y, Cr, Cb) signals. This color separation processing is performed using a matrix calculator. The spatial filter is a circuit that performs various types of filter processing such as edge enhancement using a low-pass filter and a high-pass filter. The resolution conversion circuit is a circuit that converts to a desired resolution, and the compression / decompression processing circuit is a circuit that performs compression processing to data of a predetermined format such as JPEG and vice versa.

画像メモリ126は画像データを一時保持するメモリである。画像処理回路124における各処理は、画像メモリ126に格納された画像データに対して施される。   The image memory 126 is a memory for temporarily storing image data. Each process in the image processing circuit 124 is performed on the image data stored in the image memory 126.

発光制御部102は、全体制御部150から入力される発光制御信号に基づいてフラッシュ5の発光を制御する。   The light emission control unit 102 controls the light emission of the flash 5 based on the light emission control signal input from the overall control unit 150.

レンズ制御部130は撮影レンズ3内のレンズ群300,301および絞り302の各部材の駆動を制御するものである。レンズ制御部130は、絞り302の絞り値を制御する絞り制御回路131と、モータM1,M2を駆動することによりズームの変倍率を変更するズーム制御回路132と、モータM1,M2を駆動することによりフォーカス制御を行うフォーカス制御回路133とを備えている。   The lens control unit 130 controls the driving of the lens groups 300 and 301 and the diaphragm 302 in the photographing lens 3. The lens control unit 130 drives the aperture control circuit 131 that controls the aperture value of the aperture 302, the zoom control circuit 132 that changes the zoom magnification by driving the motors M1 and M2, and the motors M1 and M2. And a focus control circuit 133 for performing focus control.

絞り制御回路131は全体制御部150から入力される絞り値に基づいて絞り302を駆動し、その開口量を当該絞り値に設定する。フォーカス制御回路133は全体制御部150から入力されるAF制御信号に基づいてモータM1,M2の駆動量を制御し、レンズ群300,301を焦点位置に設定する。ズーム制御回路132は、4連スイッチ15による入力に応じて全体制御部150から入力されるズーム制御信号に基づいて、モータM1,M2を駆動してレンズ群300,301を移動させる。これによって、ズームの状態が、ワイド側あるいはテレ側へと移動する。   The aperture control circuit 131 drives the aperture 302 based on the aperture value input from the overall control unit 150, and sets the aperture amount to the aperture value. The focus control circuit 133 controls the driving amounts of the motors M1 and M2 based on the AF control signal input from the overall control unit 150, and sets the lens groups 300 and 301 to the focal position. The zoom control circuit 132 drives the motors M1 and M2 to move the lens groups 300 and 301 based on a zoom control signal input from the overall control unit 150 in response to an input from the quad switch 15. As a result, the zoom state moves to the wide side or the tele side.

表示部140は、LCD10及びEVF20への表示を行うものである。表示部140には、LCD10、EVF20とともに、LCD10に再生表示されるの画像データのバッファメモリとなるLCDVRAM141及びEVF20に再生表示される画像データのバッファメモリとなるEVFVRAM142を備えている。   The display unit 140 performs display on the LCD 10 and the EVF 20. In addition to the LCD 10 and the EVF 20, the display unit 140 includes an LCD VRAM 141 serving as a buffer memory for image data reproduced and displayed on the LCD 10, and an EVF VRAM 142 serving as a buffer memory for image data reproduced and displayed on the EVF 20.

撮影待機状態においては、CCD303により1/30(秒)毎に撮影された画像(ライブビュー用画像)の各画素データが、信号処理部120による所定の信号処理を施された後、画像メモリ126に一時記憶される。そして、全体制御部150によって読み出され、データサイズが調整された後にLCDVRAM141及びEVFVRAM142に転送され、LCD10及びEVF20にライブビュー表示として表示される。これによりユーザは、被写体像を視認することができる。また、再生モードにおいては、メモリカード8から読み出された画像が全体制御部150によって所定の信号処理が施された後に、LCDVRAM141に転送され、LCD10に再生表示されることとなる。   In the photographing standby state, each pixel data of an image (live view image) photographed by the CCD 303 every 1/30 (seconds) is subjected to predetermined signal processing by the signal processing unit 120, and then the image memory 126. Is temporarily stored. Then, the data is read out by the overall control unit 150, adjusted in data size, transferred to the LCDVRAM 141 and EVFVRAM 142, and displayed on the LCD 10 and EVF 20 as a live view display. Thereby, the user can visually recognize the subject image. In the playback mode, the image read from the memory card 8 is subjected to predetermined signal processing by the overall control unit 150, then transferred to the LCD VRAM 141, and played back and displayed on the LCD 10.

操作部101は、上述したカメラ本体部2に設けられた撮影や再生に関する操作部材の操作情報を全体制御部に入力するものである。操作部101から入力される操作情報にはシャッタボタン9、電源スイッチ14、4連スイッチ15及びスイッチ群16等の各操作部材の操作情報が含まれる。   The operation unit 101 inputs operation information of operation members related to photographing and reproduction provided in the camera body unit 2 described above to the overall control unit. The operation information input from the operation unit 101 includes operation information of each operation member such as the shutter button 9, the power switch 14, the quad switch 15, and the switch group 16.

全体制御部150は、マイクロコンピュータからなり、撮影機能及び再生機能を集中制御するものである。全体制御部150にはカードインターフェース103を介してメモリカード8が接続されている。また、通信用インターフェース105を介してパーソナルコンピュータPCが外部接続されるようになっている。   The overall control unit 150 is composed of a microcomputer and centrally controls the photographing function and the reproduction function. The memory card 8 is connected to the overall control unit 150 via the card interface 103. A personal computer PC is externally connected via the communication interface 105.

全体制御部150は、撮影機能及び再生機能における数々の具体的な処理を行うための処理プログラムや上述した撮像装置1の各部材の駆動を制御するための制御プログラムが記憶されたROM151と、処理プログラム及び制御プログラムに従って数々の演算作業を行うための作業領域となるRAM152を備えている。なお、記録媒体であるメモリカード8に記録されている、例えばシェーディングの対応処理を行うプログラム(以下では「シェーディング対応プログラム」という)などのプログラムデータをカードインターフェース103を介して読み出し、ROM151に格納することができるようになっている。従って、これらの処理プログラム及び制御プログラムは、メモリカード8から撮像装置1中にインストールされることが可能である。なお、処理プログラム及び制御プログラムは、通信用インターフェース105を介してパーソナルコンピュータPCからインストールされるようになっていてもよい。   The overall control unit 150 includes a ROM 151 that stores a processing program for performing a number of specific processes in the photographing function and a reproduction function, and a control program for controlling the driving of each member of the imaging apparatus 1 described above, and a processing A RAM 152 is provided as a work area for performing various arithmetic operations according to the program and the control program. Note that program data such as a program for performing shading correspondence processing (hereinafter referred to as “shading correspondence program”) recorded in the memory card 8 as a recording medium is read via the card interface 103 and stored in the ROM 151. Be able to. Therefore, these processing program and control program can be installed in the imaging apparatus 1 from the memory card 8. The processing program and the control program may be installed from the personal computer PC via the communication interface 105.

以上のような構成を有する撮像装置1の動作を詳しく説明する。   The operation of the imaging apparatus 1 having the above configuration will be described in detail.

<撮像装置1の動作>
図5は、撮像装置1の基本的な動作を示すフローチャートである。本動作は、特にシェーディングに関する対応処理に対応しており、この処理を行うシェーディング対応プログラムを制御部150で実行することにより実施される。
<Operation of Imaging Device 1>
FIG. 5 is a flowchart showing the basic operation of the imaging apparatus 1. This operation particularly corresponds to a corresponding process related to shading, and is executed by the control unit 150 executing a shading compatible program for performing this process.

撮影モードが設定され、ライブビュー撮影が行われている状態において、シャッタボタン9がユーザによって半押しされたかを判定する(ステップST1)。ここで、半押しされた場合には、ステップST2に進み、半押しされていない場合には、ステップST1を繰り返す。   In the state where the shooting mode is set and the live view shooting is performed, it is determined whether the shutter button 9 is half-pressed by the user (step ST1). Here, if half-pressed, the process proceeds to step ST2, and if not half-pressed, step ST1 is repeated.

ステップST2では、撮影条件の取得を行う。すなわち、本撮影時に必要な各種情報、例えば撮影レンズ3の焦点距離、絞り302の情報やISO感度設定の情報などを取得する。   In step ST2, photographing conditions are acquired. That is, various types of information necessary for actual photographing, such as the focal length of the photographing lens 3, information on the aperture 302, and ISO sensitivity setting information, are acquired.

ステップST3では、ライブビュー撮影によりCCD303で取得された画像データから測光・測色情報を取得する(後で詳述)。   In step ST3, photometric / colorimetric information is acquired from image data acquired by the CCD 303 by live view shooting (detailed later).

ステップST4では、ステップST3で取得した測光・測色情報に基づき、制御露出レベルを算出する(後で詳述)。   In step ST4, a control exposure level is calculated based on the photometric / colorimetric information acquired in step ST3 (details will be described later).

ステップST5では、ステップST3で取得した測光・測色情報に基づき、シェーディングの影響を受けやすいシーンであるか否かを判定する(後で詳述)。   In step ST5, based on the photometric / colorimetric information acquired in step ST3, it is determined whether or not the scene is susceptible to shading (detailed later).

ステップST6では、ステップST5で検知されたシェーディングの影響度に応じてシェーディングを軽減する処置としての露出補正を行う(後で詳述)。   In step ST6, exposure correction is performed as a measure for reducing shading according to the degree of influence of shading detected in step ST5 (details will be described later).

ステップST7では、ステップST6での露出補正に基づき、制御露出を設定する(後で詳述)。   In step ST7, control exposure is set based on the exposure correction in step ST6 (details will be described later).

ステップST8では、シャッタボタン9がユーザによって全押しされたかを判定する。ここで、全押しされた場合には、ステップST9に進み、全押しされていない場合には、ステップST1に戻る。   In step ST8, it is determined whether the shutter button 9 has been fully pressed by the user. Here, if it is fully pressed, the process proceeds to step ST9. If it is not fully pressed, the process returns to step ST1.

ステップST9では、ステップST7で設定された制御露出で露光を行う。   In step ST9, exposure is performed with the control exposure set in step ST7.

ステップST10では、ステップST9の露光によりCCD303で取得された画像データから測光・測色情報を取得する(後で詳述)。   In step ST10, photometric / colorimetric information is acquired from the image data acquired by the CCD 303 by the exposure in step ST9 (detailed later).

ステップST11では、ステップST10で取得された測光・測色情報に基づき検知されるシェーディングの影響度に応じてシェーディングを軽減する処置として、適切なトーンカーブを選択する処理を行う。   In step ST11, an appropriate tone curve is selected as a measure for reducing shading according to the degree of influence of shading detected based on the photometric / colorimetric information acquired in step ST10.

ステップST12では、画像の記録を行う。すなわち、ステップST11で選択されたトーンカーブによる画像処理が施された画像をメモリカード8に記録する。   In step ST12, an image is recorded. That is, an image that has been subjected to image processing using the tone curve selected in step ST11 is recorded in the memory card 8.

図6は、上記のステップST3(ST10)に対応しており、測光・測色情報取得の動作を示すフローチャートである。   FIG. 6 is a flowchart corresponding to the above-described step ST3 (ST10) and showing the photometric / colorimetric information acquisition operation.

ステップST21では、CCD303で取得された画像を分割したブロックに関する測光情報と測色情報とを取得する。これに関して具体的に説明する。   In step ST21, photometric information and colorimetric information relating to a block obtained by dividing the image acquired by the CCD 303 are acquired. This will be specifically described.

図7に示すようにCCD303で取得された画像Goを縦方向および横方向にそれぞれ16分割し、複数の領域として256個のブロックBkを生成する。そして、ブロックBk毎に測光情報Y[i](i=0〜255)および測色情報R[i]、G[i]、B[i](i=0〜255)を12ビットのデータで取得する。この測光情報および測色情報としては、例えば各ブロックBk内での平均輝度値および平均測色値を利用する。   As shown in FIG. 7, the image Go acquired by the CCD 303 is divided into 16 parts in the vertical direction and the horizontal direction, respectively, and 256 blocks Bk are generated as a plurality of areas. The photometric information Y [i] (i = 0 to 255) and the colorimetric information R [i], G [i], and B [i] (i = 0 to 255) are 12-bit data for each block Bk. get. As the photometric information and colorimetric information, for example, an average luminance value and an average colorimetric value in each block Bk are used.

ステップST22では、ステップST21で得られた測光情報および測色情報に基づきブロックBk毎の色差情報を取得する。具体的には、次の式(1)および式(2)のようにYCrCb色空間に関する色差情報CrS、CbSを算出する。   In step ST22, color difference information for each block Bk is acquired based on the photometric information and colorimetric information obtained in step ST21. Specifically, the color difference information CrS and CbS related to the YCrCb color space is calculated as in the following expressions (1) and (2).

CrS[i]=k1×(R[i]−Y[i])/16・・・・・・・(1):
CbS[i]=k1×(B[i]−Y[i])/16・・・・・・・(2):
ここで、上式(1)〜(2)の右辺におけるk1は「0」より大きい値(例えば「1」)が設定される。
CrS [i] = k1 × (R [i] −Y [i]) / 16 (1):
CbS [i] = k1 × (B [i] −Y [i]) / 16 (2):
Here, k1 on the right side of the above formulas (1) to (2) is set to a value larger than “0” (for example, “1”).

ステップST23では、画像全体においてブロックBkに関する最大輝度と最小輝度とを検出する。具体的には、上記のステップST21で取得された256個の測光情報Y[i](i=0〜255)から、最大輝度cell_maxおよび最小輝度cell_minを検知する。   In step ST23, the maximum luminance and the minimum luminance relating to the block Bk are detected in the entire image. Specifically, the maximum luminance cell_max and the minimum luminance cell_min are detected from 256 pieces of photometric information Y [i] (i = 0 to 255) acquired in step ST21.

図8は、上記のステップST4に対応しており、露出レベル算出の動作を示すフローチャートである。   FIG. 8 is a flowchart corresponding to the above-described step ST4 and showing the exposure level calculation operation.

ステップST31では、CCD303で撮像された画像データから得られた輝度情報等に基づき、周知の手法を用いて逆光や順光等の撮影シーンを判定する。   In step ST31, based on luminance information obtained from image data captured by the CCD 303, a photographing scene such as backlight or direct light is determined using a known method.

ステップST32では、ステップST31で判定された撮影シーン等に基づき、最適な制御輝度を算出する。具体的には、次の式(3)のように制御輝度BVtgtを算出する。   In step ST32, the optimal control luminance is calculated based on the shooting scene determined in step ST31. Specifically, the control luminance BVtgt is calculated as in the following equation (3).

BVtgt=f(Y[i],撮影シーン情報,その他情報)・・・・・・・(3):
すなわち、制御輝度BVtgtは、画像全域の輝度情報Y[i]と、ステップST31で得られた撮影シーンの情報と、その他の情報(例えば合焦位置、被写体までの距離、焦点距離の情報)とを引数に持つ関数fで求められる。
BVtgt = f (Y [i], shooting scene information, other information) (3):
That is, the control brightness BVtgt is brightness information Y [i] of the entire image, information of the shooting scene obtained in step ST31, and other information (for example, focus position, distance to the subject, focal length information) Is obtained by a function f having an argument of

図9は、上記のステップST5に対応しており、シーン判定の動作を示すフローチャートである。   FIG. 9 is a flowchart corresponding to the above-described step ST5 and showing the scene determination operation.

ステップST41では、画像周辺部で空色領域を検出する。この具体的な検出手法を以下で説明する。   In step ST41, a sky blue area is detected at the periphery of the image. This specific detection method will be described below.

まず、図7に示す256個のブロックBkで構成される画像Goを、中央部(図示の太枠内)に配置される100個のブロックBkからなる画像中央領域CPと、画像中央領域CP以外に配置される156個のブロックBkからなる画像周辺領域EPとに分ける。   First, an image Go composed of 256 blocks Bk shown in FIG. 7 is divided into an image central region CP composed of 100 blocks Bk arranged in the central portion (in the bold frame in the figure), and other than the image central region CP. Are divided into an image peripheral area EP composed of 156 blocks Bk.

そして、画像周辺領域EPにおける156個のブロックBkのうち、次の条件を満足する空色のブロックBkの数sky_numをカウントする。   Then, among the 156 blocks Bk in the image peripheral area EP, the number sky_num of sky blue blocks Bk satisfying the following condition is counted.

・85≦CrS[i]≦127:
・132<CbS[i]≦188:
・640<Y[i]:
以上のように画像周辺領域EPに占める空色領域を検出することで、シェーディングの影響度が検知できることとなる。
85 ≦ CrS [i] ≦ 127:
132 <CbS [i] ≦ 188:
640 <Y [i]:
As described above, the influence of shading can be detected by detecting the sky blue area in the image peripheral area EP.

ステップST42では、画像周辺部で、例えば雪景色が映る領域のように高輝度の白色領域を検出する。この具体的な検出手法を以下で説明する。   In step ST42, a white area with high luminance is detected at the periphery of the image, for example, an area where a snow scene is reflected. This specific detection method will be described below.

図7に示す画像周辺領域EPにおける156個のブロックBkのうち、次の条件を満足するブロックBkの数snow_numをカウントする。   Among the 156 blocks Bk in the image peripheral area EP shown in FIG. 7, the number snow_num of the blocks Bk satisfying the following condition is counted.

・120<CrS[i]<136:
・124<CbS[i]<132:
・3200<Y[i]:
以上のように画像周辺領域EPに占める高輝度白色領域を検出することで、シェーディングの影響度が検知できることとなる。
120 <CrS [i] <136:
124 <CbS [i] <132:
・ 3200 <Y [i]:
As described above, by detecting the high brightness white area in the image peripheral area EP, the influence degree of shading can be detected.

ステップST43では、画像周辺部の色平均を算出する。具体的には、図7に示す画像周辺領域EPにおける156個のブロックBkについて、CrS[i]の平均値crs_aveと、CbS[i]の平均値cbs_aveとを求める。   In step ST43, the color average of the peripheral portion of the image is calculated. Specifically, an average value crs_ave of CrS [i] and an average value cbs_ave of CbS [i] are obtained for 156 blocks Bk in the image peripheral area EP shown in FIG.

ステップST44では、画像周辺部で、色のばらつきが小さく均一性が高い特定色の領域(以下では「均一特定色領域」ともいう)を検出する。この具体的な検出手法を以下で説明する。   In step ST44, an area of a specific color (hereinafter also referred to as “uniform uniform color area”) with small color variation and high uniformity is detected in the peripheral portion of the image. This specific detection method will be described below.

図7に示す画像周辺領域EPにおける156個のブロックBkのうち、次の条件を満足するブロックBkの数monocol_numをカウントする。   Among the 156 blocks Bk in the image peripheral area EP shown in FIG. 7, the number monocol_num of the blocks Bk satisfying the following condition is counted.

・CrS[i]がステップST43で算出されたcrs_ave±6以内:
・CbS[i]がステップST43で算出されたcbs_ave±6以内:
以上のように画像周辺領域EPに占める、平均色(特定色)に関する近傍色の領域を検出することで、シェーディングの影響度が検知できることとなる。
CrS [i] is within crs_ave ± 6 calculated in step ST43:
CbS [i] is within cbs_ave ± 6 calculated in step ST43:
As described above, the degree of influence of shading can be detected by detecting the neighboring color region relating to the average color (specific color) in the image peripheral region EP.

図10は、上記のステップST6に対応しており、露出補正の動作を示すフローチャートである。   FIG. 10 is a flowchart corresponding to the above step ST6 and showing the exposure correction operation.

ステップST51では、上記のステップST41で検出された空色領域の、画像周辺領域EPに対する割合いに応じて露出補正値を算出する。この露出補正値の算出方法について以下で説明する。   In step ST51, an exposure correction value is calculated according to the ratio of the sky blue area detected in step ST41 to the image peripheral area EP. A method for calculating the exposure correction value will be described below.

図11は、空色領域と露出補正値との関係を示す図である。図11においては、横軸が空色領域のブロック数sky_num(最大値は156)を示し、縦軸が露出補正値D_BV_SKYを示している。   FIG. 11 is a diagram showing the relationship between the sky blue area and the exposure correction value. In FIG. 11, the horizontal axis indicates the number of sky blue area blocks sky_num (maximum value is 156), and the vertical axis indicates the exposure correction value D_BV_SKY.

グラフHaに示すように、露出補正値D_BV_SKYは空色領域のブロック数sky_numが32個から増加し始め、82個に達すると最大値の0.375EVで一定になる。   As shown in the graph Ha, the exposure correction value D_BV_SKY starts to increase from 32 in the number of blocks in the sky blue area, and becomes constant at the maximum value of 0.375 EV when reaching 82.

このように画像周辺領域EPに対する空色領域の占有面積に応じて露出補正値を露出オーバーの方向に設定することにより、図12に示す空Bsが画像の大半に映るシーン等に対して、シェーディングの軽減が図れることとなる(後述)。   In this way, by setting the exposure correction value in the overexposed direction in accordance with the occupied area of the sky blue region with respect to the image peripheral region EP, shading of the scene or the like in which the sky Bs shown in FIG. Reduction can be achieved (described later).

ステップST52では、上記のステップST42で検出された高輝度白色領域の、画像周辺領域EPに対する割合いに応じて露出補正値を算出する。この露出補正値の算出方法について以下で説明する。   In step ST52, an exposure correction value is calculated according to the ratio of the high brightness white area detected in step ST42 to the image peripheral area EP. A method for calculating the exposure correction value will be described below.

図13は、高輝度白色領域と露出補正値との関係を示す図である。図13においては、横軸が高輝度白色領域のブロック数snow_num(最大値は156)を示し、縦軸が露出補正値D_BV_SNOWを示している。   FIG. 13 is a diagram showing the relationship between the high brightness white area and the exposure correction value. In FIG. 13, the horizontal axis represents the number of blocks in the high brightness white area, snow_num (maximum value is 156), and the vertical axis represents the exposure correction value D_BV_SNOW.

グラフHbに示すように、露出補正値D_BV_SNOWは高輝度白色領域のブロック数snow_numが24個から増加し始め、72個に達すると最大値の0.5EVで一定になる。   As shown in the graph Hb, the exposure correction value D_BV_SNOW starts to increase from 24 in the high brightness white area block number snow_num, and becomes constant at the maximum value of 0.5 EV when it reaches 72.

このように画像周辺領域EPに対する高輝度白色領域の占有面積に応じて露出補正値を露出オーバーの方向に設定することにより、図14に示す雪景色Bwが映るシーン等に対して、シェーディングの軽減が図れることとなる(後述)。   In this way, by setting the exposure correction value in the overexposed direction in accordance with the area occupied by the high-intensity white region with respect to the image peripheral region EP, shading can be reduced for a scene or the like in which the snow scene Bw shown in FIG. Can be achieved (described later).

ステップST53では、上記のステップST44で検出された均一特定色領域の、周辺画像領域EPに対する割合いに応じて露出補正値を算出する。この露出補正値の算出方法について以下で説明する。   In step ST53, an exposure correction value is calculated according to the ratio of the uniform specific color area detected in step ST44 to the peripheral image area EP. A method for calculating the exposure correction value will be described below.

図15は、均一特定色領域と露出補正値との関係を示す図である。図15においては、横軸が均一特定色領域のブロック数monocol_num(最大値は156)を示し、縦軸が露出補正値D_BV_MONOを示している。   FIG. 15 is a diagram illustrating the relationship between the uniform specific color region and the exposure correction value. In FIG. 15, the horizontal axis indicates the number of blocks monocol_num (maximum value is 156) in the uniform specific color region, and the vertical axis indicates the exposure correction value D_BV_MONO.

グラフHcに示すように、露出補正値D_BV_MONOは均一特定色領域のブロック数monocol_numが40個から増加し始め、92個に達すると最大値の0.375EVで一定になる。   As shown in the graph Hc, the exposure correction value D_BV_MONO starts to increase from the number of blocks monocol_num of the uniform specific color region from 40, and when it reaches 92, becomes constant at the maximum value of 0.375EV.

グラフHcに示すように、画像周辺領域EPに対する均一特定色領域の占有面積に応じて露出補正値を露出オーバーの方向に設定することにより、図16に示す野球場の芝Bgが画像の大半に映るシーン等に対して、シェーディングの軽減が図れることとなる(後述)。   As shown in the graph Hc, by setting the exposure correction value in the overexposed direction according to the occupation area of the uniform specific color region with respect to the image peripheral region EP, the grass Bg of the baseball field shown in FIG. Shading can be reduced for a scene or the like (described later).

ステップST54では、画像全体に関するコントラスト差を演算する。具体的には、上記のステップST23で検出された最大輝度cell_maxと最小輝度cell_minとを用いて、次の式(4)のようにコントラスト差(輝度差)D_BV_CELLを算出する。   In step ST54, a contrast difference regarding the entire image is calculated. Specifically, the contrast difference (luminance difference) D_BV_CELL is calculated using the maximum luminance cell_max and the minimum luminance cell_min detected in step ST23 as shown in the following equation (4).

D_BV_CELL=cell_max−cell_min・・・・・(4):
上式(4)で演算されたD_BV_CELLが小さい場合には、シェーディングの影響を受けやすい低コントラストのシーンであると判断できる。すなわち、各ブロックBkの測光情報から得られる画像全体での最大輝度と最小輝度との差に基づき、シェーディングの影響度が検知できることとなる。
D_BV_CELL = cell_max−cell_min (4):
When D_BV_CELL calculated by the above equation (4) is small, it can be determined that the scene is a low-contrast scene that is easily affected by shading. That is, the influence degree of shading can be detected based on the difference between the maximum luminance and the minimum luminance in the entire image obtained from the photometric information of each block Bk.

ステップST55では、ステップST54で演算されたコントラスト差に応じて露出補正値を算出する。この露出補正値の算出方法について以下で説明する。   In step ST55, an exposure correction value is calculated according to the contrast difference calculated in step ST54. A method for calculating the exposure correction value will be described below.

図17は、コントラスト差と露出補正値との関係を示す図である。図17においては、横軸がコントラスト差を示し、縦軸が露出補正値D_BV_LOCONを示している。
グラフHdに示すように、露出補正値D_BV_LOCONはコントラスト差0〜0.5EVの間で一定値の0.375EVに設定されるが、コントラスト差が0.5EVを超えると減少し始め、コントラスト差が1.0EV以降は0EVとなる。
FIG. 17 is a diagram illustrating the relationship between the contrast difference and the exposure correction value. In FIG. 17, the horizontal axis indicates the contrast difference, and the vertical axis indicates the exposure correction value D_BV_LOCON.
As shown in the graph Hd, the exposure correction value D_BV_LOCON is set to a constant value of 0.375 EV between the contrast differences of 0 to 0.5 EV, but starts to decrease when the contrast difference exceeds 0.5 EV, and the contrast difference becomes smaller. After 1.0 EV, it becomes 0 EV.

このように画像全体から低コントラストのシーンか否かを判断し、低コントラストの場合には、その度合いに応じて露出補正値を露出オーバーの方向に設定することにより、シェーディングの軽減が図れることとなる(後述)。   In this way, it is determined whether or not the scene is a low-contrast scene from the entire image, and in the case of low-contrast, shading can be reduced by setting the exposure correction value in the overexposed direction according to the degree. (Described later).

ステップST56では、制御輝度に関する補正値(以下では「制御輝度補正値」ともいう)を算出する。具体的には、次の式(5)のように、上記のステップST51〜ST53およびステップST55で算出された各露出補正値D_BV_SKY、D_BV_SNOW、D_BV_MONO、D_BV_CELLのうちの最大値が、制御輝度に関する補正値D_BV_SHDとして設定される。   In step ST56, a correction value related to the control luminance (hereinafter also referred to as “control luminance correction value”) is calculated. Specifically, as in the following equation (5), the maximum value among the exposure correction values D_BV_SKY, D_BV_SNOW, D_BV_MONO, and D_BV_CELL calculated in the above steps ST51 to ST53 and step ST55 is the correction related to the control brightness. Set as the value D_BV_SHD.

D_BV_SHD=Max(D_BV_SKY,D_BV_SNOW,
D_BV_MONO,D_BV_CELL)・・・(5):
ステップST57では、撮影レンズ3の焦点距離に応じて制御輝度補正値を調整する。具体的には、次の各ケース(i)〜(iii)ように焦点距離flに応じて制御輝度補正値を補正する。
D_BV_SHD = Max (D_BV_SKY, D_BV_SNOW,
D_BV_MONO, D_BV_CELL) (5):
In step ST57, the control luminance correction value is adjusted according to the focal length of the taking lens 3. Specifically, the control luminance correction value is corrected according to the focal length fl as in the following cases (i) to (iii).

(i) fl≦35mmの場合、 D_BV_SHD=D_BV_SHD:
(ii)35<fl≦60mmの場合、D_BV_SHD=D_BV_SHD×2/3:
(iii)60mm≦flの場合、 D_BV_SHD=D_BV_SHD×1/3:
以上のように補正量を調整することにより、焦点距離flが短くシェーディングが目立つワイド側(望遠側)では制御輝度補正量を大きくできるとともに、焦点距離flが長くシェーディングが目立たないテレ側(広角側)では制御輝度補正量を抑えることができる。
(i) When fl ≦ 35 mm, D_BV_SHD = D_BV_SHD:
(ii) When 35 <fl ≦ 60 mm, D_BV_SHD = D_BV_SHD × 2/3:
(iii) When 60 mm ≦ fl, D_BV_SHD = D_BV_SHD × 1/3:
By adjusting the correction amount as described above, the control brightness correction amount can be increased on the wide side (telephoto side) where the focal length fl is short and the shading is conspicuous. ) Can suppress the control luminance correction amount.

ステップST58では、ステップST57で調整された制御輝度補正値に基づき、上記のステップST32で算出された制御輝度BVtgtを補正する。具体的には、次の式(6)のように、ターゲットの制御輝度が設定される。   In step ST58, the control brightness BVtgt calculated in step ST32 is corrected based on the control brightness correction value adjusted in step ST57. Specifically, the control brightness of the target is set as in the following equation (6).

BVtgt=BVtgt−D_BV_SHD・・・・・・・・・・(6):
図18は、上記のステップST7に対応しており、制御露出設定の動作を示すフローチャートである。
BVtgt = BVtgt−D_BV_SHD (6):
FIG. 18 is a flowchart corresponding to the above-described step ST7 and showing the control exposure setting operation.

ステップST61では、制御露出EVtgtを算出する。具体的には、次の式(7)のように、上記のステップST58で得られた制御輝度BVtgtからISO感度に相当する感度値SVを減算し、制御露出EVtgtを求める。   In step ST61, a control exposure EVtgt is calculated. Specifically, as shown in the following equation (7), the sensitivity value SV corresponding to the ISO sensitivity is subtracted from the control luminance BVtgt obtained in step ST58 to obtain the control exposure EVtgt.

EVtgt=BVtgt−SV・・・・・・・・・・・・・(7):
ステップST62では、手振れに関して限界のシャッタースピードTVHを算出する。具体的には、次の式(8)のように焦点距離flを考慮して手振れ限界のシャッタースピードTVHが算出される。
EVtgt = BVtgt-SV (7):
In step ST62, a limit shutter speed TVH for camera shake is calculated. Specifically, the shutter speed TVH at the camera shake limit is calculated in consideration of the focal length fl as in the following equation (8).

TVH=log2(fl)・・・・・・・・・・・・・・(8):
ステップST63では、手振れに関して限界の制御露出EVHを算出する。具体的には、次の式(9)のように、ステップST62で算出された手振れ限界のシャッタースピードTVHと絞り302に関する開放絞り値AV0との合計を、手振れ限界の制御露出EVHとして設定する。
TVH = log 2 (fl) (8):
In step ST63, a limit control exposure EVH with respect to camera shake is calculated. Specifically, as shown in the following equation (9), the sum of the shutter speed TVH at the camera shake limit calculated at step ST62 and the open aperture value AV0 for the diaphragm 302 is set as the control exposure EVH at the camera shake limit.

EVH=TVH+AV0・・・・・・・・・・・・・(9):
ステップST64では、最小の制御露出EVminを算出する。具体的には、次の式(10)のように、最短(最小)のシャッタースピードTVminと開放絞り値AV0との合計を、最小の制御露出EVminとして設定する。
EVH = TVH + AV0 (9):
In step ST64, the minimum control exposure EVmin is calculated. Specifically, the sum of the shortest (minimum) shutter speed TVmin and the maximum aperture value AV0 is set as the minimum control exposure EVmin as in the following equation (10).

EVmin=TVmin+AV0・・・・・・・・・・・・・(10):
ステップST65では、最大の制御露出EVmaxを算出する。具体的には、次の式(11)のように、最長(最大)のシャッタースピードTVmaxと絞り302に関する最小の絞り値AVmaxとの合計を、最大の制御露出EVmaxとして設定する。
EVmin = TVmin + AV0 (10):
In step ST65, the maximum control exposure EVmax is calculated. Specifically, the sum of the longest (maximum) shutter speed TVmax and the minimum aperture value AVmax related to the aperture 302 is set as the maximum control exposure EVmax as in the following equation (11).

EVmax=TVmax+AVmax・・・・・・・・・・・・・(11):
ステップST66では、ステップST61で算出した制御露出EVtgtが、ステップST64で算出した最小の制御露出EVminより小さいかを判定する。ここで、EVtgt<EVminの場合には、ステップST69に進み、EVtgt≧EVminの場合には、ステップST67に進む。
EVmax = TVmax + AVmax (11):
In step ST66, it is determined whether the control exposure EVtgt calculated in step ST61 is smaller than the minimum control exposure EVmin calculated in step ST64. If EVtgt <EVmin, the process proceeds to step ST69. If EVtgt ≧ EVmin, the process proceeds to step ST67.

ステップST67では、ステップST61で算出した制御露出EVtgtが、ステップST64で算出した最小の制御露出EVmin以上で、かつステップST63で算出した手振れ限界の制御露出EVH以下となるかを判定する。ここで、EVmin≦EVtgt<EVHの場合には、ステップST70に進み、それ以外の場合には、ステップST68に進む。   In step ST67, it is determined whether the control exposure EVtgt calculated in step ST61 is equal to or greater than the minimum control exposure EVmin calculated in step ST64 and equal to or less than the control exposure EVH of the camera shake limit calculated in step ST63. If EVmin ≦ EVtgt <EVH, the process proceeds to step ST70. Otherwise, the process proceeds to step ST68.

ステップST68では、ステップST61で算出した制御露出EVtgtが、ステップST65で算出した最大の制御露出EVmaxより大きいかを判定する。ここで、EVmax<EVtgtの場合には、ステップST71に進み、EVmax≧EVtgtの場合には、ステップST72に進む。   In step ST68, it is determined whether the control exposure EVtgt calculated in step ST61 is larger than the maximum control exposure EVmax calculated in step ST65. If EVmax <EVtgt, the process proceeds to step ST71. If EVmax ≧ EVtgt, the process proceeds to step ST72.

ステップST69では、次の式(12)〜(13)のように、制御値としての絞り値AVとシャッタースピードTVとを設定する。   In step ST69, the aperture value AV and the shutter speed TV as control values are set as in the following equations (12) to (13).

AV=AV0 ・・・・・・・・・・(12):
TV=TVmin・・・・・・・・・・(13):
ステップST70では、次の式(14)〜(15)のように、制御値としての絞り値AVとシャッタースピードTVとを設定する。
AV = AV0 (12):
TV = TVmin (13):
In step ST70, an aperture value AV and a shutter speed TV as control values are set as in the following formulas (14) to (15).

AV=AV0 ・・・・・・・・・・(14):
TV=EVtgt−AV・・・・・・・(15):
ステップST71では、次の式(16)〜(17)のように、制御値としての絞り値AVとシャッタースピードTVとを設定する。
AV = AV0 (14):
TV = EVtgt-AV (15):
In step ST71, an aperture value AV and a shutter speed TV as control values are set as in the following formulas (16) to (17).

AV=AVmax・・・・・・・・・・(16):
TV=TVmax・・・・・・・・・・(17):
ステップST72では、次の式(18)〜(19)のように、制御値としての絞り値AVとシャッタースピードTVとを設定する。
AV = AVmax (16):
TV = TVmax (17):
In step ST72, an aperture value AV and a shutter speed TV as control values are set as in the following formulas (18) to (19).

AV=Min(AV0+(EVtgt−EVH)/2,AVmax)・・・・・・・(18):
TV=EVtgt−AV ・・・・・・・・・・・・・・・・・・・・・・・(19):
ステップST73では、シェーディングを考慮した制御露出補正値D_EV_SHDを算出する。具体的には、次の式(20)のように、上記のステップST57で得られた制御輝度補正値D_BV_SHD等に基づき制御露出補正値D_EV_SHDを算出する。
AV = Min (AV0 + (EVtgt−EVH) / 2, AVmax) (18):
TV = EVtgt-AV (19):
In step ST73, a control exposure correction value D_EV_SHD considering shading is calculated. Specifically, the control exposure correction value D_EV_SHD is calculated based on the control brightness correction value D_BV_SHD and the like obtained in step ST57 as in the following equation (20).

D_EV_SHD=Min(D_BV_SHD,AVmax−AV)・・・・・(20):
このような制御露出補正値D_EV_SHDを算出することで、シェーディングの影響度に応じた補正量が得られることとなる。
D_EV_SHD = Min (D_BV_SHD, AVmax−AV) (20):
By calculating such a control exposure correction value D_EV_SHD, a correction amount corresponding to the degree of influence of shading can be obtained.

ステップST74では、ステップST73で算出された補正量を露出制御に反映し、次の式(21)〜(22)のように絞り302に関する絞り値AVとシャッタースピードTVとを設定する。   In step ST74, the correction amount calculated in step ST73 is reflected in the exposure control, and the aperture value AV and the shutter speed TV related to the aperture 302 are set as in the following equations (21) to (22).

AV=AV+D_EV_SHD・・・・・・・・・・・・・・・・・・・(21):
TV=EVtgt−AV ・・・・・・・・・・・・・・・・・・・・・・・(22):
以上のようにEVH<EVtgt≦EVmaxの条件を満足する場合、つまり絞り値およびシャッタースピードの設定において自由度がある場合には、上式(21)によりシェーディングの影響度に応じて絞り値AVを絞り込み側に設定する補正(露出制御)を行うことで、シェーディングの影響が大きいシーンに対してシェーディングの影響を軽減できることとなる。
AV = AV + D_EV_SHD (21):
TV = EVtgt-AV (22):
As described above, when the condition of EVH <EVtgt ≦ EVmax is satisfied, that is, when there is a degree of freedom in setting the aperture value and the shutter speed, the aperture value AV is set according to the degree of influence of shading by the above equation (21) By performing the correction (exposure control) set on the narrowing down side, it is possible to reduce the influence of shading on a scene where the influence of shading is large.

図19は、上記のステップST11に対応しており、トーンカーブ選択の動作を示すフローチャートである。   FIG. 19 is a flowchart corresponding to the above-described step ST11 and showing the tone curve selection operation.

ステップST81では、シェーディングを考慮した補正量DEG_SHADEを、次の式(23)によって算出する。   In step ST81, a correction amount DEG_SHADE considering shading is calculated by the following equation (23).

DEG_SHADE=Max(D_BV_SKY,D_BV_SNOW,
D_BV_MONO,D_BV_LOCON)・・(23):
なお、上式(23)の右辺におけるD_BV_SKY、D_BV_SNOW、D_BV_MONO、D_BV_LOCONについては、ステップST10で取得された測光・測色情報に基づき、上述したステップST5〜ST6と同様の動作を行うことで算出する。
DEG_SHADE = Max (D_BV_SKY, D_BV_SNOW,
D_BV_MONO, D_BV_LOCON) (23):
Note that D_BV_SKY, D_BV_SNOW, D_BV_MONO, and D_BV_LOCON on the right side of the above equation (23) are calculated by performing the same operations as in steps ST5 to ST6 described above based on the photometric / colorimetric information acquired in step ST10. .

ステップST82では、シェーディングの影響を軽減するためのトーンカーブを選択する。具体的には、下の表1に基づきステップST81で算出された補正量DEG_SHADEに応じてトーンカーブFa〜Fdを選択する。   In step ST82, a tone curve for reducing the influence of shading is selected. Specifically, tone curves Fa to Fd are selected according to the correction amount DEG_SHADE calculated in step ST81 based on Table 1 below.

Figure 2007027943
Figure 2007027943

表1に基づき選択される4つのトーンカーブFa〜Fdは、図20に示すように12ビットの入力を8ビットの出力に変換するもので、トーンカーブFa、Fb、Fc、Fdの順に中高輝度が明るめに画像処理されるように設定されている。   The four tone curves Fa to Fd selected on the basis of Table 1 convert 12-bit input into 8-bit output as shown in FIG. 20, and medium to high brightness in the order of tone curves Fa, Fb, Fc, Fd. Is set to be processed brighter.

以上のように補正量DEG_SHADEに基づきトーンカーブFa〜Fdを選択するため、シェーディングを適切に軽減できることとなる。   As described above, since the tone curves Fa to Fd are selected based on the correction amount DEG_SHADE, shading can be appropriately reduced.

ステップST83では、ステップST82で4つのトーンカーブFa〜Fdから選択された1のトーンカーブを用いて、上記のステップST9の露光によって取得された画像データに対する画像処理を画像補正回路124で行う。この画像処理は、シェーディング補正回路123で行う一般的なシェーディング補正と異なり画像に係る画素位置によらない処理となっているが、このような簡便な処理により、迅速にシェーディングを低減できることとなる。   In step ST83, the image correction circuit 124 performs image processing on the image data acquired by the exposure in step ST9 using the one tone curve selected from the four tone curves Fa to Fd in step ST82. Unlike the general shading correction performed by the shading correction circuit 123, this image processing is a process that does not depend on the pixel position related to the image, but such simple processing can quickly reduce shading.

以上の撮像装置1の動作により、画像周辺部等の測光情報や測色情報に基づきシェーディングの影響度を判定し、その判定結果に基づく対応を実施するため、シェーディングの影響を受けやすいシーンか否かを精度良く判定して適切な対応を行える。その結果、シェーディングによる画像の周辺光量低下を軽減できることとなる。   By the operation of the imaging apparatus 1 described above, since the influence degree of shading is determined based on photometric information and colorimetric information on the peripheral portion of the image, and the action based on the determination result is performed, it is determined whether the scene is easily affected by shading. Can be determined accurately and appropriate measures can be taken. As a result, it is possible to reduce the decrease in the amount of light around the image due to shading.

また、撮像装置1では、シェーディングの影響を受けやすいシーンに対してオーバー目の露出制御を行うため、画像処理によらずにシェーディングによる周辺光量低下を低減できる。   In addition, since the imaging apparatus 1 performs over-exposure control for a scene that is easily affected by shading, it is possible to reduce a decrease in peripheral light amount due to shading without using image processing.

さらに、従来のシェーディング補正ではLUT等により画像周辺部のゲインを強制的に上げているため周辺部に斑点のような色ノイズが現れ画質が劣化する場合もあるが、撮像装置1では、シェーディングの影響度に応じたトーンカーブを選択するため、このような画質の劣化を防止できる。   Furthermore, in the conventional shading correction, since the gain at the peripheral portion of the image is forcibly increased by LUT or the like, color noise such as spots may appear in the peripheral portion and the image quality may be deteriorated. Since the tone curve corresponding to the degree of influence is selected, such image quality deterioration can be prevented.

<変形例>
◎上記の実施形態における均一特定色領域の検出動作(図9のステップST44)については、図7に示す画像周辺領域EPにおける156個のブロックBkに基づき、次の式(1a)、(1b)のように各色差データの標準偏差σr、σbを求めるようにしても良い。
<Modification>
The uniform specific color region detection operation (step ST44 in FIG. 9) in the above embodiment is based on 156 blocks Bk in the image peripheral region EP shown in FIG. 7, and the following equations (1a), (1b) As described above, the standard deviations σ r and σ b of each color difference data may be obtained.

Figure 2007027943
Figure 2007027943

この場合には、図10のステップST55において上記の標準偏差σr、σbに応じた露出補正値を算出するようにする。具体的には、下の表2に基づき標準偏差σr、σbに応じた露出補正値D_BV_LOCON(単位:EV)を求めることとなる。 In this case, an exposure correction value corresponding to the standard deviations σ r and σ b is calculated in step ST55 of FIG. Specifically, an exposure correction value D_BV_LOCON (unit: EV) corresponding to the standard deviations σ r and σ b is obtained based on Table 2 below.

Figure 2007027943
Figure 2007027943

◎上記の実施形態における図9のステップST56の動作については、各露出補正値D_BV_SKY、D_BV_SNOW、D_BV_MONO、D_BV_CELLの総和を、輝度輝度に関する補正値D_BV_SHDとして設定するようにしても良い。   In the operation of step ST56 in FIG. 9 in the above embodiment, the sum of the exposure correction values D_BV_SKY, D_BV_SNOW, D_BV_MONO, and D_BV_CELL may be set as the correction value D_BV_SHD related to luminance.

本発明の実施形態に係る撮像装置1の外観の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an appearance of an imaging apparatus 1 according to an embodiment of the present invention. 撮像装置1の外観の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an external appearance of an imaging apparatus 1. FIG. 撮像装置1の外観の概略構成を示す図である。1 is a diagram illustrating a schematic configuration of an external appearance of an imaging apparatus 1. FIG. 撮像装置1の内部構成を示す概略ブロック図である。2 is a schematic block diagram illustrating an internal configuration of the imaging apparatus 1. FIG. 撮像装置1の基本的な動作を示すフローチャートである。3 is a flowchart showing a basic operation of the imaging apparatus 1. 測光・測色情報取得の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of photometry and colorimetric information acquisition. 画像Goを分割したブロックBk毎の測光・測色情報の取得を説明するための図である。It is a figure for demonstrating acquisition of the photometry and colorimetric information for every block Bk which divided | segmented the image Go. 露出レベル算出の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of exposure level calculation. シーン判定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a scene determination. 露出補正の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of exposure correction | amendment. 空色領域と露出補正値との関係を示すグラフである。It is a graph which shows the relationship between a sky blue area | region and an exposure correction value. 空色領域を説明するための図である。It is a figure for demonstrating a sky blue area | region. 高輝度白色領域と露出補正値との関係を示すグラフである。It is a graph which shows the relationship between a high-intensity white area | region and an exposure correction value. 高輝度白色領域を説明するための図である。It is a figure for demonstrating a high-intensity white area | region. 均一特定色領域と露出補正値との関係を示すグラフである。It is a graph which shows the relationship between a uniform specific color area | region and an exposure correction value. 均一特定色領域を説明するための図である。It is a figure for demonstrating a uniform specific color area | region. コントラスト差と露出補正値との関係を示すグラフである。It is a graph which shows the relationship between contrast difference and exposure correction value. 制御露出設定の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a control exposure setting. トーンカーブ選択の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of tone curve selection. 4つのトーンカーブFa〜Fdを示す図である。It is a figure which shows four tone curves Fa-Fd.

符号の説明Explanation of symbols

1 撮像装置
150 全体制御部
303 カラー撮像素子
Bg 芝
Bs 空
Bw 雪景色
EP 画像周辺領域
Fa〜Fd トーンカーブ
1 Image pickup device 150 Overall control unit 303 Color image pickup device Bg Grass Bs Sky Bw Snow scene EP Image peripheral area Fa to Fd Tone curve

Claims (13)

撮像装置であって、
(a)被写体に係る画像を取得する撮像手段と、
(b)前記画像を複数の領域に分割する分割手段と、
(c)前記複数の領域それぞれに関する測光情報および/または測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知手段と、
(d)前記シェーディングの影響度に応じた露出制御および/または画像処理を行う手段と、
を備え、
前記画像処理は、前記画像に係る画素位置によらない処理であることを特徴とする撮像装置。
An imaging device,
(a) imaging means for acquiring an image relating to the subject;
(b) dividing means for dividing the image into a plurality of regions;
(c) based on photometric information and / or colorimetric information regarding each of the plurality of regions, detection means for detecting the degree of shading related to the image;
(d) means for performing exposure control and / or image processing according to the degree of influence of the shading;
With
The image processing apparatus according to claim 1, wherein the image processing is processing independent of a pixel position related to the image.
撮像装置であって、
(a)被写体に係る画像を取得する撮像手段と、
(b)前記画像を複数の領域に分割する分割手段と、
(c)前記複数の領域それぞれに関する測光情報を取得する測光手段と、
(d)前記複数の領域それぞれに関する測色情報を取得する測色手段と、
(e)前記測光情報および/または前記測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知手段と、
(f)前記シェーディングの影響度に応じた補正量を算出する補正量算出手段と、
(g)前記補正量に基づく露出制御および/または画像処理を行う手段と、
を備え、
前記画像処理は、前記画像に係る画素位置によらない処理であることを特徴とする撮像装置。
An imaging device,
(a) imaging means for acquiring an image relating to the subject;
(b) dividing means for dividing the image into a plurality of regions;
(c) photometric means for obtaining photometric information relating to each of the plurality of regions;
(d) colorimetric means for obtaining colorimetric information regarding each of the plurality of regions;
(e) based on the photometric information and / or the colorimetric information, detecting means for detecting the degree of shading related to the image;
(f) a correction amount calculating means for calculating a correction amount according to the degree of influence of the shading;
(g) means for performing exposure control and / or image processing based on the correction amount;
With
The image processing apparatus according to claim 1, wherein the image processing is processing independent of a pixel position related to the image.
請求項1または請求項2に記載の撮像装置において、
前記測色情報は、YCrCbに関する色差の情報であることを特徴とする撮像装置。
In the imaging device according to claim 1 or 2,
The colorimetric information is color difference information regarding YCrCb.
請求項1ないし請求項3のいずれかに記載の撮像装置において、
前記検知手段は、
前記画像の周辺部に占める空色領域に基づき、前記シェーディングの影響度を検知する手段、
を有することを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 3,
The detection means includes
Means for detecting the degree of influence of the shading based on the sky blue area occupying the periphery of the image;
An imaging device comprising:
請求項1ないし請求項4のいずれかに記載の撮像装置において、
前記検知手段は、
前記画像の周辺部に占める高輝度の白色領域に基づき、前記シェーディングの影響度を検知する手段、
を有することを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 4,
The detection means includes
Means for detecting the degree of influence of the shading based on a high-luminance white area occupying the periphery of the image;
An imaging device comprising:
請求項1ないし請求項5のいずれかに記載の撮像装置において、
前記検知手段は、
前記画像の周辺部に占める特定の領域に基づき、前記シェーディングの影響度を検知する手段、
を有し、
前記特定の領域は、特定色に関する近傍色の領域であることを特徴とする撮像装置。
The imaging device according to any one of claims 1 to 5,
The detection means includes
Means for detecting the degree of influence of the shading based on a specific area occupying the periphery of the image;
Have
The imaging device according to claim 1, wherein the specific region is a region of a neighboring color related to a specific color.
請求項1ないし請求項6のいずれかに記載の撮像装置において、
前記検知手段は、
前記複数の領域それぞれの測光情報から得られる画像全体での最大輝度と最小輝度との差に基づき、前記シェーディングの影響度を検知する手段、
を有することを特徴とする撮像装置。
The imaging apparatus according to any one of claims 1 to 6,
The detection means includes
Means for detecting the degree of influence of the shading based on the difference between the maximum luminance and the minimum luminance in the entire image obtained from the photometric information of each of the plurality of regions;
An imaging device comprising:
請求項2に記載の撮像装置において、
前記露出制御では、前記補正量に応じた露出補正が行われることを特徴とする撮像装置。
The imaging device according to claim 2,
In the exposure control, an exposure correction according to the correction amount is performed.
請求項2に記載の撮像装置において、
前記露出制御では、前記補正量に応じて、絞り値を絞り込み側に設定する補正が行われることを特徴とする撮像装置。
The imaging device according to claim 2,
In the exposure control, the image pickup apparatus is characterized in that a correction is performed to set an aperture value on the aperture side in accordance with the correction amount.
請求項2に記載の撮像装置において、
(h)前記補正量に基づき、複数のトーンカーブから1のトーンカーブを選択する選択手段、
をさらに備え、
前記画像処理は、前記選択手段で選択される1のトーンカーブを用いた画像処理であることを特徴とする撮像装置。
The imaging device according to claim 2,
(h) selection means for selecting one tone curve from a plurality of tone curves based on the correction amount;
Further comprising
The imaging apparatus according to claim 1, wherein the image processing is image processing using one tone curve selected by the selection unit.
請求項2に記載の撮像装置において、
前記補正量算出手段は、
(f-1)撮影レンズの焦点距離に応じて前記補正量を調整する調整手段、
を有することを特徴とする撮像装置。
The imaging device according to claim 2,
The correction amount calculating means includes
(f-1) adjusting means for adjusting the correction amount according to the focal length of the taking lens;
An imaging device comprising:
撮像装置に内蔵されたコンピュータにおいて実行されることにより、当該撮像装置を請求項1ないし請求項11のいずれかに記載の撮像装置として機能させることを特徴とするプログラム。   A program for causing an imaging device to function as the imaging device according to any one of claims 1 to 11 by being executed by a computer incorporated in the imaging device. シェーディングに関する処理を行う方法であって、
被写体に係る画像を取得する撮像工程と、
前記画像を複数の領域に分割する分割工程と、
前記複数の領域それぞれに関する測光情報を生成する測光工程と、
前記複数の領域それぞれに関する測色情報を生成する測色工程と、
前記測光情報および/または前記測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知工程と、
前記シェーディングの影響度に応じた補正量を算出する補正量算出工程と、
前記補正量に基づく露出制御および/または画像処理を行う処理工程と、
を備え、
前記画像処理は、前記画像に係る画素位置によらない処理であることを特徴とするシェーディング処理方法。
A method for performing processing related to shading,
An imaging step of acquiring an image relating to the subject;
A dividing step of dividing the image into a plurality of regions;
A photometric process for generating photometric information for each of the plurality of regions;
A colorimetric process for generating colorimetric information for each of the plurality of regions;
Based on the photometric information and / or the colorimetric information, a detection step of detecting the degree of shading related to the image;
A correction amount calculation step of calculating a correction amount according to the degree of influence of the shading;
A processing step of performing exposure control and / or image processing based on the correction amount;
With
The shading processing method according to claim 1, wherein the image processing is processing independent of a pixel position related to the image.
JP2005204135A 2005-07-13 2005-07-13 Imaging apparatus, program and method for processing shading Pending JP2007027943A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005204135A JP2007027943A (en) 2005-07-13 2005-07-13 Imaging apparatus, program and method for processing shading

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005204135A JP2007027943A (en) 2005-07-13 2005-07-13 Imaging apparatus, program and method for processing shading

Publications (1)

Publication Number Publication Date
JP2007027943A true JP2007027943A (en) 2007-02-01

Family

ID=37788150

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005204135A Pending JP2007027943A (en) 2005-07-13 2005-07-13 Imaging apparatus, program and method for processing shading

Country Status (1)

Country Link
JP (1) JP2007027943A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004399A (en) * 2008-06-20 2010-01-07 Canon Inc Image capturing apparatus and image capturing method
JP2010171565A (en) * 2009-01-21 2010-08-05 Sanyo Electric Co Ltd Electronic camera
JP2010199844A (en) * 2009-02-24 2010-09-09 Ricoh Co Ltd Image processor, image processing method, program and storage medium
JP2013115702A (en) * 2011-11-30 2013-06-10 Canon Inc Imaging apparatus
JP2017041667A (en) * 2015-08-17 2017-02-23 コニカミノルタ株式会社 Image recognition system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010004399A (en) * 2008-06-20 2010-01-07 Canon Inc Image capturing apparatus and image capturing method
JP2010171565A (en) * 2009-01-21 2010-08-05 Sanyo Electric Co Ltd Electronic camera
JP2010199844A (en) * 2009-02-24 2010-09-09 Ricoh Co Ltd Image processor, image processing method, program and storage medium
JP2013115702A (en) * 2011-11-30 2013-06-10 Canon Inc Imaging apparatus
JP2017041667A (en) * 2015-08-17 2017-02-23 コニカミノルタ株式会社 Image recognition system

Similar Documents

Publication Publication Date Title
JP3680827B2 (en) Digital camera
JP5397068B2 (en) Imaging apparatus, imaging control method, exposure control apparatus, and exposure control method
JP4628937B2 (en) Camera system
JP3551123B2 (en) Electronic camera
US7184078B2 (en) Image-processing apparatus and image-quality control method
JP5738080B2 (en) Imaging apparatus and control method thereof
JP6521776B2 (en) Image processing apparatus, image processing method
US10992854B2 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium
JP2001275029A (en) Digital camera, its image signal processing method and recording medium
JP2003224769A (en) Digital camera
JP4717720B2 (en) Image processing apparatus and method, and program
JP5458937B2 (en) IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PROGRAM FOR EXECUTING THE IMAGING METHOD
JP5223686B2 (en) Imaging apparatus and imaging method
JP5822508B2 (en) Imaging apparatus and control method thereof
JP2007124282A (en) Imaging apparatus
JP2008278354A (en) Imaging device
JP2008053931A (en) Imaging apparatus
JP2007027943A (en) Imaging apparatus, program and method for processing shading
JP5091781B2 (en) Imaging apparatus and imaging method
JP2004088408A (en) Digital camera
JP2007124278A (en) Imaging apparatus
JP4335648B2 (en) Digital camera and imaging method of digital camera
JP2006080960A (en) Image pickup device and method
JP2009022044A (en) Image processing apparatus and image processing program
JP3918985B2 (en) Digital camera