JP2007027943A - Imaging apparatus, program and method for processing shading - Google Patents
Imaging apparatus, program and method for processing shading Download PDFInfo
- Publication number
- JP2007027943A JP2007027943A JP2005204135A JP2005204135A JP2007027943A JP 2007027943 A JP2007027943 A JP 2007027943A JP 2005204135 A JP2005204135 A JP 2005204135A JP 2005204135 A JP2005204135 A JP 2005204135A JP 2007027943 A JP2007027943 A JP 2007027943A
- Authority
- JP
- Japan
- Prior art keywords
- image
- shading
- imaging device
- correction amount
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 64
- 238000012545 processing Methods 0.000 title claims description 62
- 238000000034 method Methods 0.000 title claims description 33
- 238000012937 correction Methods 0.000 claims abstract description 96
- 235000012736 patent blue V Nutrition 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 14
- 238000003672 processing method Methods 0.000 claims 1
- 230000009467 reduction Effects 0.000 abstract description 3
- 230000002093 peripheral effect Effects 0.000 description 29
- 230000000875 corresponding effect Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000003705 background correction Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005375 photometry Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 238000011895 specific detection Methods 0.000 description 3
- 244000025254 Cannabis sativa Species 0.000 description 2
- 230000009118 appropriate response Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 239000013256 coordination polymer Substances 0.000 description 2
- 230000006837 decompression Effects 0.000 description 2
- 238000003702 image correction Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、被写体に係る画像を取得する撮像装置の技術に関する。 The present invention relates to a technique of an imaging apparatus that acquires an image related to a subject.
デジタルカメラ(撮像装置)等で撮影された画像に対する画像処理については、画像中央部の測光情報や測色情報に基づくヒストグラム等によって撮影シーンを判定し、その撮影シーンに応じたシェーディング補正を施こす技術が知られている(例えば特許文献1)。 For image processing on images taken with a digital camera (imaging device), etc., the shooting scene is determined by a histogram based on photometric information and colorimetric information at the center of the image, and shading correction is applied according to the shooting scene. A technique is known (for example, Patent Document 1).
しかしながら、上記の特許文献1の技術では、画像中央部における測光・測色情報により撮影シーンを判定するが、画像中央部のみの情報から本当にシェーディングの影響を受けやすいシーンか否かの判定を精度良く行えるとは限らない。これでは、シェーディングに関する適切な対応が困難である。
However, in the technique of the above-described
また、公知技術である従来のシェーディング補正では、LUT等により画像周辺部のゲインを強制的に上げているため周辺部に斑点のような色ノイズが現れるような場合もあった。 Further, in the conventional shading correction which is a known technique, the gain at the peripheral portion of the image is forcibly increased by an LUT or the like, and color noise such as spots may appear in the peripheral portion.
本発明は、上記課題に鑑みてなされたものであり、シェーディングの影響を受けやすいシーンか否かを精度良く判定して適切な対応を行える撮像装置の技術を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique for an imaging apparatus that can accurately determine whether a scene is easily affected by shading and perform an appropriate response.
上記の課題を解決するため、請求項1の発明は、撮像装置であって、(a)被写体に係る画像を取得する撮像手段と、(b)前記画像を複数の領域に分割する分割手段と、(c)前記複数の領域それぞれに関する測光情報および/または測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知手段と、(d)前記シェーディングの影響度に応じた露出制御および/または画像処理を行う手段とを備え、前記画像処理は、前記画像に係る画素位置によらない処理である。
In order to solve the above-described problems, the invention of
また、請求項2の発明は、撮像装置であって、(a)被写体に係る画像を取得する撮像手段と、(b)前記画像を複数の領域に分割する分割手段と、(c)前記複数の領域それぞれに関する測光情報を取得する測光手段と、(d)前記複数の領域それぞれに関する測色情報を取得する測色手段と、(e)前記測光情報および/または前記測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知手段と、(f)前記シェーディングの影響度に応じた補正量を算出する補正量算出手段と、(g)前記補正量に基づく露出制御および/または画像処理を行う手段とを備え、前記画像処理は、前記画像に係る画素位置によらない処理である。
The invention of
また、請求項3の発明は、請求項1または請求項2の発明に係る撮像装置において、前記測色情報は、YCrCbに関する色差の情報である。 According to a third aspect of the present invention, in the imaging apparatus according to the first or second aspect of the present invention, the colorimetric information is color difference information relating to YCrCb.
また、請求項4の発明は、請求項1ないし請求項3のいずれかの発明に係る撮像装置において、前記検知手段は、前記画像の周辺部に占める空色領域に基づき、前記シェーディングの影響度を検知する手段を有する。 According to a fourth aspect of the present invention, in the imaging apparatus according to any one of the first to third aspects of the present invention, the detection means determines the degree of influence of the shading based on a sky blue region that occupies the periphery of the image. It has a means to detect.
また、請求項5の発明は、請求項1ないし請求項4のいずれかの発明に係る撮像装置において、前記検知手段は、前記画像の周辺部に占める高輝度の白色領域に基づき、前記シェーディングの影響度を検知する手段を有する。 According to a fifth aspect of the present invention, in the imaging apparatus according to any one of the first to fourth aspects, the detection unit is configured to perform the shading based on a high-luminance white region occupying a peripheral portion of the image. Means for detecting the degree of influence.
また、請求項6の発明は、請求項1ないし請求項5のいずれかの発明に係る撮像装置において、前記検知手段は、前記画像の周辺部に占める特定の領域に基づき、前記シェーディングの影響度を検知する手段を有し、前記特定の領域は、特定色に関する近傍色の領域である。 According to a sixth aspect of the present invention, in the imaging apparatus according to any one of the first to fifth aspects of the present invention, the detection means is based on a specific area occupying the periphery of the image, and the degree of influence of the shading. The specific area is an area of a neighboring color related to the specific color.
また、請求項7の発明は、請求項1ないし請求項6のいずれかの発明に係る撮像装置において、前記検知手段は、前記複数の領域それぞれの測光情報から得られる画像全体での最大輝度と最小輝度との差に基づき、前記シェーディングの影響度を検知する手段を有する。 According to a seventh aspect of the present invention, in the imaging apparatus according to any one of the first to sixth aspects, the detection means has a maximum luminance in the entire image obtained from photometric information of each of the plurality of regions. Means for detecting the degree of influence of the shading based on the difference from the minimum luminance.
また、請求項8の発明は、請求項2の発明に係る撮像装置において、前記露出制御では、前記補正量に応じた露出補正が行われる。 According to an eighth aspect of the present invention, in the imaging apparatus according to the second aspect of the present invention, in the exposure control, exposure correction is performed according to the correction amount.
また、請求項9の発明は、請求項2の発明に係る撮像装置において、前記露出制御では、前記補正量に応じて、絞り値を絞り込み側に設定する補正が行われる。 According to a ninth aspect of the present invention, in the image pickup apparatus according to the second aspect of the present invention, in the exposure control, a correction for setting an aperture value to a narrowing side is performed according to the correction amount.
また、請求項10の発明は、請求項2の発明に係る撮像装置において、(h)前記補正量に基づき、複数のトーンカーブから1のトーンカーブを選択する選択手段をさらに備え、前記画像処理は、前記選択手段で選択される1のトーンカーブを用いた画像処理である。
The invention according to
また、請求項11の発明は、請求項2の発明に係る撮像装置において、前記補正量算出手段は、(f-1)撮影レンズの焦点距離に応じて前記補正量を調整する調整手段を有する。 According to an eleventh aspect of the present invention, in the imaging apparatus according to the second aspect of the invention, the correction amount calculating means includes (f-1) an adjusting means for adjusting the correction amount in accordance with a focal length of the photographing lens. .
また、請求項12の発明は、撮像装置に内蔵されたコンピュータにおいて実行されることにより、当該撮像装置を請求項1ないし請求項11のいずれかの発明に係る撮像装置として機能させるプログラムである。 A twelfth aspect of the invention is a program for causing an imaging device to function as the imaging device according to any one of the first to eleventh aspects of the invention when executed by a computer built in the imaging device.
また、請求項13の発明は、シェーディングに関する処理を行う方法であって、被写体に係る画像を取得する撮像工程と、前記画像を複数の領域に分割する分割工程と、前記複数の領域それぞれに関する測光情報を生成する測光工程と、前記複数の領域それぞれに関する測色情報を生成する測色工程と、前記測光情報および/または前記測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知工程と、前記シェーディングの影響度に応じた補正量を算出する補正量算出工程と、前記補正量に基づく露出制御および/または画像処理を行う処理工程とを備え、前記画像処理は、前記画像に係る画素位置によらない処理である。
The invention of
請求項1ないし請求項13の発明によれば、撮像手段で取得される画像を分割した複数の領域それぞれに関する測光情報および/または測色情報に基づき、画像に係るシェーディングの影響度を検知し、シェーディングの影響度に応じた露出制御および/または画像の画素位置によらない画像処理を行う。その結果、シェーディングの影響を受けやすいシーンか否かを精度良く判定して適切な対応を行える。 According to the first to thirteenth aspects of the present invention, based on photometric information and / or colorimetric information regarding each of a plurality of regions obtained by dividing the image acquired by the imaging unit, the degree of shading related to the image is detected, Exposure control according to the degree of influence of shading and / or image processing independent of the pixel position of the image is performed. As a result, it is possible to accurately determine whether or not the scene is easily affected by shading and perform an appropriate response.
特に、請求項3の発明においては、測色情報がYCrCbに関する色差の情報であるため、演算負担を軽減して測色情報を迅速に取得できる。
In particular, in the invention of
また、請求項4の発明においては、画像の周辺部に占める空色領域に基づきシェーディングの影響度を検知するため、シェーディングの影響を受けやすい、例えば青空が多く含まれるシーンを精度良く判定できる。
In the invention of
また、請求項5の発明においては、画像の周辺部に占める高輝度の白色領域に基づきシェーディングの影響度を検知するため、シェーディングの影響を受けやすい、例えば雪景色が多く含まれるシーンを精度良く判定できる。
In the invention of
また、請求項6の発明においては、画像の周辺部に占める、特定色に関する近傍色の領域に基づきシェーディングの影響度を検知するため、シェーディングの影響を受けやすい、色のばらつきが少ないシーンを精度良く判定できる。
In the invention of
また、請求項7の発明においては、複数の領域それぞれの測光情報から得られる画像全体での最大輝度と最小輝度との差に基づきシェーディングの影響度を検知するため、シェーディングの影響を受けやすい低コントラストのシーンを精度良く判定できる。
In the invention of
また、請求項8の発明においては、露出制御では補正量に応じた露出補正が行われるため、画像処理によらずにシェーディングの影響を低減できる。 In the eighth aspect of the invention, since exposure correction is performed according to the correction amount in exposure control, the influence of shading can be reduced regardless of image processing.
また、請求項9の発明においては、露出制御では補正量に応じて絞り値を絞り込み側に設定する補正が行われるため、画像処理によらずにシェーディングの影響を低減できる。
In the invention of
また、請求項10の発明においては、画像処理は補正量に基づき複数のトーンカーブから選択される1のトーンカーブを用いた画像処理であるため、迅速にシェーディングの影響を低減できる。
In the invention of
また、請求項11の発明においては、撮影レンズの焦点距離に応じて補正量を調整するため、シェーディングの影響を適切に低減できる。
In the invention of
以下、本発明の実施形態を図面に基づいて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<撮像装置1の構成>
図1〜図3は、本発明の実施形態に係る撮像装置1の外観の概略構成を示す図である。図1は撮像装置1の平面図、図2は図1のII−II位置から見た断面図、図3は撮像装置1の背面図に相当する。
<Configuration of
1 to 3 are diagrams illustrating a schematic configuration of an external appearance of an
撮像装置1は、例えばデジタルカメラとして構成されており、略直方体状をしているカメラ本体部2と、カメラ本体部2に着脱可能に装着される撮影レンズ3とを備えている。図1に示すように、撮像装置1は撮影画像を記録するメモリカード8が着脱可能に収納されるようになっている。また、撮像装置1は、4本の単三形乾電池E1〜E4を直列接続する電源電池Eを駆動源としている。
The
図2に示すように、ズームレンズである撮影レンズ3はレンズ群30を備えている。ここでは、撮影レンズ3として2群ズームレンズを示しており、レンズ群30は、大きく2つのレンズ群300,301に分類される。なお、図2および図3においては、図示の都合上、レンズ群300,301をそれぞれ一枚のレンズとして示している。ただし、実際には各レンズ群300,301は、一枚のレンズに限定されず、複数枚のレンズの集合体として構成されていても良い。
As shown in FIG. 2, the photographing
一方、カメラ本体部2の内部には、レンズ群300を駆動するためのモータM1、およびレンズ群301を駆動するモータM2が設けられている。これらのモータM1,M2を制御することにより、撮影レンズ3のズーム倍率を変更すること、および撮影レンズ3の合焦状態を変更すること(すなわちフォーカス動作)を行うことが可能である。
On the other hand, a motor M1 for driving the
また、撮影レンズ3のレンズ群30の後方位置の適所に、被写体に係る画像を取得するカラー撮像素子303が設けられている。カラー撮像素子303は、CCDからなるエリアセンサの各画素の表面に、R(赤)、G(緑)、B(青)のカラーフィルタが市松模様状に貼り付けられた単板式カラーエリアセンサで構成される。
In addition, a
カメラ本体部2の前面には、図1のようにグリップ部Gが設けられ、カメラ本体部2の上端点の適所にポップアップ形式の内蔵フラッシュ5が設けられている。また、図3の如く、カメラ本体部2の上面にはシャッタボタン9が設けられている。このシャッタボタン9については、フォーカス調整用などのトリガーとして用いる半押し状態(S1)と、記録用撮影(本撮影)のトリガーとして用いる全押し状態(S2)とを検出し、判別する機能を有してる。
As shown in FIG. 1, a grip part G is provided on the front surface of the
一方、カメラ本体部2の背面には、電子ビューファインダ(以下、「EVF」)20と液晶ディスプレイ(以下、「LCD」)10とが設けられている。なお、光学ファインダーとは異なり、撮影待機状態においてCCD303からの画像信号のライブビュー表示を行うEVF20とLCD10とがファインダーとしての機能を担っている。
On the other hand, an electronic viewfinder (hereinafter “EVF”) 20 and a liquid crystal display (hereinafter “LCD”) 10 are provided on the back of the
また、LCD10は記録モードにおいて撮影モードや撮影条件等を設定するためのメニュー画面を表示したり、再生モードにおいてメモリカード8に記録された撮影画像を再生表示することが可能である。
Further, the
カメラ本体部2の背面左方には、電源スイッチ14が設けられている。この電源スイッチ14は記録モード(写真撮影の機能を果たすモード)と再生モード(記録画像をLCD10に再生するモード)とを切換設定するモード設定スイッチを兼ねている。すなわち、電源スイッチ14は3点スライドスイッチからなり、接点を中央の「OFF」位置に設定すると電源がオフになり、接点を上方の「REC」位置に設定すると電源がオンになるとともに記録モードとして設定され、接点を下方の「PLAY」位置に設定すると電源がオンになるとともに再生モードとして設定される。
A
カメラ本体部2の背面右方には、4連スイッチ15が設けられている。4連スイッチ15は円形の操作ボタンを有し、この操作ボタンにおける上下左右の4方向のボタンSU、SD、SL、SRを押下することによって各種操作を行うことが可能となっている。例えば、LCD10に表示されるメニュー画面で選択された項目を変更したり、インデックス画面で選択された再生対象のコマを変更するためのスイッチとして機能する。また、記録モードにおいて左右方向のボタンSL,SRは、ズーム倍率を変更するためのスイッチとして機能する。具体的には、モータM1,M2の駆動により2つのレンズ群300,301の相対的な位置関係が変更されることによって、ズーム倍率が変更される。より詳細には、右方向スイッチSRを押下するとワイド側に連続的に移動し、左方向スイッチSLを押下するとテレ側に連続的に移動する。
A
また、4連スイッチ15の下方には、取消スイッチ33、実行スイッチ32、メニュー表示スイッチ34及びLCD表示スイッチ31等のスイッチ群16が設けられている。取消スイッチ33は、メニュー画面で選択された内容を取り消すためのスイッチである。実行スイッチ32は、メニュー画面で選択された内容を確定するまたは実行するためのスイッチである。メニュー表示スイッチ34は、LCD10にメニュー画面を表示させたり、メニュー画面の内容を切り換えたりするためのスイッチである。LCD表示スイッチ31は、LCD10の表示のオンオフ切り替えスイッチである。
A
次に、撮像装置1の内部構成について説明する。図4は、撮像装置1の内部構成を示す概略ブロック図である。
Next, the internal configuration of the
撮影レンズ3は、レンズ群300,301とともに、内部に透過光量を調節するための絞り302を備えている。なお、図4においては、図示の都合上、絞り302がレンズ群301の後側に配置されるように示しているが、絞り302の配置はこのようなものに限定されない。たとえば、絞り302は、レンズ群301(ないし300)の内部に設けられていても良く、または、両レンズ群300,301の間に設けられていてもよい。
The taking
CCD303は、撮影レンズ3を通して入射された被写体からの光を所定の露光時間だけ受光して画像信号に光電変換して取り込む。CCD303は、光電変換後の画像信号を信号処理部120に出力する。このようにして、撮影光学系としての撮影レンズ3からの被写体像が画像として取得される。
The
信号処理部120は、CCD303から出力される画像信号に所定のアナログ信号処理及びデジタル信号処理を行うものである。画像信号の信号処理は画像データを構成する各画素の受光信号毎に行われる。信号処理部120は、アナログ信号処理回路121、A/D変換回路122、シェーディング補正回路123、画像処理回路124、及び画像メモリ126を備えている。
The
アナログ信号処理回路121はアナログ信号処理を行うものであり、主にCDS(相関二重サンプリング)回路及びAGC(オートゲインコントロール)回路からなり、CCD303から出力される画素信号のサンプリングノイズの低減と信号レベルの調整を行う。
The analog
A/D変換回路122はアナログ信号処理回路121から出力されるアナログ信号である画素信号(画像信号)をデジタル信号である画素データ(画像データ)に変換するものである。A/D変換回路122は各画素で受光された画素信号を、例えば、12ビットのデジタル信号に変換し、0〜4095の階調値を有する画素データとする。変換後の画素データ(画像データ)は、画像メモリ126に一旦格納される。
The A /
シェーディング補正回路123は、A/D変換された画素データに対して、光学系によるシェーディング(画像周辺の光量低下)を補正するものである。具体的には、A/D変換回路122において変換された画像データと、画像周辺部のゲインが中央部より高く設定されるシェーディング補正係数との乗算処理を行って、シェーディング補正がなされる。
The
画像処理回路124は、WB(ホワイトバランス)回路、カラーバランス評価回路、画素補間回路、色補正回路、γ補正回路、色分解回路、空間フィルタ、解像度変換回路、圧縮伸長処理回路等を有している。このうち、WB回路は撮影画像のホワイトバランスを調整するものである。WB回路は、カラーバランス評価回路による撮影画像のカラーバランスに関する評価結果等を用いて、R,G,Bの各色成分の画素データのレベルを変換する。画素補間回路は、R,G,Bの3種類の色フィルタが分散配置されたベイヤー配列を有するCCD303において、各画素位置における3つの色成分R,G,Bのうち実際には存在しない2つの色成分を補間により求める回路であり、色補正回路は、フィルタの分光感度特性を補正する回路である。γ補正回路は画素データのγ特性を補正する回路であり、予め設定されたγ補正用テーブルを用いて各画素データのレベルを補正する。色分解回路は、(R,G,B)信号を(Y,Cr,Cb)信号に変換する回路である。この色分解処理は、マトリクス演算器を用いて行われる。空間フィルタはローパスフィルタおよびハイパスフィルタ等を用いてエッジ強調などの各種のフィルタ処理を行う回路である。解像度変換回路は所望の解像度に変換する回路であり、圧縮伸長処理回路はJPEG等の所定形式のデータへの圧縮処理、およびその逆の伸長処理を行う回路である。
The
画像メモリ126は画像データを一時保持するメモリである。画像処理回路124における各処理は、画像メモリ126に格納された画像データに対して施される。
The
発光制御部102は、全体制御部150から入力される発光制御信号に基づいてフラッシュ5の発光を制御する。
The light
レンズ制御部130は撮影レンズ3内のレンズ群300,301および絞り302の各部材の駆動を制御するものである。レンズ制御部130は、絞り302の絞り値を制御する絞り制御回路131と、モータM1,M2を駆動することによりズームの変倍率を変更するズーム制御回路132と、モータM1,M2を駆動することによりフォーカス制御を行うフォーカス制御回路133とを備えている。
The
絞り制御回路131は全体制御部150から入力される絞り値に基づいて絞り302を駆動し、その開口量を当該絞り値に設定する。フォーカス制御回路133は全体制御部150から入力されるAF制御信号に基づいてモータM1,M2の駆動量を制御し、レンズ群300,301を焦点位置に設定する。ズーム制御回路132は、4連スイッチ15による入力に応じて全体制御部150から入力されるズーム制御信号に基づいて、モータM1,M2を駆動してレンズ群300,301を移動させる。これによって、ズームの状態が、ワイド側あるいはテレ側へと移動する。
The
表示部140は、LCD10及びEVF20への表示を行うものである。表示部140には、LCD10、EVF20とともに、LCD10に再生表示されるの画像データのバッファメモリとなるLCDVRAM141及びEVF20に再生表示される画像データのバッファメモリとなるEVFVRAM142を備えている。
The
撮影待機状態においては、CCD303により1/30(秒)毎に撮影された画像(ライブビュー用画像)の各画素データが、信号処理部120による所定の信号処理を施された後、画像メモリ126に一時記憶される。そして、全体制御部150によって読み出され、データサイズが調整された後にLCDVRAM141及びEVFVRAM142に転送され、LCD10及びEVF20にライブビュー表示として表示される。これによりユーザは、被写体像を視認することができる。また、再生モードにおいては、メモリカード8から読み出された画像が全体制御部150によって所定の信号処理が施された後に、LCDVRAM141に転送され、LCD10に再生表示されることとなる。
In the photographing standby state, each pixel data of an image (live view image) photographed by the
操作部101は、上述したカメラ本体部2に設けられた撮影や再生に関する操作部材の操作情報を全体制御部に入力するものである。操作部101から入力される操作情報にはシャッタボタン9、電源スイッチ14、4連スイッチ15及びスイッチ群16等の各操作部材の操作情報が含まれる。
The
全体制御部150は、マイクロコンピュータからなり、撮影機能及び再生機能を集中制御するものである。全体制御部150にはカードインターフェース103を介してメモリカード8が接続されている。また、通信用インターフェース105を介してパーソナルコンピュータPCが外部接続されるようになっている。
The
全体制御部150は、撮影機能及び再生機能における数々の具体的な処理を行うための処理プログラムや上述した撮像装置1の各部材の駆動を制御するための制御プログラムが記憶されたROM151と、処理プログラム及び制御プログラムに従って数々の演算作業を行うための作業領域となるRAM152を備えている。なお、記録媒体であるメモリカード8に記録されている、例えばシェーディングの対応処理を行うプログラム(以下では「シェーディング対応プログラム」という)などのプログラムデータをカードインターフェース103を介して読み出し、ROM151に格納することができるようになっている。従って、これらの処理プログラム及び制御プログラムは、メモリカード8から撮像装置1中にインストールされることが可能である。なお、処理プログラム及び制御プログラムは、通信用インターフェース105を介してパーソナルコンピュータPCからインストールされるようになっていてもよい。
The
以上のような構成を有する撮像装置1の動作を詳しく説明する。
The operation of the
<撮像装置1の動作>
図5は、撮像装置1の基本的な動作を示すフローチャートである。本動作は、特にシェーディングに関する対応処理に対応しており、この処理を行うシェーディング対応プログラムを制御部150で実行することにより実施される。
<Operation of
FIG. 5 is a flowchart showing the basic operation of the
撮影モードが設定され、ライブビュー撮影が行われている状態において、シャッタボタン9がユーザによって半押しされたかを判定する(ステップST1)。ここで、半押しされた場合には、ステップST2に進み、半押しされていない場合には、ステップST1を繰り返す。
In the state where the shooting mode is set and the live view shooting is performed, it is determined whether the
ステップST2では、撮影条件の取得を行う。すなわち、本撮影時に必要な各種情報、例えば撮影レンズ3の焦点距離、絞り302の情報やISO感度設定の情報などを取得する。
In step ST2, photographing conditions are acquired. That is, various types of information necessary for actual photographing, such as the focal length of the photographing
ステップST3では、ライブビュー撮影によりCCD303で取得された画像データから測光・測色情報を取得する(後で詳述)。
In step ST3, photometric / colorimetric information is acquired from image data acquired by the
ステップST4では、ステップST3で取得した測光・測色情報に基づき、制御露出レベルを算出する(後で詳述)。 In step ST4, a control exposure level is calculated based on the photometric / colorimetric information acquired in step ST3 (details will be described later).
ステップST5では、ステップST3で取得した測光・測色情報に基づき、シェーディングの影響を受けやすいシーンであるか否かを判定する(後で詳述)。 In step ST5, based on the photometric / colorimetric information acquired in step ST3, it is determined whether or not the scene is susceptible to shading (detailed later).
ステップST6では、ステップST5で検知されたシェーディングの影響度に応じてシェーディングを軽減する処置としての露出補正を行う(後で詳述)。 In step ST6, exposure correction is performed as a measure for reducing shading according to the degree of influence of shading detected in step ST5 (details will be described later).
ステップST7では、ステップST6での露出補正に基づき、制御露出を設定する(後で詳述)。 In step ST7, control exposure is set based on the exposure correction in step ST6 (details will be described later).
ステップST8では、シャッタボタン9がユーザによって全押しされたかを判定する。ここで、全押しされた場合には、ステップST9に進み、全押しされていない場合には、ステップST1に戻る。
In step ST8, it is determined whether the
ステップST9では、ステップST7で設定された制御露出で露光を行う。 In step ST9, exposure is performed with the control exposure set in step ST7.
ステップST10では、ステップST9の露光によりCCD303で取得された画像データから測光・測色情報を取得する(後で詳述)。
In step ST10, photometric / colorimetric information is acquired from the image data acquired by the
ステップST11では、ステップST10で取得された測光・測色情報に基づき検知されるシェーディングの影響度に応じてシェーディングを軽減する処置として、適切なトーンカーブを選択する処理を行う。 In step ST11, an appropriate tone curve is selected as a measure for reducing shading according to the degree of influence of shading detected based on the photometric / colorimetric information acquired in step ST10.
ステップST12では、画像の記録を行う。すなわち、ステップST11で選択されたトーンカーブによる画像処理が施された画像をメモリカード8に記録する。
In step ST12, an image is recorded. That is, an image that has been subjected to image processing using the tone curve selected in step ST11 is recorded in the
図6は、上記のステップST3(ST10)に対応しており、測光・測色情報取得の動作を示すフローチャートである。 FIG. 6 is a flowchart corresponding to the above-described step ST3 (ST10) and showing the photometric / colorimetric information acquisition operation.
ステップST21では、CCD303で取得された画像を分割したブロックに関する測光情報と測色情報とを取得する。これに関して具体的に説明する。
In step ST21, photometric information and colorimetric information relating to a block obtained by dividing the image acquired by the
図7に示すようにCCD303で取得された画像Goを縦方向および横方向にそれぞれ16分割し、複数の領域として256個のブロックBkを生成する。そして、ブロックBk毎に測光情報Y[i](i=0〜255)および測色情報R[i]、G[i]、B[i](i=0〜255)を12ビットのデータで取得する。この測光情報および測色情報としては、例えば各ブロックBk内での平均輝度値および平均測色値を利用する。
As shown in FIG. 7, the image Go acquired by the
ステップST22では、ステップST21で得られた測光情報および測色情報に基づきブロックBk毎の色差情報を取得する。具体的には、次の式(1)および式(2)のようにYCrCb色空間に関する色差情報CrS、CbSを算出する。 In step ST22, color difference information for each block Bk is acquired based on the photometric information and colorimetric information obtained in step ST21. Specifically, the color difference information CrS and CbS related to the YCrCb color space is calculated as in the following expressions (1) and (2).
CrS[i]=k1×(R[i]−Y[i])/16・・・・・・・(1):
CbS[i]=k1×(B[i]−Y[i])/16・・・・・・・(2):
ここで、上式(1)〜(2)の右辺におけるk1は「0」より大きい値(例えば「1」)が設定される。
CrS [i] = k1 × (R [i] −Y [i]) / 16 (1):
CbS [i] = k1 × (B [i] −Y [i]) / 16 (2):
Here, k1 on the right side of the above formulas (1) to (2) is set to a value larger than “0” (for example, “1”).
ステップST23では、画像全体においてブロックBkに関する最大輝度と最小輝度とを検出する。具体的には、上記のステップST21で取得された256個の測光情報Y[i](i=0〜255)から、最大輝度cell_maxおよび最小輝度cell_minを検知する。 In step ST23, the maximum luminance and the minimum luminance relating to the block Bk are detected in the entire image. Specifically, the maximum luminance cell_max and the minimum luminance cell_min are detected from 256 pieces of photometric information Y [i] (i = 0 to 255) acquired in step ST21.
図8は、上記のステップST4に対応しており、露出レベル算出の動作を示すフローチャートである。 FIG. 8 is a flowchart corresponding to the above-described step ST4 and showing the exposure level calculation operation.
ステップST31では、CCD303で撮像された画像データから得られた輝度情報等に基づき、周知の手法を用いて逆光や順光等の撮影シーンを判定する。
In step ST31, based on luminance information obtained from image data captured by the
ステップST32では、ステップST31で判定された撮影シーン等に基づき、最適な制御輝度を算出する。具体的には、次の式(3)のように制御輝度BVtgtを算出する。 In step ST32, the optimal control luminance is calculated based on the shooting scene determined in step ST31. Specifically, the control luminance BVtgt is calculated as in the following equation (3).
BVtgt=f(Y[i],撮影シーン情報,その他情報)・・・・・・・(3):
すなわち、制御輝度BVtgtは、画像全域の輝度情報Y[i]と、ステップST31で得られた撮影シーンの情報と、その他の情報(例えば合焦位置、被写体までの距離、焦点距離の情報)とを引数に持つ関数fで求められる。
BVtgt = f (Y [i], shooting scene information, other information) (3):
That is, the control brightness BVtgt is brightness information Y [i] of the entire image, information of the shooting scene obtained in step ST31, and other information (for example, focus position, distance to the subject, focal length information) Is obtained by a function f having an argument of
図9は、上記のステップST5に対応しており、シーン判定の動作を示すフローチャートである。 FIG. 9 is a flowchart corresponding to the above-described step ST5 and showing the scene determination operation.
ステップST41では、画像周辺部で空色領域を検出する。この具体的な検出手法を以下で説明する。 In step ST41, a sky blue area is detected at the periphery of the image. This specific detection method will be described below.
まず、図7に示す256個のブロックBkで構成される画像Goを、中央部(図示の太枠内)に配置される100個のブロックBkからなる画像中央領域CPと、画像中央領域CP以外に配置される156個のブロックBkからなる画像周辺領域EPとに分ける。 First, an image Go composed of 256 blocks Bk shown in FIG. 7 is divided into an image central region CP composed of 100 blocks Bk arranged in the central portion (in the bold frame in the figure), and other than the image central region CP. Are divided into an image peripheral area EP composed of 156 blocks Bk.
そして、画像周辺領域EPにおける156個のブロックBkのうち、次の条件を満足する空色のブロックBkの数sky_numをカウントする。 Then, among the 156 blocks Bk in the image peripheral area EP, the number sky_num of sky blue blocks Bk satisfying the following condition is counted.
・85≦CrS[i]≦127:
・132<CbS[i]≦188:
・640<Y[i]:
以上のように画像周辺領域EPに占める空色領域を検出することで、シェーディングの影響度が検知できることとなる。
85 ≦ CrS [i] ≦ 127:
132 <CbS [i] ≦ 188:
640 <Y [i]:
As described above, the influence of shading can be detected by detecting the sky blue area in the image peripheral area EP.
ステップST42では、画像周辺部で、例えば雪景色が映る領域のように高輝度の白色領域を検出する。この具体的な検出手法を以下で説明する。 In step ST42, a white area with high luminance is detected at the periphery of the image, for example, an area where a snow scene is reflected. This specific detection method will be described below.
図7に示す画像周辺領域EPにおける156個のブロックBkのうち、次の条件を満足するブロックBkの数snow_numをカウントする。 Among the 156 blocks Bk in the image peripheral area EP shown in FIG. 7, the number snow_num of the blocks Bk satisfying the following condition is counted.
・120<CrS[i]<136:
・124<CbS[i]<132:
・3200<Y[i]:
以上のように画像周辺領域EPに占める高輝度白色領域を検出することで、シェーディングの影響度が検知できることとなる。
120 <CrS [i] <136:
124 <CbS [i] <132:
・ 3200 <Y [i]:
As described above, by detecting the high brightness white area in the image peripheral area EP, the influence degree of shading can be detected.
ステップST43では、画像周辺部の色平均を算出する。具体的には、図7に示す画像周辺領域EPにおける156個のブロックBkについて、CrS[i]の平均値crs_aveと、CbS[i]の平均値cbs_aveとを求める。 In step ST43, the color average of the peripheral portion of the image is calculated. Specifically, an average value crs_ave of CrS [i] and an average value cbs_ave of CbS [i] are obtained for 156 blocks Bk in the image peripheral area EP shown in FIG.
ステップST44では、画像周辺部で、色のばらつきが小さく均一性が高い特定色の領域(以下では「均一特定色領域」ともいう)を検出する。この具体的な検出手法を以下で説明する。 In step ST44, an area of a specific color (hereinafter also referred to as “uniform uniform color area”) with small color variation and high uniformity is detected in the peripheral portion of the image. This specific detection method will be described below.
図7に示す画像周辺領域EPにおける156個のブロックBkのうち、次の条件を満足するブロックBkの数monocol_numをカウントする。 Among the 156 blocks Bk in the image peripheral area EP shown in FIG. 7, the number monocol_num of the blocks Bk satisfying the following condition is counted.
・CrS[i]がステップST43で算出されたcrs_ave±6以内:
・CbS[i]がステップST43で算出されたcbs_ave±6以内:
以上のように画像周辺領域EPに占める、平均色(特定色)に関する近傍色の領域を検出することで、シェーディングの影響度が検知できることとなる。
CrS [i] is within crs_ave ± 6 calculated in step ST43:
CbS [i] is within cbs_ave ± 6 calculated in step ST43:
As described above, the degree of influence of shading can be detected by detecting the neighboring color region relating to the average color (specific color) in the image peripheral region EP.
図10は、上記のステップST6に対応しており、露出補正の動作を示すフローチャートである。 FIG. 10 is a flowchart corresponding to the above step ST6 and showing the exposure correction operation.
ステップST51では、上記のステップST41で検出された空色領域の、画像周辺領域EPに対する割合いに応じて露出補正値を算出する。この露出補正値の算出方法について以下で説明する。 In step ST51, an exposure correction value is calculated according to the ratio of the sky blue area detected in step ST41 to the image peripheral area EP. A method for calculating the exposure correction value will be described below.
図11は、空色領域と露出補正値との関係を示す図である。図11においては、横軸が空色領域のブロック数sky_num(最大値は156)を示し、縦軸が露出補正値D_BV_SKYを示している。 FIG. 11 is a diagram showing the relationship between the sky blue area and the exposure correction value. In FIG. 11, the horizontal axis indicates the number of sky blue area blocks sky_num (maximum value is 156), and the vertical axis indicates the exposure correction value D_BV_SKY.
グラフHaに示すように、露出補正値D_BV_SKYは空色領域のブロック数sky_numが32個から増加し始め、82個に達すると最大値の0.375EVで一定になる。 As shown in the graph Ha, the exposure correction value D_BV_SKY starts to increase from 32 in the number of blocks in the sky blue area, and becomes constant at the maximum value of 0.375 EV when reaching 82.
このように画像周辺領域EPに対する空色領域の占有面積に応じて露出補正値を露出オーバーの方向に設定することにより、図12に示す空Bsが画像の大半に映るシーン等に対して、シェーディングの軽減が図れることとなる(後述)。 In this way, by setting the exposure correction value in the overexposed direction in accordance with the occupied area of the sky blue region with respect to the image peripheral region EP, shading of the scene or the like in which the sky Bs shown in FIG. Reduction can be achieved (described later).
ステップST52では、上記のステップST42で検出された高輝度白色領域の、画像周辺領域EPに対する割合いに応じて露出補正値を算出する。この露出補正値の算出方法について以下で説明する。 In step ST52, an exposure correction value is calculated according to the ratio of the high brightness white area detected in step ST42 to the image peripheral area EP. A method for calculating the exposure correction value will be described below.
図13は、高輝度白色領域と露出補正値との関係を示す図である。図13においては、横軸が高輝度白色領域のブロック数snow_num(最大値は156)を示し、縦軸が露出補正値D_BV_SNOWを示している。 FIG. 13 is a diagram showing the relationship between the high brightness white area and the exposure correction value. In FIG. 13, the horizontal axis represents the number of blocks in the high brightness white area, snow_num (maximum value is 156), and the vertical axis represents the exposure correction value D_BV_SNOW.
グラフHbに示すように、露出補正値D_BV_SNOWは高輝度白色領域のブロック数snow_numが24個から増加し始め、72個に達すると最大値の0.5EVで一定になる。 As shown in the graph Hb, the exposure correction value D_BV_SNOW starts to increase from 24 in the high brightness white area block number snow_num, and becomes constant at the maximum value of 0.5 EV when it reaches 72.
このように画像周辺領域EPに対する高輝度白色領域の占有面積に応じて露出補正値を露出オーバーの方向に設定することにより、図14に示す雪景色Bwが映るシーン等に対して、シェーディングの軽減が図れることとなる(後述)。 In this way, by setting the exposure correction value in the overexposed direction in accordance with the area occupied by the high-intensity white region with respect to the image peripheral region EP, shading can be reduced for a scene or the like in which the snow scene Bw shown in FIG. Can be achieved (described later).
ステップST53では、上記のステップST44で検出された均一特定色領域の、周辺画像領域EPに対する割合いに応じて露出補正値を算出する。この露出補正値の算出方法について以下で説明する。 In step ST53, an exposure correction value is calculated according to the ratio of the uniform specific color area detected in step ST44 to the peripheral image area EP. A method for calculating the exposure correction value will be described below.
図15は、均一特定色領域と露出補正値との関係を示す図である。図15においては、横軸が均一特定色領域のブロック数monocol_num(最大値は156)を示し、縦軸が露出補正値D_BV_MONOを示している。 FIG. 15 is a diagram illustrating the relationship between the uniform specific color region and the exposure correction value. In FIG. 15, the horizontal axis indicates the number of blocks monocol_num (maximum value is 156) in the uniform specific color region, and the vertical axis indicates the exposure correction value D_BV_MONO.
グラフHcに示すように、露出補正値D_BV_MONOは均一特定色領域のブロック数monocol_numが40個から増加し始め、92個に達すると最大値の0.375EVで一定になる。 As shown in the graph Hc, the exposure correction value D_BV_MONO starts to increase from the number of blocks monocol_num of the uniform specific color region from 40, and when it reaches 92, becomes constant at the maximum value of 0.375EV.
グラフHcに示すように、画像周辺領域EPに対する均一特定色領域の占有面積に応じて露出補正値を露出オーバーの方向に設定することにより、図16に示す野球場の芝Bgが画像の大半に映るシーン等に対して、シェーディングの軽減が図れることとなる(後述)。 As shown in the graph Hc, by setting the exposure correction value in the overexposed direction according to the occupation area of the uniform specific color region with respect to the image peripheral region EP, the grass Bg of the baseball field shown in FIG. Shading can be reduced for a scene or the like (described later).
ステップST54では、画像全体に関するコントラスト差を演算する。具体的には、上記のステップST23で検出された最大輝度cell_maxと最小輝度cell_minとを用いて、次の式(4)のようにコントラスト差(輝度差)D_BV_CELLを算出する。 In step ST54, a contrast difference regarding the entire image is calculated. Specifically, the contrast difference (luminance difference) D_BV_CELL is calculated using the maximum luminance cell_max and the minimum luminance cell_min detected in step ST23 as shown in the following equation (4).
D_BV_CELL=cell_max−cell_min・・・・・(4):
上式(4)で演算されたD_BV_CELLが小さい場合には、シェーディングの影響を受けやすい低コントラストのシーンであると判断できる。すなわち、各ブロックBkの測光情報から得られる画像全体での最大輝度と最小輝度との差に基づき、シェーディングの影響度が検知できることとなる。
D_BV_CELL = cell_max−cell_min (4):
When D_BV_CELL calculated by the above equation (4) is small, it can be determined that the scene is a low-contrast scene that is easily affected by shading. That is, the influence degree of shading can be detected based on the difference between the maximum luminance and the minimum luminance in the entire image obtained from the photometric information of each block Bk.
ステップST55では、ステップST54で演算されたコントラスト差に応じて露出補正値を算出する。この露出補正値の算出方法について以下で説明する。 In step ST55, an exposure correction value is calculated according to the contrast difference calculated in step ST54. A method for calculating the exposure correction value will be described below.
図17は、コントラスト差と露出補正値との関係を示す図である。図17においては、横軸がコントラスト差を示し、縦軸が露出補正値D_BV_LOCONを示している。
グラフHdに示すように、露出補正値D_BV_LOCONはコントラスト差0〜0.5EVの間で一定値の0.375EVに設定されるが、コントラスト差が0.5EVを超えると減少し始め、コントラスト差が1.0EV以降は0EVとなる。
FIG. 17 is a diagram illustrating the relationship between the contrast difference and the exposure correction value. In FIG. 17, the horizontal axis indicates the contrast difference, and the vertical axis indicates the exposure correction value D_BV_LOCON.
As shown in the graph Hd, the exposure correction value D_BV_LOCON is set to a constant value of 0.375 EV between the contrast differences of 0 to 0.5 EV, but starts to decrease when the contrast difference exceeds 0.5 EV, and the contrast difference becomes smaller. After 1.0 EV, it becomes 0 EV.
このように画像全体から低コントラストのシーンか否かを判断し、低コントラストの場合には、その度合いに応じて露出補正値を露出オーバーの方向に設定することにより、シェーディングの軽減が図れることとなる(後述)。 In this way, it is determined whether or not the scene is a low-contrast scene from the entire image, and in the case of low-contrast, shading can be reduced by setting the exposure correction value in the overexposed direction according to the degree. (Described later).
ステップST56では、制御輝度に関する補正値(以下では「制御輝度補正値」ともいう)を算出する。具体的には、次の式(5)のように、上記のステップST51〜ST53およびステップST55で算出された各露出補正値D_BV_SKY、D_BV_SNOW、D_BV_MONO、D_BV_CELLのうちの最大値が、制御輝度に関する補正値D_BV_SHDとして設定される。 In step ST56, a correction value related to the control luminance (hereinafter also referred to as “control luminance correction value”) is calculated. Specifically, as in the following equation (5), the maximum value among the exposure correction values D_BV_SKY, D_BV_SNOW, D_BV_MONO, and D_BV_CELL calculated in the above steps ST51 to ST53 and step ST55 is the correction related to the control brightness. Set as the value D_BV_SHD.
D_BV_SHD=Max(D_BV_SKY,D_BV_SNOW,
D_BV_MONO,D_BV_CELL)・・・(5):
ステップST57では、撮影レンズ3の焦点距離に応じて制御輝度補正値を調整する。具体的には、次の各ケース(i)〜(iii)ように焦点距離flに応じて制御輝度補正値を補正する。
D_BV_SHD = Max (D_BV_SKY, D_BV_SNOW,
D_BV_MONO, D_BV_CELL) (5):
In step ST57, the control luminance correction value is adjusted according to the focal length of the taking
(i) fl≦35mmの場合、 D_BV_SHD=D_BV_SHD:
(ii)35<fl≦60mmの場合、D_BV_SHD=D_BV_SHD×2/3:
(iii)60mm≦flの場合、 D_BV_SHD=D_BV_SHD×1/3:
以上のように補正量を調整することにより、焦点距離flが短くシェーディングが目立つワイド側(望遠側)では制御輝度補正量を大きくできるとともに、焦点距離flが長くシェーディングが目立たないテレ側(広角側)では制御輝度補正量を抑えることができる。
(i) When fl ≦ 35 mm, D_BV_SHD = D_BV_SHD:
(ii) When 35 <fl ≦ 60 mm, D_BV_SHD = D_BV_SHD × 2/3:
(iii) When 60 mm ≦ fl, D_BV_SHD = D_BV_SHD × 1/3:
By adjusting the correction amount as described above, the control brightness correction amount can be increased on the wide side (telephoto side) where the focal length fl is short and the shading is conspicuous. ) Can suppress the control luminance correction amount.
ステップST58では、ステップST57で調整された制御輝度補正値に基づき、上記のステップST32で算出された制御輝度BVtgtを補正する。具体的には、次の式(6)のように、ターゲットの制御輝度が設定される。 In step ST58, the control brightness BVtgt calculated in step ST32 is corrected based on the control brightness correction value adjusted in step ST57. Specifically, the control brightness of the target is set as in the following equation (6).
BVtgt=BVtgt−D_BV_SHD・・・・・・・・・・(6):
図18は、上記のステップST7に対応しており、制御露出設定の動作を示すフローチャートである。
BVtgt = BVtgt−D_BV_SHD (6):
FIG. 18 is a flowchart corresponding to the above-described step ST7 and showing the control exposure setting operation.
ステップST61では、制御露出EVtgtを算出する。具体的には、次の式(7)のように、上記のステップST58で得られた制御輝度BVtgtからISO感度に相当する感度値SVを減算し、制御露出EVtgtを求める。 In step ST61, a control exposure EVtgt is calculated. Specifically, as shown in the following equation (7), the sensitivity value SV corresponding to the ISO sensitivity is subtracted from the control luminance BVtgt obtained in step ST58 to obtain the control exposure EVtgt.
EVtgt=BVtgt−SV・・・・・・・・・・・・・(7):
ステップST62では、手振れに関して限界のシャッタースピードTVHを算出する。具体的には、次の式(8)のように焦点距離flを考慮して手振れ限界のシャッタースピードTVHが算出される。
EVtgt = BVtgt-SV (7):
In step ST62, a limit shutter speed TVH for camera shake is calculated. Specifically, the shutter speed TVH at the camera shake limit is calculated in consideration of the focal length fl as in the following equation (8).
TVH=log2(fl)・・・・・・・・・・・・・・(8):
ステップST63では、手振れに関して限界の制御露出EVHを算出する。具体的には、次の式(9)のように、ステップST62で算出された手振れ限界のシャッタースピードTVHと絞り302に関する開放絞り値AV0との合計を、手振れ限界の制御露出EVHとして設定する。
TVH = log 2 (fl) (8):
In step ST63, a limit control exposure EVH with respect to camera shake is calculated. Specifically, as shown in the following equation (9), the sum of the shutter speed TVH at the camera shake limit calculated at step ST62 and the open aperture value AV0 for the
EVH=TVH+AV0・・・・・・・・・・・・・(9):
ステップST64では、最小の制御露出EVminを算出する。具体的には、次の式(10)のように、最短(最小)のシャッタースピードTVminと開放絞り値AV0との合計を、最小の制御露出EVminとして設定する。
EVH = TVH + AV0 (9):
In step ST64, the minimum control exposure EVmin is calculated. Specifically, the sum of the shortest (minimum) shutter speed TVmin and the maximum aperture value AV0 is set as the minimum control exposure EVmin as in the following equation (10).
EVmin=TVmin+AV0・・・・・・・・・・・・・(10):
ステップST65では、最大の制御露出EVmaxを算出する。具体的には、次の式(11)のように、最長(最大)のシャッタースピードTVmaxと絞り302に関する最小の絞り値AVmaxとの合計を、最大の制御露出EVmaxとして設定する。
EVmin = TVmin + AV0 (10):
In step ST65, the maximum control exposure EVmax is calculated. Specifically, the sum of the longest (maximum) shutter speed TVmax and the minimum aperture value AVmax related to the
EVmax=TVmax+AVmax・・・・・・・・・・・・・(11):
ステップST66では、ステップST61で算出した制御露出EVtgtが、ステップST64で算出した最小の制御露出EVminより小さいかを判定する。ここで、EVtgt<EVminの場合には、ステップST69に進み、EVtgt≧EVminの場合には、ステップST67に進む。
EVmax = TVmax + AVmax (11):
In step ST66, it is determined whether the control exposure EVtgt calculated in step ST61 is smaller than the minimum control exposure EVmin calculated in step ST64. If EVtgt <EVmin, the process proceeds to step ST69. If EVtgt ≧ EVmin, the process proceeds to step ST67.
ステップST67では、ステップST61で算出した制御露出EVtgtが、ステップST64で算出した最小の制御露出EVmin以上で、かつステップST63で算出した手振れ限界の制御露出EVH以下となるかを判定する。ここで、EVmin≦EVtgt<EVHの場合には、ステップST70に進み、それ以外の場合には、ステップST68に進む。 In step ST67, it is determined whether the control exposure EVtgt calculated in step ST61 is equal to or greater than the minimum control exposure EVmin calculated in step ST64 and equal to or less than the control exposure EVH of the camera shake limit calculated in step ST63. If EVmin ≦ EVtgt <EVH, the process proceeds to step ST70. Otherwise, the process proceeds to step ST68.
ステップST68では、ステップST61で算出した制御露出EVtgtが、ステップST65で算出した最大の制御露出EVmaxより大きいかを判定する。ここで、EVmax<EVtgtの場合には、ステップST71に進み、EVmax≧EVtgtの場合には、ステップST72に進む。 In step ST68, it is determined whether the control exposure EVtgt calculated in step ST61 is larger than the maximum control exposure EVmax calculated in step ST65. If EVmax <EVtgt, the process proceeds to step ST71. If EVmax ≧ EVtgt, the process proceeds to step ST72.
ステップST69では、次の式(12)〜(13)のように、制御値としての絞り値AVとシャッタースピードTVとを設定する。 In step ST69, the aperture value AV and the shutter speed TV as control values are set as in the following equations (12) to (13).
AV=AV0 ・・・・・・・・・・(12):
TV=TVmin・・・・・・・・・・(13):
ステップST70では、次の式(14)〜(15)のように、制御値としての絞り値AVとシャッタースピードTVとを設定する。
AV = AV0 (12):
TV = TVmin (13):
In step ST70, an aperture value AV and a shutter speed TV as control values are set as in the following formulas (14) to (15).
AV=AV0 ・・・・・・・・・・(14):
TV=EVtgt−AV・・・・・・・(15):
ステップST71では、次の式(16)〜(17)のように、制御値としての絞り値AVとシャッタースピードTVとを設定する。
AV = AV0 (14):
TV = EVtgt-AV (15):
In step ST71, an aperture value AV and a shutter speed TV as control values are set as in the following formulas (16) to (17).
AV=AVmax・・・・・・・・・・(16):
TV=TVmax・・・・・・・・・・(17):
ステップST72では、次の式(18)〜(19)のように、制御値としての絞り値AVとシャッタースピードTVとを設定する。
AV = AVmax (16):
TV = TVmax (17):
In step ST72, an aperture value AV and a shutter speed TV as control values are set as in the following formulas (18) to (19).
AV=Min(AV0+(EVtgt−EVH)/2,AVmax)・・・・・・・(18):
TV=EVtgt−AV ・・・・・・・・・・・・・・・・・・・・・・・(19):
ステップST73では、シェーディングを考慮した制御露出補正値D_EV_SHDを算出する。具体的には、次の式(20)のように、上記のステップST57で得られた制御輝度補正値D_BV_SHD等に基づき制御露出補正値D_EV_SHDを算出する。
AV = Min (AV0 + (EVtgt−EVH) / 2, AVmax) (18):
TV = EVtgt-AV (19):
In step ST73, a control exposure correction value D_EV_SHD considering shading is calculated. Specifically, the control exposure correction value D_EV_SHD is calculated based on the control brightness correction value D_BV_SHD and the like obtained in step ST57 as in the following equation (20).
D_EV_SHD=Min(D_BV_SHD,AVmax−AV)・・・・・(20):
このような制御露出補正値D_EV_SHDを算出することで、シェーディングの影響度に応じた補正量が得られることとなる。
D_EV_SHD = Min (D_BV_SHD, AVmax−AV) (20):
By calculating such a control exposure correction value D_EV_SHD, a correction amount corresponding to the degree of influence of shading can be obtained.
ステップST74では、ステップST73で算出された補正量を露出制御に反映し、次の式(21)〜(22)のように絞り302に関する絞り値AVとシャッタースピードTVとを設定する。
In step ST74, the correction amount calculated in step ST73 is reflected in the exposure control, and the aperture value AV and the shutter speed TV related to the
AV=AV+D_EV_SHD・・・・・・・・・・・・・・・・・・・(21):
TV=EVtgt−AV ・・・・・・・・・・・・・・・・・・・・・・・(22):
以上のようにEVH<EVtgt≦EVmaxの条件を満足する場合、つまり絞り値およびシャッタースピードの設定において自由度がある場合には、上式(21)によりシェーディングの影響度に応じて絞り値AVを絞り込み側に設定する補正(露出制御)を行うことで、シェーディングの影響が大きいシーンに対してシェーディングの影響を軽減できることとなる。
AV = AV + D_EV_SHD (21):
TV = EVtgt-AV (22):
As described above, when the condition of EVH <EVtgt ≦ EVmax is satisfied, that is, when there is a degree of freedom in setting the aperture value and the shutter speed, the aperture value AV is set according to the degree of influence of shading by the above equation (21) By performing the correction (exposure control) set on the narrowing down side, it is possible to reduce the influence of shading on a scene where the influence of shading is large.
図19は、上記のステップST11に対応しており、トーンカーブ選択の動作を示すフローチャートである。 FIG. 19 is a flowchart corresponding to the above-described step ST11 and showing the tone curve selection operation.
ステップST81では、シェーディングを考慮した補正量DEG_SHADEを、次の式(23)によって算出する。 In step ST81, a correction amount DEG_SHADE considering shading is calculated by the following equation (23).
DEG_SHADE=Max(D_BV_SKY,D_BV_SNOW,
D_BV_MONO,D_BV_LOCON)・・(23):
なお、上式(23)の右辺におけるD_BV_SKY、D_BV_SNOW、D_BV_MONO、D_BV_LOCONについては、ステップST10で取得された測光・測色情報に基づき、上述したステップST5〜ST6と同様の動作を行うことで算出する。
DEG_SHADE = Max (D_BV_SKY, D_BV_SNOW,
D_BV_MONO, D_BV_LOCON) (23):
Note that D_BV_SKY, D_BV_SNOW, D_BV_MONO, and D_BV_LOCON on the right side of the above equation (23) are calculated by performing the same operations as in steps ST5 to ST6 described above based on the photometric / colorimetric information acquired in step ST10. .
ステップST82では、シェーディングの影響を軽減するためのトーンカーブを選択する。具体的には、下の表1に基づきステップST81で算出された補正量DEG_SHADEに応じてトーンカーブFa〜Fdを選択する。 In step ST82, a tone curve for reducing the influence of shading is selected. Specifically, tone curves Fa to Fd are selected according to the correction amount DEG_SHADE calculated in step ST81 based on Table 1 below.
表1に基づき選択される4つのトーンカーブFa〜Fdは、図20に示すように12ビットの入力を8ビットの出力に変換するもので、トーンカーブFa、Fb、Fc、Fdの順に中高輝度が明るめに画像処理されるように設定されている。 The four tone curves Fa to Fd selected on the basis of Table 1 convert 12-bit input into 8-bit output as shown in FIG. 20, and medium to high brightness in the order of tone curves Fa, Fb, Fc, Fd. Is set to be processed brighter.
以上のように補正量DEG_SHADEに基づきトーンカーブFa〜Fdを選択するため、シェーディングを適切に軽減できることとなる。 As described above, since the tone curves Fa to Fd are selected based on the correction amount DEG_SHADE, shading can be appropriately reduced.
ステップST83では、ステップST82で4つのトーンカーブFa〜Fdから選択された1のトーンカーブを用いて、上記のステップST9の露光によって取得された画像データに対する画像処理を画像補正回路124で行う。この画像処理は、シェーディング補正回路123で行う一般的なシェーディング補正と異なり画像に係る画素位置によらない処理となっているが、このような簡便な処理により、迅速にシェーディングを低減できることとなる。
In step ST83, the
以上の撮像装置1の動作により、画像周辺部等の測光情報や測色情報に基づきシェーディングの影響度を判定し、その判定結果に基づく対応を実施するため、シェーディングの影響を受けやすいシーンか否かを精度良く判定して適切な対応を行える。その結果、シェーディングによる画像の周辺光量低下を軽減できることとなる。
By the operation of the
また、撮像装置1では、シェーディングの影響を受けやすいシーンに対してオーバー目の露出制御を行うため、画像処理によらずにシェーディングによる周辺光量低下を低減できる。
In addition, since the
さらに、従来のシェーディング補正ではLUT等により画像周辺部のゲインを強制的に上げているため周辺部に斑点のような色ノイズが現れ画質が劣化する場合もあるが、撮像装置1では、シェーディングの影響度に応じたトーンカーブを選択するため、このような画質の劣化を防止できる。 Furthermore, in the conventional shading correction, since the gain at the peripheral portion of the image is forcibly increased by LUT or the like, color noise such as spots may appear in the peripheral portion and the image quality may be deteriorated. Since the tone curve corresponding to the degree of influence is selected, such image quality deterioration can be prevented.
<変形例>
◎上記の実施形態における均一特定色領域の検出動作(図9のステップST44)については、図7に示す画像周辺領域EPにおける156個のブロックBkに基づき、次の式(1a)、(1b)のように各色差データの標準偏差σr、σbを求めるようにしても良い。
<Modification>
The uniform specific color region detection operation (step ST44 in FIG. 9) in the above embodiment is based on 156 blocks Bk in the image peripheral region EP shown in FIG. 7, and the following equations (1a), (1b) As described above, the standard deviations σ r and σ b of each color difference data may be obtained.
この場合には、図10のステップST55において上記の標準偏差σr、σbに応じた露出補正値を算出するようにする。具体的には、下の表2に基づき標準偏差σr、σbに応じた露出補正値D_BV_LOCON(単位:EV)を求めることとなる。 In this case, an exposure correction value corresponding to the standard deviations σ r and σ b is calculated in step ST55 of FIG. Specifically, an exposure correction value D_BV_LOCON (unit: EV) corresponding to the standard deviations σ r and σ b is obtained based on Table 2 below.
◎上記の実施形態における図9のステップST56の動作については、各露出補正値D_BV_SKY、D_BV_SNOW、D_BV_MONO、D_BV_CELLの総和を、輝度輝度に関する補正値D_BV_SHDとして設定するようにしても良い。 In the operation of step ST56 in FIG. 9 in the above embodiment, the sum of the exposure correction values D_BV_SKY, D_BV_SNOW, D_BV_MONO, and D_BV_CELL may be set as the correction value D_BV_SHD related to luminance.
1 撮像装置
150 全体制御部
303 カラー撮像素子
Bg 芝
Bs 空
Bw 雪景色
EP 画像周辺領域
Fa〜Fd トーンカーブ
1
Claims (13)
(a)被写体に係る画像を取得する撮像手段と、
(b)前記画像を複数の領域に分割する分割手段と、
(c)前記複数の領域それぞれに関する測光情報および/または測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知手段と、
(d)前記シェーディングの影響度に応じた露出制御および/または画像処理を行う手段と、
を備え、
前記画像処理は、前記画像に係る画素位置によらない処理であることを特徴とする撮像装置。 An imaging device,
(a) imaging means for acquiring an image relating to the subject;
(b) dividing means for dividing the image into a plurality of regions;
(c) based on photometric information and / or colorimetric information regarding each of the plurality of regions, detection means for detecting the degree of shading related to the image;
(d) means for performing exposure control and / or image processing according to the degree of influence of the shading;
With
The image processing apparatus according to claim 1, wherein the image processing is processing independent of a pixel position related to the image.
(a)被写体に係る画像を取得する撮像手段と、
(b)前記画像を複数の領域に分割する分割手段と、
(c)前記複数の領域それぞれに関する測光情報を取得する測光手段と、
(d)前記複数の領域それぞれに関する測色情報を取得する測色手段と、
(e)前記測光情報および/または前記測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知手段と、
(f)前記シェーディングの影響度に応じた補正量を算出する補正量算出手段と、
(g)前記補正量に基づく露出制御および/または画像処理を行う手段と、
を備え、
前記画像処理は、前記画像に係る画素位置によらない処理であることを特徴とする撮像装置。 An imaging device,
(a) imaging means for acquiring an image relating to the subject;
(b) dividing means for dividing the image into a plurality of regions;
(c) photometric means for obtaining photometric information relating to each of the plurality of regions;
(d) colorimetric means for obtaining colorimetric information regarding each of the plurality of regions;
(e) based on the photometric information and / or the colorimetric information, detecting means for detecting the degree of shading related to the image;
(f) a correction amount calculating means for calculating a correction amount according to the degree of influence of the shading;
(g) means for performing exposure control and / or image processing based on the correction amount;
With
The image processing apparatus according to claim 1, wherein the image processing is processing independent of a pixel position related to the image.
前記測色情報は、YCrCbに関する色差の情報であることを特徴とする撮像装置。 In the imaging device according to claim 1 or 2,
The colorimetric information is color difference information regarding YCrCb.
前記検知手段は、
前記画像の周辺部に占める空色領域に基づき、前記シェーディングの影響度を検知する手段、
を有することを特徴とする撮像装置。 The imaging apparatus according to any one of claims 1 to 3,
The detection means includes
Means for detecting the degree of influence of the shading based on the sky blue area occupying the periphery of the image;
An imaging device comprising:
前記検知手段は、
前記画像の周辺部に占める高輝度の白色領域に基づき、前記シェーディングの影響度を検知する手段、
を有することを特徴とする撮像装置。 The imaging apparatus according to any one of claims 1 to 4,
The detection means includes
Means for detecting the degree of influence of the shading based on a high-luminance white area occupying the periphery of the image;
An imaging device comprising:
前記検知手段は、
前記画像の周辺部に占める特定の領域に基づき、前記シェーディングの影響度を検知する手段、
を有し、
前記特定の領域は、特定色に関する近傍色の領域であることを特徴とする撮像装置。 The imaging device according to any one of claims 1 to 5,
The detection means includes
Means for detecting the degree of influence of the shading based on a specific area occupying the periphery of the image;
Have
The imaging device according to claim 1, wherein the specific region is a region of a neighboring color related to a specific color.
前記検知手段は、
前記複数の領域それぞれの測光情報から得られる画像全体での最大輝度と最小輝度との差に基づき、前記シェーディングの影響度を検知する手段、
を有することを特徴とする撮像装置。 The imaging apparatus according to any one of claims 1 to 6,
The detection means includes
Means for detecting the degree of influence of the shading based on the difference between the maximum luminance and the minimum luminance in the entire image obtained from the photometric information of each of the plurality of regions;
An imaging device comprising:
前記露出制御では、前記補正量に応じた露出補正が行われることを特徴とする撮像装置。 The imaging device according to claim 2,
In the exposure control, an exposure correction according to the correction amount is performed.
前記露出制御では、前記補正量に応じて、絞り値を絞り込み側に設定する補正が行われることを特徴とする撮像装置。 The imaging device according to claim 2,
In the exposure control, the image pickup apparatus is characterized in that a correction is performed to set an aperture value on the aperture side in accordance with the correction amount.
(h)前記補正量に基づき、複数のトーンカーブから1のトーンカーブを選択する選択手段、
をさらに備え、
前記画像処理は、前記選択手段で選択される1のトーンカーブを用いた画像処理であることを特徴とする撮像装置。 The imaging device according to claim 2,
(h) selection means for selecting one tone curve from a plurality of tone curves based on the correction amount;
Further comprising
The imaging apparatus according to claim 1, wherein the image processing is image processing using one tone curve selected by the selection unit.
前記補正量算出手段は、
(f-1)撮影レンズの焦点距離に応じて前記補正量を調整する調整手段、
を有することを特徴とする撮像装置。 The imaging device according to claim 2,
The correction amount calculating means includes
(f-1) adjusting means for adjusting the correction amount according to the focal length of the taking lens;
An imaging device comprising:
被写体に係る画像を取得する撮像工程と、
前記画像を複数の領域に分割する分割工程と、
前記複数の領域それぞれに関する測光情報を生成する測光工程と、
前記複数の領域それぞれに関する測色情報を生成する測色工程と、
前記測光情報および/または前記測色情報に基づき、前記画像に係るシェーディングの影響度を検知する検知工程と、
前記シェーディングの影響度に応じた補正量を算出する補正量算出工程と、
前記補正量に基づく露出制御および/または画像処理を行う処理工程と、
を備え、
前記画像処理は、前記画像に係る画素位置によらない処理であることを特徴とするシェーディング処理方法。 A method for performing processing related to shading,
An imaging step of acquiring an image relating to the subject;
A dividing step of dividing the image into a plurality of regions;
A photometric process for generating photometric information for each of the plurality of regions;
A colorimetric process for generating colorimetric information for each of the plurality of regions;
Based on the photometric information and / or the colorimetric information, a detection step of detecting the degree of shading related to the image;
A correction amount calculation step of calculating a correction amount according to the degree of influence of the shading;
A processing step of performing exposure control and / or image processing based on the correction amount;
With
The shading processing method according to claim 1, wherein the image processing is processing independent of a pixel position related to the image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005204135A JP2007027943A (en) | 2005-07-13 | 2005-07-13 | Imaging apparatus, program and method for processing shading |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005204135A JP2007027943A (en) | 2005-07-13 | 2005-07-13 | Imaging apparatus, program and method for processing shading |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007027943A true JP2007027943A (en) | 2007-02-01 |
Family
ID=37788150
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005204135A Pending JP2007027943A (en) | 2005-07-13 | 2005-07-13 | Imaging apparatus, program and method for processing shading |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007027943A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010004399A (en) * | 2008-06-20 | 2010-01-07 | Canon Inc | Image capturing apparatus and image capturing method |
JP2010171565A (en) * | 2009-01-21 | 2010-08-05 | Sanyo Electric Co Ltd | Electronic camera |
JP2010199844A (en) * | 2009-02-24 | 2010-09-09 | Ricoh Co Ltd | Image processor, image processing method, program and storage medium |
JP2013115702A (en) * | 2011-11-30 | 2013-06-10 | Canon Inc | Imaging apparatus |
JP2017041667A (en) * | 2015-08-17 | 2017-02-23 | コニカミノルタ株式会社 | Image recognition system |
-
2005
- 2005-07-13 JP JP2005204135A patent/JP2007027943A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010004399A (en) * | 2008-06-20 | 2010-01-07 | Canon Inc | Image capturing apparatus and image capturing method |
JP2010171565A (en) * | 2009-01-21 | 2010-08-05 | Sanyo Electric Co Ltd | Electronic camera |
JP2010199844A (en) * | 2009-02-24 | 2010-09-09 | Ricoh Co Ltd | Image processor, image processing method, program and storage medium |
JP2013115702A (en) * | 2011-11-30 | 2013-06-10 | Canon Inc | Imaging apparatus |
JP2017041667A (en) * | 2015-08-17 | 2017-02-23 | コニカミノルタ株式会社 | Image recognition system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3680827B2 (en) | Digital camera | |
JP5397068B2 (en) | Imaging apparatus, imaging control method, exposure control apparatus, and exposure control method | |
JP4628937B2 (en) | Camera system | |
JP3551123B2 (en) | Electronic camera | |
US7184078B2 (en) | Image-processing apparatus and image-quality control method | |
JP5738080B2 (en) | Imaging apparatus and control method thereof | |
JP6521776B2 (en) | Image processing apparatus, image processing method | |
US10992854B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium | |
JP2001275029A (en) | Digital camera, its image signal processing method and recording medium | |
JP2003224769A (en) | Digital camera | |
JP4717720B2 (en) | Image processing apparatus and method, and program | |
JP5458937B2 (en) | IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING PROGRAM FOR EXECUTING THE IMAGING METHOD | |
JP5223686B2 (en) | Imaging apparatus and imaging method | |
JP5822508B2 (en) | Imaging apparatus and control method thereof | |
JP2007124282A (en) | Imaging apparatus | |
JP2008278354A (en) | Imaging device | |
JP2008053931A (en) | Imaging apparatus | |
JP2007027943A (en) | Imaging apparatus, program and method for processing shading | |
JP5091781B2 (en) | Imaging apparatus and imaging method | |
JP2004088408A (en) | Digital camera | |
JP2007124278A (en) | Imaging apparatus | |
JP4335648B2 (en) | Digital camera and imaging method of digital camera | |
JP2006080960A (en) | Image pickup device and method | |
JP2009022044A (en) | Image processing apparatus and image processing program | |
JP3918985B2 (en) | Digital camera |