JP4212741B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4212741B2 JP4212741B2 JP35084499A JP35084499A JP4212741B2 JP 4212741 B2 JP4212741 B2 JP 4212741B2 JP 35084499 A JP35084499 A JP 35084499A JP 35084499 A JP35084499 A JP 35084499A JP 4212741 B2 JP4212741 B2 JP 4212741B2
- Authority
- JP
- Japan
- Prior art keywords
- shading correction
- image processing
- aperture
- processing apparatus
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003705 background correction Methods 0.000 claims description 142
- 238000000034 method Methods 0.000 claims description 33
- 238000003384 imaging method Methods 0.000 claims description 32
- 230000001678 irradiating effect Effects 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000015556 catabolic process Effects 0.000 description 7
- 238000006731 degradation reaction Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 230000001965 increasing effect Effects 0.000 description 6
- 101100115215 Caenorhabditis elegans cul-2 gene Proteins 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 5
- 230000006866 deterioration Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000003321 amplification Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003199 nucleic acid amplification method Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Description
【0001】
【発明の属する技術分野】
本発明は、デジタルカメラ等の画像処理装置における画像データ入力時にシェーディング補正を行うと共に輪郭を強調する画像処理装置に関し、特に、シェーディング補正処理と輪郭強調処理とを共に実行する場合の画質劣化を改善することができる画像処理装置に関する。
【0002】
【従来の技術】
画像処理装置の入力画像には、被写体を照らす太陽光あるいは照明装置の配光によりシェーディング(輝度むら)が発生する。シェーディングは、照明装置等により被写体を均一に照らすことにより除去できるが、そのためには特殊な照明装置を使用したり補助装置を使用する必要があり、しかも、その照明装置や補助装置の調整は非常に難しかった。したがって、一般的なデジタルカメラ等の画像処理装置により被写体を撮影する場合には、シェーディングは必ず発生している。
このシェーディングを補正するためにデジタルカメラ等では、撮影した画像データに対してシェーディング補正処理を行っている。シェーディング補正処理の方法については既に数多くの方法が知られている。例えば、差分法は、以下のようにしてシェーディング補正を行う。無彩色のサンプル板を撮影して得られた基準画像データに基づいて各画素についての輝度目標値との差の値を演算し、演算結果の値を各画素毎の補正データとして記憶する。次に通常の被写体を撮影した各画素毎の輝度情報に対して、前記各画素毎の補正データを加減算することによりシェーディング補正を行う。また、濃度変換法では、無彩色のサンプル板を撮影して得られた基準画像データに基づいて、各画素についての基準画像データから輝度目標値を得るための変換率を演算し、基準画像データと演算結果の変換率とから濃度変換テーブルを作成して記憶する。次に通常の被写体を撮影した各画素毎の輝度情報に対して、濃度変換テーブルから選出した変換率に基づいて前記各画素毎の輝度情報を変換(乗算)することによりシェーディング補正を行う。また、シェーディング補正の内容は、大きく分類して、輝度が高すぎる部分を低下させる黒シェーディング補正と、逆に、輝度が低すぎる部分を上昇させる白シェーディング補正とに分類される。
白シェーディング補正は、主にデジタルカメラのレンズ特性によって発生する「レンズの中心部分に比べ周辺部分の画像データ出力が低下する」という現象を例えば乗算機(主にゲインアップ)を用いて補正する。
上記の白シェーディング補正をより精度良く実施するために、例えば、特開平6−319042号公報では、被写体の画像データを記録する前に、複数のエリアに分割した校正板の基準画像データから各エリア毎の画素の輝度平均値を求めておき、その輝度平均値により被写体の画像データをシェーディング補正してから記録している。この公報の例では、被写体の画像データを複数のエリアに分割して各エリア毎の輝度平均値を求めておき、輝度平均値により被写体の画像データをシェーディング補正して記録しているので、基準画像データに混入するランダムノイズや校正板の表面テクスチャーの影響を受けず、シェーディング補正が容易になる。
【0003】
一方、画像処理装置の出力画像においては、細かい文字や細かい模様等の線が途切れたり、かすれたりすることがある。この問題を解決するためには、線や文字等の輪郭(エッジ)を強調する輪郭強調処理が行われる。輪郭強調処理では、文字のシャープさやコントラストを改善するために、白から黒に変わる画素間の濃度変化を急峻にすることにより、線や文字の輪郭を強調する。すなわち、例えば、輪郭部(白から黒に変化する部分)の白側画素部分のゲインを増加させ、黒側画素部分との濃度差を大きくする。
ところが、例えば、特開平6−319042号公報に記載された技術のように複数のエリア毎にシェーディング補正処理を実施した後に上記の輪郭補正処理を実施する場合、複数のエリア毎にゲインが切り替わるため各エリアの境界線がエッジ(輪郭)状になって強調される。この各エリアの境界線部分が強調される場合、再生画像上に線状のノイズとして現れることになる。
上記のシェーディング補正処理後の輪郭強調処理によるノイズを除去する画像処理装置としては、例えば、特公平7−40299号公報に記載された画像処理装置がある。この公報の画像処理装置は、シェーディング補正手段と輪郭強調処理を行なう処理手段とを備え、輪郭強調処理をシェーディング補正処理の前に行なうようにしている。また、輪郭強調処理後のシェーディング補正処理では、予め主走査方向に複数の画素からなるブロックを設けてブロック毎の輝度平均値を算出し、その輝度平均値を用いてシェーディング補正を実行している。したがって、この公報の例では、輪郭強調処理をシェーディング補正処理の前に行うようにすることで、シェーディング補正用のエリア境界に起因して再生画像上に線状ノイズが発生することを防止することにより画質が劣化しないようにしている。
【0004】
【発明が解決しようとする課題】
しかしながら、特公平7−40299号公報に記載された画像処理装置では、シェーディング補正用のエリア境界に起因する固定パターンノイズ(Fixed Pattern Noise:以下FPNと記載する)を防止しているだけであり、例えば、不規則に発生するランダムノイズを防止する技術については開示されていない。また、本公報の画像処理装置を用いてFPNを防止する技術は、上記した差分法等により各エリア毎の補正データを加減算することによりシェーディング補正を行う場合に限られている。もし、上記した濃度変換法等により乗算機を用いてシェーディング補正を実施する場合には、上記公報に記載されたようにシェーディング補正手段と輪郭強調処理手段の構成順番を変えてもFPNは発生してしまうからである。更に、上記公報の画像処理装置を用いて加減算機により白シェーディング補正をした場合は、ホワイトバランスが崩れたり、色の飽和度が補正を施さないブロックに比べ下がる等の問題が発生する。また、上記公報の画像処理装置にて濃度変換法等により乗算機を用いてシェーディング補正を実施する場合には、ランダムノイズ成分が強調されてしまう。
また、上記した特開平6−319042号公報の画像処理装置では、シェーディング補正値を算出する際の精度を上げているのみであるので、シェーディング補正処理後の画像に対するノイズを防止する技術については何ら開示されていない。従って、ランダムノイズ等の高周波ノイズに対するシグナル(S)/ノイズ(N)比を向上させる技術については全く示唆も開示もされていない。
ところが、一般的に、上記したようなシェーディング補正処理や輪郭強調処理等のために入力画像データに対するゲインを増加させると、ランダムノイズ成分もゲインが増加されてノイズレベルが上昇する。ランダムノイズがシェーディング補正が実行されるエリアに発生し、そのランダムノイズに対して輪郭強調処理が実施されると、ランダムノイズのレベルが再生画像上の線になって現れ、S/N比が低下する。
また、デジタルカメラ等の画像処理装置には、入射光量を調節できる絞りや、倍率を調整できるズーム等を有しているものがあり、そのような画像処理装置では、絞り量やズーミング倍率等の撮影条件によりシェーディング補正を実施するための係数が変わる。例えば、1個のデジタルカメラを用いて絞りを絞って撮影した場合には、各エリア毎のシェーディングはあまり顕著に発生しないことから、補正する為のゲインも少なくなり、画質の劣化が発生することはないが、同じデジタルカメラを用いて絞りを開放して撮影した場合には、シェーディングが非常に顕著に発生し、補正する為のゲインも大きくなる結果、輪郭強調処理により画質の劣化が発生することがある。
本発明は、上述した如き従来の問題を解決するためになされたものであって、シェーディング補正処理と共に輪郭強調処理を実行する場合であっても、ランダムノイズ等の高周波ノイズに対してS/N比の低下を抑えることができる画像処理装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上述の目的を達成するため、請求項1の本発明の画像処理装置は、被写体からの入射光を焦点位置に結像させる撮像レンズと、入射光を入力画像データに変換する受光手段と、1画面全体の輝度が均一な被写体を撮影したときに発生する輝度むらを補正するシェーディング補正を行なうシェーディング補正手段と、入力画像データに対して輪郭を強調して設定する輪郭強調手段と、を有する画像処理装置において、前記シェーディング補正手段は、1画面を複数エリアに分割したエリア毎に定められているゲイン量で、当該エリア毎のシェーディング補正処理を行い、前記輪郭強調手段は、前記シェーディング補正手段が補正するエリア毎に、前記ゲイン量に対応させて、該ゲイン量が大きい場合に輪郭強調量を小さくするように設定して輪郭強調処理を行うことを特徴とする。請求項2の本発明は、請求項1に記載した画像処理装置において、被写体からの入射光の倍率を変更させるために撮像レンズの配置位置を変更可能なズーム手段と、前記撮像レンズの配置位置の違いに応じて異なるシェーディング補正係数を予め記憶する記憶手段と、を備え、前記シェーディング補正手段は、前記撮像レンズの配置位置の違いに応じて異なるシェーディング補正係数を用いて前記ゲイン量を決定することを特徴とする。請求項3の本発明は、請求項1に記載した画像処理装置において、入射光が通過可能な開口面積を変更することにより入射光の光量を調整する絞り手段と、絞り手段の開口面積に対応する絞り値の違いに応じて異なるシェーディング補正係数を予め記憶する記憶手段と、を備え、前記シェーディング補正手段は、前記絞り手段の絞り値の違いに応じて異なるシェーディング補正係数を用いて前記ゲイン量を決定することを特徴とする。請求項4の本発明は、請求項1に記載した画像処理装置において、被写体までの距離に対応して撮像レンズの配置位置を変更可能な合焦手段と、前記撮像レンズの配置位置の違いに応じて異なるシェーディング補正係数を予め記憶する記憶手段と、を備え、前記シェーディング補正手段は、前記撮像レンズの配置位置の違いに応じて異なるシェーディング補正係数を用いて前記ゲイン量を決定することを特徴とする。請求項5の本発明は、請求項1に記載した画像処理装置において、被写体画像に向けて補助光を照射する補助光照射手段と、前記補助光照射手段の配光特性の違いに応じて異なるシェーディング補正係数を予め記憶する記憶手段と、を備え、前記補助光照射手段を用いる場合に、前記シェーディング補正手段は、前記配光特性の違いに応じて異なるシェーディング補正係数を用いて前記ゲイン量を決定することを特徴とする。
【0006】
請求項6の本発明は、請求項1に記載した画像処理装置において、前記輪郭強調手段は、前記各エリア内を更に周波数領域毎に複数の領域に分割した各領域毎に輪郭強調量を設定可能であり、前記シェーディング補正手段のゲイン量に対応させた輪郭強調量を、各周波数領域毎に異なる画像の空間的周波数に基づいて変化させることを特徴とする。
請求項7の本発明は、請求項1に記載した画像処理装置において、被写体画像からの入射倍率を変更させるために撮像レンズの配置位置を変更可能なズーム手段と、入射光が通過可能な開口面積を変更することにより入射光の光量を調整する絞り手段と、被写体までの距離に対応して撮像レンズの配置位置を変更可能な合焦手段と、請求項2乃至4に記載した各シェーディング補正係数を各々独立した状態にて格納する記憶手段と、を備え、前記シェーディング補正手段は、前記ズーム手段、絞り手段、合焦手段の各状態に基づいて前記各シェーディング補正係数を掛け合わせて前記ゲイン量を決定することを特徴とする。
請求項8の本発明は、請求項1に記載した画像処理装置において、前記輪郭強調手段は、輪郭強調量を可変制御することを特徴とする。
請求項9の本発明は、請求項1に記載した画像処理装置において、前記輪郭強調手段は、輪郭強調処理が実行されない入力信号のレベル幅を可変制御することにより、前記輪郭強調量を可変制御することを特徴とする。
請求項10の本発明は、請求項1に記載した画像処理装置において、前記輪郭強調手段は、輪郭強調信号の出力レベルが一定である入力レベル範囲を可変制御することにより、前記輪郭強調量を可変制御することを特徴とする。
【0007】
【発明の実施の形態】
以下、本発明を図示した実施形態に基づいて説明する。
図1は、本発明の一実施形態の画像処理装置の全体構成を示すブロック図である。
図1に示す様に、本実施形態の画像処理装置50は、例えば、デジタルカメラ等であり、被写体からの入射光を焦点位置に結像させる撮像レンズ1と、入射光の光量を調節する絞り手段であると共に撮影画像を決定するシャッタ機能を備える絞り・シャッタ2と、入射光に含まれる被写体画像の光信号を電気信号(入力画像データ)に変換する受光手段であるCCD(電荷結合素子)3と、撮像レンズ1を移動させることにより入射光の倍率を変更するズーミングを行うズーム手段であるズームモータ4と、絞り・シャッタ2を駆動する絞り・シャッタモータ5と、撮像レンズ1を移動させることにより合焦させる合焦手段であるフォーカスモータ6と、タイミング信号を発生するTG回路7と、ズームモータ4、絞り・シャッタモータ5、および、フォーカスモータ6を駆動するモータドライバ8と、CCD3から入力した電気信号(画像信号)を相関二重サンプリングするCDS回路9と、画像信号のゲイン(増幅度)を自動調整するAGC回路10と、アナログ信号の画像信号をデジタル信号に変換するA/D回路11と、入力した画像信号に対して様々な画像処理を施す信号処理部24と、信号処理部24にて画像処理された画像信号を一時的に格納するフレームバッファ25と、モータドライバ8、AGC回路10、信号処理部24等を制御するマイクロプロセッサ等からなるCPU29と、画像処理が施された画像信号に対して信号圧縮等の処理を実施して格納する記憶媒体30と、各種設定値等を格納する記憶手段であるフラッシュROM31と、被写体に対する補助光照射手段であるストロボ装置40と、から構成される。
【0008】
また、CDS回路9、AGC回路10、及び、A/D回路11としては、一般的に、1個のIC内に一体化されたCDS・A/D12と呼ばれるICが使用される。信号処理部24中には、入力した画像信号に対してシェーディング補正処理を実施するシェーディング補正手段であるシェーディング補正回路13と、現信号と合わせて5水平(H)ライン分の画像信号を格納できるバッファである4Hメモリ14と、R、G、Bの3色の色信号に分離する色分離回路15と、色信号が不十分なアドレスの信号を周囲の色信号量を参照して補完する信号補間回路16と、画像信号に対して白色補正を実施するホワイトバランス(WB)補正回路17と、画像信号に対してγ補正を実施するγ補正回路18と、RGBの色信号パラメータを輝度信号と色差信号に変換する色差マトリックス回路19と、画像信号に対して信号圧縮を実施するJPEG回路20と、文字あるいは線等の画像の輪郭を強調する輪郭強調手段であるアパーチャー補正回路21と、同期信号を発生するSSG回路22と、フレームバッファ25及び記憶媒体30への画像信号の書き込み及び読み出しを制御するメモリコントローラ23と、を備えている。CPU29中には、内蔵された揮発性の記憶装置であるRAM28を有しており、RAM28中には、シェーディング補正回路13にて用いられる1画面中の各エリアにて使用されるシェーディング補正係数を含むシェーディング補正ルックアップテーブル26とアパーチャー設定ルックアップテーブル27が格納される。
【0009】
また、図1に示した画像処理装置50は以下のように動作する。
撮像レンズ1と、絞り・シャッタ2とを通過した光は、CCD3によって光電変換されて電気信号(画像信号)になり、CDS回路9に送出される。CDS回路9では、CCD3から受信した画像信号を順次サンプルホールドし、AGC回路10は、画像信号に一定のゲインを与える。AGC回路10を通過した画像信号は、順次、A/D回路11に送出されて10bitのデジタルデータに変換された後、信号処理部24に送出される。
信号処理部24に入力した画像信号は、シェーディング補正回路13にて、シェーディング補正ルックアップテーブル26から読み込まれたエリア毎に予め定められているシェーディング補正係数が乗算される。CPU29内のRAM28に格納されたシェーディング補正ルックアップテーブル26は、例えば、フラッシュROM31から電源投入時等に読み出されてRAM28内に格納される。シェーディング補正ルックアップテーブル26の書き込み/読み出しのタイミングはSSG回路22からの同期信号に基づいて実施される。シェーディング補正が実施された画像信号は、メモリーコントローラー23を経由してフレームバッファー25に書き込まれる。
【0010】
ここで、予め定められているシェーディング補正係数について説明する。
図2は、図1に示したシェーディング補正ルックアップテーブル26の一例を示す図である。
シェーディング補正係数とは、例えば、図2のシェーディング補正ルックアップテーブル26中の各エリアに示すような値であり、シェーディング補正のために画像信号に乗算するエリア毎の係数である。つまりn×m画素からなる1エリア(ブロック)ごとにシェーディング補正するための係数を定め、更に、そのブロックを縦横に並べ(本実施形態では8ブロック×6ブロック)、1画面分のシェーディング補正データとしたテーブルである。このシェーディング補正係数は、1画面全体の輝度が均一な被写体を撮影し、その被写体の輝度分布を中心を1とした時の各エリアの比の値の逆数から求めたものである。
シェーディング補正係数は、ズーム付きのカメラにおける撮像レンズ1のズーム位置により変わり、多段階の絞りを有するカメラにおいてはその絞り・シャッタ2の絞り値により変わり、焦点調節機能付きのカメラにおいてはその焦点位置により変わり、更に、ストロボ装置40付きのカメラにおいてはそのストロボ装置の発光の有無及び発光時の配光特性により変わる。従って、シェーディング補正ルックアップテーブル26は、上記の撮像レンズ1のズーム位置毎、絞り・シャッタ2の絞り値毎、撮像レンズ1の焦点位置毎、ストロボ装置40の配光特性を含んで発光の有無毎、に独立したテーブルとしてフラッシュROM31に予め格納しておく。このシェーディング補正ルックアップテーブル26中のデータの形態としては、上記したズーム位置、絞り値、焦点位置、発光の有無等の各記録状態の全ての組み合わせ結果について補正値(シェーディング補正係数)を予め格納しておく方法も考えられるが、本実施形態では、ズーム位置、絞り値、焦点位置、発光の有無等に対して個別の状態毎に補正値を演算してシェーディング補正ルックアップテーブル26を作成し、フラッシュROM31に格納した。従って、本実施形態では、画像信号を記録する時に、カメラの上記各記録状態によってそれぞれ必要なテーブルをフラッシュROM31から読み出し、それぞれの記録状態に対応する係数を掛け合わせて、CPU29内蔵のRAM28に掛け合わせた結果を、図1中のシェーディング補正ルックアップテーブル26に書き込む方法を用いる。
【0011】
各記録状態の全ての組み合わせ結果について補正値をフラッシュROM31に予め格納しておく方法では、画像信号が入力された場合に、それぞれの記録状態に対応する係数(パラメータ)を掛け合わせる手間が無い為、高速でシェーディング用の補正係数を導き出すことができるが、ズーム倍率のステップ数が多いカメラや合焦のステップ数が多いカメラの場合は、全てのパラメータを掛け合わせた数のシェーディング補正ルックアップテーブル26が必要になる為、フラッシュROM31に予め格納するシェーディング補正ルックアップテーブル26が多数になってしまう。従って、シェーディング補正ルックアップテーブル26を格納するためのフラッシュROM31のメモリー量も大きくなってしまう。一方、本実施形態のようにズーム位置、絞り値、焦点位置、発光の有無等の各記録状態毎に個別のシェーディング補正ルックアップテーブル26を作成する場合には、ズーム倍率のステップ数や合焦のステップ数がのみをフラッシュROM31に格納するので、シェーディング補正ルックアップテーブル26を格納する為のメモリー量を小さくすることができる。その結果、本実施形態では、使用するメモリー素子を減らせるため、カメラの小型化およびメモリーコストが減少することによるコストダウンが可能となる。
このシェーディング補正係数を導き出した際、そのシェーディング補正値に対応したアパーチャーの補正値(輪郭強調量)を、アパーチャー設定ルックアップテーブル27に格納する。格納する輪郭強調量の設定方法については、図5を用いて後述する。
【0012】
また、CPU29に内蔵されたRAM28では、信号処理部24内のSSG回路22から画像信号に対する水平方向および垂直方向の同期信号を受信し、各エリア毎に必要となるシェーディング補正係数、及び、アパーチャー補正係数を各々の係数が対応する補正回路13、21に送出する。
本実施形態では、上記のシェーディング補正ルックアップテーブル26を用いて画像信号に対するシェーディング補正を実施する。
メモリーコントローラー23から読み出されたデータは4Hメモリー14に送られる。4Hメモリー14とは、現信号と合せて5水平ライン分の画像信号のデータを蓄えることのできるバッファーメモリのことある。4Hメモリー14では、蓄えたデータを、3ラインによる高周波成分と、5ラインによる低周波成分とに分けて、アパーチャー(輪郭)成分の抽出を行う。本実施形態では、以下、3ラインによる高周波成分を高域アパーチャー成分と呼び、5ラインによる低周波成分を低域アパーチャー成分と呼ぶこととする。なお、1ライン分のバッファーメモリの記憶容量を拡大することにより、低周波と高周波の2領域よりも細かい周波数領域に分けることも可能である。4Hメモリー14により分けられた高域および低域のアパーチャー成分は、アパーチャー補正回路21に送出され、ここで予め定められたアパーチャー設定ルックアップテーブル27中の各補正値(アパーチャー補正係数)に基づいて補正される。
【0013】
ここで、予め定められているアパーチャー補正係数について説明する。
図3は、図1に示したアパーチャー補正ルックアップテーブル27の一例を示す図である。なお、実際の図3のテーブル中の空白部分には所定のアパーチャー補正係数が格納されるが、本実施形態では空白部分のアパーチャー補正係数については用いないため、図面が煩雑にならないよう空白部分の記載を省略した。
アパーチャー補正係数とは、例えば、図3のアパーチャー補正ルックアップテーブル27中の各エリアに示すような値であり、アパーチャー補正のために画像信号に乗算するエリア毎の係数である。また、エリアの設定は上記したシェーディング補正ルックアップテーブル26の場合と同様である。このアパーチャー補正係数は、例えば、輝度信号(Y)から連続する画素間の濃度差が一定値以上である場合を検出してその部分を輪郭部であると判断し、その部分の画像信号に対して所定のゲインを与えるものである。従来は、1画面の全てのエリアに対して均一にアパーチャー補正係数が乗算されていた。本実施形態では、1画面中の各エリア毎にアパーチャー補正係数を設定できるようにした。この各エリア毎のアパーチャー補正係数はテーブルとしてフラッシュROM31に予め格納される。また、本実施形態では、画像信号を記録する時に、アパーチャー補正ルックアップテーブル27をフラッシュROM31から読み出し、CPU29内蔵のRAM28中に書き込む。
本実施形態では、上記のアパーチャー補正ルックアップテーブル27を用いて画像信号に対するアパーチャー補正を実施する。
一方、シェーディング補正回路13にてシェーディング補正された後、4Hメモリー14を通過した画像信号には、ホワイトバランス(WB)補正回路17によるホワイトバランス補正処理やγ補正回路18によるγ補正処理等の信号処理が施される。4Hメモリーを通過した画像信号は、まず、色分離回路15にて、赤(R)、緑(G)、青(B)の3色の色信号に分離される。次に、各色信号は、信号補間回路16において、例えば、Rのプレーン画像であれば、現信号ではG、Bの信号が入っていたアドレスについての情報を周りのR信号に基づいて補間することにより、全面R信号のべたのプレーン画像を作成する。G、Bについても同様に補間してプレーン画像を作成する。このようにしてできたR、G、Bのべたプレーン画像には、ホワイトバランス補正回路17にて各色毎に所定のゲインが加えられ、さらに、γ補正回路18にてγ補正され、色差マトリックス回路19にて、R、G、B等の色信号からY、Cb、Cr等の輝度・色差信号への変換が実施される。輝度・色差信号に変換された画像信号では、前述のアパーチャー補正回路21で補正されたアパーチャー成分がY信号に付加され、メモリーコントローラー23を経由して再度フレームバッファー25に書き込まれる。その後、フレームバッファー25から読み出された画像信号は、所定のデータサイズになるようJPEG回路20にてJPEG圧縮され、記録媒体30に記録される。
本実施形態では、以上のように画像信号が流れる。次に、本実施形態の特徴的な動作および効果について説明する。
【0014】
図4は、図2あるいは図3に示した1画面分のテーブル中のA−A'間の1水平ラインについて、画像信号の輝度分布を示した図であり、(イ)が補正前の輝度分布を示し、(ロ)がシェーディング補正された輝度分布を示し、(ハ)がシェーディング補正後更に全エリア同一値のアパーチャー補正係数を用いてアパーチャー補正された輝度分布を示している。
なお、図4では図示の簡略化のために、被写体を照射する光源は均一光源であり、且つ、R、G、B各色の出力が1:1:1になるような被写体を写した場合を前提とする。また、本実施形態では、図4(イ)に示したようにA/D回路11の出力(画像信号)が全体的になだらかな弧を描く弓型になって、1画面の両端部91、92の輝度が後述する不感領域よりも低下する状態をシェーディングとしている。さらに、図4中の弓形の輝度分布中の各所にランダムに発生している凸凹に突出するランダムノイズ93等は、CCD3中の欠陥画素、或いは、CCD3の受光面を被覆するシールガラスに付着したゴミ等により、A/D回路11の出力が部分的に上昇、下降する状態を示している。
また、図4(イ)〜図4(ハ)中の補正目標レベルの上下の点線により挟まれた領域は、不感領域と称し、画像の輝度を上昇させる(明るくする)か低下させる(暗くする)場合に、一般的に人が不快に感じない輝度の領域を示している。不感領域内では、輝度の変動があっても、人は不快に感じないが、不感領域を越えて輝度が上昇あるいは低下すると人は不快に感じる。なお、図4の輝度分布では、各補正段階毎の相違がわかりやすいように、各補正による各部の輝度の変化量を誇張して表現している。
【0015】
図4(イ)の補正が施されない輝度分布では、1画面中の両端部91、92については輝度分布が不感領域以下になっており、人は画像を暗いと認知し不快に感ずる。また、ランダムノイズ93は不感領域内であるので、人が不快に感じない。
図4(ロ)のシェーディング補正が施された輝度分布では、シェーディング補正されたことにより、各エリア毎の平均輝度レベルは、中心エリア(図2中のd4及びd5)の平均輝度レベルである図中の補正目標レベルに合せ込まれる。また、各エリア内の輝度分布は全て不感領域内に入っている。また、ランダムノイズ93aも不感領域内であるので、人が不快に感じない。
図4(ハ)のシェーディング補正後に更に画面全体(全エリア)に同一値のアパーチャー補正係数によりアパーチャー補正が施された輝度分布では、輝度分布中のランダムノイズ93b(図中左側の凸の部分)が不感領域から突出している。これは、補正前の図4(イ)におけるランダムノイズ93等の凸凹のレベルが同程度あり、また、アパーチャー補正処理によりランダムノイズ93bおよび他の濃度差発生部に付加される輪郭強調量は各エリア共同一であっても、アパーチャー補正される前のシェーディング補正量が周辺部分の輝度信号ほど大きいため、そのシェーディング補正用のゲインによりランダムノイズ93bの突出量が他のランダムノイズの突出量よりも大きくなるためである。すなわち、ランダムノイズ93bは、他のランダムノイズよりもシェーディング補正によるゲインが多いためランダムノイズ93bの突出量も他のランダムノイズよりも大きくなり、更に、その上に全エリアに同一レベルの輪郭強調量が付加されたため、ランダムノイズ93bのみ不感領域から突出してしまったものである。
本実施形態では、図4(ハ)に示したようなランダムノイズ93bが不感領域から突出する事態を防止するために、図3に示したようにアパーチャー補正ルックアップテーブル27を用いて画像信号に対するアパーチャー補正(輪郭強調量)をエリア毎に可変制御する。
また、本実施形態では、図3のアパーチャー補正ルックアップテーブル27中に示したように、シェーディング補正係数が大きい場合、即ち、シェーディング補正のゲイン量が多い場合には、ランダムノイズ93a等が不感領域から突出しないように、アパーチャー補正係数を小さくしている。図3中のエリアd1およびエリアd8では、シェーディング補正のゲイン量が多いため、アパーチャー補正係数が他のエリアd2〜エリアd7の1.3に比べて1.1と小さくなっている。このように、各エリア毎にシェーディング補正する際のゲイン量に対応させてアパーチャー補正係数(輪郭強調量)を設定することによりランダムノイズ93等が不感領域から突出しないように画像信号(輝度信号)を補正することができる。
【0016】
ここで、輪郭強調量の設定方法について図5を用いて説明する。
図5は、輪郭部の輝度信号(アパーチャー信号)の入力レベルと出力レベルをの関係を示す図であり、横軸(x軸)がアパーチャー信号の入力レベルを示し、縦軸(y軸)がアパーチャー信号の出力レベルを示している。
コアリングレベル60は、入力アパーチャー信号に対してどこから輪郭強調を施すかを決める範囲、逆に見れば、輪郭強調処理が実行されない入力レベル範囲の幅を示している。本実施形態では、例えば、このコアリングレベル60を広げるように可変制御することにより、輪郭強調量を可変制御して設定し、ランダムノイズ93a等が不感領域から突出しないようにそのエリアのアパーチャー補正係数を小さくするか、ランダムノイズ93が発生するエリアに輪郭強調処理が実施されないようにすることができる。
アパーチャーゲイン70は、入力アパーチャー信号に対して出力アパーチャー信号をどれだけ増幅(輪郭を強調)するか、すなわち、輪郭強調量を示している。本実施形態では、例えば、このアパーチャーゲイン70を可変制御することにより、輪郭強調量を可変制御して設定し、ランダムノイズ93a等が不感領域から突出しないようにそのエリアのアパーチャー補正係数を小さくするか、ランダムノイズ93が発生するエリアに輪郭強調処理が実施されないようにすることができる。
アパーチャーリミット81、82は、入力アパーチャー信号に対して出力アパーチャー信号の増幅度が一定となることにより入力アパーチャー信号に対してどのレベルまで輪郭強調を施すかを決めるかの範囲を示している。本実施形態では、例えば、このアパーチャーリミット81、82の入力レベル範囲を可変制御することにより、輪郭強調量を可変制御して設定し、ランダムノイズ93a等が不感領域から突出しないようにそのエリアのアパーチャー補正係数を小さくするか、ランダムノイズ93が発生するエリアに輪郭強調処理が実施されないようにすることができる。
本実施形態では、上記何れかの方法あるいは上記各方法の組み合わせによりランダムノイズ93a等に対する輪郭強調量を抑えて、ランダムノイズ93a等が不感領域から突出しないようにできる。
【0017】
また、本実施形態のアパーチャー補正回路21(輪郭強調手段)は、図2及び図3に示した各エリア内を更に周波数領域毎に複数の領域に分割した各領域毎に輪郭強調量を設定するようにできる。その場合には、シェーディング補正回路13に用いられるゲイン量に対応させた輪郭強調量を、各周波数領域毎に異なる画像の空間的周波数に基づいて変化させるようにする。このように構成することにより、例えば、空間周波数に基づいて達成される開放感を保ちつつ画質劣化を防止しS/N比を改善することができる。
また、上記したように、絞り・シャッタ2の絞り値、撮像レンズ1のズーム位置、撮像レンズ1の合焦位置、ストロボ装置40の配光特性等の違いに応じて、画像信号に対して図4(ロ)に示すよりも大きなシェーディング補正が実施される場合がある。その場合には、シェーディング補正係数の変わる各エリアの境界における輝度差が大きくなり、この境界の輝度差が輪郭と判断される。すると、アパーチャー補正回路21によりエリア境界の輝度差が強調され不感領域から突出する場合がある。本実施形態では、絞り・シャッタ2の絞り値、撮像レンズ1のズーム位置、撮像レンズ1の合焦位置、ストロボ装置40の配光特性等の違い、及び、ストロボ装置発光の有無によりエリア毎の輪郭強調量を最適であるように設定し、エリア境界の輝度差が強調され不感領域から突出しないようにできる。従って、本実施形態を用いることにより、画像情報(画像データ)の画質劣化を防止しS/N比を改善することができる。
なお、本実施形態に示したエリアの分割数、シェーディング補正係数、アパーチャー補正係数は一例であり、本発明はこれに限られるものではないことはいうまでもない。
【0018】
【発明の効果】
上記のように請求項1の本発明では、シェーディング補正処理と輪郭強調処理を共に実施することにより生ずる画質の劣化を、輪郭強調量を変化させることによって減少させ、S/N比を改善することができる。
請求項2の本発明では、撮像レンズのズーム位置によって変化するシェーディング補正量を予め知ることができるので、各々のズーム位置における最適な輪郭強調量を得ることができ、画質の劣化を減少させ、S/N比を改善することができる。
請求項3の本発明では、絞り値によって変化するシェーディング補正量を予め知ることができるので、各々の絞り値における最適な輪郭強調量を得ることができ、画質の劣化を減少させ、S/N比を改善することができる。
請求項4の本発明では、撮像レンズの合焦位置によって変化するシェーディング補正量を予め知ることができるので、各々の合焦位置における最適な輪郭強調量を得ることができ、画質の劣化を減少させ、S/N比を改善することができる。
請求項5の本発明では、ストロボ装置の発光の有無によって変化するシェーディング補正量を予め知ることができるので、ストロボ装置を発光した時、発光しない時、各々の時における最適な輪郭強調量を得ることができ、画質の劣化を減少させ、S/N比を改善することができる。
請求項6の本発明では、輪郭成分の周波数特性を知ることにより、周波数別に輪郭強調量を変えるので、解像感を保ちつつ、画質の劣化を減少させ、S/N比を改善することができる。
請求項7の本発明では、記憶すべきシェーディング補正量のデータを少なくすることができるので、コストダウンおよびカメラを小型化することができる。
請求項8の本発明では、輪郭強調のゲインを変えることにより、画質の劣化を減少させ、S/N比を改善することができる。
請求項9の本発明では、コアリングレベルを変えることにより、画質の劣化を減少させ、S/N比を改善することができる。
請求項10の本発明では、アパーチャーリミットのレベルを変えることにより、画質の劣化を減少させ、S/N比を改善することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態の画像処理装置の全体構成を示すブロック図である。
【図2】図1に示したシェーディング補正ルックアップテーブルの一例を示す図である。
【図3】図1に示したアパーチャー補正ルックアップテーブルの一例を示す図である。
【図4】図2あるいは図3に示した1画面分のテーブル中のA−A'間の1水平ラインについて画像信号の輝度分布を示した図であり、(イ)が補正前の輝度分布を示し、(ロ)がシェーディング補正された輝度分布を示し、(ハ)がシェーディング補正後更に全エリア同一値のアパーチャー補正係数を用いてアパーチャー補正された輝度分布を示す。
【図5】輪郭部の輝度信号(アパーチャー信号)の入力レベルと出力レベルをの関係を示す図である。
【符号の説明】
1・・・撮像レンズ、2・・・絞り・シャッタ、3・・・CCD、4・・・ズームモータ、5・・・絞り・シャッタモータ、6・・・フォーカスモータ、7・・・TG回路、8・・・モータドライバ、9・・・CDS回路、10・・・AGC回路、11・・・A/D回路、12・・・CDS・A/D(IC)、13・・・シェーディング補正回路、14・・・4Hメモリ、15・・・色分離回路、16・・・信号補間回路、17・・・WB(ホワイトバランス)回路、18・・・γ補正回路、19・・・色差マトリックス回路、20・・・JPEG回路、21・・・アパーチャー補正回路、22・・・SSG回路、23・・・メモリーコントローラー、24・・・信号処理部、25・・・フレームバッファ、26・・・シェーディング補正ルックアップテーブル、27・・・アパーチャー設定ルックアップテーブル、28・・・RAM(CPU内蔵)、29・・・CPU、30・・・記録媒体、31・・・フラッシュROM、40・・・ストロボ装置、50・・・画像処理装置(デジタルカメラ)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that performs shading correction and enhances contours when inputting image data in an image processing apparatus such as a digital camera, and in particular, improves image quality degradation when both shading correction processing and contour enhancement processing are performed. The present invention relates to an image processing apparatus capable of performing image processing.
[0002]
[Prior art]
In the input image of the image processing device, shading (brightness unevenness) occurs due to sunlight that illuminates the subject or light distribution of the lighting device. Shading can be removed by illuminating the subject uniformly with a lighting device, but for that purpose, it is necessary to use a special lighting device or an auxiliary device, and the adjustment of the lighting device or auxiliary device is very It was difficult. Therefore, when a subject is photographed by a general image processing apparatus such as a digital camera, shading always occurs.
In order to correct this shading, a digital camera or the like performs a shading correction process on the captured image data. Many methods for shading correction processing are already known. For example, in the difference method, shading correction is performed as follows. Based on the reference image data obtained by photographing the achromatic sample plate, a difference value with respect to the luminance target value for each pixel is calculated, and the value of the calculation result is stored as correction data for each pixel. Next, shading correction is performed by adding / subtracting the correction data for each pixel to the luminance information for each pixel obtained by photographing a normal subject. In the density conversion method, a conversion rate for obtaining a luminance target value from the reference image data for each pixel is calculated based on reference image data obtained by photographing an achromatic sample plate, and the reference image data A density conversion table is created and stored from the conversion rate of the calculation result. Next, shading correction is performed by converting (multiplying) the luminance information for each pixel on the basis of the conversion rate selected from the density conversion table with respect to the luminance information for each pixel obtained by photographing a normal subject. The contents of the shading correction are roughly classified into black shading correction for reducing a portion where luminance is too high, and conversely, white shading correction for increasing a portion where luminance is too low.
In the white shading correction, for example, a multiplier (mainly gain up) is used to correct a phenomenon that “image data output in the peripheral portion is lower than the central portion of the lens”, which is mainly caused by the lens characteristics of the digital camera.
In order to carry out the above white shading correction with higher accuracy, for example, in Japanese Patent Laid-Open No. 6-319042, each area is determined from the reference image data of the calibration plate divided into a plurality of areas before recording the image data of the subject. The luminance average value of each pixel is obtained, and the image data of the subject is recorded after shading correction is performed using the luminance average value. In the example of this publication, the subject image data is divided into a plurality of areas, the average luminance value for each area is obtained, and the subject image data is recorded after shading correction based on the average luminance value. Shading correction is easy without being affected by random noise mixed in the image data or the surface texture of the calibration plate.
[0003]
On the other hand, in the output image of the image processing apparatus, lines such as fine characters and fine patterns may be interrupted or blurred. In order to solve this problem, a contour emphasis process for emphasizing contours (edges) of lines and characters is performed. In the contour emphasis processing, in order to improve the sharpness and contrast of the character, the contour of the line and the character is emphasized by making the density change between pixels changing from white to black abrupt. That is, for example, the gain of the white side pixel portion of the contour portion (portion changing from white to black) is increased, and the density difference from the black side pixel portion is increased.
However, for example, when the above-described contour correction processing is performed after performing shading correction processing for each of a plurality of areas as in the technique described in JP-A-6-319042, the gain is switched for each of the plurality of areas. The boundary line of each area is emphasized in the form of an edge (outline). When the boundary line portion of each area is emphasized, it appears as linear noise on the reproduced image.
An example of an image processing apparatus that removes noise due to the contour enhancement process after the shading correction process is described in Japanese Patent Publication No. 7-40299. The image processing apparatus disclosed in this publication includes a shading correction unit and a processing unit that performs contour enhancement processing, and performs the contour enhancement processing before the shading correction processing. Further, in the shading correction process after the contour enhancement process, a block consisting of a plurality of pixels is provided in the main scanning direction in advance to calculate a luminance average value for each block, and shading correction is performed using the luminance average value. . Therefore, in the example of this publication, by performing the edge enhancement process before the shading correction process, it is possible to prevent the occurrence of linear noise on the reproduced image due to the area boundary for shading correction. This prevents the image quality from deteriorating.
[0004]
[Problems to be solved by the invention]
However, the image processing apparatus described in Japanese Patent Publication No. 7-40299 only prevents fixed pattern noise (hereinafter referred to as FPN) due to an area boundary for shading correction, For example, a technique for preventing random noise generated irregularly is not disclosed. Further, the technique for preventing FPN using the image processing apparatus of this publication is limited to the case where shading correction is performed by adding / subtracting correction data for each area by the above-described difference method or the like. If shading correction is performed using a multiplier by the above-described density conversion method or the like, FPN will occur even if the configuration order of the shading correction means and the contour enhancement processing means is changed as described in the above publication. Because it will end up. Further, when white shading correction is performed by an adder / subtractor using the image processing apparatus of the above publication, problems such as white balance is lost and color saturation is lower than that of a block that is not corrected. In addition, when performing shading correction using a multiplier by the density conversion method or the like in the image processing apparatus disclosed in the above publication, random noise components are emphasized.
Further, the image processing apparatus disclosed in Japanese Patent Laid-Open No. 6-319042 only increases the accuracy when calculating the shading correction value, so there is no technique for preventing noise on the image after the shading correction process. Not disclosed. Therefore, there is no suggestion or disclosure of a technique for improving the signal (S) / noise (N) ratio against high-frequency noise such as random noise.
However, generally, when the gain for the input image data is increased for the above-described shading correction processing, contour enhancement processing, and the like, the gain of the random noise component is also increased and the noise level is increased. When random noise occurs in an area where shading correction is performed and contour enhancement is performed on the random noise, the level of random noise appears as a line on the reproduced image, and the S / N ratio decreases. To do.
In addition, some image processing apparatuses such as digital cameras have an aperture that can adjust the amount of incident light and a zoom that can adjust the magnification. In such an image processing apparatus, the aperture amount, zooming magnification, etc. The coefficient for performing shading correction varies depending on the shooting conditions. For example, when shooting with a single digital camera with a narrowed aperture, shading for each area does not occur so prominently that the gain for correction is reduced and image quality deteriorates. However, when the same digital camera is used and the aperture is opened, shading occurs very significantly, and the gain for correction increases, resulting in degradation of image quality due to edge enhancement processing. Sometimes.
The present invention has been made in order to solve the above-described conventional problems. Even when the contour emphasis process is performed together with the shading correction process, the S / N against high-frequency noise such as random noise is achieved. It is an object of the present invention to provide an image processing apparatus that can suppress a decrease in the ratio.
[0005]
[Means for Solving the Problems]
In order to achieve the above object, an image processing apparatus of the present invention according to
[0006]
According to a sixth aspect of the present invention, in the image processing apparatus according to the first aspect, the contour emphasizing unit sets a contour emphasis amount for each region obtained by further dividing each area into a plurality of regions for each frequency region. The contour emphasis amount corresponding to the gain amount of the shading correction means can be changed based on the spatial frequency of a different image for each frequency region.
According to a seventh aspect of the present invention, in the image processing apparatus according to the first aspect, zoom means capable of changing an arrangement position of the imaging lens in order to change an incident magnification from the subject image, and an aperture through which incident light can pass. 5. A shading unit that adjusts the amount of incident light by changing an area; a focusing unit that can change an arrangement position of an imaging lens in accordance with a distance to a subject; Storage means for storing the coefficients in an independent state, wherein the shading correction means multiplies the respective shading correction coefficients based on the respective states of the zoom means, the diaphragm means, and the focusing means, and the gain. It is characterized by determining the quantity.
According to an eighth aspect of the present invention, in the image processing apparatus according to the first aspect, the contour emphasizing unit variably controls a contour emphasis amount.
According to a ninth aspect of the present invention, in the image processing apparatus according to the first aspect, the contour emphasizing unit variably controls the level of the contour emphasis by variably controlling the level width of the input signal for which the contour emphasis processing is not executed. It is characterized by doing.
According to a tenth aspect of the present invention, in the image processing apparatus according to the first aspect, the contour emphasizing unit variably controls an input level range in which an output level of a contour emphasis signal is constant, thereby controlling the contour emphasis amount. It is characterized by variable control.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described based on illustrated embodiments.
FIG. 1 is a block diagram showing the overall configuration of an image processing apparatus according to an embodiment of the present invention.
As shown in FIG. 1, an image processing apparatus 50 according to this embodiment is, for example, a digital camera or the like, and includes an
[0008]
As the CDS circuit 9, the
[0009]
The image processing apparatus 50 shown in FIG. 1 operates as follows.
The light that has passed through the
The image signal input to the signal processing unit 24 is multiplied by a shading correction coefficient determined in advance for each area read from the shading correction lookup table 26 by the
[0010]
Here, a predetermined shading correction coefficient will be described.
FIG. 2 is a diagram showing an example of the shading correction lookup table 26 shown in FIG.
The shading correction coefficient is, for example, a value as shown in each area in the shading correction lookup table 26 in FIG. 2, and is a coefficient for each area that is multiplied by the image signal for shading correction. That is, a coefficient for shading correction is determined for each area (block) composed of n × m pixels, and the blocks are arranged vertically and horizontally (8 blocks × 6 blocks in this embodiment), and shading correction data for one screen. It is a table. This shading correction coefficient is obtained from the reciprocal of the ratio value of each area when a subject with uniform luminance on the entire screen is photographed and the luminance distribution of the subject is set to 1.
The shading correction coefficient changes depending on the zoom position of the
[0011]
In the method of storing correction values for all combination results in each recording state in advance in the
When this shading correction coefficient is derived, the aperture correction value (outline enhancement amount) corresponding to the shading correction value is stored in the aperture setting lookup table 27. A method for setting the outline enhancement amount to be stored will be described later with reference to FIG.
[0012]
Further, the RAM 28 built in the CPU 29 receives the horizontal and vertical synchronization signals for the image signal from the
In the present embodiment, the shading correction for the image signal is performed using the above-described shading correction lookup table 26.
Data read from the memory controller 23 is sent to the 4H memory 14. The 4H memory 14 is a buffer memory that can store image signal data for five horizontal lines together with the current signal. In the 4H memory 14, the aperture (contour) component is extracted by dividing the stored data into a high-frequency component of 3 lines and a low-frequency component of 5 lines. In the present embodiment, hereinafter, a high frequency component by three lines is referred to as a high frequency aperture component, and a low frequency component by five lines is referred to as a low frequency aperture component. Note that by expanding the storage capacity of the buffer memory for one line, it is possible to divide the frequency area into smaller frequency areas than the low frequency and high frequency areas. The high-frequency and low-frequency aperture components divided by the 4H memory 14 are sent to the
[0013]
Here, the predetermined aperture correction coefficient will be described.
FIG. 3 is a diagram showing an example of the aperture correction lookup table 27 shown in FIG. Note that a predetermined aperture correction coefficient is stored in the blank portion in the actual table of FIG. 3, but in this embodiment, since the aperture correction coefficient of the blank portion is not used, the blank portion has a blank portion so as not to make the drawing complicated. The description was omitted.
The aperture correction coefficient is, for example, a value as shown in each area in the aperture correction lookup table 27 in FIG. 3, and is a coefficient for each area to be multiplied by the image signal for aperture correction. The area setting is the same as that in the shading correction lookup table 26 described above. This aperture correction coefficient is, for example, detected when the density difference between successive pixels from the luminance signal (Y) is greater than or equal to a certain value, and that portion is determined to be a contour portion, and the image signal of that portion is determined. A predetermined gain. Conventionally, all areas of one screen are uniformly multiplied by the aperture correction coefficient. In the present embodiment, the aperture correction coefficient can be set for each area in one screen. The aperture correction coefficient for each area is stored in advance in the
In the present embodiment, the aperture correction for the image signal is performed using the aperture correction lookup table 27 described above.
On the other hand, after the shading correction is performed by the
In the present embodiment, the image signal flows as described above. Next, characteristic operations and effects of this embodiment will be described.
[0014]
FIG. 4 is a diagram showing the luminance distribution of the image signal for one horizontal line between AA ′ in the table for one screen shown in FIG. 2 or FIG. (B) shows the luminance distribution after shading correction, and (c) shows the luminance distribution after aperture correction using the same value of the aperture correction coefficient after shading correction.
For simplification of illustration in FIG. 4, the light source that irradiates the subject is a uniform light source, and the subject in which the output of each color of R, G, and B is 1: 1: 1 is shown. Assumption. Further, in the present embodiment, as shown in FIG. 4A, the output (image signal) of the A / D circuit 11 has a bow shape that draws a gentle arc as a whole, and both ends 91 of one screen, A state in which the luminance of 92 is lower than a dead area described later is defined as shading. Furthermore, random noise 93 or the like that protrudes randomly at various places in the arcuate luminance distribution in FIG. 4 adheres to defective pixels in the
In addition, an area sandwiched by dotted lines above and below the correction target level in FIGS. 4A to 4C is referred to as an insensitive area, and increases (brightens) or decreases (darkens) the luminance of the image. ) In general, it indicates a luminance region where a person does not feel uncomfortable. In the insensitive area, even if the luminance varies, the person does not feel uncomfortable, but when the luminance increases or decreases beyond the insensitive area, the person feels uncomfortable. In the luminance distribution of FIG. 4, the amount of change in luminance of each part due to each correction is exaggerated so that the difference at each correction stage is easily understood.
[0015]
In the luminance distribution not subjected to the correction in FIG. 4A, the luminance distribution is less than or equal to the insensitive area at both ends 91 and 92 in one screen, and the person perceives that the image is dark and feels uncomfortable. Further, since the random noise 93 is in the insensitive area, the person does not feel uncomfortable.
In the luminance distribution subjected to the shading correction of FIG. 4B, the average luminance level for each area is the average luminance level of the central area (d4 and d5 in FIG. 2) due to the shading correction. It is adjusted to the correction target level. In addition, the luminance distribution in each area is all in the insensitive area. Further, since the
In the luminance distribution in which the entire screen (all areas) is subjected to aperture correction with the same value of the aperture correction coefficient after the shading correction in FIG. 4C,
In the present embodiment, in order to prevent a situation in which the
Further, in the present embodiment, as shown in the aperture correction lookup table 27 in FIG. 3, when the shading correction coefficient is large, that is, when the gain amount of the shading correction is large, the
[0016]
Here, a method for setting the outline enhancement amount will be described with reference to FIG.
FIG. 5 is a diagram showing the relationship between the input level and the output level of the luminance signal (aperture signal) of the contour portion, the horizontal axis (x axis) shows the input level of the aperture signal, and the vertical axis (y axis) shows. The output level of the aperture signal is shown.
The coring level 60 indicates a range that determines where the edge enhancement is applied to the input aperture signal. Conversely, the coring level 60 indicates the width of the input level range where the edge enhancement processing is not executed. In the present embodiment, for example, by performing variable control so as to widen the coring level 60, the contour emphasis amount is variably controlled and set, and the aperture correction of the area is performed so that the
The aperture gain 70 indicates how much the output aperture signal is amplified (contour enhancement) with respect to the input aperture signal, that is, the amount of contour enhancement. In the present embodiment, for example, by variably controlling the aperture gain 70, the contour enhancement amount is variably controlled and set, and the aperture correction coefficient of the area is reduced so that the
Aperture limits 81 and 82 indicate the range in which the level of contour enhancement to the input aperture signal is determined when the amplification degree of the output aperture signal is constant with respect to the input aperture signal. In the present embodiment, for example, by variably controlling the input level range of the aperture limits 81 and 82, the contour enhancement amount is variably controlled and set so that the
In the present embodiment, the amount of edge enhancement for the
[0017]
Further, the aperture correction circuit 21 (contour emphasizing means) of the present embodiment sets the amount of contour emphasis for each area obtained by dividing each area shown in FIGS. 2 and 3 into a plurality of areas for each frequency area. You can In that case, the contour emphasis amount corresponding to the gain amount used in the
In addition, as described above, the image signal is illustrated in accordance with differences in the aperture value of the aperture /
Note that the number of area divisions, shading correction coefficients, and aperture correction coefficients shown in this embodiment are merely examples, and it goes without saying that the present invention is not limited thereto.
[0018]
【The invention's effect】
As described above, according to the first aspect of the present invention, image quality degradation caused by performing both shading correction processing and contour enhancement processing is reduced by changing the amount of contour enhancement, and the S / N ratio is improved. Can do.
In the present invention of
According to the third aspect of the present invention, since the shading correction amount that changes depending on the aperture value can be known in advance, it is possible to obtain the optimum contour enhancement amount at each aperture value, thereby reducing the deterioration of the image quality and reducing the S / N. The ratio can be improved.
According to the fourth aspect of the present invention, since the shading correction amount that changes depending on the in-focus position of the imaging lens can be known in advance, the optimum contour emphasis amount at each in-focus position can be obtained, and image quality degradation is reduced. Thus, the S / N ratio can be improved.
According to the fifth aspect of the present invention, since the shading correction amount that changes depending on whether or not the strobe device emits light can be known in advance, when the strobe device emits light, when it does not emit light, an optimum contour emphasis amount at each time is obtained. Image quality can be reduced, and the S / N ratio can be improved.
According to the present invention of
In the present invention of
According to the eighth aspect of the present invention, it is possible to reduce the deterioration of the image quality and improve the S / N ratio by changing the outline emphasis gain.
In the present invention of claim 9, by changing the coring level, it is possible to reduce image quality degradation and improve the S / N ratio.
In the tenth aspect of the present invention, by changing the level of the aperture limit, it is possible to reduce image quality deterioration and improve the S / N ratio.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of a shading correction lookup table shown in FIG.
3 is a diagram illustrating an example of an aperture correction lookup table illustrated in FIG. 1. FIG.
4 is a diagram showing a luminance distribution of an image signal for one horizontal line between AA ′ in the table for one screen shown in FIG. 2 or FIG. 3, wherein (a) is a luminance distribution before correction; (B) shows the luminance distribution after shading correction, and (c) shows the luminance distribution after aperture correction using the same value of the aperture correction coefficient after the shading correction.
FIG. 5 is a diagram illustrating a relationship between an input level and an output level of a luminance signal (aperture signal) of a contour portion.
[Explanation of symbols]
DESCRIPTION OF
Claims (10)
前記シェーディング補正手段は、1画面を複数エリアに分割したエリア毎に定められているゲイン量で、当該エリア毎のシェーディング補正処理を行い、
前記輪郭強調手段は、前記シェーディング補正手段が補正するエリア毎に、前記ゲイン量に対応させて、該ゲイン量が大きい場合に輪郭強調量を小さくするように設定して輪郭強調処理を行うことを特徴とする画像処理装置。An imaging lens that forms an incident light from a subject at a focal position, a light receiving unit that converts the incident light into input image data, and correction of luminance unevenness that occurs when a subject with a uniform luminance on the entire screen is captured. In an image processing apparatus having shading correction means for performing shading correction and outline enhancement means for enhancing and setting an outline for input image data,
The shading correction means performs a shading correction process for each area with a gain amount determined for each area obtained by dividing one screen into a plurality of areas.
The contour emphasizing unit performs contour emphasizing processing for each area to be corrected by the shading correction unit, corresponding to the gain amount, and setting the contour emphasis amount to be small when the gain amount is large. A featured image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35084499A JP4212741B2 (en) | 1999-12-09 | 1999-12-09 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP35084499A JP4212741B2 (en) | 1999-12-09 | 1999-12-09 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001167263A JP2001167263A (en) | 2001-06-22 |
JP4212741B2 true JP4212741B2 (en) | 2009-01-21 |
Family
ID=18413280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP35084499A Expired - Fee Related JP4212741B2 (en) | 1999-12-09 | 1999-12-09 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4212741B2 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4583670B2 (en) * | 2001-07-04 | 2010-11-17 | パナソニック株式会社 | Image distortion correction apparatus and method |
JP2003087653A (en) * | 2001-09-06 | 2003-03-20 | Ricoh Co Ltd | Imaging apparatus |
JP2009037625A (en) * | 2001-09-11 | 2009-02-19 | Seiko Epson Corp | Image processing using object information |
JP4012384B2 (en) * | 2001-09-28 | 2007-11-21 | フジノン株式会社 | Electronic endoscope apparatus with optical zoom mechanism |
JP4318553B2 (en) * | 2004-01-23 | 2009-08-26 | 三洋電機株式会社 | Image signal processing device |
JP2005269373A (en) | 2004-03-19 | 2005-09-29 | Fuji Photo Film Co Ltd | Video signal processing system, and electronic video apparatus |
JP2006270919A (en) * | 2005-02-25 | 2006-10-05 | Ricoh Co Ltd | Image correcting method, photographing apparatus, image correcting apparatus, program and recording medium |
JP2009201062A (en) * | 2008-02-25 | 2009-09-03 | Canon Inc | Imaging device and imaging method |
JP5008604B2 (en) * | 2008-05-16 | 2012-08-22 | キヤノン株式会社 | Signal processing apparatus and signal processing method |
JP4875032B2 (en) | 2008-08-11 | 2012-02-15 | 株式会社東芝 | Solid-state imaging device |
KR101672944B1 (en) * | 2009-12-14 | 2016-11-04 | 엘지이노텍 주식회사 | Lens shading correction method in the auto focus camera module |
JP5677361B2 (en) * | 2012-04-23 | 2015-02-25 | キヤノン株式会社 | Imaging apparatus and image signal processing method |
CN104662886B (en) * | 2012-09-19 | 2017-11-10 | 富士胶片株式会社 | Camera device and focusing confirm display methods |
-
1999
- 1999-12-09 JP JP35084499A patent/JP4212741B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2001167263A (en) | 2001-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4163353B2 (en) | Image processing device | |
US7057653B1 (en) | Apparatus capable of image capturing | |
JP3668014B2 (en) | Image processing method and apparatus | |
JP5018770B2 (en) | Image signal processing apparatus and image signal processing method | |
JP5299867B2 (en) | Image signal processing device | |
JP4081219B2 (en) | Image processing method and image processing apparatus | |
US7358988B1 (en) | Image signal processor for performing image processing appropriate for an output device and method therefor | |
KR101099401B1 (en) | Image processing apparatus and computer-readable medium | |
JP4683994B2 (en) | Image processing apparatus, image processing method, electronic camera, scanner | |
JP3584389B2 (en) | Image processing method and image processing apparatus | |
JP4212741B2 (en) | Image processing device | |
WO2015119271A1 (en) | Image processing device, imaging device, image processing method, computer-processable non-temporary storage medium | |
JP3184309B2 (en) | Gradation correction circuit and imaging device | |
US20080131007A1 (en) | Image Coding Method and Image Coding Device | |
US9635331B2 (en) | Image processing apparatus that performs tone correction and edge enhancement, control method therefor, and storage medium | |
JP3198983B2 (en) | Electronic still camera | |
JP3064961B2 (en) | Electronic still camera | |
JP3433653B2 (en) | Electronic still camera | |
JPH11353477A (en) | Image processor, image processing method and recording medium recorded with software to execute the method | |
JP3865127B2 (en) | Signal processing apparatus and method, recording medium, and program | |
JP3463526B2 (en) | Electronic still camera | |
JP3763555B2 (en) | Electronic still camera | |
JP2004096444A (en) | Image processor and method thereof | |
JPH11243493A (en) | Image processor | |
JP2009004893A (en) | Image processor and imaging system equipped with same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050613 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050614 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080430 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080630 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080722 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080922 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20081001 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081028 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081029 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111107 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111107 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121107 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131107 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |