JP2004151907A - Image signal processor - Google Patents

Image signal processor Download PDF

Info

Publication number
JP2004151907A
JP2004151907A JP2002315158A JP2002315158A JP2004151907A JP 2004151907 A JP2004151907 A JP 2004151907A JP 2002315158 A JP2002315158 A JP 2002315158A JP 2002315158 A JP2002315158 A JP 2002315158A JP 2004151907 A JP2004151907 A JP 2004151907A
Authority
JP
Japan
Prior art keywords
data
image signal
filter
color
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002315158A
Other languages
Japanese (ja)
Other versions
JP4115244B2 (en
Inventor
Hideshi Okada
秀史 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2002315158A priority Critical patent/JP4115244B2/en
Publication of JP2004151907A publication Critical patent/JP2004151907A/en
Application granted granted Critical
Publication of JP4115244B2 publication Critical patent/JP4115244B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve a good filtering process for an image signal processor. <P>SOLUTION: Noise components contained in Y data output from a YUV conversion circuit 46 are eliminated by an adaptive median filter 52. A chromaticness/hue computing circuit 56 calculates chromaticness C and hue H based on U data and V data output from the YUV conversion circuit 46. An area identifying/coefficient determining circuit 58 varies the characteristic of the adaptive median filter 52 according to the calculated chromaticness C and hue so that it is in inverse proportion to human relative visibility. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、画像信号処理装置に関し、特にたとえば電子カメラに適用され、画像信号からノイズ成分を除去する、画像信号処理装置に関する。
【0002】
【従来技術】
従来のこの種の画像信号処理装置が、特許文献1に開示されている。この従来技術は、表示画像の拡大率に応じてメディアンフィルタのタップ係数を増大させることで、画像の拡大処理に起因して生じるシャギーの緩和と、フィルタ処理に起因する画質劣化の防止とを両立できるようにしたものである。
【0003】
【特許文献1】
特開2002−44425号公報
【0004】
【発明が解決しようとする課題】
しかし、従来技術では、表示画像の特性がタップ係数の調整に反映されることはなく、必ずしも良好なフィルタ処理が施されるわけではなかった。
【0005】
それゆえに、この発明の主たる目的は、画像信号により良好なフィルタ処理を施すことができる、画像信号処理装置を提供することである。
【0006】
【課題を解決するための手段】
第1の発明に従う画像信号処理装置は、画像信号からノイズ成分を除去するフィルタ手段、画像信号の色成分を評価する色評価手段、およびフィルタ手段の効き具合に関連するパラメータ値を色評価手段の評価結果に基づいて人間の比視感度に反比例するように変更する変更手段を備える。
【0007】
第2の発明に従う画像信号処理装置は、画像信号からノイズ成分を除去するフィルタ手段、画像信号の明るさ成分を評価する明るさ評価手段、および明るさ評価手段の評価結果に基づいてフィルタ手段の効き具合を変更する変更手段を備える。
【0008】
【作用】
第1の発明によれば、画像信号に含まれるノイズ成分は、フィルタ手段によって除去される。色評価手段は、かかる画像信号の色成分を評価し、変更手段は、フィルタ手段の効き具合に関連するパラメータ値を色評価手段の評価結果に基づいて人間の比視感度に反比例するように変更する。
【0009】
人間の視覚は、黄色や緑色の光には敏感な一方、赤色や青色の光には鈍感である。これは、黄色や緑色の信号成分に対するフィルタ特性を強くすると解像感が低下すること、および赤色や青色の信号成分に対するフィルタ特性を強くしても解像感は低下しないことを意味する。そこで、第1の発明では、フィルタ手段の効き具合に関連するパラメータ値を人間の比視感度に反比例するように変更する。これによって、解像感の維持とノイズの低減とが両立する。
【0010】
好ましくは、色評価手段は、画像信号の彩度を検出する彩度検出手段、および画像信号の色相を検出する色相検出手段を含む。彩度および色相のパラメータを用いることで、有彩色と無彩色との切り分けと色の区別とが同時に実現される。
【0011】
好ましくは、明るさ評価手段が画像信号の明るさ成分を評価し、決定手段が明るさ評価手段の評価結果に基づいてフィルタ手段の効き具合を決定する。この場合、上述のパラメータ値は明るさ評価手段の評価に用いる基準値である。これによって、フィルタ手段の特性の変更に画像信号の明るさ成分が反映される。
【0012】
決定手段は、好ましくは、画像信号の明るさ成分が少ないほどフィルタ手段の効き具合を強くする。
【0013】
さらに好ましくは、γ補正手段によって画像信号にγ補正が施される。γ補正では、低輝度信号成分の増幅度が高輝度信号成分の増幅度よりも大きい。このことは、低輝度の信号成分に重畳されたノイズが目立つことを意味する。したがって、明るさ成分が少ないほどフィルタ手段の効き具合を強くすることで、低輝度部分に重畳されたノイズを目立たなくすることができる。
【0014】
好ましくは、画像信号は被写体を撮影する撮影手段から出力された信号である。これによって、良好なフィルタ処理が可能となる。
【0015】
第2の発明によれば、画像信号に含まれるノイズ成分は、フィルタ手段によって除去される。明るさ評価手段はかかる画像信号の明るさ成分を評価し、変更手段は明るさ評価手段の評価結果に基づいてフィルタ手段の効き具合を変更する。これによって、フィルタ特性の変更に明るさ成分が反映される。
【0016】
好ましくは、画像信号は、各画素が複数色のうち1色の色情報のみを有する信号である。色分離手段は、フィルタ手段によってノイズ成分が除去された画像信号に色分離を施して、各画素に複数色の色情報を割り当てる。各画素が1色の色情報のみを有する画像信号にフィルタ処理を施すことで、カラーノイズが抑制される。
【0017】
【発明の効果】
第1の発明によれば、フィルタ手段の効き具合に関連するパラメータ値を人間の比視感度に反比例するように変更することで、解像感の維持とノイズの低減との両立が可能となり、良好なフィルタ処理が実現される。
【0018】
第2の発明によれば、フィルタ手段の効き具合の変更に画像信号の明るさ成分が反映されるため、良好なフィルタ処理が可能となる。
【0019】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0020】
【実施例】
図1を参照して、この実施例のディジタルカメラ10は、光学レンズ12および赤外線カットフィルタ13を含む。被写体の光学像は、こられの部材を介してイメージセンサ14の受光面に入射する。受光面は図2に示すような原色ベイヤ配列の色フィルタ14aによって覆われ、受光面に形成された各々の受光素子(画素)で生成される電荷(画素信号)は、R,GおよびBのいずれか1つの色情報のみを有する。
【0021】
電源が投入されると、スルー画像表示処理が実行される。まず、CPU34からTG(Timing generator)18に対して間引き読み出しの繰り返しが命令される。TG18は、イメージセンサ14に30fpsのフレームレートで間引き読み出しを施す。この結果、垂直方向の解像度が低減された生画像信号が、ラスタ走査態様でイメージセンサ14から出力される。ただし、出力される低解像度の生画像信号の偶数ラインにはR,G,R,G,…の色情報を有する画素信号が含まれ、奇数ラインにはG,B,G,B,…の色情報を有する画素信号が含まれる。
【0022】
CDS/AGC/AD回路16は、イメージセンサ14から出力された各フレームの生画像信号にノイズ除去,ゲイン調整およびA/D変換の一連の処理を施し、ディジタル信号である生画像データを出力する。出力された生画像データは信号処理回路20によってYUVデータに変換され、変換されたYUVデータはメモリコントローラ22によってSDRAM24に書き込まれる。
【0023】
ビデオエンコーダ26は、メモリコントローラ22を通してSDRAM24から各フレームのYUVデータを読み出し、読み出されたYUVデータに縮小ズームを施し、そしてズームされたYUVデータをNTSC方式のコンポジットビデオ信号に変換する。変換されたコンポジットビデオ信号はLCD28に与えられ、この結果、被写体のリアルタイム動画像つまりスルー画像がLCD28に全面表示される。
【0024】
シャッタボタン32が操作されると、記録処理が実行される。まず、CPU34からTG18に対して全画素読み出しが命令される。TG18は、イメージセンサ14に1フレーム分の全画素読み出しを施し、この結果、高解像度の生画像信号がラスタ走査態様でイメージセンサ14から出力される。出力された生画像信号の偶数ラインにはR,G,R,G,…の色情報を有する画素信号が含まれ、奇数ラインにはG,B,G,B,…の色情報を有する画素信号が含まれる。
【0025】
シャッタボタン32の操作に応答して読み出された生画像信号は、CDS/AGC/AD回路16および信号処理回路20によって上述と同様の処理を施される。信号処理回路20からは高解像度のYUVデータが出力され、このYUVデータはメモリコントローラ22を介してSDRAM24に書き込まれる。SDRAM24に格納された高解像度のYUVデータは、その後メモリコントローラ22を介してビデオエンコーダ26に与えられ、縮小ズームを経てNTSCフォーマットのコンポジットビデオ信号に変換される。この結果、シャッタボタン32が押された時点の被写体の静止画像つまりフリーズ画像がLCD28に全面表示される。
【0026】
CPU34は、シャッタボタン32が操作されたとき、JPEGコーデック30に圧縮命令を与える。JPEGコーデック30は、メモリコントローラ22を通してSDRAMから高解像度のYUVデータを読み出し、読み出されたYUVデータにJPEG圧縮を施し、圧縮されたYUVデータつまりJPEGデータをメモリコントローラ22を介してSDRAM24に書き込む。CPU34は、SDRAM24に格納されたJPEGデータをメモリコントローラ22を通して読み出し、読み出されたJPEGデータをI/F36を通して記録媒体38に記録する。
【0027】
なお、記録媒体38は着脱自在であり、装着時にI/F36と接続される。JPEGデータは、かかる記録媒体38にファイル形式で記録される。
【0028】
信号処理回路20は、図3に示すように構成される。生画像データは、白バランス調整回路40によって白バランス調整を施され、γ補正回路42によってγ補正を施され、そして色分離回路44によって色分離を施される。色分離によって生成される補間画像データは、各々の画素がR,GおよびBの全ての色情報を有するデータである。色分離回路44から出力された補間画像データはその後、YUV変換回路46によってYUVデータに変換される。変換されたYUVデータは、Y:U:V=4:2:2の比率を有する。
【0029】
YUVデータを形成するYデータは、3ラインずつブロック化回路50に与えられる。つまり、注目する3ラインのうち、1ライン目のYデータはそのままデータL0としてブロック化回路50に与えられ、2ライン目のYデータは1H遅延線48aを介してデータL1としてブロック化回路50に与えられ、3ライン目のYデータは1H遅延線48aおよび48bを介してデータL2としてブロック化回路50に与えられる。したがって、或る1ライン期間にブロック化回路50に同時に入力される3ラインと、次の1ライン期間にブロック化回路50に同時に入力される3ラインとの間では、2ラインの重複が生じる。
【0030】
ブロック化回路50は、入力された3ラインのYデータから水平3画素×垂直3画素のYデータを抽出し、抽出された9画素のYデータをデータD0〜D8として同時に出力する。或る1画素期間に出力される9画素と、次の1画素期間に出力される9画素との間では、水平2画素×垂直3画素の重複が生じる。
【0031】
図4を参照して、ブロック化回路50は、6つのレジスタ50r−1〜50r−6によって構成される。データL0はレジスタ50r−1および50r−2によって1画素期間ずつ遅延され、データL1はレジスタ50r−3および50r−4によって1画素期間ずつ遅延され、そしてデータL3はレジスタ50r−5および50r−6によって1画素期間ずつ遅延される。したがって、連続する3画素のデータL0はデータD0〜D2として出力され、連続する3画素のデータL1はデータD3〜D5として出力され、そして連続する3画素のデータL2はデータD6〜D8として出力される。
【0032】
データD0〜D9のうち、データD4が抽出された9画素の中央に存在する画素のデータとなる。したがって、データD4を“注目画素データ”と定義し、データD0〜D3およびD5〜D9を“周辺画素データ”と定義する。
【0033】
適応型メディアンフィルタ52は、ブロック化回路50からデータD0〜D8を取り込み、タップ係数Tに従う量のデータを用いてフィルタ処理を実行する。図7を参照して具体的に説明すると、タップ係数Tが“9”であれば、9画素分のデータD0,D1,D3,D5,D6,D7,D8およびD4がデータ値に従う順序でソートされ、中央に配置されたデータが選択される。タップ係数Tが“11”であれば、11画素分のデータD0,D1,D3,D5,D6,D7,D8,D4,D4およびD4がデータ値に従う順序でソートされ、中央に配置されたデータが選択される。タップ係数Tが“13”であれば、13画素分のデータD0,D1,D3,D5,D6,D7,D8,D4,D4,D4,D4およびD4がデータ値に従う順序でソートされ、中央に配置されたデータが選択される。タップ係数Tが“15”であれば、15画素分のデータD0,D1,D3,D5,D6,D7,D8,D4,D4,D4,D4,D4,D4およびD4がデータ値に従う順序でソートされ、中央に配置されたデータが選択される。
【0034】
図7から分かるように、タップ係数Tが大きくなるほど、全データに占めるデータD4の比率が高くなり、データD4が選択され易くなる。換言すれば、タップ係数Tが取り得る数値“9”,“11”,“13”および“15”のうち、数値が小さくなるほどフィルタの効き具合が強くなり、数値が大きくなるほどフィルタの効き具合が弱くなる。
【0035】
なお、タップ係数Tが“0”であればフィルタ処理は実行されず、データD4が無条件で選択される。
【0036】
図5を参照して、適応型メディアンフィルタ52は、1つのエンコーダ52eと、7個のセレクタ52s−1〜52s−7と、79個の比較器52c−1〜52c−79とによって構成される。
【0037】
ブロック化回路50から出力されたデータD0〜D8のうち、データD0およびD1は比較器52c−1の上側入力端および下側入力端にそれぞれ与えられ、データD2およびD3は比較器52c−2の上側入力端および下側入力端にそれぞれ与えられる。また、データD5およびD6は比較器52c−3の上側入力端および下側入力端にそれぞれ与えられ、データD7およびD8は比較器52c−4の上側入力端および下側入力端にそれぞれ与えられる。さらに、データD4は、比較器52c−17の下側入力端に与えられる。
【0038】
比較器52c−1〜52c−79のいずれも、上側入力端から入力されたデータと下側入力端から入力されたデータとを互いに比較し、数値が大きいデータを上側出力端から出力するとともに、数値が小さいデータを下側出力端から出力する。比較器52c−1〜52c−79の接続関係は図5から明らかであるため、接続関係の詳しい説明は省略するが、比較器52c−24の上側出力端からは、データD0〜D8のうちで数値が最も大きいデータがデータD_MAXとして出力される。
【0039】
エンコーダ52eは、入力されたタップ係数Tに応じて、図6に示す数値を有する制御データs0〜s6を出力する。タップ係数Tが“9”であれば制御データs0〜s6として“1111110”が出力され、タップ係数Tが“11”であれば制御データs0〜s6として“1111001”が出力される。また、タップ係数Tが“13”であれば制御データs0〜s6として“1100002”が出力され、タップ係数Tが“15”であれば制御データs0〜s6として“0000003”が出力される。さらに、タップ係数Tが“0”であれば、制御データs0〜s6として“0000004”が出力される。
【0040】
制御データs0〜s5はそれぞれ、セレクタ52s−1〜52s−6に与えられる。セレクタ52s−1〜52s−6の各々は、与えられた制御データ値が“0”を示すときデータD4を選択し、与えられた制御データ値が“1”を示すとき“0”を選択する。
【0041】
制御データs6は、セレクタ52s−7に与えられる。セレクタ52s−7は、制御データ値が“0”を示すとき、比較器52c−39の下側出力端から出力されたデータD_M9を選択し、制御データ値が“1”を示すとき、比較器52c−55の上側出力端から出力されたデータD_M11を選択する。セレクタ52s−7はまた、制御データ値が“2”を示すとき、比較器52c−64の下側出力端から出力されたデータD_M13を選択し、制御データ値が“3”を示すとき、比較器52c−79の上側出力端から出力されたデータD_M15を選択する。セレクタ52s−7はさらに、制御データ値が“4”を示すときデータD4を選択する。
【0042】
したがって、タップ係数Tが“9”を示すときは比較器52c−1〜52c−39が有効化され、タップ係数Tが“11”を示すときは比較器52c−1〜52c−55が有効化される。また、タップ係数Tが“13”を示すときは比較器52c−1〜52c−64が有効化され、タップ係数Tが“15”を示すときは比較器52c−1〜52c−79が有効化される。タップ係数Tが“0”を示すときは、比較器52c−1〜52c−79は全て無効とされる。
【0043】
セレクタ52s−7によって選択されたデータは、データD_MEDとして適応型メディアンフィルタ52から出力される。また、適応型メディアンフィルタ52から出力されたデータD_MAXは、Yデータとして信号処理回路20から出力される。
【0044】
図3に戻って、YUV変換回路46によって生成されたUデータおよびVデータは、そのまま信号処理回路20から出力されるとともに、それぞれ1H遅延線54aおよび54bを介して彩度/色相演算回路56に与えられる。彩度/色相演算回路56は、数1に従って彩度Cを算出し、数2に従って色相Hを算出する。
【0045】
【数1】
C=(U+V1/2
【0046】
【数2】
H=arctan(U/V)
領域判別/係数決定回路58は、算出された彩度Cおよび色相Hが図9に示すゾーンZuv0〜Zuv5のいずれに属するかを判別する。具体的には、彩度Cを閾値THCと比較し、色相Hを閾値THH1〜THH4の各々と比較して、彩度Cおよび色相Hが属するゾーンを判別する。
【0047】
なお、ゾーンZuv0には無彩色が分布し、ゾーンZuv1およびZuv5には青色が分布する。また、ゾーンZuv2には赤色が分布し、ゾーンZuv3には黄色が分布し、ゾーンZuv4には緑色が分布する。3原色である赤色,緑色および青色の他に黄色に対応するゾーンZuv3を形成するようにしたのは、このゾーンZuv3に肌色が含まれ、肌色について特別な処理を行うためである。
【0048】
たとえばゾーンZuv0が判別されると、領域判別/係数決定回路58は、図10に示すように数値TH0Z0〜TH3Z0を閾値THL0〜THL3として決定する。領域判別/係数決定回路58はその後、適応型メディアンフィルタ52から出力されたデータD_MAXを閾値THL0〜THL3の各々と比較し、比較結果に応じてタップ係数Tを“9”,“11”,“13”,“15”および“0”の中から決定する。適応型メディアンフィルタ52には、こうして決定されたタップ係数Tが与えられる。
【0049】
領域判別/係数決定回路58は、図8に示すように構成される。色相Hは比較器58c−1〜58c−4で閾値THH1〜THH4と比較され、彩度Cは比較器58c−5において閾値THCと比較される。比較器58c−1から出力される比較データcph1は、H>THH1のとき“1”を示し、H≦THH1のとき“0”を示す。比較器58c−2から出力される比較データcph2は、H>THH2のとき“1”を示し、H≦THH2のとき“0”を示す。比較器58c−3から出力される比較データcph3は、H>THH3のとき“1”を示し、H≦THH3のとき“0”を示す。比較器58c−4から出力される比較データcph4は、H>THH4のとき“1”を示し、H≦THH4のとき“0”を示す。比較器58c−5から出力される比較データcpcは、C>THCのとき“1”を示し、C≦THCのとき“0”を示す。
【0050】
第1デコーダ58d−1は、比較データcph1〜cph4およびcpcに基づいてゾーン判別データZUVを生成する。このとき、比較データcph1〜cph4およびcpcとゾーン判別データとの間には、図11に示す関係が成り立つ。図11において“X”はデータ値が“0”および“1”のいずれでもよいことを示す。また、ゾーン判別データZUVが取り得る数値“0”〜“5”はそれぞれ、図9に示すゾーンZuv0〜Zuv5に対応する。
【0051】
図11によれば、比較データcpcが“0”であれば、ゾーン判別データZUVは“0”を示す。比較データcph1〜cph4の各々が“0”でかつ比較データcpcが“1”であれば、ゾーン判別データZUVは“1”を示す。比較データcph1およびcpcの各々が“1”でかつ比較データcph2〜cph4の各々が“0”であれば、ゾーン判別データZUVは“2”を示す。比較データcph1,cph2およびcpcの各々が“1”でかつ比較データcph3およびcph4が“0”であれば、ゾーン判別データZUVは“3”を示す。比較データcph1〜cph3およびcpcの各々が“1”でかつ比較データcph4が“0”であれば、ゾーン判別データZUVは“4”を示す。比較データcph1〜cph4およびcpclの全てが“1”であれば、ゾーン判別データZUVは“5”を示す。
【0052】
セレクタ58s−1,58s−2,58s−3および58s−4はそれぞれ、ZUV=0のとき閾値TH0Z0,TH1Z0,TH2Z0およびTH3Z0を選択し、ZUV=1のとき閾値TH0Z1,TH1Z1,TH2Z1およびTH3Z1を選択する。また、ZUV=2のとき閾値TH0Z2,TH1Z2,TH2Z2およびTH3Z2を選択し、ZUV=3のとき閾値TH0Z3,TH1Z3,TH2Z3およびTH3Z3を選択する。さらに、ZUV=4のとき閾値TH0Z4,TH1Z4,TH2Z4およびTH3Z4を選択し、ZUV=5のとき閾値TH0Z5,TH1Z5,TH2Z5およびTH3Z5を選択する。
【0053】
ここで、ゾーンZuv1〜ゾーンZuv5にそれぞれ対応する閾値TH*Z1〜TH*Z5(*:0〜3)は、図13に示す標準比視感度を示す曲線Aと相関関係を有する。詳しく説明すると、曲線B0〜B3は、曲線Aに反比例する曲線である。閾値TH0Z1〜TH0Z5は曲線B0に沿って分布し、閾値TH1Z1〜TH1Z5は曲線B1に沿って分布し、閾値TH2Z1〜TH2Z5は曲線B2に沿って分布し、そして閾値TH3Z1〜TH3Z5は曲線B3に沿って分布する。なお、標準比視感度曲線とは、人間の視覚が黄色や緑色の光には敏感な一方、赤色や青色の光には鈍感であることを表す曲線である。
【0054】
図8に戻って、セレクタ58s−1で選択された閾値は閾値THL0として比較器58c−6に与えられ、セレクタ58s−2で選択された閾値は閾値THL1として比較器58c−7に与えられる。また、セレクタ58s−3で選択された閾値は閾値THL2として比較器58c−8に与えられ、そしてセレクタ58s−4で選択された閾値は閾値THL3として比較器58c−9に与えられる。
【0055】
比較器58c−6〜58c−9はそれぞれ、セレクタ58s−1〜58s−4から与えられた閾値THL0〜THL3を適応型メディアンフィルタ70から出力されたデータD_MAXと比較する。比較器58c−6から出力される比較データcpl0は、D_MAX>THL0のとき“1”を示し、D_MAX≦THL0のとき“0”を示す。比較器58c−7から出力される比較データcpl1は、D_MAX>THL1のとき“1”を示し、D_MAX≦THL1のとき“0”を示す。比較器58c−8から出力される比較データcpl2は、D_MAX>THL2のとき“1”を示し、D_MAX≦THL2のとき“0”を示す。比較器58c−9から出力される比較データcpl3は、D_MAX>THL3のとき“1”を示し、D_MAX≦THL3のとき“0”を示す。
【0056】
第2デコーダ58d−2は、比較データcpl0〜cpl3に基づいてタップ係数Tを生成する。このとき、比較データcpl0〜cpl3とタップ係数Tとの間には、図12に示す関係が成り立つ。
【0057】
図12によれば、比較データcpl0〜cpl3の全てが“0”であれば、タップ係数Tは“9”を示す。比較データcpl0が“1”でかつ比較データcpl1〜cpl3が“0”であれば、タップ係数Tは“11”を示す。比較データcpl0およびcpl1が“1”でかつ比較データcpl2およびcpl3が“0”であれば、タップ係数Tは“13”を示す。比較データcpl0〜cpl2が“1”でかつ比較データcpl3が“0”であれば、タップ係数Tは“15”を示す。比較データcpl0〜cpl3の全てが“1”であれば、タップ係数Tは“0”を示す。
【0058】
したがって、データD_MAXが大きいほど、タップ係数Tは“9”,“11”,“13”および“15”の中で大きい値を示し、データD_MAXが小さいほど、タップ係数Tは“9”,“11”,“13”および“15”の中で小さい値を示す。このため、データD_MAXが大きいほどフィルタの効き具合が弱くなり、データD4が選択され易くなる。逆に、データD_MAXが小さいほどフィルタの効き具合が強くなり、データD4が選択され難くなる。
【0059】
以上の説明からわかるように、図3に示すYUV変換回路46から出力されたYデータのノイズ成分は、適応型メディアンフィルタ52によって除去される。彩度/色相演算回路56は、YUV変換回路46から出力されたUデータおよびVデータに基づいて彩度Cおよび色相Hを算出する。算出された彩度Cは図8に示す比較器58c−5によって閾値THCと比較され、色相Hは図8に示す比較器58c−1〜58c−4によって閾値THH1〜THH4と比較される。第1デコーダ58d−1は、比較器58c−5から出力された比較データcpcと比較器58c−1〜58c−4から出力された比較データcph1〜cph4とに基づいてゾーン判別データZUVを出力する。これによって、注目画素の色評価結果が得られる。
【0060】
セレクタ58s−1〜58s−4は、ゾーン判別データZUVに対応する数値を持つ閾値THL0〜THL3を出力する。注目画素に関連するYデータであるデータD_MAXは、比較器58c−6〜58c−9によって閾値THL0〜THL3と比較される。これによって、注目画素に関連する明るさ評価結果が得られる。第2デコーダ58d−2は、比較器58c−6〜58c−9から出力された比較データcpl0〜cpl3に基づいて、タップ係数Tを決定する。
【0061】
閾値THL0〜THL3は人間の比視感度特性に反比例する数値を示し、フィルタの効き具合は、比視感度特性に反比例するように変更される。また、タップ係数TはデータD_MAXが低いほど小さくなり、これによって画像が低輝度であるほどフィルタの効き具合が強くなる。
【0062】
人間の視覚は、黄色や緑色の光には敏感な一方、赤色や青色の光には鈍感である。このことは、黄色や緑色の信号成分に対するフィルタ特性を強くすると解像感が低下すること、および赤色や青色の信号成分に対するフィルタ特性を強くしても解像感は低下しないことを意味する。そこで、この実施例では、人間の比視感度に反比例するように適応型メディアンフィルタ52の特性を変更するようにしている。これによって、人間の視覚が敏感である黄色や緑色ではフィルタ特性が弱められ、解像感の低下が防止される。また、人間の視覚が鈍感である赤色や青色ではフィルタ特性が強くされ、ノイズが除去される。こうして解像感の維持とノイズの低減とが両立し、良好なフィルタ処理が可能となる。
【0063】
また、図3に示すγ補正回路42は、YUV変換回路46のYUV変換に先立って生画像データにγ補正を施す。γ補正では、低輝度成分の増幅度が高輝度成分の増幅度よりも大きい。これは、低輝度の信号成分に重畳されたノイズが目立つことを意味する。そこで、この実施例では、輝度が低いほどフィルタの効き具合を強くするようにしている。これによって、低輝度部分に重畳されたノイズを目立たなくすることができる。なお、低輝度部分では解像感の維持は重要ではないので、ここでもノイズの低減と解像感の維持とが両立する。
【0064】
他の実施例のディジタルカメラ10は、信号処理回路20が図14に示すように構成される点を除き、図1実施例と同様である。このため、異なる点を中心に説明し、同様の部分の重複した説明は省略する。
【0065】
図14を参照して、生画像データは、5ライン毎にRBブロック化回路64およびGブロック化回路66に与えられる。つまり、注目する5ラインのうち、1ライン目の生画像データはそのままRBブロック化回路64およびGブロック化回路66に与えられ、2ライン目の生画像データは1H遅延線62aを介してRBブロック化回路64およびGブロック化回路66に与えられ、3ライン目の生画像データは1H遅延線62aおよび62bを介してRBブロック化回路64およびGブロック化回路66に与えられる。また、4ライン目の生画像データは1H遅延線62a〜62cを介してRBブロック化回路64およびGブロック化回路66に与えられ、5ライン目の生画像データは1H遅延線62a〜62dを介してRBブロック化回路64およびGブロック化回路66に与えられる。
【0066】
したがって、或る1ライン期間にRBブロック化回路64およびGブロック化回路66に与えられる5ライン分の生画像データと、次の1ライン期間にRBブロック化回路64およびGブロック化回路66に与えられる5ライン分の生画像データとの間では、4ラインの重複が生じる。
【0067】
RBブロック化回路64は、注目する水平5画素×垂直5画素のマトリクスが図15(A)に示すパターンを形成するとき、Rの色情報を有する9画素の画素データをデータD0〜D8として抽出する。RBブロック化回路64はまた、注目する水平5画素×垂直5画素のマトリクスが図15(B)に示すパターンを形成するとき、Bの色情報を有する9画素の画素データをデータD0〜D8として抽出する。一方、Gブロック化回路66は、注目する水平5画素×垂直5画素のマトリクスが図15(C)に示すパターンを形成するとき、Gの色情報を有する9画素の画素データをデータD0〜D8として抽出する。
【0068】
この実施例でも、データD4が、抽出された9画素の中央に存在する画素のデータとなる。したがって、データD4を“注目画素データ”と定義し、データD0〜D3およびD5〜D9を“周辺画素データ”と定義する。
【0069】
セレクタ68は、図15(A)または図15(B)に示すパターンが形成されるときRBブロック化回路64を選択し、図15(C)に示すパターンが形成されるときGブロック化回路66を選択する。したがって、Rの色情報のみを有する9画素の画素データ,Gの色情報のみを有する9画素の画素データあるいはBの色情報のみを有する9画素の画素データが、適応型メディアンフィルタ70に入力される。
【0070】
適応型メディアンフィルタ70は、図3に示す適応型メディアンフィルタ52と同じ構成を有し、入力されたデータD0〜D8のうち数値が最も大きいデータがデータD_MAXとして明るさ判別回路72に入力される。明るさ判別回路72は、入力されたデータD_MAXの値を閾値TH1〜TH4(TH1<TH2<TH3<TH4)の各々と比較し、比較結果に応じたタップ係数Tを適応型メディアンフィルタ70に入力する。
【0071】
図16を参照して、D_MAX<TH1であれば、適応型メディアンフィルタ70に入力されるタップ係数Tは“9”を示す。TH1≦D_MAX<TH2であれば、適応型メディアンフィルタ70に入力されるタップ係数Tは“11”を示す。TH2≦D_MAX<TH3であれば、適応型メディアンフィルタ70に入力されるタップ係数Tは“13”を示す。TH3≦D_MAX<TH4であれば、適応型メディアンフィルタ70に入力されるタップ係数Tは“15”を示す。TH4≦D_MAXであれば、適応型メディアンフィルタ70に入力されるタップ係数Tは“0”を示す。
【0072】
したがって、データD_MAXが大きいほど、タップ係数Tは“9”,“11”,“13”および“15”の中で大きい値を示し、データD_MAXが小さいほど、タップ係数Tは“9”,“11”,“13”および“15”の中で小さい値を示す。このため、データD_MAXが大きいほどフィルタの効き具合が弱くなり、データD4が選択され易くなる。逆に、データD_MAXが小さいほどフィルタの効き具合が強くなり、データD4が選択され難くなる。
【0073】
適応型メディアンフィルタ70から出力された生画像データは、白バランス調整回路74およびγ補正回路76を経て色分離回路78に与えられ、各画素がR,GおよびBの全ての色情報を有する補間画像データに変換される。変換された補間画像データは、その後YUV変換回路80を経て出力される。
【0074】
以上の説明から分かるように、生画像データに含まれるノイズ成分は、適応型メディアンフィルタ70によって除去される。明るさ、判別回路72は、注目画素に関連するデータD_MAXによって画像の明るさを評価し、評価結果に基づいてタップ係数Tを変更する。これによって、適応型メディアンフィルタ70のフィルタ特性の変更に画像の明るさが反映される。また、生画像データは、各画素がR,GまたはGの色情報のみを有するデータである。このような画像データにフィルタ処理を施すことで、カラーノイズが抑制される。これによって、良好なフィルタ処理が実現される。
【0075】
なお、この実施例では、メディアンフィルタの改良型を用いるようにしたが、フィルタの特性を変更できる限り、ガウシアンフィルタなどの別のフィルタを用いてもよい。また、この実施例では、ディジタルカメラを用いて説明したが、この発明は、テレビジョン受像機やビデオレコーダなどの画像信号処理装置にも適用できる。さらに、この実施例では、データD0〜D8のうち数値が最大となるデータをデータD_MAXとして、このデータD_MAXを図8に示す比較器58c−6〜58c−9に与えているが、データD_MAXに代えてデータD4を比較器58c−6〜58c−9に与えるようにしてもよい。この場合、常に注目画素の明るさが評価される。
【図面の簡単な説明】
【図1】この発明の一実施例を示すブロック図である。
【図2】図1実施例に適用される色フィルタの構成の一例を示す図解図である。
【図3】図1実施例に適用される信号処理回路の構成の一例を示すブロック図である。
【図4】図3実施例に適用されるブロック化回路の構成の一例を示すブロック図である。
【図5】図3実施例に適用される適応型メディアンフィルタの構成の一例を示すブロック図である。
【図6】図5に示す適応型メディアンフィルタの動作の一部を示す図解図である。
【図7】図5に示す適応型メディアンフィルタの動作の他の一部を示す図解図である。
【図8】図3実施例に適用される領域判別/係数決定回路の構成の一例を示すブロック図である。
【図9】図8に示す領域判別/係数決定回路の動作の一部を示す図解図である。
【図10】図8に示す領域判別/係数決定回路の動作の他の一部を示す図解図である。
【図11】図8に示す領域判別/係数決定回路の動作のその他の一部を示す図解図である。
【図12】図8に示す領域判別/係数決定回路の動作のさらにその他の一部を示す図解図である。
【図13】この発明の他の実施例に適用される信号処理回路の構成の一例を示すブロック図である。
【図14】標準比視感度曲線を示すグラフである。
【図15】図13実施例の動作の一部を示す図解図である。
【図16】図13実施例の動作の他の一部を示す図解図である。
【符号の説明】
10…ディジタルカメラ
20…信号処理回路
42,76…γ補正回路
46,80…YUV変換回路
52,70…適応型メディアンフィルタ
56…彩度/色相演算回路
58…領域判別/係数決定回路
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image signal processing device, and more particularly, to an image signal processing device applied to, for example, an electronic camera and removing a noise component from an image signal.
[0002]
[Prior art]
A conventional image signal processing apparatus of this type is disclosed in Japanese Patent Application Laid-Open No. H11-163,837. This conventional technique increases the tap coefficient of the median filter in accordance with the enlargement ratio of the displayed image, thereby both reducing shaggy caused by the image enlargement process and preventing image quality deterioration caused by the filter process. It was made possible.
[0003]
[Patent Document 1]
JP-A-2002-44425
[0004]
[Problems to be solved by the invention]
However, in the related art, the characteristics of the display image are not reflected in the adjustment of the tap coefficient, and a satisfactory filtering process is not always performed.
[0005]
SUMMARY OF THE INVENTION Therefore, a main object of the present invention is to provide an image signal processing device capable of performing an excellent filtering process on an image signal.
[0006]
[Means for Solving the Problems]
An image signal processing device according to a first aspect of the present invention includes a filter unit that removes a noise component from an image signal, a color evaluation unit that evaluates a color component of an image signal, and a parameter value related to the effectiveness of the filter unit. And a changing unit for changing the relative luminosity factor of the human based on the evaluation result so as to be inversely proportional to the human luminous efficiency.
[0007]
An image signal processing apparatus according to a second aspect of the present invention includes a filter unit for removing a noise component from an image signal, a brightness evaluation unit for evaluating a brightness component of the image signal, and a filter unit based on the evaluation result of the brightness evaluation unit. There is provided changing means for changing the degree of effectiveness.
[0008]
[Action]
According to the first aspect, the noise component included in the image signal is removed by the filter unit. The color evaluation means evaluates the color component of the image signal, and the change means changes a parameter value related to the effectiveness of the filter means so as to be inversely proportional to human relative luminous efficiency based on the evaluation result of the color evaluation means. I do.
[0009]
Human vision is sensitive to yellow and green light, but insensitive to red and blue light. This means that if the filter characteristics for the yellow and green signal components are strengthened, the resolution will decrease, and that even if the filter characteristics for the red and blue signal components are strengthened, the resolution will not decrease. Therefore, in the first invention, the parameter value related to the effectiveness of the filter means is changed so as to be inversely proportional to the relative luminosity factor of a human. As a result, both maintaining the resolution and reducing noise are compatible.
[0010]
Preferably, the color evaluation means includes a saturation detection means for detecting the saturation of the image signal, and a hue detection means for detecting the hue of the image signal. By using the parameters of the saturation and the hue, the separation between the chromatic color and the achromatic color and the distinction of the color are simultaneously realized.
[0011]
Preferably, the brightness evaluation unit evaluates the brightness component of the image signal, and the determination unit determines the effectiveness of the filter unit based on the evaluation result of the brightness evaluation unit. In this case, the above parameter values are reference values used for evaluation by the brightness evaluation means. Thereby, the brightness component of the image signal is reflected in the change of the characteristic of the filter means.
[0012]
Preferably, the determining means increases the effectiveness of the filtering means as the brightness component of the image signal decreases.
[0013]
More preferably, the image signal is subjected to γ correction by γ correction means. In the γ correction, the amplification degree of the low luminance signal component is larger than the amplification degree of the high luminance signal component. This means that noise superimposed on the low-luminance signal component is conspicuous. Therefore, the noise superimposed on the low luminance portion can be made less noticeable by increasing the effectiveness of the filter means as the brightness component decreases.
[0014]
Preferably, the image signal is a signal output from a photographing means for photographing a subject. As a result, good filtering can be performed.
[0015]
According to the second aspect, the noise component included in the image signal is removed by the filter unit. The brightness evaluation means evaluates the brightness component of the image signal, and the change means changes the effectiveness of the filter means based on the evaluation result of the brightness evaluation means. Thereby, the brightness component is reflected in the change of the filter characteristic.
[0016]
Preferably, the image signal is a signal in which each pixel has only color information of one of a plurality of colors. The color separation unit performs color separation on the image signal from which the noise component has been removed by the filter unit, and assigns color information of a plurality of colors to each pixel. By performing a filtering process on an image signal in which each pixel has only one color information, color noise is suppressed.
[0017]
【The invention's effect】
According to the first aspect, by changing the parameter value related to the effectiveness of the filter means so as to be in inverse proportion to the relative luminosity factor of a human, it is possible to maintain both the sense of resolution and the reduction of noise. Good filtering is realized.
[0018]
According to the second aspect, since the brightness component of the image signal is reflected in the change in the effectiveness of the filter means, good filtering can be performed.
[0019]
The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0020]
【Example】
Referring to FIG. 1, a digital camera 10 of this embodiment includes an optical lens 12 and an infrared cut filter 13. The optical image of the subject enters the light receiving surface of the image sensor 14 via these members. The light receiving surface is covered with a color filter 14a having a primary color Bayer array as shown in FIG. 2, and electric charges (pixel signals) generated by respective light receiving elements (pixels) formed on the light receiving surface are R, G, and B signals. It has only one color information.
[0021]
When the power is turned on, a through image display process is executed. First, the CPU 34 instructs a TG (Timing generator) 18 to repeat thinning-out reading. The TG 18 performs thinning-out reading on the image sensor 14 at a frame rate of 30 fps. As a result, a raw image signal having a reduced vertical resolution is output from the image sensor 14 in a raster scanning manner. However, even lines of the output low-resolution raw image signal include pixel signals having color information of R, G, R, G,..., And odd lines of G, B, G, B,. A pixel signal having color information is included.
[0022]
The CDS / AGC / AD circuit 16 performs a series of processes of noise removal, gain adjustment, and A / D conversion on the raw image signal of each frame output from the image sensor 14, and outputs raw image data as a digital signal. . The output raw image data is converted to YUV data by the signal processing circuit 20, and the converted YUV data is written to the SDRAM 24 by the memory controller 22.
[0023]
The video encoder 26 reads the YUV data of each frame from the SDRAM 24 through the memory controller 22, performs a reduced zoom on the read YUV data, and converts the zoomed YUV data into an NTSC composite video signal. The converted composite video signal is supplied to the LCD 28, and as a result, a real-time moving image of the subject, that is, a through image is displayed on the entire LCD 28.
[0024]
When the shutter button 32 is operated, a recording process is executed. First, the CPU 34 instructs the TG 18 to read all pixels. The TG 18 reads all pixels for one frame to the image sensor 14, and as a result, a high-resolution raw image signal is output from the image sensor 14 in a raster scanning manner. The even lines of the output raw image signal include pixel signals having color information of R, G, R, G,..., And the odd lines have pixels having color information of G, B, G, B,. Signal is included.
[0025]
The raw image signal read in response to the operation of the shutter button 32 is subjected to the same processing as described above by the CDS / AGC / AD circuit 16 and the signal processing circuit 20. High resolution YUV data is output from the signal processing circuit 20, and the YUV data is written to the SDRAM 24 via the memory controller 22. The high-resolution YUV data stored in the SDRAM 24 is then supplied to a video encoder 26 via a memory controller 22 and converted into a composite video signal in NTSC format through a reduced zoom. As a result, a still image of the subject at the time when the shutter button 32 is pressed, that is, a frozen image, is displayed on the LCD 28 in its entirety.
[0026]
When the shutter button 32 is operated, the CPU 34 gives a compression command to the JPEG codec 30. The JPEG codec 30 reads high-resolution YUV data from the SDRAM through the memory controller 22, performs JPEG compression on the read YUV data, and writes the compressed YUV data, that is, JPEG data, to the SDRAM 24 via the memory controller 22. The CPU 34 reads the JPEG data stored in the SDRAM 24 through the memory controller 22 and records the read JPEG data on the recording medium 38 through the I / F 36.
[0027]
Note that the recording medium 38 is detachable, and is connected to the I / F 36 at the time of mounting. JPEG data is recorded on the recording medium 38 in a file format.
[0028]
The signal processing circuit 20 is configured as shown in FIG. The raw image data is subjected to white balance adjustment by a white balance adjustment circuit 40, γ correction by a γ correction circuit 42, and color separation by a color separation circuit 44. Interpolated image data generated by color separation is data in which each pixel has all the R, G, and B color information. Thereafter, the interpolated image data output from the color separation circuit 44 is converted into YUV data by the YUV conversion circuit 46. The converted YUV data has a ratio of Y: U: V = 4: 2: 2.
[0029]
The Y data forming the YUV data is supplied to the blocking circuit 50 every three lines. That is, of the three lines of interest, the Y data of the first line is directly provided to the blocking circuit 50 as data L0, and the Y data of the second line is provided to the blocking circuit 50 as data L1 via the 1H delay line 48a. The Y data on the third line is supplied to the blocking circuit 50 as data L2 via the 1H delay lines 48a and 48b. Therefore, two lines overlap between the three lines simultaneously input to the blocking circuit 50 during one certain line period and the three lines simultaneously input to the blocking circuit 50 during the next one line period.
[0030]
The blocking circuit 50 extracts Y data of 3 horizontal pixels × 3 vertical pixels from the input Y data of 3 lines, and outputs the extracted 9 pixels of Y data at the same time as data D0 to D8. An overlap of 2 horizontal pixels × 3 vertical pixels occurs between the nine pixels output in one certain pixel period and the nine pixels output in the next one pixel period.
[0031]
Referring to FIG. 4, blocking circuit 50 includes six registers 50r-1 to 50r-6. Data L0 is delayed by one pixel period by registers 50r-1 and 50r-2, data L1 is delayed by one pixel period by registers 50r-3 and 50r-4, and data L3 is registered by registers 50r-5 and 50r-6. Is delayed by one pixel period. Therefore, data L0 of three consecutive pixels is output as data D0 to D2, data L1 of three consecutive pixels is output as data D3 to D5, and data L2 of three consecutive pixels is output as data D6 to D8. You.
[0032]
Of the data D0 to D9, the data D4 is the data of the pixel existing at the center of the extracted nine pixels. Therefore, the data D4 is defined as “target pixel data”, and the data D0 to D3 and D5 to D9 are defined as “peripheral pixel data”.
[0033]
The adaptive median filter 52 fetches the data D0 to D8 from the blocking circuit 50 and executes a filter process using an amount of data according to the tap coefficient T. More specifically, with reference to FIG. 7, if the tap coefficient T is “9”, data D0, D1, D3, D5, D6, D7, D8, and D4 for nine pixels are sorted in the order according to the data values. Then, the data arranged at the center is selected. If the tap coefficient T is "11", the data D0, D1, D3, D5, D6, D7, D8, D4, D4 and D4 for 11 pixels are sorted in the order according to the data values, and the data arranged at the center. Is selected. If the tap coefficient T is "13", the data D0, D1, D3, D5, D6, D7, D8, D4, D4, D4, D4 and D4 for 13 pixels are sorted in the order according to the data values, and The arranged data is selected. If the tap coefficient T is "15", the data D0, D1, D3, D5, D6, D7, D8, D4, D4, D4, D4, D4, D4, and D4 for 15 pixels are sorted in the order according to the data values. Then, the data arranged at the center is selected.
[0034]
As can be seen from FIG. 7, as the tap coefficient T increases, the ratio of the data D4 to all data increases, and the data D4 is more easily selected. In other words, of the numerical values “9”, “11”, “13”, and “15” that the tap coefficient T can take, the smaller the numerical value, the stronger the filter effect, and the larger the numerical value, the more the filter effect. become weak.
[0035]
If the tap coefficient T is “0”, no filtering is performed, and the data D4 is selected unconditionally.
[0036]
Referring to FIG. 5, adaptive median filter 52 includes one encoder 52e, seven selectors 52s-1 to 52s-7, and 79 comparators 52c-1 to 52c-79. .
[0037]
Of the data D0 to D8 output from the blocking circuit 50, the data D0 and D1 are provided to the upper input terminal and the lower input terminal of the comparator 52c-1, respectively, and the data D2 and D3 are provided to the comparator 52c-2. It is provided to the upper input terminal and the lower input terminal, respectively. Data D5 and D6 are provided to an upper input terminal and a lower input terminal of comparator 52c-3, respectively, and data D7 and D8 are provided to an upper input terminal and a lower input terminal of comparator 52c-4, respectively. Further, the data D4 is provided to the lower input terminal of the comparator 52c-17.
[0038]
Each of the comparators 52c-1 to 52c-79 compares the data input from the upper input terminal and the data input from the lower input terminal with each other, and outputs data having a larger numerical value from the upper output terminal. Data with a small numerical value is output from the lower output terminal. Since the connection relation of the comparators 52c-1 to 52c-79 is clear from FIG. 5, detailed description of the connection relation is omitted, but from the upper output terminal of the comparator 52c-24, the data D0 to D8 The data having the largest numerical value is output as data D_MAX.
[0039]
The encoder 52e outputs control data s0 to s6 having numerical values shown in FIG. 6 according to the input tap coefficient T. If the tap coefficient T is “9”, “1111110” is output as the control data s0 to s6, and if the tap coefficient T is “11”, “1111001” is output as the control data s0 to s6. If the tap coefficient T is “13”, “1100002” is output as the control data s0 to s6, and if the tap coefficient T is “15”, “000000003” is output as the control data s0 to s6. Further, if the tap coefficient T is “0”, “0000004” is output as the control data s0 to s6.
[0040]
The control data s0 to s5 are provided to selectors 52s-1 to 52s-6, respectively. Each of selectors 52s-1 to 52s-6 selects data D4 when the applied control data value indicates "0", and selects "0" when the applied control data value indicates "1". .
[0041]
The control data s6 is provided to the selector 52s-7. The selector 52s-7 selects the data D_M9 output from the lower output terminal of the comparator 52c-39 when the control data value indicates “0”, and selects the data D_M9 when the control data value indicates “1”. The data D_M11 output from the upper output terminal of 52c-55 is selected. The selector 52s-7 selects the data D_M13 output from the lower output terminal of the comparator 52c-64 when the control data value indicates “2”, and selects the data D_M13 when the control data value indicates “3”. The data D_M15 output from the upper output terminal of the detector 52c-79 is selected. The selector 52s-7 further selects the data D4 when the control data value indicates "4".
[0042]
Therefore, when the tap coefficient T indicates "9", the comparators 52c-1 to 52c-39 are enabled, and when the tap coefficient T indicates "11", the comparators 52c-1 to 52c-55 are enabled. Is done. When the tap coefficient T indicates "13", the comparators 52c-1 to 52c-64 are enabled, and when the tap coefficient T indicates "15", the comparators 52c-1 to 52c-79 are enabled. Is done. When the tap coefficient T indicates “0”, all of the comparators 52c-1 to 52c-79 are invalidated.
[0043]
The data selected by the selector 52s-7 is output from the adaptive median filter 52 as data D_MED. The data D_MAX output from the adaptive median filter 52 is output from the signal processing circuit 20 as Y data.
[0044]
Returning to FIG. 3, the U data and V data generated by the YUV conversion circuit 46 are output from the signal processing circuit 20 as they are, and sent to the saturation / hue calculation circuit 56 via the 1H delay lines 54a and 54b, respectively. Given. The saturation / hue calculation circuit 56 calculates the saturation C according to Equation 1, and calculates the hue H according to Equation 2.
[0045]
(Equation 1)
C = (U2+ V2)1/2
[0046]
(Equation 2)
H = arctan (U / V)
The area determination / coefficient determination circuit 58 determines which of the zones Zuv0 to Zuv5 shown in FIG. 9 the calculated chroma C and hue H belong to. Specifically, the saturation C is compared with a threshold value THC, and the hue H is compared with each of the threshold values THH1 to THH4 to determine a zone to which the saturation C and the hue H belong.
[0047]
Achromatic colors are distributed in the zone Zuv0, and blue is distributed in the zones Zuv1 and Zuv5. Red is distributed in zone Zuv2, yellow is distributed in zone Zuv3, and green is distributed in zone Zuv4. The reason for forming the zone Zuv3 corresponding to yellow in addition to the three primary colors red, green and blue is that this zone Zuv3 contains a flesh color and performs special processing on the flesh color.
[0048]
For example, when zone Zuv0 is determined, region determination / coefficient determination circuit 58 determines numerical values TH0Z0 to TH3Z0 as thresholds THL0 to THL3, as shown in FIG. The area discrimination / coefficient determination circuit 58 then compares the data D_MAX output from the adaptive median filter 52 with each of the threshold values THL0 to THL3, and sets the tap coefficient T to “9”, “11”, “ 13 "," 15 "and" 0 ". The adaptive median filter 52 is provided with the tap coefficient T thus determined.
[0049]
The area determination / coefficient determination circuit 58 is configured as shown in FIG. Hue H is compared with thresholds THH1 to THH4 in comparators 58c-1 to 58c-4, and saturation C is compared with threshold THC in comparator 58c-5. The comparison data cph1 output from the comparator 58c-1 indicates “1” when H> THH1, and indicates “0” when H ≦ THH1. The comparison data cph2 output from the comparator 58c-2 indicates “1” when H> THH2, and indicates “0” when H ≦ THH2. The comparison data cph3 output from the comparator 58c-3 indicates “1” when H> THH3, and indicates “0” when H ≦ THH3. The comparison data cph4 output from the comparator 58c-4 indicates “1” when H> THH4, and indicates “0” when H ≦ THH4. The comparison data cpc output from the comparator 58c-5 indicates “1” when C> THC, and indicates “0” when C ≦ THC.
[0050]
The first decoder 58d-1 generates the zone discrimination data ZUV based on the comparison data cph1 to cph4 and cpc. At this time, the relationship shown in FIG. 11 is established between the comparison data cph1 to cph4 and cpc and the zone determination data. In FIG. 11, "X" indicates that the data value may be either "0" or "1". Numerical values “0” to “5” that can be taken by the zone determination data ZUV respectively correspond to the zones Zuv0 to Zuv5 shown in FIG.
[0051]
According to FIG. 11, if the comparison data cpc is “0”, the zone determination data ZUV indicates “0”. If each of the comparison data cph1 to cph4 is “0” and the comparison data cpc is “1”, the zone determination data ZUV indicates “1”. If each of the comparison data cph1 and cpc is “1” and each of the comparison data cph2 to cph4 is “0”, the zone determination data ZUV indicates “2”. If each of the comparison data cph1, cph2 and cpc is “1” and the comparison data cph3 and cph4 are “0”, the zone discrimination data ZUV indicates “3”. If each of the comparison data cph1 to cph3 and cpc is “1” and the comparison data cph4 is “0”, the zone discrimination data ZUV indicates “4”. If all of the comparison data cph1 to cph4 and cpcl are “1”, the zone determination data ZUV indicates “5”.
[0052]
The selectors 58s-1, 58s-2, 58s-3 and 58s-4 select the threshold values TH0Z0, TH1Z0, TH2Z0 and TH3Z0 when ZUV = 0, and select the threshold values TH0Z1, TH1Z1, TH2Z1 and TH3Z1 when ZUV = 1. select. When ZUV = 2, thresholds TH0Z2, TH1Z2, TH2Z2 and TH3Z2 are selected, and when ZUV = 3, thresholds TH0Z3, TH1Z3, TH2Z3 and TH3Z3 are selected. Further, when ZUV = 4, the threshold values TH0Z4, TH1Z4, TH2Z4 and TH3Z4 are selected, and when ZUV = 5, the threshold values TH0Z5, TH1Z5, TH2Z5 and TH3Z5 are selected.
[0053]
Here, the threshold values TH * Z1 to TH * Z5 (*: 0 to 3) respectively corresponding to the zones Zuv1 to Zuv5 have a correlation with the curve A indicating the standard relative visibility shown in FIG. More specifically, the curves B0 to B3 are curves that are inversely proportional to the curve A. Thresholds TH0Z1 to TH0Z5 are distributed along curve B0, thresholds TH1Z1 to TH1Z5 are distributed along curve B1, thresholds TH2Z1 to TH2Z5 are distributed along curve B2, and thresholds TH3Z1 to TH3Z5 are along curve B3. Distribute. Note that the standard relative luminosity curve is a curve indicating that human vision is sensitive to yellow or green light, but insensitive to red or blue light.
[0054]
Returning to FIG. 8, the threshold value selected by the selector 58s-1 is provided to the comparator 58c-6 as the threshold value THL0, and the threshold value selected by the selector 58s-2 is provided to the comparator 58c-7 as the threshold value THL1. The threshold value selected by the selector 58s-3 is provided to the comparator 58c-8 as the threshold value THL2, and the threshold value selected by the selector 58s-4 is provided to the comparator 58c-9 as the threshold value THL3.
[0055]
The comparators 58c-6 to 58c-9 compare the threshold values THL0 to THL3 provided from the selectors 58s-1 to 58s-4 with the data D_MAX output from the adaptive median filter 70, respectively. The comparison data cpl0 output from the comparator 58c-6 indicates “1” when D_MAX> THL0, and indicates “0” when D_MAX ≦ THL0. The comparison data cpl1 output from the comparator 58c-7 indicates “1” when D_MAX> THL1, and indicates “0” when D_MAX ≦ THL1. The comparison data cpl2 output from the comparator 58c-8 indicates “1” when D_MAX> THL2, and indicates “0” when D_MAX ≦ THL2. The comparison data cpl3 output from the comparator 58c-9 indicates “1” when D_MAX> THL3, and indicates “0” when D_MAX ≦ THL3.
[0056]
The second decoder 58d-2 generates a tap coefficient T based on the comparison data cpl0 to cpl3. At this time, the relationship shown in FIG. 12 is established between the comparison data cpl0 to cpl3 and the tap coefficient T.
[0057]
According to FIG. 12, if all of the comparison data cpl0 to cpl3 are “0”, the tap coefficient T indicates “9”. If the comparison data cpl0 is “1” and the comparison data cpl1 to cpl3 are “0”, the tap coefficient T indicates “11”. If the comparison data cpl0 and cpl1 are “1” and the comparison data cpl2 and cpl3 are “0”, the tap coefficient T indicates “13”. If the comparison data cpl0 to cpl2 are “1” and the comparison data cpl3 is “0”, the tap coefficient T indicates “15”. If all of the comparison data cpl0 to cpl3 are “1”, the tap coefficient T indicates “0”.
[0058]
Therefore, as the data D_MAX is larger, the tap coefficient T indicates a larger value among “9”, “11”, “13”, and “15”, and as the data D_MAX is smaller, the tap coefficient T is “9”, “”. It shows a small value among "11", "13", and "15". Therefore, the larger the data D_MAX is, the weaker the filter is, and the easier it is to select the data D4. Conversely, the smaller the data D_MAX is, the stronger the effect of the filter is, and the more difficult it is to select the data D4.
[0059]
As can be understood from the above description, the noise component of the Y data output from the YUV conversion circuit 46 shown in FIG. 3 is removed by the adaptive median filter 52. The saturation / hue operation circuit 56 calculates the saturation C and the hue H based on the U data and the V data output from the YUV conversion circuit 46. The calculated saturation C is compared with the threshold value THC by the comparator 58c-5 shown in FIG. 8, and the hue H is compared with the threshold values THH1 to THH4 by the comparators 58c-1 to 58c-4 shown in FIG. The first decoder 58d-1 outputs the zone determination data ZUV based on the comparison data cpc output from the comparator 58c-5 and the comparison data cph1 to cph4 output from the comparators 58c-1 to 58c-4. . Thereby, the color evaluation result of the target pixel is obtained.
[0060]
The selectors 58s-1 to 58s-4 output thresholds THL0 to THL3 having numerical values corresponding to the zone determination data ZUV. Data D_MAX, which is Y data related to the target pixel, is compared with thresholds THL0 to THL3 by comparators 58c-6 to 58c-9. As a result, a brightness evaluation result related to the pixel of interest is obtained. The second decoder 58d-2 determines the tap coefficient T based on the comparison data cpl0 to cpl3 output from the comparators 58c-6 to 58c-9.
[0061]
The threshold values THL0 to THL3 indicate numerical values that are inversely proportional to human relative luminous efficiency characteristics, and the effectiveness of the filter is changed so as to be inversely proportional to the relative luminous efficiency characteristics. Further, the tap coefficient T becomes smaller as the data D_MAX becomes lower, and thus the effect of the filter becomes stronger as the image has lower luminance.
[0062]
Human vision is sensitive to yellow and green light, but insensitive to red and blue light. This means that if the filter characteristics for the yellow and green signal components are strengthened, the resolution will decrease, and that even if the filter characteristics for the red and blue signal components are strengthened, the resolution will not decrease. Therefore, in this embodiment, the characteristics of the adaptive median filter 52 are changed so as to be inversely proportional to the relative luminosity factor of a human. As a result, the filter characteristics are weakened in yellow or green, where human vision is sensitive, and a reduction in resolution is prevented. Further, in red and blue colors in which human vision is insensitive, filter characteristics are strengthened and noise is removed. In this way, the maintenance of a sense of resolution and the reduction of noise are compatible with each other, and good filter processing can be performed.
[0063]
Further, the γ correction circuit 42 shown in FIG. 3 performs γ correction on the raw image data before the YUV conversion of the YUV conversion circuit 46. In the γ correction, the amplification degree of the low luminance component is larger than the amplification degree of the high luminance component. This means that noise superimposed on the low-luminance signal component is conspicuous. Therefore, in this embodiment, the lower the luminance is, the stronger the effect of the filter is. This makes it possible to make noise superimposed on the low-luminance portion inconspicuous. Since maintaining the sense of resolution is not important in the low luminance portion, both noise reduction and maintaining the sense of resolution are compatible here.
[0064]
The digital camera 10 of the other embodiment is the same as the embodiment of FIG. 1 except that the signal processing circuit 20 is configured as shown in FIG. For this reason, different points will be mainly described, and redundant description of similar portions will be omitted.
[0065]
Referring to FIG. 14, raw image data is provided to RB blocking circuit 64 and G blocking circuit 66 every five lines. That is, of the five lines of interest, the raw image data of the first line is directly supplied to the RB blocking circuit 64 and the G blocking circuit 66, and the raw image data of the second line is supplied to the RB block via the 1H delay line 62a. The raw image data of the third line is supplied to the RB blocking circuit 64 and the G blocking circuit 66 via the 1H delay lines 62a and 62b. The raw image data of the fourth line is provided to the RB blocking circuit 64 and the G blocking circuit 66 via the 1H delay lines 62a to 62c, and the raw image data of the fifth line is provided via the 1H delay lines 62a to 62d. RB blocking circuit 64 and G blocking circuit 66.
[0066]
Therefore, five lines of raw image data provided to the RB blocking circuit 64 and the G blocking circuit 66 during a certain one line period, and to the RB blocking circuit 64 and the G blocking circuit 66 during the next one line period. Four lines overlap with the raw image data for five lines.
[0067]
When the matrix of 5 horizontal pixels × 5 vertical pixels forms the pattern shown in FIG. 15A, the RB blocking circuit 64 extracts nine pixel data having R color information as data D0 to D8. I do. When the matrix of 5 horizontal pixels × 5 vertical pixels of interest forms the pattern shown in FIG. 15B, the RB blocking circuit 64 converts pixel data of 9 pixels having B color information as data D0 to D8. Extract. On the other hand, when the matrix of 5 horizontal pixels × 5 vertical pixels of interest forms the pattern shown in FIG. 15C, the G blocking circuit 66 converts pixel data of 9 pixels having G color information into data D0 to D8. Extract as
[0068]
Also in this embodiment, the data D4 is data of a pixel existing at the center of the extracted nine pixels. Therefore, the data D4 is defined as “target pixel data”, and the data D0 to D3 and D5 to D9 are defined as “peripheral pixel data”.
[0069]
The selector 68 selects the RB blocking circuit 64 when the pattern shown in FIG. 15A or 15B is formed, and selects the G blocking circuit 66 when the pattern shown in FIG. Select Therefore, pixel data of 9 pixels having only R color information, 9 pixel data having only G color information, or 9 pixel data having only B color information are input to the adaptive median filter 70. You.
[0070]
The adaptive median filter 70 has the same configuration as the adaptive median filter 52 shown in FIG. 3, and data having the largest numerical value among the input data D0 to D8 is input to the brightness determination circuit 72 as data D_MAX. . The brightness determination circuit 72 compares the value of the input data D_MAX with each of the thresholds TH1 to TH4 (TH1 <TH2 <TH3 <TH4), and inputs a tap coefficient T according to the comparison result to the adaptive median filter 70. I do.
[0071]
Referring to FIG. 16, if D_MAX <TH1, tap coefficient T input to adaptive median filter 70 indicates “9”. If TH1 ≦ D_MAX <TH2, the tap coefficient T input to the adaptive median filter 70 indicates “11”. If TH2 ≦ D_MAX <TH3, the tap coefficient T input to the adaptive median filter 70 indicates “13”. If TH3 ≦ D_MAX <TH4, the tap coefficient T input to the adaptive median filter 70 indicates “15”. If TH4 ≦ D_MAX, the tap coefficient T input to the adaptive median filter 70 indicates “0”.
[0072]
Therefore, as the data D_MAX is larger, the tap coefficient T indicates a larger value among “9”, “11”, “13”, and “15”, and as the data D_MAX is smaller, the tap coefficient T is “9”, “”. It shows a small value among "11", "13", and "15". Therefore, the larger the data D_MAX is, the weaker the filter is, and the easier it is to select the data D4. Conversely, the smaller the data D_MAX is, the stronger the effect of the filter is, and the more difficult it is to select the data D4.
[0073]
The raw image data output from the adaptive median filter 70 is supplied to a color separation circuit 78 via a white balance adjustment circuit 74 and a gamma correction circuit 76, and each pixel has an interpolation having all the R, G, and B color information. Converted to image data. The converted interpolated image data is then output via the YUV conversion circuit 80.
[0074]
As can be understood from the above description, the noise component included in the raw image data is removed by the adaptive median filter 70. The brightness / discrimination circuit 72 evaluates the brightness of the image based on the data D_MAX related to the target pixel, and changes the tap coefficient T based on the evaluation result. As a result, the brightness of the image is reflected in the change in the filter characteristics of the adaptive median filter 70. The raw image data is data in which each pixel has only R, G, or G color information. By performing filter processing on such image data, color noise is suppressed. Thereby, good filter processing is realized.
[0075]
In this embodiment, an improved type of the median filter is used, but another filter such as a Gaussian filter may be used as long as the characteristics of the filter can be changed. In this embodiment, a digital camera has been described, but the present invention can also be applied to an image signal processing device such as a television receiver or a video recorder. Further, in this embodiment, the data having the largest numerical value among the data D0 to D8 is given as the data D_MAX, and the data D_MAX is given to the comparators 58c-6 to 58c-9 shown in FIG. Alternatively, data D4 may be provided to comparators 58c-6 to 58c-9. In this case, the brightness of the target pixel is always evaluated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing one embodiment of the present invention.
FIG. 2 is an illustrative view showing one example of a configuration of a color filter applied to the embodiment in FIG. 1;
FIG. 3 is a block diagram illustrating an example of a configuration of a signal processing circuit applied to the embodiment in FIG. 1;
FIG. 4 is a block diagram illustrating an example of a configuration of a blocking circuit applied to the embodiment in FIG. 3;
FIG. 5 is a block diagram showing an example of a configuration of an adaptive median filter applied to the embodiment in FIG. 3;
FIG. 6 is an illustrative view showing one portion of an operation of the adaptive median filter shown in FIG. 5;
FIG. 7 is an illustrative view showing another portion of the operation of the adaptive median filter shown in FIG. 5;
FIG. 8 is a block diagram illustrating an example of a configuration of a region determination / coefficient determination circuit applied to the embodiment in FIG. 3;
FIG. 9 is an illustrative view showing one portion of an operation of the area determining / coefficient determining circuit shown in FIG. 8;
FIG. 10 is an illustrative view showing another portion of the operation of the area determining / coefficient determining circuit shown in FIG. 8;
FIG. 11 is an illustrative view showing another portion of the operation of the area determination / coefficient determination circuit shown in FIG. 8;
FIG. 12 is an illustrative view showing yet another portion of the operation of the area determination / coefficient determination circuit shown in FIG. 8;
FIG. 13 is a block diagram showing an example of a configuration of a signal processing circuit applied to another embodiment of the present invention.
FIG. 14 is a graph showing a standard relative luminosity curve.
FIG. 15 is an illustrative view showing one portion of an operation of the embodiment in FIG. 13;
FIG. 16 is an illustrative view showing another portion of the operation of the embodiment in FIG. 13;
[Explanation of symbols]
10. Digital camera
20 ... Signal processing circuit
42, 76 ... γ correction circuit
46, 80 ... YUV conversion circuit
52, 70 ... Adaptive median filter
56: Saturation / hue calculation circuit
58: Area discrimination / coefficient determination circuit

Claims (9)

画像信号からノイズ成分を除去するフィルタ手段、
前記画像信号の色成分を評価する色評価手段、および
前記フィルタ手段の効き具合に関連するパラメータ値を前記色評価手段の評価結果に基づいて人間の比視感度に反比例するように変更する変更手段を備える、画像信号処理装置。
Filter means for removing noise components from the image signal,
Color evaluation means for evaluating a color component of the image signal, and changing means for changing a parameter value related to the effectiveness of the filter means so as to be inversely proportional to human relative luminous efficiency based on the evaluation result of the color evaluation means An image signal processing device comprising:
前記色評価手段は、前記画像信号の彩度を検出する彩度検出手段、および前記画像信号の色相を検出する色相検出手段を含む、請求項1記載の画像信号処理装置。2. The image signal processing device according to claim 1, wherein the color evaluation unit includes a saturation detection unit that detects a saturation of the image signal, and a hue detection unit that detects a hue of the image signal. 前記画像信号の明るさ成分を評価する明るさ評価手段、および
前記明るさ評価手段の評価結果に基づいて前記フィルタ手段の効き具合を決定する決定手段をさらに備え、
前記パラメータ値は前記明るさ評価手段の評価に用いる基準値である、請求項1または2記載の画像信号処理装置。
Brightness evaluation means for evaluating a brightness component of the image signal, and a determination means for determining the effectiveness of the filter means based on the evaluation result of the brightness evaluation means,
The image signal processing device according to claim 1, wherein the parameter value is a reference value used for evaluation by the brightness evaluation unit.
前記決定手段は前記画像信号の明るさ成分が少ないほど前記フィルタ手段の効き具合を強くする、請求項3記載の画像信号処理装置。4. The image signal processing apparatus according to claim 3, wherein the determining unit increases the effectiveness of the filter unit as the brightness component of the image signal decreases. 前記画像信号にγ補正を施すγ補正手段をさらに備える、請求項4記載の画像信号処理装置。5. The image signal processing device according to claim 4, further comprising a gamma correction unit that performs gamma correction on the image signal. 被写体を撮影する撮影手段をさらに備え、
前記画像信号は前記撮影手段から出力された信号である、請求項1ないし5のいずれかに記載の画像信号処理装置。
It further comprises a photographing means for photographing the subject,
The image signal processing device according to claim 1, wherein the image signal is a signal output from the photographing unit.
画像信号からノイズ成分を除去するフィルタ手段、
前記画像信号の明るさ成分を評価する明るさ評価手段、および
前記明るさ評価手段の評価結果に基づいて前記フィルタ手段の効き具合を変更する変更手段を備える、画像信号処理装置。
Filter means for removing noise components from the image signal,
An image signal processing apparatus, comprising: a brightness evaluation unit that evaluates a brightness component of the image signal; and a change unit that changes the effectiveness of the filter unit based on an evaluation result of the brightness evaluation unit.
前記画像信号は各画素が複数色のうち1色の色情報のみを有する信号であり、前記フィルタ手段によってノイズ成分が除去された画像信号に色分離を施して各画素に前記複数色の色情報を割り当てる色分離手段をさらに備える、請求項7記載の画像信号処理装置。The image signal is a signal in which each pixel has only color information of one of a plurality of colors. The image signal from which a noise component has been removed by the filter means is subjected to color separation, and the color information of the plurality of colors is applied to each pixel. The image signal processing apparatus according to claim 7, further comprising a color separation unit that assigns a color. 前記複数色はR,GおよびBである、請求項7または8記載の画像信号処理装置。9. The image signal processing device according to claim 7, wherein the plurality of colors are R, G, and B.
JP2002315158A 2002-10-30 2002-10-30 Image signal processing device Expired - Fee Related JP4115244B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002315158A JP4115244B2 (en) 2002-10-30 2002-10-30 Image signal processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002315158A JP4115244B2 (en) 2002-10-30 2002-10-30 Image signal processing device

Publications (2)

Publication Number Publication Date
JP2004151907A true JP2004151907A (en) 2004-05-27
JP4115244B2 JP4115244B2 (en) 2008-07-09

Family

ID=32459243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002315158A Expired - Fee Related JP4115244B2 (en) 2002-10-30 2002-10-30 Image signal processing device

Country Status (1)

Country Link
JP (1) JP4115244B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2228992A1 (en) 2009-03-11 2010-09-15 Sony Corporation Image processing apparatus, image processing method, and computer program
US8036457B2 (en) 2006-10-30 2011-10-11 Sony Corporation Image processing apparatus with noise reduction capabilities and a method for removing noise from a captured image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8036457B2 (en) 2006-10-30 2011-10-11 Sony Corporation Image processing apparatus with noise reduction capabilities and a method for removing noise from a captured image
EP2228992A1 (en) 2009-03-11 2010-09-15 Sony Corporation Image processing apparatus, image processing method, and computer program
JP2010213086A (en) * 2009-03-11 2010-09-24 Sony Corp Image processing apparatus, image processing method, and computer program
US8441543B2 (en) 2009-03-11 2013-05-14 Sony Corporation Image processing apparatus, image processing method, and computer program

Also Published As

Publication number Publication date
JP4115244B2 (en) 2008-07-09

Similar Documents

Publication Publication Date Title
US8363123B2 (en) Image pickup apparatus, color noise reduction method, and color noise reduction program
JP4466569B2 (en) Color image playback device
KR100786931B1 (en) Image signal processing apparatus and image signal processing method
KR101320533B1 (en) Imaging device
US9426437B2 (en) Image processor performing noise reduction processing, imaging apparatus equipped with the same, and image processing method for performing noise reduction processing
JP2009124552A (en) Noise reduction system, noise reduction program and imaging system
US9936172B2 (en) Signal processing device, signal processing method, and signal processing program for performing color reproduction of an image
KR100986203B1 (en) Imaging apparatus and defective pixel correction method used therefor
JP5529424B2 (en) Image processing apparatus, image processing method, and computer program
JP2010211773A (en) Image process apparatus, image process method and computer program
JP2004200357A (en) Color imaging element, color filter array, and color imaging device
JP2003283873A (en) Contour enhancement circuit
JP4043197B2 (en) Single plate color camera color separation circuit
JP4280462B2 (en) Signal processing apparatus and method
JP4115244B2 (en) Image signal processing device
US20060066735A1 (en) Image capture apparatus
JP2007266956A (en) Imaging apparatus, impulse component detecting circuit, impulse component removing circuit, impulse component detecting method, impulse component removing method, and computer program
JP4245373B2 (en) Pixel signal processing circuit
JP2002204388A (en) Apparatus for automatic exposure control, method therefor and recording medium
JP4180007B2 (en) Image signal processing circuit
JP2012100215A (en) Image processing device, imaging device, and image processing program
JP3962518B2 (en) Image signal processing device
JP3115123B2 (en) Image signal processing device
JP2002209224A (en) Image processing unit, image processing method and recording medium
JP3089423B2 (en) Signal processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120425

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130425

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140425

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140425

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees