JP4599705B2 - Image processing apparatus and method, and program recording medium - Google Patents

Image processing apparatus and method, and program recording medium Download PDF

Info

Publication number
JP4599705B2
JP4599705B2 JP2000344494A JP2000344494A JP4599705B2 JP 4599705 B2 JP4599705 B2 JP 4599705B2 JP 2000344494 A JP2000344494 A JP 2000344494A JP 2000344494 A JP2000344494 A JP 2000344494A JP 4599705 B2 JP4599705 B2 JP 4599705B2
Authority
JP
Japan
Prior art keywords
color
color signal
pixel
signal
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000344494A
Other languages
Japanese (ja)
Other versions
JP2002150282A (en
Inventor
康昭 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000344494A priority Critical patent/JP4599705B2/en
Publication of JP2002150282A publication Critical patent/JP2002150282A/en
Application granted granted Critical
Publication of JP4599705B2 publication Critical patent/JP4599705B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理をする画像処理装置及びその方法、並びに画像処理のためのプログラムが記録されているプログラム記録媒体に関し、詳しくは、カラー画像において各色に発生するノイズの除去のためのものであって、そのノイズが各色でランダムで発生している場合に好適な画像処理装置及びその方法、並びにプログラム記憶媒体に関する。
【0002】
【従来の技術】
画像処理技術の一つとして画像のノイズを除去する技術がある。ノイズ除去の技術としては、空間方向にフィルターをかけて、画像をぼかしてノイズを除去したり、時間方向のデータを利用して、静止部分の足し合わせることによりノイズ除去する手法が提案されている。
【0003】
【発明が解決しようとする課題】
ところで、空間方向にフィルターをかけて、画像をぼかすことによりノイズを除去する手法については、ノイズは目立たなくなるが、画像はぼけてしまうといった問題が生じてしまう。
【0004】
また、時間方向のデータを利用して、静止部分の足し合わせによってノイズを除去する手法については、静止画を撮る場合、時間方向にデータを保持するためのメモリが必要になってくる。さらに、動物体の画像についてノイズ除去を行う場合には、足し合わせるための部分を探すための動き検出処理等の複雑な処理が必要になってくる。
【0005】
そこで、本発明は、上述の実情に鑑みてなされたものであり、複雑な処理等を要することなく、適切に画像のノイズ除去を行うことができる画像処理装置及びその方法並びにプログラム記録媒体を提供することを目的としている。
【0006】
【課題を解決するための手段】
本発明に係る画像処理装置は、上述の課題を解決するために、複数の色信号によって画素が構成されている画像の処理をする画像処理装置であって、入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化手段と、上記ブロック化手段から出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成手段と、上記一の色信号と上記色生成手段が生成した疑似色信号とを合成して一の色信号を新たに生成する色合成手段とを備え、上記注目画素の一の色信号の値をA とし、上記注目画素の他の色信号の値をA とし、上記画素ブロック内の全画素についての一の色信号の最小値をA minとし、一の色信号の最大値と上記最小値A minとの差分をDR とし、上記画素ブロック内の全画素についての他の色信号の最小値をA minとし、他の色信号の最大値と上記最小値A minとの差分をDR とするとき、上記色生成手段は、上記疑似色信号の値A 12
12 =(A −A min)×DR /DR +A min
として生成する。
【0007】
このような構成を備える画像処理装置は、一の色信号について、当該一の色信号の同画素位置近傍の他の色信号から疑似色信号を色生成手段により生成し、一の色信号と色生成手段が生成した疑似色信号とを合成して一の色信号を色合成手段により新たに生成する。これにより、画像処理装置は、各色信号間に独立して発生するノイズ成分を除去する。
【0008】
また、本発明に係る画像処理方法は、上述の課題を解決するために、複数の色信号によって画素が構成されている画像の処理をする画像処理方法であって、入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化工程と、上記ブロック化工程により出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成工程と、上記一の色信号と上記色生成工程にて生成した疑似色信号とを合成して一の色信号を新たに生成する色合成工程とを有し、上記注目画素の一の色信号の値をA とし、上記注目画素の他の色信号の値をA とし、上記画素ブロック内の全画素についての一の色信号の最小値をA minとし、一の色信号の最大値と上記最小値A minとの差分をDR とし、上記画素ブロック内の全画素についての他の色信号の最小値をA minとし、他の色信号の最大値と上記最小値A minとの差分をDR とするとき、上記色生成工程では、上記疑似色信号の値A 12
12 =(A −A min)×DR /DR +A min
として生成する。これにより、画像処理方法は、各色信号間に独立して発生するノイズ成分を除去する。
【0009】
また、本発明に係るプログラム記録媒体は、複数の色信号によって画素が構成されている画像の処理をする画像処理装置を実行させるプログラムが記録されたプログラム記録媒体であって、上記画像処理装置に、入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化工程と、上記ブロック化工程により出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成工程と、上記一の色信号と上記色生成工程にて生成した疑似色信号とを合成して一の色信号を新たに生成する色合成工程と実行させ、上記注目画素の一の色信号の値をA とし、上記注目画素の他の色信号の値をA とし、上記画素ブロック内の全画素についての一の色信号の最小値をA minとし、一の色信号の最大値と上記最小値A minとの差分をDR とし、上記画素ブロック内の全画素についての他の色信号の最小値をA minとし、他の色信号の最大値と上記最小値A minとの差分をDR とするとき、上記色生成工程では、上記疑似色信号の値A 12
12 =(A −A min)×DR /DR +A min
として生成させるプログラムが記録されている。このようなプログラム記録媒体に記録されているプログラムにより画像処理を実行する画像処理装置は、各色信号間に独立して発生するノイズ成分を除去する。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて詳細に説明する。この実施の形態は、本発明を、画像を処理する画像処理装置に適用したものである。画像処理装置については、第1及び第2の実施の形態を挙げて説明する。
【0011】
先ず、本発明が適用された画像処理装置を説明する前に、画像処理の原理について説明する。画像処理の原理については、以下のようになる。
【0012】
画像処理は、前提としてカラー画像について行うことを前提としている。具体的には、RGBの色信号によって画素が構成されている画像についての画像処理である。
【0013】
そして、画像処理では、そのようなカラー画像の色信号間の相関を利用して、先ず色変換を行っている。さらに、画像処理では、その色変換により得た色信号を本来の色に加えることで、ノイズの除去或いは低減(以下、単に除去という。)を実現している。ここで、カラー画像の各色信号において発生するノイズは、それぞれ相関のないランダムなノイズであることが前提とされている。以下、ノイズ除去のために行う色変換及び色の加算等の処理について、その原理を説明する。
【0014】
先ず、色変換について説明する。以下、例として、R(赤色)を変換して、R(赤色)からG(緑色)を生成する場合について説明する。
【0015】
ここで、画像中の所定の画素ブロックについて先ず考える。例えば、所定の画素ブロックは、図1中(A)又は(B)に示すように、画像中における3×3の画素ブロックであるとする。そして、このような3×3(3行3列)の画素ブロック内の各画素は、それぞれが色信号として把握されるものであり、すなわち、各画素は、図2中(A)に示すように、Rの色信号については、R〜R(R:i=0〜8の整数)の値をもっており、また、Gの色信号については、図2中(B)に示すように、G〜G(G:i=0〜8の整数)の値をもっており、また、図2中(C)に示すように、Bの色信号については、B〜B(B:i=0〜8の整数)の値をもっている。
【0016】
ここで、そのような画素ブロック内における各色信号の変化について考えてみる。例えば、画素ブロック内における値の最小値をMINとおき、そのダイナミックレンジDRを最大値−MINとおいて、(1)式によりRの変換後のrの得て、また、(2)式によりGの変換後のgの値を得て、また、(3)式によりBの変換後のbの値を得る。
【0017】
=(R−MINR)/DRR ・・・(1)
=(G−MING)/DRG ・・・(2)
=(B−MINB)/DRB ・・・(3)
ここで、MINR、MING及びMINBは、画素ブロック内の画素のR、G、Bの色信号それぞれの最小値であり、DRR、DRG及びDRBは、そのような画素ブロック内の画素のR、G及びBの色信号についての最小値と最大値との差分として示されるダイナミックレンジDRの値である。なお、ダイナミックレンジDRが0の場合には、もともとの変化がないので、r,g及びbは0とする。
【0018】
このように、(1)式により画素ブロック内の各画素のRの色信号について変換後のr〜rを得ることができ、また、(2)式により画素ブロック内の各画素のGの色信号について変換後のg〜gを得ることができ、また、(3)式により画素ブロック内の各画素のBの色信号について変換後のb〜bを得ることができるが、r〜rの変化、g〜gの変化及びb〜bの変化とは、相関は高く、略同じ値になる。
【0019】
このように相関が高いことを利用すれば、(4)式により、一の色信号について、他の色信号から疑似色信号を得ることができる。ここで、(4)式は、例として、G(一の色信号)について、R(他の色信号)に基づいて新たな値G(疑似色信号)が生成される場合としている。
【0020】
=(R−MINR)×DRG/DRR+MING ・・・(4)
この(4)式により算出された値Gは、上述したようなRの画素ブロック内の中心画素を注目画素としたGの色信号への変換後の値であって、同一位置の画素のRに基づいて、それに対応される変換後の値とされる。
【0021】
また、上述の(4)式におけるMINRの替わりに、R以外の値であるR,R,R,R,R,R,R,Rを用いることもできる。この場合、値Gとして8候補を得ることができるので、それらの平均を、生成した値Gとすることもできる。さらに、このような場合には、そのようにして求めた候補のうち、0≦G≦255(画素のデータが8bitで表される場合)以外のものを除いた平均値を求めることもできる。
【0022】
以上のように、Rを変換して、Gを生成することができる。そして、説明は省略するが、同様に、Bを変換することにより、疑似色信号としてのGを生成する、すなわち値Gを生成することもできる。
【0023】
次に、色の加算処理について説明する。この色の加算処理では、上述のようにして得た値G,Gを、もとのGの色信号に加算しており、これにより、ノイズ成分が除去されたものになる。色の加算処理の原理は次のようになる。
【0024】
先ず、ここで、RGBについて3板のCCD(Charge Coupled Device)により撮像されることを前提とする。3板のCCDで撮像した場合には、3板それぞれで得られたRGBの各色信号に発生するノイズ成分にはその色間において相関はない。このような前提の下では、上述のようにして求められるR及びBに基づいて得た値G及びGをもとのGの値に加えることにより、ノイズ成分が除去されたものとなる。具体的には、(5)式により、値G’を得ることで、その値G’はノイズ成分が除去された色信号になる。
【0025】
G’=w×G+w×G+w×G ・・・(5)
ここで、w(j=1,2,3)は、各重み係数であり、次の(1)〜(3)に示すいずれかの手法により最適値として決定することができる。
(1)3画素平均とし、重み係数wを1/3にする。
(2)RGBそれぞれについてのホワイトバランス等の調整時のゲイン量に応じて重み係数wを変化させる。すなわち、重み係数wをゲイン量の関数として決定する。例えば、重み係数wをRGBのゲイン量の関数とした場合は、上述の(5)式を次の(6)式のように示すことができる。
【0026】
G’=w(ΔG)×G+w(ΔR)×G+w(ΔB)×G ・・・(6)
(3)クラス分類により重み係数wを決定する。この場合、rとgの差やDRRとDRGとの差等の画像ブロックを単位とした特徴量に基づいてクラス分類をして、すなわち画像ブロックのパターン分けをして、予測式を上述の(5)式として、クラス分類を行う。そして、そのようなクラス分類に対応される重み係数wを学習により決定する。具体的には、学習では、重み係数wを最小自乗法により求める。これについてはクラス分類適用処理として後で詳述する。
【0027】
以上のように、(5)式或いは(6)式に示すように、もとの一の色信号とされるGに他の色信号を変換して得た当該Gの色信号の疑似信号のG,Gを加算することで、ノイズ成分を除去することができるようになる。
【0028】
また、上述の説明では、Gの色信号のノイズ成分を除去する場合について、その色の変換の処理と、色の加算の処理について説明した。R,Bの色信号についても、同様にして、他の色信号を変換して得た色信号を加算することにより、ノイズ成分を除去することができる。すなわち、一の色信号とされるR或いはGの色信号について、他の色信号を変換してR或いはGを生成して、それらの元のR或いはGの色信号に、重み係数を掛け合わせる。これにより、上述した値G’の色信号と同様に、ノイズ成分が除去されたR或いはGを得ることができるようになる。
【0029】
以上、本発明を適用した画像処理の原理について説明した。次に、上述したように画像処理が適用された、実施の形態とされる画像処理装置について説明する。ここでは、上述の原理についての説明と同様に、Gの色信号のノイズ成分を除去する場合の処理について説明する。
【0030】
先ず、第1の実施の形態である画像処理装置は、図3に示すように、ブロック化回路10、MIN及びDR検出回路20、色変換回路30及び加算回路40を備えている。
【0031】
このような画像処理装置の構成において、ブロック化回路10は、入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化手段を構成し、色変換回路30は、一の色信号について、当該一の色信号の同画素位置近傍の他の色信号から疑似色信号を生成する色生成手段を構成し、加算回路40は、一の色信号と色変換回路30が生成した疑似色信号とを合成して一の色信号を新たに生成する色合成手段を構成する。そして、MIN及びDR検出回路20は、上述のMIN及びDRを生成する。以下、各構成部について具体的に説明する。
【0032】
ブロック化回路10は、入力画像信号を所定の大きさの画素ブロックにブロック化する部分である。このブロック化回路10は、具体的には、図4に示すように、ブロック切り出し部11及びブロック切り出し部12を備えている。このような構成は、一の色信号とされるGの色信号を他の色信号とされるRの色信号から求める場合に対応している。
【0033】
R用のブロック切り出し部11では、入力信号画像中の、Rの色信号について所定の画素ブロックを切り出す。R用のブロック切り出し部11は、例えば3×3の画素ブロックとしての切り出しを行う。そして、R用のブロック切り出し部11により切り出された画素ブロックは、MIN及びDR検出回路20を構成するMINR及びDRR検出部21に出力される。
同様に、G用のブロック切り出し部12では、入力画像信号中の、Gの色信号について所定の画素ブロックを切り出す。G用のブロック切り出し部12は、上述のR用のブロック切り出し部11に合わせて画素ブロックの切り出し、すなわち3×3の画素ブロックとしての切り出しを行う。そして、G用のブロック切り出し部12により切り出された画素ブロックは、MIN及びDR検出回路20を構成するMING及びDRG検出部22に出力される。
【0034】
そして、このようなR用のブロック切り出し部11及びG用のブロック切り出し部12を備えたブロック化回路10は、次々に入力されてくる画像信号についてブロック化を施す。すなわち、ブロック化回路10は、図1中(A)から同図中(B)に示すように、入力画像信号における注目画素の位置を次々に変えながらブロック化を施す。これにより、後段の処理では、このように次々にブロック化して得た画素ブロックについて、中心画素(i=4の画素)についての色変換等がなされていくようになる。
【0035】
MINR及びDRR検出部21では、R用のブロック切り出し部11から出力されてきた3×3の画素ブロック内におけるRについての最小値MINR及びダイナミックレンジDRRを検出する。そして、MINR及びDRR検出部21は、検出した最小値MINR及びダイナミックレンジDRRを色変換回路30に出力する。
【0036】
同様に、MING及びDRG検出部22では、G用のブロック切り出し部12から出力されてきた3×3の画素ブロック内におけるGについての最小値MING及びダイナミックレンジDRGを検出する。そして、MING及びDRG検出部22は、検出した最小値MING及びダイナミックレンジDRGを色変換回路30に出力する。
【0037】
色変換回路30は色変換をする部分である。この色変換部30は、色変換されたGを得るための構成として、具体的には図4に示すような演算部31を備えている。
【0038】
この演算部31では、上述の(4)式に示した演算を行い、Rの色信号を変換して値Gを得る。この演算部31は、このように上述の(4)式に従って値Gを得ることもできるが、これに限定されるものではない。上述したように、値Gについては、複数の処理で演算したGの平均値等を代表値として得ることもできる。図5には、そのような平均値により値を得る場合の一連の処理を示している。ここでは、Gを代表値として求める場合を例に挙げて説明する。なお、ここでは、一つおきの画素番号の色信号の値を使用して、平均値を得る場合としている。
【0039】
先ず、ステップS1において初期値を設定する。具体的には、変数i,n,sumの初期値としてi=1、n=0、sum=0を設定する。そして、ステップS2において、(7)式によりxを算出する。
【0040】
x=(R−R)×DRG/DRR+G ・・・(7)
そして、この(7)式により得た値xをステップS3において、0≦x≦255になるか否かを判別する。ステップS5において、求めたxが0≦x≦255である場合には、ステップS4に進み、x<0若しくはx>255である場合には、ステップS4を超えてさらに先のステップS5に進む。ステップS4において、
n=n+1及びsum=sum+x
にする。そして、ステップS5において、
i=i+2
にする。これにより、1つおきの画素位置の値が選択されるようになる。そして、ステップS6において、iの値がi>7になっているか否かを判別する。i>7である場合は、画素ブロック内の画素を使用した計算が終了している場合であり、ステップS7に進む。一方、i>7でない場合は、未だ画素ブロック内の画素を使用した計算が終了していない場合であり、ステップS2からの処理を再び開始する。
【0041】
ステップS7では、n>0か否かを判別し、n>0である場合には、ステップS8において、
=sum/n
を得て、一方、n>0でない場合、すなわちステップS2において得たxの値が全てx<0若しくはx>255であった場合には、画素ブロック内のGの色信号についての最小値MINGを得る。
【0042】
ここで、全てのxの値がx<0若しくはx>255であった場合にGの色信号の最小値MINGとすることに限定されるものではなく、他の値を用いることもできる。要は、この場合、Gは、計算が破綻しないような値であれば良く、すなわち例えば画素ブロック内のG(i=0〜8)の平均値であっても良い。
【0043】
このような処理により色演算部31では、Rの色信号を変換して値Gを得ることができる。色変換回路30は、このようにRの色信号を変換して値Gを得る色演算部31を有しており、同様に、Bの色信号からGの色信号のGを得る色演算部を有している。Bの色信号からGを得る色演算部については説明しないが、上述したRを変換してGを得る手順のようにRに着目して示した手順を、Bに着目した手順に置き換えることにより、BからGを得ることができる。
【0044】
このように、色変換回路30において、Rを変換してGが得られ、Bを変換してGが得られる。そして、これらの値G,Gは、図3に示すように、加算回路40に入力される。
【0045】
加算回路40では、値G,Gと重み係数とに基づいて値G’を得る。すなわち、この加算回路40は、上述の(5)式の演算処理により加算後の値G’を得る。この(5)式を実現する構成として、色変換回路30は、図6に示すように、第1乃至第3の乗算部41,42,43及び加算部44を備えている。
【0046】
Rの色信号を変換する色変換部31により得られた値Gは、第1の乗算部41にて重み係数wが乗算されて、加算部44に出力される。同様に、Bの色信号を変換する色変換部32により得られた値Gは、第3の乗算部43にて重み係数wが乗算されて、加算部44に出力される。また、第2の乗算部42には、もとのGの色信号が入力されており、第2の乗算部42は、このGに重み係数wを乗算して、加算部44に出力する。
【0047】
加算部44では、第1乃至第3の乗算部41,42,43から重み係数がそれぞれ掛け合わされてきた値を加算する。すなわち、加算部44によって、上述の(5)式の演算が最終的に実現されている。
【0048】
ここで、上述の重み係数w(j=1,2,3)は、上述したように、(1)3画素平均とし、重み係数wを1/3にする、(2)RGBそれぞれのゲイン量に応じて重み係数wを変化させる、(3)クラス分類適応処理により重み係数wを決定する、等とされている。
【0049】
ここで、(2)により決定された重み係数wによる演算が実現するための具体的な構成について説明する。また、(3)により決定される重み係数wによる処理については、後で詳述する。(2)を実現するために、具体的には、図7に示すように構成する。
【0050】
図7に示すように、3板式のCCD51,52,53それぞれから出力されたRGBの各色信号は、後段の各A/D部61,62,63にて、デジタル変換される。そして、A/D部61,62,63から出力された各色信号は、第1乃至第3のホワイトバランス部71,72,73においてホワイトバランスが調整される。また、第1乃至第3のホワイトバランス部71,72,73におけるゲイン(gain)はそれぞれ、後述する対応される第1乃至第3の各乗算部41,42,43に出力される。
【0051】
なお、ここで図面上、別個のものとして各ホワイトバランス部71,72,73が書かれているが、1つのホワイトバランス部において、各色信号のホワイトバランス調整ができることはいうまでもない。
【0052】
第1のホワイトバランス部71から出力されたRの色信号及び第2のホワイトバランス部72から出力されたGの色信号は、第1の色変換部31に入力される。第1の色変換部31は、上述した図4及び図6に示した色変換部31であり、このR及びGの色信号に基づいて値Gを得る。そして、この値Gは、第1の乗算部41に入力される。
【0053】
第1の乗算部41では、第1のホワイトバランス部71のゲインに基づいて、重み係数を決定している。すなわち、重み係数はゲインの関数として決定される。第1の乗算部41は、ゲインに応じて決定した重み係数w(gain)と、第1の色変換部31からの値Gとを乗算して、その乗算値を後段の加算部44に出力する。
【0054】
また、第3のホワイトバランス部73から出力されたBの色信号及び第2のホワイトバランス部72から出力されたGの色信号は、第2の色変換部32に入力される。第2の色変換部32は、上述した図6に示した色変換部32であり、このB及びGに基づいてGを得る。そして、このGは、第3の乗算部43に入力される。
【0055】
第3の乗算部43では、第3のホワイトバランス部73のゲインに基づいて、重み係数を決定しており、すなわち、重み係数はゲインの関数として決定される。第3の乗算部43は、ゲインに応じて決定した重み係数w(gain)と、第2の色変換部32からのGとを乗算し、その乗算値を後段の加算部44に出力する。
【0056】
また、第2の乗算部42には、第2のホワイトバランス部72にてホワイトバランス調整されたGの色信号が入力されており、第2の乗算部42は、第2のホワイトバランス部72のゲインに基づいて決定された重み係数w(gain)と、色信号のGとを乗算して、その乗算値を加算部44に出力する。
【0057】
加算部44では、第1乃至第3の乗算部41,42,43から重み係数がそれぞれ掛け合わされてきた値を加算する。すなわち、加算部44によって、上述の(6)式の演算が実現される。
【0058】
図3に示す加算回路40は、このように(5)式或いは(6)式に基づいて演算を可能としており、そして、その結果として加算後の値G’を出力している。
【0059】
そして、3板式のCCDを使用した場合には、各色信号に生じたノイズ成分が独立しており、そのノイズ成分に相関がないことから、上述したような処理を実行する画像処理装置にて各色信号を元の一の色信号に加算することにより、ノイズ成分を除去することができるようになる。
【0060】
次に第2の実施の形態の画像処理装置について説明する。第2の実施の形態の画像処理装置は、色変換や色の加算については基本的には同じであるが、重み係数を学習(トレーニング)により得ているところで異なっている。
【0061】
第2の実施の形態の画像処理装置は、図8及び図9に示すように構成されている。図8に示す画像処理装置についての構成は、重み係数を学習するための構成であり、特に、特徴量抽出回路80、クラス分類回路101及び係数演算回路104を備えている。また、図9に示す画像処理装置の構成は、図8に示したような構成により学習して取得した重み係数に基づいて、新たな色信号を得る場合の構成であり、特に特徴量抽出回路80、クラス分類回路101、予測係数ROM102及び予測回路103を備えている。
【0062】
先ず、図9に示す画像処理装置の構成によってなされる重み係数の学習について説明する。
【0063】
特徴量抽出回路80は、具体的には、図10に示すように、特徴量抽出回路80は、ri演算部81、gi演算部82、bi演算部83、ri差分演算部84、gi差分演算部85、bi差分演算部86及び第1乃至第3の量子化部87,88,89を備えている。
【0064】
MIN及びDR検出回路20から出力される画素ブロックを構成する各画素のRGBの各色信号R,G,B、最小値MINR,MING,MINB及びダイナミックレンジDRR,DRG,DRBが、特徴量抽出回路80に入力されている。また、色変換回路30にも同様な値が出力されている。
【0065】
特徴量抽出回路80では、このようなMIN及びDR検出回路20からの各値に基づいて、ri演算部81、gi演算部82及びbi演算部83が、(8)式〜(10)式により各値r,g,bを得る。
【0066】
=(R−MINR)/DRR ・・・(8)
=(G−MING)/DRG ・・・(9)
=(B−MINB)/DRB ・・・(10)
そして、ri演算部81、gi演算部82及びbi演算部83のそれぞれ後段にあるri差分演算部84、gi差分演算部85、bi差分演算部86では、そのようにして得られた各値r,g,bに基づいて、(11)式〜(13)式により、差分値の各総計値を得る。
Σ|r−g| ・・・(11)
Σ|g−b| ・・・(12)
Σ|b−r| ・・・(13)
そして、ri差分演算部84にて(11)式により得た値は、第1の量子化部87において量子化され、また、gi差分演算部85にて(12)式により得た値は、第2の量子化部88において量子化され、また、bi差分演算部86にて(13)式により得た値は、第3の量子化部89において量子化される。
【0067】
このような構成とされる特徴量抽出回路80にて特徴量が得られる。この特徴量抽出回路80からの特徴量は、図8に示すクラス分類回路101に入力される。
【0068】
クラス分類回路101では、特徴量に基づいてクラス分類をする。なお、クラス分類の技術としては、特開平10-112844号公報等に開示されている技術が挙げられる。
【0069】
クラス分類回路101では、クラス分類した結果得られたクラスを表すものとしてインデックスを出力する。例えば、インデックスは、複数ビット表示によりデータであって、各ビット或いは数ビット単位として情報を有するものとされている。このインデックスは、係数演算回路104に出力される。
【0070】
係数演算回路104では、予測係数が算出される。ここで、予測係数が上述の重み係数であって、学習結果得られたデータになる。具体的には、係数演算回路104は、色変換回路30により得た色変換後の値に基づいて予測係数を得ている。以下に、学習により予測係数を得る場合の一例について説明する。
【0071】
重み係数の学習では、上述の(5)式に示したように、値G’は、重み係数w〜wと、G,G,Gとの線形1次結合により得られていることを利用する。
【0072】
学習は、クラス毎に複数のG,G,Gに対して行う。同じクラスに対応してノイズ成分のないGの色信号であるG”を用意して、これにより学習を行う。すなわち、複数のG”(k=1,2,・・・,m)を教師データとして、G,G,Gを学習データとして、学習を行う。そして、教師データとされるG”が上述の(5)式と同様な関係式により得られると推定する。すなわち、G”は、(14)式として示すように、各係数w〜wとGk1,Gk2,Gk3との線形1次結合により得られると推定する。
【0073】
”=w×Gk1+w×Gk2+w×Gk3 ・・・(14)
ここで、Gk1,Gk2,Gk3はそれぞれ、G,G,Gに対応される値である。また、教師に使用する画素ブロックの個数をmとするとき、m>3に場合には、w〜wは一意に定まらないので、誤差ベクトルeの要素を(15)式として定義する。
【0074】
=G”−{w×Gk1+w×Gk2+w×Gk3
(k=1,2,・・・,m) ・・・(15)
そして、(16)式を最小にする係数を求める。これは、いわゆる最小自乗法による解法に基づくものである。
【0075】
【数2】

Figure 0004599705
【0076】
ここで、(16)式のwによる偏微分係数を、(17)式のように求める。
【0077】
【数3】
Figure 0004599705
【0078】
そして、各wは、(17)式が0とされるときに決定されることから、これにより、(18)式及び(19)式のような、行列を用いると、(20)式のようになる。
【0079】
【数4】
Figure 0004599705
【0080】
【数5】
Figure 0004599705
【0081】
【数6】
Figure 0004599705
【0082】
この(20)式は、掃き出し法等の一般的な行列解法を用いて、wについて解けば、最適値としての予測係数、すなわち学習による重み係数を求めることができる。
【0083】
係数演算回路104では、上述したような学習によって、予測係数としての重み係数w〜wを得ることができる。このようにして得られた重み係数w〜wは、図9に示す予測係数ROM102に、クラス分類回路101から出力されたインデックスをアドレスとして格納される。これにより、予測係数ROM102には、クラス分類を示すインデックスに対応されて重み係数のデータセットw〜wが保持されることになる。
【0084】
そして、実際に値G’を得る際には、予測係数ROM102から対応される予測係数としての重み係数w〜wが出力される。具体的には、次のように、予測係数ROM102から対応される重み係数w〜wが出力される。
【0085】
先ず、特徴量抽出回路80は、上述した図10に示すような構成により、(8)式〜(13)式により、ブロック化回路10から出力された画素ブロックの特徴量を抽出する。この特徴量抽出回路80において抽出された画素ブロックの特徴量は、クラス分類回路101に出力される。
【0086】
クラス分類回路101では、特徴量をクラス分類して、対応されるインデックスを予測係数ROM102に出力する。予測係数ROM102は、クラス分類回路101からのインデックスに対応される予測係数とされる重み係数のデータセットw〜wを予測回路103に出力する。
【0087】
ここで、クラス分類回路101から出力されるインデックスは、このような実際にG’を取得する場面において、このように予測係数ROM102から特定の重み係数のデータセットw〜wを出力するために使用され、一方、学習の場面においては、予測係数ROM102に学習によって得られた重み係数のデータセットw〜wのアドレスとして使用されることになる。
【0088】
予測係数ROM102からの重み係数w〜wが入力される予測回路103には、色変換回路30からのもとの色信号GとR及びBを変換して得られた値G,Gも入力されている。この色変換回路30から出力された各値G,G,Gと、予測係数ROM102から出力された重み係数のデータセットw〜wとは、同一の画素ブロックに基づくものであり、すなわち、特徴量でみた場合にはその特徴量が同一の画素ブロックに基づくものであり、例えば、予測回路103には、これらの値が同一のタイミングによって入力されてくる。
【0089】
予測回路103は、そのように入力された重み係数w,w,wと、色信号G,G,Gとを線形1次を計算して、すなわち(5)式の計算を行いG’を算出する。
【0090】
以上のようにして、最適な重み係数w〜wを学習により求めておき、さらにそのようにして学習により得た重み係数w〜wを用いて、(5)式により値G’を得ており、これはいわゆるクラス分類適応処理と称されるものである。
この技術については、特開平10-112844号公報等に開示されている技術が挙げられる。のような処理により、画像処理装置は、色信号からノイズ成分を除去することができるようになる。
【0091】
なお、上述の実施の形態では、特徴量抽出回路80の具体的構成として図10に示すような構成を挙げて説明した。しかし、特徴量抽出回路80はこれに限定されるものではなく、他の構成とすることもできる。例えば、特徴量抽出回路80を図11に示すような構成にすることもできる。
【0092】
この図11に示すように、特徴量抽出回路80は、第1乃至第3のダイナミックレンジ演算部91,92,93と、第1乃至第3の量子化部94,95,96とを備えている。
【0093】
この特徴量抽出回路80において、第1乃至第3のダイナミックレンジ演算部91,92,93では、(21)式〜(23)式により、ダイナミックレンジの差分値を得る。
【0094】
DRR−DRG ・・・(21)
DRG−DRB ・・・(22)
DRB−DRR ・・・(23)
第1のダイナミックレンジ演算部91にて(21)式により得た値は、第1の量子化部94において量子化され、第2のダイナミックレンジ演算部92にて(22)式により得た値は、第2の量子化部95において量子化され、第3のダイナミックレンジ演算部93にて(23)式により得た値は、第3の量子化部96において量子化される。
【0095】
この特徴量抽出回路80にて得られた特徴量は、図8及び図9に示すように、先に説明した場合と同様に、クラス分類回路101に出力される。そして、学習時においては、図10に示すように、この特徴量に基づいてクラス分類回路101から出力されたインデックスが、係数演算回路104にて得た予測係数を予測係数ROM102に記憶するためのアドレスとして使用され、一方で、G’を得る場合には、図9に示すように、この特徴量に基づいてクラス分類回路101から出力されたインデックスが、予測係数ROM102に記憶されている予測係数のデータセットw〜wの読み出しのために使用される。
【0096】
また、上述の実施の形態では、画素ブロック内の色信号の変化の相関が高いことを利用して、他の色信号から一の色信号を生成する場合について説明したが、例えば、より相関が高い色信号によって一の色信号を生成することもできる。
【0097】
例えば、上述の(1)式乃至(3)式より得られるr〜r、g〜g、b〜bは、R,G,Bそれぞれの色信号について画素ブロック内における変化を示しており、これらは互いに高い相関を持つ。例えば、(1)式乃至(3)式は、色信号の最小値やダイナミックレンジによって決定されるものであって、図12に示すように、MINR及びDRR検出部11、MING、DRG検出部12及びMINB及びDRB検出部23によって得ることができる。
【0098】
さらに、ここで、(24)式及び(25)式を定義する。例えば、この(23)式及び(24)式は、図12に示すように、差分演算部111,112によって得ることができる。
【0099】
EGR=Σ|g−r| ・・・(24)
EGB=Σ|g−b| ・・・(25)
このEGR及びEGBは、相関の大きさを示す指標となるもので、小さい値であるほどGの色信号と相関がより高く、すなわち、EGRは、画素ブロック内におけるGの色信号の変化とRの色信号の変化との相似性を示し、EGBは、画素ブロック内におけるGの色信号の変化とBの色信号の変化との相似性を示すものとなる。これに基づいて、EGRとEGBとを比較してより値の小さい方の色信号を用いて、色変換したGを求める。すなわち、相関の高い方の色信号の値をCとしたとき、(26)式により色変換したGC4を求める。
【0100】
C4=(C−MINC)×DRG/DRC+MING ・・・(26)
ここで、Cは、相関の高い色信号であって、注目画素とされる画素ブロック内の中心位置の色信号の値であり、また、MINCは、画素ブロック内の画素のCについての最小値であり、また、DRCは、画素ブロック内のCについてのダイナミックレンジになる。
【0101】
例えば、このような処理は、図12に示すように、各差分演算部111,112から出力されたEGRとEGBとを比較部113にて比較して、(26)式の演算を行う色変換部114によって実現される。
【0102】
以上のように、より相関の高い方の他の色信号のみを変換して一の色信号を生成することもでき、そして、このように変換して得た色信号を、もとの一の色信号に加えることにより、ノイズ成分が除去された色信号を得ることもできる。
【0103】
また、上述のEGRとEGBとが同一の値になるような場合には、2色の平均値として上述の色信号の値Cを決定することもできる。
【0104】
さらに、上述の(26)式におけるMINCの替わりに、C以外の値であるC,C,C,C,C,C,C,Cを用いることもできる。この場合、CR4として8候補を得て、それらの平均を、生成したCR4とすることもできる。さらに、このような場合、そのようにして求めた候補のうち、0≦CR4≦255(画素のデータが8bitで表される場合)以外のものを除いた平均値を求めることができる。
【0105】
また、上述の実施の形態では、画素ブロックが3×3である場合について説明しているが、これに限定されることはなく、他の大きさの画素ブロックにおいて色信号の変換等を行うこともできる。例えば、他の大きさの画素ブロックとしては9×9や5×5等である。
【0106】
また、画像処理装置は、例えば、撮像部を備えたいわゆるカメラ一体型記録及び/又は再生装置に搭載されれ、撮像して得た画像信号中のノイズを除去することが挙げられる。しかし、これに限定されるものではなく、撮像装置によって撮像された画像をテープ状記録媒体に対して記録及び/又は再生する記録及び/又は再生装置が、上述したような画像処理装置を搭載し或いは同等の機能を有することもできる。
【0107】
【発明の効果】
本発明に係る画像処理装置は、一の色信号について、当該一の色信号の同画素位置近傍の他の色信号から疑似色信号を生成する色生成手段と、一の色信号と色生成手段が生成した疑似色信号とを合成して一の色信号を新たに生成する色合成手段とを備えることにより、一の色信号について、当該一の色信号の同画素位置近傍の他の色信号から疑似色信号を色生成手段により生成し、一の色信号と色生成手段が生成した疑似色信号とを合成して一の色信号を色合成手段により新たに生成することができる。これにより、画像処理装置は、各色信号間に独立して発生するノイズ成分を除去することができる。
【0108】
また、本発明に係る画像処理方法は、一の色信号について、当該一の色信号の同画素位置近傍の他の色信号から疑似色信号を生成する色生成工程と、一の色信号と色生成工程にて生成した疑似色信号とを合成して一の色信号を新たに生成する色合成工程とを有することにより、画像処理方法は、各色信号間に独立して発生するノイズ成分を除去することができる。
【0109】
また、本発明に係るプログラム記録媒体は、一の色信号について、当該一の色信号の同画素位置近傍の他の色信号から疑似色信号を生成する色生成工程と、一の色信号と色生成工程にて生成した疑似色信号とを合成して一の色信号を新たに生成する色合成工程とを画像処理装置に実行させるプログラムが記録されているおり、このようなプログラム記録媒体に記録されているプログラムにより画像処理を実行する画像処理装置は、各色信号間に独立して発生するノイズ成分を除去することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態の画像処理装置の処理の原理の説明のために使用した図であって、入力画素信号についてのブロック化を示す図である。
【図2】画素ブロックを構成する各画素の各色信号を示す図である。
【図3】本発明の実施の形態の画像処理装置の構成を示すブロック図である。
【図4】上述の画像処理装置の構成であって、ブロック化回路、MIN及びDR検出回路、及び色変換回路の具体的な構成を示すブロック図である。
【図5】色変換後の色信号GR4を、画素ブロック内の平均値として求めるときの一連の処理を示すフローチャートである。
【図6】上述の画像処理装置の構成であって、色変換回路及び加算回路の具体的な構成を示すブロック図である。
【図7】上述の画像処理装置の構成であって、3板式のCCDに基づいて行う処理を実現するための構成を示すブロック図である。
【図8】上述の画像処理装置の構成であって、予測係数を学習するための構成を示すブロック図である。
【図9】上述の画像処理装置の構成であって、学習した予測係数を使用して新たな色信号を得るための構成を示すブロック図である。^
【図10】特徴量抽出回路の具体的な構成例を示すブロック図である。
【図11】特徴量抽出回路の他の具体的な構成例を示すブロック図である。
【図12】相関が高い色信号のみにより、Gの色信号を生成する場合の構成を示すブロック図である。
【符号の説明】
10 ブロック化回路、20 MIN及びDR検出回路、30 色変換回路、40 加算回路[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method for image processing, and a program recording medium on which a program for image processing is recorded, and more specifically, to remove noise generated in each color in a color image. The present invention relates to an image processing apparatus and method suitable for the case where the noise is randomly generated in each color, and a program storage medium.
[0002]
[Prior art]
One of image processing techniques is a technique for removing image noise. As a technique for noise removal, there are proposed techniques to remove noise by filtering in the spatial direction and blurring the image to remove noise, or by adding still parts using time direction data .
[0003]
[Problems to be solved by the invention]
By the way, with the method of removing noise by applying a filter in the spatial direction and blurring the image, the noise becomes inconspicuous, but the image is blurred.
[0004]
As for the technique for removing noise by adding still parts using time direction data, a memory for holding data in the time direction is required when taking a still image. Further, when noise removal is performed on an image of a moving object, complicated processing such as motion detection processing for searching for a portion to be added becomes necessary.
[0005]
Accordingly, the present invention has been made in view of the above circumstances, and provides an image processing apparatus and method, and a program recording medium that can appropriately remove noise from an image without requiring complicated processing or the like. The purpose is to do.
[0006]
[Means for Solving the Problems]
  In order to solve the above-described problems, an image processing apparatus according to the present invention providesAn image processing apparatus for processing an image in which a pixel is composed of a plurality of color signals, the blocking means for blocking an input image signal into pixel blocks of a predetermined size, and output from the blocking means Based on the correlation between the change in one color signal and the change in the other color signal in the pixel block, the pixel of interest in the pixel blockAbout one color signalOf the pixel of interestA color generation unit that generates a pseudo color signal from other color signals in the vicinity of the pixel position and the one color signal and the pseudo color signal generated by the color generation unit are combined to newly generate one color signal. Color synthesizing means, The value of one color signal of the pixel of interest is A 1 And the value of the other color signal of the pixel of interest is A 2 And the minimum value of one color signal for all the pixels in the pixel block is A 1 min, the maximum value of one color signal and the minimum value A 1 DR difference with min 1 And the minimum value of the other color signals for all the pixels in the pixel block is A 2 min, the maximum value of the other color signal and the minimum value A 2 DR difference with min 2 When the color generation means, the pseudo color signal value A 12 The
  A 12 = (A 2 -A 2 min) x DR 1 / DR 2 + A 1 min
Generate as
[0007]
An image processing apparatus having such a configuration generates a pseudo color signal for one color signal from another color signal in the vicinity of the same pixel position of the one color signal by the color generation unit, and the one color signal and color The pseudo color signal generated by the generating means is synthesized and one color signal is newly generated by the color synthesizing means. Thereby, the image processing apparatus removes noise components generated independently between the respective color signals.
[0008]
  In addition, an image processing method according to the present invention is provided to solve the above-described problems.An image processing method for processing an image in which a pixel is composed of a plurality of color signals, wherein the input image signal is blocked into pixel blocks having a predetermined size, and is output by the blocking step. Based on the correlation between the change in one color signal and the change in the other color signal in the pixel block, the pixel of interest in the pixel blockAbout one color signalOf the pixel of interestA color generation process for generating a pseudo color signal from other color signals in the vicinity of the same pixel position, and the one color signal and the pseudo color signal generated in the color generation process are combined to newly generate one color signal. Color synthesis process to be generatedThe value of one color signal of the pixel of interest is A 1 And the value of the other color signal of the pixel of interest is A 2 And the minimum value of one color signal for all the pixels in the pixel block is A 1 min, the maximum value of one color signal and the minimum value A 1 DR difference with min 1 And the minimum value of the other color signals for all the pixels in the pixel block is A 2 min, the maximum value of the other color signal and the minimum value A 2 DR difference with min 2 In the color generation step, the pseudo color signal value A 12 The
  A 12 = (A 2 -A 2 min) x DR 1 / DR 2 + A 1 min
Generate asThereby, the image processing method removes noise components generated independently between the respective color signals.
[0009]
  Further, the program recording medium according to the present invention is:A program recording medium in which a program for executing an image processing apparatus that processes an image in which pixels are configured by a plurality of color signals is recorded, and an input image signal is input to the image processing apparatus with a pixel having a predetermined size. Based on the correlation between the change of one color signal in the pixel block and the change of the other color signal in the pixel block output by the block forming step, the block forming step of making the block into blocks, the pixel of interest in the pixel blockAbout one color signalOf the pixel of interestA color generation process for generating a pseudo color signal from other color signals in the vicinity of the same pixel position, and the one color signal and the pseudo color signal generated in the color generation process are combined to newly generate one color signal. The color composition process to be generated andTheLet it run, The value of one color signal of the pixel of interest is A 1 And the value of the other color signal of the pixel of interest is A 2 And the minimum value of one color signal for all the pixels in the pixel block is A 1 min, the maximum value of one color signal and the minimum value A 1 DR difference with min 1 And the minimum value of the other color signals for all the pixels in the pixel block is A 2 min, the maximum value of the other color signal and the minimum value A 2 DR difference with min 2 In the color generation step, the pseudo color signal value A 12 The
  A 12 = (A 2 -A 2 min) x DR 1 / DR 2 + A 1 min
Generate asThe program is recorded. An image processing apparatus that performs image processing using a program recorded on such a program recording medium removes noise components that are independently generated between the respective color signals.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, the present invention is applied to an image processing apparatus that processes an image. The image processing apparatus will be described with reference to the first and second embodiments.
[0011]
First, before describing an image processing apparatus to which the present invention is applied, the principle of image processing will be described. The principle of image processing is as follows.
[0012]
The image processing is premised on color images. Specifically, it is image processing for an image in which pixels are configured by RGB color signals.
[0013]
In the image processing, color conversion is first performed using the correlation between the color signals of the color image. Furthermore, in image processing, noise is removed or reduced (hereinafter simply referred to as removal) by adding a color signal obtained by the color conversion to the original color. Here, it is assumed that noise generated in each color signal of a color image is random noise having no correlation. Hereinafter, the principle of color conversion and color addition performed for noise removal will be described.
[0014]
First, color conversion will be described. Hereinafter, as an example, a case where R (red) is converted to generate G (green) from R (red) will be described.
[0015]
Here, a predetermined pixel block in the image is first considered. For example, it is assumed that the predetermined pixel block is a 3 × 3 pixel block in the image as shown in FIG. 1 (A) or (B). Each pixel in such a 3 × 3 (3 rows × 3 columns) pixel block is grasped as a color signal, that is, each pixel is as shown in FIG. For the R color signal, R0~ R8(Ri: I = 0 to 8), and the G color signal is represented by G as shown in FIG.0~ G8(Gi: I = 0 to 8), and as shown in (C) of FIG.0~ B8(Bi: I = 0 to 8).
[0016]
Here, let us consider the change of each color signal in such a pixel block. For example, assuming that the minimum value in the pixel block is MIN and the dynamic range DR is the maximum value −MIN, RiR after conversioniAnd G by the equation (2)iG after conversioniAnd the value of BiB after conversioniGet the value of.
[0017]
ri= (Ri-MINR) / DRR (1)
gi= (Gi-MING) / DRG (2)
bi= (Bi-MINB) / DRB (3)
Here, MINR, MING, and MINB are the minimum values of the R, G, and B color signals of the pixels in the pixel block, and DRR, DRG, and DRB are the R, G of the pixels in such a pixel block. And the value of the dynamic range DR shown as the difference between the minimum value and the maximum value for the B color signals. If the dynamic range DR is 0, there is no original change, so ri, GiAnd biIs 0.
[0018]
In this way, after the conversion of the R color signal of each pixel in the pixel block according to the equation (1), r0~ R8In addition, g after the conversion is obtained for the G color signal of each pixel in the pixel block according to the equation (2).0~ G8And b after conversion for the B color signal of each pixel in the pixel block according to the equation (3).0~ B8Can be obtained, but r0~ R8Change in g0~ G8Change and b0~ B8Is highly correlated with the change in value, and is substantially the same value.
[0019]
By utilizing such a high correlation, a pseudo color signal can be obtained from another color signal for one color signal according to the equation (4). Here, for example, the expression (4) represents a new value G for G (one color signal) based on R (other color signal).RIt is assumed that (pseudo color signal) is generated.
[0020]
GR= (R4−MINR) × DRG / DRR + MING (4)
The value G calculated by the equation (4)RIs a value after conversion into a G color signal with the central pixel in the R pixel block as described above as the target pixel, and R of the pixel at the same position4Based on the above, it is set as a value after conversion corresponding thereto.
[0021]
Further, instead of MINR in the above equation (4), R4R is a value other than0, R1, R2, R3, R5, R6, R7, R8Can also be used. In this case, the value GRSince 8 candidates can be obtained as the average of them, the generated value GRIt can also be. Further, in such a case, among the candidates obtained in this way, 0 ≦ GRAn average value excluding those other than ≦ 255 (when pixel data is expressed in 8 bits) can also be obtained.
[0022]
As described above, R is converted to GRCan be generated. Although not described, similarly, by converting B, G as a pseudo color signal is generated, that is, the value GBCan also be generated.
[0023]
Next, the color addition process will be described. In this color addition processing, the value G obtained as described above is used.R, GBIs added to the original G color signal, so that the noise component is removed. The principle of the color addition process is as follows.
[0024]
First, it is assumed that RGB images are captured by a three-plate CCD (Charge Coupled Device). When the image is picked up by a three-plate CCD, the noise components generated in the RGB color signals obtained by the three plates have no correlation between the colors. Under such a premise, the value G obtained based on R and B obtained as described above.RAnd GBIs added to the original value of G to remove the noise component. Specifically, by obtaining the value G ′ by the expression (5), the value G ′ becomes a color signal from which the noise component has been removed.
[0025]
G ’= w1× G + w2× GR+ W3× GB  ... (5)
Where wj(J = 1, 2, 3) is each weighting coefficient, and can be determined as an optimum value by any of the following methods (1) to (3).
(1) Three-pixel average, weight coefficient wjIs reduced to 1/3.
(2) Weighting factor w according to the amount of gain at the time of adjustment such as white balance for each of RGBjTo change. That is, the weighting factor wjIs determined as a function of the amount of gain. For example, weighting factor wjIs a function of the gain amount of RGB, the above equation (5) can be expressed as the following equation (6).
[0026]
G ’= w1(ΔG) × G + w2(ΔR) × GR+ W3(ΔB) × GB  ... (6)
(3) Weight coefficient w by class classificationjTo decide. In this case, riAnd giClass classification based on image block unit feature quantity such as the difference of DRR and the difference between DRR and DRG, that is, the image block pattern is classified, and the prediction formula is set to the above-mentioned formula (5) as class Perform classification. And the weighting factor w corresponding to such class classificationjIs determined by learning. Specifically, in learning, the weighting factor wjIs obtained by the method of least squares. This will be described in detail later as a class classification application process.
[0027]
As described above, as shown in the equation (5) or (6), the pseudo signal of the G color signal obtained by converting the other color signal into G that is the original one color signal. GR, GBThe noise component can be removed by adding.
[0028]
In the above description, in the case of removing the noise component of the G color signal, the color conversion process and the color addition process have been described. Similarly, with respect to the R and B color signals, the noise component can be removed by adding the color signals obtained by converting the other color signals. That is, for an R or G color signal that is one color signal, other color signals are converted to generate R or G, and the original R or G color signal is multiplied by a weighting factor. . As a result, as with the color signal having the value G ′ described above, R or G from which the noise component has been removed can be obtained.
[0029]
The principle of image processing to which the present invention is applied has been described above. Next, an image processing apparatus according to an embodiment to which image processing is applied as described above will be described. Here, similarly to the above description of the principle, a process for removing a noise component of a G color signal will be described.
[0030]
First, the image processing apparatus according to the first embodiment includes a blocking circuit 10, a MIN / DR detection circuit 20, a color conversion circuit 30, and an addition circuit 40, as shown in FIG.
[0031]
In the configuration of such an image processing device, the blocking circuit 10 constitutes a blocking unit that blocks an input image signal into pixel blocks of a predetermined size, and the color conversion circuit 30 A color generation unit that generates a pseudo color signal from another color signal in the vicinity of the same pixel position of the one color signal is configured, and the adder circuit 40 includes the one color signal and the pseudo color signal generated by the color conversion circuit 30. Are combined to form a color composition means for newly generating one color signal. Then, the MIN and DR detection circuit 20 generates the above MIN and DR. Hereinafter, each component will be specifically described.
[0032]
The blocking circuit 10 is a part that blocks an input image signal into pixel blocks of a predetermined size. Specifically, the blocking circuit 10 includes a block cutout unit 11 and a block cutout unit 12 as shown in FIG. Such a configuration corresponds to a case where the G color signal, which is one color signal, is obtained from the R color signal, which is another color signal.
[0033]
The R block cutout unit 11 cuts out a predetermined pixel block for the R color signal in the input signal image. The R block cutout unit 11 cuts out, for example, as a 3 × 3 pixel block. Then, the pixel block cut out by the R block cutout unit 11 is output to the MINR and DRR detection unit 21 constituting the MIN and DR detection circuit 20.
Similarly, the G block cutout unit 12 cuts out a predetermined pixel block for the G color signal in the input image signal. The G block cutout unit 12 cuts out pixel blocks in accordance with the R block cutout unit 11 described above, that is, cuts out as a 3 × 3 pixel block. Then, the pixel block cut out by the G block cutout unit 12 is output to the MING and DRG detection unit 22 constituting the MIN and DR detection circuit 20.
[0034]
The block forming circuit 10 including the R block cutout unit 11 and the G block cutout unit 12 performs blocking on the image signals input one after another. That is, as shown in FIG. 1A to FIG. 1B, the blocking circuit 10 performs blocking while sequentially changing the position of the pixel of interest in the input image signal. As a result, in the subsequent processing, color conversion or the like is performed on the central pixel (i = 4 pixel) for the pixel block obtained by successively blocking in this way.
[0035]
The MINR and DRR detection unit 21 detects the minimum MINR and dynamic range DRR for R in the 3 × 3 pixel block output from the R block cutout unit 11. Then, the MINR and DRR detection unit 21 outputs the detected minimum value MINR and dynamic range DRR to the color conversion circuit 30.
[0036]
Similarly, the MING and DRG detection unit 22 detects the minimum value MING and dynamic range DRG for G in the 3 × 3 pixel block output from the G block cutout unit 12. Then, the MING and DRG detection unit 22 outputs the detected minimum value MING and dynamic range DRG to the color conversion circuit 30.
[0037]
The color conversion circuit 30 is a part that performs color conversion. Specifically, the color conversion unit 30 includes a calculation unit 31 as shown in FIG. 4 as a configuration for obtaining color-converted G.
[0038]
The calculation unit 31 performs the calculation shown in the above equation (4) to convert the R color signal to obtain the value GRGet. In this way, the calculation unit 31 calculates the value G according to the above-described equation (4).RHowever, the present invention is not limited to this. As mentioned above, the value GRFor, an average value of G calculated by a plurality of processes can be obtained as a representative value. FIG. 5 shows a series of processes for obtaining a value by such an average value. Here, GRA case where the value is obtained as a representative value is described as an example. Here, it is assumed that the average value is obtained by using the color signal values of every other pixel number.
[0039]
First, an initial value is set in step S1. Specifically, i = 1, n = 0, and sum = 0 are set as initial values of the variables i, n, and sum. In step S2, x is calculated using equation (7).
[0040]
x = (R4-Ri) × DRG / DRR + Gi  ... (7)
Then, in step S3, it is determined whether or not 0 ≦ x ≦ 255 is satisfied from the value x obtained by the equation (7). In step S5, if the obtained x is 0 ≦ x ≦ 255, the process proceeds to step S4, and if x <0 or x> 255, the process proceeds to step S5 beyond step S4. In step S4,
n = n + 1 and sum = sum + x
To. In step S5,
i = i + 2
To. As a result, every other pixel position value is selected. In step S6, it is determined whether or not the value of i is i> 7. If i> 7, the calculation using the pixels in the pixel block has been completed, and the process proceeds to step S7. On the other hand, if i> 7 is not true, the calculation using the pixels in the pixel block has not been completed yet, and the processing from step S2 is started again.
[0041]
In step S7, it is determined whether n> 0. If n> 0, in step S8,
GR= Sum / n
On the other hand, if n> 0 is not satisfied, that is, if the values of x obtained in step S2 are all x <0 or x> 255, the minimum value MING for the G color signal in the pixel block Get.
[0042]
Here, when all the x values are x <0 or x> 255, it is not limited to the minimum value MING of the G color signal, and other values may be used. In short, in this case GRMay be any value that does not cause the calculation to fail, ie, for example, G in the pixel blockiAn average value of (i = 0 to 8) may be used.
[0043]
By such processing, the color calculation unit 31 converts the R color signal to obtain the value GRCan be obtained. The color conversion circuit 30 converts the R color signal in this way to obtain the value GRSimilarly, the color calculation unit 31 for obtaining the G color signal G from the B color signal is obtained.BA color calculation unit for obtaining B color signal to GBThe color calculation unit for obtaining the above will not be described.RBy replacing the procedure shown focusing on R as in the procedure of obtaining B with the procedure focusing on B, B to GBCan be obtained.
[0044]
Thus, the color conversion circuit 30 converts R to GRIs obtained, and B is converted to GBIs obtained. And these values GR, GBIs input to the adder circuit 40 as shown in FIG.
[0045]
In the adding circuit 40, the value GR, GBAnd the value G ′ is obtained based on the weighting factor. That is, the adder circuit 40 obtains the value G ′ after the addition by the arithmetic processing of the above formula (5). As a configuration for realizing the equation (5), the color conversion circuit 30 includes first to third multipliers 41, 42, and 43 and an adder 44 as shown in FIG.
[0046]
A value G obtained by the color conversion unit 31 for converting the R color signal.RIs a weighting factor w in the first multiplier 41.2Is multiplied and output to the adder 44. Similarly, the value G obtained by the color conversion unit 32 that converts the B color signal.BIs a weighting factor w in the third multiplier 43.3Is multiplied and output to the adder 44. Also, the original G color signal is input to the second multiplier 42, and the second multiplier 42 applies a weight coefficient w to this G.1And output to the adder 44.
[0047]
The adder 44 adds the values multiplied by the weighting coefficients from the first to third multipliers 41, 42, and 43, respectively. That is, the calculation of the above formula (5) is finally realized by the adding unit 44.
[0048]
Where the above weighting factor wjAs described above, (j = 1, 2, 3) is (1) an average of three pixels, and a weighting factor wj(2) Weighting factor w according to the gain amount of each RGBj(3) Weighting factor w by class classification adaptive processingjAnd so on.
[0049]
Here, the weighting factor w determined by (2)jA specific configuration for realizing the calculation by will be described. Also, the weighting factor w determined by (3)jThe processing according to will be described in detail later. Specifically, in order to realize (2), the configuration is as shown in FIG.
[0050]
As shown in FIG. 7, the RGB color signals output from the three-plate CCDs 51, 52, and 53 are digitally converted by the A / D units 61, 62, and 63 in the subsequent stage. The color balances of the color signals output from the A / D units 61, 62, and 63 are adjusted in the first to third white balance units 71, 72, and 73, respectively. The gains in the first to third white balance units 71, 72, and 73 are output to the corresponding first to third multiplication units 41, 42, and 43, which will be described later.
[0051]
Here, although the white balance portions 71, 72, 73 are written as separate parts in the drawing, it goes without saying that the white balance of each color signal can be adjusted in one white balance portion.
[0052]
The R color signal output from the first white balance unit 71 and the G color signal output from the second white balance unit 72 are input to the first color conversion unit 31. The first color conversion unit 31 is the color conversion unit 31 shown in FIG. 4 and FIG. 6 described above, and a value G based on the R and G color signals.RGet. And this value GRIs input to the first multiplier 41.
[0053]
The first multiplication unit 41 determines the weighting coefficient based on the gain of the first white balance unit 71. That is, the weighting factor is determined as a function of gain. The first multiplication unit 41 uses the weighting factor w determined according to the gain.2(Gain) and the value G from the first color converter 31RAnd the multiplication value is output to the adder 44 in the subsequent stage.
[0054]
The B color signal output from the third white balance unit 73 and the G color signal output from the second white balance unit 72 are input to the second color conversion unit 32. The second color conversion unit 32 is the color conversion unit 32 shown in FIG. 6 described above, and based on B and G, GBGet. And this GBIs input to the third multiplier 43.
[0055]
The third multiplier 43 determines the weighting factor based on the gain of the third white balance unit 73, that is, the weighting factor is determined as a function of the gain. The third multiplier 43 determines the weighting factor w determined according to the gain.3(Gain) and G from the second color conversion unit 32BAnd the multiplication value is output to the adder 44 in the subsequent stage.
[0056]
The second multiplying unit 42 receives the G color signal that has been white balance adjusted by the second white balance unit 72, and the second multiplying unit 42 receives the second white balance unit 72. Weighting factor w determined based on the gain of1(Gain) and G of the color signal are multiplied and the multiplied value is output to the adder 44.
[0057]
The adder 44 adds the values multiplied by the weighting coefficients from the first to third multipliers 41, 42, and 43, respectively. That is, the calculation of the above formula (6) is realized by the adding unit 44.
[0058]
The adder circuit 40 shown in FIG. 3 can perform an operation based on the equation (5) or (6) as described above, and outputs the added value G ′ as a result.
[0059]
When a three-plate CCD is used, noise components generated in each color signal are independent, and there is no correlation between the noise components. By adding the signal to the original one color signal, the noise component can be removed.
[0060]
Next, an image processing apparatus according to a second embodiment will be described. The image processing apparatus according to the second embodiment is basically the same in terms of color conversion and color addition, but differs in that the weighting coefficient is obtained by learning (training).
[0061]
The image processing apparatus according to the second embodiment is configured as shown in FIGS. The configuration of the image processing apparatus shown in FIG. 8 is a configuration for learning weight coefficients, and in particular, includes a feature amount extraction circuit 80, a class classification circuit 101, and a coefficient calculation circuit 104. Further, the configuration of the image processing apparatus shown in FIG. 9 is a configuration for obtaining a new color signal based on the weighting coefficient acquired by learning with the configuration shown in FIG. 80, a class classification circuit 101, a prediction coefficient ROM 102, and a prediction circuit 103.
[0062]
First, learning of the weighting coefficient performed by the configuration of the image processing apparatus shown in FIG. 9 will be described.
[0063]
Specifically, as shown in FIG. 10, the feature quantity extraction circuit 80 includes a ri computation section 81, a gi computation section 82, a bi computation section 83, a ri difference computation section 84, and a gi difference computation. Unit 85, bi difference calculation unit 86, and first to third quantization units 87, 88, 89.
[0064]
RGB color signals R of each pixel constituting the pixel block output from the MIN and DR detection circuit 20i, Gi, Bi, Minimum values MINR, MING, MINB and dynamic ranges DRR, DRG, DRB are input to the feature quantity extraction circuit 80. A similar value is also output to the color conversion circuit 30.
[0065]
In the feature quantity extraction circuit 80, based on the respective values from the MIN and DR detection circuit 20, the ri operation unit 81, the gi operation unit 82, and the bi operation unit 83 are expressed by Equations (8) to (10). Each value ri, Gi, BiGet.
[0066]
ri= (Ri-MINR) / DRR (8)
gi= (Gi-MING) / DRG (9)
bi= (Bi-MINB) / DRB (10)
Then, the ri difference calculation unit 84, the gi difference calculation unit 85, and the bi difference calculation unit 86 in the subsequent stage of the ri calculation unit 81, the gi calculation unit 82, and the bi calculation unit 83, each value r thus obtained.i, Gi, BiOn the basis of the above, the total values of the difference values are obtained by the equations (11) to (13).
Σ | ri-Gi| (11)
Σ | gi-Bi| (12)
Σ | bi-Ri| (13)
Then, the value obtained by the ri difference calculation unit 84 by the equation (11) is quantized by the first quantization unit 87, and the value obtained by the gi difference calculation unit 85 by the equation (12) is The value quantized by the second quantization unit 88 and obtained by the bi difference calculation unit 86 according to the equation (13) is quantized by the third quantization unit 89.
[0067]
A feature quantity is obtained by the feature quantity extraction circuit 80 configured as described above. The feature quantity from the feature quantity extraction circuit 80 is input to the class classification circuit 101 shown in FIG.
[0068]
The class classification circuit 101 performs class classification based on the feature amount. As the classification technique, there is a technique disclosed in Japanese Patent Laid-Open No. 10-112844.
[0069]
The class classification circuit 101 outputs an index representing the class obtained as a result of class classification. For example, the index is data by multi-bit display, and has information as each bit or several bits. This index is output to the coefficient calculation circuit 104.
[0070]
The coefficient calculation circuit 104 calculates a prediction coefficient. Here, the prediction coefficient is the above-described weighting coefficient, which is data obtained as a learning result. Specifically, the coefficient calculation circuit 104 obtains a prediction coefficient based on the value after color conversion obtained by the color conversion circuit 30. Below, an example in the case of obtaining a prediction coefficient by learning is demonstrated.
[0071]
In learning of the weight coefficient, as shown in the above equation (5), the value G '1~ W3And G, GR, GBIs obtained by linear linear combination.
[0072]
For learning, multiple G, G for each classR, GBTo do. G ″ which is a G color signal having no noise component corresponding to the same class is prepared, and learning is thereby performed.k"(K = 1, 2,..., M) as teacher data, G, GR, GBLearning is performed using as learning data. And G to be teacher datak"" Is obtained by the same relational expression as the above-described expression (5). That is, G "1~ W3And Gk1, Gk2, Gk3It is estimated that it is obtained by linear linear combination.
[0073]
Gk"= W1× Gk1+ W2× Gk2+ W3× Gk3  (14)
Where Gk1, Gk2, Gk3Are G and G, respectively.R, GBIs the value corresponding to. Further, when m is the number of pixel blocks used for the teacher, if m> 3, w1~ W3Is not uniquely determined, the element of the error vector e is defined as equation (15).
[0074]
ek= G "-{w1× Gk1+ W2× Gk2+ W3× Gk3}
(K = 1, 2,..., M) (15)
Then, a coefficient that minimizes the expression (16) is obtained. This is based on a so-called least square method.
[0075]
[Expression 2]
Figure 0004599705
[0076]
Where w in equation (16)iThe partial differential coefficient is obtained as shown in equation (17).
[0077]
[Equation 3]
Figure 0004599705
[0078]
And each wiIs determined when equation (17) is set to 0, and therefore, using a matrix such as equations (18) and (19), equation (20) is obtained.
[0079]
[Expression 4]
Figure 0004599705
[0080]
[Equation 5]
Figure 0004599705
[0081]
[Formula 6]
Figure 0004599705
[0082]
This equation (20) is obtained by using a general matrix solving method such as a sweeping method, and wiCan be obtained as a prediction coefficient as an optimum value, that is, a weighting coefficient by learning.
[0083]
In the coefficient calculation circuit 104, the weighting coefficient w as a prediction coefficient is obtained by learning as described above.1~ W3Can be obtained. The weighting factor w obtained in this way1~ W3Is stored in the prediction coefficient ROM 102 shown in FIG. 9 using the index output from the class classification circuit 101 as an address. As a result, the prediction coefficient ROM 102 stores the weight coefficient data set w corresponding to the index indicating the class classification.1~ W3Will be held.
[0084]
When the value G ′ is actually obtained, the weighting coefficient w as the corresponding prediction coefficient from the prediction coefficient ROM 102 is used.1~ W3Is output. Specifically, the weighting coefficient w corresponding from the prediction coefficient ROM 102 is as follows.1~ W3Is output.
[0085]
First, the feature quantity extraction circuit 80 extracts the feature quantity of the pixel block output from the blocking circuit 10 by the formulas (8) to (13) with the configuration shown in FIG. 10 described above. The feature amount of the pixel block extracted by the feature amount extraction circuit 80 is output to the class classification circuit 101.
[0086]
The class classification circuit 101 classifies the feature quantity and outputs a corresponding index to the prediction coefficient ROM 102. The prediction coefficient ROM 102 stores a weight coefficient data set w that is a prediction coefficient corresponding to the index from the class classification circuit 101.1~ W3Is output to the prediction circuit 103.
[0087]
Here, the index output from the class classification circuit 101 is the data set w of a specific weight coefficient in this way from the prediction coefficient ROM 102 in such a scene where G ′ is actually acquired.1~ W3On the other hand, in the learning scene, the weight coefficient data set w obtained by learning is stored in the prediction coefficient ROM 102.1~ W3Will be used as the address.
[0088]
Weight coefficient w from prediction coefficient ROM 1021~ W3Is input to the prediction circuit 103, the value G obtained by converting the original color signals G and R and B from the color conversion circuit 30.R, GBIs also entered. Each value G, G output from the color conversion circuit 30R, GBAnd a weight coefficient data set w output from the prediction coefficient ROM 1021~ W3Is based on the same pixel block, that is, when viewed in terms of feature quantity, the feature quantity is based on the same pixel block. For example, the prediction circuit 103 has the same value. It is input according to timing.
[0089]
The prediction circuit 103 calculates the weighting factor w inputted in this way.1, W2, W3And color signals G and GR, GBG ′ is calculated by calculating the linear first order, that is, by calculating the equation (5).
[0090]
As described above, the optimum weighting factor w1~ W3Is obtained by learning, and the weighting coefficient w obtained by learning in this way is1~ W3Is used to obtain the value G ′ by the equation (5), which is called so-called class classification adaptation processing.
As this technique, a technique disclosed in Japanese Patent Laid-Open No. 10-112844 and the like can be mentioned. Through such processing, the image processing apparatus can remove noise components from the color signal.
[0091]
In the above-described embodiment, the configuration as shown in FIG. 10 has been described as a specific configuration of the feature amount extraction circuit 80. However, the feature quantity extraction circuit 80 is not limited to this, and may have other configurations. For example, the feature quantity extraction circuit 80 can be configured as shown in FIG.
[0092]
As shown in FIG. 11, the feature amount extraction circuit 80 includes first to third dynamic range calculation units 91, 92, and 93 and first to third quantization units 94, 95, and 96. Yes.
[0093]
In the feature amount extraction circuit 80, the first to third dynamic range calculators 91, 92, and 93 obtain the difference value of the dynamic range by the equations (21) to (23).
[0094]
DRR-DRG (21)
DRG-DRB (22)
DRB-DRR (23)
The value obtained by the first dynamic range calculation unit 91 according to the equation (21) is quantized by the first quantization unit 94 and the value obtained by the second dynamic range calculation unit 92 according to the equation (22). Is quantized by the second quantizing unit 95, and the value obtained by the third dynamic range calculating unit 93 according to the equation (23) is quantized by the third quantizing unit 96.
[0095]
As shown in FIGS. 8 and 9, the feature quantity obtained by the feature quantity extraction circuit 80 is output to the class classification circuit 101 as in the case described above. At the time of learning, as shown in FIG. 10, the index output from the class classification circuit 101 based on this feature amount is used to store the prediction coefficient obtained by the coefficient calculation circuit 104 in the prediction coefficient ROM 102. When G ′ is obtained as an address, on the other hand, as shown in FIG. 9, the index output from the class classification circuit 101 based on this feature quantity is a prediction coefficient stored in the prediction coefficient ROM 102. Dataset w1~ W3Used for reading.
[0096]
Further, in the above-described embodiment, the case where one color signal is generated from another color signal using the fact that the correlation of the change of the color signal in the pixel block is high has been described. One color signal can be generated by a high color signal.
[0097]
For example, r obtained from the above equations (1) to (3)0~ R8, G0~ G8, B0~ B8Indicates changes in the pixel block for the R, G, and B color signals, which are highly correlated with each other. For example, Equations (1) to (3) are determined by the minimum value and dynamic range of the color signal. As shown in FIG. 12, the MINR / DRR detection unit 11, the MING / DRG detection unit 12 And MINB and DRB detection unit 23.
[0098]
Further, equations (24) and (25) are defined here. For example, the equations (23) and (24) can be obtained by the difference calculation units 111 and 112 as shown in FIG.
[0099]
EGR = Σ | gi-Ri| (24)
EGB = Σ | gi-Bi| (25)
The EGR and EGB are indices indicating the magnitude of the correlation, and the smaller the value, the higher the correlation with the G color signal. That is, EGR is the change in the G color signal and R in the pixel block. The EGB represents the similarity between the change in the G color signal and the change in the B color signal in the pixel block. On the basis of this, EGR and EGB are compared, and color-converted G is obtained using the color signal having the smaller value. That is, when the value of the color signal having the higher correlation is C, G is color-converted by the equation (26).C4Ask for.
[0100]
GC4= (C4−MINC) × DRG / DRC + MING (26)
Where C4Is a color signal having a high correlation, which is the value of the color signal at the center position in the pixel block to be the target pixel, MINC is the minimum value for C of the pixel in the pixel block, and , DRC is the dynamic range for C in the pixel block.
[0101]
For example, as shown in FIG. 12, such processing is performed by color conversion in which EGR and EGB output from the difference calculation units 111 and 112 are compared by the comparison unit 113 and the calculation of Expression (26) is performed. This is realized by the unit 114.
[0102]
As described above, it is possible to generate only one color signal by converting only the other color signal having the higher correlation, and the color signal obtained in this way can be converted into the original one. By adding to the color signal, it is also possible to obtain a color signal from which noise components have been removed.
[0103]
When the above-mentioned EGR and EGB have the same value, the above-described color signal value C can be determined as an average value of two colors.
[0104]
Furthermore, instead of MINC in the above equation (26), C4C which is a value other than0, C1, C2, C3, C5, C6, C7, C8Can also be used. In this case, CR4As 8 candidates and the average of them isR4It can also be. Furthermore, in such a case, among the candidates thus obtained, 0 ≦ CR4An average value excluding those other than ≦ 255 (when pixel data is represented by 8 bits) can be obtained.
[0105]
In the above-described embodiment, the case where the pixel block is 3 × 3 is described. However, the present invention is not limited to this, and color signal conversion or the like is performed in a pixel block of another size. You can also. For example, the pixel blocks having other sizes are 9 × 9, 5 × 5, and the like.
[0106]
The image processing apparatus is mounted on, for example, a so-called camera-integrated recording and / or reproducing apparatus including an imaging unit, and removes noise in an image signal obtained by imaging. However, the present invention is not limited to this, and a recording and / or reproducing apparatus that records and / or reproduces an image captured by an imaging apparatus on a tape-shaped recording medium includes the above-described image processing apparatus. Alternatively, it can have an equivalent function.
[0107]
【The invention's effect】
An image processing apparatus according to the present invention includes, for one color signal, a color generation unit that generates a pseudo color signal from another color signal in the vicinity of the same pixel position of the one color signal, and the one color signal and color generation unit. And a color synthesis unit that newly generates one color signal by combining the pseudo color signal generated by the other color signal with respect to the one pixel signal in the vicinity of the same pixel position of the one color signal. Then, the pseudo color signal is generated by the color generation unit, and the one color signal and the pseudo color signal generated by the color generation unit are combined to newly generate the one color signal by the color combination unit. Thereby, the image processing apparatus can remove noise components generated independently between the respective color signals.
[0108]
The image processing method according to the present invention also includes a color generation step of generating a pseudo color signal from another color signal in the vicinity of the same pixel position of the one color signal, and the one color signal and the color. The image processing method removes noise components generated independently between each color signal by combining the pseudo color signal generated in the generation step and the color synthesis step of newly generating one color signal. can do.
[0109]
In addition, the program recording medium according to the present invention includes a color generation step of generating a pseudo color signal from another color signal in the vicinity of the same pixel position of the one color signal, and the one color signal and the color. A program is recorded that causes the image processing apparatus to execute a color synthesis step of synthesizing the pseudo color signal generated in the generation step and newly generating one color signal, and recorded on such a program recording medium An image processing apparatus that executes image processing using a program that has been installed can remove noise components that are independently generated between the color signals.
[Brief description of the drawings]
FIG. 1 is a diagram used for explaining the principle of processing performed by an image processing apparatus according to an embodiment of the present invention, and is a diagram illustrating blocking of an input pixel signal.
FIG. 2 is a diagram illustrating each color signal of each pixel constituting a pixel block.
FIG. 3 is a block diagram showing a configuration of an image processing apparatus according to the embodiment of the present invention.
FIG. 4 is a block diagram illustrating a specific configuration of the above-described image processing apparatus, that is, a blocking circuit, a MIN / DR detection circuit, and a color conversion circuit.
FIG. 5 shows a color signal G after color conversion.R4Is a flow chart showing a series of processing when calculating as an average value in a pixel block.
FIG. 6 is a block diagram illustrating a specific configuration of a color conversion circuit and an addition circuit in the configuration of the above-described image processing apparatus.
FIG. 7 is a block diagram illustrating a configuration for realizing processing performed based on a three-plate CCD in the configuration of the above-described image processing apparatus.
FIG. 8 is a block diagram showing a configuration for learning a prediction coefficient in the configuration of the above-described image processing apparatus.
FIG. 9 is a block diagram illustrating a configuration for obtaining a new color signal by using a learned prediction coefficient in the configuration of the above-described image processing apparatus. ^
FIG. 10 is a block diagram illustrating a specific configuration example of a feature amount extraction circuit.
FIG. 11 is a block diagram illustrating another specific configuration example of the feature amount extraction circuit;
FIG. 12 is a block diagram illustrating a configuration in a case where a G color signal is generated using only a color signal having a high correlation.
[Explanation of symbols]
10 blocking circuit, 20 MIN and DR detection circuit, 30 color conversion circuit, 40 addition circuit

Claims (9)

複数の色信号によって画素が構成されている画像の処理をする画像処理装置であって、
入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化手段と、
上記ブロック化手段から出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成手段と、
上記一の色信号と上記色生成手段が生成した疑似色信号とを合成して一の色信号を新たに生成する色合成手段とを備え、
上記注目画素の一の色信号の値をAとし、上記注目画素の他の色信号の値をAとし、
上記画素ブロック内の全画素についての一の色信号の最小値をAminとし、一の色信号の最大値と上記最小値Aminとの差分をDRとし、
上記画素ブロック内の全画素についての他の色信号の最小値をAminとし、他の色信号の最大値と上記最小値Aminとの差分をDRとするとき、
上記色生成手段は、上記疑似色信号の値A12
12=(A−Amin)×DR/DR+Amin
として生成する
画像処理装置。
An image processing apparatus that processes an image in which pixels are configured by a plurality of color signals,
Blocking means for blocking the input image signal into pixel blocks of a predetermined size;
Based on the correlation between the change in one color signal in the pixel block and the change in the other color signal output from the block forming means, the same pixel of the target pixel is detected for one color signal in the pixel block. Color generation means for generating a pseudo color signal from other color signals in the vicinity of the pixel position;
Color synthesis means for newly generating one color signal by synthesizing the one color signal and the pseudo color signal generated by the color generation means,
The value of one color signal of the pixel of interest and A 1, the value of the other color signals of the target pixel and A 2,
The minimum value of one color signal for all pixels in the pixel block as A 1 min, and the difference between the maximum value and the minimum value A 1 min of one color signal DR 1,
When the minimum value of the other color signals for all pixels in the pixel block and A 2 min, the difference between the maximum value and the minimum value A 2 min of another color signal DR 2,
The color generation means sets the pseudo color signal value A 12 to A 12 = (A 2 −A 2 min) × DR 1 / DR 2 + A 1 min
An image processing device that generates as
上記画素ブロック内における上記注目画素の画素位置が、上記画素ブロック内の中心位置である
請求項2記載の画像処理装置。
The image processing apparatus according to claim 2, wherein a pixel position of the target pixel in the pixel block is a center position in the pixel block.
複数の色信号によって画素が構成されている画像の処理をする画像処理装置であって、
入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化手段と、
上記ブロック化手段から出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成手段と、
上記一の色信号と上記色生成手段が生成した疑似色信号とを合成して一の色信号を新たに生成する色合成手段と、
上記ブロック化手段にてブロック化して得たデータをクラス毎に分類して、その分類に対応するクラスコードを出力するクラス分類手段と、
上記クラスコードに応じて入力画像信号に対応するノイズ低減された上記一の色信号の生成を可能とする最適なn個の重み係数W〜Wのデータ列を出力する重み係数出力手段とを備え、
上記一の色信号の値をAとし、n−1個の上記他の色信号から生成された疑似色信号の値をA〜Aとし、上記重み係数出力手段が出力した重み係数をn個のW〜Wとするとき、
上記色合成手段は、上記合成した新たな一の色信号A’を
Figure 0004599705
として生成する
画像処理装置。
An image processing apparatus that processes an image in which pixels are configured by a plurality of color signals,
Blocking means for blocking the input image signal into pixel blocks of a predetermined size;
Based on the correlation between the change in one color signal in the pixel block and the change in the other color signal output from the block forming means, the same pixel of the target pixel is detected for one color signal in the pixel block. Color generation means for generating a pseudo color signal from other color signals in the vicinity of the pixel position;
Color combining means for newly generating one color signal by combining the one color signal and the pseudo color signal generated by the color generation means;
Classifying means for classifying the data obtained by blocking by the blocking means for each class, and outputting a class code corresponding to the classification;
Weight coefficient output means for outputting an optimal data sequence of n weight coefficients W 1 to W n that enables generation of the one color signal with reduced noise corresponding to the input image signal according to the class code; With
The value of the one color signal and A 1, the value of n-1 of the aforementioned other pseudo color signal generated from the color signal and A 2 to A n, the weighting factor the weighting coefficient output means outputs When n is W 1 to W n ,
The color synthesizing means outputs the synthesized one new color signal A 1 ′.
Figure 0004599705
An image processing device that generates as
上記重み係数出力手段は、ノイズを含む画像信号をブロック化してクラス分類して得たデータと、低ノイズの画像信号をブロック化して得たデータとで予め学習して、上記n個の重み係数W〜Wを上記クラスコードに対応させて取得している
請求項3記載の画像処理装置。
The weight coefficient output means learns in advance from data obtained by blocking and classifying an image signal including noise and data obtained by blocking a low noise image signal, and the n weight coefficients The image processing apparatus according to claim 3, wherein W 1 to W n are acquired in association with the class code.
学習して取得した上記n個の重み係数W〜Wが記憶される記録手段を備えており、
上記記憶手段は、上記クラスコードに対応するそれぞれのアドレスに上記n個の重み係数W〜Wが記憶されており、ノイズ低減された一の色信号を生成するために上記クラス分類手段により出力されたクラスコードに応じて上記n個の重み係数W〜Wが読み出される
請求項4記載の画像処理装置。
A recording means for storing the n weighting factors W 1 to W n obtained by learning;
The storage means is the respective address above the n weighting factors W 1 to W-n is stored corresponding to the class code, by the classification means to generate a color signal from which noise has been reduced The image processing apparatus according to claim 4, wherein the n weighting factors W 1 to W n are read according to the output class code.
複数の色信号によって画素が構成されている画像の処理をする画像処理装置であって、
入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化手段と、
上記ブロック化手段から出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成手段と、
上記一の色信号と上記色生成手段が生成した疑似色信号とを合成して一の色信号を新たに生成する色合成手段とを備え、
上記色生成手段は、上記一の色信号についての相関が、複数の他の色信号の中で最も高い色信号を使用して、上記疑似色信号を生成する
画像処理装置。
An image processing apparatus that processes an image in which pixels are configured by a plurality of color signals,
Blocking means for blocking the input image signal into pixel blocks of a predetermined size;
Based on the correlation between the change in one color signal in the pixel block and the change in the other color signal output from the block forming means, the same pixel of the target pixel is detected for one color signal in the pixel block. Color generation means for generating a pseudo color signal from other color signals in the vicinity of the pixel position;
Color synthesis means for newly generating one color signal by synthesizing the one color signal and the pseudo color signal generated by the color generation means,
The image processing device, wherein the color generation means generates the pseudo color signal using a color signal having the highest correlation among the one color signal among a plurality of other color signals.
複数の色信号によって画素が構成されている画像の処理をする画像処理装置であって、
入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化手段と、
上記ブロック化手段から出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成手段と、
上記一の色信号と上記色生成手段が生成した疑似色信号とを合成して一の色信号を新たに生成する色合成手段とを備え、
上記色生成手段は、上記一の色信号について、上記画素ブロック内の他の位置の他の色信号も使用して、上記疑似色信号を生成し、
上記色生成手段が生成する一の疑似色信号は、上記画素ブロックの他の各位置の他の信号を使用して得た疑似色信号の平均値である
画像処理装置。
An image processing apparatus that processes an image in which pixels are configured by a plurality of color signals,
Blocking means for blocking the input image signal into pixel blocks of a predetermined size;
Based on the correlation between the change in one color signal in the pixel block and the change in the other color signal output from the block forming means, the same pixel of the target pixel is detected for one color signal in the pixel block. Color generation means for generating a pseudo color signal from other color signals in the vicinity of the pixel position;
Color synthesis means for newly generating one color signal by synthesizing the one color signal and the pseudo color signal generated by the color generation means,
The color generation unit generates the pseudo color signal by using another color signal at another position in the pixel block for the one color signal,
One pseudo color signal generated by the color generation means is an average value of pseudo color signals obtained by using other color signals at other positions of the pixel block.
複数の色信号によって画素が構成されている画像の処理をする画像処理方法であって、
入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化工程と、
上記ブロック化工程により出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成工程と、
上記一の色信号と上記色生成工程にて生成した疑似色信号とを合成して一の色信号を新たに生成する色合成工程とを有し、
上記注目画素の一の色信号の値をAとし、上記注目画素の他の色信号の値をAとし、
上記画素ブロック内の全画素についての一の色信号の最小値をAminとし、一の色信号の最大値と上記最小値Aminとの差分をDRとし、
上記画素ブロック内の全画素についての他の色信号の最小値をAminとし、他の色信号の最大値と上記最小値Aminとの差分をDRとするとき、
上記色生成工程では、上記疑似色信号の値A12
12=(A−Amin)×DR/DR+Amin
として生成する
画像処理方法。
An image processing method for processing an image in which pixels are constituted by a plurality of color signals,
A blocking step of blocking the input image signal into pixel blocks of a predetermined size;
Based on the correlation between the change in one color signal in the pixel block and the change in the other color signal output in the block forming step, the same pixel of the target pixel is detected for one color signal in the pixel block. A color generation step of generating a pseudo color signal from other color signals in the vicinity of the pixel position;
A color synthesis step of newly generating one color signal by combining the one color signal and the pseudo color signal generated in the color generation step;
The value of one color signal of the pixel of interest and A 1, the value of the other color signals of the target pixel and A 2,
The minimum value of one color signal for all pixels in the pixel block as A 1 min, and the difference between the maximum value and the minimum value A 1 min of one color signal DR 1,
When the minimum value of the other color signals for all pixels in the pixel block and A 2 min, the difference between the maximum value and the minimum value A 2 min of another color signal DR 2,
In the color generation step, the pseudo color signal value A 12 is set to A 12 = (A 2 −A 2 min) × DR 1 / DR 2 + A 1 min
Image processing method to generate as.
複数の色信号によって画素が構成されている画像の処理をする画像処理装置を実行させるプログラムが記録されたプログラム記録媒体であって、
上記画像処理装置に、
入力画像信号を所定の大きさの画素ブロックにブロック化するブロック化工程と、
上記ブロック化工程により出力された画素ブロック内における一の色信号の変化と他の色信号の変化の相関に基づいて、当該画素ブロック内における注目画素の一の色信号について、上記注目画素の同画素位置近傍の他の色信号から疑似色信号を生成する色生成工程と、
上記一の色信号と上記色生成工程にて生成した疑似色信号とを合成して一の色信号を新たに生成する色合成工程とを実行させ、
上記注目画素の一の色信号の値をAとし、上記注目画素の他の色信号の値をAとし、
上記画素ブロック内の全画素についての一の色信号の最小値をAminとし、一の色信号の最大値と上記最小値Aminとの差分をDRとし、
上記画素ブロック内の全画素についての他の色信号の最小値をAminとし、他の色信号の最大値と上記最小値Aminとの差分をDRとするとき、
上記色生成工程では、上記疑似色信号の値A12
12=(A−Amin)×DR/DR+Amin
として生成させるプログラムが記録されているプログラム記録媒体。
A program recording medium on which a program for executing an image processing apparatus that processes an image in which pixels are configured by a plurality of color signals is recorded,
In the image processing apparatus,
A blocking step of blocking the input image signal into pixel blocks of a predetermined size;
Based on the correlation between the change in one color signal in the pixel block and the change in the other color signal output in the block forming step, the same pixel of the target pixel is detected for one color signal in the pixel block. A color generation step of generating a pseudo color signal from other color signals in the vicinity of the pixel position;
A color synthesis step of newly generating one color signal by combining the one color signal and the pseudo color signal generated in the color generation step;
The value of one color signal of the pixel of interest and A 1, the value of the other color signals of the target pixel and A 2,
The minimum value of one color signal for all pixels in the pixel block as A 1 min, and the difference between the maximum value and the minimum value A 1 min of one color signal DR 1,
When the minimum value of the other color signals for all pixels in the pixel block and A 2 min, the difference between the maximum value and the minimum value A 2 min of another color signal DR 2,
In the color generation step, the pseudo color signal value A 12 is set to A 12 = (A 2 −A 2 min) × DR 1 / DR 2 + A 1 min
A program recording medium on which a program to be generated is recorded.
JP2000344494A 2000-11-10 2000-11-10 Image processing apparatus and method, and program recording medium Expired - Fee Related JP4599705B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000344494A JP4599705B2 (en) 2000-11-10 2000-11-10 Image processing apparatus and method, and program recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000344494A JP4599705B2 (en) 2000-11-10 2000-11-10 Image processing apparatus and method, and program recording medium

Publications (2)

Publication Number Publication Date
JP2002150282A JP2002150282A (en) 2002-05-24
JP4599705B2 true JP4599705B2 (en) 2010-12-15

Family

ID=18818682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000344494A Expired - Fee Related JP4599705B2 (en) 2000-11-10 2000-11-10 Image processing apparatus and method, and program recording medium

Country Status (1)

Country Link
JP (1) JP4599705B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5016255B2 (en) * 2006-02-22 2012-09-05 富士フイルム株式会社 Noise reduction apparatus, control method thereof, control program thereof, imaging apparatus, and digital camera
JP5861542B2 (en) * 2012-03-30 2016-02-16 大日本印刷株式会社 Noise removing apparatus and noise removing method
JP6904684B2 (en) * 2016-11-04 2021-07-21 キヤノン株式会社 Image processing equipment, image processing methods, and programs

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125312A (en) * 1998-10-13 2000-04-28 Canon Inc Device and method of image pickup
JP2000308082A (en) * 1999-04-23 2000-11-02 Nippon Telegr & Teleph Corp <Ntt> Picture defect correcting method and recording medium recording the same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06153087A (en) * 1992-09-17 1994-05-31 Sony Corp Method for correcting picture element defect
JP3334776B2 (en) * 1995-09-14 2002-10-15 松下電器産業株式会社 Noise reduction device
JP3830574B2 (en) * 1996-04-10 2006-10-04 松下電器産業株式会社 Defect correction device and solid-state imaging device using the same
JPH10275229A (en) * 1997-03-31 1998-10-13 Dainippon Screen Mfg Co Ltd Filtering device and method for color image
JP4433545B2 (en) * 1999-02-19 2010-03-17 ソニー株式会社 Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000125312A (en) * 1998-10-13 2000-04-28 Canon Inc Device and method of image pickup
JP2000308082A (en) * 1999-04-23 2000-11-02 Nippon Telegr & Teleph Corp <Ntt> Picture defect correcting method and recording medium recording the same

Also Published As

Publication number Publication date
JP2002150282A (en) 2002-05-24

Similar Documents

Publication Publication Date Title
CN111127336B (en) Image signal processing method based on self-adaptive selection module
JP4284628B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM FOR IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR IMAGE PROCESSING METHOD
JP4941285B2 (en) Imaging apparatus, imaging system, imaging method, and image processing apparatus
US7868927B2 (en) Image data generating apparatus, method and program
EP2528320B1 (en) Image processing device, imaging device, program, and image processing method
US7636451B2 (en) Digital watermark embedding apparatus and method, and digital watermark detection apparatus and method
US8605999B2 (en) Signal processing apparatus and method, noise reduction apparatus and method, and program therefor
JP7297470B2 (en) Image processing method, image processing apparatus, program, image processing system, and method for manufacturing trained model
US11468543B1 (en) Neural-network for raw low-light image enhancement
JP4359650B2 (en) Image data generation apparatus, image data generation method, and image data generation program
CN110634103A (en) Image demosaicing method based on generation of countermeasure network
JP4027441B2 (en) Color image pickup device
JP2014042176A (en) Image processing device and method, program and solid image pickup device
JP3486975B2 (en) Noise reduction apparatus and method
JP4599705B2 (en) Image processing apparatus and method, and program recording medium
JP4556102B2 (en) Image processing apparatus, image processing method, and program
CN115841523A (en) Double-branch HDR video reconstruction algorithm based on Raw domain
JP3693187B2 (en) Signal conversion apparatus and signal conversion method
JP2011043901A (en) Image processor, image processing method, image processing program, and electronic equipment
JP3728107B2 (en) Imaging sensor, image signal processing method, image signal processing system, imaging apparatus, and storage medium
JP7512150B2 (en) Information processing device, information processing method, and program
JP4691762B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JPH1013845A (en) Picture processor
JP2004153753A (en) Apparatus and method for interpolating image picked up by single plate color digital camera
Gorokhovskiy Enhancement of demosaicking algorithms for digital still cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees