JP3926019B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP3926019B2
JP3926019B2 JP01708398A JP1708398A JP3926019B2 JP 3926019 B2 JP3926019 B2 JP 3926019B2 JP 01708398 A JP01708398 A JP 01708398A JP 1708398 A JP1708398 A JP 1708398A JP 3926019 B2 JP3926019 B2 JP 3926019B2
Authority
JP
Japan
Prior art keywords
color
color signal
signal
output
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP01708398A
Other languages
Japanese (ja)
Other versions
JPH11215513A (en
Inventor
まさ子 浅村
喜子 幡野
博明 杉浦
徹也 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP01708398A priority Critical patent/JP3926019B2/en
Publication of JPH11215513A publication Critical patent/JPH11215513A/en
Application granted granted Critical
Publication of JP3926019B2 publication Critical patent/JP3926019B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、電子スチルカメラのような撮像装置における高画質化、小型化に関する。
【0002】
【従来の技術】
従来、電子スチルカメラのような撮像装置においては、小型化のために1枚の撮像素子(以下、単板撮像素子と呼ぶ)を用いている。図19は従来における撮像素子の代表的な色フィルタ配列の一例を示す図である。図において、RはRの光を通過させる分光特性を持った色フィルタを有した撮像素子であり、同様にB、Gについてもそれぞれの色フィルタを有した撮像素子である。図19に示されるように、nラインにはG、Rが2画素毎に配列され、n+1ラインではB、Gが2画素毎に配列されている。したがって、R、B信号は上下4画素毎(図中の斜線部)に、G信号は2画素毎に得られることとなり、撮像素子の画素数の各信号を得て解像度の向上を図るには、得られている画素信号より演算処理を行い撮像素子数のR、G、B信号を生成することとなる。
【0003】
図20は上記図19に示された原色の色フィルタを用いた撮像素子において、撮像素子からの信号よりR、G、B信号を生成する従来の撮像装置の構成の一例を示すブロック図である。図20において、101は撮像素子、102はフレームメモリ、103はフレームメモリ102における信号をR、G、Bそれぞれの信号に分離する分離手段、104は補間手段であり、上記撮像素子101は、図19に示すように、画素R、G、Bから構成される。
【0004】
次に、動作を説明する。撮像素子101から各画素信号R、G、Bを読み出し、フレームメモリ102に各画素信号を取り込む。前記フレームメモリ102に取り込まれた信号から、分離手段103により各信号を分離し、それぞれを補間手段104へと送る。補間手段104では、各R、G、B信号において得られていない画素の信号を隣接画素の信号より補間生成し、撮像素子すべての画素数のRGB信号を算出し出力される。
【0005】
ここで、上記補間手段104における補間方法の一例について図21により説明する。分離手段103により分離されたR、G、B信号は図21(a)(b)(c)に示されるようになり、図中G、R、Bで示された画素が撮像素子102より得られた各信号であり、一方、空白の画素が得られていない画素信号である。G信号(図21(a))については、垂直nライン、水平m番目の画素位置の信号g(以下、画素位置(n,m)と記す。)を補間するために、上下方向の隣接画素の差分(|G(n−1,m)−G(n+1,m)|)と左右方向の隣接画素の差分(|G(n,m−1)−G(n,m+1)|)を求め、この差分が少ない方向の画素信号により補間する。例えば、左右方向の隣接画素の差分が少ない場合は、g(n,m)=(G(n,m−1)+G(n,m+1))/2として算出し、上下方向の隣接画素の差分が少ない場合は、g(n,m)=(G(n−1,m)+G(n+1,m))/2として算出する。
【0006】
RおよびB信号(図21(b)および(c))については、まず水平方向の画素の補間を行い、次に垂直方向で補間を行う。例えば図21(b)のRについては、垂直n−1ライン、n+1ラインでの補間を行い、画素位置(n−1,m)(n+1,m)の信号を、
r(n−1,m)=(R(n−1,m−1)+R(n−1,m+1))/2
r(n+1,m)=(R(n+1,m−1)+R(n+1,m+1))/2
のように算出し、つぎにnラインの画素を上下(n−1およびn+1ライン)の画素の補間により各水平画素位置m−1、m、m+1の信号を求める。Bについても同様な方法で得られる。
【0007】
以上の補間方法により、補間手段104の出力において、撮像素子すべての画素数のR、G、B信号を算出することができる。
【0008】
また、図22は特開平6−178307号公報に示された上下2画素を混合して読み出す画素混合方式の撮像素子による従来の撮像装置の一例を示しており、上記の従来例と同様、撮像素子からの信号を水平走査3ラインから補間生成するよう構成する場合のブロック図を示したものである。同図において、105は撮像素子、106はフレームメモリ、107は信号選択回路、108は色補間回路、109はRGBマトリクスである。撮像素子105は、図22に示すように、4つの画素A,B,C,D(以下、各画素信号に付けられた番号は画素位置を示す)から構成され、画素混合読み出しにより色信号が生成できるようにA、Bの画素が1ライン毎に交互に配列される。
【0009】
次に、動作を説明する。撮像素子105から画素混合読み出しせずそのまま各画素信号を読み出し、フレームメモリ106に各画素信号を取り込む。前記フレームメモリ106に取り込まれた信号から、信号選択回路107により隣接した垂直3ラインの信号を選択し、色補間回路108へと送る。色補間回路108では、上記垂直3ラインの信号から各色信号A、B、C、Dを補間生成した後、RGBマトリクス回路109によりRGB信号として出力される。
【0010】
ここで、上記色補間回路108では各色信号を補間生成するのであるが、この補間方法について説明する。例えば、n2ラインの色信号補間生成では、信号選択回路107により垂直3ラインn1,n2,n3の信号が選択されて色補間回路108へと送られており、n2ラインにおいて得られている色信号はC、D画素であり、A,Bの画素はない。したがって、A,Bの画素については垂直方向でのn1、n3ラインの信号より補間するのであるが、n1、n3ラインではA,Bの画素位置が異なるので、水平方向の補間係数を変えることとなる。いま、補間後の色信号のn2ラインの3番目の画素(n2,3)に対し、補間前の水平5画素より各色信号A′、B′、C′、D′を補間生成するとすると、例えば、C′、D′については、水平方向のみ中心に重みをつけて補間生成し、
23′=(C21/2+ C23+ C25/2)/2
23′=(D22+ D24)/2
とする。一方、 A′、B′に対しては、
23′=(A11/4+ A13/2+ A15/4 )/2+(A31/4+ A33/2+A35/4)/2
23′=(B12/2+ B14/2)/2+(B32/2+ B34/2)/2
なる式から水平画素に重みをつけ補間することができる。
【0011】
次に、n3ラインの色信号の補間生成では、A、Bの画素はn3ラインから補間生成し、C、D画素についてはn2、n4ラインから補間生成する。つまり、画素位置(3、3)において、例えば、
33′=(A32+ A34)/2
33′=(B31/2+ B33+ B35/2)/2
33′=( C21/4+ C23/2+ C25/4)/2+(C41/4+ C43/2+C45/4)/2
33′=(D22/2+ D24/2)/2+(D42/2+ D44/2)/2
となる。
【0012】
以下、A,Bの画素配置がライン毎で入れ替わることを考慮し、n4ラインでは、画素位置(4、3)に対し、
43′=(A31/4+A33/2+A35/4)/2+(A51/4+A53/2+A55/4)/2
43′=(B32/2+ B34/2)/2+(B52/2+ B54/2)/2
43′=(C41/2+ C43+ C45/2)/2
43′=(D42+ D44)/2
n5ラインでは、画素位置(5、3)に対し、
53′=(A52+ A54)/2
53′=(B52+ B54)/2
53′=(C41/4+C43/2+C45/4)/2+(C61/4+C63/2+C65/4)/2
53′=(D42/2+ D44/2)/2+(D62/2+D64/2)/2
となる。以後、上記n2、n3,n4、n5ラインでの補間方法を順次繰り返すことにより、色信号A′、B′、C′、D′を生成することとなる。
【0013】
したがって、垂直3ラインにより色信号を補間生成しているので、色信号の垂直解像度劣化の少ない撮像素子の画素数の信号を得られる。なお、上記では、4つの色信号をA,B,C,Dとして説明しているが、これは、例えば、Mg(マゼンダ)、G(グリーン)、Cy(シアン)、Ye(イエロー)の4色が考えられ、また、色補間回路108での補間係数については色信号を補間生成できる係数であればよい。
【0014】
【発明が解決しようとする課題】
従来の撮像装置は、水平方向の隣接画素と上下のラインにおける画素信号による補間によって色信号を生成するよう構成されており、得られた色信号からの画像におけるエッジ等局所的な領域での空間周波数の変化を考慮しておらず、そのため、偽色、偽輪郭が生じるという問題点があった。
【0015】
この発明は上記のような問題点を解消するためになされたもので、垂直2行水平2列の上下4画素において、第1の色信号に対する分光感度特性を持つ第1の色フィルタと第2の色信号に対する分光感度特性を持つ第2の色フィルタとが垂直1行目に配列され、垂直2行目には上記垂直1行目における第1の色フィルタが配列された画素位置と同一の列に第3の色信号に対する分光感度特性を持つ第3の色フィルタが配列され、第2の色フィルタと同一の列に第1の色信号に対する分光感度特性を持つ第1の色フィルタが配列されており、上記上下4画素の色フィルタが順次垂直および水平方向に繰り返し配列される撮像素子を備えた撮像装置において、上記第1の色フィルタの位置における第1の色信号の所定画素位置におけるエッジ成分に基づき、第1の色信号における所定画素位置での信号を算出して撮像素子の画素数の信号を復元し、復元した第1の色信号と上記エッジ成分に基づき、第2および第3の色信号を算出して撮像素子の画素数分の信号を復元することにより、偽色、偽輪郭の軽減された画像を得る撮像装置を得ることを目的とする。
【0016】
【課題を解決するための手段】
この発明に係る撮像装置は、垂直2行水平2列の上下4画素において、第1の色信号に対する分光感度特性を持つ第1の色フィルタと第2の色信号に対する分光感度特性を持つ第2の色フィルタとが第1の行に配列され、第2の行においては上記第1の行における第1の色フィルタが配列された画素位置と同一の列に第3の色信号に対する分光感度特性を持つ第3の色フィルタが配列され、第2の色フィルタと同一の列に上記第1の色フィルタと同一の第1の色信号に対する分光感度特性を持つ第1の色フィルタが配列されており、上記上下4画素の色フィルタが順次垂直および水平方向に繰り返し配列される撮像素子を備えた撮像装置において、上記第1の色フィルタの位置における第1の色信号の所定画素位置周辺画素信号に基づき、所定画素位置におけるエッジ成分を判定するエッジ判定手段と、前記エッジ判定手段の出力に基づき、上記第1、第2、第3の色フィルタの位置における第1、第2および第3の色信号により第1の色信号における上記所定画素位置での信号を算出する第1の算出手段と、上記エッジ判定手段の出力に基づき、第1の算出手段の出力と第2および第3の色信号により第2および第3の色信号における信号を算出する第2の算出手段とを備え、上記撮像素子における画素数の第1、第2、第3の色信号を得るものである。
【0017】
また、この発明に係る撮像装置は、前記エッジ判定手段が、上記第1の色信号の所定画素位置における左右の隣接画素の差の絶対値を算出して水平方向のエッジ成分を検出する水平方向エッジ検出手段と、第1の色信号の所定画素位置における上下の画素の差の絶対値を算出して垂直方向のエッジ成分を検出する垂直方向エッジ検出手段と、前記水平方向エッジ検出手段と垂直方向エッジ検出手段からの出力に基づき、前記所定画素における水平または垂直方向のエッジ成分を判定する判定手段を備えるものである。
【0018】
また、この発明に係る撮像装置は、前記エッジ判定手段における判定手段が、上記水平方向エッジ検出手段からの出力または上記垂直方向エッジ検出手段からの出力が予め定めた値より大きい場合は、上記所定画素の周辺画素にエッジ成分を検出したとし、さらに、水平方向エッジ検出手段からの出力が上記垂直方向エッジ検出手段の出力より大きい場合は垂直方向により相関があり、水平方向エッジ検出手段からの出力が上記垂直方向エッジ検出手段の出力より小さい場合は水平方向により相関があると判定するとともに、上記水平方向エッジ検出手段および垂直方向エッジ検出手段からの出力がともに予め定めた値より小さい場合にはエッジ成分を検出しないと判定するものである。
【0019】
また、この発明に係る撮像装置は、前記第1の算出手段が、第2の色信号Bのある所定画素l行m列B(l、m)の位置において、第1の色信号A、第2の色信号Bのそれぞれに対し水平方向のローパスフィルタを介した値Ahlpf(l、m )、Bhlpf(l、m)を算出し、前記水平方向ローパスフィルタからの出力信号であるAhlpf(l、m)とBhlpf(l、m)との比と上記画素位置の画素値B(l、m)により、l行m列の第1の色信号Aにおける画素値A(l、m)を、A(l、m)=B(l、m)×{Ahlpf(l、m)/Bhlpf(l、m)}により算出し、第3の色信号Cのある他の画素位置においても同様に第1の色信号Aにおける画素値を算出する水平方向信号算出手段と、上記所定画素l行m列B(l、m)の位置において、第1の色信号A、第2の色信号Bのそれぞれに対し垂直方向のローパスフィルタを介した値Avlpf(l、m)、Bvlpf(l、m)を算出し、前記垂直方向ローパスフィルタからの出力信号であるAvlpf (l、m)とBvlpf(l、m)との比と上記画素位置の画素値B(l、m)により、l行m列の第1の色信号Aにおける画素値A(l、m)を、A(l、m)=B(l、m)×{Avlpf(l、m)/Bvlpf(l、m)}により算出し、第3の色信号Cのある他の画素位置においても同様に第1の色信号Aにおける画素値を算出する垂直方向信号算出手段と、第1の色信号Aにおける上記所定画素l行m列の位置での上下左右の隣接画素の平均値よりl行m列の第1の色信号Aにおける画素値A(l、m)を算出する平均値算出手段とを備え、上記エッジ判定手段の出力に基づき、上記水平方向信号算出手段の出力または垂直方向信号算出手段出力、または、平均値算出手段からの出力より選択し、上記所定画素l行m列における第1の色信号Aの画素値A(l、m)を得て、撮像素子における画素数の第1の色信号を得るものである。
【0020】
また、この発明に係る撮像装置は、前記第1の算出する手段が、上記エッジ判定手段の出力が所定画素l行m列の位置においてエッジ成分を検出しないと判定した場合は上記平均値算出手段の出力を選択し、垂直方向に相関があると判定した場合は上記垂直方向信号算出手段の出力を選択し、水平方向に相関があると判定した場合は上記水平方向信号算出手段の出力を選択し、撮像素子における画素数の第1の色信号を得るものである。
【0021】
また、この発明に係る撮像装置は、上記第2の算出手段が、所定画素l行m列の位置において、上記第1の算出手段からの出力Aに対して水平方向のローパスフィルタを介した値A1hlpf(l、m)と垂直方向ローパスフィルタを介した値A1vlpf(l、m)を算出し、第2の色信号Bに対し水平方向のローパスフィルタを介した値B1hlpf(l、m)と第3の色信号Cに対し垂直方向のローパスフィルタを介した値C1vlpf(l、m)(または、第2の色信号Bに対し垂直方向のローパスフィルタを介した値B1vlpf(l、m)と第3の色信号Cに対して水平方向のローパスフィルタを介した値C1hlpf(l、m ))とを算出し、A1hlpf(l、m)とB1hlpf(l、m)との比(またはC1hlpf(l、m)との比)と、A1vlpf(l、m)とC1vlpf(l、m)との比(または、B1vlpf(l、m)との比)と、上記第1の算出手段からの出力Aにおける所定画素l行m列での画素値A(l、m)から、l行m列の第2の色信号Bと第3の色信号Cにおける画素値B(l、m)とC(l、m)を、B(l、m)=A(l、m)×{B1hlpf(l、m)/A1hlpf(l、m)}、C(l、m)=A(l、m)×{C1vlpf(l、m)/A1vlpf(l、m)}、(または、B(l、m)=A(l、m)× {B1vlpf(l、m)/A1vlpf(l、m)}C(l、m)=A(l、m)×{C1hlpf(l、m)/A1hlpf(l、m)})により算出する信号算出手段を備えるとともに、上記l行m列の位置とは異なる所定画素x行y列の位置において、上記第1の算出手段からの出力Aに対し水平方向のローパスフィルタを介した値A2hlpf(x、y)、前記信号算出手段からの出力での第2の色信号Bに対し水平方向のローパスフィルタを介した値B2hlpf(x、y)を算出し、A2hlpf(x、y)とB2hlpf(x、y)の比と上記第1の算出手段からの出力Aでの画素x行y列での画素値A(x、y)により、x行y列の位置における第2の色信号B(x、y)を、B(x、y)=A(x、y)×{B2hlpf(x、y)/A2hlpf(x、y)}により算出し、第3の色信号Cにおいても同様にC信号を算出する水平方向信号算出手段と、上記第1の算出手段からの出力Aに対し垂直方向のローパスフィルタを介した値A2vlpf(x、y)、前記信号算出手段からの出力での第2の色信号Bに対し垂直方向のローパスフィルタを介した値B2vlpf(x、y)を算出し、A2vlpf(x、y)とB2vlpf(x、y)の比と上記第1の算出手段からの出力Aでの画素x行y列での画素値A(x、y)により、x行y列の位置における第2の色信号B(x、y)を、B(x、y)=A(x、y)×{B2vlpf (x、y)/A2vlpf(x、y)}により算出し、第3の色信号Cにおいても同様にC信号を算出する垂直方向信号算出手段と、上記信号算出手段からの出力における第2、第3の色信号での所定画素x行y列の位置において、斜めに隣接する画素の平均値を算出する平均値算出手段とを備え、上記エッジ判定手段の出力に基づき、前記水平方向信号算出手段、垂直方向信号算出手段、平均値算出手段からのそれぞれの出力から選択して、上記所定画素x行y列での第2、第3の色信号を得て、撮像素子における画素数の第2、第3の色信号を得るものである。
【0022】
さらに、この発明に係る撮像装置は、前記第2の算出手段が、上記エッジ判定手段の出力が所定画素x行y列の位置においてエッジ成分を検出しないと判定した場合は上記平均値算出手段の出力を選択し、垂直方向に相関があると判定した場合は上記垂直方向信号算出手段の出力を選択し、水平方向に相関があると判定した場合は上記水平方向信号算出手段の出力を選択し、撮像素子における画素数の第2、第3の色信号を得るものである。
【0023】
【発明の実施の形態】
以下、この発明をその実施の形態を示す図面に基づいて具体的に説明する。
実施の形態1.
図1はこの発明の実施の形態1による電子スチルカメラにおける撮像素子の色フィルタ配列の一例を示す図であり、原色の色フィルタを用い、各光電変換素子を独立に呼び出す方式の撮像素子を示している。図において、Gは垂直方向2i(i=0、1、2、…)、水平方向2j(j=0、1、2、…)の画素位置(以下、画素位置(2i,2j)のように記す。)と、画素位置(2i+1、2j+1)にあり、G信号を通過させる分光特性を持った第1の色フィルタ、Rは画素位置(2i、2j+1)にあり、R信号を通過させる分光特性を持った第2の色フィルタ、Bは画素位置(2i+1、2j)にあり、B信号を通過させる分光特性を持った第3の色フィルタである。図1に示されるように、R、B信号は上下4画素毎(図中の斜線部)に、G信号は2画素毎に得られることとなり、この上下4画素が垂直水平方向に繰り返し配列されている。
【0024】
図2は上記図1に示された色フィルタ配列の撮像素子をもつ実施の形態1による電子スチルカメラにおける撮像装置の構成を示すブロック図である。図において、1は図1に示す色フィルタ配列で構成された撮像素子、2はA/Dコンバータ、3はフレームメモリ、4はR、G、Bの各画素信号を分離しそれぞれの信号を出力する分離手段、5はG信号における所定画素でのエッジを判定する第1のエッジ判定手段、6は上記分離手段4からの各信号および前記第1のエッジ判定手段5からの出力に基づき、撮像素子1での総画素数のG信号を得るようGの復元を行うG成分復元手段である。7は上記G成分復元手段6の出力である総画素数の信号を持つ復元後のG信号と、上記分離手段4からのR、B信号からR、Bにおける画素位置(2i、2j)および(2i+1,2j+1)での画素を復元するための第1のRB成分復元手段、8は上記G成分復元手段6からのG信号における所定画素でのエッジを判定する第2のエッジ判定手段、9は上記第1のRB成分復元手段7からのR、B信号と上記第2のエッジ判定手段8からの出力に基づき、Rにおける画素位置(2i+1,2j)での画素R、およびBにおける画素位置(2i,2j+1)での画素Bを復元するための第2のRB成分復元手段である。
【0025】
また、図3は上記第1のエッジ判定手段5およびG成分復元手段6の一構成例を示すブロック図である。図において、11はG信号の所定画素における左右の画素の差分つまりエッジ成分を検出する水平方向エッジ検出手段、12はG信号の所定画素における上下画素の差分であるエッジ成分を検出する垂直方向エッジ検出手段、13は前記水平および垂直方向エッジ検出手段11および12から出力により、水平垂直方向での周辺画素での信号レベルの変化を判定し、その判定結果を出力する判定手段であり、水平方向エッジ検出手段11、垂直方向エッジ検出手段12および判定手段13により第1のエッジ判定手段5を構成する。14はG信号の所定画素での上下左右の画素の平均値を算出する平均値算出手段、15〜17は水平方向のローパスフィルタ、18はR信号と水平方向ローパスフィルタ15の位置における出力信号Ghlpfおよび水平方向ローパスフィルタ16の位置における出力信号Rhlpfから演算を行い、水平方向に相関をもつ画素位置(2i、2j+1)でのG信号を出力する演算手段、19はB信号と水平方向ローパスフィルタ15の位置における出力信号Ghlpfおよび水平方向ローパスフィルタ17の位置における出力信号Bhlpfにより演算を行い、水平方向に相関をもつ画素位置(2i+1、2j)でのG信号を出力する演算手段である。20〜22は垂直方向のローパスフィルタ、23はR信号と垂直方向ローパスフィルタ20の位置における出力信号Gvlpfおよび垂直方向ローパスフィルタ21の位置における出力信号Rvlpfにより演算を行い、垂直方向に相関をもつ画素位置(2i、2j+1)でのG信号を出力する演算手段、24はB信号と垂直方向ローパスフィルタ20の位置における出力信号Gvlpfおよび垂直方向ローパスフィルタ22の位置における出力信号Bvlpfにより演算を行い、垂直方向に相関をもつ画素位置(2i+1、2j)でのG信号を出力する演算手段である。25は切り換え手段であり、上記第1のエッジ判定手段5からの周辺画素の信号レベル変化を判定した結果と画素位置に基づき、Gの画素信号を上記平均値算出手段14、演算手段18、19および演算手段23、24、分離手段4からの信号より、切り換え選択する。
【0026】
また、図4は第2のエッジ判定手段8および第2のRB成分復元手段9の一構成例を示すブロック図である。図において、第2のエッジ判定手段8は、G信号の所定画素における左右の画素の差分を検出する水平方向エッジ検出手段30、および上下画素の差分を検出する垂直方向エッジ検出手段31、前記水平および垂直方向エッジ検出手段30および31からの出力により、水平垂直方向での周辺画素での信号レベルの変化を判定し、R信号の画素位置(2i+1,2j)に対する判定結果とB信号の画素位置(2i+1,2j)に対する判定結果を出力する判定手段32により構成される。Rにおける画素位置(2i+1,2j)での画素R、およびBにおける画素位置(2i,2j+1)での画素Bを復元するための第2のRB成分復元手段9においては、33はR信号での斜め方向に隣接する画素の平均値を算出するR平均値算出手段、34はG成分復元手段6からのG信号と第1のRB復元手段7からのR信号により、Rにおける画素位置(2i+1,2j)での画素信号を水平方向の隣接画素により演算するR水平方向演算手段、35は垂直方向の隣接画素により、前記と同様にして画素位置(2i+1,2j)での画素信号を演算するR垂直方向演算手段、36は上記第2のエッジ判定手段8からの判定結果に基づき、画素位置に応じR画素を切り換えるR切り換え手段であり、37はB信号での斜め方向に隣接する画素の平均値を算出するB平均値算出手段、38はG成分復元手段6からのG信号と第1のRB復元手段7からのB信号により、Bにおける画素位置(2i,2j+1)での画素信号を水平方向の隣接画素により演算するB水平方向演算手段、39は垂直方向の隣接画素により、前記と同様にして画素位置(2i,2j+1)での画素信号を演算するB垂直方向演算手段、40は上記第2のエッジ判定手段8からの判定結果に基づき、画素位置に応じB画素を切り換えるB切り換え手段である。
【0027】
次に動作について説明する。撮像素子1から各画素信号R、G、Bを読み出し、その出力はA/Dコンバータ2によりA/D変換され、フレームメモリ3に入力される。フレームメモリ3に入力された信号から、分離手段4により各R、G、B信号を分離し、G信号は第1のエッジ判定手段5とG成分復元手段6へと送られ、R、B信号はG成分復元手段6および第1のRB復元手段7へと送られる。第1のエッジ判定手段5ではG信号における所定画素位置でのエッジ成分を判定して判定結果をG成分復元手段6へと送り、G成分復元手段6では上記第1のエッジ判定手段5からの判定結果の基づき、撮像素子1での総画素数のG信号を得るようG成分の画素信号の復元を行うのであるが、この動作を図3に従って説明する。
【0028】
第1のエッジ判定手段5において、G信号は水平方向エッジ検出手段11および垂直方向エッジ判定手段12へと入力される。いま、撮像素子1におけるG成分は図1にあるように画素位置(2i、2j)と(2i+1、2j+1)で得られており、撮像素子の画素数のG信号を得るために、画素位置(2i、2j+1)と(2i+1、2j)の画素での信号を求めることとなる。図5は分離手段4からのそれぞれの画素位置でのG信号を示す図であり、図中Gは撮像素子1からのG信号を、gは信号が得られていない画素を示している。よって、水平方向エッジ検出手段11および垂直方向エッジ判定手段12では、画素位置(2i、2j+1)および(2i+1、2j)(図5中斜線で示すg)での左右および上下の画素の差分つまりエッジ成分を検出する。水平方向エッジ検出手段11では、上記画素位置での左右の画素の差の絶対値ΔHを得て、これを判定手段13へと出力し、垂直方向エッジ検出手段12では、上下の画素の差の絶対値ΔVを得て、判定手段13へと出力する。例えば、画素位置(2i、2j+1)においては、水平方向エッジ検出手段11で、
ΔH=|G(2i、2j)−G(2i、2j+2)| (1)
を算出し、垂直方向エッジ検出手段12で
ΔV=|G(2i−1、2j+1)−G(2i+1、2j+1)| (2)
を算出し、上記ΔH、ΔVを判定手段13へと送る。以下、この画素の差の絶対値をエッジ成分と呼ぶ。
【0029】
上記判定手段13では、水平方向でのエッジ成分ΔHおよび垂直方向エッジ成分ΔVにより、水平垂直方向での周辺画素での信号レベルの変化を判定し、その判定結果を示す信号ed1を出力する。つまり、ΔHとΔVの両方が予め定めた値th1以下の場合は、周辺画素での信号レベルの変化がないと判定し、例えばed1=1として出力する。一方、ΔHまたはΔVが予め定めた値th1より大きい場合は、その画素においてエッジ成分があると判定し、さらに、ΔH>ΔVの場合は垂直方向に相関が高いと判定して例えばed1=2を出力し、ΔH≦ΔVの場合は水平方向に相関が高いと判定して例えばed1=3を出力する。なお、Gが得られている画素位置(2i、2j)、(2i+1、2j+1)においてはエッジ成分を判定する必要はなく、判定手段13からは例えばed1=0を出力するものとする。判定手段13の出力ed1はG成分復元手段6における切り換え手段25へと送られる。
【0030】
次に、G成分復元手段6において、G信号は平均値算出手段14および水平方向ローパスフィルタ15、垂直方向ローパスフィルタ20へと入力される。平均値算出手段14では、画素位置(2i、2j+1)および(2i+1、2j)において上下左右4画素の値の平均値gaを算出し、切り換え手段25へと送る。水平方向ローパスフィルタ15からはGの水平方向のローパスフィルタを介した値Ghlpfが、垂直方向ローパスフィルタ20からはGの垂直方向のローパスフィルタを介した値Gvlpfが出力され、例えば画素位置(2i、2j+1)では次式のように算出される。
Ghlpf={G(2i、2j)+ G(2i、2j−2)
+G(2i、2j+2)+G(2i、2j+4)}/4 (3)
Gvlpf={G(2i−3、2j+1)+ G(2i−1、2j+1)
+G(2i+1、2j+1)+G(2i+3、2j+1)}/4 (4)
上記水平方向ローパスフィルタ15の出力Ghlpfは演算手段18および19へ、垂直方向ローパスフィルタ20の出力Gvlpfは演算手段23および24へと送られる。
【0031】
一方、R信号は水平方向ローパスフィルタ16、垂直方向ローパスフィルタ21へと入力されて、水平および垂直方向のローパスフィルタを介した値Rhlpf、Rvlpfを出力し、B信号については水平方向ローパスフィルタ17、垂直方向ローパスフィルタ22へと入力され、それぞれ水平および垂直方向のローパスフィルタを介した値Bhlpf、Bvlpfを出力する。ここで、撮像素子1におけるR成分は図1にあるように画素位置(2i、2j+1)で得られ、分離手段4からのそれぞれの画素位置でのR信号は図6(a)示されるようになり、また、B成分は画素位置(2i+1、2j)で得られ、分離手段4からの各画素位置でのB信号は図6(b)に示されるようになる。なお、空白の画素は撮像素子により信号を得られていない画素である。したがって、画素位置(2i、2j+1)ではR信号の水平および垂直方向ローパスフィルタ16および21を介した値を例えば次式により得る。

Figure 0003926019
また、画素位置(2i+1、2j)ではB信号の水平および垂直方向ローパスフィルタ17および22を介した値を例えば次式により得る。
Figure 0003926019
【0032】
なお、上記式(3)〜(8)は各水平方向ローパスフィルタおよび垂直方向ローパスフィルタ出力の算出例であり、フィルタのタップ数および係数は上記式(3)〜(8)に限るものではなく、他のタップ数および係数でもよい。
【0033】
そして、上記水平方向ローパスフィルタ16での出力Rhlpfは演算手段18へと送られ、演算手段18へはR信号と水平方向ローパスフィルタ15の出力信号Ghlpfも入力されており、画素位置(2i、2j+1)での水平方向の相関をもつG信号gh1(2i、2j+1)を次式
gh1(2i、2j+1)=R(2i、2j+1)×(Ghlpf/Rhlpf) (9)
により算出し、切り換え手段25へと送る。また、垂直方向ローパスフィルタ21での出力Rvlpfは演算手段23へと送られ、演算手段23へはR信号と垂直方向ローパスフィルタ20の出力信号Gvlpfも入力されており、画素位置(2i、2j+1)での垂直方向に相関をもつG信号gv1(2i、2j+1)を次式
gv1(2i、2j+1)=R(2i、2j+1)×(Gvlpf/Rvlpf) (10)
により算出し、切り換え手段25へと送る。
【0034】
同様に、上記水平方向ローパスフィルタ17での出力Bhlpfは演算手段19へと送られ、演算手段19へはB信号と水平方向ローパスフィルタ15の出力信号Ghlpfも入力されており、画素位置(2i+1、2j)での水平方向の相関をもつG信号gh2(2i+1、2j)を次式
gh2(2i+1、2j)=B(2i+1、2j)×(Ghlpf/Bhlpf) (11)
により算出し、切り換え手段25へと送る。また、垂直方向ローパスフィルタ22での出力Bvlpfは演算手段24へと送られ、演算手段24へはB信号と垂直方向ローパスフィルタ20の出力信号Gvlpfも入力されており、画素位置(2i+1、2j)での垂直方向に相関をもつG信号gv2(2i+1、2j)を次式
gv2(2i+1、2j)=B(2i+1、2j)×(Gvlpf/Bvlpf) (12)
により算出し、切り換え手段25へと送る。
【0035】
上記式(9)〜(12)による算出方式は、局所的領域での色の変化が少ないことを前提としており、つまり、局所的な領域での各色信号の比はほぼ等しいことにより、水平方向または垂直方向における局所的な領域での各色信号の比はR、G、Bの水平方向または垂直方向のローパスフィルタを介した値の比で与えられる。
【0036】
切り換え手段25では、第1のエッジ判定手段5における判定手段13からの周辺画素の信号レベル変化を判定した結果ed1と画素位置に基づき、Gの画素信号を上記平均値算出手段14、演算手段18、19および演算手段23、24、分離手段4からの信号より選択し切り換える。つまり、判定手段13による出力信号ed1が‘2’を示す場合、すなわち、その画素においてエッジ成分があると判定されるが、ΔH>ΔVで垂直方向に相関が高いと判定される場合は、各画素位置での垂直方向に相関を持つGを出力する演算手段の信号を選択する。判定手段13による出力信号ed1が‘3’を示す場合、すなわち、その画素においてエッジ成分があると判定されるが、ΔH≦ΔVで水平方向に相関が高いと判定される場合には、各画素位置での水平方向に相関を持つGを出力する演算手段の信号を選択する。さらに、判定手段13による出力信号ed1が‘1’を示す場合には、ΔHとΔVの両方が予め定めた値th1以下であり、周辺画素での信号レベルの変化がないと判定されるため、周波数の変化を考慮する必要がなく、平均値算出手段14によるG信号gaを選択する。
【0037】
すなわち、切り換え手段25において、画素位置(2i、2j+1)のG信号g(2i、2j+1)の場合は、判定手段13からの出力ed1=1では平均値算出手段14からのG信号gaを、ed=2の場合は演算手段23からのG信号gv1を、ed=3の場合は演算手段18からのG信号gh1を選択し、一方、画素位置(2i+1、2j)のG信号g(2i+1、2j)の場合は、判定手段13からの出力ed1=1では平均値算出手段14からのG信号gaを、ed=2の場合は演算手段24からのG信号gv2を、ed=3の場合は演算手段19からのG信号gh2を選択する。なお、Gが得られている画素位置(2i、2j)、(2i+1、2j+1)においては、判定手段13からは例えばed1=0が出力されており、このときは分離手段4からのG信号をそのまま出力すればよい。
【0038】
したがって、G成分復元手段6からは画素位置(2i、2j)、(2i、2j+1)、(2i+1、2j)、(2i+1、2j+1)それぞれの画素でのG信号が出力され、つまり、撮像素子の画素数分の解像度のG信号を得られる。このG成分復元手段6からの出力G0は次に、第1のRB成分復元手段7、および第2のエッジ判定手段8と第2のRB成分復元手段9へと送られる。
【0039】
次に、第1のRB成分復元手段7では、分離手段4からのR、B信号(図6 (a)および(b))と上記G成分復元手段6からの全画素の信号をもつG信号G0により、R、B信号それぞれにおける画素位置(2i、2j)および(2i+1,2j+1)での画素を復元生成する。図7(a)、(b)は第1のRB成分復元手段7におけるR、B信号の算出を説明するための各画素のR、Bを示す図であり、図中rおよびbは第1のRB成分復元手段7において復元生成されるR、B画素信号を示している。R信号での画素位置(2i、2j)においては、水平方向に隣接するの2iラインの画素が撮像素子1より得られており、また、G信号はG成分復元手段6により全画素復元されている(図5)。よって、画素位置(2i、2j)において、G、R信号に対して水平方向のローパスフィルタを介した値G1hlpf、R1hlpfを例えば、
Figure 0003926019
により算出し、このG1hlpfとR1hlpfの比と画素G(2i、2j)により、画素位置(2i、2j)でのR信号r(2i、2j)を次式により算出する。
r(2i、2j)= G(2i、2j)×(R1hlpf/G1hlpf)
=G(2i、2j)×( R(2i、2j−1)+R(2i、2j+1))
/(g(2i、2j−1)+g(2i、2j+1)) (15)
【0040】
また、画素位置(2i+1、2j+1)においては、垂直方向に隣接する2j+1列の画素が撮像素子1より得られており、また、G信号はG成分復元手段6により全画素復元されているので、画素位置(2i+1、2j+1)において、G、R信号に対して垂直方向のローパスフィルタを介した値G1vlpf、R1vlpfを例えば、
Figure 0003926019
により算出し、このG1vlpfとR1vlpfの比と画素G(2i+1、2j+1)により、画素位置(2i+1、2j+1)でのR信号r(2i+1、2j+1)を次式により算出する。
r(2i+1、2j+1)=G(2i+1、2j+1)×(R1vlpf/G1vlpf)
=G(2i+1、2j+1)×(R(2i、2j+1)+R(2i+2、2j+1))
/(g(2i、2j+1)+g(2i+2、2j+1)) (18)
【0041】
同様に、B信号については、画素位置(2i、2j)においては、垂直方向に隣接する2j列の画素が撮像素子1より得られており、また、G信号はG成分復元手段6により全画素復元されている(図5)。よって、画素位置(2i、2j)において、G、B信号に対して垂直方向のローパスフィルタを介した値G1vlpf、B1vlpfを例えば、
Figure 0003926019
により算出し、このG1vlpfとB1vlpfの比と画素G(2i、2j)により、画素位置(2i、2j)でのB信号b(2i、2j)を次式により算出する。
b(2i、2j)= G(2i、2j)×(B1vlpf/G1vlpf)
=G(2i、2j)×( B(2i−1、2j)+B(2i+1、2j))
/(g(2i−1、2j)+g(2i+1、2j)) (21)
【0042】
また、画素位置(2i+1、2j+1)においては、水平方向に隣接するの2i+1ラインの画素が撮像素子1より得られており、また、G信号はG成分復元手段6により全画素復元されている。よって、画素位置(2i+1、2j+1)において、G、B信号に対して水平方向のローパスフィルタを介した値G1hlpf、B1hlpfを例えば、
Figure 0003926019
により算出し、このG1hlpfとB1hlpfの比と画素G(2i+1、2j+1)により、画素位置(2i+1、2j+1)でのB信号b(2i+1、2j+1)を次式により算出する。
b(2i+1、2j+1)=G(2i+1、2j+1)×(B1hlpf/G1hlpf)
=G(2i+1、2j+1)×( B(2i+1、2j)+B(2i+1、2j+2))
/(g(2i+1、2j)+g(2i+1、2j+2)) (24)
【0043】
なお、上記式(15)、(18)、(21)、(24)は上記Gでの復元方法と同様局所的領域での色信号の変化が少ないことを前提としており、つまり、各信号の比は局所的な領域ではほぼ等しいということによる。また、式(13)〜(24)におけるG1hlpf、G1vlpf、R1hlpf、R1vlpf、B1hlpf、B1vlpfの算出式は、水平および垂直方向のローパスフィルタ出力の算出例であり、フィルタのタップ数および係数は上記に限るものではなく、他のタップ数および係数であってもよい。そして、第1のRB成分復元手段7からは図7に示すR、rおよびB、bの画素信号R1およびB1が出力されて、第2のRB成分復元手段9へと送られる。
【0044】
次に、第2のRB成分復元手段9および第2のエッジ判定手段8の動作について図4により説明する。第2のエッジ判定手段8において、G成分復元手段6から出力されたG信号G0は水平方向エッジ検出手段30および垂直方向エッジ判定手段31へと入力され、画素位置(2i、2j+1)および(2i+1、2j)の画素での左右および上下の画素の差分つまりエッジ成分を検出する。水平方向エッジ検出手段30では、上記画素位置での左右の画素の差の絶対値ΔHを得て、これを判定手段32へと出力し、垂直方向エッジ検出手段31では、上下の画素の差の絶対値ΔVを得て、判定手段32へと出力する。例えば、上記画素位置(2i、2j+1)においては、水平方向エッジ検出手段30で、
ΔH=|G(2i、2j)−G(2i、2j+2)|
を算出し、垂直方向エッジ検出手段31で、
ΔV=| G(2i−1、2j+1)−G(2i+1、2j+1)|
を算出し、上記ΔH、ΔVを判定手段32へと送る。以下、この画素の差の絶対値をエッジ成分と呼ぶ。
【0045】
上記判定手段32では、水平方向でのエッジ成分ΔHおよび垂直方向エッジ成分ΔVにより、水平垂直方向での周辺画素での信号レベルの変化を判定し、その判定結果を示す信号を出力するのであるが、ここで、上記第1のRB成分復元手段7により、R信号R1では画素位置(2i+1、2j)以外の画素信号が得られており(図7(a))、B信号B1では画素位置(2i、2j+1)以外の画素信号が得られている(図7(b))。したがって、画素位置(2i+1、2j)でのエッジ成分を判定した結果edrをR信号の画素位置(2i+1,2j)の復元に対して出力し、一方、画素位置(2i、2j+1)でのエッジ成分を判定した結果edbをB信号の画素位置(2i、2j+1)の復元に対して出力する。すなわち、画素位置(2i+1、2j)における判定結果edrと画素位置(2i、2j+1)における判定結果edbにおいて、ΔHとΔVの両方が予め定めた値th2以下の場合は、周辺画素での信号レベルの変化がないと判定し、例えばedr=1およびedb=1として出力する。一方、ΔHまたはΔVが予め定めた値th2より大きい場合は、その画素においてエッジ成分があると判定し、さらに、ΔH>ΔVの場合は垂直方向に相関が高いと判定して、例えばedr=2およびedb=2を出力し、ΔH≦ΔVの場合は水平方向に相関が高いと判定して例えばedr=3およびedb=3を出力する。なお、R、Bが得られている画素位置においてはエッジ成分を判定する必要はなく、判定手段32からは例えばedr=0およびedb=0を出力するものとする。そして、判定手段32の出力edrは第2のRB成分復元手段9におけるR切り換え手段36へ、また、出力edbは第2のRB成分復元手段9におけるB切り換え手段40へと送られる。
【0046】
次に、第2のRB成分復元手段9において、第1のRB成分復元手段7からのR信号出力R1はR平均値算出手段33、R水平方向演算手段34およびR垂直方向演算手段35、R切り換え手段36へと入力される。図8(a)は第2のRB成分復元手段9において画素位置(2i+1、2j)のR信号の復元を説明するための図であり、図中Rおよびrで示された画素は撮像素子で得られた信号と上記第1のRB復元手段7において復元された画素信号であり、よって、斜線で示されたr′画素の信号を求めることとなる。まず、R平均値算出手段33では、R信号R1において、画素位置(2i+1、2j)での斜め方向に隣接する4画素R(2i、2j−1)、R(2i、2j+1)、R(2i+2、2j−1)、R(2i+2、2j+1)の平均値raを次式により算出する。
ra(2i+1、2j)={ R(2i、2j−1)+R(2i、2j+1)
+ R(2i+2、2j−1)+R(2i+2、2j+1)}/4
【0047】
R水平方向演算手段34ではG成分復元手段6からのG信号G0(図5)も入力されており、RおよびG信号の画素位置(2i+1,2j)において、水平方向のローパスフィルタを介した値R2hlpf、G2hlpfを例えば、
Figure 0003926019
により算出し、このR2hlpfとG2hlpfの比と画素g(2i+1、2j)により、次式の演算で(2i+1,2j)の水平方向に相関を持つ画素値rhを算出し出力する。
rh(2i+1、2j)=g(2i+1、2j)×(R2hlpf/G2hlpf)
=g(2i+1、2j)
×( r(2i+1、2j−1)+r(2i+1、2j+1))
/(G(2i+1、2j−1)+G(2i+1、2j+1)) (27)
【0048】
R垂直方向演算手段35ではG成分復元手段6からのG信号G0も入力されており、RおよびG信号における画素位置(2i+1,2j)において、垂直方向のローパスフィルタを介した値R2vlpf、G2vlpfを例えば、
R2vlpf=(r(2i、2j)+r(2i+2、2j))/2 (28)
G2vlpf=(G(2i、2j)+G(2i+2、2j))/2 (29)
により算出し、このR2vlpfとG2vlpfの比と画素g(2i+1、2j)により、次式の演算で(2i+1,2j)の垂直方向に相関を持つ画素値rvを算出し出力する。
rv(2i+1、2j)=g(2i+1、2j)×(R2vlpf/G2vlpf)
=g(2i+1、2j)×(r(2i、2j)+r(2i+2、2j))
/(G(2i、2j)+G(2i+2、2j)) (30)
【0049】
なお、上記式(27)、(30)は上述したように、局所的領域での色信号の変化が少ないことを前提としており、つまり、各信号の比は局所的な領域ではほぼ等しいということにより、また、式(25)〜(30)におけるG2hlpf、G2vlpf、R2hlpf、R2vlpfの算出式は、水平および垂直方向のローパスフィルタ出力の算出例であり、フィルタのタップ数および係数は上記に限るものではなく、他のタップ数および係数であってもよい。そして、上記出力rhおよびrvはともにR切り換え手段36へと送られる。
【0050】
R切り換え手段36では、第2のエッジ判定手段8における判定手段32からの周辺画素の信号レベル変化を判定した結果edrに基づき、画素位置(2i+1、2j)の信号を上記R平均値算出手段33、R水平方向演算手段34およびR垂直方向演算手段35、第1のRB成分復元手段7からの信号より選択し切り換える。つまり、判定手段32による出力信号edrが‘2’を示す場合、すなわち、その画素においてエッジ成分があると判定されるが、ΔH>ΔVで垂直方向に相関が高いと判定される場合は、垂直方向に相関を持つRを出力するR垂直方向演算手段35の信号rvを選択する。判定手段32による出力信号edrが‘3’を示す場合、すなわち、その画素においてエッジ成分があると判定されるが、ΔH≦ΔVで水平方向に相関が高いと判定される場合には、水平方向に相関を持つRを出力するR水平方向演算手段34の信号を選択する。さらに、判定手段32による出力信号edrが‘1’を示す場合には、ΔHとΔVの両方が予め定めた値th2以下であり、周辺画素での信号レベルの変化がないと判定されるため、周波数の変化を考慮する必要がなく、R平均値算出手段33によるR信号raを選択する。なお、Rが得られている画素位置(2i、2j)、(2i、2j+1)、(2i+1、2j+1)においては、判定手段32からは例えばedr=0が出力されており、このときは第1のRB成分復元手段7からのR信号をそのまま出力すればよい。
【0051】
B信号についても上記R信号での処理と同様であり、第2のRB成分復元手段9において、第1のRB成分復元手段7からのB信号出力B1はB平均値算出手段37、B水平方向演算手段38およびB垂直方向演算手段39、B切り換え手段40へと入力される。図8(b)は第2のRB成分復元手段9において画素位置(2i、2j+1)のB信号の復元を説明するための図であり、図中Bおよびbで示された画素は撮像素子で得られた信号と上記第1のRB復元手段7において復元された画素信号であり、よって、斜線で示されたb′画素の信号を求めることとなる。まず、B平均値算出手段37では、B信号B1において、画素位置(2i、2j+1)での斜め方向に隣接する4画素の平均値baを次式により算出する。
ba(2i、2j+1)={B(2i−1、2j)+B(2i−1、2j+2)
+B(2i+1、2j)+B(2i+1、2j+2)}/4
【0052】
B水平方向演算手段38ではG成分復元手段6からのG信号G0(図5)も入力されており、BおよびG信号における画素位置(2i,2j+1)において、水平方向のローパスフィルタを介した値B2hlpf、G3hlpfを例えば、B2hlpf=(b(2i、2j)+b(2i、2j+2))/2 (31)
G3hlpf=(G(2i、2j)+G(2i、2j+2))/2 (32)
により算出し、このB2hlpfとG3hlpfの比と画素g(2i、2j+1)により、次式の演算で(2i,2j+1)の水平方向に相関を持つ画素値bhを算出し出力する。
bh(2i、2j+1)=g(2i、2j+1)×(B2hlpf/G3hlpf)
=g(2i、2j+1)×(b(2i、2j)+b(2i、2j+2))
/(G(2i、2j)+G(2i、2j+2)) (33)
【0053】
B垂直方向演算手段39ではG成分復元手段6からのG信号G0も入力されており、BおよびG信号における画素位置(2i,2j+1)において、垂直方向のローパスフィルタを介した値B2vlpf、G3vlpfを例えば、
Figure 0003926019
により算出し、このB2vlpfとG3vlpfの比と画素g(2i、2j+1)により、次式の演算で(2i,2j+1)の垂直方向に相関を持つ画素値bvを算出し出力する。
bv(2i、2j+1)=g(2i、2j+1)×(B2vlpf/G3vlpf)
=g(2i、2j+1)×(b(2i−1、2j+1)+b(2i+1、2j+1))
/(G(2i−1、2j+1)+G(2i+1、2j+1))(36)
【0054】
なお、上記式(33)、(36)は上述したように、局所的領域での色信号の変化が少ないことを前提としており、つまり、各信号の比は局所的な領域ではほぼ等しいということにより、また、式(31)〜(36)におけるG3hlpf、G3vlpf、B2hlpf、B2vlpfの算出式は、水平および垂直方向のローパスフィルタ出力の算出例であり、フィルタのタップ数および係数は上記に限るものではなく、他のタップ数および係数であってもよい。そして、上記出力bhおよびbvはともにB切り換え手段40へと送られる。
【0055】
B切り換え手段40では、第2のエッジ判定手段8における判定手段32からの周辺画素の信号レベル変化を判定した結果edbに基づき、画素位置(2i、2j+1)の信号を上記B平均値算出手段37、B水平方向演算手段38およびB垂直方向演算手段39、第1のRB成分復元手段7からの信号より選択し切り換える。つまり、判定手段32による出力信号edbが‘2’を示す場合、すなわち、その画素においてエッジ成分があると判定されるが、ΔH>ΔVで垂直方向に相関が高いと判定される場合は、垂直方向に相関を持つRを出力するR垂直方向演算手段39の信号bvを選択する。判定手段32による出力信号edbが‘3’を示す場合、すなわち、その画素においてエッジ成分があると判定されるが、ΔH≦ΔVで水平方向に相関が高いと判定される場合には、水平方向に相関を持つBを出力するB水平方向演算手段38の信号を選択する。さらに、判定手段32による出力信号edbが‘1’を示す場合には、ΔHとΔVの両方が予め定めた値th2以下であり、周辺画素での信号レベルの変化がないと判定されるため、周波数の変化を考慮する必要がなく、B平均値算出手段37によるB信号baを選択する。なお、Bが得られている画素位置(2i、2j)、(2i+1、2j)、(2i+1、2j+1)においては、判定手段32からは例えばedb=0が出力されており、このときは第1のRB成分復元手段7からのB信号をそのまま出力すればよい。
【0056】
以上より、第2のRB成分復元手段9からは画素位置(2i、2j)、(2i、2j+1)、(2i+1、2j)、(2i+1、2j+1)それぞれの画素でのRおよびB信号が出力され、つまり、撮像素子の画素数分の解像度のR、B信号を得られるとになる。G信号は上記G成分復元手段6においてすでに撮像素子の画素数分の解像度の信号を得ており、したがって、G成分を用い水平垂直方向のエッジ成分を判定して局所的な領域での空間周波数の変化を判定し、その判定結果に基づき各色信号の生成を切り換えるともに、エッジ成分が所定値を越える場合の信号の算出において、局所的な領域での色信号の比により算出を行い、エッジ成分が所定値以下では周辺画素の平均値で求めるので、そのため、偽色、偽輪郭が軽減された画像を得ることになる。
【0057】
図9は、ゾーンプレートを画像シミュレーションにより処理した場合の水平方向において発生する偽色レベル(color-alias level 、縦軸)と解像度(横軸)との関係を示すものであり、上記図20による従来技術による処理後の偽色レベルを波線で示し、図2による実施の形態1による処理後の偽色レベルを実線で示している。従来の技術による処理では多くの偽色が発生しているが、実施の形態1による処理では偽色の発生が抑圧されている。各処理でこの水平方向の偽色信号のレベルを積分して比較すると、約18.4dBの抑圧効果がある。
【0058】
また、図10は、垂直方向での発生する偽色レベル(color-alias level 、縦軸)と解像度(横軸)との関係を示すものであり、上記と同様に、上記図20による従来技術による処理後の偽色レベルを波線で示し、図2による実施の形態1による処理後の偽色レベルを実線で示している。従来の技術による処理では多くの偽色が発生しているが、実施の形態1による処理では偽色の発生が抑圧されており、垂直方向の偽色信号のレベルを積分して比較すると、約18.5dBの抑圧効果がある。
【0059】
さらに、図11および図12は、ゾーンプレートを画像シミュレーションにより処理した場合の水平方向における輝度信号のレベルをRGB信号より算出して縦軸に、解像度を横軸に示した図であり、図2による実施の形態1による処理後の場合を図11に、上記図20による従来技術による処理後の場合を図12に示す。また、垂直方向における輝度信号のレベルと解像度との関係を、図13に図2による実施の形態1による処理後の場合を、図14に上記図20による従来技術による処理後の場合示す。水平および垂直方向どちらに対しても、従来の技術による処理に比較して実施の形態1による処理ではレベルの低下が少なく、水平垂直方向の解像度が向上している。
【0060】
なお、上記実施の形態1では、撮像素子1の色フィルタの配列を図1に示す原色の色フィルタであり、各光電変換素子を独立に呼び出す方式の撮像素子とし、画素位置(2i,2j)と画素位置(2i+1、2j+1)(i=0、1、2、…、j=0、1、2、…)にG信号を通過させる分光特性を持った第1の色フィルタを、画素位置(2i、2j+1)にR信号を通過させる分光特性を持った第2の色フィルタを、画素位置(2i+1、2j)にB信号を通過させる分光特性を持った第3の色フィルタを配列した場合として説明したが、撮像素子におけるは第1、第2および第3の色フィルタの分光特性はR、G、Bに限るものではなく、例えば画素混合方式の撮像素子であってもよく、図15に示すように、画素位置(2i,2j)と画素位置(2i+1、2j+1)(i=0、1、2、…、j=0、1、2、…)に第1の信号Aを通過させる分光特性を持った第1の色フィルタを、画素位置(2i、2j+1)に第2の信号Bを通過させる分光特性を持った第2の色フィルタを、画素位置(2i+1、2j)に第3の信号Cを通過させる分光特性を持った第3の色フィルタを配列し、上記実施の形態1の処理により撮像素子の画素数分の各A、B、Cの信号を復元した後RGBの色信号を再生できればよく、上記と同様の効果を奏する。
【0061】
また、上記実施の形態1では、図1および図15の撮像素子の色フィルタの配列を画素位置(2i,2j)と画素位置(2i+1、2j+1)(i=0、1、2、…、j=0、1、2、…)に第1の色フィルタを、画素位置(2i、2j+1)に第2の色フィルタを、画素位置(2i+1、2j)に第3の色フィルタを配列した場合(図1、15中の斜線部分)として説明したが、図16に示されるように、画素位置(2i,2j+1)と画素位置(2i+1、2j)(i=0、1、2、…、j=0、1、2、…)に第1の色フィルタを、画素位置(2i、2j)に第2の色フィルタを、画素位置(2i+1、2j+1)に第3の色フィルタを配列した場合(図16中の斜線部分)でも同様の効果を奏し、上下4画素毎にnラインには第1の色フィルタ、第2の色フィルタが配列され、n+1ラインでは第3の色フィルタと第1の色フィルタが配列されて、上下のラインで第1のフィルタが斜め方向の画素に配列されていればよい。
【0062】
また、上記実施の形態1において、第1のエッジ判定手段5および第2のエッジ判定手段8においての判定結果を示す信号を、ΔHとΔVの両方が予め定めた値以下の場合は‘1’とし、エッジ成分があると判定しΔH>ΔVの場合は‘2’とし、ΔH≦ΔVの場合は‘3’とし、画素信号が得られている画素位置においては‘0’として出力する場合について説明しているが、これに限るものではなく、それぞれの判定結果を区別できる信号を出力するのであれば、他の値であってもよい。
【0063】
なお、上記実施の形態1では、ハードウェアにより図2の構成の処理を行う場合について説明しているが、撮像装置におけるソフトウェアにより同様の処理を行うことができることは言うまでもなく、上記実施の形態1と同様の効果を奏する。
【0064】
実施の形態2.
実施の形態1では第1のエッジ判定手段5において、G信号における画素位置(2i、2j+1)および(2i+1、2j)での上下左右でのエッジ成分を判定し、第2のエッジ判定手段8においては、R信号の復元に対してG信号における画素位置(2i+1、2j)でのエッジ成分を、B信号の復元に対しG信号における画素位置(2i、2j+1)でのエッジ成分を判定するよう構成したが、どちらも画素位置(2i、2j+1)、(2i+1、2j)での左右および上下の画素のエッジ成分を検出しており、これらの画素位置での上下左右の画素信号は撮像素子より得られた信号であるため、同一のエッジ成分を求めることとなる。よって、図17に示すように、1つのG成分エッジ判定手段によりG信号における画素位置(2i、2j+1)および(2i+1、2j)でのエッジ成分を判定するような構成とすることもできる。
【0065】
図17において、1〜4、6〜7、および9は上記実施の形態1での撮像装置と同一のものであり、41はG成分エッジ判定手段であり、水平方向エッジ検出手段42、垂直方向エッジ検出手段43、判定手段44により構成される。
【0066】
次に動作を説明する。撮像素子1から各画素信号R、G、Bを読み出し、A/Dコンバータ2によりA/D変換されてフレームメモリ3に入力され、分離手段4により各R、G、B信号を分離し、G成分復元手段6、第1のRB復元手段7および第2のRB復元手段9で撮像素子の画素数の各信号を生成し復元する動作は上記実施の形態1と同一であるのでその詳細な説明は省略する。
【0067】
G成分エッジ判定手段41には分離手段4におけるG信号(図18)が入力され、G成分エッジ判定手段41内の水平方向エッジ検出手段42、垂直方向エッジ検出手段43へと与えられる。水平方向エッジ検出手段42および垂直方向エッジ検出手段43においては画素位置(2i、2j+1)、(2i+1、2j)(図18中斜線で示す画素)での左右および上下の画素の差分つまりエッジ成分を検出する。つまり、水平方向エッジ検出手段42では、上記画素位置での左右の画素の差の絶対値ΔHgを得て、これを判定手段44へと出力し、垂直方向エッジ検出手段43では、上下の画素の差の絶対値ΔVgを得て、判定手段55へと出力する。例えば、画素位置(2i、2j+1)においては、水平方向エッジ検出手段42で、
ΔHg=|G(2i、2j)−G(2i、2j+2)|
を算出し、垂直方向エッジ検出手段43で
ΔVg=| G(2i−1、2j+1)−G(2i+1、2j+1)|
を算出し、上記ΔHg、ΔVgを判定手段44へと送る。
【0068】
上記判定手段44では、水平方向でのエッジ成分ΔHgおよび垂直方向エッジ成分ΔVgにより、水平垂直方向での周辺画素での信号レベルの変化を判定し、入力されるG信号の各画素位置に応じて、その判定結果を示す信号ed1をG成分復元手段6へ、edr、edbを第2のRB成分復元手段9へと出力する。各判定信号は、ΔHgとΔVgの両方が予め定めた値以下の場合は、周辺画素での信号レベルの変化がないと判定し、例えば‘1’とする。一方、ΔHgまたはΔVgが予め定めた値より大きい場合は、その画素においてエッジ成分があると判定し、さらに、ΔHg>ΔVgの場合は垂直方向に相関が高いと判定して例えば‘2’とし、ΔHg≦ΔVgの場合は水平方向に相関が高いと判定して例えば、‘3’とする。ここで、G成分復元手段6においては、画素位置(2i、2j+1)と(2i+1、2j)での画素を復元するため、両画素位置において上記エッジ判定結果をed1として出力し、Gが得られている画素位置(2i、2j)、(2i+1、2j+1)においては例えばed1=0を出力する。そして、判定手段44の出力ed1はG成分復元手段6における切り換え手段25へと送られる。
【0069】
一方、第2のRB成分復元手段9においては、R信号の画素位置(2i+1,2j)の復元を行い、B信号の画素位置(2i、2j+1)の復元を行う。よって、画素位置(2i+1、2j)において上記エッジ成分を判定した結果をedrとして、第2のRB成分復元手段9での処理する画素位置にタイミングを合わせて出力し、他の画素位置(2i、2j)、(2i、2j+1)、(2i+1、2j+1)においては例えばedr=0を出力する。そして、判定手段44の出力edrは第2のRB成分復元手段9におけるR切り換え手段36へと送られる。一方、画素位置(2i、2j+1)において上記エッジ成分を判定した結果をedbとして、第2のRB成分復元手段9での処理する画素位置にタイミングを合わせて出力し、他の画素位置(2i、2j)、(2i+1、2j)、(2i+1、2j+1)においては例えばedb=0を出力する。そして、判定手段44の出力edbは第2のRB成分復元手段9におけるB切り換え手段40へと送られる。
【0070】
よって、G成分エッジ判定手段41において、上記G成分復元手段6および第2のRB成分復元手段9におけるG、R、B信号を復元する画素位置に対応するG信号でのエッジ成分の判定結果を出力されることとなる。
【0071】
なお、上記実施の形態2では、画素位置(2i、2j)、(2i+1、2j+1)にG信号が、画素位置(2i、2j+1)にR信号が、画素位置(2i+1、2j+1)にB信号が撮像素子より得られる場合について説明したが、上記実施の形態1同様、画素位置(2i、2j+1)、(2i+1、2j)にG信号が、画素位置(2i、2j)にR信号が、画素位置(2i+1、2j+1)にB信号が配列されていてもよく、また、色信号はRGBに限ることはない。
【0072】
また、上記実施の形態1と同様、実施の形態2においても、図17の構成の処理を撮像装置におけるソフトウェアにより同様の処理を行うことができることは言うまでもなく、上記実施の形態2と同様の効果を奏する。
【0073】
【発明の効果】
この発明は、以上説明したように構成されているので、以下に示すような効果を奏する。
【0074】
この発明に係る撮像装置によれば、画素位置(2i、2j)(i=0、1、2、…およびj=0、1、2、…)と(2i+1、2j+1)に第1の色信号を通過させる分光特性を持った第1の色フィルタを、画素位置(2i、2j+1)に第2の色信号を通過させる分光特性を持った第2の色フィルタ、画素位置(2i+1、2j)に第3の色信号を通過させる分光特性を持った第3の色フィルタを配列した上下4画素が垂直水平方向に繰り返し配列された撮像素子において、第1の色フィルタの位置における第1の色信号の画素位置(2i、2j+1)、(2i+1、2j)において、周辺画素信号に基づきエッジ成分を判定し、この判定結果に基づき、第1、第2および第3の色信号により第1の色信号の上記画素位置での信号を算出して撮像素子の画素数の第1の色信号を復元し、上記エッジ判定結果に基づき、復元された第1の色信号と各色フィルタからの色信号により第2および第3の色信号を算出し撮像素子の画素数の第2、第3の色信号を得ることにより、偽色、偽輪郭の軽減された画像を得ることができる。
【0075】
また、この発明に係る撮像装置によれば、エッジ判定手段が、第1の色信号の所定画素における左右の隣接画素の差の絶対値を算出して水平方向のエッジ成分ΔHを検出し、上下の画素の差の絶対値を算出して垂直方向のエッジ成分ΔVを検出して、水平方向のエッジ成分ΔHと垂直方向のエッジ成分ΔVに基づき、前記所定画素における水平または垂直方向のエッジ成分を判定する判定することにより、局所的な領域での水平、垂直方向の空間周波数の変化を判定することができ、偽色、偽輪郭の軽減された画像を得ることができる。
【0076】
また、この発明に係る撮像装置によれば、前記エッジ判定手段における判定手段が、上記水平方向エッジ検出手段からの出力ΔHまたは上記垂直方向エッジ検出手段からの出力ΔVが予め定めた値より大きい場合は、所定画素の周辺画素にエッジ成分を検出したとし、さらに、ΔH>ΔVであれば垂直方向により相関があり、ΔH≦ΔVであれば水平方向により相関があると判定するとともに、上記ΔHとΔVがともに予め定めた値より小さい場合にはエッジ成分を検出しないと判定することにより、局所的な領域での水平、垂直方向の空間周波数の変化を判定することができ、偽色、偽輪郭の軽減された画像を得ることができる。
【0077】
また、この発明に係る撮像装置によれば、第1の色信号を算出して復元する手段が、第2の色信号Bのある所定画素l行m列B(l、m)の位置(l=2i、m=2j+1またはl=2i+1、m=2j)において、第1の色信号A、第2の色信号Bのそれぞれに対して水平方向のローパスフィルタを介した値Ahlpf(l、m)、Bhlpf(l、m)を算出し、前記水平方向ローパスフィルタからの出力信号であるAhlpf(l、m)とBhlpf(l、m)との比と上記画素位置の画素値B(l、m)により、l行m列の第1の色信号Aにおける画素値A(l、m)を、A(l、m)=B(l、m)×{Ahlpf(l、m)/Bhlpf(l、m)}により算出し、第3の色信号Cのある他の画素位置においても同様に第1の色信号Aにおける画素値を算出する水平方向信号算出手段と、上記所定画素l行m列B(l、m)の位置において、第1の色信号A、第2の色信号Bのそれぞれに対して垂直方向のローパスフィルタを介した値Avlpf(l、m)、Bvlpf(l、m)を算出し、前記垂直方向ローパスフィルタからの出力信号であるAvlpf(l、m)とBvlpf(l、m)との比と上記画素位置の画素値B(l、m)により、l行m列の第1の色信号Aである画素値A(l、m)を、A(l、m)=B(l、m)×{Avlpf(l、m)/Bvlpf(l、m)}により算出し、第3の色信号Cのある他の画素位置においても同様に第1の色信号Aにおける画素値を算出する垂直方向信号算出手段と、第1の色信号Aにおける上記所定画素l行m列の位置での上下左右の隣接画素の平均値よりl行m列の第1の色信号Aにおける画素値A(l、m)を算出する平均値算出手段とを備え、上記エッジ判定手段の出力に基づき、上記水平方向信号算出手段の出力または垂直方向信号算出手段出力、または、平均値算出手段からの出力より選択し、上記所定画素l行m列における第1の色信号Aの画素値A(l、m)を得て、撮像素子における画素数の第1の色信号を得ることにより、偽色、偽輪郭の軽減された画像を得ることができる。
【0078】
また、この発明に係る撮像装置によれば、前記第1の色信号を算出する手段が、上記エッジ判定手段の出力が所定画素l行m列位置においてエッジ成分を検出しないと判定した場合は上記平均値算出手段の出力を選択し、垂直方向に相関があると判定した場合は上記垂直方向信号算出手段の出力を選択し、水平方向に相関があると判定した場合は上記水平方向信号算出手段の出力を選択し、撮像素子における画素数の第1の色信号を得ることにより、偽色、偽輪郭の軽減された画像を得ることができる。
【0079】
また、この発明に係る撮像装置によれば、第2、第3の色信号を算出して復元する手段が、所定画素l行m列の位置(l=2i、m=2jまたはl=2i+1、m=2j+1)において、上記第1の色信号を算出する手段からの出力Aに対し水平方向のローパスフィルタを介した値A1hlpf(l、m)と垂直方向ローパスフィルタを介した値A1vlpf(l、m)を算出し、第2の色信号Bに対して水平方向のローパスフィルタを介した値B1hlpf(l、m)と第3の色信号Cに対して垂直方向のローパスフィルタを介した値C1vlpf(l、m)(または、第2の色信号Bに対して垂直方向のローパスフィルタを介した値B1vlpf(l、m)と第3の色信号Cに対して水平方向のローパスフィルタを介した値C1hlpf(l、m))とを算出し、A1hlpf(l、m)とB1hlpf(l、m)との比(またはC1hlpf(l、m)との比)と、A1vlpf(l、m)とC1vlpf(l、m)との比(または、B1vlpf(l、m)との比)と、第1の色信号を算出する手段からの出力Aにおける所定画素l行m列での画素値A(l、m)から、l行m列の第2の色信号Bと第3の色信号Cにおける画素値B(l、m)とC(l、m)を、B(l、m)=A(l、m)×{B1hlpf(l、m)/A1hlpf(l、m)}、C(l、m)=A(l、m)×{C1vlpf(l、m)/A1vlpf(l、m)}、(または、B(l、m)=A(l、m)×{B1vlpf(l、m)/A1vlpf(l、m)}、C(l、m)=A(l、m)×{C1hlpf (l、m)/A1hlpf(l、m)})により算出する信号算出手段を備えるとともに、上記l行m列の位置とは異なる所定画素x行y列の位置(x=2i+1、y=2jまたはx=2i、y=2j+1)において、上記第1の色信号を算出する手段からの出力Aに対し水平方向のローパスフィルタを介した値A2hlpf(x、y)、前記信号算出手段からの出力での第2の色信号Bに対し水平方向のローパスフィルタを介した値B2hlpf(x、y)を算出し、A2hlpf(x、y)とB2hlpf(x、y)の比と上記第1の算出手段からの出力Aでの画素x行y列での画素値A(x、y)により、x行y列の位置における第2の色信号B(x、y)を、B(x、y)=A(x、y)×{B2hlpf(x、y)/A2hlpf(x、y)}により算出し、第3の色信号Cにおいても同様にC信号を算出する水平方向信号算出手段と、上記第1の色信号を算出する手段からの出力Aに対し垂直方向のローパスフィルタを介した値A2vlpf(x、y)、前記信号算出手段からの出力での第2の色信号Bに対して垂直方向のローパスフィルタを介した値B2vlpf(x、y)を算出し、A2vlpf(x、y)とB2vlpf(x、y)の比と上記第1の算出手段からの出力Aでの画素x行y列での画素値A(x、y)により、x行y列の位置における第2の色信号B(x、y)を、B(x、y)=A(x、y)×{B2vlpf(x、y)/A2vlpf(x、y)}により算出し、第3の色信号Cにおいても同様にC信号を算出する垂直方向信号算出手段と、上記信号算出手段からの出力における第2、第3の色信号での所定画素x行y列の位置において、斜めに隣接する画素の平均値を算出する平均値算出手段とを備え、上記エッジ判定手段の出力に基づき、前記水平方向信号算出手段、垂直方向信号算出手段、平均値算出手段からのそれぞれの出力から選択して、上記所定画素x行y列での第2、第3の色信号を得て、撮像素子における画素数の第2、第3の色信号を得ることにより、偽色、偽輪郭の軽減された画像を得ることができる。
【0080】
さらに、この発明に係る撮像装置によれば、前記第2、第3の色信号を算出する手段が、上記エッジ判定手段の出力が所定画素x行y列の位置においてエッジ成分を検出しないと判定した場合は上記平均値算出手段の出力を選択し、垂直方向に相関があると判定した場合は上記垂直方向信号算出手段の出力を選択し、水平方向に相関があると判定した場合は上記水平方向信号算出手段の出力を選択し、撮像素子における画素数の第2、第3の色信号を得ることにより、偽色、偽輪郭の軽減された画像を得ることができる。
【図面の簡単な説明】
【図1】 この発明の実施の形態1における撮像素子の色フィルタの配列の一例を示す図である。
【図2】 この発明の実施の形態1による撮像装置の構成の一例を示すブロック図である。
【図3】 この発明の実施の形態1による撮像装置における第1のエッジ判定手段5とG成分復元手段6の構成の一例を示すブロック図である。
【図4】 この発明の実施の形態1による撮像装置における第2のエッジ判定手段8と第2のRB成分復元手段9の構成の一例を示すブロック図である。
【図5】 この発明の実施の形態1による撮像装置におけるG信号の復元の動作を説明するためのG信号の画素を示す図である。
【図6】 この発明の実施の形態1による撮像装置におけるG信号の復元の動作を説明するためのR信号およびB信号の画素を示す図である。
【図7】 この発明の実施の形態1による撮像装置における第1のRB成分復元装置7の動作を説明するためのR、B信号の画素を示す図である。
【図8】 この発明の実施の形態1による撮像装置における第2のエッジ判定手段8と第2のRB成分復元手段9の動作を説明するためのR、B信号の画素を示す図である。
【図9】 この発明の実施の形態1による撮像装置と従来の装置により処理したシミュレーション画像での水平方向の解像度での偽色レベルを示す図である。
【図10】 この発明の実施の形態1による撮像装置と従来の装置により処理したシミュレーション画像での垂直方向の解像度での偽色レベルを示す図である。
【図11】 この発明の実施の形態1による撮像装置により処理したシミュレーション画像での水平方向の解像度での輝度信号のレベルを示す図である。
【図12】 従来の装置により処理したシミュレーション画像での水平方向の解像度での輝度信号のレベルを示す図である。
【図13】 この発明の実施の形態1による撮像装置により処理したシミュレーション画像での垂直方向の解像度での輝度信号のレベルを示す図である。
【図14】 従来の装置により処理したシミュレーション画像での垂直方向の解像度での輝度信号のレベルを示す図である。
【図15】 この発明の実施の形態1による撮像素子の他の色フィルタ配列の例を示す図である。
【図16】 この発明の実施の形態1による撮像素子の他の色フィルタ配列の例を示す図である。
【図17】 この発明の実施の形態2による撮像装置の構成の一例を示すブロック図である。
【図18】 この発明の実施の形態2による撮像装置におけるG成分エッジ判定手段41の動作を説明するためのG信号の画素を示す図である。
【図19】 従来の撮像装置における撮像素子の色フィルタ配列の一例を示す図である。
【図20】 従来の撮像装置の構成の一例を示すブロック図である。
【図21】 従来の撮像装置の動作を説明するための各信号の画素を示す図である。
【図22】 従来の撮像装置の他の構成の例を示すブロック図である。
【符号の説明】
1 撮像素子、2 A/Dコンバータ、3 フレームメモリ、4 分離手段、5 第1のエッジ判定手段、6 G成分復元手段、7 第1のRB成分復元手段、8 第2のエッジ判定手段、9 第2のRB成分復元手段、11,30,42水平方向エッジ検出手段、12,31,43 垂直方向エッジ検出手段、13判定手段、14 平均値算出手段、15〜17 水平方向ローパスフィルタ、18,19 演算手段、20〜22 垂直方向ローパスフィルタ、23、24 演算手段、25 切り換え手段、32 判定手段、33 R平均値算出手段、34 R水平方向演算手段、35 R垂直方向演算手段、36 R切り換え手段、37 B平均値算出手段、38 B水平方向演算手段、39 B垂直方向演算手段、40 B切り換え手段、41 G成分エッジ判定手段、44判定手段。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to high image quality and downsizing in an imaging apparatus such as an electronic still camera.
[0002]
[Prior art]
Conventionally, in an imaging apparatus such as an electronic still camera, one image sensor (hereinafter referred to as a single-plate image sensor) is used for miniaturization. FIG. 19 is a diagram illustrating an example of a typical color filter array of a conventional image sensor. In the figure, R is an image sensor having a color filter having spectral characteristics that allows R light to pass through. Similarly, B and G are image sensors having respective color filters. As shown in FIG. 19, G and R are arranged every two pixels on the n line, and B and G are arranged every two pixels on the n + 1 line. Therefore, the R and B signals are obtained for every upper and lower four pixels (shaded portions in the figure), and the G signal is obtained for every two pixels. In order to improve the resolution by obtaining each signal of the number of pixels of the image sensor. Then, arithmetic processing is performed from the obtained pixel signals, and R, G, and B signals corresponding to the number of imaging elements are generated.
[0003]
FIG. 20 is a block diagram showing an example of the configuration of a conventional imaging device that generates R, G, and B signals from signals from the imaging device in the imaging device using the primary color filter shown in FIG. . In FIG. 20, 101 is an image sensor, 102 is a frame memory, 103 is a separating unit that separates signals in the frame memory 102 into R, G, and B signals, and 104 is an interpolating unit. As shown in FIG. 19, the pixel is composed of pixels R, G, and B.
[0004]
Next, the operation will be described. The pixel signals R, G, and B are read from the image sensor 101, and the pixel signals are taken into the frame memory 102. Each signal is separated by the separation means 103 from the signal taken into the frame memory 102 and sent to the interpolation means 104. Interpolation means 104 interpolates and generates pixel signals not obtained in each R, G, and B signal from adjacent pixel signals, and calculates and outputs RGB signals for the number of pixels of all image sensors.
[0005]
Here, an example of the interpolation method in the interpolation means 104 will be described with reference to FIG. The R, G, and B signals separated by the separation unit 103 are as shown in FIGS. 21A, 21B, and 21C, and the pixels indicated by G, R, and B in the drawing are obtained from the image sensor 102. On the other hand, it is a pixel signal from which no blank pixel is obtained. For the G signal (FIG. 21 (a)), in order to interpolate the signal g (hereinafter referred to as pixel position (n, m)) at the vertical n line and the horizontal mth pixel position, adjacent pixels in the vertical direction. Difference (| G (n−1, m) −G (n + 1, m) |) and the difference (| G (n, m−1) −G (n, m + 1) |) between the adjacent pixels in the left-right direction. Interpolation is performed using pixel signals in a direction in which the difference is small. For example, when the difference between adjacent pixels in the left-right direction is small, it is calculated as g (n, m) = (G (n, m−1) + G (n, m + 1)) / 2, and the difference between adjacent pixels in the vertical direction is calculated. Is small, it is calculated as g (n, m) = (G (n-1, m) + G (n + 1, m)) / 2.
[0006]
For the R and B signals (FIGS. 21B and 21C), first, horizontal pixel interpolation is performed, and then vertical interpolation is performed. For example, for R in FIG. 21B, interpolation is performed on vertical n−1 lines and n + 1 lines, and signals at pixel positions (n−1, m) (n + 1, m) are
r (n-1, m) = (R (n-1, m-1) + R (n-1, m + 1)) / 2
r (n + 1, m) = (R (n + 1, m-1) + R (n + 1, m + 1)) / 2
Next, the signals at the horizontal pixel positions m−1, m, and m + 1 are obtained by interpolating the pixels of the n lines up and down (n−1 and n + 1 lines). B can be obtained in the same manner.
[0007]
With the above interpolation method, R, G, and B signals of the number of pixels of all the image sensors can be calculated at the output of the interpolation unit 104.
[0008]
FIG. 22 shows an example of a conventional image pickup apparatus using a pixel mixing type image pickup device that reads out the upper and lower two pixels mixed and disclosed in Japanese Patent Application Laid-Open No. Hei 6-178307. It is a block diagram in the case where it is configured to interpolate and generate signals from elements from three horizontal scanning lines. In the figure, 105 is an image sensor, 106 is a frame memory, 107 is a signal selection circuit, 108 is a color interpolation circuit, and 109 is an RGB matrix. As shown in FIG. 22, the image sensor 105 is composed of four pixels A, B, C, and D (hereinafter, the number assigned to each pixel signal indicates a pixel position). A and B pixels are alternately arranged for each line so that they can be generated.
[0009]
Next, the operation will be described. Each pixel signal is read as it is without reading out the pixel mixture from the image sensor 105, and each pixel signal is taken into the frame memory 106. From the signals fetched into the frame memory 106, the signal selection circuit 107 selects adjacent three lines of signals and sends them to the color interpolation circuit 108. In the color interpolation circuit 108, the color signals A, B, C and D are generated by interpolation from the signals of the three vertical lines, and then output as RGB signals by the RGB matrix circuit 109.
[0010]
Here, the color interpolation circuit 108 generates and interpolates each color signal. This interpolation method will be described. For example, in the color signal interpolation generation of the n2 line, the signal of the vertical three lines n1, n2, and n3 is selected by the signal selection circuit 107 and sent to the color interpolation circuit 108, and the color signal obtained in the n2 line Are C and D pixels, and there are no A and B pixels. Therefore, the A and B pixels are interpolated from the n1 and n3 line signals in the vertical direction. However, since the A1 and B pixel positions are different in the n1 and n3 lines, the horizontal interpolation coefficient is changed. Become. Now, assuming that the color signals A ′, B ′, C ′, and D ′ are generated by interpolation from the five horizontal pixels before interpolation for the third pixel (n2, 3) of the n2 line of the color signal after interpolation, for example, , C ′, and D ′ are generated by interpolation with a weight only in the center in the horizontal direction,
C twenty three ′ = (C twenty one / 2 + C twenty three + C twenty five / 2) / 2
D twenty three ′ = (D twenty two + D twenty four ) / 2
And On the other hand, for A 'and B'
A twenty three ′ = (A 11 / 4 + A 13 / 2 + A 15 / 4) / 2 + (A 31 / 4 + A 33 / 2 + A 35 / 4) / 2
B twenty three ′ = (B 12 / 2 + B 14 / 2) / 2 + (B 32 / 2 + B 34 / 2) / 2
From this equation, the horizontal pixels can be weighted and interpolated.
[0011]
Next, in the interpolation generation of the n3 line color signal, the A and B pixels are generated by interpolation from the n3 line, and the C and D pixels are generated by interpolation from the n2 and n4 lines. That is, at the pixel position (3, 3), for example,
A 33 ′ = (A 32 + A 34 ) / 2
B 33 ′ = (B 31 / 2 + B 33 + B 35 / 2) / 2
C 33 ′ = (C twenty one / 4 + C twenty three / 2 + C twenty five / 4) / 2 + (C 41 / 4 + C 43 / 2 + C 45 / 4) / 2
D 33 ′ = (D twenty two / 2 + D twenty four / 2) / 2 + (D 42 / 2 + D 44 / 2) / 2
It becomes.
[0012]
Hereinafter, considering that the pixel arrangement of A and B is changed for each line, in the n4 line, for the pixel position (4, 3),
A 43 ′ = (A 31 / 4 + A 33 / 2 + A 35 / 4) / 2 + (A 51 / 4 + A 53 / 2 + A 55 / 4) / 2
B 43 ′ = (B 32 / 2 + B 34 / 2) / 2 + (B 52 / 2 + B 54 / 2) / 2
C 43 ′ = (C 41 / 2 + C 43 + C 45 / 2) / 2
D 43 ′ = (D 42 + D 44 ) / 2
In the n5 line, for the pixel position (5, 3),
A 53 ′ = (A 52 + A 54 ) / 2
B 53 ′ = (B 52 + B 54 ) / 2
C 53 ′ = (C 41 / 4 + C 43 / 2 + C 45 / 4) / 2 + (C 61 / 4 + C 63 / 2 + C 65 / 4) / 2
D 53 ′ = (D 42 / 2 + D 44 / 2) / 2 + (D 62 / 2 + D 64 / 2) / 2
It becomes. Thereafter, the color signals A ′, B ′, C ′, and D ′ are generated by sequentially repeating the interpolation method for the n2, n3, n4, and n5 lines.
[0013]
Accordingly, the color signal is interpolated and generated by the three vertical lines, so that it is possible to obtain a signal of the number of pixels of the image sensor with little deterioration in vertical resolution of the color signal. In the above description, the four color signals are described as A, B, C, and D. For example, the four color signals are Mg (magenta), G (green), Cy (cyan), and Ye (yellow). A color can be considered, and the interpolation coefficient in the color interpolation circuit 108 may be any coefficient that can interpolate and generate a color signal.
[0014]
[Problems to be solved by the invention]
A conventional imaging device is configured to generate a color signal by interpolation using pixel signals in horizontal adjacent pixels and upper and lower lines, and a space in a local region such as an edge in an image from the obtained color signal. The change in frequency is not taken into account, and there is a problem that false colors and false contours are generated.
[0015]
The present invention has been made to solve the above-described problems. The first color filter and the second color filter having the spectral sensitivity characteristic with respect to the first color signal in the upper and lower four pixels of the vertical two rows and two horizontal columns. The second color filter having the spectral sensitivity characteristic for the color signal is arranged in the first vertical row, and the second vertical row has the same pixel position as the first color filter in the first vertical row. A third color filter having a spectral sensitivity characteristic for the third color signal is arranged in a column, and a first color filter having a spectral sensitivity characteristic for the first color signal is arranged in the same column as the second color filter. In the imaging apparatus comprising an imaging device in which the color filters of the upper and lower four pixels are sequentially and repeatedly arranged in the vertical and horizontal directions, the first color filter At the position of Based on the edge component at the predetermined pixel position of the first color signal, the signal at the predetermined pixel position of the first color signal is calculated to restore the signal of the number of pixels of the image sensor, and the restored first color signal and Obtaining an imaging device that obtains an image with reduced false colors and false contours by calculating the second and third color signals based on the edge components and restoring signals corresponding to the number of pixels of the imaging device. Objective.
[0016]
[Means for Solving the Problems]
In the imaging device according to the present invention, the first color filter having the spectral sensitivity characteristic for the first color signal and the second spectral characteristic having the spectral sensitivity characteristic for the second color signal in the upper and lower four pixels in the vertical 2 rows and the horizontal 2 columns. Color filters are arranged in the first row, and in the second row, the spectral sensitivity characteristic for the third color signal in the same column as the pixel position in the first row where the first color filter is arranged And a first color filter having spectral sensitivity characteristics for the same first color signal as the first color filter is arranged in the same column as the second color filter. In the imaging apparatus provided with the imaging device in which the color filters of the upper and lower four pixels are sequentially and repeatedly arranged in the vertical and horizontal directions, the first color filter At the position of Predetermined pixel position of the first color signal of An edge determination unit that determines an edge component at a predetermined pixel position based on a peripheral pixel signal, and the first, second, and third color filters based on an output of the edge determination unit At the position of First calculation means for calculating a signal at the predetermined pixel position in the first color signal based on the first, second and third color signals, and based on the output of the edge determination means, the first calculation means Output and , Second calculating means for calculating signals in the second and third color signals from the second and third color signals, and the first, second, and third color signals of the number of pixels in the image sensor. To get.
[0017]
Further, in the imaging apparatus according to the present invention, the edge determination unit detects a horizontal edge component by calculating an absolute value of a difference between left and right adjacent pixels at a predetermined pixel position of the first color signal. Edge detection means; vertical edge detection means for detecting an edge component in the vertical direction by calculating an absolute value of a difference between upper and lower pixels at a predetermined pixel position of the first color signal; and And a determination unit that determines a horizontal or vertical edge component of the predetermined pixel based on an output from the direction edge detection unit.
[0018]
In the imaging apparatus according to the present invention, when the determination unit in the edge determination unit determines that the output from the horizontal edge detection unit or the output from the vertical edge detection unit is greater than a predetermined value, the predetermined unit If an edge component is detected in the peripheral pixels of the pixel, and if the output from the horizontal edge detection means is larger than the output from the vertical edge detection means, there is a correlation in the vertical direction, and the output from the horizontal edge detection means Is smaller than the output of the vertical edge detection means, it is determined that there is a correlation in the horizontal direction, and when the outputs from the horizontal edge detection means and the vertical edge detection means are both smaller than a predetermined value, It is determined that the edge component is not detected.
[0019]
Further, in the imaging apparatus according to the present invention, the first calculation means has the first color signal A, the first color signal A at the position of the predetermined pixel 1 row m column B (l, m) where the second color signal B exists. For each of the two color signals B, values Ahlpf (l, m) and Bhlpf (l, m) through a horizontal low-pass filter are calculated, and Ahlpf (l, m) which is an output signal from the horizontal low-pass filter is calculated. m) and Bhlpf (l, m) and the pixel value B (l, m) at the pixel position, the pixel value A (l, m) in the first color signal A of l rows and m columns is represented by A (L, m) = B (l, m) × {Ahlpf (l, m) / Bhlpf (l, m)}, and the same applies to the other pixel positions where the third color signal C is present. Horizontal direction signal calculation means for calculating a pixel value in the color signal A of the predetermined pixel 1 row m column B ( , M), values Avlpf (l, m) and Bvlpf (l, m) are calculated through a low-pass filter in the vertical direction for each of the first color signal A and the second color signal B, Based on the ratio of Avlpf (l, m) and Bvlpf (l, m), which are output signals from the vertical low-pass filter, and the pixel value B (l, m) at the pixel position, the first of 1 row and m column The pixel value A (l, m) in the color signal A is calculated by A (l, m) = B (l, m) × {Avlpf (l, m) / Bvlpf (l, m)} Similarly, at other pixel positions where the color signal C is present, the vertical direction signal calculation means for calculating the pixel value in the first color signal A, and the position of the predetermined pixel 1 row and m column in the first color signal A Pixels in the first color signal A of l rows and m columns from the average value of adjacent pixels in the upper, lower, left and right directions Average value calculating means for calculating A (l, m), and based on the output of the edge determining means, the output of the horizontal direction signal calculating means or the output of the vertical direction signal calculating means, or the average value calculating means A pixel value A (l, m) of the first color signal A in the predetermined pixel 1 row m column is obtained by selecting from the output, and a first color signal of the number of pixels in the image sensor is obtained.
[0020]
Further, in the imaging apparatus according to the present invention, when the first calculating unit determines that the output of the edge determining unit does not detect an edge component at the position of the predetermined pixel 1 row and m column, the average value calculating unit If it is determined that there is a correlation in the vertical direction, the output of the vertical direction signal calculation means is selected. If it is determined that there is a correlation in the horizontal direction, the output of the horizontal direction signal calculation means is selected. Thus, the first color signal of the number of pixels in the image sensor is obtained.
[0021]
Further, in the imaging apparatus according to the present invention, the second calculation means is a value obtained by passing a low-pass filter in the horizontal direction with respect to the output A from the first calculation means at the position of the predetermined pixel 1 row and m column. A1hlpf (l, m) and the value A1vlpf (l, m) through the vertical low-pass filter are calculated, and the value B1hlpf (l, m) through the horizontal low-pass filter is calculated for the second color signal B. The value C1vlpf (l, m) through the low-pass filter in the vertical direction for the third color signal C (or the value B1vlpf (l, m) through the low-pass filter in the vertical direction for the second color signal B and the first A value C1hlpf (l, m)) through a low-pass filter in the horizontal direction is calculated for the color signal C of 3, and the ratio of A1hlpf (l, m) to B1hlpf (l, m) (or C1hlpf ( l, m)), the ratio of A1vlpf (l, m) to C1vlpf (l, m) (or the ratio of B1vlpf (l, m)), and the output from the first calculation means From the pixel value A (l, m) at a predetermined pixel l row and m column in A, the pixel value B (l, m) and C (in the second color signal B and the third color signal C in l row and m column C l, m), B (l, m) = A (l, m) × {B1hlpf (l, m) / A1hlpf (l, m)}, C (l, m) = A (l, m) × {C1vlpf (l, m) / A1vlpf (l, m)}, (or B (l, m) = A (l, m) × {B1vlpf (l, m) / A1vlpf (l, m)} C ( l, m) = A (l, m) × {C1hlpf (l, m) / A1hlpf (l, m)}) The value A2hlpf (x, y) via the low-pass filter in the horizontal direction with respect to the output A from the first calculation means at the position of the predetermined pixel x row y column different from the position, the output from the signal calculation means A value B2hlpf (x, y) through a horizontal low-pass filter is calculated for the second color signal B, and the ratio of A2hlpf (x, y) to B2hlpf (x, y) and the first calculation means are calculated. The second color signal B (x, y) at the position of the x row and the y column is represented by B (x, y) = by the pixel value A (x, y) at the pixel x row y column in the output A from Horizontal direction signal calculation means for calculating A (x, y) × {B2hlpf (x, y) / A2hlpf (x, y)} and similarly calculating the C signal for the third color signal C; 1 through the low pass filter in the vertical direction for the output A from the calculation means Value A2vlpf (x, y), a value B2vlpf (x, y) passing through a low-pass filter in the vertical direction with respect to the second color signal B output from the signal calculation means, and A2vlpf (x, y) ) And B2vlpf (x, y) and the pixel value A (x, y) at the pixel x row y column at the output A from the first calculation means, the second at the position of x row y column The color signal B (x, y) is calculated by B (x, y) = A (x, y) × {B2vlpf (x, y) / A2vlpf (x, y)}. Similarly, the vertical direction signal calculation means for calculating the C signal, and the average of pixels adjacent obliquely at the position of the predetermined pixel x row y column in the second and third color signals in the output from the signal calculation means Average value calculating means for calculating a value, based on the output of the edge determining means The second and third color signals in the predetermined pixel x row y column are obtained by selecting from the respective outputs from the horizontal direction signal calculation unit, vertical direction signal calculation unit, and average value calculation unit, and an image sensor To obtain the second and third color signals of the number of pixels.
[0022]
Furthermore, in the imaging apparatus according to the present invention, when the second calculation unit determines that the output of the edge determination unit does not detect an edge component at the position of the predetermined pixel x row y column, the average value calculation unit When the output is selected and it is determined that there is a correlation in the vertical direction, the output of the vertical direction signal calculation means is selected. When it is determined that there is a correlation in the horizontal direction, the output of the horizontal direction signal calculation means is selected. The second and third color signals of the number of pixels in the image sensor are obtained.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.
Embodiment 1 FIG.
FIG. 1 is a diagram showing an example of a color filter array of an image pickup device in an electronic still camera according to Embodiment 1 of the present invention, and shows an image pickup device using a primary color filter and calling each photoelectric conversion device independently. ing. In the figure, G is a pixel position in the vertical direction 2i (i = 0, 1, 2,...) And horizontal direction 2j (j = 0, 1, 2,...) (Hereinafter referred to as pixel position (2i, 2j)). The first color filter having a spectral characteristic that passes the G signal at the pixel position (2i + 1, 2j + 1), and R is the spectral characteristic that passes the R signal at the pixel position (2i, 2j + 1). B is a third color filter having a spectral characteristic that allows the B signal to pass through, at a pixel position (2i + 1, 2j). As shown in FIG. 1, the R and B signals are obtained every 4 pixels in the upper and lower directions (the shaded area in the figure), and the G signal is obtained every 2 pixels. The upper and lower 4 pixels are repeatedly arranged in the vertical and horizontal directions. ing.
[0024]
FIG. 2 has the image sensor of the color filter array shown in FIG. Embodiment 1 1 is a block diagram illustrating a configuration of an imaging device in an electronic still camera according to FIG. In the figure, 1 is an image sensor comprising the color filter array shown in FIG. 1, 2 is an A / D converter, 3 is a frame memory, 4 is a pixel signal for R, G and B, and outputs each signal. Separating means 5 is a first edge determining means for determining an edge at a predetermined pixel in the G signal, and 6 is an image based on each signal from the separating means 4 and an output from the first edge determining means 5. G component restoration means for restoring G so as to obtain a G signal of the total number of pixels in the element 1. 7 is a G signal after restoration having a signal of the total number of pixels, which is an output of the G component restoration means 6, and pixel positions (2i, 2j) in R and B from the R and B signals from the separation means 4 and ( 2i + 1, 2j + 1) is a first RB component restoring means for restoring the pixels, 8 is a second edge judging means for judging an edge at a predetermined pixel in the G signal from the G component restoring means 6, and 9 is Based on the R and B signals from the first RB component restoration means 7 and the output from the second edge determination means 8, the pixel position at the pixel position (2i + 1, 2j) at R and the pixel position at B ( 2i, 2j + 1) is a second RB component restoring means for restoring the pixel B at 2i, 2j + 1).
[0025]
FIG. 3 is a block diagram showing a configuration example of the first edge determination unit 5 and the G component restoration unit 6. In the figure, 11 is a horizontal edge detecting means for detecting a difference between left and right pixels in a predetermined pixel of the G signal, that is, an edge component, and 12 is a vertical edge for detecting an edge component that is a difference between upper and lower pixels in the predetermined pixel of the G signal. The detection means 13 is a determination means for determining a change in the signal level in the peripheral pixels in the horizontal and vertical directions based on the outputs from the horizontal and vertical edge detection means 11 and 12, and outputting the determination result. The edge detection unit 11, the vertical edge detection unit 12 and the determination unit 13 constitute a first edge determination unit 5. 14 is an average value calculating means for calculating the average value of the upper, lower, left and right pixels in a predetermined pixel of the G signal, 15 to 17 are horizontal low-pass filters, and 18 is an R signal and horizontal low-pass filter 15. At the position of Output signal Ghlpf and horizontal low-pass filter 16 At the position of Arithmetic means for calculating the output signal Rhlpf and outputting a G signal at a pixel position (2i, 2j + 1) having a correlation in the horizontal direction, 19 is a B signal and a horizontal low-pass filter 15 At the position of Output signal Ghlpf and horizontal low-pass filter 17 At the position of This is a calculation means for performing calculation based on the output signal Bhlpf and outputting a G signal at a pixel position (2i + 1, 2j) having a correlation in the horizontal direction. 20 to 22 are vertical low-pass filters, and 23 is an R signal and vertical low-pass filter 20. At the position of Output signal Gvlpf and vertical low-pass filter 21 At the position of An arithmetic means for performing an operation based on the output signal Rvlpf and outputting a G signal at a pixel position (2i, 2j + 1) having a correlation in the vertical direction, 24 is a B signal and a vertical low-pass filter 20 At the position of Output signal Gvlpf and vertical low-pass filter 22 At the position of This is a calculation means for performing calculation based on the output signal Bvlpf and outputting a G signal at a pixel position (2i + 1, 2j) having a correlation in the vertical direction. Reference numeral 25 denotes a switching unit. Based on the result of determining the signal level change of the peripheral pixels from the first edge determination unit 5 and the pixel position, the G pixel signal is converted into the average value calculation unit 14 and the calculation units 18 and 19. Further, switching is selected based on signals from the calculation means 23 and 24 and the separation means 4.
[0026]
FIG. 4 is a block diagram showing a configuration example of the second edge determination unit 8 and the second RB component restoration unit 9. In the figure, the second edge determining means 8 includes a horizontal edge detecting means 30 for detecting a difference between left and right pixels in a predetermined pixel of the G signal, a vertical edge detecting means 31 for detecting a difference between upper and lower pixels, and the horizontal Then, the output from the vertical edge detection means 30 and 31 is used to determine a change in signal level in the peripheral pixels in the horizontal and vertical directions, and the determination result for the pixel position (2i + 1, 2j) of the R signal and the pixel position of the B signal It is comprised by the determination means 32 which outputs the determination result with respect to (2i + 1, 2j). In the second RB component restoring means 9 for restoring the pixel R at the pixel position (2i + 1, 2j) in R and the pixel B at the pixel position (2i, 2j + 1) in B, 33 is the R signal An R average value calculating means 34 for calculating an average value of pixels adjacent in the oblique direction is provided by means of a G signal from the G component restoring means 6 and an R signal from the first RB restoring means 7 so that the pixel position (2i + 1, R horizontal direction calculating means for calculating the pixel signal in 2j) with the adjacent pixels in the horizontal direction, and 35 for calculating the pixel signal at the pixel position (2i + 1, 2j) with the adjacent pixels in the vertical direction in the same manner as described above. The vertical direction calculating means 36 is an R switching means for switching the R pixel in accordance with the pixel position based on the determination result from the second edge determining means 8, and 37 is an image adjacent to the diagonal direction in the B signal. B average value calculating means 38 for calculating the average value of the pixel signal at the pixel position (2i, 2j + 1) in B based on the G signal from the G component restoring means 6 and the B signal from the first RB restoring means 7. B horizontal direction calculating means for calculating the pixel signal at the pixel position (2i, 2j + 1) in the same manner as described above. 40 Is a B switching means for switching the B pixel in accordance with the pixel position based on the determination result from the second edge determination means 8.
[0027]
Next, the operation will be described. The pixel signals R, G, and B are read from the image sensor 1, and their outputs are A / D converted by the A / D converter 2 and input to the frame memory 3. The R, G, and B signals are separated from the signal input to the frame memory 3 by the separating means 4, and the G signal is sent to the first edge determining means 5 and the G component restoring means 6, where the R, B signals Is sent to the G component restoring means 6 and the first RB restoring means 7. The first edge determination unit 5 determines an edge component at a predetermined pixel position in the G signal and sends the determination result to the G component restoration unit 6, and the G component restoration unit 6 outputs the determination result from the first edge determination unit 5. Based on the determination result, the G component pixel signal is restored so as to obtain the G signal of the total number of pixels in the image sensor 1. This operation will be described with reference to FIG.
[0028]
In the first edge determination unit 5, the G signal is input to the horizontal edge detection unit 11 and the vertical edge determination unit 12. Now, as shown in FIG. 1, the G component in the image sensor 1 is obtained at pixel positions (2i, 2j) and (2i + 1, 2j + 1). In order to obtain the G signal of the number of pixels of the image sensor, the pixel position ( 2i, 2j + 1) and (2i + 1, 2j) pixels are obtained. FIG. 5 is a diagram showing the G signal at each pixel position from the separating means 4, where G indicates the G signal from the image sensor 1, and g indicates the pixel from which no signal is obtained. Therefore, in the horizontal edge detection means 11 and the vertical edge determination means 12, the difference between the left and right and upper and lower pixels at the pixel positions (2i, 2j + 1) and (2i + 1, 2j) (g indicated by hatching in FIG. 5), that is, the edge Detect ingredients. The horizontal edge detection means 11 obtains the absolute value ΔH of the difference between the left and right pixels at the pixel position, and outputs this to the determination means 13, and the vertical edge detection means 12 obtains the difference between the upper and lower pixels. An absolute value ΔV is obtained and output to the determination means 13. For example, at the pixel position (2i, 2j + 1), the horizontal edge detection means 11
ΔH = | G (2i, 2j) −G (2i, 2j + 2) | (1)
And the vertical edge detection means 12
ΔV = | G (2i−1, 2j + 1) −G (2i + 1, 2j + 1) | (2)
And ΔH and ΔV are sent to the determination means 13. Hereinafter, the absolute value of the pixel difference is referred to as an edge component.
[0029]
The determination means 13 determines a change in the signal level in the peripheral pixels in the horizontal and vertical directions based on the horizontal edge component ΔH and the vertical edge component ΔV, and outputs a signal ed1 indicating the determination result. That is, when both ΔH and ΔV are equal to or smaller than a predetermined value th1, it is determined that there is no change in the signal level in the surrounding pixels, and for example, ed1 = 1 is output. On the other hand, if ΔH or ΔV is larger than the predetermined value th1, it is determined that there is an edge component in the pixel. Further, if ΔH> ΔV, it is determined that the correlation is high in the vertical direction, and ed1 = 2 is set, for example. When ΔH ≦ ΔV, it is determined that the correlation is high in the horizontal direction, and for example, ed1 = 3 is output. Note that it is not necessary to determine edge components at pixel positions (2i, 2j) and (2i + 1, 2j + 1) where G is obtained, and ed1 = 0 is output from the determination unit 13, for example. The output ed1 of the determination unit 13 is sent to the switching unit 25 in the G component restoration unit 6.
[0030]
Next, in the G component restoration unit 6, the G signal is input to the average value calculation unit 14, the horizontal low-pass filter 15, and the vertical low-pass filter 20. The average value calculating means 14 calculates an average value ga of the values of the four pixels in the vertical and horizontal directions at the pixel positions (2i, 2j + 1) and (2i + 1, 2j), and sends it to the switching means 25. The horizontal low-pass filter 15 outputs a value Ghlpf through a G horizontal low-pass filter, and the vertical low-pass filter 20 outputs a value Gvlpf through a G low-pass filter. For example, the pixel position (2i, 2j + 1) is calculated as follows:
Ghlpf = {G (2i, 2j) + G (2i, 2j-2)
+ G (2i, 2j + 2) + G (2i, 2j + 4)} / 4 (3)
Gvlpf = {G (2i-3,2j + 1) + G (2i-1,2j + 1)
+ G (2i + 1, 2j + 1) + G (2i + 3, 2j + 1)} / 4 (4)
The output Ghlpf of the horizontal low-pass filter 15 is sent to calculating means 18 and 19, and the output Gvlpf of the vertical low-pass filter 20 is sent to calculating means 23 and 24.
[0031]
On the other hand, the R signal is input to the horizontal low-pass filter 16 and the vertical low-pass filter 21 to output values Rhlpf and Rvlpf via the horizontal and vertical low-pass filters, and the horizontal low-pass filter 17 for the B signal. Input to the vertical low-pass filter 22 and output values Bhlpf and Bvlpf via the horizontal and vertical low-pass filters, respectively. Here, the R component in the image sensor 1 is obtained at the pixel position (2i, 2j + 1) as shown in FIG. 1, and the R signal at each pixel position from the separating means 4 is as shown in FIG. 6 (a). Further, the B component is obtained at the pixel position (2i + 1, 2j), and the B signal at each pixel position from the separating means 4 is as shown in FIG. A blank pixel is a pixel from which no signal is obtained by the image sensor. Therefore, at the pixel position (2i, 2j + 1), the value of the R signal through the horizontal and vertical low-pass filters 16 and 21 is obtained by the following equation, for example.
Figure 0003926019
Further, at the pixel position (2i + 1, 2j), the value of the B signal through the horizontal and vertical low-pass filters 17 and 22 is obtained by the following equation, for example.
Figure 0003926019
[0032]
The above equations (3) to (8) are calculation examples of the horizontal low-pass filter and the vertical low-pass filter output, and the number of taps and coefficients of the filter are not limited to the above equations (3) to (8). Other tap numbers and coefficients may be used.
[0033]
The output Rhlpf from the horizontal low-pass filter 16 is sent to the calculating means 18, and the R signal and the output signal Ghlpf from the horizontal low-pass filter 15 are also input to the calculating means 18, and the pixel position (2i, 2j + 1). ) For the G signal gh1 (2i, 2j + 1) having the horizontal correlation
gh1 (2i, 2j + 1) = R (2i, 2j + 1) × (Ghlpf / Rhlpf) (9)
And is sent to the switching means 25. The output Rvlpf from the vertical low-pass filter 21 is sent to the calculating means 23. The R signal and the output signal Gvlpf from the vertical low-pass filter 20 are also input to the calculating means 23, and the pixel position (2i, 2j + 1). G signal gv1 (2i, 2j + 1) having a correlation in the vertical direction at
gv1 (2i, 2j + 1) = R (2i, 2j + 1) × (Gvlpf / Rvlpf) (10)
And is sent to the switching means 25.
[0034]
Similarly, the output Bhlpf from the horizontal low-pass filter 17 is sent to the calculating means 19, and the B signal and the output signal Ghlpf from the horizontal low-pass filter 15 are also input to the calculating means 19, and the pixel position (2i + 1, Gj gh2 (2i + 1, 2j) having a horizontal correlation in 2j)
gh2 (2i + 1, 2j) = B (2i + 1, 2j) × (Ghlpf / Bhlpf) (11)
And is sent to the switching means 25. The output Bvlpf from the vertical low-pass filter 22 is sent to the calculating means 24, and the B signal and the output signal Gvlpf from the vertical low-pass filter 20 are also input to the calculating means 24, and the pixel position (2i + 1, 2j). G signal gv2 (2i + 1, 2j) correlated in the vertical direction at
gv2 (2i + 1, 2j) = B (2i + 1, 2j) × (Gvlpf / Bvlpf) (12)
And is sent to the switching means 25.
[0035]
The calculation methods according to the above formulas (9) to (12) are based on the premise that the color change in the local region is small, that is, the ratio of the color signals in the local region is substantially equal, Alternatively, the ratio of each color signal in a local region in the vertical direction is given by a ratio of values of R, G, B through a low-pass filter in the horizontal or vertical direction.
[0036]
In the switching means 25, based on the result ed1 and the pixel position of the peripheral pixel signal level change from the determination means 13 in the first edge determination means 5, the G pixel signal is converted into the average value calculation means 14 and the calculation means 18. , 19 and arithmetic means 23 and 24, and signals from the separating means 4 are selected and switched. That is, when the output signal ed1 by the determination unit 13 indicates “2”, that is, it is determined that there is an edge component in the pixel, but when ΔH> ΔV and it is determined that the correlation is high in the vertical direction, A signal of a computing means that outputs G having a correlation in the vertical direction at the pixel position is selected. When the output signal ed1 by the determination unit 13 indicates '3', that is, when it is determined that there is an edge component in the pixel, but when ΔH ≦ ΔV and it is determined that the correlation is high in the horizontal direction, each pixel The signal of the computing means that outputs G having a correlation in the horizontal direction at the position is selected. Further, when the output signal ed1 by the determination unit 13 indicates “1”, it is determined that both ΔH and ΔV are equal to or less than a predetermined value th1, and there is no change in the signal level in the peripheral pixels. The G signal ga by the average value calculation means 14 is selected without considering the change in frequency.
[0037]
That is, in the switching means 25, in the case of the G signal g (2i, 2j + 1) at the pixel position (2i, 2j + 1), when the output ed1 = 1 from the determination means 13, the G signal ga from the average value calculation means 14 is When G = 2, the G signal gv1 from the computing means 23 is selected. When ed = 3, the G signal gh1 from the computing means 18 is selected, while the G signal g (2i + 1, 2j) at the pixel position (2i + 1, 2j) is selected. ) In the case of the output ed1 = 1 from the determination means 13, the G signal ga from the average value calculation means 14, the G signal gv2 from the calculation means 24 in the case of ed = 2, and the calculation in the case of ed = 3. The G signal gh2 from the means 19 is selected. At the pixel positions (2i, 2j) and (2i + 1, 2j + 1) where G is obtained, for example, ed1 = 0 is output from the determination means 13, and at this time, the G signal from the separation means 4 is output. Just output as it is.
[0038]
Therefore, the G component restoration means 6 outputs G signals at the respective pixel positions (2i, 2j), (2i, 2j + 1), (2i + 1, 2j), (2i + 1, 2j + 1), that is, A G signal having a resolution corresponding to the number of pixels can be obtained. The output G0 from the G component restoring means 6 is then sent to the first RB component restoring means 7, the second edge determining means 8 and the second RB component restoring means 9.
[0039]
Next, in the first RB component restoration means 7, the G signal having the R and B signals (FIGS. 6A and 6B) from the separation means 4 and the signals of all the pixels from the G component restoration means 6. With G0, the pixels at the pixel positions (2i, 2j) and (2i + 1, 2j + 1) in the R and B signals are restored and generated. FIGS. 7A and 7B are diagrams showing R and B of each pixel for explaining the calculation of the R and B signals in the first RB component restoring means 7, in which r and b are the first The R and B pixel signals restored and generated by the RB component restoring means 7 are shown. At the pixel position (2i, 2j) in the R signal, pixels in the 2i line adjacent in the horizontal direction are obtained from the image sensor 1, and the G signal is restored by the G component restoring means 6 for all pixels. (FIG. 5). Therefore, at the pixel position (2i, 2j), values G1hlpf and R1hlpf through the low-pass filter in the horizontal direction with respect to the G and R signals are, for example,
Figure 0003926019
Based on the ratio of G1hlpf and R1hlpf and the pixel G (2i, 2j), the R signal r (2i, 2j) at the pixel position (2i, 2j) is calculated by the following equation.
r (2i, 2j) = G (2i, 2j) × (R1hlpf / G1hlpf)
= G (2i, 2j) x (R (2i, 2j-1) + R (2i, 2j + 1))
/ (G (2i, 2j-1) + g (2i, 2j + 1)) (15)
[0040]
In addition, at the pixel position (2i + 1, 2j + 1), 2j + 1 columns of pixels adjacent in the vertical direction are obtained from the image sensor 1, and the G signal is restored by the G component restoring means 6 so that all pixels are restored. At the pixel position (2i + 1, 2j + 1), values G1vlpf and R1vlpf through a low-pass filter in the vertical direction with respect to the G and R signals are, for example,
Figure 0003926019
Based on the ratio of G1vlpf and R1vlpf and the pixel G (2i + 1, 2j + 1), the R signal r (2i + 1, 2j + 1) at the pixel position (2i + 1, 2j + 1) is calculated by the following equation.
r (2i + 1, 2j + 1) = G (2i + 1, 2j + 1) × (R1vlpf / G1vlpf)
= G (2i + 1,2j + 1) × (R (2i, 2j + 1) + R (2i + 2,2j + 1))
/ (G (2i, 2j + 1) + g (2i + 2, 2j + 1)) (18)
[0041]
Similarly, with respect to the B signal, 2j columns of pixels adjacent in the vertical direction are obtained from the image sensor 1 at the pixel position (2i, 2j). It has been restored (FIG. 5). Therefore, at the pixel position (2i, 2j), the values G1vlpf and B1vlpf through the low-pass filter in the vertical direction with respect to the G and B signals are, for example,
Figure 0003926019
The B signal b (2i, 2j) at the pixel position (2i, 2j) is calculated from the ratio of G1vlpf and B1vlpf and the pixel G (2i, 2j) by the following equation.
b (2i, 2j) = G (2i, 2j) × (B1vlpf / G1vlpf)
= G (2i, 2j) x (B (2i-1, 2j) + B (2i + 1, 2j))
/ (G (2i-1,2j) + g (2i + 1,2j)) (21)
[0042]
Further, at the pixel position (2i + 1, 2j + 1), pixels in the 2i + 1 line that are adjacent in the horizontal direction are obtained from the image sensor 1, and the G signal is restored by the G component restoring means 6 in all pixels. Therefore, at the pixel position (2i + 1, 2j + 1), values G1hlpf and B1hlpf through the low-pass filter in the horizontal direction with respect to the G and B signals are, for example,
Figure 0003926019
The B signal b (2i + 1, 2j + 1) at the pixel position (2i + 1, 2j + 1) is calculated from the ratio of G1hlpf and B1hlpf and the pixel G (2i + 1, 2j + 1) by the following equation.
b (2i + 1, 2j + 1) = G (2i + 1, 2j + 1) × (B1hlpf / G1hlpf)
= G (2i + 1,2j + 1) × (B (2i + 1,2j) + B (2i + 1,2j + 2))
/ (G (2i + 1, 2j) + g (2i + 1, 2j + 2)) (24)
[0043]
Note that the above formulas (15), (18), (21), and (24) are based on the premise that there is little change in the color signal in the local region as in the restoration method in G. This is because the ratio is almost equal in the local region. The formulas for calculating G1hlpf, G1vlpf, R1hlpf, R1vlpf, B1hlpf, and B1vlpf in the equations (13) to (24) are examples of calculating the low-pass filter outputs in the horizontal and vertical directions. The number of taps and the coefficient may be other than the tap. Then, R, r, B, and b pixel signals R 1 and B 1 shown in FIG. 7 are output from the first RB component restoring means 7 and sent to the second RB component restoring means 9.
[0044]
Next, the operations of the second RB component restoration unit 9 and the second edge determination unit 8 will be described with reference to FIG. In the second edge determination means 8, the G signal G0 output from the G component restoration means 6 is input to the horizontal direction edge detection means 30 and the vertical direction edge determination means 31, and the pixel positions (2i, 2j + 1) and (2i + 1). 2j), the difference between the left and right and upper and lower pixels, that is, the edge component is detected. The horizontal edge detection means 30 obtains the absolute value ΔH of the difference between the left and right pixels at the pixel position, and outputs this to the determination means 32. The vertical edge detection means 31 obtains the difference between the upper and lower pixels. An absolute value ΔV is obtained and output to the determination means 32. For example, at the pixel position (2i, 2j + 1), the horizontal edge detection means 30
ΔH = | G (2i, 2j) −G (2i, 2j + 2) |
And the vertical edge detection means 31
ΔV = | G (2i−1,2j + 1) −G (2i + 1,2j + 1) |
And ΔH and ΔV are sent to the determination means 32. Hereinafter, the absolute value of the pixel difference is referred to as an edge component.
[0045]
The determination means 32 determines a change in the signal level in the peripheral pixels in the horizontal and vertical directions based on the horizontal edge component ΔH and the vertical edge component ΔV, and outputs a signal indicating the determination result. Here, pixel signals other than the pixel position (2i + 1, 2j) are obtained in the R signal R1 by the first RB component restoring means 7 (FIG. 7 (a)), and the pixel position ( Pixel signals other than 2i, 2j + 1) are obtained (FIG. 7B). Therefore, as a result of determining the edge component at the pixel position (2i + 1, 2j), edr is output for the restoration of the pixel position (2i + 1, 2j) of the R signal, while the edge component at the pixel position (2i, 2j + 1) is output. The result edb is output for restoration of the pixel position (2i, 2j + 1) of the B signal. That is, in the determination result edr at the pixel position (2i + 1, 2j) and the determination result edb at the pixel position (2i, 2j + 1), when both ΔH and ΔV are equal to or smaller than a predetermined value th2, the signal level of the surrounding pixels It is determined that there is no change, and for example, output is performed as edr = 1 and edb = 1. On the other hand, if ΔH or ΔV is greater than a predetermined value th2, it is determined that there is an edge component in the pixel. Further, if ΔH> ΔV, it is determined that the correlation is high in the vertical direction. For example, edr = 2 And edb = 2 are output, and when ΔH ≦ ΔV, it is determined that the correlation is high in the horizontal direction, and for example, edr = 3 and edb = 3 are output. Note that it is not necessary to determine the edge component at the pixel position where R and B are obtained, and edr = 0 and edb = 0 are output from the determination unit 32, for example. The output edr of the determination means 32 is sent to the R switching means 36 in the second RB component restoration means 9, and the output edb is sent to the B switching means 40 in the second RB component restoration means 9.
[0046]
Next, in the second RB component restoring means 9, the R signal output R1 from the first RB component restoring means 7 is an R average value calculating means 33, an R horizontal direction calculating means 34, an R vertical direction calculating means 35, R Input to the switching means 36. FIG. 8A is a diagram for explaining the restoration of the R signal at the pixel position (2i + 1, 2j) in the second RB component restoration means 9, and the pixels indicated by R and r in the figure are imaging elements. The obtained signal and the pixel signal restored by the first RB restoration means 7, and therefore, the signal of the r ′ pixel indicated by the oblique line is obtained. First, in the R average value calculation means 33, four pixels R (2i, 2j-1), R (2i, 2j + 1), R (2i + 2) that are adjacent in the diagonal direction at the pixel position (2i + 1, 2j) in the R signal R1. 2j-1) and R (2i + 2, 2j + 1) are calculated by the following equation.
ra (2i + 1, 2j) = {R (2i, 2j-1) + R (2i, 2j + 1)
+ R (2i + 2,2j-1) + R (2i + 2,2j + 1)} / 4
[0047]
The R horizontal direction calculating means 34 also receives the G signal G0 (FIG. 5) from the G component restoring means 6, and the value of the R and G signal via the horizontal low-pass filter at the pixel position (2i + 1, 2j). R2hlpf, G2hlpf, for example,
Figure 0003926019
Based on the ratio of R2hlpf and G2hlpf and the pixel g (2i + 1, 2j), the pixel value rh having a correlation in the horizontal direction of (2i + 1, 2j) is calculated and output by the following equation.
rh (2i + 1, 2j) = g (2i + 1, 2j) × (R2hlpf / G2hlpf)
= G (2i + 1, 2j)
X (r (2i + 1,2j-1) + r (2i + 1,2j + 1))
/ (G (2i + 1,2j-1) + G (2i + 1,2j + 1)) (27)
[0048]
The R vertical direction calculation means 35 also receives the G signal G0 from the G component restoration means 6, and at the pixel positions (2i + 1, 2j) in the R and G signals, the values R2vlppf and G2vlppf are passed through the low-pass filter in the vertical direction. For example,
R2vlpf = (r (2i, 2j) + r (2i + 2, 2j)) / 2 (28)
G2vlpf = (G (2i, 2j) + G (2i + 2, 2j)) / 2 (29)
Based on the ratio of R2vlpf and G2vlpf and the pixel g (2i + 1, 2j), a pixel value rv having a correlation in the vertical direction of (2i + 1, 2j) is calculated and output by the following equation.
rv (2i + 1, 2j) = g (2i + 1, 2j) × (R2vlpf / G2vlpf)
= G (2i + 1, 2j) x (r (2i, 2j) + r (2i + 2, 2j))
/ (G (2i, 2j) + G (2i + 2, 2j)) (30)
[0049]
Note that, as described above, the above equations (27) and (30) are based on the premise that there is little change in the color signal in the local region, that is, the ratio of each signal is almost equal in the local region. In addition, the calculation formulas of G2hlpf, G2vlpf, R2hlpf, and R2vlpf in the formulas (25) to (30) are examples of calculating the low-pass filter output in the horizontal and vertical directions, and the number of taps and coefficients of the filter are limited to the above Instead, other tap numbers and coefficients may be used. The outputs rh and rv are both sent to the R switching means 36.
[0050]
In the R switching unit 36, the signal at the pixel position (2i + 1, 2j) is converted to the R average value calculating unit 33 based on the result edr of determining the signal level change of the peripheral pixels from the determining unit 32 in the second edge determining unit 8. , R horizontal direction calculating means 34, R vertical direction calculating means 35, and signals from the first RB component restoring means 7 are selected and switched. That is, when the output signal edr by the determination unit 32 indicates “2”, that is, when it is determined that there is an edge component in the pixel, but ΔH> ΔV and it is determined that the correlation in the vertical direction is high, the vertical The signal rv of the R vertical direction calculation means 35 that outputs R having a correlation in the direction is selected. When the output signal edr by the determination unit 32 indicates '3', that is, when it is determined that there is an edge component in the pixel, but when ΔH ≦ ΔV and it is determined that the correlation in the horizontal direction is high, the horizontal direction The signal of the R horizontal direction calculation means 34 that outputs R having a correlation to is selected. Furthermore, when the output signal edr by the determination unit 32 indicates “1”, both ΔH and ΔV are equal to or less than a predetermined value th2, and it is determined that there is no change in the signal level in the surrounding pixels. The R signal ra by the R average value calculation means 33 is selected without considering the change in frequency. It should be noted that at the pixel positions (2i, 2j), (2i, 2j + 1), (2i + 1, 2j + 1) where R is obtained, for example, edr = 0 is output from the determination means 32. The R signal from the RB component restoring means 7 may be output as it is.
[0051]
The processing for the B signal is the same as the processing for the R signal. In the second RB component restoring means 9, the B signal output B1 from the first RB component restoring means 7 is the B average value calculating means 37, B horizontal direction. The calculation means 38, the B vertical direction calculation means 39, and the B switching means 40 are input. FIG. 8B is a diagram for explaining the restoration of the B signal at the pixel position (2i, 2j + 1) in the second RB component restoration means 9, and the pixels indicated by B and b in the figure are imaging elements. The obtained signal and the pixel signal restored by the first RB restoration means 7, and therefore, the signal of the b ′ pixel indicated by the oblique line is obtained. First, the B average value calculation means 37 calculates the average value ba of four pixels adjacent in the diagonal direction at the pixel position (2i, 2j + 1) in the B signal B1 by the following equation.
ba (2i, 2j + 1) = {B (2i-1, 2j) + B (2i-1, 2j + 2)
+ B (2i + 1, 2j) + B (2i + 1, 2j + 2)} / 4
[0052]
The B horizontal direction calculation means 38 also receives the G signal G0 (FIG. 5) from the G component restoration means 6, and at the pixel position (2i, 2j + 1) in the B and G signals, the value via the horizontal low-pass filter. B2hlpf and G3hlpf are, for example, B2hlpf = (b (2i, 2j) + b (2i, 2j + 2)) / 2 (31)
G3hlpf = (G (2i, 2j) + G (2i, 2j + 2)) / 2 (32)
Based on the ratio of B2hlpf and G3hlpf and the pixel g (2i, 2j + 1), a pixel value bh having a correlation in the horizontal direction of (2i, 2j + 1) is calculated and output by the following equation.
bh (2i, 2j + 1) = g (2i, 2j + 1) × (B2hlpf / G3hlpf)
= G (2i, 2j + 1) × (b (2i, 2j) + b (2i, 2j + 2))
/ (G (2i, 2j) + G (2i, 2j + 2)) (33)
[0053]
In the B vertical direction calculating means 39, the G signal G0 from the G component restoring means 6 is also input, and the values B2vlpf and G3vlpf through the vertical low-pass filter are obtained at the pixel position (2i, 2j + 1) in the B and G signals. For example,
Figure 0003926019
Based on the ratio of B2vlpf and G3vlpf and the pixel g (2i, 2j + 1), a pixel value bv having a correlation in the vertical direction of (2i, 2j + 1) is calculated by the following equation.
bv (2i, 2j + 1) = g (2i, 2j + 1) × (B2vlpf / G3vlpf)
= G (2i, 2j + 1) * (b (2i-1, 2j + 1) + b (2i + 1, 2j + 1))
/ (G (2i-1,2j + 1) + G (2i + 1,2j + 1)) (36)
[0054]
Note that, as described above, the above formulas (33) and (36) are based on the premise that the change of the color signal in the local region is small, that is, the ratio of each signal is almost equal in the local region. In addition, the calculation formulas for G3hlpf, G3vlpf, B2hlpf, and B2vlpf in the equations (31) to (36) are examples of calculating the low-pass filter output in the horizontal and vertical directions, and the number of taps and coefficients of the filter are not limited to the above. Instead, other tap numbers and coefficients may be used. The outputs bh and bv are both sent to the B switching means 40.
[0055]
In the B switching unit 40, the signal at the pixel position (2i, 2j + 1) is converted to the B average value calculating unit 37 based on the result edb of determining the signal level change of the peripheral pixels from the determining unit 32 in the second edge determining unit 8. , B horizontal direction calculating means 38, B vertical direction calculating means 39, and signals from the first RB component restoring means 7 are selected and switched. That is, when the output signal edb by the determination unit 32 indicates “2”, that is, when it is determined that there is an edge component in the pixel but ΔH> ΔV and it is determined that the correlation in the vertical direction is high, the vertical The signal bv of the R vertical direction calculation means 39 that outputs R having a correlation in the direction is selected. When the output signal edb by the determination unit 32 indicates “3”, that is, when it is determined that there is an edge component in the pixel but ΔH ≦ ΔV and it is determined that the correlation in the horizontal direction is high, the horizontal direction The signal of the B horizontal direction calculation means 38 that outputs B having a correlation to is selected. Further, when the output signal edb by the determination unit 32 indicates “1”, both ΔH and ΔV are equal to or less than a predetermined value th2, and it is determined that there is no change in the signal level in the surrounding pixels. The B signal ba by the B average value calculating means 37 is selected without considering the change in frequency. For example, edb = 0 is output from the determination unit 32 at the pixel positions (2i, 2j), (2i + 1, 2j), and (2i + 1, 2j + 1) from which B is obtained. The B signal from the RB component restoring means 7 may be output as it is.
[0056]
From the above, the second RB component restoring means 9 outputs R and B signals at the respective pixel positions (2i, 2j), (2i, 2j + 1), (2i + 1, 2j), (2i + 1, 2j + 1). That is, it becomes possible to obtain R and B signals having a resolution equivalent to the number of pixels of the image sensor. The G component restoration means 6 has already obtained a signal having a resolution equivalent to the number of pixels of the image sensor. Therefore, the G component is used to determine the edge component in the horizontal and vertical directions and the spatial frequency in the local region. And the generation of each color signal is switched based on the determination result, and the signal is calculated based on the ratio of the color signal in the local area when the edge component exceeds a predetermined value. When the value is equal to or less than a predetermined value, the average value of the surrounding pixels is obtained, and therefore, an image with reduced false color and false contour is obtained.
[0057]
FIG. 9 shows the relationship between the false color level (color-alias level, vertical axis) generated in the horizontal direction when the zone plate is processed by image simulation, and the resolution (horizontal axis). The false color level after processing according to the prior art is indicated by a wavy line, and the false color level after processing according to the first embodiment shown in FIG. 2 is indicated by a solid line. Although many false colors are generated in the processing according to the conventional technique, the generation of false colors is suppressed in the processing according to the first embodiment. When the level of the false color signal in the horizontal direction is integrated and compared in each processing, there is a suppression effect of about 18.4 dB.
[0058]
FIG. 10 shows the relationship between the false color level (color-alias level, vertical axis) generated in the vertical direction and the resolution (horizontal axis). Similarly to the above, the prior art according to FIG. The false color level after processing according to FIG. 2 is indicated by a wavy line, and the false color level after processing according to the first embodiment shown in FIG. 2 is indicated by a solid line. Although many false colors are generated in the processing according to the conventional technique, the generation of false colors is suppressed in the processing according to the first embodiment. When the levels of the false color signals in the vertical direction are integrated and compared, about There is a suppression effect of 18.5 dB.
[0059]
Further, FIG. 11 and FIG. 12 are diagrams in which the luminance signal level in the horizontal direction when the zone plate is processed by image simulation is calculated from the RGB signal, and the vertical axis represents the resolution and the horizontal axis represents the resolution. FIG. 11 shows the case after the processing according to the first embodiment, and FIG. 12 shows the case after the processing according to the conventional technique shown in FIG. FIG. 13 shows the relationship between the luminance signal level and the resolution in the vertical direction after processing according to the first embodiment shown in FIG. 2, and FIG. 14 shows the case after processing according to the conventional technique shown in FIG. In both the horizontal and vertical directions, the processing according to the first embodiment has a lower level of reduction and the horizontal and vertical resolution is improved as compared with the processing according to the conventional technique.
[0060]
In the first embodiment, the arrangement of the color filters of the image sensor 1 is the primary color filter shown in FIG. 1, and each photoelectric conversion element is an image sensor that calls each photoelectric conversion element in a pixel position (2i, 2j). And a pixel position (2i + 1, 2j + 1) (i = 0, 1, 2,..., J = 0, 1, 2,...) With a first color filter having spectral characteristics that allow the G signal to pass through the pixel position ( 2i, 2j + 1) is arranged with a second color filter having a spectral characteristic that allows an R signal to pass, and a third color filter having a spectral characteristic that allows a B signal to pass at a pixel position (2i + 1, 2j). As described above, the spectral characteristics of the first, second, and third color filters in the image sensor are not limited to R, G, and B. For example, a pixel mixture type image sensor may be used. As shown, pixel position (2i, 2j) and A first color filter having spectral characteristics that allows the first signal A to pass through to a prime position (2i + 1, 2j + 1) (i = 0, 1, 2,..., J = 0, 1, 2,...) A second color filter having a spectral characteristic that allows the second signal B to pass through the position (2i, 2j + 1) and a third color filter that has the spectral characteristic that allows the third signal C to pass through the pixel position (2i + 1, 2j). It is only necessary to reconstruct RGB color signals after restoring the A, B, and C signals corresponding to the number of pixels of the image sensor by the processing of the first embodiment, and the same effects as described above can be obtained. .
[0061]
In the first embodiment, the arrangement of the color filters of the image sensor shown in FIGS. 1 and 15 is the pixel position (2i, 2j) and the pixel position (2i + 1, 2j + 1) (i = 0, 1, 2,..., J = 0, 1, 2,...) When the first color filter is arranged at the pixel position (2i, 2j + 1), the third color filter is arranged at the pixel position (2i + 1, 2j) ( 1 and 15, the pixel position (2i, 2j + 1) and the pixel position (2i + 1, 2j) (i = 0, 1, 2,..., J = (0, 1, 2,...), The first color filter is arranged at the pixel position (2i, 2j), and the third color filter is arranged at the pixel position (2i + 1, 2j + 1) (FIG. 16 also has the same effect, and the first line is shown in the n-line every four upper and lower pixels. The filter and the second color filter are arranged, the third color filter and the first color filter are arranged in the n + 1 line, and the first filter is arranged in the diagonal pixels in the upper and lower lines. .
[0062]
In the first embodiment, the signal indicating the determination result in the first edge determination unit 5 and the second edge determination unit 8 is “1” when both ΔH and ΔV are equal to or less than a predetermined value. In the case where it is determined that there is an edge component, “2” is set when ΔH> ΔV, “3” is set when ΔH ≦ ΔV, and “0” is output at the pixel position where the pixel signal is obtained. Although described, the present invention is not limited to this, and any other value may be used as long as a signal that can distinguish each determination result is output.
[0063]
In the first embodiment, the case where the process of the configuration in FIG. 2 is performed by hardware has been described. Needless to say, the same process can be performed by software in the imaging apparatus. Has the same effect as.
[0064]
Embodiment 2. FIG.
In the first embodiment, the first edge determination means 5 determines the edge components in the vertical and horizontal directions at the pixel positions (2i, 2j + 1) and (2i + 1, 2j) in the G signal, and the second edge determination means 8 Is configured to determine an edge component at the pixel position (2i + 1, 2j) in the G signal for restoration of the R signal and an edge component at the pixel position (2i, 2j + 1) in the G signal for restoration of the B signal. However, in both cases, edge components of left and right and upper and lower pixels at pixel positions (2i, 2j + 1) and (2i + 1, 2j) are detected, and upper, lower, left and right pixel signals at these pixel positions are obtained from the image sensor. Therefore, the same edge component is obtained. Therefore, as shown in FIG. 17, it is possible to adopt a configuration in which the edge component at the pixel positions (2i, 2j + 1) and (2i + 1, 2j) in the G signal is determined by one G component edge determination means.
[0065]
In FIG. 17, 1 to 4, 6 to 7 and 9 are the same as those in the image pickup apparatus in the first embodiment, 41 is a G component edge determining means, horizontal edge detecting means 42, vertical direction. An edge detection unit 43 and a determination unit 44 are included.
[0066]
Next, the operation will be described. Each pixel signal R, G, B is read from the image sensor 1, A / D converted by the A / D converter 2, input to the frame memory 3, and each R, G, B signal is separated by the separating means 4, G Since the operation of generating and restoring each signal of the number of pixels of the image sensor by the component restoring means 6, the first RB restoring means 7 and the second RB restoring means 9 is the same as that in the first embodiment, detailed description thereof will be given. Is omitted.
[0067]
The G signal (FIG. 18) from the separating means 4 is input to the G component edge determining means 41 and is supplied to the horizontal edge detecting means 42 and the vertical edge detecting means 43 in the G component edge determining means 41. In the horizontal edge detection means 42 and the vertical edge detection means 43, the difference between the left and right and upper and lower pixels at the pixel positions (2i, 2j + 1), (2i + 1, 2j) (pixels indicated by diagonal lines in FIG. 18), that is, the edge component is calculated. To detect. That is, the horizontal edge detection means 42 obtains the absolute value ΔHg of the difference between the left and right pixels at the pixel position, and outputs this to the determination means 44. The vertical edge detection means 43 outputs the absolute value of the upper and lower pixels. The absolute value ΔVg of the difference is obtained and output to the determination means 55. For example, at the pixel position (2i, 2j + 1), the horizontal edge detection means 42
ΔHg = | G (2i, 2j) −G (2i, 2j + 2) |
And the vertical edge detection means 43
ΔVg = | G (2i−1,2j + 1) −G (2i + 1,2j + 1) |
And ΔHg and ΔVg are sent to the determination means 44.
[0068]
The determination means 44 determines a change in the signal level in the peripheral pixels in the horizontal and vertical directions based on the edge component ΔHg and the vertical edge component ΔVg in the horizontal direction, and according to each pixel position of the input G signal. The signal ed1 indicating the determination result is output to the G component restoring means 6 and edr and edb are outputted to the second RB component restoring means 9. When both ΔHg and ΔVg are equal to or less than a predetermined value, it is determined that there is no change in the signal level in the surrounding pixels, and each determination signal is set to “1”, for example. On the other hand, if ΔHg or ΔVg is larger than a predetermined value, it is determined that there is an edge component in the pixel. Further, if ΔHg> ΔVg, it is determined that the correlation is high in the vertical direction, for example, “2”. In the case of ΔHg ≦ ΔVg, it is determined that the correlation is high in the horizontal direction, for example, “3”. Here, since the G component restoration means 6 restores the pixels at the pixel positions (2i, 2j + 1) and (2i + 1, 2j), the edge determination result is output as ed1 at both pixel positions, and G is obtained. For example, ed1 = 0 is output at the pixel positions (2i, 2j) and (2i + 1, 2j + 1). Then, the output ed1 of the determination means 44 is sent to the switching means 25 in the G component restoration means 6.
[0069]
On the other hand, the second RB component restoration unit 9 restores the pixel position (2i + 1, 2j) of the R signal and restores the pixel position (2i, 2j + 1) of the B signal. Therefore, the result of determining the edge component at the pixel position (2i + 1, 2j) is set as edr and output in time with the pixel position to be processed by the second RB component restoration unit 9, and the other pixel positions (2i, In 2j), (2i, 2j + 1), (2i + 1, 2j + 1), for example, edr = 0 is output. Then, the output edr of the determination means 44 is sent to the R switching means 36 in the second RB component restoration means 9. On the other hand, the result of determining the edge component at the pixel position (2i, 2j + 1) is set as edb, and is output in time with the pixel position to be processed by the second RB component restoration unit 9, and the other pixel positions (2i, 2j, In 2j), (2i + 1, 2j), and (2i + 1, 2j + 1), for example, edb = 0 is output. Then, the output edb of the determination unit 44 is sent to the B switching unit 40 in the second RB component restoration unit 9.
[0070]
Therefore, in the G component edge determination means 41, the edge component determination result in the G signal corresponding to the pixel position where the G, R, and B signals are restored in the G component restoration means 6 and the second RB component restoration means 9 is obtained. Will be output.
[0071]
In the second embodiment, the G signal is at the pixel positions (2i, 2j) and (2i + 1, 2j + 1), the R signal is at the pixel position (2i, 2j + 1), and the B signal is at the pixel position (2i + 1, 2j + 1). As described in the first embodiment, the G signal is obtained at the pixel positions (2i, 2j + 1), (2i + 1, 2j), and the R signal is obtained at the pixel position (2i, 2j). B signals may be arranged at (2i + 1, 2j + 1), and the color signals are not limited to RGB.
[0072]
Further, as in the first embodiment, in the second embodiment, it is needless to say that the same processing as the processing in the configuration of FIG. 17 can be performed by software in the imaging apparatus. Play.
[0073]
【The invention's effect】
Since the present invention is configured as described above, the following effects can be obtained.
[0074]
According to the imaging apparatus according to the present invention, the first color signal at the pixel positions (2i, 2j) (i = 0, 1, 2,... And j = 0, 1, 2,...) And (2i + 1, 2j + 1). A first color filter having a spectral characteristic that allows the second color signal to pass through the pixel position (2i, 2j + 1), and a second color filter having a spectral characteristic that allows the second color signal to pass through the pixel position (2i + 1, 2j). In the image pickup device in which the upper and lower four pixels in which the third color filters having spectral characteristics that pass the third color signal are arranged are repeatedly arranged in the vertical and horizontal directions, the first color filter At the position of At the pixel positions (2i, 2j + 1), (2i + 1, 2j) of the first color signal, an edge component is determined based on the peripheral pixel signal, and based on the determination result, the first, second, and third color signals are used. A signal of the first color signal at the pixel position is calculated to restore the first color signal of the number of pixels of the image sensor, and based on the edge determination result, the restored first color signal and each color filter are used. By calculating the second and third color signals from the color signals and obtaining the second and third color signals of the number of pixels of the image sensor, an image with reduced false colors and false contours can be obtained.
[0075]
Further, according to the imaging apparatus of the present invention, the edge determination means detects the edge component ΔH in the horizontal direction by calculating the absolute value of the difference between the left and right adjacent pixels in the predetermined pixel of the first color signal. The edge value ΔV in the vertical direction is detected by calculating the absolute value of the difference between the pixels, and the edge component in the horizontal or vertical direction at the predetermined pixel is determined based on the edge component ΔH in the horizontal direction and the edge component ΔV in the vertical direction. By making the determination, it is possible to determine a change in the horizontal and vertical spatial frequencies in the local region, and an image with reduced false colors and false contours can be obtained.
[0076]
According to the imaging apparatus of the present invention, when the determination unit in the edge determination unit has an output ΔH from the horizontal direction edge detection unit or an output ΔV from the vertical direction edge detection unit greater than a predetermined value. Determines that an edge component is detected in a peripheral pixel of a predetermined pixel. Further, if ΔH> ΔV, it is determined that there is a correlation in the vertical direction, and if ΔH ≦ ΔV, it is determined that there is a correlation in the horizontal direction. When ΔV is smaller than a predetermined value, it is possible to determine a change in the spatial frequency in the horizontal and vertical directions in a local region by determining that no edge component is detected. Can be obtained.
[0077]
According to the imaging apparatus of the present invention, the means for calculating and restoring the first color signal is the position (l, m) of the predetermined pixel 1 row m column B (l, m) where the second color signal B is present. = 2i, m = 2j + 1 or l = 2i + 1, m = 2j), the value Ahlpf (l, m) through the horizontal low-pass filter for each of the first color signal A and the second color signal B , Bhlpf (l, m) is calculated, and the ratio of Ahlpf (l, m) and Bhlpf (l, m), which are output signals from the horizontal low-pass filter, and the pixel value B (l, m) at the pixel position are calculated. ), The pixel value A (l, m) in the first color signal A of l rows and m columns is represented by A (l, m) = B (l, m) × {Ahlpf (l, m) / Bhlpf (l , M)}, and the first color is similarly applied to other pixel positions having the third color signal C. Horizontal direction signal calculation means for calculating a pixel value in the signal A, and at each of the first color signal A and the second color signal B at the position of the predetermined pixel 1 row m column B (l, m). The values Avlpf (l, m) and Bvlpf (l, m) are calculated through the low-pass filter in the vertical direction, and Avlpf (l, m) and Bvlpf (l, m) which are output signals from the vertical low-pass filter are calculated. And the pixel value A (l, m) as the first color signal A in l rows and m columns, A (l, m) = B ( l, m) × {Avlpf (l, m) / Bvlpf (l, m)}, and the pixel value in the first color signal A is similarly calculated at other pixel positions where the third color signal C exists. Vertical direction signal calculating means for calculating, and the predetermined pixel in 1 row and m columns in the first color signal A Average value calculating means for calculating a pixel value A (l, m) in the first color signal A of l rows and m columns from the average value of the adjacent pixels in the upper, lower, left and right positions, and the output of the edge determining means Based on the output from the horizontal signal calculation means, the output from the vertical direction signal calculation means, or the output from the average value calculation means, the pixel value A of the first color signal A in the predetermined pixel 1 row m column is selected. 1 and m) and obtaining the first color signal of the number of pixels in the image sensor, an image with reduced false colors and false contours can be obtained.
[0078]
According to the imaging device of the present invention, when the means for calculating the first color signal determines that the output of the edge determination means does not detect an edge component at a predetermined pixel 1 row and m column position, When the output of the average value calculation means is selected and it is determined that there is a correlation in the vertical direction, the output of the vertical direction signal calculation means is selected, and when it is determined that there is a correlation in the horizontal direction, the horizontal direction signal calculation means And obtaining a first color signal of the number of pixels in the image sensor, an image with reduced false colors and false contours can be obtained.
[0079]
Further, according to the imaging apparatus of the present invention, the means for calculating and restoring the second and third color signals is the position of the predetermined pixel l rows and m columns (l = 2i, m = 2j or l = 2i + 1, m = 2j + 1), for the output A from the first color signal calculating means, the value A1hlpf (l, m) through the horizontal low-pass filter and the value A1vlpf (l, through the vertical low-pass filter) m) is calculated, and the value B1hlpf (l, m) through the low-pass filter in the horizontal direction for the second color signal B and the value C1vlpf through the low-pass filter in the vertical direction for the third color signal C (L, m) (or the value B1vlpf (l, m) through the low-pass filter in the vertical direction for the second color signal B and the low-pass filter in the horizontal direction for the third color signal C Value C1hlpf l, m)), and the ratio of A1hlpf (l, m) to B1hlpf (l, m) (or the ratio of C1hlpf (l, m)), A1vlpf (l, m) and C1vlpf (l , M) (or the ratio to B1vlpf (l, m)) and the pixel value A (l, m at the predetermined pixel 1 row m column in the output A from the means for calculating the first color signal ), The pixel values B (l, m) and C (l, m) in the second color signal B and the third color signal C in l rows and m columns are represented by B (l, m) = A (l, m) × {B1hlpf (l, m) / A1hlpf (l, m)}, C (l, m) = A (l, m) × {C1vlpf (l, m) / A1vlpf (l, m)}, ( Or, B (l, m) = A (l, m) × {B1vlpf (l, m) / A1vlpf (l, m)}, C (l, m) = A (l, m) × {C 1hlpf (l, m) / A1hlpf (l, m)}) and a position of a predetermined pixel x row y column different from the position of the l row m column (x = 2i + 1, y = 2j or x = 2i, y = 2j + 1), the value A2hlpf (x, y) through the horizontal low-pass filter for the output A from the means for calculating the first color signal, from the signal calculating means A value B2hlpf (x, y) is calculated through a horizontal low-pass filter for the second color signal B at the output, and the ratio of A2hlpf (x, y) to B2hlpf (x, y) Based on the pixel value A (x, y) at the pixel x row y column at the output A from the calculation means, the second color signal B (x, y) at the position of x row y column is represented by B (x, y). ) = A (x, y) × {B2hlpf (x, y) / A hlpf (x, y)}, and the third color signal C is also perpendicular to the output A from the horizontal direction signal calculation means for calculating the C signal in the same manner and the means for calculating the first color signal. A value A2vlpf (x, y) through the direction low-pass filter and a value B2vlpf (x, y) through the low-pass filter in the vertical direction with respect to the second color signal B at the output from the signal calculation means X row y by the ratio of A2vlpf (x, y) and B2vlpf (x, y) and the pixel value A (x, y) in the pixel x row y column at the output A from the first calculating means. The second color signal B (x, y) at the column position is calculated by B (x, y) = A (x, y) × {B2vlpf (x, y) / A2vlpf (x, y)} In the third color signal C as well, a vertical direction signal calculator for calculating the C signal in the same manner. And an average value calculating means for calculating an average value of diagonally adjacent pixels at positions of predetermined pixels x rows and y columns in the second and third color signals in the output from the signal calculating means, Based on the output of the edge determination means, the second and third pixels in the predetermined pixel x row y column are selected from the outputs from the horizontal direction signal calculation means, vertical direction signal calculation means, and average value calculation means. By obtaining the second color signal and the second color signal of the number of pixels in the image sensor, an image with reduced false colors and false contours can be obtained.
[0080]
Further, according to the imaging apparatus of the present invention, the means for calculating the second and third color signals determines that the output of the edge determination means does not detect an edge component at the position of the predetermined pixel x row y column. If so, the output of the average value calculation means is selected. If it is determined that there is a correlation in the vertical direction, the output of the vertical direction signal calculation means is selected. If it is determined that there is a correlation in the horizontal direction, the horizontal By selecting the output of the direction signal calculating means and obtaining the second and third color signals of the number of pixels in the image sensor, an image with reduced false colors and false contours can be obtained.
[Brief description of the drawings]
FIG. 1 is a diagram showing an example of an arrangement of color filters of an image sensor according to Embodiment 1 of the present invention.
FIG. 2 is a block diagram illustrating an example of a configuration of an imaging apparatus according to Embodiment 1 of the present invention.
FIG. 3 is a block diagram showing an example of the configuration of first edge determination means 5 and G component restoration means 6 in the imaging apparatus according to Embodiment 1 of the present invention.
4 is a block diagram showing an example of the configuration of second edge determination means 8 and second RB component restoration means 9 in the imaging apparatus according to Embodiment 1 of the present invention. FIG.
FIG. 5 is a diagram illustrating G signal pixels for explaining an operation of restoring a G signal in the imaging apparatus according to Embodiment 1 of the present invention;
6 is a diagram showing pixels of R and B signals for explaining an operation of restoring a G signal in the imaging apparatus according to Embodiment 1 of the present invention. FIG.
7 is a diagram showing pixels of R and B signals for explaining the operation of the first RB component restoration device 7 in the imaging apparatus according to Embodiment 1 of the present invention; FIG.
FIG. 8 is a diagram showing R and B signal pixels for explaining operations of second edge determination means 8 and second RB component restoration means 9 in the imaging apparatus according to Embodiment 1 of the present invention;
FIG. 9 is a diagram showing false color levels at horizontal resolution in simulation images processed by the imaging apparatus according to Embodiment 1 of the present invention and a conventional apparatus.
FIG. 10 is a diagram illustrating false color levels at a vertical resolution in a simulation image processed by the imaging apparatus according to Embodiment 1 of the present invention and a conventional apparatus.
FIG. 11 is a diagram showing the level of a luminance signal at a horizontal resolution in a simulation image processed by the imaging apparatus according to Embodiment 1 of the present invention.
FIG. 12 is a diagram illustrating the level of a luminance signal at a horizontal resolution in a simulation image processed by a conventional apparatus.
FIG. 13 is a diagram showing the level of a luminance signal at a vertical resolution in a simulation image processed by the imaging apparatus according to Embodiment 1 of the present invention.
FIG. 14 is a diagram showing the level of a luminance signal at a vertical resolution in a simulation image processed by a conventional apparatus.
FIG. 15 is a diagram showing an example of another color filter array of the image sensor according to the first embodiment of the present invention.
FIG. 16 is a diagram showing an example of another color filter array of the image sensor according to the first embodiment of the present invention.
FIG. 17 is a block diagram showing an example of the configuration of an imaging apparatus according to Embodiment 2 of the present invention.
FIG. 18 is a diagram illustrating pixels of a G signal for explaining the operation of the G component edge determination unit 41 in the imaging apparatus according to Embodiment 2 of the present invention.
FIG. 19 is a diagram illustrating an example of a color filter array of an imaging element in a conventional imaging device.
FIG. 20 is a block diagram illustrating an example of a configuration of a conventional imaging device.
FIG. 21 is a diagram illustrating pixels of each signal for explaining the operation of a conventional imaging device.
FIG. 22 is a block diagram illustrating an example of another configuration of a conventional imaging device.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Image pick-up element, 2 A / D converter, 3 frame memory, 4 separation means, 5 1st edge determination means, 6 G component restoration means, 7 1st RB component restoration means, 8 2nd edge determination means, 9 Second RB component restoration means, 11, 30, 42 horizontal edge detection means, 12, 31, 43 Vertical edge detection means, 13 determination means, 14 average value calculation means, 15-17 horizontal low-pass filter, 18, 19 computing means, 20-22 vertical low-pass filter, 23, 24 computing means, 25 switching means, 32 judging means, 33 R average value computing means, 34 R horizontal direction computing means, 35 R vertical direction computing means, 36 R switching Means, 37 B average value calculating means, 38 B horizontal direction calculating means, 39 B vertical direction calculating means, 40 B switching means, 41 G component edge determining means, 44 Constant means.

Claims (7)

水平垂直2行2列の4画素において、第1の色信号に対する分光感度特性を持つ第1の色フィルタと第2の色信号に対する分光感度特性を持つ第2の色フィルタとが1行目に配列され、2行目には上記1行目の第1の色フィルタが配列された画素位置と同一の列に第3の色信号に対する分光感度特性を持つ第3の色フィルタが配列され、第2の色フィルタと同一の列に第1の色信号に対する分光感度特性を持つ第1の色フィルタが配列されており、上記2行2列の4画素の色フィルタが順次垂直及び水平方向に繰り返し配列される撮像素子を備えた撮像装置において、
上記第2または第3の色フィルタの位置における第2または第3の色信号の所定画素位置の周辺の第1の色信号に基づき、所定画素位置におけるエッジ成分を判定する第1のエッジ判定手段と、
前記第1、第2及び第3の色信号の水平方向の低周波信号成分を生成する第1、第2及び第3の水平方向ローパスフィルタと、
前記第1、第2及び第3の色信号の垂直方向の低周波信号成分を生成する第1、第2及び第3の垂直方向ローパスフィルタと、
前記第1及び第2の水平方向ローパスフィルタから得られた前記第2の色フィルタ位置における第1及び第2の色信号の水平方向の低周波信号成分と、前記第2の色フィルタ位置における第2の色信号とから、第2の色フィルタ位置における第1の色信号を算出する第1の演算手段と、
前記第1及び第2の垂直方向ローパスフィルタから得られた前記第2の色フィルタ位置における第1及び第2の色信号の垂直方向の低周波信号成分と、前記第2の色フィルタ位置における第2の色信号とから、第2の色フィルタ位置における第1の色信号を算出する第2の演算手段と、
前記第1及び第3の水平方向ローパスフィルタから得られた前記第3の色フィルタ位置における第1及び第3の色信号の水平方向の低周波信号成分と、前記第3の色フィルタ位置における第3の色信号とから、第3の色フィルタ位置における第1の色信号を算出する第3の演算手段と、
前記第1及び第3の垂直方向ローパスフィルタから得られた前記第3の色フィルタ位置における第1及び第3の色信号の垂直方向の低周波信号成分と、前記第3の色フィルタ位置における第3の色信号とから、第3の色フィルタ位置における第1の色信号を算出する第4の演算手段と、
周辺の第1の色信号の平均値を算出する第5の演算手段と、
第1の色フィルタ位置における第1の色信号、及び前記第1乃至第5の演算手段の出力信号を前記第1のエッジ判定手段の出力に基づいて切り替える切り替え手段と
を具備した第1の色信号復元手段と、
前記第1の色フィルタ位置の第1の色信号の所定位置において、第1の色信号の所定位置における第2の色信号の低周波成分と、第1の色信号の低周波成分と、前記第1の色信号復元手段から出力された第1の色フィルタ位置における第1の色信号とから第2の色信号を生成し、かつ第1の色信号の所定位置における第3の色信号の低周波成分と、第1の信号の低周波成分と、前記第1の色信号復元手段から出力された第1の色フィルタ位置における第1の色信号とから第3の色信号を生成する第2の色信号復元手段と、
前記第1の色信号復元手段から出力された第2または第3の色フィルタの位置における第2または第3の色信号の所定画素位置の周辺の第1の色信号に基づき、所定画素位置におけるエッジ成分を判定する第2のエッジ判定手段と、
前記第2の色フィルタ位置の第2の色信号の所定の位置において、前記第1の色信号復元手段より出力された第1の色信号と、前記第1の色信号復元手段から出力された第1の色信号の水平方向の低周波数成分と、前記第2の色信号復元手段から出力された第3の色信号の水平方向の低周波数成分とから第2の色信号の所定位置における第3の色信号を算出する第1の水平方向演算手段と、
前記第2の色フィルタ位置の第2の色信号の所定の位置において、前記第1の色信号復元手段より出力された第1の色信号と、前記第1の色信号復元手段から出力された第1の色信号の垂直方向の低周波数成分と、前記第2の色信号復元手段から出力された第3の色信号の垂直方向の低周波数成分とから第2の色信号の所定位置における第3の色信号を算出する第1の垂直方向演算手段と、
前記第2の色信号復元手段から出力された周辺の第3の色信号の平均値を算出する第1の平均値算出手段と、
前記第3の色フィルタ位置の第3の色信号の所定の位置において、前記第1の色信号復元手段より出力された第1の色信号と、前記第1の色信号復元手段から出力された第1の色信号の水平方向の低周波数成分と、前記第2の色信号復元手段から出力された第2の色信号の水平方向の低周波数成分とから第3の色信号の所定位置における第2の色信号を算出する第2の水平方向演算手段と、
前記第3の色フィルタ位置の第3の色信号の所定の位置において、前記第1の色信号復元手段より出力された第1の色信号と、前記第1の色信号復元手段から出力された第1の色信号の垂直方向の低周波数成分と、前記第2の色信号復元手段から出力された第2の色信号の垂直方向の低周波数成分とから第3の色信号の所定位置における第2の色信号を算出する第2の垂直方向演算手段と、
前記第2の色信号復元手段から出力された周辺の第2の色信号の平均値を算出する第2の平均値算出手段と、
前記第1の水平方向演算手段、前記第1の垂直方向演算手段及び前記第1の平均値算出手段の出力を前記第2のエッジ判定手段の出力に基づいて切り替え、前記第2の水平方向演算手段、前記第2の垂直方向演算手段及び前記第2の平均値算出手段の出力を、前記第2のエッジ判定手段の出力に基づいて切り替える切り替え手段と
を具備した第3の色信号復元手段と
を備えたことを特徴とする撮像装置。
The first color filter having the spectral sensitivity characteristic with respect to the first color signal and the second color filter having the spectral sensitivity characteristic with respect to the second color signal are arranged in the first row in four pixels in the horizontal and vertical 2 rows and 2 columns. In the second row, a third color filter having spectral sensitivity characteristics for the third color signal is arranged in the same column as the pixel position where the first color filter in the first row is arranged. A first color filter having spectral sensitivity characteristics with respect to the first color signal is arranged in the same column as the second color filter, and the four-pixel color filter in the second row and the second column is sequentially repeated in the vertical and horizontal directions. In an imaging apparatus including an arrayed imaging device,
First edge determination means for determining an edge component at a predetermined pixel position based on a first color signal around the predetermined pixel position of the second or third color signal at the position of the second or third color filter. When,
First, second, and third horizontal low-pass filters that generate horizontal low-frequency signal components of the first, second, and third color signals;
First, second, and third vertical low-pass filters that generate vertical low frequency signal components of the first, second, and third color signals;
The low-frequency signal component in the horizontal direction of the first and second color signals at the second color filter position obtained from the first and second horizontal low-pass filters, and the first at the second color filter position. First calculation means for calculating the first color signal at the second color filter position from the two color signals;
The low frequency signal component in the vertical direction of the first and second color signals at the second color filter position obtained from the first and second vertical low-pass filters, and the first low frequency signal component at the second color filter position. Second calculation means for calculating the first color signal at the second color filter position from the two color signals;
The low-frequency signal component in the horizontal direction of the first and third color signals at the third color filter position obtained from the first and third horizontal low-pass filters, and the first low frequency signal component at the third color filter position. 3rd calculation means for calculating the 1st color signal in the 3rd color filter position from 3 color signals,
The low-frequency signal component in the vertical direction of the first and third color signals at the third color filter position obtained from the first and third vertical low-pass filters, and the first low-frequency signal component at the third color filter position. A fourth calculation means for calculating the first color signal at the third color filter position from the three color signals;
Fifth arithmetic means for calculating an average value of the surrounding first color signals;
A first color signal including: a first color signal at a first color filter position; and a switching unit that switches an output signal of the first to fifth arithmetic units based on an output of the first edge determination unit. Signal restoration means;
At a predetermined position of the first of the first color signal of the color filter position, the low-frequency component of the second color signals at a predetermined position of the first color signal, and the low frequency component of the first color signal, said A second color signal is generated from the first color signal at the first color filter position output from the first color signal restoration means , and the third color signal at a predetermined position of the first color signal is generated. A third color signal is generated from the low frequency component, the low frequency component of the first signal, and the first color signal at the first color filter position output from the first color signal restoration means . Two color signal restoration means;
Based on the first color signal around the predetermined pixel position of the second or third color signal at the position of the second or third color filter output from the first color signal restoration means, at the predetermined pixel position Second edge determination means for determining an edge component;
The first color signal output from the first color signal restoration means and the first color signal restoration means output from the first color signal restoration means at a predetermined position of the second color signal at the second color filter position . The second color signal at a predetermined position of the second color signal is determined from the horizontal low frequency component of the first color signal and the horizontal low frequency component of the third color signal output from the second color signal restoration means . First horizontal direction calculating means for calculating a color signal of 3;
The first color signal output from the first color signal restoration means and the first color signal restoration means output from the first color signal restoration means at a predetermined position of the second color signal at the second color filter position . From the low-frequency component in the vertical direction of the first color signal and the low-frequency component in the vertical direction of the third color signal output from the second color signal restoration means, First vertical direction calculation means for calculating the color signal of 3;
First average value calculating means for calculating an average value of the surrounding third color signals output from the second color signal restoring means ;
The first color signal output from the first color signal restoration unit and the first color signal output from the first color signal restoration unit at a predetermined position of the third color signal at the third color filter position . The third color signal at a predetermined position from the horizontal low frequency component of the first color signal and the horizontal low frequency component of the second color signal output from the second color signal restoration means . Second horizontal direction calculating means for calculating the color signal of 2;
The first color signal output from the first color signal restoration unit and the first color signal output from the first color signal restoration unit at a predetermined position of the third color signal at the third color filter position . From the low-frequency component in the vertical direction of the first color signal and the low-frequency component in the vertical direction of the second color signal output from the second color signal restoration means, Second vertical direction calculation means for calculating the color signal of 2;
Second average value calculating means for calculating an average value of the surrounding second color signals output from the second color signal restoring means ;
The outputs of the first horizontal direction calculating means, the first vertical direction calculating means, and the first average value calculating means are switched based on the output of the second edge determining means, and the second horizontal direction calculating means A third color signal restoring means comprising: a switching means for switching the output of the second vertical direction calculating means and the second average value calculating means based on the output of the second edge determining means; An imaging apparatus comprising:
前記第1のエッジ判定手段が、
上記第2または第3の色信号の所定画素位置における左右の隣接画素の第1の色信号の差を算出して水平方向のエッジ成分を検出する水平方向エッジ検出手段と、
上記第2または第3の色信号の所定画素位置における上下の隣接画素の第1の色信号の差を算出して垂直方向のエッジ成分を検出する垂直方向エッジ検出手段と、
前記水平方向エッジ検出手段と垂直方向エッジ検出手段からの出力に基づき、前記所定画素における水平または垂直方向のエッジ成分を判定する判定手段を
備えることを特徴とする請求項1記載の撮像装置。
The first edge determining means is
Horizontal edge detection means for calculating a difference between the first color signals of left and right adjacent pixels at a predetermined pixel position of the second or third color signal to detect a horizontal edge component;
Vertical edge detection means for detecting a vertical edge component by calculating a difference between first color signals of upper and lower adjacent pixels at a predetermined pixel position of the second or third color signal;
The imaging apparatus according to claim 1, further comprising a determination unit that determines a horizontal or vertical edge component of the predetermined pixel based on outputs from the horizontal edge detection unit and the vertical edge detection unit.
前記第1のエッジ判定手段における判定手段が、上記水平方向エッジ検出手段からの出力または上記垂直方向エッジ検出手段からの出力が予め定めた値より大きい場合は、上記所定画素の周辺画素にエッジ成分を検出したとし、さらに、水平方向エッジ検出手段からの出力が上記垂直方向エッジ検出手段の出力より大きい場合は垂直方向により相関があり、水平方向エッジ検出手段からの出力が上記垂直方向エッジ検出手段の出力より小さい場合は水平方向により相関があると判定するとともに、上記水平方向エッジ検出手段および垂直方向エッジ検出手段からの出力がともに予め定めた値より小さい場合にはエッジ成分を検出しないと判定することを特徴とする請求項1または請求項2記載の撮像装置。  When the determination means in the first edge determination means has an output from the horizontal edge detection means or an output from the vertical edge detection means larger than a predetermined value, an edge component is added to the peripheral pixels of the predetermined pixel. Furthermore, if the output from the horizontal edge detection means is larger than the output from the vertical edge detection means, there is a correlation in the vertical direction, and the output from the horizontal edge detection means is the vertical edge detection means. If the output from the horizontal direction edge detection means and the vertical direction edge detection means are both smaller than a predetermined value, it is determined that no edge component is detected. The imaging apparatus according to claim 1, wherein: 前記第1の色信号復元手段において、
前記第1の水平方向ローパスフィルタは、前記第2の色フィルタ位置(2i,2j+1)(i、jは整数)における第1の色信号の水平方向の低周波数信号成分Ahlpf(2i,2j+1)を算出し、
前記第2の水平方向ローパスフィルタは、前記第2の色フィルタ位置(2i,2j+1)における第2の色信号の水平方向の低周波数信号成分Bhlpf(2i,2j+1)を算出し、
前記第1の垂直方向ローパスフィルタは、前記第2の色フィルタ位置(2i,2j+1)における第1の色信号の垂直方向の低周波数信号成分Avlpf(2i,2j+1)を算出し、
前記第2の垂直方向ローパスフィルタは、前記第2の色フィルタ位置(2i,2j+1)における第2の色信号の垂直方向の低周波数信号成分Bvlpf(2i,2j+1)を算出し、
前記第1の演算手段は、前記第1及び第2の水平方向ローパスフィルタの出力および(2i,2j+1)位置の第2の色信号B(2i,2j+1)から(2i,2j+1)位置における第1の色信号
Ah(2i,2j+1)を
B(2i,2j+1)×(Ahlpf(2i,2j+1)/Bhlpf(2i,2j+1))
として算出し、
前記第2の演算手段は、前記第1及び第2の垂直方向ローパスフィルタの出力および(2i,2j+1)位置の第2の色信号B(2i,2j+1)から(2i,2j+1)位置における第1の色信号
Av(2i,2j+1)を
B(2i,2j+1)×(Avlpf(2i,2j+1)/Bvlpf(2i,2j+1))として算出し、
前記第1の水平方向ローパスフィルタは、さらに前記第3の色フィルタ位置(2i+1,2j)(i、jは整数)における第1の色信号の水平方向の低周波数信号成分Ahlpf(2i+1,2j)を算出し、
前記第3の水平方向ローパスフィルタは、前記第3の色フィルタ位置(2i+1,2j)における第3の色信号の水平方向の低周波数信号成分Chlpf(2i+1,2j)を算出し、
前記第1の垂直方向ローパスフィルタは、さらに前記第3の色フィルタ位置(2i+1,2j)における第1の色信号の垂直方向の低周波数信号成分Avlpf(2i+1,2j)を算出し、
前記第3の垂直方向ローパスフィルタは、前記第3の色フィルタ位置(2i+1,2j)における第3の色信号の垂直方向の低周波数信号成分Cvlpf(2i+1,2j)を算出し、
前記第3の演算手段は、前記第1及び第3の水平方向ローパスフィルタの出力および(2i+1,2j)位置の第3の色信号C(2i+1,2j)から(2i+1,2j)位置における第1の色信号
Ah(2i+1,2j)を
C(2i+1,2j)×(Ahlpf(2i+1,2j)/Chlpf(2i+1,2j))として算出し、
前記第4の演算手段は、前記第1及び第3の垂直方向ローパスフィルタの出力および(2i+1,2j)位置の第3の色信号C(2i+1,2j)から第1の色信号
Av(2i,2j+1)を
C(2i+1,2j)×(Avlpf(2i+1,2j)/Cvlpf(2i+1,2j))として算出し、
前記第5の演算手段は、前記(2i,2j+1)および(2i+1,2j)の位置において上下左右の第1の色信号の平均値を算出し、
前記切り替え手段は、前記第1のエッジ判定手段の出力に基づき、前記第1の演算手段の出力または前記第2の演算手段の出力または前記第5の演算手段の出力のいずれかを(2i,2j+1)の位置における第1の色信号とし、前記第3の演算手段の出力または前記第4の演算手段の出力または前記第6の演算手段の出力のいずれかを(2i+1,2j)の位置における第1の色信号とする
ことを特徴とする請求項1記載の撮像装置。
In the first color signal restoration means,
The first horizontal low-pass filter outputs a low-frequency signal component Ahlpf (2i, 2j + 1) in the horizontal direction of the first color signal at the second color filter position (2i, 2j + 1) (i and j are integers). Calculate
The second horizontal low-pass filter calculates a horizontal low-frequency signal component Bhlpf (2i, 2j + 1) of the second color signal at the second color filter position (2i, 2j + 1),
The first vertical low-pass filter calculates a low frequency signal component Avlpf (2i, 2j + 1) in the vertical direction of the first color signal at the second color filter position (2i, 2j + 1),
The second vertical low-pass filter calculates a low-frequency signal component Bvlpf (2i, 2j + 1) in the vertical direction of the second color signal at the second color filter position (2i, 2j + 1),
The first calculating means outputs the first and second horizontal low-pass filter outputs and the second color signals B (2i, 2j + 1) at the (2i, 2j + 1) position to the first at the (2i, 2j + 1) position. The color signal Ah (2i, 2j + 1) of B (2i, 2j + 1) × (Ahlpf (2i, 2j + 1) / Bhlpf (2i, 2j + 1))
As
The second computing means outputs the first and second vertical low-pass filter outputs and the second color signal B (2i, 2j + 1) at the (2i, 2j + 1) position to the first at the (2i, 2j + 1) position. The color signal Av (2i, 2j + 1) is calculated as B (2i, 2j + 1) × (Avlpf (2i, 2j + 1) / Bvlpf (2i, 2j + 1))
The first horizontal low-pass filter further includes a horizontal low-frequency signal component Ahlpf (2i + 1, 2j) of the first color signal at the third color filter position (2i + 1, 2j) (i and j are integers). To calculate
The third horizontal low-pass filter calculates a horizontal low-frequency signal component Chlpf (2i + 1, 2j) of the third color signal at the third color filter position (2i + 1, 2j),
The first vertical low-pass filter further calculates a low-frequency signal component Avlpf (2i + 1, 2j) in the vertical direction of the first color signal at the third color filter position (2i + 1, 2j),
The third vertical low-pass filter calculates a low-frequency signal component Cvlpf (2i + 1, 2j) in the vertical direction of the third color signal at the third color filter position (2i + 1, 2j);
The third calculation means outputs the first and third horizontal low-pass filters and the first color signal at the (2i + 1, 2j) position from the third color signal C (2i + 1, 2j) at the (2i + 1, 2j) position. Color signal Ah (2i + 1, 2j) is calculated as C (2i + 1, 2j) × (Ahlpf (2i + 1, 2j) / Chlpf (2i + 1, 2j)),
The fourth computing means outputs the first color signal Av (2i, 2j, 1) from the outputs of the first and third vertical low-pass filters and the third color signal C (2i + 1, 2j) at the (2i + 1, 2j) position. 2j + 1) is calculated as C (2i + 1, 2j) × (Avlpf (2i + 1, 2j) / Cvlpf (2i + 1, 2j)),
The fifth computing means calculates an average value of the first, upper, lower, left and right color signals at the positions (2i, 2j + 1) and (2i + 1, 2j),
Based on the output of the first edge determination means, the switching means outputs either the output of the first calculation means, the output of the second calculation means, or the output of the fifth calculation means (2i, 2j + 1) as the first color signal, and the output of the third calculation means or the output of the fourth calculation means or the output of the sixth calculation means is set at the position (2i + 1, 2j). The imaging device according to claim 1, wherein the imaging device is a first color signal.
前記第1の色信号復元手段の前記切り替え手段は、
前記第1のエッジ判定手段の出力が第2の色フィルタ位置(2i,2j+1)においてエッジ成分を検出しないと判定した場合は、前記第5の演算手段の出力を選択し、水平方向に相関があると判定した場合は前記第1の演算手段の出力を選択し、垂直方向に相関があると判定した場合は前記第2の演算手段の出力を選択し、第3の色フィルタ位置(2i+1,2j)においてエッジ成分を検出しないと判定した場合は、前記第5の演算手段の出力を選択し、水平方向に相関があると判定した場合は前記第3の演算手段の出力を選択し、垂直方向に相関があると判定した場合は前記第4の演算手段の出力を選択することを特徴とする請求項4記載の撮像装置。
The switching means of the first color signal restoration means is
When the output of the first edge determination means determines that no edge component is detected at the second color filter position (2i, 2j + 1), the output of the fifth calculation means is selected, and the horizontal direction is correlated. If it is determined that there is a correlation, the output of the first calculation means is selected. If it is determined that there is a correlation in the vertical direction, the output of the second calculation means is selected, and the third color filter position (2i + 1, 2 If it is determined in 2j) that no edge component is detected, the output of the fifth arithmetic means is selected, and if it is determined that there is a correlation in the horizontal direction, the output of the third arithmetic means is selected, and the vertical The imaging apparatus according to claim 4, wherein when it is determined that there is a correlation in the direction, an output of the fourth calculation means is selected.
前記第3の色信号復元手段において、
前記第1の水平方向演算手段は、前記第2の色フィルタ位置(2i,2j+1)(i、jは整数)における第1の色信号復元手段の出力値から得られる第1の色信号の水平方向の低周波数信号成分ahlpf(2i,2j+1)と、第2の色信号復元手段の出力値から得られる第3の色信号の水平方向の低周波数信号成分chlpf(2i,2j+1)と、第1の色信号復元手段によって復元された(2i,2j+1)位置の第1の色信号a(2i,2j+1)とから、
(2i,2j+1)位置における第3の色信号
Ch(2i,2j+1)を
a(2i,2j+1)×(chlpf(2i,2j+1)/ahlpf(2i,2j+1))として算出し、
前記第1の垂直方向演算手段は、前記第2の色フィルタ位置(2i,2j+1)における第1の色信号復元手段の出力値から得られる第1の色信号の垂直方向の低周波数信号成分avlpf(2i,2j+1)と、第2の色信号復元手段の出力値から得られる第3の色信号の垂直方向の低周波数信号成分cvlpf(2i,2j+1)と、第1の色信号復元手段によって復元された(2i,2j+1)位置の第1の色信号a(2i,2j+1)とから、(2i,2j+1)位置における第3の色信号
Cv(2i,2j+1)を
a(2i,2j+1)×(cvlpf(2i,2j+1)/avlpf(2i,2j+1))
として算出し、
前記第2の水平方向演算手段は、前記第3の色フィルタ位置(2i+1,2j)(i、jは整数)における第1の色信号復元手段の出力値から得られる第1の色信号の水平方向の低周波数信号成分ahlpf(2i+1,2j)と、第2の色信号復元手段の出力値から得られる第2の色信号の水平方向の低周波数信号成分bhlpf(2i+1,2j)と、第1の色信号復元手段によって復元された(2i+1,2j)位置の第1の色信号a(2i+1,2j)とから、(2i+1,2j)位置における第2の色信号
Bh(2i+1,2j)を
a(2i+1,2j)×(bhlpf(2i+1,2j)/ahlpf(2i+1,2j))
として算出し、
前記第2の垂直方向演算手段は、前記第3の色フィルタ位置(2i+1,2j)における第1の色信号復元手段の出力値から得られる第1の色信号の垂直方向の低周波数信号成分avlpf(2i+1,2j)と、第2の色信号復元手段の出力値から得られる第2の色信号の垂直方向の低周波数信号成分bvlpf((2i+1,2j)と、第1の色信号復元手段によって復元された(2i+1,2j)位置の第1の色信号a(2i+1,2j)とから、(2i+1,2j)位置における第2の色信号
Bv(2i+1,2j)を
a(2i+1,2j)×(bvlpf(2i+1,2j)/avlpf(2i+1,2j))
として算出し、
前記第1の平均値算出手段は、前記(2i,2j+1)の位置において斜め上下左右の第3の色信号の平均値を算出し、
前記第2の平均値算出手段は、前記(2i+1,2j)の位置において斜め上下左右の第2の色信号の平均値を算出し、
前記切り替え手段は、前記第2のエッジ判定手段の出力に基づき、前記1の水平方向演算手段の出力または前記第1の垂直方向演算手段の出力または前記第1の平均値算出手段の出力のいずれかを(2i,2j+1)の位置における第3の色信号とし、前記第2の水平方向演算手段の出力または前記第2の垂直方向演算手段の出力または前記第2の平均値算出手段の出力のいずれかを(2i+1,2j)の位置における第2の色信号とする
ことを特徴とする請求項1記載の撮像装置。
In the third color signal restoration means,
The first horizontal direction arithmetic means calculates the horizontal color of the first color signal obtained from the output value of the first color signal restoration means at the second color filter position (2i, 2j + 1) (i and j are integers). Low-frequency signal component ahlpf (2i, 2j + 1) in the direction, horizontal low-frequency signal component chlpf (2i, 2j + 1) of the third color signal obtained from the output value of the second color signal restoration means, From the first color signal a (2i, 2j + 1) at the position (2i, 2j + 1) restored by the color signal restoration means of
A third color signal Ch (2i, 2j + 1) at the position (2i, 2j + 1) is calculated as a (2i, 2j + 1) × (chlpf (2i, 2j + 1) / ahhlpf (2i, 2j + 1))
The first vertical direction calculation means is a low frequency signal component avlpf in the vertical direction of the first color signal obtained from the output value of the first color signal restoration means at the second color filter position (2i, 2j + 1). (2i, 2j + 1), the low-frequency signal component cvlpf (2i, 2j + 1) in the vertical direction of the third color signal obtained from the output value of the second color signal restoration means, and restoration by the first color signal restoration means From the first color signal a (2i, 2j + 1) at the (2i, 2j + 1) position, the third color signal Cv (2i, 2j + 1) at the (2i, 2j + 1) position is a (2i, 2j + 1) × ( cvlpf (2i, 2j + 1) / avlpf (2i, 2j + 1))
As
The second horizontal direction calculation means is the horizontal of the first color signal obtained from the output value of the first color signal restoration means at the third color filter position (2i + 1, 2j) (i and j are integers). Low-frequency signal component ahlpf (2i + 1, 2j) in the direction, horizontal low-frequency signal component bhlpf (2i + 1, 2j) of the second color signal obtained from the output value of the second color signal restoration means, From the first color signal a (2i + 1, 2j) at the position (2i + 1, 2j) restored by the color signal restoration means, the second color signal Bh (2i + 1, 2j) at the position (2i + 1, 2j) is a (2i + 1, 2j) x (bhlpf (2i + 1, 2j) / ahhlpf (2i + 1, 2j))
As
The second vertical direction calculation means is a low-frequency signal component avlpf in the vertical direction of the first color signal obtained from the output value of the first color signal restoration means at the third color filter position (2i + 1, 2j). (2i + 1, 2j), the low-frequency signal component bvlpf ((2i + 1, 2j)) in the vertical direction of the second color signal obtained from the output value of the second color signal restoration means, and the first color signal restoration means From the restored first color signal a (2i + 1, 2j) at the (2i + 1, 2j) position, the second color signal Bv (2i + 1, 2j) at the (2i + 1, 2j) position is a (2i + 1, 2j) × (Bvlpf (2i + 1, 2j) / avlpf (2i + 1, 2j))
As
The first average value calculating means calculates an average value of the third color signal diagonally up, down, left and right at the position (2i, 2j + 1),
The second average value calculating means calculates an average value of the second color signals diagonally up, down, left and right at the position of (2i + 1, 2j),
Based on the output of the second edge determining means, the switching means is either the output of the first horizontal direction calculating means, the output of the first vertical direction calculating means or the output of the first average value calculating means. Is the third color signal at the position (2i, 2j + 1), and the output of the second horizontal direction calculation means, the output of the second vertical direction calculation means or the output of the second average value calculation means The imaging apparatus according to claim 1, wherein any one of the second color signals is at a position of (2i + 1, 2j).
前記第3の色信号復元手段の前記切り替え手段は、前記第2のエッジ判定手段の出力が第2の色フィルタ位置(2i,2j+1)においてエッジ成分を検出しないと判定した場合は、前記第1の平均値算出手段の出力を選択し、水平方向に相関があると判定した場合は前記第1の水平方向演算手段の出力を選択し、垂直方向に相関があると判定した場合は前記第1の垂直方向演算手段の出力を選択し、第3の色フィルタ位置(2i+1,2j)においてエッジ成分を検出しないと判定した場合は、前記第2の平均値算出手段の出力を選択し、水平方向に相関があると判定した場合は前記第2の水平方向演算手段の出力を選択し、垂直方向に相関があると判定した場合は前記第2の垂直方向演算手段の出力を選択することを特徴とする請求項6記載の撮像装置。  When the switching unit of the third color signal restoration unit determines that the output of the second edge determination unit does not detect an edge component at the second color filter position (2i, 2j + 1), the first color signal restoration unit When the output of the average value calculation means is selected and it is determined that there is a correlation in the horizontal direction, the output of the first horizontal direction calculation means is selected, and when it is determined that there is a correlation in the vertical direction, the first If the output of the vertical direction calculation means is selected and it is determined that the edge component is not detected at the third color filter position (2i + 1, 2j), the output of the second average value calculation means is selected and the horizontal direction If it is determined that there is a correlation, the output of the second horizontal direction calculation means is selected, and if it is determined that there is a correlation in the vertical direction, the output of the second vertical direction calculation means is selected. Claim 6 Placing the imaging device.
JP01708398A 1998-01-29 1998-01-29 Imaging device Expired - Lifetime JP3926019B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01708398A JP3926019B2 (en) 1998-01-29 1998-01-29 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01708398A JP3926019B2 (en) 1998-01-29 1998-01-29 Imaging device

Publications (2)

Publication Number Publication Date
JPH11215513A JPH11215513A (en) 1999-08-06
JP3926019B2 true JP3926019B2 (en) 2007-06-06

Family

ID=11934096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01708398A Expired - Lifetime JP3926019B2 (en) 1998-01-29 1998-01-29 Imaging device

Country Status (1)

Country Link
JP (1) JP3926019B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3706789B2 (en) 2000-05-12 2005-10-19 キヤノン株式会社 Signal processing apparatus and signal processing method
JP4019417B2 (en) 2003-01-14 2007-12-12 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2006166258A (en) * 2004-12-09 2006-06-22 Matsushita Electric Ind Co Ltd Color imaging device and color image signal compensation method

Also Published As

Publication number Publication date
JPH11215513A (en) 1999-08-06

Similar Documents

Publication Publication Date Title
JP4840468B2 (en) Image processing apparatus, image processing method, and program
US7990447B2 (en) Solid-state image sensor
US7835573B2 (en) Method and apparatus for edge adaptive color interpolation
JP4097815B2 (en) Image processing apparatus and image processing method
US6724932B1 (en) Image processing method, image processor, and storage medium
US8515210B2 (en) Image processing method and image processing device
KR0146260B1 (en) Solid state image pick-up apparatus
JP3771054B2 (en) Image processing apparatus and image processing method
US7760255B2 (en) Method and apparatus for interpolation of interlaced CMYG color format
WO2006048962A1 (en) Pixel signal processor and pixel signal processing method
US8798398B2 (en) Image processing apparatus
US7643074B2 (en) Pixel signal processing apparatus and pixel signal processing method
JP4548390B2 (en) Imaging apparatus and signal processing method
JP3458080B2 (en) Color imaging device
US20140293088A1 (en) Image processing apparatus and method, and program
JP3926019B2 (en) Imaging device
JP3926023B2 (en) Imaging device
US20060044428A1 (en) Image pickup device and signal processing method
KR100960176B1 (en) Image signal processing device, image signal processing circuit, image signal processing method, and recording medium
JP3079839B2 (en) Solid-state imaging device
JPH11220751A (en) Image-pickup device
JP2920380B2 (en) Color signal processing device
JP3115123B2 (en) Image signal processing device
KR20070070692A (en) Color interpolation apparatus for edge enhancement and noise removal
JP2010028373A (en) Image processor and method of interpolating image signal

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070227

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100309

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term