JP4239484B2 - Image processing method, image processing program, and image processing apparatus - Google Patents

Image processing method, image processing program, and image processing apparatus Download PDF

Info

Publication number
JP4239484B2
JP4239484B2 JP2002159229A JP2002159229A JP4239484B2 JP 4239484 B2 JP4239484 B2 JP 4239484B2 JP 2002159229 A JP2002159229 A JP 2002159229A JP 2002159229 A JP2002159229 A JP 2002159229A JP 4239484 B2 JP4239484 B2 JP 4239484B2
Authority
JP
Japan
Prior art keywords
color
image
pixel
image processing
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002159229A
Other languages
Japanese (ja)
Other versions
JP2004007165A (en
Inventor
健一 石賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2002159229A priority Critical patent/JP4239484B2/en
Priority to PCT/JP2003/006388 priority patent/WO2003101119A1/en
Publication of JP2004007165A publication Critical patent/JP2004007165A/en
Application granted granted Critical
Publication of JP4239484B2 publication Critical patent/JP4239484B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、デルタ配列のカラーフィルタで得られる画像データを処理する画像処理方法、画像処理プログラム、画像処理装置に関する。
【0002】
【従来の技術】
電子カメラは、CCDなどの撮像素子により被写体を撮像する。この撮像素子において、RGB(赤緑青)の3色のカラーフィルタを図24(a)に示すように配列したベイア配列が知られている。また、図24(b)に示すように配列したデルタ配列も知られている。さらに、図24(c)に示すように配列したハニカム配列も知られている。ベイア配列で得られる画像データについては、例えば、米国特許5,552,827号、米国特許5,629,734号、特開2001-245314号公報などのように、各種の画像処理方法が提案されている。
【0003】
一方、デルタ配列で得られる画像データについては、特開平8-340455号公報、米国特許5,805,217号などで画像処理方法が提案されている。
【0004】
【発明が解決しようとする課題】
しかし、米国特許5,805,217号では、デルタ配列固有の特性に応じた画像処理がなされていない。また、特開平8-340455号公報では、簡単な画像復元方法しか提案されていない。また、ベイア配列で提案されている各種の画像処理方法は、必ずしも、そのままデルタ配列に適用できない。
【0005】
本発明は、デルタ配列等の三角格子状のカラーフィルタ等で得られた画像データに基づき、高精細に補間処理した画像データや高精細に他の表色系に変換した画像データを出力する画像処理方法、画像処理プログラム、画像処理装置を提供する。
【0006】
【課題を解決するための手段】
請求項1の発明は、画像処理方法に適用され、第1〜第n色成分(n≧2)で表され、1つの画素に1つの色成分の色情報を有する複数の画素が三角格子状に配置された第1の画像を取得する画像取得手順と、取得した第1の画像の色情報を用いて、第1色成分が欠落する画素に第1色成分を補間する補間手順と、第1の画像の色情報と補間された色情報とに基づき、第2の画像を出力する出力手順とを備え、補間手順は、第1の画像の補間対象画素に対して、第1色成分が2番目に近接する画素を含む領域の色情報を用いて、第1色成分の平均情報を求め、補間を行い、少なくとも3方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、補間手順は、類似性判定手順で判定された類似性の強さに応じて第1色成分の平均情報を求めるものである。
請求項の発明は、画像処理方法に適用され、複数の色成分で表され、1つの画素に1つの色成分の色情報を有する複数の画素が三角格子状に配置された第1の画像を取得する画像取得手順と、取得した第1の画像の色情報を零以上の可変な係数値で加重加算することによって、第1の画像の色情報と異なる色成分の色情報を生成する色情報生成手順と、生成された色情報を使用して第2の画像を出力する出力手順を備え、色情報生成手順は、第1の画像の処理対象画素に対して、該画素の色成分と異なる色成分が2番目に近接する画素を含む領域内の色情報を加重加算するものである。
請求項の発明は、請求項に記載の画像処理方法において、少なくとも3方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、色情報生成手順は、類似性判定手順で判定された類似性の強さに応じて加重加算の係数値を可変にするものである。
請求項の発明は、請求項またはに記載の画像処理方法において、第1の画像が第1〜第3の色成分で表され、第1の画像の第1色成分を有する画素が処理対象画素の場合、色情報生成手順は、処理対象画素、及び第2色成分が2番目に近接する画素、及び第3色成分が2番目に近接する画素を含む領域内の色情報を加重加算するものである。
請求項の発明は、請求項のいずれか1項に記載の画像処理方法において、色情報生成手順後出力手順前に、色情報生成手順で生成された第1の画像の色情報と異なる色成分の色情報を、予め決められた固定のフィルタ係数からなるフィルタ処理により、補正する補正手順をさらに備えるものである。
請求項の発明は、請求項に記載の画像処理方法において、フィルタ係数の中に、正および負の値を含むものである。
請求項の発明は、画像処理方法に適用され、第1〜第n色成分(n≧2)で表され、1つの画素に1つの色成分の色情報を有する複数の画素が三角格子状に配置された第1の画像を取得する画像取得手順と、第1の画像の色情報を用いて、第1色成分と第2色成分の間の色差成分の色情報を生成する色差生成手順と、生成された色差成分の色情報を使用して第2の画像を出力する出力手順を備え、色差生成手順は、第1の画像の第1色成分を有する画素に対して、少なくとも第2色成分が2番目に近接する画素の色情報を用いて、色差成分の色情報を生成するものである。
請求項の発明は、請求項に記載の画像処理方法において、色差生成手順は、第1の画像の第1色成分を有する処理対象画素に対して、1)該画素の第1色成分の色情報と2)該画素に対して第2色成分が2番目に近接する画素を含む領域内における第2色成分の色情報の平均情報とに基づいて色差成分の色情報を生成するものである。
請求項の発明は、請求項またはに記載の画像処理方法において、色差生成手順は、さらに、処理対象画素に関する第2色成分の曲率情報に基づいて、色差成分の色情報を生成するものである。
請求項10の発明は、請求項のいずれか1項に記載の画像処理方法において、少なくとも3方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、色差生成手順は、類似性の強さに応じて色差成分の色情報を生成するものである。
請求項11の発明は、請求項1〜10のいずれか1項に記載の画像処理方法において、出力手順は、第1の画像と同じ画素位置に、第2画像を出力するものである。
請求項12の発明は、請求項1〜11のいずれか1項に記載の画像処理方法の手順をコンピュータに実行させるための画像処理プログラムとするものである。
請求項13の発明は、請求項12の画像処理プログラムを記録したコンピュータ読みとり可能な記録媒体とするものである。
請求項14の発明は、請求項12の画像処理プログラムを搭載した画像処理装置とするものである。
【0007】
【発明の実施の形態】
−第1の実施の形態−
(電子カメラの構成)
図1は、第1の実施の形態における電子カメラの機能ブロック図である。電子カメラ1は、A/D変換部10、画像処理部11、制御部12、メモリ13、圧縮/伸長部14、表示画像生成部15を備える。また、メモリカード(カード状のリムーバブルメモリ)16とのインタフェースをとるメモリカード用インタフェース部17および所定のケーブルや無線伝送路を介してPC(パーソナルコンピュータ)18等の外部装置とのインタフェースをとる外部インタフェース部19を備える。これらの各ブロックはバス29を介して相互に接続される。画像処理部11は、例えば、画像処理専用の1チップ・マイクロプロセッサで構成される。
【0008】
電子カメラ1は、さらに、撮影光学系20、撮像素子21、アナログ信号処理部22、タイミング制御部23を備える。撮像素子21には撮影光学系20で取得された被写体の光学像が結像し、撮像素子21の出力はアナログ信号処理部22に接続される。アナログ信号処理部22の出力は、A/D変換部10に接続される。タイミング制御部23には制御部12の出力が接続され、タイミング制御部23の出力は、撮像素子21、アナログ信号処理部22、A/D変換部10、画像処理部11に接続される。撮像素子21は例えばCCDなどで構成される。
【0009】
電子カメラ1は、さらに、レリーズボタンやモード切り換え用の選択ボタン等に相当する操作部24およびモニタ25を備える。操作部24の出力は制御部12に接続され、モニタ25には表示画像生成部15の出力が接続される。
【0010】
なお、PC18には、モニタ26やプリンタ27等が接続されており、CD−ROM28に記録されたアプリケーションプログラムが予めインストールされている。また、PC18は、不図示のCPU、メモリ、ハードディスクの他に、メモリカード16とのインタフェースをとるメモリカード用インタフェース部(不図示)や所定のケーブルや無線伝送路を介して電子カメラ1等の外部装置とのインタフェースをとる外部インタフェース部(不図示)を備える。
【0011】
図1のような構成の電子カメラ1において、操作部24を介し、操作者によって撮影モードが選択されてレリーズボタンが押されると、制御部12は、タイミング制御部23を介して、撮像素子21、アナログ信号処理部22、A/D変換部10に対するタイミング制御を行う。撮像素子21は、光学像に対応する画像信号を生成する。その画像信号は、アナログ信号処理部22で所定の信号処理が行われ、A/D変換部10でディジタル化され、画像データとして、画像処理部11に供給される。
【0012】
本実施の形態の電子カメラ1では、撮像素子21において、R(赤)、G(緑)、B(青)のカラーフィルタがデルタ配列(後述)されているので、画像処理部11に供給される画像データはRGB表色系で示される。画像データを構成する各々の画素には、RGBの何れか1つの色成分の色情報が存在する。
【0013】
画像処理部11は、このような画像データに対し、後述する画像データ変換処理を行う他に、階調変換や輪郭強調などの画像処理を行う。このような画像処理が完了した画像データは、必要に応じて、圧縮/伸長部14で所定の圧縮処理が施され、メモリカード用インタフェース部17を介してメモリカード16に記録される。
【0014】
なお、画像処理が完了した画像データは、圧縮処理を施さずにメモリカード16に記録したり、PC18側のモニタ26やプリンタ27で採用されている表色系に変換して、外部インタフェース部19を介してPC18に供給しても良い。また、操作部24を介し、操作者によって再生モードが選択されると、メモリカード16に記録されている画像データは、メモリカード用インタフェース部17を介して読み出されて圧縮/伸長部12で伸長処理が施され、表示画像生成部15を介してモニタ25に表示される。
【0015】
なお、伸長処理が施された画像データは、モニタ25に表示せず、PC18側のモニタ26やプリンタ27で採用されている表色系に変換して、外部インタフェース部19を介してPC18に供給しても良い。
【0016】
(画像処理)
次に、デルタ配列で得られた画像データについて、三角格子上で補間処理し、コンピュータ上の取り扱いが容易な正方格子データに復元する処理について説明する。図25は、これらの処理の概念を示す図である。三角格子とは、撮像素子の画素が1行ごとに1/2画素ずれて配列された並びを言う。隣接する各画素の中心を結ぶと三角形を形成する並びである。画素の中心点を格子点と言ってもよい。図24(b)のデルタ配列は、三角格子状に配列されたものである。図24(b)のような配列で得られる画像は、画素が三角配置された画像と言ってもよい。正方格子とは、撮像素子の画素が1行ごとにずれないで配列された並びを言う。隣接する各画素の中心を結ぶと四角形を形成する並びである。図24(a)のベイア配列は正方格子状に配列されたものである。図24(a)のような配列で得られる画像は、画素が矩形(四角)配置された画像と言ってもよい。
【0017】
また、後述するように、デルタ配列の画像データを1行おきに1/2画素ずらす処理をすると、正方格子データが生成される。三角格子上で補間処理をするとは、デルタ配列で得られた画像データの状態で補間処理をすることを言う。すなわち、デルタ配列の画素位置に欠落する色成分の色情報を補間することを言う。
【0018】
図2は、画像処理部11が行う画像処理の概要を示すフローチャートである。ステップS1では、デルタ配列の撮像素子21で得られた画像を入力する。ステップS2において、類似度の算出を行う。ステップS3では、ステップS2で得られた類似度に基づき類似性を判定する。ステップS4では、ステップS3で得られた類似性の判定結果に基づいて、各画素において欠落する色成分の補間値を算出する。ステップS5では、得られたRGBカラー画像を出力する。ステップS5で出力されるRGBカラー画像は三角格子上で得られた画像データである。
【0019】
次に、ステップS6で、三角格子上で得られた画像データに対して1次元変位処理を行う。1次元変位処理は、後述するように、1行おきの画像データに対して行う。ステップS7で、1次元変位処理を行った画像データと行わなかった画像データを合わせて正方格子画像データを出力する。ステップS1〜S5は、三角格子上での補間処理であり、ステップS6、S7は正方化処理である。以下、これらの処理の詳細について説明する。
【0020】
−三角格子上補間処理−
以下の説明では、代表してR画素位置での補間処理について説明する。図3は、デルタ配列の撮像素子21により得られた画素の位置関係を示す図である。撮像素子21の画素は1行ごとに1/2画素ずれて配置され、カラーフィルターはRGBの色成分が1:1:1の割合で各画素上に配列されている。すなわち、均等に色配分されている。参考に、ベイア配列のカラーフィルタはRGBが1:2:1の割合で配列されている(図24(a))。
【0021】
R成分の色情報を有する画素をR画素、B成分の色情報を有する画素をB画素、G成分の色情報を有する画素をG画素と言う。撮像素子21で得られた画像データは、各画素に1つの色成分の色情報しか有しない。補間処理は、各画素に欠落する他の色成分の色情報を計算により求める処理である。以下、R画素位置にG、B成分の色情報を補間する場合について説明する。
【0022】
図3において、R画素である処理対象画素(補間対象画素)をRctrと呼ぶ。また、画素Rctrの周辺に存在する各画素位置を角度を用いて表現する。例えば、60度方向に存在するB画素をB060、G画素をG060と表現する。ただし、この角度は厳密な角度ではなく近似的なものである。また、0度-180度を結ぶ方向を0度方向、120度-300度を結ぶ方向を120度方向、240度-60度を結ぶ方向を240度方向、30度-210度を結ぶ方向を30度方向、150度-330度を結ぶ方向を150度方向、270度-90度を結ぶ方向を270度方向と呼ぶことにする。
【0023】
1.類似度の算出
0度、120度、240度方向の類似度C000、C120、C240を算出する。第1の実施の形態では、式(1)(2)(3)に示すように、異なる色成分間で構成される異色間類似度を求める。
C000 = {|G000-Rctr|+|B180-Rctr|+|(G000+B180)/2-Rctr|}/3 ...(1)
C120 = {|G120-Rctr|+|B300-Rctr|+|(G120+B300)/2-Rctr|}/3 ...(2)
C240 = {|G240-Rctr|+|B060-Rctr|+|(G240+B060)/2-Rctr|}/3 ...(3)
このように隣接画素間で定義される異色間類似度は、デルタ配列の三角格子で規定されるナイキスト周波数の画像構造を空間的に解像させる能力を持つ。
【0024】
次に、類似度の周辺加算を行って周辺画素との連続性を考慮することにより、類似度の精度を上げる。ここでは各画素について求めた上記類似度を、R位置について図4に示す係数を使用して周辺加算を行う。周辺加算を行った類似度を小文字で表記する。[]は、処理対象画素から見たデルタ配列上の画素位置を表す。式(4)は0度方向の類似度の周辺加算を示す。
c000 = {6*C000[Rctr]
+C000[R030]+C000[R150]+C000[R270]
+C000[R210]+C000[R300]+C000[R090]}/12 ...(4)
120度方向のc120、240度方向のc240も同様にして求める。
【0025】
2.類似性判定
上述した類似度は値が小さいほど大きな類似性を示すので、各方向の類似性の強弱を、類似度の逆数比で連続的に変化するように判定する。すなわち(1/c000):(1/c120):(1/c240)で判定する。具体的には、次の加重係数を演算する。
【0026】
各方向の類似性を1で規格化された加重係数w000、w120、w240として表すと、
w000=(c120*c240+Th)/(c120*c240+c240*c000+c000*c120+3*Th) ...(5)
w120=(c240*c000+Th)/(c120*c240+c240*c000+c000*c120+3*Th) ...(6)
w240=(c000*c120+Th)/(c120*c240+c240*c000+c000*c120+3*Th) ...(7)
により求まる。ただし、閾値Thは発散を防ぐための項で正の値をとる。通常Th=1とすればよいが、高感度撮影画像などノイズの多い画像に対してはこの閾値を上げるとよい。加重係数w000、w120、w240は、類似性の強弱に応じた値となる。
【0027】
ベイア配列では、米国特許5,552,827号、米国特許5,629,734号、特開2001-245314号に示されるように、G補間における方向判定法として、加重係数による連続的判定法と閾値判定による離散的判定法の2通りがある。ベイア配列では、最隣接G成分が補間対象画素に対して4方向と密に存在するため、連続的判定法と離散的判定法のどちらを使用してもおおよそ問題なく使える。しかし、最隣接G成分が0度方向、120度方向、240度方向の3方向にしか存在しないデルタ配列においては加重係数による連続的な方向判定が重要となる。最隣接G成分とは、補間対象画素と辺を接する画素でG成分を有するものである。図3では、G000,G120,G240である。
【0028】
3.補間値算出
G成分、B成分の補間値を上記加重係数を用いて算出する。補間値は、平均情報と曲率情報の2つの項からなる。
<平均情報>
Gave = w000*Gave000+w120*Gave120+w240*Gave240 ...(8)
Bave = w000*Bave000+w120*Bave120+w240*Bave240 ...(9)
ここで、
Gave000 = (2*G000+G180)/3 ...(10)
Bave000 = (2*B180+B000)/3 ...(11)
Gave120 = (2*G120+G300)/3 ...(12)
Bave120 = (2*B300+B120)/3 ...(13)
Gave240 = (2*G240+G060)/3 ...(14)
Bave240 = (2*B060+B240)/3 ...(15)
である。
<曲率情報>
dR = (6*Rctr-R030-R090-R150-R210-R270-R330)/12 ...(16)
<補間値>
Gctr = Gave+dR ...(17)
Bctr = Bave+dR ...(18)
【0029】
通常、ベイア配列のG補間においては、最隣接G成分を用いて平均情報を求める。しかし、デルタ配列の場合は同様にすると縦線や30度方向、150度方向の境界線がブツブツになる問題が生じることが実験的に判明した。これは、例えば縦線境界の場合、加重係数がw000≒0、w120≒w240≒0.5になっていると想定され、2方向間で平均処理を行う部分に相当する。しかしながら、最隣接画素平均だけでは、縦線に沿ってある点では左側の2点平均をとり、次の隣の斜め右上あるいは右下の点では右側の2点平均をとることになってしまうためと考えられる。
【0030】
そこで、第2隣接画素まで考慮して補間対象画素からの距離比に応じた平均処理を行うと、例えば縦線の場合、常に右側と左側の両方から平均をとるので、縦線、30度方向、150度方向の境界線のブツブツが劇的に改善する。故に、式(10)〜(15)に示すように、第2隣接画素まで含む平均処理を行う。これにより、30度、150度、270度方向の空間解像力が向上する。例えば、式(10)において、G000が最隣接画素あるいは第1隣接画素であり、G180が第2隣接画素である。式(12)において、G120が最隣接画素あるいは第1隣接画素であり、G300が第2隣接画素である。他の式も同様である。第1隣接画素は約1画素ピッチ離れた画素であり、第2隣接画素は約2画素ピッチ離れた画素と言える。RctrとG120は約1画素ピッチ離れており、RctrとG300は約2画素ピッチ離れていると言える。図22は、隣接画素について定義する図である。centerは処理対象画素であり、nearestは最近接あるいは最隣接あるいは第1隣接画素であり、2ndは第2隣接画素である。
【0031】
また、ベイア配列補間の従来技術において、曲率情報dRに相当する項は平均情報と同じ方向性を考慮して算出するのが普通である。しかしながら、デルタ配列においては、平均情報の方向性(0度、120度、240度方向)と抽出可能な曲率情報の方向性(30度、150度、270度方向)が一致していない。このような場合、30度方向と150度方向の曲率情報を平均して0度方向の曲率情報を定義し、ベイア配列と同様に曲率情報の方向性を考慮して補間値を算出することも可能であるが、曲率情報は方向性を考慮せずに一律に抽出するほうが効果が大きいことが実験的に判明した。従って、本実施の形態では、方向性のない曲率情報で方向性を考慮した平均情報を補正する。これにより、あらゆる方向の高周波領域まで階調鮮明性を向上させることが可能となる。
【0032】
曲率情報dRを求める式(16)は、図5に示す係数値が使用される。式(16)は、補間対象画素Rctrと周辺画素の差分とその反対側の周辺画素と補間対象画素Rctrの差分とを求めさらにそれらの差分を求めている。従って、2次微分演算により求められている。
【0033】
また、曲率情報dRとは、ある色成分の色情報の変化する度合いを示す情報である。ある色成分の色情報の値をプロットして曲線で表した場合、その曲線の曲がりの変化、曲がり具合を示す情報である。すなわち、色成分の色情報の変化の凹凸に関する構造情報が反映された量である。本実施の形態では、R画素位置の曲率情報dRは、補間対象画素のRctrと周辺のR画素の色情報を使用して求める。G画素位置の場合はG成分、B画素位置の場合はB成分の色情報を使用する。
【0034】
以上のようにして、「R画素位置におけるG、B成分の補間処理」を行うことができた。「G画素位置におけるB、R成分の補間処理」は、「R画素位置におけるG、B成分の補間処理」の記号をRをGに、GをBに、BをRに循環的に置き換えて全く同様の処理を行えばよい。また、「B位置におけるR、G成分の補間処理」は、「G位置におけるB、R成分の補間処理」の記号をGをBに、BをRに、RをGに循環的に置き換えて全く同様の処理を行えばよい。すなわち、各補間処理において同一の演算ルーチン(サブルーチン)を使用することが可能である。
【0035】
以上のようにして復元された画像は、空間方向に関してデルタ配列が持つ限界解像性能を全て引き出すことができる。すなわち、周波数空間(k空間)で見ると、図6に示すように、デルタ配列が持つ六角形の無彩色再現領域を全て解像する。また、階調方向に関しても鮮明な画像が得られる。特に無彩色部の多い画像に対しては極めて有効な手法である。
【0036】
−正方化処理−
次に、上述のように三角格子上で補間処理された画像データを、コンピューター上の取り扱いが容易な正方格子データに復元する処理について説明する。行単位で1/2画素ずつずれた単板撮像素子のデータを、3色揃った正方格子データに復元する従来技術として、デルタ配列については特開平8-340455号公報、ハニカム配列については特開平2001-103295号公報、特開平2000-194386号公報等がある。
【0037】
特開平8-340455号公報では、三角格子と異なる画素位置に復元データを生成したり、三角格子より倍の画素密度を持つ仮想正方格子に復元データを生成したりする例を示している。また、三角格子と半分の行は同じ画素位置に復元して、残りの半分の行は三角格子と1/2画素ずれた画素位置に復元する例も示している。しかし、これは直接正方格子位置で補間処理を実現し、三角格子の隣接画素との距離が変わると別々の補間処理を適用するものである。一方、特開平2001-103295号公報では2次元のキュービック補間により正方化し、特開平2000-194386号公報では仮想的な倍密正方格子データを生成している。
【0038】
このように色々なやり方が存在するが、本第1の実施の形態では、デルタ配列の性能を最大限に維持する方式を示す。
【0039】
本第1の実施の形態では、上述したように、まず、デルタ配列と同じ画素位置に三角格子のまま補間データを復元している。これにより、デルタ配列が持つ空間周波数の限界解像性能を引き出すことができる。また、色差補正処理やエッジ強調処理も三角配置のままで行うとその効果が等方的にうまく作用する。従って、いったん三角格子上で画像復元し、各画素にRGB値を生成する。
【0040】
次に、三角格子上で生成された画像データを正方化変換する。三角格子の解像性能を保持するには、できるだけ元のデータを残すことが重要であることが実験的に判明した。したがって、一行置きに半分の行だけ1/2画素ずらす変位処理を行い、残り半分の行は処理せず三角配置が持つ縦線のナイキスト解像を維持させる。変位処理は、処理対象行の一次元内でキュービック補間により自己推定させると、正方格子のナイキスト周波数の影響は多少受けるものの、ほとんど問題なく三角格子の縦線解像度が維持できることが実験により確認された。
【0041】
すなわち、偶数行について、以下の式(19)の処理を行い、その後、式(20)の代入処理を行う。これにより、[x,y]の画素位置のR成分の色情報を求める。
tmp_R[x,y]={-1*R[x-(3/2)pixel,y]+5*R[x-(1/2)pixel,y]
+5*R[x+(1/2)pixel,y]-1*R[x+(3/2)pixel,y]}/8 ...(19)
R[x,y] = tmp_R[x.y] ...(20)
G成分、B成分についても同様にして求める。式(19)の処理を、キュービック変位処理と言う。また、1次元方向の位置を変位処理しているので1次元変位処理とも言う。図7は、式(19)で使用する係数値を示す図である。上記キュービックによる1次元変位処理は正および負の係数値からなる1次元フィルタをかける処理と言える。
【0042】
上述したような画像復元方法は、三角配置の限界解像度を最大限に維持できるだけでなく、三角格子上の画像復元処理は全ての画素で同一の処理ルーチンを使うことが可能で、最後に半分の行だけ単純な一次元処理を施すだけで済むので、データ量の増加を伴わず、従来技術に比べより簡略なアルゴリズムを達成することができる。特にハードウェアで実現する場合にはその効果は大きい。
【0043】
−第2の実施の形態−
第1の実施の形態では、異色間類似度を求めて類似性を判定するものであったが、第2の実施の形態では同色間類似度を求めて類似性を判定する。第2の実施の形態は、彩色部を多く含む画像に対して有効である。第2の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。画像処理について、第1の実施の形態と異なる部分を中心に説明する。特に記載がなければ第1の実施の形態と同様とする。
【0044】
(画像処理)
−三角格子上補間処理−
1.類似度の算出
0度、120度、240度方向の類似度C000、C120、C240を算出する。第2の実施の形態では、式(20)(21)(22)に示すように、同じ色成分間で構成される同色間類似度を求める。3画素ピッチ離れた画素間の演算が行われる。図8は、式(20)(21)(22)で使用する画素位置を示す図である。
C000 = {(|R000-Rctr|+|R180-Rctr|)/2+|G000-G180|+|B000-B180|}/3 ...(20)
C120 = {(|R120-Rctr|+|R300-Rctr|)/2+|G120-G300|+|B120-B300|}/3 ...(21)
C240 = {(|R240-Rctr|+|R060-Rctr|)/2+|G240-G060|+|B240-B060|}/3 ...(22)
このように定義される同色間類似度は、彩色部における0度方向の横線や120度方向、240度方向の画像構造を空間的に解像させる能力を持ち、また色収差のある系に対しても影響を受けることなく画像構造を判別する能力を有する。
【0045】
次に、第1の実施の形態と同様にして、類似度の周辺加算を行う。
【0046】
2.類似性判定
第1の実施の形態と同様である。
【0047】
3.補間値算出
G成分、B成分の補間値を算出する。補間値は、平均情報と曲率情報の2つの項からなる。
<平均情報>:第1の実施の形態と同様である。
<曲率情報>
dR = (6*Rctr-R030-R090-R150-R210-R270-R330)/12 ...(23)
dG = ((G000+G120+G240)-(G060+G180+G300))/6 ...(24)
dB = ((B060+B180+B300)-(B000+B120+B240))/6 ...(25)
<補間値>
Gctr = Gave+(dR+dG+dB)/3 ...(26)
Bctr = Bave+(dR+dG+dB)/3 ...(27)
【0048】
第2の実施の形態では、第1の実施の形態と異なり3色の曲率情報で平均情報を補正している。これは、従来技術の特開2001-245314号公報に開示されているように、彩色部や色収差を含む画像においてdRのみによる過補正を防ぎつつ、階調方向の鮮明性を保つためである。ただし、特開2001-245314号公報はベイア配列に関するものである。このように3色の曲率情報を使用する場合でも、ベイア配列の場合と違って、第1の実施の形態と同様に、RGB3成分とも方向性のない曲率情報による補正が、最もあらゆる方向に対して階調鮮明性を上げる効果が高いことが実験により判明した。また、デルタ配列がR:G:B=1:1:1からなるので、3成分の曲率情報を1:1:1で用いるのがよいことも分かった。図9は、式(23)(24)(25)で使用する係数値を図示したものである。
【0049】
以上のようにして、「R画素位置におけるG、B成分の補間処理」を行うことができた。「G画素位置におけるB、R成分の補間処理」、「B位置におけるR、G成分の補間処理」も、第1の実施の形態と同様に、RGBをそれぞれ循環的に置きかえることによって求める。正方化処理も、第1の実施の形態と同様に行うことができる。
【0050】
以上のように、第2の実施の形態の復元処理は、彩色部を含む画像に対しても色境界を判別して解像させることができ、かつ階調方向の過補正を引き起こすことなく鮮明な画像を得ることができる。また、色収差を含むような系に対しても強い。
【0051】
−第3の実施の形態−
ベイア配列で得られる画像データの画像処理においては通常、補間処理後に画像に残っている偽色を低減するためにRGB信号を、輝度と色差からなるYCbCrに変換し、Cb、Cr面で色差ローパスフィルタを掛けたり、色差メディアンフィルタを掛けたりして偽色を除去し、RGB表色系に戻す事後処理が行われる。また、光学ローパスフィルタ等による鮮明度の低下を補うために、輝度成分Y面にエッジ強調処理を施したりする。デルタ配列の場合も、全く同様の事後処理を適応してもよい。
【0052】
しかし、第3の実施の形態では、デルタ配列に適した事後処理の方法を示す。第3の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。
【0053】
図10は、第3の実施の形態において、画像処理部11が行う画像処理の概要を示すフローチャートである。第1の実施の形態と同様に三角格子上で補間処理が行われるものとする。図10は、補間処理後のRGBカラー画像を入力するところからスタートする。すなわち、第1の実施の形態の図2のステップS1〜S5が終了し、その後、図10のフローチャートが開始する。
【0054】
ステップS11では、補間処理後のRGBカラー画像データを入力する。ステップS12において、RGB表色系から本第3の実施の形態特有のYCrCgCb表色系に変換する。ステップS13では、色差面(CrCgCb面)に対してローパスフィルタ処理を行う。ステップS14では、輝度面(Y面)に対してエッジ強調処理を行う。ステップS15では、色差面の偽色が除去された段階で、YCrCgCb表色系を元のRGB表色系に戻す変換をする。ステップS16において、得られたRGBカラー画像データを出力する。ステップS16で出力されるRGBカラー画像データは三角格子上で得られた画像データである。
【0055】
三角格子上で得られた画像データに対して正方化処理をする場合は、第1の実施の形態と同様に、図2のステップS6、S7の処理を行う。以下、上述のステップS12〜15の処理の詳細について説明する。
【0056】
1.表色系変換
RGB表色系からYCrCgCb表色系に変換する。ただし、YCrCgCb表色系は、式(28)〜(31)で表されるものとして定義する。
Y[i,j] = (R[i,j]+G[i,j]+B[i,j])/3 ...(28)
Cr[i,j] = R[i,j]-Y[i,j] ...(29)
Cg[i,j] = G[i,j]-Y[i,j] ...(30)
Cb[i,j] = B[i,j]-Y[i,j] ...(31)
【0057】
サーキュラーゾーンプレートを撮像して三角格子上で補間処理した後、式(28)のように、Y面生成においてRGBを均等に扱う変換を行うと、図6の六角形の角の部分を中心に発生するような色モアレが、完全に輝度面Yからは消え去るようになる。その結果、全ての偽色要素を色差成分Cr,Cg,Cbに含ませることができる。そして、従来扱われている2種類の色差成分ではなく、第3の実施の形態では3種類の色差成分を用意して扱っているので、デルタ配列固有の全ての偽色要素を取り出すことができる。
【0058】
2.色差補正
ここでは、色差補正の処理として色差面に対して式(32)によりローパス処理を行う例を示す。三角格子(三角配置)上で色差ローパスフィルタを掛けるとその偽色低減効果は全方向に対して相性よく得られる。また、三角格子上のメディアンフィルタ処理でもよい。ここで[]は、図22に示すように、処理対象画素から見た三角格子上の画素位置を表すものとする。図11は、式(32)に使用する係数値を図示するものである。なお、ローパスフィルタはここに示すものに留まらず、他のものを用いてもよい。図12、図13に他のローパスフィルタの例を示す。
<ローパス処理>
tmp_Cr[center] = {9*Cr[center]
+2*(Cr[nearest000]+Cr[nearest120]+Cr[nearest240]
+Cr[nearest180]+Cr[nearest300]+Cr[nearest060])
+Cr[2nd000]+Cr[2nd120]+Cr[2nd240]
+Cr[2nd180]+Cr[2nd300]+Cr[2nd060]}/27 ...(32)
tmp_Cg, tmp_Cbについても同様に処理する。
<代入処理>
Cr[i,j] = tmp_Cr[i,j] ...(33)
Cg[i,j] = tmp_Cg[i,j] ...(34)
Cb[i,j] = tmp_Cb[i,j] ...(35)
【0059】
3.エッジ強調処理
次に、輝度面Yに対するエッジ強調処理が必要であれば、三角格子上で以下の処理を行う。
<バンドパス処理>
三角格子上のラプラシアン処理によりエッジ抽出する。図14は、式(36)のラプラシアン処理に使用する係数値を図示するものである。なお、ラプラシアンはここに示すものに留まらず、他のものを用いてもよい。図15、図16に他のラプラシアンの例を示す。
YH[center]={6*Y[center]
-(Y[nearest000]+Y[nearest120]+Y[nearest240]
+Y[nearest180]+Y[nearest300]+Y[nearest060])}/12 ...(36)
<エッジ強調処理>
Y[center]=Y[center]+K*YH[center] ...(37)
ここで、Kは零以上の値で、エッジ強調の加減を調整するパラメータである。
【0060】
4.表色系変換
前述した通り色差補正処理がなされ、色差面の偽色が除去された段階で、元のRGB表色系に戻す。
R[i,j]=Cr[i,j]+Y[i,j] ...(38)
G[i,j]=Cg[i,j]+Y[i,j] ...(39)
B[i,j]=Cb[i,j]+Y[i,j] ...(40)
【0061】
このように、輝度解像をR:G:B=1:1:1の比で生成したY成分に待避させ、3種類の均等に扱った色差成分Cr,Cg,Cbを導入することにより、極めて偽色抑制能力の高い色差補正が可能となる。また、色差補正処理や輝度補正処理を三角格子上で行うことにより、デルタ配列の方向性に適した補正処理が可能となる。
【0062】
−第4の実施の形態−
第1の実施の形態では、三角格子上において、各画素に欠落する色成分の色情報を補間する処理について説明した。第4の実施の形態では、第1の実施の形態のRGB面内における補間処理とは異なる系統の画像復元処理の例を示す。これは、デルタ配列から、RGB面内の補間処理を介さずに直接輝度成分と色差成分を作る方式である。思想的に第3の実施の形態で示した1つの輝度面と3つの色差面に分離することの有用性を引き継ぎ、輝度面には無彩色の輝度解像力を最大限に引き出す役割を担当させ、3つの色差面には3原色の色解像力を最大限に引き出す役割を担当させている。
【0063】
第4の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。
【0064】
(画像処理)
図17は、デルタ配列のデルタ面から、直接、輝度面(Y)と3つの色差面(Cgb,Cbr,Crg)を生成し、その後、元のRGBの表色系に変換する概念を示す図である。図18は、第4の実施の形態において、画像処理部11が行う画像処理の概要を示すフローチャートである。
【0065】
ステップS21では、デルタ配列の撮像素子21で得られた画像を入力する。ステップS22において、類似度の算出を行う。ステップS23では、ステップS22で得られた類似度に基づき類似性を判定する。ステップS24では、ステップS23で得られた類似性の判定結果とステップS21で得られたデルタ配列の画像データに基づき輝度面(Y0面)を生成する。ステップS25では、ステップS24で得られた輝度面(Y0面)に対して補正処理を行う。
【0066】
一方、ステップS26では、ステップS23で得られた類似性の判定結果とステップS21で得られたデルタ配列の画像データに基づき、色差成分Cgb,Cbr,Crgを生成する。ステップS26では、まだ、すべての画素においてすべての色差成分Cgb,Cbr,Crgが生成されてはいない。ステップS27で、生成されていない色差成分を周辺の色差成分に基づき補間処理をする。その結果、Cgb,Cbr,Crgの色差面が完成する。
【0067】
ステップS28では、生成されたY,Cgb,Cbr,Crgの表色系からRGB表色系に変換する。ステップS29で、変換されたRGBカラー画像データを出力する。ステップS21〜ステップS29は、すべて三角格子上での処理である。従って、ステップS29で出力されるRGBカラー画像データは、三角格子の画像データである。以下、これらの処理の詳細について説明する。なお、正方化処理が必要な場合は、第1の実施の形態の図2のステップS6、S7と同様の処理を行う。
【0068】
1.類似度の算出
まず、類似度の算出を行う。ここでは、任意の方式で求められる類似度でよい。ただし、できるだけ正確なものを利用するものとする。例えば、第1の実施の形態で示した異色間類似度や、第2の実施の形態で示した同色間類似度や、それらを組み合わせて用いたもの、あるいは色指標等によって異色間類似度と同色間類似度を切り替えて用いたものでもよい。
【0069】
2.類似性判定
第1の実施の形態と同様にして判定する。
【0070】
3.復元値算出
1)輝度成分生成
まず、デルタ面を方向類似性に応じて変化する正の係数で常にR:G:B=1:1:1となるように加重加算して輝度面を生成する。その加重加算の範囲は第1の実施の形態と同様の理由によって、G成分とB成分は第2隣接画素までとる。すなわち、第1の実施の形態の式(10)〜式(15)の定義式を用いてもう一度、式(8)(9)を書き直すと式(41)(42)のようになる。
<G>2nd = Gave = w000*Gave000+w120*Gave120+w240*Gave240 ...(41)
<B>2nd = Bave = w000*Bave000+w120*Bave120+w240*Bave240 ...(42)
これらと中心のR成分を用いて、式(43)により輝度成分Y0を生成する。
Y0=Rctr+<G>2nd+<B>2nd ...(43)
【0071】
このようにして生成される輝度成分は、正の方向加重係数を用いて常に一定の色成分比で中心画素を含みながら生成されるので、極めて階調鮮明性の潜在能力が高く、空間解像力の高い画像が得られ、かつ色収差に影響されずに極めて滑らかに周辺画素と連結する画像が得られる。例えば、無彩色のサーキュラーゾーンプレートに対して、異色間類似度を類似度として採用した場合、第1の実施の形態と同様に空間解像度は図6の限界解像まで達する。
【0072】
2)輝度成分補正
上述した輝度面は正の係数のみを用いて生成されているので、そこに含まれている階調鮮明性の潜在能力を引き出すために、ラプラシアンによる補正処理を行う。輝度面Y0は、方向性を考慮して周辺画素と極めて滑らかに連結するように作られているので、補正処理は新たに方向性に応じて計算しなければならないような補正項の算出は不要で、固定バンドパスフィルタによる単一処理でよい。三角配置におけるラプラシアンの取り方は、第3の実施の形態の図14〜図16に示すようにいくつかの方法が可能である。しかし、若干なりとも最適度を上げるならば、輝度面Y0が0度、120度、240度方向のG,B成分を集めてしか生成しえないので、その間隙の方向を埋め合わせるために、ここではそれとは独立な30度、150度、270度方向の図15のラプラシアンで補正する場合を示す(式(44))。補正された輝度成分をYとする。
【0073】
<バンドパス処理>
YH[center]={6*Y0[center]
-(Y0[2nd030]+Y0[2nd150]+Y0[2nd270]
+Y0[2nd210]+Y0[2nd330]+Y0[2nd090])}/12 ...(44)
<補正処理>
Y[center]=Y[center]+k*YH[center] ...(45)
ここで、kは正の値で通常1とする。ただし、1より大きい値に設定することで、第3の実施の形態に示したようなエッジ強調処理をここで兼ね備えることもできる。
【0074】
3)色差成分生成
3つの色差面は第3の実施の形態の定義と異なり、輝度面Yとは独立にデルタ面から直接生成する。3つの色差成分Cgb,Cbr,Crgを求める。ただし、Cgb=G-B、Cbr=B-R、Crg=R-Gと定義する。
【0075】
まず、R位置においてCrgとCbrを求める。中心画素のR成分と周辺画素のG成分もしくはB成分との差分値を方向性を考慮しながら算出する。
Crg=Rctr-{<G>2nd+dG} ...(46)
Cbr={<B>2nd+dB}-Rctr ...(47)
ここに、dG,dBは、第2の実施の形態の式(24)(25)で定義されたものと同じで、<G>2nd,<B>2ndは式(41)(42)と同じである。色差成分の生成においても第1の実施の形態と同様に、第2隣接画素までを含む平均情報を算出し、輝度成分との整合性をとることにより、30度、150度、270度方向の解像力を上げている。また、dGとdBは必ずしも必要な訳ではないが、色解像力と色鮮やかさを上げる効果があるので付加している。
【0076】
G位置における色差成分Cgb,Crg、およびB位置における色差成分Cbr,Cgbも同様にして求める。この時点でR位置にはCrg,Cbr成分が、その最隣接画素にはCgb成分が求まっている。図19は、その様子を示す図である。
【0077】
次に、R位置周辺画素のCgb成分を用いて式(48)よりR位置にCgb成分を求める(補間処理)。このとき、R位置で求まっている方向判定結果を用いて算出する。
Cgb[center]=w000*(Cgb[nearest000]+Cgb[nearest180])/2
+w120*(Cgb[nearest120]+Cgb[nearest300])/2
+w240*(Cgb[nearest240]+Cgb[nearest060])/2 ...(48)
【0078】
以上のようにして、全ての画素にYCgbCbrCrgの4成分が求まる。必要に応じて、色差面Cgb,Cbr,Crgに対しては第3の実施の形態と同様の色差ローパスフィルタ等の補正処理を行って、偽色抑制を図ってもよい。
【0079】
4)表色系変換
各画素に生成されたYCgbCbrCrgをRGB表色系に変換する。Y=(R+G+B)/3, Cgb=G-B, Cbr=B-R, Crg=R-Gは独立な4式ではなく、Cgb+Cbr+Crg=0の関係を満たす。すなわち、4対3変換なので変換方法は一意的ではないが、色モアレを抑制し、輝度解像度と色解像度を最高にするため、R,G,Bそれぞれの変換式に全てのY,Cgb,Cbr,Crg成分が含まれるようにし、相互のモアレ相殺効果を利用する。こうしてY,Cgb,Cbr,Crg各面がそれぞれに役割分担して生成されてきた最高性能の全てを、R,G,Bの各々に反映させることができる。
R[i,j]=(9*Y[i,j]+Cgb[i,j]-2*Cbr[i,j]+4*Crg[i,j])/9 ...(49)
G[i,j]=(9*Y[i,j]+4*Cgb[i,j]+Cbr[i,j]-2*Crg[i,j])/9 ...(50)
B[i,j]=(9*Y[i,j]-2*Cgb[i,j]+4*Cbr[i,j]+Crg[i,j])/9 ...(51)
【0080】
以上説明したように、第4の実施の形態の画像復元方法は、極めて階調鮮明性が高く、空間方向にも優れた輝度解像性能と色解像性能を同時に達成しつつ、色収差に対しても強いという効果を発揮する。正方化処理が必要な場合は、第1の実施の形態と同様に行うことができる。
【0081】
−第5の実施の形態−
第2の実施の形態では、同色間類似度を求めて類似性を判定した。このとき、0度、120度、240度方向の類似度のみを求めるものであった。しかし、第5の実施の形態では、30度、150度、270度方向の類似度も求めるようにしたものである。第5の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。
【0082】
R画素位置にG、B成分を補間する場合を中心に述べる。また、第2の実施の形態の図8を参照する。R画素位置においてG成分の最隣接画素は隣接して0度、120度、240度を指す位置に3つあり、第2隣接画素は2画素分離れた60度、180度、300度を指す位置に3つある。B成分も同様に、最隣接画素は隣接して60度、180度、300度を指す位置に3つあり、第2隣接画素は2画素分離れた0度、120度、240度を指す位置に3つある。また、R成分の最隣接画素は2画素分離れた30度、90度、150度、210度、270度、330度を指す位置に6つあり、第2隣接画素は3画素分離れた0度、60度、120度、180度、240度、300度を指す位置に6つある。
【0083】
1.類似度の算出
1)3画素間隔同色間類似度の算出
0度、120度、240度方向の類似度C000、C120、C240を算出する。これらの方向の同じ色成分間で構成される同色間類似度は、3画素間隔より短く定義することができない。
C000 = {(|R000-Rctr|+|R180-Rctr|)/2+|G000-G180|+|B000-B180|}/3 ...(52)
C120 = {(|R120-Rctr|+|R300-Rctr|)/2+|G120-G300|+|B120-B300|}/3 ...(53)
C240 = {(|R240-Rctr|+|R060-Rctr|)/2+|G240-G060|+|B240-B060|}/3 ...(54)
【0084】
このように定義される同色間類似度は、R画素位置に欠落するG成分とB成分が存在する方向と一致する方向性を調べているので、彩色部における0度方向の横線や120度方向、240度方向の画像構造を空間的に解像させる能力を持つと考えられる。しかし、ベイア配列における2画素間隔の同色間類似度と違って、3画素間隔と極めて離れた画素間の情報であることに注意を要する。
【0085】
2)2画素間隔同色間類似度の算出
次に、30度、150度、270度方向の類似度C030、C150、C270を算出する。これらの方向の同色間類似度は、0度、120度、240度方向と異なりより短い2画素間隔で定義することができる。
C030 = {(|R030-Rctr|+|R210-Rctr|)/2+|G240-G000|+|B060-B180|}/3 ...(55)
C150 = {(|R150-Rctr|+|R330-Rctr|)/2+|G000-G120|+|B180-B300|}/3 ...(56)
C270 = {(|R270-Rctr|+|R090-Rctr|)/2+|G120-G240|+|B300-B060|}/3 ...(57)
ただし、R画素位置に欠落するG成分とB成分が存在する方向と一致しない方向の類似性を調べているので、これらを有効に活用するにはテクニックを要する。
【0086】
3)類似度の周辺加算
更に、上述した類似度の各々について周辺加算を行って周辺画素との連続性を考慮することにより、類似度の精度を上げる。ここでは各画素について求めた上記6つの類似度それぞれに対し、R画素位置について周辺加算を行う。周辺加算を行った類似度を小文字で表記する。ただし、[]は、処理対象画素から見たデルタ配列上の画素位置を表すものとする。式(58)は第1の実施の形態の式(4)と同様である。
c000 = {6*C000[Rctr]
+C000[R030]+C000[R150]+C000[R270]
+C000[R210]+C000[R300]+C000[R090]}/12 ...(58)
c120, c240, c030, c150, c270も同様にして求める。
ここに、上述した類似度の方位関係を図26に示す。
【0087】
2.類似性判定
上述した類似度は値が小さいほどその方向に対して大きな類似性を示す。ただし、類似性を判定して意味があるのは、処理対象画素に存在しないG成分とB成分が存在する方向、すなわち0度、120度、240度方向であり、30度、150度、270度方向の類似性が判定できてもあまり意味がない。そこで、まず考えられるのは、0度、120度、240度方向の類似性の強弱を、0度、120度、240度方向の類似度を用いて、その逆数比で連続的に判定することである。すなわち(1/c000):(1/c120):(1/c240)で判定する。
【0088】
例えば、類似度c000は有彩色の横線を解像する能力を有するので、図20のデルタ配列のRGB各色成分の周波数再現域のky軸方向を限界解像まで伸ばすことができる。すなわち、このような判定方法は、有彩色の画像に対して、図20の6角形の頂点の限界解像まで色解像度を引き伸ばすことができる。しかしながら、3画素間隔という長距離間の類似度であるため、その間の角度となると折り返し周波数成分の影響を受けて方向性を判別することができず、特に30度、150度、270度方向に対しては最もその悪影響が生じ、図20の6角形の各辺の中点付近がえぐれるような色解像力しか発揮することができない。
【0089】
そこで、このような長距離相関の悪影響を防ぐため、短距離相関の類似度c030,c150,c270を有効活用する。ただし、逆数をとるだけでは30度、150度、270度方向の類似性が判別できるようになるだけなので、それを0度、120度、240度方向の類似性に変換するために、逆数ではなく類似度の値自体が30度、150度、270度方向に直交する方向、すなわち120度、240度、0度方向の類似性を表しているものと解釈する。故に0度、120度、240度方向の類似性を以下の比率で判定する。
(c270/c000):(c030/c120):(c150/c240)
【0090】
0度、120度、240度方向の類似性を1で規格化された加重係数w000,w120,w240として表すと、
w000=(c120*c240*c270+Th)
/(c120*c240*c270+c240*c000*c030+c000*c120*c150+3*Th) ...(59)
w120=(c240*c000*c030+Th)
/(c120*c240*c270+c240*c000*c030+c000*c120*c150+3*Th) ...(60)
w240=(c000*c120*c150+Th)
/(c120*c240*c270+c240*c000*c030+c000*c120*c150+3*Th) ...(61)
により求まる。ただし、定数Thは発散を防ぐための項で正の値をとる。通常Th=1とすればよいが、高感度撮影画像などノイズの多い画像に対してはこの閾値を上げるとよい。
【0091】
なお、0度方向と270度方向、120度方向と30度方向、240度方向と150度方向は直交した関係である。この直交した関係を0度方向⊥270度方向、120度方向⊥30度方向、240度方向⊥150度方向と表す。
【0092】
こうして6方向の類似度を用いて連続的に判定された類似性は、有彩色画像に対して図20の六角形の全てを正確に再現する空間解像力を有する。また、この同色間類似度による空間解像力は、同じ色成分間で類似性を見ているため、光学系に含まれる色収差の影響を受けずに常に達成することができる。
【0093】
3.補間値算出
補間値は、第2の実施の形態と同様にして求める。
【0094】
以上のようにして、第5の実施の形態では如何なる画像に対してもデルタ配列が元来有する各RGB単色の空間色解像力を全て引き出すことができる。また、階調方向に鮮明な画像復元が可能で、色収差を含む系に対しても強い性能を発揮する。
【0095】
なお、第5の実施の形態の類似度の算出および類似性の判定を第4の実施の形態の類似度の算出および類似性の判定にも適用できる。このような画像復元方法は、極めて階調鮮明性が高く、空間方向にも優れた輝度解像性能と色解像性能を同時に達成しつつ、色収差に対しても強いという効果を発揮する。特に、鮮明な階調を達成しつつデルタ配列の最高の色解像性能を導き出すことができる。通常の画像処理では、階調鮮明性を上げようとエッジ強調処理を行ったりして、その分色解像力が落ちて色褪せたり、立体感が損なわれたりしてしまうトレードオフが生じるが、この場合、4成分の復元値を導入することによりこの相反する課題を同時に解決することができるようになる。
【0096】
−第6の実施の形態−
ベイア配列においては通常、補間処理後に画像に残っている偽色を低減するためにRGB信号を、輝度と色差からなるYCbCrに変換し、Cb、Cr面で色差ローパスフィルタを掛けたり、色差メディアンフィルタを掛けたりして偽色を除去し、RGB表色系に戻す事後処理が行われる。デルタ配列の場合も、完全に光学ローパスフィルタでナイキスト周波数を落とせなければ、見栄えを良くするため適度な偽色低減処理を必要とする。第6の実施の形態では、デルタ配列の優れた特徴である色解像性能をできるだけ損なわないような事後処理の方法を示す。第6の実施の形態の電子カメラ1の構成は、第1の実施の形態の図1と同様であるのでその説明を省略する。
【0097】
図21は、第6の実施の形態において、画像処理部11が行う画像処理の概要を示すフローチャートである。第1、2、4、5の実施の形態と同様に三角格子上で補間処理が行われるものとする。図21は、補間処理後のRGBカラー画像を入力するところからスタートする。例えば、第1の実施の形態の図2のステップS1〜S5が終了し、その後、図21のフローチャートが開始する。
【0098】
ステップS31では、補間処理後のRGBカラー画像データを入力する。ステップS32において、RGB表色系から本第6の実施の形態特有のYCgbCbrCrg表色系に変換する。ステップS33では、色判定用画像を生成する。ステップS34では、ステップS33で生成した色判定用画像を使用して色指標を算出する。ステップS35では、ステップS34の色指標に基づき低彩度か高彩度かの色判定を行う。
【0099】
ステップS36において、ステップS35の色判定結果に基づき、使用するローパスフィルタを切り換えて色差補正を行う。補正の対象となる色差データはステップS32で生成されたものである。ステップS37では、色差面の偽色が除去された段階で、YCgbCbrCrg表色系を元のRGB表色系に戻す変換をする。ステップS38において、得られたRGBカラー画像データを出力する。ステップS38で出力されるRGBカラー画像データは三角格子上で得られた画像データである。
【0100】
三角格子上で得られた画像データに対して正方化処理をする場合は、第1の実施の形態と同様に、図2のステップS6、S7の処理を行う。以下、上述のステップS32〜37の処理の詳細について説明する。
【0101】
1.表色系変換
RGB表色系からYCgbCbrCrg表色系に変換する。ただし、YCgbCbrCrg表色系は次の式(62)〜(65)で定義される。
Y[i,j] = (R[i,j]+G[i,j]+B[i,j])/3 ...(62)
Cgb[i,j] = G[i,j]-B[i,j] ...(63)
Cbr[i,j] = B[i,j]-R[i,j] ...(64)
Crg[i,j] = R[i,j]-G[i,j] ...(65)
このようにRGBを均等に扱う変換を行うと、例えばサーキュラーゾーンプレートで、図6の六角形の角の部分を中心に発生するような色モアレが、完全に輝度面Yからは消え去り、全ての偽色要素を色差成分Cgb,Cbr,Crgに含ませることができる。
【0102】
2.色評価
1)色判定用画像の生成
無彩色部に於ける偽色をできるだけ彩色部と区別して色評価するために、全面に強力な色差ローパスフィルタをかけて偽色を一旦低減する。ただし、これは一時的な色判定用画像なので、実際の画像には影響を与えない。
TCgb[center] = {9*Cgb[center]
+2*(Cgb[nearest000]+Cgb[nearest120]+Cgb[nearest240]
+Cgb[nearest180]+Cgb[nearest300]+Cgb[nearest060])
+Cgb[2nd000]+Cgb[2nd120]+Cgb[2nd240]
+Cgb[2nd180]+Cgb[2nd300]+Cgb[2nd060]}/27 ...(66)
TCbr, TCrgについても同様に求める。
【0103】
2)色指標の算出
次に、偽色の低減された色判定用画像を用いて色指標Cdiffを算出し、画素単位の色評価を行う。
Cdiff[i,j]=(|Cgb[i,j]|+|Cbr[i,j]|+|Crg[i,j]|)/3 ...(67)
【0104】
3)色判定
上記連続的色指標Cdiffを閾値判定し、離散的な色指標BWに変換する。
if Cdiff[i,j]≦Th then BW[i,j]='a'(低彩度部)
else then BW[i,j]='c'(高彩度部)
ここで閾値Thは256階調の場合30程度に設定するのがよい。
【0105】
3.適応的色差補正
色判定により画像を2つの領域に分割することができたので、無彩色部の偽色は強力に消す一方、彩色部の色解像はできるだけ温存する色差補正処理を加える。ここでは式(68)および式(69)のローパス処理を行うが、メディアンフィルタ処理を用いてもよい。[]は、処理対象画素から見た三角格子上の画素位置を表すものとする。式(68)のローパスフィルタは、第3の実施の形態の図11に示す係数値を使用し、式(69)のローパスフィルタは図13に示す係数値を使用する。
【0106】
<ローパス処理>
if BW[center]='a'
tmp_Cgb[center] = {9*Cgb[center]
+2*(Cgb[nearest000]+Cgb[nearest120]+Cgb[nearest240]
+Cgb[nearest180]+Cgb[nearest300]+Cgb[nearest060])
+Cgb[2nd000]+Cgb[2nd120]+Cgb[2nd240]
+Cgb[2nd180]+Cgb[2nd300]+Cgb[2nd060]}/27 ...(68)
tmp_Cbr, tmp_Crgについても同様に求める。
if BW[center]='c'
tmp_Cgb[center] = {6*Cgb[center]
+Cgb[nearest000]+Cgb[nearest120]+Cgb[nearest240]
+Cgb[nearest180]+Cgb[nearest300]+Cgb[nearest060]}/12 ...(69)
tmp_Cbr, tmp_Crgについても同様に求める。
【0107】
<代入処理>
Cgb[i,j] = tmp_Cgb[i,j]
Cbr[i,j] = tmp_Cbr[i,j]
Crg[i,j] = tmp_Crg[i,j]
【0108】
4.表色系変換処理
色差面の偽色が除去された段階で、第4の実施の形態と同様の式(70)〜(72)を用いて元のRGB表色系に戻す。
R[i,j]=(9*Y[i,j]+Cgb[i,j]-2*Cbr[i,j]+4*Crg[i,j])/9 ...(70)
G[i,j]=(9*Y[i,j]+4*Cgb[i,j]+Cbr[i,j]-2*Crg[i,j])/9 ...(71)
B[i,j]=(9*Y[i,j]-2*Cgb[i,j]+4*Cbr[i,j]+Crg[i,j])/9 ...(72)
【0109】
このようにして第6の実施の形態では、デルタ配列が持つ色解像性能をできるだけ保持した形で、画像全体としての偽色低減が可能となる。尚、第4の実施の形態で生成された画像データにこの事後処理を取り入れる場合は、既にYCgbCbrCrg表色系の状態になっているので、初めの表色系変換は不要で、最後の表色系変換を行う前に上記2.3.の処理を付け加えればよいだけである。
【0110】
なお、第1〜第6の実施の形態に記載した画像復元方法は、デルタ配列の入力画像が撮像素子出力の線形階調のままでも、ガンマ補正された階調のものでも、どのような階調特性のものでも適用できる。8ビットでガンマ補正が既にかかってしまっている入力画像に対しては対処のしようがないが、今日のデジタルスチルカメラの撮像信号は、12ビットの線形階調出力といったものが一般的になっており、このような場合に適した画像復元処理(第1や第2の実施の形態のようなRGB方式も第4の実施の形態のようなYCCC方式も含む)と階調処理の関係をここに示す。図27は、その処理を示すフローチャートである。
1)線形階調デルタ配列データ入力(ステップS41)
2)ガンマ補正処理(ステップS42)
3)画像復元処理(ステップS43)
4)逆ガンマ補正処理(ステップS44)
5)ユーザーガンマ補正処理(ステップS45)
【0111】
ユーザーガンマ補正処理は、線形階調からディスプレイ出力に適した8ビット階調に変換する処理、すなわち、画像のダイナミックレンジを出力表示機器の範囲内に圧縮する処理である。これとは独立に、一旦あるガンマ空間に階調を変換して、第1の実施の形態〜第6の実施の形態に相当する画像復元処理を行うと、より優れた復元結果が得られる。この階調変換方法として以下のようなものがある。
<ガンマ補正処理>
入力信号x(0≦x≦xmax)、出力信号y(0≦x≦ymax)、入力画像はデルタ面
y=ymax√(x/xmax)
入力信号が12ビットの場合はxmax=4095で、出力信号は例えば16ビットのymax=65535に設定するとよい。
<逆ガンマ補正処理>
入力信号y(0≦x≦ymax)、出力信号x(0≦x≦xmax)、入力画像はRGB面
x=xmax(y/ymax)
【0112】
このように平方根型のガンマ空間で画像復元処理を行うと、画像復元処理のテクニックとは別の観点から次のような利点が同時に得られる。
1)色境界部の鮮明化が可能
(例えば、赤白境界の色にじみ抑制や、黒縁発生の抑制等)
2)輝点(極めて明るい部分)周辺の偽色抑制が可能
3)方向判定精度が向上
【0113】
1)と2)は画像復元処理のRGB方式では「補間値算出部」、Y方式では「復元値算出部」が関与して生み出される効果である。また、3)は画像復元処理の「類似度算出部」と「類似性判定部」が関与して生み出される効果である。つまり、入力信号xには量子論的揺らぎの誤差dx=k√x(kはISO感度で決まる定数)が含まれており、平方根のガンマ空間に変換すると誤差伝搬則によりこの誤差が全階調0≦y≦ymaxに渡って均一の誤差dy=constantで扱えるようになるため、方向判定精度が向上する。この技術はデルタ配列に限らずベイア配列やその他諸々のフィルタ配列の補間処理にも応用することができる。上記実施の形態においては、デルタ配列は元々ベイア配列よりも単色の色解像性能が高いため、この階調変換処理を画像復元処理の前後に入れることで、更に優れた色鮮明性を生み出すことが可能となる。
【0114】
上記第1の実施の形態では、三角格子上で補間処理された画像データを正方化処理をする例を示した。また、他の実施の形態でも、正方化処理が必要な場合はその処理を行う旨示した。しかし、三角格子上で補間処理や表色系変換された画像データそのものをそのまま使用するようにしてもよい。
【0115】
上記第3の実施の形態では、第1の実施の形態と同様に生成されたRGBカラー画像データに補正処理を行う例を示したが、必ずしもこの内容に限定する必要はない。他の実施の形態で生成されたRGBカラー画像データに対しても同様に適用できる。このように、上記第1〜第6の実施の形態では、それぞれ適宜組み合わせることが可能である。すなわち、上記第1〜第6の実施の形態では、類似の方向性判定処理、補間処理あるいは色差面直接生成処理、補正等の後処理、正方化処理などを記載しているが、各実施の形態の各処理を適宜組み合わせて最適な画像処理方法、処理装置を実現することができる。
【0116】
上記実施の形態では、単板式の撮像素子を前提にした説明を行ったが、この内容に限定する必要はない。本発明は、2板式の撮像素子においても適用できる。2板式であれば、例えば、各画素において欠落する色成分は1つとなるが、この欠落する1つの色成分の補間処理に上記実施の形態の内容を適用することができ、必要であれば正方化処理も同様にできる。また、第4の実施の形態の、デルタ配列から補間処理を介さずに直接輝度成分と色差成分を作る方式においても、同様に2板式の撮像素子にも適用できる。
【0117】
上記実施の形態では、類似性の判定に各種の計算式を示したが、必ずしも実施の形態に示した内容に限定する必要はない。他の、適切な計算式により類似性を判定するようにしてもよい。また、輝度情報の計算においても各種の計算式を示したが、必ずしも実施の形態に示した内容に限定する必要はない。他の、適切な計算式により輝度情報を生成するようにしてもよい。
【0118】
上記実施の形態では、色差補正等でローパスフィルタ、エッジ強調でバンドパスフィルタの例を示したが、必ずしも実施の形態で示した内容に限定する必要はない。他の構成のローパスフィルタやバンドパスフィルタであってもよい。
【0119】
上記実施の形態では、電子カメラの例で示したが、必ずしもこの内容に限定する必要はない。動画を撮像するビデオカメラや、撮像素子つきパーソナルコンピュータや携帯電話などであってもよい。すなわち、撮像素子によりカラー画像データを生成するあらゆる装置に適用できる。
【0120】
パーソナルコンピュータなどに適用する場合、上述した処理に関するプログラムは、CD−ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供することができる。図23はその様子を示す図である。パーソナルコンピュータ100は、CD−ROM104を介してプログラムの提供を受ける。また、パーソナルコンピュータ100は通信回線101との接続機能を有する。コンピュータ102は上記プログラムを提供するサーバーコンピュータであり、ハードディスク103などの記録媒体にプログラムを格納する。通信回線101は、インターネット、パソコン通信などの通信回線、あるいは専用通信回線などである。コンピュータ102はハードディスク103を使用してプログラムを読み出し、通信回線101を介してプログラムをパーソナルコンピュータ100に送信する。すなわち、プログラムをデータ信号として搬送波にのせて、通信回線101を介して送信する。このように、プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。
【0121】
【発明の効果】
本発明は、第1色成分が欠落する画素に第1色成分を補間するときに、補間対象画素に対して第1色成分が2番目に近接する画素を含む領域の色情報を用いて補間を行っているので、例えば、図3の30度方向、150度方向、270度方向(縦線)の境界線の画像が劇的に向上する。すなわち、30度、150度、270度方向の空間解像力が向上する。
【図面の簡単な説明】
【図1】第1の実施の形態における電子カメラの機能ブロック図である。
【図2】第1の実施の形態において、画像処理部が行う画像処理の概要を示すフローチャートである。
【図3】デルタ配列の撮像素子により得られた画素の位置関係を示す図である。
【図4】周辺加算に使用する係数を示す図である。
【図5】曲率情報dRを求めるときに使用する係数値を示す図である。
【図6】デルタ配列の無彩色の空間周波数再現領域を示す図である。
【図7】1次元変位処理に使用する係数値を示す図である。
【図8】第2の実施の形態の演算で使用する画素位置を示す図である。
【図9】曲率情報dR、dG、dBを求めるときに使用する係数値を示す図である。
【図10】第3の実施の形態において、画像処理部が行う画像処理の概要を示すフローチャートである。
【図11】ローパスフィルタの係数値を示す図である。
【図12】他のローパスフィルタの係数値を示す図である。
【図13】他のローパスフィルタの係数値を示す図である。
【図14】ラプラシアンの係数値を示す図である。
【図15】他のラプラシアンの係数値を示す図である。
【図16】他のラプラシアンの係数値を示す図である。
【図17】デルタ配列のデルタ面から、直接、輝度面(Y)と3つの色差面(Cgb,Cbr,Crg)を生成し、その後、元のRGBの表色系に変換する概念を示す図である。
【図18】第4の実施の形態において、画像処理部が行う画像処理の概要を示すフローチャートである。
【図19】 R位置にはCrg,Cbr成分がその最隣接画素にはCgb成分が求まっている様子を示す図である。
【図20】デルタ配列のRGB各色成分の空間周波数再現領域を示す図である。
【図21】第6の実施の形態において、画像処理部が行う画像処理の概要を示すフローチャートである。
【図22】隣接画素について定義する図である。
【図23】プログラムを、CD−ROMなどの記録媒体やインターネットなどのデータ信号を通じて提供する様子を示す図である。
【図24】RGBカラーフィルタのベイア配列、デルタ配列、ハニカム配列を示す図である。
【図25】デルタ配列で得られた画像データについて、三角格子上で補間処理し、正方格子データに復元する処理の概念を示す図である。
【図26】第5の実施の形態において、類似度の方位関係を示す図である。
【図27】画像復元処理と階調処理を示すフローチャートである。
【符号の説明】
1 電子カメラ
10 A/D変換部
11 画像処理部
12 制御部
13 メモリ
14 圧縮/伸長部
15 表示画像生成部
16 メモリカード
17 メモリカード用インタフェース部
18 PC(パーソナルコンピュータ)
19 外部インタフェース部
20 撮影光学系
21 撮像素子
22 アナログ信号処理部
23 タイミング制御部
24 操作部
25、26 モニタ
27 プリンタ
28 CD−ROM
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing method, an image processing program, and an image processing apparatus for processing image data obtained by a color filter having a delta arrangement.
[0002]
[Prior art]
An electronic camera images a subject with an image sensor such as a CCD. In this imaging device, a Bayer arrangement is known in which three color filters of RGB (red, green, and blue) are arranged as shown in FIG. A delta arrangement arranged as shown in FIG. 24B is also known. Furthermore, a honeycomb arrangement arranged as shown in FIG. 24C is also known. Various image processing methods have been proposed for image data obtained by the Bayer array, such as US Pat. No. 5,552,827, US Pat. No. 5,629,734, and Japanese Patent Laid-Open No. 2001-245314.
[0003]
On the other hand, for image data obtained in a delta arrangement, an image processing method has been proposed in Japanese Patent Application Laid-Open No. 8-340455, US Pat. No. 5,805,217, and the like.
[0004]
[Problems to be solved by the invention]
However, in US Pat. No. 5,805,217, image processing according to the characteristics unique to the delta arrangement is not performed. Japanese Patent Application Laid-Open No. 8-340455 proposes only a simple image restoration method. Also, the various image processing methods proposed for the Bayer array are not necessarily applicable to the delta array as they are.
[0005]
The present invention is an image that outputs high-definition interpolated image data or high-definition image data converted to another color system based on image data obtained by a triangular lattice color filter having a delta arrangement or the like A processing method, an image processing program, and an image processing apparatus are provided.
[0006]
[Means for Solving the Problems]
The invention of claim 1 is applied to an image processing method, wherein a plurality of pixels represented by first to nth color components (n ≧ 2) and having color information of one color component in one pixel are in a triangular lattice shape. An image acquisition procedure for acquiring the first image arranged in the image, an interpolation procedure for interpolating the first color component to the pixel lacking the first color component using the color information of the acquired first image, An output procedure for outputting a second image based on the color information of one image and the interpolated color information, and the interpolation procedure includes a first color component for an interpolation target pixel of the first image. using the color information of a region including a pixel adjacent to the second, an average information of the first color component, have row interpolation, further comprising a similarity determining step determines the intensity of similarity to at least three directions, The interpolation procedure uses the average information of the first color component according to the strength of similarity determined in the similarity determination procedure. And requests.
The invention of claim 2 is applied to an image processing method, and is a first image in which a plurality of pixels represented by a plurality of color components and having color information of one color component per pixel are arranged in a triangular lattice pattern. A color for generating color information of a color component different from the color information of the first image by performing weighted addition of the acquired color information of the first image with a variable coefficient value of zero or more by acquiring the color information of the first image An information generation procedure, and an output procedure for outputting the second image using the generated color information. The color information generation procedure includes a color component of the pixel and a processing target pixel of the first image. Color information in an area including a pixel in which different color components are second closest is weighted.
A third aspect of the present invention, in the image processing method according to claim 2, further comprising a similarity determining step determines the intensity of similarity to at least three directions, the color information generation step is determined by the similarity determination procedures The coefficient value of the weighted addition is made variable according to the strength of similarity.
According to a fourth aspect of the present invention, in the image processing method according to the second or third aspect , the first image is represented by first to third color components, and the pixel having the first color component of the first image is provided. In the case of the processing target pixel, the color information generation procedure weights the color information in the region including the processing target pixel, the pixel in which the second color component is second closest, and the pixel in which the third color component is second closest. It is to add.
According to a fifth aspect of the present invention, in the image processing method according to any one of the second to fourth aspects, the color information of the first image generated by the color information generation procedure before the output procedure after the color information generation procedure And a correction procedure for correcting color information of different color components by a filter process including a predetermined fixed filter coefficient.
According to a sixth aspect of the present invention, in the image processing method according to the fifth aspect , the filter coefficient includes positive and negative values.
The invention of claim 7 is applied to an image processing method, wherein a plurality of pixels represented by first to nth color components (n ≧ 2) and having color information of one color component in one pixel are in a triangular lattice shape. An image acquisition procedure for acquiring a first image arranged in the color space, and a color difference generation procedure for generating color information of a color difference component between the first color component and the second color component using the color information of the first image And an output procedure for outputting the second image using the color information of the generated color difference component, and the color difference generation procedure includes at least a second for a pixel having the first color component of the first image. The color information of the color difference component is generated using the color information of the pixel with the second closest color component.
According to an eighth aspect of the present invention, in the image processing method according to the seventh aspect , the color difference generation procedure is performed on the processing target pixel having the first color component of the first image: 1) the first color component of the pixel And 2) generating color information of color difference components based on average information of color information of the second color component in an area including a pixel in which the second color component is second closest to the pixel It is.
According to a ninth aspect of the present invention, in the image processing method according to the seventh or eighth aspect , the color difference generation procedure further generates color information of the color difference component based on the curvature information of the second color component relating to the processing target pixel. Is.
The invention of claim 10 is the image processing method according to any one of claims 7 to 9 , further comprising a similarity determination procedure for determining the strength of similarity in at least three directions, wherein the color difference generation procedure is similar. The color information of the color difference component is generated according to the strength of the property.
The invention according to claim 11 is the image processing method according to any one of claims 1 to 10 , wherein the output procedure outputs the second image at the same pixel position as the first image.
The invention of claim 12 is an image processing program for causing a computer to execute the procedure of the image processing method according to any one of claims 1 to 11 .
The invention of claim 13 is a computer-readable recording medium on which the image processing program of claim 12 is recorded.
A fourteenth aspect of the present invention is an image processing apparatus equipped with the image processing program of the twelfth aspect .
[0007]
DETAILED DESCRIPTION OF THE INVENTION
-First embodiment-
(Configuration of electronic camera)
FIG. 1 is a functional block diagram of the electronic camera according to the first embodiment. The electronic camera 1 includes an A / D conversion unit 10, an image processing unit 11, a control unit 12, a memory 13, a compression / decompression unit 14, and a display image generation unit 15. Further, an interface unit 17 for a memory card that interfaces with a memory card (card-like removable memory) 16 and an external device that interfaces with an external device such as a PC (personal computer) 18 via a predetermined cable or wireless transmission path. An interface unit 19 is provided. Each of these blocks is connected to each other via a bus 29. The image processing unit 11 is composed of, for example, a one-chip microprocessor dedicated to image processing.
[0008]
The electronic camera 1 further includes a photographing optical system 20, an image sensor 21, an analog signal processing unit 22, and a timing control unit 23. An optical image of the subject acquired by the imaging optical system 20 is formed on the image sensor 21, and the output of the image sensor 21 is connected to the analog signal processing unit 22. The output of the analog signal processing unit 22 is connected to the A / D conversion unit 10. The output of the control unit 12 is connected to the timing control unit 23, and the output of the timing control unit 23 is connected to the image sensor 21, the analog signal processing unit 22, the A / D conversion unit 10, and the image processing unit 11. The image sensor 21 is constituted by a CCD, for example.
[0009]
The electronic camera 1 further includes an operation unit 24 and a monitor 25 corresponding to a release button, a mode switching selection button, and the like. The output of the operation unit 24 is connected to the control unit 12, and the output of the display image generation unit 15 is connected to the monitor 25.
[0010]
Note that a monitor 26, a printer 27, and the like are connected to the PC 18, and an application program recorded on the CD-ROM 28 is installed in advance. In addition to a CPU, a memory, and a hard disk (not shown), the PC 18 includes a memory card interface unit (not shown) that interfaces with the memory card 16, an electronic camera 1, etc. An external interface unit (not shown) that interfaces with an external device is provided.
[0011]
In the electronic camera 1 configured as shown in FIG. 1, when the shooting mode is selected by the operator via the operation unit 24 and the release button is pressed, the control unit 12 passes through the timing control unit 23 and the image sensor 21. The timing control is performed on the analog signal processing unit 22 and the A / D conversion unit 10. The image sensor 21 generates an image signal corresponding to the optical image. The image signal is subjected to predetermined signal processing by the analog signal processing unit 22, digitized by the A / D conversion unit 10, and supplied to the image processing unit 11 as image data.
[0012]
In the electronic camera 1 according to the present embodiment, R (red), G (green), and B (blue) color filters are arranged in a delta arrangement (described later) in the image sensor 21, and are supplied to the image processing unit 11. The image data is shown in the RGB color system. Each pixel constituting the image data has color information of any one of RGB color components.
[0013]
The image processing unit 11 performs image processing such as gradation conversion and edge enhancement in addition to performing image data conversion processing described later on such image data. The image data that has undergone such image processing is subjected to predetermined compression processing by the compression / decompression unit 14 as necessary, and is recorded in the memory card 16 via the memory card interface unit 17.
[0014]
The image data for which image processing has been completed is recorded on the memory card 16 without being subjected to compression processing, or converted into a color system adopted by the monitor 26 or the printer 27 on the PC 18 side, and the external interface unit 19. You may supply to PC18 via. When the playback mode is selected by the operator via the operation unit 24, the image data recorded in the memory card 16 is read out via the memory card interface unit 17 and is compressed / decompressed by the compression / decompression unit 12. The decompression process is performed and displayed on the monitor 25 via the display image generation unit 15.
[0015]
Note that the decompressed image data is not displayed on the monitor 25 but is converted to the color system adopted by the monitor 26 or printer 27 on the PC 18 side and supplied to the PC 18 via the external interface unit 19. You may do it.
[0016]
(Image processing)
Next, a process for interpolating image data obtained by the delta arrangement on a triangular lattice and restoring it to square lattice data that can be easily handled on a computer will be described. FIG. 25 is a diagram showing the concept of these processes. The triangular lattice means an array in which pixels of the image sensor are arranged with a shift of ½ pixel for each row. This is an array that forms a triangle when the centers of adjacent pixels are connected. The center point of the pixel may be called a grid point. The delta arrangement in FIG. 24B is arranged in a triangular lattice shape. The image obtained by the arrangement as shown in FIG. 24B may be said to be an image in which pixels are arranged in a triangle. A square lattice means an array in which pixels of the image sensor are arranged without being shifted for each row. When the centers of adjacent pixels are connected, a square is formed. The Bayer array in FIG. 24A is arranged in a square lattice pattern. The image obtained by the arrangement as shown in FIG. 24A may be said to be an image in which pixels are arranged in a rectangle (square).
[0017]
Further, as will be described later, when the process of shifting the image data of the delta arrangement by 1/2 pixel every other row, square lattice data is generated. Interpolation processing on a triangular lattice means that interpolation processing is performed in the state of image data obtained in a delta arrangement. That is, it means that the color information of the color component that is missing at the pixel position of the delta arrangement is interpolated.
[0018]
FIG. 2 is a flowchart showing an outline of image processing performed by the image processing unit 11. In step S1, an image obtained by the image sensor 21 having a delta arrangement is input. In step S2, the similarity is calculated. In step S3, the similarity is determined based on the similarity obtained in step S2. In step S4, based on the similarity determination result obtained in step S3, an interpolated value of the missing color component in each pixel is calculated. In step S5, the obtained RGB color image is output. The RGB color image output in step S5 is image data obtained on a triangular lattice.
[0019]
Next, in step S6, one-dimensional displacement processing is performed on the image data obtained on the triangular lattice. As will be described later, the one-dimensional displacement process is performed on every other row of image data. In step S7, square lattice image data is output by combining the image data subjected to the one-dimensional displacement processing and the image data not subjected to the one-dimensional displacement processing. Steps S1 to S5 are interpolation processing on a triangular lattice, and steps S6 and S7 are square processing. Details of these processes will be described below.
[0020]
-Interpolation processing on triangular lattice-
In the following description, the interpolation process at the R pixel position will be described as a representative. FIG. 3 is a diagram illustrating a positional relationship of pixels obtained by the image sensor 21 having a delta arrangement. The pixels of the image sensor 21 are arranged with a shift of ½ pixel for each row, and the color filters are arranged on each pixel at a ratio of RGB color components of 1: 1: 1. That is, the colors are evenly distributed. For reference, RGB color filters are arranged in a ratio of 1: 2: 1 (FIG. 24A).
[0021]
A pixel having R component color information is called an R pixel, a pixel having B component color information is called a B pixel, and a pixel having G component color information is called a G pixel. The image data obtained by the image sensor 21 has color information of only one color component for each pixel. Interpolation processing is processing for obtaining color information of other color components missing in each pixel by calculation. Hereinafter, a case where the color information of the G and B components is interpolated at the R pixel position will be described.
[0022]
In FIG. 3, a processing target pixel (interpolation target pixel) that is an R pixel is referred to as Rctr. In addition, each pixel position existing around the pixel Rctr is expressed using an angle. For example, a B pixel existing in the direction of 60 degrees is expressed as B060, and a G pixel is expressed as G060. However, this angle is not a precise angle but an approximation. Also, the direction connecting 0 ° -180 ° is the 0 ° direction, the direction connecting 120 ° -300 ° is the 120 ° direction, the direction connecting 240 ° -60 ° is the 240 ° direction, and the direction connecting 30 ° -210 ° is The direction connecting 30 degrees, 150 degrees to 330 degrees is referred to as 150 degrees direction, and the direction connecting 270 degrees to 90 degrees is referred to as 270 degrees direction.
[0023]
1. Similarity calculation
Similarities C000, C120, and C240 in the directions of 0 degree, 120 degrees, and 240 degrees are calculated. In the first embodiment, as shown in equations (1), (2), and (3), similarity between different colors constituted by different color components is obtained.
C000 = {| G000-Rctr | + | B180-Rctr | + | (G000 + B180) / 2-Rctr |} / 3 ... (1)
C120 = {| G120-Rctr | + | B300-Rctr | + | (G120 + B300) / 2-Rctr |} / 3 ... (2)
C240 = {| G240-Rctr | + | B060-Rctr | + | (G240 + B060) / 2-Rctr |} / 3 ... (3)
Thus, the similarity between different colors defined between adjacent pixels has the ability to spatially resolve the image structure of the Nyquist frequency defined by the triangular lattice of the delta arrangement.
[0024]
Next, the accuracy of the similarity is increased by performing the peripheral addition of the similarity and considering the continuity with the peripheral pixels. Here, the similarity obtained for each pixel is subjected to peripheral addition using the coefficients shown in FIG. 4 for the R position. The similarity with marginal addition is written in lower case. [] Represents a pixel position on the delta array as viewed from the pixel to be processed. Equation (4) represents the peripheral addition of the degree of similarity in the 0 degree direction.
c000 = {6 * C000 [Rctr]
+ C000 [R030] + C000 [R150] + C000 [R270]
+ C000 [R210] + C000 [R300] + C000 [R090]} / 12 ... (4)
The c120 in the 120 degree direction and the c240 in the 240 degree direction are obtained in the same manner.
[0025]
2. Similarity determination Since the similarity described above shows a greater similarity as the value is smaller, the strength of similarity in each direction is determined so as to continuously change with the reciprocal ratio of the similarity. That is, it is determined by (1 / c000) :( 1 / c120) :( 1 / c240). Specifically, the next weighting coefficient is calculated.
[0026]
Expressing the similarity in each direction as weighting factors w000, w120, w240 normalized by 1,
w000 = (c120 * c240 + Th) / (c120 * c240 + c240 * c000 + c000 * c120 + 3 * Th) ... (5)
w120 = (c240 * c000 + Th) / (c120 * c240 + c240 * c000 + c000 * c120 + 3 * Th) ... (6)
w240 = (c000 * c120 + Th) / (c120 * c240 + c240 * c000 + c000 * c120 + 3 * Th) ... (7)
It is obtained by. However, the threshold value Th is a term for preventing divergence and takes a positive value. Usually, Th = 1 may be set, but this threshold value may be increased for a noisy image such as a high-sensitivity photographed image. The weighting factors w000, w120, and w240 are values corresponding to the strength of similarity.
[0027]
In the Bayer array, as shown in US Pat. No. 5,552,827, US Pat. No. 5,629,734, and Japanese Patent Laid-Open No. 2001-245314, as the direction determination method in G interpolation, a continuous determination method using a weight coefficient and a discrete determination method using a threshold determination are used. There are two ways. In the Bayer array, the nearest neighbor G components are densely present in the four directions with respect to the interpolation target pixel, so that either the continuous determination method or the discrete determination method can be used without any problem. However, in the delta arrangement in which the nearest neighbor G component exists only in the three directions of the 0 degree direction, the 120 degree direction, and the 240 degree direction, continuous direction determination using a weighting factor is important. The nearest neighbor G component is a pixel that is in contact with the interpolation target pixel and has a G component. In FIG. 3, G000, G120, and G240.
[0028]
3. Interpolation value calculation Interpolation values of the G component and the B component are calculated using the weighting coefficients. The interpolation value is composed of two terms, average information and curvature information.
<Average information>
Gave = w000 * Gave000 + w120 * Gave120 + w240 * Gave240 ... (8)
Bave = w000 * Bave000 + w120 * Bave120 + w240 * Bave240 ... (9)
here,
Gave000 = (2 * G000 + G180) / 3 ... (10)
Bave000 = (2 * B180 + B000) / 3 ... (11)
Gave120 = (2 * G120 + G300) / 3 ... (12)
Bave120 = (2 * B300 + B120) / 3 ... (13)
Gave240 = (2 * G240 + G060) / 3 ... (14)
Bave240 = (2 * B060 + B240) / 3 ... (15)
It is.
<Curvature information>
dR = (6 * Rctr-R030-R090-R150-R210-R270-R330) / 12 ... (16)
<Interpolated value>
Gctr = Gave + dR ... (17)
Bctr = Bave + dR ... (18)
[0029]
Usually, in G interpolation of a Bayer array, average information is obtained using the nearest neighbor G component. However, in the case of the delta arrangement, it has been experimentally found that if the same is done, there will be a problem that the vertical line and the boundary line in the direction of 30 degrees and the direction of 150 degrees become rough. For example, in the case of a vertical line boundary, it is assumed that the weighting coefficients are w000≈0 and w120≈w240≈0.5, and this corresponds to a portion that performs an average process between two directions. However, only the nearest neighbor pixel average takes the left two-point average at a point along the vertical line, and the next adjacent diagonal upper right or lower right point takes the right two-point average. it is conceivable that.
[0030]
Therefore, if the averaging process is performed according to the distance ratio from the interpolation target pixel in consideration of the second adjacent pixel, for example, in the case of a vertical line, the average is always taken from both the right side and the left side. , 150 degrees direction boundary line drastically improve. Therefore, as shown in Expressions (10) to (15), an averaging process including up to the second adjacent pixel is performed. Thereby, the spatial resolving power in directions of 30 degrees, 150 degrees, and 270 degrees is improved. For example, in Expression (10), G000 is the most adjacent pixel or the first adjacent pixel, and G180 is the second adjacent pixel. In Expression (12), G120 is the most adjacent pixel or the first adjacent pixel, and G300 is the second adjacent pixel. The same applies to other equations. It can be said that the first adjacent pixel is a pixel separated by about 1 pixel pitch, and the second adjacent pixel is a pixel separated by about 2 pixel pitch. It can be said that Rctr and G120 are about 1 pixel apart, and Rctr and G300 are about 2 pixels apart. FIG. 22 is a diagram for defining adjacent pixels. center is a pixel to be processed, nearest is the closest or nearest neighbor or first adjacent pixel, and 2nd is a second adjacent pixel.
[0031]
In the prior art of Bayer array interpolation, the term corresponding to the curvature information dR is usually calculated in consideration of the same directionality as the average information. However, in the delta arrangement, the directionality of the average information (0 degree, 120 degree, 240 degree direction) and the directionality of the extractable curvature information (30 degree, 150 degree, 270 degree direction) do not match. In such a case, the curvature information in the 0 degree direction is defined by averaging the curvature information in the 30 degree direction and the 150 degree direction, and the interpolation value may be calculated in consideration of the directionality of the curvature information in the same manner as the Bayer array. Although it is possible, it has been experimentally found that it is more effective to extract curvature information uniformly without considering directionality. Therefore, in the present embodiment, average information considering directionality is corrected with curvature information having no directionality. Thereby, it is possible to improve the gradation sharpness up to the high frequency region in all directions.
[0032]
The equation (16) for obtaining the curvature information dR uses the coefficient values shown in FIG. Expression (16) obtains the difference between the interpolation target pixel Rctr and the peripheral pixel and the difference between the opposite peripheral pixel and the interpolation target pixel Rctr, and further obtains the difference between them. Therefore, it is obtained by secondary differential calculation.
[0033]
The curvature information dR is information indicating the degree of change of color information of a certain color component. When the value of the color information of a certain color component is plotted and represented by a curve, this is information indicating a change in the curve of the curve and the degree of the curve. That is, the amount reflects the structural information regarding the unevenness of the color information change of the color component. In the present embodiment, the curvature information dR at the R pixel position is obtained by using the Rctr of the interpolation target pixel and the color information of the surrounding R pixels. In the case of the G pixel position, the color information of the G component is used, and in the case of the B pixel position, the color information of the B component is used.
[0034]
As described above, “interpolation processing of G and B components at the R pixel position” could be performed. “Interpolation processing of B and R components at G pixel position” is performed by cyclically replacing the symbol of “G and B component interpolation processing at R pixel position” with R as G, G as B, and B as R. The same process may be performed. In addition, “interpolation processing of R and G components at the B position” cyclically replaces the symbol of “interpolation processing of B and R components at the G position” with G as B, B as R, and R as G. The same process may be performed. That is, the same calculation routine (subroutine) can be used in each interpolation process.
[0035]
The image restored as described above can bring out all the limit resolution performance of the delta arrangement in the spatial direction. That is, when viewed in the frequency space (k space), as shown in FIG. 6, all hexagonal achromatic color reproduction regions of the delta arrangement are resolved. Also, a clear image can be obtained with respect to the gradation direction. This is an extremely effective technique especially for images with many achromatic parts.
[0036]
-Square processing-
Next, a process for restoring the image data interpolated on the triangular lattice as described above to square lattice data that can be easily handled on a computer will be described. As conventional techniques for restoring the data of a single-plate image sensor shifted by 1/2 pixel in a row unit to square lattice data having three colors, JP-A-8-340455 for the delta arrangement and JP-A No. JP-A-2001-103295 and JP-A-2000-194386.
[0037]
Japanese Patent Application Laid-Open No. 8-340455 shows an example in which restoration data is generated at a pixel position different from that of the triangular lattice, or restoration data is generated in a virtual square lattice having a pixel density twice that of the triangular lattice. In addition, an example is shown in which the triangular grid and half rows are restored to the same pixel position, and the remaining half rows are restored to pixel positions shifted by 1/2 pixel from the triangular grid. However, this directly implements the interpolation processing at the square lattice position, and applies different interpolation processing when the distance from the adjacent pixel of the triangular lattice changes. On the other hand, in Japanese Patent Laid-Open No. 2001-103295, it is squared by two-dimensional cubic interpolation, and in Japanese Patent Laid-Open No. 2000-194386, virtual double dense square lattice data is generated.
[0038]
There are various methods as described above. In the first embodiment, a method for maintaining the performance of the delta arrangement to the maximum is shown.
[0039]
In the first embodiment, as described above, first, the interpolation data is restored with the triangular lattice at the same pixel position as that of the delta arrangement. As a result, the spatial frequency limit resolution performance of the delta arrangement can be extracted. In addition, if the color difference correction process and the edge enhancement process are performed in a triangular arrangement, the effect works isotropically. Therefore, once the image is restored on the triangular lattice, RGB values are generated for each pixel.
[0040]
Next, the image data generated on the triangular lattice is square-transformed. It has been experimentally found that it is important to retain the original data as much as possible in order to maintain the resolution performance of the triangular lattice. Accordingly, a displacement process is performed by shifting half a line by half a line every other line, and the remaining half lines are not processed, and the Nyquist resolution of the vertical lines of the triangular arrangement is maintained. It was confirmed by experiments that the displacement processing can be maintained with the vertical line resolution of the triangular lattice almost without any problem, although it is somewhat affected by the Nyquist frequency of the square lattice when self-estimation is performed by cubic interpolation in one dimension of the processing target row. .
[0041]
That is, the processing of the following formula (19) is performed for even rows, and then the substitution processing of formula (20) is performed. Thereby, the color information of the R component at the pixel position [x, y] is obtained.
tmp_R [x, y] = {-1 * R [x- (3/2) pixel, y] + 5 * R [x- (1/2) pixel, y]
+ 5 * R [x + (1/2) pixel, y] -1 * R [x + (3/2) pixel, y]} / 8 ... (19)
R [x, y] = tmp_R [xy] ... (20)
The G component and B component are obtained in the same manner. The process of Expression (19) is referred to as a cubic displacement process. Further, since the displacement processing is performed on the position in the one-dimensional direction, it is also referred to as one-dimensional displacement processing. FIG. 7 is a diagram showing coefficient values used in the equation (19). The cubic one-dimensional displacement processing can be said to be processing for applying a one-dimensional filter composed of positive and negative coefficient values.
[0042]
The image restoration method as described above can not only maintain the limit resolution of the triangular arrangement to the maximum, but also the image restoration process on the triangular lattice can use the same processing routine for all pixels, and finally the half of Since only a simple one-dimensional process is required for the rows, a simpler algorithm can be achieved compared to the prior art without increasing the amount of data. The effect is particularly great when implemented in hardware.
[0043]
-Second Embodiment-
In the first embodiment, the similarity between different colors is determined and the similarity is determined. In the second embodiment, the similarity is determined by determining the similarity between the same colors. The second embodiment is effective for an image including a lot of coloring portions. Since the configuration of the electronic camera 1 of the second embodiment is the same as that of FIG. 1 of the first embodiment, the description thereof is omitted. The image processing will be described with a focus on differences from the first embodiment. Unless otherwise specified, the process is the same as in the first embodiment.
[0044]
(Image processing)
-Interpolation processing on triangular lattice-
1. Similarity calculation
Similarities C000, C120, and C240 in the directions of 0 degree, 120 degrees, and 240 degrees are calculated. In the second embodiment, as shown in equations (20), (21), and (22), the similarity between the same colors constituted by the same color components is obtained. A calculation is performed between pixels separated by 3 pixel pitches. FIG. 8 is a diagram illustrating pixel positions used in the equations (20), (21), and (22).
C000 = {(| R000-Rctr | + | R180-Rctr |) / 2 + | G000-G180 | + | B000-B180 |} / 3 ... (20)
C120 = {(| R120-Rctr | + | R300-Rctr |) / 2 + | G120-G300 | + | B120-B300 |} / 3 ... (21)
C240 = {(| R240-Rctr | + | R060-Rctr |) / 2 + | G240-G060 | + | B240-B060 |} / 3 ... (22)
The similarity between the same colors defined in this way has the ability to spatially resolve the horizontal line in the chromatic part and the image structure in the 120 degree direction and the 240 degree direction, and for systems with chromatic aberration. Have the ability to discriminate image structures without being affected.
[0045]
Next, peripheral addition of similarity is performed in the same manner as in the first embodiment.
[0046]
2. Similarity determination is the same as in the first embodiment.
[0047]
3. Interpolation value calculation Interpolation values of the G component and B component are calculated. The interpolation value consists of two terms, average information and curvature information.
<Average information>: The same as in the first embodiment.
<Curvature information>
dR = (6 * Rctr-R030-R090-R150-R210-R270-R330) / 12 ... (23)
dG = ((G000 + G120 + G240)-(G060 + G180 + G300)) / 6 ... (24)
dB = ((B060 + B180 + B300)-(B000 + B120 + B240)) / 6 ... (25)
<Interpolated value>
Gctr = Gave + (dR + dG + dB) / 3 ... (26)
Bctr = Bave + (dR + dG + dB) / 3 ... (27)
[0048]
In the second embodiment, unlike the first embodiment, the average information is corrected with the curvature information of three colors. This is because, as disclosed in Japanese Patent Application Laid-Open No. 2001-245314 of the prior art, in an image including a chromatic portion and chromatic aberration, overcorrection only by dR is prevented, and the clearness in the gradation direction is maintained. However, JP 2001-245314 A relates to a Bayer array. Even when three colors of curvature information are used in this way, unlike the case of the Bayer arrangement, correction using curvature information having no directionality for any of the RGB three components is performed for the most all directions, as in the first embodiment. Experiments have revealed that the effect of increasing the tone clarity is high. In addition, since the delta arrangement is composed of R: G: B = 1: 1: 1, it was found that the curvature information of the three components should be used at 1: 1: 1. FIG. 9 illustrates coefficient values used in equations (23), (24), and (25).
[0049]
As described above, “interpolation processing of G and B components at the R pixel position” could be performed. “Interpolation processing of B and R components at the G pixel position” and “Interpolation processing of R and G components at the B position” are also obtained by cyclically replacing RGB, as in the first embodiment. The square processing can also be performed in the same manner as in the first embodiment.
[0050]
As described above, the restoration processing according to the second embodiment can discriminate and resolve the color boundary even for an image including the chromatic part, and can be sharpened without causing overcorrection in the gradation direction. Can be obtained. It is also strong against systems that include chromatic aberration.
[0051]
-Third embodiment-
In image processing of image data obtained with a Bayer array, the RGB signal is usually converted to YCbCr consisting of luminance and color difference to reduce the false color remaining in the image after interpolation processing, and the color difference low-pass on the Cb and Cr planes. Post processing is performed to remove the false color by applying a filter or a color difference median filter, and to return to the RGB color system. In addition, edge enhancement processing is performed on the luminance component Y plane in order to compensate for a decrease in sharpness due to an optical low-pass filter or the like. In the case of a delta arrangement, exactly the same post processing may be applied.
[0052]
However, the third embodiment shows a post-processing method suitable for the delta arrangement. Since the configuration of the electronic camera 1 of the third embodiment is the same as that of FIG. 1 of the first embodiment, the description thereof is omitted.
[0053]
FIG. 10 is a flowchart illustrating an overview of image processing performed by the image processing unit 11 in the third embodiment. It is assumed that interpolation processing is performed on a triangular lattice as in the first embodiment. FIG. 10 starts from input of an RGB color image after interpolation processing. That is, steps S1 to S5 in FIG. 2 of the first embodiment are finished, and then the flowchart in FIG. 10 is started.
[0054]
In step S11, RGB color image data after interpolation processing is input. In step S12, the RGB color system is converted to the YCrCgCb color system peculiar to the third embodiment. In step S13, a low-pass filter process is performed on the color difference surface (CrCgCb surface). In step S14, edge enhancement processing is performed on the luminance surface (Y surface). In step S15, the YCrCgCb color system is converted back to the original RGB color system at the stage where the false color on the color difference surface is removed. In step S16, the obtained RGB color image data is output. The RGB color image data output in step S16 is image data obtained on a triangular lattice.
[0055]
When the square processing is performed on the image data obtained on the triangular lattice, the processing in steps S6 and S7 in FIG. 2 is performed as in the first embodiment. Hereinafter, the details of the processing in steps S12 to S15 will be described.
[0056]
1. Color system conversion Conversion from RGB color system to YCrCgCb color system. However, the YCrCgCb color system is defined as represented by the formulas (28) to (31).
Y [i, j] = (R [i, j] + G [i, j] + B [i, j]) / 3 ... (28)
Cr [i, j] = R [i, j] -Y [i, j] ... (29)
Cg [i, j] = G [i, j] -Y [i, j] ... (30)
Cb [i, j] = B [i, j] -Y [i, j] ... (31)
[0057]
After the circular zone plate is imaged and interpolated on a triangular lattice, conversion is performed to treat RGB evenly in Y plane generation as shown in equation (28), with the hexagonal corner portion of FIG. 6 as the center. The generated color moire disappears from the luminance surface Y completely. As a result, all false color elements can be included in the color difference components Cr, Cg, and Cb. In addition, since the three types of color difference components are prepared and handled in the third embodiment instead of the two types of color difference components conventionally handled, all the false color elements unique to the delta arrangement can be extracted. .
[0058]
2. Color Difference Correction Here, as an example of color difference correction processing, an example is shown in which low-pass processing is performed on the color difference surface using Equation (32). When a color difference low-pass filter is applied on a triangular lattice (triangular arrangement), the false color reduction effect can be obtained with good compatibility in all directions. Further, median filter processing on a triangular lattice may be used. Here, [] represents the pixel position on the triangular lattice as viewed from the processing target pixel, as shown in FIG. FIG. 11 illustrates the coefficient values used in equation (32). Note that the low-pass filter is not limited to that shown here, and other filters may be used. 12 and 13 show other examples of the low-pass filter.
<Low pass processing>
tmp_Cr [center] = {9 * Cr [center]
+ 2 * (Cr [nearest000] + Cr [nearest120] + Cr [nearest240]
+ Cr [nearest180] + Cr [nearest300] + Cr [nearest060])
+ Cr [2nd000] + Cr [2nd120] + Cr [2nd240]
+ Cr [2nd180] + Cr [2nd300] + Cr [2nd060]} / 27 ... (32)
The same processing is performed for tmp_Cg and tmp_Cb.
<Substitution process>
Cr [i, j] = tmp_Cr [i, j] ... (33)
Cg [i, j] = tmp_Cg [i, j] ... (34)
Cb [i, j] = tmp_Cb [i, j] ... (35)
[0059]
3. Edge Enhancement Processing Next, if the edge enhancement processing for the luminance surface Y is necessary, the following processing is performed on the triangular lattice.
<Band pass processing>
Edge extraction is performed by Laplacian processing on a triangular lattice. FIG. 14 illustrates the coefficient values used for the Laplacian process of Equation (36). Note that the Laplacian is not limited to that shown here, and other types may be used. 15 and 16 show other examples of Laplacian.
YH [center] = {6 * Y [center]
-(Y [nearest000] + Y [nearest120] + Y [nearest240]
+ Y [nearest180] + Y [nearest300] + Y [nearest060])} / 12 ... (36)
<Edge enhancement processing>
Y [center] = Y [center] + K * YH [center] ... (37)
Here, K is a value that is greater than or equal to zero and is a parameter for adjusting the degree of edge enhancement.
[0060]
4). Color system conversion As described above, the color difference correction process is performed, and when the false color on the color difference surface is removed, the original RGB color system is restored.
R [i, j] = Cr [i, j] + Y [i, j] ... (38)
G [i, j] = Cg [i, j] + Y [i, j] ... (39)
B [i, j] = Cb [i, j] + Y [i, j] ... (40)
[0061]
In this way, the luminance resolution is saved in the Y component generated at a ratio of R: G: B = 1: 1: 1, and by introducing three equally treated color difference components Cr, Cg, Cb, Color difference correction with extremely high false color suppression capability is possible. Further, by performing color difference correction processing and luminance correction processing on a triangular lattice, correction processing suitable for the directionality of the delta arrangement can be performed.
[0062]
-Fourth embodiment-
In the first embodiment, the process of interpolating the color information of the color component missing in each pixel on the triangular lattice has been described. In the fourth embodiment, an example of image restoration processing of a system different from the interpolation processing in the RGB plane of the first embodiment is shown. This is a method in which a luminance component and a color difference component are directly generated from a delta arrangement without using interpolation processing in the RGB plane. Inheriting the usefulness of separation into one luminance plane and three chrominance planes conceptually shown in the third embodiment, the luminance plane is responsible for maximizing the achromatic luminance resolution, The three color difference planes are responsible for maximizing the color resolution of the three primary colors.
[0063]
Since the configuration of the electronic camera 1 of the fourth embodiment is the same as that of FIG. 1 of the first embodiment, the description thereof is omitted.
[0064]
(Image processing)
FIG. 17 is a diagram showing a concept of generating a luminance plane (Y) and three color difference planes (Cgb, Cbr, Crg) directly from the delta plane of the delta arrangement, and then converting it to the original RGB color system. It is. FIG. 18 is a flowchart illustrating an overview of image processing performed by the image processing unit 11 in the fourth embodiment.
[0065]
In step S21, an image obtained by the image sensor 21 having a delta arrangement is input. In step S22, the similarity is calculated. In step S23, the similarity is determined based on the similarity obtained in step S22. In step S24, a luminance plane (Y0 plane) is generated based on the similarity determination result obtained in step S23 and the image data of the delta arrangement obtained in step S21. In step S25, correction processing is performed on the luminance surface (Y0 surface) obtained in step S24.
[0066]
On the other hand, in step S26, color difference components Cgb, Cbr, and Crg are generated based on the similarity determination result obtained in step S23 and the delta arrangement image data obtained in step S21. In step S26, not all color difference components Cgb, Cbr, and Crg have been generated yet for all pixels. In step S27, interpolation processing is performed on the color difference components that have not been generated based on the surrounding color difference components. As a result, Cgb, Cbr, and Crg color difference planes are completed.
[0067]
In step S28, the generated Y, Cgb, Cbr, Crg color system is converted to the RGB color system. In step S29, the converted RGB color image data is output. Steps S21 to S29 are all processing on a triangular lattice. Therefore, the RGB color image data output in step S29 is triangular lattice image data. Details of these processes will be described below. If square processing is necessary, processing similar to steps S6 and S7 in FIG. 2 of the first embodiment is performed.
[0068]
1. Calculation of similarity First, the similarity is calculated. Here, the degree of similarity obtained by an arbitrary method may be used. However, use as accurate as possible. For example, the similarity between different colors shown in the first embodiment, the similarity between the same colors shown in the second embodiment, a combination of them, a color index, etc. It may be used by switching the similarity between the same colors.
[0069]
2. Similarity determination Determined in the same manner as in the first embodiment.
[0070]
3. Calculation of restoration value 1) Generation of luminance component First, a luminance plane is generated by weighted addition so that the delta plane is always R: G: B = 1: 1: 1 with a positive coefficient that changes according to the direction similarity. . The range of the weighted addition is the same as in the first embodiment, and the G component and B component are taken up to the second adjacent pixel. That is, when the equations (8) and (9) are rewritten once again using the definition equations of equations (10) to (15) of the first embodiment, equations (41) and (42) are obtained.
<G> 2nd = Gave = w000 * Gave000 + w120 * Gave120 + w240 * Gave240 ... (41)
<B> 2nd = Bave = w000 * Bave000 + w120 * Bave120 + w240 * Bave240 ... (42)
Using these and the central R component, the luminance component Y0 is generated by the equation (43).
Y0 = Rctr + <G> 2nd + <B> 2nd (43)
[0071]
Since the luminance component generated in this way is generated while always including the central pixel with a constant color component ratio using a positive directional weighting factor, the potential of gradation sharpness is extremely high, and the spatial resolving power is high. A high image is obtained, and an image that is connected to peripheral pixels very smoothly without being affected by chromatic aberration is obtained. For example, when the similarity between different colors is adopted as the similarity for an achromatic circular zone plate, the spatial resolution reaches the limit resolution of FIG. 6 as in the first embodiment.
[0072]
2) Luminance component correction Since the above-described luminance surface is generated using only positive coefficients, Laplacian correction processing is performed in order to extract the potential of gradation clarity contained therein. Luminance plane Y0 is designed to be connected to the surrounding pixels very smoothly in consideration of directionality, so there is no need to calculate correction terms that need to be newly calculated according to directionality. Thus, a single process using a fixed bandpass filter is sufficient. There are several methods for taking the Laplacian in the triangular arrangement as shown in FIGS. 14 to 16 of the third embodiment. However, if the degree of optimization is increased slightly, the luminance plane Y0 can only be generated by collecting the G and B components in the directions of 0, 120, and 240 degrees, so to compensate for the gap direction, Then, a case where correction is performed with the Laplacian of FIG. 15 in directions of 30 degrees, 150 degrees, and 270 degrees independent of that (formula (44)) is shown. Let Y be the corrected luminance component.
[0073]
<Band pass processing>
YH [center] = {6 * Y0 [center]
-(Y0 [2nd030] + Y0 [2nd150] + Y0 [2nd270]
+ Y0 [2nd210] + Y0 [2nd330] + Y0 [2nd090])} / 12 ... (44)
<Correction process>
Y [center] = Y [center] + k * YH [center] ... (45)
Here, k is a positive value and is normally 1. However, by setting it to a value greater than 1, the edge enhancement processing as shown in the third embodiment can also be performed here.
[0074]
3) Color difference component generation Unlike the definition of the third embodiment, the three color difference planes are generated directly from the delta plane independently of the luminance plane Y. Three color difference components Cgb, Cbr, and Crg are obtained. However, Cgb = GB, Cbr = BR, and Crg = RG are defined.
[0075]
First, Crg and Cbr are obtained at the R position. The difference value between the R component of the central pixel and the G component or B component of the peripheral pixels is calculated in consideration of the directionality.
Crg = Rctr-{<G> 2nd + dG} ... (46)
Cbr = {<B> 2nd + dB} -Rctr ... (47)
Here, dG and dB are the same as those defined in the equations (24) and (25) of the second embodiment, and <G> 2nd and <B> 2nd are the same as the equations (41) and (42). It is. Also in the generation of the color difference component, as in the first embodiment, the average information including up to the second adjacent pixel is calculated, and the consistency with the luminance component is taken, so that the directions in the directions of 30 degrees, 150 degrees, and 270 degrees are obtained. Increases resolution. DG and dB are not necessarily required, but they are added because they have the effect of increasing color resolution and vividness.
[0076]
The color difference components Cgb and Crg at the G position and the color difference components Cbr and Cgb at the B position are obtained in the same manner. At this point, the Crg and Cbr components are obtained at the R position, and the Cgb component is obtained at the nearest pixel. FIG. 19 is a diagram showing this state.
[0077]
Next, a Cgb component is obtained at the R position from Equation (48) using the Cgb component of the pixels around the R position (interpolation process). At this time, the calculation is performed using the direction determination result obtained at the R position.
Cgb [center] = w000 * (Cgb [nearest000] + Cgb [nearest180]) / 2
+ w120 * (Cgb [nearest120] + Cgb [nearest300]) / 2
+ w240 * (Cgb [nearest240] + Cgb [nearest060]) / 2 ... (48)
[0078]
As described above, four components of YCgbCbrCrg are obtained for all pixels. If necessary, the color difference surfaces Cgb, Cbr, and Crg may be subjected to correction processing such as a color difference low-pass filter similar to that of the third embodiment to suppress false color.
[0079]
4) Color system conversion YCgbCbrCrg generated for each pixel is converted to the RGB color system. Y = (R + G + B) / 3, Cgb = GB, Cbr = BR, and Crg = RG satisfy the relationship of Cgb + Cbr + Crg = 0 instead of the independent four formulas. In other words, the conversion method is not unique because it is a 4-to-3 conversion, but in order to suppress color moire and maximize the luminance resolution and color resolution, all the conversion formulas for R, G, B are all Y, Cgb, Cbr. , Crg components are included, and the mutual moire canceling effect is used. In this way, all of the maximum performances generated by the respective roles of the Y, Cgb, Cbr, and Crg planes can be reflected in each of R, G, and B.
R [i, j] = (9 * Y [i, j] + Cgb [i, j] -2 * Cbr [i, j] + 4 * Crg [i, j]) / 9 ... (49)
G [i, j] = (9 * Y [i, j] + 4 * Cgb [i, j] + Cbr [i, j] -2 * Crg [i, j]) / 9 ... (50)
B [i, j] = (9 * Y [i, j] -2 * Cgb [i, j] + 4 * Cbr [i, j] + Crg [i, j]) / 9 ... (51)
[0080]
As described above, the image restoration method according to the fourth embodiment has extremely high gradation sharpness and excellent luminance resolution performance and color resolution performance in the spatial direction at the same time. Even if it demonstrates the effect of being strong. When square processing is necessary, it can be performed in the same manner as in the first embodiment.
[0081]
-Fifth embodiment-
In the second embodiment, the similarity is determined by obtaining the similarity between the same colors. At this time, only the similarities in the 0 degree, 120 degree, and 240 degree directions were obtained. However, in the fifth embodiment, similarities in directions of 30 degrees, 150 degrees, and 270 degrees are also obtained. Since the configuration of the electronic camera 1 of the fifth embodiment is the same as that of FIG. 1 of the first embodiment, the description thereof is omitted.
[0082]
A case where G and B components are interpolated at the R pixel position will be mainly described. Reference is also made to FIG. 8 of the second embodiment. In the R pixel position, there are three adjacent G components adjacent to the positions indicating 0, 120, and 240 degrees, and the second adjacent pixels indicate 60 degrees, 180 degrees, and 300 degrees separated by two pixels. There are three in position. Similarly, for the B component, there are three nearest neighbor pixels at positions indicating 60 degrees, 180 degrees, and 300 degrees, and the second adjacent pixels are positions indicating 0 degrees, 120 degrees, and 240 degrees separated by two pixels. There are three. In addition, the R component nearest neighbor pixels are six at positions indicating 30 degrees, 90 degrees, 150 degrees, 210 degrees, 270 degrees, and 330 degrees separated by two pixels, and the second adjacent pixels are separated by three pixels. There are six positions that indicate degrees, 60 degrees, 120 degrees, 180 degrees, 240 degrees, and 300 degrees.
[0083]
1. Calculation of similarity 1) Calculation of similarity between three pixels at the same color
Similarities C000, C120, and C240 in the directions of 0 degree, 120 degrees, and 240 degrees are calculated. The similarity between same colors formed between the same color components in these directions cannot be defined shorter than the interval of three pixels.
C000 = {(| R000-Rctr | + | R180-Rctr |) / 2 + | G000-G180 | + | B000-B180 |} / 3 ... (52)
C120 = {(| R120-Rctr | + | R300-Rctr |) / 2 + | G120-G300 | + | B120-B300 |} / 3 ... (53)
C240 = {(| R240-Rctr | + | R060-Rctr |) / 2 + | G240-G060 | + | B240-B060 |} / 3 ... (54)
[0084]
The similarity between the same colors defined in this way is examined for the directionality that coincides with the direction in which the missing G component and B component exist at the R pixel position, so the horizontal line in the chromatic portion and the 120 degree direction It is thought that it has the ability to spatially resolve the image structure in the 240 degree direction. However, it should be noted that, unlike the same-color similarity between two pixels in the Bayer array, it is information between pixels that are very far from the three-pixel interval.
[0085]
2) Calculation of similarity between two pixels and same color Next, similarities C030, C150, and C270 in directions of 30 degrees, 150 degrees, and 270 degrees are calculated. Unlike the 0 degree, 120 degree, and 240 degree directions, the similarity between the same colors in these directions can be defined by a shorter two-pixel interval.
C030 = {(| R030-Rctr | + | R210-Rctr |) / 2 + | G240-G000 | + | B060-B180 |} / 3 ... (55)
C150 = {(| R150-Rctr | + | R330-Rctr |) / 2 + | G000-G120 | + | B180-B300 |} / 3 ... (56)
C270 = {(| R270-Rctr | + | R090-Rctr |) / 2 + | G120-G240 | + | B300-B060 |} / 3 ... (57)
However, since the similarity in the direction that does not coincide with the direction in which the G component and the B component that are missing at the R pixel position exist is examined, a technique is required to effectively use them.
[0086]
3) Peripheral addition of similarities Further, the accuracy of similarity is increased by performing peripheral addition for each of the above-described similarities and considering continuity with surrounding pixels. Here, peripheral addition is performed for the R pixel position for each of the six similarities obtained for each pixel. The similarity with marginal addition is written in lower case. However, [] represents a pixel position on the delta array as viewed from the processing target pixel. Expression (58) is the same as Expression (4) in the first embodiment.
c000 = {6 * C000 [Rctr]
+ C000 [R030] + C000 [R150] + C000 [R270]
+ C000 [R210] + C000 [R300] + C000 [R090]} / 12 ... (58)
c120, c240, c030, c150, c270 are obtained in the same manner.
FIG. 26 shows the azimuth relationship of the similarity described above.
[0087]
2. Similarity determination The smaller the degree of similarity described above, the greater the similarity in that direction. However, it is meaningful to determine the similarity in the direction in which the G component and the B component that do not exist in the processing target pixel exist, that is, the directions of 0 degrees, 120 degrees, and 240 degrees, and 30 degrees, 150 degrees, and 270. Even if the similarity in the degree direction can be determined, it does not make much sense. Therefore, the first possibility is to continuously determine the strength of similarity in the 0, 120, and 240 degrees directions using the reciprocal ratio of the degrees of similarity in the 0, 120, and 240 degrees directions. It is. That is, it is determined by (1 / c000) :( 1 / c120) :( 1 / c240).
[0088]
For example, since the similarity c000 has the ability to resolve the chromatic color horizontal line, the ky axis direction of the frequency reproduction range of each RGB color component in the delta arrangement of FIG. 20 can be extended to the limit resolution. In other words, such a determination method can extend the color resolution of a chromatic image to the limit resolution of the hexagonal vertex in FIG. However, since it is a similarity between long distances of 3 pixel intervals, the directionality cannot be discriminated due to the influence of the aliasing frequency component at an angle between them, especially in the directions of 30, 150, and 270 degrees. On the other hand, the most adverse effect is caused, and only a color resolving power that allows the vicinity of the midpoint of each side of the hexagon of FIG. 20 to be obtained can be exhibited.
[0089]
Therefore, in order to prevent such an adverse effect of the long distance correlation, the similarity c030, c150, c270 of the short distance correlation is effectively utilized. However, taking the reciprocal only makes it possible to determine the similarity in the directions of 30 degrees, 150 degrees, and 270 degrees, so in order to convert it into similarities in the directions of 0 degrees, 120 degrees, and 240 degrees, In other words, the similarity value itself is interpreted as representing the similarity in the directions orthogonal to the directions of 30 degrees, 150 degrees, and 270 degrees, that is, 120 degrees, 240 degrees, and 0 degrees. Therefore, the similarity in the 0 degree, 120 degree, and 240 degree directions is determined by the following ratio.
(c270 / c000) :( c030 / c120) :( c150 / c240)
[0090]
When the similarity in the 0 degree, 120 degree, and 240 degree directions is expressed as weighting coefficients w000, w120, and w240 normalized by 1,
w000 = (c120 * c240 * c270 + Th)
/ (c120 * c240 * c270 + c240 * c000 * c030 + c000 * c120 * c150 + 3 * Th) ... (59)
w120 = (c240 * c000 * c030 + Th)
/ (c120 * c240 * c270 + c240 * c000 * c030 + c000 * c120 * c150 + 3 * Th) ... (60)
w240 = (c000 * c120 * c150 + Th)
/ (c120 * c240 * c270 + c240 * c000 * c030 + c000 * c120 * c150 + 3 * Th) ... (61)
It is obtained by. However, the constant Th is a term for preventing divergence and takes a positive value. Usually, Th = 1 may be set, but this threshold value may be increased for a noisy image such as a high-sensitivity photographed image.
[0091]
The 0 degree direction and the 270 degree direction, the 120 degree direction and the 30 degree direction, and the 240 degree direction and the 150 degree direction are orthogonal to each other. This orthogonal relationship is expressed as a 0 degree direction ⊥ 270 degree direction, a 120 degree direction ⊥ 30 degree direction, and a 240 degree direction ⊥ 150 degree direction.
[0092]
Thus, the similarity determined continuously using the similarity in the six directions has a spatial resolving power that accurately reproduces all of the hexagons in FIG. 20 with respect to the chromatic image. Further, the spatial resolving power based on the similarity between the same colors can always be achieved without being affected by the chromatic aberration included in the optical system because the similarity is observed between the same color components.
[0093]
3. Interpolation value calculation Interpolation values are obtained in the same manner as in the second embodiment.
[0094]
As described above, in the fifth embodiment, it is possible to extract all the RGB single-color spatial color resolving power originally possessed by the delta arrangement for any image. In addition, a clear image can be restored in the gradation direction, and strong performance is exhibited even for a system including chromatic aberration.
[0095]
Note that the similarity calculation and similarity determination of the fifth embodiment can be applied to the similarity calculation and similarity determination of the fourth embodiment. Such an image restoration method exhibits extremely high gradation sharpness and an effect of being strong against chromatic aberration while simultaneously achieving excellent luminance resolution performance and color resolution performance in the spatial direction. In particular, it is possible to derive the highest color resolution performance of the delta arrangement while achieving a clear gradation. In normal image processing, there is a trade-off in which edge enhancement processing is performed to improve gradation sharpness, and the color resolving power decreases accordingly, fading, or stereoscopic effect is impaired. By introducing four-component restoration values, the conflicting problems can be solved simultaneously.
[0096]
-Sixth embodiment-
In a Bayer array, in order to reduce false colors remaining in an image after interpolation processing, RGB signals are usually converted to YCbCr consisting of luminance and color difference, and a color difference low-pass filter is applied to the Cb and Cr planes, or a color difference median filter is used. Is applied to remove false colors and return to the RGB color system. Even in the case of the delta arrangement, if the Nyquist frequency cannot be lowered completely with an optical low-pass filter, an appropriate false color reduction process is required to improve the appearance. In the sixth embodiment, a post-processing method that does not impair the color resolution performance that is an excellent feature of the delta arrangement as much as possible is shown. Since the configuration of the electronic camera 1 of the sixth embodiment is the same as that of FIG. 1 of the first embodiment, the description thereof is omitted.
[0097]
FIG. 21 is a flowchart illustrating an overview of image processing performed by the image processing unit 11 in the sixth embodiment. As in the first, second, fourth, and fifth embodiments, it is assumed that interpolation processing is performed on a triangular lattice. FIG. 21 starts from input of an RGB color image after interpolation processing. For example, steps S1 to S5 in FIG. 2 of the first embodiment are finished, and then the flowchart in FIG. 21 is started.
[0098]
In step S31, RGB color image data after interpolation processing is input. In step S32, the RGB color system is converted to the YCgbCbrCrg color system unique to the sixth embodiment. In step S33, a color determination image is generated. In step S34, a color index is calculated using the color determination image generated in step S33. In step S35, a color determination of whether the color saturation is low or high is performed based on the color index in step S34.
[0099]
In step S36, color difference correction is performed by switching the low-pass filter to be used based on the color determination result in step S35. The color difference data to be corrected is generated in step S32. In step S37, the YCgbCbrCrg color system is converted back to the original RGB color system when the false color on the color difference surface is removed. In step S38, the obtained RGB color image data is output. The RGB color image data output in step S38 is image data obtained on a triangular lattice.
[0100]
When the square processing is performed on the image data obtained on the triangular lattice, the processing in steps S6 and S7 in FIG. 2 is performed as in the first embodiment. Hereinafter, the details of the processing in steps S32 to S37 described above will be described.
[0101]
1. Color system conversion
Convert from RGB color system to YCgbCbrCrg color system. However, the YCgbCbrCrg color system is defined by the following equations (62) to (65).
Y [i, j] = (R [i, j] + G [i, j] + B [i, j]) / 3 ... (62)
Cgb [i, j] = G [i, j] -B [i, j] ... (63)
Cbr [i, j] = B [i, j] -R [i, j] ... (64)
Crg [i, j] = R [i, j] -G [i, j] ... (65)
In this way, when conversion is performed to treat RGB evenly, for example, in the circular zone plate, the color moire that occurs around the corner of the hexagon in FIG. 6 disappears completely from the luminance plane Y, and all False color elements can be included in the color difference components Cgb, Cbr, and Crg.
[0102]
2. Color Evaluation 1) Generation of Color Determination Image In order to evaluate the color by distinguishing the false color in the achromatic part as much as possible from the chromatic part, the false color is temporarily reduced by applying a strong color difference low-pass filter on the entire surface. However, since this is a temporary color determination image, it does not affect the actual image.
TCgb [center] = {9 * Cgb [center]
+ 2 * (Cgb [nearest000] + Cgb [nearest120] + Cgb [nearest240]
+ Cgb [nearest180] + Cgb [nearest300] + Cgb [nearest060])
+ Cgb [2nd000] + Cgb [2nd120] + Cgb [2nd240]
+ Cgb [2nd180] + Cgb [2nd300] + Cgb [2nd060]} / 27 ... (66)
The same applies to TCbr and TCrg.
[0103]
2) Calculation of color index Next, the color index Cdiff is calculated using the image for color determination with reduced false colors, and color evaluation is performed in units of pixels.
Cdiff [i, j] = (| Cgb [i, j] | + | Cbr [i, j] | + | Crg [i, j] |) / 3 ... (67)
[0104]
3) Color determination The continuous color index Cdiff is determined as a threshold and converted to a discrete color index BW.
if Cdiff [i, j] ≦ Th then BW [i, j] = 'a' (low saturation)
else then BW [i, j] = 'c' (High chroma)
Here, the threshold value Th is preferably set to about 30 in the case of 256 gradations.
[0105]
3. Since the image can be divided into two regions by adaptive color difference correction color determination, the false color of the achromatic color portion is strongly erased, while the color difference correction processing is applied to preserve the color resolution of the chromatic color portion as much as possible. Here, the low-pass processing of Equation (68) and Equation (69) is performed, but median filter processing may be used. [] Represents the pixel position on the triangular lattice as viewed from the processing target pixel. The low pass filter of equation (68) uses the coefficient values shown in FIG. 11 of the third embodiment, and the low pass filter of equation (69) uses the coefficient values shown in FIG.
[0106]
<Low pass processing>
if BW [center] = 'a'
tmp_Cgb [center] = {9 * Cgb [center]
+ 2 * (Cgb [nearest000] + Cgb [nearest120] + Cgb [nearest240]
+ Cgb [nearest180] + Cgb [nearest300] + Cgb [nearest060])
+ Cgb [2nd000] + Cgb [2nd120] + Cgb [2nd240]
+ Cgb [2nd180] + Cgb [2nd300] + Cgb [2nd060]} / 27 ... (68)
Calculate similarly for tmp_Cbr and tmp_Crg.
if BW [center] = 'c'
tmp_Cgb [center] = {6 * Cgb [center]
+ Cgb [nearest000] + Cgb [nearest120] + Cgb [nearest240]
+ Cgb [nearest180] + Cgb [nearest300] + Cgb [nearest060]} / 12 ... (69)
Calculate similarly for tmp_Cbr and tmp_Crg.
[0107]
<Substitution process>
Cgb [i, j] = tmp_Cgb [i, j]
Cbr [i, j] = tmp_Cbr [i, j]
Crg [i, j] = tmp_Crg [i, j]
[0108]
4). Color system conversion processing At the stage where the false color on the color difference surface is removed, the original RGB color system is restored using the same equations (70) to (72) as in the fourth embodiment.
R [i, j] = (9 * Y [i, j] + Cgb [i, j] -2 * Cbr [i, j] + 4 * Crg [i, j]) / 9 ... (70)
G [i, j] = (9 * Y [i, j] + 4 * Cgb [i, j] + Cbr [i, j] -2 * Crg [i, j]) / 9 ... (71)
B [i, j] = (9 * Y [i, j] -2 * Cgb [i, j] + 4 * Cbr [i, j] + Crg [i, j]) / 9 ... (72)
[0109]
In this way, in the sixth embodiment, it is possible to reduce the false color of the entire image while maintaining the color resolution performance of the delta arrangement as much as possible. If this post-processing is incorporated into the image data generated in the fourth embodiment, the YCgbCbrCrg color system is already in the state, so the first color system conversion is unnecessary and the last color system is not necessary. Before performing system conversion, 2.3. It is only necessary to add the process.
[0110]
It should be noted that the image restoration methods described in the first to sixth embodiments can be applied to any level regardless of whether the input image of the delta arrangement remains in the linear gradation of the output of the image sensor or has a gamma-corrected gradation. It can also be applied to those with tonal characteristics. Although there is no way to deal with input images that have already undergone gamma correction in 8 bits, today's digital still camera imaging signals are generally 12-bit linear gradation output. The relationship between the image restoration process suitable for such a case (including the RGB system as in the first and second embodiments and the YCCC system as in the fourth embodiment) and the gradation processing is here. Shown in FIG. 27 is a flowchart showing the processing.
1) Linear gradation delta arrangement data input (step S41)
2) Gamma correction processing (step S42)
3) Image restoration processing (step S43)
4) Inverse gamma correction process (step S44)
5) User gamma correction process (step S45)
[0111]
The user gamma correction process is a process of converting a linear gradation to an 8-bit gradation suitable for display output, that is, a process of compressing the dynamic range of an image within the range of an output display device. Independently of this, when the gradation is once converted into a certain gamma space and the image restoration processing corresponding to the first to sixth embodiments is performed, a better restoration result can be obtained. The following gradation conversion methods are available.
<Gamma correction processing>
Input signal x (0 ≤ x ≤ xmax), output signal y (0 ≤ x ≤ ymax), input image is delta plane
y = ymax√ (x / xmax)
If the input signal is 12 bits, xmax = 4095, and the output signal may be set to 16 bits ymax = 65535, for example.
<Reverse gamma correction processing>
Input signal y (0 ≤ x ≤ ymax), output signal x (0 ≤ x ≤ xmax), input image is RGB
x = xmax (y / ymax) 2
[0112]
When the image restoration process is performed in the square root type gamma space as described above, the following advantages can be obtained simultaneously from a viewpoint different from the technique of the image restoration process.
1) Color borders can be sharpened (for example, suppression of red / white border color blur and suppression of black borders)
2) Suppression of false colors around bright spots (very bright areas) 3) Improved direction determination accuracy
1) and 2) are effects produced by involving the “interpolation value calculation unit” in the RGB method of image restoration processing and the “restored value calculation unit” in the Y method. Further, 3) is an effect generated by involving the “similarity calculation unit” and the “similarity determination unit” of the image restoration process. In other words, the input signal x contains an error of quantum fluctuation dx = k√x (k is a constant determined by the ISO sensitivity). Since uniform error dy = constant can be handled over 0 ≦ y ≦ ymax, the direction determination accuracy is improved. This technique can be applied not only to the delta arrangement but also to the interpolation process of the Bayer arrangement and various other filter arrangements. In the above embodiment, since the delta arrangement originally has a higher color resolution performance than the Bayer arrangement, this gradation conversion process can be performed before and after the image restoration process to produce even better color clarity. Is possible.
[0114]
In the first embodiment, the example in which the image data subjected to the interpolation processing on the triangular lattice is squared has been described. In other embodiments, it is indicated that when a square process is necessary, the process is performed. However, the image data itself that has undergone interpolation processing or color system conversion on the triangular lattice may be used as it is.
[0115]
In the third embodiment, an example in which correction processing is performed on RGB color image data generated in the same manner as in the first embodiment has been described. However, the present invention is not necessarily limited to this content. The present invention can be similarly applied to RGB color image data generated in other embodiments. Thus, in the said 1st-6th embodiment, it is possible to combine suitably, respectively. That is, in the first to sixth embodiments, similar direction determination processing, interpolation processing or color difference plane direct generation processing, post-processing such as correction, and square processing are described. It is possible to realize an optimum image processing method and processing apparatus by appropriately combining the processes in the embodiments.
[0116]
In the above embodiment, the description has been made on the assumption that a single-plate image sensor is used, but it is not necessary to limit to this content. The present invention can also be applied to a two-plate image sensor. In the case of the two-plate type, for example, one color component is missing in each pixel. However, the content of the above embodiment can be applied to the interpolation processing of one missing color component, and if necessary, square The same processing can be performed. Further, the method of directly generating the luminance component and the color difference component from the delta arrangement without using the interpolation process of the fourth embodiment can be similarly applied to a two-plate type image pickup device.
[0117]
In the above embodiment, various calculation formulas are shown for determining the similarity, but it is not necessarily limited to the contents shown in the embodiment. You may make it determine similarity by another suitable calculation formula. Also, although various calculation formulas are shown in the calculation of luminance information, it is not necessarily limited to the contents shown in the embodiment. Luminance information may be generated by another appropriate calculation formula.
[0118]
In the above-described embodiment, an example of a low-pass filter for color difference correction and the like and a band-pass filter for edge enhancement are shown, but it is not necessarily limited to the contents shown in the embodiment. A low-pass filter or a band-pass filter having another configuration may be used.
[0119]
In the above embodiment, an example of an electronic camera is shown, but it is not necessarily limited to this content. It may be a video camera that captures moving images, a personal computer with an image sensor, a mobile phone, or the like. That is, the present invention can be applied to any device that generates color image data using an image sensor.
[0120]
When applied to a personal computer or the like, a program related to the above-described processing can be provided through a recording medium such as a CD-ROM or a data signal such as the Internet. FIG. 23 is a diagram showing this state. The personal computer 100 receives a program via the CD-ROM 104. The personal computer 100 has a connection function with the communication line 101. The computer 102 is a server computer that provides the program, and stores the program in a recording medium such as the hard disk 103. The communication line 101 is a communication line such as the Internet or personal computer communication, or a dedicated communication line. The computer 102 reads the program using the hard disk 103 and transmits the program to the personal computer 100 via the communication line 101. That is, the program is transmitted as a data signal on a carrier wave via the communication line 101. Thus, the program can be supplied as a computer-readable computer program product in various forms such as a recording medium and a carrier wave.
[0121]
【The invention's effect】
When interpolating a first color component to a pixel lacking the first color component, the present invention interpolates using color information of a region including a pixel in which the first color component is second closest to the interpolation target pixel Therefore, for example, the images of the boundary lines in the directions of 30 degrees, 150 degrees, and 270 degrees (vertical lines) in FIG. 3 are dramatically improved. That is, the spatial resolution in the directions of 30, 150, and 270 degrees is improved.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of an electronic camera according to a first embodiment.
FIG. 2 is a flowchart showing an outline of image processing performed by an image processing unit in the first embodiment;
FIG. 3 is a diagram illustrating a positional relationship of pixels obtained by an image sensor with a delta arrangement.
FIG. 4 is a diagram illustrating coefficients used for peripheral addition.
FIG. 5 is a diagram showing coefficient values used when obtaining curvature information dR.
FIG. 6 is a diagram illustrating an achromatic spatial frequency reproduction region in a delta arrangement.
FIG. 7 is a diagram illustrating coefficient values used for one-dimensional displacement processing.
FIG. 8 is a diagram illustrating pixel positions used in the calculation according to the second embodiment.
FIG. 9 is a diagram illustrating coefficient values used when obtaining curvature information dR, dG, and dB.
FIG. 10 is a flowchart illustrating an outline of image processing performed by an image processing unit in the third embodiment;
FIG. 11 is a diagram illustrating coefficient values of a low-pass filter.
FIG. 12 is a diagram illustrating coefficient values of other low-pass filters.
FIG. 13 is a diagram illustrating coefficient values of other low-pass filters.
FIG. 14 is a diagram illustrating coefficient values of Laplacian.
FIG. 15 is a diagram illustrating coefficient values of other Laplacians.
FIG. 16 is a diagram illustrating coefficient values of other Laplacians.
FIG. 17 is a diagram showing a concept of generating a luminance plane (Y) and three color difference planes (Cgb, Cbr, Crg) directly from a delta plane in a delta arrangement, and then converting them to the original RGB color system. It is.
FIG. 18 is a flowchart illustrating an outline of image processing performed by an image processing unit in the fourth embodiment;
FIG. 19 is a diagram illustrating a state in which a Crg component and a Cbr component are obtained at the R position and a Cgb component is obtained in the nearest pixel.
FIG. 20 is a diagram illustrating a spatial frequency reproduction region of RGB color components in a delta arrangement.
FIG. 21 is a flowchart illustrating an outline of image processing performed by an image processing unit in the sixth embodiment;
FIG. 22 is a diagram defining adjacent pixels.
FIG. 23 is a diagram illustrating a state in which a program is provided through a recording medium such as a CD-ROM or a data signal such as the Internet.
FIG. 24 is a diagram showing a Bayer array, a delta array, and a honeycomb array of RGB color filters.
FIG. 25 is a diagram showing a concept of processing for interpolating image data obtained by a delta arrangement on a triangular lattice and restoring it to square lattice data.
FIG. 26 is a diagram showing a azimuth relationship of similarity in the fifth embodiment.
FIG. 27 is a flowchart showing image restoration processing and gradation processing.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Electronic camera 10 A / D conversion part 11 Image processing part 12 Control part 13 Memory 14 Compression / decompression part 15 Display image generation part 16 Memory card 17 Memory card interface part 18 PC (personal computer)
19 External interface unit 20 Imaging optical system 21 Image sensor 22 Analog signal processing unit 23 Timing control unit 24 Operation units 25 and 26 Monitor 27 Printer 28 CD-ROM

Claims (14)

第1〜第n色成分(n≧2)で表され、1つの画素に1つの色成分の色情報を有する複数の画素が三角格子状に配置された第1の画像を取得する画像取得手順と、
前記取得した第1の画像の色情報を用いて、第1色成分が欠落する画素に第1色成分を補間する補間手順と、
前記第1の画像の色情報と前記補間された色情報とに基づき、第2の画像を出力する出力手順とを備える画像処理方法であって、
前記補間手順は、前記第1の画像の補間対象画素に対して、第1色成分が2番目に近接する画素を含む領域の色情報を用いて、第1色成分の平均情報を求め、前記補間を行い、
少なくとも3方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、
前記補間手順は、前記類似性判定手順で判定された類似性の強さに応じて前記第1色成分の平均情報を求めることを特徴とする画像処理方法。
Image acquisition procedure for acquiring a first image in which a plurality of pixels represented by first to nth color components (n ≧ 2) and having color information of one color component per pixel are arranged in a triangular lattice shape When,
An interpolation procedure for interpolating the first color component to the pixel lacking the first color component using the acquired color information of the first image;
An image processing method comprising: an output procedure for outputting a second image based on the color information of the first image and the interpolated color information,
The interpolation procedure obtains average information of the first color component using color information of an area including a pixel in which the first color component is second closest to the interpolation target pixel of the first image, and There line interpolation,
A similarity determination procedure for determining the strength of similarity in at least three directions;
The image processing method characterized in that the interpolation procedure obtains average information of the first color component in accordance with the strength of similarity determined in the similarity determination procedure .
複数の色成分で表され、1つの画素に1つの色成分の色情報を有する複数の画素が三角格子状に配置された第1の画像を取得する画像取得手順と、
前記取得した第1の画像の色情報を零以上の可変な係数値で加重加算することによって、前記第1の画像の色情報と異なる色成分の色情報を生成する色情報生成手順と、
前記生成された色情報を使用して第2の画像を出力する出力手順を備える画像処理方法であって、
前記色情報生成手順は、前記第1の画像の処理対象画素に対して、該画素の色成分と異なる色成分が2番目に近接する画素を含む領域内の色情報を加重加算することを特徴とする画像処理方法。
An image acquisition procedure for acquiring a first image represented by a plurality of color components and having a plurality of pixels having color information of one color component per pixel arranged in a triangular lattice pattern;
A color information generation procedure for generating color information of a color component different from the color information of the first image by weighted addition of the acquired color information of the first image with a variable coefficient value of zero or more;
An image processing method comprising an output procedure for outputting a second image using the generated color information,
The color information generation procedure weights and adds color information in a region including a pixel in which a color component different from the color component of the pixel is second closest to the processing target pixel of the first image. An image processing method.
請求項に記載の画像処理方法において、
少なくとも3方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、
前記色情報生成手順は、前記類似性判定手順で判定された類似性の強さに応じて前記加重加算の係数値を可変にすることを特徴とする画像処理方法。
The image processing method according to claim 2 ,
A similarity determination procedure for determining the strength of similarity in at least three directions;
The color information generating procedure makes the coefficient value of the weighted addition variable according to the strength of similarity determined in the similarity determining procedure.
請求項またはに記載の画像処理方法において、
第1の画像が第1〜第3の色成分で表され、前記第1の画像の第1色成分を有する画素が処理対象画素の場合、
前記色情報生成手順は、前記処理対象画素、及び第2色成分が2番目に近接する画素、及び第3色成分が2番目に近接する画素を含む領域内の色情報を加重加算することを特徴とする画像処理方法。
The image processing method according to claim 2 or 3 ,
When the first image is represented by first to third color components and the pixel having the first color component of the first image is a processing target pixel,
The color information generation procedure weights and adds color information in a region including the processing target pixel, a pixel in which the second color component is second closest, and a pixel in which the third color component is second closest. A featured image processing method.
請求項のいずれか1項に記載の画像処理方法において、
前記色情報生成手順後前記出力手順前に、前記色情報生成手順で生成された前記第1の画像の色情報と異なる色成分の色情報を、予め決められた固定のフィルタ係数からなるフィルタ処理により、補正する補正手順をさらに備えることを特徴とする画像処理方法。
In the image processing method according to any one of claims 2 to 4 ,
After the color information generation procedure and before the output procedure, filter processing including color information of a color component different from the color information of the first image generated in the color information generation procedure, using predetermined fixed filter coefficients An image processing method, further comprising: a correction procedure for correcting.
請求項に記載の画像処理方法において、
前記フィルタ係数の中に、正および負の値を含むことを特徴とする画像処理方法。
The image processing method according to claim 5 ,
An image processing method, wherein the filter coefficient includes positive and negative values.
第1〜第n色成分(n≧2)で表され、1つの画素に1つの色成分の色情報を有する複数の画素が三角格子状に配置された第1の画像を取得する画像取得手順と、
前記第1の画像の色情報を用いて、第1色成分と第2色成分の間の色差成分の色情報を生成する色差生成手順と、
前記生成された色差成分の色情報を使用して第2の画像を出力する出力手順を備える画像処理方法であって、
前記色差生成手順は、前記第1の画像の第1色成分を有する画素に対して、少なくとも第2色成分が2番目に近接する画素の色情報を用いて、前記色差成分の色情報を生成することを特徴とする画像処理方法。
Image acquisition procedure for acquiring a first image in which a plurality of pixels represented by first to nth color components (n ≧ 2) and having color information of one color component per pixel are arranged in a triangular lattice shape When,
A color difference generation procedure for generating color information of a color difference component between the first color component and the second color component using the color information of the first image;
An image processing method comprising an output procedure for outputting a second image using color information of the generated color difference component,
The color difference generation procedure generates color information of the color difference component by using color information of a pixel having at least a second color component closest to the pixel having the first color component of the first image. An image processing method.
請求項に記載の画像処理方法において、
前記色差生成手順は、前記第1の画像の第1色成分を有する処理対象画素に対して、
1)該画素の第1色成分の色情報と
2)該画素に対して第2色成分が2番目に近接する画素を含む領域内における第2色成分の色情報の平均情報と
に基づいて前記色差成分の色情報を生成することを特徴とする画像処理方法。
The image processing method according to claim 7 .
The color difference generation procedure is performed on a processing target pixel having a first color component of the first image.
1) based on the color information of the first color component of the pixel and 2) the average information of the color information of the second color component in the region including the pixel in which the second color component is second closest to the pixel. An image processing method comprising generating color information of the color difference component.
請求項またはに記載の画像処理方法において、
前記色差生成手順は、さらに、処理対象画素に関する第2色成分の曲率情報に基づいて、前記色差成分の色情報を生成することを特徴とする画像処理方法。
The image processing method according to claim 7 or 8 ,
The color difference generation procedure further includes generating color information of the color difference component based on curvature information of the second color component regarding the processing target pixel.
請求項のいずれか1項に記載の画像処理方法において、
少なくとも3方向に対する類似性の強弱を判定する類似性判定手順をさらに備え、
前記色差生成手順は、前記類似性の強さに応じて前記色差成分の色情報を生成することを特徴とする画像処理方法。
The image processing method according to any one of claims 7 to 9 ,
A similarity determination procedure for determining the strength of similarity in at least three directions;
The image processing method according to claim 1, wherein the color difference generation procedure generates color information of the color difference component in accordance with the strength of the similarity.
請求項1〜10のいずれか1項に記載の画像処理方法において、
前記出力手順は、前記第1の画像と同じ画素位置に、前記第2画像を出力することを特徴とする画像処理方法。
The image processing method according to any one of claims 1-10,
In the image processing method, the output procedure outputs the second image at the same pixel position as the first image.
請求項1〜11のいずれか1項に記載の画像処理方法の手順をコンピュータに実行させるための画像処理プログラム。An image processing program for causing a computer to execute the procedure of the image processing method according to any one of claims 1 to 11 . 請求項12の画像処理プログラムを記録したコンピュータ読みとり可能な記録媒体。A computer-readable recording medium on which the image processing program according to claim 12 is recorded. 請求項12の画像処理プログラムを搭載した画像処理装置。An image processing apparatus equipped with the image processing program according to claim 12 .
JP2002159229A 2002-05-24 2002-05-31 Image processing method, image processing program, and image processing apparatus Expired - Lifetime JP4239484B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002159229A JP4239484B2 (en) 2002-05-31 2002-05-31 Image processing method, image processing program, and image processing apparatus
PCT/JP2003/006388 WO2003101119A1 (en) 2002-05-24 2003-05-22 Image processing method, image processing program, image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002159229A JP4239484B2 (en) 2002-05-31 2002-05-31 Image processing method, image processing program, and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2004007165A JP2004007165A (en) 2004-01-08
JP4239484B2 true JP4239484B2 (en) 2009-03-18

Family

ID=30429085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002159229A Expired - Lifetime JP4239484B2 (en) 2002-05-24 2002-05-31 Image processing method, image processing program, and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4239484B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860330B (en) * 2020-07-21 2023-08-11 陕西工业职业技术学院 Apple leaf disease identification method based on multi-feature fusion and convolutional neural network

Also Published As

Publication number Publication date
JP2004007165A (en) 2004-01-08

Similar Documents

Publication Publication Date Title
JP5045421B2 (en) Imaging apparatus, color noise reduction method, and color noise reduction program
JP4352371B2 (en) Digital image processing method implementing adaptive mosaic reduction method
EP1395041B1 (en) Colour correction of images
US7236628B2 (en) Interpolation processing apparatus and recording medium having interpolation processing program recording therein
EP1367837B1 (en) Image processing method, image processing program, and image processor
JP4910699B2 (en) Image processing device
US8320714B2 (en) Image processing apparatus, computer-readable recording medium for recording image processing program, and image processing method
JP2004153823A (en) Image processing system using local linear regression
JP4321064B2 (en) Image processing apparatus and image processing program
WO2005112470A1 (en) Image processing device and image processing program
JP4329542B2 (en) Image processing apparatus and image processing program for determining similarity of pixels
JP4196055B2 (en) Image processing method, image processing program, and image processing apparatus
JP4239483B2 (en) Image processing method, image processing program, and image processing apparatus
JP4239480B2 (en) Image processing method, image processing program, and image processing apparatus
JP4239484B2 (en) Image processing method, image processing program, and image processing apparatus
JP4086572B2 (en) Video signal processing device
WO2003101119A1 (en) Image processing method, image processing program, image processor
JP2012100215A (en) Image processing device, imaging device, and image processing program
JP4122082B2 (en) Signal processing apparatus and processing method thereof
JP2013165482A (en) Image processor, image processing program and imaging apparatus
JP2003087808A (en) Image processing method and device, and program
JP2001086523A (en) Signal generating method and device and recording medium
JP2000050292A (en) Signal processing unit and its signal processing method
JP2000341703A (en) Method and device for generating signal and recording medium
JP2014131175A (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081107

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20081107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4239484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150109

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150109

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150109

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term