JP2014200033A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2014200033A
JP2014200033A JP2013075141A JP2013075141A JP2014200033A JP 2014200033 A JP2014200033 A JP 2014200033A JP 2013075141 A JP2013075141 A JP 2013075141A JP 2013075141 A JP2013075141 A JP 2013075141A JP 2014200033 A JP2014200033 A JP 2014200033A
Authority
JP
Japan
Prior art keywords
pixel
image
value
unit
reference area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013075141A
Other languages
English (en)
Inventor
勝俊 安藤
Katsutoshi Ando
勝俊 安藤
奥村 明弘
Akihiro Okumura
明弘 奥村
一郎 藤沢
Ichiro Fujisawa
一郎 藤沢
隆史 土屋
Takashi Tsuchiya
隆史 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013075141A priority Critical patent/JP2014200033A/ja
Priority to PCT/JP2014/056930 priority patent/WO2014156732A1/ja
Publication of JP2014200033A publication Critical patent/JP2014200033A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

【課題】確実に偽色や雑音を低減することができるようにする。
【解決手段】参照エリア設定部は、複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアを設定するとともに、参照エリアの領域を変化させ、方向検出部は、参照エリア内の画素の画素値から得られる統計量を評価して、第1の画像内の注目位置の方向性を検出する。本技術は、例えば、単板式カメラにより取得された画像信号に対する画像処理を行う画像処理装置に適用することができる。
【選択図】図3

Description

本技術は、画像処理装置および方法、並びにプログラムに関し、特に、確実に偽色や雑音を低減することができるようにした画像処理装置および方法、並びにプログラムに関する。
イメージセンサを用いた撮像装置には、主に、1つのイメージセンサを用いた単板方式のもの(以下、単板式カメラという)と、3つのイメージセンサを用いた3板方式のもの(以下、3板式カメラという)とがある。
3板式カメラでは、例えばR信号用、G信号用およびB信号用の3つのイメージセンサを用いて、その3つのイメージセンサにより3原色信号を得る。そして、この3原色信号から生成されるカラー画像信号が記録媒体に記録される。
単板式カメラでは、1画素毎に割り当てられた色フィルタアレイからなる色コーディングフィルタが前面に設置された1つのイメージセンサを用いて、色コーディングフィルタにより色コーディングされた色成分の信号を1画素毎に得る。色コーディングフィルタを構成する色フィルタアレイとしては、例えば、R(Red),G(Green),B(Blue)の原色フィルタアレイや、Ye(Yellow),Cy(Cyanogen),Mg(Magenta)の補色フィルタアレイが用いられている。そして、単板式カメラにおいては、イメージセンサにより1画素毎に1つの色成分の信号を得て、各画素が持っている色成分の信号以外の色信号を線形補間処理により生成して、3板式カメラにより得られる画像に近い画像を得るようしていた。ビデオカメラなどにおいて、小型化、軽量化を図る場合に、単板式が採用されている。
色コーディングフィルタを構成する色フィルタアレイとして、ベイヤー配列の色フィルタアレイが用いられることが多い。ベイヤー配列では、Gの色フィルタが市松状に配され、残った部分にRとBが一列毎に交互に配されている。
この場合、イメージセンサは、R,G,Bの3原色のうちの1つの色のフィルタが配置された各画素から、そのフィルタの色に対応する画像信号のみが出力される。すなわち、Rの色フィルタが配置された画素からは、R成分の画像信号は出力されるが、G成分およびB成分の画像信号は出力されない。同様に、Gの画素からは、G成分の画像信号のみが出力され、R成分およびB成分の画像信号は出力されず、Bの画素からは、B成分の画像信号のみが出力され、R成分およびG成分の画像信号は出力されない。
しかしながら、画像処理の後段において各画素の信号を処理する際、各画素毎にR成分,G成分およびB成分の画像信号が必要となる。そこで、従来の技術では、n×m(nおよびmは正の整数)個の画素で構成されるイメージセンサの出力から、n×m個のR画素の画像信号、n×m個のG画素の画像信号およびn×m個のB画素の画像信号が、それぞれ補間演算により求められ、後段に出力される。
このような従来の技術としてDLMMSE法が知られている(非特許文献1参照)。図1に示すように、DLMMSE法では、まず、垂直・水平の2方向で補間により、イメージセンサからの入力画像の各画素位置の補間色差を求めて、注目している画素の位置の近傍の5画素の統計量を算出する。
具体的には、図2に示すように、イメージセンサからの入力画像における36(=6×6)画素の領域において、垂直補間色差rv、bvと、水平補間色差rh、bhが求められるので、例えば、R14の画素に注目したときの、垂直方向の5画素(rv2、rv8、rv14、rv20、rv26)を用いて垂直方向の統計量を算出する。同様に、R14の画素に注目したときの、水平方向の5画素(rh12、rh13、rh14、rh15、rh16)を用いて水平方向の統計量を算出する。
図1に戻って、このように算出された統計量を用いて、注目している画素の方向性(垂直方向または水平方向)を検出し、その検出結果に応じて、垂直色差と水平色差とを混合(按分)することで、色差(R−G、B−G)が求められる。なお、垂直方向の補間色差と統計量から垂直色差が求められ、水平方向の補間色差と統計量から水平色差が求められる。
DLMMSE法では、このようにして色差(R−G、B−G)が求められるので、それを用いた画像処理によって、G画素の画像信号、R画素の画像信号、およびB画素の画像信号がそれぞれ求められ、出力画像として生成される。
DLMMSE algorithm from L. Zhang and X. Wu, "Color demosaicking via directional linear minimum mean square-error estimation," IEEE Trans. on Image Processing, vol. 14, no. 12, pp. 2167-2178, 2005.
しかしながら、DLMMSE法を用いた場合、統計量の算出時の画素の参照エリアが垂直方向または水平方向に固定されているため、特に、ナイキスト周波数に近い高周波成分を含む入力画像に対しては、方向性を誤検出してしまう可能性がある。このように方向性を誤った場合には、その画素位置では真値とはかけ離れた値が生成され、結果として脈絡のない偽色や雑音が生じることとなる。
本技術はこのような状況に鑑みてなされたものであり、確実に偽色や雑音を低減することができるようにするものである。
本技術の一側面の画像処理装置は、複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアを設定するとともに、前記参照エリアの領域を変化させる参照エリア設定部と、前記参照エリア内の画素の画素値から得られる統計量を評価して、前記第1の画像内の注目位置の方向性を検出する方向検出部とを備える。
前記単板式画素部は、R,G,Bの各色成分を有するベイヤー配列の画素部であり、Rの画素とBの画素の位置において、垂直方向と水平方向にG成分の値を補間する補間部と、R成分の値またはB成分の値と、垂直方向の補間値または水平方向の補間値との差である補間色差を演算する補間色差演算部とをさらに備え、前記方向検出部は、前記参照エリア内の前記補間色差から得られる統計量を評価して、前記注目位置の方向性を検出する。
前記方向検出部は、前記参照エリアの領域を変化させることで得られる複数の統計量のうち、最も顕著な特徴に基づいて、前記注目位置の方向性を検出する。
前記方向検出部は、前記参照エリア毎の統計量として複数得られる、前記補間色差の分散の差または標準偏差の差のうち、その差が最も大きいものを、最も顕著な特徴とする。
前記方向検出部は、前記参照エリア毎の統計量として複数得られる、前記補間色差のダイナミックレンジのうち、最も大きいものを、最も顕著な特徴とする。
前記方向検出部は、前記参照エリア内の画素の画素値から得られる統計量を、前記参照エリアの領域の大きさに応じた重み付けをしてから評価する。
前記方向性の検出結果に応じて選択された垂直方向の補間値または水平方向の補間値に基づいて、前記複数の色成分における各色成分のみで構成される画像である第2の画像を生成する画像生成部をさらに備える。
前記第1の画像から、前記方向性の検出結果に応じた所定の画素に係る画素値を、クラスタップとして選択するクラスタップ選択部と、前記クラスタップの画素値から得られる特徴量に基づいて、前記複数の色成分における各色成分の画素のみで構成される画像である第2の画像の注目画素を、複数のクラスのうちのいずれかのクラスに分類するクラス分類部と、前記クラス分類の結果に基づいて、予め記憶されている係数を読み出す係数読み出し部と、前記第1の画像から、前記方向性の検出結果に応じた所定の画素に係る画素値を、予測タップとして選択する予測タップ選択部と、前記予測タップの画素値を変数とし、読み出された前記係数を用いた積和演算により、前記第2の画像の画素値をそれぞれ演算する積和演算部とをさらに備える。
前記クラス分類部は、前記方向性の検出結果に基づいて、クラス分類を行う。
前記第1の画像から、所定の画素数で構成される領域である指定エリアを選択するとともに、前記方向性の検出結果に応じて、前記指定エリアにおける前記各色成分の代表値をそれぞれ演算する代表値演算部と、前記予測タップの各色成分の画素値を、前記複数の色成分のうち、1の色成分の画素値を基準とし、前記代表値を用いてオフセットすることにより得られる第1の変換値に変換する第1の色成分変換部とをさらに備え、前記積和演算部は、前記第1の変換値を変数とし、読み出された前記係数を用いた積和演算により、前記第2の画像の画素値をそれぞれ演算する。
前記クラスタップの各色成分の画素値を、前記複数の色成分のうち、1の色成分の画素値を基準とし、前記代表値を用いてオフセットすることにより得られる第2の変換値に変換する第2の色成分変換部をさらに備え、前記クラス分類部は、前記第2の変換値に基づいて、前記クラスタップの特徴量を決定する。
前記係数読み出し部により読み出される係数は、予め学習により求められ、前記学習では、前記単板式画素部と被写体の間に配置される光学ローパスフィルタより、前記被写体に近い位置に配置された、前記複数の色成分のそれぞれに対応する画素のみで構成された複数の画素部からそれぞれ出力される画像信号により構成される画像を教師画像とし、前記単板式画素部から出力される画像信号により構成される画像を生徒画像とし、前記生徒画像の画素と前記教師画像の画素をマッピングさせた正規方程式を解くことにより前記係数が算出される。
前記補間色差は、前記第1の画像におけるライン毎に求められ、注目ラインを中心として、垂直方向の前記参照エリア内の前記補間色差のラインを選択することで、垂直方向の総和と二乗和を演算し、垂直方向の総和と二乗和を用いて、注目ラインの注目位置毎に、水平方向の前記参照エリア内の総和と二乗和を演算し、この演算結果を用い、注目位置毎の前記補間色差の分散の垂直方向と水平方向との差分を演算し、前記参照エリア毎に得られる前記補間色差の分散の垂直方向と水平方向との差分のうち、その差が最も大きいものを選択して、その差分の正負に応じて前記方向性を求める。
前記補間色差は、前記第1の画像におけるライン毎に求められ、注目ラインを中心として、垂直方向の前記参照エリア内の前記補間色差のラインを選択することで、垂直方向の最大値と最小値を演算し、垂直方向の最大値と最小値を用いて、注目ラインの注目位置毎に、水平方向の前記参照エリア内の最大値と最小値を演算し、この演算結果を用い、注目位置毎の前記補間色差のダイナミックレンジの差分を演算し、前記参照エリア毎に得られる前記補間色差のダイナミックレンジの差分のうち、その差が最も大きいものを選択して、その差分の正負に応じて前記方向性を求める。
本技術の一側面の画像処理方法またはプログラムは、上述した本技術の一側面の画像処理装置に対応する画像処理方法またはプログラムである。
本技術の一側面の画像処理装置および方法、並びにプログラムにおいては、複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアが設定されるとともに、前記参照エリアの領域が変化され、前記参照エリア内の画素の画素値から得られる統計量が評価されて、前記第1の画像内の注目位置の方向性が検出される。
本技術の一側面によれば、確実に偽色や雑音を低減することができる。
DLMMSE法の原理を説明する図である。 DLMMSE法における方向性の検出を説明する図である。 本技術を適用した画像処理装置の一実施の形態に係る構成例を示すブロック図である。 補間値Gv、補間値Ghの算出方式の例を説明する図である。 垂直補間色差rv、bv、水平補間色差rh、bhの算出方式の例を説明する図である。 参照エリアの設定方法の例を説明する図である。 参照エリア毎に演算されるVDの例を説明する図である。 注目位置毎に設定される参照エリアの設定方法の例を説明する図である。 出力画像の生成の流れを説明する図である。 出力画像の算出方式の例を説明する図である。 補間値Gv、補間値Ghの算出方式の例を説明する図である。 単純補間の例を説明する図である。 図3の画像処理装置による画像処理の例を説明するフローチャートである。 方向検出処理の例を説明するフローチャートである。 ナイキスト周波数のパターンを説明する図である。 斜めベイヤー配列を用いた場合の方向性の検出を説明する図である。 単板式カメラのイメージセンサにおける画像信号の取得方式を説明する図である。 本技術を適用した画像処理装置の別の実施の形態に係る構成例を示すブロック図である。 指定エリアの例を示す図である。 補間値gの算出方式の例を説明する図である。 補間値rの算出方式の例を説明する図である。 補間値bの算出方式の例を説明する図である。 図18の画像処理装置に対応する学習装置の構成例を示す図である。 図18の画像処理装置、または、図23の学習装置において取得されるクラスタップの構造の例を示す図である。 図18の画像処理装置、または、図23の学習装置において取得される予測タップの構造の例を示す図である。 図18の画像処理装置による画像処理の例を説明するフローチャートである。 代表RGB演算処理の例を説明するフローチャートである。 図23の学習装置による係数学習処理の例を説明するフローチャートである。 分散を用いた方向性判定による方向検出処理を実行する図3の画像処理装置の回路構成を示す図である。 ダイナミックレンジを用いた方向性判定による方向検出処理を実行する図3の画像処理装置の回路構成を示す図である。 コンピュータの構成例を示すブロック図である。
以下、図面を参照しながら本技術の実施の形態について説明する。
<1.第1の実施の形態>
<画像処理装置の構成>
図3は、本技術を適用した画像処理装置の一実施の形態に係る構成例を示すブロック図である。この画像処理装置10は、入力画像の注目している画素の位置(以下、注目位置という)における方向性を検出し、その方向性に基づき出力画像を生成するようになされている。
画像処理装置10に入力される入力画像は、例えば、ベイヤー配列の色フィルタアレイが用いられたイメージセンサの出力値により構成される画像とされる。すなわち、入力画像は、例えば、イメージセンサから出力される信号に対応する画像とされる。従って、入力画像では、Rの色フィルタが配置された画素からは、R成分の画像信号は得られるが、G成分およびB成分の画像信号は得られない。同様に、Gの画素からは、G成分の画像信号のみが得られ、R成分およびB成分の画像信号は得られず、Bの画素からは、B成分の画像信号のみが得られ、R成分およびG成分の画像信号は得られない。
そのため、画像処理装置10では、イメージセンサから出力される信号から、R画素の画像信号、G画像の画像信号、およびB画像の画像信号がそれぞれ画像処理により求められ、出力画像として生成される。
なお、以下の説明においては、演算により算出される補間値などが適宜参照されるが、演算前の入力画像の画素値のそれぞれは、各画素の色成分に応じて、入力値G、入力値R、および入力値Bと称して区別することにする。すなわち、ベイヤー配列のイメージセンサのRの色フィルタが配置された画素から直接得られる画素値を入力値Rとし、ベイヤー配列のイメージセンサのGの色フィルタが配置された画素から直接得られる画素値を入力値Gとし、ベイヤー配列のイメージセンサのBの色フィルタが配置された画素から直接得られる画素値を入力値Bとする。
図3の画像処理装置10は、垂直補間部11−1、水平補間部11−2、垂直補間色差演算部12−1、水平補間色差演算部12−2、垂直補間色差分散演算部13−1、水平補間色差分散演算部13−2、分散差分演算部14、参照エリア設定部15、方向検出部16、および出力画像生成部17により構成されている。
垂直補間部11−1は、入力画像におけるRの画素とBの画素のそれぞれの画素位置における垂直方向に補間されたG成分の値である補間値Gvを算出する。
例えば、図4に示すように、ベイヤー配列の場合、R成分の画素またはB成分の画素を中心画素としたとき、その中心画素の周囲(上下左右)には4つのGの画素である画素G1乃至G4が配される。この際、中心画素の上下両隣に位置する画素G1の入力値G1と画素G4の入力値G4を用いて、式(1)を演算することにより、中心画素の画素位置における垂直方向に補間されたG成分の値である補間値Gvを算出する。
Figure 2014200033
・・・(1)
図3に戻って、水平補間部11−2は、入力画像におけるRの画素とBの画素のそれぞれの画素位置における水平方向に補間されたG成分の値である補間値Ghを算出する。
例えば、図4に示すように、中心画素の左右両隣に位置する画素G2の入力値G2と画素G3の入力値G3を用いて、式(2)を演算することにより、中心画素の画素位置における水平方向に補間されたG成分の値である補間値Ghを算出する。
Figure 2014200033
・・・(2)
図3に戻って、垂直補間部11−1により補間された補間値Gvは、垂直補間色差演算部12−1に供給される。これにより、入力画像のRの画素の位置では、入力値Rおよび補間値Gvを得ることができ、入力画像のBの画素の位置では、入力値Bおよび補間値Gvを得ることができる。
垂直補間色差演算部12−1は、各画素位置において、Rの画素の入力値RまたはBの画素の入力値Bと、垂直方向の補間値Gvとの差分である垂直補間色差rv、bvを算出する。
ここで、垂直補間色差rv、bvは、式(3)により演算される。
Figure 2014200033
・・・(3)
また、水平補間部11−2により補間された補間値Ghは、水平補間色差演算部12−2に供給される。これにより、入力画像のRの画素の位置では、入力値Rおよび補間値Ghを得ることができ、入力画像のBの画素の位置では、入力値Bおよび補間値Ghを得ることができる。
水平補間色差演算部12−2は、各画素位置において、Rの画素の入力値RまたはBの画素の入力値Bと、水平方向の補間値Ghとの差分である水平補間色差rh、bhを算出する。
ここで、水平補間色差rh、bhは、式(4)により演算される。
Figure 2014200033
・・・(4)
図5は、垂直補間色差rv、bvと水平補間色差rh、bhの算出方式の例を示している。図5では、図中の円のそれぞれが、画素を表しており、R、G、Bの各色成分毎に異なる模様が施されている。
図5に示すように、入力画像におけるRの画素またはBの画素のそれぞれの画素位置における補間値Gvを求めて、各画素位置毎に、Rの画素の入力値RまたはBの画素の入力値Bと、補間値Gvとの差分を演算することで、垂直補間色差rv、bvが算出される。つまり、入力画像において、Rの画素の画素位置ではrv=R−Gvが演算され、Bの画素の画素位置ではbv=B−Gvが演算される。
また、図5に示すように、入力画像におけるRの画素またはBの画素のそれぞれの画素位置における補間値Ghを求めて、各画素位置毎に、Rの画素の入力値RまたはBの画素の入力値Bと、補間値Ghとの差分を演算することで、水平補間色差rh、bhが算出される。つまり、入力画像において、Rの画素の画素位置ではrh=R−Ghが演算され、Bの画素の画素位置ではbh=B−Ghが演算される。
これにより、入力画像において、Rの画素の画素位置では、垂直補間色差rvおよび水平補間色差rhを得ることができ、Bの画素の画素位置では、垂直補間色差bvおよび水平補間色差bhを得ることができる。
図3に戻って、垂直補間色差演算部12−1により求められた垂直補間色差rv、bvは、垂直補間色差分散演算部13−1に供給される。垂直補間色差分散演算部13−1は、垂直補間色差rvの分散であるV(R−Gv)と、垂直補間色差bvの分散であるV(B−Gv)をそれぞれ算出し、分散差分演算部14に供給する。
また、水平補間色差演算部12−2により求められた水平補間色差rh、bhは、水平補間色差分散演算部13−2に供給される。水平補間色差分散演算部13−2は、水平補間色差rhの分散であるV(R−Gh)と、水平補間色差bhの分散であるV(B−Gh)をそれぞれ算出し、分散差分演算部14に供給する。
分散差分演算部14は、垂直補間色差分散演算部13−1により求められた垂直補間色差rv,bvの分散と、水平補間色差分散演算部13−2により求められた水平補間色差rh,bhの分散との差分VDを算出する。
ここで、差分VDは、式(5)により演算される。
Figure 2014200033
・・・(5)
但し、式(5)において、k(k=1,2,・・・,kmax)は、注目位置を特定するための変数を表している。また、式(5)において、n(n=1,2,・・・,nmax)は、注目位置を中心として任意に設定される領域である参照エリアを特定するための変数を表している。
すなわち、差分VDは、垂直補間色差rv,bvまたは水平補間色差rh,bhにおける注目位置を中心とした参照エリア毎に求められる。この参照エリアは、参照エリア設定部15により設定される。
例えば、図6に示すように、入力画像における36(=6×6)画素の領域を一例にすれば、上述したように、Rの画素およびのBの画素の位置では、補間値Gvおよび補間値Ghが求められる。
なお、図6の例では、図中の上段の各円内に記されたR、G、Bの文字は、各画素の色成分を表しており、さらに説明に用いるために左上から順に0乃至35の番号が付されている。また、図中の下段の点線の各円内に記されたrv、bvは、Rの画素およびBの画素の位置の垂直補間色差を、rh、bhは、Rの画素およびBの画素の位置の水平補間色差をそれぞれ表しており、さらに入力画像の対応する画素と同一の番号が付されている。
従って、垂直補間色差rvであるが、例えば、rv0、rv2、rv4は、R0−Gv、R2−Gv、R4−Gvをそれぞれ演算することで算出される。また、垂直補間色差bvであるが、例えば、bv7、bv9、bv11は、B7−Gv、B9−Gv、B11−Gvをそれぞれ演算することで算出される。なお、繰り返しになるので説明は省略するが、他の画素の位置においても同様の演算が行われることで、垂直補間色差rv、bvが求められる。
また、水平補間色差rhであるが、例えば、rh0、rh2、rh4は、R0−Gh、R2−Gh、R4−Ghをそれぞれ演算することで算出される。また、水平補間色差bhであるが、例えば、bh7、bh9、bh11は、B7−Gh、B9−Gh、B11−Ghをそれぞれ演算することで算出される。なお、繰り返しになるので説明は省略するが、他の画素の位置においても同様の演算が行われることで、水平補間色差rh,bhが求められる。
また、図中の下段の点線の円の一部は太線で囲まれているが、R14(rv14、rh14)を注目位置とし、その注目位置を中心とした9(=3×3)画素により構成される領域が参照エリア1(n=1)とされる。また、R14(rv14、rh14)を注目位置とし、その注目位置を中心とした25(=5×5)画素により構成される領域が参照エリア2(n=2)とされる。
すなわち、R14の画素を注目位置(k=1)とした場合、参照エリア1の差分VD(1)(1)は、上述した式(5)により、次のように算出することができる。
VD(1)(1)={V(rv14)+V(bv7,bv9,bv19,bv21)}−{V(rh14)+V(bh7,bh9,bh19,bh21)}
ここで、VD(1)(1)は、参照エリア1における垂直補間色差と水平補間色差とのなめらかさの差を表している。つまり、VD(1)(1)>0であれば、参照エリア1では水平方向がよりなめらかであることを表し、VD(1)(1)<0であれば、参照エリア1では垂直方向がよりなめらかであることを表している。なお、VD(1)(1)=0であれば、参照エリア1では水平方向と垂直方向は同程度のなめらかさとされる。
同様にまた、参照エリア2の差分VD(2)(1)は、上述した式(5)により、次のように算出することができる。
VD(2)(1)={V(rv0,rv2,rv4,rv12,rv14,rv16,rv24,rv26,rv28)+V(bv7,bv9,bv19,bv21)}−{V(rh0,rh2,rh4,rh12,rh14,rh16,rh24,rh26,rh28)+V(bh7,bh9,bh19,bh21)}
そして、図7に示すように、例えばnの最大値(nmax)として8が設定されている場合、注目位置(k=1)を中心として参照エリア1から参照エリア8まで順に領域が拡大され、注目位置(k=1)の参照エリア毎に差分VDが算出される。図7の例では、差分VD(1)(1)乃至VD(8)(1)が順次算出されることになる。
このようにして、R14を注目位置(k=1)として、差分VD(1)(1)乃至VD(8)(1)が算出されると、次の画素を注目位置(k=2)として、差分VDが求められることになる。
例えば、図8に示すように、R14である注目位置(k=1)の次に、B21である注目位置(k=2)と、G15である注目位置(k=3)を順に注目する場合について考える。この場合、まず、B21である注目位置(k=2)について、参照エリア1乃至参照エリア8が順次設定され、差分VD(1)(2)乃至VD(8)(2)が算出される。そして、B21である注目位置(k=2)についての差分VD(1)(2)乃至VD(8)(2)が算出されると、次にG15である注目位置(k=3)について、参照エリア1乃至参照エリア8が順次設定され、差分VD(1)(3)乃至VD(8)(3)が算出される。
これにより、入力画像の注目している画素の位置を順次注目位置として、その注目位置を中心とする参照エリア毎の差分VD(n)(k)が求められる。
図3に戻って、分散差分演算部14により求められた差分VDの値は順次、方向検出部16に供給される。方向検出部16は、差分VDの値に基づいて、注目位置の方向性として、垂直方向または水平方向のいずれか一方の方向を検出する。
ここで、注目位置の方向性は、式(6)乃至式(8)の演算結果に従って検出される。
Figure 2014200033
・・・(6)
Figure 2014200033
・・・(7)
Figure 2014200033
・・・(8)
但し、式(6)および式(7)において、A(n)は、参照エリア毎の重み付けを行うためのパラメータである。例えば、参照エリア1の領域と、参照エリア8の領域とを比較した場合、参照エリア1の領域のほうが狭いので、参照エリア1のA(1)に設定される重み付けを大きくするといったことが可能となる。
また、式(6)のMax()は、指定された値の中から最大値を求めるための関数であり、式(7)のMin()は、指定された値の中から最小値を求めるための関数である。さらに、式(8)のABS()は、指定された値の絶対値を求めるための関数である。
すなわち、式(6)および式(7)の演算を行うことで、k番目の注目位置におけるn個の差分VDの中から、最大値となるVDmaxと、最小値となるVDminが求められる。そして、式(8)によって、VDmaxの絶対値と、VDminの絶対値とを比較することで、VD(n)(k)のうち、絶対値が最も大きいものを、最も顕著な方向性を表す値とし、方向性を検出することになる。
具体的には、VDminの絶対値よりもVDmaxの絶対値のほうが大きいと判定された場合には、k番目の注目位置における方向性を示す方向D(k)として、水平方向が選択される。一方、VDmaxの絶対値よりもVDminの絶対値のほうが大きいと判定された場合、k番目の注目位置における方向性を示す方向D(k)として、垂直方向が選択される。
これにより、全ての注目位置において、垂直方向または水平方向のいずれか一方の方向性が検出されることになる。方向検出部16による方向性の検出結果は、出力画像生成部17に供給される。
出力画像生成部17は、方向検出部16による検出結果(方向性)に従い、出力画像となるG成分の画像(以下、G出力画像という)、R成分の画像(以下、R出力画像という)、および、B成分の画像(以下、B出力画像という)をそれぞれ生成する。
例えば、図9に示すように、入力画像に対する垂直補間および水平補間により補間値Gv,Ghが算出され、それを用いて、垂直補間色差(R−Gv,B−Gv)および水平補間色差(R−Gh,B−Gh)を算出することで、各注目位置の方向性が検出されるのは、上述したとおりである。そして、注目位置の方向性として垂直方向が選択された場合には、垂直補間色差を選択し、注目位置の方向性として水平方向が選択された場合には、水平補間色差を選択することで、補間色差(R−G,B−G)が求められるので、それを用いて、G出力画像、R出力画像、およびB出力画像を生成することになる。
より具体的には、図10に示すように、入力画像におけるR成分の画素とB成分の画素のそれぞれの画素位置おいて、垂直方向または水平方向にG成分を補間することで、補間値Gvおよび補間値Ghが算出される。例えば、図11に示すように、補間値Gvは、中心画素の上下両隣に位置する画素G1の入力値G1と画素G4の入力値G4を用いて、上述した式(1)を演算することで求められる。また、補間値Ghは、中心画素の左右両隣に位置する画素G2の入力値G2と画素G3の入力値G3を用いて、上述した式(2)を演算することで求められる。
図10に戻って、補間値Gv、補間値Ghが求められると、Rの画素の入力値RまたはBの画素の入力値Bと、補間値Gvとの差分である垂直補間色差(R−Gv,B−Gv)、および、Rの画素の入力値RまたはBの画素の入力値Bと、補間値Ghとの差分である垂直補間色差(R−Gh,B−Gh)が求められる。
そして、注目位置と参照エリアの領域を変更しながら、上述した式(5)を演算することで、各注目位置における、参照エリア毎の差分VDが求められる。また、式(5)の演算結果を用いて、上述した式(6)乃至式(8)を演算することで、各注目位置において、垂直方向または水平方向のいずれか一方の方向性が検出されることになる。
図10に示すように、注目位置の方向性として垂直方向が検出された場合には、垂直補間色差を選択し、注目位置の方向性として水平方向が検出された場合には、水平補間色差を選択することで、G補間色差(R−G,B−G)が求められる。従って、例えば、入力画像(R,B)からG補間色差(R−G,B−G)を減算することで、G出力画像が生成されることになる。
また、G補間色差(R−G,B−G)を補間(以下、単純補間という)することで、補間色差(R−G)および補間色差(B−G)が求められる。例えば、図12に示すように、B成分の画素を中心画素としたとき、その中心画素の周囲(斜め方向)には4つのR画素である画素R1乃至R4が配される。この際、中心画素の上斜め方向に位置する画素R1の値R1と画素R2の値R2とを用いて、式(9)を演算することにより、画素R1と画素R2の間の画素位置における補間値r1が求められる。また、中心画素の左斜め方向に位置する画素R1の値R1と画素R3の値R3とを用いて、式(10)を演算することにより、画素R1と画素R3の間の画素位置における補間値r2が求められる。さらに、中心画素の周囲(斜め方向)の画素R1乃至画素R4を用いて、式(11)を演算することにより、中心画素の画素位置における補間値r3が求められる。
Figure 2014200033
Figure 2014200033
Figure 2014200033
このように、G補間色差(R−G,B−G)に対する単純補間を行うことで、補間色差(R−G)が求められる。そして、補間色差(R−G)に対し、G出力画像(G)を加算することで、R出力画像が生成されることになる。同様に、G補間色差(R−G,B−G)に対する単純補間を行うことで、補間色差(B−G)が求められるので、これに、G出力画像(G)を加算することで、B出力画像が生成されることになる。
以上のようにして、G出力画像、R出力画像、および、B出力画像が生成され、出力される。
<画像処理装置による画像処理>
図13は、図3の画像処理装置の処理を説明するフローチャートである。
ステップS11において、画像処理の対象となる画像(入力画像)が入力されたか否かが判定され、入力されたと判定されるまで待機する。ステップS11において、画像が入力されたと判定された場合、処理は、ステップS12に進む。
なお、上述したように、入力画像は、例えば、ベイヤー配列の色フィルタアレイが用いられたイメージセンサの出力値により構成される画像とされる。従って、入力画像では、Rの色フィルタが配置された画素からは、R成分の画像信号は得られるが、G成分およびB成分の画像信号は得られない。同様に、Gの画素からは、G成分の画像信号のみが得られ、R成分およびB成分の画像信号は得られず、Bの画素からは、B成分の画像信号のみが得られ、R成分およびG成分の画像信号は得られない。
ステップS12において、垂直補間部11−1乃至方向検出部16は、図14を参照して後述する方向検出処理を実行する。これにより、各注目位置において、垂直方向または水平方向のいずれか一方を示す方向性が検出される。
ステップS13において、出力画像生成部17は、G出力画像、R出力画像、およびB出力画像を生成する。すなわち、ステップS12の方向検出処理によって注目位置毎に方向性が検出されると、その方向性に応じたG補間色差(R−G,B−G)が求められる。従って、入力画像(R,B)からG補間色差(R−G,B−G)を減算することで、G出力画像が生成される。
また、G補間色差(R−G,B−G)に対する単純補間を行うことで、補間色差(R−G)が求められるので、これに、G出力画像(G)を加算することで、R出力画像が生成される。さらに、G補間色差(R−G,B−G)に対する単純補間を行うことで、補間色差(B−G)が求められるので、これに、G出力画像(G)を加算することで、B出力画像が生成される。
ステップS13において各出力画像が生成されると、処理は終了する。
このようにして、画像生成処理が行われる。
<方向検出処理>
次に、図14のフローチャートを参照して、図13のステップS12の方向検出処理の詳細な例について説明する。
ステップS21−1において、垂直補間部11−1は、入力画像におけるRの画素とBの画素のそれぞれの画素位置に、補間値Gvを生成する。
ステップS22−1において、垂直補間色差演算部12−1は、Rの画素の入力値RまたはBの画素の入力値Bと、垂直方向の補間値Gvとの差分である垂直補間色差(R−Gv,B−Gv)を求める。
ステップS23−1において、垂直補間色差分散演算部13−1は、垂直補間色差(R−Gv,B−Gv)の分散として、V(R−Gv)、V(B−Gv)をそれぞれ求める。
また、ステップS21−2において、水平補間部11−2は、入力画像におけるRの画素とBの画素のそれぞれの画素位置に、補間値Ghを生成する。
ステップS22−2において、水平補間色差演算部12−2は、Rの画素の入力値RまたはBの画素の入力値Bと、水平方向の補間値Ghとの差分である水平補間色差(R−Gh,B−Gh)を求める。
ステップS23−2において、水平補間色差分散演算部13−2は、水平補間色差(R−Gh,B−Gh)の分散として、V(R−Gh)、V(B−Gh)をそれぞれ求める。
ステップS24において、分散差分演算部14は、上述した式(5)を演算することで、垂直補間色差分散演算部13−1により求められた垂直補間色差の分散(V(R−Gv),V(B−Gv))と、水平補間色差分散演算部13−2により求められた水平補間色差の分散(V(R−Gh),V(B−Gh))との差分VDを算出する。
ステップS25において、nが最大値(nmax)に達したか否かが判定される。
ステップS25において、nが最大値に達していないと判定された場合、処理は、ステップS23−1およびステップS23−2に戻され、それ以降の処理が繰り返される。すなわち、このnループ内の処理が繰り返されることで、ある注目位置を中心とした参照エリアが順次拡大され、ある注目位置における参照エリア毎の差分VDが求められる。
そして、ステップS25において、nが最大値を超えたと判定された場合、処理はステップS26に進められる。
ステップS26において、方向検出部16は、上述した式(6)および式(7)の演算を行うことで、ある注目位置における参照エリア毎の差分VDの中から、最大値となるVDmax(k)と、最小値となるVDmin(k)をそれぞれ求める。但し、ここでは、差分VD(n)(k)に、予め用意された重み付けのパラメータであるA(n)が乗算されることになる。
ステップS27において、方向検出部16は、上述した式(8)の演算を行うことで、VDmaxの絶対値と、VDminの絶対値とを比較する。ここでは、VD(n)(k)のうち、絶対値が最も大きいものを、最も顕著な方向性を表す値として、注目位置における方向性を検出する。
ステップS27において、VDmaxの絶対値よりもVDminの絶対値のほうが大きいと判定された場合、処理はステップS28に進められる。ステップS28において、方向検出部16は、ある注目位置(k番目の注目位置)における方向性D(k)として、垂直方向を選択する。ここでは、例えば、方向性を1ビットで表した場合には「0」であるビットが選択される。
一方、ステップS27において、VDminの絶対値よりもVDmaxの絶対値のほうが大きいと判定された場合には、処理はステップS29に進められる。ステップS29において、方向検出部16は、ある注目位置(k番目の注目位置)における方向性D(k)として、水平方向を選択する。ここでは、例えば、方向性を1ビットで表した場合には「1」であるビットが選択される。
これにより、ある注目位置(k番目の注目位置)について、垂直方向または水平方向の方向性が検出されることになる。
ステップS28またはステップS29の処理が終了すると、処理はステップS30に進められる。ステップS30において、kが最大値(kmax)に達したか否かが判定される。
ステップS30において、kが最大値に達していないと判定された場合、処理は、ステップS23−1およびステップS23−2に戻され、それ以降の処理が繰り返される。すなわち、このkループ内の処理が繰り返されることで、各注目位置毎に方向性が検出されることになる。
そして、ステップS30において、kが最大値を超えたと判定された場合、すなわち、次の注目位置が存在しない場合、全ての注目位置において、方向性が検出されたことになるので、処理は終了する。
このようにして、方向検出処理が実行される。
以上のように、本技術によれば、注目位置の近傍の特徴をとらえて、注目位置の方向性をより高い精度で検出することができる。特に、ナイキスト周波数に近い高周波成分を含む入力画像が入力された場合でも、参照エリアを広げることで、正確な方向性を検出することができる。その結果、ナイキスト周波数に近い高周波成分を含む入力画像に対する画像処理において、確実に偽色や雑音を低減することができる。
<ナイキスト周波数での方向性の検出>
図15は、ナイキスト周波数のパターンを説明する図である。なお、図中の円のそれぞれが、画素を表している。
ナイキスト周波数のパターンとしては、図15Aおよび図15Bに示すようなパターンが想定される。図15Aには、行方向では黒白の円が交互に繰り返されるが、列方向は同色の円となる縦縞状のパターンが示されている。また、図15Bには、列方向では黒白の円が交互に繰り返されるが、行方向は同色の円となる横縞状のパターンが示されている。
図15Cは、図15Aのパターンに対応する入力画像を表している。また、図15Dは、図15Bのパターンに対応する入力画像を表している。このような縦縞状または横縞状のパターンが繰り返される場合、上述したDLMMSE法では画素の参照エリアが垂直方向または水平方向に固定されているため、注目位置の方向性を誤検出する可能性がある。
それに対して、本技術では、注目位置を中心に参照エリアを順次拡大して、その注目位置における参照エリア毎に得られた差分VDを用い、より広範囲での注目位置の方向性の検出を行うことから、図15Aまたは図15Bのパターンに対しても正確な方向性を検出することができる。
<色フィルタアレイの配列の他の例>
ところで、上述の説明では、色フィルタアレイとして、ベイヤー配列の色フィルタアレイが用いられる例を説明したが、ベイヤー配列以外の色フィルタアレイが用いられるようにしてもよい。例えば、ベイヤー配列の1水平ライン毎に画素の配置位置を1/2画素ずつシフトさせた画素配列(以下、斜めベイヤー配列という)を用いることができる。図16には、斜めベイヤー配列を用いた場合の方向検出処理の例を示している。
図16Aは、斜めベイヤー配列におけるR画素の位置を中心とした場合の参照エリアの領域を示している。なお、図中の円のそれぞれが、画素を表している。また、図中の太線の正方形が参照エリアを表している。
斜めベイヤー配列を用いる場合の方向検出処理は、上述したベイヤー配列を用いた場合と基本的には同様であるが、図中の点線で示すように、注目位置となるR画素(図中の太線の円)の位置を原点とする垂直方向および水平方向の軸が、画素の配置に応じて時計回り(または反時計回り)に45°回転している。従って、注目位置における方向性の検出結果(垂直方向または水平方向)も、ベイヤー配列を用いた場合と比べて45°回転したものとされる。
また、参照エリアであるが、図16Aの例では、注目位置となるR画素の位置(図中の太線の円)を原点とする垂直方向および水平方向の軸とは異なり、回転しておらず、ベイヤー配列の場合と同様に正方形の形状からなる。但し、参照エリアは、注目位置となるR画素の位置(図中の太線の円)を原点とする垂直方向および水平方向の軸と同様に、時計回り(または反時計回り)に45°回転されるようにしてもよい。この場合の参照エリアの形状は、ひし形の形状とされる。
図16Aの例では、注目位置となるR画素(図中の太線の円)の位置を中心とした13画素により構成される領域が参照エリア1とされる。また、R画素の位置(注目位置)を中心とした41画素により構成される領域が参照エリア2とされ、R画素の位置(注目位置)を中心とした85画素により構成される領域が参照エリア3とされる。方向検出処理の実行時には、このようにして注目位置を中心に参照エリアが順次拡大されることになる。
図16Bは、斜めベイヤー配列におけるG画素の位置(図中の太線の円)を注目位置とした場合の参照エリアの領域を示している。また、図16Cは、斜めベイヤー配列における入力画像の画素の存在しない位置(図中の太線の円)を注目位置とした場合の参照エリアの領域を示している。図16Bおよび図16Cにおいても、図16Aの場合と同様に、方向検出処理の実行時には、注目位置を中心として参照エリアが順次拡大されることになる。
このようにして、色フィルタアレイの配列として斜めベイヤー配列を用いた場合においても、図14のフローチャートを参照して上述した方向検出処理を実行することで、各注目位置における方向性が検出されることになる。
なお、上述した説明では、方向性を検出するための統計量として分散の差を用い、それを評価するとして説明したが、統計量はそれに限定されるものではなく、例えば、垂直補間色差と水平補間色差の標準偏差の差や、垂直補間色差と水平補間色差のダイナミックレンジなどを統計量として用いるようにしてもよい。
<2.第2の実施の形態>
ところで、上述した方向検出処理により検出される注目画素における方向性を、入力画像から出力画像を生成する別の画像処理に適用することで、出力画像で生じる偽色や雑音を低減することができる。そこで、以下、上述した方向検出処理を、別の画像処理に適用した場合について説明する。
<画像信号の取得方式>
図17は、単板式カメラのイメージセンサにおける画像信号の取得方式を説明する図である。
この例では、被写体511で反射した光が、光学ローパスフィルタ512を通過してイメージセンサ513により受光されるようになされている。
単板式カメラでは、1画素毎に割り当てられた色フィルタアレイからなる色コーディングフィルタが前面に設置された1つのイメージセンサを用いて、色コーディングフィルタにより色コーディングされた色成分の信号を1画素毎に得る。
ここでは、イメージセンサ513においてベイヤー配列の色フィルタアレイが用いられており、Gの色フィルタが市松状に配され、残った部分にRとBが一列毎に交互に配されている。すなわち、イメージセンサ513の中の矩形の領域内の4画素は、2つのGの画素と、それぞれ1つのRの画素およびBの画素により構成されることになる。
単板式カメラでは、画像処理の後段において各画素の信号を処理する際、各画素毎にR成分,G成分およびB成分の画像信号が必要となる。このため、イメージセンサ513から出力される画素値に基づいて、各画素毎にR成分,G成分およびB成分の画素値を補間演算などにより求める必要がある。
また、イメージセンサ513においては、偽色やアーティファクトなどの影響を回避するため、イメージセンサに入射する光が光学ローパスフィルタ512を通過するようになされている。しかしながら、このように光学ローパスフィルタ512を通過させることにより、画像がぼけてしまうことがあった。
そこで、第2の実施の形態では、イメージセンサ513から出力される画素値に基づいて、あたかも枠(図中の点線の矩形)514に、R成分,G成分およびB成分のそれぞれに対応する3つのイメージセンサを配置した場合に得られる画素値を求めることができるようにする。
<画像処理装置の構成>
図18は、本技術を適用した画像処理装置の一実施の形態に係る構成例を示すブロック図である。この画像処理装置100は、入力画像における注目画素に対応する画素およびその周辺の画素値を変数とし、予め学習により得られた係数を用いた積和演算により出力画像の注目画素の画素値を予測するようになされている。
画像処理装置100に入力される入力画像は、例えば、ベイヤー配列の色フィルタアレイが用いられたイメージセンサの出力値により構成される画像とされる。すなわち、入力画像は、例えば、図17のイメージセンサ513から出力される信号に対応する画像とされる。従って、入力画像では、Rの色フィルタが配置された画素からは、R成分の画像信号は得られるが、G成分およびB成分の画像信号は得られない。同様に、Gの画素からは、G成分の画像信号のみが得られ、R成分およびB成分の画像信号は得られず、Bの画素からは、B成分の画像信号のみが得られ、R成分およびG成分の画像信号は得られない。
図18の画像処理装置100は、代表RGB演算部101、方向検出部110、並びに、それぞれ、R、G、Bの各色に対応した、各クラスタップ選択部、各予測タップ選択部、各色変換部、各クラス分類部、各係数メモリ、および各積和演算部により構成されている。
方向検出部110は、図3の垂直補間部11−1乃至方向検出部16を含むようにして構成され、入力画像に対し、図14のフローチャートを参照して上述した方向検出処理を施すものとされる。これにより、入力画像における注目位置毎に、垂直方向または水平方向の方向性が検出され、その検出結果が、代表RGB演算部101、各クラスタップ選択部、各予測タップ選択部、および、各クラス分類部に供給される。
代表RGB演算部101は、後述するクラスタップまたは予測タップを取得するための画像の中の領域(以下、指定エリアという)における、R、G、Bの各色成分の画素値の基準となる代表値として、それぞれDr、Db、およびDgを演算する。
例えば、図19の太線の枠で示されるように、指定エリアが設定されるものとする。図19では、図中の円のそれぞれが、入力画像の画素を表しており、中央のハッチングされた円で示される画素が、クラスタップまたは予測タップの中心画素とされる。なお、各円内に記されたR、G、Bの文字は、各画素の色成分を表している。
指定エリアは、中心画素を中心としてクラスタップまたは予測タップを含む領域として任意に設定され得るが、クラスタップまたは予測タップを大幅に超える領域とすると、画像の領域に応じた最適な処理を施すことが困難になる。このため、指定エリアは、クラスタップまたは予測タップと同じ領域とされることが望ましい。
なお、以下の説明においては、演算により算出される平均値、補間値、代表値などが適宜参照されるが、演算前の入力画像の画素値のそれぞれは、各画素の色成分に応じて、入力値G、入力値R、および入力値Bと称して区別することにする。すなわち、ベイヤー配列のイメージセンサのRの色フィルタが配置された画素から直接得られる画素値を入力値Rとし、ベイヤー配列のイメージセンサのGの色フィルタが配置された画素から直接得られる画素値を入力値Gとし、ベイヤー配列のイメージセンサのBの色フィルタが配置された画素から直接得られる画素値を入力値Bとする。
この例では、図中の太線で囲まれた領域であって、中心画素を中心とした25(=5×5)画素により構成される領域が指定エリアとされている。
代表RGB演算部101は、最初に、G成分の代表値Dgを算出する。
このとき、代表RGB演算部101は、図20に示されるように、指定エリア内のR成分の画素、または、B成分の画素を中心画素とし、中心画素の周囲(上下左右)の4つのGの画素である画素G1乃至画素G4を用いて補間値gを算出する。
例えば、中心画素を注目位置としたときの方向性として垂直方向が検出された場合、中心画素の上下両隣に位置する画素G1の入力値G1と画素G4の入力値G4を用いて、上述した式(1)を演算することにより、中心画素の画素位置における垂直方向に補間されたG成分の値である補間値Gvを算出する。
また、例えば、中心画素を注目位置としたときの方向性として水平方向が検出された場合、中心画素の左右両隣に位置する画素G2の入力値G2と画素G3の入力値G3を用いて、上述した式(2)を演算することにより、中心画素の画素位置における水平方向に補間されたG成分の値である補間値Ghを算出する。
なお、以下の説明において、補間値Gvと補間値Ghとを、特に区別する必要がない場合には補間値gと総称するものとする。
これにより、入力画像ではG成分を有していなかったR成分の画素とB成分の画素が、補間されたG成分(補間値g)を有することになる。そして、代表RGB演算部101は、指定エリア内の全てのGの画素(この例では12個)の入力値Gと補間値gとの平均値を代表値Dgとして算出する。
次に、代表RGB演算部101は、R成分の代表値Drを算出する。この際、代表RGB演算部101は、指定エリア内のGの画素のそれぞれの画素位置における補間されたR成分の値である補間値rを算出する。例えば、図20の画素G1または画素G4に示される位置の補間値rを算出する場合、図21に示されるように、Gの画素の左右両隣に位置する画素R1と画素R2の平均値が補間値rとされる。
これにより、指定エリア内のGの画素の画素位置では、入力値Gおよび補間値rを得ることができ、指定エリア内のRの画素の画素位置では、入力値Rおよび補間値gを得ることができる。
そして、各画素位置において、(補間値r−入力値G)および(入力値R−補間値g)が算出され、算出されたそれぞれの(補間値r−入力値G)および(入力値R−補間値g)の平均値に、代表値Dgを加算した値として代表値Drが算出される。
さらに、代表RGB演算部101は、B成分の代表値Dbを算出する。この際、代表RGB演算部101は、指定エリア内のGの画素のそれぞれの画素位置における補間されたB成分の値である補間値bを算出する。例えば、図20の画素G1または画素G4に示される位置の補間値bを算出する場合、図22に示されるように、Gの画素の上下両隣に位置する画素B1と画素B2の平均値が補間値bとされる。
これにより、指定エリア内のGの画素の画素位置では、入力値Gおよび補間値bを得ることができ、指定エリア内のBの画素の画素位置では、入力値Bおよび補間値gを得ることができる。
そして、各画素位置において、(補間値b−入力値G)および(入力値B−補間値g)が算出され、算出されたそれぞれの(補間値b−入力値G)および(入力値B−補間値g)の平均値に、代表値Dgを加算した値として代表値Dbが算出される。
図18に戻って、Gクラスタップ選択部102−1は、G成分の画像を生成するため必要となるクラスタップであるGクラスタップを入力画像から選択して取得する。Gクラスタップは、例えば、出力画像の注目画素に対応する位置の入力画像の画素を中心画素とし、方向検出部110による方向性の検出結果に応じた所定の個数の画素で構成される。すなわち、例えば、中心画素を注目位置としたときの方向性が垂直方向である場合には垂直方向の画素を選択し、方向性が水平方向である場合には水平方向の画素を選択することで、偽色や雑音を低減することができる。
Gクラスタップ選択部102−1により選択されたGクラスタップは、G変換部105−11に供給される。G変換部105−11は、Gクラスタップを構成する各画素値にG変換処理を施すものとされる。
G変換処理は、例えば、次のようにして行われる。Gクラスタップを構成する画素値が入力値Gである場合、変換値G´を演算し、Gクラスタップを構成する画素値が入力値Rである場合、変換値R´を演算し、Gクラスタップを構成する画素値が入力値Bである場合、変換値B´を演算する。
ここで、変換値G´、変換値R´、および変換値B´は、それぞれ式(12)乃至式(14)により演算される。
Figure 2014200033
・・・(12)
Figure 2014200033
・・・(13)
Figure 2014200033
・・・(14)
このようなG変換処理が施されることにより、Gクラスタップを構成する各画素値の相関性を高めることができる。すなわち、入力画像のRの画素およびBの画素のそれぞれの画素値が、Gの画素の画素値を基準としてオフセットされることになり、Gクラスタップを構成する各画素値の色成分の違いによる変化を除去することができる。
図18に戻って、G変換部105−11から出力されるGクラスタップは、Gクラス分類部106−1に供給される。なお、G変換部105−11から出力されるGクラスタップは、上述した式(12)乃至式(14)により演算された変換値G´、変換値R´、および変換値B´により構成されることになる。
Gクラス分類部106−1は、供給されたGクラスタップをADRC(Adaptive Dynamic Range Coding)により符号化してクラスコードを生成する。ここで生成されたクラスコードには、方向検出部110による方向性の検出結果を示すコードが含まれる。これにより、精細度の高いG出力画像を得ることができる。クラスコードは、G係数メモリ107−1に出力される。
G係数メモリ107−1は、Gクラス分類部106−1から出力されたクラスコードに対応づけられて記憶されている係数を読み出してG積和演算部108−1に供給する。なお、G係数メモリ107−1には、予め学習により求められた係数であって、後述する積和演算に用いられる係数が、クラスコードに対応づけられて記憶されている。
G予測タップ選択部103−1は、G成分の画像を生成するため必要となる予測タップであるG予測タップを入力画像から選択して取得する。G予測タップは、例えば、出力画像の注目画素に対応する位置の入力画像の画素を中心画素とし、方向検出部110による方向性の検出結果に応じた所定の個数の画素で構成される。すなわち、例えば、中心画素を注目位置としたときの方向性が垂直方向である場合には垂直方向の画素を選択し、方向性が水平方向である場合には水平方向の画素を選択することで、偽色や雑音を低減することができる。
G予測タップ選択部103−1により選択されたG予測タップは、G変換部105−12に供給される。G変換部105−12は、G予測タップを構成する各画素値にG変換処理を施すものとされる。
G変換部105−12によるG変換処理は、G変換部105−11によるものと同様である。すなわち、上述した式(12)乃至式(14)により、G予測タップを構成する画素値が入力値Gである場合、変換値G´を演算し、G予測タップを構成する画素値が入力値Rである場合、変換値R´を演算し、G予測タップを構成する画素値が入力値Bである場合、変換値B´を演算する。
G変換部105−12から出力されるG予測タップは、G積和演算部108−1に供給される。なお、G変換部105−12から出力されるG予測タップは、上述した式(12)乃至式(14)により演算された変換値G´、変換値R´、および変換値B´により構成されることになる。
G積和演算部108−1は、予め設定された線形一次式において、G変換部105−12から出力されるG予測タップを変数として代入し、G係数メモリ107−1から供給された係数を用いて予測値の演算を行う。すなわち、G積和演算部108−1は、G出力画像における注目画素の画素値を、G予測タップに基づいて予測演算する。
ここで、出力画像の注目画素の画素値の予測演算について説明する。
いま、例えば、ベイヤー配列の色フィルタアレイを有するイメージセンサから出力される画像データを第1の画像データとし、図17の枠514に配置されたG成分のイメージセンサから出力される画像データを第2の画像データとする。そして、第1の画像データの画素値から第2の画像データの画素値を所定の予測演算により求めることを考える。
所定の予測演算として、例えば、線形1次予測演算を採用することとすると、第2の画像データ(以下、適宜、第2の画像の画素という)の画素の画素値yは、次の線形1次式によって求められることになる。
Figure 2014200033
但し、式(15)において、xnは、第2の画像の画素yについての予測タップを構成する、n番目の第1の画像データの画素(以下、適宜、第1の画像の画素という)の画素値を表し、wnは、n番目の第1の画像の画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(15)では、予測タップが、N個の第1の画像の画素x1,x2,・・・,xNで構成されるものとしてある。
ここで、第2の画像の画素の画素値yは、式(15)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。
いま、第kサンプルの第2の画像の画素の画素値の真値をykと表すとともに、式(15)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。
Figure 2014200033
いま、式(16)の予測値yk’は、式(15)にしたがって求められるため、式(16)のyk’を、式(15)にしたがって置き換えると、次式が得られる。
Figure 2014200033
但し、式(17)において、xn,kは、第kサンプルの第2の画像の画素についての予測タップを構成するn番目の第1の画像の画素を表す。
式(17)(または式(16))の予測誤差ekを0とするタップ係数wnが、第2の画像の画素を予測するのに最適なものとなるが、すべての第2の画像の画素について、そのようなタップ係数wnを求めることは、一般には困難である。
そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
Figure 2014200033
但し、式(18)において、Kは、第2の画像の画素ykと、その第2の画像の画素ykについての予測タップを構成する第1の画像の画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。
式(18)の自乗誤差の総和Eの最小値(極小値)は、式(19)に示すように、総和Eをタップ係数wnで偏微分したものを0とするwnによって与えられる。
Figure 2014200033
そこで、上述の式(17)をタップ係数wnで偏微分すると、次式が得られる。
Figure 2014200033
式(19)と(20)から、次式が得られる。
Figure 2014200033
式(21)のekに、式(17)を代入することにより、式(21)は、式(22)に示す正規方程式で表すことができる。
Figure 2014200033
式(22)の正規方程式は、例えば、掃き出し法(Gauss−Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。
式(22)の正規方程式を、クラス毎にたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラス毎に求めることができる。例えば、このようにして求められたタップ係数wnが、G係数メモリ107−1にG係数として記憶されている。なお、係数を学習によって予め求める方式の詳細については後述する。
例えば、式(15)の画素x1,x2,・・・,xNに、G変換部105−12の処理を経たG予測タップを代入し、式(15)におけるタップ係数wnが、G係数メモリ107−1から供給され、G積和演算部108−1で式(15)の演算が行われることによって、出力画像の注目画像の画素値が予測される。
このように、各注目画素のそれぞれについて予測することにより、G出力画像を得ることができる。
Rクラスタップ選択部102−2は、R成分の画像を生成するため必要となるクラスタップであるRクラスタップを入力画像から選択して取得する。Rクラスタップは、例えば、出力画像の注目画素に対応する位置の入力画像の画素を中心画素とし、方向検出部110による方向性の検出結果に応じた所定の個数の画素で構成される。すなわち、例えば、中心画素を注目位置としたときの方向性が垂直方向である場合には垂直方向の画素を選択し、方向性が水平方向である場合には水平方向の画素を選択することで、偽色や雑音を低減することができる。
Rクラスタップ選択部102−2により選択されたRクラスタップは、R変換部105−21に供給される。R変換部105−21は、Rクラスタップを構成する各画素値にR変換処理を施すものとされる。
R変換処理は、例えば、次のようにして行われる。Rクラスタップを構成する画素値が入力値Gである場合、変換値G´を演算し、Rクラスタップを構成する画素値が入力値Rである場合、変換値R´を演算し、Rクラスタップを構成する画素値が入力値Bである場合、変換値B´を演算する。
ここで、変換値G´、変換値R´、および変換値B´は、それぞれ式(23)乃至式(25)により演算される。
Figure 2014200033
・・・(23)
Figure 2014200033
・・・(24)
Figure 2014200033
・・・(25)
このようなR変換処理が施されることにより、Rクラスタップを構成する各画素値の相関性を高めることができる。すなわち、入力画像のGの画素およびBの画素のそれぞれの画素値が、Rの画素の画素値を基準としてオフセットされることになり、Rクラスタップを構成する各画素値の色成分の違いによる変化を除去することができる。
図18に戻って、R変換部105−21から出力されるRクラスタップは、Rクラス分類部106−2に供給される。なお、R変換部105−21から出力されるRクラスタップは、上述した式(23)乃至式(25)により演算された変換値G´、変換値R´、および変換値B´により構成されることになる。
Rクラス分類部106−2は、供給されたRクラスタップをADRC(Adaptive Dynamic Range Coding)により符号化してクラスコードを生成する。ここで生成されたクラスコードには、方向検出部110による方向性の検出結果を示すコードが含まれる。これにより、精細度の高いR出力画像を得ることができる。クラスコードは、R係数メモリ107−2に出力される。
R係数メモリ107−2は、Rクラス分類部106−2から出力されたクラスコードに対応づけられて記憶されている係数を読み出してR積和演算部108−2に供給する。なお、R係数メモリ107−2には、予め学習により求められた係数であって、後述する積和演算に用いられる係数が、クラスコードに対応づけられて記憶されている。
R予測タップ選択部103−2は、R成分の画像を生成するため必要となる予測タップであるR予測タップを入力画像から選択して取得する。R予測タップは、例えば、出力画像の注目画素に対応する位置の入力画像の画素を中心画素とし、方向検出部110による方向性の検出結果に応じた所定の個数の画素で構成される。すなわち、例えば、中心画素を注目位置としたときの方向性が垂直方向である場合には垂直方向の画素を選択し、方向性が水平方向である場合には水平方向の画素を選択することで、偽色や雑音を低減することができる。
R予測タップ選択部103−2により選択されたR予測タップは、R変換部105−22に供給される。R変換部105−22は、R予測タップを構成する各画素値にR変換処理を施すものとされる。
R変換部105−22によるR変換処理は、R変換部105−21によるものと同様である。すなわち、上述した式(23)乃至式(25)により、R予測タップを構成する画素値が入力値Gである場合、変換値G´を演算し、R予測タップを構成する画素値が入力値Rである場合、変換値R´を演算し、R予測タップを構成する画素値が入力値Bである場合、変換値B´を演算する。
R変換部105−22から出力されるR予測タップは、R積和演算部108−2に供給される。なお、R変換部105−21から出力されるR予測タップは、上述した式(23)乃至式(25)により演算された変換値G´、変換値R´、および変換値B´により構成されることになる。
R積和演算部108−2は、予め設定された線形一次式において、R変換部105−22から出力されるR予測タップを変数として代入し、R係数メモリ107−2から供給された係数を用いて予測値の演算を行う。すなわち、R積和演算部108−2は、R出力画像における注目画素の画素値を、R予測タップに基づいて予測演算する。
例えば、式(15)の画素x1,x2,・・・,xNに、R変換部105−22の処理を経たR予測タップを代入し、式(15)におけるタップ係数wnが、R係数メモリ107−2から供給され、R積和演算部108−2で式(15)の演算が行われることによって、出力画像の注目画像の画素値が予測される。
このように、各注目画素のそれぞれについて予測することにより、R出力画像を得ることができる。
Bクラスタップ選択部102−3は、B成分の画像を生成するため必要となるクラスタップであるBクラスタップを入力画像から選択して取得する。Bクラスタップは、例えば、出力画像の注目画素に対応する位置の入力画像の画素を中心画素とし、方向検出部110による方向性の検出結果に応じた所定の個数の画素で構成される。すなわち、例えば、中心画素を注目位置としたときの方向性が垂直方向である場合には垂直方向の画素を選択し、方向性が水平方向である場合には水平方向の画素を選択することで、偽色や雑音を低減することができる。
Bクラスタップ選択部102−3により選択されたBクラスタップは、B変換部105−31に供給される。B変換部105−31は、Bクラスタップを構成する各画素値にB変換処理を施すものとされる。
B変換処理は、例えば、次のようにして行われる。Bクラスタップを構成する画素値が入力値Gである場合、変換値G´を演算し、Bクラスタップを構成する画素値が入力値Rである場合、変換値R´を演算し、Bクラスタップを構成する画素値が入力値Bである場合、変換値B´を演算する。
ここで、変換値G´、変換値R´、および変換値B´は、それぞれ式(26)乃至式(28)により演算される。
Figure 2014200033
・・・(26)
Figure 2014200033
・・・(27)
Figure 2014200033
・・・(28)
このようなB変換処理が施されることにより、Bクラスタップを構成する各画素値の相関性を高めることができる。すなわち、入力画像のGの画素およびRの画素のそれぞれの画素値が、Bの画素の画素値を基準としてオフセットされることになり、Bクラスタップを構成する各画素値の色成分の違いによる変化を除去することができる。
図18に戻って、B変換部105−31から出力されるBクラスタップは、Bクラス分類部106−3に供給される。なお、B変換部105−31から出力されるBクラスタップは、上述した式(26)乃至式(28)により演算された変換値G´、変換値R´、および変換値B´により構成されることになる。
Bクラス分類部106−3は、供給されたBクラスタップをADRC(Adaptive Dynamic Range Coding)により符号化してクラスコードを生成する。ここで生成されたクラスコードには、方向検出部110による方向性の検出結果を示すコードが含まれる。これにより、精細度の高いB出力画像を得ることができる。クラスコードは、B係数メモリ107−3に出力される。
B係数メモリ107−3は、Bクラス分類部106−3から出力されたクラスコードに対応づけられて記憶されている係数を読み出してB積和演算部108−3に供給する。なお、B係数メモリ107−3には、予め学習により求められた係数であって、後述する積和演算に用いられる係数が、クラスコードに対応づけられて記憶されている。
B予測タップ選択部103−3は、B成分の画像を生成するため必要となる予測タップであるB予測タップを入力画像から選択して取得する。B予測タップは、例えば、出力画像の注目画素に対応する位置の入力画像の画素を中心画素とし、方向検出部110による方向性の検出結果に応じた所定の個数の画素で構成される。すなわち、例えば、中心画素を注目位置としたときの方向性が垂直方向である場合には垂直方向の画素を選択し、方向性が水平方向である場合には水平方向の画素を選択することで、偽色や雑音を低減することができる。
B予測タップ選択部103−3により選択されたB予測タップは、B変換部105−32に供給される。B変換部105−32は、B予測タップを構成する各画素値にB変換処理を施すものとされる。
B変換部105−32によるB変換処理は、B変換部105−31によるものと同様である。すなわち、上述した式(26)乃至式(28)により、B予測タップを構成する画素値が入力値Gである場合、変換値G´を演算し、B予測タップを構成する画素値が入力値Rである場合、変換値R´を演算し、B予測タップを構成する画素値が入力値Bである場合、変換値B´を演算する。
B変換部105−32から出力されるB予測タップは、B積和演算部108−3に供給される。なお、B変換部105−31から出力されるB予測タップは、上述した式(26)乃至式(28)により演算された変換値G´、変換値R´、および変換値B´により構成されることになる。
B積和演算部108−3は、予め設定された線形一次式において、B変換部105−32から出力されるB予測タップを変数として代入し、B係数メモリ107−3から供給された係数を用いて予測値の演算を行う。すなわち、B積和演算部108−3は、B出力画像における注目画素の画素値を、B予測タップに基づいて予測演算する。
例えば、式(15)の画素x1,x2,・・・,xNに、B変換部105−32の処理を経たB予測タップを代入し、式(15)におけるタップ係数wnが、B係数メモリ107−3から供給され、B積和演算部108−3で式(15)の演算が行われることによって、出力画像の注目画像の画素値が予測される。
このように、各注目画素のそれぞれについて予測することにより、B出力画像を得ることができる。
<学習装置の構成>
次に、G係数メモリ107−1、R係数メモリ107−2、およびB係数メモリ107−3に記憶される係数の学習について説明する。
図23は、図18の画像処理装置100に対応する学習装置の構成例を示すブロック図である。
図23に示される学習装置200は、注目画素選択部201、生徒画像生成部202、代表RGB演算部203、クラスタップ選択部204、予測タップ選択部205、色変換部206−1、色変換部206−2、クラス分類部207、正規方程式加算部208、係数データ生成部209、および方向検出部210を備えている。
学習装置200において係数の学習を行う場合、例えば、図17の枠514に、R成分,G成分およびB成分のそれぞれに対応する3つのイメージセンサを配置して得られたG成分の画像、R成分の画像、およびB成分の画像を教師画像として用意する。
生徒画像生成部202は、例えば、光学ローパスフィルタのシミュレーションモデルを用いるなどして、教師画像を劣化させるとともに、ベイヤー配列に従って配置された画素により構成されるイメージセンサから出力される画像を生成する。このようにして生成された画像が生徒画像とされる。
注目画素選択部201は、教師画像の中の任意の1画素を注目画素として選択する。なお、注目画素として選択された画素の座標値などが、代表RGB演算部203、クラスタップ選択部204、および、予測タップ選択部205に供給されるようになされている。
方向検出部210は、図18の方向検出部110の場合と同様に、生徒画像に対し、図14のフローチャートを参照して上述した方向検出処理を施すものとされる。これにより、生徒画像における注目位置毎に、垂直方向または水平方向の方向性が検出され、その検出結果が、代表RGB演算部203、各クラスタップ選択部、各予測タップ選択部、および、各クラス分類部に供給される。
代表RGB演算部203は、方向検出部210による方向性の検出結果に従い、生徒画像の中の指定エリア内の画素について、図18の代表RGB演算部101の場合と同様に、代表値Dg、代表値Dr、代表値Dbを算出する。代表RGB演算部203により算出された各代表値は、各色変換部に供給される。なお、指定エリアは、注目画素選択部201により選択された注目画素に対応する位置の画素を中心とした所定の領域として設定される。
クラスタップ選択部204は、生徒画像の中の指定エリア内の画素から、方向検出部210による方向性の検出結果に応じたクラスタップを選択して取得する。なお、注目画素選択部201が、教師画像の中のG成分の画像から注目画素を選択した場合、クラスタップ選択部204は、Gクラスタップを選択するようになされている。また、注目画素選択部201が、教師画像の中のR成分の画像から注目画素を選択した場合、クラスタップ選択部204は、Rクラスタップを選択し、注目画素選択部201が、教師画像の中のB成分の画像から注目画素を選択した場合、クラスタップ選択部204は、Bクラスタップを選択するようになされている。
予測タップ選択部205は、生徒画像の中の指定エリア内の画素から、方向検出部210による方向性の検出結果に応じた予測タップを選択して取得する。なお、注目画素選択部201が、教師画像の中のG成分の画像から注目画素を選択した場合、予測タップ選択部205は、G予測タップを選択するようになされている。また、注目画素選択部201が、教師画像の中のR成分の画像から注目画素を選択した場合、予測タップ選択部205は、R予測タップを選択し、注目画素選択部201が、教師画像の中のB成分の画像から注目画素を選択した場合、予測タップ選択部205は、B予測タップを選択するようになされている。
色変換部206−1は、クラスタップ選択部204により取得されたクラスタップに所定の変換処理を施す。ここで、クラスタップ選択部204によりGクラスタップが取得された場合、色変換部206−1は、G変換処理を施すようになされている。また、クラスタップ選択部204によりRクラスタップが取得された場合、色変換部206−1は、R変換処理を施し、クラスタップ選択部204によりBクラスタップが取得された場合、色変換部206−1は、B変換処理を施すようになされている。
色変換部206−1の処理を経たクラスタップは、クラス分類部207に供給される。
色変換部206−2は、予測タップ選択部205により取得された予測タップに所定の変換処理を施す。ここで、予測タップ選択部205によりG予測タップが取得された場合、色変換部206−2は、G変換処理を施すようになされている。また、予測タップ選択部205によりR予測タップが取得された場合、色変換部206−2は、R変換処理を施し、予測タップ選択部205によりB予測タップが取得された場合、色変換部206−2は、B変換処理を施すようになされている。
色変換部206−2の処理を経た予測タップは、正規方程式加算部208に供給される。
クラス分類部207は、供給されたクラスタップをADRC(Adaptive Dynamic Range Coding)により符号化してクラスコードを生成する。ここで生成されたクラスコードには、方向検出部210による方向性の検出結果を示すコードが含まれる。クラスコードは、クラスタップとともに、正規方程式加算部208に供給される。
正規方程式加算部208は、例えば、上述した式(15)に示される線形1次式を生成する。このとき、色変換部の処理を経たクラスタップが式(15)の画素x1,x2,・・・,xNとして用いられる。
注目画素選択部201が新たな注目画素を選択すると、上述した場合と同様にして新たに線形1次式が生成されることになる。正規方程式加算部208は、このように生成される線形1次式をクラスコード毎に加算し、式(22)の正規方程式を生成する。
係数データ生成部209は、式(22)の正規方程式を、例えば、掃き出し法(Gauss−Jordanの消去法)などを用いることにより、タップ係数wnについて解く。そして、係数データ生成部209は、注目画素が設定された教師画像の種類(G成分の画像、R成分の画像、または、B成分の画像)に応じて、得られたタップ係数wnを、G出力画像の予測演算を行うために必要となるG係数、R出力画像の予測演算を行うために必要となるR係数、または、B出力画像の予測演算を行うために必要となるB係数として出力する。
このようにして、得られたクラスコード毎のG係数、R係数、およびB係数が、図18のG係数メモリ107−1、R係数メモリ107−2、B係数メモリ107−3に記憶されることになる。
このようにして、係数の学習が行われる。
<クラスタップの構造の例>
図24は、図18の画像処理装置100、または、図23の学習装置200において取得されるクラスタップの構造の例を示す図である。ここで、クラスタップは、上述したGクラスタップ、Rクラスタップ、およびBクラスタップを総称している。
図24の例では、出力画像の注目画素に対応する位置の入力画像の画素を中心画素し、方向性の検出結果に応じた所定の個数の画素により構成されるクラスタップが示されている。図24の例では、クラスタップとして選択される画素の円は点線で描かれている。
図24Aは、ベイヤー配列の画素における、方向性として水平方向が検出された場合のクラスタップの例を示す図である。
図24Bは、ベイヤー配列の画素における、方向性として垂直方向が検出された場合のクラスタップの例を示す図である。
<予測タップの構造の例>
図25は、図18の画像処理装置100、または、図23の学習装置200において取得される予測タップの構造の例を示す図である。ここで、予測タップは、上述したG予測タップ、R予測タップ、およびB予測タップを総称している。
図25の例では、出力画像の注目画素に対応する位置の入力画像の画素を中心画素し、方向性の検出結果に応じた所定の個数の画素により構成される予測タップが示されている。図25の例では、予測タップとして選択される画素の円は点線で描かれている。
図25Aは、ベイヤー配列の画素における、方向性として水平方向が検出された場合の予測タップの例を示す図である。
図25Bは、ベイヤー配列の画素における、方向性として垂直方向が検出された場合の予測タップの例を示す図である。
なお、クラスタップと予測タップは同じ構造としてもよいし、異なる構造としてもよい。また、クラスタップの中で、Gクラスタップ、Rクラスタップ、およびBクラスタップの構造が同じであってもよいし、異なってもよい。同様に、予測タップの中で、G予測タップ、R予測タップ、およびB予測タップの構造が同じであってもよいし、異なってもよい。
<画像処理装置による画像処理>
図26は、図18の画像処理装置100による画像処理の例を説明するフローチャートである。
ステップS121において、画像処理の対象となる画像(入力画像)が入力されたか否かが判定され、入力されたと判定されるまで待機する。ステップS121において、画像が入力されたと判定された場合、処理は、ステップS122に進む。
なお、上述したように、入力画像は、例えば、ベイヤー配列の色フィルタアレイが用いられたイメージセンサの出力値により構成される画像とされる。従って、入力画像では、Rの色フィルタが配置された画素からは、R成分の画像信号は得られるが、G成分およびB成分の画像信号は得られない。同様に、Gの画素からは、G成分の画像信号のみが得られ、R成分およびB成分の画像信号は得られず、Bの画素からは、B成分の画像信号のみが得られ、R成分およびG成分の画像信号は得られない。
ステップS122において、方向検出部110は、図14のフローチャートを参照して上述した方向検出処理を実行する。これにより、入力画像における注目位置毎に、垂直方向または水平方向の方向性が検出される。
ステップS123において、注目画素が設定される。これにより、入力画像における中心画素が定まることになる。
ステップS124において、代表RGB演算部101は、図27を参照して後述する代表RGB演算処理を実行する。これにより、方向検出部110による方向性の検出結果に応じた代表値Dg、代表値Dr、および代表値Dbが演算される。
ステップS125において、Gクラスタップ選択部102−1、Rクラスタップ選択部102−2、または、Bクラスタップ選択部102−3は、方向検出部110による方向性の検出結果に応じたGクラスタップ、Rクラスタップ、または、Bクラスタップをそれぞれ取得する。
なお、G出力画像を生成する場合は、Gクラスタップが取得され、R出力画像を生成する場合は、Rクラスタップが取得され、B出力画像を生成する場合は、Bクラスタップが取得される。これ以降は、説明を簡単にするため、G出力画像を生成する場合について説明する。
ステップS126において色変換が行われる。例えば、G出力画像を生成する場合、G変換部105−11がG変換を行う。このとき、上述した式(12)乃至式(14)により、変換値G´、変換値R´、および変換値B´が演算される。
ステップS127においてクラス分類が行われる。例えば、G出力画像を生成する場合、Gクラス分類部106−1が、供給されたGクラスタップをADRC(Adaptive Dynamic Range Coding)により符号化してクラスコードを生成することでクラス分類する。ここで生成されたクラスコードには、方向検出部110による方向性の検出結果を示すコードが含まれる。
ステップS128において、方向検出部110による方向性の検出結果に応じた予測タップが取得される。例えば、G出力画像を生成する場合、G予測タップ取得部103−1がG予測タップを取得する。
ステップS129において、色変換が行われる。例えば、G出力画像を生成する場合、G変換部105−12がG変換を行う。このとき、上述した式(12)乃至式(14)により、変換値G´、変換値R´、および変換値B´が演算される。
ステップS130において、係数が読み出される。例えば、G出力画像を生成する場合、G係数メモリ107−1から、ステップS127の処理で生成されたクラスコードに対応づけられて記憶されている係数が読み出される。
ステップS131において、注目画素値が予測される。例えば、G出力画像を生成する場合、式(15)の画素x1,x2,・・・,xNに、ステップS129の処理で色変換されたG予測タップを代入し、式(15)におけるタップ係数wnとして、ステップS130の処理で読み出された係数が供給され、G積和演算部108−1が式(15)の演算を行うことによって、出力画像の注目画像の画素値が予測される。
ステップS132において、次の注目画素があるか否かが判定され、次の注目画素があると判定された場合、処理は、ステップS123に戻り、それ以降の処理が繰り返し実行される。
ステップS132において、次の注目画素がないと判定された場合、処理は終了する。
このようにして、画像生成処理が実行される。
<代表RGB演算処理>
次に、図27のフローチャートを参照して、図26のステップS124の代表RGB演算処理の詳細な例について説明する。
ステップS141において、代表RGB演算部101は、入力画像の中の指定エリアにおいて、R成分の画素とB成分の画素の補間値gを算出する。
ステップS142において、代表RGB演算部101は、代表値Dgを算出する。このとき、指定エリア内の全てのGの画素の入力値GとステップS141で算出された補間値gとの平均値が代表値Dgとして算出される。
ステップS143において、代表RGB演算部101は、G成分の画素の補間値rを算出する。これにより、指定エリア内のGの画素の画素位置では、入力値Gおよび補間値rを得ることができ、指定エリア内のRの画素の画素位置では、入力値Rおよび補間値gを得ることができる。
ステップS144において、代表RGB演算部101は、代表値Drを算出する。このとき、各画素位置において、(補間値r−入力値G)および(入力値R−補間値g)が算出され、算出されたそれぞれの(補間値r−入力値G)および(入力値R−補間値g)の平均値に、代表値Dgを加算した値として代表値Drが算出される。
ステップS145において、代表RGB演算部101は、G成分の画素の補間値bを算出する。これにより、指定エリア内のGの画素の画素位置では、入力値Gおよび補間値bを得ることができ、指定エリア内のBの画素の画素位置では、入力値Bおよび補間値gを得ることができる。
ステップS146において、代表RGB演算部101は、代表値Dbを算出する。このとき、各画素位置において、(補間値b−入力値G)および(入力値B−補間値g)が算出され、算出されたそれぞれの(補間値b−入力値G)および(入力値B−補間値g)の平均値に、代表値Dgを加算した値として代表値Dbが算出される。
このようにして、代表RGB演算処理が実行される。
<学習装置による係数学習処理>
次に、図28のフローチャートを参照して、図23の学習装置200による係数学習処理の例について説明する。
ステップS161において、教師画像が入力されたか否かが判定され、入力されたと判定されるまで待機する。ステップS161において、教師画像が入力されたと判定された場合、処理は、ステップS162に進む。
なお、上述したように、教師画像は、例えば、図17の枠514に、R成分,G成分およびB成分のそれぞれに対応する3つのイメージセンサを配置して得られたG成分の画像、R成分の画像、およびB成分の画像とされる。
ステップS162において、生徒画像生成部202は、生徒画像を生成する。このとき、例えば、光学ローパスフィルタのシミュレーションモデルを用いるなどして、教師画像を劣化させるとともに、ベイヤー配列に従って配置された画素により構成されるイメージセンサから出力される画像が生成され、生徒画像とされる。
ステップS163において、方向検出部210は、図14のフローチャートを参照して上述した方向検出処理を実行する。これにより、生徒画像における注目位置毎に、垂直方向または水平方向の方向性が検出される。
ステップS164において、注目画素選択部201は、教師画像の中の任意の1画素を注目画素として選択(設定)する。これにより、生徒画像の中の中心画素が定まることになる。
ステップS165において、代表RGB演算部203は、図27のフローチャートを参照して上述した代表RGB演算処理を実行する。これにより、方向検出部210による方向性の検出結果に応じた代表値Dg、代表値Dr、代表値Dbが算出される。
ステップS166において、クラスタップ選択部204は、生徒画像の中の指定エリア内の画素から、方向検出部210による方向性の検出結果に応じたクラスタップを選択して取得する。
ここで、注目画素選択部201が、教師画像の中のG成分の画像から注目画素を選択した場合、クラスタップ選択部204は、Gクラスタップを選択するようになされている。また、注目画素選択部201が、教師画像の中のR成分の画像から注目画素を選択した場合、クラスタップ選択部204は、Rクラスタップを選択し、注目画素選択部201が、教師画像の中のB成分の画像から注目画素を選択した場合、クラスタップ選択部204は、Bクラスタップを選択するようになされている。
ステップS167において、色変換部206−1は、ステップS166の処理で取得されたクラスタップに所定の変換処理を施す。
ここで、クラスタップ選択部204によりGクラスタップが取得された場合、色変換部206−1は、G変換処理を施すようになされている。また、クラスタップ選択部204によりRクラスタップが取得された場合、色変換部206−1は、R変換処理を施し、クラスタップ選択部204によりBクラスタップが取得された場合、色変換部206−1は、B変換処理を施すようになされている。
ステップS168において、クラス分類部207は、供給されたクラスタップをADRC(Adaptive Dynamic Range Coding)により符号化してクラスコードを生成する。ここで生成されたクラスコードは、クラスタップとともに、正規方程式加算部208に供給される。また、クラスコードには、方向検出部210による方向性の検出結果を示すコードが含まれる。
ステップS169において、予測タップ選択部205は、生徒画像の中の指定エリア内の画素から、方向検出部210による方向性の検出結果に応じた予測タップを選択して取得する。
ここで、注目画素選択部201が、教師画像の中のG成分の画像から注目画素を選択した場合、予測タップ選択部205は、G予測タップを選択するようになされている。また、注目画素選択部201が、教師画像の中のR成分の画像から注目画素を選択した場合、予測タップ選択部205は、R予測タップを選択し、注目画素選択部201が、教師画像の中のB成分の画像から注目画素を選択した場合、予測タップ選択部205は、B予測タップを選択するようになされている。
ステップS170において、色変換部206−2は、ステップS169の処理で取得された予測タップに所定の変換処理を施す。
ここで、予測タップ選択部205によりG予測タップが取得された場合、色変換部206−2は、G変換処理を施すようになされている。また、予測タップ選択部205によりR予測タップが取得された場合、色変換部206−2は、R変換処理を施し、予測タップ選択部205によりB予測タップが取得された場合、色変換部206−2は、B変換処理を施すようになされている。
ステップS171において、正規方程式加算部208は、正規方程式の足し込みを行う。
上述したように、正規方程式加算部208は、例えば、上述した式(15)に示される線形1次式を生成し、色変換部の処理を経たクラスタップが式(15)の画素x1,x2,・・・,xNとして用いられる。そして、正規方程式加算部208は、このようにして生成した線形1次式を、ステップS168の処理で生成されたクラスコード毎に足し込んで、式(22)の正規方程式を生成する。
ステップS172において、次の注目画素があるか否かが判定され、次の注目画素があると判定された場合、処理は、ステップS164に戻り、それ以降の処理が繰り返し実行される。
一方、ステップS172において、次の注目画素がないと判定された場合、処理は、ステップS173に進む。
ステップS173において、係数データ生成部209は、係数を算出する。
このとき、上述したように、係数データ生成部209は、式(22)の正規方程式を、例えば、掃き出し法(Gauss−Jordanの消去法)などを用いることにより、タップ係数wnについて解く。そして、係数データ生成部209は、注目画素が設定された教師画像の種類(G成分の画像、R成分の画像、または、B成分の画像)に応じて、得られたタップ係数wnを、G出力画像の予測演算を行うために必要となるG係数、R出力画像の予測演算を行うために必要となるR係数、または、B出力画像の予測演算を行うために必要となるB係数として出力する。
このようにして、得られたクラスコード毎のG係数、R係数、およびB係数が、図18のG係数メモリ107−1、R係数メモリ107−2、B係数メモリ107−3に記憶され、図26のステップS130の処理で読み出されることになる。
このようにして、係数学習処理が実行される。
<3.第3の実施の形態>
次に、図29および図30を参照して、図14のフローチャートを参照して上述した方向検出処理を実行する図3の画像処理装置10の回路構成の例を説明する。
<画像処理装置の第1の回路構成>
図29は、分散を用いた方向性判定による方向検出処理を実行する図3の画像処理装置10の回路構成を示す図である。この画像処理用の回路は、補間回路301、演算回路302、演算回路303−1乃至演算回路303−12、遅延回路304−1乃至遅延回路304−12、および演算回路305を含むようにして構成される。但し、説明を簡略化するため、図29においては、演算回路303−3乃至演算回路303−12および遅延回路304−3乃至遅延回路304−12の記載を省略している。また、図中のSRは、シフトレジスタ(Shift Register)を表している。
図29に示すように、単板式カメラのイメージセンサから入力画像のデータは、ライン毎に入力される。ここで、i番目のラインの入力をLiとすれば、図29の例では、L−2、L−1、L0、・・・、L13、L14の17本のラインが設けられている。また、入力画像は、ベイヤー配列のイメージセンサから得られたデータとなるので、偶数番目のラインには、R、G、R、G、R、Gのように、R画素とG画素とが交互に入力され、奇数番目のラインには、G、B、G、B、G、Bのように、G画素とB画素とが交互に入力される。
補間回路301においては、偶数番目のラインに対し、そのR画素の位置に、垂直方向の近傍画素から補間した補間値Gvを用いて、垂直補間色差R−Gv_i(R−Gの垂直補間)と、水平方向の近傍画素から補間した補間値Ghを用いて、水平補間色差R−Gh_i(R−Gの水平補間)を算出し、演算回路302に出力する。
また、補間回路301においては、奇数番目のラインに対し、そのB画素の位置に、垂直方向の近傍画素から補間した補間値Gvを用いて、垂直補間色差B−Gv_i(B−Gの垂直補間)と、水平方向の近傍画素から補間した補間値Ghを用いて、水平補間性色差B−Gh_i(B−Gの水平補間)を算出し、演算回路302に出力する。
次に、演算回路302においては、複数のラインのうち、あるラインに注目し、その注目ラインを中心として、ある参照エリアにおける垂直方向の総和と二乗和を求める。
ここでは、例えば、ラインL0に注目しているとすれば、ラインL0を中心とした参照エリア2(5×5画素)により構成される領域の垂直方向の総和として、R−Gh_sum2、R−Gv_sum2、B−Gh_sum2、B−Gv_sum2が求められる。但し、それらの総和の値は、次の演算式により求められる。
R−Gh_sum2=SUM(R−Gh_−2,R−Gh_0,R−Gh_2)
R−Gv_sum2=SUM(R−Gv_−2,R−Gv_0,R−Gv_2)
B−Gh_sum2=SUM(B−Gh_−1,B−Gh_1)
B−Gv_sum2=SUM(R−Gv_−1,B−Gv_1)
また、垂直方向の二乗和の値として、R−Gh_sqsum2、R−Gv_sqsum2、B−Gh_sqsum2、B−Gv_sqsum2も同様に求めることができる。
同一の参照エリア2内で、注目ラインが次のラインに移動したときは、総和および二乗和から、参照エリア2の範囲外となったラインの補間色差とその二乗値を減算し、新たに参照エリア2の範囲内となったラインの補間色差とその二乗値を加算すればよい。
例えば、注目ラインがラインL0からラインL1に移動し、ラインL1を中心とした参照エリア2(5×5画素)により構成される領域の垂直方向の総和を求める場合、次のような演算を行う。
R−Gh_sum2(ラインL1)=R−Gh_sum2(ラインL0)−R−Gh_−2
B−Gh_sum2(ラインL1)=B−Gh_sum2(ラインL0)+R−Gh_3
このような演算を行うことで、演算量を削減することができる。
そして、このようにして求められた垂直方向の総和と二乗和を用いて水平方向に演算を行い、ライン内のある注目位置を中心とした、ある参照エリアにおける総和と二乗和を求める。
例えば、ある注目位置を中心とした参照エリア2(5×5画素)の総和と二乗和を求めるには、上述のR−Gh_sum2、R−Gv_sum2、B−Gh_sum2、B−Gv_sum2、R−Gh_sqsum2、R−Gv_sqsum2、B−Gh_sqsum2、B−Gv_sqsum2を入力し、水平方向に総和と二乗和の演算を行う。
このとき、注目位置が次に移動するときは、前の注目位置において算出した総和と二乗和から、参照エリア2の範囲外となった値と値の二乗を減算し、新たに参照エリア2の範囲となった値と値の二乗を加算すればよい。このような演算を行うことで、演算量を削減することができる。
演算回路303においては、このようにして求められた、注目位置の、ある参照エリア内の、各補間色差(R−Gv、R−Gh、B−Gv、B−Gh)の総和と二乗和を用いて、それぞれの分散V(R−Gv)、V(R−Gh)、V(B−Gv)、V(B−Gh)が求められる。また、演算回路303では、分散の演算結果に基づいて、差分VD={V(R−Gv)+V(B−Gv)}−{V(R−Gh)+V(B−Gh)}が求められる。
上述の説明では、参照エリア2(n=2)を中心に述べたが、演算回路303−1乃至演算回路303−12によって、このような演算を、参照エリアn(n=1、2、・・・、12)毎に行うことで、差分VD(1)乃至VD(12)が求められる。演算回路303−1乃至演算回路303−12の演算結果は、遅延回路304−1乃至遅延回路304−12を介して、演算回路305に入力される。
演算回路305においては、差分VD(1)乃至VD(12)に、参照エリア毎の重み付けのパラメータであるA(n)が乗じられる。そして、演算回路305では、VD(1)×A(1)乃至VD(12)×A(12)が比較され、それらの中から最も大きい絶対値となるVD(n)×A(n)の正負に基づき、注目位置における垂直方向または水平方向の方向性が選択されることになる。
なお、図29においては、説明の簡略化のため、VD(n)(k)の変数のうち、参照エリアの変数nのみについて説明したが、実際には変数kも考慮され、入力画像における注目位置毎に方向性が求められることになる。
<画像処理装置の第2の回路構成>
図30は、ダイナミックレンジを用いた方向性判定による方向検出処理を実行する図3の画像処理装置10の回路構成を示す図である。この画像処理用の回路は、補間回路401、演算回路402、演算回路403−1乃至演算回路403−12、遅延回路404−1乃至遅延回路404−12、および演算回路405を含むようにして構成される。但し、説明を簡略化するため、図30においては、演算回路403−3乃至演算回路403−12および遅延回路404−3乃至遅延回路404−12の記載を省略している。また、図中のSRは、シフトレジスタ(Shift Register)を表している。
図30の回路構成においては、図29の回路構成にて統計量として分散を用いていたところを、ダイナミックレンジに変更している。また、図30の回路構成においては、図29の回路構成と比べて、ライン数がL−2乃至L26ラインに増加しているものの、補間回路401は、図29の補間回路301と同様にライン毎の各補間色差を算出し、演算回路402に出力する。
次に、演算回路402においては、複数のラインのうち、あるラインに注目し、その注目ラインを中心として、ある参照エリアにおける垂直方向の最大値と最小値を求める。
ここでは、例えば、ラインL0に注目しているとすれば、ラインL0を中心とした参照エリア2(5×5画素)により構成される領域の垂直方向の最大値として、R−Gh_max2、R−Gv_max2、B−Gh_max2、B−Gv_max2が求められる。但し、それらの最大値は、次の演算式により求められる。
R−Gh_max2=MAX(R−Gh_−2,R−Gh_0,R−Gh_2)
R−Gv_max2=MAX(R−Gv_−2,R−Gv_0,R−Gv_2)
B−Gh_max2=MAX(B−Gh_−1,B−Gh_1)
B−Gv_max2=MAX(R−Gv_−1,B−Gv_1)
また、垂直方向の最小値として、R−Gh_min2、R−Gv_min2、B−Gh_min2、B−Gv_min2も同様に求めることができる。
そして、このようにして求められた垂直方向の最大値と最小値を用いて水平方向に比較を行い、ライン内のある注目位置を中心とした、ある参照エリアにおける最大値と最小値を求める。
演算回路403においては、この最大値と最小値を用いて、その絶対値であるダイナミックレンジDR(R−Gv)、DR(R−Gh)、DR(B−Gv)、DR(B−Gh)が求められる。また、演算回路403では、それらのダイナミックレンジの演算結果に基づいて、その差分DRD={DR(R−Gv)+DR(B−Gv)}−{DR(R−Gh)+DR(B−Gh)}が求められる。
すなわち、演算回路403−1乃至演算回路403−12によって、このような演算を、参照エリアn(n=1、2、・・・、12)毎に行うことで、差分DRD(1)乃至差分DRD(12)が求められる。演算回路403−1乃至演算回路403−12の演算結果は、遅延回路404−1乃至遅延回路404−12を介して、演算回路405に入力される。
演算回路405においては、差分DRD(1)乃至差分DRD(12)に、参照エリア毎の重み付けのパラメータであるA(n)が乗じられる。そして、演算回路405では、DRD(1)×A(1)乃至DRD(12)×A(12)が比較され、それらの中から最も大きい絶対値となるDRD(n)×A(n)の正負に基づき、注目位置における垂直方向または水平方向の方向性が選択されることになる。
なお、図30においては、説明の簡略化のため、DRD(n)が求められるとしたが、実際には参照エリアの変数nだけでなく、注目位置の変数kも考慮され、入力画像における注目位置毎に方向性が求められることになる。
<コンピュータの構成>
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば図31に示されるような汎用のコンピュータ900などに、ネットワークや記録媒体からインストールされる。
図31において、CPU(Central Processing Unit)901は、ROM(Read Only Memory)902に記憶されているプログラム、または記憶部908からRAM(Random Access Memory)903にロードされたプログラムに従って各種の処理を実行する。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU901、ROM902、およびRAM903は、バス904を介して相互に接続されている。このバス904にはまた、入出力インタフェース905も接続されている。
入出力インタフェース905には、キーボード、マウスなどよりなる入力部906、LCD(Liquid Crystal display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部907、ハードディスクなどより構成される記憶部908、モデム、LANカードなどのネットワークインタフェースカードなどより構成される通信部909が接続されている。通信部909は、インターネットを含むネットワークを介しての通信処理を行う。
入出力インタフェース905にはまた、必要に応じてドライブ910が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどのリムーバブルメディア911が適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部908にインストールされる。
上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、インターネットなどのネットワークや、リムーバブルメディア911などからなる記録媒体からインストールされる。
なお、この記録媒体は、図31に示される、装置本体とは別に、ユーザにプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フロッピディスク(登録商標)を含む)、光ディスク(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク(MD(Mini−Disk)(登録商標)を含む)、もしくは半導体メモリなどよりなるリムーバブルメディア911により構成されるものだけでなく、装置本体に予め組み込まれた状態でユーザに配信される、プログラムが記録されているROM902や、記憶部908に含まれるハードディスクなどで構成されるものも含む。
本明細書において上述した一連の処理は、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
なお、本技術は以下のような構成も取ることができる。
(1)
複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアを設定するとともに、前記参照エリアの領域を変化させる参照エリア設定部と、
前記参照エリア内の画素の画素値から得られる統計量を評価して、前記第1の画像内の注目位置の方向性を検出する方向検出部と
を備える画像処理装置。
(2)
前記単板式画素部は、R,G,Bの各色成分を有するベイヤー配列の画素部であり、
Rの画素とBの画素の位置において、垂直方向と水平方向にG成分の値を補間する補間部と、
R成分の値またはB成分の値と、垂直方向の補間値または水平方向の補間値との差である補間色差を演算する補間色差演算部と
をさらに備え、
前記方向検出部は、前記参照エリア内の前記補間色差から得られる統計量を評価して、前記注目位置の方向性を検出する
(1)に記載の画像処理装置。
(3)
前記方向検出部は、前記参照エリアの領域を変化させることで得られる複数の統計量のうち、最も顕著な特徴に基づいて、前記注目位置の方向性を検出する
(1)または(2)に記載の画像処理装置。
(4)
前記方向検出部は、前記参照エリア毎の統計量として複数得られる、前記補間色差の分散の差または標準偏差の差のうち、その差が最も大きいものを、最も顕著な特徴とする
(3)に記載の画像処理装置。
(5)
前記方向検出部は、前記参照エリア毎の統計量として複数得られる、前記補間色差のダイナミックレンジのうち、最も大きいものを、最も顕著な特徴とする
(3)に記載の画像処理装置。
(6)
前記方向検出部は、前記参照エリア内の画素の画素値から得られる統計量を、前記参照エリアの領域の大きさに応じた重み付けをしてから評価する
(1)乃至(5)の何れか一項に記載の画像処理装置。
(7)
前記方向性の検出結果に応じて選択された垂直方向の補間値または水平方向の補間値に基づいて、前記複数の色成分における各色成分のみで構成される画像である第2の画像を生成する画像生成部をさらに備える
(2)に記載の画像処理装置。
(8)
前記第1の画像から、前記方向性の検出結果に応じた所定の画素に係る画素値を、クラスタップとして選択するクラスタップ選択部と、
前記クラスタップの画素値から得られる特徴量に基づいて、前記複数の色成分における各色成分の画素のみで構成される画像である第2の画像の注目画素を、複数のクラスのうちのいずれかのクラスに分類するクラス分類部と、
前記クラス分類の結果に基づいて、予め記憶されている係数を読み出す係数読み出し部と、
前記第1の画像から、前記方向性の検出結果に応じた所定の画素に係る画素値を、予測タップとして選択する予測タップ選択部と、
前記予測タップの画素値を変数とし、読み出された前記係数を用いた積和演算により、前記第2の画像の画素値をそれぞれ演算する積和演算部と
をさらに備える(1)乃至(7)の何れか一項に記載の画像処理装置。
(9)
前記クラス分類部は、前記方向性の検出結果に基づいて、クラス分類を行う
(8)に記載の画像処理装置。
(10)
前記第1の画像から、所定の画素数で構成される領域である指定エリアを選択するとともに、前記方向性の検出結果に応じて、前記指定エリアにおける前記各色成分の代表値をそれぞれ演算する代表値演算部と、
前記予測タップの各色成分の画素値を、前記複数の色成分のうち、1の色成分の画素値を基準とし、前記代表値を用いてオフセットすることにより得られる第1の変換値に変換する第1の色成分変換部と
をさらに備え、
前記積和演算部は、前記第1の変換値を変数とし、読み出された前記係数を用いた積和演算により、前記第2の画像の画素値をそれぞれ演算する
(8)または(9)に記載の画像処理装置。
(11)
前記クラスタップの各色成分の画素値を、前記複数の色成分のうち、1の色成分の画素値を基準とし、前記代表値を用いてオフセットすることにより得られる第2の変換値に変換する第2の色成分変換部をさらに備え、
前記クラス分類部は、前記第2の変換値に基づいて、前記クラスタップの特徴量を決定する
(10)に記載の画像処理装置。
(12)
前記係数読み出し部により読み出される係数は、予め学習により求められ、
前記学習では、
前記単板式画素部と被写体の間に配置される光学ローパスフィルタより、前記被写体に近い位置に配置された、前記複数の色成分のそれぞれに対応する画素のみで構成された複数の画素部からそれぞれ出力される画像信号により構成される画像を教師画像とし、
前記単板式画素部から出力される画像信号により構成される画像を生徒画像とし、
前記生徒画像の画素と前記教師画像の画素をマッピングさせた正規方程式を解くことにより前記係数が算出される
(8)乃至(11)の何れか一項に記載の画像処理装置。
(13)
前記補間色差は、前記第1の画像におけるライン毎に求められ、
注目ラインを中心として、垂直方向の前記参照エリア内の前記補間色差のラインを選択することで、垂直方向の総和と二乗和を演算し、
垂直方向の総和と二乗和を用いて、注目ラインの注目位置毎に、水平方向の前記参照エリア内の総和と二乗和を演算し、この演算結果を用い、注目位置毎の前記補間色差の分散の垂直方向と水平方向との差分を演算し、
前記参照エリア毎に得られる前記補間色差の分散の垂直方向と水平方向との差分のうち、その差が最も大きいものを選択して、その差分の正負に応じて前記方向性を求める
(4)に記載の画像処理装置。
(14)
前記補間色差は、前記第1の画像におけるライン毎に求められ、
注目ラインを中心として、垂直方向の前記参照エリア内の前記補間色差のラインを選択することで、垂直方向の最大値と最小値を演算し、
垂直方向の最大値と最小値を用いて、注目ラインの注目位置毎に、水平方向の前記参照エリア内の最大値と最小値を演算し、この演算結果を用い、注目位置毎の前記補間色差のダイナミックレンジの差分を演算し、
前記参照エリア毎に得られる前記補間色差のダイナミックレンジの差分のうち、その差が最も大きいものを選択して、その差分の正負に応じて前記方向性を求める
(5)に記載の画像処理装置。
(15)
画像処理装置の画像処理方法において、
前記画像処理装置が、
複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアを設定するとともに、前記参照エリアの領域を変化させ、
前記参照エリア内の画素の画素値から得られる統計量を評価して、前記第1の画像内の注目位置の方向性を検出する
ステップを含む画像処理方法。
(16)
コンピュータを、
複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアを設定するとともに、前記参照エリアの領域を変化させる参照エリア設定部と、
前記参照エリア内の画素の画素値から得られる統計量を評価して、前記第1の画像内の注目位置の方向性を検出する方向検出部と
して機能させるためのプログラム。
10 画像処理装置, 11−1 垂直補間部, 11−2 水平補間部, 12−1 垂直補間色差演算部, 12−2 水平補間色差演算部, 13−1 垂直補間色差分散演算部, 13−2 水平補間色差分散演算部, 14 分散差分演算部, 15 参照エリア設定部, 16 方向検出部, 17 出力画像生成部, 100 画像処理装置, 101 代表RGB演算部, 102−1 Gクラスタップ選択部, 102−2 Rクラスタップ選択部, 102−3 Bクラスタップ選択部, 103−1 G予測タップ選択部, 103−2, R予測タップ選択部, 103−3 B予測タップ選択部, 105−11 G変換部, 105−12 G変換部, 105−21 R変換部, 105−22 R変換部, 105−31 B変換部, 105−32 B変換部, 106−1 Gクラス分類部, 106−2 Rクラス分類部, 106−3 Bクラス分類部, 107−1 G係数メモリ, 107−2 R係数メモリ, 107−3 B係数メモリ, 108−1 G積和演算部, 108−2 R積和演算部, 108−3 B積和演算部, 110 方向検出部, 900 コンピュータ, 901 CPU

Claims (16)

  1. 複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアを設定するとともに、前記参照エリアの領域を変化させる参照エリア設定部と、
    前記参照エリア内の画素の画素値から得られる統計量を評価して、前記第1の画像内の注目位置の方向性を検出する方向検出部と
    を備える画像処理装置。
  2. 前記単板式画素部は、R,G,Bの各色成分を有するベイヤー配列の画素部であり、
    Rの画素とBの画素の位置において、垂直方向と水平方向にG成分の値を補間する補間部と、
    R成分の値またはB成分の値と、垂直方向の補間値または水平方向の補間値との差である補間色差を演算する補間色差演算部と
    をさらに備え、
    前記方向検出部は、前記参照エリア内の前記補間色差から得られる統計量を評価して、前記注目位置の方向性を検出する
    請求項1に記載の画像処理装置。
  3. 前記方向検出部は、前記参照エリアの領域を変化させることで得られる複数の統計量のうち、最も顕著な特徴に基づいて、前記注目位置の方向性を検出する
    請求項2に記載の画像処理装置。
  4. 前記方向検出部は、前記参照エリア毎の統計量として複数得られる、前記補間色差の分散の差または標準偏差の差のうち、その差が最も大きいものを、最も顕著な特徴とする
    請求項3に記載の画像処理装置。
  5. 前記方向検出部は、前記参照エリア毎の統計量として複数得られる、前記補間色差のダイナミックレンジのうち、最も大きいものを、最も顕著な特徴とする
    請求項3に記載の画像処理装置。
  6. 前記方向検出部は、前記参照エリア内の画素の画素値から得られる統計量を、前記参照エリアの領域の大きさに応じた重み付けをしてから評価する
    請求項1に記載の画像処理装置。
  7. 前記方向性の検出結果に応じて選択された垂直方向の補間値または水平方向の補間値に基づいて、前記複数の色成分における各色成分のみで構成される画像である第2の画像を生成する画像生成部をさらに備える
    請求項2に記載の画像処理装置。
  8. 前記第1の画像から、前記方向性の検出結果に応じた所定の画素に係る画素値を、クラスタップとして選択するクラスタップ選択部と、
    前記クラスタップの画素値から得られる特徴量に基づいて、前記複数の色成分における各色成分の画素のみで構成される画像である第2の画像の注目画素を、複数のクラスのうちのいずれかのクラスに分類するクラス分類部と、
    前記クラス分類の結果に基づいて、予め記憶されている係数を読み出す係数読み出し部と、
    前記第1の画像から、前記方向性の検出結果に応じた所定の画素に係る画素値を、予測タップとして選択する予測タップ選択部と、
    前記予測タップの画素値を変数とし、読み出された前記係数を用いた積和演算により、前記第2の画像の画素値をそれぞれ演算する積和演算部と
    をさらに備える請求項1に記載の画像処理装置。
  9. 前記クラス分類部は、前記方向性の検出結果に基づいて、クラス分類を行う
    請求項8に記載の画像処理装置。
  10. 前記第1の画像から、所定の画素数で構成される領域である指定エリアを選択するとともに、前記方向性の検出結果に応じて、前記指定エリアにおける前記各色成分の代表値をそれぞれ演算する代表値演算部と、
    前記予測タップの各色成分の画素値を、前記複数の色成分のうち、1の色成分の画素値を基準とし、前記代表値を用いてオフセットすることにより得られる第1の変換値に変換する第1の色成分変換部と
    をさらに備え、
    前記積和演算部は、前記第1の変換値を変数とし、読み出された前記係数を用いた積和演算により、前記第2の画像の画素値をそれぞれ演算する
    請求項9に記載の画像処理装置。
  11. 前記クラスタップの各色成分の画素値を、前記複数の色成分のうち、1の色成分の画素値を基準とし、前記代表値を用いてオフセットすることにより得られる第2の変換値に変換する第2の色成分変換部をさらに備え、
    前記クラス分類部は、前記第2の変換値に基づいて、前記クラスタップの特徴量を決定する
    請求項10に記載の画像処理装置。
  12. 前記係数読み出し部により読み出される係数は、予め学習により求められ、
    前記学習では、
    前記単板式画素部と被写体の間に配置される光学ローパスフィルタより、前記被写体に近い位置に配置された、前記複数の色成分のそれぞれに対応する画素のみで構成された複数の画素部からそれぞれ出力される画像信号により構成される画像を教師画像とし、
    前記単板式画素部から出力される画像信号により構成される画像を生徒画像とし、
    前記生徒画像の画素と前記教師画像の画素をマッピングさせた正規方程式を解くことにより前記係数が算出される
    請求項8に記載の画像処理装置。
  13. 前記補間色差は、前記第1の画像におけるライン毎に求められ、
    注目ラインを中心として、垂直方向の前記参照エリア内の前記補間色差のラインを選択することで、垂直方向の総和と二乗和を演算し、
    垂直方向の総和と二乗和を用いて、注目ラインの注目位置毎に、水平方向の前記参照エリア内の総和と二乗和を演算し、この演算結果を用い、注目位置毎の前記補間色差の分散の垂直方向と水平方向との差分を演算し、
    前記参照エリア毎に得られる前記補間色差の分散の垂直方向と水平方向との差分のうち、その差が最も大きいものを選択して、その差分の正負に応じて前記方向性を求める
    請求項4に記載の画像処理装置。
  14. 前記補間色差は、前記第1の画像におけるライン毎に求められ、
    注目ラインを中心として、垂直方向の前記参照エリア内の前記補間色差のラインを選択することで、垂直方向の最大値と最小値を演算し、
    垂直方向の最大値と最小値を用いて、注目ラインの注目位置毎に、水平方向の前記参照エリア内の最大値と最小値を演算し、この演算結果を用い、注目位置毎の前記補間色差のダイナミックレンジの差分を演算し、
    前記参照エリア毎に得られる前記補間色差のダイナミックレンジの差分のうち、その差が最も大きいものを選択して、その差分の正負に応じて前記方向性を求める
    請求項5に記載の画像処理装置。
  15. 画像処理装置の画像処理方法において、
    前記画像処理装置が、
    複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアを設定するとともに、前記参照エリアの領域を変化させ、
    前記参照エリア内の画素の画素値から得られる統計量を評価して、前記第1の画像内の注目位置の方向性を検出する
    ステップを含む画像処理方法。
  16. コンピュータを、
    複数の色成分の各色成分に対応する画素を平面上に規則的に配置した単板式画素部から出力される画像信号により構成される第1の画像から、所定の画素数で構成される領域である参照エリアを設定するとともに、前記参照エリアの領域を変化させる参照エリア設定部と、
    前記参照エリア内の画素の画素値から得られる統計量を評価して、前記第1の画像内の注目位置の方向性を検出する方向検出部と
    して機能させるためのプログラム。
JP2013075141A 2013-03-29 2013-03-29 画像処理装置および方法、並びにプログラム Pending JP2014200033A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013075141A JP2014200033A (ja) 2013-03-29 2013-03-29 画像処理装置および方法、並びにプログラム
PCT/JP2014/056930 WO2014156732A1 (ja) 2013-03-29 2014-03-14 画像処理装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013075141A JP2014200033A (ja) 2013-03-29 2013-03-29 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2014200033A true JP2014200033A (ja) 2014-10-23

Family

ID=51623713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013075141A Pending JP2014200033A (ja) 2013-03-29 2013-03-29 画像処理装置および方法、並びにプログラム

Country Status (2)

Country Link
JP (1) JP2014200033A (ja)
WO (1) WO2014156732A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195918A (ja) * 2017-05-15 2018-12-06 キヤノン株式会社 信号処理装置、信号処理方法およびプログラム
WO2019176161A1 (ja) * 2018-03-10 2019-09-19 リアロップ株式会社 画像処理装置、画像処理方法、記録媒体及び撮像装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4009904B2 (ja) * 2002-07-09 2007-11-21 ソニー株式会社 画像処理装置および画像処理方法、係数算出装置および係数算出方法、記録媒体、並びにプログラム
JP2005117540A (ja) * 2003-10-10 2005-04-28 Sony Corp 画像処理装置および画像処理方法、並びに、プログラム
JP5006067B2 (ja) * 2006-06-29 2012-08-22 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法
JP5269718B2 (ja) * 2009-08-18 2013-08-21 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP2012244449A (ja) * 2011-05-20 2012-12-10 Sony Corp 画像処理装置および画像処理方法、学習装置および学習方法、プログラム、並びに記録媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195918A (ja) * 2017-05-15 2018-12-06 キヤノン株式会社 信号処理装置、信号処理方法およびプログラム
WO2019176161A1 (ja) * 2018-03-10 2019-09-19 リアロップ株式会社 画像処理装置、画像処理方法、記録媒体及び撮像装置

Also Published As

Publication number Publication date
WO2014156732A1 (ja) 2014-10-02

Similar Documents

Publication Publication Date Title
JP4097815B2 (ja) 画像処理装置および画像処理方法
US7835573B2 (en) Method and apparatus for edge adaptive color interpolation
KR100978688B1 (ko) 디지털 이미지의 컬러 아티팩트 저감 기법
JP6012375B2 (ja) 画素補間処理装置、撮像装置、プログラムおよび集積回路
CN102025959B (zh) 从低清晰度视频产生高清晰度视频的系统与方法
US7760255B2 (en) Method and apparatus for interpolation of interlaced CMYG color format
JPH07236147A (ja) 単板式カラービデオカメラの色分離回路
JP6046927B2 (ja) 画像処理装置及びその制御方法
KR101637488B1 (ko) 컬러 필터 어레이의 패턴 특성을 이용한 이미지 보간 방법 및 장치
JP2004048465A (ja) 画像処理装置および画像処理プログラム
CN110852953B (zh) 图像插值方法及装置、存储介质、图像信号处理器、终端
US9380276B2 (en) Image processing apparatus and method, and program
JP2014200008A (ja) 画像処理装置および方法、並びにプログラム
JP6276580B2 (ja) 画素補間処理装置、撮像装置、プログラムおよび集積回路
TWI544785B (zh) 影像縮減取樣裝置與方法
WO2014156732A1 (ja) 画像処理装置および方法、並びにプログラム
JP2004519156A (ja) 画像検知器の出力信号用の輪郭フィルタ
US7433512B2 (en) Method and apparatus for finding and correcting single-pixel noise defects in a two-dimensional camera pixel field and a camera provided with such an apparatus
JP2014200000A (ja) 画像処理装置および方法、並びにプログラム
US20140293082A1 (en) Image processing apparatus and method, and program
KR101327790B1 (ko) 영상 보간 방법 및 장치
JP6435560B1 (ja) 画像処理装置、画像処理方法、プログラム及び撮像装置
JP5981824B2 (ja) 画素補間処理装置、撮像装置、プログラムおよび集積回路
JP2015154308A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2006229299A (ja) 画素信号処理装置及び方法