JP4561273B2 - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4561273B2
JP4561273B2 JP2004274798A JP2004274798A JP4561273B2 JP 4561273 B2 JP4561273 B2 JP 4561273B2 JP 2004274798 A JP2004274798 A JP 2004274798A JP 2004274798 A JP2004274798 A JP 2004274798A JP 4561273 B2 JP4561273 B2 JP 4561273B2
Authority
JP
Japan
Prior art keywords
image information
unit
classes
edge
weighting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004274798A
Other languages
English (en)
Other versions
JP2006092095A (ja
Inventor
継彦 芳賀
哲二郎 近藤
大介 菊地
志津男 近岡
岳志 宮井
崇 中西
芳晃 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004274798A priority Critical patent/JP4561273B2/ja
Priority to US11/224,979 priority patent/US7840094B2/en
Priority to CNB2005101063780A priority patent/CN100502489C/zh
Publication of JP2006092095A publication Critical patent/JP2006092095A/ja
Application granted granted Critical
Publication of JP4561273B2 publication Critical patent/JP4561273B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、より少ないに演算量で高画質の画像情報を得ることができるようにした画像処理装置および方法、並びにプログラムに関する。
本出願人は、クラス分類適応処理を用いて高解像度な画像を生成することをすでに提案している(例えば特許文献1)。先の提案においては、3×3画素のブロックの各画素のレベルが、例えばそのブロックの画素のレベルの平均値と比較することによって2値化され、さらに4ビットに圧縮される。
さらに水平方向と垂直方向のエッジが検出され(各2ビット)、各エッジ(合計4ビット)とレベル分布のパターン(4ビット)の合計8ビットでブロックのクラスが決定される。
特開平9−172621号公報
しかしながら先の提案においては、入力された3×3画素の各ブロックは必ず1個のクラスに分類される。その結果、クラスタップの範囲が狭い場合、クラス間の混ざりが生じ、予測画像の画質が低下してしまう課題があった。
逆に広範囲なクラスタップを用いた場合、クラスの数が指数関数的に増加し、クラス毎の係数を得るための学習サンプルが十分得られないという課題があった。
本発明はこのような状況に鑑みてなされたものであり、クラスの数を増大させることなく、より高画質の画像を得ることができるようにするものである。
本発明の第1の画像処理装置は、入力された学習用の画像情報の複数のクラスの特徴を検出する特徴検出手段と、検出された特徴の複数のクラスに対する所属度を演算する所属度演算手段と、入力された学習用の画像情報を所属度に基づいて重み付けする重み付け手段と、重み付けされた画像情報に基づき、複数のクラス毎の予測係数を演算する予測係数演算手段とを備え、前記特徴検出手段は、入力された学習用の画像情報のうちの生徒画像情報の特徴を検出し、前記所属度演算手段は、前記生徒画像情報の特徴の複数の前記クラスに対する所属度を演算し、前記重み付け手段は、入力された学習用の画像情報のうちの教師画像情報と前記生徒画像情報を前記所属度に基づいて重み付けし、前記予測係数演算手段は、重み付けされた前記教師画像情報と前記生徒画像情報を足し込むことで生成した足し込み行列を解くことで、複数の前記クラス毎の予測係数を演算することを特徴とする。
前記特徴検出手段は、画像情報の複数のクラスの特徴として、画像情報の予め定められている複数の方向のエッジの成分を検出するようにすることができる。
前記特徴検出手段は、画像情報に各方向毎のエッジ検出用オペレータを畳み込み演算することでエッジの成分を検出するようにすることができる。
検出されたエッジの成分の極性を判定し、判定された極性に基づいて、エッジ検出用オペレータに対応する一方のクラスの重みに所属度に基づく重みを設定し、他方のクラスの重みに0を設定する判定設定手段をさらに備えるようにすることができる。
前記特徴検出手段は、複数の異なるパラメータを設定した2次元ウェーブレット関数を画像情報に畳み込み演算することでエッジの成分を検出するようにすることができる。
前記特徴検出手段は、水平方向、垂直方向、45度右上がりの方向、および45度左上がりの方向の4つの方向のエッジの成分を検出するようにすることができる。
前記所属度演算手段は、エッジの成分の絶対値を演算する絶対値演算手段と、エッジの成分の絶対値の総和を演算する総和演算手段と、エッジの成分のそれぞれを総和で除算する除算手段とを備えるようにすることができる。
前記予測係数を記憶する記憶手段をさらに備えるようにすることができる。
本発明の第1の画像処理方法は、特徴検出手段が、入力された学習用の画像情報の複数のクラスの特徴を検出する特徴検出ステップと、所属度演算手段が、検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算ステップと、重み付け手段が、入力された学習用の画像情報を前記所属度に基づいて重み付けする重み付けステップと、予測係数演算手段が、重み付けされた前記画像情報に基づき、複数の前記クラス毎の予測係数を演算する予測係数演算ステップとを含み、前記特徴検出ステップは、入力された学習用の画像情報のうちの生徒画像情報の特徴を検出し、前記所属度演算ステップは、前記生徒画像情報の特徴の複数の前記クラスに対する所属度を演算し、前記重み付けステップは、入力された学習用の画像情報のうちの教師画像情報と前記生徒画像情報を前記所属度に基づいて重み付けし、前記予測係数演算ステップは、重み付けされた前記教師画像情報と前記生徒画像情報を足し込むことで生成した足し込み行列を解くことで、複数の前記クラス毎の予測係数を演算することを特徴とする。
本発明の第1のプログラムは、コンピュータを、入力された学習用の画像情報の複数のクラスの特徴を検出する特徴検出手段と、検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算手段と、入力された学習用の画像情報を前記所属度に基づいて重み付けする重み付け手段と、重み付けされた前記画像情報に基づき、複数の前記クラス毎の予測係数を演算する予測係数演算手段として機能させるプログラムであって、前記特徴検出手段は、入力された学習用の画像情報のうちの生徒画像情報の特徴を検出し、前記所属度演算手段は、前記生徒画像情報の特徴の複数の前記クラスに対する所属度を演算し、前記重み付け手段は、入力された学習用の画像情報のうちの教師画像情報と前記生徒画像情報を前記所属度に基づいて重み付けし、前記予測係数演算手段は、重み付けされた前記教師画像情報と前記生徒画像情報を足し込むことで生成した足し込み行列を解くことで、複数の前記クラス毎の予測係数を演算することを特徴とする。
本発明の第2の画像処理装置は、入力された画像情報の複数のクラスの特徴を検出する特徴検出手段と、検出された特徴の複数のクラスに対する所属度を演算する所属度演算手段と、入力された画像情報を複数の所属度に基づいて重み付けする重み付け手段と、複数のクラス毎の予測係数を提供する提供手段と、重み付けされた複数の画像情報のそれぞれと、提供された複数のクラス毎の予測係数とに基づいて、複数のクラス毎の予測画像情報を演算する予測画像情報演算手段と、複数のクラス毎の予測画像情報を加算する加算手段とを備えることを特徴とする。
前記特徴検出手段は、画像情報の複数のクラスの特徴として、画像情報の予め定められている複数の方向のエッジの成分を検出するようにすることができる。
前記特徴検出手段は、画像情報に各方向毎のエッジ検出用オペレータを畳み込み演算することでエッジの成分を検出するようにすることができる。
検出されたエッジの成分の極性を判定し、判定された極性に基づいて、エッジ検出用オペレータに対応する一方のクラスの重みに所属度に基づく重みを設定し、他方のクラスの重みに0を設定する判定設定手段をさらに備えるようにすることができる。
前記特徴検出手段は、複数の異なるパラメータを設定した2次元ウェーブレット関数を画像情報に畳み込み演算することでエッジの成分を検出するようにすることができる。
前記特徴検出手段は、水平方向、垂直方向、45度右上がりの方向、および45度左上がりの方向の4つの方向のエッジの成分を検出するようにすることができる。
前記所属度演算手段は、エッジの成分の絶対値を演算する絶対値演算手段と、エッジの成分の絶対値の総和を演算する総和演算手段と、エッジの成分のそれぞれを総和で除算する除算手段とを備えるようにすることができる。
前記提供手段は、予測係数を予め記憶しているようにすることができる。
本発明の第2の画像処理方法は、特徴検出手段が、入力された画像情報の複数のクラスの特徴を検出する特徴検出ステップと、所属度演算手段が、検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算ステップと、重み付け手段が、入力された画像情報を複数の前記所属度に基づいて重み付けする重み付けステップと、提供手段が、複数の前記クラス毎の予測係数を提供する提供ステップと、予測画像情報演算手段が、重み付けされた複数の前記画像情報のそれぞれと、提供された複数の前記クラス毎の前記予測係数とに基づいて、複数の前記クラス毎の予測画像情報を演算する予測画像情報演算ステップと、前記加算手段が、複数の前記クラス毎の予測画像情報を加算する加算ステップとを含むことを特徴とする。
本発明の第2のプログラムは、コンピュータを、入力された画像情報の複数のクラスの特徴を検出する特徴検出手段と、検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算手段と、入力された画像情報を複数の前記所属度に基づいて重み付けする重み付け手段と、複数の前記クラス毎の予測係数を提供する提供手段と、重み付けされた複数の前記画像情報のそれぞれと、提供された複数の前記クラス毎の前記予測係数とに基づいて、複数の前記クラス毎の予測画像情報を演算する予測画像情報演算手段と、複数の前記クラス毎の予測画像情報を加算する加算手段として機能させることを特徴とする。
第1の本発明においては、入力された学習用の画像情報の複数のクラスの特徴が検出され、検出された特徴の複数のクラスに対する所属度が演算され、入力された学習用の画像情報が所属度に基づいて重み付けされ、重み付けされた画像情報に基づき、複数のクラス毎の予測係数が演算される。そして、入力された学習用の画像情報のうちの生徒画像情報の特徴が検出され、生徒画像情報の特徴の複数の前記クラスに対する所属度が演算され、入力された学習用の画像情報のうちの教師画像情報と生徒画像情報が所属度に基づいて重み付けされ、重み付けされた教師画像情報と生徒画像情報を足し込むことで生成した足し込み行列を解くことで、複数のクラス毎の予測係数が演算される。
第2の本発明においては、入力された画像情報の複数のクラスの特徴が検出され、検出された特徴の複数のクラスに対する所属度が演算され、入力された画像情報が所属度に基づいて重み付けされ、重み付けされた複数の画像情報の画像情報のそれぞれと、提供された複数のクラス毎の予測係数とに基づいて、複数のクラス毎の予測画像情報が演算され、複数のクラス毎の予測画像情報が加算される。
本発明によれば、画像処理を行うことができる。特に、クラスの数の増大を抑制しつつ、高画質の画像処理を行うことが可能な予測係数を得ることができる。
また、本発明によれば、クラスの数を増大化することなく、高画質の画像処理を行うことが可能になる。
以下、本発明を適用した画像処理装置について説明するが、以下の実施の形態においても、クラス分類適応処理により、低解像度の画像から高解像度の画像が生成されるものとする。
図1は、本発明を適用した画像処理装置の構成例を表す。この画像処理装置11は、入力部21、重み付け部22,23、生徒画像生成部24、エッジクラス所属度演算部25、判定設定部26、重み付け部27、足し込み部28、予測係数演算部29、記憶部30、重み付け部31、足し込み部32、予測係数演算部33、および記憶部34により構成されている。
エッジクラス所属度演算部25は、エッジ検出部61と正規化部62により構成されている。
入力部21は、図示せぬ装置から教師画像データを入力し、生徒画像生成部24に出力する。生徒画像生成部24は、入力部21より供給された教師画像データから生徒画像データを生成し、エッジ検出部61に出力する。エッジ検出部61は、生徒画像生成部24により生成された生徒画像のエッジを検出し、正規化部62に出力する。正規化部62は、エッジ検出部61により検出されたエッジを正規化し、判定設定部26に出力する。判定設定部26は、正規化部62の出力に基づいて所定の重みを計算し、その重みを重み付け部27と重み付け部31に設定する。同様に、この重みが重み付け部22と重み付け部23に出力される。
重み付け部27と重み付け部31は、生徒画像生成部24より供給された生徒画像データに対して判定設定部26により設定された重みを重み付けし、足し込み部28または足し込み部32にそれぞれ出力する。重み付け部22と重み付け部23は、同様に、入力部21より入力された教師画像データに対して、判定設定部26より供給された重みを重み付けし、重み付けされた教師画像データを足し込み部28または足し込み部32にそれぞれ出力する。
足し込み部28は、重み付け部22より供給された教師画像データと重み付け部27より供給された生徒画像データを足し込み行列に足し込み、行列(方程式)を生成し、生成した行列(方程式)を予測係数演算部29に出力する。予測係数演算部29は、足し込み部28より供給された方程式を解くことで予測係数を演算し、得られた予測係数を記憶部30に供給し記憶させる。
同様に、足し込み部32には、重み付け部23より供給された教師画像データと重み付け部31より供給された生徒画像データを足し込み行列に足し込み、方程式を生成し、その方程式を予測係数演算部33に出力する。予測係数演算部33は、この方程式を解くことで予測係数を演算し、記憶部34に出力し、記憶させる。
この実施の形態においては、画像の特徴としてエッジが検出され、1つの方向のエッジに対して、凸エッジ(周囲に較べて輝度が高いエッジ)のクラスと、凹エッジ(周囲に較べて輝度が低いエッジ)のクラスという2つのクラスが対応される。重み付け部27、足し込み部28、予測係数演算部29および記憶部30は、凸エッジの予測係数を演算するための系を構成し、重み付け部31、足し込み部32、予測係数演算部33、および記憶部34は、凹エッジの予測係数を演算するための系を構成する。
図2は、エッジクラス所属度演算部25、判定設定部26、重み付け部27、足し込み部28、予測係数演算部29、記憶部30、重み付け部31、足し込み部32、予測係数演算部33、および記憶部34のより詳細な構成例を表している。
この実施の形態では、4つの方向のエッジが検出されるため、エッジ検出部61は、4つの方向のエッジに対応するエッジ検出部61−1乃至61−4により構成され、正規化部62は、正規化部62−1乃至62−4により構成される。判定設定部26は、具体的には判定設定部26−1乃至26−4により構成されている。同様に、重み付け部27は、具体的には重み付け部27−1乃至27−4により構成され、重み付け部31は、重み付け部31−1乃至31−4により構成される。足し込み部28は、足し込み部28−1乃至28−4により構成され、足し込み部32は、足し込み部32−1乃至32−4により構成される。予測係数演算部29は、予測係数演算部29−1乃至29−4により構成され、予測係数演算部33は、予測係数演算部33−1乃至33−4により構成される。記憶部30は、記憶部30−1乃至30−4により構成され、記憶部34は、記憶部34−1乃至34−4により構成される。
エッジ検出部61−1乃至61−4は、それぞれ生徒画像生成部24より入力された生徒画像データからエッジを検出し、検出されたエッジのデータを対応する正規化部62−1乃至62−4に出力する。正規化部62−1乃至62−4は、エッジ検出部61−1乃至61−4からのエッジデータを正規化する。
判定設定部26−1は、正規化部62−1から入力される正規化値に基づいて重みを演算し、演算した重みを凸エッジ用の重み付け部27−1と凹エッジ用の重み付け部31−1に設定する。この実施の形態の場合、正規化値がそのまま一方の重みとされ、他方の重みは0とされる。判定設定部26−1は、エッジ検出部61−1の検出結果の極性が正である場合、凸エッジ用の重み付け部27−1に正規化値を重みとして設定し、凹エッジ用の重み付け部31−1に0を重みとして設定する。極性が負である場合には、凹エッジ用の重み付け部31−1に正規化値が設定され、凸エッジ用の重み付け部27−1には重み0が設定される。
換言すれば、エッジ検出部212−1乃至212−4は、それぞれ2つのエッジ(凸エッジと凹エッジ)を検出しているのであり、そのいずれのエッジであるかは極性で分かるので、実際に検出されたエッジ(凸エッジと凹エッジのうち、極性で決定される方)に対して、対応する重み(演算により求められた値)を設定し、検出されていないエッジ(凸エッジと凹エッジの他方)には、そのことを意味する重み0が設定されている。
重み付け部27−1は、判定設定部26−1より供給された重みに基づいて、生徒画像生成部24より供給された生徒画像データに重み付けを行い、足し込み部28−1に出力する。重み付け部31−1は、判定設定部26−1により設定された重みに基づいて、生徒画像生成部24より供給された生徒画像データを重み付けし、足し込み部32−1に出力する。足し込み部28−1は、後述する図4の重み付け部22−1により重み付けが行われた教師画像データと、重み付け部27−1により重み付けされた生徒画像データを足し込み行列に足し込むことで方程式を生成し、生成した方程式を予測係数演算部29−1に出力する。予測係数演算部29−1は、足し込み部28−1より供給された方程式を解くことで予測係数を演算し、演算して得られた予測係数を記憶部30−1に出力し、記憶させる。
足し込み部32−1は、後述する図4の重み付け部23−1により重み付けが行われた教師画像データと、重み付け部31−1により重み付けが行われた生徒画像データを足し込み行列に足し込むことで方程式を生成し、予測係数演算部33−1に出力する。予測係数演算部33−1は、足し込み部32−1より供給された方程式を解くことで予測係数を演算し、記憶部34−1に出力し、記憶させる。
以下同様に、重み付け部27−2は、判定設定部26−2により設定された凸エッジ用の重みを生徒画像データに対して重み付けし、足し込み部28−2に出力する。重み付け部31−2は、判定設定部26−2により設定された凹エッジ用の重みを生徒画像データ対して重み付けし、足し込み部32−2に出力する。足し込み部28−2は、図4の重み付け部22−2により重み付けがなされた教師画像データと、重み付け部27−2より重み付けされた生徒画像データを足し込み行列に足し込むことで方程式を生成し、予測係数演算部29−2に出力する。足し込み部32−2は、図4の重み付け部23−2により重み付けがされた教師画像データと、重み付け部31−2により重み付けされた生徒画像データを足し込み行列に足し込むことで方程式を生成し、生成した方程式を予測係数演算部33−2に出力する。予測係数演算部29−2は、入力された方程式を解くことで予測係数を演算し、記憶部30−2に出力し、記憶させる。予測係数演算部33−2は、入力された方程式を解くことで予測係数を演算し、記憶部34−2に出力し、記憶させる。
重み付け部27−3は、判定設定部26−3により設定された凸エッジ用の重みを生徒画像データに対して重み付けし、足し込み部28−3に出力する。重み付け部31−3は、判定設定部26−3により設定された凹エッジ用の重みを、生徒画像データ対して重み付けし、足し込み部32−3に出力する。足し込み部28−3は、図4の重み付け部22−3より供給された教師画像データと、重み付け部27−3より入力された生徒画像データを足し込み行列に足し込むことで方程式を生成し、予測係数演算部29−3に出力する。足し込み部32−3は、重み付け部23−3より供給された教師画像データと、重み付け部31−3より供給された生徒画像データを足し込み行列に足し込むことで方程式を生成し、生成した方程式を予測係数演算部33−3に出力する。予測係数演算部29−3は、入力された方程式を解くことで予測係数を演算し、記憶部30−3に出力し、記憶させる。予測係数演算部33−3は、入力された方程式を解くことで予測係数を演算し、記憶部34−3に出力し、記憶させる。
重み付け部27−4は、判定設定部26−4より入力された凸エッジ用の重みを生徒画像データに対して重み付けし、足し込み部28−4に出力する。重み付け部31−4は、判定設定部26−4により設定された凹エッジ用の重みを生徒画像データに対して重み付けし、足し込み部32−4に出力する。足し込み部28−4は、図4の重み付け部22−4より供給された教師画像データと、重み付け部27−4より供給された生徒画像データを足し込み行列に足し込み、方程式を生成し、予測係数演算部29−4に出力する。足し込み部32−4は、重み付け部31−4より入力された生徒画像データと、図4の重み付け部23−4より入力された教師画像データを足し込み行列に足し込むことで方程式を生成し、予測係数演算部33−4に出力する。予測係数演算部29−4は、入力された方程式を解くことで予測係数を演算し、記憶部30−4に出力し、記憶させる。予測係数演算部33−4は、入力された方程式を解くことで予測係数を演算し、記憶部34−4に出力し、記憶させる。
図3は、正規化部62、判定設定部26のより詳細な構成を表している。正規化部62−1は、絶対値演算部91−1と除算部92−1により構成され、正規化部62−2は、絶対値演算部91−2と除算部92−2により構成され、正規化部62−3は、絶対値演算部91−3と除算部92−3より構成され、正規化部62−4は、絶対値演算部91−4と除算部92−4により構成される。正規化部62はさらに加算部93を有している。
判定設定部26−1は、設定部101−1と判定部102−1により構成され、判定設定部26−2は、設定部101−2と判定部102−2より構成され、判定設定部26−3は、設定部101−3と判定部102−3により構成され、判定設定部26−4は、設定部101−4と判定部102−4により構成される。
絶対値演算部91−1は、エッジ検出部61−1より供給されたエッジの検出結果の絶対値を演算し、演算して得られた絶対値を除算部92−1と加算部93に出力する。除算部92−1は、絶対値演算部91−1より供給された絶対値を、加算部93より供給された総和で除算し、得られた除算値(商)を設定部101−1に出力する。また絶対値演算部91−1は、エッジ検出部61−1より入力された検出結果の極性を判定部102−1に出力する。判定部102−1は、絶対値演算部91−1より入力された極性を判定し、その判定結果を設定部101−1に出力する。設定部101−1は、判定部102−1により判定された結果が正である場合、凸エッジ用の重み付け部27−1に除算部92−1より入力された値(商)を重みとして設定し、凹エッジ用の重み付け部31−1には0の重みを設定する。
生徒画像データの凸エッジ用の重み付け部27−1に設定する重みが、教師画像データの凸エッジ用の重み付け部22−1にも出力されるとともに、生徒画像データの凹エッジ用の重み付け部31−1に出力される重みが、教師画像データの凹エッジ用の重み付け部23−1にも出力される。
絶対値演算部91−2は、エッジ検出部61−2より供給されたエッジ検出データの絶対値を演算し、得られた結果を除算部92−2に出力するとともに、加算部93に出力する。除算部92−2は、絶対値演算部91−2より入力された絶対値を、加算部93より供給された総和で除算することで得られた値を、設定部101−2に出力する。判定部102−2は、絶対値演算部91−2より供給されたエッジ検出データの極性を判定し、その判定結果を判定部101−2に出力する。設定部101−2は、判定された結果が正である場合、凸エッジ用の重み付け部27−2に除算部92−2より入力された値を設定し、凹エッジ用の重み付け部31−2には0を設定する。逆に、判定結果が負である場合、設定部101−2は、凹エッジ用の重み付け部31−2に除算部92−2より供給された値を設定し、凸エッジ用の重み付け部27−2には0を設定する。重み付け部27−2に設定された重みは、教師画像データの凸エッジ用の重み付け部22−2に出力されるとともに、重み付け部31−2に設定された重みは、教師画像データの凹エッジ用の重み付け部23−2に出力される。
同様に、絶対値演算部91−3は、エッジ検出部61−3より供給されたエッジ検出結果の絶対値を演算し、得られた絶対値を除算部92−3と加算部93に出力する。除算部92−3は、絶対値演算部91−3からの絶対値を加算部93からの総和で除算することで得られた値を設定部101−3に出力する。判定部102−3は、絶対値演算部91−3より供給された極性を判定し、その判定結果を設定部101−3に出力する。設定部101−3は、判定部102−3の判定結果が正である場合、凸エッジ用の重み付け部27−3に除算部92−3からの重みを設定し、凹エッジ用の重み付け部31−3には重み0を設定する。逆に、判定結果が負である場合、設定部101−3は、凸エッジ用の重み付け部27−3には重み0を設定し、凹エッジ用の重み付け部31−3には除算部92−3より入力された重みを設定する。凸エッジ用の重み付け部27−3に設定された重みが教師画像データの凸エッジ用の重み付け部22−3に設定され、凹エッジ用の重み付け部31−3に設定された重みが教師画像データの凹エッジ用の重み付け部23−3に設定される。
絶対値演算部91−4は、エッジ検出部61−4より入力されたエッジ検出結果の絶対値を演算し、除算部92−4と加算部93に出力する。除算部92−4は、絶対値演算部91−4より入力された絶対値を、加算部93より入力された総和で除算することで得られた値を設定部101−4に出力する。判定部102−4は、絶対値演算部91−4より入力されたエッジ検出結果の極性を判定し、その判定結果を設定部101−4に出力する。設定部101−4は、判定部102−4による判定結果が正である場合、凸エッジ用の重み付け部27−4に、除算部92−4より入力された重みを設定し、凹エッジ用の重み付け部31−4に重み0を設定する。判定結果が負である場合には、設定部101−4は、凸エッジ用の重み付け部27−4に重み0を設定し、凹エッジ用の重み付け部31−4に、除算部912−4より入力された重みを設定する。凸エッジ用の重み付け部27−4に設定された値は、教師画像データの凸エッジ用の重み付け部22−4に出力されるとともに、凹エッジ用の重み付け部31−4に設定された重みは、教師画像データの凹エッジ用の重み付け部23−4に出力される。
加算部93は、絶対値演算部91−1乃至91−4より供給された絶対値を加算し、その得られた総和を除算部92−1乃至92−4に出力する。
図4は、重み付け部22と重み付け部23の詳細な構成例を表している。凸エッジ用の重み付け部22は、重み付け部22−1乃至22−4により構成され、凹エッジ用の重み付け部23は、重み付け部23−1乃至23−4により構成されている。
凸エッジ用の重み付け部22−1は、入力部21より供給された教師画像データに対して設定部101−1より供給された凸エッジ用の重みを重み付けし、足し込み部28−1に出力する。凹エッジ用の重み付け部23−1は、入力部21より供給された教師画像データに設定部101−1より供給された凹エッジ用の重みを重み付けし、足し込み部32−1に出力する。
凸エッジ用の重み付け部22−2は、入力部21より供給された教師画像データに対して設定部101−2より供給された凸エッジ用の重みを重み付けし、足し込み部28−2に出力する。凹エッジ用の重み付け部23−2は、入力部21より供給された教師画像データに、設定部101−2より供給された凹エッジ用の重みを重み付けし、足し込み部32−2に出力する。凸エッジ用の重み付け部22−3は、入力部21より入力された教師画像データに対して設定部101−3より供給された凸エッジ用の重みを重み付けし、足し込み部28−3に出力する。凹エッジ用の重み付け部23−3は、入力部21より供給された教師画像データに対して、設定部101−3より供給された凹エッジ用の重みを重み付けし、足し込み部32−3に出力する。凸エッジ用の重み付け部22−4は、入力部21より供給された教師画像データに対して、設定部101−4より供給された凸エッジ用の重みを重み付けし、足し込み部28−4に出力する。凹エッジ用の重み付け部23−4は、入力部21より供給された教師画像データに対して、設定部101−4より供給された凹エッジ用の重みを重み付けし、足し込み部32−4に出力する。
次に、図5のフローチャートを参照して、画像処理装置11の学習処理について説明する。ステップS1において、入力部21は教師画像データを入力する。ステップS2において、生徒画像生成部24は、生徒画像データを生成する。具体的には、教師画像データに対して、適当なタップ数の帯域制限のローパスフィルタをかけて間引き処理が行なわれ、生徒画像データが生成される。
ステップS3において、エッジクラス所属度演算部25によりクラス所属度算出処理が行われる。クラス所属度算出処理の詳細が、図6のフローチャートに示されている。
すなわち、ステップS21において、エッジ検出部61−1乃至61−4は、画像データとエッジ検出用オペレータの畳み込み演算を行い、演算値を求める。エッジ検出部61−1は横方向エッジを検出し、エッジ検出部61−2は縦方向エッジを提出し、エッジ検出部61−3は45度右上がりエッジを検出し、エッジ検出部61−4は45度左上がりエッジを検出する。このため、例えば、エッジ検出部61−1は、図7Aに示される横方向エッジ検出用のオペレータを使用し、エッジ検出部61−2は、図7Bに示される縦方向エッジ検出用のオペレータを使用し、エッジ検出部61−3は、図7Cに示される45度右上がりエッジ検出用のオペレータを使用し、エッジ検出部61−4は、図7Dに示される45度左上がりエッジ検出用のオペレータを使用する。
図7Aに示されるように、横方向エッジ検出用のオペレータの値は、3×3タップで構成され、左上から右下方向に−0.5,−0.5,−0.5,1.0,1.0,1.0,−0.5,−0.5,−0.5とされる。図7Bに示されるように、縦方向エッジ検出用のオペレータの値は、−0.5,1.0,−0.5,−0.5,1.0,−0.5,−0.5,1.0,−0.5とされる。図7Cに示されるように、45度右上がりエッジ検出用のオペレータの値は、−0.5,−0.5,1.0,−0.5,1.0,−0.5,1.0,−0.5,−0.5とされる。図7Dに示されるように、45度左上がりエッジ検出用のオペレータの値は、1.0,−0.5,−0.5,−0.5,1.0,−0.5,−0.5,−0.5,1.0とされる。
いま、入力される生徒画像データの3×3個の画素の値が、図8に示されるように、左上から右下方向に140,120,160,200,200,220,160,140,180であるとする。この場合、エッジ検出部61−1においては、以下の演算が行われる。
(−0.5)×140+(−0.5)×120+(−0.5)×160+(1.0)×200+(1.0)×200+(1.0)×220+(−0.5)×160+(−0.5)×140+(−0.5)×180=170
エッジ検出部61−2においては、以下の演算が行われる。
(−0.5)×140+(1.0)×120+(−0.5)×160+(−0.5)×200+(1.0)×200+(−0.5)×220+(−0.5)×160+(1.0)×140+(−0.5)×180=−70
エッジ検出部61−3においては、以下の演算が行われる。
(−0.5)×140+(−0.5)×120+(1.0)×160+(−0.5)×200+(1.0)×200+(−0.5)×220+(1.0)×160+(−0.5)×140+(−0.5)×180=0
エッジ検出部61−4においては、次の演算が行われる。
(1.0)×140+(−0.5)×120+(−0.5)×160+(−0.5)×200+(1.0)×200+(−0.5)×220+(−0.5)×160+(−0.5)×140+(1.0)×180=20
ステップS22において、絶対値演算部91−1乃至91−4は、演算値の絶対値を演算する。いまの場合、絶対値演算部91−1は、170の絶対値を演算し、絶対値演算部91−2は、−70の絶対値を演算し、絶対値演算部91−3は、0の絶対値を演算し、絶対値演算部91−4は、20の絶対値演算する。ステップS23において、加算部93は、絶対値を加算して総和を演算する。いまの場合、絶対値演算部91−1から出力される絶対値は170、絶対値演算部91−2が出力する絶対値は70、絶対値演算部91−3が出力する絶対値は0、絶対値演算部91−4が出力する絶対値は20であるから、加算部93が算出する総和の値は260となる。ステップS24において、除算部92−1乃至92−4は、演算値を総和で除算して、正規化値を求める。いまの場合、除算部92−1は、170を260で除算することになるので、その値は0.654となる。除算部92−2は、170を260で除算するので、0.269を出力する。除算部92−3は、0を260で除算するので、0.000を出力する。除算部9−4は、20を260で除算するので、0.077を出力する。この正規化値は、生徒画像データが各エッジの方向に対応する各クラスへの所属度を表し、その値が大きい程(1に近い程)、そのクラスへの所属度が高いことを意味する。
ステップS25において、判定部102−1乃至102−4は、演算値は正かを判定する。絶対値演算部91−1には、エッジ検出部61−1より演算値(+170)が入力されるため、判定部102−1は、正の判定結果を判定部101−1に出力する。この場合、ステップS26において、設定部101−1は、正に対応するクラスの所属度に正規化値を設定する。またステップS27において、設定部101−1は、負に対応するクラスの所属度に重み0を設定する。すなわちエッジ検出部61−1により検出されたのは凸エッジ(周囲に較べて輝度が高いエッジ)であって、凹エッジ(周囲に較べて輝度が低いエッジ)ではないので、設定部101−1は、凸エッジ用の重み付け部27−1に除算部92−1より入力された重み0.654を設定し、凹エッジ用の重み付け部23−1に重み0を設定する。同様に、教師画像の凸エッジの重み付け部22−1に重み0.654が設定され、凹エッジの重み付け部23−1に重み0.000が設定される。
一方、絶対値演算部91−2には、エッジ検出部61−2より演算値(−70)が入力されるため、判定部102−2には負の極性が入力され、設定部101−2には、判定部102−2より負の判定結果が入力される。そこで処理はステップS25からステップS28に進み、ステップS28において、設定部101−2は、負に対応するクラスの所属度に正規化値を設定する。また、設定部101−2は、ステップS29において、正に対応するクラスの所属度に重み0を設定する。具体的には、設定部101−2は、凹エッジの重み付け部23−2に除算部92−2より入力された重み0.269を設定し、凸エッジの重み付け部27−2には重み0.000を設定する。従って、教師画像の凹エッジの重み付け部23−2に重み0.269が設定され、凸エッジの重み付け部22−2に重み0.000が設定される。すなわち、エッジ検出部61−2により検出されたのは凸エッジではなく、凹エッジであるから、このような処理が行われる。
同様に、絶対値演算部91−3には、演算値(0)が入力されるため、判定部102−3は極性を正と判定し、設定部101−3に出力する。従って、設定部101−3は、ステップS26とステップS27の処理を行い、凸エッジの重み付け部27−3と凹エッジの重み付け部23−3の両方に、重み0.000を設定する。すなわちこの場合には、いずれの場合にも0が設定されることになる。教師画像の重み付け部22−3,23−3にも重み0.000が設定される。
さらに絶対値演算部91−4は、エッジ検出部61−4より演算値(+20)の入力を受ける。そこで判定部102−4は、極性を正と判定し、設定部101−4に出力する。そこで、設定部101−4は、ステップS26とステップS27で、凸エッジの重み付け部27−4に除算部92−4より入力された重み0.077を設定し、凹エッジの重み付け部31−4には重み0.000を設定する。教師画像の凸エッジの重み付け部22−4には重み0.077が設定され、凹エッジの重み付け部23−4には重み0.000が設定される。
図5に戻って、ステップS4において、重み付け部22−1乃至22−4,23−1乃至23−4において教師画像データへの重み付けが行われる。すなわち、重み付け部22−1乃至22−4,23−1乃至23−4は、教師画像データに対して、設定部101−1乃至101−4により設定された重みを重み付けする。
さらにステップS5において、重み付け部27−1乃至27−4,31−1乃至31−4は、生徒画像データへの重み付けを行う。この重み付けについてさらに説明すると、次のようになる。
例えば、横方向の凸エッジの重み付け部27−1には、判定設定部26−1より凸エッジの重み0.654が入力される。そこで重み付け部27−1は、例えば図8に示されるような生徒画像データが入力される場合、各画素値に0.654の重み付けを行い、図9の最上段に示されるような画素値を演算する。
すなわち、92,78,105,130,130,144,105,92,118の各演算値は次式により求められる。
140×0.654=92
120×0.654=78
160×0.654=105
200×0.654=130
200×0.654=130
220×0.654=144
160×0.654=105
140×0.654=92
180×0.654=118
これに対して、横方向の凹エッジの重み付け部31−1には重み0が設定される。従って、図9の最も下側に示されるように、重み付け後の画素値はすべて0となる。
縦方向の凹エッジの重み付け部31−2においては、重み0.269が設定されるため、図9の上から2番目の段に示されるように、次式に示されるような演算が行われる。
140×0.269=38
120×0.269=32
160×0.269=43
200×0.269=54
200×0.269=54
220×0.269=59
160×0.269=43
140×0.269=38
180×0.269=48
縦方向の凸エッジの重み付け部27−2においては、重みが0と設定されるため重み付け後の画素値はすべて0とされる。
45度右上がりの凸エッジと凹エッジの重み付け部27−3,31−3においても、重みが0とされるため、重み付け後の画素値はすべて0とされる。
これに対して45度左上がりの凸エッジの重み付け部27−4においては、重み0.077が設定されるため、図9の上から3番目に示されるように、以下の演算が行われる。
140×0.077=11
120×0.077=9
160×0.077=12
200×0.077=15
200×0.077=15
220×0.077=17
160×0.077=12
140×0.077=11
180×0.077=14
45度左上がりの凹エッジの重み付け部31−4においては、重みが0とされるため重み付け後の画素値もすべて0とされる。
ステップS6において、足し込み部28−1乃至28−4,32−1乃至31−4は足し込み行列への足し込みを行う。足し込み行列は、次の式(1)に示される。式(1)における,A,W,vの値は、それぞれ式(2)、式(3)、または式(4)に表されている。
Figure 0004561273
ここでxは生徒画像(重み付け部27−1乃至27−4,31−1乃至31−4より供給される)の画素値を表し、yは教師画像(重み付け部22−1乃至22−4,23−1乃至23−4より供給される)の画素値を表し、Wは予測係数(行列式(方程式)を解くことで求められる未知数)を表す。
足し込み行列は、各クラス毎に用意される。すなわち、凸エッジの足し込み部28−1乃至28−4、並びに凹エッジの足し込み部32−1乃至32−4において、それぞれ独立した足し込み行列が用意される。そして、画素値は各クラス毎に重み付けされた後、そのクラスの足し込み行列に足し込まれる。
特徴量(いまの場合、エッジ検出部61によるエッジの検出結果)を正規化して求められたクラスcへの所属度をBcとして、各クラスへの重み付けは、このBcを用いて行われる。即ち、入力タップの値(生徒画像の画素値)がG(x1,x2,・・・,xi)の場合、クラスcの足し込み行列に足し込む値は、BcをかけてGc(Bc×x1,Bc×x2,・・・,Bc×xi)となる。
この時の足し込み行列は、次の式(5)と式(6)に表されるようになる。
Figure 0004561273
Figure 0004561273
以上のようにして、ステップS6において行列への足し込みが行われ、方程式が生成される。そしてステップS7において、入力部21は、すべての教師画像データに対する処理が終了かを判定する。まだすべての教師画像データに対する処理が終了していない場合には、処理はステップS1に戻り、それ以降の処理が繰り返し実行される。
ステップS7において、すべての教師画像データに対する処理が終了したと判定された場合、ステップS8において、予測係数演算部29,33は、予測係数を演算する。即ち予測係数演算部29−1乃至29−4は、足し込み部28−1乃至28−4より入力された方程式を解くことで、対応する方向の凸エッジのクラスの予測係数Wを演算し、予測係数33−1乃至33−4は、足し込み部32−1乃至32−4より入力された方程式を解くことで、対応する方向の凹エッジのクラスの予測係数Wを演算する。
ステップS9において、予測係数演算部29,33は、すべてのクラスの予測係数が求められたかを判定する。まだすべてのクラスの予測係数が求められていない場合、処理はステップS1に戻り、それ以降の処理が繰り返し実行される。ステップS9において、すべてのクラスの予測係数が求められたと判定された場合、ステップS10において、記憶部30−1乃至30−4、並びに記憶部34−1乃至34−4は、予測係数を記憶する。すなわち記憶部30−1乃至34−4は、予測係数演算の29−1乃至33−4により演算された各クラス毎の予測係数を記憶する。
以上のようにして本発明においては、入力された画像(生徒画像)は、そこに含まれる特徴(エッジ)に基づいてクラスに分類されるのであるが、1つのクラスだけに分類されるのではなく、各クラスへの所属度が算出され、その所属度に応じて複数のクラスに分類される。図8に示される生徒画像は、図10に示されるように、横方向凸エッジのクラスに65.4%の所属度で分類され、縦方向凹エッジのクラスに26.9%の所属度で分類され、左上がり凸エッジのクラスに7.7%の所属度で分類される。1つの画像の各クラスへの所属度の合計は100%となる(正規化はこのために行われる)。
その結果、必ず1つのクラスだけに分類させる場合に比べて分類の誤差が少なくなり、より正確なクラス決定を行うことが可能となる。そして、このようにして決定されたクラス毎に予測係数を演算すると、正確な予測係数を求めることができ、その予測係数を用いて予測処理を行うことで、通常の画像からより高品位の画像を演算することが可能となる。以下、この予測処理を行う実施の形態ついて説明する。
図11は、予測処理を行う画像処理装置の実施の形態の構成例を表している。この画像処理装置201は、入力部211、エッジ検出部212、正規化部213、エッジクラス所属度演算部212、判定設定部213、重み付け部214、予測係数畳み込み部215、記憶部216、加算部217、および出力部218により構成されている。
エッジクラス所属度演算部212は、エッジ検出部231、正規化部232により構成されている。エッジ検出部231は、エッジ検出部231−1乃至エッジ検出部231−4により構成されている。正規化部232は、絶対値演算部241と除算部242により構成されている。絶対値演算部241は、具体的には、絶対値演算部241−1乃至241−4により構成され、除算部242は、除算部242−1乃至242−4により構成されている。正規化部232はまた加算部243を有している。
判定設定部213は、設定部261−1乃至261−4と、それぞれに対応する判定部262−1乃至262−4により構成されている。重み付け部214は、重み付け部214−1−1乃至214−4−2により構成されている。予測係数畳み込み部215は、予測係数畳み込み部215−1−1乃至215−4−2により構成されている。記憶部216は、記憶部216−1−1乃至216−4−2により構成されている。
入力部211は、処理すべき画像(図1の生徒画像生成部24により生成された生徒画像に対応する低解像度の画像)データを入力し、エッジ検出部231−1乃至231−4に出力する。エッジ検出部231−1乃至231−4は、入力部211より入力された画像データのエッジを検出し、その検出結果を、対応する絶対値演算部241−1乃至241−4に出力する。絶対値演算部241−1乃至241−4は、エッジ検出部231−1乃至231−4より入力された検出結果の絶対値を演算し、その絶対値を対応する除算部242−1乃至242−4に出力するとともに、それぞれの検出結果の極性を判定部262−1乃至262−4に出力する。加算部243は、絶対値演算部241−1乃至241−4で演算された絶対値の総和を演算する。加算部243により演算して得られた総和の値は、除算部242−1乃至242−4に出力される。除算部242−1乃至242−4は、絶対値演算部241−1乃至241−4より入力された絶対値を、加算部243より入力された総和で除算することでエッジ検出結果の正規化値を演算する。
判定部262−1乃至262−4は、絶対値演算部241−1乃至241−4より供給された極性を判定し、その判定結果を設定部261−1乃至261−4に出力する。設定部261−1乃至261−4は、判定部262−1乃至262−4の判定結果に基づいて、除算部242−1乃至242−4より供給された正規化値を、重み付け部214−1−1乃至214−4−1、または重み付け部214−1−2乃至214−4−2のいずれかに出力する。
すなわち、設定部261−1は、除算部242−1が出力する正規化値を、判定部262−1の判定結果が正である場合、凸エッジの重み付け部214−1−1に出力し、負である場合、凹エッジの重み付け部214−1−2に出力する。設定部261−1は、除算部242−1からの入力を供給しない方の重み付け部に対しては重み0を設定する。
設定部261−2は、判定部262−2の判定結果が正であるとき、除算部242−2が出力する正規化値を、凸エッジの重み付け部214−2−1に出力し、凹エッジの重み付け部214−2−2には重み0を設定する。逆に判定結果が負であるとき、設定部261−2は、除算部242−2の出力を、凹エッジの重み付け部214−2−2に出力し、凸エッジの重み付け部214−2−1には重み0を設定する。
同様に、設定部261−3は、判定部262−3の判定結果が正であるとき、除算部242−3の出力する正規化値を凸エッジの重み付け部214−3−1に出力し、凹エッジの重み付け部214−3−2には重み0を設定する。逆に判定部262−3の判定結果が負であるとき、設定部261−3は、除算部242−3の出力する正規化値を凹エッジの重み付け部214−3−2に出力し、凸エッジの重み付け部214−3−1には重み0を設定する。設定部261−4は、判定部262−4の判定結果が正であるとき、除算部242−4の出力する正規化値を凸エッジの重み付け部214−4−1に設定し、凹エッジの重み付け部214−4−2には重み0を設定する。判定結果が負であるとき、設定部261−4は、除算部242−4の出力する正規化値を重み付け部214−4−2に設定し、凸エッジの重み付け部214−4−1には重み0を設定する。
凸エッジの重み付け部214−1−1は、設定部261−1より入力された重みにより入力部211より入力されたデータを重み付けし、凸エッジの予測係数畳み込み部215−1−1に出力する。凹エッジの重み付け部214−1−2は、入力部211より入力されたデータを設定部261−1で設定された重みで重み付けし、得られた結果を凹エッジの予測係数畳み込み部215−1−2に出力する。凸エッジの重み付け部214−2−1は、入力部211より入力されたデータを設定部261−2で設定された重みで重み付けして、凸エッジの予測係数畳み込み部215−2−1に出力する。凹エッジの重み付け部214−2−2は、入力部211より入力された画像データを、設定部261−2で設定された重みで重み付けして、凹エッジの予測係数畳み込み部215−2−2に出力する。
凸エッジの重み付け部214−3−1は、入力部211より入力された画像データを設定部261−3で設定された重みで重み付けし、凸エッジの予測係数畳み込み部215−3−1に出力する。凹エッジの重み付け部214−3−2は、入力部211より入力された画像データを設定部261−3で設定された重みで重み付けし、凹エッジの予測係数畳み込み部215−3−2に出力する。凸エッジの重み付け部214−4−1は、入力部211より入力された画像データを設定部261−4より入力された重みで重み付けし、凸エッジの予測係数畳み込み部215−4−1に出力する。凹エッジの重み付け部214−4−2は、入力部211より入力された画像データを設定部261−4で設定された重みで重み付けし、凹エッジの予測係数畳み込み部215−4−2に出力する。
すなわち、以上のエッジ検出部231−1乃至231−4、絶対値演算部241−1乃至241−4、除算部242−1乃至242−4、加算部243、設定部261−1乃至261−4、判定部262−1乃至262−4、重み付け部214−1−1乃至214−4−2は、図2と図3の対応する名称の各部と同様の機能と構成を有している。
記憶部216−1−1乃至216−4−2には、図2の記憶部30−1乃至30−4で記憶された記憶値が記憶されている。
凸エッジの予測係数畳み込み部215−1−1は、記憶部216−1−1より読み出された予測係数を用いて、重み付け部214−1−1より入力された画像データ畳み込みし、その得られた結果(図1の入力部21より出力される教師画像に対応する高い解像度の画像のデータ)を加算部217に出力する。凹エッジの予測係数畳み込み部215−1−2は、記憶部216−1−2より読み出された予測係数を用いて、重み付け部214−1−2より入力された画像データを畳み込みし、得られた画像データを加算部217に出力する。
凸エッジの予測係数畳み込み部215−2−1は、記憶部216−2−1より読み出された凸エッジの予測係数を用いて、重み付け部214−2−1より入力された画像データを畳み込みし、得られた画像データを加算部217に出力する。凹エッジの予測係数畳み込み部215−2−2は、記憶部216−2−2より読み出された予測係数を用いて、重み付け部214−2−2より入力された画像データを畳み込みし、得られた画像データを加算部217に出力する。
凸エッジの予測係数畳み込み部215−3−1は、記憶部216−3−1より読み出された予測係数を用いて、重み付け部214−3−1より入力された画像データを畳み込みし、得られた画像データを加算部217に出力する。凹エッジの予測係数畳み込み部215−3−2は、記憶部216−3−2より読み出された予測係数を用いて、重み付け部214−3−2より入力された画像データを畳み込みし、得られた画像データを加算部217に出力する。凸エッジの予測係数畳み込み部215−4−1は、記憶部216−4−1より読み出された予測係数を用いて、重み付け部214−4−1より供給された画像データを畳み込みし、生成されたデータを加算部217に出力する。同様に、凹エッジの予測係数畳み込み部215−4−2は、記憶部216−4−2より読み出された予測係数を用いて、重み付け部214−4−2により供給された画像データを畳み込みし、生成された画像データを加算部217に出力する。
加算部217は、予測係数畳み込み部215−1−1乃至215−4−2より供給された画像データを加算し、その加算結果(教師画像に対応する高解像度の画像データ)を出力部218に出力する。出力部218は、加算部217より供給された加算値(画像データ)を図示せぬ装置に出力し、表示させたり、記録させたりする。
次に、図12のフローチャート参照して、画像処理装置201の予測処理(低解像度の画像から高解像度の画像を予測生成する処理)について説明する。
ステップS51において、入力部211は画像データを入力する。ステップS52においてエッジクラス所属度演算部212は、クラス所属度算出処理を実行する。このクラス所属度算出処理は、図6のフローチャートを参照して説明した場合と同様の処理であり、その説明は省略するが、これにより、画像の各クラスへの所属度に応じた重みが重み付け部214−1−1乃至214−4−2に設定される。
ステップS53において、重み付け部214−1−1乃至214−4−2は画像データへの重み付けを行う。すなわち重み付け部214−1−1乃至214−4−2は、それぞれ設定部261−1乃至261−4により設定された重みにより、入力部211より入力された画像データを重み付けし、対応するクラスの予測係数畳み込み部215−1−1乃至215−4−2に出力する。
ステップS54において、予測係数畳み込み部215−1−1乃至215−4−2は、対応する記憶部216−1−1乃至216−4−2より予測係数を読み出す。ステップS55において、予測係数畳み込み部215−1−1乃至215−4−2は予測係数を畳み込む。具体的には、上述した式(1)乃至式(4)において、入力画像の画素値をxに代入し、予測係数をWに代入して、教師画像の画素値としての予測値yを求める。
次に、ステップS56において、予測係数畳み込み部215−1−1乃至215−4−2は、すべてのクラスの予測値が求められたかを判定する。まだ、すべてのクラスの予測値が求められていない場合、処理はステップS51に戻り、それ以降の処理が繰り返し実行される。すべてのクラスの予測値が求められたと判定された場合、ステップS57において、加算部217は各クラスの予測値を加算する。具体的には、予測係数畳み込み部215−1−1乃至215−4−2より出力された予測値が加算される。ステップ58において、加算部217は、すべての画像データに対する処理が終了かを判定する。まだ、すべての画像データに対する処理が終了していない場合には、処理はステップS51戻り、それ以降の処理が繰り返される。すべての画像データに対する処理が終了したと判定された場合、処理は終了される。
図13A乃至図13Dは、5×5タップで構成されるエッジ検出用オペレータの例を表している。図13Aは、横方向エッジ検出用のオペレータであり、図13Bは、縦方向エッジ検出用のオペレータであり、図13Cは45度右上がりエッジ検出用のオペレータであり、図13Dは45度左上がりエッジ検出用のオペレータである。このように、タップ範囲を大きくすると、より広範囲な情報を取得することが可能となる。その反面、図14Aと図14Bに示されるように、微妙なエッジも(エッジではない可能性がある場合でも)縦エッジとして分類されてしまい、画像の微小な変化を学習することが困難になる。その結果、縦エッジに分類されるパターンにクラスの混ざりが生じる。
しかしながら、オペレータのタップサイズを、3×3タップから5×5タップというように、大きい値に変更した場合にも、1ビットADRC(Adaptive Dynamic Range Coding)でクラス分類する場合のように、クラス数が増加することはなく、クラス数をハードウエア化が可能な範囲に抑えることが可能となる。
以上のようにして、クラス分類の際に任意のタップサイズのオペレータを使用してもクラス数を少なく抑えることが可能となる。クラスへの分類は、所属度として表現されるため、入力データをすべて学習に利用できるようになり、クラス数を増やすと学習データが不足するという問題がなくなる。1つの入力データについて複数の予測器で予測を行うため、予測誤差の分散が少なくなり、予測精度の向上(高画質化)が期待できる。画像のエッジなどの視覚的に重要な部分の画質を選択的に向上させることが可能となる。
以上においては、エッジ検出用のオペレータによりエッジを検出するようにしたが、2次元ウェーブレット関数を用いてエッジを検出することも可能である。
2次元ウェーブレット関数は、以下の式で表される。まず2次元平面上でx方向に振動する波を考える。この波は次式で表される。
exp(iωx)=cos(ωx)−isin(ωx)・・・(7)
式(7)のωは振動数を表し、iは虚数単位である。
次に2次元のガウス窓を用意する。
Figure 0004561273
式(8)のσはガウス窓の幅である。
平面上の波を原点を中心としてθ回転させ、さらにガウス窓をかけることで、以下のようにガボールウェーブレット関数を求めることができる。
Figure 0004561273
Figure 0004561273
ω=1として、関数の実部をプロットしたものが、図15乃至図19に示されている。
適当なσ,θを選び、画像との畳み込みを行うことで、微分型のエッジオペレータと同様に、局所におけるエッジ成分の特徴量を求めることが可能となる。σは局所におけるエッジ成分の太さ、θはその方向を表している。
例えば、
σ=0,1、
θ=0,30,60,90,120,150(度)
でフィルタを作れば、2種類の太さのエッジを6方向で検出することが可能となる。画像と畳み込みを行った値によって各クラスへの所属度が求められる。
以上においては、学習と予測を異なる装置で行うようにしたが、同一の装置で行うようにしてもよい。
図15は、σ=0,θ=0の場合の例を表し、図16は、σ=0,θ=30の場合の例を表し、図17は、σ=0,θ=60の場合の例を表し、図18は、σ=1,θ=0の場合の例を表し、そして図19は、σ=2,θ=0の場合の例を表している。
ウェーブレット変換により特徴量を抽出することにより、エッジの幅、回転方向を柔軟に検出することができる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
本発明は、画像処理装置に適用することが可能である。
本発明を適用した画像処理装置の構成を示すブロック図である。 図1のエッジクラス所属度演算部、判定設定部、重み付け部、足し込み部、予測係数演算部、および記憶部のより詳細な構成を示すブロック図である。 図1の正規化部、判定設定部のより詳細な構成を示すブロック図である。 図1の重み付け部のより詳細な構成を示すブロック図である。 図1の画像処理装置の学習処理を説明するフローチャートである。 図5のステップS3のクラス所属度算出処理の詳細を示すフローチャートである。 エッジ検出オペレータの構成例を示す図である。 画像データの例を示す図である。 データの重み付けを説明する図である。 各クラスへの所属度を説明する図である。 本発明を適用した画像処理装置の他の構成を示すブロック図である。 図11の画像処理装置の予測処理を説明するフローチャートである。 エッジ検出オペレータの他の例を示す図である。 エッジの例を示すである。 ウェーブレット関数の例を示す図である。 ウェーブレット関数の例を示す図である。 ウェーブレット関数の例を示す図である。 ウェーブレット関数の例を示す図である。 ウェーブレット関数の例を示す図である。
符号の説明
11 画像処理装置, 21 入力部, 22,23 重み付け部, 24 生徒画像生成部, 25 エッジクラス所属度演算部, 26 判定設定部, 27 重み付け部, 28 足し込み部, 29 予測係数演算部, 30 記憶部, 31 重み付け部, 32 足し込み部, 33 予測係数演算部, 34 記憶部

Claims (20)

  1. 入力された学習用の画像情報の複数のクラスの特徴を検出する特徴検出手段と、
    検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算手段と、
    入力された学習用の画像情報を前記所属度に基づいて重み付けする重み付け手段と、
    重み付けされた前記画像情報に基づき、複数の前記クラス毎の予測係数を演算する予測係数演算手段と
    を備え
    前記特徴検出手段は、入力された学習用の画像情報のうちの生徒画像情報の特徴を検出し、
    前記所属度演算手段は、前記生徒画像情報の特徴の複数の前記クラスに対する所属度を演算し、
    前記重み付け手段は、入力された学習用の画像情報のうちの教師画像情報と前記生徒画像情報を前記所属度に基づいて重み付けし、
    前記予測係数演算手段は、重み付けされた前記教師画像情報と前記生徒画像情報を足し込むことで生成した足し込み行列を解くことで、複数の前記クラス毎の予測係数を演算する
    像処理装置。
  2. 前記特徴検出手段は、前記画像情報の複数のクラスの特徴として、前記画像情報の予め定められている複数の方向のエッジの成分を検出する
    求項1に記載の画像処理装置。
  3. 前記特徴検出手段は、前記画像情報に各方向毎のエッジ検出用オペレータを畳み込み演算することで前記エッジの成分を検出する
    求項に記載の画像処理装置。
  4. 検出された前記エッジの成分の極性を判定し、判定された前記極性に基づいて、前記エッジ検出用オペレータに対応する一方のクラスの重みに前記所属度に基づく重みを設定し、他方のクラスの重みに0を設定する判定設定手段
    をさらに備える求項に記載の画像処理装置。
  5. 前記特徴検出手段は、複数の異なるパラメータを設定した2次元ウェーブレット関数を前記画像情報に畳み込み演算することで前記エッジの成分を検出する
    求項に記載の画像処理装置。
  6. 前記特徴検出手段は、水平方向、垂直方向、45度右上がりの方向、および45度左上がりの方向の4つの方向の前記エッジの成分を検出する
    求項に記載の画像処理装置。
  7. 前記所属度演算手段は、
    前記エッジの成分の絶対値を演算する絶対値演算手段と、
    前記エッジの成分の前記絶対値の総和を演算する総和演算手段と、
    前記エッジの成分のそれぞれを前記総和で除算する除算手段と
    を備える求項に記載の画像処理装置。
  8. 前記予測係数を記憶する記憶手段をさらに備える
    求項1に記載の画像処理装置。
  9. 特徴検出手段が、入力された学習用の画像情報の複数のクラスの特徴を検出する特徴検出ステップと、
    所属度演算手段が、検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算ステップと、
    重み付け手段が、入力された学習用の画像情報を前記所属度に基づいて重み付けする重み付けステップと、
    予測係数演算手段が、重み付けされた前記画像情報に基づき、複数の前記クラス毎の予測係数を演算する予測係数演算ステップと
    を含み、
    前記特徴検出ステップは、入力された学習用の画像情報のうちの生徒画像情報の特徴を検出し、
    前記所属度演算ステップは、前記生徒画像情報の特徴の複数の前記クラスに対する所属度を演算し、
    前記重み付けステップは、入力された学習用の画像情報のうちの教師画像情報と前記生徒画像情報を前記所属度に基づいて重み付けし、
    前記予測係数演算ステップは、重み付けされた前記教師画像情報と前記生徒画像情報を足し込むことで生成した足し込み行列を解くことで、複数の前記クラス毎の予測係数を演算する
    画像処理装置の画像処理方法。
  10. コンピュータを、
    入力された学習用の画像情報の複数のクラスの特徴を検出する特徴検出手段と、
    検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算手段と、
    入力された学習用の画像情報を前記所属度に基づいて重み付けする重み付け手段と、
    重み付けされた前記画像情報に基づき、複数の前記クラス毎の予測係数を演算する予測係数演算手段
    として機能させるプログラムであって、
    前記特徴検出手段は、入力された学習用の画像情報のうちの生徒画像情報の特徴を検出し、
    前記所属度演算手段は、前記生徒画像情報の特徴の複数の前記クラスに対する所属度を演算し、
    前記重み付け手段は、入力された学習用の画像情報のうちの教師画像情報と前記生徒画像情報を前記所属度に基づいて重み付けし、
    前記予測係数演算手段は、重み付けされた前記教師画像情報と前記生徒画像情報を足し込むことで生成した足し込み行列を解くことで、複数の前記クラス毎の予測係数を演算する
    プログラム
  11. 入力された画像情報の複数のクラスの特徴を検出する特徴検出手段と、
    検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算手段と、
    入力された画像情報を複数の前記所属度に基づいて重み付けする重み付け手段と、
    複数の前記クラス毎の予測係数を提供する提供手段と、
    重み付けされた複数の前記画像情報のそれぞれと、提供された複数の前記クラス毎の前記予測係数とに基づいて、複数の前記クラス毎の予測画像情報を演算する予測画像情報演算手段と、
    複数の前記クラス毎の予測画像情報を加算する加算手段と
    を備える像処理装置。
  12. 前記特徴検出手段は、前記画像情報の複数のクラスの特徴として、前記画像情報の予め定められている複数の方向のエッジの成分を検出する
    求項1に記載の画像処理装置。
  13. 前記特徴検出手段は、前記画像情報に各方向毎のエッジ検出用オペレータを畳み込み演算することで前記エッジの成分を検出する
    求項1に記載の画像処理装置。
  14. 検出された前記エッジの成分の極性を判定し、判定された前記極性に基づいて、前記エッジ検出用オペレータに対応する一方のクラスの重みに前記所属度に基づく重みを設定し、他方のクラスの重みに0を設定する判定設定手段
    をさらに備える求項1に記載の画像処理装置。
  15. 前記特徴検出手段は、複数の異なるパラメータを設定した2次元ウェーブレット関数を
    前記画像情報に畳み込み演算することで前記エッジの成分を検出する
    求項1に記載の画像処理装置。
  16. 前記特徴検出手段は、水平方向、垂直方向、45度右上がりの方向、および45度左上がりの方向の4つの方向の前記エッジの成分を検出する
    求項1に記載の画像処理装置。
  17. 前記所属度演算手段は、
    前記エッジの成分の絶対値を演算する絶対値演算手段と、
    前記エッジの成分の前記絶対値の総和を演算する総和演算手段と、
    前記エッジの成分のそれぞれを前記総和で除算する除算手段と
    を備える求項1に記載の画像処理装置。
  18. 前記提供手段は、前記予測係数を予め記憶している
    求項1に記載の画像処理装置。
  19. 特徴検出手段が、入力された画像情報の複数のクラスの特徴を検出する特徴検出ステップと、
    所属度演算手段が、検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算ステップと、
    重み付け手段が、入力された画像情報を複数の前記所属度に基づいて重み付けする重み付けステップと、
    提供手段が、複数の前記クラス毎の予測係数を提供する提供ステップと、
    予測画像情報演算手段が、重み付けされた複数の前記画像情報のそれぞれと、提供された複数の前記クラス毎の前記予測係数とに基づいて、複数の前記クラス毎の予測画像情報を演算する予測画像情報演算ステップと、
    前記加算手段が、複数の前記クラス毎の予測画像情報を加算する加算ステップと
    を含む画像処理装置の画像処理方法。
  20. コンピュータを、
    入力された画像情報の複数のクラスの特徴を検出する特徴検出手段と、
    検出された前記特徴の複数の前記クラスに対する所属度を演算する所属度演算手段と、
    入力された画像情報を複数の前記所属度に基づいて重み付けする重み付け手段と、
    複数の前記クラス毎の予測係数を提供する提供手段と、
    重み付けされた複数の前記画像情報のそれぞれと、提供された複数の前記クラス毎の前記予測係数とに基づいて、複数の前記クラス毎の予測画像情報を演算する予測画像情報演算手段と、
    複数の前記クラス毎の予測画像情報を加算する加算手段
    として機能させるプログラム。
JP2004274798A 2004-09-22 2004-09-22 画像処理装置および方法、並びにプログラム Expired - Fee Related JP4561273B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004274798A JP4561273B2 (ja) 2004-09-22 2004-09-22 画像処理装置および方法、並びにプログラム
US11/224,979 US7840094B2 (en) 2004-09-22 2005-09-14 Image processing apparatus and method, and recording medium having a program recorded therein
CNB2005101063780A CN100502489C (zh) 2004-09-22 2005-09-22 图像处理装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004274798A JP4561273B2 (ja) 2004-09-22 2004-09-22 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2006092095A JP2006092095A (ja) 2006-04-06
JP4561273B2 true JP4561273B2 (ja) 2010-10-13

Family

ID=36074066

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004274798A Expired - Fee Related JP4561273B2 (ja) 2004-09-22 2004-09-22 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US7840094B2 (ja)
JP (1) JP4561273B2 (ja)
CN (1) CN100502489C (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009258770A (ja) * 2006-08-08 2009-11-05 Nikon Corp 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP2009258771A (ja) * 2006-08-08 2009-11-05 Nikon Corp 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
CN101216890B (zh) * 2008-01-09 2011-02-16 北京中星微电子有限公司 一种彩色图像分割方法
JP5558431B2 (ja) * 2011-08-15 2014-07-23 株式会社東芝 画像処理装置、方法及びプログラム
GB2497516A (en) * 2011-12-05 2013-06-19 Univ Lincoln Generating training data for automation of image analysis
JP2014230176A (ja) 2013-05-23 2014-12-08 ソニー株式会社 画像信号処理装置、画像信号処理方法、撮像装置および画像表示方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0500315B1 (en) * 1991-02-18 1999-07-21 Sumitomo Cement Co. Ltd. Method of optical recognition and classification of pattern
JP3326879B2 (ja) * 1993-06-14 2002-09-24 ソニー株式会社 画像信号変換装置
JPH0750752A (ja) * 1993-08-06 1995-02-21 Fuji Xerox Co Ltd 画像密度変換方法及び装置
JP3864444B2 (ja) * 1995-12-20 2006-12-27 ソニー株式会社 画像信号処理装置および方法
JP3570604B2 (ja) * 1997-06-26 2004-09-29 オムロン株式会社 認識方法及び装置、並びに、同装置を実現するためのコンピュータプログラムを記録させた記録媒体
US6233060B1 (en) * 1998-09-23 2001-05-15 Seiko Epson Corporation Reduction of moiré in screened images using hierarchical edge detection and adaptive-length averaging filters
US6185336B1 (en) * 1998-09-23 2001-02-06 Xerox Corporation Method and system for classifying a halftone pixel based on noise injected halftone frequency estimation
US6987884B2 (en) * 2000-08-07 2006-01-17 Sony Corporation Image processing device and method, and recorded medium
JP3659157B2 (ja) * 2000-10-17 2005-06-15 日本電気株式会社 映像内容に重み付けをする画像圧縮方式
KR100481933B1 (ko) * 2000-12-14 2005-04-13 마츠시다 덴코 가부시키가이샤 영상 처리기 및 이를 이용한 패턴 인식 장치
US7194134B2 (en) * 2001-01-02 2007-03-20 Microsoft Corporation Hierarchical, probabilistic, localized, semantic image classifier
US20020191104A1 (en) * 2001-03-26 2002-12-19 Mega Chips Corporation Image conversion device, image conversion method and data conversion circuit as well as digital camera
US6782136B1 (en) * 2001-04-12 2004-08-24 Kt-Tech, Inc. Method and apparatus for encoding and decoding subband decompositions of signals
JP4691835B2 (ja) * 2001-06-12 2011-06-01 ソニー株式会社 係数データの生成装置および生成方法、それを使用した情報信号の処理装置および処理方法、それに使用する係数データの取得装置および取得方法、並びに情報記録媒体
US7035467B2 (en) * 2002-01-09 2006-04-25 Eastman Kodak Company Method and system for processing images for themed imaging services
JP3697459B2 (ja) * 2002-09-18 2005-09-21 コニカミノルタフォトイメージング株式会社 画像処理方法及び画像処理装置
US7170561B2 (en) * 2003-12-04 2007-01-30 Lsi Logic Corporation Method and apparatus for video and image deinterlacing and format conversion
CN100369478C (zh) * 2004-02-18 2008-02-13 华亚微电子(上海)有限公司 基于方向性插值的图像边缘平滑方法
US7359555B2 (en) * 2004-10-08 2008-04-15 Mitsubishi Electric Research Laboratories, Inc. Detecting roads in aerial images using feature-based classifiers
US7738739B2 (en) * 2006-01-26 2010-06-15 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and apparatus for adjusting the resolution of a digital image

Also Published As

Publication number Publication date
JP2006092095A (ja) 2006-04-06
US20060062477A1 (en) 2006-03-23
CN1753484A (zh) 2006-03-29
CN100502489C (zh) 2009-06-17
US7840094B2 (en) 2010-11-23

Similar Documents

Publication Publication Date Title
US9179092B2 (en) System and method producing high definition video from low definition video
US7885455B2 (en) Method of combining images of multiple resolutions to produce an enhanced active appearance model
Irani et al. Factorization with uncertainty
Zhou et al. Bayesian low-tubal-rank robust tensor factorization with multi-rank determination
Srivastava et al. Monte Carlo extrinsic estimators of manifold-valued parameters
Kim et al. Elastic-net regularization of singular values for robust subspace learning
US20090028465A1 (en) Image upscaling technique
Morillas et al. Isolating impulsive noise pixels in color images by peer group techniques
KR20070094520A (ko) 화상 처리 장치 및 화상 처리 방법과 프로그램
JP4561273B2 (ja) 画像処理装置および方法、並びにプログラム
JP4513034B2 (ja) 画像信号処理装置、画像信号処理方法、およびプログラム
Camacho et al. Efficient impulsive noise suppression based on statistical confidence limits
Sabuncu et al. Gradient based nonuniform subsampling for information-theoretic alignment methods
Kim et al. Robust and sparse estimation of tensor decompositions
CN109313795B (zh) 用于超分辨率处理的方法和设备
Garcin et al. Probability density of the empirical wavelet coefficients of a noisy chaos
Khosravi et al. A new statistical technique for interpolation of landsat images
CN114519832A (zh) 基于仿射逆变换模型的视频全局运动补偿方法
Tobar et al. Recovering latent signals from a mixture of measurements using a Gaussian process prior
Berg et al. A copula goodness-of-fit approach based on the conditional probability integral transformation
Patel et al. Speed improvement in image registration using maximum likelihood based mutual information
CN116686000A (zh) 图像处理装置、程序和图像处理方法
Chunjiang A new vectorial ordering for color morphology based on marginal ordering
Gantenapalli et al. A fast method for impulse noise reduction in digital color images using anomaly median filtering
Thouvenin et al. A versatile distributed MCMC algorithm for large scale inverse problems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees