JP4882999B2 - 画像処理装置、画像処理方法、プログラム、および学習装置 - Google Patents

画像処理装置、画像処理方法、プログラム、および学習装置 Download PDF

Info

Publication number
JP4882999B2
JP4882999B2 JP2007330454A JP2007330454A JP4882999B2 JP 4882999 B2 JP4882999 B2 JP 4882999B2 JP 2007330454 A JP2007330454 A JP 2007330454A JP 2007330454 A JP2007330454 A JP 2007330454A JP 4882999 B2 JP4882999 B2 JP 4882999B2
Authority
JP
Japan
Prior art keywords
blur
image
amount
feature
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007330454A
Other languages
English (en)
Other versions
JP2009151659A (ja
Inventor
寿一 白木
哲二郎 近藤
健治 高橋
勉 渡辺
隆浩 永野
泰広 周藤
紀晃 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007330454A priority Critical patent/JP4882999B2/ja
Priority to US12/331,815 priority patent/US8331713B2/en
Priority to CNA2008101863807A priority patent/CN101465943A/zh
Priority to KR1020080130224A priority patent/KR20090068162A/ko
Publication of JP2009151659A publication Critical patent/JP2009151659A/ja
Application granted granted Critical
Publication of JP4882999B2 publication Critical patent/JP4882999B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、画像処理方法、プログラム、および学習装置に関し、特に、画像内で焦点距離の異なる被写体が複数含まれることによって生じるぼけを最適に除去することができるようにする画像処理装置、画像処理方法、プログラム、および学習装置に関する。
画像のぼけ(ボケ)を除去する様々な画像処理が提案されている。
例えば、前景や背景にそれぞれ合焦させた焦点距離の異なる複数枚の画像を撮像し、これら複数の画像から、前景や背景の被写体のぼけ具合が調整されたぼけコントロール画像を作成する方法がある(例えば、特許文献1参照)。
また、エッジの傾斜度が所定の閾値を超えているか否かによって合焦しているかどうかを小ブロック単位で判定するもので、小ブロックのばらつきなどを考慮し、閾値を最適化しつつ、合焦していると判定された小ブロックを連結して合焦領域を抽出するものがある(例えば、特許文献2参照)。
特開2002−77591号公報 特開2001−331806号公報
しかしながら、特許文献1で示される方法では、予め複数の画像を撮影することが前提となっており、既に撮影された画像や放送によって送られてくる画像に対しては処理が適用できないという問題がある。
また、特許文献2で示される方法では、合焦か否かを切り分けるため、1つの画面内でぼけ量の異なる複数の領域の判定は行っておらず、複数の領域を切り分ける場合には、閾値を複数用意しなければならないため、入力画像ごとに、閾値を精度良く最適化するのは困難であるという問題がある。
本発明は、このような状況に鑑みてなされたものであり、画像内で焦点距離の異なる被写体が複数含まれることによって生じているぼけを最適に除去することができるようにするものである。
本発明の第1の側面の画像処理装置は、入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成するボケ除去処理手段と、前記複数種類のボケ除去結果画像から特徴量を検出する特徴量検出手段と、前記特徴量よりボケ量のクラスを表すボケ量クラスを決定するボケ量クラス決定手段と、前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成する予測処理手段とを備え、前記ボケ量クラス決定手段は、入力された画像に複数種類のボケ量のボケを付加したボケ画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、前記複数種類のボケ量のそれぞれにおける、前記特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布を記憶するボケ量発生確率記憶手段を有し、前記特徴量検出手段により検出された特徴量の、前記ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量を前記ボケ量クラスとして決定する
前記特徴量検出手段には、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素それぞれについて前記特徴量を検出させ、前記ボケ量クラス決定手段には、前記特徴量検出手段により検出された前記特徴量に応じたボケ量の発生確率を同一のボケ量どうしで加算させ、その加算結果から、前記注目画素に対応するボケ量クラスを決定させることができる。
前記ボケ量クラス決定手段は、平坦な画像にノイズを付加したノイズ付加画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を予め検出することにより、ノイズにおける特徴量の発生確率を示す情報を記憶するノイズ情報記憶手段をさらに有し、前記ボケ量クラス決定手段には、前記注目画素およびその周辺の画素それぞれの特徴量のうち、前記ノイズにより発生した可能性が高い前記特徴量のボケ量の発生確率の加算は行わないようにさせることができる。
本発明の第1の側面の画像処理方法は、入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成し、前記複数種類のボケ除去結果画像から特徴量を検出し、前記特徴量よりボケ量のクラスを表すボケ量クラスを決定し、前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成し、前記ボケ量クラスを決定する場合には、検出された特徴量の、ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量を前記ボケ量クラスとして決定するステップを含み、前記ボケ量発生確率記憶手段には、入力された画像に複数種類のボケ量のボケを付加したボケ画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、前記複数種類のボケ量のそれぞれにおける、前記特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布が記憶されている。
本発明の第1の側面のプログラムは、入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成し、前記複数種類のボケ除去結果画像から特徴量を検出し、前記特徴量よりボケ量のクラスを表すボケ量クラスを決定し、前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成し、前記ボケ量クラスを決定する場合には、検出された特徴量の、ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量を前記ボケ量クラスとして決定するステップを含み、前記ボケ量発生確率記憶手段には、入力された画像に複数種類のボケ量のボケを付加したボケ画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、前記複数種類のボケ量のそれぞれにおける、前記特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布が記憶されている画像処理をコンピュータに実行させる。
本発明の第1の側面においては、入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像が生成され、複数種類のボケ除去結果画像から検出された特徴量よりボケ量のクラスを表すボケ量クラスが決定され、ボケ量クラスに対応する予め学習された予測係数と、入力画像の所定の画素の画素値との演算によりボケ除去された出力画像が生成される。ここで、ボケ量クラスを決定する場合には、検出された特徴量の、ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量をボケ量クラスとして決定し、ボケ量発生確率記憶手段には、入力された画像に複数種類のボケ量のボケを付加したボケ画像を複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、複数種類のボケ量のそれぞれにおける、特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布が記憶されている。
本発明の第2の側面の画像処理装置は、入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成するボケ除去処理手段と、前記複数種類のボケ除去結果画像から特徴量を検出する特徴量検出手段と、前記特徴量よりボケ量のクラスを表すボケ量クラスを決定するボケ量クラス決定手段と、前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成する予測処理手段とを備え、前記特徴量検出手段は、注目画素に対応する前記入力画像の画素およびその周辺の画素から第1の画像特徴を検出する第1の画像特徴検出手段と、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴を検出する第2の画像特徴検出手段とを有し、前記ボケ量クラス決定手段は、複数の画像を、画素単位で前記第1の画像特徴で分類し、その第1の画像特徴ごとに、前記第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段を有し、前記ボケ量クラス決定手段、前記第1の画像特徴検出手段により検出された第1の画像特徴に対応する第2の画像特徴の特性値を前記特徴量特性値記憶手段から取得し、前記第2の画像特徴検出手段により検出された第2の画像特徴と、取得された前記特性値とを比較することにより、前記ボケ量クラスを決定する
本発明の第の側面の画像処理方法は、入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成し、前記複数種類のボケ除去結果画像から特徴量を検出し、前記特徴量よりボケ量のクラスを表すボケ量クラスを決定し、前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成し、前記特徴量を検出する場合、注目画素に対応する前記入力画像の画素およびその周辺の画素から第1の画像特徴を検出するとともに、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴を検出し、前記ボケ量クラスを決定する場合、複数の画像を、画素単位で前記第1の画像特徴で分類し、その第1の画像特徴ごとに、前記第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段から、検出された第1の画像特徴に対応する第2の画像特徴の特性値を取得し、検出された第2の画像特徴と、取得された前記特性値とを比較することにより、前記ボケ量クラスを決定するステップを含む。
本発明の第の側面のプログラムは、入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成し、前記複数種類のボケ除去結果画像から特徴量を検出し、前記特徴量よりボケ量のクラスを表すボケ量クラスを決定し、前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成し、前記特徴量を検出する場合、注目画素に対応する前記入力画像の画素およびその周辺の画素から第1の画像特徴を検出し、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴を検出するとともに、前記ボケ量クラスを決定する場合、複数の画像を、画素単位で前記第1の画像特徴で分類し、その第1の画像特徴ごとに、前記第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段から、検出された第1の画像特徴に対応する第2の画像特徴の特性値を取得し、検出された第2の画像特徴と、取得された前記特性値とを比較することにより、前記ボケ量クラスを決定するステップを含む画像処理をコンピュータに実行させる。
本発明の第の側面においては、入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像が生成され、複数種類のボケ除去結果画像から検出された特徴量よりボケ量のクラスを表すボケ量クラスが決定され、ボケ量クラスに対応する予め学習された予測係数と、入力画像の所定の画素の画素値との演算によりボケ除去された出力画像が生成される。ここで、特徴量を検出する場合、注目画素に対応する入力画像の画素およびその周辺の画素から第1の画像特徴が検出されるとともに、注目画素に対応するボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴が検出され、ボケ量クラスを決定する場合、複数の画像が、画素単位で第1の画像特徴で分類され、その第1の画像特徴ごとに、第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段から、検出された第1の画像特徴に対応する第2の画像特徴の特性値が取得され、検出された第2の画像特徴と、取得された特性値とを比較することにより、ボケ量クラスが決定される。
本発明の第の側面の学習装置は、画像のボケを除去する画像処理装置に用いられる予測係数を学習する学習装置であって、教師画像として入力されたボケのない入力画像に対して、ボケを付加した生徒画像を生成するボケ付加手段と、前記生徒画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成するボケ除去処理手段と、前記複数種類のボケ除去結果画像から特徴量を検出する特徴量検出手段と、前記特徴量よりボケ量のクラスを表すボケ量クラスを決定するボケ量クラス決定手段と、前記生徒画像と前記教師画像を用いて、前記ボケ量クラスごとに前記予測係数を求める演算手段とを備え、前記ボケ量クラス決定手段は、入力された画像に複数種類のボケ量のボケを付加したボケ画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、前記複数種類のボケ量のそれぞれにおける、前記特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布を記憶するボケ量発生確率記憶手段を有し、前記特徴量検出手段により検出された特徴量の、前記ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量を前記ボケ量クラスとして決定する
本発明の第3の側面においては、教師画像として入力されたボケのない入力画像に対して、ボケを付加した生徒画像が生成され、その生徒画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像が生成される。そして、複数種類のボケ除去結果画像から検出された特徴量よりボケ量のクラスを表すボケ量クラスが決定され、生徒画像と教師画像を用いて、ボケ量クラスごとに予測係数を求められる。ここで、ボケ量クラスを決定する場合、入力された画像に複数種類のボケ量のボケを付加したボケ画像を複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、複数種類のボケ量のそれぞれにおける、特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布を記憶するボケ量発生確率記憶手段のうち、検出された特徴量の確率分布より、最も発生確率の高いボケ量がボケ量クラスとして決定される
前記特徴量検出手段には、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素それぞれについて前記特徴量を検出させ、前記ボケ量クラス決定手段には、前記特徴量検出手段により検出された前記特徴量に応じたボケ量の発生確率を同一のボケ量どうしで加算させ、その加算結果から、前記注目画素に対応するボケ量クラスを決定させることができる。
前記ボケ量クラス決定手段は、平坦な画像にノイズを付加したノイズ付加画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を予め検出することにより、ノイズにおける特徴量の発生確率を示す情報を記憶するノイズ情報記憶手段をさらに有し、前記ボケ量クラス決定手段には、前記注目画素およびその周辺の画素それぞれの特徴量のうち、前記ノイズにより発生した可能性が高い前記特徴量のボケ量の発生確率の加算は行わないようにさせることができる。
本発明の第4の側面の学習装置は、画像のボケを除去する画像処理装置に用いられる予測係数を学習する学習装置であって、教師画像として入力されたボケのない入力画像に対して、ボケを付加した生徒画像を生成するボケ付加手段と、前記生徒画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成するボケ除去処理手段と、前記複数種類のボケ除去結果画像から特徴量を検出する特徴量検出手段と、前記特徴量よりボケ量のクラスを表すボケ量クラスを決定するボケ量クラス決定手段と、前記生徒画像と前記教師画像を用いて、前記ボケ量クラスごとに前記予測係数を求める演算手段とを備え、前記特徴量検出手段は、注目画素に対応する前記入力画像の画素およびその周辺の画素から第1の画像特徴を検出する第1の画像特徴検出手段と、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴を検出する第2の画像特徴検出手段とを有し、前記ボケ量クラス決定手段は、複数の画像を、画素単位で前記第1の画像特徴で分類し、その第1の画像特徴ごとに、前記第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段を有し、前記ボケ量クラス決定手段、前記第1の画像特徴検出手段により検出された第1の画像特徴に対応する第2の画像特徴の特性値を前記特徴量特性値記憶手段から取得し、前記第2の画像特徴検出手段により検出された第2の画像特徴と、取得された前記特性値とを比較することにより、前記ボケ量クラスを決定する
本発明の第の側面においては、教師画像として入力されたボケのない入力画像に対して、ボケを付加した生徒画像が生成され、その生徒画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像が生成される。そして、複数種類のボケ除去結果画像から検出された特徴量よりボケ量のクラスを表すボケ量クラスが決定され、生徒画像と教師画像を用いて、ボケ量クラスごとに予測係数を求められる。ここで、特徴量を検出する場合、注目画素に対応する入力画像の画素およびその周辺の画素から第1の画像特徴が検出され、注目画素に対応するボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴が検出され、ボケ量クラスを決定する場合、複数の画像が、画素単位で第1の画像特徴で分類され、その第1の画像特徴ごとに、第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段から、検出された第1の画像特徴に対応する第2の画像特徴の特性値が取得され、検出された第2の画像特徴と、取得された特性値とを比較することにより、ボケ量クラスが決定される。
本発明の第1の側面によれば、画像内で焦点距離の異なる被写体が複数含まれることによって生じているぼけを最適に除去する。
本発明の第2の側面によれば、画像内で焦点距離の異なる被写体が複数含まれることによって生じているぼけを最適に除去する画像処理装置に用いられる予測係数を求めることができる。
図1は、本発明を適用した画像処理装置の一実施の形態の構成例を示している。
図1の画像処理装置1は、除去係数ROM10、ぼけ除去処理部11a乃至11f、注目画素設定部12、ぼけ量クラス生成部13、予測係数ROM14、および予測処理部15により構成されている。
画像処理装置1には、被写体とカメラの距離に応じてぼけ量の異なるオブジェクト領域が複数存在する画像が入力画像として供給され、画像処理装置1は、入力画像のぼけ(ボケ)を除去した画像を出力画像として出力する。
図2は、画像処理装置1に入力される入力画像の例である。
図2に示される画像(入力画像)は、所定の平面22上に載置されている、おもちゃの飛行機21(以下、単に飛行機21という)をカメラで撮像して得られた画像である。この画像において、例えば、平面22の一部の領域31、飛行機21の一部の領域32、および、飛行機21の背景23の一部の領域33に注目すると、領域31乃至33では、各領域に含まれる被写体とカメラとの距離が異なる。したがって、領域31乃至33それぞれの画像のぼけ量も互いに異なっており、このような、被写体(オブジェクト)とカメラの距離に応じてぼけ量の異なるオブジェクト領域が複数存在する画像が画像処理装置1の処理対象の画像として入力される。
図1に戻り、除去係数ROM10は、ぼけ除去処理部11a乃至11fで使用されるぼけ除去係数を記憶する。なお、ぼけ除去係数は、ぼけ除去処理部11a乃至11fごとに、それぞれ異なるものである。
ぼけ除去処理部11a乃至11fは、入力画像に対して所定のぼけ量を除去するぼけ除去処理を施した結果であるぼけ除去結果画像(以下、単にぼけ除去画像という)をぼけ量クラス生成部13に供給する。ぼけ除去処理部11a乃至11fでは、入力画像に対してぼけ除去処理を施すときのぼけ量が異なる。例えば、ぼけ除去処理部11aは、入力画像に対してぼけ量aのぼけを除去するぼけ除去処理を施し、ぼけ除去処理部11bは、入力画像に対してぼけ量bのぼけを除去するぼけ除去処理を施す。ぼけ除去処理部11c乃至11fが除去するぼけ量は、それぞれ同様に、ぼけ量c乃至fであり、例えば、ぼけ量a乃至fは、ぼけ量a,b,c,d,e,fの順に小さいとする。
ぼけ除去処理部11aは、入力画像の各画素を順に注目画素に設定し、注目画素に対して所定の領域内の画素(の画素値)を予測タップとして抽出する。また、ぼけ除去処理部11aは、注目画素に対して所定の領域内の画素(の画素値)を、注目画素を所定のクラスに分類するためのクラスタップとして抽出する。クラスタップと予測タップは、同一であっても異なっていてもよい。そして、ぼけ除去処理部11aは、クラスタップから決定されるクラスコードに対応するぼけ量a用のぼけ除去係数を除去係数ROM10から取得し、予測タップを構成する画素の画素値と、除去係数ROM10から取得したぼけ量a用のぼけ除去係数との積和演算を行うことにより、ぼけ量aのぼけを除去したときの注目画素の画素値を求める。
ここで、予測タップを構成する画素の画素値をx1乃至xNとし、除去係数ROM10から供給された所定のクラスのぼけ量a用のぼけ除去係数をw1乃至wNとすると、ぼけ量aのぼけを除去したときの注目画素の画素値yを求める積和演算は、次式で表すことができる。
y=w11+w22+・・・+wNN ・・・・・(1)
ぼけ除去処理部11b乃至11fも、ぼけ量が異なる以外は、ぼけ除去処理部11aと同様の処理を行う。即ち、ぼけ除去処理部11b乃至11fは、それぞれ、ぼけ量b乃至f用のぼけ除去係数を除去係数ROM10から取得して、予測タップの画素値と積和演算を行う。
注目画素設定部12は、出力画像を構成する各画素を順に注目画素に設定する。ぼけ量クラス生成部13、予測係数ROM14、および予測処理部15では、注目画素設定部12により設定された注目画素に対して、処理が行われる。ぼけ量クラス生成部13において注目画素に対して所定の処理を実行する場合には、ぼけ除去処理部11a乃至11fによるぼけ除去画像が出力されていなければならないので、ぼけ除去処理部11a乃至11fの内部で設定される上述した注目画素と、注目画素設定部12により設定される注目画素は、それぞれ異なる(独立した)ものであり、以下において、注目画素とは、注目画素設定部12により設定される注目画素のことをいう。
ぼけ量クラス生成部13は、ぼけ除去処理部11a乃至11fからそれぞれ供給されるぼけ除去画像を用いて、注目画素のぼけ量を所定のクラスに分類し、その結果としてのぼけ量クラスコードを予測係数ROM14に供給する。ぼけ量クラス生成部13が、どのようにして、注目画素のぼけ量を表すぼけ量クラスコードを算出するかについては、図6以降を参照して後述する。
予測係数ROM14は、図24を参照して後述する予測係数学習装置221により求められる各ぼけ量クラスに対応する予測係数を記憶する。そして、予測係数ROM14は、ぼけ量クラス生成部13から所定のぼけ量クラスコードが供給されると、そのぼけ量クラスコードに対応する予測係数を予測処理部15に供給する。
予測処理部15は、注目画素に対して所定の領域を予測タップ範囲とし、その予測タップ範囲に含まれる入力画像の各画素を予測タップとして、(1)式と同様の、予測タップの画素値と予測係数との積和演算により、出力画像となる注目画素の画素値を算出する。
次に、除去係数ROM10に記憶されるぼけ除去係数の生成方法について説明する。
図3は、除去係数ROM10に記憶されるぼけ除去係数を求める、ぼけ除去係数学習装置41の構成例を示すブロック図である。
ぼけ除去係数学習装置41は、ぼけ付加部42と学習部43とで構成されている。
ぼけ除去係数学習装置41には、ぼけのない画像が教師画像(入力画像)として入力され、ぼけ付加部42と学習部43に供給される。
ぼけ付加部42は、入力画像に対して、擬似的にぼけを付加し、ぼけが生じている画像を生成して、生徒画像として学習部43に供給する。具体的には、ほけ付加部42は、次式(2)に従って、生徒画像を生成する。
Figure 0004882999
式(2)におけるX(x+i,y+j)は、座標X(x+i,y+j)のぼけが発生していない教師画像の画素値を表し、これに重み付け係数W(i,j)を乗算した値をたたみ込むことで、ぼけが発生した生徒画像の画素値Y(x,y)が発生するものとされる。そして、重み付け係数W(i,j)は、次式に示されるように、レンズの焦点ずれによるぼけを表したガウス関数とされる。
Figure 0004882999
パラメータσは、ぼけに対応するパラメータであり、パラメータσの値が大きくなるほど、ぼけも大きくなる。逆に、パラメータσの値が小さいと、ぼけも小さくなる。
式(2)と式(3)によれば、x座標がx+iで、y座標がy+jの位置にある画素から、x座標がxで、y座標がyの位置にある注目画素に拡散される画素値を積算することにより、ぼけ付加後の注目画素の画素値が求められる。
学習部43は、入力画像を教師画像、ぼけ付加部42から供給される画像を生徒画像として、正規方程式を立てて、最小自乗法で学習処理を行うことにより、ぼけ除去係数を算出する。以下、正規方程式を立てて解く、ぼけ除去係数の求め方について簡単に説明する。なお、予測処理部15が予測係数ROM14から取得して、予測タップの画素値との積和演算に使用する予測係数の求め方も同様である。
上述した式(1)は、次式(1’)で表すことができる。
Figure 0004882999
但し、式(1’)において、xnは、ぼけのない教師画像の画素(以下、適宜、高画質画素という)yについての予測タップを構成する、n番目のぼけが付加された生徒画像の画素(以下、適宜、低画質画素という)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目のぼけ除去係数(予測係数)を表す。
いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1’)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。
Figure 0004882999
いま、式(4)の予測値yk'は、式(1’)にしたがって求められるため、式(4)のyk'を、式(1’)にしたがって置き換えると、次式が得られる。
Figure 0004882999
但し、式(5)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。
式(5)(または式(4))の予測誤差ekを0とするぼけ除去係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなぼけ除去係数wnを求めることは、一般には困難である。
そこで、ぼけ除去係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なぼけ除去係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
Figure 0004882999
但し、式(6)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。
式(6)の自乗誤差の総和Eの最小値(極小値)は、式(7)に示すように、総和Eをぼけ除去係数wnで偏微分したものを0とするwnによって与えられる。
Figure 0004882999
そこで、上述の式(5)をぼけ除去係数wnで偏微分すると、次式が得られる。
Figure 0004882999
式(7)と(8)から、次式が得られる。
Figure 0004882999
式(9)のekに、式(5)を代入することにより、式(9)は、式(10)に示す正規方程式で表すことができる。
Figure 0004882999
式(10)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、ぼけ除去係数wnについて解くことができる。
式(10)の正規方程式を、クラスごとにたてて解くことにより、最適なぼけ除去係数(ここでは、自乗誤差の総和Eを最小にするぼけ除去係数)wnを、クラスごとに求めることができ、以上のように求められたぼけ除去係数が除去係数ROM10に記憶されている。
ここで、除去係数ROM10に記憶されているぼけ除去係数は、パラメータσを、例えば、σ=0.3,0.6,1.2,1.8,2.4,2.7にしたときのぼけ除去係数であるとする。即ち、ぼけ除去処理部11aがσ=0.3、ぼけ除去処理部11bがσ=0.6、ぼけ除去処理部11cがσ=1.2、ぼけ除去処理部11dがσ=1.8、ぼけ除去処理部11eがσ=2.4、ぼけ除去処理部11fがσ=2.7に対応するぼけ除去処理を行う。
図4は、予測処理部15が注目画素に対して設定する予測タップの例を示している。
予測処理部15は、学習において用いたぼけパラメータσのうちの最大となるぼけパラメータσmax(上述の例ではσmax=2.7)によって、予測タップ範囲を決定する。より具体的には、予測処理部15は、注目画素を中心に半径を3×σmaxとした円内の範囲を予測タップ範囲とする。これは、σmaxでぼけた領域に対して、十分なぼけ除去結果を得るためには、3×σmaxを半径とする程度の予測タップが必要だからである。例えば、図3は、σmax=3.0とした場合の予測タップを示している。
図5のフローチャートを参照して、図1の画像処理装置1による画像処理(ぼけ除去処理)について説明する。
初めに、ステップS1において、ぼけ除去処理部11a乃至11fは、それぞれ、入力画像に対して、ぼけ量a乃至fのぼけを除去するぼけ除去処理を施し、ぼけ量a乃至fに対応したぼけ除去画像を、ぼけ量クラス生成部13に供給する。
ステップS2において、注目画素設定部12は、出力画像の所定の画素を注目画素に設定する。
ステップS3において、ぼけ量クラス生成部13は、ぼけ除去処理部11a乃至11fからそれぞれ供給されるぼけ除去画像を用いて、注目画素のぼけ量を所定のクラスに分類し、その結果としてのぼけ量クラスコードを予測係数ROM14に供給する。
ステップS4において、予測係数ROM14は、ぼけ量クラス生成部13から供給されたぼけ量クラスコードに対応する予測係数を予測処理部15に供給する。
ステップS5において、予測処理部15は、予測タップの画素値と予測係数との積和演算により、出力画像となる注目画素の画素値(出力画素値)を算出する。
ステップS6において、予測処理部15は、出力画像の全画素について出力画素値を求めたかを判定する。ステップS6で、出力画像の全画素について出力画素値を求めていないと判定された場合、処理はステップS2に戻り、それ以降の処理が再度実行される。即ち、まだ出力画素値が求められていない画素が注目画素に設定され、出力画素値が求められる。
一方、ステップS6で、出力画像の全画素について出力画素値を求めたと判定された場合、処理は終了する。
以上のように、画像処理装置1は、入力画像を様々なぼけ量でぼけ除去処理を行った結果を基に、入力画像の各画素のぼけ量を所定のクラスに分類し、分類されたぼけ量クラスコードに基づいて決定された予測係数を用いた積和演算により、ぼけを除去した出力画像(出力画素値)を生成する。
ぼけ量クラス生成部13におけるぼけ量クラスの分類方式については、さまざまな方式を採用することができるため、次に、ぼけ量クラス生成部13の各種の実施の形態について説明する。
最初に、ぼけ量クラス生成部13の第1の実施の形態について説明する。
図6は、ぼけ除去処理部11a乃至11eが、それぞれ、ぼけパラメータσを、σ=0.3,0.6,1.2,1.8,2.4で、図2の入力画像をぼけ除去処理した後の、領域31乃至33のぼけ除去画像を示している。
図6において、上段は、領域33のぼけ除去画像であり、中段は、領域32のぼけ除去画像であり、下段は、領域31のぼけ除去画像である。
領域33内の被写体は、領域31乃至33のなかでカメラから最も遠い位置にあり、ぼけ除去結果としては、5種類のパラメータσのなかでは、σ=1.8に対応するぼけ除去画像が良好である。
一方、領域31内の被写体は、領域31乃至33のなかでカメラから最も近い(手前の)位置にあり、ぼけ除去結果としては、5種類のパラメータσのなかでは、σ=0.6に対応するぼけ除去画像が良好である。
領域32内の被写体は、領域31と33内の被写体の中間の位置にあり、ぼけ除去結果としては、5種類のパラメータσのなかでは、σ=1.2に対応するぼけ除去画像が良好である。
従って、入力画像中の各領域のぼけの度合いに応じて、最適と思われるぼけ除去パラメータが異なることが分かる。
また、図6のぼけ除去画像によれば、良好と判断されるぼけ量を超えたパラメータσでぼけ除去したぼけ除去画像には、激しいリンギングが発生し、破綻が見られる。例えば、領域33に対してはσ=2.4のぼけ除去画像で、領域32に対してはσ=1.8のぼけ除去画像で、領域31に対してはσ=1.2のぼけ除去画像で、破綻が見られている。
従って、パラメータσを徐々に大きくしてぼけ除去処理を行った場合に、初めて破綻の生じるパラメータも、入力画像中の各画素のぼけの度合いに応じて異なると言うことができる。
そこで、第1の実施の形態におけるぼけ量クラス生成部13(以下、ぼけ量クラス生成部131と記述する)は、初めて破綻の生じたぼけ除去画像を検出することによって、注目画素のぼけ量を表すぼけ量クラスコードを算出する。
具体的には、ぼけ量クラス生成部131は、注目画素を中心として図4に示したような円形の領域を設定し、その領域内において次式(11)を満たす画素数をカウントする。
|Z(x,y)−Offset(x,y)| ≧ threshold・・・・・(11)
式(11)において、Z(x,y)は、画素(x,y)のぼけ除去画像の画素値である。Offset(x,y)およびthresholdは、例えば、Offset(x,y)=0,threshold=255と設定することができ(以下、第1実施の形態の第1のカウント方式と称する)、この場合、ぼけ除去画像が入力画像の輝度レベルの上限255を超える画素を、ぼけ量クラス生成部131がカウントする意味となる。
あるいは、式(11)において、例えば、Offset(x,y)を入力画像の画素値、thresholdを所定の値と設定することができ(以下、第1実施の形態の第2のカウント方式と称する)、この場合、入力画像とぼけ除去画像の画素値の変化が大きい(threshold以上)である画素を、ぼけ量クラス生成部131がカウントする意味となる。thresholdの値は、事前の実験により最適な値とされる。
図7は、上述の第1または第2のカウント方式によるカウント結果の例を示している。
ぼけ量クラス生成部131は、第1または第2のカウント方式によるカウント結果に基づいて、ぼけ量クラスコードを生成する。
例えば、ぼけ量クラス生成部131は、カウント結果が“0”である場合にはコードの“0”を、カウント結果が“0以外の値”である場合にはコードの“1”を割り当てることにより、縮退したぼけ量クラスコードとする(以下、第1実施の形態の第1の判定方式と称する)。
図7の“クラスコード0/1判定”は、図7に示される“カウント結果”に対する第1の判定方式により生成されたぼけ量クラスコードを示している。
あるいは、ぼけ量クラス生成部131は、カウント結果がその最大値と最小値の中間値((最大値−最小値)/2)より大きい場合には“1”コードの“1”を、カウント結果が中間値以下である場合にはコードの“0”を割り当てることにより、縮退したぼけ量クラスコードとする(以下、第1実施の形態の第2の判定方式と称する)。
図7の“クラスコード閾値判定”は、図7に示される“カウント結果”に対する第2の判定方式により生成されたぼけ量クラスコードを示している。
なお、上述した第1および第2の判定方式以外のその他の判定方式を採用することも可能である。例えば、入力画像のぼけ量が小さい場合と大きい場合とでは、カウント結果の最大値と最小値の差DR=(最大値−最小値)も異なってくる。具体的には、入力画像のぼけ量が小さい場合には破綻が生じやすく、最大値と最小値の差DRが大きくなり、反対に入力画像のぼけ量が大きい場合には最大値と最小値の差DRが小さくなる。そこで、最大値と最小値の差DRの値をぼけ量クラスとして追加してもよい。これにより、より入力画像のぼけ量を区別しやすくすることができる。
図8は、第1の判定方式または第2の判定方式を行うことによりぼけ量クラスコードを生成するぼけ量クラス生成部13(ぼけ量クラス生成部131)の構成例を示すブロック図である。
ぼけ量クラス生成部131は、特徴量算出部81a乃至81f、閾値算出部82、閾値判定部83a乃至83f、および、ぼけ量クラス出力部84により構成されている。
特徴量算出部81aには、ぼけ除去処理部11aでぼけ除去処理された結果である、ぼけ除去画像(以下、適宜、ぼけ量aのぼけ除去画像とも称する)が供給される。特徴量算出部81bには、ぼけ除去処理部11bでぼけ除去処理された結果である、ぼけ除去画像(以下、適宜、ぼけ量bのぼけ除去画像とも称する)が供給される。特徴量算出部81c乃至81fについても同様に、ぼけ除去処理部11c乃至11fでぼけ除去処理された結果である、ぼけ除去画像(以下、適宜、ぼけ量c乃至fのぼけ除去画像とも称する)が供給される。
特徴量算出部81aは、注目画素に対して図4に示したような円形の領域を設定し、領域内に含まれるぼけ量aのぼけ除去画像の各画素について式(11)を満たすか否かを判定する。そして、特徴量算出部81aは、式(11)を満たす画素数をカウントし、そのカウント結果を、注目画素の特徴量として閾値判定部83aに供給する。特徴量算出部81b乃至81fも、ぼけ量b乃至fのぼけ除去画像に対して同様に行う。
閾値算出部82は、特徴量算出部81a乃至81fで第1のカウント方式が採用される場合には、式(11)のthresholdとしての255を特徴量算出部81a乃至81fに供給し、第2のカウント方式が採用される場合には、thresholdとして予め設定された値を、特徴量算出部81a乃至81fに供給する。
また、閾値算出部82は、閾値判定部83a乃至83fで第2の判定方式が採用される場合、特徴量算出部81a乃至81fそれぞれのカウント結果を取得し、カウント結果の最大値と最小値の中間値を閾値判定部83a乃至83fに供給する。
閾値判定部83aは、第1の判定方式または第2の判定方式に基づいて、特徴量算出部81aからのカウント結果を、“0”または“1”のコード(出力コード)に変換して出力する。即ち、第1の判定方式が採用される場合には、特徴量算出部81aから供給されるカウント結果が“0”であるか否かによりコードが決定され、第2の判定方式が採用される場合には、特徴量算出部81aから供給されるカウント結果が、閾値算出部82から供給される、カウント結果の最大値と最小値の中間値よりも大か否かにより0”または“1”のコードが決定される。閾値判定部83b乃至83fも同様である。
ぼけ量クラス出力部84は、閾値判定部83a乃至83fから供給される“0”または“1”の出力コードを予め決められた順序で連結し、6ビットのぼけ量クラスコードとして出力する。
図9は、ぼけ量クラス生成部131によるぼけ量クラス生成処理(第1のぼけ量クラス生成処理)のフローチャートを示している。
第1のぼけ量クラス生成処理では、初めに、ステップS21において、特徴量算出部81aは、注目画素に対して図4に示したような円形の領域を設定し、式(11)を満たす画素数をカウントする。カウント結果は、注目画素の特徴量として閾値判定部83aに供給される。特徴量算出部81b乃至81fも同様に、式(11)を満たす画素数をカウントし、カウント結果を閾値判定部83b乃至83fに供給する。
ステップS22において、閾値算出部82は、式(11)のthresholdを閾値判定部83a乃至83fに供給する。また、閾値算出部82は、閾値判定部83a乃至83fで第2の判定方式が採用される場合には、特徴量算出部81a乃至81fそれぞれのカウント結果を取得し、カウント結果の最大値と最小値の中間値を計算して、閾値判定部83a乃至83fに供給する。
ステップS23において、閾値判定部83aは、特徴量算出部81aからのカウント結果に基づいて、“0”または“1”のコードを出力する。閾値判定部83b乃至83fも同様に、特徴量算出部81b乃至81fからのカウント結果に基づいて、“0”または“1”のコードを出力する。
ステップS24において、ぼけ量クラス出力部84は、ぼけ量クラスコードを生成し、出力する。即ち、ぼけ量クラス出力部84は、閾値判定部83a乃至83fからそれぞれ供給される“0”または“1”のコードを予め決められた順序で連結し、6ビットのぼけ量クラスコードとして出力して、処理を終了する。
次に、ぼけ量クラス生成部13の第2の実施の形態について説明する。
第2の実施の形態におけるぼけ量クラス生成部13(以下、ぼけ量クラス生成部132と記述する)は、統計的なデータに基づいて、ぼけ量クラスコードを生成する。
例えば、画素値の隣接差分絶対値(x方向の隣接画素であれば、|X(x,y)−X(x+1,y)|)を特徴量として、多数の一般的な画像(の各画素の画素値)を用いて、特徴量の度数分布を作成すると、図10のような結果が得られた。図10によれば、特徴量としての隣接差分絶対値の上限値(特徴量の特性値)は191であり、多くの画像全体では、隣接差分絶対値が191以下となりそうであることがわかる。
図10に示した度数分布と、特徴量の上限値は、図11に示される特徴量上限値算出処理によって求められる。
即ち、初めに、ステップS41において、多数の画像の各画素について、特徴量としての隣接差分絶対値が算出され、ステップS42では、特徴量ごとに度数がカウントされる。そして、ステップS43において、度数が0ではない最大の特徴量が算出され、特徴量の上限値に決定される。
以上の処理によって集められたデータでは、画像の隣接差分絶対値が所定の値以下になりそうであることがわかったが、画像単位ではなく、所定の領域単位で捉えた場合においても、その領域が平坦な(画素値がほぼ一様な)箇所であるか、急峻なエッジの箇所であるか、複雑なディテールを持つ箇所であるかなどによって、特徴量の上限値が異なる(特徴量の上限値と対応付けられる)のではないかと考えられる。
そこで、図12のDB蓄積処理により、図10の度数分布を求めたのと同一の画像に対して、注目画素を中心とする所定の領域(例えば、3×3の領域)に対して1ビットADRC(Adaptive Dynamic Range Coding)処理を施し、その結果得られるADRCコードごとに隣接差分絶対値の上限値を求める。
DB蓄積処理では、最初に、データベースの作成に利用される全ての画像の各画素が注目画素に設定され、ステップS61とS62の処理が実行される。ステップS61では、ぼけ量クラス生成部132は、注目画素を中心とする所定の領域(注目画素周辺領域)に対して1ビットADRCを施し、ADRCコードを算出する。ステップS62では、ぼけ量クラス生成部132は、注目画素周辺領域の特徴量を算出する。ここでは、特徴量は隣接差分絶対値である。
そして、ステップS63において、ぼけ量クラス生成部132は、ADRCコードごとに、発生した各特徴量の度数をカウントし、ステップS64において、ADRCコードごとに、度数が0ではない最大の特徴量を算出する。
ステップS65において、ぼけ量クラス生成部132は、ステップS64で求められた各ADRCコードの特徴量の最大値を、特徴量の上限値としてDBに蓄積(記憶)する。
図12のDB蓄積処理の結果を図13に示す。
図13によれば、画像全体の隣接差分絶対値の上限値は191であるが、ADRCコードごとに、隣接差分絶対値の上限値は大きく異なっていることが分かる。
ぼけ量クラス生成部132によるぼけ量クラス生成処理(第2のぼけ量クラス生成処理)では、図13に示される、各ADRCコードの特徴量の上限値を利用して、ぼけ量クラスコードを生成する。
図14は、第2の実施の形態におけるぼけ量クラス生成部13(ぼけ量クラス生成部132)の構成例を示すブロック図である。
ぼけ量クラス生成部132は、特徴量算出部101a乃至101f、最大値算出部102a乃至102f、ADRC処理部103、特徴量上限値DB104、閾値算出部105、閾値判定部106a乃至106f、および、ぼけ量クラス出力部107により構成されている。
特徴量算出部101aには、ぼけ量aのぼけ除去画像が供給される。特徴量算出部101bには、ぼけ量bのぼけ除去画像が供給される。特徴量算出部101c乃至101fについても同様に、ぼけ量c乃至fのぼけ除去画像が供給される。
特徴量算出部101aは、注目画素に対応するぼけ量aのぼけ除去画像の画素に対して図4に示したような円形の領域を設定し、その領域内の各画素について特徴量(隣接差分絶対値)を算出し、最大値算出部102aに供給する。特徴量算出部101b乃至101fも、ぼけ量b乃至fのぼけ除去画像に対して同様に行う。
最大値算出部102aは、特徴量の最大値を算出し、閾値判定部106aに供給する。即ち、最大値算出部102aは、特徴量算出部101aで算出された、注目画素を中心とする所定の領域内の各画素の特徴量のうち、最大のものを閾値判定部106aに供給する。最大値算出部102bから102fも、特徴量算出部101b乃至101fからの特徴量に対して同様に行う。
ADRC処理部103は、注目画素に対応する入力画像の画素を中心とする3×3の領域に対して1ビットADRC処理を施し、その結果得られるADRCコードを閾値算出部105に供給する。
1ビットADRC処理では、注目画素に対応する入力画像の画素を中心とする3×3の領域内の各画素の画素値が、最大値MAXと最小値MINとの平均値で除算される(小数点以下切り捨て)ことにより、各画素の画素値が1ビットとされる(2値化される)。そして、3×3の領域内の1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとなる。なお、クラス分類の分類手法としては、2ビット以上のADRCを用いてもよいし、その他の分類手法でもよい。
特徴量上限値DB104には、図12を参照して説明したDB蓄積処理による、ADRCコードごとの特徴量の上限値が記憶されている。閾値算出部105は、ADRC処理部103からのADRCコードに対応する特徴量の上限値を特徴量上限値DB104から取得し、閾値として閾値判定部106a乃至106fに供給する。
閾値判定部106aは、最大値算出部102aから供給される特徴量の最大値と、閾値算出部105から供給される閾値とを比較する。そして、閾値判定部106aは、特徴量の最大値が閾値よりも大である場合に、“1”のコードを出力し、特徴量の最大値が閾値以下である場合に、“0”のコードを出力する。
閾値判定部106bから106fも同様に、最大値算出部102b乃至102fからの特徴量の最大値が閾値よりも大であるか否かを判定し、“1”または“0”のコードを出力する。
ぼけ量クラス出力部107は、第1の実施の形態にけるぼけ量クラス出力部84と同様に、閾値判定部106a乃至106fから供給される“0”または“1”のコード(出力コード)を予め決められた順序で連結し、6ビットのぼけ量クラスコードとして出力する。
図15は、ぼけ量クラス生成部132によるぼけ量クラス生成処理(第2のぼけ量クラス生成処理)のフローチャートを示している。
第2のぼけ量クラス生成処理では、初めに、ステップ81において、特徴量算出部101aは、注目画素に対応するぼけ量aのぼけ除去画像の画素に対して図4に示したような円形の領域を設定し、その領域内の各画素について特徴量(隣接差分絶対値)を算出する。特徴量算出部101b乃至101fも、ぼけ量b乃至fのぼけ除去画像に対して同様に行う。
ステップS82において、最大値算出部102aは、特徴量の最大値を算出し、閾値判定部106aに供給する。最大値算出部102bから102fも同様に、特徴量算出部101b乃至101fから供給される特徴量の最大値を算出する。
ステップS83において、ADRC処理部103は、注目画素に対応する入力画像の画素の周辺の3×3の領域に対して1ビットADRC処理を施し、その結果得られるADRCコードを閾値算出部105に供給する。
ステップS84において、閾値算出部105は、ADRC処理部103からのADRCコードに対応する特徴量の上限値を特徴量上限値DB104から取得し、閾値として閾値判定部106a乃至106fに供給する。
ステップS81およびS82と、ステップS83およびS84の処理は同時に(並行して)行うことが可能である。
ステップS85において、閾値判定部106aは、特徴量の最大値と閾値とを比較し、特徴量の最大値が閾値よりも大である場合には“1”のコードを、特徴量の最大値が閾値以下である場合には“0”のコードを、ぼけ量クラス出力部107に出力する。
ステップS86において、ぼけ量クラス出力部107は、閾値判定部106a乃至106fから供給される“0”または“1”のコードを予め決められた順序で連結し、6ビットのぼけ量クラスコードとして出力し、処理を終了する。
以上のように、第2のぼけ量クラス生成処理では、注目画素に対応する入力画像の画素のADRCコードが求められるとともに、注目画素に対応するぼけ除去画像の画素を中心とする所定の領域内で特徴量(隣接差分絶対値)の上限値が算出され、算出された特徴量の上限値が、図13に示されるDB(データベース)の、求められたADRCコードと同一のADRCコードの隣接差分絶対値の上限値よりも大であるか否かによって“0”または“1”のコードが決定され、6ビットのぼけ量クラスコードに連結されて、出力される。
適切ではないぼけパラメータでぼけ除去処理を行ったときのぼけ除去画像には、リンギングなどの破綻が生じる。そして、リンギングなどの破綻が生じた場合には、一般的な画像データから統計的に算出した特徴量の上限値を超えてしまう場合が多いが、第2のぼけ量クラス生成処理は、その現象を利用した処理であると言える。また、第2のぼけ量クラス生成処理では、1ビットADRCなどの別の画像特徴に応じて閾値を細かく切り分けることにより、上述した現象を捉える精度を高めることができる。
なお、上述した第2の実施の形態は、特徴量として隣接差分絶対値を採用した例であるが、その他の特徴量を採用することも可能である。また、1つの特徴量だけでなく、複数の特徴量を採用することも可能である。
図16は、第2の実施の形態において、複数の特徴量でぼけ量クラスコードを出力するようにした場合の構成例を示すブロック図である。
図16において、ぼけ量クラス生成部13,13、および13は、図14と同様の構成を有しているが、3者の違いをわかりやすくするため、図14における特徴量の上限値DB104を分離して、それぞれ、特徴量上限値DB104α,104β、および104γとしている。
特徴量上限値DB104αには、特徴量αについての、ADRCコードごとの特徴量の上限値が記憶されている。また、特徴量上限値DB104βには、特徴量βについての、ADRCコードごとの特徴量の上限値が記憶されている。特徴量上限値DB104γには、特徴量γについての、ADRCコードごとの特徴量の上限値が記憶されている。
ぼけ量クラス生成部13は、特徴量αについてのぼけ量クラスコードを出力し、ぼけ量クラス生成部13は、特徴量βについてのぼけ量クラスコードを出力し、ぼけ量クラス生成部13は、特徴量γについてのぼけ量クラスコードを出力する。
OR演算部111は、ぼけ量クラス生成部13,13、および13それぞれが出力するぼけ量クラスコードの各桁で、OR演算処理を行った結果を、最終的なぼけ量クラスコードとして出力する。
例えば、図16に示されるように、ぼけ量クラス生成部13が“001000”のぼけ量クラスコードを出力し、ぼけ量クラス生成部13が“101000”のぼけ量クラスコードを出力し、ぼけ量クラス生成部13が“000010”のぼけ量クラスコードを出力した場合、OR演算部111から出力される最終的なぼけ量クラスコードは、“101010”となる。
特徴量α、β、γとして採用可能な特徴量としては、例えば、水平(x方向)、垂直(y方向)、斜め各方向の1次微分絶対値や2次微分絶対値などがある。
水平、垂直、斜め各方向の1次微分絶対値P1(x,y)は、それぞれ、式(12),(13),(14)で表すことができ、水平、垂直、斜め各方向の2次微分絶対値P2(x,y)は、それぞれ、式(15),(16),(17)で表すことができる。
P1(x,y)=|X(x,y)−X(x+1,y)| ・・・・・(12)
P1(x,y)=|X(x,y)−X(x,y+1)| ・・・・・(13)
P1(x,y)=|X(x,y)−X(x+1,y+1)|・・・・・(14)
P2(x,y)=|2×X(x,y)−X(x+1,y)−X(x−1,y)|
・・・・・(15)
P2(x,y)=|2×X(x,y)−X(x,y+1)−X(x,y−1)|
・・・・・(16)
P2(x,y)=|2×X(x,y)−X(x+1,y+1)−X(x−1,y−1)|
・・・・・(17)
次に、ぼけ量クラス生成部13の第3の実施の形態について説明する。
第3の実施の形態におけるぼけ量クラス生成部13(以下、ぼけ量クラス生成部133と記述する)も、上述した第2の実施の形態と同様に予めDBを蓄積し、そのDBに基づいて、ぼけ量クラスコードを生成する。
図17は、第3の実施の形態において利用するDBを作成するDB作成装置120の構成例を示すブロック図である。
DB作成装置120は、ぼけ付加部121、ぼけ除去処理部122a乃至122f、特徴量算出部123a乃至123f、縮退部124a乃至124f、連結部125、蓄積部126、確率算出部127、および確率分布DB128により構成されている。
ぼけ付加部121は、図3を参照して説明したぼけ付加部42と同様に、入力画像に対して、外部から与えられたぼけパラメータσを用いた式(2)の畳み込み演算を行い、ぼけ画像を生成する。
ぼけ除去処理部122a乃至122fは、図1のぼけ除去処理部11a乃至11fと同様に、ぼけ付加部121からのぼけ画像に対してぼけ除去処理を施す。ぼけ除去処理部122a乃至122fが除去する画像のぼけ量は、それぞれ、ぼけ量a乃至fである。なお、DB作成装置120においては、積和演算に利用されるぼけ除去係数は、ぼけ除去処理部122a乃至122fそれぞれの内部に記憶されているものとする。
特徴量算出部123a乃至123fそれぞれは、注目画素に対して設定される所定の領域(例えば、図4に示したような円形の領域)内の各画素について特徴量を算出し、縮退部124a乃至124fに供給する。本実施の形態においては、特徴量算出部123a乃至123fそれぞれは、上述した式(12)乃至(17)で表されるいずれかの特徴量(微分系特徴量)を算出するものとする。
縮退部124a乃至124fは、それぞれ、特徴量算出部123a乃至123fから供給される特徴量に対して、ビットの縮退処理を行う。例えば、特徴量算出部123a乃至123fから供給される特徴量が8ビットである場合に、LSB (Least Significant Bit)の3ビットを削除し、5ビットに縮退して出力する。
連結部125は、縮退部124a乃至124fから供給される縮退後の特徴量を所定の順序で連結した特徴量コードを蓄積部126に供給する。例えば、上述した例で、5ビットの特徴量が、縮退部124a乃至124fのそれぞれから供給されるとすると、蓄積部126に供給される特徴量コードは、30ビットとなる。この場合、後段の蓄積部126には、230通りの特徴量コードが供給され得ることになるが、特徴量コードの分類数が多い場合には、縮退部124a乃至124fにおける縮退量が拡大される。逆に言えば、蓄積部126における特徴量コードの分類数が、適切な数となるように実験するなどして、縮退部124a乃至124fにおける縮退量が設定される。
蓄積部126は、連結部125から特徴量コードが供給されるたびに、供給された特徴量コードの度数を1増やすことにより、特徴量コードの度数分布を記憶する。また、蓄積部126には、ぼけ付加部121に与えられたものと同一のぼけパラメータσが供給され、蓄積部126は、供給された特徴量コードが、ぼけパラメータσをいくつに設定したときのものであるかについても記憶する。
DB生成装置120では、ぼけ付加部121に供給された入力画像に対して、ぼけパラメータσを様々な値に設定して、それにより生成された様々なぼけ量のぼけ画像に対して、特徴量コードが決定され、ぼけパラメータσの情報とともに蓄積部126に蓄積(記憶)されていく。入力画像も1つの画像に対してのみならず、多数の画像に対してぼけパラメータσを振って得られた、特徴量コードとぼけパラメータσの情報が蓄積部126に蓄積される。
その結果、蓄積部126に蓄積されたデータを参照すれば、各特徴量コードの度数(特徴量コードの総発生回数)とともに、特徴量コードのそれぞれにおいて、ぼけパラメータσごとの度数(発生回数)を知ることができる。
確率算出部127は、各徴量コードについて、ぼけパラメータσごとの確率を算出する。即ち、確率算出部127は、所定の特徴量コードにおいて、各ぼけパラメータσの度数を特徴量コードの度数で除算した値(ぼけパラメータσの度数/特徴量コードの度数)を求めることを、すべての特徴量コードについて行う。
確率分布DB128は、確率算出部127により算出された、各特徴量コードについての、ぼけパラメータσごとの確率を記憶する。
図18は、第3の実施の形態におけるぼけ量クラス生成部13(ぼけ量クラス生成部133)の構成例を示すブロック図である。
ぼけ量クラス生成部133は、特徴量算出部141a乃至141f、縮退部142a乃至142f、連結部143、ぼけ量クラス判定部144、および確率分布DB145により構成されている。
特徴量算出部141a乃至141f、縮退部142a乃至142f、および連結部143は、DB生成装置120(図17)の特徴量算出部123a乃至123f、縮退部124a乃至124f、および連結部125と同様の処理を行う。
即ち、特徴量算出部141a乃至141fは、注目画素に対応して設定されるぼけ除去画像の所定の領域内の各画素について特徴量を算出し、縮退部124a乃至124fに供給する。縮退部142a乃至142fは、特徴量算出部141a乃至141fから供給される特徴量に対して、ビットの縮退処理を行う。連結部143は、縮退部124a乃至124fから供給される縮退後の特徴量を所定の順序で連結した特徴量コードを生成する。
確率分布DB144は、DB生成装置120(図17)で生成されたデータを記憶する。即ち、確率分布DB144は、DB生成装置120の確率分布DB128に記憶されている、各特徴量コードについての、ぼけパラメータσごとの確率をコピー(または移動)して記憶する。なお、DB生成装置120の確率算出部127が、算出した各特徴量コードについてのぼけパラメータσごとの確率を、確率分布DB144に直接記憶させてもよい。
ぼけ量クラス判定部145は、確率分布DB144を参照して、連結部143から供給された特徴量コードに対応するぼけ量クラスコードを出力する。具体的には、ぼけ量クラス判定部145は、連結部143から供給された特徴量コードと同一の特徴量コードを確率分布DB144で特定し、特定した特徴量コードのぼけパラメータσごとの確率のうち、最も確率の高いぼけパラメータσを、ぼけ量クラスコードとして出力する。
図19は、ぼけ量クラス生成部133によるぼけ量クラス生成処理(第3のぼけ量クラス生成処理)のフローチャートを示している。
初めに、ステップS101において、特徴量算出部141a乃至141fそれぞれは、注目画素に対応して設定されるぼけ除去画像の所定の領域内の各画素について特徴量を算出する。
ステップS102において、縮退部142a乃至142fそれぞれは、特徴量算出部141a乃至141fから供給される特徴量に対して、ビットの縮退処理を行う。
ステップS103において、連結部143は、縮退部124a乃至124fから供給される縮退後の特徴量を所定の順序で連結した特徴量コードを生成する。
ステップS104において、ぼけ量クラス判定部145は、確率分布DB144を参照して、連結部143から供給された特徴量コードに対応するぼけ量クラスコードを出力して、処理を終了する。
図20は、第3の実施の形態におけるぼけ量クラス生成部133の変形例である、ぼけ量クラス生成部133−2の構成例を示すブロック図である。
同図において、図18と対応する部分については同一の符号を付してあり、その説明は適宜省略する。即ち、ぼけ量クラス生成部133−2は、特徴量算出部141a乃至141f、縮退部142a乃至142f、連結部143、および確率分布DB144については、ぼけ量クラス生成部133と同様の構成となっている。
ぼけ量クラス判定部161は、図21に示されるように、注目画素に対応するぼけ除去画像の画素とその周辺の予め決められた領域(周辺領域)内の画素それぞれについて、特徴量コードに対応する最も確率の高いぼけパラメータσを選択する。
従って、特徴量算出部141a乃至141f、縮退部142a乃至142f、および連結部143では、周辺領域内の画素それぞれに対する特徴量コードが算出され、ぼけ量クラス判定部161に供給されている。そして、ぼけ量クラス判定部161は、周辺領域内の各画素について、選択した最も確率の高いぼけパラメータσ(選択ぼけパラメータσ)と、その確率(判定確率)を足し合わせ部162に供給する。
図21に示される25画素の各画素において、同一の模様が付されている画素は、同一のぼけパラメータσが選択されたことを表している。
足し合わせ部162は、周辺領域内の各画素の判定確率を、同一の選択ぼけパラメータσどうしで加算する。そして、足し合わせ部162は、選択ぼけパラメータσと、その選択ぼけパラメータσの加算結果である加算確率とをぼけ量クラス決定部163に供給する。ぼけ量クラス決定部163は、加算確率が最も大きい選択ぼけパラメータσを、ぼけ量クラスコードとして出力する。
図20のぼけ量クラス生成部133−2では、注目画素に対応する入力画像の画素がオブジェクトの境界などでない限り、その周辺の画素もほぼ同じぼけ量であるという性質を利用して、注目画素に対応する入力画像の画素のみではなく、周辺領域の画素の確率をも使って総合的に判定することで、ぼけ量クラス分類の精度を高めることができる。
次に、第3の実施の形態におけるぼけ量クラス生成部133のその他の変形例について説明する。
図20を参照して説明したぼけ量クラス生成部133−2では、足し合わせ部162が、同一の選択ぼけパラメータσどうしの確率を加算し、加算後の加算確率が最も大きいぼけパラメータσを、ぼけ量クラスコードとして出力したが、次に説明するぼけ量クラス生成部133のその他の変形例では、同一の選択ぼけパラメータσどうしの確率を加算する際に、ノイズである可能性を判定し、ノイズであると判定される場合には、加算を行わないようにする。
画像中の平坦な箇所にノイズがのった場合に、ぼけ量の検出を誤る場合が多い。これは、画像中の平坦な箇所が、どのようなぼけの大きさであるか、特徴量では区別がつかないために発生する。そのような箇所では、なんらかのぼけ量がクラスとして判定されたとしても、それは入力画像に含まれるノイズによって影響された特徴量を使っているため、判定されたぼけ量の信頼度は低くなる。
従って、画像本来の特徴量によって算出されたぼけ量と、ノイズによって算出されたぼけ量を区別することで、画像本来の特徴量によって算出されたぼけ量の検出精度を上げることができる。
そのためには、ノイズと判定するためのDBを予め作成しておく必要があり、図22は、ノイズの判定に用いられるノイズ度数分布DBを作成するノイズDB作成装置180の構成例を示すブロック図である。
ノイズDB作成装置180は、ノイズ付加部191、ぼけ除去処理部192a乃至192f、特徴量算出部193a乃至193f、縮退部194a乃至194f、連結部195、度数算出部196、およびノイズ度数分布DB197により構成されている。
ノイズ付加部191には、全体に平坦な画像が入力画像として供給され、ノイズ付加部191は、入力画像にランダムノイズを付加したノイズ付加画像を生成し、ぼけ除去処理部192a乃至192fに供給する。
ぼけ除去処理部192a乃至192f、特徴量算出部193a乃至193f、縮退部194a乃至194f、および連結部195は、図17のDB生成装置120のぼけ除去処理部122a乃至122f、特徴量算出部123a乃至123f、縮退部124a乃至124f、および連結部125と、それぞれ同様の処理を行う。
即ち、ぼけ除去処理部192a乃至192fは、ノイズ付加部191からのノイズ付加画像に対してぼけ除去処理を施す。特徴量算出部193a乃至193fは、注目画素に対して設定される所定の領域内の各画素について特徴量を算出し、縮退部194a乃至194fに供給する。
縮退部194a乃至194fは、特徴量算出部193a乃至193fから供給される特徴量に対して、ビットの縮退処理を行う。連結部195は、縮退部194a乃至194fから供給される縮退後の特徴量を所定の順序で連結した特徴量コードを生成する。
度数算出部196は、連結部195から供給された特徴量コードをノイズ度数分布DB197に、特徴量コードごとに分類して記憶させる。その結果、ノイズ度数分布DB197には、ノイズによる特徴量コードの度数分布が蓄積される。
図23は、第3の実施の形態におけるぼけ量クラス生成部133の変形例であって、図22のノイズ度数分布197に蓄積された、ノイズによる特徴量コードの度数分布を利用した、ぼけ量クラス生成部133−3の構成例を示すブロック図である。
図23において、図20と対応する部分については同一の符号を付してあり、その説明は適宜省略する。
図23のぼけ量クラス生成部133−3は、図20のぼけ量クラス生成部133−2と比較して、ノイズ度数分布DB201が新たに設けられている点、および、足し合わせ部162とぼけ量クラス決定部163に代えて、足し合わせ部202とぼけ量クラス決定部203が設けられている点が相違する。
ぼけ量クラス判定部161は、周辺領域内の各画素について、選択したぼけパラメータσ(選択ぼけパラメータσ)と、その判定確率を足し合わせ部202に供給するが、本実施の形態では、特徴量コードも合わせて足し合わせ部202に供給する。
ノイズ度数分布DB201には、図22のノイズDB作成装置180で生成され、ノイズ度数分布197に蓄積されている、ノイズによる特徴量コードの度数分布が、コピー(または移動)されて記憶されている。
足し合わせ部202は、周辺領域内の各画素の確率を、同一の選択ぼけパラメータσどうしで加算するが、その際、ぼけ量クラス判定部161から供給された特徴量コードの度数をノイズ度数分布201で参照し、特徴量コードの度数が所定の度数以上である場合には、ノイズの可能性が高いとして、確率を加算することを行わない。確率の加算を行わなかった選択ぼけパラメータσの加算確率は0に設定される。一方、ノイズ度数分布201の、ぼけ量クラス判定部161から供給された特徴量コードの度数が所定の度数より小さい場合には、足し合わせ部202は、図20の足し合わせ部162と同様に、同一の選択ぼけパラメータσどうしの確率を加算する。
ぼけ量クラス決定部203には、選択ぼけパラメータσと加算確率の組合せが1つ以上供給される。ぼけ量クラス決定部203は、供給された加算確率のなかで、最大の加算確率を有する選択ぼけパラメータσを決定する。ぼけ量クラス決定部203は、決定された選択ぼけパラメータσの加算確率が0以外である場合には、その選択ぼけパラメータσをぼけ量クラスコードとして出力する。一方、決定された選択ぼけパラメータσの加算確率が0である場合には、ぼけ量クラス決定部203は、ぼけ量で決定されるぼけ量クラスコードとは異なる別クラスのクラスコードを出力する。決定された選択ぼけパラメータσの加算確率が0である場合とは、注目画素の周辺領域において、全てノイズによる影響の可能性があることを意味する。
画像中の平坦な箇所は、どのようなクラスの処理を当てはめても変化がないため、別クラスとしても問題は発生しない。一方、上述したようなノイズ判定を行うことにより、平坦な箇所以外のぼけ量の検出精度を高めることができる。
図24は、図1の画像処理装置1の予測係数ROM14に記憶される、ぼけ量クラスごとの予測係数を学習する予測係数学習装置221の構成例を示すブロック図である。
予測係数学習装置221は、注目画素設定部241、ぼけ付加部242、除去係数ROM243、ぼけ除去処理部244a乃至244f、ぼけ量クラス生成部245、正規方程式加算部246、行列演算部247、および予測係数ROM248により構成されている。
予測係数学習装置221に入力される入力画像は、ぼけのない画像であり、これが教師画像とされる。注目画素設定部241は、教師画像の各画素を順に注目画素に設定する。
ぼけ付加部242は、図3のぼけ付加部42と同様に、上述した式(2)で表される畳み込み演算により、入力画像に対して擬似的にぼけを付加したぼけ画像を生成し、生徒画像として、ぼけ除去処理部244a乃至244fに供給する。
ぼけ除去処理部244a乃至244fは、ぼけ除去処理部11a乃至11fと同様の処理を行う。即ち、ぼけ除去処理部244a乃至244fは、注目画素に対して所定の領域内の画素(の画素値)を予測タップとして抽出するとともに、注目画素に対して所定の領域内の画素(の画素値)をクラスタップとして抽出する。そして、ぼけ除去処理部244a乃至244fは、クラスタップから決定されるクラスコードに対応するぼけ量a乃至f用のぼけ除去係数を除去係数ROM243から取得し、予測タップを構成する画素の画素値と、除去係数ROM243から取得したぼけ量a乃至f用のぼけ除去係数との積和演算を行うことにより、ぼけ量a乃至fのぼけを除去したときの注目画素の画素値を求める。
ぼけ除去処理部244a乃至244fそれぞれが除去するぼけ量および除去係数ROM243に記憶されているぼけ除去係数は、図1のぼけ除去処理部11a乃至11fおよび除去係数243と同一のものである。
ぼけ量クラス生成部245は、図1のぼけ量クラス生成部13と同様に、ぼけ除去処理部244a乃至244fからそれぞれ供給されるぼけ除去画像を用いて、注目画素のぼけ量を所定のクラスに分類し、その結果としてのぼけ量クラスコードを正規方程式加算部246に供給する。従って、ぼけ量クラス生成部245も、上述した第1乃至第3の実施の形態の構成を採用することができる。
正規方程式加算部246は、生徒画像の注目画素に対応する画素の所定の領域を予測タップ範囲とし、その予測タップ範囲に含まれる各画素を予測タップとする。
正規方程式加算部246は、ぼけ量クラス生成部245から供給されるぼけ量クラスコードに対応するクラスごとに、予測タップ(生徒画像)xn,kを用い、式(10)の左辺の行列における生徒画像どうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。
さらに、正規方程式加算部246は、やはり、ぼけ量クラス生成部245から供給されるぼけ量クラスコードに対応するクラスごとに、予測タップ(生徒画像)xn,kと教師画像ykを用い、式(10)の右辺のベクトルにおける生徒画像xn,kおよび教師画像ykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。
即ち、正規方程式加算部246は、前回、注目画素とされた教師画像について求められた式(10)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた教師画像について、その教師画像yk+1および生徒画像xn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(10)のサメーションで表される加算を行う)。
そして、正規方程式加算部246は、教師画像の画素すべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、行列演算部247に供給する。
行列演算部247は、正規方程式加算部246から供給される各クラスについての正規方程式を解くことにより、ぼけ量クラスコードの各クラスについて、最適な予測係数wnを求めて予測係数ROM248に出力する。予測係数ROM248は、行列演算部247から供給された予測係数を記憶し、これが、図1の画像処理装置1の予測係数ROM14に記憶される。なお、行列演算部247が出力した予測係数を、直接、画像処理装置1の予測係数ROM14に記憶させてもよい。
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図25は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307、ハードディスクや不揮発性のメモリなどよりなる記憶部308、ネットワークインタフェースなどよりなる通信部309、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311を駆動するドライブ310が接続されている。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU301)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
図26乃至図28を参照して、本発明を適用した画像処理装置1による画像処理の効果について説明する。
図26に示される画像は、画像処理装置1に入力された入力画像であって、花を中心に撮像した画像である。この入力画像において、被写体とカメラの距離は、大きく分けて、カメラから花までの第1の距離、カメラから花の背景までの第2の距離、カメラから花の左側にある葉までの第3の距離の、3種類の距離が存在し、入力画像では、そのうち花の背景(第2の距離)にピントが合っている。
図26の入力画像に対して、従来のぼけ除去処理の結果として、画像の全範囲に対して同一のぼけ除去処理を施したときの処理後画像を、図27に示す。なお、除去するぼけ量は、花のぼけが除去されるようにユーザによって手動で設定されている。図27の処理後画像では、花の箇所については、ぼけが除去された画像となっているものの、もともとピントが合っていた花の背景の箇所は、強調されすぎて不自然となっている(リンギングが発生している)。
図28は、図26の入力画像を画像処理装置1でぼけ除去処理したときの処理後画像を示している。
図28の処理後画像では、花の箇所(第1の距離)、花の背景の箇所(第2の距離)、および花の左側にある葉の箇所(第3の距離)のそれぞれについて最適なぼけ量が選択され、その最適なぼけ量を除去するぼけ除去処理が行われるので、画像全体で、ぼけが除去された画像となっている。例えば、もともとピントが合っている花の背景の箇所においても、図27で見られたような過度のリンギングが発生していない。
以上のように、画像処理装置1では、画像内で焦点距離の異なる被写体が複数含まれることによって生じる、画素ごとにぼけ量の異なるぼけを最適に除去することができる。また、画像処理装置1によれば、ユーザが、ぼけ量に合わせて、ぼけ除去に最適な係数を選択(ぼけ除去の調整)するなどの特別の操作を行う必要がない。
なお、画像処理装置1に入力される入力画像は、静止画像と動画像のいずれも対応可能である。
画像処理装置1の画像処理では、注目画素(の画素値)を複数のクラスのうちのいずれかのクラスにクラス分類することにより得られるクラス(ぼけ量クラスコードが表すクラス)の予測係数と、注目画素に対して選択される入力画像の画素(の画素値)とを用いた積和演算により、注目画素(の画素値)が求められる処理(クラス分類適応処理)を用いているため、ぼけ量クラスの検出ミスに対しても、極端な破綻を生じることはない。また、焦点ずれ以外による劣化原因、例えば、動きぼけやノイズ等が含まれる画像に対しても、大きな破綻を生じることなく、ロバストに対応することができる。
本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した画像処理装置の一実施の形態の構成例を示すブロック図である。 入力画像の例を示す図である。 ぼけ除去係数学習装置の構成例を示すブロック図である。 注目画素に対して設定する予測タップの例を示す図である。 図1の画像処理装置による画像処理のフローチャートである。 ぼけ除去画像の例を示す図である。 ぼけ量クラス生成部の第1の実施の形態を説明する図である。 ぼけ量クラス生成部の第1の実施の形態の構成例を示すブロック図である。 第1のぼけ量クラス生成処理を説明するフローチャートである。 ぼけ量クラス生成部の第2の実施の形態を説明する図である。 ぼけ量クラス生成部の第2の実施の形態を説明する図である。 ぼけ量クラス生成部の第2の実施の形態を説明する図である。 ぼけ量クラス生成部の第2の実施の形態を説明する図である。 ぼけ量クラス生成部の第2の実施の形態の構成例を示すブロック図である。 第2のぼけ量クラス生成処理を説明するフローチャートである。 ぼけ量クラス生成部の第2の実施の形態の構成例を示すブロック図である。 ぼけ量クラス生成部の第3の実施の形態を説明する図である。 ぼけ量クラス生成部の第3の実施の形態の構成例を示すブロック図である。 第3のぼけ量クラス生成処理を説明するフローチャートである。 ぼけ量クラス生成部の第3の実施の形態のその他の構成例を示すブロック図である。 ぼけ量クラス生成部の第3の実施の形態を説明する図である。 ぼけ量クラス生成部の第3の実施の形態を説明する図である。 ぼけ量クラス生成部の第3の実施の形態のさらにその他の構成例を示すブロック図である。 予測係数を学習する予測係数学習装置の構成例を示すブロック図である。 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。 図1の画像処理装置による処理の効果を説明する図である。 図1の画像処理装置による処理の効果を説明する図である。 図1の画像処理装置による処理の効果を説明する図である。
符号の説明
1 画像処理装置, 11a乃至11f ぼけ除去処理部, 13 ぼけ量クラス生成部, 15 予測処理部, 81a乃至81f 特徴量算出部, 82 閾値算出部, 83a乃至83f 閾値判定部, 84 ぼけ量クラス出力部, 101a乃至101f 特徴量算出部, 102a乃至102f 最大値算出部, 103 ADRC処理部, 104 特徴量上限値DB, 105 閾値算出部, 106a乃至106f 閾値判定部, 107 ぼけ量クラス出力部, 101 OR演算部, 141a乃至141f 特徴量算出部, 142a乃至142f 縮退部, 143 連結部, 144 確率分布DB, 145 ぼけ量クラス判定部, 161 ぼけ量クラス判定部, 162 足し合わせ部, 163 ぼけ量クラス決定部, 201 ノイズ度数分布DB, 202 足し合わせ部, 203 ぼけ量クラス決定部, 221 予測係数学習装置, 242 ぼけ付加部, 243 除去係数ROM, 244a乃至244f ぼけ除去処理部, 245 ぼけ量クラス生成部, 246 正規方程式加算部, 247 行列演算部

Claims (12)

  1. 入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成するボケ除去処理手段と、
    前記複数種類のボケ除去結果画像から特徴量を検出する特徴量検出手段と、
    前記特徴量よりボケ量のクラスを表すボケ量クラスを決定するボケ量クラス決定手段と、
    前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成する予測処理手段と
    を備え、
    前記ボケ量クラス決定手段は、
    入力された画像に複数種類のボケ量のボケを付加したボケ画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、前記複数種類のボケ量のそれぞれにおける、前記特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布を記憶するボケ量発生確率記憶手段を有し、
    前記特徴量検出手段により検出された特徴量の、前記ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量を前記ボケ量クラスとして決定する
    画像処理装置
  2. 前記特徴量検出手段は、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素それぞれについて前記特徴量を検出し、
    前記ボケ量クラス決定手段は、前記特徴量検出手段により検出された前記特徴量に応じたボケ量の発生確率を同一のボケ量どうしで加算し、その加算結果から、前記注目画素に対応するボケ量クラスを決定する
    請求項に記載の画像処理装置。
  3. 前記ボケ量クラス決定手段は、
    平坦な画像にノイズを付加したノイズ付加画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を予め検出することにより、ノイズにおける特徴量の発生確率を示す情報を記憶するノイズ情報記憶手段をさらに有し、
    前記注目画素およびその周辺の画素それぞれの特徴量のうち、前記ノイズにより発生した可能性が高い前記特徴量のボケ量の発生確率の加算は行わないようにする
    請求項に記載の画像処理装置。
  4. 入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成し、
    前記複数種類のボケ除去結果画像から特徴量を検出し、
    前記特徴量よりボケ量のクラスを表すボケ量クラスを決定し、
    前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成し、
    前記ボケ量クラスを決定する場合には、検出された特徴量の、ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量を前記ボケ量クラスとして決定する
    ステップを含み、
    前記ボケ量発生確率記憶手段には、入力された画像に複数種類のボケ量のボケを付加したボケ画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、前記複数種類のボケ量のそれぞれにおける、前記特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布が記憶されている
    画像処理方法。
  5. 入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成し、
    前記複数種類のボケ除去結果画像から特徴量を検出し、
    前記特徴量よりボケ量のクラスを表すボケ量クラスを決定し、
    前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成し、
    前記ボケ量クラスを決定する場合には、検出された特徴量の、ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量を前記ボケ量クラスとして決定する
    ステップを含み、
    前記ボケ量発生確率記憶手段には、入力された画像に複数種類のボケ量のボケを付加したボケ画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、前記複数種類のボケ量のそれぞれにおける、前記特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布が記憶されている
    画像処理をコンピュータに実行させるプログラム。
  6. 入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成するボケ除去処理手段と、
    前記複数種類のボケ除去結果画像から特徴量を検出する特徴量検出手段と、
    前記特徴量よりボケ量のクラスを表すボケ量クラスを決定するボケ量クラス決定手段と、
    前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成する予測処理手段と
    を備え、
    前記特徴量検出手段は、
    注目画素に対応する前記入力画像の画素およびその周辺の画素から第1の画像特徴を検出する第1の画像特徴検出手段と、
    注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴を検出する第2の画像特徴検出手段と
    を有し、
    前記ボケ量クラス決定手段は、
    複数の画像を、画素単位で前記第1の画像特徴で分類し、その第1の画像特徴ごとに、前記第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段を有し、
    前記第1の画像特徴検出手段により検出された第1の画像特徴に対応する第2の画像特徴の特性値を前記特徴量特性値記憶手段から取得し、前記第2の画像特徴検出手段により検出された第2の画像特徴と、取得された前記特性値とを比較することにより、前記ボケ量クラスを決定する
    画像処理装置
  7. 入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成し、
    前記複数種類のボケ除去結果画像から特徴量を検出し、
    前記特徴量よりボケ量のクラスを表すボケ量クラスを決定し、
    前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成し、
    前記特徴量を検出する場合、
    注目画素に対応する前記入力画像の画素およびその周辺の画素から第1の画像特徴を検出するとともに、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴を検出し、
    前記ボケ量クラスを決定する場合、
    複数の画像を、画素単位で前記第1の画像特徴で分類し、その第1の画像特徴ごとに、前記第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段から、検出された第1の画像特徴に対応する第2の画像特徴の特性値を取得し、検出された第2の画像特徴と、取得された前記特性値とを比較することにより、前記ボケ量クラスを決定する
    ステップを含む画像処理方法。
  8. 入力画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成し、
    前記複数種類のボケ除去結果画像から特徴量を検出し、
    前記特徴量よりボケ量のクラスを表すボケ量クラスを決定し、
    前記ボケ量クラスに対応する予め学習された予測係数と、前記入力画像の所定の画素の画素値との演算によりボケ除去された出力画像を生成し、
    前記特徴量を検出する場合、
    注目画素に対応する前記入力画像の画素およびその周辺の画素から第1の画像特徴を検出するとともに、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴を検出し、
    前記ボケ量クラスを決定する場合、
    複数の画像を、画素単位で前記第1の画像特徴で分類し、その第1の画像特徴ごとに、前記第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段から、検出された第1の画像特徴に対応する第2の画像特徴の特性値を取得し、検出された第2の画像特徴と、取得された前記特性値とを比較することにより、前記ボケ量クラスを決定する
    ステップを含む画像処理をコンピュータに実行させるプログラム。
  9. 画像のボケを除去する画像処理装置に用いられる予測係数を学習する学習装置であって、
    教師画像として入力されたボケのない入力画像に対して、ボケを付加した生徒画像を生成するボケ付加手段と、
    前記生徒画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成するボケ除去処理手段と、
    前記複数種類のボケ除去結果画像から特徴量を検出する特徴量検出手段と、
    前記特徴量よりボケ量のクラスを表すボケ量クラスを決定するボケ量クラス決定手段と、
    前記生徒画像と前記教師画像を用いて、前記ボケ量クラスごとに前記予測係数を求める演算手段と
    を備え、
    前記ボケ量クラス決定手段は、
    入力された画像に複数種類のボケ量のボケを付加したボケ画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を検出し、前記複数種類のボケ量のそれぞれにおける、前記特徴量の度数分布を予め検出することにより、特徴量毎に、それぞれのボケ量の発生確率を示す確率分布を記憶するボケ量発生確率記憶手段を有し、
    前記特徴量検出手段により検出された特徴量の、前記ボケ量発生確率記憶手段に記憶されている確率分布より、最も発生確率の高いボケ量を前記ボケ量クラスとして決定する
    学習装置
  10. 前記特徴量検出手段は、注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素それぞれについて前記特徴量を検出し、
    前記ボケ量クラス決定手段は、前記特徴量検出手段により検出された前記特徴量に応じたボケ量の発生確率を同一のボケ量どうしで加算し、その加算結果から、前記注目画素に対応するボケ量クラスを決定する
    請求項に記載の学習装置。
  11. 前記ボケ量クラス決定手段は、
    平坦な画像にノイズを付加したノイズ付加画像を前記複数のボケ除去係数によりボケ除去した複数種類のボケ除去結果画像から特徴量を予め検出することにより、ノイズにおける特徴量の発生確率を示す情報を記憶するノイズ情報記憶手段をさらに有し、
    前記注目画素およびその周辺の画素それぞれの特徴量のうち、前記ノイズにより発生した可能性が高い前記特徴量のボケ量の発生確率の加算は行わないようにする
    請求項10に記載の学習装置。
  12. 画像のボケを除去する画像処理装置に用いられる予測係数を学習する学習装置であって、
    教師画像として入力されたボケのない入力画像に対して、ボケを付加した生徒画像を生成するボケ付加手段と、
    前記生徒画像を、複数種類のボケ量のボケを除去するための複数のボケ除去係数によりそれぞれボケ除去処理することにより、複数種類のボケ除去結果画像を生成するボケ除去処理手段と、
    前記複数種類のボケ除去結果画像から特徴量を検出する特徴量検出手段と、
    前記特徴量よりボケ量のクラスを表すボケ量クラスを決定するボケ量クラス決定手段と、
    前記生徒画像と前記教師画像を用いて、前記ボケ量クラスごとに前記予測係数を求める演算手段と
    を備え、
    前記特徴量検出手段は、
    注目画素に対応する前記入力画像の画素およびその周辺の画素から第1の画像特徴を検出する第1の画像特徴検出手段と、
    注目画素に対応する前記ボケ除去結果画像の画素およびその周辺の画素から第2の画像特徴を検出する第2の画像特徴検出手段と
    を有し、
    前記ボケ量クラス決定手段は、
    複数の画像を、画素単位で前記第1の画像特徴で分類し、その第1の画像特徴ごとに、前記第2の画像特徴の特性値を検出して記憶する特徴量特性値記憶手段を有し、
    前記第1の画像特徴検出手段により検出された第1の画像特徴に対応する第2の画像特徴の特性値を前記特徴量特性値記憶手段から取得し、前記第2の画像特徴検出手段により検出された第2の画像特徴と、取得された前記特性値とを比較することにより、前記ボケ量クラスを決定する
    学習装置
JP2007330454A 2007-12-21 2007-12-21 画像処理装置、画像処理方法、プログラム、および学習装置 Expired - Fee Related JP4882999B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007330454A JP4882999B2 (ja) 2007-12-21 2007-12-21 画像処理装置、画像処理方法、プログラム、および学習装置
US12/331,815 US8331713B2 (en) 2007-12-21 2008-12-10 Image processing apparatus, image processing method, program and learning apparatus
CNA2008101863807A CN101465943A (zh) 2007-12-21 2008-12-19 图像处理设备、图像处理方法、程序和学习设备
KR1020080130224A KR20090068162A (ko) 2007-12-21 2008-12-19 화상 처리 장치, 화상 처리 방법, 프로그램, 및 학습 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007330454A JP4882999B2 (ja) 2007-12-21 2007-12-21 画像処理装置、画像処理方法、プログラム、および学習装置

Publications (2)

Publication Number Publication Date
JP2009151659A JP2009151659A (ja) 2009-07-09
JP4882999B2 true JP4882999B2 (ja) 2012-02-22

Family

ID=40788726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007330454A Expired - Fee Related JP4882999B2 (ja) 2007-12-21 2007-12-21 画像処理装置、画像処理方法、プログラム、および学習装置

Country Status (4)

Country Link
US (1) US8331713B2 (ja)
JP (1) JP4882999B2 (ja)
KR (1) KR20090068162A (ja)
CN (1) CN101465943A (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4915341B2 (ja) * 2007-12-20 2012-04-11 ソニー株式会社 学習装置および方法、画像処理装置および方法、並びにプログラム
JP5061882B2 (ja) * 2007-12-21 2012-10-31 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム、並びに学習装置
US8532422B2 (en) * 2008-08-08 2013-09-10 Tokyo University of Science Educational Foundation Administration Organization Image restoring device and image restoring method
JP5179398B2 (ja) * 2009-02-13 2013-04-10 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム
CN102473292A (zh) * 2009-07-30 2012-05-23 皇家飞利浦电子股份有限公司 过滤信号和获得过滤系数的方法
KR20110065997A (ko) * 2009-12-10 2011-06-16 삼성전자주식회사 영상처리장치 및 영상처리방법
US8503801B2 (en) 2010-09-21 2013-08-06 Adobe Systems Incorporated System and method for classifying the blur state of digital image pixels
US20120212477A1 (en) * 2011-02-18 2012-08-23 Intergraph Technologies Company Fast Haze Removal and Three Dimensional Depth Calculation
MX2013009389A (es) * 2011-02-25 2014-03-27 Univ Texas Estimacion de error de enfoque en imagenes.
US8830378B2 (en) * 2011-03-29 2014-09-09 Olympus Corporation Image capturing system and image capturing method, involving image restoration processing
US9361672B2 (en) * 2012-03-26 2016-06-07 Google Technology Holdings LLC Image blur detection
KR102456436B1 (ko) * 2015-02-17 2022-10-20 삼성디스플레이 주식회사 유기 발광 표시 장치

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6678405B1 (en) * 1999-06-08 2004-01-13 Sony Corporation Data processing apparatus, data processing method, learning apparatus, learning method, and medium
JP4135045B2 (ja) * 1999-06-08 2008-08-20 ソニー株式会社 データ処理装置およびデータ処理方法、並びに媒体
US6898327B1 (en) * 2000-03-23 2005-05-24 International Business Machines Corporation Anti-flicker system for multi-plane graphics
JP2001331806A (ja) 2000-05-22 2001-11-30 Nec Corp 画像処理方式
JP2002077591A (ja) 2000-09-05 2002-03-15 Minolta Co Ltd 画像処理装置および撮像装置
US8717456B2 (en) * 2002-02-27 2014-05-06 Omnivision Technologies, Inc. Optical imaging systems and methods utilizing nonlinear and/or spatially varying image processing
JP4144374B2 (ja) * 2003-02-25 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4143916B2 (ja) * 2003-02-25 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4265237B2 (ja) * 2003-02-27 2009-05-20 ソニー株式会社 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム
JP4144378B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4144377B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP2007206738A (ja) * 2006-01-30 2007-08-16 Kyocera Corp 撮像装置およびその方法
US8306280B2 (en) * 2006-04-11 2012-11-06 Nikon Corporation Electronic camera and image processing apparatus
WO2008031089A2 (en) * 2006-09-08 2008-03-13 Sarnoff Corporation System and method for high performance image processing
US8184926B2 (en) * 2007-02-28 2012-05-22 Microsoft Corporation Image deblurring with blurred/noisy image pairs
JP5061883B2 (ja) * 2007-12-21 2012-10-31 ソニー株式会社 画像処理装置、画像処理方法、プログラム、および学習装置

Also Published As

Publication number Publication date
KR20090068162A (ko) 2009-06-25
US8331713B2 (en) 2012-12-11
US20090161977A1 (en) 2009-06-25
CN101465943A (zh) 2009-06-24
JP2009151659A (ja) 2009-07-09

Similar Documents

Publication Publication Date Title
JP4882999B2 (ja) 画像処理装置、画像処理方法、プログラム、および学習装置
JP5061883B2 (ja) 画像処理装置、画像処理方法、プログラム、および学習装置
JP4148041B2 (ja) 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体
US20120321214A1 (en) Image processing apparatus and method, program, and recording medium
JP2007189589A (ja) 情報処理装置および情報処理方法、学習装置および学習方法、並びにプログラム
JP4915341B2 (ja) 学習装置および方法、画像処理装置および方法、並びにプログラム
JP5476879B2 (ja) 画像処理装置および係数学習装置。
US10812815B2 (en) Methods, systems, and computer readable media for compressing video images
JP6065613B2 (ja) 動画像符号化装置
JP2010103981A (ja) 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP2007006304A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2013239108A (ja) 画像処理装置および方法、学習装置および方法、並びに、プログラム
JP5039017B2 (ja) ノイズレベル検出装置
JP4770704B2 (ja) 画像処理装置、画像処理方法、およびプログラム
CN115861048A (zh) 图像超分方法、装置、设备及存储介质
JP2011217010A (ja) 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
JP2007251690A (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
KR20120052361A (ko) 신호를 필터링하고 필터 계수들을 획득하는 방법
JP5050944B2 (ja) 画像処理装置、画像処理方法、学習装置、学習方法、及びプログラム
JP2005051638A (ja) 信号処理装置および信号処理方法
JP2009253873A (ja) 画像処理装置及び方法、並びにプログラム
JP5099429B2 (ja) 信号処理装置、信号処理方法、およびプログラム、並びに学習装置
JP2008118519A (ja) 画像変換装置及び画像変換方法、学習装置及び学習方法、並びにプログラム
JP2011217011A (ja) 係数学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
CN117812472A (zh) 一种基于序列图像曝光融合的高动态范围成像方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees