JP5933129B2 - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP5933129B2
JP5933129B2 JP2015529453A JP2015529453A JP5933129B2 JP 5933129 B2 JP5933129 B2 JP 5933129B2 JP 2015529453 A JP2015529453 A JP 2015529453A JP 2015529453 A JP2015529453 A JP 2015529453A JP 5933129 B2 JP5933129 B2 JP 5933129B2
Authority
JP
Japan
Prior art keywords
restoration
frame
processing
image
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015529453A
Other languages
English (en)
Other versions
JPWO2015015943A1 (ja
Inventor
杉本 雅彦
雅彦 杉本
林 健吉
健吉 林
洋介 成瀬
洋介 成瀬
入江 公祐
公祐 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Application granted granted Critical
Publication of JP5933129B2 publication Critical patent/JP5933129B2/ja
Publication of JPWO2015015943A1 publication Critical patent/JPWO2015015943A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置、撮像装置、画像処理方法、及びプログラムに係り、特に点拡がり関数に基づく復元処理を行う画像処理装置、撮像装置、画像処理方法、及びプログラムに関する。
撮像光学系を介して撮影される被写体像には、撮像光学系に起因する回折や収差等の影響により、点被写体が微小な広がりを持つ所謂点拡がり現象が見られることがある。光学系の点光源に対する応答を表す関数は点拡がり関数(PSF:Point Spread Function)と呼ばれ、撮影画像の解像度劣化(ボケ)を左右するパラメータとして知られている。
この点拡がり現象のために画質劣化した撮影画像は、PSFに基づく復元処理(点像復元処理)を受けることで画質を回復することができる。復元処理は、レンズ(光学系)の収差等に起因する劣化特性(点像特性)を予め求めておき、その点像特性に応じた復元フィルタを用いる画像処理によって撮影画像の点拡がりをキャンセルする処理である。
復元処理を行うと基本的には画質の向上が期待されるが、復元処理を行うことにより却って画質の劣化を招く場合がある。そのような場合に対処すべく、様々な手法が提案されている。
例えば特許文献1には、不要なぶれ補正処理の実行を抑制するぶれ補正装置が開示されている。この補正装置は、補正対象画像に含まれるぶれの均一性を二枚の推定用画像から推定し、その均一性を基に、PSFを利用してぶれ補正処理を行う。
さらに、復元処理を飽和画素やデフォーカス領域に対して行うと、却って画質を劣化させてしまう場合があり、復元処理を飽和画素やデフォーカス領域に対して行うことによる画質劣化に対処する様々な手法も提案されている。
例えば特許文献2には、白飛び領域、すなわち飽和画素が含まれる領域に対して復元処理を行う場合に発生するノイズを抑制し、撮像光学系に起因する画質劣化を低減する画像処理装置が開示されている。この画像処理装置は、回復処理が施された撮像データに露出量の補正に基づいてゲイン調整を行う。
また特許文献3には、デフォーカス位置を設定し、そのデフォーカス位置に関する情報を参考にして、PSFを利用したボケ補正を行う技術が開示されている。
さらに、点像復元処理を動画に対して行うことについても、様々な手法が提案されている。
例えば特許文献4には、動画に対するPSFを使用した復元処理を行う撮像装置が開示されている。この撮像装置は、静止画に画像復元処理を行う場合には第1フィルタを、動画に画像復元処理を行う場合には第2フィルタを使用する。
特開2009−171341号公報 特開2010−283527号公報 特開2012−65114号公報 特開2008−11492号公報
しかしながら、「撮影環境の急な変化」がある動画に対して復元処理を行う場合には、特許文献1から特許文献4に開示されている技術は、フレーム毎の撮影環境に応じて復元処理の内容を変化させるので、フレーム間で復元処理の内容に大きな違いが生まれる場合がある。このような、フレーム間での復元処理の内容の大きな違いは、画像の連続性を求められる動画において、好ましくない。
本発明はこのような事情に鑑みてなされたもので、「撮影環境の急な変化」がある場合であっても、フレーム間の復元処理の連続性を維持しつつ、良好な画質の動画を取得することができる画像処理装置、撮像装置、画像処理方法、及びプログラムを提供することを目的とする。
本発明の一態様は、光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元制御処理部を備え、復元制御処理部は、複数のフレームのうちの処理対象フレームに対する復元処理を、処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御する画像処理装置に関する。
本態様によれば、処理対象フレームに対しての復元処理は、参照フレームの撮像情報に基づいて行われる。これにより、本態様は、処理対象フレームと参照フレームとの間の復元処理の連続性を維持しつつ、良好な画質の動画を取得することができる。
なお、「処理対象フレーム」とは復元制御処理部内で実行される復元処理が行われる対象のフレームである。
また、「参照フレーム」とは動画を構成する複数のフレームのうち、処理対象フレーム以外のフレームであって、処理対象フレームより時系列における後のフレームを少なくとも含むフレームである。なお、参照フレームは、単数でも複数であってもよい。
望ましくは、参照フレームは、処理対象フレームよりも時系列における前のフレームを含む。
本態様によれば、参照フレームとして、処理対象フレームよりも時系列における前のフレームを含むので、参照フレームは、時系列における前のフレーム及び時系列における後のフレームを有することになる。これにより、本態様は、処理対象フレームの前後においてより連続性が優れた復元処理を行うことができる。
望ましくは、参照フレームは、処理対象フレームの時系列における直前のフレーム及び直後のフレームを含む。
本態様によれば、処理対象フレームの時系列における直前及び直後のフレームでの撮像情報に基づいて復元処理の内容が調整される。これにより、本態様は、処理対象フレームの直前及び直後においてより連続性が良好な復元処理を行うことができる。
望ましくは、復元制御処理部は、処理対象フレームに対する復元処理を、参照フレームの撮像情報及び処理対象フレームの撮像情報に基づいて制御する。
本態様によれば、参照フレーム及び処理対象フレームの撮像情報に基づいて、復元処理の内容が調整されるので、本態様は、処理対象フレームと参照フレーム間においてより連続性のある復元処理を行うことができる。
望ましくは、撮像情報は、処理対象フレーム及び参照フレームの撮影条件情報を含む。
本態様によれば、処理対象フレーム及び参照フレームの撮影条件情報に基づいて、復元処理の内容が調整される。これにより、本態様は、処理対象フレーム及び参照フレームの間において撮影条件情報が大きく変わる場合であっても、連続性のある復元処理を行うことができる。
望ましくは、撮影条件情報は、絞り値及びズーム倍率のうち少なくともいずれか一方を含む。
本態様によれば、絞り値やズーム倍率に基づいて復元処理の内容を調整する。これにより、本態様は、絞り値やズーム倍率の急な変化にも、連続性のある復元処理を行うことができる。
望ましくは、復元制御処理部は、処理対象フレーム及び参照フレームの撮影条件情報のうち最も頻度の高い撮影条件に基づいて、復元処理を行う。
本態様によれば、最も頻度の高い撮影条件に基づいて、復元処理の内容が安定的に調整される。これにより、本態様は、撮影条件に応じた復元処理の内容が安定的となり、連続性のある復元処理を行うことができる。
望ましくは、復元処理は、点拡がり関数に基づく復元フィルタを用いるフィルタリング処理を含み、復元制御処理部は、処理対象フレームの撮影条件情報に対応する復元フィルタと、参照フレームの撮影条件情報に対応する復元フィルタとに基づいて算出されるフィルタを復元フィルタとして用いたフィルタリング処理を、処理対象フレームに対して行うことにより、処理対象フレームに対する復元処理を行う。
本態様によれば、処理対象フレームの復元フィルタと参照フレームの復元フィルタとに基づいて、新たな復元フィルタが算出され、その新たな復元フィルタに基づいて、復元処理が実行される。これにより、本態様は、処理対象フレームに対してより適切な復元処理を行うことができ、且つフレーム間において連続性がある復元処理を行うことができる。
望ましくは、復元制御処理部は、処理対象フレームの撮影条件情報に対応する復元フィルタと、参照フレームの撮影条件情報に対応する復元フィルタとの加重平均から算出されるフィルタを復元フィルタとして用いたフィルタリング処理を、処理対象フレームに対して行うことにより、処理対象フレームに対する復元処理を行う。
本態様によれば、処理対象フレームの復元フィルタと参照フレームの復元フィルタとが加重平均されることにより、新たな復元フィルタが算出される。これにより、本態様は、各フレームの重要度に基づいて、連続性のある復元処理を行うことができる。また、本態様は、被写体が動く場合であっても画質の良い動画を提供することができる。
望ましくは、復元制御処理部は、処理対象フレームの撮影条件情報に対応する復元フィルタを処理対象フレームに適用することで算出される画像データと、参照フレームの撮影条件情報に対応する復元フィルタを参照フレームに適用することで算出される画像データとの加重平均から算出される画像データを、処理対象フレームの回復画像データとする。
本態様によれば、処理対象フレームに対して復元処理することにより得られる画像データ、及び参照フレームに対して復元処理することにより得られる画像データの加重平均により求められる画像データを、処理対象フレームの回復画像データとする。これにより、本態様は、各フレームの重要度に基づいて、連続性のある復元処理を行うことができる。
望ましくは、動画の被写体の動きを検出する被写体検出部を備え、被写体検出部によって検出される処理対象フレーム及び参照フレームでの被写体の動き量が閾値以上の場合、復元制御処理部は、処理対象フレームの撮影条件情報に対応する復元フィルタと、参照フレームの撮影条件情報に対応する復元フィルタとの加重平均から算出されるフィルタを復元フィルタとして用いたフィルタリング処理を、処理対象フレームに対して行うことにより、処理対象フレームに対する復元処理を行い、被写体検出部によって検出される処理対象フレーム及び参照フレームでの被写体の動き量が閾値未満の場合、復元制御処理部は、処理対象フレームの撮影条件情報に対応する復元フィルタを処理対象フレームに適用することで算出される画像データと、参照フレームの撮影条件情報に対応する復元フィルタを参照フレームに適用することで算出される画像データとの加重平均から算出される画像データを、処理対象フレームの回復画像データとする。
本態様によれば、被写体の動きに基づいて、新たに復元フィルタを生成し復元処理を行い処理対象フレームに係る回復画像データを求める場合と、処理対象フレームの回復画像データと参照フレームの回復画像データとの加重平均により処理対象フレームに係る回復画像データを求める場合と、に復元処理の内容を分けている。これにより、本態様は、被写体の動きに応じて良好な画像処理を行うことができる。
なお、「動き量」は、動画における被写体像の動きを定量的に表現するものであれば特に限定されるものではなく、様々な被写体、例えば主要被写体の動きを表す数値等を使用することができる。また、「閾値」は、特に限定されるものではなく、動き量と本発明の画像処理との関係で適宜決めることができる。
望ましくは、撮像情報は、処理対象フレーム及び参照フレームの画像情報を含む。
本態様によれば、処理対象フレーム及び参照フレームの画像情報に基づいて復元処理が行われる。これにより、本態様は、画像情報に応じて連続性のある復元処理を行うことができる。
望ましくは、画像情報は、処理対象フレーム及び参照フレームに飽和画素が含まれるか否かの情報、及び処理対象フレーム及び参照フレームにデフォーカス領域が含まれるか否かの情報のうち、少なくともいずれか一方を含む。
本態様によれば、飽和画素やデフォーカス領域の有無に基づいて、復元処理の内容を調整する。これにより、本態様は、飽和画素やデフォーカス領域が動画の途中から発生する場合であっても連続性のよい復元処理を行うことができる。
望ましくは、画像情報は、処理対象フレーム及び参照フレームに飽和画素が含まれるか否かの情報を含み、復元制御処理部は、参照フレームに飽和画素が含まれるか否かを判別し、参照フレームに飽和画素が含まれると判別した場合には、当該飽和画素が含まれる参照フレームの撮像情報に基づき、処理対象フレームに対する復元処理の復元強度を調整する。
本態様によれば、飽和画素を含むフレームがある動画の場合には、飽和画素が含まれるフレームの撮像情報に基づき復元処理の復元強度を調整する。これによれば、本態様は、動画に飽和画素が存在する場合であっても連続性のある復元処理を行うことができる。
望ましくは、復元制御処理部は、参照フレームにおける光源の点滅状態を解析し、光源の点滅状態に基づき、処理対象フレームに対する復元処理の復元強度を調整する。
本態様によれば、点滅光源が動画にある場合には、その点滅光源に基づいて復元処理の復元強度を調整する。これによれば、本態様は、動画に点滅光源が存在する場合であっても、連続性のある復元処理を行うことができる。
望ましくは、画像情報は、処理対象フレーム及び参照フレームにデフォーカス領域が含まれるか否かの情報を含み、復元制御処理部は、参照フレームにデフォーカス領域が含まれるか否かを判別し、参照フレームにデフォーカス領域が含まれると判別した場合には、当該デフォーカス領域が含まれる参照フレームの撮像情報に基づき、処理対象フレームに対する復元処理の復元強度を調整する。
本態様によれば、デフォーカス領域が動画にある場合には、その動画に基づき復元処理の復元強度を調整する。これにより、本態様は、デフォーカス領域が動画にある場合であっても、連続性の良い復元処理を行うことができる。
望ましくは、動画において動体を検出する動体検出部を備え、動体検出部によって処理対象フレーム及び参照フレームで動体が検出された場合、復元制御処理部は、動体の動きに応じた位相特性が反映された点拡がり関数に基づく復元処理を処理対象フレームに対して行う。
本態様によれば、動体を撮像した動画である場合には、その動体の検出に基づいて復元処理を行うことができる。これにより、本態様は、動体を撮像した動画であっても、良好な画質の復元処理を行うことができる。
望ましくは、復元制御処理部は、動画の原画像データに対し、光学系の点拡がり関数に基づく復元フィルタを適用して復元画像データを取得するフィルタ適用部と、原画像データと復元画像データとの差分の増幅率の調整を行い、当該調整が行われた後の差分と原画像データとから動画の回復画像データを取得するゲイン調整部と、を有し、参照フレームの撮情報に基づき、復元フィルタ及び増幅率のうち少なくともいずれか一方を調整することで、処理対象フレームに対する復元処理を制御する。
本態様によれば、復元処理の制御がフィルタ適用部及びゲイン調整部により行われる。これにより、本態様は、復元フィルタの調整又はゲインの調整により、復元処理の制御を行うことができる。
望ましくは、光学系は、位相を変調して被写界深度を拡大させるレンズ部を有する。
本態様によれば、いわゆるEDoF(Extended Depth of Field(Focus))光学系を介して得られる原画像データに対しても、画質劣化を抑制した復元処理を行うことができる。なお、レンズ部における位相を変調させる手法(光学的位相変調手段)は特に限定されず、レンズ間に位相変調部を設けたり、レンズ自体(例えばレンズの入射面及び/又は出力面)に位相変調機能を持たせたりすることも可能である。
本発明の他の態様は、光学系を用いた撮影により動画を取得する撮像素子と、上述の画像処理装置と、を備える撮像装置に関する技術である。
望ましくは、ライブビュー画像を表示する表示部を備え、復元制御処理部は、ライブビュー画像に対して光学系の点拡がり関数に基づく復元処理を行い、ライブビュー画像に対する復元処理は、ライブビュー画像を構成する複数のフレームのうちの処理対象フレームに対する復元処理を、当該処理対象フレームの時系列における前又は後に取得されたフレームの撮像情報には基づかずに、当該処理対象フレームの撮像情報に基づいて制御する。
本態様によれば、ライブビュー画像には、参照フレームの撮像情報に応じた処理対象フレームの復元処理を行わないので、画像処理に関係する計算の負荷を低減することができる。これにより、本態様は、応答性のよいライブビュー画像を取得することができる。
望ましくは、ライブビュー画像を表示する表示部を備え、復元制御処理部は、ライブビュー画像に対し、光学系の点拡がり関数に基づく復元処理を行わない。
本態様によれば、ライブビュー画像には復元処理が行われないので、画像処理に関係する計算の負荷を低減することができる。これにより、本態様は、応答性のよいライブビュー画像を取得することができる。
本発明の他の態様は、光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する画像処理方法であって、画像処理方法は、複数のフレームのうちの処理対象フレームに対する復元処理を、処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御する画像処理方法に関する技術である。
本発明の他の態様は、光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する手順をコンピュータに実行させるプログラムであって、プログラムは、複数のフレームのうちの処理対象フレームに対する復元処理を、処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御することを実行させるプログラムに関する技術である。
本発明によれば、復元処理が行われるフレーム、すなわち処理対象フレームに対する復元処理を、処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御するため、動画において撮影環境の急な変化があっても、その変化の前段階から復元処理の内容を徐々に調整することができ、急な復元処理の内容の変化を抑制して連続性が良好な復元処理を行うとともに、復元処理により画質の劣化を抑制することができる。
コンピュータに接続されるデジタルカメラの概略を示すブロック図である。 カメラ本体コントローラの機能構成例を示すブロック図である。 画像撮影から復元処理までの概略を示す図である。 復元処理の一例の概略を示すブロック図である。 第1実施形態における画像処理部の機能構成の一例を示すブロック図である。 処理対象フレームと参照フレームの一例を説明する図である。 復元調整部が行う復元処理の内容の調整に関する例を説明する図である。 復元調整部が行う復元処理の内容の調整に関する例を説明する図である。 最頻値を決定する場合の復元調整部の動作フローを示した図である。 復元フィルタの係数を加重平均することにより新たな復元フィルタを生成することを説明する図である。 復元フィルタの係数を加重平均することにより新たな復元フィルタを生成する場合の復元調整部の動作フロー図である。 画像データを加重平均することにより、回復画像データを取得する場合の復元調整部の動作フロー図である。 復元実行部の制御ブロック図の一例である。 第2実施形態における画像処理部の機能構成の一例を示すブロック図である。 第3実施形態における画像情報に基づいた復元処理を説明する図である。 第4実施形態における画像処理部の機能構成の一例を示すブロック図である。 EDoF光学系を備える撮像モジュールの一形態を示すブロック図である。 EDoF光学系の一例を示す図である。 図17に示す復元処理ブロックによる復元処理フローの一例を示す図である。 EDoF光学系を介して取得された画像の復元例を示す図であり、(a)は復元処理前のぼけた画像を示し、(b)は復元処理後のぼけが解消された画像(点像)を示す。 スマートフォンの外観図である。 図21に示すスマートフォンの構成を示すブロック図である。
添付図面を参照して本発明の実施形態について説明する。以下の説明では、一例として、コンピュータ(PC:パーソナルコンピュータ)60に接続可能なデジタルカメラ10(撮像装置)に本発明を適用する例について説明する。
なお、以下の例では、別体として構成される光学系12及びカメラ本体14が組み合わされたレンズ交換式のデジタルカメラ10について説明するが、光学系12及びカメラ本体14が一体構成を有するレンズ固定式のデジタルカメラ10に対しても、同様の復元処理を行うことが可能である。また、デジタルカメラ10は、動画撮影を主たる機能とするビデオカメラであってもよいし、静止画及び動画の両者を撮影可能な撮像装置であってもよい。
図1は、コンピュータ60に接続されるデジタルカメラ10の概略を示すブロック図である。
デジタルカメラ10は、交換可能な光学系12と、撮像素子26を具備するカメラ本体14とを備え、光学系12とカメラ本体14とは、光学系12の光学系入出力部22とカメラ本体14のカメラ本体入出力部30とを介して電気的に接続される。
光学系12は、レンズ16や絞り17等の光学部材と、この光学部材を制御する光学系操作部18とを具備する。光学系操作部18は、光学系入出力部22に接続される光学系コントローラ20と、光学部材を操作するアクチュエータ(図示省略)とを含む。光学系コントローラ20は、光学系入出力部22を介してカメラ本体14から送られてくる制御信号に基づき、アクチュエータを介して光学部材を制御し、例えば、レンズ移動によるフォーカス制御やズーム制御、絞り17の絞り量制御、等を行う。
撮像素子26は、集光用マイクロレンズ、RGB等のカラーフィルタ、及びイメージセンサ(フォトダイオード;CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)等)を有する。撮像素子26は、光学系12により捉えられた被写体像の光を電気信号に変換し、画像信号(原画像データ)をカメラ本体コントローラ28の画像処理装置に送る。
カメラ本体コントローラ28は、カメラ本体14を統括的に制御し、図2に示すようにデバイス制御部34と画像処理部(画像処理装置)35とを有する。デバイス制御部34は、例えば、撮像素子26からの画像信号(画像データ)の出力を制御したり、光学系12を制御するための制御信号を生成してカメラ本体入出力部30を介して光学系12(光学系コントローラ20)に送信したり、入出力インターフェース32を介して接続される外部機器類(コンピュータ60等)に画像処理前後の画像データ(RAWデータ、JPEGデータ等)を送信したりする。また、デバイス制御部34は、デジタルカメラ10が具備する表示部33(EVF:Electronic View Finder、背面液晶表示部)等の各種デバイス類を適宜制御する。
画像処理部35は、撮像素子26からの画像信号に対し、必要に応じた任意の画像処理を行うことができる。例えば、センサ補正処理、デモザイク(同時化)処理、画素補間処理、色補正処理(オフセット補正処理、ホワイトバランス処理、カラーマトリック処理、ガンマ変換処理、等)、RGB画像処理(シャープネス処理、トーン補正処理、露出補正処理、輪郭補正処理、等)、RGB/YCrCb変換処理及び画像圧縮処理、等の各種の画像処理が、画像処理部35において適宜行われる。加えて、本例の画像処理部35は、光学系12の点拡がり関数に基づく復元処理(点像復元処理)を画像信号(原画像データ)に対して行う復元制御処理部36を含む。復元処理の詳細は後述する。
なお、図1に示すデジタルカメラ10は、撮影等に必要なその他の機器類(シャッター等)を具備し、ユーザは、カメラ本体14に設けられるユーザーインターフェイス37を介して撮影等のための各種設定を適宜決定及び変更することができる。ユーザーインターフェイス37は、カメラ本体コントローラ28(デバイス制御部34及び画像処理部35)に接続され、ユーザからの命令によって決定及び変更された各種設定がカメラ本体コントローラ28における各種処理に反映される。
カメラ本体コントローラ28において画像処理された画像データは、入出力インターフェース32に接続されるコンピュータ60等に送られる。デジタルカメラ10(カメラ本体コントローラ28)からコンピュータ60等に送られる画像データのフォーマットは特に限定されず、RAW、MPEG-4等の任意のフォーマットを採用する。また、コンピュータ60内で、以下に説明する本発明の画像処理を行う場合には、デジタルカメラ10は、例えば、時系列において連続する複数のフィルタがコンピュータ60に送信され、コンピュータ60の内部で画像処理が行われる。
コンピュータ60は、カメラ本体14の入出力インターフェース32及びコンピュータ入出力部62を介してデジタルカメラ10に接続され、カメラ本体14から送られてくる画像データ等のデータ類を受信する。コンピュータコントローラ64は、コンピュータ60を統括的に制御し、デジタルカメラ10からの画像データを画像処理したり、インターネット70等のネットワーク回線を介してコンピュータ入出力部62に接続されるサーバ80等との通信制御をしたりする。
コンピュータ60はディスプレイ66を有し、コンピュータコントローラ64における処理内容等がディスプレイ66に必要に応じて表示される。ユーザは、ディスプレイ66の表示を確認しながらキーボード等の入力手段(図示省略)を操作することで、コンピュータコントローラ64に対してデータやコマンドを入力し、コンピュータ60を制御したり、コンピュータ60に接続される機器類(デジタルカメラ10、サーバ80)を制御したりすることができる。
サーバ80は、サーバ入出力部82及びサーバコントローラ84を有する。サーバ入出力部82は、コンピュータ60等の外部機器類との送受信接続部を構成し、インターネット70等のネットワーク回線を介してコンピュータ60のコンピュータ入出力部62に接続される。サーバコントローラ84は、コンピュータ60からの制御指示信号に応じ、コンピュータコントローラ64と協働し、コンピュータコントローラ64との間で必要に応じてデータ類の送受信を行い、データ類をコンピュータ60にダウンロードしたり、演算処理を行うことによりその演算結果をコンピュータ60に送信したりする。
各コントローラ(光学系コントローラ20、カメラ本体コントローラ28、コンピュータコントローラ64、サーバコントローラ84)は、制御処理に必要な回路類を備え、例えば演算処理回路(CPU等)やメモリ等を具備する。また、デジタルカメラ10、コンピュータ60及びサーバ80間の通信は有線であってもよいし無線であってもよい。また、コンピュータ60及びサーバ80を一体的に構成してもよく、またコンピュータ60及び/又はサーバ80が省略されてもよい。また、デジタルカメラ10にサーバ80との通信機能を持たせ、デジタルカメラ10とサーバ80との間で直接的にデータ類の送受信が行われるようにしてもよい。
次に、撮像素子26を介して得られる被写体像の撮像データ(画像データ)の復元処理について説明する。
本例では、カメラ本体14(カメラ本体コントローラ28)において復元処理が実施される例について説明するが、復元処理の全部又は一部を他のコントローラ(光学系コントローラ20、コンピュータコントローラ64、サーバコントローラ84等)において実施することも可能である。
復元処理は、光学系12及び撮像素子26を用いた撮影により取得される原画像データに対し、光学系12の点拡がり関数に基づく復元フィルタを用いた復元処理を行うことにより回復画像データを取得する処理である。
図3は、画像撮影から復元処理までの概略を示す図である。点像を被写体として撮影を行う場合、被写体像は光学系12を介して撮像素子26(イメージセンサ)により受光され、撮像素子26から原画像データDoが出力される。この原画像データDoは、光学系12の特性に由来する点拡がり現象によって、本来の被写体像がボケた状態の画像データとなる。
このボケ画像の原画像データDoから本来の被写体像(点像)を復元するため、原画像データDoに対して復元フィルタFを用いた復元処理P10を行うことにより、本来の被写体像(点像)により近い像(回復画像)を表す回復画像データDrが得られる。
復元処理P10で用いられる復元フィルタFは、原画像データDo取得時の撮影条件に応じた光学系12の点像情報(点拡がり関数)から、所定の復元フィルタ算出アルゴリズムP20によって得られる。図3における符号αは撮影条件に応じた点像情報を表し、この光学系12の点像情報である点拡がり関数は、レンズ16の種類だけではなく、絞り量、焦点距離、被写体距離、像高、記録画素数、画素ピッチ等の各種の撮影条件によって変動しうるため、復元フィルタFを算出する際には、これらの撮影条件が取得される。
図4は、復元処理の一例の概略を示すブロック図である。
上述のように復元処理(点像復元処理)P10は、復元フィルタFを用いたフィルタリング処理によって原画像データDoから回復画像データDrを作成する処理であり、例えばN×M(N及びMは2以上の整数を表す)のタップによって構成される実空間上の復元フィルタFが処理対象の画像データに適用される。これにより、各タップに割り当てられるフィルタ係数と対応の画素データ(原画像データDoの処理対象画素データ及び隣接画素データ)とを加重平均演算(デコンボリューション演算)することにより、復元処理後の画素データ(回復画像データDr)を算出することができる。この復元フィルタFを用いた加重平均処理を、対象画素を順番に代え、画像データを構成する全画素データに適用することにより、復元処理を行うことができる。図4における符号βは、処理対象画素データに適用するタップ(フィルタ係数)を表す。
なお、N×Mのタップによって構成される実空間上の復元フィルタは、周波数空間上の復元フィルタを逆フーリエ変換することによって導出可能である。したがって、実空間上の復元フィルタは、基礎となる周波数空間上の復元フィルタを特定し、実空間上の復元フィルタの構成タップ数を指定することによって、適宜算出可能である。また、復元処理の処理対象となる原画像データの種類は特に限定されず、例えば色成分データ(RGB等の色成分信号)であってもよいし、輝度データであってもよい。
上述の復元処理は、連続撮影された複数の画像(動画)に対しても行うことができる。動画に対して復元処理を行う場合は、時系列において連続する複数のフレームに対して、復元処理が行われる。
<第1実施形態>
図5は、第1実施形態の動画に対する復元処理に関わる機能ブロック図であり、画像処理部35(図2参照)によって構成される各種の機能ブロックを示す。なお、図中の機能ブロックは、必ずしも別体として設けられる必要はなく、一体的に構成されるハードウェア/ソフトウェアによって複数の機能ブロックを実現してもよい。
画像処理部35は、バッファメモリ部41及び復元制御処理部36を含み、復元制御処理部36は、復元調整部43、及び復元実行部45を含む。また、バッファメモリ部41、及び復元制御処理部36(復元調整部43及び復元実行部45)は、相互にデータの通信が可能である。
バッファメモリ部41は、光学系12及び撮像素子26を用いた撮影によって取得される時系列に連続する複数のフレームの画像データ及び各フレームの撮像時の撮影条件(絞り値、焦点距離、被写体距離等)を示す撮影条件情報を一時保存する。そして、バッファメモリ部41に保存された画像データに対して、画像処理部35において、様々な処理が行われる。バッファメモリ部41には、例えば、RAM(Random Access Momory)が使用される。なお、フレーム毎の画像情報(画像データ)及び撮影条件情報をそのフレームの撮情報という。
復元調整部43は、復元実行部45で行われる復元処理の内容に関して調整を行う。すなわち、復元調整部43は、処理対象フレームに対する復元処理を、処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御する。ここで、「処理対象フレーム」とは復元処理が行われるフレームであり、「参照フレーム」とは処理対象フレームの復元処理の内容の調整に関する情報を得るフレームである。また、「復元処理の内容」とは、復元処理の効果を左右するものをいい、例えば、復元フィルタのフィルタ係数やゲインに関する係数のことをいう。
図6は、「処理対象フレーム」及び「参照フレーム」に関して説明する図である。
動画の撮像時には、光学系12及び撮像素子26を介して所定のフレームレートで被写体が連続して撮像され、時系列に連続する複数のフレームからなる動画の画像データが取得される。ここで、フレームレートとは、単位時間あたりのフレーム数(画像数、コマ数)であり、一般的には1秒間に生成されるフレーム数(単位:fps(frame per second))によって表される。例えば、本態様のデジタルカメラ10は、フレームレートが30fpsの場合、1秒間に30枚の画像の生成を行い、フレームレートが60fpsの場合、1秒間に60枚の画像の生成を行う。
また、動画は、時系列に連続する複数のフレームから構成され、例えば、記録動画、ライブビュー画像を含む意味である。
図6は、時間tに撮像されたフレーム(t)に対して復元処理を行う場合を示す。この場合、フレーム(t)は、処理対象フレームとなる。そして、時間t−1に撮像されたフレーム(t−1)、時間t−2に撮像されたフレーム(t−2)、及び時間t−3に撮像されたフレーム(t−3)は、処理対象フレームよりも時系列における前のフレームである。また、時間t+1に撮像されたフレーム(t+1)、時間t+2に撮像されたフレーム(t+2)、及び時間t+3に撮像されたフレーム(t+3)は、処理対象フレームよりも時系列における後のフレームである。なお、図6では説明の都合上、処理対象フレームに対して時系列の前のフレームを3フレーム及び時系列の後のフレームを3フレームのみ記載しているが、実際は撮影時間に応じて多数のフレームが存在している。
参照フレームは、処理対象フレーム(フレーム(t))よりも時系列における後のフレームが少なくとも1フレーム含まれればよい。また、参照フレームは、単数であってもよいし、複数であってもよい。例えば、参照フレームが単数の場合は、処理対象フレーム(フレーム(t))よりも時系列における後のフレームであるフレーム(t+1)が参照フレームとして選択される。また、例えば、参照フレームが複数の場合は、処理対象フレーム(フレーム(t))よりも時系列における後のフレームであるフレーム(t+1)及び処理対象フレーム(フレーム(t))よりも時系列における前のフレームであるフレーム(t+1)が選択される。
図6において、フレーム(t−1)は処理対象フレームの時系列における直前のフレームであり、フレーム(t+1)は処理対象フレームの時系列における直後のフレームである。このような直前のフレーム(フレーム(t−1))や直後のフレーム(フレーム(t+1))を参照フレームとして選択してもよい。
時系列において連続する複数のフレームの中から参照フレームを選択する方法は様々な手法が用いられる。例えば、参照フレームを選択する方法として、予めユーザが参照フレームの選択する方法をユーザーインターフェイス37により指定する手法が考えられる。また例えば、参照フレームを選択する方法は、予め決定されていてもよい。
復元調整部43は、参照フレームの撮像情報に基づいて、処理対象フレームの復元処理の内容に関して調整を行う。復元調整部43は、フレーム間において連続性のある復元処理を実現すべく、様々な手法により、参照フレームの撮像情報に基づいて復元処理の内容を調整する。
さらに、復元調整部43は、参照フレームの撮像情報及び処理対象フレームの撮像情報に基づいて、処理対象フレームの復元処理の内容に関して調整を行うことができる。処理対象フレームの撮像情報及び参照フレームの撮像情報に基づいて処理対象フレームの復元処理を行うことにより、処理対象フレームと参照フレーム間において連続性のある復元処理を行うことができ、且つ処理対象フレームに適した復元処理を行うこともできる。
次に、復元調整部43が行う復元処理の内容に関する調整の方法を具体例により説明する。
復元調整部43は、参照フレームの撮像情報に関して最頻値に基づいて、復元処理の内容を調整することができる。
図7は、図6で説明を行ったフレーム(t−3)からフレーム(t+3)の各々において、撮影条件情報(撮像情報)として絞り値(F値)が与えられている場合を示している。具体的に図7に示す場合には、フレーム(t−3)は絞り値F2で撮像され、フレーム(t−2)は絞り値F2で撮像され、フレーム(t−1)は絞り値F2で撮像され、フレーム(t)は絞り値F2.8で撮像され、フレーム(t+1)は絞り値F2で撮像され、
フレーム(t+2)は絞り値F2で撮像され、及びフレーム(t+3)は絞り値F2で撮像されている。
処理対象フレームをフレーム(t−1)とし、参照フレームをフレーム(t−3)、フレーム(t−2)、フレーム(t)、及びフレーム(t+1)とする場合について説明する。この場合、フレーム(t−3)、フレーム(t−2)、フレーム(t−1)、及びフレーム(t+1)は絞り値がF2で撮像され、フレーム(t)は絞り値がF2.8で撮像されている。このため、処理対象フレーム及び参照フレームにおいて、撮影条件情報としての絞り値の最頻値はF2となる。そうすると、処理対象フレーム(フレーム(t−1))に対して復元処理を行う場合には、絞り値がF2で撮像されたフレーム用の復元フィルタが使用される。
同様に、処理対象フレームをフレーム(t)、フレーム(t+1)とした場合も処理対象フレームを含む前後5フレームの絞り値の最頻値はF2となり、いずれの処理対象フレームも、絞り値がF2で撮像されたフレーム用の復元フィルタが使用される。
また、図8は別の参照フレームを選択する例を示す。フレーム(t−3)は絞り値F2で撮像され、フレーム(t−2)は絞り値F2で撮像され、フレーム(t−1)は絞り値F2で撮像され、フレーム(t)は絞り値F2.8で撮像され、フレーム(t+1)は絞り値F1.4で撮像され、フレーム(t+2)は絞り値F1.4で撮像され、及びフレーム(t+3)は絞り値F1.4で撮像されている。
フレーム(t−2)、フレーム(t−1)、フレーム(t+1)、及びフレーム(t+2)を参照フレームとし、フレーム(t)を処理対象フレームとした場合には、フレーム(t−2)及びフレーム(t−1)は絞り値がF2で撮像されており、フレーム(t+1)及びフレーム(t−2)は絞り値がF1.4で撮像されているため、撮影条件情報の最頻値は絞り値F2と絞り値F1.4の二つとなる。この場合は、処理対象フレームの撮影条件情報は絞り値F2.8であるため処理対象フレームの撮影条件情報は最頻値に該当しないので、時系列における処理対象フレームの後の参照フレームが有する撮影条件情報の最頻値(この場合は絞り値F1.4)が採用される。
また、フレーム(t−1)及びフレーム(t+3)を参照フレームとした場合には、撮影条件情報の最頻値はF2とF1.4との二つであるが、フレーム(t−1)の方がフレーム(t+3)よりも処理対象フレームに時系列において近いことから、フレーム(t−1)の撮影条件情報である絞り値F2が最頻値として採用される。
図9は、復元調整部43が参照フレームの撮影条件情報(撮像情報)の最頻値を決定する動作フローを示した図である。
まず、復元調整部43は、処理対象フレームの撮影条件情報を取得する(ステップS10)。その後、復元調整部43は、参照フレームの撮影条件情報を取得する(ステップS12)。なお、復元調整部43は、様々な方法により処理対象フレームの撮影条件情報を取得することができ、例えば、復元調整部43はデバイス制御部34から処理対象フレームの撮影条件情報を取得することができる。そして、復元調整部43は、参照フレームの撮影条件情報のうち最頻値を抽出する(ステップS14)。そして、復元調整部43は、最頻値が単数である又は複数であるかを判断し、最頻値が一つの場合(ステップS16のNoの場合)には、最頻値の撮影条件が採用されて(ステップS18)、復元処理の内容の調整を行う。
一方、最頻値が複数の場合(ステップS16のYesの場合)には、複数ある最頻値の一つが処理対象フレームの撮影条件情報であるか否かを判断する。そして、複数ある最頻値の一つが処理対象フレームの撮影条件情報でない場合(ステップS20のNoの場合)には、復元調整部43は、複数ある最頻値のうち、処理対象フレームと時系列において近いフレームの最頻値を選択する(ステップS22)。また、復元調整部43は、複数ある最頻値のうちいずれの最頻値も処理対象フレームと時系列において同じ間隔である場合には、処理対象フレームより時系列における前のフレームを含む最頻値を選択する(ステップS22)。このように、処理対象フレームより時系列における前のフレームを含む最頻値を選択することにより、時系列上での連続性が良好となる。
一方、複数ある最頻値の一つが処理対象フレームの撮影条件情報である場合(ステップS20のYesの場合)には、復元調整部43は、処理対象フレームの撮影条件情報を最頻値として採用する(ステップS24)。その後、次の処理対象フレームに関して処理が行われる。
次に、復元調整部43が行う復元処理の内容に関する調整の他の方法を具体例により説明する。
復元調整部43は、処理対象フレームの撮影条件情報に対応する復元フィルタと、参照フレームの撮影条件情報に対応する復元フィルタとに基づいて、新たな復元フィルタを取得してもよい。復元調整部43は、様々な手法により、処理対象フレームの撮影条件情報に対応するフィルタと参照フレームの撮影条件情報に対応するフィルタとから、新たな復元フィルタを取得することができる。
図10は、処理対象フレームの撮影条件情報に対応するフレームと参照フレームの撮影条件情報に対応するフレームとの加重平均により、新たな復元フィルタを求めることを説明する図である。
図10の(A)は、図6で説明を行ったフレーム(t−1)の撮影条件に対応する静止画用の復元フィルタ及びフィルタ係数を示している。また、図10の(B)は、図6で説明を行ったフレーム(t)の撮影条件に対応する静止画用の復元フィルタ及びフィルタ係数を示している。図10の(C)は、図6で説明を行ったフレーム(t+1)の撮影条件に対応する静止画用の復元フィルタ及びフィルタ係数を示している。
また、図10の(A)の復元フィルタ係数はW(t−1)の重み付けがされ、図10の(B)の復元フィルタ係数はW(t)の復元フィルタ係数はW(t)の重み付けがされ、図10の(C)の復元フィルタ係数はW(t+1)の重み付けがされる。なお、この重み付けは、任意にすることができ、例えば、W(t)は処理対象フレームに対応するので、W(t)を他の参照フレームに対応するW(t−1)及びW(t+1)よりも係数を大きく設定することができる。また、W(t)、W(t−1)、及びW(t+1)は、ユーザーインターフェイス37により、ユーザにより設定されてもよいし、予め設定されていてもよい。
図10の(D)は、処理対象フレームの復元処理に使用される動画用の復元フィルタ及び復元フィルタ係数を示す。この動画用の復元フィルタ及び復元フィルタ係数は、処理対象フレームの撮影条件情報に対応する復元フィルタ係数と、参照フレームの撮影条件情報に対応する復元フィルタ係数との加重平均から算出される復元フィルタ係数を示している。具体的には、復元調整部43は、図10の(A)に示されている復元フィルタ係数にW(t+1)を掛け、図10の(B)に示されている復元フィルタ係数にW(t+1)を掛け、図10の(C)に示されている復元フィルタ係数にW(t−1)を掛けることにより加重平均をし、図10の(D)に示される動画用のフィルタ係数をもった復元フィルタ(動画用復元フィルタ)を生成する。そして、復元実行部45は、生成された復元フィルタ(図10の(D))を使用して、処理対象フレームに対して復元処理を行う。
図11は、復元調整部43が処理対象フレームの復元フィルタと参照フレームの復元フィルタとに基づいて新たなフィルタを取得する場合の復元調整部43の動作フローを示す図である。
先ず、復元調整部43は、処理対象フレームの撮影条件情報に応じた静止画用のフィルタ係数を取得する(ステップS30)。そして、復元調整部43は、参照フレームの撮影条件情報に応じた静止画用のフィルタ係数を取得する(ステップS32)。なお、復元調整部43は各撮影条件情報に応じた複数のフィルタを予め保持しており、復元調整部43は、必要に応じてフィルタ係数やフィルタを取得することができる。
その後、復元調整部43は、処理対象フレームの撮影条件情報に応じた静止画用のフィルタ係数と参照フレームの撮影条件情報に応じた静止画用のフィルタ係数との加重平均を行い、動画用フィルタ係数を取得する(ステップS34)。そして、復元実行部45は、取得した動画用フィルタ係数に基づく復元フィルタにより、処理対象フレームに対して復元処理を行う(ステップS36)。その後、次の処理対象フレームの撮影条件情報における静止画用フィルタ係数を取得する。
上述の図10及び図11の場合には、静止画用フィルタ係数を加重平均して動画用フィルタ係数を求め、その動画用フィルタ係数に基づく復元フィルタにより、処理対象フレームに対して復元処理を行う。(式1)は、図10及び図11で説明をした復元処理を表す式である。Aveは加重平均を、K(t)は時間tにおける静止画用フィルタ係数を、Val(t)は時間tにおける画像データを表し、*は畳み込み積分(Convolutinon)を表す。
(式1)
処理対象フレームの回復画像データ=Ave(K(t+1)、K(t)、K(t−1))*Val(t)
上述した態様は、処理対象フレームの静止画用フィルタ係数と参照フレームの静止画用フィルタ係数との加重平均により新たに動画用フィルタ係数を取得し、その動画用フィルタ係数を使用して処理対象フレームに復元処理を行う。これにより、上述した態様は、フレームの重要度に応じた連続性が良好な動画の画像処理を行うことができる。また、上述した態様は、被写体が動く動画であっても良好な画像処理を行うことができる。
一方、復元調整部43は、図12に示すような処理によっても、加重平均を利用した処理対象フレームに対して復元処理を行うことができる。
図12は、復元調整部43が、処理対象フレームに復元処理を行うことにより取得した画像データ及び参照フレームに復元処理を行うことにより取得した画像データに基づいて、処理対象フレームの回復画像データを取得する場合の復元調整部43の動作フローを示す図である。
先ず、復元実行部45は処理対象フレームの撮影条件情報に応じた静止画用フィルタにより処理対象フレームに対して復元処理を実行し、復元調整部43は画像データを取得する(ステップS40)。その後、復元実行部45は参照フレームの撮影条件情報に応じた静止画用フィルタにより参照フレームに対して復元処理を実行し、復元調整部43は画像データを取得する(ステップS42)。その後、復元調整部43は、処理対象フレームに対応する回復画像データと参照フレームに対応する回復画像データとを加重平均することにより、処理対象フレームに係る加重平均を利用した回復画像データを取得することができる(ステップS44)。式2はこの復元処理を表す式である。
(式2)
処理対象フレームの回復画像データ=Ave(Val(t+1)K*(t+1)、Val(t)*K(t)、Val(t−1)*K(t−1))
上述した態様は、処理対象フレームに対応する回復画像データと参照フレームに対応する回復画像データとを加重平均し、その回復画像データを処理対象フレームの回復画像データとしている。これにより、上述した態様は、フレームの重要度に応じた連続性が良好な動画の画像処理を行うことができる。
図13は、復元実行部45における復元処理例を示す制御ブロック図である。
まず、復元フィルタFが原画像データDoに適用され(フィルタ適用処理P)(フィルタ適用部)、復元画像データDr1が算出される。原画像データDoに適用される復元フィルタFは、光学系12(レンズ16、絞り17等)の点拡がり関数(PSF、OTF、MTF、PTF等)に基づくものであれば特に限定されず、実空間フィルタであっても周波数空間フィルタであってもよい。
その後、復元処理前後の画像データの差分が導出され(差分導出処理P)、この差分に対する増幅率(復元ゲイン)の調整が行われる(ゲイン調整処理P)(ゲイン調整部)。すなわち、差分導出処理Pでは、フィルタ適用処理Pを経た復元画像データDr1と原画像データDoとの差分データΔD(ΔD=Dr1−Do)が算出される。そしてゲイン調整処理Pでは、この差分データΔDの増幅率(復元ゲイン)Gの調整が行われて増幅率調整後差分値(G×ΔD)が算出され、この増幅率調整後差分値(G×ΔD)と原画像データDoとの加算処理Paが行われて回復画像データDr2が算出される(Dr2=Do+G×ΔD)。なお復元処理として、上記手法と同様な他の手法を採用してもよく、例えば次のような処理としてもよい。復元フィルタFが原画像データDoに適用され(フィルタ適用処理P)、復元画像データDr1が算出される。その後、ゲイン調整処理Pとしてこの復元画像データDr1に増幅率(復元ゲイン)Gの調整が行われ(Dr1×G)、これと原画像データDoに(1−G)が乗算されたものとの加算処理Paが行われて回復画像データDr2が算出されるようにしてもよい。
このように、復元処理による復元強度は、フィルタ適用処理Pにおける復元フィルタ(フィルタ係数)と、ゲイン調整処理Pにおける増幅率(復元ゲイン)Gとに基づいて変動する。そのため、復元処理の復元強度の調整は、「フィルタ適用処理Pで用いる復元フィルタ(フィルタ係数)の切り替え」及び/又は「ゲイン調整処理Pにおける増幅率(復元ゲイン)Gの変更」によって実行可能である。
したがって、復元実行部45は、復元フィルタFのフィルタ係数を調節したり復元ゲインGを調節したりすることによって、復元処理の復元強度を調節することができる。
なお、参照フレームの撮像情報に基づいて処理対象フレームに行う復元処理は、ライブビュー画像に対しては実行しなくてもよい。すなわち、復元調整部43は、ライブビュー画像を構成する複数のフレームのうちの処理対象フレームに対する復元処理を、参照フレームの撮像情報には基づかずに、当該処理対象フレームの撮像情報に基づいて復元処理を行うように制御してもよい。
ライブビュー表示はリアルタイムに近い表示をすることが求められる機能であるため、特に時系列における後で撮影される参照フレームの撮情報を参照して復元処理を制御するよりも即時的な表示を優先し、被写体の変化に対して応答がよい動画を表示することを望まれる場合が多い。一方、記録動画では、記録された動画を後に再生確認するためリアルタイムに近い表示は求められず、連続性の良好な画質の取得を優先することが望まれるため、時系列における少なくとも後ろの参照フレームの撮情報も参照して復元処理を制御するようにするとよい。
また、復元調整部43は、ライブビュー画像に対し、光学系の点拡がり関数に基づく復元処理を行わず、記録動画にのみ上述した復元処理を行うことができる。これにより、さらに、ライブビュー画像は被写体の変化に対して応答がよい動画を取得することができる。
以上説明したように、上述の第1実施形態は、処理対象フレームに行う復元処理を参照フレームの撮像情報に基づいて行う。これにより、「撮影環境の急な変化」がある場合であっても、フレーム間の復元処理の連続性を維持しつつ、良好な画質の動画を取得することができる。
<第2実施形態>
本実施形態は、被写体の動きに基づいて復元処理の処理内容を変えることにより、被写体が動く動画であっても、より適切な復元処理を行うことができる。
本実施形態において、上述の第1実施形態と同様の構成及び作用については、説明を省略する。
図14は、第2実施形態の復元処理に関わる機能ブロック図であり、画像処理部35(図2参照)によって構成される各種の機能ブロックを示す。
画像処理部35は、バッファメモリ部41、復元制御処理部36、及び被写体検出部47を含み、バッファメモリ部41、復元制御処理部36、及び被写体検出部47は、相互にデータの通信が可能である。
被写体検出部47は、時系列における連続する複数のフレームからなる動画において、被写体(主要被写体)の動きを検出する。すなわち、被写体検出部47は、バッファメモリ部41に一時保存された画像データから、被写体の動きを検出し且つその動き量が閾値以上か又はその動き量が閾値未満かを検出する。
被写体検出部47が行う被写体の動きの検出は様々な方法で行うことができ、例えば、被写体検出部47は、動画を解析することによって被写体の動きを検出することができる。また、動き量は、動画における被写体像の動きを定量的に表現するものであれば特に限定されるものではない。例えば、所定の時間(例えばフーレム毎)に被写体像が移動する画素数を動き量としてもよい。この場合、閾値は、例えば画像の短辺の4分の1の画素数とすることができる。
復元調整部43は、被写体検出部47から被写体の動きに関する情報を取得し、取得した被写体の動きに関する情報に基づいて処理対象フレームの復元処理を変える。具体的には、復元調整部43は、被写体の動き量が閾値以上の場合は、処理対象フレームの撮影条件情報に対応する復元フィルタと、参照フレームの撮影条件情報に対応する復元フィルタとの加重平均から算出されるフィルタを使用して復元処理を行う(図10及び図11を参照)。また、被写体の動き量が閾値未満の場合は、復元調整部43は、処理対象フレームの撮影条件情報に対応する復元フィルタを処理対象フレームに適用することにより算出される画像データと、参照フレームの撮影条件情報に対応する復元フィルタを参照フレームに適用することにより算出される画像データとの加重平均から算出される画像データを、処理対象フレームの回復画像データとする(図12を参照)。
以上説明したように、上述の第2実施形態は、被写体の動きに基づいて、新たに復元フィルタを生成し復元処理を行い処理対象フレームに係る回復画像データを求める場合と、処理対象フレームの回復画像データと参照フレームの回復画像データとの加重平均により処理対象フレームに係る回復画像データを求める場合とに復元処理の内容を分けている。これにより、本態様は、被写体が動く動画であっても被写体の動きに基づいて良好な画像処理を行うことができる。
<第3実施形態>
本実施形態では、復元調整部43は、処理対象フレーム及び参照フレームの画像情報に基づいて復元処理の調整を行う。
本実施形態において、上述の第1実施形態と同様の構成及び作用については、説明を省略する。ここで、復元処理に適さない領域Qとは、復元処理を行うと却って画質の劣化を招くような特性をもった領域のことをいう。例えば、復元処理に適さない領域Qは、デフォーカス(被写体に合焦されていない)領域である。すなわち、デフォーカス領域に対して復元処理が行われると却って画質が劣化してしまうので、デフォーカス領域は、復元処理に適さない領域Qである。
また例えば、復元処理に適さない領域Qとは、飽和画素が検出される領域があげられる。すなわち、飽和画素が検出された領域に対して復元処理を行うとリンギングの発生を招き、却って動画の画質を劣化させてしまう。
復元調整部43は、撮像情報としてバッファメモリ部41に一時保存されている時系列上で連続した複数のフレームの画像を解析して画像情報を取得する。具体的には、復元調整部43は、処理対象フレーム及び参照フレームに飽和画素が含まれるか否かの情報、及び/又は、処理対象フレーム及び参照フレームにデフォーカス領域が含まれるか否かの情報を、動画を画像解析することにより取得する。言い換えると、復元調整部43は、処理対象フレーム及び参照フレームに飽和画素が含まれるか否か、又は、及び/又は、処理対象フレーム及び参照フレームにデフォーカス領域が含まれるか否かの判別を動画解析により行う。
処理対象フレーム及び参照フレームに飽和画素が含まれるか否かの情報の取得の仕方は特に限定されず、例えば、復元調整部43は、測光値や画像データのピーク値により、飽和画素の検出を行うことができる。また、処理対象フレーム及び参照フレームにデフォーカス領域が含まれるか否かの情報の取得の仕方は特に限定されず、例えば、復元調整部43は、AF(オートフォカス)の評価値によりデフォーカス領域の検出を行ってもよい。
図15は、上述した図6において説明を行った場合において、時間t+1のフレーム(t+1)、時間t+2のフレーム(t+2)、及び時間t+3のフレーム(t+3)において復元処理に適さない領域Qがある場合を示している。
図15において、処理対象フレームとしてフレーム(t)を選択し、参照フレームを処理対象フレームよりも時系列における後のフレームであるフレーム(t+1)を選択する場合について説明する。
復元処理の連続性を考慮しないで画像処理を行う場合、フレーム(t)は復元処理に適さない領域Qが検出されないので通常の復元処理が行われる。すなわち、復元処理に適さない領域Qが存在しない場合の復元処理が行われる。一方、フレーム(t+1)には復元処理に適さない領域Qが存在する領域(図15中のQ)があるので、フレーム(t+1)には復元処理に適さない領域を有する場合の復元フィルタを使用して復元処理が行われる。そうすると、フレーム(t)とフレーム(t+1)との間では、復元処理に使用する復元フィルタが異なるため、復元処理に急な変化を発生させてしまい、復元処理の連続性を低下させてしまう場合がある。
そこで、本態様では、復元調整部43は、復元処理に適さない領域Qが処理対象フレーム及び参照フレームの少なくともいずれか一方に存在すると判断した場合には、参照フレームの撮像情報(画像情報)に基づいて、処理対象フレームに対して復元処理を行うように調整する。
具体的に図15に示された場合には、復元調整部43は、フレーム(t+1)(参照フレーム)に復元処理に適さない領域Qが含まれることを判断すると、フレーム(t)(処理対象フレーム)で使用される通常の復元フィルタのフィルタ係数とフレーム(t+1)(参照フレーム)で使用される復元処理に適さない領域を有する場合の復元フィルタのフィルタ係数を混合することにより、新たに復元フィルタを生成する。そして、復元実行部45は、その生成された復元フィルタを使用して、処理対象フレームに復元処理を行う。これにより、処理対象フレームと参照フレーム間での復元処理の内容の変化が抑えられるとともに、適切に復元処理を行うことができる。
ここで、復元フィルタ係数の混合の仕方は、様々な手法を採用することができ、例えば復元フィルタの係数を加重平均することにより、新たなフィルタ係数を求めることができる。
また、参照フレームに復元処理に適さない領域Qが含まれる場合には、当該復元処理に適さない領域Qが含まれる参照フレームの撮像情報に基づき、処理対象フレームに対する復元処理の復元強度を調整することもできる。
復元処理の連続性を考慮しないで画像処理を行う場合、復元処理に適さない領域Qが含まれるフレームに対しては復元処理の復元強度を弱くし、復元処理に適さない領域Qが含まれないフレームに対しては通常の強度により復元処理が行われる。しかし、このような復元処理は、復元処理に適さない領域Qが含まれるフレームと復元処理に適さない領域Qが含まれないフレームとの間で復元処理の復元強度に違いが生じ、連続性が重視される動画においては好ましくはない。
そこで、図15に示す場合には、本態様は、復元調整部43は、フレーム(t+1)、すなわち参照フレームに復元処理に適さない領域Qが含まれると判断し、フレーム(t)、すなわち処理対象フレームの復元処理の復元強度を調整する。これにより、本態様は、処理対象フレームと参照フレーム間での復元処理の復元強度の違いが抑制されつつ、復元処理による画質の劣化を抑制することができる。
また、復元調整部43は、参照フレームにおいて点滅光源を画像解析により検出した場合には、光源の点滅状態に基づき、処理対象フレームの復元処理を調整する。すなわち、点滅光源が点灯している場合と点滅光源が消灯している場合とでは復元処理の処理内容が変化するので、その変化を抑制して、連続性のある復元処理を行う。
例えば、復元調整部43は、点滅光源の点滅状態を解析して、復元処理の復元強度を調整してもよい。また、復元調整部43は、光源が点灯しているフレーム(例えば参照フレーム)に使用する復元フィルタと光源が消灯しているフレーム(例えば処理対象フレーム)に使用する復元フィルタとに基づいて、処理対象フレームの復元フィルタを取得することができる。
また、復元調整部43は、参照フレームにおいて常時光源(例えば太陽)のフレームイン・フレームアウトを画像解析により検出した場合には、その常時光源のフレームイン・アウトに基づいて、処理対象フレームの復元処理を調整する。すなわち、常時光源のフレームインの前後、又はフレームアウトの前後において復元処理の内容が変化するので、その変化を抑制して、連続性のある復元処理を行う。
例えば、復元調整部43は、その常時光源のフレームイン・アウトに基づいて、復元処理の復元強度を調整してもよい。また、復元調整部43は、常時光源がフレームインする前のフレーム(例えば参照フレーム)に使用する復元フィルタと、常時光源がフレームイン後のフレーム(例えば処理対象フレーム)に使用する復元フィルタとに基づいて、処理対象フレームの復元フィルタを取得することができる。
以上説明したように、上述の第3実施形態は、参照フレームの画像情報により、処理対象フレームの復元処理の内容を変える。これにより、第3実施形態は、復元処理の内容の連続性を維持しつつ、復元処理による画質の劣化を抑えることができる。
<第4実施形態>
本実施形態では、動体検出部49により動画内で動く物体(動体)を検出した場合に、復元調整部43は復元処理の内容を変える。
本実施形態において、上述の第1実施形態と同様の構成及び作用については、説明を省略する。
図16は、第4実施形態の復元処理に関わる機能ブロック図であり、画像処理部35(図2参照)によって構成される各種の機能ブロックを示す。
画像処理部35は、バッファメモリ部41、復元制御処理部36、及び動体検出部49を含み、バッファメモリ部41、復元制御処理部36、及び動体検出部49は相互にデータの通信が可能である。
動体検出部49は、バッファメモリ部41に一時的に保存されている時系列における連続する複数のフレームからなる動画において、動体を検出する。そして、動体検出部49は、処理対象フレーム及び参照フレームにおいて動体を検出したことの情報を復元調整部43へ送る。動体検出部49の動体の検出方法は、様々な方法を採用することができる。例えば、動体検出部49は、バッファメモリ部41に保存されている動画を画像解析をすることによって動体を検出することができる。なお、動体検出部49は、主要被写体の動きだけではなく、背景等の被主要被写体の動きも検出することができる。
復元調整部43は、動体検出部49から処理対象フレーム及び参照フレームにおいて動体が存在することの情報を取得する。そして、復元調整部43は、この情報に基づいて、
動体の動きに応じた位相特性が反映された点拡がり関数に基づく復元処理を処理対象フレームに対して行う。
なお、動体の動きに応じた位相特性が反映された点拡がり関数に基づく復元処理とは、点拡がり関数(PSF)をフーリエ変換を行った結果の光学伝達関数(OTF:Optical transfer function)の位相成分である位相伝達関数(PTF:Phase Transfer Function)を使用して行う復元処理である。また、光学伝達関数の振幅成分を変調伝達関数(Modulation Transfer Function)という。
一方、復元調整部43は、動体検出部49から処理対象フレーム及び参照フレームにおいて動体が存在しないとする情報を取得した場合は、点拡がり関数に基づく復元処理を行う。この場合、振幅特性と位相特性が反映された点拡がり関数に基づく復元処理を行ってもよいし、振幅特性のみ反映された点拡がり関数に基づく復元処理を行ってもよい。
以上説明したように、上述の第4実施形態は、処理対象フレーム及び参照フレームに動体を検出した場合に、その動体に基づいて動体の動きに応じた位相特性を利用して復元処理を行う。これにより、動体に対しても適切に復元処理を行うことができる。
<その他の実施形態>
本発明は、上述した画像処理装置及び撮像装置にて行われる画像処理方法も含む。
また、本発明は、上述した画像処理をコンピュータに実行させるプログラムも含む。なお、本発明は、プログラムコードが記録された記憶媒体も含む。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、前述した実施形態の機能は、コンピュータが、読み出したプログラムを実行することによって実現される。また、このプログラムの実行とは、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行う場合も含まれる。
<EDoFシステムへの適用例>
上述の実施形態における復元処理は、特定の撮影条件情報(例えば、絞り値、F値、焦点距離、レンズ種類、ズーム倍率など)に基づいて点拡がり(点像ボケ)を回復修正することにより本来の被写体像を復元する画像処理であるが、本発明を適用可能な画像復元処理は上述の実施形態における復元処理に限定されるものではない。例えば、拡大された被写界(焦点)深度(EDoF:Extended Depth of Field(Focus))を有する光学系(撮影レンズ等)によって撮影取得された画像データに対する復元処理に対しても、本発明に係る復元処理を適用することが可能である。EDoF光学系によって被写界深度(焦点深度)が拡大された状態で撮影取得されるボケ画像の画像データに対して復元処理を行うことにより、広範囲でピントが合った状態の高解像度の画像データを復元生成することができる。この場合、EDoF光学系の点拡がり関数(PSF、OTF、MTF、PTF、等)に基づく復元フィルタであって、拡大された被写界深度(焦点深度)の範囲内において良好な画像復元が可能となるように設定されたフィルタ係数を有する復元フィルタを用いた復元処理が行われる。
以下に、EDoF光学系を介して撮影取得された画像データの復元に関するシステム(EDoFシステム)の一例について説明する。なお、以下に示す例では、デモザイク処理後の画像データ(RGBデータ)から得られる輝度信号(Yデータ)に対して復元処理を行う例について説明するが、復元処理を行うタイミングは特に限定されず、例えば「デモザイク処理前の画像データ(モザイク画像データ)」や「デモザイク処理後であって輝度信号変換処理前の画像データ(デモザイク画像データ)」に対して復元処理が行われてもよい。
図17は、EDoF光学系を備える撮像モジュール101の一形態を示すブロック図である。本例の撮像モジュール(デジタルカメラ等)101は、EDoF光学系(レンズユニット)110と、撮像素子112と、AD変換部114と、復元処理ブロック(画像処理部35)120とを含む。
図18は、EDoF光学系110の一例を示す図である。本例のEDoF光学系110は、単焦点の固定された撮影レンズ110Aと、瞳位置に配置される光学フィルタ111とを有する。光学フィルタ111は、位相を変調させるもので、拡大された被写界深度(焦点深度)(EDoF)が得られるようにEDoF光学系110(撮影レンズ110A)をEDoF化する。このように、撮影レンズ110A及び光学フィルタ111は、位相を変調して被写界深度を拡大させるレンズ部を構成する。
なお、EDoF光学系110は必要に応じて他の構成要素を含み、例えば光学フィルタ111の近傍には絞り(図示省略)が配設されている。また、光学フィルタ111は、1枚でもよいし、複数枚を組み合わせたものでもよい。また、光学フィルタ111は、光学的位相変調手段の一例に過ぎず、EDoF光学系110(撮影レンズ110A)のEDoF化は他の手段によって実現されてもよい。例えば、光学フィルタ111を設ける代わりに、本例の光学フィルタ111と同等の機能を有するようにレンズ設計された撮影レンズ110AによってEDoF光学系110のEDoF化を実現してもよい。
すなわち、撮像素子112の受光面への結像の波面を変化させる各種の手段によって、EDoF光学系110のEDoF化を実現することが可能である。例えば、「厚みが変化する光学素子」、「屈折率が変化する光学素子(屈折率分布型波面変調レンズ等)」、「レンズ表面へのコーディング等により厚みや屈折率が変化する光学素子(波面変調ハイブリッドレンズ、レンズ面上に位相面として形成される光学素子、等)」、「光の位相分布を変調可能な液晶素子(液晶空間位相変調素子等)」を、EDoF光学系110のEDoF化手段として採用しうる。このように、光波面変調素子(光学フィルタ111(位相板))によって規則的に分散した画像形成が可能なケースだけではなく、光波面変調素子を用いた場合と同様の分散画像を、光波面変調素子を用いずに撮影レンズ110A自体によって形成可能なケースに対しても、本発明は応用可能である。
図18に示すEDoF光学系110は、メカ的に焦点調節を行う焦点調節機構を省略することができるため小型化が可能であり、カメラ付き携帯電話や携帯情報端末に好適に搭載可能である。
EDoF化されたEDoF光学系110を通過後の光学像は、図17に示す撮像素子112に結像され、ここで電気信号に変換される。
撮像素子112は、所定のパターン配列(ベイヤー配列、GストライプR/G完全市松、X−Trans配列、ハニカム配列、等)でマトリクス状に配置された複数画素によって構成され、各画素はマイクロレンズ、カラーフィルタ(本例ではRGBカラーフィルタ)及びフォトダイオードを含んで構成される。EDoF光学系110を介して撮像素子112の受光面に入射した光学像は、その受光面に配列された各フォトダイオードにより入射光量に応じた量の信号電荷に変換される。そして、各フォトダイオードに蓄積されたR・G・Bの信号電荷は、画素毎の電圧信号(画像信号)として順次出力される。
AD変換部114は、撮像素子112から画素毎に出力されるアナログのR・G・B画像信号をデジタルのRGB画像信号に変換する。AD変換部114によりデジタルの画像信号に変換されたデジタル画像信号は、復元処理ブロック120に加えられる。
復元処理ブロック120は、例えば、黒レベル調整部122と、ホワイトバランスゲイン部123と、ガンマ処理部124と、デモザイク処理部125と、RGB/YCrCb変換部126と、Y信号復元処理部127とを含む。
黒レベル調整部122は、AD変換部114から出力されたデジタル画像信号に黒レベル調整を施す。黒レベル調整には、公知の方法が採用されうる。例えば、ある有効光電変換素子に着目した場合、その有効光電変換素子を含む光電変換素子行に含まれる複数のOB光電変換素子の各々に対応する暗電流量取得用信号の平均を求め、その有効光電変換素子に対応する暗電流量取得用信号からこの平均を減算することにより、黒レベル調整が行われる。
ホワイトバランスゲイン部123は、黒レベルデータが調整されたデジタル画像信号に含まれるRGB各色信号のホワイトバランスゲインに応じたゲイン調整を行う。
ガンマ処理部124は、ホワイトバランス調整されたR、G、B画像信号が所望のガンマ特性となるように中間調等の階調補正を行うガンマ補正を行う。
デモザイク処理部125は、ガンマ補正後のR、G、B画像信号にデモザイク処理を施す。具体的には、デモザイク処理部125は、R、G、Bの画像信号に色補間処理を施すことにより、撮像素子112の各受光画素から出力される一組の画像信号(R信号、G信号、B信号)を生成する。すなわち、色デモザイク処理前は、各受光画素からの画素信号はR、G、Bの画像信号のいずれかであるが、色デモザイク処理後は、各受光画素に対応するR、G、B信号の3つの画素信号の組が出力されることとなる。
RGB/YCrCb変換部126は、デモザイク処理された画素毎のR、G、B信号を、輝度信号Yと色差信号Cr、Cbに変換し、画素毎の輝度信号Y及び色差信号Cr、Cbを出力する。
Y信号復元処理部127は、予め記憶された復元フィルタに基づいて、RGB/YCrCb変換部126からの輝度信号Yに復元処理を行う。復元フィルタは、例えば、7×7のカーネルサイズを有するデコンボリューションカーネル(M=7、N=7のタップ数に対応)と、そのデコンボリューションカーネルに対応する演算係数(復元ゲインデータ、フィルタ係数に対応)とからなり、光学フィルタ111の位相変調分のデコンボリューション処理(逆畳み込み演算処理)に使用される。なお、復元フィルタは、光学フィルタ111に対応するものが図示しないメモリ(例えばY信号復元処理部127が付随的に設けられるメモリ)に記憶される。また、デコンボリューションカーネルのカーネルサイズは、7×7のものに限らない。
次に、復元処理ブロック120による復元処理について説明する。図19は、図17に示す復元処理ブロック120による復元処理フローの一例を示す図である。
黒レベル調整部122の一方の入力には、AD変換部114からデジタル画像信号が加えられており、他の入力には黒レベルデータが加えられており、黒レベル調整部122は、デジタル画像信号から黒レベルデータを減算し、黒レベルデータが減算されたデジタル画像信号をホワイトバランスゲイン部123に出力する(ステップS50)。これにより、デジタル画像信号には黒レベル成分が含まれなくなり、黒レベルを示すデジタル画像信号は0になる。
黒レベル調整後の画像データに対し、順次、ホワイトバランスゲイン部123、ガンマ処理部124による処理が施される(ステップS52及びステップS54)。
ガンマ補正されたR、G、B信号は、デモザイク処理部125でデモザイク処理された後に、RGB/YCrCb変換部126において輝度信号Yとクロマ信号Cr、Cbに変換される(ステップS56)。
Y信号復元処理部127は、輝度信号Yに、EDoF光学系110の光学フィルタ111の位相変調分のデコンボリューション処理を掛ける復元処理を行う(ステップS58)。すなわち、Y信号復元処理部127は、任意の処理対象の画素を中心とする所定単位の画素群に対応する輝度信号(ここでは7×7画素の輝度信号)と、予めメモリなどに記憶されている復元フィルタ(7×7のデコンボリューションカーネルとその演算係数)とのデコンボリューション処理(逆畳み込み演算処理)を行う。Y信号復元処理部127は、この所定単位の画素群ごとのデコンボリューション処理を撮像面の全領域をカバーするよう繰り返すことにより画像全体の像ボケを取り除く復元処理を行う。復元フィルタは、デコンボリューション処理を施す画素群の中心の位置に基づいて定められている。すなわち、近接する画素群には、共通の復元フィルタが適用される。さらに復元処理を簡略化するためには、全ての画素群に共通の復元フィルタが適用されることが好ましい。
図20の(a)に示すように、EDoF光学系110を通過後の輝度信号の点像(光学像)は、大きな点像(ボケた画像)として撮像素子112に結像されるが、Y信号復元処理部127でのデコンボリューション処理により、図20の(b)に示すように小さな点像(高解像度の画像)に復元される。
上述のようにデモザイク処理後の輝度信号に復元処理をかけることにより、復元処理のパラメータをRGB別々に持つ必要がなくなり、復元処理を高速化することができる。また、飛び飛びの位置にあるR・G・Bの画素に対応するR・G・Bの画像信号をそれぞれ1単位にまとめてデコンボリューション処理するのでなく、近接する画素の輝度信号同士を所定の単位にまとめ、その単位には共通の復元フィルタを適用してデコンボリューション処理するため、復元処理の精度が向上する。なお、色差信号Cr・Cbについては、人の目による視覚の特性上、復元処理で解像度を上げなくても画質的には許容される。また、JPEGのような圧縮形式で画像を記録する場合、色差信号は輝度信号よりも高い圧縮率で圧縮されるので、復元処理で解像度を上げる必要性が乏しい。こうして、復元精度の向上と処理の簡易化及び高速化を両立できる。
以上説明したようなEDoFシステムの復元処理に対しても、上述の実施形態に係る点像復元処理を適用することが可能である。
また、本発明を適用可能な態様はデジタルカメラ10、コンピュータ60及びサーバ80には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器類に対しても適用可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
<スマートフォンの構成>
図21は、本発明の撮像装置の一実施形態であるスマートフォン201の外観を示すものである。図21に示すスマートフォン201は、平板状の筐体202を有し、筐体202の一方の面に表示部としての表示パネル221と、入力部としての操作パネル222とが一体となった表示入力部220を備えている。また、係る筐体202は、スピーカ231と、マイクロホン232、操作部240と、カメラ部241とを備えている。なお、筐体202の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
図22は、図21に示すスマートフォン201の構成を示すブロック図である。図22に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部220と、通話部230と、操作部240と、カメラ部241と、記憶部250と、外部入出力部260と、GPS(Global Positioning System)受信部270と、モーションセンサ部280と、電源部290と、主制御部200(上述のカメラ本体コントローラ28が含まれる)とを備える。また、スマートフォン201の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部210は、主制御部200の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。係る無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部220は、主制御部200の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル221と、操作パネル222とを備える。
表示パネル221は、LCD(Liquid Crystal Display)、OELD(Organic Electro−Luminescence Display)などを表示デバイスとして用いたものである。操作パネル222は、表示パネル221の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部200に出力する。次いで、主制御部200は、受信した検出信号に基づいて、表示パネル221上の操作位置(座標)を検出する。
図21に示すように、本発明の撮像装置の一実施形態として例示しているスマートフォン201の表示パネル221と操作パネル222とは一体となって表示入力部220を構成しているが、操作パネル222が表示パネル221を完全に覆うような配置となっている。係る配置を採用した場合、操作パネル222は、表示パネル221外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル222は、表示パネル221に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル221に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル221の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル222が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体202の大きさなどに基づいて適宜設計されるものである。更にまた、操作パネル222で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部230は、スピーカ231やマイクロホン232を備え、マイクロホン232を通じて入力されたユーザの音声を主制御部200にて処理可能な音声データに変換して主制御部200に出力したり、無線通信部210あるいは外部入出力部260により受信された音声データを復号してスピーカ231から出力するものである。また、図21に示すように、例えば、スピーカ231を表示入力部220が設けられた面と同じ面に搭載し、マイクロホン232を筐体202の側面に搭載することができる。
操作部240は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図21に示すように、操作部240は、スマートフォン201の筐体202の側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部250は、主制御部200の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部250は、スマートフォン内蔵の内部記憶部251と着脱自在な外部メモリスロットを有する外部記憶部252により構成される。なお、記憶部250を構成するそれぞれの内部記憶部251と外部記憶部252は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部260は、スマートフォン201に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン201に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン201の内部の各構成要素に伝達することや、スマートフォン201の内部のデータを外部機器に伝送することが可能である。
GPS受信部270は、主制御部200の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン201の緯度、経度、高度からなる位置を検出する。GPS受信部270は、無線通信部210や外部入出力部260(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部280は、例えば、3軸の加速度センサなどを備え、主制御部200の指示にしたがって、スマートフォン201の物理的な動きを検出する。スマートフォン201の物理的な動きを検出することにより、スマートフォン201の動く方向や加速度が検出される。係る検出結果は、主制御部200に出力されるものである。
電源部290は、主制御部200の指示にしたがって、スマートフォン201の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部200は、マイクロプロセッサを備え、記憶部250が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン201の各部を統括して制御するものである。また、主制御部200は、無線通信部210を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部250が記憶するアプリケーションソフトウェアにしたがって主制御部200が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部260を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部200は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部220に表示する等の画像処理機能を備える。画像処理機能とは、主制御部200が、上記画像データを復号し、係る復号結果に画像処理を施して、画像を表示入力部220に表示する機能のことをいう。
更に、主制御部200は、表示パネル221に対する表示制御と、操作部240、操作パネル222を通じたユーザ操作を検出する操作検出制御を実行する。
表示制御の実行により、主制御部200は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル221の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部200は、操作部240を通じたユーザ操作を検出したり、操作パネル222を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
更に、操作検出制御の実行により主制御部200は、操作パネル222に対する操作位置が、表示パネル221に重なる重畳部分(表示領域)か、それ以外の表示パネル221に重ならない外縁部分(非表示領域)かを判定し、操作パネル222の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部200は、操作パネル222に対するジェスチャ操作を検出し、検出したジェスチャ操作に基づいて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組合せて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部241は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge−Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部241は、主制御部200の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部250に記録したり、外部入出力部260や無線通信部210を通じて出力することができる。図21に示すにスマートフォン201において、カメラ部241は表示入力部220と同じ面に搭載されているが、カメラ部241の搭載位置はこれに限らず、表示入力部220の背面に搭載されてもよいし、或いは、複数のカメラ部241が搭載されてもよい。なお、複数のカメラ部241が搭載されている場合、撮影に供するカメラ部241を切り替えて単独にて撮影したり、或いは、複数のカメラ部241を同時に使用して撮影することもできる。
また、カメラ部241はスマートフォン201の各種機能に利用することができる。例えば、表示パネル221にカメラ部241で取得した画像を表示することや、操作パネル222の操作入力のひとつとして、カメラ部241の画像を利用することができる。また、GPS受信部270が位置を検出する際に、カメラ部241からの画像を参照して位置を検出することもできる。更には、カメラ部241からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン201のカメラ部241の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部241からの画像をアプリケーションソフトウェア内で利用することもできる。
その他、静止画又は動画の画像データにGPS受信部270により取得した位置情報、マイクロホン232により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部280により取得した姿勢情報等などを付加して記憶部250に記録したり、外部入出力部260や無線通信部210を通じて出力することもできる。
上述のスマートフォン201において、点像復元処理に関連する上述の各処理部は、例えば主制御部200、記憶部250等によって適宜実現可能である。
本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10…デジタルカメラ、12…光学系、14…カメラ本体、16…レンズ、17…絞り、18…光学系操作部、20…光学系コントローラ、22…光学系入出力部、26…撮像素子、28…カメラ本体コントローラ、30…カメラ本体入出力部、32…入出力インターフェース、33…表示部、34…デバイス制御部、35…画像処理部、36…復元制御処理部、37…ユーザーインターフェイス、41…バッファメモリ部、43…復元調整部、45…復元実行部、47…被写体検出部、49…動体検出部、60…コンピュータ、6
2…コンピュータ入出力部、64…コンピュータコントローラ、66…ディスプレイ、70…インターネット、80…サーバ、82…サーバ入出力部、84…サーバコントローラ、101…撮像モジュール、110…EDoF光学系、110A…撮影レンズ、111…光学フィルタ、112…撮像素子、114…AD変換部、120…復元処理ブロック、122…黒レベル調整部、123…ホワイトバランスゲイン部、124…ガンマ処理部、125…デモザイク処理部、126…変換部、127…Y信号復元処理部、127…部、200…主制御部、201…スマートフォン、202…筐体、210…無線通信部、220…表示入力部、221…表示パネル、222…操作パネル、230…通話部、231…スピーカ、232…マイクロホン、240…操作部、241…カメラ部、250…記憶部、251…内部記憶部、252…外部記憶部、260…外部入出力部、270…GPS受信部、270…受信部、280…モーションセンサ部、290…電源部

Claims (28)

  1. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元制御処理部を備え、
    前記復元制御処理部は、前記複数のフレームのうちの処理対象フレームに対する前記復元処理を、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御し、
    前記撮像情報は、前記処理対象フレーム及び前記参照フレームの撮影条件情報を含む画像処理装置。
  2. 前記撮影条件情報は、絞り値及びズーム倍率のうち少なくともいずれか一方を含む請求項に記載の画像処理装置。
  3. 前記復元制御処理部は、前記処理対象フレーム及び前記参照フレームの前記撮影条件情報のうち最も頻度の高い撮影条件に基づいて、前記復元処理を行う請求項又はに記載の画像処理装置。
  4. 前記復元処理は、前記点拡がり関数に基づく復元フィルタを用いるフィルタリング処理を含み、
    前記復元制御処理部は、前記処理対象フレームの前記撮影条件情報に対応する復元フィルタと、前記参照フレームの前記撮影条件情報に対応する復元フィルタとに基づいて算出されるフィルタを復元フィルタとして用いたフィルタリング処理を、前記処理対象フレームに対して行うことにより、前記処理対象フレームに対する前記復元処理を行う請求項又はに記載の画像処理装置。
  5. 前記復元制御処理部は、前記処理対象フレームの前記撮影条件情報に対応する復元フィルタと、前記参照フレームの前記撮影条件情報に対応する復元フィルタとの加重平均から算出されるフィルタを復元フィルタとして用いたフィルタリング処理を、前記処理対象フレームに対して行うことにより、前記処理対象フレームに対する前記復元処理を行う請求項に記載の画像処理装置。
  6. 前記復元制御処理部は、前記処理対象フレームの前記撮影条件情報に対応する復元フィルタを前記処理対象フレームに適用することにより算出される画像データと、前記参照フレームの前記撮影条件情報に対応する復元フィルタを前記参照フレームに適用することにより算出される画像データとの加重平均から算出される画像データを、前記処理対象フレームの前記回復画像データとする請求項に記載の画像処理装置。
  7. 前記動画の被写体の動きを検出する被写体検出部を備え、
    前記被写体検出部によって検出される前記処理対象フレーム及び前記参照フレームでの前記被写体の動き量が閾値以上の場合、前記復元制御処理部は、前記処理対象フレームの前記撮影条件情報に対応する復元フィルタと、前記参照フレームの前記撮影条件情報に対応する復元フィルタとの加重平均から算出されるフィルタを復元フィルタとして用いたフィルタリング処理を、前記処理対象フレームに対して行うことにより、前記処理対象フレームに対する前記復元処理を行い、
    前記被写体検出部によって検出される前記処理対象フレーム及び前記参照フレームでの前記被写体の動き量が閾値未満の場合、前記復元制御処理部は、前記処理対象フレームの前記撮影条件情報に対応する復元フィルタを前記処理対象フレームに適用することにより算出される画像データと、前記参照フレームの前記撮影条件情報に対応する復元フィルタを前記参照フレームに適用することにより算出される画像データとの加重平均から算出される画像データを、前記処理対象フレームの前記回復画像データとする請求項に記載の画像処理装置。
  8. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元制御処理部を備え、
    前記復元制御処理部は、前記複数のフレームのうちの処理対象フレームに対する前記復元処理を、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御し、
    前記撮像情報は、前記処理対象フレーム及び前記参照フレームの画像情報を含み、
    前記画像情報は、前記処理対象フレーム及び前記参照フレームに飽和画素が含まれるか否かの情報、及び前記処理対象フレーム及び前記参照フレームにデフォーカス領域が含まれるか否かの情報のうち、少なくともいずれか一方を含む画像処理装置。
  9. 前記画像情報は、前記処理対象フレーム及び前記参照フレームに飽和画素が含まれるか否かの情報を含み、
    前記復元制御処理部は、前記参照フレームに飽和画素が含まれるか否かを判別し、前記参照フレームに飽和画素が含まれると判別した場合には、当該飽和画素が含まれる前記参照フレームの前記撮像情報に基づき、前記処理対象フレームに対する前記復元処理の復元強度を調整する請求項に記載の画像処理装置。
  10. 前記復元制御処理部は、
    前記参照フレームにおける光源の点滅状態を解析し、
    前記光源の点滅状態に基づき、前記処理対象フレームに対する前記復元処理の復元強度を調整する請求項に記載の画像処理装置。
  11. 前記画像情報は、前記処理対象フレーム及び前記参照フレームにデフォーカス領域が含まれるか否かの情報を含み、
    前記復元制御処理部は、前記参照フレームにデフォーカス領域が含まれるか否かを判別し、前記参照フレームにデフォーカス領域が含まれると判別した場合には、当該デフォーカス領域が含まれる前記参照フレームの前記撮像情報に基づき、前記処理対象フレームに対する前記復元処理の復元強度を調整する請求項に記載の画像処理装置。
  12. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元制御処理部と、
    前記動画において動体を検出する動体検出部と、を備え、
    前記復元制御処理部は、前記複数のフレームのうちの処理対象フレームに対する前記復元処理を、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御し、
    前記動体検出部によって前記処理対象フレーム及び前記参照フレームで前記動体が検出された場合、前記復元制御処理部は、前記動体の動きに基づく位相特性が反映された前記点拡がり関数に基づく前記復元処理を前記処理対象フレームに対して行う画像処理装置。
  13. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元制御処理部を備え、
    前記復元制御処理部は、
    前記動画の原画像データに対し、前記光学系の点拡がり関数に基づく復元フィルタを適用して復元画像データを取得するフィルタ適用部と、
    前記原画像データと前記復元画像データとの差分の増幅率の調整を行い、当該調整が行われた後の差分と前記原画像データとから前記動画の前記回復画像データを取得するゲイン調整部と、を有し、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理を、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮情報に基づき、前記復元フィルタ及び前記増幅率のうち少なくともいずれか一方を調整することにより制御する画像処理装置。
  14. 前記参照フレームは、前記処理対象フレームよりも時系列における前のフレームを含む請求項1から13のいずれか1項に記載の画像処理装置。
  15. 前記参照フレームは、前記処理対象フレームの時系列における直前のフレーム及び直後のフレームを含む請求項14に記載の画像処理装置。
  16. 前記復元制御処理部は、前記処理対象フレームに対する前記復元処理を、前記参照フレームの前記撮像情報及び前記処理対象フレームの前記撮像情報に基づいて制御する請求項1から15のいずれか1項に記載の画像処理装置。
  17. 前記光学系は、位相を変調することにより被写界深度を拡大させるレンズ部を有する請求項1から16のいずれか1項に記載の画像処理装置。
  18. ライブビュー画像を表示する表示部を備え、
    前記復元制御処理部は、前記ライブビュー画像に対して前記光学系の点拡がり関数に基づく前記復元処理を行い、前記ライブビュー画像に対する前記復元処理は、前記ライブビュー画像を構成する複数のフレームのうちの前記処理対象フレームに対する前記復元処理を、当該処理対象フレームの時系列における前又は後に取得されたフレームの撮像情報には基づかずに、当該処理対象フレームの撮像情報に基づいて制御する請求項1から17のいずれか1項に記載の画像処理装置。
  19. ライブビュー画像を表示する表示部を備え、
    前記復元制御処理部は、前記ライブビュー画像に対し、前記光学系の点拡がり関数に基づく前記復元処理を行わない請求項1から17のいずれか1項に記載の画像処理装置。
  20. 光学系を用いた撮影により動画を取得する撮像素子と、
    請求項1から19のいずれか1項に記載の画像処理装置と、を備える撮像装置。
  21. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する手順を含む画像処理方法であって、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理は、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御され
    前記撮像情報は、前記処理対象フレーム及び前記参照フレームの撮影条件情報を含む画像処理方法。
  22. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する手順を含む画像処理方法であって、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理は、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御され
    前記撮像情報は、前記処理対象フレーム及び前記参照フレームの画像情報を含み、
    前記画像情報は、前記処理対象フレーム及び前記参照フレームに飽和画素が含まれるか否かの情報、及び前記処理対象フレーム及び前記参照フレームにデフォーカス領域が含まれるか否かの情報のうち、少なくともいずれか一方を含む画像処理方法。
  23. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元処理手順と、前記動画において動体を検出する動体検出手順と、を含む画像処理方法であって、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理は、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御され
    前記動体検出手順において前記処理対象フレーム及び前記参照フレームで前記動体が検出された場合、前記復元処理手順において前記動体の動きに基づく位相特性が反映された前記点拡がり関数に基づく前記復元処理を前記処理対象フレームに対して行う画像処理方法。
  24. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元処理手順を含む画像処理方法であって、
    前記復元処理手順は、
    前記動画の原画像データに対し、前記光学系の点拡がり関数に基づく復元フィルタを適用して復元画像データを取得する手順と、
    前記原画像データと前記復元画像データとの差分の増幅率の調整を行い、当該調整が行われた後の差分と前記原画像データとから前記動画の前記回復画像データを取得する手順と、を含み、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理は、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づき、前記復元フィルタ及び前記増幅率のうち少なくともいずれか一方を調整することにより制御される画像処理方法。
  25. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する手順をコンピュータに実行させるプログラムであって、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理は、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御され
    前記撮像情報は、前記処理対象フレーム及び前記参照フレームの撮影条件情報を含むプログラム。
  26. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する手順をコンピュータに実行させるプログラムであって、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理は、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御され
    前記撮像情報は、前記処理対象フレーム及び前記参照フレームの画像情報を含み、
    前記画像情報は、前記処理対象フレーム及び前記参照フレームに飽和画素が含まれるか否かの情報、及び前記処理対象フレーム及び前記参照フレームにデフォーカス領域が含まれるか否かの情報のうち、少なくともいずれか一方を含むプログラム。
  27. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元処理手順と、前記動画において動体を検出する動体検出手順と、をコンピュータに実行させるプログラムであって、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理は、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づいて制御され
    前記動体検出手順において前記処理対象フレーム及び前記参照フレームで前記動体が検出された場合、前記復元処理手順において前記動体の動きに基づく位相特性が反映された前記点拡がり関数に基づく前記復元処理を前記処理対象フレームに対して行うプログラム。
  28. 光学系を用いた撮影によって取得される複数のフレームを含む動画に対し、前記光学系の点拡がり関数に基づく復元処理を行うことにより回復画像データを取得する復元処理手順をコンピュータに実行させるプログラムであって、
    前記復元処理手順は、
    前記動画の原画像データに対し、前記光学系の点拡がり関数に基づく復元フィルタを適用して復元画像データを取得する手順と、
    前記原画像データと前記復元画像データとの差分の増幅率の調整を行い、当該調整が行われた後の差分と前記原画像データとから前記動画の前記回復画像データを取得する手順と、を含み、
    前記複数のフレームのうちの処理対象フレームに対する前記復元処理は、前記処理対象フレームよりも時系列における後のフレームを含む参照フレームの撮像情報に基づき、前記復元フィルタ及び前記増幅率のうち少なくともいずれか一方を調整することにより制御されるプログラム。
JP2015529453A 2013-08-02 2014-06-20 画像処理装置、撮像装置、画像処理方法、及びプログラム Active JP5933129B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013161616 2013-08-02
JP2013161616 2013-08-02
PCT/JP2014/066431 WO2015015943A1 (ja) 2013-08-02 2014-06-20 画像処理装置、撮像装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP5933129B2 true JP5933129B2 (ja) 2016-06-08
JPWO2015015943A1 JPWO2015015943A1 (ja) 2017-03-02

Family

ID=52431485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015529453A Active JP5933129B2 (ja) 2013-08-02 2014-06-20 画像処理装置、撮像装置、画像処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US9799105B2 (ja)
JP (1) JP5933129B2 (ja)
CN (1) CN105453540B (ja)
WO (1) WO2015015943A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015966A1 (ja) * 2013-08-01 2015-02-05 富士フイルム株式会社 撮像装置、撮像方法及び画像処理装置
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9420331B2 (en) * 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
JP6879296B2 (ja) * 2016-03-31 2021-06-02 日本電気株式会社 画像検出装置、画像検出方法、及びプログラム
EP3336757A1 (en) * 2016-12-16 2018-06-20 Tata Consultancy Services Limited Method and system for container code recognition
WO2020148797A1 (ja) * 2019-01-15 2020-07-23 オリンパス株式会社 画像処理システム、学習済みモデル及び画像処理方法
US11727540B2 (en) * 2020-12-31 2023-08-15 Samsung Electronics Co., Ltd. Image sharpening
US20230237628A1 (en) * 2022-01-24 2023-07-27 Adobe Inc. Modeling continuous kernels to generate an enhanced digital image from a burst of digital images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147808A (ja) * 2008-12-18 2010-07-01 Olympus Imaging Corp 撮像装置および撮像装置における画像処理方法
JP2011010214A (ja) * 2009-06-29 2011-01-13 Canon Inc レンズ交換式カメラ、及びその制御方法
JP2013142997A (ja) * 2012-01-11 2013-07-22 Nk Works Kk 画像処理プログラムおよび画像処理装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4916862B2 (ja) 2005-12-27 2012-04-18 京セラ株式会社 撮像装置およびその方法
JP2009054130A (ja) * 2007-07-27 2009-03-12 Ricoh Co Ltd 画像処理装置、画像処理方法およびデジタルスチルカメラ
JP4881278B2 (ja) * 2007-10-31 2012-02-22 株式会社東芝 物体認識装置及びその方法
JP2009171341A (ja) 2008-01-17 2009-07-30 Sanyo Electric Co Ltd ぶれ補正装置及び撮像装置
JP4492724B2 (ja) * 2008-03-25 2010-06-30 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP5284183B2 (ja) 2009-06-03 2013-09-11 キヤノン株式会社 画像処理装置およびその方法
TW201044856A (en) * 2009-06-09 2010-12-16 Ind Tech Res Inst Image restoration method and apparatus
JP4973719B2 (ja) * 2009-11-11 2012-07-11 カシオ計算機株式会社 撮像装置、撮像方法、及び撮像プログラム
US8368771B2 (en) * 2009-12-21 2013-02-05 Olympus Imaging Corp. Generating a synthesized image from a plurality of images
JP2011215707A (ja) * 2010-03-31 2011-10-27 Canon Inc 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2012049773A (ja) * 2010-08-26 2012-03-08 Sony Corp 撮像装置および方法、並びにプログラム
JP5635844B2 (ja) * 2010-09-06 2014-12-03 キヤノン株式会社 焦点調整装置および撮像装置
JP2012065114A (ja) 2010-09-15 2012-03-29 Olympus Corp 撮像装置、撮像方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010147808A (ja) * 2008-12-18 2010-07-01 Olympus Imaging Corp 撮像装置および撮像装置における画像処理方法
JP2011010214A (ja) * 2009-06-29 2011-01-13 Canon Inc レンズ交換式カメラ、及びその制御方法
JP2013142997A (ja) * 2012-01-11 2013-07-22 Nk Works Kk 画像処理プログラムおよび画像処理装置

Also Published As

Publication number Publication date
US9799105B2 (en) 2017-10-24
CN105453540B (zh) 2018-08-21
JPWO2015015943A1 (ja) 2017-03-02
US20160140697A1 (en) 2016-05-19
WO2015015943A1 (ja) 2015-02-05
CN105453540A (zh) 2016-03-30

Similar Documents

Publication Publication Date Title
JP5759085B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム並びに記録媒体
JP5933129B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP5752866B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム並びに記録媒体
US9633417B2 (en) Image processing device and image capture device performing restoration processing using a restoration filter based on a point spread function
US9906732B2 (en) Image processing device, image capture device, image processing method, and program
US9699427B2 (en) Imaging device, imaging method, and image processing device
US9866750B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP5870231B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US9892495B2 (en) Image processing device, imaging device, image processing method, and image processing program
JP5851655B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5903528B2 (ja) 撮像装置及び画像処理方法
JP6096382B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6342083B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160401

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160428

R150 Certificate of patent or registration of utility model

Ref document number: 5933129

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250