JPWO2015015935A1 - 撮像装置及び画像処理方法 - Google Patents

撮像装置及び画像処理方法 Download PDF

Info

Publication number
JPWO2015015935A1
JPWO2015015935A1 JP2015529450A JP2015529450A JPWO2015015935A1 JP WO2015015935 A1 JPWO2015015935 A1 JP WO2015015935A1 JP 2015529450 A JP2015529450 A JP 2015529450A JP 2015529450 A JP2015529450 A JP 2015529450A JP WO2015015935 A1 JPWO2015015935 A1 JP WO2015015935A1
Authority
JP
Japan
Prior art keywords
filter
image
unit
focus
restoration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015529450A
Other languages
English (en)
Other versions
JP5903528B2 (ja
Inventor
洋介 成瀬
洋介 成瀬
林 健吉
健吉 林
杉本 雅彦
雅彦 杉本
入江 公祐
公祐 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Application granted granted Critical
Publication of JP5903528B2 publication Critical patent/JP5903528B2/ja
Publication of JPWO2015015935A1 publication Critical patent/JPWO2015015935A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • H04N25/615Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4" involving a transfer function modelling the optical system, e.g. optical transfer function [OTF], phase transfer function [PhTF] or modulation transfer function [MTF]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

劣化した動画の各画像に対して過補正となる復元処理を防止することができ、かつ復元処理により高解像度の画像を取得することができる撮像装置及び画像処理方法を提供する。第1復元処理部110及び第2復元処理部120は、それぞれ撮像部により連続して撮像された各画像(輝度データY)に対し、光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタ102、及び第1フィルタ102と比較して復元強度が弱い第2フィルタ104を使用して復元処理を行う。選択部122は、合焦判別部150から入力する、現時点の画像が目標の合焦状態にあるか否かを示す判別結果に応じて、第1フィルタ102を使用して処理された輝度データYA、又は第2フィルタ104を使用して処理された輝度データYBのうち、いずれか一方を選択して出力する。

Description

本発明は撮像装置及び画像処理方法に係り、特に光学系の点拡がり関数(PSF:Point Spread Function)、又は光学伝達関数(OTF:Optical Transfer Function)に基づいて前記光学系を介して撮像された動画の復元処理を行う技術に関する。
撮像された画像の復元処理は、予め光学系(撮影レンズ)の収差等による劣化(PSF又はOTF)の特性を求めておき、撮像された画像(劣化している画像)を、PSF又はOTFに基づいて生成した復元フィルタを使用して復元処理することにより解像度の高い画像に復元する処理である。
PSFとOTFとはフーリエ変換の関係にあり、PSFは実関数、OTFは複素関数である。これらと等価な情報を持つものとして、変調伝達関数又は振幅伝達関数(MTF:Modulation Transfer Function)と位相伝達関数(PTF:Phase Transfer Function)があり、それぞれOTFの振幅成分と位相成分を示す。MTFとPTFとを合わせてOTFやPSFと等価な情報量を持つ。
従来、劣化画像から高解像度の画像を復元するときに、復元後に理想的な1点になるように生成した復元フィルタを用いて復元処理を行うと、高周波成分が過大に復元され(過補正され)、画像の乱れが発生するという問題がある。この問題を解決するために、特許文献1に記載の画像復元方法は、復元後においても微少な点拡がりを持つ復元フィルタにより復元処理を行い、高周波成分を減衰させて復元後の画像における高周波成分による画像の乱れやざらつきを抑制するようにしている。
特許文献2に記載の撮像装置は、静止画の復元処理に使用する第1のフィルタと、動画の復元処理時に使用する第2のフィルタとを異ならせることを特徴としており、特に第2のフィルタのフィルタサイズを第1のフィルタのフィルタサイズよりも小さくすることにより、動画の復元処理時間の短縮化(リアルタイム化)を図るとともに、静止画に対して精度の高い復元処理を可能にしている。
特開2006−238032号公報 特開2008−11492号公報
ところで、撮像された動画の各画像(フレーム)に対し、復元フィルタを使用することにより劣化した画像を高解像度の画像に復元する場合、処理対象の画像の焦点が合っていることが必要である。復元フィルタは、焦点が合っている画像のPSF又はOTFに基づいて生成されたものだからである。従って、焦点が合っていない画像に対し、復元フィルタを使用して復元処理を行うと、復元処理前の画像よりも画質が劣化するという問題がある。
特に動画の場合、移動する被写体を撮像したり、カメラをパン及び/又はチルトさせて撮像するため、自動焦点調節機構を有するカメラであっても、被写体に焦点が合うまでに時間差が発生し、その間に撮像される動画に対しては、不適切な復元処理が行われるという問題がある。
特許文献1及び2には、上記のような課題を示す記載がない。
また、特許文献1に記載の発明は、微少な点拡がりを持つ復元フィルタにより復元処理を行うため、復元処理による過補正を抑制することができるが、高解像度の動画を得ることができないという問題がある。
特許文献2に記載の発明も、動画の復元処理に使用する第2のフィルタは、静止画の復元処理に使用する第1のフィルタよりもフィルタサイズが小さいため、復元精度が低く、高解像度の動画を得ることができないという問題がある。更に,特許文献2に記載の発明は、合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成された光学系、すなわち光学系に光波面変調素子を含む撮像装置を前提にしており、自動焦点調節機構がなく、本発明が解決しようとする課題がない。
本発明はこのような事情に鑑みてなされたもので、劣化した動画の各画像に対して過補正となる復元処理を防止することができ、かつ復元処理により高解像度の画像を取得することができる撮像装置及び画像処理方法を提供することを目的とする。
上記目的を達成するために本発明の一の態様に係る発明は、少なくとも画像を連続して撮像する撮像部と、撮像部により連続して撮像される画像の焦点調節を自動的に行う自動焦点調節部と、撮像部の光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを取得する第1フィルタ取得部と、撮像部により連続して撮像される画像のうちの非合焦の画像に適用される第2フィルタであって、第1フィルタと比較して復元強度が弱い第2フィルタを取得する第2フィルタ取得部と、撮像部により連続して撮像された画像のうちの処理対象の画像が、自動焦点調節部による焦点調節により目標の合焦状態にあるか否かを判別する合焦判別部と、合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、処理対象の画像に対し、少なくとも第2フィルタ取得部により取得した第2フィルタを使用した復元処理を行い、合焦判別部により処理対象の画像が目標の合焦状態にあると判別されると、処理対象の画像に対し、第1フィルタ取得部により取得した第1フィルタを使用した復元処理を行う復元処理部と、を備えている。
本発明の一の態様によれば、連続して撮像される画像のうち、目標の合焦状態にない画像(非合焦の画像)に対しては、非合焦の画像に適用される復元強度が弱い第2フィルタを使用して復元処理を行うため、過補正等により画質が破綻することがなく、一方、目標の合焦状態にある画像に対しては、光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを使用して復元処理を行うため、光学系の点拡がり関数に対応して劣化した画像を、解像度の高い画像に復元することができる。
本発明の他の態様に係る撮像装置において、復元処理部は、合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、取得した第1フィルタ及び第2フィルタに基づいて処理対象の画像を復元処理することが好ましい。即ち、目標の合焦状態にないと判別されると、処理対象の画像に対して第1フィルタと第2フィルタとを使用した復元処理を行う。
本発明の更に他の態様に係る撮像装置において、自動焦点調節部により焦点調節が開始されてから目標の合焦状態に達するまでの合焦時間を予想する合焦時間予想部を備え、復元処理部は、合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、取得した第1フィルタ、第2フィルタ及び予想した合焦時間に基づいて処理対象の画像を復元処理することが好ましい。これにより、第1フィルタと第2フィルタとを使用し、かつ予想した合焦時間に適した復元処理を行うことができる。
本発明の更に他の態様に係る撮像装置において、自動焦点調節部は、撮像される画像のデフォーカス量を検出し、検出したデフォーカス量が焦点深度の範囲内に入るまで光学系を制御し、合焦時間予想部は、デフォーカス量が検出されてから焦点深度の範囲内に入るまでの合焦時間を予想することが好ましい。自動焦点調節部による焦点調節する場合には、光学系(フォーカスレンズ等)の機械的な移動を伴うため、デフォーカス量が検出されてから焦点深度の範囲内に入るまでに時間差が発生する。また、フォーカスレンズの駆動速度が速すぎると、自動焦点調節のハンチングが発生するため、フォーカスレンズが合焦位置に近づくにつれて、レンズ駆動速度を遅くする方法もあり、これによりデフォーカス量が検出されてから焦点深度の範囲内に入るまでに、ある程度の時間差が発生する。
本発明の更に他の態様によれば、デフォーカス量に基づいて光学系を制御する際に、デフォーカス量が検出されてから焦点深度の範囲内に入るまでの時間を予想する。尚、合焦時間予想部による合焦時間の予想は、連続的に撮像される画像毎に行うようにしてもよいし、一定枚数の画像毎に行うようにしてもよい。
本発明の更に他の態様に係る撮像装置において、合焦時間予想部は、自動焦点調節部により検出されたデフォーカス量が閾値以内にあるときのみ合焦時間を予想し、復元処理部は、デフォーカス量が閾値を越えている場合には、取得した第2フィルタのみを使用して復元処理を行うことが好ましい。
デフォーカス量が閾値を越えている場合、その時点に取得した画像は、ピンぼけが大きくなっており、このピンぼけの画像に対して第1フィルタを含む復元処理を行うと、却って画質が劣化する。従って、検出されたデフォーカス量が閾値を越えている場合には、第2フィルタのみを使用して復元処理を行い、一方、デフォーカス量が閾値以内の場合には、第1フィルタ及び第2フィルタを使用した復元処理を行うべく合焦時間を予想するようにしている。
本発明の更に他の態様に係る撮像装置において、自動焦点調節部は、撮像部により撮像された画像の合焦領域の高周波成分を評価値として算出し、算出した評価値がピーク値になるまで光学系を制御し、合焦時間予想部は、自動焦点調節部により算出された評価値の変化に基づいて、評価値が目標の合焦状態に対応する第1の閾値に達するまでの時間を予想することが好ましい。
この自動焦点調節部は、画像の合焦領域の高周波成分を示す評価値が、ピーク値になるように光学系を制御するものであり、特に連続して撮像される画像(動画等)の場合には、評価値がピーク位置に維持されるように光学系を制御する、いわゆる山登り制御が行われる。山登り制御の場合、光学系を制御しながら連続して取得した各画像の評価値を算出し、算出した評価値がピーク値を越えて低下した時点で、合焦状態になったことが判明する。そこで、目標の合焦状態に対応する第1の閾値を決めておき、自動焦点調節部により算出された評価値の変化に基づいて、評価値が第1の閾値に達するまでの時間を予想するようにしている。
本発明の更に他の態様に係る撮像装置において、合焦時間予想部は、自動焦点調節部により算出された評価値が、第1の閾値よりも低い第2の閾値以上にあるときのみ合焦時間を予想し、復元処理部は、自動焦点調節部により算出された評価値が第2の閾値未満の場合には、取得した第2フィルタのみを使用して復元処理を行うことが好ましい。
算出された評価値が第2の閾値未満の場合、その時点に取得した画像は、ピンぼけが大きくなっており、このピンぼけの画像に対して第1フィルタを含む復元処理を行うと、却って画質が劣化する。従って、算出された評価値が第2の閾値未満の場合には、第2フィルタのみを使用して復元処理を行い、一方、評価値が第2の閾値以上の場合には、第1フィルタ及び第2フィルタを使用した復元処理を行うべく合焦時間を予想するようにしている。
本発明の更に他の態様に係る撮像装置において、復元処理部は、合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、取得した第1フィルタ及び第2フィルタに基づいて処理対象の画像をそれぞれ復元処理して第1の画像及び第2の画像を生成し、合焦時間予想部により予想された合焦時間が短い程、第1の画像の重みが大きくなる重み付けを用いることにより第1の画像と第2の画像とを加重平均して復元画像を生成することが好ましい。
即ち、第1フィルタ及び第2フィルタに基づいて処理対象の画像をそれぞれ復元処理して第1の画像及び第2の画像を生成し、生成した第1の画像と第2の画像とを加重平均して復元画像を生成する。加重平均時の重み付けは、合焦時間予想部により予想された合焦時間が短い程、第1の画像の重みを大きくしている。これにより、ピンぼけ状態から合焦状態になるまでの期間、加重平均時の重み付けを変化させることにより、滑らかに繋がった復元画像を生成することができる。
本発明の更に他の態様に係る撮像装置において、自動焦点調節部は、撮像される画像のデフォーカス量を検出し、検出したデフォーカス量が焦点深度の範囲内に入るまで光学系を制御し、復元処理部は、合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、取得した第1フィルタ及び第2フィルタに基づいて処理対象の画像をそれぞれ復元処理して第1の画像及び第2の画像を生成し、検出したデフォーカス量が小さい程、第1の画像の重みが大きくなる重み付けを用いて第1の画像と第2の画像とを加重平均して復元画像を生成することが好ましい。
即ち、第1フィルタ及び第2フィルタに基づいて処理対象の画像をそれぞれ復元処理して第1の画像及び第2の画像を生成し、生成した第1の画像と第2の画像とを加重平均して復元画像を生成する。加重平均時の重み付けは、検出したデフォーカス量が小さい程、第1の画像の重みが大きくなるようにしている。これにより、ピンぼけ状態から合焦状態になるまでの期間、加重平均時の重み付けを変化させることにより、滑らかに繋がった復元画像を生成することができる。
本発明の更に他の態様に係る撮像装置において、自動焦点調節部は、撮像される画像のデフォーカス量を検出し、検出したデフォーカス量が焦点深度の範囲内に入るまで光学系を制御し、復元処理部は、取得した第1フィルタ、第2フィルタ及び検出したデフォーカス量に基づいて撮像部により取得された画像に対する第3フィルタを算出する第3フィルタ算出部であって、検出したデフォーカス量が小さくなるにしたがって第2フィルタのフィルタ係数から第1フィルタのフィルタ係数に順次近づくフィルタ係数を有する第3フィルタを算出する第3フィルタ算出部を有し、撮像部により連続して撮像される画像のうちの自動焦点調節部により焦点調節が開始されてから目標の合焦状態に達する直前までの画像に対し、第3フィルタ算出部により算出した第3フィルタを使用して復元処理を行い、目標の合焦状態に達した画像に対し、取得した第1フィルタを使用して復元処理を行うことが好ましい。
本発明の更に他の態様に係る撮像装置において、復元処理部は、取得した第1フィルタ、第2フィルタ及び予想した合焦時間に基づいて撮像部により取得された処理対象の画像に対する第3フィルタを算出する第3フィルタ算出部であって、合焦時間の時間経過にしたがって第2フィルタのフィルタ係数から第1フィルタのフィルタ係数に順次近づくフィルタ係数を有する第2フィルタを算出する第3フィルタ算出部を有し、撮像部により連続して撮像される画像のうちの自動焦点調節部により焦点調節が開始されてから目標の合焦状態に達する直前までの画像に対し、第3フィルタ算出部により算出した第3フィルタを使用して復元処理を行い、目標の合焦状態に達した画像に対し、取得した第1フィルタを使用して復元処理を行うことが好ましい。
本発明の更に他の態様によれば、合焦時間の時間経過にしたがって第2フィルタのフィルタ係数から第1フィルタのフィルタ係数に順次近づくフィルタ係数を有する第3フィルタを算出し、算出した第3フィルタを使用して、焦点調節が開始されてから目標の合焦状態に達する直前までの画像を復元処理するようにしたため、合焦状態にかかわらず、滑らかに繋がった復元画像を生成することができる。
本発明の更に他の態様に係る撮像装置において、第3フィルタ算出部により第3フィルタが算出された前回の時刻をt0、現在の時刻をt、すなわちt>t0が成り立つ場合であって、前回の時刻t0における第3フィルタをX(t0)、現在の時刻tにおける第3フィルタをX(t)、前回の時刻t0に合焦時間予想部により予想された合焦時刻をt1、第1フィルタ取得部により取得した合焦時刻t1における光学系の撮影条件に対応する第1フィルタをF、第2フィルタ取得部により取得した第2フィルタをA、並びにW(0)=0、W(1)=1、及び0≦r≦1で表現される単調増加関数をW(r)とする場合において、第3フィルタ算出部は、今回使用する第3フィルタX(t)を、次式、
X(t)=(1−W(r))×X(t0)+W(r)×F
但し、r=(t−t0)/(t1−t0)、X(0)=A
により算出することが好ましい。
本発明の更に他の態様に係る撮像装置において、第3フィルタ算出部は、撮像部から複数の画像が取得される毎に第3フィルタを算出し、復元処理部は、第3フィルタ算出部により算出した第3フィルタを複数の画像の復元処理に使用することが好ましい。
本発明の更に他の態様に係る撮像装置において、第1フィルタ取得部は、合焦時間予想部により予想された合焦時間経過後の光学系の撮影条件に基づいて、撮影条件下の点拡がり関数に対応して生成された第1フィルタを取得することが好ましい。
本発明の更に他の態様によれば、第1フィルタとして、予想された合焦時間経過後の光学系の撮影条件に対応する第1フィルタを使用するようにしたため、焦点調節が開始されてから目標の合焦状態に達する直前までの画像を、滑らかに繋がった復元画像にすることができる。
本発明の更に他の態様に係る撮像装置において、ユーザの指示入力により撮影準備指示を出力する撮影準備指示部と、撮像部により連続して撮像された画像をライブビュー画像として表示する表示部と、を更に備え、復元処理部は、少なくとも撮影準備指示部から撮影準備指示が出力されるまで、取得した第2フィルタのみを使用して復元処理を行うことが好ましい。
通常、撮影準備指示部から撮影準備指示が出力されるまでの期間、自動焦点調節部による焦点調節は行われないため、その間に取得した画像(ライブビュー用の画像)に対しては、第2フィルタのみを使用して復元処理を行うことにより、過補正等により画質が破綻しないようにしている。
本発明の更に他の態様に係る撮像装置において、復元処理部は、撮影準備指示部から撮影準備指示が出力され、自動焦点調節部による焦点調節が行われると、取得した第1フィルタを使用して復元処理を行うことが好ましい。即ち、撮影準備指示部から撮影準備指示が出力され、自動焦点調節部による焦点調節が行われ、その結果、目標の合焦状態にある画像が取得されると、その画像に対しては第1フィルタを使用して復元処理を行うことにより、光学系の点拡がり関数に対応して劣化した画像を、解像度の高い画像に復元することができる。
本発明の更に他の態様に係る撮像装置において、第2フィルタは、輪郭強調フィルタ、復元後の変調伝達関数(MTF)が1.0を超えない復元フィルタ、ゼロ位相フィルタ、光学系の収差が最も少ない領域の点拡がり関数に対応して生成された復元フィルタ、及びカーネルの中央が1で中央以外が0のフィルタのうちの少なくとも1つであることが好ましい。
本発明の更に他の態様に係る画像処理方法は、撮像部から画像を連続して取得する画像取得工程と、撮像部により連続して撮像される画像の焦点調節を自動的に行う自動焦点調節工程と、撮像部の光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを取得する第1フィルタ取得工程と、撮像部により連続して撮像される画像のうちの非合焦の画像に適用される第2フィルタであって、第1フィルタと比較して復元強度が弱い第2フィルタを取得する第2フィルタ取得工程と、撮像部により連続して撮像された画像のうちの処理対象の画像が、自動焦点調節工程による焦点調節により目標の合焦状態にあるか否かを判別する合焦判別工程と、合焦判別工程により処理対象の画像が目標の合焦状態にないと判別されると、処理対象の画像に対し、少なくとも第1フィルタ取得工程により取得した第2フィルタを使用した復元処理を行い、合焦判別工程により目標の合焦状態にあると判別されると、処理対象の画像に対し、第2フィルタ取得工程により取得した第1フィルタを使用した復元処理を行う復元処理工程と、を含んでいる。
本発明の更に他の態様に係る画像処理方法において、自動焦点調節工程により焦点調節が開始されてから目標の合焦状態に達するまでの合焦時間を予想する合焦時間予想工程を含み、復元処理工程は、合焦判別工程により処理対象の画像が目標の合焦状態にないと判別されると、取得した第1フィルタ、第2フィルタ及び予想した合焦時間に基づいて処理対象の画像を復元処理することが好ましい。
本発明によれば、連続して撮像される画像のうち、目標の合焦状態にない画像に対しては、復元強度が弱い第2フィルタを使用して復元処理を行うため、過補正等により画質が破綻することがなく、一方、目標の合焦状態にある画像に対しては、光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを使用して復元処理を行うため、光学系の点拡がり関数に対応して劣化した画像を、解像度の高い画像に復元することができる。
図1は本発明に係る撮像装置の実施形態を示す斜視図である。 図2は図1に示した撮像装置の背面図である。 図3は図1に示した撮像装置の内部構成の実施形態を示すブロック図である。 図4(a)及び図4(b)は位相差画素の構成例を示す図である。 図5は撮像素子の撮像領域とAF領域を示す図である。 図6(a)、図6(b)、及び図6(c)はAF領域の他の実施形態を示す図である。 図7は図3に示した撮像装置の画像処理部の実施形態を示す要部ブロック図である。 図8(A)及び図8(B)は復元処理を説明するために用いた図である。 図9は復元処理装置の第1の実施形態を示す要部ブロック図である。 図10は第1の実施形態に対応する画像処理方法を示すフローチャートである。 図11は復元処理装置の第2の実施形態を示す要部ブロック図である。 図12は加重平均算出用の重み係数を説明するために用いた図である。 図13は第2の実施形態に対応する画像処理方法を示すフローチャートである。 図14は第2の実施形態の変形例に対応する画像処理方法を示すフローチャートである。 図15は復元処理装置の第3の実施形態を示す要部ブロック図である。 図16は動画の撮像中のコントラストAFを説明するために用いたAF評価値を示すグラフである。 図17は第3の実施形態に対応する画像処理方法を示すフローチャートである。 図18は復元処理装置の第4の実施形態を示す要部ブロック図である。 図19はコントラストAF時の合焦時間の予測を説明するために用いた図である。 図20は第4の実施形態に対応する画像処理方法を示すフローチャートである。 図21は第4の実施形態の変形例に対応する画像処理方法を示すフローチャートである。 図22はAF評価値の閾値を説明するために用いた図である。 図23は復元処理装置の第5の実施形態を示す要部ブロック図である。 図24は任意の単調増加関数を示すグラフである。 図25は第5の実施形態に対応する画像処理方法を示すフローチャートである。 図26は図25のステップS90の詳細を示すフローチャートである。 図27は復元処理装置の第6の実施形態を示す要部ブロック図である。 図28は静止画撮像時のコントラストAFを説明するために用いた図である。 図29は第6の実施形態に対応する画像処理方法を示すフローチャートである。 図30はスマートフォンの外観を示す斜視図である。 図31はスマートフォンの構成を示すブロック図である。
以下、添付図面に従って本発明に係る撮像装置及び画像処理方法の好ましい実施の形態について詳説する。
[撮像装置]
図1及び図2はそれぞれ本発明に係る撮像装置の実施形態を示す斜視図及び背面図である。この撮像装置10は、レンズを通った光を撮像素子で受け、デジタル信号に変換して静止画又は動画の画像データとして記録メディアに記録するデジタルカメラ、又はデジタルビデオカメラである。
図1に示すように撮像装置10は、その正面に撮影レンズ(光学系)12、ストロボ1等が配設され、上面にはシャッタボタン2、電源/モードスイッチ3、モードダイヤル4等が配設されている。一方、図2に示すように、カメラ背面には、液晶モニタ30、ズームボタン5、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等が配設されている。
撮影レンズ12は、沈胴式のズームレンズで構成されており、電源/モードスイッチ3によってカメラのモードを撮影モードに設定することにより、カメラ本体から繰り出される。ストロボ1は、主要被写体に向けてストロボ光を照射するものである。
シャッタボタン2は、いわゆる「半押し(S1 ON)」と「全押し(S2 ON)」とからなる2段ストローク式のスイッチで構成され、撮影準備指示部として機能するとともに、画像の記録指示部として機能する。
撮像装置10は、撮影モードとして動画撮影モードが選択され、シャッタボタン2が「全押し」されると、動画の録画を開始し、シャッタボタン2が再度「全押し」されると、録画を停止して待機状態にする。また、動画撮影モードが選択されている場合には、後述する自動焦点処理部(AF処理部)42及びレンズ駆動部36を含む自動焦点調節部による焦点調節が連続して行われ(位相差AFによるコンティニアンスAFが行われ)、かつ自動露出検出部(AE検出部)44及びシャッタ駆動部33、絞り駆動部34を含む自動露出制御部により露出制御が行われる。
一方、撮像装置10は、撮影モードとして静止画撮影モードが選択され、シャッタボタン2が「半押し」されると、AF及びAE制御を行う撮影準備動作を行い、シャッタボタン2が「全押し」されると、静止画の撮像及び記録を行う。
電源/モードスイッチ3は、撮像装置10の電源をON/OFFする電源スイッチとしての機能と、撮像装置10のモードを設定するモードスイッチとしての機能とを併せ持っており、「OFF位置」と「再生位置」と「撮影位置」との間をスライド自在に配設されている。撮像装置10は、電源/モードスイッチ3をスライドさせて、「再生位置」又は「撮影位置」に合わせることにより、電源がONになり、「OFF位置」に合わせることにより、電源がOFFになる。そして、電源/モードスイッチ3をスライドさせて、「再生位置」に合わせることにより、「再生モード」に設定され、「撮影位置」に合わせることにより、「撮影モード」に設定される。
モードダイヤル4は、撮像装置10の撮影モードを設定する撮影モード設定手段として機能し、このモードダイヤルの設定位置により、撮像装置10の撮影モードが様々なモードに設定される。例えば、静止画撮影を行う「静止画撮影モード」、動画撮影を行う「動画撮影モード」等である。
液晶モニタ30は、撮影モード時のライブビュー画像、すなわちスルー画像の表示、再生モード時の静止画又は動画の表示を行うとともに、メニュー画面の表示等を行うことでグラフィカルユーザーインターフェース(GUI)の一部として機能する。
ズームボタン5は、ズームを指示するズーム指示手段として機能し、望遠側へのズームを指示するテレボタン5Tと、広角側へのズームを指示するワイドボタン5Wとからなる。撮像装置10は、撮影モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、撮影レンズ12の焦点距離が変化する。また、再生モード時に、このテレボタン5Tとワイドボタン5Wとが操作されることにより、再生中の画像が拡大、縮小する。
十字ボタン6は、上下左右の4方向の指示を入力するマルチファンクションボタンであり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。
MENU/OKボタン7は、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作ボタンである。
再生ボタン8は、撮影記録した静止画又は動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。
BACKボタン9は、入力操作のキャンセルや一つ前の操作状態に戻すことを指示するボタンとして機能する。
[撮像装置の内部構成]
図3は上記撮像装置10の内部構成の実施形態を示すブロック図である。この撮像装置10は、撮像した画像をメモリカード54に記録するもので、装置全体の動作は、中央処理装置(CPU)40によって統括制御される。
撮像装置10には、前述したシャッタボタン2、電源/モードスイッチ3、モードダイヤル4、テレボタン5T、ワイドボタン5W、十字ボタン6、MENU/OKボタン7、再生ボタン8、BACKボタン9等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいて撮像装置10の各回路を制御し、例えば、撮像素子(イメージセンサ)16の駆動制御、レンズ駆動制御、絞り駆動制御、撮影動作制御、画像処理制御、画像データの記録及び再生制御、液晶モニタ30の表示制御などを行う。
電源/モードスイッチ3により撮像装置10の電源がONされると、図示しない電源部から各ブロックへ給電され、撮像装置10の駆動が開始される。
撮影レンズ12、絞り14、メカシャッタ(機械的シャッタ)15等を通過した光束は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサである撮像素子16に結像される。尚、撮像素子16は、CMOS型に限らず、XYアドレス型、又はCCD(Charge Coupled Device)型のカラーイメージセンサでもよい。
撮像素子16は、所定のパターン配列(例えば、ベイヤー配列、GストライプR/G完全市松、X−Trans(登録商標)配列、ハニカム配列等)でマトリクス状に配置された複数画素によって構成され、各画素はマイクロレンズ、赤(R)、緑(G)又は青(B)のカラーフィルタCF及びフォトダイオード(PD)を含んで構成される。
また、本例の撮像素子16は、図4に示す位相差AF用の位相差画素を含んでいる。
図4(a)及び(b)はそれぞれ第1の位相差画素p1及び第2の位相差画素p2の構成を示す要部拡大図である。
図4(a)に示すように第1の位相差画素p1のフォトダイオード(PD)の前面側(マイクロレンズL側)には、遮光部材16Aが配設され、一方、図4(b)に示すように第2の位相差画素p2のフォトダイオード(PD)の前面側には、遮光部材16Bが配設される。マイクロレンズL及び遮光部材16A、16Bは瞳分割手段としての機能を有し、図4(a)に示すように遮光部材16Aは、フォトダイオード(PD)の受光面の左半分を遮光する。そのため、第1の位相差画素p1には、撮影レンズ12の射出瞳を通過する光束のうちの光軸の左側を通過する光束のみが受光される。図4(b)に示すように遮光部材16Bは、第2の位相差画素p2のフォトダイオード(PD)の受光面の右半分を遮光する。そのため、第2の位相差画素p2には、撮影レンズ12の射出瞳を通過する光束のうちの光軸の右側を通過する光束のみが受光される。このように、瞳分割手段であるマイクロレンズL及び遮光部材16A、16Bにより、射出瞳を通過する光束が左右に分割され、それぞれ第1の位相差画素p1及び第2の位相差画素p2に入射する。
第1の位相差画素p1及び第2の位相差画素p2は、図5に示すように撮像素子16の撮像領域内の中央部のAF領域(合焦領域)に設けられている。第1の位相差画素p1及び第2の位相差画素p2は、位相差検出方向、すなわち本実施形態では水平方向に数10画素から100画素程度配置することが好ましく、また、垂直方向に一対の位相差画素が、複数対配置することが好ましい。
尚、AF領域は、図5に示す例に限らず、図6(a)、図6(b)、及び図6(c)に示すように撮像素子1
6の撮像領域内に離散的に複数箇所設けるようにしてもよく、また、撮像領域の全域に設けるようにしてもよい。
図3に戻って、CPU40は、動画の撮像及び記録(録画)中、及びライブビュー画像の撮像及び表示中、常時AF動作及びAE動作を行う。
AF処理部42は、位相差AF処理を行う部分であり、図4に示した第1の位相差画素p1,第2の位相差画素p2の各出力信号を使用して位相差を検出する。
即ち、AF処理部42は、1フレーム分の画像データのうちのAF領域内の第1の位相差画素p1及び第2の位相差画素p2の画像データ(出力データ)を抽出し、第1の位相差画素p1の出力データと第2の位相差画素p2の出力データとの位相差を検出する。例えば、上下一対の第1の位相差画素p1と第2の位相差画素p2の各出力データの相関が最大になるとき(上下一対の位相差画素の各出力データの差分絶対値の積算値が最小になるとき)の各出力データ間の左右方向のシフト量から位相差を求める。
CPU40は、AF処理部42により検出された位相差データに基づいて撮影レンズ12によるピント位置と撮像素子16の結像面との光軸方向のずれ量(デフォーカス量)を算出する。
CPU40は、AF処理部42から位相差を示す位相差データを入力すると、位相差データに基づいて位相差AFを行う焦点調節手段として機能する。即ち、CPU40は、位相差データに基づいて撮影レンズ12によるピント位置と撮像素子16の結像面との光軸方向のずれ量(デフォーカス量)を算出し、算出したデフォーカス量が焦点深度の範囲内に入るようにレンズ駆動部36を介して撮影レンズ12内のフォーカスレンズを移動させる。尚、デフォーカス量の算出は、AF処理部42で行ってもよい。そして、シャッタボタン2の「全押し」があると、CPU40は、動画の撮影及び記録(録画)を開始させる。
撮影モードが動画撮影モードの場合には、CPU40は、連続的に撮像される画像毎(1フレーム毎)、又は一定枚数のフレーム毎にAF処理部42から位相差を示す位相差データを入力し、位相差データに基づいて算出したデフォーカス量が焦点深度の範囲内に入るようにレンズ駆動部36を介して撮影レンズ12内のフォーカスレンズを移動させる位相差AFを行う。この場合、1フレーム毎、又は一定枚数のフレーム毎に位相差データを入力するため、位相差AFが常時行われる(コンティニアンスAFが行われる)。即ち、動画撮影モード時には、メカシャッタ15を開放し、撮像素子16から画像データを所定のフレームレート(例えば、30フレーム/秒、60フレーム/秒)で連続的に読み出し、連続的に位相差AFを行うとともに、被写体の明るさを算出し、絞り駆動部34による絞り14を制御する。
また、47は、カメラ制御プログラム、撮像素子16の欠陥情報、画像処理等に使用する各種のパラメータやテーブルが記憶されているROM(Read Only Memory)、又はEEPROM(Electrically Erasable Programmable Read-Only Memory)である。本例では、このROM47に、撮影レンズ12の点拡がり関数(PSF)に対応して生成された復元フィルタである第1フィルタ及び第2フィルタが記憶されている。
動画又は静止画の撮影時に撮像素子16から出力されるRGBの画像データ(モザイク画像データ)は、画像入力コントローラ22からメモリ(SDRAM:Synchronous Dynamic Random Access Memory)48に入力し、一時的に記憶される。
メモリ48に一時的に記憶された画像データは、画像処理部24により適宜読み出され、ここで、オフセット処理、ホワイトバランス補正、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、デモザイク処理(デモザイキング処理)、RGB/YC変換処理、本発明に係る復元処理等の信号処理が行われる。尚、画像処理部24の詳細については後述する。
画像処理部24により処理された画像データは、VRAM(Video RAM)50に入力される。VRAM50には、それぞれが1コマ分の画像を表す画像データを記録するA領域とB領域とが含まれている。VRAM50において1コマ分の画像を表す画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域及びB領域のうち、画像データが書き換えられている方の領域以外の領域から、書き込まれている画像データが読み出される。
VRAM50から読み出された画像データは、ビデオエンコーダ28においてエンコーディングされ、カメラ背面に設けられている液晶モニタ30に出力され、これによりライブビュー画像が連続的に液晶モニタ30の表示画面上に表示される。
圧縮伸張処理部26は、動画又は静止画の記録時に、画像処理部24により処理され、一旦メモリ48に格納された輝度データY及び色差データCb,Crに対して圧縮処理を施す。動画の場合には、例えばH.264形式で圧縮し、静止画の場合には、例えばJPEG(Joint Photographic coding Experts Group)形式で圧縮する。圧縮伸張処理部26により圧縮された圧縮画像データは、メディアコントローラ52を介してメモリカード54に記録される。
また、圧縮伸張処理部26は、再生モード時にメディアコントローラ52を介してメモリカード54から得た圧縮画像データに対して伸張処理を施す。メディアコントローラ52は、メモリカード54に対する圧縮画像データの記録及び読み出しなどを行う。
<画像処理>
図7は、図3に示した撮像装置10の画像処理部24の実施形態を示す要部ブロック図である。
図7に示すように、画像処理部24は、主としてデモザイク処理部60、RGB/YC変換部62、及び復元処理部100を有している。尚、画像処理部24は、ホワイトバランス補正処理、ガンマ補正処理、輪郭強調処理などを行う処理部も有しているが、これらの処理部についての図示や説明は省略する。
デモザイク処理部60は、デモザイク処理を行う部分である。ここで、デモザイク処理とは、単板式のカラー撮像素子のカラーフィルタ配列に対応したモザイク画像から画素毎に全ての色情報を算出する処理であり、同時化処理ともいう。例えば、RGB3色のカラーフィルタからなる撮像素子の場合、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理である。
デモザイク処理部60には、撮像素子16の撮像により得られたRGBの各色の画像データR1,G1,及びB1が入力されており、デモザイク処理部60は、入力した画像データR1,G1,及びB1をデモザイク処理し、RGBの3面の色データで構成されるRGB画像データR2,G2,及びB2を生成する。
RGB/YC変換部62は、デモザイク処理部60から入力するRGB画像データR2,G2,B2にRGB/YC変換処理を施し、輝度データYと、色差データCb,Crとを生成する。輝度データYは、例えば、式[Y=0.3R+0.6G+0.1B]に従って生成される。ここで、本実施形態では輝度データYとして「Y、Cb、Cr」で表される色空間の輝度信号の値を例に挙げて説明しているが、画像の輝度に寄与するデータであれば特に限定されるものではなく、撮像した画像の輝度に関する情報を有する種々のデータを意味する。例えば、CIELAB色空間における明度を表すデータ、輝度信号を得るための寄与率が最も高いデータや、輝度に最も寄与する色のカラーフィルタに対応するデータなどが挙げられる。
復元処理部100は、ROM47に格納されている第1フィルタ102、及び第2フィルタ104を読み出し、第1フィルタ102及び第2フィルタ104を使用して輝度データYに対して復元処理を行う。この復元処理は、演算処理の負荷を減らすために視覚的な効果が大きくなる輝度データYに対してのみ行う。復元処理を行うことにより、図8に示すように画像のボケが修正される。
図8(A)に示すように、撮影レンズ12を透過した点像(光学像)は大きな点像(ボケた画像)として撮像素子16の撮像面に結像されるが、復元処理により、図8(B)に示すような小さな点像、すなわち高解像度の画像に復元される。
[復元処理]
<第1の実施形態>
次に、撮像装置10内の復元処理装置の第1の実施形態について説明する。
図9は、復元処理装置の第1の実施形態を示す要部ブロック図であり、主として図7に示した復元処理部100と、第1フィルタ取得部130と、第2フィルタ取得部140と、合焦判別部150とから構成されている。
復元処理部100は、更に第1復元処理部110と、第2復元処理部120と、選択部122とを備えている。
第1復元処理部110は、RGB/YC変換部62(図7)から加えられる輝度データYを復元処理する部分であり、他の入力には、第1フィルタ取得部130から第1フィルタ102が加えられている。
ここで、第1フィルタ102は、例えば、7×7のカーネルサイズを有するデコンボリューションカーネル(M=7、N=7のタップ数に対応)と、そのデコンボリューションカーネルに対応する演算係数(復元ゲインデータ、フィルタ係数に対応)とからなり、撮影レンズ12の各撮影条件(絞り値(F値)、画角(像高)、ズーム倍率、被写体距離など)に対応する点拡がり関数(PSF、OTF、MTF、PTF等)に基づいて生成された復元フィルタ(最適化フィルタ)である。具体的には、撮影レンズ12の各RGBのPSF(x,y)PSF(x,y)、及びPSF(x,y)を、適宜の重み付け係数を使用して混合し、輝度データYに対するPSF(x,y)を作成し、このPSF(x,y)使用して輝度データYを復元処理するための復元フィルタを生成する。ここで、(x,y)は、撮像素子16の画面内位置を示す。尚、デコンボリューションカーネルのカーネルサイズは、7×7のものに限定されず、種々のサイズのものが適用できる。
一般に、PSFによるボケの復元には、コンボリュージョン型のWienerフィルタを利用することができる。PSF(x,y)をフーリエ変換したOTFとSN比の情報を参照して、以下の式によって復元フィルタの周波数特性d(ω,ω)を算出することができる。
Figure 2015015935
ここでH(ω,ω)はOTFを表し、H(ω,ω)はその複素共役を表す。また、SNR(ω,ω)はSN比を表す。
復元フィルタのフィルタ係数の設計は、フィルタの周波数特性が、所望のWiener周波数特性に最も近くなるように係数値を選択する最適化問題であり、任意の公知の手法によってフィルタ係数が適宜算出される。
本例では、上記のようにして作成した復元フィルタを、第1フィルタ102としてROM47に記憶させている。
尚、PSFは、絞り値(F値)、画角(像高)、ズーム倍率、被写体距離、レンズの種類等により変化するため、多数の第1フィルタ102が用意されている。本実施形態では、少なくとも、複数の被写体距離に対応するPSFに基づいて生成された複数の復元フィルタ(最適化フィルタ)を含む第1フィルタ102がROM47に記憶されている。
第1フィルタ取得部130は、復元処理しようとする輝度データYの画面内位置(像高)、撮像条件(F値、絞り値等)に対応する第1フィルタ102をROM47から読み出し、読み出した第1フィルタ102を第1復元処理部110に出力する。
第1復元処理部110は、復元処理対象の輝度データYを含む7×7のカーネルサイズの輝度データと第1フィルタ取得部130から入力する第1フィルタ102との畳み込み演算を行い、その演算結果である復元処理された輝度データYを選択部122のA入力に出力する。
一方、第2復元処理部120は、RGB/YC変換部62から加えられる輝度データYを復元処理する部分であり、他の入力には、第2フィルタ取得部140から第2フィルタ104が加えられている。
ここで、第2フィルタ104は、例えば、7×7のカーネルサイズを有する中庸的なフィルタであり、加えて、点像復元という観点での効果が低い、すなわちアーティファクトを発生させにくいフィルタであり、以下のうちいずれかの特徴を持つフィルタを使用することができる。
(1) 中庸的な輪郭強調を行う輪郭強調フィルタ
(2) 復元後の変調伝達関数(MTF)が1.0を超えない復元フィルタ(輝度データYに対する第1フィルタ102の場合、RGBの色によっては、復元後のMTFが1.0を超えるものがある)
(3) ゼロ位相フィルタ(周波数依存の像の移動を含まないフィルタ、及び位相復元を行わない復元フィルタを含む)
(4) 光学系の収差が最も少ない領域のPSFに対応して生成された復元フィルタ
(5) 滑らかな周波数特性であり、大きなフィルタ係数はカーネルの中心付近に集中しており、リンギングを起こしにくいフィルタ
(6) カーネルの中央が1で中央以外が0のフィルタ(入力データをそのまま出力するフィルタ)
(7)第1フィルタに比べて復元強度が低いフィルタ
尚、第2フィルタ104は、上記に列挙したものに限らず、要はアーティファクトを発生させにくいものであれば、如何なるものでもよい。また、(7)第1フィルタに比べて復元強度が低いフィルタとしては、復元強度が0のフィルタ、すなわち復元処理を行わないよう制御する場合も含まれる。
また、上記のような特性を有する第2フィルタ104は、撮影光学系の各撮影条件(絞り値(F値)、画角(像高)、ズーム倍率、被写体距離など)によらず、複数の撮影条件に対して共通して使用するフィルタ(共通化フィルタ)としても良い。特に、被写体距離によらずに、複数の被写体距離に対して共通に使用しても、アーティファクトが所定の評価指標で閾値以下になるようなフィルタ(共通化フィルタ)とすることで、合焦状態にない画像に対して復元処理を行っても、過補正等により画質が破綻することを抑えられる。
第2復元処理部120は、復元処理対象の輝度データYを含む7×7のカーネルサイズの輝度データと第2フィルタ取得部140から入力する第2フィルタ104との畳み込み演算を行い、その演算結果である輝度データYを選択部122のB入力に出力する。
選択部122は、合焦判別部150から出力される選択指令信号に基づいて、A入力及びB入力に加えられる輝度データY、Yのうち、いずれか一方を選択して出力する。
合焦判別部150は、AF処理部42からデフォーカス量を入力しており、デフォーカス量が焦点深度の範囲内か否かに基づいて、現在撮像している画像(処理対象の画像)が、目標の合焦状態にあるか否かを判別する。そして、合焦判別部150は、現在撮像している画像が、目標の合焦状態にあると判別すると、選択部122にA入力の輝度データYを選択させる選択指令信号を出力し、目標の合焦状態にないと判別すると、選択部122にB入力の輝度データYを選択させる選択指令信号を出力する。
即ち、復元処理装置の第1の実施形態は、動画撮影モード時に連続して撮像される画像のうち、目標の合焦状態にある画像に対しては、第1フィルタ102により復元処理した画像(輝度データY)を出力し、合焦状態にない画像に対しては、第2フィルタ104により復元処理した画像(輝度データY)を出力する。
これにより、目標の合焦状態にある画像に対しては、第1フィルタを使用して復元処理を行うため、撮影レンズ12のPSFに対応して劣化した画像を、解像度の高い画像に復元することができ、一方、目標の合焦状態にない画像に対しては、復元強度が弱い第2フィルタを使用して復元処理を行うため、過補正等により画質が破綻することがない。
図10は、上記第1の実施形態に対応する画像処理方法を示すフローチャートであり、特に動画撮像時の復元処理に関して示している。
図10に示すように動画撮影モードにおいて、CPU40は、撮影レンズ12、絞り14、及び撮像素子16(撮像部)を駆動して動画の撮像を行わせ、動画の1フレーム(1コマ分の画像)を取得する(ステップS10、画像取得工程)。AF処理部42は、取得した画像中の位相画素に基づいてデフォーカス量Δdを算出する(ステップS12)。
合焦判別部150は、算出されたデフォーカス量Δdが、焦点深度の範囲内か否か(合焦状態か否か)を判別する(ステップS14、合焦判別工程)。ステップS14において、合焦状態であると判別されると(「Yes」の場合)、ステップS16に遷移する。ステップS16では、第1フィルタ取得部130が第1フィルタ102を取得し(第1フィルタ取得工程)、第1復元処理部110が第1フィルタ102を使用して、取得した画像の復元処理を行う(復元処理工程)。
一方、ステップS14において、合焦状態にないと判別されると(「No」の場合)、ステップS18に遷移する。ステップS18では、第2フィルタ取得部140が第2フィルタ104を取得し(第2フィルタ取得工程)、第2復元処理部120が第2フィルタ104を使用して、取得した画像の復元処理を行う(復元処理工程)。また、合焦状態にないと判別されているため、ステップS18の処理と並行して、デフォーカス量Δdが焦点深度の範囲内に入るようにAF制御を行う(ステップS20、自動焦点調節工程)。
次に、動画を記録するか否かが判別される(ステップS22)。即ち、動画撮影モード時にシャッタボタン2が「全押し」されると、動画記録が指示され、再度シャッタボタン2が「全押し」されると、動画記録がスタンバイ状態となる。ステップS22において、動画を記録すると判別されると、ステップS24に遷移し、ここで、動画の記録処理が行われる。
続いて、動画撮影が終了したか否かが判別される(ステップS26)。動画撮影の終了判別は、電源/モードスイッチ3により電源がオフにされ、又は再生モードに切り替えられたか否かにより行われる。
動画撮影が終了していないと判別されると、ステップS10に遷移し、次の動画の1フレームを取得し、上記ステップS12〜ステップS26を繰り返す。動画撮影が終了したと判別されると、動画の撮影/記録処理を終了する。
尚、動画記録のスタンバイ状態でも動画の撮像は行われ、上記復元処理された動画は、ライブビュー画像として液晶モニタ30に表示される。
<第2の実施形態>
次に、撮像装置10内の復元処理装置の第2の実施形態について説明する。
図11は、復元処理装置の第2の実施形態を示す要部ブロック図である。尚、図11において、図9に示した第1の実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図11に示す第2の実施形態の復元処理装置は、主として図7に示した復元処理部100の変形例である復元処理部200と、第1フィルタ取得部130、第2フィルタ取得部140と、合焦判別部150と、合焦時間予想部220とから構成されている。
復元処理部200は、更に第1復元処理部110と、第2復元処理部120と、加重平均算出部210とを備えている。
第2の実施形態の復元処理装置は、第2フィルタ104を使用して復元処理した画像と第1フィルタ102を使用して復元処理した画像とを、合焦状態に応じて滑らかに繋ぐ処理を行う。
合焦時間予想部220は、合焦判別部150により現時点の画像(処理対象の画像)が目標の合焦状態にないと判別されると、動作可能となり、AF処理部42から入力するデフォーカス量に基づいて、デフォーカス量が焦点深度の範囲内に入るまでの時間(合焦時間)を予測する。例えば、デフォーカス量Δdと、そのデフォーカス量Δdのときにデフォーカス量が焦点深度の範囲内に入るまでの合焦時間ΔTとの関係を、予め測定してテーブルに記憶させておき、AF処理部42から入力するデフォーカス量Δdに基づいて、対応する合焦時間ΔTを読み出すようにしてもよい。
合焦時間予想部220は、予想した合焦時間ΔTに応じた重み係数ω(ΔT)を、加重平均算出部210に出力する。例えば、図12に示すように合焦時間ΔTに対応する、重み係数の関数ω1、ω2、又はω3を有し(0≦ω1、ω2、ω3≦1)、予想した合焦時間ΔTに基づいて重み係数ω(ΔT)を算出し、算出した重み係数ω(ΔT)を加重平均算出部210に出力する。
加重平均算出部210は、第1復元処理部110により算出された輝度データYと、第2復元処理部120により算出された輝度データYと、合焦時間予想部220から入力する重み係数ω(ΔT)とに基づいて加重平均値(輝度データY)を、次式により算出する。
[数2]
=ω(ΔT)×Y+(1−ω(ΔT))×Y
加重平均算出部210は、上記のようにして算出した輝度データYを出力する。尚、合焦判別部150により現時点の画像が目標の合焦状態にあると判別されると、重み係数ω(ΔT)は、1になるため、第1復元処理部110により算出された輝度データYが、
そのまま輝度データYとして出力されることになる。
これにより、目標の合焦状態にある画像に対しては、第1フィルタを使用して復元処理を行うため、撮影レンズ12のPSFに対応して劣化した画像を、解像度の高い画像に復元することができ、一方、ピンぼけ状態から合焦状態になるまでの期間、加重平均時の重み付けを変化させることにより、滑らかに繋がった復元画像を生成することができる。
尚、上記第2の実施形態では、検出したデフォーカス量Δdに基づいて、デフォーカス量Δdが焦点深度の範囲内に入るまでの合焦時間ΔTを予想し、予想した合焦時間ΔTに基づいて重み係数ω(ΔT)を算出するようにしたが、これに限らず、検出したデフォーカス量Δdに基づいて、検出したデフォーカス量Δdに対応する重み係数ω(ΔT)を直接算出するようにしてもよい。即ち、検出したデフォーカス量Δdが小さい程、輝度データYの重み係数ω(ΔT)を大きくする。
図13は、上記第2の実施形態に対応する画像処理方法を示すフローチャートである。尚、図13において、図10に示した第1の実施形態と共通する部分には、同一のステップ番号を付し、その詳細な説明は省略する。
図13において、現時点の画像が合焦状態にない(デフォーカス量Δdが焦点深度の範囲外)と判別されると(ステップS14)、合焦時間予想部220は、デフォーカス量Δdに基づいて合焦時間を予想し(合焦時間予想工程)、予想した合焦時間に対応する重み係数を求める(ステップS30)。
一方、第1復元処理部110及び第2復元処理部120は、現時点の画像(輝度データY)に対して、それぞれ第1フィルタ102及び第2フィルタ104を使用して復元処理し、輝度データY及びYを算出する(ステップS32)。
加重平均算出部210は、ステップS32により算出した輝度データY及びYと、ステップS30により求めた重み係数とに基づいて、復元画像(輝度データY)を、[数2]式により算出する(ステップS34)。
<第2の実施形態の変形例>
図14は、上記第2の実施形態の変形例に対応する画像処理方法を示すフローチャートである。尚、図14において、図13に示した第2の実施形態と共通する部分には、同一のステップ番号を付し、その詳細な説明は省略する。
図14に示す第2の実施形態の変形例は、図13に示したフローチャートと比較して、ステップS40及びステップS42が追加されている点で相違する。
図14において、現時点の画像が合焦状態にない(デフォーカス量Δdが焦点深度の範囲外)と判別されると(ステップS14)、合焦判別部150(図11)は、ステップS12で算出したデフォーカス量Δdの絶対値|Δd|が、閾値Th以下か否かを判別する(ステップS40)。ここで、閾値Thは、例えば、デフォーカス量Δdを精度よく算出することができない程度に、画像がボケている状態のデフォーカス量Δdとすることができる。
そして、デフォーカス量Δdの絶対値|Δd|が、閾値Th以下の場合(「Yes」の場合)には、ステップS30に遷移し、閾値Thを越えている場合(「No」の場合)には、ステップS42に遷移する。尚、ステップS40は、ステップS12において、デフォーカス量Δdが算出することができなかった場合も、ステップS42に遷移させることができる。
ステップS42では、現時点の画像(輝度データY)に対して、第2フィルタ104を使用して復元処理し、輝度データYを算出し、この輝度データYを復元画像(輝度データY)として出力する。
このように、画像のボケが大きい場合には、第1フィルタ102を使用して復元処理した輝度データYを使用せずに、第2フィルタ104を使用して復元処理した輝度データYをそのまま出力する。これにより、ボケが大きい画像に対する過補正を防止するようにしている。
<第3の実施形態>
次に、撮像装置10内の復元処理装置の第3の実施形態について説明する。
図15は、復元処理装置の第3の実施形態を示す要部ブロック図である。尚、図15において、図9に示した第1の実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図15に示す第3の実施形態の復元処理装置は、AF処理部142及び合焦判別部150Aが、第1の実施形態と相違する。
即ち、第1の実施形態のAF処理部42は、位相差AF用のデフォーカス量を算出するものであるが、第3の実施形態のAF処理部142は、コントラストAF用のAF評価値を算出する点で相違する。
AF処理部142は、AF領域の画像(例えば、Gの画像データ)からハイパスフィルタ(HPF)を介して高周波成分を抽出し、この高周波成分の絶対値を積算した値(AF評価値C)を算出する。
CPU40は、AF処理部142により算出されたAF評価値に基づいて、そのAF評価値Cがピーク値(コントラストが最大)になるレンズ位置にレンズ駆動部36を介して撮影レンズ12を移動させる。
動画の撮像中のコントラストAFは、AF評価値Cが常にピーク値になるようなコンティニアンスAFが行われる。
図16に示すように、撮影レンズ12のレンズ位置を移動させると、AF評価値Cが変化する。動画の撮像中のコントラストAFは、AF評価値Cがピーク位置に維持されるように撮影レンズ12(フォーカスレンズ)を制御する、いわゆる山登り制御が行われる。即ち、動画の各画像のAF評価値Cを逐次算出し、算出したAF評価値Cの変化からAF評価値Cのピーク値の方向を検知する。そして、フォーカスレンズを移動させながら取得したAF評価値Cがピーク値を越えると、そのピーク値をとるレンズ位置が合焦位置と判断する。
図15の合焦判別部150Aは、AF処理部142からAF評価値Cを入力しており、AF評価値Cがピーク値になっているか否かに基づいて、現在撮像している画像が、目標の合焦状態にあるか否かを判別する。尚、合焦判別部150Aは、CPU40から現在撮像している画像が、目標の合焦状態にあるか否かを示す情報を取得するようにしてもよい。
そして、合焦判別部150Aは、現在撮像している画像が、目標の合焦状態にあると判別すると、選択部122にA入力の輝度データYを選択させる選択指令信号を出力し、目標の合焦状態にないと判別すると、選択部122にB入力の輝度データYを選択させる選択指令信号を出力する。
このように第3の実施形態によれば、動画撮影モード時に連続して撮像される画像のうち、目標の合焦状態にある画像に対しては、第1フィルタ102により復元処理した画像(輝度データY)を出力し、合焦状態にない画像に対しては、第2フィルタ104により復元処理した画像(輝度データY)を出力することができる。
図17は、上記第3の実施形態に対応する画像処理方法を示すフローチャートである。尚、図17において、図10に示した第1の実施形態と共通する部分には、同一のステップ番号を付し、その詳細な説明は省略する。
図17に示す第3の実施形態に対応する画像処理方法は、図10に示した第1の実施形態のステップS12及びステップS14の代わりに、ステップS50及びステップS52の処理が行われる点で相違する。
ステップS50において、AF処理部142は、ステップS10で取得した動画の1フレーム(1コマ分の画像)内のAF領域の画像から高周波成分を抽出し、この高周波成分の絶対値を積算したAF評価値Cを算出する。
続いて、ステップS52において、合焦判別部150Aは、逐次算出されるAF評価値Cに基づいて、現在のAF評価値Cがピーク値になっているか否かに基づいて、現在撮像している画像が目標の合焦状態にあるか否かを判別する。
そして、復元対象の現時点の画像が目標の合焦状態にあると判別されると、ステップS16に遷移し、現時点の画像に対して第1フィルタ102を使用した復元処理を行い、目標の合焦状態にないと判別されると、ステップS18に遷移し、現時点の画像に対して第2フィルタ104を使用して復元処理を行う。
<第4の実施形態>
次に、撮像装置10内の復元処理装置の第4の実施形態について説明する。
図18は、復元処理装置の第4の実施形態を示す要部ブロック図である。尚、図18において、図11に示した第2の実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図18に示す第4の実施形態の復元処理装置は、第2の実施形態のAF処理部42、合焦判別部150、及び合焦時間予想部220の代わりに、AF処理部142、合焦判別部150B、及び合焦時間予想部220Bを有する点で相違する。
AF処理部142は、図15の第3の実施形態と同様に、動画の各画像のAF領域の画像から高周波成分を抽出し、コントラストAF用のAF評価値Cを算出し、算出したAF評価値Cをそれぞれ合焦判別部150B及び合焦時間予想部220Bに出力する。
合焦判別部150Bは、AF処理部142から入力するAF評価値Cに基づいて、AF評価値Cがピーク値になっているか否か(現在撮像している画像が合焦しているか否か)を判別し、その判別結果を合焦時間予想部220Bに出力する。
合焦時間予想部220Bは、合焦判別部150Bにより現時点の画像が目標の合焦状態にないと判別されると、動作可能となり、AF処理部142から逐次入力するAF評価値Cに基づいて、AF評価値Cが目標の合焦状態に対応して設定された第1の閾値Th1に達するまでの時間(合焦時間)を予測する。
例えば、図19に示すように、前回、AF評価値Cを算出した時刻をt0とし、今回、AF評価値Cを算出した時刻をtとし、これらの時刻t0、tの時間間隔ΔtにおけるAF評価値Cの変化量を算出する。そして、時間間隔ΔtにおけるAF評価値Cの変化量から、目標の合焦状態に対応して設定されたAF評価値の第1の閾値Th1に達するまでの時間ΔT(=t1−t)を予想する。
ここで、第1の閾値Th1は、例えば、平均的な被写体の合焦時のAF評価値を採用することができる。尚、合焦時のAF評価値は、被写体のコントラストの多少、撮影条件等により変化するため、現在の撮影シーン(シーン選択手段により選択された人物モード、風景モード等)や、撮影条件(被写体輝度、ズーム倍率等)に応じて第1の閾値Th1を設定することが好ましい。
合焦時間予想部220Bは、上記時間間隔ΔtにおけるAF評価値Cの変化量に基づいて、目標の合焦状態に対応して設定された第1の閾値Th1に達するまでの合焦時間ΔTを予想し、予想した合焦時間ΔTに応じた重み係数ω(ΔT)を、加重平均算出部210に出力する。
加重平均算出部210は、第1復元処理部110により算出された輝度データYと、第2復元処理部120により算出された輝度データYと、合焦時間予想部220Bから入力する重み係数ω(ΔT)とに基づいて、前述した[数2]式に基づいて加重平均値(輝度データY)を算出し、算出した輝度データYを出力する。
これにより、目標の合焦状態にある画像に対しては、第1フィルタを使用して復元処理を行うため、撮影レンズ12のPSFに対応して劣化した画像を、解像度の高い画像に復元することができ、一方、ピンぼけ状態から合焦状態になるまでの期間、加重平均時の重み付けを変化させることにより、滑らかに繋がった復元画像を生成することができる。
尚、AF評価値Cが第1の閾値Th1に到達する前にピーク値に達した場合には、合焦判別部150Bの判別結果が優先され、第1復元処理部110により算出された輝度データYが輝度データYとして出力され、また、AF評価値Cが第1の閾値Th1を越える場合も輝度データYが輝度データYとして出力される。
図20は、上記第4の実施形態に対応する画像処理方法を示すフローチャートである。尚、図20において、図17に示した第3の実施形態と共通する部分には、同一のステップ番号を付し、その詳細な説明は省略する。
図20に示す第4の実施形態に対応する画像処理方法は、図17に示したステップS18の代わりに、ステップS60、ステップS62及びステップS64の処理が行われる点で相違する。
ステップS52において、現時点の画像が合焦状態にない(AF評価値Cがピーク値でない)と判別されると、合焦時間予想部220Bは、AF評価値Cの変化量及び第1の閾値Th1に基づいて合焦時間を予想し、予想した合焦時間に対応する重み係数を求める(ステップS60)。
一方、第1復元処理部110及び第2復元処理部120は、現時点の画像(輝度データY)に対して、それぞれ第1フィルタ102及び第2フィルタ104を使用して復元処理し、輝度データY及びYを算出する(ステップS62)。
加重平均算出部210は、ステップS62により算出した輝度データY及びYと、ステップS60により求めた重み係数とに基づいて、復元画像(輝度データY)を、[数2]式により算出する(ステップS64)。
図21は、上記第4の実施形態の変形例に対応する画像処理方法を示すフローチャートである。尚、図21において、図20に示した第4の実施形態と共通する部分には、同一のステップ番号を付し、その詳細な説明は省略する。
図21に示す第4の実施形態の変形例は、図20に示したフローチャートと比較して、ステップS70及びステップS72が追加されている点で相違する。
図21において、現時点の画像が合焦状態にない(AF評価値Cがピーク値でない)と判別されると(ステップS52)、合焦判別部150B(図18)は、ステップS50で算出したAF評価値Cが、第2の閾値Th2以上か否かを判別する(ステップS70)。ここで、第2の閾値Th2は、例えば、図22に示すようにAF評価値Cが十分に低い値、例えば、画像が大きくボケている状態のAF評価値Cとすることができる。
そして、AF評価値Cが、第2の閾値Th2以上の場合(「Yes」の場合)には、ステップS60に遷移し、第2の閾値Th2未満の場合(「No」の場合)には、ステップS72に遷移する。
ステップS72では、現時点の画像(輝度データY)に対して、第2フィルタ104を使用して復元処理し、輝度データYを算出し、この輝度データYを復元画像(輝度データY)として出力する。
このように、画像のボケが大きい場合には、第1フィルタ102を使用して復元処理した輝度データYを使用せずに、第2フィルタ104を使用して復元処理した輝度データYをそのまま出力する。これにより、ボケが大きい画像に対する過補正を防止するようにしている。
<第5の実施形態>
次に、撮像装置10内の復元処理装置の第5の実施形態について説明する。
図23は、復元処理装置の第5の実施形態を示す要部ブロック図である。尚、図23において、図11に示した第2の実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図23に示す第5の実施形態の復元処理装置は、主として図7に示した復元処理部100の変形例である復元処理部300と、第1フィルタ取得部130、第2フィルタ取得部140と、合焦判別部150Cと、合焦時間予想部220Cとから構成されている。
復元処理部300は、更に第1復元処理部110と、第2復元処理部120と、第3復元処理部310と、第3フィルタ算出部320と、選択部330とを備えている。
第5の実施形態は、第2の実施形態と比較すると、主として第1フィルタ102と第2フィルタ104とを使用して新たな第3フィルタを算出し、この算出した第3フィルタを使用して第3の復元処理を行う点で相違する。
図23において、合焦時間予想部220Cは、合焦判別部150Cにより現時点の画像が目標の合焦状態にないと判別されると、動作可能となり、AF処理部42から入力するデフォーカス量に基づいて、デフォーカス量が焦点深度の範囲内に入るまでの合焦時刻を予測する。そして、現在の時刻と予測した合焦時刻とに基づいて、重み係数を算出する。
ここで、第3フィルタを算出したときの前回の時刻をt0、現在の時刻をt(t>t0)、
予測した合焦時刻をt1とし、次式に示す変数r(0≦r≦1)を算出する。
[数3]
r=(t−t0)/(t1−t0)
そして、任意の単調増加関数(例えば、図24に示すW1,W2、又はW3)と、変数rとにより重み係数W(r)を算出する。尚、図24に示すように重み係数W(r)は、W(0)=0、W(1)=1である。
合焦時間予想部220Cは、予想した合焦時刻t1等に基づいて上記のように重み係数W(r)を算出し、この重み係数W(r)を第3フィルタ算出部320に出力する。
第3フィルタ算出部320には、第1フィルタ取得部130及び第2フィルタ取得部140からそれぞれ第1フィルタ102及び第2フィルタ104が加えられており、第3フィルタ算出部320は、これらの第1フィルタ102、第2フィルタ104及び重み係数W(r)に基づいて、次式により第3フィルタX(t)を算出する。
[数4]
X(t)=(1−W(r))×X(t0)+W(r)×F
[数4]式において、X(t0)は、前回の時刻t0における第3フィルタであり、第2フィルタ取得部140から取得した第2フィルタ104をAとすると、最初の時刻の第3フィルタX(0)は、Aである(X(0)=A)。また、Fは、第1フィルタ取得部130により取得した、予想した合焦時刻t1における光学系の撮影条件に対応する第1フィルタである。
上記[数3]式及び[数4]式からも明らかなように、変数r、重み係数W(r)は、A
F制御の時間経過に伴って徐々に1に近づき、その結果、第3フィルタX(t)は、第2フィルタ104から第1フィルタ102に徐々に近づく。
第3復元処理部310は、RGB/YC変換部62から加えられる輝度データYを復元処理する部分であり、他の入力には、上記のように第3フィルタ算出部320により算出された第3フィルタX(t)が加えられている。そして、第3復元処理部310は、復元処理対象の輝度データYを含む7×7のカーネルサイズの輝度データと第3フィルタ算出部320から入力する第3フィルタX(t)との畳み込み演算を行い、その演算結果である輝度データYを選択部330のC入力に出力する。
選択部330は、合焦判別部150Cから出力される選択指令信号に基づいて、A入力、B入力及びC入力に加えられる輝度データY、Y、Yのうち、いずれか1つを選択して出力する。
合焦判別部150Cは、AF処理部42からデフォーカス量Δdを入力しており、デフォーカス量Δdが焦点深度の範囲内か否か、及びデフォーカス量Δdの絶対値が閾値Thを越えているか否かを判別する。そして、合焦判別部150Cは、現在撮像している画像が、目標の合焦状態にあると判別すると、選択部330にA入力の輝度データYを選択させる選択指令信号を出力し、デフォーカス量Δdの絶対値が閾値Thを越えていると判別すると、選択部330にB入力の輝度データYを選択させる選択指令信号を出力し、その他の場合には、選択部330にC入力の輝度データYを選択させる選択指令信号を出力する。
即ち、復元処理装置の第5の実施形態は、動画撮影モード時に連続して撮像される画像のうち、目標の合焦状態にある画像に対しては、第1フィルタ102により復元処理した画像(輝度データY)を出力し、大幅にボケている画像に対しては、第2フィルタ104により復元処理した画像(輝度データY)を出力し、その他の場合には、第2フィルタ104と第1フィルタ102とから生成した第3フィルタにより復元処理した画像(輝度データY)を出力する。
これにより、目標の合焦状態にある画像に対しては、第1フィルタを使用して復元処理を行うため、撮影レンズ12のPSFに対応して劣化した画像を、解像度の高い画像に復元することができ、一方、大幅にボケている画像に対しては、復元強度が弱い第2フィルタを使用して復元処理を行うため、過補正等により画質が破綻することがない。更に、合焦状態に応じて、解像度の高い画像に滑らかに繋ぐ復元処理を行うことができる。
尚、第3フィルタ算出部320は、画像毎に第3フィルタを算出する場合に限らず、複数の画像が取得される毎に第3フィルタを算出するようにしてもよい。この場合、第3復元処理部310は、第3フィルタ算出部320により次の第3フィルタが算出されるまでの間、前回算出された同じ第3フィルタを複数の画像の復元処理に使用する。
また、[数4]式に示した重み係数W(r)は、[数3]式に示したように予測した合焦時刻t1等に対応する変数rの関数としたが、これに限らず、検出したデフォーカス量Δdに対応する関数としてもよい。即ち、検出したデフォーカス量Δが小さい程、重み係数W(r)をを大きくする。
図25は、上記第5の実施形態に対応する画像処理方法を示すフローチャートである。尚、図25において、図14に示した第2の実施形態の変形例と共通する部分には、同一のステップ番号を付し、その詳細な説明は省略する。
図25において、合焦判別部150C(図23)により、ステップS12で算出したデフォーカス量Δdに基づいて、現在の画像の合焦状態が目標の合焦状態でなく、かつデフォーカス量Δdの絶対値|Δd|が、閾値Th以下であると判別されると(ステップS14、S40)、ステップS80に遷移する。
ステップS80では、合焦時間予想部220Cにより合焦時刻t1を予想する。続いて、第3フィルタ算出部320により第3フィルタを算出する(ステップS90)。
図26に、ステップS90における処理内容を示す。
まず、前回使用した、前回の時刻t0における第3フィルタX(t)をX(t0)とする(ステップS92)。尚、最初に使用した第3フィルタX(0)は、第2フィルタ104である。
次に、ステップS90で予想した合焦時刻t1、現在の時刻t等に基づいて重み係数W(r)を算出する(ステップS94)。この重み係数W(r)は、図24に示したように、0≦W(r)≦1の範囲の重み係数であり、現在の時刻tが予想した合焦時刻t1に近づくにしたがって、1に近づく重み係数である。
次に、ステップS92で設定した第3フィルタX(t0)、ステップS94で算出した重み係数W(r)、及び第1フィルタFに基づいて、今回使用する第3フィルタX(t)を、前述した[数4]式により算出する(ステップS96)。尚、使用する第1フィルタFは、予想した合焦時刻t1の撮影条件に対応する第1フィルタを使用することが好ましい。
第3フィルタX(t)の算出が終了すると、第3復元処理部310は、現時点の画像(輝度データY)に対して、第3フィルタX(t)に基づく復元処理を行い、復元処理した画像
(輝度データY)を出力する(図25、ステップS100)。
<第6の実施形態>
次に、撮像装置10内の復元処理装置の第6の実施形態について説明する。
図27は、復元処理装置の第6の実施形態を示す要部ブロック図である。尚、図27において、図15に示した第3の実施形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図27に示す第6の実施形態の復元処理装置は、静止画撮影モード時におけるライブビュー画像の表示中の処理を行う点で、第3の実施形態と相違する。
静止画撮影モード時におけるライブビュー画像の撮像時には、通常、AF動作は停止している。尚、ライブビュー画像の撮像中もコンティニアンスAFを行うカメラもあるが、第6の実施形態は、ライブビュー画像の撮像時にAF動作が停止しているものとする。
静止画撮影モード時におけるライブビュー画像の撮像時において、CPU40は、シャッタボタン2(撮影準備指示部)が、「半押し」(S1 ON)されると、コントラストAFを開始する。
次に、静止画撮影モード時のコントラストAFについて、図28を参照して説明する。
図28に示すようにCPU40は、シャッタボタン2が、「半押し」されると、フォーカスレンズを無限側(INF)から至近端まで移動(AFサーチ)させるレンズ移動指令を出力する。
CPU40は、AF処理部142からAFサーチ中の一定の画像毎に算出されたAF評価値を取得し、各AF評価値とレンズ位置とに基づいて、AF評価値がピーク値となるレンズ位置(合焦位置)を算出する。そして、CPU40は、算出した合焦位置にフォーカスレンズを移動させるレンズ位置指令を出力し、フォーカスレンズを合焦位置に移動させる。
上記のようにしてAF制御が終了すると、シャッタボタン2が「半押し」されている限り、フォーカスレンズは合焦位置に停止させられる。
CPU40内のAF終了判別部40Aは、上記のようにしてAF制御が終了し、フォーカスレンズが合焦位置に保持されているか否かを判別し、その判別結果を選択部122に出力する。即ち、AF終了判別部40Aは、AF制御が終了していない場合には、選択部122にB入力の輝度データYを選択させる選択指令信号を出力し、AF制御が終了し、フォーカスレンズが合焦位置に保持されている場合には、選択部122にA入力の輝度データYを選択させる選択指令信号を出力する。
選択部122は、AF終了判別部40Aから出力される選択指令信号に基づいて、A入力及びB入力に加えられる輝度データY、Yのうち、いずれか一方を選択して出力する。
即ち、復元処理装置の第6の実施形態は、静止画撮影モード時に連続して撮像される画像のうち、シャッタボタン2が操作されていない場合には、輝度データYを出力し、シャッタボタン2が「半押し」され、AF制御が終了すると、輝度データYを出力する。
これにより、AF制御が終了している画像に対しては、第1フィルタを使用して復元処理を行うため、撮影レンズ12のPSFに対応して劣化した画像を、解像度の高い画像に復元することができ、一方、AF制御が行われていない画像、又はAF制御が終了していない画像に対しては、復元強度が弱い第2フィルタを使用して復元処理を行うため、過補正等により画質が破綻することがない。
図29は、上記第6の実施形態に対応する画像処理方法を示すフローチャートである。
図29に示すように静止画撮影モードにおいて、CPU40は、撮影レンズ12、絞り14、及び撮像素子16(撮像部)を駆動してライブビュー画像(動画)の撮像を行わせ、動画の1フレーム(1コマ分の画像)を取得する(ステップS102)。
続いて、CPU40は、シャッタボタン2が「半押し」(S1 ON)されたか否かを判別し(ステップS104)、シャッタボタン2が「半押し」されていない場合には、ステップS106に遷移させる。ステップS106では、第2復元処理部120により第2フィルタ104を使用した復元処理が行われる。ここで、復元処理された画像は、液晶モニタ30に出力され、ライブビュー画像として表示される(ステップS114)。
一方、シャッタボタン2が「半押し」されると、ステップS108に遷移し、コントラストAFが行われる。続いて、AF終了判別部40AによりコントラストAFが終了したか否かが判別され、終了していない場合にはステップS106に遷移させ、終了した場合には、ステップS112に遷移させる。
ステップS112では、第1復元処理部110により第1フィルタ102を使用した復元処理が行われる。復元処理された画像は、液晶モニタ30に出力され、ライブビュー画像として表示される(ステップS114)。
上記のようにしてライブビュー画像の表示中に、シャッタボタン2が「全押し」(S2
ON)されたか否かが判別される(ステップS116)。シャッタボタン2が「全押し」されていない場合には、ステップS102に遷移し、上記ステップS102からステップS116の処理が繰り返される。一方、シャッタボタン2が「全押し」されると、静止画の取得が行われ(ステップS118)、取得した静止画に対して、第1復元処理部110により第1フィルタ102を使用した復元処理が行われる(ステップS120)。
高解像度に復元処理された静止画は、圧縮処理等が施された後、メモリカード54に記録され(ステップS122)、静止画の撮像動画が終了する。
上記の実施形態の撮像装置10は、動画撮像機能及び静止画撮像機能を有するデジタルカメラであるが、本発明はデジタルビデオカメラにも適用できる。また、本発明を適用可能な態様は、デジタルカメラ、デジタルビデオに限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、その他のコンピュータ機能)を備えるモバイル機器類に対しても適用可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
なお、例えば後述するスマートフォンのような携帯撮像装置など撮像装置の形態によっては、撮影準備指示部や画像の記録指示部は、シャッタボタン2のような「半押し」「全押し」可能な2段ストローク式のスイッチに限られず、撮影準備指示を受ける機能、画像の記録指示を受ける機能を有するものであればよく、別個のボタンを有する形態、別個のタッチ入力操作受付け部を有する形態でもよく、また音声入力や視線入力などで撮影準備指示や画像の記録指示を受けるようにしてもよい。
<スマートフォンの構成>
図30は、撮像装置10の他の実施形態であるスマートフォン500の外観を示す斜視図である。図30に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用することが可能であり、折り畳み構造又はスライド機構を有する構成を採用することもできる。
図31は、図30に示すスマートフォン500の構成を示すブロック図である。図31に示すように、スマートフォンの主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。また、スマートフォン500の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部510は、主制御部501の指示に従って、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
表示入力部520は、主制御部501の制御により、画像(静止画及び動画)や文字情報などを表示して視覚的にユーザに情報を伝達すると共に、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。
表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。
操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置である座標を検出する。
図30に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要はない。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力することが可能であり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図30に示すように、例えば、スピーカ531を表示入力部520が設けられた面と同じ面に搭載することができる。また、マイクロホン532を筐体502の側面に搭載することができる。
操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、操作部540は、スマートフォン500の筐体502の表示部の下部、下側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部550は、主制御部501の制御プログラムや制御データ、本発明に係る第1フィルタ、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。尚、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。
外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的又は間接的に接続するためのものである。
スマートフォン500に連結される外部機器としては、例えば、有線又は無線ヘッドセット、有線又は無線外部充電器、有線又は無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有線又は無線接続されるスマートフォン、有線又は無線接続されるパーソナルコンピュータ、有線又は無線接続されるPDA、有線又は無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。
GPS受信部570は、主制御部501の指示に従って、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できるときには、その位置情報を用いて位置を検出することもできる。
モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示に従って、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
電源部590は、主制御部501の指示に従って、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データに従って動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアに従って主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。
表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラである。このカメラ部541に、前述した撮像装置10を適用することができる。
また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを、例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部550に記録することが可能であり、外部入出力部560や無線通信部510を通じて出力することができる。図30に示すスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合には、撮影に供するカメラ部541を切り替えて単独にて撮影することが可能であり、あるいは、複数のカメラ部541を同時に使用して撮影することもできる。
また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、あるいは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。
[その他]
この実施形態の撮像装置10は、撮影レンズ12の点拡がり関数(PSF)に対応して生成された第1フィルタ102がROM47に格納され、ROM47から適宜の第1フィルタ102を読み出すようにしているが、これに限らず、PSF等を記憶させ、撮像装置内でPSF等から第1フィルタを生成してもよい。
また、この実施形態では、輝度データに対して復元処理を施すようにしたが、これに限らず、RGBの各色の画像データ毎に、各色に対応する第1フィルタ、第2フィルタを使用して復元処理を行うようにしてもよい。
撮影レンズ12は、沈胴式のズームレンズで構成されているが、単焦点レンズでもよく、また、カメラ本体に着脱可能な交換レンズでもよい。交換レンズの場合、交換レンズの復元フィルタ、PSF等を交換レンズとの通信により取得するようにしてもよい。
更に、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
2…シャッタボタン、10…撮像装置、12…撮影レンズ、16…撮像素子、24…画像処理部、30…液晶モニタ、40…CPU、40A…AF終了判別部、42、142…AF処理部、47…ROM、60…デモザイク処理部、62…RGB/YC変換部、100、200、300…復元処理部、110…第1復元処理部、120…第2復元処理部、122、330…選択部、130…第1フィルタ取得部、140…第2フィルタ取得部、150、150A、150B、150C…合焦判別部、210…加重平均算出部、220、220A,220C…合焦時間予想部、310…第3復元処理部、320…第3フィルタ算出部、500…スマートフォン
【0003】
がある。更に,特許文献2に記載の発明は、合焦位置およびその前後の距離において焦点のボケ量が略一定となるように形成された光学系、すなわち光学系に光波面変調素子を含む撮像装置を前提にしており、自動焦点調節機構がなく、本発明が解決しようとする課題がない。
[0012]
本発明はこのような事情に鑑みてなされたもので、劣化した動画の各画像に対して過補正となる復元処理を防止することができ、かつ復元処理により高解像度の画像を取得することができる撮像装置及び画像処理方法を提供することを目的とする。
課題を解決するための手段
[0013]
上記目的を達成するために本発明の一の態様に係る発明は、少なくとも画像を連続して撮像する撮像部と、撮像部により連続して撮像される画像の焦点調節を自動的に行う自動焦点調節部と、撮像部の光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを取得する第1フィルタ取得部と、撮像部により連続して撮像される画像のうちの非合焦の画像に適用される第2フィルタであって、第1フィルタと比較して復元強度が弱いフィルタであって、ゼロ位相フィルタである第2フィルタを取得する第2フィルタ取得部と、撮像部により連続して撮像された画像のうちの処理対象の画像が、自動焦点調節部による焦点調節により目標の合焦状態にあるか否かを判別する合焦判別部と、合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、処理対象の画像に対し、少なくとも第2フィルタ取得部により取得した第2フィルタを使用した復元処理を行い、合焦判別部により処理対象の画像が目標の合焦状態にあると判別されると、処理対象の画像に対し、第1フィルタ取得部により取得した第1フィルタを使用した復元処理を行う復元処理部と、を備えている。
[0014]
本発明の一の態様によれば、連続して撮像される画像のうち、目標の合焦状態にない画像(非合焦の画像)に対しては、非合焦の画像に適用される復元強度が弱い第2フィルタを使用して復元処理を行うため、過補正等により画質が破綻することがなく、一方、目標の合焦状態にある画像に対しては、光学系の点拡がり関数に対応して生成された復元フィルタである第1フィル
【0009】
[0034]
本発明の更に他の態様に係る撮像装置において、第1フィルタ取得部は、合焦時間予想部により予想された合焦時間経過後の光学系の撮影条件に基づいて、撮影条件下の点拡がり関数に対応して生成された第1フィルタを取得することが好ましい。
[0035]
本発明の更に他の態様によれば、第1フィルタとして、予想された合焦時間経過後の光学系の撮影条件に対応する第1フィルタを使用するようにしたため、焦点調節が開始されてから目標の合焦状態に達する直前までの画像を、滑らかに繋がった復元画像にすることができる。
[0036]
本発明の更に他の態様に係る撮像装置において、ユーザの指示入力により撮影準備指示を出力する撮影準備指示部と、撮像部により連続して撮像された画像をライブビュー画像として表示する表示部と、を更に備え、復元処理部は、少なくとも撮影準備指示部から撮影準備指示が出力されるまで、取得した第2フィルタのみを使用して復元処理を行うことが好ましい。
[0037]
通常、撮影準備指示部から撮影準備指示が出力されるまでの期間、自動焦点調節部による焦点調節は行われないため、その間に取得した画像(ライブビュー用の画像)に対しては、第2フィルタのみを使用して復元処理を行うことにより、過補正等により画質が破綻しないようにしている。
[0038]
本発明の更に他の態様に係る撮像装置において、復元処理部は、撮影準備指示部から撮影準備指示が出力され、自動焦点調節部による焦点調節が行われると、取得した第1フィルタを使用して復元処理を行うことが好ましい。即ち、撮影準備指示部から撮影準備指示が出力され、自動焦点調節部による焦点調節が行われ、その結果、目標の合焦状態にある画像が取得されると、その画像に対しては第1フィルタを使用して復元処理を行うことにより、光学系の点拡がり関数に対応して劣化した画像を、解像度の高い画像に復元することができる。
[0039]
本発明のさらに他の態様に係る撮像装置において、第2フィルタは、複数の撮影条件に対して共通して使用されるフィルタであることが好ましい。
【0010】
[0040]
本発明の更に他の態様に係る画像処理方法は、撮像部から画像を連続して取得する画像取得工程と、撮像部により連続して撮像される画像の焦点調節を自動的に行う自動焦点調節工程と、撮像部の光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを取得する第1フィルタ取得工程と、撮像部により連続して撮像される画像のうちの非合焦の画像に適用される第2フィルタであって、第1フィルタと比較して復元強度が弱い第2フィルタを取得する第2フィルタ取得工程と、撮像部により連続して撮像された画像のうちの処理対象の画像が、自動焦点調節工程による焦点調節により目標の合焦状態にあるか否かを判別する合焦判別工程と、合焦判別工程により処理対象の画像が目標の合焦状態にないと判別されると、処理対象の画像に対し、少なくとも第1フィルタ取得工程により取得した第2フィルタを使用した復元処理を行い、合焦判別工程により目標の合焦状態にあると判別されると、処理対象の画像に対し、第2フィルタ取得工程により取得した第1フィルタを使用した復元処理を行う復元処理工程と、を含んでいる。
[0041]
本発明の更に他の態様に係る画像処理方法において、自動焦点調節工程により焦点調節が開始されてから目標の合焦状態に達するまでの合焦時間を予想する合焦時間予想工程を含み、復元処理工程は、合焦判別工程により処理対象の画像が目標の合焦状態にないと判別されると、取得した第1フィルタ、第2フィルタ及び予想した合焦時間に基づいて処理対象の画像を復元処理することが好ましい。
発明の効果
[0042]
本発明によれば、連続して撮像される画像のうち、目標の合焦状態にない画像に対しては、復元強度が弱い第2フィルタを使用して復元処理を行うため、過補正等により画質が破綻することがなく、一方、目標の合焦状態にある画像に対しては、光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを使用して復元処理を行うため、光学系の点拡がり関

Claims (19)

  1. 少なくとも画像を連続して撮像する撮像部と、
    前記撮像部により連続して撮像される画像の焦点調節を自動的に行う自動焦点調節部と、
    前記撮像部の光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを取得する第1フィルタ取得部と、
    前記撮像部により連続して撮像される画像のうちの非合焦の画像に適用される第2フィルタであって、前記第1フィルタと比較して復元強度が弱い第2フィルタを取得する第2フィルタ取得部と、
    前記撮像部により連続して撮像された画像のうちの処理対象の画像が、前記自動焦点調節部による焦点調節により目標の合焦状態にあるか否かを判別する合焦判別部と、
    前記合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、前記処理対象の画像に対し、少なくとも第2フィルタ取得部により取得した第2フィルタを使用した復元処理を行い、前記合焦判別部により処理対象の画像が目標の合焦状態にあると判別されると、前記処理対象の画像に対し、前記第1フィルタ取得部により取得した第1フィルタを使用した復元処理を行う復元処理部と、
    を備えた撮像装置。
  2. 前記復元処理部は、前記合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、前記取得した第1フィルタ及び前記第2フィルタに基づいて前記処理対象の画像を復元処理する請求項1に記載の撮像装置。
  3. 前記自動焦点調節部により焦点調節が開始されてから目標の合焦状態に達するまでの合焦時間を予想する合焦時間予想部を備え、
    前記復元処理部は、前記合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、前記取得した第1フィルタ、前記第2フィルタ及び前記予想した合焦時間に基づいて前記処理対象の画像を復元処理する請求項2に記載の撮像装置。
  4. 前記自動焦点調節部は、前記撮像される画像のデフォーカス量を検出し、検出したデフォーカス量が焦点深度の範囲内に入るまで前記光学系を制御し、
    前記合焦時間予想部は、前記デフォーカス量が検出されてから焦点深度の範囲内に入るまでの合焦時間を予想する請求項3に記載の撮像装置。
  5. 前記合焦時間予想部は、前記自動焦点調節部により検出されたデフォーカス量が閾値以内にあるときのみ前記合焦時間を予想し、
    前記復元処理部は、前記デフォーカス量が閾値を越えている場合には、前記取得した第2フィルタのみを使用して復元処理を行う請求項4に記載の撮像装置。
  6. 前記自動焦点調節部は、前記撮像部により撮像された画像の合焦領域の高周波成分を評価値として算出し、算出した評価値がピーク値になるまで前記光学系を制御し、
    前記合焦時間予想部は、前記自動焦点調節部により算出された評価値の変化に基づいて、前記評価値が前記目標の合焦状態に対応する第1の閾値に達するまでの時間を予想する請求項3に記載の撮像装置。
  7. 前記合焦時間予想部は、前記自動焦点調節部により算出された評価値が、前記第1の閾値よりも低い第2の閾値以上にあるときのみ前記合焦時間を予想し、
    前記復元処理部は、前記自動焦点調節部により算出された評価値が前記第2の閾値未満の場合には、前記取得した第2フィルタのみを使用して復元処理を行う請求項6に記載の撮像装置。
  8. 前記復元処理部は、前記合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、前記取得した第1フィルタ及び第2フィルタに基づいて前記処理対象の画像をそれぞれ復元処理して第1の画像及び第2の画像を生成し、さらに前記合焦時間予想部により予想された合焦時間が短い程、前記第1の画像の重みが大きくなる重み付けを用ることにより前記第1の画像と第2の画像とを加重平均して復元画像を生成する請求項3から7のいずれか1項に記載の撮像装置。
  9. 前記自動焦点調節部は、前記撮像される画像のデフォーカス量を検出し、検出したデフォーカス量が焦点深度の範囲内に入るまで前記光学系を制御し、
    前記復元処理部は、前記合焦判別部により処理対象の画像が目標の合焦状態にないと判別されると、前記取得した第1フィルタ及び第2フィルタに基づいて前記処理対象の画像をそれぞれ復元処理して第1の画像及び第2の画像を生成し、前記検出したデフォーカス量が小さい程、前記第1の画像の重みが大きくなる重み付けを用いて前記第1の画像と第2の画像とを加重平均して復元画像を生成する請求項2から8のいずれか1項に記載の撮像装置。
  10. 前記自動焦点調節部は、前記撮像される画像のデフォーカス量を検出し、検出したデフォーカス量が焦点深度の範囲内に入るまで前記光学系を制御し、
    前記復元処理部は、前記取得した第1フィルタ、前記第2フィルタ及び前記検出したデフォーカス量に基づいて前記撮像部により取得された画像に対する第3フィルタを算出する第3フィルタ算出部であって、前記検出したデフォーカス量が小さくなるにしたがって前記第2フィルタのフィルタ係数から前記第1フィルタのフィルタ係数に順次近づくフィルタ係数を有する前記第3フィルタを算出する第3フィルタ算出部を有し、
    前記撮像部により連続して撮像される画像のうちの前記自動焦点調節部により焦点調節が開始されてから目標の合焦状態に達する直前までの画像に対し、前記第3フィルタ算出部により算出した第3フィルタを使用して復元処理を行い、前記目標の合焦状態に達した画像に対し、前記取得した第1フィルタを使用して復元処理を行う請求項2から9のいずれか1項に記載の撮像装置。
  11. 前記復元処理部は、前記取得した第1フィルタ、前記第2フィルタ及び前記予想した合焦時間に基づいて前記撮像部により取得された処理対象の画像に対する第3フィルタを算出する第3フィルタ算出部であって、前記合焦時間の時間経過にしたがって前記第2フィルタのフィルタ係数から前記第1フィルタのフィルタ係数に順次近づくフィルタ係数を有する前記第2フィルタを算出する第3フィルタ算出部を有し、
    前記撮像部により連続して撮像される画像のうちの前記自動焦点調節部により焦点調節が開始されてから目標の合焦状態に達する直前までの画像に対し、前記第3フィルタ算出部により算出した第3フィルタを使用して復元処理を行い、前記目標の合焦状態に達した画像に対し、前記取得した第1フィルタを使用して復元処理を行う請求項3から7のいずれか1項に記載の撮像装置。
  12. 前記第3フィルタ算出部により前記第3フィルタが算出された前回の時刻をt0、現在の時刻をt、すなわちt>t0が成り立つ場合であって、前回の時刻t0における第3フィルタをX(t0)、現在の時刻tにおける第3フィルタをX(t)、前回の時刻t0に前記合焦時間予想部により予想された合焦時刻をt1、前記第1フィルタ取得部により取得した、合焦時刻t1における光学系の撮影条件に対応する第1フィルタをF、前記第2フィルタ取得部により取得した第2フィルタをA、並びにW(0)=0、W(1)=1、及び0≦r≦1で表現される単調増加関数をW(r)とする場合において、
    前記第3フィルタ算出部は、今回使用する第3フィルタX(t)を、次式、
    X(t)=(1−W(r))×X(t0)+W(r)×F
    但し、r=(t−t0)/(t1−t0)、X(0)=A
    により算出する請求項11に記載の撮像装置。
  13. 前記第3フィルタ算出部は、前記撮像部から複数の画像が取得される毎に前記第3フィルタを算出し、
    前記復元処理部は、前記第3フィルタ算出部により算出した第3フィルタを複数の画像の復元処理に使用する請求項11又は12に記載の撮像装置。
  14. 前記第1フィルタ取得部は、前記合焦時間予想部により予想された合焦時間経過後の前記光学系の撮影条件に基づいて、該撮影条件下の点拡がり関数に対応して生成された第1フィルタを取得する請求項3から8のいずれか1項に記載の撮像装置。
  15. ユーザの指示入力により撮影準備指示を出力する撮影準備指示部と、
    前記撮像部により連続して撮像された画像をライブビュー画像として表示する表示部と、を更に備え、
    前記復元処理部は、少なくとも前記撮影準備指示部から撮影準備指示が出力されるまで、前記取得した第2フィルタのみを使用して復元処理を行う請求項1から14のいずれか1項に記載の撮像装置。
  16. 前記復元処理部は、前記撮影準備指示部から撮影準備指示が出力され、前記自動焦点調節部による焦点調節が行われると、前記取得した第1フィルタを使用して復元処理を行う請求項15に記載の撮像装置。
  17. 前記第2フィルタは、輪郭強調フィルタ、復元後の変調伝達関数(MTF)が1.0を超えない復元フィルタ、ゼロ位相フィルタ、前記光学系の収差が最も少ない領域の点拡がり関数に対応して生成された復元フィルタ、及びカーネルの中央が1で中央以外が0のフィルタのうちの少なくとも1つである請求項1から16のいずれか1項に記載の撮像装置。
  18. 撮像部から画像を連続して取得する画像取得工程と、
    前記撮像部により連続して撮像される画像の焦点調節を自動的に行う自動焦点調節工程と、
    前記撮像部の光学系の点拡がり関数に対応して生成された復元フィルタである第1フィルタを取得する第1フィルタ取得工程と、
    前記撮像部により連続して撮像される画像のうちの非合焦の画像に適用される第2フィルタであって、前記第1フィルタと比較して復元強度が弱い第2フィルタを取得する第2フィルタ取得工程と、
    前記撮像部により連続して撮像された画像のうちの処理対象の画像が、前記自動焦点調節工程による焦点調節により目標の合焦状態にあるか否かを判別する合焦判別工程と、
    前記合焦判別工程により処理対象の画像が目標の合焦状態にないと判別されると、前記処理対象の画像に対し、少なくとも前記第1フィルタ取得工程により取得した第2フィルタを使用した復元処理を行い、前記合焦判別工程により目標の合焦状態にあると判別されると、前記処理対象の画像に対し、前記第2フィルタ取得工程により取得した第1フィルタを使用した復元処理を行う復元処理工程と、
    を含む画像処理方法。
  19. 前記自動焦点調節工程により焦点調節が開始されてから目標の合焦状態に達するまでの合焦時間を予想する合焦時間予想工程を含み、
    前記復元処理工程は、前記合焦判別工程により処理対象の画像が目標の合焦状態にないと判別された場合、前記取得した第1フィルタ、前記第2フィルタ及び前記予想した合焦時間に基づいて前記処理対象の画像を復元処理する請求項18に記載の画像処理方法。
JP2015529450A 2013-07-29 2014-06-18 撮像装置及び画像処理方法 Active JP5903528B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013156948 2013-07-29
JP2013156948 2013-07-29
PCT/JP2014/066136 WO2015015935A1 (ja) 2013-07-29 2014-06-18 撮像装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP5903528B2 JP5903528B2 (ja) 2016-04-13
JPWO2015015935A1 true JPWO2015015935A1 (ja) 2017-03-02

Family

ID=52431477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015529450A Active JP5903528B2 (ja) 2013-07-29 2014-06-18 撮像装置及び画像処理方法

Country Status (4)

Country Link
US (1) US9800774B2 (ja)
JP (1) JP5903528B2 (ja)
CN (1) CN105409198B (ja)
WO (1) WO2015015935A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106165392B (zh) * 2014-03-31 2019-01-22 富士胶片株式会社 图像处理装置、摄影装置以及图像处理方法
CN106134177B (zh) * 2014-03-31 2019-05-28 富士胶片株式会社 图像处理装置、摄影装置、图像处理方法及图像处理程序
WO2016002578A1 (ja) * 2014-07-04 2016-01-07 ソニー株式会社 画像処理装置および方法
CN107431763B (zh) 2015-04-16 2020-02-28 富士胶片株式会社 摄像装置、图像处理装置、图像处理方法及记录介质
JP6578960B2 (ja) * 2016-01-21 2019-09-25 オムロン株式会社 撮像装置、撮像方法、撮像プログラム、およびその撮像プログラムを記録した記録媒体
CN109416458B (zh) * 2016-06-30 2022-01-11 株式会社尼康 相机
WO2019150791A1 (ja) 2018-01-31 2019-08-08 富士フイルム株式会社 音響波装置および音響波装置の制御方法
US10659751B1 (en) 2018-12-14 2020-05-19 Lyft Inc. Multichannel, multi-polarization imaging for improved perception

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6166853A (en) * 1997-01-09 2000-12-26 The University Of Connecticut Method and apparatus for three-dimensional deconvolution of optical microscope images
JP2006238032A (ja) 2005-02-24 2006-09-07 Matsushita Electric Ind Co Ltd 画像復元方法およびその装置
KR20080072086A (ko) * 2005-11-29 2008-08-05 교세라 가부시키가이샤 촬상 장치 및 그 방법
JP4916862B2 (ja) 2005-12-27 2012-04-18 京セラ株式会社 撮像装置およびその方法
KR100808610B1 (ko) * 2006-06-13 2008-02-28 중앙대학교 산학협력단 영상융합 기술을 이용한 다중초점 디지털 영상복원 방법 및장치
JP2009111587A (ja) * 2007-10-29 2009-05-21 Sony Corp 撮像装置
JP5117889B2 (ja) * 2008-03-07 2013-01-16 株式会社リコー 画像処理装置及び画像処理方法
JP2011135563A (ja) * 2009-11-30 2011-07-07 Canon Inc 撮像装置および画像処理方法
JP5546229B2 (ja) * 2009-12-09 2014-07-09 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP5528173B2 (ja) 2010-03-31 2014-06-25 キヤノン株式会社 画像処理装置、撮像装置および画像処理プログラム
JP2012004664A (ja) * 2010-06-14 2012-01-05 Olympus Corp 画像処理装置、検査装置、画像処理方法および画像処理プログラム
JP2012005056A (ja) * 2010-06-21 2012-01-05 Canon Inc 画像処理装置、画像処理方法及びプログラム
JP4931266B2 (ja) * 2010-08-27 2012-05-16 キヤノン株式会社 画像処理方法、画像処理装置および画像処理プログラム
JP5153846B2 (ja) * 2010-09-28 2013-02-27 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及び、プログラム
JP5409589B2 (ja) * 2010-12-17 2014-02-05 キヤノン株式会社 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP5947601B2 (ja) * 2012-04-10 2016-07-06 キヤノン株式会社 焦点検出装置、その制御方法および撮像装置
US9311688B1 (en) * 2012-05-30 2016-04-12 Amazon Technologies, Inc. Rendering pipeline for color electrophoretic displays
CN104854858B (zh) * 2012-09-26 2017-11-07 富士胶片株式会社 图像处理装置、摄像装置、计算机

Also Published As

Publication number Publication date
US9800774B2 (en) 2017-10-24
CN105409198B (zh) 2018-11-09
JP5903528B2 (ja) 2016-04-13
US20160165127A1 (en) 2016-06-09
CN105409198A (zh) 2016-03-16
WO2015015935A1 (ja) 2015-02-05

Similar Documents

Publication Publication Date Title
JP5903528B2 (ja) 撮像装置及び画像処理方法
JP5542249B2 (ja) 撮像素子及びこれを用いた撮像装置及び撮像方法
JP5830186B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US9906732B2 (en) Image processing device, image capture device, image processing method, and program
US20180007292A1 (en) Imaging device, imaging method, and image processing device
JP5851650B2 (ja) 復元フィルタ生成装置及び方法、画像処理装置、撮像装置、復元フィルタ生成プログラム並びに記録媒体
JP5901782B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6086975B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5799178B2 (ja) 撮像装置及び合焦制御方法
JP5753323B2 (ja) 撮像装置及び画像表示方法
US9799105B2 (en) Image processing device, imaging device, image processing method, and program for restoration processing based on a point spread function and a frame after a frame to be processed
JP5926391B2 (ja) 撮像装置及び合焦確認表示方法
WO2014106935A1 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5870231B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
WO2014155813A1 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5897769B2 (ja) 撮像装置、キャリブレーションシステム、及びプログラム
JP5901780B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
WO2019202983A1 (ja) 撮像装置並びに距離計測方法、距離計測プログラム及び記録媒体

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20160107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160108

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160108

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5903528

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250