JP4524717B2 - 画像処理装置、撮像装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP4524717B2
JP4524717B2 JP2009136175A JP2009136175A JP4524717B2 JP 4524717 B2 JP4524717 B2 JP 4524717B2 JP 2009136175 A JP2009136175 A JP 2009136175A JP 2009136175 A JP2009136175 A JP 2009136175A JP 4524717 B2 JP4524717 B2 JP 4524717B2
Authority
JP
Japan
Prior art keywords
image
reference value
pixel
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009136175A
Other languages
English (en)
Other versions
JP2010020758A (ja
JP2010020758A5 (ja
Inventor
雅也 田丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009136175A priority Critical patent/JP4524717B2/ja
Publication of JP2010020758A publication Critical patent/JP2010020758A/ja
Publication of JP2010020758A5 publication Critical patent/JP2010020758A5/ja
Application granted granted Critical
Publication of JP4524717B2 publication Critical patent/JP4524717B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は画像処理装置、撮像装置、画像処理方法及びプログラムに係り、特にフォーカスブラケット撮影により全焦点画像又はぼけ強調画像を得ることができる画像処理装置、撮像装置、画像処理方法及びプログラムに関する。
レンズのフォーカス位置を変化させながら連続して被写体像を撮影するフォーカスブラケット撮影により取得された複数枚の画像(以下、フォーカスブラケット画像という)を用いて全焦点画像を得る技術として、特許文献1には、フォーカスブラケット画像に対して、微分フィルタを用いて各画素毎にコントラスト判断し(図17のSA〜SA2参照)、所定コントラスト以上の画素が「対」になっている間の領域をコントラストの高い合焦領域とし(図17のSA3〜SE参照)、各画像から合焦領域の画素のみを合成してボケのない合成画像を生成する技術が開示されている。
また、フォーカスブラケット画像を用いて、画像内のどの被写体も合焦している画像(全焦点画像)を得るための全焦点処理や、主要被写体は合焦し、それ以外の被写体は実際の被写界深度以上にぼけた画像(ぼけ強調画像)を得るためのぼけ強調処理を行う方法として、微分フィルタ等により各画像毎及び各画素毎に算出された鮮鋭度を用いてフォーカスブラケット画像のうちのどの画像により合焦しているかを各画素毎に判断し、この結果に基づいて全焦点処理のための合成重み係数算出やぼけ強調処理のためのぼけ量算出を行う方法が用いられている。
特開平6−311411号公報
しかしながら、特許文献1に記載された発明においては、所定コントラスト以上の画素が「対」になっている間の領域を合焦領域としているため、安定性に欠けるという問題がある。すなわち、ノイズが入ること等により本来「対」となる信号が検出される画素以外の画素で信号が検出される等の誤判断が生じると、コントラストの高い領域が合焦領域と判断されないという問題がある。
更に、特許文献1に記載された発明においては、合焦領域と非合焦領域の境目において、画素値の変化が急峻であるため、階調のつながりが不連続となり、不自然な合成画像になってしまうという問題がある。
また、微分フィルタ等により各画像毎及び各画素毎に算出された鮮鋭度を用いてフォーカスブラケット画像のうちのどの画像により合焦しているかを各画素毎に判断し、この結果に基づいて全焦点処理のための合成重み係数算出やぼけ強調処理のためのぼけ量算出を行う方法においては、単純に各画素毎の鮮鋭度から合焦判断結果を得ているため、合焦判断結果が空間的に不連続な値になりやすく、かつ所望の結果が得られない場合が多いという問題がある。
図18は、被写体のあるエッジに注目した場合、フォーカスブラケット画像のうちそのエッジに合焦している画像1及び合焦していない画像2の画素値の変化を示すグラフと、画像1、画像2の各画素に対して[1,−2,1]の微分フィルタを適用し、その絶対値を鮮鋭度として算出した結果と、その画素において鮮鋭度の大きい画像の番号を合焦と判断される画像と判断した結果(距離画像)を示す。
画像1は、エッジの変化点において画素値が急峻に変化するため、鮮鋭度が「8」という高い数値となり、エッジの変化点以外では画素値に変化が無いため、鮮鋭度は「0」となる。それに対し、画像2はエッジの変化点近傍において画素値はなだらかに変化するため、画素の鮮鋭度は「1」となるが、エッジの変化点では画素値の変化率が一定であるため、鮮鋭度は「0」となる。
確かに、エッジ変化点付近(前後1画素)では、画像1の鮮鋭度が画像2の鮮鋭度より大きいため、画像1に合焦していると判断される。しかしながら、その周辺の領域では、実際には画像1にピントがあっていると考えられるが、画像2の鮮鋭度が画像1の鮮鋭度より大きくなっているため、実際とは逆に、画像2にピントが合っていると誤判断が生じやすいことがわかる。これは、画像1では、鮮鋭度の算出される画素が急峻なエッジの変化点部分のみに限定されるのに対し、画像2では、ぼけたエッジが空間的に広がることにより、鮮鋭度の算出される領域が広がってしまうためである。
エッジ変化点の周辺の領域、すなわち画像1、画像2共に画素値が変化しない領域では、共に鮮鋭度の値は「0」と等しくなる。しかしながら、撮像素子等のわずかなノイズにより鮮鋭度が「0」以外となった場合には、鮮鋭度が「0」以外となった画像にピントがあっていると誤判断される恐れがある。すなわち、ノイズの影響により、どちらの画像が合焦と判断されるかが分からない状況となってしまう。
以上のように、各画素の鮮鋭度を判断基準として合焦判断を行う場合には、空間的な処理の不連続さや誤判断を引き起こしてしまうために、全焦点画像やぼけ強調画像は不自然な画像となってしまう可能性が高いという問題がある。
さらに、合焦の判断には、その画素において鮮鋭度の大きい画像の番号しか使用しないため、画像1のエッジ変化点付近(前後1画素)における「8」という大きな鮮鋭度の値を反映することができない。
本発明はこのような事情に鑑みてなされたもので、コントラストの高い領域を安定して合焦領域と判定し、階調のつながりが滑らかな合成画像を得ることができる画像処理装置、撮像装置、距離画像生成方法及びプログラムを提供することを目的とする。
前記目的を達成するために、請求項1に記載の画像処理装置は、レンズの焦点位置を変化させながら連続して撮影された複数枚の画像を取得する画像取得手段と、前記画像取得手段により取得された複数枚の画像の各画素に対して鮮鋭度を算出する鮮鋭度算出手段と、前記鮮鋭度算出手段により算出された複数枚の画像の同一位置の画素のうちの鮮鋭度が最大となる画像が、前記複数枚の画像のいずれの画像に属するかを示す第1の参照値を、前記画像の各画素毎に算出する第1の参照値算出手段と、前記第1の参照値算出手段により算出された前記画像の各画素毎の第1の参照値から第2の参照値を算出する第2の参照値算出手段であって、ある画素の第1の参照値をその周囲の画素の第1の参照値に基づいて空間平滑化して前記第2の参照値を算出する第2の参照値算出手段と、前記画像取得手段により取得された複数枚の画像を前記第2の参照値算出手段により算出された第2の参照値に基づいて画像処理し、画像の全ての部分に焦点の合った全焦点画像を生成する、又は前記画像取得手段により取得された複数枚の画像のいずれか1枚を前記第2の参照値算出手段により算出された第2の参照値に基づいて画像処理し、主要被写体以外の部分をぼかしたぼけ強調画像を生成する画像処理手段と、を備えたことを特徴とする。
請求項1に記載の画像処理装置によれば、レンズの焦点位置を変化させながら複数枚の画像を取得し、取得した複数枚の画像の各画素に対して鮮鋭度を算出する。鮮鋭度が最大となる画像が、複数枚の画像のいずれの画像に属するかを示す第1の参照値を各画素に算出し、算出された第1の参照値をその周囲の画素の第1の参照値に基づいて空間平滑化して第2の参照値を算出し、算出された第2の参照値に基づいて、複数枚の画像のうちの少なくとも1枚を画像処理する。これにより、合焦分布を示す第2の参照値のつながりを滑らかにすることができる、すなわち階調方向の滑らかさや空間方向の滑らかさを得ることができる。また、第2の参照値に基づいて複数枚の画像を画像処理して全焦点画像を生成するか、算出された第2の参照値に基づいて複数枚の画像のいずれか1枚を画像処理してぼけ強調画像を生成する。これにより、自然な全焦点画像又は自然なぼけ強調画像を得ることができる。ここで、「画像の全ての部分に焦点の合った全焦点画像」とは、取得した複数枚の画像のうちの少なくとも1枚において焦点の合っている部分が合成された全焦点画像という意味である。すなわち、取得した複数枚の画像の全てにおいて焦点が合っていない部分について焦点を合わせることが必須なわけではない。言い換えると、画像内のある部分Aが、複数枚の画像全てにおいて焦点が合っていない場合には、全焦点画像の部分Aも焦点があっていないままである。
請求項2に記載の画像処理装置は、請求項1に記載の画像処理装置において、前記第2の参照値算出手段は、前記第1の参照値算出手段により算出された前記画像の各画素毎の第1の参照値を、各画素位置に対応して配置してなるマップを生成するマップ生成手段を含み、前記マップ生成手段により生成されたマップを空間平滑化することにより第2の参照値を算出することを特徴とする。
請求項2に記載の画像処理装置によれば、画像の各画素毎の第1の参照値を各画素位置に対応して配置することによりマップを生成し、生成されたマップを空間平滑化することにより第2の参照値を算出する。これにより、第2の参照値の階調方向の滑らかさや空間方向の滑らかさを得ることができる。
請求項3に記載の画像処理装置は、請求項1に記載の画像処理装置において、前記第1の参照値は、前記鮮鋭度が最大となる画素が前記複数枚の画像のいずれの画像に属するかを示す第1の情報と、前記鮮鋭度の大きさを示す第2の情報とからなることを特徴とすることを特徴とする。
請求項3に記載の画像処理装置によれば、第1の参照値は、鮮鋭度が最大となる画素が複数枚の画像のいずれの画像に属するかを示す第1の情報と、鮮鋭度の大きさを示す第2の情報とで構成される。これにより、鮮鋭度の大きさを反映して合焦の判断をすることができる。
請求項4に記載の画像処理装置は、請求項3に記載の画像処理装置において、前記第1の参照値は、前記第1の情報を偏角とし、前記第2の情報を動径とする2次元ベクトルで表されることを特徴とする。
請求項4に記載の画像処理装置によれば、鮮鋭度が最大となる画素が複数枚の画像のいずれの画像に属するかを示す第1の情報を偏角とし、鮮鋭度の大きさを示す第2の情報を動径とする2次元ベクトルを第1の参照値とする。これにより、鮮鋭度の大きさを反映して合焦の判断をすることができる。
請求項5に記載の画像処理装置は、請求項4に記載の画像処理装置において、前記第2の参照値算出手段は、前記画像の各画素毎の2次元ベクトルで表された第1の参照値をX成分とY成分とに分離し、前記X成分とY成分とをそれぞれ各画素位置に対応して配置してなるX成分及びY成分のマップを生成するマップ生成手段を含み、前記マップ生成手段により生成されたX成分及びY成分のマップをそれぞれ空間平滑化し、これらの空間平滑後のX成分とY成分から偏角を求め、この偏角を前記第2の参照値とすることを特徴とする。
請求項5に記載の画像処理装置によれば、2次元ベクトルで表された第1の参照値をX成分とY成分とに分離し、分離したX成分とY成分とをそれぞれ各画素位置に対応して配置することによりX成分及びY成分のマップを生成する。X成分及びY成分のマップそれぞれを平滑化した空間平滑後のX成分とY成分から2次元ベクトルの偏角を求め、この偏角を第2の参照値とする。これにより、鮮鋭度が最大となる画素が複数枚の画像のいずれの画像に属するかを示す情報のみでなく、鮮鋭度の大きさを加味した空間平滑化を行うことができる。したがって、より正確な合焦分布を求めることができる。
請求項6に記載の画像処理装置は、請求項2又は5に記載の画像処理装置において、前記マップ生成手段は、前記第1の参照値を所定範囲で加重平均し、前記マップよりも少ないサンプル数の低解像度のマップを生成することを特徴とする。
請求項6に記載の画像処理装置によれば、第1の参照値を所定範囲で加重平均することでサンプル数の少ない低解像度のマップを生成し、生成された低解像度のマップを空間平滑化して第2の参照値を算出する。これにより、処理の高速化や省メモリ化を図ることができる。
請求項7に記載の画像処理装置は、請求項1から6のいずれかに記載の画像処理装置において、前記画像処理手段は、前記第2の参照値算出手段により算出された第2の参照値に基づいて、前記複数枚の画像の同一位置の画素毎の加重平均係数を決定する手段と、前記決定された加重平均係数に基づいて前記複数枚の画像の同一位置の画素を加重平均して全焦点画像を生成する手段と、を有することを特徴とする。
請求項7に記載の画像処理装置によれば、第2の参照値に基づいて、複数枚の画像の同一位置の画素毎の加重平均係数を決定し、決定された加重平均係数に基づいて複数枚の画像を加重平均して全焦点画像を生成する。これにより、より正確で滑らかな全焦点画像を生成することができる。
請求項8に記載の画像処理装置は、請求項1から7のいずれかに記載の画像処理装置において、前記画像処理手段は、前記第2の参照値算出手段により算出された第2の参照値に基づいて、前記複数枚の画像のうちの基準画像の各画素毎のぼかしの程度を調整するぼかしフィルタのフィルタ係数を決定する手段と、前記決定されたフィルタ係数をもつぼかしフィルタにより前記基準画像の対応する画素に対してフィルタ処理をすることによりぼけ強調画像を生成する手段と、を有することを特徴とする。
請求項8に記載の画像処理装置によれば、第2の参照値に基づいて、複数枚の画像のうちの基準画像の各画素毎のぼかしの程度を調整するフィルタ係数を決定し、決定されたフィルタ係数をもつぼかしフィルタにより基準画像の対応する画素に対してフィルタ処理をすることにより、ぼけ強調画像を生成する。これにより、主要被写体だけに合焦し、その他の領域は適切なぼかし量でぼかされたぼけ強調画像を得ることができる。
請求項に記載の撮像装置は、請求項1から8のいずれかに記載の画像処理装置と、被写体像を撮像する撮像素子と、前記撮像素子に被写体像を結像させる撮影光学系とで構成された撮像手段と、前記複数枚の画像を前記撮像素子に結像させるように前記撮像手段を制御する制御手段と、を備えたことを特徴とする。
請求項1に記載の画像処理方法は、レンズの焦点位置を変化させながら連続して撮影
された複数枚の画像を取得するステップと、前記取得された複数枚の画像の各画素に対し
て鮮鋭度を算出するステップと、前記算出された複数枚の画像の同一位置の画素のうちの
鮮鋭度が最大となる画素が、前記複数枚の画像のいずれの画像に属するかを示す第1の参
照値を、前記画像の各画素毎に算出するステップと、ある画素の第1の参照値をその周囲
の画素の第1の参照値に基づいて空間平滑化することによって、前記各画素毎の第1の参
照値から前記第2の参照値を算出するステップと、前記第2の参照値に基づいて前記複数
の画像のうち少なくとも1つを処理する画像処理ステップと、を含むことを特徴とする。
請求項1に記載のプログラムは、請求項1に記載の画像処理方法を演算装置に実行させる。
本発明によれば、コントラストの高い領域を安定して合焦領域と判定し、階調のつながりが滑らかな合成画像を得ることができる。
本発明が適用されたデジタルカメラ1の電気的構成を示すブロック図である。 上記デジタルカメラ1の全焦点画像/ぼけ強調画像撮影モードにおける全体の処理の流れを示すフローチャートである。 参照値算出処理(ステップS20)における全体の処理の流れを示すフローチャートである。 鮮鋭度の算出に用いるラプラシアンフィルタの一例である。 各画素毎に算出された第1の参照値を各画素位置に対応して配置することにより、第1の参照値の空間的な分布を示す1画面分のマップの一例である。 空間平滑化に用いる平滑化フィルタの一例である。 空間平滑化後の参照値(第2の参照値)のマップの一例である。 全焦点処理(ステップS22)を行う処理の流れを示すフローチャートである。 ぼけ強調処理(ステップS22)を行う処理の流れを示すフローチャートである。 ぼけ強調処理に用いるガウシアンフィルタの一例である。 第2の参照値のマップを隣接する2×2の4画素で平均化した低解像度のマップの一例である。 本発明が適用された第2の実施の形態のデジタルカメラ2内部の概略構成を示すブロック図である。 上記デジタルカメラ2の全焦点画像/ぼけ強調画像撮影モードにおける全体の処理の流れを示すフローチャートである。 参照値を決定する処理(ステップS26)の流れを示すフローチャートである。 フォーカスブラケット画像が5枚の場合における鮮鋭度ベクトルの単位ベクトルについて示す図である。 鮮鋭度ベクトルの空間平滑化概念を示す図である。 従来の合焦判定領域を求める方法を説明する図である。 従来の合焦判定方法を説明する図である。
以下、添付図面に従って本発明が適用された画像処理装置、撮像装置、画像処理方法及びプログラムを実施するための最良の形態について詳細に説明する。
<第1の実施の形態>
図1は第1の実施の形態のデジタルカメラ1内部の概略構成を示すブロック図である。
同図に示すように、デジタルカメラ1は、主として、CPU110、操作部(シャッターボタン、電源/モードスイッチ、モードダイヤル、ズームボタン、十字ボタン、MENU/OKボタン、DISPボタン、BACKボタン等)112、絞り駆動部114、フォーカスレンズ駆動部116、撮像素子駆動部118、レンズユニット120、光学ローパスフィルタ(LPF)122、撮像素子124、アナログ信号処理部(CDS/AMP)126、A/D変換器128、メモリ制御部130、メインメモリ132、デジタル信号処理部134、圧縮伸張処理部136、積算部138、メモリ制御部140、記録媒体142、表示制御部144、表示部146、発光部150、受光部152、参照値算出部160、参照値平滑化部162、全焦点処理部164、ぼけ強調処理部166で構成される。
CPU110は、操作部112から入力される操作信号に基づき所定の制御プログラムに従ってデジタルカメラ1の全体を統括制御する。
レンズユニット120は、主として、絞り120aと、フォーカスレンズ120bとで構成される。絞り120aは、モータとモータドライバとからなる絞り駆動部114によって駆動される。この絞り駆動部114は、CPU110から出力される絞り値データに基づいて絞り径の調整を行う。フォーカスレンズ120bは、モータとモータドライバとからなるフォーカスレンズ駆動部116によって光軸方向に移動される。フォーカスレンズ駆動部116はCPU110から出力される駆動量データに基づいて各々のレンズの移動を制御する。
撮像素子124は、たとえば、所定の配列構造(ベイヤー、Gストライプなど)で配列された赤(R)、緑(G)、青(B)のカラーフィルタを介して多数のフォトダイオード(受光素子)が二次元的に配置された受光面を有するカラーCCDで構成される。レンズユニット120及び光学LPF122を通過した被写体光は、各フォトダイオードによって受光され、入射光量に応じた量の信号電荷に変換される。
撮像素子駆動部118は、CPU110からの指令に応じて、この撮像素子124を駆動するためのタイミング信号を出力する。
アナログ信号処理部126は、撮像素子124から出力された画像信号に対して、画素ごとのR、G、B信号をサンプリングホールド(相関二重サンプリング処理)するとともに、増幅してA/D変換器128に出力する。
A/D変換器128は、アナログ信号処理部126から出力されたアナログのR、G、B信号をデジタルのR、G、B信号に変換して出力する。
メモリ制御部130は、A/D変換器128から出力されたデジタルのR、G、B信号をメインメモリ132に出力する。メインメモリ132に記憶された撮像信号は、データバス104を介してデジタル信号処理部134に送られる。
デジタル信号処理部134は、同時化回路(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理回路)、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含み、CPU110からの指令に従い、入力された画像信号に所要の信号処理を施して、輝度データ(Yデータ)と色差データ(Cr,Cbデータ)とからなる画像データ(YUVデータ)を生成する。
圧縮伸張処理部136は、CPU110からの指令に従い、入力された画像データに所定形式の圧縮処理を施し、圧縮画像データを生成する。また、CPU110からの指令に従い、入力された圧縮画像データに所定形式の伸張処理を施し、非圧縮の画像データを生成する。圧縮伸張処理部136で生成されたデータは、メモリ制御部130を介してメインメモリ132に記憶される。
積算部138は、CPU110からの指令に従い、AFエリア(たとえば、画面中央部)内の信号を切り出し、AFエリア内の絶対値データを積算する。また、積算部138は、CPU110からの指令に従い、AE制御に必要な物理量として、1画面を複数のエリア(たとえば16×16)に分割し、分割したエリアごとにR、G、Bの画像信号の積算値を算出する。
メモリ制御部140は、CPU110からの指令に従い、メディアスロットに装填された記録媒体142に対してデータの読み/書きを制御する。
表示制御部144は、CPU110からの指令に従い、表示部146への表示を制御する。すなわち、CPU110からの指令に従い、入力された画像信号を表示部146に表示するための映像信号(たとえば、NTSC信号やPAL信号、SCAM信号)に変換して表示部146に出力する。
ストロボ発光部150は、たとえばキセノン管を光源として構成されており、その発光量を調整可能に形成されている。なお、キセノン管の他、高輝度のLEDを光源としたフラッシュを用いることもできる。CPU110は、受光部152での受光量が所定量に達すると、ストロボ発光部150への通電を遮断し、ストロボ発光部150の発光を停止させる。
参照値算出部160は、フォーカスブラケット撮影により撮影された複数枚の画像の同一位置の画素の鮮鋭度のうち、どの画像の鮮鋭度が最大であるかを示す第1の参照値を各画素毎に算出する。また、参照値算出部160は、各画素毎に算出された第1の参照値を各画素位置に対応して配置することにより、第1の参照値の空間的な分布を示すマップを作成する。参照値算出部160については、後に詳述する。
参照値平滑化部162は、参照値算出部160において作成されたマップに対して、平滑化フィルタをかける空間平滑化処理を行うことにより、第2の参照値を算出する。参照値平滑化部162については、後に詳述する。
全焦点処理部164は、参照値平滑化部162により算出された第2の参照値に基づいて、フォーカスブラケット画像から画像内の全ての被写体が合焦している画像(全焦点画像)を生成する全焦点処理を行う。全焦点処理部164については、後に詳述する。
ぼけ強調処理部166は、主要被写体のみが合焦し、その他の被写体は実際の被写界深度以上にぼけた画像(ぼけ強調画像)を生成するぼけ強調処理を行う。ぼけ強調処理部166については、後に詳述する。
以上のように構成された本実施の形態のデジタルカメラ1の作用について説明する。まず、通常の撮影処理について説明する。
電源/モードスイッチを撮影位置に合わせることで、デジタルカメラ1は撮影モードに設定され、撮影が可能になる。そして、撮影モードに設定されることにより、レンズユニット120が繰り出され、撮影スタンバイ状態になる。
この撮影モードの下、レンズユニット120を通過した被写体光は、撮像素子124の受光面に結像され、入射光量に応じた量の信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、撮像素子駆動部118から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出され、アナログ信号処理部(CDS/AMP)126に加えられる。
アナログ信号処理部126から出力されたアナログのR、G、B信号は、A/D変換器128でデジタルのR、G、B信号に変換され、メモリ制御部130に加えられる。メモリ制御部130は、A/D変換器128から出力されたデジタルのR、G、B信号をメモリ132に出力する。
撮影画像を表示部146に出力する場合は、メモリ制御部130からメモリ132に出力された画像信号よりデジタル信号処理部134で輝度/色差信号が生成され、その信号が表示制御部144に送られる。表示制御部144は、入力された輝度/色差信号を表示用の信号形式(たとえばNTSC方式のカラー複合映像信号)に変換し、表示部146に出力する。これにより、撮像素子124で撮像された画像が表示部146に表示される。
撮像素子124から画像信号を定期的に取り込み、その画像信号から生成される輝度/色差信号によってメインメモリ132内の画像データを定期的に書き換え、表示部146に出力することにより、撮像素子124で撮像される画像がリアルタイムに表示される。ユーザは、この表示部146にリアルタイムに表示される画像(スルー画像)を見ることにより、撮影画角を確認することができる。
撮影はシャッターボタンの押下によって行なわれる。シャッターボタンが半押しされると、S1ON信号がCPU110に入力される。
まず、メモリ制御部130を介して撮像素子124から取り込まれた画像信号が積算部138に入力される。CPU110は、積算部138で算出されたAFエリア内の絶対値データに基づいて、フォーカスレンズ駆動部116を制御してフォーカスレンズ120bを移動させながら、複数のAF検出ポイントで焦点評価値(AF評価値)を演算し、評価値が極大となるレンズ位置を合焦位置として決定する。そして、求めた合焦位置にフォーカスレンズ群が移動するように、フォーカスレンズ駆動部116を制御する。
また、CPU110は、積算部138で算出されたR、G、Bの画像信号の積算値に基づいて被写体の明るさ(被写体輝度)を検出し、撮影に適した露出値(撮影EV値)を算出する。そして、求めた撮影EV値と所定のプログラム線図から絞り値とシャッタースピードを決定し、これに従い撮像素子124の電子シャッターと絞り駆動部114を制御して適正な露光量を得る。同時に、CPU110は、検出された被写体輝度より、ストロボの発光が必要かどうかを判断する。
CPU110は、積算部138で算出されたRの積算値、Bの積算値、Gの積算値から分割エリアごとにR/G及びB/Gの比を求め、求めたR/G、B/Gの値のR/G、B/Gの色空間における分布等に基づいて光源種判別を行う。そして、判別された光源種に適したホワイトバランス調整値に従って、たとえば、各比の値がおよそ1(つまり、1画面においてRGBの積算比率がR:G:B≒1:1:1)になるように、ホワイトバランス補正回路のR、G、B信号に対するゲイン値(ホワイトバランス補正値)を制御し、各色チャンネルの信号に補正をかける。
以上のように、シャッターボタンの半押しによって、AE処理、AF処理及びAWB処理が行なわれる。この間、ユーザは、必要に応じてズームボタンを操作し、レンズユニット120をズーミングさせて画角を調整し、CPU110は、AE/AF処理及びAWB処理を継続して行う。
この後、シャッターボタンが全押しされると、CPU110にS2ON信号が入力され、CPU110は、撮影、記録処理を開始する。すなわち、測光結果に基づき決定されたシャッター速度、絞り値で撮像素子124を露光する。この際、必要に応じてCPU110は、ストロボ発光部150を発光させる。
撮像素子124から出力された画像信号は、アナログ信号処理部126、A/D変換器128、メモリ制御部130を介してメモリ132に取り込まれ、デジタル信号処理部134において輝度/色差信号に変換されたのち、メモリ132に格納される。
メモリ132に格納された画像データは、圧縮伸張処理部136に加えられ、所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ132に格納され、所定の画像記録フォーマット(たとえばExif形式)の画像ファイルとされたのち、メモリ制御部140を介して記録媒体142に記録される。
次に、全焦点画像又はぼけ強調画像の撮影処理について説明する。図2は、全焦点画像又はぼけ強調画像を撮影するための全焦点画像/ぼけ強調画像撮影モードにおける全体の処理の流れを示すフローチャートである。全焦点画像/ぼけ強調画像撮影モードは、電源/モードスイッチにより撮影モードに設定された状態において、操作部112のモードダイヤルを操作することにより設定される。
この全焦点画像/ぼけ強調画像撮影モード下で操作部112のシャッターボタンが半押しされることによりCPU110にS1ON信号が入力されると、CPU110は、フォーカスブラケット撮影に先立って、自動焦点制御(AF)を行う(ステップS10)。
すなわち、CPU110は、フォーカスレンズ駆動部116を制御してフォーカスレンズ120bを移動させながら、複数のAF検出ポイントで撮像素子駆動部118を介して撮像素子124で光学像を撮像する。積算部138は、その出力信号に基づいてAF評価値(例えばバンドバスフィルタの出力値)を算出し、CPU110は、AF評価値が極大となるレンズ位置を合焦位置として決定する。
そして、CPU110は、フォーカスブラケット撮影の際に設定される焦点位置を、ステップS10において算出された合焦位置を含むように複数位置設定する(ステップS12)。後に詳述するステップS22において全焦点処理を行う場合には、画像内の全ての被写体について、いずれか1枚の画像において合焦するように焦点位置を設定する。この際、撮影時の絞りや焦点距離等に応じて焦点位置を変化させるとより効果的である。
次に、ステップS12により決定された焦点位置でフォーカスブラケット撮影を行う(ステップS14〜S18)。まず、CPU110は、フォーカスレンズ駆動部116を介して、ステップS12で決定された複数の焦点位置のうちの所望の焦点位置にフォーカスレンズ120bを移動し(ステップS14)、撮像素子駆動部118を介して撮像素子124を制御し、被写体像を撮像する(ステップS16)。ステップS16で撮像された画像は、メモリ制御部130を介して一旦メインメモリ132に蓄積される。
そして、CPU110は、ステップS12で決定された複数の焦点位置全ての位置で撮影が行われたかどうか、すなわちステップS12で決定された複数の焦点位置のうちの全ての焦点位置でステップS14、S16の処理が行われたかどうかを判断する(ステップS18)。
ステップS12で決定された複数の焦点位置のうちの全ての焦点位置でステップS14、S16の処理が行われていない場合(ステップS18でNO)には、異なる焦点位置にフォーカスレンズ120bを移動し(ステップS14)、その焦点位置における被写体像を撮像する(ステップS16)。
ステップS12で決定された複数の焦点位置のうちの全ての焦点位置において、ステップS14、S16の処理が行われた場合(ステップS18でYES)には、CPU110は、フォーカスブラケット撮影を終了する。フォーカスブラケット撮影で得られた画像(以下、フォーカスブラケット画像という)には、フォーカスブラケット画像を焦点位置に基づいて並べた場合に何番目に位置する画像であるかを示す画像番号がつけられる。例えば、焦点位置が最もNEAR(近い)側の画像の画像番号を0(0番目の画像)とし、最もFAR(遠い)側の画像の画像番号はN−1(N−1番目の画像)とする。ここで、Nはフォーカスブラケット撮影で得られた画像の枚数であり、例えばNが5であれば、最もFAR側の画像の画像番号は4となる。
フォーカスブラケット撮影(ステップS14〜S18)が終了したら、CPU110は、フォーカスブラケット画像より参照値を決定する(ステップS20)。図3は、第1の参照値を算出する処理(ステップS20)の流れを示すフローチャートである。
まず、CPU110は、メインメモリ132に蓄積された画像を参照値算出部160に入力し、参照値算出部160は、入力された画像のなかから対象画素を選択する(ステップS30)。例えば、参照値算出部160は、画像の左上を原点とし、横方向をx方向、縦方向をy方向とするxy座標を画像上に設定し、このxy座標を用いて対象画素の位置を指定することにより、対象画素を選択する。
参照値算出部160は、フォーカスブラケット画像のうちi番目の画像(以下、画像iという)を選択する(ステップS32)。フォーカスブラケット画像が5枚の場合には、iは0〜4の値を取る。
ステップS32において選択された画像iについて、ステップS30で選択された対象画素の鮮鋭度を算出する(ステップS34)。鮮鋭度の算出は、図4に示すラプラシアンフィルタなどのフィルタを用いて行われる。ラプラシアンフィルタの出力値は正負の値を持つため、対象画素にラプラシアンフィルタを適用して求められた結果を絶対値化したものを鮮鋭度とする。鮮鋭度が高い場合には、その画素にある被写体は合焦している可能性が高いことを示す。なお、ラプラシアンフィルタはこの例に限定されるものではなく、またラプラシアンフィルタ以外の鮮鋭度算出フィルタを用いてもよい。
参照値算出部160は、入力されたフォーカスブラケット画像全てに対してステップS34に示す鮮鋭度算出処理が行われたかどうかを判断する(ステップS36)。ステップS34に示す鮮鋭度算出処理が入力された全フォーカスブラケット画像に対して行われていない場合(ステップS36でNO)には、参照値算出部160は、フォーカスブラケット画像のうちの異なる画像を選択し(ステップS32)、対象画素の鮮鋭度を算出する(ステップS34)。
ステップS34に示す鮮鋭度算出処理が入力された全フォーカスブラケット画像に対して行われた場合(ステップS36でYES)には、ステップS34で算出された鮮鋭度のうち、鮮鋭度が最大となる画像の画像番号を、その対象画素における第1の参照値として出力する(ステップS38)。例えば、フォーカスブラケット画像の枚数が5枚の場合には、第1の参照値は、通常0〜4の5階調の値を取る。ただし、ここでは後段(ステップS42、S44)との比較の便宜上、0〜4の5階調の値を255/4倍した上で整数化し、0〜255の値となるように規格化した値を第1の参照値とする。ただし、階調数はあくまで(0,64,128,191,255)の5階調である。
参照値算出部160は、以上の処理が全画素に対して実施されたか、すなわち全画素について第1の参照値が出力されたかどうかを判断する(ステップS40)。全画素について第1の参照値が出力されていない場合(ステップS40でNO)には、参照値算出部160は、異なる対象画素を選択し(ステップS30)、その対象画素における第1の参照値を出力する(ステップS32〜S38)。
全画素について第1の参照値が出力された場合(ステップS40でYES)には、その結果として、参照値算出部160は、各画素毎に算出された第1の参照値を各画素位置に対応して配置することにより、第1の参照値の空間的な分布を示す1画面分のマップ(図5参照)を作成する。CPU110は、参照値算出部160で作成されたマップを、メモリ制御部130を介して一旦メインメモリ132に記憶する。そして、CPU110は、メインメモリ132に記憶したマップを参照値平滑化部162に入力し、参照値平滑化部162は、このマップに対して空間平滑化処理を行い、空間的に平滑化されたマップを得る(ステップS42)。
空間平滑化処理は、例えば図6に示すような平滑化フィルタを図5に示すマップにかけることにより行われる。図6は、平滑化フィルタの分子のみを示すものであり、その総和は16であるので、図6に示す平滑化フィルタの係数と図5に示すマップの対応する値との積和を取り、その積和結果を16で除算することにより、図7に示すような空間的に平滑化されたマップが得られる。
図5と図7を比較すると、図7に示す平滑化後の参照値は、図5に示す第1の参照値が階調的に、かつ空間的に平滑化されていることが分かる。すなわち、平滑化により、第2の参照値は、5階調よりも多くの階調を保持することとなる。これにより、参照値の階調方向の滑らかさを得ることができる。また、平滑化によりノイズによる微小な変動も低減されるため、空間方向の滑らかさも得ることができる。
参照値平滑化部162は、この平滑化後の参照値を第2の参照値とし、第2の参照値のマップ、すなわち合焦分布を示す距離画像をCPU110に出力する(ステップS44)。
これにより、フォーカスブラケット画像より参照値を決定する処理(ステップS20)を終了する。CPU110は、参照値算出部160で求められた距離画像を、メモリ制御部130を介して一旦メインメモリ132に記憶する。
次に、メインメモリ132に記憶された第2の参照値に基づいて、全焦点処理部164は全焦点処理を行い、ぼけ強調処理部166はぼけ強調処理を行う(ステップS22)。
図8は、全焦点処理部164が全焦点処理を行う処理の流れを示すフローチャートである。
まず、全焦点処理部164は、所望の画素を選択し(ステップS50)、選択された画素についての加重係数、すなわちどの画像をどの割合で加重平均するかを決定する(ステップS52)。すなわち、全焦点処理部164は、メインメモリ132に記憶されたマップを参照し、ステップS50で選択された画素の第2の参照値を取得し、取得された第2の参照値を4/255倍して元の0〜4の値に戻し、この値を加重係数とする。
そして、ステップS52で決定された加重係数に基づいて、ステップS52で選択された画素について、フォーカスブラケット画像を加重平均する(ステップS54)。例えば、ステップS52で決定された加重係数が1.5である場合には、画像1と画像2とを0.5対0.5の割合で加重平均する。また、ステップS52で決定された加重係数が2.8である場合には、画像2と画像3とを0.2対0.8の割合で加重平均する。
全焦点処理部164は、全ての画素に対してフォーカスブラケット画像の加重平均が行われたかどうかを判断する(ステップS56)。フォーカスブラケット画像の加重平均が全ての画素に対して行われていない場合(ステップS56でNO)には、全焦点処理部164は、別の画素を選択し(ステップS50)、加重係数を決定し(ステップS52)、フォーカスブラケット画像の加重平均を行う(ステップS54)。
フォーカスブラケット画像の加重平均が全ての画素に対して行われた場合(ステップS56でYES)には、全焦点処理を終了する。これにより、画像の全ての部分に焦点の合った全焦点画像が生成される。ここで、「画像の全ての部分に焦点の合った全焦点画像」とは、取得した複数枚の画像のうちの少なくとも1枚において焦点の合っている部分が合成された全焦点画像という意味である。すなわち、取得した複数枚の画像の全てにおいて焦点が合っていない部分について焦点を合わせることが必須なわけではない。言い換えると、画像内のある部分Aが、複数枚の画像全てにおいて焦点が合っていない場合には、全焦点画像の部分Aも焦点があっていないままである。
図9は、ぼけ強調処理部166がぼけ強調処理を行う処理の流れを示すフローチャートである。
まず、ぼけ強調処理部166は、所望の画素を選択し(ステップS60)、選択された画素についてのぼかし用フィルタ係数を決定する(ステップS62)。すなわち、ぼけ強調処理部166は、メインメモリ132に記憶されたマップを参照し、ステップS60で選択された画素の第2の参照値を取得し、取得された第2の参照値を4/255倍して元の0〜4の値に戻す。そして、この第2の参照値を元の0〜4に戻した値と、ステップS16で撮影されたフォーカスブラケット画像のうちのステップS10で決定した合焦位置で撮影された画像(以下、基準画像という)の画像番号との差に応じて、ぼかし用フィルタ係数σを決定する(数式1参照)。
[数1]
σ=|第2の参照値を元の0〜4に戻した値−基準画像の画像番号|
例えば、フォーカスブラケット画像5枚のうち、基準画像の画像番号が2であり、ステップS62で決定されたぼかし用フィルタ係数が1.4である場合には、σ=0.6の特性を持つガウシアンフィルタをぼかし用フィルタの係数とする。基準画像の画像番号が2であり、ステップS62で決定されたぼかし用フィルタ係数が3.5である場合には、σ=1.5の特性を持つガウシアンフィルタをぼかし用フィルタの係数とする。
ガウシアンフィルタは、例えば図10に示すようなフィルタ係数を持つローパスフィルタであり、このフィルタ係数σの値が大きいほどぼけ量が大きいという特性を持つ。なお、フィルタ係数σはこの例に限定されるものではなく、実写でのぼけ量に合うように数式1を用いて算出した値を定数倍して用いてもよい。
そして、ステップS62において算出されたフィルタ係数σの特性を持つガウシアンフィルタを用いて、基準画像のステップS60で選択された画素に対してフィルタ処理を行う(ステップS64)。これにより、第2の参照値に応じて、画像のぼけ方を画素毎に変えることができる。
ぼけ強調処理部166は、全ての画素に対してフィルタ処理が行われたかどうかを判断する(ステップS66)。フィルタ処理が全ての画素に対して行われていない場合(ステップS66でNO)には、ぼけ強調処理部166は、別の画素を選択し(ステップS60)、フィルタ係数σを決定し(ステップS62)、選択された画素に対してフィルタ処理を行う(ステップS64)。
フィルタ処理が全ての画素に対して行われた場合(ステップS66でYES)には、ぼけ強調処理を終了する。これにより、ぼけ強調画像が生成される。
これにより、全焦点処理又はぼけ強調処理を行うステップ(ステップS22)を終了する。CPU110は、ステップS22で生成された全焦点画像及びぼけ強調画像を圧縮伸張処理部136に加え、全焦点画像及びぼけ強調画像は、圧縮伸張処理部136で所定の圧縮フォーマット(たとえばJPEG形式)に従って圧縮された後、メモリ132に格納され、所定の画像記録フォーマット(たとえばExif形式)の画像ファイルとされたのち、メモリ制御部140を介して記録媒体142に記録される(ステップS24)。
本実施の形態によれば、鮮鋭度が最大となる画像の画像番号を平滑化することにより、より正確でよりつながりの滑らかな合焦判定結果が得ることができる。また、平滑化することにより、ノイズの影響を緩和することができる。そのため、この平滑化後の参照値に基づいた合焦判定結果を参照することにより、より自然な全焦点処理やぼけ強調処理を行うことができる。
なお、本実施の形態では、参照値を算出するステップ(ステップS20)において、各画素毎に算出された第1の参照値を各画素位置に対応して配置することにより、第1の参照値の空間的な分布を示す1画面分のマップを作成し、そのマップに対して空間平滑化処理を行った(ステップS42)が、全画素分のマップを作成する必要は無く、最低でも空間平滑化フィルタのタップ数分のマップを保持すればよい。例えば、3×3のフィルタを用いて処理を行う場合には、3×3のメモリがあれば、全画素分のマップを作成することなく、空間平滑化処理を行うことができる。
また、本実施の形態では、参照値を算出するステップ(ステップS20)において、フォーカスブラケット画像と同じ解像度のマップを作成した(ステップS42)が、マップは必ずしも画像と同じ解像度である必要はなく、例えば図11に示すように、隣接する2×2の4画素で平均化した低解像度のマップを用いてもよい。これにより、マップ用のメモリ空間を節約できるだけでなく、空間平滑化処理を高速に行うことができる。ただし、この場合には、全焦点処理、ぼけ強調処理(ステップS22)においては、元の画像の座標に対応する参照値を低解像度マップから参照する必要がある。
また、本実施の形態では、フォーカスブラケット撮影の際の焦点位置の設定(ステップS12)において、ステップS10で算出された合焦位置を含むように複数位置設定するようにしたが、合焦位置を含まないようにフォーカスブラケット撮影の際の焦点位置を設定してもよい。
また、本実施の形態では、全焦点処理、ぼけ強調処理(ステップS22)において全焦点処置及びぼけ強調処理を行ったが、必ずしも両方の処理を行なう必要は無く、全焦点処理又はぼけ強調処理のいずれか一方の処理のみを行なうようにしてもよい。
また、本実施の形態では、ぼけ強調処理(ステップS62、S64)において、合焦位置で撮影された画像を基準画像としたが、ユーザが任意に設定した画像を基準画像としてもよい。
なお、被写体とカメラとが非常に近接している場合には、すべての画像の全ての部分で焦点が合わないことがある。この場合には、完全に合焦していなくても、第2の参照値に基づいて複数枚の画像のうち最も合焦に近い画像を選択し、選択された部分を合成して全焦点画像を生成するようにしても良い。また、第2の参照値に基づいて最も合焦に近くなるようにフォーカスブラケット画像を加重平均して全焦点画像を生成するようにしても良い。
<第2の実施の形態>
第1の実施の形態は、鮮鋭度が最大となる画像番号を第1の参照値とするため、鮮鋭度が最大でさえあれば、その大きさに関わらず同じ結果が得られる。例えば、図18のエッジの変化点において、画像1の鮮鋭度は8であるが、この鮮鋭度が仮に16であっても1であっても、画像2の鮮鋭度と比較した場合には、画像1の鮮鋭度が最大の鮮鋭度であることには変わりがない。
しかしながら、実際の画像では、より強いエッジが存在するほどその画素周辺は合焦している可能性が高い。したがって、より正確な合焦判定を行うためには、鮮鋭度の大きさも加味した上で空間平滑化を行う方が望ましい。
第2の実施の形態は、第1の参照値を鮮鋭度最大の画像番号というスカラー量でなく、これに鮮鋭度を加えた2次元ベクトル(鮮鋭度ベクトル)として表現することにより、鮮鋭度の大きさも加味した上で空間平滑化を行う形態である。以下、第2の実施の形態について説明する。第1の実施の形態と同一の部分については、同一の符号を付し、説明を省略する。
図12は第2の実施の形態のデジタルカメラ2内部の概略構成を示すブロック図である。
同図に示すように、デジタルカメラ1は、主として、CPU110、操作部(シャッターボタン、電源/モードスイッチ、モードダイヤル、ズームボタン、十字ボタン、MENU/OKボタン、DISPボタン、BACKボタン等)112、絞り駆動部114、フォーカスレンズ駆動部116、撮像素子駆動部118、レンズユニット120、光学ローパスフィルタ(LPF)122、撮像素子124、アナログ信号処理部(CDS/AMP)126、A/D変換器128、メモリ制御部130、メインメモリ132、デジタル信号処理部134、圧縮伸張処理部136、積算部138、メモリ制御部140、記録媒体142、表示制御部144、表示部146、発光部150、受光部152、参照値算出部160、参照値平滑化部162、全焦点処理部164、ぼけ強調処理部166、偏角算出部168で構成される。
偏角算出部168は、鮮鋭度ベクトルを極座標で表現したときの偏角を算出する。鮮鋭度ベクトル及び偏角の算出方法については、後に詳述する。
以上のように構成された本実施の形態のデジタルカメラ2の作用について説明する。通常の撮影処理については、第1の実施の形態と同一であるため、全焦点画像又はぼけ強調画像の撮影処理について説明する。図13は、全焦点画像又はぼけ強調画像を撮影するための全焦点画像/ぼけ強調画像撮影モードにおける全体の処理の流れを示すフローチャートである。
全焦点画像/ぼけ強調画像撮影モード下で操作部23のシャッターボタンが半押しされることによりCPU110にS1ON信号が入力されると、CPU110は、フォーカスブラケット撮影に先立って、自動焦点制御(AF)を行い(ステップS10)、フォーカスブラケット撮影の際に設定される焦点位置を、ステップS10において算出された合焦位置を含むように複数位置設定する(ステップS12)。
次に、ステップS12により決定された焦点位置でフォーカスブラケット撮影を行う(ステップS14〜S18)。まず、CPU110は、フォーカスレンズ駆動部116を介して、ステップS12で決定された複数の焦点位置のうちの所望の焦点位置にフォーカスレンズ120bを移動し(ステップS14)、撮像素子駆動部118を介して撮像素子124を制御し、被写体像を撮像する(ステップS16)。ステップS16で撮像された画像は、メモリ制御部130を介して一旦メインメモリ132に蓄積される。
そして、CPU110は、ステップS12で決定された複数の焦点位置全ての位置で撮影が行われたかどうか、すなわちステップS12で決定された複数の焦点位置のうちの全ての焦点位置でステップS14、S16の処理が行われたかどうかを判断する(ステップS18)。
ステップS12で決定された複数の焦点位置のうちの全ての焦点位置でステップS14、S16の処理が行われていない場合(ステップS18でNO)には、異なる焦点位置にフォーカスレンズ120bを移動し(ステップS14)、その焦点位置における被写体像を撮像する(ステップS16)。
ステップS12で決定された複数の焦点位置のうちの全ての焦点位置において、ステップS14、S16の処理が行われた場合(ステップS18でYES)には、CPU110は、フォーカスブラケット撮影を終了し、フォーカスブラケット画像より参照値を決定する(ステップS26)。図14は、参照値を決定する処理(ステップS26)の流れを示すフローチャートである。
まず、CPU110は、メインメモリ132に蓄積された画像を参照値算出部160に入力し、参照値算出部160は、例えば画像の左上を原点とし、横方向をx方向、縦方向をy方向とするxy座標を画像上に設定し、このxy座標を用いて対象画素の位置を指定することにより、対象画素を選択し(ステップS30)、フォーカスブラケット画像のなかから画像iを選択し(ステップS32)、ステップS32において選択された画像iについて、ステップS30で選択された対象画素の鮮鋭度を算出する(ステップS34)。
参照値算出部160は、入力されたフォーカスブラケット画像全てに対してステップS34に示す鮮鋭度算出処理が行われたかどうかを判断する(ステップS36)。ステップS34に示す鮮鋭度算出処理が入力された全フォーカスブラケット画像に対して行われていない場合(ステップS36でNO)には、参照値算出部160は、フォーカスブラケット画像のうちの異なる画像を選択し(ステップS32)、対象画素の鮮鋭度を算出する(ステップS34)。
ステップS34に示す鮮鋭度算出処理が入力された全フォーカスブラケット画像に対して行われた場合(ステップS36でYES)には、ステップS34で算出された鮮鋭度のうち、鮮鋭度が最大となる画像の画像番号を選択し(ステップS38)、その画像番号と鮮鋭度とに基づいて鮮鋭度ベクトルを求め、これを第1の参照値として算出する(ステップS70)。
例えばフォーカスブラケット画像が5枚の場合には、図15に示すように、0〜4の画像番号に対応した単位ベクトルu〜uを予め準備する。極座標で表現すると、単位ベクトルu〜uの動径rは1であり、最もNEAR側の画像(画像0)の単位ベクトルuの偏角θは0[rad]、最もFAR側の画像(画像4)の単位ベクトルuの偏角θはπ[rad]、その間の画像(画像1〜3)の単位ベクトルu〜uの偏角θは0〜π[rad]の間を等分する値、すなわち画像1の単位ベクトルuの偏角θはπ/4[rad]、画像2の単位ベクトルuの偏角θはπ/2[rad]、画像3の単位ベクトルuの偏角θは3π/4[rad]である。
鮮鋭度ベクトルは、この単位ベクトルの動径として鮮鋭度を割り当てたものである。例えば、ある画素について画像1の鮮鋭度が8であり、これが全画像中で最大の鮮鋭度である場合には、その鮮鋭度ベクトルは動径rが8、偏角θがπ/4[rad]のベクトルとなる。
このようにして求められた各画素の鮮鋭度ベクトルを、後段(ステップS72〜S74、後に詳述)の空間平滑化処理のために、極座標表現からXY座標表現に変換した鮮鋭度ベクトルを第1の参照値として出力する。例えば、動径rが8、偏角θがπ/4[rad]の鮮鋭度ベクトルの第1の参照値は、(X,Y)=(8/√2,8/√2)となる。
参照値算出部160は、以上の処理が全画素に対して実施されたか、すなわち全画素について第1の参照値が出力されたかどうかを判断する(ステップS40)。全画素について第1の参照値が出力されていない場合(ステップS40でNO)には、参照値算出部160は、異なる対象画素を選択し(ステップS30)、その対象画素における第1の参照値を出力する(ステップS32〜S70)。
全画素について第1の参照値が出力された場合(ステップS40でYES)には、その結果として、参照値算出部160は、X成分、Y成分それぞれの空間的な分布を示す2画面分のマップを作成する。CPU110は、参照値算出部160で作成されたマップを、メモリ制御部130を介して一旦メインメモリ132に記憶する。そして、CPU110は、メインメモリ132に記憶したマップを参照値平滑化部162に入力し、参照値平滑化部162は、X成分のマップに対して、第1の実施の形態と同様の方法により空間平滑化処理を行い(ステップS72)、Y成分のマップに対して、第1の実施の形態と同様の方法により空間平滑化処理を行う(ステップS74)。
図16は、X成分、Y成分それぞれに対して空間平滑化処理を行なった後でXY座標表現から極座標表現に戻した鮮鋭化ベクトルの一例である。図16に示すように、各画素毎の空間平滑化後の鮮鋭度ベクトルの向き(偏角)は、近傍にある長さ(動径)の大きいベクトルの影響を受けて、長さの大きいベクトルの向き(偏角)に近づく。これにより、鮮鋭化ベクトルのつながりを滑らかにすることができる。
このようにして空間平滑化処理が行われた鮮鋭度ベクトルのマップ(平滑化処理後のX成分のマップ及びY成分のマップ)は、メモリ制御部130を介して再びメインメモリ132に記憶され、偏角算出部168に入力される。偏角算出部168は、数式2に基づいて、入力されたマップより偏角θを算出する。数式2において、x,yは平滑化された鮮鋭度ベクトルのX,Y成分である。
Figure 0004524717
偏角θは画像番号に対応した尺度であるので、算出された偏角が第2の参照値となる。得られた偏角を4/π倍することにより、偏角θが画像番号0〜4の値に還元され、第1の実施の形態と同様に、多階調の第2の参照値のマップ、すなわち合焦分布を示す距離画像が得られる(ステップS76)。
これにより、フォーカスブラケット画像より参照値を決定する処理(ステップS26)を終了する。CPU110は、偏角算出部168で算出された距離画像を、メモリ制御部130を介して一旦メインメモリ132に記憶する。
次に、メインメモリ132に記憶された第2の参照値に基づいて、全焦点処理部164は全焦点処理を行い、ぼけ強調処理部166はぼけ強調処理を行う(ステップS22)。そして、CPU110は、ステップS22において生成された全焦点画像及びぼけ強調画像を、メモリ制御部140を介して記録媒体142に記録する(ステップS24)。
本実施の形態によれば、鮮鋭度が最大の画像番号のみでなく、鮮鋭度の大きさ、すなわち強いエッジの影響を重視することにより、より正確な距離画像を得ることができる。そのため、距離画像に基づいて合成する全焦点画像をより滑らかに、より自然にすることができる。また、より正確な合焦判定結果を得ることができるため、より正確なぼけ量のぼけ強調画像を生成することができる。
本発明の適用は、デジタルカメラに限定されるものではなく、カメラつき携帯電話機やビデオカメラ等の撮像装置や、撮像装置で撮像された画像の処理をおこなうPCなどの画像処理装置にも同様に適用することができる。また、PCなどの装置に適用するプログラムとして提供することもできる。
1、2:デジタルカメラ、110:CPU、112:操作部、114:、116:フォーカスレンズ駆動部、118:撮像素子駆動部、120:レンズユニット、122:光学ローパスフィルタ(LPF)、124:撮像素子、126:アナログ信号処理部(CDS/AMP)、128:A/D変換器、130:メモリ制御部、132:メインメモリ、134:デジタル信号処理部、136:圧縮伸張処理部、138:積算部、140:メモリ制御部、142:記録媒体、144:表示制御部、146:表示部、150:発光部、152:受光部、160:参照値算出部、162:参照値平滑化部、164:全焦点処理部、166:ぼけ強調処理部、168:偏角算出部

Claims (11)

  1. レンズの焦点位置を変化させながら連続して撮影された複数枚の画像を取得する画像取得手段と、
    前記画像取得手段により取得された複数枚の画像の各画素に対して鮮鋭度を算出する鮮鋭度算出手段と、
    前記鮮鋭度算出手段により算出された複数枚の画像の同一位置の画素のうちの鮮鋭度が最大となる画素が、前記複数枚の画像のいずれの画像に属するかを示す第1の参照値を、前記画像の各画素毎に算出する第1の参照値算出手段と、
    前記第1の参照値算出手段により算出された前記画像の各画素毎の第1の参照値から第2の参照値を算出する第2の参照値算出手段であって、ある画素の第1の参照値をその周囲の画素の第1の参照値に基づいて空間平滑化して前記第2の参照値を算出する第2の参照値算出手段と、
    前記画像取得手段により取得された複数枚の画像を前記第2の参照値算出手段により算出された第2の参照値に基づいて画像処理し、画像の全ての部分に焦点の合った全焦点画像を生成する、又は前記画像取得手段により取得された複数枚の画像のいずれか1枚を前記第2の参照値算出手段により算出された第2の参照値に基づいて画像処理し、主要被写体以外の部分をぼかしたぼけ強調画像を生成する画像処理手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記第2の参照値算出手段は、前記第1の参照値算出手段により算出された前記画像の各画素毎の第1の参照値を、各画素位置に対応して配置してなるマップを生成するマップ生成手段を含み、前記マップ生成手段により生成されたマップを空間平滑化することにより第2の参照値を算出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の参照値は、前記鮮鋭度が最大となる画素が前記複数枚の画像のいずれの画像に属するかを示す第1の情報と、前記鮮鋭度の大きさを示す第2の情報とからなることを特徴とする請求項1に記載の画像処理装置。
  4. 前記第1の参照値は、前記第1の情報を偏角とし、前記第2の情報を動径とする2次元ベクトルで表されることを特徴とする請求項3に記載の画像処理装置。
  5. 前記第2の参照値算出手段は、前記画像の各画素毎の2次元ベクトルで表された第1の参照値をX成分とY成分とに分離し、前記X成分とY成分とをそれぞれ各画素位置に対応して配置してなるX成分及びY成分のマップを生成するマップ生成手段を含み、前記マップ生成手段により生成されたX成分及びY成分のマップをそれぞれ空間平滑化し、これらの空間平滑後のX成分とY成分から偏角を求め、この偏角を前記第2の参照値とすることを特徴とする請求項4に記載の画像処理装置。
  6. 前記マップ生成手段は、前記第1の参照値を所定範囲で加重平均し、前記マップよりも少ないサンプル数の低解像度のマップを生成することを特徴とする請求項2又は5に記載の画像処理装置。
  7. 前記画像処理手段は、
    前記第2の参照値算出手段により算出された第2の参照値に基づいて、前記複数枚の画像の同一位置の画素毎の加重平均係数を決定する手段と、
    前記決定された加重平均係数に基づいて前記複数枚の画像の同一位置の画素を加重平均して全焦点画像を生成する手段と、
    を有することを特徴とする請求項1から6のいずれかに記載の画像処理装置。
  8. 前記画像処理手段は、
    前記第2の参照値算出手段により算出された第2の参照値に基づいて、前記複数枚の画像のうちの基準画像の各画素毎のぼかしの程度を調整するぼかしフィルタのフィルタ係数を決定する手段と、
    前記決定されたフィルタ係数をもつぼかしフィルタにより前記基準画像の対応する画素に対してフィルタ処理をすることによりぼけ強調画像を生成する手段と、
    を有することを特徴とする請求項1から7のいずれかに記載の画像処理装置。
  9. 請求項1からのいずれかに記載の画像処理装置と、
    被写体像を撮像する撮像素子と、前記撮像素子に被写体像を結像させる撮影光学系とで構成された撮像手段と、
    前記複数枚の画像を前記撮像素子に結像させるように前記撮像手段を制御する制御手段と、
    を備えたことを特徴とする撮像装置。
  10. レンズの焦点位置を変化させながら連続して撮影された複数枚の画像を取得するステップと、
    前記取得された複数枚の画像の各画素に対して鮮鋭度を算出するステップと、
    前記算出された複数枚の画像の同一位置の画素のうちの鮮鋭度が最大となる画素が、前記複数枚の画像のいずれの画像に属するかを示す第1の参照値を、前記画像の各画素毎に算出するステップと、
    ある画素の第1の参照値をその周囲の画素の第1の参照値に基づいて空間平滑化することによって、前記各画素毎の第1の参照値から前記第2の参照値を算出するステップと、
    前記複数枚の画像を前記第2の参照値に基づいて画像処理し、画像の全ての部分に焦点の合った全焦点画像を生成する、又は前記複数枚の画像のいずれか1枚を前記第2の参照値に基づいて画像処理し、主要被写体以外の部分をぼかしたぼけ強調画像を生成する画像処理ステップと、
    を含むことを特徴とする画像処理方法。
  11. 請求項1に記載の画像処理方法を演算装置に実行させるためのプログラム。
JP2009136175A 2008-06-13 2009-06-05 画像処理装置、撮像装置、画像処理方法及びプログラム Expired - Fee Related JP4524717B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136175A JP4524717B2 (ja) 2008-06-13 2009-06-05 画像処理装置、撮像装置、画像処理方法及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008155460 2008-06-13
JP2009136175A JP4524717B2 (ja) 2008-06-13 2009-06-05 画像処理装置、撮像装置、画像処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2010020758A JP2010020758A (ja) 2010-01-28
JP2010020758A5 JP2010020758A5 (ja) 2010-05-06
JP4524717B2 true JP4524717B2 (ja) 2010-08-18

Family

ID=40982551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136175A Expired - Fee Related JP4524717B2 (ja) 2008-06-13 2009-06-05 画像処理装置、撮像装置、画像処理方法及びプログラム

Country Status (4)

Country Link
US (1) US8311362B2 (ja)
EP (1) EP2134079B1 (ja)
JP (1) JP4524717B2 (ja)
CN (1) CN101605208B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7554083B2 (ja) 2020-09-18 2024-09-19 株式会社Screenホールディングス 画像処理方法、画像処理装置および撮像装置

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US8705801B2 (en) * 2010-06-17 2014-04-22 Panasonic Corporation Distance estimation device, distance estimation method, integrated circuit, and computer program
JP5653104B2 (ja) * 2010-07-16 2015-01-14 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US8970770B2 (en) 2010-09-28 2015-03-03 Fotonation Limited Continuous autofocus based on face detection and tracking
WO2012063449A1 (ja) * 2010-11-08 2012-05-18 パナソニック株式会社 撮像装置、撮像方法、プログラム、および集積回路
US8648959B2 (en) * 2010-11-11 2014-02-11 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
US8659697B2 (en) * 2010-11-11 2014-02-25 DigitalOptics Corporation Europe Limited Rapid auto-focus using classifier chains, MEMS and/or multiple object focusing
US8508652B2 (en) 2011-02-03 2013-08-13 DigitalOptics Corporation Europe Limited Autofocus method
WO2012132129A1 (ja) * 2011-03-31 2012-10-04 富士フイルム株式会社 撮像装置、撮像方法およびプログラム
US8704916B2 (en) 2011-04-11 2014-04-22 Canon Kabushiki Kaisha Systems and methods for focus transition
KR101940481B1 (ko) * 2011-05-18 2019-04-10 엘지이노텍 주식회사 카메라 모듈 및 그의 구동 방법
JP5800187B2 (ja) * 2011-08-16 2015-10-28 リコーイメージング株式会社 撮像装置および距離情報取得方法
US9438890B2 (en) * 2011-08-25 2016-09-06 Panasonic Intellectual Property Corporation Of America Image processor, 3D image capture device, image processing method, and image processing program
JP5554453B2 (ja) * 2011-09-30 2014-07-23 富士フイルム株式会社 画像処理装置及び方法
US8929607B2 (en) * 2011-12-01 2015-01-06 Sony Corporation System and method for performing depth estimation utilizing defocused pillbox images
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US9288377B2 (en) * 2012-05-02 2016-03-15 Semiconductor Components Industries, Llc System and method for combining focus bracket images
US20130308874A1 (en) * 2012-05-18 2013-11-21 Kasah Technology Systems and methods for providing improved data communication
JP6071257B2 (ja) * 2012-06-07 2017-02-01 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
JP6074926B2 (ja) * 2012-07-05 2017-02-08 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
KR101952684B1 (ko) * 2012-08-16 2019-02-27 엘지전자 주식회사 이동 단말기 및 이의 제어 방법, 이를 위한 기록 매체
JP5664626B2 (ja) * 2012-10-12 2015-02-04 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US9456141B2 (en) * 2013-02-22 2016-09-27 Lytro, Inc. Light-field based autofocus
CN103198475B (zh) * 2013-03-08 2016-01-13 西北工业大学 基于多层次迭代可视化优化的全聚焦合成孔径透视成像方法
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
KR102068748B1 (ko) * 2013-07-31 2020-02-11 삼성전자주식회사 디지털 촬영 장치, 그 제어 방법, 및 영상 재생 장치 및 방법
US9888163B2 (en) 2013-08-07 2018-02-06 Sharp Kabushiki Kaisha Imaging device
US9344619B2 (en) * 2013-08-30 2016-05-17 Qualcomm Incorporated Method and apparatus for generating an all-in-focus image
KR102228456B1 (ko) * 2014-03-13 2021-03-16 삼성전자주식회사 깊이 정보를 갖는 영상을 생성하는 영상 획득 장치 및 영상 획득 방법
WO2015137635A1 (en) 2014-03-13 2015-09-17 Samsung Electronics Co., Ltd. Image pickup apparatus and method for generating image having depth information
CN105208259B (zh) * 2014-06-17 2019-12-03 中兴通讯股份有限公司 相机自动对焦优化的方法及相机
WO2016002258A1 (ja) * 2014-06-30 2016-01-07 富士フイルム株式会社 光音響画像生成装置、信号処理装置、及び光音響画像生成方法
JP6290038B2 (ja) 2014-08-20 2018-03-07 株式会社東芝 電子機器、方法及びプログラム
JP6205067B2 (ja) * 2014-09-05 2017-09-27 富士フイルム株式会社 パン・チルト操作装置、カメラシステム、パン・チルト操作用プログラム及びパン・チルト操作方法
CN104680563B (zh) * 2015-02-15 2018-06-01 青岛海信移动通信技术股份有限公司 一种图像数据的生成方法和装置
CN104754227A (zh) * 2015-03-26 2015-07-01 广东欧珀移动通信有限公司 一种拍摄视频的方法及装置
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
EP3106912A1 (en) * 2015-06-17 2016-12-21 Thomson Licensing An apparatus and a method for obtaining a registration error map representing a level of fuzziness of an image
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
CN106303044B (zh) * 2016-08-18 2019-08-16 努比亚技术有限公司 一种移动终端和获取对焦值的方法
JP6301416B2 (ja) 2016-09-05 2018-03-28 株式会社Screenホールディングス 画像処理方法、画像処理装置、および撮像装置
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
CN110381806B (zh) * 2017-03-31 2021-12-10 Hoya株式会社 电子内窥镜系统
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
CN107481213A (zh) * 2017-08-28 2017-12-15 湖南友哲科技有限公司 显微镜下图像多层聚焦融合方法
CN107395991B (zh) * 2017-08-31 2020-01-10 Oppo广东移动通信有限公司 图像合成方法、装置、计算机可读存储介质和计算机设备
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
JP7051373B2 (ja) * 2017-11-02 2022-04-11 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
JP7214368B2 (ja) * 2018-05-31 2023-01-30 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP7262940B2 (ja) 2018-07-30 2023-04-24 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
US11405547B2 (en) * 2019-02-01 2022-08-02 Electronics And Telecommunications Research Institute Method and apparatus for generating all-in-focus image using multi-focus image
CN113826376B (zh) * 2019-05-24 2023-08-15 Oppo广东移动通信有限公司 用户设备和斜视校正方法
CN113114947B (zh) * 2021-04-20 2022-11-01 重庆紫光华山智安科技有限公司 对焦调节方法和装置、电子设备及存储介质
CN113298764B (zh) * 2021-05-11 2022-06-14 合肥富煌君达高科信息技术有限公司 基于图像噪声分析的高速相机成像质量分析方法
EP4138384A3 (en) * 2021-08-16 2023-04-19 Canon Kabushiki Kaisha Imaging apparatus, imaging method, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06311411A (ja) * 1993-03-15 1994-11-04 Toshiba Corp 画像処理装置
JPH11185018A (ja) * 1997-12-24 1999-07-09 Olympus Optical Co Ltd 画像処理装置
JP2001344599A (ja) * 2000-06-02 2001-12-14 Hitachi Ltd 全焦点画像合成方法及び装置
JP2005038083A (ja) * 2003-07-17 2005-02-10 Seiko Epson Corp 画像処理方法、システム、装置及びプログラム並びにディジタルカメラ
JP2006140594A (ja) * 2004-11-10 2006-06-01 Pentax Corp デジタルカメラ

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10190988A (ja) * 1996-12-26 1998-07-21 Canon Inc 画像読み取り装置
US7369161B2 (en) * 1999-06-08 2008-05-06 Lightsurf Technologies, Inc. Digital camera device providing improved methodology for rapidly taking successive pictures
SE518050C2 (sv) * 2000-12-22 2002-08-20 Afsenius Sven Aake Kamera som kombinerar skarpt fokuserade delar från olika exponeringar till en slutbild
US7058233B2 (en) * 2001-05-30 2006-06-06 Mitutoyo Corporation Systems and methods for constructing an image having an extended depth of field
US7668396B2 (en) * 2003-09-29 2010-02-23 Vixs Systems, Inc. Method and system for noise reduction in an image
JP2005141477A (ja) * 2003-11-06 2005-06-02 Noritsu Koki Co Ltd 画像鮮鋭化処理方法とこの方法を実施する画像処理装置
KR100648308B1 (ko) * 2004-08-12 2006-11-23 삼성전자주식회사 해상도 변환방법 및 장치
KR20060021665A (ko) * 2004-09-03 2006-03-08 엘지전자 주식회사 이동단말기에서의 화면 선명도 조절 장치 및 방법
JP5012333B2 (ja) 2007-08-30 2012-08-29 コニカミノルタアドバンストレイヤー株式会社 画像処理装置および画像処理方法ならびに撮像装置
JP5115138B2 (ja) 2007-10-17 2013-01-09 株式会社ニコン 合焦測定装置、合焦測定方法およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06311411A (ja) * 1993-03-15 1994-11-04 Toshiba Corp 画像処理装置
JPH11185018A (ja) * 1997-12-24 1999-07-09 Olympus Optical Co Ltd 画像処理装置
JP2001344599A (ja) * 2000-06-02 2001-12-14 Hitachi Ltd 全焦点画像合成方法及び装置
JP2005038083A (ja) * 2003-07-17 2005-02-10 Seiko Epson Corp 画像処理方法、システム、装置及びプログラム並びにディジタルカメラ
JP2006140594A (ja) * 2004-11-10 2006-06-01 Pentax Corp デジタルカメラ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7554083B2 (ja) 2020-09-18 2024-09-19 株式会社Screenホールディングス 画像処理方法、画像処理装置および撮像装置

Also Published As

Publication number Publication date
EP2134079B1 (en) 2012-11-14
CN101605208B (zh) 2013-08-21
US8311362B2 (en) 2012-11-13
JP2010020758A (ja) 2010-01-28
CN101605208A (zh) 2009-12-16
EP2134079A1 (en) 2009-12-16
US20090310885A1 (en) 2009-12-17

Similar Documents

Publication Publication Date Title
JP4524717B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP5652649B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
US9451160B2 (en) Imaging apparatus and method for controlling the imaging apparatus
JP6555863B2 (ja) 撮像装置及び撮像装置の制御方法
JP5347707B2 (ja) 撮像装置および撮像方法
JP5408053B2 (ja) 画像処理装置、画像処理方法
JP4668956B2 (ja) 画像処理装置および方法並びにプログラム
WO2017045558A1 (zh) 景深调节方法、装置及终端
JP5672796B2 (ja) 画像処理装置、画像処理方法
JP5013954B2 (ja) 撮像装置
JP4891647B2 (ja) カメラ
JP2009010814A (ja) 画像処理装置および方法並びにプログラム、撮像装置および方法並びにプログラム
CN104702824A (zh) 摄像装置及摄像装置的控制方法
JP2012049773A (ja) 撮像装置および方法、並びにプログラム
JP2017022610A (ja) 画像処理装置、画像処理方法
JP2010147786A (ja) 撮像装置及び画像処理方法
JP5212046B2 (ja) デジタルカメラおよび画像処理装置並びに画像処理プログラム
JP5277863B2 (ja) 撮像装置および撮像方法
JP2015177510A (ja) カメラシステム、画像処理方法及びプログラム
JP2020008886A (ja) 合焦位置検出装置及び合焦位置検出方法
JP2006253970A (ja) 撮像装置、シェーディング補正データ作成方法およびプログラム
JP5160655B2 (ja) 画像処理装置および方法並びにプログラム
JP2009022044A (ja) 画像処理装置及び画像処理プログラム
JP2010135904A (ja) 撮像装置
WO2023042453A1 (ja) 撮像装置、および画像処理方法、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100319

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20100319

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20100405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100506

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100519

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4524717

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees