JP7458769B2 - 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体 - Google Patents

画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体 Download PDF

Info

Publication number
JP7458769B2
JP7458769B2 JP2019228214A JP2019228214A JP7458769B2 JP 7458769 B2 JP7458769 B2 JP 7458769B2 JP 2019228214 A JP2019228214 A JP 2019228214A JP 2019228214 A JP2019228214 A JP 2019228214A JP 7458769 B2 JP7458769 B2 JP 7458769B2
Authority
JP
Japan
Prior art keywords
image
map
area
images
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019228214A
Other languages
English (en)
Other versions
JP2021097351A (ja
JP2021097351A5 (ja
Inventor
涼 塩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019228214A priority Critical patent/JP7458769B2/ja
Priority to US17/116,848 priority patent/US11375110B2/en
Publication of JP2021097351A publication Critical patent/JP2021097351A/ja
Publication of JP2021097351A5 publication Critical patent/JP2021097351A5/ja
Application granted granted Critical
Publication of JP7458769B2 publication Critical patent/JP7458769B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders

Description

本発明は、ピント位置の異なる複数の画像を合成する画像処理装置に関するものである。
デジタルカメラなどからの光軸方向での距離が互いに大きく異なる複数の被写体を撮像する場合や、奥行き方向に長い被写体を撮像する場合に、被写界深度が足りないために被写体の一部にしかピントを合わせられない場合がある。これを解決するため、特許文献1には、ピント位置の異なる複数の画像を撮像し、各画像から合焦領域のみを抽出して1枚の画像に合成し、撮像領域全体に合焦している合成画像を生成する、所謂、深度合成の技術が開示されている。そこで、特許文献1では、それぞれの画像の同じ位置にある領域の中で、コントラスト値の最も高い領域を合焦領域とする。
特開2015-216532号公報
特許文献1に記載の深度合成の方法を用いると、光沢や反射のある被写体の深度合成では、光沢や反射光のぼけが合成されてしまう可能性がある。
本発明は、上述した課題を鑑みてなされたものであり、ピント位置の異なる複数の画像を用いて合成した画像における光沢や反射光のぼけを低減することができる画像処理装置を提供することを目的とする。
上記課題を解決するため、本願発明は、光軸方向で異なるピント位置で複数の画像から合成マップを作成する合成マップの作成手段と、前記合成マップに対して補正を行う補正手段と、前記補正手段が補正した前記合成マップを用いて前記複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有し、前記合成画像の被写界深度は、前記複数の画像の前記被写界深度よりも深く、前記補正手段は、前記合成マップにおける合成比率が、外周と第1の閾値以上に乖離した値に囲まれている第1の領域を検出し、前記第1の領域の外周にある第2の領域から補正値を求め、前記第1の領域を前記補正値で補正する画像処理装置を特徴とする画像処理装置を提供する。
本発明の構成によれば、ピント位置の異なる複数の画像を用いて合成した画像における光沢や反射光のぼけを低減することができる。
本発明の実施形態に係るデジタルカメラの構造を示すブロック図である。 本発明の実施形態における合成画像の生成について説明するためのフローチャートである。 本発明の実施形態における撮像について説明するためのフローチャートである。 本発明の実施形態における位置合わせについて説明するためのフローチャートである。 本発明の実施形態における画像の合成について説明するためのフローチャートである。 本発明の実施形態における合成マップの補正について説明するためのフローチャートである。 深度合成のための撮像を行う一例を説明するための図である。 本発明の実施形態における合成マップの補正を説明するための図である。 本発明の実施形態における補正後の合成マップによる合成結果を説明するための図である。 本発明の実施形態におけるピント位置と被写界深度との関係を説明するための図である。 本発明の実施形態における第1の閾値と第2の閾値との定め方を説明するためのグラフである。
以下では、添付の図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は本実施形態に係る画像処理装置としてのデジタルカメラの構造を示すブロック図の一例である。デジタルカメラ100は、静止画を撮像することができ、かつ、合焦位置の情報を記録し、コントラスト値の算出および画像の合成が可能なものである。さらに、デジタルカメラ100は、撮像して保存した画像、または、外部から入力した画像に対して、拡大処理または縮小処理を行うことができる。
制御部101は、例えばCPUやMPUなどのシグナルプロセッサであり、予め後述するROM105に内蔵されたプログラムを読み出しながら、デジタルカメラ100の各部分を制御する。たとえば、後述するように、制御部101が、後述する撮像部104に対して撮像の開始と終了について指令を出す。または、後述する画像処理部107に対して、ROM105に内蔵されたプログラムに基づいて、画像処理の指令を出す。ユーザによる指令は、後述する操作部110によってデジタルカメラ100に入力され、制御部101を通して、デジタルカメラ100の各部分に達する。
駆動部102は、モーターなどによって構成され、制御部101の指令の下で、後述する光学系103を機械的に動作させる。たとえば、制御部101の指令に基づいて、駆動部102が光学系103に含まれるフォーカスレンズの位置を移動させ、光学系103の焦点距離を調整する。
光学系103は、ズームレンズ、フォーカスレンズ、および絞りなどにより構成される。絞りは、透過する光量を調整する機構である。レンズの位置を変えることによって、合焦位置を変えることができる。
撮像部104は、光電変換素子であり、入射された光信号を電気信号に変換する光電変換を行うものである。たとえば、撮像部104に、CCDセンサやCMOSセンサなどを適用することができる。撮像部104は、動画撮像モードを設け、時間的に連続する複数の画像を動画の各々のフレームとして、撮像することができる。
ROM105は、記録媒体としての読み出し専用の不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶している。RAM106は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
画像処理部107は、撮像部104から出力された画像、あるいは後述する内蔵メモリ109に記録されている画像信号のデータに対して、ホワイトバランス調整、色補間、フィルタリングなど、様々な画像処理を行う。また、撮像部104が撮像した画像信号のデータに対して、JPEGなどの規格で、圧縮処理を行う。
画像処理部107は、特定の処理を行う回路を集めた集積回路(ASIC)で構成される。あるいは、制御部101がROM105から読み出したプログラムに従って処理することで、制御部101が画像処理部107の機能の一部または全部を兼用するようにしてもよい。制御部101が画像処理部107の全ての機能を兼用する場合には、画像処理部107をハードウェアとして有する必要はなくなる。
表示部108は、RAM106に一時保存されている画像、または、後述する内蔵メモリ109に保存されている画像、あるいは、デジタルカメラ100の設定画面などを表示するための液晶ディスプレイや有機ELディスプレイなどである。
内蔵メモリ109は、撮像部104が撮像した画像や画像処理部107の処理を得た画像、および、画像撮像時の合焦位置の情報などを記録する場所である。内蔵メモリの代わりに、メモリカードなどを用いてもよい。
操作部110は、たとえば、デジタルカメラ100につけるボタンやスイッチ、キー、モードダイアルなど、あるいは、表示部108に兼用されるタッチパネルなどである。ユーザによる指令は、操作部110を経由して、制御部101に達する。
図2は、本実施形態における合成画像の生成について説明するためのフローチャートである。ステップS201では、撮像部104は、ピント位置の異なる複数の画像を撮像する。ステップS202では、制御部101は、ステップS201で撮像部104が撮像した複数の画像に対して位置合わせを行う。ステップS203で、画像処理部107は、位置合わせを行った後の画像に対して合成を行い、被写界深度のより深い合成画像を作成する。以下では、それぞれのステップについて詳細に説明する。
図3は、本実施形態におけるステップS201での撮像について説明するためのフローチャートである。
ステップS301で、制御部101は、ピント位置の設定を行う。たとえば、ユーザは表示部108が兼用するタッチパネルを通して合焦位置を指定し、指定された合焦位置に相当するピント位置の光軸方向の前後に等間隔に複数のピント位置を指定する。同時に、制御部101は、設定したピント位置において、距離順に撮像順番を決める。
ステップS302で、撮像部104は、ステップS301で設定したピント位置のうち、未撮像のものの中で、撮像順番が最も先のピント位置において撮像する。
ステップS303で、制御部101は、ステップS301で設定したすべてのピント位置において撮像を行ったかどうかについて判断する。すべてのピント位置に撮像した場合は、このフローチャートでの処理を終了し、まだ撮像していないピント位置があれば、ステップS302に戻る。
また、撮像部104を複数有する多眼カメラの場合、ステップS301で設定された複数のピント位置で同時に撮像してもよい。
図4は、本実施形態におけるステップS202での位置合わせについて説明するためのフローチャートである。
ステップS401では、制御部101は、ステップS201で撮像部104が撮像した画像のうちから、位置合わせの基準画像を取得する。位置合わせの基準画像は、たとえば、撮像順番が最も早いものとする。あるいは、ピント位置を変えながら撮像することで、わずかながら撮像された画像間で画角が変化するため、撮像した画像の中で画角が最も狭いものにしてもよい。
ステップS402では、制御部101は、位置合わせの処理の対象画像を取得する。対象画像は、ステップS401で取得した基準画像以外の画像で、位置合わせの処理が済んでいないものとする。制御部101は、撮像順番が最も早いものを基準画像とするならば、撮像した順番で順次に対象画像を取得すればよい。
ステップS403では、制御部101は、基準画像と対象画像との位置のずれ量を算出する。算出方法の一例は、以下に述べる。まず、制御部101は、基準画像に、複数のブロックを設定する。制御部101は、各々のブロックのサイズが同じになるように設定することが好ましい。次に、制御部101は、対象画像の、基準画像のそれぞれのブロックと同じ位置に、基準画像のブロックよりも広い範囲を、探索範囲を設定する。最後に、制御部101は、対象画像のそれぞれの探索範囲に、基準画像のブロックとの輝度の差分絶対値和(Sum of Absolute Difference、以下、SADをいう)が最小となる対応点を算出する。制御部101は、基準画像のブロックの中心と前述した対応点から、ステップS403でいう位置のずれをベクトルとして算出する。制御部101は、前述する対応点の算出において、SADのほかに、差分二乗和(Sum of Squared Difference、以下SSDをいう)や正規化相互相関(Normalized Cross Correlation、以下NCCをいう)などを用いてもよい。
ステップS404で、制御部101で、基準画像と対象画像との位置のずれ量から変換係数を算出する。制御部101は、変換係数として、例えば射影変換係数を用いる。ただし、変換係数として射影変換係数だけに限定するわけではなく、アフィン変換係数や水平垂直シフトのみの簡略化した変換係数を用いてもよい。
ステップS405で、画像処理部107は、ステップS404で算出した変換係数を用いて対象画像に対して変換を行う。
たとえば、制御部101は、(式1)に示した式を用いて変形を行うことができる。
Figure 0007458769000001
式(1)では、(x´、y´)は変形を行った後の座標を示し、(x、y)は変形を行う前の座標を示す。行列AはステップS404で制御部101が算出した変形係数を示す。
ステップS406で、制御部101は、基準画像以外のすべての画像に対して位置合わせを行ったかどうかについて判断する。基準画像以外のすべての画像に対して位置合わせを行った場合は、このフローチャートでの処理を終了し、まだ処理していない画像があれば、ステップS402に戻る。
また、上述した多眼カメラで撮像された複数の画像を位置合わせする場合、光学系103の位置の違いにより生まれる視差量をステップS403でずれ量算出で求める事が出来るため、同様の処理で位置合わせを行うことが出来る。
図5は、本実施形態におけるステップS203での画像の合成について説明するためのフローチャートである。
ステップ501で、画像処理部107は、位置合わせを行った後のそれぞれの画像(基準画像を含む)に対してコントラスト値を算出する。コントラスト値の算出方法の一例としては、たとえば、まず、画像処理部107は、それぞれの画素の色信号Sr、Sg、Sbから、下記の式(2)を用いて輝度Yを算出する。
Y = 0.299Sr + 0.587Sg + 0.114Sb・・・式(2)
次に、3×3の画素の輝度Yの行列Lに、下記の(式3)ないし(式5)に示したように、ソーベルフィルタを用いてコントラスト値Iを算出する。
Figure 0007458769000002
Figure 0007458769000003
Figure 0007458769000004
また、上述のコントラスト値の計算方法は一例にすぎず、たとえば、使用するフィルタをラプラシアンフィルタ等のエッジ検出フィルタや所定の帯域を通過するバンドパスフィルタを用いることも可能である。
ステップS502で、画像処理部107は合成マップを生成する。合成マップの生成方法としては、画像処理部107は、それぞれの画像の同じ位置にある画素のコントラスト値を比較し、コントラスト値の大きさに応じた合成比率を算出する。具体的に、同じ位置にある画像のうち、コントラスト値の最も大きい画素に対して100%の合成比率を与え、同じ位置にある他の画素に対して0%の合成比率を与える。つまり、次の(式6)が成り立つ。
Figure 0007458769000005
(式6)では、Cm(x,y)はステップS501で算出したコントラスト値を表し、Am(x,y)は合成マップの比率を表す。なお、mはピント位置の異なる複数画像のうちm番目の画像、xは画像の水平座標、yは垂直座標を示している。
ただし、ステップS502では、境界部が不自然にならないように合成比率を適宜調整する必要がある。その結果、1枚の画像における合成マップの合成比率は、0%と100%との二値化のものでなく、連続的に変化するものになる。
ステップS503では、画像処理部107は、ステップ502で算出した合成マップを補正する。具体的な方法は後述する。
ステップS504では、画像処理部107は、ステップS503で補正した合成マップに従い、合成画像を生成する。
以下では、ステップS503における、光沢や反射光のぼけの広がりが合成されることを防ぐための合成マップ補正について図6と図7と図8とを用いて詳細に説明する。
図6は、本実施形態におけるステップS503の合成マップの補正(合成比率補正)について説明するためのフローチャートである。
図7は、本実施形態における深度合成のための撮像を行う一例を説明するための図である。以下では、まず、図7を用いて光源からの光を反射するシーンを説明する。図7(a)は撮像するための環境を示したシーンである。図7(a)では、デジタルカメラ701と光源702とを示し、被写体703により光が反射されることを示している。深度合成のための撮像を行う場合、デジタルカメラ701が最至近側から無限遠側までの間で、複数のピント位置で撮像を行う。ピント位置704で撮像した画像が710であり、領域711が光源702からの反射光にあたる領域である。ピント位置704に合焦させて撮像する場合では、光源702から被写体703で反射しデジタルカメラ701に入射する反射光が、最も散乱しなく、図7(b)に示したように、反射光にあたる領域が撮像画像においては最もぼけない。ピント位置705は、ピント位置704よりも手前のピント位置である。ピント位置704に合焦した場合、領域711はぼけずに撮像することができる。一方、ピント位置705に合焦させて撮像した画像が図7(c)に示され、領域721が光源702からの反射光にあたる領域であり、領域721は領域711と比べてぼけて広がっている。
図7(b)と図7(c)とに示した2枚の画像を従来の深度合成の方法で合成すると、図7(d)に示した画像が得られる。領域721が図7(b)での同じ位置の領域よりもコントラスト値が高いため、図7(d)に示した合成画像では、領域721に相当する領域732が存在する。ステップS503での合成マップの補正を経て、領域732での過度のボケが消去される。図9は、本実施形態における補正後の合成結果を説明するための図である。ステップS503での合成マップの補正をすれば、画像900のような合成画像が得られる。
次に、図6に示したフローチャートのフローについて説明する。
ステップS601では、画像処理部107が、ステップS502で生成した合成マップの中で、合成マップの示す値が外周と第1の閾値以上乖離した値に囲まれている閉領域を検出する。図8は、本実施形態におけるステップS503の合成マップ補正(合成比率補正)について説明するための図である。図8(a)は図7(b)および図7(c)に示した2枚の画像を合成する場合の合成マップである。たとえば、領域801で示す領域は図7(b)の画像を100%合成する領域であり、領域802と領域803は図7(c)の画像を100%合成する領域であり、領域804は図7(b)および図7(c)に示した2枚の画像を混ぜて合成する領域である。領域802は領域721の領域に対応する。前述第1の閾値を100%とすると、図8に示した合成マップ800の中で外周と100%以上乖離した値に囲まれている閉領域を検出すると領域802にあたり、領域802の近傍部分について図8(b)の画像810で抜粋している。なお、ステップS601における閉領域の検出方法について、誤検出および検出漏れを避けるため、たとえば閉領域の大きさ、すなわち面積が第2の閾値を下回っている場合にのみ後述の補正を行ってもよい。
上述した第1の閾値および第2の閾値の決定方法について、図10を用いて説明する。図10は、本実施形態におけるピント位置と被写界深度との関係を説明するための図である。被写界深度1001、1002、1003は、それぞれピント位置1004、1005、1006で撮像したときの被写界深度を示している。ピント位置1004とピント位置1005とで撮像した画像を比較すると、被写界深度が重なる領域が多いためぼけの広がり方が似ているとわかる。一方で、ピント位置1004とピント位置1006とで撮像した画像を比較すると、被写界深度が重なる領域が狭いためぼけの広がり方が大きく異なるとわかる。すなわち、光沢や反射光のある被写体においては、被写界深度の差が大きくなるほど光のぼけの広がり方が顕著になるため、合成マップにおける閉領域は大きくなるという特徴が推測できる。また、被写界深度の差が大きくなるほど、コントラスト値の差が大きくなるため、閉領域内外の合成比率の差は顕著になるといえる。
上記の特徴を利用し、前述の第1の閾値および第2の閾値を定める。図11は本実施形態における第1の閾値と第2の閾値との定め方を説明するためのグラフである。図11(a)のグラフ1100は第1の閾値の決定方法を示し、図11(b)のグラフ1110は第2の閾値の決定方法を示す。図11のグラフの横軸のFは絞り値を示し、δは許容錯乱円を示す。グラフ1100では、フォーカスレンズの像面移動量を絞り値と許容錯乱円で割った値に対して、第1の閾値を比例させている。図11(a)に示した例では、フォーカスレンズの像面移動量を絞り値と許容錯乱円で割った値の最小値が1、最大値が4とすると、第1の閾値すなわち合成比率の差による閉領域検出の判断の閾値を最小値20%、最大値100%として線形に比例させている。たとえば、フォーカスレンズの像面移動量を絞り値と許容錯乱円で割った値が1のケースにおいては、被写界深度の重なる範囲が大きいため、閉領域内外の合成比率の差が小さくなるので、第1の閾値を20%まで落とすことで検出可能としている。逆に、フォーカスレンズの像面移動量を絞り値と許容錯乱円で割った値が4のケースにおいては、被写界深度の重なる領域が小さいため、閉領域内外の合成比率の差が大きくなるので、第1の閾値を100%にしても閉領域を検出可能となる。
図11(b)に示したグラフ1110でもグラフ1100と同様に、フォーカスレンズの像面移動量を絞り値と許容錯乱円で割った値に対して、第2の閾値を比例させている。図11(b)に示した例では、フォーカスレンズの像面移動量を絞り値と許容錯乱円で割った値の最小値が1、最大値が4とすると、第2の閾値すなわち面積による閉領域検出の判断の閾値を最小値50ピクセル、最大値100ピクセルとして線形に比例させている。たとえば、フォーカスレンズの像面移動量を絞り値と許容錯乱円で割った値が1のケースにおいては、被写界深度の重なる範囲が大きいため、閉領域となる領域の面積は小さく、第2の閾値を小さく設定しても検出精度はよい。逆に、フォーカスレンズの像面移動量を絞り値と許容錯乱円で割った値が4のケースにおいては、被写界深度の重なる領域が小さいため、閉領域となる領域の面積は大きく、第2の閾値を大きく設定することで閉領域を検出可能となる。
上記のような決定方法を用いることで、閉領域の誤検出および検出漏れを減らすことができる。閾値のグラフの決定に際し、許容錯乱円は固定値を用いてもよいし、画素ピッチに依存した値を用いてもよい。また、図11に示したグラフは線形に比例した例を示したが、非線形なグラフないし実験結果から求めたグラフでも可能である。
ステップS602では、S601で検出した閉領域の境界よりも外側の値から、合成マップ補正値を求める。図8(c)では、合成マップ820は画像810において閉領域812の境界よりも外側の領域822の様子を示している。たとえば、領域822の合成比率を平均し合成マップ補正値とする場合、領域822の合成比率はすべて0%であるため、合成マップ補正値は0%と求められる。なお、合成比率の算出方法は平均値に限るものではなく、たとえば中央値や近似値を用いてもよい。領域822の面積は、画像の絞り値、ピント位置、画像の画素数の少なくともいずれかにより決めてよい。
ステップS603では、画像処理部107が、ステップS602で求めた合成マップ補正値で、ステップS601で検出した閉領域を補正する。図8(d)の合成マップ830は、S602で求めた合成マップ補正値0%で領域823を補正した結果を示す。なお、撮像時に深度マップを取得することができていれば、誤補正を避けるため、深度マップにおける閉領域と閉領域の境界よりも外側の領域の差分が予め定められた第3の閾値以下の場合にのみ補正を行ってもよい。
以上でステップS503の合成マップの補正処理を終了する。
ステップS504で、ステップS503で補正した合成マップを基に、位置合わせされた後の撮像したピント位置の異なる画像を合成した合成画像の画素О(x,y)を生成する。ピント位置の異なる画像の画素をIm(x,y)とすると、補正した合成マップを用いて以下の(式8)で画像が生成される。ただし、(式8)では、A´k(x,y)は、補正後の合成マップの合成比率を表す。
Figure 0007458769000006
以上で、ステップS203の画像合成処理を終了する。
図9では、本実施形態の画像合成処理を実施することで得られる合成結果を示している。画像900は補正後の合成マップによって合成した結果を示しており、ピント位置704で合焦した光源702からの反射光にあたる領域711が合成結果の反射光902に表れている。
第1の実施形態によれば、算出した合成マップを補正し、補正された合成マップに従い合成を行うことで、光沢や反射のぼけを低減した合成画像を生成することが出来る。
(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を撮像することができるネットワークカメラなどでもよい。
なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 デジタルカメラ
101 制御部
102 駆動部
103 光学系
104 撮像部
105 ROM
106 RAM
107 画像処理部
108 表示部
109 内蔵メモリ
110 操作部

Claims (12)

  1. 光軸方向で異なるピント位置で撮像した複数の画像から合成マップを作成する合成マップの作成手段と、
    前記合成マップに対して補正を行う補正手段と、
    前記補正手段が補正した前記合成マップを用いて前記複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有し、
    前記合成画像の被写界深度は、前記複数の画像の被写界深度よりも深く、
    前記補正手段は、前記合成マップにおける合成比率が、外周と第1の閾値以上に乖離した値に囲まれている第1の領域を検出し、前記第1の領域の外周にある第2の領域から補正値を求め、前記第1の領域を前記補正値で補正することを特徴とする画像処理装置。
  2. 前記作成手段が、前記複数の画像のコントラスト値から前記合成マップを作成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記作成手段が、前記複数の画像の対応する領域のコントラスト値を比較し、前記コントラスト値がより高い前記領域に、より高い前記合成比率を与えることを特徴とする請求項2に記載の画像処理装置。
  4. 前記第1の領域の面積が第2の閾値より小さい場合、前記補正手段が前記補正を行うことを特徴とする請求項1ないし3のいずれか1項に記載の画像処理装置。
  5. 前記第2の閾値とは、フォーカスレンズの像面移動量、絞り値、許容錯乱円と、を用いて決定される値であることを特徴とする請求項4に記載の画像処理装置。
  6. 前記第2の領域の面積は、画像の絞り値、ピント位置、画像の画素数の少なくともいずれかによって決まることを特徴とする請求項1ないしのいずれか1項に記載の画像処理装置。
  7. 前記補正値は、前記第2の領域の前記合成比率の平均値または中央値であることを特徴とする請求項1ないしのいずれか1項に記載の画像処理装置。
  8. 前記第1の閾値とは、フォーカスレンズの像面移動量、絞り値、許容錯乱円と、を用いて決定される値であることを特徴とする請求項1ないしのいずれか1項に記載の画像処理装置。
  9. 光軸方向で異なるピント位置で複数の画像を撮像する撮像手段と、
    前記複数の画像から合成マップを作成する合成マップの作成手段と、
    前記合成マップに対して補正を行う補正手段と、
    前記補正手段が補正した前記合成マップを用いて前記複数の画像に対して合成を行い、合成画像を生成する合成手段と、を有し、
    前記合成画像の被写界深度は、前記複数の画像の被写界深度よりも深く、
    前記補正手段は、前記合成マップにおける合成比率が、外周と第1の閾値以上に乖離した値に囲まれている第1の領域を検出し、前記第1の領域の外周にある第2の領域から補正値を求め、前記第1の領域を前記補正値で補正することを特徴とする撮像装置。
  10. 光軸方向で異なるピント位置で撮像した複数の画像から合成マップを作成する合成マップの作成ステップと、
    前記合成マップに対して補正を行う補正ステップと、
    前記補正ステップにおいて補正した前記合成マップを用いて前記複数の画像に対して合成を行い、合成画像を生成する合成ステップと、を有し、
    前記合成画像の被写界深度は、前記複数の画像の被写界深度よりも深く、
    前記補正ステップにおいては、前記合成マップにおける合成比率が、外周と第1の閾値以上に乖離した値に囲まれている第1の領域を検出し、前記第1の領域の外周にある第2の領域から補正値を求め、前記第1の領域を前記補正値で補正することを特徴とする画像処理方法。
  11. 画像処理装置のコンピュータに動作させるコンピュータのプログラムであって、
    光軸方向で異なるピント位置で撮像した複数の画像から合成マップを作成する合成マップの作成ステップと、
    前記合成マップに対して補正を行う補正ステップと、
    前記補正ステップにおいて補正した前記合成マップを用いて前記複数の画像に対して合成を行い、合成画像を生成する合成ステップと、を行わせ、
    前記合成画像の被写界深度は、前記複数の画像の被写界深度よりも深く、
    前記補正ステップにおいては、前記合成マップにおける合成比率が、外周と第1の閾値以上に乖離した値に囲まれている第1の領域を検出し、前記第1の領域の外周にある第2の領域から補正値を求め、前記第1の領域を前記補正値で補正することを特徴とするプログラム。
  12. 請求項11に記載のプログラムを記録したコンピュータが読み出し可能な記録媒体。
JP2019228214A 2019-12-18 2019-12-18 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体 Active JP7458769B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019228214A JP7458769B2 (ja) 2019-12-18 2019-12-18 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
US17/116,848 US11375110B2 (en) 2019-12-18 2020-12-09 Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019228214A JP7458769B2 (ja) 2019-12-18 2019-12-18 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体

Publications (3)

Publication Number Publication Date
JP2021097351A JP2021097351A (ja) 2021-06-24
JP2021097351A5 JP2021097351A5 (ja) 2022-11-04
JP7458769B2 true JP7458769B2 (ja) 2024-04-01

Family

ID=76431851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019228214A Active JP7458769B2 (ja) 2019-12-18 2019-12-18 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体

Country Status (2)

Country Link
US (1) US11375110B2 (ja)
JP (1) JP7458769B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037857A (ja) 2016-08-31 2018-03-08 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2410741A1 (en) * 1999-04-16 2012-01-25 Panasonic Corporation Image processing apparatus and monitoring system
US7801332B2 (en) * 2007-01-12 2010-09-21 International Business Machines Corporation Controlling a system based on user behavioral signals detected from a 3D captured image stream
US8736706B1 (en) * 2012-03-13 2014-05-27 Google Inc. Method and system for generating high resolution composite images
JP6325885B2 (ja) 2014-05-12 2018-05-16 オリンパス株式会社 撮像装置、撮像方法、及びプログラム
JP6732522B2 (ja) * 2016-05-02 2020-07-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018037857A (ja) 2016-08-31 2018-03-08 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
US11375110B2 (en) 2022-06-28
US20210195100A1 (en) 2021-06-24
JP2021097351A (ja) 2021-06-24

Similar Documents

Publication Publication Date Title
JP6157242B2 (ja) 画像処理装置及び画像処理方法
KR101034109B1 (ko) 촬영장치 및 프로그램이 기억된 컴퓨터 판독 가능한 기록매체
JP6906947B2 (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
JP6786311B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラムおよび記憶媒体
JP2020107956A (ja) 撮像装置、撮像方法およびプログラム
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP6961423B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、プログラムおよび記録媒体
JP2022083147A (ja) 撮像装置、撮像方法、プログラムおよび記録媒体
JP2020160773A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP7409604B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP6953594B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP6833772B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP7262940B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP6828069B2 (ja) 撮像装置、撮像方法およびプログラム
JP6818734B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US20240089597A1 (en) Image capturing apparatus for capturing and compositing images different in in-focus position, control method, and storage medium
US11616902B2 (en) Apparatus to perform alignment to images, image processing method to perform alignment to images, and computer readable non-transitory memory to perform alignment to images
US20220148142A1 (en) Image processing apparatus for combining a plurality of images, imaging apparatus, imaging method, and recording medium
JP7214368B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2024002631A (ja) 画像処理装置、撮像装置、画像処理方法、コンピュータのプログラムおよび記録媒体
JP2023026997A (ja) 撮像装置、撮像方法、プログラムおよび記録媒体
JP2023055075A (ja) 撮像装置およびその制御方法
JP2023065229A (ja) 撮像装置及びその制御方法及びプログラム
JP2012085347A (ja) 撮影装置およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231130

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240319

R151 Written notification of patent or utility model registration

Ref document number: 7458769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151