JP6347675B2 - 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム Download PDF

Info

Publication number
JP6347675B2
JP6347675B2 JP2014118114A JP2014118114A JP6347675B2 JP 6347675 B2 JP6347675 B2 JP 6347675B2 JP 2014118114 A JP2014118114 A JP 2014118114A JP 2014118114 A JP2014118114 A JP 2014118114A JP 6347675 B2 JP6347675 B2 JP 6347675B2
Authority
JP
Japan
Prior art keywords
image
unit
images
similarity
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014118114A
Other languages
English (en)
Other versions
JP2015231220A (ja
Inventor
陽輔 佐藤
陽輔 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014118114A priority Critical patent/JP6347675B2/ja
Priority to US14/728,390 priority patent/US9607240B2/en
Publication of JP2015231220A publication Critical patent/JP2015231220A/ja
Application granted granted Critical
Publication of JP6347675B2 publication Critical patent/JP6347675B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Description

本発明は、複数の視点からの同時撮像によるフォーカスブラケット撮影に関する。
カメラの撮像方法の一つにブラケット撮影が存在する。ブラケット撮影とは、撮像条件を変えながら短時間のうちに複数枚の画像を連続撮像する撮像方法である。ブラケット撮影により得られた複数枚の画像を用いることで、1枚の画像では到達困難な写真画質を実現することができる。
ブラケット撮影には、露出を変化させて連続撮像する露出ブラケット撮影や、フラッシュの点灯/非点灯を変化させながら連続撮像するフラッシュブラケット撮影などが存在する。そして、その中でも代表的なものの一つとして、合焦位置を変えながら連続撮像を行うフォーカスブラケット撮影が存在する(特許文献1)。
フォーカスブラケット撮影は、例えば、手前の被写体、奥の被写体、更に奥の被写体などというように、ピントが合う距離を変化させながら複数回撮像を行うことで、異なる距離に合焦された複数枚の画像を取得する撮像方法である。フォーカスブラケット撮影では、一般に撮像時のレンズの絞り値は小さく設定される。そのため、各画像は被写界深度の浅い画像になるが、各画像を形成するための入射光量が大きくなり、絞り値を大きくして撮像した被写界深度の深い画像よりも、撮像ノイズが比較的少ない鮮明な画像となる。
フォーカスブラケット撮影により得られた複数の画像の活用法の一つとして、非特許文献1に開示されているような、被写界深度の拡張処理が知られている。これは、異なる距離に合焦された、被写界深度の浅い複数の画像を合成することで、画像中の広い範囲で合焦した被写界深度の深い画像を生成する処理である。この処理を用いることで、絞り値を大きくして撮像した画像に比べてノイズが少ない、被写界深度の深い画像を得ることができる。
特許第4997043号
Jacobs, David E., Jongmin Baek, and Marc Levoy. "Focal stack compositing for depth of field control." Stanford Computer Graphics Laboratory Technical Report 1 (2012): 2012.
ブラケット撮影に共通する課題として、撮影中に生じた手振れや被写体ぶれにより、画像間の被写体のずれが生じてしまう点が挙げられる。これは複数枚の画像を連続撮影するために生じる課題であるため、撮影間隔を短くすることが有効な解決手段である。例えば、複数の撮像部を有するカメラを用いて同時に撮像することでこの課題を解決することができる。
しかし、上述したようなカメラを用いて同時撮像を行った場合、得られた画像はそれぞれ異なる視点で撮像された画像であるため、被写界深度拡大処理等の為に各画像を合成する場合、各画像を位置合わせする必要がある。複数の画像の位置合わせ処理としては、各画像の間の対応関係を導出し、導出した対応関係に基づいて各画像をシフトさせる方法が一般的である。しかし、フォーカスブラケット撮影により得られた各画像は、それぞれ合焦状態が異なる画像であるため、画像間の対応関係を求めるのが難しく、各画像の位置合わせの為の画像ずらし量を精度よく求めるのが困難であった。そこで、本発明は、複数の異なる視点から同時撮像された、それぞれ異なる距離に合焦された複数の画像を精度よく位置合わせする技術の提供を目的とする。
上記課題を解決するために、本発明の画像処理装置は、第一の絞り値で第一の距離にピントを合わせて撮像された第一の画像と、第二の絞り値で第一の距離とは異なる第二の距離にピントを合わせて撮像された第二の画像と、前記第一の絞り値と前記第二の絞り値とよりも大きな第三の絞り値で撮像された第三の画像とを取得する取得手段と、前記第一の画像と前記第二の画像とを、前記第三の画像に基づいて位置合わせする位置合わせ手段と、前記位置合わせ手段により位置合わせされた前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりも被写界深度の深い合成画像を生成する合成手段を有し、前記合成手段は、前記位置合わせ手段により位置合わせされた前記第一の画像と前記第三の画像との間および、前記位置合わせ手段により位置合わせされた前記第二の画像と前記第三の画像との間で、画像中の同じ位置に対応する画像領域ごとに、画像の類似度合いを示すパラメータを算出する算出手段を有し、前記合成手段は、前記パラメータに基づいて前記合成画像を生成を有することを特徴とする。
複数の異なる視点から同時撮像された、それぞれ異なる距離に合焦された複数の画像の位置合わせの精度が向上する。
実施例1の多眼カメラの外観を示す図。 実施例1の多眼カメラの撮像部の内部構成を示す図。 実施例1の多眼カメラの内部構成を示すブロック図。 実施例1の画像処理部の機能構成を示すブロック図。 実施例1の多眼カメラで行われる処理の流れを示すフローチャート。 実施例1の画像データを説明する図。 実施例1の合焦領域検出部の機能構成を示すブロック図。 実施例1の合焦領域検出部で行われる処理を示すフローチャート。 実施例1の画像シフト部の機能構成を示すブロック図。 実施例1の画像シフト部で行われる処理を示すフローチャート。 実施例1の被写界深度拡大部の機能構成を示すブロック図。 実施例1の被写界深度拡大部で行われる処理を示すフローチャート。 実施例2の被写界深度拡大部で行われる処理を示すフローチャート。 実施例2のフィルタ処理を説明する図。
<実施例1>
本実施例では、複数の撮像部を備えた多眼方式による多視点撮像装置を用いてフォーカスブラケット撮影を行い、取得された画像データを用いて被写界深度拡大処理を行う例について説明する。まず、本実施例の構成について説明する。図1(a)は、本実施例で用いられる多視点撮像装置である、多眼カメラ100(以下、カメラ100とする)の一例を示す図である。カメラ100は、撮像ボタン101及び撮像部102〜105を備えている。ユーザが撮像ボタン101を押すと、撮像部102〜105は同時に撮影を開始し、同一の被写体を複数の視点位置から同時に撮影した画像(デジタルデータ)を得ることができる。なお、ここでは撮像部の数を4個としたが、撮像部の数は4個に限定されず、撮像装置が複数の撮像部を有する限りにおいてその数によらず本発明は適用可能である。また、各撮像部の配置は図1(a)に示したものに限定されず、例えば図1(b)に示すように各撮像部を配置するようにしてもよい。図1(a)と図1(b)いずれも各撮像部の光軸がたがいに平行になるように配置(較正)されている。
図2(a)は、撮像部102の内部構成の一例を示す図である。撮像部102は、レンズ201〜202、NDフィルタ203、絞り204、シャッター205、光学ローパスフィルタ206、IRカットフィルタ207、カラーフィルタ208、センサ209及びA/D変換部210で構成される。レンズ201〜202はそれぞれ、フォーカスレンズ201およびぶれ補正レンズ202である。センサ209は、例えばCMOSやCCDなどのセンサであり、上記の各レンズで結像された被写体の光学像を電気信号に変換する。センサ209により検知された光量はアナログ値としてセンサ209から出力され、A/D変換部210によってデジタル値に変換されて、デジタルデータとなってバス301に出力される。
図2(b)もまた、撮像部102の内部構成の一例を示す図である。第一の内部構成との違いは、ぶれ補正レンズ202有さないことである。このため、撮像部102は光学ぶれ補正機能を有さない。一方でレンズ総重量が軽くなり、撮像部102の長さを短くできる。本実施例において、撮像部102の内部構成はどのようなものでもよく、以降の本実施例の説明では、撮像部102は図2(b)に示す内部構成を有するものとして扱う。なお、図示しない撮像部103〜105については、図2(b)に示される撮像部102の内部構成と同様の内部構成を取るものとする。
図3は、カメラ100の内部構成を示すブロック図である。中央処理装置(CPU)302は、以下に述べる各部を統括的に制御する。RAM303は、CPU302の主メモリ、ワークエリア等として機能する。ROM304は、CPU302で実行される制御プログラム等を格納している。
バス301は、各種データの転送経路となる。例えば、撮像部102〜105によって取得されたデジタルデータは、このバス301を介して各構成部に伝送される。操作部305はユーザの指示を受け取るためのユーザインタフェースである。操作部305には具体的にはボタンやモードダイヤルなどが含まれ、撮像指示やズーム指示を受け取ることができる。表示部307は撮像画像や文字の表示を行なうディスプレイであり、例えば、液晶ディスプレイが用いられる。また、表示部307はタッチスクリーン機能を有していても良い。その場合はタッチスクリーンを用いた撮像指示やズーム指示などのユーザ指示を操作部305の入力として扱うことも可能である。
表示制御部306は、表示部307に表示される画像や文字の表示制御を行う制御回路である。撮像制御部308は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなど、CPU302からの指示に基づいて撮像部の光学系の制御を行う制御回路である。カメラ100は、この撮像制御部308の制御に基づき、所定の絞り値とピント距離に各撮像部を設定した後に、撮像部102〜105を用いて同時撮像を行う。デジタル信号処理部309は、バス301を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種画像処理を行う処理回路である。
エンコード部310は、バス301を介して受取ったデジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う処理回路である。外部メモリ制御部311は、カメラ100を、外部メモリ312(例えば、PC、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に結合するためのインターフェースである。画像処理部313は、撮像部102〜105で取得されたデジタルデータ等或いは、デジタル信号処理部309から出力されるデジタルデータ等を用いて画像合成などの画像処理を行う処理回路である。画像処理部313は、例えば、本実施例において開示される画像処理装置により、撮像部102〜105より取得されたそれぞれ視点位置の異なる画像を用いて、同一の視点から撮像された画像を仮想的に生成する画像処理を行なう。なお、撮像装置の構成要素は上記以外にも存在するが、本発明の主眼ではないので、説明を省略する。
以上が本実施例におけるカメラ100の構成である。以下、本実施例におけるカメラ100で行われる処理について図を参照しながら説明する。図4は、画像処理部313の構成をさらに細分化した機能ブロック図である。画像処理部313は、合焦領域検出部401(以下、検出部401とする)、画像シフト部402、被写界深度拡大部403(以下、拡大部403とする)、そして前述の各構成部を接続するインターフェース405としての機能を有する。カメラ100は、CPU302が、ROM304に格納されたプログラムを実行することで、図4に示す画像処理部313の各構成部を制御し、図5のフローチャートに示す処理を実現する。なお、この処理は、画像処理部313で行われる処理の一部または全部をCPU302が行うようにしてもよいし、図5のフローチャートに示す処理がプログラムを読み込まずとも自動的に実行されるような処理回路をカメラ100が設けるようにしてもよい。
図5は、カメラ100で行われる処理の流れを示すフローチャートである。まず、ステップS501では、インターフェース405が撮像部102〜105によって同時撮像された画像データをバス301を介して取得し、検出部401と画像シフト部402に出力する。ここでインターフェース405が取得する画像データは、撮像部に102〜105から直接出力された画像データでも良いし、RAM303や外部メモリ312に一旦保存された画像データであってもよい。以下、本実施例のカメラ100で行われる処理において用いられる画像データについて、図6(a)および(b)を参照して説明する。
図6(a)は、本実施例における撮像部と被写体の間の位置関係を模式的に示す図である。Zは各撮像部の光軸に平行な軸であり、x軸はz軸に垂直な平面における各撮像部の位置を示している。被写体A601は位置aに、被写体B602は位置bに、被写体C603は合焦位置cに配置されている。各撮像部と位置aとの間の距離をDa、各撮像部と位置bとの間の距離をDb、各撮像部と位置cとの間の距離をDcとすると、三者の関係はDa<Db<Dcである。
図6(b)は、図6(a)に示すシーンを撮像部102〜105によって撮像した画像を示す模式図である。画像604は撮像部102によって撮像された画像を、画像605は撮像部103によって撮像された画像を、画像606は撮像部104によって撮像された画像を、画像607は撮像部105によって撮像された画像を示す。撮像部102は、被写体A601、被写体B602、被写体C603の全ての被写体に合焦させるため、撮像部103〜105よりも絞り値を大きく設定することで被写界深度を深くしている。また、撮像部102は撮像部103〜105と同じシャッター時刻、同じ露出時間で撮像する。これらの要因により、画像604は画像605〜607に比べて、全ての被写体に概ね合焦しているものの、相対的にS/N比が低く、固定パターンノイズやランダムノイズがより顕著となる。
画像605は、撮像部103によって、被写体A601に合焦するように撮像された画像である。また、画像606は、撮像部104によって、被写体B602に合焦するように撮像された画像であり、画像607は、撮像部105によって被写体C603に合焦するように撮像された画像である。画像605〜607を撮像する撮像部103〜105の絞り値は撮像部102の絞り値よりも相対的に小さく設定されており、被写界深度は浅くなっている。そのために一部の被写体にしか一度に合焦できないが、相対的にS/N比が高く、固定パターンノイズやランダムノイズが低減される。
また、撮像部102〜105はそれぞれ撮影視点位置が異なる。このため、得られる画像604〜607の視点位置もそれぞれ異なるものとなる。上記のように、撮像部102〜105によって同時に撮像される複数の画像は、視点位置がそれぞれ異なる。又、複数の画像は、合焦位置がそれぞれ異なる相対的に被写界深度の浅い複数の画像と、全ての合焦位置に合焦している相対的に被写界深度の深い画像によって構成される。
また、撮像部102〜105は同じシャッター時刻で撮像するため、画像間において被写体の動きやカメラの動きによる被写体の画像上の結像位置のずれは無くなる。また、撮像部102〜105は同じ露出時間で撮影するため、画像間において被写体の動きやカメラの動きによる被写体の画像上の結像のぶれの程度は同じになる。
以上が本実施例で用いる画像データの概要である。本実施例のカメラ100では、撮像制御部308が撮像部102〜105のセンサ位置や絞りを制御することで上記に示した被写界深度や合焦位置の画像を取得するが、本発明の形態はこれに限られない。例えば、各撮像部のレンズの口径や焦点距離、センサ位置などをあらかじめ異なる値で設定しておき、撮像制御部308による制御なしに上記に示した画像を撮像できるように構成してもよい。また、各画像は完全な同時刻で撮像される必要はなく、被写体ぶれや手ぶれが発生しないような極めて短い間隔で時間をずらして撮像した場合も同時撮像とみなすものとする。また、本実施例において、撮像部103〜105はそれぞれ同じ絞り値を用いて撮像するが、撮像部102よりも小さな絞り値を用いていれば、互いに異なる絞り値を用いて撮像を行うようにしてもよい。
以下、カメラ100で行われる処理の説明に戻る。ステップS502では、検出部401が、ステップS501で取得した各画像データの合焦領域の検出を行う。この処理の詳細については後述する。検出部401は、取得した各画像データと、検出した各画像データの合焦領域を示す情報を画像シフト部402に出力し、ステップS503に進む。ステップS503では、画像シフト部402が、検出部401から入力された各画像データの合焦領域を示す情報に基づいて、ステップS501で取得した各画像データの位置合わせを行う。この処理の詳細については後述する。画像シフト部402は、位置合わせを行った画像データを拡大部403に出力し、ステップS504に進む。
ステップS504では、拡大部403が、画像シフト部402から入力された位置合わせ後の画像データを用いて、合成することで、被写界深度が拡大された画像データを生成する。この処理の詳細についても後述する。
以上が、本実施例のカメラ100で行われる処理の流れである。以下、カメラ100で行われる各処理の詳細について説明する。まず、検出部401で行われる合焦領域検出処理(S502)について、図7に示すブロック図及び図8に示すフローチャートを参照して説明する。合焦領域検出部は、エッジ抽出部701、変形部702、ボケ領域判別部703(以下、判別部703とする)、ボケ付加部704を有している。
ステップS801では、エッジ抽出部701が、ステップS501で取得した画像データのエッジ情報を抽出する。エッジ情報の抽出方法としては、ラプラシアンフィルタ、キャニーエッジ抽出方法、LoG(Laplacian of Gaussian)フィルタ、DoG(Difference of Gaussian)フィルタなどの公知の方法が適用可能である。本実施例においてはDoGフィルタを適用して各画像データのエッジ情報の抽出を行う。ここで抽出されるエッジ情報は、エッジ抽出を行った画像データの各画素位置に対応するエッジ強度を示す画像データである。エッジ抽出部は、抽出したエッジ情報を変形部702に、S501で取得した画像データをボケ付加部704に出力してステップS802に進む。
ステップS802では、変形部702が、S702にて抽出されたエッジ情報に膨張・収縮処理を行なう。膨張・収縮処理は、エッジ情報を示す画像に膨張処理を適用した後に収縮処理を適用することで実現される。画像の膨張処理は、入力される画像内の処理対象画素において、処理対象画素を中心とするパッチ内の最大値を求める最大値フィルタ処理を画像に適応することで実現される。画像の収縮処理は、入力される画像内の処理対象画素において、処理対象画素を中心とするパッチ内の最小値を求める最小値フィルタ処理を入力される画像に適応することで実現される。パッチのサイズは3x3ピクセルよりも大きいものを用いるのが好ましいが、他のサイズのフィルタを用いるようにしてもよい。なお、ここで行う膨張・収縮処理は、エッジ情報からエッジが多く存在する領域を抽出するための処理であり、膨張・収縮処理以外の他の処理で代替してもよい。例えば、平滑化フィルタを用いるようにしてもよい。また、ここで挙げた画像の膨張処理、収縮処理は一例であり、他にもモルフォロジー演算のエロージョン・ダイレーション・オープニング・クロージングなどを用いることができる。変形部702は、膨張・収縮処理を行ったエッジ情報を判別部703に出力してステップS803に進む。
ステップS803では、判別部703が、入力された全ての画像データに対して、ステップS801とステップS802の処理が実行されたかどうかを判定する。入力された全ての画像データに対してステップS801とステップS802の処理が実行されたと判定された場合、ステップS804に進む。入力された全ての画像データに対してステップS801とステップS802の処理が実行されていないと判定された場合は、ステップS801に戻り、まだ処理を行っていない画像に対してステップS801とステップS802の処理を実行する。
ステップS804では、判別部703が、変形部702から入力された、膨張・収縮処理が行われたエッジ情報を比較して、エッジ情報にボケを付与する領域を示す分散値マップを生成する。ここでは、エッジ情報の3種類の組み合わせで比較が行われる。撮像部102で撮像された被写界深度の深い画像を画像W、撮像部103で撮像された被写界深度の浅い画像を画像A、撮像部104で撮像された被写界深度の浅い画像を画像B、撮像部105で撮像された被写界深度の浅い画像を画像Cとして説明する。1組目は、画像Wのエッジ情報と画像Aのエッジ情報の組み合わせであり、2組目は画像Wのエッジ情報と画像Bのエッジ情報の、3組目は画像Wのエッジ情報と画像Cのエッジ情報の組み合わせである。
被写界深度の浅い画像A〜Cから算出されるエッジ情報をEdgeShallow(x,y)、被写界深度の深い画像Wから算出されるエッジ情報をEdgeDeep(x,y)とすると、算出する分散値マップVar(x,y)は以下の式1で表される。
但し、a=EdgeDeep(x,y)−EdgeShallow(x,y)である。xおよびyはそれぞれ2次元画像平面での座標値を示しており、wとθはあらかじめ定められた定数である。jは被写界深度が浅い画像の番号を示しj=1が画像Aに、j=2が画像Bに、j=3が画像Cに対応する。すなわち、ここでは画像A〜Cのそれぞれに対応する分散値マップが計3枚生成される。この分散値マップは、画像A〜Cの、画像Wとの差が大きい領域にボケを付加し、画像Wとの差が小さい領域にはボケを付加しないことを示す分散マップが生成される。これにより画像A〜Cの合焦領域以外の領域のボケを強調した画像を生成するための情報が生成される。判別部703は、式1にエッジ情報を代入することで生成した分散値マップをボケ付加部704に出力し、ステップS805に進む。
ステップS805では、ボケ付加部704が、画像A〜Cのそれぞれに、対応する分散値マップに基づくボケ付加処理を行う。ボケ付加後の画像の画素値ImgShallowBlur(x,y)は、ボケのPSF(Point Spread Function:点像分布関数)を用いて以下の式で表わすことができる。
ここで、uおよびvはボケを付加するために用いるフィルタの大きさを示す定数であり、例えばフィルタの大きさが5×5画素の場合は、u=v=5となる。kおよびlは画像ブロック内の参照画素を示す定数であり、kは0〜uの値をとる整数、lは0〜vの値をとる整数である。なお、数04はuとvが共に奇数であり、類似度算出の対象となる画素を中心とした対称的な形状のフィルタを用いてボケ付加を行う場合に用いる式であり、フィルタの形状や配置に応じて自由に変更可能である。ボケ付加部704は、式2に示すフィルタを用いて画像A〜Cにボケを付加したら、画像Wとボケ付加後の画像A〜Cを画像シフト部402に出力して処理を終了する。
以上が、検出部401で行われる処理の詳細である。この処理により、各被写界深度の浅い画像の合焦領域以外の領域にボケが付加された画像データが、画像シフト部402に出力される。
次に、画像シフト部402で行われる位置合わせ処理(ステップS503)の詳細について、図9に示すブロック図と図10に示すフローチャートを参照して説明する。画像シフト部402は、特徴点抽出部901、対応付け部902、行列算出部903、射影変換部904としての機能を有している。ステップS1001では、特徴点抽出部901が、検出部401から入力された、被写界深度の深い画像と、ボケが付加された各被写界深度の浅い画像とにおける、画像中の特徴点を抽出する。特徴点を抽出するために用いられる特徴点抽出器には、SIFT(Scale Invariant Feature Tracking)やSURF(Speeded Up Robust Features)などの公知の方法を適用することができる。特徴点抽出部901は、抽出した特徴点を示す情報を、対応付け部902に出力し、ステップS1002に進む。
ステップS1002では、対応付け部902が、ステップS1001で検出された複数の特徴点間の対応を検出する。ここでは3種類の対応関係が検出される。1つめは、画像Wで検出された特徴点群と、ボケが付加された画像Aで検出された特徴点群との対応関係である。そして、2つめは同じく画像Wで検出された特徴点群と、ボケが付加された画像Bで検出された特徴点群との対応関係であり、3つ目は、同じく画像Wで検出された特徴点群と、ボケが付加された画像Cで検出された特徴点群との対応関係である。
以下、具体的な対応関係の検出法について述べる。SURFの場合を例に挙げると、SURFでは検出されたそれぞれの特徴点は64次元の特徴ベクトル(64個の特徴量)で記述される。この特徴量を用いて2枚の画像のうちの一方の画像上の1つの特徴点について、もうひとつの画像の複数の特徴点からK近傍探索により、特徴量の近い特徴点を探索する。特にK=1の場合、最も特徴量の近い特徴点が探索される。SIFTを用いた場合も同様の処理となるが、SIFTの場合特徴ベクトルは128次元となる。この処理を、上記の三種類の画像の組み合わせで行う。なお、この組み合わせの数は、用いる画像の種類と数に応じて適応的に変化させてよい。対応付け部902は、ここで検出した各特徴点の対応関係を示す情報を、行列算出部903に出力してステップS1003に進む。
ステップS1003では、行列算出部903が、ステップS1002で検出された各特徴点の対応関係に基づいて、画像A〜Cを画像Wの視点にシフトするための射影変換行列(ホモグラフィ行列)を算出する。ホモグラフィ行列は3x3の行列であり、2枚の画像間の射影関係を表す行列である。ホモグラフィ行列は、画像間で対応する複数の特徴点の組の座標値を用いて算出することができる。理論上は4組の対応点(対応付いた特徴点)があればホモグラフィ行列を算出できるが、実際は4組では精度よく算出できないため、ここでは、座標値の誤差を正規分布と仮定して、用いる対応点の数を多くして最少二乗法によってホモグラフィ行列を算出する。ステップS805で、画像A〜Cには合焦領域以外の領域にボケが付加されているため、ステップS1001で検出される画像A〜Cの特徴点は、画像A〜Cの合焦領域に集中する。そのため、ここでは画像A〜Cの合焦領域に基づくホモグラフィ行列が算出されるので、画像A〜Cの合焦領域が、画像Wの対応する領域に精度良く重なるような位置合わせを行うことができる。行列算出部903は、算出した3つのホモグラフィ行列を射影変換部904に出力し、ステップS1004に出力する。
ステップS1004では、射影変換部904が、行列算出部903から入力されたホモグラフィ行列を用いて、ステップS501で取得した画像A〜Cを射影変換する。射影変換部904は、画像Wと、射影変換した画像A〜Cを拡大部403に出力して処理を終了する。以上が画像シフト部402で行われる処理の詳細である。この処理により、画像A〜Cは、それぞれの合焦領域が画像Wの対応する画像領域と精度よく重なるように位置合わせされる。なお、ここではボケを付加した画像について特徴点を抽出することで、合焦領域における対応関係を精度よく求めたが、必ずしもこのような処理を行う必要はない。例えば、合焦領域を判定したらボケを付加せずに、単に特徴点の抽出を行う領域を限定するようにしてもよい。
次に、拡大部403で行われる被写界深度拡大処理(ステップS504)の詳細について、図11に示すブロック図および図12に示すフローチャートを参照して説明する。拡大部403は、類似度算出部1101、マップ変形部1102、重み決定部1103、フィルタ処理部1104、合成部1105としての機能を有している。
ステップS1201では、類似度算出部1101が、画像シフト部402から入力された、画像Wと、位置合わせ後の画像A〜Cとの間の類似度を算出する。類似度は、射影変換後の画像A〜Cと、画像Wの、同じ画素位置に対応する画像ブロックの画素値の比較により求められ、ステップS1002での対応付けと同様に3種類の組み合わせで計算される。本実施例における類似度は、画像ブロック内の画素値の差分二乗平均の逆数として以下の式4で示される。
ここで、S(x,y)は画素位置(x、y)における類似度であり、ImgDeep(x、y)は画素位置(x、y)における画像Wの画素値、ImgShift(x、y)は、画素位置(x、y)における、位置合わせ後の画像A〜Cの画素値である。なお、jは画像A〜Cの番号を示しており、j=1が画像Aに、j=2が画像Bに、j=Cが画像Cに対応する。uおよびvは類似度算出に用いる画像ブロックの大きさを示す定数であり、例えば類似度算出に用いる画像ブロックの大きさが5×5画素の場合は、u=v=5となる。kおよびlは画像ブロック内の処理対象画素を示す定数であり、kは0〜uの値をとる整数、lは0〜vの値をとる整数である。なお、数04はuとvが共に奇数であり、類似度算出の対象となる画素を中心とした対称的な画像ブロックを用いて類似度を算出する場合に用いる式であり、画像ブロックの形状や配置に応じて自由に変更可能である。また、類似度は画像A〜Cと画像Wの間の画像の類似度合いを示す値であれば、他の式で表わされる様々な値を用いることが可能である。例えば、以下の式で表わされるL1ノルムを用いるようにしてもよい。
なお、類似度の算出を行った画像ブロック間で画素値が全く同じ場合などは上記の式を用いた計算の結果が発散してしまう。そのため、ImgDeepとImgShiftの差分(二乗)和が0であったり閾値よりも小さい場合には、所定の十分大きな類似度を割り当てるようにすればよい。類似度算出部1101は、入力された各画像の画素値を式4に代入して計算することで、画像A〜Cそれぞれについて、各画素における画像Wとの類似度をマッピングした類似度マップを生成する。そして生成した類似度マップをマップ変形部1102に、画像Wと位置合わせ後の画像A〜Cを合成部1105に出力し、ステップS1202に進む。
ステップS1202では、マップ変形部1102が、類似度算出部1101から入力された各類似度マップに膨張・収縮処理を行なう。膨張・収縮処理の詳細はステップS802でエッジ情報に行うものと同様であるので、説明を省略する。マップ変形部は、膨張・収縮処理を行った類似度マップを重み決定部1103に出力し、ステップS1203に進む。
ステップS1203では、重み決定部1103が、マップ変形部1102から入力された各類似度マップを比較し、画像A〜Cの合成に用いる重み値を決定する。このステップでは、画像Wの各画素において、画像A〜Cのうち最も画像Wとの類似度が高い画像を判定し、画像Wとの類似度が最も高い画像として判定された画像の重みを他の画像の重みよりも大きくする。これは、画像Wでは全ての被写体に合焦しているという前提を利用した処理であり、ある画素において画像Wとの類似度が高い画像は、その画素において画像Wと同様に合焦していることを示している。各画素位置(x、y)における各画像の重みW(x、y)は、具体的には以下の式で表わされる。
以上の式に基づいて重み値を決定すれば、各画素位置で最もピントが合っている画像の画素値が被写界深度拡大画像の画素値として選択されるので、幅広い範囲で合焦した画像を得ることができる。なお、重み値は必ずしも画像A〜Cだけに設定する必要はなく、画像Wについても重み値を設定するようにしてもよい。例えば、ある画素位置において類似度Sjが閾値以上となる画像が存在しない場合には、その画素位置で合焦している画像がA〜Cに存在しないことを意味するので、その画素位置では画像Wの画素値を選択するようにしてもよい。そのような処理により被写界深度がより拡大された画像を得ることができる。この場合の重み値の設定は、式6に加え、以下の式に基づいて行うことができる。
ここで、W(x、y)は画像Wの重み値、thは、あらかじめ定められた閾値である。
なお、各画像の重み値は必ずしも1もしくは0にする必要はなく、類似度が最も高い画像(閾値を超える類似度を有する画像が存在しない場合は、画像W)の重みが他の画像の重みよりも大きくなるように設定すればよい。重み決定部1103は、数06に基づいて決定した重み値マップをフィルタ処理部1104に出力し、ステップS1204に進む。
ステップS1204では、フィルタ処理部1104が、重み決定部1103から出力された重み値マップにコンボリューションフィルタによる処理を行う。本実施例ではガウシアンフィルタによりボケを付加するが、重み値マップをぼかすために用いることのできるフィルタは広く利用可能である。この処理により、画像合成後の各領域の境界が目立たなくなる。フィルタ処理部1104は、フィルタ処理を行った重み値マップと、位置合わせ後の画像A〜Cを合成部1105に出力して、ステップS1205に進む。
ステップS1205では、合成部1105が、フィルタ処理部1104から出力された重み値マップに基づいて、位置合わせ後の画像A〜Cを合成する。合成後の画像の画素値O(x、y)は、以下の式で表わされる。
なお、ステップS1203で画像Wについても重み値を設定した場合、合成後の画像の画素値O(x、y)は以下の式で表わされる。
合成部1105は、上記の式に各重み値と画素値を代入して被写界深度を拡大した合成画像を生成し、表示制御部306や外部メモリ制御部311などに出力して処理を終了する。
以上が本実施例のカメラ100で行われる処理である。以上の処理によれば、複数の異なる視点から同時撮像された、それぞれ異なる距離に合焦された複数の画像の位置合わせを精度よく行うことができ、その結果、良好な被写界深度拡大画像を得ることができる。なお、式9などに基づいて画像Wも合成に用いる場合には、画像Wにエッジ保存型の平滑化フィルタ等を適用してから合成を行うと、よりノイズが少なく被写界深度の深い画像を得ることができる。
なお、本実施例において、撮像制御部308は、複数の撮像部の光学系を制御する制御手段として機能する。また、インターフェース405は、第一の絞り値で第一の距離にピントを合わせて撮像された第一の画像と、第二の絞り値で第一の距離とは異なる第二の距離にピントを合わせて撮像された第二の画像とを取得する取得手段として機能する。また、インターフェース405は、さらに前記第一の絞り値と前記第二の絞り値とよりも大きな第三の絞り値で撮像された第三の画像とを取得する取得手段として機能する。また、画像シフト部402は、前記第一の画像と前記第二の画像とを、前記第三の画像に基づいて位置合わせする位置合わせ手段として機能する。また、拡大部403は、前記位置合わせ手段により位置合わせされた前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりも被写界深度の深い合成画像を生成する合成手段として機能する。また、類似度算出部1101は、位置合わせされた第一の画像と第三の画像との間および、位置合わせされた第二の画像と第三の画像との間で、画像中の同じ位置に対応する画像領域ごとに、画像の類似度合いを示すパラメータを算出する算出手段として機能する。
<実施例2>
実施例1では、被写界深度拡大画像の生成に用いる各画像の合焦領域に基づいて画像合成の重みを変える一例について説明した。実施例2では、より自然なボケ味を有する被写界深度拡大画像を生成する方法について説明する。本実施例では、ステップS504の被写界深度拡大処理の内容が実施例1と異なっている。本実施例のカメラ100の構成は実施例1と同様であるので、説明を省略し、以下、本実施例のカメラ100で行われる被写界深度拡大処理について、図13に示すフローチャートを参照して説明する。なお、実施例1と同様の処理については、図12と同じ符号を付して説明を省略する。
ステップS1301では、フィルタ処理部1104が、画像Wに、シフト後の画像A〜Cを用いたジョイントバイラテラルフィルタによる処理を行う。ジョイントバイラテラルフィルタは、処理に用いるフィルタの係数値を、処理対象画素からの参照画素の距離と、処理対象画素とは異なる参照画像の画素値に基づいて決定したフィルタである。ここでは、フィルタ処理を、処理対象画像を画像W、参照画像をシフト後の画像A〜Cのうちの一枚として3回のフィルタ処理を行い、3枚のフィルタ処理後画像ImgFilter(x,y)を生成する。ImgFilter(x,y)は以下の式で表わされる。
ここで、hはフィルタ処理を行なうパッチ内の各画素の重み係数を表し、σsはhの距離に基づく項の分散を、σrはhの画素値に基づく項の分散を示す。ここで生成される3枚のフィルタ処理済み画像は、画像A〜Cの画素値に基づいたフィルタ処理が行われているので、画像A〜Cそれぞれのボケ状態を反映した画像となる。その例を図14を参照して説明する。図14(a)はフィルタ処理を行っていない画像W、図14(b)は遠景に合焦したシフト後の画像C、図14(c)は画像Cを参照画像としてジョイントバイラテラルフィルタ処理を行った画像Wを示す。各画像の左側が画像の全体を、中央が近景の鎖線で囲まれた領域の拡大像を、右側が円形の点線で囲まれた領域の拡大像を示す。図14(a)〜(c)を比較すると、遠景の部分では、どの画像も鮮鋭な像が得られているのが分かる。しかし、近景の部分では、フィルタ処理前の画像Wでは鮮鋭な像が得られていたにもかかわらず、画像Cのボケの影響を受けて、フィルタ処理後の画像Wでもボケが発生している。このように、ジョイントバイラテラルフィルタを用いることで、被写界深度の浅い画像のボケ状態に応じたボケを画像Wに付加することができる。フィルタ処理部1104は、式10に示すフィルタを画像Wに適用し、生成した3枚のフィルタ処理済み画像を合成部1105に出力してステップS1302に進む。なお、ここで用いるフィルタは必ずしもジョイントバイラテラルフィルタである必要はなく、ガイデッドフィルタなどの他のフィルタを用いるようにしてもよい。
ステップS1302では、合成部1105が、フィルタ処理部1104から入力されたフィルタ処理済みの画像Wと重みマップに基づいて、画像A〜Cとフィルタ処理済みの画像Wを合成し、3枚の補正シフト画像を生成する。補正シフト画像の画素値をImgShift’(x,y)は以下の式で表わされる。
ImgShift’(x,y)=W(x,y)・ImgShift(x,y)+(1−W(x,y))・ImgFilter(x,y) (式11)
式11で表わされる補正シフト画像は、シフト後の画像A〜Cの非合焦領域を、フィルタ処理済みの画像Wで置き換えたものである。シフト後の画像A〜Cは、合焦領域が画像Wと重なるように位置合わせを行った画像であるため、非合焦領域において画像Wと位置ずれが生じているが、式11で示される合成処理によって、全ての領域において画像Wに重なるような画像に補正される。また、合成に用いられたフィルタ処理済みの画像Wには、フィルタ処理の参照画像として用いられたシフト後の画像A〜Cのボケ状態が反映されているため、補正シフト画像にも画像A〜Cのボケ状態の情報が残っている。合成部1105は、フィルタ処理部1104から入力されたフィルタ処理済みの画像Wおよびシフト後の画像A〜Cの画素値と、重み値を式11に代入して3枚の補正シフト画像を生成し、ステップS1303に進む。
ステップS1303では、合成部1105が、ステップS1302で生成された3枚の補正シフト画像のボケ状態を比較し、3枚の補正シフト画像の合成処理に用いる重み値を決定する。以下、重み値の決定方法について説明する。2枚の合焦位置の異なる画像g(x,y)とg(x,y)とが存在する時に、以下の式12により、2枚の画像のボケ状態の違いを示す評価値J1、2を得る。
ここで、g (k)(x,y)、はg(x,y)に段階的に程度の異なるボケを付加した画像であり、rはボケ状態の比較に用いる画像ブロックの半径を示している。なお、g (k)(x,y)は以下の式13により求められる。
(k)(x,y)=h(x,y;k)*g(x,y) (式13)
ここで、h(x,y;k)は以下の式14で表わされる点像分布関数である。
式14において、ΔRはボケの半径の増分である。上記の式で示される評価値J1を用いてg(x,y)に与えられる重み値b(x,y)は以下の式15に基づいて算出される。
ここで、thは0〜1の値で設定される閾値パラメータである。計算の結果b1,2(x,y)が負の値をとった時は、b1、2(x、y)は0に置き換えれば良い。合成部1105は、3枚の補正シフト画像をそれぞれg1(x、y)、g2(x、y)、g3(x、y)として上記の式12〜15に代入する。そして代入した値に基づいて、重み値b1、2(x、y)、b2、1(x、y)、b1、3(x、y)、b3、1(x、y)、b2、3(x、y)、b3、2(x、y)を求める。ここで、b2、1(x、y)はg(x、y)とg(x、y)の合成においてg(x、y)に与える重みを示し、b3、2(x、y)はg(x、y)とg(x、y)の合成においてg(x、y)に与える重みを示す。
ステップS1304では、合成部1105が、ステップS1303で求められた重み値を用いて3枚の補正シフト画像を合成し、3枚の被写界深度部分拡大画像を生成する。ここでは、3枚の補正シフト画像から2枚ずつ選択した3組を合成する。例えば、g(x、y)とg(x、y)との合成により生成される部分被写界深度拡大画像g1,2’(x,y)は、以下の式16で表わされる。
他の組み合わせの合成を行う場合は、式16中の各変数をそれぞれ対応する画像の画素値と重み値に置き換えればよい。合成部1105は、各画像の重み値と画素値を式16に代入し、被写界深度部分拡大画像g1,2’(x,y)、g1,3’(x,y)、g2,3’(x,y)を生成し、ステップS1305に進む。
ステップS1305では、合成部1105が、ステップS1304で生成された3枚の被写界深度部分拡大画像を合成することで、全ての領域で合焦した最終的な出力画像Output(x、y)を生成する。被写界深度部分拡大画像の合成は、以下の式に基づいて行われる。
Output(x,y)=MEDIAN(g1,2’(x,y),g1,3’(x,y),g2,3’(x,y)) (式17)
MEDIAN(A,B,C)は与えられた画素値A、B、Cの中央値を出力とする関数である。g1,2’(x,y)、g1,3’(x,y)、g2,3’(x,y)は、近景・中景・遠景の3つの距離のうち、それぞれ2つの距離に概ね合焦している。このため、g1,2’(x,y)、g1,3’(x,y)、g2,3’(x,y)の同一座標における画素値の中央値を取ることで、近景・中景・遠景の全てに合焦した画像情報の画素値を取得することができる。合成部1105は、3枚の被写界深度部分拡大画像の画素値を式17に代入し、生成された出力画像を表示制御部306や外部メモリ制御部311などに出力して処理を終了する。
以上が本実施例のカメラ100で行われる被写界深度拡大処理の流れである。以上の処理によれば、実施例1よりも自然なボケ味を有する被写界深度拡大画像を得ることができる。
(その他の実施例)
上記の実施例では、得られた複数の画像を合成して被写界深度拡大画像を生成する場合に、どの領域にどの画像の画素値をあてはめるかをカメラ100が自動的に決定する例について述べたが、画素値の割り当てが他の方法で決定されるようにしてもよい。例えば、上記の実施例の方法で位置合わせおよび合成を行った画像をユーザに対して表示し、表示した画像に基づいてユーザが各画像の合成の重みを微調整できるようにしてもよい。そのような捜査の為のユーザインタフェースの例として、合成において最も重みが大きい画像が切り替わる境界をユーザに対して表示し、ユーザがその境界に対して変形命令を入力することで、重みづけの仕方を変えられるように設計してもよい。例えば、境界を移動させることで位置ごとに各画像に与える重みの傾斜を変化させたり、境界をぼかすことで境界における重みに連続性を持たせたりできるようにしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 多眼カメラ
102〜105 撮像部
302 CPU
303 RAM
304 ROM
308 撮像制御部
313 画像処理部

Claims (7)

  1. 第一の絞り値で第一の距離にピントを合わせて撮像された第一の画像と、第二の絞り値で第一の距離とは異なる第二の距離にピントを合わせて撮像された第二の画像と、前記第一の絞り値と前記第二の絞り値とよりも大きな第三の絞り値で撮像された第三の画像とを取得する取得手段と、
    前記第一の画像と前記第二の画像とを、前記第三の画像に基づいて位置合わせする位置合わせ手段と、
    前記位置合わせ手段により位置合わせされた前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりも被写界深度の深い合成画像を生成する合成手段を有し、
    前記合成手段は、前記位置合わせ手段により位置合わせされた前記第一の画像と前記第三の画像との間および、前記位置合わせ手段により位置合わせされた前記第二の画像と前記第三の画像との間で、画像中の同じ位置に対応する画像領域ごとに、画像の類似度合いを示すパラメータを算出する算出手段を有し、
    前記合成手段は、前記パラメータに基づいて前記合成画像を生成
    することを特徴とする画像処理装置。
  2. 前記位置合わせ手段は、前記第一の画像中の、前記第一の距離に存在する被写体が、前記第三の画像中の、前記第一の距離に存在する被写体に重なり、前記第二の画像中の、前記第二の距離に存在する被写体が、前記第三の画像中の、前記第二の距離に存在する被写体に重なるように、前記第一の画像と前記第二の画像とをシフトすることを特徴とする請求項1に記載の画像処理装置。
  3. 前記合成手段は、前記第一の画像と前記第三の画像との間の類似度合いが前記第二の画像と前記第三の画像との類似度合いよりも高い画像領域では、前記合成における前記第一の画像の重みを前記第二の画像の重みよりも大きくし、前記第二の画像と前記第三の画像との類似度合いが前記第一の画像と前記第三の画像との間の類似度合いよりも高い画像領域では、前記合成における前記第三の画像の重みを前記第一の画像の重みよりも大きくすることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記合成手段は、前記第一の画像と前記第二の画像と前記第三の画像とを合成することで前記合成画像を生成し、前記第一の画像と前記第三の画像との間の類似度合いと、前記第二の画像と前記第三の画像との間の類似度合いの少なくとも一方が所定の閾値を超えている画像領域では、前記合成における前記第三の画像の重みを、前記第一の画像および前記第二の画像の重みよりも小さくし、前記第一の画像と前記第三の画像との間の類似度合いと、前記第二の画像と前記第三の画像との間の類似度合いのどちらもが所定の閾値を超えない画像領域では、前記合成における前記第三の画像の重みを、前記第一の画像および前記第二の画像の重みよりも大きくすることを特徴とする請求項に記載の画像処理装置。
  5. 請求項1乃至のいずれか一項に記載の画像処理装置としての機能を有し、前記第一の画像を撮像する第一の撮像部と、前記第二の画像を撮像する第二の撮像部と、前記第三の画像を撮像する第三の撮像部とを更に有することを特徴とする撮像装置。
  6. 第一の絞り値で第一の距離にピントを合わせて撮像された第一の画像と、第二の絞り値で第一の距離とは異なる第二の距離にピントを合わせて撮像された第二の画像と、前記第一の絞り値と前記第二の絞り値とよりも大きな第三の絞り値で撮像された第三の画像とを取得するステップと、
    前記第一の画像と前記第二の画像とを、前記第三の画像に基づいて位置合わせするステップと
    前記位置合わせステップにより位置合わせされた前記第一の画像と前記第三の画像との間および、前記位置合わせ手段により位置合わせされた前記第二の画像と前記第三の画像との間で、画像中の同じ位置に対応する画像領域ごとに、画像の類似度合いを示すパラメータを算出する算出ステップと、
    前記パラメータに基づいて、前記位置合わせ手段により位置合わせされた前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりも被写界深度の深い合成画像を生成する合成ステップと
    を含むことを特徴とする画像処理方法
  7. コンピュータを請求項1乃至のいずれか一項に記載の画像処理装置の各手段として機能させることを特徴とするプログラム。
JP2014118114A 2014-06-06 2014-06-06 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム Active JP6347675B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014118114A JP6347675B2 (ja) 2014-06-06 2014-06-06 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム
US14/728,390 US9607240B2 (en) 2014-06-06 2015-06-02 Image processing apparatus, image capturing apparatus, image processing method, image capturing method, and non-transitory computer-readable medium for focus bracketing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014118114A JP6347675B2 (ja) 2014-06-06 2014-06-06 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015231220A JP2015231220A (ja) 2015-12-21
JP6347675B2 true JP6347675B2 (ja) 2018-06-27

Family

ID=54770561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014118114A Active JP6347675B2 (ja) 2014-06-06 2014-06-06 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム

Country Status (2)

Country Link
US (1) US9607240B2 (ja)
JP (1) JP6347675B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9667857B2 (en) * 2014-10-09 2017-05-30 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus with adjustable noise level reduction
US20160307350A1 (en) * 2015-04-14 2016-10-20 Magor Communications Corporation View synthesis - panorama
WO2016203282A1 (en) * 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
NL2017933A (en) * 2015-12-18 2017-06-26 Asml Netherlands Bv Focus monitoring arrangement and inspection apparatus including such an arrangement
US9633445B1 (en) * 2016-01-20 2017-04-25 Motorola Mobility Llc Calculating a sharpness value
US10863077B2 (en) * 2016-09-12 2020-12-08 Huawei Technologies Co., Ltd. Image photographing method, apparatus, and terminal
JP6997969B2 (ja) * 2016-11-07 2022-01-18 日本電気株式会社 画像合成システム、画像合成方法、および画像合成プログラム記録媒体
JP6838994B2 (ja) * 2017-02-22 2021-03-03 キヤノン株式会社 撮像装置、撮像装置の制御方法およびプログラム
CN108513097A (zh) * 2017-02-27 2018-09-07 杭州海康威视数字技术股份有限公司 一种多目摄像装置和监控系统
JP6800797B2 (ja) * 2017-03-31 2020-12-16 キヤノン株式会社 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム
JP7158841B2 (ja) * 2017-11-08 2022-10-24 キヤノン株式会社 撮像装置、撮像方法、プログラム、記録媒体および画像処理装置
JP2019161462A (ja) * 2018-03-13 2019-09-19 キヤノン株式会社 制御装置、画像処理システム、制御方法、及びプログラム
CN110830756B (zh) * 2018-08-07 2022-05-17 华为技术有限公司 一种监控方法与装置
US11405547B2 (en) * 2019-02-01 2022-08-02 Electronics And Telecommunications Research Institute Method and apparatus for generating all-in-focus image using multi-focus image
US11399129B2 (en) * 2019-07-30 2022-07-26 Gopro, Inc. Image capture device with extended depth of field
WO2021039160A1 (ja) * 2019-08-30 2021-03-04 パナソニックIpマネジメント株式会社 応力解析装置
JP2021121067A (ja) * 2020-01-30 2021-08-19 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
US11494944B2 (en) * 2020-11-18 2022-11-08 Disney Enterprises, Inc. Automatic low contrast detection
CN115330834B (zh) * 2022-07-13 2023-06-20 广东交通职业技术学院 一种运动目标检测方法、系统、装置及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT406800B (de) * 1998-03-09 2000-09-25 Bauer Fritz Steuerungssystem für ein objektiv einer kamera
JP2002084412A (ja) * 2000-09-07 2002-03-22 Minolta Co Ltd 画像処理装置及び画像処理方法
JP4997043B2 (ja) 2007-09-27 2012-08-08 富士フイルム株式会社 撮像装置、方法およびプログラム
US9094675B2 (en) * 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
JP5843599B2 (ja) * 2011-12-19 2016-01-13 キヤノン株式会社 画像処理装置および撮像装置並びにその方法
TWI605418B (zh) * 2013-04-15 2017-11-11 晨星半導體股份有限公司 影像編輯方法以及影像處理裝置
US9241111B1 (en) * 2013-05-30 2016-01-19 Amazon Technologies, Inc. Array of cameras with various focal distances

Also Published As

Publication number Publication date
JP2015231220A (ja) 2015-12-21
US20150358542A1 (en) 2015-12-10
US9607240B2 (en) 2017-03-28

Similar Documents

Publication Publication Date Title
JP6347675B2 (ja) 画像処理装置、撮像装置、画像処理方法、撮像方法及びプログラム
JP7003238B2 (ja) 画像処理方法、装置、及び、デバイス
Wadhwa et al. Synthetic depth-of-field with a single-camera mobile phone
JP4513906B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2017006330A (ja) 医療用画像処理装置、医療用画像処理方法、及び、医療用観察システム
CN102227746A (zh) 立体图像处理装置、方法、记录介质和立体成像设备
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
US11282176B2 (en) Image refocusing
JP2018174502A (ja) 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム
JP2018107526A (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
JP2012195797A (ja) パンフォーカス画像生成装置
JP2010279054A (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
WO2016113805A1 (en) Image processing method, image processing apparatus, image pickup apparatus, program, and storage medium
JP6648916B2 (ja) 撮像装置
JP6218520B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6762779B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6961423B2 (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、プログラムおよび記録媒体
Alzayer et al. DC2: Dual-Camera Defocus Control by Learning To Refocus
JP4271648B2 (ja) 画像合成装置、撮像手段、およびプログラム
JP6556033B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7458723B2 (ja) 画像処理装置、撮像装置、制御方法、およびプログラム
JP2020086216A (ja) 撮像制御装置、撮像装置及び撮像制御プログラム
JP6833772B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180501

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180529

R151 Written notification of patent or utility model registration

Ref document number: 6347675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151