JP2012003233A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2012003233A
JP2012003233A JP2011068343A JP2011068343A JP2012003233A JP 2012003233 A JP2012003233 A JP 2012003233A JP 2011068343 A JP2011068343 A JP 2011068343A JP 2011068343 A JP2011068343 A JP 2011068343A JP 2012003233 A JP2012003233 A JP 2012003233A
Authority
JP
Japan
Prior art keywords
image
blur
image data
distance information
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011068343A
Other languages
English (en)
Other versions
JP2012003233A5 (ja
Inventor
Akira Matsui
啓 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011068343A priority Critical patent/JP2012003233A/ja
Priority to US13/091,520 priority patent/US8947523B2/en
Priority to CN201110118335XA priority patent/CN102256056A/zh
Publication of JP2012003233A publication Critical patent/JP2012003233A/ja
Priority to US13/542,189 priority patent/US9697589B2/en
Publication of JP2012003233A5 publication Critical patent/JP2012003233A5/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】像高に応じたぼけ関数の変化にも関わらず、距離情報の、像高に応じた誤差を低減する。
【解決手段】画像が対角線によって4個のエリアに分割され、中心付近の円形のエリアが低像高のエリアとされ、4個のエリアから低像高のエリアを除いた4個のエリアが高像高のエリアとされる。像高に応じてぼけ関数の形状が変化する。ぼけ関数の変化に合わせて距離を求めるためのぼけ付加用のガウスフィルタ標準偏差を変化させる。一例として、低像高エリアに対して標準の2次元ガウスフィルタが適用され、上下の高像高エリア、並びに左右の高像高エリアに対してぼけ関数の変化を相殺するような2次元ガウスフィルタが適用される。
【選択図】図12

Description

本開示は、例えば撮像画像に対してユーザの好みのぼかしを付加できる画像処理装置、画像処理方法およびプログラムに関する。
近年、コンパクトデジタルスチルカメラは、その小型化の要求から、小型の面積の撮像素子を用いられることが多い。例えば1/2.33型CCD(6.2×4.6)が使用される。一方、大判の撮像素子としては、35mmフィルムサイズ(36×24)、APS−Cサイズ(23.4×16.7)等が知られている。
このような画面サイズの小さいコンパクトデジタルスチルカメラでは、被写界深度が深くなり、従来の銀塩カメラや、大判の撮像素子を用いたデジタル1眼レフカメラで得られるようなぼけ効果がきわめて少ないものとなる。ぼけ効果は、背景をぼかして人物を浮き立たせるポートレート撮像において求められる。このような背景により、従来から、特許文献1に記載されているように、小型の撮像素子を用いたデジタルスチルカメラでも、大きなぼけ効果が得られる手法が提案されている。
特許文献1に記載の方法は、ポートレート撮像画像において、顔検出および人体検出を行い、顔および人体以外の個所は背景であると見なしてぼかし処理を行うものである。
特開2007−66199号公報
特許文献1に記載の方法は、背景に対して一律のぼかし処理が適用されている。しかしながら、背景部に含まれる距離が異なる被写体に対しては、本来、異なるぼけ量が付加されるべきであり、特許文献1に記載の方法は、自然なぼけを付加する点で問題があった。さらに、特許文献1に記載の方法は、人物以外の被写体には適用することができないという問題があった。
さらに、光学系の状態例えばフォーカスの状態を変更しながら複数枚の画像を撮像し、複数枚の撮像画像から距離情報を演算し、求められた距離情報を基にぼかし処理を行う手法も提案されている。例えばその距離情報の取得に関しては、異なるレンズパラメータによって2枚の画像を撮像し、撮像画像から推定した錯乱円径とレンズパラメータから、演算により、被写体距離を求める手法が提案されている。
この方法において、デフォーカスにおけるぼけ関数は、2次元等方ガウス分布であることを前提としている。しかしながら、実レンズでは、像高におうじでぼけ関数の形状が大きく変化するため、等方性を前提とすると、像高に応じた距離推定値に誤差が発生する。その結果、最終的なぼかし処理の精度の劣化が不可避である。なお、像高とは、画像の中心からの高さのことである。画像の中心は、通常、レンズの光軸と一致する。
本開示の目的は、像高によりぼけ関数の形状変化にもかかわらず、像高による距離推定値の誤差を低減し、より精度の高い、観賞に適したぼかし処理が適用された画像を提供できる画像処理装置、画像処理方法およびプログラムを提供することにある。
上述した課題を解決するために、本開示は、例えば、撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、第1の画像データとぼけの状態が異なる第2の画像データとが入力される入力部と、
第1の画像データと第2の画像データとに基づき、被写体の奥行き方向の位置に応じた距離情報を演算する距離情報生成部とを備え、
距離情報生成部は、光学系の像高によるぼけの変化を補正して距離情報を演算する画像処理装置である。
本開示は、例えば、撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、第1の画像データとぼけの状態が異なる第2の画像データとが入力され、
第1の画像データと第2の画像データとに基づき、被写体の奥行き方向の位置に応じた距離情報を演算し、
光学系の像高によるぼけの変化を補正して距離情報を演算する画像処理装置における画像処理方法である。
本開示は、例えば、撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、第1の画像データとぼけの状態が異なる第2の画像データとが入力され、
第1の画像データと第2の画像データとに基づき、被写体の奥行き方向の位置に応じた距離情報を演算し、
光学系の像高によるぼけの変化を補正して距離情報を演算する画像処理方法をコンピュータ装置に実行させるためのプログラムである。
好ましい態様は、以下の通りである。
距離情報生成部は、第1の画像データに対してフィルタによってぼけを付加するぼかし処理を行い、ぼけが付加された第1の画像データと第2の画像データとの類似度を判定し、類似度が最大となるぼかし処理の回数を検出し、検出されたぼかし処理の回数から距離情報を求め、ぼかし処理において、光学系の像高によるぼけの変化を補正する。
ぼかし処理の回数は、ぼかしを付加しない処理を回数0とする。
第1の光学系の状態および第2の光学系の状態は、フォーカス位置が互いに異なる状態である。
第1の光学系の状態および第2の光学系の状態は、絞りが互いに異なる状態である。
フィルタが2次元ガウスフィルタであり、2次元ガウスフィルタの標準偏差が像高によるぼけの変化を補正するように設定される。
ぼかし処理の回数を物理距離に変換する。
距離情報生成部は、像高によるぼけの変化に応じて異なる特性のフィルタを使用して、距離情報を演算する。
フィルタは、第1のフィルタと、第1のフィルタと特性の異なる第2のフィルタとを含み、距離情報生成部は、ぼかし処理において、第1のフィルタと第2のフィルタとを選択的に用いてぼけを付加する。
本開示によれば、像高に応じたぼけ関数の変化にも関わらず、距離情報の像高に応じた誤差を低減することにより、より誤差が小さく精度の高い距離情報を得ることができる。
本開示における画像処理装置の一例である撮像装置の構成例を示すブロック図である。 本開示の第1の実施の形態のブロック図である。 本開示の第1の実施の形態のぼかし処理の全体的な説明に用いるフローチャートである。 本開示の第1の実施の形態における距離情報を求める処理の流れを示すフローチャートである。 本開示の第1の実施の形態における距離情報を求める処理を説明するための略線図である。 Pill Box関数の説明に用いる略線図である。 ガウスフィルタの説明に用いる略線図である。 本開示の第1の実施の形態における距離情報を求める方法の説明に用いる略線図である。 像高によるぼけ関数の変化を説明するための図である。 像高によるぼけ関数の変化を説明するための図である。 距離マップの一例を説明するための図である。 ガウスフィルタの像高に応じた切り替え方法の一例を説明するための略線図である。 像高によるぼけ関数の形状の変化を説明するための略線図である。 低像高エリアに対して、2次元等方ガウス関数を用いた畳み込み演算を行う処理の一例を説明するための略線図である。 高像高エリアに対して、2次元等方ガウス関数を用いた畳み込み演算を行う処理の一例を説明するための略線図である。 第1の実施形態において、2次元非等方ガウス関数を用いた畳み込み演算を行う処理を説明するための略線図である。 第1の実施形態の変形例における処理の一例を説明するための略線図である。 第1の実施形態の変形例における、ガウスフィルタの像高に応じた切り替え方法の一例を説明するための略線図である。 第1の実施形態の変形例における処理の一例を示すフローチャートである。 第1の実施形態の変形例における処理の他の例を示すフローチャートである。 処理のループ回数と類似度との関係の一例を示す略線図である。
以下、本開示の実施の形態について説明する。なお、説明は、以下の順序で行う。
<1.第1の実施の形態>
<2.第1の実施の形態における変形例>
<3.第2の実施の形態>
<4.変形例>
なお、以下に説明する実施の形態および変形例は、本開示の好適な具体例であり、技術的に好ましい種々の限定が付されているが、本開示の範囲は、以下の説明において、特に本開示を限定する旨の記載がない限り、これらの実施の形態および変形例に限定されないものとする。
<1.第1の実施の形態>
「撮像装置」
本開示の第1の実施の形態について説明する。図1を参照して本開示を適用できる撮像装置の一例を図1を参照して説明する。撮像装置は、カメラ部1と、デジタル信号処理部2と、SDRAM(Synchronous Dynamic Random Access Memory)3と、媒体インターフェース(以下、媒体I/Fという。)4と、制御部5と、操作部6と、LCD(Liquid Crystal Display)コントローラ7と、LCD8と、外部インターフェース(以下、外部I/Fという。)9からなり、媒体I/F4に対して記録媒体10が着脱可能とされている。さらに、画像ファイルを蓄積するために大容量の記録媒体であるハードディスクドライブ17が備えられている。
記録媒体10は、例えば半導体メモリを用いたいわゆるメモリカードである。メモリカード以外に、ハード・ディスク装置、記録可能なDVD(Digital Versatile Disc)や記録可能なCD(Compact Disc)等の光記録媒体、磁気ディスクなどを用いることができる。
カメラ部1は、光学ブロック11、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor) 等の撮像素子12、前処理回路13、光学ブロック用ドライバ14、CCD用ドライバ15、タイミング生成回路16とを備えたものである。ここで、光学ブロック11は、レンズ、フォーカス機構、シャッター機構、絞り(アイリス)機構などを備えている。
制御部5は、CPU(Central Processing Unit )51、RAM(Random Access Memory)52、フラッシュROM(Read Only Memory)53、時計回路54が、システムバス55を通じて接続されて構成されたマイクロコンピュータであり、この第1の実施の形態の撮像装置の各部を制御する。RAM52は、処理の途中結果を一時記憶するなど主に作業領域として用いられるものである。フラッシュROM53は、CPU51において実行する種々のプログラムや、処理に必要になるデータなどが記憶されたものである。時計回路54は、現在年月日、現在曜日、現在時刻、撮影日時などを提供すると共に、撮影日時等の日時情報を撮影画像ファイルに付与する機能を有する。
撮影時においては、光学ブロック用ドライバ14は、制御部5からの制御に応じて、光学ブロック11を動作させるための駆動信号を形成し、駆動信号を光学ブロック11に供給して、光学ブロック11を動作させる。光学ブロック11では、ドライバ14からの駆動信号に応じて、フォーカス機構、シャッター機構、絞り機構が制御され、被写体像が取り込まれ、被写体像が撮像素子12に対して提供される。
撮像素子12は、光学ブロック11からの被写体像を光電変換して出力する。撮像素子ドライバ15からの駆動信号に応じて撮像素子12が動作し、被写体像が取り込まれ、制御部5によって制御されるタイミング生成回路16からのタイミング信号に基づいて、取り込まれた被写体の画像が電気信号として前処理回路13に供給される。
なお、タイミング生成回路16は、制御部5からの制御に応じて、所定のタイミングを提供するタイミング信号を形成する。また、撮像素子ドライバ15は、タイミング生成回路16からのタイミング信号に基づいて、撮像素子12に供給する駆動信号を形成する。
前処理回路13は、供給された撮像信号に対して、CDS(Correlated Double Sampling)処理を行って、S/N比を良好にし、AGC(Automatic Gain Control)処理を行って、利得を制御し、そして、A/D(Analog/Digital)変換によって、デジタル信号とされた撮像データを形成する。
前処理回路13からのデジタル撮像データがデジタル信号処理部2に供給される。デジタル信号処理部2は、撮像データに対して、デモザイク処理、AF(Auto Focus)、AE(Auto Exposure )、AWB(Auto White Balance)などのカメラ信号処理を施す。カメラ信号処理がなされた画像データが所定の圧縮方式でデータ圧縮され、システムバス55、媒体I/F4を通じて装填された記録媒体10および/またはハードディスクドライブ17に供給され、記録媒体10および/またはハードディスクドライブ17に例えばDCF(Design rule for Camera File system)規格に準じた画像ファイルとして記録される。
また、記録媒体10に記録された画像データは、操作部6を通じて受け付けたユーザからの操作入力に応じて、目的とする画像データが媒体I/F4を通じて記録媒体10から読み出され、これがデジタル信号処理部2に供給される。操作部6には、シャッタレリーズボタン等の各種ボタンやレバー、ダイヤル等が含まれる。LCD8をタッチパネルと構成とし、ユーザが画面上を指や指示具で押圧することで入力操作を行うことが可能としても良い。
デジタル信号処理部2は、記録媒体10から読み出され、媒体I/F4を通じて供給された圧縮されている画像データに関して、その圧縮の解凍処理(伸張処理)を行い、解凍後の画像データをシステムバス55を通じて、LCDコントローラ7に供給する。LCDコントローラ7は、画像データからLCD8に供給する表示画像信号を形成し、表示画像信号をLCD8に供給する。これにより、記録媒体10に記録されている画像データに応じた画像がLCD8の画面に表示される。さらに、制御部5およびLCDコントローラ7の制御によって、LCD8の画面上にメニュー等のテキスト、グラフィックスの表示が行うことが可能とされている。なお、画像の表示の形態は、ROMに記録された表示処理プログラムに従う。
また、撮像装置には、外部I/F9が設けられている。この外部I/F9を通じて、例えば外部のパーソナルコンピュータが接続され、パーソナルコンピュータから画像データの供給を受けて、これを自身に装填された記録媒体に記録したり、また、自身に装填された記録媒体に記録されている画像データを外部のパーソナルコンピュータに供給することが可能とされている。
また、外部I/F9に通信モジュールを接続することにより、例えば、インターネットなどのネットワークと接続して、ネットワークを通じて種々の画像データやその他の情報を取得し、自身に装填された記録媒体に記録したり、あるいは、自身に装填された記録媒体に記録されているデータを、ネットワークを通じて目的とする相手先に送信することが可能とされている。
また、外部のパーソナルコンピュータやネットワークを通じて取得し、記録媒体に記録した画像データなどの情報についても、読み出して再生し、LCD8に表示することが可能とされている。
なお、外部I/F9は、IEEE(Institute of Electrical and Electronics Engineers )1394、USB(Universal Serial Bus)などの有線用インターフェースとして設けることも可能であるし、光や電波による無線インターフェースとして設けることも可能である。すなわち、外部I/F9は、有線、無線のいずれのインターフェースであってもよい。外部I/F9を通じて、例えば図示しない外部のコンピュータ装置と接続して、コンピュータ装置から画像データの供給を受けて、画像データを記録媒体10および/またはハードディスクドライブ17に記録できる。記録媒体10および/またはハードディスクドライブ17に記録されている画像データを外部のコンピュータ装置等に供給することもできる。
上述した撮像装置によって、被写体の画像(静止画および動画)を撮影して、装填された記録媒体10および/またはハードディスクドライブ17に記録することができる。さらに、記録媒体10および/またはハードディスクドライブ17に記録された画像データを読み出して、画像を表示し、任意に閲覧、編集することが可能である。画像データの管理のためにインデックスファイルが記録媒体10および/またはハードディスクドライブ17の特定領域に記録されている。
ここで、上述した撮像装置の動作について概略的に説明する。撮像素子12によって受光され、光電変換された信号が前処理回路13に供給され、CDS処理、AGC処理が行われてデジタル信号に変換され、デジタル信号処理部2に供給される。デジタル信号処理部2では、画像データが画質補正処理され、カメラスルー画像の画像データとして制御部5に供給される。制御部5から入力された画像データがLCDコントローラ7に供給され、カメラスルー画像がLCD8に表示される。LCD8に表示されたカメラスルー画像を見ながら画角合わせを行うことが可能となる。
そして、操作部6のシャッタレリーズボタンが押下されると、CPU51がカメラ部1に制御信号を出力して、光学ブロック11のシャッターを動作させる。これとともに、デジタル信号処理部2によって、前処理回路13から供給された1フレーム分の画像データ(記録画像データ)が処理されて後、SDRAM3に記憶される。さらに、この記録画像データがデジタル信号処理部2によって圧縮符号化され、符号化データがハードディスク17に記憶されると共に、システムバス55および媒体インターフェース4を通じて記録媒体10に記憶される。
なお、静止画像データに対して、CPU51が撮影時の日時や時刻を時計回路54から取得し、データに付加してハードディスク17および記録媒体10に記憶する。さらに、静止画像についてはさらに、静止画像の縮小画像のデータが生成され、縮小画像のデータが元の静止画像と対応付けてハードディスク17および記録媒体10に記憶される。
一方、ハードディスク17および記録媒体10に記憶された記録画像データを再生する場合には、操作部6からの操作入力に応じて、CPU51が選択された記録画像データがSDRAM3に読み込まれる。そして、デジタル信号処理部2によって復号される。復号された画像データがLCDコントローラ7を通じてLCD8に供給され、LCD8に再生画像が表示される。
「ぼかし処理のための構成」
上述した本開示の第1の実施の形態において、制御部5のCPU51によって、ぼかし処理がなされる。ぼかし処理に関連する構成は、図2に示すものとなる。光学ブロック11内のレンズ11aがフォーカス制御部14aによって制御され、フォーカスが制御される。フォーカス制御部14aは、CPU51および光学ドライバ14によって構成される。フォーカス制御部14aの制御によって、フォーカスが互いに異なる複数の撮像画像が取得される。
最初に、被写体例えば前景の人物に合焦した1枚の画像(第1画像と称する)が取得される。次に、第1画像に対して所定の距離ファー側にフォーカスをずらして同一の被写体が撮像され、1枚の画像(第2画像と称する)が取得される。さらに、第1画像に対して同一の所定の距離ニア側にフォーカスをずらして1枚の画像(第3画像と称する)を取得する。これらの3枚の画像がデータ記憶部としてのRAM52に一時的に記憶される。
3枚の画像は、互いにぼけの程度が異なる画像である。第1画像では、前景にフォーカスが合っているので、第2画像および第3画像のそれぞれにおける前景のフォーカスのずれの程度は、等しいものとなる。第2画像における背景のぼけに比して、第3画像における背景のぼけの程度が大きいものとなる。
3枚の画像の中で2枚の画像を使用して距離マップ生成部56が距離情報を生成する。距離情報は、被写体の奥行き方向の位置に応じた距離であり、例えば前景と背景との距離である。距離マップは、例えば画像の全画素のそれぞれに関する距離の情報である。
第1画像に対してデジタル信号処理部2によって、ホワイトバランス、デモザイク、輪郭強調等の信号処理がなされる。デジタル信号処理部2の出力信号がぼかし処理適用部57において、距離マップ生成部56の距離情報出力に応じて、ぼかし処理が行われる。ぼかし処理は、前景以外の被写体に対してのみなされる。
ぼかし処理適用部57から最終的な観賞用の画像が出力される。鑑賞用の画像が記録媒体10および/またはハードディスクドライブ17に記録される。距離マップ生成部56およびぼかし処理適用部57は、制御部5内のCPU51が予め設計されているプログラムによって機能する処理を意味している。なお、フォーカスが互いに異なる画像が、外部の装置から外部I/F9を介して供給されるようにしてもよい。
「ぼかし処理の全体的流れ」
次に、図3を参照して、フォーカス制御部14a、距離マップ生成部56、ぼかし処理適用部57の動作を説明する。最初のステップS1において、1枚目の画像(第1画像)を撮影する。例えばポートレートなら、前景の人物にフォーカスが合うように撮影を行う。第1画像がRAM52に記憶される。次に、ステップS2において、フォーカス位置が第1画像に対してファー側に所定の量変化される。そして、ステップS3において、2枚目の画像(第2画像)が撮影される。
次に、ステップS4において、フォーカス位置が第1画像に対してニア側に所定の量変化される。フォーカス位置の変化は、第2画像を取得する場合と等しいものとされる。そして、ステップS5において、3枚目の画像(第3画像)が撮影される。次に、ステップS6において、第2画像と第3画像から、それぞれの画素に対応する被写体の距離を画素数分保持した情報、いわゆる距離マップが生成される。最後に、ステップS7において、距離マップを参照しながら第1画像にたいしてぼかし処理が適用される。
ぼかし処理には、ローパスフィルタを利用することができ、距離に応じてローパスフィルタの適用可否、並びに強度(カットオフ周波数がより低いほど、より強度が大きい)を変化させる。すなわち、例えば前景(人物)に対しては、ローパスフィルタを適用せず、背景に対しては、前景との距離に応じた強度のローパスフィルタが適用される。このぼかし処理によって、観賞用に好ましい背景のぼけたポートレート画を生成することができる。
「距離マップ生成」
ステップS6(距離マップ生成)について、図4および図5を参照してより詳細を説明する。図5は、第2画像および第3画像を示す。先ず、図5に示すように、第2画像中の任意の画素を選択し、その座標を(x0,y0)とする。(x0,y0)を中心とし、後述するqの値に対して十分大きな値であるpにより(p×p)の範囲を規定する。第2画像の(p×p)の範囲に含まれる画素値に対して、所定のガウスフィルタの畳込み演算を行う(図4中のステップS11)。ガウスフィルタとは、ガウス関数を使用したぼかしフィルタのことである。すなわち、ガウスフィルタにおいては、画素を合成する時の重みが中心の画素からの距離に応じてガウス関数で決定される。
次に、ステップS12において、ステップS11の結果の画素値の(x0,y0)を中心とし
た(q×q)の範囲の画素値と、第3画像の(x0,y0)を中心とした(q×q)の範囲の画素値との
、類似度を計算する。類似度としては、SAD(Sum of Absolute Difference) 等を用いることができる。例えば、第2画像の(q×q)の範囲と、第3画像の(q×q)の範囲との間で、同位置に対応する2つの画素値の差分の絶対値を求め、差分の絶対値を、(q×q)画素分積算した値がSADである。類似度が大きいほどSADの値が小さくなる。
ステップS12の後の判断処理(ステップS13)において、類似度の計算と、類似度の値の保存の処理がM回なされたか否かが判定される。Mは、充分大きな値である。類似度の計算と、類似度の値の保存の処理がM回なされたと判定されると、処理がステップS14に移る。ステップS14において、記憶されているM回分の類似度値の中から類似度の最大値(類似度としてSADを使用した場合には、最小値)を検索する。類似度の最大値に対応するステップS11およびステップS12の繰り返し回数kが距離情報とされる。なお、類似度の計算を行う場合に、ガウスフィルタによるぼかし処理がなされていない段階での比較もなされる。
第2画像および第3画像内の前景のエリアでは、ほぼ同様のぼけが付加されているために、SADが小となり、類似度が大きいと判定される。背景のエリアでは、第2画像における背景のぼけに比して、第3画像における背景のぼけの程度が大きいので、第2画像に対してぼけを付加する処理を行うことによって、類似度が大きくなる。
なお、類似度の最大値を求める方法として、予め定めたM回の処理を繰り返さない方法も可能である。例えばSADを使用している場合において、SADの極小値を検出し、SADの極小値が生じるまでの回数kを距離情報としても良い。さらに、類似度としては、差分の絶対値の代わりに差分の自乗を使用しても良い。さらに、SAD以外のパラメータを使用して類似度を検出しても良い。
上述したように、画像内の全画素のそれぞれについてkが求められる。求められたkの値が画素毎に存在するのが距離マップである。この場合、演算量を減少させるために、全画素ではなく、水平および/または垂直方向に所定の間隔でサンプリングされた画素毎に、kの値を求めた距離マップを作成しても良い。
次に、kの値が何故距離情報たりえるかを説明する。まず、下記の表記を定義する。
Img :デフォーカスによるぼけ関数が適用されていない、フォーカスの合った画像
σ2,σ3:第2画像および第3画像のそれぞれにおける、ぼけ関数(2次元等方ガウス関数)の標準偏差
σf :ステップS11において適用するガウスフィルタの標準偏差
デフォーカスにおけるぼけ関数は、幾何光学的には、図6に示すようなある錯乱円径を持ったPill Box関数として求まる。点の像にフォーカスが合っている時は、撮像面で点の像が生じるが、フォーカスが合っていないと、ぼけによって円形の像が発生する。この円のことが錯乱円と呼ばれる。
しかしながら、実際のレンズでは収差の影響などを考慮して、図7のような2次元等方ガウス関数に近似されることが多い。図7において、中心の位置が処理の対象の画素(注目画素)の位置である。注目画素の位置に近いほど平均値を計算する場合の重みを大きくし、注目位置の画素から遠くなるほど重みを小さくする分布(ガウス分布の関数)を持つのがガウスフィルタである。標準偏差が小さく分布の幅が狭くなるほど、平滑化の効果が小さくなる。
本開示の第1の実施の形態においても、第2画像および第3画像のデフォーカスにおけるぼけ関数を2次元等方ガウス関数であると近似し、その標準偏差がσ2,σ3であるとする。このとき、図4に示される処理において、kを求めるプロセスは、下記の式(1)
にてkを求めることに相当する(G(μ,σ)は、平均μ、標準偏差σの2次元等方ガウス
関数)。さらに、分散は、平均からのずれの自乗期待値である。
ここで、一般的に、ガウス関数の畳込みはガウス関数となり、また畳込む2つのガウス関数の分散の和(σ2 2+σ3 2)が、畳込み結果のガウス関数の分散に一致することを利用すると、下記の式(2)でkを記述することができる。
式(2)からkは、下記の関係を有する。
(1)kは、σfの自乗に反比例する。σfを一定値とすれば、式(2)の分母が一定値となる。
(2)kは(σ3−σ2)に比例する。(σ3−σ2)は、近似的に、第2画像と第3画像におけるデフォーカスのぼけ関数における、錯乱円径の差と解釈することができる。この値は、第1画像に対する第2画像および第3画像のデフォーカス量を一定にしておけば、一定値となる。つまり、例えば、第1画像に対して第2画像は、ファー側に2DoF(Depth of field:被写界深度)デフォーカスさせ、第1画像に対して第3画像は、ニア側に2DoFデフォーカスさせるように設定すれば、(σ3−σ2)は、許容錯乱円の4倍の値の一定値となる。
(3)kは、(σ3+σ2)に比例する。(σ3+σ2)は、近似的に、第2画像と第3画像におけるデフォーカスのぼけ関数における、錯乱円径の和もしくは平均値の2倍の値と解釈することができる。
例えば上述したように、第1画像に対して第2画像はファー側に2DoFデフォーカスさせ、第1画像に対して第3画像はニア側に2DoFデフォーカスさせる。また、第1画像取得時にフォーカスを合わせる前景位置と背景位置の相対距離がnDoFであるとすれば、σ2は、許容錯乱円の(n−2)倍の値、σ3は、許容錯乱円の(n+2)倍の値となるので、(σ3+σ2)は許容錯乱円の2n倍の値となり、よって(σ3+σ2)は前景位置と背景位置の相対距離nに比例する。
上述した関係から、結局kは、前景位置と背景位置の相対距離nに比例する性質を有する。この性質により、kを計算することによって、前景および背景間の相対距離に比例する距離情報を得ることができる。k、n、(σ3+σ2)の関係を、図8に示す。すなわち、図8は、k∝σ3+σ2∝n(∝は、∝関係を表す)の関係があることを概略的に示している。
「ぼかし処理」
図3におけるステップS7において、画像中算出されたそれぞれの画素位置でのkの値に応じて、ぼかし処理がなされる。すなわち、kの値が大きい場合にはより強度なぼかし処理を施し、kの値が小さい場合には、より弱度なぼかし処理を施すか、またはぼかし処理を行わない。このようなぼかし処理によって、背景が適切にぼけた観賞に好ましい画像を得ることが可能となる。
算出されたkを用いて、以下に説明するように、前景位置と背景位置の相対的な物理距離sfを求め、sfを使用してステップS7におけるぼかし処理を行うようにしても良い。まず、薄肉レンズの幾何光学による式により、一般的に下記の式(3)が導かれる。
式(3)において、fが焦点距離であり、FがFナンバーであり、sが合焦距離であり、δが錯乱円径であり、sfが遠側被写体距離である。f、F、sは、レンズの制御値であるから既知であり、δが分かれば、sfが求められる。幾何光学的には、ぼけ関数は、ある錯乱円径をPill Box関数として表されるが、ここでは、式(2)から求まるσ3とσ2の平均値を近似的に錯乱円径とみなす。式(3)におけるδとして式(4)を代入する。
この式(5)により求めた、前景位置と背景位置の相対的別離距離Sfを用いて、ステップS7におけるぼかし処理を行うようにしても良い。
「像高による影響」
さて、ここまでにおいて導かれた、kまたはsfは、いずれも前提条件として、式(1)で表わされているように、ぼけ関数が2次元等方ガウス関数であることが含まれている。前述したように、ぼけ関数は、幾何光学的にはPill Box関数にて求まるものの、実レンズにおける回折や収差の影響を考慮して、2次元等方ガウス関数にて近似的に表わされることが多い。
しかしながら、実レンズのぼけ関数は2次元等方ガウス関数から乖離している。さらに、光軸中心に相当する画像中心では2次元等方性を保つものの、像高が高い画像周辺においては、2次元等方性が大きくくずれる。実レンズのぼけ関数は、レンズの設計によって決まるので、予めぼけ関数の変化を推定できる。ぼけ関数の場所による変化がkまたはsfの推定誤差の発生に影響し、よって、最終的にぼかし処理が適用された画像の品質を劣化させる。この影響について、以下に説明する。
図9は、実レンズの像高0割でのデフォーカス時のPSF(Point Spread Function)の一例であり、図10は、実レンズの高像高での、デフォーカス時のPSFの一例である。PSFは、点被写体の像面上での広がりを表わすので、ぼけ関数そのものを表わす。
像高0割では、2次元ガウス関数ではないものの等方性をもつが、高像高では非等方である。特に一般的に、高像高では、周辺部の減光(Vignetting)の影響により、PSFの広がり幅に関して、サジタル方向に比べてメリディオナル方向が小さくなる傾向を持つことが多い。メリディオナル方向は、光軸に対して放射線方向のことであり、サジタル方向は、メリディオナル方向と直交する、光軸に対して同心円方向のことである。
ここで、このようなぼけ関数における距離推定の誤差を考える。先に述べたように、距離推定は式(2)によって行われる。式(2)中のσ3およびσ2は、ぼけ関数を2次元ガウス関数とみなしたときの標準偏差である。ぼけ関数の形状がガウス関数から乖離がある場合も、概略、ぼけ関数の広がり幅は、σ3およびσ2に相当すると考えることができる。
ここにおいて、像高0割の場合と高像高の場合との比較を、図9および図10を参照して考える。高像高の場合は特にメリディオナル方向のぼけ関数の広がりが小さくなることから、像高0割よりも高像高の場合の方が、σ3およびσ2の値が小さくなることに相当する現象が起こる。結果として、像高0割の場合よりも高像高の場合の方が、推定された距離情報kの値が小さくなる。
このような状況において推定される距離マップの例を図11に示す。被写体としては、遠距離には同一距離にある平面的な背景が配置され、近距離には四角の物体(前景)が配置されている画像を想定する。距離マップは、濃度が高いほどニア側であることを示す。
低像高に位置する、近距離の物体および画像中央付近の背景は、距離マップ上での濃度が高く、適切に距離推定されている。一方、高像高に位置する画像周辺では、背景に対する距離推定値が上述した誤差の影響により小さくなる。このような誤差を含んだ距離マップをもとに、ステップS7おいてぼかし処理を行った場合、本来、適切にぼかし処理がかかるべき背景部において、画像周辺部では、そのぼかし量が適切値より少なくなる。結果として、観賞用に不適切な画像が生成されてしまう。
「第1の実施の形態による処理」
上述したぼけ関数の形状に起因する距離推定の誤差の影響を受けないようにするために、本開示の第1の実施の形態では、以下に述べる処理を行う。
先ず、ステップS11(図4参照)において使用するガウスフィルタとして、例えば下記の式(6)に示すフィルタ係数を有するものを使用する。
図9および図10におけるぼけ関数を、ガウス関数として近似した場合のそれぞれの標準偏差を下記のものとする。
σcenter:図9の像高0割ぼけ関数を2次元ガウス関数と近似した場合の標準偏差
σmer :図10の高像高ぼけ関数のメリディオナル方向形状を1次元ガウス関数と近
似した場合の標準偏差
σsag :図10の高像高ぼけ関数のサジタル方向形状を1次元ガウス関数と近似し
た場合の標準偏差
ここで、σcenter≒σsag>σmerであるとする。
式(6)で表される2次元等方フィルタを画像全体に一律に適用した場合、上述したように、高像高の場合は、σ3およびσ2の値が小さくなり、一方、σf の値は、画像全体で一定であるために、高像高においてkの値が小さくなり、誤差が発生する。
このような高像高におけるkの減少による誤差を回避するために、式(2)において、σ3およびσ2の値が小さくなるのに対応させて、σf の値も減少させ、減少の影響を相殺する。その結果、kの減少による誤差を低減することができる。
σ(161):[1 1]フィルタ係数の標準偏差
であるとする。標準偏差が
σ(161)×(σmer/σcenter
となるようなガウスフィルタが[1 14 1]である場合、[1 1]フィルタがサジタル方向に適用され、[1 14 1]フィルタがメリディオナル方向に適用される。つまり、下記の式(7)の2次元フィルタG2aおよびG2bが図10で示されるような高像高の場合に適用される。結果として、kの値がG1を用いた場合よりも大きくなり、kの誤差を減少させることができる。
図12に示すように、画像が対角線によって4個のエリアに分割され、中心付近の円形のエリアが低像高のエリアとされ、4個のエリアから低像高のエリアを除いた4個のエリアが高像高のエリアとされる。低像高エリアに対して2次元ガウスフィルタG1が適用され、上下の高像高エリアに対して2次元ガウスフィルタG2aが適用され、左右の高像高エリアに対して2次元ガウスフィルタG2bが適用される。
ガウスフィルタを方向によって切り替えているのは、高像高のぼけ関数の変化が、図13に示すように回転対称となるため、そのぼけ関数の変化とフィルタの切り替えとを合わせていることに対応する。すなわち、サジタル方向にはG2aおよびG2bの2種類のフィルタが切り替えられ、メリディオナル方向にはG1およびG2a(またはG2b)の2種類のフィルタが切り替えられる。
なお、このようなフィルタの切り替え方法に限らず、像高に従って変化するぼけ関数により細かく対応させるように、サジタル方向やメリディオナル方向に、より多種類のフィルタを用いて切り替えるようにしても良い。その結果、kの誤差をより減少させることが可能となる。
さらに、上述した例では、サジタル方向に対して適用されるフィルタに対して、メリディオナル方向に適用されるフィルタの標準偏差を小さくすることにより、σf を小さくする効果を得ている。しかしながら、G1よりも標準偏差の小さい2次元等方ガウス関数を用いても同様の効果が得られる。
この場合は、
σhigh:図10の高像高ぼけ関数を2次元ガウス関数と近似した場合の標準偏差
σ(161)×(σhigh/σcenter
となるような2次元等方ガウスフィルタを用いれば良い。
<2.第1の実施形態における変形例>
第1の実施形態における変形例について説明する。理解を容易にするために、第1の実施形態における処理等の概要をあわせて説明する。
図14は、低像高エリアでの距離情報を生成するために行われる畳み込み演算の処理を、模式的に示したものである。画像2および画像3のぼけ関数を、ガウス関数として近似した場合のそれぞれの標準偏差を下記のものとする。
σ2_center:画像2の像高0割ぼけ関数を2次元ガウス関数と近似した場合の標準偏差
σ3_center:画像3の像高0割ぼけ関数を2次元ガウス関数と近似した場合の標準偏差
上述したように、画像2の低像高エリアにおけるぼけ関数は、等方性をもつ。低像高エリアのぼけ関数に対して、2次元等方ガウス関数を使用した畳み込み演算が行われると、ぼけが拡大していく。ぼけが拡大していくことで、σ2_centerの値が大きくなる。結果的に、σ2_centerの値がσ3_centerの値と略一致し、精度の高い類似度が得られる。
図15は、高像高エリアでの距離情報を生成するために行われる畳み込み演算の処理を、模式的に示したものである。図15に示す画像2および画像3のぼけ関数は一例である。例えば、図13において、画像の中心付近(低像高エリア)に対して、図面に向かって下側の高像高エリアにおけるぼけ関数である。
図15に示す画像2および画像3のぼけ関数を、ガウス関数として近似した場合のそれぞれの標準偏差を下記のものとする。
σ2_mer :画像2の高像高ぼけ関数のメリディオナル方向形状を1次元ガウス関数と近似した場合の標準偏差
σ2_sag :画像2の高像高ぼけ関数のサジタル方向形状を1次元ガウス関数と近似した場合の標準偏差
σ3_mer :画像3の高像高ぼけ関数のメリディオナル方向形状を1次元ガウス関数と近似した場合の標準偏差
σ3_sag :画像3の高像高ぼけ関数のサジタル方向形状を1次元ガウス関数と近似した場合の標準偏差
上述したように、高像高エリアでは、ぼけ関数は非等方である。図15に示すぼけ関数の例では、σ2_mer<σ2_sagであり、σ3_mer<σ3_sagである。
画像2の高像高エリアにおけるぼけ関数に対して、2次元等方ガウス関数を使用した畳み込み演算が行われる。畳み込み演算が行われると、ぼけが拡大し、σ2_merの値とσ2_sag の値が均等の割合で大きくなる。所定回数、畳み込み演算が行われると、より小さい標準偏差の値であるσ2_merの値が、σ3_mer の値と略一致する。このタイミングで類似度が最大とされる。しかしながら、σ2_sagの値とσ3_sagとは一致しない。すなわち、誤差が生じている。誤差を含んだ状態で距離推定が行われると、ぼかし処理を適切に行うことができず、不適切な画像が生成されてしまう。
そこで、第1の実施形態では、画像2の高像高エリアにおけるぼけ関数に対して、例えば、2次元非等方ガウス関数を使用した畳み込み演算が行われる。図16に示すように、2次元非等方ガウス関数を使用した畳み込み演算が行われることにより、σ2_merの値とσ2_sag の値とを適切に大きくしていくことができる。σ2_merの値およびσ2_sag の値が、σ3_merの値およびσ3_sag の値とそれぞれ略一致するところで類似度が最大となり、誤差が生じない。このため、精度の高い距離推定を行うことができる。
変形例では、高像高エリアのぼけ関数に対して、例えば、2次元等方ガウス関数と1次元ガウス関数とを使用した畳み込み演算が行われる。図17は、画像2の高像高エリアにおけるぼけ関数に対して、2次元等方ガウス関数を用いた畳み込み演算と、1次元ガウス関数を用いた畳み込み演算とが行われる処理を模式的に示したものである。
例えば、始めに、画像2のぼけ関数に対して2次元等方ガウス関数を使用した畳み込み演算が行われる。2次元等方ガウス関数を使用した畳み込み演算が行われることで、σ2_merの値とσ2_sag の値とが増加する。2次元等方ガウス関数を用いた畳み込み演算が、例えば、M回行われたタイミングでσ2_merの値とσ3_merの値とが一致する。このタイミング以降は、使用されるフィルタが2次元ガウスフィルタから1次元ガウスフィルタに切り替えられ、1次元ガウス関数を使用した畳み込み演算が行われる。すなわち、2次元等方ガウス関数を使用した畳み込み演算が行われたぼけ関数に対して、1次元ガウス関数を使用した畳み込み演算が行われる。
1次元ガウス関数を使用した畳み込み演算が行われることにより、サジタル方向の画像成分のみにぼかし処理が行われる。このぼかし処理により、σ2_sag のみ値が増加し、σ2_merの値は変化しない。1次元ガウス関数を使用した畳み込み演算が、例えば、N回行われたタイミングで、σ2_sag の値とσ3_sag の値とが略一致する。このタイミングで、画像2のぼけ関数と画像3のぼけ関数との類似度が最大となる。そして、2次元等方ガウス関数を使用した畳み込み演算が行われた回数と、1次元ガウス関数を使用した畳み込み演算が行われた回数の合計((M+N)回)が距離情報kとされる。このように、例えば、始めに、2次元等方ガウス関数を使用した畳み込み演算が行われ、その後に1次元ガウス関数を使用した畳み込み演算が行われるようにしてもよい。この処理により精度の高い類似度が得られ、結果的に、より精度の高い距離情報が得られる。
なお、図14〜図17で示したぼけ関数は、一例である。例えば、σ2_mer>σ2_sagであるぼけ関数の場合には、2次元等方ガウス関数を使用した畳み込み演算がM回行われた後は、メリディオナル方向の画像成分のみにぼかし処理が行われる。ぼかし処理は、1次元ガウス関数を使用した畳み込み演算により行われる。
このように、像高によるぼけの変化に応じて異なる特性のフィルタが使用される。第1の実施形態では、異なる特性のフィルタの一例として、例えば、低像高エリアおよび高像高エリアのそれぞれにおいて、係数の異なる2次元ガウスフィルタが使用される。第1の実施形態における変形例では、異なる特性のフィルタの一例として、例えば、低像高エリアでは2次元ガウスフィルタが使用される。高像高エリアでは、低像高エリアで使用される2次元ガウスフィルタと1次元ガウスフィルタとが使用される。このように、1次元ガウスフィルタと、2次元ガウスフィルタとが選択的に使用されてぼかし処理が行われる。
図18は、画像のエリアに応じて適用するフィルタの係数例を示す。画像が例えば4個のエリアに分けられる。画像中心付近が低像高エリアであり、4個のエリアから低像高エリアを除いたエリアが高像高エリアとされる。低像高エリアには、2次元ガウスフィルタが適用される。高像高エリアには、2次元ガウスフィルタおよび1次元ガウスフィルタが適用される。1次元ガウスフィルタとしては、例えば、高像高エリアの図面に向かって上下のエリアには、水平フィルタが適用される。高像高エリアの図面に向かって左右のエリアには、垂直フィルタが適用される。
図19は、変形例における処理の流れの一例を示すフローチャートである。以下に説明する処理は、例えば、CPU51により行われる。図19に示す処理は、例えば、画像2における所定画素を中心としたブロック毎に対して行われる。画像2の全てのブロックに対して処理が行われ、最終的に画素毎の距離情報が取得される。
図19のステップS21おいて、画像2の所定のブロックに対して2次元ガウスフィルタが適用される(畳み込まれる)。そして、処理がステップS22に進む。ステップS22において、2次元ガウスフィルタが適用された画像2のブロックと、画像3における同一ブロックとの類似度が計算される。計算された類似度が保存される。
ステップS21およびステップS22の処理と並列的に、ステップS23およびステップS24の処理が行われる。ステップS23では、画像2の所定ブロックに対して、1次元ガウスフィルタが適用される。そして、処理がステップS24に進む。ステップS24において、1次元ガウスフィルタが適用された画像2のブロックと、画像3における同一ブロックとの類似度が計算される。計算された類似度が保存される。
そして、処理がステップS25に進む。ステップS25では、ステップS22で計算された類似度が前回計算された類似度(はじめてステップS22の処理が行われるときは、ステップS21のぼかし処理が行われていない画像に対する類似度)より減少したか否かが判断される。さらに、ステップS24で計算された類似度が前回計算された類似度(はじめてステップS24の処理が行われるときは、ステップS23のぼかし処理が行われていない画像に対する類似度)より減少したか否かが判断される。そして、双方の類似度が減少していない場合は、処理がステップS26に進む。
ステップS26では、ステップS22とステップS24の類似度のうち、大きい類似度を出力した画像が選択される。例えば、ステップS22で計算された類似度がステップS24で計算された類似度より大きい場合は、2次元ガウスフィルタが適用された画像が選択される。選択された画像が、ガウスフィルタ適用画像として出力される。出力されたガウスフィルタ適用画像が入力画像とされる。入力画像に対して、ステップS21、ステップS22、ステップS23、ステップS25、ステップS26の処理を行い、ステップS21〜ステップS26の処理のループを巡回させる。
ステップS25において、ステップS22で計算された類似度が前回計算された類似度より減少し、且つ、ステップS24で計算された類似度が前回計算された類似度より減少した場合には、処理がステップS27に進む。ステップS27では、ステップS21〜ステップS26の処理のループを巡回させたループ回数が求められる。求められたループ回数が、距離情報kとして出力される。
ここで、上述した方法によって、良好に誤差低減が行われる理由を説明する。上述したように、高像高でのPSF形状は、減光(Vignetting)により、画像中心での回転対象なPSF形状から乖離が発生する。σ_center≒σ_sag>σ_merであることから、2次元ガウスフィルタのみを用いて距離推定した場合には、画像中央での推定距離に比べて小さい値が推定値として求まる。ここで、σ_center≒σ_sagであることに着目し、サジタル方向の画像成分に対してのみぼかし処理を行う1次元ガウスフィルタを同時に用いることにより、より類似度として小さい値が求まる。従って精度の高い距離推定値が得られる。
なお、図19に示す処理では、双方の類似度が減少したときのループ回数を距離情報kとした。ここで、(双方の類似度が減少したときのループ回数−1)を距離情報kとしてもよい。このように距離情報kを求めることで、類似度が最大となるタイミングでのループ回数を距離情報kとして出力できる。
なお、変形例における処理は、図20のフローチャートに示す処理によっても実現できる。以下に説明する処理は、例えば、CPU51により行われる。図20に示す処理は、例えば、画像2における所定画素を中心としたブロック毎に対して行われる。画像2の全てのブロックに対して処理が行われ、最終的に画素毎の距離情報が取得される。
ステップS31において、画像2の所定のブロックに対して、2次元ガウスフィルタが適用される。そして、処理がステップS32に進む。ステップS32において、2次元ガウスフィルタが適用された画像と、画像3における同一ブロックの画像との類似度が計算される。計算された類似度が保存される。そして、処理がステップS33に進む。
ステップS33において、ステップS32で計算された類似度が前回、計算された類似度(はじめてステップS32の処理が行われるときは、ステップS31のぼかし処理が一度も行われていない画像に対する類似度)より減少したか否かが判断される。判断の結果、類似度が減少していない場合は、ステップS31でぼかし処理が行われた画像を入力画像として、ステップS31、ステップS32、ステップS33の処理のループを巡回させる。ステップS33において、ステップS32で計算された類似度が前回、計算された類似度より減少した場合は、処理がステップS34に進む。
ステップS34では、入力画像に対して、1次元ガウスフィルタが適用される。ステップS34における入力画像は、ステップS33で類似度が減少したと判断された時点でのぼかし画像である。言い換えれば、最後に2次元ガウスフィルタが適用された画像が入力画像とされる。入力画像に対して、1次元ガウスフィルタが適用されると、処理がステップS35に進む。
ステップS35では、ステップS34において1次元ガウスフィルタが適用された画像と、画像3における同一ブロックの画像との類似度が計算される。計算された類似度が保存される。そして、処理がステップS36に進む。ステップS36では、ステップS35で計算された類似度が、前回、計算された類似度(初めてステップS35の処理が行われるときは、ステップS34のぼかし処理が一度も行われていない画像に対する類似度)より減少した否かが判断される。
判断の結果、類似度が減少していない場合は、ステップS34でぼかし処理が行われた画像を入力画像として、ステップS34、ステップS35、ステップS36の処理のループを巡回させる。ステップS36において、ステップS35で計算された類似度が前回、計算された類似度より減少した場合は、ループ回数の合計が距離情報kとして出力される。すなわち、ステップS31〜ステップS33の処理のループ回数と、ステップS34〜ステップS36の処理のループ回数との合計が、距離情報kとして出力される。
なお、前回、2次元ガウスフィルタが適用された画像をメモリに保存するようにしてもよい。そして、ステップS33からステップS34に続く処理において、メモリに保存された画像が入力画像とされ、メモリに保存された画像に対して1次元ガウスフィルタが適用されてもよい。例えば、画像2に対して、2次元ガウスフィルタがM回適用された段階で、類似度が前回の類似度より減少したとする。このとき、ステップS33における判断がYesとなる。続くステップS34の処理において、メモリに記憶されている前回の画像、すなわち、2次元ガウスフィルタが(M−1)回、適用された画像が入力される。入力される画像に対して、1次元ガウスフィルタが適用されてもよい。
画像2に対して2次元ガウスフィルタが適用されていくと、類似度が大きくなる。ステップS33の判定において類似度が減少するということは、その時点より1回前に、2次元ガウスフィルタが適用された画像2が、画像3と最も類似していることになる。この最も類似している画像に対して1次元ガウスフィルタが適用されることで、より精度の高い類似度が得られ、結果的に精度の高い距離情報が得られる。
ステップS34〜ステップS36における処理についても同様のことが言える。例えば、ステップS34〜ステップS36の処理のループ回数がN回のときに、ステップS36の判定がYesとなったとする。上述した理由と同様の理由で、入力画像に対して、1次元ガウスフィルタが(N−1)回、適用された画像が、画像3と最も類似していることになる。そして、(M−1)回と(N−1)回との合計の回数を、距離情報kとして出力してもよい。それぞれの処理において、類似度が最も大きくなるときのループ回数の合計を距離情報とするため、精度の高い距離情報が得られる。
なお、低像高エリアにおけるぼけ関数に2次元ガウスフィルタが適用され、高像高エリアにおけるぼけ関数に対しては、異なる係数の1次元ガウスフィルタが適用されてもよい。例えば、高像高エリアのぼけ関数に対して、水平フィルタが適用される。類似度が最大となったところで、水平フィルタが適用された画像に対して、垂直フィルタが適用される。類似度が最大となったところで、水平フィルタが適用された回数と垂直フィルタが適用された回数との合計が距離情報kとされてもよい。
図21は、処理のループ回数と類似度との関係の一例を示したものである。処理のループが開始された当初は、1次元ガウスフィルタを使用するよりも2次元ガウスフィルタを使用した方が、類似度が大きくなる。したがって、2次元ガウスフィルタが使用される。処理を続けていくと、ある時点から、1次元フィルタを使用するよりも2次元フィルタを使用した方が、大きな類似度が算出される。したがって、1次元ガウスフィルタが使用される。最終的に類似度が最大値を示したところで処理のループが終了し、距離情報kが出力される。
<3.第2の実施の形態>
以上、第1の実施の形態、第1の実施の形態の変形例では、空間フィルタによる距離マップ検出に適用する例を示したが、次に、第2の実施の形態として、周波数領域での距離マップ検出に適用する例を示す。
第2の実施の形態の全体ブロック図および全体的な処理フローは、図1、図2および図3に示された第1の実施の形態のものと同じであり、ステップS6(距離マップ生成)の方法が以下のように異なる。
取得された第2画像および第3画像の、各画素の座標をx,y とし、取得された画像をd2(x,y),d3(x,y)とし、ぼけ関数をh2(x,y),h3(x,y)とし、ぼけていないフォーカスの合った画像をf(x,y)とする。これらの関係は下記の式(8)および式(9)ように表わされる。
ここで、h2(x,y)およびh3(x,y)は、第1の実施の形態と同様に、それぞれ標準偏差がσ2およびσ3のガウス関数であると近似する。
式(8)および式(9)を周波数領域で記述すると、取得された第2画像および第3画像の、x,yに対応する周波数軸をω,νとし、取得された画像を周波数変換(DFT:Discrete Fourier Transform)したものをD2(ω, ν),D3(ω, ν) とし、ぼけ関数を周波数変換したものをH2(ω, ν),H3(ω, ν)とし、ぼけていないフォーカスの合った画像を周波数変換したものをF(ω, ν) として、それぞれの関係は下記のように表わされる。
式(10)および式(11)よりF(ω,ν) を消去すれば、次式が求まる。
被写体距離は、画像中で画素ごとに被写体によって変動する。第2画像および第3画像の、ある画素位置(注目画素位置)(x0,y0) を中心としたq×q画素のエリアにおいて、式(12)により求まるk'の値を、式(2)においてkを距離情報としたのと類似して、(x0,y0) における距離情報とみなすことができる。ここで、式(12)によるk'の算出において、ある特定のω, νの値にて計算された値を用いても良い。さらに、推定精度をより高くするために、式(13)で表される各周波数それぞれにおいて計算された値の平均値を、距離情報として用いることも可能である。
ここで推定されたk'は、式(12)で表わされるように、第3画像および第2画像のガウスぼけ関数の標準偏差の2乗差であるため、第1の実施の形態の場合と同様に、ぼけ関数の像高依存に起因する誤差が発生する。すなわち、低像高より高像高の方がk'の値が小さくなり誤差が発生する。
本開示の第2の実施の形態では、かかる誤差を低減するために、像高によって、下記の式(14)に示すように、距離情報推定計算の切り替えを行う。すなわち、切り替えは、2段階で行われ、低像高時に対して高像高時には、補正用係数αを乗じる。
ここで、αは、式(15)に示すように、低像高でのぼけ関数を2次元等方ガウス関数として近似した場合の標準偏差を、高像高でのぼけ関数を2次元等方ガウス関数として近似した場合の標準偏差で除算した値とする。
この補正用係数αによって、高像高でのk’の誤差が低減され、距離推定の精度が上がり、最終的にステップS7においてぼかし処理がおこなわれた画像の品質を向上することができる。
なお、ここでは、低像高と高像高での2段階の切り替えの例を示したが、さらに切り替え段階数を増やしてより精度を高くする方法も可能である。
<4.変形例>
以上、本開示の一実施形態について具体的に説明したが、本開示は、上述の一実施形態に限定されるものではなく、本開示の技術的思想に基づく各種の変形が可能である。例えば低像高と高像高でのガウスフィルタの切り替えの例を示したが、さらにレンズのばらつきに起因するぼけ関数のばらつきによる距離推定精度ばらつきを低減することも可能である。この場合には、1台ずつぼけ関数を測定し、第1実施の形態におけるG2a,G2bもしくは第2実施の形態におけるαの値を1台ずつ調整することも可能である。
さらに、上述した実施の形態では、フォーカス位置を変更して複数枚の画像を取得し、それらの画像のぼけ関数の違いから距離マップを生成している。しかしながら、絞りを変更して複数枚の画像を取得し、それらの画像のぼけ関数の違いから距離マップを生成するようにしても良い。さらに、上述した実施の形態では、距離マップをぼかし処理に用いる例である。他に距離マップを用いて、複数の視差画像によるステレオ画像を生成する処理、もしくは距離に応じたデコンボリューションよる被写界深度拡大画像の生成処理を行うようにしても良い。
なお、本開示は、以下の構成をとることもできる。
(1)
撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、前記第1の画像データとぼけの状態が異なる第2の画像データとが入力される入力部と、
前記第1の画像データと前記第2の画像データとに基づき、前記被写体の奥行き方向の位置に応じた距離情報を演算する距離情報演算部とを備え、
前記距離情報生成部は、前記光学系の像高によるぼけの変化を補正して前記距離情報を演算する画像処理装置。
(2)
前記距離情報生成部は、
前記距離情報生成部は、前記第1の画像データに対してフィルタによってぼけを付加するぼかし処理を行い、ぼけが付加された第1の画像データと前記第2の画像データとの類似度を判定し、前記類似度が最大となるぼかし処理の回数を検出し、
検出された前記ぼかし処理の回数から前記距離情報を求め、
前記ぼかし処理において、前記光学系の像高によるぼけの変化を補正する(1)に記載の画像処理装置。
(3)
前記ぼかし処理の回数は、ぼかしを付加しない処理を回数0とする(2)に記載の画像処理装置。
(4)
前記第1の光学系の状態および前記第2の光学系の状態は、フォーカス位置が互いに異なる状態である(1)乃至(3)のいずれか1に記載の画像処理装置。
(5)
前記第1の光学系の状態および前記第2の光学系の状態は、絞りが互いに異なる状態である(1)乃至(3)のいずれか1に記載の画像処理装置。
(6)
前記フィルタが2次元ガウスフィルタであり、前記2次元ガウスフィルタの標準偏差が像高によるぼけの変化を補正するように設定される(2)乃至(5)のいずれか1に記載の画像処理装置。
(7)
前記ぼかし処理の回数を物理距離に変換する(1)乃至(6)のいずれか1に記載の画像処理装置。
(8)
前記距離情報生成部は、前記像高によるぼけの変化に応じて異なる特性のフィルタを使用して、前記距離情報を演算する(1)乃至(7)のいずれか1に記載の画像処理装置。
(9)
前記フィルタは、第1のフィルタと、前記第1のフィルタと特性の異なる第2のフィルタとを含み、
前記距離情報生成部は、
前記ぼかし処理において、前記第1のフィルタと前記第2のフィルタとを選択的に用いてぼけを付加する(2)乃至(7)のいずれか1に記載の画像処理装置。
(10)
撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、前記第1の画像データとぼけの状態が異なる第2の画像データとが入力され、
前記第1の画像データと前記第2の画像データとに基づき、前記被写体の奥行き方向の位置に応じた距離情報を演算し、
前記光学系の像高によるぼけの変化を補正して前記距離情報を演算する画像処理装置における画像処理方法。
(11)
撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、前記第1の画像データとぼけの状態が異なる第2の画像データとが入力され、
前記第1の画像データと前記第2の画像データとに基づき、前記被写体の奥行き方向の位置に応じた距離情報を演算し、
前記光学系の像高によるぼけの変化を補正して前記距離情報を演算する画像処理方法をコンピュータ装置に実行させるためのプログラム。
1・・・カメラ部
2・・・デジタル信号処理部
5・・・制御部
6・・・操作部
8・・・LCD
11・・・光学ブロック
11a・・・レンズ
12・・・撮像素子
14a・・・フォーカス制御部
56・・・距離マップ生成部
57・・・ぼかし処理適用部

Claims (11)

  1. 撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、前記第1の画像データとぼけの状態が異なる第2の画像データとが入力される入力部と、
    前記第1の画像データと前記第2の画像データとに基づき、前記被写体の奥行き方向の位置に応じた距離情報を演算する距離情報生成部とを備え、
    前記距離情報生成部は、前記光学系の像高によるぼけの変化を補正して前記距離情報を演算する画像処理装置。
  2. 前記距離情報生成部は、前記第1の画像データに対してフィルタによってぼけを付加するぼかし処理を行い、ぼけが付加された第1の画像データと前記第2の画像データとの類似度を判定し、前記類似度が最大となるぼかし処理の回数を検出し、
    検出された前記ぼかし処理の回数から前記距離情報を求め、
    前記ぼかし処理において、前記光学系の像高によるぼけの変化を補正する請求項1に記載の画像処理装置。
  3. 前記ぼかし処理の回数は、ぼかしを付加しない処理を回数0とする請求項2に記載の画像処理装置。
  4. 前記第1の光学系の状態および前記第2の光学系の状態は、フォーカス位置が互いに異なる状態である請求項1に記載の画像処理装置。
  5. 前記第1の光学系の状態および前記第2の光学系の状態は、絞りが互いに異なる状態である請求項1に記載の画像処理装置。
  6. 前記フィルタが2次元ガウスフィルタであり、前記2次元ガウスフィルタの標準偏差が像高によるぼけの変化を補正するように設定される請求項2に記載の画像処理装置。
  7. 前記ぼかし処理の回数を物理距離に変換する請求項2に記載の画像処理装置。
  8. 前記距離情報生成部は、前記像高によるぼけの変化に応じて異なる特性のフィルタを使用して、前記距離情報を演算する請求項1に記載の画像処理装置。
  9. 前記フィルタは、第1のフィルタと、前記第1のフィルタと特性の異なる第2のフィルタとを含み、
    前記距離情報生成部は、
    前記ぼかし処理において、前記第1のフィルタと前記第2のフィルタとを選択的に用いてぼけを付加する請求項2に記載の画像処理装置。
  10. 撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、前記第1の画像データとぼけの状態が異なる第2の画像データとが入力され、
    前記第1の画像データと前記第2の画像データとに基づき、前記被写体の奥行き方向の位置に応じた距離情報を演算し、
    前記光学系の像高によるぼけの変化を補正して前記距離情報を演算する画像処理装置における画像処理方法。
  11. 撮像部の第1の光学系の状態で被写体を撮像することにより得られる第1の画像データと、撮像部の第2の光学系の状態で被写体を撮像することにより得られ、前記第1の画像データとぼけの状態が異なる第2の画像データとが入力され、
    前記第1の画像データと前記第2の画像データとに基づき、前記被写体の奥行き方向の位置に応じた距離情報を演算し、
    前記光学系の像高によるぼけの変化を補正して前記距離情報を演算する画像処理方法をコンピュータ装置に実行させるためのプログラム。
JP2011068343A 2010-05-17 2011-03-25 画像処理装置、画像処理方法およびプログラム Pending JP2012003233A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2011068343A JP2012003233A (ja) 2010-05-17 2011-03-25 画像処理装置、画像処理方法およびプログラム
US13/091,520 US8947523B2 (en) 2010-05-17 2011-04-21 Image processing apparatus and associated methodology for blurring digital images
CN201110118335XA CN102256056A (zh) 2010-05-17 2011-05-09 图像处理装置、图像处理方法和程序
US13/542,189 US9697589B2 (en) 2010-05-17 2012-07-05 Signal processing apparatus, imaging apparatus, signal processing method and program for correcting deviation of blurring in images

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010112929 2010-05-17
JP2010112929 2010-05-17
JP2011068343A JP2012003233A (ja) 2010-05-17 2011-03-25 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2012003233A true JP2012003233A (ja) 2012-01-05
JP2012003233A5 JP2012003233A5 (ja) 2014-04-03

Family

ID=44911473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011068343A Pending JP2012003233A (ja) 2010-05-17 2011-03-25 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US8947523B2 (ja)
JP (1) JP2012003233A (ja)
CN (1) CN102256056A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014057303A (ja) * 2012-08-29 2014-03-27 Sony Corp 深度推定手順において改善されたシーン検出を利用するためのシステム及び方法
JP2015072155A (ja) * 2013-10-02 2015-04-16 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
JP2016032181A (ja) * 2014-07-28 2016-03-07 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法
US9710913B2 (en) 2014-04-18 2017-07-18 Canon Kabushiki Kaisha Image processing apparatus that forms distance image and control method thereof, as well as storage medium

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030895A (ja) * 2011-07-27 2013-02-07 Sony Corp 信号処理装置、撮像装置、信号処理方法およびプログラム
JP2013005091A (ja) * 2011-06-14 2013-01-07 Pentax Ricoh Imaging Co Ltd 撮像装置および距離情報取得方法
JP5831033B2 (ja) * 2011-08-16 2015-12-09 リコーイメージング株式会社 撮像装置および距離情報取得方法
JP5800187B2 (ja) * 2011-08-16 2015-10-28 リコーイメージング株式会社 撮像装置および距離情報取得方法
US8929607B2 (en) * 2011-12-01 2015-01-06 Sony Corporation System and method for performing depth estimation utilizing defocused pillbox images
TW201336319A (zh) * 2012-02-23 2013-09-01 Novatek Microelectronics Corp 消除影像色彩偏差的方法與裝置
KR20130127867A (ko) * 2012-05-15 2013-11-25 삼성전자주식회사 스테레오 비전 장치와 이의 제어 방법
JP6306811B2 (ja) * 2012-06-22 2018-04-04 富士通株式会社 画像処理装置、情報処理方法及びプログラム
JP5837463B2 (ja) * 2012-07-06 2015-12-24 株式会社東芝 画像処理装置および画像処理システム
US9894269B2 (en) * 2012-10-31 2018-02-13 Atheer, Inc. Method and apparatus for background subtraction using focus differences
JP5619124B2 (ja) * 2012-12-20 2014-11-05 キヤノン株式会社 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
JP6172935B2 (ja) * 2012-12-27 2017-08-02 キヤノン株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP6218378B2 (ja) * 2012-12-27 2017-10-25 キヤノン株式会社 画像処理装置及び画像処理方法
JP6271990B2 (ja) * 2013-01-31 2018-01-31 キヤノン株式会社 画像処理装置、画像処理方法
US9215433B2 (en) 2014-02-11 2015-12-15 Duelight Llc Systems and methods for digital photography
JP2015036632A (ja) * 2013-08-12 2015-02-23 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法
JP5769768B2 (ja) * 2013-09-03 2015-08-26 オリンパス株式会社 撮像装置、撮像方法およびプログラム
JP6317635B2 (ja) * 2014-06-30 2018-04-25 株式会社東芝 画像処理装置、画像処理方法及び画像処理プログラム
CN105450943B (zh) * 2014-09-25 2018-11-02 聚晶半导体股份有限公司 产生图像散景效果的方法及图像获取装置
US12401911B2 (en) 2014-11-07 2025-08-26 Duelight Llc Systems and methods for generating a high-dynamic range (HDR) pixel stream
US12401912B2 (en) 2014-11-17 2025-08-26 Duelight Llc System and method for generating a digital image
US9804392B2 (en) 2014-11-20 2017-10-31 Atheer, Inc. Method and apparatus for delivering and controlling multi-feed data
JP6521676B2 (ja) * 2015-03-09 2019-05-29 キヤノン株式会社 動き情報取得装置および動き情報取得方法
US12445736B2 (en) 2015-05-01 2025-10-14 Duelight Llc Systems and methods for generating a digital image
JP6608763B2 (ja) * 2015-08-20 2019-11-20 株式会社東芝 画像処理装置及び撮影装置
US10382684B2 (en) * 2015-08-20 2019-08-13 Kabushiki Kaisha Toshiba Image processing apparatus and image capturing apparatus
CN108076266A (zh) * 2016-11-11 2018-05-25 株式会社东芝 处理装置以及摄像装置
CN110325907B (zh) * 2017-02-28 2021-11-09 索尼公司 图像处理设备、图像处理方法和程序
US10834329B2 (en) * 2017-06-02 2020-11-10 Apple Inc. Method and device for balancing foreground-background luminosity
JP7027737B2 (ja) * 2017-09-05 2022-03-02 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
US11195257B2 (en) * 2018-08-24 2021-12-07 Canon Kabushiki Kaisha Image processing method, image processing apparatus, imaging apparatus, lens apparatus, storage medium, and image processing system
JP7016835B2 (ja) 2019-06-06 2022-02-07 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの製造方法、および、プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0579838A (ja) * 1991-09-20 1993-03-30 Fujitsu Ltd 測距方法及び測距装置
JP2001008216A (ja) * 1999-06-21 2001-01-12 Matsushita Electric Ind Co Ltd 画像処理装置
JP2007181184A (ja) * 2005-12-02 2007-07-12 Sony Corp 撮像装置および撮像方法、並びに撮像装置の設計方法
JP2008091979A (ja) * 2006-09-29 2008-04-17 Hitachi Ltd 画像高画質化装置、及びその方法、並びに画像表示装置
US20100080482A1 (en) * 2008-09-30 2010-04-01 Earl Quong Wong Fast Camera Auto-Focus
JP2010081263A (ja) * 2008-09-25 2010-04-08 Sony Corp 画像処理装置及び画像処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311505A (ja) * 2005-03-29 2006-11-09 Fuji Photo Film Co Ltd 画像処理システム、画像処理方法、画像処理プログラム、撮像装置、及び撮像方法
CA2553473A1 (en) * 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
JP2007066199A (ja) 2005-09-01 2007-03-15 Canon Inc 画像処理装置及び画像処理方法
JP2007139893A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置
US8350948B2 (en) * 2005-11-29 2013-01-08 Kyocera Corporation Image device which bypasses blurring restoration during a through image
US7711201B2 (en) * 2006-06-22 2010-05-04 Sony Corporation Method of and apparatus for generating a depth map utilized in autofocusing
US7397540B2 (en) * 2006-08-21 2008-07-08 The Boeing Company Phase diversity ranging sensor
JP4839183B2 (ja) * 2006-11-07 2011-12-21 オリンパス株式会社 画像処理装置
US8059162B2 (en) * 2006-11-15 2011-11-15 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus
WO2008096818A1 (ja) * 2007-02-07 2008-08-14 Sony Corporation 画像処理装置、撮像装置、画像処理方法、及びプログラム
KR101488655B1 (ko) * 2007-09-14 2015-02-03 삼성전자 주식회사 자동 초점 조절 장치 및 방법
JP2009110137A (ja) * 2007-10-29 2009-05-21 Ricoh Co Ltd 画像処理装置、画像処理方法及び画像処理プログラム
US7876424B2 (en) * 2008-08-20 2011-01-25 Microsoft Corporation Distance estimation based on image contrast
US8199248B2 (en) * 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
US8120644B2 (en) * 2009-02-17 2012-02-21 Autoliv Asp, Inc. Method and system for the dynamic calibration of stereovision cameras
TWI399524B (zh) * 2009-02-20 2013-06-21 Ind Tech Res Inst 景物深度資訊之取得方法與裝置
US8229172B2 (en) * 2009-12-16 2012-07-24 Sony Corporation Algorithms for estimating precise and relative object distances in a scene
US8432479B2 (en) * 2010-04-30 2013-04-30 Apple Inc. Range measurement using a zoom camera
US8433187B2 (en) * 2011-01-18 2013-04-30 DigitalOptics Corporation MEMS Distance estimation systems and method based on a two-state auto-focus lens
US8928737B2 (en) * 2011-07-26 2015-01-06 Indiana University Research And Technology Corp. System and method for three dimensional imaging

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0579838A (ja) * 1991-09-20 1993-03-30 Fujitsu Ltd 測距方法及び測距装置
JP2001008216A (ja) * 1999-06-21 2001-01-12 Matsushita Electric Ind Co Ltd 画像処理装置
JP2007181184A (ja) * 2005-12-02 2007-07-12 Sony Corp 撮像装置および撮像方法、並びに撮像装置の設計方法
JP2008091979A (ja) * 2006-09-29 2008-04-17 Hitachi Ltd 画像高画質化装置、及びその方法、並びに画像表示装置
JP2010081263A (ja) * 2008-09-25 2010-04-08 Sony Corp 画像処理装置及び画像処理方法
US20100080482A1 (en) * 2008-09-30 2010-04-01 Earl Quong Wong Fast Camera Auto-Focus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014057303A (ja) * 2012-08-29 2014-03-27 Sony Corp 深度推定手順において改善されたシーン検出を利用するためのシステム及び方法
JP2015072155A (ja) * 2013-10-02 2015-04-16 キヤノン株式会社 画像処理装置、撮像装置及び画像処理方法
US9264606B2 (en) 2013-10-02 2016-02-16 Canon Kabushiki Kaisha Processing device, image pickup device and processing method
US9781344B2 (en) 2013-10-02 2017-10-03 Canon Kabushiki Kaisha Processing device, image pickup device and processing method for obtaining distance information from a difference in blur degree
US9710913B2 (en) 2014-04-18 2017-07-18 Canon Kabushiki Kaisha Image processing apparatus that forms distance image and control method thereof, as well as storage medium
JP2016032181A (ja) * 2014-07-28 2016-03-07 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法

Also Published As

Publication number Publication date
US8947523B2 (en) 2015-02-03
US20110279699A1 (en) 2011-11-17
CN102256056A (zh) 2011-11-23

Similar Documents

Publication Publication Date Title
JP2012003233A (ja) 画像処理装置、画像処理方法およびプログラム
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
US9697589B2 (en) Signal processing apparatus, imaging apparatus, signal processing method and program for correcting deviation of blurring in images
JP4582423B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
US9489747B2 (en) Image processing apparatus for performing object recognition focusing on object motion, and image processing method therefor
JP5484631B2 (ja) 撮像装置、撮像方法、プログラム、及びプログラム記憶媒体
US9723208B2 (en) Image processing apparatus, method for controlling the same, and storage medium
JP5453573B2 (ja) 撮像装置、撮像方法およびプログラム
US20150042839A1 (en) Distance measuring apparatus, imaging apparatus, and distance measuring method
US20160205380A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP2018107526A (ja) 画像処理装置、撮像装置、画像処理方法およびコンピュータのプログラム
US12333752B2 (en) Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium
CN109983382B (zh) 聚焦控制装置、聚焦控制方法、程序和成像装置
JP5144724B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
US10735655B2 (en) Apparatus, method, and program for image processing
US10062150B2 (en) Image processing apparatus, image capturing apparatus, and storage medium
JP6645711B2 (ja) 画像処理装置、画像処理方法、プログラム
JP4364847B2 (ja) 撮像装置および画像変換方法
US11394899B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium for generating viewpoint movement moving image
US9794464B2 (en) Image capturing system, image capturing apparatus, control method, and recording medium
JP2008263386A (ja) 静止画撮像装置
JP2017058563A (ja) 自動焦点調節装置、撮像装置、および自動焦点調節方法
JP2021060450A (ja) 撮像装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140219

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150610

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151117