JP2015032144A - 撮像装置およびその制御方法 - Google Patents

撮像装置およびその制御方法 Download PDF

Info

Publication number
JP2015032144A
JP2015032144A JP2013161267A JP2013161267A JP2015032144A JP 2015032144 A JP2015032144 A JP 2015032144A JP 2013161267 A JP2013161267 A JP 2013161267A JP 2013161267 A JP2013161267 A JP 2013161267A JP 2015032144 A JP2015032144 A JP 2015032144A
Authority
JP
Japan
Prior art keywords
distance
image
distance map
map
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013161267A
Other languages
English (en)
Other versions
JP6245885B2 (ja
JP2015032144A5 (ja
Inventor
隆弘 高橋
Takahiro Takahashi
隆弘 高橋
知 小松
Satoru Komatsu
知 小松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013161267A priority Critical patent/JP6245885B2/ja
Priority to US14/340,824 priority patent/US9961329B2/en
Publication of JP2015032144A publication Critical patent/JP2015032144A/ja
Publication of JP2015032144A5 publication Critical patent/JP2015032144A5/ja
Application granted granted Critical
Publication of JP6245885B2 publication Critical patent/JP6245885B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮影時に測距範囲を確認可能な撮像装置を提供する。
【解決手段】撮像装置1は、画像を取得する画像取得手段(画像形成回路103)と、第1の距離マップを取得する距離マップ取得手段(距離マップ算出回路106)と、前記第1の距離マップに基づいて、前記画像における測距範囲を示す測距範囲マップを生成する測距範囲マップ生成手段(測距範囲マップ生成回路112)と、前記画像と前記測距範囲マップとを合成した合成画像を生成する合成手段(画像合成回路113)と、前記合成画像を表示する表示手段(画像出力部114)と、を備える。
【選択図】図1

Description

本発明は、撮像装置に関し、特に、距離マップを取得可能な撮像装置に関する。
従来、観賞用の画像と同時に距離マップを取得する方式として、ステレオ方式(例えば、特許文献1)や、Depth from Defocus(DFD、特許文献2)、Depth from Focus(DFF、特許文献3)などがある。これらの方式は、特殊な照明を必要としないパッシブ方式であるため、一般的な撮像装置に好適な距離マップ取得方式である。DFD、DFFは、撮影画像のぼけ方が撮影シーンの撮像装置からの距離によって異なることに基づき、複数の撮影条件で撮影された画像群(2画像以上)のぼけ方の違いを解析し距離マップを算出する方法である。一方、ステレオ法は、三角測量の原理に基づき、2視点以上の撮像画像中の各画素の対応関係から求めた視差に基づき、対象シーンの距離マップを算出する方法である。ステレオ法の実施形態は、撮像装置を複数並べたり、光学系の瞳分割をして1つの撮像装置で2視点の画像を取得したりするなど様々な形態がある。
このようにして算出された距離マップは、主被写体付近を切り出す切り出し機能に利用されたり、主被写体以外の領域をぼかして擬似的に被写界深度を狭くする背景ぼかし機能に利用されたり、様々な画像処理に適用することができる。
特開平04−138577号公報 特開平01−167610号公報 国際公開第2002/082805号公報
前述の通り、距離マップを用いた画像処理を撮影者の所望の通りに行うには、ユーザが望む画像処理効果に必要な距離マップが取得されている必要がある。具体的には、連続的な奥行きを有するシーンに対して、距離マップを用いてぼけを連続的に変化させて表現させたい場合、変化させたい奥行き方向の範囲の距離マップを取得する必要がある。しかし、後述する通り、DFD、DFFやステレオ法などの距離マップ取得方式では、取得可能な距離マップの奥行き範囲(以後、測距範囲と呼ぶ)は、距離マップ取得時のパラメータに依存する。したがって、所望の測距範囲を得るにはパラメータを適切に設定する必要がある。例えば、距離マップを利用した画像処理において所望の効果を得ようとした場合、撮影シーンに適応した測距範囲を有する距離マップを得るためのパラメータ設定を行う必要がある。しかし、従来は距離マップを撮影時に確認することができなかったため、撮影後の画像処理結果を観察するまで所望の画像処理結果を得ることが可能か否かを確認できないという課題があった。
上記課題を考慮して、本発明は、撮影中に取得する距離マップの測距範囲を確認可能な撮像装置を提供することを目的とする。
上記課題を解決するために、本発明に係る撮像装置は、画像を取得する画像取得手段と、第1の距離マップを取得する距離マップ取得手段と、前記第1の距離マップに基づいて
、前記画像における測距範囲を示す測距範囲マップを生成する測距範囲マップ生成手段と、前記画像と前記測距範囲マップとを合成した合成画像を生成する合成手段と、前記合成画像を表示する表示手段と、を備える。
また、本発明に係る撮像装置の制御方法は、画像を取得する画像取得ステップと、第1の距離マップを取得する第1の距離マップ取得ステップと、前記第1の距離マップに基づいて、前記画像における測距範囲を示す測距範囲マップを生成する測距範囲マップ生成ステップと、前記画像と前記測距範囲マップとを合成した合成画像を生成する合成ステップと、前記合成画像を表示する表示ステップと、を含む。
本発明によれば、撮影中に取得する距離マップの測距範囲を確認することが可能となり、撮影者が所望する画像処理効果を得ることができる。
実施例1に係る撮像装置の構成を示すブロック図である。 実施例1に係る撮像装置の動作を示すフローチャートである。 実施例1に係る撮像装置の表示部における表示例を模式的に示した図である。 実施例2に係る撮像装置の構成を示すブロック図である。 PSFの断面をプロットした図である。 PSFピーク値のデフォーカス特性を示す図である。 PSFピーク比の特性を示す図である。 FB量の変化に伴うPSFピーク比の変化を示す図である。 計測範囲とPSFピーク比の値域のFB量依存性を示す図である。 ステレオ法の原理を示す図である。
本発明は、例えばデジタルカメラなどの撮像装置の一機能として実装される。まず、パッシブ方式の距離マップ取得方式であるDFD法、DFF法、ステレオ法の距離マップ取得原理と測距範囲を説明する。その後、本発明の具体的な実施形態について、図面を参照しながら説明する。ただし、本発明の範囲は実施形態の説明で図示した例に限定されるものではない。
<DFDの距離計測原理および計測可能な距離範囲>
(距離計測の原理)
DFD法は、同一の被写体を、撮影条件を変えて複数回撮影し、撮影画像のぼけ方の違いを手掛かりとして、距離マップを取得する。ここでは、撮影条件として、フォーカス位置を2回変えて撮影した場合を説明する。なお、本明細書中でフォーカス位置の変更量であるフォーカスブラケット量(FB)は、特に断りの無い限り、センサ側(以下、像面)の移動量(第一フォーカス位置の像面と第二フォーカス位置の像面の間の距離)を指す。
(PSFピーク値のデフォーカス特性)
本実施形態のDFD法では、光学系のPSF(Point Spread Function:点拡がり関数)のピーク値のデフォーカス特性を利用して距離を推定する。以下、収差の無い理想的な撮像光学系のPSFを用いて説明するが、実際の撮像光学系においてもほぼ同様に扱うことができる。
フォーカス位置での収差の無い理想的なPSFの形状は、PSF中心の座標における値をピークとしてなだらかに減少していくガウス関数のような形状をしている。図5にPS
Fの断面形状を実線で示す。デフォーカスするに従い、PSF座標中心での値は低下し、形状は崩れていく。図5の点線はそれぞれ、20μm、40μm、60μm、80μmだけデフォーカスした場合のPSFの断面を示している。ここでは、このPSFの座標中心での値を「PSFピーク値」と定義する。
図6は、収差がない理想的な撮像光学系におけるPSFピーク値のデフォーカス特性を示している。横軸がデフォーカス量、縦軸がPSFピーク値である。なお、撮影条件は、撮像光学系の焦点距離:18.0mm、F値:4.00、物体距離:3000mm、フォーカスブラケット量:−0.02mm、波長:587.56nmである。図6に示すように、PSFピーク値はフォーカス位置で最大となり、デフォーカスするに従って低下し、SINC関数のように振動しながら0へと近づいていく。
(PSFピーク比)
次に、PSFピーク値から距離を算出する方法について説明する。図6に示したように、PSFピーク値はデフォーカス量に依存する。従って、PSFピーク値を撮影画像から算出できれば、デフォーカス量がわかり、被写体までの物体距離に換算することが可能となる。しかしながら、被写体の空間周波数等の影響があるため、1枚の画像から撮像光学系のPSFピーク値を正確に求めることは困難である。そこで、撮影条件を変えて撮影した複数の画像を用いて、被写体の影響を除去する。被写体の影響をキャンセルするためには、比を取るのが良い。以下、2つの画像からそれぞれ求めたPSFピーク値の比を「PSFピーク比」と定義する。本実施形態の距離計算では、理論的に求めた撮像光学系のPSFピーク比のデフォーカス特性と、実際に撮影して得た2枚の画像から求めたPSFピーク比の値との対応を取ることで距離を算出する。
図7は、理論的に求めた、2画像それぞれPSFピーク値のデフォーカス特性と、PSFピーク比のデフォーカス特性を示している。撮影条件は図6と同じである。横軸は像面側のフォーカス位置である。図7において、点線で示した2つの曲線が、フォーカス位置の異なる2つのPSFピーク値のデフォーカス特性であり、実線で示した曲線が、PSFピーク比のデフォーカス特性である。ピーク比をとる際は、ピークの大きな方を分母とすることで、正規化している。その結果、PSFピーク比は最大値が1となり、2つのフォーカス位置の中間位置にピークを持ち、ピークから離れるに従い値が低下していく対称な曲線となる。
実際に撮影された2画像から、画像中の各点(画素又は画像群)のPSFピーク比を求め、その値を図7の実線で示されるデフォーカス特性に当てはめれば、画像中の各点に写っている物体が、基準のフォーカス位置からどれだけ離れているかを計算できる。なお、図7の場合、基準のフォーカス位置は、2画像のフォーカス位置の中間位置である。また、どちらのPSFピーク値で正規化したか(どちらのPSFピーク値が大きいか)により、基準のフォーカス位置より手前側(撮像装置側)か奥側かの区別も可能である。
PSFピーク比から物体側での距離Z0を求めるためには、まずPSFピーク比の値から、像面上でのフォーカス位置からのデフォーカス量Ziを求める。次に、焦点距離fおよび物体距離sから、式2により像面側距離s’を求め、デフォーカス量Ziを用いて式3により物体距離側の距離Z0に変換する。
Figure 2015032144

Figure 2015032144
(画像からのPSFピーク比算出方法)
実際に撮影して得られた2画像からPSFピーク比を計算する方法について説明する。2画像において、対応する局所領域I1とI2はシーンsとPSF1およびPSF2の畳み込みで表される。フーリエ変換した前記領域をFI1、FI2とし、シーンsのフーリエ変換をSとすると、この比は、式3のように表される。
Figure 2015032144

ここで、PSFをフーリエ変換した光学伝達関数をOTFとし、2つのOTFの比をOTFrとする。このOTFrは、式3に示すようにシーンSが打ち消されることでシーンに依存しない値となる。このOTFrからPSFピーク比PSFrを求めるには、式4に示すようにOTFrの平均値を求めればよい。PSFのピークが画像I1,I2の中心にあるとすると、PSFピーク比PSFrは
Figure 2015032144

が成り立つ。これを離散的に表現すると、
Figure 2015032144

となる。式5により画像から算出されたPSFピーク比PSFrを図7に示すようなPSFピーク比のデフォーカス特性に当てはめることで、局所領域I1とI2に写っている物体のデフォーカス量、すなわち距離情報を得ることができる。
(測距範囲)
次に、PSFピーク比を用いた距離計測において、計測可能な距離範囲(以下、測距範囲)に関して図7を用いて説明する。図7の実線で示すように、PSFピーク比のデフォーカス特性は、異なる二つのフォーカス位置の中間位置から徐々に値が低下し、極小値に達した後、再び上昇し、これを繰り返す。これは図6に示すように、PSFピーク値のデフォーカス特性が振動しているためである。以下、PSFピーク値、PSFピーク比などのデフォーカス特性曲線における最大ピークを「最大ピーク」もしくは「一次ピーク」と呼び、最大ピークの前側と後ろ側にそれぞれ最初に現れる極小値を「一次極小値」と呼ぶ。
図6のPSFピーク値のデフォーカス特性を見ればわかるように、一次極小値以降のPSFピーク値は、値が小さくノイズ等の影響を受けやすい。そのため、比を取った際にばらつきが大きく信頼性が低い。よって、測距範囲は、PSFピーク比のデフォーカス特性(図7の実線)において、最大ピークの前側の一次極小値の位置と後側の一次極小値の位置の間の測距範囲701である。実際には、PSFピーク比がゼロに近いとノイズ等によ
り精度が下がるため、前側の一次極小値と後側の一次極小値の間よりもやや狭い範囲を計測可能範囲に設定することが望ましい。図7の例では約−75μm〜55μmが計測可能範囲となる。なお、図における負方向を前側とする。
ここで、計測可能範囲を規定するPSFピーク比の一次極小値の位置は、PSFピーク値のデフォーカス特性(図6)の一次極小値の位置に依存する。すなわち、図7に示すように前側のPSFピーク比の一次極小値の位置は、フォーカス位置の異なる2画像のうち、フォーカス位置が後側の画像のPSFピーク値の前側の一次極小値の位置に対応している。一方、後側のPSFピーク比の一次極小値の位置は、フォーカス位置が前側の画像のPSFピーク値の後側の一次極小値の位置に対応している。つまり、計測可能範囲は、PSFピーク値のデフォーカス特性(前後の一次極小値の間隔)とフォーカスブラケット量によって決まる。
光学系のF値をF、光の波長をλとしたとき、その光学系(収差は無いものとする)におけるPSFピーク値のデフォーカス特性における前側と後側の一次極小値の間隔は、約15Fλと求めることができる(「約」と記載したのは、厳密には、前後の一次極小値の間隔は15Fλ〜16Fλの間の値となるからである)。従って、フォーカスブラケット量をFbとすると、計測可能範囲Rは以下の式で表される。
Figure 2015032144
(フォーカスブラケット量とPSFピーク比の特性)
次に、フォーカスブラケット量と計測可能範囲の変化の関係、およびフォーカスブラケット量とPSFピーク比の値域変化の関係を説明する。図8(a)〜(f)にフォーカスブラケット量を変えた場合のPSFピーク値のデフォーカス特性と、PSFピーク比の変化を示す。フォーカスブラケット量は、2つのPSFピーク値のデフォーカス特性(点線)の横軸方向の差である。つまり、図8(a)〜(f)にいくに従って、フォーカスブラケット量を徐々に大きくしている。ここでは、2つのPSFピーク値のデフォーカス特性の交点(点線の交点)における値が、PSFピーク値の最大値の99.8%、90%、70%、50%、20%、5%となるように設定した例を示している。フォーカスブラケット量の増加に伴い、PSFピーク比(実線)の特性が変化することが分かる。具体的には、フォーカスブラケット量が大きくなるに従って、計測可能範囲(PSFピーク比の最大ピークの前側の一次極小値位置と後側の一次極小値位置の間の範囲)が狭くなっていくことがわかる。このような特性は式6から明らかである。
PSFピーク比の値域(PSFピーク比の最大値と一次極小値の差)は、フォーカスブラケット量が大きくなるにつれて急激に広がり、その後、徐々に1に近づいていく。PSFピーク比の値域が広いほど距離分解能が高く、ノイズ等の変動要因に対して耐性が高くなり距離推定精度が向上する。また、フォーカスブラケット量が大きくなるに従い、PSFピーク比のデフォーカス特性が急峻になっていくが、これも距離分解能(推定精度)に影響する。PSFピーク比の傾きが大きければ、僅かな距離差でもPSFピーク比の値の変化を検知しやすくなるからである。
フォーカスブラケット量に伴う計測可能範囲の変化、およびPSFピーク比の値域の変化をそれぞれ図9(a)、(b)に示す。図9(a)において、横軸がフォーカスブラケット量であり、縦軸が像面側での計測範囲である。同様に図9(b)において、横軸がフォーカスブラケット量であり、縦軸がPSFピーク比の値域である。ここで、PSFピーク比は正規化されているため、値域の最大値は1である。なお、フォーカスブラケット量が0の場合は距離計測できないため特異点となる。図9(a)、(b)より、フォーカス
ブラケット量を大きくしていくと計測可能範囲が狭くなるものの、距離分解能(推定精度)は向上することが分かる。
(最適な撮影条件の指針)
式6に示したように、測距範囲(R)は、F値(F)、波長(λ)、及びフォーカスブラケット量(FB)の関数で与えられる。また、図9(a)、(b)から分かるように、フォーカスブラケット量(FB)を変えると、測距範囲(R)だけでなく、距離分解能(推定精度)も変化する。従って、所望の距離範囲や精度といった計測条件が与えられた場合に、それを満足するように、各画像を撮影する際のフォーカス位置や光学系のF値などの撮影条件を適切に設定することが望ましい。
基本的な考え方は次のとおりである。計測すべき距離範囲が狭いほど、2画像を撮影するときのF値は小さくするとよい。F値を小さくするほど被写界深度が浅くなる(PSFピーク比のデフォーカス特性が急峻になる)ので、距離分解能(推定精度)の向上が期待できるからである。このときのフォーカスブラケット量はF値に応じて適宜決めればよい。また、F値を変更できない撮像装置の場合には、計測すべき距離範囲が狭いほど、フォーカスブラケット量を大きくすればよい。上述したように、フォーカスブラケット量を大きくするほど距離分解能(推定精度)が向上するからである。
F値とフォーカスブラケット量の具体的な決定方法の一例を説明する。まず、F値(F)とフォーカスブラケット量(FB)を次の関係式を用いて設計する。つまり、フォーカスブラケット量を被写界深度に比例する量として捉えるのである。なお式8において、kはフォーカスブラケット量の大きさを調整するための係数、λは波長である。
Figure 2015032144
式7を式6に代入したものが、下記の式8である。
Figure 2015032144
例えば、測距範囲rが与えられた場合には、式9を用いて、距離範囲rを満足するF値を決定することができる(係数kと波長λは予め決まっているものとする)。具体的には、r≦R、すなわち、
Figure 2015032144
を満たすように、F値を決める。例えば、撮像光学系で設定可能なF値の中で、式9を満たす最小のF値を選べばよい。そして、そのF値を式7に代入することにより、フォーカスブラケット量FBを決定することができる。2つの画像を撮影するときのフォーカス位置(像面側の位置)は、距離範囲rの中心位置rcを基準に、それぞれ、rc−FB/2、rc+FB/2のように決めればよい。以上の方法により、計測可能範囲Rを計測可能な撮影条件として、F値、フォーカスブラケット量、2画像それぞれのフォーカス位置を決定することができる。
(係数k)
次に係数kの好ましい値について説明する。本発明者はシミュレーションと実験により、好ましい係数kの値を以下のように見出した。係数kは、0<k<15の範囲の値とすべきである。kが15よりも大きいと、被写体のボケが大きくなりすぎ、計測精度が低下
するからである。なお、k=0が除外されているのは、同じフォーカス位置の画像からはボケの違いが得られないからである。距離計測の目的が、距離の2層分離、つまり被写体が特定の距離範囲に含まれるか否かを判定するというものである場合、係数kは、8<k<15の範囲の値に設定するとよい。係数kが大きいほどフォーカスブラケット量は大きくなり、計測可能範囲が狭まる(図8(e)、(f)参照)。計測可能範囲が狭いということは、ある特定の距離周辺に被写体が存在するかしないかで、PSFピーク比の値が大きく変化するということである。よって、2層分離の場合は、フォーカスブラケット量をある程度大きくするほうがよい。
一方、距離計測の目的が、距離の多層分離、つまり被写体が3つ以上の距離範囲のうちのいずれに含まれるかを判定するというものである場合、係数kは、1<k≦8の範囲の値に設定するとよい。図8(b)〜(d)に示すように、係数kが小さいほどフォーカスブラケット量は小さくなり、計測可能範囲が広がるため、2層以上の分離に適するからである。なお、0<k≦1の範囲を除外した理由は、この場合は、計測可能範囲は広がる反面、距離分解能が低下してしまうため、多層の分離に向かないからである(図8(a)参照)。さらに、係数kが2≦k<4の範囲の値であると好適である。この範囲では、計測可能範囲の広さと距離分解能のバランスが特に良好となり、広い距離範囲を高い精度で計測することが可能になるからである(図8(b)、(c)参照)。以上のように、距離計測の目的に応じて、係数kの値は0〜15の範囲で適宜設定すればよい。
以上、説明したように、DFD法において、測距範囲と2画像の撮影条件に関連性がある。すなわち、所望の測距範囲の正しい距離マップを取得するには、そのシーンに応じた撮影条件を設定する必要がある。
<DFF法の距離計測原理および計測可能な距離範囲>
DFF法の場合は、フォーカス位置を変更して取得した複数の画像の中で、被写体領域中の最も合焦しているフォーカス位置を決定し、その位置から物体側の距離を式2の結像公式を用いて算出することができる。このフォーカス位置をどの範囲で動かすかによって、測距範囲が決定する。しかし、フォーカス位置の移動範囲を広くすれば、その分時間がかかるためフォーカス位置の移動ステップを粗くするなど、トレードオフ関係があることは容易に想像できる。
<ステレオ法>
次に、図10を用いて、ステレオ法の距離計測原理および計測可能な距離範囲について説明する。図10(a)は三次元空間中の点Pを、同一の焦点距離を有する2台のカメラを用いて撮影している状況を上から見た模式図である。各撮像装置の光軸は並行で、かつ、同一の高さに設置されるよう調整されているものとする。また、図10(b)は、左右の撮像装置で取得した画像をそれぞれ表している。
今、点Pが左カメラ、右カメラのそれぞれのPl(u,v)、Pr(u’,v’)に写っているとする。焦点距離から点Pまでの距離をD、撮像装置の焦点距離をf、撮像装置の光軸間の距離(以下、基線長と呼ぶ)をb、各カメラで取得した画像の点Pの位置PlとPrの差(以下、視差)をdで表現すると、Dは式(10)で算出することができる。
Figure 2015032144

なお、視差dは、撮像装置の光軸が平行で、同一の高さになるよう校正されているため、式10に記載の通り、横方向の変化のみを考えればよい。各撮像装置の光軸や高さが校正
されていない場合は、事前に校正する必要がある。式10の通り、fは光学系が決定すれば一意に定まるが、基線長bおよび視差dは計測対象までの距離に必要な分解能によって適切に設定する必要がある。基線長に関しては、カメラの配置を変更することで対応が可能である。
視差は、一般的には、左右の画像を対応する点を全画素について算出して求める必要があり、基準とする画像の局所領域を他方の画像から探索するブロックマッチング等の画像処理により求める。この時、視差の最小分解能は、前記ブロックマッチングの探索精度に依存し、画素間隔あるいはサブ画素間隔である。また、視差の値域(範囲)は、ブロックマッチングの探索範囲に依存し、撮影シーンのなかで測距したい近景までの距離に対応する視差と、許容される計算時間によって決定される。即ち、探索範囲が狭ければ、ある距離より手前側の対象物は検出できなくなる。このように、ステレオ法においては、探索範囲と測距可能な範囲にトレードオフの関係がある。
以上、パッシブ距離マップ取得方式として、DFD、DFF、ステレオ法それぞれの方式の距離マップ取得原理および測距範囲の関係について説明した。いずれの方式も、測距範囲は事前に設定したパラメータと関連がある。そのため、撮影対象・撮影条件に応じて調整できることが望ましいことが分かる。
<実施例1>
以下、本発明の好ましい実施形態について図面を参照しながら説明する。ただし、発明の範囲は実施形態の説明で図示した例に限定されるものではない。
(構成)
図1は、本実施形態に係る撮像装置1の構成を模式的に示している。撮像装置1は、DFD方式により距離マップを取得する。撮影レンズ100は、撮像素子102に被写体光を導く。露光制御部材101は絞りやシャッタ等を含む。撮影レンズ100を介して入射された被写体光は、露光制御部材101を介して撮像素子102へ入射される。撮像素子102は被写体光を電気信号に変換して出力する撮像素子であり、典型的にはCCDやCMOS等のイメージセンサで構成される。画像形成回路103は、撮像素子102から出力されたアナログ信号をデジタル化して画像化するための画像形成回路である。画像形成回路103は、不図示のアナログ/デジタル変換回路、オートゲイン制御回路、オートホワイトバランス回路、画素補間処理回路、色変換回路などによって構成される。画像形成回路103は、本発明における画像取得手段に相当する。露光制御部104は、露光制御部材101を制御する手段である。また、フォーカス制御部105は撮影レンズ100のフォーカシングを制御する手段である。露光制御部104およびフォーカス制御部105は、例えば、TTL方式(Through The Lens:撮影用のレンズを実際に通った光を測定することで露出やフォーカスを制御する方式)を用いて制御される。距離マップ算出回路106は、フォーカス制御部105で制御されたフォーカス位置に応じ、距離マップパラメータ算出回路107で制御された撮影条件で撮影された2画像を基に距離マップを算出する回路である。距離マップパラメータ算出回路107は、フォーカス制御部105で制御されたフォーカス位置や、所望の測距範囲などから距離マップを取得するために好適な撮影条件を算出する回路である。システム制御回路108は、撮像装置1全体の動作を司る制御回路であり、撮影のための光学系の制御と、撮影した画像をデジタル処理するための制御を行う。距離マップ算出回路106および距離マップパラメータ算出回路107は、それぞれ、本発明における距離マップ生成手段およびパラメータ変更手段に相当する。
メモリ109は、システム制御回路108で用いる動作制御用のデータ、および処理プログラムなどを記録するフラッシュROM等を用いたメモリである。また、不揮発性メモ
リ110は各種調整値などの情報を記憶する、電気的に消去および記録可能なEEPROM等の不揮発性メモリである。フレームメモリ110は、画像形成回路103で生成された画像を数フレーム分記憶するフレームメモリである。また、メモリ制御回路111は、フレームメモリ110に入出力される画像信号を制御するメモリ制御回路である。測距範囲マップ生成回路112は、距離マップ算出回路106で生成された距離マップを元に測距範囲を表す測距範囲マップを生成する回路である。画像合成回路113では、画像形成回路103で生成された観賞用画像と測距範囲マップ生成回路112で生成された測距範囲マップを合成し、不図示の表示装置に表示する表示画像を生成する回路である。画像出力部114は、画像形成回路103や画像合成回路113で生成された画像を不図示の画像出力装置(ディスプレイ等)に表示するための機能部である。入力部115は、ユーザからの入力操作を受け付けるための機能ブロックであり、ボタンやスイッチ、タッチパネルなどから構成される。本実施例では、ユーザは、測距範囲マップが合成された表示画像を確認しながら、測距範囲の調整を指示する操作を入力可能である画像処理部116は、観賞用画像に対して距離マップに基づいた画像処理(例えば、切り出し処理や背景ぼかし処理など)を行う。
(処理の流れ)
次に、図2のフローチャートを用いて、本実施形の撮影開始から完了までの処理の流れを説明する。まず、ステップS201では、撮影者が撮影対象に対して、ズームなどを行い、構図を決めと同時にシャッタ速度やFナンバーなど所定の撮影条件を設定する。なお、撮影条件の一部を撮像装置1が自動的に決定しても良い。また、ここでは、距離マップを取得して所望の画像処理を行うモードにユーザが設定したものとする。
次に、ステップS202で、撮影スイッチの1stスイッチを押したか否かを判定する。押していない場合は何もせず、押した場合はステップS203へ移動する。
ステップS203では、S201で決定した構図や撮影条件でフォーカス調整を行う。このフォーカス調整方法は、コントラスト法や位相差方法など、様々な方法によって実現可能で、特に制限はない。
ステップS204では、距離マップパラメータ算出回路107が、距離マップ取得のための撮影条件、および距離マップ生成のパラメータ(距離マップ取得用パラメータ)設定を行う。まず、距離マップ取得のための撮影条件として、ステップS203で取得したフォーカシング制御における主被写体までの距離sを取得する。続いて、測距範囲の初期値r0を設定する。この初期値の設定方法は、特に制限はなく、主被写体距離sと焦点距離から設定したり、主被写体距離から想定される像倍率などから決定したりすればよい。例えば、s=2000mmで、主被写体が人物の上半身のような場合、後段の画像処理では主被写体はぼかさず、かつ、背景の連続的な奥行きは奥行きに応じてぼかしたい場合を想定すると、r0は約5m程度とする。このような、測距範囲初期値をテーブルで保持してもよいし、所定の関係式から類推してもよいし、撮影者の設定履歴などから類推してもよいし、その方法には制限はない。距離マップパラメータ算出回路107は、決定した測距範囲に応じて、距離マップ取得のための2画像のフォーカス位置を決定する。ここでは、一方の画像のフォーカス位置は主被写体の位置とし、他方の画像のフォーカス位置は上記測距範囲を満たすようなフォーカスブラケット量だけ主被写体位置から変更した位置とする。
さらに、ここでは、ステップS205で行う距離マップ生成のパラメータ設定を行う。ここでは表示部に表示可能な画素数相当の解像度(観賞用画像よりも低い解像度)で距離マップを生成すればよいので、そのようなパラメータ設定を行えばよい。一般的に表示部の画素数はVGA(640x480画素)程度なので、距離マップを求める位置を表示部
の画素数に相当するように算出することで、計算コストを低減し高速化を図る。このことで、本撮影前に距離マップの測距範囲を確認することが可能となる。
次に、ステップS205において、プレ撮影を行って、表示用の観賞画像(以下、プレビュー画像)および表示用距離マップの取得を行う。システム制御部108は、ステップS206において設定された撮影パラメータにしたがって、2枚の画像を撮影する。画像形成回路103は、2画像のうち主被写体にフォーカスがあった画像に対して、所定の信号処理を施してプレビュー画像を生成する。プレビュー画像の画質(解像度等)は本撮影時よりも低品質でよい。一方、距離マップ算出回路106は、2画像とステップS206で設定されたパラメータに基づいて表示用距離マップを生成する。距離の算出方法は、式1〜式5に示した通り、撮影条件の異なる2画像のPSFピーク比に基づいて、距離マップを算出する。なお、局所領域の大きさは任意である。この時、ステップS204において、離散的に距離マップを算出するよう設定されているため、算出していない領域は算出した領域で代表したり、補間したりするなどの処理を行って距離マップを生成すればよく、その方法に制限はない。
ステップS205では、測距範囲マップ生成回路112が、生成された表示距離マップに基づいて、測距範囲マップを生成する。測距範囲マップは、測距可能な範囲(奥行き範囲)を表すマップで、画素毎に測距可能か否かを示す。例えば、距離マップをDとして、測距範囲を表すスコアの最小値および最大値をsminおよびsmaxとしたときに、測距範囲マップRは、R=1(smin≦D≦smax)、0(それ以外の時)である。
次に、ステップS206で、画像合成回路113は、ステップS205で生成した測距範囲マップとプレビュー画像(観賞用画像)を合成した合成画像を生成し、画像出力部114が不図示の画像表示装置にこの合成画像を表示する。合成画像は、プレビュー画像において、どの部分が測距範囲内であるかが分かるように表示された画像である。具体的には、プレビュー画像をI、測距範囲マップR、表示用合成画像をI’とすると、以下の式に基づいて合成画像を生成することができる。
Figure 2015032144

ただし、αは、0<α<1を満たす定数である。
この様子を、図3を用いて説明する。図3(a)は、撮影者が構図や撮影条件を決定した状態の表示画像であり、主被写体401をピント面として、背景の壁402が連続的に続いているシーンを表している。図3(b)が、ステップS202で1stスイッチを押下後、ステップS203〜S206にかけて、表示用距離マップを取得し、測距範囲403を合成して表示した様子を表している。ここで、測距範囲を表すRを二値で表すようにしたが、測距範囲403を識別可能な態様であれば、任意の方法により合成画像を生成することができる。たとえば、濃淡や擬似色をつけるようにしてもよく、その方法に特に制限はない。
次にステップS207において、撮影者が合成画像を観察して、表示されている測距範囲で所望の画像処理が実現可能か否かを判断する。その様子を図3(c)に示す。
ここで、現在の測距範囲で良ければ、撮影者は入力部115を操作して、図3(c)のOKを選択する。これに応答して、距離マップパラメータ算出回路107は、ステップS210で画像処理用距離マップ取得のためのパラメータ設定を行う。具体的には、最終的に記録する画素数(解像度)に合わせた距離マップを生成するようパラメータ設定を行う
。次に、ステップS211で、本撮影を行って観賞用画像と距離マップの取得を行う。システム制御部108は、ステップS210において設定された撮影パラメータに基づいて、2枚の画像を撮影する。画像形成回路103は、2画像のうち主被写体にフォーカスがあった画像に対して、所定の信号処理を施して観賞用画像を生成し、所定の圧縮処理などを実施後記憶する。また、距離マップ算出回路106は、2つの画像とステップS210で設定されたパラメータに基づいて距離マップ(画像処理用距離マップ)を生成する。その後、ステップS212において、画像処理部116は、画像処理用距離マップを取得し、この距離マップに基づいて観賞用画像に対して画像処理を行い、所定の圧縮処理などを実施後に不揮発性メモリ110に記録する。
ステップS207で、測距範囲を変更したい場合は、撮影者は入力部115を操作して、図3(c)のNoを選択する。そうすると処理はステップS208へ移り、撮影者に対して、測距範囲の変更を促す。撮影者は入力部115を介して測距範囲の変更指示を入力する。例えば、図3(d)のように、撮影者が、現在の測距範囲403から測距範囲404のように測距範囲を広げるよう不図示のユーザーインターフェース(ボタンやタッチパネル)を用いて変更する。撮影範囲を変更するためのユーザーインターフェースは任意であって良く、例えば、測距範囲を拡大・縮小や平行移動を可能するものや、任意の範囲指定を可能とするもの採用できる。
次にステップS209において、距離マップパラメータ算出回路107は、ステップS208で変更された測距範囲を達成するための撮影パラメータを算出する。具体的には、距離マップパラメータ算出回路107は、ステップS208における測距範囲の変更度合いに基づいて撮影パラメータを変更して測距範囲を変更する。例えば、変更前の測距範囲403と変更後の測距範囲404の大きさの変更度合(大きさの比)に基づいて、撮影パラメータを変更して測距範囲を変更する。具体的には、変更前の測距範囲403と変更後の測距範囲404の変更度合が所定の閾値よりも大きい場合(測距範囲403の四角形の右辺と左辺と測距範囲403の右辺と左辺の変位量が閾値よりも大きい場合)は、F値をあらかじめ決められた量だけ変更する。一方、変更前の測距範囲403と変更後の撮影範囲404の変位量が所定の閾値以下の場合は、フォーカスブラケット量、あらかじめ決められた移動量だけ変更する。なお、測距範囲を拡大する場合には、F値を大きな値にするか、フォーカスブラケット量を小さな値に変更する。逆に、測距範囲を縮小する場合には、F値を小さな値にするか、フォーカスブラケット量を大きくする。
次にステップS209において、距離マップパラメータ算出回路107は、ステップS208で変更された測距範囲を達成するための撮影パラメータを算出する。具体的には、先に説明したように、Fナンバーやフォーカスブラケット量を再度算出し、撮影条件として設定する。この際、測距範囲403と測距範囲404の大きさの変更度合を考慮して、撮影パラメータを変更することも好ましい。具体的には、測距範囲403と測距範囲404の変更度合が大きい場合は、即ち、測距範囲403の四角形の右辺と左辺と測距範囲403の右辺と左辺の変位量が大きい場合、F値を一段大きな値に設定する。測距範囲403と撮影範囲404の変位量が小さい場合は、フォーカスブラケット量、あらかじめ決められた移動量だけ小さくすればよい。
その後、処理はステップS202に戻り、1stスイッチが押されたら、ステップS203以降について同様に処理を行う。図3(e)が、変更された撮影条件で撮影した際の測距範囲405を表している。
(効果)
以上説明したように、本実施形態に係る撮像装置は、撮影時に表示用距離マップを取得合成し、表示部に表示している。これにより、撮影者は現在の撮影における測距範囲を容
易に確認することができる。さらに、撮影者が測距範囲の変更を指示した場合には、指定された測距範囲を測距できるように、距離マップ取得用の撮影パラメータを自動で変更する。このことで、撮影者は所望する測距範囲の距離マップを得られ、さらには所望する画像処理結果を確実に得られるという効果がある。
(変形例)
前記実施例において、距離マップ取得方法をDFD方式として説明したが、DFF方式の場合においても適用可能である。DFF方式の場合は、撮像装置を固定可能で、かつ、被写体が静止しているような場合に好適である。このような場合は、処理全体の流れは変わらず、各回路および処理の内容を変更するだけでよい。
まず、距離マップパラメータ算出回路107に、フォーカスブラケット量および範囲の初期値を撮影条件毎に保持しておけばよい。また、距離マップ算出回路106は、画像中の撮影された複数画像のうち、同一の局所領域中のコントラスト値などの評価値を算出し、評価値の最も高い画像から、式1、式2を用いて距離を推定して距離マップを算出すればよい。このようにして、作成した距離マップを、DFDの場合と同様に観賞用画像と合成し、表示して、測距範囲を撮影者に確認する。撮影者は、必要であれば測距範囲の変更指示を行う。DFFの場合は、測距範囲はフォーカスブラケット範囲そのものになるので、枚数を一定にして範囲を増やすよう変更すればよい。
以上のようにすることで、DFFにおいても撮影完了前に距離マップの測距範囲を確認・変更することが可能となり、DFDの場合と同様、撮影者が所望する画像処理結果を確実に得られるという効果がある。
<実施例2>
次に、本発明の第2の実施例として、2眼ステレオ方式で距離マップを取得し、所望の画像処理を行う場合について、図を用いて説明する。
(構成)
本実施例における撮像装置の構成を図4に示す。本実施例における撮像装置は図1に示した撮像装置1と共通するものは、図1の符号と同符号を付し、相違点のみ説明する。
本実施例に係る撮像装置4は、2眼ステレオ方式であるため、撮影レンズ400、露光制御部材401、撮像素子402がそれぞれもう1組追加される。それらを制御する、露光制御部104、フォーカス制御部105は2組の露光制御部材、撮影レンズを制御する。また、画像形成回路103は、2つの撮像素子102、402からの出力を画像化することとする。距離マップ算出回路403、距離マップパラメータ算出回路404はそれぞれステレオ方式に対応した距離マップ算出およびパラメータ設定を行う回路である。2つのレンズの光軸は調整されているものとする。また、ここでは、基線長は固定とするが、基線長を変更させる機構を追加してもよく、特に限定は無い。
(処理の流れ)
次に、本実施例の撮像装置の場合の処理の流れをフローチャートを用いて説明する。
本実施例の処理の流れは、第1の実施例の処理の流れ図2と同じで、ステップS204〜ステップS205の各ステップの処理内容のみが異なるので、相違点のみ説明する。
ステップS204において、距離マップ算出をステレオ法で行うようにすればよい。ステップS204では、ステレオ法の算出パラメータを設定する。具体的には、式10で示した通り、被写体距離は、基線長bと視差dにより決定する。基線長bを固定とした場合は、視差dの探索範囲(ブロックマッチングの探索範囲)によって、測距範囲が決定する
。探索範囲がd0であるということは、基準画像を左画像(x,y)とした際に、右画像の(x±d0,y)で表される範囲で最も類似している領域を探索することを意味する。ただし、ここでは、撮像装置の光軸方向や高さが校正されているものとして、探索範囲を水平方向のみとしたが、校正されていない場合は垂直方向など探索範囲とすればよい。視差の探索範囲d0と視差の探索範囲の関係は式10から導ける。また、基線長bが可変な構成であれば、基線長bを変化させることによって測距範囲を調整しても良い。
ステップS206〜ステップS208は実施例1と同一の処理であるため、説明は割愛する。
ステップS209で、撮影者から指示されたように測距範囲を変更する。具体的には、撮影者の手前側に測距範囲を拡大するように指示された場合は、ブロックマッチングの探索範囲d0を大きくすることで対応することが可能である。また、測距範囲を奥行き方向に拡大したい場合は、式10からわかるように、焦点距離fや基線長bを大きくすればよい。
(効果)
以上、説明したように距離マップ取得方式がステレオ法の場合においても、撮影完了前に距離マップの測距範囲を確認することが可能となり、撮影者の所望する画像処理結果を確実に得ることが可能になる、という効果がある。
(変形例)
上記では、2眼ステレオ方式を例に説明したが、光学系の瞳分割を行って1つの光学系で2視点の画像を取得する撮像装置にも本発明を適用可能である。
<その他の実施例>
なお、上記装置への具体的な実装は、ソフトウェア(プログラム)による実装と、ハードウェアにより実装のいずれも可能である。例えば、記憶装置に記録されたプログラムを読み込み実行することで前述した実施形態の機能を実現するシステムや装置のコンピュータ(又はCPU、MPU等のデバイス)によっても、本発明を実施することができる。また、例えば、記憶装置に記録されたプログラムを読み込み実行することで前述した実施形態の機能を実現するシステムや装置のコンピュータによって実行されるステップからなる方法によっても、本発明を実施することができる。この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。したがって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
1 撮像装置
103 画像形成回路
106 距離マップ算出回路
112 測距範囲マップ生成回路
113 画像合成回路
114 画像出力部

Claims (14)

  1. 画像を取得する画像取得手段と、
    第1の距離マップを取得する距離マップ取得手段と、
    前記第1の距離マップに基づいて、前記画像における測距範囲を示す測距範囲マップを生成する測距範囲マップ生成手段と、
    前記画像と前記測距範囲マップとを合成した合成画像を生成する合成手段と、
    前記合成画像を表示する表示手段と、
    を備える、撮像装置。
  2. 前記距離マップ取得手段の測距範囲の変更指示をユーザから受け付ける変更指示手段と、
    前記変更指示手段により変更された測距範囲に基づいて、前記距離マップ取得手段が用いる距離マップ取得用パラメータを変更するパラメータ変更手段と、
    距離マップに基づいて前記画像に画像処理を施す画像処理手段と、
    を更に備え、
    前記距離マップ取得手段は、前記パラメータ変更手段によって変更された距離マップ取得用パラメータを用いて第2の距離マップを取得し、
    前記画像処理手段は、前記第2の距離マップに基づいて、前記画像に画像処理を施す、
    請求項1に記載の撮像装置。
  3. 前記第1の距離マップの解像度は、前記第2の距離マップの解像度よりも低い、
    請求項2に記載の撮像装置。
  4. 前記パラメータ変更手段は、前記変更指示手段による変更前の測距範囲と変更後の測距範囲の変更度合いに基づいて、距離マップ取得用パラメータを変更する、
    請求項2または3に記載の撮像装置。
  5. 前記距離マップ取得手段は、DFDにより距離マップを取得するものであり、
    前記距離マップ取得用パラメータは、F値またはフォーカスブラケット量の少なくともいずれかである、
    請求項4に記載の撮像装置。
  6. 前記パラメータ変更手段は、前記変更度合いが所定の閾値より大きければF値を変更し、前記変更度合いが前記所定の閾値以下であればフォーカスブラケット量を変更する、
    請求項5に記載の撮像装置。
  7. 前記距離マップ取得手段は、ステレオ法、DFD、DFFのいずれかの方式により距離マップを取得する、
    請求項1から6のいずれか1項に記載の撮像装置。
  8. 画像を取得する画像取得ステップと、
    第1の距離マップを取得する第1の距離マップ取得ステップと、
    前記第1の距離マップに基づいて、前記画像における測距範囲を示す測距範囲マップを生成する測距範囲マップ生成ステップと、
    前記画像と前記測距範囲マップとを合成した合成画像を生成する合成ステップと、
    前記合成画像を表示する表示ステップと、
    を含む、撮像装置の制御方法。
  9. 測距範囲の変更指示をユーザから受け付ける変更指示ステップと、
    変更指示ステップにおいて変更された測距範囲に基づいて、距離マップ取得用パラメータを変更するパラメータ変更ステップと、
    変更された距離マップ取得用パラメータを用いて第2の距離マップを取得する第2の距離マップ取得ステップと、
    前記第2の距離マップに基づいて、前記画像に画像処理を施す画像処理ステップと、
    を更に含む、請求項8に記載の撮像装置の制御方法。
  10. 前記第1の距離マップの解像度は、前記第2の距離マップの解像度よりも低い、
    請求項9に記載の撮像装置の制御方法。
  11. 前記パラメータ変更ステップでは、前記変更指示ステップにおける変更前の測距範囲と変更後の測距範囲の変更度合いに基づいて、距離マップ取得用パラメータを変更する、
    請求項9または10に記載の撮像装置の制御方法。
  12. 距離マップは、DFDにより取得されるものであり、
    前記距離マップ取得用パラメータは、F値またはフォーカスブラケット量の少なくともいずれかである、
    請求項11に記載の撮像装置の制御方法。
  13. 前記パラメータ変更ステップでは、前記変更度合いが所定の閾値より大きければF値を変更し、前記変更度合いが所定の閾値以下であればフォーカスブラケット量を変更する、
    請求項12に記載の撮像装置の制御方法。
  14. 距離マップは、ステレオ法、DFD、DFFのいずれかの方式により取得される、
    請求項8から13のいずれか1項に記載の撮像装置の制御方法。
JP2013161267A 2013-08-02 2013-08-02 撮像装置およびその制御方法 Expired - Fee Related JP6245885B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013161267A JP6245885B2 (ja) 2013-08-02 2013-08-02 撮像装置およびその制御方法
US14/340,824 US9961329B2 (en) 2013-08-02 2014-07-25 Imaging apparatus and method of controlling same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013161267A JP6245885B2 (ja) 2013-08-02 2013-08-02 撮像装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2015032144A true JP2015032144A (ja) 2015-02-16
JP2015032144A5 JP2015032144A5 (ja) 2016-09-08
JP6245885B2 JP6245885B2 (ja) 2017-12-13

Family

ID=52427242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013161267A Expired - Fee Related JP6245885B2 (ja) 2013-08-02 2013-08-02 撮像装置およびその制御方法

Country Status (2)

Country Link
US (1) US9961329B2 (ja)
JP (1) JP6245885B2 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9270876B2 (en) 2013-01-05 2016-02-23 The Lightco Inc. Methods and apparatus for using multiple optical chains in parallel with multiple different exposure times
JP2015036841A (ja) 2013-08-12 2015-02-23 キヤノン株式会社 画像処理装置、距離計測装置、撮像装置、画像処理方法
US9374514B2 (en) 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9423588B2 (en) 2013-10-18 2016-08-23 The Lightco Inc. Methods and apparatus for supporting zoom operations
US9549127B2 (en) 2013-10-18 2017-01-17 Light Labs Inc. Image capture control methods and apparatus
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
US9467627B2 (en) 2013-10-26 2016-10-11 The Lightco Inc. Methods and apparatus for use with multiple optical chains
US9426365B2 (en) 2013-11-01 2016-08-23 The Lightco Inc. Image stabilization related methods and apparatus
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
US10931866B2 (en) 2014-01-05 2021-02-23 Light Labs Inc. Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
US9462170B2 (en) 2014-02-21 2016-10-04 The Lightco Inc. Lighting methods and apparatus
US10191356B2 (en) 2014-07-04 2019-01-29 Light Labs Inc. Methods and apparatus relating to detection and/or indicating a dirty lens condition
WO2016007799A1 (en) 2014-07-09 2016-01-14 The Lightco Inc. Camera device including multiple optical chains and related methods
US9912864B2 (en) 2014-10-17 2018-03-06 Light Labs Inc. Methods and apparatus for using a camera device to support multiple modes of operation
WO2016100756A1 (en) 2014-12-17 2016-06-23 The Lightco Inc. Methods and apparatus for implementing and using camera devices
US9544503B2 (en) * 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
US10600169B2 (en) * 2015-03-26 2020-03-24 Sony Corporation Image processing system and image processing method
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
US9967535B2 (en) * 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
WO2016172641A1 (en) 2015-04-22 2016-10-27 The Lightco Inc. Filter mounting methods and apparatus and related camera apparatus
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
US9958585B2 (en) 2015-08-17 2018-05-01 Microsoft Technology Licensing, Llc Computer vision depth sensing at video rate using depth from defocus
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
US10051182B2 (en) 2015-10-05 2018-08-14 Light Labs Inc. Methods and apparatus for compensating for motion and/or changing light conditions during image capture
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
JP6687039B2 (ja) * 2016-02-05 2020-04-22 株式会社リコー 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
US9948832B2 (en) 2016-06-22 2018-04-17 Light Labs Inc. Methods and apparatus for synchronized image capture in a device including optical chains with different orientations

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01167610A (ja) * 1987-11-27 1989-07-03 Univ New York State 3次元空間シーンの表面区画及びカメラ装置間の距離を決定するための方法及び装置
JPH09153983A (ja) * 1995-11-06 1997-06-10 Bayer Corp 原稿画像の走査及び画像処理の方法及び装置
US5793900A (en) * 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
JP2003087545A (ja) * 2001-09-07 2003-03-20 Canon Inc 撮像装置、画像処理装置及び方法
JP2003284096A (ja) * 2002-01-16 2003-10-03 Olympus Optical Co Ltd ステレオ撮影装置、ファインダ、目印提示部材、及び、ステレオ撮影装置の撮影方法
JP2007139892A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置
US20120076362A1 (en) * 2010-09-24 2012-03-29 Paul James Kane Coded aperture camera with adaptive image processing
JP2013037246A (ja) * 2011-08-09 2013-02-21 Ricoh Co Ltd 撮像装置および撮像方法
WO2013054527A1 (ja) * 2011-10-12 2013-04-18 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2993610B2 (ja) 1990-09-29 1999-12-20 工業技術院長 画像処理方法
JP3737483B2 (ja) 2001-03-30 2006-01-18 独立行政法人産業技術総合研究所 実時間全焦点顕微鏡カメラ
US7231087B2 (en) * 2002-10-30 2007-06-12 Metrica, Inc. Matching binary templates against range map derived silhouettes for object pose estimation
WO2009011492A1 (en) * 2007-07-13 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
KR20120023431A (ko) * 2010-09-03 2012-03-13 삼성전자주식회사 깊이 조정이 가능한 2차원/3차원 영상 변환 방법 및 그 장치
US9035939B2 (en) * 2010-10-04 2015-05-19 Qualcomm Incorporated 3D video control system to adjust 3D video rendering based on user preferences
JP2012124555A (ja) 2010-12-06 2012-06-28 Canon Inc 撮像装置
US9208570B2 (en) * 2012-03-28 2015-12-08 Sony Corporation System and method for performing depth estimation by utilizing an adaptive kernel
US8542933B2 (en) * 2011-09-28 2013-09-24 Pelican Imaging Corporation Systems and methods for decoding light field image files
JP6214183B2 (ja) 2012-05-11 2017-10-18 キヤノン株式会社 距離計測装置、撮像装置、距離計測方法、およびプログラム
JP5932476B2 (ja) 2012-05-17 2016-06-08 キヤノン株式会社 画像処理装置、撮像装置、距離計測方法および距離計測プログラム
US20140184586A1 (en) * 2013-01-02 2014-07-03 International Business Machines Corporation Depth of field visualization

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01167610A (ja) * 1987-11-27 1989-07-03 Univ New York State 3次元空間シーンの表面区画及びカメラ装置間の距離を決定するための方法及び装置
JPH09153983A (ja) * 1995-11-06 1997-06-10 Bayer Corp 原稿画像の走査及び画像処理の方法及び装置
US5793900A (en) * 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
JP2003087545A (ja) * 2001-09-07 2003-03-20 Canon Inc 撮像装置、画像処理装置及び方法
JP2003284096A (ja) * 2002-01-16 2003-10-03 Olympus Optical Co Ltd ステレオ撮影装置、ファインダ、目印提示部材、及び、ステレオ撮影装置の撮影方法
JP2007139892A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置
US20120076362A1 (en) * 2010-09-24 2012-03-29 Paul James Kane Coded aperture camera with adaptive image processing
JP2013037246A (ja) * 2011-08-09 2013-02-21 Ricoh Co Ltd 撮像装置および撮像方法
WO2013054527A1 (ja) * 2011-10-12 2013-04-18 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法

Also Published As

Publication number Publication date
JP6245885B2 (ja) 2017-12-13
US9961329B2 (en) 2018-05-01
US20150035824A1 (en) 2015-02-05

Similar Documents

Publication Publication Date Title
JP6245885B2 (ja) 撮像装置およびその制御方法
US9208396B2 (en) Image processing method and device, and program
US9998650B2 (en) Image processing apparatus and image pickup apparatus for adding blur in an image according to depth map
JP6091228B2 (ja) 画像処理装置、撮像装置
CN109255810B (zh) 图像处理装置及图像处理方法
TWI538512B (zh) 調整對焦位置的方法及電子裝置
US9076214B2 (en) Image acquisition apparatus and image processing apparatus using selected in-focus image data
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
JPWO2011158498A1 (ja) 撮像装置及び撮像方法
JPWO2011158508A1 (ja) 画像処理装置および画像処理方法
JP6071257B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2010117593A (ja) 距離情報取得装置、撮像装置、及びプログラム
JP2013044844A (ja) 画像処理装置および画像処理方法
JP2020174331A (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
US11808561B2 (en) Electronic apparatus for controlling a projector to project an image onto a screen at an actual size length, control method thereof and computer readable storage medium
US10999491B2 (en) Control apparatus, image capturing apparatus, control method, and storage medium
KR101715553B1 (ko) 합초 위치 검출 장치, 합초 위치 검출 방법 및 합초 위치 검출용 컴퓨터 프로그램
JP6395429B2 (ja) 画像処理装置、その制御方法及び記憶媒体
JP6728020B2 (ja) 画像処理装置、画像処理方法およびプログラム
US20160065941A1 (en) Three-dimensional image capturing apparatus and storage medium storing three-dimensional image capturing program
JP7113327B1 (ja) 撮像装置
JP6900228B2 (ja) 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
JP2016065744A (ja) 撮像装置及び撮像方法
JP2023069386A (ja) 画像計測装置、方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160719

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171114

R151 Written notification of patent or utility model registration

Ref document number: 6245885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees