JP2009047734A - 撮像装置及び画像処理プログラム - Google Patents

撮像装置及び画像処理プログラム Download PDF

Info

Publication number
JP2009047734A
JP2009047734A JP2007210893A JP2007210893A JP2009047734A JP 2009047734 A JP2009047734 A JP 2009047734A JP 2007210893 A JP2007210893 A JP 2007210893A JP 2007210893 A JP2007210893 A JP 2007210893A JP 2009047734 A JP2009047734 A JP 2009047734A
Authority
JP
Japan
Prior art keywords
image
imaging
cylindrical lens
arbitrary focus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007210893A
Other languages
English (en)
Inventor
Takahiro Yano
高宏 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2007210893A priority Critical patent/JP2009047734A/ja
Publication of JP2009047734A publication Critical patent/JP2009047734A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Abstract

【課題】高速かつ高精度に結像状態を検出可能な撮像装置を提供すること。
【解決手段】シリンドリカルレンズ201を含み、被写体の像を光学的に結像する光学的結像手段と、光学的結像手段で結像された被写体の像を電子的に撮像する撮像素子203と、撮像画面のうち、シリンドリカルレンズ201を介して撮像された部分の画像信号を取得する輝度信号制御部204と、シリンドリカルレンズ201を介して撮像された部分の画像信号を用いて、任意焦点画像を作成する任意焦点画像作成部205と、を具備する。
【選択図】 図1

Description

本発明は撮像装置及び画像処理プログラムに関し、特に、デジタルカメラ等の撮像装置が備える撮影光学系の結像状態検出装置、オートフォーカスカメラ、及び受光ユニットに関する。
デジタルカメラ等の撮像装置が備える撮像素子を用いて結像状態の検出を行う手法として、最も一般的な手法の1つに山登り法又はコントラスト法と呼ばれる技術があり、デジタルカメラをはじめとする電子撮像機器に広く用いられている。
この合焦検出法は、結像光学系のフォーカスレンズを光軸方向に駆動し、その間に撮影される複数枚の画像に対するぼけの評価値を算出・探索して行われる。この評価値には画像のコントラストや高周波成分の和が用いられ、値が大きいほどフォーカスが合っていることを示している。一方、ぼけの大きさそのものを評価値とする場合、例えば像の空間周波数のうち低周波成分の積分値をもってその評価値とする場合、値が小さいほどフォーカスが合っていることを示す。この様な手法は、フォーカス動作を行なうことでぼけの評価値を得、被写体の結像位置または距離を探索することから、デプスフロムフォーカス(Depth From Focus) (以下DFFと呼ぶ)と呼ばれる。また、評価値が高くなる様に制御を行い、評価値のピークを推定することから「山登り法」とも呼ばれている。
次に、結像状態の検出を行う第2の手法を説明する。例えばUSP4965840に開示された結像状態検出方式では、ぼけの異なる複数の画像を演算処理することにより、ぼけパラメータを算出し、合焦判定するために、光路長の異なる2箇所で輝度情報を取得する方法が記載されている。この手法はDepth From Defocus(DFD)と呼ばれる。ここでぼけパラメータとは、輝度情報のぼけを示す代表値であり、光学系のポイントスプレッドファンクション(PSF)の分散と相関のある値である。ここでPSFとは理想的な点像が光学系を通過した場合の光線の広がりを表す関数である。
以下に、DFD法による合焦判定方法のステップについて図12を参照して説明する。本合焦判定方法では、同一被写体、同一部位、同一視線方向からの最低2つの合焦判定用輝度情報を、撮像画像のぼけ状態に影響を与える撮影パラメータを最低1つ変更することによって取得する(ステップS201、S205)。撮影パラメータとしては、フォーカスレンズ位置、絞り量、焦点距離などがあるが、本説明では図13に示すように、フォーカスレンズ位置のみを変更する場合に限定して説明を行う。図13において、250は被写体位置、251は光軸、252は第1レンズ位置、253は像面、254は第2レンズ位置である。
本合焦判定方法によると、例えば像面253上に結像される像のぼけの状態を変えるために、フォーカスレンズ100Aを所定の第1のレンズ位置252(図13(A))及び第2のレンズ位置254(図13(C))に移動する。図13(B),(D)は像面253上に結像された異なるぼけをもつ2つの像を示している。このような異なるぼけの像によりそれぞれ第1及び第2の輝度情報を取得する(ステップS202,S206)。次に、それぞれ取得した輝度情報は電気的なノイズを除去するためのローパスフィルタ、第1及び第2の画像間で異なる倍率を補正する像倍率補正処理、輝度分布などの正規化処理が行われる(ステップS203,S207)。
そして、それら2つの処理結果から第1または第2の輝度情報に対応したPSFの分散と相関のあるぼけパラメータが算出される(ステップS204,S208〜S213)。
被写体距離は、算出されたPSFのぼけパラメータから上記したUSP4965840に記載されているPSFの分散と被写体距離の関係式に基づいて求められる。このような、ぼけパラメータと被写体距離の関係はレンズの構成、状態(ズーム、絞り)によって異なる。
また、被写体距離とフォーカスレンズ位置の関係はレンズシステムのデータにより予め与えられる。したがって、ぼけパラメータと制御対象のフォーカスレンズ位置の関係は、レンズシステム、レンズの状態によってそれぞれ個別の関係式、または演算テーブルによって求められる(ステップS214)。
次に、結像状態の検出を行う第3の手法として、マイクロレンズ及びラインセンサを用いた合焦検出手法が提案されている(特開2007-11314参照)。
この合焦検出手段では、結像光学系の予定焦点面(焦点の合った面であることが予め定まった面)から所定距離だけ離れた位置に、所定ピッチで配列された複数のマイクロレンズを有するマイクロレンズアレイが設けられる。そして、前記マイクロレンズアレイの各マイクロレンズに対して複数の受光部を有するとともに各マイクロレンズを介して予定焦点面上の像を受光する撮像素子が設けられる。この複数の撮像素子で得られる出力信号に基づき、結像光学系の異なる瞳領域を通過した光束による像に対応する信号列対を抽出し、抽出された信号列対の位相のずれを検出することにより、結像光学系の結像状態を求める結像状態検出手法である。
このような手法は一般的に、画像に生ずる位相差の特徴から結像状態の検出を行なうことから位相差AFと呼ばれる。位相差AFでは一枚の画像において位相差を発生させその特徴から結像状態判定を行なうので、複数枚の撮影が必ずしも必要ではなく、DFF等の結像状態検出方式よりも比較的高速に結像状態検出動作を行なうことが可能である。
USP4965840 特開2007-11314
しかし、上記のようなDFF、DFDを用いた結像状態の検出方式では、複数枚の画像が必要となる為、複数枚の画像撮影にかかる画像取得時間のディレイにより、高速に結像状態検出を行なえないという問題点があった。
また、位相差AFによる結像状態の検出手法では、位相差を発生させる為に専用のセンサを用いる必要があり、DFF、DFDの様にCCD、CMOS等のイメージャ上で行なうことが可能な結像状態の検出法に比べ、ハード規模が大きくなり、装置の小型化が困難となる場合があった。
本発明はこのような課題に着目してなされたものであり、その目的とするところは、高速かつ高精度に結像状態を検出可能な撮像装置及び画像処理プログラムを提供することにある。
上記の目的を達成するために、本発明に係る撮像装置は、シリンドリカルレンズを含み、被写体の像を光学的に結像する光学的結像手段と、前記光学的結像手段で結像された被写体の像を電子的に撮像する撮像手段と、撮像画面のうち、前記シリンドリカルレンズを介して撮像された部分の画像信号を取得する画像取得手段と、前記シリンドリカルレンズを介して撮像された部分の画像信号を用いて、任意焦点画像を作成する任意焦点画像作成手段と、を具備する。
また、本発明に係る画像処理プログラムは、シリンドリカルレンズを含み、被写体の像を光学的に結像する光学的結像手段と、前記光学的結像手段で結像された被写体の像を電子的に撮像する撮像手段と、を用いて撮像した撮像画面の画像信号をコンピュータを用いて処理する画像処理プログラムであって、コンピュータを、撮像画面のうち、前記シリンドリカルレンズを介して撮像された部分の画像信号を取得する画像取得手段、及び前記シリンドリカルレンズを介して撮像された部分の画像信号を用いて、任意焦点画像を作成する任意焦点画像作成手段、として機能させる。
この発明によれば、高速かつ高精度に結像状態を検出可能な撮像装置及び画像処理プログラムが提供される。
以下、図面を参照して本発明の実施形態を詳細に説明する。図1は本発明の一実施形態に係る撮像装置の構成を示す図である。撮影光学系200、シリンドリカルレンズ群201N、CFR(Color Filter Array)202、撮像素子203を介して撮影された映像信号は、画像取得手段としての輝度信号制御部204に送られ輝度信号の生成が行なわれる。撮影光学系200及びシリンドリカルレンズ群201Nは光学的結像手段を構成する。
以下に、シリンドリカルレンズ群201Nを用いて画像の撮影を行なう場合の、シリンドリカルレンズ群201N内のシリンドリカルレンズの配置方法について説明する。本実施形態では、シリンドリカルレンズ群201Nとして、図2のようなシリンドリカルレンズのブロック(一塊)を想定し、これを撮像素子203から撮影レンズ方向に所定距離だけ離れた位置に配置する。シリンドリカルレンズのブロックは、例えば図2(A)に示すように、撮像素子203の左側領域に8ブロック、中央領域に16ブロック、右領域に8ブロックという構成で配置する。画面中央に被写体が存在することが多いのでここでは中央領域に多くのレンズを配置している。
本実施形態では、このようなシリンドリカルレンズのブロックの配置を行なうことで、主要被写体が撮像素子203の左側領域、中央領域、右側領域のいずれにおいて撮影された場合でも、その主要被写体が撮影された領域のシリンドリカルレンズのブロックを用いて、任意焦点画像を作成し、主要被写体の合焦位置を検出し、主要被写体にピントの合った画像を得ることが出来る。
なお、本実施形態では、撮像素子203の左側領域、中央領域、右側領域にシリンドリカルレンズのブロックを配置しているが、配置の形態はこの限りではなく、任意の配置の形態をとっても良いものとする。例えば、シリンドリカルレンズは、図2(B)に示すように、ブロックとして撮像素子203に満遍なく配置されても良いものとする。このような構成をとった場合、任意焦点画像を画像全体に対して生成できるため、被写体の合焦位置検出用途以外に、観賞用としての任意焦点画像も有効に利用できるようになる。また、このような構成をとった場合、主要被写体は撮像素子203上の任意の位置において撮影された場合でも、主要被写体の合焦位置を検出し、主要被写体にピントの合った画像を得ることが出来る。
次に、シリンドリカルレンズのブロックにおいて1ブロック内のシリンドリカルレンズの配置形態についての説明を行なう。図3(A)は、1ブロック内のシリンドリカルレンズ201の配置を示している。1つのシリンドリカルレンズ201の大きさは、シリンドリカルレンズ201のレンズ作用を持つ方向に5ピクセル、レンズの作用を持つ方向と直交する方向に1ピクセルの幅をもつとする。
なお、シリンドリカルレンズ201の大きさは、図3(A)の例に限定されることはなく、シリンドリカルレンズ201のレンズ作用を持つ方向に2ピクセル以上、レンズ作用を持つ方向と直交する方向に1ピクセル以上の幅を持つもので有れば、任意の大きさをとっても良いものとする。
また、シリンドリカルレンズ201の配置ピッチは、図3(A)の例では、シリンドリカルレンズ201のレンズ作用を持つ方向には密に(敷き詰めて)配置されているが、レンズ作用を持つ方向と直交する方向に2ピクセル間隔でシリンドリカルレンズ201を配置している。なお、シリンドリカルレンズ201の配置ピッチは、本実施形態の配置ピッチによらない。例えば、図3(B)に示すようにシリンドリカルレンズ201を格子状に配置してもよい。
また、シリンドリカルレンズ201のレンズ作用を持つ方向に直交する方向には、1ピクセル毎に密に(敷き詰めて)配置されても良いが、ここではシリンドリカルレンズ201に隣接する方向に、シリンドリカルレンズ201を介さずに受光される撮像素子領域を設けたいために、配置ピッチは2ピクセル以上とすることが好ましい。
以上の様に、シリンドリカルレンズ201の大きさ、配置ピッチを任意に設定して任意焦点画像を生成した場合、その画像サイズのアスペクト比が本来の画像のアスペクト比と異なってくる必要が有る。そこで、任意焦点画像を生成した後、その任意焦点画像に対して、縦横比を本来撮影される画像のアスペクト比に合わせるように、拡大処理を施しても良いものとする。また、図3(B)の例に示す格子状のシリンドリカルレンズ201の配置では、任意焦点画像を生成した際に、そのデータ配列も格子状になる為、格子状のデータの未定義箇所については、その周辺から補間処理を行いデータを生成しても良いものとする。この処理は画像を観賞用として用いる場合に必要な処理であり、被写体の合焦点検出には必ずしも必要がない。
また、図3(E)に示すシリンドリカルレンズ201−1、201−2のように、レンズ作用を持つ方向を、垂直方向、水平方向の二つの方向にそれぞれ混在させて配置してもよいものとする。またシリンドリカルレンズ201間では、各シリンドリカルレンズ201を通った光束が互いに影響を及ぼさないように考慮されていることが好ましい。そこで、シリンドリカルレンズ群201Nと撮像素子203の間に、各シリンドリカルレンズ201を通った光束が互いに影響を及ぼさないように、各光路を仕切るために例えば十字形の仕切り部材が設けられても良いものとする。仕切り部材は各シリンドリカルレンズ201の周囲の一部あるいは全てを包囲する部材であってもよい。或いは、仕切り部材の代わりに、撮影光学系200の後側に、適当な大きさの開口を有した絞り部材が配置されてもよい。
またその他の形態としては、図3(C)のように、第1のレンズ作用を持つシリンドリカルレンズ201−3と第2のレンズ作用を持つシリンドリカルレンズ201−4を併用して用いても良いものとする。
また、図3(D)のように、2つのシリンドリカルレンズ201−3、201−4が互いに格子状に配置されていても良いものとする。この2つのシリンドリカルレンズ201−3、201−4のぼけの差を用いて、ぼけパラメータの計算を行なっても良いものとする。
なお、本実施形態においては、後で任意焦点画像生成部205において任意焦点画像を作成する際の領域が抽出されるが、当該領域は、撮像素子203上に配置された、各シリンドリカルレンズ201を介して撮影された領域が選択される。ここでは各シリンドリカルレンズ201に対応する撮像素子203の5ピクセル分の領域をそれぞれ抽出し、任意焦点画像の作成を行う。撮像素子203において撮影された画像の映像信号は、輝度信号制御部204に転送され、輝度信号に変換、生成される。
以下に、輝度信号制御部204における輝度信号生成の手順について説明を行なう。撮像素子203を介して撮影された映像信号は、CFA202を介して撮影されている為、その映像信号は色フィルタアレイのかかったカラーモザイク画像となる。
実際に用いる色フィルタアレイの例としては、ベイヤーパターンを持つベイヤー型原色フィルタアレイが用いられる。なお、ここで用いられる色フィルタアレイは、ベイヤーパターンを持つベイヤー型原色色フィルタアレイに限定されず、例えば、色差線順次型補色フィルタアレイ等を用いても良いものとする。図4にベイヤー型原色フィルタアレイ、色差線順次型補色フィルタアレイの具体例を示す。
撮像素子203より出力される映像信号はカラーモザイク画像であるために、輝度信号制御部204において、色補間処理によるフルカラー化を行なう。色補間処理によるフルカラー化処理のことを、デモザイキング処理と呼ぶ。実際に用いるデモザイキング処理は、一般的に広く用いられている線形補間によるデモザイキング処理を用いることが出来る。
なお、ここで用いられるデモザイキング処理は線形補間によるデモザイキング処理に限定されず、色モザイク画像に対し色補間処理を行い、フルカラー化を行う手段であればどのような手法でもかまわないものとする。
デモザイキング処理がなされたフルカラーの映像信号は、ここでその色成分より輝度信号が算出される。例えば、フルカラーの映像信号がR(Red),G(Green),B(Blue)で構成される場合、輝度信号Yは、以下の(式1)に基づいて生成することができる。
Y = (R+G+B) / 3 (式1)
なお、輝度信号生成の式は(式1)に限定されず、例えばYCC色表現のY,Lab色表現のL等、輝度を表現する式であればどのような式を用いてもかまわないものとする。なお、ここで言う輝度信号は必ずしもR,G,Bの信号を合成して新たな色成分を生成する必要は無く、例えば、単にR,G,Bのいずれかの色成分を簡易的に輝度信号であるとみなしても良いものとする。例えばGの帯域は、(式1)における輝度信号Yの帯域と比較的近い為、Gを輝度信号とみなしても良いものとする。
また、本実施形態ではCFA202を介し、カラー画像の取得を行なっているが、本発明はこの構成に限定されず、例えば、CFA202をなくしグレイスケールの画像を撮像素子203で撮影し、その信号をそのまま輝度信号制御部204で生成する輝度信号として利用しても良いものとする。
輝度信号制御部204において生成された輝度信号は、任意焦点画像生成部205に送られ、複数枚の任意焦点画像が生成される。
以下、輝度画像信号から任意焦点画像を生成する方法について説明する。初めに、本発明のシリンドリカルレンズ201を介した撮影の光学系について詳細に説明する。図5は、本実施形態のシリンドリカルレンズ群201N(以下ではシリンドリカルレンズ201として説明する)を介した撮影の光学系の部分を撮影光学系200の光軸を含む面で切断したときの断面図である。切断の方向はシリンドリカルレンズ201のレンズ作用を持つ方向と一致させている。図5において斜線で示す光束は、光軸近傍に配置された撮像素子203のピクセル配列の中央のピクセルcに入射する光束である。
図5に示すように、ピクセルcに入射する光束は、撮影光学系200の瞳上の中央近傍の部分領域Cを透過した光束である。このピクセルcの隣接ピクセルbに入射する光束は、撮影光学系200の瞳上の部分領域Cの隣接領域を透過した光束である。このように、同一ピクセル配列内のピクセルa,b,c,d,eに入射する光束は、撮影光学系200の瞳上の互いに異なる部分領域A,B,C,D,Eを個別に透過した各光束である。
なお、図5は、シリンドリカルレンズ201の前側の距離Lにおいて、シリンドリカルレンズ201の配置ピッチPと同等の幅を持つ領域E0を通過した光が、シリンドリカルレンズ201の後側のピクセルc上に導かれることを示している。このとき、ピクセルcに入射する光束は、深度L内で径が幅Pの柱状の光束となる。同様にピクセルcの周囲のピクセルa,b,d,eに入射する各光束も、深度L内で径が幅Pの柱状の光束となる。したがって、本実施形態では、深度L内の任意の面に形成された像の画像データを、少なくとも分解能Pで合成することが出来る。つまり、深度Lは本実施形態が少なくとも分解能Pで画像データを合成可能な範囲である。よって以下では深度Lを合成範囲と言う。
次に、任意焦点画像を合成する方法について説明する。この合成に必要な各処理は任意焦点画像生成部205によって行なわれる。図6(a)、(b)は画像合成の原理を説明するための図である。図6(a)、(b)において、ピクセル配列内に1方向に並ぶ5つのピクセルa,b,c,d,eにより個別に形成される画像データを符号Ia,Ib,Ic,Id,Ieで示す。
先ず、図6(a)に示すように、任意焦点画像を生成する指定像面(任意焦点画像を生成する場合に、その任意焦点画像が焦点を結ぶと想定する面)の高さ(シリンドリカルレンズ201からの高さ)Zが0である場合を考える。Z=0の面にピントの合った像が形成されている場合は、像I0において、あるシリンドリカルレンズ201の直上部分から射出した光束は、直ぐにシリンドリカルレンズ201に入射して、同一ピクセル配列(同一のシリンドリカル201に属するピクセル配列、本実施形態では5ピクセル)内のピクセルa,b,c,d,eには、像I0上の同一箇所の光が入射する。このとき、画像データIa,Ib,Ic,Id,Ieの間では、互いに同じ位置に像I0が現れる。よって、これらの画像データIa,Ib,Ic,Id,Ieを重ね合わせれば、指定像面(Z=0)の画像データを得ることが出来る。
次に、図6(b)に示すように、指定像面の高さZが0ではない場合(ここではZ=h1)を考える。この面に形成される像I'の各位置から射出した光束は、発散した後にシリンドリカルレンズ群201Nに入射するので、像I'上の同一箇所から射出した光束は、発散した後にマイクロレンズアレイ201に入射する。これより、像I'上の同一箇所から射出した各角度の光線は、角度により互いに異なるシリンドリカルレンズ201に入射する。よって、同一のシリンドリカルレンズ201に対応するピクセル配列内のピクセルa,b,c,d,eは、像I'上の少しずつ異なった箇所の光を受ける。このとき画像データIa,Ib,Ic,Id,Ieの間では、互いにずれた位置に像I'が現れる。このずれ量は、指定像面の高さZに依存する。
次に任意焦点画像を合成する方法についてさらに詳細に説明する。図7は、指定像面が画像合成範囲内の特定の面(Z=0)である時の合成方法を説明する図であり、図8は、指定像面が画像合成範囲内の上記以外のある面(Z=h1)であるときの合成方法を説明する図であり、図9は、指定像面が画像合成範囲内の上記以外のある面(Z=h2)であるときの合成方法を説明する図である。図7、図8、図9には、撮像素子13の5つのピクセルa,b,c,d,eに入射する各光線(シリンドリカルレンズ201の中心を通る主光線のみ)を示している。また各図中の各要素には、光軸と垂直な面内における座標を示すために添え字(1,2,3・・・)を付している。図7、図8、図9において斜線で示すのは、画像合成後の画像データの最小単位であり、仮想ピクセルの幅はシリンドリカルレンズの配置ピッチPと同じである。
先ず、図7に示すように、指定像面が画像合成範囲内の特定の面(Z=0)である場合について説明する。Z=0の面上の座標X5(シリンドリカルレンズCL5に対向する幅P(図5)の領域)からの射出光束(光線r1,r2,r3,r4,r5)は、各ピクセルa5,b5,c5,d5,e5に個別に入射する。よって、ピクセルa5,b5,c5,d5,e5それぞれの出力値Out(a5)、Out(b5)、Out(c5),Out(d5),Out(e5)の和をとれば、座標X5における仮想ピクセルのピクセル値L(5)が求まる。このピクセル値L(5)が指定像面Z=0のときの任意焦点画像データである。
L(5) = Out(a5) + Out(b5) + Out(c5) + Out(d5) + Out(e5) (式2)
同様に、座標X5に隣接する座標X6における仮想ピクセルのピクセル値L(6)は、以下の式により求まる。
L(6) = Out(a6) + Out(b6) + Out(c6) + Out(d6) + Out(e6) (式3)
したがって、各座標X1,X2,X3,・・・における各仮想ピクセルのピクセル値L(1),L(2),L(3)・・・は、以下の式により求まる。
L(i) = Out(ai) + Out(bi) + Out(ci) + Out(di) + Out(ei) (式4)
この式は、図7に示した画像データIa,Ib,Ic,Id,Ieをそのまま重ね合わせることを示している。この(式4)によって、指定像面の画像データが合成される。なお、上式(式4)は、ユーザによる指定絞り値が開放(開口サイズ最大)であったときに採用される式である。仮に、ユーザによる指定絞り値が最大(開口サイズ最小)であったときには、光線r1,r2,r3,r4r5からなる光束を、光線r3のみからなる光束に制限すれば良いので、上式(式4)に代えて、以下の式を採用すればよい。
L(i) = Out(ci) (式5)
また、ユーザによる指定絞り値が中間値(開口サイズが中間)であったときには、光線r1,r2,r3,r4,r5からなる光線を、光線r2,r3,r4のみからなる光束に制限すれば良いので、上式(式4)、(式5)に代えて、以下の式(式6)を採用すればよい。
L(i) = Out(bi) + Out(ci) + Out(di) (式6)
次に、図8に示すように、指定像面が画像合成範囲内の上記以外のある面(Z=h1)である場合について説明する。Z=h1の面上の座標X5(シリンドリカルレンズCL5に対向する領域)からの射出光束(光線r1,r2,r3,r4,r5)は、各ピクセルa3,b4,c5,d6,e7に個別に入射する。よって、ピクセルa3,b4,c5,d6,e7それぞれの和(正確には入射角に依存した重み付け和)をとれば、その座標X5における仮想ピクセルのピクセル値L(5)が求まる。このピクセル値L(5)が指定像面Z=h1のときの任意焦点画像データである。
L(5) = Out(a3) + Out(b4) + Out(c5) + Out(d6) + Out(e7) (式7)
同様に、座標X5に隣接する座標X6における仮想ピクセルのピクセル値L(6)は、以下の式(式8)により求めることが出来る。
L(6) = Out(a4) + Out(b5) + Out(c6) + Out(d7) + Out(e8) (式8)
したがって、各座標X1,X2,X3,・・・における各仮想ピクセルのピクセル値L(1),L(2),L(3)・・・は、以下の式により求めることが出来る。
L(i) = Out(ai-2) + Out(bi-1) + Out(ci) + Out(di+1) + Out(ei+2) (式9)
上式(式9)は、図6に示した画像データIa,Ib,Ic,Id,Ieを指定像面の高さZに応じた量(ここでは仮想ピクセル1つ分)だけずらして重ね合わせることを示している。これによって、指定像面(z=h1)の画像データが合成される。なお、上式(式9)は、ユーザによる指定絞り値が開放(開口サイズ最大)であったときに採用される式である。
仮に、ユーザによる指定絞り値が最大(開口サイズ最小)であったときには、光線r1,r2,r3,r4r5からなる光束を、光線r3のみからなる光束に制限すれば良いので、上式(式9)に代えて、以下の式を採用すればよい。
L(i) = Out(ci) (式10)
また、ユーザによる指定絞り値が中間値(開口サイズが中間)であったときには、光線r1,r2,r3,r4,r5からなる光線を、光線r2,r3,r4のみからなる光束に制限すれば良いので、上式(式9)(式10)に代えて、以下の式を採用すればよい。
L(i) = Out(bi-1) + Out(ci) + Out(di+1) (式11)
次に、図9に示すように、指定像面が合成範囲内の上記以外のある面(Z=h2)である場合について説明する。Z=h2の面上の座標X5(シリンドリカルレンズCL5に対向する領域)からの射出光束r1,r2,r3,r4,r5は、複数のピクセルにまたがって入射する。例えば、光線r1に着目すると、ピクセルa3,b3の両方にまたがって光線r1が入射する。このとき光線r1の光量は、ピクセルa3,b3の出力値Out(a3),Out(b3)の重み付け和によって求まり、以下の式のようになる。
Out(a3) ×q1 + Out(b3) ×q2 (式12)
ここで、重み係数q1、q2の和は、指定像面の高さZに依存して決まる定数である。
従って、各座標X1,X2,X3,・・・における各仮想ピクセルのピクセル値L(1)、L(2)、L(3)・・・は、複数の出力値の重み付け和、しかも、指定像面の高さZに依存して決まる重み係数による重み付け和によって求める必要が有る(ただし、和に加えるべきピクセルの数は、絞り値に応じて増減する)。以上の処理により、任意焦点画像の画像合成を行なう。
ここで、座標X5における仮想ピクセル値L(5)は以下の式により求めることができる。この仮想ピクセル値L(5)が指定像面Z=h2のときの任意焦点画像データである。
L(5) = Out(a3) ×q1 + Out(b3) ×q2 +Out(b4) ×q3 + Out(c4) ×q4 + Out(c5) + Out(c5) ×q5+ Out(d6) ×q6 +Out(d7) ×q7 + Out(e7) ×q8
(式13)
上記したように、任意焦点画像生成部205では、ある指定像面(仮想焦点面)を仮定し(上記の例ではZ=0あるいはZ=h1あるいはZ=h2)、この仮定された指定像面を介して射出される光線が入射するピクセルを追跡して、各ピクセルの出力値の和をとることにより任意焦点画像データを得ている。指定像面によって光線が入射するピクセルは異なり、したがって任意焦点画像データを算出するときに加算されるピクセルの出力値も異なってくる。
任意焦点画像生成部205において生成された任意焦点画像は制御パラメータ計算手段240内のぼけパラメータ計算手段206内の前処理部206aに転送される。なお、前処理部206aに転送される任意焦点画像は、少なくとも2枚以上の任意焦点画像である。また、前処理部206aに転送される任意焦点画像の組から計算できるぼけパラメータと、光学系制御部209が撮影光学系200の制御に用いる制御パラメータとの関係は、制御パラメータ計算手段240内のLUT記憶部208に記憶されているものとする。
本実施形態では、例えば、図7で説明した指定像面Z=0における任意焦点画像、及び図8で説明した指定像面Z=h1における任意焦点画像の2枚の画像が前処理部206aへ転送されるものとする。この場合、図7に示す指定像面Z=0における任意焦点画像及び図8に示す指定像面Z=h1における任意焦点画像の2枚から生成されるぼけパラメータと、光学系制御部209が撮影光学系200の制御に用いる制御パラメータとの関係は、制御パラメータ計算手段240内のLUT記憶部208に予め記憶されているものとする。
なお、実際に実施する場合はこの例に限らず、任意の位置に焦点のあった画像の組からぼけパラメータを計算し、LUTにより制御パラメータとの関係を調べてもよいものとする。
その場合は、使用する任意の位置に焦点の合った画像のぼけパラメータと光学系制御部209が撮影光学系200の制御に用いる制御パラメータの関係を予め求めておく。
前処理部206aでは、ぼけパラメータを計算する場合に、予め画像の低周波成分のみを考慮し、画像に含まれるノイズの影響を低減する為に、ローパスフィルタを用いたフィルタリング処理等を施しておいても良いものとする。この前処理部206aにおけるフィルタリング処理は省略しても良いものとする。
前処理部206aにおいて前処理が行なわれた複数の任意焦点画像は差分計算部206b及び2次微分計算部206cに転送される。ここで、3枚以上の任意焦点画像が差分計算部206b及び2次微分計算部206cに転送される場合、転送の方法は、3枚以上の画像中の2枚の組を取り、その2枚の組からぼけパラメータを計算する。複数の2枚の組を用いてぼけパラメータを計算すると、複数のぼけパラメータが求まる。
この場合は、LUT記憶部208により、複数のぼけパラメータに対して複数の被写体距離を計算し、その被写体距離の平均化処理をとることにより最終的に1つの被写体距離を求める。なお、複数のぼけパラメータから最終的に1つの被写体距離を求める為に、メディアン処理やその他ロバスト統計処理を用いても良いものとする。また、ぼけパラメータを計算する為の任意焦点画像の2枚の組は画像の部分領域毎に、ぼけパラメータを計算しても良いものとする。この場合任意焦点画像の2枚の組は、同一箇所の部分領域が切り取られ、その部分領域毎に組で差分計算部206b及び2次微分計算部206cへ転送され、部分領域毎にぼけパラメータの計算が行なわれる。
このような構成をとった場合、ぼけパラメータを部分領域毎に得ることができ、画像の特定の領域に焦点の合った合焦動作を行なうことが出来る。本実施形態では、画像の領域毎にボケパラメータを計算するものとする。
以下、2枚の任意焦点画像を用いたぼけパラメータの計算処理について説明を行なう。初めに、差分計算部206b及び2次微分計算部206cにおける処理の説明を行う。以下の処理では、ぼけパラメータの計算に用いる2枚の任意焦点画像のうち、第1の任意焦点画像に対応する部分領域の画像データを画像Aとし、第2の任意焦点画像の画像Aと同一の部分領域の画像データを画像Bとし、この画像Aと画像Bの間においてぼけパラメータの計算を行なうものとする。
差分計算部206bにおいては、画像A及び画像Bの差分を計算する。画像Aの画像データをA(k)、画像Bの画像データがB(k)で構成されるとすると、差分データの値C(k)は、
C(k)=A(k)−B(k) (式14)
により計算できる。ただしk(小文字)はピクセル位置を示す。また、2次微分計算部206cでは、画像A及び画像Bにおいてそれぞれ2次微分値の計算を行なう。画像Aのピクセル位置kにおけるピクセルの2次微分値をLA(k)とする。
また、本実施形態では、2次微分値の生成演算子として、ラプラシアンフィルタを用いる。具体的には、
[1 −2 1] (式15)
という1次元フィルタを用い、これを画像A及び画像Bに畳込むことになる。具体的には、領域Aについては
LA(k)=A(k-1)−2A(k)+A(k+1) (式16)
という1つの値が取得でき、領域Bについては
LB(k)=B(k-1)−2B(k)+B(k+1) (式17)
という1つの値が取得できる。なお、本実施形態ではラプラシアンフィルタの形状は上記のような1次元フィルタを畳込むことの他に、
Figure 2009047734
で表される3×3[pixel]の2次元フィルタを畳込んでも良いものとする。
差分計算部206bと2次微分計算部206cにおいて計算された差分データ及び2次微分値データはぼけパラメータ計算部206dへ送られ、ぼけパラメータの計算が行なわれる。
ぼけパラメータ計算部206dにおけるぼけパラメータの計算は、以下のように行なわれる。ぼけパラメータは、ぼけの異なる画像の差分データを、ぼけの異なる画像の2次微分値の平均値で割ることで得られる。差分データをC、2次微分値の平均値をLAB={LA+LB}/2とすると、ぼけパラメータDは
D=C/LAB (式19)
で計算できる。この計算に用いられるCは差分計算部206bより、LA、LBは2次微分計算部206cより得られた2次微分値を用いる。このぼけパラメータ生成の計算を2次微分値LA、LBが計算されている全ての値において計算を行い、その平均を任意焦点画像の2枚の組を用いた、最終的なぼけパラメータとして計算する。
Figure 2009047734
ここでDiはそれぞれの差分データ、2次微分値で計算されたぼけパラメータであり、Dは計算された複数のぼけパラメータ値の平均値である。
ぼけパラメータ計算部206dで求められたぼけパラメータ値Dは、制御パラメータ計算部207に送られる。この制御パラメータ計算部207において、撮影光学系200を制御するために光学系制御部209で用いられる制御パラメータが求められる。
以下、上記制御パラメータを作成する手順を説明する。従来より、ぼけパラメータ計算部206dで計算されたぼけパラメータと被写体距離との関係は1対1の対応関係をもつことが知られている。そこで、LUT記憶部208に、ぼけパラメータと被写体距離の関係を示すルックアップテーブルを予め記憶しておくことにする。
このぼけパラメータと被写体距離の関係は、光学系制御部209における制御パラメータの違いによる光学系の変化によっても変化するため、ここでは、このようなルックアップテーブルは制御パラメータ毎にも用意しておく。
制御パラメータ計算部207は被写体距離算出手段としての機能を備え、ぼけパラメータ計算部206dにおいて求められたぼけパラメータを、LUT記憶部208のルックアップテーブルに対応させて被写体距離を求め、その被写体距離に焦点を合わせるべく光学系制御部209で用いる制御パラメータを生成する。生成された制御パラメータは光学系制御部209に送られ、撮影光学系200の制御に用いられる。
なお、ここで得られる被写体距離情報は、合焦動作以外にも利用することが可能であるため、その他の手法として用いても良いものとする。
光学系制御部209は、ぼけパラメータが計算された被写体の被写体距離にあった位置に合焦するように撮影光学系200を移動させ、結像状態の検出、合焦動作を終了する。
なお、合焦動作は以上で終了するが、さらに画像を撮影し、以上の動作を繰り返し合焦の精度をさらに高めるという動作をとっても良いものとする。以上で結像状態の検出及び合焦動作に関する説明を行なった。
(画像補正)
ところで、上記した結像状態の検出及び合焦動作を行なう場合、カメラの撮像素子203上にシリンドリカルレンズ群201Nを配置し、そのシリンドリカルレンズ群201Nによる異なるぼけを利用する為に、実際に撮影された画像には、線状のアーチファクトが発生する。そこで撮像素子203で撮影された映像信号は画像補正部210にも送られる。この画像補正部210では、当該アーチファクトについて画像の補間処理または復元処理を行い、撮影された画像のアーチファクト低減を行なう。このようにして画像補正処理がされた映像信号は画像記録部211に送られて記録される。
以下に画像補正部210の処理を詳細に説明する。本実施形態のように画像がCFA202を介して撮影された場合、撮像素子203で得られる画像はモザイク画像となっている為、色補間処理によるフルカラー化処理を施す。
以下に図10を参照して、シリンドリカルレンズ201を介して撮影された画像領域(シリンドリカルレンズ201によるぼけ領域)及びシリンドリカルレンズ201を介さずに撮影された領域について説明する。図10に示すように、シリンドリカルレンズ201によるぼけ領域201−1は、シリンドリカルレンズ201のレンズ作用を持つ方向に直交する方向において、シリンドリカルレンズ201を介さずに撮影された領域201−2が隣接している。そこで、シリンドリカルレンズ201によるぼけ領域201−1に隣接する、シリンドリカルレンズ201を介さずに撮影された領域201−2のピクセルを用いて補間によりシリンドリカルレンズ201を介して撮影されたピクセルの領域201−1のピクセルを生成することが可能である。例えばシリンドリカルレンズ201によるぼけ領域201−1に属するピクセルの1つをaとし、そのaに隣接する、シリンドリカルレンズ201を介さずに撮影された領域201−2のピクセルをそれぞれb,cとすると、b,cによるaの位置の補間値dは
d={b+c}/2 (式21)
となり、aを補間値dで置き換えることができる。なお、ここでは線形補間を用いているがその他バイキュービック法等を用いた補間法等を用いて補間処理を行っても良い。
本実施形態の様に、画像がカラーの場合は、RGBのそれぞれについて以上の補間処理を施す。
また、その他の方法として復元処理を行う手法を用いても良い。例えば、上記の様に、シリンドリカルレンズ201によるボケ領域201−1に属するピクセルの1つをa、シリンドリカルレンズ201を介さずに撮影された領域201−2のピクセルb,cによるaの補間値をdとし、シリンドリカルレンズ201によるぼけの作用素(ガウシアン)をHとすると、
a≒H*d (式22)
となる。ここで*は畳込み演算子である。
この式より評価関数fは、
f(d)=|a−H*d|2 (式23)
となる。そしてこの評価関数fの値が最小になるようにdを変化させ、fが最小になったときのdをぼけのない最終的な解として、ぼけ領域に属するaと置き換える。このとき、(式22)を安定的に最大化させるための正規化項を(式22)に加えても良いものとする。この正規化項は例えば、
A(d)=|d−b|2+|d−c|2 (式24)
で表すことができる。
以上の処理により、シリンドリカルレンズ201によるぼけ領域の補間・復元処理による補正を行なう。画像補正部210により補正が行なわれた画像は、画像記録部211に転送され記憶保存され、外部リソースとして利用される。
以上説明した本実施形態によれば、一枚の画像の撮影により、複数枚の任意焦点画像を得ることができるため、その結果、一枚の画像で合焦動作が行うことが出来る。
また、画像の撮影に用いる撮像素子を用いて結像状態検出及び合焦動作を行う為、専用のセンサを必要とせず、装置の小型化が可能となる。
また、任意焦点画像を画像の撮影に用いる撮像素子上で生成する為、任意焦点画像を撮影後観賞用用途としても利用できる。
また、1次元的なぼけを発生させるシリンドリカルレンズを用いることから、任意焦点画像を作成する場合に1次元的な計算だけで済み演算が簡単になる。また1次元的なぼけを発生させるシリンドリカルレンズを用いることから、ぼけの生じない方向においてシリンドリカルレンズを介して撮影された画像領域とシリンドリカルレンズを介さず撮影された画像領域が近接するため、シリンドリカルレンズを介して撮影された画像領域について、シリンドリカルレンズを介さず撮影された画像領域のピクセルを用いて補間・復元処理を行い、容易にアーチファクトの少ない画像を得ることができる。その結果、合焦動作に用いた画像をそのまま本撮影に利用することが出来る。
また、図11に示すように、1次元的なぼけを発生させるシリンドリカルレンズ201を用いることから、シリンドリカルレンズ201を密に敷き詰めて任意焦点画像を作成する場合に、2次元的なぼけの拡がりを持つマイクロレンズ301に比べ、撮像時に像が取得できないピクセル領域が少なくなり、撮像素子202を有効に利用できる。201−1はシリンドリカルレンズ201を介して撮影される領域であり、201−2はシリンドリカルレンズ201を介さずに撮影される領域である。また、301−1はマイクロレンズ301を介して撮影される領域であり、301−2は撮影されない領域である。
図1は、本発明の一実施形態に係る撮像装置の構成を示す図である。 図2は、シリンドリカルレンズのブロックの配置例を示す図である。 図3は、1ブロック内におけるシリンドリカルレンズの配置例を示す図である。 図4は、ベイヤー型原色フィルタアレイ、色差線順次型補色フィルタアレイの具体例を示す図である。 図5は、本実施形態のシリンドリカルレンズ群201Nを介した撮影の光学系の部分を撮影光学系の光軸を含む面で切断したときの断面図である。 図6(a)、(b)は画像合成の原理を説明するための図である。 図7は、指定像面が画像合成範囲内の特定の面(Z=0)である時の合成方法を説明する図である。 図8は、指定像面が画像合成範囲内の上記以外のある面(Z=h1)であるときの合成方法を説明する図である。 図9は、指定像面が画像合成範囲内の上記以外のある面(Z=h2)であるときの合成方法を説明する図である。 図10は、画像補正について説明するための図である。 図11は、シリンドリカルレンズを用いた場合と、マイクロレンズ301を用いた場合とで撮像の様子を比較して示す図である。 DFD処理のフローの詳細を示すフローチャートである。 フォーカスレンズ位置の変換によるぼけの変化について説明するための図である。
符号の説明
200 撮影光学系
201N シリンドリカルレンズ群
202 CFA
203 撮像素子
204 輝度信号制御部
205 任意焦点画像生成部
206 ぼけパラメータ計算手段
206a 前処理部
206b 差分計算部
206c 2次微分計算部
206d ぼけパラメータ計算部
207 制御パラメータ計算部
208 LUT記憶部
209 光学系制御部
240 制御パラメータ計算手段

Claims (10)

  1. シリンドリカルレンズを含み、被写体の像を光学的に結像する光学的結像手段と、
    前記光学的結像手段で結像された被写体の像を電子的に撮像する撮像手段と、
    撮像画面のうち、前記シリンドリカルレンズを介して撮像された部分の画像信号を取得する画像取得手段と、
    前記シリンドリカルレンズを介して撮像された部分の画像信号を用いて、任意焦点画像を作成する任意焦点画像作成手段と、
    を具備することを特徴とする撮像装置。
  2. 前記撮像装置はさらに、前記任意焦点画像作成手段により作成された任意焦点画像を用いて、被写体の距離を計算する被写体距離計算手段を有することを特徴とする請求項1に記載の撮像装置。
  3. 前記被写体距離計算手段は、前記任意焦点画像作成手段において作成された複数枚の任意焦点画像のボケの関係から、被写体の距離を計算することを特徴とする請求項2に記載の撮像装置。
  4. 前記被写体距離計算手段は、前記任意焦点画像作成手段において作成された複数枚の任意焦点画像のボケの関係から、デプスフロムデフォーカス処理により被写体の距離を計算することを特徴とする請求項2に記載の撮像装置。
  5. 前記撮像装置はさらに、前記被写体距離計算手段で計算された被写体の距離情報に基づいて、前記光学的結像手段の撮影パラメータを変更する撮影パラメータ変更手段を有することを特徴とする請求項2乃至4のいずれか1つに記載の撮像装置。
  6. 前記画像取得手段は、撮像画面のうち、前記シリンドリカルレンズを介して撮像された部分の画像信号を取得するとともに、前記シリンドリカルレンズを介さず撮像された部分の画像信号を取得することを特徴とする請求項1乃至5のいずれか1つに記載の撮像装置。
  7. 前記撮像装置はさらに、前記シリンドリカルレンズを介して撮像された部分の画像信号を、前記シリンドリカルレンズを介さず撮像された部分の画像信号に基づき補正する画像補正手段を有することを特徴とする請求項6に記載の撮像装置。
  8. 前記画像補正手段は画像の補間処理を行うことを特徴とする請求項7に記載の撮像装置。
  9. 前記画像補正手段は画像の復元処理を行うことを特徴とする請求項7に記載の撮像装置。
  10. シリンドリカルレンズを含み、被写体の像を光学的に結像する光学的結像手段と、前記光学的結像手段で結像された被写体の像を電子的に撮像する撮像手段と、を用いて撮像した撮像画面の画像信号をコンピュータを用いて処理する画像処理プログラムであって、
    コンピュータを、
    撮像画面のうち、前記シリンドリカルレンズを介して撮像された部分の画像信号を取得する画像取得手段、及び
    前記シリンドリカルレンズを介して撮像された部分の画像信号を用いて、任意焦点画像を作成する任意焦点画像作成手段、
    として機能させるための画像処理プログラム。
JP2007210893A 2007-08-13 2007-08-13 撮像装置及び画像処理プログラム Pending JP2009047734A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007210893A JP2009047734A (ja) 2007-08-13 2007-08-13 撮像装置及び画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007210893A JP2009047734A (ja) 2007-08-13 2007-08-13 撮像装置及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2009047734A true JP2009047734A (ja) 2009-03-05

Family

ID=40500054

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007210893A Pending JP2009047734A (ja) 2007-08-13 2007-08-13 撮像装置及び画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2009047734A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009159357A (ja) * 2007-12-27 2009-07-16 Sony Corp 撮像装置
JP2011070134A (ja) * 2009-09-28 2011-04-07 Kyocera Corp 撮像装置および画像処理方法
JP2011109310A (ja) * 2009-11-16 2011-06-02 Nikon Corp 画像合成装置および撮像装置
WO2013077154A1 (en) * 2011-11-21 2013-05-30 Canon Kabushiki Kaisha Image sensing device and image capturing apparatus
JP2015102856A (ja) * 2013-11-28 2015-06-04 株式会社ニコン 画像処理装置、電子カメラ及び画像処理プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0579838A (ja) * 1991-09-20 1993-03-30 Fujitsu Ltd 測距方法及び測距装置
JP2000292686A (ja) * 1999-04-06 2000-10-20 Olympus Optical Co Ltd 撮像装置
JP2001223874A (ja) * 2000-02-04 2001-08-17 Kiyoharu Aizawa 任意焦点画像合成装置及びこれに用いる複数画像同時撮像型カメラ
JP2002116372A (ja) * 2000-10-10 2002-04-19 Ricoh Co Ltd 自動合焦装置、その合焦方法、およびその方法をコンピュータで実行するためのプログラムが格納されているコンピュータが読み取り可能な記録媒体
JP2002158919A (ja) * 2000-11-17 2002-05-31 Minolta Co Ltd 撮像装置及び画像取得ステップ
JP2003007994A (ja) * 2001-06-27 2003-01-10 Konica Corp 固体撮像素子、立体カメラ装置及び測距装置
JP2007139892A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0579838A (ja) * 1991-09-20 1993-03-30 Fujitsu Ltd 測距方法及び測距装置
JP2000292686A (ja) * 1999-04-06 2000-10-20 Olympus Optical Co Ltd 撮像装置
JP2001223874A (ja) * 2000-02-04 2001-08-17 Kiyoharu Aizawa 任意焦点画像合成装置及びこれに用いる複数画像同時撮像型カメラ
JP2002116372A (ja) * 2000-10-10 2002-04-19 Ricoh Co Ltd 自動合焦装置、その合焦方法、およびその方法をコンピュータで実行するためのプログラムが格納されているコンピュータが読み取り可能な記録媒体
JP2002158919A (ja) * 2000-11-17 2002-05-31 Minolta Co Ltd 撮像装置及び画像取得ステップ
JP2003007994A (ja) * 2001-06-27 2003-01-10 Konica Corp 固体撮像素子、立体カメラ装置及び測距装置
JP2007139892A (ja) * 2005-11-15 2007-06-07 Olympus Corp 合焦検出装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009159357A (ja) * 2007-12-27 2009-07-16 Sony Corp 撮像装置
JP2011070134A (ja) * 2009-09-28 2011-04-07 Kyocera Corp 撮像装置および画像処理方法
JP2011109310A (ja) * 2009-11-16 2011-06-02 Nikon Corp 画像合成装置および撮像装置
WO2013077154A1 (en) * 2011-11-21 2013-05-30 Canon Kabushiki Kaisha Image sensing device and image capturing apparatus
JP2013110607A (ja) * 2011-11-21 2013-06-06 Canon Inc 撮像素子及び撮像装置
US9241120B2 (en) 2011-11-21 2016-01-19 Canon Kabushiki Kaisha Image sensing device and image capturing apparatus
JP2015102856A (ja) * 2013-11-28 2015-06-04 株式会社ニコン 画像処理装置、電子カメラ及び画像処理プログラム

Similar Documents

Publication Publication Date Title
JP5188651B2 (ja) 画像処理装置、およびそれを用いた撮像装置
JP4524717B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
RU2431889C1 (ru) Способ суперразрешения изображений и нелинейный цифровой фильтр для его осуществления
US7529424B2 (en) Correction of optical distortion by image processing
US8659672B2 (en) Image processing apparatus and image pickup apparatus using same
JP5701785B2 (ja) カメラモジュール
JP5917054B2 (ja) 撮像装置、画像データ処理方法、およびプログラム
JP5837463B2 (ja) 画像処理装置および画像処理システム
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JP5237978B2 (ja) 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
US9369693B2 (en) Stereoscopic imaging device and shading correction method
JP2008015754A (ja) 撮像装置、画像処理装置および画像処理方法
JP6506560B2 (ja) フォーカス制御装置及びその方法、プログラム、記憶媒体
JP2012049773A (ja) 撮像装置および方法、並びにプログラム
TW201143384A (en) Camera module, image processing apparatus, and image recording method
JP5348258B2 (ja) 撮像装置
JP2009047734A (ja) 撮像装置及び画像処理プログラム
JP6190119B2 (ja) 画像処理装置、撮像装置、制御方法、及びプログラム
JP2015231052A (ja) 撮像装置および方法、並びにプログラム
KR20180117598A (ko) 신호 처리 장치 및 촬상 장치
WO2019202984A1 (ja) 撮像装置並びに距離計測方法、距離計測プログラム及び記録媒体
CN109923854B (zh) 图像处理装置、图像处理方法以及记录介质
JP2006135823A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2017050662A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2009047735A (ja) 撮像装置及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111101