JP5893713B1 - 撮像装置、撮像方法、処理プログラム - Google Patents

撮像装置、撮像方法、処理プログラム Download PDF

Info

Publication number
JP5893713B1
JP5893713B1 JP2014224418A JP2014224418A JP5893713B1 JP 5893713 B1 JP5893713 B1 JP 5893713B1 JP 2014224418 A JP2014224418 A JP 2014224418A JP 2014224418 A JP2014224418 A JP 2014224418A JP 5893713 B1 JP5893713 B1 JP 5893713B1
Authority
JP
Japan
Prior art keywords
pixel
image
focus
pixel shift
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014224418A
Other languages
English (en)
Other versions
JP2016092578A (ja
Inventor
剛幸 味戸
剛幸 味戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014224418A priority Critical patent/JP5893713B1/ja
Priority to EP15858039.9A priority patent/EP3217647B1/en
Priority to CN201580054461.XA priority patent/CN106797434A/zh
Priority to PCT/JP2015/059178 priority patent/WO2016072103A1/ja
Application granted granted Critical
Publication of JP5893713B1 publication Critical patent/JP5893713B1/ja
Publication of JP2016092578A publication Critical patent/JP2016092578A/ja
Priority to US15/488,023 priority patent/US10142557B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/676Bracketing for image capture at varying focusing conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像の取得や処理に要する時間を短縮して、メモリ容量を節約し、被写界深度が深い高解像度画像を生成することができる撮像装置等を提供する。【解決手段】あるフォーカス位置で画素ずらし撮影して取得した複数の画像データを画素ずらし合成して合成画像データを生成する画素ずらし合成処理部30と、画素ずらし合成処理部30に生成させたフォーカス位置の異なる複数の合成画像データを深度合成する深度合成処理部31と、複数のフォーカス位置の1つ以上において合焦領域を抽出するマイクロコンピュータ45と、を備え、画素ずらし合成処理部30は、合焦領域が抽出されたフォーカス位置については合焦領域を含む部分画像領域のみについて画素ずらし合成を行う撮像装置。【選択図】図1

Description

本発明は、画素ずらしおよび深度合成を行って被写界深度の深い高解像度の合成画像データを生成する撮像装置、撮像方法、処理プログラムに関する。
画素ピッチの非整数倍の移動量で画素ずらしを行って取得した複数の画像データを合成し、高解像度の合成画像データを生成する技術は、従来より提案されている。
例えば、特開平6−225317号公報には、ベイヤ配列の撮像素子を水平方向、垂直方向、あるいは斜め方向に0.5画素あるいは1画素ずらしさせて4回または8回の撮影を行い、得られた4枚または8枚の画像を合成することにより、水平方向および垂直方向に2倍の解像度をもつ画像を生成する技術が記載されている。
また、フォーカス位置を変更しながら複数枚の画像を取得するフォーカスブラケット撮影を行い、得られた複数の画像を深度合成することにより、合焦範囲を拡大した被写界深度の深い画像を得る技術も従来より提案されている。
例えば、特許第4678603号公報には、フォーカスブラケット撮影により複数枚の画像を取得して、各画像の特徴点が一致するように画像を変形し、複数枚の画像間において対応する画素の内で最も鮮鋭度の高い画素を選択して合成することで、画面全体に焦点の合った全焦点画像を出力する技術が記載されている。
特開平6−225317号公報 特許第4678603号公報
上記特開平6−225317号公報に記載されたような画素ずらし技術により高解像度の画像を生成すると、ピントが合っている部分は高解像度化されるが、元々ピントが合っていない部分については高解像化されない。例えば、マクロ撮影などの場合には、被写体の全体にピントを合わせるのが困難であることが多いために、ピントが合っている部分とピントが合っていない部分との解像度差が大きくなり、通常の1枚撮影の画像に比べてさらに被写界深度が浅い画像が生成されてしまう。
被写界深度を深くするにはレンズ絞り開口径を小さくすれば良いが、レンズ絞り開口径を小さくすると、今度は回折の影響によりピントが合っている部分の像もぼけてしまうために、高解像度の画像を得るにはある程度の大きさでレンズ絞りを開けておく必要がある。
そこで、レンズ絞りを小さくすることなく被写界深度が深い画像を得る方法として、上記特許第4678603号公報に記載されたようなフォーカスブラケット撮影および深度合成を行う技術を利用することが考えられる。しかしながら、画素ずらし撮影とフォーカスブラケット撮影との両方を行う場合には、取得する画像枚数は、(画素ずらしに必要な画像枚数)×(フォーカスブラケット枚数)となり、例えば画素ずらしが8枚、フォーカスブラケットが10枚の場合には、1枚の合成画像を得るために80枚もの画像を撮影することになる。従って、長い撮影時間を要するだけでなく、画像を合成するのにも長い時間を要し、さらに、膨大な枚数の画像を合成処理するにはSDRAM等のメモリも大容量のものが必要となる。
本発明は上記事情に鑑みてなされたものであり、画像の取得や処理に要する時間を短縮して、メモリ容量を節約し、被写界深度が深い高解像度画像を生成することができる撮像装置、撮像方法、処理プログラムを提供することを目的としている。
本発明のある態様による撮像装置は、あるフォーカス位置で画素ずらし撮影して複数の画像データを取得し、取得した複数の画像データを画素ずらし合成処理して画素ずらし合成画像データを生成する画素ずらし処理部と、複数のフォーカス位置に対して上記画素ずらし処理部に処理を行わせて、フォーカス位置の異なる複数の画素ずらし合成画像データを生成させ、該複数の画素ずらし合成画像データを深度合成処理して被写界深度の深い画像を生成する深度処理部と、複数の上記フォーカス位置の少なくとも1つにおいて合焦領域を抽出する合焦領域抽出部と、を具備し、上記画素ずらし処理部は、上記合焦領域が抽出されたフォーカス位置については、該合焦領域を含む部分画像領域のみについて画素ずらし合成処理を行う。
本発明のある態様による撮像方法は、あるフォーカス位置で画素ずらし撮影して複数の画像データを取得し、取得した複数の画像データを画素ずらし合成処理して画素ずらし合成画像データを生成する画素ずらし処理ステップと、複数のフォーカス位置に対して上記画素ずらし処理ステップを実行して、フォーカス位置の異なる複数の画素ずらし合成画像データを生成し、該複数の画素ずらし合成画像データを深度合成処理して被写界深度の深い画像を生成する深度処理ステップと、複数の上記フォーカス位置の少なくとも1つにおいて合焦領域を抽出する合焦領域抽出ステップと、を有し、上記画素ずらし処理ステップは、上記合焦領域が抽出されたフォーカス位置については、該合焦領域を含む部分画像領域のみについて画素ずらし合成処理を行うステップである。
本発明のある態様による処理プログラムは、コンピュータに、あるフォーカス位置で画素ずらし撮影して複数の画像データを取得し、取得した複数の画像データを画素ずらし合成処理して画素ずらし合成画像データを生成する画素ずらし処理ステップと、複数のフォーカス位置に対して上記画素ずらし処理ステップを実行して、フォーカス位置の異なる複数の画素ずらし合成画像データを生成し、該複数の画素ずらし合成画像データを深度合成処理して被写界深度の深い画像を生成する深度処理ステップと、複数の上記フォーカス位置の少なくとも1つにおいて合焦領域を抽出する合焦領域抽出ステップと、を実行させるための処理プログラムであって、上記画素ずらし処理ステップは、上記合焦領域が抽出されたフォーカス位置については、該合焦領域を含む部分画像領域のみについて画素ずらし合成処理を行うステップである。
本発明の撮像装置、撮像方法、処理プログラムによれば、画像の取得や処理に要する時間を短縮して、メモリ容量を節約し、被写界深度が深い高解像度画像を生成することができる。
本発明の実施形態1におけるデジタルカメラの構成を示すブロック図。 上記実施形態1の画素ずらし合成処理部の構成を示すブロック図。 上記実施形態1において、1つのフォーカス位置における画素ずらし撮影で得られた8枚のベイヤ画像におけるR,Gr,Gb,Bの基本的な画素配置を示す図。 上記実施形態1において、図3に示す画素配置の8枚分のベイヤ画像から画素配置部により得られたR画素配置を示す図。 上記実施形態1において、図3に示す画素配置の8枚分のベイヤ画像から画素配置部により得られたGr画素配置を示す図。 上記実施形態1において、図3に示す画素配置の8枚分のベイヤ画像から画素配置部により得られたGb画素配置を示す図。 上記実施形態1において、図3に示す画素配置の8枚分のベイヤ画像から画素配置部により得られたB画素配置を示す図。 上記実施形態1において、大きい絞り開口径で撮影された画像の例を示す図。 上記実施形態1において、小さい絞り開口径で撮影された画像の例を示す図。 上記実施形態1において、図8に示す画像および図9に示す画像の鮮鋭度を比較して抽出された合焦領域の様子を示す図。 上記実施形態1において、合焦領域抽出部により設定される画素ずらし撮像領域を示す図。 上記実施形態1において、合焦領域抽出部により画素ずらし撮像領域内において設定される画像取得領域を示す図。 上記実施形態1において、画素ずらし部により行われる画素ずらしの経路を示す図。 上記実施形態1のデジタルカメラにおけるメイン処理の流れを示すフローチャート。 上記実施形態1のデジタルカメラにおける撮影および合成処理の流れを示すフローチャート。 上記実施形態1のデジタルカメラにおける画素ずらし撮影処理の流れを示すフローチャート。 上記実施形態1のデジタルカメラにおける深度合成処理の流れを示すフローチャート。 上記実施形態1の方法と対比される従来と同様の方法により、画素ずらしおよび深度合成を行うための画像を取得したときの画像データ量の例を示す図。 上記実施形態1の方法により画素ずらしおよび深度合成を行うための画像を取得したときの画像データ量の例を概略的に示す図。 本発明の実施形態2のデジタルカメラにおける画素ずらし撮影処理の流れを示すフローチャート。 本発明の実施形態3のデジタルカメラにおける撮影および合成処理の流れを示すフローチャート。 上記実施形態3のデジタルカメラにおける画素ずらし撮影処理の流れを示すフローチャート。 上記実施形態3のデジタルカメラにおける画素ずらし合成および深度合成処理の流れを示すフローチャート。 上記実施形態3のデジタルカメラにおける深度合成処理の流れを示すフローチャート。 本発明の実施形態4におけるデジタルカメラの構成を示すブロック図。
以下、図面を参照して本発明の実施の形態を説明する。
[実施形態1]
図1から図19は本発明の実施形態1を示したものであり、図1はデジタルカメラの構成を示すブロック図である。本実施形態は、撮像装置をデジタルカメラに適用したものとなっている。
このデジタルカメラは、交換式レンズ1とカメラ本体2とをインタフェース(I/F)3を介して通信できるように接続して構成されている。
交換式レンズ1は、例えばレンズマウントを介してカメラ本体2に対して着脱自在に装着されるようになっており、レンズマウントに形成した電気接点(交換式レンズ1側に設けられた電気接点およびカメラ本体2側に設けられた電気接点)等によりインタフェース3が構成されている。こうして、交換式レンズ1は、インタフェース3を介してカメラ本体2と通信できるようになっている。
交換式レンズ1は、レンズ11と、絞り12と、ドライバ13と、フラッシュメモリ14と、マイクロコンピュータ15と、を備えている。
レンズ11は、被写体の光学像をカメラ本体2の後述する撮像素子22上に結像するための撮像光学系である。
絞り12は、レンズ11を通過する光束の通過範囲を制御する光学絞りである。
ドライバ13は、マイクロコンピュータ15からの指令に基づき、レンズ11を駆動してフォーカス位置の調整を行い、レンズ11が電動ズームレンズ等である場合にはさらに焦点距離の変更も行う。加えて、ドライバ13は、マイクロコンピュータ15からの指令に基づき、絞り12を駆動して開口径を変化させる。この絞り12の駆動により、被写体の光学像の明るさが変化し、ボケの大きさなども変化する。
なお、後述する高深度超解像撮影モードにおいてフォーカスブラケットおよび画素ずらしを行いながら複数枚の画像データを取得する場合には、レンズ11はフォーカスブラケットに応じてフォーカス位置を順次変更される。また、絞り12は、本実施形態においては、フォーカスブラケット撮影におけるそれぞれのフォーカス位置において、合焦領域を抽出するために、開口径を大小に異ならせて2枚の画像を取得する際に駆動される。
フラッシュメモリ14は、マイクロコンピュータ15により実行される処理プログラムや、交換式レンズ1に関する各種の情報を記憶する記憶媒体である。
マイクロコンピュータ15は、いわゆるレンズ側コンピュータであり、ドライバ13、フラッシュメモリ14、およびインタフェース3と接続されている。そして、マイクロコンピュータ15は、インタフェース3を介して後述する本体側コンピュータであるマイクロコンピュータ45と通信し、マイクロコンピュータ45からの指令を受けて、フラッシュメモリ14に記憶されている情報の読出/書込を行い、ドライバ13を制御する。さらに、マイクロコンピュータ15は、この交換式レンズ1に関する各種の情報をマイクロコンピュータ45へ送信する。
インタフェース3は、交換式レンズ1のマイクロコンピュータ15と、カメラ本体2のマイクロコンピュータ45とを、双方向に通信できるように接続する。
次に、カメラ本体2は、メカニカルシャッタ21と、撮像素子22と、ボイスコイルモータ(VCM)23と、アナログ処理部24と、アナログ/デジタル変換部(A/D変換部)25と、バス26と、SDRAM27と、AF処理部28と、AE処理部29と、画素ずらし合成処理部30と、深度合成処理部31と、画像処理部32と、JPEG処理部36と、モニタドライバ37と、モニタ38と、ホール素子39と、メモリインタフェース(メモリI/F)41と、記録媒体42と、操作部43と、フラッシュメモリ44と、マイクロコンピュータ45と、を備えている。
メカニカルシャッタ21は、レンズ11からの光束が撮像素子22へ到達する時間を制御するものであり、例えばシャッタ幕を走行させる構成のメカニカルシャッタとなっている。このメカニカルシャッタ21は、マイクロコンピュータ45の指令により駆動されて、光束の撮像素子22への到達時間を制御する。メカニカルシャッタ21のみで露光開始および露光終了を規定する場合には、この光束の到達時間が撮像素子22による被写体の露光時間となる。なお、後述する高深度超解像撮影モードにおいてフォーカスブラケットおよび画素ずらしを行いながら複数枚の画像データを取得する場合には、メカニカルシャッタ21は、最初の画像を取得する前の時点から最後の画像を取得した後の時点まで開いた状態に維持される。
撮像素子22は、所定の画素ピッチ(図13等に示す画素ピッチPを参照)で2次元状に配列された複数の画素を有し、画素ずらし撮像制御部(撮像制御部であり、画素ずらし処理部の一部)およびフォーカスブラケット撮像制御部(撮像制御部であり、深度処理部の一部)であるマイクロコンピュータ45の制御に基づき、レンズ11および絞り12を介して結像された被写体の光学像を光電変換してアナログ画像信号を生成するものである。この撮像素子22は、全画素読出ができるだけでなく、さらに、所望のライン、もしくは所望の領域(あるいは所望の画素)の画素信号を読み出しできるものとなっている。
本実施形態の撮像素子22は、例えば、垂直方向および水平方向に配列された複数の画素の前面に原色ベイヤー配列のカラーフィルタを配置した単板式の撮像素子として構成されている。なお、撮像素子22は、単板式の撮像素子に限らないことは勿論であり、例えば基板厚み方向に色成分を分離するような積層式の撮像素子であっても良い。
ボイスコイルモータ(VCM)23は、画素ずらし処理部の一部であって、撮像素子22と、撮像素子22により受光される光束と、の上述した2次元状の画素配列方向の相対位置を変位させるものであり、フレーム期間の移動量が画素ピッチの非整数倍(例えば半画素ピッチ単位)(図13等)となるように移動させる画素ずらし部、変位部である。具体的なボイスコイルモータ(VCM)23の構成は、例えば、撮像素子22を磁力で宙に浮かせて磁力を制御することにより、レンズ11の光軸に垂直な面内で撮像素子22の位置を移動するものとなっている。
なお、ここでは画素ずらし部としてボイスコイルモータ(VCM)23を例に挙げているが、これに限るものではなく、画素ずらしを行い得るその他の適宜の機構を用いても構わない。
アナログ処理部24は、撮像素子22から読み出されたアナログ画像信号に対して、リセットノイズ等を低減した上で波形整形を行い、さらに目的の明るさとなるようにゲインアップを行う。
A/D変換部25は、アナログ処理部24から出力されたアナログ画像信号をデジタル画像信号(以後、画像データという)に変換する。
バス26は、デジタルカメラ内のある場所で発生した各種のデータや制御信号を、デジタルカメラ内の他の場所へ転送するための転送路である。本実施形態におけるバス26は、ボイスコイルモータ(VCM)23と、A/D変換部25と、SDRAM27と、AF処理部28と、AE処理部29と、画素ずらし合成処理部30と、深度合成処理部31と、画像処理部32と、JPEG処理部36と、モニタドライバ37と、ホール素子39と、メモリI/F41と、マイクロコンピュータ45と、に接続されている。
A/D変換部25から出力された画像データ(以下では適宜、RAW画像データという)は、バス26を介して転送され、SDRAM27に一旦記憶される。
SDRAM27は、上述したRAW画像データ、あるいは画素ずらし合成処理部30、深度合成処理部31、画像処理部32、JPEG処理部36等において処理された画像データ等の各種データを一時的に記憶する記憶部である。
AF処理部28は、RAW画像データから高周波成分の信号を抽出して、AF(オートフォーカス)積算処理により、合焦評価値を取得する。ここで取得された合焦評価値は、レンズ11のAF駆動に用いられる。なお、AFがこのようなコントラストAFに限定されないことは勿論であり、例えば専用のAFセンサ(あるいは撮像素子22上のAF用画素)を用いて位相差AFを行うようにしても構わない。
AE処理部29は、RAW画像データに基づき、被写体輝度を算出する。ここで算出された被写体輝度は、自動露出(AE)制御、すなわち、絞り12の制御やメカニカルシャッタ21の制御、撮像素子22の露光タイミング制御(あるいは、いわゆる素子シャッタの制御)等に用いられる。なお、被写体輝度を算出するためのデータとして、ここではRAW画像データを利用したが、これに代えて、デジタルカメラに専用の測光センサを設けて得られたデータを利用するようにしても構わない。
画素ずらし合成処理部30は、画素ずらし処理部の一部であって、画素ずらし撮像制御部であるマイクロコンピュータ45の制御により、あるフォーカス位置においてボイスコイルモータ(VCM)23を駆動して撮像素子22を移動させ撮影し取得された複数枚の画像データを画素ずらし合成処理して、撮像素子22から得られる画像データよりも高解像度の画素ずらし合成画像データ(超解像画像とも呼ばれる)を生成するものである。この画素ずらし合成処理部30は、フォーカスブラケット撮像制御部であるマイクロコンピュータ45の制御により取得された、画素ずらしされた複数枚の画像データの、フォーカス位置の異なる複数セットをセット毎に(つまりフォーカス位置毎に)画素ずらし合成処理して、フォーカス位置の異なる複数枚の高解像度の画素ずらし合成画像データを生成するようになっている。
深度合成処理部31は、深度処理部の一部であって、画素ずらし合成処理部30により生成されたフォーカス位置の異なる複数枚の画素ずらし合成画像データを深度合成処理して被写界深度の深い画像を生成するものである。より具体的に、深度合成処理部31は、画素ずらし合成処理部30により生成されたフォーカス位置の異なる複数枚の画素ずらし合成画像データの各画素の鮮鋭度を算出して、各画素位置における最も鮮鋭度の高い画素の画素値をその画素位置の画素値に設定する深度合成処理を行うことで、撮像素子から得られる画像データよりも被写界深度の深い画像を合成する。
画像処理部32は、RAW画像データあるいは画素ずらし合成処理部30および深度合成処理部31により生成された画像データに対して種々の画像処理を行うものであり、同時化処理部33、エッジ強調処理部34、ノイズ低減処理部35を含んでいる。
同時化処理部33は、1画素につきRGB成分の内の1色成分のみが存在するベイヤー配列の画像データから、着目画素に存在しない色成分を周辺画素から補間して求めることにより、全画素がRGBの3色成分を全て備える画像データに変換する同時化処理を行う。
エッジ強調処理部34は、画像データにエッジ強調処理を行うものである。
ノイズ低減処理部35は、画像データに空間周波数に応じたコアリング処理などを行うことによりノイズ低減処理を行う。
こうして画像処理部32によって各種の処理が行われた後の画像データは、SDRAM27に再び記憶される。
JPEG処理部36は、画像データを記録する際には、SDRAM27から画像データを読み出して、読み出した画像データをJPEG圧縮方式に従って圧縮し、圧縮した画像データをSDRAM27に一旦記憶させる。こうしてSDRAM27に記憶された圧縮した画像データは、マイクロコンピュータ45により、ファイルを構成するために必要なヘッダが付加されて記録用のデータとして整えられる。そして、マイクロコンピュータ45の制御に基づき、整えられた記録用のデータが、メモリI/F41を介して記録媒体42に記録される。
また、JPEG処理部36は、読み出された画像データの伸張も行う。すなわち、記録済み画像の再生を行う場合には、マイクロコンピュータ45の制御に基づき、例えばJPEGファイルがメモリI/F41を介して記録媒体42から読み出され、SDRAM27に一旦記憶される。JPEG処理部36は、SDRAM27に記憶されたJPEG画像データを読み出して、読み出したJPEG画像データをJPEG伸張方式に従って伸張し、伸張した画像データをSDRAM27に記憶させる。
モニタドライバ37は、SDRAM27に記憶されている画像データを読み出して、読み出した画像データを映像信号へ変換し、モニタ38を駆動制御して映像信号に基づく画像をモニタ38に表示させる。このモニタドライバ37により行われる画像表示には、撮影直後の画像データを短時間だけ表示するレックビュー表示、記録媒体42に記録されたJPEGファイルの再生表示、およびライブビュー表示などが含まれる。
モニタ38は、上述したようなモニタドライバ37の駆動制御により、画像を表示すると共に、このデジタルカメラに係る各種の情報を表示する。
ホール素子39は、ボイスコイルモータ(VCM)23により移動される撮像素子22の撮影動作中の上述した相対位置を時系列に検出する位置検出部である。ここでは位置検出部としてホール素子39を用いているが、ホール素子39に限定されるものでないことは勿論である。
メモリI/F41は、上述したように、画像データの記録媒体42への書き込み、および記録媒体42からの画像データの読み出しを行う。
記録媒体42は、画像データを不揮発に記憶するものであり、例えばカメラ本体2に着脱できるようなメモリカード等により構成されている。ただし、記録媒体42は、メモリカードに限定されるものではなく、ディスク状の記録媒体でも構わないし、その他の任意の記録媒体であっても良い。従って、記録媒体42は、デジタルカメラに固有の構成である必要はない。
操作部43は、このデジタルカメラに対する各種の操作入力を行うためのものであり、デジタルカメラの電源をオン/オフするめの電源ボタン、画像の撮影開始を指示するための例えば1st(ファースト)レリーズスイッチおよび2nd(セカンド)レリーズスイッチを有して構成されている2段式操作ボタンでなるレリーズボタン、記録画像の再生を行うための再生ボタン、デジタルカメラの設定等を行うためのメニューボタン、項目の選択操作に用いられる十字キーや選択項目の確定操作に用いられるOKボタン等の操作ボタンなどを含んでいる。
ここに、メニューボタンや十字キー、OKボタン等を用いて設定できるような項目には、撮影モード(通常撮影モード、高深度超解像撮影モード等)、記録モード(JPEG記録モード、RAW+JPEG記録モード等)などが含まれている。この操作部43に対して操作が行われると、操作内容に応じた信号がマイクロコンピュータ45へ出力される。
フラッシュメモリ44は、マイクロコンピュータ45により実行される処理プログラムや、このデジタルカメラに係る各種の情報を不揮発に記憶する記憶媒体である。ここに、フラッシュメモリ44が記憶する情報としては、例えば、エッジ強調処理に用いるパラメータやノイズ低減処理に用いるパラメータ等のデジタルカメラの動作に必要な各種パラメータ、高深度超解像撮影モードにおける画素ずらしの大きさ、方向、順序等の情報、およびデジタルカメラを特定するための製造番号などが幾つかの例として挙げられる。このフラッシュメモリ44が記憶する情報は、マイクロコンピュータ45により読み取られる。
マイクロコンピュータ45は、カメラ本体2内の各部を制御すると共に、インタフェース3を介してマイクロコンピュータ15に指令を送信し交換式レンズ1を制御するものであり、このデジタルカメラを統括的に制御する制御部である。マイクロコンピュータ45は、ユーザにより操作部43から操作入力が行われると、フラッシュメモリ44に記憶されている処理プログラムに従って、フラッシュメモリ44から処理に必要なパラメータを読み込んで、操作内容に応じた各種シーケンスを実行する。
そして、マイクロコンピュータ45は、画素ずらし処理部の一部であって、上述したボイスコイルモータ(VCM)23を制御して上述した相対位置を移動する画素ずらしを行わせながら、相対位置を移動中に撮像素子22を制御して複数回の露光を行わせ、複数枚の画像データを取得する画素ずらし撮像制御部としても機能するようになっている。
さらに、マイクロコンピュータ45は、深度処理部の一部であって、所定の移動量で離散的にフォーカス位置を移動しながら画素ずらし撮像制御部による撮像制御を繰り返し行ってフォーカス位置の異なる複数枚の画像データを複数セット取得するフォーカスブラケット撮像制御部としても機能する。
加えて、マイクロコンピュータ45は、フォーカスブラケット撮像制御部により撮像制御する複数のフォーカス位置の少なくとも1つにおいて、画像中の合焦領域を抽出する合焦領域抽出部としても機能する。
この合焦領域抽出部により合焦領域が抽出された場合には、上述した画素ずらし合成処理部30は、その合焦領域を含む部分画像領域の画像データのみを使用して合成し、画素ずらし合成画像データを生成するようになっている。
すなわち、本実施形態の撮像装置は、以下に説明するように、画素ずらし処理部が、あるフォーカス位置で画素ずらし撮影して複数の画像データを取得し、取得した複数の画像データを画素ずらし合成処理して画素ずらし合成画像データを生成し、深度処理部が、複数のフォーカス位置に対して画素ずらし処理部に処理を行わせて、フォーカス位置の異なる複数の画素ずらし合成画像データを生成させ、複数の画素ずらし合成画像データを深度合成処理して被写界深度の深い画像を生成し、合焦領域抽出部が、複数のフォーカス位置の少なくとも1つにおいて合焦領域を抽出し、上述した画素ずらし処理部は、合焦領域が抽出されたフォーカス位置については、合焦領域を含む部分画像領域のみについて画素ずらし合成処理を行うようになっている。
そして、本実施形態のマイクロコンピュータ45は、絞り12の開口径が異なる2つの画像を撮影するように絞り12および撮像素子22を制御する撮像制御部としても機能する。
次に、図2は、画素ずらし合成処理部30の構成を示すブロック図である。
画素ずらし合成処理部30は、画素配置部51と、画素補間部52と、平均化部53と、を備えている。
画素配置部51は、高深度超解像撮影モードで取得された8枚のベイヤ画像を、R成分、Gr成分(R成分と同一ラインにあるG成分)、Gb成分(B成分と同一ラインにあるG成分)、B成分にそれぞれ分離して、画素ずらし位置に応じて配置するものである。
ここに、図3は1つのフォーカス位置における画素ずらし撮影で得られた8枚のベイヤ画像におけるR,Gr,Gb,Bの基本的な画素配置を示す図、図4は図3に示す画素配置の8枚分のベイヤ画像から画素配置部51により得られたR画素配置を示す図、図5は図3に示す画素配置の8枚分のベイヤ画像から画素配置部51により得られたGr画素配置を示す図、図6は図3に示す画素配置の8枚分のベイヤ画像から画素配置部51により得られたGb画素配置を示す図、図7は図3に示す画素配置の8枚分のベイヤ画像から画素配置部51により得られたB画素配置を示す図である。
ここに、図3〜図7に示す各色成分R,Gr,Gb,Bにおいて、(x,y)は撮像素子22における水平方向(x方向)および垂直方向(y方向)の画素位置を、右肩に付した1〜8の内の何れかの数字は、8枚のベイヤ画像の内の何枚目の画像であるかを、それぞれ示している。
画素配置部51は、図3に示すような基本的な画素配置を繰り返して構成されている8枚のベイヤ画像から、R成分を抽出して後で図13を参照して説明するような撮像素子22の画素ずらし経路に応じて再配置し、図4に示すような4×4画素配列中に8つのR成分が配列された画素配置のR合成画像を生成する。同様に、画素配置部51は、8枚のベイヤ画像から、Gr,Gb,B成分を各抽出して、画素ずらし経路に応じて再配置し、図5,図6,図7に各示すような画素配置のGr合成画像,Gb合成画像,B合成画像をそれぞれ生成する。
画素補間部52は、図4において欠落しているR成分を周辺のR成分に基づき補間し、図5において欠落しているGr成分を周辺のGr成分に基づき補間し、図6において欠落しているGb成分を周辺のGb成分に基づき補間し、図7において欠落しているB成分を周辺のB成分に基づき補間する。
平均化部53は、画素補間部52により補間されたGr合成画像とGb合成画像とを、対応する画素位置同士で例えば加算して2で割ることにより平均化する。この平均化により、ノイズを低減して高画質化を図ることができる。
そして、このような合成処理により、高深度超解像撮影モードにおいては、水平方向に2倍かつ垂直方向に2倍の解像度の画素ずらし合成画像が得られる。
次に、図8〜図12を参照して、合焦領域抽出部であるマイクロコンピュータ45により抽出される合焦領域等について説明する。これら図8〜図12は、例えば昆虫やクモなどの被写体をマクロ撮影したときの例を示している。
まず、図8は、大きい絞り開口径で撮影された画像の例を示す図、図9は小さい絞り開口径で撮影された画像の例を示す図である。
図8に示すような大きい絞り開口径で撮影された画像では、被写体の例えば頭部や前足はピントが合っているが、被写界深度が浅いために胸部や胴体、後足等は大きくぼけている。
一方、図9に示すような小さい絞り開口径で撮影された画像では、被写界深度が深いために被写体全体にほぼピントが合っているが、回折の影響により被写体全体の鮮鋭度が低下している。
本実施形態においては、後で図16を参照して処理の流れを説明するように、合焦領域抽出部であるマイクロコンピュータ45が、2つの異なる開口径において取得された2枚の画像おける画素毎の鮮鋭度をそれぞれ算出して、図9に示すような小さい絞り開口径で撮影された画像よりも図8に示すような大きい絞り開口径で撮影された画像の方が鮮鋭度の高い画素領域を、合焦領域として抽出するようになっている。ここに、図10は、図8に示す画像および図9に示す画像の鮮鋭度を比較して抽出された合焦領域の様子を示す図である。
さらに、マイクロコンピュータ45は、図11に示すように、抽出された領域を含むラインを画素ずらし撮像領域Ap(以下、撮像領域Apという)に設定し、図12に示すように、撮像領域Apにおける合焦領域を含む部分画像領域として例えば矩形の領域を画像取得領域Acに設定するようになっている。ここに、図11は合焦領域抽出部により設定される撮像領域Apを示す図、図12は合焦領域抽出部により撮像領域Ap内において設定される画像取得領域Acを示す図である。
次に、図13は、画素ずらし部であるボイスコイルモータ(VCM)23により行われる画素ずらしの各センタリング位置を示す図である。この図13において、画素ピッチはPとして示され、水平右方向をx方向、垂直下方向をy方向としたときに、各センタリング位置への移動量を(x,y)により表すことにする。
本実施形態においては、あるセンタリング位置に対して画素ピッチの非整数倍で位置が異なるセンタリング位置を含む、例えば8つの異なるセンタリング位置に撮像素子22を移動して、各センタリング位置において画像を撮影し、撮影して得られた8枚の画像を合成することにより1枚の画素ずらし合成画像を取得するようになっている。このような画素ずらし合成画像の取得は、フォーカスブラケット撮影におけるそれぞれのフォーカス位置において行われる。
図13に示す例では、センタリング位置A2はセンタリング位置A1に対して(P/2,P/2)だけずれた位置、センタリング位置A3はセンタリング位置A2に対して(P/2,−P/2)だけずれた位置、センタリング位置A4はセンタリング位置A3に対して(P/2,P/2)だけずれた位置、センタリング位置A5はセンタリング位置A4に対して(0,P)だけずれた位置、センタリング位置A6はセンタリング位置A5に対して(−P/2,−P/2)だけずれた位置、センタリング位置A7はセンタリング位置A6に対して(−P/2,P/2)だけずれた位置、センタリング位置A8はセンタリング位置A7に対して(−P/2,−P/2)だけずれた位置、センタリング位置A1はセンタリング位置A8に対して(0,−P)だけずれた位置となっている。
なお、この図13に示した例以外のセンタリング位置を採用しても構わないが、その場合には、画素配置部51により再配置される画素信号の位置が図4〜図7に示した例とは異なることになる。
次に、図14はデジタルカメラにおけるメイン処理の流れを示すフローチャートである。この図14に示す処理は、マイクロコンピュータ45の制御に基づき行われる。
操作部43の電源ボタンがオン操作されてデジタルカメラの電源がオンになると、このメイン処理が開始され、まずデジタルカメラの初期化を行う(ステップS1)。
次に、マイクロコンピュータ45は、操作部43の再生ボタンが操作されたか否かを判定する(ステップS2)。
ここで再生ボタンが操作された場合には、再生・編集処理を行う(ステップS3)。この再生・編集処理は、記録媒体42に記録されているファイルの一覧を表示して、ユーザーからの選択操作を待ち、選択決定されたファイルを再生したり、選択されている画像を編集したりする処理である。
ステップS2において再生ボタンが操作されていないか、あるいはステップS3の処理が行われた場合には、操作部43のメニューボタンが操作されて、デジタルカメラに関するカメラ設定が選択されたか否かを判定する(ステップS4)。
ここでカメラ設定が選択された場合には、カメラ設定を変更するメニューをモニタ38に表示して、カメラ設定を変更するユーザ操作が操作部43からなされるのを待機する。ここに、カメラ設定の幾つかの例としては、上述したような
撮影モード:通常撮影モード、高深度超解像撮影モード
記録モード:JPEG記録モード、RAW+JPEG記録モード
などが挙げられるが、これらに限るものではない。
そして、ユーザ操作がなされた場合には、操作内容に応じてカメラ設定を行う(ステップS5)。
ステップS4においてカメラ設定が選択されていないか、あるいはステップS5の処理が行われた場合には、レリーズボタンがオフから1段階目の押圧状態(いわゆる半押状態)である1stレリーズオンの状態へ遷移したか否かを判定する(ステップS6)。
ここで1stレリーズオンの状態へ遷移した場合には、この遷移したタイミングにおいて、画像を撮影するための自動露出(AE)制御をAE処理部29により行うと共に、自動焦点制御(AF)をAF処理部28により行う(ステップS7)。これにより、1stレリーズボタンが押圧された以降は、いわゆるAEロックおよびAFロックが行われる。
そして、電源ボタンがオフ操作されたか否かを判定し(ステップS8)、オフ操作されていない場合には、ステップS2へ戻って上述したような処理を繰り返して行う。
また、上述したステップS6において1stレリーズオンの状態へ遷移していない場合には、レリーズボタンが2段階目の押圧状態である2ndレリーズオンの状態(いわゆる全押状態)となっているか否かを判定する(ステップS9)。
ここで、2ndレリーズオンの状態となっていない場合には、メカニカルシャッタ21を開放状態にして、ライブビュー用の自動露出(AE)制御をAE処理部29により行い、電子シャッタによる1枚の画像撮影を行う(ステップS10)。
こうして撮影された画像に対して、記録画像に対して行う画像処理の幾つかを例えば省略した基本画像処理を行い(ステップS11)、基本画像処理された画像をモニタ38にライブビューとして表示する(ステップS12)。
その後、上述したステップS8の処理へ移行して電源ボタンがオフ操作されたか否かを判定し、オフ操作されていない場合には、ステップS2へ戻って上述したような処理を繰り返して行う。
一方、上述したステップS9において、2ndレリーズオンの状態となっている場合には、高深度超解像撮影モードに設定されていれば後で図15を参照して説明する撮影および合成処理を実行する(ステップS13)。なお、通常撮影モードに設定されている場合には、ここでは通常の撮影処理を実行する。
続いて、RAW記録モードが設定されているか否かを判定して(ステップS14)、設定されている場合にはRAW画像をファイルとして記録媒体42に記録する(ステップS15)。
ステップS14においてRAW記録モードが設定されていないか、あるいはステップS15の処理が行われた場合には、撮影により得られた画像に対して画像処理部32により画像処理を行う(ステップS16)。
その後、画像処理された画像をJPEG処理部36によりJPEG圧縮して、マイクロコンピュータ45の制御によりヘッダを付加し、JPEGファイルとして記録媒体42に記録する(ステップS17)。
このステップS17の処理が行われたら、上述したステップS8の処理へ移行して電源ボタンがオフ操作されたか否かを判定する。
こうして、ステップS8において、電源ボタンがオフ操作された場合には、このメイン処理を終了する。
図15は、デジタルカメラにおける撮影および合成処理の流れを示すフローチャートである。
この処理を開始すると、マイクロコンピュータ45がマイクロコンピュータ15およびドライバ13を介してレンズ11のフォーカス位置を初期位置に設定する(ステップS21)。
そして、後で図16を参照して説明する画素ずらし撮影処理を行う(ステップS22)。この画素ずらし撮影処理により、上述した相対位置の異なる複数の画像データでなる画像セットが取得される。
次に、フォーカスブラケット撮影における全てのフォーカス位置での画素ずらし撮影が終了したか否かを判定する(ステップS23)。
ここでまだ全てのフォーカス位置での画素ずらし撮影が終了していないと判定された場合には、フォーカス位置を変更してから(ステップS24)、上述したステップS22へ戻って画素ずらし撮影処理を行う。すなわち、画素ずらし撮影は、画素ピッチよりも小さい位置精度(例えば半画素ピッチの位置精度)が求められるために、ステップS22における一連の画素ずらし撮影中はフォーカス位置を変更せず、一連の画素ずらし撮影が終わったところで必要に応じてフォーカス位置を変更するようにしている。
こうして、ステップS23において全てのフォーカス位置での画素ずらし撮影が終了したと判定された場合には、1つのフォーカス位置で取得された8枚の画像でなる画像セットを、画素ずらし合成処理部30により画素ずらし合成処理して、1枚の画素ずらし合成画像を生成する(ステップS25)。ここでの画素ずらし合成処理は、画像取得領域Acの画像データのみに対して行われるようになっている。
そして、全てのフォーカス位置で取得された画像セットに対する画素ずらし合成処理が終了したか否かを判定する(ステップS26)。
ここでまだ全てのフォーカス位置で取得された画像セットに対する画素ずらし合成処理が終了していないと判定された場合には、上述したステップS25へ戻って次のフォーカス位置で取得された画像セットに対する画素ずらし合成処理を行う。
こうして、ステップS26において全てのフォーカス位置で取得された画像セットに対する画素ずらし合成処理が終了したと判定された場合には、後で図17を参照して説明する深度合成処理を行い(ステップS27)、この処理から図14に示す処理へリターンする。
図16は、デジタルカメラにおける画素ずらし撮影処理の流れを示すフローチャートである。
この処理を開始すると、ボイスコイルモータ(VCM)23により撮像素子22を初回センタリング位置(例えば、図13に示すセンタリング位置A1)へ移動する(ステップS30)。
次に、マイクロコンピュータ45は、マイクロコンピュータ15およびドライバ13を介して絞り12を2つの異なる開口径に設定し、それぞれの開口径において撮像素子22により画像を取得させてSDRAM27に記憶させる(ステップS31)。ここに、絞り12に設定される2つの異なる開口径は、例えば、図14のステップS7における自動露出(AE)制御により設定された開口径、および絞り12に設定できるような最小開口径である。ここで、自動露出(AE)制御により設定された開口径で取得された画像(大きい絞り開口径で撮影された画像)が例えば図8、最小開口径で取得された画像(小さい絞り開口径で撮影された画像)が例えば図9に示すようになったものとする。
続いて、2つの異なる開口径において取得された2枚の画像を構成する各画素の鮮鋭度をそれぞれ算出する(ステップS32)。
そして、図8に示したような大きい絞り開口径で撮影された画像における、図9に示したような小さい絞り開口径で撮影された画像よりも鮮鋭度の高い領域を、合焦領域として抽出する(ステップS33)。なお、ここでは合焦領域の抽出を異なる開口径で取得された2つの画像の鮮鋭度を比較することにより行ったが、後述する実施形態2,3において例示するように、その他の適宜の方法を用いても構わない。このように、図8に示す画像および図9に示す画像の鮮鋭度を比較して抽出された合焦領域の様子を示すのが、上述した図10である。
さらに、ステップS33において抽出された合焦領域の全部を読出ラインに含むような部分画像領域に、例えば図11参照に示すような撮像領域Apを設定する(ステップS34)。後述するステップS36〜S39のループにおいては、ここで設定された撮像領域Apの画像データ(つまり、合焦領域を含む部分画像領域のみの画像データ)のみが撮像素子22から読み出されてSDRAM27に記憶される。これにより、撮像素子22のフレームレートを格段に向上することができ、SDRAM27に必要なメモリ容量も削減することができることとなる。
次に、ステップS34において設定された撮像領域Apの内の例えば矩形の領域を、図12に示すように、画像取得領域Acに設定する(ステップS35)。ここに、画像取得領域Acは、撮像領域Apと等しいか、または撮像領域Ap内の一部領域であって図10に示したような合焦領域を全て含む領域である。ここに、各領域の包含関係を示せば、
撮像領域Ap⊇画像取得領域Ac⊇合焦領域
である。図15のステップS25に示した画素ずらし合成処理は、上述したように、ここで設定された画像取得領域Acのみに対して行われる。これにより、画素ずらし合成処理部30の処理負荷を軽減し、処理時間を短縮することができることとなる。
続いて、マイクロコンピュータ45は、撮像素子22のセンタリング位置を変更する(ステップS36)。ここでのセンタリング位置の変更は、例えば上述した図13のA1〜A8に示したような順序で行われる。
ボイスコイルモータ(VCM)23は、マイクロコンピュータ45による撮像素子22のセンタリング位置の変更を受けて、撮像素子22を新たなセンタリング位置に移動する(ステップS37)。
そして、移動された新たなセンタリング位置において、撮像素子22により画像の撮影が行われ、図11に示したような撮像領域Apの画像データが撮像素子22から読み出されてSDRAM27に記憶される(ステップS38)。
その後、ステップS36〜S39のループが7回繰り返して行われたか否か、つまり、ステップS30で初回センタリング位置A1に設定されステップS31で取得されたAE設定絞り値の1枚の画像と、7回のループによりステップS38で取得されたセンタリング位置A2〜A8の7枚の撮像領域Apの画像と、の合計8枚の画像が取得されたか否かを判定する(ステップS39)。
ここでまだ7回のループが終了していないと判定された場合には、ステップS36へ戻って次のセンタリング位置の処理を行う。
一方、ステップS39において7回のループが終了したと判定された場合には、この処理から図15に示す処理へリターンする。
なお、ここでは読み出しをライン単位で行う撮像素子22を想定したために、撮像素子22から出力してSDRAM27に記憶させる画像データを撮像領域Apの画像データとした。しかし、読み出しを例えば画素単位(画素のアドレス単位)で行うことができるような撮像素子22の場合には、撮像素子22から出力してSDRAM27に記憶させる画像データを画像取得領域Acの画像データとしても良い。これにより、撮像素子22のフレームレートをさらに向上し、SDRAM27に必要なメモリ容量をさらに削減することができることとなる。
また、ここではステップS31において撮影する画像の一枚を画素ずらし撮影の1回目と兼用したが、これに限るものではない。例えば、ステップS31の処理を例えば合焦領域を検出するためだけの予備撮影として例えば本撮影よりも低解像度の画像を取得し、ステップS36〜S39の処理を本撮影として8回のループを行うようにしても良い。この場合には、1回目のループで全画角画像(ここに、本明細書における「全画角画像」とは、撮像素子22から画像として取得された全体であること、つまり、取得された画像から抽出した一部画角の部分画像ではないことを意味している)を取得し、2〜8回目のループで撮像領域Ap(もしくは、画像取得領域Ac)の画像データのみを取得することになる。
図17は、デジタルカメラにおける深度合成処理の流れを示すフローチャートである。
この処理を開始すると、深度合成処理部31は、フォーカスブラケット撮影における複数のフォーカス位置の、画素ずらし合成画像および全画角画像をSDRAM27から入力する(ただし、全てのデータを同時に入力する必要はなく、処理に必要になったデータから順次入力しても良いことはいうまでもない)(ステップS41)。
ここに、全画角画像は、フォーカスブラケット撮影における複数のフォーカス位置の何れか(例えば、図15のステップS21において設定されたフォーカス初期位置)において、図16に示した画素ずらし撮影処理のステップS31において取得された2枚の画像の内の、例えば、最小開口径で取得された画像である。
全画角画像として最小開口径で取得された画像を用いるのは、自動露出(AE)制御により設定された開口径で取得された画像よりも、合焦領域以外の領域(非合焦領域)の画像の鮮鋭度が高いと考えられるためである。ただし、非合焦によるボケと回折によるボケとはボケ方が異なるために、必要に応じて、自動露出(AE)制御により設定された開口径で取得された画像を全画角画像として用いても構わない。
また、フォーカスブラケット撮影における複数のフォーカス位置の全画角画像を用いて深度合成を行わないのは、非合焦領域については元々鮮鋭度が低い領域であって、深度合成を行っても鮮鋭度を高くする効果をあまり期待することができないためである。こうして、深度合成処理は、画素ずらし合成処理が行われた画像取得領域Acの画像データにのみについて行われるために、深度合成処理部31の処理負荷を軽減し、処理時間を短縮することができることとなる。
次に、全画角画像の補間処理を行って、画素ずらし合成画像の解像度と同一の解像度の、高精細な全画角画像を生成する(ステップS42)。
続いて、画素ずらし合成画像と同一の解像度の高精細な全画角画像における処理対象画素位置を選択する(ステップS43)。この画素位置の選択は、例えば、ラスタスキャンの順序で行われる。
ステップS43において選択された処理対象画素が、フォーカスブラケット撮影における複数のフォーカス位置の画素ずらし合成画像の何れかに存在するか否かを判定する(ステップS44)。ここに、画素ずらし合成処理は、上述したように、画像取得領域Acのみについて行われるために、処理対象画素が画素ずらし合成画像に存在しない場合もある。そこで、このステップS44における判定を行っている。
ここで、何れの画素ずらし合成画像にも処理対象画素が存在しないと判定された場合には、補間処理後の全画角画像における処理対象画素の画素値を、SDRAM27内の出力画像バッファに記憶する(ステップS45)。
また、何れかの画素ずらし合成画像に処理対象画素が存在すると判定された場合には、さらに、2つ以上の画素ずらし合成画像に処理対象画素が存在するか否かを判定する(ステップS46)。
ここで、1つの画素ずらし合成画像にのみ処理対象画素が存在すると判定された場合には、その画素ずらし合成画像における処理対象画素の画素値を、SDRAM27内の出力画像バッファに記憶する(ステップS47)。
一方、ステップS46において、2つ以上の画素ずらし合成画像に処理対象画素が存在すると判定された場合には、処理対象画素が存在すると判定された画素ずらし合成画像の一つを選択する(ステップS48)。
そして、ステップS48で選択された画素ずらし合成画像における処理対象画素の鮮鋭度を算出する(ステップS49)。
次に、処理対象画素が存在する全ての画素ずらし合成画像について、処理対象画素の鮮鋭度の算出が終了したか否かを判定し(ステップS50)、まだ処理していない画素ずらし合成画像が存在する場合には、ステップS48へ戻って次の画素ずらし合成画像についての処理を上述したように行う。
こうして、ステップS50において、処理対象画素が存在する全ての画素ずらし合成画像について、処理対象画素の鮮鋭度の算出が終了したと判定された場合には、鮮鋭度が最大となる処理対象画素の画素値をSDRAM27内の出力画像バッファに記憶する(ステップS51)。
こうして、ステップS45、ステップS47、またはステップS51の何れかの処理が行われたら、画素ずらし合成画像と同一の解像度の高精細な全画角画像における全ての画素位置についての処理が終了したか否かを判定する(ステップS52)。
ここで、まだ全ての画素位置についての処理が終了していないと判定された場合には、ステップS43へ戻って、次の画素位置を選択して上述したような処理を行う。
一方、ステップS52において、全ての画素位置についての処理が終了したと判定された場合には、この処理から図15に示す処理へリターンする。
次に、図18は、本実施形態の方法と対比される従来と同様の方法により、画素ずらしおよび深度合成を行うための画像を取得したときの画像データ量の例を示す図である。
この場合には、各フォーカス位置L0〜Lnにおいて、例えば8枚の全画角画像を画素ずらし撮影して取得することになるために、取得される全画角画像の枚数は8(n+1)枚となり、例えば、10点フォーカスブラケット撮影を行う場合には、80枚分の画像データを取得して、画素ずらし合成処理や深度合成処理を行うことになる。
一方、図19は、本実施形態の方法により画素ずらしおよび深度合成を行うための画像を取得したときの画像データ量の例を概略的に示す図である。
本実施形態の方法を用いた場合には、概略で考えて、撮像素子22から出力する画像データは、図11に示したような撮像領域Apの画像データで済むために、撮像領域Apが画像全体の例えば8分の1である場合には、図18に示した場合の1/8の画像データを取得すれば良く(ただし、より正確には、図16を参照して説明したように全画角画像を2枚取得するために、取得する画像データ量が幾らかは多くなるが、それでもなお)、必要なデータ量を大幅に減らして処理負荷を軽減し、処理速度を向上することができる。
このような実施形態1によれば、合焦領域が抽出されたフォーカス位置については合焦領域を含む部分画像領域のみについて画素ずらし合成処理を行うようにしたために、画素ずらし合成処理の処理負荷が軽減され、画像の処理に要する時間を短縮して、メモリ容量を節約し、被写界深度が深い高解像度画像を生成することができる。
このとき、合焦領域が抽出されたフォーカス位置に関して、合焦領域が抽出された以降に取得する画像データを、合焦領域を含む部分画像領域のみの画像データとするようにしたために、さらに、画像の取得に要する時間を短縮することができる。そして、メモリ容量もさらに節約することができる。
また、深度処理部は、2つ以上の画素ずらし合成画像データに共通する画素位置があるときにのみ、深度合成処理を画素位置の画素に対して行うようにしたために、深度合成処理についても処理負荷が軽減され、画像の処理に要する時間をより一層短縮して、メモリ容量をより一層節約することができる。
そして、絞りの開口径が異なる2つの画像における各画素の鮮鋭度を算出して、大きい絞り開口径で撮影された画像の方が同一画素位置における鮮鋭度が高い画素の領域を合焦領域として抽出するようにしたために、2つの画像に基づいた精度の高い合焦領域の抽出を行うことができる。
このとき、合焦領域が高い精度で抽出されれば、余裕分をみて画像取得領域Acを大きめに取る必要がないために、画像の取得や処理に要する時間を適切に短縮して、メモリ容量を適切に節約することができる。また、画素ずらし合成処理の負荷および深度合成処理の負荷も適切に低減することができることとなる。
[実施形態2]
図20は本発明の実施形態2を示したものであり、デジタルカメラにおける画素ずらし撮影処理の流れを示すフローチャートである。
この実施形態2において、上述の実施形態1と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
上述した実施形態1では異なる開口径で取得された2つの画像の鮮鋭度を比較することにより合焦領域の抽出を行ったが、本実施形態は、1つの画像における鮮鋭度が所定値以上の領域を合焦領域として抽出するようにしたものとなっている。
すなわち、本実施形態においては、上述した実施形態1の図16に示した処理に代えて、図20に示す処理を実行するようになっている。
図20に示す処理を開始して、上述したステップS30の処理を行うと、マイクロコンピュータ45が、マイクロコンピュータ15およびドライバ13を介して図14のステップS7における自動露出(AE)制御により設定された開口径に絞り12を設定し、撮像素子22により画像を取得させてSDRAM27に記憶させる(ステップS31A)。
次に、取得された1枚の画像の鮮鋭度を画素毎に算出する(ステップS32A)。
続いて、算出された鮮鋭度が所定値以上である画素の集合でなる領域を、合焦領域として抽出する(ステップS33A)。
その後は、上述したステップS34〜S39の処理を上述と同様に行って、ステップS39において7回のループが終了したと判定された場合には、この処理から図15に示す処理へリターンする。
このような実施形態2によれば、上述した実施形態1とほぼ同様の効果を奏するとともに、フォーカスブラケット撮影の各フォーカス位置において合焦領域を抽出するために取得する全画角画像が1枚で済むために、全画角画像が2枚必要であった実施形態1に比べて、画像の撮影時間をさらに短縮し、SDRAM27に必要なメモリ容量をさらに削減すると共に、深度合成処理部31における鮮鋭度算出処理を軽減することもできる。
具体的に、例えば、画素ずらし合成処理用に1つのフォーカス位置で取得する画像枚数が8枚、フォーカスブラケット撮影におけるフォーカス位置の数が10である場合を考える。このとき、上述した実施形態1の構成では、1つのフォーカス位置において全画角画像を2枚ずつ取得する必要があるために、10のフォーカス位置において取得する全画角画像は20枚となっていた。これに対して、本実施形態の構成によれば、1つのフォーカス位置において全画角画像を1枚だけ取得すれば良いために、10のフォーカス位置において取得する全画角画像は10枚である。こうして、本実施形態では、取得する画像データ量(ひいてはメモリ量や処理負荷)を上述した実施形態1よりも大幅に削減することができることとなる。
[実施形態3]
図21から図24は本発明の実施形態3を示したものであり、図21はデジタルカメラにおける撮影および合成処理の流れを示すフローチャートである。
この実施形態3において、上述の実施形態1,2と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
上述した実施形態1では異なる開口径で取得された2つの画像の鮮鋭度を比較することにより合焦領域を抽出し、上述した実施形態2では1つの画像における鮮鋭度が所定値以上の領域を合焦領域として抽出したが、本実施形態は、あるフォーカス位置で1枚目に取得された全画角画像と、既に取得された各フォーカス位置で1枚目に取得された全画角画像を深度合成した全画角画像と、の鮮鋭度と比較することにより合焦領域を抽出し、抽出した合焦領域に基づいて設定される撮像領域Apの画像を上記あるフォーカス位置で2枚目以降に取得するものとなっている。
図21に示す処理を開始すると、上述したステップS21〜S24の処理を行い、ステップS23において全てのフォーカス位置での画素ずらし撮影が終了したと判定された場合には、後で図23を参照して説明するような画素ずらし合成および深度合成処理を行ってから(ステップS25B)、この処理から図14に示す処理へリターンする。
次に、図22は、デジタルカメラにおける画素ずらし撮影処理の流れを示すフローチャートである。
図21のステップS22においてこの処理に入ると、上述したステップS30およびステップS31Aの処理を行い、この図22に示す処理が初回フォーカス位置での処理であるか否か、つまり、図21のステップS22〜S24のループにおける1回目の処理(すなわち、ステップS21において設定されたフォーカス初期位置での処理)であるか否かを判定する(ステップS61)。
ここで初回フォーカス位置での処理であると判定された場合には、ステップS31Aにおいて取得された全画角画像データを、画素ずらし合成処理用に記憶するだけでなく、さらにSDRAM27内の検出用画像バッファにも検出用合成画像として記憶する(ステップS62)。ここに、検出用画像バッファは、合焦領域を抽出し、ひいては画像取得領域Acを設定するために用いられるSDRAM27内の記憶領域である。
その後は、上記ステップS36〜S39の処理を上述したように行う。従って、この図22に示す処理が初回フォーカス位置での処理である場合には、合焦領域の抽出が行われないために、ステップS38の処理において7回のループにより取得される7枚の画像も全画角画像となる。
一方、ステップS61において、初回フォーカス位置での処理ではないと判定された場合には、検出用画像バッファに記憶されている全画角の検出用合成画像とステップS31Aにおいて取得された全画角画像と、の2枚の画像を構成する各画素の鮮鋭度をそれぞれ算出する(ステップS32B)。
次に、ステップS31Aにおいて取得された画像について、鮮鋭度が所定値(合焦していると見なせる程度の所定値)以上である領域の内の、さらに検出用画像バッファに記憶されている検出用合成画像よりも鮮鋭度が高い領域を、合焦領域として抽出する(ステップS33B)。
そして、上述したステップS34およびステップS35の処理を行い、さらに、ステップS32Bにおいて算出した鮮鋭度に基づいて、検出用画像バッファに記憶されている検出用合成画像とステップS31Aにおいて取得された画像とを深度合成処理部31により深度合成する(ステップS63)。
その後、ステップS63において深度合成した検出用合成画像を検出用画像バッファの検出用合成画像に上書きして、画像データの更新を行う(ステップS64)。これにより、ステップS22〜S24のループに次回に入ったときにステップS31Aにおいて取得される画像は、検出用画像バッファ内の更新された検出用合成画像と鮮鋭度を比較して合焦領域が抽出されることになる。
その後は、上記ステップS36〜S39の処理を上述したように行うことは、初回フォーカス位置での処理であると判定された場合と同様である。ただし、この図22に示す処理が初回フォーカス位置での処理でない場合には、ステップS38の処理において7回のループにより取得される7枚の画像は撮像領域Apの画像となる。
こうして、ステップS39において7回のループが終了したと判定された場合には、この処理から図21に示す処理へリターンする。
続いて、図23は、デジタルカメラにおける画素ずらし合成および深度合成処理の流れを示すフローチャートである。
図21のステップS25Bにおいてこの処理に入ると、初回フォーカス位置で画素ずらし撮影して取得された8枚の全画角画像でなる画像セットを選択する(ステップS71)。
次に、初回フォーカス位置で取得された8枚の全画角画像を、画素ずらし合成処理部30により画素ずらし合成処理して、1枚の全画角の画素ずらし合成画像を生成する(ステップS72)。
そして、生成した画素ずらし合成画像を、SDRAM27内の出力画像バッファに記憶する(ステップS73)。
続いて、異なるフォーカス位置で画素ずらし撮影して取得された8枚の画像でなる画像セットを選択する(ステップS74)。これら8枚の画像の内の、1枚は全画角画像であり、他の7枚は撮像領域Apの画像である。
さらに、これら8枚の画像における画像取得領域Acの画像部分を、画素ずらし合成処理部30により画素ずらし合成処理して、画像取得領域Acに係る1枚の画素ずらし合成画像を生成する(ステップS75)。
その後、ステップS75において生成された画像取得領域Acに係る画素ずらし合成画像と、出力画像バッファに記憶されている全画角の画素ずらし合成画像と、を後で図24を参照して説明するように深度合成処理する(ステップS76)。この処理により、後で図24を参照して説明するように、出力画像バッファの画像が更新される。
次に、全てのフォーカス位置での処理が終了したか否かを判定する(ステップS77)。
ここで、全てのフォーカス位置での処理が終了していないと判定された場合には、ステップS74へ戻って、フォーカス位置を変更して上述したような処理を行う。
一方、ステップS77において、全てのフォーカス位置での処理が終了したと判定された場合には、この処理から図21に示す処理へリターンする。
次に、図24は、デジタルカメラにおける深度合成処理の流れを示すフローチャートである。
図23のステップS76においてこの処理に入ると、深度合成処理部31は、図23のステップS73で記憶された出力画像バッファの画像データ、またはステップS74〜S77のループにおける1つ前のループにおいて後述するステップS85で更新された出力画像バッファの画像データを入力する(ステップS81)。ここに、出力画像バッファの画像は、上述したように全画角の画素ずらし合成画像である。
続いて、深度合成処理部31は、図23のステップS75において生成された画像取得領域Acの画素ずらし合成画像データを入力する(ステップS82)。
ここで、ステップS81において入力した画像とステップS82において入力した画像とにおいて深度合成の対象となるのは画像取得領域Acであるために、画像取得領域Ac内における処理対象画素位置を選択する(ステップS83)。この画素位置の選択は、上述したステップS43に準じて、例えば、画像取得領域Ac内におけるラスタスキャンの順序で行われる。
そして、ステップS81において入力した画像とステップS82において入力した画像とにおける処理対象画素の鮮鋭度をそれぞれ算出する(ステップS84)。
こうして算出された鮮鋭度が高い方の画素値を、出力画像バッファの処理対象画素位置の画素値に上書きすることで、出力画像バッファの画像データを更新する(ステップS85)。
その後、全ての処理対象画素についての処理が終了したか否かを判定する(ステップS86)。
ここで、まだ全ての処理対象画素についての処理が終了していないと判定された場合には、ステップS83へ戻って、次の処理対象画素位置を選択して上述したような処理を行う。
一方、ステップS86において、全ての処理対象画素位置についての処理が終了したと判定された場合には、この処理から図23に示す処理へリターンする。
このような実施形態3によれば、上述した実施形態1,2とほぼ同様の効果を奏するとともに、既に取得したフォーカス位置の画像の鮮鋭度と比較して、新たなフォーカス位置において取得する画像の合焦領域を抽出するようにしたために、より正確な合焦領域の抽出ができることとなる。
そして、合焦領域が高い精度で正確に抽出されれば、余裕分をみて画像取得領域Acを大きめに取る必要がないために、画像の取得や処理に要する時間を適切に短縮して、メモリ容量を適切に節約することができる。また、画素ずらし合成処理の負荷および深度合成処理の負荷も適切に低減することができることとなる。
具体的に、上述した例と同様に、画素ずらし合成処理用に1つのフォーカス位置で取得する画像枚数が8枚、フォーカスブラケット撮影におけるフォーカス位置の数が10である場合を考える。このとき、上述した実施形態1の構成では取得する全画角画像は20枚、上述した実施形態2の構成では取得する全画角画像は10枚となっていた。これに対して、本実施形態では、第1のフォーカス位置において8枚取得し、その後の第2〜第8のフォーカス位置に置いては1枚取得すれば良いために、取得する全画角画像は15枚である。
より一般に、1つのフォーカス位置で取得する全画角画像枚数をx(xは2以上の整数)、フォーカスブラケット撮影におけるフォーカス位置の数をy(yは2以上の整数)とすると、実施形態1で取得する全画角画像の枚数は2y、実施形態2で取得する全画角画像の枚数はy、本実施形態で取得する全画角画像の枚数は(x+y−1)となる。従って、第2実施形態で取得する全画角画像の枚数が最も少なくなることが分かる。一方、実施形態1で取得する全画角画像の枚数2yと、本実施形態で取得する全画角画像の枚数(x+y−1)と、を比較してみると、y>(x−1)のときには、本実施形態において取得する全画角画像の枚数の方が上述した実施形態1よりも少なくなることが分かる。すなわち、例えばx=8のときには、フォーカスブラケット撮影におけるフォーカス位置yが7よりも大きければ、取得するデータ量を実施形態1よりも低減できることが分かる。
[実施形態4]
図25は本発明の実施形態4を示したものであり、デジタルカメラの構成を示すブロック図である。
この実施形態4において、上述の実施形態1〜3と同様である部分については同一の符号を付すなどして説明を適宜省略し、主として異なる点についてのみ説明する。
上述した実施形態1の図1に示す構成例では、ボイスコイルモータ(VCM)23により、レンズ11の光軸に垂直な面内で撮像素子22を移動させて画素ずらしを行ったが、本実施形態は、交換式レンズ1内に光軸シフト光学素子16を設けて、この光軸シフト光学素子16を移動させることにより画素ずらしを行うものとなっている。
すなわち、交換式レンズ1内には、上述したレンズ11と絞り12とフラッシュメモリ14とマイクロコンピュータ15とが設けられているだけでなく、さらに、光軸シフト光学素子16とボイスコイルモータ(VCM)23とホール素子39とが設けられていて、本実施形態のドライバ13Aは、上述したドライバ13の機能に加えて、さらにホール素子39の検出結果に基づきボイスコイルモータ(VCM)23の駆動制御を行う機能も備えたものとなっている。
ここに、光軸シフト光学素子16は、レンズ11から撮像素子22へ向かう光束の光軸をシフトさせるものであり、例えば、所定屈折率かつ所定厚さの光学板を光軸に対して非垂直に傾けることで光軸をシフトし、傾ける角度を調整することでシフト量を制御する方式、あるいは所定屈折率の液体を2枚の光学板で挟んで蛇腹状に(入射側の光学板と出射側の光学板とを平行でない状態に)動かすことにより光軸を補正する方式などの、各種の方式のもの(いわゆる光学式ブレ補正機構を兼用したものでも良い)を広く採用することができる。
また、ボイスコイルモータ(VCM)23は、ドライバ13Aの制御に基づき、光軸シフト光学素子16を駆動して光軸をシフトさせるものである。
さらに、ホール素子39は、光軸シフト光学素子16の駆動位置を検出するものである。
こうして、ドライバ13Aは、交換式レンズ1内のマイクロコンピュータ15の制御に基づき、さらにはカメラ本体2内のマイクロコンピュータ45の制御に基づき、ホール素子39の検出結果を参照しながら、ボイスコイルモータ(VCM)23を駆動して、光軸シフト光学素子16による光軸のシフト方向およびシフト量を制御するようになっている。
なお、実施形態1〜3において述べた撮像素子22を移動させて画素ずらしを行う構成と、この実施形態4の構成と、を組み合わせて、撮像素子22と光軸シフト光学素子16との両方を移動させて画素ずらしを行う構成としても構わない。この場合には、撮像素子22を移動するボイスコイルモータ(VCM)23と、光軸シフト光学素子16を移動するボイスコイルモータ(VCM)23とを設け、さらに、撮像素子22の位置を検出するホール素子39と、光軸シフト光学素子16の位置を検出するホール素子39とを設けることになる。
このような実施形態4によれば、光学系を移動させて画素ずらしを行う場合、あるいは、撮像素子22および光学系を移動させて画素ずらしを行う場合にも、上述した実施形態1〜3とほぼ同様の効果を奏することができる。
なお、上述では主として撮像装置について説明したが、撮像装置と同様の処理を行う撮像方法であっても良いし、コンピュータに撮像方法を実行させるための処理プログラム、該処理プログラムを記録するコンピュータにより読み取りできるような一時的でない記録媒体、等であっても構わない。
また、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明の態様を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用ができることは勿論である。
1…交換式レンズ
2…カメラ本体
3…インタフェース(I/F)
11…レンズ(撮像光学系)
12…絞り
13,13A…ドライバ
14…フラッシュメモリ
15…マイクロコンピュータ
16…光軸シフト光学素子
21…メカニカルシャッタ
22…撮像素子
23…ボイスコイルモータ(VCM)(画素ずらし処理部、画素ずらし部)
24…アナログ処理部
25…A/D変換部
26…バス
27…SDRAM
28…AF処理部
29…AE処理部
30…画素ずらし合成処理部(画素ずらし処理部)
31…深度合成処理部(深度処理部)
32…画像処理部
33…同時化処理部
34…エッジ強調処理部
35…ノイズ低減処理部
36…JPEG処理部
37…モニタドライバ
38…モニタ
39…ホール素子
41…メモリI/F
42…記録媒体
43…操作部
44…フラッシュメモリ
45…マイクロコンピュータ(画素ずらし処理部、深度処理部、撮像制御部、画素ずらし撮像制御部、フォーカスブラケット撮像制御部、合焦領域抽出部)
51…画素配置部
52…画素補間部
53…平均化部

Claims (9)

  1. あるフォーカス位置で画素ずらし撮影して複数の画像データを取得し、取得した複数の画像データを画素ずらし合成処理して画素ずらし合成画像データを生成する画素ずらし処理部と、
    複数のフォーカス位置に対して上記画素ずらし処理部に処理を行わせて、フォーカス位置の異なる複数の画素ずらし合成画像データを生成させ、該複数の画素ずらし合成画像データを深度合成処理して被写界深度の深い画像を生成する深度処理部と、
    複数の上記フォーカス位置の少なくとも1つにおいて合焦領域を抽出する合焦領域抽出部と、
    を具備し、
    上記画素ずらし処理部は、上記合焦領域が抽出されたフォーカス位置については、該合焦領域を含む部分画像領域のみについて画素ずらし合成処理を行うことを特徴とする撮像装置。
  2. 上記画素ずらし処理部は、上記合焦領域が抽出されたフォーカス位置に関して、該合焦領域が抽出された以降に取得する画像データを、該合焦領域を含む部分画像領域のみの画像データとするように制御する画素ずらし撮像制御部を有することを特徴とする請求項1に記載の撮像装置。
  3. 上記深度処理部は、2つ以上の画素ずらし合成画像データに共通する画素位置があるときにのみ、深度合成処理を該画素位置の画素に対して行うことを特徴とする請求項1に記載の撮像装置。
  4. 上記合焦領域抽出部は、画素ずらし画像合成前の画像における各画素の鮮鋭度を算出して、上記鮮鋭度が所定値以上の画素の領域を上記合焦領域として抽出することを特徴とする請求項1に記載の撮像装置。
  5. 絞りの開口径が異なる2つの画像を撮影するように制御する撮像制御部をさらに具備し、
    上記合焦領域抽出部は、絞りの開口径が異なる2つの画像における各画素の鮮鋭度を算出して、大きい絞り開口径で撮影された画像の方が同一画素位置における鮮鋭度が高い画素の領域を上記合焦領域として抽出することを特徴とする請求項1に記載の撮像装置。
  6. 上記合焦領域抽出部は、
    最初のフォーカス位置であるときには、撮影して得られた画素ずらし合成前の画像を検出用合成画像に設定し、2回目以降のフォーカス位置であるときには、既に設定されている検出用合成画像と、今回のフォーカス位置で撮影して得られた画素ずらし合成前の画像と、を深度合成して検出用合成画像を更新し、
    フォーカス位置が変更された場合には、新たなフォーカス位置で撮影して得られた画素ずらし合成前の画像と、上記検出用合成画像と、の各画素の鮮鋭度を算出して、新たなフォーカス位置で撮影して得られた画素ずらし合成前の画像の方が同一画素位置における鮮鋭度が高い画素の領域を上記合焦領域として抽出することを特徴とする請求項1に記載の撮像装置。
  7. 複数の画素が所定の画素ピッチで2次元状に配列された撮像素子と、
    上記撮像素子に被写体の光学像を結像するものであり、フォーカス位置を移動できるような撮像光学系と、
    をさらに具備し、
    上記画素ずらし処理部は、
    上記撮像素子と、上記撮像素子により受光される光束と、の上記2次元状配列方向の相対位置が、上記画素ピッチの非整数倍の移動量だけ移動されるように画素ずらしを行う画素ずらし部と、
    上記画素ずらし部に画素ずらしを行わせながら上記撮像素子に撮影動作を行わせる画素ずらし撮像制御を行って、上記相対位置の異なる複数の画像データでなる画像セットを取得する画素ずらし撮像制御部と、
    上記フォーカス位置のそれぞれにおいて、上記画素ずらし撮像制御部により取得された上記画像セットに含まれる複数の画像データを合成して、上記撮像素子から得られる画像データよりも高解像度の画素ずらし合成画像データを生成する画素ずらし合成処理部と、
    を含み、
    上記深度処理部は、
    上記撮像光学系のフォーカス位置を複数の位置に離散的に移動させながら、各フォーカス位置において上記画素ずらし撮像制御部に画素ずらし撮像制御を行わせ、フォーカス位置の異なる上記画像セットを複数セット取得するフォーカスブラケット撮像制御部と、
    上記画素ずらし合成処理部により生成されたフォーカス位置の異なる複数の画素ずらし合成画像データの各画素の鮮鋭度を算出して、各画素位置における最も鮮鋭度の高い画素の画素値を該画素位置の画素値に設定する深度合成処理を行うことで、上記撮像素子から得られる画像データよりも被写界深度の深い画像を合成する深度合成処理部と、
    を含むことを特徴とする請求項1に記載の撮像装置。
  8. あるフォーカス位置で画素ずらし撮影して複数の画像データを取得し、取得した複数の画像データを画素ずらし合成処理して画素ずらし合成画像データを生成する画素ずらし処理ステップと、
    複数のフォーカス位置に対して上記画素ずらし処理ステップを実行して、フォーカス位置の異なる複数の画素ずらし合成画像データを生成し、該複数の画素ずらし合成画像データを深度合成処理して被写界深度の深い画像を生成する深度処理ステップと、
    複数の上記フォーカス位置の少なくとも1つにおいて合焦領域を抽出する合焦領域抽出ステップと、
    を有し、
    上記画素ずらし処理ステップは、上記合焦領域が抽出されたフォーカス位置については、該合焦領域を含む部分画像領域のみについて画素ずらし合成処理を行うステップであることを特徴とする撮像方法。
  9. コンピュータに、
    あるフォーカス位置で画素ずらし撮影して複数の画像データを取得し、取得した複数の画像データを画素ずらし合成処理して画素ずらし合成画像データを生成する画素ずらし処理ステップと、
    複数のフォーカス位置に対して上記画素ずらし処理ステップを実行して、フォーカス位置の異なる複数の画素ずらし合成画像データを生成し、該複数の画素ずらし合成画像データを深度合成処理して被写界深度の深い画像を生成する深度処理ステップと、
    複数の上記フォーカス位置の少なくとも1つにおいて合焦領域を抽出する合焦領域抽出ステップと、
    を実行させるための処理プログラムであって、
    上記画素ずらし処理ステップは、上記合焦領域が抽出されたフォーカス位置については、該合焦領域を含む部分画像領域のみについて画素ずらし合成処理を行うステップであることを特徴とする処理プログラム。
JP2014224418A 2014-11-04 2014-11-04 撮像装置、撮像方法、処理プログラム Expired - Fee Related JP5893713B1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014224418A JP5893713B1 (ja) 2014-11-04 2014-11-04 撮像装置、撮像方法、処理プログラム
EP15858039.9A EP3217647B1 (en) 2014-11-04 2015-03-25 Imaging device, imaging method and processing program
CN201580054461.XA CN106797434A (zh) 2014-11-04 2015-03-25 摄像装置、摄像方法、处理程序
PCT/JP2015/059178 WO2016072103A1 (ja) 2014-11-04 2015-03-25 撮像装置、撮像方法、処理プログラム
US15/488,023 US10142557B2 (en) 2014-11-04 2017-04-14 Image pickup apparatus, image pickup method, and non-transitory computer-readable medium storing computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014224418A JP5893713B1 (ja) 2014-11-04 2014-11-04 撮像装置、撮像方法、処理プログラム

Publications (2)

Publication Number Publication Date
JP5893713B1 true JP5893713B1 (ja) 2016-03-23
JP2016092578A JP2016092578A (ja) 2016-05-23

Family

ID=55541246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014224418A Expired - Fee Related JP5893713B1 (ja) 2014-11-04 2014-11-04 撮像装置、撮像方法、処理プログラム

Country Status (5)

Country Link
US (1) US10142557B2 (ja)
EP (1) EP3217647B1 (ja)
JP (1) JP5893713B1 (ja)
CN (1) CN106797434A (ja)
WO (1) WO2016072103A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106341670B (zh) 2016-11-29 2017-09-22 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
CN106454054B (zh) 2016-11-29 2019-03-19 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106454288B (zh) 2016-11-29 2018-01-19 广东欧珀移动通信有限公司 控制方法、控制装置、成像装置及电子装置
CN106604001B (zh) 2016-11-29 2018-06-29 广东欧珀移动通信有限公司 图像处理方法、图像处理装置、成像装置及电子装置
CN106504218B (zh) 2016-11-29 2019-03-12 Oppo广东移动通信有限公司 控制方法、控制装置及电子装置
CN106507068B (zh) 2016-11-29 2018-05-04 广东欧珀移动通信有限公司 图像处理方法及装置、控制方法及装置、成像及电子装置
US10412321B2 (en) * 2016-12-12 2019-09-10 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus and image synthesis method
JP6838994B2 (ja) * 2017-02-22 2021-03-03 キヤノン株式会社 撮像装置、撮像装置の制御方法およびプログラム
CN109151299B (zh) * 2017-06-27 2021-03-19 虹软科技股份有限公司 一种用于对焦的方法和装置
KR102589291B1 (ko) * 2017-11-17 2023-10-16 엘지이노텍 주식회사 카메라 모듈, 광학 기기 및 이의 이미지 생성 방법
JP2019191258A (ja) * 2018-04-19 2019-10-31 オリンパス株式会社 撮像装置、撮像プログラム、撮像方法
WO2020037615A1 (zh) * 2018-08-23 2020-02-27 深圳市大疆创新科技有限公司 云台系统及其图像处理方法、无人机
US10733742B2 (en) * 2018-09-26 2020-08-04 International Business Machines Corporation Image labeling
CN112740649A (zh) * 2019-12-12 2021-04-30 深圳市大疆创新科技有限公司 拍摄方法、拍摄设备及计算机可读存储介质
AU2021232830B1 (en) * 2021-09-17 2023-03-16 Canva Pty Ltd Image processing systems and methods
JP7415215B1 (ja) 2023-09-05 2024-01-17 ダイトロン株式会社 外観検査装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10136253A (ja) * 1996-11-01 1998-05-22 Canon Inc 撮像装置
JP2013243522A (ja) * 2012-05-21 2013-12-05 Canon Inc 撮像装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2635917B2 (ja) 1992-09-11 1997-07-30 株式会社東芝 電子スチルカメラ
DE19922261A1 (de) * 1999-05-15 1999-12-09 Konrad Bergmann Digitaler Bildwandler
JP4678603B2 (ja) 2007-04-20 2011-04-27 富士フイルム株式会社 撮像装置及び撮像方法
US8289395B2 (en) * 2007-12-20 2012-10-16 Eastman Kodak Company Enhancing image resolution by rotation of image plane
JP2010136253A (ja) 2008-12-08 2010-06-17 Canon Inc 撮像装置およびその制御方法
WO2011070757A1 (ja) * 2009-12-07 2011-06-16 パナソニック株式会社 撮像装置および撮像方法
US9438890B2 (en) * 2011-08-25 2016-09-06 Panasonic Intellectual Property Corporation Of America Image processor, 3D image capture device, image processing method, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10136253A (ja) * 1996-11-01 1998-05-22 Canon Inc 撮像装置
JP2013243522A (ja) * 2012-05-21 2013-12-05 Canon Inc 撮像装置

Also Published As

Publication number Publication date
EP3217647A1 (en) 2017-09-13
EP3217647B1 (en) 2019-07-17
CN106797434A (zh) 2017-05-31
JP2016092578A (ja) 2016-05-23
WO2016072103A1 (ja) 2016-05-12
EP3217647A4 (en) 2018-06-27
US20170223250A1 (en) 2017-08-03
US10142557B2 (en) 2018-11-27

Similar Documents

Publication Publication Date Title
JP5893713B1 (ja) 撮像装置、撮像方法、処理プログラム
US10122947B2 (en) Image pickup apparatus and image processing method
JP6495126B2 (ja) 撮像装置、画像処理方法
JP6346793B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP4654887B2 (ja) 撮像装置
JP2009147730A (ja) 動画生成装置、動画撮影装置、動画生成方法及びプログラム
JP5578442B2 (ja) 撮像装置、画像合成方法、及びプログラム
JP2017011329A (ja) 撮像装置、処理プログラム、撮像方法
JP2007215091A (ja) 撮像装置及びそのプログラム
JP6325841B2 (ja) 撮像装置、撮像方法、およびプログラム
JP2017112457A (ja) 撮像装置、撮像プログラム、撮像方法
JP6304293B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10187594B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium storing computer program
JP4792929B2 (ja) デジタルカメラ
JP3444281B2 (ja) 画像処理システム、撮像装置、画像処理方法及びその方法の処理プログラムが記録された記録媒体
JP6706167B2 (ja) 撮像装置、画像合成方法、およびプログラム
JP2010283504A (ja) 撮像装置、撮像方法、および、撮像プログラム
JP6381112B2 (ja) 撮像装置、撮像方法、プログラム
JP5510318B2 (ja) 電子カメラ
JP5417920B2 (ja) 画像処理装置、画像処理方法、電子カメラおよび画像処理プログラム
JP6562487B2 (ja) 撮像装置、画像処理方法
JP2010136190A (ja) 電子カメラ
JP2010197467A (ja) 撮影装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151218

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20151218

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160224

R151 Written notification of patent or utility model registration

Ref document number: 5893713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees