JP2021027523A - 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム - Google Patents

深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2021027523A
JP2021027523A JP2019145660A JP2019145660A JP2021027523A JP 2021027523 A JP2021027523 A JP 2021027523A JP 2019145660 A JP2019145660 A JP 2019145660A JP 2019145660 A JP2019145660 A JP 2019145660A JP 2021027523 A JP2021027523 A JP 2021027523A
Authority
JP
Japan
Prior art keywords
image
shooting
depth information
photoelectric conversion
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019145660A
Other languages
English (en)
Other versions
JP2021027523A5 (ja
JP7431527B2 (ja
Inventor
洋平 堀川
Yohei Horikawa
洋平 堀川
武志 小川
Takeshi Ogawa
武志 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019145660A priority Critical patent/JP7431527B2/ja
Priority to US16/987,251 priority patent/US11468584B2/en
Publication of JP2021027523A publication Critical patent/JP2021027523A/ja
Publication of JP2021027523A5 publication Critical patent/JP2021027523A5/ja
Priority to US17/943,701 priority patent/US20230186501A1/en
Application granted granted Critical
Publication of JP7431527B2 publication Critical patent/JP7431527B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/229Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/232Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Focusing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

【課題】特定の撮影タイミングに対応する深度情報(例えば像ずれマップ)から別の撮影タイミングに対応する深度情報を生成する際に、合焦距離の相違に起因する深度の変化を反映することを可能にする技術を提供する。【解決手段】第1の撮影により得られた相互に視点が異なる複数の視点画像に基づいて第1の深度情報を生成する第1の生成手段と、前記第1の撮影に対する第2の撮影の合焦距離の相違に起因する深度の変化を反映するように前記第1の深度情報を補正することにより、前記第2の撮影により得られた撮像画像のための第2の深度情報を生成する第2の生成手段と、を備えることを特徴とする深度情報生成装置を提供する。【選択図】図6

Description

本発明は、深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラムに関する。
撮影レンズの射出瞳を複数の領域に分割し、分割された複数の瞳部分領域に対応する複数の視点画像を同時に撮影することができる撮像装置が提案されている。特許文献1では、1つの画素に対して1つのマイクロレンズと複数に分割された光電変換部とが形成されている2次元撮像素子を用いた撮像装置が開示されている。分割された光電変換部は、1つのマイクロレンズを介して瞳分割され、撮影レンズの射出瞳の異なる瞳部分領域を受光するように構成されている。これらの光電変換部で受光したそれぞれの信号から、分割された複数の瞳部分領域に対応する複数の視点画像を生成することができる。
特許文献2では、分割された光電変換部で受光した信号を全て加算することにより撮像画像を生成することが開示されている。
特許文献3では、分割された光電変換部で受光した信号を全て加算することにより生成される撮像画像のデフォーカスマップを、ライブビュー動作中に得られた視点画像から得られたデフォーカスマップに基づいて生成することが開示されている。具体的には、ライブビュー動作中に得られた表示画像と静止画撮影時に得られた撮像画像との間の動きベクトルを算出し、デフォーカスマップの各画素に対して動きベクトル分画素を移動させる処理が行われる。
米国特許第4410804号明細書 特開2001−083407号公報 特開2018−007205号公報
しかしながら、特許文献3の技術では、表示画像の撮影時と静止画撮影時との間にフォーカスレンズが移動した場合に、合焦距離の変化に伴うデフォーカス量の変動を反映したデフォーカスマップを生成することができない。
本発明はこのような状況に鑑みてなされたものである。本発明は、特定の撮影タイミングに対応する深度情報(例えば像ずれマップ)から別の撮影タイミングに対応する深度情報を生成する際に、合焦距離の相違に起因する深度の変化を反映することを可能にする技術を提供することを目的とする。
上記課題を解決するために、本発明は、第1の撮影により得られた相互に視点が異なる複数の視点画像に基づいて第1の深度情報を生成する第1の生成手段と、前記第1の撮影に対する第2の撮影の合焦距離の相違に起因する深度の変化を反映するように前記第1の深度情報を補正することにより、前記第2の撮影により得られた撮像画像のための第2の深度情報を生成する第2の生成手段と、を備えることを特徴とする深度情報生成装置を提供する。
本発明によれば、特定の撮影タイミングに対応する深度情報(例えば像ずれマップ)から別の撮影タイミングに対応する深度情報を生成する際に、合焦距離の相違に起因する深度の変化を反映することが可能となる。
なお、本発明のその他の特徴及び利点は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
第1の実施形態及び第2の実施形態に係る撮像装置100の構成を示すブロック図。 単位画素セルについて説明する図。 視差像の得られる原理について説明する図。 像ずれ量算出部105の構成を示す図。 第1の実施形態に係る、撮像装置100が実行する連写処理のタイミングチャート。 第1の実施形態に係るデフォーカス画像生成部106の構成を示す図。 第2の実施形態に係る、撮像装置100が実行する連写処理のタイミングチャート。 像ずれマップ推定部901の構成を示すブロック図。 第2の実施形態に係るデフォーカス画像生成部106の構成を示すブロック図。 第3の実施形態及び第4の実施形態に係る撮像装置1000の構成を示すブロック図。 (a)撮像素子1002の画素構造を示す断面図、(b)撮像素子1002の画素配列を示す正面図。 第3の実施形態に係るデフォーカスマップ生成部1007の内部構成を示すブロック図。 (a)撮像素子1002の出力信号のタイミングチャート、(b)第3の実施形態に係る連写動作を示すタイミングチャート。 第3の実施形態に係る制御部1011の制御プログラムのフローチャート。 第4の実施形態に係るデフォーカスマップ生成部1007の内部構成を示すブロック図。 第4の実施形態に係る連写動作を示すタイミングチャート。 第4の実施形態に係る制御部1011の制御プログラムのフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[第1の実施形態]
図1は、深度情報生成装置を含む撮像装置100の構成を示すブロック図である。光学系ユニット101は、フォーカスを調整するためのフォーカスレンズを含む光学レンズ群、シャッター、絞り、及びレンズ制御部等で構成され、撮像素子102上に光学像を結像する。
撮像素子102は、単位画素セルが2次元マトリクス状に配列された固体撮像素子であり、光学系ユニット101に含まれるシャッターによって露光量の制御が行われる。光学系ユニット101によって結像された像は光電変換され、読み出し制御時に、単位画素中に構成される分割PD(フォトダイオード)に蓄積された電荷をそれぞれ順次A/D変換部103に出力する。
ここで図2を参照して、単位画素セルについて説明する。図2において、単位画素セルは、マイクロレンズアレイに含まれる1つのマイクロレンズあたりに2×1の分割画素を有している。このような単位画素セルが二次元状にベイヤー配列で固体撮像素子上に配置されている。
各マイクロレンズの同一画素位置に存在する画素のみで構成された2次元画像は、他の同一画素位置に存在する画素のみで構成された2次元画像に対して視差を有する。つまり、図2の画素Aに対応する画素のみで構成された画像と画素Bに対応する画素のみで構成された画像との間には視差が存在する。
また、このような画素構成において、撮像素子102は画素Aの光電変換部から電荷をA像信号として非破壊で読み出し、次に画素Bの光電変換部から電荷を読み出す際には、画素Aの電荷と混合してA+B像信号として読み出すことができる。
本実施形態においては、撮像素子102はライブビュー撮影時にはA像信号及びA+B像信号を読み出し、静止画撮影時にはA像信号を読み出さずにA+B像信号を読み出す。これは、ライブビュー撮影時に比べ静止画撮影時には一般的に読み出される画素数が大きいため、消費電力の増大や読み出し時間の増大を減らすためである。
次に、図3を使用して、視差像の得られる原理について説明を行う。図3に示される撮像素子には、1つのマイクロレンズの下に分離配置した画素A及び画素Bを備えた単位画素セルPが複数配置されている。このマイクロレンズの下に配置された画素A及び画素Bは、マイクロレンズを射出瞳として瞳分割された画素である。即ち、画素A及び画素Bの各々の光電変換部は、撮影光学系の射出瞳の異なる瞳部分領域を通過する光束を受光する。
画素A及び画素Bによって構成されるA像用画素出力及びB像用画素出力を、各々列方向(又は行方向)に組み合わせ、同色単位画素セル群の出力としてA像及びB像を生成してデータ化した際の、各々の対応点のずれは以下のようになる。
・合焦のときには、撮影光学系が結像する位置が単位画素セルP7のマイクロレンズの下のPDになるため、A像用画素群とB像用画素群はほぼ一致する。この時、相関演算で求められるA像用画素群とB像用画素群の視差量は0に近似することを表している。
・後ピンのときには、撮影光学系が結像する位置として、A像用画素が単位画素セルP5、B像用画素が単位画素セルP9のマイクロレンズの下の画素になる。この時、A像用画素群とB像用画素群との間に視差量d(b)が発生する。
・前ピンのときには、撮影光学系と結像する位置として、A像用画素が単位画素セルP9、B像用画素が単位画素セルP5のマイクロレンズの下の画素になる。この時、A像用画素群とB像用画素群との間に、後ピンの場合とは逆方向の視差量d(c)が発生する。
これは、合焦時にはA像用画素群及びB像用画素群は同一の被写体を見ているが、後ピン及び前ピン時にはA像用画素群及びB像用画素群は視差量が発生した被写体を見ているということを意味する。撮像素子の分割された領域ごとに、視差量を後述の像ずれ量算出部105によって求めることで、各分割領域のデフォーカス量を算出することが可能となる。
再び図1を参照すると、A/D変換部103は、アナログ信号処理部(不図示)でアナログ信号処理を行った上で撮像素子102から出力されるアナログ電気信号を、デジタル電気信号(画素信号)に変換し、キャプチャ部104に出力する。アナログ信号処理部(不図示)は、伝送路上のノイズを除去するCDS回路や非線形増幅回路等によって構成される。
キャプチャ部104は、画素信号の有効期間及び種別を判定し、A像信号期間と、A+B像信号期間に対応する画素を判別し、識別信号を付与してデジタル信号処理部108及び像ずれ量算出部105に出力する。本実施形態では、デジタル信号処理部108では視差画像を使用しないため、デジタル信号処理部108に対してはA+B像信号に対応した画素値のみを出力してもよい。
デジタル信号処理部108は、ベイヤー配列で入力された画像に対して同時化処理、ガンマ処理、及びノイズリダクション処理などのデジタル信号処理を行い、表示画像生成部109にライブビュー露光中の画像や静止画フレームの画像を出力する。また、静止画フレームの画像は外部記録装置110に出力される。
外部記録装置110は、デジタル信号処理部108から出力される静止画フレームの画像をSDカードなどのフラッシュメモリに記録する。また、外部記録装置110は、後述のデフォーカス画像生成部106の出力を、撮像画像に付随するメタ情報として記録する。
像ずれ量算出部105は、入力されたA像信号とA+B像信号とに基づいてB像信号を生成し、相関演算を行う。像ずれ量算出部105は、相関演算結果に基づいて領域ごとの極位置を算出し、像ずれマップとして出力する。像ずれマップは、デフォーカス画像生成部106及びレンズ駆動制御部107に出力される。
ここで図4を参照して、像ずれ量算出部105の構成について説明する。像ずれ量算出部105は、遅延素子400、B像生成部401、相関演算部402、及び極位置推定部403を備える。
遅延素子400は、異なるタイミングで入力されるA像信号とA+B像信号の同期を取るために、先に非破壊で読み出されるA像信号を遅延させる。このような遅延素子400は、フリップフロップで構成してもよいし、SRAMやDRAMなどの記憶素子で構成してもよい。
B像生成部401は、A+B像信号から遅延素子400で同期されたA像信号を減算することにより、B像信号を生成する。
相関演算部402は、撮像素子102を矩形ブロックに分割した領域ごとに、SADやSSDなどの相関演算処理を用いて相関量を算出する。本実施形態では、SADを用いた相関量を下記の式1に従って算出するものとする。
C(m)=Σ|YAn(i)−YBn(i+m)| ・・・(1)
ここで、YAn及びYBnは、図3を用いて説明した水平のマイクロレンズn個の画素数を含んだ数列である。iは、各画素位置を表す。mは、画素をずらしながら差の絶対値を算出するための、ずらし量である。mの値を負から正へ変化させることで、奥行方向の被写体位置に対応した相関演算結果の配列を算出することが可能となる。
極位置推定部403は、等角直線フィッティングを用いて、相関演算結果の配列から極位置Nを推定する。極位置Nは、撮像素子102を矩形領域に分割した領域ごとに算出され、像ずれマップとして出力される。
なお、SADを用いる場合は等角直線フィッティングを用いて極位置Nを算出することが望ましいが、本実施形態はこの手法に限ったものではない。例えば、相関演算結果の配列の中で最も相関量が低い位置を極位置Nとしてもよい。また、相関演算としてSSDを用いた場合には、パラボラフィッティングを用いて極位置Nを推定してもよい。
再び図1を参照すると、レンズ駆動制御部107は、像ずれ量算出部105から出力される像ずれマップから、顔検出部などの被写体位置特定部(不図示)により得られた被写体の像高位置に対応した極位置Nを選択する。レンズ駆動制御部107は、選択された極位置Nに基づいてデフォーカス量dを求め、デフォーカス量dに基づいて光学系ユニット101のフォーカスレンズを駆動する。また、レンズ駆動制御部107は、選択された極位置Nをデフォーカス画像生成部106に出力する。
デフォーカス量dは公知の技術で求めることが可能である。例えば、極位置Nと、受光素子に至るまでの光学状態によって一意に決まるK値とを用いて、下記の式2に従ってデフォーカス量dを求めることが可能である。
d=N×K ・・・(2)
なお、本実施形態では、レンズ駆動制御部107は、極位置Nをデフォーカス画像生成部106に出力しているが、本実施形態はこの構成に限定される訳ではない。例えば、レンズ駆動制御部107は、フォーカスレンズの駆動後の光学系ユニット101の状態を光学系ユニット101から読み出して、デフォーカス画像生成部106に出力してもよい。そのような場合には、レンズ駆動制御部107は、デフォーカス量を像ずれ量に相当する極位置Nに変換して出力してもよい。
デフォーカス画像生成部106は、像ずれ量算出部105から出力される像ずれマップをデフォーカス画像に変換し、表示画像生成部109及び外部記録装置110に出力する。前述の通り、静止画撮影時にはA像信号が読み出されないため、像ずれ量算出部105による像ずれマップの生成は行われない。この場合、デフォーカス画像生成部106は、前フレームの像ずれマップと、前フレームから現フレームへのフォーカスレンズ駆動量に対応するデフォーカス量dの算出に用いられた極位置Nとに基づいて、現フレームの像ずれマップを生成(推定)する。
ここで図6を参照して、デフォーカス画像生成部106の構成について説明する。デフォーカス画像生成部106は、遅延素子600、像ずれマップ推定部601、マップ選択部602、及びデフォーカス変換部603を備える。
遅延素子600は、像ずれ量算出部105から出力された像ずれマップを保持する遅延素子である。本実施形態では、遅延素子600は、ライブビュー用の露光を行った際に読み出されたA像及びA+B像に基づいて生成された、1フレーム前の複数の極位置に相当する像ずれマップを保持する。
像ずれマップ推定部601は、レンズ駆動制御部107から出力された極位置N(フォーカスレンズ駆動に対応する像ずれ量)と、遅延素子600から出力された像ずれマップとに基づいて、静止画フレームである現フレームの像ずれマップを推定する。例えば、像ずれマップ推定部601は、遅延素子600から出力された像ずれマップの各極位置から、Nの値をオフセット値として一律に減算する。
マップ選択部602は、撮像モードがライブビューモードであるか記録モードであるかに応じて、出力する像ずれマップを選択する。ライブビューモードとは、ライブビュー表示のためにA像信号及びA+B像信号を読み出す撮像が行われるモードであり、記録モードとは、記録用の静止画フレームを生成するためにA像信号を読み出さずにA+B像信号を読み出す撮像が行われるモードである。マップ選択部602は、ライブビューモードの場合、像ずれ量算出部105から出力される像ずれマップを選択し、記録モードの場合、像ずれマップ推定部601から出力される像ずれマップを選択する。マップ選択部602は、選択した像ずれマップをデフォーカス変換部603に出力する。
デフォーカス変換部603は、入力された像ずれマップの各極位置の値を、デフォーカス画像の画素値に変換する。例えば、極位置の検出範囲を−n〜+nとした場合には、極位置Nの取り得る範囲は−n〜+nとなる。このような場合に、デフォーカス画像の画素値のビット数をmとすると、下記の式3を適用することで極位置Nを画素値Pixnに変換することができる。
Pixn={(N+n)/2n}×(2−1) ・・・(3)
このような計算によって求められた画素値Pixnを輝度値として用い、色信号を0に固定することで、グレースケールのデフォーカス画像を生成することが可能である。この場合、0〜255の画素値において127〜128の範囲が合焦であり、0は至近又は無限遠、255は無限遠又は至近を示すこととなる。なお、0と255が至近と無限遠のどちらを示すかは、画素をずらしながら相関演算を行う際のずれ方向による。
なお、上の説明ではデフォーカス画像をグレースケールで示すものとしたが、本実施形態はこの構成に限定される訳ではない。例えば、合焦に近づけば近づくほどGreenの値を大きくし、至近をBlue、無限遠をRedとしたようなデフォーカス画像を生成してもよい。或いは、合焦に近づけば近づくほど特定の色を濃くし、遠くなるほど無彩色となるような画像を生成してもよい。或いは、合焦に近づけば近づくほどアルファチャンネルの値を最小値又は最大値にするようなメタ画像をデフォーカス画像として生成してもよい。
また、上の説明では、フォーカスレンズ駆動量に対応するデフォーカス量dの算出に用いられた極位置Nを、静止画フレームの像ずれ量を推定するためのオフセット値として使用したが、光学系の状態の変位を示す情報であれば他の種類の情報を使用してもよい。
例えば、ライブビュー動作中はF値が開放だが静止画撮影時にはF値がユーザ指定の値に絞られる場合が存在する。このような場合、F値の変位に基づいて正規化を行うことで、静止画の合焦範囲を示したデフォーカス画像の生成が可能となる。
また、バリフォーカルレンズに代表されるレンズでは、光学系のズームポジションにおいて焦点位置が変位する。そのようなレンズ装着時には、静止画フレームのズームポジションに基づいてオフセット量を加算してもよい。
また、一般的に光学系ユニットは像高位置によって微小な焦点距離変動が存在するため、像高位置によってオフセット量を変更してもよい。
再び図1を参照すると、表示画像生成部109は、デジタル信号処理部108及びデフォーカス画像生成部106の出力に基づいてユーザ通知用画像を生成し、液晶ディスプレイなどの外部表示装置(不図示)に出力する。
制御部111は、制御プログラムを格納したROM、及びワークメモリとして使用されるRAMを備え、制御プログラムを実行することにより撮像装置100の各部を制御する。
図5は、撮像装置100が実行する連写処理のタイミングチャートである。本タイミングチャートの各ステップの処理は、特に断らない限り、制御部111が制御プログラムに従って撮像装置100の各部を制御することにより実行される。
S500で、撮像素子102は、ライブビューモードにおける露光を行う。S501で、撮像素子102は露光を完了し、A像信号を非破壊読み出しした後にA+B像信号を破壊読み出しする。なお、A像信号とA+B像信号とはフレーム単位で読み出しを切り替えてもよいし、ラインごとに読み出しを切り替えてもよい。
S502で、像ずれ量算出部は、S501において読み出されたA像信号及びA+B像信号に基づいて像ずれマップを生成する。S503で、デフォーカス画像生成部106は、S502において生成された像ずれマップに基づいてデフォーカス画像を生成する。
S504で、レンズ駆動制御部107は、S502において生成された像ずれマップに基づいて極位置Nを選択し、極位置Nに基づいてデフォーカス量dを算出し、デフォーカス量dに基づいて光学系ユニット101のフォーカスレンズを駆動する。
S505で、表示画像生成部109は、デジタル信号処理部108がA+B像に基づいて生成した画像と、デフォーカス画像生成部106が生成したデフォーカス画像とに基づいて表示画像を生成する。表示画像生成部109は、表示画像を外部表示装置(不図示)に出力する。これにより、ユーザに撮影状況を通知することができる。
S506で、撮像素子102は、記録モードにおける露光を行う。S507で、デフォーカス画像生成部106は、S502において生成された像すれマップとS504においてレンズ駆動制御部107により選択されたフォーカスレンズ駆動のための極位置Nとに基づいて、像ずれマップを推定する。この推定により、A像の読み出しが行われない記録モードにおける静止画フレームに対応する像ずれマップが生成される。
S508で、デフォーカス画像生成部106は、S507において生成(推定)された像ずれマップに基づいてデフォーカス画像を生成する。これにより、A像の読み出しが行われない記録モードにおける静止画フレームに対応するデフォーカス画像が生成される。
S509で、撮像素子102は露光を完了し、A像信号の読み出しを行わずにA+B像信号を破壊読み出しする。即ち、静止画撮影においては、制御部111は、複数の光電変換部のうちの一部から個別に信号を読み出す制御は行わずに、複数の光電変換部の全体から混合された信号を読み出す制御を行う。
S510で、表示画像生成部109は、S509において読み出されたA+B像に基づいてデジタル信号処理部108により生成された記録用静止画と、S508において生成されたデフォーカス画像とに基づいて表示画像を生成する。表示画像生成部109は、表示画像を外部表示装置(不図示)に出力する。これにより、A像の読み出しが行われない記録モードにおいても、デフォーカス画像と記録用静止画とを共に表示することができ、ユーザに撮影状況を通知することができる。また、外部記録装置110は、デフォーカス画像と記録用静止画とを相互に関連付けて記録してもよい。
S511〜S521の処理は、S500〜S510の処理と同様であり、ユーザにより制御部111に対して連写停止指示が行われるまで同様の処理が繰り返し実行される。
記録停止指示が行われた後は、S522〜S527の処理が繰り返し実行される。S522〜S527の処理は、S500〜S505の処理と同様である。ここでは、像ずれマップの推定は行われない。
なお、本実施形態では、像ずれマップ及びデフォーカス画像(デフォーカスマップ)を生成する構成について説明したが、これに限られるものではない。視点画像から生成される様々な深度を表す情報(深度情報)を生成するために、本実施形態の技術を利用可能である。深度情報は、例えば、瞳分割画像の視差量の分布情報(視差マップ、像ずれマップ)、被写体の奥行き方向の相対的な位置関係がわかる分布情報などである。この点は、第2の実施形態以降においても同様である。
以上説明したように、第1の実施形態によれば、撮像装置100は、ライブビュー撮影(第1の撮影)により得られた相互に視点が異なる複数の視点画像に基づいて像ずれマップ(第1の深度情報)を生成する。そして、撮像装置100は、ライブビュー撮影に対する静止画撮影(第2の撮影)の合焦距離の相違に起因する深度の変化を反映するように、複数の視点画像に基づいて生成された像ずれマップ(第1の深度情報)を補正する。これにより、撮像装置100は、静止画撮影により得られた画像(撮像画像)のための像ずれマップ(第2の深度情報)を生成する。
このような構成により、特定の撮影タイミングに対応する深度情報(例えば像ずれマップ)から別の撮影タイミングに対応する深度情報を生成する際に、合焦距離の相違に起因する深度の変化を反映することが可能となる。
なお、上の説明では、撮像装置100は、合焦距離の相違に起因する深度の変化を反映するために、ライブビュー撮影と静止画撮影との間の、フォーカスレンズ(焦点調節レンズ)の駆動量を使用する構成について説明した。より具体的には、撮像装置100は、焦点調節制御において焦点調節レンズの駆動量を決定するために使用された極位置N(深度情報)を使用した。しかしながら、本実施形態はこの構成に限定されず、撮像装置100は、ライブビュー撮影と静止画撮影との間の、F値の変化、焦点調節レンズの駆動量、及びズーム位置の変化のうちの少なくともいずれかを使用することができる。
また、上の説明では、撮像装置100は、静止画撮影に対応する像ずれマップを生成(推定)するために、直前のライブビュー撮影に対応する像ずれマップを使用した。しかしながら、静止画撮影とライブビュー撮影とのタイミングの関係は、上で説明したタイミングに限定されず、例えば、静止画撮影よりも後のライブビュー撮影に対応する像ずれマップを使用してもよい。静止画撮影とライブビュー撮影とのタイミングの関係がどのようなものであれ、撮像装置100は、ライブビュー撮影に対する静止画撮影の合焦距離の相違に起因する深度の変化を反映するように、ライブビュー撮影に対応する像ずれマップを補正すればよい。
なお、本実施形態では、フォーカスレンズの駆動量を決定した極位置と前フレームの深度情報に基づいて静止画の深度情報を予測したが、必ずしも極位置である必要はない。例えば、フォーカスレンズの駆動量に対してK値で除算した結果を用いてオフセット値を得ても処理としては等価である。
また、本実施形態ではライブビューフレームでは、A像信号とA+B像信号の読み出しが行われ、静止画フレームではA+B像信号の読み出しが行われたが、本実施形態はこの構成に限定されない。例えば、ライブビューフレームではA像信号とB像信号が個別に読み出され、静止画フレームではA+B像信号が読み出されてもよい。このような場合には、デジタル信号処理部108でA像信号とB像信号を加算して表示することでライブビューフレーム用の表示画像を生成することが可能となる。
[第2の実施形態]
第1の実施形態では、1回のライブビュー撮影に対応する深度情報(像ずれマップ)に基づいて静止画撮影に対応する深度情報を生成(推定)する構成について説明した。第2の実施形態では、より高精度な深度情報を得るために、複数回(以下の説明では2回とする)のライブビュー撮影に対応する深度情報に基づいて静止画撮影に対応する深度情報を生成(推定)する構成について説明する。
第2の実施形態において、撮像装置100の基本的な構成は第1の実施形態(図1)と同様であるが、デフォーカス画像生成部106の構成が第1の実施形態と異なる。以下、主に第1の実施形態と異なる点について説明する。
図9は、第2の実施形態に係るデフォーカス画像生成部106の構成を示すブロック図である。遅延素子900は、像ずれ量算出部105から出力された像ずれマップを保持する遅延素子である。本実施形態では、遅延素子900は、ライブビュー用の露光を行った際に読み出されたA像及びA+B像に基づいて生成された像ずれマップを、次回のライブビュー用の露光のタイミング(以下の説明では、2フレーム先のタイミングとする)まで保持する。
像ずれマップ推定部901は、現フレームの領域ごとの極位置と、遅延素子900によって遅延された2つ前のフレームの領域ごとの極位置とに基づいて、静止画フレームである1つ前のフレームの像ずれマップを推定する。その推定に際して、像ずれマップ推定部901は、レンズ駆動制御部107から出力された、2つ前のフレームから現フレームまでのフォーカスレンズの駆動量の履歴に関する極位置Nを用いる。
図8は、像ずれマップ推定部901の構成を示すブロック図である。フォーカスレンズの駆動量の履歴において、現フレームの極位置をN(0)、1フレーム前(静止画露光時)の極位置をN(−1)、2フレーム前(ライブビュー露光時)の極位置をN(−2)とする。
像ずれマップオフセット補正部800は、現フレームの像ずれマップにN(−2)をオフセット値として加算する。これにより、2フレーム前から現フレームまでのフォーカスレンズの駆動量を差し引いた像ずれマップを得ることが可能である。
像ずれマップ予測部801は、現フレームの領域ごとの極位置情報と2つ前のフレームの領域ごとの極位置情報とに基づいて、1つ前のフレーム(静止画露光時)の領域ごとの極位置を内挿によって求める。
像ずれマップオフセット補正部802は、内挿によって求められた領域ごとの極位置からN(−1)をオフセット値として減算することで、静止画フレームの領域ごとの極位置(像ずれマップ)を推定する。
図7は、撮像装置100が実行する連写処理のタイミングチャートである。本タイミングチャートの各ステップの処理は、特に断らない限り、制御部111が制御プログラムに従って撮像装置100の各部を制御することにより実行される。図7において、図5と同一又は同様の処理が行われるステップには図5と同一の符号を付す。
S701で、像ずれマップ推定部901は、2つ前のフレーム(以下、「フレーム1」)の像ずれマップ及び現フレーム(以下、「フレーム3」)の像ずれマップから、1つ前のフレーム(以下、「フレーム2」)の像ずれマップを推定(生成)する。この推定は、フレーム1からフレーム3までのフォーカスレンズの駆動量の履歴、及び、フレーム1からフレーム3までの各撮影の間のタイミングの相違に基づいて行われる。
具体的には、像ずれマップオフセット補正部800は、フレーム1からフレーム3までのフォーカスレンズの駆動量を打ち消すようにフレーム3の像ずれマップ(以下、「像ずれマップ3」)を補正する。これにより、像ずれマップオフセット補正部800は、フレーム1の合焦距離及びフレーム3のタイミングに対応する像ずれマップ(以下、「像ずれマップ4」)を生成する。次に、像ずれマップ予測部801は、フレーム1とフレーム2とフレーム3との間の撮影のタイミングの相違に基づいてフレーム1の像ずれマップ(以下、「像ずれマップ1」)及び像ずれマップ4の内挿を行う。これにより、像ずれマップ予測部801は、フレーム1の合焦距離及びフレーム2の撮影のタイミングに対応する像ずれマップ(以下、「像ずれマップ5」を生成する。次に、像ずれマップオフセット補正部802は、フレーム1からフレーム2までのフォーカスレンズの駆動量を反映するように像すれマップ5を補正する。これにより、像ずれマップオフセット補正部802は、フレーム2の合焦距離及び撮影のタイミングに対応する、フレーム2のための像ずれマップ(以下、「像ずれマップ2」)を生成する。
なお、像ずれマップの推定(生成)を、これとは異なる手順で行ってもよい。例えば、像ずれマップオフセット補正部800は、フレーム1に対するフレーム2の合焦距離の相違に起因する深度の変化を反映するように像ずれマップ1を補正する。これにより、像ずれマップオフセット補正部800は、フレーム2の合焦距離及びフレーム1の撮影のタイミングに対応する像ずれマップを生成する。また、像ずれマップオフセット補正部800は、フレーム3に対するフレーム2の合焦距離の相違に起因する深度の変化を反映するように像ずれマップ3を補正する。これにより、像ずれマップオフセット補正部800は、フレーム2の合焦距離及びフレーム3の撮影のタイミングに対応する像ずれマップを生成する。次に、像ずれマップ予測部801は、フレーム1とフレーム2とフレーム3との間の撮影のタイミングの相違に基づいて、これら2つの像ずれマップの内挿を行う。これにより、像ずれマップ予測部801は、ことにより、フレーム2の合焦距離及び撮影のタイミングに対応する、フレーム2のための像ずれマップを生成する。
S702で、デフォーカス変換部603は、S701において生成された像ずれマップに基づいてデフォーカス画像を生成する。このデフォーカス画像はフレーム2に対応するが、第1の実施形態とは異なり、S510より後に生成されるため、表示画像の生成のためには用いることができない。或いは、S510よりも後のタイミングで、このデフォーカス画像に基づいて表示画像を生成してもよい。また、外部記録装置110は、デフォーカス画像と記録用静止画とを相互に関連付けて記録してもよい。
S703〜S704の処理は、S701〜S702の処理と同様であり、ユーザにより制御部111に対して連写停止指示が行われるまで同様の処理が繰り返し実行される。
以上説明したように、第2の実施形態によれば、撮像装置100は、2回のライブビュー撮影(第1の撮影及び第3の撮影)により得られた相互に視点が異なる複数の視点画像に基づいて2つの像ずれマップ(第1の深度情報及び第3の深度情報)を生成する。そして、撮像装置100は、2つの像ずれマップから、静止画撮影の合焦距離及びタイミングに対応する、静止画撮影により得られた画像(撮像画像)のための像ずれマップ(第2の深度情報)を生成する。この生成は、2回のライブビュー撮影と静止画撮影(第2の撮影)との間の合焦距離の相違に起因する深度の変化、及び、2回のライブビュー撮影と静止画撮影との間のタイミングの相違に基づいて行われる。これにより、より高精度な像ずれマップの生成(推定)が可能となる。
なお、本実施形態では静止画撮影の前後のライブビュー撮影に基づいて静止画フレームの深度情報を推定する構成について説明を行ったが、前後のライブビュー撮影に限定するものではない。例えば、前後のライブビュー撮影から静止画フレームの深度情報を推定すると、静止画フレームの深度情報の表示が少なくとも1フレームは遅れてしまう。そのため、静止画撮影よりも前の2回のライブビュー撮影に対応する深度情報から外挿処理を行うことで、静止画フレームの深度情報を生成(推定)してもよい。即ち、S702を参照して説明した内挿は、静止画撮影及び2回のライブビュー撮影の間のタイミングの関係(前後関係)に応じて、適宜外挿に置き換えられる。
また、ライブビュー表示には、静止画フレーム用の露光よりも前のフレームの像ずれマップに基づいて静止画フレーム用のデフォーカス画像を生成し、静止画フレームの記録画像では、静止画フレームの前後フレームを用いてデフォーカス画像を生成してもよい。
[第3の実施形態]
従来、1つのマイクロレンズに対して2つの画素を配置した撮像素子を用いて瞳分割を行い、分割された画素の一方を非破壊読み出しした直後に2つの画素の電荷を加算して、瞳分割されていない像を得ることができる撮像素子が知られている。特許第5979849号公報は、このような撮像素子を開示している。
瞳分割されていない像は、そのまま撮像信号として利用できる。また、瞳分割されていない信号から瞳分割された一方の像を減算して、対となるもう一方の像を演算により求めることで、一対の瞳分割された像を得て焦点検出に利用することができる。焦点検出時には一対の像が必要であるが、撮影時に一対の像を読み出すと読み出し時間が長くなりすぎるため、撮影時は瞳分割された2つの画素を加算した信号のみを撮像素子から読み出せばよい。
また、同様の撮像素子を用いて得られた一対の像を用いて、デフォーカスマップを作成し、画像のボケを強調する技術が特許第6198590号公報に開示されている。特許第6198590号公報の技術を用いると、撮影後に画像を確認しながら深度を変更できる。
しかしながら、上述の特許第5979849号公報に開示された技術では、焦点検出時のみ瞳分割された像を得ることで読み出し時間を高速化させているため、特許第6198590号公報のように後からボケを強調するといった応用ができない。特許第6198590号公報のような応用を行うためには、撮影時も瞳分割された一方の像を撮像素子から読み出さなければならないために、読み出し時間が長くなってしまい、連写速度を早くすることができなくなってしまう。
そこで、第3の実施形態では、特定の撮影タイミングに対応する視点画像を、前後の撮影タイミングで得られた視点画像を用いて生成する構成について説明する。
図10は、画像処理装置を含む撮像装置1000の構成を示すブロック図である。図10において、1001は撮影光学系、1002は撮像素子、1003は撮像素子1002の出力から映像信号を生成する信号処理部である。1005は信号処理部1003の出力を表示する表示部、1006は信号処理部1003の出力を記録メディアに記録する記録部である。1004は撮像素子1002の出力を蓄積してB像を生成出力するB像生成部、1007は撮像素子1002の出力をもとにデフォーカスマップを生成するデフォーカスマップ生成部である。1008は撮像素子1002及びB像生成部1004の出力をもとに焦点検出を行う焦点検出部、1009は焦点検出部1008の出力をもとに撮影光学系1001のレンズを制御するためのレンズ駆動部である。
また、1010は撮像装置1000の振動状態を検出するジャイロセンサ、1012はジャイロセンサ1010の出力に基づいて撮像素子1002の位置を移動させる制御を行う防振制御部である。1013は防振制御部1012による制御に従って撮像素子1002の位置を動かす撮像素子位置駆動部である。
1011は制御部である。制御部1011は、制御プログラムを格納したROM、及びワークメモリとして使用されるRAMを備え、制御プログラムを実行することにより撮像装置1000の各部を制御する。
図11(a)は、撮像素子1002の画素構造を示す断面図である。1101はマイクロレンズである。1102は瞳分割されたA像を生成するA像光電変換部、1103は瞳分割されたもう一方のB像を生成するB像光電変換部である。1104はカラーフィルタである。
図11(b)は、撮像素子1002の画素配列を示す正面図である。1105はカラーフィルタ1104がREDフィルタであるA像光電変換部、1106は同じくREDフィルタに対応するB像光電変換部である。1107はGREENフィルタに対応するA像光電変換部、1108はGREENフィルタに対応するB像光電変換部である。1109はBLUEフィルタに対応するA像光電変換部、1110はBLUEフィルタに対応するB像光電変換部である。このように、撮像素子1002にはベイヤー配列でカラーフィルタが配置されている。
撮像素子1002は、A像光電変換部1102のみを非破壊で読み出し、その後、B像光電変換部1103とA像光電変換部1102の電価を画素内で加算して読み出すことができる。画素内で電価を混合することで、瞳分割していない撮像素子の出力に相当する出力を得ることができる。
図13(a)は、撮像素子1002の出力信号のタイミングチャートである。S1305の期間が1水平期間に相当する。S1301でA像光電変換部1102の出力が転送され、S1302でA像光電変換部1102とB像光電変換部1103とを混合した信号が転送される。このように、1水平期間中にA像信号とA+B像信号が転送される。
A+B像はそのまま信号処理部1003で処理されて表示部1005に転送され、表示される。信号処理部1003は、S1305の水平期間に含まれるS1302の期間だけ信号を取り込む。一方、B像生成部1004は、S1301及びS1302の両方の期間において信号を取り込む。B像生成部1004は、S1301の期間に取り込んだ信号を一度内部のメモリへ書き込み、遅延させてS1303のタイミングで読み出す。S1304において、S1303と同じタイミング(S1302)で入力されるA+B像から、S1303で読み出される遅延させたA像を減算することで、B像信号が生成され、後段の焦点検出部1008へ転送される。
焦点検出部1008には、瞳分割された一対のA像とB像が入力される。このA像とB像との間の瞳分割方向の像ずれを検出することで、ピントのずれ量と方向が検出される。検出されたA像とB像との間の像ずれに、ある係数をかけるとデフォーカス量が得られる。焦点検出部1008は、デフォーカス量に基づいてレンズ駆動部1009を制御して被写体の焦点を検出する。
像ずれ量からデフォーカス量への変換を行うためには、レンズの持つ瞳までの距離や口径食の情報に基づいて係数を決める必要がある。また、それらは撮影光学系1001の光軸からの相対位置に依存して変化するため、撮像素子位置駆動部1013で制御している撮像素子1002の位置の情報を知る必要がある。ジャイロセンサ1010の情報に基づいて防振制御部1012が撮像素子位置駆動部1013を制御するとき、同時に撮像素子1002の位置情報を焦点検出部1008及びデフォーカスマップ生成部1007へ転送する。
なお、像ずれ量を相関演算により求める方法、及び撮影光学系1001の瞳位置をもとにデフォーカス量に変換する係数を求める式などについては、任意の既存技術を利用することができる。
図12は、第3の実施形態に係るデフォーカスマップ生成部1007の内部構成を示すブロック図である。撮像素子1002の出力が端子1201から入力される。撮像素子1002からは、S1305の水平期間に含まれるS1301及びS1302のタイミングでA像とA+B像が交互に出力される。
A像メモリ1203は、S1301の期間の画像(A像)を取り込み1画面分蓄積する。また、A像メモリ1204には、A像メモリ1203が次のフレームを取り込む前にA像メモリ1203の内容が転送されてコピーされる。これにより、A像メモリ1204は、1フレーム前のA像メモリ1203と同じ内容を保持することになる。A+B像メモリ1205は、連写時の撮影画像を取り込む。
第3の実施形態では、焦点検出及び表示を行うときの撮像素子1002の読み出しと、撮影画像のための読み出しとで読み出し方法が異なる。撮影画像のための読み出しを行う場合は、A+B像のみが読み出され、A像は読み出されない。
焦点検出及び表示のときには、水平3画素加算や垂直行の間引きなどにより読み出し画素数を減らして読み出し時間を節約する。例えば、焦点検出及び表示のときには1980x1080などの画像としての読み出しが行われるのに対して、撮影時は3840×2160などの高解像度での読み出しが行われる。そのため、撮影画像としてA像とA+B像の両方を読みだすと連写速度が下がってしまう。
A+B像をA+B像メモリ1205へ取り込むときには、A+B像をA像メモリ1203内のA像と同じ解像度にリサイズして取り込む。
図13(b)は、第3の実施形態に係る連写動作を示すタイミングチャートである。S1306は、表示及び焦点検出のために撮像素子1002を露光する期間である。S1307は、S1306において露光した信号を読み出す読み出し期間である。このとき、S1301及びS1302で示すA像とA+B像が読み出される。
S1308は、相関演算及びフォーカス駆動の期間である。S1308で、焦点検出部1008は、S1307において読み出された信号を処理することで、次のフォーカス駆動位置を決定して焦点検出を行う。
S1309は、連写記録用の露光を行う期間である。S1310の期間において、撮像素子1002からA+B像が読み出され、処理される。処理されたA+B像は、S1316の期間に記録部1006によって撮影画像として記録される。
記録処理と並行して、S1311で、次の焦点検出及び表示のために露光が行われる。第3の実施形態では、このように記録用の露光と焦点検出及び表示用の露光とを交互に行う。
S1312における読み出しが終わったタイミングにおける、デフォーカスマップ生成部1007の内部の各メモリの状態について説明する。A像メモリ1203には、S1311に対応するA像(第3の撮影により得られた、撮影光学系の射出瞳の第2の瞳部分領域に対応する第2の視点画像)が格納されている。A像メモリ1204には、S1306に対応するA像(第1の撮影により得られた、撮影光学系の射出瞳の第1の瞳部分領域に対応する第1の視点画像)が格納されている。A+B像メモリ1205には、S1309に対応するA+B像(第2の撮影により得られた、第1の瞳部分領域と第2の瞳部分領域とを合わせた混合領域に対応する第1の混合画像)が格納されている。即ち、各メモリには、記録された撮影画像に対応するA+B像と、その前後のA像とが格納されている。
次に、中間A像生成部1206は、A像メモリ1203及びA像メモリ1204からA像を読み出し、2つのA像から中間A像(第2の撮影に対応する第1の瞳部分領域に対応する第3の視点画像)を生成して中間A像メモリ1207へ転送する。中間A像生成部1206は、フレームレートを上げる目的で前後の画像から中間フレームを生成する技術を用いる。なお、中間フレームを生成する技術については、任意の既存の技術を利用することができる。
中間A像メモリ1207に中間A像が格納されたら、A+B像メモリ1205のA+B像から中間A像を減算することで、中間A像に対応するB像(第2の撮影に対応する第2の瞳部分領域に対応する第4の視点画像)も得ることができる。B像生成部1208は、この減算処理によりB像を生成してB像メモリ1209に格納する。これにより、一対のA像とB像が揃う。
相関演算部1210は、こうして得られた一対のA像とB像に基づく演算を行うことで、デフォーカスマップ(深度情報)を生成する。相関演算部1210では、画面を細かいメッシュ状に細分化して1つのブロックを数十画素から数百画素程度にして、各ブロックについてA像とB像との間の像ずれ量を検出する。像ずれ量に応じた係数を求めるために、端子1202から入力される撮像素子1002と撮影光学系1001の光軸とのずれ、並びに撮影光学系1001の瞳までの距離及び開口径が用いられる。こうして計算されたメッシュ状のデフォーカスマップは、端子1211から出力され、記録部1006によって記録される。
図13(b)のタイミングチャートを参照して説明すると、S1313で、焦点検出部1008はフォーカス駆動を行って次の撮影の準備を行う。S1314で、中間A像が生成されて中間A像メモリ1207に格納される。S1315でデフォーカスマップが生成され、S1317でデフォーカスマップが記録される。
このような動作の繰り返しにより、焦点検出を行いながら、連続的に撮影した撮影画像と対応するデフォーカスマップとを記録することができる。
連写の最後の露光に対応するS1318については、S1311と同様に、A像とA+B像を読み出してデフォーカスマップを記録する処理が行われる。次の露光に対応するS1319以降は、焦点検出の必要がなく表示のみなので、A像の読み出しはせずにA+B像のみが読み出される。このように、本実施形態の連写シーケンスでは、最後に必ずA像の読み出しが行われる。
ここまで説明した全体の動作は、制御部1011によって制御される。図14は、第3の実施形態に係る制御部1011の制御プログラムのフローチャートである。撮像装置1000の動作モードが撮影モードに設定されて撮影待機状態になると、本フローチャートの処理が開始する。
S1402で、制御部1011は、表示用の露光及び表示の制御を行う。S1402の露光に対する読み出し動作では、A像は読み出されず、A+B像のみが読み出され表示される。これにより、消費電力が低減され撮影待機時間が延びる。
S1403で、制御部1011は、連写を開始するか否かを判定する。連写を開始する場合、処理はS1405に進み、そうでない場合、処理はS1402に戻る。
S1405で、制御部1011は、AF用の露光制御、及びA像とA+B像とを読み出す制御を行う。S1406で、制御部1011は、B像生成部1004を用いてA+B像からA像を減算することによりB像を生成する。そして、焦点検出部1008は、相関演算を行うことによりデフォーカス量を得る。
S1407で、レンズ駆動部1009は、S1406において得られたデフォーカス量に基づいて撮影光学系1001のレンズを駆動する。S1408で、制御部1011は、記録用の露光制御、及びA+B像を読み出す制御を行う。S1409で、信号処理部1003は、S1408において読み出されたA+B像に対して信号処理を行い、記録部1006は信号処理されたA+B像を記録する。
S1410で、制御部1011は、再びAF用の露光制御、及びA像とA+B像とを読み出す制御を行う。S1411で、制御部1011は、B像生成部1004を用いてA+B像からA像を減算することによりB像を生成する。そして、焦点検出部1008は、相関演算を行うことによりデフォーカス量を得る。
S1412で、レンズ駆動部1009は、S1411において得られたデフォーカス量に基づいて撮影光学系1001のレンズを駆動することにより、次の記録用露光に備える。
S1413で、中間A像生成部1206は、S1405及びS1410において得られた2つのA像から中間A像を生成し、中間A像メモリ1207に格納する。また、B像生成部1208は、S1408において得られたA+B像から中間A像を減算することによりB像(中間B像)を生成し、B像メモリ1209に格納する。なお、処理が後述するS1415からS1408へと戻って再びS1413に至った場合には、中間A像の生成は、今回及び前回のS1410において得られた2つのA像に基づいて行われる。
S1414で、相関演算部1210は、中間A像及び中間B像に対する相関演算によりデフォーカスマップを生成する。記録部1006は、生成されたデフォーカスマップを記録する。
S1415で、制御部1011は、連写を終了するか否かを判定する。連写を終了する場合、処理はS1402に戻る。連写を継続する場合、処理はS1408に戻る。
以上説明したように、第3の実施形態によれば、撮像装置1000は、A+B像のみが読み出されるフレームの前後のフレームの2つのA像に基づいて中間A像を生成し、A+B像から中間A像を減算することによりB像を生成する。従って、A+B像のみが読み出されるフレームのための視点画像(A像及びB像)を生成することが可能となる。
なお、上の説明では、これら3つのフレームは連続したフレームであったが、連続していなくても構わない。連続したフレームを用いることにより、中間A像の精度を向上させることができる。
また、上の説明では、A+B像のみが読み出されるフレームの前後のフレームの2つのA像に基づいて中間A像を生成した。しかしながら、A+B像のみが読み出されるフレームより前の2つのフレームの2つのA像、又はA+B像のみが読み出されるフレームより後の2つのフレームの2つのA像に基づく外挿演算により、中間A像を生成してもよい。外挿演算には、任意の既存の技術を利用することができる。なお、外挿演算により生成されるA像は、厳密に言えば2つのA像の「中間」にはないが、便宜上、中間A像と呼ぶことにする。
[第4の実施形態]
第4の実施形態では、中間A像の精度を向上させるための構成について説明する。本実施形態において、撮像装置1000の基本的な構成は第3の実施形態と同様である(図10参照)。以下、主に第3の実施形態と異なる点について説明する。
図15は、第4の実施形態に係るデフォーカスマップ生成部1007の内部構成を示すブロック図である。
A+B像メモリ1501は、S1302の期間の画像(A+B像)を取り込み1画面分蓄積する。また、A+B像メモリ1502には、A+B像メモリ1501が次のフレームを取り込む前にA+B像メモリ1501の内容が転送されてコピーされる。これにより、A+B像メモリ1502は、1フレーム前のA+B像メモリ1501と同じ内容を保持することになる。
その結果、A像メモリ1203のA像と同じ露光期間に対応するA+B像(第3の撮影により得られた、混合領域に対応する第3の混合画像)がA+B像メモリ1501に格納される。また、A像メモリ1204のA像と同じ露光期間に対応するA+B像(第1の撮影により得られた、混合領域に対応する第2の混合画像)がA+B像メモリ1502に格納される。中間A+B像生成部1503は、A+B像メモリ1501及びA+B像メモリ1502に格納された2つのA+B像から中間A+B像(第2の撮影に対応する混合領域に対応する第4の混合画像)を生成して、中間A+B像メモリ1504へ保存する。
中間A+B像メモリ1504に格納された中間A+B像は、A+B像メモリ1205に格納されたA+B像(本物のA+B像)を模擬していると考えることができる。そのため、中間A+B像と本物のA+B像との間の動きベクトルを検出すれば、中間A+B像に含まれる誤差を知ることができる。動きベクトルに基づいて特徴点がずれている場所及び量の逆を中間A像メモリ1207に格納された中間A像に適用して特徴点位置を動かして補正することで、より正確な中間A像を得ることができる。即ち、補正情報生成部1505は、中間A+B像及び本物のA+B像に基づいて動きベクトルを検出し、補正情報を生成する。中間A像補正部1506は、補正情報生成部1505によって生成された補正情報に基づいて中間A像メモリ1207に格納された中間A像を補正して、補正済み中間A像メモリ1507へ転送する。
B像生成部1208は、第3の実施形態と同様にB像(中間B像)を生成する。但し、第4の実施形態における中間B像の生成は、中間A像の代わりに補正済み中間A像を用いて行われる。
このように、第4の実施形態では、記録用A+B像及び前後のフレームのA+B像に基づいて中間A像の補正が行われる。
図16は、第4の実施形態に係る連写動作を示すタイミングチャートである。本タイミングチャートにおいて、図13と同一又は同様の処理が行われるステップ(タイミング)には図13と同一の符号を付す。
S1601で、中間A+B像生成部1503は、中間A+B像を生成して中間A+B像メモリ1504に格納する。S1602で、補正情報生成部1505は、中間A+B像メモリ1504に格納された中間A+B像とA+B像メモリ1205に格納されたA+B像とから動きベクトルを検出して補正情報を作成する。S1603で、中間A像補正部1506は、S1602において生成された補正情報に基づいて中間A像を補正して補正済み中間A像メモリ1507に格納する。S1604で、B像生成部1208は、補正済み中間A像とA+B像とに基づいてB像(中間B像)を生成してB像メモリ1209に格納し、相関演算部1210は、補正済み中間A像と中間B像とに基づいて相関演算を行い、デフォーカスマップを生成する。
ここまで説明した全体の動作は、制御部1011によって制御される。図17は、第4の実施形態に係る制御部1011の制御プログラムのフローチャートである。撮像装置1000の動作モードが撮影モードに設定されて撮影待機状態になると、本フローチャートの処理が開始する。本フローチャートにおいて、図14と同一又は同様の処理が行われるステップには図14と同一の符号を付す。
S1701で、中間A像生成部1206は、図14のS1413と同様に中間A像を生成して中間A像メモリ1207に格納する。なお、S1413と異なり、S1701では中間B像の生成は行われない。
S1702で、中間A+B像生成部1503は、S1405及びS1410において得られた2つのA+B像から中間A+B像を生成し、中間A+B像メモリ1504に格納する。なお、処理がS1415からS1408へと戻って再びS1702に至った場合には、中間A+B像の生成は、今回及び前回のS1410において得られた2つのA+B像に基づいて行われる。
S1703で、補正情報生成部1505は、S1702において生成された中間A+B画像とS1408において得られたA+B像とを用いて補正情報を生成する。
S1704で、中間A像補正部1506は、S1703において生成された補正情報を用いて、S1701において生成された中間A像を補正する。また、B像生成部1208は、S1408において得られたA+B像から補正済み中間A像を減算することによりB像(中間B像)を生成し、B像メモリ1209に格納する。
S1705で、相関演算部1210は、補正済み中間A像及び中間B像に対する相関演算によりデフォーカスマップを生成する。記録部1006は、生成されたデフォーカスマップを記録する。
以上説明したように、第4の実施形態によれば、撮像装置1000は、中間A+B像と本物のA+B像との間の動きベクトルに基づいて中間A像を補正する。これにより、中間A像の精度を向上させることが可能となる。
なお、第3の実施形態及び第4の実施形態では生成したデフォーカスマップ(深度情報)を記録する構成について説明した。しかしながら、撮像装置1000は、中間A像(第3の実施形態の場合)又は補正済み中間A像(第4の実施形態の場合)を記録して、再生時にデフォーカスマップを生成してもよい。また、中間A像及び補正済み中間A像は、デフォーカスマップの生成のみならず、ステレオ画像や中間視点画像の生成にも利用できる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100…撮像装置、102…撮像素子、103…A/D変換部、104…キャプチャ部、105…像ずれ量算出部、106…デフォーカス画像生成部、107…レンズ駆動制御部、108…デジタル信号処理部、109…表示画像生成部、111…制御部

Claims (21)

  1. 第1の撮影により得られた相互に視点が異なる複数の視点画像に基づいて第1の深度情報を生成する第1の生成手段と、
    前記第1の撮影に対する第2の撮影の合焦距離の相違に起因する深度の変化を反映するように前記第1の深度情報を補正することにより、前記第2の撮影により得られた撮像画像のための第2の深度情報を生成する第2の生成手段と、
    を備えることを特徴とする深度情報生成装置。
  2. 前記第2の生成手段は、前記第1の撮影と前記第2の撮影との間の、F値の変化、焦点調節レンズの駆動量、及びズーム位置の変化のうちの少なくともいずれかに基づいて、前記深度の変化を反映するように前記第1の深度情報を補正する
    ことを特徴とする請求項1に記載の深度情報生成装置。
  3. 前記第1の撮影は前記第2の撮影の前に行われ、
    前記第2の生成手段は、前記第1の撮影と前記第2の撮影との間の焦点調節制御において焦点調節レンズの駆動量を決定するために使用された深度情報に基づいて、前記深度の変化を反映するように前記第1の深度情報を補正する
    ことを特徴とする請求項1に記載の深度情報生成装置。
  4. 前記撮像画像と前記第2の深度情報とを相互に関連付けて記録する記録手段を更に備える
    ことを特徴とする請求項1乃至3のいずれか1項に記載の深度情報生成装置。
  5. 前記第2の深度情報を前記撮像画像と共に表示する表示手段を更に備える
    ことを特徴とする請求項1乃至4のいずれか1項に記載の深度情報生成装置。
  6. 複数の画素を含む撮像素子であって、各画素が撮影光学系の射出瞳の異なる瞳部分領域を通過する光束を受光する複数の光電変換部を含む、撮像素子と、
    請求項1乃至5のいずれか1項に記載の深度情報生成装置と、
    前記撮像素子からの信号の読み出しを制御する制御手段と、
    を備え、
    前記第2の撮影においては、前記制御手段は、前記複数の光電変換部のうちの一部から個別に信号を読み出す制御は行わずに、前記複数の光電変換部の全体から混合された信号を読み出す制御を行う
    ことを特徴とする撮像装置。
  7. 第1の撮影により得られた相互に視点が異なる複数の視点画像に基づいて第1の深度情報を生成し、第3の撮影により得られた相互に視点が異なる複数の視点画像に基づいて第3の深度情報を生成する第1の生成手段と、
    前記第1の撮影と第2の撮影と前記第3の撮影との間の合焦距離の相違に起因する深度の変化、及び、前記第1の撮影と前記第2の撮影と前記第3の撮影との間のタイミングの相違に基づいて、前記第1の深度情報及び前記第3の深度情報から、前記第2の撮影の合焦距離及びタイミングに対応する、前記第2の撮影により得られた撮像画像のための第2の深度情報を生成する第2の生成手段と、
    を備えることを特徴とする深度情報生成装置。
  8. 前記第2の生成手段は、
    前記第1の撮影に対する前記第3の撮影の合焦距離の相違に起因する深度の変化を打ち消すように前記第3の深度情報を補正することにより、前記第1の撮影の合焦距離及び前記第3の撮影のタイミングに対応する第4の深度情報を生成し、
    前記第1の撮影と前記第2の撮影と前記第3の撮影との間のタイミングの相違に基づいて前記第1の深度情報及び前記第4の深度情報の内挿又は外挿を行うことにより、前記第1の撮影の合焦距離及び前記第2の撮影のタイミングに対応する第5の深度情報を生成し、
    前記第1の撮影に対する前記第2の撮影の合焦距離の相違に起因する深度の変化を反映するように前記第5の深度情報を補正することにより、前記第2の深度情報を生成する、
    ことを特徴とする請求項7に記載の深度情報生成装置。
  9. 前記第2の生成手段は、
    前記第1の撮影に対する前記第2の撮影の合焦距離の相違に起因する深度の変化を反映するように前記第1の深度情報を補正することにより、前記第2の撮影の合焦距離及び前記第1の撮影のタイミングに対応する第4の深度情報を生成し、
    前記第3の撮影に対する前記第2の撮影の合焦距離の相違に起因する深度の変化を反映するように前記第3の深度情報を補正することにより、前記第2の撮影の合焦距離及び前記第3の撮影のタイミングに対応する第5の深度情報を生成し、
    前記第1の撮影と前記第2の撮影と前記第3の撮影との間のタイミングの相違に基づいて前記第4の深度情報及び前記第5の深度情報の内挿又は外挿を行うことにより、前記第2の深度情報を生成する、
    ことを特徴とする請求項7に記載の深度情報生成装置。
  10. 深度情報生成装置が実行する深度情報生成方法であって、
    第1の撮影により得られた相互に視点が異なる複数の視点画像に基づいて第1の深度情報を生成する第1の生成工程と、
    前記第1の撮影に対する第2の撮影の合焦距離の相違に起因する深度の変化を反映するように前記第1の深度情報を補正することにより、前記第2の撮影により得られた撮像画像のための第2の深度情報を生成する第2の生成工程と、
    を備えることを特徴とする深度情報生成方法。
  11. 深度情報生成装置が実行する深度情報生成方法であって、
    第1の撮影により得られた相互に視点が異なる複数の視点画像に基づいて第1の深度情報を生成し、第3の撮影により得られた相互に視点が異なる複数の視点画像に基づいて第3の深度情報を生成する第1の生成工程と、
    前記第1の撮影と第2の撮影と前記第3の撮影との間の合焦距離の相違に起因する深度の変化、及び、前記第1の撮影と前記第2の撮影と前記第3の撮影との間のタイミングの相違に基づいて、前記第1の深度情報及び前記第3の深度情報から、前記第2の撮影の合焦距離及びタイミングに対応する、前記第2の撮影により得られた撮像画像のための第2の深度情報を生成する第2の生成工程と、
    を備えることを特徴とする深度情報生成方法。
  12. コンピュータを、請求項1乃至5及び7乃至9のいずれか1項に記載の深度情報生成装置の各手段として機能させるためのプログラム。
  13. 第1の撮影により得られた、撮影光学系の射出瞳の第1の瞳部分領域に対応する第1の視点画像と、第3の撮影により得られた、前記第1の瞳部分領域に対応する第2の視点画像とに基づいて、第2の撮影に対応する前記第1の瞳部分領域に対応する第3の視点画像を生成する第1の生成手段と、
    前記第2の撮影により得られた、前記第1の瞳部分領域と前記射出瞳の第2の瞳部分領域とを合わせた混合領域に対応する第1の混合画像から前記第3の視点画像を減算することにより、前記第2の撮影に対応する前記第2の瞳部分領域に対応する第4の視点画像を生成する第2の生成手段と、
    を備えることを特徴とする画像処理装置。
  14. 前記第3の視点画像及び前記第4の視点画像に基づいて前記第1の混合画像のための深度情報を生成する第3の生成手段を更に備える
    ことを特徴とする請求項13に記載の画像処理装置。
  15. 前記第1の撮影により得られた、前記混合領域に対応する第2の混合画像と、前記第3の撮影により得られた、前記混合領域に対応する第3の混合画像とに基づいて、前記第2の撮影に対応する前記混合領域に対応する第4の混合画像を生成する第4の生成手段と、
    前記第1の混合画像と前記第4の混合画像との間の動きベクトルを検出する検出手段と、
    前記動きベクトルに基づいて前記第3の視点画像を補正する補正手段と、
    を更に備え、
    前記第2の生成手段は、前記補正手段による前記第3の視点画像の補正の後に前記第1の混合画像から前記補正された前記第3の視点画像を減算することにより、前記第4の視点画像を生成する
    ことを特徴とする請求項13に記載の画像処理装置。
  16. 前記補正された前記第3の視点画像及び前記第4の視点画像に基づいて前記第1の混合画像のための深度情報を生成する第3の生成手段を更に備える
    ことを特徴とする請求項15に記載の画像処理装置。
  17. 前記第2の撮影は前記第1の撮影より後に行われた撮影であり、
    前記第3の撮影は前記第2の撮影より後に行われた撮影である
    ことを特徴とする請求項13乃至16のいずれか1項に記載の画像処理装置。
  18. 請求項13乃至17のいずれか1項に記載の画像処理装置と、
    複数の画素を含む撮像素子であって、各画素が前記第1の瞳部分領域を通過する光束を受光する第1の光電変換部と前記第2の瞳部分領域を通過する光束を受光する第2の光電変換部とを含む、撮像素子と、
    前記撮像素子からの信号の読み出しを制御する制御手段と、
    を備え、
    前記第2の撮影においては、前記制御手段は、前記第1の光電変換部及び前記第2の光電変換部から個別に信号を読み出す制御は行わずに、前記第1の光電変換部及び前記第2の光電変換部の全体から混合された信号を読み出す制御を行う
    ことを特徴とする撮像装置。
  19. 請求項17に記載の画像処理装置と、
    複数の画素を含む撮像素子であって、各画素が前記第1の瞳部分領域を通過する光束を受光する第1の光電変換部と前記第2の瞳部分領域を通過する光束を受光する第2の光電変換部とを含む、撮像素子と、
    前記撮像素子からの信号の読み出しを制御する制御手段と、
    を備え、
    前記第2の撮影においては、前記制御手段は、前記第1の光電変換部及び前記第2の光電変換部から個別に信号を読み出す制御は行わずに、前記第1の光電変換部及び前記第2の光電変換部の全体から混合された信号を読み出す制御を行い、
    前記制御手段は、前記第2の撮影が行われた場合には、前記第3の撮影を行う指示がなされたか否かに関わらず前記第3の撮影を行うように制御する
    ことを特徴とする撮像装置。
  20. 画像処理装置が実行する画像処理方法であって、
    第1の撮影により得られた、撮影光学系の射出瞳の第1の瞳部分領域に対応する第1の視点画像と、第3の撮影により得られた、前記第1の瞳部分領域に対応する第2の視点画像とに基づいて、第2の撮影に対応する前記第1の瞳部分領域に対応する第3の視点画像を生成する第1の生成手段と、
    前記第2の撮影により得られた、前記第1の瞳部分領域と前記射出瞳の第2の瞳部分領域とを合わせた混合領域に対応する第1の混合画像から前記第3の視点画像を減算することにより、前記第2の撮影に対応する前記第2の瞳部分領域に対応する第4の視点画像を生成する第2の生成手段と、
    を備えることを特徴とする画像処理方法。
  21. コンピュータを、請求項13乃至17のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019145660A 2019-08-07 2019-08-07 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム Active JP7431527B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019145660A JP7431527B2 (ja) 2019-08-07 2019-08-07 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム
US16/987,251 US11468584B2 (en) 2019-08-07 2020-08-06 Depth information generating apparatus, image capturing apparatus, depth information generating method, image processing apparatus, and image processing method
US17/943,701 US20230186501A1 (en) 2019-08-07 2022-09-13 Depth information generating apparatus, image capturing apparatus, depth information generating method, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019145660A JP7431527B2 (ja) 2019-08-07 2019-08-07 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2021027523A true JP2021027523A (ja) 2021-02-22
JP2021027523A5 JP2021027523A5 (ja) 2022-08-09
JP7431527B2 JP7431527B2 (ja) 2024-02-15

Family

ID=74498945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019145660A Active JP7431527B2 (ja) 2019-08-07 2019-08-07 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (2) US11468584B2 (ja)
JP (1) JP7431527B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10429608B1 (en) * 2016-09-23 2019-10-01 Apple Inc. Primary-subordinate camera focus based on lens position sensing
CN116686284A (zh) * 2021-02-25 2023-09-01 Oppo广东移动通信有限公司 电子设备、控制电子设备的方法和计算机可读存储介质
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017107204A (ja) * 2015-12-08 2017-06-15 キヤノン株式会社 情報処理装置及び情報処理方法
JP2018007205A (ja) * 2016-07-08 2018-01-11 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP2018014658A (ja) * 2016-07-22 2018-01-25 キヤノン株式会社 撮像装置、撮像装置の制御方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4410804A (en) 1981-07-13 1983-10-18 Honeywell Inc. Two dimensional image panel with range measurement capability
US5973700A (en) * 1992-09-16 1999-10-26 Eastman Kodak Company Method and apparatus for optimizing the resolution of images which have an apparent depth
JP3774597B2 (ja) 1999-09-13 2006-05-17 キヤノン株式会社 撮像装置
JP4809291B2 (ja) * 2007-06-01 2011-11-09 株式会社豊田中央研究所 計測装置及びプログラム
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
KR20120028688A (ko) 2010-09-15 2012-03-23 삼성전기주식회사 혼합물 분리 응축 장치
JP5979849B2 (ja) 2011-11-21 2016-08-31 キヤノン株式会社 撮像素子及び撮像装置
JP5341286B1 (ja) * 2011-12-16 2013-11-13 オリンパスメディカルシステムズ株式会社 深度拡大装置
US9185387B2 (en) * 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
EP3869797B1 (en) * 2012-08-21 2023-07-19 Adeia Imaging LLC Method for depth detection in images captured using array cameras
US9769365B1 (en) * 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
US9438888B2 (en) * 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9565416B1 (en) * 2013-09-30 2017-02-07 Google Inc. Depth-assisted focus in multi-camera systems
EP2871843B1 (en) * 2013-11-12 2019-05-29 LG Electronics Inc. -1- Digital device and method for processing three dimensional image thereof
JP6260399B2 (ja) * 2014-03-28 2018-01-17 富士通株式会社 撮像装置、撮像方法および撮像プログラム
US9445417B2 (en) * 2014-04-08 2016-09-13 Qualcomm Incorporated Apparatus and method of sharing a transmit chain in wireless communications
US9729857B2 (en) * 2014-04-08 2017-08-08 Semyon Nisenzon High resolution depth map computation using multiresolution camera clusters for 3D image generation
JP6395429B2 (ja) * 2014-04-18 2018-09-26 キヤノン株式会社 画像処理装置、その制御方法及び記憶媒体
JP6642998B2 (ja) * 2014-09-17 2020-02-12 キヤノン株式会社 像ズレ量算出装置、撮像装置、および像ズレ量算出方法
US9369689B1 (en) * 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
US10356392B2 (en) * 2015-05-28 2019-07-16 University College Cork—National Univesity of Ireland, Cork Coded access optical sensor
KR101706627B1 (ko) * 2015-09-30 2017-02-17 주식회사 디아이랩 이배율 스테레오 영상을 이용한 거리 측정 장치 및 거리 측정 방법
CN108369639B (zh) * 2015-12-11 2022-06-21 虞晶怡 使用多相机和深度相机阵列的基于图像的图像渲染方法和系统
JP6611588B2 (ja) * 2015-12-17 2019-11-27 キヤノン株式会社 データ記録装置、撮像装置、データ記録方法およびプログラム
WO2017205294A1 (en) * 2016-05-26 2017-11-30 Dental Smartmirror, Inc. A dental mirror with an integrated camera, and applications thereof
US10109055B2 (en) * 2016-11-21 2018-10-23 Seiko Epson Corporation Multiple hypotheses segmentation-guided 3D object detection and pose estimation
US10554881B2 (en) * 2016-12-06 2020-02-04 Microsoft Technology Licensing, Llc Passive and active stereo vision 3D sensors with variable focal length lenses
US10397549B2 (en) * 2016-12-20 2019-08-27 Gopro, Inc. Compact array of imaging devices with supplemental imaging unit
CN108280851B (zh) * 2017-01-05 2024-04-19 钰立微电子股份有限公司 深度图产生装置
AU2017202910A1 (en) * 2017-05-02 2018-11-22 Canon Kabushiki Kaisha Image processing for turbulence compensation
US11095854B2 (en) * 2017-08-07 2021-08-17 Verizon Patent And Licensing Inc. Viewpoint-adaptive three-dimensional (3D) personas
JP6770500B2 (ja) * 2017-11-09 2020-10-14 株式会社モリタ製作所 口腔内観察装置、観察ユニット及び観察方法
JP7157303B2 (ja) * 2018-02-01 2022-10-20 ミツミ電機株式会社 認証装置
US11044418B2 (en) * 2018-07-24 2021-06-22 Black Sesame International Holding Limited Three camera alignment in mobile devices
JP7233261B2 (ja) * 2019-03-13 2023-03-06 キヤノン株式会社 3次元測量装置、撮像装置、制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017107204A (ja) * 2015-12-08 2017-06-15 キヤノン株式会社 情報処理装置及び情報処理方法
JP2018007205A (ja) * 2016-07-08 2018-01-11 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP2018014658A (ja) * 2016-07-22 2018-01-25 キヤノン株式会社 撮像装置、撮像装置の制御方法

Also Published As

Publication number Publication date
JP7431527B2 (ja) 2024-02-15
US20210042949A1 (en) 2021-02-11
US11468584B2 (en) 2022-10-11
US20230186501A1 (en) 2023-06-15

Similar Documents

Publication Publication Date Title
EP2809063B1 (en) Image capturing apparatus and image processing method
JP6643371B2 (ja) 撮像装置、制御方法、およびプログラム
EP2698658B1 (en) Image pickup apparatus, semiconductor integrated circuit and image pickup method
JP5127787B2 (ja) 複眼撮影装置及びその制御方法
JP7431527B2 (ja) 深度情報生成装置、撮像装置、深度情報生成方法、画像処理装置、画像処理方法、及びプログラム
US9030596B2 (en) Focus detection apparatus and image pickup apparatus that perform focus detection using phase difference method
JP6053479B2 (ja) 焦点検出装置、撮像装置、撮像システム、および、焦点検出方法
CN103098459B (zh) 立体摄像装置及阴影校正方法
EP3383023B1 (en) Imaging apparatus, control method, and non-transitory storage medium
JP2015194706A (ja) 焦点検出装置及びその制御方法
JP3112485B2 (ja) 立体電子スチルカメラ
JP6095266B2 (ja) 画像処理装置及びその制御方法
CN104580921A (zh) 摄像设备及其控制方法
JP2015212794A (ja) 撮像装置、その制御方法、および制御プログラム
JP2012133194A (ja) 撮像装置
JP2017181797A (ja) 焦点検出装置およびその方法、撮像装置、プログラム、記憶媒体
JP2017044821A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP6917803B2 (ja) 撮像装置、制御方法、及びプログラム
JP2014036347A (ja) 撮像装置、撮像システム、撮像装置の制御方法、プログラム、および、記憶媒体
JP2016100868A (ja) 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
JP2022173069A (ja) 画像処理装置及び方法、及び、撮像装置及びその制御方法、プログラム、記憶媒体
JP6000627B2 (ja) 焦点検出装置、その制御方法、および制御プログラム、並びに撮像装置
JP2018007205A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法及びプログラム
JP2020136697A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2005064749A (ja) カメラ

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230901

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R151 Written notification of patent or utility model registration

Ref document number: 7431527

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151