JP7098342B2 - 画像処理装置、撮像装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP7098342B2
JP7098342B2 JP2018019449A JP2018019449A JP7098342B2 JP 7098342 B2 JP7098342 B2 JP 7098342B2 JP 2018019449 A JP2018019449 A JP 2018019449A JP 2018019449 A JP2018019449 A JP 2018019449A JP 7098342 B2 JP7098342 B2 JP 7098342B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
image processing
designated
viewpoint images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018019449A
Other languages
English (en)
Other versions
JP2019140439A5 (ja
JP2019140439A (ja
Inventor
昌彦 奥沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018019449A priority Critical patent/JP7098342B2/ja
Priority to PCT/JP2019/003403 priority patent/WO2019155981A1/ja
Publication of JP2019140439A publication Critical patent/JP2019140439A/ja
Priority to US16/984,343 priority patent/US11323689B2/en
Publication of JP2019140439A5 publication Critical patent/JP2019140439A5/ja
Application granted granted Critical
Publication of JP7098342B2 publication Critical patent/JP7098342B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、視差のある複数の画像から視点を変更した画像を生成する画像処理技術に関する。
複数のマイクロレンズと、各マイクロレンズに対応する光電変換部により画素部が構成された撮像素子を用いて、視点の異なる視点画像のデータを位相差検出により取得可能な撮像装置がある。特許文献1に開示の撮像装置は、1つのマイクロレンズと2つの副画素から1画素が構成された撮像素子を用いて、2つの視点画像により焦点を検出する。1つのマイクロレンズを共有している副画素同士の画素値を加算することで1つの画素値として扱い、画像出力を得ることができる。
視差画像は視点の異なる複数の画像であるが、これらの画像のデータを記録媒体に保存しておくことで、撮影後に視点位置を別の位置に設定して画像の再生成が可能である。特許文献2では、視差画像に基づいて視点位置を変更する技術が開示されている。ユーザが撮影を行った時に狙った被写体の前に意図せずにボケがかぶってしまった場合、上記の技術を用いてボケが被写体にかぶらない位置に視点を移動することにより、撮影後に好適な画像を取得できる。
特許第3774597号公報 特開2017-184217号公報
特許文献2では、視差画像に基づいて視点を変更する方法として、視点の移動方向をユーザが指定するUI(ユーザ・インタフェース)を用いて実現している。しかし、このUIでは、例えば被写体の前側にボケ領域が被った前ボケ被り写真において、視点の移動方向と前ボケが移動する方向とが逆向きになるため、ボケ領域がどちらに移動するかについてユーザが直感的に分かりにくいという課題がある。前ボケ被りとは、主被写体である第1被写体の手前に位置する第2被写体(前景)のボケが大きい場合にボケ領域に主被写体が隠れてしまう現象である。
本発明は、視点の異なる複数の画像から画像を生成する際、分かり易い操作で視点変更を行える画像処理装置を提供することを目的とする。
本発明の一実施形態の画像処理装置は、視点の異なる複数の視点画像のデータに基づいて画像データを生成する画像処理装置であって、前記複数の視点画像のデータを取得する取得手段と、表示手段により表示された画像にて位置を指定する指定手段と、前記指定手段によって指定される位置の移動方向と移動量を検出する検出手段と、前記検出手段により前記指定手段で指定された位置が所定の領域であると検出される場合に、前記検出手段によって検出された移動方向とは逆方向に前記移動量にしたがって視点を移動させた場合の視点画像を前記複数の視点画像に基づいて生成する生成手段と、を備える。前記生成手段は、前記指定手段で指定された位置に応じて、前記検出手段によって検出された移動方向とは逆方向に視点を移動させて前記複数の視点画像を合成することと、前記検出手段によって検出された移動方向と同じ方向に視点を移動させて前記複数の視点画像を合成することとを選択的に制御する。
本発明の画像処理装置によれば、視点の異なる複数の画像から画像を生成する際、分かり易い操作で視点変更を行える画像処理装置を提供することができる。
本発明の実施形態の画像処理装置の構成図である。 撮像素子の画素配置例を示す模式図である。 撮像素子における画素構造を示す模式図である。 画素構造と瞳分割との対応関係を説明する図である。 瞳分割、およびデフォーカス量と像ずれ量の関係を示す図である。 視点画像および合成画像の例を示す図である。 画像処理部の構成例を示すブロック図である。 第1実施形態における制御を説明するフローチャートである。 図8に続く処理を示すフローチャートである。 第1実施形態の表示例の説明図である。 合成画像の生成処理を示すフローチャートである。 第1実施形態のボケ領域検出処理を説明するフローチャートである。 第2実施形態における制御を説明するフローチャートである。 第2実施形態のボケ領域検出処理を説明するフローチャートである。
本発明の好ましい実施形態を、添付図面に基づいて詳細に説明する。以下では、本発明に係る画像処理装置を適用した撮像装置にて、撮像部により取得される、視点の異なる画像を視点画像という。視差画像は、複数の視点画像により構成されるものとする。
[第1実施形態]
図1は、本実施形態に係る画像処理装置100の構成図である。画像処理装置100は撮像機能を有しており、視差を有する画像、つまり複数の視点画像のデータを記録することができる。さらに画像処理装置100は、複数の視点画像に対して画像処理を行って1枚の画像を生成し、画面表示および記録処理を行う。
撮像部101は、レンズ、シャッタ、絞り、撮像素子を備え、撮像光学系を構成するレンズを通して被写体を撮像する。撮像素子は、例えば各画素部が左右方向に分割された光電変換部を備え、一対の像信号を取得することができる。画素構造の詳細については図2を用いて後述する。バス102は、画像処理装置100内の各部を接続し、データや制御信号の送受を行う。
システム制御部103は画像処理装置100全体を制御する。システム制御部103はCPU(中央演算処理装置)を備え、図示しない不揮発性メモリ等に記憶されたプログラムを実行することで、本実施形態の各処理を実現する。メモリ104は、撮像部101から得られた視点画像データや画像処理の中間データ等を記憶する。メモリ104は、所定枚数の撮像画像データを格納するのに十分な記憶容量を有する。
画像処理部105は、メモリ104に記憶された複数の視点画像から1枚の合成画像のデータを生成し、メモリ104へ記憶する。また画像処理部105は、ガンマ補正やノイズ低減、色空間変換等の各種画像処理を行う。画像処理部105は画像処理されたデータに対してJPEG(Joint Photographic Experts Group)等のフォーマット変換を行って、記録用出力データや表示用画像データを生成し、メモリ104へ記憶する。
表示部106は液晶表示パネル等を備え、メモリ104に記憶された表示用画像データやGUI(Graphical User Interface)画面等を表示する。操作部107は、画像処理装置100に対するユーザ操作や、撮像画像に対して画像処理を行うための指示を受け付ける。操作部107は、画像処理装置100の装置本体部に設けられた操作ボタンや、表示部106の表示画面上で操作可能なタッチパネル等を備え、ユーザの操作指示をシステム制御部103に通知する。
距離情報取得部108は、メモリ104に記憶された一対の視点画像データから像ずれ量やデフォーカス量を求め、被写体の距離情報を取得する。距離情報は撮像画像の奥行き方向の深度情報であり、指定個所の被写体が結像位置より手前にあるか否かを、距離情報を用いて判定することができる。具体的には、一対の視点画像データから像ずれ量が得られ、像ずれ量からデフォーカス係数を用いて算出されるデフォーカス量の符号によって、指定個所の被写体が結像位置より手前にあるか否かを判定することができる。デフォーカス量がゼロの位置は結像位置に相当し、デフォーカス量の符号によって撮像光学系の光軸上での前後関係が判明する。
記録媒体I/F部110は、メモリカード等の記録媒体111との間でデータを送受するインタフェース部である。記録媒体111は半導体メモリ等から構成され、撮像画像データおよび当該データに関連した情報を記録する。記録媒体I/F部110を介して記録媒体111にデータが記録され、また記録媒体111からデータの読み出しが行われる。
次に、画像処理装置100の撮像機能について説明する。ユーザは操作部107を用いて画像処理装置100に撮像を指示する。図2は、撮像部101内の撮像素子における画素配置例を示す模式図であり、横4画素×縦4画素が配列された領域を代表的に示す。撮像素子は撮像光学系の瞳領域を分割して、異なる瞳部分領域を通過した光束に基づく複数の画像信号を生成可能である。具体的には、各画素部を構成する光電変換部が水平方向(瞳分割方向)に2分割されている。
本実施形態において、図2の左上の2×2の画素群200は、撮像素子に設けられた原色ベイヤー配列のカラーフィルタの繰り返し単位に対応している。R(赤)の分光感度を有する画素200Rが左上に配置され、G(緑)の分光感度を有する画素200Gが右上と左下に配置されている。B(青)の分光感度を有する画素200Bが右下に配置されている。図2の右上の画素部にて代表的に示すように、横方向に2分割された光電変換部のうち、左半分を光電変換部201とし、右半分の光電変換部202とする。光電変換部201の出力から得られる第1の画像データと、光電変換部202の出力から得られる第2の画像データは、視差画像データ(一対の視点画像データ)を構成する。つまり1回の撮像によって視差画像を生成することができる。また、光電変換部201および202の出力を加算して読み出すことで、撮像画像データを取得することができる。視差画像データおよび撮像画像データはメモリ104へ記憶される。
撮像素子にて、図2に示す4行4列の撮像画素(4行8列の光電変換部)を撮像面上に多数配置することで、撮像画像信号および視点画像信号を取得可能である。すなわち撮像画像を取得しつつ、撮像面位相差検出方式の焦点検出を行うことができる。
撮像素子における1つの画素200Gを、その受光面側(+z方向)から見た平面図を図3(A)に示す。図3(A)にて紙面に垂直な方向をz方向とし、左右方向をx方向、上下方向をy方向と定義する。手前側を+z方向とし、右方向を+x方向、上方向を+y方向と定義する。図3(A)のa-a断面を、-y方向から見た場合の断面図を図3(B)に示す。図3(B)にて紙面に垂直な方向がy方向であり、左右方向がx方向、上下方向がz方向である。
画素200Gには、受光面側に入射光を集光するためのマイクロレンズ305が形成されている。光電変換部300は、x方向にN分割、y方向にN分割される。図3の例では、N=2、N=1であり、2つの光電変換部301,302が形成されているが、分割数は任意に設定可能である。例えば、N=2、N=2として水平方向および垂直方向にそれぞれ2分割された、第1乃至第4の光電変換部が1つのマイクロレンズに対応する構造でもよい。
光電変換部301,302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオード、またはイントリンシック層を省略したpn接合フォトダイオードの構成をもつ。各画素部には、マイクロレンズ305と、光電変換部301,302との間に、カラーフィルタ306が形成される。必要に応じて、光電変換部ごとにカラーフィルタの分光透過率が変更されるか、あるいはカラーフィルタが省略される。画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306での分光後に、光電変換部301,302がそれぞれ受光する。光電変換部301,302では受光量に応じて電子とホールが対生成され、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積される。一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子外部へ排出される。光電変換部301,302のn型層に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換されて画素信号として出力される。
図4は、図3に示す画素構造と瞳分割との対応関係を説明する図である。図4の下側には、画素構造のa-a線での切断面を、+y方向から見た場合の断面図を示し、上側には撮像光学系の射出瞳面(射出瞳410参照)を、-Z方向から見た場合の図を示す。図4では、射出瞳面の座標軸と対応を取るために、画素構造の断面図にてx軸とy軸を図3に示す状態とは反転させて示している。
第1の瞳部分領域401は、-x方向に重心が偏倚している光電変換部301の受光面に対し、マイクロレンズ305によって、概ね共役関係になっている。つまり、第1の瞳部分領域401は光電変換部301が受光可能な瞳領域を表し、射出瞳面上で+X方向に重心が偏倚している。また、第2の瞳部分領域402は、+x方向に重心が偏心している光電変換部302の受光面に対し、マイクロレンズ305によって、概ね共役関係になっている。第2の瞳部分領域402は光電変換部202で受光可能な瞳領域を表し、射出瞳面上で、-X方向に重心が偏倚している。
図4に示す領域400は、光電変換部301と光電変換部302とを合わせた際の画素200G全体で受光可能な瞳領域である。撮像素子と瞳分割との対応関係を図5(A)の概略図に示す。第1の瞳部分領域401と第2の瞳部分領域402をそれぞれ通過した光束は、撮像素子の各画素に異なる角度で入射する。撮像面500への入射光は、2分割された光電変換部301,302でそれぞれ受光され、各光電変換部は光を電気信号に変換する。
撮像部101により撮像された画像のデータ、つまり、対をなす視点画像データはメモリ104に記憶される。図6を参照して、視点画像データの例を説明する。図6(A)に示す第1の視点画像701は撮像光学系を通して取得された画像であり、被写体O1~O3の領域を示す。被写体O1~O3は、撮像部101から距離d1~d3にそれぞれ存在する。図6(B)に示す第2の視点画像702は撮像光学系を通して取得された画像である。視点画像702は視点画像701と視点が異なり、被写体O1の領域と被写体O2の領域とが重なっている。これは被写体O1の方が被写体O2よりも撮像部101に近いことを意味する。
画像処理部105はメモリ104から視点画像データを読み出して所定の画像処理を行い、視差画像を1つの画像に合成する。図6(C)は、第1の視点画像701と第2の視点画像702を、1:1の比率で合成した場合の合成画像703を示す。視点画像701,702における被写体O2の位置は同一であり、合成画像703においても画像ずれは生じない。一方、視差の影響により、視点画像701,702における被写体O1およびO3の領域は水平方向の位置が異なる。そのため、合成画像703では被写体O1およびO3の領域に画像ずれが発生する。合成画像703では被写体O2に被写体O1が重なっている。これは、図6(B)の視点画像702において被写体O2に被写体O1が重なっているからである。
図6(D)は、被写体O1および被写体O2について視点画像701と視点画像702との合成比率を2:0に変更した場合の合成画像704を示す。被写体O3については視点画像701と702の合成比率が1:1で合成されるものとする。合成画像704において被写体O1および被写体O2の各領域は重なり合っていない。合成対象とする2つの画像間に生じる視差の影響により、距離d2に存在する被写体O2と、被写体O2より手前側(撮像部側)に存在する被写体O1とが重なる場合、合成比率を変更することで、合成画像にて被写体領域の重なりを低減できる。つまり合成画像において、所定の基準距離およびその近傍に位置する被写体領域の像に、それよりも手前側に位置する被写体領域の像が合成されて発生する前ボケ被りを低減し、または除去するボケ補正処理が可能である。
画像処理部105は合成画像に対して所定の画像処理を行った後に画像データをメモリ104へ記憶し、さらに記録媒体I/F部110を介して記録媒体111に画像データを記録する。このとき、合成前の視差画像データをRAWデータとして記録媒体111に記録することもできる。これらの一連の処理はシステム制御部103によって制御される。
図7は、画像処理部105の構成例として、視差画像から合成画像を生成する処理に関する機能要素を模式的に示す。画像処理部105はボケ領域検出部105a、画像合成部105b、合成比率算出部105cを備える。
ボケ領域検出部105aは、距離情報取得部108からの距離情報と複数の視点画像に基づき、複数の視点画像において合焦領域の周辺領域のうちでボケ領域を検出する。つまり、焦点が合っている第1被写体よりも手前側の第2被写体にてボケが生じている領域が検出される。合成比率算出部105cは、ボケ領域検出部105aの検出結果に基づき、複数の視点画像の画素位置ごとの合成比率を決定する。画像合成部105bは複数の視点画像データを取得し、合成比率算出部105cが算出した合成比率を用いて複数の視点画像を合成し、合成画像データを生成する。画像の合成は重み付け加算によって行われる。
本実施形態では、撮像素子の各画素部の第1の光電変換部301の受光信号を集めて第1の視点画像が生成され、第2の光電変換部302の受光信号を集めて第2の視点画像が生成される。画像処理部105は、撮像素子の画素部ごとに、第1の光電変換部301と第2の光電変換部302の加算読出しによって、所定の解像度の撮像信号を生成して撮像された画像データを出力する。図5(B)を参照して、第1の視点画像と第2の視点画像の像ずれ量とデフォーカス量との関係について説明する。
図5(B)にて、撮像面500上に撮像素子(不図示)が配置されている。撮像光学系の射出瞳410は、第1の瞳部分領域401と第2の瞳部分領域402に2分割される。デフォーカス量dは、その大きさ|d|が被写体像の結像位置から撮像面500までの距離を表す。被写体像の結像位置が撮像面500よりも被写体側にある前ピン状態では、負符号(d<0)とし、これとは反対の後ピン状態では正符号(d>0)として向きを定義する。被写体像の結像位置が撮像面(合焦位置)にある合焦状態では、d=0である。図5(B)に示す被写体601の位置は、合焦状態(d=0)に対応する位置を例示し、被写体602の位置は前ピン状態(d<0)に対応する位置を例示する。以下では、前ピン状態(d<0)と後ピン状態(d>0)とを併せて、デフォーカス状態(|d|>0)という。
前ピン状態(d<0)では、被写体602からの光束のうち、第1の瞳部分領域401(または第2の瞳部分領域402)を通過した光束は、いったん集光した後、光束の重心位置G1(またはG2)を中心として幅Γ1(またはΓ2)に広がる。この場合、撮像面500上でボケた像となる。ボケ像は、撮像素子に配列された各画素を構成する光電変換部301(または光電変換部302)により受光され、第1の視点画像(または第2の視点画像)が生成される。よって、第1の視点画像(または第2の視点画像)は、撮像面500上の重心位置G1(またはG2)にて、幅Γ1(またはΓ2)をもった被写体像(ボケ像)として検出される。被写体像の幅Γ1(またはΓ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね比例して増加する。同様に、第1の視点画像と第2の視点画像との間の被写体像の像ずれ量を「p」と記すと、その大きさ|p|はデフォーカス量dの大きさ|d|の増加に伴って増加する。例えば、像ずれ量pは光束の重心位置の差「G1-G2」として定義され、その大きさ|p|は、|d|が増加するのに伴い、概ね比例して増加する。なお、後ピン状態(d>0)では、第1の視点画像と第2の視点画像との間の被写体像の像ずれ方向が前ピン状態とは反対となるが、同様の傾向がある。本実施形態では第1の視点画像と第2の視点画像、または第1の視点画像と第2の視点画像とを加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1の視点画像と第2の視点画像との間の像ずれ量の大きさが増加する。
撮像光学系の焦点調節制御では、デフォーカス量の大きさおよび符号に応じてフォーカスレンズが駆動され、所定の被写体に焦点が合った合焦位置へフォーカスレンズが移動される。画像処理部105はデフォーカス量の分布を表すデフォーカスマップを生成する。
次に画像処理装置100の画像編集機能について説明する。ユーザは操作部107を用いて画像編集モードへの移行を画像処理装置100に指示することができる。ユーザが画像編集モードのメニュー表示画面でボケシフト機能を選択すると、画像処理装置100は記録媒体111に記録された画像データを読み出す。ボケシフト機能とは、ボケ補正処理によってボケ領域の位置を変更する機能である。この機能により、画像内の所定の被写体領域に対するボケ領域の相対的な位置を変更することができる。画像処理装置100は視差画像を含むRAWデータを抽出し、表示部106の画面上にサムネイル画像の一覧表示を行う。ユーザが所望のサムネイル画像を選択すると、選択されたサムネイル画像に対応する視差画像が画面上に表示され、ボケシフト編集モードに移行する。
図8から図10を参照して、画像編集機能におけるボケシフト処理に関して説明する。図8および図9は、ボケシフト編集機能における視点変更を説明するフローチャートであり、以下の処理はシステム制御部103のCPUがプログラムを実行することにより実現される。図10は表示部106の表示例を示す図である。図10(A)は、編集前の状態を表示した図であり、撮像対象に対応する被写体領域1001の前に、点線枠で示す領域1002で前ボケ被りが発生している様子を示す。
先ず、ユーザは操作部107を用いて、表示部106に表示された画像の中から移動させたい対象を指定する。システム制御部103は、ユーザ操作により指定された画像上の座標データをメモリ104に記憶する(S2001)。画像処理部105は、編集中の画像について、前ボケ領域の検出を行う(S2002)。前ボケ領域の検出は、画像中のボケ領域を検出し、その領域中から結像位置よりも手前側(撮像装置側)にあるボケのみを抽出することによって行われる。ボケ領域検出処理の詳細については、図12を用いて後述する。ボケ領域の検出後に画像処理部105は、距離情報取得部108による距離情報を用いて、結像位置よりも手前にあるボケ領域と判定された領域を前ボケ領域とする。
システム制御部103は、S2001でメモリ104に記憶しておいた座標データと、S2002で検出された前ボケ領域から、ユーザの指定した位置が前ボケ領域内であるか否かを判定する(S2003)。判定の結果、ユーザの指定した位置が前ボケ領域内である場合、S2004の処理に進み、ユーザの指定した位置が前ボケ領域内でない場合にはS2005の処理に進む。
S2004でシステム制御部103は、S2002で検出された前ボケ領域を強調表示して表示部106の表示内容を更新する処理を実行する。また、S2005でシステム制御部103は、S2002で検出された前ボケ領域以外の領域を強調表示して表示部106の表示内容を更新する処理を実行する。S2004またはS2005の後、S2006に処理を進める。S2006では、選択後のユーザの操作可能範囲を明示するために、ユーザの選択した点を中心としてスライド操作の可能範囲が表示部106の画面に表示される。図10(B)を用いて、具体例を説明する。
図10(B)は、ボケシフト編集機能においてユーザの指定した位置が、S2003の処理で前ボケ領域内にあると判定された状態を表す図である。領域1003は、前ボケ領域であることを強調することによって、ユーザの指定した位置が前ボケ領域内であることを示している。スライド操作の可能範囲1004は、S2006にてユーザのスライド操作が可能な範囲を表す。可能範囲1004はユーザが指定した位置を中心として所定の幅を有し、図10ではスケール表示の例を示している。なお、表示されるスライド操作の可能範囲1004については、前ボケ領域が画面上で移動する距離を表示させる必要はない。視点変更による前ボケ領域の移動をユーザが微調整できるように、画面上のスライド操作の可能範囲1004が表示され、ユーザ操作によりスケール調整を行うことができる。また、スライド操作に限らず、ドラッグ操作、フリック操作などで同等の操作を実施可能にしてもよい。
上記動作は、ユーザが表示部106の画面部のタッチパネルに手指を接触させることで直接操作を行う動作である。これに限らず、カーソルを表示部106の画面に表示し、ユーザが画像処理装置100に配置されたボタンやポインティングデバイス等でカーソルを動かして所定の場所を選択する方法でもよい。この場合、他の場所に操作可能範囲を表示してもよい。
図10(C)は、図8のS2003で前ボケ領域以外の外部領域が指定されたことが判定された場合の例を示す。領域1005は、前ボケ領域の外部領域が選択されたことがわかるように強調表示される。図10(C)に示す強調表示方法は一例である。例えば、被写体領域1001上をユーザが指定した場合、画像処理装置100は被写体領域の認識処理を行い、被写体領域1001のみ、またはその外形領域のみを強調するように表示してもよい。
図8のS2006の次にシステム制御部103は、ユーザのスライド操作が行われたか否かを判定する(S2007)。ユーザが指定した位置から、可能範囲1004で示す範囲内でスライド操作が行われた場合、S2008の処理に進む。スライド操作が行われない間、S2007の判定処理が繰り返される。S2008でシステム制御部103は、スライド操作後の座標データと、S2001で記憶された座標データから、ユーザがスライド操作を行った方向とスライド距離を算出する。次にシステム制御部103は、S2008で算出したスライド距離から視点移動量を決定する(S2009)。システム制御部103は、S2002で検出された領域が前ボケ領域であるか否かを判定する(図9:S2010)。前ボケ領域が指定されていると判定された場合、S2011の処理に進み、前ボケ領域以外の領域が指定されていると判定された場合、S2012の処理に進む。
S2011でシステム制御部103は、S2008で算出したスライド操作方向(例えば、図10(B)の左方向)と逆方向に視点移動方向を決定する。またS2012でシステム制御部103は、S2008で算出したスライド操作方向(例えば、図10(C)の右方向)と同じ方向に視点移動方向を決定する。S2011またはS2012の後、S2013でシステム制御部103は、決定した視点移動量と視点移動方向に基づいて視点位置を決定する。
画像処理部105は、S2013で決定された視点位置にしたがって、視差画像の合成処理を行い、記録用画像と表示用画像の各データを生成してメモリ104に記憶する(S2014)。図10(D)を参照して具体例を説明する。
図10(D)は、視点移動後の合成画像を表示した例を示す。ユーザ操作によって視点移動操作が行われ、視点変更処理が実行される。その結果、図10(A)では被写体領域1001にかぶっていた前ボケ領域1002は、被写体領域1001にかぶらない位置の領域1006に移動しており、ユーザの意図する画像が得られる。
図9のS2015で表示部106はメモリ104に記憶された表示用画像データを読み出して表示内容を更新する。このとき、表示部106の画面に表示される結果を保存するか否かを指定するためのGUI表示が行われ、ユーザからの指示を受け付ける処理が実行される。
S2016でシステム制御部103は、ユーザ操作を受け付けて表示データを保存するか否かを判断する。ユーザがデータの保存を指示したことが判断された場合、S2017の処理に進む。S2017にてシステム制御部103および画像処理部105は、S2013で決定した視点位置に基づいて保存用の画像データを合成し、各種の画像処理を行った後に記録媒体111に画像データを記録して、編集モードを終了する。S2016でユーザがデータの保存を指示しなかった場合には、データを保存せずに編集モードを終了する。
図9のS2014およびS2017の処理に関し、図11を参照して、視差画像から視点を変更して合成画像を生成する処理について説明する。図11は、合成画像の生成処理を示すフローチャートである。以下、合成前の視差画像AおよびBに関して、画像Aを第1の視点画像とし、画像Bを第2の視点画像とする。
図11のS401で画像処理部105は、視差画像AおよびBのデータをメモリ104、記録媒体111、または外部装置等から取得して画像合成部105bに供給する。S402で画像合成部105bは、S401で取得した視差画像AおよびBのデータを基準合成比率1:1で合成し、合成画像Cのデータを生成する。S403でボケ領域検出部105aは視差画像に関連する距離情報に基づき、視差画像AおよびB、および合成画像Cから、合焦距離の近傍に位置する被写体の領域に含まれるボケ領域を検出する。このボケ領域は、合焦距離の被写体よりも手前側(撮像装置側)に位置する被写体に起因する前ボケ被りの領域である。
S404で画像処理部105は、ボケ領域検出部105aによりボケ領域が検出されたか否かを判定する。ボケ領域が検出されたと判定された場合、S406の処理へ進み、検出されないことが判定された場合、S405へ処理を進める。S405で画像処理部105は、S402で生成された合成画像Cのデータを出力し、合成画像の生成処理を終了する。
S406で合成比率算出部105cは、視点移動方向および移動量に応じて視差画像AおよびBの、画素ごとの合成比率を決定する。S404にてボケ領域が検出されている場合、ボケ領域に対する視差画像AとBとの合成比率が算出される。ボケ領域以外については、ボケ領域から所定距離以上の画素に関し、視差画像AとBとの合成比率が基準合成比率「1:1」に設定される。ボケ領域から所定距離未満の画素については、ボケ領域の合成比率と基準合成比率と距離等に応じて線形補間により合成比率が算出される。対象画素についてのボケ領域からの距離は、当該画素とボケ領域の外縁を形成する画素との最短距離とすることができる。合成比率算出部105cが画素ごとの合成比率を決定すると、S407の処理に進む。S407で画像合成部105bは、合成比率算出部105cで画素ごとに決定された合成比率を用いて、視差画像AとBとを合成し、合成画像Dのデータを生成して出力する。合焦位置にある第1被写体に対して、その手前に存在する第2被写体のボケ像が合成されることにより第1被写体の像の画質が低下する前ボケ被りは、視差画像AとBの合成比率を変更して補正することで抑制できる。
図12のフローチャートを参照して、S403のボケ領域検出処理について説明する。S501で、画像処理部105は、視差画像AおよびBのデータからデフォーカスマップを生成する。デフォーカスマップは、画像の領域ごと、または画素ごとのデフォーカス量を表す情報である。デフォーカス量は、撮像装置から被写体までの距離に対応しており、撮像画像の奥行き方向の深度情報を表した被写体距離情報に相当する。デフォーカスマップの生成方法は公知である。例えば、視差画像AおよびBをそれぞれ複数の領域に分割し、対応する分割領域内の画素値の相関量が最大となる相対移動量を検出する処理が行われる。相対移動量はシフト量、あるいは像ずれ量に相当し、着目領域に対する位相差として検出される。デフォーカス量は像ずれ量に所定の変換係数を乗算することで算出され、デフォーカス量の分布を示すデフォーカスマップが生成される。変換係数は、撮像光学系の口径、視差画像AおよびBの感度分布の重心間隔等に基づいて決定される。なお、被写体距離情報としては、デフォーカスマップに限らず、像ずれ量の分布を示す像ずれ量マップや、デフォーカス量を被写体の距離情報に換算した距離マップを用いてもよい。
S502でボケ領域検出部105aは、S501で生成したデフォーカスマップから、デフォーカス量が予め定められた閾値以下の領域と、その周辺領域を選択する。合焦距離にある被写体の領域とその周辺領域が検出される。例えば、デフォーカスマップに基づいて、焦点深度内の領域を選択する場合を想定する。1つの画素部が2つの光電変換部を有する構成の場合、撮像光学系の絞り値(F値)をF、許容錯乱円径をδと記すと、デフォーカス量の絶対値が2Fδ以下である領域が選択される。1つの画素部が縦N個×横N個の光電変換部を有する構成の場合には、デフォーカス量の絶対値がNFδ以下である領域が選択される。
S503でボケ領域検出部105aは、S502で選択された領域のそれぞれについて、ボケ領域が含まれているか否かを検出する。具体的には、画像合成部105bは、視差画像AとBの合成比率をα:(2.0-α)として、0≦α≦2.0の範囲でαの値を変化させて複数の合成画像K(α)を生成する。合成画像K(α)は、S502で選択された領域についてのみ生成すればよいが、全領域について生成してもよい。ボケ領域検出部105aは、S502で選択された各領域をさらに分割した小領域ごとに、個々の合成画像K(α)について評価値を算出する。評価値は、合成画像K(α)と、S402で生成された合成画像Cとの画素値の差分絶対値和として算出され、積分される。また、ボケ領域検出部105aは、評価値が最大となるα値を小領域ごとにメモリに記憶する。α値は、画像処理部105の処理能力や、合成画像に要求される画質等に基づいて決定される。
S504でボケ領域検出部105aは、予め定められた数の合成画像K(α)について、各小領域における評価値を積分し、積分値が所定の閾値以上である小領域を検出する。検出される小領域は、合成比率を基準合成比率1:1から変化させたことによって評価値が有意に変化した領域であり、合成比率を変化させることによるボケ補正が有効な領域に相当する。
S505でボケ領域検出部105aは、S504で検出した小領域ごとに、評価値(画素値の差分絶対値和)が最大となるα値を対応付けてメモリに記憶する。小領域に対するボケ補正効果が最も得られる合成比率はα:(2.0-α)である。
本実施形態では、ユーザが着目した領域を指定し、指定領域とスライド操作方向および操作量に応じて視点移動方向および移動量を決定して視点変更処理を行う。ユーザが画像中の移動させたい領域を指定するとともに、指定した領域の移動方向および移動量を指定する操作を行うことができる。よって、ユーザにとって直感的な操作で視点変更処理を行える。なお、上記の説明では、視点を変更して合成処理する領域は特に指定されていないが、ユーザが指定した所定の領域のみに視点変更処理を適用してもよい。本実施形態によれば、視点の異なる複数の画像から合成画像を生成する際、視点位置の変更によって出力画像がどのように変化するかを直感的に把握することができる。視点の移動方向を指定する方法に比べて、ユーザは分かり易い操作で視点変更を行える。
[第2実施形態]
続いて本発明の第2実施形態を説明する。本実施形態では、ユーザにより指定される方向が前ボケの移動する方向であることが第1実施形態との相違点である。本実施形態では主に第1実施形態との相違点を説明し、第1実施形態と同様の構成については既に使用した符号を用いることで、それらの詳細な説明を省略する。
図13のフローチャートを参照して、本実施形態のシステム制御部103が行う制御について説明する。ボケシフト編集機能のモードに入り、ユーザがスライド操作を開始すると、システム制御部103はスライド開始位置をメモリ104に記憶する(S4001)。システム制御部103は、画像上のスライド開始位置付近にスライド操作の可能範囲(図10(B)参照)を表示させる制御を行う(S4002)。
ユーザがS4002にて図示された可能範囲内でスライド操作を行うと、システム制御部103は、S4001で記憶しておいた座標データとスライド操作後の座標データから、ユーザがスライド操作した方向とスライド距離を算出する(S4003)。システム制御部103は、S4003で算出したスライド距離から視点移動量を決定し、スライド操作方向に前ボケ領域が移動するように、S4003にて算出したスライド操作方向と逆方向に視点移動方向を決定する(S4004)。
システム制御部103は、決定した視点移動量と視点移動方向に基づいて視点位置を決定する(S4005)。画像処理部105は視差画像データを合成し、記録用画像データと表示用画像データを生成してメモリ104に記憶する(S4006)。表示部106は、メモリ104に記憶された表示用画像データを読み出して表示内容を更新する(S4007)。このとき、表示部106の画面上の表示結果を保存するか否かを指定するためのGUI表示が行われ、ユーザからの指示を受け付ける処理が実行される。
S4008でシステム制御部103は、表示データを保存するか否かを判断する。ユーザがデータの保存を指示したことが判断された場合、S4009の処理に進む。S4009にて、システム制御部103および画像処理部105は、保存用の画像データを生成し、各種の画像処理を行った後に記録媒体111に画像データを記録して、編集モードを終了する。S4008でユーザが表示データの保存を指示しなかった場合、当該データを保存せずに編集モードを終了する。ここで、ユーザから再度スライド操作が行われた場合は、再度編集モードが開始され、S4001へ進むことになる。
図14のフローチャートを参照して、本実施形態におけるボケ領域検出処理について説明する。S501およびS502の処理は、図12と同じであるので説明を省略し、S601からS606の処理を説明する。
S502の次に、S601でボケ領域検出部105aは、視差画像AとBの合成比率を変更した合成画像K(α)の生成処理を開始する。S602でボケ領域検出部105aは個々の合成画像K(α)に対し、S502で選択された領域それぞれについて評価値を算出する。この評価値は、合焦度合いを表すコントラスト評価値である。コントラスト評価値は公知の方法で算出できる。例えば、ボケ領域検出部105aは、コントラスト評価値を求める画像領域にバンドパスフィルタを適用して所定の周波数帯域の成分を抽出し、抽出された成分に微分フィルタを適用して隣接画素同士の差分値を算出する。ボケ領域検出部105aは、算出した差分値の最大値を、処理対象の画像領域の各ラインについて検出し、その積算値を当該画像領域のコントラスト評価値とする。
S603でボケ領域検出部105aは、全ての合成画像K(α)について、処理対象の画像領域のコントラスト評価値を算出したか否かを判定する。コントラスト評価値がすべて算出されたと判定された場合、S604へ処理を進め、算出がまだ終了していないと判定された場合には、S602に戻って処理を続行する。
S604でボケ領域検出部105aは、各画像領域について算出したコントラスト評価値の変化量として、最大値と最小値との差分を算出する。S605でボケ領域検出部105aは、コントラスト評価値の変化量および変化の傾向が以下の条件(1)および(2)を満たす画像領域を選択する。
(1)コントラスト評価値の変化量が閾値以上であること。
(2)一方の視点画像(例えばA)の合成比率を徐々に高くし、他方の視点画像(例えばB)の合成比率を徐々に低くした合成画像K(α)について、コントラスト評価値が単調増加または単調減少していること。
条件(1)に関して、合成比率を変化させたことでコントラスト評価値に一定以上の差が生じた領域は、合成比率を変えることによって合焦度合いが変化している領域である。つまり、この領域はボケ補正が有効な領域である。また、条件(2)に関しては、画像合成によるボケが生じていない領域のコントラスト評価値が視差画像Bの合成比率にかかわらず一定である。これに対し、画像合成によるボケが生じている領域のコントラスト評価値は、例えば視差画像Bの合成比率の単調増加に応じて単調減少する。
2つの条件のうちの条件(1)を課すだけでも、ある程度の精度で補正対象とするボケ領域は検出できるが、条件(2)をさらに課すことで、合成によってボケが生じている領域を精度良く検出できる。なお、条件(1)の判定に用いる閾値は、あらかじめ設定された固定値または可変値である。可変値の場合には、撮影感度や被写体輝度等の組み合わせに応じて閾値が変化する。
S606でボケ領域検出部105aは、処理対象となる画像領域ごとに、コントラスト評価値が最大となる合成画像K(α)の合成比率を対応付けてメモリ104に記憶する。この合成比率は個々の画像領域でボケ補正効果が最も得られる合成比率を示す。
本実施形態によれば、ユーザは前ボケの移動方向のみに着目して操作できるので、より直感的な操作で視点変更処理を行うことができる。
前記実施形態では、左右方向において瞳分割された光電変換部を有する撮像素子によって視差画像データを取得する例を説明したが、これに限ったことではない。例えば、左右および上下方向の視差画像を取得可能な多眼カメラを用いてもよい。この場合、ユーザが行うスライド操作については、画像内の2次元方向(上下左右方向)で指定することができ、視点の移動方向についても同様に2次元方向で決定することができる。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像処理装置
101 撮像部
103 システム制御部
105 画像処理部
106 表示部
107 操作部
108 距離情報取得部

Claims (15)

  1. 視点の異なる複数の視点画像のデータに基づいて画像データを生成する画像処理装置であって、
    前記複数の視点画像のデータを取得する取得手段と、
    表示手段により表示された画像にて位置を指定する指定手段と、
    前記指定手段によって指定される位置の移動方向と移動量を検出する検出手段と、
    前記検出手段により前記指定手段で指定された位置が所定の領域であると検出される場合に、前記検出手段によって検出された移動方向とは逆方向に前記移動量にしたがって視点を移動させた場合の視点画像を前記複数の視点画像に基づいて生成する生成手段と、を備え
    前記生成手段は、前記指定手段で指定された位置に応じて、前記検出手段によって検出された移動方向とは逆方向に視点を移動させて前記複数の視点画像を合成することと、前記検出手段によって検出された移動方向と同じ方向に視点を移動させて前記複数の視点画像を合成することとを選択的に制御する
    ことを特徴とする画像処理装置。
  2. 視点の異なる複数の視点画像のデータに基づいて画像データを生成する画像処理装置であって、
    前記複数の視点画像のデータを取得する取得手段と、
    前記視点画像に関連する距離情報を取得する距離情報取得手段と、
    表示手段により表示された画像にて位置を指定する指定手段と、
    前記指定手段によって指定される位置の移動方向と移動量を検出する検出手段と、
    前記検出手段により前記指定手段で指定された位置が所定の領域であると検出される場合に、前記検出手段によって検出された移動方向とは逆方向に前記移動量にしたがって視点を移動させた場合の視点画像を前記複数の視点画像に基づいて生成する生成手段と、を備え
    前記生成手段は、前記距離情報と前記複数の視点画像のデータを用いて、複数の被写体のうちで焦点が合っている第1被写体よりも撮像手段の側に位置する第2被写体にてボケが生じているボケ領域を検出する
    ことを特徴とする画像処理装置。
  3. 前記視点画像に関連する距離情報を取得する距離情報取得手段を備え、
    前記生成手段は、前記距離情報と前記複数の視点画像のデータを用いて、複数の被写体のうちで焦点が合っている第1被写体よりも像手段の側に位置する第2被写体にてボケが生じているボケ領域を検出する
    ことを特徴とする請求項に記載の画像処理装置。
  4. 前記生成手段は、
    前記ボケ領域を検出するボケ領域検出手段と、
    前記ボケ領域検出手段が検出した前記ボケ領域に対応する前記複数の視点画像の合成比率を算出する算出手段と、
    前記算出手段が算出した前記合成比率を用いて、前記複数の視点画像を合成して前記移動量にしたがって視点を移動させた場合の視点画像を生成する画像合成手段と、を備える
    ことを特徴とする請求項2または請求項3に記載の画像処理装置。
  5. 前記指定手段によって前記ボケ領域内の位置が指定された場合、前記画像合成手段は、前記検出手段によって検出された移動方向とは逆方向に視点を移動させて前記複数の視点画像を合成する
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記指定手段によって前記ボケ領域の外部の領域内の位置が指定された場合、前記画像合成手段は、前記検出手段によって検出された移動方向と同じ方向に視点を移動させて前記複数の視点画像を合成する
    ことを特徴とする請求項4または請求項5に記載の画像処理装置。
  7. 前記表示手段は、前記指定手段によって指定された位置を含む領域を強調表示する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記指定手段によって指定した位置を中心とするスライド操作の範囲を、前記表示手段に表示させる制御を行う制御手段を備える
    ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記距離情報は、前記複数の視点画像に係る像ずれ量またはデフォーカス量の分布を表す情報である
    ことを特徴とする請求項乃至6のいずれか1項に記載の画像処理装置。
  10. 前記取得手段は、撮像光学系の異なる瞳部分領域をそれぞれ通過した光を、複数の光電変換部により光電変換して得られた画素信号から生成される前記複数の視点画像のデータを取得する
    ことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 請求項1乃至10のいずれか1項に記載の画像処理装置と、
    被写体を撮像する撮像素子を備える
    ことを特徴とする撮像装置。
  12. 前記撮像素子は、複数のマイクロレンズと、複数の光電変換部を有し、各マイクロレンズがそれぞれ前記複数の光電変換部に対応しており、
    前記各マイクロレンズに対応する前記複数の光電変換部の出力から前記複数の視点画像のデータが生成される
    ことを特徴とする請求項11に記載の撮像装置。
  13. 視点の異なる複数の視点画像のデータに基づいて画像データを生成する画像処理装置にて実行される画像処理方法であって、
    前記複数の視点画像のデータを取得する工程と、
    表示手段により表示された画像にて指定手段によって位置を指定する工程と、
    前記指定手段によって指定される位置の移動方向と移動量を検出手段が検出する工程と、
    前記指定手段で指定された位置が所定の領域であると検出される場合に、前記検出手段によって検出された移動方向とは逆方向に前記移動量にしたがって視点を移動させた場合の視点画像を前記複数の視点画像に基づいて生成する生成工程と、を有し、
    前記生成工程では、前記指定手段で指定された位置に応じて、前記検出手段によって検出された移動方向とは逆方向に視点を移動させて前記複数の視点画像を合成することと、前記検出手段によって検出された移動方向と同じ方向に視点を移動させて前記複数の視点画像を合成することとが選択的に制御される
    ことを特徴とする画像処理方法。
  14. 視点の異なる複数の視点画像のデータに基づいて画像データを生成する画像処理装置にて実行される画像処理方法であって、
    前記複数の視点画像のデータと前記視点画像に関連する距離情報を取得する工程と、
    表示手段により表示された画像にて指定手段によって位置を指定する工程と、
    前記指定手段によって指定される位置の移動方向と移動量を検出手段が検出する工程と、
    前記指定手段で指定された位置が所定の領域であると検出される場合に、前記検出手段によって検出された移動方向とは逆方向に前記移動量にしたがって視点を移動させた場合の視点画像を前記複数の視点画像に基づいて生成する生成工程と、を有し、
    前記生成工程では、前記距離情報と前記複数の視点画像のデータを用いて、複数の被写体のうちで焦点が合っている第1被写体よりも撮像手段の側に位置する第2被写体にてボケが生じているボケ領域を検出する処理が行われる
    ことを特徴とする画像処理方法。
  15. 請求項13または請求項14に記載の各工程を画像処理装置のコンピュータに実行させるためのプログラム。
JP2018019449A 2018-02-06 2018-02-06 画像処理装置、撮像装置、画像処理方法、およびプログラム Active JP7098342B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018019449A JP7098342B2 (ja) 2018-02-06 2018-02-06 画像処理装置、撮像装置、画像処理方法、およびプログラム
PCT/JP2019/003403 WO2019155981A1 (ja) 2018-02-06 2019-01-31 画像処理装置、撮像装置、画像処理方法、およびプログラム
US16/984,343 US11323689B2 (en) 2018-02-06 2020-08-04 Image processing device, imaging device, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018019449A JP7098342B2 (ja) 2018-02-06 2018-02-06 画像処理装置、撮像装置、画像処理方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2019140439A JP2019140439A (ja) 2019-08-22
JP2019140439A5 JP2019140439A5 (ja) 2021-03-11
JP7098342B2 true JP7098342B2 (ja) 2022-07-11

Family

ID=67549614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018019449A Active JP7098342B2 (ja) 2018-02-06 2018-02-06 画像処理装置、撮像装置、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11323689B2 (ja)
JP (1) JP7098342B2 (ja)
WO (1) WO2019155981A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10818721B2 (en) * 2018-08-22 2020-10-27 Stmicroelectronics (Research & Development) Limited Pixel circuit and method of operating the same in an always-on mode
CN117011507B (zh) * 2023-09-04 2024-01-26 南京诺源医疗器械有限公司 一种2cmos图像识别数据分析方法和系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104049898A (zh) 2014-06-26 2014-09-17 苏宁云商集团股份有限公司 触摸屏操作方法和装置以及触摸终端
JP2014526096A (ja) 2011-07-21 2014-10-02 クォルコム・メムズ・テクノロジーズ・インコーポレーテッド タッチ感知ディスプレイデバイス及びそれに関連した方法
JP2015193280A (ja) 2014-03-31 2015-11-05 富士通テン株式会社 車両制御装置及び車両制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3774597B2 (ja) 1999-09-13 2006-05-17 キヤノン株式会社 撮像装置
JP4868236B2 (ja) * 2004-12-21 2012-02-01 ソニー株式会社 画像処理装置と画像処理方法および画像処理プログラム
JP5230684B2 (ja) * 2010-05-13 2013-07-10 パナソニック株式会社 電子機器、表示方法、及びプログラム
JP2012114816A (ja) * 2010-11-26 2012-06-14 Sony Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2013116138A (ja) * 2011-12-01 2013-06-13 Sony Corp 画像処理装置及び方法
WO2014050681A1 (ja) * 2012-09-26 2014-04-03 富士フイルム株式会社 画像処理装置、方法及びプログラム、プリンタ、表示装置
WO2014165244A1 (en) * 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
CN106716985B (zh) * 2014-09-08 2019-07-30 富士胶片株式会社 摄像控制装置、摄像控制方法、及相机系统
US10085005B2 (en) * 2015-04-15 2018-09-25 Lytro, Inc. Capturing light-field volume image and video data using tiled light-field cameras
JP2017098929A (ja) * 2015-11-17 2017-06-01 キヤノン株式会社 画像処理装置および画像処理方法
CN105898460A (zh) * 2015-12-10 2016-08-24 乐视网信息技术(北京)股份有限公司 调整智能电视的全景视频播放视角的方法和装置
JP6757184B2 (ja) 2016-03-24 2020-09-16 キヤノン株式会社 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
US10524018B2 (en) * 2016-08-30 2019-12-31 Samsung Electronics Co., Ltd. Apparatus and method for displaying image
US10614606B2 (en) * 2016-11-30 2020-04-07 Ricoh Company, Ltd. Information processing apparatus for creating an animation from a spherical image
JP7154789B2 (ja) * 2018-03-27 2022-10-18 キヤノン株式会社 表示制御装置、その制御方法、プログラム及び記憶媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014526096A (ja) 2011-07-21 2014-10-02 クォルコム・メムズ・テクノロジーズ・インコーポレーテッド タッチ感知ディスプレイデバイス及びそれに関連した方法
JP2015193280A (ja) 2014-03-31 2015-11-05 富士通テン株式会社 車両制御装置及び車両制御方法
CN104049898A (zh) 2014-06-26 2014-09-17 苏宁云商集团股份有限公司 触摸屏操作方法和装置以及触摸终端

Also Published As

Publication number Publication date
WO2019155981A1 (ja) 2019-08-15
JP2019140439A (ja) 2019-08-22
US20200366882A1 (en) 2020-11-19
US11323689B2 (en) 2022-05-03

Similar Documents

Publication Publication Date Title
US9247227B2 (en) Correction of the stereoscopic effect of multiple images for stereoscope view
EP2566150B1 (en) Image processing apparatus, image processing method, and program
CN103493484B (zh) 成像装置和成像方法
JP5657343B2 (ja) 電子機器
EP2693756B1 (en) Image pickup apparatus, image pickup device, image processing method, aperture control method, and program
JP5421829B2 (ja) 撮像装置
JP2018107654A (ja) 画像処理装置および画像処理方法、プログラム、記憶媒体
JP2017184217A (ja) 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
CN103039066A (zh) 成像装置、图像处理装置以及图像处理方法
JP2013044806A (ja) 撮像装置
JP6095266B2 (ja) 画像処理装置及びその制御方法
JP7098342B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP2015215571A (ja) 撮像装置およびその制御方法
EP2911383B1 (en) Image processing apparatus, control method, program, and recording medium
JP6728020B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6056160B2 (ja) 自動合焦装置、自動合焦方法及びプログラム
JP6648916B2 (ja) 撮像装置
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP2017204787A (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP2017098929A (ja) 画像処理装置および画像処理方法
US11514556B2 (en) Image processing apparatus, image processing method, and image pickup apparatus for displaying image for use in focusing operation
US20220358667A1 (en) Image processing apparatus and method, and image capturing apparatus and control method thereof, and storage medium
JP7395326B2 (ja) レンズ装置、撮像装置、通信方法、および、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220629

R151 Written notification of patent or utility model registration

Ref document number: 7098342

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151