JP6230239B2 - 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体 - Google Patents

画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP6230239B2
JP6230239B2 JP2013026538A JP2013026538A JP6230239B2 JP 6230239 B2 JP6230239 B2 JP 6230239B2 JP 2013026538 A JP2013026538 A JP 2013026538A JP 2013026538 A JP2013026538 A JP 2013026538A JP 6230239 B2 JP6230239 B2 JP 6230239B2
Authority
JP
Japan
Prior art keywords
image
region
imaging
boundary
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013026538A
Other languages
English (en)
Other versions
JP2014158070A (ja
Inventor
薫 江口
薫 江口
弘至 畠山
弘至 畠山
法人 日浅
法人 日浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013026538A priority Critical patent/JP6230239B2/ja
Priority to US14/178,338 priority patent/US9521316B2/en
Priority to CN201410050633.3A priority patent/CN103997599B/zh
Publication of JP2014158070A publication Critical patent/JP2014158070A/ja
Application granted granted Critical
Publication of JP6230239B2 publication Critical patent/JP6230239B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules

Description

本発明は、被写体空間における光の2次元強度分布および光線の角度情報を取得する撮像装置、および、そのような撮像装置で取得された画像から再構成画像を生成する画像処理装置に関する。
近年、撮像素子で取得されたデータから演算を行い、それに応じたデジタル画像処理を行うことで様々な画像の出力を行う撮像装置が提案されている。非特許文献1には、「Light Field Photography」を用いて、被写体空間の光の2次元強度分布と光線の角度情報を同時に取得する撮像装置が開示されている。ここで、光の2次元強度分布と光線の角度情報を合わせてライトフィールドと呼び、ライトフィールドを取得することにより被写体空間の3次元的な情報を得ることができる。このような撮像装置によれば、ライトフィールドを取得して撮影後に画像処理を行うことにより、リフォーカスと呼ばれる画像のピント位置、撮影視点、被写界深度などを変更(調整)することが可能である。
一方、写真表現としては、ポートレート撮影や花や昆虫などのマクロ撮影において、意図的に前景や背景をぼかすことにより主要被写体を浮かび上がらせる写真表現が好まれる。このような写真表現を行う場合、美しい背景ぼけを得るため、被写界深度の浅い撮像装置で撮影されることが多い。しかしながら、被写界深度の浅いレンズを使用すると、美しい背景ぼけは得られるものの、被写体自体に奥行きがある場合には被写体全体をくっきりと写すことができず、被写体の一部がぼけてしまう。これを防ぐために被写界深度を深くして撮影すると、美しいぼけが得られない。このように、従来の撮像装置では、背景ぼけと被写界深度を独立に制御することができない。
特許文献1には、ピント位置を変更して複数の画像を撮影することにより、ぼけ制御を行う構成が開示されている。
特開2011−211523号公報
Ren Ng,et al.,"Light Field Photography with a Hand−held Plenoptic Camera",2005 Computer Science Technical Report CTSR
しかしながら、特許文献1の構成では、複数の画像を撮影する必要があるため、例えば、昆虫などの動きの速い動体を撮影する場合、複数の画像の撮影に生じる時間差により複数の画像の各々に含まれる動体の位置が異なってしまう。このため、複数の撮影画像を用いてぼけ制御を行うことが困難な場合がある。
そこで本発明は、一画像中の複数の領域ごとに異なる撮影条件値を適用して再構成画像を生成可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供する。
本発明の一側面としての画像処理装置は、被写体空間情報を含む入力画像を用いて出力画像を生成する画像処理装置であって、前記出力画像の領域を少なくとも第1の領域および第2の領域に分割する領域分割部と、前記入力画像を再構成することにより、前記第1の領域および前記第2の領域に対して互いに異なる撮影条件適用された出力画像を生成する再構成画像生成部を有し、前記再構成画像生成部は、前記第1の領域および前記第2の領域に対して互いに異なる仮想被写界深度が適用された出力画像を生成する。
本発明の他の側面としての画像処理装置は、被写体空間情報を含む入力画像を用いて出力画像を生成する画像処理装置であって、前記出力画像の領域を少なくとも第1の領域および第2の領域に分割する領域分割部と、前記入力画像を再構成することにより、前記第1の領域および前記第2の領域に対して互いに異なる撮影条件が適用された出力画像を生成する再構成画像生成部を有し、前記領域分割部は、前記出力画像の領域を少なくとも前記第1の領域および前記第2の領域に分割する境界を決定する境界決定部と、前記第1の領域および前記第2の領域のそれぞれに適用する前記撮影条件を決定する撮影条件決定部と、前記第1の領域と前記第2の領域との間の境界処理範囲を決定する境界処理範囲決定部と、前記境界処理範囲に対して、該境界処理範囲を挟んで隣接する前記第1の領域および前記第2の領域に適用する前記撮影条件の間の撮影条件を適用して境界処理を行う境界処理部を有する。
本発明の他の側面としての撮像装置は、被写体空間情報を含む入力画像を用いて出力画像を生成する撮像装置であって、結像光学系と、複数の画素を備えた撮像素子と、被写体面の同一位置からの光線を、該光線が通過する前記結像光学系の瞳領域に応じて、前記撮像素子の互いに異なる画素に入射させるレンズアレイと、前記画像処理装置を有し、前記レンズアレイは、前記結像光学系の前記被写体面に対する像側共役面に配置されている。
本発明の他の側面としての撮像装置は、被写体空間情報を含む入力画像を用いて出力画像を生成する撮像装置であって、結像光学系と、複数の画素を備えた撮像素子と、被写体面の同一位置からの光線を、該光線が通過する前記結像光学系の瞳領域に応じて、前記撮像素子の互いに異なる画素に入射させるレンズアレイと、前記画像処理装置を有し、前記レンズアレイは、前記結像光学系の前記被写体面に対する像側共役面と前記撮像素子が共役となるように配置されている。
本発明の他の側面としての撮像装置は、被写体空間情報を含む入力画像を用いて出力画像を生成する撮像装置であって、正の屈折力を有する複数の光学系を備えた結像光学系と、複数の画素を備えた少なくとも1つの撮像素子と、前記画像処理装置を有し、前記複数の光学系は、被写体面の同一位置からの光線を、該光線が通過する前記結像光学系の瞳領域に応じて、前記撮像素子の互いに異なる画素に入射させるように配列されており、前記結像光学系の瞳は、前記複数の光学系の瞳を合成した合成瞳である。
本発明の他の側面としての画像処理方法は、被写体空間情報を含む入力画像を用いて出力画像を生成する画像処理方法であって、前記出力画像の領域少なくとも第1の領域および第2の領域に分割するステップと、前記入力画像を再構成することにより、前記第1の領域および前記第2の領域に対して互いに異なる撮影条件適用された出力画像を生成するステップを含み、前記第1の領域および前記第2の領域に対して互いに異なる仮想被写界深度が適用される
本発明の他の側面としての画像処理方法は、被写体空間情報を含む入力画像を用いて出力画像を生成する画像処理方法であって、前記出力画像の領域を少なくとも第1の領域および第2の領域に分割するステップと、前記入力画像を再構成することにより、前記第1の領域および前記第2の領域に対して互いに異なる撮影条件が適用された出力画像を生成するステップを含み、前記出力画像の領域を少なくとも前記第1の領域および前記第2の領域に分割する境界を決定し、前記第1の領域および前記第2の領域のそれぞれに適用する前記撮影条件を決定し、前記第1の領域と前記第2の領域との間の境界処理範囲を決定し、前記境界処理範囲に対して、該境界処理範囲を挟んで隣接する前記第1の領域および前記第2の領域に適用する前記撮影条件の間の撮影条件を適用して境界処理を行う。
本発明の他の側面としての画像処理プログラムは、前記画像処理方法を情報処理装置に実行させる。
本発明の他の側面としての画像処理プログラムは、互いに異なる第1撮影条件、第2撮影条件、および、第3撮影条件でそれぞれ撮影された第1画像、第2画像、および、第3画像を取得する取得ステップと、出力画像の第1領域に前記第1撮影条件を設定し、第2領域に前記第2撮影条件を設定する撮影条件設定ステップと、前記第1領域に対応する前記第1画像と、前記第2領域に対応する前記第2画像と、前記第1領域と前記第2領域との間の第3領域に対応し、前記第1撮影条件と前記第2撮影条件の間の前記第3撮影条件に基づく前記第3画像とを合成する合成ステップと、を情報処理装置に実行させる。
本発明の他の側面としての記憶媒体は、前記画像処理プログラムを記憶している。
本発明の他の目的及び特徴は、以下の実施例において説明される。
本発明によれば、一画像中の複数の領域ごとに異なる撮影条件値を適用して再構成画像を生成可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供することができる。
本実施形態において、被写体A、被写体B、および、背景を含むシーンの撮影例である。 本実施形態において、入力画像から出力画像を取得する画像処理の説明図である。 本実施形態において、境界処理範囲を決定する方法を説明するための撮影シーンである。 本実施形態において、境界処理範囲を決定する方法の説明図である。 本実施形態におけるリフォーカス処理の説明図である。 ぼけの広がり量Δxを算出する方法の説明図である。 本実施形態における境界処理の説明図である。 本実施形態において、境界処理範囲を決定する方法の説明図である。 本実施形態において、ぼけの広がり量Δxを算出する方法の説明図である。 本実施形態において、境界処理範囲を決定する方法の説明図である。 本実施形態における境界処理の説明図である。 本実施形態における境界処理の説明図である。 実施例1における撮像光学系の概略構成図である。 実施例2における撮像光学系の概略構成図である。 実施例3における撮像光学系の概略構成図である。 実施例4における撮像光学系の概略構成図である。 実施例5における画像処置システムのブロック図である。 実施例1〜3、5における撮像装置のブロック図である。 実施例1におけるリフォーカス画像生成に関する説明図である。 実施例2、3におけるリフォーカス画像生成に関する説明図である。 実施例4における撮像装置のブロック図である。 実施例4における撮像光学系の概略構成図である。 実施例4のリフォーカス画像生成に関する説明図である。 実施例1〜5における画像処理方法のフローチャートである。 本実施形態において、光の滲み出し量を算出する方法の説明図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
本実施形態において、「被写体空間情報」とは、被写体から射出された光の2次元強度分布の情報、および、被写体から射出され、撮像素子へと導かれる各光線の角度情報を含む情報である。或いは、「被写体空間情報」とは「ライトフィールド」と同じ意味である。被写体を特定の視点から捉えた画像を視点画像とすれば、複数の視点画像から被写体空間情報を取得可能な撮像装置は、「ライトフィールドカメラ」とも呼ばれる。このライトフィールドカメラは一度の撮像動作で、複数の視点画像を含む画像を取得可能である。つまり、「被写体空間情報を含む入力画像」とは、複数の視点画像を含む画像である。
まず、本実施形態における入力画像(入力画像情報)を取得する撮像装置として、複数の視点画像を同時に取得可能な撮像装置の構成について説明する。本実施形態における画像処理方法(画像処理プログラム)に適用される入力画像は、前述の撮像装置(ライトフィールドカメラ)で取得された画像である。この撮像装置は、複数の結像光学系を配列するか、または、結像光学系の像側にレンズアレイを配置することにより、被写体空間情報を取得可能である。なお本実施形態において、「入力画像情報」とは、複数の視点から得られた画像情報であり、複数の視点画像を配列して構成された画像情報である。また、「入力画像」とは、「入力画像情報」から形成された一つの画像である。本実施形態では、後述のように、被写体空間情報を含む「入力画像」または「入力画像情報」を用いて(再構成して)、出力画像が生成される。
このような撮像装置を構成する撮像光学系の例として、図13乃至図16に示される撮像光学系がある。本実施形態において、撮像光学系は、結像光学系および撮像素子を含んで構成され、レンズアレイを有する場合にはレンズアレイも含む。図13乃至図16に示される被写体面201上には、人物や物体が必ずしも存在していなくてよい。これは、後述の再構成処理により、被写体面201より奥または手前に存在する人物や物体に、撮影後でもピントを合わせることができるためである。
「再構成」とは、入力画像(入力画像情報)から得られた各画素の情報について、所望の出力画像が得られるように選択し、または、並べ替えることをいう。また、各画素の情報の選択や並べ替えだけでなく、必要に応じて各画素の情報同士を演算することも含まれる。このため、入力画像自体は、人間が被写体を認識できるいわゆる写真画像である必要はなく、あるルールに則った再構成処理を経ることにより生成される出力画像が所望の画像となっていればよい。
「撮影条件値」とは、ピント位置、被写界深度、露出などに代表される撮影条件に関する情報である。従来のカメラでは、撮影後に撮影条件値を変更することはできないが、ライトフィールドカメラによれば撮影条件値を変更することが可能である。撮影条件値を変更する方法は、以下に説明する撮像装置の構成に応じて異なるが、カメラアレイのような構成であれば、カメラ1台1台での撮影条件値を実際に変更してもよい。また、1つの結像光学系中にレンズアレイを含むような構成であれば、後述のように、仮想結像面位置、仮想被写界深度値、仮想露出値などを撮影条件値(撮影条件)として用い、これらを変更してもよい。
「仮想結像面位置」は、後述のリフォーカス操作によりピントを合わせなおす際に考慮する仮想的な結像面位置である。「仮想被写界深度値」は、仮想的に決定された任意のFナンバーである。Fナンバーは、光学系の焦点距離や瞳径で決定されるが、仮想被写界深度値の決定方法についても従来のFナンバーを算出する方法と同様である。ただし、実際の絞り機構を駆動して光束を制御するのではなく、入力画像において、取得したいFナンバー光束に対応する画素を選択して入力画像を再構成することにより、所望のFナンバー相当の被写界深度を有する画像を得る。
「仮想露出値」とは、出力画像において実現したい明るさ(輝度値)を仮想的な露出値として表現した値である。画像全体を同じ条件で再構成処理を行うと、非特許文献1や特許文献1にて開示されているように、画像全体が均一な露出値(同一のシャッタースピード、Fナンバー、ISO感度)となる。しかし、再構成時に部分的に重み付けを変更して再構成処理を行うことにより、画像内であたかも部分的に露出が異なった条件で撮影したような効果を得ることもできる。
「入力画像情報」または「入力画像」は、撮像素子と結像光学系とを備えた撮像装置を用いて、複数の視点画像を同時に取得した画像情報(画像)であり、被写体空間情報を含む。後述のように、領域分割部は、入力画像(出力画像領域)を複数の領域(第1の領域および第2の領域)に分割する。「出力画像領域」(入力画像)は、最終的に出力する所望の画像サイズで決定される2次元領域(画像)である。そして、再構成画像生成部は、分割された複数の領域のうち、2つの分割領域(第1の領域および第2の領域)に対して入力画像に基づいて得られる互いに撮影条件値を適用することにより、入力画像を再構成して出力画像を生成する。
続いて、図1および図2を参照して、これらの工程について説明する。図1は、撮像装置301を用いた被写体A、被写体B、および、背景を含むシーンの撮影例である。図2は、本実施形態において、入力画像(入力画像情報)から出力画像を取得する画像処理の説明図である。
従来のカメラでは、美しい背景ぼけはそのままにしつつ被写体Aと被写体Bの両方ともシャープに写し取ろうとしても、いずれか一方にしかピントを合わせることができない。または、いずれか一方にピントを合わせ、F値を大きくするなどして被写界深度を深くして被写体Aと被写体Bをシャープに写し取っても、背景ぼけが失われてしまう。一方、本実施形態のライトフィールドカメラで取得した入力画像(入力画像情報)があれば、撮影後の再構成処理によりこのような課題を解決することができる。
まず、図2(a)に示されるように、出力画像領域(入力画像)を、任意の領域(領域1、2、3)に分割する。本実施形態において、これらの3領域のうちいずれか2つが第1の領域および第2の領域に相当する。分割領域は、ユーザーが自分で領域を指定することができる。また、撮像装置により従来技術である被写体認識手段(顔認識など)を用いて自動的に領域を分割してもよい。また、ユーザーが画像を見ながら領域を分割するために基準となる画像が必要の場合、撮影時の撮影条件での撮影画像などを一旦再構成して出力し、予め撮像装置のモニターや編集時のPCモニターに表示しておいてもよい。
次に、図2(b)に示されるように、それぞれの分割領域(領域1、2、3)に対応する撮影条件値(撮影条件値1、2、3)を決定する。本実施形態において、撮影条件値は、例えば、仮想結像面位置、仮想被写界深度値、または、仮想露出値である。次に、図2(c)に示されるように、分割領域ごとにそれぞれ決定された撮影条件値(撮影条件値1、2、3)を適用して再構成画像を生成する。最後に、図2(d)に示されるように、分割領域ごとの再構成画像を1枚の画像に合成して、これを出力画像として出力する。このようにして、本実施形態の出力画像が得られるが、図2(c)から図2(d)への出力画像生成工程において、撮影条件値の決定後、全ての撮影条件値に対応する再構成画像を1枚1枚作成してから出力画像を合成してもよい。または、再構成処理を行う工程において、各撮影条件値に対応するパラメータを用いながら1度に再構成処理を行って出力画像を得てもよい。
続いて、撮影条件値として仮想結像面位置を用いる場合について説明する。具体的には、図2において、領域2と領域3に同時にピントを合わせ、領域1をぼかす場合を考える。このとき本実施形態において、領域2にピントが合うように再構成した画像、および、領域3にピントが合うように再構成した画像を用意する。更に、領域1については、領域2よりも撮像装置(手前)側にピントが合った画像になるように再構成した画像を用意する。これら3枚の画像を1枚の画像として合成する。このような構成により、背景ぼけはそのままで(もしくは更にぼかして)、かつ被写体Aおよび被写体Bの両方がシャープに(くっきりと)写った出力画像を得ることができる。
なお、上記実施形態において、3枚の画像それぞれが全画像領域を再構成した画像でなくてもよく、領域2や領域3に関しては、最低限、被写体とその周辺を再構成した画像を用意してもよい。
また、撮像条件値として仮想被写界深度値を用いる場合にも、同様の効果が得られる。この場合、図2(b)の撮影条件値を決定する段階で、領域2と領域3をシャープに写すために被写界深度を大きくするように仮想被写界深度値を設定すればよい。それ以降は、撮影条件値として仮想結像面位置を用いる場合と同様である。また、これらは仮想露出値についても同様である。なお本実施形態において、ポイントごとに図2(a)〜図2(d)に示しているが、被写体も自動認識する場合にはこれらを内部処理で行い、ユーザーには最後の図2(d)のみ表示させるようにしてもよい。
以上により、本実施形態における画像処理方法を行うことができる。また本実施形態の画像処理方法(画像処理装置)は、次の条件のうち少なくとも一つを満たすことが好ましい。このような条件を満たすことにより、更に自然なぼけ表現が可能になる。すなわち、(A)入力画像情報を第1の画像(入力画像)に再構成して出力する再構成部、および、(B)第1の画像を少なくとも2つ以上の領域(第1の領域、第2の領域)に分割する境界を決定する境界決定部を有することが好ましい。また、(C)第1の領域および第2の領域のそれぞれに対する撮影条件を決定する撮影条件決定部を有することが好ましい。また、(D)第1の領域と第2の領域との間の境界処理範囲を決定する境界処理範囲決定部を有することが好ましい。また、(E)境界処理範囲に対して、撮影条件値が互いに異なることにより生じた第1の領域と第2の領域との間の差を低減するように境界処理を行う境界処理部を有することが好ましい。
また、(D)に関しては、境界処理範囲決定部は、第1の領域または第2の領域に対する撮影条件値に基づいてぼけの広がり量を算出することが好ましい。このとき、ぼけの広がり量は、被写体画像の変化前後の視差に対応するぼけの広がり量であり、撮影条件値に基づいて算出される。また、境界処理範囲決定部は、ぼけの広がり量に基づいて境界処理範囲を決定する。
また、(E)に関しては、境界処理部は、境界処理範囲に対して、境界処理範囲を挟んで隣接する領域(第1の領域および前記第2の領域)に対する撮影条件値の間の撮影条件値を適用して境界処理を行うことが好ましい。
まず、(A)に関し、再構成部は、撮影した画像について、最初にユーザーが確認する画像(第1の画像)を出力する。前述のように、入力画像情報は、人間が被写体を認識可能な情報でない場合がある。この場合、入力画像情報のままでは、どのような写真が撮影されたか、また、編集する必要があるのかも判定できない。このため本実施形態において、再構成部は、撮影後のプレビュー画像のような形で、これから編集作業に移る必要があるか否かを確認するための画像(第1の画像)を再構成して出力することが好ましい。また、第1の画像を基準画像として、ユーザーが次の工程である境界を決定するために用いることもできる。自動的に被写体を認識させて境界を決定する場合でも、基準画像が必要であれば、自動認識システムに被写体を認識させるために第1の画像を用いてもよい。
また、(B)に関し、境界決定部は、出力画像領域(入力画像情報に基づく画像)を複数の領域(第1の領域、第2の領域)に分割する境界を決定する。後述のように、境界決定部により分割された領域に対して、所望の撮影条件値(互いに異なる撮影条件値)が割り当てられることになる。この工程は、ユーザー自身が画面でタッチ操作を行うか、または、パソコン上でのマウス操作などで決定することもできる。また、顔認識や物体認識(自動認識)によって自動的に境界を決定して領域分割を行ってもよい。
また、(C)に関し、再構成画像生成部は、複数の領域(第1の領域および第2の領域)に対して互いに異なる撮影条件値を決定(適用)する。撮影条件値は、前述のように、仮想結像面位置、仮想被写界深度値、仮想露出値などである。撮影条件値は、ユーザーがその都度任意に決定することができる。または、被写体形状に合わせてプリセットとして撮像装置側で複数のテーブルを持ち、シーンに合わせて自動的に撮影条件値を決定してもよい。
また、(D)に関し、境界処理範囲決定部は、境界処理範囲を決定し、次に境界処理部による境界処理への準備を行う。例えば、1つの出力画像領域内に複数の仮想結像面位置を有する画像を生成することを考える。ここでは簡単のために、図3に示されるように、2つの被写体(被写体A、B)を含み、図示しない撮像装置から2つの被写体までの距離が互いに異なっているシーンを想定する。被写体Aは撮像装置に近い被写体であり、被写体Bは撮影装置から遠い被写体である。また、これら2つの被写体自体には奥行きのない平面的な被写体であるとする。なお、被写体Aと被写体Bの背後には、何らかの背景があるものとする。所望の画像は、被写体A、Bの両方にピントが合った画像であり、背景のぼけ具合は、被写体Aにピントが合っている状態での背景ぼけが好ましいとする。
被写体Aにピントが合っている画像では、被写体Bはぼけている。そして、被写体Aにピントが合っている画像の被写体B上にシャープに写った被写体Bの画像を貼り付けると、もともとの被写体Bがぼけて広がっている部分が残り、若干不自然な画像になることがある。このとき、ぼけて広がっている部分を除去することが好ましいが、各物体までの距離情報が分からないと、ぼけの広がり量を知ることができない。
一方、本実施形態の撮像装置(ライトフィールドカメラ)によれば、距離情報を取得しているため、ぼけの広がり量を算出することができる。例えば、図4に示されるような工程を経ることにより、ぼけの広がり量を考慮して境界処理範囲を決定することが可能である。本実施形態において「境界処理範囲」とは、ある再構成後の画像において、最初にぼけてない被写体によって決定された境界から被写体のぼけの広がり量Δxピクセル分の範囲である。なお、「境界処理範囲」は、少なくともΔxピクセルの範囲とすればよいが、被写体やシーンに応じて、Δx+αピクセル分の余裕量をもって「境界処理範囲」を決定してもよい。余裕量αの程度は、ユーザーがその都度決定することができる。また、その情報を、被写体の形状に合わせて予めプリセットとして撮像装置側で持っていてもよい。
図4は、境界処理範囲を決定する方法の説明図である。まずステップS001において、境界処理範囲決定部は、例えば、第1の画像として手前の被写体Aにピントが合っている画像を取得する。続いてステップS002において、境界処理範囲決定部は、被写体Bの境界を決定する。このとき、例えば、被写体A、Bの両方がシャープに写っている被写界深度の深い画像を再構成して境界決定範囲を決定することができる。また、距離情報を利用した距離マップ(デプスマップ)を利用して被写体Bの輪郭から境界を決定するか、または、被写体Bにリフォーカスすることで被写体Bの境界を決定してもよい。リフォーカスとは、撮影後の再構成処理により任意の被写体にピントを合わせなおす処理である。リフォーカスに関しては、「Fourier Slice Photography」(Ren Ng著、2005 ACM Trans. Graph.24,735−744参照)にて詳述されているため、ここでの説明は省略する。
続いて、ステップS003において、境界処理範囲決定部は、被写体Bにピントが合った状態の仮想結像面位置から被写体Aにピントが合った状態の仮想結像面位置へ仮想結像面位置を移動させたときの被写体Bのぼけの広がり量Δxを算出する。そしてステップS004において、ステップS003にて算出されたぼけの広がり量Δxに基づいて境界処理範囲を決定する。境界処理範囲は、少なくとも、ぼけの広がり量Δx(Δxピクセル)以上の幅を有することが好ましい。
次に、図5を参照して、ぼけの広がり量Δxの算出方法について説明する。図5は複数の視点画像を用いて任意の場所にピントを合わせる方法(リフォーカス処理)の説明図である。図5(a)は、複数の視点から撮像した画像(複数の視点画像)を示している(本実施形態では、9視点画像)。この画像から手前にある被写体Aにピントが合った画像を生成する場合、9つの画像の全てを被写体Aが一致する(重なる)ように再構成処理を行う必要がある。重ねる基準となる画像は、9つの画像のうちいずれの画像でも構わないが、例えば9つのうち中心の画像を基準として再構成を行うと、図5(b)に示される画像(再構成画像)が生成される。
図5(b)において、被写体Aが一致する(重なる)ように9つの画像を再構成しているため、被写体Aにはピントが合っている。一方、9つの画像の全てに視差が存在するため、被写体Aよりも奥にある被写体Bは、その視差分だけずれることになる。このずれがぼけとなって現れる。このため、本実施形態でのぼけの広がり量(Δxピクセル)を算出するということは、視差量を算出することに等しい。視差量の中でも、撮像装置で撮影した場合のその被写体のとりうる最大の視差量がわかれば、ぼけの広がり量の最大値が把握できる。被写体の最大の視差量は、対象となる被写体までの距離と撮像装置の射出瞳径により決定される。このように、複数の視点画像から1枚の画像へ再構成した場合のぼけの広がり量を算出するには、対象となる被写体までの距離と撮像装置の射出瞳径がわかればよい。これは、従来のカメラによりぼけの広がり量を幾何学的に算出する方法と同じ方法である。
そこで、まず図6を参照して、従来のカメラにおけるぼけの広がり量を算出する方法について説明する。図6は、ぼけの広がり量Δxを求めるための説明図である。図6は、焦点距離f、射出瞳半径hを有する結像光学系Lのモデルを示している。簡単のために、結像光学系Lの物体側主平面位置と像側主平面位置は同一であるとする。結像光学系Lの物体側主平面位置から被写体Aまでの距離をs、被写体Bまでの距離をtとする。結像光学系Lの像側主平面位置から被写体Aの結像面までの距離sk、結像光学系Lの像側主平面から被写体Bの結像面までの距離tkとする。被写体Aと被写体Aの結像面位置は、共役な関係になっている。図6では、被写体Aにピントが合っている状態の光路図を実線で描き、そのときの被写体Bからの光線を点線で描いている。このとき、以下の式(1)、(2)が成立する。
1/s+1/sk=1/f … (1)
1/t+1/tk=1/f … (2)
図6より、O=s+sk、O=t+skである。また、被写体Aと被写体Bの距離OとOが既知であるとすると、結像面上でのぼけの広がり量Δxは、以下の式(3)のように表される。
Δx=(sk−tk)×h/tk
=(O−s)×h×{1/f−1/(O−O+s)}−h … (3)
このように、結像光学系Lの結像面上でのぼけの広がり量Δxを算出することができる。このため、従来のカメラでは、出力画像におけるぼけの広がり量Δxは、結像面上での撮像素子の画素ピッチをsとすると、以下の式(4)で表されるように、結像面上のぼけの広がり量を出力画像のピクセル数に変換できる。
Δx=Δx/s … (4)
ここまでは、前述のように、本実施形態のカメラ(ライトフィールドカメラ)も従来のカメラと同じである。しかし、本実施形態のカメラは、入力画像情報を再構成して出力画像を生成する点で、従来のカメラとは異なる。このため、本実施形態では、撮像装置の構成によっては、単純に式(4)を用いても再構成後の出力画像上でのぼけの広がり量(ピクセル)に変換することはできないことがある。そこで本実施形態では、前述のように幾何学的に求められたぼけの広がり量を出力画像上でのピクセル数に変換するための係数Qを考慮する必要がある。係数Qは、撮像装置の構成により様々な値をとる。本実施形態において用いられる変換式は、以下の式(5)のように表される。
Δx=Q×Δx/s … (5)
なお、係数Qの値については、後述の撮像装置ごとの実施形態において詳述する。
以上により、任意の場所にリフォーカスした場合でも、再構成後の画像上での他の被写体のぼけ量を算出することができる。なお、ぼけの広がり量Δxの算出方法はこれに限定されるものではなく、他の方法を用いて算出してもよい。
次に、図7を参照して、(E)に関して説明をする。図7は、本実施形態における境界処理の説明図である。ここでは、被写体Aにピントが合った画像に対して、決定された境界内に被写体Bにピントが合った画像を再構成する。このとき、被写体Bの境界においてエッジが立つなど不自然になることを防ぎ、より自然に見えるようにすることを目的とする。
まず、ステップS101において、境界処理範囲を挟んで隣接する領域F1、F2(第1の領域、第2の領域)における仮想結像面位置を比較する。そして、境界処理範囲を更に細分化する必要があるか否かを判定する。ステップS101において境界処理範囲を更に細分化すれば、より自然な画像を生成することができるため、好ましい。細分化の必要性について、ユーザーは任意に決定することができる。また、領域F1、F2の仮想結像面位置の乖離量からある閾値をもたせて自動的に決定してもよい。
続いてステップS102において、境界処理範囲内に領域F1、F2の間の仮想結像面位置の画像を再構成して合成する。これにより、領域F1、F2の間をグラデーション的につなぎ合わせることができ、自然な画像を生成することができるため、好ましい。「領域F1、F2の間の仮想結像面位置」とは、領域F1の仮想結像面位置と領域F2の仮想結像面位置との中心(厳密な意味での中心)の仮想結像面位置である必要はない。少し領域F1や領域F2の仮想結像面位置に寄ったものであってもよい。
ステップS101にて細分化の必要がないと判定された場合、前述のように、領域F1、F2の間の仮想結像面位置の画像を境界処理する範囲内全てに再構成すればよい。一方、細分化の必要があると判定された場合、領域F1から領域F2に向かって仮想結像面位置を徐々に変えた画像(細分化領域1〜4)を再分化数分だけ再構成すればよい。これにより、被写体Bの境界においてエッジが立つなど不自然になることを防ぎ、画像をより自然に見えるようにすることができる。本実施形態では仮想結像面位置について説明したが、仮想被写界深度値や仮想露出値についても同様である。
次に、図8を参照して、撮影条件値として仮想被写界深度値を設定した場合について説明する。図8は、境界処理範囲を決定する方法の説明図である。図8(a)は、ある背景を背にして、おもちゃのロボットのような奥行きのある被写体Cを撮影する場合の例を示している。被写界深度の浅い撮像装置により、背景をぼかしつつ被写体Cの右目にピントを合わせて撮影するシーンを例とする。ここで、被写界深度の浅い撮像装置とは、カメラアレイであれば合成Fナンバーが小さいもの、また、結像光学系とセンサの間にレンズアレイ有するものであれば結像光学系のFナンバーが小さいものである。
ここで、従来のカメラで撮影すると、図8(b)に示されるように、背景は綺麗にぼけるが、その被写界深度の浅さから、被写体Cの全体はシャープに写らず、胴体の後方などはぼけてしまう場合がある。これは例えば焦点距離50mm、Fナンバー1.4のような明るいレンズや超望遠レンズを用いた場合に起こり得る。
一方、本実施形態のライトフィールドカメラによれば、距離情報も取得しているため、ぼけの広がり量Δxを算出することができる。算出の仕方は前述と同様であるが、指定した仮想被写界深度値に応じて使用する光束径が異なるため、射出瞳半径hの値は異なる。絞り開放相当の仮想被写界深度値であれば、射出瞳半径hの値も前述と変わらないが、仮想被写界深度値を大きく(仮想Fナンバーを大きく)すると、その分だけ射出瞳半径hの値も小さくして計算すればよい。
図9を参照して、ぼけの広がり量Δxを算出する方法について説明する。図9は、ぼけの広がり量Δxを算出する方法の説明図であり、一例としてシンプルなモデルを示している。図9において、被写体Cの右目位置と被写体Cの右目にピントを合わせた時の結像面位置とが共役な関係になっている。hは射出瞳半径であり、光束を決定する。なお、本実施形態において、背景は綺麗にぼけるが、被写界深度が浅いために被写体Cの胴体の後部もぼけている。そのときの結像面位置上におけるぼけの広がり量がΔxである。従来のカメラの場合、ぼけの広がり量Δxの大きさが画素ピッチの半分以下となれば、撮像素子上ではぼけの広がり量を判定することができず、シャープな画像として得られる。射出瞳半径h’で決定される一点鎖線で示される光束がその場合を表しており、Δx’がそのときのぼけの広がり量である。撮像装置の画素ピッチがわかれば、Δx’となるh’の値を得ることができるため、Fナンバーをいくらにすれば被写体C全体がシャープに写るかも算出可能である。本実施形態においても、同様の計算で仮想被写界深度値(仮想Fナンバー)をいくらにすれば被写体C全体がシャープに写るかも算出可能であるが、式(5)で表されるような変換式が必要なのは前述のとおりである。
次に、図10を参照して、境界処理範囲を決定する方法について説明する。図10は、境界処理範囲を決定する方法の説明図である。図10の各ステップを経ることにより、ぼけの広がり量を考慮した領域同士の境界を決定することができる。この例についても、前述の仮想結像面位置の場合と同様に、被写体のぼけの広がり量(Δxピクセル)の範囲を「境界処理範囲」という。また、被写体やシーンに応じて、Δx+αピクセル分余裕量をもって「境界処理範囲」としてもよい。
まず、図10のステップS201において、例えば、第1の画像として被写体Cの右目にピントが合っている被写界深度の浅い画像を取得する。このとき、背景ぼけのぼけ量は良好であるが、被写体Cの胴体の後ろ部分はその被写界深度の浅さからぼけている。続いてステップS202において、被写体Cの境界を決定する。第1の画像を用いて被写体Cの輪郭を境界として設定しようとしても、この状態ではぼけている部分があるため輪郭を捉えるのは難しいためである。このとき、例えば、被写体Cの全体がシャープに写っている仮想被写界深度値の大きい画像を再構成して境界決定に用いることができる。また、距離情報を利用した距離マップ(デプスマップ)を利用して被写体Cの輪郭から境界を決定してもよい。
続いてステップS203において、被写体Cの全体がシャープに写っている仮想被写界深度値が大きい画像から、所望の背景ぼけが得られている仮想被写界深度値に切り替えた際の被写体Cのぼけの広がり量Δxを算出する。ここで、仮想被写界深度が大きい画像とは、例えば、ステップS202にて得られた第1の画像である。
続いてステップS204において、ステップS203にて算出されたぼけの広がり量Δxに基づいて境界処理範囲を決定する。境界処理範囲は、少なくとも、Δxピクセル以上の幅を有することが好ましい。境界処理範囲を自動的にΔxピクセルと決定してもよく、または、被写体に合わせてΔx+αピクセル分の余裕量を持たせてもよい。余裕量αは、ユーザーがその都度決定することができる。また、被写体の形状に合わせて予めプリセットとして撮像装置側で持っていてもよい。また、被写体Cが奥行きを持っていることから、Δxの値は境界上の各点により異なる。このため、厳密にはΔxの値を画素ごとに求めるのが好ましいが、被写体Cの大きさによってはある程度間引いてΔxの値を算出して補間してつなげてもよい。
以上のように、再構成後の画像上で被写界深度が浅い場合、奥行きがある被写体の一部のぼけ量を算出することができる。これにより、境界処理範囲を決定することが可能である。なお、ぼけの広がり量Δxの算出方法はこれに限定されるものではなく、他の方法を用いてもよい。
次に、図11および図12を参照して、本実施形態における境界処理について詳述する。図11および図12は、本実施形態における境界処理の説明図である。
まず、図11のステップS301において、境界処理範囲を挟んで隣り合う領域F1、F2における仮想被写界深度値を比較し、境界処理する範囲を更に細分化する必要があるか否かを判定する。ステップS301にて境界処理範囲を更に細分化すれば、より自然な画像を生成することができるため、好ましい。この細分化の必要性については、ユーザーが任意に決定することができる。または、領域F1、F2の仮想被写界深度値の乖離量からある閾値をもたせて自動的に決定してもよい。
続いてステップS302において、境界処理範囲内に領域F1、F2の間の仮想被写界深度値の画像を再構成して合成する。これにより、領域F1、F2の間をグラデーション的につなぎ合わせることができる。その結果、自然な画像を生成することができるため、好ましい。「領域F1、F2の間の仮想被写界深度値」とは、領域F1の仮想被写界深度値と領域F2の仮想被写界深度値との中心(厳密な意味での中心)の仮想被写界深度値である必要はなく、場合によって少し領域F1や領域F2の仮想被写界深度値に寄ったものでもよい。
ステップS301にて細分化の必要がないと判定された場合、前述のように、領域F1、F2の間の仮想被写界深度値の画像を境界処理範囲内の全てに再構成すればよい。一方、細分化の必要があると判定された場合、図12に示されるように、領域F1から領域F2に向かって仮想被写界深度値を徐々に変えた画像(細分化領域1〜3)を再分化数分だけ再構成して合成すればよい。これにより、被写体Cの境界においてエッジが立つなど不自然になることを防ぎ、より自然に見える画像を生成することができるため、好ましい。
更に、仮想被写界深度値の異なる画像を再構成して1枚の画像にするため、そのまま最後の出力画像として合成すると、仮想被写体深度値が異なる領域ごとに明るさが異なって出力される場合がある。これは、シャッタースピードが同じである一方、絞り値が領域ごとに異なっている場合を想定することにより理解できる。このとき、領域ごとにエッジが目立ってしまい浮いて見える場合があるため、好ましくない。これを防ぐには、各領域での明るさ(輝度レベル)に差が生じないように、領域ごとの仮想被写界深度値の差で生じる明るさの差(輝度レベル差)だけ異なった重み付け係数を輝度信号値に掛けてから出力画像として合成すればよい。
次に、撮影条件値として仮想露出値を用いる場合について説明する。この場合、ピント位置や被写界深度は任意であり、入力画像情報を再構成するときの輝度値の重み付け方法を利用して、決定した領域ごとの仮想露出値(画像の明るさ)を変化させて出力画像として合成する。
前述のように、図5を参照して入力画像情報から1枚の画像に再構成する方法を説明した。図5に示されるような9つの視差画像を用いて1枚の画像に再構成する場合、単純に9つの画像の輝度値を足すと、再構成画像は輝度飽和を起こし、白く飛んだ画像になる。このため、9つの視差画像ごとに重み付けをせず単純に再構成しようとすると、9つの画像の輝度値を足すだけではなく、再構成に用いた視差画像数分だけ輝度値を割る必要がある。これにより、1枚の視差画像と同じ明るさを維持した再構成画像が得られる。このとき、利用した視差画像ごとの輝度値について均等な重み付けではなく、重み付け係数を変更することにより、領域内の明るさを変化させることができる。
なお、前述と重複する内容については説明を省略するが、仮想結像面位置や仮想被写界深度値の場合と異なる点は、ぼけの広がり量を算出する工程である。仮想結像面位置や仮想被写界深度値の場合には、対象がぼけ量であるため、ぼけの広がり量を算出した。一方、仮想露出値の場合、ぼけの広がり量ではなく、光の滲み出し量を算出する。光の滲み出しとは、光源が白く飛んだ(輝度飽和した)状態で撮像されたとき、光源だけでなく光源の周辺も光源の光の強さに応じて輝度飽和し、または、飽和しなくても明るく撮像されることをいう。光の滲み出し量を算出して境界処理範囲を決定する工程は、仮想結像面位置や仮想被写界深度値の場合と異なる。
また、仮想結像面位置や仮想被写界深度値の場合、ぼけた被写体の上にシャープに写った被写体を再構成すると、もともとぼけた被写体のぼけの広がりが残存し、これを消すために境界処理を行っている。一方、光の滲み出しについて想定するシーンは、通常どおり再構成すると光源の輝度値が飽和して光源の周囲も輝度飽和する(または、明るく写ってしまう)シーンである。このシーンで単純に光源の輝度飽和を除去するには、光源部分の領域について、光源の輝度値が輝度飽和していない暗い画像を再構成すればよい。
しかしながら、領域を光源の部分とそれ以外の部分に分けて、光源の領域部分だけ輝度値の重み付け係数を変えて画像を暗くして再構成しても、光源以外の部分は光源の滲み出しが残存しているため、好ましくない。この光の滲み出している量がわかればその部分を「境界処理範囲」として、光の滲み出しが目立たなくなるように、その範囲は別の重み付け量で暗めに再構成すればよい。しかし、再構成する前の視差画像の状態ですでに光の滲み出し部分が輝度飽和していると、情報がないため、光の滲み出し部分を消すことはできない。この場合、除去したい光の滲み出し部分が輝度飽和を起こさないように、暗めに視差画像を取得しておく必要がある。そして再構成時には、明るめに重み付けを行って再構成することにより、適正な明るさで出力画像を生成することが好ましい。
次に、図25を参照して、本実施形態における光の滲み出し量の算出方法について説明する。図25は、光の滲み出し量を算出する方法の説明図である。前述のように、除去したい光の滲み出し部分が輝度飽和を起こさないように暗めに視差画像を取得しておくことが前提であるが、その視差画像において、以下の処理を行えばよい。
まずステップS401において、通常の適正な明るさになるように再構成時に明るめに重み付けを行って画像全体について再構成処理を行う。続いてステップS402において、光源の領域の周辺部分が輝度飽和した、または、所定の閾値以上の輝度値になった領域を境界処理範囲として決定する。そしてステップS403において、決定した境界処理範囲内において、境界処理を行う。ステップS403以降の境界処理の内容(境界処理範囲の細分化の判定やそれ以降の処理)は、前述の仮想結像面位置や仮想被写界深度値の場合と同様であるため、これらの説明は省略する。なお、所定の閾値はユーザーが任意に決定することができる。または、想定されるシーンごとに撮像装置側で閾値テーブルを持っていてもよい。
本実施形態における画像処理方法(画像処理プログラム)によれば、1つの画像内に複数の撮影条件値を有する出力画像が得られる。なお本実施形態において、理解を容易にするため、仮想結像面位置、仮想被写界深度値、仮想露出値を互いに独立に制御して撮影条件値を変更する場合について説明したが、これに限定されるものではない。本実施形態において、これらを組み合わせて1つの出力画像領域内に複数の仮想結像面位置、仮想被写界深度値、仮想露出値を混在させてもよい。本実施形態において、撮影条件値は、仮想結像面位置、仮想被写界深度値、または、仮想露出値に限定されるものではない。
以下、本実施形態における画像処理方法(画像処理プログラム)を実行する撮像装置(画像処理装置)について、実施例ごとに説明する。
次に、図18を参照して、本発明の実施例1における撮像装置(撮像光学系)の構成について説明する。図18は、本実施例における撮像装置100のブロック図である。撮像装置100は、本実施例の画像処理方法を実行することにより、入力画像(撮影画像)から出力画像(再構成画像)を生成可能である。
図18に示されるように、撮像装置100は、1つの結像光学系101(撮像光学系)と撮像素子103との間にレンズアレイ102を備え、複数の視点からの画像を同時に取得可能である。撮像装置100において、被写体(不図示)は、絞り1011およびフォーカスレンズ1012を含む結像光学系101とレンズアレイ102とを介して、撮像素子103に結像する。
撮像素子103は、CCD(Charge Coupled Device)やCMOS(Complementary Metal−Oxide Semiconductor)などの2次元撮像素子である。結像光学系101およびレンズアレイ102を介して撮像素子103へ入射した光線のエネルギーは、電気信号(アナログ信号)となる。このように撮像素子103は、結像光学系101およびレンズアレイ102を介して形成された被写体像を光電変換して撮影画像を取得する。撮像素子103により取得された撮影画像(結像光)は、電気信号に変換され、A/Dコンバータ104に出力される。A/Dコンバータ104は、撮像素子103から入力された電気信号(アナログ信号)をデジタル信号に変換し、デジタル信号を画像処理部105に出力する。
画像処理部105は、所定の処理と併せて画像の再構成処理を行う。画像処理部105は、状態検知部108から撮像装置100の撮影条件(撮影条件情報)を取得する。撮像条件情報は、撮像光学系(結像光学系)の構成、撮影距離、絞り値、ズームレンズにおける焦点距離などを含む。状態検知部108は、システムコントローラ111から直接に撮像条件情報を取得可能であり、また、例えば結像光学系101(撮像光学系)に関する撮像条件情報を光学系制御部107から取得することもできる。
画像処理部105で処理された画像は、半導体メモリなどの画像記録媒体110に所定のフォーマットで記録される。表示部106には、本実施例における画像処理後の画像に表示用の所定の処理を行った画像が表示される。または、高速表示のために簡易的な処理を行った画像を表示してもよい。画像記録媒体110に保存された画像を表示部106に表示する際には、画像処理部105で撮影条件情報に基づいた再構成処理が施される。このとき、画像処理部105はノイズ低減処理も行う。その結果、表示部106には、所望の視点、ピント位置、および、被写界深度に再構成された画像(再構成画像)が表示される。また高速化のため、所望の設定(画像の視点、ピント、被写界深度など)を予め記憶部109に記憶し、画像記録媒体110を介さずに再構成画像を表示部106に直接表示させることもできる。なお、画像記録媒体110に記録される画像は、再構成画像であってもよい。
撮像装置100における一連の制御はシステムコントローラ111により行われる。また、結像光学系101の機械的な駆動は、システムコントローラ111の指示に基づいて光学系制御部107により行われる。絞り1011は、絞り値(Fナンバー)の撮影状態設定として、その開口径が制御される。フォーカスレンズ1012は、被写体距離に応じてピント調整を行うためにオートフォーカス(AF)機構や手動のマニュアルフォーカス機構(いずれも不図示)により、その位置が制御される。
本実施例において、結像光学系101(レンズ装置)は、撮像装置(撮像装置本体)と一体的に構成されているが、これに限定されるものではない。結像光学系101は、一眼レフカメラなどの撮像装置本体に対して着脱可能に構成された交換レンズであってもよい。
次に、図13を参照して、本実施例における撮像光学系の構成について説明する。図13は、撮像光学系の概略構成図である。撮像光学系は、結像光学系101、レンズアレイ102、および、撮像素子103を備えて構成される。本実施例において、レンズアレイ102は、複数のレンズ(小レンズ)を用いて構成され、小レンズは固体レンズで構成されている。ただし本実施例はこれに限定されるものではなく、液体レンズ、液晶レンズ、または、回折光学素子などを用いてレンズアレイ102を構成してもよい。また、レンズアレイ102は複数のレンズから構成されていてもよい。レンズアレイ102を構成する小レンズは、両側の面が凸形状を有している。ただし本実施例はこれに限定されるものではなく、一方側の面が平面で他方側の面が凸形状を有していてもよい。
レンズアレイ102は、結像光学系101の被写体面201に対する像側共役面に配置されている。またレンズアレイ102は、結像光学系101の射出瞳と撮像素子103とが略共役関係となるように構成されている。被写体面201上の同一位置からの光線は、結像光学系101およびレンズアレイ102を通過した後、この光線の被写体面201上での位置と角度に応じて、撮像素子103の互いに異なる画素へ入射し、ライトフィールドが取得される。ここでレンズアレイ102は、被写体面201上の異なる位置を通過した光線が、同一の画素へ入射するのを防ぐように機能する。その結果、撮像素子103において、被写体面201上の同一の領域を複数の視点から撮影した画素群が並んだ画像が取得される。図13に示される構成では、被写体面201上の同一の位置を3つの画素(2次元では9画素)が撮像している。このため本実施例の撮像光学系は、光の2次元強度分布のみを取得する撮像光学系に対して、2次元的な空間解像度が1/9に低下する。これは、被写体面201上の同一の位置を撮像する画素の数が変化しても、定性的に同じである。
続いて、本実施例におけるリフォーカス処理について説明する。リフォーカス処理に関しては、「Fourier Slice Photography」(Ren Ng著、2005 ACM Trans. Graph.24,735−744参照)にて詳述されているため、ここでは簡単に説明する。
続いて図19を参照して、リフォーカス画像を生成する方法の一例について説明する。図19(a)、(b)は、図13に示される撮像光学系において、レンズアレイ102および撮像素子103の詳細図である。図19(a)、(b)中の一点鎖線は、各画素の中心と、この画素に対応した小レンズの像側主点を通過する光線の経路を延長したものである。仮想結像面203は、リフォーカスによりピントを合わせようとする物体側の面に対する結像光学系101の像側共役面である。ただし本実施例において、像側共役面がレンズアレイ102の物体側主平面よりも像側に位置した場合、像側共役面をレンズアレイ102の主平面間隔だけ像側へ移動した面が仮想結像面203となる。撮像素子103で得られた画素値を、一点鎖線に沿って仮想結像面203へ平行移動させて合成することで、所望のピント位置でのリフォーカス画像を生成することができる。
例えば、図13中の被写体面201にピントの合った画像を生成するには、図19(b)に示されるように、被写体面201と結像光学系101を介して共役な面、すなわちレンズアレイ102の主平面(像側主平面)に仮想結像面203を設定すればよい。図19(a)、(b)において、リフォーカス画像生成の際の平行移動した画素は、破線で表され、分りやすくするために重ねずにずらして描画している。図19(a)、(b)に示されるように、任意のリフォーカス画像を生成する際、画素に入射した光束が通過した結像光学系101の瞳領域が同じである場合、それらの画素は平行移動量が同じであることが分かる。したがって、リフォーカス画像生成時の画素の操作は、画素に入射する光束が通過した結像光学系101の瞳領域に応じて決定される。
続いて、被写界深度の調節方法について説明する。図13の撮像光学系の構成では、前述のように被写体面201上の同一の位置を3つの画素(2次元では9画素)が撮像している。例えばこの場合、3つの画素(2次元では9画素)を全て用いて再構成処理を行うことにより、図13の状態の結像光学系101において被写界深度が一番浅い画像を再構成することができる。また、被写界深度の深い画像を生成する場合、3つの画素の全てを用いずに、例えば中心の1画素のみを用いて再構成処理を行えばよい。これにより、結像光学系101の瞳の全てを用いずに瞳の中心付近を通過する光束のみを選択して画像生成することができる。このため、結像光学系101の開口絞りを絞ったことと同様の効果が得られる。このときの光束の選択により決定される仮想Fナンバーが前述の各工程で説明した仮想被写界深度値に対応する。これは、軸上光束だけではなく、軸外の光束についても同様である。
図13に示される撮像光学系では、被写体面201上の同一の位置を3つの画素でのみ撮像している。このため、前述のような被写界深度の調節を行う場合、3つの画素を用いるか、または、中心の1画素のみを用いるかの2通りしかない。しかし、この間の被写界深度に調節することも可能である。その場合、使用画素の重み付けを変更することにより、被写界深度の調節を行う。例えば、中心の1画素はそのまま用いて、周辺の2画素は中心の画素に対して0.5の割合で再構成処理に用いるなどすれば、中間の被写界深度を再現することも可能である。
続いて、露出値を変更する方法について説明する。前述のように、リフォーカス画像生成の際には、撮像素子103で得られた画素値を、仮想結像面203へ平行移動させて合成することにより、所望のピント位置でのリフォーカス画像を生成することができる。この例では、3つの画素を平行移動させて合成しているが、合成時に補正値のような係数を掛ける(適用する)ことにより、合成時の画素の輝度値を制御することができる。これを画像全体について一律の補正値をかければ、画像全体の明るさを変化させることができる。また、特定の画素(または画素群)のみに対して部分的に補正値を掛けることにより、特定の部分のみの明るさを変更することが可能である。このように補正値を掛けることにより、あたかも実際に露出値を変更したように明るさを変化させることができる。補正値を掛けることにより決定される明るさは、前述の仮想露出値に対応している。
続いて、前述の式(5)中の係数Qの値について説明する。本実施例における撮像装置(撮像光学系)の場合、レンズアレイ102は、結像光学系101の被写体面201に対する像側共役面に配置されている。このため、結像光学系101による被写体面201の像をレンズアレイ102でサンプリングしていることに等しい。これに関し、前述のとおり、光の2次元強度分布のみを取得する撮像装置に対して2次元的な空間解像度が1/9に低下する、と説明している。このため、レンズアレイ102のピッチをL1pすると、係数Q、Δxは、それぞれ、以下の式(6)、(5a)のように表される。
Q=s/L1p … (6)
Δx=(s/L1p)×(Δx/s)=Δx/L1p … (5a)
続いて、図24を参照して、本実施例における画像処理方法について説明する。図24は、本実施例における画像処理方法のフローチャートである。図24の各工程は、システムコントローラ111の指令に基づいて画像処理部105により行われる。
画像処理部105は、領域分割部105aおよび再構成画像生成部105bを有する。領域分割部105aは、入力画像情報に基づいて生成された入力画像(第1の画像)を複数の領域(第1の領域および第2の領域)に分割する。再構成画像生成部105bは、第1の領域および第2の領域に対して互いに異なる撮影条件値を適用することにより、入力画像情報を再構成して出力画像を生成する。好ましくは、画像処理部105の領域分割部105aは、境界決定部1051a、撮影条件値決定部1051b、境界処理範囲決定部1051c、および、境界処理部1051dを有する。境界決定部1051aは、画像を第1の領域および第2の領域に分割する境界を決定する。撮影条件値決定部1051bは、第1の領域および第2の領域のそれぞれに対する撮影条件値を決定する。境界処理範囲決定部1051cは、境界処理範囲を決定する境界処理部1051dは、境界処理範囲に対して境界処理を行う。
好ましくは、境界処理範囲決定部1051cは、第1の領域または第2の領域に対する撮影条件値を適用したときに第1の領域または第2の領域の被写体画像がぼけることにより被写体画像が変化する場合、ぼけの広がり量を算出する。ぼけの広がり量とは、被写体画像の変化前後のぼけの広がり量であり、撮影条件値に基づいて算出される。そして境界処理範囲決定部1051cは、ぼけの広がり量に基づいて境界処理範囲を決定する。
また好ましくは、境界処理部1051dは、境界処理範囲に対して、境界処理範囲を挟んで隣接する第1の領域および第2の領域に対する撮影条件値の間の撮影条件値を適用して境界処理を行う。
まず、図24のステップS501において、入力画像情報(複数の視点画像情報)から第1の画像(入力画像)を生成して出力する。続いてステップS502において、第1の画像に対して、領域(第1の領域、第2の領域)に分割するための境界を決定する。そしてステップS503において、それぞれの領域に対応する撮影条件値を決定する。また、ステップS504において、境界処理範囲を決定する。続いてステップS505において、決定した境界処理範囲内において境界処理を行う。そしてステップS506において、再構成して1つの出力画像を生成する。これにより、一画像中の複数の領域ごとに異なる撮影条件値を適用して再構成画像を生成することができる。
次に、本発明の実施例2について説明する。本実施例における撮像装置の基本構成は、図18を参照して説明した実施例1の撮像装置100と同様であるため、それらの説明は省略する。
まず、図14を参照して、本実施例における撮像光学系の構成について説明する。図14は、撮像光学系の概略構成図である。レンズアレイ102は、結像光学系101の被写体面201に対する像側共役面202より物体側に配置されている。またレンズアレイ102は、結像光学系101の被写体面201に対する像側共役面202と撮像素子103が共役となる(共役関係を有する)ように配置されている。被写体面201からの光線は、結像光学系101およびレンズアレイ102を通過した後、光線の被写体面201上での位置と角度に応じて撮像素子103の異なる画素へ入射し、これにより被写体空間情報(ライトフィールド)が取得される。被写体面201上の同一位置からの光線は、この光線が被写体面201となす角に応じて、結像光学系101の異なる瞳領域を通過する。その結果、撮像素子103では、撮影視点と撮影範囲の異なる複数の小画像が並んだ画像が取得される。
図14に示される撮像光学系は、光の2次元強度分布のみを取得する撮像光学系に対して空間解像度が低下する。これは、結像光学系101が形成した像を、レンズアレイ102が虚物体として見ることで、撮像素子103へさらに縮小結像するためである。その縮小倍率は|σ/σ|倍である。ここで、σは像側共役面202とレンズアレイ102の物体側主平面の間の距離、σはレンズアレイ102の像側主平面と撮像素子103の間の距離である。したがって、図14に示される撮像光学系は、光の2次元強度分布のみを取得する撮像光学系に対して、2次元的な空間解像度が(σ/σ倍される。
次に、図20(a)、(b)を参照して、本実施例におけるリフォーカス画像の生成方法について説明する。図20(a)、(b)は、図14に示される撮像光学系の構成において、レンズアレイ102および撮像素子103の詳細図である。本実施例において、レンズアレイ102は、物体側の面が平面で、像側の面が凸形状の小レンズによって構成されている。ただし実施例1と同様に、レンズアレイ102の形状はこれに限定されるものではない。
図20(a)、(b)中の一点鎖線は、各小レンズの画角を示す。撮像素子103で得られた画素値を、画素に対応する小レンズを介して仮想結像面203へ投影して合成することで、仮想結像面203にピントの合ったリフォーカス画像を生成することができる。例えば、図14中の被写体面201にピントの合った画像を生成するには、像側共役面202に仮想結像面203を設定すればよい。図20(a)、(b)において、リフォーカス画像生成の際にレンズアレイ番号j=−1〜+1から投影した画素は、破線で表され、分りやすくするために重ねずにずらして描画している。リフォーカス画像の生成は、前述した画素を投影する生成方法と、同様の画素の重なりとなるように、各画素を平行移動させて合成する方法でもよい。このとき、画素に入射した光束が通過したレンズアレイ102の領域が等しい場合、それらの画素の平行移動量は同じになる。以上のとおり、本実施例におけるリフォーカス画像生成時の画素の操作は、画素に入射する光束が通過したレンズアレイ102の領域に応じて決定される。
続いて、被写界深度の調節方法について説明する。図14に示される撮像装置(撮像光学系)の構成では、被写体面201上の同一の位置を3つのレンズアレイ102で瞳領域を分割して撮像している。例えばこの場合、3つのレンズアレイ102を全て用いて再構成処理を行うことにより、図14に示される撮像装置(結像光学系101)において、被写界深度が一番浅い画像を生成することができる。また、被写界深度の深い画像を生成する場合、3つのレンズアレイ102の全てを用いずに、例えば中心の1つのレンズアレイ102のみを用いて再構成処理を行えばよい。これにより、結像光学系101の瞳の全てを用いることなく、瞳の中心付近を通過する光束のみを用いて画像生成することができる。このため、結像光学系101の開口絞りを絞ったことと同様の効果が得られる。このときのレンズアレイ102の選択により決定される仮想Fナンバーが前述の各工程で説明される仮想被写界深度値に対応する。これは、軸上光束だけではなく、軸外の光束についても同様である。
図14に示される撮像装置(撮像光学系)においても、図13に示される撮像装置(撮像光学系)と同様に、使用するレンズアレイ102に対応する各画素についての重み付けを変化させることにより、被写界深度の細かい調節を行うことができる。例えば、中心の1つのレンズアレイ102に対応する各画素はそのまま使用し、周辺の2つのレンズアレイ102は中心のレンズアレイ102に対して0.5の割合で周辺の2つのレンズアレイ102に対応する各画素値に重み付けを行う。この結果を再構成処理に利用することにより、その間の任意の被写界深度を再現することも可能である。
続いて、露出値を変更する方法について説明する。前述のように、リフォーカス画像生成の際には、撮像素子103で得られた画素値を、該画素に対応する小レンズを介して仮想結像面203へ投影して合成することにより、仮想結像面203にピントの合ったリフォーカス画像を生成することができる。合成時に各レンズアレイ102に対応する画素値ごとに補正値のような係数を掛ける(適用する)ことにより、実施例1の撮像装置と同様に、合成時の画素の輝度値を制御することができる。これを画像全体について一律の補正値を掛ければ、画像全体の明るさを変更することができる。また、特定の画素(または画素群)のみに部分的に補正値を掛けることにより、特定の部分のみの明るさを変更するが可能である。このように補正値を掛けることにより、あたかも実際に露出値を変更したように明るさを変化させることができる。補正値を掛けることで決定される明るさは、前述の仮想露出値に対応している。
続いて、前述の式(5)中の係数Qの値について説明する。本実施例の撮像装置(撮像光学系)において、レンズアレイ102は、結像光学系101の被写体面201に対する像側共役面202より物体側へ配置されている。また、像側共役面202と撮像素子103は、レンズアレイ102を介して共役関係を有するように配置されている。このため、撮像素子103上には、σ/σ倍だけ縮小されて撮像素子103上の画素によってサンプリングされていることになる。このため、以下の式(7)で表されるように、係数Qはσ/σに等しい。このとき、Δxは以下の式(5b)のように表される。
Q=σ/σ … (7)
Δx=(σ/σ)×(Δx/s) … (5b)
次に、本発明の実施例3について説明する。本実施例における撮像装置の基本構成は、図18を参照して説明した実施例1の撮像装置100と同様であるため、それらの説明は省略する。
まず、図15を参照して、本実施例における撮像光学系の構成について説明する。図15は、撮像光学系の概略構成図である。本実施例の撮像光学系は、レンズアレイ102が像側共役面202より像側へ配置されていることを除いて、実施例2の撮像光学系と同様である。実施例2の撮像装置(撮像光学系)との違いは、レンズアレイ102が結像光学系101の形成した像を実物体として見て、撮像素子103へ再結像させることである。しかし、実施例2(図14)と本実施例(図15)に示される撮像装置(撮像光学系)は、いずれも結像光学系101が結んだ像をレンズアレイ102が物体として見て、その像を撮像素子103へ結像しているため、本質的には同じである。このため、実施例2の撮像装置(撮像光学系)に対するリフォーカスや被写界深度調節についての議論は、本実施例の撮像装置(撮像光学系)に関しても同様に成り立つ。
また、露出値を変更する方法についても、実施例2の撮像装置(撮像光学系)と同様の考え方で制御することができるため、その説明は省略する。式(5)中の係数Qの値についても、式(5b)が適用可能である。
次に、本発明の実施例4について説明する。図21は、本実施例における撮像装置100aのブロック図である。撮像装置100aの構成は、結像光学系101、レンズアレイ102、および、撮像素子103を除いて図18の撮像装置100と同様である。
図25は、本実施例における撮像光学系の概略構成図であり、物体側から結像光学系101を見た図である。図21において、不図示の被写体空間からの光線は、結像光学系101に入射する。結像光学系101は、図22に示されるように、正の屈折力を有する複数の光学系101a〜101gを備えて構成されている。結像光学系101は、光学系101bの光軸を回転軸とした場合、六回対称性を有した構成をしている。ただし、結像光学系101の構成はこれに限定されるものではなく、光学系の個数や配列は適宜変更可能である。光学系101a〜101gの像側には、それぞれ撮像素子103a〜103gが配列されている。ただし、本実施例では複数の撮像素子103a〜103gを備えることは必須でなく、光学系101a〜101gにより形成される像を受光できる場合には単数の撮像素子を備えたものであってもよい。このため、本実施例の撮像装置は、少なくとも1つの撮像素子を有していればよい。
図16は、本実施例の撮像光学系を光学系101a〜101cの光軸を含む断面で見た概略図である。光学系101a、101b、101cで屈折された光線は、それぞれに対応した撮像素子103a、103b、103cで受光される。撮像素子103a〜103cで取得された複数の画像は、被写体空間を異なる視点から観察した視差画像となっている。これらの複数の画像を合わせることで、被写体空間における光の2次元強度分布と角度情報、すなわち被写体空間情報(ライトフィールド)を得ることができる。本実施例では、このような複数の視差画像が入力画像となる。ところで、図16に示される構成は、使用する撮像素子の全画素数が同じであるとすると、光の2次元強度のみを取得する撮像系に対して解像度は低下する。これは被写体空間情報の角度成分の取得に画素を割く必要があるためである。
続いて、本実施例におけるリフォーカス画像の生成方法について説明する。図23は、リフォーカス画像生成に関する説明図であり、図16の構成の詳細図である。図23中の合成物体側主平面は、光学系101a〜101gのそれぞれの物体側主点を通る面であると定義する。同様に、合成像側主平面は、光学系101a〜101gのそれぞれの像側主点を通る面である。図21に示される撮像装置100aにおいて、結像光学系101の物体側主平面、及び像側主平面は、それぞれ合成物体側主平面と合成像側主平面で表されるとする。図23の一点鎖線は、各光学系の画角を表す。
像側のピント位置を仮想結像面203に合わせる場合、撮像素子103a〜103gで得られた画素値を、各撮像素子103a〜103gに対応する光学系101a〜101gを介して物体側リフォーカス面204へ投影して合成すればよい。物体側リフォーカス面204は、仮想結像面203と光学系101a〜101gを介して共役な面である。仮想結像面203を移動することで、任意の位置にピントの合ったリフォーカス画像を生成することができる。
例えば、図16の被写体面201にピントの合った画像を生成するには、撮像素子103a〜103g上に仮想結像面203を設定すればよい。このとき、被写体面201と物体側リフォーカス面204は一致する。図23において、リフォーカス画像生成の際に投影した画素は、破線で表され、分りやすくするために重ねずにずらして示している。リフォーカス画像の生成は、前述した画素を投影する生成方法と、同様の画素の重なりとなるように、各画素を平行移動させて合成する方法でもよい。このとき、画素に入射した光束が通過した光学系が同じである場合、それらの画素の平行移動量は同じになる。以上のとおり、本実施例におけるリフォーカス画像生成時の画素の操作は、画素に入射する光束が通過した光学系に応じて決定される。
続いて、被写界深度の調節方法について説明する。図21に示される撮像装置100aにおいて、不図示の被写体空間上の同一の位置を7つの光学系101a〜gで瞳領域を分割して撮像している。例えばこの場合、7つの光学系101a〜101gの全てを用いて再構成処理を行うと、撮像装置100aの結像光学系101において、被写界深度が一番浅い画像を生成することができる。また、被写界深度の深い画像を生成する場合、7つの光学系101a〜gの全てを用いずに、例えば中心の1つの光学系101bのみを用いて再構成処理を行えばよい。これにより、結像光学系101の瞳の全てを用いることなく、瞳の中心付近を通過する光束のみを用いて画像生成することができる。このため、結像光学系101の開口絞りを絞ったことと同じ効果が得られる。このときの光学系101の選択により決定される仮想Fナンバーは、前述の各工程で説明した仮想被写界深度値に対応する。これは、軸上光束だけではなく、軸外の光束についても同様である。
図21に示される撮像装置100aの場合でも、図13に示される撮像装置100と同様に、使用する光学系101a〜101gに対応する各画素についての重み付けを変更することにより、被写界深度の細かい調節を行うことができる。例えば、中心の1つの光学系101bに対応する各画素はそのまま使用する。また、周辺の6つの光学系101a、光学系101c〜101gは、中心の光学系101bに対して0.5の割合で周辺の6つの光学系101a、光学系101c〜101gに対応する各画素値に重み付けを行う。この結果を再構成処理に用いることにより、その間の任意の被写界深度を再現することが可能である。
続いて、露出値を変更する方法について説明する。前述のように、リフォーカス画像生成の際には、撮像素子103a〜103gで得られた画素値を、各撮像素子103a〜103gに対応する光学系101a〜101gを介して物体側リフォーカス面204へ投影して合成する。これにより、仮想結像面203にピントの合ったリフォーカス画像を生成することができる。合成時に各光学系101に対応する画素値ごとに補正値のような係数を掛ける(適用する)ことにより、実施例1の撮像装置(撮像光学系)と同様に、合成時の画素の輝度値を制御することができる。これを画像全体について一律の補正値を掛ければ、画像全体の明るさを変更することができる。また、特定の画素(または画素群)のみに部分的に補正値を掛ければ、特定の部分のみの明るさを変更することが可能である。このように補正値を掛けることにより、あたかも実際に露出値を変更したように明るさを変化させることができる。補正値を掛けることにより決定される明るさは、前述の仮想露出値に対応している。
続いて、式(5)中の係数Qの値について説明する。実施例4の撮像装置(撮像光学系)の場合、被写体空間からの光線は、図21に示される結像光学系101に入射する。このような構成の場合、各結像光学系の合成瞳を分割して被写体空間情報を取得していることになるが、結像光学系101や撮像素子103は独立に存在する。このため、係数Qの値は、従来の複数視点からの被写体空間情報を取得しない撮像装置と変わらず、以下の式(8)で表されるように1となる。従って、このときΔxは以下の式(5c)ように表される。
Q=1 … (8)
Δx=1×(Δx/s) … (5c)
次に、本発明の実施例5について説明する。本実施例は、前述の各実施例における画像処理方法を行う画像処理装置(画像処理システム)について説明する。図17は、本実施例における画像処理システム300のブロック図である。本実施例の画像処理装置は、複数の視点画像から得られた被写体空間情報を含む入力画像情報を用いて出力画像を生成する。
図17に示されるように、画像処理システム300は撮像装置301を備えている。撮像装置301は、図13乃至図16(実施例1〜4)のいずれかの構成を備えた撮像光学系を有する。画像処理装置302は、前述の画像再構成を行うコンピュータ機器(情報処理装置)である。画像処理装置302は、撮像装置301で取得された入力画像の撮影条件情報を記憶する記憶部を備える。画像処理装置302は、この入力画像に対して所定の再構成処理を行い、その処理結果(出力画像)を出力機器305、表示機器304、記録媒体303のいずれか又は複数に出力する。画像処理装置302は、図24の各工程を実行する。
記録媒体303は、例えば、半導体メモリ、ハードディスク、ネットワーク上のサーバーなどである。出力機器305は、例えばプリンタである。画像処理装置302には表示機器304が接続され、再構成された画像が表示機器304へ入力される。ユーザーは、表示機器304を介して再構成された画像を確認しながら作業を行うことができる。画像処理ソフトウェア306(画像処理プログラム)は、前述の再構成処理(画像処理方法)を行うとともに、必要に応じて現像処理やその他の画像処理を行う。表示機器304は、例えば液晶ディスプレイやプロジェクタなどである。
また、本実施例は、以下の処理を実行することによっても実現される。すなわち、前述の各実施例における機能を実現するソフトウェア(プログラム)を、ネットワークまたは例えばCD−ROMなどの記憶媒体307を介してシステム或いは装置に供給する。そして、そのシステムまたは装置のコンピュータ(またはCPUやMPUなど)が画像処理プログラムを読み出して実行する。
また、各実施例の画像処理プログラムは、以下の画像取得ステップ、撮影条件設定ステップ、および、合成ステップを情報処理装置に実行させるように構成してもよい。画像取得ステップは、互いに異なる第1撮影条件値、第2撮影条件値、および、第3撮影条件値の下でそれぞれ撮影された第1画像、第2画像、および、第3画像を含む入力画像を取得するステップである。撮影条件設定ステップは、出力画像の第1領域に第1撮影条件値を設定し、第2領域に第2撮影条件値を設定するステップである。合成ステップは、第1領域に対応する第1画像と、第2領域に対応する第2画像と、第1領域と第2領域との間の第3領域に対応し、第1撮影条件値と第2撮影条件値との間の第3撮影条件値に基づく第3画像とを合成するステップである。
前記各実施例によれば、一画像中の複数の領域ごとに異なる撮影条件を適用して再構成画像を生成可能な画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体を提供することができる。これにより、背景ぼけと被写界深度を独立に制御可能になり、例えば被写体が動体の場合や撮影者が手持ちで撮影した場合に特に効果的である。
また、各実施例の画像処理装置によれば、一画像内で複数のピント位置を有する画像を容易に得ることができる。このことから、これを応用して、仮想結像面位置を手前から奥(またはその逆)に向かって連続的に変化させるようないわゆるチルトレンズのような効果を得ることが可能である。また、仮想結像面位置を曲面状や自由曲面状に連続的に変化させれば、従来の平面の撮像素子では不可能であった撮影効果も期待できる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
105 画像処理部
105a 領域分割部
105b 再構成画像生成部

Claims (16)

  1. 被写体空間情報を含む入力画像を用いて出力画像を生成する画像処理装置であって、
    前記出力画像の領域を少なくとも第1の領域および第2の領域に分割する領域分割部と、
    前記入力画像を再構成することにより、前記第1の領域および前記第2の領域に対して互いに異なる撮影条件適用された出力画像を生成する再構成画像生成部をし、
    前記再構成画像生成部は、前記第1の領域および前記第2の領域に対して互いに異なる仮想被写界深度が適用された出力画像を生成することを特徴とする画像処理装置。
  2. 前記領域分割部は、
    前記出力画像の領域少なくとも前記第1の領域および前記第2の領域に分割する境界を決定する境界決定部と、
    前記第1の領域および前記第2の領域のそれぞれに適用する前記撮影条件を決定する撮影条件決定部と、
    前記第1の領域と前記第2の領域との間の境界処理範囲を決定する境界処理範囲決定部と、
    前記境界処理範囲に対して、前記撮影条件が互いに異なることにより生じた前記第1の領域と前記第2の領域との間の差を低減するように境界処理を行う境界処理部を有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記境界処理範囲決定部は、前記第1の領域または前記第2の領域に適用する前記撮影条件に基づいて被写体画像の変化前後の視差に対応するぼけの広がり量を算出し、該ぼけの広がり量に基づいて前記境界処理範囲を決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記境界処理部は、前記境界処理範囲に対して、該境界処理範囲を挟んで隣接する前記第1の領域および前記第2の領域に適用する前記撮影条件の間の撮影条件を適用して前記境界処理を行うことを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記再構成画像生成部は、前記第1の領域および前記第2の領域に対して互いに異なる仮想結像面位置が適用された出力画像を生成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記再構成画像生成部は、前記第1の領域および前記第2の領域に対して互いに異なる仮想露出が適用された出力画像を生成することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  7. 被写体空間情報を含む入力画像を用いて出力画像を生成する画像処理装置であって、
    前記出力画像の領域を少なくとも第1の領域および第2の領域に分割する領域分割部と、
    前記入力画像を再構成することにより、前記第1の領域および前記第2の領域に対して互いに異なる撮影条件が適用された出力画像を生成する再構成画像生成部を有し、
    前記領域分割部は、
    前記出力画像の領域を少なくとも前記第1の領域および前記第2の領域に分割する境界を決定する境界決定部と、
    前記第1の領域および前記第2の領域のそれぞれに適用する前記撮影条件を決定する撮影条件決定部と、
    前記第1の領域と前記第2の領域との間の境界処理範囲を決定する境界処理範囲決定部と、
    前記境界処理範囲に対して、該境界処理範囲を挟んで隣接する前記第1の領域および前記第2の領域に適用する前記撮影条件の間の撮影条件を適用して境界処理を行う境界処理部を有することを特徴とする画像処理装置。
  8. 被写体空間情報を含む入力画像を用いて出力画像を生成する撮像装置であって、
    結像光学系と、
    複数の画素を備えた撮像素子と、
    被写体面の同一位置からの光線を、該光線が通過する前記結像光学系の瞳領域に応じて、前記撮像素子の互いに異なる画素に入射させるレンズアレイと、
    請求項1乃至7のいずれか1項に記載の画像処理装置を有し、
    前記レンズアレイは、前記結像光学系の前記被写体面に対する像側共役面に配置されていることを特徴とする撮像装置。
  9. 被写体空間情報を含む入力画像を用いて出力画像を生成する撮像装置であって、
    結像光学系と、
    複数の画素を備えた撮像素子と、
    被写体面の同一位置からの光線を、該光線が通過する前記結像光学系の瞳領域に応じて、前記撮像素子の互いに異なる画素に入射させるレンズアレイと、
    請求項1乃至7のいずれか1項に記載の画像処理装置を有し、
    前記レンズアレイは、前記結像光学系の前記被写体面に対する像側共役面と前記撮像素子が共役となるように配置されていることを特徴とする撮像装置。
  10. 被写体空間情報を含む入力画像を用いて出力画像を生成する撮像装置であって、
    正の屈折力を有する複数の光学系を備えた結像光学系と、
    複数の画素を備えた少なくとも1つの撮像素子と、
    請求項1乃至7のいずれか1項に記載の画像処理装置を有し、
    前記複数の光学系は、被写体面の同一位置からの光線を、該光線が通過する前記結像光学系の瞳領域に応じて、前記撮像素子の互いに異なる画素に入射させるように配列されており、
    前記結像光学系の瞳は、前記複数の光学系の瞳を合成した合成瞳であることを特徴とする撮像装置。
  11. 被写体空間情報を含む入力画像を用いて出力画像を生成する画像処理方法であって、
    前記出力画像の領域少なくとも第1の領域および第2の領域に分割するステップと、
    前記入力画像を再構成することにより、前記第1の領域および前記第2の領域に対して互いに異なる撮影条件適用された出力画像を生成するステップを含み、
    前記第1の領域および前記第2の領域に対して互いに異なる仮想被写界深度が適用されることを特徴とする画像処理方法。
  12. 出力画像の領域少なくとも前記第1の領域および前記第2の領域に分割する境界を決定するステップと、
    前記第1の領域および前記第2の領域のそれぞれに適用する前記撮影条件を決定するステップと、
    前記第1の領域と前記第2の領域との間の境界処理範囲を決定するステップと、
    前記境界処理範囲に対して、前記撮影条件が互いに異なることにより生じた前記第1の領域と前記第2の領域との間の差を低減するように境界処理を行うステップと、を有することを特徴とする請求項11に記載の画像処理方法。
  13. 被写体空間情報を含む入力画像を用いて出力画像を生成する画像処理方法であって、
    前記出力画像の領域を少なくとも第1の領域および第2の領域に分割するステップと、
    前記入力画像を再構成することにより、前記第1の領域および前記第2の領域に対して互いに異なる撮影条件が適用された出力画像を生成するステップを含み、
    前記出力画像の領域を少なくとも前記第1の領域および前記第2の領域に分割する境界を決定し、
    前記第1の領域および前記第2の領域のそれぞれに適用する前記撮影条件を決定し、
    前記第1の領域と前記第2の領域との間の境界処理範囲を決定し、
    前記境界処理範囲に対して、該境界処理範囲を挟んで隣接する前記第1の領域および前記第2の領域に適用する前記撮影条件の間の撮影条件を適用して境界処理を行うことを特徴とする画像処理方法。
  14. 請求項11乃至13のいずれか1項に記載の画像処理方法を情報処理装置に実行させることを特徴とする画像処理プログラム。
  15. 互いに異なる第1撮影条件、第2撮影条件、および、第3撮影条件でそれぞれ撮影された第1画像、第2画像、および、第3画像を取得する取得ステップと、
    出力画像の第1領域に前記第1撮影条件を設定し、第2領域に前記第2撮影条件を設定する撮影条件設定ステップと、
    前記第1領域に対応する前記第1画像と、前記第2領域に対応する前記第2画像と、前記第1領域と前記第2領域との間の第3領域に対応し、前記第1撮影条件と前記第2撮影条件の間の前記第3撮影条件に基づく前記第3画像とを合成する合成ステップと、を情報処理装置に実行させることを特徴とする画像処理プログラム。
  16. 請求項14または15に記載の画像処理プログラムを記憶していることを特徴とする記憶媒体。
JP2013026538A 2013-02-14 2013-02-14 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体 Active JP6230239B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013026538A JP6230239B2 (ja) 2013-02-14 2013-02-14 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US14/178,338 US9521316B2 (en) 2013-02-14 2014-02-12 Image processing apparatus for reconstructing an image, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
CN201410050633.3A CN103997599B (zh) 2013-02-14 2014-02-14 图像处理设备、图像拾取设备以及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013026538A JP6230239B2 (ja) 2013-02-14 2013-02-14 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体

Publications (2)

Publication Number Publication Date
JP2014158070A JP2014158070A (ja) 2014-08-28
JP6230239B2 true JP6230239B2 (ja) 2017-11-15

Family

ID=51297211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013026538A Active JP6230239B2 (ja) 2013-02-14 2013-02-14 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体

Country Status (3)

Country Link
US (1) US9521316B2 (ja)
JP (1) JP6230239B2 (ja)
CN (1) CN103997599B (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9282228B2 (en) 2013-01-05 2016-03-08 The Lightco Inc. Camera methods and apparatus using optical chain modules which alter the direction of received light
JP6319972B2 (ja) * 2013-08-26 2018-05-09 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、およびプログラム
US9423588B2 (en) 2013-10-18 2016-08-23 The Lightco Inc. Methods and apparatus for supporting zoom operations
US9374514B2 (en) 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9549127B2 (en) 2013-10-18 2017-01-17 Light Labs Inc. Image capture control methods and apparatus
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
US9467627B2 (en) 2013-10-26 2016-10-11 The Lightco Inc. Methods and apparatus for use with multiple optical chains
US9686471B2 (en) 2013-11-01 2017-06-20 Light Labs Inc. Methods and apparatus relating to image stabilization
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
US10931866B2 (en) 2014-01-05 2021-02-23 Light Labs Inc. Methods and apparatus for receiving and storing in a camera a user controllable setting that is used to control composite image generation performed after image capture
US9462170B2 (en) 2014-02-21 2016-10-04 The Lightco Inc. Lighting methods and apparatus
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
CN106575366A (zh) 2014-07-04 2017-04-19 光实验室股份有限公司 关于检测和/或指示脏镜头状况的方法和装置
WO2016007799A1 (en) 2014-07-09 2016-01-14 The Lightco Inc. Camera device including multiple optical chains and related methods
JP6351105B2 (ja) * 2014-09-29 2018-07-04 オリンパス株式会社 画像処理装置、撮像装置および画像処理方法
CN107005638B (zh) * 2014-09-30 2021-10-22 株式会社尼康 电子设备和拍摄装置
US9912865B2 (en) 2014-10-17 2018-03-06 Light Labs Inc. Methods and apparatus for supporting burst modes of camera operation
CN107211099A (zh) 2014-12-17 2017-09-26 光实验室股份有限公司 用于实施并使用摄像机装置的方法及设备
US9544503B2 (en) * 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
JP6486149B2 (ja) 2015-03-03 2019-03-20 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
US9967535B2 (en) 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
US9930233B2 (en) 2015-04-22 2018-03-27 Light Labs Inc. Filter mounting methods and apparatus and related camera apparatus
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
JP6736270B2 (ja) * 2015-07-13 2020-08-05 キヤノン株式会社 画像処理装置及び画像処理装置の作動方法
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
CN106254750B (zh) * 2015-08-31 2019-04-26 北京智谷睿拓技术服务有限公司 图像采集控制方法和装置
US10051182B2 (en) 2015-10-05 2018-08-14 Light Labs Inc. Methods and apparatus for compensating for motion and/or changing light conditions during image capture
CN105223756B (zh) * 2015-10-06 2018-03-09 瑞声光电科技(常州)有限公司 阵列式镜头模组
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
JP6723720B2 (ja) * 2015-10-20 2020-07-15 キヤノン株式会社 表示システム、情報処理方法及びプログラム
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
CN108475413A (zh) * 2016-01-11 2018-08-31 汤姆逊许可公司 一致地编辑光场数据
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
EP3435328A4 (en) * 2016-03-23 2019-11-13 Hitachi Automotive Systems, Ltd. OBJECT DETECTION DEVICE
JP2019114821A (ja) * 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
US10950039B2 (en) 2016-06-16 2021-03-16 Sony Interactive Entertainment Inc. Image processing apparatus
US9948832B2 (en) 2016-06-22 2018-04-17 Light Labs Inc. Methods and apparatus for synchronized image capture in a device including optical chains with different orientations
JP2018050231A (ja) * 2016-09-23 2018-03-29 キヤノン株式会社 撮像装置、撮像方法および撮像制御プログラム
CN109923854B (zh) * 2016-11-08 2022-01-04 索尼公司 图像处理装置、图像处理方法以及记录介质
CN106791471B (zh) * 2016-12-29 2021-07-20 宇龙计算机通信科技(深圳)有限公司 图像优化方法、图像优化装置和终端
JP6780537B2 (ja) * 2017-02-22 2020-11-04 オムロン株式会社 光学センサ、学習装置、及び画像処理システム
US10084967B1 (en) * 2017-03-24 2018-09-25 Qualcomm Incorporated Systems and methods for regionally controlling exposure time in high dynamic range imaging
KR102053527B1 (ko) * 2017-10-15 2019-12-06 알레시오 주식회사 이미지 처리 방법
JP7158841B2 (ja) * 2017-11-08 2022-10-24 キヤノン株式会社 撮像装置、撮像方法、プログラム、記録媒体および画像処理装置
US11663708B2 (en) 2018-03-06 2023-05-30 Sony Corporation Image processing apparatus, imaging apparatus, and image processing method
CN108259727A (zh) * 2018-03-21 2018-07-06 维沃移动通信有限公司 一种景深图像生成方法及移动终端
JP7271895B2 (ja) * 2018-09-28 2023-05-12 株式会社ニコン 電子機器および設定プログラム
JP7337566B2 (ja) * 2019-07-01 2023-09-04 キヤノン株式会社 撮像装置、画像処理方法、およびプログラム
CN117078662A (zh) * 2023-10-11 2023-11-17 杭州睿影科技有限公司 一种叠片式电池的检测方法、装置、图像处理设备及介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10290389A (ja) * 1997-04-16 1998-10-27 Toyota Motor Corp マルチフォーカス画像作成方法及び画像作成装置
US7286168B2 (en) * 2001-10-12 2007-10-23 Canon Kabushiki Kaisha Image processing apparatus and method for adding blur to an image
JP4321287B2 (ja) 2004-02-10 2009-08-26 ソニー株式会社 撮影装置および撮影方法、並びに、プログラム
WO2007049634A1 (ja) * 2005-10-28 2007-05-03 Nikon Corporation 撮影装置、画像処理装置およびプログラム
JP4460560B2 (ja) * 2006-09-29 2010-05-12 富士フイルム株式会社 撮像装置及び撮影方法
JP2008312080A (ja) * 2007-06-18 2008-12-25 Sony Corp 撮像装置及び撮像方法
KR101510098B1 (ko) 2007-12-21 2015-04-08 삼성전자주식회사 디지털 영상 처리 장치에서 영상의 배경흐림 효과 처리장치 및 방법
JP5231284B2 (ja) 2008-03-31 2013-07-10 富士フイルム株式会社 撮像装置、撮像方法、およびプログラム
JP2010148045A (ja) * 2008-12-22 2010-07-01 Sony Corp 撮像装置および撮像方法
US20120249550A1 (en) * 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
JP2011211291A (ja) 2010-03-29 2011-10-20 Sanyo Electric Co Ltd 画像処理装置、撮像装置及び表示装置
JP2011211523A (ja) 2010-03-30 2011-10-20 Fujifilm Corp 画像処理方法および撮影装置
JP5517746B2 (ja) * 2010-05-26 2014-06-11 キヤノン株式会社 画像処理装置およびその方法
BR112013013356A2 (pt) * 2010-12-03 2016-09-13 Sharp Kk dispositivo de processamento de imagem, método de processamento de imagem e programa de processamento de imagem
JP5623313B2 (ja) * 2011-03-10 2014-11-12 キヤノン株式会社 撮像装置および撮像光学系
JP5655667B2 (ja) * 2011-03-31 2015-01-21 カシオ計算機株式会社 撮像装置及び撮像制御方法、画像処理装置及び画像処理方法、並びにプログラム
US8704916B2 (en) * 2011-04-11 2014-04-22 Canon Kabushiki Kaisha Systems and methods for focus transition
JP5818514B2 (ja) * 2011-05-27 2015-11-18 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
JP5762142B2 (ja) * 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
JP2013025649A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置及び画像処理方法、プログラム
JP6000520B2 (ja) * 2011-07-25 2016-09-28 キヤノン株式会社 撮像装置およびその制御方法およびプログラム

Also Published As

Publication number Publication date
US9521316B2 (en) 2016-12-13
CN103997599B (zh) 2017-09-26
CN103997599A (zh) 2014-08-20
JP2014158070A (ja) 2014-08-28
US20140226041A1 (en) 2014-08-14

Similar Documents

Publication Publication Date Title
JP6230239B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
KR101602394B1 (ko) 3d 깊이 정보를 기반으로 한 이미지 블러
JP5988790B2 (ja) 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
US8553134B2 (en) Imager processing a captured image
JP6789833B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6838994B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2014232181A5 (ja)
JP2015204587A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、記憶媒体
JP5644468B2 (ja) 撮像装置および撮像装置の制御プログラム
JP2013026844A (ja) 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
JP6003578B2 (ja) 画像生成方法及び装置
JP6418770B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および記憶媒体
JP2015041884A (ja) 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体
JP2012124555A (ja) 撮像装置
JP2017184217A (ja) 画像処理装置、撮像装置およびこれらの制御方法ならびにプログラム
WO2016139895A1 (en) Image processing apparatus, image pickup apparatus, image processing method, program, and storage medium
JP2015046019A (ja) 画像処理装置、撮像装置、撮像システム、画像処理方法、プログラム、および、記憶媒体
JP6516510B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2011237713A (ja) 画像撮影装置、及び画像撮影方法
JP6608194B2 (ja) 画像処理装置およびその制御方法ならびにプログラム
JP6168220B2 (ja) 画像生成装置、画像処理装置、画像生成方法及び画像処理プログラム
JP2014036362A (ja) 撮像装置、その制御方法、および制御プログラム
US10681260B2 (en) Focus detection device and focus detection method
JP6330955B2 (ja) 撮像装置及び撮像方法
JP6569769B2 (ja) 任意視点画像合成方法及び画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171017

R151 Written notification of patent or utility model registration

Ref document number: 6230239

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151