JP2014086899A - 画像処理装置、画像処理方法およびプログラム。 - Google Patents

画像処理装置、画像処理方法およびプログラム。 Download PDF

Info

Publication number
JP2014086899A
JP2014086899A JP2012234736A JP2012234736A JP2014086899A JP 2014086899 A JP2014086899 A JP 2014086899A JP 2012234736 A JP2012234736 A JP 2012234736A JP 2012234736 A JP2012234736 A JP 2012234736A JP 2014086899 A JP2014086899 A JP 2014086899A
Authority
JP
Japan
Prior art keywords
virtual
composite image
image processing
imaging
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012234736A
Other languages
English (en)
Other versions
JP6012396B2 (ja
Inventor
Tomohiro Nishiyama
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012234736A priority Critical patent/JP6012396B2/ja
Publication of JP2014086899A publication Critical patent/JP2014086899A/ja
Application granted granted Critical
Publication of JP6012396B2 publication Critical patent/JP6012396B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】従来の手法では、ピント位置の調節、被写界深度の調節、撮像後に視点位置の変更のすべてを行うことはできなかった。
【解決手段】光線の向きと強度を示すライトフィールドデータから合成画像を生成する画像処理装置であって、少なくとも仮想的な視点位置及び仮想的な絞りの開口の特徴量を含む、前記合成画像を生成するためのパラメータを取得する取得手段と、取得した前記パラメータに従って、前記合成画像を生成する合成画像生成手段と、を備えたことを特徴とする。
【選択図】図8

Description

本発明は、ライトフィールドを用いた画像処理に関する。
近年、光学系に新たな光学素子を追加することで、光線の向きと強度の情報(ライトフィールド)を取得し、後で画像処理によってピント位置の調節(リフォーカス)や被写界深度の調節が可能な技術が知られている(特許文献1)。
また、撮像後に視点位置を変える方法として、光線空間法が知られている。光線空間法ではライトフィールドデータから情報の切り出し方を変えることで、仮想視点のピンホールカメラで撮像した画像を生成する。
これらの技術を用いれば、撮像後に撮像条件を変更できるため、撮像時の失敗を画像処理で補うことができるという利点がある。さらに、様々な撮像条件の画像を画像処理によって得ることができるため、撮像回数を減らす事ができる。
特表2008−515110号公報
しかしながら、特許文献1の手法では、ピント位置の調節(リフォーカス)や被写界深度の調節は可能であるが、撮像後に視点位置を変更することはできない。一方、光線空間法では、撮像後に視点位置を変えることは可能であるが、ピント位置の調節や被写界深度の調節はできない。
本発明に係る画像処理装置は、光線の向きと強度を示すライトフィールドデータから合成画像を生成する画像処理装置であって、少なくとも仮想的な視点位置及び仮想的な絞りの開口の特徴量を含む、前記合成画像を生成するためのパラメータを取得する取得手段と、取得した前記パラメータに従って、前記合成画像を生成する合成画像生成手段と、を備えたことを特徴とする。
本発明によれば、様々なパラメータを撮像後に変更することが可能になる。
実施例1に係る撮像装置の内部構成を示すブロック図である。 (a)は撮像部の内部構成の一例を示す図であり、(b)はマイクロレンズが配された撮像部の内部構成を概念的に表した図である。 メインレンズに入射する前の光線と、メインレンズに入射した後の光線との対応関係を表した図である。 実施例1に係る画像処理部の内部構成を示したブロック図である。 (a)は仮想カメラの視点位置を指定するためのUI画面の一例、(b)は仮想レンズの焦点距離、仮想センサの位置、仮想絞りの開口幅および仮想センサの解像度を指定するためのUI画面の一例を示す図である。 仮想結像面の求め方を説明する図である。 (a)は、被写体と光線の関係を表す図であり、同(b)は被写体を通る光線をライトフィールド座標にプロットした図である。 実施例1に係る画像処理の流れを示すフローチャートである。 実施例1において、合成画像の各画素値がどのように取得されるのかを説明する図である。 合成画像を求める様子を、ライトフィールド座標上で表した概念図である。 実施例1の効果を説明する図である。 実施例2に係る画像処理で生成される合成画像の各画素値がどのように取得されるのかを説明する図である。 実施例3に係る画像処理部の内部構成を示したブロック図である。 仮想カメラの視点位置及び仮想絞りの開口幅の適正範囲がどのようにして導出されるのかを説明する図である。 表示部のUI画面上にエラーメッセージが表示された状態を示す図である。 実施例4に係る画像処理部の内部構成を示したブロック図である。 実施例4に係る、ユーザが仮想撮像パラメータを指定するためのUI画面の一例である。
[実施例1]
図1は、本実施例に係る撮像装置の内部構成を示すブロック図である。
撮像部100は、被写体の光情報を撮像素子で受光し、受光した信号をA/D変換して、デジタル信号にする。デジタル信号は、ライトフィールドデータ生成部(LFデータ生成部)113に送られ、後述するようなライトフィールドデータが生成される。ここでは、LFデータ生成部113を撮像部100とは別の構成要素としているが、ライトフィールドデータの生成を撮像部100の機能に組み込んでもよい。なお、本実施例では、撮像部100として、メインレンズと撮像素子の間にマイクロレンズアレイを配置した構成を想定している。撮像部100の詳細については後述する。
中央処理装置(CPU)101は、以下に述べる各部を統括的に制御する。
RAM102は、CPU101の主メモリ、ワークエリア等として機能する。
ROM103は、CPU101で実行される制御プログラム等を格納している。
バス104は各種データの転送経路であり、例えば、撮像部100によって取得されたデジタルデータはこのバス104を介して所定の処理部に送られる。
ユーザの指示を受け取る操作部105には、ボタンやモードダイヤルなどが含まれる。操作部の詳細については後述する。
撮像画像や文字の表示を行う表示部106には、例えば、液晶ディスプレイが用いられる。表示部106はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部105の入力として扱うことも可能である。
表示制御部107は、表示部106に表示される撮像画像や文字の表示制御を行う。
撮像部制御部108は、フォーカスを合わせる、シャッターを開く・閉じる、開口絞りを調節するなどの、CPU101からの指示に基づいた撮像系の制御を行う。
デジタル信号処理部109は、バス104を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。
エンコーダ部110は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。
外部メモリ制御部111は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。
画像処理部112は、撮像部100で取得されたデジタルデータを用いて、リフォーカス処理などの画像合成処理を行う。画像処理部112の詳細については後述する。なお、画像処理部112は、撮像装置から独立した画像処理装置としても成立し得るものである。
なお、撮像装置の構成要素は上記以外にも存在するが、本実施例の主眼ではないので、説明を省略する。
図2の(a)は、撮像部100の内部構成の一例を示す図である。
撮像部100は、撮像レンズ201〜203、開口絞り(以下、単に「絞り」と呼ぶ。)204、シャッター205、マイクロレンズアレイ206、光学ローパスフィルタ207、iRカットフィルタ208、カラーフィルタ209、光電変換する撮像素子(センサ)210及びA/D変換部211で構成される。撮像レンズ201〜203は夫々、ズームレンズ201、フォーカスレンズ202、ぶれ補正レンズ203である。絞りを調整することにより、撮像部100に入射される入射光量を調整することができる。なお、各レンズのサイズがマイクロメートル単位、あるいはミリメートル単位であっても、各レンズのサイズに関わらず「マイクロレンズ」と呼ぶことにする。
図2の(b)は、マイクロレンズが配された撮像部の内部構成を概念的に表した図である。
メインレンズ212は、ズームレンズ201、フォーカスレンズ202、ぶれ補正レンズ203をまとめて1枚で表したものであり、そこから入射した光線213がマイクロレンズアレイ206を通過して撮像素子210に到達する様子を示している。Plenopticカメラでは、マイクロレンズアレイ206を挿入することで、光線213がメインレンズ212のどちらの方向から来たのかを弁別し、光線の向きと強度を示すライトフィールドを取得することができる。
図3は、メインレンズ212に入射する前の光線とメインレンズ212に入射した後の光線との対応関係(撮像部101の内側と外側におけるライトフィールド)を表した図である。被写体301からの光線302〜304が、メインレンズ212を通過後、光線305〜307として撮像部100の撮像素子210によって取得される。本実施例では、LFデータ生成部113にて、メインレンズ212の光学情報とメインレンズ入射後の光線群(光線305〜307)の情報から、メインレンズ212に入射前の光線群(光線302〜304)の情報への変換がなされる。メインレンズ212による光の減衰がないものとすれば、メインレンズ入射後の光線群(光線305〜307等)の情報を基に、被写体301からメインレンズ212までの空間の光線群(光線302〜304等)の情報を得ることができる。
以下では、特に断らない限り、用語「ライトフィールド」を、被写体からメインレンズ212までの光線群によって規定される三次元空間を指すものとして用いることとする。また、ライトフィールドを規定する光線群は、十分な角度・空間分解能で取得できているものとする。
なお、ライトフィールドを取得する撮像装置としては、上述のマイクロレンズを備えたカメラ(Plenopticカメラ)に限られるものではなく、例えば複数の個眼カメラからなる多眼カメラなど、ライトフィールドを取得できるものであればよい。
(画像処理部)
図4は、本実施例に係る画像処理部112の内部構成を示したブロック図である。
本実施例では、ユーザが指定した仮想的な撮像パラメータの下で撮像を行う仮想的なカメラ(以下、「仮想カメラ」と呼ぶ。)を想定し、その仮想カメラから撮像した場合の画像を、ライトフィールドデータを用いて合成し生成することになる。以下、ライトフィールドデータを用いて、仮想カメラで撮像した場合の画像(合成画像)の生成を行う画像処理部112について説明する。
ライトフィールド取得部401は、LFデータ生成部113からライトフィールドデータを取得する。取得したライトフィールドデータは、結像面設定部403に送られる。
仮想撮像パラメータ取得部402は、仮想結像面設定部403及び合成画像生成部404で必要となる仮想的な撮像パラメータ(以下、「仮想撮像パラメータ」と呼ぶ。)を取得する。ここで、仮想撮像パラメータには、以下のパラメータが含まれるものとする。
・仮想的な視点位置(仮想カメラの視点位置)
・仮想的なレンズの焦点距離
・仮想的な撮像素子(仮想センサ)の位置:仮想レンズと仮想センサとの距離
・仮想的な絞りの開口幅
・仮想センサの画素数(解像度)
なお、「仮想絞りの開口幅」とは、仮想絞りの特徴量を表す指標の一例であり、仮想絞りの特徴を示す他の指標、例えば、開口の面積やFナンバーなどであってもよいことはいうまでもない。また、焦点距離によって画角や被写界深度を、絞りの開口幅によって被写界深度をコントロールすることができるので、上述の仮想撮像パラメータには、仮想的な画角や仮想的な被写界深度も実質的に含まれていることになる。
仮想結像面設定部403は、入力された仮想撮像パラメータのうち、仮想カメラの視点位置、仮想レンズの焦点距離、仮想センサの位置の各情報に基づいて、仮想センサに共役な面(以下、「仮想結像面」と呼ぶ。)を導出し設定する。仮想結像面をどのようにして求めるかについては後述する。
合成画像生成部404は、ライトフィールドデータを用いて、入力された仮想撮像パラメータに従った合成画像を生成する。
(仮想撮像パラメータ)
図5の(a)及び(b)は、ユーザが上述の仮想撮像パラメータを指定するためのUI画面の一例を示す図である。
図5の(a)は、仮想カメラの視点位置を指定するためのUI画面である。UI画面500において、ユーザは、画面上に表示された被写体507に対する仮想カメラ501の位置を、マウスカーソル506を用いて(例えばドラッグアンドドロップする等)により指定する。
仮想カメラ501の視点位置は、仮想レンズ503の主点504の位置が座標軸508上のどこに位置するのかを示す座標情報、(ここでは、座標(xc,zc)、単位[mm])によって特定され、例えば、(xc,zc)=(0,100)のように表される。なお、502は仮想絞り、505は仮想センサを表している。もちろん、仮想カメラ501の位置を特定することができればよいので、仮想レンズ503の主点504以外の部分の座標位置であっても良い。なお、座標軸508は本来3次元であるが、ここでは説明を簡単にするため、x軸とz軸の2次元で説明している点に留意されたい。
図5の(b)は、仮想レンズの焦点距離、仮想センサの位置(仮想レンズと仮想センサとの距離)、仮想絞りの開口幅および仮想センサの解像度を指定するためのUI画面である。UI画面510において、ユーザは、画面上に表示された各スライドバー511〜514を用いて、仮想レンズ503の焦点距離、仮想センサ505の位置、仮想絞り502の開口幅および仮想センサ505の解像度を、それぞれ指定する。
なお、本実施例では、仮想センサ505が座標軸508のx軸に対して常に平行である(すなわち、ユーザは仮想カメラの視点位置を指定する際、仮想センサがx軸に対して傾くような状態では指定しない。)ものとして、以下説明する。
上述のようなUI画面を介して指定された仮想撮像パラメータのうち、仮想カメラの視点位置、仮想レンズの焦点距離、仮想センサの位置については、仮想結像面設定部403に入力される。また、指定された仮想撮像パラメータのうち、仮想絞りの開口幅、仮想レンズの焦点距離、仮想センサの解像度については、合成画像生成部404に入力される。
なお、仮想撮像パラメータには、例えば以下のようなデフォルト値を設定しておいても良い。
・仮想レンズの焦点距離:50mm
・仮想センサの位置(仮想レンズと仮想センサの距離):50.7mm
・仮想絞りの開口幅:17.9mm(F2.8相当)
・仮想センサの解像度:2000万画素
(仮想結像面の求め方)
図6は、仮想結像面の求め方を説明する図である。図6において、2つの被写体507上を通るx軸と平行な破線601が、求める仮想結像面を示している。仮想結像面601は、仮想センサ505に共役な面である。ここで、仮想レンズ503の焦点距離をf、仮想レンズ503と仮想センサ505との距離をbとすると、仮想レンズ503と仮想結像面601との距離aは、レンズの公式から以下の式(1)で表される。
本実施例では、仮想結像面601はx軸に平行なので、主点504のz座標が決まると仮想結像面の位置も決まることになる。いま、主点504のz座標はzcであるので、仮想結像面601のz座標をzvは、以下の式(2)で表される。
このようにして、x軸に平行な仮想結像面が求められる。
(ライトフィールド)
画像処理部112における処理内容の詳細に入る前に、ライトフィールドについて簡単に説明する。
図7の(a)は、被写体と光線の関係を表す図であり、同(b)は被写体を通る光線をライトフィールド座標にプロットした図である。
図7の(a)において、破線で示されるu平面およびs平面は、仮想的に設置された互いに平行な平面である。本来、u平面およびs平面は2次元の平面であるが、ここでは図示の都合上1次元で表現することとする。いま、空間中には被写体701が配置されており、撮像装置によって被写体701を含む空間中のライトフィールドを取得する状況を想定する。斜め左下がりの両方向矢印702及び斜め右下がりの両方向矢印703は被写体701から出た光線を示しており、光線702及び703がそれぞれu平面及びs平面を通過する位置を座標(u,s)の形式で表すと、光線702は(u2,s1)、光線703は(u1,s2)をそれぞれ通過しているのが分かる。これを、uを横軸、sを縦軸にとったライトフィールド座標上にプロットすると、図7の(b)に示すように、それぞれ点705及び706の位置にプロットされる。即ち、空間中の一本の光線はライトフィールド座標上では一点に対応する。このようにして、空間中のある点を通過するすべての光線を考えると、それらの光線に対応するライトフィールド座標上の点の集合は直線になるという性質が知られている。例えば、被写体701から出た光線に対応するライトフィールド座標上の点は全て直線707上に乗ることになる。そして、直線707の傾きαは、u平面から被写体701までの距離に応じて変化する。ここで、被写体701の座標を(xobj,zobj)とすると、被写体701を通る光線は以下の関係式を満たす。
これは、被写体701がu平面とs平面を、α:(1-α)に内分する点であることに従う。(u,s)のライトフィールド座標上では、上記式(3)は直線を表す方程式になっている。
(画像処理部)
図8は、本実施例に係る画像処理の流れを示すフローチャートである。なお、この一連の処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムをROM103からRAM102上に読み込んだ後、CPU101によって該プログラムを実行することによって実施される。
ステップ801において、ライトフィールド取得部401は、LFデータ生成部113からライトフィールドデータを取得する。
ステップ802において、仮想撮像パラメータ取得部402は、ユーザが上述のUI画面を介して指定した仮想撮像パラメータを取得する。上述のとおり、取得した仮想撮像パラメータのうち、仮想カメラの視点位置、仮想レンズの焦点距離、仮想センサの位置は、仮想結像面設定部403に送られる。また、仮想絞りの開口幅と仮想センサの画素数は、合成画像生成部404に送られる。
ステップ803において、仮想結像面設定部403は、入力された仮想カメラの視点位置、仮想レンズの焦点距離、仮想センサの位置に基づいて仮想結像面を求め、合成画像の生成に用いる結像面として設定する。
ステップ804において、合成画像生成部404は、ステップ803で設定された仮想結像面、及び入力された仮想カメラの視点位置、仮想絞りの開口幅、仮想センサの画素数を基に、ライトフィールドデータを用いて合成画像を生成する。以下、詳しく説明する。
図9は、本実施例において、合成画像の各画素値がどのように取得されるのかを説明する図である。ユーザが指定した仮想撮像パラメータに従った画像を生成するためには、所定の画素ピッチで仮想結像面901上の点を通る光線の量(仮想結像面上で結像する仮想的な絞りの開口を介して入射される光線の量)を計算すればよい。つまり、得られた光線量が、合成画像における画素値に対応する。
まず、画素ピッチについて説明する。
画素ピッチは、以下の考え方で導くことができる。
いま、ユーザが指定した仮想焦点距離(35mm換算)をfとすると、仮想カメラによって撮像される画像の画角φは、以下の式(4)によって表される。
なお、上記式(4)の右辺における分子の"36"は、フルサイズセンサ(36mmx24mm)の長辺の長さに対応している。そして、仮想カメラがカバーする画角φは、仮想結像面901上では2atanφ(a:仮想レンズと仮想結像面との距離)の長さに相当する。よって、ユーザが指定した仮想センサの画素数をNとすると、以下の式(5)で表される画素ピッチで画素値を計算すればよいことが分かる。
例えば、a=3500mm、f=50mm、N=5480pixelとすると、式(5)から画素ピッチは0.46mmとなる。
次に、画素値の計算方法について説明する。
図9における点902を通る光線の量は、仮想絞り502の開口部分を底辺とし、設定された仮想結像面901上のある点902を頂点とする三角形(斜線領域903)内のライトフィールドを積分することで得ることができる。いま、点902のx軸の座標をXとすると、仮想結像面901のz軸の座標zvはa+zcであるので(式(2)参照)、点902を通る光線は、前述の式(3)より以下の式(6)で表すことができる。
ここで、仮想絞り502の開口部分に含まれる点のx軸の座標をxaとし、仮想絞り502のz軸の座標と仮想レンズ503の主点504のz軸の座標とがほぼ同じであるとする。この場合、主点504のz軸の座標はzcなので、仮想絞り502の開口部分に含まれる任意の点を通る光線は、前述の式(3)より以下の式(7)のようになる。
そして、仮想絞り502の開口幅をDとするとxc-D/2≦xa≦xc+D/2なので、仮想絞り502を通過する光線群は、ライトフィールド座標(u,s)上で以下の式(8)で表される領域内に含まれることになる。
さらに、前述の式(6)より、以下の式(9)が得られる。
そして、合成画像生成部404は、上述の式(5)によって得られた画素ピッチに従って、点902の位置Xを順次移動させ、各画素位置Xにおける画素値を求めることで、指定された仮想撮像パラメータに従った画像Iを生成する。具体的には、以下の式(10)から画像Iを求める。
ここでL(u,s)はライトフィールド関数であり、ライトフィールド座標(u,s)における光線の輝度を表している。また、Aは、u平面上の積分範囲を示し、上記式(8)に上記式(9)を代入することで得られる以下の式(11)で表される。
図10は、上記式(10)を用いて画像Iを求める様子を、ライトフィールド座標上で表した概念図である。領域1001は、図9における点902のx軸の座標Xを変化させた時に仮想結像面を通るすべての光線の集合を表している。また、領域1002は、図9における仮想絞り502を通過する光線の集合を表している。斜め右上がりの矢印1004は、図9における仮想結像面901上の画素が並ぶ方向であるx軸を表している。この場合において、積分範囲は線分1005(領域1001と領域1002とが重なった部分における、領域1001の境界を構成する直線1003と平行な線分)に相当する。
合成画像生成部404は、上記式(10)に従って、線分1005の範囲で積分し、x軸1004の方向に式(5)から得られる画素ピッチで画素値を計算して、合成画像を生成する。
仮に、仮想絞りの開口幅Dが0の場合(仮想カメラがピンホールカメラの場合)は、領域1002は直線になるので、x軸1004上の値を式(5)から求められた画素ピッチで取得することで合成画像を生成することになる。
図11は、本実施例の効果を説明する図である。図11の(a)は、被写体1101及び1102と仮想カメラ1103の位置関係を表している。被写体1101は被写体1102に比べて仮想カメラ1103により近い位置にある。そして、図11の(b)は仮想カメラ1103の視点位置がs平面上にある場合の合成画像、同(c)は仮想カメラ1103の視点位置がs平面からz軸の正の方向に平行移動した位置(破線で示される位置)にある場合の合成画像をそれぞれ示している。なお、説明の便宜上、合成画像を1次元情報として表示している。また、仮想カメラ1103のピント距離は、x軸からu平面までの距離(zu)とx軸からs平面までの距離(z)との差分(zu-zs)となるように調整されているものとする。
図11の(b)と(c)とを比較すると、(b)ではs平面上に仮想カメラ1103の視点位置が存在するため、被写体1101にピントが合っている。これに対し、(c)では仮想カメラ1103の視点位置が上述のピント距離より被写体側に近づくため、被写体1101が少しボケていることが分かる。また、被写体1102に関しては、(b)の場合に比べ(c)の場合の方がピント面に近いため、ボケが少なくなっていることが分かる。また、被写体1102については(b)と(c)でほぼ同じ大きさのままだが、被写体1101については(c)の方が大きくなっており、構図が変化していることが分かる。
図8のフローチャートの説明に戻る。
ステップ805において、画像処理部112は、合成画像生成部404で生成された合成画像のデータを表示部106に出力する。
このようにして、ユーザが指定した仮想撮像パラメータに従った合成画像が生成される。
以上のとおり、本実施例によれば、視点位置、焦点距離、センサの位置、絞りの開口幅、被写界深度、画角、解像度といった様々なパラメータを撮像後に画像処理で変更することができる。
[実施例2]
実施例1では、ユーザが仮想カメラの視点位置を指定する場合において、仮想センサが座標軸のx軸に対して平行であることを前提とした。次に、ユーザが仮想カメラの視点位置を指定する場合に、仮想センサをx軸に対して傾けた状態で指定することが可能な態様について、実施例2として説明する。なお、本実施例における画像処理部の構成や処理の流れについては実施例1と共通するので(それぞれ、図4のブロック図及び図8のフローチャートを参照)、以下では差異点を中心に説明することとする。
図12は、本実施例に係る画像処理で生成される画像の各画素値がどのように取得されるのかを説明する図である。いま、ユーザが、仮想撮像パラメータを指定するためのUI画面(図5を参照)を介して、図12に示すように、仮想センサ505がx軸に対して角度θだけ傾いた状態で仮想カメラの指定位置を指定したとする。このように任意の角度θだけ傾いた状態下の仮想カメラで撮像した場合の画像を生成するためには、当該傾いた状態の仮想センサ505の面と平行な仮想結像面1201上の点を通る光線の量を、所定の画素ピッチで計算すればよいことになる。図12における点1202を通る光線の量は、仮想絞り502の開口部分を底辺とし、設定された仮想結像面1201上のある点1202を頂点とする三角形(斜線領域1203)内のライトフィールドを積分することで得ることができる。
まず、x軸に対して角度θだけ傾いた仮想結像面1201は、以下の式(12)で表すことができる。
また、x軸に対して角度θだけ傾いた仮想絞り502の面は、以下の式(13)で表すことができる。
そして、点1202を通る光線は、実施例1における式(6)に相当する以下の式(14)で表すことができる。
この場合において、β(X)は、βがXの関数であることを示している。
また、仮想絞り502の開口を通過する光線群は、以下の式(15)で表される領域内に含まれる。
そして、合成画像生成部404は、実施例1と同様の方法で、得られた画素ピッチに従って点1202の位置Xを順次移動させ、各画素位置Xにおける画素値を求めることで、指定された仮想撮像パラメータに従った画像Iを生成する。具体的には、以下の式(16)から画像Iを求める。
実施例1同様、L(u,s)はライトフィールド関数であり、ライトフィールド座標(u,s)における光線の輝度を表している。また、Aは、以下の式(17)で表される。
本実施例によれば、仮想センサをx軸に対して傾けた状態で仮想カメラの視点位置を指定した場合の合成画像を生成することができる。
[実施例3]
次に、撮像部の設計情報等を元に、ユーザが指定可能な仮想撮像パラメータの範囲を予め設定し、設定された範囲から外れるような仮想撮像パラメータをユーザが入力した際に、その旨をユーザに通知する態様について、実施例3として説明する。なお、実施例1及び2と共通する部分については説明を簡略化ないしは省略し、以下では本実施例に特有な点を中心に説明することとする。
図13は、本実施例に係る画像処理部112の内部構成を示したブロック図である。
本実施例に係る画像処理部112の場合、ライトフィールド取得部401、仮想撮像パラメータ取得部402、結像面設定部403、合成画像生成部404の他、適正範囲設定部1301と取得値判定部1302が追加される。
(適正範囲設定部)
適正範囲設定部1301は、撮像部101の設計情報やユーザ入力を元に、仮想撮像パラメータ毎の適正範囲を設定する。以下、詳しく説明する。
仮想撮像パラメータのうち、仮想カメラの視点位置と仮想絞りの開口幅の適正範囲については、撮像部101の設計情報から幾何学的にその適正範囲が導出し、設定することができる。以下説明する。
図14は、仮想カメラの視点位置及び仮想絞りの開口幅の適正範囲がどのようにして導出されるのかを説明する図である。線分1401及び1402は、メインレンズ212の主点とセンサ210の端点とを結ぶ直線である。線分1403及び1404は、それぞれメインレンズ212の開口の端点を通り、線分1402及び1401に平行な直線である。撮像部101の前後に広がっている三角形の領域1405は、線分1403及び1404で画定される領域であり、撮像部101で取得可能なライトフィールドの範囲を示している。前述のとおり合成画像の画素値は、仮想絞りの開口部分を底辺とし、仮想結像面上のある点を頂点とする三角形(図9を参照)内のライトフィールドを積分することで得られる。よって、仮想カメラの視点位置(仮想レンズの主点)及び仮想絞りの開口幅の全部が領域1405内に含まれている必要がある。このため、適正範囲設定部1301は、撮像部101の設計情報(具体的には、画角及び絞り204の開口幅)に基づき、撮像部101で取得可能なライトフィールドの範囲内となるように、仮想カメラの視点位置と仮想絞りの開口幅の適正範囲を決定し、設定する。
なお、仮想カメラの視点位置として指定可能な奥行き方向の範囲については任意に設定可能であり、例えば撮像部101に最も近い被写体までとすること等が考えられるが、これに限定されるものではない。
また、仮想絞りの開口幅の下限は、例えば回折限界から決定する。具体的には、光の代表的な波長をλ、仮想レンズの焦点距離をf、仮想絞り403の開口幅をD、仮想センサの画素ピッチをΔとして、以下の式(18)を満たすようであれば範囲外となるような値を下限とした適正範囲を決定する。
このばあいにおいて、上記式(18)は、回折ボケが画素ピッチより大きいことを表している。
その他の仮想撮像パラメータ(仮想レンズの焦点距離、仮想センサの位置、仮想センサの解像度)の適正範囲は、撮像部101の設計情報から幾何学的には導出されないので、ユーザが不図示のUI画面等を介して指定した任意の範囲が適正範囲として設定される。
そして、上記のようにして設定された各仮想撮像パラメータの適正範囲の情報は、取得値判定部1302に送られる。
(取得値判定部)
取得値判定部1302は、ユーザが入力した各仮想撮像パラメータの値等が、適正範囲設定部1301で設定された適正範囲の範囲内かどうかを判定する。設定された適正範囲の範囲内であると判定された場合には、入力された各仮想撮像パラメータの値等が、仮想結像面設定部403や合成画像生成部404に送られる。一方、設定された適正範囲の範囲外であると判定された場合には、その旨を知らせるエラーメッセージを表示部110に表示する等の方法により、ユーザに通知される。図15は、表示部110のUI画面上にエラーメッセージが表示された状態を示している。
本実施例によれば、ユーザが、仮想撮像パラメータについて適正範囲から外れた値等を入力した場合、エラーメッセージが表示される等の方法によってその旨がユーザに通知されるので、ユーザは適切な仮想撮像パラメータの入力を行うことが可能となる。
[実施例4]
実施例3では、設定された適正範囲から外れるような仮想撮像パラメータをユーザが指定した際に、その旨を通知した。次に、ユーザが指定できる仮想撮像パラメータの範囲をUI画面上に予め表示し、設定された範囲外の値をユーザが選択できないようにする態様について、実施例4として説明する。なお、実施例3と共通する部分については説明を簡略化ないしは省略し、以下では本実施例に特有な点を中心に説明することとする。
図16は、本実施例に係る画像処理部112の内部構成を示したブロック図である。
実施例3に係る画像処理部112とは異なり、取得値判定部1302は存在しない。適正範囲設定部1301で設定された各仮想撮像パラメータの適正範囲の情報が、ユーザが仮想撮像パラメータを指定するためのUI画面に反映される。そのため、仮想撮像パラメータ取得部402で取得した各仮想撮像パラメータが、そのまま仮想結像面設定部403及び合成画像生成部404に入力されている。
上記のような構成により、本実施例の場合、仮想撮像パラメータ取得部402によって取得可能な仮想撮像パラメータの範囲が、適正範囲設定部1301で設定された適正範囲に予め制限され、ユーザは設定された適正範囲内でのみ、各仮想撮像パラメータの値等を設定することになる。
図17の(a)及び(b)は、本実施例に係る、ユーザが仮想撮像パラメータを指定するためのUI画面の一例である。基本的には実施例1に係る図5のUI画面500と同じであるが、図17の(a)では、UI画面1700内に仮想カメラの視点位置として指定可能な領域1701が示されている。また、図17の(b)では、UI画面1710内に各スライドバー511〜514上に上限値と下限値を示すマーク1711が追加されている。このようなUI画面によって、ユーザは、適正範囲設定部1301で設定された適正範囲内でのみ各仮想撮像パラメータについての選択が可能になる。
[実施例5]
実施例1〜4では、仮想撮像パラメータの各項目について、1つの値だけを指定していた。例えば、仮想的な視点位置としては図5に示すようなUI画面を介して1つの視点位置だけを指定し、指定された1つの仮想的な視点位置に対応した1つの合成画像が生成されるという態様であった。
しかし、本発明はこのような態様に限定されるものではない。すなわち、仮想撮像パラメータに含まれる同一の項目について異なる入力を同時に取得(例えば、一度に複数の異なる仮想的な視点位置を取得)して、視点位置等が異なる合成画像を同時に複数生成するように構成してもよい。
(その他の実施形態)
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (12)

  1. 光線の向きと強度を示すライトフィールドデータから合成画像を生成する画像処理装置であって、
    少なくとも仮想的な視点位置及び仮想的な絞りの開口の特徴量を含む、前記合成画像を生成するためのパラメータを取得する取得手段と、
    取得した前記パラメータに従って、前記合成画像を生成する合成画像生成手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記合成画像を生成するためのパラメータの適正範囲を設定する適正範囲設定手段をさらに備えたことを特徴とする請求項1に記載の画像処理装置。
  3. 前記取得手段で取得した前記パラメータが、前記適正範囲設定手段で設定された適正範囲の範囲外である場合に、その旨を通知する通知手段をさらに備えたことを特徴とする請求項2に記載の画像処理装置。
  4. 前記取得手段によって取得可能な前記合成画像を生成するためのパラメータの範囲が、前記適正範囲設定手段で設定された適正範囲に予め制限されることを特徴とする請求項2に記載の画像処理装置。
  5. 前記合成画像生成手段は、前記仮想的な視点位置に基づいて仮想結像面を導出し、導出された前記仮想結像面上で結像する前記仮想的な絞りの開口を介して入射される光線量を所定の画素ピッチで求めることにより、前記合成画像を生成することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記合成画像を生成するためのパラメータには、仮想センサの解像度若しくは仮想レンズの焦点距離、又はその両方をさらに含み、
    前記合成画像生成手段は、前記仮想センサの解像度若しくは仮想レンズの焦点距離、又はその両方から前記所定の画素ピッチを導出して、前記合成画像を生成する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記合成画像を生成するためのパラメータには、仮想センサの位置をさらに含み、
    前記合成画像生成手段は、前記仮想的な視点位置及び前記仮想センサの位置に基づいて仮想結像面を導出し、前記合成画像を生成する
    ことを特徴とする請求項5又は6に記載の画像処理装置。
  8. 前記取得手段は、前記合成画像を生成するためのパラメータとして、複数の前記仮想的な視点位置若しくは複数の仮想的な絞りの開口の特徴量、又はその両方を少なくとも取得し、
    前記合成画像生成手段は、取得した前記パラメータに従って、複数の前記合成画像を生成する
    ことを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 請求項1乃至8のいずれか1項に記載の画像処理装置を備えた撮像装置であって、
    被写体の光情報を受光してデジタル信号に変換する撮像手段と、
    前記デジタル信号から前記ライトフィールドデータを生成するライトフィールドデータ生成手段と
    を備えたことを特徴とする撮像装置。
  10. 前記撮像装置は、マイクロレンズアレイを備えたPlenopticカメラ又は複数の個眼カメラを備えた多眼カメラであることを特徴とする請求項9に記載の撮像装置。
  11. 光線の向きと強度を示すライトフィールドデータから合成画像を生成する画像処理方法であって、
    少なくとも仮想的な視点位置及び仮想的な絞りの開口の特徴量を含む、前記合成画像を生成するためのパラメータを取得するステップと、
    取得した前記パラメータに従って、前記合成画像を生成するステップと、
    を含むことを特徴とする画像処理方法。
  12. コンピュータを請求項1乃至8のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2012234736A 2012-10-24 2012-10-24 画像処理装置、画像処理方法およびプログラム。 Active JP6012396B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012234736A JP6012396B2 (ja) 2012-10-24 2012-10-24 画像処理装置、画像処理方法およびプログラム。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012234736A JP6012396B2 (ja) 2012-10-24 2012-10-24 画像処理装置、画像処理方法およびプログラム。

Publications (2)

Publication Number Publication Date
JP2014086899A true JP2014086899A (ja) 2014-05-12
JP6012396B2 JP6012396B2 (ja) 2016-10-25

Family

ID=50789582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012234736A Active JP6012396B2 (ja) 2012-10-24 2012-10-24 画像処理装置、画像処理方法およびプログラム。

Country Status (1)

Country Link
JP (1) JP6012396B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10819899B2 (en) 2017-05-16 2020-10-27 Olympus Corporation Image acquisition device and image acquisition system
US10852457B2 (en) 2017-05-16 2020-12-01 Olympus Corporation Imaging device
CN113055550A (zh) * 2021-02-26 2021-06-29 视伴科技(北京)有限公司 一种预演赛事活动的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070510A (ja) * 2006-09-13 2008-03-27 Pentax Corp 撮像装置
JP2011109310A (ja) * 2009-11-16 2011-06-02 Nikon Corp 画像合成装置および撮像装置
JP2011217411A (ja) * 2011-07-19 2011-10-27 Nikon Corp 画像合成方法及び撮像装置
JP2012191351A (ja) * 2011-03-09 2012-10-04 Sony Corp 撮像装置および画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070510A (ja) * 2006-09-13 2008-03-27 Pentax Corp 撮像装置
JP2011109310A (ja) * 2009-11-16 2011-06-02 Nikon Corp 画像合成装置および撮像装置
JP2012191351A (ja) * 2011-03-09 2012-10-04 Sony Corp 撮像装置および画像処理方法
JP2011217411A (ja) * 2011-07-19 2011-10-27 Nikon Corp 画像合成方法及び撮像装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10819899B2 (en) 2017-05-16 2020-10-27 Olympus Corporation Image acquisition device and image acquisition system
US10852457B2 (en) 2017-05-16 2020-12-01 Olympus Corporation Imaging device
CN113055550A (zh) * 2021-02-26 2021-06-29 视伴科技(北京)有限公司 一种预演赛事活动的方法及装置

Also Published As

Publication number Publication date
JP6012396B2 (ja) 2016-10-25

Similar Documents

Publication Publication Date Title
US10009540B2 (en) Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data
JP5820257B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP5725975B2 (ja) 撮像装置及び撮像方法
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
US9076214B2 (en) Image acquisition apparatus and image processing apparatus using selected in-focus image data
JP5882789B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP2012195668A (ja) 画像処理装置、画像処理方法およびプログラム
JP2013061850A (ja) ノイズ低減のための画像処理装置及び画像処理方法
JP6245892B2 (ja) 画像処理装置およびその制御方法、プログラム
JP6234401B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
US20130083169A1 (en) Image capturing apparatus, image processing apparatus, image processing method and program
JP5583242B2 (ja) 画像処理装置およびその制御方法、並びにプログラム
JP2017060010A (ja) 撮像装置、撮像装置の制御方法、およびプログラム
JP6012396B2 (ja) 画像処理装置、画像処理方法およびプログラム。
WO2013175816A1 (ja) 距離測定装置
JP2016001853A (ja) 画像処理装置、撮像装置、制御方法及びプログラム
JP5743769B2 (ja) 画像処理装置および画像処理方法
JP2020193820A (ja) 計測装置、撮像装置、制御方法及びプログラム
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP6120535B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5769534B2 (ja) 撮像装置、撮像方法、およびプログラム
JP2019047145A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP6566765B2 (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160920

R151 Written notification of patent or utility model registration

Ref document number: 6012396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151