JP6120535B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP6120535B2
JP6120535B2 JP2012255564A JP2012255564A JP6120535B2 JP 6120535 B2 JP6120535 B2 JP 6120535B2 JP 2012255564 A JP2012255564 A JP 2012255564A JP 2012255564 A JP2012255564 A JP 2012255564A JP 6120535 B2 JP6120535 B2 JP 6120535B2
Authority
JP
Japan
Prior art keywords
field
depth
area
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012255564A
Other languages
English (en)
Other versions
JP2014103601A (ja
JP2014103601A5 (ja
Inventor
知宏 西山
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012255564A priority Critical patent/JP6120535B2/ja
Publication of JP2014103601A publication Critical patent/JP2014103601A/ja
Publication of JP2014103601A5 publication Critical patent/JP2014103601A5/ja
Application granted granted Critical
Publication of JP6120535B2 publication Critical patent/JP6120535B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。具体的には、本発明は、ライトフィールドデータを用いた情報処理を伴う画像処理装置、画像処理方法、及び画像処理プログラムに関する。
近年、光学系に新たな光学素子を追加することで、光線の向きと強度の情報(ライトフィールドデータ)を取得し、後で画像処理によってピント位置の調節(リフォーカス)又は被写界深度の調節を行う技術が知られている(例えば、特許文献1を参照)。
特許文献1に記載される技術を用いれば、撮影後に撮影条件を変更できる。従って、撮影時の失敗を画像処理で補い、撮影後にユーザの好みのピント位置や被写界深度に調節することができる。
特許第4752031号公報
しかしながら、特許文献1に記載される手法では、撮像装置からの距離が異なる2つの着目被写体がある場合、着目被写体以外をボカして、2つの着目被写体のボケを同時に無くすことはできない。
即ち、特許文献1に記載される手法では、画像全体の被写界深度を調節するため、ユーザが画像中のある領域を選択し、その領域のみの被写界深度(ボケ味)を変更することができないという課題がある。
本発明は、上記の課題を鑑みてなされたものであり、ユーザが画像中のある領域を選択し、その領域のみの被写界深度(ボケ味)を変更することが可能な情報処理装置、情報処理方法、及びプログラムを提供することを目的とする。
本発明は、光線の向きと強度とを示すライトフィールドデータを取得して画像を生成する情報処理装置であって、画像中の領域を指定する領域指定手段と、指定された領域におけるピント位置を指定するピント位置指定手段と、指定された領域における被写界深度を指定する被写界深度指定手段と、前記ライトフィールドデータと、前記ピント位置と、前記被写界深度とに基づいて、前記領域指定手段で指定された領域における被写界深度が、前記被写界深度指定手段で指定された被写界深度に変更された、当該領域に対応する部分画像を生成する部分画像生成手段とを備え、背景はボケたままで、被写体と撮像手段との間の距離である撮影距離が異なる複数の被写体のボケを無くすように前記画像を生成することを特徴とする。
本発明により、画像中の領域ごとに被写界深度を調節することが可能になる。
本発明の実施例1に係る情報処理装置の主要な構成要素を示すブロック図である。 本発明の実施例1に係る撮像部101の内部構成の一例を示す図である。 本発明の実施例1で用いるライトフィールドの考え方を説明するための図である。 本発明の実施例1に係る領域ごとに被写界深度を指定するためのユーザインタフェースの画面の一例を示す図である。 本発明の実施例1に係るライトフィールドから画像を生成する手法の概念図である。 本発明の実施例1に係る動作原理を示す図である。 本発明の実施例1に係る処理の流れを示すフローチャートである。 本発明の実施例1の効果を示す図である。 本発明の実施例2に係る情報処理装置の主要な構成要素を示すブロック図である。 本発明の実施例2に係る入力可能値算出部の動作原理を示す図である。 本発明の実施例2に係る領域ごとに被写界深度を指定するためのユーザインタフェースの画面の一例を示す図である。
[実施例1]
(情報処理装置の主要な構成)
図1(a)は、本実施例に係る情報処理装置の主要な構成要素を示すブロック図である。
撮像部101は、複数のレンズと、CMOSやCCD等の撮像素子とから構成され、被写体から発した光線の向きと強度(ライトフィールド)を取得する。なお、本実施例では、撮像部101として、メインレンズと、撮像素子との間にマイクロレンズアレイを配置したカメラ(Plenopticカメラ)を想定している。Plenopticカメラの構成は、後述する(図2を参照)。
情報処理部100は、撮像部101からライトフィールドデータを受け取り、ユーザが領域ごとに指定した被写界深度を有する画像を生成する。情報処理部100は、取得部102と、距離推定部107と、画像生成部106とから構成される。
取得部102は、撮像部101からライトフィールドデータを取得する。
領域指定部103は、ユーザからの指示に基づいて被写界深度を変更する画像中の領域を指定する。
被写界深度指定部104は、ユーザからの指示に基づいて領域指定部103で指定された領域における被写界深度を設定する。
ピント位置指定部105は、ユーザからの指示に基づいてピントを合わせる位置を指定する。
画像生成部106は、指定された領域、被写界深度、ピント位置を元に撮像部101が取得したライトフィールドデータから、指定された被写界深度、ピント位置の画像を生成する。
距離推定部107は、取得部102が取得したライトフィールドデータを用いて、ピント位置指定部105が指定した被写体までの距離を推定する。
表示部108は、生成された画像を表示する。表示部108の例として、液晶ディスプレイが挙げられる。
図1(b)は、情報処理部100の内部構成をより詳細に記したブロック図である。
中央処理装置(CPU)111は、以下に述べる各部を統括的に制御する。
RAM112は、CPU111の主メモリ、ワークエリア等として機能する。
ROM113は、CPU111で実行される制御プログラム等を格納する。
バス114は各種データの転送経路である。例えば、図2に示すA/D変換部211によってデジタルデータに変換された撮像データは、バス114を介して所定の処理部に送られる。
表示制御部115は、表示部110に表示される撮像画像や文字の表示制御を行う。
デジタル信号処理部116は、バス114を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理等の各種処理を行う。
エンコーダ部117は、デジタルデータをJPEGやMPEG等のファイルフォーマットに変換する処理を行う。
外部メモリ制御部118は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、又はUSBメモリ)に繋ぐためのインタフェースである。
入力部119は、キーボードやマウス等の入力デバイス120を接続する、例えばUSBやIEEE1394等のシリアルバスインタフェースである。
なお、図1(a)に示した例では、情報処理部100は、撮像部101の外部にあるが、情報処理部100は、撮像部101の内部にあってもよい。
図2(a)は、撮像部101の内部構成の一例を示す図である。
撮像部101は、撮像レンズ201〜203、開口絞り204、シャッター205、マイクロレンズアレイ206、光学ローパスフィルタ207、iRカットフィルタ208、カラーフィルタ209、撮像素子210、及びA/D変換部211から成る。開口絞り204は、以下、単に「絞り」と呼ぶことにする。
撮像レンズ201〜203は夫々、ズームレンズ201、フォーカスレンズ202、ぶれ補正レンズ203である。絞り204を調整することにより、入射光量を調整することができる。撮像素子210は、光電変換を行う。なお、本明細書では、各レンズのサイズがマイクロメートル単位あるいはミリメートル単位であっても、各レンズのサイズにかかわらず「マイクロレンズ」と呼ぶことにする。
図2(b)は、図2(a)をより概念的に表した図である。
メインレンズ212は、ズームレンズ201と、フォーカスレンズ202と、ぶれ補正レンズ203とをまとめて1枚で表したものである。メインレンズ212から入射した光線213がマイクロレンズアレイ206を通過して撮像素子210に到達する。Plenopticカメラではマイクロレンズアレイ206をメインレンズ212と、撮像素子210との間に挿入することで、光線213がメインレンズ212のどちらの方向から来たのかを弁別し、ライトフィールドを取得することができる。例えば、図2(b)に示す例では、メインレンズ212の上半分を通過した光と、下半分を通過した光を弁別可能である。
撮像部101の構成としては、図2に示したPlenopticカメラのみではなく、小型カメラを複数並べた多眼カメラでもよく、ライトフィールドを取得できるカメラであればよい。ただし、ライトフィールドは、十分な角度・空間分解能で取得できているものとする。
(ライトフィールドの考え方)
以下、画像生成部106の詳細を説明する前に、ライトフィールドの考え方について簡単に説明する。
図3(a)には、被写体の位置を示す点305と、被写体を通る光線303、304とが表されている。図3(b)は、図3(a)の光線303、304をライトフィールド座標にプロットしたグラフである。
平面301と、平面302とは、仮想的に設置された互いに平行な平面である。平面301をu平面、平面302をx平面と呼ぶことにする。本来、u平面301、x平面302は2次元平面であるが、ここでは図示の都合上1次元で表現することにする。また、本実施例では、u平面301をメインレンズ212の主平面上に配置しているが、u平面301はx平面302と異なる位置であればどこに配置しても構わない。図3(a)中のz軸は、u平面301と、x平面302との両方に対して垂直であり、x平面302からu平面301に向かう方向に取るものとする。
光線303、304は、被写体から出てメインレンズ212で屈折した光線である。光線がu平面301、x平面302を通った位置を(x,u)のようにペアで表すと、図3(a)より、光線303は(x1,u1)を通過し、光線304は(x2,u2)を通過する。この(x1,u1)、(x2,u2)を、xを横軸に、uを縦軸にとったライトフィールド座標上にプロットすると、それぞれ、点307、308にプロットされる(図3(b)を参照)。即ち、撮影シーンの空間中の一本の光線はライトフィールド座標上では一点に対応する。
同様にして、撮影シーンにおけるある点を通過するすべての光線を考えると、それらの光線に対応するライトフィールド座標上の点の集合は直線になるという性質が知られている。
例えば、被写体のある一点305から出た光線に対応する点は全て直線309上に乗り、直線309の傾きはu平面301から点305までの距離によって変化する。具体的には、点305と共役な点306の座標を(ximg,zimg)とし、u平面のz座標をzuとすると、点306を通る全ての光線は以下の式(1)を満たす。
Figure 0006120535
ここでαは、
Figure 0006120535
である。
点306を通る全ての光線が式(1)を満たす理由は、点306がu平面と、x平面とをα:(1-α)に外分する点であるからである。ライトフィールド座標(x,u)上では、式(1)は、直線309を表す方程式である。従って、この性質を用いると、ライトフィールド座標上における直線の傾きを求めることで、u平面301と、点305(被写体)との間の距離を推定することができる。
具体的に説明すると、ライトフィールド座標上でエッジ抽出を行い、その方向を判定することで、式(1)におけるαを求める。u平面のz座標zuは既知なので、αの値を用いると、点306のz座標zimgを求めることができる。更に、レンズの公式を用いることで、u平面301と、点305との間の距離を推定することができる。距離推定部107は、以上のようにして、ピントを合わせる被写体までの距離を推定する。以上がライトフィールドの考え方の簡単な説明である。
(情報処理装置のユーザインタフェース)
図4に、本実施例に係る領域ごとに被写界深度を指定するためのユーザインタフェースの画面の一例を示す。図4は、領域指定部103、被写界深度指定部104、及びピント位置指定部105のユーザインタフェースの概念図である。
図4において、画像401は、画像生成部106によって生成され、表示部108に表示された画像である。表示部108内に、画像401に対する操作を表すアイコンが並んだウィンドウ402が表示される。ウィンドウ402内に、画像401に対する操作を表すアイコン403、404、405が表示される。
入力デバイス120(例えばマウス)によりアイコン403がクリックされると、枠406が表示部108に表示され、マウスをドラッグすることにより、枠406の位置や大きさを任意に指定することができる。
マウスによりアイコン405が選択されると、マウスのカーソルが矢印408のように変化する。マウスのカーソルが矢印408の状態で、画像401をクリックすると、矢印カーソル408が指し示す被写体にピントが合う。
マウスによりアイコン404が選択されると、マウスのカーソルが斜め矩形407のように変化する。マウスのカーソルが斜め矩形407の状態で、画像401をクリックすると、枠406で囲まれた領域が指定された被写界深度に変更される。
ウィンドウ409は被写界深度を指定するウィンドウであり、ユーザが任意にF値を設定することができる。
図4を用いて説明したユーザインタフェースを介して、領域指定部103及びピント位置指定部105は、画像のピント位置を指定し、領域指定部103及び被写界深度指定部104は、領域ごとに任意の被写界深度を指定することができる。
(画像生成部106の動作)
以下、ユーザが指定した領域・被写界深度と、取得部102が取得したライトフィールドデータから画像生成部106がどのように画像を生成するかを説明する。
まず、ライトフィールドから画像を生成する一般的な手法について説明する。図5は、ライトフィールドから画像を生成する手法の概念図である。なお、本来ライトフィールド空間は4次元空間であるが、図5(b)では図示の都合上2次元でライトフィールド空間を表現している。
図5(a)は、被写体501からの光線303が、メインレンズ212を通過し、仮想的に設置した仮想撮像素子502上の点503に至ることを示す。
図5(b)は、被写体501からの光線群をライトフィールド空間上にマッピングした結果を示す。図5(b)を参照すると、ライトフィールド空間((x,u)空間)上に被写体501から発せられた光線群が領域504として表されている。
ライトフィールドから画像を生成する際は、仮想撮像素子502上にどのような画像が形成されるのかを計算する。
仮想撮像素子502上の点503の座標を(ximg,zimg)とすると、ximgを通る光線は式(1)より、
Figure 0006120535
と表される。αは、仮想撮像素子502の位置を表している。
メインレンズ212の絞りの直径を2Dとすると、点503の画素値I(ximg)は以下の式(4)で計算することができる。
Figure 0006120535
式(4)において、L(x,u)はu平面301、x平面302を(x,u)の座標で通過する光線の強度であり、式(4)は、レンズの開口を通過して、点503に集まる光線の強度を計算する式である。式(4)において、αは仮想撮像素子の位置を表しているので、αを変化させることにより、仮想撮像素子502の位置を変えることができる。従って、撮影後にピントの位置を変えることができる。
また、式(4)では、積分範囲を[-D,D]としているが、積分範囲を変えることで仮想的にメインレンズ212の絞りの大きさを変えることができる。従って、撮影後に被写界深度を変えることも可能である。
例えば、メインレンズ212の焦点距離をf、実現したい被写界深度のF値をFとすると、積分範囲を[-f/(2F),f/(2F)]にすれば良い。ただし、この積分範囲の導出の際、絞りの直径2D、焦点距離f、F値の間にF=f/(2D)の関係が成り立つことを用いた。
式(4)を図5(b)を用いて図形的に解釈すると、式(4)は、ximgを固定した場合、式(3)より矢印505の方向に、積分範囲506と重なる範囲で積分を行うことを意味している。生成する画像の被写界深度を変えることは、積分範囲506の幅をu軸方向に変化させることを意味している。矢印505とx軸の交点は、ximg/αであり、ximgを変化させながら、画素値I(ximg)を計算することは、矢印505をx軸の右方向に移動させながら、積分を行うことを意味している。
以上のように、ピント位置(仮想撮像素子の位置)α、F値Fを決めることにより、ライトフィールドデータから所望のピント位置、被写界深度の画像を計算し、生成することができる。
次に、画像生成部106がどのように画像を生成するかを説明する。
図6(a)は、ユーザが画素ごとに被写界深度を指定した場合の、ライトフィールド空間における積分範囲の例を示した図である。
図6(a)において、破線で表す領域601のu軸方向の幅が積分範囲を表しており、x軸の場所によって積分範囲が変化していることが分かる。
ユーザが画素位置ximgのF値をF(ximg)に指定した場合を考えると、F値と、積分範囲[-D(ximg),D(ximg)]との関係は、メインレンズ212の焦点距離fを用いて、
Figure 0006120535
となる。ここで、被写界深度の定義式F≡f/(2D)を用いた。
画像生成部106は、式(4)、(5)を用いて、以下の式(6)
Figure 0006120535
を計算することにより、画素位置ximgにおいて被写界深度F(ximg)を有する画像を生成する。すなわち、画素ごとに積分範囲を変更することにより、画素ごとに被写界深度を変更することができる。
以上、画素ごとに被写界深度を変更する例に関して説明したが、領域ごとに被写界深度を変更する場合も同様である。領域ごとに被写界深度を変更する場合の積分範囲の例を図6(b)に示す。図6(b)において、破線で表す領域602はx軸の場所によりu軸方向の幅が変化しており、u軸方向の幅が積分範囲を表している。
画像生成部106は、ユーザが指定した領域に番号を1から順に割り振る。i番目の領域の被写界深度をFiとすると、画像生成部106は、以下の式(7)に基づいて積分範囲602内でライトフィールドの積分を行って、i番目の領域において被写界深度Fiを有する画像を生成する。
Figure 0006120535
ここで、Diは式(5)と同様にして、被写界深度の定義式F≡f/(2D)から、Di=f/(2Fi)と決められる。
なお、ここでは、画像中のピント位置を同一であると仮定し、αを固定して計算したが、領域(もしくは画素)ごとにピント位置を変えても良い。その時は、領域(もしくは画素)ごとに矢印505の傾きを変えて画素値を計算する。例えば、式(7)は次のように変更される。
Figure 0006120535
ここで、αiはi番目の領域における仮想撮像素子の位置を表しているため、領域ごとにピント位置を変える場合は、仮想撮像素子は平面ではなく、曲面になる。以上が画像生成部106の動作である。
(本実施例に係る処理の流れ)
以下、本実施例に係る処理の流れについて説明する。
図7は、本実施例に係る処理の流れを示すフローチャートである。
ステップ701において、取得部102は、ライトフィールドデータを取得する。
ステップ702において、画像生成部106は、式(4)に基づいてライトフィールドデータから被写界深度の深い画像(例えばF=16)を生成する。生成した画像を表示部108は、表示する。ここで、表示部108に被写界深度の深い画像を表示させる理由は、画像中にボケが存在すると、被写体の境界があいまいになり、ユーザが枠406を指定しにくくなるからである。
ステップ703において、距離推定部107は、ユーザが表示部108上で指定することにより、ピント位置指定部105から被写体のピント位置を取得する。本実施例では画像中のピント位置を一つであるとしているが、領域ごとにピント位置を変えても良い。
ステップ704において、距離推定部107は、ユーザが指定したピント位置にある被写体までの距離を算出する。
ステップ705において、画像生成部106は、枠406を用いてユーザが被写界深度を変更したい領域を選択し、領域の位置情報を入力することにより、領域指定部103から被写界深度を変更する領域を取得する。
ステップ706において、画像生成部106は、ユーザがウィンドウ409を用いて被写界深度を入力することにより、被写界深度指定部104から被写界深度を取得する。
ステップ707において、画像生成部106は、ユーザが被写界深度を変更したい全ての領域の指定が終了したかどうかを判定する。領域の指定が終了している場合は、処理はステップ708に進み、領域の指定が終了していない場合は、処理はステップ705に戻る。
ステップ708において、画像生成部106は、ライトフィールドデータから指定された領域において指定された被写界深度の画像を生成する。
ステップ709において、画像生成部106は、生成した画像を表示部108に出力し、表示部108は、生成した画像を表示する。
(実施例1の効果)
以下、本実施例に係る効果について説明する。図8は、本実施例に係る画像処理を施した効果を説明するための図である。
図8(a)、(b)において、被写体801〜803が表されている。被写体801は撮像部101から1000mm離れた場所にあり、被写体802は撮像部101から2000mm離れた場所にあり、被写体803は無限遠にあるものとする。図8(a)、(b)は、被写体802にピントを合わせた画像であり、図8(a)は、従来手法によって生成した画像であり、図8(b)は、本実施例によって生成した画像である。
図8(a)を参照すると、ピント位置にある被写体802にはボケが発生しておらず、被写体801、803には同程度のボケが発生していることが分かる。
図8(b)は、被写体801、803を選択し、本実施例を適用して被写界深度を変更した画像である。図8(b)と、図8(a)とを比べると、図8(b)では、被写体803のボケが大きくなっており、被写体801のボケは無くなっていることが分かる。
従来手法によって被写界深度を調節する場合は、画面全体の被写界深度しか調節できないため、被写体801、803のボケの度合いを独立に調節することはできない。一方、本実施例の場合はユーザが選んだ領域ごとに、独立してボケの強度を調節することができる。
以上のように、本実施例によれば、選択した領域(もしくは画素)ごとにユーザが好みの被写界深度に調節することが可能になる。
[実施例2]
実施例1ではユーザは任意の被写界深度を指定することができたが、本実施例では、指定された被写界深度の画像を生成できないときにユーザに通知する場合について説明する。
撮像部101で取得したライトフィールドデータをライトフィールド座標上にプロットするとき、データがプロットされる範囲は、メインレンズ212の絞りの開口幅と、撮像部101の撮像素子幅とによって規定される。
図9は、本実施例に係る情報処理装置の主要な構成要素を示すブロック図である。
本実施例に係る情報処理装置の構成は、実施例1と概ね同一であるため(図1を参照)、実施例1との差異のみ説明する。
入力可能値算出部901は、撮像部101におけるメインレンズ212の絞りの開口幅と、撮像部101の撮像素子幅とから被写界深度指定部104が指定可能な被写界深度値の範囲を決定し、決定した被写界深度値の範囲を表示部108に表示する。
なお、入力可能値算出部901は、被写界深度指定部104を介して入力可能値算出部901が算出した被写界深度より小さいF値が入力された場合、表示部108にエラーメッセージを表示してもよい。
図10は、入力可能値算出部901が入力可能なF値を算出する動作原理の概念図である。
図10(a)において、範囲1001は、撮像部101が取得可能な光線のu座標の範囲を表している。メインレンズ212の絞りの範囲を[-D,D]とすると、範囲1001は絞りの範囲と一致し、[-D,D]となる。範囲1002は、撮像部101が取得可能な光線のx座標の範囲を表している。撮像部101の撮像素子の幅を[-s,s]とすると、範囲1002は撮像素子の幅とほぼ一致し、[-s,s]となる。
図10(b)は、撮像部101が取得可能なライトフィールドをライトフィールド座標上にプロットした結果を示す図である。図10(b)中の領域1003は、撮像部101が取得可能なライトフィールドの範囲を表している。入力可能値算出部901は、ユーザが入力したF値に基づいて積分範囲を計算した場合に、図6で例示した積分範囲601や602等が領域1003の内側に収まるようなF値を算出する。
図11に、本実施例に係る領域ごとに被写界深度を指定するためのユーザインタフェースの画面の一例を示す。図11は、領域指定部103、被写界深度指定部104、及びピント位置指定部105のユーザインタフェースの概念図である。
ウィンドウ1101において、入力可能値算出部901が算出した被写界深度値をウィンドウ内の不等号の右側に表示しており、あとはウィンドウ409と同様である。ユーザが入力可能値算出部901が算出した被写界深度の範囲外の値(図11に閉める例では、1.2)をウィンドウ1101に入力した場合には、エラーメッセージウィンドウ1102が表示される。
(実施例2の効果)
本実施例に係る情報処理装置は、画像を生成することが不可能な被写界深度を通知し、画像を生成することが不可能な被写界深度が入力された場合にエラーメッセージを表示する。これにより、ユーザが分かりやすく情報処理装置を操作することが可能になる。
[その他の実施例]
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施例の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (6)

  1. 光線の向きと強度とを示すライトフィールドデータを取得して画像を生成する情報処理装置であって、
    画像中の領域を指定する領域指定手段と、
    指定された領域におけるピント位置を指定するピント位置指定手段と、
    指定された領域における被写界深度を指定する被写界深度指定手段と、
    前記ライトフィールドデータと、前記ピント位置と、前記被写界深度とに基づいて、前記領域指定手段で指定された領域における被写界深度が、前記被写界深度指定手段で指定された被写界深度に変更された、当該領域に対応する部分画像を生成する部分画像生成手段と
    を備え
    背景はボケたままで、被写体と撮像手段との間の距離である撮影距離が異なる複数の被写体のボケを無くすように前記画像を生成することを特徴とする情報処理装置。
  2. 前記部分画像生成手段は、前記被写界深度に基づいて決められた積分範囲において、前記ライトフィールドデータを積分して前記部分画像を生成することを特徴とする請求項1に記載の情報処理装置。
  3. 前記被写界深度指定手段が指定する被写界深度値の入力可能な範囲を決定する入力可能値算出手段を更に備えたことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記入力可能値算出手段により決定された範囲外の被写界深度値が入力されたとき、エラーを通知することを特徴とする請求項3に記載の情報処理装置。
  5. 光線の向きと強度とを示すライトフィールドデータを取得して画像を生成する情報処理方法であって、
    領域指定手段が、画像中の領域を指定するステップと、
    ピント位置指定手段が、指定された領域におけるピント位置を指定するステップと、
    被写界深度指定手段が、指定された領域における被写界深度を指定するステップと、
    部分画像生成手段が、前記ライトフィールドデータと、前記ピント位置と、前記被写界深度とに基づいて、前記領域指定手段で指定された領域における被写界深度が、前記被写界深度指定手段で指定された被写界深度に変更された、当該領域に対応する部分画像を生成するステップと
    を備え
    背景はボケたままで、被写体と撮像手段との間の距離である撮影距離が異なる複数の被写体のボケを無くすように前記画像を生成することを特徴とする情報処理方法。
  6. コンピュータを請求項1乃至4の何れか1項に記載の情報処理装置として機能させるためのプログラム。
JP2012255564A 2012-11-21 2012-11-21 情報処理装置、情報処理方法、及びプログラム Active JP6120535B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012255564A JP6120535B2 (ja) 2012-11-21 2012-11-21 情報処理装置、情報処理方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012255564A JP6120535B2 (ja) 2012-11-21 2012-11-21 情報処理装置、情報処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2014103601A JP2014103601A (ja) 2014-06-05
JP2014103601A5 JP2014103601A5 (ja) 2016-01-07
JP6120535B2 true JP6120535B2 (ja) 2017-04-26

Family

ID=51025717

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012255564A Active JP6120535B2 (ja) 2012-11-21 2012-11-21 情報処理装置、情報処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP6120535B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6362433B2 (ja) * 2014-06-04 2018-07-25 キヤノン株式会社 画像処理装置およびその制御方法、プログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5067154B2 (ja) * 2007-12-27 2012-11-07 ソニー株式会社 撮像装置
JP5434503B2 (ja) * 2009-11-16 2014-03-05 株式会社ニコン 画像合成装置および撮像装置

Also Published As

Publication number Publication date
JP2014103601A (ja) 2014-06-05

Similar Documents

Publication Publication Date Title
US9900510B1 (en) Motion blur for light-field images
JP6223169B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2015035658A (ja) 画像処理装置、画像処理方法、および撮像装置
JP6577703B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
US10109036B2 (en) Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable
JP5882789B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6095266B2 (ja) 画像処理装置及びその制御方法
US10148862B2 (en) Image capturing apparatus, method for controlling image capturing apparatus focus area display, and storage medium
JP6234401B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6544978B2 (ja) 画像出力装置およびその制御方法、撮像装置、プログラム
JP6162971B2 (ja) 画像処理装置、画像処理方法、撮像装置及びその制御方法
JP2016110312A (ja) 画像処理方法、画像処理装置及びプログラム
JP6120535B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6012396B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP5743769B2 (ja) 画像処理装置および画像処理方法
JP6305232B2 (ja) 情報処理装置、撮像装置、撮像システム、情報処理方法およびプログラム。
JP6263024B2 (ja) 画像処理装置、画像処理方法および、プログラム、並びに画像再生装置
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP6602412B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム。
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP6915016B2 (ja) 情報処理装置及び方法、情報処理システム、ならびにプログラム
JP7277187B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
KR102209908B1 (ko) 소프트웨어로 벨로우즈(Bellows) 카메라를 구현하는 영상 변환 카메라 장치 및 그 동작 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151112

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170328

R151 Written notification of patent or utility model registration

Ref document number: 6120535

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151