JP6168794B2 - 情報処理方法および装置、プログラム。 - Google Patents

情報処理方法および装置、プログラム。 Download PDF

Info

Publication number
JP6168794B2
JP6168794B2 JP2013044407A JP2013044407A JP6168794B2 JP 6168794 B2 JP6168794 B2 JP 6168794B2 JP 2013044407 A JP2013044407 A JP 2013044407A JP 2013044407 A JP2013044407 A JP 2013044407A JP 6168794 B2 JP6168794 B2 JP 6168794B2
Authority
JP
Japan
Prior art keywords
light field
field data
image
data
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013044407A
Other languages
English (en)
Other versions
JP2014007730A (ja
Inventor
知宏 西山
知宏 西山
宗浩 吉村
宗浩 吉村
有一 中田
有一 中田
哲 鳥居
哲 鳥居
将人 小川
将人 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013044407A priority Critical patent/JP6168794B2/ja
Priority to US14/403,531 priority patent/US9712755B2/en
Priority to PCT/JP2013/064959 priority patent/WO2013180192A1/en
Publication of JP2014007730A publication Critical patent/JP2014007730A/ja
Application granted granted Critical
Publication of JP6168794B2 publication Critical patent/JP6168794B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/21Indexing scheme for image data processing or generation, in general involving computational photography

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、光線の方向と強度との情報を含むライトフィールドデータを用いた情報処理に関する。
近年、光線の方向と強度の情報(以下、ライトフィールドデータ)に基づいて画像データを生成するコンピュテーショナルフォトグラフィという技術が提案されている(非特許文献1)。
この技術を用いれば、ピント調整した画像データを撮像後に生成できるため、撮像時のピント調整の失敗を画像処理で補うことができるという利点がある。
R.NG, M.Levoy, M.Bredif, G.Duval, M. Horowitz, P.Hanrahan,"Light FieldPhotography with a Hand−held Plenoptic Camera"(Stanford Tech ReportCTSR 2005−02, 2005)
従来のコンピュテーショナルフォトグラフィでは、その機能及び用途が限られたものであった。本発明は、従来のコンピュテーショナルフォトグラフィとは異なる、全く新しい情報処理を実現することを目的とする。
上記の目的を達成するために、本発明に係る一情報処理装置は、被写体から撮像部に入射される光線の方向と強度とを示すライトフィールドデータを取得する取得手段と、前記ライトフィールデータの座標上において前記ライトフィールドデータを補正する補正手段と、前記補正されたライトフィールドデータから画像データを生成する画像生成手段とを有し、前記補正手段は、前記ライトフィールドデータの周波数特性を補正することを特徴とする。
本発明によれば、ライトフィールドデータを用いた全く新しい情報処理を実現することが可能となる。
実施例1に係る情報処理システムの主要な構成要素を示す図である。 撮像部101の内部構成の一例を示す図である。 ブレ補正部104の内部構成の一例を示す図である。 ライトフィールデータに含まれる光線とライトフィールド座標の関係を示す図である。 ライトフィールドデータおよびライトフィールドデータから生成される画像データが示す画像の概念図である。 ライトフィールド座標におけるブレの発生過程を示す図である。 実施例1の処理の概念図である。 実施例1の処理の流れを示すフローチャートである。 ブレ補正部104の処理の流れを示すフローチャートである。 ライトフィールド座標上のブレフィルタの例である。 ピント面とライトフィールドデータの関係を示す図である。 実施例1の効果を示す図である。 ライトフィールドデータの周波数特性を表す図である。 実施例2の処理の概念図である。 実施例3に係る撮像装置の主要な構成要素を示す図である。 収差がある場合の光線の経路を表す図である。 収差がある場合とない場合のライトフィールド座標における対応関係を表す図である。 実施例4に係る撮像装置の主要な構成要素を示す図である。 距離画像の例である。 画像データ座標とライトフィールド座標との違いを示す図である。 他のライトフィールド座標を示す図である。 実施例6、7に係る撮像装置の主要な構成を示す図である。 実施例6に係る処理のフローチャートと概念図である。 実施例7に係る処理のフローチャートと概念図である。 実施例6、7に係る撮影画像データと距離データに関する説明図である。 実施例7に係る合成画像を生成する際に生じる問題点を示す図である。 実施例8に係る処理のフローチャートと概念図である。 実施例8に係る撮影画像データと距離データに関する説明図である。 実施例9に係る処理のフローチャートと概念図である。 実施例9に係るライトフィールド座標上におけるフィルタ適用範囲を示した概念図である。 実施例9に係るフィルタの例とフィルタ適用を説明する概念図である。 実施例10に係る撮像装置に含まれる設計値とのずれとライトフィールドデータとの関係を示す。 実施例10に係る情報処理システムの主要な構成要素を示す図である。 実施例10に係る対応点探索の結果画像とデータ群を示す図である。 実施例10に係るLF補正パラメータの概念図と、対応点探索結果のデータ群にLF補正パラメータを追加した図である。 実施例10に係る近似直線と対応点の関係を示した図である。 実施例10に係るLF補正部における処理の流れを示すフローチャート図である。 実施例10の効果を示す図である。
〔実施例1〕
〔実施例1の背景〕
本実施例では、ライトフィールドデータを使った新たな情報処理として、ブレ補正処理(ブレ低減処理)について説明する。
従来から、画像の高画質化のためにブレ補正処理が行われている。一般的に、ブレは露光中の撮像装置の光軸の動き、或いは被写体の動き等によって生ずるものである。ブレ補正処理として、光学的/機械的にブレを低減させるものと、画像処理を用いてブレを低減させるものとが知られている。光学的/機械的にブレ補正を行うものは、撮像装置内にブレ補正を行うための光学的/機械的モジュールが必要となる。
画像処理を用いてブレ補正を行うものの一例として、ブレによって生じる影響を、画像データにおいてフィルタを用いてデコンボリューションする(逆フィルタを作用させる)ことによりブレを補正する方法がある。しかし、従来の画像処理によるブレ補正には以下のような問題点がある。
例えば、撮像装置が光軸と垂直な方向にシフトすることによりブレが発生した場合、撮像装置からの距離によって画像上における被写体のブレ量が異なる。具体的には撮像装置から距離が遠い被写体は画像上でのブレ量が小さく、距離が近い被写体はブレ量が大きい。そのため、距離に応じてデコンボリューションするためのフィルタを変える必要があり、被写体までの距離情報が必要となる。しかし、通常の撮像装置において被写体までの距離情報を取得することが困難である上、仮に被写体までの距離情報を取得できたとしても、距離が切り替わる領域でアーティファクトが発生するという問題点がある。
本実施例によれば、ライトフィールド座標(ライトフィールド空間)においてライトフィールドデータを補正することにより、高精度なブレ補正処理を実現することができる。以下、詳細に説明する。
〔ハードウェア構成〕
図1(a)は、本実施例に係る情報処理システム主要な構成要素を示す図である。
撮像部101は、複数のレンズ及び、CMOSやCCDなどの撮像素子などから構成され、被写体から入射される光線の方向と強度とを示すデータ(以下、ライトフィールドデータと呼ぶ)を取得する。なお、本実施例では、撮像部101として、メインレンズと撮像素子との間にライトフィールドデータ取得用マイクロレンズアレイを配置したカメラ(Plenopticカメラ)を説明する。Plenopticカメラの構成を図2に示す。
図2(a)は、撮像部101の内部構成を表す図である。撮像部101は撮像レンズ201〜203、開口絞り(以下、単に「絞り」と呼ぶ。)204、シャッター205、ライトフィールドデータ取得用マイクロレンズアレイ206、光学ローパスフィルタ207、iRカットフィルタ208、カラーフィルタ209、光電変換する撮像素子210及びA/D変換部211で構成される。撮像レンズ201〜203は夫々、ズームレンズ201、フォーカスレンズ202、203である。絞りを調整することにより、撮像部101に入射される入射光量を調整することができる。ライトフィールドデータ取得用マイクロレンズアレイ206は、撮像素子210の直前に配置されている集光用マイクロレンズとは異なる。一般的に集光用マイクロレンズは撮像素子の各画素それぞれに一つの光学系(例えば凸レンズ)が配置されているが、ライトフィールドデータ取得用マイクロレンズアレイは、複数画素に一つの光学系(例えば、16の画素に一つの光学系)が配置されている。なお、ライトフィールドデータ取得用マイクロレンズアレイ206の各レンズのサイズがマイクロメートル単位、あるいはミリメートル単位であっても、各レンズのサイズに関わらずマイクロレンズと呼ぶことにする。
〔ライトフィールドデータの取得〕
図2(b)はライトフィールドデータ取得用マイクロレンズアレイを概念的に表したものである。
メインレンズ212はズームレンズ201、フォーカスレンズ202、203を概念的にまとめて1枚で表したものであり、そこから入射した光線213、214がライトフィールドデータ取得用マイクロレンズアレイ206を通過して撮像素子210に到達する。Plenopticカメラではマイクロレンズアレイ206を挿入することで、光線213、214がメインレンズ212のどちらの方向から来たのかを弁別し、ライトフィールドデータを取得することができる。例えば図2(b)の場合はメインレンズ212の上半分を通過した光線を画素223で受光し、下半分を通過した光線を画素224で受光することにより、両者を弁別することができる。
撮像部101の構成としては、図2に示したPlenopticカメラのみではなく、小型カメラを複数並べた多眼カメラでもよい。ライトフィールドデータを取得できるカメラであればこれらに限らない。以下の説明では、方向分解能が高いライトフィールドデータが取得できるものとする。方向分解能が高いライトフィールドデータは、例えば離散的に取得されたライトフィールドデータ(角度について疎なデータ)を補間処理により連続的なデータ(角度について密なデータ)に変換することにより得られる。
情報処理部100は撮像部101からライトフィールドデータを受け取り、ライトフィールドデータの補正、及び補正されたライトフィールドデータに基づいて画像データを生成する。
取得部102は、撮像部101からライトフィールドデータを取得する。
ピント位置設定部103は、ユーザからの指示に基づいて、合成画像データが示す合成画像におけるピント面の位置を示す情報及び被写界深度を示す情報を設定する。被写界深度内にある被写体が合成画像においてピントがあうように合成される。
ピント位置設定部103はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を入力として扱うことも可能である。
ブレ補正部104は、取得部102で取得されたライトフィールドデータを受け取り、ライトフィールドデータが規定されているライトフィールド座標上(ライトフィールド空間中)でブレを補正して、補正されたライトフィールドデータを出力する。
合成画像生成部105は、ピント位置設定部103で設定されたピント面の位置を示す情報と被写界深度を示す情報、及びブレ補正部104から出力されたライトフィールドデータとに基づいて合成画像データを生成する。
表示部106は、例えば液晶ディスプレイが用いられ、合成画像データが示す合成画像を表示する。
ライトフィールドデータと画像データとの違いを説明する。
図20は、画像データ座標とライトフィールド座標との違いを示す図である。
画像データは、二次元平面内の各点(x, y)それぞれに対してスカラー値(画素値I)が対応しているデータ群により構成される。よって、画像データを規定する画像データ座標は図20(a)のようなものとなる。図20(a)において、x軸、y軸、I軸は3次元空間を張る互いに独立な座標軸(ベクトル)であり、点(x,y)に対して一つの画素値I(x,y)が対応する。
一方で、ライトフィールドデータは、三次元空間内の一本の直線に対して一つのスカラー値が対応しているデータ群により構成される。図20(b)は、三次元空間内において一つの光線(強度はL)が二つの平面(u平面、v平面)に交点(u, v)及び交点(x, y)で交わることを示している。この光線に対応するライトフィールドデータを規定する座標系は図20(b)のようになる。図示の都合上2次元上に記述しているが、図20(b)において、x軸、y軸、u軸、v軸、L軸は5次元空間を張る互いに独立な座標軸(ベクトル)であり、点(x,y,u,v)に対して一つのスカラー値L(u,v,x,y)が対応する。本実施例ではx軸、y軸、u軸、v軸のことを「ライトフィールド座標」と呼称する。
図1(b)は情報処理部100の内部構成をより詳細に述べた図である。
中央処理装置(CPU)111は、以下に述べる各部を統括的に制御する。RAM112は、CPU111の主メモリ、ワークエリア等として機能する。ROM113は、CPU111で実行される制御プログラム等を格納している。バス114は各種データの転送経路であり、例えば、取得部102によって取得されたライトフィールドデータはこのバス114を介して所定の処理部に送られる。表示制御部115は、表示部106に表示される合成画像や文字の表示制御を行う。デジタル信号処理部116は、バス114を介して受け取った合成画像データに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部117は、合成画像データをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部118は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。
〔ブレ補正部の構成〕
次に、ブレ補正部104の詳細について説明する。
図3は、ブレ補正部104の内部構成の一例を示す図である。
ブレは、露光の間の入力される情報が積分されることにより発生する。ブレには、撮像部101の動きに起因するものと、被写体の動きに起因するものがある。本実施例では、撮像部101の動きに起因してブレが生ずるものとする。
ブレ補正部104は、主にブレフィルタ算出部303、デコンボリューション部304、で構成される。以下、各部について説明する。
ブレフィルタ算出部303は、撮像部101から受け取ったブレ軌道情報を元にブレフィルタを算出する。ここではブレ軌道情報は、撮像部101にジャイロセンサなど姿勢検出部を搭載し、取得するものとする。ブレ軌道は、生成される画像データが示す画像に影響を及ぼす要因を示す情報の一つである。ブレ軌道情報は、例えば、撮像部の各時刻での位置を示す情報である。
デコンボリューション部304は、ブレフィルタ算出部303が算出したブレフィルタを用いてライトフィールドデータ入力端子301より入力されたライトフィールドデータをデコンボリューションする。
ブレフィルタの作り方、デコンボリューションの詳細については後述する。
〔ライトフィールドデータに関して〕
ライトフィールドデータの概念について説明する。なお簡単のため、以下、二次元空間に置かれた撮像部101がライトフィールドデータを取得する場合を説明するが、実際には、撮像部101は三次元空間に置かれている。
図4(a)は二次元空間における撮像部101、被写体403〜404と、それを通る光線405〜408とを表したものである。図4(b)は図4(a)の光線をライトフィールド座標上にプロットしたものを表している。
401、402は二次元空間において仮想的に設置された互いに平行な仮想平面であり、それぞれu平面、x平面と呼ぶことにする。本来u平面401、x平面402は二次元平面であるが、ここでは一次元で表現する。
図4(a)は、二次元空間中に被写体403と被写体404が配置されており、撮像部101が被写体403、404を含む空間のライトフィールドデータを取得する状況を示している。光線405、406は被写体403から出た光線であり、光線がu平面401、x平面402を通った位置を(u,x)のようにペアで表すと、光線405は(u,x)を、光線406は (u, x)を通過する。これをuを横軸に、xを縦軸にとったライトフィールド座標上にプロットすると、それぞれ点410、411にプロットされる。即ち一本の光線はライトフィールド座標上では一点に対応する。
光線407、408は被写体404から出た光線であり、光線407は(u, x)を、光線408は (u, x)を通過する。これをライトフィールド座標上にプロットすると、それぞれ点412、413にプロットされる。
図4(b)を見ると分かるように、被写体のある点から出た全ての光線はライトフィールド座標上では一つの直線上に乗る。例えば被写体403のある一点から出た光線は全て直線414上に乗り、被写体404のある一点から出た光は全て直線415上に乗る。またライトフィールド座標上での直線の傾きは、u平面401から被写体までの距離によって変化する。
図5(a)は図4(a)の被写体配置の場合にどのようなライトフィールドデータが取得できるかを表したものである。
ライトフィールド座標で規定されているライトフィールドデータから通常のカメラにより撮像した場合の画像データに変換することが可能である。通常のカメラにより撮像した場合の画像データとは、前述の通り二次元平面内の各点(x, y)それぞれに対してスカラー値(画素値I)が対応しているデータ群により構成される。ライトフィールドデータから通常のカメラにより撮像した場合の画像データに変換するためには、ライトフィールド座標上で、ある直線方向に沿って積分する。
例えば直線414の方向に沿って積分すると、被写体403にピントが合った画像を得ることができる。式では以下のように書くことができる。

ここでL(u, x)はライトフィールド座標(u, x)を通る光線の強度(本実施例では色空間における輝度)を表しており、I(u)は画像データである。
式(1)に従って生成した画像を図5(b)に示す。
また、直線415の方向に沿って積分すれば、被写体404にピントのあった画像を得ることができる。その画像を図5(c)に示す。即ち、積分する方向と合わせたいピント位置とは対応している。
また積分範囲を変えることで、合成画像の被写界深度を変えることができる。
例えば式(1)において、積分範囲[x,x]を広くとれば被写界深度の浅い画像を得ることができるし、積分範囲を狭く取れば被写界深度の深い画像を得ることができる。
積分範囲が極端に狭い例として、x=0のライトフィールドデータL(u,0)をライトフィールドデータの集合から切り出してくることで、パンフォーカス(被写界深度∞)の画像を示す合成画像データを得ることができる。
このようにライトフィールドデータを取得するカメラではライトフィールド座標上で方向を変えて積分することにより、撮影後に所望のピント位置の合成画像データを得ることができる。これは、ライトフィールドデータは画像データにはない光線の方向の情報を有しているからである。
〔ライトフィールド座標上におけるブレ〕
次にライトフィールド座標上でブレがどのように発生するかを、手ブレする場合を例に説明する。
一般的に手ブレは、撮像部101がシフトしたり、回転したりすることによって発生する。
本実施例では簡単のため、撮像部101がu平面401と平行な方向にシフトする場合に限定して説明を行う。なお本実施例では撮像部101の移動により、ブレが発生する場合を説明するが、逆に被写体側の移動によりブレが発生する場合も同様である。なお、回転ブレ等のブレの場合も同様に考えることができる。
ここでは説明の都合上、撮像部101を固定して、被写体全体がu平面401と平行な方向にシフトする場合を考える。これは被写体全体が固定され、撮像部101がu平面401と平行な方向にシフトしている場合と同義である。
図6(a)は光線がシフトしている様子を表している。光線601、602は光線407、406がそれぞれu平面401と平行な方向にeだけシフトしたものを示している。603はシフトする方向を表した矢印である。
例えば光線407は(u, x)を通過するが、シフト後は(u−e,x−e)を通過する。
このときライトフィールド座標上でどのようにシフトするかを表したものが図6(b)である。図6(b)において、シフトブレに伴い、点411、点412はそれぞれ点610、点611に(−e,−e)だけシフトする。点610、611はそれぞれ光線602、601に対応している。
以上のように、ライトフィールド座標上では、撮像部101のシフトに伴い、図6(b)に示すようにどの点も同じシフト量だけシフトする。このシフトの方向とシフト量は、被写体までの距離に依存しない。シフトによるブレを斜め45度の方向のフィルタを全面に作用させたものと解釈すると、通常のデコンボリューションでブレを補正することが可能になる。
これまでは説明を簡単にするために、(u,x)の2つのパラメータでライトフィールドデータを記述してきたが、実際にはu平面, v平面は二次限平面であることから、ライトフィールドデータは(u,v,x,y)の4つのパラメータで記述される。図20(b)(c)は、ライトフィールドデータ、及びライトフィールドデータ座標を示す図である。tを時刻として撮像部101の光学系(レンズ)の主点のシフトベクトルを(s(t),s(t))とすると、各光線に対応する点はライトフィールド座標上では(−s(t),−s(t),− s(t)−,s(t))だけシフトする。
観測されるブレたライトフィールドデータLblur(u, v, x, y)は、

となる。ここでLはライトフィールドデータの強度、Tは露出時間、*は畳み込みであり、ブレフィルタhは以下の式で定義される。

ここで、δは4次元のデルタ関数である。
以上がライトフィールド座標上におけるブレの発生過程に関する説明である。
〔処理の概念図〕
本実施例の処理の概念図を図7に示す。
図7において、ライトフィールドデータは本来4次元であるが、図示の都合上2次元で表示し、画像は1次元で表示してある。
図7において、705はシフトブレによってブレが発生したライトフィールドデータであり、707はブレたライトフィールドデータ705から生成したブレ画像である。
従来の手ブレ補正では、ブレた画像707を直接補正し、ブレ補正を行っていた(703の矢印)。
しかし、シフトブレの場合、画像中では遠方の被写体はあまりシフトせず、近くの被写体は大きくシフトする。そのため、撮像部101から被写体までの距離によって画像中の被写体のシフト量が異なり、ブレ補正が困難となる。
そこで、本実施例ではブレたライトフィールドデータ705をライトフィールド座標上で補正して、ブレ補正後のライトフィールドデータ704を得る。そして、補正後のライトフィールドデータ704から画像データを生成することで、ブレ補正後の画像706を得る(701、702の矢印)。
以上が本実施例の処理の概念図である。
〔本実施例の処理の流れ〕
本実施例の処理の流れについて説明する。
図8は本実施例における処理の流れを示すフローチャートである。
ステップ801において、取得部102がライトフィールドデータを取得する。ステップ802において、ライトフィールドデータをライトフィールド座標上でブレ補正部104が補正する。ステップ803において、ピント位置設定部103から、ピント面の位置が入力される。ステップ804において、補正されたライトフィールドデータが入力され、ピント面の位置を示す情報と被写界深度を示す情報とに基づいて合成画像生成部105が、補正されたライトフィールドデータからブレが補正された画像データを生成する。ステップ805において、合成画像生成部105が生成した合成画像データを表示部106に出力して動作を終了する。
〔ブレ補正部の処理の流れ〕
続いて、ブレ補正部104における処理の流れについて説明する。
図9は、ブレ補正部104における処理の流れを示すフローチャートである。
ステップ901において、ブレ補正部104は、ライトフィールドデータを、ライトフィールドデータ入力端子301を通して取得部102から受け取る。受け取ったライトフィールドデータは、デコンボリューション部304に送られる。
ステップ902において、撮像部101からブレ軌道情報入力端子302を通して、ブレ軌道情報が入力される。ブレ軌道情報は撮像部101が各時刻で、どのように移動したかを表す情報である。
ステップ903において、ブレフィルタ算出部303は撮像部101から受け取ったブレ軌道情報を元に式(3)に基づいてブレフィルタを算出する。
ブレフィルタの概念図を図10に示す。図10はu−x平面上でブレフィルタがどのように表されるかを示したものであり、「*」は着目画素である。u平面401に平行なシフトブレの場合は、ブレフィルタはu−x平面上で斜め45度の方向に値を持つということが特徴である。
図9のフローチャートの説明に戻る。
ステップ904において、デコンボリューション部304がブレフィルタを元にライトフィールドデータを補正し、補正ライトフィールドデータを生成する。デコンボリューション部304の詳細な動作は後述する。
ステップ905において、デコンボリューション部304は、補正ライトフィールドデータを、補正ライトフィールドデータ出力端子305を介して合成画像生成部105に出力して、処理を終了する。
〔デコンボリューション部の処理〕
デコンボリューション部304の動作について説明する。
ここでは、フーリエ変換を用いたデコンボリューションについて説明する 式(2)を4次元フーリエ変換すると、

となる。ここで、F[ ]は4次元フーリエ変換であり、以下の式で定義される。
また、4次元逆フーリエ変換F−4[]は以下の式で定義される。

式(5)、(6)において、iは虚数であり、変数(k,l,ω,ξ)はそれぞれ(x,y,u,v)に対応した角周波数である。
式(4)において、H(k,l,ω,ξ)は以下の式で定義される。

ここで、hは式(3)で定義されたブレフィルタである。
式(4)において、F[L] (k,l,ω,ξ)はブレが発生していないライトフィールドデータの周波数特性であり、F[Lblur](k,l,ω,ξ)はブレたライトフィールドデータの周波数特性である。
H(k,l,ω,ξ)を乗算させることは、(u,v,x,y)超平面上において、ある2次元平面と平行な方向に移動しながらライトフィールドデータを積分することを意味している。即ち、H(k,l,ω,ξ)を乗算させることにより、ブレを発生させることができる。
ライトフィールド座標を(u,x)のように2次元で簡略化して表した場合は、移動する方向は斜め45度の方向になる。逆に、式(4)より、ブレたライトフィールドデータの周波数特性F[Lblur](k,l,ω,ξ)をブレフィルタの周波数特性H(k,l,ω,ξ)で除算する。これにより、ブレが発生していない(低減されている)ライトフィールドデータの周波数特性F[L](k,l,ω,ξ)を得ることができる。デコンボリューション部304は補正されたライトフィールドデータの周波数特性F[L](k,l,ω,ξ)を4次元逆フーリエ変換し、ブレの補正されたライトフィールドデータL(u,v,x,y)を合成画像生成部105に渡す。
以上がデコンボリューション部304の処理である。
〔合成画像生成部〕
合成画像生成部105の動作について説明する。
合成画像生成部105はピント位置設定部103からピント面の位置を受け取る。
図11(a)はピント面1101と、u平面401、x平面402の位置関係を表したものである。被写体1102から出る全ての光線1103はライトフィールド座標上では、図11(b)の直線1110に乗る。
被写体1102のu座標をUとすると、Uはu平面401とx平面402を内分する点なので、

となる。これが直線1110の方程式である。
図11には図示していないが、被写体1102のv座標をVとするとUと同様に

となる。αはピント面の位置を表わすとすると、被写体1102にピントが合った画像を得るには、直線1110の方向にライトフィールドデータを積分すればよい。よって、合成画像生成部105は

を計算して、画像データを得る。
以上が合成画像生成部105の動作である。
図12は、本実施例に係る画像処理を施した場合の効果を説明するための図である。図12の(a)は、図4の被写体配置で撮影した場合に、シフトブレによってブレた画像を表している。図12の(b)、(c)は本実施例を適用してブレ補正を行い、それぞれ被写体403、404にピントを合わせた画像を示している。図12(b)において、被写体404がボケているのは、ピントが外れたことによって発生したボケであり、ピント位置におけるブレは補正できている。
以上のとおり、本実施例の場合、ライトフィールド空間上で補正することにより、シフトブレを画像処理により高精度で補正することが可能になる。これにより高画質な画像データを得ることが可能となる。このように本実施例によれば、従来のコンピュテーショナルフォトグラフィ―では実現できない、ライトフィールドデータを用いた全く新しい情報処理を実現することが可能となる。
〔変形例〕
・情報処理部100は撮像部101の内部にあってもよい。これにより、ユーザは情報処理部100と撮像部101と物理的に二つの機器を同時に扱う必要がなく、一つの機器を操作することにより、上述の実施例を実施することが可能となる。
・撮像部101に、ライトフィールドデータをネットワーク(LAN,WAN等)を介して外部に送信する送信部を設けてもよい。撮像部101から送信されるライトフィールドデータは、遠隔に設置される情報処理装置100によりネットワークを介して受信され、情報処理装置100内で上述の実施例の処理がなされる。これにより、計算負荷を分散することが可能となり、例えば、撮像部101での計算処理コストを削減することができるとの効果を奏する。
・本実施例ではライトフィールド座標として、(u,v,x,y)の場合を例にとって説明したが、3次元空間中の光線を特定できる座標系であれば本座標系に限らない。たとえば、図21に示すように仮想的にu平面を設置し、u平面から光線が射出される方向ベクトル(a,b)と合わせて(u,v,a,b)をライトフィールド座標として採用することも可能である。
・本実施例では光線の強度として、色空間における輝度の場合を例にとって説明したが、強度としては各波長における光の放射輝度や、色空間におけるRGB値でも構わない。例えばRGB値の場合は、各色プレーンをそれぞれ個別に扱い、デモザイクをした後で本実施例の処理を行うことで、ブレを補正することができる。
・デコンボリューションの手法は上述の手法に限らない。例えば、Lucy−Richardsonのアルゴリズム、Wienerフィルタを用いたアルゴリズム、正則化フィルタを用いたアルゴリズムなどが挙げられ、いずれの手法を用いてもよい。
〔実施例2〕
実施例1においてはデコンボリューション部304は4次元フーリエ逆変換をして、合成画像生成部105にブレを補正したライトフィールドデータを渡した。
本実施例ではデコンボリューション部304が4次元フーリエ逆変換を行わず、合成画像生成部105にブレを補正したライトフィールドデータの周波数特性データを渡す場合について説明する。
実施例1との差異のみ説明する。
デコンボリューションの仕方は実施例1と同様であり、合成画像生成部105はライトフィールドデータの周波数特性データを受け取る。
ライトフィールドデータをフーリエ変換した概念図を図13に示す。1301はライトフィールドデータの周波数特性である。
合成 画像生成部105は、以下の量を計算する。

ここで、αの定義は式(8)と同様であり、ピント面の位置を表している。また、F[]は2次元フーリエ変換であり、以下の式で定義される。
式(11)はライトフィールドデータをフーリエ変換した空間上で、画像中心を通る直線方向に一次元情報を抽出することを示している。1302は一次元情報を抽出する方向の例を示しており、抽出する方向はピント面の位置によって変化する。
図13では簡単のため、ライトフィールドデータを2次元で図示しているが、実際のライトフィールドデータは4次元である。そのため、実際には式(11)はライトフィールドデータの4次元周波数空間から、ある平面に沿って2次元情報を抽出することを表している。
次に合成画像生成部105は4次元周波数特性データからある平面に沿って抽出した2次元情報F[I](k,l)を2次元フーリエ逆変換し、ピント面1101にピントが合った画像データを得る。
〔実施例2の処理の流れ〕
本実施例の処理の流れの概念図を図14に示す。ライトフィールドデータは本来4次元であるが、図示の都合上2次元で表示し、画像は1次元で表示してある。
デコンボリューション部304はブレたライトフィールドデータ705を4次元フーリエ変換し、ブレたライトフィールドデータ705の周波数特性1401を得る。次にブレフィルタの周波数特性でデコンボリューションし、ブレ補正後のライトフィールドデータの周波数特性1301を得る。
次に合成画像生成部105がブレ補正後のライトフィールドデータの周波数特性1301からある直線方向に1次元情報を抽出し、補正後の画像の周波数特性1402を得る。ここでは、白い枠1404で記載された部分を抽出するものとする。
最後に補正後の画像の周波数特性1402を2次元フーリエ逆変換し、補正後の画像データ1403を得る。
〔実施例2の原理〕
式(11)の2次元逆フーリエ変換を計算することが、実施例1との計算(式(10))と理論上等価であることを説明する。
4次元フーリエ変換の定義式(5)を用いて、式(11)を詳細に書き下すと、
となる。
ここで変数を

と変換すると、dUdVdxdy=αdudvdxdyとなるので、式(13)に代入して

となる。
式(15)において、

の部分は、式(10)と同様の計算であり、これをI(U,V)と置くと、式(15)は

となる。式(14)より、式(8)は式(7)の2次元フーリエ変換に等しいことが分かるので、式(8)を2次元フーリエ逆変換することで、式(7)の結果を得ることができる。
以上が実施例2の原理である。
以上のとおり、本実施例の場合、4次元周波数空間上である平面に沿って2次元情報を抽出し、2次元フーリエ逆変換を行い画像データを生成することで、実施例1に比べて少ない計算量でシフトブレを補正することが可能になる。
このように本実施例によれば、従来のコンピュテーショナルフォトグラフィ―では実現できない、ライトフィールドデータを用いた全く新しい情報処理を実現することが可能となる。
〔実施例3〕
実施例1、2ではライトフィールド座標上でライトフィールドデータを補正することで、ブレの補正を行った。本実施例では、ライトフィールド座標上でライトフィールドデータを補正することでメインレンズの収差を補正する場合について説明する。
図15は本実施例に係る撮像装置の主要な構成要素を示す図である。
実施例1との違いのみ説明する。画像処理部1500において、収差補正部1501は取得部102で取得されたライトフィールドデータと、レンズの収差補正情報を受け取り、ライトフィールド座標上で収差補正を行う。
〔収差補正の原理〕
本実施例の動作原理について説明する。図16はある点1601から出た光線1602、1603、1604がレンズ1605によって屈折し、光線1606、1607、1608になる様子を表している。レンズ1605が理想レンズであれば、光線1606、1607、1608は一点で結像するが、一般的には収差の影響で1点に交わらない。なおライトフィールドデータを取得するためには、レンズ1605の後ろにマイクロレンズアレイなど、光線の方向を弁別する光学系を挿入する必要があるが、ここでは省略してある。
本実施例ではu平面401はレンズ1605面と一致するように配置し、x平面402は像面側に仮想的に配置するものとする。撮像部101はu平面401、x平面402を通過する光線1606、1607、1608等の方向と強度の情報を取得するものとする。
図17(a)は光線1606、1607、1608をライトフィールド座標上にプロットしたものであり、点1701、1702、1703はそれぞれ光線1606、1607、1608に対応している。
実施例1で説明したように一点で結像する光線群はライトフィールド座標上ではある直線上に乗るが、光線1606、1607、1608は収差の影響で一点で交わらないため、点1701、1702、1703は直線上には乗らない。
一方、レンズ1605が理想レンズだった場合、光線1602、1603、1604がレンズ1605を通過したあとの光線は、ライトフィールド座標上で点1704、1705、1706にプロットされる。この場合はレンズを通貨した光線は一点に結像するため、点1704、1705、1706は直線1707上に乗っている。
取得部102は理想レンズの場合と実際のレンズのライトフィールド座標上での対応関係をルックアップテーブル(以下LUTと表記)で保持しているものとする。
例えば点1701、1702、1703の座標をそれぞれ(u,x), (u,x), (u,x)とし、点1704、1705、1706の座標をそれぞれ(U,X), (U,X), (U,X)とする。この場合LUTには、(u,x, U,X)、(u,x, U,X)、(u,x, U,X)という対応関係が保存されている。この収差の影響による理想のレンズと実際のレンズとの対応関係は、画像データが示す画像に影響を及ぼす要因を表わす情報の一つである。
図17(b)1710はLUTの例を示したものである。左側に実際のレンズのライトフィールド座標(u,x)、右側に理想レンズの場合のライトフィールド座標(U,X)が示されている。
以上の説明は簡単のため、(u,x)の2次元で行ったが、実際のLUT1710には4次元座標(u,v,x,y)の対応関係が格納されている。
LUTの作成方法としては、あらゆる入射光線に対して、実際のレンズで屈折した光線のライトフィールド座標と、理想レンズの式に基づいて計算された屈折した光線のライトフィールド座標の対応関係を作ればよい。対応関係を求めることができれば、上記の方法に限らない。
収差補正部1501はLUT1710を参照し、ライトフィールド座標を理想レンズの場合に座標変換する。
ここでは、LUTを用いる場合を説明したが、レンズ1605によって光線がどのように屈折するかが数式で表せる場合は、数式に基づいてライトフィールド座標を変換してもよい。
以上のとおり、本実施例の場合、ライトフィールドデータを取得してライトフィールド座標上で変換する(補正する)ことで、メインレンズの収差をより高精度に補正することが可能になる。
なお本実施例では球面収差を補正する場合を説明したが、色収差など他の収差に関しても同様に補正することが可能である。このように本実施例によれば、従来のコンピュテーショナルフォトグラフィ―では実現できない、ライトフィールドデータを用いた全く新しい情報処理を実現することが可能となる。
〔実施例4〕
実施例1、2ではライトフィールド座標を変換してブレ補正を行ったが、本実施例では光線を選択的に組み合わせてブレを補正する場合について説明する。
図18は、本実施例に係る撮像装置の主要な構成要素を示す図である。実施例1との違いのみ説明する。
画像処理部1800において、補正画像生成部1801はブレ軌道情報及びピント面の位置情報を元に、取得部102で取得されたライトフィールドデータのうち、必要なデータを加算合成することでブレが補正された画像を得る。
〔ブレ補正の原理〕
本実施例のブレ補正の原理は実施例1と同様であり、計算上の表現の仕方が異なるのみである。
式(3)で表されるブレフィルタの逆フィルタをhinv(u,v,x,y)とする。逆フィルタはたとえば以下の式で求めることが可能である。

ここで、F −4[]は4次元フーリエ逆変換を表す。
逆フィルタhinv はhinv*h=δ(u,v,x,y)を満たす。*は畳み込みであり、δは4次元デルタ関数である。
逆フィルタhinvを用いると、デコンボリューションの過程は

となる。最終的にブレを補正した画像は式(10)で得ることができるので、式(10)に式(19)を代入し、

となる。
補正画像生成部1801は取得した光線情報Lblurを式(20)に従って選択し、重みづけして加算することで、ブレ補正された画像を得る。
以上のとおり、本実施例の場合、ライトフィールドデータから選択的に光線を組み合わせることにより、直接的にブレを補正した画像データを得ることができる。
このように本実施例によれば、従来のコンピュテーショナルフォトグラフィ―では実現できない、ライトフィールドデータを用いた全く新しい情報処理を実現することが可能となる。
〔実施例5〕
実施例1〜4では、人が通常眼にする画像に対する処理に関して説明した。本実施例では、ライトフィールドデータから画像データとして被写体までの距離画像データを生成する場合について説明する。
図11で説明したように、ある一点から出た光はライトフィールド座標上では一本の直線上に乗る。
被写体までの「距離」を、撮像部101から被写体まで撮像部101の光軸と平行な方向に測った距離のことであると定義すると、実施例1の式(8)で説明したように、ライトフィールド座標上の直線の傾きは被写体までの距離に依存する。
即ちライトフィールド座標上で直線を検出し、傾きを求めることで被写体までの距離を求めることができる。
ライトフィールド座標上のライトフィールドデータの光線の傾きを求める方法としては、エッジ抽出フィルタを用いる方法や、Hough変換を用いる方法などがある。これらはライトフィールドデータに対して補正処理をかけることにより、結果として光線の傾きを求めることと同義である。いずれの方法を用いても良いし、これらの方法に限らない。

図19は図4の被写体配置において、ライトフィールド座標704に直線の傾きを検出する処理を施し、それを距離画像データに直したものである。図19において、画素値の取り得る範囲は「0,255]であるとし、距離が近い被写体ほど距離画像の画素値が小さくなるように定義した。被写体403、404以外の背景部分は十分遠方にあるとし、画素値の最大値である255で丸めて表記している。1901は被写体403に対応し、1902は被写体404に対応している。被写体403の方が被写体404より撮像部101に近いため、1901の画素値は1902の画素値より小さくなっている。
以上のとおり、本実施例の場合、ライトフィールド座標上でエッジ抽出フィルタやHough変換等の補正処理を行うことで、距離画像データなど、通常の画像以外の画像データを得ることができる。このように本実施例によれば、従来のコンピュテーショナルフォトグラフィ―では実現できない、ライトフィールドデータを用いた全く新しい情報処理を実現することが可能となる。
〔実施例6〕
本実施例では、RGBフィルタの画素配置を元に、ライトフィールド座標上で色補間を行う場合について説明する。
図2(b)で示すように、Plenopticカメラや多眼カメラを使うと、光線方向を弁別し、ライトフィールドデータを取得する事ができる。本実施例では、撮像素子210が、ベイヤー配列などカラーフィルタアレイ(CFA)により色を取得する撮像素子である場合を考える。
撮像素子210では、微妙に視点が異なる離散的な多視点画像が撮影されるが、カラーフィルタアレイにより色を取得する撮像素子の場合、RGBの色プレーン毎に、欠落した色が発生する。よって、撮像素子210を使って撮影した多視点画像を使ってリフォーカス処理を行う場合、処理前に欠落した色を補間する処理、すなわち色補間(デモザイク処理)が必要となる。
しかし、単純に周辺の画素を使って色補間を行うと、多視点画像の各々がボケて、鮮鋭性が低下してしまう。そして、鮮鋭性が低下した画像を用いてリフォーカス処理を行うと、最終的に得られる画像の鮮鋭性も低下してしまう。特に、Gプレーンの鮮鋭性の低下は、画像の明度における鮮鋭性の低下につながり、見た目の鮮鋭性が大きく損なわれてしまう。
この課題に対し、色補間処理時に方向判定を行い、補間時のボケを低減する方法が提案されている。
また、方向判定よりも、さらにボケを低減する方法として、色補間処理時に、他の視点の画像も利用し、補間精度を上げる手法も提案されている。多視点画像の構図は、画角が微妙に異なるだけで、ほぼ同一である。よって、補間画素に相当するか、もしくは類似する画素が他の視点の画像データに含まれる可能性が高い。この手法では、類似画素を、ブロックマッチングなどの処理を使い、画像の類似性から探索し、補間に利用する。しかし、同じような形状の被写体が複数含まれる場合などには、マッチングの誤判定が多く、精度の高い補間が行えない、という問題点がある。
本実施例では、類似画素をライトフィールド座標上で探索する。図4で示したように、ライトフィールド座標では、被写体のある点から出た光線は全て、一つの直線上に乗る、という性質がある。本実施例では、これを利用し、補間画素が写す被写体から出る全ての光線の乗る直線を求め、この直線上に乗るか、もしくは直線に近い画素を、多視点画像から探索し、重みづけをして加算することで補間を行う。直線上に乗るか、近いということは、それらの画素は、同一の被写体、もしくはその近辺から出た光線を写した画素であると言えるため、誤判定の少ない、精度の高い補間を行う事ができる。
図22は、本実施例に係る撮像装置の主要な構成要素を示す図である。
実施例1との違いのみ説明する。補正処理部2204では、ROM2213から補正情報として、撮像素子のカラーフィルタ情報を、取得部2202から被写体までの距離情報をそれぞれ受け取り、ライトフィールド座標上で色補間を行う。
本実施例の動作原理について説明する。
図23(a)は、本実施例における、処理の流れを示すフローチャートである。補正処理部2204では、まず、処理に必要なライトフィールドデータを取得部2202から取得する。(ステップS2301)次に、カラーフィルタ情報、距離データをROM2213から補正情報として入力する。(ステップS2302、ステップS2303)距離データの入力ステップS2303は、撮像部2201に測距センサーを付加して取得する方法、測距用の撮像装置を用いて取得する方法、実施例5で示す、ライトフィールドデータから生成する方法等がある。
図25に、今回の処理で使用する、撮影画像データと、距離画像データの例を示す。撮影画像データの1画素1画素に対応する距離データがあることを示している。また、図の撮影画像データは、Gプレーンのみを示しており、Rプレーン、またはBプレーンにある画素が欠落している。本実施例では、この欠落したGプレーンの画素を色補間する。距離画像データは、値が大きくなる(明るくなる)につれて、遠くの距離にあるデータである事を示している。
方向判定ステップS2304では、まず、撮影画像データから補間画素を選択し、図11と式(8)(9)で示した方法により、補間画素を通るライトフィールド座標上の直線の方程式を求める。この手順を、図23(b)、(c)を用いて説明する。図23(b)は、図11のdxが0の場合(X平面を撮影面に設定した場合)を示したものである。図23(c)は、被写体2303を、撮像装置C1、C2、C3で撮影した時のGプレーン画素を、ライトフィールド座標上にプロットしたものである。ライトフィールドデータは本来4次元であるが、図示の都合上2次元で表示し、画像は1次元で表示している。補間画素として、画素2311を選択した場合、距離dpointは、距離データ入力ステップS2303により取得できる。また、X平面を撮影面に設定しているため、距離dxは0になる。さらに、U平面を被写体よりも奥側の、任意の場所に配置する事で、距離duも取得できる。以上により、式(8)(9)の直線の傾きαを、計算によって求める事ができる。これにより、画素2311を通る直線2310の方程式が求められる。
近傍画素の探索ステップS2305では、方向判定ステップS2304で求めた直線2310近傍の画素を、ライトフィールド座標上で探索する。探索の方法としては、各画素から直線2310までの距離を求め、距離が最小のものを選定する方法がある。距離を算出する方法としては、例えば、以下の公式を用いる方法がある。
画素(u0 , x0)から、直線au + bx + c = 0までの距離dは、以下の式で与えられる。
なお、上記公式は、2次元データにおける距離を求める方法である。実際にライトフィールドデータで距離を算出する際には、上記公式を4次元に拡張して計算する。
図23(c)の例では、撮像装置C1で撮影された画像データからは画素2312が、C2からは2313が、C3からは2314が探索される。
画素補間ステップS2306では、探索された画素2312、2313、2314に、直線2310からの距離に応じて重みづけをし、画素値を加算する。なお、重みは、総和が1になるよう、直線2310からの距離を、探索された画素の距離の総和で除算するなどして設定する。
以上、ステップS2304からS2306までを、画像データの補間画素数分、全画像データに対して行う。補正ライトフィールドデータの出力ステップS2307では、補間の完了したライトフィールドデータを出力する。
以上の通り、本実施例によれば、鮮鋭性を失うことなく、CFAを介して得られる画像信号に対して色補間を行うことが可能となる。
〔実施例7〕
本実施例では、RGB画素配置を元に、ライトフィールド座標上で色補間を行う場合で、実施例6以外の方法について説明する。
実施例6では、補正処理部2204で色補間を行う方法について説明したが、本実施例では、合成画像生成部2205で色補間を行う方法について説明する。
合成画像生成部2205では、ピント面の位置情報と被写界深度情報、及びライトフィールドデータに基づいて合成画像を生成する。
図26は、合成画像を生成する際に生じる問題点について説明している。撮像装置C1、C2、C3により撮影された画像2610、2611、2612は、微妙に画角の異なる構図となっている。これを合成し、それぞれ異なる被写体にピントを合わせたときの画像が2621、2622、2623である。例えば、画像2622をみると、ピントの合っていない、ボケる画像領域(被写体2604、2606や背景)で、アーティファクトが発生している。これは、撮像装置C1、C2、C3が、離散的に配置されている事が原因であり、それらの画像を合成すると発生する。
このアーティファクトを抑制するには、ピントの合う部分と、ボケる部分を判別し、ボケる部分に関しては、合成前にあらかじめ該当部分をボカし、その画像を合成する事が効果的である。
本実施例では、合成画像生成部2205にて、リフォーカス画像を合成する際に、ライトフィールド座標上で、ピントの合う部分と、ボケる部分を精度良く判定し、色補間の方法を変える事で、アーティファクトを抑制する方法について説明する。
本実施例の動作原理について説明する。
図24(a)は、本実施例における、処理の流れを示すフローチャートである。ステップS2401、S2402、S2403では、処理に必要なライトフィールドデータ、カラーフィルタ情報、距離データを取得する。
積分方向の入力ステップS2404では、ピント位置設定部2203により決定されたピント位置から、図11と式(8)(9)を使って、積分方向を決定する。
閾値の入力ステップS2405では、ピントの合う部分とボケる部分を判定する閾値を設定する。
方向判定ステップS2406は、実施例6のフローチャート図23(a)の方向判定ステップS2304と同様の処理を行う。図24(c)は、被写体2405、2406を、撮像装置C1、C2、C3で撮影した時のGプレーン画素を、ライトフィールド座標上にプロットしたものである。ライトフィールドデータは本来4次元であるが、図示の都合上2次元で表示し、画像は1次元で表示している。ここでは、積分方向の入力ステップS2404により決定した積分方向を2412、方向判定ステップS2406により計算した画素2413を通る直線を2410、画素2414を通る直線を2411として示している。
ステップS2407では、積分方向2412と、直線2410、2411の傾きをそれぞれ比較する。直線2410のように、積分方向2412とほぼ同じ傾き(閾値の入力ステップS2405で入力した閾値以内)であれば、画素2413は、画像合成後にピントの合う部分であると判定する。一方、直線2411のように、積分方向2412とは異なる傾き(閾値の入力ステップS2405で入力した閾値をオーバー)であれば、画素2414は、ボケる部分であると判定する。
ピントの合う部分であると判定された画素については、画素補間ステップS2408に行く。これは、フローチャート図23(a)の近傍探索ステップS2305と、画素補間ステップS2306に相当する処理であり、直線2410近傍の画素を探索し、重みづけして加算する。
ボケる部分と判定された画素については、ぼかし処理ステップS2409に行く。ぼかし処理としては、画素2414周辺の画素の平均値を取って補間値にする方法や、ぼかしフィルターをかける方法などがある。
以上、ステップS2406からS2409までを、画像データの補間画素数分、全画像データに対して行う。
画素を積分ステップS2410では、多視点画像データを、積分方向の入力ステップS2404で決定した積分方向に沿って積分を行う。
画像データの出力ステップS2411では、合成したリフォーカス画像を出力する。
以上のとおり、本実施例によればピントが合う部分とそうでない部分を判定することにより、色補間によるアーティファクトを抑制することが可能となる。
〔実施例8〕
本実施例では、欠陥画素の位置を元に、ライトフィールド座標上で欠陥画素を補間する場合について説明する。
従来から、撮像素子における欠陥画素の補正方法として、製造工程において検出した欠陥位置をROMに記憶させ、その近傍画素を用いて欠陥画素を補間する方法がある。
しかしながら、Plenopticカメラや多眼カメラ等の複数の多視点画像を取得可能な撮像装置では、近傍以外の画素を用いた方がより精度の高い補間を行える場合がある。例えば、多眼カメラでは同一の被写体を異なる位置から撮像するため、あるカメラの欠陥画素に相当する画素が、他のカメラの画像データに含まれる可能性が高い。このため、欠陥画素をその周囲の画素を用いて補間するよりも、他のカメラの画像データを用いて補間する方がより精度の高い補間を行える。また、図2に示すPlenopticカメラでは同一の被写体から入射した複数の光線がそれぞれ異なるマイクロレンズを通過して撮像素子210に到達する場合がある。この際も多眼カメラと同様に、欠陥画素をその周囲の画素を用いて補間するよりも、欠陥画素から離れた異なるマイクロレンズに対応した画素を用いて補間する方がより精度の高い補間を行える。
本案件では、補間に用いる画素をライトフィールド座標上で探索する。図4で示したように、ライトフィールド座標では、被写体のある点から出た光線は全て、一つの直線状に乗る、という性質がある。本案件では、これを利用し、補間画素が写す被写体から出る全ての光線の乗る直線を求め、この直線上に乗るか、もしくは直線に近い複数の画素を補間に用いる画素とする。そして、算出した複数の画素に重みづけをして加算することで補間を行う。直線上に乗るか、近いということは、それらの画素は、同一の被写体、もしくはその近辺から出た光線を写した画素であると言える。このため、欠陥画素をその近傍画素から補間した場合比較して精度の高い補間を行う事ができる。
図22は、本実施例に係る撮像装置の主要な構成要素を示す図である。実施例6との違いのみ説明する。補正処理部104では、ROM113から補正情報として、欠陥画素位置を、取得部2202から被写体までの距離情報をそれぞれ受け取り、ライトフィールド座標上で欠陥画素の補間を行う。
本実施例の動作原理について説明する。図27は、本実施例における補正処理部104が行う処理の流れを示すフローチャートである。まず、ステップS2701においてライトフィールドデータを入力する。次に、ステップS2701において欠陥画素位置を入力する。ここで、欠陥画素位置は欠陥画素のライトフィールド座標での位置であるものとする。なお、欠陥画素位置をセンサ上の位置としてもよい。この際は、センサ上の位置からライトフィールド座標を算出し、次のステップに移る。次に、ステップS2703において距離データを入力する。距離データの入力ステップS2703は、撮像部101に測距センサーを付加して取得する方法、測距用の撮像装置を用いて取得する方法、実施例5で示す、ライトフィールドデータから生成する方法など、様々な方法がある。この内、ライトフィールドデータから距離情報を生成する場合、補正処理部104が取得部2202から被写体までの距離情報を受け取る必要はない。
図28に、今回の処理で使用する、撮影画像データと、距離画像データの例を示す。図の撮影画像データはGプレーンのみを示しており、そのうち一部の画素が欠陥画素となっている。本実施例では、この欠陥画素の画素値を補間により求める。距離画像データは、値が小さくなる(暗くなる)につれて、遠くの距離にあるデータである事を示している。
方向判定ステップS 2704では、まずステップS2702で取得した欠陥画素位置に対し、S2304と同様の方法により欠陥画素を通るライトフィールド座標上の直線の方程式を求める。以降、近傍画素の探索ステップS2705、画素補間ステップS2706は、それぞれS2305、S2306と同様の方法で行い、欠陥画素を補間する。
以上、ステップS2704からS2706までを、全欠陥画素に対して行う。補正ライトフィールドデータの出力ステップS2707では、補間の完了したライトフィールドデータを出力する。
なお、本実施例では撮像部101が多眼カメラである場合を説明したが、撮像部101がPlenopticカメラなどライトフィールドデータを取得可能な装置である場合も同様に補正することが可能である。
以上のとおり、本実施例によれば、欠陥画素に対する補間を高精度に実現することができる。
〔実施例9〕
前述のようにPlenopticカメラや多眼カメラを用いることで光線の方向と輝度の情報を持つライトフィールドデータを取得することができる。しかし、各光線の方向や輝度の情報には乗っていること一般的であり、必ずしも理想的なライトフィールドデータが取得できるわけではない。そこで、本実施例ではライトフィールドデータにおける光線の輝度情報に対するノイズに着目し、ライトフィールド座標上で光線の輝度情報のノイズ低減処理を行う場合について説明する。
従来、画像データの輝度のノイズ低減処理を行う場合、平滑化フィルタ、またはメディアンフィルタなどのフィルタ処理を実施することでノイズ低減を行っていた。このような画像データに対しフィルタ処理によるノイズ低減処理を行うと、画像の各々がボケて、鮮鋭性が低下してしまうという問題があった。
また、Plenopticカメラや多眼カメラなどで撮影した多視点画像に対するノイズ低減処理方法として、他の視点の画像を利用する手法が提案されている。Plenopticカメラや多眼カメラで撮影した多視点画像の構図は、画角が微妙に異なるだけで、ほぼ同一である。よって、ある視点画像データの各画素について、同一の被写体が写る画素が他の視点の画像データに含まれる可能性が高い。そのため、同一の被写体が写る画素を複数の視点画像から探索し、その輝度の加重平均を取ることで、ボケの発生が低減したノイズ低減が可能となる。しかし、同じような形状、模様の被写体が複数含まれる場合などには、複数の視点画像から同一の被写体が写る画素を探索する際に、マッチングの誤判定が発生し、その結果ボケが発生してしまったり、アーティファクトが発生してしまうという問題点がある。
本実施例では、同一の被写体が写る画素をライトフィールド座標上で探索する。図4で示したように、ライトフィールド座標では、被写体のある点から出た光線は全て、一つの直線上に乗る、という性質がある。ライトフィールドデータ上のある1点について、輝度情報のノイズ低減を行うとき、本実施例ではこの性質を利用する。まず、注目点に写る被写体から出る光線が乗るライトフィールド空間での直線を求め、次に、この直線上に分布するライトフィールドデータの輝度の加重平均を取ることでノイズ低減処理を行う。直線上に分布するライトフィールドデータは、同一の被写体から出た光線であるため、マッチングの誤判定がなく、ボケやアーティファクトのないノイズ低減処理が可能となる。
本実施例に係る撮像装置は、図22と同様の構成要素を持つ。実施例1、及び実施例O1との違いのみ説明する。補正処理部104では、ROM113から補正情報として被写体までの距離情報を受け取り、ライトフィールド座標上でノイズ低減処理を行う。ここでは距離情報は、撮像部101に測距センサーを付加して取得する方法、測距用の撮像装置を用いて取得する方法、実施例5で示したようにライトフィールドデータの傾きから算出する方法など、様々な方法がある。ROM113には、いずれかの方法で取得した距離情報が記録されている。
本実施例における補正処理部の動作を説明する。
図29(a)は、本実施例における補正処理部104の構成要素を示す。補正処理部104は、主に方向判定部2913、フィルタ算出部2914、フィルタ実施部2915で構成される。以下、各部について説明する。
方向判定部2913は、ROM113から受け取った距離情報を元に、ライトフィールド空間における注目点を通る直線の方程式を求める。
フィルタ算出部2914は、方向判定部2913から受け取った方向情報を元にノイズ低減フィルタを算出する。
フィルタ実施部2915は、フィルタ算出部2914が算出したノイズ低減フィルタを、ライトフィールドデータ入力端子2911より入力されたライトフィールドデータのうちの輝度に対し実施する。そして、補正ライトフィールドデータ出力部2916を介し画像生成部105へ出力する。
尚、ノイズ低減フィルタの作り方、及び、フィルタ実施方法の詳細については後述する。
図29(b)は、補正処理部104の処理の流れを示すフローチャートである。補正処理部104では、まず、処理に必要なライトフィールドデータ、距離データを入力する(ステップS2901、ステップS2902)。
続いて、ステップS2903では、ステップS2901で取得したライトフィールドデータから、ノイズ低減が未処理であるデータを1点選択し注目点として設定する。以下のステップS2903からステップS2906では、本ステップで選択した注目点についてノイズ低減処理を行う。そして、全てのライトフィールドデータに対し、ノイズ低減を実施するまでステップS2903からステップS2906を繰り返し実施する。
ステップS2904では、方向判定部2913において、注目点に写る被写体までの距離から、注目点におけるライトフィールド座標上の直線の傾きを算出する。この手順については、実施例O1の方向判定ステップSO104と同様である。図11と式(8)、(9)で示した方法により、ステップS2902で取得した距離データに基づき、注目点におけるライトフィールド座標上の直線の方程式を求める。尚、式(8)、(9)において、dpintに置き換え、注目点に写る被写体までの距離を利用する。
ステップS2905では、フィルタ算出部2914において、ステップS2904で求めた直線の方向に基づいてノイズ低減フィルタを算出する。本処理の詳細については後述する。
次にステップS2906では、フィルタ実施部2915において、ライトフィールドデータの注目点、及び周辺の輝度に対し、ステップS2905で算出したノイズ低減フィルタを実施する。本処理についても詳細は後述する。
ステップS2907では、ライトフィールドデータの全範囲に対しノイズ低減処理を実施したか判断を行う。全範囲に対し処理が終了している場合はステップS2908へ移行し、未終了の場合はステップS2903へ移行する。
ステップS2908では、ノイズ低減後のライトフィールドデータを、補正ライトフィールドデータ出力部2916を介し画像生成部105へ出力する。
以上で、本実施例における補正処理部104の動作が完了する。
〔フィルタ算出部の処理〕
以下にフィルタ算出部2914の動作を、図30を例に説明する。図30において、3001はノイズ低減処理を行う注目点を表す。また、3002は方向判定部2913で求めた注目点におけるライトフィールド座標上の直線を表す。グレーでマスク表示した3003は、ノイズ低減フィルタの実施適用範囲を示す。3003に示すように、注目点を中心として、方向判定部2913で求めた直線上のデータに対し適用されるようなフィルタを算出する。
本処理では、ライトフィールド空間における直線上でノイズ低減を実施するフィルタであれば、どのようなフィルタを用いてもよい。例えば、直線上における注目点からの距離に応じた係数を持つガウシアンフィルタを適用することができる。ガウシアンフィルタを用いる場合、フィルタの係数f(u,v,x,y)は、式(8)、(9)を満たす(u、v、x、y)の組に対し、直線上での注目点からの距離dに応じ以下の式で表すことができる。尚、δはデルタ関数を表す。また、フィルタは予め設定された距離Dの値を用いて、−D/2≦d≦D/2の範囲で値を持つとする。

上式において、注目点のライトフィールド上の座標を(u’、v’、x’、y’)とすると、距離dは下記式で表わされる。
尚、図30では説明上ライトフィールド空間を2次元で記述しているが、実際のライトフィールドは4次元で表わされるデータであり、同様に本処理で算出するフィルタについても4次元で表わされる。図31(a)に、直線上の注目点からの距離に応じたガウシアンフィルタの例を示す。また図31(b)には、(a)のフィルタが、注目点3001を中心とした3003の範囲に適用される様子を示している。このように、ライトフィールド空間において注目点を中心として直線上にフィルタを適用し、ノイズ低減を行う。
以上では、ノイズ低減フィルタとして式(22)に従う平滑化フィルタを用いる場合を例に示したが、他のフィルタを用いてもよい。ノイズ低減に用いるフィルタはライトフィールド座標上の注目点を通る直線上でノイズ低減を実施するフィルタであればよく、式(22)以外の関数に従うフィルタであってもよいし、メディアンフィルタなどのどのようなノイズ低減フィルタを用いてもよい。
〔フィルタ実施部の処理〕
以下にフィルタ実施部2915の動作を説明する。フィルタ実施部2915では、前述のように、ライトフィールドデータの注目点を通過する直線上データに対し、フィルタ算出部2914で算出したフィルタを実施する。
注目点のライトフィールド上の座標を(u’、v’、x’、y’)、補正前のライトフィールドの輝度をLとして、補正後ライトフィールドの輝度L’はノイズ低減フィルタf(u,v,x,y)を用いて下記式によって計算する。

以上が本実施例における補正処理部104の処理である。
以上のとおり、本実施例では、ライトフィールド空間上において、各点の直線の方向判定を行い、その直線に沿ってノイズ低減を行った。前述のように、ライトフィールド空間では被写体のある点から出た光線は全て一つの直線上に乗るという性質があるため、この直線上のデータは全て同一の被写体の点から出た光線である。これによって、複数の画像の中からブロックマッチングなどによる対応点の探索は必要なく、対応点探索における誤判定が発生しないため、誤判定によるボケやアーティファクトの発生が無くノイズ低減を行うことができる。
〔実施例10〕
本実施例では、撮像装置の製造時に含まれる設計値との製造誤差および製造後の撮像装置の変形による、ライトフィールドデータ上での誤差を補正する処理について説明する。
ライトフィールドデータは、マイクロレンズアレイ206を通して取得した光線を、どちらの方向から来たかを弁別し、ライトフィールド座標にマッピングすることにより生成される。このとき、取得した光線は、マイクロレンズの設置位置などを含む撮像装置の設計値に基づいて、どちらの方向から来たかを弁別される。多眼カメラや多視点撮影でも同様に、1つ1つのカメラの位置と姿勢を表すパラメータに基づいて、各カメラが取得した光線をマッピングすることによって、ライトフィールドデータを生成する。生成されたライトフィールドデータを用いることにより、実施例1のブレ補正、実施例7の色補間、実施例8の欠陥画素補正、実施例9のノイズ低減などの処理が可能となる。
しかしながら、撮像装置の製造誤差および製造後の撮像装置の変形などにより、撮像装置に設計値とのずれが含まれている場合、光線をライトフィールド座標に正確にマッピングすることが出来ず、ライトフィールドデータにマッピング誤差が含まれてしまう。多眼カメラや多視点撮影では、カメラの位置と姿勢が正確に求まっていない場合、同様にライトフィールドデータにマッピング誤差が含まれてしまう。このマッピング誤差により、ライトフィールドデータに歪みが生じてしまう。歪んだライトフィールドデータでは、後段の処理における効果が著しく減少してしまうことが分かっている。
本実施例では、実際の撮像装置と設計値とのずれなどによるマッピング誤差を含んだライトフィールドデータを、ライトフィールド座標に正確にマッピングされたライトフィールドデータへと補正することを目的とする。
〔ライトフィールド座標における撮像装置の設計値とのずれ〕
ここでは、撮像装置に含まれる設計値とのずれが、ライトフィールドデータに及ぼす影響について説明する。概念図を図32に示す。説明を簡単化するため、Plenopticカメラのメインレンズが位置する面をu平面、マイクロレンズアレイが位置する面をx平面とし、本来4次元である空間を2次元の空間とする。
ライトフィールドデータは撮像装置の設計値に基づいて生成される。撮像装置のマイクロレンズが設計値通りに配置されていれば、生成されたライトフィールドデータは、被写体のある点から出た全ての光線はライトフィールド座標上では一つの直線上に乗るという、ライトフィールドデータの特徴を満たす。図32(a)に撮像装置のマイクロレンズが設計値通りに配置された場合のレンズ配置図と、取得されるライトフィールドデータの例を示す。被写体上の同じ点から出た光線が一つの直線上に並んでいることが分かる。ここで、ライトフィールド座標上の円3201に囲まれたライトフィールドデータは、マイクロレンズ3202を通過した光線がライトフィールド座標にマッピングされたものである。このように、各マイクロレンズを通過し、取得された光線は、ライトフィールド座標において、u軸に平行な直線上に並んで配置される。以下、各マイクロレンズを通過し、取得された光線をライトフィールド座標にマッピングしたものを、サブライトフィールドデータと呼ぶ。
撮像装置のマイクロレンズが、設計値とずれて配置されている場合のレンズ配置図と、取得されるライトフィールドデータを図32(b)に示す。図32(b)ではマイクロレンズ3203が設計値とずれて、図の下方向に配置されている。しかしながら、ライトフィールドデータは設計値に基づいてライトフィールド座標に光線をマッピングすることによって生成される。そのため、マイクロレンズ3203を通過した光線は、マイクロレンズが設計値通りに配置された図32(a)と同様に3204の位置へとマッピングされる。マイクロレンズ3203以外のサブライトフィールドデータから推定される直線と、マイクロレンズ3203のサブライトフィールドデータがずれていることが分かる。このずれにより、ライトフィールドデータに歪みが生じてしまう。このずれは、レンズ構成図のx平面において発生したずれであるため、マイクロレンズ3203のサブライトフィールドデータをx軸方向にずらすことによって、補正可能である。ライトフィールドデータ補正の概念図を図32(c)に示す。具体的にはマイクロレンズ3203のサブライトフィールドデータを位置3204から位置3205へ、x軸方向に沿って平行移動させる。これにより、被写体のある点から出た全ての光線はライトフィールド座標上では一つの直線上に乗るという特徴を満たしたライトフィールドデータを得ることが可能である。
〔ライトフィールドデータの補正〕
図33(a)は実施例10の画像処理部の内部構成を示すブロック図である。本実施例におけるLF補正部3303の処理について詳細を説明する。
LF補正部3303にはLF取得部3302よりライトフィールドデータが、ROM3304よりLF補正情報としてLF補正パラメータの探索範囲が入力される。
図33(b)はLF補正部3303の内部構成の一例を示すブロック図である。
ライトフィールドデータ入力端子3307は、LF取得部3302で取得したライトフィールデータを、対応点探索部3309に入力する。
LF補正情報入力端子3308は、ライトフィールドデータの補正に用いるLF補正パラメータの探索範囲を、LF補正パラメータ算出部3310に入力する。
対応点探索部3309は、LF取得部3302で取得したライトフィールドデータから各マイクロレンズを通過し、取得された光線情報であるサブライトフィールドデータを抽出し、抽出したサブライトフィールドデータ間で対応点探索処理を行う。本実施例ではまず抽出したサブライトフィールドデータにおいて、エッジ抽出などを用いて特徴点抽出を行う。抽出した特徴点を中心としたブロックマッチング処理をすることにより、サブライトフィールドデータ間の対応点探索を行う。本実施例では前記手法を用いたが対応点探索手法はこれに限らない。図34(a)にライトフィールドデータから抽出した複数のサブライトフィールドデータ間で対応点探索した結果の例を、図34(b)に対応点探索結果のデータ群を示す。ここでnは抽出されるサブ光線データの数を示し、mは対応点数を示す。変数nは撮像装置に含まれるマイクロレンズの数である。本実施例では対応点探索結果の上位20点を後段の処理に使用するため、変数m=20であるが、変数mの値はこれに限らない。
LF補正パラメータ算出部3310は、対応点探索結果とLF補正パラメータの探索範囲を入力とし、対応点探索結果から算出した近似直線と対応点探索結果との誤差が最小となるLF補正パラメータを算出する。算出するLF補正パラメータについて説明する。本実施例におけるLF補正パラメータは、各サブライトフィールドデータの移動量である。これにより、図32(c)に示したように、各マイクロレンズのサブライトフィールドデータを移動することによって、ライトフィールドデータを補正する。LF補正パラメータの概念図を図35(a)に、図34(b)に示した対応点探索結果のデータ群にLF補正パラメータを加えたデータ群を図35(b)に示す。ここでp1、p2、p3、p4は各マイクロレンズにおけるLF補正パラメータである。また、図35(a)に示した変数rangeはLF補正パラメータが値をとる可能性のある範囲を表しており、事前に算出可能である。これはLF補正パラメータの元となる撮像装置内におけるマイクロレンズ設置位置の最大ずれ幅を、撮像装置の設計段階で、撮像装置の大きさ、マイクロレンズアレイの配置などから想定可能であるためである。LF補正パラメータpは式(25)に示す範囲に含まれる。本実施例ではrange=20としているが、変数rangeの値はこれに限らない。
本実施例では、想定される製造誤差から見積もったマイクロレンズ設置位置の最大ずれ幅から、事前にLF補正パラメータの探索範囲rangeを算出しておき、ROM3304に格納しておく。その探索範囲におさまるようなLF補正パラメータを算出する。
次に対応点探索結果から近似直線を求め、LF補正パラメータを算出する手法について説明する。本実施例では、対応点探索部3309での対応点探索結果の近似直線を最小二乗法によって求め、算出した近似直線とその対応点との誤差の合計が最小となるLF補正パラメータを算出する。
まず、ライトフィールド座標上で、対応点探索部3309での対応点探索結果より、近似直線を算出する。対応点探索結果より近似直線を算出する式を式(26)に示す。ここでnはサブライトフィールドデータの数、iは各マイクロレンズのサブライトフィールドデータを指す変数、jは対応点番号を指す変数である。式(26)によりライトフィールド座標上でj番目の対応点n個から、対応点群の近似直線を算出することが可能である。
本実施例では最小二乗法を用いて近似直線を算出しているが、近似直線算出方法はこれに限らない。例えば、はずれ値を除外して近似直線を算出できるRansac法が挙げられる。
次に、算出した近似直線とj番目の対応点n個との誤差を算出する。近似直線と対応点の関係を図36に示す。近似直線とj番目の対応点n個との誤差の2乗の合計djは式(27)により算出可能である。
よって、全てのm個の対応点全てにおける近似直線との誤差の合計dは式(28)により求めることが出来る。
LF補正パラメータ算出部3310は、LF補正パラメータpの探索範囲内に含まれる全てのパラメータの組み合わせで、誤差の合計dを算出し、誤差の合計dが最小となるパラメータの組み合わせをLF補正パラメータとし、LF再構成部3311へと出力する。本実施例では、前記手法によりLF補正パラメータを算出したが、算出手法はこれに限らない。例えば、最急降下法やマーカート法などの最適化処理が挙げられる。
LF再構成部3311はLF補正パラメータ算出部3310で算出したLF補正パラメータに基づいて、ライトフィールドデータを再構成する。各マイクロレンズのサブ光線データを、x軸方向に沿ってLF補正パラメータ分移動することにより、ライトフィールドデータを再構成することが可能である。
ライトフィールドデータ出力端子3312はLF再構成部3311で生成したライトフィールドデータを、画像合成部3305に出力する。
〔実施例10におけるLF補正部の処理の流れ〕
本実施例におけるLF補正部3303の処理の流れについて説明する。
図37はLF補正部3303における処理の流れを示すフローチャートである。
ステップ3701において、対応点探索部3309は、ライトフィールドデータを、ライトフィールドデータ入力端子3307を通して取得する。
ステップ3702において、対応点探索部3309は、取得したライトフィールドデータから、各マイクロレンズが取得したサブ光線データを抽出し、抽出したサブ光線データ間で対応点探索を行う。対応点探索結果はLF補正パラメータ算出部3310に送られる。
ステップ3703において、LF補正パラメータ算出部3310は、LF補正情報としてLF補正パラメータの探索範囲を、LF補正情報入力端子3308を通して取得する。
ステップ3704において、LF補正パラメータ算出部3310は、対応点探索部3309の対応点探索結果をつなぐ近似直線を式(26)によって算出する。
ステップ3705において、LF補正パラメータ算出部は、対応点と近似直線の誤差を式(28)により算出する。ここで、LF補正パラメータは、LF補正情報入力端子3308を通して取得したLF補正パラメータの探索範囲内に含まれるパラメータの組み合わせの1つである。
ステップ3706において、LF補正パラメータの探索範囲内に含まれる全てのパラメータの組み合わせで、誤差を算出したか、判定する。全てのパラメータの組み合わせで誤差を算出していれば、ステップ3708へと処理が進行し、全てのパラメータの組み合わせで誤差を算出していなければ、ステップ3707へと処理が進行する。
ステップ3707において、誤差を算出するパラメータを、LF補正パラメータの探索範囲内に含まれるパラメータの組み合わせで、未だ評価値を算出していないパラメータの組み合わせに更新する。このパラメータ更新により、マイクロレンズのサブ光線データが移動し、対応点の位置が変化する。
ステップ3708において、LF補正パラメータ算出部3310は、LF補正パラメータの探索範囲内に含まれる全てのパラメータの組み合わせで算出した誤差の中で、最小値をとるLF補正パラメータの組み合わせを求める。その組み合わせがLF補正パラメータとして、LF再構成部3311に送られる。
ステップ3709において、LF再構成部3311は、取得したLF補正パラメータに基づき、各マイクロレンズで取得した光線を再配置することにより、ライトフィールドデータを再構成する。
図38は、本実施例に係る画像処理を施した場合の効果を説明するための図である。ライトフィールドデータの直線上の画素を合成することにより、生成した。
図38(a)は図32(b)に示すような誤差を含んだライトフィールドデータをもとに生成した画像の結果である。エッジ部で画像がぼけていることが分かる。これは、異なる位置からの光線を同じ位置からの光線と判断し、合成に使用しているためである。マイクロレンズがずれて配置されているため、本来全て黒であるはずの直線上の画素の中に、白が含まれてしまい、エッジ部でボケが生じている。
図38(b)は本実施例を適用して、誤差を含まないライトフィールドデータをもとに合成することにより生成した画像の結果である。エッジ部のボケが解消されていることが分かる。ライトフィールドデータの補正により直線上の画素が全て同じ色になったためである。
〔その他の実施形態〕
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (16)

  1. 被写体から撮像部に入射される光線の方向と強度とを示すライトフィールドデータを取得する取得手段と、
    前記ライトフィールドデータの座標上において前記ライトフィールドデータを補正する補正手段と
    前記補正されたライトフィールドデータから画像データを生成する画像生成手段と
    有し、
    前記補正手段は、前記ライトフィールドデータの周波数特性を補正することを特徴とする情報処理装置。
  2. 前記補正されたライトフィールドデータから前記被写体までの距離を示す距離画像データを取得する距離画像データ手段を更に有することを特徴とする請求項1に記載の情報処理装置。
  3. 前記補正手段は、前記ライトフィールドデータにフィルタを作用させることを特徴とする請求項1又は請求項2に記載の情報処理装置
  4. 前記画像生成手段は、前記座標上において、前記ライトフィールドデータを特定の方向に積分して前記画像データを得ることを特徴とする請求項に記載の情報処理装置
  5. 被写体から撮像部に入射される光線の方向と強度とを示すライトフィールドデータを取得する取得手段と、
    前記ライトフィールドデータの座標上において前記ライトフィールドデータを補正する補正手段と、
    前記補正されたライトフィールドデータから画像データを生成する画像生成手段と
    を有し、
    前記補正手段は、前記画像データが示す画像に影響を及ぼす要因を表す情報に基づいて、前記ライトフィールドデータを補正し、
    前記画像に影響を及ぼす要因を表す情報は、ブレを示す情報であることを特徴とする情報処理装置
  6. 前記補正手段は、ブレを示す情報から、ブレフィルタを算出しデコンボリューションを行うことを特徴とする請求項5に記載の情報処理装置
  7. 被写体から撮像部に入射される光線の方向と強度とを示すライトフィールドデータを取得する取得手段と、
    前記被写体の動き又は前記撮像部の動きに起因するブレを示す情報から、前記ライトフィールドデータの座標上において前記ライトフィールドデータを補正する補正手段と、
    前記補正されたライトフィールドデータから画像データを生成する生成手段と
    を有することを特徴とする情報処理装置。
  8. 被写体から撮像装置に入射される光線の方向と強度を示すライトフィールドデータを取得する取得手段と、
    ブレを示す情報から前記ライトフィールドデータから選択的に光線を組み合わせることにより画像データを生成する生成手段
    を有することを特徴とする情報処理装置。
  9. 被写体から撮像部に入射される光線の方向と強度とを示すライトフィールドデータを取得する取得手段と、
    前記ライトフィールドデータの座標上において前記ライトフィールドデータを補正する補正手段と、
    前記補正されたライトフィールドデータから画像データを生成する画像生成手段と
    を有し、
    前記補正手段は、前記画像データが示す画像に影響を及ぼす要因を表す情報に基づいて、前記ライトフィールドデータを補正し、
    前記画像に影響を及ぼす要因を表す情報は、ライトフィールドデータ上の直線の方向を示す情報であることを特徴とする情報処理装置
  10. 前記補正手段は、ライトフィールドデータ上の直線の方向を示す情報から、ライトフィールド座標上でノイズの低減を行うことを特徴とする請求項9に記載の情報処理装置
  11. 被写体から撮像装置に入射される光線の方向と強度とを示すライトフィールドデータを含む情報を取得する取得工程と、
    前記ライトフィールドデータの座標上において前記ライトフィールドデータを補正する補正工程と
    前記補正されたライトフィールドデータから画像データを生成する画像生成工程と
    を有し、
    前記補正工程は、前記ライトフィールドデータの周波数特性を補正することを特徴とする情報処理方法。
  12. コンピュータを請求項1〜10のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
  13. 被写体から撮像部に入射される光線の方向と強度とを示すライトフィールドデータを取得する取得工程と、
    前記ライトフィールドデータの座標上において前記ライトフィールドデータを補正する補正工程と、
    前記補正されたライトフィールドデータから画像データを生成する画像生成工程と
    を有し、
    前記補正工程は、前記画像データが示す画像に影響を及ぼす要因を表す情報に基づいて、前記ライトフィールドデータを補正し、
    前記画像に影響を及ぼす要因を表す情報は、ブレを示す情報であることを特徴とする情報処理方法。
  14. 被写体から撮像部に入射される光線の方向と強度とを示すライトフィールドデータを取得する取得工程と、
    前記被写体の動き又は前記撮像部の動きに起因するブレを示す情報から、前記ライトフィールドデータの座標上において前記ライトフィールドデータを補正する補正工程と、
    前記補正されたライトフィールドデータから画像データを生成する生成工程と
    を有することを特徴とする情報処理方法。
  15. 被写体から撮像装置に入射される光線の方向と強度を示すライトフィールドデータを取得する取得工程と、
    ブレを示す情報から前記ライトフィールドデータから選択的に光線を組み合わせることにより画像データを生成する生成工程と
    を有することを特徴とする情報処理方法。
  16. 被写体から撮像部に入射される光線の方向と強度とを示すライトフィールドデータを取得する取得工程と、
    前記ライトフィールドデータの座標上において前記ライトフィールドデータを補正する補正工程と、
    前記補正されたライトフィールドデータから画像データを生成する画像生成工程と
    を有し、
    前記補正工程は、前記画像データが示す画像に影響を及ぼす要因を表す情報に基づいて、前記ライトフィールドデータを補正し、
    前記画像に影響を及ぼす要因を表す情報は、ライトフィールドデータ上の直線の方向を示す情報であることを特徴とする情報処理方法。
JP2013044407A 2012-05-31 2013-03-06 情報処理方法および装置、プログラム。 Active JP6168794B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013044407A JP6168794B2 (ja) 2012-05-31 2013-03-06 情報処理方法および装置、プログラム。
US14/403,531 US9712755B2 (en) 2012-05-31 2013-05-22 Information processing method, apparatus, and program for correcting light field data
PCT/JP2013/064959 WO2013180192A1 (en) 2012-05-31 2013-05-22 Information processing method, information processing apparatus, and program storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012124985 2012-05-31
JP2012124985 2012-05-31
JP2013044407A JP6168794B2 (ja) 2012-05-31 2013-03-06 情報処理方法および装置、プログラム。

Publications (2)

Publication Number Publication Date
JP2014007730A JP2014007730A (ja) 2014-01-16
JP6168794B2 true JP6168794B2 (ja) 2017-07-26

Family

ID=49673379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013044407A Active JP6168794B2 (ja) 2012-05-31 2013-03-06 情報処理方法および装置、プログラム。

Country Status (3)

Country Link
US (1) US9712755B2 (ja)
JP (1) JP6168794B2 (ja)
WO (1) WO2013180192A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9519144B2 (en) * 2013-05-17 2016-12-13 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display having a defect
US9582922B2 (en) 2013-05-17 2017-02-28 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display
US9426365B2 (en) * 2013-11-01 2016-08-23 The Lightco Inc. Image stabilization related methods and apparatus
US9594247B2 (en) 2013-12-19 2017-03-14 Nvidia Corporation System, method, and computer program product for a pinlight see-through near-eye display
US9305375B2 (en) * 2014-03-25 2016-04-05 Lytro, Inc. High-quality post-rendering depth blur
JP6501452B2 (ja) * 2014-04-04 2019-04-17 キヤノン株式会社 画像処理装置及びシステム、画像処理方法、並びにプログラム
JP6427332B2 (ja) * 2014-04-08 2018-11-21 株式会社ミツトヨ 画像測定機
AU2015266670B2 (en) * 2014-05-30 2019-05-09 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
DE102014115292A1 (de) * 2014-10-21 2016-04-21 Connaught Electronics Ltd. Verfahren zum Bereitstellen von Bilddateien von einem Kamerasystem, Kamerasystem und Kraftfahrzeug
JP6444233B2 (ja) * 2015-03-24 2018-12-26 キヤノン株式会社 距離計測装置、距離計測方法、およびプログラム
EP3089449B1 (en) 2015-04-30 2020-03-04 InterDigital CE Patent Holdings Method for obtaining light-field data using a non-light-field imaging device, corresponding device, computer program product and non-transitory computer-readable carrier medium
EP3094076A1 (en) 2015-05-13 2016-11-16 Thomson Licensing Method for obtaining a refocused image from a 4D raw light field data using a shift correction parameter
EP3099079A1 (en) 2015-05-29 2016-11-30 Thomson Licensing Method for displaying, in a vehicle, a content from 4d light field data associated with a scene
EP3098778A1 (en) 2015-05-29 2016-11-30 Thomson Licensing Method for obtaining a refocused image from 4d raw light field data
EP3099076B1 (en) 2015-05-29 2019-08-07 InterDigital CE Patent Holdings Method for displaying a content from 4d light field data
EP3099077B1 (en) 2015-05-29 2020-07-15 InterDigital CE Patent Holdings Method for displaying a content from 4d light field data
EP3145191A1 (en) 2015-09-17 2017-03-22 Thomson Licensing Method for encoding a light field content
EP3145194A1 (en) 2015-09-17 2017-03-22 Thomson Licensing Method for encoding 4d light field data comprising discretizing a first and a second plane used in a light field parametrization
EP3144885A1 (en) * 2015-09-17 2017-03-22 Thomson Licensing Light field data representation
EP3145190A1 (en) 2015-09-17 2017-03-22 Thomson Licensing Method for delivering a set of images from a light field content
EP3144886A1 (en) 2015-09-17 2017-03-22 Thomson Licensing Method for encoding a light field content
EP3145193A1 (en) 2015-09-17 2017-03-22 Thomson Licensing Method for encoding light field content
EP3145192A1 (en) 2015-09-17 2017-03-22 Thomson Licensing Method for displaying 4d light field data
CA2998690A1 (en) 2015-09-17 2017-03-23 Thomson Licensing Method for encoding a light field content
EP3166073A1 (en) 2015-11-06 2017-05-10 Thomson Licensing Method for obtaining a refocused image from 4d raw light field data
US20170221223A1 (en) 2016-01-28 2017-08-03 Thomson Licensing Method for obtaining a position of a main lens optical center of a plenoptic camera
WO2017198766A1 (en) 2016-05-18 2017-11-23 Thomson Licensing Method for modifying mal-exposed pixel values comprised in sub-aperture images obtained from a 4d raw light field
FR3051584B1 (fr) * 2016-05-20 2019-11-01 Safran Procede de reconstruction tridimensionnelle a l'aide d'une camera plenoptique.
JP2018032982A (ja) * 2016-08-24 2018-03-01 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
EP3416371A1 (en) 2017-06-12 2018-12-19 Thomson Licensing Method for displaying, on a 2d display device, a content derived from light field data
EP3416381A1 (en) 2017-06-12 2018-12-19 Thomson Licensing Method and apparatus for providing information to a user observing a multi view content
EP3422722A1 (en) 2017-06-30 2019-01-02 Thomson Licensing Method for encoding a matrix of image views obtained from data acquired by a plenoptic camera
EP3422723B1 (en) 2017-06-30 2023-04-26 InterDigital VC Holdings, Inc. Method for encoding and decoding at least one matrix of image views obtained from data acquired by a plenoptic camera, and corresponding electronic devices
CN109819675B (zh) * 2017-09-12 2023-08-25 松下知识产权经营株式会社 图像生成装置以及图像生成方法
WO2019230108A1 (ja) * 2018-05-28 2019-12-05 ソニー株式会社 画像処理装置、画像処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6359649B1 (en) * 1995-04-04 2002-03-19 Canon Kabushiki Kaisa Video camera integrated with still camera
JP4632987B2 (ja) * 2006-03-28 2011-02-16 株式会社パスコ 道路画像解析装置及び道路画像解析方法
US20100265385A1 (en) * 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
JP2008191472A (ja) * 2007-02-06 2008-08-21 Sony Corp 3次元画像表示システム
CN100585453C (zh) * 2007-02-09 2010-01-27 奥林巴斯映像株式会社 解码方法及解码装置
JP2008294741A (ja) * 2007-05-24 2008-12-04 Olympus Corp 撮像システム
GB2463480A (en) * 2008-09-12 2010-03-17 Sharp Kk Camera Having Large Depth of Field
JP5490514B2 (ja) * 2009-12-22 2014-05-14 三星電子株式会社 撮像装置及び撮像方法
JP2015019119A (ja) * 2011-11-10 2015-01-29 パナソニック株式会社 画ブレ補正装置
US20130286237A1 (en) * 2012-04-30 2013-10-31 Ramin Samadani Spatially modulated image information reconstruction

Also Published As

Publication number Publication date
US20150130995A1 (en) 2015-05-14
JP2014007730A (ja) 2014-01-16
US9712755B2 (en) 2017-07-18
WO2013180192A1 (en) 2013-12-05

Similar Documents

Publication Publication Date Title
JP6168794B2 (ja) 情報処理方法および装置、プログラム。
TWI554103B (zh) 影像擷取裝置及其數位變焦方法
KR101233013B1 (ko) 화상 촬영 장치 및 그 거리 연산 방법과 합초 화상 취득 방법
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JP5237978B2 (ja) 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
JP5968073B2 (ja) 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
JP6308748B2 (ja) 画像処理装置、撮像装置及び画像処理方法
WO2011096157A1 (ja) 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
JPWO2011010438A1 (ja) 視差検出装置、測距装置及び視差検出方法
US9473700B2 (en) Camera systems and methods for gigapixel computational imaging
WO2021093635A1 (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP5882789B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2013026844A (ja) 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
JP2013061850A (ja) ノイズ低減のための画像処理装置及び画像処理方法
JP2014010783A (ja) 画像処理装置、画像処理方法およびプログラム
JP5730036B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム。
JP2015115733A (ja) 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP6682184B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP2017050662A (ja) 画像処理装置、撮像装置および画像処理プログラム
JPWO2018088211A1 (ja) 画像処理装置、画像処理方法、及び、プログラム
JP6105960B2 (ja) 画像処理装置、画像処理方法、および撮像装置
CN112866552A (zh) 对焦方法和装置、电子设备、计算机可读存储介质
JP6611509B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
US20240169492A1 (en) Selective extended depth-of-field correction for image reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170627

R151 Written notification of patent or utility model registration

Ref document number: 6168794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151