JP6448324B2 - 画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラム - Google Patents

画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラム Download PDF

Info

Publication number
JP6448324B2
JP6448324B2 JP2014234207A JP2014234207A JP6448324B2 JP 6448324 B2 JP6448324 B2 JP 6448324B2 JP 2014234207 A JP2014234207 A JP 2014234207A JP 2014234207 A JP2014234207 A JP 2014234207A JP 6448324 B2 JP6448324 B2 JP 6448324B2
Authority
JP
Japan
Prior art keywords
image
region
similarity value
image similarity
parallax images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014234207A
Other languages
English (en)
Other versions
JP2016100663A (ja
JP2016100663A5 (ja
Inventor
薫 江口
薫 江口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014234207A priority Critical patent/JP6448324B2/ja
Publication of JP2016100663A publication Critical patent/JP2016100663A/ja
Publication of JP2016100663A5 publication Critical patent/JP2016100663A5/ja
Application granted granted Critical
Publication of JP6448324B2 publication Critical patent/JP6448324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラムに関する。
カメラ等の撮像装置により撮影を行うと、撮像光学系に入射した光の一部がレンズの界面やレンズを保持する部材により反射して、撮像面に不要光として到達する場合がある。撮像面に到達した不要光は、密度の高いスポット像を形成したり被写体像の広範囲に被ったりしてゴーストやフレアとなる。ゴーストやフレアは、不要成分として撮影画像中に現れる。
また、望遠レンズにおいて、軸上色収差や倍率色収差の補正のために最も物体側のレンズに回折光学素子を用いると、撮像画角外に存在する太陽等の高輝度物体からの光が回折光学素子に当たることで、画像全体にぼんやりとした不要光が現れる場合がある。この場合の不要光も不要成分として撮影画像中に現れる。
従来、不要光を光学的に低減する方法や、不要成分をデジタル画像処理によって除去する方法が提案されている。特許文献1に開示されているゴースト検出装置は、被写体に対して撮像光学系が合焦状態にあるときの画像(合焦画像)と撮像光学系が非合焦状態にあるときの画像(デフォーカス画像)との差分を示す差分画像からゴースト像を検出する。また、特許文献2に開示されているゴースト像処理装置は、単眼立体撮像による複数の視点画像を比較することでゴーストを検出する。
特開2008−54206号公報 特許5284306号公報
しかしながら、特許文献1のゴースト検出装置は、合焦状態と非合焦状態のそれぞれでの撮影、すなわち複数回の撮影を必要とするため、動きのある被写体の静止画撮影や動画撮影には適さない。また、特許文献2のゴースト像処理装置では、ゴースト像を検出するために主画像と副画像の2画像間での差分をとるのみであり、3視点以上の視点画像がある場合にはゴースト検出効果が低減してしまう。また、特許文献2のゴースト像処理装置では、不要成分を決定するために事前に視差成分を補正しなければならないため、処理負荷が多くなってしまう。
このような課題を鑑みて、本発明は、複数回の撮像を行うことなく撮影画像に含まれる不要成分領域をより効果的に検出可能な画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラムを提供することを目的とする。
本発明の一側面としての画像処理装置は、複数の視差画像を取得する取得手段と、前記複数の視差画像における位置関係および大きさが同一である領域を決定する決定手段と、前記領域を比較することで、画像類似度値を算出する算出手段と、前記画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出手段と、を有し、
前記決定手段は、前記複数の視差画像における位置関係および大きさが同一である第1の領域と、前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域の少なくとも一部を含む第2の領域を決定し、
前記算出手段は、前記第1の領域を比較することで第1の画像類似度値を算出し、前記第2の領域を比較することで第2の画像類似度値を算出し、前記第1および第2の画像類似度値に基づいて前記画像類似度値を算出することを特徴とする。
また、本発明の他の側面としての撮像装置は、複数の視差画像を生成する撮像系と、前記撮像系から前記複数の視差画像を取得する取得手段と、前記複数の視差画像における位置関係および大きさが同一である領域を決定する決定手段と、前記領域を比較することで、画像類似度値を算出する算出手段と、前記画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出手段と、を有し、前記決定手段は、前記複数の視差画像における位置関係および大きさが同一である第1の領域と、前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域の少なくとも一部を含む第2の領域を決定し、前記算出手段は、前記第1の領域を比較することで第1の画像類似度値を算出し、前記第2の領域を比較することで第2の画像類似度値を算出し、前記第1および第2の画像類似度値に基づいて前記画像類似度値を算出することを特徴とする。
また、本発明の他の側面としての画像処理システムは、複数の視差画像を生成する撮像系を備えた撮像装置と、前記撮像装置から前記複数の視差画像を取得する取得手段と、前記複数の視差画像における位置関係および大きさが同一である領域を決定する決定手段と、前記領域を比較することで、画像類似度値を算出する算出手段と、前記画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出手段と、を有し、前記決定手段は、前記複数の視差画像における位置関係および大きさが同一である第1の領域と、前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域の少なくとも一部を含む第2の領域を決定し、前記算出手段は、前記第1の領域を比較することで第1の画像類似度値を算出し、前記第2の領域を比較することで第2の画像類似度値を算出し、前記第1および第2の画像類似度値に基づいて前記画像類似度値を算出することを特徴とする。
また、本発明の他の側面としての画像処理方法は、複数の視差画像を取得する取得ステップと、前記複数の視差画像における位置関係および大きさが同一である第1の領域を決定する第1の決定ステップと、前記第1の領域を比較することで、第1の画像類似度値を算出する第1の算出ステップと、前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域とは異なる第2の領域を決定する第2の決定ステップと、前記第2の領域を比較することで、第2の画像類似度値を算出する第2の算出ステップと、前記第1および第2の画像類似度値に基づいて、第3の画像類似度値を算出するステップと、前記第3の画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出ステップと、を有することを特徴とする。
また、本発明の他の側面としての画像処理プログラムは、複数の視差画像を取得する取得ステップと、前記複数の視差画像における位置関係および大きさが同一である第1の領域を決定する第1の決定ステップと、前記第1の領域を比較することで、第1の画像類似度値を算出する第1の算出ステップと、前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域とは異なる第2の領域を決定する第2の決定ステップと、前記第2の領域を比較することで、第2の画像類似度値を算出する第2の算出ステップと、前記第1および第2の画像類似度値に基づいて、第3の画像類似度値を算出するステップと、前記第3の画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出ステップと、をコンピュータに実行させることを特徴とする。
本発明によれば、複数回の撮像を行うことなく撮影画像に含まれる不要成分領域をより効果的に検出可能な画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラムを提供することができる。
実施例1の画像処理方法の手順を示す図である。 実施例1の画像処理方法の出力画像の一例を示す図である。 撮像系における撮像素子の受光部と撮像光学系の瞳との関係図である。 撮像系の模式図である。 本発明の実施形態に係る撮像装置のブロック図である。 撮像光学系と不要光の説明図である。 撮像光学系の絞りを透過する不要光の説明図である。 実施例1の画像処理方法のフローチャートである。 実施例1の画像処理方法の手順を示す図である。 実施例2の画像処理方法の手順を示す図である。 実施例2の画像処理方法の出力画像の一例を示す図である。 実施例2の画像処理方法のフローチャートである。 撮像系における撮像素子の受光部と撮像光学系の瞳との関係図である。 撮像系の模式図である。 撮像光学系の絞りを透過する不要光の説明図である。 実施例3の画像処理方法の手順を示す図である。 実施例3の画像処理方法の手順を示す図である。 実施例3の画像処理方法の手順を示す図である。 実施例3の画像処理方法の手順を示す図である。 実施例3の画像処理方法の手順を示す図である。 実施例3画像処理方法の出力画像の一例を示す図である。 実施例4の撮像装置の撮像系を示す図である。 実施例4の別の撮像装置の撮像系を示す図である。 図22の撮像系により得られた画像を示す図である。 図23の撮像系により得られた画像を示す図である。 実施例4の他の撮像の例を示す図である。 実施例4の他の撮像装置を示す図である。
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。 本発明の各実施例で用いる複数の視差画像を生成可能な撮像装置は、撮像光学系の瞳のうちそれぞれ異なる領域を通過した複数の光束を撮像素子における互いに異なる受光部(画素)に導いて光電変換を行わせる撮像系を有する。
図3は、撮像系における撮像素子の受光部と撮像光学系の瞳との関係図である。撮像素子には、受光部G1,G2(以下、それぞれG1画素およびG2画素という)の対(画素対)が複数配列されている。G1,G2画素の上には、カラーフィルタCFが形成されている。G1,G2画素は、画素対ごとに1つずつ設けられたマイクロレンズMLを介して撮像光学系の射出瞳EXPと共役な関係を有する。撮像素子に配列された複数のG1画素をまとめてG1画素群といい、同様に撮像素子に配列された複数のG2画素をまとめてG2画素群という。
図4は、撮像系の模式図であり、物点OSP、射出瞳EXP、および撮像素子の結像関係を表している。物点OSPには必ずしも物体が存在している必要はなく、物点OSPを通った光束はそれが通過する瞳内での領域(位置)に応じてG1画素またはG2画素に入射する。G1画素は射出瞳EXPのうちP1領域を通過した光束を受光し、G2画素は射出瞳EXPのうちP2領域を通過した光束を受光する。瞳内の互いに異なる領域を光束が通過することは、物点OSPからの入射光が角度(視差)によって分離されることに相当する。すなわち、G1,G2画素からの出力信号を用いて生成された画像は、互いに視差を有する複数(ここでは一対)の視差画像となる。以下の説明において、瞳内の互いに異なる領域を通過した光束を互いに異なる受光部(画素)により受光することを瞳分割という。
図3,4において、射出瞳EXPの位置がずれることで上述した共役関係が完全ではなくなったり、P1領域とP2領域とが部分的にオーバーラップしたりしても、得られた複数の画像は各実施例において視差画像として扱う。
また、各実施例において、画像を構成する最小要素のことを画素と呼び(以降は撮像素子上の画素と区別するためにピクセルと呼ぶ)、各ピクセルは光の強度や色を表す画素値を持つ。画像は、画素値の容量や性質によって、カラー画像、グレースケール画像、2値画像などの種類に分かれる。
図5(a)は、実施例1の撮像装置のブロック図である。絞り201aおよびフォーカスレンズ201bを含む撮像光学系201は、被写体(不図示)からの光を撮像素子202上に結像させる。CCDセンサやCMOSセンサ等の光電変換素子により構成される撮像素子202は、図3および図4にて説明した瞳内の互いに異なる領域を通過した光束を各領域に対応する画素(受光部)にて受光する瞳分割を行う。
撮像素子202での光電変換により生成されたアナログ電気信号は、A/Dコンバータ203でデジタル信号に変換されて画像処理部204に入力される。画像処理部204は、デジタル信号に対して一般に行われる画像処理と併せて、不要成分の検出処理を行う。なお、画像処理部204は、撮像装置に搭載された画像処理装置に相当する。また、画像処理部204は、視差画像を生成(取得)し、その視差画像から不要成分を検出する不要成分領域検出部204aと不要成分検出部204b、そして検出された不要成分を各視差画像から低減させる不要成分低減部204cを有する。不要成分領域検出部204aは、図5(b)に示すように、取得手段204a−1、決定手段204a−2、算出手段204a−3、および検出手段204a−4を有する。
画像処理部204で処理された出力画像は、半導体メモリや光ディスク等の画像記録媒体209に保存される。出力画像は、表示部205に表示してもよい。
撮像素子202の動作、画像処理部204での処理および撮像光学系201(絞り201aおよびフォーカスレンズ201b)の制御はシステムコントローラ210が行う。撮像光学系201における絞り201aおよびフォーカスレンズ201bの機械的な駆動は、システムコントローラ210からの制御指示に応じて撮像光学系制御部206が行う。絞り201aは、設定された絞り値(Fナンバー)に応じてその開口径が制御される。フォーカスレンズ201bは、被写体距離に応じてピント調整を行うためにオートフォーカス(AF)システム(不図示)やマニュアルフォーカス機構によってその位置が制御される。状態検知部207は、システムコントローラ210の制御指示に応じて現在の撮影条件情報を取得する。なお、撮像光学系201は、図5では撮像装置の一部として構成されているが、一眼レフカメラのように交換式の撮像光学系であってもよい。
なお、本実施例は、撮像装置をデータベースやコンピュータに接続した画像処理システムにも適用可能である。この場合、撮像装置で生成された視差画像を画像処理装置に相当する処理部を有するデータベースやコンピュータに送信し、データベースやコンピュータが画像処理を行うようにすればよい。
図6は撮像光学系201と不要光の説明図、図7は撮像光学系201の絞りSTPを透過する不要光の説明図である。
図6(a)には、撮像光学系201の具体的な構成例を示す。撮像面IMGには、撮像素子202が配置される。図6(b)には、撮像光学系に高輝度物体の例としての太陽SUNからの強い光が入射し、撮像光学系を構成するレンズの界面で反射した光が不要光(ゴーストやフレア)として撮像面IMGに到達する様子を示している。また、図7には、絞りSTP(つまりは撮像光学系の射出瞳(実際には絞りと射出瞳は異なる))のうち、図4に示したG1画素とG2画素に入射する光束が通過する領域(以下、瞳領域という)P1,P2を示している。図6(b)に示す例では高輝度物体からの光束は絞りSTPのほぼ上半分の領域を通過しており、これを図4に照らし合わせると瞳領域P1を通過している状況となる。高輝度物体からの光束は、瞳領域P1を通過した後、G1画素に入射する。
次に、撮影画像において、不要光(ゴースト)が光電変換されることで現れる不要成分が存在する領域(すなわち不要成分領域)を検出する方法について、図1,2を用いて説明する。
図2(a)は、瞳分割を行わない撮像により生成された撮影画像である。この撮影画像には、ビル等の建物とその周辺に存在する樹木とが被写体として映っている。また、不要成分GSTが撮影画像中に黒い四角部分として示されている。不要成分GSTが存在する画像上の領域を不要成分領域とする。なお、図2(a)では不要成分GSTを黒く塗りつぶして示しているが、実際には被写体がある程度透けている。また、不要成分GSTは、被写体に不要光がかぶった状態であるため、被写体よりも高輝度化する。
図1において、視差画像(1A−1),(1B−1)はそれぞれ、瞳領域P1,P2を通過した光束をG1,G2画素群にて光電変換した結果として得られた一対の視差画像である。これら一対の視差画像には、ピント位置が近距離被写体の場合、画像成分に視差量に対応した差(以下、被写体視差成分という)が存在する。しかしながら、図1に示すような風景撮影による遠距離被写体の場合には、被写体視差成分は非常に微少量となる。視差画像(1A−1)には、黒い四角として模式的に示す不要成分GSTが含まれている。なお、本実施例では、不要成分GSTが1つの状態の例を示しているが、不要成分GSTが複数存在し、さらにそれぞれが互いに重なり合っていて明るさに差がある状態でもよい。すなわち、黒い四角の不要成分GSTの位置や明るさが視差画像ごとに互いに異なった状態であればよい。
視差画像(1A−1),(1B−1)は、不要成分GSTを含むかどうかの差はあるが全体的には似ている。そこで、画像内の不要成分GSTの位置を検出するために類似画像分析を行って「画像類似度値」を求める。「画像類似度値」とは、2つの画像(部分画像でもよい)を比較した際に、どれだけその2枚の画像が似ているかを表した数値(評価値)のことである。簡単のために、最も似ている場合を5段階評価において「画像類似度値=5」とし、最も似ていな場合を「画像類似度値=1」とする。さらに簡単のために、視差画像(1A−1),(1B−1)において縦横同じピッチで領域を分割して、同じ位置範囲の領域を比較する。
視差画像(1A−1),(1B−1)をそれぞれ領域11a〜46a,11b〜46bで分割した結果が視差画像(1A−2),(1B−2)である。「同じ位置範囲の領域」とは、視差画像(1A−2)の領域11aと視差画像(1B−2)の領域11bのような位置関係にあるものを指す。なお、領域11a〜46a,11b〜46bの全ての領域で縦と横の長さが同じ網目状となるように分割しなくてもよい。左から順に領域を等ピッチで分割し、右端では半端な長さになっても構わない。画像類似度値は2つの視差画像間で比較するため、2つの視差画像間において同じ位置範囲で領域が決まっていればよい。
画像類似度値を算出する方法の一つとして、例えばヒストグラムを利用して画像類似度値を計算する方法がある。最もシンプルな計算方法は、領域分割した視差画像を白黒の2値画像(グレースケールで、かつ画素値が0と255の2つのみで構成された画像)にし、白(画素値=255)であるピクセル数を数える方法である。なお、カラー画像から2値画像を得るための手法は公知の技術が種々あるためここでは省略し、特にその手法にも限定しない。例えば縦横20×20ピクセルの領域があったとして、ピクセルの総数は400個となる。そのうち白のピクセルが260個あったとしたら、その領域内のヒストグラムは(白,黒)=(260,140)となる。このようにして、視差画像(1A−2)画像の領域11a〜46aと、視差画像(1B−2)の領域11b〜46bでヒストグラムを計算する。
そして、視差画像(1A−2),(1B−2)の同じ位置範囲の各領域(例えば、領域11a,11b)のヒストグラムを比較する。ヒストグラムが同じであれば画像類似度値を5とし、比較する2つの領域同士のヒストグラムの乖離が大きくなればなるほど画像類似度値を低くする。視差画像(1A−2)の各領域の白のピクセル数の総和から視差画像(1B−2)の各領域の白のピクセル数の総和を引いた差分の絶対値をとる。例えば、領域31a内の白のピクセル数が100、領域31b内の白のピクセル数が85だとすると、差分の絶対値は15となる。このとき、差分の絶対値がゼロ以上であり視差画像(1A−2)の各領域の白のピクセル数の総和の10%以下であれば、画像類似度値は5とする。差分の絶対値が視差画像(1A−2)の各領域の白のピクセル数の総和の10%の値よりも大きく、20%の値以下であれば画像類似度値を4とする。前述の例では領域31a内の白のピクセル数が100、その10%の値は10であり、20%は20である。差分の絶対値は15なので、100±20の範囲内に入っているため、このときの画像類似度値は4となる。
同様に、差分の絶対値が視差画像(1A−2)の各領域の白のピクセル数の総和の20%の値よりも大きく、30%の値以下であれば画像類似度値を3とする。差分の絶対値が視差画像(1A−2)の各領域の白のピクセル数の総和の30%の値よりも大きく、40%の値以下であれば画像類似度値を2とし、40%よりも大きい場合は画像類似度値を1とする。このようにすると画像類似度値マップ(1C−1)のように各領域での画像類似度値のマップを作ることができる。このように画像類似度値を算出すると実画像においては画像類似度値が5や1となることは少ない。これは視差画像間の誤差や視差成分による微妙なずれが生じているためである。よって、単純に画像類似度値が1の部分を不要成分領域と決定するのではなく、閾値によってある程度許容幅を設けるとさらに好ましい。本実施例では、画像(1C−2)に示すように、画像類似度値が2以下であれば不要成分領域であると判定している。
このようにして、視差画像(1A−3),(1B−3)に示すように、視差画像中における不要成分領域を検出することができる。なお、画像類似度値の計算方法は公知の技術に種々あり、上述した方法に限定するものではない。
そして、出力すべき画像において、検出された不要成分領域内の不要成分を除去または低減する補正処理を行う。これにより、不要成分が概ね除去された視差画像(1A−4),(1B−4)を得ることができる。不要成分を低減させた各視差画像を合成することで、図2(b)に示す不要成分の低減された瞳分割を行わない撮像により生成された撮影画像と同等の画像を生成することができる。
図8は、本実施例の不要成分領域の検出処理(画像処理)のフローチャートである。この処理は、システムコントローラ210および画像処理部204がコンピュータプログラムとしての画像処理プログラムにしたがって実行する。
ステップS11では、撮像光学系201および撮像素子202により構成される撮像部は、システムコントローラ210によって制御され、被写体の撮影を行う。
ステップS12では、取得手段204a−1は、撮像素子202(G1,G2画素群)から出力されてA/Dコンバータ203にてA/D変換されたデジタル信号を用いて入力画像としての一対の視差画像を生成させる。なお、画像処理部204において、視差画像生成のために、通常の現像処理や各種の画像補正処理を行ってもよい。
ステップS13では、決定手段204a−2は、画像類似度値を算出するための領域を決定する。領域は、元の画像のサイズよりも小さいサイズの領域同士で画像類似度値が比較できればよく、視差画像(1A−2),(1B−2)のように所定のピッチで分割してもよいし、不規則に分割してもよい。分割数も限定しない。
ステップS14では、算出手段204a−3は、ステップS13で決定した領域において、画像類似度値を各視差画像から算出する。画像類似度値とは比較する2つの画像が似ているかどうかを示す数値であり、似ている度合いを数値化できる手法であればこれに限定しない。画像類似度値を算出する最もシンプルな手法の一つとしては、上述した白黒の2値画像を用いたヒストグラムの比較である。
ステップS15では、検出手段204a−4は、ステップS14で算出した画像類似度値に基づいて不要成分領域を検出する。上述したように、撮像装置から得られる視差画像は、その視差画像同士を比較すると、不要成分GSTの有無はあるものの大まかには似ている。似ていない部分は不要成分GSTが存在する領域である可能性が高いため、ステップS14で算出した画像類似度値のうち一番類似度が低い(似ていない)領域に不要成分GSTが存在するはずである。しかしながら、画像類似度値を算出する精度や誤差の影響も少なからずあるため、最も画像類似度値の低いものを選ぶだけでなく、所定の閾値を設定してその閾値以下の画像類似度値であれば不要成分領域であるとしてもよい。
以上のステップにより視差画像中における不要成分領域を検出することができる。
次に、検出した不要成分領域内の不要成分を低減するステップの説明をする。
ステップS16に進む前に事前準備としてステップS101,S102を行う。ステップS101,S102は、ステップS12の後、実行される。
ステップS101では、画像処理部204は、一対の視差画像の相対差分画像を生成する。すなわち、基準画像(9A−1),(9B−1)を用いて、相対差分画像(9A−2),(9B−2)を生成する。なお、基準画像(9A−1),(9B−1)は、それぞれ視差画像(1A−1),(1B−1)と同一である。
撮像面に到達した不要光が撮像光学系の異なる瞳領域を通過する場合、基準画像(9A−1),(9B−1)に示すように視差画像ごとに不要成分GSTの発生の有無(もしくは発生の位置)が異なる。そのため、単純な相対差分画像では、不要成分の差分値は正、負の値をとる。例えば本実施例では、相対差分画像(9A−2)を生成するために基準画像(9A−1)から基準画像(9B−1)を差し引いた場合、基準画像(9A−1)に含まれる不要成分は画素値が大きいため正値となる。そのため、相対差分画像(9A−2)には、基準画像(9A−1)に含まれる不要成分のみが正値として検出される。相対差分画像(9B−2)についても同様の処理を行うと、基準画像(9B−1)の領域のうち、基準画像(9A−1)で不要成分GSTが含まれる領域と同じ領域で負の値となる。本実施例では、後段で説明する不要成分低減処理の簡易化のために、負の値を切り捨てて0値とする処理を実施している。そのため、相対差分画像(9B−2)では、不要成分GSTが検出されない。
上述したように、本実施例では、片方の視差画像を基準とした1対の相対差分画像を生成している。しかし、本実施例のように2つの視差画像の場合は相対差分ではなく差分の絶対値として計算しても等価となる。視差画像Aを単にA、視差画像Bを単にBと表記して式で示すと下記のようになる。
(A−B)+(B−A) = │A−B│
()とはカッコ内の式を計算した結果について、もし負の値があれば負の値は切り捨てて0値とすることを意味する。以降では説明の簡略化のために相対差分での計算で統一して説明するが、差分の絶対値として計算を進めてもよい。
ステップS102では、不要成分検出部204bは、視差画像(1A−3)で検出した不要成分領域内において、ステップS101にて得られた相対差分画像中に残存した成分を不要成分と決定する。
ステップS16では、不要成分低減部204cは、出力すべき画像から不要成分領域と不要成分に基づいて、不要成分を低減(または除去)する処理を行う。ここでは、出力すべき画像として、視差画像(1A−4),(1B−4)のG1画素、G2画素をそれぞれ1画素とすることで得られる各視差画像を生成する。この場合、ステップS101において負の値を切り捨てて0値としているので、各視差画像に含まれる不要成分のみが正値として検出されているため、単純に各視差画像からそれぞれの相対差分画像を差し引くことで不要成分を除去することができる。本実施例では、視差画像(1A−3)の不要成分領域内において、基準画像(9A−1)から相対差分画像(9A−2)を差し引き、基準画像(9B−1)から相対差分画像(9B−2)を差し引くことに相当する。
ステップS17では、システムコントローラ210は、不要成分領域から不要成分が除去(低減)された出力画像(9A−3),(9B−3)を画像記録媒体209に保存したり、表示部205に表示したりする。そして、不要成分を除去(低減)した各視差画像を合成することで、図2(b)に示す不要成分の低減された瞳分割を行わない撮像により生成された撮影画像と同等の画像を出力することもできる。
ステップS18で、本実施例の画像処理を終了する。
以上説明したように、本実施例では、1回の撮影で得られた複数の視差画像に基づく画像類似度値の比較から不要光(ゴースト)により形成された不要成分領域を検出することができる。つまり、複数回の撮像を行うことなく撮影画像に含まれる不要成分領域を検出することができる。さらに、視差画像間の相対差分画像を用いることで、不要成分領域内の不要成分を良好に除去または低減した高画質の撮影画像を得ることができる。
なお、本実施例では説明を簡単にするために等ピッチで画像の領域分割を行ったが、等ピッチには限定しない。また、比較画像間で類似部分と非類似部分とが分けることが可能であれば、あらかじめ画像の領域を分割せずに画像内の類似部分(もしくは非類似部分)を特定できるような手法を用いてもよい。
また、本実施例では、画像類似度値を5段階評価の値として扱い、画像類似度値が2以下の領域は不要成分領域であると判定したが、必ずしも画像類似度を離散的な値に置き換える必要はない。ヒストグラムのずれを%で表した値そのものを画像類似度値とし、画像類似度マップをより緻密なグラデーションマップとして示してもよい。その場合は不要成分領域を画像内のある範囲に特定するのではなく、不要成分領域が存在する確率分布のようなものが検出されることになる。よって、低減処理を行うときは、グラデーションマップを重み付けの係数として使い、不要成分が存在する確率が高い領域に関しては積極的に低減処理を行い、確率が低い領域は低減処理をほとんど行わないようにすればよい。他の実施例でも説明の簡略化のために5段階の画像類似度値で説明しているが、全ての実施例で画像類似度マップをグラデーションマップとして処理を進めても構わない。
本実施例が実施例1と異なる部分は、撮影対象である被写体が近距離被写体であるために、視差画像間で背景の被写体に大きな視差が付いてしまうことである。本実施例の撮像装置の基本構成は図5を用いて説明した実施例1の構成と同様であり、重複する部分の説明は省略する。撮像光学系の構成や高輝度物体からの光によって発生する不要光の様子も図6の構成と同様である。
まず、撮影画像において、不要光が光電変換されることで現れる不要成分領域を検出する方法について、図10,11を用いて説明する。
図11(a)は、瞳分割を行わない撮像により生成された撮影画像である。この撮影画像は、花にピントが合っている状態であり、背景としてビル等の建物とその周辺に存在する樹木とが映っている(実際は花よりもボケていることになるが、図面上は簡単のためにぼかしていない)。また、不要成分GSTが撮影画像中に黒い四角部分として示されている。不要成分GSTが存在する画像上の領域を不要成分領域とする。なお、図11(a)中には不要成分GSTを黒く塗りつぶして示しているが、実際には被写体がある程度透けている。また、不要成分GSTは、背景に不要光がかぶった状態であるため、被写体よりも高輝度化する。
図10において、視差画像(10A−1),(10B−1)はそれぞれ、瞳領域P1,P2を通過した光束をG1,G2画素群にて光電変換した結果として得られた一対の視差画像である。これら一対の視差画像には、ピント位置が近距離被写体の場合、被写体視差成分が存在する。図10では近距離被写体である花にピントが合っている状況であるから、視差画像(10A−1),(10B−1)において、花の位置はどちらも変わらない。また、不要成分GSTの位置も変わらない。しかしながら、花よりも後ろに位置するビルや樹木は視差があるために位置が異なってくる。視差画像(10B−1)は、視差画像(10A−1)と比べて、背景のビルや樹木が右方向へシフトしている。なお、本実施例では、不要成分GSTが1つの状態の例を示しているが、不要成分GSTが複数存在し、さらにそれぞれが互いに重なり合っていて明るさに差がある状態でもよい。すなわち、黒い四角の不要成分GSTの位置や明るさが視差画像ごとに互いに異なった状態であればよい。
本実施例では、実施例1と同様に、視差画像(10A−1),(10B−1)から画像類似度を算出して比較する。簡単のために、実施例1と同様に2つの画像同士が最も似ている場合を5段評価において「画像類似度値=5」とし、最も似ていない場合を「画像類似度値=1」とする。さらに簡単のために、視差画像(10A−1),(10B−1)において縦横同じピッチで領域を分割して、同じ位置範囲の領域を比較する。視差画像(10A−1),(10B−1)をそれぞれ領域11a〜46a,11b〜46bで分割した結果が視差画像(10A−2),(10B−2)である。
本実施例では、実施例1と同様に、領域分割した視差画像を白黒の2値画像にし、白(画素値=255)であるピクセル数を数える。この方法により、画像類似度値マップ(10C−1)のように各領域での(画像類似度値1)を算出することができる。
しかしながら、実施例1と異なり、本実施例では被写体視差成分が大きいため、視差によって背景がシフト(本実施例では視差画像(10B−1)が視差画像(10A−1)よりも右方向へシフト)している。このため、同じ領域について(画像類似度値1)を算出するだけでは、実施例1のような被写体視差成分の影響が少ない場合に比べて精度が下がってしまう。
そこで、本実施例では、(画像類似度値1)を算出した後、視差画像(10A−3),(10B−3)に示すように、領域を所定量だけシフトさせて、「画像類似度値2」を算出する。視差画像(10A−3),(10B−3)では、領域を右方向へシフトさせている。このとき、被写体が有する視差量または領域の周辺での被写体が有する視差量と同じかそれ以上に領域をシフトさせることが好ましい。また、シフト量は、もとの領域分割と同じピッチでシフトさせてもシフト前後で領域の範囲は変わらないため、領域分割のピッチよりも小さいシフト量が好ましい。そうすることで、視差による被写体シフトも考慮して(画像類似度値2)を算出することができる。そのため、領域の数が視差画像(10A−2),(10B−2)とは変化しているが、同じ位置同士を比較するため、視差画像(10A−2),(10B−2)のときと領域の数が変わっても構わない。
画像類似度値マップ(10C−2)は、視差画像(10A−3),(10B−3)の各領域を比較して(画像類似度値2)を算出した結果である。画像類似度値マップ(10C−1)と比較すると、被写体視差成分の影響により、画像類似度値が変化している部分が存在する。
次に、(画像類似度値1)と(画像類似度値2)に基づいて、(画像類似度値3)を計算する。画像類似度値1,2は各領域で比較して求めているが、画像類似度値3は各領域ではなく各ピクセルで比較して求める。具体的には、各ピクセルが属する画像類似度値マップ(10C−1)上での領域の(画像類似度値1)と、各ピクセルが属する画像類似度値マップ(10C−2)上での領域の(画像類似度値2)と、を比較する。画像類似度値に差があれば、より画像類似度値が大きいほう(画像が似ているほうの数値)に合わせる処理を行う。そうして決定した各ピクセルの画像類似度値を(画像類似度値3)とする。このように本実施例では、最初に算出した(画像類似度値1)を(画像類似度値2)に基づいて部分的に更新させて、その結果を(画像類似度値3)としている。
例えば、画像類似度値マップ(10C−1)〜(10C−3)上の任意の座標点(x,y)の画素の(画像類似度値1)の値がsv1(x,y)=4であったとする。そして、(画像類似度値2)を算出した結果、同じ座標点が属する領域内での(画像類似度値2)の値がsv2(x,y)=3であったとする。このとき、(画像類似度値3)は、以下の式(1)で算出される。
sv3(x,y)=max(sv1(x,y),sv2(x,y)) (1)
「max(sv1(x,y),sv2(x,y))」とは、sv1(x,y)とsv2(x,y)のうちどちらか大きいほうをsv3(x,y)として採用するという意味である。この例では、画像類似度値が大きいほど「似ている画像」と定義しているため、大きい数値を(画像類似度値3)として採用している。画像類似度値の定義が逆であれば、小さい数値を(画像類似度値3)として採用すればよい。
このように各ピクセルで(画像類似度値1)と(画像類似度値2)を比較するため、最終的な(画像類似度値3)のマップは(画像類似度値1)を算出した領域分割の結果と、(画像類似度値2)を算出した領域分割の結果を混合したマップとなる。こうすることで、被写体視差成分を考慮してより検出精度を高める(被写体視差成分の影響による不要成分領域の誤検出を避ける)だけでなく、より細かい領域として画像類似度値を求めることができる。
なお、画像類似度値の計算方法は公知の技術に種々あり、上述した方法に限定するものではない。そして、視差画像(10A−3),(10B−3)での領域シフトの方向も一方向に限らず、上下左右斜め等ありとあらゆる方向へシフトさせることで(画像類似度値3)を求めてもよい。瞳分割の分割数が多くなるほど、シフト方向を増やすことで不要成分領域の検出精度を上げることが可能となる。
このようにすることで、視差画像(10A−4),(10B−4)のように、視差画像中における不要成分領域を検出することができる。
そして、出力すべき画像において、検出された不要成分領域内の不要成分を除去または低減する補正処理を行う。これにより、不要成分が概ね除去された視差画像(10A−5),(10B−5)を得ることができる。不要成分を低減させた各視差画像を合成することで、図11(b)に示す不要成分の低減された瞳分割を行わない撮像により生成された撮影画像と同等の画像を生成することができる。
図12は、本実施例の不要成分領域の検出処理(画像処理)のフローチャートである。この処理は、システムコントローラ210および画像処理部204がコンピュータプログラムとしての画像処理プログラムにしたがって実行する。
ステップS21〜S24までの処理は、実施例1のステップS11〜S14までの処理と同様であるため詳細は省略する。
ステップS25では、決定手段204a−2は、(画像類似度値2)を算出/比較するための領域2を決定する。領域は、元の画像のサイズよりも小さいサイズの領域同士で画像類似度値が比較できればよく、視差画像(10A−2),(10B−2)のように所定のピッチで分割してもよいし、不規則に分割してもよい。分割数も限定しない。
ステップS26では、算出手段204a−3は、ステップS25で決定した領域2において、(画像類似度値2)を各視差画像から算出する。
ステップS27では、算出手段204a−3は、ステップS24で算出した(画像類似度値1)とステップS26で算出した(画像類似度値2)に基づいて、(画像類似度値3)を算出する。
ステップS28では、検出手段204a−4は、ステップS27で算出した(画像類似度値3)に基づいて不要成分領域を検出する。上述のように、撮像装置から得られる視差画像は、その視差画像同士を比較すると、不要成分GSTの有無はあるものの大まかには似ている。似ていない部分は不要成分GSTが存在する領域である可能性が高いため、ステップS27で算出した(画像類似度値3)のうち一番類似度が低い(似ていない)領域に不要成分GSTが存在するはずである。しかしながら、(画像類似度値3)を算出する精度や誤差の影響も少なからずあるため、最も画像類似度値の低いものを選ぶだけでなく、所定の閾値を設けてその閾値以下の画像類似度値であれば不要成分領域であるとしてもよい。
以上のステップにより視差画像中における不要成分領域を検出することができる。
次に、検出した不要成分領域内の不要成分を低減するステップの説明をする。
ステップS29に進む前に事前準備としてステップS201,S202を行う。ステップS201,S202の処理はそれぞれ、実施例1のステップS101,S102の処理と同様である。また、ステップS29からステップS31までの処理は、実施例1のステップS16〜S18までの処理と同様であるため説明は省略する。
以上説明したように、本実施例では、近距離物体にピントが合っている場合であっても、1回の撮像で得られた複数の視差画像に基づく画像類似度値の比較から不要光(ゴースト)により形成された不要成分領域を検出することができる。つまり、複数回の撮像を行うことなく撮影画像に含まれる不要成分領域を検出することができる。さらに、視差画像間の相対差分画像を用いることで、不要成分領域内の不要成分を良好に除去または低減した高画質の撮影画像を得ることができる。
なお、本実施例では説明を簡単にするために等ピッチで画像の領域分割を行ったが、等ピッチには限定しない。また、比較画像間で類似部分と非類似部分とが分けることが可能であれば、あらかじめ画像の領域を分割せずに画像内の類似部分(もしくは非類似部分)を特定できるような手法を用いてもよい。
なお、実施例1,2では、2値画像を用いて不要成分領域の検出を行っている。しかし、ゴースト光に代表される不要成分は色が付いていることが多い。色によって不要成分の位置も異なる(不要成分領域も異なる)ので、色(例えばRGBの3チャンネル)ごとに同様のことを行い不要成分領域の検出することで色の付いた不要成分にも対応可能となる。
図13は、撮像系における撮像素子の受光部と撮像光学系の瞳との関係図である。撮像素子には、受光部G1,G2,G3,G4(以下、それぞれ、G1画素、G2画素、G3画素、G4画素という)の組(画素組)が複数配列されている。G1,G2画素のそれぞれ紙面奥側に、G3,G4画素が2次元的に配置されている。G1〜G4画素の上には、カラーフィルタCFが形成されている。G1〜G4画素は、画素組ごとに1つずつ設けられたマイクロレンズMLを介して射出瞳EXPと共役な関係を有する。撮像素子に配列された複数のG1画素をまとめてG1画素群といい、同様に撮像素子に配列された複数のG2画素をまとめてG2画素群という(G3,G4画素も同様)。
図14は、撮像系の模式図であり、物点OSP、射出瞳EXP、および撮像素子の結像関係を表している。G1画素は射出瞳EXPのうちP1領域を通過した光束を受光し、G2画素は射出瞳EXPのうちP2領域を通過した光束を受光する。P1,P2領域のそれぞれ紙面方向の奥側に、P3,P4領域が2次元的に存在する。図15は、射出瞳EXPをマイクロレンズML側から見た図である。物点OSPには必ずしも物体が存在している必要はなく、物点OSPを通った光束はそれが通過する瞳内での領域(位置)に応じてG1〜G4画素のいずれかに入射する。瞳内の互いに異なる領域を光束が通過することは、物点OSPからの入射光が角度(視差)によって分離されることに相当する。すなわち、G1〜G4画素からの出力信号を用いて生成された4つの画像は互いに視差を有する複数の視差画像となる。
図13,14において、射出瞳EXPの位置がずれることで上述した共役関係が完全ではなくなったり、P1領域とP2領域とが部分的にオーバーラップしたりしても、得られた複数の画像は各実施例において視差画像として扱う。
本実施例の撮像装置の基本構成や撮像光学系は、図5,6を用いて説明した実施例1と同様であるため説明は省略する。
撮影画像において、不要光が光電変換されることで現れる不要成分領域を検出する方法について、図16〜図21を用いて説明する。
図21(a)は、瞳分割を行わない撮像により生成された撮影画像を示す。この撮影画像には、実施例2と同様にピント位置に花、背景としてビル等の建物とその周辺に存在する樹木とが映っている(実際は花よりもボケていることになるが、図面上は簡単のためにぼかしていない)。不要成分GSTは撮影画像中に黒い四角部分として示されているが、実際には被写体がある程度透けている。
図16において、視差画像(16A−1)〜(16D−1)はそれぞれ、瞳領域P1〜P4を通過した光束をG1〜G4画像群にて光電変換した結果として得られた画像である。これらの視差画像には、実施例2と同様に、ピント位置が近距離被写体の場合、それぞれの視差画像間で視差成分が存在する。また、視差画像にも黒い四角として模式的に示す不要成分GST(ゴースト)が含まれている。なお、本実施例では、不要成分GSTが1つの状態の例を示しているが、不要成分GSTが複数存在し、さらにそれぞれが互いに重なり合っていて明るさに差がある状態でもよい。すなわち、黒い四角の不要成分GSTの位置や明るさが視差画像ごとに互いに異なった状態であればよい。
本実施例では、実施例1,2と同様に視差画像(16A−1)〜(16D−1)から画像類似度値を算出して比較する。後述する計算の都合上、2つの画像同士が最も似ている場合を「画像類似度値=1」とし、最も似ていないと判定されたときは「画像類似度値=0」とする。また、簡単のために視差画像(16A−1)〜(16D−1)において縦横同じピッチで領域を分割して、同じ位置範囲の領域を比較する。視差画像(16A−1)〜(16D−1)をそれぞれ領域11a〜46a,11b〜46b,11c〜46c,11d〜46dで分割した結果が視差画像(16A−2)〜(16D−2)である。
実施例1,2では白黒の2値画像に対して画像類似度値を算出したが、本実施例ではカラー画像に対して画像類似度値を算出する。よって、図16は、本来カラー画像であるが、図の表記上白黒画像にしている。カラー画像に対して画像類似度値を算出することで不要成分GSTが含まれる領域をより精度高く検出できる。また、処理の負荷を軽減するためにも、画像類似度値を算出する前に、色数の減少などの前処理を行うとさらに好ましい。例えば、元の画像のRGB各色の階調数が8bit(256階調)の画像から階調数2bit(4階調)で、全64色まで色数を低減させるとする。このとき、図19(A)に示すように、RGB各色の256段階の画素値をカラーNo.0〜3までの4段階に振り分け、式(2)で計算することで全64色を64次元のベクトルに変換することができる。
BinNo=16×RNo+4×GNo+BNo (2)
BinNoは、64次元のベクトルの各要素番号に対応する。
このようにすることで、RGBの各カラーNo.が(R,G,B)=(0,0,0)の時はBinNo=0となり、(R,G,B)=(3,3,3)の時はBinNo=63となる。これをピクセルごとに計算することで、各ピクセルの色がどのBinNoに属するかがわかり、任意の領域内で積算することで図19(B)に示すようなカラーヒストグラムを計算することができる。
次に、カラーヒストグラムから画像類似度値を算出する方法について説明する。
比較する2つのヒストグラムのBinNoをiとして、その時のヒストグラムの値をそれぞれH[i],H[i]とする。このとき、式(3)を計算することで、0〜1までの画像類似度値Similarhistを得ることができる。
「min(H[i],H[i])」は、H[i]とH[i]のうち、どちらか小さい方を採用し、Σに対応する積算処理をするという意味である。分母は、Hの画像の総ピクセル数(画像サイズに相当)で正規化することで、画像サイズに依存せずに画像類似度値を算出できるようにするために存在する。今回の例では画像の部分領域を比較するため、分母はHの領域内の総ピクセル数(=Hの領域内の総ピクセル数)に対応する。
以上のような計算を行うことで、カラー画像に対しても有限な領域内同士で画像類似度値を計算可能である。また、本実施例のやり方に限定せず、カラー画像における他の比較法を用いてもよい。
次に、(画像類似度値1)を各領域内で算出する。(画像類似度値1)は、視差画像(16A−1)〜(16D−1)の各領域(11a〜33a)〜(11d〜33d)においてカラーヒストグラムを算出し、式(2)を用いて(画像類似度値1)を算出する。その結果の例を画像類似度値マップ(17A−0)〜(17D−0)に示している。画像類似度値マップ(17A−0)は、視差画像(16A−1)同士を比較した例であるため、(画像類似度値1)が全て1となっている。画像類似度値マップ(17B−0)は、視差画像(16A−1),(16B−1)を比較した例であるため、(画像類似度値1)は0から1の間の数値が各領域に入っている。同様に、画像類似度値マップ(17C−0)は視差画像(16A−1),(16C−1)を比較した例、画像類似度値マップ(17D−0)は視差画像(16A−1),(16D−1)を比較した例である。
しかしながら、本実施例では、実施例2と同様に被写体視差成分が大きいため、視差によって背景がシフトしている。このため、同じ領域について(画像類似度値1)を算出するだけでは、実施例1のような被写体視差成分の影響が少ない場合に比べて精度が下がってしまう。
そこで、本実施例では、(画像類似度値1)を算出した後、図18で示すように、領域を所定量だけシフトさせて、(画像類似度値2)を算出する。図18では、領域を上下左右斜め合計8方向へシフトさせている。説明を簡略化するために、図18では領域を所定量だけシフトさせたときの領域図だけを示している(本来は各領域内に対応する画像類似度値が入る)。
図18(a)〜(h)はそれぞれ、領域を上方向、右上方向、右方向、右下方向、下方向、左下方向、左方向、左上方向へシフトさせた例である。(画像類似度値2−1)〜(画像類似度値2−8)は、各領域内で算出される。
図20は、画像類似度値マップ(17B−0)と画像類似度値マップ(18B−1)〜(18B−8)を抽出したものである。(画像類似度値2−1)〜(画像類似度値2−8)を算出した結果、任意のピクセル座標(x,y)上の画素が属する領域内の(画像類似度値1)の値が画像類似度値マップ(20B−0)のsvb0(x,y)であったとする。また、領域シフト後の同じピクセル座標(x,y)上の画素が属する領域内の(画像類似度値2−1)〜(画像類似度値2−8)の算出結果をsvb1(x,y)〜svb8(x,y)とする。このとき、式(4)が成立する場合は、領域シフト前後の画像類似度値変化((画像類似度値1)との差)は視差成分によるものと判断して、各ピクセルのsvb(x,y)((画像類似度値3)に相当)をsvb(x,y)=1とする。一方、式(4)が成立しない場合は、svb(x,y)=svb0(x,y)とする。
│svb0(x,y)−ave_sub(x,y)│>borderV (4)
ave_sub(x,y)はsvb0(x,y)〜svb8(x,y)までの平均値、borderVは所定の閾値パラメータである。
ここでは、画像類似度値マップ(17B−0),(18B−1)〜(18B−8)を例にしているが、他の画像類似度値マップについても同様のことを行い、それぞれの(画像類似度値3)について平均をとったものを最終的な(画像類似度値3)とする。そうすることで、全ての視差画像を考慮した(画像類似度値3)を算出することができる。
このように、(画像類似度値1)と(画像類似度値2)(本実施例では、(画像類似度値2−1)〜(画像類似度値2−8))に基づいて(画像類似度値3)を算出することで、精度を上げた不要成分領域の検出が可能である。また、検出された不要成分領域内について、さらに細かく領域を分割して画像類似度値を算出し、不要成分領域をさらに精密に検出してもよい。このように最初は粗いピッチで領域分割して不要成分領域のあたりを付けて、徐々に細かいピッチで領域分割して追い込むことで、ノイズの影響が少なくなり更に精度アップを見込むこともできる。
そして、出力すべき画像において、検出された不要成分領域内の不要成分を除去または低減する補正処理を行う。不要成分を低減させた各視差画像を合成することで、図21(b)に示す不要成分の低減された瞳分割を行わない撮像により生成された撮影画像と同等の画像を生成することができる。
本実施例の画像処理は、図12で示した実施例2の画像処理と同様である。
ステップS21〜S24までの処理は、実施例1のステップS11〜S14からステップS14までの処理と同様であるため詳細は省略する。
ステップS25では、不要成分領域検出部204aは、(画像類似度値2)を算出/比較するための領域2を決定する。領域は、元の画像のサイズよりも小さいサイズの領域同士で画像類似度値が比較できればよく、図18のように所定のピッチで分割してもよいし、不規則な分割してもよい。分割数も限定しない。また、8方向に領域をシフトさせてそれぞれのシフト方向において(画像類似度値2)を計算する場合には、ステップS26において(画像類似度値2)が複数算出されることになる。その場合は平均をとるなどしてひとつの数値にまとめるのもよい。
ステップS26では、不要成分領域検出部204aは、ステップS25で決定した領域2において、(画像類似度値2)を各視差画像で算出する。
以降のステップは、実施例2と同様であるため説明は省略する。
以上説明したように、本実施例では、近距離物体にピントが合っている場合であっても、1回の撮像で得られた複数の視差画像に基づく画像類似度値の比較から不要光(ゴースト)により形成された不要成分領域を検出することができる。つまり、複数回の撮像を行うことなく撮影画像に含まれる不要成分領域を検出することができる。さらに、視差画像間の相対差分画像を用いることで、不要成分領域内の不要成分を良好に除去または低減した高画質の撮影画像を得ることができる。
なお、本実施例では説明を簡単にするために等ピッチで画像の領域分割を行ったが、等ピッチには限定しない。また、比較画像間で類似部分と非類似部分とが分けることが可能であれば、あらかじめ画像の領域を分割せずに画像内の類似部分(もしくは非類似部分)を特定できるような手法を用いてもよい。
Ren.Ng等の「Light Field Photography with a Hand−held Plenoptic Camera」(Stanford Tech Report CTSR2005−2)では、「Plenoptic Camera」が提案されている。「Plenoptic Camera」において「Light Field Photography」という手法を用いることで、物体側からの光線の位置と角度の情報を取り込むことができる。
図22は、「Plenoptic Camera」の撮像系の構成を示す図である。メインレンズ(撮影レンズ)301bと開口絞り301aとで構成される撮像光学系301の結像位置にマイクロレンズアレイ301cが配置され、さらにその後方に撮像素子302が配置されている。マイクロレンズアレイ301cは、例えば点Aのような被写体空間のある一点を通る光線群と、点Aの近傍の点を通る光線とが撮像素子302上で混ざらないようにセパレータの役割をしている。図22に示すように、点Aからの上線、主光線および下線はそれぞれ異なる画素によって受光されるため、点Aを通る光線群は光線の角度ごとに分離して取得される。
次に、図23を用いて本実施例の別の撮像装置の撮像系について説明する。Todor Georgive等の「Full Resolution Light Field Rendering」(Adobe Technical Report January 2008)は、光線の位置と角度の情報を取得する方法を開示している。
図23(a)の撮像系の構成では、マイクロレンズアレイ301cをメインレンズ301bの結像位置よりも後方に配置し、点Aを通る光線群を撮像素子302上に再結像させることで、光線群を光線の角度ごとに分離して取得することができる。また、図23(b)に示す撮像系の構成では、マイクロレンズアレイ301cをメインレンズ301bの結像位置よりも前方に配置し、点Aを通る光線群を撮像素子302上に結像させることで、光線群を光線の角度ごとに分離して取得することができる。いずれの構成も、撮像光学系301の瞳を通過する光束を瞳内での通過領域(通過位置)に応じて分割する点は同じである。
図22の撮像光学系301を用いると、図24(a)に示すような画像が得られる。図24(b)には、図24(a)中に多数並んだ円のうち1つを拡大して示している。1つの円は絞りSTPに相当し、その内側は複数の画素Pj(j=1,2,3,…)により分割されている。これにより、1つの円内で瞳の強度分布が得られる。また、図23の撮像光学系301を用いると、図25に示すような視差画像が得られる。図24(a)に示した画像において各円(絞りSTP)内の複数の画素Pjを並べて再構成することによっても、図25に示すような複数の視差画像が得られる。
実施例1〜3で説明したように、ゴーストなどの不要光は瞳内で偏りを持って瞳を通過する。このため、本実施例のように瞳を分割して撮像する撮像装置において実施例1〜3で説明した画像処理方法を使用することで、不要成分領域を検出することができる。
さらに別の例として、図26に示すような複数のカメラを用いて同一被写体を撮像する場合も視差画像が得られるため、実施例1〜3にて説明した画像処理方法を用いることができる。撮像装置C1〜C3は、実際には別々の撮像装置であるが、大きな瞳を3つに分割して撮像する一体の撮像装置と見なすことができる。また、図27に示すように、1つの撮像装置に複数の撮像光学系OSj(j=1,2,3,…)を設けることで瞳分割を行うこともできる。
実施例1〜3では、レンズ界面での面反射によって撮像素子に到達した不要成分について説明した。しかしながら、回折光学素子から発生する回折光のうち、撮像面に到達し、かつ撮像に不要な回折光(回折光学素子由来の不要成分)についても同様に不要成分領域の検出や不要成分の低減が可能である。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
204 画像処理部
204a−1 取得手段
204a−2 決定手段
204a−3 算出手段
204a−4 検出手段

Claims (9)

  1. 複数の視差画像を取得する取得手段と、
    前記複数の視差画像における位置関係および大きさが同一である領域を決定する決定手段と、
    前記領域を比較することで、画像類似度値を算出する算出手段と、
    前記画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出手段と、を有し、
    前記決定手段は、前記複数の視差画像における位置関係および大きさが同一である第1の領域と、前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域の少なくとも一部を含む第2の領域を決定し、
    前記算出手段は、前記第1の領域を比較することで第1の画像類似度値を算出し、前記第2の領域を比較することで第2の画像類似度値を算出し、前記第1および第2の画像類似度値に基づいて前記画像類似度値を算出することを特徴とする画像処理装置。
  2. 前記決定手段は、前記第1の領域をシフトさせることで、前記第2の領域を決定することを特徴とする請求項に記載の画像処理装置。
  3. 前記決定手段は、前記複数の視差画像間の視差量に基づいて、前記第1の領域のシフト量を決定することを特徴とする請求項に記載の画像処理装置。
  4. 前記決定手段は、前記視差画像を等間隔に分割することで、前記領域を決定していることを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  5. 複数の視差画像を生成する撮像系と、
    前記撮像系から前記複数の視差画像を取得する取得手段と、
    前記複数の視差画像における位置関係および大きさが同一である領域を決定する決定手段と、
    前記領域を比較することで、画像類似度値を算出する算出手段と、
    前記画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出手段と、を有し、
    前記決定手段は、前記複数の視差画像における位置関係および大きさが同一である第1の領域と、前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域の少なくとも一部を含む第2の領域を決定し、
    前記算出手段は、前記第1の領域を比較することで第1の画像類似度値を算出し、前記第2の領域を比較することで第2の画像類似度値を算出し、前記第1および第2の画像類似度値に基づいて前記画像類似度値を算出することを特徴とする撮像装置。
  6. 複数の視差画像を生成する撮像系を備えた撮像装置と、
    前記撮像装置から前記複数の視差画像を取得する取得手段と、
    前記複数の視差画像における位置関係および大きさが同一である領域を決定する決定手段と、
    前記領域を比較することで、画像類似度値を算出する算出手段と、
    前記画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出手段と、を有し、
    前記決定手段は、前記複数の視差画像における位置関係および大きさが同一である第1の領域と、前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域の少なくとも一部を含む第2の領域を決定し、
    前記算出手段は、前記第1の領域を比較することで第1の画像類似度値を算出し、前記第2の領域を比較することで第2の画像類似度値を算出し、前記第1および第2の画像類似度値に基づいて前記画像類似度値を算出することを特徴とする画像処理システム。
  7. 複数の視差画像を取得する取得ステップと、
    前記複数の視差画像における位置関係および大きさが同一である第1の領域を決定する第1の決定ステップと、
    前記第1の領域を比較することで、第1の画像類似度値を算出する第1の算出ステップと、
    前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域とは異なる第2の領域を決定する第2の決定ステップと、
    前記第2の領域を比較することで、第2の画像類似度値を算出する第2の算出ステップと、
    前記第1および第2の画像類似度値に基づいて、第3の画像類似度値を算出するステップと、
    前記第3の画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出ステップと、を有することを特徴とする画像処理方法。
  8. 前記検出ステップの後、前記不要成分領域内における位置関係および大きさが同一である第3の領域を決定する第3の決定ステップと、
    前記第3の領域を比較することで算出された画像類似度値に基づいて、前記不要成分領域に含まれ、前記不要成分領域よりも小さい不要成分領域を検出する検出ステップと、を更に有することを特徴とする請求項に記載の画像処理装置。
  9. 複数の視差画像を取得する取得ステップと、
    前記複数の視差画像における位置関係および大きさが同一である第1の領域を決定する第1の決定ステップと、
    前記第1の領域を比較することで、第1の画像類似度値を算出する第1の算出ステップと、
    前記複数の視差画像における位置関係および大きさが同一であり、前記第1の領域とは異なる第2の領域を決定する第2の決定ステップと、
    前記第2の領域を比較することで、第2の画像類似度値を算出する第2の算出ステップと、
    前記第1および第2の画像類似度値に基づいて、第3の画像類似度値を算出するステップと、
    前記第3の画像類似度値に基づいて、前記複数の視差画像の不要成分領域を検出する検出ステップと、をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2014234207A 2014-11-19 2014-11-19 画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラム Active JP6448324B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014234207A JP6448324B2 (ja) 2014-11-19 2014-11-19 画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014234207A JP6448324B2 (ja) 2014-11-19 2014-11-19 画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラム

Publications (3)

Publication Number Publication Date
JP2016100663A JP2016100663A (ja) 2016-05-30
JP2016100663A5 JP2016100663A5 (ja) 2017-12-28
JP6448324B2 true JP6448324B2 (ja) 2019-01-09

Family

ID=56075808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014234207A Active JP6448324B2 (ja) 2014-11-19 2014-11-19 画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6448324B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6789677B2 (ja) * 2016-06-03 2020-11-25 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5429358B2 (ja) * 2010-03-01 2014-02-26 コニカミノルタ株式会社 ゴースト検出装置およびそれを用いる撮像装置、ゴースト検出方法、および、ゴースト除去方法

Also Published As

Publication number Publication date
JP2016100663A (ja) 2016-05-30

Similar Documents

Publication Publication Date Title
US9083879B2 (en) Focus detection apparatus, control method thereof, and image pickup apparatus
CN109255810B (zh) 图像处理装置及图像处理方法
US20130194387A1 (en) Image processing method, image processing apparatus and image-pickup apparatus
JP6253380B2 (ja) 画像処理方法、画像処理装置および撮像装置
JP6381266B2 (ja) 撮像装置、制御装置、制御方法、プログラム、および、記憶媒体
US10097806B2 (en) Image processing apparatus, image pickup apparatus, image processing method, non-transitory computer-readable storage medium for improving quality of image
JP5619124B2 (ja) 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
JP2015194736A (ja) 撮像装置およびその制御方法
US9894343B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
US10063829B2 (en) Image processing method, image processing apparatus, image pickup apparatus, and non-transitory computer-readable storage medium
JP2016219985A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP6448324B2 (ja) 画像処理装置、撮像装置、画像処理システム、画像処理方法、および画像処理プログラム
US20220392096A1 (en) Image processing apparatus and control method of image processing apparatus
US11924542B2 (en) Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium
JP7373297B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6497977B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US20230292004A1 (en) Image processing apparatus, measurement method, and storage medium for measuring distance from image
JP7437915B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6000738B2 (ja) 撮像装置及び撮像装置の合焦方向判定方法
JP6494328B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2017118293A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6598550B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP6504910B2 (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2016177215A (ja) 撮像装置
JP6331279B2 (ja) 撮像装置、撮像方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181204

R151 Written notification of patent or utility model registration

Ref document number: 6448324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151