JP7215473B2 - 画像処理装置、および撮像装置、並びに画像処理方法 - Google Patents

画像処理装置、および撮像装置、並びに画像処理方法 Download PDF

Info

Publication number
JP7215473B2
JP7215473B2 JP2020505655A JP2020505655A JP7215473B2 JP 7215473 B2 JP7215473 B2 JP 7215473B2 JP 2020505655 A JP2020505655 A JP 2020505655A JP 2020505655 A JP2020505655 A JP 2020505655A JP 7215473 B2 JP7215473 B2 JP 7215473B2
Authority
JP
Japan
Prior art keywords
image
camera
mask
lensless
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020505655A
Other languages
English (en)
Other versions
JPWO2019176349A1 (ja
Inventor
厚史 伊藤
イリヤ レシェトウスキ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019176349A1 publication Critical patent/JPWO2019176349A1/ja
Application granted granted Critical
Publication of JP7215473B2 publication Critical patent/JP7215473B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/75
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Description

本開示は、画像処理装置、および撮像装置、並びに画像処理方法に関する。特に、レンズレスカメラ(レンズレス撮像装置)や、レンズレスカメラのキャリブレーションを行う画像処理装置、および撮像装置、並びに画像処理方法に関する。
近年、レンズを利用せずに画像を撮影可能としたレンズレスカメラの開発が進んでいる。従来の一般的なカメラは、レンズを介した光を撮像素子である画像センサに入力して画像を撮影するが、レンズレスカメラは、レンズの代わりに、光の透過領域と不透過領域を2次元パターンや、回折格子などの光を変調する機構を持つマスクを用い、マスクを介した光を画像センサに入力する。画像センサにはマスクを介した像が撮影される。このマスクを介した撮像データに対して、所定の信号処理を行うことで、一般的なカメラと同様の撮影シーンに対応する2次元画像を生成することができる。レンズレスカメラは、レンズが不要であるため、撮像装置の小型化、軽量化、廉価化、非平面化等を実現することができる。
上述したように、レンズレスカメラは、マスクを介した光を画像センサに入力する。シーン(撮影シーン)からの放射光が、マスクを介してどのようにセンサ上に投影されるかの情報を、あらかじめマトリックスとして定義しておき、そのマトリックスとセンサ上に投影された画像(観測画像)から、実際のシーンを再現した画像(復元画像)を生成することができる。
なお、レンズレスカメラについては、例えば、以下の文献に記載がある。
特許文献1(国際公開WO2016/123529号公報)、
レンズレスカメラの画像センサにおいて検出される信号(観測信号)に対する信号処理を行い、実際のシーンを再現した画像(復元画像)を生成する場合には、様々な撮影条件を考慮した処理が必要となる。
具体的には、例えば、
(1)被写体に対する画像センサの幾何的な位置、
(2)被写体から出力される光の強度、分光特性、
(3)マスクによる変調、
(4)マスクとセンサの位置、幾何関係、
(5)センサの分光感度特性、
これらの撮影条件を考慮した信号処理を実行することが必要となる。
特に、マスクと画像センサの位置、幾何関係については、その物理量の変化が最終画像(復元画像)に大きな影響を与える。しかし、レンズレスカメラの生産工程において、マスクやセンサの取り付け位置のばらつきをゼロにすることは不可能であり、各カメラ単位のばらつきが発生する。
従って、生産されたレンズレスカメラ各々に正しい復元画像を生成、出力させるためには、各レンズレスカメラ固有のマスクと画像センサの位置関係を反映した処理を行わせることが必要となる。マスクと画像センサの位置や幾何関係を実際のものと異なる想定で信号処理を行い、復元画像を生成した場合、復元画像は破たんしてしまう場合がある。
上記特許文献1においては、その対策として、レンズレスカメラの前にディスプレイ装置(例えば可視光におけるLCD)を配置し、レンズレスカメラに様々な縦横の直線パターンを提示することで、マスクとセンサの位置、幾何関係を補正するための行列式を算出する構成を開示している。
この方法は、ノイズや回折ぼけに対して頑健性の優れた方法である。しかしその反面、提示するパターン数が非常に大量になるという問題がある。例えば、画素数NxNの画像を得るレンズレスカメラシステムに対しては、2N回の直線パターンの撮像が必要となる。従って、多数のレンズレスカメラの生産ラインで各カメラ対応の補正行列を算出するためには、レンズレスカメラ1台ごとに膨大な数の直線パターンの撮像を実行することが必要となり、処理時間が膨大となってしまう。
また、多種類の直線パターンの提示処理を行うための装置(ディスプレイ)についてもコスト高を招く要因がある。例えばレンズレスカメラが可視光画像を撮影するカメラであれば、可視光を出力するLCDなどの安価なディスプレイが使用可能であるが、例えば赤外光を利用する場合など、可視光以外の帯域を利用する場合はコストが大きくなる。この場合、多種類の直線パターンの出力を行う装置(ディスプレイ)は、赤外光出力型の装置(ディスプレイ)であることが必要となる。例えば1000μm~の短赤外以上の波長帯域の赤外光出力型の装置(ディスプレイ)を多数、設置するためには、相当のコストが発生するという問題がある。
国際公開WO2016/123529号公報
本開示は、例えば、上記の問題点に鑑みてなされたものであり、多種類の直線パターンの提示処理を行うことなく、レンズレスカメラのキャリブレーションを行い、マスクやセンサの取り付け位置のばらつき等に応じた最適な処理を可能とした画像処理装置、および撮像装置、並びに画像処理方法を提供することを目的とする。
本開示の第1の側面は、レンズレスカメラの画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、前記信号処理部は、少なくとも前記レンズレスカメラのマスクと画像センサとの位置関係情報に基づいて生成されるカメラ固有データを適用した画像処理により、前記復元画像の生成を行う画像処理装置にある。
さらに、本開示の第2の側面は、レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、前記レンズレスカメラのマスクと画像センサとの位置関係が基準位置にある場合に、レンズレスカメラの光軸前方の1つの点光源の撮影によって取得されると推定されるシミュレーション画像を入力し、前記シミュレーション画像に対する補正処理を行い、前記撮影画像との差分が小さくなる補正シミュレーション画像を選択し、前記補正シミュレーション画像に適用した補正データに基づいて、前記レンズレスカメラにおける画像復元処理に適用可能なカメラ固有データを生成するキャリブレーション処理を実行する画像処理装置にある。
さらに、本開示の第3の側面は、光の透過領域と不透過領域を2次元パターンとして設定したマスクと、前記マスクを介した光を受光する画像センサとからなる撮像部と、前記撮像部の光軸前方の1つの点光源の撮影によって得られる撮影画像と、基準画像との比較処理によって生成されたカメラ固有データを格納したメモリと、前記画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、前記信号処理部は、前記メモリに格納された前記カメラ固有データを適用した画像処理により前記復元画像の生成を行う撮像装置にある。
さらに、本開示の第4の側面は、画像処理装置において実行する画像処理方法であり、前記画像処理装置は、レンズレスカメラの画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、前記信号処理部が、少なくとも前記レンズレスカメラのマスクと画像センサとの位置関係情報に基づいて生成されるカメラ固有データを適用した画像処理により、前記復元画像の生成を行う画像処理方法にある。
さらに、本開示の第5の側面は、画像処理装置において実行するレンズレスカメラのキャリブレーション処理を行う画像処理方法であり、前記画像処理装置が、レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、前記レンズレスカメラのマスクと画像センサとの位置関係が基準位置にある場合に、レンズレスカメラの光軸前方の1つの点光源の撮影によって取得されると推定されるシミュレーション画像を入力し、前記シミュレーション画像に対する補正処理を行い、前記撮影画像との差分が小さくなる補正シミュレーション画像を選択し、前記補正シミュレーション画像に適用した補正データに基づいて、前記レンズレスカメラにおける画像復元処理に適用可能なカメラ固有データを生成するキャリブレーション処理を実行する画像処理方法にある。
なお、本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、レンズレスカメラのマスクと画像センサとの位置関係情報等のカメラ固有データを反映した画像処理により高精度な復元画像の生成を可能とした構成を実現する。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
レンズレスカメラの撮影原理について説明する図である。 レンズレスカメラの撮影原理について説明する図である。 レンズレスカメラのマスクの一例について説明する図である。 レンズレスカメラの撮影処理例について説明する図である。 レンズレスカメラの撮影処理と、画像復元処理について説明する図である。 レンズレスカメラの撮影画像と、復元画像との対応関係例について説明する図である。 レンズレスカメラの撮影画像と、復元画像との対応関係例について説明する図である。 レンズレスカメラの使用イメージの一例について説明する図である。 本開示のキャリブレーション処理における撮影画像の取得処理例について説明する図である。 本開示のキャリブレーション処理を実行した構成の仕様について説明する図である。 本開示のキャリブレーション処理を実行した構成の仕様について説明する図である。 本開示のキャリブレーション処理の処理シーケンスについて説明するフローチャートを示す図である。 本開示のキャリブレーション処理において利用される画像の具体例について説明する図である。 本開示のキャリブレーション処理を実行する装置構成の一例について説明する図である。 レンズレスカメラの構成例を示すブロック図である。 画像処理装置のハードウェア構成例について説明する図である。
以下、図面を参照しながら本開示の画像処理装置、および撮像装置、並びに画像処理方法の詳細について説明する。なお、説明は以下の項目に従って行う。
1.レンズレスカメラの概要と原理について
2.レンズレスカメラの観測画像から復元画像を生成する信号処理について
3.イメージング行列Fに関連する物理量について
4.カメラキャリブレーション処理の詳細について
5.キャリブレーション処理を実行する装置、およびカメラの構成例について
6.計算処理を簡略化した処理例について
7.本開示の画像処理の効果について
8.画像処理装置のハードウェア構成例について
9.本開示の構成のまとめ
[1.レンズレスカメラの概要と原理について]
まず、レンズレスカメラの概要と原理について説明する。図1、図2を参照して、一般的なカメラ(撮像装置)の構成との比較により、レンズレスカメラ(レンズレス撮像装置)の概要について説明する。図1には、
(a)レンズレスカメラ
(b)レンズありカメラ
(c)ピンホールカメラ
これらの3種類のカメラの撮像原理を示している。
(c)ピンホールカメラは、遮光膜12に対して穴部として設けられたピンホール21と画像センサ(個体撮像素子)11から構成される。ピンホールからなる撮像装置の場合、図1右下部の(c)ピンホールカメラの図に示すように、被写体面上のそれぞれ異なる光源から発せられる光線L1乃至L3が、それぞれピンホール21を透過して画像センサ(個体撮像素子)11上の画素I1乃至I3に像として撮像される。
ピンホールカメラからなる撮像装置の場合、画像センサ(個体撮像素子)11においては、光源のそれぞれから発せられた光線L1乃至L3のうちの1画素分の光線のみにより、像が結像されて画像センサ(個体撮像素子)11上の各画素に入射されることになるので暗い画像として撮像される。
図1右上部の(b)レンズありカメラは、遮光膜31の中央に撮像レンズ32を設け、撮像レンズ32が、光線L1乃至L3を、光線I11乃至I13で示されるように集光し、画像センサ(個体撮像素子)11上にそれぞれの像を結像し、これが画像センサ(個体撮像素子)11により撮像される設定としている。
図1右上部の(b)レンズありカメラの場合、画像センサ(個体撮像素子)11は、光線L1乃至L3の全ての光強度の合計である光強度の光からなる像が結像されて画像センサ(個体撮像素子)11に入射されるので、画像センサ(個体撮像素子)11の各画素において十分な光量の画像が撮像される。
図1右上部の(b)レンズありカメラの図に示すように、撮像レンズ32を用いることにより、点光源のそれぞれの集合が被写体を構成することになる。従って、被写体の撮像は、被写体面上の複数の点光源から発せられる光線が集光されて結像される被写体を撮像することになる。
図1右上部の(b)レンズありカメラを参照して説明したように、撮像レンズ32の役割は点光源のそれぞれから出射される各光線、即ち拡散光を、画像センサ(個体撮像素子)11上に導くことにある。そのため、画像センサ(個体撮像素子)11上には最終画像相当の像が結像されることとなり、画像センサ(個体撮像素子)11上の各画素において検出される検出信号からなる画像が、像が結像された観測画像となる。
しかしながら、撮像レンズと撮像レンズの焦点距離によって撮像装置(撮像素子)のサイズが決定されるため、小型化には限界があった。
これに対して、図1左側に示す(a)レンズレスカメラは、撮像レンズやピンホールを設けることなく、画像センサ(個体撮像素子)11とマスク51を用いて、被写体面上の被写体を撮像する。
図1左側に示す(a)レンズレスカメラは、画像センサ11の前段に複数のサイズの開口部51aを備えたマスク51が設けられており、光源のそれぞれからの光線L1乃至L3が変調されて画像センサ11の撮像面に入射し、画像センサ(個体撮像素子)11上の各画素により受光される。
ここで、マスク51は、開口部51aと遮光部51bとが、図1(a)レンズレスカメラの下部に示すように、単位サイズΔの単位で水平方向および垂直方向について、大きさがランダムに設定されたマスクパターンを持つマスクである。単位サイズΔは、少なくとも画素サイズよりも大きいサイズである。また、画像センサ11とマスク51との間には、微小な距離dの隙間が設けられている。図に示す例では、画像センサ11上の画素間のピッチがwとされている。のような構成により、単位サイズΔと距離dとのサイズにより光線L1乃至L3は、画像センサ11上に変調されて入射する。
より詳細には、図1(a)レンズレスカメラの上図における光線L1乃至L3の光源を、例えば、図2の左上部に示すように、点光源PA,PB,PCとし、マスク51を透過して入射する画像センサ11上の位置Pa,Pb,Pcのそれぞれに光強度a,b,cの光線が入射するものとする。
レンズレスカメラの場合、図2左上部に示すように、各画素の検出感度は、マスク51に、ランダムに設定される開口部51aより入射光が変調されることにより、入射角に応じた指向性を持つことになる。ここでいう各画素の検出感度に入射角指向性を持たせるとは、画像センサ11上の領域に応じて入射光の入射角度に応じた受光感度特性を異なるものとなるように持たせることである。
すなわち、被写体面71を構成する光源が点光源であることを前提とした場合、画像センサ11においては、同一の点光源より発せられた同一の光強度の光線が、入射されることになるが、マスク51により変調されることにより、画像センサ11の撮像面上の領域毎に入射角度が変化する。そして、マスク51により画像センサ11上の領域に応じて入射光の入射角度が変化することにより受光感度特性、すなわち、入射角指向性を有しているので、同一の光強度の光線であっても、画像センサ11の撮像面の前段に設けられたマスク51により画像センサ11上の領域毎に異なる感度で検出されることになり、領域毎に異なる検出信号レベルの検出信号が検出される。
より具体的には、図2の右上部で示されるように、画像センサ11上の位置Pa,Pb,Pcにおける画素の検出信号レベルDA,DB,DCは、それぞれ以下の式(1)乃至式(3)で表される。
DA=α1×a+β1×b+γ1×c ・・・(1)
DB=α2×a+β2×b+γ2×c ・・・(2)
DC=α3×a+β3×b+γ3×c ・・・(3)
ここで、α1は、画像センサ11上の位置Paにおける復元する被写体面71上の点光源PAからの光線の入射角度に応じて設定される検出信号レベルaに対する係数である。
また、β1は、画像センサ11上の位置Paにおける復元する被写体面71上の点光源PBからの光線の入射角度に応じて設定される検出信号レベルbに対する係数である。
さらに、γ1は、画像センサ11上の位置Paにおける復元する被写体面71上の点光源PCからの光線の入射角度に応じて設定される検出信号レベルcに対する係数である。
従って、検出信号レベルDAのうちの(α1×a)は、位置Pcにおける点光源PAからの光線による検出信号レベルを示す値となる。
また、検出信号レベルDAのうちの(β1×b)は、位置Pcにおける点光源PBからの光線による検出信号レベルを示す値となる。
さらに、検出信号レベルDAのうちの(γ1×c)は、位置Pcにおける点光源PCからの光線による検出信号レベルを示す値となる。
従って、検出信号レベルDAは、位置Paにおける点光源PA,PB,PCの各成分に、それぞれの係数α1,β1,γ1を掛けたものの合成値として表現される。
以降、係数α1、β1、γ1を合わせて係数セットと呼ぶこととする。
同様に、点光源PBにおける検出信号レベルDBについて、係数セットα2,β2,γ2は、それぞれ点光源PAにおける検出信号レベルDAについての、係数セットα1,β1,γ1に対応するものである。
また、点光源PCにおける検出信号レベルDCについて、係数セットα3,β3,γ3は、それぞれ点光源PAにおける検出信号レベルDAについての、係数セットα1,β1,γ1に対応するものである。
ただし、位置Pa,Pb,Pcの画素の検出信号レベルについては、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cと係数との積和により表現される値である。このため、これらの検出信号レベルは、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cが入り交じったものとなるので、被写体の像が結像されたものとは異なるものである。
すなわち、この係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3と、検出信号レベルDA,DB,DCを用いた連立方程式を構成し、光強度a,b,cを解くことで、図1の右下部で示されるように各位置Pa,Pb,Pcの画素値を求める。これにより画素値の集合である復元画像(最終画像)が再構成されて復元される。
また、図2の左上部で示される画像センサ11と被写体面71との距離が変化する場合、係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3は、それぞれ変化することになるが、この係数セットを変化させることで、様々な距離の被写体面の復元画像(最終画像)を再構成させることができる。
このため、1回の撮像により、係数セットを様々な距離に対応するものに変化させることで、撮像位置から様々な距離の被写体面の画像を再構成することができる。
結果として、レンズレスカメラを用いた撮像においては、レンズを用いた撮像装置での撮像において合焦点がずれた状態で撮像される、いわゆる、ピンぼけといった現象を意識する必要がなく、画角内に撮像したい被写体が含まれるように撮像されていれば、距離に応じた係数セットを変化させることで様々な距離の被写体面の画像を、撮像後に再構成することができる。
なお、図2の右上部に示す検出信号レベルは、被写体の像が結像された画像に対応する検出信号レベルではないので、画素値ではない。また、図2の右下部に示す検出信号レベルは、被写体の像が結像された画像に対応する画素毎の信号値、すなわち、復元画像(最終画像)の各画素の値なので、画素値となる。
このような構成により、撮像レンズや、ピンホールを必要としない、いわゆるレンズレスカメラを実現することが可能となる。結果として、撮像レンズや、ピンホール等が必須構成とならないので、撮像装置の低背化、すなわち、撮像機能を実現する構成における光の入射方向に対する厚さを薄くすることが可能になる。また、係数セットを様々に変化させることにより、様々な距離の被写体面における復元画像(最終画像)を再構成して復元することが可能となる。
なお、以降においては、画像センサにより撮像された、再構成される前の画像を単に観測画像と称し、観測画像が信号処理されることにより再構成されて復元される画像を復元画像(最終画像)と称する。従って、1枚の観測画像からは、上述した係数セットを様々に変化させることにより、様々な距離の被写体面71上の画像を最終画像として再構成させることができる。
図3は、レンズレスカメラにおける撮像素子の構成例を示す図である。上部がマスク51の上面図であり、下部がマスク51と画像センサ(固体撮像素子)11とを側面上方からみた斜視図である。
一般的なレンズレスカメラの撮像素子は、例えば、図3に示すように、マスク51における開口部51aの単位サイズが、全領域に対して一様に設定されて、画像センサ11においては、マスク51を透過した光より全体として1枚の画像が撮像される。
[2.レンズレスカメラの観測画像から復元画像を生成する信号処理について]
次に、レンズレスカメラの観測画像から復元画像を生成する信号処理について説明する。図4は、レンズレスカメラ80の概略構成を示す図である。図4に示すようにレンズレスカメラ80は、画像センサ81の前にマスク82を配置した構成を持つ。マスク82は、光の透過領域と不透過領域を2次元パターンとして設定したマスクである。このマスク82を介した光を画像センサに入力する。
図4では、被写体85の撮影を行い、被写体画像が復元された復元画像(最終画像)87を出力する構成例を示している。なお、画像センサ(固体撮像素子)81により撮像された再構成される前の画像が観測画像86であり、信号処理部83が観測画像86に対して信号処理を行うことで再構成されて復元される画像が復元画像(最終画像)87である。復元画像(最終画像)87は、通常のレンズ装着カメラと同様、撮影シーンの被写体を含む画像となる。
画像センサ81にはマスク82を介した像(観測画像86)が撮影される。マスク82を介した撮像データ、すなわち画像センサ1上の観測画像86が信号処理部83に入力される。信号処理部83は、画像センサ81上の観測画像86に対して、所定の信号処理を行うことで、一般的なカメラと同様の撮影シーンに対応する2次元画像としての復元画像(最終画像)87を生成する。
画像センサ81上の観測画像86から実際のシーンを再現した復元画像87を生成する信号処理部83における信号処理に際しては、様々な撮影条件を考慮した処理を行うことが必要である。具体的には、例えば、
(1)被写体に対する画像センサの幾何的な位置、
(2)被写体から出力される光の強度、分光特性、
(3)マスクによる変調、
(4)マスクとセンサの位置、幾何関係、
(5)センサの分光感度特性、
これらの撮影条件を考慮した信号処理を実行することが必要となる。
特に、マスクと画像センサの位置、幾何関係については、その物理的な変化に対する最終画像(復元画像)への影響が大きく、システムにおける既知の値として扱うことが困難である。マスクと画像センサの位置や幾何関係を実際のものと異なる想定で信号処理を行い、復元画像を生成した場合、復元画像は破たんしてしまう場合がある。そのため、各レンズレスカメラ固有のマスクと画像センサの位置や幾何関係を考慮した処理が必要となる。
図4に示すレンズレスカメラ80による観測画像の撮影原理を定式化すると、以下の(式1)によって表現することができる。
y=Fx+n ・・・(式1)
ただし、
y:画像センサ81の観測信号(1次元化データ)
x:シーンベクトル(撮影シーンの放射光の値(1次元化データ))
n:ノイズ
F:イメージング行列(Imaging Matrix)
なお、xは、撮影シーンの放射光の値であり、復元画像87の画素値にも相当する。復元画像87は、撮影シーンの放射光の値を再現した画像に相当するからである。
上記(式1)から理解されるように、レンズレスカメラ80の画像センサ81の観測信号yは、撮影シーンのシーンベクトル(x)をイメージング行列Fによって変調した光にノイズnを付加した信号となる。
図5以下を参照して、上記(式1)の詳細について説明する。図5には、図4と同様のレンズレスカメラ80、信号処理部83、復元画像87を示している。レンズレスカメラ81は、画像センサ81、マスク82を有する。画像センサ81は、図に示すように、水平N画素、垂直M画素のM×N画素構成からなるセンサである。
図5に示す例において、レンズレスカメラ80は、木や人を含む撮影領域の画像を撮影する。最終的には、信号処理部の画像復元処理によって木や人を含む復元画像87が生成される。この復元画像87の解像度は、水平L画素、垂直K画素のK×L画素の解像度である。
復元画像87の解像度は、信号処理部83における信号処理に依存する。具体的には、撮影被写体からの放射光をどれだけ細分化して解析するかに依存する。図5に示す撮影シーン90は、被写体からの放射光の通過領域に設定した2次元平面である。この2次元平面は、画像センサ81に平行な2次元平面であり、被写体から画像センサ81に入射する光はこの2次元平面を通過する。この2次元平面を通過する被写体光を再現したものが復元画像87となる。
図に示す2次元平面上の撮影シーン90に示す複数の丸印をサンプリングポイントとし、このサンプリングポイントの放射光が、上記(式1)、すなわち、
y=Fx+n ・・・(式1)
この(式1)のx(撮影シーンの放射光の値)に相当する。このxを再現することで、復元画像の各画素の値が決定される。すなわち、信号処理部83は、図5に示す2次元平面上の撮影シーン90上のサンプリングポイント単位の放射光xを算出して、復元画像87の画素値を設定する。
図に示す例では、2次元平面上の撮影シーン90上のサンプリングポイントは、水平L個、垂直K個のK×L個である。信号処理部83は、レンズレスカメラ80のM×N画素構成からなる画像センサ81の出力、すなわちマスク81を介して得られる観測画像を入力して、撮影シーン90上のK×L個のサンプリングポイントの放射光を解析し、水平L画素、垂直K画素のK×L画素の解像度からなる復元画像87を生成する。
次に、図6を参照して、前述した(式1)、すなわち、
y=Fx+n ・・・(式1)
上記(式1)の具体的な計算処理例について説明する。
図6には、上記(式1)を構成する各データ行列形式に表現した計算式を示している。すなわち、
(a)画像センサ観測値y101、
(b)イメージング行列F102、
(c)シーンベクトルx(サンプリングポイント放射光(=復元画像))103、
(d)ノイズn104
これらの4つのデータである。
(a)画像センサ観測値y101は、M×Nの画像センサの各画素の観測値(y(1),y(2),・・・y(MN))によって構成されるMN行、1列の行列となる。
(b)イメージング行列F102は、(a)画像センサ観測値y101と、(c)シーンベクトルx(サンプリングポイント放射光(=復元画像))103との対応関係情報からなる行列であり、MN行、KL列の行列となる。
(b)イメージング行列F102と、(c)シーンベクトルx(サンプリングポイント放射光(=復元画像))103との乗算結果+(d)ノイズn104が、(a)画像センサ観測値y101、すなわち画像センサのMN画素の各画素値となる。
なお、(a)画像センサ観測値y101から、復元画像のKL画素の画素値を算出する場合は、イメージング行列F102の逆行列が利用される。
(c)シーンベクトルx(サンプリングポイント放射光(=復元画像))103は、図5を参照して説明した2次元平面の撮影シーン90に設定したサンプリングポイントの数、すなわち復元画像87の画素数に等しいKL個の要素(x(1),x(2),・・・x(KL))によって構成されるKL行、1列の行列となる。
(d)ノイズn104は、M×Nの画像センサの各画素対応のノイズであり、各画素のノイズの値(n(1),n(2),・・・n(MN))によって構成されるMN行、1列の行列となる。
このように、上述した(式1)、すなわち、
y=Fx+n ・・・(式1)
この(式1)の演算は、図6に示す行列の演算を行うことを意味する。
画像センサ81の画素数がMN画素であり、復元画像の解像度をKL画素としたとき、イメージング行列Fは、(MxN)x(KxL)の次元数を持った2次元行列となる。
シーンベクトルxに、イメージング行列Fを乗算し、MxN次元のノイズベクトルnを加算したものが、画像センサ81上の各画素の値の一次元データからなる観測ベクトルyとなる。なお、イメージング行列Fの各行の要素は、マスク82を介して、画像センサ81のある1画素に到達するシーン中の各点からの光を意味する。イメージング行列Fの各行の要素の意味について、図7を参照して説明する。
図7には、図6と同様、前述した、(式1)を構成する各データを簡略化して示している。すなわち、
(a)画像センサ観測値y101、
(b)イメージング行列F102、
(c)シーンベクトルx(サンプリングポイント放射光(=復元画像))103、
(d)ノイズn104
これらの4つのデータである。
図7には、(a)画像センサ観測値y101に含まれる2つの観測値である、
センサ観測値y(p)101p、
センサ観測値y(q)101q、
これら2つのセンサ観測値の記録位置を示している。
センサ観測値y(p)101pは、(a)画像センサ観測値y101を構成する行列のp番目の行の要素であり、MN画素から構成される画像センサ81のp番目の画素の観測値(画素値)である。
センサ観測値y(q)101qは、(a)画像センサ観測値y101を構成する行列のq番目の行の要素であり、MN画素から構成される画像センサ81のq番目の画素の観測値(画素値)である。
画像センサ81の各画素には、図5を参照して説明した撮影シーン90の様々なサンプリングポイントからの放射光が入射する。すなわち、センサ観測値y(p)101p、センサ観測値y(q)101q、いずれも、図5に示すKL個のサンプリングポイント内の複数のサンプリングポイントからの放射光を入射している。
(a)画像センサ観測値y101を構成する行列のセンサ観測値y(p)101pの記録行に対応する「(b)イメージング行列F102」の行(p番目の行)には、このセンサ観測値y(p)101pに含まれるKL個のサンプリングポイント各々の出力光成分が記録される。この(b)イメージング行列F102の行のデータの具体例は、図7の下部左側に示す、
(P)センサ観測値y(p)に含まれる撮影シーン対応データ(=復元画像)(K×L)対応データである。
(P1)は、1次元データであり、「(b)イメージング行列F102」の行(p番目の行)のKL個の要素の値をグラフとして示している。横軸が「(b)イメージング行列F102」の行(p番目の行)の左端の第1列から右端のKL列の要素位置を示す軸である。縦軸が光強度を示している。すなわち、センサ観測値y(p)101pに含まれるKL個のサンプリングポイントの放射光成分をグラフ化したデータである。
(P2)は、2次元データであり、水平方向L画素、垂直方向K画素の復元画像相当の解像度を持つ2次元平面に、(P1)1次元データに記録されたKL個のデータを展開したものである。
また、(a)画像センサ観測値y101を構成する行列のもう1つのセンサ観測値y(q)101qの記録行に対応する「(b)イメージング行列F102」の行(q番目の行)には、このセンサ観測値y(q)101qに含まれるKL個のサンプリングポイント各々の出力光成分が記録される。この(b)イメージング行列F102の行のデータの具体例は、図7の下部右側に示す、(Q)センサ観測値y(q)に含まれる撮影シーン対応データ(=復元画像)(K×L)対応データである。
(Q1)は、1次元データであり、「(b)イメージング行列F102」の行(q番目の行)のKL個の要素の値をグラフとして示している。横軸が「(b)イメージング行列F102」の行(q番目の行)の左端の第1列から右端のKL列の要素位置を示す軸である。縦軸が光強度を示している。すなわち、センサ観測値y(q)101qに含まれるKL個のサンプリングポイントの放射光成分をグラフ化したデータである。
(Q2)は、2次元データであり、水平方向L画素、垂直方向K画素の復元画像相当の解像度を持つ2次元平面に、(Q1)1次元データに記録されたKL個のデータを展開したものである。
(P1),(Q2)には、「(b)イメージング行列F102」の2つの行のサンプリングポイントの放射光成分の2次元データを示しているが、「(b)イメージング行列F102」の全ての行(MN行)のサンプリングポイントの放射光成分の2次元データを重畳すると、復元画像87が生成される。
ちなみに、上述した(式1)、すなわち、
y=Fx+n
この撮像システムの原理式は、レンズレスカメラのみならず、従来のレンズを用いた撮像、拡散板を介した撮像などでも用いることは可能である。レンズレスカメラにおいては、イメージング行列Fに、マスクによる変調およびマスクとセンサの位置・幾何関係が関係していることが、異なるポイントである。
[3.イメージング行列Fに関連する物理量について]
次に、イメージング行列Fに関連する物理量について説明する。図8は、レンズレスカメラの使用イメージを示す図である。
図8を用いて、イメージング行列Fに関連する物理量の要素について説明する。撮影シーン110内に1つの注目点A,111を設定する。注目点A,111は、位置(x,y,z)から、分光特性Xp、強度Ikの光をレンズレスカメラ120に入光する被写体の1つの点である。
このとき、レンズレスカメラ120の画像センサ122のある画素jが観測する観測値値Y(j)は、以下の(式2)、すなわち、
Y(j)=G(x,y,z,Xp,Mg,Mp,Sp,j)×Ik、・・(式2)
上記(式2)で表すことができる。
ここで、
Mgはマスクの幾何形状、
Mpはマスクのセンサに対する幾何的な位置、
Spは、画像センサ122の分光感度特性、
jは、画像ゼンサの画素識別子、
である。
先に説明したレンズレスカメラによる観測画像の撮影原理を示す式である、
y=Fx+n ・・・(式1)
ただし、
y:画像センサ81の観測信号(1次元化データ)
x:シーンベクトル(撮影シーンの放射光の値(1次元化データ))
n:ノイズ
F:イメージング行列(Imaging Matrix)
上記(式1)と、(式2)から、イメージング行列Fは、(式2)に含まれる各パラメータの関数Gにより与えられると言い換えることができる、すなわち、イメージング行列Fの構成要素中、画像センサの画素jの対応行の行列構成要素F(j)は以下の(式3)によって定義される。
F(j)=G(x,y,z,Xp,Mg,Mp,Sp,j)・・・(式3)
である。
上記(式3)から言えることは、関数Gに含まれるパラメータ(x,y,z,Xp,Mg,Mp,Sp,j)の値によって、イメージング行列Fが変化するということである。これらのパラメータのうち、
注目点の光の発光位置を示す座標(x,y,z),
注目点の光の分光特性Xp、
これらは、撮影シーンに依存するものである。
また、
マスクの形状Mgも既知の値である。
マスクのセンサに対する位置関係Mpは、レンズレスカメラごとに異なるカメラ固有の値となる。すなわち、例えばレンズレスカメラの製造工程において、各カメラに対して、センサの取り付けと、マスクの取り付けを行う場合、製造されるカメラごとにばらつきが発生する。
従って、マスクのセンサに対する位置関係Mpについては、各カメラ単位で異なる値となり、精緻にその値を取得して、その取得値に基づいて、カメラ固有のイメージング行列Fを生成するか、あるいは、共通のイメージング行列Fに対するカメラ固有の補正処理、例えば補正行列による補正処理を行う等、何らかの補正処理が必要となる。
このような補正処理を行わずにイメージング行列Fを適用した処理、あるいはその逆行列を利用して復元画像の生成処理を実行しても正常な復元画像が生成できず破たんした復元画像が生成されることになる。
なお、画像センサ122の分光感度特性Spについては、概ねのケースで既知の値を用いることができるため、これに基づく補正の必要はない。ただし、例えば、画像センサがマイクロボロメータの場合などは、観測分光特性はセンサ自身の温度等によって変化することもあり、画像センサ122の分光感度特性Spに対応した補正を行う構成としてもよい。
[4.カメラキャリブレーション処理の詳細について]
上述したように、イメージング行列Fに影響を与えるンズレスカメラ固有のパラメータとして、以下の2つのパラメータがある。
(a)マスクのセンサに対する位置関係Mp、
(b)画像センサの分光感度特性Sp、
これらのばらつきを考慮せずに、すべてのカメラに共通のイメージング行列Fやその逆行列を利用した復元画像の生成処理を行ってしまうと、正常な復元画像の生成ができなくなる。この問題を解決するためのカメラキャリブレーション処理の具体例について説明する。
以下において説明するカメラキャリブレーション処理の概要は以下の通りである。
(S01)キャリブレーション対象となるレンズレスカメラによって、点光源の撮影画像(画像センサによる点光源観測画像)を取得。
(S02)規定の基準パラメータの設定された理想的なカメラ(基準カメラ)による点光源の撮影画像(画像センサによる点光源観測画像)(=基準画像)をシミュレーションにより生成。
なお、規定の基準パラメータには、
(a)マスクのセンサに対する位置関係Mp、
(b)画像センサの分光感度特性Sp、
これらのパラメータを含む。
(S03)シミュレーション画像(基準画像)に対して、イメージング行列Fに影響の影響のるカメラ固有のパラメータ、すなわち、
(a)マスクのセンサに対する位置関係Mp、
(b)画像センサの分光感度特性Sp、
これらのパラメータを順次、変更したシミュレーション画像(補正基準画像)を生成、
(S04)シミュレーション画像(補正基準画像)と、撮影画像との比較によって、カメラ固有の理想的なパラメータを取得、
本開示の処理において実行するカメラキャリブレーション処理の概要は上述の処理(S01)~(S04)である。
このキャリブレーション処理は、1点のみの点光源をレンズレスカメラで撮像した場合、マスクパターンの幾何形状を、直接、反映した像が観測されることを利用したものである。なお、被写体距離に応じてイメージング行列Fを変更したい場合には、レンズレスカメラと点光源の距離を変えて、各距離に応じた被写体距離対応のイメージング行列F、あるいは距離対応の補正行列を求めることが可能である。
なお、シミュレーション画像の生成時には、できればマスクによる回折現象についても考慮することが好ましい。回折現象はマスクの幾何形状、具体的には光が透過するスリットの大きさなどに依存して発生する。特に、画像センサの中心部とマスクの中心部間の距離dが変化すると、画像センサ上の像に対する回折の影響が大きく変化することになり、この距離dに応じた回折現象を織り込んだシミュレーション画像を生成することが好ましい。
なお、回折現象のシミュレーションには一般に知られている回折モデルを用いることが可能である。例えば、代表的な回折モデルであるフレネル回折モデルを利用することが可能である。
図9は、キャリブレーション処理における上記の最初のステップ(S01)の処理、すなわち、
(S01)キャリブレーション対象となるレンズレスカメラによって、点光源の観測画像(画像センサによる点光源観測画像)を取得、
この撮影画像取得処理の実行例を示す図である。
点光源P,151をレンズレスカメラ120の正面、センサの中心とマスク設置想定位置の中心を結んだ光軸の延長上に配置する。レンズレスカメラ120は、画像センサ121、マスク122を有し、点光源P,151の光は、マスク122の開口部を介して画像センサ122に入射する。
実際に実行したキャリブレーション処理に利用した、
画像センサ122、
マスク121、および、
点光源151、
これら、各構成要素の仕様を、図10、図11に示す。
図10に示すように、
画像センサ122は、以下の仕様を持つ。
特性=モノクロセンサ、センシングレンジ=400nm~600nm、
解像度=256×256画素、
画素ピッチ=4マイクロメートル、
分光感度特性=(波長(nm),感度(response))=(400,0.53),(450,0.71),(500,0.81),(550,0.63),(600,0.69)
また、マスク121は、以下の仕様を持つ。
解像度=32×32
サイズ(Feature Size)=40マイクロメートル、
画像センサからの距離=約2mm
取り付け位置=ほぼ画像センサ中心位置、
また、図11に示すように、
点光源151は、以下の仕様を持つ。
画像センサからの距離=1m、
位置=画像センサの光軸上、
光源(ソース)=スペクトラム、
分光感度特性=(波長(nm),感度(response))=(400,0.07),(450,0.21),(500,1.0),(550,0.71),(600,0.32)
これらの仕様を持つ画像センサ122、マスク121によって構成されるレンズレスカメラ120と、点光源151を用いてキャリブレーション処理を実行した。なお、ここで、まず、補正したいパラメータはマスク121の幾何的な位置Mpである。
マスクの幾何的な位置Mpは、複数の要素を持つ。まず、マスクの幾何的位置Mpを以下の関数G2によって表す。
Mp=G2(R,T,d)
関数G2の入力パラメータは、
回転パラメータR,
平行移動バラメータT,
画像センサ中心とマスク中心間の距離パラメータd、
これら3つのパラメータである。
なお、回転パラメータR,平行移動バラメータTは、それぞれマスクの3次元位置を規定する(x,y,z)からなる行列に対する補正行列として表現することが可能であり、回転行列Rと、平行移動行列Tとして表現可能である。
なお、Mp=G2(Ho,d)として、回転行列Rと、平行移動行列Tを1つの行列としたホモグラフィ(Homography)行列Hoを用いた表現としてもよい。
以下では、
回転パラメータR,
平行移動バラメータT,
画像センサ中心とマスク中心間の距離パラメータd、
これら3つのパラメータを用いた処理として説明する。
図12に示すフローチャートに従って、本開示のキャリブレーション処理の詳細シーケンスについて説明する。
フローに示すステップS101以下の各処理について順次、説明する。
(ステップS101)
まず、ステップS101において、キャリブレーション対象となるレンズレスカメラ120により、点光源P,151を撮影する。
この点光源撮影画像の例を図13(S101)に示す。この画像は、図9を参照して説明した点光源151の撮影処理によって得られる画像センサ123からの出力であり、マスク122のパターンを直接的に反映した画像となる。
(ステップS102)
次に、ステップS102において、初期パラメータを利用したシミュレーション画像(基準画像)を生成する。シミュレーション画像(基準画像)は、理想的なパラメータ構成を持つレンズレスカメラによって図9に示す点光源151を撮影したと仮定した場合に画像センサから出力される画像データである。
初期パラメータは、予め規定した基準パラメータである。例えば、上述した、
(a)マスクのセンサに対する位置関係Mp
については、マスクがセンサに対して規定の基準位置に正確に取り付けられていると仮定した場合のパラメータMp(基準パラメータMp)を使用する。
なお、後段で説明するオプション処理であるステップS106~S107の処理を行う場合は、
(b)画像センサの分光感度特性Sp、
このパラメータについても、予め規定した基準パラメータSpを初期パラメータとして設定してシミュレーション画像(基準画像)を生成する。
このステップS102において生成されるシミュレーション画像の例を図13(S102)に示す。このシミュレーション画像は、マスクがセンサに対して予め規定した基準位置に正確に取り付けられているとの仮定、すなわちマスクのセンサに対する位置関係が理想的な位置関係であるとの仮定に基づいて生成されたシミュレーション画像であり、理想的な画像となる。
(ステップS103)
次に、ステップS103において、ステップS102で生成したシミュレーション画像に対して、様々な回転パラメータRと、平行移動パラメータTを適用したアフィン(Affine)変換、またはホモグラフィ(Homography)変換を行い、様々な回転、平行移動をさせたシミュレーション画像(補正基準画像)を生成し、これらをステップS101で取得した撮影画像と比較する。
この比較処理によって、撮影画像との画像差分が最も小さくなるシミュレーション画像を選択し、そのシミュレーション画像に適用した回転パラメータRと、平行移動パラメータTを抽出する。
なお、撮影画像とシミュレーション画像との画像差分の評価処理としては、例えば、評価関数(SSIM:Structural Similarity)を用いる。SSIMは、画像差分が大きいほど0に近く、画像差分が小さいほど1に近い値を示す画像差分評価関数である。
このステップS103において探索された撮影画像との差分が最小となるシミュレーション画像(補正基準画像)の例を図13(S103)に示す。図13(S103)に示すシミュレーション画像は、ステップS102で生成したシミュレーション画像に対して、所定の平行移動パラメータTを適用した平行移動を行い、さらに所定の回転パラメータRを適用して回転を行って生成したシミュレーション画像である。
このシミュレーション画像は、ステップS102において生成した理想的な構成を持つカメラによって撮影されるシミュレーション画像を、実際の撮影画像(S101で取得した撮影画像)に近づける平行移動と回転を行って生成したシミュレーション画像となる。
図13の(S103)の画像の下部には、この画像を生成するために適用した補正量を示している。すなわち、
パラメータT補正量=-0.000086m,-0.000101m
パラメータR補正量=2.36°
これらのパラメータ補正量である。
これらは、図13の(S103)に示すシミュレーション画像(補正基準画像)が、ステップS102で生成したシミュレーション画像(基準画像)に対して、x方向に-0.000086m,y方向に-0.000101m、平行移動を行い、時計まわりに2.36°回転させて生成したシミュレーション画像(補正基準画像)であることを意味し、この補正によって、実際の撮影画像(S101で取得した撮影画像)に最も差分の少ない画像が生成されたことを意味する。
図13に示すように、(S103)で生成したシミュレーション画像の差分評価関数は、SSIM=0.7623である。これは、(S103)で生成したシミュレーション画像(補正基準画像)と実際の撮影画像(S101で取得した撮影画像)との差分評価値である。ちなみに、図13に示す(S102)で生成した最初のシミュレーション画像(基準画像)の差分評価関数SSIMは、SSIM=0.0629である。
前述したように、SSIMは、画像差分が大きいほど0に近く、画像差分が小さいほど1に近い値を示す画像差分評価関数であり、ステップS103におけるシミュレーション画像の平行移動と回転処理により、差分評価関数SSIMの値が1に近づき、撮影画像との差分が小さくなったことを示している。
(ステップS104)
次に、ステップS104において、ステップS103で得られたシミュレーション画像(補正基準画像)、すなわち、撮影画像との差分を最小にする補正(回転パラメータRと、平行移動パラメータT)を適用したシミュレーション画像に対して、複数の異なるマスク-画像センサ距離パラメータd(d1,d2,d3・・・dn)を設定した複数のシミュレーション画像を生成する。
次に最適化するのはマスク-センサ間の距離dである。マスク-センサ間の距離dにより、像倍率のみならず、回折ぼけの大きさが変わるため、ある程度の間隔でパラメータdを振って複数のシミュレーション画像を生成する。
(ステップS105)
次に、ステップS105において、ステップS104で生成した複数の異なるマスク-画像センサ距離パラメータd(d1,d2,d3・・・dn)を設定して生成した複数のシミュレーション画像(補正基準画像)の中から、撮影画像との差分が最小となるシミュレーション画像を探索してそのマスク-画像センサ距離パラメータdを取得する。
なお、この処理における、撮影画像との差分が最小となるシミュレーション画像の探索、すなわちパラメータdの探索処理は、例えば、コースーファイン(Coarse-Fine)型探索処理を適用して行う。
コースーファイン(Coarse-Fine)型探索処理は、最初は、粗い間隔で探索し、徐々に探索幅を小さくする探索処理である。
このステップS105において取得されたマスク-画像センサ距離パラメータdを適用したシミュレーション画像(補正基準画像)の例を図13(S105)に示す。
このシミュレーション画像は、ステップS103において生成したシミュレーション画像、すなわち実際の撮影画像に近い位置に平行移動と回転処理を施した後のシミュレーション画像(補正基準画像)に対して、さらに、実際の撮影画像(S101で取得した撮影画像)に近づけるように、パラメータd、すなわちマスク-画像センサ距離パラメータdを変更して再補正したシミュレーション画像(補正基準画像)となる。
図13の(S105)の画像の下部には、この画像を生成するために適用した補正量を示している。すなわち、
パラメータd補正量=2.38mm
このパラメータ補正量である。
これは、図13の(S105)に示すシミュレーション画像(補正基準画像)が、ステップS103で生成したシミュレーション画像に対して、マスク-画像センサ距離パラメータd=2.38mmに設定する再補正を行って生成したシミュレーション画像であることを意味し、この補正によって、実際の撮影画像(S101で取得した撮影画像)に最も差分の少ない画像が生成されたことを意味する。
図13に示すように、(S105)で生成したシミュレーション画像の差分評価関数は、SSIM=0.9487である。これは、(S105)で生成したシミュレーション画像と実際の撮影画像(S101で取得した撮影画像)との差分評価値である。ちなみに、図13に示す(S103)で生成したシミュレーション画像の差分評価関数SSIMは、SSIM=0.7623である。
前述したように、SSIMは、画像差分が大きいほど0に近く、画像差分が小さいほど1に近い値を示す画像差分評価関数であり、ステップS105におけるシミュレーション画像は、ステップS103で生成したシミュレーション画像より、差分評価関数SSIMの値が1に近づき、撮影画像との差分が小さくなったことを示している。
(ステップS106)
次のステップS106~S107の処理は、オプション処理であり、省略可能である。
これらの処理は、
(b)画像センサの分光感度特性Sp
についての補正値を算出する場合に実行する。
なお、先に説明したように、このステップS106~S107の処理を実行する場合には、ステップS102において生成するシミュレーション画像は、
(b)画像センサの分光感度特性Sp、
このパラメータを予め規定した基準パラメータSp(初期パラメータ)として設定して生成したシミュレーション画像とすることが必要である。
ステップS106では、ステップS105で取得したシミュレーション画像(補正基準画像)、すなわち、撮影画像との差分を最小にする補正を行ったシミュレーション画像に対して、複数の異なる画像センサ分光感度特性Sp(Sp1,Sp2,Sp3・・・Spn)を設定した複数のシミュレーション画像を生成する。
ここで最適化対象とするパラメータは分光感度特性Spである。ある程度の間隔でパラメータSpの値を振って複数のシミュレーション画像を生成する。
(ステップS107)
次に、ステップS107において、ステップS106で生成した複数の異なる分光感度特性Sp(Sp1,Sp2,Sp3・・・Spn)に従って生成した複数のシミュレーション画像(補正基準画像)の中から、撮影画像との差分が最小となるシミュレーション画像(補正基準画像)を探索してその分光感度特性Spを取得する。
なお、この処理における、撮影画像との差分が最小となるシミュレーション画像の探索、すなわち分光感度特性Spの探索処理も、例えば、コースーファイン(Coarse-Fine)型探索処理を適用して行う。
このステップS107において取得された分光感度特性Spを適用したシミュレーション画像(補正基準画像)の例を図13(S107)に示す。
このシミュレーション画像は、ステップS103とステップS105において補正されたシミュレーション画像、すなわち、平行移動、回転、マスク-画像センサ距離パラメータdの変更を施して生成したシミュレーション画像に対して、さらに、実際の撮影画像(S101で取得した撮影画像)に近づけるように、パラメータSp、すなわち画像センサの分光感度特性Spを変更して再補正したシミュレーション画像(補正基準画像)となる。
図13の(S107)の画像の下部には、この画像を生成するために適用した補正量を示している。すなわち、
パラメータSp補正量=(0.6,0.65,0.75,0.65,0.59)
このパラメータ補正量である。
これらの分光感度特性は、それぞれ波長(nm)=400,450,500,550,600nm対応の感度(response)である。
これは、図13の(S107)に示すシミュレーション画像(補正基準画像)が、ステップS105で生成したシミュレーション画像(補正基準画像)に対して、
画像センサの分光感度特性Spを上記の設定、すなわち、
パラメータSp補正量=(0.6,0.65,0.75,0.65,0.59)
この設定とする再補正を行って生成したシミュレーション画像(補正基準画像)であることを意味し、この補正によって、実際の撮影画像(S101で取得した撮影画像)に最も差分の少ない画像が生成されたことを意味する。
図13に示すように、(S107)で生成したシミュレーション画像の差分評価関数は、SSIM=0.9488である。これは、(S107)で生成したシミュレーション画像と実際の撮影画像(S101で取得した撮影画像)との差分評価値である。ちなみに、図13に示す(S105)で生成したシミュレーション画像の差分評価関数SSIMは、SSIM=0.9487である。
前述したように、SSIMは、画像差分が大きいほど0に近く、画像差分が小さいほど1に近い値を示す画像差分評価関数であり、ステップS107におけるシミュレーション画像は、ステップS105で生成したシミュレーション画像より、差分評価関数SSIMの値が1に近づき、撮影画像との差分が小さくなったことを示している。
(ステップS108)
次に、ステップS108において、ステップS107で生成したシミュレーション画像(補正基準画像)と、ステップS101で取得した実際の撮影画像との差分を示す差分評価関数SSIMの値が、予め規定したしきい値以上となったか否かを判定する。
予め規定したしきい値以上となったと判定した場合は、処理を終了する。予め規定したしきい値以上でない場合は、ステップS102以下の処理を繰り返し実行する。最終的に、ステップS108において、予め規定したしきい値以上となったと判定されると処理を終了する。
なお、ステップS106~S107の処理を省略した場合は、ステップS108では、ステップS105で生成したシミュレーション画像と、ステップS101で取得した実際の撮影画像との差分を示す差分評価関数SSIMの値が、予め規定したしきい値以上となったか否かを判定する処理を行う。
予め規定したしきい値以上となったと判定した場合は、処理を終了し、しきい値以上でない場合は、ステップS102以下の処理を繰り返し実行する。最終的に、ステップS108において、予め規定したしきい値以上となったと判定されると処理を終了する。
処理終了時点で取得されている補正量、具体的には、先に図13を参照して説明した以下の補正量が、現在キャリブレーション対象としているレンズレスカメラの基準パラメータからのずれ、あるいは特性を示すデータとなる。すなわち、ステップS103とステップS105において取得される、
回転パラメータR,
平行移動パラメータT,
マスク-画像センサ距離パラメータd
これらのパラメータが、現在キャリブレーション対象としているレンズレスカメラの基準パラメータからのずれを示すデータとなる。
これらは、
(a)マスクのセンサに対する位置関係Mpを示すパラメータである、
さらに、ステップS106~S107を実行した場合は、ステップS107で取得される、
画像センサの分光感度特性Sp
このパラメータが、現在キャリブレーション対象としているレンズレスカメラの特性を示すデータとなる。
図12に示すフローのステップS102~S107の処理を1回、実行して処理が終了した場合、すなわち、ステップS108において、差分評価関数SSIMの値が、予め規定したしきい値以上となった場合は、以下の補正量が、現在キャリブレーション対象としているレンズレスカメラの基準パラメータからのずれ、あるいは特性を示すデータ補正パラメータ)となる。
(1)回転パラメータR=2.36°,
(2)平行移動パラメータT=-0.000086m,-0.000101m,
(3)マスク-画像センサ距離パラメータd=2.38mm
(4)画像センサの分光感度特性Sp=(0.6,0.65,0.75,0.65,0.59)
例えば、キャリブレーション対象としたレンズレスカメラのメモリに、これらのデータ(補正パラメータ)を格納する。レンズレスカメラは、撮影画像に対する復元画像を生成する際に、メモリに格納されたデータ(補正パラメータ)を利用して、イメージング行列Fを算出することで、カメラの実際の構成に応じた最適なイメージング行列Fを算出することが可能となる。
なお、カメラの実際の構成とは、例えば、
(a)マスクのセンサに対する位置関係Mp、
(b)画像センサの分光感度特性Sp、
これらの構成情報である。
なお、先に(式3)として説明したように、画像センサの画素jの対応行のイメージング行列Fの行列構成要素F(j)は、
F(j)=G(x,y,z,Xp,Mg,Mp,Sp,j)・・・(式3)
上記(式3)によって定義される。
これらの式に含まれるパラメータ
マスクのセンサに対する幾何的位置Mp、
画像センサの分光感度特性Sp、
これらのパラメータを、図12に示すフローに従って算出した各カメラ固有の構成や特性に応じたパラメータとして各カメラのメモリに格納する。
レンズレスカメラは、撮影画像に対する復元画像を生成する際に、メモリに格納されたデータ(補正パラメータ)を利用して、イメージング行列Fを算出することで、カメラの実際の構成に応じた最適なイメージング行列Fを算出することが可能となる。
なお、予め各カメラ固有のパラメータを(Mp,SP)を利用してカメラ対応の補正済みイメージング行列Fを算出して、この補正済みイメージング行列Fをメモリに格納する構成としてもよい。
あるいは、各カメラに共通のイメージング行列Fを格納し、この共通のイメージング行列Fを、各カメラ固有のパラメータを(Mp,SP)を反映したカメラ固有のイメージング行列Fに変換するための補正行列を算出して、各カメラのメモリに格納する構成としてもよい。
なお、前述したように、レンズレスカメラの画像センサの観測値yと、イメージング行列Fとの対応関係は、以下の(式1)となる。
y=Fx+n ・・・(式1)
ただし、
y:画像センサ観測値、
F:イメージング行列、
x:シーンベクトル(サンプリングポイント放射光(=復元画像))、
n:ノイズ
であり、画像センサ観測値yから、復元画像の画素値を算出する場合は、イメージング行列Fの逆行列F-1を利用する。
従って、各カメラのメモリに予め各カメラ固有のパラメータを反映したイメージング行列Fの逆行列F-1を格納する構成としてもよい。
[5.キャリブレーション処理を実行する装置、およびカメラの構成例について]
次に、キャリブレーション処理を実行する装置、およびカメラの構成例について説明する。
図14は、図12に示すフローに従った処理を実行する場合の装置構成例を示すブロック図である。キャリブレーション対象となるレンズレスカメラ200とキャリブレーション処理実行装置210を接続する。レンズレスカメラ200は、マスクと画像センサを有し、マスクを介した光を画像センサで受光する。
レンズレスカメラ200は、先に図9を参照して説明したように、点光源を撮影した点光源撮影画像211をキャリブレーション装置210に出力する。
キャリブレーション装置210は、先に図12を参照して説明したフローチャートのステップS102~S108の処理を実行する。すなわち、まず、初期パラメータ(基準パラメータ)212を適用して理想的な構成、設定を持つ基準となるレンズレスカメラによって点光源を撮影した場合に撮影されると仮定されるシミュレーション画像(基準画像)を生成する。
その後は、生成したシミュレーション画像と、レンズレスカメラ200から入力した点光源撮影画像211との差分を小さくするように、シミュレーション画像を順次、補正していく。
シミュレーション画像の補正処理は、まず、
回転パラメータR,
平行移動パラメータT,
これらの値を順次、変更したシミュレーション画像(補正基準画像)を生成する。
このシミュレーション画像(補正基準画像)から、最も点光源撮影画像211に近いものを選択し、選択されたシミュレーション画像(補正基準画像)に適用した
回転パラメータR,
平行移動パラメータT,
を保持する。
次に、マスク-画像センサ距離パラメータdの値を順次、変更したシミュレーション画像(補正基準画像)を生成する。このシミュレーション画像(補正基準画像)から、最も点光源撮影画像211に近いものを選択し、選択されたシミュレーション画像に適用した
マスク-画像センサ距離パラメータd、
を保持する。
さらに、オプションとして、画像センサの分光感度特性Spを変更したを順次、変更したシミュレーション画像(補正基準画像)を生成する。このシミュレーション画像(補正基準画像)から、最も点光源撮影画像211に近いものを選択し、選択されたシミュレーション画像に適用した
分光感度特性Spを、
を保持する。
点光源撮影画像211と、シミュレーション画像(補正基準画像)との差分を示すSSIMが規定しきい値以上になるまで、上記処理を繰り返す。点光源撮影画像211と、シミュレーション画像(補正基準画像)との差分を示すSSIMが規定しきい値以上になった時点で処理を終了し、この時点で得られた補正パラメータを出力し、例えばレンズレスカメラ200のメモリに格納する。
出力する補正パラメータは、
(a)マスクのセンサに対する位置関係Mpを示すパラメータである、
回転パラメータR,
平行移動パラメータT,
マスク-画像センサ距離パラメータd
これらのパラメータである。
また、画像センサの分光感度特性Spについても算出した場合は、
このパラメータも出力する。
図15は、レンズレスカメラ200の構成例を示すブロック図である。レンズレスカメラ200は、撮像部201、信号処理部202、メモリ203を有する。撮像部201は、先に図4他を参照して説明したように、画像センサの前にマスクを配置した構成を持つ。マスクは、光の透過領域と不透過領域を2次元パターンとして設定したマスクである。このマスクを介した光を画像センサに入力する。
撮像部201の画像センサにより撮像された観測画像231が信号処理部202に入力される。信号処理部202は、観測画像231に対して信号処理を行い、復元画像232を出力する。復元画像(最終画像)232は、通常のレンズ装着カメラと同様、撮影シーンの被写体を含む画像となる。
信号処理部202は、観測画像231から復元画像232を生成する信号処理に際して、イメージング行列Fを利用した処理を行う。具体的には、イメージング行列Fの逆行列F-1を観測画像231に乗算する処理等を実行して、復元画像232を生成する。
ここで、イメージング行列Fは、レンズレスカメラ200の固有のパラメータによって生成される固有の行列を利用する。すなわち、
(a)マスクのセンサに対する位置関係Mp、
(b)画像センサの分光感度特性Sp、
これらのパラメータはカメラ固有のパラメータであり、この固有パラメータを適用して生成されるカメラ固有のイメージング行列F、および逆行列F-1を利用することで正しい復元画像232を生成することが可能となる。
メモリ203には、例えば、以下のいずれかのデータが格納されている。
(1)共通のイメージング行列Fとカメラ固有の補正パラメータ(Mp,SP,・・・)、
(2)共通のイメージング行列Fと、カメラ固有の補正パラメータ(Mp,SP,・・・)を反映した補正行列、
(3)カメラ固有の補正パラメータ(Mp,SP,・・・)を適用して生成されたカメラ固有のイメージング行列F、
(4)カメラ固有の補正パラメータ(Mp,SP,・・・)を適用して生成されたカメラ固有のイメージング行列Fに対応する逆行列F-1
例えば、これらのいずれかのデータが格納されている。
なお、(2)のカメラ固有の補正パラメータ(Mp,SP,・・・)を反映した補正行列とは、共通のイメージング行列Fに対する乗算処理によって、カメラ固有の補正パラメータ(Mp,SP,・・・)を適用して生成されたカメラ固有のイメージング行列Fに変換することをほ可能とした行列である。
信号処理部202は、このメモリ203に格納されたデータを利用して、レンズレスカメラ200の固有のパラメータによって生成される固有の行列を適用して復元画像232を生成する。この処理により、カメラ固有の構成や特性に応じた正しい画像復元処理が実行され、正しい復元画像232を生成することが可能となる。
[6.計算処理を簡略化した処理例について]
ここまで、イメージング行列Fをレンズレスカメラ固有の構成や設定に応じた構成とするためのキャリブレーション処理について説明した。先に説明した特許文献1(国際公開WO2016/123529号公報)ではイメージング行列を2つの1次元ベクトルとして置き換える処理(Separableモデル生成)を行うことで、復元画像を生成するための計算処理を簡略化する構成を開示している。さらに、イメージング行列Fを補正するためのキャリブレーション処理においても、計算処理の簡略化を実現したものとなっている。
本開示の処理においても、イメージング行列Fを2つの1次元ベクトルに置き換えて処理を行うことが可能である。すなわち、Separableモデルを生成してキャリブレーション処理を行うことが可能である。
先に説明したように、レンズレスカメラによる観測画像の撮影原理を定式化すると、以下の(式1)によって表現することができる。
y=Fx+n ・・・(式1)
ただし、
y:画像センサの観測信号(1次元化データ)
x:シーンベクトル(撮影シーンの放射光の値(1次元化データ))
n:ノイズ
F:イメージング行列(Imaging Matrix)
先に、図6を参照して説明したように、上記(式1)は、行列演算式として示すことができる。
Y:画像センサの観測信号yから構成される行列、
F:イメージング行列
X:シーンベクトルxから構成される行列
とすると、各行列は以下の(式11)として示される。
Figure 0007215473000001
なお、画像センサの画素数はMNであり、
撮影シーンのサンプリングポイント数(=復元画像の画素数)はKLとする。
以下では、説明を簡略化するため、ノイズnを削除した以下の(式4)を適用した処理について説明する。
Y=FX ・・・(式4)
レンズレスカメラの画像センサの第i列、第j行の画素値yijは、下記の(式12)として表現できる。
Figure 0007215473000002
ここで、上記の(式4)におけるイメージング行列Fを2つの1次元ベクトルとして置き換える処理(Separableモデル生成)を行うと(式4)は、以下の(式13)として示すことができる。
Figure 0007215473000003
上記(式13)において、
Φと、Φ は、イメージング行列Fを2つの1次元ベクトルとして置き換える処理(Separableモデル生成)によって生成した行列である。上記(式13)を行列式として示すと、以下の(式14)となる。
Figure 0007215473000004
さらに、上記(式14)を変換すると、以下の(式15)が導かれる。
Figure 0007215473000005
さらに、上記(式15)から、画像センサの第i列、第j行の画素値yijの画素値は、下記の(式16)として表現できる。
Figure 0007215473000006
上記(式16)と、先に示した(式12)は、同じ画像センサの第i列、第j行の画素値yijの画素値を表現した式であるので、以下の(式17)が成立する。
Figure 0007215473000007
なお、先に説明したように、各レンズレスカメラの構成情報である、
(a)マスクのセンサに対する位置関係Mp、
(b)画像センサの分光感度特性Sp、
これらのパラメータMp、Spに基づいて補正したキャリブレート後の補正イメージング行列Fの要素(係数)を、上述した2つの1次元ベクトルとして置き換える処理(Separableモデル生成)によって生成したモデル行列Φと、Φ 、これらのモデル行列の係数にマッピングするには、いくつかのシーンXを想定して、連立方程式を作成すればできる。
例えば、変数(a,b,c,d)を、以下の(式18)に示すような条件で設定する。
Figure 0007215473000008
変数(a,b,c,d)を、上記の(式18)に示すような条件で設定すると、画像センサ上のある画素値ya,dは、先に示した(式17)から、右辺をa)、左辺をb)として代入すると、以下に示す(式19)として表現できる。
Figure 0007215473000009
上記(式19)に基づいて、最終的に下記に示す(式20)の関係式を導出することが可能となり、(式20)に従って、画像センサ上の画素値を示す係数を対応させることができる。
Figure 0007215473000010
このように、イメージング行列Fを、2つの1次元ベクトルとして置き換える処理(Separableモデル生成)によって生成したモデル行列Φと、Φ に変換することで、特許文献1に記載されたと同様の計算処理を簡略化した処理、具体的にはカメラ固有のパラメータに敵夕した補正イメージング行列Fの算出処理を行うことが可能となる。
[7.その他の実施例と、本開示の画像処理の効果について]
次に、その他の実施例と、本開示の画像処理の効果について説明する。図12に示すフローに従った処理は、例えばレンズレスカメラの製造工場におけるキャリブレーション装置によって実行可能であり、このキャリブレーション処理の結果として得られる情報が、各カメラのメモリに格納される。
例えば先に図15を参照して説明したように、以下のいずれかのデータが各レンズレスカメラのメモリに格納される。
(1)共通のイメージング行列Fとカメラ固有の補正パラメータ(Mp,SP,・・・)、
(2)共通のイメージング行列Fと、カメラ固有の補正パラメータ(Mp,SP,・・・)を反映した補正行列、
(3)カメラ固有の補正パラメータ(Mp,SP,・・・)を適用して生成されたカメラ固有のイメージング行列F、
(4)カメラ固有の補正パラメータ(Mp,SP,・・・)を適用して生成されたカメラ固有のイメージング行列Fに対応する逆行列F-1
例えば、これらのいずれかのデータが格納されている。
レンズレスカメラは、このメモリに格納されたデータを利用して、レンズレスカメラ固有の構成や特性に応じた正しい画像復元処理を実行することが可能となる。
図12に示すフローに従った処理は、レンズレスカメラの製造工場におけるキャリブレーション装置のみならず、例えばレンズレスカメラと通信可能なサーバにおいて行ってもよい。また、各レンズレスカメラ固有の構成や特性情報を反映した復元画像生成処理に適用するためのデータ、すなわち、上記(1)~(5)のデータをサーバ内のメモリに格納して、レンズレスカメラが必要に応じてサーバからデータを取得する構成としてもよい。
次に、上述した本開示の構成や処理による効果について以下に説明する。本開示の構成では、レンズレスカメラによる点光源の1回(または距離を変えた複数回には対応可能)の撮影処理を行い、この撮影画像とシミュレーション画像との対比により、マスクとセンサの幾何的な位置関係を最もよく反映したイメージング行列G、あるいはこの補正行列、またはカメラ固有の補正パラメータ等を取得することが可能となる。
本開示の処理を適用することで、カメラキャリブレーション処理におけるボトムネックとなる撮影時間を大幅に低減でき、また、可視光以外のディスプレイ設置が困難(または高価な)波長域の光に対しても、レンズレスカメラを補正することが可能となる。
さらに、本開示の処理により、各カメラの固有データであるマスクとセンサの幾何的な位置関係のみでなく、例えば、センサの分光感度特性についても、同じ撮像データを用いて、各カメラ対応の分光感度特性に適応した最適なイメージング行列G、あるいはこの補正行列、またはカメラ固有の補正パラメータ等を取得することが可能となる。
[8.画像処理装置のハードウェア構成例について]
次に、図16を参照して、画像処理装置のハードウェア構成例について説明する。
図16を参照して説明するハードウェアは、先に図12を参照して説明したキャリブレーション処理を実行するキャリブレーション処理実行装置(図14に示すキャリブレーション処理実行装置210)の構成例である。また、図15に示すレンズレスカメラ200の信号処理部202の処理を実行するハードウェア構成の一例でもある。
CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、または記憶部508に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータなどが記憶される。これらのCPU501、ROM502、およびRAM503は、バス504により相互に接続されている。
CPU501はバス504を介して入出力インタフェース505に接続され、入出力インタフェース505には、各種スイッチ、キーボード、マウス、マイクロホン、センサなどからなる入力部506、ディスプレイ、スピーカーなどからなる出力部507が接続されている。CPU501は、入力部506から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部507に出力する。
入出力インタフェース505に接続されている記憶部508は、例えばハードディスク等からなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、Wi-Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア511を駆動し、データの記録あるいは読み取りを実行する。
[9.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1)レンズレスカメラの画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、前記信号処理部は、少なくとも前記レンズレスカメラのマスクと画像センサとの位置関係情報に基づいて生成されるカメラ固有データを適用した画像処理により、前記復元画像の生成を行う画像処理装置。
(2)前記カメラ固有データは、前記レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、基準画像との比較処理によって生成されたデータである(1)に記載の画像処理装置。
(3)前記基準画像は、レンズレスカメラのマスクと画像センサとの位置関係が基準位置にある場合に、レンズレスカメラの光軸前方の1つの点光源の撮影によって取得されると推定されるシミュレーション画像である(2)に記載の画像処理装置。
(4) 前記ミュレーション画像は、前記マスクによる回折シミュレーションモデルを適用して生成されたシミュレーション画像である(3)に記載の画像処理装置。
(5)前記カメラ固有データは、
前記シミュレーション画像に対する補正処理を行い、前記撮影画像との差分が小さくなるシミュレーション画像を生成することで検出されたデータである(3)または(4)に記載の画像処理装置。
(6)前記カメラ固有データは、前記レンズレスカメラのマスクの画像センサに対する位置関係データMpである(1)~(5)いずれかに記載の画像処理装置。
(7) 前記位置関係データMpは、
マスクの画像センサに対する回転パラメータR,
マスクの画像センサに対する平行移動バラメータT,
画像センサ中心とマスク中心間の距離パラメータd、
これら3つのパラメータを含む(6)に記載の画像処理装置。
(8)前記カメラ固有データは、
(a)前記レンズレスカメラのマスクの画像センサに対する位置関係データMp、
(b)前記画像センサの分光感度特性データSp、
上記の各データを含む(1)~(7)いずれかに記載の画像処理装置。
(9)前記信号処理部は、
複数のレンズレスカメラに共通のイメージング行列Fと、前記カメラ固有データを適用した画像処理により、前記復元画像の生成を行う(1)~(8)いずれかに記載の画像処理装置。
(10)前記信号処理部は、
前記カメラ固有データを適用して補正されたカメラ固有のイメージング行列Fを適用した画像処理により、前記復元画像の生成を行う(1)~(9)いずれかに記載の画像処理装置。
(11)前記信号処理部は、
前記カメラ固有データを適用して補正されたカメラ固有のイメージング行列Fと、前記画像センサの観測値yとの関係から、前記復元画像の生成を行う(1)~(10)いずれかに記載の画像処理装置。
(12)前記カメラ固有データは、
前記レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、基準画像との比較処理によって生成されたデータであり、
前記レンズレスカメラと前記点光源との距離を変更して得られる距離対応の撮影画像とシミュレーション画像を利用した処理によって取得される複数の異なる被写体距離対応のカメラ固有データ、またはイメージング行列F、または補正行列である(1)~(11)いずれかに記載の画像処理装置。
(13)レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、前記レンズレスカメラのマスクと画像センサとの位置関係が基準位置にある場合に、レンズレスカメラの光軸前方の1つの点光源の撮影によって取得されると推定されるシミュレーション画像を入力し、前記シミュレーション画像に対する補正処理を行い、前記撮影画像との差分が小さくなる補正シミュレーション画像を選択し、前記補正シミュレーション画像に適用した補正データに基づいて、前記レンズレスカメラにおける画像復元処理に適用可能なカメラ固有データを生成するキャリブレーション処理を実行する画像処理装置。
(14)前記カメラ固有データは、前記レンズレスカメラのマスクの画像センサに対する位置関係データを含む(13)に記載の画像処理装置。
(15)前記カメラ固有データは、
(a)前記レンズレスカメラのマスクの画像センサに対する位置関係データMp、
(b)前記画像センサの分光感度特性データSp、
上記の各データを含む(13)または(14)に記載の画像処理装置。
(16)前記画像処理装置は、
前記レンズレスカメラと前記点光源との距離を変更して得られる距離対応の撮影画像とシミュレーション画像を利用した処理を実行し、異なる被写体距離対応のカメラ固有データ、またはイメージング行列F、または補正行列を生成する(13)~(15)いずれかに記載の画像処理装置。
(17)光の透過領域と不透過領域を2次元パターンとして設定したマスクと、
前記マスクを介した光を受光する画像センサとからなる撮像部と、前記撮像部の光軸前方の1つの点光源の撮影によって得られる撮影画像と、基準画像との比較処理によって生成されたカメラ固有データを格納したメモリと、前記画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、前記信号処理部は、前記メモリに格納された前記カメラ固有データを適用した画像処理により前記復元画像の生成を行う撮像装置。
(18)画像処理装置において実行する画像処理方法であり、前記画像処理装置は、レンズレスカメラの画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、前記信号処理部が、少なくとも前記レンズレスカメラのマスクと画像センサとの位置関係情報に基づいて生成されるカメラ固有データを適用した画像処理により、前記復元画像の生成を行う画像処理方法。
(19)画像処理装置において実行するレンズレスカメラのキャリブレーション処理を行う画像処理方法であり、前記画像処理装置が、レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、前記レンズレスカメラのマスクと画像センサとの位置関係が基準位置にある場合に、レンズレスカメラの光軸前方の1つの点光源の撮影によって取得されると推定されるシミュレーション画像を入力し、前記シミュレーション画像に対する補正処理を行い、前記撮影画像との差分が小さくなる補正シミュレーション画像を選択し、前記補正シミュレーション画像に適用した補正データに基づいて、前記レンズレスカメラにおける画像復元処理に適用可能なカメラ固有データを生成するキャリブレーション処理を実行する画像処理方法。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、レンズレスカメラのマスクと画像センサとの位置関係情報等のカメラ固有データを反映した画像処理により高精度な復元画像の生成を可能とした構成を実現する。
80 レンズレスカメラ
81 画像センサ
82 マスク
83 信号処理部
90 撮影シーン
91 サンプリングポイント
101 画像センサ観測値y
102 イメージング行列F
103 サンプリングポイント放射光x
104 ノイズ
110 撮影シーン
111 注目点A
120 レンズレスカメラ
121 マスク
122 画像センサ
200 レンズレスカメラ
201 撮像部
202 信号処理部
203 メモリ
210 キャリブレーション装置
501 CPU
502 ROM
503 RAM
504 バス
505 入出力インタフェース
506 入力部
507 出力部
508 記憶部
509 通信部
510 ドライブ
511 リムーバブルメディア

Claims (19)

  1. レンズレスカメラの画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、
    前記信号処理部は、
    少なくとも前記レンズレスカメラのマスクと画像センサとの位置関係情報に基づいて生成されるカメラ固有データを適用した画像処理により、前記復元画像の生成を行う画像処理装置。
  2. 前記カメラ固有データは、
    前記レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、基準画像との比較処理によって生成されたデータである請求項1に記載の画像処理装置。
  3. 前記基準画像は、
    レンズレスカメラのマスクと画像センサとの位置関係が基準位置にある場合に、レンズレスカメラの光軸前方の1つの点光源の撮影によって取得されると推定されるシミュレーション画像である請求項2に記載の画像処理装置。
  4. 前記シミュレーション画像は、
    前記マスクによる回折シミュレーションモデルを適用して生成されたシミュレーション画像である請求項3に記載の画像処理装置。
  5. 前記カメラ固有データは、
    前記シミュレーション画像に対する補正処理を行い、前記撮影画像との差分が小さくなるシミュレーション画像を生成することで検出されたデータである請求項3に記載の画像処理装置。
  6. 前記カメラ固有データは、前記レンズレスカメラのマスクの画像センサに対する位置関係データMpである請求項1に記載の画像処理装置。
  7. 前記位置関係データMpは、
    マスクの画像センサに対する回転パラメータR,
    マスクの画像センサに対する平行移動バラメータT,
    画像センサ中心とマスク中心間の距離パラメータd、
    これら3つのパラメータを含む請求項6に記載の画像処理装置。
  8. 前記カメラ固有データは、
    (a)前記レンズレスカメラのマスクの画像センサに対する位置関係データMp、
    (b)前記画像センサの分光感度特性データSp、
    上記の各データを含む請求項1に記載の画像処理装置。
  9. 前記信号処理部は、
    複数のレンズレスカメラに共通のイメージング行列Fと、前記カメラ固有データを適用した画像処理により、前記復元画像の生成を行う請求項1に記載の画像処理装置。
  10. 前記信号処理部は、
    前記カメラ固有データを適用して補正されたカメラ固有のイメージング行列Fを適用した画像処理により、前記復元画像の生成を行う請求項1に記載の画像処理装置。
  11. 前記信号処理部は、
    前記カメラ固有データを適用して補正されたカメラ固有のイメージング行列Fと、前記画像センサの観測値yとの関係から、前記復元画像の生成を行う請求項1に記載の画像処理装置。
  12. 前記カメラ固有データは、
    前記レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、基準画像との比較処理によって生成されたデータであり、
    前記レンズレスカメラと前記点光源との距離を変更して得られる距離対応の撮影画像とシミュレーション画像を利用した処理によって取得される複数の異なる被写体距離対応のカメラ固有データ、またはイメージング行列F、または補正行列である請求項1に記載の画像処理装置。
  13. レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、
    前記レンズレスカメラのマスクと画像センサとの位置関係が基準位置にある場合に、レンズレスカメラの光軸前方の1つの点光源の撮影によって取得されると推定されるシミュレーション画像を入力し、
    前記シミュレーション画像に対する補正処理を行い、前記撮影画像との差分が小さくなる補正シミュレーション画像を選択し、前記補正シミュレーション画像に適用した補正データに基づいて、前記レンズレスカメラにおける画像復元処理に適用可能なカメラ固有データを生成するキャリブレーション処理を実行する画像処理装置。
  14. 前記カメラ固有データは、
    前記レンズレスカメラのマスクの画像センサに対する位置関係データを含む請求項13に記載の画像処理装置。
  15. 前記カメラ固有データは、
    (a)前記レンズレスカメラのマスクの画像センサに対する位置関係データMp、
    (b)前記画像センサの分光感度特性データSp、
    上記の各データを含む請求項13に記載の画像処理装置。
  16. 前記画像処理装置は、
    前記レンズレスカメラと前記点光源との距離を変更して得られる距離対応の撮影画像とシミュレーション画像を利用した処理を実行し、異なる被写体距離対応のカメラ固有データ、またはイメージング行列F、または補正行列を生成する請求項13に記載の画像処理装置。
  17. 光の透過領域と不透過領域を2次元パターンとして設定したマスクと、
    前記マスクを介した光を受光する画像センサとからなる撮像部と、
    前記撮像部の光軸前方の1つの点光源の撮影によって得られる撮影画像と、基準画像との比較処理によって生成されたカメラ固有データを格納したメモリと、
    前記画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、
    前記信号処理部は、
    前記メモリに格納された前記カメラ固有データを適用した画像処理により前記復元画像の生成を行う撮像装置。
  18. 画像処理装置において実行する画像処理方法であり、
    前記画像処理装置は、レンズレスカメラの画像センサの出力である撮影画像を入力して復元画像を生成する信号処理部を有し、
    前記信号処理部が、
    少なくとも前記レンズレスカメラのマスクと画像センサとの位置関係情報に基づいて生成されるカメラ固有データを適用した画像処理により、前記復元画像の生成を行う画像処理方法。
  19. 画像処理装置において実行するレンズレスカメラのキャリブレーション処理を行う画像処理方法であり、
    前記画像処理装置が、レンズレスカメラの光軸前方の1つの点光源の撮影によって得られる撮影画像と、
    前記レンズレスカメラのマスクと画像センサとの位置関係が基準位置にある場合に、レンズレスカメラの光軸前方の1つの点光源の撮影によって取得されると推定されるシミュレーション画像を入力し、
    前記シミュレーション画像に対する補正処理を行い、前記撮影画像との差分が小さくなる補正シミュレーション画像を選択し、前記補正シミュレーション画像に適用した補正データに基づいて、前記レンズレスカメラにおける画像復元処理に適用可能なカメラ固有データを生成するキャリブレーション処理を実行する画像処理方法。
JP2020505655A 2018-03-14 2019-01-29 画像処理装置、および撮像装置、並びに画像処理方法 Active JP7215473B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018046496 2018-03-14
JP2018046496 2018-03-14
PCT/JP2019/003031 WO2019176349A1 (ja) 2018-03-14 2019-01-29 画像処理装置、および撮像装置、並びに画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2019176349A1 JPWO2019176349A1 (ja) 2021-03-11
JP7215473B2 true JP7215473B2 (ja) 2023-01-31

Family

ID=67907778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020505655A Active JP7215473B2 (ja) 2018-03-14 2019-01-29 画像処理装置、および撮像装置、並びに画像処理方法

Country Status (5)

Country Link
US (1) US11399134B2 (ja)
EP (1) EP3767941A4 (ja)
JP (1) JP7215473B2 (ja)
CN (1) CN111869195B (ja)
WO (1) WO2019176349A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7363765B2 (ja) * 2018-03-06 2023-10-18 ソニーグループ株式会社 画像処理装置、および撮像装置、並びに画像処理方法
JP7468546B2 (ja) 2019-12-03 2024-04-16 ソニーグループ株式会社 撮像装置の製造装置、および撮像装置の製造方法、並びに撮像装置
WO2023127509A1 (ja) * 2021-12-27 2023-07-06 ソニーグループ株式会社 調整装置および調整装置の作動方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008527944A (ja) 2005-01-18 2008-07-24 リアデン リミテッド ライアビリティ カンパニー 符号化レンズ結像技術を用いて静止画像及び映像を取り込むための装置及び方法
JP2008542863A (ja) 2005-05-23 2008-11-27 キネテイツク・リミテツド 符号化開口画像システム
WO2017145348A1 (ja) 2016-02-26 2017-08-31 株式会社日立製作所 撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7767949B2 (en) 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
US8009340B2 (en) * 2007-01-30 2011-08-30 Celloptic, Inc. Apparatus and method for recording fresnel holograms
US8558182B2 (en) 2009-10-09 2013-10-15 University Of Rochester Optical element, device, method, and applications
US20130201297A1 (en) * 2012-02-07 2013-08-08 Alcatel-Lucent Usa Inc. Lensless compressive image acquisition
JP6549240B2 (ja) 2015-01-29 2019-07-24 ウィリアム マーシュ ライス ユニバーシティWilliam Marsh Rice University 一つ以上の減衰層を有するイメージセンサを使用したレンズ無しイメージングシステム
US20180035046A1 (en) * 2016-07-29 2018-02-01 Xin Yuan Block-based lensless compressive image acquisition
JP6713549B2 (ja) * 2016-12-27 2020-06-24 富士フイルム株式会社 撮像装置及び撮像モジュール
WO2018221019A1 (ja) * 2017-06-01 2018-12-06 富士フイルム株式会社 画像処理装置、撮像システム、画像処理方法、及び記録媒体
EP3633968A4 (en) * 2017-06-01 2020-06-03 FUJIFILM Corporation IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING SYSTEM, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008527944A (ja) 2005-01-18 2008-07-24 リアデン リミテッド ライアビリティ カンパニー 符号化レンズ結像技術を用いて静止画像及び映像を取り込むための装置及び方法
JP2008542863A (ja) 2005-05-23 2008-11-27 キネテイツク・リミテツド 符号化開口画像システム
WO2017145348A1 (ja) 2016-02-26 2017-08-31 株式会社日立製作所 撮像装置

Also Published As

Publication number Publication date
EP3767941A1 (en) 2021-01-20
US11399134B2 (en) 2022-07-26
CN111869195B (zh) 2022-07-08
US20210044746A1 (en) 2021-02-11
WO2019176349A1 (ja) 2019-09-19
JPWO2019176349A1 (ja) 2021-03-11
EP3767941A4 (en) 2021-05-05
CN111869195A (zh) 2020-10-30

Similar Documents

Publication Publication Date Title
JP7215473B2 (ja) 画像処理装置、および撮像装置、並びに画像処理方法
Arguello et al. Shift-variant color-coded diffractive spectral imaging system
US7577309B2 (en) Direct vision sensor for 3D computer vision, digital imaging, and digital video
JP4249627B2 (ja) 多重焦点非球面レンズを使用して拡大焦点距離を得る撮像
CN103685920A (zh) 图像处理设备及方法以及具有图像处理设备的摄像设备
US20100118142A1 (en) Image photographing apparatus, its distance arithmetic operating method, and in-focus image obtaining method
JP6172495B2 (ja) 校正装置、装置、プロジェクタ、3次元スキャナ、校正方法、方法、プログラム、及び記憶媒体
Bacca et al. Deep coded aperture design: An end-to-end approach for computational imaging tasks
JP2007513427A (ja) 光学システムおよびデジタルシステムの設計を最適化するシステムおよび方法
JP2006351017A (ja) 電気光学画像システムのエンドツーエンド設計
CN110275291A (zh) 延伸景深生物识别系统
JP2013531268A (ja) 符号化開口を使用した距離の測定
JP2022514580A (ja) 機械学習による光学補正
WO2018142634A1 (ja) 画像処理システム、光学センサ、及び学習装置
Bauer et al. Automatic estimation of modulation transfer functions
JP7363765B2 (ja) 画像処理装置、および撮像装置、並びに画像処理方法
US20190238732A1 (en) Lens apparatus, imaging apparatus, image processing apparatus and method, and storage medium
JP2011133360A (ja) 距離計測装置、距離計測方法、及びプログラム
Hasinoff Variable-aperture photography
US9615022B2 (en) High-resolution imaging devices using low-resolution sensors and compressive sensing exploiting joint sparsity
CN113052294A (zh) 用于模拟第二摄影机物镜的方法及配置方法和电影摄影机
Lin et al. Learning lens blur fields
Damian et al. The evaluation of single-pixel camera resolution
Neto et al. Extended Depth-of-Field Lensless Imaging using an Optimized Radial Mask
RU181750U1 (ru) Цифровое голографическое устройство

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230102

R151 Written notification of patent or utility model registration

Ref document number: 7215473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151