JPWO2019171691A1 - 画像処理装置、および撮像装置、並びに画像処理方法 - Google Patents

画像処理装置、および撮像装置、並びに画像処理方法 Download PDF

Info

Publication number
JPWO2019171691A1
JPWO2019171691A1 JP2020504791A JP2020504791A JPWO2019171691A1 JP WO2019171691 A1 JPWO2019171691 A1 JP WO2019171691A1 JP 2020504791 A JP2020504791 A JP 2020504791A JP 2020504791 A JP2020504791 A JP 2020504791A JP WO2019171691 A1 JPWO2019171691 A1 JP WO2019171691A1
Authority
JP
Japan
Prior art keywords
image
restored
matrix
roi
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020504791A
Other languages
English (en)
Other versions
JP7363765B2 (ja
Inventor
小柳津 秀紀
秀紀 小柳津
イリヤ レシェトウスキ
イリヤ レシェトウスキ
厚史 伊藤
厚史 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2019171691A1 publication Critical patent/JPWO2019171691A1/ja
Application granted granted Critical
Publication of JP7363765B2 publication Critical patent/JP7363765B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/58Optics for apodization or superresolution; Optical synthetic aperture systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • G02B5/3025Polarisers, i.e. arrangements capable of producing a definite output polarisation state from an unpolarised input state
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B2207/00Coding scheme for general features or characteristics of optical elements and systems of subclass G02B, but not including elements and systems which would be classified in G02B6/00 and subgroups
    • G02B2207/129Coded aperture imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

レンズレスカメラの撮影画像の画角制御を可能とし、撮影領域の一部からなる復元画像を生成する構成を実現する。レンズレスカメラの画像センサの出力である観測画像信号を入力して、レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有する。信号処理部は、復元画像の生成に適用する復元画像領域対応マスクマトリックスを計算する復元画像領域対応マスクマトリックス計算部と、観測画像信号から、復元画像領域に含まれない復元画像領域外観測画像信号を減算して、復元領域内観測画像信号を算出し、復元領域内観測画像信号と、復元画像領域対応マスクマトリックスの疑似逆行列または逆行列との演算処理により復元画像を生成する画像推定部を有する。

Description

本開示は、画像処理装置、および撮像装置、並びに画像処理方法に関する。特に、レンズレスカメラ(レンズレス撮像装置)の撮影画像の画角制御を可能とし、撮影領域の一部からなる復元画像を生成する画像処理装置、および撮像装置、並びに画像処理方法に関する。
近年、レンズを利用せずに画像を撮影可能としたレンズレスカメラの開発が進んでいる。従来の一般的なカメラは、レンズを介した光を撮像素子である画像センサに入力して画像を撮影するが、レンズレスカメラは、レンズの代わりに光の透過領域と不透過領域を2次元パターンとして設定したマスクを用い、マスクを介した光を画像センサに入力する。画像センサにはマスクを介した像が撮影される。このマスクを介した撮像データに対して、所定の信号処理を行うことで、一般的なカメラと同様の撮影シーンに対応する2次元画像を生成することができる。レンズレスカメラは、レンズが不要であるため、撮像装置の小型化、軽量化が実現される。
上述したように、レンズレスカメラは、マスクを介した光を画像センサに入力する。シーン(撮影シーン)からの放射光が、マスクを通してどのようにセンサ上に投影されるかの情報を、あらかじめマトリックスとして定義しておき、そのマトリックスとセンサ上に投影された画像(観測画像)から、実際のシーンを再現した画像(復元画像)を生成するものである。
なお、レンズレスカメラについては、例えば、以下の文献に記載がある。
特許文献1(国際公開WO2012/040192号公報)。
レンズレスカメラの画像センサ上に投影された画像(観測画像)から、実際のシーンを再現した画像(復元画像)を生成する撮影画像の再構成処理としては、例えば以下の処理が行われる。撮影シーンの放射光を3次元上の複数のサンプリングポイントの輝度値で表現し、マスクを介して画像センサ上に投影されるセンサ観測値の組を、シミュレーションなどで複数組、予め求める。
さらに、それらの組からマスクを表現するマスクマトリックスを計算する。このマスクマトリックスの逆行列を求め、この逆行列を、観測値、すなわちレンズレスカメラの画像センサの画素値に適用して、撮影シーンを構成するサンプリングポイント毎の輝度値を復元する。サンプリングポイント毎の輝度値は、撮影シーンの画像を示す輝度値となる。
3次元上のP個のサンプリングポイントから放射される光を、長さPのシーン放射光ベクトルxとして表記し、それを受光する画素数Nの2次元センサの観測値を、長さNのシーン観測値ベクトルyとして表現すると、その関係は、
y=Mx
と表す事ができる。ここで、Mはマスクの透過関数を表すマトリックス、すなわちマスクマトリックス(マスク行列)である。
シーンの放射光を再現するには、この式の関係を満たすxを、レンズレスカメラのセンサ観測値yから求めれば良い。再現されるシーンの解像度は、シーンを構成する3次元上のサンプリングポイントの数Pを大きくすることで向上させることができる。ただし、シーン放射光ベクトルxを推定する時間が長くなり、画像の再構成に時間を要することになる
上記式、y=Mxは、レンズレスカメラのセンサに入射する全ての光がセンサ上に重畳されることを示しており、復元される画像の画角(FOV:Field Of View)は、非常に広いものとなる。
国際公開WO2012/040192号公報
レンズレスカメラの画角(FOV)は広いため、シーン全体を表現するサンプリングポイント数Pが多くなる。しかし、カメラとして使用する場合、ある程度、FOVを狭めて、撮影範囲を限定したいといった場合も多い。撮影画像の一部のみを切り出すことも可能であるが、その場合、解像度が低下してしまうという問題が発生する。
また、上述したように、撮影画像として再現可能な3次元上のサンプリングポイント数Pを増やすことで解像度を上げるという方法もあるが、画像の再構成時間が増大するため、実用的ではないという問題がある。
本開示は、例えば、上記の問題点に鑑みてなされたものであり、解像度の低下や計算量の増大を発生させることなく、レンズレスカメラによる撮影画像の画角(FOV)を変更可能とした画像処理装置、および撮像装置、並びに画像処理方法を提供することを目的とする。
本開示の第1の側面は、レンズレスカメラの画像センサの出力である観測画像信号を入力して、前記レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、前記信号処理部は、前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と、前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する画像処理装置にある。
さらに、本開示の第2の側面は、光の透過領域と不透過領域を2次元パターンとして設定したマスクと、前記マスクを介した光を受光する画像センサとからなる撮像部と、前記画像センサの出力である観測画像信号を入力して、前記撮像部の撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、前記信号処理部は、前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する撮像装置にある。
さらに、本開示の第3の側面は、画像処理装置において実行する画像処理方法であり、前記画像処理装置は、レンズレスカメラの画像センサの出力である観測画像信号を入力して、前記レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、前記信号処理部が、前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する画像処理方法にある。
なお、本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、レンズレスカメラの撮影画像の画角制御を可能とし、撮影領域の一部からなる復元画像を生成する構成が実現される。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
レンズレスカメラの撮影原理について説明する図である。 レンズレスカメラの撮影原理について説明する図である。 レンズレスカメラのマスクの一例について説明する図である。 レンズレスカメラの撮影処理例について説明する図である。 レンズレスカメラの画角設定例について説明する図である。 レンズレスカメラの画角設定例について説明する図である。 レンズレスカメラの撮影画像に対する信号処理を行う画像処理装置の構成と処理について説明する図である。 レンズレスカメラの撮影画像に対する信号処理の一例について説明する図である。 信号処理部のマスクマトリックス計算部の実行する処理シーケンスについて説明するフローチャートを示す図である。 信号処理部の画像推定部の実行する処理シーケンスについて説明するフローチャートを示す図である。 画像推定部の実行する処理の一例について説明する図である。 画像推定部の実行する処理の一例について説明する図である。 画像推定部の実行する処理の一例について説明する図である。 画像推定部の実行する処理の一例について説明する図である。 サンプリングポイントの設定と撮影画像について説明する図である。 サンプリングポイントの設定と撮影画像について説明する図である。 サンプリングポイントの設定と撮影画像について説明する図である。 局所的解像度変更画像を取得するためのサンプリングポイントの設定と撮影画像について説明する図である。 局所的解像度変更画像を取得するためのサンプリングポイントの設定と撮影画像について説明する図である。 各波長単位の画像を取得するための処理例について説明する図である。 画像処理装置のハードウェア構成例について説明する図である。
以下、図面を参照しながら本開示の画像処理装置、および撮像装置、並びに画像処理方法の詳細について説明する。なお、説明は以下の項目に従って行う。
1.レンズレスカメラの概要と原理について
2.レンズレスカメラにおける画角設定について
3.本開示の画像処理装置の構成と処理について
4.マスクマトリックス計算部におけるマスクマトリックス計算処理の詳細シーケンスについて
5.画像推定部における画像推定処理の詳細シーケンスについて
6.サンプリングポイント設定例と画像生成例について
7.部分的に解像度を向上させた画像の生成処理例について
8.サンプリングポイントからの放射光を波長方向に分光する処理例について
9.本開示の画像処理の効果について
10.画像処理装置のハードウェア構成例について
11.本開示の構成のまとめ
[1.レンズレスカメラの概要と原理について]
まず、レンズレスカメラの概要と原理について説明する。
図1、図2を参照して、一般的なカメラ(撮像装置)の構成との比較により、レンズレスカメラ(レンズレス撮像装置)の概要について説明する。
図1には、
(a)レンズレスカメラ
(b)レンズありカメラ
(c)ピンホールカメラ
これらの3種類のカメラの撮像原理を示している。
(c)ピンホールカメラは、遮光膜12に対して穴部として設けられたピンホール21と画像センサ(個体撮像素子)11から構成される。ピンホールからなる撮像装置の場合、図1右下部の(c)ピンホールカメラの図に示すように、被写体面上のそれぞれ異なる光源から発せられる光線L1乃至L3が、それぞれピンホール21を透過して画像センサ(個体撮像素子)11上の画素I1乃至I3に像として撮像される。
ピンホールカメラからなる撮像装置の場合、画像センサ(個体撮像素子)11においては、光源のそれぞれから発せられた光線L1乃至L3のうちの1画素分の光線のみにより、像が結像されて画像センサ(個体撮像素子)11上の各画素に入射されることになるので暗い画像として撮像される。
図1右上部の(b)レンズありカメラは、遮光膜31の中央に撮像レンズ32を設け、撮像レンズ32が、光線L1乃至L3を、光線I11乃至I13で示されるように集光し、画像センサ(個体撮像素子)11上にそれぞれの像を結像し、これが画像センサ(個体撮像素子)11により撮像される設定としている。
図1右上部の(b)レンズありカメラの場合、画像センサ(個体撮像素子)11は、光線L1乃至L3の全ての光強度の合計である光強度の光からなる像が結像されて画像センサ(個体撮像素子)11に入射されるので、画像センサ(個体撮像素子)11の各画素において十分な光量の画像が撮像される。
図1右上部の(b)レンズありカメラの図に示すように、撮像レンズ32を用いることにより、点光源のそれぞれの集合が被写体を構成することになる。従って、被写体の撮像は、被写体面上の複数の点光源から発せられる光線が集光されて結像される被写体を撮像することになる。
図1右上部の(b)レンズありカメラを参照して説明したように、撮像レンズ32の役割は点光源のそれぞれから出射される各光線、即ち拡散光を、画像センサ(個体撮像素子)11上に導くことにある。そのため、画像センサ(個体撮像素子)11上には最終画像相当の像が結像されることとなり、画像センサ(個体撮像素子)11上の各画素において検出される検出信号からなる画像が、像が結像された観測画像となる。
しかしながら、撮像レンズと撮像レンズの焦点距離によって撮像装置(撮像素子)のサイズが決定されるため、小型化には限界があった。
これに対して、図1左側に示す(a)レンズレスカメラは、撮像レンズやピンホールを設けることなく、画像センサ(個体撮像素子)11とマスク51を用いて、被写体面上の被写体を撮像する。
図1左側に示す(a)レンズレスカメラは、画像センサ11の前段に複数のサイズの開口部51aを備えたマスク51が設けられており、光源のそれぞれからの光線L1乃至L3が変調されて画像センサ11の撮像面に入射し、画像センサ(個体撮像素子)11上の各画素により受光される。
ここで、マスク51は、開口部51aと遮光部51bとが、図1(a)レンズレスカメラの下部に示すように、単位サイズΔの単位で水平方向および垂直方向について、大きさがランダムに設定されたマスクパターンを持つマスクである。単位サイズΔは、少なくとも画素サイズよりも大きいサイズである。また、画像センサ11とマスク51との間には、微小な距離dの隙間が設けられている。図に示す例では、画像センサ11上の画素間のピッチがwとされている。
このような構成により、単位サイズΔと距離dとのサイズにより光線L1乃至L3は、画像センサ11上に変調されて入射する。
より詳細には、図1(a)レンズレスカメラの上図における光線L1乃至L3の光源を、例えば、図2の左上部に示すように、点光源PA,PB,PCとし、マスク51を透過して入射する画像センサ11上の位置Pa,Pb,Pcのそれぞれに光強度a,b,cの光線が入射するものとする。
レンズレスカメラの場合、図2左上部に示すように、各画素の検出感度は、マスク51に、ランダムに設定される開口部51aより入射光が変調されることにより、入射角に応じた指向性を持つことになる。ここでいう各画素の検出感度に入射角指向性を持たせるとは、画像センサ11上の領域に応じて入射光の入射角度に応じた受光感度特性を異なるものとなるように持たせることである。
すなわち、被写体面71を構成する光源が点光源であることを前提とした場合、画像センサ11においては、同一の点光源より発せられた同一の光強度の光線が、入射されることになるが、マスク51により変調されることにより、画像センサ11の撮像面上の領域毎に入射角度が変化する。そして、マスク51により画像センサ11上の領域に応じて入射光の入射角度が変化することにより受光感度特性、すなわち、入射角指向性を有しているので、同一の光強度の光線であっても、画像センサ11の撮像面の前段に設けられたマスク51により画像センサ11上の領域毎に異なる感度で検出されることになり、領域毎に異なる検出信号レベルの検出信号が検出される。
より具体的には、図2の右上部で示されるように、画像センサ11上の位置Pa,Pb,Pcにおける画素の検出信号レベルDA,DB,DCは、それぞれ以下の式(1)乃至式(3)で表される。
DA=α1×a+β1×b+γ1×c ・・・(1)
DB=α2×a+β2×b+γ2×c ・・・(2)
DC=α3×a+β3×b+γ3×c ・・・(3)
ここで、α1は、画像センサ11上の位置Paにおける復元する被写体面71上の点光源PAからの光線の入射角度に応じて設定される検出信号レベルaに対する係数である。また、β1は、画像センサ11上の位置Paにおける復元する被写体面71上の点光源PBからの光線の入射角度に応じて設定される検出信号レベルbに対する係数である。さらに、γ1は、画像センサ11上の位置Paにおける復元する被写体面71上の点光源PCからの光線の入射角度に応じて設定される検出信号レベルcに対する係数である。
従って、検出信号レベルDAのうちの(α1×a)は、位置Pcにおける点光源PAからの光線による検出信号レベルを示す値となる。また、検出信号レベルDAのうちの(β1×b)は、位置Pcにおける点光源PBからの光線による検出信号レベルを示す値となる。さらに、検出信号レベルDAのうちの(γ1×c)は、位置Pcにおける点光源PCからの光線による検出信号レベルを示す値となる。
従って、検出信号レベルDAは、位置Paにおける点光源PA,PB,PCの各成分に、それぞれの係数α1,β1,γ1を掛けたものの合成値として表現される。
以降、係数α1、β1、γ1を合わせて係数セットと呼ぶこととする。
同様に、点光源PBにおける検出信号レベルDBについて、係数セットα2,β2,γ2は、それぞれ点光源PAにおける検出信号レベルDAについての、係数セットα1,β1,γ1に対応するものである。また、点光源PCにおける検出信号レベルDCについて、係数セットα3,β3,γ3は、それぞれ点光源PAにおける検出信号レベルDAについての、係数セットα1,β1,γ1に対応するものである。
ただし、位置Pa,Pb,Pcの画素の検出信号レベルについては、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cと係数との積和により表現される値である。このため、これらの検出信号レベルは、点光源PA,PB,PCのそれぞれより発せられた光線の光強度a,b,cが入り交じったものとなるので、被写体の像が結像されたものとは異なるものである。
すなわち、この係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3と、検出信号レベルDA,DB,DCを用いた連立方程式を構成し、光強度a,b,cを解くことで、図1の右下部で示されるように各位置Pa,Pb,Pcの画素値を求める。これにより画素値の集合である復元画像(最終画像)が再構成されて復元される。
また、図2の左上部で示される画像センサ11と被写体面71との距離が変化する場合、係数セットα1,β1,γ1,係数セットα2,β2,γ2,係数セットα3,β3,γ3は、それぞれ変化することになるが、この係数セットを変化させることで、様々な距離の被写体面の復元画像(最終画像)を再構成させることができる。
このため、1回の撮像により、係数セットを様々な距離に対応するものに変化させることで、撮像位置から様々な距離の被写体面の画像を再構成することができる。
結果として、レンズレスカメラを用いた撮像においては、レンズを用いた撮像装置での撮像において合焦点がずれた状態で撮像される、いわゆる、ピンぼけといった現象を意識する必要がなく、画角内に撮像したい被写体が含まれるように撮像されていれば、距離に応じた係数セットを変化させることで様々な距離の被写体面の画像を、撮像後に再構成することができる。
なお、図2の右上部に示す検出信号レベルは、被写体の像が結像された画像に対応する検出信号レベルではないので、画素値ではない。また、図2の右下部に示す検出信号レベルは、被写体の像が結像された画像に対応する画素毎の信号値、すなわち、復元画像(最終画像)の各画素の値なので、画素値となる。
このような構成により、撮像レンズや、ピンホールを必要としない、いわゆるレンズレスカメラを実現することが可能となる。結果として、撮像レンズや、ピンホール等が必須構成とならないので、撮像装置の低背化、すなわち、撮像機能を実現する構成における光の入射方向に対する厚さを薄くすることが可能になる。また、係数セットを様々に変化させることにより、様々な距離の被写体面における復元画像(最終画像)を再構成して復元することが可能となる。
なお、以降においては、画像センサにより撮像された、再構成される前の画像を単に観測画像と称し、観測画像が信号処理されることにより再構成されて復元される画像を復元画像(最終画像)と称する。従って、1枚の観測画像からは、上述した係数セットを様々に変化させることにより、様々な距離の被写体面71上の画像を最終画像として再構成させることができる。
図3は、レンズレスカメラにおける撮像素子の構成例を示す図である。上部がマスク51の上面図であり、下部がマスク51と画像センサ(固体撮像素子)11とを側面上方からみた斜視図である。
一般的なレンズレスカメラの撮像素子は、例えば、図3に示すように、マスク51における開口部51aの単位サイズが、全領域に対して一様に設定されて、画像センサ11においては、マスク51を透過した光より全体として1枚の画像が撮像される。
[2.レンズレスカメラにおける画角設定について]
次に、レンズレスカメラにおける画角設定について説明する。図4は、レンズレスカメラ80の概略構成を示す図である。図4に示すようにレンズレスカメラ80は、画像センサ81の前にマスク82を配置した構成を持つ。マスク82は、光の透過領域と不透過領域を2次元パターンとして設定したマスクである。このマスク82を介した光を画像センサに入力する。
図4では、被写体85の撮影を行い、被写体画像が復元された復元画像(最終画像)87を出力する構成例を示している。なお、画像センサ(固体撮像素子)81により撮像された再構成される前の画像が観測画像86であり、信号処理部83が観測画像86に対して信号処理を行うことで再構成されて復元される画像が復元画像(最終画像)87である。復元画像(最終画像)87は、通常のレンズ装着カメラと同様、撮影シーンの被写体を含む画像となる。
画像センサ81にはマスク82を介した像(観測画像86)が撮影される。マスク82を介した撮像データ、すなわち画像センサ1上の観測画像86が信号処理部83に入力される。信号処理部83は、画像センサ81上の観測画像86に対して、所定の信号処理を行うことで、一般的なカメラと同様の撮影シーンに対応する2次元画像としての復元画像(最終画像)87を生成する。
撮影対象領域の3次元上のP個のサンプリングポイントから放射される光を、長さPのシーン放射光ベクトルxとして表記し、それを受光する画素数Nの画像センサ81の観測値を長さNのシーン観測値ベクトルyとして表現すると、その関係は、
y=Mx
上記関係式を用いて表すことができる。ここで、Mはマスク82の透過関数を表すマトリックスである。
被写体の撮影画像(=シーンの放射光)を再現するには、この式の関係を満たすxを、センサ観測値yから求めれば良い。信号処理部83は、画像センサ81から入力するセンサ観測値yに対して、マスク82の透過関数を表すマトリックスの逆行列によって構成されるマトリックスを乗算して、シーン放射光ベクトルxを算出し、被写体85を含む復元画像(最終画像)87を構成する画素値を算出する処理を行う。
なお、マスク82を通して画像センサ81上に投影されるセンサ観測値の組を、シミュレーションなどで複数組求めておき、それらの組からマスク82の特性(透過関数)を表現するマスクマトリックスを予め計算しておく。信号処理部83は、このマトリックスの逆行列を適用して、画像センサ81から入力するセンサ観測値yに基づいて、撮影対象領域のサンプリングポイント毎の輝度値を復元した復元画像(最終画像)87を生成する。
シーンの放射光を再現するには、上記式、すなわち、
y=Mx
この関係を満たすxを、センサ観測値yから求めれば良い。xは、サンプリングポイント毎の放射光ベクトルによって構成される。すなわち撮影シーンを構成するポイント単位の放射光であり、このサンプリングポイント毎の放射光ベクトルを2次元平面に展開した値が復元画像(最終画像)87の構成画素値に対応する。
復元画像(最終画像)87として再現されるシーンの解像度は、シーンを構成する3次元上のサンプリングポイントの数Pを大きくすることで向上させることができる。ただし、サンプリングポイント数Pを大きくすると、シーン放射光ベクトルxを推定する時間が長くなり、画像の再構成、すなわち復元画像(最終画像)87にの生成処理に時間を要することになる
上記式、y=Mxは、センサに入射する全ての光がセンサ上に重畳されることを示しており、復元される画像の画角(FOV:Field Of View)は、非常に広いものとなる。
レンズレスカメラの画角(FOV)は広いため、シーン全体を表現するサンプリングポイント数が多くなる。しかし、カメラとして使用する場合、ある程度、FOVを狭めて、撮影範囲を限定したいといった場合も多い。
具体例について図5を参照して説明する。図5には、レンスズレスカメラ(レンズレス撮像装置)80による画像撮影例として、
(a)画角を広くした設定の撮影画像例
(b)画角を狭くした設定の撮影画像例
これらの2つの画像撮影例を示している。ユーザ(画像撮影者)は、図5(b)に示すように、特定の被写体、例えば人の領域のみを撮影範囲として限定した画像を撮影したい場合がある。このようにレンズレスカメラ80の画角(FOV)を調整して様々な領域の画像を撮影したい場合がある。
このための処理としては、撮影画像の一部のみを切り出すことも可能であるが、その場合、解像度が低下してしまうという問題が発生する。
また、上述したように、撮影画像として再現可能な3次元上のサンプリングポイント数Pを増やすことで解像度を上げるという方法もあるが、画像の再構成時間が増大するため、実用的ではないという問題がある。
画角(FOV)のための別の方法としては、図6に示すように、画像センサ81とマスク82の距離を変えて、画像センサ81に入射する光をハードウェア的に制限する方法もある。
図6(a)は、画像センサ81とマスク82の距離(L1)を小さく設定して、画角を大きくした設定例である。一方、図6(b)は、画像センサ81とマスク82の距離(L2)を大きく設定して、画角を小さくした設定例である。
画像センサ81とマスク82の距離(L1)を小さくした図6(a)の設定に対して、画像センサ81とマスク82の距離(L2)を大きくした図6(b)の設定では、画像センサ81に入射する光の角度が狭くなるため、撮影画像の画角が小さくなる。すなわち狭い領域の画像を撮影することができる。図6に示す制御は、望遠カメラと同じ効果を発生させるものである。
この図6に示す例では、サンプリングポイントの位置をハードウェア的に制限されたものに限定する事で、解像度を保ったまま画角(FOV)を狭めることが可能である。しかし、この方法はあらかじめ決められた画角を設定する事はできるが、ズームレンズを実現するためには、マスクを動かすためのハードウェアが必要となり、マスクの位置の分だけ、カメラモジュールの高さが高くなってしまうという課題がある。
なお、複数枚のLCDをセンサ前に配置する事で、任意の方向から光の透過/不透過を制御することは可能である。複数レイヤのLCDを制御する事で、パンティルトや、複数のROIだけを画面上に投影させることも可能である。特許文献1には、センサ前にMEMSアレイフィルタを配置し、光の透過/不透過を切り替える事で、FOVを変える手法が示されている。しかしこれらの方法はいずれも、付加的なハードウェアを必要としており、サイズやコストの増加がまぬがれない。また、マスクとして光学的なフィルタを用いているが、透過波長域以外の対策は示されておらず、例えば、遠赤外線域に対応する適切なフィルタについては言及されていなかった。
[3.本開示の画像処理装置の構成と処理について]
次に、図7以下を参照して、本開示の画像処理装置の構成と処理について説明する。
図7は、本開示の画像処理装置100の一構成例を示す図である。画像処理装置100は、レンズレスカメラ(レンズレス撮像装置)102の撮影画像を入力して、所定の画角(FOV:Field Of View)に設定された復元画像を生成して出力する信号処理部101を有する。
例えば、信号処理部101は、レンズレスカメラ102の画像センサの出力である観測画像信号を入力して、レンズレスカメラ101の撮影画像領域の一部からなる復元画像領域の復元画像を生成する。
レンズレスカメラ102は、図4や図6を参照して説明した画像センサ81とマスク82によって構成されるカメラである。なお、図6を参照して説明したような画像センサ81とマスク82との距離を制御可能な構成ではなく、画像センサ81とマスク82との距離は固定されている。
信号処理部101は、レンズレスカメラ102の出力である撮影画像(観測値yall)を入力する。撮影画像(観測値yall)は、レンズレスカメラ102のマスクを介して受光する受光量に応じた画像センサ上の画素値である。
信号処理部101は、この入力画像(撮影画像(観測値yall))に対する信号処理を実行して、所定の画角(FOV:Field Of View)に設定された復元画像(x^roi)を出力する。なお、(x^)は、xの上部に(^)が設定された文字を意味する。以下の説明においても同様である。他の文字でも同様であり、例えば(y^)は、yの上部に(^)が設定された文字を意味する。
画角(FOV)は、ユーザが自由に設定可能である。レンズレスカメラ102の出力である撮影画像(観測値yall)110は、ユーザの設定する画角とは無関係の1つの固定された画角での撮影画像である。
信号処理部101は、
(入力1)レンズレスカメラ102の出力である撮影画像(観測値yall)110、
(入力2)出力する復元画像(x^roi)の画角設定情報に相当する「復元画像領域対応ROI(Region Of Interest)情報」Rroi
これらの情報を入力して、
(出力1)所定の画角(FOV)に設定された復元画像(x^roi)、
この出力情報を生成して出力する。
出力データである復元画像(x^roi)に示す(x^roi)は、所定の画角内の撮影シーン(ROI)に含まれるサンプリングポイントx各々の放射光に相当する。すなわち復元画像(x^roi)は、撮影シーンの被写体像を再現した画像であり、通常のレンズありカメラによって撮影された画像と同様の画像である。
信号処理部101は、
撮影画像領域対応ROI情報(Rall)104、
マスク情報(I)105、
カメラ構成情報(I)106、
これらの情報を記憶部に保持している。なお、図7では、これらの情報を格納した記憶部を信号処理部101内部に示しているが、これらの記憶部は信号処理部101の外部に設定してもよい。
さらに、データ処理部として、
撮影画像領域対応マスクマトリックス(Mall)計算部107、
復元画像領域対応マストマトリックス(Mroi)計算部108、
画像推定部109を有する。
撮影画像領域対応マスクマトリックス(Mall)計算部107は、レンズカメラ102の画像センサに撮影される撮影画像全体(全ROI)に対応するマスクマトリックス(Mall)を計算する。マスクマトリックス(Mall)は、先に説明したマスクの透過関数を表すマトリックスである。
すなわち、撮影対象領域の3次元上のP個のサンプリングポイントから放射される光を、長さPのシーン放射光ベクトルxとして表記し、それを受光する画素数Nの画像センサの観測値を長さNのシーン観測値ベクトルyとして表現した場合の関係式、
y=Mx
この関係式を満たすマスクの透過関数を表すマトリックスである。
一方、復元画像領域対応マストマトリックス(Mroi)計算部108は、レンズカメラ102の画像センサに撮影される撮影画像全体(全ROI)ではなく、出力データである復元画像(x^roi)に対応するマスクマトリックス(Mroi)を計算する。すなわち、レンズレスカメラ102の撮影画像領域の一部からなる復元画像領域の復元画像を生成するために適用する復元画像領域対応マスクマトリックスを計算する。
例えば、図8に示すように、レンズレスカメラ102は、固定された画角で撮影画像領域(全ROI)121の画像を撮影する。ここで、信号処理部101の出力する画像は、復元画像領域(復元ROI)122に示す限定された領域の画像であるとする。なお、図8に示す各領域は、3次元領域である。
この3次元領域は、上記の関係式、
y=Mx
この関係式のシーン放射光ベクトルxが計測されるサンプリングポイントの設定領域に相当する。撮影画像領域対応マスクマトリックス(Mall)計算部107は、例えば、図8に示す撮影画像領域(全ROI)121にサンプリングポイントを配置したと仮定した場合の、
y=Mx
上記関係式に適用可能なマスクの透過関数を表すマスクマトリックス(Mall)を算出する。このように、撮影画像領域対応マスクマトリックス(Mall)計算部107は、撮影画像領域(全ROI)121に対応するマスクマトリックス(Mall)を計算する。
一方、復元画像領域対応マストマトリックス(Mroi)計算部108は、復元画像領域(復元ROI)122に対応するマスクマトリックス(Mroi)を計算する。すなわち、、例えば、図8に示す復元画像領域(復元ROI)122にサンプリングポイントを配置したと仮定した場合の、
y=Mx
上記関係式に適用可能なマスクの透過関数を表すマスクマトリックス(Mroi)を算出する。すなわち、レンズレスカメラ102の撮影画像領域の一部からなる復元画像領域の復元画像を生成するために適用する復元画像領域対応マスクマトリックスを計算する。
撮影画像領域対応マスクマトリックス(Mall)計算部107は、
撮影画像領域対応ROI情報(Rall)104、
マスク情報(I)105、
カメラ構成情報(I)106、
これらの情報を入力して、撮影画像領域(全ROI)121に対応するマスクマトリックス(Mall)を計算する。
撮影画像領域対応ROI情報(Rall)104は、例えば、図8に示す撮影画像領域(全ROI)121の設定範囲情報である。さらに、この設定範囲におけるサンプリングポイントの数(P)やサンプリングポイント設定位置(x)情報も記録される。マスク情報(I)105は、マスクの光の透過領域と不透過領域からなる2次元パターン情報等である。
カメラ構成情報(I)106は、マスクと画像センサに関する情報であり、例えば、マスクサイズ、画像センササイズ、画像センサ画素数(N)、マスクとセンサ間の距離情報等である。さらに、撮影画像領域内に設定されるサンプリングポイントの数(P)やサンプリングポイント設定位置(x)情報についても記録される。
撮影画像領域対応マスクマトリックス(Mall)計算部107は、これらの情報を入力して、撮影画像領域(全ROI)121に対応するマスクマトリックス(Mall)を計算する。
一方、復元画像領域対応マストマトリックス(Mroi)計算部108は、復元画像領域(復元ROI)122に対応するマスクマトリックス(Mroi)を計算する。復元画像領域対応マストマトリックス(Mroi)計算部108は、
復元画像領域対応ROI情報(Rroi)103、
マスク情報(I)105、
カメラ構成情報(I)106、
これらの情報を入力して、復元画像領域(復元ROI)122に対応するマスクマトリックス(Mroi)を計算する。
復元画像領域対応ROI情報(Rroi)103は、例えば、図8に示す復元画像領域(復元ROI)122の設定範囲情報である。さらに、この設定範囲におけるサンプリングポイントの数(P)やサンプリングポイント設定位置(x)情報も記録される。この復元画像領域対応ROI情報(Rroi)103は、ユーザが自由に設定可能な復元画像領域に関する情報であり、ユーザは、図示しない入力部を介して、復元画像領域対応ROI情報(Rroi)103の書き込みや更新を行うことが可能である。
マスク情報(I)105は、マスクの光の透過領域と不透過領域からなる2次元パターン情報等である。カメラ構成情報(I)106は、マスクと画像センサの距離、画像センサの画素数(N)情報等である。復元画像領域対応マストマトリックス(Mroi)計算部108は、これらの情報を入力して、復元画像領域(復元ROI)122に対応するマスクマトリックス(Mall)を計算する。
なお、
撮影画像領域対応マスクマトリックス(Mall)計算部107、
復元画像領域対応マストマトリックス(Mroi)計算部108、
これらのマスクマトリックス計算部の実行するマスクマトリックス計算処理の詳細シーケンスについては、図9に示すフローチャートを参照して後段において詳細に説明する。
画像推定部109は、以下の各情報を入力する。(a)レンズレスカメラ102の出力である撮影画像(観測値yall)、
(b)マスク情報(I)105、
(c)カメラ構成情報(I)106、
(d)撮影画像領域対応ROI情報(Rall)104、
(e)復元画像領域対応ROI情報(Rroi)103、
(f)撮影画像領域対応マスクマトリックス(Mall)計算部107の算出した撮影画像領域対応マスクマトリックス(Mall)、
(g)復元画像領域対応マストマトリックス(Mroi)計算部108の算出した復元画像領域対応マストマトリックス(Mroi)、
画像推定部109は、これらの各情報を入力して、所定の画角(FOV:Field Of View)に設定された復元画像(x^roi)を出力する。出力データである復元画像(x^roi)に示す(x^roi)は、所定の画角内の撮影シーン(ROI)、例えば図8に示す復元画像領域(復元ROI)122に含まれるサンプリングポイントx各々の放射光を意味する。
画像推定部109は、例えば、レンズレスカメラ102の画像センサの出力である観測画像信号から、復元画像領域に含まれない復元画像領域外観測画像信号を減算して、復元領域内観測画像信号を算出し、
復元領域内観測画像信号と、復元画像領域対応マスクマトリックスの疑似逆行列または逆行列との演算処理により、レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する。画像推定部109の実行する復元画像生成処理の詳細シーケンスについては、図10に示すフローチャートを参照して後段において詳細に説明する。
[4.マスクマトリックス計算部におけるマスクマトリックス計算処理の詳細シーケンスについて]
次に、図9に示すフローチャートを参照して、
撮影画像領域対応マスクマトリックス(Mall)計算部107、
復元画像領域対応マストマトリックス(Mroi)計算部108、
これらのマスクマトリックス計算部の実行するマスクマトリックス計算処理の詳細シーケンスについて説明する。
なお、先に説明したように、
撮影画像領域対応マスクマトリックス(Mall)計算部107は、例えば図8に示す撮影画像領域(全ROI)121に対応するマスクマトリックス(Mall)を計算する。復元画像領域対応マストマトリックス(Mroi)計算部108は、例えば図8に示す復元画像領域(復元ROI)122に対応するマスクマトリックス(Mall)を計算する。それぞれ、対応領域が異なるのみであり、基本的な処理シーケンスは同じである。図9に示すステップS103のROI情報の取得処理において、取得する情報が異なるのみである。詳細は、以下の各ステップの説明中で説明する。以下、図9に示すフローチャートの各ステップの処理について、順次、説明する。
(ステップS101)
信号処理部101の
撮影画像領域対応マスクマトリックス(Mall)計算部107、
復元画像領域対応マストマトリックス(Mroi)計算部108、
これらは、まず、ステップS101において、マスク情報Iを取得する。なお、以下では、
撮影画像領域対応マスクマトリックス(Mall)計算部107、
復元画像領域対応マストマトリックス(Mroi)計算部108、
これら2つのマスクマトリックス計算部を単にマスクマトリックス計算部として説明する。
ステップS101において取得するマスク情報Iは、先に説明したように、マスクの光の透過領域と不透過領域からなる2次元パターン情報等である。
(ステップS102)
次に、マスクマトリックス計算部は、ステップS102において、カメラ構成情報Iを取得する。カメラ構成情報Iは、マスクと画像センサに関する情報であり、例えば、マスクサイズ、画像センササイズ、画像センサ画素数(N)、マスクとセンサ間の距離情報等である。
(ステップS103)
次に、マスクマトリックス計算部は、ステップS103において、ROI情報を取得する。このステップS103の処理は、
撮影画像領域対応マスクマトリックス(Mall)計算部107、
復元画像領域対応マストマトリックス(Mroi)計算部108、
これらの2つのマスクマトリックス計算部において異なる処理を実行することになる。
撮影画像領域対応マスクマトリックス(Mall)計算部107は、図7に示す撮影画像領域対応ROI情報(Rall)104を取得する。画像領域対応ROI情報(Rall)104は、例えば、図8に示す撮影画像領域(全ROI)121の設定範囲情報、サンプリングポイントの数(P)、設定位置(x)情報等である。すなわち、レンズレスカメラ102の画像センサが図8に示す撮影画像領域(全ROI)121におけるサンプリングポイントの放射光を撮像したと仮定した場合のROI情報である撮影画像領域対応ROI情報(Rall)104を取得する。
一方、復元画像領域対応マストマトリックス(Mroi)計算部108は、図7に示す復元画像領域対応ROI情報(Rroi)103を取得する。復元画像領域対応ROI情報(Rroi)103は、例えば、図8に示す復元画像領域(復元ROI)122の設定範囲情報、サンプリングポイントの数(P)、設定位置(x)情報等である。すなわち、レンズレスカメラ102の画像センサが図8に示す図8に示す復元画像領域(復元ROI)122におけるサンプリングポイントの放射光を撮像したと仮定した場合のROI情報である復元画像領域対応ROI情報(Rroi)103を取得する。
なお、サンプリングポイントの数(P)、設定位置(x)情報は、カメラ構成情報Ic106から取得することも可能である。
(ステップS104)
次に、マスクマトリックス計算部は、ステップS104において、センサ画素数Nと、サンプリングポイントの位置xと、サンプリングポイント数Pを利用して、P×NのマトリックスMを用意し、初期化する。すなわち、
センサ画素数(N)と、
サンプリングポイント数(P)によって規定される
P×Nの要素(行列要素)からなるマトリックス(行列)を生成する。なお、各要素の初期値は例えば0とする。
なお、ここで、
撮影画像領域対応マスクマトリックス(Mall)計算部107と、
復元画像領域対応マストマトリックス(Mroi)計算部108との生成するマトリックスは異なるマトリックスである。
撮影画像領域対応マスクマトリックス(Mall)計算部107は、例えば図8に示す撮影画像領域(全ROI)121に対応するマスクマトリックス(Mall)を計算するために、図8に示す撮影画像領域(全ROI)121にサンプリングポイントを設定したと仮定して、そのサンプリングポイント数Pと、センサ画素数NのP×Nの要素(行列要素)からなるマトリックス(行列)を生成する。
一方、復元画像領域対応マストマトリックス(Mroi)計算部108は、例えば、図8に示す復元画像領域(復元ROI)122に対応するマスクマトリックス(Mroi)を計算するために、図8に示す復元画像領域(復元ROI)122にサンプリングポイントを設定したと仮定して、そのサンプリングポイント数Pと、センサ画素数NのP×Nの要素(行列要素)からなるマトリックス(行列)を生成する。
なお、
撮影画像領域対応マスクマトリックス(Mall)計算部107と、
復元画像領域対応マストマトリックス(Mroi)計算部108との生成するP×Nの要素からなるマトリックスにおいて、
センサ画素数Nは、レンズレスカメラ102の画像センサの画素数(N)であり同一である。
一方、サンプリングポイント数Pは、それぞれ自由に設定可能である。例えば、撮影画像領域対応マスクマトリックス(Mall)計算部107と、復元画像領域対応マストマトリックス(Mroi)計算部108との生成するP×Nの要素からなるマトリックスのサンプリングポイント数Pを、例えば、図8に示す撮影画像領域(全ROI)121と、復元画像領域(復元ROI)122の領域の大きさに比例した設定としてもよいし、いずれも同一のサンプリングポイント数Pとしてもよい。
同一のサンプリングポイント数Pとした場合、復元画像領域(復元ROI)122の復元画像は、サンプリングポイント数Pを領域の大きさに比例した設定とした場合に比較して高解像度の画像とすることができる。前述したように、復元画像の解像度はサンプリングポイント数Pを増加させることで向上させることができる。すなわち、図8に示す復元画像領域(復元ROI)122内に高密度な多くのサンプリングポイントを設定することで、復元画像の解像度を向上させることができる。
(ステップS105〜S106)
ステップS105以下の処理は、ステップS104において生成したマトリックスの各要素の値の設定処理である。
まず、ステップS105〜S106において、値の設定対象とするマトリックスの要素(行列要素)を選択する。最初は、ステップS105〜S106において、P×Nのマトリックスの左上端の要素(p=0,n=0)を選択する。なお、p,nは、P×Nのマトリックスの要素識別インデックスである。
(ステップS107)
次に、マスクマトリックス計算部は、ステップS107おいて、p番目のサンプリングポイントx(p)の光が、マスクを通してセンサ上に投影される時のn画素目のセンサ画素値(y)を求める。この画素値算出処理は、シミュレーション処理、あるいは実測処理によって行うことが可能である。
(ステップS108)
次に、マスクマトリックス計算部は、ステップS108おいて、ステップの処理S107で算出したセンサ画素値(y)、
すなわち、p番目のサンプリングポイントx(p)の光が、マスクを通してセンサ上に投影される時のn画素目のセンサ画素値(y)の値を適用して、
P×Nのマスクマトリックスの選択要素(p=0,n=0)の値として、
y/x(p)
を設定する。
この設定値は、先に説明した関係式、すなわち、撮影対象領域の3次元上のP個のサンプリングポイントから放射される光を、長さPのシーン放射光ベクトルxとして表記し、それを受光する画素数Nの画像センサの観測値を長さNのシーン観測値ベクトルyとした場合の関係式、
y=Mx
この関係式に従った設定値である。
(ステップS109〜S112)
ステップS109〜S114は、値の設定対象とするマトリックスの要素(行列要素)の更新処理と、処理終了判定処理である。ステップS109で、行列要素インデックスnを1つインクリメントして、
ステップS110で、
n<N
を判定し、
n<N
であれば、
新たな行列要素(p,n)について、ステップS107〜S108の処理を実行して、新たな行列要素(p,n)の値を決定する。
さらに、
ステップS111で、行列要素インデックスpを1つインクリメントして、
ステップS112で、
p<P
を判定し、
p<P
であれば、
新たな行列要素(p,n)について、ステップS107〜S108の処理を実行して、新たな行列要素(p,n)の値を決定する。
最終的にステップS112において、
p<P
上記式を満足しないと判定されると、P×Nのマトリックスのすべての要素の値が決定され、マトリックスが完成する。
このフローによって生成されるマスクマトリックスは、
先に説明した関係式、すなわち、撮影対象領域の3次元上のP個のサンプリングポイントから放射される光を、長さPのシーン放射光ベクトルxとして表記し、それを受光する画素数Nの画像センサの観測値を長さNのシーン観測値ベクトルyとした場合の関係式、
y=Mx
この関係式に従ったマスクマトリックスである。
なお、撮影画像領域対応マスクマトリックス(Mall)計算部107が、このフローに従って生成するマスクマトリックスは、撮影画像領域対応マスクマトリックス(Mall)であり、例えば、図8に示す撮影画像領域(全ROI)121に設定したP個のサンプリングポイントの放射光をレンズレスカメラ102の画像センサが受光したと仮定した場合のセンサ画素値(y)との関係式、
y=Mx
この関係式を満たす撮影画像領域対応マスクマトリックス(Mall)である。
一方、復元画像領域対応マストマトリックス(Mroi)計算部108が、このフローに従って生成するマスクマトリックスは、復元画像領域対応マストマトリックス(Mroi)であり、例えば、図8に示す復元画像領域(復元ROI)122に設定したP個のサンプリングポイントの放射光をレンズレスカメラ102の画像センサが受光したと仮定した場合のセンサ画素値(y)との関係式、
y=Mx
この関係式を満たす復元画像領域対応マストマトリックス(Mroi)である。
[5.画像推定部における画像推定処理の詳細シーケンスについて]
次に、図10に示すフローチャートを参照して、
画像推定部109における画像推定処理の詳細シーケンスについて説明する。
先に図7を参照して説明したように、画像推定部109は、
(a)レンズレスカメラ102の出力である撮影画像(観測値yall)、
(b)マスク情報(I)105、
(c)カメラ構成情報(I)106、
(d)撮影画像領域対応ROI情報(Rall)104、
(e)復元画像領域対応ROI情報(Rroi)103、
(f)撮影画像領域対応マスクマトリックス(Mall)計算部107の算出した撮影画像領域対応マスクマトリックス(Mall)、
(g)復元画像領域対応マストマトリックス(Mroi)計算部108の算出した復元画像領域対応マストマトリックス(Mroi)、
画像推定部109は、これらの各情報を入力して、所定の画角(FOV:Field Of View)に設定された復元画像(x^roi)を出力する。出力データである復元画像(x^roi)に示す(x^roi)は、所定の画角内の撮影シーン(ROI)、例えば図8に示す復元画像領域(復元ROI)122に含まれるサンプリングポイントx各々の放射光を意味する。
先に説明したように、画像推定部109は、例えば、復元領域内観測画像信号と、復元画像領域対応マスクマトリックスの疑似逆行列または逆行列との演算処理により、レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する。
以下、図10に示すフローチャートの各ステップの処理について、順次、説明する。
(ステップS201)
信号処理部101の画像推定部109は、まず、ステップS201において、マスク情報Iを取得する。ステップS201において取得するマスク情報Iは、先に説明したように、マスクの光の透過領域と不透過領域からなる2次元パターン情報等である。
(ステップS202)
次に、画像推定部109は、ステップS202において、カメラ構成情報Iを取得する。カメラ構成情報Iは、マスクと画像センサに関する情報であり、例えば、マスクサイズ、画像センササイズ、画像センサ画素数(N)、マスクとセンサ間の距離情報等である。
(ステップS203)
次に、画像推定部109は、ステップS203において、ROI情報を取得する。このステップS203において、画像推定部109は、図7に示す撮影画像領域対応ROI情報(Rall)104と、復元画像領域対応ROI情報(Rroi)103を取得する。画像領域対応ROI情報(Rall)104は、例えば、図8に示す撮影画像領域(全ROI)121におけるサンプリングポイントの設定位置(x)情報である。
すなわち、レンズレスカメラ102の画像センサが図8に示す撮影画像領域(全ROI)121におけるサンプリングポイントの放射光を撮像したと仮定した場合のROI情報である。ROI情報は、再現する3次元領域の内、どの領域を再現するかの範囲を示した情報である。
一方、復元画像領域対応ROI情報(Rroi)103は、例えば、図8に示す復元画像領域(復元ROI)122におけるサンプリングポイントの設定位置(x)情報である。すなわち、レンズレスカメラ102の画像センサが図8に示す復元画像領域(復元ROI)122におけるサンプリングポイントの放射光を撮像したと仮定した場合のROI情報である。
このように、画像推定部109は、ステップS203において、
図7に示す撮影画像領域対応ROI情報(Rall)104と、復元画像領域対応ROI情報(Rroi)103を取得する。
(ステップS204)
次に、画像推定部109は、ステップS204において、センサ画素数Nを取得する。すなわち、レンズレスカメラ102の画像センサのセンサ画素数(N)を取得する。この情報は、例えば、図7に示すカメラ構成情報I106から取得する。
(ステップS205)
次に、画像推定部109は、ステップS205において、サンプリングポイントの位置xと、ポイント数Pを取得する。
すなわち、
サンプリングポイント数(P)と、
各サンプリングポイントの位置(x)、
を取得する。
なお、これらの情報は、例えば、
カメラ構成情報(Ic)106、
撮影画像領域対応ROI情報(Rall)104、
復元画像領域対応ROI情報(Rroi)103、
これらのいずれから各々取得する。
撮影画像領域対応ROI情報(Rall)104からは、撮影画像領域内のサンプリングポイント数(P)と、各サンプリングポイントの位置(x)を取得する。具体的には、例えば、図8に示す撮影画像領域(全ROI)121に設定されたサンプリングポイントの数(P)と、位置(x)を取得する。また、復元画像領域対応ROI情報(Rroi)103からは、復元画像領域内のサンプリングポイント数(P)と、各サンプリングポイントの位置(x)を取得する。具体的には、例えば、図8に示す復元画像領域(復元ROI)122に設定されたサンプリングポイントの数(P)と、位置(x)を取得する。
(ステップS206〜S207)
次に、画像推定部109は、ステップS206において、撮影画像領域対応マスクマトリックス(Mall)計算部107の算出した撮影画像領域対応マスクマトリックス(Mall)の疑似逆行列(M all)を算出する。さらに、ステップS207において、ステップS206で求めた疑似逆行列(M all)を利用して、サンプリングポイントの放射光推定値(x^all)を算出する。サンプリングポイントの放射光推定値(x^all)は、撮影シーン、例えば図8に示す撮影画像領域(全ROI)121に含まれるサンプリングポイントx各々の放射光を意味する。
サンプリングポイントの放射光推定値(x^all)の算出処理の具体例について、図11を参照して説明する。
図11には、
(a)2次元平面データとして表現した撮影画像領域ROI(Rall)201、
(b)撮影画像領域ROI(Rall)201に設定されたサンプリングポイントの放射光(x^all)204、
(c)撮影画像領域対応マスクマトリックス(Mall)202を持つマスク、
(d)撮影画像領域ROI(Rall)201に設定されたサンプリングポイントの放射光(x^all)204を画像センサによって受光した場合のセンサ観測値(画素値)(yall)203、
これらを示している。
すなわち、2次元平面データとして表現した撮影画像領域ROI(Rall)201に設定されたサンプリングポイントの放射光(x^all)204を、撮影画像領域対応マスクマトリックス(Mall)202を持つマスクを介して画像センサによって受光した場合のセンサ観測値(画素値)(yall)203を示している。なお、撮影画像領域ROI(Rall)は、本来、図8を参照して説明したように、3次元領域として設定されるが、3次元領域内の光は、画像センサに平行な2次元平面を通過して、画像センサに入力する。従って、3次元領域として構成される撮影画像領域ROI(Rall)は、図11に示すような2次元平面データとして表現した撮影画像領域ROI(Rall)201に変換して表現することが可能である。放射光を出力するサンプリングポイントも、この2次元平面データとして表現した撮影画像領域ROI(Rall)201内に設定して表現できる。
図11に示すセンサ観測値(画素値)(yall)203は、2次元平面データとして表現した撮影画像領域ROI(Rall)201内に設定されるサンプリングポイントの各位置(xall)からの光、すなわちサンプリングポイントの放射光(x^all)204がマスクを通って写像された値である。従って、
撮影画像領域対応マスクマトリックス(Mall)202と、
センサ観測値(画素値)(yall)203、
これらの値があれば、サンプリングポイントの放射光(x^all)204の推定値を以下に示す算出処理(処理a,b)によって求めることができる。
(処理a)
撮影画像領域対応マスクマトリックス(Mall)計算部107の算出した撮影画像領域対応マスクマトリックス(Mall)の疑似逆行列(M all)を、以下の(式1)に従って算出する。
Figure 2019171691
なお、
allは、撮影画像領域対応マスクマトリックス(Mall)の疑似逆行列、
allは、撮影画像領域対応マスクマトリックス(Mall)の転置行列を示す。また、
(M allall−1は、(M allall)の逆行列を意味する。
(処理b)
撮影画像領域対応マスクマトリックス(Mall)の疑似逆行列(M all)と、
センサ観測値(画素値)(yall)203、
これらの値から、サンプリングポイントの放射光(x^all)204の推定値を以下の(式2)を用いて算出する。
Figure 2019171691
上記(式2)は、先に説明した関係式、すなわち、撮影対象領域の3次元上のP個のサンプリングポイントから放射される光を、長さPのシーン放射光ベクトルxとして表記し、それを受光する画素数Nの画像センサの観測値を長さNのシーン観測値ベクトルyとした場合の関係式、
y=Mx
この関係式を、行列Mの疑似逆行列(M)を用いて表現した式に相当する。
(ステップS208〜S209)
次に、画像推定部109は、ステップS208において、サンプリングポイントの放射光(x^all)204のうち、復元画像領域ROI(Rroi)に含まれないものを抽出し、これらを、復元画像領域ROI(Rroi)外サンプリングポイント放射光推定値(x^out)とする
さらに、ステップS209において、復元画像領域ROI(Rroi)外サンプリングポイント放射光推定値(x^out)に対応する観測値(y^out)を求める。
図12に復元画像領域ROI(Rroi)211の設定例を示す。復元画像領域ROI(Rroi)211は、撮影画像領域ROI(Rall)内に自由に設定可能である。なお、図12では、復元画像領域ROI(Rroi)211も、撮影画像領域ROI(Rall)と同様、2次元データとして示している。
ステップS208〜S209の処理の詳細について説明する。ステップS208では、先に説明した(式2)、すなわち、サンプリングポイント放射光推定値(x^all)の算出式に従って算出したサンプリングポイント放射光推定値(x^all)のうち、図12に示す復元画像領域ROI(Rroi)211に含まれないサンプリングポイントを抽出し、これらを、復元画像領域ROI(Rroi)外サンプリングポイント放射光推定値(x^out)とする。
次に、ステップS209において、復元画像領域ROI(Rroi)外サンプリングポイント放射光推定値(x^out)に対応する観測値(y^out)を、以下の(式3)を用いて算出する。
Figure 2019171691
上記式は、先に説明した関係式、すなわち、撮影対象領域の3次元上のP個のサンプリングポイントから放射される光を、長さPのシーン放射光ベクトルxとして表記し、それを受光する画素数Nの画像センサの観測値を長さNのシーン観測値ベクトルyとした場合の関係式、
y=Mx
この関係式に対応する式である。
図13は、ステップS209において算出される復元画像領域ROI(Rroi)外サンプリングポイント放射光推定値(x^out)に対応する観測値(y^out)を示す図である。
図13には、撮影画像領域ROI(Rall)201から、復元画像領域ROI(Rroi)211を除いた復元画像領域ROI(Rroi)外サンプリングポイント放射光(x^out)212を示している。これらの復元画像領域ROI(Rroi)外サンプリングポイント放射光(x^out)212に対応する観測値(y^out)が、図13に示す復元画像領域ROI(Rroi)外推定センサ観測値(y^out)213となる。
(ステップS210)
次に、画像推定部109は、ステップS210において、復元画像領域ROI(Rroi)内のサンプリングポイントの放射光(x^roi)推定値を求める。
まず、
(a)図11を参照して説明したセンサ観測値、すなわち、撮影画像領域ROI(Rall)201に設定されたサンプリングポイントの放射光(x^all)204を画像センサによって受光した場合のセンサ観測値(画素値)(yall)203から、
(b)ステップS209において算出した復元画像領域ROI(Rroi)外サンプリングポイント放射光推定値(x^out)に対応する観測値(y^out)を、
差し引く。すなわち、
(yall)−(y^out
この減算処理によって、復元画像領域ROI(Rroi)内のサンプリングポイントからの光を観測した場合の観測値(y^roi)が得られる。
次に、復元画像領域ROI(Rroi)内のサンプリングポイントの放射光(x^roi)推定値を以下の(式4)に従って算出する。
Figure 2019171691
図14は、復元画像領域ROI(Rroi)内のサンプリングポイントの放射光(x^roi)推定値を算出する処理について説明する図である。図14には、撮影画像領域ROI(Rall)201内に設定された復元画像領域ROI(Rroi)211内のサンプリングポイントの放射光、すなわち、復元画像領域ROI(Rroi)内サンプリングポイント放射光(x^roi)221と、この放射光を復元画像領域対応マスクマトリックス(Mroi)222によって規定されるマスクを介して受光する画像センサの観測値、すなわち、復元画像領域ROI(Rroi)推定センサ観測値(y^roi=yall−y^out)223、これらを示している。
このように、画像推定部109は、上記(式4)に従って、復元画像領域ROI(Rroi)内のサンプリングポイントの放射光(x^roi)推定値を求める。この推定値は、すなわち、復元画像領域ROI(Rroi)内の被写体を示す画像(復元画像)の画素値に相当する。
上述したように、画像推定部109は、以下の処理によってレンズレスカメラ102の撮影画像領域の一部からなる復元画像領域の復元画像を生成する。
(S206)レンズレスカメラ102の撮像範囲全体の復元画像の生成に適用する撮影画像領域対応マスクマトリックスの疑似逆行列を算出し、
(S207)撮影画像領域対応マスクマトリックスの疑似逆行列と、観測画像信号から、撮影画像領域内のサンプリングポイントの放射光推定値を算出し、
(S208〜S210)レンズレスカメラ102の画像センサの出力である観測画像信号から、復元画像領域に含まれない復元画像領域外観測画像信号を減算して、復元領域内観測画像信号を算出し、復元領域内観測画像信号と、復元画像領域対応マスクマトリックスの疑似逆行列との演算処理により、レンズレスカメラ102の撮影画像領域の一部からなる復元画像領域の復元画像を生成する。
なお、これらの処理において利用する疑似逆行列は、逆行列であってもよい。
[6.サンプリングポイント設定例と画像生成例について]
先に説明した図11〜図14では、説明を理解し易くするため、撮影画像領域ROI(Rall)や復元画像領域ROI(Rroi)を2次元平面データとして示して説明した。先に説明したようにこれらの領域は実際の3次元空間として表現してもよい。一般的には、サンプリングポイントは任意の3次元位置に配置する事ができる。図15は、3次元上のサンプリングポイントの輝度値から2次元画像を再構成する方法の一例を示す図である。
仮想ピンホールレンズ301と、仮想センサ面302を用意し、サンプリングポイント305,306,307からの光、すなわち、
x^all(p)、
x^all(p)、
x^all(p)、
これらの光が仮想ピンホールレンズ301を通って仮想センサ面302と交差する。
仮想センサ面302上の仮想センサ画素303,304,305それぞれには、入射光に応じた観測値(画素値)、すなわち、
仮想センサ画素y(p)303、
仮想センサ画素y(p)304、
仮想センサ画素y(p)305、
これらの観測値(画素値)が得られる。この場合、サンプリングポイントの距離によらず全てにピントの合った画像が再現される。
また、奥行き方向にレンズぼけが発生するような画像を再構成する方法の一例を、図16に示す。図16には、仮想レンズ311、仮想センサ面313と、仮想センサ面313で像が焦点を結ぶ仮想平面312を示している。この構成で、各サンプリングポイント316,317からの光、すなわち、
x^all(p)、
x^all(p)、
これらの光が仮想レンズ311を通して仮想センサ面313に写像される。この仮想センサ313上の画素値、すなわち、
仮想センサ画素y(p)314、
仮想センサ画素y(p)315、
これらの値を仮想センサ面313上で合成することで、奥行き方向のレンズボケを持つ画像を再現できる。
図17に、3次元設定としたROI領域の図を示す。ROI領域は、3次元上の任意の位置に設定できるため、サンプリングポイントを部分的に再現することができる。例えば、図17に示すような3次元空間に、
撮影画像領域ROI(Rall)321、
復元画像領域ROI(Rroi)322、
復元画像領域外ROI(Rout)323、
これらの領域を設定し、各領域に自由にサンプリングポイントを設定することができる。
各サンプリングポイントからの放射光は、例えば図17に示す撮影画像領域対応マスクマトリックス(Mall)331に従った変換特性(透過関数)を持つマスクを介して、画像センサに入射して、センサ観測値(yall)332を観測することができる。
例えば、図17に示すように、復元画像領域ROI(Rroi)322を、人のいる領域と設定する事で、人だけを含み背景領域を除去した背景除去画像を復元画像として生成することが可能である。
[7.部分的に解像度を向上させた画像の生成処理例について]
本開示の処理を行うことで、部分的に解像度を向上させた画像を生成することが可能となる。図18を参照して、部分的に解像度を向上させた画像の生成処理について説明する。
通常のカメラ撮影画像は、画面上のピクセルピッチが一定であり、1枚の画像上の解像度は画像のどの領域でも一定となる。本開示の処理において、例えば、サンプリングポイントを一様ではなく領域毎に密度を変えることで、領域単位で解像度を変更することが可能となる。
例えば、図18(a)に示す復元画像401のように、画像の一部を高解像度領域402に設定するといった処理が可能となる。このような画像を生成するためには、高解像度領域402に対応するサンプリングポイントの密度を、他の領域より高く設定すればよい。
図18(b)にサンプリングポイントの密度を変えた例を示す。高密度ROI411は他の領域に比べてサンプリングポイント412が密集している。サンプリングポイントは、復元画像における画素値算出位置に対応し、サンプリングポイントの密度を高くすれば、画素値密度が高くなり、結果として高解像度の画像を生成することが可能となる。
図19に、局所的に解像度を変更した画像の例を示す。図19に示す例は、人のいる領域のみ解像度を上げた画像を生成する処理例である。最初にシーン全体のサンプリングポイント放射光(x^all)、すなわち、撮影画像領域サンプリングポイント放射光(x^all)421を推定して、撮影画像領域全体の画像を生成する。さらに、この画像から人のいる領域を検出し、この検出領域を、高解像度化領域(Rroi)422とする。
次に、この高解像度化領域(Rroi)422のみ、他の領域よりサンプリングポイントの密度を上げた状態のマスクマトリックス(Mroi)をシミュレーションで算出する。このマスクマトリックス(Mroi)を特性(透過関数)として持つマスクを用いた場合の、サンプリングポイント放射光を算出する。この処理によって、人のいる領域のみ高解像度化した一部領域高解像度化画像431が生成される。
このように、信号処理部109は、復元画像領域内のサンプリングポイントの密度を、レンズレスカメラ102による撮影画像のその他の領域のサンプリングポイントの密度より高密度に設定して処理を行うことで、復元画像領域のみを高解像度化した一部領域高解像度化画像を生成することができる。
[8.サンプリングポイントからの放射光を波長方向に分光する処理例について]
次に、サンプリングポイントからの放射光を、波長方向に分光する処理例について説明する。具体的には、例えば各サンプリングポイントの放射光をRGBの各色対応の波長光に分離して観測する処理である。この処理を行うことで、カラー画像を生成することが可能となる。
図20に、サンプリングポイントからの放射光を拡張する際の模式図を示す。P個のサンプリングポイント471からの放射光をL個の波長に分離する際、p番目のサンプリングポイントから放射されるl(エル)番目の波長の放射光は、
col(pL+l)・・・(式a)
と表すことができる。なお、例えばサンプリングポイントからの放射光を3個の波長(R,G,B)に分離する際にはL=3、l=0〜2となる。
この放射光が、マスク472を介して画像センサ473のN個の構成画素のn番目の画素に入射して観測される観測値は、
col(nL+l)・・・(式b)
と表現できる。
(式a)と(式b)の関係は、
col=Mcol×xcol・・・(式c)
と表すことができる。
上記(式c)において、Mcolは、
画像センサ473の画素数(N)、
サンプリングポイントからの放射光の分離波長光数(L)、
サンプリングポイント数(P)、
としたとき、
NL×PLのマトリックス(マスク472のマスクマトリックス)である。このマトリックスは、一つのサンプリングポイントからの異なる波長の放射光の観測値をシミュレートすることで求めることができる。
これにより、画像センサ473上の観測値ycolから、サンプリングポイント501の放射光(xcol)波長毎に分離した輝度を再現することができる。例えばRGB各色の出力値を取得して、カラー画像を再現することが可能となる。なお、波長と同様に、偏光に対しても同様の拡張が可能である。
このように、信号処理部109は、復元画像領域内のサンプリングポイントの放射光の波長を区分して処理を行うことで、複数の異なる波長光単位の復元画像を生成することができる。また、復元画像領域内のサンプリングポイントの放射光の偏光成分を区分して処理を行うことで、複数の異なる偏光成分単位の復元画像を生成することができる。
[9.本開示の画像処理の効果について]
本開示の画像処理装置による処理を行うことで、以下のような効果を奏することができる。レンズレスカメラにハードウェアを付加することなく、高画質かつ低計算量で、メカレスズーム、メカレスパン、背景除去などの機能を実現することができる。さらに、重要でない領域の解像度を下げることで、重要領域の解像度を変えることなく、計算量の削減や、逆に計算量を維持した状態での重要領域の解像度向上などを実現できる。本開示の処理は、遠赤外線画像など、可視光以外の波長を利用した画像に対しても有効である。
[10.画像処理装置のハードウェア構成例について]
次に、図21を参照して、画像処理装置のハードウェア構成例について説明する。図21を参照して説明するハードウェアは、先に図7を参照して説明した信号処理部101の処理を実行する画像処理装置のハードウェア構成の一例である。
CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、または記憶部508に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータなどが記憶される。これらのCPU501、ROM502、およびRAM503は、バス504により相互に接続されている。
CPU501はバス504を介して入出力インタフェース505に接続され、入出力インタフェース505には、各種スイッチ、キーボード、マウス、マイクロホン、センサなどからなる入力部506、ディスプレイ、スピーカーなどからなる出力部507が接続されている。CPU501は、入力部506から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部507に出力する。
入出力インタフェース505に接続されている記憶部508は、例えばハードディスク等からなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、Wi−Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア511を駆動し、データの記録あるいは読み取りを実行する。
[11.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) レンズレスカメラの画像センサの出力である観測画像信号を入力して、前記レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、
前記信号処理部は、
前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と、前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する画像処理装置。
(2) 前記信号処理部は、
前記復元画像領域内のサンプリングポイントからの放射光と、前記画像センサの観測値との対応関係情報に基づいて前記復元画像の生成に適用するマトリックスを生成する復元画像領域対応マトリックス計算部を有する(1)に記載の画像処理装置。
(3) 前記信号処理部は、
前記復元画像領域内のサンプリングポイント数(P)と、前記レンズレスカメラの画素数(N)によって規定されるP×Nの前記復元画像の生成に適用するマトリックスを生成する復元画像領域対応マトリックス計算部を有する(1)または(2)に記載の画像処理装置。
(4) 前記信号処理部は、
前記レンズレスカメラの撮像範囲全体の復元画像の生成に適用するマトリックスの逆行列と前記観測画像信号とに基づいて算出される前記撮影画像領域内のサンプリングポイントの放射光推定値から、前記復元画像領域に含まれない観測画像信号を減算して算出される前記復元領域内の観測画像信号と、前記レンズレスカメラの撮像範囲全体の復元画像の生成に適用するマトリックスの逆行列との演算処理により、前記復元画像を生成する画像推定部を備える(1)〜(3)いずれかに記載の画像処理装置。
(5) 前記信号処理部は、さらに、
前記撮影画像領域内のサンプリングポイントからの放射光と、前記画像センサの観測値との対応関係情報に基づいて撮影画像領域に適用するマトリックスを生成する撮影画像領域対応マスクマトリックス計算部を有する(1)〜(4)いずれかに記載の画像処理装置。
(6) 前記信号処理部は、
前記復元画像領域内のサンプリングポイントの密度を、前記撮影画像のその他の領域のサンプリングポイントの密度より高密度に設定して、解像度の高い前記復元画像を生成する(1)〜(5)いずれかに記載の画像処理装置。
(7) 前記信号処理部は、
前記復元画像領域内のサンプリングポイントの放射光の波長を区分して、複数の異なる波長光単位の復元画像を生成する(1)〜(6)いずれかに記載の画像処理装置。
(8) 前記信号処理部は、
前記復元画像領域内のサンプリングポイントの放射光の偏光成分を区分して、複数の異なる偏光成分単位の復元画像を生成する(1)〜(7)いずれかに記載の画像処理装置。
(9) 光の透過領域と不透過領域を2次元パターンとして設定したマスクと、
前記マスクを介した光を受光する画像センサとからなる撮像部と、
前記画像センサの出力である観測画像信号を入力して、前記撮像部の撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、
前記信号処理部は、
前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する、
撮像装置。
(10) 画像処理装置において実行する画像処理方法であり、
前記画像処理装置は、レンズレスカメラの画像センサの出力である観測画像信号を入力して、前記レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、
前記信号処理部が、
前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する画像処理方法。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、レンズレスカメラの撮影画像の画角制御を可能とし、撮影領域の一部からなる復元画像を生成する構成が実現される。
80 レンズレスカメラ
81 画像センサ
82 マスク
83 信号処理部
100 画像処理装置
101 信号処理部
102 レンズレスカメラ
103 復元画像領域対応ROI情報
104 撮影画像領域対応ROI情報
105 マスク情報
106 カメラ構成情報
107 撮影画像領域対応マスクマトリックス計算部
108 復元画像領域対応マスクマトリックス計算部
109 画像推定部
501 CPU
502 ROM
503 RAM
504 バス
505 入出力インタフェース
506 入力部
507 出力部
508 記憶部
509 通信部
510 ドライブ
511 リムーバブルメディア

Claims (10)

  1. レンズレスカメラの画像センサの出力である観測画像信号を入力して、前記レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、
    前記信号処理部は、
    前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と、前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する画像処理装置。
  2. 前記信号処理部は、
    前記復元画像領域内のサンプリングポイントからの放射光と、前記画像センサの観測値との対応関係情報に基づいて前記復元画像の生成に適用するマトリックスを生成する復元画像領域対応マトリックス計算部を有する請求項1に記載の画像処理装置。
  3. 前記信号処理部は、
    前記復元画像領域内のサンプリングポイント数(P)と、前記レンズレスカメラの画素数(N)によって規定されるP×Nの前記復元画像の生成に適用するマトリックスを生成する復元画像領域対応マトリックス計算部を有する請求項1に記載の画像処理装置。
  4. 前記信号処理部は、
    前記レンズレスカメラの撮像範囲全体の復元画像の生成に適用するマトリックスの逆行列と前記観測画像信号とに基づいて算出される前記撮影画像領域内のサンプリングポイントの放射光推定値から、前記復元画像領域に含まれない観測画像信号を減算して算出される前記復元領域内の観測画像信号と、前記レンズレスカメラの撮像範囲全体の復元画像の生成に適用するマトリックスの逆行列との演算処理により、前記復元画像を生成する画像推定部を備える請求項1に記載の画像処理装置。
  5. 前記信号処理部は、さらに、
    前記撮影画像領域内のサンプリングポイントからの放射光と、前記画像センサの観測値との対応関係情報に基づいて撮影画像領域に適用するマトリックスを生成する撮影画像領域対応マスクマトリックス計算部を有する請求項1に記載の画像処理装置。
  6. 前記信号処理部は、
    前記復元画像領域内のサンプリングポイントの密度を、前記撮影画像のその他の領域のサンプリングポイントの密度より高密度に設定して、解像度の高い前記復元画像を生成する請求項1に記載の画像処理装置。
  7. 前記信号処理部は、
    前記復元画像領域内のサンプリングポイントの放射光の波長を区分して、複数の異なる波長光単位の復元画像を生成する請求項1に記載の画像処理装置。
  8. 前記信号処理部は、
    前記復元画像領域内のサンプリングポイントの放射光の偏光成分を区分して、複数の異なる偏光成分単位の復元画像を生成する請求項1に記載の画像処理装置。
  9. 光の透過領域と不透過領域を2次元パターンとして設定したマスクと、
    前記マスクを介した光を受光する画像センサとからなる撮像部と、
    前記画像センサの出力である観測画像信号を入力して、前記撮像部の撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、
    前記信号処理部は、
    前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する、
    撮像装置。
  10. 画像処理装置において実行する画像処理方法であり、
    前記画像処理装置は、レンズレスカメラの画像センサの出力である観測画像信号を入力して、前記レンズレスカメラの撮影画像領域の一部からなる復元画像領域の復元画像を生成する信号処理部を有し、
    前記信号処理部が、
    前記観測画像信号から前記復元画像領域に含まれない観測画像信号を減算することにより生成された復元領域内の観測画像信号と前記復元画像の生成に適用するマトリックスの逆行列または疑似逆行列との演算処理により前記復元画像を生成する画像処理方法。
JP2020504791A 2018-03-06 2018-12-06 画像処理装置、および撮像装置、並びに画像処理方法 Active JP7363765B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018039315 2018-03-06
JP2018039315 2018-03-06
PCT/JP2018/045005 WO2019171691A1 (ja) 2018-03-06 2018-12-06 画像処理装置、および撮像装置、並びに画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2019171691A1 true JPWO2019171691A1 (ja) 2021-03-04
JP7363765B2 JP7363765B2 (ja) 2023-10-18

Family

ID=67847073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020504791A Active JP7363765B2 (ja) 2018-03-06 2018-12-06 画像処理装置、および撮像装置、並びに画像処理方法

Country Status (4)

Country Link
US (1) US11663708B2 (ja)
JP (1) JP7363765B2 (ja)
CN (1) CN111788824B (ja)
WO (1) WO2019171691A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230070798A1 (en) * 2020-03-31 2023-03-09 Sony Group Corporation Image processing apparatus and method, program, and image processing system
WO2022080121A1 (ja) * 2020-10-16 2022-04-21 ソニーグループ株式会社 偏光撮像装置、バイナリーマスク、画像処理システム及び画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008542863A (ja) * 2005-05-23 2008-11-27 キネテイツク・リミテツド 符号化開口画像システム
JP2009171191A (ja) * 2008-01-16 2009-07-30 Sanyo Electric Co Ltd 撮像装置及び撮像方法
JP2016134732A (ja) * 2015-01-19 2016-07-25 株式会社リコー 撮像装置及び撮像方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070036742A (ko) * 2004-07-20 2007-04-03 아사히 가라스 가부시키가이샤 액정 렌즈 소자 및 광헤드 장치
US7767949B2 (en) * 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
US8558182B2 (en) * 2009-10-09 2013-10-15 University Of Rochester Optical element, device, method, and applications
US20120069209A1 (en) 2010-09-22 2012-03-22 Qualcomm Mems Technologies, Inc. Lensless camera controlled via mems array
JP5709040B2 (ja) * 2010-10-27 2015-04-30 株式会社リコー 分光画像撮像装置
JP2012124832A (ja) * 2010-12-10 2012-06-28 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
KR20120080845A (ko) * 2011-01-10 2012-07-18 삼성전자주식회사 광 감지 기능을 구비한 oled 디스플레이 장치
GB2489675A (en) 2011-03-29 2012-10-10 Sony Corp Generating and viewing video highlights with field of view (FOV) information
JP2013090059A (ja) * 2011-10-14 2013-05-13 Sony Corp 撮像装置、画像生成システム、サーバおよび電子機器
JP6138222B2 (ja) 2012-02-20 2017-05-31 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
WO2014010726A1 (ja) 2012-07-12 2014-01-16 株式会社ニコン 画像処理装置及び画像処理プログラム
JP5988790B2 (ja) * 2012-09-12 2016-09-07 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、および、画像処理プログラム
JP5574031B2 (ja) 2012-12-14 2014-08-20 フリュー株式会社 画像処理装置および方法、並びにプログラム
JP6230239B2 (ja) * 2013-02-14 2017-11-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US9359170B2 (en) * 2013-10-14 2016-06-07 Cedes Ag Coding device and position-determining device and position-determining method
EP3167552A1 (en) * 2014-07-12 2017-05-17 Robert C. Gibbons Read-out integrated circuit with integrated compressive sensing
JP6385241B2 (ja) * 2014-10-27 2018-09-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6598473B2 (ja) * 2015-02-27 2019-10-30 キヤノン株式会社 撮像装置および画像処理装置
US20170118489A1 (en) * 2015-10-23 2017-04-27 Broadcom Corporation High Dynamic Range Non-Constant Luminance Video Encoding and Decoding Method and Apparatus
US10274652B2 (en) 2016-02-05 2019-04-30 Rambus Inc. Systems and methods for improving resolution in lensless imaging
US10911643B2 (en) * 2016-02-26 2021-02-02 Hitachi, Ltd. Imaging device modulating intensity of light with grating pattern
JP6672070B2 (ja) * 2016-05-17 2020-03-25 キヤノン株式会社 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
JP6688716B2 (ja) * 2016-10-04 2020-04-28 株式会社日立製作所 撮像装置および撮像方法
WO2018123318A1 (ja) * 2016-12-27 2018-07-05 富士フイルム株式会社 撮像装置及び撮像モジュール
CN110720207B (zh) * 2017-06-01 2021-04-27 富士胶片株式会社 图像处理装置、摄像系统、图像处理方法及记录介质
WO2018221025A1 (ja) * 2017-06-01 2018-12-06 富士フイルム株式会社 撮像装置、画像処理装置、撮像システム、画像処理方法、及び記録媒体
CN107290846B (zh) * 2017-08-04 2019-06-21 南京理工大学 基于环状可编程led照明的定量相位显微成像方法
WO2019131382A1 (ja) * 2017-12-26 2019-07-04 富士フイルム株式会社 撮像装置
JP7215473B2 (ja) * 2018-03-14 2023-01-31 ソニーグループ株式会社 画像処理装置、および撮像装置、並びに画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008542863A (ja) * 2005-05-23 2008-11-27 キネテイツク・リミテツド 符号化開口画像システム
JP2009171191A (ja) * 2008-01-16 2009-07-30 Sanyo Electric Co Ltd 撮像装置及び撮像方法
JP2016134732A (ja) * 2015-01-19 2016-07-25 株式会社リコー 撮像装置及び撮像方法

Also Published As

Publication number Publication date
CN111788824B (zh) 2022-07-08
US20200410654A1 (en) 2020-12-31
CN111788824A (zh) 2020-10-16
US11663708B2 (en) 2023-05-30
JP7363765B2 (ja) 2023-10-18
WO2019171691A1 (ja) 2019-09-12

Similar Documents

Publication Publication Date Title
KR102278776B1 (ko) 이미지 처리 방법, 기기, 및 장치
KR101612165B1 (ko) 초고해상도 이미지 생성 방법 및 이를 구현하기 위한 비선형 디지털 필터
JP5871862B2 (ja) 3d深度情報に基づいたイメージぼかし
US10154216B2 (en) Image capturing apparatus, image capturing method, and storage medium using compressive sensing
JP5968073B2 (ja) 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
US20140192238A1 (en) System and Method for Imaging and Image Processing
JP2022509034A (ja) ニューラルネットワークを使用した輝点除去
JP6838994B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
KR20070106613A (ko) 부호화 렌즈 영상화 기술을 이용하여 스틸 이미지들 및비디오를 캡처링 하기 위한 장치 및 방법
KR20120016476A (ko) 영상 처리 방법 및 영상 처리 장치
JPH01309478A (ja) 画像入出力装置
JP2007503605A (ja) 画像処理のための画像プロセッサ及び方法
JP2018174502A (ja) 撮像装置、画像処理装置、撮像装置の制御方法およびプログラム
JP6095266B2 (ja) 画像処理装置及びその制御方法
TWI687661B (zh) 用於確定場景相關電磁場的複振幅的方法及裝置
JP7363765B2 (ja) 画像処理装置、および撮像装置、並びに画像処理方法
JP2015046019A (ja) 画像処理装置、撮像装置、撮像システム、画像処理方法、プログラム、および、記憶媒体
JP2017134561A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2021532640A (ja) ただ二つのカメラを備える装置およびこの装置を用いて二つの画像を生成する方法
JP2017208642A (ja) 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
Schöberl et al. Building a high dynamic range video sensor with spatially nonregular optical filtering
JP6491442B2 (ja) 画像処理装置、画像処理方法、プログラム及び記録媒体
JP6611509B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
Guo et al. Research on multi-sensor high dynamic range imaging technology and application
TWI605418B (zh) 影像編輯方法以及影像處理裝置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230524

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R151 Written notification of patent or utility model registration

Ref document number: 7363765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151