JP6608763B2 - 画像処理装置及び撮影装置 - Google Patents

画像処理装置及び撮影装置 Download PDF

Info

Publication number
JP6608763B2
JP6608763B2 JP2016097910A JP2016097910A JP6608763B2 JP 6608763 B2 JP6608763 B2 JP 6608763B2 JP 2016097910 A JP2016097910 A JP 2016097910A JP 2016097910 A JP2016097910 A JP 2016097910A JP 6608763 B2 JP6608763 B2 JP 6608763B2
Authority
JP
Japan
Prior art keywords
image
distance
blur
sensor
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016097910A
Other languages
English (en)
Other versions
JP2017040642A (ja
JP2017040642A5 (ja
Inventor
優介 森内
直 三島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to US15/237,744 priority Critical patent/US10382684B2/en
Priority to CN201610687134.4A priority patent/CN106469431B/zh
Publication of JP2017040642A publication Critical patent/JP2017040642A/ja
Publication of JP2017040642A5 publication Critical patent/JP2017040642A5/ja
Priority to US16/459,817 priority patent/US10785412B2/en
Application granted granted Critical
Publication of JP6608763B2 publication Critical patent/JP6608763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/201Filters in the form of arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof

Description

本発明の実施形態は、画像処理装置及び撮影装置に関する。
従来、撮像光学系のレンズや開口部、イメージセンサの画素を分割することで、レンズの異なる領域を通過した光を撮像した複数視点画像を生成する技術がある。この技術では、複数視点画像間で同一の被写体が写る画素を探索することで、複数視点画像間の位相差量を算出し、位相差量から該当画素に写る被写体までの距離を求めている。複数視点画像は、ぼけの形状(ぼけ関数)が各々異なっている。このため、上記の技術では、算出した位相差量をもとに、画像のぼけを円形等の自然なぼけに補正している。
特開2014−026051号公報 特開2014−096062号公報
Furuta, R. , Ikehata, S. , et al., "Coarse-to-fine strategy for efficient cost-volume filtering" 2014 IEEE International Conference on Image Processing (ICIP), 2014 IEEE Computer Society Conference on, pp. 3793-3797, 2015.
しかしながら、上述した従来技術は、高精度な距離測定が困難であるという問題がある。具体的には、従来技術は、位相差量を算出するための一致度計算において、使用される複数視点画像のぼけ関数が各々異なっているため、高精度な距離測定が困難である。
本発明が解決しようとする課題は、高精度な距離測定が可能な画像処理装置及び撮影装置を提供することである。
実施形態の画像処理装置は、センサ制御部と、距離算出部とを有する。センサ制御部は、ぼけ関数が非点対称に表された対象画像と、ぼけ関数が点対称に表された基準画像とを、イメージセンサから取得する。距離算出部は、異なるぼけを付加した対象画像と、基準画像との相関に応じて、画像に写る被写体までの距離を算出する。
第1の実施形態に係る撮影装置のハードウェア構成を示すブロック図。 第1の実施形態に係る撮影装置の機能構成を示すブロック図。 第1の実施形態に係る画像処理の流れを示すフローチャート。 第1の実施形態に係るフィルタ領域の構成を示す図。 第1の実施形態に係る第1のフィルタ領域の透過率特性を示す図。 第1の実施形態に係る被写体までの距離とぼけ関数の形状との関係を説明する図。 第1の実施形態に係る基準画像のぼけ関数を示す図。 第1の実施形態に係る対象画像のぼけ関数を示す図。 第1の実施形態に係るぼけ補正カーネルを示す図。 第2の実施形態に係る撮影装置の機能構成を示すブロック図。 第2の実施形態に係る画像処理の流れを示すフローチャート。 第2の実施形態に係るフィルタ領域の構成を示す図。 第2の実施形態に係るフィルタ領域の透過率特性を示す図。 第3の実施形態に係る撮影装置の機能構成を示すブロック図。 第3の実施形態に係る画像処理の流れを示すフローチャート。 第4の実施形態に係る撮影装置の機能構成を示すブロック図。 第4の実施形態に係る画像処理の流れを示すフローチャート。 第4の実施形態による処理結果の一例を示す図。 第4の実施形態による処理結果の一例を示す図。
(第1の実施形態)
図1は、第1の実施形態に係る撮影装置のハードウェア構成例を示すブロック図である。図1に示すように、撮影装置100は、フィルタ10と、レンズ20と、イメージセンサ30と、CPU(Central Processing Unit)40と、メモリ50と、メモリカードスロット60と、ディスプレイ70と、通信I/F80とを有する。イメージセンサ30、CPU40、メモリ50、メモリカードスロット60、ディスプレイ70及び通信I/F80は、バスにより接続される。撮影装置100は、任意の被写体が写る画像を撮影して、被写体までの奥行き情報を示す距離画像を生成する。
図1に示す例において、フィルタ10に向かう矢印は、光の入射を表す。フィルタ10は、撮影装置100の光学系の何れかに設置されれば良い。例えば、撮影装置100の光学系とは、レンズ20やイメージセンサ30等を指す。すなわち、フィルタ10は、レンズ20の内部や開口部、レンズ20とイメージセンサ30との間に設置されても良い。フィルタ10は、撮影によって被写体で反射した光を入射し、入射した光を透過する。これにより、イメージセンサ30で撮影される複数種類のセンサ画像のうち、少なくとも一種類以上のセンサ画像のぼけ関数(PSF:Point Spread Function)が非点対称に変更されたものになる。以下では、レンズ20の開口部にフィルタ10を備える場合を例に挙げて説明する。
レンズ20は、入射した光の集光の際に、開口部に備えるフィルタ10の色に応じて、特定の波長帯の光を透過する。フィルタ10及びレンズ20を通過した光は、イメージセンサ30に到達する。イメージセンサ30は、レンズ20、及び、レンズ20の開口部に設置されたフィルタ10を通過した光を受光する。例えば、イメージセンサ30は、二以上のセンサを有し、フィルタ10を光が通過することにより、ぼけ関数が非点対称に変更された対象画像と、少なくとも一種類以上のセンサ画像である基準画像とを生成する。二以上のセンサとは、例えばRGBセンサのうち、RとG、GとB、RとB、RとGとB等の二以上の組み合わせを指す。例えば、二以上のセンサのうち、いずれかのセンサ(第1のセンサ)が対象画像を生成し、他のセンサ(第2のセンサ)が基準画像を生成する。
例えば、イメージセンサ30は、CCD(Charge Coupled Device)イメージセンサや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。一つの様態として、イメージセンサ30は、赤色の光を受光するセンサ(Rセンサ)と、緑色の光を受光するセンサ(Gセンサ)と、青色の光を受光するセンサ(Bセンサ)とを有し、それぞれのセンサで対応する波長帯の光を受光して、撮影画像(R画像、G画像、B画像)を生成する。
CPU40は、撮影装置100の動作を統括的に制御する。具体的には、CPU40は、メモリ50等に記憶されたプログラムを実行し、撮影装置100全体の動作を制御する。メモリ50は、HDD(Hard Disk Drive)やNAND型フラッシュメモリ等の書き換え可能な不揮発性の記憶デバイスである。例えば、メモリ50は、撮影装置100の制御に関するプログラムや処理に使用される各種データ等を記憶する。メモリカードスロット60には、SDメモリカードやSDHCメモリカード等の可搬記憶媒体が挿入可能である。ディスプレイ70は、液晶ディスプレイやタッチパネル等である。通信I/F80は、外部機器との通信や、ユーザによる各種指示の入力を制御するインタフェースである。
図2は、第1の実施形態に係る撮影装置100の機能構成例を示すブロック図である。図2に示すように、撮影装置100は、センサ制御部110と、距離算出部120とを有する。なお、センサ制御部110や距離算出部120は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。
センサ制御部110は、イメージセンサ30を制御し、ぼけ関数が非点対称に変更された対象画像と、少なくとも一種類以上のセンサ画像である基準画像とを取得する。距離算出部120は、複数のぼけ補正カーネルのうち、ぼけを付加した対象画像である補正画像と、基準画像との相関がより高くなるぼけ補正カーネルを求めることで、画像に写る被写体までの距離を算出し、距離画像を出力する。複数のぼけ補正カーネルは、対象画像に対して、相互に異なるぼけを付加する関数である。以下、フローチャートを用いて、第1の実施形態に係る処理の詳細について説明する。
図3は、第1の実施形態に係る画像処理の流れの例を示すフローチャートである。なお、以下では、イメージセンサ30がRGBセンサを有する場合を例に挙げて説明するが、イメージセンサ30の波長帯はこれらに限られるものではない。
まず、撮影によって被写体で反射した光がフィルタ10を通過することで、イメージセンサ30で観測されるセンサ画像のうち、少なくとも一種類以上のセンサ画像のぼけ関数が非点対称に変更される。フィルタ10のフィルタ領域は、イメージセンサ30で受光される光のうち、任意種類の光を減衰させることや、光線の集光の分布に偏りを生じさせることで、センサ画像のぼけ関数を変更することができる。
図4は、第1の実施形態に係るフィルタ領域の構成例を示す図である。図4に示すように、フィルタ10のフィルタ領域のうち第1のフィルタ領域は、光学中心であるフィルタ領域の中心点(重心位置の点)を対称点とするときに、点対称形にならないように構成される。図4に示した例では、フィルタ領域のうち、黄色フィルタ(Yフィルタ)を第1のフィルタ領域とし、第1のフィルタ領域ではないフィルタ領域を第2のフィルタ領域としている。すなわち、第1のフィルタ領域である黄色フィルタ(Yフィルタ)は、光学中心を対称点とするときに、点対称形にならない。
図5は、第1の実施形態に係る第1のフィルタ領域(Yフィルタ)の透過率特性の例を示す図である。図5に示すように、第1のフィルタ領域(Yフィルタ)は、赤色の光と緑色の光を透過し、青色の光を減衰させる。なお、第1のフィルタ領域は、任意波長帯域の透過率を変更するフィルタや、任意方向の偏光光を通過させる偏光フィルタ(偏光板)、任意波長帯域の集光パワーを変更させるマイクロレンズであっても良い。例えば、任意波長帯域の透過率を変更するフィルタは、原色フィルタ(RGB)、補色フィルタ(CMY)、色補正フィルタ(CC−RGB/CMY)、赤外線・紫外線カットフィルタ、NDフィルタ、遮蔽板であっても良い。第1のフィルタ領域がマイクロレンズである場合は、レンズ20により光線の集光の分布に偏りが生じることでぼけ関数が変化する。
なお、フィルタ10には、点対称形にならなければ、任意の領域数のフィルタ領域が存在していても良い。また、フィルタ10は、複数のセンサ画像のぼけ関数を変更する一つのフィルタ領域により構成されても良い。
また、第1のフィルタ領域は、フィルタ10を任意の直線で分割した形状であることが好ましく、光学中心を通過する直線であることが好ましい。フィルタ10を任意の直線で分割した形状であれば、後述するぼけ補正フィルタの次元を削減することができる。また、光学中心を通過する直線であれば、光量調整のための遮蔽物等の絞り機構が挿入された場合であっても、センサ画像のぼけ関数を変更可能な構造とすることができる。
イメージセンサ30は、フィルタ10のフィルタ領域を透過した光のうち、何れのフィルタ領域でも減衰せずに通過した光を受光し、基準画像を生成する。これにより、センサ制御部110は、イメージセンサ30によって生成された基準画像を取得する(ステップS101)。何れのフィルタ領域とは、図4に示した例において、第1のフィルタ領域と第2のフィルタ領域とを指す。基準画像のぼけ関数は、フィルタ領域の通過前後で変化が少ない。図4に示したフィルタ領域の場合は、第1のフィルタ領域である黄色フィルタ(Yフィルタ)を減衰せずに通過した赤色の光と緑色の光がイメージセンサ30で受光されるため、R画像とG画像とが基準画像となる。R画像とG画像とは、円形のぼけ関数を有しており、ぼけ形状は円形状となる。
また、イメージセンサ30は、フィルタ10のフィルタ領域を透過した光のうち、第1のフィルタ領域の通過でぼけ関数が変更される光を受光し、対象画像を生成する。これにより、センサ制御部110は、イメージセンサ30によって生成された対象画像を取得する(ステップS102)。対象画像のぼけ関数は、第1のフィルタ領域により非点対称形に変化している。図4に示したフィルタ領域の場合は、第1のフィルタ領域である黄色フィルタ(Yフィルタ)により減衰して通過した青色の光がイメージセンサ30で受光されるため、B画像が対象画像となる。すなわち、フィルタ10のフィルタ領域を通過する青色の光のうち、第1のフィルタ領域を通過した青色の光は吸収され、第2のフィルタ領域を通過した青色の光は吸収されることなく通過する。このため、図4に示したフィルタ10の場合、対象画像のぼけ関数は、フィルタ領域の通過前後で円形状から半円形状に変更され、半円形状のぼけ形状となる。
図6は、第1の実施形態に係る被写体までの距離とぼけ関数の形状との関係を説明する図である。図6に示すように、画像に写る被写体の位置がピント位置より遠い「d>0」である場合は、対象画像は基準画像と比較して右側に偏ったぼけが撮像される。また、画像に写る被写体の位置がピント位置よりも近い「d<0」である場合は、対象画像は基準画像と比較して左側に偏ったぼけが撮像される。また、画像に写る被写体の位置がピント位置にある「d=0」である場合は、対象画像と基準画像とは、ともにぼけのない画像が撮像される。本実施形態では、このような特性を利用して、撮影シーンの距離を算出する。
また、距離算出部120は、センサ制御部110によって取得された対象画像と基準画像とをもとに、対象画像に異なるぼけを付加することで、対象画像のぼけ形状を補正した補正画像を生成する(ステップS103)。上述したように、画像に写る被写体までの距離dに応じて、対象画像と基準画像とのぼけ形状が変化する。本実施形態では、画像に写る被写体までの距離が任意の距離dであると仮定し、作成した複数のぼけ補正カーネルを用いて、対象画像のぼけ形状を補正した補正画像を生成し、生成した補正画像と基準画像との相関がより高くなる距離dを求めることで、被写体までの距離を算出する。なお、補正画像と基準画像との相関を計算する手法については後述する。
ここで、撮影画像Ixに写る被写体からカメラのピント位置までの距離をdとすると、撮影画像Ixは、ぼけの少ない理想的な撮影画像Iyと、撮影画像のぼけ関数f(d)を用いて、(数1)で表すことができる。
撮影画像のぼけ関数f(d)は、撮影装置100の開口形状と距離dとによって決定する。距離dについては、上述したように、ピント位置を基準として、被写体がピント位置よりも遠い場合は「d>0」、被写体がピント位置よりも近い場合は「d<0」として表す。図7は、第1の実施形態に係る基準画像のぼけ関数の例を示す図である。図7に示すように、図4に示したフィルタ領域の場合は、開口形状が点対称形である円形状であるため、ぼけ関数f(d)の形状はピント位置の前後で変化はなく、ぼけ関数f(d)は距離dの大きさ|d|によってぼけの幅が変化するガウス関数として表現できる。なお、ぼけ関数f(d)は、距離dの大きさ|d|によってぼけの幅が変化するピルボックス関数として表現しても良い。
基準画像Ixは、(数1)と同様に、開口形状とフィルタ領域との特性から決定するぼけ関数f(d)を用いて、(数2)で表すことができる。
また、対象画像Ixは、(数1)と同様に、開口形状とフィルタ領域との特性から決定するぼけ関数f(d)を用いて、(数3)で表すことができる。
図4に示したフィルタ領域の場合、基準画像は、第1のフィルタ領域の影響を受けないため、f(d)=f(d)となる。また、f(d)は、第1のフィルタ領域での光減衰の影響により、ピント位置であるd=0の前後で異なる形状に変化する。図8は、第1の実施形態に係る対象画像のぼけ関数の例を示す図である。図8に示すように、対象画像のぼけ関数f(d)は、被写体がピント位置よりも遠方にあるd>0の場合に、x>0で第1のフィルタ領域での光減衰に応じて、減衰したぼけの幅|d|のガウス関数となる。また、対象画像のぼけ関数f(d)は、被写体がピント位置よりも近方にあるd<0の場合に、x<0で第1のフィルタ領域での光減衰に応じて、減衰したぼけの幅|d|のガウス関数となる。
ここで、対象画像Ixにぼけを付与して、対象画像Ixのぼけ形状を基準画像Ixのぼけ形状と一致させるためのぼけ関数を、ぼけ補正カーネルf(d)と定義する。ぼけ補正カーネルf(d)は、(数4)で表すことができる。
(数4)のぼけ補正カーネルf(d)は、(数2)〜(数4)により、基準画像Ixのぼけ関数f(d)と、対象画像Ixのぼけ関数f(d)とを用いて、(数5)で表すことができる。
(数5)のf −1(d)は、対象画像のぼけ関数f(d)の逆フィルタである。これらにより、ぼけ補正カーネルf(d)は、基準画像Ixと対象画像Ixとのぼけ関数から解析して算出することが可能である。また、対象画像Ixのぼけ形状は、ぼけ補正カーネルf(d)を用いて、任意の距離dを想定した様々なぼけ形状に補正することができる。
図9は、第1の実施形態に係るぼけ補正カーネルの例を示す図である。なお、図9に示すぼけ補正カーネルは、図4に示したフィルタ領域を用いた場合のぼけ補正カーネルである。図9に示すように、フィルタ領域を任意の直線で分割した形状に設定した場合、ぼけ補正カーネルf(d)は、分割した線分の中心点を通り、該線分に対して垂直方向の直線上(直線付近)に分布する。ここで、対象画像Ixのぼけ形状を任意の距離dにおけるぼけ補正カーネルf(d)を用いて補正した補正画像Ix^(d)とすると、補正画像Ix^(d)は、(数6)で表すことができる。なお、「Ix^」は、数式中のIxハットであるものとする。
また、距離算出部120は、生成した補正画像Ix^(d)と、基準画像Ixとを比較し、補正画像Ix^(d)と基準画像Ixとのぼけ形状が一致しているか否かを判定する(ステップS104)。距離算出部120は、補正画像Ix^(d)と基準画像Ixとのぼけ形状が一致している場合に(ステップS104:Yes)、処理を終了する。一方、距離算出部120は、補正画像Ix^(d)と基準画像Ixとのぼけ形状が一致していない場合に(ステップS104:No)、ステップS103の処理を再度実行する。すなわち、距離算出部120は、補正画像Ix^(d)と基準画像Ixとのぼけ形状が最も一致する距離dを、撮影画像の各画素で求める。一致するとは、ぼけ形状が完全に一致するのみでなく、例えば一致度が所定の閾値未満である場合を含めてもよい(後述)。ぼけ形状の一致度は、各画素を中心とする任意サイズの矩形領域における補正画像Ix^(d)と基準画像Ixとの相関を計算すれば良い。この、ぼけ形状の一致度の計算は、既存の類似度評価手法を用いれば良い。これらにより、距離算出部120は、補正画像Ix^(d)と基準画像Ixとで相関が最も高くなる距離dを求め、各画素に写る被写体までの距離を算出する。
例えば、既存の類似度評価手法は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross‐Correlation)、ZNCC(Zero‐mean Normalized Cross‐Correlation)、Color Alignment Measure等を利用すれば良い。本実施形態では、自然画像の色成分が局所的には線形な関係を持つ特性を有することを利用したColor Alignment Measureを利用する。
Color Alignment Measureでは、撮影画像の対象画素を中心とする局所境域の色分布の分散から、相関関係を表す指標Lが算出される。イメージセンサ30で撮影された基準画像Ixと、距離dを仮定した補正画像Ix^(d)とから生成されるRGB画像の各画素を中心とする局所領域で、指標L(d)を算出する。図4に示したフィルタ領域である場合は、イメージセンサ30で撮影されたR画像とG画像とB画像とを、距離dのぼけ補正カーネルで補正した補正画像B^(d)から生成されるカラー画像の各画素において、指標L(d)を(数7)により算出する。なお、「B^」は、数式中のBハットであるものとする。
(数7)において、λ、λ、λは、画像の色分布の主成分軸に沿った分散(画像の共分散行列の固有値)である。また、(数7)において、σ 、σ 、σ は、画像の色分布のR軸、G軸、B軸に沿った分散である。従って、指標L(d)が小さいほど、カラー画像の一致度が高いことを示している。これにより、ステップS104では、距離算出部120は、指標L(d)が閾値未満であるか否かを判定し、指標L(d)が閾値未満であれば対象画素での距離推定を終了する。距離算出部120は、指標L(d)が閾値以上であればステップS103の処理に戻り、異なる距離dでの補正画像を生成する。なお、各画素に写る被写体までの距離の算出は、閾値を使用した条件判定ではなく、仮定する全ての距離dでの指標L(d)を算出し、指標L(d)が最小となる距離dを求めるようにしても良い。また、例えば、距離画像は、各被写体までの距離を求めた結果として、手前に存在する被写体ほど明るく、奥に存在する被写体ほど暗くなるような画像として生成することができる。
上述したように、撮影装置100の光学系に設置したフィルタ領域に応じて変更された対象画像のぼけ形状を、距離dを仮定したぼけ補正カーネルにより補正した補正画像を生成し、生成した補正画像と基準画像との相関がより高くなる距離dを求めることで、画像に写る被写体までの距離を算出する。本実施形態によれば、ぼけ関数とサンプリング位置が一致する画像の相関を用いて距離を算出するので、高精度な距離推定を実現できる。また、本実施形態によれば、空間情報の畳み込み結果であるぼけ情報を利用するため、距離推定の結果が安定的であり、繰り返しパターンや陰面問題を生じさせることなく、高精度な距離推定を実現できる。
(第2の実施形態)
図10は、第2の実施形態に係る撮影装置200の機能構成例を示すブロック図である。第2の実施形態では、第1の実施形態に係る撮影装置100と同様の構成については同一の符号を付し、その詳細な説明を省略する場合がある。具体的には、以下で説明する距離算出部220の機能が、第1の実施形態とは異なる。なお、第2の実施形態に係る撮影装置200のハードウェア構成は、第1の実施形態に係る撮影装置100のハードウェア構成のうち、フィルタ10のフィルタ領域の構成が異なる。第2の実施形態に係るフィルタ領域については後述する。
図10に示すように、撮影装置200は、センサ制御部110と、距離算出部220とを有する。なお、センサ制御部110や距離算出部220は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。第1の実施形態と同様に、撮影装置200は、任意の被写体が写る画像を撮影して、被写体までの奥行き情報を示す距離画像を生成する。
距離算出部220は、複数のぼけ補正カーネルのうち、ぼけを付加した対象画像である補正画像と、第2の基準画像との相関がより高くなるぼけ補正カーネルを求めることで、画像に写る被写体までの距離を算出し、距離画像を出力する。第2の基準画像は、複数のセンサ画像のうち、いずれかのセンサ画像にぼけを付加することでぼけを補正した画像である。以下、フローチャートを用いて、第2の実施形態に係る処理の詳細について説明する。
図11は、第2の実施形態に係る画像処理の流れの例を示すフローチャートである。なお、以下では、イメージセンサ30がRGBセンサを有する場合を例に挙げて説明するが、イメージセンサ30の波長帯はこれらに限られるものではない。
まず、撮影によって被写体で反射した光がフィルタ10を通過することで、イメージセンサ30で観測されるセンサ画像のうち、少なくとも一種類以上のセンサ画像のぼけ関数が非点対称に変更される。第2の実施形態に係るフィルタ領域は、イメージセンサ30で受光される光のうち、任意種類の光を減衰させることや、光線の集光の分布に偏りを生じさせることで、センサ画像のぼけ関数を変更することができる。
図12は、第2の実施形態に係るフィルタ領域の構成例を示す図である。図12に示すように、第2の実施形態に係るフィルタ領域のうち第1のフィルタ領域は、光学中心であるフィルタ領域の中心点(重心位置の点)を対称点とするときに、点対称形にならないように構成される。同様に、第2の実施形態に係るフィルタ領域のうち第2のフィルタ領域は、光学中心であるフィルタ領域の中心点を対称点とするときに、点対称形にならないように構成される。また、第1のフィルタ領域と第2のフィルタ領域とは、イメージセンサ30のR、G、Bセンサの何れかの波長帯域において、異なる透過率特性を有している。本実施形態では、第1のフィルタ領域を黄色の色補正フィルタ(CC−Y)とし、第2のフィルタ領域をシアンの色補正フィルタ(CC−C)とする場合を例に挙げる。
図13は、第2の実施形態に係る第1のフィルタ領域及び第2のフィルタ領域の透過率特性の例を示す図である。図13に示すように、第1のフィルタ領域(CC−Y)は、赤色の光と、緑色の光と、青色の光との全ての波長帯域の光を透過する。また、第2のフィルタ領域(CC−C)は、赤色の光と、緑色の光と、青色の光との全ての波長帯域の光を透過する。但し、第1のフィルタ領域と第2のフィルタ領域とでは、各波長の透過率が異なる。なお、第1のフィルタ領域と第2のフィルタ領域とは、任意波長帯域の透過率を変更するフィルタや、任意方向の偏光光を通過させる偏光フィルタ、任意波長帯域の集光パワーを変更させるマイクロレンズであっても良い。例えば、任意波長帯域の透過率を変更するフィルタは、原色フィルタ(RGB)、補色フィルタ(CMY)、色補正フィルタ(CC−RGB/CMY)、赤外線・紫外線カットフィルタ、NDフィルタ、遮蔽板であっても良い。第1のフィルタ領域や第2のフィルタ領域がマイクロレンズである場合は、レンズ20により光線の集光の分布に偏りが生じることでぼけ関数が変化する。
イメージセンサ30は、フィルタ領域を通過した光のうち、第1のフィルタ領域と第2のフィルタ領域とでぼけ関数が変更される光を受光し、対象画像を生成する。これにより、センサ制御部110は、イメージセンサ30によって生成された対象画像を取得する(ステップS201)。対象画像のぼけ関数は、フィルタ領域により非点対称に変化している。この結果、被写体の位置がピント位置よりも遠くに存在する場合(d>0)と、被写体の位置がピント位置よりも近くに存在する場合(d<0)とで、対象画像のぼけは、非点対称形のぼけとなり、また、ピント位置の前後で異なる形状のぼけとなる。具体的には、R、G、Bセンサの各波長帯域で観測される光が、第1のフィルタ領域と第2のフィルタ領域とのどちらをより多く通過してきたかで、対象画像のぼけ形状の偏りが決定する。なお、被写体の位置がピント位置に存在する場合(d=0)に、対象画像は、ぼけのない画像となる。本実施形態では、対象画像の上記特性を利用して、撮影シーンの距離を算出する。
図12に示したフィルタ領域の場合は、赤色の光と、緑色の光と、青色の光との全てが減衰し、通過してイメージセンサ30で受光されるため、R画像、G画像、B画像の全てが対象画像となる。但し、R画像、G画像、B画像の全ての画像を対象画像としなくても良い。フィルタ領域を通過する光のうち、青色の光は、CC−Cフィルタ(第2のフィルタ領域)よりもCC−Yフィルタ(第1のフィルタ領域)でより吸収され、減衰する。このため、被写体の位置がピント位置よりも遠くに存在する場合(d>0)では、円形状と比較して右側に偏ったぼけが撮影され、被写体の位置がピント位置よりも近くに存在する場合(d<0)では、円形状と比較して左側に偏ったぼけが撮影される。
また、フィルタ領域を通過する光のうち、赤色の光は、CC−Yフィルタ(第1のフィルタ領域)よりもCC−Cフィルタ(第2のフィルタ領域)でより吸収され、減衰する。このため、被写体の位置がピント位置よりも遠くに存在する場合(d>0)では、円形状と比較して左側に偏ったぼけが撮影され、被写体の位置がピント位置よりも近くに存在する場合(d<0)では、円形状と比較して右側に偏ったぼけが撮影される。
また、フィルタ領域を通過する光のうち、緑色の光は、CC−Cフィルタ(第2のフィルタ領域)よりもCC−Yフィルタ(第1のフィルタ領域)でより吸収され、減衰する。このため、被写体の位置がピント位置よりも遠くに存在する場合(d>0)では、円形状と比較して右側に偏ったぼけが撮影され、被写体の位置がピント位置よりも近くに存在する場合(d<0)では、円形状と比較して左側に偏ったぼけが撮影される。
また、距離算出部220は、センサ制御部110によって取得された複数のセンサ画像から選択したいずれかのセンサ画像(対象画像)のぼけを、任意形状のぼけに補正した第2の基準画像を生成する(ステップS202)。センサ画像(対象画像)のぼけを任意形状のぼけに補正する手法は、上述したステップS103と同様である。また、ステップS101で上述したように、センサ画像(対象画像)のぼけ形状は、画像に写る被写体までの距離dに応じて変化する。距離算出部220は、画像に写る被写体までの距離が任意の距離dであると仮定し、作成した第2のぼけ補正カーネルを用いて、センサ画像(対象画像)のぼけ形状を補正した第2の基準画像を生成する。本実施形態では、第2の基準画像のぼけ形状を円形状として説明するが、第2の基準画像のぼけ形状は任意のセンサ画像(対象画像)のぼけ形状でも良いし、これとは異なる他の任意の形状のぼけ形状でも良い。以下、図12に示したフィルタ領域を例に、センサ画像の全てが対象画像である場合を例に挙げて説明する。すなわち、センサ画像に基準画像が含まれている場合であっても、同様の手法により補正することができる。
任意に選択した対象画像Ixのぼけを補正し、第2の基準画像のぼけ形状を補正する第2のぼけ補正カーネルf’(d)は、上述した(数5)における基準画像のぼけ関数f(d)を、仮定する第2の基準画像のぼけ関数f’(d)とすることで、(数8)で表すことができる。
また、(数8)により求めた第2のぼけ補正カーネルf’(d)を用いて、対象画像Ixのぼけを補正した第2の基準画像Ix^(d)は、(数9)で表すことができる。これらにより、被写体までの距離がdであると仮定した場合の第2の基準画像を生成することができる。
また、距離算出部220は、ステップS202において選択したセンサ画像以外のセンサ画像(対象画像)のぼけを、第2の基準画像のぼけに補正した補正画像を生成する(ステップS203)。対象画像のぼけを補正画像のぼけに補正する手法は、上述したステップS103と同様である。距離算出部220は、任意に選択した対象画像Ixのぼけを補正し、第2の基準画像のぼけ形状を補正するぼけ補正カーネルf’(d)を、上述した(数8)により求める。そして、距離算出部220は、求めたぼけ補正カーネルf’(d)を用いて、ステップS203で選択した対象画像Ixのぼけを補正した補正画像を生成する。ここで、対象画像Ixのぼけ形状を第2の基準画像のぼけ形状に補正した補正画像をIx^’(d)とすると、補正画像は、(数10)で表すことができる。これらにより、被写体までの距離がdであると仮定した場合の補正画像を生成することができる。
また、距離算出部220は、生成した補正画像Ix^’(d)と、第2の基準画像Ix^’(d)とを比較し、補正画像Ix^’(d)と第2の基準画像Ix^’(d)とのぼけ形状が一致しているか否かを判定する(ステップS204)。距離算出部220は、補正画像Ix^’(d)と第2の基準画像Ix^’(d)とのぼけ形状が一致している場合に(ステップS204:Yes)、処理を終了する。一方、距離算出部220は、補正画像Ix^’(d)と第2の基準画像Ix^’(d)とのぼけ形状が一致していない場合に(ステップS204:No)、ステップS202の処理を再度実行する。補正画像Ix^’(d)と第2の基準画像Ix^’(d)とのぼけ形状が最も一致する距離dを求める手法については、上述したステップS104と同様である。例えば、本実施形態では、自然画像の色成分が局所的には線形な関係を持つ特性を有することを利用したColor Alignment Measureを利用する。
Color Alignment Measureでは、撮影画像の対象画素を中心とする局所境域の色分布の分散から相関関係を表す指標Lが算出される。すなわち、距離dを仮定した第2の基準画像Ix^’(d)と、補正画像Ix^’(d)とから生成されるRGB画像の各画素を中心とする局所領域で、指標L(d)を算出する。図12に示したフィルタ領域である場合は、イメージセンサ30で撮影されたR画像とG画像とB画像とのそれぞれを、距離dの第2のぼけ補正カーネルで補正した第2の基準画像や、ぼけ補正カーネルで補正した補正画像であるR^(d)、G^(d)、B^(d)から生成されるカラー画像の各画素において、指標L(d)を(数11)により算出する。
これらにより、ステップS204では、距離算出部220は、指標L(d)が閾値未満であるか否かを判定し、指標L(d)が閾値未満であれば対象画素での距離推定を終了する。距離算出部220は、指標L(d)が閾値以上であればステップS202の処理に戻り、異なる距離dでの第2の基準画像と補正画像とを生成する。なお、各画素に写る被写体までの距離の算出方法は、閾値を使用した条件判定に限られるものではない。距離算出部220は、仮定する全ての距離dでの指標L(d)を算出し、指標L(d)が最小となる距離dを求めても良い。
上述したように、本実施形態では、フィルタ領域に応じて変更された対象画像のぼけ形状を、距離dを仮定した任意のぼけ形状に補正した第2の基準画像と補正画像とを生成する。そして、生成した第2の基準画像と補正画像との相関がより高くなる距離dを求めることで、画像に写る被写体までの距離を算出する。本実施形態によれば、ぼけ関数とサンプリング位置が一致する画像の相関を用いて距離を算出するので、高精度な距離推定を実現できる。また、本実施形態によれば、空間情報の畳み込み結果であるぼけ情報を利用するための距離推定の結果が安定的であり、繰り返しパターンや陰面問題を生じさせることなく、高精度な距離推定を実現できる。
(第3の実施形態)
図14は、第3の実施形態に係る撮影装置300の機能構成例を示すブロック図である。第3の実施形態では、第1の実施形態に係る撮影装置100と同様の構成については同一の符号を付し、その詳細な説明を省略する場合がある。具体的には、以下で説明する距離算出部320、画像生成部330の機能が、第1の実施形態とは異なる。なお、第3の実施形態に係る撮影装置300のハードウェア構成は、第1の実施形態に係る撮影装置100のハードウェア構成と同様である。
図14に示すように、撮影装置300は、センサ制御部110と、距離算出部320と、画像生成部330とを有する。なお、センサ制御部110、距離算出部320、及び、画像生成部330は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。撮影装置300は、任意の被写体が写る画像を撮影して、利用者に表示するための表示画像を生成する。
距離算出部320は、画像に写る被写体までの距離を表す距離画像に加えて、基準画像との相関が最も高くなるぼけ補正カーネルを用いて、対象画像にぼけを付加した補正画像と、基準画像とから生成されるぼけ補正画像を、画像生成部330に対して出力する。画像生成部330は、距離算出部320によって出力された距離画像と、センサ画像のぼけ形状が補正された補正画像とを用いて、利用者に表示するための表示画像を生成する。画像生成部330によって生成された表示画像は、ディスプレイ70等に表示出力される。
図15は、第3の実施形態に係る画像処理の流れの例を示すフローチャートである。なお、ステップS301〜ステップS304の処理は、上述したステップS101〜ステップS104の処理と同様であるため、これらの詳細な処理の説明を省略する。
図15に示すように、画像生成部330は、距離算出部320によって出力された、各画素の奥行き情報を表す距離画像と、センサ画像のぼけ形状が一致した補正画像とから、利用者に表示するための表示画像(出力画像)を生成する(ステップS305)。表示画像は、距離画像であっても良いし、距離画像を疑似カラー表示した画像であっても良い。また、表示画像は、補正画像やセンサ画像であっても良い。補正画像は、対象画像のぼけを基準画像のぼけに補正した画像である。また、表示画像は、距離画像と補正画像とから、被写体の距離に応じて補正画像の各画素の焦点ぼけを除去した全焦点画像であっても良い。また、表示画像は、補正画像と距離画像とから、被写体の距離に応じて、補正画像の任意の距離の被写体のぼけを除去又は付加した、ぼけ強調画像であっても良い。
(第4の実施形態)
コストボリュームフィルタリングを適用することで、マルコフ確立場に基づく一般的な離散値のラベリング問題において高精度な近似解を高速に解く技術が提案されている。このような技術を適用した距離測定方法では、手がかりのない平坦領域で距離が求まらない場合がある。
第4の実施形態では、コストボリュームフィルタリングを適用して、より高精度に距離を測定可能とする。本実施形態では、階層化したコストボリュームの上位階層で決定したラベル(例えば距離)と下位階層のラベルとの差を下位階層のラベル選択の正則化項とすることで、上位階層で最適化したラベルを空間的な制約として、下位階層のラベルを最適化する。これにより、例えば、被写体の細かい凹凸形状を補償しつつ、平坦領域の距離決定が可能となる。また本実施形態では、各階層で最適化した結果を用いた正則化を実施することで、撮像ノイズなどの外乱に対する頑健性を高めることが可能となる。
以下では、主に第1の実施形態に対してコストボリュームフィルタリングを適用する場合を例に説明する。第2および第3の実施形態に対しても同様の手法を適用できる。
図16は、第4の実施形態に係る撮影装置400の機能構成例を示すブロック図である。本実施形態では、第1の実施形態に係る撮影装置100と同様の構成については同一の符号を付し、その詳細な説明を省略する場合がある。本実施形態では、距離算出部420の機能が、第1の実施形態とは異なる。なお、本実施形態に係る撮影装置400のハードウェア構成は、第1の実施形態に係る撮影装置100のハードウェア構成と同様である。
図16に示すように、撮影装置400は、センサ制御部110と、距離算出部420とを有する。なお、センサ制御部110や距離算出部420は、これらの一部又は全てがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。第1の実施形態と同様に、撮影装置400は、任意の被写体が写る画像を撮影して、被写体までの奥行き情報を示す距離画像を生成する。
距離算出部420は、CV(コストボリューム)生成部421と、正則化部422と、を有する。
CV生成部421は、3次元のコストボリュームを生成する。コストボリュームは、画像の一方向(例えば水平方向)および画像の一方向と異なる他方向(例えば垂直方向)に加え、ラベル方向の情報を含む3次元のデータである。コストボリュームは、画像の水平方向の位置、画像の垂直方向の位置、および、対象画像と基準画像との差に基づくコスト、の3次元の情報を含む。コストは、例えば、各画素に写る被写体までの想定される距離(ラベル)ごとに算出される。対象画像と基準画像との差は、例えば信号値の差や、類似度評価法で産出した値の差である。この場合は距離がラベルに相当するが、ラベルは距離に限られるものではない。例えば、距離に応じて変化するぼけの程度を表す情報をラベルとしてもよい。ラベルは、例えば、視差方向であってもよい。
また、CV生成部421は、コストボリュームの少なくとも1次元方向の解像度を低くしたコストボリュームを生成する。例えばCV生成部421は、上記の3次元の情報のうち少なくとも1次元方向の解像度を上位階層になるほど小さくした階層数n(nは2以上の整数)のコストボリューム(コストボリュームピラミッド)を生成する。階層数nは任意であり、2以上であればよい。
以下では、主にコストボリュームの水平方向と垂直方向の解像度を低下させる場合を例に説明するが、これ以外の任意の1以上の方向の解像度を低下させてもよい。例えば、水平方向と垂直方向に加えて、ラベル方向の解像度を低下させてもよい。このような構成によれば処理を高速化することができる。
正則化部422は、k階層(kは1≦k≦n−1を満たす整数)のコストボリュームを、正則化項を含むコストボリューム(修正コストボリューム)に修正する。正則化項は、(k+1)階層のコストボリュームから求められる距離(第1の距離)と、k階層のコストボリュームから求められる距離(第2の距離)との差に基づく項として求められる。例えば正則化部422は、解像度の低いコストボリューム((k+1)階層のコストボリューム)から各画素に写る被写体までの距離を決定し、解像度の低いコストボリュームから求めた距離と解像度の高いコストボリューム(k階層のコストボリューム)から求められる距離の差を正則化項として解像度の高いコストボリューム(k階層のコストボリューム)に加えたコストボリュームC’(修正コストボリューム)を計算する。
距離算出部420は、正則化部422により算出されたコストボリュームC’から距離画像を算出する。
次に、本実施形態の撮像装置400の動作の詳細について説明する。図17は、第4の実施形態に係る画像処理の流れの例を示すフローチャートである。
センサ制御部110は、イメージセンサ30によって生成された基準画像を取得する(ステップS401)。また、センサ制御部110は、イメージセンサ30によって生成された対象画像を取得する(ステップS402)。距離算出部420は、想定距離に応じて異なるぼけを対象画像に付加することで、対象画像のぼけ形状を補正した複数の補正画像を生成する(ステップS403)。
CV生成部421は、基準画像と補正画像とからコストボリュームを生成する(ステップS404)。例えばCV生成部421は、異なるぼけを付加して生成した補正画像と、基準画像との差をマッチングコスト(コスト)として計算する。CV生成部421は、例えば上述のステップS104と同様に、各画素を中心とする任意サイズの矩形領域における補正画像と基準画像との一致度を、当該画素のコストとして求める。各画素について、距離に応じて生成された複数の補正画像に対応する複数のコストが算出される。CV生成部421は、算出した複数のコストからコストボリュームを計算する。例えばCV生成部421は、画素の水平方向の位置、画素の垂直方向の位置、および、画素に対して求められたコスト、を含む3次元のコストボリュームを生成する。
CV生成部421は、さらに、コストボリュームを基にコストボリュームピラミッドを生成する(ステップS405)。CV生成部421は、3次元のコストボリュームの少なくとも1次元方向の解像度を段階的に低くしたコストボリュームを生成することにより、コストボリュームピラミッドを生成する。
例えばCV生成部421は、コストボリュームの水平方向と垂直方向の解像度を低下させる。CV生成部421は、コストボリュームの各スライスを、既存の縮小方法(面積平均法、キュービックコンボリューション法、再近傍法、および、バイリニア法など)で縮小する。CV生成部421は、水平方向と垂直方向の解像度を低下させたコストボリュームスライス群を含む、低解像度のコストボリュームを生成する。コストボリュームピラミッドは、このようにして任意の階層数nまで段階的に縮小したコストボリュームを含む。
正則化部422は、最上位の階層(最も解像度の低い階層)から下位の階層に向けて以下の処理を実行し、被写体までの距離を算出する。まず正則化部422は、現在の処理階層(k階層)が最上位階層であるか否かを判定する(ステップS406)。k階層が最上位階層である場合(ステップS406:Yes)、正則化部422は、k階層のコストボリュームCをC’としてステップS408に進む。このように、最上位階層の場合は、上位の階層で求められた距離との差を求められないため、コストボリュームを正則化する処理を実行しない。
k階層が最上位階層でない場合(ステップS406:No)、正則化部422は、コストボリュームCを正則化する(ステップS407)。例えば正則化部422は、コストボリュームCへ正則化項を追加することにより修正したコストボリュームC’を生成する。正則化部422は、(数12)で示すように、k階層のコストボリュームCをデータ項とし、上位階層で求めた距離b^ (k+1)とk階層で求める距離bとの差を正則化項としてk階層の修正コストボリュームC’を計算する。
なお、λは正則化パラメータである。λは定数でも良いし、上位階層ほど強度を弱めても良い。「L1」は、正則化手法としてL1正則化を適用することを示す。正則化手法はL1正則化に限られるものではなく、例えばL2正則化など他の正則化手法を使用しても良い。iは画素を表し、bは距離を表す。(数12)は、距離bの画素iごとに(数12)を適用しコストボリュームを正則化することを表す。各距離b、および、各画素iに対して正則化されたコストボリューム全体をC’と表す場合がある。
距離算出部420は、コストボリュームC’に対してコストボリュームフィルタリング(CVF)を実施する(ステップS408)。CVFは、コストボリュームの各スライスに適応する画像フィルタリング処理である。CVFでは、コストボリュームの各スライスに、エッジ保存型のFGWLS(Fast Global Image Smoothing Based on Weighted Least Squares)フィルタ、ガウスフィルタ、バイラテフィルタ、ボックスフィルタ、ガイデッドフィルタ、および、ε-フィルタなどによるフィルタリング処理が適応される。以下では、FGWLSフィルタを使用した場合を例に説明する。
距離算出部420は、(数13)で示すように、コストボリュームC’にFGWLSフィルタを適応し、コストボリュームC''を算出する。
距離算出部420は、コストボリュームC''から、各画素に写る被写体までの距離b^ を算出する(ステップS409)。例えば距離算出部420は、(数14)に示すように、各画素iについて、コストボリュームC''(b)のうち、コストが最小となる距離b^ を選択する。距離は整数値である必要はなく、距離とコストの値から重み平均を計算し、小数値で保持しても良い。
距離算出部420は、ユーザ等により指定された階層(指定階層)まで処理したか否かを判定する(ステップS410)。処理が完了していない場合(ステップS410:No)、ステップS407に戻り処理が繰り返される。処理が完了した場合(ステップS410:Yes)、距離算出部420は画像処理を終了する。なお、距離の算出は、最下位の階層まで実行する必要はない。要求される精度等に応じて、途中の階層(指定階層)までで処理を終了してもよい。
距離算出部420は、算出した距離を示す距離画像を生成して出力してもよい。図18は、撮影画像の一例を示す図である。図19は、図18の撮影画像に基づき生成される距離画像の一例を示す図である。図19の距離画像は、図18に示す撮影画像に基づき被写体までの距離を求めた結果を示している。図19では、手前にある被写体ほど暗く、奥にある被写体ほど明るく表示されている。距離画像は、指定階層に応じた解像度で生成してもよいし、より高解像度(最下位階層に対応する解像度など)で生成してもよい。
以上のように、本実施形態によれば、階層化したコストボリュームの上位階層で決定した距離との差を下位階層の距離選択の正則化項とすることで、上位階層で最適化した距離を空間的な制約として、下位階層の距離を最適化することができる。その結果、被写体の細かい凹凸形状を補償しつつ、平坦領域の距離決定が可能となる。本実施形態では、各階層で最適化した結果を用いた正則化を実施することで、撮像ノイズなどの外乱に対する頑健性を向上させることができる。
(変形例1)
(数12)では、1つの上位階層で求めた距離との差を正則化項とした。2以上の上位階層で求めた距離それぞれとの差を、それぞれ正則化項としてもよい。例えば、k階層の距離bと(k+1)階層の距離b^ (k+1)との差のみでなく、k階層の距離bと(k+2)階層の距離b^ (k+2)(第3の距離)との差も正則化項として追加してもよい。この場合、各差に対して同一または異なる正則化パラメータを用いればよい。
(変形例2)
フィルタリング処理(ステップS408等)は、撮影画像をガイドとしたフィルタリング処理としてもよい。この場合、例えばCV生成部421は、撮影画像をさらに入力し、撮影画像の水平方向と垂直方向の解像度を、コストボリュームピラミッドと同じ解像度に段階的に低くした階層数nの画像ピラミッド(画像群)を生成する。距離算出部420は、コストボリュームC’の各スライスに対して、画像ピラミッドのうちk階層の画像をガイドとしたフィルタリング処理を適応して、コストボリュームC''を算出する。
(変形例3)
コストボリュームの解像度を低下させる場合に、特定の情報を重みとする加重平均を用いてもよい。例えば、「1−該当画素のコストの最小値」、該当画素の飽和評価値、該当画素のエッジ強度(例えば水平方向のエッジ強度)、および、該当画素のエッジ勾配方向などの情報を重みαとして用いることができる。これらの情報のうち2以上の組み合わせを重みαとして用いてもよい。また、コストボリュームの解像度を低下させる場合に、撮影画像の画像ピラミッドをガイドに縮小する方法を用いてもよい。
(変形例4)
これまでは、1つの撮像部(イメージセンサ)により得られる1の視点からの撮影画像を用いて距離を算出する実施形態を説明した。第4の実施形態のようなコストボリュームフィルタリングを用いる方法は、複数の視点からの撮影画像を用いて距離を算出する方式に適用することもできる。本変形例の撮影装置は、例えば、視点の異なる少なくとも2枚以上の撮影画像を入力し、少なくとも1枚以上の撮影画像を対象画像として、対象画像を想定距離に応じた視差移動量で補正した補正画像を複数生成する。本変形例の撮影装置は、生成した補正画像群と対象画像以外の撮影画像である基準画像との差をコストとして計算する。本変形例の撮影装置は、このようにして計算したコストを用いてコストボリュームを生成する。以降の処理は、第4の実施形態と同様である。
(変形例5)
出力は距離画像に限られるものではなく、以下のような情報を出力するように構成してもよい。
・距離と位置との対応関係を示す情報(表など)
・距離の最大値、最小値、中心値、および、平均値の少なくとも1つ
・距離に応じた領域分割結果(分割した領域を示す画像など)
算出した距離を用いて撮影画像を処理することにより、以下のような情報を出力してもよい。
・全焦点画像(すべての距離で焦点を合わせた画像)
・リフォーカス画像(指定した距離で焦点を合わせた画像)
・任意距離にある画像の抽出結果
・画像と距離を使った物体認識結果または行動認識結果
上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメータ等を含む情報は、特記する場合を除いて任意に変更することができる。また、図示した装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況等に応じて、任意の単位で機能的又は物理的に、分散又は統合することができる。
また、上記実施形態に係る撮影装置の画像処理の機能は、例えば、汎用のコンピュータ装置を基本ハードウェアとして用いることで実現することが可能である。実行される画像処理プログラムは、上述してきた各機能を含むモジュール構成となっている。また、実行される画像処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、DVD等のコンピュータで読み取り可能な記録媒体に記録されて提供しても、ROM等に予め組み込んで提供しても良い。
また、上述した実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。また、各実施形態は、内容を矛盾させない範囲で適宜組み合わせることが可能である。また、各実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 フィルタ
20 レンズ
30 イメージセンサ
40 CPU
50 メモリ
60 メモリカードスロット
70 ディスプレイ
80 通信I/F
100 撮影装置
110 センサ制御部
120 距離算出部

Claims (13)

  1. ぼけ関数が非点対称に表された対象画像と、ぼけ関数が点対称に表された基準画像とを取得するセンサ制御部と、
    けを付加した前記対象画像と、前記基準画像との相関に応じて、画像に写る被写体までの距離を算出する距離算出部と
    を有する画像処理装置。
  2. 前記距離算出部は、前記対象画像に異なるぼけを付加する複数のぼけ補正カーネルのうち、異なるぼけを付加した前記対象画像と、前記基準画像との相関がより高くなる前記ぼけ補正カーネルを求めることで、前記被写体までの距離を算出する
    請求項1に記載の画像処理装置。
  3. 前記ぼけ補正カーネルは、前記対象画像のぼけを前記基準画像のぼけに補正するための畳み込み関数であって、
    前記距離算出部は、前記対象画像のぼけ関数と、前記基準画像のぼけ関数とから、任意の距離の前記被写体のぼけを補正する複数のぼけ補正カーネルを求める
    請求項2に記載の画像処理装置。
  4. 前記距離算出部は、前記対象画像にぼけを付加した補正画像と、センサ画像にぼけを付加することでぼけを補正した前記基準画像である第2の基準画像との相関に応じて、前記被写体までの距離を算出する
    請求項1に記載の画像処理装置。
  5. 前記距離算出部は、
    一方向の位置、前記一方向と異なる他方向の位置、および、前記対象画像にぼけを付加した補正画像と前記基準画像との差に基づくコスト、の3次元の情報をそれぞれ含み、前記3次元のうち少なくとも1次元方向の解像度を上位階層になるほど小さくした階層数n(nは2以上の整数)のコストボリュームを生成する生成部と、
    k階層(kは1≦k≦n−1を満たす整数)のコストボリュームを、(k+1)階層のコストボリュームから求められる第1の距離と前記k階層のコストボリュームから求められる第2の距離との差に基づく正則化項を含む修正コストボリュームに修正する正則化部と、を備え、
    前記修正コストボリュームに基づき、前記被写体までの距離を算出する
    請求項1に記載の画像処理装置。
  6. 前記正則化部は、k階層(kは1≦k≦n−1を満たす整数)のコストボリュームを、前記第1の距離と前記k階層より上位の1以上の階層のコストボリュームから求められる1以上の第3の距離との差に基づく正則化項をさらに含む修正コストボリュームに修正する、
    請求項5に記載の画像処理装置。
  7. 前記生成部は、前記一方向の位置および前記他方向の位置の少なくとも一方の次元の解像度を段階的に小さくした階層数nのコストボリュームを生成し、
    前記距離算出部は、取得された画像から、前記コストボリュームと同じ次元の解像度を段階的に小さくした階層数nの画像群を生成し、前記修正コストボリュームに対して、前記画像群のうち対応する階層の画像をガイドとしたフィルタリング処理を適用することにより、k階層での前記被写体までの距離を算出する、
    請求項5に記載の画像処理装置。
  8. 請求項1〜7の何れか一つに記載の画像処理装置と、
    少なくとも一種類以上のセンサ画像のぼけ関数を非点対称に変更するフィルタ領域を通過した光を受光し、前記フィルタ領域によりぼけ関数が非点対称に変更されたセンサ画像である前記対象画像と、該対象画像とは異なるセンサ画像である前記基準画像とを生成するイメージセンサと
    を有する撮影装置。
  9. 前記対象画像のぼけ関数は、開口部の光学中心を点対称の中心として非点対称に変更される
    請求項8に記載の撮影装置。
  10. 前記イメージセンサは、赤色の光を受光するセンサと、緑色の光を受光するセンサと、青色の光を受光するセンサとのうち、二以上のセンサを含み、二以上のセンサに含まれる第1のセンサが前記対象画像を生成し、二以上のセンサに含まれる前記第1のセンサ以外の第2のセンサが前記基準画像を生成する
    請求項8に記載の撮影装置。
  11. 前記フィルタ領域は、任意波長帯域の透過率を変更するフィルタである原色フィルタ、補色フィルタ、色補正フィルタ、赤外線カットフィルタ、紫外線カットフィルタ、NDフィルタ、又は、遮蔽板である
    請求項8〜10の何れか一つに記載の撮影装置。
  12. 前記フィルタ領域は、任意方向の偏光した光を通過する偏光板、または、任意波長帯域の集光パワーを変更するマイクロレンズである
    請求項8〜10の何れか一つに記載の撮影装置。
  13. 前記距離算出部は、前記センサ画像の各画素で算出された距離を表す距離画像を生成し、ぼけを付加した前記対象画像と前記基準画像とから、該対象画像のぼけ形状を補正した補正画像を生成し、
    前記距離画像の距離情報に基づいて、前記補正画像のぼけを除去、又は、ぼけを付加した出力画像を生成する画像生成部をさらに有する
    請求項8〜12の何れか一つに記載の撮影装置。
JP2016097910A 2015-08-20 2016-05-16 画像処理装置及び撮影装置 Active JP6608763B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/237,744 US10382684B2 (en) 2015-08-20 2016-08-16 Image processing apparatus and image capturing apparatus
CN201610687134.4A CN106469431B (zh) 2015-08-20 2016-08-18 图像处理装置
US16/459,817 US10785412B2 (en) 2015-08-20 2019-07-02 Image processing apparatus and image capturing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015162888 2015-08-20
JP2015162888 2015-08-20

Publications (3)

Publication Number Publication Date
JP2017040642A JP2017040642A (ja) 2017-02-23
JP2017040642A5 JP2017040642A5 (ja) 2018-10-18
JP6608763B2 true JP6608763B2 (ja) 2019-11-20

Family

ID=58203756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097910A Active JP6608763B2 (ja) 2015-08-20 2016-05-16 画像処理装置及び撮影装置

Country Status (3)

Country Link
US (1) US10785412B2 (ja)
JP (1) JP6608763B2 (ja)
CN (1) CN106469431B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6585006B2 (ja) 2016-06-07 2019-10-02 株式会社東芝 撮影装置および車両
JP6699897B2 (ja) 2016-11-11 2020-05-27 株式会社東芝 撮像装置、自動制御システム及びシステム
JP2018156617A (ja) * 2017-03-15 2018-10-04 株式会社東芝 処理装置および処理システム
JP6860433B2 (ja) * 2017-06-19 2021-04-14 株式会社東芝 処理装置、処理システム、方法及びプログラム
JP2019007826A (ja) * 2017-06-23 2019-01-17 ミツミ電機株式会社 測距カメラおよび測距方法
JP2019011971A (ja) * 2017-06-29 2019-01-24 株式会社東芝 推定システムおよび自動車
JP7242822B2 (ja) * 2017-06-29 2023-03-20 株式会社東芝 推定システムおよび自動車
JP2019015575A (ja) 2017-07-05 2019-01-31 株式会社東芝 画像処理装置、測距装置および処理システム
JP6878219B2 (ja) 2017-09-08 2021-05-26 株式会社東芝 画像処理装置および測距装置
WO2019202983A1 (ja) * 2018-04-17 2019-10-24 富士フイルム株式会社 撮像装置並びに距離計測方法、距離計測プログラム及び記録媒体
WO2019202984A1 (ja) * 2018-04-17 2019-10-24 富士フイルム株式会社 撮像装置並びに距離計測方法、距離計測プログラム及び記録媒体
JP6847891B2 (ja) * 2018-05-30 2021-03-24 株式会社東芝 画像処理装置、撮像装置及び方法
JP6971933B2 (ja) 2018-08-07 2021-11-24 株式会社東芝 画像処理装置及び撮像装置
JP6971934B2 (ja) 2018-08-10 2021-11-24 株式会社東芝 画像処理装置
JP6989466B2 (ja) 2018-09-13 2022-01-05 株式会社東芝 光学フィルタ、撮像装置および測距装置
JP7292979B2 (ja) 2019-05-31 2023-06-19 株式会社東芝 画像処理装置及び画像処理方法
JP7204586B2 (ja) 2019-06-17 2023-01-16 株式会社東芝 学習方法、プログラム及び画像処理装置
US11575865B2 (en) 2019-07-26 2023-02-07 Samsung Electronics Co., Ltd. Processing images captured by a camera behind a display
JP7290510B2 (ja) * 2019-08-22 2023-06-13 Automagi株式会社 劣化状態検出装置及び劣化状態検出方法
KR20210121508A (ko) * 2020-03-30 2021-10-08 삼성전자주식회사 이미지 신호 처리부의 동작 방법 및 이미지 신호 처리부를 포함하는 이미지 시스템
US11721001B2 (en) 2021-02-16 2023-08-08 Samsung Electronics Co., Ltd. Multiple point spread function based image reconstruction for a camera behind a display
US11722796B2 (en) * 2021-02-26 2023-08-08 Samsung Electronics Co., Ltd. Self-regularizing inverse filter for image deblurring

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070279618A1 (en) 2004-10-15 2007-12-06 Matsushita Electric Industrial Co., Ltd. Imaging Apparatus And Image Improving Method
JP4413844B2 (ja) * 2005-10-17 2010-02-10 富士通株式会社 画像表示制御装置
US8406564B2 (en) * 2008-09-24 2013-03-26 Microsoft Corporation Removing blur from an image
JP5675157B2 (ja) 2009-05-12 2015-02-25 キヤノン株式会社 焦点検出装置
JP2012003233A (ja) 2010-05-17 2012-01-05 Sony Corp 画像処理装置、画像処理方法およびプログラム
US9208570B2 (en) 2012-03-28 2015-12-08 Sony Corporation System and method for performing depth estimation by utilizing an adaptive kernel
EP2717012B1 (en) * 2011-05-27 2016-07-27 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
CN103314571B (zh) * 2011-11-30 2017-09-29 松下知识产权经营株式会社 摄像装置和摄像系统
CN103403494B (zh) 2011-11-30 2016-08-24 松下知识产权经营株式会社 摄像装置
JP2014026051A (ja) 2012-07-25 2014-02-06 Olympus Corp 撮像装置、画像処理装置
JP2014096062A (ja) 2012-11-09 2014-05-22 Yamaguchi Univ 画像処理方法及び画像処理装置
AU2012258467A1 (en) * 2012-12-03 2014-06-19 Canon Kabushiki Kaisha Bokeh amplification
US9467616B2 (en) * 2013-04-15 2016-10-11 Panasonic Intellectual Property Management Co., Ltd. Distance measurement apparatus and distance measurement method
US9390508B2 (en) 2014-03-03 2016-07-12 Nokia Technologies Oy Method, apparatus and computer program product for disparity map estimation of stereo images
JP2016102733A (ja) 2014-11-28 2016-06-02 株式会社東芝 レンズ及び撮影装置
US20160255323A1 (en) 2015-02-26 2016-09-01 Dual Aperture International Co. Ltd. Multi-Aperture Depth Map Using Blur Kernels and Down-Sampling
US9723197B2 (en) 2015-03-31 2017-08-01 Sony Corporation Depth estimation from image defocus using multiple resolution Gaussian difference
WO2016158196A1 (ja) * 2015-03-31 2016-10-06 富士フイルム株式会社 撮像装置及び撮像装置の画像処理方法及びプログラム

Also Published As

Publication number Publication date
CN106469431B (zh) 2020-03-24
JP2017040642A (ja) 2017-02-23
CN106469431A (zh) 2017-03-01
US20190327417A1 (en) 2019-10-24
US10785412B2 (en) 2020-09-22

Similar Documents

Publication Publication Date Title
JP6608763B2 (ja) 画像処理装置及び撮影装置
US11272161B2 (en) System and methods for calibration of an array camera
US10382684B2 (en) Image processing apparatus and image capturing apparatus
Jeon et al. Accurate depth map estimation from a lenslet light field camera
US10547786B2 (en) Image processing for turbulence compensation
US10621729B2 (en) Adaptive focus sweep techniques for foreground/background separation
US8436912B2 (en) Range measurement using multiple coded apertures
US8305485B2 (en) Digital camera with coded aperture rangefinder
JP5932476B2 (ja) 画像処理装置、撮像装置、距離計測方法および距離計測プログラム
US8432479B2 (en) Range measurement using a zoom camera
JP6643122B2 (ja) 距離画像装置、撮像装置、および距離画像補正方法
US9508153B2 (en) Distance measurement apparatus, imaging apparatus, distance measurement method, and program
US20150117756A1 (en) Processing of Light Fields by Transforming to Scale and Depth Space
US20110267485A1 (en) Range measurement using a coded aperture
JP2011171858A (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
US9759549B2 (en) Distance detecting device
Zhang et al. Extended depth-of-field via focus stacking and graph cuts
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP5900017B2 (ja) 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム
JP5673764B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよび記録媒体
JP6789677B2 (ja) 画像処理装置およびその制御方法、撮像装置、プログラム
JP2018088587A (ja) 画像処理方法および画像処理装置
JP2018005337A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190924

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191024

R151 Written notification of patent or utility model registration

Ref document number: 6608763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151