JP6112824B2 - 画像処理方法および装置、プログラム。 - Google Patents

画像処理方法および装置、プログラム。 Download PDF

Info

Publication number
JP6112824B2
JP6112824B2 JP2012244399A JP2012244399A JP6112824B2 JP 6112824 B2 JP6112824 B2 JP 6112824B2 JP 2012244399 A JP2012244399 A JP 2012244399A JP 2012244399 A JP2012244399 A JP 2012244399A JP 6112824 B2 JP6112824 B2 JP 6112824B2
Authority
JP
Japan
Prior art keywords
image
image data
focal length
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012244399A
Other languages
English (en)
Other versions
JP2013211827A (ja
Inventor
知宏 西山
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012244399A priority Critical patent/JP6112824B2/ja
Priority to US13/754,094 priority patent/US9208396B2/en
Publication of JP2013211827A publication Critical patent/JP2013211827A/ja
Application granted granted Critical
Publication of JP6112824B2 publication Critical patent/JP6112824B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more two-dimensional [2D] image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、複数視点の画像データを用いた画像の合成処理に関する。
これまで、カメラのピント調整を誤って撮像した場合は、ピント調整をやり直して再撮像する必要があった。また、奥行きの異なる複数の被写体に対してそれぞれにピントが合った画像を得たい場合には、被写体毎にピントを合わせた撮像を複数回行う必要があった。
近年、光学系に新たな光学素子を追加することで複数視点からの画像を取得し、後で画像処理によってピント位置を調節すること(リフォーカス)が可能なライトフィールドフォトグラフィという技術が発展している。
この技術を用いれば、撮像後にピント調整を行えるため、撮像時のピント調整の失敗を画像処理で補うことができるという利点がある。さらに、画像処理方法を変えることで画像中の任意の被写体にピントを合わせた複数の画像を一枚の撮像画像から得る事ができ、撮像回数を減らす事ができるという利点もある。
ライトフィールドフォトグラフィでは、複数視点の画像データから、空間中の複数の位置について、それぞれの位置を通過する光線の方向と強度(ライトフィールド、以下、「LF」という。)を計算する。そして、得られたLFの情報を用いて、仮想の光学系を通過して仮想のセンサに結像した場合の画像を計算する。このような仮想の光学系やセンサを適宜設定する事で、リフォーカスも可能となる。LFに関する数学的性質や数学的基礎などはR.NGらによって議論されている(非特許文献1)。以降では複数視点の画像データから仮想のセンサが得る画像データを計算する処理を合成処理と呼ぶ。
LFを取得するための撮像技術としては、小型のカメラ(個眼カメラ)を並べたカメラアレイや、メインレンズの後ろにマイクロレンズアレイを置いたPlenopticカメラが知られている。カメラアレイやPlenopticカメラでは、取得したLFから、仮想センサ上の画像データを撮像後に合成することができる。
LFから仮想センサ上の画像を合成する方法として、取得した複数枚の画像データを仮想的なセンサ上に射影変換し加算して平均化する方法が知られている(特許文献1)。
さらに、ズーム機構を搭載することなく、光学相当のズームを行うべく、焦点距離の異なる複数の個眼カメラを混在させた異焦点カメラアレイを用いて撮像し、ズーム時の倍率に合わせて望遠の画像を広角の画像に嵌め込む手法が知られている(特許文献2)。
WO2008/050904 特開2011−55246号公報
R.NG, M.Levoy, M.Bredif, G.Duval, M. Horowitz, P.Hanrahan,"Light Field Photography with a Hand-held Plenoptic Camera"(Stanford Tech ReportCTSR 2005-02, 2005)
例えば、特許文献2で示される異焦点カメラアレイで撮像された複数視点画像データにおいてリフォーカスする際に、特許文献1の手法を適用したとする。この場合、画角の異なる個眼カメラで撮像された画像データは利用されないので、出来上がった合成画像は相対的に低画質になってしまう。同様に、異焦点カメラアレイで撮像された複数視点画像データを用いて被写体までの距離を推定する場合も、画角の異なる個眼カメラで撮像された画像データを利用しないと、相対的に低精度になってしまう。
本発明に係る画像処理装置は、異なる焦点距離で取得された画像データを含む複数視点画像データを用いて合成画像データを生成する画像処理装置であって、複数視点画像データ中の少なくとも一部の画像データに対して、出力する焦点距離に従って解像度変換を行う解像度変換手段と、前記解像度変換された画像データを用いて、前記出力する焦点距離の合成画像データを生成する画像合成手段と、を備え、前記画像合成手段は、出力するピント位置の情報に基づいて、前記複数視点画像データに対しフィルタを作用させて、重みづけして加算することにより、前記合成画像データを生成することを特徴とする。
本発明によれば、異なる焦点距離で撮像された画像データを含む複数視点画像データの画像処理において、画角(焦点距離)の異なる画像データを利用することで、高画質な画像や高精度な距離情報などを得ることが可能になる。
実施例1に係る撮像装置の主要な構成要素を示す図である。 撮像部の具体的な例である異焦点カメラアレイを光軸上から見た図である。 出力画像生成部の内部構成の一例を示す図である。 被写体までの距離の定義を説明する図である。 出力画像生成部における処理の流れを示すフローチャートである。 複数視点画像データの撮像時の様子を示す図である。 異焦点カメラアレイで撮像された画像の一例を示す図である。 距離マップの一例を示す図である。 ユーザが出力焦点距離を指定する際に使用するUI画面の一例を示す図である。 本実施例における解像度変換とトリミングによって画角を一致させる様子を説明する図である。 使用画像加工処理の流れを示すフローチャートである。 トリミングする領域の求め方を説明する図である。 画像合成部の内部構成の一例を示す図である。 画像合成処理の流れを示すフローチャートである。 実施例1におけるマスク画像の一例を示す図である。 シフト画像が生成される様子を説明する図である。 ピント面の被写体が個眼カメラのセンサ上のどの位置に結像するかを示した図である。 実施例1に係る画像合成処理によって生成された合成画像の一例を示す図である。 (a)は、異焦点カメラアレイで撮像された複数視点画像データに対して本実施例に係る画像処理を行って得られた合成画像の一例、(b)は、同焦点カメラアレイで撮像された複数視点画像データに対し従来技術を適用して得られた合成画像の一例である。 実施例2における解像度変換の様子を説明する図である。 実施例2におけるマスク画像の一例を示す図である。 実施例3に係る出力画像生成部の内部構成の一例を示す図である。 フィルタ作用部の内部構成の一例を示す図である。 フィルタ作用部における処理の流れを示すフローチャートである。 実施例4における画像処理装置の構成要素を示す図である。 視差ベクトルの概念図である。 画像処理部における処理の流れを示すフローチャートである。 実施例4における距離推定の様子を説明する図である。 撮像部の具体的な例である異焦点Plenopticカメラの構成を示す図である。 Plenopticカメラにおいて、センサにどのように画像が形成されるかを模式的に表した図である。
[実施例1]
図1は、本実施例に係る撮像装置の主要な構成要素を示す図である。
撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、IRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどの撮像素子(センサ)などから構成され、被写体の光量を検知する。なお、本実施例における撮像部101は、異なる視点から複数の画像を同時に撮像可能な、2種類以上の焦点距離を有する複数の個眼カメラが混在した異焦点カメラアレイである。
A/D変換部102は、撮像部101によって検知された被写体の光量をデジタル値に変換し、デジタル信号(デジタル画像データ)を出力画像生成部105に送る。
ピント位置決定部103は、ユーザからの指示等に基づいて、ピント位置(ピント面)を決定する。
焦点距離設定部104は、ユーザからの指示に基づいて、出力する合成画像データの焦点距離(出力焦点距離)を設定する。
出力画像生成部105は、受け取ったデジタル画像データに対し、ピント位置情報及び出力焦点距離に基づいて合成処理等を行い、合成画像データを生成する。生成された合成画像データは表示部106に出力される。なお、出力画像生成部105は、独立した画像処理装置として構成してもよい。
表示部106は、合成画像データを表示する。
なお、図1には図示しないが、撮像装置には、上記各部を統括的に制御するCPU、CPUで実行される制御プラグラム等を格納するROM、CPUのワークエリア等として機能するRAMが備わっている。さらに、CPUからの指示に基づき撮像系の制御を行う撮像系制御部や、ユーザが各種の指示を与えるための操作部(ユーザインタフェース)も撮像装置は備えている。
ここで、撮像部101について説明する。図2は撮像部101の具体例としての異焦点カメラアレイ200を光軸上から見た図であり、計16個の個眼カメラ201で構成されている。個眼カメラ201を表す円の中に記載された記号fi(i=1〜4)は、各個眼カメラ201の焦点距離を表しており、iの数値が大きい程、焦点距離が長い。ここでは、f1=30mm、f2=60mm、f3=100mm、f4=160mmであるものとする。図2内の破線の囲み202については後述する。本実施例では上記f1〜f4までの4種類の異なる焦点距離の個眼カメラを並べた異焦点カメラアレイとしているが、各個眼カメラの焦点距離の長さや種類数はこれに限らない。また、異焦点カメラアレイの構成は図2で挙げたものに限られるわけではなく、焦点距離の種類数に応じて、個眼カメラ201の縦横の個数やレイアウト自体(放射状、円形状など)を変えても構わない。
なお、撮像部101は、上述した焦点距離の異なる複数の個眼カメラで構成される異焦点カメラアレイに限定されるわけではなく、Plenopticカメラの形態でも構わない。すなわち、2種類以上の焦点距離を有する複数のマイクロレンズが混在した異焦点Plenopticカメラであってもよい。図29は、Plenopticカメラの構成を示す図であり、光線2902がメインレンズ2901とマイクロレンズアレイ2903を通過してセンサ2904に到達する様子を表している。マイクロレンズアレイ2903は小型のレンズ(以下マイクロレンズ)を複数枚2次元平面上に配置したものである。図29では図示の都合上、1次元で表現している。図30は、上記センサ2904にどのように画像が形成されるかを模式的に表した図であり、マイクロレンズアレイ2903を構成する各マイクロレンズを通過した光が、円形の像2905を形成する様子を示している。
(出力画像生成部)
次に、出力画像生成部105の詳細について説明する。
図3は、出力画像生成部105の内部構成の一例を示す図である。
出力画像生成部105は、距離情報導出部301、画像バッファ302、使用画像加工部303、画像合成部304で構成される。以下、各部について説明する。
距離情報導出部301は、A/D変換部102から受け取ったデジタル画像データ(複数視点画像データ)を用いて、画像の各画素における被写体までの距離を導出する。ここで、撮像部101が図2で示すようなカメラアレイの場合における複数視点画像データは、それぞれの各個眼カメラ201で取得された画像データの集合を表すものとする。一方、撮像部101が図29で示すようなPlenopticカメラの場合における複数視点画像データは、それぞれのマイクロレンズで取得された画像データ(図30の円形の像2905に相当する画像のデータ)の集合を表すものとする。
図4は、距離情報導出部で導出される距離の定義を説明する図である。ここでは、図2の破線で囲まれた領域202内に含まれる個眼カメラ401、402、403から被写体404、405、406までの距離が示されている。本実施例において、画像中のある特定の被写体までの距離とは、一番焦点距離が短い個眼カメラ(本実施例では焦点距離がf1の個眼カメラ)から当該被写体までの光軸方向に測った距離(図4の例では、線分407)を指すものとする。ただし、被写体までの距離の定義はこれに限るものではなく、例えば線分408のように個眼カメラから特定の被写体までの直線距離を用いてもよい。
被写体までの距離の導出方法としては、例えば、ブロックマッチング等の手法を用いて複数視点画像データにおける複数の画像間の対応点を探索することによって視差の量を求め、その結果を使用して、被写体までの距離を演算する方法が挙げられる。その他、測距センサにより各被写体までの距離を測定してもよい。
画像バッファ302は、A/D変換部102から受け取った、視差がついた複数枚の画像のデジタルデータである複数視点画像データを一時的に格納する。
使用画像加工部303は、焦点距離設定部104で設定された出力焦点距離以下の焦点距離の個眼カメラで撮像された画像データに対し、設定された出力焦点距離に応じて解像度変換、及び画角を合わせるためのトリミングを行う。
画像合成部304は、ピント位置情報や出力焦点距離等に基づいて合成処理を行い、合成画像データを生成する。
続いて、出力画像生成部105における処理の流れについて説明する。
図5は、出力画像生成部105における処理の流れを示すフローチャートである。
ステップ501において、出力画像生成部105は、複数視点画像データを、不図示の画像データ入力端子を通してA/D変換部102から受け取る。受け取った複数視点画像データは、距離情報導出部301及び画像バッファ302に送られる。図6は、本ステップで受け取る複数視点画像データの撮像時の様子を示す図である。図6の例では、図2の破線囲み202内の個眼カメラ401〜403によって、それぞれ異なる距離にある被写体404〜406を撮像する様子が示されている。この場合、個眼カメラ401及び403の焦点距離がf1(30mm)で、個眼カメラ402の焦点距離はf2(60mm)なので、個眼カメラ401及び403の焦点距離が個眼カメラ402の焦点距離よりも短い(広角)ということになる。図6における破線の線分601、602、603はそれぞれ被写体404、405、406のピント面の位置を示している。図7は、図6の状態で撮像された各画像を示しており、個眼カメラ401及び403で撮像された画像701及び703は、個眼カメラ402で撮像された画像702に比べ広角の画像になっていることが分かる。
図5のフローチャートの説明に戻る。
ステップ502において、距離情報導出部301は、受け取った複数視点画像データを用いて、各視点から見たときの被写体までの距離を導出し、距離マップを生成する。ここで、距離マップとは、ある視点から見た画像において、画素値の代わりに画素に対応する被写体までの距離値を格納したデータである。図8は、距離マップの一例を示す図であって、個眼カメラ402で撮像した時の距離マップ(図7で示した撮像画像702に対応する距離マップ)を画像として表したものである。生成される距離マップには実際の距離値が格納されているが、そのことが直感的に理解できるよう距離値を[0,255]に正規化して画像として表している。被写体404は白、被写体405はグレー、被写体406は黒で表現されているが、これは、被写体404が最も遠く(奥)に存在し、被写体406が最も近く(手前)に存在することを表している。すなわち、画素値が小さくなるほど(つまり、暗くなるほど)被写体が手前にあることを表している。なお、この距離マップの例では、被写体404より奥の被写体(背景)の距離値が全て被写体404の距離に丸められているので、被写体404と背景とは共に白で表現されている。
図5のフローチャートの説明に戻る。
ステップ503において、ピント位置決定部103は、ユーザの指定に基づいて或いは公知の顔認識技術等を用いた所定の自動処理によって、ピント位置を決定する。ステップ503で決定されたピント位置の情報は、不図示のピント位置入力端子を介して使用画像加工部303及び画像合成部304に送られる。
ステップ504において、焦点距離設定部104は、出力する合成画像データの焦点距離(出力焦点距離)をユーザの指定に基づいて設定する。図9は、ユーザが出力焦点距離を指定する際に使用するUI画面の一例を示している。UI画面901において、ユーザがスライドバー902を調節すると表示画像の画角が変化するので、ユーザはそれを確認しながら所望の焦点距離を指定することができる。出力焦点距離は、個眼カメラの焦点距離と同じ値に設定しても良いし、個眼カメラの焦点距離とは異なる値を設定しても良い。また、指定可能な出力焦点距離の範囲は、異焦点カメラアレイを構成する各個眼カメラの焦点距離の範囲と必ずしも一致させる必要はない。例えば、本実施例では個眼カメラの中で最も長い焦点距離のものは160mmであるが、バイリニア法などの補間処理もしくは超解像処理(高解像度化処理)を施すことでより長い焦点距離の合成画像データを得ることは可能である。そのため、図9の例では設定可能な出力設定距離の上限を300mmにしている。UI画面901は一例であって、ユーザが任意の焦点距離を指定できるUIであればよく、図9で示したものに限らない。設定された出力焦点距離の情報は、不図示の出力焦点距離入力端子を介して使用画像加工部303に送られる。
図5のフローチャートの説明に戻る。
ステップ505において、使用画像加工部303は、使用画像加工処理を行う。具体的には、まず、設定された出力焦点距離よりも焦点距離が短い個眼カメラの画像データを画像バッファ305から読み出し、読み出した画像データに対し解像度変換処理を行う。さらに、使用画像加工部303は、解像度変換された画像データに対し画角を一致させるためのトリミングを行う。例えば、図7の撮像画像701〜703の複数視点画像データに対し、個眼カメラ402の焦点距離f2と等しい出力焦点距離foutが設定されたとする。この場合、個眼カメラ402よりも焦点距離の短い個眼カメラ401及び403で撮像された撮像画像701、703について、個眼カメラ402の画角に合うようにトリミングがなされる。図10は、本実施例における解像度変換とトリミングによって画角を一致させる様子を説明する図である。解像度変換された後、撮像画像702と同じ画角範囲となるようにトリミングされた画像1001及び画像1002(以下、これらの画像を「変換画像」と呼ぶ。)が示されている。使用画像加工処理の詳細については後述する。
ステップ506において、画像合成部304は、使用画像加工部303で解像度変換された変換画像のデータを用いて、設定された出力焦点距離に従った画像合成処理を行い、合成画像データを生成する。画像合成処理の詳細については後述する。
ステップ507において、画像合成部304は、生成した合成画像データを、不図示の合成画像データ出力端子を介して表示部106に出力して、本処理を終了する。
(使用画像加工処理)
次に、使用画像加工処理の詳細について説明する。ここでは、入力される複数視点画像データが、図2で示す4種類の焦点距離(f1〜f4)の個眼カメラで構成された異焦点カメラアレイ200で撮像されているものとして説明する。この場合において、各個眼カメラ201には焦点距離fi毎に通し番号miが付されており、図2に示す異焦点カメラアレイ201の場合、通し番号miにおけるiは1〜4の値をとることになる。但し、出力焦点距離fout≧f1である。また、出力焦点距離fout以下の焦点距離の個眼カメラの中で、出力焦点距離foutに最も値が近い焦点距離(以下、「近出力焦点距離」と呼ぶ)をfJとする。
図11は、使用画像加工処理の流れを示すフローチャートである。
ステップ1101において、使用画像加工部303は、近出力焦点距離fJを設定する。例えば、設定された出力焦点距離foutが120mmであった場合は、f3(100mm)<fout<f4(160mm)であるので、近出力焦点距離fJ=f3(100mm)に設定される。設定された出力焦点距離foutが200mmであった場合は、
J=f4(160mm)に設定される。
ステップ1102において、使用画像加工部303は、着目する焦点距離fiを設定する。処理開始の段階では、初期値としてi=1(f1:30mm)に設定される。
ステップ1103において、使用画像加工部303は、着目する焦点距離fiと出力焦点距離foutとが等しいかどうかを判定する。判定の結果、等しくない場合はステップ1104に進む。一方、等しい場合はステップ1108に進む。
ステップ1104において、使用画像加工部303は、着目する個眼カメラmiを設定する。処理開始の段階では、初期値としてi=1(m1)に設定される。
ステップ1105において、使用画像加工部303は、まず、設定されたmi番目の個眼カメラの撮像画像をfout/fi倍に解像度変換する。解像度変換の方法としては、例えばバイリニア法やバイキュービック法による補間処理を用いた拡大が適用される。もちろん、超解像などその他の手法で解像度変換を行っても構わない。そして、解像度変換された画像の画角範囲をfoutで撮像した場合と同じになるようトリミングする。図12は、トリミングする領域の求め方を説明する図である。図12において、1201は座標軸、1202は個眼カメラ402がカバーする画角範囲、1203は個眼カメラ403がカバーする画角範囲である。Lは個眼カメラ402と個眼カメラ403との間隔であり、dfocusはピント面までの距離である。個眼カメラ402の焦点距離がf2、対応する画角がθ2、個眼カメラ403の焦点距離がf1、対応する画角がθ1のとき、画角範囲1203の座標範囲は、以下の式(1)で表される。
(-dfocus tan(θ1/2)+L, dfocus tan(θ1/2)+L) ・・・式(1)
同様に、画角範囲1202の座標範囲は、以下の式(2)で表される。
(-dfocus tan(θ2/2), dfocus tan(θ2/2)) ・・・式(2)
よって、撮像画像の画素数をPとすると、画像をトリミングする際の左端の画素位置は、以下の式(3)で求めることができる。
同様に、画像をトリミングする際の右端の画素位置は、以下の式(4)で求めることができる。
ここでは個眼カメラが横一列に並んでいる場合のトリミング範囲の計算法を示したが、縦や斜めにある場合でも、同様に個眼カメラの重心座標からトリミング範囲を導出することが可能である。
図11のフローチャートの説明に戻る。
ステップ1106において、使用画像加工部303は、着目焦点距離fiのすべての着目個眼カメラについて、解像度変換及びトリミングが完了したかどうかを判定する。具体的な処理としては、例えばmiが最大値Miよりも小さいかどうかを判定する。mi<Miの場合(着目焦点距離fiのすべての着目個眼カメラについて、解像度変換及びトリミングが完了していない場合)であれば、ステップ1104に戻り、次の着目個眼カメラ(mi+1)を設定する。一方、mi=Miの場合(着目焦点距離fiのすべての着目個眼カメラについて、解像度変換及びトリミングが完了した場合)は、ステップ1107に進む。
ステップ1107において、使用画像加工部303は、設定された出力焦点距離fout以下のすべての焦点距離fiについて処理したかどうかを判定する。具体的には、設定中の着目焦点距離fiが、近出力焦点距離fJよりも小さいかどうかを判定する。fi<fJの場合(出力焦点距離fout以下のすべての焦点距離fiについて処理が完了していない場合)は、ステップ1102に戻り、次の着目焦点距離(fi+1)を設定する。一方、fi=fJの場合(出力焦点距離fout以下のすべての焦点距離fiについて処理が完了した場合)は、ステップ1108に進む。
ステップ1108において、使用画像加工部303は、設定された出力焦点距離に応じた合成画像処理に使用する画像データ群(使用画像データ)を、画像合成部304に出力する。
例えば、設定された出力焦点距離foutに応じて、以下のような各画像データが、使用画像データとして出力される。
まず、設定された出力焦点距離foutが100mmであった場合は、焦点距離がf1及びf2の個眼カメラの撮像画像データに対して上記解像度変換を行った変換画像データ、及び焦点距離がf3の個眼カメラの撮像画像データ(解像度変換なし)が出力される。
また、設定された出力焦点距離foutが200mmであった場合は、焦点距離がf1〜f4のすべての個眼カメラの撮像画像データに対して上記解像度変換を行った変換画像データが出力される。
(画像合成処理)
次に、画像合成処理の詳細について説明する。
図13は、画像合成部304の内部構成の一例を示す図である。画像合成部304は、重みバッファ1301、マスク画像生成部1302、画像シフト部1303、画像可算部1304、合成画像バッファ1305で構成される。以下、各部について説明する。
重みバッファ1301は、各個眼カメラで撮像された画像に対応する重みCmiおよび、各画素の重みC(x,y)を格納する。ここで、各画素の重みC(x,y)は、以下の式(5)で表される。
マスク画像生成部1302は、マスク画像maskmi(x,y)を生成する。マスク画像生成処理の詳細については後述する。
画像シフト部1303は、画像Imi(x,y)にマスク画像maskmi(x,y)を乗算して、新しい画像Imi’(x,y)を生成し、画像全体をシフトさせてシフト画像Imi’’(x,y)を生成する。
画像加算部1304は、シフト画像Imi’’(x,y)に重みCmiを乗算し、使用画像加工部303から送られた使用画像データに関して和を取り、上述の各画素の重みC(x,y)で除算する。
合成画像バッファ1305は、合成後の画像データIout(x,y)を格納する。
図14は、画像合成処理の流れを示すフローチャートである。
ステップ1401において、画像合成部304は、合成画像バッファ1305に格納されている画像Iout(x,y)の全ての画素の値を0に設定し、初期化する。
ステップ1402において、画像合成部304は、着目する焦点距離fiを設定する。処理開始の段階では、初期値としてi=1(f1)に設定される。
ステップ1403において、画像合成部304は、設定された着目焦点距離fiの焦点距離を有する個眼カメラの中から着目する個眼カメラmiを設定する。処理開始の段階では、初期値としてi=1(m1)に設定される。
ステップ1404において、マスク画像生成部1302は、マスク画像を生成する。具体的には、着目焦点距離fiに応じて、以下のようにマスク画像maskmi(x,y)が生成される。まず、設定中の着目焦点距離fiが、上述の近出力焦点距離fjよりも小さい場合には、被写体までの距離情報(距離マップ)と、ピント位置情報とに基づいてマスク画像が生成される。つまり、ピントが合っている画素(x,y)に関してはmaskmi(x,y)=0、ピントが合っていない画素(x,y)に対してはmaskmi(x,y)=1となるようなマスク画像を生成する。また、設定中の着目焦点距離fiが、上述の出力焦点距離foutに最も値が近い焦点距離fjと等しい場合には、すべての画素(x,y)に対しmaskmJ(x,y)=1となるマスク画像を生成する。図15は、本ステップで生成されるマスク画像の一例を示す図であり、前述の変換画像1001に対応するマスク画像1501、撮像画像702に対応するマスク画像1502、変換画像1002に対応するマスク画像1503が示されている。ここで、マスク画像1502及び1503内の黒い部分の画素値は0であり、その余の白い部分(及びマスク画像1502の全部)の画素値は1である。図15に示すマスク画像では、ピント面が図6の602で示される位置を想定しており、マスク画像1501及び1503において被写体405に対応する領域の画素値が0になっていることが分かる。このようなマスク画像を生成する理由は、焦点距離が異なる個眼カメラで撮像された画像データ同士を合成するときに、ピント面の解像度が劣化しないようにするためである。
図14のフローチャートの説明に戻る。
ステップ1405において、画像シフト部1303は、着目個眼カメラmiで撮像された画像Imi(x,y)に、生成されたマスク画像maskmi(x,y)を画素毎に乗算して、新たな画像Imi’(x,y)を生成する。
ステップ1406において、画像シフト部1303は、生成された新たな画像Imi’(x,y)全体をシフトさせて、シフト画像Imi’’(x,y)を生成する。図16は、シフト画像が生成される様子を説明する図である。ここでは、撮像画像702における被写体405にピントを合わせる場合を想定している。図16において、撮像画像702と変換画像1002との間には、被写体405に関し両矢印で示される分の視差1601が存在している。そして、シフト画像1602において、視差1601に等しい量のベクトル1603分だけ、撮像画像1002全体が右方向にシフトされている。
ここで、シフト量を導出する方法について説明する。
図17は、ピント面の被写体が個眼カメラのセンサ上のどの位置に結像するかを示した図である。図17において、1701はピント面、1702はピント面上の被写体、1703は被写体1702で反射した光線を表している。1704は個眼カメラのレンズであり、1705は個眼カメラのセンサを表している。z軸を光軸と平行に取り、z軸の原点を最も短い焦点距離f1の個眼カメラの光学中心に取ると、mi番目の個眼カメラの光学中心1706の座標は(Xmi,Ymi,fi−f1)となる。1707は被写体1702がmi番目の個眼カメラにおいて結像した点であり、被写体1702がセンサ1705上で結像した点からの相対座標は約(fimi/dfocus,fimi/dfocus)となる。なお、dfocusはfiに比べて十分大きいとする。よって、センサ1705の画素ピッチをΔとしたとき、mi番目の個眼カメラの画像を(−fimi/{dfocusΔ},−fimi/{dfocusΔ})だけシフトさせると、被写体1702が各画像上で重なるようにできる。
図14のフローチャートの説明に戻る。
ステップ1407において、画像加算部1304は、合成画像バッファ1305に格納されている画像Iout(x,y)を、以下の式(6)に基づいて更新する。具体的には、合成画像バッファ1305内の画像Iout(x,y)に、生成されたシフト画像Imi’’(x,y)を加算したものを、新たなIout(x,y)とする。
ステップ1408において、画像合成部304は、設定中の着目焦点距離fiのすべての個眼カメラに対して処理が完了したかどうかを判定する。具体的な処理としては、例えばmiが最大値(ここでは、Mi)よりも小さいかどうかを判定する。mi<Miの場合(設定中の着目焦点距離fiのすべての個眼カメラについて処理が完了していない場合)は、ステップ1403に戻り、次の着目個眼カメラ(mi+1)を設定する。一方、mi=Miの場合(設定中の着目焦点距離fiのすべての個眼カメラについて処理が完了した場合)はステップ1409に進む。
ステップ1409において、画像合成部304は、出力焦点距離fout以下のすべての焦点距離について処理したかどうかを判定する。出力焦点距離fout以下のすべての焦点距離について処理が完了していない場合は、ステップ1402に戻り、次の着目焦点距離(fi+1)を設定する。一方、出力焦点距離fout以下のすべての焦点距離について処理が完了した場合は、ステップ1410に進む。
ステップ1410において、画像加算部1304は、合成画像バッファ1305に格納されている画像Iout(x,y)を、以下の式(7)に基づいて更新する。具体的には、合成画像バッファ1305内の画像Iout(x,y)を、式(5)で示される各画素の重みC(x,y)で除算する。
ステップ1411において、画像合成部304は、すべての処理を終えた合成画像バッファ内の画像Iout(x,y)の画像データ(合成画像データ)を、表示部106に出力して、本処理を終了する。
図18は、画像合成処理によって生成された合成画像の一例を示す図である。
合成画像1801は、ピント面を図6の601とし、被写体404の位置が合うように変換画像1001及び1002をシフトして撮像画像702に加算して生成された画像である。合成画像1801では被写体404にピントが合っており、被写体405、406にはボケが発生している。また、被写体405と被写体406とでは、被写体406の方がよりボケている。
合成画像1802は、ピント面を図6の602とし、被写体405の位置が合うように変換画像1001及び1002をシフトして撮像画像702に加算して生成された画像である。合成画像1802では被写体405にピントが合っており、被写体404、406にはそれぞれ同程度のボケが発生している。
合成画像1803は、ピント面を図6の603とし、被写体406の位置が合うように変換画像1001及び1002をシフトして撮像画像702に加算して生成された画像である。合成画像1803では被写体406にピントが合っており、被写体404、405にはボケが発生している。また、被写体404と被写体405とでは、被写体404の方がよりボケている。
このようにピント面を動かすことで、所望の被写体にピントを合わせた合成画像を得ることができる。
図18で示したような合成画像を生成するとき、変換画像1001及び1002は、撮像画像702に比べてピント面での解像度が低い。そのため、これらの画像データに何等の処理も施すことなく単純に合成すると、ピント面の解像度が劣化してしまう。そこで、本実施例では、ピント面に関して撮像画像702の画素値だけを用いることとし、合成する前に図15で示したようなマスク画像を乗算している。
図19の(a)は、焦点距離の異なる個眼カメラを備えた異焦点カメラアレイで撮像された複数視点画像データに対し、本実施例に係る画像処理を行った場合の合成画像を示している。一方、図19の(b)は、異焦点カメラアレイのうち、ある焦点距離の個眼カメラで撮影された複数視点画像データのみを用いて従来の画像処理を行った場合の合成画像を示している。共に、アルファベットの書かれた背景の前に市松模様の正方形が置かれ、当該正方形の手前でピントが合っている状態であるが、本実施例を適用した(a)の方が、ボケ部分が滑らかでノイズも低減され、高画質になっていることが分かる。
なお、本実施例では、複数視点画像データを、異焦点カメラアレイを採用した多眼方式の撮像装置で撮像することで一度に得ている。しかし、例えば、1回の撮像で1枚の画像を撮像する単眼方式の撮像部を有する撮像装置1台のみを用い、視点をずらし、焦点距離を変えて複数回撮像することで、複数視点画像データを得るようにしても良い。その場合は各撮像時刻における当該撮像装置に番号を割り当てて撮像画像データを管理することで、異焦点カメラアレイを採用した多眼方式の撮像装置で撮像した場合と同様に扱うことができる。
以上のとおり、本実施例に係る発明によれば、異なる焦点距離で撮像された複数視点画像データにおいて、高画質なリフォーカスを行うことができる。
[実施例2]
実施例1においては、出力焦点距離以下の焦点距離の個眼カメラで撮像された画像データのみを用いて画像合成を行う態様について説明した。次に、出力焦点距離の長短に関わらず、すべての個眼カメラで撮像された画像データを用いて画像合成を行う態様について、実施例2として説明する。なお、実施例1と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
本実施例では、図5のフローチャートのステップ505における使用画像加工処理において、設定された出力焦点距離に関わらず、異焦点カメラアレイを構成する全ての個眼カメラで撮像された画像データに対して、必要に応じた解像度変換が実行される。
図20は、本実施例における解像度変換の様子を説明する図である。
撮像画像2001は、個眼カメラ402よりも長い焦点距離を持つ個眼カメラ(焦点距離がf3:100mm或いはf4:160mmの個眼カメラ)で撮像された画像を示している。出力焦点距離foutは、個眼カメラ402の焦点距離であるf2:60mmに設定されているものとする。この場合において、使用画像加工部303は、撮像画像2001を個眼カメラ402の焦点距離であるf2:60mm相当に解像度を変換し、変換画像2002を生成する。ここでの解像度変換の方法としては、例えばバイリニア法やバイキュービック法による補間処理を用いた縮小が適用される。なお、個眼カメラ402の焦点距離f2よりも短い焦点距離f1:30mmの撮像画像については、実施例1と同様の解像度変換処理(拡大)が行われる。
さらに、本実施例では、図14のフローチャートのステップ1404におけるマスク画像生成処理において、図21に示すようなマスク画像2100が生成され、画像合成処理がなされる。すなわち、マスク画像生成部1302は、fi>foutの時、解像度変換後のmi番目の個眼カメラがカバーしている画角内の画素(x,y)に関してはmaskmi(x,y)=1となるようなマスク画像を生成する。そして、それ以外の画素(x,y)に対してはmaskmi(x,y)=0となるようなマスク画像を生成する。図21に示したマスク画像2100の黒い部分の画素値は0であり、白い部分の画素値は1である。そして、画素値が1の領域(白の矩形領域)は変換画像2002と同じ大きさである。マスク画像2100における画素値が1の領域は、実施例1におけるトリミング領域の導出と同様の方法でその位置を導出することができる。例えば、前述の図12における画角範囲1203を撮像画像702に、画角範囲1202を変換画像2001にそれぞれ置き換えて処理することで、上記矩形領域の左端及び右端の画素位置を得ることができる。なお、個眼カメラの焦点距離fiが出力焦点距離fout以下の時のマスク画像の生成は、実施例1と同様である。
このようにして、異なる焦点距離の画像データをすべて用いて画像合成を行うことにより、出力焦点距離よりも焦点距離が長い(望遠)個眼カメラで撮像された被写体に対しては、実施例1の手法よりもさらに高画質にすることが可能となる。
[実施例3]
次に、ボケをより滑らかにするために各画像にフィルタを作用させる態様について、実施例3として説明する。なお、実施例1及び2と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
図22は、本実施例に係る出力画像生成部2200の内部構成の一例を示す図である。実施例1に係る出力画像生成部105と比較すると(図3参照)、本実施例に係る出力画像生成部2200は、フィルタ作用部2201が追加されているのが分かる。
(フィルタ作用部)
図23は、フィルタ作用部2201の内部構成の一例を示す図である。
フィルタ作用部2201は、画像バッファ2301、フィルタ径導出部2302、作用判定部2303、係数導出部2304、演算部2305で構成される。以下、各部について説明する。
画像バッファ2301は、使用画像加工部306から読み込まれ、不図示の画像データ入力端子を通して入力された、個眼カメラの画像データを格納する。
フィルタ径導出部2302は、着目する個眼カメラから見た距離マップ、ピント位置情報、撮像部101の特性を示すパラメータ情報を用いて、着目画素のフィルタのタップ数及び周辺画素におけるフィルタのタップ数を導出する。距離マップ、ピント位置情報、並びに撮像部101に関するパラメータは、それぞれ不図示の距離マップ入力端子、ピント位置入力端子、パラメータ入力端子より入力される。
作用判定部2303は、フィルタを作用させるか否か、具体的には、着目画素と周辺画素との距離の前後関係を比較し、周辺画素値に係数をかけて着目画素値に加算するか否かを判定する。
係数導出部2304は、周辺画素が、着目画素に及ぼす影響を表す係数を導出する。
演算部2305は、周辺画素の画素値に係数導出部2304で導出された係数を乗算して、画像バッファ2301から読みだした画像データにおける着目画素値に加算する。演算部2305で処理された画像データ(ボケ画像データ)は、不図示のボケ画像データ出力端子を介して画像合成部304に送られる。
図24は、フィルタ作用部2201における処理の流れを示すフローチャートである。
ステップ2401において、フィルタ作用部2201は、着目する個眼カメラの画像データを取得する。
ステップ2402において、フィルタ作用部2201は、着目画素の画素位置(x,y)を設定する。処理開始の段階では、初期値(ここでは、画像の一番左上の画素の位置)が設定され、以降は、左上から右下に向かって画素位置が順次更新されるものとする。なお、処理開始の段階では、上記初期値の設定と共に、画像バッファ2301内のボケ画像データIblurのすべての画素の画素値を0に設定する。
ステップ2403において、フィルタ作用部2201は、着目画素の周辺に位置する画素(周辺画素)の画素位置(x’,y’)を設定する。作用させるフィルタサイズの最大値を(2S+1)×(2S+1)とすると、周辺画素の画素位置(x’,y’)は、以下の順に更新されるものとする。
(x−S,y−S),(x−S+1,y−S),・・・(x+S,y−S),(x−S,y−S+1),・・・・・(x+S,y+S)
よって、処理開始の段階では初期値として(x−S,y−S)が設定され、この際、係数和sumが0に設定される。なお、フィルタサイズの最大値は予め決めておいても良いし、ピントから一番離れている被写体のフィルタのタップ数を基に決めてもよい。このようにして周辺画素の画素位置は、着目画素の画素位置(x,y)を中心として、(2S+1)×(2S+1)のサイズの正方形が左上から右下に向かって更新される。但し、周辺画素位置が画像をはみ出すときは画像内にクリッピングするものとする。
ステップ2404において、フィルタ径導出部2302は、着目画素と周辺画素のフィルタ径を導出する。具体的には、設定された着目画素のフィルタのタップ数σ(x,y)と、設定された周辺画素のフィルタのタップ数σ(x”,y’)を導出する。ここではフィルタのタップ数として、個眼カメラの視差量に比例する量を採用することにする。ここで、着目画素に像を結ぶ被写体の距離をd(x,y)、ピント位置に対応する距離をdfocus、個眼カメラの間隔をL、画素ピッチをΔ、Aを適当な比例定数とすると、図17から、以下の式(8)を満たすようにσ(x,y)を決めればよいこことが分かる。
ステップ2405において、作用判定部2303は、フィルタを作用させる画素かどうかを判定する。具体的には、周辺画素に像を結ぶ被写体の奥行きをd(x’,y’)として、以下の式(9)及び式(10)を用いて対象画素かどうかを判定する。
この場合において、式(9)は着目画素のオクルージョンの有無を判定するための条件、式(10)は前ボケを奇麗に生成するために設けた条件である。式(9)及び式(10)のいずれかが「真」の場合は対象画素と判定されることになり、ステップ2406に進む。一方、どちらとも「偽」の場合は対象画素ではないと判定されることになり、ステップ2403に戻って、次の周辺画素の画素位置(x’,y’)が設定される。なお、オクルージョンの影響を考慮して、最終的なボケを滑らかにすることができるのであれば、フィルタを作用させる画素かどうかを判定するための式は、上記式(9)や式(10)に限られない。
ステップ2406において、係数導出部2304は、周辺画素のタップ数σ(x’,y’)から係数cを導出する。ここでは係数cはガウシアンであるとし、以下の式(11)を用いて導出するものとする。
なお、係数cは、ボケを滑らかにするための係数であれば、ガウシアンに限らない。
ステップ2407において、演算部2305は、着目画素のIblurと係数和sumを、以下の式(12)及び式(13)に従って更新する。
ステップ2408において、フィルタ作用部2201は、着目画素の周辺の画素(2S+1)×(2S+1)を全て処理したかどうかを判定する。判定の結果、着目画素の周辺画素(2S+1)×(2S+1)のすべてについて処理が終わっている場合は、ステップ2409に進む。一方、未処理の周辺画素がある場合は、ステップ2403に戻って、次の周辺画素の画素位置(x’,y’)が設定される。
ステップ2409において、演算部2305は、I(x,y)をsumで徐算する。
ステップ2410において、フィルタ作用部2201は、着目画素の画素位置(x,y)が、取得した画像データ内のすべての画素を網羅したかどうかを判定する。判定の結果、すべての画素が網羅されている場合は、ステップ2411に進む。一方、未処理の画素がある場合は、ステップ2402に戻って、次の着目画素の画素位置(x,y)が設定される。
ステップ2411において、フィルタ作用部2201は、不図示のボケ画像データ出力端子を通して、ボケ画像データを画像合成部304に出力する。
以上がフィルタ作用部2201における処理である。
本実施例によれば、画像を合成する前に、各画像にフィルタを作用させることにより、よりボケが滑らかな画像を生成することが可能になる。
[実施例4]
次に、異なる焦点距離の個眼カメラの情報を用いて、被写体までの距離推定の精度を向上させる態様について、実施例4として説明する。なお、実施例1〜3と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
ここでは、複数視点画像データに含まれる画像群の中から基準となる画像(以下、「基準画像」と呼ぶ。)を一枚選択し、選択された基準画像に対する視差(視差ベクトル)を求めることで、距離情報を得るものとする。複数視点画像データに含まれる各画像には、1,2,3,・・・,Mといった具合に各視点(各個眼カメラ)に対応付けられた番号が付されており、どの画像がどの視点(どの個眼カメラ)で撮像されたのかが識別可能になっているものとする。
図25は、本実施例に係る距離情報導出部301の内部構成を示す図である。本実施例の場合、距離情報導出部301に入力された複数視点画像データは、基準画像設定部2501と解像度変換部2502とに送られる。
基準画像設定部2501は、複数視点画像データに含まれる画像群の中から基準となる画像(例えば、画像群のうち最も広角の画像或いはカメラアレイの中央に配置された個眼カメラで撮像された画像)を1枚選択する。そして、選択した基準画像の撮像時の焦点距離ffocusを解像度変換部2502及び視差導出部2503へ送る。
解像度変換部2502は、焦点距離fiの個眼カメラで撮像された画像に対し、ffocus/fi倍に解像度を変換する処理を行う。この解像度変換処理の詳細については後述する。
視差導出部2503は、画素位置(x,y)に対し、解像度変換処理を施された画像(以下、「解像度変換画像」と呼ぶ。)と基準画像との間の視差ベクトル(u(x,y),v(x,y))を求める。視差の導出は、例えば、ブロックマッチング、位相限定相関法、Lucas-Kanade法など公知の手法を適用すればよい。図26は、視差ベクトルの概念を説明する図である。図26において、(a)は基準画像、(b)は解像度変換画像を示している。そして、同(c)は、(a)に示す基準画像と(b)に示す解像度変換画像とを重ねた状態を示す図であり、各被写体404〜406の下にある矢印2601〜2603が、各被写体の視差ベクトルを表している。本実施例では視差ベクトルを画素ごとに求めるものとするが、画像中の特定の領域ごとに求めてもよいし、着目する被写体に関して求めてもよい。
距離情報推定部2504は、視差導出部2503で導出された視差ベクトルの情報を基に、被写体までの距離を推定する。推定した距離情報は画像合成部304に出力される。
図27は、本実施例における、複数視点画像データから被写体までの距離を求める処理の流れを示すフローチャートである。
ステップ2701において、基準画像設定部2501は、AD変換部102から複数視点画像データを受け取り、複数視差画像データに含まれる画像群の中から基準となる画像を1枚選択し、基準画像に設定する。
ステップ2702において、解像度変換部2502は、基準画像に設定された画像の焦点距離ffocusに基づいて、複数視点画像データを構成する各画像に対し解像度変換処理を行う。画像具体的には、複数視点画像データを構成する各画像のうち処理対象となるi番目の画像(iは1〜Mの自然数)について、当該画像の焦点距離fiが基準画像の焦点距離ffocusより大きい場合(fi>ffocus)には、画像を縮小する解像度変換を行い(図20参照)。同様に、当該画像の焦点距離fiが基準画像の焦点距離ffocusより小さい場合(fi<ffocus)には、画像を拡大する解像度変換を行う(図10参照)。解像度変換の方法としては、実施例1と同様、バイリニア法やバイキュービック法による補間処理が適用されるが、実施例1とは異なり、本実施例ではトリミングは行わない。また、fi=ffocusであれば、解像度変換は行わない。
ステップ2703において、視差導出部2503は、処理対象であるi番目の画像の視差ベクトルをブロックマッチングなどの方法により求める。
ステップ2704において、未処理の画像があるかどうか(i<Mかどうか)が判定される。i<Mであればiをi+1に更新してステップ2702に戻り、次の画像についてステップ2702及びステップ2703の処理が実行される。一方、i≧Mであれば、ステップ2705に進む。
ステップ2705において、距離情報推定部2504は、距離推定を行う領域(対象領域)を設定する。対象領域は、ユーザが不図示のUIを介して指定しても良いし、画像中の特徴点を例えば顔認識技術等で検出し、検出された特徴点を含む領域を対象領域に設定するようにしてもよい。また、画像中の特定の領域ではなく、すべての画素を対象に距離推定を行ってもよい。
ステップ2706において、距離情報推定部2504は、設定された対象領域までの距離を推定する。具体的には、以下のとおりである。
図28は、本実施例に係る、焦点距離の異なる個眼カメラの情報を用いた距離推定を説明する図である。図28において、点2801は距離推定がなされた対象領域である被写体の位置、点2802は実際の被写体の位置を示している。また、線分2803は点2801と各個眼カメラのレンズの主点1706とを結んだ線であり、点2804は線分2803とセンサ1707との交点である。そして、点2805はセンサ1707上の被写体の像の位置を示している。この場合において、点2801と点2802とが一致すれば、点2804と点2805とは一致することになる。よって、点2804と点2805との差分がなるべく小さくなるように被写体の位置を示す点2801の座標(xobj,yobj,zobj)を推定する。
まず、点2804の座標は、以下の式(14)で表すことができる。
ここで、太字で示されるxobj及びXmiは(x,y)の2次元ベクトルを表しており、(Xmi、Ymi)は主点1706の座標を示している。Xmiの添え字のmiは焦点距離fiの個眼カメラの番号を表し、(xobj, yobj, zobj)は推定する被写体の座標を示している。通常、zobjはfiに比べて十分大きいので、ここでは、上記式(14)においてfi−f1を無視するものとする。そして、点2805の光軸2806に対する相対座標を(sx,mi,sy,mi)とすると、点2804と点2805との差分が各個眼カメラで小さくなるようにするには、例えば、次の式(15)で示される値を小さくすればよい。
上記式(15)において、iはi番目の焦点距離を表すインデックスであり、miはi番目の焦点距離fiを持つ個眼カメラのインデックスである。iとmiに関する和は、同一被写体を見ている個眼カメラについて取るものとする。
基準画像において距離推定を行う被写体を決めると、基準画像における相対座標(sxmi,symi)を求めることができる。それには基準画像の中心を原点とした時の画素位置に、センサ1707の画素ピッチを乗算すればよい。別の個眼カメラで撮像された画像における相対座標(sxmi',symi')は、ステップ2703で求めた視差ベクトル(u(x,y),v(x,y))に、基準画像との焦点距離の比fi/ffocusおよび、センサ1707の画素ピッチΔを乗算し、基準画像における被写体の位置ベクトルを加算することで求めることができる。即ち、相対座標(sxmi',symi')は、以下の式(16)で求められる。
ここで、Zobj≡1/ zobj、Xobj≡Zobj xobj、Yobj≡Zobj yobjと置くと、以下の式(17)が得られる。
そして、上記式(17)をZobjで偏微分して0と置くと、以下の式(18)が得られる。
ここで、以下の式(19)の関係を満たすように座標系の原点を選ぶと、上記式(18)は、以下の式(20)のように簡単化される。
いま、Zobj=1/zobjなので、被写体までの距離は、式(21)で表されることになる。
よって、個眼カメラの主点1706の座標および被写体の像の位置(点2805)が分かると、上記式(21)から、被写体までの距離を推定することができる。
ここで、同一焦点距離の個眼カメラの情報のみを用いる場合よりも、異なる焦点距離の個眼カメラの情報を用いる方が、距離推定の精度が向上することについて説明する。
上記式(20)を相対座標(sxmi,sxmi)で微分すると、以下の式(22)が得られる。
この場合において、視差ベクトルの誤差がお互いに独立であり、各視差ベクトルの誤差は全てδsであるとすると、距離推定誤差δzobjは、以下の式(23)のようになる。
上記式(23)から明らかなように、異なる焦点距離の個眼カメラの情報を多く用いるほど、右辺の分母の値が大きくなり距離推定誤差δzobjが小さくなるので、距離推定精度が向上することが分かる。
以上のようにして、被写体までの距離が推定される。そして、推定によって得られた被写体までの距離情報のデータは画像合成部304に送られ、画像合成処理に利用される。
本実施例によれば、異なる焦点距離の画像データを用いることで、同一焦点距離の個眼カメラのみを用いて距離推定する場合より、高精度に被写体までの距離を推定することが可能になる。
なお、実施例1で説明した出力画像生成部105の一構成要素である距離情報算出部301の変形例として本実施例を説明したが、独立した距離情報導出装置として構成してもよい。そのような独立した距離情報導出装置によって得た被写体までの距離情報は、画像合成処理以外の用途、例えば、ジェスチャー認識、三次元計測、不要被写体除去などに利用することが考えられる。
[実施例5]
さらなる態様として、第一の焦点距離を有する個眼カメラで撮像した画像データを用いて距離推定を行い、得られた距離情報を利用して、第一の焦点距離とは異なる第二の焦点距離を有する個眼カメラで撮像した画像データの合成処理を行ってもよい。
この場合において、第一の焦点距離は第二の焦点距離よりも短い(すなわち、画像合成に用いる画像の画角よりも距離推定に用いる画像の画角の方がより広角)であることが望ましいが、特に限定されるものではない。なお、距離推定や画像合成の具体的な方法については他の実施例で説明したとおりである。
(その他の実施形態)
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (7)

  1. 異なる焦点距離で取得された画像データを含む複数視点画像データを用いて合成画像データを生成する画像処理装置であって、
    複数視点画像データ中の少なくとも一部の画像データに対して、出力する焦点距離に従って解像度変換を行う解像度変換手段と、
    前記解像度変換された画像データを用いて、前記出力する焦点距離の合成画像データを生成する画像合成手段と、
    を備え
    前記画像合成手段は、出力するピント位置の情報に基づいて、前記複数視点画像データに対しフィルタを作用させて、重みづけして加算することにより、前記合成画像データを生成する
    ことを特徴とする画像処理装置。
  2. 前記少なくとも一部の画像データは、前記出力する焦点距離よりも短い焦点距離で取得された画像データであり、
    前記解像度変換手段は、前記短い焦点距離で取得された画像データに対し、拡大を伴う解像度変換を行う、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記少なくとも一部の画像データは、前記出力する焦点距離よりも長い焦点距離で取得された画像データであり、
    前記解像度変換手段は、前記長い焦点距離で取得された画像データに対しては縮小を伴う解像度変換を行う、
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記複数視点画像データが、2種類以上の焦点距離を有する、異なる視点からの複数の画像を同時に撮像可能な多眼方式の撮像装置で取得された画像データであることを特徴とする請求項1〜のいずれか1項に記載の画像処理装置。
  5. 前記異なる視点からの複数の画像を同時に撮像可能な多眼方式の撮像装置は、異焦点カメラアレイ或いは異焦点Plenopticカメラであることを特徴とする請求項に記載の画像処理装置。
  6. 異なる焦点距離で取得された画像データを含む複数視点画像データを用いて合成画像データを生成する画像処理方法であって、
    前記複数視点画像データの中の少なくとも一部画像データに対し、出力する焦点距離に従って解像度変換を行う解像度変換ステップと、
    前記解像度変換された画像データを用いて、前記出力する焦点距離の合成画像データを生成する画像合成ステップと、
    を含み、
    前記画像合成ステップでは、出力するピント位置の情報に基づいて、前記複数視点画像データに対しフィルタを作用させて、重みづけして加算することにより、前記合成画像データを生成する
    ことを特徴とする画像処理方法。
  7. コンピュータを請求項1〜のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2012244399A 2012-02-28 2012-11-06 画像処理方法および装置、プログラム。 Active JP6112824B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012244399A JP6112824B2 (ja) 2012-02-28 2012-11-06 画像処理方法および装置、プログラム。
US13/754,094 US9208396B2 (en) 2012-02-28 2013-01-30 Image processing method and device, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012041147 2012-02-28
JP2012041147 2012-02-28
JP2012244399A JP6112824B2 (ja) 2012-02-28 2012-11-06 画像処理方法および装置、プログラム。

Publications (2)

Publication Number Publication Date
JP2013211827A JP2013211827A (ja) 2013-10-10
JP6112824B2 true JP6112824B2 (ja) 2017-04-12

Family

ID=49002955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012244399A Active JP6112824B2 (ja) 2012-02-28 2012-11-06 画像処理方法および装置、プログラム。

Country Status (2)

Country Link
US (1) US9208396B2 (ja)
JP (1) JP6112824B2 (ja)

Families Citing this family (126)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
SG185500A1 (en) 2010-05-12 2012-12-28 Pelican Imaging Corp Architectures for imager arrays and array cameras
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
CN103765864B (zh) 2011-05-11 2017-07-04 派力肯影像公司 用于传送和接收阵列照相机图像数据的系统和方法
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
JP5459337B2 (ja) * 2012-03-21 2014-04-02 カシオ計算機株式会社 撮像装置、画像処理方法及びプログラム
JP5950678B2 (ja) * 2012-04-27 2016-07-13 キヤノン株式会社 撮像装置、制御方法、及びプログラム
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
EP2873028A4 (en) 2012-06-28 2016-05-25 Pelican Imaging Corp SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8988538B2 (en) * 2012-07-02 2015-03-24 Canon Kabushiki Kaisha Image pickup apparatus and lens apparatus
FI4296963T3 (fi) 2012-08-21 2025-03-31 Adeia Imaging Llc Menetelmä syvyyden tunnistamiseksi kameraryhmällä otetuista kuvista
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
JP5995614B2 (ja) * 2012-08-31 2016-09-21 キヤノン株式会社 距離情報推定装置
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9547160B2 (en) 2013-01-05 2017-01-17 Light Labs Inc. Methods and apparatus for capturing and/or processing images
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) * 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
JP5953270B2 (ja) * 2013-07-04 2016-07-20 オリンパス株式会社 撮像装置
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
JP6202982B2 (ja) * 2013-10-18 2017-09-27 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
US9325906B2 (en) * 2013-10-18 2016-04-26 The Lightco Inc. Methods and apparatus relating to a thin camera device
JP6257260B2 (ja) * 2013-10-18 2018-01-10 キヤノン株式会社 撮像装置及びその制御方法
US9551854B2 (en) 2013-10-18 2017-01-24 Light Labs Inc. Methods and apparatus for controlling sensors to capture images in a synchronized manner
US9374514B2 (en) 2013-10-18 2016-06-21 The Lightco Inc. Methods and apparatus relating to a camera including multiple optical chains
US9736365B2 (en) 2013-10-26 2017-08-15 Light Labs Inc. Zoom related methods and apparatus
US9467627B2 (en) * 2013-10-26 2016-10-11 The Lightco Inc. Methods and apparatus for use with multiple optical chains
US9686471B2 (en) 2013-11-01 2017-06-20 Light Labs Inc. Methods and apparatus relating to image stabilization
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
JP6278668B2 (ja) * 2013-11-22 2018-02-14 キヤノン株式会社 複眼撮像装置
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
JP6200300B2 (ja) * 2013-11-28 2017-09-20 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
JP6257316B2 (ja) * 2013-12-25 2018-01-10 キヤノン株式会社 撮像装置およびその制御方法
US9554031B2 (en) 2013-12-31 2017-01-24 Light Labs Inc. Camera focusing related methods and apparatus
JP5527491B2 (ja) * 2014-01-10 2014-06-18 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
US9807372B2 (en) * 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
US20150244949A1 (en) 2014-02-21 2015-08-27 Rajiv Laroia Illumination methods and apparatus
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
JP6376920B2 (ja) * 2014-03-07 2018-08-22 キヤノン株式会社 複眼撮像装置
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
CN105100579B (zh) * 2014-05-09 2018-12-07 华为技术有限公司 一种图像数据的采集处理方法及相关装置
EP3101892A4 (en) * 2014-05-21 2017-07-26 Sony Corporation Image processing apparatus and method
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
JP2016015567A (ja) * 2014-07-01 2016-01-28 株式会社東芝 電子機器、処理方法およびプログラム
CN106575366A (zh) 2014-07-04 2017-04-19 光实验室股份有限公司 关于检测和/或指示脏镜头状况的方法和装置
US10110794B2 (en) 2014-07-09 2018-10-23 Light Labs Inc. Camera device including multiple optical chains and related methods
JP6478511B2 (ja) * 2014-08-01 2019-03-06 キヤノン株式会社 画像処理方法、画像処理装置、複眼撮像装置、画像処理プログラム、および、記憶媒体
US9396409B2 (en) 2014-09-29 2016-07-19 At&T Intellectual Property I, L.P. Object based image processing
JP2017531976A (ja) 2014-09-29 2017-10-26 フォトネイション ケイマン リミテッド アレイカメラを動的に較正するためのシステム及び方法
US9912865B2 (en) 2014-10-17 2018-03-06 Light Labs Inc. Methods and apparatus for supporting burst modes of camera operation
JP6624776B2 (ja) * 2014-11-26 2019-12-25 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
KR20160072687A (ko) * 2014-12-15 2016-06-23 삼성전기주식회사 카메라 모듈
EP3235243A4 (en) 2014-12-17 2018-06-20 Light Labs Inc. Methods and apparatus for implementing and using camera devices
US9544503B2 (en) 2014-12-30 2017-01-10 Light Labs Inc. Exposure control methods and apparatus
JP6436783B2 (ja) * 2015-01-09 2018-12-12 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6576046B2 (ja) * 2015-02-03 2019-09-18 キヤノン株式会社 複眼撮像装置
US9824427B2 (en) 2015-04-15 2017-11-21 Light Labs Inc. Methods and apparatus for generating a sharp image
US10091447B2 (en) 2015-04-17 2018-10-02 Light Labs Inc. Methods and apparatus for synchronizing readout of multiple image sensors
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9857584B2 (en) 2015-04-17 2018-01-02 Light Labs Inc. Camera device methods, apparatus and components
US10075651B2 (en) 2015-04-17 2018-09-11 Light Labs Inc. Methods and apparatus for capturing images using multiple camera modules in an efficient manner
US9967535B2 (en) 2015-04-17 2018-05-08 Light Labs Inc. Methods and apparatus for reducing noise in images
US9930233B2 (en) 2015-04-22 2018-03-27 Light Labs Inc. Filter mounting methods and apparatus and related camera apparatus
JP6509031B2 (ja) * 2015-05-14 2019-05-08 キヤノン株式会社 画像処理装置、画像処理方法及び撮像装置
US10129483B2 (en) 2015-06-23 2018-11-13 Light Labs Inc. Methods and apparatus for implementing zoom using one or more moveable camera modules
JP6648916B2 (ja) * 2015-07-27 2020-02-14 キヤノン株式会社 撮像装置
US10491806B2 (en) 2015-08-03 2019-11-26 Light Labs Inc. Camera device control related methods and apparatus
US10365480B2 (en) 2015-08-27 2019-07-30 Light Labs Inc. Methods and apparatus for implementing and/or using camera devices with one or more light redirection devices
US9749549B2 (en) 2015-10-06 2017-08-29 Light Labs Inc. Methods and apparatus for facilitating selective blurring of one or more image portions
JP6624880B2 (ja) * 2015-10-19 2019-12-25 キヤノン株式会社 画像処理方法および画像処理装置
TWI781085B (zh) * 2015-11-24 2022-10-21 日商索尼半導體解決方案公司 複眼透鏡模組及複眼相機模組
US10003738B2 (en) 2015-12-18 2018-06-19 Light Labs Inc. Methods and apparatus for detecting and/or indicating a blocked sensor or camera module
US10225445B2 (en) 2015-12-18 2019-03-05 Light Labs Inc. Methods and apparatus for providing a camera lens or viewing point indicator
US10306218B2 (en) 2016-03-22 2019-05-28 Light Labs Inc. Camera calibration apparatus and methods
KR101829534B1 (ko) * 2016-05-25 2018-02-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 멀티 초점 이미지를 이용하는 깊이 추출 카메라 시스템 및 그 동작 방법
US9948832B2 (en) 2016-06-22 2018-04-17 Light Labs Inc. Methods and apparatus for synchronized image capture in a device including optical chains with different orientations
KR102622754B1 (ko) * 2016-09-07 2024-01-10 삼성전자주식회사 이미지 합성 방법 및 이를 지원하는 전자 장치
DE112017005807B4 (de) * 2016-11-17 2025-05-08 Sony Corporation Bildverarbeitungsvorrichtung und Bildverarbeitungsverfahren
KR102534875B1 (ko) * 2016-12-08 2023-05-22 한국전자통신연구원 카메라 어레이와 다중 초점 영상을 이용하여 임의 시점의 영상을 생성하는 방법 및 장치
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
JP7009142B2 (ja) * 2017-09-28 2022-01-25 キヤノン株式会社 撮像装置および画像処理方法
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
JP6479149B2 (ja) * 2017-12-06 2019-03-06 キヤノン株式会社 撮像装置、撮像装置の制御方法、および画像処理装置
CN114600165B (zh) 2019-09-17 2025-08-15 波士顿偏振测定公司 用于使用偏振提示表面建模的系统和方法
CN110602400B (zh) * 2019-09-17 2021-03-12 Oppo(重庆)智能科技有限公司 一种视频拍摄方法、装置及计算机可读存储介质
DE112020004810B4 (de) 2019-10-07 2023-10-26 Boston Polarimetrics, Inc. Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
CN115004683A (zh) * 2020-01-23 2022-09-02 索尼集团公司 成像装置、成像方法和程序
WO2021154386A1 (en) 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
JP7542070B2 (ja) 2020-01-30 2024-08-29 イントリンジック イノベーション エルエルシー 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
EP3930312B8 (en) * 2020-06-26 2023-10-25 Alpsentek GmbH Delta image sensor with digital pixel storage
WO2022181861A1 (ko) * 2021-02-26 2022-09-01 애드커넥티드 주식회사 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US12175741B2 (en) 2021-06-22 2024-12-24 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12340538B2 (en) 2021-06-25 2025-06-24 Intrinsic Innovation Llc Systems and methods for generating and using visual datasets for training computer vision models
CN113344906B (zh) * 2021-06-29 2024-04-23 阿波罗智联(北京)科技有限公司 车路协同中相机评估方法、装置、路侧设备和云控平台
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US12293535B2 (en) 2021-08-03 2025-05-06 Intrinsic Innovation Llc Systems and methods for training pose estimators in computer vision

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4299561B2 (ja) * 2003-03-26 2009-07-22 富士フイルム株式会社 撮像装置
KR101134208B1 (ko) * 2004-10-01 2012-04-09 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 촬상 장치 및 그 방법
US20100103175A1 (en) * 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
US7683962B2 (en) * 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
CN102292662A (zh) * 2009-01-21 2011-12-21 加州理工学院 用于计算深度切片的定量微分干涉差(dic)设备
ATE551841T1 (de) * 2009-04-22 2012-04-15 Raytrix Gmbh Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten
JP2011055246A (ja) 2009-09-02 2011-03-17 Panasonic Corp 望遠撮像装置
JP5761988B2 (ja) 2010-12-20 2015-08-12 キヤノン株式会社 画像処理装置、画像処理方法
JP5766034B2 (ja) 2011-06-08 2015-08-19 キヤノン株式会社 画像処理方法、画像処理装置及びプログラム。
JP5968107B2 (ja) 2011-09-01 2016-08-10 キヤノン株式会社 画像処理方法、画像処理装置およびプログラム

Also Published As

Publication number Publication date
US9208396B2 (en) 2015-12-08
US20130223759A1 (en) 2013-08-29
JP2013211827A (ja) 2013-10-10

Similar Documents

Publication Publication Date Title
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
JP5968107B2 (ja) 画像処理方法、画像処理装置およびプログラム
JP6436783B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6245885B2 (ja) 撮像装置およびその制御方法
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6305053B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6838994B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
JP6257285B2 (ja) 複眼撮像装置
JP6071257B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2012124555A (ja) 撮像装置
JP2013026844A (ja) 画像生成方法及び装置、プログラム、記録媒体、並びに電子カメラ
JP7378219B2 (ja) 撮像装置、画像処理装置、制御方法、及びプログラム
JP5889022B2 (ja) 撮像装置、画像処理装置、画像処理方法及びプログラム
JP2013247543A (ja) 撮像装置、表示装置、および画像処理方法、並びにプログラム
JP2013162369A (ja) 撮像装置
JP6648916B2 (ja) 撮像装置
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP2016119542A (ja) 画像処理方法、画像処理プログラム、画像処理装置および撮像装置
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP5925109B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP2014049895A (ja) 画像処理方法
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP6900228B2 (ja) 撮像装置、撮像システム、撮像装置の制御方法、および、プログラム
JP6566765B2 (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170314

R151 Written notification of patent or utility model registration

Ref document number: 6112824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151