JP5762356B2 - 焦点に基づく動的シーンの深度再構成のための装置および方法 - Google Patents

焦点に基づく動的シーンの深度再構成のための装置および方法 Download PDF

Info

Publication number
JP5762356B2
JP5762356B2 JP2012120987A JP2012120987A JP5762356B2 JP 5762356 B2 JP5762356 B2 JP 5762356B2 JP 2012120987 A JP2012120987 A JP 2012120987A JP 2012120987 A JP2012120987 A JP 2012120987A JP 5762356 B2 JP5762356 B2 JP 5762356B2
Authority
JP
Japan
Prior art keywords
depth
focus
stack
frame
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012120987A
Other languages
English (en)
Other versions
JP2013021682A (ja
JP2013021682A5 (ja
Inventor
アショク・ヴェーララグハヴァン
ニテシュ・シュロフ
田口 裕一
裕一 田口
ジュネイト・オンジェル・トゥゼル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2013021682A publication Critical patent/JP2013021682A/ja
Publication of JP2013021682A5 publication Critical patent/JP2013021682A5/ja
Application granted granted Critical
Publication of JP5762356B2 publication Critical patent/JP5762356B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、包括的にはビデオ再構成に関し、より詳細には、深度および拡張被写界深度(EDOF)ビデオを再構成するための装置および方法に関する。
カメラは至る所にある。数十億台もの携帯電話カメラ、5億台を超える監視カメラ、車内カメラ、および家庭用カメラが存在する。大抵の場合に、それらのカメラは、受動的なデバイスであり、ビデオを録画するにすぎない。これにより、取得されたビデオの大部分は、処理されないままである。情景解釈を自動化することに向けての主な障害は、シーンを理解する上で極めて重大である3D情報の不足である。従来のビデオカメラを、ビデオの取得中に意味のある3D情報を提供できるように適合させることが望ましい。
可変焦点によってカメラを3D化する
大部分の最新のカメラは、自動焦点、可変焦点距離(focal length)およびズームなどの機構を備えており、その機構のすべてが焦点距離(focal distance)の変更を必要とする。残念なことに、カメラのこの能力は、十分に活用されていない。通常、自動焦点は、対象物に焦点が合っている画像を得るためにしか用いられない。
デプス・フロム・デフォーカス(DFD(depth from defocus):焦点ぼけからの深度計算)
深度を推定するためのデプス・フロム・デフォーカス(DFD)解析は、ステレオ解析に必要とされる対応問題(correspondence problem)を回避するので、動きからのステレオおよび構造解析よりも、はるかに有利である。DFDがステレオよりも優れている別の利点は、DFDでは、1台のカメラしか必要としないことである。
DFDを解決するためのいくつかの方法が既知である。通常、それらの方法は、データ項および空間正則化項を含む費用関数を最小にする。データ項は、テクスチャが深度に対応する既知の焦点距離の関数としていかにぼけるかを抑制する。正則化項は、シーンの深度マップ内の空間的な平滑度制約をモデル化する。しかしながら、すべての既存の方法は、カメラおよびシーンが静止していると仮定する。これらの方法は、いずれも動的シーンの場合にDFDを用いることができない。定義されるように(As defined)、動的シーンは、シーンの動きおよび/またはカメラの動きのいずれかを有する。
可変被写界深度撮像
撮像システムの被写界深度(DOF)は、アパーチャを小さくすることによって拡張することができる。しかしながら、これは、カメラセンサによって受光される光の量を少なくするので、結果として信号対雑音比(SNR)が低くなる。アパーチャを大きくする場合には、センサ雑音は減少するが、それと引き換えにDOFが小さくなる。
理想的には、大きなDOFが望ましいが、センサ雑音は低くしたい。センサ雑音とDOFとの間のこの根本的なトレードオフを克服するいくつかの方法が既知である。たとえば、アパーチャにおける広帯域マスクによって、ぼけの点像分布関数がより良好に機能する。これにより、計算によってぼけを除去し、DOFを拡張できるようになる。
DOFは、レンズの近くに立方位相板を挿入することによって、または露出時間中にセンサを動かすことによって大きくすることもできる。いずれの方法においても、取得された画像がぼけるが、ぼけカーネルは、深度から独立しているので、ぼけ除去方法を用いて、ぼけを除去することができる。
DFDの基本および限界
カメラが或るシーンから光を取得し、その光をセンサに投影する。或るシーンの焦点が合っている部分は、薄レンズの法則(thin lens law)
Figure 0005762356
によって与えられる深度(s)にある。ただし、Fはレンズの焦点距離であり、νはレンズとセンサとの間の距離である。距離s≠sにあるシーン点は、像平面内に錯乱円(a circle of confusion(bulr))を有する。この錯乱円(blur circle)内の光の分布は、点像分布関数(PSF)と呼ばれる。PSFは、半径σを有する円板であり、その半径は、シーン点の深度に依拠する。
Figure 0005762356
ただし、Dはレンズ口径である。
通常のDFD法は、種々の焦点設定において取得された一連のM個のフレームF(ビデオ)からなる焦点スタックF={F,F,・・・,F}を取得する。すなわち、この技術分野において既知であるような焦点スタック内の画像が、本質的に、異なる焦点深度または焦点面において取得される。
従来のDFD法における基本的な仮定は、シーンおよびカメラが静止していることである。動的シーンは、DFDの対応誤りを引き起こし、結果として深度およびテクスチャに誤差が生じる。拡張DOF(EDOF)画像では、その誤りは、移動物体の複数のコピーとして現れ、一方、深度マップにおいては、動きのあるシーンの部分の上、および周囲に偽の(spurious)深度エッジが存在する。
これらの従来技術の問題を修正することが望ましい。
従来のデプス・フロム・デフォーカス(DFD)法は、ビデオを取得している間、カメラおよびシーンが静止していると仮定する。この発明の実施の形態は、DFDを動的シーンに適用し、深度マップおよび拡張DOFビデオを生成する方法を記述する。
正確なオプティカルフロー(OF)が与えられると、フレームの焦点スタック(F)をワープして仮想静的焦点スタックを得ることができ、その仮想静的焦点スタックにDFD法を適用することができる。
変化する焦点ぼけがある場合に、正確なOFを取得することは難しい作業である。焦点ぼけ変動は、オプティカルフローを推定する際に本質的な偏りを引き起こす。
この発明によれば、変化する焦点ぼけが存在する場合でも、これらの偏りが正確に処理され、OFが求められる。これにより、従来の30fpsビデオカメラを、並置された30fpsの撮像デバイスおよび距離センサに変換するシステムおよび方法がもたらされる。
さらに、距離および画像情報を抽出できることによって、取得された画像の被写界深度を拡張または縮小し、取得後のデジタルリフォーカスを実行するなど、芸術的な被写界深度効果を有する画像をレンダリングすることができるようになる。
この発明の実施の形態1による、深度および拡張被写界深度ビデオを再構成するための方法の流れ図である。 この発明の実施の形態1によるビデオカメラの概略図である。
実施の形態1.
この発明の実施の形態1は、ビデオカメラによって取得された一連のフレームから深度および拡張被写界深度(EDOF)ビデオを再構成するための方法を提供する。本明細書において、用語「フレーム」および「画像」は、交換可能に用いられる。
動的シーンにおけるDFD
この発明では、従来のデプス・フロム・デフォーカス(DFD)法を、動的シーン、すなわち、カメラまたはシーンのいずれか、または両方に動きがあるシーンを処理するように適合させる。この発明では、焦点スタックF内のフレームFと他のすべてのフレームとの間の動き情報を有するものと仮定する。直観的に、この情報を用いて、フレーム{F}をFにワープすることができる。ただし、j=1〜Mである。
これは、時刻iに対応する仮想静的焦点スタックZを生成する。仮想静的焦点スタック内で動きが補償されているので、シーン点はすべて対応状態にある。その際、この発明による仮想静的焦点スタックから、時刻iの深度マップおよびテクスチャマップを得ることができる。
これらのマップを得るために、空間情報または時間情報がトレードオフされていないことは、注目に値する。動き推定における中心的な問題は、複数のフレームにわたって、変化する焦点外れぼけが存在することである。
2つの画像間のオプティカルフロー(OF)を求めるための従来の動き推定法は、明るさの恒常性の仮定に依存する。
Figure 0005762356
ただし、(x,y)はピクセル位置であり、tは時刻であり、(δx,δy)は、対応するピクセルの変位(すなわち、オプティカルフロー)であり、δtは、画像間の時間差である。
この発明では、変化する焦点外れぼけがOFを推定することに及ぼす影響を解析する。2つの画像が異なる深度において合焦するとき、同じ場所にあるシーン内の点は、異なる輝度を有する。これは、変化する焦点設定によって、異なるカーネルを有するぼけが生じ、結果として上記の明るさの恒常性が破られるためである。取得されたビデオデータに従来のOF法がそのまま適用される場合には、明るさの恒常性が破られることによって、偽のオプティカルフローが引き起こされる。
さらなる情報がない場合には、ぼけレベルが変化している場合にOFを求めることは、難しい作業である。しかしながら、時刻tにおけるシーンの深度マップおよびテクスチャマップが与えられると、再ぼかしを用いてオプティカルフローを正確に求めることができる。所与のテクスチャマップおよび深度マップを用いて、任意の焦点設定を有する画像をシミュレートすることができる。このようにして、この発明では、隣り合う時刻において、同一の焦点設定を有する2つの画像を生成することができる。任意のシーン点の場合のぼけの量は、焦点設定が同一であるので、両方の画像について同じである。このようにして、明るさの恒常性が保存され、結果としてオプティカルフローが正確に推定される。さらに、フロー情報が与えられると、DFDを用いて、深度マップおよびテクスチャマップを再生することができる。これにより、段階的な最適化を介して動的シーンの深度およびテクスチャを推定するための反復改良法がもたらされる。
深度およびフローの反復再構成
図1は、この発明の実施の形態1による、被写界深度およびEDOFビデオを再構成するための方法100を示す。
この発明では、カメラ200を用いて、一連のフレームを動的シーン101の焦点スタック(F)110として取得する。すなわち、フレームは、本質的に、異なる焦点深度において取得される。Fが与えられると、まず、焦点スタック内の連続したフレームのすべてのフレーム対間のオプティカルフロー(OF)121を求める(120)。その後、OFにしたがってフレームをワープしてフレームを位置合わせし(130)、時刻ごとの仮想静的焦点スタック(Z)131を生成する。
仮想静的焦点スタックにDFD法140を適用して、時刻ごとの深度マップおよびテクスチャマップ150を生成する(150)。好ましい実施形態では、DFD法は、以下に記述されるように、エネルギー関数によって最小にされる時空間マルコフ確率場(MRF)を用いる。他のDFD法も適用可能である。
深度マップおよびテクスチャマップは、反復160によって改良される。最終的に、出力170において、時刻ごとの深度マップおよびテクスチャマップが得られる。テクスチャマップは、元の入力画像よりも大きなDOFを有するので、拡張被写界深度(EDOF)ビデオに対応する。上記のステップは、この技術分野において既知であるようなメモリおよび入力/出力インターフェースに接続されるプロセッサ102において実行することができる。プロセッサは、カメラの内部に存在することもできるし、カメラの外部に存在することもできる。
初期オプティカルフロー
初期オプティカルフローを求めている間、深度マップおよびテクスチャマップを入手することはできない。初期OFを再生するために、この発明では、以下のことを仮定する。フローは、焦点スタックの期間M内で一定の速度を有する。ビデオの2つの連続した焦点スタックからのフレーム、たとえば、フレームiおよびM+iは、同じぼけレベルを有し、それゆえ、明るさの恒常性を満たす。
この発明では、第iのフレームと第(M+i)のフレームとの間のOFを求め、中間のフレームのためのフローを線形に補間する。速度が一定であるという仮定に起因して、初期オプティカルフローは粗いが、OFは、後続の反復中に、再ぼかしによって改良される。
深度およびテクスチャを与えられたときのフロー
本方法は、DFDの初期反復後に、シーンの深度マップおよびテクスチャマップの粗い推定値を生成する。DおよびTをそれぞれ時刻iにおけるシーンの深度マップおよびテクスチャマップとする。深度マップDによって、カーネルを用いてテクスチャマップTをぼかすことができるようになる。ただし、カーネルは、深度マップに依拠する。フレームのぼけレベルが一致した後に、明るさの恒常性が満たされ、それゆえ、より高い精度でOFを求めることができる。
遮蔽
ここで、動き補償における遮蔽問題を記述する。焦点スタックFの2つの連続したフレームFおよびFについて考える。動きは、前景ピクセルによる背景ピクセルの領域の遮蔽を引き起こす可能性がある。Fにおいて、背景領域がぼかされる場合があり、一方、背景は、焦点スタックの後のフレームFにおいて遮蔽される場合がある。これは、この遮蔽された領域の合焦した背景に関する情報が入手できないことを意味する。
フレームFをFにワープして動きを補償する間に、遮蔽領域を検出し、埋める必要がある。遮蔽領域は、先行するOFと後続のOFとの間の不一致によって検出される。
先行−後続OF追跡の結果として相違が生じるとき、或る領域内のピクセルが遮蔽されたと仮定する。遮蔽された領域は、その領域が遮蔽されていないビデオの他のフレームから、ピクセルをコピーすることによって埋めることができる。遮蔽された領域が静止している場合には、この発明では、異なる焦点スタックからのぼけのないフレームを用いることによって、それらの遮蔽を埋める。そうでない場合には、現在の焦点スタック内の元のぼけたフレームを用いて、それらの領域を埋める。後者の場合、遮蔽された領域内に依然としてぼけアーティファクトが存在する。
オプティカルフローを与えられたときの深度およびテクスチャ
OFを用いて焦点スタック内のフレームを位置合わせした後に、焦点スタック内の各フレームFに対応する深度マップD={D,D,・・・,D}およびテクスチャマップT={T,T,・・・,T}を推定する。時空間マルコフ確率場(MRF)を用いて、深度推定の問題を定式化する。
ノードとしてフレームのスーパーピクセルを用いてMRFを定義する。マルコフ確率場は、1組の確率変数が無向グラフによって記述されるマルコフ特性を有するグラフィカルモデルである。各スーパーピクセルが単一の深度値を有する前方平行面(front−parallel plane)によって表されると仮定する。フレームごとのスーパーピクセルセグメンテーションは、反復法を用いて得られる。
スーパーピクセルを規則的な格子として初期化し、各セグメントの形状および色分布の現在のガウス推定に基づいて、その形状を更新する。
これにより、規則的な形状のスーパーピクセルが生成される。スーパーピクセルの集合Pおよび深度ラベルの有限集合Sが与えられるとき、その目的は、深度ラベルsを各スーパーピクセルpに割り当てることである。
MRFのエネルギー関数E(s)は、以下の通りである。
Figure 0005762356
ただし、データ項D(s)は、深度レベルsを有するスーパーピクセルpのための項であり、平滑化項Vpq(s,s)は、隣接するスーパーピクセルpおよびqのための項であり、αは正則化の程度を制御する。
データ項D(s)を求めるために、焦点スタックフレームFごとにテクスチャマップTが入手可能であると仮定する。最初に、仮想静的焦点スタックZにフォトモンタージュ法を適用することによって、これらのテクスチャマップが得られる。フォトモンタージュ法は、或る局所的な領域のための鮮鋭度指標を求め、その領域が鮮鋭であるフレームからピクセルを選択する。
最初の反復後に、生成された深度マップの先行する推定を用いて求められたテクスチャマップを用いる。
テクスチャを与えられると、データ項は、深度レベルsごとの観測されたスーパーピクセルと再度ぼかされたスーパーピクセルとの間の差の二乗和によって求められる。PSFは、テクスチャを再度ぼかすためのディスクカーネル(disk kernel)であると仮定される。
この発明のMRF定式化では、空間および時間両方の平滑度について考える。平滑度項は、以下の通りである。
pq(s,s)=wpq|s-s| ・・・(5)
ただし、|s−s|は、隣接するスーパーピクセルpとqとの間の深度不連続にペナルティーを科し、wpqは時空間重み係数である。
空間的に隣接する2つのスーパーピクセルpとqとの間の重みwpqは、2つのスーパーピクセルの平均色の類似度によって求められる。
Figure 0005762356
ただし、IおよびIは、スーパーピクセルpおよびqの平均色であり、τは色の類似度に関する制御パラメータである。
時間的に隣接するスーパーピクセルのための重みは、以下のように求められる。フレームAおよびBについて考える。uをこれら2つのフレーム間のOFとする。OF uを用いて、フレームA内のスーパーピクセルpがフレームBにワープされる。その際、スーパーピクセルpと、フレームBのスーパーピクセルとの重なりが、時間的に隣接するスーパーピクセル間の重みとして用いられる。
この発明者らは、グラフカット法を用いて、エネルギー関数を最小にする。グラフ理論において、カットは、グラフの頂点を2つの互いに素な部分集合に分割することである。カットのカット集合は、その終点が分割の異なる部分集合内にあるエッジの集合である。エッジがそのカット集合内にある場合には、そのエッジは、カットを横切っていると言われる。
カメラ
図2は、この発明の1つの実施の形態によるカメラ200を概略的に示す。カメラは、レンズ210およびアパーチャ211と、順次走査CCDセンサ220と、ステッピングモータ(stepper motor)230とを含む。ステッピングモータ(stepping motor)は、マイクロプロセッサ(μP)102によって制御することができる。大部分の最新のデジタルカメラは、プログラムすることができる1つまたは複数のマイクロプロセッサを含む。カメラは較正される。12.5mmの焦点距離を有するCマウントレンズが、カメラに対して固定される。
その記述は、センサを動かすことによって焦点スタックのための焦点制御を達成することに限定されるが、この発明が、レンズを動かすこと、液体レンズを用いること、バリオプティック(Varioptic:登録商標)レンズを用いること、レンズアセンブリのいくつかの部品を動かすこと、多素子レンズ内の1つのレンズ素子を動かすことなどを含む、焦点深度を変更する他の手段にも同じく当てはまることは理解されたい。
ステッピングモータは、各ステップにおいて、センサを2μm駆動することができる。このようにして、1フレームを取得するための2つの連続したセンサ位置間の距離は、2μmの倍数において変更することができる。これは、取得されることになるシーン101内のDOF、および焦点スタック110あたりの必要とされるフレームの数にしたがって制御することができる。1つの実施の形態では、2つの連続したセンサ位置間で67ステップ(134μm)103が用いられる。ビデオを取得する間に、連続してセンサを動かし、通常、露出時間を10msecになるように維持する。カメラセンサが僅かに並進するだけで、広範囲の焦点深度が網羅される。
センサは、一定の速度でレンズの光軸201に沿って並進する。センサが1つの方向において所定の極値(最大値または最小値)に達するとき、センサは、反対の方向に並進する。それゆえ、カメラは、毎秒30フレームで連続してフレームを取得することができる。
1つの実施の形態では、センサが動く周期の半分において、カメラは、5フレームを取得し、それが焦点スタック110のサイズである。
別の実施の形態では、カメラの出力がEDOFビデオ170であるように、方法100がマイクロプロセッサ102において実施される。すなわち、マイクロプロセッサは、オプティカルフローを求めるための手段、画像を位置合わせするための手段、DFD法、並びに深度マップおよびテクスチャマップを生成するための手段を実現する。
被写界深度制御
本カメラおよび本方法によれば、動的シーンのための深度およびテクスチャの両方が同時に得られるようになるので、これにより、取得された画像の被写界深度(DOF)を合成的に操作できるようになる。たとえば、DOFを小さくすることによって非常に浅いDOFを有する芸術的な画像を生成することができる。また、取得後のデジタルリフォーカスを実行することもでき、これは自動的に、またはユーザ入力を用いてインタラクティブに行なうことができる。DFD法の深度量子化は、取得された各焦点スタックのDOFよりも、はるかに細かい。
従来のDFD法は、フレームが取得される間、カメラおよびシーンが静止していると仮定する。この発明では、カメラおよびシーンの動きがこれらのDFD法に及ぼす影響を記述し、DFDおよびEDOF撮像の問題を動的シーンに拡張することに向けて、オプティカルフロー解析および動き推定をいかに利用することができるかを記述する。正確なOFが与えられると、この発明によれば、焦点スタック内のフレームを正確にワープして、仮想静的焦点スタックを得ることができ、仮想静的焦点スタックにDFDを適用することができる。明確な動き補償を実行するこの発明の着想は、汎用的である。この発明のDFD実施態様は、グラフカットによる定式化に基づくが、本明細書において記述される実施の形態は、他のDFD手法に対して自明に拡張することができる。
変化する焦点ぼけがある場合に、正確なOFを取得することは、難しい作業である。この発明では、焦点ぼけ変動がOFを推定する際にいかに本質的な偏りを引き起こすか、および変化する焦点ぼけが存在する場合に、これらの偏りを処理し、正確なOFを求める方法を記述する。この発明により複数のフレームを正確に位置合わせすることができることの直接の結果として、この発明によれば、カメラの固有のフレームレートにおいて深度情報およびテクスチャマップを抽出することができ、それにより、従来の30fpsカメラを、30fps拡張被写界深度(EDOF)カメラおよび30fps距離センサに同時に変換することができる。
また、距離および画像情報を抽出できることによって、取得された画像の被写界深度を拡張または縮小し、取得後のデジタルリフォーカスを実行するなど、芸術的な被写界深度効果を有する画像をレンダリングすることができるようになる。

Claims (16)

  1. 動的シーンを深度および拡張被写界深度(EDOF)ビデオとして再構成するための方法であって、
    ビデオカメラを用いて前記動的シーンの焦点スタックを取得するステップであって、前記焦点スタックは、連続した時刻における一連のフレームを含む、取得するステップと、
    前記焦点スタックの前記フレーム間のオプティカルフローを求めるステップと、
    前記オプティカルフローにしたがって前記フレームをワープし、前記フレームを位置合わせし、時刻ごとの仮想静的焦点スタックを生成する、ワープするステップと、
    デプス・フロム・デフォーカス(DFD)法を用いて、前記仮想静的焦点スタックごとの深度マップおよびテクスチャマップを生成するステップであって、前記テクスチャマップはEDOF画像に対応する、生成するステップと、
    を含み、
    前記DFDは、エネルギー関数E(s)
    Figure 0005762356
    によって最小にされる時空間マルコフ確率場(MRF)を用い、
    データ項D (s )は、深度レベルs を有するスーパーピクセルpのための項であり、平滑化項V pq (s ,s )は、隣接するスーパーピクセルpおよびqのための項であり、αは正則化の程度を制御し、
    前記平滑化項は、
    pq (s ,s )=w pq |s −s
    であり、|s −s |は、隣接するスーパーピクセルpとqとの間の深度不連続にペナルティーを科し、w pq は時空間重み係数であり、空間的に隣接する2つのスーパーピクセルpとqとの間の重みw pq は、2つのスーパーピクセルの平均色の類似度によって求められ、
    Figure 0005762356
    ただし、I およびI は、スーパーピクセルpおよびqの平均色であり、τは、平均色の類似度に関する制御パラメータである
    動的シーンを深度および拡張被写界深度(EDOF)ビデオとして再構成するための方法。
  2. 前記求めるステップ、前記ワープするステップおよび前記生成するステップを繰り返して、前記深度マップおよび前記テクスチャマップを改良する、繰り返すステップをさらに含む、請求項1に記載の方法。
  3. 前記時刻は、前記カメラの固有のフレームレートによって決まる、請求項1に記載の方法。
  4. 前記オプティカルフローは、連続したフレーム対間で求められる、請求項1に記載の方法。
  5. カーネルを用いて前記各テクスチャマップをぼかすステップであって、前記カーネルは、対応する前記深度マップに依拠する、ぼかすステップをさらに含む、請求項1に記載の方法。
  6. 前記フレーム内の遮蔽されたピクセルを検出するステップと、
    前記遮蔽されたピクセルを遮蔽されていない他のフレームからの対応するピクセルで埋めるステップと、
    をさらに含む、請求項1に記載の方法。
  7. 前記MRFは、前記フレームのスーパーピクセルのセグメントに対応するノードによって、前記各セグメントの形状および色分布の現在のガウス推定に基づいて定義される、請求項に記載の方法。
  8. 初期テクスチャマップは、前記仮想静的焦点スタックにフォトモンタージュ法を適用することによって得られる、請求項に記載の方法。
  9. 前記テクスチャマップは、以前に生成された深度マップを用いて求められる、請求項に記載の方法。
  10. 前記エネルギー関数は、グラフカット法を用いて最小にされる、請求項に記載の方法。
  11. 並進は、一定の速度であり、前記カメラのセンサは、1つの方向において所定の極値に達し、前記センサは、反対の方向に並進する、請求項に記載の方法。
  12. 前記焦点スタックは、静止しているレンズ素子に対してセンサ素子を動かすことによって得られる、請求項1に記載の方法。
  13. 前記焦点スタックは、多レンズアセンブリのレンズ全体または一部のいずれかを動かすことによって得られる、請求項1に記載の方法。
  14. 前記焦点スタックは、液体レンズの焦点を制御することによって得られる、請求項1に記載の方法。
  15. 前記求めるステップ、前記ワープするステップ、および前記生成するステップは、マイクロプロセッサによって実行される、請求項1に記載の方法。
  16. 動的シーンを深度および拡張被写界深度(EDOF)ビデオとして再構成するための装置であって、
    レンズおよびセンサを含むカメラと、
    連続した時刻において一連のフレームを含む焦点スタックを取得するように構成されるセンサと、
    前記焦点スタックの前記フレーム間のオプティカルフローを求める手段と、
    前記オプティカルフローにしたがって前記フレームをワープして、前記フレームを位置合わせし、時刻ごとの仮想静的焦点スタックを生成する、ワープする手段と、
    デプス・フロム・デフォーカス(DFD)法を用いて、仮想静的焦点スタックごとの深度マップおよびテクスチャマップを生成する手段であって、前記テクスチャマップは、EDOF画像に対応する、生成する手段と、
    を備え、
    前記DFDは、エネルギー関数E(s)
    Figure 0005762356
    によって最小にされる時空間マルコフ確率場(MRF)を用い、
    データ項D (s )は、深度レベルs を有するスーパーピクセルpのための項であり、平滑化項V pq (s ,s )は、隣接するスーパーピクセルpおよびqのための項であり、αは正則化の程度を制御し、
    前記平滑化項は、
    pq (s ,s )=w pq |s −s
    であり、|s −s |は、隣接するスーパーピクセルpとqとの間の深度不連続にペナルティーを科し、w pq は時空間重み係数であり、空間的に隣接する2つのスーパーピクセルpとqとの間の重みw pq は、2つのスーパーピクセルの平均色の類似度によって求められ、
    Figure 0005762356
    ただし、I およびI は、スーパーピクセルpおよびqの平均色であり、τは、平均色の類似度に関する制御パラメータである
    動的シーンを深度および拡張被写界深度(EDOF)ビデオとして再構成するための装置。
JP2012120987A 2011-07-08 2012-05-28 焦点に基づく動的シーンの深度再構成のための装置および方法 Expired - Fee Related JP5762356B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/179,225 2011-07-08
US13/179,225 US8432434B2 (en) 2011-07-08 2011-07-08 Camera and method for focus based depth reconstruction of dynamic scenes

Publications (3)

Publication Number Publication Date
JP2013021682A JP2013021682A (ja) 2013-01-31
JP2013021682A5 JP2013021682A5 (ja) 2015-05-21
JP5762356B2 true JP5762356B2 (ja) 2015-08-12

Family

ID=47438422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012120987A Expired - Fee Related JP5762356B2 (ja) 2011-07-08 2012-05-28 焦点に基づく動的シーンの深度再構成のための装置および方法

Country Status (2)

Country Link
US (1) US8432434B2 (ja)
JP (1) JP5762356B2 (ja)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10776635B2 (en) 2010-09-21 2020-09-15 Mobileye Vision Technologies Ltd. Monocular cued detection of three-dimensional structures from depth images
KR101669840B1 (ko) * 2010-10-21 2016-10-28 삼성전자주식회사 다시점 비디오로부터 일관성 있는 변이를 추정하는 변이 추정 시스템 및 방법
KR101682137B1 (ko) * 2010-10-25 2016-12-05 삼성전자주식회사 텍스처 및 움직임 감지를 사용한 시간적으로-일관된 변이 추정을 위한 방법 및 장치
US9501834B2 (en) * 2011-08-18 2016-11-22 Qualcomm Technologies, Inc. Image capture for later refocusing or focus-manipulation
US9123144B2 (en) * 2011-11-11 2015-09-01 Microsoft Technology Licensing, Llc Computing 3D shape parameters for face animation
US9288377B2 (en) 2012-05-02 2016-03-15 Semiconductor Components Industries, Llc System and method for combining focus bracket images
US9031357B2 (en) * 2012-05-04 2015-05-12 Microsoft Technology Licensing, Llc Recovering dis-occluded areas using temporal information integration
JP6140935B2 (ja) 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US9897792B2 (en) * 2012-11-30 2018-02-20 L&T Technology Services Limited Method and system for extended depth of field calculation for microscopic images
US10771757B2 (en) 2012-12-10 2020-09-08 Mediatek Inc. Method and appartus for stereoscopic focus control of stereo camera
US9948918B2 (en) * 2012-12-10 2018-04-17 Mediatek Inc. Method and apparatus for stereoscopic focus control of stereo camera
US8983176B2 (en) 2013-01-02 2015-03-17 International Business Machines Corporation Image selection and masking using imported depth information
US9047666B2 (en) 2013-03-12 2015-06-02 Futurewei Technologies, Inc. Image registration and focus stacking on mobile platforms
US10237528B2 (en) 2013-03-14 2019-03-19 Qualcomm Incorporated System and method for real time 2D to 3D conversion of a video in a digital camera
KR101372390B1 (ko) 2013-03-29 2014-03-19 한양대학교 에리카산학협력단 마코브 체인 방식의 다중스캔 추적 기법을 이용한 표적 추적방법 및 이를 이용한 표적 추적장치
JP6286668B2 (ja) 2013-05-22 2018-03-07 パナソニックIpマネジメント株式会社 撮像装置および撮像画像の表示方法
US9792698B2 (en) * 2013-05-30 2017-10-17 Nokia Technologies Oy Image refocusing
US9088708B2 (en) * 2013-07-19 2015-07-21 Htc Corporation Image processing device and method for controlling the same
US9973677B2 (en) 2013-10-14 2018-05-15 Qualcomm Incorporated Refocusable images
US9087405B2 (en) * 2013-12-16 2015-07-21 Google Inc. Depth map generation using bokeh detection
AU2013273843A1 (en) * 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Motion blur compensation for depth from defocus
US9466118B2 (en) * 2014-01-17 2016-10-11 Htc Corporation Image segmentation device, image segmentation method, and depth map generating method
US9305219B2 (en) * 2014-01-23 2016-04-05 Mitsubishi Electric Research Laboratories, Inc. Method for estimating free space using a camera system
US9449234B2 (en) 2014-03-31 2016-09-20 International Business Machines Corporation Displaying relative motion of objects in an image
US9196027B2 (en) 2014-03-31 2015-11-24 International Business Machines Corporation Automatic focus stacking of captured images
US9300857B2 (en) 2014-04-09 2016-03-29 International Business Machines Corporation Real-time sharpening of raw digital images
TWI518305B (zh) * 2014-04-21 2016-01-21 齊發光電股份有限公司 影像擷取方法
WO2015175907A1 (en) * 2014-05-15 2015-11-19 Indiana University Research And Technology Corp. Three dimensional moving pictures with a single imager and microfluidic lens
EP3007130A1 (en) 2014-10-08 2016-04-13 Thomson Licensing Method and apparatus for generating superpixel clusters
US10726593B2 (en) * 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
JP2016111609A (ja) * 2014-12-09 2016-06-20 株式会社東芝 画像処理装置、撮像装置、画像処理方法およびプログラム
US9565356B2 (en) * 2015-06-07 2017-02-07 Apple Inc. Optimizing capture of focus stacks
US20180205311A1 (en) 2017-01-17 2018-07-19 Apple Inc. Control of Series-Parallel Mode (SPM) Clamped Flyback Converter
US9774270B2 (en) 2015-06-15 2017-09-26 Apple Inc. Systems and methods of operation for power converters having series-parallel mode active clamps
JP6604760B2 (ja) * 2015-07-10 2019-11-13 キヤノン株式会社 画像処理装置及びその制御方法、並びにプログラム
US9958585B2 (en) 2015-08-17 2018-05-01 Microsoft Technology Licensing, Llc Computer vision depth sensing at video rate using depth from defocus
EP3139614A1 (en) * 2015-09-07 2017-03-08 Thomson Licensing Method and device for encoding and decoding a light field based image, and corresponding computer program product
US10148873B2 (en) 2015-12-22 2018-12-04 Mitsubishi Electric Research Laboratories, Inc. Method and system for motion adaptive fusion of optical images and depth maps acquired by cameras and depth sensors
US20180073702A1 (en) * 2016-09-15 2018-03-15 Nanosys, Inc. Architectural Window with Built-In QLED Lighting
US10003768B2 (en) * 2016-09-28 2018-06-19 Gopro, Inc. Apparatus and methods for frame interpolation based on spatial considerations
CN106454116B (zh) * 2016-11-18 2019-06-28 成都微晶景泰科技有限公司 自动全焦成像方法及装置
WO2018218643A1 (en) * 2017-06-02 2018-12-06 Shanghaitech University Method and apparatus for estimating depth of field information
EP3413557B1 (en) 2017-06-08 2021-03-03 IMEC vzw A method, an image sensor and a device for acquiring an image of an object
CN109685885B (zh) * 2017-10-18 2023-05-23 上海质尊电子科技有限公司 一种利用深度图转换3d图像的快速方法
CN108009508B (zh) * 2017-12-11 2021-10-08 惠州市德赛西威汽车电子股份有限公司 基于景深估计运动物体视觉检测方法与系统
CN115052139B (zh) 2018-01-19 2023-09-08 交互数字Vc控股公司 一种用于显示视频的方法和显示设备
MX2020009791A (es) 2018-03-23 2020-11-11 Pcms Holdings Inc Método basado en planos multifocales para producir puntos de vista estereoscópicos en un sistema de renderizado de imágenes basado en profundidad (mfp-dibr).
CN108876808B (zh) * 2018-06-06 2020-10-16 南昌航空大学 一种并行马尔可夫变分光流确定方法及系统
CN118158376A (zh) 2018-07-05 2024-06-07 Pcms控股公司 用于近眼焦平面覆盖层的方法和系统
CN109819229B (zh) * 2019-01-22 2021-02-26 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN112488915B (zh) * 2019-09-12 2022-06-21 清华大学 基于超像素关系分析的深度重建方法和装置
CN112164092B (zh) * 2020-10-13 2022-09-27 南昌航空大学 一种广义马尔可夫稠密光流确定方法及系统
KR102323136B1 (ko) * 2021-01-07 2021-11-10 주식회사 오엠에스 플로우스캔 방식을 적용한 3d edof 스캐닝 장치
WO2023081456A1 (en) * 2021-11-05 2023-05-11 Cornell University Machine learning based video analysis, detection and prediction
CN118102131A (zh) * 2022-11-28 2024-05-28 深圳先进技术研究院 成像系统景深扩展方法、系统、电子设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6097394A (en) * 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
US8358833B2 (en) * 2010-04-27 2013-01-22 Indian Institute Of Technology Madras Recovering 3D structure using blur and parallax
CN102472622B (zh) * 2010-06-17 2015-12-02 松下电器产业株式会社 距离推定装置以及距离推定方法

Also Published As

Publication number Publication date
US20130010067A1 (en) 2013-01-10
US8432434B2 (en) 2013-04-30
JP2013021682A (ja) 2013-01-31

Similar Documents

Publication Publication Date Title
JP5762356B2 (ja) 焦点に基づく動的シーンの深度再構成のための装置および方法
US8605202B2 (en) Motion of image sensor, lens and/or focal length to reduce motion blur
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
JP5870264B2 (ja) 撮像装置、撮像方法、プログラム、および集積回路
US9412151B2 (en) Image processing apparatus and image processing method
Kim et al. Dynamic video deblurring using a locally adaptive blur model
JP4672060B2 (ja) シーンの画像におけるぶれを低減する方法及びシーンの画像のぶれを除去する方法
KR102049080B1 (ko) 영상 처리 장치 및 방법
CN102369556B (zh) 摄像装置
JP2015522959A (ja) 画像において対話式再合焦を提供するためのシステム、方法、及び媒体
CN102369722B (zh) 摄像装置以及摄像方法、和用于所述摄像装置的图像处理方法
JP2013021682A5 (ja)
JP2017208641A (ja) 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
JP2013531268A (ja) 符号化開口を使用した距離の測定
US20190355101A1 (en) Image refocusing
CN111798513B (zh) 一种基于事件相机的合成孔径成像方法及系统
Shroff et al. Variable focus video: Reconstructing depth and video for dynamic scenes
Kim et al. Dynamic scene deblurring using a locally adaptive linear blur model
Bando et al. Towards digital refocusing from a single photograph
CN112001940B (zh) 图像处理方法及装置、终端及可读存储介质
KR101836238B1 (ko) 다운 스케일링과 비용함수를 이용한 이미지 연결선 추정방법
JP2017208642A (ja) 圧縮センシングを用いた撮像装置、撮像方法および撮像プログラム
Kriener et al. Accelerating defocus blur magnification
JP7278080B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20230319429A1 (en) Object distance estimation with camera lens focus calibration

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150330

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150330

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150330

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150609

R150 Certificate of patent or registration of utility model

Ref document number: 5762356

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees