JP5459523B2 - 焦点ずれしたピルボックス画像を利用して深度推定を行うためのシステム及び方法 - Google Patents

焦点ずれしたピルボックス画像を利用して深度推定を行うためのシステム及び方法 Download PDF

Info

Publication number
JP5459523B2
JP5459523B2 JP2012271753A JP2012271753A JP5459523B2 JP 5459523 B2 JP5459523 B2 JP 5459523B2 JP 2012271753 A JP2012271753 A JP 2012271753A JP 2012271753 A JP2012271753 A JP 2012271753A JP 5459523 B2 JP5459523 B2 JP 5459523B2
Authority
JP
Japan
Prior art keywords
image
gaussian
procedure
depth
kernel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012271753A
Other languages
English (en)
Other versions
JP2013117967A (ja
Inventor
平山 李
健輔 宮城
シュレア フロリアン
大仁 首田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2013117967A publication Critical patent/JP2013117967A/ja
Application granted granted Critical
Publication of JP5459523B2 publication Critical patent/JP5459523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Focusing (AREA)

Description

〔関連出願との相互参照〕
本出願は、2011年12月1日に出願された「様々な照明条件下における2つの焦点ずれした画像からの深度推定(Depth Estimation From Two Defocused Images Under Various Lighting Conditions)」という名称の米国仮出願特許第61/565,790号に関するとともに、この出願の優先権を主張するものである。上述した関連出願は同一出願人によるものであり、引用により本明細書に組み入れられる。
本発明は、一般に画像データの解析技術に関し、より詳細には、焦点ずれしたピルボックス画像を利用して深度推定手順を実行するためのシステム及び方法に関する。
画像データを解析するための効率的な方法を実施することは、現代の電子装置の設計者及び製造者とって重要な検討課題である。しかしながら、電子装置を使用して画像データを効率的に解析することにより、システム設計者にとっては多くの課題が生じる可能性がある。例えば、さらなる装置の機能及び性能を求める要求が高まることにより、より大きなシステム処理能力が必要となり、追加のソフトウェアリソースが必要となる可能性がある。処理要件又はハードウェア要件が高まることにより、生産コスト及び経営の非効率性の増加に起因して、対応する不利益な経済的影響がもたらされる可能性もある。
さらに、様々な高度な動作を行うように高められた装置の能力は、システムユーザに付加的な利点をもたらすこともあるが、様々な装置の構成要素の制御及び管理にさらなる負担を強いることもある。例えば、デジタル画像データを効果的に解析する高度な電子装置は、関連するデジタルデータの量の多さと複雑性により、効果的な実施から恩恵を受けることができる。
米国特許第8,045,046号明細書
システムリソースに対する需要の伸び及び大幅に増加しているデータの大きさにより、画像データを解析するための新しい技術を開発することが、関連する電子技術にとっての懸案事項であることは明らかである。従って、全ての上述の理由から、画像データを解析するための効果的なシステムを開発することは、現代の電子装置の設計者、製造者及びユーザにとって依然として重要な検討課題のままとなっている。
本発明では、焦点ずれしたピルボックス画像を利用することによって深度推定手順を実行するためのシステム及び方法を開示する。1つの実施形態では、カメラが、まず焦点ずれしたピルボックス画像1を取り込む。次に、カメラの焦点設定を変更する。例えば、カメラの焦点の被写界深度を1つだけ下げるように焦点設定を調整する。その後、カメラは、既に取り込んでいるピルボックス画像1よりもさらにブレた(焦点が外れた)焦点ずれしたピルボックス画像2を取り込む。
深度推定器又はその他の適当なエンティティが、畳み込み手順を実行するのに適したカーネルKを選択する。このカーネルKは、あらゆる適切な態様で構成することができる。例えば、いくつか実施形態では、カーネルKを、分散の少ない3×3のガウスカーネルとして構成することができる。この深度推定器は、本発明によるガウス手順を実行するのに適したガウス化カーネルも選択する。ガウス化カーネルは、あらゆる適切な態様で実装して利用することができる。例えば、このガウス化カーネルは、ガウス関数、又は平均及び変動が制限されたより一般的なブレ関数(blur function)とすることができる。
次に、深度推定器は、画像1と画像2の間の照合誤差を計算し、その後、畳み込み手順を実行して、直前の画像1を選択したカーネルKで畳み込んだものに等しい新しい現在の画像1を作成する。深度推定器は、現在の画像1と画像2の間の照合誤差を計算し、現在の画像1と画像2が一致するかどうかを判断する。2つの画像が一致しない場合、処理は元に戻ってさらなる畳み込みの反復を同様に実行する。
一方、画像1と画像2が一致する場合、深度推定器は、以前に選択したガウス化カーネルを利用することにより、現在の画像1及び画像2の両方にガウス化手順を実行して、非ガウスブレ画像を対応するガウスブレ画像に変換する。具体的には、深度推定器は、畳み込み手順を実行して、直前のピルボックスブレ画像1を選択したガウス化カーネルで畳み込んだものに等しい新しい現在のガウス画像1を作成する。また、深度推定器は、畳み込み手順を実行して、直前のピルボックスブレ画像2を選択したガウス化カーネルで畳み込んだものに等しい新しい現在のガウス画像2を作成する。
その後、深度推定器は、畳み込み手順を実行して、直前のガウス画像1を選択したカーネルKで畳み込んだものに等しい新しい現在のガウス画像1を作成する。深度推定器は、この現在のガウス画像1とガウス画像2の間の照合誤差を計算し、現在のガウス画像1とガウス画像2が一致するかどうかを判断する。2つの画像が一致しない場合、処理は元に戻ってさらなる反復を実行する。一方、現在のガウス画像1とガウス画像2が一致する場合、処理を終了することができる。従って、本発明は、焦点ずれしたピルボックス画像を利用することによって深度推定手順を実行するための改善されたシステム及び方法を提供する。
本発明によるカメラ装置の1つの実施形態を示すブロック図である。 本発明による、図1の取り込みサブシステムの1つの実施形態を示すブロック図である。 本発明による、図1の制御モジュールの1つの実施形態を示すブロック図である。 本発明による、図3のメモリの1つの実施形態を示すブロック図である。 本発明による、焦点ずれしたブレ画像を取り込むための1つの例示的な実施形態を示す線図である。 本発明の1つの実施形態による例示的な照合曲線のグラフである。 本発明の1つの実施形態による、ブレ画像の例示的なガウスモデルのグラフである。 本発明の1つの実施形態による、ブレ画像の例示的なピルボックスモデルのグラフである。 本発明の1つの実施形態による、ピルボックスブレ画像を用いた深度推定手順を実行するための方法ステップのフローチャートである。 本発明の1つの実施形態による、ピルボックスブレ画像を用いた深度推定手順を実行するための方法ステップのフローチャートである。 本発明の1つの実施形態による、ピルボックスブレ画像を用いた深度推定手順を実行するための方法ステップのフローチャートである。 本発明の1つの実施形態例による、2つの飽和したピルボックス画像を示す図である。 本発明の1つの実施形態例による、図10の飽和したピルボックス画像のためのフィルボックス技術を示す図である。
本発明は、画像データ解析技術の改善に関する。以下の説明は、当業者が本発明を実施及び使用できるようにするために提供し、特許出願及びその要件との関連において行うものである。当業者には、開示する実施形態の様々な修正例が容易に明らかになるであろうし、本明細書における一般的な原理を他の実施形態に適用することもできる。従って、本発明は、図示の実施形態に限定されることは意図されておらず、本明細書で説明する原理及び特徴に従う最も広い範囲を許容すべきものである。
本発明は、焦点ずれしたピルボックス画像を利用することによって深度推定手順を実行するためのシステム及び方法を含み、また被写体のピルボックスブレ画像を取り込むためのセンサ装置を備えたカメラ装置を含む。このカメラは、深度推定器を利用して、ピルボックスブレ画像を対応するガウスブレ画像に変換するガウス化手順を実行する。このガウス化手順は、ピルボックスブレ画像をガウス化カーネルで畳み込んで、対応するガウスブレ画像を生成することによって行われる。その後、深度推定器が、このガウスブレ画像を利用して深度推定手順を効果的に実行する。
ここで図1を参照すると、本発明によるカメラ装置110の1つの実施形態のブロック図を示している。図1の実施形態では、カメラ装置110が、以下に限定されるわけではないが、取り込みサブシステム114、システムバス116、及び制御モジュール118を含むことができる。図1の実施形態では、取り込みサブシステム114が、被写体112に光学的に結合することができ、またシステムバス116を介して制御モジュール118に電気的に結合することもできる。
別の実施形態では、カメラ装置110が、図1の実施形態に関連して説明するこれらの構成要素に加え又はこれらの代わりに、他の様々な構成要素を容易に含むことができる。また、いくつかの実施形態では、図1のカメラ装置110以外のあらゆる適当な種類の電子装置において本発明を別様に具体化することができる。例えば、カメラ装置110を、撮像装置、コンピュータ装置、又は消費者向け電子装置として別様に実装することができる。
図1の実施形態では、カメラ110の取り込みサブシステム114が被写体112に自動的に合焦すると、カメラユーザは、この被写体112に対応する画像データを取り込むようにカメラ装置110に要求することができる。この時、制御モジュール118が取り込みサブシステム114に、被写体112を表す画像データを取り込むようにシステムバス116を介して命令できることが好ましい。次に、この取り込んだ画像データを、システムバス116を介して制御モジュール118へ転送することができ、これに応答して、制御モジュール118は、この画像データを用いて様々な処理及び機能を実行することができる。システムバス116は、取り込みサブシステム114と制御モジュール118の間で、様々な状態信号及び制御信号を双方向に渡すことができる。
ここで図2を参照すると、本発明による図1の取り込みサブシステム114の1つの実施形態のブロック図を示している。図2の実施形態では、取り込みサブシステム114が、以下に限定されるわけではないが、シャッタ218、レンズ220、画像センサ224、赤色、緑色及び青色(R/G/B)増幅器228、アナログデジタル(A/D)変換器230、及びインターフェイス232を含むことが好ましい。別の実施形態では、取り込みサブシステム114が、図2の実施形態に関連して説明するこれらの構成要素に加え又はこれらの代わりに、他の様々な構成要素を容易に含むことができる。
図2の実施形態では、取り込みサブシステム114が、光路236に沿って画像センサ224に衝突する反射光を介して、被写体112に対応する画像データを取り込むことができる。これに応答して、好ましくは電荷結合素子(CCD)を含むことができる画像センサ224が、被写体112を表す画像データの組を生成することができる。次に、この画像データは、増幅器228、A/D変換器230、及びインターフェイス232を経由することができる。この画像データは、インターフェイス232からシステムバス116を介して制御モジュール118に渡され、しかるべく処理されて記憶される。本発明に関連する画像データの取り込みには、CMOS又はリニアアレイなどの他の種類の画像取り込みセンサも想定される。以下、図3〜図11に関連して、カメラ110の利用及び機能についてさらに説明する。
ここで図3を参照すると、本発明による図1の制御モジュール118の1つの実施形態のブロック図を示している。図3の実施形態では、制御モジュール118が、以下に限定されるわけではないが、ファインダ308、中央処理装置(CPU)344、メモリ346、及び1又はそれ以上の入出力インターフェイス(I/O)348を含むことが好ましい。ファインダ308、CPU344、メモリ346及びI/O348の各々は、取り込みサブシステム114とも通信する共通システムバス116に結合され、この共通システムバス116を介して通信することが好ましい。別の実施形態では、制御モジュール118が、図3の実施形態に関連して説明するこれらの構成要素に加え又はこれらの代わりに、他の様々な構成要素を容易に含むことができる。
図3の実施形態では、CPU344を、あらゆる適当なマイクロプロセッサ装置を含むように実装することができる。或いは、他のあらゆる適当な技術を使用してCPU344を実装することもできる。例えば、CPU344を、いくつかの特定用途向け集積回路(ASIC)又はその他の適当な電子装置を含むように実装することができる。メモリ346は、以下に限定されるわけではないが、リードオンリメモリ、ランダムアクセスメモリ、及びフロッピーディスク装置、ハードディスク装置又はフラッシュメモリなどの様々な種類の不揮発性メモリを含む1又はそれ以上の適当な記憶装置として実装することができる。I/O348は、カメラ装置110と、システムユーザ又は別の電子装置を含むあらゆる外部エンティティとの間の双方向通信を容易にするための1又はそれ以上の効果的なインターフェイスを提供することができる。I/O348は、あらゆる適当な入出力装置を使用して実装することができる。以下、図4〜図11に関連して、制御モジュール118の動作及び利用についてさらに説明する。
ここで図4を参照すると、本発明による図3のメモリ346の1つの実施形態のブロック図を示している。図4の実施形態では、メモリ346が、以下に限定されるわけではないが、カメラアプリケーション412、オペレーティングシステム414、深度推定器416、画像データ418、推定データ420、自動焦点モジュール422、及び雑情報424を含むことができる。別の実施形態では、メモリ346が、図4の実施形態に関連して説明するこれらの構成要素に加え又はこれらの代わりに、他の様々な構成要素を含むことができる。
図4の実施形態では、カメラアプリケーション412が、カメラ装置110の様々な機能及び動作を実行するための、好ましくはCPU344(図3)により実行されるプログラム命令を含むことができる。カメラアプリケーション412の特定の性質及び機能は、対応するカメラ装置110の種類及び特定の用途などの要因に応じて異なることが好ましい。
図4の実施形態では、オペレーティングシステム414が、カメラ装置110の低水準機能を制御及び調整することが好ましい。本発明によれば、深度推定器416が、カメラ110内の自動焦点機能を容易にするように深度推定手順を制御及び調整することができる。図4の実施形態では、画像データ418が、カメラ装置110が取り込んだ被写体112の1又はそれ以上の画像を含むことができる。推定データ420は、深度推定手順を実行するためのあらゆる種類の情報又はデータを含むことができる。図4の実施形態では、自動焦点モジュール422が、深度推定手順の結果を利用して、カメラ装置110の自動焦点手順を実行することができる。雑情報424は、カメラ110の動作のための他のあらゆる適当な情報を含む。以下、図5〜図11に関連して、深度推定器416の動作に関するさらなる詳細について説明する。
ここで図5を参照すると、本発明による、焦点ずれしたブレ画像518を取り込むための1つの例示的な実施形態の図を示している。図5の実施形態は例示目的で示すものであり、別の実施形態では、本発明は、他の様々な構成及び要素を利用して、焦点ずれしたブレ画像518を取り込むことができる。
図5の実施形態では、カメラ110のセンサ224(図2を参照)が、深度推定手順を実行するための被写体又はシーン112の焦点ずれしたブレ画像518を取り込むことができる。この焦点ずれしたブレ画像518は、被写体112、レンズ220及びセンサ224の相対位置に依存する正しく焦点が合ったレンズ位置以外の位置にレンズ220を調整することによって作成することができる。
1つの実施形態では、2つの異なる焦点ずれしたブレ画像518を比較して深度推定を得ることができる。互いに被写界深度が1つ離れた2つのブレ画像518のブレ差を計算することができる。既知の照合曲線の傾き及びブレ差を利用して、所与の被写体112の深度を求めることができる。以下、図6〜図11に関連して、深度推定のための焦点ずれしたブレ画像の生成及び利用についてさらに説明する。
ここで図6を参照すると、本発明の1つの実施形態による例示的な照合曲線714のグラフを示している。図6の実施形態は例示目的で示すものであり、別の実施形態では、図6の実施形態に関連して説明するこれらの構成及びパラメータの一部に加え又はこれらの代わりに、様々な構成及びパラメータの照合曲線を利用するように本発明を実現することができる。
いくつかの実施形態では、ブレ画像1及びより焦点がずれたブレ画像2を取り込み、鮮明な方の画像1をガウスカーネル(例えば、分散の少ない3×3のガウス行列)で畳み込んで畳み込み画像1を生成することができる。この畳み込み画像1をブレ画像2と比較する。この処理を、2つのブレ画像が一致するまで繰り返す。次に、この反復回数を被写界深度(すなわち、1DOFきざみの画像数)に対してグラフ化してブレ画像の照合曲線を生成し、これを使用していずれかの焦点が外れた位置から焦点が合った位置までの距離を推定することができる。上述した深度推定技術に関するさらなる詳細は、Li他による米国特許第8,045,046号にさらに記載されており、この特許は引用により本明細書に組み入れられる。
ここで図7を参照すると、本発明の1つの実施形態による、ブレ画像518(図5)の例示的なガウスモデル718のグラフを示している。図7の実施形態は、例示目的で示すものであり、別の実施形態では、本発明は、図7の実施形態に関連して説明する要素及び構成以外の要素及び構成のガウスモデルを利用することができる。
図7の実施形態では、縦軸に輝度を示し、横軸に画素を示している。図7のグラフでは、ガウスモデル718が、典型的な釣鐘曲線の形状を示している。しかしながら、ガウスモデル718を利用することによって全てのブレ画像518が最良に表されるとは限らない。被写体又はシーンの画像特性によっては、一部の非ガウスモデルの方が効果的なこともある。以下、図8〜図11に関連して、非ガウスモデルの1例について説明する。
ここで図8を参照すると、本発明の1つの実施形態によるブレ画像518の例示的なピルボックスモデルのグラフを示している。図8の実施形態は、例示目的で示すものであり、別の実施形態では、本発明は、図8の実施形態に関連して説明する要素及び構成以外の要素及び構成のピルボックスモデルを利用することができる。
図8の実施形態では、縦軸に輝度を示し、横軸に画素を示している。図8のグラフでは、ピルボックスモデル818が、典型的な縁部の尖った形状を示している。被写体又はシーンの画像特性によっては、ピルボックスモデル818などの一部の非ガウスモデルの方が効果的なこともある。例えば、ろうそくなどの非常に明るい光源を含む暗い夜間のシーンでは、ピルボックスモデル818の方が良好な場合がある。
しかしながら、上述した深度推定技術の一部は、ピルボックスブレ画像とともに使用した場合、満足に実行されない。従って本発明によれば、ガウス化手順を利用して、このピルボックスブレ画像をガウス形式に有利に変換し、その後これを、上述したような深度推定手順にうまく利用することができる。
ガウス化手順は、あらゆる効果的な態様で実行することができる。例えば、ピルボックスブレ画像をガウス化カーネルで畳み込んで、ガウス化したブレ画像を作成することができる。ガウス化カーネルは、あらゆる適切な態様で実装して利用することができる。例えば、ガウス化カーネルは、ガウス関数、又は平均及び変動が制限されたより一般的なブレ関数とすることができる。
いくつかの実施形態では、ガウス化カーネルを、全ての行列値が同じ値であり、これらの全ての行列値の合計が1に等しい正方行列を有する直方体関数として実装することができる。ガウス化カーネルは、以下の数式による2つの一次元関数のテンソル積として表すことができる2次元の一様な直方体関数として実装することもできる。
Figure 0005459523
式中、m及びnは画素座標であり、M及びNはカーネル行列のそれぞれの次元である。別の1つの実施形態では、複数のガウス化段階を利用して効率を高めることができる。例えば、より小さなガウス化カーネルを利用して、より小さなセグメントのガウス化手順を実行することができる。この技術は、多くのガウス化を必要としない画像の計算速度を高めることができる。以下、図9〜図11に関連して、ガウス化手順に関するさらなる詳細事項について説明する。
ここで図9A〜9Cを参照すると、本発明の1つの実施形態による、ピルボックス画像を使用して深度推定手順を実行する方法ステップのフローチャートを示している。図9の実施形態は、例示目的で示すものであり、別の実施形態では、本発明は、図9の実施形態に関連して説明するステップ及び順序以外の様々なステップ及び順序を容易に利用することができる。
図9Aの実施形態では、ステップ914において、カメラ110が、焦点ずれしたピルボックス画像1を取り込む。ステップ918において、カメラ110の焦点設定を変更する。例えば、図9Aの実施形態では、カメラ110の焦点の被写界深度を1つ下げるように焦点設定を調整することができる。ステップ922において、カメラ110が、既に取り込んでいるピルボックス画像1よりもさらにブレた(焦点が外れた)焦点ずれしたピルボックス画像2を取り込む。
ステップ926において、深度推定器416又はその他の適当なエンティティが、畳み込み手順を実行するための適当なカーネルKを選択する。カーネルKは、あらゆる適切な態様で構成することができる。例えば、いくつか実施形態では、カーネルKを、分散の少ない3×3のガウスカーネルとして構成することができる。ステップ926において、深度推定器416が、本発明によるガウス手順を実行するのに適したガウス化カーネルも選択する。
上述したように、ガウス化カーネルは、あらゆる適切な態様で実装して利用することができる。例えば、このガウス化カーネルは、ガウス関数、又は平均及び変動が制限されたより一般的なブレ関数とすることができる。深度推定器416は、ステップ928において、画像1と画像2の間の照合誤差を計算し、ステップ930において、これらの画像が一致するかどうかを判断する。画像が一致する場合、図9の処理を終了することができる。しかしながら、画像が一致しない場合、図9Aの処理は、連結文字「A」を介して図9Bのステップ932へ進む。
ステップ932において、深度推定器416は、畳み込み手順を実行して、直前の画像1を選択したカーネルKで畳み込んだものに等しい新しい現在の画像1作成する。ステップ934において、深度推定器416は、現在の画像1と画像2の間の照合誤差を計算する。ステップ938において、深度推定器416は、現在の画像1と画像2が一致するかどうかを判断する。これらの2つの画像が一致しない場合、図9の処理はステップ932へ戻ってさらなる反復を行う。
一方、ステップ938において画像1と画像2が一致する場合、深度推定器416は、ステップ942において、以前に選択したガウス化カーネルを利用することにより、現在の画像1及び画像2の両方にガウス化手順を実行して、非ガウスブレ画像を対応するガウスブレ画像に変換する。具体的には、深度推定器416は、畳み込み手順を実行して、直前の画像1を選択したガウス化カーネルで畳み込んだものに等しい新しい現在の画像1を作成する。また、深度推定器416は、畳み込み手順を実行して、直前の画像2を選択したガウス化カーネルで畳み込んだものに等しい新しい現在の画像2を作成する。図9Bの実施形態では、ガウス化カーネルをわずかな変動値で実装することができる。その後、図9Bの処理は、連結文字「B」を介して図9Cのステップ946へ進む。
ステップ946において、深度推定器416は、畳み込み手順を実行して、直前の画像1を選択したカーネルKで畳み込んだものに等しい新しい現在の画像1を作成する。ステップ950において、深度推定器416は、現在の画像1と現在の画像2の間の照合誤差を計算する。ステップ954において、深度推定器416は、現在の画像1と現在の画像2が一致するかどうかを判断する。これらの2つの画像が一致しない場合、図9の処理はステップ946へ戻ってさらなる反復を行う。一方、ステップ938において画像1と画像2が一致した場合、深度推定器416は、ステップ958において、上述のステップ946でどれほどの畳み込みを行ったかを確認する。畳み込みが非ゼロである場合、図9Cの処理は、連結文字「C」を介して図9Bのステップ942へ戻り、1又はそれ以上のさらなるガウス化手順を実行する。一方、畳み込みがゼロである場合、図9の処理を終了することができる。ステップ932及び946において行ったカーネルKによる畳み込みの総数により、画像1と画像2の間のブレ差が与えられる。従って、本発明は、ピルボックスブレ画像を利用することによって深度推定手順を実行するための改善されたシステム及び方法を提供する。
ここで図10を参照すると、本発明の1つの実施形態による、2つの飽和したピルボックス画像1014及び1018の図を示している。図10の実施形態は例示目的で示すものであり、別の実施形態では、本発明は、図10の実施形態に関連して説明する要素及び構成以外の要素及び構成のピルボックス画像を利用することができる。
図10の実施形態では、第1のピルボックス画像1014(例えば、図9の画像1)の波形と、第2のピルボックス画像1018(例えば、図9の画像2)の波形を重ねて示している。画像1014の方が焦点が合っているので、画像1014の波形の方が、画像1018の波形よりも狭くて高い。しかしながら、他の種類のブレ画像のように、ピルボックスブレ画像も、同量のエネルギー/総輝度を保持しているはずである。
図10の実施形態では、これらのピルボックス画像が、いずれも飽和閾値レベル1022を超えているので、これらのピルボックス画像は切り取られ/飽和する。ピルボックスブレ画像が飽和した/切り取られた場合、2つの写真の総輝度間に差異が生じる。一般に、飽和したピルボックスブレ画像では総輝度が維持されないので、(図9で説明したガウス化手順などの)ブレ照合技術が十分に機能しない。従って、本発明のいくつかの実施形態によれば、いずれかのブレ照合技術を実行する前にフィルボックス技術を利用することができる。以下、図11に関連して、1つのこのようなフィルボックスの実施形態について説明する。
ここで図11を参照すると、本発明の1つの実施形態による、図10の飽和したピルボックス画像を処理するためのフィルボックス技術を示す図を示している。図11の実施形態は例示目的で示すものであり、別の実施形態では、本発明は、図11の実施形態に関連して説明する要素、ステップ及び構成以外の要素、ステップ及び構成を含むフィルボックス技術を利用することができる。
図11の図の左側では、ピルボックス画像1018及び1014(a)が、いずれも飽和閾値レベル1022を超えているという理由で切り取られ/飽和している。ピルボックスブレ画像が飽和し/切り取られた場合、2つの写真の総輝度間に差異が生じる。画像1014(a)の方が高いので、飽和閾値1022によってより多くの輝度が取り除かれる。図11の図の右側に示すように、フィルボックス手順を有利に利用して、画像1014(a)の輝度を輝度充填量1030だけ増加させることによって画像1018及び1014(a)のそれぞれの総輝度を均等化し、これにより新たな均等化した画像1014(b)を作成することができる。
図11の実施形態では、深度推定器416(図4)又はその他の適当なエンティティが、まず各写真1014(a)及び1018における飽和したピルボックスの総輝度を計算する。深度推定器416は、2つの写真1014(a)と1018の間の総輝度の差分を求める。次に、総輝度が低い方のピルボックスブレ画像1014(a)に関して、深度推定器が、ピルボックス画像1014(a)の各飽和した画素に総輝度の平均差分を追加して、均等化した画像1014(b)を作成する。このフィルボックス技術は、2つの画像の量/総輝度が等しくなるまで、低い方のピルボックス画像1014(a)に充填を行うものと見なすことができる。上述したフィルボックス手順が完了した後、深度推定器416は、ピルボックスブレ画像1014(b)及び1018を飽和していないピルボックスと見なすことができ、図9に関連して上述したガウス化手順によるブレ照合を実行することができる。
以上、いくつかの実施形態を参照しながら本発明について説明した。当業者には本開示に照らして他の実施形態も明らかであろう。例えば、上記の実施形態で説明したもの以外の構成及び技術を使用して本発明を容易に実施することができる。また、上述した以外のシステムとともに本発明を効果的に使用することもできる。従って、説明した実施形態に対するこれらの及びその他の変形も本発明の対象であることが意図され、本発明は添付の特許請求の範囲によってのみ限定される。

Claims (19)

  1. 深度推定手順を実行するためのシステムであって、
    被写体のピルボックスブレ画像を取り込むためのセンサ装置と、
    前記ピルボックスブレ画像をガウスブレ画像に変換するガウス化手順を実行し、その後前記ガウスブレ画像を利用して前記深度推定手順を実行するための深度推定器と、
    を備え
    前記深度推定器が、前記ピルボックスブレ画像が飽和閾値レベルで切り取られると判断し、その後前記ガウス化手順を実行する前に、前記ピルボックスブレ画像の総エネルギーを均等化するためのフィルボックス手順を実行することを特徴とするシステム。
  2. 前記深度推定器が、前記ピルボックス画像をガウス化カーネルで畳み込むことにより前記ガウス化手順を実行して、前記ガウスブレ画像を生成する、
    ことを特徴とする請求項1に記載のシステム。
  3. 前記ガウス化カーネルが、全ての行列値が同一の値であり、これらの全ての行列値の合計が1に等しい正方行列を有する直方体関数として実装される、
    ことを特徴とする請求項2に記載のシステム。
  4. 前記ガウス化カーネルが、画素の座標をm及びnとし、前記ガウス化カーネルの行列のそれぞれの次元をM及びNとする数式:
    Figure 0005459523
    に従う2つの一次元関数のテンソル積として表される2次元の一様な直方体関数として実装される、
    ことを特徴とする請求項2に記載のシステム。
  5. 前記深度推定器が、まず第1の画像の第1の総輝度及び第2の画像の第2の総輝度を計算し、前記第1の総輝度と前記第2の総輝度の間の輝度差を求めることによって前記フィルボックス手順を実行する、
    ことを特徴とする請求項に記載のシステム。
  6. 前記深度推定器が、前記ピルボックスブレ画像のうちの総輝度が低い方の画像に前記輝度差を加えて、前記第1の画像と前記第2の画像の前記総エネルギーが均等化されるようにすることにより、前記フィルボックス手順を完了する、
    ことを特徴とする請求項に記載のシステム。
  7. 前記センサ装置及び前記深度推定器が、前記深度推定手順からの1又はそれ以上の深度値を利用して自動焦点手順を実行する電子カメラ装置に実装される、
    ことを特徴とする請求項1に記載のシステム。
  8. 前記センサ装置が、第1の焦点ずれしたレンズ位置を利用することによって被写体に対応する画像1を取り込み、その後前記第1の焦点ずれしたレンズ位置とは異なる第2の焦点ずれしたレンズ位置に調整され、該第2の焦点ずれしたレンズ位置を利用することによって前記被写体に対応する画像2を取り込み、前記第2の焦点ずれしたレンズ位置の方が、前記第1の焦点ずれしたレンズ位置よりも焦点が合っていない、
    ことを特徴とする請求項に記載のシステム。
  9. 前記深度推定器が、カーネルK及びガウス化カーネルを選択する、
    ことを特徴とする請求項に記載のシステム。
  10. 前記カーネルKが、分散の少ない3×3のガウス行列として実装される、
    ことを特徴とする請求項に記載のシステム。
  11. 前記ガウス化カーネルが、全ての行列値が同一の値であり、これらの全ての行列値の合計が1に等しい正方行列を有する直方体関数として実装される、
    ことを特徴とする請求項に記載のシステム。
  12. 前記深度推定器が、第1の畳み込み手順において前記画像1を前記カーネルKで畳み込んで現在の畳み込み画像1を作成する、
    ことを特徴とする請求項に記載のシステム。
  13. 前記深度推定器が、第1のブレ画像照合手順において前記現在の畳み込み画像1を前記画像2と比較し、第1の照合結果に達するまで前記畳み込み手順のさらなる反復を行う、ことを特徴とする請求項12に記載のシステム。
  14. 前記深度推定器が、ガウス化カーネルを利用して、前記第1の現在の畳み込み画像1及び前記画像2に前記ガウス化手順を実行し、ガウス画像1及びガウス画像2を作成する、ことを特徴とする請求項13に記載のシステム。
  15. 前記深度推定器が、前記第2の畳み込み手順において前記ガウス画像1を前記カーネルKで畳み込んで現在の畳み込みガウス画像1を作成する、
    ことを特徴とする請求項14に記載のシステム。
  16. 前記深度推定器が、第2のブレ画像照合手順において前記現在の畳み込みガウス画像1を前記ガウス画像2と比較し、第2の照合結果に達するまで前記第2の畳み込み手順のさらなる反復を行い、前記さらなる反復に基づいて合計反復数を生成する、
    ことを特徴とする請求項15に記載のシステム。
  17. 前記深度推定器が、前記合計反復数を利用して前記深度推定手順のための照合曲線を生成し、該照合曲線を利用して、前記被写体に対応する深度値を生成する、
    ことを特徴とする請求項16に記載のシステム。
  18. 前記深度推定器が、サイズを縮めたガウス化カーネルを使用して前記ピルボックスブレ画像のセグメントを処理する複数段階のガウス化手順を実行する、
    ことを特徴とする請求項17に記載のシステム。
  19. 深度推定手順を実行するための方法であって、
    被写体のピルボックスブレ画像を取り込むためのセンサ装置を提供するステップと、
    深度推定器を利用して、前記ピルボックスブレ画像をガウスブレ画像に変換するガウス化手順を実行し、その後前記深度推定器が、前記ガウスブレ画像を利用して前記深度推定手順を実行するステップと、
    を実行することにより行われ、
    前記深度推定器が、前記ピルボックスブレ画像が飽和閾値レベルで切り取られると判断し、その後前記ガウス化手順を実行する前に、前記ピルボックスブレ画像の総エネルギーを均等化するためのフィルボックス手順を実行することを特徴とする方法。
JP2012271753A 2011-12-01 2012-11-26 焦点ずれしたピルボックス画像を利用して深度推定を行うためのシステム及び方法 Active JP5459523B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161565790P 2011-12-01 2011-12-01
US61/565,790 2011-12-01
US13/426,828 US8929607B2 (en) 2011-12-01 2012-03-22 System and method for performing depth estimation utilizing defocused pillbox images
US13/426,828 2012-03-22

Publications (2)

Publication Number Publication Date
JP2013117967A JP2013117967A (ja) 2013-06-13
JP5459523B2 true JP5459523B2 (ja) 2014-04-02

Family

ID=47602841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012271753A Active JP5459523B2 (ja) 2011-12-01 2012-11-26 焦点ずれしたピルボックス画像を利用して深度推定を行うためのシステム及び方法

Country Status (7)

Country Link
US (1) US8929607B2 (ja)
EP (1) EP2600310B1 (ja)
JP (1) JP5459523B2 (ja)
KR (1) KR101437234B1 (ja)
CN (1) CN103136745B (ja)
CA (1) CA2796543C (ja)
TW (1) TWI557688B (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9066002B2 (en) 2012-08-29 2015-06-23 Sony Corporation System and method for utilizing enhanced scene detection in a depth estimation procedure
AU2013273843A1 (en) * 2013-12-23 2015-07-09 Canon Kabushiki Kaisha Motion blur compensation for depth from defocus
US9530214B2 (en) 2014-12-04 2016-12-27 Sony Corporation Image processing system with depth map determination based on iteration count of blur difference and method of operation thereof
WO2016154392A1 (en) * 2015-03-24 2016-09-29 University Of Florida Research Foundation, Inc. Optical privatizing device, system and method of use
US11024047B2 (en) * 2015-09-18 2021-06-01 The Regents Of The University Of California Cameras and depth estimation of images acquired in a distorting medium
FR3085656B1 (fr) * 2018-09-11 2023-04-28 Renault Sas Procede de detection de route pour un vehicule automobile muni d'un capteur lidar
CN111166322A (zh) * 2020-01-17 2020-05-19 哈尔滨工业大学 心电信号特征波提取方法
CN113189634B (zh) * 2021-03-02 2022-10-25 四川新先达测控技术有限公司 一种类高斯成形方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996041304A1 (en) * 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
JP2001159159A (ja) 1999-12-01 2001-06-12 Hitachi Ltd 水位制御方法および水供給システム
WO2002093188A2 (en) * 2001-05-17 2002-11-21 Siemens Corporate Research, Inc. A variational approach for the segmentation of the left ventricle in mr cardiac images
US20070019883A1 (en) * 2005-07-19 2007-01-25 Wong Earl Q Method for creating a depth map for auto focus using an all-in-focus picture and two-dimensional scale space matching
US7929801B2 (en) * 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
WO2007095477A2 (en) * 2006-02-14 2007-08-23 Fotonation Vision Limited Image blurring
US7616254B2 (en) * 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
US7711201B2 (en) * 2006-06-22 2010-05-04 Sony Corporation Method of and apparatus for generating a depth map utilized in autofocusing
WO2008105268A1 (ja) 2007-02-28 2008-09-04 Nikon Corporation 画像処理方法
US8280194B2 (en) * 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
JP4524717B2 (ja) * 2008-06-13 2010-08-18 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8199248B2 (en) 2009-01-30 2012-06-12 Sony Corporation Two-dimensional polynomial model for depth estimation based on two-picture matching
US8229172B2 (en) 2009-12-16 2012-07-24 Sony Corporation Algorithms for estimating precise and relative object distances in a scene
JP5468404B2 (ja) * 2010-02-02 2014-04-09 パナソニック株式会社 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
JP5237978B2 (ja) * 2010-02-12 2013-07-17 パナソニック株式会社 撮像装置および撮像方法、ならびに前記撮像装置のための画像処理方法
US8045046B1 (en) * 2010-04-13 2011-10-25 Sony Corporation Four-dimensional polynomial model for depth estimation based on two-picture matching
JP2012003233A (ja) * 2010-05-17 2012-01-05 Sony Corp 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
EP2600310A3 (en) 2017-01-25
EP2600310B1 (en) 2018-07-04
US8929607B2 (en) 2015-01-06
TW201337838A (zh) 2013-09-16
EP2600310A2 (en) 2013-06-05
US20130142394A1 (en) 2013-06-06
CA2796543C (en) 2015-06-23
CN103136745A (zh) 2013-06-05
KR20130061635A (ko) 2013-06-11
CN103136745B (zh) 2016-05-18
TWI557688B (zh) 2016-11-11
KR101437234B1 (ko) 2014-09-02
CA2796543A1 (en) 2013-06-01
JP2013117967A (ja) 2013-06-13

Similar Documents

Publication Publication Date Title
JP5459523B2 (ja) 焦点ずれしたピルボックス画像を利用して深度推定を行うためのシステム及び方法
JP5454821B2 (ja) 多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法
US9066002B2 (en) System and method for utilizing enhanced scene detection in a depth estimation procedure
KR101429371B1 (ko) 장면 내에서의 정확한 피사체 거리 및 상대적인 피사체 거리를 추정하는 알고리즘
JP5988068B2 (ja) 適応的カーネルを利用することにより深度推定を実行するためのシステム及び方法
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US20170187938A1 (en) Image pickup apparatus, image processing apparatus, image processing method, and non-transitory computer-readable storage medium for improving quality of captured image
JP6319972B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
TWI543615B (zh) 影像處理方法及其電子裝置
WO2016160093A1 (en) Depth estimation from image defocus using multiple resolution gaussian difference
US9262833B2 (en) Methodology for performing depth estimation with defocused images under extreme lighting conditions
US9020280B2 (en) System and method for evaluating focus direction under various lighting conditions

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131231

R151 Written notification of patent or utility model registration

Ref document number: 5459523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250