JP2013117969A - 多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法 - Google Patents

多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法 Download PDF

Info

Publication number
JP2013117969A
JP2013117969A JP2012276192A JP2012276192A JP2013117969A JP 2013117969 A JP2013117969 A JP 2013117969A JP 2012276192 A JP2012276192 A JP 2012276192A JP 2012276192 A JP2012276192 A JP 2012276192A JP 2013117969 A JP2013117969 A JP 2013117969A
Authority
JP
Japan
Prior art keywords
depth
depth map
scale
map
estimator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012276192A
Other languages
English (en)
Other versions
JP5454821B2 (ja
Inventor
Ali Gazi
アリ ガジ
ping shan Li
平山 李
Akira Matsui
啓 松井
Takami Mizukura
貴美 水倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2013117969A publication Critical patent/JP2013117969A/ja
Application granted granted Critical
Publication of JP5454821B2 publication Critical patent/JP5454821B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

【課題】多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法を開示する。
【解決手段】ロバストな深度マップを生成するためのシステム及び方法が、各々が異なる解像度特性を有する複数の深度マップレベルを含む深度マップピラミッド構造を作成する深度推定器を含む。1つの実施形態では、これらの深度マップレベルが、微細スケールの深度マップ、中間スケールの深度マップ及び粗いスケールの深度マップを含む。深度推定器は、微細スケールの信頼特性を利用することにより微細スケールの深度マップからの深度値を評価し、粗いスケールの信頼特性を利用することにより中間スケールの深度マップ及び粗いスケールの深度マップからの深度値を評価する。その後、深度推定器は、異なる深度マップレベルからの最適な深度値を融合して最適な深度マップを生成する。
【選択図】図1

Description

〔関連出願との相互参照〕
本出願は、2011年12月1日に出願された「多重解像度アプローチを利用してロバストな深度マップを生成するための方法及び装置(Method And Apparatus To Generate Robust Depth Map Using Multi−Resolution Approach)」という名称の米国仮特許出願第61/565,839号に関するとともに、この出願の優先権を主張するものである。上述した関連出願は同一出願人によるものであり、引用により本明細書に組み入れられる。
本発明は、一般に画像データの解析技術に関し、より詳細には、深度推定手順においてシーン検出を利用するためのシステム及び方法に関する。
画像データを解析するための効率的な方法を実施することは、現代の電子装置の設計者及び製造者とって重要な検討課題である。しかしながら、電子装置を使用して画像データを効率的に解析することにより、システム設計者にとっては多くの課題が生じる可能性がある。例えば、さらなる装置の機能及び性能を求める要求が高まることにより、より大きなシステム処理能力が必要となり、追加のソフトウェアリソースが必要となる可能性がある。処理要件又はハードウェア要件が高まることにより、生産コスト及び経営の非効率性の増加に起因して、対応する不利益な経済的影響がもたらされる可能性もある。
さらに、様々な高度な動作を行うように高められた装置の能力は、システムユーザに付加的な利点をもたらすこともあるが、様々な装置の構成要素の制御及び管理にさらなる負担を強いることもある。例えば、デジタル画像データを効果的に解析する高度な電子装置は、関連するデジタルデータの量の多さと複雑性により、効果的な実施から恩恵を受けることができる。
米国特許第8,045,046号明細書
システムリソースに対する需要の伸び及び大幅に増加しているデータの大きさにより、画像データを解析するための新しい技術を開発することが、関連する電子技術にとっての懸案事項であることは明らかである。従って、全ての上述の理由から、画像データを解析するための効果的なシステムを開発することは、現代の電子装置の設計者、製造者及びユーザにとって依然として重要な検討課題のままとなっている。
本発明では、多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法を開示する。1つの実施形態では、深度推定器が、あらゆる効果的な技術を利用することにより、最初にレベル2深度マップを生成する。例えば、このレベル2深度マップは、比較的微細なスケールの解像度を生じる圧縮比で実現することができる。深度推定器は、あらゆる効果的な技術を利用することにより、このレベル2深度マップからのそれぞれの深度値に対応するロバストな信頼値を計算する。次に、深度推定器は、これらのそれぞれの信頼値に従って、深度値を高信頼深度値、中信頼深度値及び低信頼深度値に分類する。
深度推定器は、あらゆる効果的な技術を利用することにより、レベル1深度マップ及びレベル0深度マップも生成する。例えば、レベル1深度マップは、中間スケールの解像度を生じる圧縮比で実現することができ、レベル0深度マップは、比較的粗いスケールの解像度を生じる圧縮比で実現することができる。深度推定器は、あらゆる効果的な技術を利用することにより、レベル1深度マップ及びレベル0深度マップからのそれぞれの深度値に対応するロバストな信頼値を計算する。次に、深度推定器は、この計算した信頼値を利用して、所定の信頼性基準に従って、レベル0深度マップ及びレベル1深度マップからのいずれかの信頼できる深度値候補を識別する。
次に、深度推定器は、あらゆる効果的な技術を利用することにより、レベル1深度マップ及びレベル0深度マップからのブロックに対し、レベル2深度マップのブロックサイズに一致させるためのサイズ変更手順を実行する。深度推定器は、あらゆる効果的な技術を利用することにより、レベル1深度マップ及びレベル0深度マップからの深度値を、レベル2深度マップの深度値範囲に一致するようにスケール調整するためのマグニチュードスケーリング手順も実行する。
次に、深度推定器は、レベル1深度マップ又はレベル0深度マップからいずれかのさらなる信頼できる深度値候補が識別されたかどうかを判定する。深度推定器は、あらゆる信頼できない深度値に、最終的な最適化深度マップに投入するのに適さない外れ値としてマーキングする。深度推定器は、あらゆる効果的な技術により、あらゆる信頼できる深度値候補を利用して、最終的な最適化深度マップの最適な深度値の更新も行う。例えば、最適な信頼基準の深度値を選択してもよく、或いは重み付けした又は重み付けしてない平均化法を利用して、いくつかの異なる信頼できる深度値を組み合わせてもよい。
深度推定器は、異なるレベルの深度マップからの最適な深度値を有利に融合して最終的な最適化深度マップを生成する。最後に、深度推定器は、この最終的な最適化深度マップの最適な深度値に対応する信頼値に基づいて信頼マップを作成することができる。その後、処理は終了することができる。従って、本発明は、多重解像度手順を利用して深度マップを生成するための改善されたシステム及び方法を提供する。
本発明によるカメラ装置の1つの実施形態を示すブロック図である。 本発明による、図1の取り込みサブシステムの1つの実施形態を示すブロック図である。 本発明による、図1の制御モジュールの1つの実施形態を示すブロック図である。 本発明による、図3のメモリの1つの実施形態を示すブロック図である。 本発明による、単純化した深度マップの1つの実施形態を示す図である。 焦点ずれしたブレ画像を取り込むための1つの例示的な実施形態を示す図である。 例示的な照合曲線の1つの実施形態のグラフである。 本発明の1つの実施形態による多重解像度ピラミッド構造の図である。 本発明の1つの実施形態による、多重解像度手順を利用して深度マップを生成するための方法ステップのフローチャートである。 本発明の1つの実施形態による、多重解像度手順を利用して深度マップを生成するための方法ステップのフローチャートである。 本発明の1つの実施形態による、多重解像度手順を利用して深度マップを生成するための方法ステップのフローチャートである。 本発明の1つの実施形態による微細スケールの信頼特性の図である。 本発明の1つの実施形態による粗いスケールの信頼特性の図である。 本発明の1つの実施形態によるSAD収束技術を示すグラフである。 本発明の1つの実施形態による単純化した信頼マップの図である。
本発明は、画像データ解析技術の改善に関する。以下の説明は、当業者が本発明を実施及び使用できるようにするために提供し、特許出願及びその要件との関連において行うものである。当業者には、開示する実施形態の様々な修正例が容易に明らかになるであろうし、本明細書における一般的な原理を他の実施形態に適用することもできる。従って、本発明は、図示の実施形態に限定されることは意図されておらず、本明細書で説明する原理及び特徴に従う最も広い範囲を許容すべきものである。
本発明は、ロバストな深度マップを生成するためのシステム及び方法を含み、また各々が異なる解像度特性を有する複数の深度マップレベルを含む深度マップピラミッド構造を作成する深度推定器を含む。1つの実施形態では、これらの深度マップレベルが、微細スケールの深度マップ、中間スケールの深度マップ及び粗いスケールの深度マップを含む。深度推定器は、微細スケールの信頼特性を利用することによって微細スケールの深度マップからの深度値を評価し、粗いスケールの信頼特性を利用することによって中間スケールの深度マップ及び粗いスケールの深度マップからの深度値を評価する。その後、深度推定器は、異なる深度マップレベルからの最適な深度値を融合して最適な深度マップを生成する。
ここで図1を参照すると、本発明によるカメラ装置110の1つの実施形態のブロック図を示している。図1の実施形態では、カメラ装置110が、以下に限定されるわけではないが、取り込みサブシステム114、システムバス116、及び制御モジュール118を含むことができる。図1の実施形態では、取り込みサブシステム114が、被写体112に光学的に結合することができ、またシステムバス116を介して制御モジュール118に電気的に結合することもできる。
別の実施形態では、カメラ装置110が、図1の実施形態に関連して説明する構成要素に加え又はこれらの代わりに、他の様々な構成要素を容易に含むことができる。また、いくつかの実施形態では、図1のカメラ装置110以外のあらゆる適当な種類の電子装置において本発明を別様に具体化することができる。例えば、カメラ装置110を、撮像装置、コンピュータ装置、又は消費者向け電子装置として別様に実装することができる。
図1の実施形態では、カメラ110の取り込みサブシステム114が被写体112に自動的に合焦すると、カメラユーザは、この被写体112に対応する画像データを取り込むようにカメラ装置110に要求することができる。この時、制御モジュール118が取り込みサブシステム114に、被写体112を表す画像データを取り込むようにシステムバス116を介して命令できることが好ましい。次に、この取り込んだ画像データを、システムバス116を介して制御モジュール118へ転送することができ、これに応答して、制御モジュール118は、この画像データを用いて様々な処理及び機能を実行することができる。システムバス116は、取り込みサブシステム114と制御モジュール118の間で、様々な状態信号及び制御信号を双方向に渡すことができる。
ここで図2を参照すると、本発明による図1の取り込みサブシステム114の1つの実施形態のブロック図を示している。図2の実施形態では、取り込みサブシステム114が、以下に限定されるわけではないが、シャッタ218、レンズ220、画像センサ224、赤色、緑色及び青色(R/G/B)増幅器228、アナログデジタル(A/D)変換器230、及びインターフェイス232を含むことが好ましい。別の実施形態では、取り込みサブシステム114が、図2の実施形態に関連して説明する構成要素に加え又はこれらの代わりに、他の様々な構成要素を容易に含むことができる。
図2の実施形態では、取り込みサブシステム114が、光路236に沿って画像センサ224に衝突する反射光を介して、被写体112に対応する画像データを取り込むことができる。これに応答して、好ましくは電荷結合素子(CCD)を含むことができる画像センサ224が、被写体112を表す画像データの組を生成することができる。次に、この画像データは、増幅器228、A/D変換器230、及びインターフェイス232を経由することができる。この画像データは、インターフェイス232からシステムバス116を介して制御モジュール118に渡され、しかるべく処理されて記憶される。本発明に関連する画像データの取り込みには、CMOS又はリニアアレイなどの他の種類の画像取り込みセンサも想定される。以下、図3〜図9に関連して、カメラ110の利用及び機能についてさらに説明する。
ここで図3を参照すると、本発明による図1の制御モジュール118の1つの実施形態のブロック図を示している。図3の実施形態では、制御モジュール118が、以下に限定されるわけではないが、ファインダ308、中央処理装置(CPU)344、メモリ346、及び1又はそれ以上の入出力インターフェイス(I/O)348を含むことが好ましい。ファインダ308、CPU344、メモリ346及びI/O348の各々は、取り込みサブシステム114とも通信する共通システムバス116に結合され、この共通システムバス116を介して通信することが好ましい。別の実施形態では、制御モジュール118が、図3の実施形態に関連して説明する構成要素に加え又はこれらの代わりに、他の様々な構成要素を容易に含むことができる。
図3の実施形態では、CPU344を、あらゆる適当なマイクロプロセッサ装置を含むように実装することができる。或いは、他のあらゆる適当な技術を使用してCPU344を実装することもできる。例えば、CPU344を、いくつかの特定用途向け集積回路(ASIC)又はその他の適当な電子装置を含むように実装することができる。メモリ346は、以下に限定されるわけではないが、リードオンリメモリ、ランダムアクセスメモリ、及びフロッピー(登録商標)ディスク装置、ハードディスク装置又はフラッシュメモリなどの様々な種類の不揮発性メモリを含む1又はそれ以上の適当な記憶装置として実装することができる。I/O348は、カメラ装置110と、システムユーザ又は別の電子装置を含むあらゆる外部エンティティとの間の双方向通信を容易にするための1又はそれ以上の効果的なインターフェイスを提供することができる。I/O348は、あらゆる適当な入出力装置を使用して実装することができる。以下、図4〜図9に関連して、制御モジュール118の動作及び利用についてさらに説明する。
ここで図4を参照すると、本発明による図3のメモリ346の1つの実施形態のブロック図を示している。図4の実施形態では、メモリ346が、以下に限定されるわけではないが、カメラアプリケーション412、オペレーティングシステム414、深度推定器416、画像データ418、推定データ420、深度値422、及び信頼値424を含むことができる。別の実施形態では、メモリ346が、図4の実施形態に関連して説明する構成要素に加え又はこれらの代わりに、他の様々な構成要素を含むことができる。
図4の実施形態では、カメラアプリケーション412が、カメラ装置110の様々な機能及び動作を実行するための、好ましくはCPU344(図3)により実行されるプログラム命令を含むことができる。カメラアプリケーション412の特定の性質及び機能は、対応するカメラ装置110の種類及び特定の用途などの要因に応じて異なることが好ましい。
図4の実施形態では、オペレーティングシステム414が、カメラ装置110の低水準機能を制御及び調整することが好ましい。本発明によれば、深度推定器416が、カメラ110内で深度マップを生成できるように深度推定手順を制御及び調整することができる。図4の実施形態では、画像データ418が、カメラ装置110が取り込んだ被写体112の1又はそれ以上の画像を含むことができる。評価データ420は、深度マップ生成手順を実行するためのあらゆる種類の情報又はデータを含むことができる。
図4の実施形態では、深度値422が、カメラ110と、被写体又はシーンの様々な部分との間の距離を表すことができる。この深度値422を利用して、以下で図5Aに関連して説明するような深度マップを埋めることができる。信頼値424は、それぞれの深度値422が正確である相対的確立を表す。以下、図5〜図9に関連して、深度推定器416の動作に関するさらなる詳細について説明する。
ここで図5Aを参照すると、本発明による単純化した深度マップ522の1つの実施形態の図を示している。図5Aの深度マップ522は例示目的で示すものであり、別の実施形態では、深度マップが、図5Aの実施形態に関連して説明する構成要素及び構成に加え又はこれらの代わりに、他の様々な構成要素及び構成を含むことができる。例えば、単純にするために、図5Aの深度マップ522は4つの深度値のみで示している。しかしながら、本発明では、あらゆる数の深度値を有する深度マップが同様に想定される。
図5Aの実施形態では、深度マップ522が、個々の深度値がカメラ110(図1)と被写体又はシーンの様々な部分との間の距離を表す特定の画像データの組に対応する。いくつかの実施形態では、原画像データから初期深度マップの初期深度値をあらゆる効果的な方法で直接求めることができる。図5Aの例では、深度マップ522が、深度値A526(a)、深度値B526(b)、深度値C526(c)及び深度値D526(d)を含む。深度マップの生成に関する追加の詳細については、以下で図6〜図9に関連してさらに説明する。
ここで図5Bを参照すると、本発明による、焦点ずれしたブレ画像518を取り込むための1つの例示的な実施形態の図を示している。図5Bの実施形態は例示目的で示すものであり、別の実施形態では、本発明は、他の様々な構成及び要素を利用して、焦点ずれしたブレ画像518を取り込むことができる。
図5Bの実施形態では、カメラ110のセンサ224(図2を参照)が、深度推定手順を実行するための被写体又はシーン112の焦点ずれしたブレ画像518を取り込むことができる。この焦点ずれしたブレ画像518は、被写体112、レンズ220及びセンサ224の相対位置に依存する正しく焦点が合ったレンズ位置以外の位置にレンズ220を調整することによって作成することができる。
1つの実施形態では、2つの異なる焦点ずれしたブレ画像518を比較して深度推定を得ることができる。例えば、互いに被写界深度が1つ離れた2つのブレ画像518のブレ差を計算することができる。既知の照合曲線の傾き及びブレ差を利用して、所与の被写体112の深度を求めることができる。
ここで図5Cを参照すると、本発明の1つの実施形態による例示的な照合曲線714のグラフを示している。図5Cの実施形態は例示目的で示すものであり、別の実施形態では、図5Cの実施形態に関連して説明する構成及びパラメータの一部に加え又はこれらの代わりに、様々な構成及びパラメータの照合曲線を利用するように本発明を実現することができる。
いくつかの実施形態では、ブレ画像1及びより焦点がずれたブレ画像2を取り込み、鮮明な方の画像1をガウスカーネル(例えば、分散の少ない3×3のガウス行列)で畳み込んで畳み込み画像1を生成することができる。この畳み込み画像1をブレ画像2と比較する。この処理を、2つのブレ画像が一致するまで繰り返す。次に、この反復回数を被写界深度(すなわち、1DOFきざみの画像番号)に対してグラフ化してブレ画像の照合曲線を生成し、これを使用していずれかの焦点が外れた位置から焦点が合った位置までの距離を推定することができる。上述した深度推定技術に関するさらなる詳細は、Li他による米国特許第8,045,046号にさらに記載されており、この特許は引用により本明細書に組み入れられる。
ここで図6を参照すると、本発明の1つの実施形態による多重解像度ピラミッド構造614の図を示している。図6のピラミッド614は例示目的で示すものであり、別の実施形態では、多重解像度ピラミッド614が、図6の実施形態に関連して説明する構成要素及び構成に加え又はこれらの代わりに、他の様々な構成要素及び構成を含むことができる。
図6の実施形態では、多重解像度ピラミッド614が、各々が異なる解像度レベルを有するレベル2深度マップ618、レベル1深度マップ622及びレベル0深度マップ628を含む。他の実施形態では、他のあらゆる効果的な数又は構成の解像度レベルを同様に利用することができる。図6の実施形態では、解像度レベル618、622及び628は、全て同じ画像データの組から圧縮したものであるが、各レベルで圧縮比は異なる。例えば、いくつかの実施形態では、レベル0が1/16の圧縮比を有することができ、レベル1が1/8の圧縮比を有することができ、レベル2が1/4の圧縮比を有することができる。圧縮比は、あらゆる効果的な方法で実現することができる。例えば、サブサンプリング圧縮技術を利用してもよい。
図6の実施形態では、各レベル618、622及び628が、1又はそれ以上のブロックを含む。例えば、レベル0は、単一のブロック632を有し、レベル1は、2×2の行列で配列された4つのブロックを有し、レベル2は、4×4の行列で配列された16個のブロックを有する。各ブロックは、所定数の画素を表すことができる。例えば、いくつか実施形態では、各ブロックが16×16の深度値を表すことができる。圧縮比が異なることにより、3つの異なるレベル628、622及び618は、各々が原画像データからの同じ領域を表している。例えば、レベル0の単一のブロック632は、レベル1のブロック636、640、644及び648に相当する。同様に、レベル1の各ブロックは、レベル2からの4つのブロックに相当する。例えば、レベル1のブロック636は、レベル2からのブロック652、656、660及び664に相当する。
図6の実施形態では、全ての3つのレベルの各ブロックが関連する深度値を有する。従って、レベル0は1つの深度値を有し、レベル1は4つの深度値を有し、レベル2は16個の深度値を有する。別のいくつかの実施形態では、これらの3つのレベルを、図6の実施形態に示す特定の構成とは異なる数量の深度値/ブロックを含むように実現することができる。本発明は、ロバストな信頼基準技術を使用してこれらの様々な深度値を有利に評価し、その後最適な深度値を融合して最終的な深度マップ生成する。以下、図7〜図9に関連して、多重解像度ピラミッドの利用に関するさらなる詳細についてさらに説明する。
ここで図7A〜図7Cを参照すると、本発明の1つの実施形態による、多重解像度手順を利用して深度マップを生成する方法ステップのフローチャートを示している。図7の実施形態は例示目的で示すものであり、別の実施形態では、本発明は、図7の実施形態に関連して説明するステップ及び順序以外の様々なステップ及び順序を容易に利用することができる。
図7Aの実施形態では、ステップ714において、深度推定器416(図4)又はその他の適切なエンティティが、あらゆる効果的な技術を利用することによってレベル2深度マップ618を生成する。例えば、レベル2深度マップ618を、比較的微細なスケールの解像度を生じる圧縮比で実現することができる。次に、ステップ718において、深度推定器416が、あらゆる効果的な技術を利用することにより、レベル2深度マップ618からのそれぞれの深度値に対応するロバストな信頼値を計算することができる。ステップ722において、深度推定器416は、これらのそれぞれの信頼値に従って、深度値を高信頼深度値734、中信頼深度値730及び低信頼深度値726に分類する。その後、図7Aの処理は、連結文字「A」及び「B」を介して図7Cのステップ946へ進む。
図7Bの実施形態では、ステップ738において、深度推定器416(図4)又はその他の適当なエンティティが、あらゆる効果的な技術を利用することにより、レベル1深度マップ622及びレベル0深度マップ628を生成する。例えば、レベル1深度マップ622は、中間スケールの解像度を生じる圧縮比で実現することができ、レベル0深度マップ628は、比較的粗いスケールの解像度を生じる圧縮比で実現することができる。
次に、ステップ742において、深度推定器416が、あらゆる効果的な技術を利用することにより、レベル1深度マップ622及びレベル0深度マップ628からのそれぞれの深度値に対応するロバストな信頼値を計算することができる。次に、ステップ750において、深度推定器416は、この計算した信頼値を利用して、レベル0深度マップ626及びレベル1深度マップ622からのいずれかの信頼できる深度値候補を所定の信頼性基準に従って識別する。
ステップ750において、深度推定器416は、あらゆる効果的な技術を利用することにより、レベル1深度マップ622及びレベル0深度マップ628からのブロックに対し、レベル2深度マップ618のブロックサイズに一致させるためのサイズ変更手順を実行する。例えば、バイキュービック法又はスプライン法などの様々な空間的補間技術を利用することができる。いくつかの実施形態では、エッジ保存補間アルゴリズムを利用して、フィルタ行列とともにマスクベースの2X補間カーネルを使用するサイズ変更を実行することができる。以下に、エッジ保存アルゴリズムの公式の1例を示す。

Figure 2013117969
ステップ754において、深度推定器416は、あらゆる効果的な技術を利用することにより、レベル1深度マップ622及びレベル0深度マップ628からの深度値をレベル2深度マップ618の深度値範囲に一致するようにスケール調整するためのマグニチュードスケーリング手順を実行する。例えば、このスケーリング手順は、理論的アプローチ又はデータ駆動型アプローチを利用することができる。その後、図7Bの処理は、連結文字「A」を介して図7Cのステップ758へ進む。
ステップ758において、深度推定器416は、レベル1深度マップ622又はレベル0深度マップ628からいずれかのさらなる信頼できる深度値候補が識別されたかどうかを判定する。ステップ762において、深度推定器416は、あらゆる信頼できない深度値に、最終的な最適化深度マップに投入するのに適さない外れ値としてマーキングする。ステップ766において、深度推定器416は、あらゆる効果的な技術により、あらゆる信頼できる深度値候補を利用して、最終的な最適化深度マップの最適な深度値を更新する。例えば、最適な信頼基準の深度値を選択してもよく、或いは重み付けした又は重み付けしてない平均化法を利用して、いくつかの異なる信頼できる深度値を組み合わせてもよい。この時点で、深度推定器416は、信頼値の信頼マップを更新することもできる。
ステップ770において、深度推定器416は、異なるレベルの深度マップ618、622及び628からの最適な深度値を有利に融合して最終的な最適化深度マップを生成する。最後に、ステップ774において、深度推定器416は、この最終的な最適化深度マップの最適な深度値に対応する信頼値に基づいて信頼マップを作成することができる。その後、図7の処理は終了することができる。従って、本発明は、多重解像度手順を利用して深度マップを生成するための改善されたシステム及び方法を提供する。
ここで図8Aを参照すると、本発明の1つの実施形態による微細スケールの信頼特性の図を示している。図8Aの実施形態は例示目的で示すものであり、別の実施形態では、本発明は、図8Aの実施形態に関連して説明する信頼特性以外の信頼特性を容易に利用することができる。
図8Aの実施形態では、信頼特性812が、特定のカメラ110(図1)のあらゆる動作特性又は動作制限を含むことができるカメラモデル/レンズ位置特性818を含む。例えば、カメラモデル/レンズ位置特性818は、以下に限定されるわけではないが、光学特性、レンズ位置、ズーム位置、カメラ較正などを含むことができる。1つの実施形態では、カメラモデル/レンズ位置特性818が、所与のカメラ110がサポートするズーム範囲を含むことができる。
図8Aの実施形態では、信頼特性812が、深度マップを生成するために使用する特定のアルゴリズムのあらゆるパラメータ又は特性を含むことができる実装特性822をさらに含む。例えば、実装特性822は、以下に限定されるわけではないが、利用するブロックサイズ及び利用する照合カーネルを含むことができる。図8Aの実施形態では、深度推定器416が、信頼特性812を重み付けした形又は重み付けしない形で選択的に組み合わせて、レベル2深度マップ618(図6)などの微細スケールの深度マップの対応する深度値が正確である可能性を表す信頼値を生成することができる。
ここで図8Bを参照すると、本発明の1つの実施形態による粗いスケールの信頼特性814の図を示している。図8Bの実施形態は例示目的で示すものであり、別の実施形態では、本発明は、図8Bの実施形態に関連して説明する信頼特性以外の信頼特性を容易に利用することができる。
図8B実施形態では、粗いスケールの信頼特性814が、図8Aに関連して説明した同名の特性と同様のカメラモデル/レンズ位置特性818及び実装特性822を含む。また、粗いスケールの信頼特性814は、統計特性826及び測定特性830を含むこともできる。図8Bの実施形態では、測定特性830が、適当な測定データに基づくあらゆる特性を含むことができる。例えば、測定特性830は、以下に限定されるわけではないが、動きベクトルの測定値及び画素強度の測定値を含むことができる。
図8Bの実施形態では、統計特性826が、適当な統計解析手順から導出されるあらゆる効果的な特性を含むことができる。例えば、統計特性826は、以下に限定されるわけではないが、最適化率統計値、又は図8Cに関連して以下でさらに説明する絶対差の総和(SAD)収束技術を含むことができる。図8Bの実施形態では、深度推定器416が、信頼特性814を重み付けした形又は重み付けしていない形で選択的に組み合わせて、レベル0深度マップ626及びレベル1深度マップ622(図6を参照)などの比較的粗いスケール深度マップの対応する深度値が正確である可能性を表す信頼値を生成することができる。
ここで図8Cを参照すると、本発明の1つの実施形態による絶対差の総和(SAD)収束技術を示すグラフを示している。図8Cの実施形態は例示目的で示すものであり、別の実施形態では、本発明は、図8Cの実施形態に関連して説明する構成及びパラメータのいくつかに加えた又はこれらの代わりの構成及びパラメータでSAD収束技術を実施することができる。
図8Cのグラフは、図5B〜図5Cに関連して説明したブレ画像を用いた深度推定手順から導出される統計情報に関する。図8Cグラフでは、横軸に焦点ずれしたブレ画像の対のSAD値を示し、縦軸に深度推定手順(図5B〜図5Cを参照)の反復の収束速度を示している。図8Cのグラフは、いずれの深度値が信頼できていずれの深度値が信頼できないかを示す、あらゆる効果的な方法で導出できる分類曲線834をさらに含む。いくつかの実施形態では、以下の数式に従って分類曲線834を導出することができる。

Figure 2013117969
いくつかの実施形態では、観察される深度値データの経験的統計に基づいて分類曲線834を生成することができる。図8Cの実施形態では、分類曲線834よりも上方の深度値は信頼性できると見なすことができ、分類曲線834よりも下方の深度値は信頼できないと見なすことができる。
ここで図9を参照すると、本発明による単純化した信頼マップ922の1つの実施形態の図を示している。図9の信頼マップ922は例示目的で示すものであり、別の実施形態では、信頼マップが、図9の実施形態に関連して説明する構成要素及び構成に加え又はこれらの代わりに、他の様々な構成要素及び構成を含むことができる。例えば、単純にするために、図9の信頼マップ922は4つの信頼値のみで示している。図9の信頼マップ922のこれらの4つの信頼値は、上述した図5Aの深度マップ522の4つの深度値に対応することができる。しかしながら、本発明では、あらゆる数の信頼値を含む信頼マップも同様に想定される。
図9の実施形態では、信頼マップ922をあらゆる効果的な方法で生成することができる。例えば、上述した図7Cのステップ774中に信頼マップ922を生成することができる。図9の例では、信頼マップ922が、信頼値A 926(a)、信頼値B 926(b)、信頼値C 926(c)及び信頼値D 926(d)を含む。いくつかの実施形態では、信頼マップ922を、所定の閾値よりも低い信頼値を有する深度値をノイズとして処理するように選択できる様々なノイズ低減モジュールに提供することができる。
以上、いくつかの実施形態を参照しながら本発明について説明した。当業者には本開示に照らして他の実施形態も明らかであろう。例えば、上記の実施形態で説明したもの以外の構成及び技術を使用して本発明を容易に実施することができる。また、上述した以外のシステムとともに本発明を効果的に使用することもできる。従って、説明した実施形態に対するこれらの及びその他の変形も本発明の対象であることが意図され、本発明は添付の特許請求の範囲によってのみ限定される。

Claims (20)

  1. ロバストな深度マップを生成するためのシステムであって、
    各々が異なる解像度特性を有する複数の深度マップレベルを含む深度マップ構造と、
    前記深度マップレベルからの深度値を評価して、最適な深度マップに投入するための最適な深度値を識別する深度推定器と、
    を備えることを特徴とするシステム。
  2. 前記深度マップレベルが、微細スケールの深度マップ、中間スケールの深度マップ及び粗いスケールの深度マップを含む、
    ことを特徴とする請求項1に記載のシステム。
  3. 前記深度推定器が、微細スケールの信頼特性を利用することにより前記微細スケールの深度マップからの前記深度値を評価する、
    ことを特徴とする請求項2に記載のシステム。
  4. 前記微細スケールの信頼特性が、光学特性、レンズ位置、ズーム位置及びカメラ較正パラメータを含むカメラモデル/レンズ位置特性と、ブロックサイズ及び照合カーネルタイプを含む実装特性とを含む、
    ことを特徴とする請求項3に記載のシステム。
  5. 前記深度推定器が、前記カメラモデル/レンズ位置特性、前記実装特性及び粗いスケールの信頼特性を利用することにより、前記中間スケールの深度マップ及び前記粗いスケールの深度マップからの前記深度値を評価する、
    ことを特徴とする請求項4に記載のシステム。
  6. 前記粗いスケールの信頼特性が、最適化率統計及び絶対差の総和収束技術を含む統計特性と、動きベクトルの測定値及び画素強度の測定値を含む測定値特性とを含む、
    ことを特徴とする請求項5に記載のシステム。
  7. 前記絶対差の総和収束技術が、観察される深度値データの経験的統計に基づいて生成される分類曲線を利用して、前記深度値のいずれが信頼でき、いずれが信頼できないかを示す、
    ことを特徴とする請求項6に記載のシステム。
  8. 前記深度推定器が、初期画像データに第1の圧縮比を適用することにより前記微細スケールの深度マップを生成する、
    ことを特徴とする請求項2に記載のシステム。
  9. 前記第1の圧縮比が1/4であり、前記微細スケールの深度マップが4×4ブロックの構成を有する、
    ことを特徴とする請求項8に記載のシステム。
  10. 前記深度推定器が、選択した微細スケールの信頼特性を用いて前記微細スケールの深度マップを評価する、
    ことを特徴とする請求項8に記載のシステム。
  11. 前記深度推定器が、前記微細スケールの深度マップからの深度値を、低信頼深度値、中信頼深度値及び高信頼深度値のうちの1つとして分類する、
    ことを特徴とする請求項10に記載のシステム。
  12. 前記深度推定器が、前記初期画像データに第2の圧縮比を適用することにより前記中間スケールの深度マップを生成し、また前記初期画像データに第3の圧縮比を適用することにより前記粗いスケールの深度マップも生成する、
    ことを特徴とする請求項11に記載のシステム。
  13. 前記第2の圧縮比が1/8であり、前記中間スケールの深度マップが2×2ブロックの構成を有し、前記第3の圧縮比が1/16であり、前記粗いスケールの深度マップが単一ブロックの構成を有する、
    ことを特徴とする請求項12に記載のシステム。
  14. 前記深度推定器が、選択した粗いスケールの信頼特性を用いて前記中間レベルの深度マップ及び前記粗いレベルの深度マップを評価して、あらゆる信頼できる深度値候補を求める、
    ことを特徴とする請求項12に記載のシステム。
  15. 前記深度推定器が、前記粗いスケールの深度マップ及び中間スケールの深度マップのブロックサイズを前記微細スケールの深度マップに一致させるための空間的サイズ変更手順を実行する、
    ことを特徴とする請求項14に記載のシステム。
  16. 前記深度推定器が、前記粗いスケールの深度マップ及び中間スケールの深度マップの深度値範囲を前記微細スケールの深度マップに一致させるためのマグニチュードスケーリング手順を実行する、
    ことを特徴とする請求項15に記載のシステム。
  17. 前記深度推定器が、選択技術及び平均化技術の一方を利用することにより、前記信頼できる深度値候補による更新手順を実行する、
    ことを特徴とする請求項16に記載のシステム。
  18. 前記深度推定器が、前記微細スケールの深度マップ、前記中間スケールの深度マップ及び前記粗いスケール深度マップの前記最適な深度値から前記最適化深度マップを作成するための融合手順を実行する、
    ことを特徴とする請求項17に記載のシステム。
  19. 前記深度推定器が、前記最適化深度マップに対応する最終的な信頼マップを生成する、
    ことを特徴とする請求項18に記載のシステム。
  20. ロバストな深度マップを生成する方法であって、
    各々が異なる解像度特性を有する複数の深度マップレベルを含む深度マップ構造を作成するステップと、
    深度推定器を利用して前記深度マップレベルからの深度値を評価し、最適な深度マップに投入するのに最適な深度値を識別するステップと、
    を実行することによって行われる、
    ことを特徴とする方法。
JP2012276192A 2011-12-01 2012-11-30 多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法 Active JP5454821B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201161565839P 2011-12-01 2011-12-01
US61/565,839 2011-12-01
US13/430,915 US9161010B2 (en) 2011-12-01 2012-03-27 System and method for generating robust depth maps utilizing a multi-resolution procedure
US13/430,915 2012-03-27

Publications (2)

Publication Number Publication Date
JP2013117969A true JP2013117969A (ja) 2013-06-13
JP5454821B2 JP5454821B2 (ja) 2014-03-26

Family

ID=47500912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012276192A Active JP5454821B2 (ja) 2011-12-01 2012-11-30 多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法

Country Status (7)

Country Link
US (1) US9161010B2 (ja)
EP (1) EP2600618A3 (ja)
JP (1) JP5454821B2 (ja)
KR (1) KR101364421B1 (ja)
CN (1) CN103139469B (ja)
BR (1) BR102012030034B1 (ja)
TW (1) TWI519128B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147059A1 (ja) * 2017-02-07 2018-08-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013172190A (ja) * 2012-02-17 2013-09-02 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP6140935B2 (ja) 2012-05-17 2017-06-07 キヤノン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および撮像装置
US9214025B2 (en) 2012-11-30 2015-12-15 Adobe Systems Incorporated Depth estimation using normalized displacement of image pairs
US9240048B2 (en) * 2012-11-30 2016-01-19 Adobe Systems Incorporated Depth estimation using three-dimensional epipolar data structures
JP6520712B2 (ja) 2013-09-24 2019-05-29 味の素株式会社 糖アミノ酸およびその用途
US9418432B2 (en) 2014-03-28 2016-08-16 Sony Corporation Imaging system with depth estimation mechanism and method of operation thereof
KR101882931B1 (ko) 2014-07-10 2018-07-30 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그의 디스패리티 측정 방법
US9292926B1 (en) * 2014-11-24 2016-03-22 Adobe Systems Incorporated Depth map generation
CN105721852B (zh) * 2014-11-24 2018-12-14 奥多比公司 用于确定深度细化图像捕获指令的方法、存储设备和系统
US10404969B2 (en) * 2015-01-20 2019-09-03 Qualcomm Incorporated Method and apparatus for multiple technology depth map acquisition and fusion
EP3391647B1 (en) * 2015-12-18 2023-11-01 BOE Technology Group Co., Ltd. Method, apparatus, and non-transitory computer readable medium for generating depth maps
US10620316B2 (en) * 2017-05-05 2020-04-14 Qualcomm Incorporated Systems and methods for generating a structured light depth map with a non-uniform codeword pattern
CN108810317B (zh) * 2017-05-05 2021-03-09 展讯通信(上海)有限公司 真实运动估计方法及装置、计算机可读存储介质、终端
CN108234858B (zh) * 2017-05-19 2020-05-01 深圳市商汤科技有限公司 图像虚化处理方法、装置、存储介质及电子设备
WO2019061064A1 (zh) 2017-09-27 2019-04-04 深圳市大疆创新科技有限公司 图像处理方法和设备
CN110349196B (zh) * 2018-04-03 2024-03-29 联发科技股份有限公司 深度融合的方法和装置
CN109410261B (zh) * 2018-10-08 2021-12-10 浙江科技学院 基于金字塔池化模块的单目图像深度估计方法
CN112102386A (zh) * 2019-01-22 2020-12-18 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN111524075B (zh) * 2020-03-26 2023-08-22 北京迈格威科技有限公司 深度图像滤波方法、图像合成方法、装置、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319229A (ja) * 2000-05-10 2001-11-16 Toyota Central Res & Dev Lab Inc 画像における相関演算方法
JP2008309637A (ja) * 2007-06-14 2008-12-25 Konica Minolta Holdings Inc 障害物計測方法、障害物計測装置及び障害物計測システム
JP2009294733A (ja) * 2008-06-03 2009-12-17 Konica Minolta Holdings Inc 画像処理装置および画像処理方法
JP2011128623A (ja) * 2009-12-21 2011-06-30 Sony Corp 信頼基準を有するオートフォーカス

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06176107A (ja) 1992-12-04 1994-06-24 Canon Inc 距離画像処理方法及び装置
JPH1051675A (ja) * 1996-07-29 1998-02-20 Ikegami Tsushinki Co Ltd フォーカス制御装置およびその方法および記憶媒体
US20030235338A1 (en) 2002-06-19 2003-12-25 Meetrix Corporation Transmission of independently compressed video objects over internet protocol
JP4069468B2 (ja) * 2004-01-15 2008-04-02 充夫 松田 映像形成装置
JP4792929B2 (ja) * 2005-11-14 2011-10-12 株式会社ニコン デジタルカメラ
US8970680B2 (en) 2006-08-01 2015-03-03 Qualcomm Incorporated Real-time capturing and generating stereo images and videos with a monoscopic low power mobile device
DE102006055641B4 (de) 2006-11-22 2013-01-31 Visumotion Gmbh Anordnung und Verfahren zur Aufnahme und Wiedergabe von Bildern einer Szene und/oder eines Objektes
IL191615A (en) * 2007-10-23 2015-05-31 Israel Aerospace Ind Ltd A method and system for producing tie points for use in stereo adjustment of stereoscopic images and a method for identifying differences in the landscape taken between two time points
US8233077B2 (en) * 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
EP2184713A1 (en) 2008-11-04 2010-05-12 Koninklijke Philips Electronics N.V. Method and device for generating a depth map
US8164617B2 (en) 2009-03-25 2012-04-24 Cisco Technology, Inc. Combining views of a plurality of cameras for a video conferencing endpoint with a display wall
US8643701B2 (en) * 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
US8045046B1 (en) 2010-04-13 2011-10-25 Sony Corporation Four-dimensional polynomial model for depth estimation based on two-picture matching
EP2595116A1 (en) 2010-05-07 2013-05-22 Telefónica, S.A. Method for generating depth maps for converting moving 2d images to 3d

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319229A (ja) * 2000-05-10 2001-11-16 Toyota Central Res & Dev Lab Inc 画像における相関演算方法
JP2008309637A (ja) * 2007-06-14 2008-12-25 Konica Minolta Holdings Inc 障害物計測方法、障害物計測装置及び障害物計測システム
JP2009294733A (ja) * 2008-06-03 2009-12-17 Konica Minolta Holdings Inc 画像処理装置および画像処理方法
JP2011128623A (ja) * 2009-12-21 2011-06-30 Sony Corp 信頼基準を有するオートフォーカス

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147059A1 (ja) * 2017-02-07 2018-08-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JPWO2018147059A1 (ja) * 2017-02-07 2019-11-21 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
JP7024736B2 (ja) 2017-02-07 2022-02-24 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
US11272163B2 (en) 2017-02-07 2022-03-08 Sony Corporation Image processing apparatus and image processing method

Also Published As

Publication number Publication date
EP2600618A3 (en) 2015-04-01
US9161010B2 (en) 2015-10-13
US20130142415A1 (en) 2013-06-06
CN103139469B (zh) 2016-05-18
BR102012030034B1 (pt) 2021-05-25
TWI519128B (zh) 2016-01-21
BR102012030034A2 (pt) 2013-11-12
CN103139469A (zh) 2013-06-05
JP5454821B2 (ja) 2014-03-26
KR101364421B1 (ko) 2014-02-17
EP2600618A2 (en) 2013-06-05
KR20130061636A (ko) 2013-06-11
TW201338500A (zh) 2013-09-16

Similar Documents

Publication Publication Date Title
JP5454821B2 (ja) 多重解像度手順を利用してロバストな深度マップを生成するためのシステム及び方法
US9066002B2 (en) System and method for utilizing enhanced scene detection in a depth estimation procedure
Zhou et al. Coded aperture pairs for depth from defocus
JP5868183B2 (ja) 撮像装置及び撮像方法
JP5980294B2 (ja) データ処理装置、撮像装置、およびデータ処理方法
JP5988068B2 (ja) 適応的カーネルを利用することにより深度推定を実行するためのシステム及び方法
US10306210B2 (en) Image processing apparatus and image capturing apparatus
JP5459523B2 (ja) 焦点ずれしたピルボックス画像を利用して深度推定を行うためのシステム及び方法
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP6319972B2 (ja) 画像処理装置、撮像装置、画像処理方法、およびプログラム
JP2013531268A (ja) 符号化開口を使用した距離の測定
US9262833B2 (en) Methodology for performing depth estimation with defocused images under extreme lighting conditions
KR100942271B1 (ko) 깊이 정보를 이용한 집적 영상 복원 방법 및 장치
US9020280B2 (en) System and method for evaluating focus direction under various lighting conditions
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
Wang et al. Depth estimation from a single defocused image using multi-scale kernels
JP2019106215A (ja) データ処理装置、撮像装置、およびデータ処理方法
JP2016194956A (ja) データ処理装置、撮像装置、およびデータ処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131224

R151 Written notification of patent or utility model registration

Ref document number: 5454821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250