JP2016502704A - 奥行きアーチファクトを除去するための画像処理方法および装置 - Google Patents

奥行きアーチファクトを除去するための画像処理方法および装置 Download PDF

Info

Publication number
JP2016502704A
JP2016502704A JP2015539579A JP2015539579A JP2016502704A JP 2016502704 A JP2016502704 A JP 2016502704A JP 2015539579 A JP2015539579 A JP 2015539579A JP 2015539579 A JP2015539579 A JP 2015539579A JP 2016502704 A JP2016502704 A JP 2016502704A
Authority
JP
Japan
Prior art keywords
image
depth
resolution
super
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015539579A
Other languages
English (en)
Inventor
ペチュシュコ,アレキサンドル,エイ
コロデンコ,アレキサンドル,ビー
マツレンコ,イワン,エル
パルフェノフ,デニス,ブイ
バビン,ドミトリー,エヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LSI Corp
Original Assignee
LSI Logic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LSI Logic Corp filed Critical LSI Logic Corp
Publication of JP2016502704A publication Critical patent/JP2016502704A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

画像処理システムは、第1の画像における少なくとも1つの奥行きアーチファクトに関連した1つ又は複数の潜在的な欠陥ピクセルを識別し、1つ又は複数の潜在的な欠陥ピクセルの奥行き情報を再構成するために、第2の画像を利用して超分解能技術を適用するように構成された画像プロセッサを含む。超分解能技術を適用することは、再構成された奥行き情報を有する第3の画像を生成する。第1の画像は奥行き画像からなることができ、第3の画像は、第1の画像に概して対応する奥行き画像からなることができるが、奥行きアーチファクトは実質的に除去されている。追加の超分解能技術が、第4の画像を利用して適用され得る。追加の超分解能技術を適用することは、第3の画像に比べて増大した空間分解能を有する第5の画像を生成する。【選択図】図2

Description

背景
リアルタイムに空間的シーンの三次元(3D)画像を生成するための多数の異なる技術が知られている。例えば、空間的シーンの3D画像は、複数の二次元(2D)画像に基づいた三角測量(triangulation:三角形分割)を用いて生成され得る。しかしながら、そのような技術の重大な欠点は、それが一般に非常に集約的な演算処理を必要とし、それ故にコンピュータ又は他の処理デバイスの過大な量の利用可能な計算資源を浪費する可能性があることである。
他の知られた技術には、構造光(structured light:SL)カメラ又は飛行時間(time of flight:ToF)カメラのような3D撮像装置を用いて3D画像を直接的に生成することが含まれる。このタイプのカメラは通常、コンパクトであり、迅速な画像生成を行い、低い量の電力を放出し、人間の視覚との干渉を避けるために、電磁スペクトルの近赤外線部分で動作する。結果として、SL及びToFカメラは一般に、ビデオゲームシステムにおけるジェスチャー認識またはジェスチャーによるヒューマンマシンインターフェースを必要とする他のシステムのような、画像処理システムの応用形態で使用される。
残念ながら、SL及びToFカメラにより生成された3D画像は一般に、非常に限られた空間分解能を有する。例えば、SLカメラは、パターンのサイズが高分解能を達成するために任意に細かく粒状にされることができない光パターンによる三角測量を実施するので、x−y平面における精度に固有の障害を有する。また、眼球損傷を避けるために、パターン全体にわたる全体の放出電力、並びに各パターン要素(例えば、線形またはスポット)の空間的および角度的電力密度は、制限される。従って、結果としての画像は、低い信号対雑音比を呈し、制限された品質奥行き(depth:デプス)マップのみを提供し、潜在的に多くの奥行きアーチファクトを含む。
ToFカメラはSLカメラよりも正確なx−y座標を求めることができるが、ToFカメラも空間分解能に関して問題を有する。例えば、z座標の形態の奥行き測定値は一般に、アナログ回路における非常に高速なスイッチング及び時間積分を必要とする技術を用いてToFカメラで生成され、それにより奥行きマップの達成可能な品質が制限される可能性があり、やはりかなりの数の奥行きアーチファクトを含む可能性がある画像を生じる。
概要
本発明の実施形態は、奥行きアーチファクトが実質的に除去される又は特定の効率的な方法で低減されることを可能にするように、奥行きマップ又は他のタイプの奥行き画像を処理する画像処理システムを提供する。これら実施形態の1つ又は複数は、SLカメラ又はToFカメラのような3D撮像装置により生成された奥行き画像における1つ又は複数の奥行きアーチファクトに関連した奥行き情報を再構成するために、実質的に同じシーンからなるけれども、考えられる別の画像ソースからの少なくとも1つの2D画像を利用する超分解能技術を適用することを含む。
一実施形態において、画像処理システムは、第1の画像における少なくとも1つの奥行きアーチファクトに関連した1つ又は複数の潜在的な欠陥ピクセルを識別し、1つ又は複数の潜在的な欠陥ピクセルの奥行き情報を再構成するために、第2の画像を利用して超分解能技術を適用するように構成された画像プロセッサを含む。超分解能技術を適用することは、再構成された奥行き情報を有する第3の画像を生成する。第1の画像は奥行き画像からなることができ、第3の画像は、第1の画像に概して対応する奥行き画像からなることができるが、奥行きアーチファクトは実質的に除去されている。第1、第2、及び第3の画像は全て、実質的に同じ空間分解能を有することができる。追加の超分解能技術が、第1、第2、及び第3の画像の空間分解能より大きい空間分解能を有する第4の画像を利用して適用され得る。追加の超分解能技術を適用することは、第3の画像に比べて増大した空間分解能を有する第5の画像を生成する。
本発明の実施形態は、SL及びToFカメラ及び他のタイプのリアルタイム3D撮像装置により生成された奥行き画像から歪み、及び他のタイプの奥行きアーチファクトを有効に除去することができる。例えば、奥行きアーチファクトに関連した潜在的な欠陥ピクセルは、識別されて除去され、対応する奥行き情報が第1の超分解能技術を用いて再構成され、次いで第2の超分解能技術を用いて結果としての奥行き画像の空間分解能を高めることができる。
一実施形態における画像処理システムのブロック図である。 一実施形態における奥行きアーチファクトを除去するためのプロセスの流れ図である。 複数の連続した潜在的な欠陥ピクセルの領域を含む奥行きアーチファクトを含む例示的な奥行き画像の一部を示す図である。 例示的な奥行き画像において所与の分離された潜在的な欠陥ピクセルの周りのピクセル近隣部を示す図である。 別の実施形態における奥行きアーチファクトを除去するためのプロセスの流れ図である。
詳細な説明
本発明の実施形態は、例示的な画像処理システムに関連して本明細書で例示され、当該例示的な画像処理システムは、画像プロセッサ又は他のタイプの処理デバイスを含み、奥行きアーチファクトを検出して実質的に除去する又は低減するために奥行きマップ又は他の奥行き画像を処理するために超分解能技術を実施する。しかしながら、理解されるべきは、本発明の実施形態は、奥行きアーチファクトを実質的に除去する又は低減することが望ましい任意の画像処理システム又は関連するデバイス又は技術に、より広く適用可能である。
図1は、本発明の一実施形態における画像処理システム100を示す。画像処理システム100は、画像ソース104からの画像を受け取り、処理された画像を画像の宛先106へ提供する画像プロセッサ102を含む。
画像ソース104は、例えば、SL及びToFカメラのような3D撮像装置、並びに2D赤外線画像、グレースケール画像、カラー画像、又は他のタイプの2D画像を任意の組み合わせで生成するように構成された2D撮像装置のような1つ又は複数の2D撮像装置を含む。画像ソース104の1つの別の例は、処理するための画像プロセッサ102に画像を提供する記憶デバイス又はサーバである。
画像の宛先106は例示的に、例えばヒューマンマシンインターフェースの1つ又は複数のディスプレイスクリーン、又は処理された画像を画像プロセッサ102から受け取る少なくとも1つの記憶デバイス又はサーバを含む。
本実施形態において、画像ソース104及び画像の宛先106から分離されているように示されているが、画像プロセッサ102は、共通の処理デバイス上で1つ又は複数の画像ソース又は画像の宛先と少なくとも部分的に組み合わされ得る。従って、例えば1つ又は複数の画像ソース104及び画像プロセッサ102は、同じ処理デバイス上で集合的に実現され得る。同様に、1つ又は複数の画像の宛先106及び画像プロセッサ102は、同じ処理デバイス上で集合的に実現され得る。
一実施形態において、画像処理システム100は、ユーザのジェスチャーを認識するために画像を処理するビデオゲームシステム又は他のタイプのジェスチャーベースのシステムとして実現される。開示された技術は、ジェスチャーによるヒューマンマシンインターフェースを必要とする広範囲の様々な他のシステムで使用するために同様に適合されることができ、ロボット工学および他の工業用途における機械視覚システムのような、ジェスチャー認識以外の応用形態にも適用可能である。
本実施形態の画像プロセッサ102は、少なくとも1つの処理デバイスを用いて実現され、メモリ112に結合されたプロセッサ110を含む。また、画像プロセッサ102には、ピクセル識別モジュール114及び超分解能モジュール116が含まれる。ピクセル識別モジュール114は、画像ソース104の1つから受け取った第1の画像における少なくとも1つの奥行きアーチファクトに関連した1つ又は複数の潜在的な欠陥ピクセルを特定するように構成される。超分解能モジュール116は、1つ又は複数の潜在的な欠陥ピクセルの奥行き情報を再構成するために画像ソース104の考えられる異なる1つから受け取った第2の画像を利用するように構成され、それにより再構成された奥行き情報を有する第3の画像を生成する。
本実施形態において、第1の画像が画像ソース104の第1の画像ソースからの第1の分解能の奥行き画像からなり、第2の画像が実質的に同じシーンからなり、且つ第1の画像ソースと異なる画像ソース104の別の1つからの、第1の分解能と実質的に同じ分解能を有する2D画像からなると、制限なしに想定される。例えば、第1の画像ソースは、構造光カメラ又はToFカメラのような3D画像ソースを含むことができ、第2の画像ソースは、赤外線画像、グレースケール画像またはカラー画像として第2の画像を生成するように構成された2D画像ソースを含むことができる。上述したように、他の実施形態において、同じ画像ソースが第1及び第2の画像の双方を供給する。
超分解能モジュール116は、第3の画像に比べて増大した空間分解能を有する第5の画像を生成するために、第4の画像を利用して第3の画像を処理するように更に構成され得る。そのような構成において、第1の画像は例示的に、画像ソース104の第1の画像ソースからの、第1の分解能の奥行き画像からなり、第4の画像は、実質的に同じシーンからなり且つ第1の画像ソースと異なる画像ソース104の別の1つからの、第1の分解能より大幅に大きい分解能を有する2D画像からなる。
画像プロセッサ102のピクセル識別モジュール114及び超分解能モジュール116を用いて実現される例示的な画像処理動作は、図2〜図5に関連してより詳細に後述される。
図1の実施形態におけるプロセッサ110及びメモリ112は、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、中央処理装置(CPU)、数値演算ユニット(ALU)、デジタル信号プロセッサ(DSP)、又は他の類似した処理デバイスのコンポーネント、並びに画像処理回路の他のタイプ及び構成を任意の組み合せで含む少なくとも1つの処理デバイスの個々の部分を含むことができる。
ピクセル識別モジュール114及び超分解能モジュール116又はその一部は、メモリ112に格納され、プロセッサ110により実行されるソフトウェアの形態で少なくとも部分的に実現され得る。対応するプロセッサにより実行するためのソフトウェアコードを格納する所与の係るメモリは、コンピュータ可読媒体または内部に組み入れられたコンピュータプログラムコードを有する他のタイプのコンピュータプログラム製品として本明細書でより一般的に呼ばれるものの例であり、例えば、ランダムアクセスメモリ(RAM)又は読み出し専用メモリ(ROM)、磁気メモリ、光メモリ、又は任意の組合せでの他のタイプの記憶デバイスのような、電子メモリを含むことができる。上述したように、プロセッサは、マイクロプロセッサ、ASIC、FPGA、CPU、ALU、DSP、又は他の画像処理回路の一部または組み合わせを含むことができる。
また、理解されるべきは、本発明の実施形態は、集積回路の形態で実現され得る。所与の係る集積回路の具現化形態において、同一のダイは一般に、半導体ウェハーの表面上で繰り返されたパターンで形成される。各ダイは、本明細書で説明されるような画像処理回路を含み、他の構造または回路を含むことができる。個々のダイは、ウェハーから切断またはダイシングされて、集積回路としてパッケージされる。当業者ならば、集積回路を製作するために、如何にしてウェハーをダイシングしてダイをパッケージするかを知っているであろう。そのように製造された集積回路は、本発明の実施形態とみなされる。
図1に示されたような画像処理システム100の特定の構成は単なる例示であり、他の実施形態のシステム100は、特に図示されたこれらのものに加えて又はこれらの代わりに他の要素を含むことができ、そのようなシステムの一般的な具現化形態において一般に見出されるタイプの1つ又は複数の要素を含む。
さて、図2の流れ図を参照すると、一実施形態における3D撮像装置により生成された奥行き画像において奥行きアーチファクトを除去するためのプロセスが示される。プロセスは、ピクセル識別モジュール114及び超分解能モジュール116を用いる画像プロセッサ102により実現されると想定される。この実施形態のプロセスは、例示的にM×Nのピクセルの空間分解能またはサイズを有する奥行き画像Dからなる第1の画像200から始まる。係る画像は、SLカメラ又はToFカメラのような3D撮像装置により提供されると想定され、それ故に一般に1つ又は複数の奥行きアーチファクトを含むであろう。例えば、奥行きアーチファクトは、SLカメラ又は他の3D撮像装置を用いた場合に発生することが多い「シャドー(影、陰影)」を含むかもしれない。
ステップ202において、奥行き画像Dにおける少なくとも1つの奥行きアーチファクトに関連した1つ又は複数の潜在的な欠陥ピクセルが識別される。これら潜在的な欠陥ピクセルは具体的には、本明細書において本実施形態および他の実施形態の文脈において「壊れた」ピクセルと呼ばれ、奥行き画像Dにおける1つ又は複数の奥行きアーチファクトに関連する確率が十分に高いと判断される任意のピクセルを含むことを一般的に理解されるべきである。そのように識別される任意のピクセルは、これらピクセルの除去または他の後続処理を容易にするように、ステップ202において壊れたピクセルとしてマーキング又は示されることができる。代案として、壊れたピクセルのサブセットのみが、除去のために、又は閾値化または他の基準に基づいた他の後続処理のためにマーキングされてもよい。
ステップ204において、ステップ202において識別された「壊れたピクセル」が、奥行き画像Dから除去される。留意すべきは、他の実施形態において、壊れたピクセルは、完全に除去される必要はない。代わりに、これらピクセルのサブセットのみが、閾値化または他の所定のピクセル除去基準に基づいて除去されることができ、又は奥行き情報の後続の再構成を容易にするように、特定の追加の処理動作がこれらピクセルの少なくともサブセットに適用され得る。従って、ステップ202において潜在的な欠陥として識別された全ピクセルの明確な除去は、必要ない。
ステップ206において、超分解能技術が、別の出所からの通常の画像として本実施形態で例示的に呼ばれる第2の画像208を用いて、修正される奥行き画像Dに適用される。従って、例えば第2の画像208は、実質的に同じシーンからなる画像とすることができるが、2D撮像装置のような、画像ソース104の異なる1つにより提供され、それ故に一般に奥行き画像Dで見出されるタイプの奥行きアーチファクトを含まないであろう。この実施形態における第2の画像208は、奥行き画像Dと同じ分解能(解像度)を有するものと想定され、それ故にM×N画像であるが、奥行き画像と対照的に通常の画像からなる。しかしながら、他の実施形態において、第2の画像208は、奥行き画像Dよりも高い分解能を有することができる。本実施形態および本明細書で説明される他の実施形態において使用され得る通常の画像の例には、2D撮像装置により生成される赤外線画像、グレースケール画像またはカラー画像が含まれる。
従って、本実施形態のステップ206は一般に、2つの異なるタイプの画像(除去される壊れたピクセルを備える奥行き画像および通常の画像、双方は実質的に同じサイズを有する)を利用する。
通常の画像208を利用するステップ206の超分解能技術の適用は、ステップ204の画像から除去された壊れたピクセルの奥行き情報を再構成することに役立ち、第3の画像210を生成する。例えば、ステップ204で除去された壊れたピクセルの奥行き情報は、奥行きマップDの近接するピクセルからの奥行き情報を、第2の画像208に対応する赤外線画像、グレースケール画像またはカラー画像からの輝度データと組み合わせることにより再構成され得る。
この動作は、奥行き画像Dの空間分解能を増大せずに、除去されたピクセルに関連する奥行きグリッチ又は他の奥行きアーチファクトから回復するように視認され得る。本実施形態における第3の画像210は、壊れたピクセルを含まないけれども、代わりに再構成された奥行き情報を含む分解能(解像度)M×Nの奥行き画像Eからなる。ステップ206の超分解能技術は、対応するピクセル格子が、ランダムな位置にある壊れたピクセルがステップ204で除去されたギャップを含むように、奥行き点の不規則的なセットを扱うことができるべきである。
より詳細に後述されるように、ステップ206で適用される超分解能技術は、例えば、少なくとも部分的に、マルコフ確率場モデルに基づくことができる。しかしながら、理解されるべきは、除去されるピクセルに関連した奥行き情報を再構成するのに適した他の多くの超分解能技術を使用できる。
また、ステップ202、204、及び206は、更なる奥行きアーチファクトの場所を見つけて実質的に除去するために、繰り返され得る。
図2の実施形態において、第1の画像200、第2の画像208及び第3の画像210の全ては、ピクセルの同じ空間分解能またはサイズ、即ちM×Nピクセルの分解能を有する。第1及び第3の画像は奥行き画像であり、第2の画像は通常の画像である。より具体的には、第3の画像は、第1の画像に概して対応する奥行き画像であるが、1つ又は複数の奥行きアーチファクトが実質的に除去されている。やはり、第1、第2、及び第3の画像の全ては、実質的に同じ空間分解能を有する。図5に関連して後述される別の実施形態において、第3の画像210の空間分解能は、ステップ206において奥行き情報を再構成するために適用されるものとは一般的に異なる技術である別の超分解能技術を用いて増大される。
図2のプロセスにより生成された奥行き画像Eは一般に、元の奥行き画像Dに比べて、より良好な視覚的および道具的品質、より規則的で自然な形状のより先鋭なエッジ、低いノイズの影響、及び奥行きの外れ値、斑点、反射率の高い表面からの色が濃いスポット又は他の奥行きアーチファクトのないことにより、特徴付けられる。
さて、図2のプロセスのステップ202における奥行き画像Dの潜在的な欠陥ピクセルを識別するための例示的な技術が、図3及び図4に関連してより詳細に説明される。最初に留意すべきは、係るピクセルは、幾つかの実施形態において、SLカメラ又はToFカメラのような、関連する3D撮像装置による個々の所定のエラー値に対して設定された奥行き値を有する任意のピクセルとして識別され得る。例えば、係るカメラは、対応するピクセルがその奥行き情報に関して潜在的に欠陥であることを示すために、所定のエラー値としてz=0の奥行き値を使用するように構成され得る。このタイプの実施形態において、所定のエラー値を有する任意のピクセルは、ステップ202の壊れたピクセルとして識別され得る。
奥行き画像Dにおいて潜在的な欠陥ピクセルを識別するための他の技術は、図3に示されるように、連続した潜在的な欠陥ピクセルの領域を検出することを含み、図4に示されるように、特定の潜在的な欠陥ピクセルを検出することを含む。
さて、図3を参照すると、奥行き画像Dの一部が、複数の連続した潜在的な欠陥ピクセルの網掛け部分からなる奥行きアーチファクトを含むように示される。網掛け部分の連続した潜在的な欠陥ピクセルのそれぞれは、網掛け部分の外側のピクセルの奥行き値とは実質的に異なる個々の予想外の奥行き値を有する連続したピクセルを含む可能性がある。例えば、本実施形態の網掛け部分は、網掛けされていない周囲の境界により取り囲まれ、当該網掛け部分は、当該周囲の境界に関連して以下の不等式を満たすように定義され得る。即ち、
|mean{di:pixel i is in the area} - mean{dj:pixel j is in the border}|>dT
ここで、dTは閾値である。係る予想外の奥行き領域が検出される場合、検出された領域のそれぞれの内側の全ピクセルは、壊れたピクセルとしてマーキングされる。他の実施形態において、多くの他の技術を用いて、所与の奥行きアーチファクトに対応する連続した潜在的な欠陥ピクセルの領域を識別することができる。例えば、上述した不等式は、以下のようにstatisticを利用するためにより一般的に表され得る。即ち、
|statistic{di:pixel i is in the area} - statistic{dj:pixel j is in the border}|>dT
ここで、statisticは、メジアン又はpノルムの距離尺度のような、所与の以前の、又は任意の幅広い他のタイプの統計量としての平均(mean)とすることができる。pノルムの距離尺度の場合、上記の不等式のstatisticは、以下のように表され得る。
Figure 2016502704
ここで、この例のxは、より具体的には所与のピクセルに関連したベクトルxの要素を示し、ここでp≧1である。
図4は、奥行き画像Dにおける所与の分離された潜在的な欠陥ピクセルの周囲のピクセルの近隣部を示す。この実施形態において、ピクセルの近隣部は、特定のピクセルpを取り囲む8個のピクセルp〜pを含む。この実施形態の特定のピクセルpは、特定のピクセルの奥行き値、及びピクセルの近隣部における個々のピクセルの奥行き値の平均および標準偏差の少なくとも一方に基づいて、潜在的な欠陥ピクセルとして識別される。
一例として、特定のピクセルpに対するピクセルの近隣部が、ピクセルpのn個の隣要素の集合Sを例示的に含む。即ち、
={p、・・p
ここで、n個の隣要素のそれぞれは以下の不等式を満たす。即ち、
‖p−p‖<d
ここで、dは、閾値または近隣部の半径であり、‖.‖は、x−y平面において、個々の中心間を測定した場合のピクセルpとpとの間のユークリッド距離を示す。この例においてユークリッド距離が使用されるが、マンハッタン距離尺度または前述したタイプのより一般的なpノルムの距離尺度のような、他のタイプの距離尺度を使用することができる。円の半径に対応するdの例は、ピクセルpの8個のピクセルの近隣部に関して図4に示される。しかしながら、理解されるべきは、個々の特定のピクセルに対するピクセルの近隣部を識別するために、多くの他の技術が使用され得る。
やはり一例として、所与の特定のピクセルpは、以下の不等式が満たされる場合に、潜在的な欠陥ピクセルとして識別され、壊れたピクセルとしてマーキングされ得る。即ち、
|z−m|>kσ
ここで、zは特定のピクセルの奥行き値であり、m及びσはそれぞれ、ピクセルの近隣部における個々のピクセルの奥行き値の平均および標準偏差であり、kは信頼度を指定する乗率である。一例として、幾つかの実施形態における信頼係数は、k=3により与えられる。様々な他の距離尺度が、他の実施形態において使用され得る。
上記の例における平均m及び標準偏差σは、以下の式を用いて求められ得る。
Figure 2016502704
しかしながら、理解されるべきは、σの他の定義が、他の実施形態において使用され得る。
上述したように識別される個々の潜在的な欠陥ピクセルは、例えば奥行きマップDを生成するために使用される3D撮像装置の物理的限界に起因するスペックル状のノイズを含む奥行きアーチファクトに対応するかもしれない。
個々の潜在的な欠陥ピクセルを識別するための閾値化の手法は、オブジェクトの境界からピクセルを時々マーキングして除去することができるが、これは、ステップ206で適用される超分解能技術が任意の係る除去されたピクセルの奥行き値を再構成することができるので、問題にならない。
また、潜在的な欠陥ピクセルを識別するための上述した技術の複数の例は、パイプライン型の具現化形態において、場合によっては1つ又は複数の追加のフィルタを用いて、ステップ202で直列的に具現化され得る。
上述したように、図2のプロセスは、空間分解能を実質的に上げるために奥行き画像Eに適用される追加の潜在的な別個の超分解能技術の応用形態でもって補足され得る。このタイプの実施形態が図5の流れ図に示される。図示されたプロセスは、図2に関連して前述されたのと実質的に同じように、第3の画像210を生成するために第1の画像200及び第2の画像208を利用するステップ202、204及び206を含む。プロセスは更に、追加のステップ212を含み、追加のステップ212において、第1、第2、及び第3の画像よりも大きい空間分解能を有する第4の画像214を利用して、追加の超分解能技術が適用される。
本実施形態におけるステップ212で適用される超分解能技術は一般に、ステップ206で適用されるものとは異なる技術である。例えば、上述したように、ステップ206で適用される超分解能技術は、奥行き情報の再構成に特に良好に適した超分解能技術または別の超分解能技術に基づいたマルコフ確率場を含むことができる。本発明の実施形態で使用するように適合され得る超分解能技術に基づいた例示的なマルコフ確率場に関する更なる詳細は、例えば、J. Diebel他著、「An Application of Markov Random Fields to Range sensing」,NIPS, MIT Press, pp. 291-298, 2005年に見出されることができ、これは参照により本明細書に組み込まれる。対照的に、ステップ212で適用される超分解能技術は、双方向フィルタに少なくとも部分的に基づいた超分解能技術のような、より高い分解能の画像を用いて低い分解能の画像の空間分解能を上げるのに特に良好に適した超分解能技術を含むことができる。このタイプの超分解能技術の例は、Q. Yang他著、「Spatial-Depth Super Resolution for Range Images」、IEEE Conference on Computer Vision and Pattern Recognition(CVPR)、2007年に説明されており、これは参照により本明細書に組み込まれる。
上記のことは、本発明の実施形態に使用され得る超分解能技術の単なる例である。本明細書で使用されるような用語「超分解能技術」は、場合によっては1つ又は複数の他の画像を用いることにより、所与の画像の分解能を高めるために使用され得る技術を包含するように広く解釈されることが意図されている。
ステップ212における追加の超分解能技術の適用は、第3の画像に比べて増大した空間分解能を有する第5の画像216を生成する。第4の画像214は、M1×N1ピクセルの空間分解能またはサイズを有する通常の画像であり、ここで、M1>M及びN1>Nであると想定される。第5の画像216は、第1の画像200に概して対応する奥行き画像であるが、1つ又は複数の奥行きアーチファクトが実質的に除去され、空間分解能が増大している。
第3の画像208と同様に、第4の画像214は、第1の画像200と実質的に同じシーンの2D画像であり、第1の画像を生成するために使用される3D撮像装置とは異なる撮像装置により例示的に提供される。例えば、第4の画像214は、2D撮像装置により生成される赤外線画像、グレースケール画像またはカラー画像とすることができる。
上述されたように、異なる超分解能技術が一般にステップ206とステップ212に使用される。例えば、壊れたピクセルを除去するために奥行き情報を再構成するためにステップ206で使用される超分解能技術は、x−y平面において十分に正確な結果を提供することができない。従って、ステップ212で適用される超分解能技術は、横方向の空間的エラーを補正するように最適化され得る。例には、前述したような双方向フィルタに基づいた超分解能技術、又は奥行き画像Eの特徴に対するものに比べて、通常の画像214のエッジ、輪郭、境界および他の特徴に敏感であるように構成された超分解能技術が含まれる。奥行きエラーは図5のプロセスのこのステップにおいて特に重要ではない。その理由は、これら奥行きエラーが、ステップ206で適用された超分解能技術により実質的に補正されるからである。
図5において、M1×N1の通常の画像214からM×Nの通常の画像208への破線の矢印は、後の画像がダウンサンプリング又は他の類似の動作を用いて、前の画像から生成され得ることを示す。
図5の実施形態において、奥行きアーチファクトに関連した潜在的な欠陥ピクセルが識別されて除去され、対応する奥行き情報がステップ206において第1の超分解能技術を用いて再構成され、続いてステップ212において第2の超分解能技術を用いて結果としての奥行き画像の空間分解能が高められる。この場合、第2の超分解能技術は、第1の超分解能技術とは一般に異なる。
また、留意すべきは、図5の実施形態は、奥行きアーチファクトを除去しない単一の超分解能技術の応用形態を含む従来の構成に優る著しい安定性の利点を提供する。図5の実施形態において、第1の超分解能技術は、奥行きアーチファクトを実質的に備えない低分解能の奥行きマップを達成し、それにより空間分解能を改善する際に第2の超分解能技術の性能を強化する。
ステップ206において第1の超分解能技術のみを用いる図2の実施形態は、奥行きマップの奥行きアーチファクトの除去のみが必要とされる応用形態において、又は図5の実施形態のステップ212における第2の超分解能技術を用いて奥行きマップの空間分解能を改善するために利用可能な処理能力または時間が不十分である場合に、使用され得る。しかしながら、画像プロセッサ102の前処理段階として図2の実施形態を使用することは、任意の後続の分解能強化プロセスから結果として生じる出力画像において著しい品質の改善をもたらすことができる。
これら及び他の実施形態において、歪み及び他のタイプの奥行きアーチファクトが、SLカメラ及びToFカメラ及び他のタイプのリアルタイム3D撮像装置により生成された奥行き画像から有効に除去される。
再び強調されるべきは、本明細書で説明されたような本発明の実施形態が単なる例示であることが意図されていることである。例えば、本発明の他の実施形態は、多種多様の異なるタイプ及び構成の画像処理回路、ピクセル識別技術、超分解能技術、及び本明細書で説明された特定の実施形態において利用されるもの以外の他の処理動作を利用して実現され得る。更に、特定の実施形態を説明する文脈において本明細書でなされた特定の仮定は、他の実施形態に適用する必要はない。以下の特許請求の範囲の範囲内にあるこれら及び多くの他の代替の実施形態は、当業者に容易に明らかになるであろう。

Claims (24)

  1. 第1の画像における少なくとも1つの奥行きアーチファクトに関連した1つ又は複数の潜在的な欠陥ピクセルを識別し、
    前記1つ又は複数の潜在的な欠陥ピクセルの奥行き情報を再構成するために、第2の画像を利用して超分解能技術を適用することを含み、
    前記超分解能技術の適用が、再構成された奥行き情報を有する第3の画像を生成し、
    前記識別するステップ及び前記適用するステップが、メモリに結合されたプロセッサを含む少なくとも1つの処理デバイスにおいて実施される、方法。
  2. 前記第1の画像が奥行き画像からなり、前記第3の画像は、前記第1の画像に概して対応する奥行き画像からなるが、前記少なくとも1つの奥行きアーチファクトが実質的に除去されている、請求項1に記載の方法。
  3. 第4の画像を利用して追加の超分解能技術を適用することを更に含み、
    前記追加の超分解能技術の適用が、前記第3の画像に比べて増大した空間分解能を有する第5の画像を生成する、請求項1に記載の方法。
  4. 前記第1の画像が奥行き画像からなり、前記第5の画像は、前記第1の画像に概して対応する奥行き画像からなるが、前記少なくとも1つの奥行きアーチファクトが実質的に除去されて前記分解能が増大している、請求項3に記載の方法。
  5. 前記1つ又は複数の潜在的な欠陥ピクセルを識別することが、
    前記潜在的な欠陥ピクセルの少なくともサブセットをマーキングし、
    前記超分解能技術を適用する前に、前記第1の画像から前記マーキングされた潜在的な欠陥ピクセルを除去することを含む、請求項1に記載の方法。
  6. 前記第1の画像が、第1の画像ソースからの第1の分解能の奥行き画像からなり、前記第2の画像は、実質的に同じシーンからなり且つ前記第1の分解能と実質的に同じ分解能を有し、且つ前記第1の画像ソースとは異なる別の画像ソースからの二次元画像からなる、請求項1に記載の方法。
  7. 前記第1の画像が、第1の画像ソースからの第1の分解能の奥行き画像からなり、前記第4の画像は、実質的に同じシーンからなり且つ前記第1の分解能より実質的に大きい分解能を有し、且つ前記第1の画像ソースとは異なる別の画像ソースからの二次元画像からなる、請求項3に記載の方法。
  8. 前記1つ又は複数の潜在的な欠陥ピクセルを識別することが、
    関連する奥行き撮像装置により個々の所定のエラー値に設定された奥行き値を有する前記第1の画像のピクセルを検出することを含む、請求項1に記載の方法。
  9. 前記1つ又は複数の潜在的な欠陥ピクセルを識別することが、
    領域の外側のピクセルの奥行き値とは実質的に異なる個々の予想外の奥行き値を有する連続したピクセルの前記領域を検出することを含む、請求項1に記載の方法。
  10. 前記個々の予想外の奥行き値を有する連続したピクセルの前記領域が、前記領域の周囲の境界に関連して以下の不等式を満たすように定義され、即ち
    |statistic{di:pixel i is in the area} - statistic{dj:pixel j is in the border}|>dT
    ここで、dTは閾値であり、statisticは平均、メジアン及び距離尺度の1つを示す、請求項9に記載の方法。
  11. 前記1つ又は複数の潜在的な欠陥ピクセルを識別することが、
    前記ピクセルの特定の1つを識別し、
    前記特定のピクセルに対してピクセルの近隣部を識別し、
    前記特定のピクセルの奥行き値、並びに前記ピクセルの近隣部における個々のピクセルの奥行き値の平均および標準偏差の少なくとも一方に基づいて、潜在的な欠陥ピクセルとして前記特定のピクセルを識別することを含む、請求項1に記載の方法。
  12. 前記特定のピクセルに対してピクセルの近隣部を識別することが、特定のピクセルpのn個の隣要素の集合S、即ち
    ={p、・・p
    を識別することを含み、
    ここで、n個の隣要素のそれぞれは以下の不等式を満たし、即ち、
    ‖p−p‖<d
    ここで、dは、近隣部の半径であり、‖.‖は、x−y平面において、ピクセルpとpとの間の距離尺度を示す、請求項11に記載の方法。
  13. 前記潜在的な欠陥ピクセルとして前記特定のピクセルを識別することが、以下の不等式、即ち
    |z−m|>kσ
    を満たす場合に、前記潜在的な欠陥ピクセルとして前記特定のピクセルを識別することを含み、
    ここで、zは特定のピクセルの奥行き値であり、m及びσはそれぞれ、前記ピクセルの近隣部における個々のピクセルの奥行き値の平均および標準偏差であり、kは信頼度を指定する乗率である、請求項11に記載の方法。
  14. 前記超分解能技術を適用することが、マルコフ確率場モデルに少なくとも部分的に基づいている超分解能技術を適用することを含む、請求項1に記載の方法。
  15. 前記追加の超分解能技術を適用することが、双方向フィルタに少なくとも部分的に基づいている超分解能技術を適用することを含む、請求項3に記載の方法。
  16. 内部に組み入れられたコンピュータプログラムコードを有するコンピュータ可読記憶媒体であって、前記コンピュータプログラムコードは、前記処理デバイスにおいて実行された場合に、前記処理デバイスに請求項1に記載の方法を実行させる、コンピュータ可読記憶媒体。
  17. メモリに結合されたプロセッサを含む少なくとも1つの処理デバイスを含み、
    前記少なくとも1つの処理デバイスが、
    第1の画像における少なくとも1つの奥行きアーチファクトに関連した1つ又は複数の潜在的な欠陥ピクセルを識別するように構成されたピクセル識別モジュールと、
    前記1つ又は複数の潜在的な欠陥ピクセルの奥行き情報を再構成するために第2の画像を利用するように構成された超分解能モジュールとを含み、
    前記超分解能モジュールが、前記再構成された奥行き情報を有する第3の画像を生成する、装置。
  18. 前記超分解能モジュールが、前記第3の画像に比べて増大した空間分解能を有する第5の画像を生成するために、第4の画像を利用して前記第3の画像を処理するように更に構成されている、請求項17に記載の装置。
  19. 前記第1の画像が、第1の画像ソースからの第1の分解能の奥行き画像からなり、前記第2の画像は、実質的に同じシーンからなり且つ前記第1の分解能と実質的に同じ分解能を有し、且つ前記第1の画像ソースとは異なる別の画像ソースからの二次元画像からなる、請求項17に記載の装置。
  20. 前記第1の画像ソースが、構造光カメラ又は飛行時間カメラの一方を含む三次元画像ソースからなる、請求項19に記載の装置。
  21. 前記第2の画像ソースが、赤外線画像、グレースケール画像、及びカラー画像の1つとして前記第2の画像を生成するように構成された二次元画像ソースからなる、請求項19に記載の装置。
  22. 前記第1の画像が、第1の画像ソースからの第1の分解能の奥行き画像からなり、前記第4の画像は、実質的に同じシーンからなり且つ前記第1の分解能より実質的に大きい分解能を有し、且つ前記第1の画像ソースとは異なる別の画像ソースからの二次元画像からなる、請求項18に記載の装置。
  23. 請求項17に記載の装置を含む画像処理システム。
  24. 請求項23に記載の画像処理システムを含むジェスチャー検出システム。
JP2015539579A 2012-10-24 2013-05-17 奥行きアーチファクトを除去するための画像処理方法および装置 Pending JP2016502704A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
RU2012145349/08A RU2012145349A (ru) 2012-10-24 2012-10-24 Способ и устройство обработки изображений для устранения артефактов глубины
RU2012145349 2012-10-24
PCT/US2013/041507 WO2014065887A1 (en) 2012-10-24 2013-05-17 Image processing method and apparatus for elimination of depth artifacts

Publications (1)

Publication Number Publication Date
JP2016502704A true JP2016502704A (ja) 2016-01-28

Family

ID=50545069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015539579A Pending JP2016502704A (ja) 2012-10-24 2013-05-17 奥行きアーチファクトを除去するための画像処理方法および装置

Country Status (8)

Country Link
US (1) US20140240467A1 (ja)
JP (1) JP2016502704A (ja)
KR (1) KR20150079638A (ja)
CN (1) CN104025567A (ja)
CA (1) CA2844705A1 (ja)
RU (1) RU2012145349A (ja)
TW (1) TW201421419A (ja)
WO (1) WO2014065887A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020059448A1 (ja) * 2018-09-18 2021-09-09 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9483830B2 (en) * 2013-07-22 2016-11-01 Stmicroelectronics S.R.L. Depth map generation method, related system and computer program product
US20150309663A1 (en) * 2014-04-28 2015-10-29 Qualcomm Incorporated Flexible air and surface multi-touch detection in mobile platform
WO2016112019A1 (en) * 2015-01-06 2016-07-14 Oculus Vr, Llc Method and system for providing depth mapping using patterned light
US9696470B2 (en) 2015-03-04 2017-07-04 Microsoft Technology Licensing, Llc Sensing images and light sources via visible light filters
LU92688B1 (en) 2015-04-01 2016-10-03 Iee Int Electronics & Eng Sa Method and system for real-time motion artifact handling and noise removal for tof sensor images
EP3295239B1 (en) * 2015-05-13 2021-06-30 Facebook Technologies, LLC Augmenting a depth map representation with a reflectivity map representation
WO2016184700A1 (en) * 2015-05-21 2016-11-24 Koninklijke Philips N.V. Method and apparatus for determining a depth map for an image
CN105139401A (zh) * 2015-08-31 2015-12-09 山东中金融仕文化科技股份有限公司 一种深度图中深度的可信度的评估方法
US10341633B2 (en) * 2015-11-20 2019-07-02 Qualcomm Incorporated Systems and methods for correcting erroneous depth information
US9886534B2 (en) * 2016-02-03 2018-02-06 Varian Medical Systems, Inc. System and method for collision avoidance in medical systems
US10015372B2 (en) * 2016-10-26 2018-07-03 Capsovision Inc De-ghosting of images captured using a capsule camera
US10451714B2 (en) 2016-12-06 2019-10-22 Sony Corporation Optical micromesh for computerized devices
US10536684B2 (en) 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
CN106780649B (zh) * 2016-12-16 2020-04-07 上海联影医疗科技有限公司 图像的伪影去除方法和装置
US10178370B2 (en) 2016-12-19 2019-01-08 Sony Corporation Using multiple cameras to stitch a consolidated 3D depth map
US10181089B2 (en) 2016-12-19 2019-01-15 Sony Corporation Using pattern recognition to reduce noise in a 3D map
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
US10795022B2 (en) * 2017-03-02 2020-10-06 Sony Corporation 3D depth map
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
KR102614494B1 (ko) 2019-02-01 2023-12-15 엘지전자 주식회사 비동일 카메라 기반 영상 처리 장치
CN112312113B (zh) * 2020-10-29 2022-07-15 贝壳技术有限公司 用于生成三维模型的方法、装置和系统
CN113205518B (zh) * 2021-07-05 2021-09-07 雅安市人民医院 医疗车图像信息处理方法及装置
CA3233549A1 (en) * 2021-09-30 2023-04-06 Peking University Systems and methods for image processing
CN115908142B (zh) * 2023-01-06 2023-05-09 诺比侃人工智能科技(成都)股份有限公司 一种基于视觉识别的接触网微小部件验损方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL156124A (en) * 2003-05-26 2010-04-15 Rafael Advanced Defense Sys A method for detecting incorrect pixels against a non-uniform background
US7684642B2 (en) * 2004-03-03 2010-03-23 Eastman Kodak Company Correction of redeye defects in images of humans
US20100142767A1 (en) * 2008-12-04 2010-06-10 Alan Duncan Fleming Image Analysis
US8774512B2 (en) * 2009-02-11 2014-07-08 Thomson Licensing Filling holes in depth maps
US20100302365A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Depth Image Noise Reduction

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020059448A1 (ja) * 2018-09-18 2021-09-09 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
JP7450163B2 (ja) 2018-09-18 2024-03-15 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム

Also Published As

Publication number Publication date
US20140240467A1 (en) 2014-08-28
TW201421419A (zh) 2014-06-01
CN104025567A (zh) 2014-09-03
RU2012145349A (ru) 2014-05-10
KR20150079638A (ko) 2015-07-08
WO2014065887A1 (en) 2014-05-01
CA2844705A1 (en) 2014-04-24

Similar Documents

Publication Publication Date Title
JP2016502704A (ja) 奥行きアーチファクトを除去するための画像処理方法および装置
US9305360B2 (en) Method and apparatus for image enhancement and edge verification using at least one additional image
KR102674646B1 (ko) 뷰로부터 거리 정보를 획득하는 장치 및 방법
US10699476B2 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
CN107194965B (zh) 用于处理光场数据的方法和设备
Krig Computer vision metrics: Survey, taxonomy, and analysis
US8355565B1 (en) Producing high quality depth maps
US20160005179A1 (en) Methods and apparatus for merging depth images generated using distinct depth imaging techniques
KR20150116833A (ko) 에지-보존 잡음 억제 기능을 갖는 이미지 프로세서
KR102516495B1 (ko) 스테레오-시간적 이미지 시퀀스들로부터 향상된 3-d 데이터 재구성을 위한 방법들 및 장치
TW201436552A (zh) 用於使用至少一較高訊框率之影像流而增加影像流之訊框率之方法及裝置
CN115035235A (zh) 三维重建方法及装置
TW201434010A (zh) 具有在預處理層及一或多個更高層之間之多通道介面之影像處理器
US9392146B2 (en) Apparatus and method for extracting object
US11893744B2 (en) Methods and apparatus for extracting profiles from three-dimensional images
TW201426634A (zh) 利用一種基於來自其他影像之資訊的函數之泛函之目標影像產生
Choi et al. Implementation of Real‐Time Post‐Processing for High‐Quality Stereo Vision
Joseph Raj et al. Video-rate calculation of depth from defocus on a FPGA
US12079968B2 (en) Apparatus and method for noise reduction from a multi-view image
CN115514877B (zh) 图像处理装置和降低噪声的方法
CN117876209A (zh) 体素的快速遍历方法、装置、设备及存储介质
Hu et al. High-Definition 3D Reconstruction in Real-Time from a Moving Depth Sensor
Park et al. Depth Evaluation from Pattern Projection Optimized for Automated Electronics Assembling Robots