JP2017535884A - ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置 - Google Patents

ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置 Download PDF

Info

Publication number
JP2017535884A
JP2017535884A JP2017527249A JP2017527249A JP2017535884A JP 2017535884 A JP2017535884 A JP 2017535884A JP 2017527249 A JP2017527249 A JP 2017527249A JP 2017527249 A JP2017527249 A JP 2017527249A JP 2017535884 A JP2017535884 A JP 2017535884A
Authority
JP
Japan
Prior art keywords
image
point
points
geometric entity
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017527249A
Other languages
English (en)
Other versions
JP6646667B2 (ja
Inventor
シャオク,モハメド
Original Assignee
コミサリヤ・ア・レネルジ・アトミク・エ・オ・エネルジ・アルテルナテイブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コミサリヤ・ア・レネルジ・アトミク・エ・オ・エネルジ・アルテルナテイブ filed Critical コミサリヤ・ア・レネルジ・アトミク・エ・オ・エネルジ・アルテルナテイブ
Publication of JP2017535884A publication Critical patent/JP2017535884A/ja
Application granted granted Critical
Publication of JP6646667B2 publication Critical patent/JP6646667B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering

Abstract

適応的方法を用いて視差または奥行き画像の収差をフィルタリングする方法および装置について記述する。本方法は、光信号に対して行われる変換の幾何学的実体から導かれた基準に従い、3D近傍で空間的に整合性を有していない複数の点の局所的フィルタリングを可能にする。有利な特徴として、本ノイズフィルタリング方法は、高密度の奥行き画像または高密度の視差画像に適用可能である。

Description

本発明は、画像処理およびコンピュータビジョンの分野、特にノイズの多い奥行きまたは視差画像の処理に関する。
画像内のシーンの解析(画像分割、背景減算、自動物体認識、およびマルチクラス検出)は主に「単一センサ」(2D)画像を対象として文献で広く扱われてきた分野である。物体は、色および/またはテクスチャの観点から整合性のある視認単位であるだけではなく、空間的に密集した単位でもあるため、シーン解析は3D知覚の最先端技術の恩恵を受けて奥行き情報の利用も図っている。
以下のように複数の種類の3D知覚システムが知られている。
−3Dスキャナまたは飛行時間型(TOF)カメラ等の機器。この種の3Dセンサは、各ピクセルが、シーン内の点と特定の点との距離に対応する奥行き画像を提供する。得られた奥行き画像は一般に極めて高精度であるものの、収差(例えばTOFカメラの場合は「斑点」)を含んでいる。これらの機器は、一千〜数千ユーロと高価であるため、コストが主な障壁ではないアプリケーションでの利用に限定される。更に、これらの3Dセンサの多くは画像が低解像度であるためリアルタイムアプリケーションでは使用できない。
−特定の処理動作(例:視差計算)と組み合わせた、一般にカメラおよび/またはプロジェクタのアセンブリからなる立体視システム。これらは、コストが低い標準的なカメラまたは他のアプリケーション向けの既存のカメラ(例:反転カメラ機能)の恩恵を受ける。しかし、これらの画像はノイズが多く(照明条件に対する感度、僅かにテクスチャ化された表面での問題等)、視差マップから推論される奥行き画像は密でない。非線形変換{視差マップ→奥行きマップ}は、奥行きマップにおける情報密度の不均一性を示す。典型的には、カメラ付近でデータが密になり、物体境界上のデータは不明瞭になる恐れがある。
奥行き画像または視差画像の品質は、当該画像に対して実行された処理動作の性能に重大な影響を及ぼす。立体視画像の場合、奥行き画像における重大な誤差は、実行された処理動作に対してより有害であり得る。
従って、3Dシーン解析システム(例:シーン分割)は高価であるか、または奥行きマップに存在する誤差により悪影響を受ける。
奥行きに関連付けられたデータのフィルタリングを視差マップに対して実行することができる。収差誤差は従来、メジアンフィルタにより扱われていた。当該フィルタの唯一のパラメータは補助図形(サポート)のサイズ(または形状)である。典型的には3×3または5×5の正方形の補助図形が用いられる。
ノイズ除去能力は補助図形のサイズと共に増大するが、ノイズが存在する場合にエッジが置換される可能性と合わせて、詳細部分も除去されてしまう。これは分割との関連で、不正確な分割につながる恐れがあるが、この影響は奥行き画像または視差画像の全体にわたり均一ではない点に注意されたい。
しかし、小型の補助図形を用いるとフィルタリング能力が低下する。ノイズのレベルが統計的に有意な場合、そのフィルタリングは部分的にしか行えない。
従って、フィルタサイズの選択は、収差の除去と画像変形との間のトレードオフである。この選択はユーザーに委ねられており、「最適」値を自動的に決定する方法は無い。
「Automation in Construction」Vol.19、pp.898−906、Elsevier、2010に発表されたSon、KimおよびChoiによる論文「Rapid 3D object detection and modeling using range data from range imaging camera for heavy equipment operation」において著者は、飛行時間型のカメラ、および奥行き画像のノイズを減少させ、背景要素を減算し、物体を分割して、物体を囲む空間領域を生成する連続的なステップを含む処理ソフトウェアからなる3Dシーン分割システムを示す。このような方式の限界は、当該システムが高価な装置である飛行時間型カメラを要し、且つフィルタリング動作がセンサに関連付けられたノイズの種類に適合されている点である。フィルタリングは、信号の局所的特徴を考慮することなく、固定補助図形、すなわち「ドロップアウト」型(センサが受信しなかった波)のフィルタリング収差値の固定閾値0.6および斑点ノイズ補正用の3×3メジアンフィルタとを組み合わせた3×3平均差フィルタを用いる。更に、上述のように、固定補助図形サイズおよび固定閾値は、信号の局所的且つ実際の特徴、特に3D方式のジオメトリに関連付けられた特徴に応じた最適化対象信号のフィルタリングと保存との間のトレードオフを許さない。最後に、分割の大域的な方式は微細な分割を可能にする高密度の3Dメッシュを用いるが、計算時間は1秒のオーダーのように長いままである。
Samsung Electronicsによる特許出願欧州特許出願公開第2541496(A2)号明細書「Method,medium,and appratus for filtering noise using depth information」において、奥行きノイズをフィルタリングする方法は、奥行き情報に従い空間または時間フィルタリングを実行することができる。空間フィルタリングを実行するために、当該方法は、奥行き情報に基づいて空間フィルタの特徴を決定することができる。同様に、時間フィルタリングを実行するために、当該方法は、奥行き情報に基づいて特定の個数の座標系を決定することができる。この解決策は処理対象の領域の奥行きに従い適用対象のフィルタのサイズおよび係数を適応させるものであるが、依然として、特にフィルタの特徴が物体のカメラの光学中心からの距離を考慮していない点を含む短所がある。
Kauff P.らによる特許出願国際公開第2013079602(A1)号パンフレット「Spatio−temporal disparity−map smoothing by joint multilateral filtering」において、視差マップD(p,t0)のフィルタリングを意図したフィルタ構造は、第1のフィルタ、第2のフィルタ、およびフィルタセレクタを含んでいる。第1のフィルタは、中心傾向の第1の測定に従い視差マップの特定区間をフィルタリングすることを意図している。第2のフィルタは、中心傾向の第2の測定に従い視差マップの特定区間をフィルタリングすることを意図している。フィルタセレクタは、視差マップの特定区間をフィルタリングすべく第1のフィルタまたは第2のフィルタを選択すべく提供され、選択は特定区間の少なくとも1個の局所的特性に基づいている。この方式は、視差マップでのみ有効であるが、選択対象のフィルタ用の固定閾値の選択に依存しており、物理的または幾何学的実体との整合性を欠いている。
欧州特許出願公開第2541496A2号明細書 国際公開第2013/079602A1号明細書
Son,Kim&「Rapid 3D object detection and modeling using range data from range imaging camera for heavy equipment operation」Automation in Construction,Vol.19,pp.898−906,Elsevier,2010
従って従来技術において、システムのコストを低く保ちながら、奥行き画像の品質、従って後続処理の品質を向上させることが可能な解決策が存在しない。
更に、原光信号に対して実行された動作の幾何学的実体を考慮する既知の方法は存在しない。
従って既知の方法の短所を克服する解決策に対するニーズがある。本発明はこのニーズに応えるものである。
本発明の主題の一つは、適応的方法を用いて視差または奥行き画像の収差をフィルタリングする装置および方法を提案することである。
提案する方法は、光信号に対して行われる変換の幾何学的実体から導かれた基準に従い、3D近傍で空間的に整合性を有していない複数の点の局所的フィルタリングを可能にする。
本発明の適応的フィルタリングは、3D空間全体にわたり、フィルタリング能力と詳細部分の保存との間のトレードオフを安定させ、当該トレードオフはユーザー指定可能な値に調整される点で既存の方法を改良したものである。
提案するノイズフィルタリング方法を高密度の奥行き画像にまたは高密度の視差画像に対して実行することにより、観察されたシーンの自動分割、すなわち複数の構成要素へのシーンの自動分解等、後の処理動作の品質および効率を向上させることが可能になる。
本発明の装置は、ノイズの多い奥行き画像またはノイズの多い視差画像の後処理として、および/または奥行き画像または視差画像を用いるシーン解析アプリケーションの前処理として処理連鎖に組み込むことができる。
有利な特徴として、提案する解決策は、以下により特徴付けられる。
−データの空間コヒーレンス(整合性)および原信号(光波)に対して実行された動作の幾何学的実体を考慮した3Dデータの適応的フィルタリング、
−立体視センサの使用を介して制御されたシステムコスト、
−最小限の計算リソースを要し、標準的且つ安価なコンピューティングアーキテクチャ上でのリアルタイム実行を可能にする方式。
有利な特徴として、フィルタリングパラメータは、光信号に対する変換の幾何学的実体を考慮しながら局所的に最適化される。
従って、フィルタリング能力と詳細部分の保存との間のトレードオフは自動的に管理され、空間位置に適応(空間均一性)し、ユーザーの選択に委ねられ且つ問題の3D領域全体にわたり有効な1個の直観的パラメータだけに依存する。
有利な特徴として、本発明のフィルタの特徴は、奥行きだけでなくカメラの光学中心からの物体の距離にも依存する。
より一般的には、フィルタパラメータの適応は、経験式(本例では一次式)には基づいておらず、幾何学的変換の実体に基づいている。フィルタパラメータはまた、データの空間コヒーレンス基準に動的に依存している。
有利な特徴として、フィルタリングされた画像を出力すべくデータにフィルタを直接適用するのではなく、提案する方法では、フィルタリングを要するピクセルの画像を生成し、その後当該ピクセルを個別に処理することが可能になる。従って、有効と考えられるピクセルはいかなる場合も変更されない。
本発明は、3Dシーンの全部または一部を解析することを意図する、および入力として視差画像または奥行き画像を用いる任意のリアルタイムアプリケーションで有用である。
ビデオ監視、ビデオ保護、またはビデオ支援の関係者全て、およびシーンの内容に関する情報のフィードバックに関わるアプリケーションを有する関係者には本発明の方法が有用であることが理解されよう。
所望の結果を得るための方法および装置を提案する。
特に、初期3D画像をフィルタリングする方法は以下の次ステップを含んでいる。
−初期画像の各ピクセルに関連付けられた各3D点の局所解析領域を画定するステップと、
−局所解析領域内の各3D点に対して測定された空間コヒーレンス値に基づいて、初期3D画像のピクセルの組に関連付けられた3D点の組に対して空間コヒーレンス画像を生成するステップと、
−局所解析領域内の各3D点に対して測定された幾何学的実体値に基づいて、初期3D画像のピクセルの組に関連付けられた3D点の組に対して幾何学的実体画像を生成するステップと、
−空間コヒーレンスおよび幾何学的実体画像に基づいて二値画像を生成し、当該二値画像の各点を、当該点に対して得られた空間コヒーレンスおよび幾何学的実体値に応じてシーン点またはノイズ点として分類するステップと、
−ノイズ除去画像を得るべく二値画像と初期3D画像を組み合わせるステップ。
有利な特徴として、局所解析領域S(P(u,v))は、ピクセルに関連付けられた3D点の座標P(u,v)を中心とする固定サイズの3D空間領域からなる。
一実施形態において、3D点の空間コヒーレンス値C(u,v)を測定するステップは、初期画像のピクセルの組を、当該ピクセルに関連付けられた3D点が前記3D点の局所解析領域に含まれるように決定するステップと、当該決定の結果に応じて前記3D点の空間コヒーレンス値を定義するステップとを含んでいる。
一実施形態において、3D点に関連付けられたピクセルの幾何学的実体値R(u,v)を測定するステップは、局所解析領域を空白シーンに射影するステップと、当該空白シーンの局所解析領域で視認可能な3D点の組を決定するステップと、当該決定の結果に応じて前記ピクセルの幾何学的実体値を定義するステップとを含んでいる。
一実施形態において、二値画像を生成するステップは、各3D点に対して、空間コヒーレンスおよび幾何学的実体値に基づいてフィルタリング値を生成するステップと、得られたフィルタリング値と閾値を比較するステップと、比較結果に応じて当該3D点をシーン点またはノイズ点として分類するステップと、シーンおよびノイズ点の組の画像を生成するステップとを含んでいる。
一実施形態において初期画像は視差画像である。一変型実行方式において初期画像は奥行き画像である。
一実施形態において、局所解析領域は、球、立方体、箱形または円筒表現、あるいは3Dメッシュ面表現、ボクセル表現または代数表現を含むグループから選択される。
一実施形態において、幾何学的実体値は予め計算されている。
本発明はまた、ノイズの多い初期画像をフィルタリングする装置に関し、当該装置は請求項に記載の方法のステップを実行する手段を含んでいる。
本発明は、プログラムがコンピュータ上で実行された場合に、請求項に記載の方法のステップを実行可能にするコード命令を含むコンピュータプログラム製品の形式で動作可能である。
本発明の各種態様および利点は、以下の図面を参照しながら、本発明の1個の好適な、但し非限定的な実行モードの説明を通じて明らかになろう。
本発明の一実施形態による、ノイズ除去画像を得る方法のステップを示す。 本発明の一実施形態による空間コヒーレンス画像を得る方法のステップを示す。 本発明の一実施形態による幾何学的実体画像を得る方法のステップを示す。 本発明の一実施形態による決定画像を得る方法のステップを示す。 一実施形態による本発明のフィルタリング装置の機能ブロックを示す。 本発明の一実施形態における6個の局所的補助図形の射影を示す。 本発明の一実施形態による、図1のフィルタリング方法の各種ステップで得られた画像を示す。 本発明の一実施形態による、図1のフィルタリング方法の各種ステップで得られた画像を示す。 本発明の一実施形態による、図1のフィルタリング方法の各種ステップで得られた画像を示す。 本発明の一実施形態による、図1のフィルタリング方法の各種ステップで得られた画像を示す。 本発明の一実施形態による、図1のフィルタリング方法の各種ステップで得られた画像を示す。 本発明の一実施形態による、図1のフィルタリング方法の各種ステップで得られた画像を示す。
ノイズ除去画像を取得可能にする本発明の方法(100)のステップ一般的に示す図1を参照する。本方法は、シーンを表す初期画像をノイズ除去(102)する必要がある場合に開始される。初期3D画像は、異なる角度から得た一対の画像によりシーンが表される立体視および3Dデータ処理技術を用いて取得できる。
有利な特徴として、方法(100)は初期視差Dまたは奥行きP画像に適用可能である。
シーンの点の視差を計算するには、左右画像における当該点の2個の射影の座標を取得する必要があることが知られている。これを実現すべく、マッチングアルゴリズムを用いて、画像の所与の点に対して、当該点の他方の画像における対応点を求める。あるシーンの点同士の視差が計算されたならば、当該シーンの対応点の集団が生成される。
また、シーンの点の視差「d」およびカメラに関するその奥行き「z」が関連付けられることも知られている。この関連付けは次式(1)で定義される。
z×d=B×f [式1]
「基線」すなわちカメラの2個の光学中心間の距離として知られる「B」、および焦点距離「f」(両方のカメラで同一)が一定値を有しているため、視差「d」の変化は点とカメラとの距離「z」変化に直接依存する。
座標(u,v)および視差「d」を有するピクセルに対応するシーンの点の座標(x、y、z)が次いで次式(2,3,4)により計算される。
z=B×f/d [式2]
x=(u−u0)×z/f [式3]
y=(v−v0)×z/f [式4]
ここに、(u0,v0)は画像内の光学中心の射影の座標に対応する。
同様に、画像内のシーンの物体の見かけの表面の面積と、当該物体の可視部分の実表面の面積との間に関係がある。物体からカメラの光学中心までの距離の変化が大きい場合、視差画像内の物体の見かけの表面の面積が顕著に変化する。この観察はまた、奥行き画像にもあてはまる。また、例えばメジアンフィルタ等、従来技術におけるように固定サイズのフィルタを用いるノイズ除去の場合、縦横比の変化が大き過ぎるため、処理は画像の限られた領域内でフィルタリング機能を実行するが、画像の他の部分では失敗する。
更に、有利な特徴として、本発明は最適化された閾値化を用いる3Dデータに適した新たなフィルタリング方法を提案する。本方法は、データの空間コヒーレンスおよび信号に対して実行された動作の幾何学的実体を考慮する。これを実現すべく、2個の新たな測定値、すなわち空間コヒーレンスCおよび幾何学的実体Rを導入する。
残りの記述全体にわたり以下の表記法を用いる。
−奥行き画像に対して、R(u,v)は奥行き画像内の座標uおよびvを有するピクセルを表し、P(u,v)は座標(x,y,z)を有する関連3D点を表し、
−視差画像に対して、D(u,v)は視差画像内の座標uおよびvを有するピクセルを表し、P(u,v)は式(2,3,4)に従い計算される座標(x,y,z)を有する関連3D点を表す。
図1に戻り、初期視差または奥行き画像を受信した後で、本方法により初期画像に基づいて2個の新たな像、すなわち空間コヒーレンス画像(104)と称する第1の画像、および幾何学的実体画像(106)と称する第2の画像を生成することができる。次に、本方法により、図4を参照しながら詳述する決定画像と称する第3の画像を生成(108)すべく空間コヒーレンスおよび幾何学的実体画像を組み合わせることができる。
後続ステップにおいて、解析対象シーンのノイズ除去画像を生成(110)すべく決定画像を初期画像と組み合わせる。
ノイズ除去画像は次いで、画像分割、背景減算、自動物体認識またはマルチクラス検出等のシーン解析法に用いることができる。例えば、本発明をシーンを別個の実物体に分解する3D分割法と組み合わせることにより、例えば局所化された障害物検出を実行することが可能になる。有利な特徴として、品質が向上したノイズ除去画像を生成する本発明の方法により、百分の1(1/100)秒のオーダーである分割動作の計算時間の短縮が可能になる。
ノイズ除去画像はまた有利な特徴として、視差または奥行き画像の単純な可視化を実行すべく用いることにより、人間ユーザーにとって更に読み取りが快適で解釈が容易になる。
図7a〜7fに、本発明の一実施形態による、図1のフィルタリング方法の各種のステップで得られた画像を示す。
図2に、本発明の一実施形態において空間コヒーレンス画像を生成可能にする図1の方法(104)のステップを示す。初期画像は、視差画像または一変型実行方式では奥行き画像であってよい。
第1のステップ(202)において、本方法は、点P(u,v)を中心とする固定サイズ「s」の3D空間領域の局所的補助図形S(P(u,v))を選択可能にする。サイズ「s」は、解析対象シーンの要素に対してユーザーが求める空間領域測定の粒度または精度である。
補助図形「S」の以下のような各種表現を用いることができる。
−基本球、立方体、箱形または円筒表現、
−3Dメッシュ表現、
−ボクセル表現、あるいは、
−f(x,y,z)=0型の陰表面等の代数表現。
次ステップ(204)において、本方法により、選択された局所的補助図形S(P(u,v))に自身の3D射影が含まれる点の組を決定することができる。
次ステップ(206)において、本実施形態による奥行きにまたは視差に関して、座標(u,v)の各ピクセル毎に、数えられた点の個数に基づいて空間コヒーレンス測定値を計算する。当業者は、あるピクセルの周囲の点の個数が多いほど空間コヒーレンスが良く、逆にあるピクセルの周囲の点の個数が少ないほど空間コヒーレンスが低い、すなわち当該ピクセルがノイズを表すことが理解できよう。
従って、実際の初期画像のピクセルの組に基づいて空間コヒーレンス基準C(u,v)を、付随する3D点がP(u,v)を中心とする選択された局所的補助図形に属する関数ф(E)として設定する。すなわち、
(u,v)=ф(E)、ここに
−奥行き画像の場合:E={R(u’,v’)、但しP(u,v’)∈S(P(u,v))}、
−視差画像の場合:E={D(u’,v’)、但しD(u,v’)∈S(P(u,v))}。
好適な一実施形態において、空間コヒーレンス基準は次式で定義される。
(u,v) =ф(E)=Card(E) [式5]、ここに
「カード」関数が基数関数、すなわちEのサイズを表す。
初期画像の全てのピクセルに対して空間コヒーレンス値が計算されたならば、本方法により空間コヒーレンス画像を生成(208)することができる。
図3に、視差画像または一変型実行方式では奥行き画像であってよい初期画像に基づいて、本発明の一実施形態において幾何学的実体画像を生成可能にする図1の方法(106)のステップを示す。
第1のステップ(302)において、本方法は、位置P(u,v)に中心とする固定サイズ「s」の3D空間領域S(P(u,v))の局所的補助図形を選択可能にする。好適な一実施形態において、方法(104)および(106)において選択された補助図形は同一である。
本方法は次いで、各ピクセル毎に、局所的補助図形を空白シーンに射影可能にする(304)。射影ステップは、2D画像の任意のピクセル位置(u,v)にある全ての視差または奥行き値に対して、且つ予め定義された機能的範囲において、視差(それぞれまたは奥行き)の所定の機能的粒度で実行される。従って、射影は「2D対3D」変換の幾何学的実体に対応している。当該射影は、光学パラメータ(各カメラの内部較正、立体視対の調和、自身の環境における立体視ヘッドの高さと向き)が不変である限り、システムが動作している間は有効に保たれる。
次ステップ(306)において、射影された補助図形に現れる点の個数、すなわち空白シーンで視認可能な点の組を決定することが可能になるため、次ステップ(310)で座標(u,v)の各ピクセル毎に、幾何学的実体の測定値R(u,v)を、実行モードに応じて奥行きまたは視差に関して計算することが可能になる。
従って、幾何学的実体基準R(u,v)は、能動ピクセル、すなわち局所的補助図形の可視点に関連付けられて定義された視差または射影を有するピクセルの組に基づいて、関数として設定される。
好適な一実施形態において、幾何学的実体基準R(u,v)は、当該組の基数関数として定義され、空白シーン内の補助図形の射影画像内の局所的補助図形S(P(u,v))の見かけの表面の面積に対応している。
一例として、図6に、球状補助図形の場合における、6個異なる位置(u,v)および視差を有する点の射影を示す。本例から、各局所的補助図形の見かけの表面の面積が座標(u,v)を有する対応点の幾何学的実体を表すことが分かる。
以下のように、幾何学的実体基準の二通りの実行方式が可能である。
−全ての奥行きまたは全ての視差のいずれかに対して完全な事前計算が実行されて結果を保存する。この実行方式は、処理連鎖の計算時間が短くなる点で好ましいが、メモリ空間を要する。
−あるいは、射影毎に計算を実行する。この実行方式は、メモリが少なくて済む点が好ましいが、より長い計算時間を要する。
当業者には、例えば圧縮および記憶領域削減を伴う事前計算を実行する等の変型実行方式が可能であることが理解されよう。当該変型例はデータを再読するために復元計算を要する。
初期画像の全てのピクセルに対して幾何学的実体値が計算されたならば、本方法により幾何学的実体画像を生成(312)することができる。
図4に、本発明の一実施形態において決定画像を生成可能にする図1の方法(108)のステップを示す。本方法は、空間コヒーレンスおよび幾何学的実体画像が生成されたならば開始される。第1のステップ(402)において、本方法により、2個の空間コヒーレンス「C」および幾何学的実体「R」基準に基づいてフィルタリング基準を定義することができる。フィルタリング基準は、ピクセルがシーンの点であるかまたはノイズ点あるかを識別可能にする。フィルタリング基準は、奥行き画像(または代替的に視差画像)の座標(u,v)を有する各ピクセル毎に計算される。
フィルタリング基準F(u,v)は、空間コヒーレンスC(u,v)とピクセルの幾何学的実体R(u,v)を組み合わせる関数「F」で与えられ、以下のように表記される。
F(u,v)=F(C(u,v),R(u,v))
一実施形態において、当該関数は次式のようにRのベキ乗に対するCの比として選択される。
F(u,v)=C(u,v)/(R(u,v))α [式6]
ここに、パラメータαを用いて空間コヒーレンスおよび幾何学的実体の二つの基準間のトレードオフを管理する。従って、αの値が大きいほど、基準内で幾何学的実体がより好ましい。αの値はユーザーによりパラメータ指定可能であり、アプリケーションの目的に適合させることができる。
上記にも拘わらず、特別なケースα=1は既定値として所与であり、フィルタリング基準Fを充足の程度として固定することができ、コヒーレントゾーン内における能動ピクセルの割合を固定する。
後続ステップ(404)において、本方法により各点(u,v)のフィルタリング基準の値を閾値と比較することができる。基準の値が定義された閾値未満である場合(NO分岐)、当該点はノイズ点として分類される(406)。基準の値が定義された閾値を上回る場合(YES分岐)、当該点はシーンに属する点として分類される(408)。
次ステップ(410)は、「シーン」または「ノイズ」点として分類された点の組に基づいて決定画像「Fδ」を生成するものである。決定画像は、点が「1」に設定されて正しいと推定されたデータの組を、点が「0」にセットされてノイズであると推定されるデータの組から分離する初期データ(視差または奥行きデータ)のマスクを表す二値画像である。
決定画像が生成された場合、全体的な方法(100)は、原(視差D(u,v)または奥行きR(u,v))画像を決定画像Fδと組み合わせることにより、ノイズ除去画像を生成する(図1のステップ110)ことができる。2個の画像の組合せは従って対象アプリケーションに依存する。
特定の一実行方式において、ノイズ除去画像は次式で定義される。
初期視差画像の場合:D(u,v)=D(u,v)×Fδ(u,v)+(1−Fδ(u,v))×E(u,v)、
初期奥行き画像の場合:Rf(u,v)=R(u,v)×Fδ(u,v)+(1−Fδ(u,v))×E(u,v)、ここに
(u,v)およびE(u,v)は各々、視差(D)または奥行き(R)データの局所的推定を表す。
また、有利な特徴として、本発明の方法により、フィルタリングされた画像に対して、ピクセルの元値を保持するか推定値で代替することができる。
特定の一実施形態において、推定関数は以下のように固定値をとる。
DorR(u,v)=K(固定値)
この実行方式は、(奥行きまたは視差)画像のピクセルを、特に識別可能な値「K」に割り当てることにより分離するために有利である。そのようなシナリオの一つは、初めはノイズピクセルを考慮に入れないことが好ましいアプリケーションに関するものである。
典型的な一実行方式において、ピクセルの可能な値の範囲に干渉しないよう、Nビットで表される信号に対してK=0またはK=2−1である。
K=0の場合、出力ピクセルの値は以下の通りである。
初期視差画像の場合:D(u,v)=D(u,v)×Fδ(u,v)、
初期奥行画像の場合:R(u,v)=R(u,v)×Fδ(u,v)。
一変型実行方式において、推定関数EDorR(u,v)は、(u,v)の近接に存在する(ノイズが多くない)データD(u,v)またはR(u,v)の局所的補間であってよい。加重メジアン型の双一次補間または非線形動作を用いてもよい。この方式は、例えば可視化または圧縮目的で高密度且つ「滑らかな」フィルタリング済み画像の取得に関連するものである。実際、判別用に固定されたKのような非典型的な値は、エントロピー符号化と整合しない。
図5に、図1の方法を実行する本発明の装置(500)の一実行方式の機能ブロックを模式的に示す。本装置は、シーンの初期3D視差または奥行き画像を生成可能にするブロック(502)を含んでいる。一実装方式において、安価な較正済み立体視センサからシーンが観察されて、(3D情報を表す)視差画像が一対の修正済み画像に基づいて生成される。
ブロック(502)は、空間コヒーレンス画像を生成すべく第1の1画像生成ブロック(504)と、幾何学的実体画像を生成すべく第2の1画像生成ブロックとに結合される。ブロック502、504は、図2、3を参照しながら説明するステップを実行可能にする手段を含んでいる。
ブロック502、504の出力は、フィルタリング画像を生成すべく第3の画像生成ブロック(508)に結合される。ブロック508の出力は、決定画像を生成すべく第4の画像生成ブロック(510)に結合される。ブロック508、510は、図4を参照しながら説明するステップを実行可能にする手段を含んでいる。
ブロック510の出力は、ステップ110を参照しながら説明する原理に従いノイズ除去画像を生成すべく最終画像生成ブロック(512)に入力されるブロック502の出力と組み合わせる。
従って、装置500は、雨、反射、塵等、自然現象を発生源とするノイズ、またはセンサに起因するノイズあるいは視差計算に起因するノイズを除去すべく視差(または代替的に奥行き)画像にフィルタリングを適用可能にする。
本発明は、3Dシーン分割法と組み合わせてもよい。(装置500から出力された)ノイズ除去画像は点の集団に変換され、当該点次いでl×h×p個のセルからなる3D格子に定量化される。一般に地面を介して結合された障害物を互いに分離すべく、背景3D点を含む格子のセルを除去可能にするフィルタを適用する。残りのセルは次いで従来技術で公知の分割法を用いて空間的に結合された部分に分割される。例えば、一方法は、結合された空間毎にセルを反復的に集約するものである。
本発明のフィルタを適用することによる、ノイズを表す点の除去は、3D分割の性能に好ましい影響を及ぼす。具体的には、分割用フィルタの利点は、障害物が多くの場合ノイズ点に関連付けられることである。この場合、各種の障害物を空間的に分割することは困難である。更に、定量化の利点は、障害物が多くの場合視差画像内で部分的に再構築されることである。従って、同一の障害物の各種の部分を、結果的に生じた点の集団に基づいて再結合することが困難である。最後に、地面に対応するセルを除去する利点は、障害物が多くの場合地面により結合されることである。従ってこれらの結合を断つことに意味がある。
当業者には、3D障害物検出器の上記例が、本発明が提案する視差画像ノイズ除去機能の利点を引き出すことができるシーン解析の一例に過ぎないことが理解されよう。しかしながら、本発明が提案するようなフィルタリングの利用は、分割による障害物の探索に限定されず、ノイズの多い奥行き画像またはノイズの多い視差画像に基づいてシーンをリアルタイム解析する任意のシステムに関連するものである。
本発明は、ハードウェアおよびソフトウェア要素により実行可能である。ソフトウェア要素は、電子、磁気、光、または電磁気的なコンピュータ可読媒体上のコンピュータプログラム製品の形式で存在してよい。

Claims (11)

  1. 初期3D画像をフィルタリングする方法であって、
    −前記初期画像の各ピクセルに関連付けられた各3D点の局所解析領域を画定するステップと、
    −前記局所解析領域内の各3D点に対して測定された空間コヒーレンス値(前記空間コヒーレンス値は前記点の前記局所解析領域に含まれる3D点の個数に関連付けられている)に基づいて、前記初期3D画像のピクセルの組に関連付けられた3D点の組に対して空間コヒーレンス画像を生成するステップと、
    −前記局所解析領域内のピクセルに関連付けられた各3D点に対して測定された幾何学的実体値であって、前記幾何学的実体値は前記局所解析領域の空白シーンに射影された画像内で視認可能な3D点の個数に関連付けられている幾何学的実体値に基づいて、前記初期3D画像のピクセルの組に関連付けられた3D点の組に対して幾何学的実体画像を生成するステップと、
    −前記空間コヒーレンスおよび前記幾何学的実体画像に基づいて二値画像を生成し、前記二値画像の各点を、前記点に対して得られた前記空間コヒーレンスおよび前記幾何学的実体値に応じてシーン点またはノイズ点として分類するステップと、
    −ノイズ除去画像を得るべく前記二値画像と前記初期3D画像を組み合わせるステップとを含む方法。
  2. 前記局所解析領域S(P(u,v))を画定するステップが、ピクセルに関連付けられた3D点の座標P(u,v)を中心とする固定サイズの3D空間領域を画定するステップを含む、請求項1に記載の方法。
  3. 3D点の空間コヒーレンス値C(u,v)を測定するステップが、
    −前記初期画像のピクセルの組を、前記ピクセルに関連付けられた3D点が前記3D点の前記局所解析領域に含まれるように決定するステップと、
    −前記決定の結果に応じて前記3Dの空間コヒーレンス値を定義するステップとを含んでいる、請求項1または2に記載の方法。
  4. 3D点に関連付けられたピクセルの幾何学的実体値R(u,v)を測定するステップが、
    −前記局所的解析領域を空白シーンに射影するステップと、
    −前記局所解析領域を前記空白シーンに射影した画像における前記局所解析領域内で視認可能な3D点の組を決定するステップと、
    −前記決定の結果に応じて前記ピクセルの幾何学的実体値を定義するステップとを含んでいる、請求項1〜3のいずれか1項に記載の方法。
  5. 二値画像を生成するステップが、
    −各3D点に対して、前記空間コヒーレンスおよび幾何学的実体値に基づいてフィルタリング値を生成するステップと、
    −得られたフィルタリング値と閾値を比較するステップと、
    −前記比較の結果に応じて前記3D点をシーン点またはノイズ点として分類するステップと、
    −前記シーンおよびノイズ点の組の画像を生成するステップとを含んでいる、請求項1〜4のいずれか1項に記載の方法。
  6. 前記初期画像が視差画像である、請求項1〜5のいずれか1項に記載の方法。
  7. 前記初期画像が奥行き画像である、請求項1〜5のいずれか1項に記載の方法。
  8. 前記局所解析領域が、球、立方体、箱形または円筒表現、あるいは3Dメッシュ面表現、ボクセル表現または代数表現を含むグループから選択される、請求項1〜7のいずれか1項に記載の方法。
  9. 前記幾何学的実体値が予め計算されている、請求項1〜8のいずれか1項に記載の方法。
  10. 初期画像をフィルタリングする装置であって、請求項1〜9のいずれか1項に記載の方法のステップを実行する手段を含んでいる装置。
  11. コンピュータプログラム製品であって、前記プログラムがコンピュータ上で実行された場合に請求項1〜9のいずれか1項に記載の方法のステップを実行可能にするコード命令を含んでいるコンピュータプログラム製品。
JP2017527249A 2014-11-20 2015-11-18 ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置 Active JP6646667B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1461260A FR3028988B1 (fr) 2014-11-20 2014-11-20 Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees
FR1461260 2014-11-20
PCT/EP2015/076964 WO2016079179A1 (fr) 2014-11-20 2015-11-18 Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees

Publications (2)

Publication Number Publication Date
JP2017535884A true JP2017535884A (ja) 2017-11-30
JP6646667B2 JP6646667B2 (ja) 2020-02-14

Family

ID=53008578

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017527249A Active JP6646667B2 (ja) 2014-11-20 2015-11-18 ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置

Country Status (6)

Country Link
US (1) US10395343B2 (ja)
EP (1) EP3221841B1 (ja)
JP (1) JP6646667B2 (ja)
CN (1) CN107004256B (ja)
FR (1) FR3028988B1 (ja)
WO (1) WO2016079179A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10304256B2 (en) * 2016-12-13 2019-05-28 Indoor Reality Inc. Point cloud cleaning method
CN109872280B (zh) * 2018-12-26 2023-03-14 江苏名通信息科技有限公司 一种三维植物叶片点云的去噪与简化方法、装置及系统
CN109886900B (zh) * 2019-03-15 2023-04-28 西北大学 一种基于字典训练和稀疏表示的合成雨图除雨方法
CN110378946B (zh) * 2019-07-11 2021-10-01 Oppo广东移动通信有限公司 深度图处理方法、装置以及电子设备
CN110400272B (zh) * 2019-07-11 2021-06-18 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质
CN110415287B (zh) * 2019-07-11 2021-08-13 Oppo广东移动通信有限公司 深度图的滤波方法、装置、电子设备和可读存储介质
CN110782416B (zh) * 2019-11-05 2022-05-17 北京深测科技有限公司 三维点云数据的去噪方法
CN112116623B (zh) * 2020-09-21 2021-04-23 推想医疗科技股份有限公司 图像分割方法及装置
CN112053434B (zh) * 2020-09-28 2022-12-27 广州极飞科技股份有限公司 视差图的生成方法、三维重建方法及相关装置
CN112712476B (zh) * 2020-12-17 2023-06-02 豪威科技(武汉)有限公司 用于tof测距的去噪方法及装置、tof相机

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010171949A (ja) * 2009-01-21 2010-08-05 Samsung Electronics Co Ltd 深さ情報を用いた深さノイズフィルタリング方法および装置
WO2011078264A1 (ja) * 2009-12-25 2011-06-30 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
JP2012120647A (ja) * 2010-12-07 2012-06-28 Alpha Co 姿勢検出装置
JP2014035702A (ja) * 2012-08-09 2014-02-24 Topcon Corp 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10317367B4 (de) * 2003-04-15 2007-01-11 Siemens Ag Verfahren zur Durchführung der digitalen Subtraktionsangiographie unter Verwendung nativer Volumendatensätze
JP5041458B2 (ja) * 2006-02-09 2012-10-03 本田技研工業株式会社 三次元物体を検出する装置
US8139142B2 (en) * 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
EP2050067A1 (en) * 2006-08-03 2009-04-22 Alterface S.A. Method and device for identifying and extracting images of multiple users, and for recognizing user gestures
CN101523436A (zh) * 2006-10-02 2009-09-02 皇家飞利浦电子股份有限公司 用于恢复视频流中的视差的方法和滤波器
CN101640809B (zh) * 2009-08-17 2010-11-03 浙江大学 一种融合运动信息与几何信息的深度提取方法
US10095953B2 (en) * 2009-11-11 2018-10-09 Disney Enterprises, Inc. Depth modification for display applications
US9858475B2 (en) * 2010-05-14 2018-01-02 Intuitive Surgical Operations, Inc. Method and system of hand segmentation and overlay using depth data
US8982117B2 (en) * 2011-06-22 2015-03-17 Samsung Display Co., Ltd. Display apparatus and method of displaying three-dimensional image using same
WO2013079602A1 (en) 2011-11-30 2013-06-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Spatio-temporal disparity-map smoothing by joint multilateral filtering
US9779546B2 (en) * 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
EP4198926A1 (en) * 2012-05-10 2023-06-21 President And Fellows Of Harvard College Method and apparatus for automatically discovering, characterizing, classifying and semi-automatically labeling animal behavior and quantitative phenotyping of behaviors in animals
US9811880B2 (en) * 2012-11-09 2017-11-07 The Boeing Company Backfilling points in a point cloud
US9292927B2 (en) * 2012-12-27 2016-03-22 Intel Corporation Adaptive support windows for stereoscopic image correlation
CA2820305A1 (en) * 2013-07-04 2015-01-04 University Of New Brunswick Systems and methods for generating and displaying stereoscopic image pairs of geographical areas
US9530218B2 (en) * 2014-04-04 2016-12-27 Hrl Laboratories, Llc Method for classification and segmentation and forming 3D models from images
US9383548B2 (en) * 2014-06-11 2016-07-05 Olympus Corporation Image sensor for depth estimation
CN107077719B (zh) * 2014-09-05 2020-11-13 波莱特股份有限公司 数码照片中基于深度图的透视校正
JP2016091457A (ja) * 2014-11-10 2016-05-23 富士通株式会社 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム
CN105812649B (zh) * 2014-12-31 2019-03-29 联想(北京)有限公司 一种摄像方法和装置
WO2016130116A1 (en) * 2015-02-11 2016-08-18 Analogic Corporation Three-dimensional object image generation
CN105184780B (zh) * 2015-08-26 2018-06-05 京东方科技集团股份有限公司 一种立体视觉深度的预测方法和系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010171949A (ja) * 2009-01-21 2010-08-05 Samsung Electronics Co Ltd 深さ情報を用いた深さノイズフィルタリング方法および装置
WO2011078264A1 (ja) * 2009-12-25 2011-06-30 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
JP2012120647A (ja) * 2010-12-07 2012-06-28 Alpha Co 姿勢検出装置
JP2014035702A (ja) * 2012-08-09 2014-02-24 Topcon Corp 光学データ処理装置、光学データ処理システム、光学データ処理方法、および光学データ処理用プログラム

Also Published As

Publication number Publication date
JP6646667B2 (ja) 2020-02-14
CN107004256A (zh) 2017-08-01
US20170337665A1 (en) 2017-11-23
EP3221841A1 (fr) 2017-09-27
EP3221841B1 (fr) 2018-08-29
FR3028988A1 (fr) 2016-05-27
CN107004256B (zh) 2020-10-27
US10395343B2 (en) 2019-08-27
WO2016079179A1 (fr) 2016-05-26
FR3028988B1 (fr) 2018-01-19

Similar Documents

Publication Publication Date Title
JP6646667B2 (ja) ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置
CN111066065B (zh) 用于混合深度正则化的系统和方法
US9514522B2 (en) Depth data processing and compression
RU2504010C2 (ru) Способ и устройство заполнения зон затенения карты глубин или несоответствий, оцениваемой на основании по меньшей мере двух изображений
KR20100085675A (ko) 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치
US9338437B2 (en) Apparatus and method for reconstructing high density three-dimensional image
JP6239594B2 (ja) 3d情報処理装置及び方法
US20210241495A1 (en) Method and system for reconstructing colour and depth information of a scene
KR20140027468A (ko) 깊이 측정치 품질 향상
KR20190030456A (ko) 스테레오 매칭 방법 및 장치
Essmaeel et al. Comparative evaluation of methods for filtering kinect depth data
Kuhn et al. A TV prior for high-quality local multi-view stereo reconstruction
JP2019091122A (ja) デプスマップフィルタ処理装置、デプスマップフィルタ処理方法及びプログラム
JP2020098421A (ja) 三次元形状モデル生成装置、三次元形状モデル生成方法、及びプログラム
KR101526465B1 (ko) 그래픽 프로세서 기반 깊이 영상 화질 개선 방법
Le et al. A new depth image quality metric using a pair of color and depth images
Chowdhury et al. Fast window based stereo matching for 3D scene reconstruction.
CN112884817B (zh) 稠密光流计算方法、装置、电子设备以及存储介质
JP2017199285A (ja) 情報処理装置、情報処理方法、プログラム
Kim et al. A high quality depth map upsampling method robust to misalignment of depth and color boundaries
Kadmin et al. Improvement of Disparity Measurement of Stereo Vision Algorithm Using Modified Dynamic Cost Volume
Yokozuka et al. Accurate depth-map refinement by per-pixel plane fitting for stereo vision
JP4775221B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
Huat et al. Development of Double Stage Filter (DSF) for Stereo Matching Algorithms and 3D Vision Applications
Hamzah et al. Gradient Magnitude Differences and Guided Filter for Stereo Video Matching Algorithm

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200110

R150 Certificate of patent or registration of utility model

Ref document number: 6646667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250