JP6813600B2 - 動的オクルージョン処理のためのシステム及び方法 - Google Patents

動的オクルージョン処理のためのシステム及び方法 Download PDF

Info

Publication number
JP6813600B2
JP6813600B2 JP2018567839A JP2018567839A JP6813600B2 JP 6813600 B2 JP6813600 B2 JP 6813600B2 JP 2018567839 A JP2018567839 A JP 2018567839A JP 2018567839 A JP2018567839 A JP 2018567839A JP 6813600 B2 JP6813600 B2 JP 6813600B2
Authority
JP
Japan
Prior art keywords
depth
edge point
depth map
processing system
depth edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018567839A
Other languages
English (en)
Other versions
JP2019526847A (ja
Inventor
イェ マオ
イェ マオ
チェン イェン−リン
チェン イェン−リン
レン リウ
レン リウ
ドゥ チャオ
ドゥ チャオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of JP2019526847A publication Critical patent/JP2019526847A/ja
Application granted granted Critical
Publication of JP6813600B2 publication Critical patent/JP6813600B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

関連出願の相互参照
本願は、2016年6月27日に出願された米国仮出願特許第62/354,891号の利益を主張するものである。この文献は、参照により、その全体が本願に組み込まれる。
発明の分野
本開示は、深度マップを向上させるためのシステム及び方法に関し、より詳細には、向上させた深度マップを用いる、動的オクルージョン処理に関する。
背景技術
拡張現実(AR)は、現実世界環境に、仮想世界環境(例えば、コンピュータによって生成された入力)を合わせた複合ビューを提供する技術に関する。深度の正確な知覚は、現実的でシームレスなAR体験を提供するために必要とされることが多い。例えば、AR支援による保守タスク及び製造タスクにおいては、ユーザと、現実の物体及び仮想の物体の両物体とが相互作用する傾向が高い。しかしながら、深度が正確に知覚されなければ、現実世界のシーンと仮想世界のシーンとの間で適切なオクルージョン処理が行われた、シームレスなインタラクション体験を提供することは困難である。
一般的に、リアルタイム3Dセンシングは、計算コストが高く、また、ハイエンドセンサを必要とする。このオーバヘッドを低減するために、初期の一部の研究は、典型的には固定的であると想定されるオクルージョン関係性を推測するために2D輪郭トラッキングを基礎としていた。それとは別に、他の一部の研究においては、オフラインでのシーンの3Dモデルの作成、及びそのシーンが静的なものであって不変のままであると仮定した、深度テストのための、それらの3Dモデルのオンラインでの使用が行われた。それらの方式は、ある程度のオクルージョン処理効果を達成することはできるが、AR用途においては極めて一般的であるユーザインタラクションの動的な性質に適応することができない。
また、近年登場した軽量RGB深度(RGB−D)カメラは、AR用途に関してある程度の3Dセンシング性能を提供する。しかしながら、それらのRGB−Dカメラは、典型的には、低コストのコンシューマ深度センサを備えるものであって、それらのセンサは通常の場合、種々の種類のノイズ、特に物体境界周辺のノイズの影響を受ける。そのような制限によって、それらの軽量RGB−DカメラがAR用途に使用されると、典型的には、不適切な視覚的なアーチファクトが惹起され、それによって上質のAR体験が妨げられる。それらの軽量RGB−Dカメラによって提供されるセンサデータの品質を改善するために、深度マップの向上に関して数多くの研究が行われた。しかしながら、それらのアプローチの大部分は、それらの高い計算コストに起因して、ARユースケースに直接的に適用することはできない。
さらに、イメージの質を向上させるためにフィルタリングが頻繁に使用される。例えば、一部の例は、ジョイントバイラテラルフィルタリングプロセス又はガイド付きイメージフィルタリングプロセスを含んでいる。また、他の例は、ドメイン変換プロセス、適応型の複写プロセス、又は、インペインティングプロセスを含んでいる。しかしながら、それらのプロセスは、典型的には、計算コストが高く、また、その結果、エッジがぼやけることが多く、それによって境界付近にアーチファクトがもたらされてしまう。
概要
以下は、下記において詳細に説明する特定の実施の形態の概要である。説明する態様は、単に、それらの特定の実施の形態の簡単な概要を読み手に提供するために表されたものに過ぎず、それらの態様の説明は、本開示の範囲を限定することを意図したものではない。実際には、本開示は、下記において明示していない場合もある種々の態様を含んでいると考えられる。
1つの実施例において、コンピューティングシステムは、少なくとも1つの処理ユニットを含む処理システムを備えている。処理システムは、物体の第1の境界を有する深度マップを受信するように構成されている。処理システムは、深度マップに対応するカラー画像を受信するように構成されている。カラー画像は、物体の第2の境界を含んでいる。処理システムは、深度マップから、第1の境界の深度エッジ点を抽出するように構成されている。処理システムは、深度マップにおけるターゲット深度エッジ点を識別するように構成されている。ターゲット深度エッジ点は、カラー画像における物体の第2の境界のカラーエッジ点に対応している。さらに、処理システムは、深度マップが物体に関する物体の境界を用いて向上されるように、深度エッジ点をターゲット深度エッジ点にスナップさせるように構成されている。
1つの実施例において、動的オクルージョン処理のためのシステムは、少なくとも、深度センサ、カメラ、及び、処理システムを備えている。深度センサは、深度マップを提供するように構成されている。深度マップは、物体の第1の境界を含んでいる。カメラは、カラー画像を提供するように構成されている。カラー画像は、物体の第2の境界を含んでいる。処理システムは、少なくとも1つの処理ユニットを含んでいる。処理システムは、物体の第1の境界を有する深度マップを受信するように構成されている。処理システムは、深度マップに対応するカラー画像を受信するように構成されている。カラー画像は、物体の第2の境界を含んでいる。処理システムは、深度マップから、第1の境界の深度エッジ点を抽出するように構成されている。処理システムは、深度マップにおけるターゲット深度エッジ点を識別するように構成されている。ターゲット深度エッジ点は、カラー画像における物体の第2の境界のカラーエッジ点に対応している。処理システムは、深度マップが物体に関する物体の境界を用いて向上されるように、深度エッジ点をターゲット深度エッジ点にスナップさせるように構成されている。
1つの実施例において、コンピュータ実施方法は、物体の第1の境界を有する深度マップの受信を含んでいる。方法は、深度マップに対応するカラー画像の受信を含んでいる。カラー画像は、物体の第2の境界を含んでいる。方法は、深度マップからの第1の境界の深度エッジ点の抽出を含んでいる。方法は、深度マップにおけるターゲット深度エッジ点の識別を含んでいる。ターゲット深度エッジ点は、カラー画像における物体の第2の境界のカラーエッジ点に対応している。方法は、ターゲット深度エッジ点に深度エッジ点をスナップさせることによる、物体に関する物体の境界を用いた深度マップの向上を含んでいる。
本発明のそれらの特徴、態様及び利点、並びに、本発明の別の特徴、態様及び利点は、添付の図面を参照する特定の実施例の以下の詳細な説明によってさらに明確になる。図面において、全体にわたり類似の参照番号は、類似の部分を表している。
本開示の1つの実施例によるシステムの図である。 動的オクルージョン処理が行われていない、ビデオビューにおける仮想の物体のレンダリングである。 本開示の1つの実施例による、動的オクルージョン処理が行われた、ビデオビューにおける仮想の物体のレンダリングである。 動的オクルージョン処理が行われていない、図2Aの仮想の物体のレンダリングである。 動的オクルージョン処理が行われていない、図2Aの仮想の物体のレンダリングである。 本開示の1つの実施例による、動的オクルージョン処理が行われた、図2Bの仮想の物体のレンダリングである。 本開示の1つの実施例による、動的オクルージョン処理が行われた、図2Bの仮想の物体のレンダリングである。 動的オクルージョン処理が行われていない、眼鏡ビューにおける、図2Aの視覚化である。 動的オクルージョン処理が行われていない、眼鏡ビューにおける、図2Aの視覚化である。 本開示の1つの実施例による、動的オクルージョン処理が行われた、眼鏡ビューにおける、図2Bの視覚化である。 本開示の1つの実施例による、動的オクルージョン処理が行われた、眼鏡ビューにおける、図2Bの視覚化である。 本開示の1つの実施例による、深度マップの一例である。 本開示の1つの実施例による、カラー画像の一例である。 本開示の1つの実施例による、図3Bのカラー画像にオーバレイされた、図3Aの深度マップ一例を図示する。 図3Cの例示的な領域の拡大図である。 図3Cの例示的な領域の拡大図である。 仮想の物体を含めた、図3Cの視覚化である。 図3Fの例示的な領域の拡大図である。 図3Fの例示的な領域の拡大図である。 本開示の1つの実施例による、図1のシステムの処理のブロック図である。 本開示の1つの実施例による、深度エッジ点プロセスの実現例のフローチャートである。 本開示の1つの実施例による、カラー画像の一例である。 本開示の1つの実施例による、深度マップの一例である。 本開示の1つの実施例による、グレースケール画像にオーバレイされた深度エッジ点の一例である。 本開示の1つの実施例による、図6Cの例示的な領域内のロー深度エッジ点の拡大図である。 本開示の1つの実施例による、図6Cの領域の平滑にされた深度エッジ点の拡大図である。 本開示の1つの実施例による、図6Dのロー深度エッジ点を基礎として生成された、2D法線の一例を図示する。 本開示の1つの実施例による、図6Eの平滑にされた深度エッジ点を基礎として生成された、2D法線の一例を図示する。 本開示の1つの実施例による、候補検索プロセス及び最適化プロセスの1つの実現例のフローチャートである。 本開示の1つの実施例による、カラー画像の一例である。 本開示の1つの実施例による、RGB空間に由来する画像勾配とのエッジスナップが視覚化されている、図8Aの領域の拡大図である。 本開示の1つの実施例による、RGB空間及びYCbCr空間の両空間に由来する画像勾配とのエッジスナップが視覚化されている、図8Aの領域の拡大図である。 本開示の1つの実施例による、カラー画像の一例である。 本開示の1つの実施例による、赤色チャネルに由来する画像勾配の大きさの一例である。 本開示の1つの実施例による、変換されたCRチャネルにおける画像勾配の大きさの一例である。 本開示の1つの実施例による、カラー画像の一例である。 本開示の1つの実施例による、平滑化制約が課されていない、図10Aの領域に関するエッジスナップの結果の一例を図示する。 本開示の1つの実施例による、平滑化制約が課された、図10Aの領域に関するエッジスナップの結果の一例を図示する。 本開示の1つの実施例による、カラー画像の一例である。 本開示の1つの実施例による、平滑化制約が課されていない、図11Aの例示的な領域に関するエッジスナップの結果の一例を図示する。 本開示の1つの実施例による、平滑化制約が課された、図11Aの例示的な領域に関するエッジスナップの結果の一例を図示する。 本開示の1つの実施例による、深度マップ向上プロセスの1つの実現例のフローチャートである。 図13A、図13B、図13C、図13D及び図13Eは、本開示の1つの実施例による、エッジスナップを基礎とする、深度マップ向上プロセスの各1つの態様を示す。 本開示の1つの実施例による、眼鏡ビューレンダリングプロセスの実現例のフローチャートである。 ビデオビューと眼鏡ビューとの切り替えに関連付けられた問題を示す。 内挿を使用するオクルージョン効果の一例を図示する。 本開示の1つの実施例による、図14のプロセスを使用するオクルージョン効果の一例を図示する。 動的オクルージョン処理が行われていない、ARシーンの一例である。 本開示の1つの実施例による、ロー深度データを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 本開示の1つの実施例による、向上させた深度マップを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 動的オクルージョン処理が行われていない、ARシーンの一例である。 本開示の1つの実施例による、ロー深度データを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 本開示の1つの実施例による、向上させた深度マップを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 動的オクルージョン処理が行われていない、ARシーンの一例である。 本開示の1つの実施例による、ロー深度データを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 本開示の1つの実施例による、向上させた深度マップを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 動的オクルージョン処理が行われていない、ARシーンの一例である。 本開示の1つの実施例による、ロー深度データを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 本開示の1つの実施例による、向上させた深度マップを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 本開示の1つの実施例による、動的オクルージョン処理が行われていない、ARシーンの一例である。 本開示の1つの実施例による、ロー深度データを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 本開示の1つの実施例による、向上させた深度マップを使用して動的オクルージョン処理が行われた、ARシーンの一例である。 本開示の1つの実施例による、グラウンドトゥルースの境界のアウトラインを含むカラー画像である。 本開示の1つの実施例による、グラウンドトゥルースの境界のアウトラインを含むカラー画像である。 本開示の1つの実施例による、グラウンドトゥルースの境界のアウトラインを含むカラー画像である。 本開示の1つの実施例による、グラウンドトゥルースの境界のアウトラインを含むカラー画像である。 本開示の1つの実施例による、図21Aの対応するカラー画像にわたりオーバレイされた、ロー深度マップの視覚化である。 本開示の1つの実施例による、図21Bの対応するカラー画像にわたりオーバレイされた、ロー深度マップの視覚化である。 本開示の1つの実施例による、図21Cの対応するカラー画像にわたりオーバレイされた、ロー深度マップの視覚化である。 本開示の1つの実施例による、図21Dの対応するカラー画像にわたりオーバレイされた、ロー深度マップの視覚化である。 本開示の1つの実施例による、図21Aの対応するカラー画像にわたりオーバレイされた、向上させた深度マップの視覚化である。 本開示の1つの実施例による、図21Bの対応するカラー画像にわたりオーバレイされた、向上させた深度マップの視覚化である。 本開示の1つの実施例による、図21Cの対応するカラー画像にわたりオーバレイされた、向上させた深度マップの視覚化である。 本開示の1つの実施例による、図21Dの対応するカラー画像にわたりオーバレイされた、向上させた深度マップの視覚化である。
詳細な説明
例示的に図示及び説明した上述の実施の形態及びそれらの実施の形態の多数の利点は、前記の説明によって理解されるであろう。また、本開示の対象から逸脱することなく、又はその本開示の対象の利点のうちの1つ又は複数を断念することなく、コンポーネントの形状、構造、及び構成について種々の変更を行えることは自明であろう。実際には、それらの実施の形態の説明した形状は、単に例示的なものに過ぎない。それらの実施の形態については、種々の修正形態及び代替的な形状が可能であり、また、添付の特許請求の範囲に記載の事項は、そのような変更を達成及び包含することを意図したものであり、開示した特定の形状に限定することを意図したものではなく、むしろ本開示の精神及び範囲に含まれるあらゆる修正形態、等価形態、及び代替形態を対象とすることを意図したものである。
図1には、1つの実施例による、ARにおける動的オクルージョン処理のためのシステム100のブロック図が図示されている。1つの実施例において、システム100は、ヘッドマウントディスプレイ110及び動的オクルージョン処理システム120を備えている。さらに、システム100は、ヘッドマウントディスプレイ110を動的オクルージョン処理システム120に接続する通信技術118を備えている。1つの実施例において、通信技術118は、少なくともヘッドマウントディスプレイ110と動的オクルージョン処理システム120との間のデータ伝送を提供するように構成されている。1つの実施例において、通信技術118には、有線技術、無線技術、又はそれらを組み合わせた技術が含まれる。非限定的な例として、通信技術118には、HDMI技術、WiFi技術、又は他の適切な通信リンクが含まれる。
1つの実施例において、ヘッドマウントディスプレイ110は、投影されたイメージを反射しつつ、それと同時にそのヘッドマウントディスプレイ越しの視界をユーザに提供することができる、光学ヘッドマウントディスプレイである。1つの実施例において、ヘッドマウントディスプレイ110は、少なくとも、深度センサ114及びビデオカメラ116を備えている。図1においては、例えば、ヘッドマウントディスプレイ110が、深度センサ114及びビデオカメラ116を含むRGB−Dカメラ112を備えている。1つの実施例において、RGB−Dカメラ112は近距離用であってよい。
1つの実施例において、深度センサ114は、深度データ、及び、動的オクルージョン処理のための幾何学的な情報を提供するように構成されている。これに関して、例えば、深度センサ114は、パターン光センサ又はToF(Time−of−Flight)センサである。代替的に、動的な深度情報を取得するために、ステレオセンサを使用することができる。1つの実施例において、深度センサ114は、用途に応じて、任意の適切なセンシング範囲を有することができる。例えば、図1において、RGB−Dカメラ112は、0.2mから1.2mのセンシング範囲を備えた深度センサ114を含んでおり、このセンシング範囲は、ユーザの手204を含むARインタラクションの領域をカバーするには十分なものである。
1つの実施例において、ビデオカメラ116は、ビデオ又は記録された一連のカラー画像を提供するように構成されている。1つの実施例において、ビデオカメラ116は、シーントラッキング(例えば、Visual SLAM)を提供するように構成されている。さらに、ヘッドマウントディスプレイ110によって提供される眼鏡ビュー212は、動的オクルージョン処理のための情報を提供することができないので、システム100は、動的オクルージョン処理を行うために、ビデオビュー200に由来するビデオデータを使用して、ビデオビュー200を眼鏡ビュー212として採用する。
1つの実施例において、システム100は、動的オクルージョン処理システム120を含んでいる。1つの実施例において、動的オクルージョン処理システム120は、動的オクルージョン処理モジュール130を含んでおり、かつ、本願において開示される機能を実現することができる、任意の適切なコンピューティングシステムである。非限定的な例として、コンピューティングシステムは、パーソナルコンピュータ、ラップトップ、タブレット、又は動的オクルージョン処理モジュール130の機能を実現することができる任意の適切なコンピュータ技術である。
1つの実施例において、コンピューティングシステムは、少なくとも、入力/出力(I/O)デバイス122、通信システム124、コンピュータ可読媒体126、他の機能モジュール128、及び、処理システム132を含んでいる。1つの実施例において、I/Oデバイスは、任意の適切なデバイス又は複数のデバイスの組合せ、例えばキーボード、スピーカ、マイク、ディスプレイ等を含むことができる。1つの実施例において、通信システム124は、任意の適切な通信手段を含んでおり、この通信手段によって、動的オクルージョン処理システム120の各コンポーネントは、相互に通信することができ、また、動的オクルージョン処理システム120は、通信技術118によって、ヘッドマウントディスプレイ110と通信することができる。また、1つの実施例において、通信システム124は、任意の適切な通信手段を含んでおり、この通信手段によって、コンピューティングシステム、即ち、動的オクルージョン処理システム120をインターネットに接続することができ、また、コンピュータネットワーク又は任意の適切なネットワーク上の他のコンピューティングシステム及び/又はデバイスに接続することができる。1つの実施例において、コンピュータ可読媒体126は、本願において開示される機能を実現する種々のデータを記憶し、また、それらのデータにアクセスできるように構成されている、コンピュータストレージシステム又は電子ストレージシステムである。1つの実施例において、コンピュータ可読媒体126には、電気的、電子的、磁気的、光学的若しくは電磁的な、又は、半導体を用いるメモリ技術、又は、任意の適切なメモリ技術が含まれると考えられる。1つの実施例において、コンピュータ可読媒体126は、ローカルに設けられているか、リモートに設けられているか、又は、それらを組み合わせた場所に設けられている(例えば、一部はローカルに設けられており、一部はリモートに設けられている)。1つの実施例において、他の機能モジュール128は、ハードウェア、ソフトウェア、又は、それらの組合せを含むことができる。例えば、他の機能モジュール128は、オペレーティングシステム、論理回路、任意のハードウェアコンピューティングコンポーネント、任意のソフトウェアコンピューティングコンポーネント、又はそれらの任意の組合せを含むことができる。1つの実施例において、処理システム132は、動的オクルージョン処理モジュール130に従って動的オクルージョン処理を実行及び実現するための少なくとも1つの処理ユニットを含んでいる。図1において、処理システム132は、例えば、少なくとも中央処理ユニット(CPU)及びグラフィック処理ユニット(GPU)を含んでいる。
上記において考察したように、動的オクルージョン処理システム120は、動的オクルージョン処理モジュール130を含んでいる。1つの実施例において、動的オクルージョン処理モジュール130は、ハードウェア、ソフトウェア、又は、それらの組合せを含んでいる。1つの実施例において、動的オクルージョン処理モジュール130は、向上させた深度データを提供し、また、向上させた動的オクルージョン処理を実行し、それによって現実的なAR体験を提供するためにプロセス400(例えば、図4)が使用可能となるように、必要なデータを提供し、また、処理システム132を支援するよう構成されている。
図2A及び図2Bには、仮想の物体202が、捕捉センサ空間としてのビデオビュー200にレンダリングされている、非限定的な例が図示されている。特に、図2Aには、動的オクルージョン処理が行われていない、仮想の物体202のレンダリングが図示されており、それに対し図2Bには、動的オクルージョン処理が行われた、仮想の物体202のレンダリングが図示されている。これに関して、図2A及び図2Bの各図において、仮想の物体202のレンダリングは、仮想の物体202としての宝箱を含んでいる。また、図2A及び図2Bの各図には、ビデオビューの残りの部分に、現実世界環境にあるユーザの手204が含まれている。しかしながら、動的オクルージョン処理が行われない場合、ユーザの手204は、図2Aの丸で囲まれた領域206に示されているように、仮想の物体202によって誤って塞がれている。即ち、図2Aの丸で囲まれた領域206は、仮想の物体202と相互作用しているユーザの手204の現実的な描写を提供していない。それに対して、動的オクルージョン処理が行われた場合、ユーザの手204は、図2Bの丸で囲まれた領域208に示されているように、仮想の物体202によって塞がれていない。そのようにして、動的オクルージョン処理が行われた場合には、図2Bの丸で囲まれた領域208は、仮想の物体202と相互作用しているユーザの手204の現実的な描写を提供することができる。
図2C及び図2D、並びに、図2E及び図2Fは、それぞれ、図2A及び図2Bの仮想の物体202のレンダリングに関する。より詳細には、図2C及び図2Dには、動的オクルージョン処理が行われていない仮想の物体202のレンダリングの非限定的な例が図示されている。これに関して、図2Cは、仮想の物体202のレンダリングの左目のビューを表しており、図2Dは、仮想の物体202のレンダリングの右目のビューを表している。それに対して、図2E及び図2Fには、動的オクルージョン処理が行われた仮想の物体202のレンダリングの非限定的な例が図示されている。より詳細には、図2Eは、仮想の物体202のレンダリングの左目のビューを表しており、図2Fは、仮想の物体202のレンダリングの右目のビューを表している。図2E及び図2Fに示されているように、動的オクルージョン処理が行われた場合、それぞれ丸で囲まれた領域210で強調されているように、仮想の物体202は修正されており、それによって仮想の物体202は、ユーザの手204を塞いでいない。従って、動的オクルージョン処理が行われた場合には、仮想の物体202とユーザの手204との相互作用が、少なくとも図2B、図2I及び図2Jの丸で囲まれた領域208に示されているように、適切で現実的に表されている。
図2G及び図2H、並びに、図2I及び図2Jには、光学ヘッドマウントディスプレイ110を介した眼鏡ビュー212における仮想の物体202の光学シースルーイメージの非限定的な例が図示されている。図2G及び図2Hには、動的オクルージョン処理が行われていない例が図示されている。特に、図2Gは、眼鏡ビュー212における仮想の物体202の左目のビューを表しており、図2Hは、眼鏡ビュー212における仮想の物体202の右目のビューを表している。それに対して、図2I及び図2Jには、動的オクルージョン処理が行われた例が図示されている。特に、図2Iは、眼鏡ビュー212における仮想の物体202の左目のビューを表しており、図2Jは、眼鏡ビュー212における仮想の物体202の右目のビューを表している。図2G、図2Hと図2I、図2Jとの比較によって証明されたように、動的オクルージョン処理を介在させることによって、ユーザの手204によって塞がれるべき仮想の物体202の部分がビューからは取り除かれているので、より現実的で没入することができる体験が提供される。
図3Aから図3Eには、深度マップから取得された物体の境界の、カラー画像から取得された物体の対応する境界と比較した際のずれの非限定的な例が示されている。特に、図3Aには、深度マップ300の一例が図示されており、図3Bには、カラー画像302の対応する一例が図示されている。さらに、図3Cには、図3Bのカラー画像302にオーバレイされた、図3Aの深度マップ300の一例が図示されている。それに対し、図3Dには、図3Cの四角で囲まれた領域304の拡大図が図示されている。図3Eには、図3Cの四角で囲まれた領域306の拡大図が図示されている。図3Cから図3Eに示されているように、深度マップ300におけるユーザの手204の境界は、カラー画像302におけるユーザの手204の対応する境界とは一致していない。
図3Fから図3Hは、深度マップ300に由来するロー深度データ、即ち、生の深度データを用いた動的オクルージョン処理を基礎とする、例示的な結果である。特に、図3Fにおいては、特に、ユーザの手204に関連付けられた仮想の物体202(例えば、スマートフォン)のレンダリングに関して、動的オクルージョン処理が行われている。それに対し、図3Gには、図3Fの四角で囲まれた領域304の拡大図が図示されている。さらに、図3Hには、図3Fの四角で囲まれた領域306の拡大図が図示されている。図示されているように、ロー深度データを用いて動的オクルージョン処理が実行された場合、図3Fから図3Hには、ロー深度マップ300とカラー画像302との間の、少なくともユーザの手204の境界におけるずれに起因して、視覚的なアーチファクトが含まれている。しかしながら、システム100においては、例えば深度データとRGBデータとの間の物体の境界の一貫性を改善することによって、この問題を克服することができるプロセス400が行われる。
図4は、1つの実施例による、システム100のプロセス400のブロック図である。1つの実施例において、RGB−Dカメラ112からの深度データ及びビデオデータの受信に基づいて、プロセス400は、少なくとも、ビデオビュープロセス410及び眼鏡ビューレンダリングプロセス490を含んでいる。これに関して、プロセス400は、処理システム132がコンピュータ可読データ(例えばコンピュータ実行可能データ)を実行すると実施され、このコンピュータ可読データは、動的オクルージョン処理モジュール130を介する非一時的なコンピュータ可読媒体、コンピュータ可読媒体126、又はそれらの組合せに記憶されている。一般的に、コンピュータ実行可能データは、種々の命令、データ構造、アプリケーション、ルーチン、プログラム、モジュール、プロシージャ、他のソフトウェアコンポーネント、又はそれらの任意の組合せを含むことができる。
1つの実施例において、プロセス400は、ロー深度マップにおける境界が、典型的には画像勾配が高い、対応するカラー画像におけるその境界の対応部分に通常は適切な近さにある事例を活用する。1つの実施例において、プロセス400は、少なくとも1つの深度エッジ点の、その所望のターゲットロケーションへのスナップを含んでいる。これに関して、上記に基づいて、プロセス400は、深度エッジ点のターゲット位置が局所的な線分上にあるように制約を課し、離散的なエネルギ最小化を介して、深度エッジ点の全体のセットに関する最適解を発見することによる、解空間の離散化を含んでいる。
図4に示されているように、1つの実施例において、プロセス400は、ビデオビュープロセス410及び眼鏡ビューレンダリングプロセス490を含んでいる。1つの実施例においては、ビデオビュープロセス410は、深度エッジ点プロセス420、候補検索プロセス460、最適化プロセス470、及び深度マップ向上プロセス480を含んでいる。1つの実施例において、深度エッジ点プロセス420は、深度エッジ点抽出430、グループ分け及び順序付け440、並びに、2D法線計算450を含んでいる。より詳細には、1つの実施例において、プロセス400は、深度マップからの深度エッジ点の抽出、及び抽出された深度エッジ点に関する平滑な2D法線方向の計算を含んでいる。これに関して、各2D法線セグメント又は2D線は、対応するエッジ点に関する解空間を定義する。即ち、各エッジ点に関する候補は、その法線方向に沿ってのみ検索される。1つの実施例において、候補検索プロセス460後に、プロセス400は、最適なスナップターゲットの位置を特定して利用するための、候補検索プロセス460の結果を基礎とする、最適化プロセス470を含んでいる。これに関して、例えば、最適化プロセス470は、少なくともデータ項及び平滑化項を含む解空間におけるエネルギ関数の定義を含んでいる。また、このケースにおいて、最適化プロセス470は、各エッジ点に関する最適なターゲット位置を識別するための、動的プログラミングを介した効率的なエネルギ最小化の実行を含んでいる。1つの実施例において、プロセス400は、エッジスナップの出力を基礎とする、深度マップ向上プロセス480を含んでいる。深度マップの向上に基づいて、プロセス400は、ビデオビュープロセス410から、眼鏡ビューレンダリングプロセス490への切替えを行う。
図5は、1つの実施例による、深度エッジ点プロセス420のフローチャートである。1つの実施例において、深度エッジ点プロセス420は、有効な深度値を有している深度点(又は深度ピクセル)から深度エッジ点を抽出するように構成されている。さらに、深度エッジ点プロセスは、候補検索プロセス460及び最適化プロセス470に先立って、多数のオペレーションを実行するように構成されている。より詳細には、深度エッジ点プロセス420の1つの実現例500を、下記において考察する。
ステップ502において、処理システム132は、深度エッジ点を抽出するように構成されている。1つの実施例において、例えば、深度エッジ点は、大きい深度不連続性を示す局所的な隣接点を有している点である。これに関して、例えば、処理システム132は、有効な深度値を有している深度点(又は深度ピクセル)を主として考慮し、又は、有効な深度値を有している深度点(又は深度ピクセル)のみを考慮する。それらのピクセルの各々に関して、3×3の局所的なパッチが検査される。4つの隣接ピクセルのいずれかが、無効な深度値を有している場合、又は、所定の値を超える、中心ピクセルとは異なる有効深度値を有している場合には、この中心ピクセルが、深度エッジ点とみなされる。一例として、ロー深度マップは、通常の場合、隔離された点又は非常に小さいパッチとして幾つかの異常値を含んでいると考えられる。それらの異常値の作用を取り除くために、処理システム132は、深度エッジ点の抽出の前に、モルフォロジーオープニングを、即ち、収縮とそれに続く膨張を、深度マップマスクに適用するように構成されている。
ステップ504において、処理システム132は、抽出された深度エッジ点をグループ分けするために、各画像グループに対して深度第1検索を実行するように構成されている。深度第1検索中、2つの深度エッジ点のうちの一方が、他方の3×3の隣接点内にあり、かつ、それら2つの深度点(又は深度ピクセル)間の深度差が所定の閾値τmaxよりも小さい場合にのみ、それら2つの深度エッジ点は繋がっているとみなされる。
ステップ506において、処理システム132は、他のプロセスの一部(例えば、最適化プロセス470)によって必要とされるように、各グループの深度エッジ点を順序付け、それによってそれらの深度エッジ点が、エッジ輪郭の一方の端部から他方の端部へと移動させるように構成されている。一部のケースにおいて、例えば、エッジ輪郭が環状の輪郭である場合、処理システム132は、深度エッジ点のうちの1つを始点として選択するように構成されており、ここでは、この選択を、ランダムに実行することができ、又は、任意の適切な選択方式によって実行することができる。1つの実施例において、図5のこの考察の残りの部分における後続のオペレーションは、深度エッジ点の各グループに対して個別に実行される。それに対し、図6Cには、深度エッジ点の複数のグループを含んでいる1つの例が示されている。
ステップ508において、処理システム132は、ロー深度エッジ点に対して、それらの深度エッジ点の2D位置を平滑にするために、ローパスフィルタリングを実行するように構成されている。より詳細には、ロー深度エッジ点のジグザグパターン又は凸凹に起因して、それらのロー深度エッジ点から直接的に計算された法線が、実質的なアーチファクトの影響を受ける可能性がある。それに対して、ローパスフィルタリングが行うことによって、処理システム132は、ステップ510において平滑にされたそれらの深度エッジ点を利用して、ノイズ及びアーチファクトを低減するように構成されている。
ステップ510において、処理システム132は、それらの深度エッジ点の2D法線を計算するように構成されている。1つの実施例において、処理システム132は、隣接する2つの点を使用して、各深度エッジ点の2D法線を計算するように構成されている。1つの実施例において、処理システム132は、2D法線計算のためにのみ、平滑にされた深度エッジ点を利用し、それに対し、後の処理のすべて(又は大部分)については、ロー深度エッジ点に依存する。
図6Aから図6Gには、1つの実施例による、深度エッジ点処理の実現例500の特定の態様が図示されている。特に、図6Aには、RGB−Dカメラ112に由来するカラー画像302の一例が図示されている。図6Bには、RGB−Dカメラ112に由来するロー深度マップ300の一例が図示されている。図6Cには、グレースケール画像310にオーバレイされたロー深度エッジ点312の例が図示されている。それに対し、図6Dから図6Gには、図6Aの四角で囲まれた領域308に対応する、図6Cの部分の拡大図が図示されている。これに関して、図6Dには、ユーザの手204の親指の境界に関連付けられたロー深度エッジ点312が図示されており、それに対し図6Eには、平滑にされた深度エッジ点314が図示されている。さらに、図6Fには、ロー深度エッジ点312を基礎として生成された2D法線316が図示されている。それに対して、図6Gには、平滑にされた深度エッジ点を基礎として生成された2D法線316が図示されている。図示されているように、図6Gにおける平滑にされた深度エッジ点の2D法線は、図6Fにおけるロー深度エッジ点よりも少ないノイズを有している。
図7、図8Aから図8C、図9Aから図9C、図10Aから図10C及び図11Aから図11Cは、候補検索プロセス460及び最適化プロセス470に関する。より詳細には、図7は、1つの実施例による候補検索プロセス460及び最適化プロセス470の1つの実現例700のフローチャートである。それに対し、図8Aから図8C、図9Aから図9C、図10Aから図10C及び図11Aから図11Cには、候補検索プロセス460及び最適化プロセス470の種々の態様が図示されている。
1つの実施例において、処理システム132は、ステップ702において、各深度エッジ点に関する候補を検索する。これに関して、例えば、各深度エッジ点のスナップの解決空間には、その2D法線の線に制約が課されている。どの方向がターゲット方向であるかの事前情報が存在しないので、処理システム132は、所定の範囲rSへの正の法線方向及び負の法線方向の両方向への検索を行うように構成されており、それによって2rS+1個の候補を生じる。また、1つの実施例において、処理システム132は、深度エッジ点をpiとして表し、また、その深度エッジ点の対応する候補セットをLi={ci,k|k=1,...,2rS+1}として表すように構成されている。
1つの実施例において、処理システム132は、ステップ704において、複数の色空間においてSobel演算を使用して、画像勾配を取得する。1つの実施例において、画像勾配の第1の部分は、次式によってRGB色空間において直接的に計算される:
Figure 0006813600
上記において示唆したように、この式は、x方向及びy方向の両方向に沿った画像勾配を含んでいる。しかしながら、一部のケースにおいて、RGB色空間における画像勾配は、一部の物体の境界に沿って必ずしも高くない。従って、1つの実施例において、処理システム132は、次式によって示唆されているように、YCbCr空間に由来する画像勾配を取り入れることによって、識別能力を向上させるように構成されている:
Figure 0006813600
1つの実施例において、処理システム132は、ステップ706において、それらの画像勾配を組み合わせ、点piを候補ci,kにスナップするコストを次式に従って特定する:
Figure 0006813600
ここで、wrgb及びwcbcrは、異なる色空間勾配の重みである。
上記において示唆したように、複数の色空間に由来する画像勾配のエンコーディングによって、多数の利点が提供される。例えば、異なる色空間を組み合わせることによって、一般的には、このエッジスナップの構造に関してより高い識別能力が提供される。例えば、一部のケースにおいて、RGB色空間だけでは十分でない可能性がある。これに関して、図9Aから図9Cを参照すると、一例として、丸で囲まれた領域328に示されているように、指先の境界はRGB空間において強い画像勾配を有していない。このケースにおいて、RGB色空間しか含まれない場合には、所望のロケーションにスナップさせることができない、それらの指先に関連付けられたエッジ点が幾つか存在することになる。それに対して、YCbCr空間がRGB空間に組み込まれる場合、処理システム132は、RGB空間のみを含むそれらのスナップ結果と比較して改善されたスナップ結果を達成するように構成されている。多くのARユースケースにおいては、ユーザが少なくとも1つの仮想の物体202と相互作用する複数のシーンが存在する。そのようなケースにおいては、YCbCr色空間の組込みは、ユーザに関連付けられた肌の色を、他の色(例えば、肌の色ではない色)と区別するために特に適している。また、他の実施例においては、他の色空間を使用することができる。例えば、HSV色空間の色相チャネルを使用することができる。さらには、この実施例はRGB空間及びYCbCr空間を使用しているが、他の実施例は種々の色空間の種々の組合せを含んでいる。
1つの実施例において、処理システム132は、ステップ708において、隣接する深度エッジ点(又は深度エッジピクセル)間の大きい偏差にペナルティを科すための平滑化項を定義する。これに関して、平滑なスナップを達成するために、処理システム132は、隣接する深度エッジ点を、相互に比較的に近いロケーション、及び/又は、相互に遠く離れていないロケーションにスナップする。例えば、1つの実施例において、連続する深度エッジ点pi及びpjのペアに関して、処理システム132は、piをci,kに、また、pjをcj,lにスナップするコストを次式によって計算する:
Figure 0006813600
この式において、パラメータdmaxは、連続する2つの深度エッジ点に対して許容される最大不一致度を定義する。
1つの実施例において、処理システム132は、ステップ710において、以下のエネルギ関数を最小化するための各深度エッジ点に関する候補を求め又は発見する:
E=Σid(i,k)+λSΣi,jS(i,k,j,l) [式5]
ここで、λSは、平滑化制約の重要性に影響を及ぼす。1つの実施例において、離散最適化問題のこのクラスは、解空間における最適経路を識別する動的プログラミングによって、効率的に解決される。
処理システム132は、ステップ712において、データコスト及び平滑化コストを考慮して離散最適化問題を解くことによって、最適経路を求める。特に、処理システム132は、次元N×(2rS+1)次元のマトリクスHを構築し、ここでNは、深度エッジ点の数である。エントリは、データ項H(i,k)=Ed(i,k)でもって初期化される。処理システム132は、続いて、第1の深度エッジ点から最後の深度エッジ点への移動を行い、次式によってマトリクスを更新する:
H(i+1,l)=H(i+1,l)+mink{H(i,k)+ES(i,k,i+1,l)} [式6]
上記において考察したように、1つの実施例において、処理システム132は、データコスト及び平滑化コストの両コストを考慮して、点iから点i+1までの最適経路を発見するために、この更新を提供する。1つの実施例において、このオペレーションは、すべての候補l=1,...,2rS+1、及びすべての深度エッジ点に対して順次実行される。一般的に、第2項の最小値を表すkは、候補lがpi+1に対して選択され、かつ、更新中に記録された場合には、piをpi+1に繋ぐ最良の候補である。更新が終了すると、即ち、最後のエッジ点に到達すると、処理システム132は、その最後の点に関して最小コストを表す候補を選択する。1つの実施例において、処理システム132は、続いて、更新中により早期の時点に記録された現在の点に関する決定を前提として、先行の点に関する最良の候補の位置を特定するために、逆方向への移動を行う。1つの実施例において、処理システム132は、最適経路が発見された場所に第1の点が到達するまで、このプロシージャを継続する。これに関して、最適経路は、各エッジ点をスナップするためのターゲット位置を提供する。
図8Aから図8Cには、複数の色空間に由来する画像勾配の使用に関連付けられた少なくとも1つの利点が図示されている。これに関して、図8Aは、カラー画像302の1つの非限定的な例である。それに対し、図8B及び図8Cの各図には、図8Aの四角で囲まれた領域318の拡大図が図示されている。図8B及び図8Cには、最適化プロセス470後の、ロー深度エッジ点320、及びそれらのロー深度エッジ点320のターゲット位置324が含まれている。さらに、図8B及び図8Cには、ロー深度エッジ点320の対応するターゲット位置324への移動を示す経路322も含まれている。より詳細には、図8Bには、RGB空間における画像勾配だけを使用して取得された結果が示されている。それに対して、図8Cには、RGB空間及びYCbCr空間の両空間に由来する画像勾配を組み合わせることによって取得された結果が示されている。これに関して、図8Cに示されているような複数の色空間の融合は、エッジスナップの構造のロバスト性を、図8Bに示されているような単一の色空間のエッジスナップの構造と比較して改善する。
図9Aから図9Cには、複数の色空間に由来する画像勾配の使用に関連付けられた少なくとも1つの別の利点が図示されている。特に、図9Aには、RGB−Dカメラ112から取得されるような、カラー画像(又はローRGBデータ)の1つの非限定的な例が図示されている。図9Bは、赤色チャネル326に由来する画像勾配の大きさの1つの非限定的な例である。この例において、丸で囲まれた領域328は、ユーザの手204の物体の境界330の画像勾配がRGB空間において比較的低い事例を強調している。図9Cは、変換されたCRチャネル332における画像勾配の大きさの1つの非限定的な例であり、ここでは、ユーザの手204、特に指先における物体の境界330がよりはっきりと見える。
図10Aから図10Cには、平滑化項の適用に関連付けられた複数の利点が図示されている。図10Aには、カラー画像302の1つの非限定的な例が図示されている。それに対し、図10B及び図10Cは、図10Aの四角で囲まれた領域334の拡大図である。より詳細には、図10Bには、平滑化制約が課されていない、エッジスナップの結果が図示されている。それに対して、図10Cには、少なくとも1つの平滑化制約が課された、エッジスナップの結果が図示されている。図10B及び図10Cには、ロー深度エッジ点320、及びそれらのロー深度エッジ点320のターゲット位置324が含まれている。さらに、図10B及び図10Cには、ロー深度エッジ点320の対応するターゲット位置324への移動を示す経路322も含まれている。これに関して、図10Cに示されているような平滑化制約が課された結果は、図10Bに示されているような平滑化制約が課されていない結果におけるエッジスナップ精度と比較して、高いエッジスナップ精度を提供する。
図11Aから図11Cには、平滑化項の適用の複数の利点が図示されている。図11Aには、カラー画像302の1つの非限定的な例が図示されている。それに対し、図11B及び図11Cは、図11Aの四角で囲まれた領域336の拡大図である。図11Bには、平滑化制約が課されていない、エッジスナップの結果が図示されている。それに対して、図11Cには、少なくとも1つの平滑化制約が課された、エッジスナップの結果が図示されている。図11B及び図11Cには、ロー深度エッジ点320、及びそれらのロー深度エッジ点320のターゲット位置324が含まれている。さらに、図11B及び図11Cには、ロー深度エッジ点320の対応するターゲット位置324への移動を示す経路322も含まれている。これに関して、図11Cに示されているような平滑化制約が課された結果は、図11Bに示されているような平滑化制約が課されていない結果におけるエッジスナップ精度と比較して、良好なエッジスナップ精度を提供する。
平滑化項が用いられなければ、プロセス400は、基本的に、「勝者総取り(winner takes all)」ストラテジを使用することになり、このストラテジにおいては、最も高い画像勾配を有している候補が、各深度エッジ点に関するターゲットとして選択される。しかしながら、背景シーンが幾つかの強いエッジを有している場合、ターゲット位置を選択するためのこの「勝者総取り」ストラテジは、種々のアーチファクトをもたらすことになる。これに関して、例えば、図10B及び図11Bには、幾つかの深度エッジ点が高い画像勾配を有している不所望な位置にスナップされた例が図示されている。それに対して、プロセス400に平滑化項を含ませることによって、図10C及び図11Cに示されているように、そのようなアーチファクトの発生を効果的に阻止することができる。
図12及び図13Aから図13Eは、深度マップ向上プロセス480に関する。特に、図12は、1つの実施例による、深度マップ向上プロセス480の1つの実現例1200のフローチャートである。さらに、図13Aから図13Eには、エッジスナップを基礎とする深度マップ向上が図示されている。より詳細には、図13Aから図13Eの各図には、カラー画像302にオーバレイされた深度マップ300が図示されている。また、図13Aから図13Eの各図において、曲線320は、深度マップ300から取得されるような、ユーザの手204のうちの親指の境界を表している。この例において、少なくとも曲線320によって境界付けられている陰影領域340は有効な深度測定値を有しており、それに対し、残りの領域は0の深度を有している。図13Bから図13Eには、(曲線320から取得されるような)深度エッジ点320A及び320B、また、それらの深度エッジ点320A及び320Bの対応するターゲット位置342A及び342Bも図示されている。また、図13C及び図13Eにおいて三角形として図示されている点344A及び344Bは、基準深度値を検索するために使用される深度点(又は深度ピクセル)を表している。即ち、図13Aから図13Eには、下記において考察するように、実現例1200の特定の態様の例が図示されている。
1つの実施例において、処理システム132は、ステップ1202において、2つの連続する深度エッジ点320A及び320B、並びに、それらの深度エッジ点320A及び320Bのターゲット位置342A及び342Bを考慮し、それらは、図13B及び図13Dの各図において、陰影領域340によって図示されているような四角形を形成している。1つの実施例において、処理システム132は、この四角形(又は陰影領域340)の内側にあるすべての深度点(又は深度ピクセル)を向上のために処理する。1つの実施例において、この処理は、連続する深度エッジ点320A及び320Bの各ペアに対して実行される。実際のところ、四角形(又は陰影領域340)の内側にある各深度点(又は深度ピクセル)は、センサノイズに起因して不正確な深度測定値を有している。1つの実施例において、それらの各点(又は各ピクセル)の真の深度が復元される。ただし、そのような実施例は、著しく複雑なオペレーションを含み、また、計算コストが高くなると考えられる。もっとも、それらの実施例は、視覚的に満足のいく動的オクルージョン効果を達成するために必須ではない。従って、別の実施例において、処理システム132は、一般的には十分であるそれらの深度点(又は深度ピクセル)に関する合理的な深度値を推定するための近似を実行するように構成されている。
一般的に、図13Aから図13Eに示されているように、領域内の深度値(又は深度ピクセル)に関して、典型的には2つのタイプのエラーが存在する。例えば、第1のタイプのエラー(「ケース1」)は、少なくとも1つの欠測値を含んでおり、このケースにおいては、図13Aの四角で囲まれた領域336内に示されているように、深度マップ300の物体の境界は、一般的に物体の内側にある。別のタイプのエラー(「ケース2」)は、図13Aの四角で囲まれた領域338内に示されているように、さらに遠くに位置する物体に属する深度点(又は深度ピクセル)が、塞いでいる物体に由来する深度値でもって標識付けられる場合に発生する。それらのいずれのケースにおいても、処理システム132は、深度値を修正するために、以下の同一の方法論を実現する。
1つの実施例において、処理システム132は、ステップ1204において、連続する深度エッジ点320A及び320Bのペアの各深度エッジ点(又は深度ピクセル)に対して、ターゲットからこのピクセルへの方向に沿った逆方向への1回の移動を行い、基準深度値としての深度値を検索する。それらの基準ピクセルの例は、図13C及び図13Eの各図において、黒い三角形344によって表されている。
1つの実施例において、処理システム132は続けて、ステップ1206において、前述のペアに由来する基準深度値の平均値を取得し、その平均値を領域の内側にあるすべての深度点(又は深度ピクセル)に割り当てる。図13Aに図示されているように、ケース1に関しては、基準値が指の内側にある領域から取得される。従って、ターゲット領域340は、指に由来する何らかの深度によって満たされることになり、その結果、欠測値に対する補充効果が得られる。図13Aにおけるケース2に関しては、基準値が0になり、また、ターゲット領域が0の深度に置換され、その結果、この部分が除去される。この1回の手順でもって、処理システム132は、所望のように2つの効果を達成する。速度を考慮する場合、この近似は、動的オクルージョン処理にとって十分なものである。しかしながら、1つの代替的な実施例において、処理システム132は、深度値を推定するために外挿プロセスを実現するように構成されている。
1つの実施例において、深度マップ向上プロセス480は高並列で実施される。従って、処理システム132に関して、CPU、GPU、又はそれらの組合せが、深度マップ向上プロセス480を実行することができる。1つの実施例において、エッジスナップは、深度エッジ点320A及び320Bを、それらの深度エッジ点320A及び320Bのターゲット位置342A及び342Bに向かう方向に移動させる。1つの実施例において、処理システム132は、エッジスナップの領域に含まれるすべての、又はほぼすべての深度点(深度ピクセル)を処理するように構成されている。深度マップ向上プロセス480後に、処理400は、眼鏡ビューレンダリングプロセス490を含んでいる。
図14及び図15Aから図15Cは、眼鏡ビュー212における動的オクルージョン効果を達成するように構成されている、眼鏡ビューレンダリングプロセス490に関する。特に、図14は、1つの実施例による眼鏡ビューレンダリングプロセス490の1つの実現例1400のフローチャートである。1つの実施例において、CPU、GPU、又はそれらの組合せは、この実現例1400を実行することができる。1つの実施例において、例えば速度に関して、処理システム132のGPUは、眼鏡ビューレンダリングプロセス490を実行するように構成されている。さらに、図15Aから図15Cには、実現例1400の特定の態様の例が図示されている。
1つの実施例において、処理システム132は、ステップ1402において、深度データをビデオビュー200から眼鏡ビュー212に変換する。1つの実施例において、例えば、変換は、ARToolKit又は他の類似のソフトウェアプログラムのようなAR用途のためのソフトウェアテクノロジを使用する校正を介して行われる。ビデオビュー200と眼鏡ビュー212との差異に起因して、図15Aに図示されているように、空の領域(空所)が生成される可能性がある。ここで、曲線1500は物体の表面を表している。また、図15Aにおいて、点p1及び点p2は、ビデオビュー200における近接点に投影される表面上にあり、かつ、p1はp2よりも遠くにある。眼鏡ビュー212においては、このビューの変化に起因して、p2に近接する点(又はピクセル)は、光線Rに従い、この光線Rに関して、このケースにおいては、直接的な深度測定値が存在していない。深度を取得するための1つのやり方は、点p1と点p2の間の内挿を介して、最終的に点p4を生じさせることである。しかしながら、この内挿は、オクルージョン処理にとって問題となる可能性がある。これに関して、例えば、仮想の物体202が図15Bに示されているような位置に配置される場合、点p4は、仮想の物体202を塞ぐことになる。実際のところ、このケースにおいて、事前情報を一切含まない光線Rに沿った真の深度に関する情報は存在していない。ビューの合成にも使用されるより安全なやり方は、点p1と点p2との間に推定値としてより大きい深度を取得し、それによって図15Cに示されているような点p3を生じさせることである。従って、このストラテジに従って、処理システム132は、眼鏡ビュー212における深度テストの前に、シーン深度をビデオビュー200から眼鏡ビュー212に変換する際に多数のオペレーションを実行する。
1つの実施例において、処理システム132は、ステップ1404において、イメージグリッド上のすべての、又はほぼすべての点(又はピクセル)を三角測量で測定し、向上させた深度マップを三角形のメッシュとして、深度テクスチャにレンダリングする。
1つの実施例において、処理システム132は、ステップ1406において、このレンダリング中に所定の閾値よりも長いエッジを有している三角形を識別する。1つの非限定的な例として、閾値は20mmである。これに関して、それらの三角形内の点(又はピクセル)は、図15Aに図示したケースに対応する。
1つの実施例において、処理システム132は、ステップ1408において、それらの点(又はピクセル)に、その三角形の3つの端点のうちの最大の深度を割り当てる。
1つの実施例において、処理システム132は、ステップ1410において、動的オクルージョン処理のために深度をレンダリングする。これに関して、例えば、処理システム132は、OpenGL Shader又は他の任意のソフトウェアプログラムのような適切なソフトウェアテクノロジによってこのプロセスを実現し、また、このプロセスを眼鏡の左側のビュー及び右側のビューの両ビューに適用するように構成されている。
上記において考察したように、プロセス400は、RGB−Dカメラ112によって提供されたデータを活用するように構成されている。より詳細には、動的オクルージョン処理システム120は、エッジスナップアルゴリズムを含んでおり、このエッジスナップアルゴリズムは、ロー深度データの物体の境界を対応するカラー画像にスナップし(又は移動させ)、続いてこのエッジスナップの結果を基礎として、深度マップの物体の境界を向上させる。ロー深度データの使用は空所、低解像度、及び境界周辺の顕著なノイズを含む可能性があり、それによってARを含む種々の用途において不所望である視覚的なアーチファクトがもたらされるので、このエッジスナップは特に有益である。続いて、この向上させた深度マップが、動的オクルージョン処理のために、仮想の物体202を用いた深度テストに使用される。さらに、この動的オクルージョン処理の恩恵を受けることができる種々のAR用途が存在している。非限定的な例として、この動的オクルージョン処理を、少なくとも、以下の2つのARユースケースに適用することができる。
非限定的な例として、第1のARユースケースには、自動車修理用途が含まれ、そこでは、ユーザはARシステムをガイダンスに使用する。この例において、自動車修理用途においては、一例としての3Dプリントされたダッシュボードが存在するARシーン600が構成される。さらに、ARシーン600は、仮想の物体202、特に仮想のタッチスクリーン及び仮想のフロントガラスを含んでいる。評価を目的として、以下の考察には、ARシーン600の異なるロケーションにおけるユーザの手204の位置決めが含まれる。一部のケースにおいて、ユーザの手204は、タッチスクリーンによって塞がれるが、しかしながら、フロントガラスによっては塞がれないものとし、それに対し他のケースにおいて、ユーザの手204は、それら2つの仮想の物体202も塞ぐものとする。一部の例の結果は、図16Aから図16C、図17Aから図17C、及び図18Aから図18Cに示されている。
図16Aから図16C、図17Aから図17C、及び図18Aから図18Cには、AR支援による自動車修理シナリオにおける種々のオクルージョン処理ストラテジの視覚的な結果が図示されている。特に、図16Aから図16Cには、ユーザの手204が2つの仮想の物体202(例えば、仮想のタッチスクリーン及び仮想のフロントガラス)の間に存在すべき事例が図示されている。図16Aには、オクルージョン処理が一切行われていない、ユーザの手204に関連付けられた仮想の物体202の視覚的な結果が図示されている。図16Aに示されているように、ユーザの手204は、所望のように2つの仮想の物体202間に存在するのではなく、2つの仮想の物体202によって誤って塞がれている。図16Bには、ロー深度データを使用してオクルージョン処理が行われた、視覚的な結果が図示されている。図16Bに示されているように、ARシーン600は、矢印602によって示唆されているように、種々の視覚的なアーチファクトのような欠陥の影響を受けている。それに対して、図16Cには、本明細書において開示されているように、向上させた深度マップを使用して動的オクルージョン処理が行われた、仮想の物体202の視覚的な結果が図示されている。図16Cに示されているように、ARシーン600には、ユーザの手204に関する境界が含まれており、この境界は、向上させた深度マップを用いて動的オクルージョン処理が実行された場合には、良好に維持されており、また、仮想の物体202に関連付けられて、適切に位置決めされている。
図17Aから図17Cには、ユーザの手204が2つの仮想の物体202(例えば、仮想のタッチスクリーン及び仮想のフロントガラス)を塞ぐべき事例が図示されている。図17Aには、オクルージョン処理が一切行われていない、ユーザの手204に関連付けられた仮想の物体202の視覚的な結果が図示されている。図17Aに示されているように、ユーザの手204は、所望のように仮想の物体202の手前に存在するのではなく、2つの仮想の物体202によって誤って塞がれている。図17Bには、ロー深度データを使用してオクルージョン処理が行われた、ユーザの手204に関連付けられた仮想の物体202の視覚的な結果が図示されている。図17Bに示されているように、ARシーン600は、矢印602によって示唆されているように、種々の視覚的なアーチファクトのような欠陥の影響を受けている。それに対して、図17Cには、本明細書において開示されているように、向上させた深度マップを使用して動的オクルージョン処理が行われた、ユーザの手204に関連付けられた、仮想の物体202の視覚的な結果が図示されている。図17Cに示されているように、ARシーン600には、ユーザの手204に関する境界が含まれており、この境界は、向上させた深度マップを用いて動的オクルージョン処理が実行された場合には、良好に維持されており、また、仮想の物体202に関連付けられて、適切に位置決めされている。
図18Aから図18Cには、ユーザの手204が少なくとも2つの仮想の物体202(例えば、仮想のタッチスクリーン及び仮想のフロントガラス)を塞ぐべき事例が図示されている。図18Aには、オクルージョン処理が一切行われていない、ユーザの手204に関連付けられた仮想の物体202の視覚的な結果が図示されている。図18Aに示されているように、ユーザの手204の指は、所望のように仮想の物体202の手前に存在するのではなく、2つの仮想の物体202によって誤って塞がれている。図18Bには、ロー深度データを使用してオクルージョン処理が行われた、ユーザの手204に関連付けられた仮想の物体202の視覚的な結果が図示されている。それに対して、図18Cには、本明細書において開示されているように、向上させた深度マップを使用して動的オクルージョン処理が行われた、ユーザの手204に関連付けられた、仮想の物体202の視覚的な結果が図示されている。図18Cに示されているように、ARシーン600には、ユーザの手204に関する境界が含まれており、この境界は、向上させた深度マップを用いて動的オクルージョン処理が実行された場合には、良好に維持されており、また、仮想の物体202に関連付けられて、適切に位置決めされている。
別の非限定的な例として、第2のARユースケースには、ARゲーミングが含まれる。例えば、ARシステムを用いるトレジャーハントゲームにおいては、現実のシーンがプレイグラウンドとして使用され、それに対し、仮想の宝箱は、現実のシーンのどこかに隠された仮想の物体202である。より詳細には、この例において、仮想の宝箱は、クローゼットのドア606の裏及び箱604の裏に隠されている。従って、このARシーン600において、隠された仮想の宝箱を発見するためには、ユーザはクローゼットのドア606を開けて、箱604を移動させるべきである。
しかしながら、このトレジャーハントゲームにおいて、適切な動的オクルージョン処理が行われなければ、仮想の宝箱は、ユーザに可視のものとなり、隠された仮想の宝箱を発見するという全体のゲーム体験が台無しになる。深度センサに由来するロー深度データを使用することによって、合理的なオクルージョン処理効果を達成することができる。しかしながら、ロー深度データが使用される場合、このARシーン600において、視覚的なアーチファクトも観察される可能性がある。クローゼットのドア606と箱604との間のオクルージョンに起因して、通常の場合、境界に沿った欠測深度値が存在している。ユーザがクローゼットのドア606を開けると、視覚的なアーチファクトが観察される可能性がある。それに対して、プロセス400を介して、向上させた深度マップを用いた動的オクルージョン処理を使用することによって、クローゼットのドア606及び箱604の境界が、それらの所望のロケーションにスナップされ、視覚的なアーチファクトが除去される。
図19Aから図19C及び図20Aから図20Cには、ARトレジャーハントシナリオにおける種々のオクルージョン処理ストラテジの視覚的な結果が図示されている。この例において、仮想の物体202(例えば、宝箱)は、このARシーン600における箱604の裏に配置されるものとする。より詳細には、図19A及び図20Aには、オクルージョン処理が行われていない視覚的な効果が図示されている。図19A及び図20Aにおいて、オクルージョン処理は一切行われておらず、仮想の物体202は箱604及びクローゼットのドア606を塞いでおり、従って、意図したように箱604の裏に配置されていない。それに対し、図19B及び図20Bにおいて、ロー深度データにオクルージョン処理が適用された場合、仮想の物体202は、意図したようにクローゼットのドア606の間に適切に配置されているが、しかしながら、箱604を誤って塞いでいる。即ち、ロー深度マップ300のロー深度データにおいては、丸で囲まれた領域608において一部の値が明らかに欠落しており、従って、仮想の物体202は、それらの丸で囲まれた領域608における箱を誤って塞いでいる。このケースにおいて、図19B及び図20Bによって証明されたように、仮想の物体202が現実のシーンを意図せずに塞ぐ場合、ARシーン600は、不所望なアーチファクトの影響を受けることになる。それに対して、図19C及び図20Cには、本明細書において考察したような、向上させた深度マップが使用されてARシーン600に寄与する、動的オクルージョン処理が行われた視覚的な効果が図示されている。図示されているように、図19C及び図20Cの各ARシーン600において、仮想の物体202は、適切なやり方で、また、視覚的なアーチファクトを一切含むことなく、箱604及びクローゼットのドア606両方の裏にレンダリングされている。即ち、動的オクルージョン処理が行われた場合、ユーザには、適切で現実的なAR体験が提供される。
図21Aから図23Dには、カラー画像、ロー深度マップ、及び向上させた深度マップにおける物体の境界が図示されている。特に、図21A、図21B、図21C及び図21Dの各図は、ユーザの手204のグラウンドトゥルース(ground−truth)の境界800を含むカラー画像302である。これに関して、図21A、図21B、図21C及び図21Dの各図は、異なるハンドジェスチャ及び/又は背景シーンを表している。次に図22Aから図22D及び図23Aから図23Dを参照すると、それらの図においては、例えば、対応する深度マップ300がオーバレイされた対応するカラー画像302を用いて、標準的なJETカラースキームが利用されている。より詳細には、図22Aから図22Dには、ロー深度マップ300が含まれており、それに対し、図23Aから図23Dには、向上させた深度マップ900が含まれている。図22Aから図22Dと図23Aから図23Dとを比較することによって証明されたように、向上させた深度マップ900における手204の物体の境界902は、ロー深度マップ300における手204の物体の境界312よりも近くにおいて、グラウンドトゥルースの境界800に対応している。即ち、向上させた深度マップ900は、改善された物体の境界902を提供し、それによって、改善されたAR体験をもたらす動的オクルージョン処理が達成される。
さらに、図21Aから図21Dは、本来のカラー画像302にわたり、手204の所望のグラウンドトゥルースの境界800を視覚化している。理想的には、深度マップにおける物体の境界が、この曲線と一致すべきである。しかしながら、図22Aから図22Dに示されているように、ロー深度マップ300は、種々の種類のノイズ及び欠測値の影響を受け、その結果、グラウンドトゥルースの境界800との間にずれが生じている。例えば、図22Bにおいて、掌の領域に空所が存在しており、それによって誤った物体の境界が生じている。それに対し、図23Aから図23Dは、深度マップ向上後の実施例の結果を表している。図23Aから図23Dの結果によって示されているように、プロセス400は、イメージデータ(例えば、RGBデータ)と深度データとの間の物体の境界の一貫性を改善する。
上記において考察したように、システム100は、AR用途における正確な深度知覚を実現する動的オクルージョン処理を提供する。従って、動的オクルージョン処理は、現実的で没入することができるAR体験を保証する。一般的に、既存の解決手段は、典型的には種々の制限、例えば静的シーンの想定又は高い計算複雑性の影響を受ける。それに対して、このシステム100は、AR用途における動的オクルージョン処理のための深度マップ向上プロセス480を含むプロセス400を実現するように構成されている。有利には、このシステム100は、離散最適化として公式化された、エッジスナップのアプローチを実現し、これによって、RGBデータと深度データとの間の物体の境界の一貫性が改善される。1つの実施例において、システム100は、動的プログラミングを介して、最適化問題を効率的に解決する。さらに、システム100は、コンピューティングプラットフォーム(例えば、タブレットプラットフォーム)においてインタラクティブに稼働するように構成されている。また、システム100は、ビデオビュー200(データ取得センサ)と眼鏡ビュー212との間に差異が存在することに基づく内挿に起因するアーチファクト及び空所を回避するために、眼鏡ビュー212に関するレンダリングストラテジを提供する。さらに、実験による評価は、このエッジスナップのアプローチが、ローセンサデータを大幅に向上させ、速度及び品質の両項目における種々の関連するアプローチと比較して、特に適していることを証明した。また、イメージ全体に関心を集中させる他のアプローチとは異なり、このプロセス400は、有利には、エッジ領域に関心を集中させる。さらに、システム100は、ユーザインタラクションの間に、視覚的に満足のいく動的オクルージョン効果を提供する。
上述のように、1つの実施例において、システム100は、主に画像勾配を基礎として、深度マップとカラー画像との間でエッジスナップを実行するように構成されている。付加的又は代替的に、深度センサ114に由来するセンサデータの特性が、対応する所望のカラーエッジの近くにあるロー深度エッジを提供する場合、システム100は、セグメンテーションのために、個々の物体のカラー特性をモデリングするように構成されている。付加的又は代替的に、システム100は、雑然としたシーンのような複雑なシナリオにより良好に適応することができるようにするために、画像勾配の以外に他の情報、例えば色分布又は他の関連するデータの情報を考慮することによって、上述のエネルギ関数をさらに向上させるように構成されている。付加的又は代替的に、システム100は、一時的な情報を考慮することができ、また、そのような一時的な情報を含むことができる。付加的又は代替的に、システム100は、エッジスナップの構造のロバスト性を向上させるために、移動する物体の明示的なトラッキングを含むことができる。
即ち、上記の記述は説明を意図したものであって、制限を意図したものではなく、また、特定の用途及びその要求に関するコンテキストにおいて提供されている。当業者であれば、上記の説明から、本発明を種々の形態で実現することができ、また、種々の実施の形態を単独で、又は、組み合わせて実現することができることを理解するであろう。従って、本発明の実施の形態を、本発明の特定の実施例と関連させて説明したが、本明細書において定義された一般的な原理を、説明した実施の形態の精神及び範囲から逸脱することなく、他の実施の形態及び他の用途に適用することができ、また、図面、明細書及び添付の特許請求の範囲を理解することによって当業者には種々の修正形態が明らかになるであろうから、本発明の実施の形態及び/又は方法の実際の範囲は、図示及び説明した実施の形態に限定されるものではない。例えば、複数のコンポーネント及び機能を、説明した種々の実施の形態とは異なるように分けることができ、又は、組み合わせることができ、また、異なる術語を使用して説明することができる。それらのヴァリエーション、修正形態、追加形態及び改善形態、並びに、他のヴァリエーション、修正形態、追加形態及び改善形態は、添付の特許請求の範囲において定義されているような開示の範囲に含まれると考えられる。

Claims (17)

  1. 少なくとも1つの処理ユニットを含む処理システムを備えているコンピューティングシステムにおいて、
    前記処理システムは、
    物体の第1の境界を有する深度マップの受信と、
    前記深度マップに対応し、かつ、前記物体の第2の境界を含むカラー画像の受信と、
    前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
    画像勾配データを含むデータ項及び平滑化コストに関連する平滑化項を少なくとも基礎とするエネルギ関数の最適化による、対応する候補の中からの、前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
    前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
    を含む方法を実施するように構成されており、
    前記処理システムは、
    (a)前記深度エッジ点を所定のグループにグループ分けし、
    (b)前記グループ内の前記深度エッジ点を順序付け、
    (c)ローパスフィルタを用いて、前記深度エッジ点の2D位置を平滑にし、
    (d)前記深度エッジ点に関して2D法線セグメントを計算する、
    ように構成されており、
    前記処理システムは、連続する深度エッジ点p i 及びp j のペアに関して、深度エッジ点p i を候補c i,k に、深度エッジ点p j を候補c j,l にスナップする前記平滑化コストを次式:
    Figure 0006813600
    により表される前記平滑化項E S (i,k,j,l)によって特定するように構成されており、ここで、d max は、連続する深度エッジ点の前記ペアに対して許容される最大不一致度を定義するパラメータである、
    コンピューティングシステム。
  2. 前記処理システムは、深度センサ及びカメラを含むヘッドマウントディスプレイと通信し、
    前記処理システムは、前記深度センサから前記深度マップを受信し、かつ、前記カメラから前記カラー画像を受信する、請求項1に記載のコンピューティングシステム。
  3. 前記処理システムは、少なくとも画像勾配データを基礎として、前記カラー画像における前記カラーエッジ点について候補検索を実行するように構成されており、
    前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項1に記載のコンピューティングシステム。
  4. 前記処理システムは、次式
    Figure 0006813600
    により表される前記エネルギ関数Eを最小化するため構成されており、ここで、Ed(i,k)は、深度エッジ点piを候補ci,kにスナップするデータコストを、前記画像勾配データを基礎として特定する関数であり、λSは、平滑化制約に影響を及ぼす係数である、請求項に記載のコンピューティングシステム。
  5. 前記処理システムは、前記向上させた深度マップを基礎として、動的オクルージョン処理を実行するように構成されている、請求項1に記載のコンピューティングシステム。
  6. 前記処理システムは、前記向上させた深度マップの深度データを、ビデオビューから、拡張現実用途のための眼鏡ビューに変換するように構成されている、請求項1に記載のコンピューティングシステム。
  7. 動的オクルージョン処理のためのシステムにおいて、
    前記システムは、
    深度マップを提供する深度センサと、
    カラー画像を提供するカメラと、
    少なくとも1つの処理ユニットを含む処理システムと、
    を備えており、
    前記処理システムは、
    物体の第1の境界を有する前記深度マップの受信と、
    前記深度マップに対応し、かつ、前記物体の第2の境界を含む前記カラー画像の受信と、
    前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
    画像勾配データを含むデータ項及び平滑化コストに関連する平滑化項を少なくとも基礎とするエネルギ関数の最適化による、対応する候補の中からの、前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
    前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
    を含む方法を実施するように構成されており、
    前記処理システムは、
    (a)前記深度エッジ点を所定のグループにグループ分けし、
    (b)前記グループ内の前記深度エッジ点を順序付け、
    (c)ローパスフィルタを用いて、前記深度エッジ点の2D位置を平滑にし、
    (d)前記深度エッジ点に関して2D法線セグメントを計算する、
    ように構成されており、
    前記処理システムは、連続する深度エッジ点p i 及びp j のペアに関して、深度エッジ点p i を候補c i,k に、深度エッジ点p j を候補c j,l にスナップする前記平滑化コストを次式:
    Figure 0006813600
    により表される前記平滑化項E S (i,k,j,l)によって特定するように構成されており、ここで、d max は、連続する深度エッジ点の前記ペアに対して許容される最大不一致度を定義するパラメータである、
    動的オクルージョン処理のためのシステム。
  8. さらに、前記深度センサ及び前記カメラが取り付けられているヘッドマウントディスプレイを備えている、請求項に記載のシステム。
  9. 前記処理システムは、少なくとも画像勾配データを基礎として、前記カラー画像における前記カラーエッジ点について候補検索を実行するように構成されており、
    前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項に記載のシステム。
  10. 前記処理システムは、次式
    Figure 0006813600
    により表される前記エネルギ関数Eを最小化するため構成されており、ここで、Ed(i,k)は、深度エッジ点piを候補ci,kにスナップするデータコストを、前記画像勾配データを基礎として特定する関数であり、λSは、平滑化制約に影響を及ぼす係数である、請求項に記載のシステム。
  11. 前記処理システムは、前記向上させた深度マップを基礎として、動的オクルージョン処理を実行するように構成されている、請求項に記載のシステム。
  12. 前記処理システムは、前記向上させた深度マップの深度データを、ビデオビューから、拡張現実用途のための眼鏡ビューに変換するように構成されている、請求項に記載のシステム。
  13. コンピュータ実施方法において、
    物体の第1の境界を有する深度マップの受信と、
    前記深度マップに対応し、かつ、前記物体の第2の境界を含むカラー画像の受信と、
    前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
    画像勾配データを含むデータ項及び平滑化コストに関連する平滑化項を少なくとも基礎とするエネルギ関数の最適化による、対応する候補の中からの、前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
    前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
    を含み、
    さらに、
    前記深度エッジ点の、所定のグループへのグループ分けと、
    深度エッジ点の前記グループの順序付けと、
    ローパスフィルタを用いた、前記深度エッジ点の2D位置の平滑化と、
    前記深度エッジ点に関する2D法線セグメントの計算と、
    を含み、
    さらに、
    連続する深度エッジ点p i 及びp j のペアに関して、深度エッジ点p i を候補c i,k に、深度エッジ点p j を候補c j,l にスナップする前記平滑化コストの、次式:
    Figure 0006813600
    により表される前記平滑化項E S (i,k,j,l)による特定を含み、
    ここで、d max は、連続する深度エッジ点の前記ペアに対して許容される最大不一致度を定義するパラメータである、
    コンピュータ実施方法。
  14. さらに、
    少なくとも画像勾配データを基礎とした、前記カラー画像における前記カラーエッジ点についての候補検索の実行を含み、
    前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項13に記載のコンピュータ実施方法。
  15. さらに、
    次式
    Figure 0006813600
    により表される前記エネルギ関数Eを最小化すことを含み、ここで、Ed(i,k)は、深度エッジ点piを候補ci,kにスナップするデータコストを、画像勾配データを基礎として特定する関数であり、λSは、平滑化制約に影響を及ぼす係数である、請求項13に記載のコンピュータ実施方法。
  16. さらに、
    前記向上させた深度マップを基礎とする、動的オクルージョン処理の実行を含む、請求項13に記載のコンピュータ実施方法。
  17. さらに、
    前記向上させた深度マップの深度データの、ビデオビューから、拡張現実用途のための眼鏡ビューへの変換を含む、請求項13に記載のコンピュータ実施方法。
JP2018567839A 2016-06-27 2017-06-26 動的オクルージョン処理のためのシステム及び方法 Active JP6813600B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662354891P 2016-06-27 2016-06-27
US62/354,891 2016-06-27
PCT/US2017/039278 WO2018005359A1 (en) 2016-06-27 2017-06-26 Systems and methods for dynamic occlusion handling

Publications (2)

Publication Number Publication Date
JP2019526847A JP2019526847A (ja) 2019-09-19
JP6813600B2 true JP6813600B2 (ja) 2021-01-13

Family

ID=60675555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018567839A Active JP6813600B2 (ja) 2016-06-27 2017-06-26 動的オクルージョン処理のためのシステム及び方法

Country Status (8)

Country Link
US (1) US10706613B2 (ja)
EP (1) EP3475923A4 (ja)
JP (1) JP6813600B2 (ja)
KR (1) KR102337931B1 (ja)
CN (1) CN109844819A (ja)
AU (1) AU2017288933B2 (ja)
BR (1) BR112018077095A8 (ja)
WO (1) WO2018005359A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10645357B2 (en) * 2018-03-01 2020-05-05 Motorola Mobility Llc Selectively applying color to an image
US10643336B2 (en) 2018-03-06 2020-05-05 Sony Corporation Image processing apparatus and method for object boundary stabilization in an image of a sequence of images
CN109035375B (zh) * 2018-06-22 2023-11-10 广州久邦世纪科技有限公司 一种基于OpenGL的3D眼镜渲染方法及其系统
CN110072046B (zh) * 2018-08-24 2020-07-31 北京微播视界科技有限公司 图像合成方法和装置
US11348319B1 (en) * 2020-01-22 2022-05-31 Facebook Technologies, Llc. 3D reconstruction of a moving object
CN111275827B (zh) * 2020-02-25 2023-06-16 北京百度网讯科技有限公司 基于边缘的增强现实三维跟踪注册方法、装置和电子设备
US11107280B1 (en) * 2020-02-28 2021-08-31 Facebook Technologies, Llc Occlusion of virtual objects in augmented reality by physical objects
JP2022123692A (ja) * 2021-02-12 2022-08-24 ソニーグループ株式会社 画像処理装置、画像処理方法、画像処理システム
US11941764B2 (en) 2021-04-18 2024-03-26 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US11741671B2 (en) 2021-06-16 2023-08-29 Samsung Electronics Co., Ltd. Three-dimensional scene recreation using depth fusion
US11887267B2 (en) 2021-07-07 2024-01-30 Meta Platforms Technologies, Llc Generating and modifying representations of hands in an artificial reality environment
CN117581258A (zh) * 2021-10-28 2024-02-20 英特尔公司 用于针对多视图系统执行基于掩码的深度增强的方法和装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7787678B2 (en) * 2005-10-07 2010-08-31 Siemens Corporation Devices, systems, and methods for processing images
JP4789745B2 (ja) 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
KR101807886B1 (ko) * 2009-10-14 2017-12-11 돌비 인터네셔널 에이비 깊이 맵 처리를 위한 방법 및 디바이스
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
EP3851069B1 (en) * 2010-06-29 2023-01-18 3Shape A/S 2d image arrangement
US8774267B2 (en) 2010-07-07 2014-07-08 Spinella Ip Holdings, Inc. System and method for transmission, processing, and rendering of stereoscopic and multi-view images
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
KR101972356B1 (ko) * 2010-12-21 2019-04-25 한국전자통신연구원 상반신 검출장치 및 검출방법
US9349169B2 (en) * 2012-05-17 2016-05-24 The Regents Of The University Of California Sampling-based multi-lateral filter method for depth map enhancement and codec
US9036907B2 (en) 2012-07-16 2015-05-19 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for extracting depth edges from images acquired of scenes by cameras with ring flashes forming hue circles
US10455219B2 (en) 2012-11-30 2019-10-22 Adobe Inc. Stereo correspondence and depth sensors
RU2013106513A (ru) * 2013-02-14 2014-08-20 ЭлЭсАй Корпорейшн Способ и устройство для улучшения изображения и подтверждения границ с использованием по меньшей мере одного дополнительного изображения
US9514574B2 (en) 2013-08-30 2016-12-06 Qualcomm Incorporated System and method for determining the extent of a plane in an augmented reality environment
US9363499B2 (en) * 2013-11-15 2016-06-07 Htc Corporation Method, electronic device and medium for adjusting depth values
US9754377B2 (en) * 2014-08-15 2017-09-05 Illinois Institute Of Technology Multi-resolution depth estimation using modified census transform for advanced driver assistance systems
JP2016048467A (ja) 2014-08-27 2016-04-07 Kddi株式会社 運動視差再現方法、装置およびプログラム
US9824412B2 (en) * 2014-09-24 2017-11-21 Intel Corporation Position-only shading pipeline
US20160140761A1 (en) 2014-11-19 2016-05-19 Microsoft Technology Licensing, Llc. Using depth information for drawing in augmented reality scenes

Also Published As

Publication number Publication date
WO2018005359A1 (en) 2018-01-04
AU2017288933B2 (en) 2021-09-23
US10706613B2 (en) 2020-07-07
BR112018077095A2 (pt) 2019-04-02
CN109844819A (zh) 2019-06-04
JP2019526847A (ja) 2019-09-19
EP3475923A1 (en) 2019-05-01
US20170372510A1 (en) 2017-12-28
KR20190014105A (ko) 2019-02-11
BR112018077095A8 (pt) 2023-04-04
EP3475923A4 (en) 2020-01-01
KR102337931B1 (ko) 2021-12-13
AU2017288933A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
JP6813600B2 (ja) 動的オクルージョン処理のためのシステム及び方法
Johannsen et al. A taxonomy and evaluation of dense light field depth estimation algorithms
Du et al. Edge snapping-based depth enhancement for dynamic occlusion handling in augmented reality
JP6613605B2 (ja) 深度画像の深度値復元方法及びシステム
EP1969562B1 (en) Edge-guided morphological closing in segmentation of video sequences
EP3385903B1 (en) Method and apparatus for refining depth image
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
JP6998388B2 (ja) 画像特性マップを処理するための方法及び装置
US20090028432A1 (en) Segmentation of Video Sequences
JP6843237B2 (ja) シーンのポイントクラウドを表現するシステム及び方法
TW201308252A (zh) 深度測量之品質提升
EP1969560A1 (en) Edge comparison in segmentation of video sequences
WO2020125637A1 (zh) 一种立体匹配方法、装置和电子设备
CN111062777A (zh) 一种可保留示例衣服细节的虚拟试穿方法及系统
CN106251348A (zh) 一种面向深度相机的自适应多线索融合背景减除方法
KR20110021500A (ko) 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
WO2020130070A1 (ja) 検出装置、情報処理装置、検出方法、及び情報処理プログラム
US11682234B2 (en) Texture map generation using multi-viewpoint color images
KR20180064028A (ko) 영상 처리 방법 및 장치
JP5728399B2 (ja) 計測装置、方法及びプログラム
Wang et al. Fast image defogging algorithm design based on dark channel prior
Heimann et al. Joint Geometry and Attribute Upsampling of Point Clouds Using Frequency-Selective Models with Overlapped Support
KR102102369B1 (ko) 정합 성능 추정 방법 및 장치
JP7024401B2 (ja) 情報処理装置、プログラム、及び情報処理方法
Zuo et al. Explicit measurement on depth-color inconsistency for depth completion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201016

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201016

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201027

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201217

R150 Certificate of patent or registration of utility model

Ref document number: 6813600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250