JP2023505900A - メモリおよびデバイスのトラッキングを使用する拡張現実アプリケーションにおけるオクルージョンハンドリングのための方法と関連装置 - Google Patents
メモリおよびデバイスのトラッキングを使用する拡張現実アプリケーションにおけるオクルージョンハンドリングのための方法と関連装置 Download PDFInfo
- Publication number
- JP2023505900A JP2023505900A JP2022535825A JP2022535825A JP2023505900A JP 2023505900 A JP2023505900 A JP 2023505900A JP 2022535825 A JP2022535825 A JP 2022535825A JP 2022535825 A JP2022535825 A JP 2022535825A JP 2023505900 A JP2023505900 A JP 2023505900A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- pixels
- foreground
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 126
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 39
- 239000000203 mixture Substances 0.000 claims abstract description 24
- 238000009826 distribution Methods 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 50
- 238000012545 processing Methods 0.000 claims description 37
- 230000003068 static effect Effects 0.000 claims description 22
- 238000009877 rendering Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 13
- 230000000977 initiatory effect Effects 0.000 claims description 13
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000004891 communication Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 5
- 238000002156 mixing Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 17
- 238000013459 approach Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 239000003086 colorant Substances 0.000 description 4
- 230000000670 limiting effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/503—Blending, e.g. for anti-aliasing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
ここで、Vは、学習工程の出力としての3D再構成背景(ポイントクラウド/メッシュ)のことであり、Lは、考えられ得る学習した背景確率分布のことであり、Pdy(SF)は、前景セグメント化画素が動的である確率であり、Tは、任意の規定の閾値である。
ここで、dnは、画素pdの正規化間隔であり、Dmaxは、センサによって測定された最大間隔であり、aは、チューニングされた任意の値である。aのこれより大きな値では、非常に近いが仮想オブジェクトの背後にある画素の値は、1に近い値d(p)になるが、画素のうちのそれ以外の画素の値は、非常に低い正規化奥行き値である可能性がある。これにより、起こり得る奥行き推定誤りを補うのに、仮想オブジェクトに奥行きが近い画素がより重要視される場合がある。
Iw F(p)=wc F・IF(p)+wd F・dn(p)+wdy F・Pdy(p)
Iw B(p)=wc B・IB(p)+wd B・(1-dn(p))+wdy B・(1-Pdy(p))
ここで、wc F+wd F+wdy F=wc B+wd B+wdy B=1
図7Aには出力画像IW Fの例を示し、図7Bには出力画像IW Bの例を示す。
p’U=α・pU+(1-α)・pV
ここで、アルファαは、アルファマッティングアルゴリズムにより計算したpUのアルファチャンネルに相当し、pVは、対応する仮想画素である。アルファの値は、各未知の画素に対して計算され得る。
p’U=α・pU+(1-α)・pV
ここで、p’Uは、未知の画素のうちの1つまたは複数のそれぞれの色であり、α・pUは、未知の画素のうちの1つまたは複数のそれぞれに対してアルファマッティングプロセスにより計算したpUのアルファチャンネルであり、pVは、対応する仮想画素である。
デバイスが非シースルー表示デバイスの場合、反転アルファマスク(1-α)を使用して、少なくとも1つの画素分類画像の前景画素および仮想オブジェクトにアルファマスクαを施し、少なくとも1つの画素分類画像の背景画素にその結果を加えることと、
デバイスがシースルーデバイスの場合、少なくとも1つの画素分類画像において、仮想オブジェクトをレンダリングし、反転アルファマスク(1-α)をオクルージョンマスクとして施すことと、で成る。
ここで、Fiは、仮想オブジェクトiに割り当てられた任意グレースケール値である。
ここで、pv iは、仮想オブジェクトiの仮想画素である。それ故、複数仮想オブジェクトの場合の第1の実施形態において生成された初期グレースケール画像を使用して、その仮想画素が画素puに相当し、またそれにより、このような画素のpv iの値が直に推論され得る。
ここで、Pv iは、仮想オブジェクトiの仮想画素である。
Claims (41)
- デバイス(400、40)によって行われる拡張現実におけるオクルージョンハンドリングのための方法であって、
一フレームの少なくとも1つの画素分類画像を生成すること(902)であって、
前記少なくとも1つの画素分類画像には、オクルージョンオブジェクトが含まれ、その画素が前景画素として分類される前景、その画素が背景画素として分類される背景、および未知の画素を含む画素があり、
前記生成することが、(1)前記オクルージョンオブジェクトが収まっている画像の前記画素のうちの1つまたは複数のそれぞれに対して初期前景画素確率画像を前景色確率分布から計算し、前記画素のうちの1つまたは複数のそれぞれに対する初期背景画素確率画像を、前記画素のうちの1つまたは複数の前記それぞれが動的であるかまたは静的であるかの確率に基づき計算することと、(2)前記オクルージョンオブジェクトの奥行き情報に基づき、前記オクルージョンオブジェクトの正規化奥行き画像を計算することと、で構成されている、一フレームの少なくとも1つの画素分類画像を生成すること(902)と、
アルファマスクを得て、前記未知の画素の色を決定することに基づき、前記少なくとも1つの画素分類画像の仮想オブジェクトと前記前景とを融合させるアルファマッティングプロセスを開始すること(904)と、
前記少なくとも1つの画素分類画像における画素に前記アルファマスクを施すのに基づき、前記オクルージョンオブジェクトにオクルージョンされた前記仮想オブジェクトが収まっている拡張現実画像の最終構成をレンダリングすること(906)と、を含む、方法。 - 前景色確率分布から前記オクルージョンオブジェクトが収まっている画像の前記画素のうちの1つまたは複数のそれぞれに対する初期前景画素確率画像を前記計算することでは、確率分布に従って前記画素のうちの前記1つまたは複数のそれぞれが前記前景の一部であることの確率を引き出す、請求項1に記載の方法。
- 前記画素のうちの1つまたは複数のそれぞれが静的であるかまたは動的であるかの確率に基づき、前記画素のうちの1つまたは複数の前記それぞれに対する初期背景画素確率画像を前記計算することは、3次元再構成背景を使用して、前記画像の前記画素のうちの1つまたは複数の前記それぞれが背景画素であることの初期確率を推定することを含む、請求項1から2のいずれか一項に記載の方法。
- それまでに背景確率分布Lを学習していないか、または前景セグメント化画素が動的であることの確率が規定の閾値Tを下回っていれば、前記画素のうちの1つまたは複数のそれぞれに対する初期背景画素確率画像が、色分布Pbを使用して計算される、請求項1および3のいずれか一項に記載の方法。
- 前記前景画素のうちの前記1つまたは複数が動的オブジェクトに対応すると見なされている場合、前記画素のうちの1つまたは複数のそれぞれに対する前記初期背景画素確率画像が、それまでに学習した背景確率分布に基づき計算される、請求項1および3のいずれか一項に記載の方法。
- 前記初期背景画素確率が学習工程から出力された前記3次元再構成背景から引き出される、請求項1および3のいずれか一項に記載の方法。
- 前記3次元再構成背景が、前記デバイスのセンサからの色データまたは奥行きデータからの再構成アルゴリズムを適用することにより得られる、請求項3および6のいずれか一項に記載の方法。
- 前記前景セグメント化画素が動的である確率が、
前記画像の途切れのないフレームにおける前記背景画素のうちの前記それぞれ1つまたは複数の位置の変化を追跡することと、
前記背景画素のうちの前記それぞれ1つまたは複数が属するオブジェクトの種類を、オブジェクト検出工程を経て意味的に理解することと、
前記オクルージョンオブジェクトが収まっている前記画像からの測定値、のうちの1つによって推定される、請求項1、3、および4のいずれか一項に記載の方法。 - 前記画素のうちの1つまたは複数のそれぞれが静的であるかまたは動的であるかの確率に基づき、前記画素のうちの1つまたは複数の前記それぞれに対する初期背景画素確率画像を前記計算することが、
前記1つまたは複数の画素のそれぞれが静的オブジェクトに対応すると見なされるという確率閾値を満たすかどうかを判断することと、
学習した背景確率分布を使用して、前記1つまたは複数の画素のそれぞれが前記背景の一部であることの確率を引き出すことと、で構成されている、請求項1から2のいずれか一項に記載の方法。 - 前記オクルージョンオブジェクトの奥行き情報に基づく前記オクルージョンオブジェクトの前記正規化奥行き画像が、その対応する奥行き値が前記仮想オブジェクトまでの間隔Dよりも小さく、前記画素のうちの残りの画素の値が、Dにより近いそれより高い値を前記1つまたは複数の画素に割り当てる指数関数によって与えられる0から1の間の値である前記1つまたは複数の画素を1に設定することによって計算される、請求項1に記載の方法。
- 前記少なくとも1つの画素分類画像を前記生成すること(902)でさらに、
前記初期背景確率画像および前記初期前景画素確率画像、前記正規化奥行き画像、ならびに前記1つまたは複数の画素の前記色と前記奥行きの可変性に基づき、重み付き背景画素確率画像および重み付き前景画素確率画像を計算することを含む、請求項1から10のいずれか一項に記載の方法。 - 前記少なくとも1つの画素分類画像を前記生成すること(902)はさらに、
前記画素のうちの前記1つまたは複数のそれぞれが、前記画像における前景または背景として分類される確率を推定することと、
前記画素のうちの前記1つまたは複数のそれぞれが規定の閾値よりも高いという推定に基づき、前記画像における前記画素のうちの前記1つまたは複数の前記それぞれを前景として分類することと、
前景として分類されない前記画像における前記画素のうちの前記1つまたは複数の前記それぞれの残りに対して、前記画素のうちの1つまたは複数の前記それぞれの残りを背景として分類することと、
前景として分類した前記画素によって形成された前記画像の前景域のエッジを計算して、拡張することに基づき、前記未知の画素を決定することと、に基づき、
正規化背景画素確率画像および正規化前景画素確率画像を計算することを含む、請求項1から11のいずれか一項に記載の方法。 - 前記画素のうちの前記1つまたは複数のそれぞれが前記画像における前景として、または背景として分類されることの確率を前記推定することが、前記重み付き前景画素確率画像および前記重み付き背景画素確率画像を使用して計算され、前記重み付き前景画素確率画像および前記重み付き背景画素確率画像を得るのに使用する重みが前記画像の特性に基づき動的に変わる、請求項11から12のいずれか一項に記載の方法。
- アルファマスクαを得て、前記未知の画素の色を決定するのに基づき前記少なくとも1つの画素分類画像の仮想オブジェクトと前記前景とを融合させるアルファマッティングプロセスを前記開始すること(904)は、前記1つまたは複数の未知の画素のそれぞれに対してアルファチャンネルを計算し、反転アルファマスクを使用して対応する仮想画素を加えることを含む、請求項1から13のいずれか一項に記載の方法。
- 前記アルファマッティングプロセスでは、前記少なくとも1つの画素分類画像と入力としての画像とを使用する、請求項14に記載の方法。
- 前記前景画素が、IFで規定される前記画素として規定され、IFで規定される前記画素のα値が最大値に設定される、請求項13から15のいずれか一項に記載の方法。
- 前記少なくとも1つの画素分類画像において画素に前記アルファマスクを施すことに基づき前記オクルージョンオブジェクトにオクルージョンされた前記仮想オブジェクトが収まっている拡張現実画像の最終構成を前記レンダリングすること(906)は、
前記デバイスが非シースルー表示デバイスである場合、前記反転アルファマスク(1-α)を使用して、前記少なくとも1つの画素分類画像の前記前景画素および前記仮想オブジェクトに前記アルファマスクαを施し、前記少なくとも1つの画素分類画像の前記背景画素に結果を加えることと、
前記デバイスがシースルーデバイスである場合、前記少なくとも1つの画素分類画像において、前記仮想オブジェクトをレンダリングし、前記反転アルファマスク(1-α)をオクルージョンマスクとして施すことと、のうちの1つである、請求項1から16のいずれか一項に記載の方法。 - 前記最終構成の前記レンダリングに向けてオクルージョンが処理されなかった場合の前記画像を保存することと、
前記少なくとも1つの画素分類画像が生成されかつ/または前記アルファマスクが処理された場合、背景として分類されている画素を前記画像から保存することと、
のうちの1つに基づき、さらなるオクルージョンハンドリング繰り返しに使用するのに向けて前記画像が前記デバイスによって撮られている場合に対応する前記デバイスの前記画像およびポーズからの情報を保存すること(908)をさらに含む、請求項1から17のいずれか一項に記載の方法。 - 前記デバイスのカメラが見ている学習対象の前記デバイスの追跡対象ポーズを使用することと、
複数の追跡対象ポーズの各フレームからの複数の色分布を色特性が同様であるクラスタに分類することと、
前記デバイスの後続ポーズに基づき、後続のオクルージョンハンドリング工程中に前記複数の色分布の中から1つの色分布を選択し、使用することと、
に基づき、前記画像の前記フレーム、後続の画像フレーム、および前記デバイスの追跡対象ポーズを使用して、前記デバイスの前記追跡対象ポーズにおける範囲に対する色分布を学習すること(910)をさらに含む、請求項1から18のいずれか一項に記載の方法。 - 前記デバイスの前記カメラの視野に入る範囲に対する色分布を読み込むこと(1002)と、
その読み込んだ色分布を学習すること(1004)と、
その学習した色分布を保存すること(1006)と、
前記範囲を含む前記デバイスの後続ポーズに基づき、後続オクルージョンハンドリング工程中にその学習した色分布を使用すること(1008)と、
をさらに含む、請求項1から19のいずれか一項に記載の方法。 - 前記画像に対応する色、奥行き、およびデバイスポーズの情報を学習対象の別のデバイスに送信すること(1102)と、
前記クラスタのうちの1つにおける別の範囲に前記デバイスの前記カメラが移ると、前記デバイスの追跡対象ポーズに従って前記色分布を更新すること(1104)と、
前記クラスタに対応する前記色分布をダウンロードすること(1106)と、
をさらに含む、請求項1から28のいずれか一項に記載の方法。 - それぞれが色と奥行きの情報を含む2つのフレーム間のポーズ進展に基づき、前記1つまたは複数の画素のそれぞれを動くオブジェクトまたは静的オブジェクトの一部として分類すること(1202)と、
前記1つまたは複数の画素のそれぞれの動くオブジェクトまたは静的オブジェクトの一部としての分類を前記学習工程に加えること(1204)と、
をさらに含む、請求項1から21のいずれか一項に記載の方法。 - 前記オクルージョンオブジェクトをモデル化すること(1302)と、
前記オクルージョンオブジェクトに対する前記デバイスの前記ポーズを追跡すること(1304)と、
前記モデル化および追跡を使用して、前記少なくとも1つの画素分類画像を生成すること(1306)と、
をさらに含む、請求項1から22のいずれか一項に記載の方法。 - 前記1つおよび複数のフレームを使用して、前記少なくとも1つの画素分類画像を生成するのに再構成工程を適用すること(1402)をさらに含む、請求項1から23のいずれか一項に記載の方法。
- 前記フレームには複数の仮想オブジェクトが収まっており、
前記少なくとも1つの画素分類画像を前記生成すること(902)には前記複数の仮想オブジェクトが含まれ、
前記アルファマッティングプロセスを開始すること(904)には、前記複数の仮想オブジェクトが含まれ、
拡張現実画像の前記最終構成を前記レンダリングすること(906)には、前記複数の仮想オブジェクトが含まれる、
請求項1から24のいずれか一項に記載の方法。 - 前記少なくとも1つの画素分類画像には、各前景セグメントの画素が前景画素として分類される前記複数の仮想オブジェクトに対応する複数の前景セグメントがある前景、その画素が背景画素として分類される背景、および未知の画素がある、請求項25に記載の方法。
- 前記複数の仮想オブジェクトのそれぞれでは、前記複数の仮想オブジェクトのうちの1つの仮想オブジェクトに対応する前記前景セグメントの前記画素の灰色が、前記デバイスのセンサによって測定された最大間隔よりも短い奥行きがある前記画素のそれぞれに対する前記仮想オブジェクトに割り当てられた任意グレースケール値に基づき計算され、前記前景セグメントの前記画素が、前記デバイスの前記センサによって測定された最大間隔よりも長い奥行きがある前記画素のそれぞれに対する背景として分類される、請求項25から26のいずれか一項に記載の方法。
- 前記オクルージョンの奥行き情報に基づく前記オクルージョンオブジェクトの前記正規化奥行き画像が、その対応する奥行き値が、前記仮想オブジェクトまでの間隔Dよりも小さく、前記画素のうちの残りの画素の値が、Dにより近いそれより高い値を前記1つまたは複数の画素に割り当てる指数関数によって与えられる0~1の値である、前記1つまたは複数の画素を1に設定することにより計算される、請求項25から27のいずれか一項に記載の方法。
- アルファマスクを得て、前記未知の画素の色を決定するのに基づき、前記少なくとも1つの画素分類画像の複数の仮想オブジェクトと前記前景とを融合させるアルファマッティングプロセスを前記開始すること(904)は、前記1つまたは複数の未知の画素のそれぞれに対してアルファチャンネルを計算し、仮想オブジェクトの対応する仮想画素を加えることを含む、請求項1から25のいずれか一項に記載の方法。
- アルファマスクを得て、前記未知の画素の色を決定するのに基づき、前記少なくとも1つの画素分類画像の仮想オブジェクトと前記前景とを融合させるアルファマッティングプロセスを前記開始すること(904)が、
前記未知の画素と前記未知の画素のそれぞれの周りの領域Kを前記アルファマッティングプロセスを行うサーバに送信することであって、前記領域Kが前記画像における一場面に基づき決定される、送信することと、
前記未知の画素および前記領域Kの色を前記サーバから受信することと、
を含む、請求項1から29のいずれか一項に記載の方法。 - 前記デバイスが拡張現実デバイス(400)である、請求項1から30のいずれか一項に記載の方法。
- 前記デバイスがクラウドベースの中央処理装置(40)である、請求項1から31のいずれか一項に記載の方法。
- 前記デバイスに見える前記画像が新しい画像に変わると、サーバから、前記新しい画像に対する学習した色分布または3次元再構成のうちの1つまたは複数を読み込むこと(1502)と、
前記少なくとも1つの画素分類画像、前記アルファマスク、および前記画像の前記最終構成を削除すること(1504)と、をさらに含む、
請求項1から31のいずれか一項に記載の方法。 - 処理回路(410、810)と、
前記処理回路とつながっているメモリ(412、812)であって、前記処理回路によって実行されると、ネットワークコンピューティングデバイスに、
一フレームの少なくとも1つの画素分類画像を生成すること(902)であって、
前記少なくとも1つの画素分類画像には、オクルージョンオブジェクトが含まれ、その画素が前景画素として分類される前景、その画素が背景画素として分類される背景、および未知の画素を含む画素があり、
前記生成することが、(1)前記オクルージョンオブジェクトが収まっている画像の前記画素のうちの1つまたは複数のそれぞれに対する初期前景画素確率画像を、前景色確率分布から計算し、前記画素のうちの1つまたは複数の画素の前記それぞれが静的であるかまたは動的であるかの確率に基づき、前記画素のうちの1つまたは複数のそれぞれに対する初期背景画素確率画像を計算することと、(2)前記オクルージョンオブジェクトの奥行き情報に基づき、前記オクルージョンオブジェクトの正規化奥行き画像を計算することと、を含む、一フレームの少なくとも1つの画素分類画像を生成すること(902)と、
アルファマスクを得て、前記未知の画素の色を決定することに基づき、前記少なくとも1つの画素分類画像の仮想オブジェクトと前記前景とを融合させるアルファマッティングプロセスを開始すること(904)と、
前記少なくとも1つの画素分類画像における画素に前記アルファマスクを施すのに基づき、前記オクルージョンオブジェクトにオクルージョンされた前記仮想オブジェクトが収まっている拡張現実画像の最終構成をレンダリングすること(906)
を含む工程を行わせる命令が入っている、メモリ(412、812)と、で構成されているデバイス(400、40)。 - 前記メモリには、前記処理回路によって実行されると、前記ネットワークコンピューティングデバイスに請求項2から33のいずれか一項による工程を行わせる命令が入っている、請求項34に記載のデバイス(400、40)。
- 一フレームの少なくとも1つの画素分類画像を生成すること(902)であって、
前記少なくとも1つの画素分類画像には、オクルージョンオブジェクトが含まれ、その画素が前景画素として分類される前景、その画素が背景画素として分類される背景、および未知の画素があり、
前記生成することが、(1)前記オクルージョンオブジェクトが収まっている画像の前記画素のうちの1つまたは複数のそれぞれに対する初期前景画素確率画像を、前景色確率分布から計算し、前記画素のうちの1つまたは複数の前記それぞれが静的であるかまたは動的であるかの確率に基づき、前記画素のうちの1つまたは複数のそれぞれに対する初期背景画素確率画像を計算することと、(2)前記オクルージョンオブジェクトの奥行き情報に基づき、前記オクルージョンオブジェクトの正規化奥行き画像を計算することと、で構成されている、一フレームの少なくとも1つの画素分類画像を生成すること(902)と、
アルファマスクを得て、前記未知の画素の色を決定することに基づき、前記少なくとも1つの画素分類画像の仮想オブジェクトと前記前景とを融合させるアルファマッティングプロセスを開始すること(904)と、
前記少なくとも1つの画素分類画像における画素に前記アルファマスクを施すことに基づき、前記オクルージョンオブジェクトにオクルージョンされた前記仮想オブジェクトが収まっている拡張現実画像の最終構成をレンダリングすること(906)と、
が挙げられる工程を行うように適合されたデバイス(400、40)。 - 請求項2から33のいずれか一項に従って行うように適合された請求項36に記載のデバイス。
- デバイス(400、40)の処理回路(410、810)によって実行されるプログラムコードを含むコンピュータプログラムであって、それによって、前記プログラムコードの実行が、前記ネットワークコンピューティングデバイスに、
一フレームの少なくとも1つの画素分類画像を生成すること(902)であって、
前記少なくとも1つの画素分類画像には、オクルージョンオブジェクトが含まれ、その画素が前景画素として分類される前景、その画素が背景画素として分類される背景、および未知の画素を含む画素があり、
前記生成することが、(1)前記オクルージョンオブジェクトが収まっている画像の前記画素のうちの1つまたは複数のそれぞれに対する初期前景画素確率画像を、前景色確率分布から計算し、前記画素のうちの1つまたは複数のそれぞれが静的であるかまたは動的であるかの確率に基づき、前記画素のうちの1つまたは複数の前記それぞれに対する初期背景画素確率画像を計算することと、(2)前記オクルージョンオブジェクトの奥行き情報に基づき、前記オクルージョンオブジェクトの正規化奥行き画像を計算することと、を含む、一フレームの少なくとも1つの画素分類画像を生成すること(902)と、
アルファマスクを得て、前記未知の画素の色を決定することに基づき、前記少なくとも1つの画素分類画像の仮想オブジェクトと前記前景とを融合させるアルファマッティングプロセスを開始すること(904)と、
前記少なくとも1つの画素分類画像における画素に前記アルファマスクを施すことに基づき、前記オクルージョンオブジェクトにオクルージョンされた前記仮想オブジェクトが収まっている拡張現実画像の最終構成をレンダリングすること(906)と、
を含む工程を行わせる、コンピュータプログラム。 - 前記プログラムコードの実行が、前記デバイス(400、40)に、請求項2から33のいずれか一項による工程を行わせる、請求項38に記載のコンピュータプログラム。
- デバイス(400、40)の処理回路(410、810)によって実行されるプログラムコードが入っている非一時的記憶媒体を含むコンピュータプログラム製品であって、それによって、前記プログラムコードの実行が、前記デバイス(400、40)に、
一フレームの少なくとも1つの画素分類画像を生成すること(902)であって、
前記少なくとも1つの画素分類画像には、オクルージョンオブジェクトが含まれ、その画素が前景画素として分類される前景、その画素が背景画素として分類される背景、および未知の画素があり、
前記生成することが、(1)前記オクルージョンオブジェクトが収まっている画像の前記画素のうちの1つまたは複数のそれぞれに対する初期前景画素確率画像を、前景色確率分布から計算し、前記画素のうちの1つまたは複数のそれぞれが静的であるかまたは動的であるかの確率に基づき、前記画素のうちの1つまたは複数の前記それぞれに対する初期背景画素確率画像を計算することと、(2)前記オクルージョンオブジェクトの奥行き情報に基づき、前記オクルージョンオブジェクトの正規化奥行き画像を計算することと、を含む、一フレームの少なくとも1つの画素分類画像を生成すること(902)と、
アルファマスクを得て、前記未知の画素の色を決定することに基づき、前記少なくとも1つの画素分類画像の仮想オブジェクトと前記前景とを融合させるアルファマッティングプロセスを開始すること(904)と、
前記少なくとも1つの画素分類画像における画素に前記アルファマスクを施すことに基づき、前記オクルージョンオブジェクトにオクルージョンされた前記仮想オブジェクトが収まっている拡張現実画像の最終構成をレンダリングすること(906)と、
を含む工程を行わせる、コンピュータプログラム製品。 - 前記プログラムコードの実行が、前記デバイス(400、40)に、請求項2から33のいずれか一項による工程を行わせる、請求項40に記載のコンピュータプログラム製品。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2019/085191 WO2021115623A1 (en) | 2019-12-13 | 2019-12-13 | Methods for handling occlusion in augmented reality applications using memory and device tracking and related apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023505900A true JP2023505900A (ja) | 2023-02-13 |
JP7461478B2 JP7461478B2 (ja) | 2024-04-03 |
Family
ID=69056007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022535825A Active JP7461478B2 (ja) | 2019-12-13 | 2019-12-13 | メモリおよびデバイスのトラッキングを使用する拡張現実アプリケーションにおけるオクルージョンハンドリングのための方法と関連装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230014448A1 (ja) |
EP (1) | EP4073762A1 (ja) |
JP (1) | JP7461478B2 (ja) |
AU (1) | AU2019477545B2 (ja) |
WO (1) | WO2021115623A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115937379A (zh) * | 2021-08-16 | 2023-04-07 | 北京字跳网络技术有限公司 | 一种特效生成方法、装置、电子设备及存储介质 |
US20230112186A1 (en) * | 2021-10-13 | 2023-04-13 | Adobe Inc. | Generating improved alpha mattes for digital images based on pixel classification probabilities across alpha-range classifications |
WO2023087959A1 (zh) * | 2021-11-22 | 2023-05-25 | 华为技术有限公司 | 图像合成方法、装置、电子设备和计算机可读存储介质 |
CN114677392B (zh) * | 2022-05-27 | 2022-09-16 | 珠海视熙科技有限公司 | 抠图方法、摄像设备、装置、会议系统、电子设备及介质 |
US11704864B1 (en) * | 2022-07-28 | 2023-07-18 | Katmai Tech Inc. | Static rendering for a combination of background and foreground objects |
CN115830112B (zh) * | 2022-11-25 | 2023-09-22 | 之江实验室 | 一种基于手持实物的混合现实交互方法和系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7420590B2 (en) * | 2005-09-29 | 2008-09-02 | Mitsubishi Electric Research Laboratories, Inc. | Video matting using camera arrays |
US10089740B2 (en) * | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
CN105590312B (zh) | 2014-11-12 | 2018-05-18 | 株式会社理光 | 前景图像分割方法和装置 |
US10665019B2 (en) | 2016-03-24 | 2020-05-26 | Qualcomm Incorporated | Spatial relationships for integration of visual images of physical environment into virtual reality |
US10275892B2 (en) | 2016-06-09 | 2019-04-30 | Google Llc | Multi-view scene segmentation and propagation |
-
2019
- 2019-12-13 EP EP19828645.2A patent/EP4073762A1/en active Pending
- 2019-12-13 JP JP2022535825A patent/JP7461478B2/ja active Active
- 2019-12-13 US US17/784,697 patent/US20230014448A1/en active Pending
- 2019-12-13 AU AU2019477545A patent/AU2019477545B2/en active Active
- 2019-12-13 WO PCT/EP2019/085191 patent/WO2021115623A1/en unknown
Also Published As
Publication number | Publication date |
---|---|
WO2021115623A1 (en) | 2021-06-17 |
AU2019477545A1 (en) | 2022-07-07 |
AU2019477545B2 (en) | 2023-10-19 |
EP4073762A1 (en) | 2022-10-19 |
JP7461478B2 (ja) | 2024-04-03 |
US20230014448A1 (en) | 2023-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7461478B2 (ja) | メモリおよびデバイスのトラッキングを使用する拡張現実アプリケーションにおけるオクルージョンハンドリングのための方法と関連装置 | |
CN107993216B (zh) | 一种图像融合方法及其设备、存储介质、终端 | |
US11010967B2 (en) | Three dimensional content generating apparatus and three dimensional content generating method thereof | |
US11595737B2 (en) | Method for embedding advertisement in video and computer device | |
JP6438403B2 (ja) | 結合された深度キューに基づく平面視画像からの深度マップの生成 | |
US10360732B2 (en) | Method and system of determining object positions for image processing using wireless network angle of transmission | |
US9905039B2 (en) | View independent color equalized 3D scene texturing | |
CN110163076B (zh) | 一种图像数据处理方法和相关装置 | |
KR20190128686A (ko) | 이미지 내의 객체 자세를 결정하는 방법 및 장치, 장비, 및 저장 매체 | |
CN115699114B (zh) | 用于分析的图像增广的方法和装置 | |
TWI672638B (zh) | 影像處理方法、非暫態電腦可讀取媒體以及影像處理系統 | |
JP2018124984A (ja) | モバイル装置の環境の3d再構成のための方法および対応するコンピュータ・プログラム・プロダクトおよび装置 | |
CN110648397A (zh) | 场景地图生成方法、装置、存储介质及电子设备 | |
US10438405B2 (en) | Detection of planar surfaces for use in scene modeling of a captured scene | |
CN114663502A (zh) | 物体姿态估计、图像处理方法及相关设备 | |
US20170064279A1 (en) | Multi-view 3d video method and system | |
US20240037788A1 (en) | 3d pose estimation in robotics | |
CN113505799B (zh) | 显著性检测方法及其模型的训练方法和装置、设备、介质 | |
CN112258610A (zh) | 图像标注方法、装置、存储介质及电子设备 | |
JP6817742B2 (ja) | 情報処理装置およびその制御方法 | |
US11451758B1 (en) | Systems, methods, and media for colorizing grayscale images | |
CN116740261A (zh) | 图像重建方法和装置、图像重建模型的训练方法和装置 | |
CN114723809A (zh) | 估计物体姿态的方法和装置、电子设备 | |
CN116228850A (zh) | 物体姿态估计方法、装置、电子设备及可读存储介质 | |
WO2020114585A1 (en) | Object location determination in frames of a video stream |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220823 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220823 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240322 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7461478 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |