JP2019526847A - 動的オクルージョン処理のためのシステム及び方法 - Google Patents
動的オクルージョン処理のためのシステム及び方法 Download PDFInfo
- Publication number
- JP2019526847A JP2019526847A JP2018567839A JP2018567839A JP2019526847A JP 2019526847 A JP2019526847 A JP 2019526847A JP 2018567839 A JP2018567839 A JP 2018567839A JP 2018567839 A JP2018567839 A JP 2018567839A JP 2019526847 A JP2019526847 A JP 2019526847A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- edge point
- depth map
- processing system
- boundary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 195
- 238000000034 method Methods 0.000 title claims description 109
- 238000009499 grossing Methods 0.000 claims description 25
- 238000005457 optimization Methods 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 88
- 238000009877 rendering Methods 0.000 description 26
- 230000000007 visual effect Effects 0.000 description 22
- 230000008901 benefit Effects 0.000 description 14
- 239000011521 glass Substances 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 13
- 238000012800 visualization Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000001914 filtration Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 210000003811 finger Anatomy 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000008439 repair process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000576 supplementary effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2016年6月27日に出願された米国仮出願特許第62/354,891号の利益を主張するものである。この文献は、参照により、その全体が本願に組み込まれる。
本開示は、深度マップを向上させるためのシステム及び方法に関し、より詳細には、向上させた深度マップを用いる、動的オクルージョン処理に関する。
拡張現実(AR)は、現実世界環境に、仮想世界環境(例えば、コンピュータによって生成された入力)を合わせた複合ビューを提供する技術に関する。深度の正確な知覚は、現実的でシームレスなAR体験を提供するために必要とされることが多い。例えば、AR支援による保守タスク及び製造タスクにおいては、ユーザと、現実の物体及び仮想の物体の両物体とが相互作用する傾向が高い。しかしながら、深度が正確に知覚されなければ、現実世界のシーンと仮想世界のシーンとの間で適切なオクルージョン処理が行われた、シームレスなインタラクション体験を提供することは困難である。
以下は、下記において詳細に説明する特定の実施の形態の概要である。説明する態様は、単に、それらの特定の実施の形態の簡単な概要を読み手に提供するために表されたものに過ぎず、それらの態様の説明は、本開示の範囲を限定することを意図したものではない。実際には、本開示は、下記において明示していない場合もある種々の態様を含んでいると考えられる。
例示的に図示及び説明した上述の実施の形態及びそれらの実施の形態の多数の利点は、前記の説明によって理解されるであろう。また、本開示の対象から逸脱することなく、又はその本開示の対象の利点のうちの1つ又は複数を断念することなく、コンポーネントの形状、構造、及び構成について種々の変更を行えることは自明であろう。実際には、それらの実施の形態の説明した形状は、単に例示的なものに過ぎない。それらの実施の形態については、種々の修正形態及び代替的な形状が可能であり、また、添付の特許請求の範囲に記載の事項は、そのような変更を達成及び包含することを意図したものであり、開示した特定の形状に限定することを意図したものではなく、むしろ本開示の精神及び範囲に含まれるあらゆる修正形態、等価形態、及び代替形態を対象とすることを意図したものである。
E=ΣiEd(i,k)+λSΣi,jES(i,k,j,l) [式5]
ここで、λSは、平滑化制約の重要性に影響を及ぼす。1つの実施例において、離散最適化問題のこのクラスは、解空間における最適経路を識別する動的プログラミングによって、効率的に解決される。
H(i+1,l)=H(i+1,l)+mink{H(i,k)+ES(i,k,i+1,l)} [式6]
Claims (20)
- 少なくとも1つの処理ユニットを含む処理システムを備えているコンピューティングシステムにおいて、
前記処理システムは、
物体の第1の境界を有する深度マップの受信と、
前記深度マップに対応し、かつ、前記物体の第2の境界を含むカラー画像の受信と、
前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
を含む方法を実施するように構成されている、
コンピューティングシステム。 - 前記処理システムは、深度センサ及びカメラを含むヘッドマウントディスプレイと通信し、
前記処理システムは、前記深度センサから前記深度マップを受信し、かつ、前記カメラから前記カラー画像を受信する、請求項1に記載のコンピューティングシステム。 - 前記処理システムは、
(a)前記深度エッジ点を所定のグループにグループ分けし、
(b)前記グループ内の前記深度エッジ点を順序付け、
(c)ローパスフィルタを用いて、前記深度エッジ点の2D位置を平滑にし、
(d)前記深度エッジ点に関して2D法線セグメントを計算する、
ように構成されている、請求項1に記載のコンピューティングシステム。 - 前記処理システムは、少なくとも画像勾配データを基礎として、前記カラー画像における前記カラーエッジ点について候補検索を実行するように構成されており、
前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項3に記載のコンピューティングシステム。 - 前記処理システムは、
(a)前記深度エッジ点を前記ターゲット深度エッジ点へと移動させるための最適経路を求めるために、データコスト及び平滑化コストを考慮しながら離散最適化計算を実行し、
(b)前記深度エッジ点を、前記最適経路に沿って、前記ターゲット深度エッジ点へと移動させる、
ように構成されている、請求項1に記載のコンピューティングシステム。 - 前記処理システムは、前記向上させた深度マップを基礎として、動的オクルージョン処理を実行するように構成されている、請求項1に記載のコンピューティングシステム。
- 前記処理システムは、前記向上させた深度マップの深度データを、ビデオビューから、拡張現実用途のための眼鏡ビューに変換するように構成されている、請求項1に記載のコンピューティングシステム。
- 動的オクルージョン処理のためのシステムにおいて、
前記システムは、
深度マップを提供する深度センサと、
カラー画像を提供するカメラと、
少なくとも1つの処理ユニットを含む処理システムと、
を備えており、
前記処理システムは、
物体の第1の境界を有する前記深度マップの受信と、
前記深度マップに対応し、かつ、前記物体の第2の境界を含む前記カラー画像の受信と、
前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
を含む方法を実施するように構成されている、
動的オクルージョン処理のためのシステム。 - さらに、前記深度センサ及び前記カメラが取り付けられているヘッドマウントディスプレイを備えている、請求項8に記載のシステム。
- 前記処理システムは、
(a)前記深度エッジ点を所定のグループにグループ分けし、
(b)前記グループ内の前記深度エッジ点を順序付け、
(c)ローパスフィルタを用いて、前記深度エッジ点の2D位置を平滑にし、
(d)前記深度エッジ点に関して2D法線セグメントを計算する、
ように構成されている、請求項8に記載のシステム。 - 前記処理システムは、少なくとも画像勾配データを基礎として、前記カラー画像における前記カラーエッジ点について候補検索を実行するように構成されており、
前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項8に記載のシステム。 - 前記処理システムは、
(a)前記深度エッジ点を前記ターゲット深度エッジ点へと移動させるための最適経路を求めるために、データコスト及び平滑化コストを考慮しながら離散最適化計算を実行し、
(b)前記深度エッジ点を、前記最適経路に沿って、前記ターゲット深度エッジ点へと移動させる、
ように構成されている、請求項8に記載のシステム。 - 前記処理システムは、前記向上させた深度マップを基礎として、動的オクルージョン処理を実行するように構成されている、請求項8に記載のシステム。
- 前記処理システムは、前記向上させた深度マップの深度データを、ビデオビューから、拡張現実用途のための眼鏡ビューに変換するように構成されている、請求項8に記載のシステム。
- コンピュータ実施方法において、
物体の第1の境界を有する深度マップの受信と、
前記深度マップに対応し、かつ、前記物体の第2の境界を含むカラー画像の受信と、
前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
を含む、コンピュータ実施方法。 - さらに、
前記深度エッジ点の、所定のグループへのグループ分けと、
深度エッジ点の前記グループの順序付けと、
ローパスフィルタを用いた、前記深度エッジ点の2D位置の平滑化と、
前記深度エッジ点に関する2D法線セグメントの計算と、
を含む、請求項15に記載のコンピュータ実施方法。 - さらに、
少なくとも画像勾配データを基礎とした、前記カラー画像における前記カラーエッジ点についての候補検索の実行を含み、
前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項15に記載のコンピュータ実施方法。 - さらに、
前記深度エッジ点を前記ターゲット深度エッジ点にスナップさせる最適経路を求めるための、データコスト及び平滑化コストを考慮した離散最適化計算の実行を含み、
前記深度エッジ点は、前記最適経路に沿って、前記ターゲット深度エッジ点にスナップされる、請求項15に記載のコンピュータ実施方法。 - さらに、
前記向上させた深度マップを基礎とする、動的オクルージョン処理の実行を含む、請求項15に記載のコンピュータ実施方法。 - さらに、
前記向上させた深度マップの深度データの、ビデオビューから、拡張現実用途のための眼鏡ビューへの変換を含む、請求項15に記載のコンピュータ実施方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662354891P | 2016-06-27 | 2016-06-27 | |
US62/354,891 | 2016-06-27 | ||
PCT/US2017/039278 WO2018005359A1 (en) | 2016-06-27 | 2017-06-26 | Systems and methods for dynamic occlusion handling |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019526847A true JP2019526847A (ja) | 2019-09-19 |
JP6813600B2 JP6813600B2 (ja) | 2021-01-13 |
Family
ID=60675555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018567839A Active JP6813600B2 (ja) | 2016-06-27 | 2017-06-26 | 動的オクルージョン処理のためのシステム及び方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10706613B2 (ja) |
EP (1) | EP3475923A4 (ja) |
JP (1) | JP6813600B2 (ja) |
KR (1) | KR102337931B1 (ja) |
CN (1) | CN109844819A (ja) |
AU (1) | AU2017288933B2 (ja) |
BR (1) | BR112018077095A8 (ja) |
WO (1) | WO2018005359A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172692A1 (ja) * | 2021-02-12 | 2022-08-18 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、画像処理システム |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10645357B2 (en) * | 2018-03-01 | 2020-05-05 | Motorola Mobility Llc | Selectively applying color to an image |
US10643336B2 (en) * | 2018-03-06 | 2020-05-05 | Sony Corporation | Image processing apparatus and method for object boundary stabilization in an image of a sequence of images |
CN109035375B (zh) * | 2018-06-22 | 2023-11-10 | 广州久邦世纪科技有限公司 | 一种基于OpenGL的3D眼镜渲染方法及其系统 |
CN110072046B (zh) * | 2018-08-24 | 2020-07-31 | 北京微播视界科技有限公司 | 图像合成方法和装置 |
US11227446B2 (en) * | 2019-09-27 | 2022-01-18 | Apple Inc. | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality |
US11348319B1 (en) * | 2020-01-22 | 2022-05-31 | Facebook Technologies, Llc. | 3D reconstruction of a moving object |
CN111275827B (zh) | 2020-02-25 | 2023-06-16 | 北京百度网讯科技有限公司 | 基于边缘的增强现实三维跟踪注册方法、装置和电子设备 |
US11107280B1 (en) * | 2020-02-28 | 2021-08-31 | Facebook Technologies, Llc | Occlusion of virtual objects in augmented reality by physical objects |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
US11741671B2 (en) | 2021-06-16 | 2023-08-29 | Samsung Electronics Co., Ltd. | Three-dimensional scene recreation using depth fusion |
US11887267B2 (en) | 2021-07-07 | 2024-01-30 | Meta Platforms Technologies, Llc | Generating and modifying representations of hands in an artificial reality environment |
WO2023070421A1 (en) * | 2021-10-28 | 2023-05-04 | Intel Corporation | Methods and apparatus to perform mask-based depth enhancement for multi-view systems |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7787678B2 (en) * | 2005-10-07 | 2010-08-31 | Siemens Corporation | Devices, systems, and methods for processing images |
JP4789745B2 (ja) | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
JP5909187B2 (ja) * | 2009-10-14 | 2016-04-26 | トムソン ライセンシングThomson Licensing | フィルタ処理およびエッジ符号化 |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
CA2803028C (en) * | 2010-06-29 | 2019-03-12 | 3Shape A/S | 2d image arrangement |
US8774267B2 (en) * | 2010-07-07 | 2014-07-08 | Spinella Ip Holdings, Inc. | System and method for transmission, processing, and rendering of stereoscopic and multi-view images |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
KR101972356B1 (ko) * | 2010-12-21 | 2019-04-25 | 한국전자통신연구원 | 상반신 검출장치 및 검출방법 |
WO2013173749A1 (en) * | 2012-05-17 | 2013-11-21 | The Regents Of The University Of California | Sampling-based multi-lateral filter method for depth map enhancement and codec |
US9036907B2 (en) * | 2012-07-16 | 2015-05-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for extracting depth edges from images acquired of scenes by cameras with ring flashes forming hue circles |
US10455219B2 (en) | 2012-11-30 | 2019-10-22 | Adobe Inc. | Stereo correspondence and depth sensors |
RU2013106513A (ru) * | 2013-02-14 | 2014-08-20 | ЭлЭсАй Корпорейшн | Способ и устройство для улучшения изображения и подтверждения границ с использованием по меньшей мере одного дополнительного изображения |
US9514574B2 (en) | 2013-08-30 | 2016-12-06 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
US9363499B2 (en) * | 2013-11-15 | 2016-06-07 | Htc Corporation | Method, electronic device and medium for adjusting depth values |
US9754377B2 (en) * | 2014-08-15 | 2017-09-05 | Illinois Institute Of Technology | Multi-resolution depth estimation using modified census transform for advanced driver assistance systems |
JP2016048467A (ja) | 2014-08-27 | 2016-04-07 | Kddi株式会社 | 運動視差再現方法、装置およびプログラム |
US9824412B2 (en) * | 2014-09-24 | 2017-11-21 | Intel Corporation | Position-only shading pipeline |
US20160140761A1 (en) | 2014-11-19 | 2016-05-19 | Microsoft Technology Licensing, Llc. | Using depth information for drawing in augmented reality scenes |
-
2017
- 2017-06-26 BR BR112018077095A patent/BR112018077095A8/pt unknown
- 2017-06-26 WO PCT/US2017/039278 patent/WO2018005359A1/en unknown
- 2017-06-26 KR KR1020197002344A patent/KR102337931B1/ko active IP Right Grant
- 2017-06-26 CN CN201780052439.0A patent/CN109844819A/zh active Pending
- 2017-06-26 JP JP2018567839A patent/JP6813600B2/ja active Active
- 2017-06-26 US US15/633,221 patent/US10706613B2/en active Active
- 2017-06-26 AU AU2017288933A patent/AU2017288933B2/en active Active
- 2017-06-26 EP EP17821009.2A patent/EP3475923A4/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022172692A1 (ja) * | 2021-02-12 | 2022-08-18 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、画像処理システム |
Also Published As
Publication number | Publication date |
---|---|
BR112018077095A8 (pt) | 2023-04-04 |
US10706613B2 (en) | 2020-07-07 |
JP6813600B2 (ja) | 2021-01-13 |
BR112018077095A2 (pt) | 2019-04-02 |
WO2018005359A1 (en) | 2018-01-04 |
AU2017288933A1 (en) | 2019-02-14 |
KR20190014105A (ko) | 2019-02-11 |
EP3475923A4 (en) | 2020-01-01 |
AU2017288933B2 (en) | 2021-09-23 |
EP3475923A1 (en) | 2019-05-01 |
US20170372510A1 (en) | 2017-12-28 |
CN109844819A (zh) | 2019-06-04 |
KR102337931B1 (ko) | 2021-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6813600B2 (ja) | 動的オクルージョン処理のためのシステム及び方法 | |
Du et al. | Edge snapping-based depth enhancement for dynamic occlusion handling in augmented reality | |
US9141873B2 (en) | Apparatus for measuring three-dimensional position, method thereof, and program | |
EP1969560B1 (en) | Edge-controlled morphological closing in segmentation of video sequences | |
EP1969562B1 (en) | Edge-guided morphological closing in segmentation of video sequences | |
TWI536318B (zh) | 深度測量之品質提升 | |
KR102464523B1 (ko) | 이미지 속성 맵을 프로세싱하기 위한 방법 및 장치 | |
RU2721175C2 (ru) | Способ и устройство для определения карты глубины для изображения | |
CN109462747B (zh) | 基于生成对抗网络的dibr系统空洞填充方法 | |
US20090028432A1 (en) | Segmentation of Video Sequences | |
JP2015188234A (ja) | グローバル動きに基づく深度の推定 | |
WO2012071356A1 (en) | Depth estimation based on global motion | |
CN110140151A (zh) | 用于生成光强度图像的装置和方法 | |
Hernandez et al. | Near laser-scan quality 3-D face reconstruction from a low-quality depth stream | |
WO2020130070A1 (ja) | 検出装置、情報処理装置、検出方法、及び情報処理プログラム | |
Jang et al. | Discontinuity preserving disparity estimation with occlusion handling | |
CN106251348A (zh) | 一种面向深度相机的自适应多线索融合背景减除方法 | |
KR20110021500A (ko) | 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치 | |
EP4200799A1 (en) | Spatiotemporal recycling network | |
KR101099648B1 (ko) | 입체 영상에서의 폐색을 처리하는 입체 정합 시스템 및 방법, 폐색 처리 알고리즘을 기록한 컴퓨터에 의해 판독가능한 매체 | |
GB2585197A (en) | Method and system for obtaining depth data | |
JP2017102896A (ja) | シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置 | |
JP5728399B2 (ja) | 計測装置、方法及びプログラム | |
KR102102369B1 (ko) | 정합 성능 추정 방법 및 장치 | |
JP7024401B2 (ja) | 情報処理装置、プログラム、及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200601 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201016 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201016 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201027 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6813600 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |