JP6813600B2 - 動的オクルージョン処理のためのシステム及び方法 - Google Patents
動的オクルージョン処理のためのシステム及び方法 Download PDFInfo
- Publication number
- JP6813600B2 JP6813600B2 JP2018567839A JP2018567839A JP6813600B2 JP 6813600 B2 JP6813600 B2 JP 6813600B2 JP 2018567839 A JP2018567839 A JP 2018567839A JP 2018567839 A JP2018567839 A JP 2018567839A JP 6813600 B2 JP6813600 B2 JP 6813600B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- edge point
- depth map
- processing system
- depth edge
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 184
- 238000000034 method Methods 0.000 title claims description 116
- 230000008569 process Effects 0.000 claims description 94
- 238000009499 grossing Methods 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 6
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000009877 rendering Methods 0.000 description 28
- 230000000007 visual effect Effects 0.000 description 22
- 230000006872 improvement Effects 0.000 description 15
- 238000005457 optimization Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 14
- 238000012800 visualization Methods 0.000 description 13
- 230000008901 benefit Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 210000000038 chest Anatomy 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000008439 repair process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Description
本願は、2016年6月27日に出願された米国仮出願特許第62/354,891号の利益を主張するものである。この文献は、参照により、その全体が本願に組み込まれる。
本開示は、深度マップを向上させるためのシステム及び方法に関し、より詳細には、向上させた深度マップを用いる、動的オクルージョン処理に関する。
拡張現実(AR)は、現実世界環境に、仮想世界環境(例えば、コンピュータによって生成された入力)を合わせた複合ビューを提供する技術に関する。深度の正確な知覚は、現実的でシームレスなAR体験を提供するために必要とされることが多い。例えば、AR支援による保守タスク及び製造タスクにおいては、ユーザと、現実の物体及び仮想の物体の両物体とが相互作用する傾向が高い。しかしながら、深度が正確に知覚されなければ、現実世界のシーンと仮想世界のシーンとの間で適切なオクルージョン処理が行われた、シームレスなインタラクション体験を提供することは困難である。
以下は、下記において詳細に説明する特定の実施の形態の概要である。説明する態様は、単に、それらの特定の実施の形態の簡単な概要を読み手に提供するために表されたものに過ぎず、それらの態様の説明は、本開示の範囲を限定することを意図したものではない。実際には、本開示は、下記において明示していない場合もある種々の態様を含んでいると考えられる。
例示的に図示及び説明した上述の実施の形態及びそれらの実施の形態の多数の利点は、前記の説明によって理解されるであろう。また、本開示の対象から逸脱することなく、又はその本開示の対象の利点のうちの1つ又は複数を断念することなく、コンポーネントの形状、構造、及び構成について種々の変更を行えることは自明であろう。実際には、それらの実施の形態の説明した形状は、単に例示的なものに過ぎない。それらの実施の形態については、種々の修正形態及び代替的な形状が可能であり、また、添付の特許請求の範囲に記載の事項は、そのような変更を達成及び包含することを意図したものであり、開示した特定の形状に限定することを意図したものではなく、むしろ本開示の精神及び範囲に含まれるあらゆる修正形態、等価形態、及び代替形態を対象とすることを意図したものである。
E=ΣiEd(i,k)+λSΣi,jES(i,k,j,l) [式5]
ここで、λSは、平滑化制約の重要性に影響を及ぼす。1つの実施例において、離散最適化問題のこのクラスは、解空間における最適経路を識別する動的プログラミングによって、効率的に解決される。
H(i+1,l)=H(i+1,l)+mink{H(i,k)+ES(i,k,i+1,l)} [式6]
Claims (17)
- 少なくとも1つの処理ユニットを含む処理システムを備えているコンピューティングシステムにおいて、
前記処理システムは、
物体の第1の境界を有する深度マップの受信と、
前記深度マップに対応し、かつ、前記物体の第2の境界を含むカラー画像の受信と、
前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
画像勾配データを含むデータ項及び平滑化コストに関連する平滑化項を少なくとも基礎とするエネルギ関数の最適化による、対応する候補の中からの、前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
を含む方法を実施するように構成されており、
前記処理システムは、
(a)前記深度エッジ点を所定のグループにグループ分けし、
(b)前記グループ内の前記深度エッジ点を順序付け、
(c)ローパスフィルタを用いて、前記深度エッジ点の2D位置を平滑にし、
(d)前記深度エッジ点に関して2D法線セグメントを計算する、
ように構成されており、
前記処理システムは、連続する深度エッジ点p i 及びp j のペアに関して、深度エッジ点p i を候補c i,k に、深度エッジ点p j を候補c j,l にスナップする前記平滑化コストを次式:
コンピューティングシステム。 - 前記処理システムは、深度センサ及びカメラを含むヘッドマウントディスプレイと通信し、
前記処理システムは、前記深度センサから前記深度マップを受信し、かつ、前記カメラから前記カラー画像を受信する、請求項1に記載のコンピューティングシステム。 - 前記処理システムは、少なくとも画像勾配データを基礎として、前記カラー画像における前記カラーエッジ点について候補検索を実行するように構成されており、
前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項1に記載のコンピューティングシステム。 - 前記処理システムは、前記向上させた深度マップを基礎として、動的オクルージョン処理を実行するように構成されている、請求項1に記載のコンピューティングシステム。
- 前記処理システムは、前記向上させた深度マップの深度データを、ビデオビューから、拡張現実用途のための眼鏡ビューに変換するように構成されている、請求項1に記載のコンピューティングシステム。
- 動的オクルージョン処理のためのシステムにおいて、
前記システムは、
深度マップを提供する深度センサと、
カラー画像を提供するカメラと、
少なくとも1つの処理ユニットを含む処理システムと、
を備えており、
前記処理システムは、
物体の第1の境界を有する前記深度マップの受信と、
前記深度マップに対応し、かつ、前記物体の第2の境界を含む前記カラー画像の受信と、
前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
画像勾配データを含むデータ項及び平滑化コストに関連する平滑化項を少なくとも基礎とするエネルギ関数の最適化による、対応する候補の中からの、前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
を含む方法を実施するように構成されており、
前記処理システムは、
(a)前記深度エッジ点を所定のグループにグループ分けし、
(b)前記グループ内の前記深度エッジ点を順序付け、
(c)ローパスフィルタを用いて、前記深度エッジ点の2D位置を平滑にし、
(d)前記深度エッジ点に関して2D法線セグメントを計算する、
ように構成されており、
前記処理システムは、連続する深度エッジ点p i 及びp j のペアに関して、深度エッジ点p i を候補c i,k に、深度エッジ点p j を候補c j,l にスナップする前記平滑化コストを次式:
動的オクルージョン処理のためのシステム。 - さらに、前記深度センサ及び前記カメラが取り付けられているヘッドマウントディスプレイを備えている、請求項7に記載のシステム。
- 前記処理システムは、少なくとも画像勾配データを基礎として、前記カラー画像における前記カラーエッジ点について候補検索を実行するように構成されており、
前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項7に記載のシステム。 - 前記処理システムは、前記向上させた深度マップを基礎として、動的オクルージョン処理を実行するように構成されている、請求項7に記載のシステム。
- 前記処理システムは、前記向上させた深度マップの深度データを、ビデオビューから、拡張現実用途のための眼鏡ビューに変換するように構成されている、請求項7に記載のシステム。
- コンピュータ実施方法において、
物体の第1の境界を有する深度マップの受信と、
前記深度マップに対応し、かつ、前記物体の第2の境界を含むカラー画像の受信と、
前記深度マップからの前記第1の境界の深度エッジ点の抽出と、
画像勾配データを含むデータ項及び平滑化コストに関連する平滑化項を少なくとも基礎とするエネルギ関数の最適化による、対応する候補の中からの、前記深度マップにおける、前記カラー画像内の前記物体の前記第2の境界のカラーエッジ点に対応するターゲット深度エッジ点の識別と、
前記物体に関する物体の境界を用いて前記深度マップを向上させるための、前記ターゲット深度エッジ点への前記深度エッジ点のスナップと、
を含み、
さらに、
前記深度エッジ点の、所定のグループへのグループ分けと、
深度エッジ点の前記グループの順序付けと、
ローパスフィルタを用いた、前記深度エッジ点の2D位置の平滑化と、
前記深度エッジ点に関する2D法線セグメントの計算と、
を含み、
さらに、
連続する深度エッジ点p i 及びp j のペアに関して、深度エッジ点p i を候補c i,k に、深度エッジ点p j を候補c j,l にスナップする前記平滑化コストの、次式:
ここで、d max は、連続する深度エッジ点の前記ペアに対して許容される最大不一致度を定義するパラメータである、
コンピュータ実施方法。 - さらに、
少なくとも画像勾配データを基礎とした、前記カラー画像における前記カラーエッジ点についての候補検索の実行を含み、
前記候補検索は、前記深度マップの前記2D法線セグメントに対応する前記カラー画像上の点の所定の範囲内で行われる、請求項13に記載のコンピュータ実施方法。 - さらに、
前記向上させた深度マップを基礎とする、動的オクルージョン処理の実行を含む、請求項13に記載のコンピュータ実施方法。 - さらに、
前記向上させた深度マップの深度データの、ビデオビューから、拡張現実用途のための眼鏡ビューへの変換を含む、請求項13に記載のコンピュータ実施方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662354891P | 2016-06-27 | 2016-06-27 | |
US62/354,891 | 2016-06-27 | ||
PCT/US2017/039278 WO2018005359A1 (en) | 2016-06-27 | 2017-06-26 | Systems and methods for dynamic occlusion handling |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019526847A JP2019526847A (ja) | 2019-09-19 |
JP6813600B2 true JP6813600B2 (ja) | 2021-01-13 |
Family
ID=60675555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018567839A Active JP6813600B2 (ja) | 2016-06-27 | 2017-06-26 | 動的オクルージョン処理のためのシステム及び方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10706613B2 (ja) |
EP (1) | EP3475923A4 (ja) |
JP (1) | JP6813600B2 (ja) |
KR (1) | KR102337931B1 (ja) |
CN (1) | CN109844819A (ja) |
AU (1) | AU2017288933B2 (ja) |
BR (1) | BR112018077095A8 (ja) |
WO (1) | WO2018005359A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10645357B2 (en) * | 2018-03-01 | 2020-05-05 | Motorola Mobility Llc | Selectively applying color to an image |
US10643336B2 (en) | 2018-03-06 | 2020-05-05 | Sony Corporation | Image processing apparatus and method for object boundary stabilization in an image of a sequence of images |
CN109035375B (zh) * | 2018-06-22 | 2023-11-10 | 广州久邦世纪科技有限公司 | 一种基于OpenGL的3D眼镜渲染方法及其系统 |
CN110072046B (zh) * | 2018-08-24 | 2020-07-31 | 北京微播视界科技有限公司 | 图像合成方法和装置 |
US11348319B1 (en) * | 2020-01-22 | 2022-05-31 | Facebook Technologies, Llc. | 3D reconstruction of a moving object |
CN111275827B (zh) * | 2020-02-25 | 2023-06-16 | 北京百度网讯科技有限公司 | 基于边缘的增强现实三维跟踪注册方法、装置和电子设备 |
US11107280B1 (en) * | 2020-02-28 | 2021-08-31 | Facebook Technologies, Llc | Occlusion of virtual objects in augmented reality by physical objects |
JP2022123692A (ja) * | 2021-02-12 | 2022-08-24 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、画像処理システム |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
US11741671B2 (en) | 2021-06-16 | 2023-08-29 | Samsung Electronics Co., Ltd. | Three-dimensional scene recreation using depth fusion |
US11887267B2 (en) | 2021-07-07 | 2024-01-30 | Meta Platforms Technologies, Llc | Generating and modifying representations of hands in an artificial reality environment |
CN117581258A (zh) * | 2021-10-28 | 2024-02-20 | 英特尔公司 | 用于针对多视图系统执行基于掩码的深度增强的方法和装置 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7787678B2 (en) * | 2005-10-07 | 2010-08-31 | Siemens Corporation | Devices, systems, and methods for processing images |
JP4789745B2 (ja) | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
KR101807886B1 (ko) * | 2009-10-14 | 2017-12-11 | 돌비 인터네셔널 에이비 | 깊이 맵 처리를 위한 방법 및 디바이스 |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
EP3851069B1 (en) * | 2010-06-29 | 2023-01-18 | 3Shape A/S | 2d image arrangement |
US8774267B2 (en) | 2010-07-07 | 2014-07-08 | Spinella Ip Holdings, Inc. | System and method for transmission, processing, and rendering of stereoscopic and multi-view images |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
KR101972356B1 (ko) * | 2010-12-21 | 2019-04-25 | 한국전자통신연구원 | 상반신 검출장치 및 검출방법 |
US9349169B2 (en) * | 2012-05-17 | 2016-05-24 | The Regents Of The University Of California | Sampling-based multi-lateral filter method for depth map enhancement and codec |
US9036907B2 (en) | 2012-07-16 | 2015-05-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for extracting depth edges from images acquired of scenes by cameras with ring flashes forming hue circles |
US10455219B2 (en) | 2012-11-30 | 2019-10-22 | Adobe Inc. | Stereo correspondence and depth sensors |
RU2013106513A (ru) * | 2013-02-14 | 2014-08-20 | ЭлЭсАй Корпорейшн | Способ и устройство для улучшения изображения и подтверждения границ с использованием по меньшей мере одного дополнительного изображения |
US9514574B2 (en) | 2013-08-30 | 2016-12-06 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
US9363499B2 (en) * | 2013-11-15 | 2016-06-07 | Htc Corporation | Method, electronic device and medium for adjusting depth values |
US9754377B2 (en) * | 2014-08-15 | 2017-09-05 | Illinois Institute Of Technology | Multi-resolution depth estimation using modified census transform for advanced driver assistance systems |
JP2016048467A (ja) | 2014-08-27 | 2016-04-07 | Kddi株式会社 | 運動視差再現方法、装置およびプログラム |
US9824412B2 (en) * | 2014-09-24 | 2017-11-21 | Intel Corporation | Position-only shading pipeline |
US20160140761A1 (en) | 2014-11-19 | 2016-05-19 | Microsoft Technology Licensing, Llc. | Using depth information for drawing in augmented reality scenes |
-
2017
- 2017-06-26 EP EP17821009.2A patent/EP3475923A4/en active Pending
- 2017-06-26 AU AU2017288933A patent/AU2017288933B2/en active Active
- 2017-06-26 US US15/633,221 patent/US10706613B2/en active Active
- 2017-06-26 CN CN201780052439.0A patent/CN109844819A/zh active Pending
- 2017-06-26 KR KR1020197002344A patent/KR102337931B1/ko active IP Right Grant
- 2017-06-26 BR BR112018077095A patent/BR112018077095A8/pt unknown
- 2017-06-26 WO PCT/US2017/039278 patent/WO2018005359A1/en unknown
- 2017-06-26 JP JP2018567839A patent/JP6813600B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018005359A1 (en) | 2018-01-04 |
AU2017288933B2 (en) | 2021-09-23 |
US10706613B2 (en) | 2020-07-07 |
BR112018077095A2 (pt) | 2019-04-02 |
CN109844819A (zh) | 2019-06-04 |
JP2019526847A (ja) | 2019-09-19 |
EP3475923A1 (en) | 2019-05-01 |
US20170372510A1 (en) | 2017-12-28 |
KR20190014105A (ko) | 2019-02-11 |
BR112018077095A8 (pt) | 2023-04-04 |
EP3475923A4 (en) | 2020-01-01 |
KR102337931B1 (ko) | 2021-12-13 |
AU2017288933A1 (en) | 2019-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6813600B2 (ja) | 動的オクルージョン処理のためのシステム及び方法 | |
Johannsen et al. | A taxonomy and evaluation of dense light field depth estimation algorithms | |
Du et al. | Edge snapping-based depth enhancement for dynamic occlusion handling in augmented reality | |
JP6613605B2 (ja) | 深度画像の深度値復元方法及びシステム | |
EP1969562B1 (en) | Edge-guided morphological closing in segmentation of video sequences | |
EP3385903B1 (en) | Method and apparatus for refining depth image | |
US9141873B2 (en) | Apparatus for measuring three-dimensional position, method thereof, and program | |
JP6998388B2 (ja) | 画像特性マップを処理するための方法及び装置 | |
US20090028432A1 (en) | Segmentation of Video Sequences | |
JP6843237B2 (ja) | シーンのポイントクラウドを表現するシステム及び方法 | |
TW201308252A (zh) | 深度測量之品質提升 | |
EP1969560A1 (en) | Edge comparison in segmentation of video sequences | |
WO2020125637A1 (zh) | 一种立体匹配方法、装置和电子设备 | |
CN111062777A (zh) | 一种可保留示例衣服细节的虚拟试穿方法及系统 | |
CN106251348A (zh) | 一种面向深度相机的自适应多线索融合背景减除方法 | |
KR20110021500A (ko) | 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치 | |
WO2020130070A1 (ja) | 検出装置、情報処理装置、検出方法、及び情報処理プログラム | |
US11682234B2 (en) | Texture map generation using multi-viewpoint color images | |
KR20180064028A (ko) | 영상 처리 방법 및 장치 | |
JP5728399B2 (ja) | 計測装置、方法及びプログラム | |
Wang et al. | Fast image defogging algorithm design based on dark channel prior | |
Heimann et al. | Joint Geometry and Attribute Upsampling of Point Clouds Using Frequency-Selective Models with Overlapped Support | |
KR102102369B1 (ko) | 정합 성능 추정 방법 및 장치 | |
JP7024401B2 (ja) | 情報処理装置、プログラム、及び情報処理方法 | |
Zuo et al. | Explicit measurement on depth-color inconsistency for depth completion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200601 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201016 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201016 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201027 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201104 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6813600 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |