KR20190014105A - 동적 가림 핸들링을 위한 시스템들 및 방법들 - Google Patents
동적 가림 핸들링을 위한 시스템들 및 방법들 Download PDFInfo
- Publication number
- KR20190014105A KR20190014105A KR1020197002344A KR20197002344A KR20190014105A KR 20190014105 A KR20190014105 A KR 20190014105A KR 1020197002344 A KR1020197002344 A KR 1020197002344A KR 20197002344 A KR20197002344 A KR 20197002344A KR 20190014105 A KR20190014105 A KR 20190014105A
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- edge points
- processing system
- depth map
- boundary
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 120
- 238000012545 processing Methods 0.000 claims abstract description 96
- 238000005457 optimization Methods 0.000 claims description 18
- 239000011521 glass Substances 0.000 claims description 17
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 83
- 238000009877 rendering Methods 0.000 description 25
- 230000000007 visual effect Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 19
- 238000004891 communication Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 230000008901 benefit Effects 0.000 description 9
- 238000012800 visualization Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000001914 filtration Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 230000008439 repair process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
Description
도 2a는 동적 가림 핸들링 없이 비디오 뷰에서의 가상 물체의 렌더링을 도시하는 도면.
도 2b는 본 개시의 일 예시적인 실시예에 따른 동적 가림 핸들링을 갖는 비디오 뷰 내의 가상 물체의 렌더링을 도시하는 도면.
도 2c 및 도 2d는 동적 가림 핸들링이 없는 도 2a의 가상 물체의 렌더링들을 도시하는 도면들.
도 2e 및 도 2f는 본 개시의 일 예시적인 실시예에 따른 동적 가림 핸들링을 갖는 도 2b의 가상 물체의 렌더링들을 도시하는 도면들.
도 2g 및 도 2h는 동적 가림 핸들링 없이 안경 뷰에서 도 2a의 시각화를 도시하는 도면들.
도 2i 및 도 2j는 본 개시의 일 예시적인 실시예에 따른 동적 가림 핸들링을 갖는 안경 뷰에서 도 2b의 시각화들을 도시하는 도면들.
도 3a는 본 개시의 일 예시적인 실시예에 따른 깊이 맵의 예를 도시하는 도면.
도 3b는 본 개시의 일 예시적인 실시예에 따른 컬러 이미지의 예를 도시하는 도면.
도 3c는 본 개시의 일 예시적인 실시예에 따라 도 3b의 컬러 이미지를 오버레이하는 도 3a의 깊이 맵의 일 예를 도시하는 도면.
도 3d 및 도 3e는 도 3c의 예시적인 영역들의 확대도들.
도 3f는 가상 물체와 함께 도 3c의 시각화를 도시하는 도면.
도 3g 및 도 3h는 도 3f의 예시적인 영역들의 확대도들.
도 4는 본 개시의 일 예시적인 실시예에 따른 도 1의 시스템의 프로세스의 블록도.
도 5는 본 개시의 일 예시적인 실시예에 따른 깊이 에지점 프로세스의 일 예시적인 구현의 흐름도.
도 6a는 본 개시의 일 예시적인 실시예에 따른 컬러 이미지의 일 예를 도시하는 도면.
도 6b는 본 개시의 일 예시적인 실시예에 따른 깊이 맵의 일 예를 도시하는 도면.
도 6c는 본 개시의 일 예시적인 실시예에 따라 그레이-스케일 이미지를 오버레이하는 깊이 에지점들의 일 예를 도시하는 도면.
도 6d는 본 개시의 일 예시적인 실시예에 따라 도 6c의 일 예시적인 영역 내의 원시 깊이 에지점들의 확대도.
도 6e는 본 개시의 일 예시적인 실시예에 따른 도 6c의 영역의 평탄화된 깊이 에지점들의 확대도.
도 6f는 본 개시의 일 예시적인 실시예에 따른 도 6d의 원시 깊이 에지점들에 기초하여 생성되는 2D-법선들의 일 예를 도시하는 도면.
도 6g는 본 개시의 일 예시적인 실시예에 따른 도 6e의 평탄화된 깊이 에지점들에 기초하여 생성되는 2D-법선들의 일 예를 도시하는 도면.
도 7은 본 개시의 일 예시적인 실시예에 따른 후보 검색 프로세스 및 최적화 프로세스의 일 예시적인 구현의 흐름도.
도 8a는 본 개시의 일 예시적인 실시예에 따른 컬러 이미지의 일 예를 도시하는 도면.
도 8b는 본 개시의 일 예시적인 실시예에 따라 RGB 공간으로부터의 이미지 경사도들로 에지-스냅핑(edge-snapping)의 시각화와 함께 도 8a의 영역의 확대도.
도 8c는 본 개시의 일 예시적인 실시예에 따라 RGB 공간 및 YCbCr 공간 양쪽으로부터의 이미지 경사도들로 에지-스냅핑의 시각화와 함께 도 8a의 영역의 확대도.
도 9a는 본 개시의 일 예시적인 실시예에 따른 컬러 이미지의 일 예를 도시하는 도면.
도 9b는 본 개시의 일 예시적인 실시예에 따른 적색 채널로부터의 이미지 경사도들의 크기의 일 예를 도시하는 도면.
도 9c는 본 개시의 일 예시적인 실시예에 따라 변환된 CR 채널에서 이미지 경사도들의 크기의 일 예를 도시하는 도면.
도 10a는 본 개시의 일 예시적인 실시예에 따른 컬러 이미지의 일 예를 도시하는 도면.
도 10b는 본 개시의 일 예시적인 실시예에 따른 평탄도 제약 없이 도 10a의 영역에 대한 에지-스냅핑 결과들의 일 예를 도시하는 도면.
도 10c는 본 개시의 일 예시적인 실시예에 따른 평탄도 제약을 갖는 도 10a의 영역에 대한 에지-스냅핑 결과들의 일 예를 도시하는 도면.
도 11a는 본 개시의 일 예시적인 실시예에 따른 컬러 이미지의 일 예를 도시하는 도면.
도 11b는 본 개시의 일 예시적인 실시예에 따른 평탄도 제약 없이 도 11a의 일 예시적인 영역에 대한 에지-스냅핑 결과들의 일 예를 도시하는 도면.
도 11c는 본 개시의 일 예시적인 실시예에 따른 평탄도 제약을 갖는 도 11a의 일 예시적인 영역에 대한 에지-스냅핑 결과들의 일 예를 도시하는 도면.
도 12는 본 개시의 일 예시적인 실시예에 따른 깊이 맵 강화 프로세스의 일 예시적인 구현의 흐름도.
도 13a, 도 13b, 도 13c, 도 13d, 및 도 13e는 본 개시의 일 예시적인 실시예에 따른 에지-스냅핑에 기초한 깊이 맵 강화 프로세스의 양태들을 도시하는 도면들.
도 14는 본 개시의 일 예시적인 실시예에 따른 안경 뷰 렌더링 프로세스의 일 예시적인 구현의 흐름도.
도 15a는 비디오 뷰와 안경 뷰 사이의 변경과 연관된 문제를 도시하는 도면.
도 15b는 보간법을 사용하여 가림 효과들의 일 예를 도시하는 도면.
도 15c는 본 개시의 일 예시적인 실시예에 따라 도 14의 프로세스를 사용하여 가림 효과들의 일 예를 도시하는 도면.
도 16a는 동적 가림 핸들링이 없는 AR 장면의 일 예를 도시하는 도면.
도 16b는 본 개시의 일 예시적인 실시예에 따른 원시 깊이 데이터(raw depth data)를 사용하여 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 16c는 본 개시의 일 예시적인 실시예에 따라 강화된 깊이 맵을 사용하여 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 17(a)는 동적 가림 핸들링이 없는 AR 장면의 일 예를 도시하는 도면.
도 17(b)는 본 개시의 일 예시적인 실시예에 따른 원시 깊이 데이터를 사용하는 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 17(c)는 본 개시의 일 예시적인 실시예에 따라 강화된 깊이 맵을 사용하는 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 18a는 동적 가림 핸들링이 없는 AR 장면의 일 예를 도시하는 도면.
도 18b는 본 개시의 일 예시적인 실시예에 따른 원시 깊이 데이터를 사용하는 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 18c는 본 개시의 일 예시적인 실시예에 따라 강화된 깊이 맵을 사용하는 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 19a는 동적 가림 핸들링이 없는 AR 장면의 일 예를 도시하는 도면.
도 19b는 본 개시의 일 예시적인 실시예에 따른 원시 깊이 데이터를 사용하는 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 19c는 본 개시의 일 예시적인 실시예에 따라 강화된 깊이 맵을 사용하는 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 20a는 본 개시의 일 예시적인 실시예에 따른 동적 가림 핸들링이 없는 AR 장면의 일 예를 도시하는 도면.
도 20b는 본 개시의 일 예시적인 실시예에 따른 원시 깊이 데이터를 사용하는 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 20c는 본 개시의 일 예시적인 실시예에 따라 강화된 깊이 맵을 사용하는 동적 가림 핸들링을 갖는 AR 장면의 일 예를 도시하는 도면.
도 21a, 도 21b, 도 21c 및 도 21d는 본 개시의 일 예시적인 실시예에 따른 실측 자료(ground-truth) 경계들의 윤곽들을 갖는 컬러 이미지들을 도시하는 도면들.
도 22a, 도 22b, 도 22c 및 도 22d는 본 개시의 일 예시적인 실시예에 따른 도 21a, 도 21b, 도 21c 및 도 22d 각각의 대응하는 컬러 이미지들 위에 오버레이된 원시 깊이 맵들의 시각화들을 도시하는 도면들.
도 23a, 도 23b, 도 23c 및 도 23d는 본 개시의 일 예시적인 실시예에 따른 도 21a, 도 21b, 도 21c 및 도 21d 각각의 대응하는 컬러 이미지들 위에 오버레이된 강화된 깊이 맵들의 시각화들을 도시하는 도면들.
Claims (20)
- 컴퓨팅 시스템에 있어서,
적어도 하나의 처리 유닛을 포함하는 처리 시스템을 포함하고,
상기 처리 시스템은:
물체의 제 1 경계를 갖는 깊이 맵을 수신하는 단계;
상기 깊이 맵에 대응하는 컬러 이미지를 수신하는 단계로서, 상기 컬러 이미지는 상기 물체의 제 2 경계를 포함하는, 상기 컬러 이미지를 수신하는 단계;
상기 깊이 맵으로부터 상기 제 1 경계의 깊이 에지점들을 추출하는 단계;
상기 깊이 맵상의 타깃 깊이 에지점들을 식별하는 단계로서, 상기 타깃 깊이 에지점들은 상기 컬러 이미지에서 상기 물체의 상기 제 2 경계의 컬러 에지점들에 대응하는, 상기 타깃 깊이 에지점들을 식별하는 단계; 및
상기 깊이 맵이 상기 물체에 대한 물체 경계로 강화되도록 상기 깊이 에지점들을 상기 타깃 깊이 에지점들을 향하여 스냅핑(snapping)하는 단계를 포함하는 방법을 구현하도록 구성되는, 컴퓨팅 시스템. - 제 1 항에 있어서,
상기 처리 시스템은 깊이 센서 및 카메라를 포함하는 헤드 장착형 디스플레이와 통신하고;
상기 처리 시스템은 상기 깊이 센서로부터 상기 깊이 맵 및 상기 카메라로부터 상기 컬러 이미지를 수신하는, 컴퓨팅 시스템. - 제 1 항에 있어서,
상기 처리 시스템은:
(a) 상기 깊이 에지점들을 그룹으로 그룹화하고;
(b) 상기 그룹 내의 상기 깊이 에지점들을 순서화하고;
(c) 저역 통과 필터를 사용하여 상기 깊이 에지점들의 2D 위치들을 평탄화하고;
(d) 상기 깊이 에지점들에 대한 2D 법선 세그먼트들을 계산하도록 구성되는, 컴퓨팅 시스템. - 제 3 항에 있어서,
상기 처리 시스템은 적어도 이미지 경사도 데이터에 기초하여 상기 컬러 이미지들에서 상기 컬러 에지점들에 대한 후보 검색을 수행하도록 구성되고, 상기 후보 검색은 상기 깊이 맵의 상기 2D 법선 세그먼트들에 대응하는 상기 컬러 이미지상의 미리 결정된 범위의 점들 내에 있는, 컴퓨팅 시스템. - 제 1 항에 있어서,
상기 처리 시스템은,
(a) 상기 깊이 에지점들을 상기 타깃 깊이 에지점들로 이동시키기 위한 최적 경로들을 결정하기 위해 데이터 비용들 및 평탄화 비용들을 고려하면서 이산 최적화 계산들을 수행하고;
(b) 상기 최적 경로들을 따라 상기 깊이 에지점들을 상기 타깃 깊이 에지점들로 이동시키도록 구성되는, 컴퓨팅 시스템. - 제 1 항에 있어서,
상기 처리 시스템은 상기 강화된 깊이 맵에 기초하여 동적 가림 핸들링(dynamic occlusion handling)을 수행하도록 구성되는, 컴퓨팅 시스템. - 제 1 항에 있어서,
상기 처리 시스템은 증강 현실 애플리케이션을 위해 상기 강화된 깊이 맵의 깊이 데이터를 비디오 뷰로부터 안경 뷰로 변환하도록 구성되는, 컴퓨팅 시스템. - 동적 가림 핸들링을 위한 시스템에 있어서,
깊이 맵을 제공하기 위한 깊이 센서;
컬러 이미지를 제공하기 위한 카메라; 및
적어도 하나의 처리 유닛을 포함하는 처리 시스템을 포함하고,
상기 처리 시스템은,
물체의 제 1 경계를 갖는 상기 깊이 맵을 수신하는 단계;
상기 물체의 제 2 경계를 포함하는, 상기 깊이 맵에 대응하는 컬러 이미지를 수신하는 단계;
상기 깊이 맵으로부터 상기 제 1 경계의 깊이 에지점들을 추출하는 단계;
상기 깊이 맵상의 타깃 깊이 에지점들을 식별하는 단계로서, 상기 타깃 깊이 에지점들은 상기 컬러 이미지에서 상기 물체의 상기 제 2 경계의 컬러 에지점들에 대응하는, 상기 타깃 깊이 에지점들을 식별하는 단계; 및
상기 깊이 맵이 상기 물체에 대한 물체 경계로 강화되도록 상기 깊이 에지점들을 상기 타깃 깊이 에지점들을 향하여 스냅핑하는 단계를 포함하는 방법을 구현하도록 구성되는, 동적 가림 핸들링을 위한 시스템. - 제 8 항에 있어서,
상기 깊이 센서 및 상기 카메라가 장착된 헤드 장착형 디스플레이를 더 포함하는, 동적 가림 핸들링을 위한 시스템. - 제 8 항에 있어서,
상기 처리 시스템은:
(a) 상기 깊이 에지점들을 그룹으로 그룹화하고;
(b) 상기 그룹 내의 상기 깊이 에지점들을 순서화하고;
(c) 저역 통과 필터를 사용하여 상기 깊이 에지점들의 2D 위치들을 평탄화하고;
(d) 상기 깊이 에지점들에 대한 2D 법선 세그먼트들을 계산하도록 구성되는, 동적 가림 핸들링을 위한 시스템. - 제 8 항에 있어서,
상기 처리 시스템은 적어도 이미지 경사도 데이터에 기초하여 상기 컬러 이미지 내의 상기 컬러 에지점들에 대한 후보 검색을 수행하도록 구성되고, 상기 후보 검색은 상기 깊이 맵의 상기 2D 법선 세그먼트에 대응하는 상기 컬러 이미지상의 미리 결정된 범위의 점들 내에 있는, 동적 가림 핸들링을 위한 시스템. - 제 8 항에 있어서,
상기 처리 시스템은,
(a) 상기 깊이 에지점들을 상기 타깃 깊이 에지점들로 이동시키기 위한 최적 경로들을 결정하기 위해 데이터 비용들 및 평탄화 비용들을 고려하면서 이산 최적화 계산들을 수행하는 단계; 및
(b) 상기 깊이 에지점을 상기 최적 경로들을 따라 상기 타깃 깊이 에지점들로 이동시키도록 구성되는, 동적 가림 핸들링을 위한 시스템. - 제 8 항에 있어서,
상기 처리 시스템은 상기 강화된 깊이 맵에 기초하여 동적 가림 핸들링을 수행하도록 구성되는, 동적 가림 핸들링을 위한 시스템. - 제 8 항에 있어서,
상기 처리 시스템은 증강 현실 애플리케이션을 위해 상기 강화된 깊이 맵의 깊이 데이터를 비디오 뷰로부터 안경 뷰로 변환하도록 구성되는, 동적 가림 핸들링을 위한 시스템. - 컴퓨터 구현 방법에 있어서,
물체의 제 1 경계를 갖는 깊이 맵을 수신하는 단계;
상기 깊이 맵에 대응하는 컬러 이미지를 수신하는 단계로서, 상기 컬러 이미지는 상기 물체의 제 2 경계를 포함하는, 상기 컬러 이미지를 수신하는 단계;
상기 깊이 맵으로부터 상기 제 1 경계의 깊이 에지점들을 추출하는 단계;
상기 깊이 맵상의 타깃 깊이 에지점들을 식별하는 단계로서, 상기 타깃 깊이 에지점들은 상기 컬러 이미지에서 상기 물체의 상기 제 2 경계의 컬러 에지점들에 대응하는, 상기 타깃 깊이 에지점들을 식별하는 단계; 및
상기 깊이 맵이 상기 물체에 대한 물체 경계로 강화되도록 상기 깊이 에지점들을 상기 타깃 깊이 에지점들로 스냅핑하는 단계를 포함하는, 컴퓨터 구현 방법. - 제 15 항에 있어서,
상기 깊이 에지점들을 그룹으로 그룹화하는 단계;
상기 깊이 에지점들의 그룹을 순서화하는 단계;
저역 통과 필터를 사용하여 상기 깊이 에지점들의 2D 위치들을 평탄화하는 단계; 및
상기 깊이 에지점들에 대한 2D 법선 세그먼트들을 계산하는 단계를 더 포함하는, 컴퓨터 구현 방법. - 제 15 항에 있어서,
이미지 경사도 데이터에 적어도 기초하여 상기 컬러 이미지 내 컬러 에지점들에 대한 후보 검색을 수행하는 단계를 더 포함하고, 상기 후보 검색은 상기 깊이 맵의 상기 2D 법선 세그먼트에 대응하는 상기 컬러 이미지상의 미리 결정된 범위의 점들 내에 있는, 컴퓨터 구현 방법. - 제 15 항에 있어서,
상기 깊이 에지점들을 상기 타깃 깊이 에지점들로 스냅핑하기 위해 최적 경로들을 결정하기 위해 데이터 비용들 및 평탄도 비용들을 고려하면서 이산 최적화 계산들을 수행하는 단계를 더 포함하고,
상기 깊이 에지점들은 상기 최적 경로들을 따라 상기 타깃 깊이 에지점들을 향해 스냅핑되는, 컴퓨터 구현 방법. - 제 15 항에 있어서,
상기 강화된 깊이 맵에 기초하여 동적 가림 핸들링을 수행하는 단계를 더 포함하는, 컴퓨터 구현 방법. - 제 15 항에 있어서,
증강 현실 애플리케이션을 위해 상기 강화된 깊이 맵의 깊이 데이터를 비디오 뷰로부터 안경 뷰로 변환하는 단계를 더 포함하는, 컴퓨터 구현 방법.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662354891P | 2016-06-27 | 2016-06-27 | |
US62/354,891 | 2016-06-27 | ||
PCT/US2017/039278 WO2018005359A1 (en) | 2016-06-27 | 2017-06-26 | Systems and methods for dynamic occlusion handling |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190014105A true KR20190014105A (ko) | 2019-02-11 |
KR102337931B1 KR102337931B1 (ko) | 2021-12-13 |
Family
ID=60675555
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197002344A KR102337931B1 (ko) | 2016-06-27 | 2017-06-26 | 동적 가림 핸들링을 위한 시스템들 및 방법들 |
Country Status (8)
Country | Link |
---|---|
US (1) | US10706613B2 (ko) |
EP (1) | EP3475923A4 (ko) |
JP (1) | JP6813600B2 (ko) |
KR (1) | KR102337931B1 (ko) |
CN (1) | CN109844819A (ko) |
AU (1) | AU2017288933B2 (ko) |
BR (1) | BR112018077095A8 (ko) |
WO (1) | WO2018005359A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210108897A (ko) * | 2020-02-25 | 2021-09-03 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 에지를 기반으로 하는 증강현실 3차원 추적 등록 방법, 장치 및 전자 기기 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10645357B2 (en) * | 2018-03-01 | 2020-05-05 | Motorola Mobility Llc | Selectively applying color to an image |
US10643336B2 (en) * | 2018-03-06 | 2020-05-05 | Sony Corporation | Image processing apparatus and method for object boundary stabilization in an image of a sequence of images |
DK201870351A1 (en) | 2018-05-07 | 2020-01-13 | Apple Inc. | Devices and Methods for Measuring Using Augmented Reality |
CN109035375B (zh) * | 2018-06-22 | 2023-11-10 | 广州久邦世纪科技有限公司 | 一种基于OpenGL的3D眼镜渲染方法及其系统 |
CN110072046B (zh) * | 2018-08-24 | 2020-07-31 | 北京微播视界科技有限公司 | 图像合成方法和装置 |
US10785413B2 (en) | 2018-09-29 | 2020-09-22 | Apple Inc. | Devices, methods, and graphical user interfaces for depth-based annotation |
US11227446B2 (en) * | 2019-09-27 | 2022-01-18 | Apple Inc. | Systems, methods, and graphical user interfaces for modeling, measuring, and drawing using augmented reality |
US11348319B1 (en) * | 2020-01-22 | 2022-05-31 | Facebook Technologies, Llc. | 3D reconstruction of a moving object |
US11107280B1 (en) * | 2020-02-28 | 2021-08-31 | Facebook Technologies, Llc | Occlusion of virtual objects in augmented reality by physical objects |
US20230316654A1 (en) * | 2020-08-31 | 2023-10-05 | Siemens Industry Software Inc. | Mesh generation |
JP2022123692A (ja) * | 2021-02-12 | 2022-08-24 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、画像処理システム |
US11941764B2 (en) | 2021-04-18 | 2024-03-26 | Apple Inc. | Systems, methods, and graphical user interfaces for adding effects in augmented reality environments |
US11741671B2 (en) | 2021-06-16 | 2023-08-29 | Samsung Electronics Co., Ltd. | Three-dimensional scene recreation using depth fusion |
US11887267B2 (en) | 2021-07-07 | 2024-01-30 | Meta Platforms Technologies, Llc | Generating and modifying representations of hands in an artificial reality environment |
US20240289929A1 (en) * | 2021-10-28 | 2024-08-29 | Intel Corporation | Methods and apparatus to perform mask-based depth enhancement for multi-view systems |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140015239A (ko) * | 2010-06-29 | 2014-02-06 | 쓰리세이프 에이/에스 | 2d 영상 장치 |
KR20150117646A (ko) * | 2013-02-14 | 2015-10-20 | 엘에스아이 코포레이션 | 적어도 하나의 추가적인 이미지를 사용한 이미지 향상과 에지 검증을 위한 방법 및 장치 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7787678B2 (en) * | 2005-10-07 | 2010-08-31 | Siemens Corporation | Devices, systems, and methods for processing images |
JP4789745B2 (ja) | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
EP2499829B1 (en) * | 2009-10-14 | 2019-04-17 | Dolby International AB | Methods and devices for depth map processing |
US8787663B2 (en) * | 2010-03-01 | 2014-07-22 | Primesense Ltd. | Tracking body parts by combined color image and depth processing |
US8774267B2 (en) | 2010-07-07 | 2014-07-08 | Spinella Ip Holdings, Inc. | System and method for transmission, processing, and rendering of stereoscopic and multi-view images |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
KR101972356B1 (ko) * | 2010-12-21 | 2019-04-25 | 한국전자통신연구원 | 상반신 검출장치 및 검출방법 |
WO2013173749A1 (en) * | 2012-05-17 | 2013-11-21 | The Regents Of The University Of California | Sampling-based multi-lateral filter method for depth map enhancement and codec |
US9036907B2 (en) | 2012-07-16 | 2015-05-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for extracting depth edges from images acquired of scenes by cameras with ring flashes forming hue circles |
US10455219B2 (en) | 2012-11-30 | 2019-10-22 | Adobe Inc. | Stereo correspondence and depth sensors |
US9514574B2 (en) | 2013-08-30 | 2016-12-06 | Qualcomm Incorporated | System and method for determining the extent of a plane in an augmented reality environment |
US9363499B2 (en) | 2013-11-15 | 2016-06-07 | Htc Corporation | Method, electronic device and medium for adjusting depth values |
US9754377B2 (en) * | 2014-08-15 | 2017-09-05 | Illinois Institute Of Technology | Multi-resolution depth estimation using modified census transform for advanced driver assistance systems |
JP2016048467A (ja) | 2014-08-27 | 2016-04-07 | Kddi株式会社 | 運動視差再現方法、装置およびプログラム |
US9824412B2 (en) * | 2014-09-24 | 2017-11-21 | Intel Corporation | Position-only shading pipeline |
US20160140761A1 (en) | 2014-11-19 | 2016-05-19 | Microsoft Technology Licensing, Llc. | Using depth information for drawing in augmented reality scenes |
-
2017
- 2017-06-26 US US15/633,221 patent/US10706613B2/en active Active
- 2017-06-26 AU AU2017288933A patent/AU2017288933B2/en active Active
- 2017-06-26 CN CN201780052439.0A patent/CN109844819A/zh active Pending
- 2017-06-26 JP JP2018567839A patent/JP6813600B2/ja active Active
- 2017-06-26 EP EP17821009.2A patent/EP3475923A4/en active Pending
- 2017-06-26 KR KR1020197002344A patent/KR102337931B1/ko active IP Right Grant
- 2017-06-26 BR BR112018077095A patent/BR112018077095A8/pt active Search and Examination
- 2017-06-26 WO PCT/US2017/039278 patent/WO2018005359A1/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140015239A (ko) * | 2010-06-29 | 2014-02-06 | 쓰리세이프 에이/에스 | 2d 영상 장치 |
KR20150117646A (ko) * | 2013-02-14 | 2015-10-20 | 엘에스아이 코포레이션 | 적어도 하나의 추가적인 이미지를 사용한 이미지 향상과 에지 검증을 위한 방법 및 장치 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210108897A (ko) * | 2020-02-25 | 2021-09-03 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 에지를 기반으로 하는 증강현실 3차원 추적 등록 방법, 장치 및 전자 기기 |
US11574414B2 (en) | 2020-02-25 | 2023-02-07 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Edge-based three-dimensional tracking and registration method and apparatus for augmented reality, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
US20170372510A1 (en) | 2017-12-28 |
EP3475923A1 (en) | 2019-05-01 |
AU2017288933A1 (en) | 2019-02-14 |
BR112018077095A2 (pt) | 2019-04-02 |
JP6813600B2 (ja) | 2021-01-13 |
WO2018005359A1 (en) | 2018-01-04 |
BR112018077095A8 (pt) | 2023-04-04 |
AU2017288933B2 (en) | 2021-09-23 |
JP2019526847A (ja) | 2019-09-19 |
KR102337931B1 (ko) | 2021-12-13 |
CN109844819A (zh) | 2019-06-04 |
US10706613B2 (en) | 2020-07-07 |
EP3475923A4 (en) | 2020-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102337931B1 (ko) | 동적 가림 핸들링을 위한 시스템들 및 방법들 | |
CN115699114B (zh) | 用于分析的图像增广的方法和装置 | |
Du et al. | Edge snapping-based depth enhancement for dynamic occlusion handling in augmented reality | |
Dhamo et al. | Peeking behind objects: Layered depth prediction from a single image | |
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
TWI536318B (zh) | 深度測量之品質提升 | |
EP1969560B1 (en) | Edge-controlled morphological closing in segmentation of video sequences | |
EP1969562B1 (en) | Edge-guided morphological closing in segmentation of video sequences | |
CN118212141A (zh) | 用于混合深度正则化的系统和方法 | |
WO2012071356A1 (en) | Depth estimation based on global motion | |
EP2643810A1 (en) | Depth estimation based on global motion | |
KR20190113943A (ko) | 이미지 속성 맵을 프로세싱하기 위한 방법 및 장치 | |
CN106447725A (zh) | 基于轮廓点混合特征匹配的空间目标姿态估计方法 | |
CN109859249B (zh) | Rgbd序列中基于自动分层的场景流估计方法 | |
JP2021056679A (ja) | 画像処理装置、方法及びプログラム | |
CN107808388B (zh) | 包含运动目标的图像处理方法、装置及电子设备 | |
Hernandez et al. | Near laser-scan quality 3-D face reconstruction from a low-quality depth stream | |
WO2020130070A1 (ja) | 検出装置、情報処理装置、検出方法、及び情報処理プログラム | |
US11682234B2 (en) | Texture map generation using multi-viewpoint color images | |
Gupta et al. | Real-time stereo matching using adaptive binary window | |
KR101099648B1 (ko) | 입체 영상에서의 폐색을 처리하는 입체 정합 시스템 및 방법, 폐색 처리 알고리즘을 기록한 컴퓨터에 의해 판독가능한 매체 | |
JP2017102896A (ja) | シーンにおける光源の反射率パラメータ及び位置を推定する方法及び装置 | |
Camplani et al. | Accurate depth-color scene modeling for 3D contents generation with low cost depth cameras | |
CN114066715A (zh) | 图像风格迁移方法、装置、电子设备以及存储介质 | |
CN118196135A (zh) | 图像处理方法、装置、存储介质、设备及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20190124 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PG1501 | Laying open of application | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20200625 Comment text: Request for Examination of Application |
|
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210415 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20211019 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20211207 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20211208 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20241126 Start annual number: 4 End annual number: 4 |