KR20140027468A - 깊이 측정치 품질 향상 - Google Patents

깊이 측정치 품질 향상 Download PDF

Info

Publication number
KR20140027468A
KR20140027468A KR1020147001039A KR20147001039A KR20140027468A KR 20140027468 A KR20140027468 A KR 20140027468A KR 1020147001039 A KR1020147001039 A KR 1020147001039A KR 20147001039 A KR20147001039 A KR 20147001039A KR 20140027468 A KR20140027468 A KR 20140027468A
Authority
KR
South Korea
Prior art keywords
depth
pixel
pixels
derivative
determining
Prior art date
Application number
KR1020147001039A
Other languages
English (en)
Other versions
KR101554241B1 (ko
Inventor
로랑 귀그
미첼 사무엘
줄리앙 톨로
Original Assignee
소프트키네틱 소프트웨어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소프트키네틱 소프트웨어 filed Critical 소프트키네틱 소프트웨어
Publication of KR20140027468A publication Critical patent/KR20140027468A/ko
Application granted granted Critical
Publication of KR101554241B1 publication Critical patent/KR101554241B1/ko

Links

Images

Classifications

    • G06T5/77
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

깊이 맵 이미지에서의 결함성 깊이 값을 보정하는 방법을 개시한다. 결함성 값은 연속적인 평탄한 표면 상에 위치된 "노이지 픽셀" 및 포그라운드 오브젝트와 백그라운드 오브젝트 간의 에지를 따라 위치된 보간된 "플라잉 픽셀"에 해당한다. 본 방법은, 포그라운드 오브젝트 및 백그라운드 오브젝트를 포함하는 장면의 깊이 맵을 액세스하는 단계와, 방법을 이용하여 깊이 맵 내에 노이지 및 보간된 깊이 측정치를 검출하고 식별하는 단계와, 특별하게 정해진 가중된 보정 계수를 이용하여 검출된 결함성 노이지 및 보간된 깊이 측정치의 각각에 대한 보정을 정하여 적용하는 단계를 포함한다. 깊이 맵 이미지에 보정된 결함성 깊이 값을 제공함으로써, 에지가 깊이에 있어서 선면하게 되고, 연속하는 표면이 평탄화되어, 더 높은 효율 및 견고성(robustness)의 추가의 이미지 처리를 가능하게 한다.

Description

깊이 측정치 품질 향상{DEPTH MEASUREMENT QUALITY ENHANCEMENT}
본 발명은 "3차원 포인트 클라우드(three-dimensional point cloud)" 데이터 정보를 포함하는 깊이 맵 또는 이미지와 같은 범위 탐지 측정치(range finding measurement)의 품질 향상에 관한 것으로, 보다 구체적으로는 깊이 측정치의 디노이징(de-noising) 및 이미징된 3차원 장면에서의 포그라운드 오브젝트와 백그라운드 오브젝트 간의 에지에 대응하는 픽셀에 연관된 문제 있는 보간 깊이 값(problematic interpolated depth value)의 교정에 관한 것이다.
깊이 측정 카메라 시스템(depth measurement camera system)은 소비자 전자장치 시스템 및 콘솔 게임에서의 자세 인식(gesture recognition) 및 인체 골격 트랙킹을 위해 사용되는 기술로 인해 더욱 대중화되고 있는 최근의 범위 탐지 측정 장치이다.
주로, 이러한 어플리케이션에 적합한 2가지 타입의 주변 조명 무관 깊이 감지(environment lighting independent depth sensing) 또는 3차원(3D) 카메라 기술이 있다. 한 가지 타입의 3D 카메라 기술은 Xbox 360(키넥트로 알려진) 비디오 게임 콘솔용의 마이크로소프트의 Kinect에서의 자세 인식을 위해 사용되는 예컨대 PrimeSense에 의해 제공된 구조 광 3D 카메라(structured light 3D camera)이다(Microsoft, Kinect, 및 Kinect for Xbox 360는 마이크로소프트사의 상표이다). 두 번째 타입의 3D 감지 카메라 기술은, 여러 개의 독립 회사에 의해 개발 및 제조되고, 예컨대 자동차 산업에서 사용되거나 또는 비디오 게임, 로봇, 홈 오토메이션 등과 같은 인간 대 기기 상호작용(human to machine interaction)을 포함한 다양한 환경에서의 자세 인식 및 인체 골격 트랙킹에서 사용되는 타임-오브-플라이트(time-of-flight, ToF) 카메라이다.
그러나, 3D 감지 카메라의 타입에 상관없이, 복수의 픽셀을 포함하는 장면의 이미지가 제공되고, 이미지의 각각의 픽셀은 적어도 카메라까지의 이미징된 오브젝트의 거리에 관한 정보를 포함하며, 이러한 정보가 측정된 깊이 값이다. 적어도 깊이 측정 정보를 임베드하는 이러한 이미지는 "깊이 맵"으로 지칭된다. 다른 타입의 이미지 또한 예컨대 "3D 포인트 클라우드" 데이터 행렬과 같은 임베드된 데이터 깊이 정보를 포함할 수 있으며, 여기서 이미지는 카메라 좌표계에 대한 또는 가상 환경 좌표계에 대한 임베드된 정보를 포함한다. 이러한 이미지에서, x 및 y는 각각 수평축 및 수직축에 대응하고, z-축이 깊이 축에 대응한다. 카메라 좌표계로부터 가상 환경 좌표계로의 변환은 투영의 문제이고, 이러한 변환은 일반적으로 "장면 교정(scene calibration)으로 지칭된다.
깊이 측정치를 제공하는 이미지를 이용하는 임의의 어플리케이션 또는 시스템은 해상도, 노이즈, 정확도, 견고성(robustness) 및 반복 가능성의 면에서 측정 품질에 좌우된다. 구체적으로, 주로 3D ToF 카메라 기술을 고려할 때, 장면 오브젝트 에지 주위의 깊이 측정치는 콘볼루션(convolution) 및/또는 인터폴레이션 아티팩트(interpolation artifact)를 나타내는 것으로 알려져 있으며, 이러한 아티팩트는 단일의 자연 발생적으로 선명한 에지(single naturally sharp edge)에 대해서는 적어도 1-픽셀 반경에서의 깊이 데이터에 영향을 줄 수도 있는 "플라잉 픽셀(flying pixel)"로 지칭된다. 이러한 "플라잉 픽셀"은 오브젝트의 에지의 위치에서 발생하는 임의의 가능한 모션 블러(motion blur)와는 상관없는 공간적인 아티팩트이며, 제거될 필요가 있거나, 및/또는 새롭게 계산된 깊이 값에 대응하는 장면에서의 정확한 위치로 복원될 필요가 있으며, 새롭게 계산된 깊이 값은 포그라운드 오브젝트 또는 백그라운드 오브젝트 중의 하나에 "플라잉 픽셀"을 적절하게 할당한다. 이러한 복원의 목적은 후속 오브젝트 검출 신뢰도를 크게 향상시키고 3D 장면 내의 오브젝트의 깊이 정보 품질을 향상시키는 것이다.
따라서, 본 발명의 목적은, 깊이 맵 형태 또는 3D 포인트 클라우드 형태로 제공되는 범위 탐지 측정치의 품질을, 예컨대 노이지 픽셀 값(noisy pixels value)의 형태 및/또는 보간된 "플라잉 픽셀" 값의 형태로 있을 수도 있는 결함성 픽셀(defective pixel)을 검출함으로써 향상시키는 방법 및 시스템을 제공하는 것이다. 특히, 노이지 픽셀 값은 전체적인 깊이 맵에 관련된다. 그러나, 노이지 픽셀 값은 평탄하고 연속적인 표면의 품질을 감소시키는 경향이 있다. "플라잉 픽셀"값은 깊이 맵 또는 대응하는 3D 포인트 클라우드에 표현되는 3D 오브젝트의 에지에 관련되며, 이들 에지는 상이한 깊이에 위치된 포그라운드 오브젝트와 백그라운드 오브젝트 사이에 있는 리미트(limit)로서 정의된다.
본 발명의 일특징에 따라, 3차원 이미지에서의 결함성 픽셀 깊이 데이터 값의 깊이 맵 품질 향상을 위한 방법이 제공되며, 상기 방법은,
a) 장면에 관한 깊이 측정치 데이터를 결정하는 단계;
b) 상기 깊이 측정치 데이터 내의 결함성 픽셀을 검출하는 단계;
c) 각각의 검출된 결함성 픽셀에 대한 깊이 보정(depth correction)을 정하는 단계; 및
d) 각각의 검출된 결함성 픽셀의 깊이 측정치 데이터에 상기 깊이 보정을 적용하는 단계를 포함한다.
본 발명의 방법을 이용함으로써, 깊이 측정치 노이즈가 크게 감소될 수 있기 때문에, 깊이 맵 또는 3D 포인트 클라우드 이미지 품질의 커다란 향상이 획득될 수 있다. 구체적으로, 오브젝트의 에지에 위치된 보간된 "플라잉 픽셀"에 포함된 정보가 복원되며, 이들 에지가 그 결과 선명하게 되어, 이들 에지를 추가의 신호 처리 방법에 관련되게 하고 유용하게 되게 한다.
이에 부가하여, 본 발명의 한 가지 결과는, 3차원 장면 내의 대상으로 하는 오브젝트에 대해 수행된 자세 인식과 같은 움직임 관련 데이터 분석뿐만 아니라 사용자 및 오브젝트 검출, 식별, 및 트랙킹이 크게 향상된다는 점이며, 그 이유는 이러한 방법들이 깊이 맵 깊이 데이터 값 품질에 의존하기 때문이다. 또 다른 결과로서, 장면 내의 오브젝트 형상 및 사용자 형상에 관한 이미지의 추출이 더 우수한 신뢰도 및 정확도로 더욱 용이하게 수행될 수 있다.
이에 부가하여, 향상된 오브젝트 검출은 또한 3D 장면 내에서의 오브젝트 및 사용자의 더욱 우수한 모델링을 제공하며, 특히 사용자의 인체 부위를 오브젝트 또는 사용자 자신과 병합하는 것이 최소화되고, 사용자의 인체 형상이 더욱 정확하게 모델링될 수 있기 때문에, 인체 골격 피팅(fitting) 및 트랙킹 또한 크게 향상된다.
본 발명의 바람직한 실시예에서, 상기 단계 b)는 각각의 픽셀에 대하여 적어도 하나의 방향에서의 깊이 관련 방향 도함수(depth related directional derivative)를 결정하는 단계를 포함한다.
상기 단계 c)는, 각각의 식별된 결함성 픽셀에 대해,
c1) 깊이 방향 도함수에 관련하여 벡터를 결정하는 단계;
c2) 결정된 벡터에 대한 노멀(normal)을 결정하는 단계;
c3) 적어도 상기 결정된 벡터와 상기 결정된 벡터에 대한 상기 노멀 중의 하나의 것의 결과를, 그 값이 픽셀 폭에 의해 표현된 실제 공간에서의 메트릭 사이즈(metric size)에 관련되어 있는 데이터 파라미터와 함께 이용하여, 가중 계수 파라미터를 결정하는 단계; 및
c4) 상기 가중 계수 파라미터와 이웃 픽셀에 관한 정보 중의 적어도 하나를 이용하여 보정 계수를 결정하는 단계를 포함한다.
일실시예에서, 상기 단계 c4)는 이웃 픽셀의 깊이 값, 가중 계수 및 보정 계수 중의 적어도 하나를 이용하는 단계를 포함할 수 있다. 이와 달리 또는 이에 부가하여, 상기 단계 c4)는 이웃 픽셀에 관한 정보의 통계 모드를 이용하는 단계를 더 포함할 수 있다.
상기 단계 c4)는 단지 유효한 이웃 픽셀만을 이용하는 것이 이롭다.
상기 단계 c4)는 이웃 픽셀을 통해 결정된 회귀 평면(regressive plane)으로부터 추출된 깊이 정보를 이용하는 단계를 더 포함할 수 있다.
본 발명의 일실시예에서, 상기 결함성 픽셀은 3차원 이미지에서의 포그라운드 오브젝트와 백그라운드 오브젝트 간의 에지에 위치된 보간된 픽셀 데이터 값을 포함할 수 있다. 이 경우, 상기 단계 b)는, 픽셀의 적어도 하나의 깊이 방향 도함수가 사전에 결정된 임계치보다 클 때에, 그리고 적어도 2개의 연속되는 방향 도함수가 동일한 부호를 갖는다면, 에지에서의 픽셀의 결함성 깊이 측정치를 식별하기 위해 상기 깊이 관련 방향 도함수를 이용하는 단계를 더 포함할 수 있다. 이것은 위에서 설명한 바와 같은 "플라잉 픽셀"에 대한 시험을 제공한다.
"플라잉 픽셀"에 대한 보정에 추가하여, 본 발명의 방법은 또한 "노이지 픽셀"을 보정한다. 이 경우, 상기 단계 b)는 3차원 이미지 내의 연속 표면 상의 픽셀의 결함성 측정치를 결정하는 단계를 포함한다.
이 경우, 상기 단계 b)는, 픽셀의 적어도 하나의 깊이 방향 도함수가 사전에 결정된 임계치보다 크고, 그 픽셀의 또 다른 깊이 방향 도함수 또한 사전에 결정된 임계치보다 클 때에, 연속 표면 상의 픽셀의 결함성 깊이 측정치를 식별하기 위해 상기 깊이 관련 방향 도함수를 이용하는 단계를 더 포함할 수 있으며, 이들 2개의 방향 도함수가 반대 부호를 갖는다.
결함성 픽셀이 "노이지 픽셀"인 경우, 상기 단계 c)는, 각각의 식별된 결함성 픽셀에 대해,
c5) 2개의 직교축을 이용하여 상기 깊이 방향 도함수 데이터 값에 관련하여 벡터를 결정하는 단계;
c6) 결정된 벡터의 반경 값(radius value), 결정된 벡터에 대한 노멀 정보(normal information), 및 픽셀에 의해 표현된 장면에서의 실제 폭 중의 적어도 하나를 이용하여 가중 계수 파라미터를 결정하는 단계; 및
c7) 결정된 상기 가중 계수 파라미터를 이웃 픽셀에 관한 정보와 조합하여 이용하여 보정 계수를 적용하는 단계를 더 포함할 수 있다.
일실시예에서, 상기 깊이 관련 방향 도함수는 적어도 2개의 직교축을 이용하여 결정된다. 또 다른 실시예에서, 상기 깊이 관련 방향 도함수는 노멀 맵(normal map)을 이용하여 결정된다. 또 다른 바람직한 실시예에서, 상기 깊이 관련 방향 도함수는 노멀 맵을 결정하기 위해 이용될 수 있다.
본 발명의 일실시예에서, 상기 방법은 "플라잉 픽셀" 및 "노이지 픽셀" 중의 적어도 하나를 보정하기 위해 이용되며, 바람직한 실시예에서, 본 방법은 "플라잉 픽셀" 및 "노이지 픽셀"을 보정한다.
상기 단계 a)는 3D 감지 장치 또는 카메라에 의해 제공되거나, 또는 깊이 맵의 형태, 3D 포인트 클라우드의 형태, 또는 임의의 다른 형태의 기억 매체로부터의 깊이 측정 데이터를 액세스하는 단계를 포함할 수 있다.
본 발명을 더욱 명확하게 이해하기 위해, 일례로서 첨부 도면에 대한 참조가 이루어질 것이다.
도 1은 3차원 장면의 개략적인 2차원 평면도이다.
도 2는 도 1의 3차원 장면의 개략적인 2차원 전방 카메라 뷰를 도시하는 도면이다.
도 3은 도 1의 2차원 평면도에 대한 3차원 데이터 측정의 개략적인 표현을 도시하는 도면이다.
도 4는 깊이 값 신호의 개략적인 표현을 픽셀 위치와 함께 도시하는 도면이다.
도 5는 도 4와 유사하지만 본 발명에 따른 보정 후의 깊이 값 신호 및 픽셀 위치를 도시하는 도면이다.
도 6은 본 발명에 따른 깊이 맵 디노이징 및 에지 보정 방법에서의 단계들에 대한 흐름도를 도시하는 도면이다.
도 7은 2개의 직교 축에 인접 픽셀을 갖는 "플라잉 픽셀"을 중심으로 하는 3×3 커널을 도시하는 도면이다.
도 8은 유효한 픽셀로서 결정되고 포그라운드 또는 백그라운드 오브젝트 이미지를 형성하는 이웃 픽셀을 갖는 "플라잉 픽셀"을 중심으로 하는 3×3 커널을 도시하는 도면이다.
본 발명은 특정한 실시예에 대하여 특정한 도면을 참조하여 설명될 것이지만, 본 발명은 이러한 것으로 한정되지 않는다. 도시된 도면은 단지 개략도이며, 이러한 것으로 제한하려는 것은 아니다. 도면에서, 구성요소의 몇몇에 대한 크기는 예시를 목적으로 과장되어 실척으로 도시되어 있지 않을 수도 있다.
"수직" 및 "수평"이라는 표현은 본 명세서에서는 도면의 특정 지향방향을 지칭하도록 사용되며, 이들 표현은 본 명세서에 설명되는 특정 실시예에 대한 제한요소가 아니다.
전형적인 타임-오브-플라이트(ToF) 3D 카메라에 대해, TOF 원리를 이용하여 거리 또는 깊이 데이터를 계산하는 프로세스는 광학 및 전자 장치와 아날로그 및 디지털 처리 유닛의 조합을 수반한다. 전형적으로, 진폭 변조(AM) 적외선(IR) 신호가 ToF 카메라 장치에 임베딩된 조명 시스템에 의해 장면에 보내진다. 전용의 센서가 장면 내의 오브젝트로부터 반사된 IR 세기를 위상의 함수로서 동기식으로 등록한다. 센서로부터의 신호는 시간이 경과한 후에 통합되며, 각각의 픽셀에 대한 깊이 값 측정치를 근사(estimate)하기 위해 위상 지연 계산에 이용된다. ToF 3D 이미지는 센서 해상도 및 렌즈의 시계(field of view)에 따라 결정되는 자신의 해상도, 광의 변조 주파수에 따라 결정되는 깊이 측정치 정확도, 장면에 의해 반사되는 광의 양, 및 이미징 시스템에 연관된 파라미터, 예컨대 광 엔진 품질, 근본적으로 측정치 및 보다 문제시 되게는 깊이 맵에서 근본적으로 "퍼지(fuzzy)" 에지를 야기하는 몇몇 통합된 깊이 측정치에서 몇몇 양자화 아티팩트 및 노이즈를 생성하는 광학 처리 장치, 전자 처리 장치 및 신호 처리 장치의 조합에 의해 제한될 수 있다. "퍼지" 에지에서의 이러한 픽셀을 "플라잉 픽셀"로 지칭한다.
본 발명은, 깊이 맵에서의 픽셀의 깊이 측정치 값이 장면에 존재하는 사항(matter)에 되도록 많이 대응하게 보정되도록, "결함성 픽셀"로 통칭되는 "노이지" 및 플라잉 픽셀"을 해소하는 방법 및 시스템에 관련된다. 이 방법 및 시스템은 3D 감지 카메라, 매체 저장 장치 또는 인터넷을 통한 매체에 의해 제공되는 위상 맵, 깊이 맵, 또는 3D 포인트 클라우드 형태로 이미지 임베딩 깊이 관련 측정치를 포함하는 입력을 갖는다. 몇몇 특정한 깊이 변화도 측정치(depth gradient measurement), 벡터 및 지리적 제약 계산(geometrical constrained computation), 임계치, 및 더욱 특별하게 가중된 콘볼루션에 대해 "노이지" 및 보간된 "플라잉 픽셀" 둘 다를 보정하기 위해 3D 이미지의 입력 깊이 데이터에 특정한 신호 처리가 적용된다. 그 결과의 출력은, 더 적은 노이즈, 및 z-축 또는 깊이 축을 따라 에지를 갖는 장면 오브젝트 주위의 상당히 더 적은 보간된 "플라잉 픽셀"을 포함하는 재구성된 깊이 맵 이미지를 제공한다. 향상된 및/또는 보정된 이미지는 3D 카메라 장치 또는 다른 3D 이미징 시스템에 의해 제공된 원본의 입력 3D 이미지 대신에 3D 이미징 어플리케이션에 의해 사용되도록 되어, 이러한 어플리케이션의 조작성(operability) 및 효율을 더 좋게 할 수 있다.
먼저 도 1을 참조하면, 장면의 2차원(2D) 평면도가 x-y 평면으로 도시되어 있다. 카메라(10)는 점선(12, 14)에 의해 정해지는 시계를 가지며, 이 시계에는 포그라운드 오브젝트(16) 및 백그라운드 오브젝트(18)가 나타내어져 있다. 포그라운드 오브젝트(16)의 에지(20)는 도 3을 참조하여 설명될 것인 바와 같은 백그라운드 오브젝트(18)에 대하여 "플라잉 픽셀"을 발생할 수 있다.
도 2는 x-y 평면에 포그라운드 오브젝트(16) 및 백그라운드 오브젝트(18)를 갖는 도 1에서 정해진 3D 장면의 2D 전방 카메라 뷰이다. 이 뷰에서, 에지(20)는 포그라운드 오브젝트(16) 및 백그라운드 오브젝트(18) 간에 우수하게 정해지고 선명하다. 에지(20) 만이 도시되어 있지만, 포그라운드 오브젝트(16)가 백그라운드 오브젝트(18)에 중첩하고 있는 상단 에지(22)와 하단 에지(24)에도 "플라잉 픽셀"이 나타나게 될 수 있다는 것을 이해할 것이다. 이에 부가하여, 오브젝트(16, 18)의 평탄한 연속 표면 또한 카메라 센서 성능으로 인해 몇몇의 노이지 픽셀(noisy pixel)을 나타낼 수 있다는 것을 이해할 것이다.
도 3은 도 1에 도시된 이미지에 대응하는 픽셀의 면에서 포그라운드 오브젝트(32) 및 백그라운드 오브젝트(34)를 도시하고 있다. 도시된 바와 같이, 2개의 "플라잉 픽셀"(36, 38)이 포그라운드 오브젝트(32)와 백그라운드 오브젝트(34) 사이의 에지 상에 위치되어 있다. 이들 "플라잉 픽셀" 둘 모두는 포그라운드 오브젝트(32) 또는 백그라운드 오브젝트(34) 중의 어느 하나에 속하거나, 또는 하나의 플라잉 픽셀이 포그라운드 오브젝트(32)에 속하고, 다른 하나의 플라잉 픽셀이 백그라운드 오브젝트(34)에 속할 수 있다. 포그라운드 오브젝트(32)는 연속하는 평탄한 표면 오브젝트이고, 이 오브젝트의 측정치가 적어도 하나의 노이지 픽셀(37)을 보여주고 있다.
도 4는 도 3과 유사하지만 깊이 맵에 관한 신호(40)를 보여주는 도면이다. 도시된 바와 같이, 신호(40)에서, 하위 라인은 픽셀 42로 나타낸 포그라운 오브젝트에 속하고, 상위 라인은 픽셀 44로 나타낸 백그라운드 오브젝트에 속하며, 하위 라인과 상위 라인 간의 경사는 "플라잉 픽셀"(46, 48)에 대응한다. 하위 라인에서의 블립(blip)은 픽셀 42로 나타낸 포그라운드 오브젝트에서의 "노이지 픽셀"(43)에 해당한다.
본 발명에 따른 처리 후에는, "노이즈 픽셀"(43) 및 "플라잉 픽셀"(46, 48)이 도 5에 나타낸 바와 같이 보정된다. 도 5에 도시된 바와 같이, 신호(50)는 더 우수하게 정의되어 픽셀 52에 대응하는 직선의 하위 라인 및 픽셀 54에 대응하는 직선의 상위 라인을 갖는다. 도 4에서 도면부호 43으로 나타낸 "노이지 픽셀"은 픽셀 53으로 나타낸 바와 같이 보정되며, "플라잉 픽셀"(46, 48)은 포그라운드 오브젝트(픽셀 56)에 대응하는 픽셀(52) 및 백그라운드 오브젝트(픽셀 58)에 대응하는 픽셀(54)로 정확하게 지정된다.
도 6에는, 본 발명의 방법의 일실시예의 주요 단계를 예시하는 흐름도가 도시되어 있다. 단계 60에서, 입력 깊이 맵 또는 3D 포인트 클라우드가 획득된다. 깊이 맵 또는 3D 포인트 클라우드는 3D 카메라, 매체 저장 장치 또는 인터넷으로부터 직접 획득될 수 있다. 단계 62에서, "결함성 픽셀"로 통칭되는 "노이지 픽셀" 및 보간된 "플라잉 픽셀"이 검출된다. 단계 64에서, "노이지 픽셀"인 것으로 판정된 각각의 픽셀에 대해 디노이징 보정 계수가 결정되고, 이 보정 계수가 이웃 픽셀에 대해 적용된다. "결함성 픽셀"인 것으로 판정된 각각의 픽셀에 대한 보정 계수의 결정이 단계 66에서 수행되고 적용된다. 단계 66에서, 포그라운드 오브젝트 및 백그라운드 오브젝트 깊이 값에 대하여 보정이 수행된다. 단계 64 및 66에서, 보정 계수의 이러한 결정은 통계 모드(statistical mode)를 이용하는 것을 포함할 수 있으며, 이 모드에서는, 보정되고 있는 픽셀에 할당된 값이 이웃 픽셀의 평균, 중간, 및/또는 모드 값 중의 적어도 하나에 따라 결정된다. 그리고나서, 복원된 깊이 맵 또는 3D 포인트 클라우드가 출력된다(단계 68). 단계 68로부터의 출력은 정확하고 신뢰할 수 있는 깊이 맵이 요구되거나 바람직하게 되는 어떠한 어플리케이션에도 사용될 수 있다.
본 발명의 방법은 2개의 주요 단계, 즉 "노이지 픽셀" 및 보간된 "플라잉 픽셀"을 검출하는 단계와, 검출된 "노이지 픽셀" 및 "플라잉 픽셀" 둘 모두를 보정하는 단계를 포함할 수 있다. "노이지 픽셀" 및 보간된 "플라잉 픽셀" 둘 모두의 검출을 위해, 제1 단계는 픽셀이 "노이지 픽셀"인지의 여부 또는 "플라잉 픽셀"인지의 여부를 결정하기 위한 포인트 주위의 방향 도함수(directional derivative)를 이용하며, 이 포인트는 평가되고 있는 픽셀에 대응한다. 바람직하게는, 깊이 이미지 픽셀의 전부가 평가된다. 이들 방향 도함수는 다방향성(multi-directional)이지만, 설명의 편의를 위해 아래에서는 단지 수직 및 수평 방향만이 설명된다. 그러나, 다른 방향에도 동일한 원리가 적용된다는 것을 이해할 것이다. 이에 부가하여, 방향 도함수를 이용하지 않고 다른 방법이 적용될 수도 있다.
"P"가 깊이 맵에서 평가되고 있는 픽셀이고, "a"가 평면에서의 선택된 방향이면, da(P)는 방향 "a"에서의 픽셀 "P"에서의 도함수의 값이 될 것이다. 방향 도함수의 절대값
Figure pct00001
Figure pct00002
가 방향 "a"에서의 사전에 정해진 임계치를 초과하고, da(P)와
Figure pct00003
의 부호가 동일하면, 픽셀은 "플라잉"인 것으로 선언된다. 픽셀이 모든 이웃 픽셀과는 크게 상이한 깊이 값을 가지면, 구체적으로 적어도 하나의 방향 도함수가 사전에 정해진 임계치를 초과하고, 적어도 2개의 방향 도함수가 반대 부호를 갖는다면, 이 픽셀은 "노이지"인 것으로 선언된다. "노이지 픽셀" 시험 또는 "플라잉 픽셀" 시험 중의 어느 하나가 각각의 픽셀에 대한 임의의 개수의 방향에 대해 수행될 수 있다. 이상적으로는, 방향은 단위 원(unit circle), 즉 하나의 픽셀 반경의 원을 커버해야만 한다. 전형적으로, 방향의 세트 {a_i} 가 다음으로 이용될 수 있으며, 여기서 i=1∼n이다:
Figure pct00004
방향 도함수는 유한 차분법(finite difference)에 의해 간략하게 근사될 수 있다. 도 7에서, 픽셀 70은 평가되고 있는 픽셀 "P"이며, 픽셀 72, 74, 76 및 78은 픽셀 "P"의 상단 픽셀 "T", 좌측 픽셀 "L", 우측 픽셀 "R" 및 하단 픽셀 B"에 대응한다. 픽셀 72, 74, 76 및 78의 값은 2개의 방향, 즉 0°와
Figure pct00005
의 각도(수평 방향과 수직 방향)에서 픽셀이 "플라잉"인지의 여부 및 픽셀이 "노이지"인지의 여부를 판정하기 위해 이용될 수 있다.
이들 2개의 방향에 대해, "노이지 픽셀" 시험은
Figure pct00006
또는
Figure pct00007
sign(R - P) ≠sign(P - L) 또는 sign(T - P) ≠sign(P - B)
로 감소시킨다.
"플라잉 픽셀" 시험은
Figure pct00008
또는
Figure pct00009
sign(R - P) = sign(P - L) 또는 sign(T - P) = sign(P - B)
로 감소시키며, 여기서 Th는 적용되는 임계값이고, k는 사전에 결정된 가중 계수이다. 예컨대, 0.08m의 Th 값이 이용될 수 있지만, 임의의 다른 적합한 값도 이용될 수 있다는 것을 이해할 것이다. 위에 제공된 "플라잉 픽셀" 시험 및 "노이지 픽셀" 시험에 대한 대안으로서, 아래의 것이 대신 이용될 수 있다.
Figure pct00010
이 후자의 경우, 임계치의 값은 평가되고 있는 픽셀 주위의 2개의 픽셀들 사이의 값을 이용하기 때문에 이전의 시험에서 제공된 것보다 클 수도 있다.
"노이지 픽셀" 및 "플라잉 픽셀"이 식별된 후, 제2 단계는 각각의 식별된 "노이지 픽셀" 또는 "플라잉 픽셀"에 개별적인 보정을 적용하기 위한 새로운 깊이 값을 근사한다. 보정은 단일 프로세스 내에서 단일 패스(single pass)로 수행될 수 있다. 더욱 명확한 이해를 위해, 보정 단계는 시간에 대해 순차적인 것으로서 설명되어 있다.
모든 "플라잉 픽셀" 및 "노이지 픽셀"은 먼저 유효하지 않은 것으로 플래그된다. 구체적으로, ToF 카메라를 이용할 때, 예컨대 좋지 않은 신뢰(bad confidence), 낮은 IR 조사(illumination)와 같은 다른 이유로 신뢰할 수 없는 것으로 판단(즉, 쓰레솔딩(thresholding)을 이용하여)될 수도 있는 다른 픽셀 또한 유효하지 않은 것으로서 플래그될 수 있으며, 이들의 깊이 또한 본 발명의 방법을 이용하여 다시 근사될 수 있다.
원리는 유효하지 않은 픽셀의 새로운 깊이를 근사하기 위해 유효하지 않은 픽셀의 유효한 주변 픽셀을 이용하는 것이다. 이것은 픽셀 80이 픽셀 쌍(82, 84)으로 도시된 바와 같은 주변의 유효한 픽셀에 관련하여 평가되고 있는 도 8에 도시되어 있다. 평가를 위해 픽셀의 쌍이 도시되어 있지만, 판정을 위해 어떠한 적합한 수의 유효 픽셀도 이용될 수 있다는 것을 이해할 것이다.
도 8에서, 유효하지 않은 "플라잉 픽셀" P를 둘러싸는 유효 픽셀은 "V"로 나타내어져 있다. 그러나, 이 근사를 위해, 도면부호 82로 나타낸 포그라운드의 유효 픽셀 또는 도면부호 84로 나타낸 백그라운드의 유효 픽셀의 둘 중 어느 하나만이 사용되며, 포그라운드와 백그라운드 둘 모두로부터의 유효 픽셀의 조합이 이용되지는 않는다. 픽셀 82는 "P"보다 작은 깊이 값을 가질 것이며, 픽셀 84는 "P"보다 큰 깊이 값을 가질 것이다.
픽셀이 유효하지만 "노이지"인 것으로서 식별되는 "노이지 픽셀"에 대해, "플라잉 픽셀"에 대해 위에서 설명한 것과 동일한 프로세스가 "노이지 픽셀"에 대해 수행된다.
근사를 위해 유효 픽셀들 중의 어느 것을 이용할지에 대한 선택은 포그라운드 오브젝트 또는 백그라운드 오브젝트의 둘 중 어느 하나에 있는 유효하지 않은 포인트에 대한 선호(preference)를 평가한다. 선호 모드(preference mode)는 예컨대 "플라잉 픽셀"을 이들의 깊이 값에 요구되는 최소량의 보정에 따라 맵핑함으로써, 카메라로부터의 거리가 사전에 결정된 임계치를 초과하는 경우에는 포그라운드 오브젝트에 대해 "플라잉 픽셀"을 설정함으로써, 또는 카메라까지의 거리가 사전에 결정된 임계치 미만인 경우에는 백그라운드 오브젝트에 대해 "플라잉 픽셀"을 설정함으로써 결정될 수 있다. 포그라운드 오브젝트에 대한 선호가 이용되고, 유효한 포그라운드 오브젝트 픽셀의 세트가 비어있지 않으면, "P"의 새로운 깊이 값은 단지 이들 유효한 포그라운드 오브젝트 픽셀에 기초하여 근사될 것이다. 유효한 포그라운드 오브젝트 픽셀의 세트가 비어 있고, 유효한 백그라운드 오브젝트 픽셀의 세트가 비어있지 않으면, "P"의 새로운 깊이 값은 단지 유효한 백그라운드 오브젝트 픽셀에 기초하여 근사될 것이다. 유효한 포그라운드 오브젝트 픽셀에 관한 세트 및 유효한 백그라운드 오브젝트 픽셀에 관한 세트 둘 모두가 비어있으면, 픽셀이 보정될 수 없으며, 유효하지 않은 것으로 유지된다. 마찬가지로, 백그라운드 오브젝트에 대한 선호가 이용되는 경우에는, 유효한 백그라운드 오브젝트 픽셀의 세트가 비어있지 않으면, "P"의 새로운 깊이 값은 단지 이들 유효한 백그라운드 오브젝트 픽셀에 기초하여 근사될 것이다. 유효한 백그라운드 오브젝트 픽셀의 세트가 비어 있고, 유효한 포그라운드 오브젝트 픽셀의 세트가 비어있지 않으면, "P"의 새로운 깊이 값은 단지 유효한 포그라운드 오브젝트 픽셀의 세트에 기초하여 근사될 것이다. 유효한 백그라운드 오브젝트 픽셀에 관한 세트 및 유효한 포그라운드 오브젝트 픽셀에 관한 세트 둘 모두가 비어있으면, 픽셀이 보정될 수 없으며, 유효하지 않은 것으로 유지된다.
주변 픽셀(포그라운드 오브젝트 또는 백그라운드 오브젝트의 둘 중 어느 하나로부터의)의 세트로부터 "P"의 깊이 값의 근사는, 가중 계수를 적용하거나, 회귀 평면(regression plane)을 이용하거나 통계적 결정을 이용하는 임의의 보간 방법을 포함한 다양한 수단에 의해 이루어질 수 있다.
본 발명의 일실시예에서, 유효 포그라운드 픽셀에 기초한 회귀 평면이 활용된다. 포인트 p에서의 회귀 평면의 깊이 값은 픽셀 "P"에 대한 새로운 깊이 값으로서 할당된다.
또 다른 실시예에서, 포그라운드 오브젝트에서의 유효 픽셀의 평균 깊이 값이 결정되고, 픽셀 "P"에 대한 새로운 깊이 값으로서 할당된다. 대안으로서, 유효 포그라운드 오브젝트 픽셀 및/또는 유효 백그라운드 오브젝트 픽셀의 깊이 값의 최소치, 최대치, 중간치, 또는 모드가 이용될 수 있다. 유효 포그라운드 오브젝트 픽셀의 세트 및 유효 백그라운드 오브젝트 픽셀의 세트에 대해 상이한 근사 방법이 이용될 수 있다. 예컨대, 근사가 유효 포그라운드 오브젝트 픽셀에 의존하면, 세트에서의 유효 픽셀의 최대 깊이 값이 이용될 수 있고, 근사가 유효 백그라운드 픽셀에 의존하면, 세트에서의 유효 픽셀의 최소 깊이 값이 이용될 수 있다.
깊이 값이 이 방법에 의해 성공적으로 근사된 유효하지 않은 모든 픽셀, 즉 적어도 하나의 유효한 이웃 픽셀을 갖는 유효하지 않은 모든 픽셀은 유효한 것으로서 플래그된다. 이 방법은, 프로세스의 개시 시에 적어도 하나의 픽셀이 유효한 것으로 플래그되면, 깊이 맵에서의 유효하지 않은 모든 픽셀이 재구축되도록 반복적으로 되풀이 될 수 있다.
그러나, "플라잉 픽셀" 식별 및 보정의 신뢰도를 향상시키기 위해, 카메라에 의해 발생된 깊이 맵으로부터 노이즈가 제거될 필요가 있다. 이것은 먼저 각각의 픽셀에 대한 ωi를 결정하고, 그리고나서 각각의 픽셀에 대해 3×3 가중된 ωi 커넬을 이용함으로써 달성될 수 있다. 다중 패스(multiple pass)가 커널 ωi 파라미터를 다시 계산(re-computing)하여 적용되거나 또는 다시 계산하지 않고서도 적용될 수 있다.
다시 도 8을 참조하면, 깊이 필드로부터 노멀 각도(normal angle)를 결정하기 위해 이하의 수식이 이용될 수 있다:
Figure pct00011
(1)
Figure pct00012
(2)
Figure pct00013
(3)
Figure pct00014
(4)
Figure pct00015
(5)
Figure pct00016
(6)
식 (1) 및 (2)는 기울기 ðz(x) 및 ðz(y)에 관한 것이며, 식 (3)은 기울기의 항에서의 반경을 제공한다. 식 (4)는 설명된 바와 같은 픽셀 "P"의 폭을 제공하고, 식 (5) 및 (6)은 각각 노멀 반경(normal radius) 및 노멀 각도를 제공한다.
예컨대 이용 가능한 경우에는 카메라로부터 노멀 각도를 계산하거나, 근사하거나, 또는 검색(retrieve)하기 위해 다른 방법이 이용될 수 있으며, 또한 카메라, 신호 및 플랫폼 특성에 좌우되어 다른 방법이 이용될 수 있다.
예컨대, 계산 효율(computation efficiency)을 위해, 깊이 맵으로부터의 ωi가 다음과 같이 결정될 수 있다:
Figure pct00017
일반적으로, 함수 ωi=Fw(dz)는 윈도우 함수(window function)로 지칭된다.
노이즈 제거를 거친 후, 필드 기울기(field gradient)가 계산되며, 2차 도함수 d2z의 부호가 로컬 디스정션 파라미터(local disjunction parameter)로서 이용된다. 부분 2차 도함수 d2z는 투영된 공간에서의 기울기 벡터의 맨 끝(extremity) 둘 모두에서의 도함수 간의 차로서 계산된다.
가중된 ωi 3×3 바이폴라 커널이 n개의 패스에 적용되며, 여기서 n≥1이다. 디스정션 파라미터는 커널 내에서의 그룹 식별(group identification )로서 작용하며, 반대 부호를 갖는 픽셀을 무시하면서 동일한 부호의 픽셀 값이 함께 평균화될 것이다.
이 원리는 이들 포인트가 둘 모두의 부호로 평균화될 수 있도록 디스정션 파라미터에 대해 부호가 없는(즉, 0과 동일한) 값을 허용하도록 개선된다. 이러한 개선은 디스정션에 의해 출력 신호에 도입되는 노이지를 감소시키기 위한 노력으로 예컨대 ð2z 또는 IR 파워와 같은 기타 데이터를 이용하여 임계값이 정션 파라미터에 적용될 수 있도록 한다.
이 커널은 요구된 효과를 발생하기 위해 복수 회 적용될 수 있다. 전형적으로, 현재의 TOF 신호는 2-패스 처리로부터 가장 큰 이점을 갖는다.
이 디스정션을 가속화하고 및/또는 다중-패스 처리를 방지하기 위해, 기울기 방향에서의 변위 맵(displacement map)이 로컬 확장(local expansion)을 생성하도록 구축될 수 있다. 개별 깊이 값뿐만 아니라 로컬 최소값 및/또는 최대값이 이용될 수 있다. 그러나, 출력 신호에서의 노이즈와 요구된 디스정션 레이트가 어느 확장 방법을 사용할지를 결정할 것이다.

Claims (15)

  1. 3차원 이미지에서의 결함성 픽셀 깊이 데이터 값의 깊이 맵 품질 향상을 위한 방법에 있어서,
    a) 장면에 관한 깊이 측정치 데이터를 결정하는 단계;
    b) 상기 깊이 측정치 데이터 내의 결함성 픽셀을 검출하는 단계;
    c) 각각의 검출된 결함성 픽셀에 대한 깊이 보정(depth correction)을 정하는 단계; 및
    d) 각각의 검출된 결함성 픽셀의 깊이 측정치 데이터에 상기 깊이 보정을 적용하는 단계
    를 포함하는 깊이 맵 품질 향상 방법.
  2. 제1항에 있어서,
    상기 단계 b)는 각각의 픽셀에 대하여 적어도 하나의 방향에서의 깊이 관련 방향 도함수(depth related directional derivative)를 결정하고 이용하는 단계를 포함하는, 깊이 맵 품질 향상 방법.
  3. 제2항에 있어서,
    상기 단계 c)는, 각각의 식별된 결함성 픽셀에 대해,
    c1) 깊이 방향 도함수에 관련하여 벡터를 결정하는 단계;
    c2) 결정된 벡터에 대한 노멀(normal)을 결정하는 단계;
    c3) 적어도 상기 결정된 벡터와 상기 결정된 벡터에 대한 상기 노멀 중의 하나의 결과를, 그 값이 픽셀 폭에 의해 표현된 실제 공간에서의 메트릭 사이즈(metric size)에 관련되어 있는 데이터 파라미터와 함께 이용하여, 가중 계수 파라미터를 결정하는 단계; 및
    c4) 상기 가중 계수 파라미터와 이웃 픽셀에 관한 정보 중의 적어도 하나를 이용하여 보정 계수를 결정하는 단계
    를 포함하는, 깊이 맵 품질 향상 방법.
  4. 제3항에 있어서,
    상기 단계 c4)는 단지 유효한 이웃 픽셀의 데이터값만을 이용하는, 깊이 맵 품질 향상 방법.
  5. 제3항 또는 제4항에 있어서,
    상기 단계 c4)는 이웃 픽셀의 깊이 값, 가중 계수 및 보정 계수 중의 적어도 하나를 이용하는 단계를 포함하는, 깊이 맵 품질 향상 방법.
  6. 제3항 내지 제5항 중 어느 한 항에 있어서,
    상기 단계 c4)는 이웃 픽셀에 관한 정보의 통계 모드를 이용하는 단계를 더 포함하는, 깊이 맵 품질 향상 방법.
  7. 제3항 내지 제6항 중 어느 한 항에 있어서,
    상기 단계 c4)는 이웃 픽셀을 통해 결정된 회귀 평면(regressive plane)으로부터 추출된 깊이 정보를 이용하는 단계를 더 포함하는, 깊이 맵 품질 향상 방법.
  8. 제3항 내지 제7항 중 어느 한 항에 있어서,
    상기 결함성 픽셀은 3차원 이미지에서의 포그라운드 오브젝트와 백그라운드 오브젝트 간의 에지에 위치된 보간된 픽셀 데이터 값을 포함하는, 깊이 맵 품질 향상 방법.
  9. 제8항에 있어서,
    상기 단계 b)는, 픽셀의 적어도 하나의 깊이 방향 도함수가 사전에 결정된 임계치보다 클 때에, 그리고 적어도 2개의 연속되는 방향 도함수가 동일한 부호를 갖는다면, 에지에서의 픽셀의 결함성 깊이 측정치를 식별하기 위해 상기 깊이 관련 방향 도함수를 이용하는 단계를 더 포함하는, 깊이 맵 품질 향상 방법.
  10. 제3항 내지 제7항 중 어느 한 항에 있어서,
    상기 결함성 픽셀은 3차원 이미지의 연속 표면에 위치된 노이지 픽셀 데이터 값(noisy pixel data value)을 포함하는, 깊이 맵 품질 향상 방법.
  11. 제10항에 있어서,
    상기 단계 b)는, 픽셀의 적어도 하나의 깊이 방향 도함수가 또 다른 사전에 결정된 임계치보다 크고, 그 픽셀의 또 다른 깊이 방향 도함수 역시 또 다른 사전에 결정된 임계치보다 클 때에, 연속 표면 상의 픽셀의 결함성 깊이 측정치를 식별하기 위해 상기 깊이 관련 방향 도함수를 이용하는 단계를 더 포함하며, 이들 2개의 방향 도함수가 반대 부호를 갖는, 깊이 맵 품질 향상 방법.
  12. 제11항에 있어서,
    상기 단계 c)는, 각각의 식별된 결함성 픽셀에 대해,
    c5) 2개의 직교축을 이용하여 상기 깊이 방향 도함수 데이터 값에 관련하여 벡터를 결정하는 단계;
    c6) 결정된 벡터의 반경 값(radius value), 결정된 벡터에 대한 노멀 정보(normal information), 및 픽셀에 의해 표현된 장면에서의 실제 폭 중의 적어도 하나를 이용하여 가중 계수 파라미터를 결정하는 단계; 및
    c7) 결정된 상기 가중 계수 파라미터를 이웃 픽셀에 관한 정보와 조합하여 이용하여 보정 계수를 적용하는 단계
    를 더 포함하는, 깊이 맵 품질 향상 방법.
  13. 제2항 내지 제12항 중 어느 한 항에 있어서,
    상기 깊이 관련 방향 도함수는 적어도 2개의 직교축을 이용하여 결정되는, 깊이 맵 품질 향상 방법.
  14. 제2항 내지 제12항 중 어느 한 항에 있어서,
    상기 깊이 관련 방향 도함수는 노멀 맵(normal map)을 이용하여 결정되는, 깊이 맵 품질 향상 방법.
  15. 제2항 내지 제13항 중 어느 한 항에 있어서,
    상기 깊이 관련 방향 도함수는 노멀 맵을 결정하기 위해 이용되는, 깊이 맵 품질 향상 방법.
KR1020147001039A 2011-06-24 2012-06-22 3차원 이미지에서의 결함성 픽셀 깊이 데이터 값의 깊이 맵 품질 향상을 위한 방법 KR101554241B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11171408 2011-06-24
EP11171408.5 2011-06-24
PCT/EP2012/062174 WO2012175731A1 (en) 2011-06-24 2012-06-22 Depth measurement quality enhancement

Publications (2)

Publication Number Publication Date
KR20140027468A true KR20140027468A (ko) 2014-03-06
KR101554241B1 KR101554241B1 (ko) 2015-09-18

Family

ID=46275736

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147001039A KR101554241B1 (ko) 2011-06-24 2012-06-22 3차원 이미지에서의 결함성 픽셀 깊이 데이터 값의 깊이 맵 품질 향상을 위한 방법

Country Status (7)

Country Link
US (1) US9426444B2 (ko)
EP (1) EP2538242B1 (ko)
JP (2) JP6143747B2 (ko)
KR (1) KR101554241B1 (ko)
CN (1) CN103814306B (ko)
TW (1) TWI536318B (ko)
WO (1) WO2012175731A1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101865821B1 (ko) * 2016-12-30 2018-06-08 동의대학교 산학협력단 깊이 영상의 잡음 제거 방법 및 깊이 영상의 잡음 제거 장치 그리고 잡음 제거를 통한 부호화 방법과 부호화 장치
KR20190097212A (ko) * 2016-12-21 2019-08-20 인터디지털 브이씨 홀딩스 인코포레이티드 이미지에 키 정보를 임베딩하기 위한 방법 및 장치
US10430956B2 (en) 2016-09-23 2019-10-01 Samsung Electronics Co., Ltd. Time-of-flight (TOF) capturing apparatus and image processing method of reducing distortion of depth caused by multiple reflection
WO2022010330A1 (ko) * 2020-07-10 2022-01-13 주식회사 메디트 데이터 잠금 시스템 및 데이터 잠금 방법
KR102525570B1 (ko) * 2022-11-30 2023-04-25 주식회사 테스트웍스 라이다-카메라 영상 융합을 위한 라이다 데이터 이상치 제거 방법 및 이를 수행하는 컴퓨팅 장치
WO2023224326A1 (ko) * 2022-05-18 2023-11-23 삼성전자 주식회사 깊이 정보를 획득하는 증강 현실 디바이스 및 그 동작 방법

Families Citing this family (105)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
EP2750391B1 (en) 2012-12-31 2017-03-22 Nokia Technologies Oy Method, apparatus and computer program product for processing of images
EP2956910A2 (en) 2013-02-12 2015-12-23 Thomson Licensing Method and device for enriching the content of a depth map
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US9860510B2 (en) * 2013-03-15 2018-01-02 Intuitive Surgical Operations, Inc. Depth based modification of captured images
US9729860B2 (en) * 2013-05-24 2017-08-08 Microsoft Technology Licensing, Llc Indirect reflection suppression in depth imaging
US9584790B2 (en) * 2013-06-03 2017-02-28 Microsoft Technology Licensing, Llc Edge preserving depth filtering
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
US9464885B2 (en) 2013-08-30 2016-10-11 Hand Held Products, Inc. System and method for package dimensioning
CA2863709C (en) * 2013-09-17 2016-11-01 Motion Metrics International Corp. Method and apparatus for performing a fragmentation assessment of a material
KR20150037366A (ko) * 2013-09-30 2015-04-08 삼성전자주식회사 깊이 영상의 노이즈를 저감하는 방법, 이를 이용한 영상 처리 장치 및 영상 생성 장치
US9582887B2 (en) 2013-10-09 2017-02-28 Sony Corporation Methods and apparatus for determining field of view dependent depth map correction values
CN103927782A (zh) * 2014-01-06 2014-07-16 河南科技大学 一种用于深度图像曲面拟合的方法
US9418432B2 (en) 2014-03-28 2016-08-16 Sony Corporation Imaging system with depth estimation mechanism and method of operation thereof
US9098754B1 (en) * 2014-04-25 2015-08-04 Google Inc. Methods and systems for object detection using laser point clouds
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
AU2014218390B2 (en) * 2014-08-27 2017-01-12 Canon Kabushiki Kaisha Method, system and apparatus for forming a high resolution depth map
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
JP6017735B2 (ja) * 2014-10-14 2016-11-02 オリンパス株式会社 撮像システム
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9557166B2 (en) 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
CN104378619B (zh) * 2014-11-12 2016-09-28 合肥工业大学 一种基于前后景梯度过渡的快速高效的空洞填补算法
CN104778673B (zh) * 2015-04-23 2018-11-09 上海师范大学 一种改进的高斯混合模型深度图像增强方法
GB2541153A (en) * 2015-04-24 2017-02-15 Univ Oxford Innovation Ltd Processing a series of images to identify at least a portion of an object
GB2537831A (en) * 2015-04-24 2016-11-02 Univ Oxford Innovation Ltd Method of generating a 3D representation of an environment and related apparatus
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US10677924B2 (en) 2015-06-23 2020-06-09 Mezmeriz, Inc. Portable panoramic laser mapping and/or projection system
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3396313B1 (en) 2015-07-15 2020-10-21 Hand Held Products, Inc. Mobile dimensioning method and device with dynamic accuracy compatible with nist standard
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
CN105374019B (zh) * 2015-09-30 2018-06-19 华为技术有限公司 一种多深度图融合方法及装置
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
CN105445751B (zh) * 2015-11-18 2018-09-07 国家海洋局第一海洋研究所 一种浅水区域水深比值遥感反演方法
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
EP3422285A4 (en) * 2016-02-22 2019-03-06 Ricoh Company, Ltd. IMAGE PROCESSING DEVICE, IMAGE CAPTURE DEVICE, MOBILE BODY APPARATUS CONTROL SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
JP6431495B2 (ja) * 2016-03-25 2018-11-28 本田技研工業株式会社 教師データ生成方法
JP6630432B2 (ja) * 2016-03-31 2020-01-15 富士フイルム株式会社 距離画像処理装置、距離画像取得装置、及び距離画像処理方法
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10165168B2 (en) 2016-07-29 2018-12-25 Microsoft Technology Licensing, Llc Model-based classification of ambiguous depth image data
US10451714B2 (en) 2016-12-06 2019-10-22 Sony Corporation Optical micromesh for computerized devices
US10536684B2 (en) 2016-12-07 2020-01-14 Sony Corporation Color noise reduction in 3D depth map
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US10181089B2 (en) * 2016-12-19 2019-01-15 Sony Corporation Using pattern recognition to reduce noise in a 3D map
US10178370B2 (en) 2016-12-19 2019-01-08 Sony Corporation Using multiple cameras to stitch a consolidated 3D depth map
US10495735B2 (en) 2017-02-14 2019-12-03 Sony Corporation Using micro mirrors to improve the field of view of a 3D depth map
US10795022B2 (en) 2017-03-02 2020-10-06 Sony Corporation 3D depth map
CN106981081A (zh) * 2017-03-06 2017-07-25 电子科技大学 一种基于深度信息提取的墙面平整度检测方法
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US10979687B2 (en) 2017-04-03 2021-04-13 Sony Corporation Using super imposition to render a 3D depth map
CN108234858B (zh) * 2017-05-19 2020-05-01 深圳市商汤科技有限公司 图像虚化处理方法、装置、存储介质及电子设备
JP6813436B2 (ja) * 2017-06-16 2021-01-13 株式会社東芝 情報処理装置、移動体、情報処理方法、およびプログラム
CA3009798A1 (en) * 2017-07-12 2019-01-12 General Electric Company Graphic overlay for measuring dimensions of features using a video inspection device
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
EP3438699A1 (de) * 2017-07-31 2019-02-06 Hexagon Technology Center GmbH Distanzmesser mit spad-anordnung zur berücksichtigung von mehrfachzielen
EP3680857B1 (en) * 2017-09-11 2021-04-28 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing method and apparatus, electronic device and computer-readable storage medium
EP3462415A1 (en) * 2017-09-29 2019-04-03 Thomson Licensing Method and device for modifying attributes of points of a 3d scene
US10484667B2 (en) 2017-10-31 2019-11-19 Sony Corporation Generating 3D depth map using parallax
US11393114B1 (en) * 2017-11-08 2022-07-19 AI Incorporated Method and system for collaborative construction of a map
WO2019162564A1 (en) * 2018-02-22 2019-08-29 Nokia Technologies Oy An apparatus, a method and a computer program for volumetric video
US10477220B1 (en) 2018-04-20 2019-11-12 Sony Corporation Object segmentation in a sequence of color image frames based on adaptive foreground mask upsampling
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
US10549186B2 (en) 2018-06-26 2020-02-04 Sony Interactive Entertainment Inc. Multipoint SLAM capture
JP7117914B2 (ja) 2018-06-29 2022-08-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020010146A (ja) 2018-07-05 2020-01-16 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020013291A (ja) * 2018-07-18 2020-01-23 コニカミノルタ株式会社 物体検出システム及び物体検出プログラム
CN110956603B (zh) * 2018-09-25 2023-04-21 Oppo广东移动通信有限公司 深度图像边缘飞点的检测方法、装置及电子设备
CN110956657B (zh) * 2018-09-26 2023-06-30 Oppo广东移动通信有限公司 深度图像获取方法及装置、电子设备及可读存储介质
TWI687708B (zh) * 2018-10-09 2020-03-11 大陸商光寶電子(廣州)有限公司 誤差校正系統及其方法
CN112184603B (zh) * 2019-07-04 2022-06-24 浙江商汤科技开发有限公司 一种点云融合方法、装置、电子设备和计算机存储介质
CN110400340B (zh) * 2019-07-11 2022-03-22 Oppo广东移动通信有限公司 深度图处理方法和装置
CN110400343B (zh) * 2019-07-11 2021-06-18 Oppo广东移动通信有限公司 深度图处理方法和装置
CN112241015B (zh) * 2019-07-19 2023-03-24 北醒(北京)光子科技有限公司 一种单点激光雷达去除拖点的方法
JP2021051015A (ja) * 2019-09-25 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 測距装置、測距方法、並びにプログラム
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning
WO2021064912A1 (ja) * 2019-10-02 2021-04-08 富士通株式会社 補正方法、補正プログラムおよび情報処理システム
CN111045030B (zh) * 2019-12-18 2022-09-13 奥比中光科技集团股份有限公司 一种深度测量装置和方法
US11295521B2 (en) * 2020-03-25 2022-04-05 Woven Planet North America, Inc. Ground map generation
CN111443357A (zh) * 2020-05-19 2020-07-24 炬佑智能科技(苏州)有限公司 一种测距方法及测距系统
CN111709940B (zh) * 2020-06-19 2023-06-27 湖南恒岳重钢钢结构工程有限公司 一种基于机器视觉的电容缺陷检测方法
CN111833370A (zh) * 2020-07-22 2020-10-27 浙江光珀智能科技有限公司 一种飞行像素滤除方法及系统
JP2022083913A (ja) * 2020-11-25 2022-06-06 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN117042696A (zh) 2021-03-17 2023-11-10 富士胶片株式会社 信息处理装置、信息处理方法、程序及放射线摄影系统
JPWO2022201804A1 (ko) * 2021-03-25 2022-09-29
CN113379847B (zh) * 2021-05-31 2024-02-13 上海集成电路制造创新中心有限公司 异常像素的修正方法及设备
CN113222862A (zh) * 2021-06-04 2021-08-06 黑芝麻智能科技(上海)有限公司 图像畸变校正方法、装置、电子设备和存储介质
CN113313658B (zh) * 2021-07-29 2021-11-30 南昌虚拟现实研究院股份有限公司 图像处理方法、装置、电子设备及存储介质
US20230394691A1 (en) * 2022-06-07 2023-12-07 Toyota Research Institute, Inc. Depth estimation with sparse range sensor depth and uncertainty projection
KR102567379B1 (ko) * 2022-07-18 2023-08-17 주식회사 호인스컴퍼니 3d 모델링 자동 보정을 통한 실감 오브젝트 생성 시스템

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2807137B2 (ja) * 1992-12-15 1998-10-08 松下電工株式会社 立体形状検出方法
JPH0934932A (ja) * 1995-07-20 1997-02-07 Matsushita Electric Ind Co Ltd 3次元データの凹凸検出方法および凹凸検出装置
JPH09161072A (ja) * 1995-12-13 1997-06-20 Tsushin Hoso Kiko 映像信号の構造情報を抽出する映像処理装置
US5751290A (en) * 1996-09-20 1998-05-12 Industrial Technology Research Institute Three dimensional graphics system and method with correction to z buffer value errors
JPH10143659A (ja) * 1996-11-06 1998-05-29 Komatsu Ltd 物体検出装置
JPH11120359A (ja) * 1997-10-21 1999-04-30 Sony Corp 画像処理装置および方法、並びに伝送媒体
US6577307B1 (en) 1999-09-20 2003-06-10 Silicon Integrated Systems Corp. Anti-aliasing for three-dimensional image without sorting polygons in depth order
JP2004297267A (ja) * 2003-03-26 2004-10-21 Sharp Corp 画素欠陥処理装置
JP2006191454A (ja) * 2005-01-07 2006-07-20 Sony Corp ノイズ検出回路及び同回路を有する信号処理装置及び同装置を備えた撮像装置及びノイズ除去方法
JP4923101B2 (ja) * 2006-03-22 2012-04-25 ピルツ ゲーエムベーハー アンド コー.カーゲー 画像間の空間対応を判別して三次元再構成をする方法および装置
JP2008243184A (ja) * 2007-02-26 2008-10-09 Fujifilm Corp 濃淡画像の輪郭補正処理方法及びその装置
CN101715581B (zh) * 2007-04-20 2014-07-23 索夫特基奈蒂克软件公司 体积识别方法和系统
EP2201784B1 (en) * 2007-10-11 2012-12-12 Koninklijke Philips Electronics N.V. Method and device for processing a depth-map
JP5448617B2 (ja) * 2008-08-19 2014-03-19 パナソニック株式会社 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ
JP5567908B2 (ja) * 2009-06-24 2014-08-06 キヤノン株式会社 3次元計測装置、その計測方法及びプログラム
JP5624998B2 (ja) * 2009-12-25 2014-11-12 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
KR20110135786A (ko) * 2010-06-11 2011-12-19 삼성전자주식회사 깊이 전이 데이터를 이용한 3d 비디오 인코딩/디코딩 장치 및 방법
JP5150698B2 (ja) * 2010-09-30 2013-02-20 株式会社東芝 デプス補正装置及び方法
US9123115B2 (en) * 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10430956B2 (en) 2016-09-23 2019-10-01 Samsung Electronics Co., Ltd. Time-of-flight (TOF) capturing apparatus and image processing method of reducing distortion of depth caused by multiple reflection
KR20190097212A (ko) * 2016-12-21 2019-08-20 인터디지털 브이씨 홀딩스 인코포레이티드 이미지에 키 정보를 임베딩하기 위한 방법 및 장치
KR101865821B1 (ko) * 2016-12-30 2018-06-08 동의대학교 산학협력단 깊이 영상의 잡음 제거 방법 및 깊이 영상의 잡음 제거 장치 그리고 잡음 제거를 통한 부호화 방법과 부호화 장치
WO2022010330A1 (ko) * 2020-07-10 2022-01-13 주식회사 메디트 데이터 잠금 시스템 및 데이터 잠금 방법
WO2023224326A1 (ko) * 2022-05-18 2023-11-23 삼성전자 주식회사 깊이 정보를 획득하는 증강 현실 디바이스 및 그 동작 방법
KR102525570B1 (ko) * 2022-11-30 2023-04-25 주식회사 테스트웍스 라이다-카메라 영상 융합을 위한 라이다 데이터 이상치 제거 방법 및 이를 수행하는 컴퓨팅 장치

Also Published As

Publication number Publication date
KR101554241B1 (ko) 2015-09-18
US20140253679A1 (en) 2014-09-11
TW201308252A (zh) 2013-02-16
EP2538242A1 (en) 2012-12-26
CN103814306A (zh) 2014-05-21
JP2014524016A (ja) 2014-09-18
JP6143747B2 (ja) 2017-06-07
TWI536318B (zh) 2016-06-01
CN103814306B (zh) 2016-07-06
US9426444B2 (en) 2016-08-23
WO2012175731A1 (en) 2012-12-27
JP2016201117A (ja) 2016-12-01
JP6244407B2 (ja) 2017-12-06
EP2538242B1 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
JP6244407B2 (ja) 深度測定の品質の向上
Koch et al. Evaluation of cnn-based single-image depth estimation methods
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
US9972067B2 (en) System and method for upsampling of sparse point cloud for 3D registration
GB2564794B (en) Image-stitching for dimensioning
US8385630B2 (en) System and method of processing stereo images
JP3868876B2 (ja) 障害物検出装置及び方法
EP2531980B1 (en) Depth camera compatibility
US8687044B2 (en) Depth camera compatibility
CN104574393B (zh) 一种三维路面裂缝图像生成系统和方法
CN109801333B (zh) 体积测量方法、装置、系统及计算设备
KR101666854B1 (ko) 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법
KR20150027291A (ko) 광류 추적 방법 및 장치
CN104111038A (zh) 利用相位融合算法修复饱和产生的相位误差的方法
Jaiswal et al. 3D object modeling with a Kinect camera
JP2011232965A (ja) 平面領域検出装置及びステレオカメラシステム
CN116824070A (zh) 一种基于深度图像的实时三维重建方法及系统
Oishi et al. Denoising of range images using a trilateral filter and belief propagation
KR100933304B1 (ko) 단일 카메라를 이용한 객체 정보 추정기, 그 방법, 상기 추정기를 포함하는 멀티미디어 기기 및 컴퓨터 기기, 및 상기 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체
CN113723432B (zh) 一种基于深度学习的智能识别、定位追踪的方法及系统
JP2017199285A (ja) 情報処理装置、情報処理方法、プログラム
GB2605621A (en) Monocular depth estimation
KR101907057B1 (ko) 구면 모델링을 통한 깊이 정보 보정 방법과 보정장치
KR101904170B1 (ko) 구면 모델링을 통한 깊이 정보 보정 및 부호화 방법과 부호화장치
Dufour Real-time stereo-matching on embedded hardware for MAVs

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190906

Year of fee payment: 5