KR102224315B1 - 깊이 영상의 화면 내 예측 부호화 방법 및 장치 - Google Patents

깊이 영상의 화면 내 예측 부호화 방법 및 장치 Download PDF

Info

Publication number
KR102224315B1
KR102224315B1 KR1020190108597A KR20190108597A KR102224315B1 KR 102224315 B1 KR102224315 B1 KR 102224315B1 KR 1020190108597 A KR1020190108597 A KR 1020190108597A KR 20190108597 A KR20190108597 A KR 20190108597A KR 102224315 B1 KR102224315 B1 KR 102224315B1
Authority
KR
South Korea
Prior art keywords
pixel
encoding
local
depth image
plane
Prior art date
Application number
KR1020190108597A
Other languages
English (en)
Inventor
권순각
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020190108597A priority Critical patent/KR102224315B1/ko
Application granted granted Critical
Publication of KR102224315B1 publication Critical patent/KR102224315B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명의 실시예에 따른 깊이 영상의 화면 내 예측 부호화 방법은 깊이 영상을 기 설정된 블록 단위로 분할하는 단계; 깊이 영상 내 화소에 대한 영상 좌표를 3차원 좌표로 변환하는 단계; 상기 3차원 좌표에 기초하여 상기 블록에 대하여 제1 표면 모델로 모델링 하는 단계; 기본 모드 및 제1 표면 모델 모드를 포함하는 부호화 모드에 따른 예측깊이 값 생성하는 단계; 상기 예측깊이 값에 기초하여 상기 부호화 모드 각각에 대한 부호화 효율을 측정하는 단계; 및 상기 부호화 효율에 기초하여 상기 대상 블록을 부호화하는 단계를 포함할 수 있다. 따라서, 또한, 본 발명의 실시예는 H.264/AVC의 화면 내 예측 모드 및 표면 모델 모드 중 부호화 효율이 가장 좋은 부호화 모드를 적용하여 깊이 영상을 부호화할 수 있다.

Description

깊이 영상의 화면 내 예측 부호화 방법 및 장치{Intra Prediction Coding Method and Device for Depth Image}
본 발명은 깊이 영상의 화면 내 예측 부호화 방법 및 장치에 관한 것이다. 보다 상세하게는 깊이 영상 내 객체의 표면을 모델링하고 표면 모델을 이용하여 깊이를 예측하고 깊이 영상을 부호화할 수 있는 방법 및 장치에 관한 것이다.
영상 내 화소의 거리 정보를 나타내는 깊이 정보를 구성 화소 요소로 가지는 깊이 영상을 이용하여 영상 처리에 응용하는 방법에 대한 연구가 활발하게 연구되고 있다. 이 때, 깊이 영상을 이용하여 기존 색상 영상에서는 얻을 수 없었던, 객체의 위치 정보와 거리 정보를 획득하여, 이를 통한 새로운 객체의 정보를 획득할 수 있다. 이러한 깊이 영상의 특성으로 인해 깊이 영상을 이용한 새로운 응용분야에 대한 연구가 확대되고 있다.
색상 영상에서의 환경에 민감하고, 객체내의 여러 다른 색상 정보가 존재한다는 단점을 깊이 카메라를 통해 극복하여 좀 더 정확한 객체 검출을 수행하는 연구가 이루어졌다. 깊이 영상의 거리를 이용하여 평면의 정보를 이용하여 이를 통해 영상의 왜곡과 잡음을 제거하는 연구도 이루어졌다. 또한, 깊이 영상의 거리정보를 이용하여 배경영역에 터치를 인식하는 연구와, 이를 이용하여 여러 이벤트를 제공하는 연구가 이루어졌다. 이뿐만 아니라 인물의 형태를 인식하여 사람의 얼굴을 인식하는 연구도 여러 이루어졌다.
이러한 깊이 영상의 응용분야의 확대로 인해 깊이 영상의 부호화에 대한 필요성이 증가되었다. 먼저 깊이 룩업 테이블(Depth Lookup Table)를 이용하여 깊이 영상을 부호화하는 방법이 연구되었다. 또한, 객체의 경계 정보를 깊이 영상 부호화에 이용하는 방법이 제안되었다. 깊이 영상을 히스토그램기반으로 분석하여 깊이 영상을 부호화 하는 방법도 제안되었다. 이처럼 깊이 영상에 나타나는 특징을 이용하여 영상 부호화 효율을 높이는 연구가 많이 이루어졌다. 하지만 지금까지 이루어진 깊이 영상 부호화 연구는 대체로 색상 영상 부호화에 대해 보조적으로 이루어지거나, 색상 영상과 연계하여 깊이 영상을 부호화하는 방법에 한정되었다.
최근 기존 색상영상 부호화 방법인 H.264/AVC에서의 화면내 예측 방법은 화면 내에서 화소의 공간적 거리가 근접하다면 화소 값의 변화량이 적다는 것을 이용하므로 깊이 영상에서의 화면 내 부호화 방법에 적용될 수 있었다. 그러나, H.264/AVC에서의 화면 내 예측 방법은 근접 화소사이에 깊이가 급격히 달라진 경우 실제 측정된 깊이 값과 예측된 깊이 값의 오차가 커지는 문제가 있었다.
대한민국등록특허공보 10-1865826 B1
본 발명은 깊이 영상 내의 표면을 모델링하고 표면 모델을 이용하여 깊이를 예측하고 깊이 영상을 부호화할 수 있는 방법 및 장치를 제공할 수 있다.
또한, 본 발명은 깊이 영상의 특성을 고려하여 깊이 영상의 품질을 유지하면서도 압축율을 높일 수 있는 방법 및 장치를 제공할 수 있다.
또한, 본 발명은 깊이 영상 내의 구면 형상을 가지는 영역을 표면 모델링하여 깊이 값을 예측할 수 있는 방법 및 장치를 제공할 수 있다.
또한, 본 발명은 깊이 영상 내의 평면 형상을 가지는 영역을 표면 모델링하여 깊이 값을 예측할 수 있는 방법 및 장치를 제공할 수 있다.
또한, 본 발명의 실시예는 H264/AVC의 화면 내 예측 모드 및 표면 모델 모드 중 부호화 효율이 가장 좋은 부호화 모드에 따라 깊이 영상을 부호화할 수 있는 방법 및 장치를 제공할 수 있다.
실시예에 따른 깊이 영상의 화면 내 예측 부호화 방법은, 깊이 영상을 기 설정된 블록 단위로 분할하는 단계; 깊이 영상 내 화소에 대한 영상 좌표를 3차원 좌표로 변환하는 단계; 상기 3차원 좌표에 기초하여 상기 블록에 대하여 제1 표면 모델로 모델링 하는 단계; 기본 모드 및 제1 표면 모델 모드를 포함하는 부호화 모드에 따른 예측깊이 값 생성하는 단계; 상기 예측깊이 값에 기초하여 상기 부호화 모드 각각에 대한 부호화 효율을 측정하는 단계; 및 상기 부호화 효율에 기초하여 상기 대상 블록을 부호화하는 단계;를 포함할 수 있다.
또한, 깊이 영상의 화면 내 예측 부호화 방법은, 상기 제1 표면 모델은 구면이고, 상기 기본 모드는 H264/AVC의 화면 내 예측 모드일 수 있다.
또한, 깊이 영상의 화면 내 예측 부호화 방법은, 상기 3차원 좌표에 기초하여 상기 블록에 대하여 제2 표면 모델로 모델링 하는 단계;를 더 포함하고, 상기 제2 표면 모델은 평면이고, 상기 부호화 모드는 제2 표면 모델 모드를 더 포함할 수 있다.
또한, 깊이 영상의 화면 내 예측 부호화 방법은, 상기 제1 표면 모델은 3차원 좌표와 매개변수로 이루어진 수학식 1의 구면 방정식를 이용하여 모델링될 수 있다.
[수학식 1]
Figure 112019090487013-pat00001
x, y, z는 3차원 좌표이고, a, b, c, r는 매개변수이다.
또한, 깊이 영상의 화면 내 예측 부호화 방법은, 상기 제1 표면 모델 모드에 따른 제1 예측깊이 값은 영상좌표와 초점거리로 이루어진 수학식 2의 제2 구면 방정식을 이용하여 구할 수 있다.
[수학식 2]
Figure 112019090487013-pat00002
Figure 112019090487013-pat00003
은 제1 추정깊이 값이고, f는 초점거리이고, a, b, c, r는 매개변수이고, w, h는 영상좌표이다.
또한, 깊이 영상의 화면 내 예측 부호화 방법은, 상기 기본 모드는 제0 모드 내지 제8 모드를 포함하고, 상기 기본 모드 중 상기 제2 모드를 제외한 모드는 주변의 이미 부호화를 마친 블록을 이용하여 방향 성분을 부여하여 예측깊이 값을 생성하고, 상기 제2 모드는 주변의 이미 부호화를 마친 블록을 이용하여 평균을 이용해 예측깊이 값 생성할 수 있다.
또한, 깊이 영상의 화면 내 예측 부호화 방법은, 상기 예측깊이 값에 기초하여 상기 부호화 모드 각각에 대한 부호화 효율을 측정하는 단계는, 상기 부호화 모드 각각에 따라 부호화한 깊이 영상의 엔트로피 파워를 측정할 수 있다.
또한, 깊이 영상의 화면 내 예측 부호화 방법은, 상기 부호화 효율에 기초하여 상기 대상 블록을 부호화 하는 단계는, 부호화 모드 별로 측정된 부호화 효율 중 가장 높은 효율을 보이는 부호화 모드에 따라 생성한 예측깊이 값에 기초하여 대상 블록을 부호화할 수 있다.
실시예에 따른 깊이 영상의 화면 내 예측 부호화 장치는, 명령들을 저장하는 적어도 하나의 메모리; 및 적어도 하나의 프로세서;를 포함하고, 상기 명령들은 상기 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고, 상기 동작들은: 깊이 영상을 기 설정된 블록 단위로 분할하고, 깊이 영상 내 화소에 대한 영상 좌표를 3차원 좌표로 변환하고, 상기 3차원 좌표에 기초하여 상기 블록에 대하여 제1 표면 모델로 모델링 하고, 기본 모드 및 제1 표면 모델 모드를 포함하는 부호화 모드에 따른 예측깊이 값 생성하고, 상기 예측깊이 값에 기초하여 상기 부호화 모드 각각에 대한 부호화 효율을 측정하고, 상기 부호화 효율에 기초하여 상기 대상 블록을 부호화하는 것을 포함할 수 있다.
실시예에 따른 비일시적 컴퓨터 판독가능 매체는, 상기 명령들을 저장할 수 있다.
본 발명의 실시예는 원 깊이 영상에 포함된 중요한 정보는 보존하면서 기타 정보를 다소 제거하여 원 깊이 영상의 품질을 잃지 않으면서도 가능한 한 적은 디지털 부호량으로 깊이 영상을 표현할 수 있다.
또한, 본 발명의 실시예는 블록내의 깊이 값을 이용하여 깊이 영상 내의 표면을 구면 모델링하고, 구면 모델을 이용하여 깊이 영상의 깊이를 예측할 수 있으며, 예측된 값과 측정된 깊이 값의 오차를 이용하여 깊이 영상을 부호화할 수 있다.
또한, 본 발명의 실시예는 블록내의 깊이 값을 이용하여 깊이 영상 내의 표면을 평면 모델링하고, 평면 모델을 이용하여 깊이 영상의 깊이를 예측할 수 있으며, 예측된 값과 측정된 깊이 값의 오차를 이용하여 깊이 영상을 부호화할 수 있다.
또한, 본 발명의 실시예에 따라 구면 형상을 포함하는 객체를 부호화할 때 기존 부호화 방법에 비해 높은 깊이 예측 정확도를 보이는 효과가 있다.
또한, 본 발명의 실시예에 따라 평면 형상을 포함하는 객체를 부호화할 때 기존 부호화 방법에 비해 높은 깊이 예측 정확도를 보이는 효과가 있다.
또한, 본 발명의 실시예는 H.264/AVC의 화면 내 예측 모드 및 표면 모델 모드 중 부호화 효율이 가장 좋은 부호화 모드를 적용하여 깊이 영상을 부호화할 수 있다.
도 1은 본 발명의 깊이 영상 처리 장치를 도시하는 블록도이다.
도 2는 본 발명의 실시예에 따른 깊이 영상의 화면 내 예측 부호화 방법에 대한 순서도이다.
도 3은 카메라 좌표계 상의 한점이 영상 평면으로 투영되는 것을 나타낸 것이다.
도 4는 구면 모델링 방법에 대한 예시적인 다이어그램이다.
도 5는 깊이 영상의 부호화 모드 중 기본 모드를 설명하기 위한 일 예시도이다.
도 6은 본 발명의 깊이 예측 정확도를 측정하기 위한 실험 영상이다.
도 7은 도 6의 객체의 깊이 영상 부호화 중 깊이 예측시 기본 모드와 표면 모델 모드에 대한 부호화 모드 선택 비율을 나타낸 실험예이다.
도 8은 국소 평면을 이용한 평면 모델링 방법에 대한 예시적인 다이어그램이다.
도 9는 도 8의 국소 평면을 생성하는 일 방법에 대한 순서도이다.
도 10은 도 9의 국소 평면의 생성 방법에서 깊이 영상 내의 화소들을 3차원 좌표계로 변환한 모습을 나타낸 것이다.
도 11은 도 9의 국소 평면에서 국소 평면의 특징을 검출하는 방법을 설명하기 위한 순서도이다.
도 12는 도 8의 국소 평면의 특징인 법선 벡터를 설명하기 위한 3차원 좌표계이다.
도 13은 도 8의 국소 평면간 유사도를 계산하는 방법을 설명하기 위한 순서도이다.
도 14는 도 8의 국소 평면간 유사도에 따른 그룹화를 통한 평면 모델링 방법을 설명하기 위한 순서도이다.
도 15는 도 8의 국소 평면을 생성하는 다른 방법에 대한 순서도이다.
도 16은 도 15의 국소 평면의 특징을 검출하는 방법을 설명하기 위한 순서도이다.
도 17은 도 15의 국소 평면의 평균 국소 벡터를 구하기 위한 국소 평면 내의 복수의 국소 벡터를 나타낸 일 예이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 깊이 영상 처리 장치를 도시하는 블록도이다.
깊이 영상 처리 장치(100)는 영상 데이터를 데이터수신장치(200)로 제공할 수 있다.
깊이 영상 처리 장치(100)와 데이터수신장치(200)는 데스크톱 컴퓨터들, 노트북 (즉, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 이른바 "스마트" 폰들과 같은 전화기 핸드셋들, 이른바 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한 매우 다양한 디바이스들 중 임의의 것을 포함할 수도 있다.
일부 구현예에서는, 깊이 영상 처리 장치(100)와 데이터수신장치(200)는 무선 통신을 위한 구성(10)이 갖추어 질 수 있다.
또한, 데이터수신장치(200)는 영상 처리된 영상 데이터를 컴퓨터 판독 가능 매체를 통해 수신할 수도 있다.
컴퓨터 판독 가능 매체는 깊이 영상 처리 장치(100)로부터 영상처리된 영상 데이터를 데이터수신장치(200)로 이동시킬 수 있는 임의 유형의 매체 또는 디바이스를 포함할 수 있다. 일 예로, 컴퓨터 판독 가능 매체는 깊이 영상 처리 장치(100)가 영상 데이터를 데이터수신장치(200)로 직접 실시간으로 송신하는 것을 가능하게 하는 통신 매체, 이를테면 송신 채널을 포함할 수 있다.
영상 처리된 영상 데이터는 통신 표준, 이를테면 무선 통신 프로토콜에 따라 변조되고 데이터수신장치(200)로 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 이를테면 라디오 주파수 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반 네트워크, 이를테면 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 깊이 영상 처리 장치(100)로부터 데이터수신장치(200)로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다. 몇몇 예들에서 영상 처리된 영상 데이터가 출력 인터페이스(130)로부터 컴퓨터 판독 가능 저장 매체, 이를 테면 비일시적(non-transitory) 컴퓨터 판독가능 저장 매체, 즉, 데이터 저장 디바이스로 출력될 수도 있다. 마찬가지로 영상 데이터는 데이터수신장치(200)의 입력 인터페이스(220)에 의해 저장 디바이스로부터 엑세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 영상 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산형 또는 국부적으로 액세스되는 비일시적 데이터 저장 매체들 중 임의의 것을 포함할 수도 있다. 추가의 예에서, 저장 디바이스는 깊이 영상 처리 장치(100)에 의해 생성된 영상 데이터를 저장할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 해당할 수도 있다.
데이터수신장치(200)는 저장 디바이스로부터의 저장된 영상 데이터에 스트리밍 또는 다운로드를 통해 액세스할 수도 있다.
도 1의 예에서 깊이 영상 처리 장치(100)는 영상 소스(110) 및 영상처리부(120)를 포함할 수 있다. 또한, 깊이 영상 처리 장치(100)는 출력 인터페이스(130)를 더 포함할 수 있다.
데이터수신장치(200)는 입력 인터페이스(220) 및 데이터처리부(210)를 포함할 수 있다.
다른 예에서 깊이 영상 처리 장치(100)와 데이터처리부(210)는 다른 컴포넌트들을 포함할 수 있다.
예를 들어 깊이 영상 처리 장치(100)는 외부 비디오 소스, 이를테면 외부 카메라로부터 영상을 수신할 수 있고, 외부 카메라는 깊이 영상(depth image)을 생성하는 깊이 영상 촬영 디바이스가 될 수 있다.
깊이 영상 처리 장치(100)의 영상 소스(110)는 깊이 영상 촬영 디바이스, 이를테면 카메라, 이전에 촬영된 깊이 영상을 포함하는 아카이브 (archive), 및/또는 깊이 영상 콘텐츠 제공자로부터의 깊이 영상을 수신하는 인터페이스를 포함할 수도 있다.
일부 구현예에서 깊이 영상 촬영 디바이스는 장면의 깊이 정보를 픽셀(화소)당 16비트의 정수형 자료형으로 표현한 깊이 영상을 제공할 수 있다. 깊이 영상의 한 픽셀을 표현하기 위한 비트수는 변경될 수 있다. 깊이 영상 촬영 디바이스는 적외선 등을 이용하여 깊이 영상 촬영 디바이스로부터 객체 및 배경까지의 거리를 측정하여 거리에 비례 또는 반비례하는 값을 갖는 깊이 영상을 제공할 수 있다.
깊이 영상의 화소 값은 예를 들어, RGB의 색상 정보가 아닌 일 예로 mm 단위(이에 한정하는 것은 아님)의 정수로 된 깊이 정보가 될 수 있다.
깊이 영상 처리 장치(100)와 데이터수신장치(200) 각각은 하나 이상의 메모리와 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 개별 로직 회로, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합과 같은 다양한 형태로 구성될 수 있다.
메모리는 컴퓨터 판독가능 명령들 또는 프로세서 판독가능 명령들과 같은 명령들(예를 들어, 실행가능 명령들)을 포함한다. 명령들은 하나 이상의 프로세서들 각각에 의해서와 같이 컴퓨터에 의해 실행가능한 하나 이상의 명령어들을 포함할 수도 있다.
예를 들어 하나 이상의 명령들은 하나 이상의 프로세서들로 하여금 깊이 영상을 부호화하기 위해 깊이 영상을 프로세싱하는 것을 포함하는 동작들을 수행하기 위한 하나 이상의 프로세서들에 의해 실행가능 할 수도 있다.
상세하게는, 영상처리부(120)는 명령어들을 저장하는 하나 이상의 메모리(121)와 상기 명령어들을 실행하는 적어도 하나의 프로세서(122)를 포함할 수 있다.
영상처리부(120)의 프로세서 (122)는 깊이 영상 내의 표면을 모델링하기 위한 기법들이 적용되도록 구성될 수 있다.
일부 구현예에서는, 영상처리부(120)의 프로세서(122)는 깊이 영상의 깊이 값을 예측하는 기법들이 적용되도록 구성될 수도 있다.
일부 구현예에서는, 영상처리부(120)의 프로세서(122)는 깊이 영상을 부호화하기 위한 기법들이 적용되도록 구성될 수 있다.
다른 구현예에서는 영상처리부(120)의 프로세서(122)는 깊이 영상을 부호화 및 복호화하는 기법이 적용되도록 구성될 수도 있다.
데이터처리부(210)는 영상처리부(120)로부터의 깊이 영상 데이터를 외부 장치로 전송, 디스플레이, 분석 등을 수행할 수 있도록 구성될 수 있다.
일부 구현예에서는, 데이터처리부(220)는 영상처리부(120)로부터의 부호화된 깊이 영상 데이터를 복호화할 수 있도록 구성될 수도 있다.
도 1에 도시되지 않았지만, 몇몇 실시예에서, 깊이 영상 처리 장치(100)는 부호화 장치와 통합된 장치가 될 수 있다. 몇몇 실시예에서, 깊이 영상 처리 장치(100)와 데이터처리장치(200)는 통합된 장치가 될 수 있다. 이를테면 깊이 영상 처리 장치(100)는 깊이 화면을 부호화하고, 부호화된 깊이 화면을 복호화할 수 있도록 구성될 수도 있다.
도 2는 본 발명의 실시예에 따른 깊이 영상의 화면 내 예측 부호화 방법에 대한 순서도이고, 도 3은 카메라 좌표계 상의 한점이 영상 평면으로 투영되는 것을 나타낸 것이고, 도 4는 구면 모델링 방법에 대한 예시적인 다이어그램이고, 도 5는 깊이 영상의 부호화 모드 중 기본 모드를 설명하기 위한 일 예시도이다.
도 2를 참조하면, 본 발명의 실시예에 따른 깊이 영상의 화면 내 예측 부호화 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 깊이 영상을 기 설정된 블록 단위로 분할하는 단계(S100), 깊이 영상 처리 장치(100)의 프로세서(122)가 영상 좌표를 3차원 좌표로 변환 하는 단계(S200), 깊이 영상 처리 장치(100)의 프로세서(122)가 3차원 좌표에 기초하여 표면 모델로 모델링 하는 단계(S300), 깊이 영상 처리 장치(100)의 프로세서(122)가 부호화 모드에 따른 예측깊이 값을 생성하는 단계(S400), 깊이 영상 처리 장치(100)의 프로세서(122)가 예측깊이 값에 기초하여 부호화 모드 각각에 대한 부호화 효율을 측정하는 단계(S500), 깊이 영상 처리 장치(100)의 프로세서(122)가 부호화 효율에 기초하여 대상 블록을 부호화 하는 단계(S600), 깊이 영상 처리 장치(100)의 프로세서(122)가 부호화된 모든 블록을 합쳐 깊이 영상을 부호화하는 단계(S600)를 포함할 수 있다. 도 3 내지 도 17을 참조하여 본 발명의 일 실시예에 따른 깊이 영상의 화면 내 예측 부호화 방법의 각 단계를 보다 상세하게 설명한다.
<블록 분할>
깊이 영상 처리 장치(100)의 프로세서(122)가 깊이 영상을 기 설정된 블록 단위로 분할할 수 있다(S100).
예를 들어 깊이 영상은 e*f의 블록 단위로 분할될 수 있다. 복수의 블록 각각은 e*f(e, f는 자연수) 화소로 이루어진 영역으로 정의할 수 있다.
예를 들어 e*f의 블록은 8*8화소나 16*16화소로 이루어진 영역으로 정의할 수 있고 해상도가 증가하면 기본 단위는 32*32나 64*64 화소로 이루어진 영역으로 정의할 수도 있다.
<좌표 변환>
깊이 영상 처리 장치(100)의 프로세서(122)가 영상 좌표를 3차원 좌표로 변환할 수 있다(S200). 보다 구체적으로, 도 3을 참조하면, 카메라 좌표계 상에서 객체의 임의의 한 점 는 (x, y, z)좌표를 가지며 3차원 좌표로 본다. 여기서 (x, y, z)는 영상 평면의 (w, h) 좌표를 가진 점인 영상좌표로 투영되며, z 값은 (x, y) 좌표에서의 깊이 값 d가 된다. 그리고 상기 깊이 값은 각 화소 단위로 표현될 수 있다. 상세하게는, 깊이 영상을 촬영할 때 촬영된 한 화면은 촬영 영역 내 각 점들이 가상의 평면인 영상 평면 위로 투영된다. 그리고 카메라 좌표계에서의 한점 (x, y, z)가 중앙을 원점으로 하는 영상 평면 내 한점인 (w, h)로 투영된다면, 3차원 좌표 (x, y, z)와 영상 좌표 (w, h) 사이의 관계는 수학식 1을 충족한다.
[수학식 1]
x=dw/f
y=dh/f
z=d
수학식 1에서 f는 카메라의 초점 거리로써, 카메라 좌표계 상에서 원점과 영상 평면과의 거리로 정의한다.
<표면 모델링>
깊이 영상 처리 장치(100)의 프로세서(122)가 3차원 좌표에 기초하여 분할된 블록에 대하여 표면 모델로 모델링할 수 있다(S300).
보다 구체적으로, 프로세서(122)는 분할된 블록에 대하여 하나 이상의 표면 모델로 모델링 할 수 있다. 하나이 상의 표면은 구면 또는 평면을 포함할 수 있다. 하나 이상의 표면은 이에 한정되는 것은 아니고 다양한 표면으로 확장될 수 있다.
일 예로, 도 4를 참조하면, 구면 모델은 수학식 2에 따른 제1 구면 방정식을 이용하여 모델링 될 수 있다.
[수학식 2]
Figure 112019090487013-pat00004
수학식 2에서 a, b, c, r는 구면의 인자이다. 카메라 좌표계 상에서 객체의 임의의 한 점은 (x, y, z) 좌표를 가지고, 여기서 (x, y)는 영상 평면의 (w, h) 좌표를 가진 점으로 투영되고, z값은 (w, h) 좌표에서의 이상적인 깊이 값이 되며, 해당 이상적인 깊이 값은 각 화소 단위로 표현될 수 있다. 영상 좌표(w, h)는 잡음이 포함된 블록 내에서 잡음이 발생하지 않은 화소일 수 있다. 또한, 모델링된 구면 모델은 수학식 3의 행렬식으로 나타낼 수 있다. 즉, 모델링된 구면 모델은 수학식 3의 행렬 A와 행렬B의 3차원 좌표와 관련된 행렬과 행렬 R의 모델링된 구면의 인자로 나타낼 수 있다.
[수학식 3]
Figure 112019090487013-pat00005
또한, 구면의 인자로 구성된 행렬 R을 수학식 4를 이용하여 구할 수 있다.
[수학식 4]
Figure 112019090487013-pat00006
Figure 112019090487013-pat00007
일 예로, 평면 모델은 도 8 내지 도 17의 설명 따른 국소평면을 이용하여 모델링 될 수 있다. 국소 평면을 이용하여 평면 모델을 생성하는 방법은 후술한다.
<예측깊이 값>
깊이 영상 처리 장치(100)의 프로세서(122)가 부호화 모드에 따른 예측깊이 값을 생성할 수 있다(S400).
보다 구체적으로, 부호화 모드는 기본 모드, 제1 표면 모델 모드 및/또는 제2 표면 모델 모드를 포함할 수 있다. 일 예로, 기본 모드는 H.264/AVC 부호화 모드 중 화면 내 예측 부호화 모드일 수 있다. 제1 표면 모델 모드는 구면 모델을 이용하는 부호화 모드일 수 있다. 제2 표면 모델 모드는 평면 모델을 이용하는 부호화 모드일 수 있다.
일 예로, 도 5를 참조하면, 기본 모드는 이전에 예측된 주변 블록에 기반하여 현재 블록의 예측깊이 값을 생성할 수 있다. 기본 모드는 제0 모드 내지 제8 모드를 포함할 수 있다. 기본 모드 중 제2 모드를 제외한 모드는 주변의 이미 부호화를 마친 블록을 이용하여 방향 성분을 부여하여 예측깊이 값 생성 또는 부호화 하는 방법이다. 제2 모드는 주변의 이미 부호화를 마친 블록을 이용하여 평균을 이용해 예측깊이 값 생성 또는 부호화 하는 방법이다. 프로세서(122)는 기본 모드의 제0 모드 내지 제8 모드에 대응한 예측깊이 값을 생성할 수 있다.
일 예로, 제1 표면 모델 모드는 프로세서(122)가 구면 모델을 이용하여 예측깊이 값을 생성할 수 있다. 프로세서(122)는 수학식 2의 구면의 제1 구면 방정식을 제1 좌표(x, y, z)가 투영된 영상 평면의 좌표계 상의 제2 좌표(w, h)와 매개변수(a, b, c) 및 제1 예측깊이 값(
Figure 112019090487013-pat00008
)로 이루어진 수학식 5의 구면의 제2 구면 방정식으로 변환할 수 있다.
[수학식 5]
Figure 112019090487013-pat00009
h, w는 영상 평면의 수직, 수평 좌표이고, f는 초점거리이며,
Figure 112019090487013-pat00010
은 구면의 제1 예측깊이 값이다.
즉, 구면의 제1 예측깊이 값(
Figure 112019090487013-pat00011
)은 수학식 5에 의해 구할 수 있다. 또한, 프로세서(122)는 제1 예측깊이 값(
Figure 112019090487013-pat00012
)이 음수가 나올 경우 해당 블록에서는 구면 모델을 부호화 모델로 이용하지 않을 수 있다.
일 예로, 제2 표면 모델 모드는 프로세서(122)가 평면 모델을 이용하여 예측깊이 값을 생성할 수 있다. 평면 모델의 제2 예측깊이 값(
Figure 112019090487013-pat00013
)은 평면의 임의의 (w, h) 좌표를 가진 점과 수학식 6을 이용하여 구할 수 있다.
[수학식 6]
Figure 112019090487013-pat00014
h, w는 영상 평면의 수직, 수평 좌표이고, f는 초점거리이며,
Figure 112019090487013-pat00015
는 평면의 제2 예측깊이 값이다.
<부호화 효율>
깊이 영상 처리 장치(100)의 프로세서(122)가 예측깊이 값에 기초하여 부호화 모드 각각에 대한 부호화 효율을 측정할 수 있다(S500).
프로세서(122)는 일 예로 부호화 모드 각각에 따라 부호화한 깊이 영상과 엔트로피 파워를 수학식 7을 통해 측정하고, 부호화 모드별로 효율을 서로 비교할 수 있다. 다만 이에 한정하는 것은 아니고, 부호화 효율을 측정할 수 있는 어떠한 방법이라도 적용될 수 있다.
[수학식 7]
Figure 112019090487013-pat00016
엔트로피 파워는 같은 엔트로피 환경을 가지는 환경에서 모든 신호의 빈도가 동일한 백색잡음의 출력으로 정의된다. 부호화 에서는 측정 대상과 동일한 신호 개수를 가지고, 각 신호의 개수가 모두 동일할 때, 한 신호 종류의 세기로 볼 수 있다. 그리고 수학식 7에서 fi는 신호 i의 확률이다.
<블록 부호화>
깊이 영상 처리 장치(100)의 프로세서(122)가 부호화 효율에 기초하여 대상 블록을 부호화할 수 있다(S600).
보다 구체적으로, 프로세서(122)는 각 부호화 모드 별로 측정된 부호화 효율 중 가장 높은 효율을 보이는 부호화 모드에 따라 생성한 예측깊이 값에 기초하여 대상 블록을 부호화할 수 있다. 예를 들어 프로세서(122)는 예측깊이값과 측정깊이값의 차이를 이용하여 대상 블록내 각 화소를 부호화할 수 있다. 측정깊이 값은 영상 평면의 (w, h) 좌표를 가진 화소에서 측정된 깊이 값일 수 있다. 그 후 각 대상 블록에서의 블록 내 부호화된 화소와 함께 부호화 모드에 따른 매개변수 값을 부호화하여 전체 깊이 영상을 부호화할 수 있다.
<깊이 영상 부호화>
깊이 영상 처리 장치(100)의 프로세서(122)가 부호화된 모든 블록을 합쳐 깊이 영상을 부호화하는 단계(S700)를 포함할 수 있다.
도 6은 본 발명의 깊이 예측 정확도를 측정하기 위한 실험 영상이고, 도 7은 도 6의 객체의 깊이 영상 부호화 중 깊이 예측시 기본 모드와 표면 모델 모드에 대한 부호화 모드 선택 비율을 나타낸 실험예이다.
부호화 모드에서 제1 표면 모델 모드 포함 여부에 따른 예측 깊이 정확도
MSE 기본 모드 기본 모드 및 제1 표면 모델 모드
도 6의 (a) 897.009 113.262
도 6의 (b) 527.915 146.835
도 6을 참조하면, 도 6의 그림 (a)는 구면을 포함하는 객체의 비율이 높은 실험 영상이고, 도 6의 그림 (b)는 구면을 포함하는 객체의 비율이 그림 (a)보다는 낮은 실험 영상이다. 표 1을 참조하면, MSE는 평균 제곱 오차(Mean Square Error)의 약칭이다. 표 1은 도 6의 그림 (a)와 그림 (b)에 대한 깊이 영상의 부호화시 기본 모드의 부호화 모드만 사용할 경우의 깊이 예측에 대한 MSE 결과와 기본 모드와 제1 표면 모델 모드를 함께 하용할 경우의 깊이 예측에 대한 MSE 결과를 보여준다. 즉, 기본 모드만 사용한 경우는 종래 기술에 따른 부호화 방법이고 기본 모드와 제1 표면 모델 모드를 사용한 깊이 예측은 본 발명의 실시예에 따른 부호화 방법일 수 있다. 도 6의 그림(a)에 따른 MSE를 살펴보면 기본 모드만 사용할 경우보다 기본 모드 및 제1 표면 모델 모드를 사용할 경우 MSE가 상대적으로 많이 작은 것을 알 수 있다. 즉, 기본 모드 및 제1 표면 모델 모드를 함께 사용하여 부호화 할 경우 예측 정확도가 향상된다. 도 6의 그림(b)에 따른 MSE를 살펴보면, 마찬가지로 기본 모드만 사용할 경우보다 기본 모드 및 제1 표면 모델 모드를 사용할 경우 MSE가 상대적으로 많이 작은 것을 알 수 있다. 이러한 결과는 일반적인 사물의 객체는 구면 형상을 포함하는 영역, 즉 비선형 영역이 많기 때문에 제1 표면 모델 모드에 따라 부호화가 진행되어 깊이 예측 정확도가 향상되는 것이다. 이러한 이유를 입증하기 위하여 도 7을 참조하면, 도 7의 그림(a)는 기본 모드만을 사용하여 도 6의 그림(a)와 그림(b)를 부호화시 모드 선택 비율을 나타낸다. 도 7의 그림(b)는 기본 모드와 제1 표면 모델 모드를 사용하여 도 6의 그림(a)와 그림(b)를 부호화시 모드 선택 비율을 나타낸다. 제1 표면 모델 모드를 추가하니 도 7의 그림(b)의 결과와 같이 깊이 영상의 부호화 모드 선택시 제1 표면 모델 모드의 선택 비율이 높게 나타나는 것을 알 수 있다.따라서, 본 발명의 실시예는 원 깊이 영상에 포함된 중요한 정보는 보존하면서 기타 정보를 다소 제거하여 원 깊이 영상의 품질을 잃지 않으면서도 가능한 한 적은 디지털 부호량으로 깊이 영상을 표현할 수 있다. 또한, 본 발명의 실시예는 블록내의 깊이 값을 이용하여 깊이 영상 내의 표면을 구면 모델링하고, 구면 모델을 이용하여 깊이 영상의 깊이를 예측할 수 있으며, 예측된 값과 측정된 깊이 값의 오차를 이용하여 깊이 영상을 부호화할 수 있다. 또한, 본 발명의 실시예는 블록내의 깊이 값을 이용하여 깊이 영상 내의 표면을 평면 모델링하고, 평면 모델을 이용하여 깊이 영상의 깊이를 예측할 수 있으며, 예측된 값과 측정된 깊이 값의 오차를 이용하여 깊이 영상을 부호화할 수 있다. 또한, 본 발명의 실시예에 따라 구면 형상을 포함하는 객체를 부호화할 때 기존 부호화 방법에 비해 높은 깊이 예측 정확도를 보이는 효과가 있다. 또한, 본 발명의 실시예에 따라 평면 형상을 포함하는 객체를 부호화할 때 기존 부호화 방법에 비해 높은 깊이 예측 정확도를 보이는 효과가 있다. 또한, 본 발명의 실시예는 H.264/AVC의 화면 내 예측 모드 및 표면 모델 모드 중 부호화 효율이 가장 좋은 부호화 모드를 적용하여 깊이 영상을 부호화할 수 있다.
도 8은 국소 평면을 이용한 제2 평면 모델링 방법에 대한 예시적인 다이어그램이다.
도 8을 참조하면, 제2 평면 모델링 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 깊이 영상의 화소 각각에 대한 국소 평면을 생성하는 단계(S1000), 깊이 영상 처리 장치 (100)의 프로세서(122)가 국소 평면의 특징을 검출하는 단계(S2000), 깊이 영상 처리 장치 (100)의 프로세서(122)가 검출된 국소 평면의 특징을 이용하여 인접한 국소 평면간 유사도를 계산하는 단계(S3000) 및 깊이 영상 처리 장치(100)의 프로세서(122)가 인접한 국소 평면이 소정의 유사도 이상이면 그룹화하고 동일 평면으로 검출하는 단계(S4000)를 포함할 수 있다. 도 9 내지 도 17을 참조하여 제2 평면 모델 방법의 각 단계를 보다 상세하게 설명한다.
도 9는 도 8의 국소 평면을 생성하는 일 방법에 대한 순서도이고, 도 10은 도 9의 국소 평면의 생성 방법에서 깊이 영상 내의 화소들을 3차원 좌표계로 변환한 모습을 나타낸 것이다.
도 9를 참조하면, 일 방법에 따른 국소 평면을 생성하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 깊이 영상 내 일 화소에 대한 카메라를 원점으로 하는 3차원 좌표계의 중심 변환 좌표를 생성하는 단계(S1100)를 포함할 수 있다.
일 방법에 따른 국소 평면을 생성하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 깊이 영상 내 일 화소의 주변 화소에 대한 카메라를 원점으로 하는 3차원 좌표계의 제1 내지 제4 주변 변환 좌표를 생성하는 단계(S1200)를 포함할 수 있다. 보다 구체적으로, 일 화소(P(w,h))는 영상 좌표 (w,h)에서의 화소로 정의 될 수 있다. 중심 변환 좌표(Pc(w,h))는 영상 좌표 (w,h)의 3차원 좌표계에서의 좌표로 정의 될 수 있다. 일 화소의 주변 화소는 일 화소와 인접한 위치에 있는 화소를 의미할 수 있다. 프로세서(122)는 일 화소(P(w,h))의 주변 화소 4개를 제1 내지 제4 주변 변환 좌표로 생성할 수 있다. 일 예로, 주변 화소는 일 화소에서 수직 하측 방향으로 k(k는 1이상의 자연수)번째 화소인 제1 수직 주변 화소, 일 화소에서 수직 상측 방향으로 k번째 화소인 제2 수직 주변 화소, 일 화소에서 수평 우측 방향으로 k번째 화소인 제1 수평 주변 화소, 일 화소에서 수평 좌측 방향으로 k번째 화소인 제2 수평 주변 화소를 포함할 수 있다. 프로세서(122)는 제1 수직 주변 화소를 제1 주변 변환 좌표로, 제2 수직 주변 화소를 제2 주변 변환 좌표로, 제1 수평 주변 화소를 제3 주변 변환 좌표로, 제2 수평 주변 화소를 제4 주변 변환 좌표로 변환할 수 있다.
일 실시예에 따른 국소 평면을 생성하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 중심 변환 좌표 및 제1 내지 제4 주변 변환 좌표를 포함하는 평면을 일 화소의 국소 평면으로 생성하는 단계(S1300)를 포함할 수 있다.
도 11은 도 9의 국소 평면에서 국소 평면의 특징을 검출하는 방법을 설명하기 위한 순서도이고, 도 12는 도 8의 국소 평면의 특징인 법선 벡터를 설명하기 위한 3차원 좌표계이다.
도 11을 참조하면, 일 방법에 따른 국소 평면의 특징을 검출하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 국소 평면의 제1 국소 벡터(
Figure 112019090487013-pat00017
)를 생성하는 단계(S2100)를 포함할 수 있다. 보다 구체적으로, 국소 평면의 제1 국소 벡터(
Figure 112019090487013-pat00018
)는 중심 변환 좌표(Pc(w,h))를 지나며 제2 주변 변환 좌표(Pc(w,h+k))에서 제1 주변 변환 좌표(Pc(w,h-k))를 지나는 제1 방향의 벡터 일 수 있다. 일 예로, 제1 방향은 수직 하측 방향 또는 수직 하측 방향에 가까운 방향일 수 있다. 제1 국소 벡터(
Figure 112019090487013-pat00019
)는 Pc(w,h-k)-Pc(w, h+k)로 나타낼 수 있다.
일 방법에 따른 국소 평면의 특징을 검출하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 국소 평면의 제2 국소 벡터(
Figure 112019090487013-pat00020
)를 생성하는 단계(S2200)를 포함할 수 있다. 보다 구체적으로, 국소 평면의 제2 국소 벡터(
Figure 112019090487013-pat00021
)는 중심 변환 좌표(Pc(w,h))를 지나며 제4 주변 변환 좌표(Pc(w-k,h))에서 제3 주변 변환 좌표(Pc(w+k,h))를 지나는 제2 방향의 벡터 일 수 있다. 일 예로, 제2 방향은 수평 우측 방향 또는 수평 우측 방향에 가까운 방향일 수 있다. 제2 국소 벡터(
Figure 112019090487013-pat00022
)는 Pc(w+k,h)-Pc(w-k, h)로 나타낼 수 있다.
일 방법에 따른 국소 평면의 특징을 검출하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 제1 국소 벡터(
Figure 112019090487013-pat00023
) 및 제2 국소 벡터(
Figure 112019090487013-pat00024
)를 이용하여 일 화소(P)에 대한 국소 평면의 법선 벡터(n(w,h))를 생성하는 단계(S2300)를 생성하는 단계를 포함할 수 있다. 보다 구체적으로, 법선 벡터(n(w,h))는 수학식 8에 따라 제1 국소 벡터(
Figure 112019090487013-pat00025
)와 제2 국소 벡터(
Figure 112019090487013-pat00026
)의 외적으로 구할 수 있다.
[수학식 8]
Figure 112019090487013-pat00027
이에 제한되는 것은 아니고, 법선 벡터(n(w,h))는 제2 국소 벡터(
Figure 112019090487013-pat00028
)와 제1 국소 벡터(
Figure 112019090487013-pat00029
)의 곱으로 순서를 달리하여 구할 수 있다.
일 실시예에 따른 국소 평면의 특징을 검출하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 중심 변환 좌표(Pc(w,h)) 및 법선 벡터(n(x,y))를 이용하여 국소 평면과 카메라의 거리인 국소 평면의 특징 거리(
Figure 112019090487013-pat00030
)를 생성하는 단계(S2400)를 포함할 수 있다. 보다 구체적으로, 중심 변환 좌표(Pc(w,h))의 국소 평면의 법선 벡터(n(w,h))의 성분을 (
Figure 112019090487013-pat00031
)이라고 했을 때, 중심 변환 좌표(Pc(w,h))를 지나고 법선 벡터(n(w,h))를 가지는 평면은 수학식 9과 같이 표현 할 수 있다.
[수학식 9]
Figure 112019090487013-pat00032
이 때, 국소 평면의 카메라로부터의 거리인 특징 거리(
Figure 112019090487013-pat00033
)는 수학식 10를 통해 계산될 수 있다.
[수학식 10]
Figure 112019090487013-pat00034
도 13은 도 8의 국소 평면간 유사도를 계산하는 방법을 설명하기 위한 순서도이다.
도 13을 참조하면, 일 방법에 따른 국소 평면간 유사도를 계산하는 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 일 화소의 국소 평면과 타 화소의 국소 평면의 법선 벡터를 이용한 제1 유사도(U) 계산하는 단계(S3100)을 포함할 수 있다. 보다 구체적으로, 제1 유사도(U)는 일 화소의 국소 평면의 법선벡터(n(w,h))과 타 화소의 국소 평면의 법선벡터(m(w,h))의 사이각으로 결정될 수 있다. 일 예로 제1 유사도(U)는 수학식 11에 따라 결정될 수 있다.
[수학식 11]
Figure 112019090487013-pat00035
또한, 일 방법에 따른 국소 평면간 유사도를 계산하는 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 일 화소의 국소 평면과 타 화소의 국소 평면의 특징 거리를 이용한 제2 유사도(D) 계산하는 단계(S3200)을 포함할 수 있다. 보다 구체적으로 제2 유사도(D)는 일 화소의 국소 평면의 특징거리(Dn)과 타 화소의 국소 평면의 특징거리(Dm)의 차이로 결정될 수 있다. 일 예로, 제2 유사도(D)는 수학식 12에 따라 결정될 수 있다.
[수학식 12]
Figure 112019090487013-pat00036
도 14는 도 8의 국소 평면간 유사도에 따른 그룹화를 통한 제2 평면 모델링 방법을 설명하기 위한 순서도이다.
도 14를 참조하면, 일 방법예에 따른 국소 평면간 유사도에 따른 그룹화를 통한 제2 평면 모델링 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 제1 유사도(U)가 소정의 값 이상인지 판단하는 단계(S4100)을 포함할 수 있다. 보다 구체적으로, 제1 유사도(U)는 수준에 따라서 미리 설정될 수 있고, 메모리(121)의 프로그래밍을 통해 조절될 수 있다.
또한, 일 방법에 따른 국소 평면간 유사도에 따른 그룹화를 통한 제2 평면 모델링 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 제1 유사도(U)를 만족하면 제2 유사도(D)가 소정의 값 이하인지 판단하는 단계(S4200, S4300)을 포함할 수 있다. 보다 구체적으로, 제1 유사도(U)를 만족하는 것은 제1 유사도(U)가 소정의 값 이상인 경우 일 수 있다. 프로세서(122)는 제1 유사도(U)를 만족하지 않는다고 판단하면 일 화소와 비교하지 않은 주변의 다른 타 화소와 비교하는 단계(S420, S470)를 수행할 수 있다. 즉 프로세서(122)는 일 화소와 다른 타 화소의 제1 유사도(U)가 소정의 값 이상인지 판단할 수 있다(S4700, S4100).
또한, 일 방법에 따른 국소 평면간 유사도에 따른 그룹화를 통한 제2 평면 모델링 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 제2 유사도(D)를 만족하면 일 화소와 타 화소를 그룹화 하는 단계(S4400, S4500)을 포함할 수 있다. 보다 구체적으로, 제2 유사도(D)를 만족하는 것은 제2 유사도(D)가 소정의 값 이하인 경우일 수 있다. 제2 유사도(D)는 수준에 따라서 미리 설정될 수 있고, 메모리(121)의 프로그래밍을 통해 조절될 수 있다. 프로세서(122)는 제2 유사도(D)를 만족하지 않는다고 판단하면 일 화소와 비교하지 않은 주변의 다른 타 화소와 비교하는 단계(S440, S470)를 수행할 수 있다. 즉 프로세서(122)는 일 화소와 다른 타 화소의 제1 유사도(U)가 소정의 값 이상인지 판단할 수 있다(S4700, S4100).
또한, 일 방법에 따른 국소 평면간 유사도에 따른 그룹화를 통한 제2 평면 모델링 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 일 화소와 비교하지 않은 주변의 다른 타 화소가 존재하는지 판단하는 단계(S4600)를 포함할 수 있다. 프로세서(122)는 일 화소와 비교하지 않은 주변의 다른 타 화소가 존재하면 일 화소와 비교하지 않은 주변의 다른 타 화소와 비교하는 단계(S4600, S4700)를 수행할 수 있다. 즉 프로세서(122)는 일 화소와 다른 타 화소의 제1 유사도(U)가 소정의 값 이상인지 판단할 수 있다(S4700, S4100).
또한, 일 방법에 따른 국소 평면간 유사도에 따른 그룹화를 통한 제2 평면 모델링 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 일 화소와 비교하지 않은 주변의 다른 타 화소가 존재하지 않으면 그룹화된 화소를 같은 평면으로 검출하는 단계(S4800)를 포함할 수 있다. 본 발명의 실시예는 깊이 영상 내의 깊이 정보를 통해 평면을 빠르고 정확하게 추정할 수 있다.
따라서, 본 발명의 일 실시예는 화소 단위로 평면의 영역을 검출함으로써 정밀도가 향상된다. 또한, 본 발명의 실시예는 국소 평면 단위로 평면의 인자를 계산하고, 유사한 평면 인자를 가지는 인접 국소 평면을 같은 평면으로 그룹핑하여 각 평면의 영역을 검출함으로써 데이터 처리 속도가 향상된다. 또한, 본 발명의 실시예는 깊이 영상에 노이즈가 많이 포함된 경우에도 신뢰할 수 있는 평면 추정이 가능하다.
일부 실시예에서, 프로세서(122)는 전술한 과정에 따라 깊이 영상 내에 복수의 화소들 중 국소 평면의 제1 및 제2 유사도를 만족하는 화소들을 그룹핑하여 평면이 검출될 수 있고, 이러한 그룹핑으로 구성된 평면은 복수개가 검출될 수 있다. 깊이 영상 내에서 복수의 평면들이 검출되는 것은 검출된 평면들간에 제1 및 제2 유사도를 충족하지 못하는 경우라 할 수 있다. 즉, 검출된 복수의 평면들은 서로 하나의 평면으로 그룹핑되지 않는 평면들이다. 검출된 평면들은 다른 응용의 사용을 위해 각 평면 영역의 정보를 다른 응용 프로그램에 전달될 수 있다. 여기서 평면의 정보는 가령 검출된 평면의 개수, 각 평면의 깊이 영상 내에서의 좌상단의 위치, 깊이 영상 내에서의 평면의 높이와 너비가 될 수 있다. 프로세서(122)는 이러한 다른 소프트웨어의 요청에 응답하여 평면의 정보를 제공할 수 있다. 하나의 깊이 영상 내의 복수의 평면들에 대해 보다 구체적으로 설명하면, 프로세서(122)는 평면들 중 어느 하나의 평면에 포함된 화소의 국소 평면들의 각각의 특징 거리 정보를 이용하여 해당 평면 내의 모든 화소들의 특징 거리의 평균 값을 생성할 수 있다. 예시적으로, 프로세서(122)는 제1 평면 내의 제1 화소들의 특징 거리에 대한 제1 평균 값을 생성하고, 제2 평면 내의 제2 화소들의 특징 거리에 대한 제2 평균 값을 생성할 수 있다. 프로세서(122)는 제1 및 제2 평균 값의 차이 정보를 저장할 수 있다. 여기서의 제1 및 제2 평균 값의 차이 정보는 전술한 프로세서(122)가 사용자에게 제공하는 평면들 분포 정보들 중 하나가 될 수 있다. 실시예는, 깊이 영상 내에 복수의 촬영 면에 평면을 가진 복수의 물체가 존재하는 경우 이들 물체간의 분포 정보를 제공할 수 있다. 따라서, 촬영 영역 내에 서로 단차를 가지는 물체가 존재하는 경우 해당 단차 정보를 검출할 수 있다. 예를들어, 공간에 배치된 책상을 촬영하는 경우 책상의 상면과 공간의 바닥면의 높이 차이를 검출함으로써 책상의 높이를 추정할 수 있다. 뿐만 아니라, 평면을 가지는 물체의 단차 정보를 추정함으로써 물체에 대한 다양한 정보를 얻는데 기초 자료로 사용할 수 있다.
도 3, 도 15 내지 도 17을 참조하여 일 방법에 따른 국소 평면간 유사도에 따른 그룹화를 통한 제2 평면 모델링 방법의 각 단계를 보다 상세하게 설명한다. 다른 방법은 이 방법과 같은 설명은 제외하고 차이가 나는 국소 평면을 생성하는 방법과 국소 평면의 특징을 검출하는 방법을 중점으로 설명한다.
도 15는 도 8의 국소 평면을 생성하는 다른 방법에 대한 순서도이다.
도 15를 참조하면, 다른 방법에 따른 국소 평면을 생성하는 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 깊이 영상 내 일 화소에 대한 카메라를 원점으로 하는 3차원 좌표계의 중심 변환 좌표를 생성하는 단계(S11100)를 포함할 수 있다. 일 예로, 도 13을 참조하면, 프로세서(122)는 깊이 영상 내 일 화소(P(w,h))를 수학식 1을 이용하여 3차원 좌표계인 중심 변환 좌표(Pc(w,h))로 변환할 수 있다.
또한, 다른 방법에 따른 국소 평면을 생성하는 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 깊이 영상 내 일 화소를 중심으로 N*N(N은 3, 5, 7, …) 사각형 영역의 주변 화소에 대한 카메라를 원점으로 하는 3차원 좌표계의 주변 변환 좌표들을 생성하는 단계(S11200)을 포함할 수 있다. 이에, 다른 실시예는 잡음이 많은 깊이 영상에서 정확한 국소 평면을 구할 수 있게 한다. 보다 구체적으로, 프로세서(122)는 일 화소(P(w,h))를 중심으로 N*N 사각형 영역 내 외곽에 위치한 화소들을 주변 화소들로 정의하고 주변 화소들을 복수의 주변 변환 좌표로 생성할 수 있다. 일 예로, 복수의 주변 변환 좌표는 4(N-1)개 일 수 있다.
또한, 다른 방법에 따른 국소 평면을 생성하는 방법은, 깊이 영상 처리 장치(100)의 프로세서(122)가 중심 변환 좌표 및 주변 변환 좌표들을 포함하는 평면을 일 화소의 국소 평면으로 생성하는 단계(S11300)를 포함할 수 있다.
도 16은 도 15의 국소 평면의 특징을 검출하는 방법을 설명하기 위한 순서도이고, 도 17은 도 15의 국소 평면의 평균 국소 벡터를 구하기 위한 국소 평면 내의 복수의 국소 벡터를 나타낸 일 예이다.
도 16을 참조하면, 다른 방법에 따른 국소 평면의 특징을 검출하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 국소 평면의 제1 평균 국소 벡터(
Figure 112019090487013-pat00037
)를 생성하는 단계(S12100)을 포함할 수 있다. 보다 구체적으로, 제1 평균 국소 벡터(
Figure 112019090487013-pat00038
)는 국소 평면의 복수의 제1 국소 벡터의 평균 일 수 있다. 복수의 제1 국소 벡터는 주변 변환 좌표들 중 상측에 위치한 주변 변환 좌표들과 하측에 위치한 주변 변환 좌표들이 각각 쌍을 이루어 상측 주변 변환 좌표에서 하측 주변 변환 좌표로 향한 수직 성분의 벡터들일 수 있다. 이에 제한되는 것은 아니고, 복수의 제1 국소 벡터는 주변 변환 좌표들 중 하측에 위치한 주변 변환 좌표들과 상측에 위치한 주변 변환 좌표들이 각각 쌍을 이루어 하측 주변 변환 좌표에서 상측 주변 변환 좌표로 향한 수직 성분의 벡터들일 수 있다. 또한, 복수의 제1 국소 벡터 중 임의의 제1 국소 벡터(
Figure 112019090487013-pat00039
)는 수학식 13에 따라 결정될 수 있다.
[수학식 13]
Figure 112019090487013-pat00040
일 예로, 도 17을 참조하면, 프로세서(122)는 N=3이면 수학식 13에 따라 3개의 제1 국소 벡터(
Figure 112019090487013-pat00041
)를 결정할 수 있다. 제1 평균 국소 벡터(
Figure 112019090487013-pat00042
)는 수학식 14에 따라 복수의 제1 국소 벡터들을 합하여 각 벡터가 가지는 방향의 평균 방향을 가지도록 생성될 수 있다.
[수학식 14]
Figure 112019090487013-pat00043
또한, 다른 방법에 따른 국소 평면의 특징을 검출하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 국소 평면의 제2 평균 국소 벡터(
Figure 112019090487013-pat00044
)를 생성하는 단계(S12200)을 포함할 수 있다. 보다 구체적으로, 제2 평균 국소 벡터(
Figure 112019090487013-pat00045
)는 국소 평면의 복수의 제2 국소 벡터의 평균 일 수 있다. 복수의 제2 국소 벡터는 주변 변환 좌표들 중 좌측에 위치한 주변 변환 좌표들과 우측에 위치한 주변 변환 좌표들이 각각 쌍을 이루어 좌측 주변 변환 좌표에서 우측 주변 변환 좌표로 향한 수평 성분의 벡터들일 수 있다. 이에 제한되는 것은 아니고, 복수의 제2 국소 벡터는 주변 변환 좌표들 중 우측에 위치한 주변 변환 좌표들과 좌측에 위치한 주변 변환 좌표들이 각각 쌍을 이루어 우측 주변 변환 좌표에서 좌측 주변 변환 좌표로 향한 수평 성분의 벡터들일 수 있다. 또한, 복수의 제2 국소 벡터 중 임의의 제2 국소 벡터(
Figure 112019090487013-pat00046
)는 수학식 13에 따라 결정될 수 있다. 일 예로, 도 17을 참조하면, 프로세서(122)는 N=3이면 수학식 13에 따라 3개의 제2 국소 벡터(
Figure 112019090487013-pat00047
)를 결정할 수 있다. 제2 평균 국소 벡터(
Figure 112019090487013-pat00048
)는 수학식 14에 따라 복수의 제2 국소 벡터들을 합하여 각 벡터가 가지는 방향의 평균 방향을 가지도록 생성될 수 있다.
또한, 다른 방법에 따른 국소 평면의 특징을 검출하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 제1 평균 국소 벡터(
Figure 112019090487013-pat00049
) 및 제2 평균 국소 벡터(
Figure 112019090487013-pat00050
)를 이용하여 일 화소(P)에 대한 국소 평면의 법선 벡터(
Figure 112019090487013-pat00051
)를 생성하는 단계(S12300)를 생성하는 단계를 포함할 수 있다. 보다 구체적으로, 법선 벡터(
Figure 112019090487013-pat00052
)는 수학식 15에 따라 제1 평균 국소 벡터(
Figure 112019090487013-pat00053
)와 제2 평균 국소 벡터(
Figure 112019090487013-pat00054
)의 외적으로 구할 수 있다.
[수학식 15]
Figure 112019090487013-pat00055
이에 제한되는 것은 아니고, 법선 벡터(
Figure 112019090487013-pat00056
)는 제2 평균 국소 벡터(
Figure 112019090487013-pat00057
)와 제1 평균 국소 벡터(
Figure 112019090487013-pat00058
)의 곱으로 순서를 달리하여 구할 수 있다.
또한, 다른 방법에 따른 국소 평면의 특징을 검출하는 방법은 깊이 영상 처리 장치(100)의 프로세서(122)가 중심 변환 좌표(Pc(w,h)) 및 법선 벡터(
Figure 112019090487013-pat00059
)를 이용하여 국소 평면과 카메라의 거리인 국소 평면의 특징 거리(
Figure 112019090487013-pat00060
)를 생성하는 단계(S12400)를 포함할 수 있다. 보다 구체적으로, 중심 변환 좌표(Pc(w,h))의 국소 평면의 법선 벡터(
Figure 112019090487013-pat00061
)의 성분을 (
Figure 112019090487013-pat00062
)이라고 했을 때, 중심 변환 좌표(Pc(w,h))를 지나고 법선 벡터(n(w,h))를 가지는 제2 평면은 수학식 9와 같이 표현 할 수 있다. 이 때, 국소 평면의 카메라로부터의 거리인 특징 거리(
Figure 112019090487013-pat00063
)는 수학식 10을 통해 계산될 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.
100: 깊이 영상 처리 장치
110: 영상 소스
120: 영상처리부
121: 메모리
122: 프로세서
130: 출력인터페이스
200: 데이터수신장치
210: 데이터 처리부
220: 입력 인터페이스

Claims (10)

  1. 깊이 영상을 기 설정된 블록 단위로 분할하는 단계;
    깊이 영상 내 화소에 대한 영상 좌표를 3차원 좌표로 변환하는 단계;
    상기 3차원 좌표에 기초하여 상기 블록에 대하여 제1 표면 모델 및 제2 표면 모델 각각으로 모델링 하는 단계;
    기본 모드와 상기 제1 및 제2 표면 모델 모드를 포함하는 부호화 모드에 따른 예측깊이 값 생성하는 단계;
    상기 예측깊이 값에 기초하여 상기 부호화 모드 각각에 대한 부호화 효율을 측정하는 단계; 및
    부호화 모드 별로 측정된 부호화 효율 중 가장 높은 효율을 보이는 부호화 모드에 따라 생성한 예측깊이 값에 기초하여 대상 블록을 부호화하는 단계;를 포함하고,
    상기 제2 표면 모델로 모델링하는 단계는,
    상기 블록의 화소들 중 일 화소와 상기 일 화소를 중심으로 사각형 영역의 주변 화소를 포함하는 국소 평면을 생성하는 단계;
    상기 사각형 영역 내에서 상기 일 화소를 중심으로 상측에 위치한 주변 화소와 하측에 위치한 주변 화소를 지나는 복수의 수직 벡터들의 제1 평균 국소 벡터 및 상기 일 화소를 중심으로 좌측에 위치한 주변 화소와 우측에 위치한 주변 화소를 지나는 복수의 수평 벡터들의 제2 평균 국소 벡터의 외적에 따른 상기 국소 평면의 법선 벡터를 검출하고, 상기 일 화소의 좌표와 상기 법선 벡터를 가지는 평면을 검출하고 수학식 1에 따른 카메라로부터 상기 평면까지의 거리인 특징 거리를 검출하는 단계;
    상기 국소 평면에서의 법선 벡터와 상기 일 화소와 인접한 타 화소를 포함한 다른 국소 평면의 법선 벡터의 수학식 2에 따른 사이각 및 상기 국소 평면에서의 특징 거리와 상기 다른 국소 평면에서의 특징 거리의 차이에 기초하여 상기 국소 평면과 상기 다른 국소 평면의 유사도를 계산하는 단계;
    상기 유사도가 소정의 유사도 이상이면 상기 국소 평면와 상기 다른 국소 평면을 서로 그룹화하는 단계;
    상기 일 화소와 비교하지 않은 주변의 다른 타 화소의 존부를 판단하여 상기 다른 타 화소가 존재하지 않으면 이미 그룹화된 국소 평면들을 하나의 평면의 영역으로 검출하는 단계;
    서로 간에는 그룹화되지 않은 복수의 그룹화된 평면을 검출하는 단계; 및
    상기 복수의 그룹화된 평면 각각의 특징 거리의 평균 값을 서로 비교하여 상기 깊이 영상 내의 객체들의 단차 정보를 추정하는 단계;를 포함하고
    상기 기본 모드는 H.264/AVC의 화면 내 예측 모드인
    깊이 영상의 화면 내 예측 부호화 방법.
    수학식 1
    Figure 112020113683659-pat00084

    수학식 2
    Figure 112020113683659-pat00085

    수학식 1에서 (xc, yc)는 상기 일 화소의 좌표 값이고, zc는 상기 일 화소의 깊이값이며, (an, bn, cn)은 상기 법선 벡터의 성분이고, 수학식 2에서 n은 국소 평면의 법선 벡터이고 m은 다른 국소 평면의 법선 벡터이다.
  2. 제1 항에 있어서,
    상기 제1 표면 모델은 구면인
    깊이 영상의 화면 내 예측 부호화 방법.
  3. 삭제
  4. 제2 항에 있어서,
    상기 제1 표면 모델은 3차원 좌표와 매개변수로 이루어진 수학식 3의 구면 방정식를 이용하여 모델링되는 깊이 영상의 화면 내 예측 부호화 방법.
    [수학식 3]
    Figure 112020113683659-pat00086

    x, y, z는 3차원 좌표이고, a, b, c, r는 매개변수이다.
  5. 제4 항에 있어서,
    상기 제1 표면 모델 모드에 따른 제1 예측깊이 값은 영상좌표와 초점거리로 이루어진 수학식 4의 제2 구면 방정식을 이용하여 구하는 깊이 영상의 화면 내 예측 부호화 방법.
    [수학식 4]
    Figure 112020113683659-pat00087

    Figure 112020113683659-pat00088
    은 제1 추정깊이 값이고, f는 초점거리이고, a, b, c, r는 매개변수이고, w, h는 영상좌표이다.
  6. 삭제
  7. 제1 항에 있어서,
    상기 예측깊이 값에 기초하여 상기 부호화 모드 각각에 대한 부호화 효율을 측정하는 단계는, 상기 부호화 모드 각각에 따라 부호화한 깊이 영상의 엔트로피 파워를 측정하는
    깊이 영상의 화면 내 예측 부호화 방법.
  8. 삭제
  9. 명령들을 저장하는 적어도 하나의 메모리; 및
    적어도 하나의 프로세서;를 포함하고,
    상기 명령들은 상기 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고,
    상기 동작들은:
    깊이 영상을 기 설정된 블록 단위로 분할하고,
    깊이 영상 내 화소에 대한 영상 좌표를 3차원 좌표로 변환하고,
    상기 3차원 좌표에 기초하여 상기 블록에 대하여 제1 표면 모델 및 제2 표면 모델 각각으로 모델링 하고,
    기본 모드와 상기 제1 및 제2 표면 모델 모드를 포함하는 부호화 모드에 따른 예측깊이 값 생성하고,
    상기 예측깊이 값에 기초하여 상기 부호화 모드 각각에 대한 부호화 효율을 측정하고,
    부호화 모드 별로 측정된 부호화 효율 중 가장 높은 효율을 보이는 부호화 모드에 따라 생성한 예측깊이 값에 기초하여 대상 블록을 부호화하는 것을 포함하고,
    상기 제2 표면 모델로 모델링하는 것은,
    상기 블록의 화소들 중 일 화소와 상기 일 화소를 중심으로 사각형 영역의 주변 화소를 포함하는 국소 평면을 생성하고,
    상기 사각형 영역 내에서 상기 일 화소를 중심으로 상측에 위치한 주변 화소와 하측에 위치한 주변 화소를 지나는 복수의 수직 벡터들의 제1 평균 국소 벡터 및 상기 일 화소를 중심으로 좌측에 위치한 주변 화소와 우측에 위치한 주변 화소를 지나는 복수의 수평 벡터들의 제2 평균 국소 벡터의 외적에 따른 상기 국소 평면의 법선 벡터를 검출하고, 상기 일 화소의 좌표와 상기 법선 벡터를 가지는 평면을 검출하고 수학식 3에 따른 카메라로부터 상기 평면까지의 거리인 특징 거리를 검출하고,
    상기 국소 평면에서의 법선 벡터와 상기 일 화소와 인접한 타 화소를 포함한 다른 국소 평면의 법선 벡터의 수학식 4에 따른 사이각 및 상기 국소 평면에서의 특징 거리와 상기 다른 국소 평면에서의 특징 거리의 차이에 기초하여 상기 국소 평면과 상기 다른 국소 평면의 유사도를 계산하고,
    상기 유사도가 소정의 유사도 이상이면 상기 국소 평면와 상기 다른 국소 평면을 서로 그룹화하고,
    상기 일 화소와 비교하지 않은 주변의 다른 타 화소의 존부를 판단하여 상기 다른 타 화소가 존재하지 않으면 이미 그룹화된 국소 평면들을 하나의 평면의 영역으로 검출하고,
    서로 간에는 그룹화되지 않은 복수의 그룹화된 평면을 검출하며,
    상기 복수의 그룹화된 평면 각각의 특징 거리의 평균 값을 서로 비교하여 상기 깊이 영상 내의 객체들의 단차 정보를 추정하는 것을 포함하고
    상기 기본 모드는 H.264/AVC의 화면 내 예측 모드인
    깊이 영상의 화면 내 예측 부호화 장치.
    수학식 3
    Figure 112020113683659-pat00089

    수학식 4
    Figure 112020113683659-pat00090

    수학식 3에서 (xc, yc)는 상기 일 화소의 좌표 값이고, zc는 상기 일 화소의 깊이값이며, (an, bn, cn)은 상기 법선 벡터의 성분이고, 수학식 4에서 n은 국소 평면의 법선 벡터이고 m은 다른 국소 평면의 법선 벡터이다.
  10. 제9 항에 따른 상기 명령들을 저장하는 비일시적 컴퓨터 판독가능 매체.
KR1020190108597A 2019-09-03 2019-09-03 깊이 영상의 화면 내 예측 부호화 방법 및 장치 KR102224315B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190108597A KR102224315B1 (ko) 2019-09-03 2019-09-03 깊이 영상의 화면 내 예측 부호화 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190108597A KR102224315B1 (ko) 2019-09-03 2019-09-03 깊이 영상의 화면 내 예측 부호화 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102224315B1 true KR102224315B1 (ko) 2021-03-05

Family

ID=75164120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190108597A KR102224315B1 (ko) 2019-09-03 2019-09-03 깊이 영상의 화면 내 예측 부호화 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102224315B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101865826B1 (ko) 2017-05-24 2018-06-08 동의대학교 산학협력단 깊이 영상의 화면 내 예측 부호화 방법 및 장치
KR20190027445A (ko) * 2017-09-07 2019-03-15 동의대학교 산학협력단 곡면 모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101865826B1 (ko) 2017-05-24 2018-06-08 동의대학교 산학협력단 깊이 영상의 화면 내 예측 부호화 방법 및 장치
KR20190027445A (ko) * 2017-09-07 2019-03-15 동의대학교 산학협력단 곡면 모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
강진미, 정기동, 3D-AVC에서 색상 영상 정보를 이용한 깊이 영상의 빠른 화면 내 예측 모드 결정 기법, Journal of Korea Multimedia Society Vol. 18, No. 2, February 2015, pp. 149-157.* *

Similar Documents

Publication Publication Date Title
US11501507B2 (en) Motion compensation of geometry information
CN112219398B (zh) 用于深度编码和解码的方法和装置
KR102080694B1 (ko) 곡면 모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체
TWI432034B (zh) 多視點圖像編碼方法、多視點圖像解碼方法、多視點圖像編碼裝置、多視點圖像解碼裝置、多視點圖像編碼程式及多視點圖像解碼程式
JP5729464B2 (ja) 位置情報付加装置、位置情報付加方法及び位置情報付加用コンピュータプログラムならびに位置検出装置
US20140002596A1 (en) 3d video encoding/decoding apparatus and 3d video encoding/decoding method using depth transition data
KR101817140B1 (ko) 평면 모델링을 통한 깊이 영상의 부호화 방법 및 부호화 장치
KR101865826B1 (ko) 깊이 영상의 화면 내 예측 부호화 방법 및 장치
US10230957B2 (en) Systems and methods for encoding 360 video
JP2005159419A5 (ko)
KR101904120B1 (ko) 타원면 모델링을 통한 깊이 영상의 처리 방법 및 장치
JP2012239085A (ja) 画像処理装置、画像処理方法
CN1964491A (zh) 动态图像编码装置和图像记录再现装置
KR102122905B1 (ko) 히스토그램 구간 교정을 이용한 스테레오 영상의 휘도 보정 방법 및 이에 이용되는 기록매체
KR101906173B1 (ko) 깊이 영상에서 신축을 이용한 움직임 추정 방법 및 장치
KR20140074238A (ko) 이미지들 간의 색상 전환 방법 및 장치
KR102224315B1 (ko) 깊이 영상의 화면 내 예측 부호화 방법 및 장치
KR101904125B1 (ko) 오목면 모델링을 통한 깊이 영상의 처리 방법 및 장치
KR102098322B1 (ko) 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체
KR102224321B1 (ko) 평면 모델링을 통한 깊이 영상 부호화 방법 및 장치
KR102262030B1 (ko) 구면 모델링을 통한 깊이 영상의 처리 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체
KR101904108B1 (ko) 평면 모델링을 통한 깊이 영상의 가변적 블록 부호화 방법 및 장치
KR102224272B1 (ko) 깊이 영상을 통한 평면 검출 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체
KR102231759B1 (ko) 표면 모델링을 통한 깊이 영상의 처리 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체
KR102329383B1 (ko) 평면 모델링 인자 예측을 통한 깊이 화면 부호화 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant