KR102098322B1 - 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체 - Google Patents

평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체 Download PDF

Info

Publication number
KR102098322B1
KR102098322B1 KR1020170114228A KR20170114228A KR102098322B1 KR 102098322 B1 KR102098322 B1 KR 102098322B1 KR 1020170114228 A KR1020170114228 A KR 1020170114228A KR 20170114228 A KR20170114228 A KR 20170114228A KR 102098322 B1 KR102098322 B1 KR 102098322B1
Authority
KR
South Korea
Prior art keywords
plane
depth
depth value
projected
motion estimation
Prior art date
Application number
KR1020170114228A
Other languages
English (en)
Other versions
KR20190027435A (ko
Inventor
권순각
이동석
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020170114228A priority Critical patent/KR102098322B1/ko
Publication of KR20190027435A publication Critical patent/KR20190027435A/ko
Application granted granted Critical
Publication of KR102098322B1 publication Critical patent/KR102098322B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/543Motion estimation other than block-based using regions

Abstract

본 발명의 실시예는 카메라좌표계 상의 객체와 배경이 투영된 영상 평면 상의 현재 화면을 m*n(m, n은 양의 정수) 크기의 대상블록로 분할하는 단계; 상기 영상 평면 상의 참조 화면의 i*j(i 및 j는 m, n 이상의 양의 정수)영역을 탐색하여 m*n 크기의 참조블록을 선택하는 단계; 상기 객체의 좌표값에 기초하여 상기 대상블록의 제1 평면의 정보 및 상기 참조블록의 제2 평면의 정보를 검출하는 단계; 상기 제1 평면과 상기 제2 평면을 기준 평면으로 투영하는 단계; 투영된 상기 제1 평면에서의 제1 투영 깊이 값과 투영된 상기 제2 평면에서의 제2 투영 깊이 값의 차 신호를 계산하는 단계; 및 상기 차신호와 상기 대상블록과 상기 참조블록의 변위에 따른 움직임 벡터 그리고 상기 평면 정보 중 적어도 하나를 부호화하는 단계;를 포함하는 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법을 제공할 수 있다.

Description

평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체{Method and Device of Motion Estimation for Depth Video Coding by Plane Modeling, and NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM}
본 발명은 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치, 비일시적 컴퓨터 판독가능 기록매체에 관한 것이다. 상세하게는 본 발명은 깊이를 통해 평면의 객체를 추정할 수 있고, 시간 흐름상으로 3차원적인 움직임을 보이는 객체에 대해서도 움직임 벡터를 추정할 수 있는 움직임 예측 부호화 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체에 관한 것이다.
일반적으로 움직임 추정은 색상신호 또는 명도신호에 대하여 현재화면내의 블록과 시간방향으로 이웃한 화면내에서 가장 가까운 블록을 찾는 것을 의미한다. 보통 블록크기가 작을수록 추정의 정확도가 커지지만 추정에 필요되는 복잡도가 증가되는 단점이 있다. MPEG-1,2에서는 명도신호에 대하여 수평방향으로 16화소, 수직방향으로 16화소로 블록이 구성되어 있으며, H. 264에서는 16x16, 8x8, 4x4 등의 블록크기를 가변적으로 선택할 수 있도록 하고 있다.
움직임 추정시의 평가척도로는 크게 MSE(평균제곱오차: Mean Square Error)와 MAE (평균절대오차: Mean Absolute Error)가 사용된다. 정확도는 MSE가 우수하나, 복잡도가 크기 때문에 MAE가 많이 사용되고 있다.
최근 색상신호 또는 명도신호에 대하여 적용된 움직임 추정 방법이 깊이 영상에 대해서도 적용하는 연구가 진행되고 있다. 그러나 깊이 영상은 색상 영상과 달리 시간상 흐름에서 3차원적인 움직임을 보이므로 기존 색상영상에서 평면적인 움직임만을 고려하여 움직임 벡터를 얻는 방식을 깊이 영상에 그대로 적용할 수 없다.
KR 10-2016-0086941 A1
본 발명은 깊이 신호 사이의 움직임을 추정할 수 있는 움직임 추정 방법 및 장치를 제공한다.
또한, 본 발명은 깊이 화면 내 평면으로 이루어진 영역의 깊이 값을 통해 평면을 추정할 수 있는 방법 및 장치를 제공한다.
또한, 본 발명은 3차원적인 움직임을 보이는 객체에 대해서도 움직임을 추정할 수 있는 움직임 추정 방법 및 장치를 제공한다.
또한, 본 발명은 평면의 회전을 고려하여 움직임 벡터를 추정할 수 있는 움직임 추정 방법 및 장치를 제공한다.
본 발명의 실시예는 카메라좌표계 상의 객체와 배경이 투영된 영상 평면 상의 현재 화면을 m*n(m, n은 양의 정수) 크기의 대상블록로 분할하는 단계; 상기 영상 평면 상의 참조 화면의 i*j(i 및 j는 m, n 이상의 양의 정수)영역을 탐색하여 m*n 크기의 참조블록을 선택하는 단계; 상기 객체의 좌표값에 기초하여 상기 대상블록의 제1 평면의 정보 및 상기 참조블록의 제2 평면의 정보를 검출하는 단계; 상기 제1 평면과 상기 제2 평면을 기준 평면으로 투영하는 단계; 투영된 상기 제1 평면에서의 제1 투영 깊이 값과 투영된 상기 제2 평면에서의 제2 투영 깊이 값의 차 신호를 계산하는 단계; 및 상기 차신호와 상기 대상블록과 상기 참조블록의 변위에 따른 움직임 벡터 그리고 상기 평면 정보 중 적어도 하나를 부호화하는 단계;를 포함하는 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법을 제공할 수 있다.
또한, 상기 제1 평면의 정보를 검출하는 단계는, 상기 카메라좌표계 상의 상기 대상블록에 대응하는 상기 객체의 좌표와 제1 미결정매개변수로 구성된 제1 평면의 방정식을 모델링하고, 상기 제1 평면의 방정식으로부터 상기 제1 미결정매개변수의 값을 결정하여 제1 결정매개변수를 생성하며, 상기 제1 결정매개변수와 상기 대상 블록을 이루는 제1 화소들의 좌표 값에 기초하여 상기 제1 화소들 각각의 제1 예측깊이값을 결정하는 단계; 및 상기 카메라좌표계 상의 상기 참조블록에 대응하는 상기 객체의 좌표와 제2 미결정매개변수로 구성된 제2 평면의 방정식을 모델링하고, 상기 제2 평면의 방정식으로부터 상기 제2 미결정매개변수의 값을 결정하여 제2 결정매개변수를 생성하며, 상기 제2 결정매개변수와 상기 참조 블록을 이루는 제2 화소들의 좌표 값에 기초하여 상기 제2 화소들 각각의 제2 예측깊이값을 결정하는 단계;를 포함하는 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법을 제공할 수도 있다.
또한, 상기 제1 평면과 상기 제2 평면을 기준 평면으로 투영하는 단계는, 상기 제1 예측깊이값과 상기 제1 화소들의 제1 측정깊이값의 차신호인 상기 제1 투영 깊이 값을 생성하고, 상기 제2 예측깊이값과 상기 제2 화소들의 제2 측정깊이값의 차신호인 상기 제2 투영 깊이 값을 생성하는 단계;를 포함하는 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법을 제공할 수도 있다.
또한, 상기 차 신호를 계산하는 단계는, 상기 i*j 영역 내의 복수의 m*n 크기의 참조블록들 각각을 상기 기준 평면에 투영하고, 투영된 복수의 제2 평면들에서의 복수의 제2 투영 깊이 값들 각각과 상기 제1 투영 깊이 값과의 차신호를 측정하고, 상기 복수의 참조블록들 중 상기 차신호의 절대오차의 합 또는 제곱오차의 합이 최소인 참조블록과 상기 대상블록 간의 변위에 따른 움직임 벡터를 생성하는 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법을 제공할 수도 있다.
또한, 상기 움직임 벡터와 상기 제1 및 제2 결정매개변수의 차이를 부호화하는 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법을 제공할 수도 있다.
또한, 상기 제1 예측깊이값과 상기 제1 화소들의 제1 측정깊이값의 제1 평균제곱오차 및 상기 제2 예측깊이값과 상기 제2 화소들의 제2 측정깊이값의 제2 평균제곱오차를 계산하는 단계;를 더 포함하는 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법을 제공할 수도 있다.
다른 측면에서. 명령들을 저장하는 적어도 하나의 메모리; 및 적어도 하나의 프로세서;를 포함하고, 상기 명령들은 상기 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고, 상기 동작들은: 카메라좌표계 상의 객체와 배경이 투영된 영상 평면 상의 현재 화면을 m*n(m, n은 양의 정수) 크기의 대상블록로 분할하고, 상기 영상 평면 상의 참조 화면의 i*j(i 및 j는 m, n 이상의 양의 정수)영역을 탐색하여 m*n 크기의 참조블록을 선택하고, 상기 객체의 좌표값에 기초하여 상기 대상블록의 제1 평면의 정보 및 상기 참조블록의 제2 평면의 정보를 검출하고, 상기 제1 평면과 상기 제2 평면을 기준 평면으로 투영하고, 투영된 상기 제1 평면에서의 제1 투영 깊이 값과 투영된 상기 제2 평면에서의 제2 투영 깊이 값의 차 신호를 계산하며, 상기 차신호와 상기 대상블록과 상기 참조블록의 변위에 따른 움직임 벡터 그리고 상기 평면 정보 중 적어도 하나를 부호화하는 것을 포함하는 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 장치를 제공할 수도 있다.
또 다른 측면에서, 상기 명령들을 저장하는 비일시적 컴퓨터 판독가능 매체를 제공할 수도 있다.
본 발명의 실시예는 깊이 영상 내의 깊이 정보를 통해 평면을 추정할 수 있다.
또한, 본 발명의 실시예는 객체의 회전과 같은 3차원적인 움직임을 고려하여 움직임 추정의 정확도를 높일 수 있다.
또한, 본 발명의 실시예는 대상 블록과 참조 블록을 동일한 기준 평면으로 투영함으로써 정확한 움직임 추정이 가능하도록 한다.
도 1은 본 발명의 실시예에 따른 깊이 영상에서 신축을 이용하여 움직임을 추정할 수 있도록 한 움직임 추정 장치를 도시하는 블록도이다.
도 2a는 본 발명의 실시예에 따른 움직임 추정 방법에 대한 예시적은 다이어그램이다.
도 2b는 제1 및 제2 평면의 정보 검출의 흐름도이다.
도 2c는 제1 및 제2 평면을 기준 평면으로의 투영에 관한 흐름도이다.
도 3은 카메라 좌표계 상의 한점이 영상 평면으로 투영되는 것을 나타낸 것이다.
도 4는 대상 블록과 참조 블록의 예시도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1은 본 발명의 실시예에 따른 움직임 추정 방법 장치를 도시하는 블록도이다.
움직임 추정 장치(100)는 영상 데이터를 데이터수신장치(200)로 제공할 수 있다.
움직임 추정 장치(100)와 데이터수신장치(200)는 데스크톱 컴퓨터들, 노트북 (즉, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 이른바 "스마트" 폰들과 같은 전화기 핸드셋들, 이른바 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한 매우 다양한 디바이스들 중 임의의 것을 포함할 수도 있다.
일부 구현예에서는, 움직임 추정 장치(100)와 데이터수신장치(200)는 무선 통신을 위한 구성(10)이 갖추어질 수 있다.
또한, 데이터수신장치(200)는 영상 처리된 영상 데이터를 컴퓨터 판독 가능 매체를 통해 수신할 수도 있다.
컴퓨터 판독 가능 매체는 움직임 추정 장치(100)로부터 영상처리된 영상 데이터를 데이터수신장치(200)로 이동시킬 수 있는 임의 유형의 매체 또는 디바이스를 포함할 수 있다. 일 예로, 컴퓨터 판독 가능 매체는 움직임 추정 장치(100)가 영상 데이터를 데이터수신장치(200)로 직접 실시간으로 송신하는 것을 가능하게 하는 통신 매체, 이를테면 송신 채널을 포함할 수 있다.
영상 처리된 영상 데이터는 통신 표준, 이를테면 무선 통신 프로토콜에 따라 변조되고 데이터수신장치(200)로 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 이를테면 라디오 주파수 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반 네트워크, 이를테면 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 움직임 추정 장치(100)로부터 데이터수신장치(200)로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다. 몇몇 예들에서 영상 처리된 영상 데이터가 출력 인터페이스(130)로부터 컴퓨터 판독 가능 저장 매체, 이를 테면 비일시적(non-transitory) 컴퓨터 판독가능 저장 매체, 즉, 데이터 저장 디바이스로 출력될 수도 있다. 마찬가지로 영상 데이터는 데이터수신장치(200)의 입력 인터페이스(230)에 의해 저장 디바이스로부터 엑세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 영상 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산형 또는 국부적으로 액세스되는 비일시적 데이터 저장 매체들 중 임의의 것을 포함할 수도 있다. 추가의 예에서, 저장 디바이스는 움직임 추정 장치(100)에 의해 생성된 영상 데이터를 저장할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 해당할 수도 있다.
데이터수신장치(200)는 저장 디바이스로부터의 저장된 영상 데이터에 스트리밍 또는 다운로드를 통해 액세스할 수도 있다.
도 1의 예에서 움직임 추정 장치(100)는 영상 소스(110) 및 영상처리부(120)를 포함할 수 있다. 또한, 움직임 추정 장치(100)는 출력 인터페이스(130)를 더 포함할 수 있다.
데이터수신장치(200)는 입력 인터페이스(230) 및 데이터처리부(220)를 포함할 수 있다. 또한, 데이터수신장치(200)는 디스플레이 디바이스(210)를 더 포함할 수 있다.
다른 예에서 움직임 추정 장치(100)와 데이터처리부(220)는 다른 컴포넌트들을 포함할 수 있다.
예를 들어 움직임 추정 장치(100)는 외부 비디오 소스, 이를테면 외부 카메라로부터 영상을 수신할 수 있고, 외부 카메라는 깊이 영상(depth image)을 생성하는 깊이 영상 촬영 디바이스가 될 수 있다. 마찬가지로, 데이터수신장치(200)는 통합형 디스플레이 디바이스(210)를 구비하기 보다는 외부 디스플레이 디바이스(210)와 인터페이싱 할 수도 있다.
움직임 추정 장치(100)의 영상 소스(110)는 깊이 영상 촬영 디바이스, 이를테면 카메라, 이전에 촬영된 깊이 영상을 포함하는 아카이브 (archive), 및/또는 깊이 영상 콘텐츠 제공자로부터의 깊이 영상을 수신하는 인터페이스를 포함할 수도 있다.
일부 구현예에서 깊이 영상 촬영 디바이스는 장면의 깊이 정보를 256 단계의 8비트 영상 등으로 표현한 깊이 영상을 제공할 수 있다. 깊이 영상의 한 픽셀을 표현하기 위한 비트수는 8비트가 아니라 변경될 수 있다. 깊이 영상 촬영 디바이스는 적외선 등을 이용하여 깊이 영상 촬영 디바이스로부터 객체 및 배경까지의 거리를 측정하여 거리에 비례 또는 반비례하는 값을 갖는 깊이 영상을 제공할 수 있다.
깊이 영상의 화소 값은 예를 들어, RGB의 색상 정보가 아닌 일 예로 mm 단위(이에 한정하는 것은 아님)의 정수로 된 깊이 정보가 될 수 있다.
움직임 추정 장치(100)와 데이터수신장치(200) 각각은 하나 이상의 메모리와 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 개별 로직 회로, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합과 같은 다양한 형태로 구성될 수 있다.
메모리는 컴퓨터 판독가능 명령들 또는 프로세서 판독가능 명령들과 같은 명령들(예를 들어, 실행가능 명령들)을 포함한다. 명령들은 하나 이상의 프로세서들 각각에 의해서와 같이 컴퓨터에 의해 실행가능한 하나 이상의 명령어들을 포함할 수도 있다.
예를 들어 하나 이상의 명령들은 하나 이상의 프로세서들로 하여금 깊이 화면의 움직임 벡터를 결정하고 깊이 화면을 부호화하기 위해 깊이 화면을 프로세싱하는 것을 포함하는 동작들을 수행하기 위해 하나 이상의 프로세서들에 의해 실행가능 할 수도 있다.
상세하게는, 영상처리부(120)는 명령어들을 저장하는 하나 이상의 메모리(121)와 상기 명령어들을 실행하는 적어도 하나의 프로세서(122)를 포함할 수 있다.
영상처리부(120)의 프로세서(122)는 깊이 화면의 움직임 벡터를 결정하기 위한 기법들이 적용되도록 구성될 수 있다.
일부 구현예에서는, 영상처리부(120)의 프로세서(122)는 깊이 화면을 부호화하기 위한 기법들이 적용되도록 구성될 수 있다.
다른 구현예에서는 영상처리부(120)의 프로세서(122)는 깊이 화면을 부호화 및 복호화하는 기법이 적용되도록 구성될 수도 있다.
데이터처리부(220)는 영상처리부(120)로부터의 깊이 화면 데이터를 외부 장치로 전송, 디스플레이, 분석 등을 수행할 수 있도록 구성될 수 있다.
일부 구현예에서는, 데이터처리부(220)는 영상처리부(120)로부터의 부호화된 깊이 화면 데이터를 복호화할 수 있도록 구성될 수도 있다.
도 1에 도시되지 않았지만, 몇몇 실시예에서, 움직임 추정 장치(100)와 데이터처리장치는 통합된 장치가 될 수 있다. 이를테면 움직임 추정 장치(100)는 깊이 화면을 부호화하고, 부호화된 깊이 화면을 복호화할 수 있도록 구성될 수도 있다.
도 2a는 본 발명의 실시예에 따른 움직임 추정 방법에 대한 예시적은 다이어그램이고, 도 2b는 제1 및 제2 평면의 정보 검출의 흐름도이고, 도 2c는 제1 및 제2 평면을 기준 평면으로의 투영에 관한 흐름도이다. 그리고 도 3은 카메라 좌표계 상의 한점이 영상 평면으로 투영되는 것을 나타낸 것이고, 도 4는 대상 블록과 참조 블록의 예시도이다.
도 2a, 도 3 및 도 4를 참조하면, 본 발명의 실시예에 따른 움직임 추정 방법은, 카메라좌표계 상의 객체와 배경이 투영된 영상 평면 상의 현재 화면을 m*n(m, n은 양의 정수) 크기의 대상블록로 분할하는 단계(S110), 영상 평면 상의 참조 화면의 i*j(i 및 j는 m, n 이상의 양의 정수)영역을 탐색하여 m*n 크기의 참조블록을 선택하는 단계(S120), 객체의 좌표값에 기초하여 대상블록의 제1 평면의 정보 및 참조블록의 제2 평면의 정보를 검출하는 단계(S130), 제1 평면과 제2 평면을 기준 평면으로 투영하는 단계(S140), 투영된 제1 평면에서의 제1 투영 깊이 값과 투영된 제2 평면에서의 제2 투영 깊이 값의 차 신호를 계산하는 단계(S150), 탐색 영역내의 모든 참조 블록의 탐색 여부를 확인하는 단계(S160), 대상 블록의 제1 투영 깊이 값과 탐색된 모든 참조블록들 각각의 제2 투영 깊이 값으로부터 절대오차의 합 또는 제곱오차의 합을 측정하는 단계(S170) 및 대상블록과 참조블록의 변위에 따른 움직임 벡터 그리고 평면 정보, 차신호 및 결정매개변수의 차이 중 적어도 하나를 부호화하는 단계(S180)를 포함할 수 있다.
본 발명의 실시예에 따른 움직임 추정 방법의 각 단계를 보다 상세하게 설명한다.
카메라좌표계 상의 객체와 배경이 투영된 영상 평면 상의 현재 화면을 m*n 크기의 대상블록로 분할하는 단계(S110).
카메라 좌표계 상에서 객체의 임의의 한 점 P는 (X, Y, Z) 좌표를 가지고, 여기서 (X, Y)는 영상 평면의 (x, y) 좌표를 가진 점으로 투영되며, Z 값은 (x, y) 좌표에서의 깊이 값이 된다. 그리고 상기 깊이 값은 각 화소 단위로 표현될 수 있다.
상세하게는, 깊이 영상을 촬영할 때 촬영된 한 화면은 촬영 영역 내 각 점들이 가상의 평면인 영상 평면 위로 투영된다. 그리고 카메라 좌표계에서의 한점 P=(X, Y, Z)가 중앙을 원점으로 하는 영상 평면 내 한점인 p=(x, y)로 투영된다면, p를 포함하는 화소에서의 깊이 값이 d일 때, P와 p 사이의 관계는 수학식 1을 충족한다.
[수학식 1]
X=dx/f
Y=dy/f
Z=d
수학식 1에서 f는 카메라의 초점 거리로써, 카메라 좌표계 상에서 원점과 영상 평면과의 거리로 정의한다.
움직임 추정 장치(100)의 프로세서(122)는 카메라 좌표계 상의 객체와 배경이 투영된 영상 평면 상의 현재 화면을 미리 설정된 제1 크기의 블록으로 분할할 수 있다.
예를 들어 현재 화면은 m*n의 블록 단위로 분할될 수 있다. 따라서 복수의 블록 각각은 m*n 화소로 이루어진 영역으로 정의할 수 있다.
이를테면 m*n의 블록은 8*8화소나 16*16화소로 이루어진 영역으로 정의할 수 있고 해상도가 증가하면 기본 단위는 32*32나 64*64 화소로 이루어진 영역으로 정의할 수도 있다. 다만 이에 한정하는 것은 아니고, 프로세서(122)는 현재 화면을 분할하지 않고, 현재 화면의 움직임 추정 차신호를 계산할 수도 있다.
또한, 여기서의 미리 설정된 제1 크기는 서로 반비례하는 정확도와 복잡도를 고려하여 미리 결정될 수 있다.
예를 들어 블록의 크기가 작을수록 움직임 추정의 정확도가 증가하지만 블록의 수가 많아져 추정에 요구되는 연산의 복잡도가 증가하고 움직임 벡터의 정보가 증가한다. 따라서 정확도와 복잡도를 고려하여 블록의 제1 크기를 설정할 수 있다.
또한, 프로세서(122)는 현재 화면을 복수의 블록으로 분할하고 분할된 각 블록의 위치 및 화소 내의 깊이 값의 정보를 메모리(121)에 저장할 수 있다.
영상 평면 상의 참조 화면의 i*j 영역을 탐색하여 m*n 크기의 참조블록을 선택하는 단계(S120).
움직임 추정 장치(100)의 프로세서(122)는 카메라좌표계 상의 객체와 배경이 투영된 영상 평면 상의 참조 화면의 제2 크기의 탐색 영역을 탐색할 수 있다.
여기서의 참조 화면은 현재 화면의 이전 프레임의 깊이 화면 또는 현재 화면의 다음 프레임의 깊이 화면이 될 수 있고 참조 화면의 미리 설정된 제2 크기의 탐색 영역 내에서 기준 점을 기준으로 전술한 미리 설정된 제1 크기의 참조 블록을 선택할 수 있다. 여기서의 제2 크기의 탐색 영역은 i*j의 크기가 될 수 있다.
또한, 탐색 영역의 기준 점은 현재 화면의 복수의 블록 중에서 움직임 추정 대상인 대상 블록의 위치와 공간상으로 동일한 위치가 될 수 있다. 즉, 참조 화면 내에서 대상 블록의 위치와 동일한 위치가 될 수 있다.
또한, 프로세서(122)는 기준 점을 중심으로 제2 크기의 탐색 영역에 있는 제1 크기의 참조 블록을 선택할 수 있다.
또한, 탐색 영역 내의 모든 블록들 각각을 참조 블록으로 하여 각 참조 블록에 대해 이하의 동작(S130~S170)이 수행될 수 있다.
또한, 프로세서(122)는 참조 블록의 위치 및 화소 내의 깊이 값의 정보를 메모리(121)에 저장할 수 있다.
객체의 좌표값에 기초하여 대상블록의 제1 평면의 정보 및 참조블록의 제2 평면의 정보를 검출하는 단계(S130).
도 2b를 더 참조하면, 프로세서(122)는 제1 평면의 정보를 검출하기 위하여 대상블록 내의 화소들 중 어느 하나의 화소로 투영될 카메라 좌표계 상의 임의의 점 P의 좌표와 제1 미결정매개변수(a, b: 카메라 좌표계 내에서의 평면의 방향을 의미, c: 원점에서부터 평면까지의 거리)로 구성된 수학식 2 꼴의 제1 평면의 방정식을 모델링할 수 있다(S131).
또한, 프로세서(122)는 제2 평면의 정보를 검출하기 위하여 참조블록 내의 화소들 중 어느 하나의 화소로 투영될 카메라 좌표계 상의 임의의 점 P의 좌표와 제2 미결정매개변수(a', b', c')로 구성된 수학식 2 꼴의 제2 평면의 방정식을 모델링할 수 있다(S135).
[수학식 2]
aX+bY+c=Z
프로세서(122)는 제1 평면의 방정식으로부터 제1 미결정매개변수의 값을 결정하여 제1 결정매개변수를 생성할 수 있다(S132).
마찬가지로, 프로세서(122)는 제2 평면의 방정식으로부터 제2 미결정매개변수의 값을 결정하여 제2 결정매개변수를 생성할 수 있다(S136).
결정매개변수를 생성하는 방법에 대해서 보다 상세하게 설명하면, 카메라 좌표계 상에서 평면으로 이루어진 영역이 영상 평면에 p(x, y, z)로 나타내는 복수의 화소로 투영될 때, 해당 화소들에 대해 깊이 값을 이용하여 수학식 1을 적용하면 카메라 좌표계 상의 점 P=(X, Y, Z)를 구할 수 있다. 이들을 수학식 2에 대입하면 수학식 3과 같은 행렬식을 얻을 수 있다. 그리고 수학식 3에서 A는 평면 내 점들의 좌표로 구성된 행렬이고, R은 수학식 2로 표현되는 평면의 인자로 구성된 행렬이다.
[수학식 3]
AR=B
Figure 112017086787604-pat00001
,
Figure 112017086787604-pat00002
,
Figure 112017086787604-pat00003
상기 수학식 3에서 A의 역행렬
Figure 112017086787604-pat00004
를 통해 행렬
Figure 112017086787604-pat00005
를 구할 수 있다. 다만, A와 B를 이루는 점들의 개수가 3개가 아닐 경우에는
Figure 112017086787604-pat00006
가 존재하지 않을 수 있어 R을 구할 수 없다. 대신 A의 의사역행렬
Figure 112017086787604-pat00007
을 구하여 R의 근사값
Figure 112017086787604-pat00008
Figure 112017086787604-pat00009
를 계산함으로써 구할 수 있다.
Figure 112017086787604-pat00010
는 수학식 4를 통해 구할 수 있다. 이 때 A와 B가 한 평면을 이루d지 않는 경우에는
Figure 112017086787604-pat00011
은 해당 점들에 대해 제일 근접한 평면의 인자이다.
[수학식 4]
Figure 112017086787604-pat00012
전술한 바와 같이 프로세서(122)는 미결정매개변수로 구성된 평면의 방정식을 모델링하여 평면의 방정식으로부터 미결정매개변수의 값을 결정함으로써 결정매개변수를 생성할 수 있다. 따라서 영상 평면 내에서 임의의 영역 내의 화소들로 구성된 점들에 대해 제일 근접한 평면을 추정할 수 있으므로, 대상 블록과 탐색 블록 각각에 대해 제1 및 제2 평면을 추정하여 대상 블록의 제1 평면과 탐색 블록의 제2 평면의 정보를 검출할 수 있다.
프로세서(122)는 평면의 정보가 검출되면 평면의 인자를 통해 블록 내 각 화소에서의 깊이를 예측하여 예측 깊이값을 생성할 수 있다. 즉, 제1 평면의 인자인 제1 결정매개변수와 대상 블록을 이루는 제1 화소들의 좌표 값에 기초하여 제1 화소들 각각의 제1 예측깊이값을 결정(S133)하고, 제2 평면의 인자인 제2 결정매개변수와 대상 블록을 이루는 제2 화소들의 좌표 값에 기초하여 제2 화소들 각각의 제2 예측깊이값(S137)을 결정할 수 있다.
보다 상세하게는, 수학식 1로 표현되는 영상 좌표계와 카메라 좌표계와의 관계를 이용하여 수학식 2를 깊이 d와 영상 좌표계의 좌표인 x, y로 나타내어 d로 정리하면 수학식 5를 충족한다.
[수학식 5]
Figure 112017086787604-pat00013
그리고 수학식 5를 이용하여 대상 블록(또는 참조 블록) 내 한 점인
Figure 112017086787604-pat00014
에서 추정된 제1 평면(또는 제2 평면)에 대해 제1 예측깊이값(또는 제2 예측깊이값)
Figure 112017086787604-pat00015
을 결정할 수 있다.
또한, 프로세서(122)는 측정깊이값
Figure 112017086787604-pat00016
과 예측깊이값
Figure 112017086787604-pat00017
에 대해 수학식 6과 같이 평균제곱오차(MSE: mean Square Error)를 측정할 수 있다.
[수학식 6]
Figure 112017086787604-pat00018
이 때 대상 블록에서의 e와 참조 블록에서의 e가 각각 미리 설정된 임계값 T 이상일 경우에는 평면으로 판단하여 다음 단계를 진행하고, 그렇지 않은 경우 평면 모델링을 적용한 움직임 추정 방법을 적용하지 않고 다른 움직임 추정 방법을 적용할 수 있다. 여기서의 다른 움직임 추정 방법은 공지의 움직임 추정 방법이 될 수 있으나 이에 한정하는 것은 아니다.
메모리(121)에는 수학식 3 내지 수학식 6을 전술한 바와 같이 프로세서(122)가 연산하도록 프로세서(122)에 의해 수행되는 명령어가 저장될 수 있다.
제1 평면과 제2 평면을 기준 평면으로 투영하는 단계(S140).
도 2c를 더 참조하면, 깊이 영상에서 정확한 움직임 추정을 위해 대상 블록과 참조 블록에서의 제1 및 제2 평면 각각을 동일한 기준 평면으로 투영하여 평면 모델링의 변화를 제거한 움직임 추정을 수행하는 것이 바람직하다.
프로세서(122)는 평면 모델링의 변화를 제거하기 위하여 측정 깊이 값과 수학식 5를 통해 계산된 예측 깊이 값의 차 신호를 이용할 수 있다.
즉, 프로세서(122)는 제1 예측깊이값과 제1 화소들의 제1 측정깊이값의 차신호인 제1 투영 깊이 값을 생성하고, 제2 예측깊이값과 제2 화소들의 제2 측정깊이값의 차신호인 제2 투영 깊이 값을 생성할 수 있다(S141, S145).
이 때 측정 깊이 값과 예측 깊이 값의 차 신호의 의미는 해당 블록으로부터 모델링된 평면이 모델링 인자 a, b, c가 모두 0인 기준 평면으로 투영되었을 때의 깊이 값이 된다. 이를 통해 대상 블록 내 깊이 값과 참조 블록 내 깊이 값을 같은 평면으로 투영시켜 정확한 움직임 추정을 수행할 수 있다.
투영된 제1 평면에서의 제1 투영 깊이 값과 투영된 제2 평면에서의 제2 투영 깊이 값의 차 신호를 계산하는 단계(S150).
프로세서(122)는 대상 블록과 참조 블록의 깊이 값을 하나의 평면으로 투영하고, 그 두 깊이 값들의 차 신호, 즉 제1 투영 깊이 값과 제2 투영 깊이 값의 차신호를 계산하고 이 차신호의 SAE(Sum Absolute Error: 절대오차의 합) 또는 SSE(Sum Square Error: 제곱오차의 합)을 측정할 수 있다.
탐색 영역내의 모든 참조 블록의 탐색 여부를 확인하는 단계(S160).
또한, 이러한 과정(S150)을 참조 화면 내 탐색 영역 전체에 대해 수행하기 위하여 프로세서(122)는 탐색 영역내의 모든 참조 블록의 탐색 여부를 확인하고 탐색되지 않은 경우 탐색되지 않은 모든 참조 블록에 대해 S120 내지 S150 과정을 수행할 수 있다.
대상 블록의 제1 투영 깊이 값과 탐색된 모든 참조블록들 각각의 제2 투영 깊이 값으로부터 절대오차의 합 또는 제곱오차의 합을 측정하는 단계(S170) 및 대상블록과 참조블록의 변위에 따른 움직임 벡터, 평면 정보, 차신호 및 결정매개변수의 차이 중 적어도 하나를 부호화하는 단계(S180).
프로세서(122)는 i*j 영역 내의 복수의 m*n 크기의 참조 블록들 각각을 기준 평면에 투영하고, 투영된 복수의 제2 평면들에서의 복수의 제2 투영 깊이 값들 각각과 제1 투영 깊이 값과의 차신호를 측정하고, 복수의 참조 블록들 중 차신호의 SAE(또는 SSE)가 가장 낮은 위치를 움직임 벡터로 삼고, 차신호, 대상블록과 상기 대상블록과 제일 유사한 블록으로써 움직임 벡터 결정에 대상이된 참조 블록간의 움직임 벡터 그리고 제1 및 제2 평면의 결정매개변수의 차이를 부호화할 수 있다.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.
100: 움직임 추정 장치
110: 영상 소스
120: 영상처리부
121: 메모리
122: 프로세서
130: 출력인터페이스
200: 데이터수신장치
210: 디스플레이 디바이스
220: 데이터 처리부
230: 입력 인터페이스

Claims (8)

  1. 카메라좌표계 상의 객체와 배경이 투영된 영상 평면 상의 현재 화면을 m*n(m, n은 양의 정수) 크기의 대상블록로 분할하는 단계;
    상기 영상 평면 상의 참조 화면의 i*j(i 및 j는 m, n 이상의 양의 정수)영역을 탐색하여 m*n 크기의 참조블록을 선택하는 단계;
    상기 카메라좌표계 상의 상기 대상블록에 대응하는 상기 객체의 좌표와 제1 미결정매개변수로 구성된 제1 평면의 방정식을 모델링하고, 상기 제1 평면의 방정식으로부터 상기 제1 미결정매개변수의 값을 결정하여 제1 결정매개변수를 생성하며, 상기 제1 결정매개변수와 상기 대상 블록을 이루는 제1 화소들의 좌표 값에 기초하여 상기 제1 화소들 각각의 제1 예측깊이값을 결정하는 단계;
    상기 카메라좌표계 상의 상기 참조블록에 대응하는 상기 객체의 좌표와 제2 미결정매개변수로 구성된 제2 평면의 방정식을 모델링하고, 상기 제2 평면의 방정식으로부터 상기 제2 미결정매개변수의 값을 결정하여 제2 결정매개변수를 생성하며, 상기 제2 결정매개변수와 상기 참조 블록을 이루는 제2 화소들의 좌표 값에 기초하여 상기 제2 화소들 각각의 제2 예측깊이값을 결정하는 단계;
    상기 제1 평면과 상기 제2 평면을 기준 평면으로 투영하는 단계;
    투영된 상기 제1 평면에서의 제1 투영 깊이 값과 투영된 상기 제2 평면에서의 제2 투영 깊이 값의 차 신호를 계산하는 단계; 및
    상기 차 신호와 상기 대상블록과 상기 참조블록의 변위에 따른 움직임 벡터 그리고 상기 평면 정보 중 적어도 하나를 부호화하는 단계;를 포함하는
    평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법.
  2. 삭제
  3. 제1 항에 있어서,
    상기 제1 평면과 상기 제2 평면을 기준 평면으로 투영하는 단계는,
    상기 제1 예측깊이값과 상기 제1 화소들의 제1 측정깊이값의 차신호인 상기 제1 투영 깊이 값을 생성하고, 상기 제2 예측깊이값과 상기 제2 화소들의 제2 측정깊이값의 차신호인 상기 제2 투영 깊이 값을 생성하는 단계;를 포함하는
    평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법.
  4. 제3 항에 있어서,
    상기 차 신호를 계산하는 단계는,
    상기 i*j 영역 내의 복수의 m*n 크기의 참조블록들 각각을 상기 기준 평면에 투영하고, 투영된 복수의 제2 평면들에서의 복수의 제2 투영 깊이 값들 각각과 상기 제1 투영 깊이 값과의 차신호를 측정하고, 상기 복수의 참조블록들 중 상기 차신호의 절대오차의 합 또는 제곱오차의 합이 최소인 참조블록과 상기 대상블록 간의 변위에 따른 움직임 벡터를 생성하는
    평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법.
  5. 제4 항에 있어서,
    상기 움직임 벡터와 상기 제1 및 제2 결정매개변수의 차이를 부호화하는
    평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법.
  6. 제1 항에 있어서,
    상기 제1 예측깊이값과 상기 제1 화소들의 제1 측정깊이값의 제1 평균제곱오차 및 상기 제2 예측깊이값과 상기 제2 화소들의 제2 측정깊이값의 제2 평균제곱오차를 계산하는 단계;를 더 포함하는
    평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법.
  7. 명령들을 저장하는 적어도 하나의 메모리; 및
    적어도 하나의 프로세서;를 포함하고,
    상기 명령들은 상기 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고,
    상기 동작들은:
    카메라좌표계 상의 객체와 배경이 투영된 영상 평면 상의 현재 화면을 m*n(m, n은 양의 정수) 크기의 대상블록로 분할하고,
    상기 영상 평면 상의 참조 화면의 i*j(i 및 j는 m, n 이상의 양의 정수)영역을 탐색하여 m*n 크기의 참조블록을 선택하고,
    상기 카메라좌표계 상의 상기 대상블록에 대응하는 상기 객체의 좌표와 제1 미결정매개변수로 구성된 제1 평면의 방정식을 모델링하고, 상기 제1 평면의 방정식으로부터 상기 제1 미결정매개변수의 값을 결정하여 제1 결정매개변수를 생성하며, 상기 제1 결정매개변수와 상기 대상 블록을 이루는 제1 화소들의 좌표 값에 기초하여 상기 제1 화소들 각각의 제1 예측깊이값을 결정하고,
    상기 카메라좌표계 상의 상기 참조블록에 대응하는 상기 객체의 좌표와 제2 미결정매개변수로 구성된 제2 평면의 방정식을 모델링하고, 상기 제2 평면의 방정식으로부터 상기 제2 미결정매개변수의 값을 결정하여 제2 결정매개변수를 생성하며, 상기 제2 결정매개변수와 상기 참조 블록을 이루는 제2 화소들의 좌표 값에 기초하여 상기 제2 화소들 각각의 제2 예측깊이값을 결정하고,
    상기 제1 평면과 상기 제2 평면을 기준 평면으로 투영하고,
    투영된 상기 제1 평면에서의 제1 투영 깊이 값과 투영된 상기 제2 평면에서의 제2 투영 깊이 값의 차 신호를 계산하며,
    상기 차신호와 상기 대상블록과 상기 참조블록의 변위에 따른 움직임 벡터 그리고 상기 평면 정보 중 적어도 하나를 부호화하는
    것을 포함하는
    평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 장치.
  8. 제7 항에 따른 상기 명령들을 저장하는 비일시적 컴퓨터 판독가능 매체.
KR1020170114228A 2017-09-07 2017-09-07 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체 KR102098322B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170114228A KR102098322B1 (ko) 2017-09-07 2017-09-07 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170114228A KR102098322B1 (ko) 2017-09-07 2017-09-07 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체

Publications (2)

Publication Number Publication Date
KR20190027435A KR20190027435A (ko) 2019-03-15
KR102098322B1 true KR102098322B1 (ko) 2020-04-07

Family

ID=65762481

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170114228A KR102098322B1 (ko) 2017-09-07 2017-09-07 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체

Country Status (1)

Country Link
KR (1) KR102098322B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102235371B1 (ko) * 2019-08-13 2021-04-02 주식회사 엘지유플러스 클라우드 기반의 증강현실 제공 장치 및 방법
KR102329383B1 (ko) * 2020-02-25 2021-11-19 동의대학교 산학협력단 평면 모델링 인자 예측을 통한 깊이 화면 부호화 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336139B1 (ko) * 2012-06-11 2013-12-05 동의대학교 산학협력단 깊이 카메라를 이용한 움직임 추정 시스템 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100544677B1 (ko) * 2003-12-26 2006-01-23 한국전자통신연구원 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법
KR20160086941A (ko) 2013-12-27 2016-07-20 니폰 덴신 덴와 가부시끼가이샤 영상 부호화 방법, 영상 복호 방법, 영상 부호화 장치, 영상 복호 장치, 영상 부호화 프로그램 및 영상 복호 프로그램

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101336139B1 (ko) * 2012-06-11 2013-12-05 동의대학교 산학협력단 깊이 카메라를 이용한 움직임 추정 시스템 및 방법

Also Published As

Publication number Publication date
KR20190027435A (ko) 2019-03-15

Similar Documents

Publication Publication Date Title
US11501507B2 (en) Motion compensation of geometry information
KR102080694B1 (ko) 곡면 모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체
KR101817140B1 (ko) 평면 모델링을 통한 깊이 영상의 부호화 방법 및 부호화 장치
CN109661815B (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
KR102074929B1 (ko) 깊이 영상을 통한 평면 검출 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체
KR101904120B1 (ko) 타원면 모델링을 통한 깊이 영상의 처리 방법 및 장치
KR101865826B1 (ko) 깊이 영상의 화면 내 예측 부호화 방법 및 장치
KR102098322B1 (ko) 평면모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체
CN112119432A (zh) 用于处理3d场景的方法和装置
KR101906173B1 (ko) 깊이 영상에서 신축을 이용한 움직임 추정 방법 및 장치
KR20140074238A (ko) 이미지들 간의 색상 전환 방법 및 장치
KR101904125B1 (ko) 오목면 모델링을 통한 깊이 영상의 처리 방법 및 장치
CN115937290B (zh) 一种图像深度估计方法、装置、电子设备及存储介质
KR20210107846A (ko) 포인트 클라우드 글로벌 테트리스 패킹
KR102224272B1 (ko) 깊이 영상을 통한 평면 검출 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체
US20170214935A1 (en) Method and device for processing a video sequence
KR101777776B1 (ko) 표본 프로파일 정보 기반 움직임 추정장치 및 방법
US11257235B2 (en) Efficient sub-pixel disparity estimation for all sub-aperture images from densely sampled light field cameras
JP2022068316A (ja) 物体の3次元再構成のための初期対応割り当ての効率的なデータ処理のための方法及び装置
KR102262030B1 (ko) 구면 모델링을 통한 깊이 영상의 처리 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체
KR101866106B1 (ko) 깊이 영상의 프레임간의 평면 예측 방법 및 평면 예측 장치
KR102231759B1 (ko) 표면 모델링을 통한 깊이 영상의 처리 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체
KR102224315B1 (ko) 깊이 영상의 화면 내 예측 부호화 방법 및 장치
KR101817137B1 (ko) 블록 평균을 통한 깊이 영상의 부호화 방법 및 부호화 장치
KR102329383B1 (ko) 평면 모델링 인자 예측을 통한 깊이 화면 부호화 방법 및 장치 그리고 비일시적 컴퓨터 판독가능 기록매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant