KR101906173B1 - Method and Device of Zoom Motion Estimation for Depth Video - Google Patents
Method and Device of Zoom Motion Estimation for Depth Video Download PDFInfo
- Publication number
- KR101906173B1 KR101906173B1 KR1020170069616A KR20170069616A KR101906173B1 KR 101906173 B1 KR101906173 B1 KR 101906173B1 KR 1020170069616 A KR1020170069616 A KR 1020170069616A KR 20170069616 A KR20170069616 A KR 20170069616A KR 101906173 B1 KR101906173 B1 KR 101906173B1
- Authority
- KR
- South Korea
- Prior art keywords
- depth
- block
- motion estimation
- search
- calculating
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 133
- 238000000034 method Methods 0.000 title claims abstract description 43
- 239000013598 vector Substances 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 16
- 230000008602 contraction Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 9
- 238000003860 storage Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012432 intermediate storage Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 깊이 영상에서 신축을 이용한 움직임 추정 방법 및 장치에 관한 것이다. 보다 상세하게는 본 발명은 객체와 카메라와의 거리의 영향을 제거하여 움직임 추정 성능을 향상시킨 움직임 추정 방법 및 장치에 관한 것이다.The present invention relates to a motion estimation method and apparatus using stretching in a depth image. More particularly, the present invention relates to a motion estimation method and apparatus that improves motion estimation performance by eliminating the influence of distances between an object and a camera.
움직임 추정은 색상신호 또는 명도신호에 대하여 현재화면내의 블록과 시간방향으로 이웃한 화면 내에서 가장 가까운 블록을 찾는 것을 의미한다. 보통 블록크기가 작을수록 추정의 정확도가 커지지만 추정에 필요 되는 복잡도가 증가되는 단점이 있다. The motion estimation means to find the closest block in the screen adjacent to the block in the current screen with respect to the color signal or brightness signal. Usually, the smaller the block size, the larger the accuracy of estimation, but the complexity required for estimation is increased.
MPEG-1,2에서는 명도신호에 대하여 수평방향으로 16화소, 수직방향으로 16화소로 블록이 구성되어 있으며, H. 264에서는 16x16, 8x8, 4x4 등의 블록크기를 가변적으로 선택할 수 있도록 하고 있다.In MPEG-1 and 2, blocks are composed of 16 pixels in the horizontal direction and 16 pixels in the vertical direction with respect to the lightness signal. In H. 264, block sizes of 16x16, 8x8, 4x4, etc. can be variably selected.
움직임 추정시의 평가척도로는 크게 MSE (평균제곱오차: Mean Square Error)와 MAE (평균절대오차: Mean Absolute Error)가 사용된다. 정확도는 MSE가 우수하나, 복잡도가 크기 때문에 MAE가 많이 사용되고 있다.MSE (Mean Square Error) and MAE (Mean Absolute Error) are used as evaluation scales for motion estimation. The accuracy of MSE is excellent, but MAE is widely used because of its high complexity.
색상신호 또는 명도신호에 대하여 신축 움직임 추정에 있어서 복잡도를 낮추기 위한 여러 연구가 이루어져왔다. 여러 신축 비율의 참조 화면을 생성하여 신축 움직임을 추정하는 방법, 블록기반의 고속 스케일링을 이용한 확대 및 축소 움직임 추정 방법, 계산 효율, 정확도 등을 고려한 반복적 최소-자승 추정에 대한 다양한 개선방법 등이 있다. 기존 색상 영상에서 신축 움직임 추정 방법 중 여러 신축 비율의 참조 화면을 생성하여 신축 움직임을 추정하는 방법은 시간상의 각각의 참조 화면들에 대해 다양한 신축 비율로 신축한 참조 화면을 생성한다. 그 후 현재 영상의 블록에 대해 참조 화면들 중 제일 유사한 블록을 선택하여 신축 추정을 하는 방법이다. 이 방법은 신축 움직임을 추정하기 위해 각 참조 화면마다 여러 신축 비율에 대한 참조 화면을 새로 생성해야 하기 때문에 메모리 소모가 크고, 신축 움직임 추정에 있어 정확도를 높이기 위해서는 많은 신축 비율에 대해서 참조 화면이 생성되고 이를 참조하는 과정이 추가되어야 하므로 계산 복잡도가 커진다는 문제점이 있다.Various studies have been made to reduce the complexity in stretching motion estimation for a color signal or brightness signal. A method of estimating stretching motion by generating reference frames of various stretching ratios, various methods of improving repetitive least-squares estimation considering calculation efficiency and accuracy, and the like, by using block-based fast scaling . A method of estimating stretching motion by generating reference frames of various stretching ratios among stretching motion estimation methods in existing color images generates a stretching reference frame with various stretching ratios for each reference frame in time. After that, the most similar block among the reference screens is selected for the block of the current image, and the new and expanded blocks are estimated. In this method, a reference screen for a plurality of expansion / contraction ratios must be newly generated for each reference screen in order to estimate the expansion / contraction motion. Therefore, in order to increase accuracy in the expansion motion estimation, a reference screen is generated for many expansion / contraction ratios There is a problem that the computational complexity becomes large because a process of referring to it must be added.
카메라의 색상 정보만을 통해 신축 비율을 추정하는 방법은 정확한 신축 비율을 추정하는데 어려움이 크고, 계산 복잡도를 개선하는데도 한계가 있다. 이러한 어려움을 극복하기 대한민국등록특허공보(10-1371826)의 신축 움직임 추정장치 및 그 추정방법은 깊이 카메라를 이용하여 객체의 신축 비율을 추정하여 움직임 추정 및 움직임 보상을 하는 방법이 제안하여 신축 움직임 추정을 위한 복잡도를 개선하면서도 움직임 추정 정확도를 높이고 있다. 다만, 선행기술은 움직임 추정 차신호 계산 시 객체가 카메라 방향으로 이동함에 따라 깊이 영상 내에서 객체의 크기의 변화의 영향을 반영하고 있으나, 깊이 값으로 이루어진 화소의 값의 변화의 영향은 제거하지 못하고, 색상 영상의 부호화에 한정해서 사용된다는 한계가 있다. The method of estimating the expansion / contraction ratio only through the color information of the camera has a great difficulty in estimating the accurate expansion ratio and has a limitation in improving the calculation complexity. To overcome this difficulty, a new motion estimation apparatus and an estimation method thereof in Korean Patent Registration No. 10-1371826 propose motion estimation and motion compensation by estimating the expansion / contraction ratio of an object using a depth camera, While improving the accuracy of motion estimation. However, although the prior art reflects the influence of the change in the size of the object in the depth image as the object moves in the direction of the camera in calculating the motion estimation difference signal, it does not remove the influence of the change in the value of the pixel having the depth value , There is a limitation that it is limited to the encoding of a color image.
본 발명의 목적은 객체가 카메라 방향으로 이동하거나 카메라 방향에서 멀어짐에 따른 깊이 영상 내의 객체의 크기 변화와 화소 값의 변화의 영향을 제거하여 움직임을 추정할 수 있는 깊이 영상에서 신축을 이용한 움직임 추정 방법 및 장치를 제공함에 있다.An object of the present invention is to provide a motion estimation method using a stretching method in a depth image capable of estimating motion by removing the influence of a change in size of an object in a depth image and a change in a pixel value as an object moves in a camera direction or in a camera direction And an apparatus.
또한, 본 발명의 목적은 참조 화면 내의 탐색 블록에 대해서만 신축 연산을 적용함으로써 연산량과 메모리 기억량을 감소시킬 수 있는 깊이 영상에서 신축을 이용한 움직임 추정 방법 및 장치를 제공함에 있다.It is another object of the present invention to provide a motion estimation method and apparatus using stretching in a depth image that can reduce a computation amount and a memory storage amount by applying a stretching operation only to a search block in a reference picture.
실시예는 현재 깊이 화면을 미리 설정된 제1 크기의 대상 블록으로 분할하는 블록 분할 단계; 상기 현재 깊이 화면의 이전 프레임 또는 다음 프레임인 참조 깊이 화면의 미리 설정된 제2 크기의 탐색 영역 내에서 탐색 블록을 선택하는 단계; 상기 대상 블록 내 화소들의 깊이 값의 제1 평균치와 상기 탐색 블록 내 화소들의 깊이 값의 제2 평균치에 기초하여 신축 비율을 계산하는 단계; 상기 신축 비율에 따라 상기 탐색 블록을 신축하는 단계; 상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 단계; 및 상기 대상 블록과 상기 탐색 영역 내의 복수의 신축된 탐색 블록 각각들 사이의 움직임 추정 차신호를 결정하는 단계;를 포함하는 깊이 영상에서 신축을 이용한 움직임 추정 방법을 제공할 수 있다.The embodiment includes a block dividing step of dividing a current depth screen into target blocks of a first size set in advance; Selecting a search block within a search area of a predetermined second size of a reference depth screen that is a previous frame or a next frame of the current depth screen; Calculating an expansion ratio based on a first average value of depth values of pixels in the object block and a second average value of depth values of pixels in the search block; Expanding and contracting the search block according to the expansion ratio; Calculating a motion estimation difference signal between the target block and the retracted search block; And a step of determining a motion estimation difference signal between the target block and each of the plurality of retracted search blocks in the search area.
다른 측면에서, 실시예는 결정된 복수의 움직임 추정 차신호에 대해 평균절대오차 또는 평균제곱오차를 계산하는 단계; 및 상기 평균절대오차 또는 평균제곱오차가 최소값을 가지는 움직임 추정 차신호에 대응하는 대상 블록과 탐색 블록의 상대적인 좌표 정보와 해당 탐색 블록의 신축 비율을 움직임 벡터로 결정하는 단계;를 더 포함하는 깊이 영상에서 신축을 이용한 움직임 추정 방법을 제공할 수도 있다.In another aspect, an embodiment includes calculating an average absolute error or a mean square error for a determined plurality of motion estimation difference signals; And determining the relative coordinate information of the target block and the search block corresponding to the motion estimation difference signal having the minimum absolute error or mean square error as a motion vector and an expansion ratio of the search block as a motion vector, It is possible to provide a motion estimation method using stretching.
또 다른 측면에서, 실시예는 상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 단계, 상기 신축된 탐색 블록을 보간하여 상기 신축된 탐색 블록의 크기를 상기 대상 블록의 제1 크기와 일치시키는 단계; 및 상기 보간된 탐색 블록과 상기 대상 블록 사이의 움직임 추정 차신호를 계산하는 단계;를 포함하는 깊이 영상에서 신축을 이용한 움직임 추정 방법을 제공할 수도 있다.In yet another aspect, an embodiment includes calculating a motion estimation difference signal between the target block and a retracted search block, interpolating the retracted search block to determine a size of the retracted search block to a first size ; And calculating a motion estimation difference signal between the interpolated search block and the target block.
또 다른 측면에서, 상기 신축 비율은 을 충족하고, X는 기 설정된 상수인 깊이 영상에서 신축을 이용한 움직임 추정 방법을 제공할 수도 있다.In another aspect, the stretch ratio is , And X may provide a motion estimation method using stretching in a depth image which is a predetermined constant.
또 다른 측면에서, 상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 단계는, 상기 대상 블록 내 화소들의 깊이 값에 상기 제1 평균치를 차 연산하여 차 연산된 대상 블록을 생성하고, 상기 신축된 탐색 블록 내 화소들의 깊이 값에 상기 제2 평균치를 차 연산하여 차 연산되고 신축된 탐색 블록을 생성하고, 상기 차 연산된 대상 블록과 상기 차 연산되고 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 깊이 영상에서 신축을 이용한 움직임 추정 방법을 제공할 수도 있다.According to another aspect of the present invention, the step of calculating a motion estimation difference signal between the target block and the retracted search block may include: calculating a difference between the depth value of the pixels in the target block and the first average value, Calculating a second difference value by subtracting the second average value from the depth value of the pixels in the new and expanded search block to generate a second difference and expanded search block, A motion estimation method using stretching can be provided in a depth image for calculating a difference signal.
또 다른 측면에서, 상기 신축 비율에 따라 상기 탐색 블록을 신축하는 단계는, 상기 탐색 블록의 가로 및 세로 각각의 크기를 상기 신축 비율로 확대 또는 축소하는 깊이 영상에서 신축을 이용한 움직임 추정 방법을 제공할 수도 있다.According to another aspect, the step of expanding and contracting the search block according to the expansion / contraction ratio provides a motion estimation method using expansion and contraction in a depth image for enlarging or reducing the size of each of the width and height of the search block at the expansion / contraction ratio It is possible.
또 다른 측면에서, 실시예는 적어도 하나의 메모리; 및 적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는 현재 깊이 화면을 미리 설정된 제1 크기의 대상 블록으로 분할하고, 상기 현재 깊이 화면의 이전 프레임 또는 다음 프레임인 참조 깊이 화면의 미리 설정된 제2 크기의 탐색 영역 내에서 탐색 블록을 선택하고, 상기 대상 블록 내 화소들의 깊이 값의 제1 평균치와 상기 탐색 블록 내 화소들의 깊이 값의 제2 평균치에 기초하여 신축 비율을 계산하고, 상기 신축 비율에 따라 상기 탐색 블록을 신축하고, 상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하고, 상기 대상 블록과 상기 탐색 영역 내의 복수의 신축된 탐색 블록 각각들 사이의 움직임 추정 차신호를 결정하도록 구성되는 깊이 영상에서 신축을 이용한 움직임 추정 장치를 제공할 수 있다.In yet another aspect, an embodiment includes at least one memory; And at least one processor, wherein the at least one processor divides the current depth screen into target blocks of a first size of a predetermined size, 2 size search area and calculates an expansion ratio based on a first average value of depth values of pixels in the object block and a second average value of depth values of pixels in the search block, The motion estimation difference signal between the target block and the retracted search block is calculated and the motion estimation difference signal between each of the plurality of retracted search blocks in the target block and the search area is calculated It is possible to provide a motion estimation apparatus using stretching in a depth image configured to be determined.
또 다른 측면에서, 상기 프로세서는, 결정된 복수의 움직임 추정 차신호에 대해 평균절대오차 또는 평균제곱오차를 계산하고, 상기 평균절대오차 또는 평균제곱오차가 최소값을 가지는 움직임 추정 차신호에 대응하는 대상 블록과 탐색 블록의 상대적인 좌표 정보와 해당 탐색 블록의 신축 비율을 움직임 벡터로 결정하도록 구성되는 깊이 영상에서 신축을 이용한 움직임 추정 장치를 제공할 수도 있다.In another aspect, the processor calculates an average absolute error or a mean square error for the determined plurality of motion estimation difference signals, and calculates a mean absolute error or a mean square error for the target block And a depth estimation unit configured to determine the relative coordinate information of the search block and the expansion ratio of the search block as a motion vector.
또 다른 측면에서, 상기 프로세서는, 상기 대상 블록 내 화소들의 깊이 값에 상기 제1 평균치를 차 연산하여 차 연산된 대상 블록을 생성하고, 상기 신축된 탐색 블록 내 화소들의 깊이 값에 상기 제2 평균치를 차 연산하여 차 연산되고 신축된 탐색 블록을 생성하고, 상기 차 연산된 대상 블록과 상기 차 연산되고 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하도록 구성되는 깊이 영상에서 신축을 이용한 움직임 추정 장치를 제공할 수도 있다.According to another aspect of the present invention, the processor may further comprise: a difference value calculation unit configured to subtract the first average value from the depth value of the pixels in the target block to generate a difference- And calculating a motion estimation difference signal between the difference-computed target block and the difference-computed and expanded search block, the motion estimation unit . ≪ / RTI >
또 다른 측면에서, 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고, 상기 동작들은, 현재 깊이 화면을 미리 설정된 제1 크기의 대상 블록으로 분할하고, 상기 현재 깊이 화면의 이전 프레임 또는 다음 프레임인 참조 깊이 화면의 미리 설정된 제2 크기의 탐색 영역 내에서 탐색 블록을 선택하고, 상기 대상 블록 내 화소들의 깊이 값의 제1 평균치와 상기 탐색 블록 내 화소들의 깊이 값의 제2 평균치에 기초하여 신축 비율을 계산하고, 상기 신축 비율에 따라 상기 탐색 블록을 신축하고, 상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하고, 상기 대상 블록과 상기 탐색 영역 내의 복수의 신축된 탐색 블록 각각들 사이의 움직임 추정 차신호를 결정하도록 구성하는 것을 포함하는 비일시적 컴퓨터 판독가능 매체를 제공할 수도 있다.In another aspect, there is provided a non-transitory computer readable medium having stored thereon instructions executable by the processor to cause at least one processor to perform operations, the operations comprising: A second block having a first size and a second block having a first depth and a second depth corresponding to a depth of the current depth screen, Calculating an expansion ratio based on a first average value and a second average value of depth values of pixels in the search block, expanding and contracting the search block according to the expansion ratio, Calculating a signal, and determining a plurality of new navigation blocks in the target block and the search area, And determining a motion estimation difference signal between each of the plurality of motion vectors.
본 발명의 실시예는 객체의 이동에 따른 크기의 영향과 깊이 값의 변동량의 영향을 제거하여 움직임 추정의 향상시킬 수 있다.The embodiment of the present invention can improve the motion estimation by removing the influence of the size and the variation of the depth value due to the movement of the object.
또한, 본 발명의 실시예는 탐색 블록에 대해서만 신축 연산을 적용함으로써 연산량과 메모리 기억량을 감소시킬 수 있다.In addition, the embodiment of the present invention can reduce the computation amount and the memory capacity by applying the expansion and contraction operation only to the search block.
또한, 탐색 영역 내의 탐색 블록과 대상 블록 사이의 움직임 추정 차신호를 계산하므로 움직임 추정의 복잡도를 낮추고 연산량을 감소시킬 수 있다.Also, since the motion estimation difference signal between the search block and the target block in the search area is calculated, the complexity of motion estimation can be reduced and the amount of calculation can be reduced.
도 1은 본 발명의 실시예에 따른 깊이 영상에서 신축을 이용하여 움직임을 추정할 수 있도록 한 움직임 추정 장치를 도시하는 블록도이다.
도 2는 본 발명의 실시예에 따른 움직임 추정 방법에 대한 예시적은 다이어그램이다.
도 3은 대상 블록이 표시된 현재 깊이 화면과 탐색 블록과 신축이 적용된 탐색 블록이 표시된 참조 깊이 화면에 대한 예시도이다.
도 4는 현재 및 참조 깊이 화면의 예시도이다.
도 5는 종래의 움직임 추정 방법에 따라 구해진 움직임 벡터와 본 발명의 실시예에 따라 구해진 움직임 벡터를 나타낸 것이다.1 is a block diagram illustrating a motion estimation apparatus for estimating motion using stretching in a depth image according to an embodiment of the present invention.
2 is an exemplary diagram of a motion estimation method in accordance with an embodiment of the present invention.
FIG. 3 is an exemplary view illustrating a current depth screen in which a target block is displayed, a reference depth screen in which a search block and a new and expanded search block are displayed.
4 is an exemplary view of the current and reference depth screens.
FIG. 5 illustrates a motion vector obtained according to a conventional motion estimation method and a motion vector obtained according to an embodiment of the present invention.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods of achieving them will be apparent with reference to the embodiments described in detail below with reference to the drawings. However, the present invention is not limited to the embodiments described below, but may be implemented in various forms. In the following embodiments, the terms first, second, and the like are used for the purpose of distinguishing one element from another element, not the limitative meaning. Also, the singular expressions include plural expressions unless the context clearly dictates otherwise. Also, the terms include, including, etc. mean that there is a feature, or element, recited in the specification and does not preclude the possibility that one or more other features or components may be added. Also, in the drawings, for convenience of explanation, the components may be exaggerated or reduced in size. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of explanation, and thus the present invention is not necessarily limited to those shown in the drawings.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or corresponding components throughout the drawings, and a duplicate description thereof will be omitted .
도 1은 본 발명의 실시예에 따른 깊이 영상에서 신축을 이용하여 움직임을 추정할 수 있도록 한 움직임 추정 장치를 도시하는 블록도이다.1 is a block diagram illustrating a motion estimation apparatus for estimating motion using stretching in a depth image according to an embodiment of the present invention.
움직임 추정 장치(100)는 영상 데이터를 데이터수신장치(200)로 제공할 수 있다.The
움직임 추정 장치(100)와 데이터수신장치(200)는 데스크톱 컴퓨터들, 노트북 (즉, 랩톱) 컴퓨터들, 태블릿 컴퓨터들, 셋톱 박스들, 이른바 "스마트" 폰들과 같은 전화기 핸드셋들, 이른바 "스마트" 패드들, 텔레비전들, 카메라들, 디스플레이 디바이스들, 디지털 미디어 플레이어들, 비디오 게이밍 콘솔들, 비디오 스트리밍 디바이스 등을 포함한 매우 다양한 디바이스들 중 임의의 것을 포함할 수도 있다.The
일부 구현예에서는, 움직임 추정 장치(100)와 데이터수신장치(200)는 무선 통신을 위한 구성(10)이 갖추어질 수 있다.In some implementations, the
또한, 데이터수신장치(200)는 영상 처리된 영상 데이터를 컴퓨터 판독 가능 매체를 통해 수신할 수도 있다.Also, the
컴퓨터 판독 가능 매체는 움직임 추정 장치(100)로부터 영상처리된 영상 데이터를 데이터수신장치(200)로 이동시킬 수 있는 임의 유형의 매체 또는 디바이스를 포함할 수 있다. 일 예로, 컴퓨터 판독 가능 매체는 움직임 추정 장치(100)가 영상 데이터를 데이터수신장치(200)로 직접 실시간으로 송신하는 것을 가능하게 하는 통신 매체, 이를테면 송신 채널을 포함할 수 있다.The computer-readable medium may include any type of media or device capable of moving video data imaged from the
영상 처리된 영상 데이터는 통신 표준, 이를테면 무선 통신 프로토콜에 따라 변조되고 데이터수신장치(200)로 송신될 수도 있다. 통신 매체는 임의의 무선 또는 유선 통신 매체, 이를테면 라디오 주파수 스펙트럼 또는 하나 이상의 물리적 송신 라인들을 포함할 수도 있다. 통신 매체는 패킷 기반 네트워크, 이를테면 로컬 영역 네트워크, 광역 네트워크, 또는 인터넷과 같은 글로벌 네트워크의 부분을 형성할 수도 있다. 통신 매체는 라우터들, 스위치들, 기지국들, 또는 움직임 추정 장치(100)로부터 데이터수신장치(200)로의 통신을 용이하게 하는데 유용할 수도 있는 임의의 다른 장비를 포함할 수도 있다. 몇몇 예들에서 영상 처리된 영상 데이터가 출력 인터페이스(130)로부터 컴퓨터 판독 가능 저장 매체, 이를 테면 비일시적(non-transitory) 컴퓨터 판독가능 저장 매체, 즉, 데이터 저장 디바이스로 출력될 수도 있다. 마찬가지로 영상 데이터는 데이터수신장치(200)의 입력 인터페이스(230)에 의해 저장 디바이스로부터 엑세스될 수도 있다. 저장 디바이스는 하드 드라이브, 블루-레이 디스크들, DVD들, CD-ROM들, 플래시 메모리, 휘발성 또는 비휘발성 메모리, 또는 영상 데이터를 저장하기 위한 임의의 다른 적합한 디지털 저장 매체들과 같은 다양한 분산형 또는 국부적으로 액세스되는 비일시적 데이터 저장 매체들 중 임의의 것을 포함할 수도 있다. 추가의 예에서, 저장 디바이스는 움직임 추정 장치(100)에 의해 생성된 영상 데이터를 저장할 수도 있는 파일 서버 또는 다른 중간 저장 디바이스에 해당할 수도 있다.The processed image data may be modulated according to a communication standard, such as a wireless communication protocol, and transmitted to the
데이터수신장치(200)는 저장 디바이스로부터의 저장된 영상 데이터에 스트리밍 또는 다운로드를 통해 액세스할 수도 있다.The
도 1의 예에서 움직임 추정 장치(100)는 영상 소스(110) 및 영상처리부(120)를 포함할 수 있다. 또한, 움직임 추정 장치(100)는 출력 인터페이스(130)를 더 포함할 수 있다. In the example of FIG. 1, the
데이터수신장치(200)는 입력 인터페이스(230) 및 데이터처리부(220)를 포함할 수 있다. 또한, 데이터수신장치(200)는 디스플레이 디바이스(210)를 더 포함할 수 있다.The
다른 예에서 움직임 추정 장치(100)와 데이터처리부(220)는 다른 컴포넌트들을 포함할 수 있다.In another example, the
예를 들어 움직임 추정 장치(100)는 외부 비디오 소스, 이를테면 외부 카메라로부터 영상을 수신할 수 있고, 외부 카메라는 깊이 영상(depth image)을 생성하는 깊이 영상 촬영 디바이스가 될 수 있다. 마찬가지로, 데이터수신장치(200)는 통합형 디스플레이 디바이스(210)를 구비하기 보다는 외부 디스플레이 디바이스(210)와 인터페이싱 할 수도 있다.For example, the
움직임 추정 장치(100)의 영상 소스(110)는 깊이 영상 촬영 디바이스, 이를테면 카메라, 이전에 촬영된 깊이 영상을 포함하는 아카이브 (archive), 및/또는 깊이 영상 콘텐츠 제공자로부터의 깊이 영상을 수신하는 인터페이스를 포함할 수도 있다.The
일부 구현예에서 깊이 영상 촬영 디바이스는 장면의 깊이 정보를 256 단계의 8비트 영상 등으로 표현한 깊이 영상을 제공할 수 있다. 깊이 영상의 한 픽셀을 표현하기 위한 비트수는 8비트가 아니라 변경될 수 있다. 깊이 영상 촬영 디바이스는 적외선 등을 이용하여 깊이 영상 촬영 디바이스로부터 객체 및 배경까지의 거리를 측정하여 거리에 비례 또는 반비례하는 값을 갖는 깊이 영상을 제공할 수 있다.In some embodiments, the depth imaging device may provide a depth image that represents scene depth information in 256-level 8-bit images or the like. The number of bits for representing one pixel of the depth image can be changed instead of 8 bits. The depth image capturing device can measure the distance from the depth image capturing device to the object and the background by using infrared rays or the like to provide a depth image having a value proportional or inversely proportional to the distance.
깊이 영상의 화소 값은 예를 들어, RGB의 색상 정보가 아닌 일 예로 mm 단위(이에 한정하는 것은 아님)의 정수로 된 깊이 정보가 될 수 있다.The pixel value of the depth image may be, for example, depth information in the form of integers in mm, but not limited to, RGB color information, for example.
움직임 추정 장치(100)와 데이터수신장치(200) 각각은 하나 이상의 메모리와 하나 이상의 마이크로프로세서들, 디지털 신호 프로세서들 (DSP들), 주문형 집적회로들 (ASIC들), 필드 프로그램가능 게이트 어레이들 (FPGA들), 개별 로직 회로, 소프트웨어, 하드웨어, 펌웨어 또는 그것들의 임의의 조합과 같은 다양한 형태로 구성될 수 있다.Each of
메모리는 컴퓨터 판독가능 명령들 또는 프로세서 판독가능 명령들과 같은 명령들(예를 들어, 실행가능 명령들)을 포함한다. 명령들은 하나 이상의 프로세서들 각각에 의해서와 같이 컴퓨터에 의해 실행가능한 하나 이상의 명령어들을 포함할 수도 있다.The memory includes instructions (e.g., executable instructions) such as computer readable instructions or processor readable instructions. The instructions may include one or more instructions executable by the computer, such as by each of the one or more processors.
예를 들어 하나 이상의 명령들은 하나 이상의 프로세서들로 하여금 깊이 영상의 움직임 벡터를 결정하고 깊이 영상을 부호화하기 위해 깊이 영상을 프로세싱하는 것을 포함하는 동작들을 수행하기 위해 하나 이상의 프로세서들에 의해 실행가능 할 수도 있다.For example, the one or more instructions may be executable by one or more processors to perform operations including determining a motion vector of the depth image and processing the depth image to encode the depth image have.
상세하게는, 영상처리부(120)는 명령어들을 저장하는 하나 이상의 메모리(121)와 상기 명령어들을 실행하는 적어도 하나의 프로세서(122)를 포함할 수 있다.In particular, the
영상처리부(120)의 프로세서(122)는 깊이 영상의 움직임 벡터를 결정하기 위한 기법들이 적용되도록 구성될 수 있다.The
일부 구현예에서는, 영상처리부(120)의 프로세서(122)는 깊이 영상을 부호화하기 위한 기법들이 적용되도록 구성될 수 있다. In some implementations, the
다른 구현예에서는 영상처리부(120)의 프로세서(122)는 깊이 영상을 부호화 및 복호화하는 기법이 적용되도록 구성될 수도 있다.In another embodiment, the
데이터처리부(220)는 영상처리부(120)로부터의 영상 데이터를 외부 장치로 전송, 디스플레이, 분석 등을 수행할 수 있도록 구성될 수 있다.The
일부 구현예에서는, 데이터처리부(220)는 영상처리부(120)로부터의 부호화된 영상 데이터를 복호화할 수 있도록 구성될 수도 있다.In some implementations, the
도 1에 도시되지 않았지만, 몇몇 실시예에서, 움직임 추정 장치(100)와 데이터처리장치는 통합된 장치가 될 수 있다. 이를테면 움직임 추정 장치(100)는 깊이 영상을 부호화하고, 부호화된 영상 데이터를 복호화할 수 있도록 구성될 수도 있다.Although not shown in FIG. 1, in some embodiments, the
도 2는 본 발명의 실시예에 따른 움직임 추정 방법에 대한 예시적은 다이어그램이다. 그리고 도 3은 대상 블록이 표시된 현재 깊이 화면과 탐색 블록과 신축이 적용된 탐색 블록이 표시된 참조 깊이 화면에 대한 예시도이고, 도 4는 현재 및 참조 깊이 화면의 예시도이며, 도 5는 종래의 움직임 추정 방법에 따라 구해진 움직임 벡터와 본 발명의 실시예에 따라 구해진 움직임 벡터를 나타낸 것이다.2 is an exemplary diagram of a motion estimation method in accordance with an embodiment of the present invention. 3 is an exemplary view of a current depth screen in which a target block is displayed, a reference depth screen in which a search block and a search block to which a new axis is applied are displayed, FIG. 4 is an exemplary view of a current depth and a reference depth screen, The motion vector obtained according to the estimation method and the motion vector obtained according to the embodiment of the present invention.
도 2 내지 도 4를 참조하면, 본 발명의 실시예에 따른 움직임 추정 방법은, 현재 깊이 화면을 미리 설정된 크기로 분할하는 현재 깊이 화면의 블록 분할 단계(S100), 참조 깊이 화면의 탐색 영역 내에서 미리 설정된 크기의 탐색 블록을 선택하는 탐색 블록 선택 단계(S200), 현재 깊이 화면의 대상 블록과 탐색 블록 각각의 깊이 값의 평균치를 계산하는 블록 내 화소들의 깊이 값의 평균치 계산 단계(S300), 대상 블록의 평균치와 탐색 블록의 평균치를 이용하여 신축 비율을 계산하는 신축 비율 계산 단계(S400), 계산된 신축 비율을 이용하여 탐색 블록의 크기를 신축하는 탐색 블록 신축 단계(S500), 대상 블록의 깊이 값과 평균치 그리고 탐색 블록의 깊이 값과 평균치를 이용하여 객체의 이동에 따른 깊이 값의 변화의 영향을 제거하는 깊이 값 변동량 제거 단계(S600), 대상 블록과 탐색 블록의 차신호를 계산하여 움직임 추정 차신호를 결정하는 단계(S700) 및 대상 블록에 대한 움직임 추정 차신호의 최소값을 고려하여 탐색 블록의 좌표와 신축 비율을 대상 블록의 움직임 벡터로 결정하는 대상 블록 움직임 벡터 결정 단계(S800)를 포함할 수 있다.Referring to FIGS. 2 to 4, a motion estimation method according to an embodiment of the present invention includes a block division step (S100) of a current depth screen for dividing a current depth screen into a preset size, A step S300 of calculating an average value of depth values of pixels in a block for calculating average values of depth values of a current block and a current block of a current depth screen, (S500) for expanding and contracting the size of the search block using the calculated expansion ratio, a depth of the target block (S500) for expanding and contracting the size of the search block using the calculated expansion ratio, A step S6 (step S6) of removing the influence of a change in the depth value due to the movement of the object by using the depth value and the average value of the search block, 00), calculating a difference signal between the target block and the search block to determine a motion estimation difference signal (S700), and calculating the coordinates of the search block and the expansion ratio based on the minimum value of the motion estimation difference signal for the target block, And a target block motion vector determination step (S800) for determining the target block motion vector as a motion vector.
본 발명의 실시예에 따른 움직임 추정 방법의 각 단계를 보다 상세하게 설명한다.Each step of the motion estimation method according to the embodiment of the present invention will be described in more detail.
현재 깊이 화면을 미리 설정된 크기로 분할하는 현재 깊이 화면의 블록 분할 단계(S100).A block division step (S100) of a current depth screen for dividing a current depth screen into preset sizes.
움직임 추정 장치(100)의 프로세서(122)는 현재의 깊이 영상을 미리 설정된 제1 크기의 블록으로 분할할 수 있다.The
예를 들어 깊이 영상은 m*n의 블록 단위로 분할될 수 있다. 복수의 블록 각각은 m*n(m, n은 자연수) 화소로 이루어진 영역으로 정의할 수 있다.For example, the depth image can be divided into blocks of m * n. Each of the plurality of blocks can be defined as an area made up of m * n (m, n is a natural number) pixels.
이를테면 m*n의 블록은 8*8화소나 16*16화소로 이루어진 영역으로 정의할 수 있고 해상도가 증가하면 기본 단위는 32*32나 64*64 화소로 이루어진 영역으로 정의할 수도 있다. 다만 이에 한정하는 것은 아니고, 프로세서(122)는 깊이 영상을 분할하지 않고, 깊이 영상의 움직임 추정 차신호를 계산할 수도 있다.For example, a block of m * n can be defined as an area consisting of 8 * 8 pixels or 16 * 16 pixels. When the resolution is increased, the basic unit can be defined as an area consisting of 32 * 32 or 64 * 64 pixels. However, the present invention is not limited thereto, and the
또한, 여기서의 미리 설정된 제1 크기는 서로 반비례하는 정확도와 복잡도를 고려하여 미리 결정될 수 있다. In addition, the predetermined first size may be predetermined in consideration of the accuracy and complexity inversely proportional to each other.
예를 들어 블록의 크기가 작을수록 움직임 추정의 정확도가 증가하지만 블록의 수가 많아져 추정에 요구되는 연산의 복잡도가 증가하고 움직임 벡터의 정보가 증가한다. 따라서 정확도와 복잡도를 고려하여 블록의 제1 크기를 설정할 수 있다.For example, as the size of a block decreases, the accuracy of motion estimation increases. However, since the number of blocks increases, the complexity of an operation required for estimation increases and information of a motion vector increases. Therefore, the first size of the block can be set in consideration of the accuracy and the complexity.
또한, 프로세서(122)는 현재 깊이 화면을 복수의 블록으로 분할하고 분할된 각 블록의 위치 및 화소 내의 깊이 값의 정보를 메모리(121)에 저장할 수 있다.In addition, the
참조 깊이 화면의 탐색 영역 내에서 미리 설정된 크기의 탐색 블록을 선택하는 탐색 블록 선택 단계(S200). A search block selection step (S200) of selecting a search block having a preset size in a search area of a reference depth screen .
움직임 추정 장치(100)의 프로세서(122)는 현재 깊이 화면의 이전 프레임의 깊이 영상 또는 현재 깊이 화면의 다음 프레임의 깊이 영상인 참조 깊이 화면의 미리 설정된 제2 크기의 탐색 영역 내에서 전술한 미리 설정된 제1 크기의 탐색 블록을 선택할 수 있다. 여기서의 제2 크기의 탐색 영역은 K*L(K>M, L>N, K 및 L은 자연수)의 크기가 될 수 있다.The
또한, 탐색 영역의 기준 점은 현재 깊이 화면의 복수의 블록 중에서 움직임 추정 대상인 대상 블록의 위치와 공간상으로 동일한 위치가 될 수 있다. 즉, 참조 깊이 화면 내에서 대상 블록의 위치와 동일한 위치가 될 수 있다.In addition, the reference point of the search area may be located at the same spatial position with respect to the position of the target block as a motion estimation target among a plurality of blocks of the current depth screen. That is, it can be the same position as the position of the target block in the reference depth screen.
또한, 프로세서(122)는 기준 점을 중심으로 제2 크기의 탐색 영역에 있는 제1 크기의 탐색 블록을 선택할 수 있다.In addition, the
또한, 탐색 영역 내의 모든 블록들 각각을 탐색 블록으로 하여 각 탐색 블록에 대해 이하의 동작이 수행될 수 있다.In addition, the following operations may be performed for each search block, with each of all the blocks in the search area being a search block.
또한, 프로세서(122)는 탐색 블록의 위치 및 화소 내의 깊이 값의 정보를 메모리(121)에 저장할 수 있다.In addition, the
현재 깊이 화면의 대상 블록과 탐색 블록 각각의 깊이 값의 평균치를 계산하는 블록 내 화소들의 깊이 값의 평균치 계산 단계(S300).A step (S300) of calculating an average value of depth values of pixels in a block for calculating an average value of depth values of a current block and a search block of a current depth screen.
프로세서(122)는 대상 블록 내의 화소들의 깊이 값들의 제1 평균치(Rc)와 탐색 블록 내의 화소들의 깊이 값들의 제2 평균치(Rr)를 연산할 수 있다. The
일 예로, 객체가 깊이 영상 촬영 디바이스와 가까워지는 경우 참조 깊이 화면 내의 객체의 크기는 현재 깊이 화면의 객체의 크기보다 크게 나타나고, 해당 객체에 대응하는 화소들의 깊이 값은 더 작은 값을 가지게 된다. 따라서 제1 평균치(Rc)는 제2 평균치(Rr)보다 큰 값이 될 수 있다.For example, when an object approaches the depth imaging device, the size of the object in the reference depth screen is larger than the size of the object in the current depth screen, and the depth value of the pixels corresponding to the object has a smaller value. Therefore, the first average value Rc may be larger than the second average value Rr.
이와 달리, 객체가 깊이 영상 촬영 디바이스로부터 멀어지는 경우 참조 깊이 화면 내의 객체의 크기는 현재 깊이 화면의 객체의 크기보다 작게 나타나고, 해당 객체에 대응하는 화소들의 깊이 값은 더 큰 값을 가지게 된다. 따라서 제1 평균치(Rc)는 제2 평균치(Rr)보다 작은 값이 될 수 있다.On the other hand, when the object moves away from the depth imaging device, the size of the object in the reference depth screen is smaller than the size of the object in the current depth screen, and the depth value of the pixels corresponding to the object has a larger value. Therefore, the first average value Rc may be smaller than the second average value Rr.
또한, 프로세서(122)는 계산된 제1 및 제2 평균치(Rc, Rr)를 메모리(121)에 저장할 수 있다.In addition, the
대상 블록의 평균치와 탐색 블록의 평균치를 이용하여 신축 비율을 계산하는 신축 비율 계산 단계(S400).A stretching ratio calculation step (S400) of calculating an expansion ratio using an average value of the target block and an average value of the search block.
프로세서(122)는 제1 및 제2 평균치(Rc, Rr)를 이용하여 수학식 1을 충족하는 신축 비율(S)을 연산할 수 있다.The
[수학식 1][Equation 1]
수학식 1에서 x는 깊이 영상 촬영 디바이스의 초점에 따라서 미리 결정되는 상수 값이다.In Equation (1), x is a predetermined constant value according to the focus of the depth imaging device.
또한, 프로세서(122)는 계산된 신축 비율(S)을 메모리(121)에 저장할 수 있다.In addition, the
계산된 신축 비율을 이용하여 탐색 블록의 크기를 신축하는 탐색 블록 신축 단계(S500). And expanding and contracting the size of the search block using the calculated expansion / contraction ratio (S500) .
프로세서(122)는 계산된 신축 비율(S)을 이용하여 탐색 블록의 크기를 신축할 수 있다. 즉, 프로세서(122)는 신축 비율(S)을 이용하여 참조 깊이 화면의 크기를 신축하는 것이 아닌 탐색 블록을 신축함으로써 상대적으로 연산량과 메모리 기억량을 감소시킬 수 있다.The
프로세서(122)는 탐색 블록 제1 크기의 가로와 세로 모두 신축 비율(S)로 신축함으로써 (S*m)*(S*n) 크기로 탐색 블록으로 확대할 수 있다. The
예를 들어, 참조 깊이 화면에서의 객체가 현재 깊이 화면에서의 객체보다 깊이 영상 촬영 디바이스에 더 가까운 경우 탐색 블록 내의 화소들의 깊이 값의 평균이 대상 블록 내의 깊이 값의 평균보다 작으므로 Rc>Rr 관계가 되어 신축 비율(S)은 1보다 커지게 된다. 따라서 탐색 블록의 크기는 확대된다.For example, if the object in the reference depth screen is closer to the depth imaging device than the object in the current depth screen, the average of the depth values of the pixels in the search block is smaller than the average depth value in the target block. The expansion / contraction ratio S becomes larger than 1. Therefore, the size of the search block is enlarged.
또한, 프로세서(122)는 확대된 탐색 블록에 속하는 화소들의 위치 정보와 깊이 값의 정보를 메모리(121)에 저장할 수 있다.In addition, the
대상 블록의 깊이 값과 평균치 그리고 탐색 블록의 깊이 값과 평균치를 이용하여 객체의 이동에 따른 깊이 값의 변화의 영향을 제거하는 깊이 값 변동량 제거 단계(S600).(S600) for removing the influence of the depth value change due to the movement of the object using the depth value and the average value of the object block and the depth value and the average value of the search block.
예를 들어 깊이 영상에서는 객체가 깊이 영상 촬영 디바이스 방향으로 이동함에 따라 깊이 영상 내에서 객체의 크기가 변할 뿐만 아니라 깊이 값으로 이루어진 화소의 값도 변하게 된다. 그리고 같은 객체가 신축이 일어났을 때는 객체의 신축에 따라 깊이 값이 변경되더라도 같은 객체를 구성하고 있는 화소에 대해서는 상대적인 깊이 값의 분포가 유사하게 된다. 따라서 신축 움직임 추정을 함에 있어서 객체와 깊이 영상 촬영 디바이스간의 거리의 영향을 제거하여야 올바른 차신호를 구할 수 있다.For example, in a depth image, as an object moves toward a depth image pickup device, not only the size of the object changes in the depth image but also the value of the pixel made of the depth value changes. When the same object is stretched, the relative depth value distribution is similar for the pixels constituting the same object even if the depth value changes according to the expansion and contraction of the object. Therefore, the correct difference signal can be obtained by removing the influence of the distance between the object and the depth imaging device in the stretching motion estimation.
이를 위해 프로세서(122)는 움직임 추정 차신호를 계산하기 전에 현재 깊이 화면의 대상 블록의 전체 화소들의 깊이 값에 제1 평균치(Rc)를 빼는 차 연산을 하여 차 연산된 대상 블록을 생성하고, 신축된 탐색 블록의 화소들의 깊이 값에 제2 평균치(Rr)를 빼는 차 연산을 수행하여 차 연산되고 신축된 탐색 블록을 생성한다. 따라서 차 연산이 적용된 대상 블록과 차 연산이 적용되고 신축된 탐색 블록의 화소 값의 평균을 0으로 일치시켜 깊이 영상 촬영 디바이스 방향으로(또는 이로부터 멀어지며) 이동하는 객체의 깊이 값의 변화의 영향을 제거한다.For this, the
대상 블록과 탐색 블록의 The target block and the search block 차신호를Car signal 계산하여 움직임 추정 Calculate motion estimation 차신호를Car signal 결정하는 단계(S700). (S700).
프로세서(122)는 신축된 탐색 블록에 대해 선형 보간, 삼차 보간 등의 보간법을 이용하여 신축된 탐색 블록의 크기를 대상 블록의 크기와 일치되도록 한다. The
보간법은 블록의 크기를 조절할 수 있는 보간(interpolation)이라면 어떠한 보간법이라도 적용될 수 있고, 특정 보간법에 한정하는 것은 아니다.The interpolation method can be applied to any interpolation method that can adjust the size of the block, and is not limited to the specific interpolation method.
또한, 프로세서(122)는 크기가 서로 일치하는 탐색 블록과 대상 블록의 차 신호를 계산하여 움직임 추정 차신호를 결정하고, 계산된 차 신호에 대해 MAE(평균절대오차: Mean Absolute Error) 또는 MSE(평균제곱오차: Mean Square Error) 중 어느 하나를 계산한다.In addition, the
또한, 프로세서(122)는 탐색 영역 내의 모든 블록들 각각에 대해 전술한 과정에 따라 탐색 블록과 대상 블록의 차 신호를 계산하고, 계산된 차 신호에 대해 MAE 또는 MSE 중 어느 하나를 계산한다.In addition, the
대상 블록에 대한 움직임 추정 Motion estimation for target block 차신호의Of the difference signal 최소값을The minimum value 고려하여 탐색 블록의 좌표와 신축 비율을 대상 블록의 움직임 벡터로 결정하는 대상 블록 움직임 벡터 결정 단계(S800). A target block motion vector determination step (S800) for determining the coordinates of the search block and the expansion ratio as a motion vector of the target block.
프로세서(122)는 계산된 MAE(또는 MSE)가 최소값을 가지는 탐색 블록을 선택하고, 대상 블록과 탐색 블록의 상대적인 좌표 정보와 해당 탐색 블록의 신축 비율(S)을 움직임 벡터로 결정할 수 있다.The
도 5를 참조하면, 도 4의 깊이 영상에 대한 종래의 움직임 추정 방법에 따른 움직임 벡터 대비(비교예) 본 발명의 실시예에 따른 움직임 추정 방법에 따른 움직임 벡터가 더욱 정확하게 나타남을 알 수 있다.Referring to FIG. 5, it can be seen that the motion vector according to the motion estimation method according to the embodiment of the present invention appears more accurately compared with the motion vector according to the conventional motion estimation method for the depth image of FIG. 4 (comparative example).
또한, 수학식 2에 따라 신축이 적용되지 않은 움직임 추정 성능(비교예 1)과 객체의 깊이 값의 변화의 영향을 제거하지 않은 상태의 움직임 추정 성능(비교예 2) 그리고 본 발명의 실시예에 따른 움직임 추정 성능을 평가하면, 표 1과 같이 신축이 적용되지 않은 경우나 객체의 깊이 값의 변화의 영향을 제거하지 않은 상태에서의 MES는 본 발명의 실시예에 따른 움직임 추정의 MSE보다 낮은 값을 가지므로, 본 발명의 실시예에 따른 움직임 추정이 더욱 정확함을 알 수 있다.In addition, the motion estimation performance (Comparative Example 1) in which the expansion and contraction is not applied (Equation 2) and the motion estimation performance in the state in which the influence of the change in the depth value of the object is not removed (Comparative Example 2) The MES in a state in which the expansion or contraction is not applied or the influence of the change of the depth value of the object is not removed is smaller than the MSE of the motion estimation according to the embodiment of the present invention It can be seen that the motion estimation according to the embodiment of the present invention is more accurate.
[수학식 2]&Quot; (2) "
수학식 2는 대상 블록 I와 참조 화면 내 움직임 추정이 예측된 블록 K의 차이의 제곱의 합을 의미한다.Equation (2) represents the sum of the squares of the difference between the target block I and the block K in which the intra-picture motion estimation is predicted.
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specifically designed and configured for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, medium, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be modified into one or more software modules for performing the processing according to the present invention, and vice versa.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.
또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be defined by the claims.
100: 움직임 추정 장치
110: 영상 소스
120: 영상처리부
121: 메모리
122: 프로세서
130: 출력인터페이스
200: 데이터수신장치
210: 디스플레이 디바이스
220: 데이터 처리부
230: 입력 인터페이스100: motion estimation device
110: image source
120:
121: Memory
122: Processor
130: Output interface
200: Data receiving device
210: Display device
220:
230: Input Interface
Claims (10)
상기 현재 깊이 화면의 이전 프레임 또는 다음 프레임인 참조 깊이 화면의 미리 설정된 제2 크기의 탐색 영역 내에서 탐색 블록을 선택하는 단계;
상기 대상 블록 내 화소들의 깊이 값의 제1 평균치와 상기 탐색 블록 내 화소들의 깊이 값의 제2 평균치에 기초하여 신축 비율을 계산하는 단계;
상기 신축 비율에 따라 상기 탐색 블록을 신축하는 단계;
상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 단계; 및
상기 대상 블록과 상기 탐색 영역 내의 복수의 신축된 탐색 블록 각각들 사이의 움직임 추정 차신호를 결정하는 단계;를 포함하고,
상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 단계는, 깊이 값 변동량 제거 단계를 포함하고,
상기 깊이 값 변동량 제거에서,
상기 대상 블록 내 화소들의 깊이 값에 상기 제1 평균치를 차 연산하여 차 연산된 대상 블록을 생성하고,
상기 신축된 탐색 블록 내 화소들의 깊이 값에 상기 제2 평균치를 차 연산하여 차 연산되고 신축된 탐색 블록을 생성하고,
상기 차 연산된 대상 블록과 상기 차 연산되고 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는
깊이 영상에서 신축을 이용한 움직임 추정 방법.A block dividing step of dividing a current depth screen into target blocks of a first size set in advance;
Selecting a search block within a search area of a predetermined second size of a reference depth screen that is a previous frame or a next frame of the current depth screen;
Calculating an expansion ratio based on a first average value of depth values of pixels in the object block and a second average value of depth values of pixels in the search block;
Expanding and contracting the search block according to the expansion ratio;
Calculating a motion estimation difference signal between the target block and the retracted search block; And
Determining a motion estimation difference signal between the target block and each of the plurality of stretched search blocks in the search area,
Wherein the step of calculating a motion estimation difference signal between the target block and the retracted search block includes a step of removing a depth value variation amount,
In the removal of the depth value variation amount,
Calculating a difference value between the depth values of the pixels in the target block and the first average value to generate a difference-
A second average value is calculated by subtracting the second average value from the depth value of the pixels in the new and expanded search block,
Calculating a motion estimation difference signal between the difference-computed target block and the difference computed and stretched search block
Motion Estimation Method Using Extension in Depth Image.
결정된 복수의 움직임 추정 차신호에 대해 평균절대오차 또는 평균제곱오차를 계산하는 단계; 및
상기 평균절대오차 또는 평균제곱오차가 최소값을 가지는 움직임 추정 차신호에 대응하는 대상 블록과 탐색 블록의 상대적인 좌표 정보와 해당 탐색 블록의 신축 비율을 움직임 벡터로 결정하는 단계;를 더 포함하는
깊이 영상에서 신축을 이용한 움직임 추정 방법.The method according to claim 1,
Calculating an average absolute error or a mean square error for the determined plurality of motion estimation difference signals; And
And determining the relative coordinate information of the target block and the search block corresponding to the motion estimation difference signal having the minimum absolute error or mean square error as a motion vector and the expansion ratio of the search block as a motion vector
Motion Estimation Method Using Extension in Depth Image.
상기 신축 비율은 을 충족하고, X는 기 설정된 상수인
깊이 영상에서 신축을 이용한 움직임 추정 방법.The method according to claim 1,
The stretch ratio , And X is a predetermined constant
Motion Estimation Method Using Extension in Depth Image.
상기 신축 비율에 따라 상기 탐색 블록을 신축하는 단계는,
상기 탐색 블록의 가로 및 세로 각각의 크기를 상기 신축 비율로 확대 또는 축소하는
깊이 영상에서 신축을 이용한 움직임 추정 방법.The method according to claim 1,
Wherein the step of expanding and contracting the search block according to the expansion /
And enlarging or reducing the size of each of the width and height of the search block by the expansion ratio
Motion Estimation Method Using Extension in Depth Image.
적어도 하나의 프로세서;를 포함하고,
상기 적어도 하나의 프로세서는
현재 깊이 화면을 미리 설정된 제1 크기의 대상 블록으로 분할하고,
상기 현재 깊이 화면의 이전 프레임 또는 다음 프레임인 참조 깊이 화면의 미리 설정된 제2 크기의 탐색 영역 내에서 탐색 블록을 선택하고,
상기 대상 블록 내 화소들의 깊이 값의 제1 평균치와 상기 탐색 블록 내 화소들의 깊이 값의 제2 평균치에 기초하여 신축 비율을 계산하고,
상기 신축 비율에 따라 상기 탐색 블록을 신축하고,
상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하고,
상기 대상 블록과 상기 탐색 영역 내의 복수의 신축된 탐색 블록 각각들 사이의 움직임 추정 차신호를 결정하도록 구성되고,
상기 프로세서는,
결정된 복수의 움직임 추정 차신호에 대해 평균절대오차 또는 평균제곱오차를 계산하고,
상기 평균절대오차 또는 평균제곱오차가 최소값을 가지는 움직임 추정 차신호에 대응하는 대상 블록과 탐색 블록의 상대적인 좌표 정보와 해당 탐색 블록의 신축 비율을 움직임 벡터로 결정하도록 구성되고,
상기 프로세서는, 깊이 값 변동량을 제거하도록 구성되고,
상기 깊이 값 변동량 제거는,
상기 대상 블록 내 전체 화소들의 깊이 값에 상기 제1 평균치를 차 연산하여 차 연산된 대상 블록을 생성하고,
상기 신축된 탐색 블록 내 화소들의 깊이 값에 상기 제2 평균치를 차 연산하여 차 연산되고 신축된 탐색 블록을 생성하며,
상기 차 연산된 대상 블록과 상기 차 연산되고 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 것인
깊이 영상에서 신축을 이용한 움직임 추정 장치.At least one memory; And
At least one processor,
The at least one processor
The current depth screen is divided into target blocks of a first size set in advance,
Selecting a search block in a search area of a second predetermined size of a reference depth screen, which is a previous frame or a next frame of the current depth screen,
Calculating an expansion ratio based on a first average value of depth values of pixels in the object block and a second average value of depth values of pixels in the search block,
Expanding and contracting the search block according to the expansion ratio,
Calculating a motion estimation difference signal between the target block and the retracted search block,
And to determine a motion estimation difference signal between the target block and each of the plurality of stretched search blocks in the search area,
The processor comprising:
Calculates an average absolute error or a mean square error for the determined plurality of motion estimation difference signals,
And determine the relative coordinate information of the target block and the search block corresponding to the motion estimation difference signal having the minimum absolute error or mean square error as a motion vector and an expansion ratio of the search block,
Wherein the processor is configured to remove a depth value variation amount,
The depth value variation amount removal may include:
Calculating a difference between the depth value of all pixels in the target block and the first average value to generate a difference-
A second average value is calculated by subtracting the depth value of the pixels within the expanded and expanded search block from the second average value,
And calculating a motion estimation difference signal between the difference-computed target block and the difference computed and expanded search block
A motion estimation apparatus using stretching in a depth image.
상기 명령어들은 적어도 하나의 프로세서로 하여금 동작들을 수행하게 하기 위해 상기 프로세서에 의해 실행가능하고,
상기 동작들은,
현재 깊이 화면을 미리 설정된 제1 크기의 대상 블록으로 분할하고,
상기 현재 깊이 화면의 이전 프레임 또는 다음 프레임인 참조 깊이 화면의 미리 설정된 제2 크기의 탐색 영역 내에서 탐색 블록을 선택하고,
상기 대상 블록 내 화소들의 깊이 값의 제1 평균치와 상기 탐색 블록 내 화소들의 깊이 값의 제2 평균치에 기초하여 신축 비율을 계산하고,
상기 신축 비율에 따라 상기 탐색 블록을 신축하고,
상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하고,
상기 대상 블록과 상기 탐색 영역 내의 복수의 신축된 탐색 블록 각각들 사이의 움직임 추정 차신호를 결정하도록 구성하는 것을 포함하고,
상기 대상 블록과 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 것은, 깊이 값 변동량 제거하는 것을 포함하고,
상기 깊이 값 변동량 제거는,
상기 대상 블록 내 화소들의 깊이 값에 상기 제1 평균치를 차 연산하여 차 연산된 대상 블록을 생성하고,
상기 신축된 탐색 블록 내 화소들의 깊이 값에 상기 제2 평균치를 차 연산하여 차 연산되고 신축된 탐색 블록을 생성하며,
상기 차 연산된 대상 블록과 상기 차 연산되고 신축된 탐색 블록 사이의 움직임 추정 차신호를 계산하는 것인
비일시적 컴퓨터 판독가능 매체.17. A non-transitory computer readable medium storing instructions,
Wherein the instructions are executable by the processor to cause at least one processor to perform operations,
The operations include,
The current depth screen is divided into target blocks of a first size set in advance,
Selecting a search block in a search area of a second predetermined size of a reference depth screen, which is a previous frame or a next frame of the current depth screen,
Calculating an expansion ratio based on a first average value of depth values of pixels in the object block and a second average value of depth values of pixels in the search block,
Expanding and contracting the search block according to the expansion ratio,
Calculating a motion estimation difference signal between the target block and the retracted search block,
And to determine a motion estimation difference signal between the target block and each of the plurality of stretched search blocks in the search area,
Calculating a motion estimation difference signal between the target block and the retracted search block includes removing a depth value variation amount,
The depth value variation amount removal may include:
Calculating a difference value between the depth values of the pixels in the target block and the first average value to generate a difference-
A second average value is calculated by subtracting the depth value of pixels within the expanded and expanded search block from the second average value to generate a difference-
And calculating a motion estimation difference signal between the difference-computed target block and the difference computed and expanded search block
Non-transitory computer readable medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170069616A KR101906173B1 (en) | 2017-06-05 | 2017-06-05 | Method and Device of Zoom Motion Estimation for Depth Video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170069616A KR101906173B1 (en) | 2017-06-05 | 2017-06-05 | Method and Device of Zoom Motion Estimation for Depth Video |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101906173B1 true KR101906173B1 (en) | 2018-10-10 |
Family
ID=63875815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170069616A KR101906173B1 (en) | 2017-06-05 | 2017-06-05 | Method and Device of Zoom Motion Estimation for Depth Video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101906173B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102169166B1 (en) | 2019-04-30 | 2020-10-22 | 동의대학교 산학협력단 | Method and Device of Zoom Motion Estimation for Depth Video |
KR102245740B1 (en) * | 2019-10-31 | 2021-04-27 | 동의대학교 산학협력단 | Method and Device of Zoom Motion Estimation for Depth Video |
CN113223043A (en) * | 2021-03-26 | 2021-08-06 | 西安闻泰信息技术有限公司 | Method, device, equipment and medium for detecting moving target |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101033242B1 (en) | 2010-11-17 | 2011-05-06 | 엘아이지넥스원 주식회사 | Object tracking method and apparatus for considering zoom environment |
KR101371826B1 (en) * | 2012-11-01 | 2014-03-12 | 동의대학교 산학협력단 | Zoom motion estimation apparatus and method |
-
2017
- 2017-06-05 KR KR1020170069616A patent/KR101906173B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101033242B1 (en) | 2010-11-17 | 2011-05-06 | 엘아이지넥스원 주식회사 | Object tracking method and apparatus for considering zoom environment |
KR101371826B1 (en) * | 2012-11-01 | 2014-03-12 | 동의대학교 산학협력단 | Zoom motion estimation apparatus and method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102169166B1 (en) | 2019-04-30 | 2020-10-22 | 동의대학교 산학협력단 | Method and Device of Zoom Motion Estimation for Depth Video |
KR102245740B1 (en) * | 2019-10-31 | 2021-04-27 | 동의대학교 산학협력단 | Method and Device of Zoom Motion Estimation for Depth Video |
CN113223043A (en) * | 2021-03-26 | 2021-08-06 | 西安闻泰信息技术有限公司 | Method, device, equipment and medium for detecting moving target |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20160300337A1 (en) | Image fusion method and image processing apparatus | |
CA2702165C (en) | Image generation method and apparatus, program therefor, and storage medium which stores the program | |
JP2007142521A (en) | Apparatus and method for calculating motion vector | |
KR101906173B1 (en) | Method and Device of Zoom Motion Estimation for Depth Video | |
US20110188583A1 (en) | Picture signal conversion system | |
KR102080694B1 (en) | Method and Device of Motion Estimation for Depth Video Coding by curved surface Modeling, and NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM | |
JP2005503085A (en) | Motion estimation and / or compensation | |
JP2009147807A (en) | Image processing apparatus | |
JP2006313950A (en) | Image coding apparatus, and image coding method | |
EP2221763A1 (en) | Image generation method, device, its program and recording medium stored with program | |
CN109688413B (en) | Method and encoder for encoding a video stream in a video encoding format supporting auxiliary frames | |
KR101865826B1 (en) | Intra Prediction Coding Method and Device for Depth Image | |
KR101904120B1 (en) | VIDEO PROCESSING Device and Method For Depth Video by Eclipse Surface Modeling | |
KR102122905B1 (en) | Luminance Correction Method for Stereo Images using Histogram Interval Calibration and Recording medium use to the Method | |
KR20140074238A (en) | Method and apparatus for color transfer between images | |
KR102098322B1 (en) | Method and Device of Motion Estimation for Depth Video Coding by Plane Modeling, and NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM | |
KR101904125B1 (en) | VIDEO PROCESSING Device and Method For Depth Video by Concave Curved Surface Modeling | |
JP5011854B2 (en) | High resolution image processing device | |
KR102169166B1 (en) | Method and Device of Zoom Motion Estimation for Depth Video | |
KR101904108B1 (en) | Variable Block Coding Method and device for Depth Video by Plane Modeling | |
KR102245740B1 (en) | Method and Device of Zoom Motion Estimation for Depth Video | |
JP2008042424A (en) | Image matching apparatus, and image matching method | |
JP4083159B2 (en) | Motion vector setting method for digital video | |
KR102224272B1 (en) | METHOD AND DEVICE FOR DETECTING PLANAR SURFACE USING DEPTH IMAGE, and Non-Transitory COMPUTER READABLE RECORDING MEDIUM | |
KR102224321B1 (en) | Coding Method and Device for Depth Video Plane Modeling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |