KR101777776B1 - Apparatus and method for sampled profile based motion estimation - Google Patents

Apparatus and method for sampled profile based motion estimation Download PDF

Info

Publication number
KR101777776B1
KR101777776B1 KR1020110072890A KR20110072890A KR101777776B1 KR 101777776 B1 KR101777776 B1 KR 101777776B1 KR 1020110072890 A KR1020110072890 A KR 1020110072890A KR 20110072890 A KR20110072890 A KR 20110072890A KR 101777776 B1 KR101777776 B1 KR 101777776B1
Authority
KR
South Korea
Prior art keywords
image
vmaxline
quot
hmaxline
maximum line
Prior art date
Application number
KR1020110072890A
Other languages
Korean (ko)
Other versions
KR20130011608A (en
Inventor
배태면
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020110072890A priority Critical patent/KR101777776B1/en
Publication of KR20130011608A publication Critical patent/KR20130011608A/en
Application granted granted Critical
Publication of KR101777776B1 publication Critical patent/KR101777776B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Abstract

본 발명은 표본 프로파일 정보 기반 움직임 추정장치 및 방법에 관한 것으로서, 현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 에지영상 생성부; 상기 에지영상을 입력 받아 움직임 추정대상 블록에서 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 영상 분석부; 및 상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하여 차이가 가장 작은 블록의 좌표차를 움직임 벡터로 예측하는 움직임 벡터 추정부를 포함 한다. The present invention relates to an apparatus and method for estimating motion information based on a sample profile information, comprising: an edge image generation unit for generating an edge image of a current image by detecting an edge corresponding to an outline of an object in a current image; An image analyzer that receives the edge image and detects a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine that most include edge information in a motion estimation target block; And a motion vector estimator for calculating a block matching error between the current image and the reference image based on the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine to predict a coordinate difference of the block having the smallest difference as a motion vector .

Description

표본 프로파일 정보 기반 움직임 추정장치 및 방법{Apparatus and method for sampled profile based motion estimation}[0001] APPARATUS AND METHOD FOR SAMPLE PROFILE INFORMATION BASED MOTION ESTIMATION [0002]

본 발명은 표본 프로파일 정보 기반 움직임 추정장치 및 방법에 관한 것으로서, 보다 상세하게는, 블록 정합을 위한 움직임 벡터 추정 시 현재(current) 영상과 기준(reference) 영상의 에지(edge)를 검출하고 에지정보를 가장 많이 포함하는 수평 라인 및 수직 라인의 정합 오차를 비교하여 움직임 벡터를 예측하도록 함으로써, 움직임 예측을 위한 연산량을 감소시켜 고속 인코딩이 가능하도록 하는 표본 프로파일 정보 기반 움직임 추정장치 및 방법에 관한 것이다.The present invention relates to a sample profile information based motion estimation apparatus and method, and more particularly, to a motion vector estimation method and apparatus for detecting a motion vector of a current image and a reference image, The present invention relates to a sample profile information based motion estimation apparatus and method for estimating a motion vector by comparing a horizontal line and a vertical line,

멀티미디어를 지원해주는 핵심 요소로는 디지털화와 더불어 영상 압축 기술이 있다. 최근 들어 정보의 디지탈화가 급속도로 발전하고 있으며, 이에 따라 영상 압축 기술이 매우 중요하게 부각되고 있다.A key element that supports multimedia is image compression technology along with digitalization. In recent years, digitalization of information is rapidly developing, and image compression technology is becoming very important.

일반적으로, PC나 HDTV, 혹은, 모바일 디바이스 등의 디지털 영상장치는 MPEG(Moving Picture Experts Group)-2, MPEG-4, H.264와 같은 영상 압축 방식으로 압축된 영상 신호를 MPEG기반 영상 코덱으로 인코딩하여 표시한다. In general, a digital video device such as a PC, an HDTV, or a mobile device converts an image signal compressed by an image compression method such as Moving Picture Experts Group (MPEG) -2, MPEG-4, or H.264 into an MPEG-based image codec And displays it by encoding.

이러한 영상 코덱은 블록 정합(Block matching) 방식을 기반으로 시간적인 중복성을 제거한다. 블록 정합 방식은 영상을 작은 블록으로 나누고, 현재 인코딩/디코딩되는 영상의 블록과 유사한 부분을 시간적으로 이전 프레임 또는 이 전에 인코딩/디코딩된 영상에서 찾아서 활용하고 그 차이값을 전송하는 방법으로 압축하게 된다. This video CODEC eliminates temporal redundancy based on the block matching method. In the block matching method, the image is divided into small blocks, and a portion similar to the block of the current encoded / decoded image is temporally detected in the previous or previous encoded / decoded image, and the differential value is compressed .

이를 위해, 이전 프레임과 현재 프레임 사이에서 가장 비슷한 블록을 찾는 작업이 필요한데, 이를 움직임 추정(Motion Estimation, ME)이라 하며, 블록이 얼마만큼 움직였는가 하는 변위를 나타내는 것을 움직임 벡터(Motion Vector, MV)라고 한다.To do this, it is necessary to find the most similar block between the previous frame and the current frame. This is referred to as Motion Estimation (ME), and a motion vector (MV) indicating a displacement, .

블록 정합 방식을 이용한 중간 영상 프레임 Fi 합성 개념은 도 1과 같다.The concept of intermediate image frame Fi synthesis using the block matching method is shown in FIG.

도 1에 도시된 바와 같이, 이전 프레임 Fn-1과 현재 프레임 Fn 사이의 중간 영상 프레임 Fi를 합성하기 위해, 이전 프레임 Fn-1에 있는 블록과 현재 프레임에 있는 블록 Fn 간의 움직임 벡터(MV)의 움직임을 추정하여 중간 영상 프레임 Fi의 블록을 합성한다.1, in order to synthesize an intermediate image frame Fi between a previous frame Fn-1 and a current frame Fn, a motion vector MV between a block in a previous frame Fn-1 and a block Fn in the current frame Motion estimation is performed to synthesize blocks of the intermediate image frame Fi.

영상 신호 압축을 위한 움직임 추정(motion estimation) 시에는, 현재영상을 매크로블록으로 분할하고, 시간적으로 이전 영상과 SAD(Sum of Absolute Difference)또는 SSD(Sum of Square Difference)와 같은 오차값이 최소가 되는 영역과의 좌표 차를 움직임 벡터로 사용한다. In motion estimation for video signal compression, the current image is divided into macroblocks, and error values such as a sum of absolute difference (SAD) and a sum of square difference (SSD) The motion vector is used as a motion vector.

H.264의 경우, SAD 또는 SSD와 함께 움직임 벡터를 전송하는 데 요구되는 데이터량을 함께 고려한 값을 cost로 하여 cost가 가장 낮은 값을 보이는 움직임 벡터를 움직임 예측에 사용한다.In the case of H.264, a motion vector with the lowest cost is used for motion estimation with a cost considering the amount of data required to transmit the motion vector together with the SAD or SSD.

여기서, 움직임 벡터를 찾기 위해서는 SAD 또는 SSD를 움직임 탐색 영역의 모든 픽셀에 대해 모두 계산하고, 그 중 최소값을 가지는 위치를 찾아야 한다. 예컨대, 블록의 크기가 N x N 픽셀이고 움직임 탐색 영역이 32x32라면 1024*(2NxN-1)번의 덧셈/뺄셈 연산이 필요하며, 영상의 크기가 100Nx80N정도라면 8192000*(2NxN-1)*(NxN)의 연산이 필요하다. 이는 영상 인코딩 시 최대 50%까지의 연산을 차지할 정도로 많은 연산량으로, 시스템 부하를 유발하고 처리 속도를 지연시키는 문제점이 있다. Here, in order to find a motion vector, it is necessary to calculate SAD or SSD for all the pixels in the motion search area, and find a position having the minimum value among them. For example, if the size of the block is NxN pixels and the motion search area is 32x32, addition / subtraction operations of 1024 * (2NxN-1) times are required. If the size of the image is 100Nx80N, 8192000 * (2NxN-1) * ). This causes a problem of causing a system load and delaying the processing speed due to a large amount of computation to occupy an operation up to 50% in the image encoding.

한국공개특허 제2004-0049214호(2004.06.11), 발명의 명칭: 고속 모션벡터 추정장치 및 방법Korean Patent Publication No. 2004-0049214 (2004.06.11), Title of the Invention: High-speed motion vector estimation apparatus and method

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 블록 정합을 위한 움직임 벡터 추정 시 현재(current) 영상과 기준(reference) 영상의 에지(edge)를 검출하고 에지정보를 가장 많이 포함하는 수평 라인 및 수직 라인의 정합 오차를 비교하여 움직임 벡터를 예측하도록 함으로써, 움직임 예측을 위한 연산량을 감소시켜 고속 영상 인코딩이 가능하도록 하는 표본 프로파일 정보 기반 움직임 추정장치 및 방법을 제공하는데 그 기술적 과제가 있다.SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide a method and apparatus for detecting edge of a current image and a reference image when estimating a motion vector for block matching, The present invention also provides a method and apparatus for estimating a motion vector based on a sample profile information based on a motion vector of a motion vector.

상술한 목적을 달성하기 위한 본 발명의 표본 프로파일 정보 기반 움직임 추정장치는, 현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 에지영상 생성부; 상기 에지영상을 입력 받아 움직임 추정대상 블록에서 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 영상 분석부; 상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하여 차이가 가장 작은 블록의 좌표차를 움직임 벡터로 예측하는 움직임 벡터 추정부를 포함한다.According to another aspect of the present invention, there is provided a sample profile information-based motion estimation apparatus comprising: an edge image generation unit detecting an edge corresponding to an outline of an object in a current image to generate an edge image of the current image; An image analyzer that receives the edge image and detects a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine that most include edge information in a motion estimation target block; And a motion vector estimator for calculating a block matching error between the current image and the reference image based on the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine to predict a coordinate difference of a block having the smallest difference as a motion vector.

여기서, 상기 영상 분석부는, 상기 에지영상을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성하고, 상기 특징정보영상의 수평 프로파일과 수직 프로파일을 다음의 수학식에 적용하여 산출하여 상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출할 수 있다.Here, the image analyzing unit compares the edge image with a specific value T and performs threshold processing to generate a feature information image to be recorded as 0 and 1. The horizontal profile and the vertical profile of the feature information image are mapped to the following mathematical expression To calculate the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine.

[수학식 1][Equation 1]

H(x) = ∑NI(x,y) H (x) =? N I (x, y)

[수학식 2]&Quot; (2) "

V(y) = ∑MI(x,y) V (y) = 裡M I (x, y)

[수학식 3]&Quot; (3) "

X = argx Max (∑NE(x,y) )X = arg x Max (? N E (x, y))

[수학식 4]&Quot; (4) "

Y = argx Max (∑ME(x,y) ) Y = arg x Max (? M E (x, y))

여기서 MxN은 블록의 크기이고, (x,y)는 픽셀의 좌표이고, I(x,y)는 (x,y)좌표에서의 픽셀의 휘도(intensity) 값을 나타낸다. 또한 H(x), V(y)는 각각 수평 프로파일과 수직 프로파일이다.(X, y) represents the intensity value of the pixel at the (x, y) coordinates, and MxN is the size of the block. H (x) and V (y) are the horizontal profile and the vertical profile, respectively.

또한, 상기 움직임 벡터 추정부는, 상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 대응되는 픽셀의 휘도값과 기준영상의 해당 픽셀의 휘도값에 기초하여 블록 정합 오차를 산출할 수 있다.The motion vector estimator may calculate a block matching error based on the luminance values of the pixels corresponding to the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine of the current image and the luminance values of the corresponding pixels of the reference image .

그리고, 상기 움직임 벡터 추정부는, 상기 현재영상과 기준영상 간의 차이를 다음의 수학식을 이용하여 SAD 및 SSD 중 적어도 어느 하나의 값으로 산출할 수 있다.The motion vector estimation unit may calculate a difference between the current image and the reference image to at least one of SAD and SSD using the following equation.

[수학식5]&Quot; (5) "

SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)| SAD = {? | Iref (HmaxLine + X, y + Y) - Icur (HmaxLine, y) |

+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα + VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine +

[수학식6]&Quot; (6) "

SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2 SSD = {Σ | ref (HmaxLine, y) - Hcur (HmaxLine, y) | 2

+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα+? ?? Vref (x, VmaxLine) - Vcur (x, VmaxLine) | 2 } x?

(여기서, α는 스케일 상수로써 N/2(N=자연수))(Where N is a scale constant and N is a natural number)

한편, 상술한 목적을 달성하기 위한 본 발명의 표본 프로파일 정보 기반 움직임 추정방법은, 현재영상을 입력 받아 현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 단계; 상기 에지영상을 입력 받아 블록내 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 단계; 상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상의 블록과 기준영상의 블록 간의 블록 정합 오차를 계산하는 단계; 및 상기 블록 정합 오차가 최소인 블록들의 좌표차를 움직임 벡터로 예측하는 단계를 포함한다.According to another aspect of the present invention, there is provided a sample profile information-based motion estimation method comprising: receiving an input image and generating an edge image of a current image by detecting an edge corresponding to an outline of an object in a current image; Detecting a horizontal max line (HmaxLine) and a vertical max line (VmaxLine) which receive the edge image and contain the edge information in the block in the largest amount; Calculating a block matching error between a current image block and a reference image block based on a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine of the current image; And predicting a coordinate difference of blocks having the smallest block matching error as a motion vector.

여기서, 상기 에지영상을 입력 받아 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 단계는, 상기 에지영상을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성하는 단계; 상기 특징정보영상의 수평 프로파일과 수직 프로파일을 다음의 수학식1 및 2에 적용하여 산출하는 단계; Here, the step of detecting the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine, which receive the edge image and contain the edge information the most, may include comparing the edge image with a specific value T, , Generating a feature information image recorded with 0 and 1; Calculating a horizontal profile and a vertical profile of the feature information image by applying the following equations (1) and (2);

[수학식 1][Equation 1]

H(x) = ∑NI(x,y) H (x) =? N I (x, y)

[수학식 2]&Quot; (2) "

V(y) = ∑MI(x,y) V (y) = 裡M I (x, y)

상기 수평 프로파일과 수직 프로파일 중 상기 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 다음의 수학식3 및 4를 적용하여 검출하는 단계를 포함할 수 있다.And detecting the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine including the edge information of the horizontal profile and the vertical profile by applying the following Equations (3) and (4).

[수학식 3]&Quot; (3) "

X = argx Max (∑NE(x,y) )X = arg x Max (? N E (x, y))

[수학식 4]&Quot; (4) "

Y = argx Max (∑ME(x,y) ) Y = arg x Max (? M E (x, y))

그리고, 상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하는 단계는, 상기 현재영상과 기준영상 간의 차이를 다음의 수학식을 이용하여 SAD 및 SSD 중 적어도 어느 하나의 값으로 산출하는 단계를 포함할 수 있다.The step of calculating a block matching error between the current image and the reference image based on the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine of the current image may further include calculating a difference between the current image and the reference image by using the following equation And calculating a value of at least one of the SAD and the SSD.

[수학식5]&Quot; (5) "

SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)| SAD = {? | Iref (HmaxLine + X, y + Y) - Icur (HmaxLine, y) |

+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα + VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine +

[수학식6]&Quot; (6) "

SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2 SSD = {Σ | ref (HmaxLine, y) - Hcur (HmaxLine, y) | 2

+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα+? ?? Vref (x, VmaxLine) - Vcur (x, VmaxLine) | 2 } x?

(여기서, α는 스케일 상수로써 N/2(N=자연수))(Where N is a scale constant and N is a natural number)

상술한 바와 같이 본 발명의 표본 프로파일 정보 기반 움직임 추정장치 및 방법은, 블록 정합을 위한 움직임 벡터 추정 시 현재(current) 영상과 기준(reference) 영상의 에지(edge)를 검출하고 에지정보를 가장 많이 포함하는 수평 라인 및 수직 라인의 정합 오차를 비교하여 움직임 벡터를 예측하도록 함으로써, 움직임 예측을 위한 연산량을 감소시켜 고속 영상 인코딩이 가능케 한다. As described above, the apparatus and method for estimating motion information based on the sample profile information of the present invention detects edges of a current image and a reference image in motion vector estimation for block matching, By comparing the matching errors of the horizontal line and the vertical line, which are included, the motion vector is predicted, thereby reducing the amount of computation for motion prediction and enabling high-speed image encoding.

도 1은 블록 정합 방식을 이용한 움직임 벡터 예측 상태도,
도 2는 본 발명에 따른 표본 프로파일 정보 기반 움직임 추정장치의 제어 블록도,
도 3은 본 발명에 따른 표본 프로파일 정보 기반 움직임 추정방법의 흐름도이다.
FIG. 1 is a diagram illustrating a motion vector prediction state using a block matching method,
FIG. 2 is a control block diagram of a sample profile information-based motion estimation apparatus according to the present invention;
3 is a flowchart of a sample profile information-based motion estimation method according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 보다 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명에 따른 표본 프로파일 정보 기반 움직임 추정장치의 제어 블록도이다. 움직임 벡터 추정을 위해서는 현재영상과 기준영상이 필요하다. 여기서, 기준영상은 현재영상보다 시간적으로 이전의 영상, 혹은, 인코딩/디코딩 순서에서 이 전에 처리된 영상을 뜻한다.2 is a control block diagram of a sample profile information-based motion estimation apparatus according to the present invention. In order to estimate the motion vector, a current image and a reference image are required. Here, the reference image refers to an image temporally prior to the current image, or a previously processed image in the encoding / decoding order.

도 2에 도시된 바와 같이, 본 발명의 움직임 추정장치는, 에지영상 생성부(110), 영상 분석부(120), 움직임 벡터 추정부(130), 움직임 벡터 저장부(140)를 포함한다. 2, the motion estimation apparatus of the present invention includes an edge image generation unit 110, an image analysis unit 120, a motion vector estimation unit 130, and a motion vector storage unit 140.

에지영상 생성부(110)는 입력되는 영상의 에지를 검출(edge detection)하여 에지영상을 생성한다. 영상의 에지는 영상 밝기의 불연속점으로 영상의 밝기가 낮은 값에서 높은 값으로, 또는, 이와 반대로 변화하는 부분을 뜻한다. 즉, 에지는 영상 내 객체의 윤곽선에 해당 되므로 에지를 검출하면 표시된 객체의 윤곽선의 픽셀 좌표를 추출할 수 있다. 에지영상을 생성하는 방법으로는 밝기의 변화율 즉, 기울기를 검출하여 기울기가 소정 기준값 이상일 경우 에지로 취하는 등의 다양한 기술이 사용되고 있다. 이에, 에지영상 생성부(110)는 종래에 소개된 에지 검출 방법을 이용하여 에지영상을 생성한다.The edge image generation unit 110 generates an edge image by edge detection of an input image. The edge of the image is the discontinuity of the image brightness, which means the brightness of the image changes from a low value to a high value or vice versa. That is, since the edge corresponds to the outline of the object in the image, the pixel coordinates of the outline of the displayed object can be extracted by detecting the edge. As a method of generating an edge image, various techniques such as detecting a rate of change of brightness, that is, taking a slope as an edge when the slope is equal to or greater than a predetermined reference value, are used. Accordingly, the edge image generation unit 110 generates an edge image using the edge detection method that has been conventionally introduced.

영상 분석부(120)는 에지영상을 입력 받아 에지정보를 가장 많이 포함하고 있는 수평라인 및 수직라인을 검출한다. The image analyzer 120 receives the edge image and detects a horizontal line and a vertical line that include most edge information.

영상 분석부(120)는 먼저 에지영상을 특정값 T로 임계처리(thresholding)하여 에지값이 T보다 크면 1로 기록하고 작으면 0으로 기록하여 특징정보영상을 생성한다. 에지값은 영상 밝기의 변화율이므로 임계처리가 완료된 특징정보영상에는 객체의 윤곽선일 가능성이 높은 픽셀만이 1로 기록된다.The image analyzing unit 120 first thresholds the edge image to a specific value T, and if the edge value is larger than T, it records 1, and if it is smaller, it records 0 to generate a feature information image. Since the edge value is the rate of change of the image brightness, only the pixel having the possibility of the outline of the object is recorded as 1 in the feature information image in which the threshold process is completed.

영상 분석부(120)는 특징정보영상에서 각 블록 별로 수평 프로파일(horizontal profile)과 수직 프로파일(vertical profile)을 생성한다. 수평 프로파일과 수직 프로파일을 산출하는 식은 다음의 수학식 1 및 수학식 2와 같다.The image analysis unit 120 generates a horizontal profile and a vertical profile for each block in the feature information image. The equations for calculating the horizontal profile and the vertical profile are as shown in the following equations (1) and (2).

[수학식 1][Equation 1]

H(x) = ∑NI(x,y) H (x) =? N I (x, y)

[수학식 2]&Quot; (2) "

V(y) = ∑MI(x,y) V (y) = 裡M I (x, y)

[수학식 3]&Quot; (3) "

X = argx Max (∑NE(x,y) )X = arg x Max (? N E (x, y))

[수학식 4]&Quot; (4) "

Y = argx Max (∑ME(x,y) ) Y = arg x Max (? M E (x, y))

여기서 MxN은 블록의 크기이고, (x,y)는 픽셀의 좌표이고, I(x,y)는 (x,y)좌표에서의 픽셀의 휘도(intensity) 값을 나타낸다. 또한 H(X)는 수평 프로파일이고 V(Y)는 수직 프로파일이며, X, Y는 수학식 3,4로 선택된 블록의 수평 라인과 수직 라인을 나타낸다.(X, y) represents the intensity value of the pixel at the (x, y) coordinates, and MxN is the size of the block. In addition, H (X) is a horizontal profile, V (Y) is a vertical profile, and X, Y represent a horizontal line and a vertical line of a block selected by Equations (3) and (3).

수학식 1과 수학식 2를 통해 이해할 수 있듯이, 프로파일이란 2차원 영상에서 동일한 수직라인 또는 수평라인의 화소값을 합산한 값이다. As can be understood from Equations (1) and (2), the profile is a value obtained by adding the pixel values of the same vertical line or horizontal line in the two-dimensional image.

영상 분석부(120)는 각 블록의 수평 프로파일과 수직 프로파일을 생성한 후, 이들 중 에지정보를 가장 많이 포함하고 있는 수평 라인과 수직 라인을 각각 하나씩 추출한다. 각 블록에서 에지정보를 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 수식은 다음은 수학식 3 및 수학식 4와 같다.The image analyzer 120 generates a horizontal profile and a vertical profile of each block, and then extracts one horizontal line and one vertical line, each of which contains the most edge information, respectively. The following equations (3) and (4) are used to detect the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine, which contain much edge information in each block.

[수학식 3]&Quot; (3) "

X = argx Max (∑NE(x,y) )X = arg x Max (? N E (x, y))

[수학식 4]&Quot; (4) "

Y = argx Max (∑ME(x,y) ) Y = arg x Max (? M E (x, y))

움직임 벡터 추정부(130)는 기준영상 내의 블록과 현재영상 내 블록의 정합 오차를 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 이용하여 산출한다. 움직임 벡터 추정부(130)에서 SAD(Sum of Absolute Difference) 또는 SSD(Sum of Square Difference)에 대응되는 정합 오차를 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)를 이용하여 산출하는 방법은 다음의 수학식 5 및 수학식 6과 같다.The motion vector estimator 130 calculates a matching error between a block in the reference image and a block in the current image using a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine that most include edge information. A method of calculating a matching error corresponding to a Sum of Absolute Difference (SAD) or a Sum of Square Difference (SSD) in the motion vector estimator 130 using the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine is as follows: (5) and (6).

[수학식 5]&Quot; (5) "

SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)| SAD = {? | Iref (HmaxLine + X, y + Y) - Icur (HmaxLine, y) |

+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα + VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine +

[수학식 6]&Quot; (6) "

SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2 SSD = {Σ | ref (HmaxLine, y) - Hcur (HmaxLine, y) | 2

+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα+? ?? Vref (x, VmaxLine) - Vcur (x, VmaxLine) | 2 } x?

여기서 Iref(x,y), Icur(x,y)는 각각 기준영상과 현재영상의 (x,y)좌표에서의 휘도(intensity)값을 나타내고, (X,Y)는 후보 움직임 벡터를 나타낸다. 또한 α는 스케일 상수로써 N/2(N=자연수)이다.Here, Iref (x, y) and Icur (x, y) represent intensity values at the (x, y) coordinates of the reference image and the current image, and (X, Y) represent candidate motion vectors. Also, a is a scale constant of N / 2 (N = natural number).

움직임 벡터 추정부(130)는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 이용하여 SAD(Sum of Absolute Difference) 또는, SSD(Sum of Square Difference)와 같은 오차값을 산출하고, 이전 영상과의 오차값이 최소가 되는 영역과의 좌표차를 움직임 벡터로 결정한다.The motion vector estimator 130 calculates an error value such as a Sum of Absolute Difference (SAD) or a Sum of Square Difference (SSD) using a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine, And the area where the error value with the minimum value is minimum is determined as a motion vector.

움직임 벡터 저장부(140)에는 추정된 움직임 벡터들이 저장된다.The motion vector storage unit 140 stores the estimated motion vectors.

이상 설명한 바와 같이, 본 발명에서는 현재영상의 각 블록에 대해 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 찾으면 모든 후보 움직임 벡터에 대해 동일하게 사용할 수 있으므로 NxN 크기의 블록 비교 시 (2NxN-1)번의 연산이 4N으로 감소하여 연산시간을 감소시킬 수 있다.As described above, according to the present invention, if a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine, which have the largest amount of edge information for each block of the current image, are found, they can be used equally for all candidate motion vectors. (2NxN-1) times is reduced to 4N at the time of comparing the size of the blocks, thereby reducing the calculation time.

예컨대, N이 8인 경우 종래기술에 따르면 127번의 연산이 필요하지만, 본 발명의 경우 32번으로 감소하므로 제안한 방법은 약 4배의 속도 향상을 가져온다. For example, if N is 8, 127 operations are required according to the prior art, but in the case of the present invention, the number of operations is reduced to 32, so that the proposed method achieves a speed improvement of about 4 times.

도 3은 본 발명에 따른 표본 프로파일 정보 기반 움직임 추정방법의 흐름도이다.3 is a flowchart of a sample profile information-based motion estimation method according to the present invention.

먼저, 에지영상 생성부(110)에서는 현재영상에 대해 에지영상을 생성한다(S110). 영상의 에지는 영상 밝기의 불연속점으로 영상의 밝기가 낮은 값에서 높은 값으로, 또는, 이와 반대로 변화하는 부분을 뜻한다. 즉, 에지는 영상 내 객체의 윤곽선에 해당 되므로 에지를 검출하면 표시된 객체의 윤곽선의 픽셀 좌표를 추출할 수 있다.First, the edge image generation unit 110 generates an edge image for the current image (S110). The edge of the image is the discontinuity of the image brightness, which means the brightness of the image changes from a low value to a high value or vice versa. That is, since the edge corresponds to the outline of the object in the image, the pixel coordinates of the outline of the displayed object can be extracted by detecting the edge.

영상 분석부(120)는 에지영상 값을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성한다(S112). 에지값은 영상 밝기의 변화율이므로 임계처리가 완료된 특징정보영상에는 객체의 윤곽선일 가능성이 높은 픽셀만이 1로 기록된다.The image analyzer 120 compares the edge image value with a specific value T and performs a threshold process to generate a feature information image to be recorded as 0 and 1 (S112). Since the edge value is the rate of change of the image brightness, only the pixel having the possibility of the outline of the object is recorded as 1 in the feature information image in which the threshold process is completed.

영상 분석부(120)는 특징정보영상 내의 각 블록에 대해 수평 프로파일 및 수직 프로파일 산출한다(S114). 영상 분석부(120)는 특징정보영상의 수평 프로파일 영상을 생성하는 데에는 전술한 수학식 1을 적용하고, 수직 프로파일 영상을 생성하는 데에는 수학식 2를 적용할 수 있다. 여기서, 프로파일이란 2차원 영상에서 동일한 수직라인 또는 수평라인의 화소값을 합산한 값으로 정의될 수 있다. The image analysis unit 120 calculates a horizontal profile and a vertical profile for each block in the feature information image (S114). The image analyzer 120 may apply Equation (1) to generate the horizontal profile image of the feature information image, and apply Equation (2) to generate the vertical profile image. Here, the profile may be defined as a value obtained by summing the pixel values of the same vertical line or horizontal line in the two-dimensional image.

영상 분석부(120)는 수평 프로파일 및 수직 프로파일 값에 기초하여 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출한다(S116). 영상 분석부(120)는 수학식 3 및 수학식 4를 적용하여 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출할 수 있다.The image analyzing unit 120 detects a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine that most include edge information based on the horizontal profile and the vertical profile value at step S116. The image analyzing unit 120 may detect the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine that include the edge information most by applying Equations 3 and 4. [

이 후, 기준영상의 블록과 현재영상의 블록의 차이를 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)를 이용하여 산출한다(S118). 움직임 벡터 추정부(130)는 오차값을 계산하는 데에는 수학식 5을 이용하여 SAD를 산출하거나, 수학식 6을 이용하여 SSD를 산출할 수 있다. Thereafter, the difference between the block of the reference image and the block of the current image is calculated using the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine (S118). In calculating the error value, the motion vector estimation unit 130 may calculate the SAD using Equation (5) or calculate the SSD using Equation (6).

움직임 벡터 추정부(130)는 움직임 벡터 추정부(130)는 정합 오차값을 계산하여 오차값이 최소가 되는 기준 블록과 현재 블록의 좌표차를 움직임 벡터로 추정한다(S120). The motion vector estimator 130 calculates a matching error value and estimates a coordinate difference between the current block and the reference block having the minimum error value as a motion vector (S120).

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

본 발명은 블록 정합을 위한 움직임 벡터 추정 시 현재(current) 영상과 기준(reference) 영상의 에지(edge)를 검출하고 에지정보를 가장 많이 포함하는 수평 라인 및 수직 라인의 정합 오차를 비교하여 움직임 벡터를 예측하도록 함으로써, 움직임 예측을 위한 연산량을 감소시켜 고속 인코딩이 가능하도록 하는 표본 프로파일 정보 기반 움직임 추정장치 및 방법에 이용할 수 있다.The present invention detects an edge of a current image and a reference image when estimating a motion vector for block matching and compares a matching error of a horizontal line and a vertical line, Thereby reducing the amount of computation for motion prediction and enabling high-speed encoding. The present invention can be applied to a sample profile information-based motion estimation apparatus and method.

110 : 에지영상 생성부
120 : 영상 분석부
130 : 움직임 벡터 추정부
140 : 움직임 벡터 저장부
110: edge image generating unit
120: Image analysis section
130: motion vector estimator
140: a motion vector storage unit

Claims (7)

현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 에지영상 생성부;
상기 에지영상을 입력 받아 움직임 추정대상 블록에서 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 영상 분석부; 및
상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하여 차이가 가장 작은 블록의 좌표차를 움직임 벡터로 예측하는 움직임 벡터 추정부;를 포함하고,
상기 움직임 벡터 추정부는,
상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 대응되는 픽셀의 휘도값과 기준영상의 해당 픽셀의 휘도값에 기초하여 블록 정합 오차를 산출하는 표본 프로파일 정보 기반 움직임 추정장치.
An edge image generation unit for generating an edge image of a current image by detecting an edge corresponding to an outline of an object in a current image;
An image analyzer that receives the edge image and detects a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine that most include edge information in a motion estimation target block; And
And a motion vector estimator for calculating a block matching error between the current image and the reference image based on the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine to predict a coordinate difference of a block having the smallest difference as a motion vector and,
Wherein the motion vector estimator comprises:
Wherein a block matching error is calculated based on a luminance value of a pixel corresponding to a horizontal maximum line (HmaxLine) and a vertical maximum line (VmaxLine) of the current image and a luminance value of a corresponding pixel of the reference image.
제1항에 있어서,
상기 영상 분석부는,
상기 에지영상을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성하고, 상기 특징정보영상의 수평 프로파일과 수직 프로파일을 다음의 수학식에 적용하여 산출하여 상기 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정장치.
[수학식 1]
H(x) = ∑NI(x,y)
[수학식 2]
V(y) = ∑MI(x,y)
[수학식 3]
X = argx Max (∑NE(x,y) )
[수학식 4]
Y = argx Max (∑ME(x,y) )
여기서 (x,y)는 픽셀의 좌표이고, I(x,y)는 (x,y)좌표에서의 픽셀의 휘도(intensity) 값을 나타낸다. 또한 H(X), V(Y)는 각각 수평 프로파일과 수직 프로파일이며, 에지영상 E에서의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 나타낸다.
The method according to claim 1,
Wherein the image analyzing unit comprises:
A feature information image to be recorded as 0 and 1 is generated by comparing the edge image with a specific value T, and a horizontal profile and a vertical profile of the feature information image are applied to the following equation, Wherein the horizontal maximum line (HmaxLine) and the vertical maximum line (VmaxLine) are detected.
[Equation 1]
H (x) =? N I (x, y)
&Quot; (2) "
V (y) = 裡M I (x, y)
&Quot; (3) "
X = arg x Max (? N E (x, y))
&Quot; (4) "
Y = arg x Max (? M E (x, y))
Where (x, y) is the coordinates of the pixel and I (x, y) is the intensity value of the pixel at the (x, y) coordinates. Further, H (X) and V (Y) are the horizontal profile and the vertical profile, respectively, and represent the horizontal maximum line HmaxLine and the vertical maximum line VmaxLine in the edge image E.
삭제delete 제1항에 있어서,
상기 움직임 벡터 추정부는,
상기 현재영상과 기준영상 간의 차이를 다음의 수학식을 이용하여 SAD 및 SSD 중 적어도 어느 하나의 값으로 산출하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정장치.
[수학식5]
SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)|
+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα
[수학식6]
SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2
+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα
(여기서, α는 스케일 상수로써 N/2(N=자연수))
The method according to claim 1,
Wherein the motion vector estimator comprises:
Wherein the difference between the current image and the reference image is calculated as at least one of SAD and SSD using the following equation.
&Quot; (5) "
SAD = {? | Iref (HmaxLine + X, y + Y) - Icur (HmaxLine, y) |
+ VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine +
&Quot; (6) "
SSD = {Σ | ref (HmaxLine, y) - Hcur (HmaxLine, y) | 2
+? ?? Vref (x, VmaxLine) - Vcur (x, VmaxLine) | 2 } x?
(Where N is a scale constant and N is a natural number)
현재영상을 입력 받아 현재영상 내 객체의 윤곽선에 해당 되는 에지를 검출하여 현재영상의 에지영상을 생성하는 단계;
상기 에지영상을 입력 받아 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 단계;
상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 대응되는 픽셀의 휘도값과 기준영상의 해당 픽셀의 휘도값에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하는 단계; 및
상기 블록 정합 오차가 최소인 블록들의 좌표차를 움직임 벡터로 예측하는 단계를 포함하는 표본 프로파일 정보 기반 움직임 추정방법.
Generating an edge image of a current image by detecting an edge corresponding to an outline of an object in a current image by receiving a current image;
Detecting a horizontal max line (HmaxLine) and a vertical max line (VmaxLine) that receive the edge image and contain the edge information the most;
Calculating a block matching error between a current image and a reference image based on a luminance value of a pixel corresponding to a horizontal maximum line HmaxLine and a vertical maximum line VmaxLine of the current image and a luminance value of the corresponding pixel of the reference image; And
And estimating a coordinate difference of blocks having the smallest block matching error as a motion vector.
제5항에 있어서,
상기 에지영상을 입력 받아 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 검출하는 단계는,
상기 에지영상을 특정값(T)과 비교하여 임계처리 함으로써, 0 과 1로 기록되는 특징정보영상을 생성하는 단계;
상기 특징정보영상의 수평 프로파일과 수직 프로파일을 다음의 수학식1 및 2에 적용하여 산출하는 단계;
[수학식 1]
H(x) = ∑NI(x,y)
[수학식 2]
V(y) = ∑MI(x,y)
상기 수평 프로파일과 수직 프로파일 중 상기 에지정보를 가장 많이 포함하고 있는 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)을 다음의 수학식3 및 4를 적용하여 검출하는 단계를 포함하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정방법.
[수학식 3]
X = argx Max (∑NE(x,y) )
[수학식 4]
Y = argx Max (∑ME(x,y) )
6. The method of claim 5,
The step of detecting a horizontal maximum line (HmaxLine) and a vertical maximum line (VmaxLine), which receives the edge image and contains edge information the most,
Generating a feature information image recorded with 0 and 1 by comparing the edge image with a specific value T and performing threshold processing;
Calculating a horizontal profile and a vertical profile of the feature information image by applying the following equations (1) and (2);
[Equation 1]
H (x) =? N I (x, y)
&Quot; (2) "
V (y) = 裡M I (x, y)
Detecting a horizontal maximum line (HmaxLine) and a vertical maximum line (VmaxLine) which include the edge information most of the horizontal profile and the vertical profile by applying the following Equations (3) and (4) A method of motion estimation based on sample profile information.
&Quot; (3) "
X = arg x Max (? N E (x, y))
&Quot; (4) "
Y = arg x Max (? M E (x, y))
제5항에 있어서,
상기 현재영상의 수평 맥스 라인(HmaxLine) 및 수직 맥스 라인(VmaxLine)에 기초하여 현재영상과 기준영상 간의 블록 정합 오차를 계산하는 단계는,
상기 현재영상과 기준영상 간의 차이를 다음의 수학식을 이용하여 SAD 및 SSD 중 적어도 어느 하나의 값으로 산출하는 단계를 포함하는 것을 특징으로 하는 표본 프로파일 정보 기반 움직임 추정방법.
[수학식5]
SAD = {∑|Iref(HmaxLine+X,y+Y) - Icur(HmaxLine,y)|
+ ∑|Iref(x+X,VmaxLine+Y) - Vcur(x,VmaxLine)|}xα
[수학식6]
SSD = {∑|ref(HmaxLine,y) - Hcur(HmaxLine,y)|2
+ ∑|Vref(x,VmaxLine) - Vcur(x,VmaxLine)|2}xα
(여기서, α는 스케일 상수로써 N/2(N=자연수))
6. The method of claim 5,
The step of calculating a block matching error between the current image and the reference image based on the horizontal maximum line (HmaxLine) and the vertical maximum line (VmaxLine)
And calculating a difference between the current image and the reference image using at least one of SAD and SSD using the following equation.
&Quot; (5) "
SAD = {? | Iref (HmaxLine + X, y + Y) - Icur (HmaxLine, y) |
+ VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine + VmaxLine +
&Quot; (6) "
SSD = {Σ | ref (HmaxLine, y) - Hcur (HmaxLine, y) | 2
+? ?? Vref (x, VmaxLine) - Vcur (x, VmaxLine) | 2 } x?
(Where N is a scale constant and N is a natural number)
KR1020110072890A 2011-07-22 2011-07-22 Apparatus and method for sampled profile based motion estimation KR101777776B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110072890A KR101777776B1 (en) 2011-07-22 2011-07-22 Apparatus and method for sampled profile based motion estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110072890A KR101777776B1 (en) 2011-07-22 2011-07-22 Apparatus and method for sampled profile based motion estimation

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160142459A Division KR101781560B1 (en) 2016-10-28 2016-10-28 Apparatus and method for sampled profile based motion estimation

Publications (2)

Publication Number Publication Date
KR20130011608A KR20130011608A (en) 2013-01-30
KR101777776B1 true KR101777776B1 (en) 2017-09-12

Family

ID=47840537

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110072890A KR101777776B1 (en) 2011-07-22 2011-07-22 Apparatus and method for sampled profile based motion estimation

Country Status (1)

Country Link
KR (1) KR101777776B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102199270B1 (en) * 2014-07-30 2021-01-07 에스케이플래닛 주식회사 System for cloud streaming service, method of cloud streaming service based on still image and apparatus for the same
WO2016047890A1 (en) * 2014-09-26 2016-03-31 숭실대학교산학협력단 Walking assistance method and system, and recording medium for performing same
KR102467241B1 (en) * 2017-04-14 2022-11-15 한화테크윈 주식회사 Method for controlling panning and tilting of surveillance camera utilizing edge value

Also Published As

Publication number Publication date
KR20130011608A (en) 2013-01-30

Similar Documents

Publication Publication Date Title
TWI565306B (en) Video decoding apparatus, video coding apparatus, video decoding method, video coding method, and storage medium
KR101440610B1 (en) Apparatus and method for image incoding/decoding
US8204124B2 (en) Image processing apparatus, method thereof, and program
US8274602B2 (en) Image processing apparatus and image processing method with redundant frame detection
KR102263619B1 (en) Signal analysis and generation of transient information
KR101777776B1 (en) Apparatus and method for sampled profile based motion estimation
KR20050080862A (en) Method for interpolating frame with motion compensation by overlapped block motion estimation and frame-rate converter using thereof
JP5199196B2 (en) Moving picture decoding method, moving picture decoding apparatus, and moving picture decoding program
KR101810118B1 (en) Apparatus and method for profile based motion estimation
US20140126639A1 (en) Motion Estimation Method
TW201310392A (en) Estimating method of predicted motion vector
KR101781560B1 (en) Apparatus and method for sampled profile based motion estimation
KR20080066486A (en) Apparatus and method for estimating motion vector
KR101787004B1 (en) Apparatus and method for sampled pixel based motion estimation
KR100969420B1 (en) Frame rate conversion method
KR101798191B1 (en) Apparatus and method for sampled pixel based motion estimation
KR102098322B1 (en) Method and Device of Motion Estimation for Depth Video Coding by Plane Modeling, and NON-TRANSITORY COMPUTER READABLE RECORDING MEDIUM
US20170214935A1 (en) Method and device for processing a video sequence
CN101001380A (en) Movable estimation method of vedio code
JP2007174202A (en) Motion vector detecting device and method therefor
KR101895822B1 (en) Apparatus and method for profile based motion estimation
US8805101B2 (en) Converting the frame rate of video streams
KR100810391B1 (en) Frame rate up conversion using motion interpolation
JP2006217486A (en) Motion compensation type ip conversion processor and processing method
CN107426577B (en) Method and system for detecting repetitive structure in motion estimation motion compensation algorithm

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant