KR101062811B1 - 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법 - Google Patents

인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법 Download PDF

Info

Publication number
KR101062811B1
KR101062811B1 KR1020090082606A KR20090082606A KR101062811B1 KR 101062811 B1 KR101062811 B1 KR 101062811B1 KR 1020090082606 A KR1020090082606 A KR 1020090082606A KR 20090082606 A KR20090082606 A KR 20090082606A KR 101062811 B1 KR101062811 B1 KR 101062811B1
Authority
KR
South Korea
Prior art keywords
motion vector
block
correlation
reference frame
adjacent
Prior art date
Application number
KR1020090082606A
Other languages
English (en)
Other versions
KR20110024561A (ko
Inventor
홍민철
정찬영
Original Assignee
중앙대학교 산학협력단
숭실대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단, 숭실대학교산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020090082606A priority Critical patent/KR101062811B1/ko
Publication of KR20110024561A publication Critical patent/KR20110024561A/ko
Application granted granted Critical
Publication of KR101062811B1 publication Critical patent/KR101062811B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법에 관한 것으로, 가변크기 블록을 사용하는 H.264 동영상 표준 부호화 방식에 따라 각 모드별 인접 블록을 결정하는 제1 단계, 상기 제1 단계에서 결정된 인접 블록의 탐색 영역 크기를 계산하는 제2 단계, 상기 제2 단계에서 인접 영역의 상관도와 움직임 벡터의 크기를 계산하는 제3 단계, 상기 제3 단계의 인접 블록의 움직임 벡터 크기와 방향의 동일함을 비교하여주어진 탐색 영역을 국부 통계 특성을 반영하는 탐색 영역 중의 하나로 결정하는 제4 단계, 상기 제4 단계에서 결정된 영역을 상기 제2 단계의 값과 비교하여 작은 값을 선택하여 움직임 추정을 수행하는 제5 단계를 포함한다. 따라서, 본 발명은 참조 프레임을 사용시 움직임 추정에 소요되는 시간은 가용한 모든 참조 프레임에 대해 움직임 추정을 사용하는 방식에 비해 평균 90.5%가 감소되며, PSNR 및 발생 비트율은 거의 동일한 성능을 유지하는 효과가 있다.
H.264, 블록, 움직임 벡터, 고속 다중 참조 프레임

Description

인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법{Fast multiple reference frame selection method using neighboring motion vectors and inter-mode correlation}
본 발명은 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법에 관한 것으로, 더욱 세부적으로는 불필요한 연산을 감소시키기 위해 부호화 블록과 인접한 블록들과의 국부 움직임 벡터의 통계적 특성을 이용한 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법에 관한 것이다.
최근 이동통신망과 같은 새로운 통신 채널의 급속한 보급과 고화질 동영상 서비스의 요구가 증대되면서, 압축효율이 더욱 향상된 동영상 부호화 방식의 필요성이 대두되고 있으며, 차세대 표준 동영상 표준 부호화 방식인 H.264는 기존의 방식 대비 50%이상의 높은 압축률을 제공하며, 그에 따라 동일 전송 채널 폭을 사용할 경우 개선된 화질을 제공할 수 있다.
상기 H.264 동영상 표준 부호화 방식은 부호화 효율을 극대화하기 위해 여러가지 새로운 방법들을 채택하고 있으며, 이러한 H.264 동영상 표준 부호화 방식 의 움직임 추정은 가변 블록 크기의 다양한 모드와 1/4 화소 단위의 움직임 벡터, 다중 참조 프레임 방식을 채택하고 있고, 이러한 요소는 원영상과 움직임 보상된 영상간의 잔여신호를 최소화 함으로써 부호화 효율을 높이는데 주된 역할을 한다.
그러나 상기 H.264 동영상 표준 부호화 방식의 움직임 추정은 가변 블록크기의 7가지 모드를 지원하기 때문에 각 모드에 대해 전역 탐색(Full Search)을 실시할 경우, 기존의 동영상 부호화 방식 대비 약 7배의 연산량이 요구된다. 또한, 최대 16개까지 사용하는 다중 참조프레임 방식을 채택함으로써 움직임 추정에 필요한 연산량은 참조 프레임 개수에 비례하여 더욱 증가한다.
따라서 다중 참조 프레임 방식으로 인해 얻을 수 있는 예측 이득(prediction gain)은 상황에 따라 매우 클 수도 있지만, 그렇지 않은 경우엔 부호화 효율 개선에 어떠한 이득도 없이 막대한 양의 연산이 낭비되므로 움직임 추정을 수행할 참조 프레임의 개수를 줄이기 위하여 가능성 높은 참조 프레임을 사전에 예측하는 방법은 불필요한 움직임 추정 과정의 연산을 줄일 수 있으므로 실시간 시스템의 개발에 필수적이라 할 수 있으며, 최근에 이와 관련된 연구들이 활발히 진행되고 있다.
그러나, 다중 참조 프레임 방식에 의해 증가된 연산량을 줄이기 위한 기존의 참조 프레임 선택 방법은 H.264동영상 표준 부호화 방식의 움직임 추정 순서를 따르지 않는 이유로 움직임 추정 과정 중 일부를 반복하도록 구현해야 하고, 데이터의 통계적 특성에 기반 하여 여러 개의 임계치를 사용했기 때문에 입력 영상 시퀀스에 따라서 그 성능이 크게 좌우될 수 있으며, 추가적인 참조 프레임 코스트 계산 과정을 필요로 하여 많은 연산량을 낭비하는 등의 문제점이 있다
상술한 바와 같은 문제점을 해결하기 위하여, 본 발명에서는 불필요한 연산을 감소시키기 위해 부호화 블록과 인접한 블록들과의 국부 움직임 벡터의 통계적 특성을 이용하여 수평 수직 각각의 방향에 대해 움직임 추정 탐색 영역을 결정함으로서, 연산량을 줄일 수 있는 인접 블록의 움직임 벡터 및 인터모드간 상관관계를이용한 고속 다중 참조 프레임 선택 방법을 제공하는데 목적이 있다.
목적을 달성하기 위한 방법으로는, 가변크기 블록을 사용하는 H.264 동영상 표준 부호화 방식에 따라 각 모드별 인접 블록을 결정하는 제1 단계, 상기 제1 단계에서 결정된 인접 블록의 탐색 영역 크기를 계산하는 제2 단계, 상기 제2 단계에서 인접 영역의 상관도와 움직임 벡터의 크기를 계산하는 제3 단계, 상기 제3 단계의 인접 블록의 움직임 벡터 크기와 방향의 동일함을 비교하여주어진 탐색 영역을 국부 통계 특성을 반영하는 탐색 영역 중의 하나로 결정하는 제4 단계, 상기 제4 단계에서 결정된 영역을 상기 제2 단계의 값과 비교하여 작은 값을 선택하여 움직임 추정을 수행하는 제5 단계를 포함한다.
상기한 바와 같이, 본 발명의 참조 프레임을 사용시 움직임 추정에 소요되는 시간은 가용한 모든 참조 프레임에 대해 움직임 추정을 사용하는 방식에 비해 평균 90.5%가 감소되며, PSNR 및 발생 비트율은 거의 동일한 성능을 유지하는 효과가 있다.
도 1은 본 발명에 따른 Container 영상에서 인접 블록의 상이한 통계적 특성에 따른 부호화 블록의 움직임 벡터가 인접 블록의 움직임 벡터의 median 값과 차이인 MVD(Motion Vector Difference)의 분포도이고, 도 2는 본 발명에 따른 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법을 설명하기 위한 순서도이고, 도 3은 본 발명에 따른 움직임 추정을 위한 인접 블록의 위치를 설명하기 위한 예시도이고, 도 4는 본 발명에 따른 양자화 파라미터 실험 결과 중 발생 비트율 대비 PSNR(Peak Signal to Noise Rate)을 각 영상마다 나타낸 그래프이다.
이하, 도면을 참고로 인접 블록의 움직임 벡터 및 인터모드간 상관관계를이용한 고속 다중 참조 프레임 선택 방법을 설명하면 다음과 같다.
도 1은 본 발명에 따른 Container 영상에서 인접 블록의 상이한 통계적 특성에 따른 부호화 블록의 움직임 벡터와 인접 블록의 움직임 벡터의 중앙값(median)의 차이인 MVD(Motion Vector Difference)의 분포도로서, 인접 블록의 움직임 벡터 크기가 모두 0이거나 방향이 같은 경우나 인접 블록의 움직임 벡터 합이 작은 경우는 기타 경우 보다 움직임 벡터가 작게 결정되는 것을 보여준다.
도 2는 본 발명에 따른 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법을 설명하기 위한 순서도로서, 가변크기 블록을 사용하는 H.264 동영상 표준 부호화 방식에 따라 각 모드별 인접 블록을 결 정하는 제1 단계(S100)와, 상기 제1 단계에서 결정된 인접 블록의 탐색 영역 크기를 계산하는 제2 단계(S200)와, 상기 제2 단계에서 인접 영역의 상관도와 움직임 벡터의 크기를 계산하는 제3 단계(S300)와, 상기 제3 단계의 인접 블록의 움직임 벡터 크기와 방향의 동일함을 비교하여 주어진 탐색 영역을 국부 통계 특성을 반영하는 탐색 영역 중의 하나로 결정하는 제4 단계(S400)와, 상기 제4 단계에서 결정된 영역을 상기 제2 단계의 값과 비교하여 작은 값을 선택하여 움직임 추정을 수행하는 제5 단계(S500)를 포함한다.
Figure 112009054147048-pat00001
또한, 상기 제2 단계는 상기 수학식 1에 의해 계산되되, 상기 계산된 값은 부호화 조건으로 정의된 최대 움직임 탐색 영역의 값을 의미하고,
Figure 112009054147048-pat00002
Figure 112009054147048-pat00003
는 각각 수평 및 수직 방향을 의미하는 것을 포함한다.
Figure 112009054147048-pat00004
또한, 상기 제2 단계는 상기 수학식 2에 의해 움직임 벡터 추정 오류를 줄이고 인접 블록 움직임 벡터 최대치를 최소 탐색 영역 크기로 정의하는 것을 포함한 다.
Figure 112009054147048-pat00005
또한, 상기 제3 단계는 상기 수학식 3에 의해 인접 영역의 상관도와 움직임 벡터의 크기를 추정하되, 상기
Figure 112009054147048-pat00006
가 작은 경우 부호화 블록은 전반적으로 적은 움직임을 가지는 영역에 속하여 현재 블록 또한 적은 움직임 벡터를 가지고, 상기
Figure 112009054147048-pat00007
가 큰 경우 많은 움직임을 가지는 영역에 속하여 부호화 대상 블록의 움직임 또한 큰 움직임 벡터를 가지며, 상기
Figure 112009054147048-pat00008
가 0이 되는 경우는 인접한 세 블록의 움직임 벡터가 모두 0이 되므로 현재 부호화 대상 블록 또한 0에 가까운 작은 값의 움직임 벡터를 가지는 것을 포함한다.
Figure 112009054147048-pat00009
또한, 상기 제4 단계는 상기 수학식 4에 의한
Figure 112009054147048-pat00010
값과 상기 제3 단계의
Figure 112009054147048-pat00011
값에 따라 주어진 탐색 영역을 국부 통계 특성을 반영하는 탐색 영역 중 하나로 결정하되,
Figure 112009054147048-pat00012
Figure 112009054147048-pat00013
보다 우선시 되는 조건으로
Figure 112009054147048-pat00014
값이 1인 경우는 탐색 영역의 크기를 가장 작게 하고 그렇지 않은 경우
Figure 112009054147048-pat00015
에 의해 탐색 영역의 크기를 결정하는 것을 포함한다.
Figure 112009054147048-pat00016
또한, 상기 제5 단계에서의 상기 수학식 5에 의한
Figure 112009054147048-pat00017
는 인접 블록의 상관성에 따른 최소한의 탐색 영역 값이고,
Figure 112009054147048-pat00018
상기 수학식 6에 의해 너무 적은 탐색 영역으로 인한 움직임 추정 오류를 방지하고,
Figure 112009054147048-pat00019
상기 수학식 7에 의해 상기 제 2단계의 주어진 탐색 영역을 벗어나지 않도록
Figure 112009054147048-pat00020
Figure 112009054147048-pat00021
중에서 작은 값을 선택하여,
Figure 112009054147048-pat00022
상기 수학식 8에 의해 결정된
Figure 112009054147048-pat00023
영역 내에서 움직임 추정을 수행하는 것을 포함한다.
또한, 상기 제1 단계에서 부호화 블록의 위치에 따라 존재하지 않는 인접 블록이 발생하는 경우, 존재하지 않는 인접 블록의 움직임 벡터 크기 값은 다른 인접 블록의 크기와 같은 크기로 대체하는 것을 포함한다.
도 3은 본 발명에 따른 움직임 추정을 위한 인접 블록의 위치와 움직임 벡터를 설명하기 위한 예시도로서, 블록 E는 현재 부호화 대상 블록이며 좌상측 좌표 위치를
Figure 112009054147048-pat00024
, 우하측 좌표위치를
Figure 112009054147048-pat00025
로 표기하고,
Figure 112009054147048-pat00026
는 해당 블록의 수평 방향의 크기를 나타내며,
Figure 112009054147048-pat00027
는 블록의 수직 방향의 크기를 나타낸다.
또한, 블록 A,B,C는 블록 E와 상관관계가 가장 높은 인접 4x4 크기 블록으로 각 블록은 이미 수평 수직 방향의 움직임 벡터가 결정된 상태이고, 상기 인접 블록의 움직임 벡터를 이용하기 위해 먼저 주어진 탐색 영역의 크기를 상기 수학식 1과 같이 정의한다. 상기 수학식 1은 부호화 조건으로 정의된 최대 움직임 탐색 영역의 값을 의미하며,
Figure 112009054147048-pat00028
Figure 112009054147048-pat00029
는 각각 수평 및 수직 방향을 의미하고, 인접한 세 개 블록의 움직임 벡터를 이용하여 상기 수학식 2를 정의한다.
또한, 상기 수학식 2의 값은 움직임 벡터 추정 오류를 줄이기 위한 방안으로 인접 블록 움직임 벡터 최대치를 최소 탐색 영역 크기로 정의하고, 이 과정을 통해 부호화 블록은 가능성 있는 움직임 벡터 지점을 탐색 영역 내부에 포함할 수 있게 된다.
또한, 상기 수학식 3은 인접 영역의 상관도와 움직임 벡터의 크기를 추정할 수 있는 척도로 사용하고,
Figure 112009054147048-pat00030
가 작은 경우 부호화 블록은 전반적으로 적은 움직임을 가지는 영역에 속하므로 현재 블록 또한 적은 움직임 벡터를 가질 확률이 높으며, 반대로
Figure 112009054147048-pat00031
가 큰 경우 많은 움직임을 가지는 영역에 속하므로 현재 부호화 대상 블록의 움직임 또한 큰 움직임 벡터일 가능성이 높다. 특히
Figure 112009054147048-pat00032
가 0이 되는 경우는 인접한 세 블록의 움직임 벡터가 모두 0이므로 현재 부호화 대상 블록 또한 0에 가까운 적은 값의 움직임 벡터를 가질 확률이 높아진다.
또한, 움직임 탐색 영역을 추정할 수 있는 또 다른 척도로 인접 블록의 움직임 벡터 크기와 동일함을 고려할 수 있다. 도 3에서 나타난 바와 같이 부호화 블록의 움직임 벡터는 인접 블록의 움직임 벡터 방향이 모두 같은 경우 적은 값을 갖게 되고, 이와 같은 경우는 부호화 블록이 인접 블록과 동일 객체 내부에 존재할 확률이 높아지므로, 인접 블록과의 상관성을 확인하기 위하여 움직임 벡터의 방향성과 더불어 크기의 동일함을 고려하여, 인접 블록 움직임 벡터의 방향과 크기의 동일한 여부를 판별하기 위해 상기 수학식 4를 정의한다.
또한, 상기 수학식 3에 의한
Figure 112009054147048-pat00033
값과 상기 수학식 4에 의한
Figure 112009054147048-pat00034
에 따라 주어진 탐색 영역을 국부 통계 특성을 반영하는 탐색 영역 중 하나로 결정한다. 이때, 상기 수학식 4에 의한
Figure 112009054147048-pat00035
는 상기 수학식 3에 의한
Figure 112009054147048-pat00036
보다 우선시 되는 조건으로
Figure 112009054147048-pat00037
값이 1인 경우는 탐색 영역의 크기를 가장 작게 하고 그렇지 않은 경우
Figure 112009054147048-pat00038
에 의해 탐색 영역의 크기를 결정한다.
또한, 상기 수학식 5에서 구한 값은 인접 블록의 상관성에 따른 최소한의 탐색 영역 값이므로 상기 수학식 6을 적용하여 너무 적은 탐색 영역으로 인한 움직임 추정 오류를 방지한다.
또한, 상기 수학식 6에서 구한 값을 최종 탐색 영역으로 결정하기 전에 이 값이 상기 수학식 1의 주어진 탐색 영역을 벗어나는지 여부를 확인하고 원래의 탐색 영역보다 더 큰 영역에 대한 추정으로 인한 더 많은 연산을 수행하는 것을 방지하기 위해 상기 수학식 7에 따라
Figure 112009054147048-pat00039
Figure 112009054147048-pat00040
중에서 작은 값을 선택한다.
또한, 상기 수학식 7에서 선택된 값에 따라
Figure 112009054147048-pat00041
방향으로 각각의 탐색 영역 결정은 상기 수학식 8에 의해 결정된다.
따라서, 이와 같이 결정된
Figure 112009054147048-pat00042
영역 내에서 움직임 추정을 수행한다.
하기의 표 1 내지 표 4는 본 발명에 따른 인접 블록의 움직임 벡터 및 인터 모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법의 실험 결과를 표여주는 표로서, QCIF(Quarter Common Intermediate Format) 크기의 AKiyo, Container, Foreman, Stefan 영상을 4가지의 양자화 파라미터(Quantization Parameter)에 대한 실험 결과이며, 부호화기의 환경은 JM13.2에서 Baseline Profile, Level 3.0, RD Optimization off, 탐색영역(Search range) 16, 참조 프레임 5개, 전체 부호화 프레임의 개수는 100프레임, 움직임 추정 방식으로는 전역 탐색(Full Search)방법을 사용하였다.
또한, 표 1 내지 표 4의 항목 TMET(Total Motion Estimation Time)는 부호화시 움직임 추정 과정의 소요 시간을 나타내고, PSNR(Peak Signal to Noise Rate)은 M x N 크기의 8bits 영상에 대하여 원 영상 대비 복호화 된 영상의 잡음 비율을 나타낸 것으로 다음 수학식 9로 구할 수 있다.
Figure 112009054147048-pat00043
상기 수학식 9의 ∥∥은 유클리안 놈(Euclidean Norm)을 나타내고,
Figure 112009054147048-pat00044
Figure 112009054147048-pat00045
는 각각 원 영상과 복호화된 영상을 나타낸다.
또한, MR1은 참조프레임을 1장 사용하였을 때의 실험 결과이고, MR5는 참조프레임을 5장 사용하였을 때의 실험결과이며, Proposed는 참조프레임을 5장 사용한 MR5에 본 발명을 적용하였을 때의 실험 결과이다.
Figure 112009054147048-pat00046
Figure 112009054147048-pat00047
Figure 112009054147048-pat00048
Figure 112009054147048-pat00049
따라서, 본 발명에 의한 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법은 움직임 추정에 소요되는 연산량이 기존의 방식(MR5) 대비 평균 90%이고, 이는 참조 영상을 1장 사용하는 MR1의 연산량 보다도 약 50%의 절감되는 효과가 있다.
본 발명은 특정의 실시 예와 관련하여 도시 및 설명하였지만, 첨부된 특허청구범위에 의해 나타난 발명의 사상 및 영역으로부터 벗어나지 않는 한도 내에서 다양한 개조 및 변화가 가능하다는 것을 당업계에서 통상의 지식을 가진 자라면 누구나 쉽게 알 수 있을 것이다.
도 1은 본 발명에 따른 Container 영상에서 인접 블록의 상이한 통계적 특성에 따른 부호화 블록의 움직임 벡터가 인접 블록의 움직임 벡터의 median 값과 차이인 MVD(Motion Vector Difference)의 분포도.
도 2는 본 발명에 따른 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법을 설명하기 위한 순서도.
도 3은 본 발명에 따른 움직임 추정을 위한 인접 블록의 위치를 설명하기 위한 예시도.
도 4는 본 발명에 따른 양자화 파라미터 실험 결과 중 발생 비트율 대비 PSNR(Peak Signal to Noise Rate)을 각 영상마다 나타낸 그래프

Claims (7)

  1. 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법에 있어서,
    가변크기 블록을 사용하는 H.264 동영상 표준 부호화 방식에 따라 각 모드별 인접 블록들을 결정하는 제1 단계(S100)와;
    상기 제1 단계에서 결정된 인접 블록들의 탐색 영역 크기를 계산하는 제2 단계(S200)와;
    상기 제2 단계에서 인접 블록들의 상관도와 움직임 벡터의 크기를 계산하는 제3 단계(S300)와;
    상기 제3 단계의 인접 블록들 간에 상기 움직임 벡터 크기 및 방향이 동일한지 여부 및 상기 인접 블록들의 움직임 벡터의 크기의 합 중 어느 하나를 이용하여 주어진 탐색 영역을 국부 통계 특성을 반영하는 탐색 영역 중의 하나로 결정하는 제4 단계(S400)와;
    상기 제4 단계에서 결정된 영역을 상기 제2 단계의 값과 비교하여 작은 값을 선택하여 움직임 추정을 수행하는 제5 단계(S500)를 포함하는 것을 특징으로 하는 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법.
  2. 제 1항에 있어서,
    상기 제2 단계는
    Figure 112011009955969-pat00076
    에 의해 계산되되, 상기 SearchRange(i)는 상기 제2 단계에서의 인접 블록들의 탐색 영역 크기를 의미하고, 상기 ω는 상기 제2 단계에서의 인접 블록들의 최대 탐색 영역을 의미하고, 상기 |ω|는 부호화 조건으로 정의된 최대 움직임 탐색 영역의 값(크기)을 의미하고,
    Figure 112011009955969-pat00077
    Figure 112011009955969-pat00078
    는 각각 수평 및 수직 방향을 의미하는 것을 특징으로 하는 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법.
  3. 제 1항에 있어서,
    상기 제2 단계에서
    Figure 112011009955969-pat00053
    에 의해 움직임 벡터 추정 오류를 줄이고 인접 블록 움직임 벡터 최대치를 최소 탐색 영역 크기로 정의하되, 상기 A, B, 및 C는 상기 인접 블록들이 3개인 경우 상기 3개의 인접 블록들의 인덱스인 것을 특징으로 하는 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법.
  4. 제1항에 있어서,
    상기 제3 단계에서 상기 인접 블록들이 3개인 경우, 상기 인접 블록들의 움직임 벡터의 크기의 합은
    Figure 112011036264445-pat00079
    표시되고, 상기
    Figure 112011036264445-pat00080
    에 의해 인접 영역의 상관도와 움직임 벡터의 크기를 추정하되, 상기
    Figure 112011036264445-pat00081
    의 값에 비례하여 움직임 벡터를 가지고,
    Figure 112011036264445-pat00082
    가 0이 되는 경우는 인접한 세 블록의 움직임 벡터가 모두 0이 되므로 현재 부호화 대상 블록 또한 0에 가까운 값의 움직임 벡터를 가지며, 상기 A, B, 및 C는 상기 인접 블록들이 3개인 경우 상기 3개의 인접 블록들의 인덱스인 것을 특징으로 하는 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법.
  5. 제 1항 또는 제 4항에 있어서,
    상기 제 4단계에서
    Figure 112009054147048-pat00057
    에 의한
    Figure 112009054147048-pat00058
    값과, 상기 제3 단계의
    Figure 112009054147048-pat00059
    값에 따라 주어진 탐색 영역을 국부 통계 특성을 반영하는 탐색 영역 중 하나로 결정하되,
    Figure 112009054147048-pat00060
    Figure 112009054147048-pat00061
    보다 우선시 되는 조건으로
    Figure 112009054147048-pat00062
    값이 1인 경우는 탐색 영역의 크기를 가장 작게 하고 그렇지 않은 경우
    Figure 112009054147048-pat00063
    에 의해 탐색 영역의 크기를 결정하는 것을 특징으로 하는 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법.
  6. 제 1항에 있어서,
    상기 제 5단계에서
    Figure 112011009955969-pat00064
    에 의한
    Figure 112011009955969-pat00065
    는 인접 블록의 상관성에 따른 최소한의 탐색 영역 값이고, 상기 ω는 상기 제2 단계에서의 인접 블록들의 최대 탐색 영역을 의미하고,
    Figure 112011009955969-pat00066
    에 의해 너무 적은 탐색 영역으로 인한 움직임 추정 오류를 방지하고,
    Figure 112011009955969-pat00067
    에 의해 상기 제 2단계의 주어진 탐색 영역을 벗어나지 않도록
    Figure 112011009955969-pat00068
    Figure 112011009955969-pat00069
    중에서 작은 값을 선택하여,
    Figure 112011009955969-pat00070
    에 의해 결정된
    Figure 112011009955969-pat00071
    영역 내에서 움직임 추정을 수행하는 것을 특징으로 하는 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법.
  7. 제 1항에 있어서,
    상기 제1 단계에서 부호화 블록의 위치에 따라 존재하지 않는 인접 블록이 발생하는 경우, 존재하지 않는 인접 블록의 움직임 벡터 크기 값은 다른 인접 블록의 크기와 같은 크기로 대체하는 것을 특징으로 하는 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법.
KR1020090082606A 2009-09-02 2009-09-02 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법 KR101062811B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090082606A KR101062811B1 (ko) 2009-09-02 2009-09-02 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090082606A KR101062811B1 (ko) 2009-09-02 2009-09-02 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법

Publications (2)

Publication Number Publication Date
KR20110024561A KR20110024561A (ko) 2011-03-09
KR101062811B1 true KR101062811B1 (ko) 2011-09-06

Family

ID=43932372

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090082606A KR101062811B1 (ko) 2009-09-02 2009-09-02 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법

Country Status (1)

Country Link
KR (1) KR101062811B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101347062B1 (ko) * 2012-06-27 2014-01-10 숭실대학교산학협력단 움직임 벡터의 예측을 위한 탐색영역 설정 장치 및 방법

Also Published As

Publication number Publication date
KR20110024561A (ko) 2011-03-09

Similar Documents

Publication Publication Date Title
US9538197B2 (en) Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
JP5081305B2 (ja) フレーム間予測符号化の方法および装置
KR100498951B1 (ko) 동영상 압축 부호화를 위한 움직임 예측 방법과 그기록매체
US8369628B2 (en) Video encoding device, video encoding method, video encoding program, video decoding device, video decoding method, and video decoding program
RU2461978C2 (ru) Способ масштабируемого кодирования и способ масштабируемого декодирования видеоинформации, устройства для них, программы для них и носитель записи, на котором записаны программы
JP5743496B2 (ja) 多重参照映像を利用した動き推定方法
US8238421B2 (en) Apparatus and method for estimating compression modes for H.264 codings
Paul et al. A long-term reference frame for hierarchical B-picture-based video coding
US8121194B2 (en) Fast macroblock encoding with the early qualification of skip prediction mode using its temporal coherence
US8462849B2 (en) Reference picture selection for sub-pixel motion estimation
US20070047652A1 (en) Motion vector estimation apparatus and motion vector estimation method
US8130838B2 (en) Encoding device and dynamic image recording system using the encoding device
CN101326550A (zh) 利用预测指导的抽取搜索的运动估计
KR20140021952A (ko) 멀티뷰 비디오 시퀀스 코딩을 위한 적응형 프레임 예측 방법
US20080002769A1 (en) Motion picture coding apparatus and method of coding motion pictures
US8630338B2 (en) Method and device for image interpolation systems based on motion estimation and compensation
KR100994768B1 (ko) 동영상 부호화를 위한 움직임 추정 방법 및 이를 구현하기위한 프로그램이 기록된 기록 매체
JP4677932B2 (ja) 動画像符号化方法及び動画像符号化装置とプログラムならびに媒体
TW201309029A (zh) 影像編碼方法、裝置、影像解碼方法、裝置及電腦程式
JP4494803B2 (ja) 動き補償に基づいた改善されたノイズ予測方法及びその装置とそれを使用した動画符号化方法及びその装置
KR101062811B1 (ko) 인접 블록의 움직임 벡터 및 인터모드간 상관관계를 이용한 고속 다중 참조 프레임 선택 방법
EP2359601B1 (en) Image prediction method and system
JP2009049969A (ja) 動画像符号化装置及び方法並びに動画像復号化装置及び方法
KR20120110795A (ko) 탐색 영역 조정 장치 및 방법
JP4676513B2 (ja) 符号化ピクチャタイプ決定方法,装置,そのプログラムおよびその記録媒体

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140709

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150609

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160627

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee