KR101004562B1 - H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 - Google Patents

H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 Download PDF

Info

Publication number
KR101004562B1
KR101004562B1 KR1020080079237A KR20080079237A KR101004562B1 KR 101004562 B1 KR101004562 B1 KR 101004562B1 KR 1020080079237 A KR1020080079237 A KR 1020080079237A KR 20080079237 A KR20080079237 A KR 20080079237A KR 101004562 B1 KR101004562 B1 KR 101004562B1
Authority
KR
South Korea
Prior art keywords
image
block
old
image block
prediction
Prior art date
Application number
KR1020080079237A
Other languages
English (en)
Other versions
KR20100020580A (ko
Inventor
김원하
오형석
Original Assignee
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경희대학교 산학협력단 filed Critical 경희대학교 산학협력단
Priority to KR1020080079237A priority Critical patent/KR101004562B1/ko
Publication of KR20100020580A publication Critical patent/KR20100020580A/ko
Application granted granted Critical
Publication of KR101004562B1 publication Critical patent/KR101004562B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 영상 이미지의 섬네일 이미지를 생성하는 방법에 관한 것으로, 보다 구체적으로 영상 프레임을 구성하는 H.264 기반의 영상 블록들에 대한 변환 영역의 잔여 영상 블록의 DC 계수와 예측 데이터를 이용하여 영상 블록의 DC 계수를 계산하고, 계산한 영상 블록의 DC 계수로부터 영상 프레임의 섬네일 이미지를 간단하게 생성할 수 있는 방법 및 그 장치에 관한 것이다.
본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터로부터 직접 영상 블록의 DC 계수를 계산함으로써, 영상 이미지를 구성하는 공간 영역의 영상 블록 또는 변환 영역의 영상 블록을 모두 복원할 필요없이 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성할 수 있다. 또한, 본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터로부터 직접 영상 블록의 DC 계수를 계산하여 영상 이미지의 섬네일 이미지를 생성함으로써, 다수의 영상 이미지들이 저장되어 있는 멀티미디어 단말기에서 섬네일 이미지를 통해 특정 영상 이미지를 빠르게 검색할 수 있다.
H.264, 섬네일 이미지, DC 계수, 인트라 예측 모드, 예측 블록

Description

H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법{Method for making thumb-nail image of image frame based on H.264}
본 발명은 영상 이미지의 섬네일 이미지를 생성하는 방법에 관한 것으로, 보다 구체적으로 영상 프레임을 구성하는 H.264 기반의 영상 블록들에 대한 변환 영역의 잔여 영상 블록의 DC 계수와 예측 데이터를 이용하여 영상 블록의 DC 계수를 계산하고, 계산한 영상 블록의 DC 계수로부터 영상 프레임의 섬네일 이미지를 간단하게 생성할 수 있는 방법 및 그 장치에 관한 것이다.
영상을 중심으로 여러 형태의 정보를 결합하여 저장하거나 전송하는 소위 멀티미디어가 널리 사용되고 있다. 예를 들어, 고속의 광케이블이 일반 가정까지 도달하여 안방에서도 대형 스크린과 하이파이브 입체 음향을 갖는 고선명 TV를 통해 영화관에서 보는 고화질의 디지털 방송을 시청할 수 있으며 화상전화를 통해 멀리 떨어져 있는 사람과 얼굴을 마주보며 통화를 하기도 한다.
이러한 다양한 멀티미디어 단말기에서 송수신되는 영상 데이터를 저장하고 전송하기 위해 다양한 압축 방식이 개발되어 사용되고 있다. MPEG, H.26x는 ISO, ITU 등과 같은 국제 표준화 관련 기구에서 개발되어 발표된 동영상 압축 표준안의 일 예이다.
H.264 표준안은 1997년 이후 ITU-T(전기통신 표준화부분) 주관 하에 차세대 동영상 압축 방식으로 개발되어 온 동영상 표준 부호화 방식으로, 기존의 MPEG2보다는 2~3배의 높은 압축률, MPEG4보다는 1.5~2배의 높은 압축률을 보이는 것으로 입증되고 있다. H.264 표준안에서 지원하는 데이터의 전송률과 픽쳐 사이즈의 범위는 매우 넓어 모바일 장치와 다이얼업 장치를 위한 낮은 전송률과 낮은 프레임율부터 HDTV 이상의 해상도를 포함하는 영상 이미지를 압축할 수 있는 장점을 가진다. 따라서 H.264 표준안은 앞으로 다양한 멀티미디어 단말기에 널리 응용되어 사용될 것으로 예상하고 있으며, H.264 표준에 대한 많은 개선안이 개발되어 제안되고 있다.
도 1과 도 2는 H.264 표준에 따른 영상 이미지의 부호화 장치와 복호화 장치의 일 예를 설명하기 위한 기능 블록도이다.
먼저, 도 1을 참고로 H.264 표준에 따라 영상 이미지의 부호화 장치를 보다 구체적으로 살펴보면, 예측 모드 판단부(11)는 입력된 공간 영역의 N×N 영상 블록에 대한 인트라 예측 모드를 결정한다. 예측 블록 생성부(12)는 결정한 인트라 예측 모드에 따라, 입력된 공간 영역의 N×N 영상 블록의 잔여 영상 블록을 생성하는데 사용하는 예측 블록을 생성한다.
차감부(13)는 입력된 공간 영역의 N×N 영상 블록과 생성된 예측 블록을 서로 차감하여 N×N 잔여 영상 블록을 생성한다. 변환부(14)는 생성된 공간 영역의 N×N 잔여 영상 블록을 블록 기반의 변환 알고리즘인 DCT를 사용하여 변환 영역의 N×N 잔여 영상 블록으로 변환한다.
통상적으로 공간 영역의 영상 이미지를 변환 영역의 영상 이미지로 변환시키기 위하여 블록 기반의 변환 알고리즘을 사용한다. 블록 기반의 변환 알고리즘이란 공간 영역의 이미지를 N×N 크기의 영상 블록 또는 N×N 크기의 잔여 영상 블록과 같이 블록 단위로 변환하여 영상 데이터를 압축하는 기법으로, Karhunen-Loeve Transform(KLT), Singular Value Decomposition(SVD), Discrete Cosine Transform(DCT), 정수 DCT 등이 사용된다. 블록 기반의 변환 알고리즘에 의해 변환된 변환 영역의 영상 데이터는 서로 상관관계가 없으며 영상 데이터가 저주파 성분에 밀집된다는 특징이 있다.
양자화부(15)는 일정 양자화 계수로 변환 영역의 N×N 잔여 영상 블록을 양자화하며 부호화부(19)는 예측 부호화, 가변 길이 부호화, 산술 부호화 등의 부호화 방식 중 하나의 방식에 따라 양자화된 N×N 잔여 영상 블록을 부호화하여 비트스트림을 생성한다.
한편, 양자화부(15)에서 출력되는 양자화된 N×N 잔여 영상 블록은 역양자화부(16)에서 역양자화된다. 역변환부(17)는 역양자화된 N×N 잔여 영상 블록을 공간 영역으로 역변환하여 공간 영역의 N×N 잔여 영상 블록을 생성한다. 생성된 공간 영역의 잔여 영상 블록은 합산부(18)에서 예측 블록과 합산되어 N×N 영상 블록 다음으로 입력되는 N×N 영상 블록의 예측 블록을 생성하는데 사용되는 참조 영상 블록을 생성한다.
위에서 살펴본 바와 같이, H.264 표준은 N×N 잔여 영상 블록을 이용하여 공간 영역의 N×N 영상 블록을 압축하도록 규정하고 있는데, 공간 영역의 N×N 영상 블록으로부터 N×N 잔여 영상 블록을 생성하기 위하여 사용되는 예측 블록은 인트라 예측 모드를 통해 결정된다. H.264 표준에서 휘도 4×4 영상 블록에 대해서는 9개의 인트라 예측 모드가 정의되어 있으며, 휘도 16×16 영상 블록에 대해서는 4개의 인트라 예측 모드가 정의되어 있고, 색차 8x8 영상 블록에 대해 4개의 인트라 예측 모드가 정의되어 있다.
도 3을 참고로 4×4 영상 블록에서 사용되는 9개의 인트라 예측 모드를 보다 구체적으로 살펴보면 다음과 같다.
1) 제0 예측 모드(vertical)
- Vertical mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀들을 이용하여 예측하는 모드이다.
- A 픽셀은 블록의 첫 column 부분의 4개의 픽셀에 채워지고 B 픽셀은 블록의 두 번째 column 부분의 4개의 픽셀에 채워지며, C, D 픽셀도 각각 블록 column에 해당하는 4개의 픽셀에 채워진다.
2) 제1 예측 모드(horizontal)
- Horizontal mode는 현재 부호화하고자 하는 블록의 왼쪽 Z 영상 블록의 4픽셀들을 이용하여 예측하는 모드이다.
- I 픽셀은 블록의 첫 row 부분의 4개의 픽셀에 채워지고 J 픽셀은 블록의 두 번째 row 부분의 4개의 픽셀에 채워지며, K, L 픽셀도 각각 블록 row에 해당하는 4개의 픽셀에 채워진다.
3) 제2 예측 모드(DC)
- DC mode는 현재 부호화하고자 하는 블록의 왼쪽 Z 영상 블록의 4픽셀(I,J,K,L)과 위쪽 X 영상 블록(A,B,C,D)의 4픽셀의 평균값으로 예측되는 모드이다.
4) 제3 예측 모드(diagonal down-left)
- Diagonal down-left mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀과 위/오른쪽 Y 영상 블록을 이용하여 예측하는 모드이다.
- 부호화하고자 하는 블록의 좌측 하단과 우측 상단 사이의 45도 각도로 채워진다.
5) 제4 예측 모드(diagonal down-right)
- Diagonal down-right mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀, 위 왼쪽 S 영상 블록의 1픽셀(Q)과 왼쪽 Z 영상 블록의 4픽셀을 이용하여 예측하는 모드이다.
- 부호화하고자 하는 블록의 우측 하단 45도 방향으로 채워진다.
6) 제5 예측 모드(vertical-right)
- Vertical-right mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀, 위 왼쪽 S 영상 블록의 1픽셀(Q)과 왼쪽 Z 영상 블록의 4픽셀을 이용하여 예측하는 모드이다.
- 수직의 오른쪽 약 26.6도 방향으로 채워진다. (넓이/높이=1/2)
7) 제6 예측 모드(horizontal-down)
- Horizontal-down mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀, 위 왼쪽 S 영상 블록의 1픽셀(Q)과 왼쪽 Z 영상 블록의 4픽셀을 이용하여 예측하는 모드이다.
- 수평의 아래 약 26.6도 방향으로 채워진다.
8) 제7 예측 모드(vertical-left)
- Vertical-left mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀, 위 오른쪽 Y 영상 블록의 1픽셀(E)을 이용하여 예측하는 모드이다.
- 수직의 왼쪽 약 26.6도 방향으로 채워진다.
9) 제8 예측 모드(horizontal-up)
- Horizontal-up mode는 현재 부호화하고자 하는 블록의 왼쪽 Z 영상 블록의 4픽셀을 이용하여 예측하는 모드이다.
- 수평의 위쪽 약 26.6도 방향으로 보간된다.
도 4를 참고로 16×16 블록 모드에서 사용되는 4개의 인트라 예측 모드를 보다 구체적으로 살펴보면 다음과 같다.
1) 제0 예측 모드(Vertical)
- Vertical mode는 휘도 4x4예측모드의 제0 예측 모드와 같다. 단지 4x4블록단위와 16x16블록단위의 차이를 제외하고 예측 부호화 방법은 같다.
2) 제1 예측 모드(Horizontal)
- Horizontal mode는 휘도 4x4예측모드의 제1 예측 모드와 같다. 단지 4x4블록단위와 16x16블록단위의 차이를 제외하고 예측 부호화 방법은 같다.
3) 제2 예측 모드(DC)
- DC mode는 휘도 4x4 예측모드의 제2 예측 모드와 같다. 단지 4x4블록단위와 16x16블록단위의 차이를 제외하고 예측 부호화 방법은 같다.
4) 제 3 예측 모드(Plane)
- Plan mode는 상단 블록의 화소와 좌측 블록의 화소를 대각선방향(45도)으로 보간해서 부호화한다.
한편, 색차 영상에서 8x8 영상 블록에 대해 4개의 인트라 예측 모드는 휘도 16x16 모드와 같으며, 단지 8x8블록단위와 16x16블록단위의 차이를 제외하고 부호화 방식은 같다.
도 2를 참고로 H.264 표준에 따른 영상 이미지의 복호화 장치를 보다 구체적으로 살펴보면, 디코딩부(30)는 수신한 비트스트림을 복호화한다. 수신한 비트스트림은 영상 프레임을 구성하는 다수 영상 블록의 잔여 영상 블록에 대한 영상 데이터를 저장하고 있으며 디코딩부(30)는 수신한 비트스트림에서 각 잔여 영상 블록 단위로 구분하여 복호화한다. 역양자화부(31)는 복호화된 각 잔여 영상 블록을 역양자화 계수로 역양자화한다. 역변환부(32)는 역양자화된 각 잔여 영상 블록을 역변환하여 변환 영역의 잔여 영상 블록을 공간 영역의 잔여 영상 블록으로 변환한다. 예측 모드 판단부(33)는 비트스트림에 저장되어 있는 각 잔여 영상 블록에 대한 인트라 예측 모드를 판단하고, 공간 영역의 예측블록 생성부(34)는 판단한 인트라 예측 모드로부터 공간 영역의 예측 블록을 생성한다. 합산부(36)는 공간 영역의 잔여 영상 블록과 생성된 공간 영역의 예측 블록을 합산하여 복원 블록을 생성 한다. 한편, 생성된 복원 블록은 다시 예측 블록 생성부(34)로 입력되며, 예측 블록 생성부(34)는 다음 잔여 영상 블록에 대한 예측 블록을 생성하는데 입력된 복원 블록을 참조 영상 블록으로 사용한다.
한편, 핸드폰, 디지털 TV 등과 같은 멀티미디어 단말기는 저장하고 있는 영상 이미지를 미리 보기 위한 작은 사이즈의 이미지(이하, '섬네일 이미지'라 언급한다)를 통해 멀티미디어 단말기에 저장되어 있는 영상 데이터를 검색하는데 사용한다.
도 5는 핸드폰에서 사용하는 섬네일 이미지의 일 예를 도시하고 있다. 도 5에 도시되어 있는 섬네일 이미지를 참고로 살펴보면, 핸드폰에 저장되어 있는 다수의 영상 또는 동영상 이미지들이 디스플레이부에 섬네일 이미지로 미리 디스플레이된다. 사용자는 디스플레이된 섬네일 이미지를 통해 재생하고자 하는 영상 또는 동영상을 검색하고 검색한 동영상 중 소정 동영상을 선택하면, 선택한 동영상은 원래 사이즈의 이미지로 재생된다.
원영상 이미지에서 섬네일 이미지를 생성하기 위한 통상적인 방법은 크게 2가지로 나누어 볼 수 있다. 첫 번째 방법은 공간 영역의 영상 이미지를 다운 샘플링하여 영상 이미지의 섬네일 이미지를 생성하는 것이다. 두 번째 방법은 영상 이미지를 구성하는 변환 영역의 각 영상 블록에서 DC 계수만을 추출하여 원영상 이미지의 섬네일 이미지를 생성하는 것이다. 변환 영역의 각 영상 블록에서 상단 좌측에 존재하는 DC 계수는 공간 영역의 각 영상 블록에 대한 평균값으로, DC 계수만을 추출하여 생성된 영상 이미지는 원래 영상 이미지의 크기를 1/N만큼 다운 샘플링한 것과 동일하다.
위에서 설명한 첫 번째 방법으로 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성하기 위해서는 변환 영역의 잔여 영상 블록을 공간 영역으로 역변환하고 역변환된 공간 영역의 잔여 영상 블록과 공간 영역의 예측 블록을 합하여 공간 영역의 복원 블록을 생성한 후, 다시 복원 블록을 다운 샘플링하여 영상 이미지의 섬네일 이미지를 생성한다. 따라서 첫 번째 방법은 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성하기 위하여 변환 영역과 공간 영역으로 영상 이미지를 반복하여 변환하여야 한다는 문제점을 가진다.
또한, 위에서 설명한 두 번째 방법으로 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성하기 위해서는 H.264 기반에서 사용되는 예측 블록이 주변 영상 블록을 이용하여 생성되므로 모든 영상 블록이 복원된 후, 각 영상 블록에 대한 인트라 예측 모드에 따라 변환 영역의 예측 블록을 생성한다. 다시 변환 영역의 예측 블록과 변환 영역의 잔여 영상 블록을 합하여 복원된 영상 블록에 존재하는 DC 계수를 추출하여 섬네일 이미지를 생성할 수 있다.
따라서 두 번째 방법도 영상 이미지의 섬네일 이미지를 생성하는데 복잡한 데이터 처리 과정을 거쳐야 하며 모든 영상 블록의 복원 후에 섬네일 이미지의 생성이 가능하므로 섬네일 이미지를 생성하는데 오랜 시간이 소요된다는 문제점을 가진다. 더욱이 두 번째 방법에서 영상 블록의 DC 계수를 추출하기 위하여 변환 영역의 예측 블록 계수들 중 DC 계수만 사용되지만, 실제 변환 영역의 예측 블록을 구성하는 모든 계수들을 모두 계산하므로 필요없이 계산량이 증가한다는 문제점을 가진다.
본 발명이 이루고자 하는 목적은 위에서 언급한 종래 섬네일 이미지의 생성 방법이 가지는 문제점을 해결하기 위한 것으로, 본 발명이 이루고자 하는 목적은 변환 영역의 예측 블록을 구성하는 계수들 중 DC 계수만을 계산하고 계산한 예측 블록의 DC 계수로부터 영상 블록의 DC 계수를 직접 계산하여 섬네일 이미지를 생성하는 방법을 제공하는 것이다.
본 발명이 이루고자 하는 다른 목적은 멀티미디어 단말기에 저장되어 있는 영상 이미지를 섬네일 이미지를 통해 빠르게 검색할 수 있도록 도와주는 섬네일 이미지의 생성 방법을 제공하는 것이다.
본 발명의 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 섬네일 이미지의 생성 방법은 N×N 제1 영상 블록에 대한 변환 영역의 잔여 영상 블록 또는 N×N 제1 영상 블록에 대한 제1 예측 참조 데이터를 이용하여 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록에 대한 제2 예측 참조 데이터를 생성하는 단계와, N×N 제2 영상 블록에 대한 공간 영역의 예측 블록을 생성하는데 사용되는 인트라 예측 모드를 판단하는 단계와, 생성한 제2 예측 참조 데이터와 판단한 인트라 예측 모드로부터 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록과 동일한 변환 영역의 예측 데이터를 생성하는 단계와, 생성한 예측 데이터와 N×N 제2 잔여 영상 블록의 DC 계수를 합하여 N×N 제2 영상 블록에 대한 DC 계수를 계산하 는 단계를 포함한다.
본 발명의 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 섬네일 이미지의 생성 장치는 N×N 제1 영상 블록에 대한 변환 영역의 잔여 영상 블록 또는 N×N 제1 영상 블록에 대한 제1 예측 참조 데이터를 이용하여 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록에 대한 제2 예측 참조 데이터를 생성하는 예측 참조 데이터 생성부와, N×N 제2 영상 블록에 대한 인트라 예측 모드와 생성한 제2 예측 참조 데이터로부터 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록과 동일한 변환 영역의 예측 데이터를 생성하는 예측 데이터 생성부와, 생성한 예측 데이터와 N×N 제2 잔여 영상 블록의 DC 계수를 합하여 N×N 제2 영상 블록의 DC 계수를 계산하는 계산부 및 영상 프레임을 구성하는 N×N 영상 블록들에 대한 DC 계수를 추출하여 영상 프레임의 섬네일 이미지를 생성하는 섬네일 이미지 생성부를 포함한다.
본 발명에 따른 섬네일 이미지의 생성 방법은 아래와 같은 다양한 효과들을 가지고 있다.
첫째, 본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터로부터 직접 영상 블록의 DC 계수를 계산함으로써, 영상 프레임을 구성하는 공간 영역의 영상 블록 또는 변환 영역의 영상 블록을 모두 복원할 필요없이 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성할 수 있다.
둘째, 본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터로부터 직접 영상 블록의 DC 계수를 계산하여 영상 이미지의 섬네일 이미지를 생성함으로써, 다수의 영상 이미지들이 저장되어 있는 멀티미디어 단말기에서 섬네일 이미지를 통해 특정 영상 이미지를 빠르게 검색할 수 있다.
셋째, 본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터만을 이용하여 영상 이미지의 섬네일 이미지를 생성함으로써, 공간 영역의 영상 블록 또는 변환 영역의 영상 블록을 구성하는 모든 계수들을 모두 복원하여 섬네일 이미지를 생성하는 종래 방법에 비해 적은 메모리와 낮은 성능의 프로세서로 섬네일 이미지를 생성할 수 있다.
이하 첨부한 도면을 참고로 본 발명에 따른 섬네일 이미지의 생성 방법 및 그 장치에 대해 보다 구체적으로 설명한다.
도 6은 본 발명의 일 실시예에 따라 H.264 표준의 영상 부호화 장치에서 입력 또는 저장되어 있는 영상 프레임으로부터 섬네일 이미지를 생성하는 장치의 기능 블록도를 도시하고 있다.
도 6을 참고로 살펴보면, 영상 프레임을 구성하는 공간 영역의 다수의 N×N 영상 블록들 중 N×N 제1 영상 블록이 입력되면 예측 모드 결정부(110)는 입력된 N×N 제1 영상 블록에 대한 인트라 예측 모드를 결정한다. 예측블록 생성부(120)는 결정한 N×N 제1 영상 블록의 인트라 예측 모드에 따라 이전에 복원된 참조 영상 블록으로부터 N×N 제1 영상 블록에 대한 공간 영역의 예측 블록을 생성한다. 차감부(130)는 입력된 공간 영역의 N×N 제1 영상 블록과 생성된 예측 블록을 서로 차감하여 공간 영역의 N×N 제1 잔여 영상 블록을 생성한다. 변환부(140)는 생성된 공간 영역의 N×N 제1 잔여 영상 블록을 변환 영역으로 변환하며, 양자화부(150)는 변환 영역의 N×N 제1 잔여 영상 블록을 양자화 계수로 양자화한다. 부호화부(160)는 양자화된 N×N 제1 잔여 영상 블록의 계수를 소정 부호화 방식에 따라 부호화하여 비트스트림을 생성한다.
H.264 표준에서는 입력된 N×N 제1 영상 블록의 잔여 영상 블록을 생성하기 위한 공간 영역의 예측 블록을 이전 복원된 참조 영상 블록에 기초하여 생성한다. 참조 영상 블록을 생성하는 과정을 보다 구체적으로 살펴보면, 양자화부(150)에서 양자화된 영상 블록은 역양자화부(170)에 양자화 계수의 역수로 역양자화되며, 역양자화된 영상 블록은 역변환부(180)에서 다시 공간 영역으로 역변환된다. 합산부(190)는 N×N 제1 영상 블록의 예측 블록과 역변환된 공간 영역의 잔여 영상 블록을 합하여 참조 영상 블록을 생성하며, 예측 블록 생성부(120)는 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록의 인트라 예측 모드에 기초하여 생성한 참조 영상 블록으로부터 N×N 제2 영상 블록의 잔여 영상 블록을 생성하는데 사용되는 예측 블록을 생성한다.
한편, 예측 참조 데이터 생성부(210)는 N×N 제1 영상 블록의 인트라 예측 모드에 따라 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록의 예측 참조 데이터를 생성한다. 도 9에 도시되어 있는 것과 같이 예측 참조 데이터(T-A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)는 공간 영역의 참조 픽셀(A, B, C, D, I, J, K, L)에 대응하는 변환 영역의 영상 데이터이다.
N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록이 입력되는 경우, 예측 데이터 생성부(220)는 예측 모드 결정부(110)에서 결정한 N×N 제2 영상 블록의 인트라 예측 모드와 생성된 N×N 제2 영상 블록의 예측 참조 데이터에 기초하여 N×N 제2 영상 블록에 대한 변환영역의 예측 데이터를 생성한다. 예측 데이터는 N×N 제2 영상 블록의 예측 블록에 대한 DC 계수에 대응하는 값으로, 예측 데이터 생성부(220)는 변환 영역의 N×N 잔여 영상 블록과 동일한 변환 영역에서 N×N 제2 영상 블록에 대한 예측 데이터를 생성한다. DC 계산부(230)는 N×N 제2 영상 블록의 예측 데이터와 역양자화된 N×N 제2 잔여 영상 블록의 DC 계수를 합하여 입력된 N×N 제2 영상 블록의 DC 계수를 계산한다. 섬네일 이미지 생성부(240)는 영상 프레임을 구성하는 다수의 N×N 영상 블록의 DC 계수를 조합하여 영상 프레임의 섬네일 이미지를 생성한다.
도 7은 본 발명의 일 실시예에 따라 H.264 표준의 영상 복호화 장치에서 수신 또는 저장되어 있는 영상 프레임으로부터 섬네일 이미지를 생성하는 장치의 기능 블록도를 도시하고 있다.
도 7을 참고로 보다 구체적으로 살펴보면, 디코딩부(310)는 수신한 비트스트림을 복호화하며, 역양자화부(320)는 복호화된 비트스트림에서 각 N×N 잔여 영상 블록을 역양자화 계수로 역양자화한다. 역변환부(330)는 역양자화된 변환 영역의 N×N 잔여 영상 블록을 공간 영역의 잔여 영상 블록으로 역변환한다. 예측 모드 결정부(340)는 비트스트림에 저장되어 있는 각 N×N 잔여 영상 블록에 대한 인트라 예측 모드를 결정하고, 예측블록 생성부(350)는 결정한 인트라 예측 모드와 이전에 복원된 공간 영역의 참조 영상 블록으로부터 N×N 잔여 영상 블록에 대한 공간 영역의 N×N 예측 블록을 생성한다. 합산부(360)는 공간 영역의 N×N 잔여 영상 블록과 공간 영역의 N×N 예측 블록을 합산하여 N×N 복원 영상 블록을 생성한다. 예측 블록 생성부(350)는 합산부(360)에서 생성된 N×N 복원 영상 블록을 저장하고 있으며, 다음 N×N 잔여 영상 블록에 대한 예측 블록을 생성하는데 저장하고 있던 N×N 복원 영상 블록을 참조 영상 블록으로 사용한다.
한편, 예측 참조 데이터 생성부(370)는 N×N 제1 잔여 영상 블록 다음으로 입력되는 N×N 제2 잔여 영상 블록의 예측 데이터를 생성하기 위하여 N×N 제1 잔여 영상 블록의 인트라 예측 모드에 따라 N×N 제2 잔여 영상 블록의 예측 참조 데이터를 생성한다.
N×N 제2 잔여 영상 블록이 입력되는 경우, 예측 데이터 생성부(380)는 예측 모드 결정부(340)에서 결정한 N×N 제2 잔여 영상 블록의 인트라 예측 모드와 N×N 제2 잔여 영상 블록의 예측 참조 데이터를 기반으로 N×N 제2 잔여 영상 블록에 대한 예측 데이터를 생성한다. 예측 데이터 생성부(380)는 변환 영역의 N×N 잔여 영상 블록과 동일한 변환 영역에서 N×N 제2 잔여 영상 블록의 예측 데이터를 생성한다. DC 계산부(390)는 생성된 N×N 제2 잔여 영상 블록의 예측 데이터와 역양자화된 N×N 제2 잔여 영상 블록의 DC 계수를 합하여 N×N 제2 잔여 영상 블록의 복원 블록에 대한 DC 계수를 계산한다. 섬네일 이미지 생성부(395)는 비트스트림을 구성하는 다수의 N×N 잔여 영상 블록에 대한 복원 블록의 DC 계수를 조합하여 영상 프레임의 섬네일 이미지를 생성한다.
도 8은 본 발명의 일 실시예에 따른, H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법을 설명하기 위한 흐름도이다.
도 8을 참고로 살펴보면, 영상 프레임을 구성하는 다수의 N×N 영상 블록들 중 n번째 N×N 영상 블록이 입력되면(S1), 입력된 n번째 N×N 영상 블록의 예측 블록을 생성하는데 사용된 인트라 예측 모드를 판단한다(S2).
입력된 n번째 N×N 영상 블록에 대한 변환 영역의 잔여 영상 블록의 계수와 판단한 인트라 예측 모드에 기초하여 n번째 N×N 영상 블록 다음으로 입력되는 n+1번째 N×N 영상 블록에 대한 변환 영역의 예측 참조 데이터를 생성한다(S3).
n+1번째 N×N 영상 블록에 대한 예측 참조 데이터는 판단한 인트라 예측 모드에 따라 다르게 생성된다. 4×4 영상 블록에서 사용되는 9개의 휘도 인트라 예측 모드에 따라 다르게 생성되는 예측 참조 데이터(T-A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)를 보다 구체적으로 살펴보면, 아래의 수학식(1)은 제0 모드인 수직 모드에 따라 생성되는 예측 참조 데이터이다.
[수학식 1]
T_A = a*(old_T_A + W00 - W10 + W20 - 1/2*W30)
T_B = a*(old_T_B + W01 - W11 + W21 - 1/2*W31)
T_C = a*(old_T_C + W02 - W12 + W22 - 1/2*W32)
T_D = a*(old_T_D + W03 - W13 + W23 - 1/2*W33)
T_I = a*(old_T_A + W00 - old_T_B - W01 + old_T_C + W02 - 1/2*old_T_D - 1/2*W03)
T_J = a*(W10 - W11 + W21 - 1/2*W13)
T_K = a*(W20 - W21 + W22 - 1/2*W23)
T_L = a*(W30 - W31 + W32 - 1/2*W33)
한편, 제1 모드인 수평 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(2)와 같다.
[수학식 2]
T_A = a*(old_T_I + W00 - old_T_J - W10 + old_T_K + W20 - 1/2*old_T_L - 1/2*W30)
T_B = a*(W01 - W11 + W21 - 1/2*W31)
T_C = a*(W02 - W12 + W22 - 1/2*W32)
T_D = a*(W03 - W13 + W23 - 1/2*W33)
T_I = a*(old_T_I + W00 - W01 + W02 - 1/2*W03)
T_J = a*(old_T_J + W10 - W11 + W21 - 1/2*W13)
T_K = a*(old_T_K + W20 - W21 + W22 - 1/2*W23)
T_L = a*(old_T_L + W30 - W31 + W32 - 1/2*W33)
한편, 제2 모드인 DC 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(3)와 같다.
[수학식 3]
T_A = a*(1/2*old_T_A + 1/2*old_T_I + W00 - W10 + W20 - 1/2*W30)
T_B = a*(W01 - W11 + W21 - 1/2*W31)
T_C = a*(W02 - W12 + W22 - 1/2*W32)
T_D = a*(W03 - W13 + W23 - 1/2*W33)
T_I = a*(1/2*old_T_A + 1/2*old_T_I + W00 - W10 + W20 - 1/2*W30)
T_J = a*(W10 - W11 + W21 - 1/2*W13)
T_K = a*(W20 - W21 + W22 - 1/2*W23)
T_L = a*(W30 - W31 + W32 - 1/2*W33)
한편, 제3 모드인 Diagonal down-left모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(4)와 같다.
[수학식 4]
T_A=old_T_A/16-old_T_B/16+old_T_C/16-old_T_D/32+15*old_T_E/16-old_T_F/16-old_T_G/16-old_T_H/32+W00-W10+W20-W30/2
T_B=old_T_A/10-old_T_B/10+old_T_C/10-old_T_D/20-old_T_E/10+3*old_T_F/4-old_T_G/10+W01-W11+W21-W31/2
T_C=old_T_A/16-old_T_B/16+old_T_C/16-old_T_D/32-3*old_T_E/16-old_T_F/16+7*old_T_G/16-old_T_H/32+W02-W12+W22-W32/2
T_D=old_T_A/20-old_T_B/20+old_T_C/20-old_T_D/40-old_T_E/20-old_T_G/20+old_T_K/8+W03-W13+W23-W33/2
T_I=old_T_A/16-old_T_B/16+old_T_C/16-old_T_D/32+15*old_T_E/16-old_T_F/1 6-old_T_G/16-old_T_H/32+W00-W01+W02-W03/2
T_J=old_T_A/10-old_T_B/10+old_T_C/10-old_T_D/20-old_T_E/10+3*old_T_F/4-old_T_G/10+W10-W11+W12-W13/2
T_K=old_T_A/8-old_T_B/16+old_T_C/16-old_T_D/32-old_T_E/16-old_T_F/16+7*old_T_G/16-old_T_H/32+W20-W21+W22-W23/2
T_L=old_T_A/20-old_T_B/20+old_T_C/20-old_T_D/40-old_T_E/20-old_T_G/20+old_T_H/8+W30-W31+W32-W33/2
한편, 제4 모드인 Diagonal down-right모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(5)와 같다.
[수학식 5]
T_A=12*old_M+old_T_A/16+old_T_B/16+old_T_C/16+old_T_D/32+3*old_T_I/4+7*old_T_J/32-old_T_K/8+old_T_L/32+W00-W10+W20-W30/2
T_B=-16*old_M-old_T_A/10-old_T_B/10-old_T_C/10-old_T_D/20+7*old_T_I/20+3*old_T_J/10-9*old_T_K/20-old_T_L/40+W01-W11+W21-W31/2
T_C=4*old_M+old_T_A/16+old_T_B/16+old_T_C/16+old_T_D/32-3*old_T_I/8-9*old_T_J/32+3*old_T_L/32+W02-W12+W22-W32/2
T_D=-old_T_A/20-old_T_B/20-old_T_C/20-old_T_D/40+old_T_I/20-old_T_J/40+3*old_T_K/20+old_T_L/20+W03-W13+W23-W33/2
T_I=12*old_M+3*old_T_A/4+7*old_T_B/32-old_T_C/8+old_T_D/32+old_T_I/16+old_T_J/16+old_T_K/16+old_T_L/32+W00-W01+W02-W03/2
T_J=-16*old_M+7*old_T_A/20-3*old_T_B/10-9*old_T_C/8-old_T_D/40-old_T_I/10-old_T_J/10-old_T_K/10-old_T_L/20+W10-W11+W12-W13/2
T_K=4*old_M-old_T_A/8-9*old_T_B/32+3*old_T_D/32+old_T_I/16+old_T_J/16+old_T_K/16+old_T_L/32+W20-W21+W22-W23/2
T_L=old_T_A/20-old_T_B/40+3*old_T_C/20+old_T_D/20-old_T_I/20-old_T_J/20-old_T_K/20-old_T_L/40+W30-W31+W32-W33/2
한편, 제5 모드인 Vertical right 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(6)와 같다.
[수학식 6]
T_A=12*old_M+old_T_A/2+old_T_B/16+5*old_T_I/16+5*old_T_J/32-old_T_K/16+W00-W10+W20-W30/2
T_B=16*old_M/5-old_T_A/2-9*old_T_B/40+old_T_C/5+3*old_T_D/40+9*old_T_I/20+old_T_J/5-3*old_T_K/20-old_T_L/40+W01-W11+W21-W31/2
T_C=-12*old_M-old_T_A/8-old_T_B/8-old_T_C/4-old_T_D/16+3*old_T_I/16+old_T_J/32-3*old_T_K/16-old_T_L/16+W02-W12+W22-W32/2
T_D=-32*old_M/5+3*old_T_B/40+old_T_C/10-old_T_D/40+old_T_I/10-old_T_J/40-3*old_T_K/5-3*old_T_L/40+W03-W13+W23-W33/2
T_I=old_T_A-3*old_T_B/16-old_T_C/2+old_T_D/16+W00-W01+W02-W03/2
T_J=-21*old_T_B/40+3*old_T_C/10+7*old_T_D/40+W10-W11+W12-W13/2
T_K=old_T_B/4+W20-W21+W22-W23/2
T_L=-3*old_T_B/40-old_T_C/10+old_T_D/40+W30-W31+W32-W33/2
한편, 제6 모드인 Horizontal down 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(7)와 같다.
[수학식 7]
T_A=old_T_I-3*old_T_J/16-old_T_K/2+old_T_L/16+W00-W10+W20-W30/2
T_B=21*old_T_J/40+3*old_T_K/10+7*old_T_L/40+W01-W11+W21-W31/2
T_C=old_T_K/4+W02-W12+W22-W32/2
T_D=-3*old_T_J/40-old_T_K/10+old_T_L/40+W03-W13+W23-W33/2
T_I=12*old_M+5*old_T_A/16+5*old_T_B/32-old_T_C/16+old_T_I/2+5*old_T_J/16+ W00-W01+W02 -W03/2
T_J=16*old_M/5+9*old_T_A/20+old_T_B/5-3*old_T_C/20-old_T_D/40-old_T_I/2-9*old_T_J/40+old_T_K/5+3*old_T_L/40+W10-W11+W12-W13/2
T_K=-12*old_M+3*old_T_A/16+old_T_B/32-3*old_T_C/16-old_T_D/40-old_T_J/8-old_T_K/4-old_T_L/16+W20-W21+W22-W23/2
T_L=-32*old_M+5*old_T_A/10-old_T_B/40-old_T_C/5-old_T_D/40+3*old_T_J/40+old_T_K/10-old_T_L/40+W30-W31+W32-W33/2
한편, 제7 모드인 Vertical left 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(8)와 같다.
[수학식 8]
T_A=old_T_A/2-5*old_T_B/16+old_T_E/2-5*old_T_F/16+W00-W10+W20-W30/2
T_B=old_T_A/2-9*old_T_B/40-old_T_C/5+3*old_T_D/40-old_T_E/2-9*old_T_F/40+old_T_G/5+3*old_T_H/40+W01-W11+W21-W31/2
T_C=old_T_B/8-old_T_C/4+old_T_D/16-old_T_F/8-7*old_T_G/4-old_T_H/16+W02-W12+W22-W32/2
T_D=3*old_T_B/40-old_T_C/10-old_T_D/40+3*old_T_F/40+old_T_G/10-old_T_K/40+W03-W13+W23-W33/2
T_I=3*old_T_A/16-3*old_T_B/16+3*old_T_C/16-3*old_T_D/32+13*old_T_E/16+9*old_T_F/16-old_T_G/16-old_T_H/32+W00-W01+W02-W03/2
T_J=old_T_A/4-old_T_B/4+old_T_C/4-old_T_D/8-old_T_E/4+old_T_F/40+9*old_T_G/20+old_T_H/32+W10-W11+W12-W13/2
T_K=old_T_A/16-old_T_B/16+old_T_C/16-old_T_D/32-old_T_E/16-old_T_F/8-old_T_G/16+3*old_T_H/32+W20-W21+W22-W23/2
T_L=3*old_T_F/40+old_T_G/10-old_T_H/40+W30-W31+W32-W33/2
한편, 제8 모드인 Horizontal up 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(9)와 같다.
[수학식 9]
T_A=old_T_I-old_T_J+old_T_K-old_T_L/2+W00-W10+W20-W30/2
T_B=W01-W11+W21-W31/2
T_C=W02-W12+W22-W32/2
T_D=W03-W13+W23-W33/2
T_I=old_T_I-13*old_T_J/16+old_T_K/2-old_T_L/4+W00-W01+W02-W03/2
T_J=11*old_T_J/40-7*old_T_K/10+13*old_T_L/40+W10-W11+W12-W13/2
T_K=old_T_J/8-old_T_K/4+old_T_L/16+W20-W21+W22-W23/2
T_L=3*old_T_J/40-old_T_K/10-old_T_D/40+W30-W31+W32-W33/2
수학식(1) 내지 수학식(9)에서 입력된 n번째 4×4 영상 블록에 대한 잔여 영상 블록(W)의 계수는 아래의 수학식(10)과 같다.
[수학식 10]
Figure 112009016103251-pat00015
삭제
4개의 16×16 휘도 예측 모드와 4개의 8×8 색차 예측 모드는 입력된 16×16 영상 블록 또는 8×8 영상 블록의 휘도 예측 모드 또는 색차 예측 모드가 결정되면, 16×16 영상 블록 또는 8×8 영상 블록을 4×4 영상 블록으로 분할하고 분할한 각 4×4 영상 블록을 결정된 예측 모드에 따라 위에서 설명한 수학식(1) 내지 수학식(9)를 이용하여 예측 참조 데이터를 생성한다.
S3 단계에서 생성되는 n+1번째 N×N 영상 블록에 대한 예측 참조 데이터(T_A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)는 저장되며(S4), 저장된 n+1번째 N×N 영상 블록에 대한 예측 참조 데이터(T_A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)는 n+1번째 N×N 영상 블록이 입력되는 경우 n+1번째 N×N 영상 블록에 대한 예측 데이터를 생성하는데 사용된다.
한편, n번째 N×N 영상 블록에 대한 예측 데이터를 생성하기 위하여 미리 생성되어 저장되어 있는 n번째 N×N 영상 블록에 대한 예측 참조 데이터(old_T-A, old_T_B, old_T_C, old_T_D, old_T_I, old_T_J, old_T_K, old_T_L)를 판독하고(S5), 판독한 n번째 N×N 영상 블록에 대한 예측 참조 데이터(old_T-A, old_T_B, old_T_C, old_T_D, old_T_I, old_T_J, old_T_K, old_T_L)와 판단한 n번째 N×N 영상 블록의 인트라 예측 모드에 따라 n번째 N×N 영상 블록의 예측 데이터(E)를 생성한다.
생성한 예측 데이터(E)는 n번째 N×N 영상 블록의 변환 영역의 예측 블록의 DC 계수에 상응하는 영상 데이터이다. 생성한 예측 데이터(E)는 n번째 N×N 영상 블록의 인트라 예측 모드에 따라 다르게 생성되며, 인트라 예측 모드인 제0 모드 내지 제2 모드에 따라 생성되는 예측 데이터의 일 예는 각각 old_T-A, old_T_I, 1/2×old_T-A+1/2old_T_I이다.
n번째 N×N 영상 블록에 대한 예측 참조 데이터(old_T-A, old_T_B, old_T_C, old_T_D, old_T_I, old_T_J, old_T_K, old_T_L)은 n+1번째 N×N 영상 블록에 대한 예측 참조 데이터(T_A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)와 동일한 방식으로 생성되어 저장된다.
생성한 예측 데이터(E)와 n번째 N×N 영상 블록에 대한 잔여 영상 블록의 DC 계수를 이용하여 n번째 N×N 영상 블록의 DC 계수를 계산한다(S7). n번째 N×N 영상 블록에 대한 DC 계수는 아래의 수학식(11)과 같이 계산된다.
[수학식 11]
n번째 N×N 영상 블록의 DC 계수= a×(E + W00)
여기서 a는 스케일링 계수이며, W00 n번째 N×N 영상 블록에 대한 잔여 영상 블록의 DC 계수이다.
수학식(11)에서 알 수 있듯이, 입력된 n번째 N×N 영상 블록의 DC 계수를 구하기 위하여, n번째 N×N 영상 블록에 대한 변환 영역의 예측 블록의 계수 전체를 구할 필요가 없으며, n번째 N×N 영상 블록에 대한 변환 영역의 예측 블록을 구성하는 계수 중 n번째 N×N 영상 블록의 DC 계수를 계산하는데 사용되는 영상 데이터, 즉 예측 데이터만을 계산하여 n번째 N×N 영상 블록의 DC 계수를 직접 계산할 수 있다.
바람직하게, 1개의 영상 프레임을 구성하는 영상 블록들 중 첫 영상 블록의 경우에는 T_A, T_B, T_C, T_D, T_I, T_J, T_K, T_L의 예측 참조 데이터를 0으로 하고 DC계수는 아래의 수학식(12)와 같이 계산한다.
[수학식 12]
DC 계수 = a×(8192 + W00)
영상 프레임을 구성하는 모든 N×N 영상 블록에 대하여 DC 계수를 계산하였는지 판단하여(S8), 모든 N×N 영상 블록의 DC 계수를 계산하지 않았으면 다음으로 입력되는 N×N 영상 블록에 대한 DC 계수를 위에서 설명한 S1 단계 내지 S7 단계를 반복하여 모든 N×N 영상 블록의 DC 계수를 계산한다(S10). S8단계에서 영상 프레임을 구성하는 모든 N×N 영상 블록의 DC 계수를 계산하였다고 판단하는 경우, 모 든 N×N 영상 블록의 DC 계수를 이용하여 영상 프레임의 섬네일 이미지를 생성한다(S9).
한편, 상술한 본 발명의 실시 예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장 매체를 포함한다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
도 1은 H.264 기반에 따른 영상 이미지의 부호화 장치를 설명하기 위한 기능 블록도를 도시하고 있다.
도 2는 H.264 기반에 따른 영상 이미지의 복호화 장치를 설명하기 위한 기능 블록도이다.
도 3은 공간 영역의 4x4 휘도블록의 인트라 예측 모드를 설명하기 위한 도면이다.
도 4는 공간 영역의 16x16 휘도블록과 8x8 색차블록 예측 모드를 설명하기 위한 도면이다.
도 5는 핸드폰에서 사용하는 섬네일 이미지의 일 예를 도시하고 있다.
도 6은 본 발명의 일 실시예에 따라 H.264 표준의 영상 부호화 장치에서 입력 또는 저장되어 있는 영상 프레임으로부터 섬네일 이미지를 생성하는 장치의 기능 블록도를 도시하고 있다.
도 7은 본 발명의 일 실시예에 따라 H.264 표준의 영상 복호화 장치에서 수신 또는 저장되어 있는 영상 프레임으로부터 섬네일 이미지를 생성하는 장치의 기능 블록도를 도시하고 있다.
도 8은 본 발명의 일 실시예에 따른, H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법을 설명하기 위한 흐름도이다.
도 9는 변환 영역의 예측 참조 데이터 공간 영역의 참조 픽셀 사이의 관계를 설명하기 위한 도면이다.

Claims (10)

  1. 영상 프레임을 구성하는 H.264 기반의 N×N 영상 블록들로부터 섬네일 이미지를 생성하는 방법에 있어서,
    (a) N×N 제1 영상 블록에 대한 변환 영역의 잔여 영상 블록 또는 상기 N×N 제1 영상 블록에 대한 변환 영역의 제1 예측 참조 데이터를 이용하여 상기 N×N 제1 영상 블록의 인트라 예측 모드에 따라 상기 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록에 대한 변환 영역의 제2 예측 참조 데이터를 생성하는 단계;
    (b) 상기 N×N 제2 영상 블록에 대한 공간 영역의 예측 블록을 생성하는데 사용되는 인트라 예측 모드를 판단하는 단계;
    (c) 상기 생성한 제2 예측 참조 데이터와 상기 판단한 인트라 예측 모드로부터 상기 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록과 동일한 변환 영역의 예측 데이터를 생성하는 단계;
    (d) 상기 생성한 예측 데이터와 상기 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록의 DC 계수를 합하여 상기 N×N 제2 영상 블록에 대한 DC 계수를 계산하는 단계; 및
    (e) 상기 영상 프레임을 구성하는 모든 N×N 영상 블록들에 대해 상기 (a) 단계 내지 (d) 단계를 반복 실행하여 상기 영상 프레임을 구성하는 모든 N×N 영상 블록들에 대한 DC 계수를 추출하고, 상기 추출한 DC 계수들로부터 상기 영상 프레임의 섬네일 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 섬네일 이미지의 생성 방법.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서, 상기 예측 데이터는
    상기 N×N 제2 영상 블록에 대한 인트라 예측 모드에 기초하여 생성되는 것을 특징으로 하는 섬네일 이미지의 생성 방법.
  5. 제 4 항에 있어서, 상기 DC 계수는
    아래의 수학식(1)에 의해 계산되며,
    [수학식 1]
    Figure 112009016103251-pat00016
    여기서 a는 스케일 계수이며, E는 상기 N×N 제2 영상 블록에 대한 예측 데이터이며, W00는 상기 N×N 제2 영상 블록에 대한 잔여 영상 블록의 DC계수인 것을 특징으로 하는 섬네일 이미지의 생성 방법.
  6. 제 5 항에 있어서, 상기 N×N 제1 영상 블록이 상기 영상 프레임을 구성하는 영상 블록들 중 첫 영상 블록인 경우,
    상기 첫 영상 블록에 대한 예측 참조 데이터의 값은 0으로 설정되며,
    상기 첫 영상 블록에 대한 DC 계수는
    [수학식 2]
    Figure 112009016103251-pat00017
    상기 수학식 (2)에 의해 계산되는 것을 특징으로 하는 섬네일 이미지의 생성 방법.
  7. 영상 프레임을 구성하는 H.264 기반의 N×N 영상 블록으로부터 섬네일 이미지를 생성하는 장치에 있어서,
    N×N 제1 영상 블록에 대한 변환 영역의 잔여 영상 블록 또는 상기 N×N 제1 영상 블록에 대한 변환 영역의 제1 예측 참조 데이터를 이용하여 상기 N×N 제1 영상 블록의 인트라 예측 모드에 따라 상기 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록에 대한 변환 영역의 제2 예측 참조 데이터를 생성하는 예측 참조 데이터 생성부;
    상기 N×N 제2 영상 블록의 예측 블록을 생성하는데 사용된 공간 영역의 인트라 예측 모드와 상기 생성한 제2 예측 참조 데이터로부터 상기 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록과 동일한 변환 영역의 예측 데이터를 생성하는 예측 데이터 생성부;
    상기 생성한 예측 데이터와 상기 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록의 DC 계수를 합하여 상기 N×N 제2 영상 블록의 DC 계수를 계산하는 DC 계산부; 및
    상기 영상 프레임을 구성하는 모든 N×N 영상 블록들에 대한 상기 DC 계수들을 추출하고, 상기 추출한 DC 계수들로부터 상기 영상 프레임의 섬네일 이미지를 생성하는 섬네일 이미지 생성부를 포함하는 것을 특징으로 하는 섬네일 이미지의 생성 장치.
  8. 제 7 항에 있어서,
    상기 예측 데이터는 상기 N×N 제2 영상 블록에 대한 인트라 예측 모드에 기초하여 생성되는 것을 특징으로 하는 섬네일 이미지의 생성 장치.
  9. 제 8 항에 있어서, 상기 N×N 제2 영상 블록의 DC 계수는
    아래의 수학식(3)에 의해 계산되며,
    [수학식 3]
    Figure 112009016103251-pat00018
    여기서 a는 스케일 계수이며, E는 상기 N×N 제2 영상 블록에 대한 예측 데이터이며, W00는 상기 N×N 제2 영상 블록에 대한 잔여 영상 블록의 DC계수인 것을 특징으로 하는 섬네일 이미지의 생성 장치.
  10. 제 9 항에 있어서, 상기 N×N 제1 영상 블록이 상기 영상 프레임을 구성하는 영상 블록들 중 첫 영상 블록인 경우,
    상기 첫 영상 블록에 대한 예측 참조 데이터의 값은 0으로 설정되며,
    상기 첫 영상 블록에 대한 DC 계수는
    [수학식 4]
    Figure 112009016103251-pat00019
    상기 수학식 (4)에 의해 계산되는 것을 특징으로 하는 섬네일 이미지의 생성 장치.
KR1020080079237A 2008-08-13 2008-08-13 H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 KR101004562B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080079237A KR101004562B1 (ko) 2008-08-13 2008-08-13 H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080079237A KR101004562B1 (ko) 2008-08-13 2008-08-13 H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법

Publications (2)

Publication Number Publication Date
KR20100020580A KR20100020580A (ko) 2010-02-23
KR101004562B1 true KR101004562B1 (ko) 2011-01-03

Family

ID=42090548

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080079237A KR101004562B1 (ko) 2008-08-13 2008-08-13 H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법

Country Status (1)

Country Link
KR (1) KR101004562B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101052390B1 (ko) * 2008-08-13 2011-07-28 경희대학교 산학협력단 H.264 표준의 영상 프레임에서 섬네일 이미지를 생성하는 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060015075A (ko) * 2004-08-13 2006-02-16 엘지전자 주식회사 디지털 방송 수신기 및 타 채널의 비디오 정보 검색 방법
KR20060022894A (ko) * 2004-09-08 2006-03-13 엘지전자 주식회사 이동 단말기에서의 썸네일 영상 생성 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060015075A (ko) * 2004-08-13 2006-02-16 엘지전자 주식회사 디지털 방송 수신기 및 타 채널의 비디오 정보 검색 방법
KR20060022894A (ko) * 2004-09-08 2006-03-13 엘지전자 주식회사 이동 단말기에서의 썸네일 영상 생성 장치 및 방법

Also Published As

Publication number Publication date
KR20100020580A (ko) 2010-02-23

Similar Documents

Publication Publication Date Title
US20230396768A1 (en) Coding unit quantization parameters in video coding
US10623749B2 (en) Video encoding apparatus, video decoding apparatus, and video decoding method for performing intra-prediction based on directionality of neighboring block
US9426491B2 (en) Image encoding/decoding method and apparatus using block transformation
US20130230104A1 (en) Method and apparatus for encoding/decoding images using the effective selection of an intra-prediction mode group
KR101700410B1 (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
EP2983362A1 (en) Interlayer video encoding method and apparatus and interlayer video decoding method and apparatus for compensating luminance difference
KR20170125154A (ko) 곡선 화면 내 예측을 사용하는 비디오 복호화 방법 및 장치
US8666182B2 (en) Method for generating thumbnail image in image frame of the H.264 standard
KR20210103562A (ko) 인트라 예측을 위한 교차-성분 선형 모델링의 방법 및 장치
KR101004562B1 (ko) H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법
KR20100009718A (ko) 예측 방향을 이용한 영상 부호화/복호화 장치 및 방법
KR101035455B1 (ko) H.264 표준에서 섬네일 이미지를 생성하는 장치
KR101562343B1 (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
AU2015255215B2 (en) Image processing apparatus and method
KR101052390B1 (ko) H.264 표준의 영상 프레임에서 섬네일 이미지를 생성하는 방법
US20240214581A1 (en) Video encoding apparatus, video decoding apparatus, and video decoding method for performing intra-prediction based on directionality of neighboring block
KR101810198B1 (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
KR101700411B1 (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
KR101005394B1 (ko) H.264/avc 인코더에서 인트라 예측 블록을 생성하는 방법
KR20190084929A (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
KR20190091431A (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
KR20190004246A (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
KR20170140805A (ko) 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치
KR20110106164A (ko) H.264/avc 표준에 따라 부호화된 영상 프레임의 비트스트림으로부터 섬네일 이미지를 생성하는 방법
Ye Fast algorithms for H. 264 encoding and transcoding

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131204

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20141203

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee