KR101004562B1 - H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 - Google Patents
H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 Download PDFInfo
- Publication number
- KR101004562B1 KR101004562B1 KR1020080079237A KR20080079237A KR101004562B1 KR 101004562 B1 KR101004562 B1 KR 101004562B1 KR 1020080079237 A KR1020080079237 A KR 1020080079237A KR 20080079237 A KR20080079237 A KR 20080079237A KR 101004562 B1 KR101004562 B1 KR 101004562B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- block
- old
- image block
- prediction
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/103—Selection of coding mode or of prediction mode
- H04N19/11—Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/102—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
- H04N19/12—Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
- H04N19/122—Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Discrete Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
본 발명은 영상 이미지의 섬네일 이미지를 생성하는 방법에 관한 것으로, 보다 구체적으로 영상 프레임을 구성하는 H.264 기반의 영상 블록들에 대한 변환 영역의 잔여 영상 블록의 DC 계수와 예측 데이터를 이용하여 영상 블록의 DC 계수를 계산하고, 계산한 영상 블록의 DC 계수로부터 영상 프레임의 섬네일 이미지를 간단하게 생성할 수 있는 방법 및 그 장치에 관한 것이다.
본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터로부터 직접 영상 블록의 DC 계수를 계산함으로써, 영상 이미지를 구성하는 공간 영역의 영상 블록 또는 변환 영역의 영상 블록을 모두 복원할 필요없이 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성할 수 있다. 또한, 본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터로부터 직접 영상 블록의 DC 계수를 계산하여 영상 이미지의 섬네일 이미지를 생성함으로써, 다수의 영상 이미지들이 저장되어 있는 멀티미디어 단말기에서 섬네일 이미지를 통해 특정 영상 이미지를 빠르게 검색할 수 있다.
H.264, 섬네일 이미지, DC 계수, 인트라 예측 모드, 예측 블록
Description
본 발명은 영상 이미지의 섬네일 이미지를 생성하는 방법에 관한 것으로, 보다 구체적으로 영상 프레임을 구성하는 H.264 기반의 영상 블록들에 대한 변환 영역의 잔여 영상 블록의 DC 계수와 예측 데이터를 이용하여 영상 블록의 DC 계수를 계산하고, 계산한 영상 블록의 DC 계수로부터 영상 프레임의 섬네일 이미지를 간단하게 생성할 수 있는 방법 및 그 장치에 관한 것이다.
영상을 중심으로 여러 형태의 정보를 결합하여 저장하거나 전송하는 소위 멀티미디어가 널리 사용되고 있다. 예를 들어, 고속의 광케이블이 일반 가정까지 도달하여 안방에서도 대형 스크린과 하이파이브 입체 음향을 갖는 고선명 TV를 통해 영화관에서 보는 고화질의 디지털 방송을 시청할 수 있으며 화상전화를 통해 멀리 떨어져 있는 사람과 얼굴을 마주보며 통화를 하기도 한다.
이러한 다양한 멀티미디어 단말기에서 송수신되는 영상 데이터를 저장하고 전송하기 위해 다양한 압축 방식이 개발되어 사용되고 있다. MPEG, H.26x는 ISO, ITU 등과 같은 국제 표준화 관련 기구에서 개발되어 발표된 동영상 압축 표준안의 일 예이다.
H.264 표준안은 1997년 이후 ITU-T(전기통신 표준화부분) 주관 하에 차세대 동영상 압축 방식으로 개발되어 온 동영상 표준 부호화 방식으로, 기존의 MPEG2보다는 2~3배의 높은 압축률, MPEG4보다는 1.5~2배의 높은 압축률을 보이는 것으로 입증되고 있다. H.264 표준안에서 지원하는 데이터의 전송률과 픽쳐 사이즈의 범위는 매우 넓어 모바일 장치와 다이얼업 장치를 위한 낮은 전송률과 낮은 프레임율부터 HDTV 이상의 해상도를 포함하는 영상 이미지를 압축할 수 있는 장점을 가진다. 따라서 H.264 표준안은 앞으로 다양한 멀티미디어 단말기에 널리 응용되어 사용될 것으로 예상하고 있으며, H.264 표준에 대한 많은 개선안이 개발되어 제안되고 있다.
도 1과 도 2는 H.264 표준에 따른 영상 이미지의 부호화 장치와 복호화 장치의 일 예를 설명하기 위한 기능 블록도이다.
먼저, 도 1을 참고로 H.264 표준에 따라 영상 이미지의 부호화 장치를 보다 구체적으로 살펴보면, 예측 모드 판단부(11)는 입력된 공간 영역의 N×N 영상 블록에 대한 인트라 예측 모드를 결정한다. 예측 블록 생성부(12)는 결정한 인트라 예측 모드에 따라, 입력된 공간 영역의 N×N 영상 블록의 잔여 영상 블록을 생성하는데 사용하는 예측 블록을 생성한다.
차감부(13)는 입력된 공간 영역의 N×N 영상 블록과 생성된 예측 블록을 서로 차감하여 N×N 잔여 영상 블록을 생성한다. 변환부(14)는 생성된 공간 영역의 N×N 잔여 영상 블록을 블록 기반의 변환 알고리즘인 DCT를 사용하여 변환 영역의 N×N 잔여 영상 블록으로 변환한다.
통상적으로 공간 영역의 영상 이미지를 변환 영역의 영상 이미지로 변환시키기 위하여 블록 기반의 변환 알고리즘을 사용한다. 블록 기반의 변환 알고리즘이란 공간 영역의 이미지를 N×N 크기의 영상 블록 또는 N×N 크기의 잔여 영상 블록과 같이 블록 단위로 변환하여 영상 데이터를 압축하는 기법으로, Karhunen-Loeve Transform(KLT), Singular Value Decomposition(SVD), Discrete Cosine Transform(DCT), 정수 DCT 등이 사용된다. 블록 기반의 변환 알고리즘에 의해 변환된 변환 영역의 영상 데이터는 서로 상관관계가 없으며 영상 데이터가 저주파 성분에 밀집된다는 특징이 있다.
양자화부(15)는 일정 양자화 계수로 변환 영역의 N×N 잔여 영상 블록을 양자화하며 부호화부(19)는 예측 부호화, 가변 길이 부호화, 산술 부호화 등의 부호화 방식 중 하나의 방식에 따라 양자화된 N×N 잔여 영상 블록을 부호화하여 비트스트림을 생성한다.
한편, 양자화부(15)에서 출력되는 양자화된 N×N 잔여 영상 블록은 역양자화부(16)에서 역양자화된다. 역변환부(17)는 역양자화된 N×N 잔여 영상 블록을 공간 영역으로 역변환하여 공간 영역의 N×N 잔여 영상 블록을 생성한다. 생성된 공간 영역의 잔여 영상 블록은 합산부(18)에서 예측 블록과 합산되어 N×N 영상 블록 다음으로 입력되는 N×N 영상 블록의 예측 블록을 생성하는데 사용되는 참조 영상 블록을 생성한다.
위에서 살펴본 바와 같이, H.264 표준은 N×N 잔여 영상 블록을 이용하여 공간 영역의 N×N 영상 블록을 압축하도록 규정하고 있는데, 공간 영역의 N×N 영상 블록으로부터 N×N 잔여 영상 블록을 생성하기 위하여 사용되는 예측 블록은 인트라 예측 모드를 통해 결정된다. H.264 표준에서 휘도 4×4 영상 블록에 대해서는 9개의 인트라 예측 모드가 정의되어 있으며, 휘도 16×16 영상 블록에 대해서는 4개의 인트라 예측 모드가 정의되어 있고, 색차 8x8 영상 블록에 대해 4개의 인트라 예측 모드가 정의되어 있다.
도 3을 참고로 4×4 영상 블록에서 사용되는 9개의 인트라 예측 모드를 보다 구체적으로 살펴보면 다음과 같다.
1) 제0 예측 모드(vertical)
- Vertical mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀들을 이용하여 예측하는 모드이다.
- A 픽셀은 블록의 첫 column 부분의 4개의 픽셀에 채워지고 B 픽셀은 블록의 두 번째 column 부분의 4개의 픽셀에 채워지며, C, D 픽셀도 각각 블록 column에 해당하는 4개의 픽셀에 채워진다.
2) 제1 예측 모드(horizontal)
- Horizontal mode는 현재 부호화하고자 하는 블록의 왼쪽 Z 영상 블록의 4픽셀들을 이용하여 예측하는 모드이다.
- I 픽셀은 블록의 첫 row 부분의 4개의 픽셀에 채워지고 J 픽셀은 블록의 두 번째 row 부분의 4개의 픽셀에 채워지며, K, L 픽셀도 각각 블록 row에 해당하는 4개의 픽셀에 채워진다.
3) 제2 예측 모드(DC)
- DC mode는 현재 부호화하고자 하는 블록의 왼쪽 Z 영상 블록의 4픽셀(I,J,K,L)과 위쪽 X 영상 블록(A,B,C,D)의 4픽셀의 평균값으로 예측되는 모드이다.
4) 제3 예측 모드(diagonal down-left)
- Diagonal down-left mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀과 위/오른쪽 Y 영상 블록을 이용하여 예측하는 모드이다.
- 부호화하고자 하는 블록의 좌측 하단과 우측 상단 사이의 45도 각도로 채워진다.
5) 제4 예측 모드(diagonal down-right)
- Diagonal down-right mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀, 위 왼쪽 S 영상 블록의 1픽셀(Q)과 왼쪽 Z 영상 블록의 4픽셀을 이용하여 예측하는 모드이다.
- 부호화하고자 하는 블록의 우측 하단 45도 방향으로 채워진다.
6) 제5 예측 모드(vertical-right)
- Vertical-right mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀, 위 왼쪽 S 영상 블록의 1픽셀(Q)과 왼쪽 Z 영상 블록의 4픽셀을 이용하여 예측하는 모드이다.
- 수직의 오른쪽 약 26.6도 방향으로 채워진다. (넓이/높이=1/2)
7) 제6 예측 모드(horizontal-down)
- Horizontal-down mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀, 위 왼쪽 S 영상 블록의 1픽셀(Q)과 왼쪽 Z 영상 블록의 4픽셀을 이용하여 예측하는 모드이다.
- 수평의 아래 약 26.6도 방향으로 채워진다.
8) 제7 예측 모드(vertical-left)
- Vertical-left mode는 현재 부호화하고자 하는 블록의 위쪽 X 영상 블록의 4픽셀, 위 오른쪽 Y 영상 블록의 1픽셀(E)을 이용하여 예측하는 모드이다.
- 수직의 왼쪽 약 26.6도 방향으로 채워진다.
9) 제8 예측 모드(horizontal-up)
- Horizontal-up mode는 현재 부호화하고자 하는 블록의 왼쪽 Z 영상 블록의 4픽셀을 이용하여 예측하는 모드이다.
- 수평의 위쪽 약 26.6도 방향으로 보간된다.
도 4를 참고로 16×16 블록 모드에서 사용되는 4개의 인트라 예측 모드를 보다 구체적으로 살펴보면 다음과 같다.
1) 제0 예측 모드(Vertical)
- Vertical mode는 휘도 4x4예측모드의 제0 예측 모드와 같다. 단지 4x4블록단위와 16x16블록단위의 차이를 제외하고 예측 부호화 방법은 같다.
2) 제1 예측 모드(Horizontal)
- Horizontal mode는 휘도 4x4예측모드의 제1 예측 모드와 같다. 단지 4x4블록단위와 16x16블록단위의 차이를 제외하고 예측 부호화 방법은 같다.
3) 제2 예측 모드(DC)
- DC mode는 휘도 4x4 예측모드의 제2 예측 모드와 같다. 단지 4x4블록단위와 16x16블록단위의 차이를 제외하고 예측 부호화 방법은 같다.
4) 제 3 예측 모드(Plane)
- Plan mode는 상단 블록의 화소와 좌측 블록의 화소를 대각선방향(45도)으로 보간해서 부호화한다.
한편, 색차 영상에서 8x8 영상 블록에 대해 4개의 인트라 예측 모드는 휘도 16x16 모드와 같으며, 단지 8x8블록단위와 16x16블록단위의 차이를 제외하고 부호화 방식은 같다.
도 2를 참고로 H.264 표준에 따른 영상 이미지의 복호화 장치를 보다 구체적으로 살펴보면, 디코딩부(30)는 수신한 비트스트림을 복호화한다. 수신한 비트스트림은 영상 프레임을 구성하는 다수 영상 블록의 잔여 영상 블록에 대한 영상 데이터를 저장하고 있으며 디코딩부(30)는 수신한 비트스트림에서 각 잔여 영상 블록 단위로 구분하여 복호화한다. 역양자화부(31)는 복호화된 각 잔여 영상 블록을 역양자화 계수로 역양자화한다. 역변환부(32)는 역양자화된 각 잔여 영상 블록을 역변환하여 변환 영역의 잔여 영상 블록을 공간 영역의 잔여 영상 블록으로 변환한다. 예측 모드 판단부(33)는 비트스트림에 저장되어 있는 각 잔여 영상 블록에 대한 인트라 예측 모드를 판단하고, 공간 영역의 예측블록 생성부(34)는 판단한 인트라 예측 모드로부터 공간 영역의 예측 블록을 생성한다. 합산부(36)는 공간 영역의 잔여 영상 블록과 생성된 공간 영역의 예측 블록을 합산하여 복원 블록을 생성 한다. 한편, 생성된 복원 블록은 다시 예측 블록 생성부(34)로 입력되며, 예측 블록 생성부(34)는 다음 잔여 영상 블록에 대한 예측 블록을 생성하는데 입력된 복원 블록을 참조 영상 블록으로 사용한다.
한편, 핸드폰, 디지털 TV 등과 같은 멀티미디어 단말기는 저장하고 있는 영상 이미지를 미리 보기 위한 작은 사이즈의 이미지(이하, '섬네일 이미지'라 언급한다)를 통해 멀티미디어 단말기에 저장되어 있는 영상 데이터를 검색하는데 사용한다.
도 5는 핸드폰에서 사용하는 섬네일 이미지의 일 예를 도시하고 있다. 도 5에 도시되어 있는 섬네일 이미지를 참고로 살펴보면, 핸드폰에 저장되어 있는 다수의 영상 또는 동영상 이미지들이 디스플레이부에 섬네일 이미지로 미리 디스플레이된다. 사용자는 디스플레이된 섬네일 이미지를 통해 재생하고자 하는 영상 또는 동영상을 검색하고 검색한 동영상 중 소정 동영상을 선택하면, 선택한 동영상은 원래 사이즈의 이미지로 재생된다.
원영상 이미지에서 섬네일 이미지를 생성하기 위한 통상적인 방법은 크게 2가지로 나누어 볼 수 있다. 첫 번째 방법은 공간 영역의 영상 이미지를 다운 샘플링하여 영상 이미지의 섬네일 이미지를 생성하는 것이다. 두 번째 방법은 영상 이미지를 구성하는 변환 영역의 각 영상 블록에서 DC 계수만을 추출하여 원영상 이미지의 섬네일 이미지를 생성하는 것이다. 변환 영역의 각 영상 블록에서 상단 좌측에 존재하는 DC 계수는 공간 영역의 각 영상 블록에 대한 평균값으로, DC 계수만을 추출하여 생성된 영상 이미지는 원래 영상 이미지의 크기를 1/N만큼 다운 샘플링한 것과 동일하다.
위에서 설명한 첫 번째 방법으로 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성하기 위해서는 변환 영역의 잔여 영상 블록을 공간 영역으로 역변환하고 역변환된 공간 영역의 잔여 영상 블록과 공간 영역의 예측 블록을 합하여 공간 영역의 복원 블록을 생성한 후, 다시 복원 블록을 다운 샘플링하여 영상 이미지의 섬네일 이미지를 생성한다. 따라서 첫 번째 방법은 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성하기 위하여 변환 영역과 공간 영역으로 영상 이미지를 반복하여 변환하여야 한다는 문제점을 가진다.
또한, 위에서 설명한 두 번째 방법으로 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성하기 위해서는 H.264 기반에서 사용되는 예측 블록이 주변 영상 블록을 이용하여 생성되므로 모든 영상 블록이 복원된 후, 각 영상 블록에 대한 인트라 예측 모드에 따라 변환 영역의 예측 블록을 생성한다. 다시 변환 영역의 예측 블록과 변환 영역의 잔여 영상 블록을 합하여 복원된 영상 블록에 존재하는 DC 계수를 추출하여 섬네일 이미지를 생성할 수 있다.
따라서 두 번째 방법도 영상 이미지의 섬네일 이미지를 생성하는데 복잡한 데이터 처리 과정을 거쳐야 하며 모든 영상 블록의 복원 후에 섬네일 이미지의 생성이 가능하므로 섬네일 이미지를 생성하는데 오랜 시간이 소요된다는 문제점을 가진다. 더욱이 두 번째 방법에서 영상 블록의 DC 계수를 추출하기 위하여 변환 영역의 예측 블록 계수들 중 DC 계수만 사용되지만, 실제 변환 영역의 예측 블록을 구성하는 모든 계수들을 모두 계산하므로 필요없이 계산량이 증가한다는 문제점을 가진다.
본 발명이 이루고자 하는 목적은 위에서 언급한 종래 섬네일 이미지의 생성 방법이 가지는 문제점을 해결하기 위한 것으로, 본 발명이 이루고자 하는 목적은 변환 영역의 예측 블록을 구성하는 계수들 중 DC 계수만을 계산하고 계산한 예측 블록의 DC 계수로부터 영상 블록의 DC 계수를 직접 계산하여 섬네일 이미지를 생성하는 방법을 제공하는 것이다.
본 발명이 이루고자 하는 다른 목적은 멀티미디어 단말기에 저장되어 있는 영상 이미지를 섬네일 이미지를 통해 빠르게 검색할 수 있도록 도와주는 섬네일 이미지의 생성 방법을 제공하는 것이다.
본 발명의 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 섬네일 이미지의 생성 방법은 N×N 제1 영상 블록에 대한 변환 영역의 잔여 영상 블록 또는 N×N 제1 영상 블록에 대한 제1 예측 참조 데이터를 이용하여 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록에 대한 제2 예측 참조 데이터를 생성하는 단계와, N×N 제2 영상 블록에 대한 공간 영역의 예측 블록을 생성하는데 사용되는 인트라 예측 모드를 판단하는 단계와, 생성한 제2 예측 참조 데이터와 판단한 인트라 예측 모드로부터 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록과 동일한 변환 영역의 예측 데이터를 생성하는 단계와, 생성한 예측 데이터와 N×N 제2 잔여 영상 블록의 DC 계수를 합하여 N×N 제2 영상 블록에 대한 DC 계수를 계산하 는 단계를 포함한다.
본 발명의 목적을 달성하기 위하여, 본 발명의 일 실시예에 따른 섬네일 이미지의 생성 장치는 N×N 제1 영상 블록에 대한 변환 영역의 잔여 영상 블록 또는 N×N 제1 영상 블록에 대한 제1 예측 참조 데이터를 이용하여 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록에 대한 제2 예측 참조 데이터를 생성하는 예측 참조 데이터 생성부와, N×N 제2 영상 블록에 대한 인트라 예측 모드와 생성한 제2 예측 참조 데이터로부터 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록과 동일한 변환 영역의 예측 데이터를 생성하는 예측 데이터 생성부와, 생성한 예측 데이터와 N×N 제2 잔여 영상 블록의 DC 계수를 합하여 N×N 제2 영상 블록의 DC 계수를 계산하는 계산부 및 영상 프레임을 구성하는 N×N 영상 블록들에 대한 DC 계수를 추출하여 영상 프레임의 섬네일 이미지를 생성하는 섬네일 이미지 생성부를 포함한다.
본 발명에 따른 섬네일 이미지의 생성 방법은 아래와 같은 다양한 효과들을 가지고 있다.
첫째, 본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터로부터 직접 영상 블록의 DC 계수를 계산함으로써, 영상 프레임을 구성하는 공간 영역의 영상 블록 또는 변환 영역의 영상 블록을 모두 복원할 필요없이 H.264 표준의 영상 이미지에 대한 섬네일 이미지를 생성할 수 있다.
둘째, 본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터로부터 직접 영상 블록의 DC 계수를 계산하여 영상 이미지의 섬네일 이미지를 생성함으로써, 다수의 영상 이미지들이 저장되어 있는 멀티미디어 단말기에서 섬네일 이미지를 통해 특정 영상 이미지를 빠르게 검색할 수 있다.
셋째, 본 발명에 따른 섬네일 이미지의 생성 방법은 영상 블록에 대한 잔여 영상 블록의 DC 계수와 예측 데이터만을 이용하여 영상 이미지의 섬네일 이미지를 생성함으로써, 공간 영역의 영상 블록 또는 변환 영역의 영상 블록을 구성하는 모든 계수들을 모두 복원하여 섬네일 이미지를 생성하는 종래 방법에 비해 적은 메모리와 낮은 성능의 프로세서로 섬네일 이미지를 생성할 수 있다.
이하 첨부한 도면을 참고로 본 발명에 따른 섬네일 이미지의 생성 방법 및 그 장치에 대해 보다 구체적으로 설명한다.
도 6은 본 발명의 일 실시예에 따라 H.264 표준의 영상 부호화 장치에서 입력 또는 저장되어 있는 영상 프레임으로부터 섬네일 이미지를 생성하는 장치의 기능 블록도를 도시하고 있다.
도 6을 참고로 살펴보면, 영상 프레임을 구성하는 공간 영역의 다수의 N×N 영상 블록들 중 N×N 제1 영상 블록이 입력되면 예측 모드 결정부(110)는 입력된 N×N 제1 영상 블록에 대한 인트라 예측 모드를 결정한다. 예측블록 생성부(120)는 결정한 N×N 제1 영상 블록의 인트라 예측 모드에 따라 이전에 복원된 참조 영상 블록으로부터 N×N 제1 영상 블록에 대한 공간 영역의 예측 블록을 생성한다. 차감부(130)는 입력된 공간 영역의 N×N 제1 영상 블록과 생성된 예측 블록을 서로 차감하여 공간 영역의 N×N 제1 잔여 영상 블록을 생성한다. 변환부(140)는 생성된 공간 영역의 N×N 제1 잔여 영상 블록을 변환 영역으로 변환하며, 양자화부(150)는 변환 영역의 N×N 제1 잔여 영상 블록을 양자화 계수로 양자화한다. 부호화부(160)는 양자화된 N×N 제1 잔여 영상 블록의 계수를 소정 부호화 방식에 따라 부호화하여 비트스트림을 생성한다.
H.264 표준에서는 입력된 N×N 제1 영상 블록의 잔여 영상 블록을 생성하기 위한 공간 영역의 예측 블록을 이전 복원된 참조 영상 블록에 기초하여 생성한다. 참조 영상 블록을 생성하는 과정을 보다 구체적으로 살펴보면, 양자화부(150)에서 양자화된 영상 블록은 역양자화부(170)에 양자화 계수의 역수로 역양자화되며, 역양자화된 영상 블록은 역변환부(180)에서 다시 공간 영역으로 역변환된다. 합산부(190)는 N×N 제1 영상 블록의 예측 블록과 역변환된 공간 영역의 잔여 영상 블록을 합하여 참조 영상 블록을 생성하며, 예측 블록 생성부(120)는 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록의 인트라 예측 모드에 기초하여 생성한 참조 영상 블록으로부터 N×N 제2 영상 블록의 잔여 영상 블록을 생성하는데 사용되는 예측 블록을 생성한다.
한편, 예측 참조 데이터 생성부(210)는 N×N 제1 영상 블록의 인트라 예측 모드에 따라 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록의 예측 참조 데이터를 생성한다. 도 9에 도시되어 있는 것과 같이 예측 참조 데이터(T-A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)는 공간 영역의 참조 픽셀(A, B, C, D, I, J, K, L)에 대응하는 변환 영역의 영상 데이터이다.
N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록이 입력되는 경우, 예측 데이터 생성부(220)는 예측 모드 결정부(110)에서 결정한 N×N 제2 영상 블록의 인트라 예측 모드와 생성된 N×N 제2 영상 블록의 예측 참조 데이터에 기초하여 N×N 제2 영상 블록에 대한 변환영역의 예측 데이터를 생성한다. 예측 데이터는 N×N 제2 영상 블록의 예측 블록에 대한 DC 계수에 대응하는 값으로, 예측 데이터 생성부(220)는 변환 영역의 N×N 잔여 영상 블록과 동일한 변환 영역에서 N×N 제2 영상 블록에 대한 예측 데이터를 생성한다. DC 계산부(230)는 N×N 제2 영상 블록의 예측 데이터와 역양자화된 N×N 제2 잔여 영상 블록의 DC 계수를 합하여 입력된 N×N 제2 영상 블록의 DC 계수를 계산한다. 섬네일 이미지 생성부(240)는 영상 프레임을 구성하는 다수의 N×N 영상 블록의 DC 계수를 조합하여 영상 프레임의 섬네일 이미지를 생성한다.
도 7은 본 발명의 일 실시예에 따라 H.264 표준의 영상 복호화 장치에서 수신 또는 저장되어 있는 영상 프레임으로부터 섬네일 이미지를 생성하는 장치의 기능 블록도를 도시하고 있다.
도 7을 참고로 보다 구체적으로 살펴보면, 디코딩부(310)는 수신한 비트스트림을 복호화하며, 역양자화부(320)는 복호화된 비트스트림에서 각 N×N 잔여 영상 블록을 역양자화 계수로 역양자화한다. 역변환부(330)는 역양자화된 변환 영역의 N×N 잔여 영상 블록을 공간 영역의 잔여 영상 블록으로 역변환한다. 예측 모드 결정부(340)는 비트스트림에 저장되어 있는 각 N×N 잔여 영상 블록에 대한 인트라 예측 모드를 결정하고, 예측블록 생성부(350)는 결정한 인트라 예측 모드와 이전에 복원된 공간 영역의 참조 영상 블록으로부터 N×N 잔여 영상 블록에 대한 공간 영역의 N×N 예측 블록을 생성한다. 합산부(360)는 공간 영역의 N×N 잔여 영상 블록과 공간 영역의 N×N 예측 블록을 합산하여 N×N 복원 영상 블록을 생성한다. 예측 블록 생성부(350)는 합산부(360)에서 생성된 N×N 복원 영상 블록을 저장하고 있으며, 다음 N×N 잔여 영상 블록에 대한 예측 블록을 생성하는데 저장하고 있던 N×N 복원 영상 블록을 참조 영상 블록으로 사용한다.
한편, 예측 참조 데이터 생성부(370)는 N×N 제1 잔여 영상 블록 다음으로 입력되는 N×N 제2 잔여 영상 블록의 예측 데이터를 생성하기 위하여 N×N 제1 잔여 영상 블록의 인트라 예측 모드에 따라 N×N 제2 잔여 영상 블록의 예측 참조 데이터를 생성한다.
N×N 제2 잔여 영상 블록이 입력되는 경우, 예측 데이터 생성부(380)는 예측 모드 결정부(340)에서 결정한 N×N 제2 잔여 영상 블록의 인트라 예측 모드와 N×N 제2 잔여 영상 블록의 예측 참조 데이터를 기반으로 N×N 제2 잔여 영상 블록에 대한 예측 데이터를 생성한다. 예측 데이터 생성부(380)는 변환 영역의 N×N 잔여 영상 블록과 동일한 변환 영역에서 N×N 제2 잔여 영상 블록의 예측 데이터를 생성한다. DC 계산부(390)는 생성된 N×N 제2 잔여 영상 블록의 예측 데이터와 역양자화된 N×N 제2 잔여 영상 블록의 DC 계수를 합하여 N×N 제2 잔여 영상 블록의 복원 블록에 대한 DC 계수를 계산한다. 섬네일 이미지 생성부(395)는 비트스트림을 구성하는 다수의 N×N 잔여 영상 블록에 대한 복원 블록의 DC 계수를 조합하여 영상 프레임의 섬네일 이미지를 생성한다.
도 8은 본 발명의 일 실시예에 따른, H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법을 설명하기 위한 흐름도이다.
도 8을 참고로 살펴보면, 영상 프레임을 구성하는 다수의 N×N 영상 블록들 중 n번째 N×N 영상 블록이 입력되면(S1), 입력된 n번째 N×N 영상 블록의 예측 블록을 생성하는데 사용된 인트라 예측 모드를 판단한다(S2).
입력된 n번째 N×N 영상 블록에 대한 변환 영역의 잔여 영상 블록의 계수와 판단한 인트라 예측 모드에 기초하여 n번째 N×N 영상 블록 다음으로 입력되는 n+1번째 N×N 영상 블록에 대한 변환 영역의 예측 참조 데이터를 생성한다(S3).
n+1번째 N×N 영상 블록에 대한 예측 참조 데이터는 판단한 인트라 예측 모드에 따라 다르게 생성된다. 4×4 영상 블록에서 사용되는 9개의 휘도 인트라 예측 모드에 따라 다르게 생성되는 예측 참조 데이터(T-A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)를 보다 구체적으로 살펴보면, 아래의 수학식(1)은 제0 모드인 수직 모드에 따라 생성되는 예측 참조 데이터이다.
[수학식 1]
T_A = a*(old_T_A + W00 - W10 + W20 - 1/2*W30)
T_B = a*(old_T_B + W01 - W11 + W21 - 1/2*W31)
T_C = a*(old_T_C + W02 - W12 + W22 - 1/2*W32)
T_D = a*(old_T_D + W03 - W13 + W23 - 1/2*W33)
T_I = a*(old_T_A + W00 - old_T_B - W01 + old_T_C + W02 - 1/2*old_T_D - 1/2*W03)
T_J = a*(W10 - W11 + W21 - 1/2*W13)
T_K = a*(W20 - W21 + W22 - 1/2*W23)
T_L = a*(W30 - W31 + W32 - 1/2*W33)
한편, 제1 모드인 수평 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(2)와 같다.
[수학식 2]
T_A = a*(old_T_I + W00 - old_T_J - W10 + old_T_K + W20 - 1/2*old_T_L - 1/2*W30)
T_B = a*(W01 - W11 + W21 - 1/2*W31)
T_C = a*(W02 - W12 + W22 - 1/2*W32)
T_D = a*(W03 - W13 + W23 - 1/2*W33)
T_I = a*(old_T_I + W00 - W01 + W02 - 1/2*W03)
T_J = a*(old_T_J + W10 - W11 + W21 - 1/2*W13)
T_K = a*(old_T_K + W20 - W21 + W22 - 1/2*W23)
T_L = a*(old_T_L + W30 - W31 + W32 - 1/2*W33)
한편, 제2 모드인 DC 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(3)와 같다.
[수학식 3]
T_A = a*(1/2*old_T_A + 1/2*old_T_I + W00 - W10 + W20 - 1/2*W30)
T_B = a*(W01 - W11 + W21 - 1/2*W31)
T_C = a*(W02 - W12 + W22 - 1/2*W32)
T_D = a*(W03 - W13 + W23 - 1/2*W33)
T_I = a*(1/2*old_T_A + 1/2*old_T_I + W00 - W10 + W20 - 1/2*W30)
T_J = a*(W10 - W11 + W21 - 1/2*W13)
T_K = a*(W20 - W21 + W22 - 1/2*W23)
T_L = a*(W30 - W31 + W32 - 1/2*W33)
한편, 제3 모드인 Diagonal down-left모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(4)와 같다.
[수학식 4]
T_A=old_T_A/16-old_T_B/16+old_T_C/16-old_T_D/32+15*old_T_E/16-old_T_F/16-old_T_G/16-old_T_H/32+W00-W10+W20-W30/2
T_B=old_T_A/10-old_T_B/10+old_T_C/10-old_T_D/20-old_T_E/10+3*old_T_F/4-old_T_G/10+W01-W11+W21-W31/2
T_C=old_T_A/16-old_T_B/16+old_T_C/16-old_T_D/32-3*old_T_E/16-old_T_F/16+7*old_T_G/16-old_T_H/32+W02-W12+W22-W32/2
T_D=old_T_A/20-old_T_B/20+old_T_C/20-old_T_D/40-old_T_E/20-old_T_G/20+old_T_K/8+W03-W13+W23-W33/2
T_I=old_T_A/16-old_T_B/16+old_T_C/16-old_T_D/32+15*old_T_E/16-old_T_F/1 6-old_T_G/16-old_T_H/32+W00-W01+W02-W03/2
T_J=old_T_A/10-old_T_B/10+old_T_C/10-old_T_D/20-old_T_E/10+3*old_T_F/4-old_T_G/10+W10-W11+W12-W13/2
T_K=old_T_A/8-old_T_B/16+old_T_C/16-old_T_D/32-old_T_E/16-old_T_F/16+7*old_T_G/16-old_T_H/32+W20-W21+W22-W23/2
T_L=old_T_A/20-old_T_B/20+old_T_C/20-old_T_D/40-old_T_E/20-old_T_G/20+old_T_H/8+W30-W31+W32-W33/2
한편, 제4 모드인 Diagonal down-right모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(5)와 같다.
[수학식 5]
T_A=12*old_M+old_T_A/16+old_T_B/16+old_T_C/16+old_T_D/32+3*old_T_I/4+7*old_T_J/32-old_T_K/8+old_T_L/32+W00-W10+W20-W30/2
T_B=-16*old_M-old_T_A/10-old_T_B/10-old_T_C/10-old_T_D/20+7*old_T_I/20+3*old_T_J/10-9*old_T_K/20-old_T_L/40+W01-W11+W21-W31/2
T_C=4*old_M+old_T_A/16+old_T_B/16+old_T_C/16+old_T_D/32-3*old_T_I/8-9*old_T_J/32+3*old_T_L/32+W02-W12+W22-W32/2
T_D=-old_T_A/20-old_T_B/20-old_T_C/20-old_T_D/40+old_T_I/20-old_T_J/40+3*old_T_K/20+old_T_L/20+W03-W13+W23-W33/2
T_I=12*old_M+3*old_T_A/4+7*old_T_B/32-old_T_C/8+old_T_D/32+old_T_I/16+old_T_J/16+old_T_K/16+old_T_L/32+W00-W01+W02-W03/2
T_J=-16*old_M+7*old_T_A/20-3*old_T_B/10-9*old_T_C/8-old_T_D/40-old_T_I/10-old_T_J/10-old_T_K/10-old_T_L/20+W10-W11+W12-W13/2
T_K=4*old_M-old_T_A/8-9*old_T_B/32+3*old_T_D/32+old_T_I/16+old_T_J/16+old_T_K/16+old_T_L/32+W20-W21+W22-W23/2
T_L=old_T_A/20-old_T_B/40+3*old_T_C/20+old_T_D/20-old_T_I/20-old_T_J/20-old_T_K/20-old_T_L/40+W30-W31+W32-W33/2
한편, 제5 모드인 Vertical right 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(6)와 같다.
[수학식 6]
T_A=12*old_M+old_T_A/2+old_T_B/16+5*old_T_I/16+5*old_T_J/32-old_T_K/16+W00-W10+W20-W30/2
T_B=16*old_M/5-old_T_A/2-9*old_T_B/40+old_T_C/5+3*old_T_D/40+9*old_T_I/20+old_T_J/5-3*old_T_K/20-old_T_L/40+W01-W11+W21-W31/2
T_C=-12*old_M-old_T_A/8-old_T_B/8-old_T_C/4-old_T_D/16+3*old_T_I/16+old_T_J/32-3*old_T_K/16-old_T_L/16+W02-W12+W22-W32/2
T_D=-32*old_M/5+3*old_T_B/40+old_T_C/10-old_T_D/40+old_T_I/10-old_T_J/40-3*old_T_K/5-3*old_T_L/40+W03-W13+W23-W33/2
T_I=old_T_A-3*old_T_B/16-old_T_C/2+old_T_D/16+W00-W01+W02-W03/2
T_J=-21*old_T_B/40+3*old_T_C/10+7*old_T_D/40+W10-W11+W12-W13/2
T_K=old_T_B/4+W20-W21+W22-W23/2
T_L=-3*old_T_B/40-old_T_C/10+old_T_D/40+W30-W31+W32-W33/2
한편, 제6 모드인 Horizontal down 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(7)와 같다.
[수학식 7]
T_A=old_T_I-3*old_T_J/16-old_T_K/2+old_T_L/16+W00-W10+W20-W30/2
T_B=21*old_T_J/40+3*old_T_K/10+7*old_T_L/40+W01-W11+W21-W31/2
T_C=old_T_K/4+W02-W12+W22-W32/2
T_D=-3*old_T_J/40-old_T_K/10+old_T_L/40+W03-W13+W23-W33/2
T_I=12*old_M+5*old_T_A/16+5*old_T_B/32-old_T_C/16+old_T_I/2+5*old_T_J/16+ W00-W01+W02 -W03/2
T_J=16*old_M/5+9*old_T_A/20+old_T_B/5-3*old_T_C/20-old_T_D/40-old_T_I/2-9*old_T_J/40+old_T_K/5+3*old_T_L/40+W10-W11+W12-W13/2
T_K=-12*old_M+3*old_T_A/16+old_T_B/32-3*old_T_C/16-old_T_D/40-old_T_J/8-old_T_K/4-old_T_L/16+W20-W21+W22-W23/2
T_L=-32*old_M+5*old_T_A/10-old_T_B/40-old_T_C/5-old_T_D/40+3*old_T_J/40+old_T_K/10-old_T_L/40+W30-W31+W32-W33/2
한편, 제7 모드인 Vertical left 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(8)와 같다.
[수학식 8]
T_A=old_T_A/2-5*old_T_B/16+old_T_E/2-5*old_T_F/16+W00-W10+W20-W30/2
T_B=old_T_A/2-9*old_T_B/40-old_T_C/5+3*old_T_D/40-old_T_E/2-9*old_T_F/40+old_T_G/5+3*old_T_H/40+W01-W11+W21-W31/2
T_C=old_T_B/8-old_T_C/4+old_T_D/16-old_T_F/8-7*old_T_G/4-old_T_H/16+W02-W12+W22-W32/2
T_D=3*old_T_B/40-old_T_C/10-old_T_D/40+3*old_T_F/40+old_T_G/10-old_T_K/40+W03-W13+W23-W33/2
T_I=3*old_T_A/16-3*old_T_B/16+3*old_T_C/16-3*old_T_D/32+13*old_T_E/16+9*old_T_F/16-old_T_G/16-old_T_H/32+W00-W01+W02-W03/2
T_J=old_T_A/4-old_T_B/4+old_T_C/4-old_T_D/8-old_T_E/4+old_T_F/40+9*old_T_G/20+old_T_H/32+W10-W11+W12-W13/2
T_K=old_T_A/16-old_T_B/16+old_T_C/16-old_T_D/32-old_T_E/16-old_T_F/8-old_T_G/16+3*old_T_H/32+W20-W21+W22-W23/2
T_L=3*old_T_F/40+old_T_G/10-old_T_H/40+W30-W31+W32-W33/2
한편, 제8 모드인 Horizontal up 모드에 따라 생성되는 예측 참조 데이터는 아래의 수학식(9)와 같다.
[수학식 9]
T_A=old_T_I-old_T_J+old_T_K-old_T_L/2+W00-W10+W20-W30/2
T_B=W01-W11+W21-W31/2
T_C=W02-W12+W22-W32/2
T_D=W03-W13+W23-W33/2
T_I=old_T_I-13*old_T_J/16+old_T_K/2-old_T_L/4+W00-W01+W02-W03/2
T_J=11*old_T_J/40-7*old_T_K/10+13*old_T_L/40+W10-W11+W12-W13/2
T_K=old_T_J/8-old_T_K/4+old_T_L/16+W20-W21+W22-W23/2
T_L=3*old_T_J/40-old_T_K/10-old_T_D/40+W30-W31+W32-W33/2
수학식(1) 내지 수학식(9)에서 입력된 n번째 4×4 영상 블록에 대한 잔여 영상 블록(W)의 계수는 아래의 수학식(10)과 같다.
삭제
4개의 16×16 휘도 예측 모드와 4개의 8×8 색차 예측 모드는 입력된 16×16 영상 블록 또는 8×8 영상 블록의 휘도 예측 모드 또는 색차 예측 모드가 결정되면, 16×16 영상 블록 또는 8×8 영상 블록을 4×4 영상 블록으로 분할하고 분할한 각 4×4 영상 블록을 결정된 예측 모드에 따라 위에서 설명한 수학식(1) 내지 수학식(9)를 이용하여 예측 참조 데이터를 생성한다.
S3 단계에서 생성되는 n+1번째 N×N 영상 블록에 대한 예측 참조 데이터(T_A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)는 저장되며(S4), 저장된 n+1번째 N×N 영상 블록에 대한 예측 참조 데이터(T_A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)는 n+1번째 N×N 영상 블록이 입력되는 경우 n+1번째 N×N 영상 블록에 대한 예측 데이터를 생성하는데 사용된다.
한편, n번째 N×N 영상 블록에 대한 예측 데이터를 생성하기 위하여 미리 생성되어 저장되어 있는 n번째 N×N 영상 블록에 대한 예측 참조 데이터(old_T-A, old_T_B, old_T_C, old_T_D, old_T_I, old_T_J, old_T_K, old_T_L)를 판독하고(S5), 판독한 n번째 N×N 영상 블록에 대한 예측 참조 데이터(old_T-A, old_T_B, old_T_C, old_T_D, old_T_I, old_T_J, old_T_K, old_T_L)와 판단한 n번째 N×N 영상 블록의 인트라 예측 모드에 따라 n번째 N×N 영상 블록의 예측 데이터(E)를 생성한다.
생성한 예측 데이터(E)는 n번째 N×N 영상 블록의 변환 영역의 예측 블록의 DC 계수에 상응하는 영상 데이터이다. 생성한 예측 데이터(E)는 n번째 N×N 영상 블록의 인트라 예측 모드에 따라 다르게 생성되며, 인트라 예측 모드인 제0 모드 내지 제2 모드에 따라 생성되는 예측 데이터의 일 예는 각각 old_T-A, old_T_I, 1/2×old_T-A+1/2old_T_I이다.
n번째 N×N 영상 블록에 대한 예측 참조 데이터(old_T-A, old_T_B, old_T_C, old_T_D, old_T_I, old_T_J, old_T_K, old_T_L)은 n+1번째 N×N 영상 블록에 대한 예측 참조 데이터(T_A, T_B, T_C, T_D, T_I, T_J, T_K, T_L)와 동일한 방식으로 생성되어 저장된다.
생성한 예측 데이터(E)와 n번째 N×N 영상 블록에 대한 잔여 영상 블록의 DC 계수를 이용하여 n번째 N×N 영상 블록의 DC 계수를 계산한다(S7). n번째 N×N 영상 블록에 대한 DC 계수는 아래의 수학식(11)과 같이 계산된다.
[수학식 11]
n번째 N×N 영상 블록의 DC 계수= a×(E + W00)
여기서 a는 스케일링 계수이며, W00는 n번째 N×N 영상 블록에 대한 잔여 영상 블록의 DC 계수이다.
수학식(11)에서 알 수 있듯이, 입력된 n번째 N×N 영상 블록의 DC 계수를 구하기 위하여, n번째 N×N 영상 블록에 대한 변환 영역의 예측 블록의 계수 전체를 구할 필요가 없으며, n번째 N×N 영상 블록에 대한 변환 영역의 예측 블록을 구성하는 계수 중 n번째 N×N 영상 블록의 DC 계수를 계산하는데 사용되는 영상 데이터, 즉 예측 데이터만을 계산하여 n번째 N×N 영상 블록의 DC 계수를 직접 계산할 수 있다.
바람직하게, 1개의 영상 프레임을 구성하는 영상 블록들 중 첫 영상 블록의 경우에는 T_A, T_B, T_C, T_D, T_I, T_J, T_K, T_L의 예측 참조 데이터를 0으로 하고 DC계수는 아래의 수학식(12)와 같이 계산한다.
[수학식 12]
DC 계수 = a×(8192 + W00)
영상 프레임을 구성하는 모든 N×N 영상 블록에 대하여 DC 계수를 계산하였는지 판단하여(S8), 모든 N×N 영상 블록의 DC 계수를 계산하지 않았으면 다음으로 입력되는 N×N 영상 블록에 대한 DC 계수를 위에서 설명한 S1 단계 내지 S7 단계를 반복하여 모든 N×N 영상 블록의 DC 계수를 계산한다(S10). S8단계에서 영상 프레임을 구성하는 모든 N×N 영상 블록의 DC 계수를 계산하였다고 판단하는 경우, 모 든 N×N 영상 블록의 DC 계수를 이용하여 영상 프레임의 섬네일 이미지를 생성한다(S9).
한편, 상술한 본 발명의 실시 예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록 매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록 매체는 마그네틱 저장 매체(예를 들어, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장 매체를 포함한다.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.
도 1은 H.264 기반에 따른 영상 이미지의 부호화 장치를 설명하기 위한 기능 블록도를 도시하고 있다.
도 2는 H.264 기반에 따른 영상 이미지의 복호화 장치를 설명하기 위한 기능 블록도이다.
도 3은 공간 영역의 4x4 휘도블록의 인트라 예측 모드를 설명하기 위한 도면이다.
도 4는 공간 영역의 16x16 휘도블록과 8x8 색차블록 예측 모드를 설명하기 위한 도면이다.
도 5는 핸드폰에서 사용하는 섬네일 이미지의 일 예를 도시하고 있다.
도 6은 본 발명의 일 실시예에 따라 H.264 표준의 영상 부호화 장치에서 입력 또는 저장되어 있는 영상 프레임으로부터 섬네일 이미지를 생성하는 장치의 기능 블록도를 도시하고 있다.
도 7은 본 발명의 일 실시예에 따라 H.264 표준의 영상 복호화 장치에서 수신 또는 저장되어 있는 영상 프레임으로부터 섬네일 이미지를 생성하는 장치의 기능 블록도를 도시하고 있다.
도 8은 본 발명의 일 실시예에 따른, H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법을 설명하기 위한 흐름도이다.
도 9는 변환 영역의 예측 참조 데이터 공간 영역의 참조 픽셀 사이의 관계를 설명하기 위한 도면이다.
Claims (10)
- 영상 프레임을 구성하는 H.264 기반의 N×N 영상 블록들로부터 섬네일 이미지를 생성하는 방법에 있어서,(a) N×N 제1 영상 블록에 대한 변환 영역의 잔여 영상 블록 또는 상기 N×N 제1 영상 블록에 대한 변환 영역의 제1 예측 참조 데이터를 이용하여 상기 N×N 제1 영상 블록의 인트라 예측 모드에 따라 상기 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록에 대한 변환 영역의 제2 예측 참조 데이터를 생성하는 단계;(b) 상기 N×N 제2 영상 블록에 대한 공간 영역의 예측 블록을 생성하는데 사용되는 인트라 예측 모드를 판단하는 단계;(c) 상기 생성한 제2 예측 참조 데이터와 상기 판단한 인트라 예측 모드로부터 상기 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록과 동일한 변환 영역의 예측 데이터를 생성하는 단계;(d) 상기 생성한 예측 데이터와 상기 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록의 DC 계수를 합하여 상기 N×N 제2 영상 블록에 대한 DC 계수를 계산하는 단계; 및(e) 상기 영상 프레임을 구성하는 모든 N×N 영상 블록들에 대해 상기 (a) 단계 내지 (d) 단계를 반복 실행하여 상기 영상 프레임을 구성하는 모든 N×N 영상 블록들에 대한 DC 계수를 추출하고, 상기 추출한 DC 계수들로부터 상기 영상 프레임의 섬네일 이미지를 생성하는 단계를 포함하는 것을 특징으로 하는 섬네일 이미지의 생성 방법.
- 삭제
- 삭제
- 제 1 항에 있어서, 상기 예측 데이터는상기 N×N 제2 영상 블록에 대한 인트라 예측 모드에 기초하여 생성되는 것을 특징으로 하는 섬네일 이미지의 생성 방법.
- 영상 프레임을 구성하는 H.264 기반의 N×N 영상 블록으로부터 섬네일 이미지를 생성하는 장치에 있어서,N×N 제1 영상 블록에 대한 변환 영역의 잔여 영상 블록 또는 상기 N×N 제1 영상 블록에 대한 변환 영역의 제1 예측 참조 데이터를 이용하여 상기 N×N 제1 영상 블록의 인트라 예측 모드에 따라 상기 N×N 제1 영상 블록 다음으로 입력되는 N×N 제2 영상 블록에 대한 변환 영역의 제2 예측 참조 데이터를 생성하는 예측 참조 데이터 생성부;상기 N×N 제2 영상 블록의 예측 블록을 생성하는데 사용된 공간 영역의 인트라 예측 모드와 상기 생성한 제2 예측 참조 데이터로부터 상기 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록과 동일한 변환 영역의 예측 데이터를 생성하는 예측 데이터 생성부;상기 생성한 예측 데이터와 상기 N×N 제2 영상 블록에 대한 변환 영역의 잔여 영상 블록의 DC 계수를 합하여 상기 N×N 제2 영상 블록의 DC 계수를 계산하는 DC 계산부; 및상기 영상 프레임을 구성하는 모든 N×N 영상 블록들에 대한 상기 DC 계수들을 추출하고, 상기 추출한 DC 계수들로부터 상기 영상 프레임의 섬네일 이미지를 생성하는 섬네일 이미지 생성부를 포함하는 것을 특징으로 하는 섬네일 이미지의 생성 장치.
- 제 7 항에 있어서,상기 예측 데이터는 상기 N×N 제2 영상 블록에 대한 인트라 예측 모드에 기초하여 생성되는 것을 특징으로 하는 섬네일 이미지의 생성 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080079237A KR101004562B1 (ko) | 2008-08-13 | 2008-08-13 | H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080079237A KR101004562B1 (ko) | 2008-08-13 | 2008-08-13 | H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100020580A KR20100020580A (ko) | 2010-02-23 |
KR101004562B1 true KR101004562B1 (ko) | 2011-01-03 |
Family
ID=42090548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080079237A KR101004562B1 (ko) | 2008-08-13 | 2008-08-13 | H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101004562B1 (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101052390B1 (ko) * | 2008-08-13 | 2011-07-28 | 경희대학교 산학협력단 | H.264 표준의 영상 프레임에서 섬네일 이미지를 생성하는 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060015075A (ko) * | 2004-08-13 | 2006-02-16 | 엘지전자 주식회사 | 디지털 방송 수신기 및 타 채널의 비디오 정보 검색 방법 |
KR20060022894A (ko) * | 2004-09-08 | 2006-03-13 | 엘지전자 주식회사 | 이동 단말기에서의 썸네일 영상 생성 장치 및 방법 |
-
2008
- 2008-08-13 KR KR1020080079237A patent/KR101004562B1/ko not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060015075A (ko) * | 2004-08-13 | 2006-02-16 | 엘지전자 주식회사 | 디지털 방송 수신기 및 타 채널의 비디오 정보 검색 방법 |
KR20060022894A (ko) * | 2004-09-08 | 2006-03-13 | 엘지전자 주식회사 | 이동 단말기에서의 썸네일 영상 생성 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20100020580A (ko) | 2010-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230396768A1 (en) | Coding unit quantization parameters in video coding | |
US10623749B2 (en) | Video encoding apparatus, video decoding apparatus, and video decoding method for performing intra-prediction based on directionality of neighboring block | |
US9426491B2 (en) | Image encoding/decoding method and apparatus using block transformation | |
US20130230104A1 (en) | Method and apparatus for encoding/decoding images using the effective selection of an intra-prediction mode group | |
KR101700410B1 (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
EP2983362A1 (en) | Interlayer video encoding method and apparatus and interlayer video decoding method and apparatus for compensating luminance difference | |
KR20170125154A (ko) | 곡선 화면 내 예측을 사용하는 비디오 복호화 방법 및 장치 | |
US8666182B2 (en) | Method for generating thumbnail image in image frame of the H.264 standard | |
KR20210103562A (ko) | 인트라 예측을 위한 교차-성분 선형 모델링의 방법 및 장치 | |
KR101004562B1 (ko) | H.264 표준의 영상 프레임에 대한 섬네일 이미지를 생성하는 방법 | |
KR20100009718A (ko) | 예측 방향을 이용한 영상 부호화/복호화 장치 및 방법 | |
KR101035455B1 (ko) | H.264 표준에서 섬네일 이미지를 생성하는 장치 | |
KR101562343B1 (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
AU2015255215B2 (en) | Image processing apparatus and method | |
KR101052390B1 (ko) | H.264 표준의 영상 프레임에서 섬네일 이미지를 생성하는 방법 | |
US20240214581A1 (en) | Video encoding apparatus, video decoding apparatus, and video decoding method for performing intra-prediction based on directionality of neighboring block | |
KR101810198B1 (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
KR101700411B1 (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
KR101005394B1 (ko) | H.264/avc 인코더에서 인트라 예측 블록을 생성하는 방법 | |
KR20190084929A (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
KR20190091431A (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
KR20190004246A (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
KR20170140805A (ko) | 인트라 모드를 이용한 쿼터 픽셀 해상도를 갖는 영상 보간 방법 및 장치 | |
KR20110106164A (ko) | H.264/avc 표준에 따라 부호화된 영상 프레임의 비트스트림으로부터 섬네일 이미지를 생성하는 방법 | |
Ye | Fast algorithms for H. 264 encoding and transcoding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20131204 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20141203 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |