KR20110055358A - 비디오 신호의 처리 및 방법 - Google Patents

비디오 신호의 처리 및 방법 Download PDF

Info

Publication number
KR20110055358A
KR20110055358A KR1020100070012A KR20100070012A KR20110055358A KR 20110055358 A KR20110055358 A KR 20110055358A KR 1020100070012 A KR1020100070012 A KR 1020100070012A KR 20100070012 A KR20100070012 A KR 20100070012A KR 20110055358 A KR20110055358 A KR 20110055358A
Authority
KR
South Korea
Prior art keywords
scheme
frames
frame
image
video signal
Prior art date
Application number
KR1020100070012A
Other languages
English (en)
Inventor
박승욱
황정환
김동석
전병문
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20110055358A publication Critical patent/KR20110055358A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/88Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving rearrangement of data among different coding units, e.g. shuffling, interleaving, scrambling or permutation of pixel data or permutation of transform coefficient data among different blocks

Abstract

본 발명은, 제 1 방식 프레임 및 제 2 방식 프레임으로 구성되는 복수개의 프레임에 대한 정보를 포함하는 비디오 신호를 수신하는 단계, 상기 수신된 비디오 신호로부터 상기 복수개의 프레임들을 획득하는 단계, 현재 프레임이 상기 제 1 방식 프레임 또는 상기 제 2 방식 프레임 중 어느 것인지를 나타내는 프레임 정보를 획득하는 단계, 상기 프레임 정보에 기초하여, 상기 복수개의 프레임들 중에서 상기 제 1 방식 프레임들을 상기 제 2 방식 프레임으로 변환하는 단계를 포함하고, 상기 제 2 방식 프레임은 동일한 시간에 획득한 픽셀들로 구성되고, 상기 제 1방식 프레임은 복수개의 상기 제 2 방식 프레임에서 동일한 위치에 대응하는 영역의 픽셀들로 구성된 것을 특징으로 하는 비디오 신호 처리 방법을 제공한다.

Description

비디오 신호의 처리 및 방법{A METHOD AND AN APPARATUS FOR PROCESSING A VIDEO SIGNAL}
본 발명은 비디오 신호의 처리 방법 및 장치에 관한 것으로, 보다 상세하게는 비디오 신호를 인코딩하거나 디코딩하는 비디오 신호 처리 방법 및 장치에 관한 것이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하기 위한 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 영상에 대한 압축 부호화는 공간적인 상관관계, 시간적인 상관관계, 확률적인 상관관계 등을 고려하여 잉여 정보를 제거함으로써 이루어진다.
이와 같이 공간적 중복성 및 시간적 중복성을 충분히 제거하지 않으면, 비디오 신호를 부호화하는데 있어서 압축율이 낮아진다. 한편, 공간적 중복성 및 시간적 중복성을 과도하게 제거하는 경우, 비디오 신호를 디코딩하는 데 있어서 필요한 정보를 생성하지 못하기 때문에 복원율이 나빠지는 문제점이 있었다.
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로써 첫째, 입력 영상보다 공간적, 시간적으로 높은 상관 관계를 가지는 새로운 영상 형태를 정의하는데 그 목적이 있다.
둘째, 새롭게 정의된 시간적 영상 형태를 이용함으로써 상관 관계를 높여, 비디오 신호의 압축 부호화 효율을 높이는데 그 목적이 있다.
본 발명은 다음과 같은 효과와 이점을 제공한다.
첫째, 본 발명의 비디오 신호 처리 방법 및 장치는, 입력받은 영상을 새로운 형태의 영상으로 변환함으로써 영상 내 또는 영상 간의 공간적, 시간적 상관 관계를 높일 수 있다. 또한, 새롭게 생성되는 영상의 형태를 상관 관계가 최대화 되도록 유연성 있게 변화시킬 수 있다.
둘째, 본 발명의 비디오 신호 처리 방법 및 장치는, 원 영상보다 상관 관계가 높은 영상에 대한 압축 부호화를 수행함으로써, 부호화 효율을 높일 수 있다.
셋째, 본 발명의 비디오 신호 처리 방법 및 장치는, 기존의 인코딩/디코딩 방법 및 장치에 영상 변환 부분만 추가함으로써 기존의 코딩 방법을 그대로 이용할 수 있을 뿐만 아니라, 기존의 코딩 방법과 동시에 사용할 수 있다
도 1은 시간적 영상의 개념을 설명하기 위한 도면.
도 2는 시간적 영상을 구성하는 방법을 나타내기 위한 도면.
도 3은 본 발명의 일실시예에 따라 원 영상과 시간적 영상을 함께 사용하는 경우의 시간적 영상으로의 변환을 나타낸 도면.
도 4는 본 발명의 일 실시예에 따른 비디오 신호 인코딩 장치의 개략적인 블록도.
도 5는 본 발명의 일 실시예에 따라 시간적 프레임을 생성하여 비디오 신호를 인코딩 하는 방법을 나타내는 순서도.
도 6은 본 발명의 일 실시예에 따른 시간적 영상 생성부의 구성을 나타낸 블록도.
도 7은 본 발명의 일 실시예에 따른 비디오 신호 디코딩 장치의 개략적인 블록도.
도 8은 본 발명의 일 실시예에 따른 비디오 신호를 디코딩하는 방법을 나타내는 순서도.
도 9 는 시간적 영상 및 원 영상 형태가 함께 사용되어 코딩된 경우, 디코딩 과정에 대한 제 1 실시예를 나타내는 순서도.
도 10은 시간적 영상 및 원 영상 형태가 함께 사용되어 코딩된 경우, 디코딩 과정에 대한 제 2 실시예를 나타내는 순서도.
도 11은 본 발명의 일 실시예에 따른 시간적 영상 변환부의 구성을 나타낸 블록도.
상기와 같은 목적을 달성하기 위하여 본 발명은, 제 1 방식 프레임 및 제 2 방식 프레임으로 구성되는 복수개의 프레임에 대한 정보를 포함하는 비디오 신호를 수신하는 단계, 상기 수신된 비디오 신호로부터 상기 복수개의 프레임들을 획득하는 단계, 현재 프레임이 상기 제 1 방식 프레임 또는 상기 제 2 방식 프레임 중 어느 것인지를 나타내는 프레임 정보를 획득하는 단계, 상기 프레임 정보에 기초하여, 상기 복수개의 프레임들 중에서 상기 제 1 방식 프레임들을 상기 제 2 방식 프레임으로 변환하는 단계를 포함하고, 상기 제 2 방식 프레임은 동일한 시간에 획득한 픽셀들로 구성되고, 상기 제 1방식 프레임은 복수개의 상기 제 2 방식 프레임에서 동일한 위치에 대응하는 영역의 픽셀들로 구성된 것을 특징으로 하는 비디오 신호 처리 방법을 제공한다.
또한 본 발명의 실시예에 따르면 상기 제1방식 프레임의 사용 여부에 대한 정보를 시퀀스 레벨 단위로 획득하는 단계를 더 포함하고, 상기 프레임 정보는 상기 프레임 사용 여부에 대한 정보에 기초하여 획득될 수 있다.
또한 상기 제 1 방식 프레임들을 상기 제 2 방식 프레임으로 변환하는 단계는, 상기 제1방식 프레임들을 수직 픽셀열 또는 수평 픽셀열들로 분리하는 단계; 상기 분리된 수직 픽셀열 또는 수평 픽셀열들 중에서 동일 시간에 획득된 수직 픽셀열 또는 수평 픽셀열들을 이용하여 상기 제 2 방식 프레임들을 생성하는 단계, 및 상기 변환된 제 2 방식 프레임들을 출력 순서에 따라 배열하는 단계를 포함할 수 있다.
또한 본 발명의 또다른 실시예에 따르면, 복수개의 제 1 방식 프레임에 대한 정보를 포함하는 비디오 신호를 수신하는 단계, 상기 수신된 비디오 신호로부터 상기 제 1 방식 프레임들을 획득하는 단계, 상기 제 1 방식 프레임들을 상기 제 2 방식 프레임으로 변환하는 단계 및 상기 변환된 제 2 방식 프레임들을 출력 순서에 따라 배열하는 단계를 포함할 수 있다.
또한 본 발명은, 복수개의 제 1 방식 프레임들에 대한 정보를 포함하는 비디오 신호를 수신하는 단계, 상기 수신된 제 1 방식 프레임들을 제 2 방식 프레임들로 변환하는 단계 및 상기 제 2 방식 프레임들에 대하여 영상간 또는 영상내 상관관계를 이용하여 부호화하는 단계를 포함하는 비디오 신호 처리 장치를 제공한다.
또한 상기 수신된 제 1 방식 프레임들을 제 2 방식 프레임들로 변환하는 단계는, 상기 제1방식 프레임들을 수직 픽셀열 또는 수평 픽셀열들로 분리하는 단계 및 상기 분리된 수직 픽셀열 또는 수평 픽셀열들 중에서, 서로 다른 시간에 획득된 상기 제 1방식 프레임들 내에서 동일한 위치에 대응하는 수직 픽셀열 또는 수평 픽셀열들을 이용하여 상기 제 2 방식 프레임들을 생성하는 단계를 포함할 수 있다.
또한, 상기 수신된 제 1 방식 프레임들을 제 2 방식 프레임들로 변환하는 단계는,현재 프레임 정보 플래그에 상기 제 2 방식 프레임을 나타내는 것을 표시하는 단계를 더 포함할 수 있다.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위하여 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
특히, 본 발명에서 코딩이라 함은, 인코딩 및 디코딩을 모두 포함하는 개념으로 이해되어야 한다. 본 명세서에서 '영상'이란 비디오 신호의 일부분을 구성하는 한 장면을 나타내는 일반적인 의미로, '프레임'은 영상과 동일한 의미로 사용되거나 좁은 의미로는 코딩 대상으로써 영상 내에 포함되는 일정 영역 또는 영상 전체를 나타내는 의미로 사용되었다.
일반적으로 비디오 신호는 특정 시간에서의 영상들이 획득된 시간 순으로 연속되어 구성된다. 이러한 원본 영상들은 하나의 영상 내에서의 화소 간의 유사성, 즉 공간적인 상관 관계를 이용하거나, 여러 개의 영상 간에 형성되는 유사성, 즉 시간적인 상관관계를 이용하여 압축될 수 있다. 또는 데이터 간의 확률적인 상관 관계를 고려하여 잉여 정보를 제거함으로써 압축하는 방법도 있다.
공간적인 상관관계를 이용하는 방법으로 이미 부호화된 영상 내 다른 유사한 영역을 이용하는 화면 내 예측 부호화 기법이나 공간 영역을 주파수 영역으로 변환하여 사람의 눈에 민감한 성분들 만을 이용하는 코사인 변환 기법 등이 사용될 수 있다. 시간적 상관 관계를 이용하는 방법으로는, 시간상으로 인접한 영상 간의 유사성을 이용하는 방법이 있다. 인접한 영상에는 동일한 대상이 존재할 가능성이 크므로 영상 간 유사도가 높을 수 있다. 따라서 특정 대상의 움직임을 고려하여, 이전 영상과 현재 영상 간의 움직임 벡터를 이용하여 현재 영상을 예측하고 그 차이 값만을 코딩함으로써 현재 영상을 코딩하는 데 필요한 정보의 양을 줄일 수 있다. 확률적 상관 관계를 고려하는 방법으로는, 허프만 코딩 가변 길이 부호화, 산술 코딩 기반 가변길이 부호화 기법 등이 있다.
비디오 신호는 시간에 대해서 연속적으로 구성되므로, 일반적으로 영상 압축은 동일한 시간에 획득한 픽셀들로 구성된 영상들에 대해, 영상이 획득된 시간 순서대로 이루어지게 된다. 한편, 본 발명에서는 기존 기술들과는 달리 시간적 영상이라고 하는 영상 형태를 새로 정의한다. 본 발명의 실시예에 따라 새롭게 구성된 시간적 영상에서는, 하나의 영상 내에서의 픽셀들이 동일한 시간에 획득된 것이 아닐 수 있다. 본 발명에서는 이러한 시간적 영상들간의 상관 관계를 고려하여 잉여 정보를 제거하는 압축 기법을 제공한다.
도 1은 시간적 영상의 개념을 설명하기 위한 도면이다. 도 1에서 도시하듯이, 원 비디오 신호(100)는 복수 개의 프레임들(1001, 1002, 1003,...,100n)로 구성된다. 앞쪽에 있는 프레임일수록, 뒤쪽에 있는 프레임보다 이른 시간에 획득되었다는 것을 의미한다. 예를 들면, 프레임 100n-1 다음에 프레임 100n이 획득되었다고 할 수 있다.
시간적 프레임이란 상기 인접한 시간에 대해 연속한 일정한 수의 프레임들(1001, 1002, 1003,...,100n)을 시간축(130) 방향으로 잘랐을 때 얻게 되는 새로운 프레임(150B)을 의미한다. 즉 상기 일정한 수의 프레임에서의 동일한 위치에 대한 시간 연속적인 변화(150A)가 새롭게 구성된 하나의 시간적 프레임(150B) 내에 나타나게 된다.
도 2는 시간적 영상을 구성하는 방법을 나타내기 위한 도면이다. 우선 시간상으로 연속된 원 프레임들(1001, 1002, 1003,...,100n)을 분해한다. 도 2를 참조하여 예를 들면, 원 프레임들(1001, 1002, 1003,...,100n)을 수직 방향 라인으로 잘라 라인 슬라이스들(1101, 1102, 1103,..,110n)을 얻을 수 있다. 이러한 라인 슬라이스들을 원 영상 내에서의 위치가 동일한 것끼리 모아서 새로운 시간적 프레임(1201, 1202, 1203,...,120n)을 얻을 수 있다.
새로운 시간적 프레임 내에서 라인 슬라이스의 배치는 원 영상에서의 시간 순서에 따를 수 있다. 예를 들면 도 2에서 도시하듯이, 앞선 시간에 획득된 프레임의 라인 슬라이스를 시간적 프레임 내에서 좌측에 위치하도록 할 수 있다.
본 발명의 또 다른 실시예에서는, 라인 슬라이스 간의 상관 관계 또는 생성되는 시간적 영상들 간의 상관관계를 고려하여 시간적 프레임을 생성할 수도 있다. 예를 들면, 서로 상관 관계가 높은 라인 슬라이스들을 시간적 프레임 내에서 인접한 위치에 위치하도록 하거나, 인접 프레임 간 상관관계가 높아지도록 라인 슬라이스를 배열할 수 있다. 라인 슬라이스 간 또는 프레임간 상관관계를 측정하는데 있어서는, SAD(Sum of Absolute Difference), SAD(Sum of Squared Difference) 또는 NCC(Normalized Cross Correlation) 등이 사용될 수 있으나 본 발명이 이에 한정되는 것은 아니다.
이렇게 얻어진 시간적 영상 형태의 프레임들은 특정한 순서로 배열되어 일련의 영상들(하나의 비디오 신호와 같은 동적 영상)을 구성한다. 구체적으로 이 배열 순서는, 원 프레임에서의 라인 슬라이스의 위치별로 좌측에서 우측으로, 상측에서 하측으로, 혹은 그 역순이 될 수 있다. 도 2를 참조하여 예를 들면, 원 영상에서 좌측에 있는 라인 슬라이스에 대한 시간적 영상을 앞쪽에 위치시켜서 구성된다.
다시 도 1을 참조하면, a x b 크기의 크기 c개의 프레임으로 구성된 원 비디오 신호(100)를 시간적 영상으로 변환하여 비디오 신호를 구성하는 경우(120)의 일실시예를 나타낸 것이다. 원 영상은 변환을 통해 b x c 크기의 a개의 프레임으로 구성된다. 예를 들어, QCIF 176x144 크기의 300 프레임을 시간적 영상으로 변환하는 경우, 300x144 크기의 176 프레임이 된다. 이 때 변환되는 시간적 프레임의 크기는 도 1에서 나타난 바와 같이 전체 프레임의 수가 될 수도 있지만, 적절한 값으로 조절이 가능하다. 예를 들어, 시간적 프레임으로의 변화를 위해 프레임들을 임시 저장하는 저장부(버퍼)의 크기에 의존할 수 있다. 또는, 영상이 다른 장면으로 전환되는 시점에서, 이후 픽셀 간의 상관 관계가 낮아질 수 있기 때문에, 유사한 영상의 연속된 영상의 수가 시간적 프레임의 폭 또는 높이가 될 수 있다. 이러한 정보는 사전에 미리 정해지거나, 사용자의 입력으로 설정될 수 있으며, 또는 코딩 과정에서 영상 정보에 기초하여 계산될 수도 있다.
공간 좌표계 (x,y)에 대하여, 시간 t인 시점에서의 원 프레임을
Figure pat00001
, n번째 시간적 프레임을
Figure pat00002
라고 하자. 시간적 프레임 내에서의 라인 슬라이스의 배치를 획득된 시간 순서에 따라 좌측에서 우측으로 하고, 시간적 프레임의 배치는 원 프레임에서 좌측에 위치한 라인 슬라이스들로 구성된 시간적 프레임을 앞쪽에 위치시킨다고 할 때, 원 프레임들과 새롭게 생성된 시간적 프레임들의 관계는 하기 수학식1과 같이 나타낼 수 있다.
Figure pat00003
라인 슬라이스 배치가 일정한 순서대로 되지 않는다면, 수학식 1은 하기 수학식 2와 같이 변형될 수 있다. 여기서
Figure pat00004
는 상술한 상관 관계 등을 고려해서 계산한 k번째 라인 슬라이스의 시간적 프레임 내에서의 위치를 나타낸다.
Figure pat00005
본 발명의 또 다른 실시예에 있어서는, 수평 방향 라인 슬라이스들로 잘라서 시간적 프레임을 구성할 수 있다. 이 경우의 시간적 프레임 내에서 라인 슬라이스를 획득된 시간 순서에 따라 상측에서 하측으로 배치하고, 시간적 프레임 간의 배치는 원 프레임에서 상측에 있는 라인 슬라이스들로 구성된 프레임을 앞쪽에 위치시킨다고 할 때, 시간적 영상
Figure pat00006
은 하기 수학식3과 같이 나타낼 수 있다.
Figure pat00007
마찬가지로, 상관관계 등을 고려해서 계산한 k번째 라인 슬라이스의 시간적 영상 내에서의 위치를
Figure pat00008
라고 하면, 하기 수학식 4와 같이 나타낼 수 있다.
Figure pat00009
이외의 경우에 대한 변환 역시 이와 유사하게 가능하다.
시간적 프레임 내에서의 라인 슬라이스 배치에 대한 정보는 미리 정해져 있거나, 각 프레임의 헤더 등에 위치할 수 있다.
상기와 같은 방법으로 구성된 시간적 영상은, 원 영상을 이용하는 것보다 공간적 상관 관계 또는 시간적 상관 관계가 높아질 수 있다. 보다 구체적으로, 원 비디오 신호가 거의 움직임이 없는 정지 영상에 가깝다면, 동일한 위치에 대해 구성된 시간적 영상은 영상 내에서 높은 공간적 상관 관계를 나타낼 수 있다. 또는 시간적 연관성을 이용하여 생성된 영상인 만큼, 시간적 영상 간에서 높은 상관 관계를 나타낼 수 있다. 따라서 원 영상 대신 상관 관계가 높은 시간적 영상을 사용하여 압축 부호화를 수행할 경우보다 높은 압축률을 기대할 수 있다.
본 발명의 또 다른 실시예에 따르면, 원 영상과 시간적 영상을 함께 사용할 수 있다. 시간적 영상 간에 상관 관계가 높은 경우 시간적 영상을 사용하는 것이 부호화 효율을 높일 수 있으므로 시간적 영상의 부분을 사용하고, 상관 관계가 낮은 경우 원 영상의 부분을 이용해서 코딩을 수행한다. 도 3 은 이러한 실시예에 따른 QCIF(176x144) 300 프레임의 시간적 영상으로의 변환을 나타낸 것이다. 시간적 프레임으로 만들 경우 상관 관계가 원 프레임보다 높아지는 경우(210), 시간적 프레임으로 변환하여 코딩하고 그렇지 않은 경우(220)는 기존 영상으로 코딩한다. 이 경우, 시간적 영상에 대한 변환을 먼저 수행하여 기존 영상에 합친 후 코딩할 수도 있고, 시간적 영상에 대한 코딩과 기존 영상 부분에 대한 코딩을 별도의 독립된 과정으로 나누어서 할 수도 있다.
비디오 신호는 해당 신호가 시간적 영상을 이용해서 코딩되었다는 것을 나타내는 정보를 포함할 수 있다. 본 발명의 일 실시예에 따르면, 비디오 신호는 각 프레임별로 시간적 프레임을 사용하여 코딩되었는지 여부를 나타내는 플래그를 포함할 수 있다. 본 발명의 또 다른 실시예에 따르면, 비디오 신호는 픽쳐 또는 슬라이스 헤더에 시간적 영상을 사용하는 영역에 대한 정보를 포함할 수 있다. 이때 상기 영역에 대한 정보는 시간적 프레임의 크기 및/또는 하나의 시간적 영상을 구성하는데 사용한 프레임 수 등이 될 수 있다.
시간적 프레임을 사용한 경우, 코딩된 신호에는 원 프레임에서의 획득 순서에 대한 정보를 별도로 포함할 수 있다. 예를 들어, 새롭게 구성된 시간적 영상의 배열을 원 영상에서의 위치에 대해 좌측에서 우측, 우측에서 좌측, 상측에서 하측 또는 하측에서 상측으로 하였는지 여부를 플래그 변수에 각각 0 내지 3의 값으로 표현할 수 있다. 또는 각 라인 슬라이스에 대한 원 영상의 순서 정보를 영상 번호 등을 이용하여 포함시킬 수 있다.
도 4는 본 발명의 일 실시예에 따른 비디오 신호 인코딩 장치(300)의 개략적인 블록도이고, 도 5는 본 발명의 일 실시예에 따라 시간적 프레임을 생성하여 비디오 신호를 인코딩하는 방법을 나타내는 순서도이다. 이하 도 4 및 도 5를 참조하여 본 발명의 일 실시예에 따른 인코딩 방법 및 장치를 설명한다.
도 4를 참조하면, 본 발명의 인코딩 장치(300)는 시간적 프레임 생성부(310)를 포함하고, 프레임 타입 선택부(320), 변환부(330), 양자화부(340), 엔트로피 코딩부(350), 역양자화부(360), 역변환부(370), 필터링부(380) 및 예측부(390) 등을 더 포함할 수 있다.
시간적 프레임 생성부(310)에서는 비디오 신호를 입력 받아(S310단계) 상술한 시간적 영상 형태의 시간적 프레임을 생성한다(S320단계). 시간적 프레임 생성부(310)의 동작과 관련해서는 도 6을 참조하여 이후에서 상세하게 설명한다.
프레임 타입 선택부(320)는 원 영상 형태의 프레임 및 새롭게 생성된 시간적 영상 형태의 프레임 중 공간적 또는 시간적 상관관계가 높아 압축률이 높아질 수 있는 형태의 프레임을 압축 대상으로 선택한다(S330단계). 프레임 내 또는 프레임 간 상관관계 측정을 위해서 SAD, SSD 및 NCC 등이 사용될 수 있다. 만약 시간적 프레임을 선택한다면, 시간적 프레임 사용 여부를 플래그 등에 표시하고(S340), 시간적 프레임을 부호화 하기 위해 변환부(330)로 전달하여 변환한다(S350단계). 만약 시간적 프레임을 사용하지 않는다면 원 프레임을 변환부(330)로 전달하여 변환한다(S360단계). 변환을 거친 프레임은 양자화, 엔트로피 인코딩 등의 단계를 거쳐(S370 단계) 출력 비트스트림으로 생성된다(S380단계).
변환부(330)는 입력받은 프레임 대한 화소 값을 변환하여 변환 계수 값을 획득한다. 예를 들어, 이산 코사인 변환(DCT: Discrete Cosine Transform) 또는 웨이블릿 변환(Wavelet Transform) 등이 사용될 수 있다. 특히 이산 코사인 변환은 입력된 영상 신호를 블록 단위로 나누어 변환을 수행하게 된다. 양자화부(340)는 변환부(330)에서 출력된 변환 계수 값을 양자화한다. 역양자화부(360)에서는 변환 계수 값을 역양자화하고, 역변환부(370)에서는 역양자화된 변환 계수 값을 이용하여 원래의 화소 값을 복원한다.
필터링부(380)는 복원된 영상의 품질 개선을 위한 필터링 연산을 수행한다. 예를 들어, 디블록킹 필터(미도시) 및 적응적 루프 필터(미도시) 등이 포함될 수 있다. 영상을 블록 단위로 변환할 경우 블록 경계에서 왜곡 현상(이하 '블록 왜곡'이라 한다)이 생길 수 있는데, 이와 같은 블록왜곡을 감소시키기 위해 디블록킹 필터가 적용된다. 디블록킹 필터는 블록의 가장자리를 부드럽게 하여 복원된 영상의 화질을 향상시킨다. 또한, 전체 영상에서의 잡음 제거를 위하여 적응적 루프 필터가 적용 수 있다. 필터링을 거친 영상은 출력되거나 참조 영상으로 이용하기 위하여 제 1 저장부(396)에 저장된다.
코딩 효율을 높이기 위하여 이미 코딩된 영역을 이용하여 영상을 예측하고, 예측된 영상에 원 영상과 예측 영상간의 레지듀얼 값을 더하여 복원 영상을 획득하는 방법이 사용된다. 화면내 예측부(392)에서는 현재 영상 내에서 화면간 예측을 수행하며, 화면간 예측부(394)에서는 제 1 저장부(296)에 저장된 참조 영상을 이용하여 현재 영상을 예측한다.
화면내 예측부(392)는 현재 영상 내의 복원된 영역들로부터 예측을 수행하며, 화면내 부호화 정보를 엔트로피 코딩부(350)에 전달한다. 화면간 예측부(394)는 다시 움직임 보상부(미도시) 및 움직임 추정부(미도시)를 포함하여 구성될 수 있다. 움직임 추정부에서는 복원된 영상을 참조하여 현재 영상의 모션 벡터 값을 획득한다. 움직임 추정부에서는 참조 블록의 위치 정보(참조 영상, 모션 벡터 등) 등을 엔트로피 코딩부(350)로 전달하여 비트스트림에 포함될 수 있도록 한다. 움직임 추정부에서 전달된 모션 벡터값을 이용하여 움직임 보상부에서는 화면간 움직임 보상을 수행한다.
엔트로피 코딩부(350)는 양자화된 변환 계수, 화면간 부호화 정보, 화면내 부호화 정보 및 화면간 예측부(394)로부터 입력된 참조 블록 정보 등을 엔트로피 코딩하여 비디오 신호 비트스트림을 생성한다. 여기서 엔트로피 코딩부(160)에서는 가변 길이 코딩(VLC: Variable Length Coding) 방식과 산술 코딩(arithmetic coding) 등이 사용될 수 있다. 가변 길이 코딩(VLC) 방식은 입력되는 심볼들을 연속적인 코드워드로 변환하는데, 코드워드의 길이는 가변적일 수 있다. 예를 들어, 자주 발생하는 심볼들을 짧은 코드워드로 자주 발생하지 않은 심볼들은 긴 코드워드로 표현하는 것이다. 가변 길이 코딩 방식으로서 컨텍스트 기반 적응형 가변 길이 코딩(CAVLC: Context-based Adaptive Variable Length Coding) 방식이 사용될 수 있다. 산술코딩은 연속적인 데이터 심볼들을 하나의 소수로 변환하는 데, 산술 코딩은 각 심볼을 표현하기 위하여 필요한 최적의 소수 비트를 얻을 수 있다. 산술 코딩으로서 컨텍스트 기반 적응형 산술 부호화(CABAC: Context-based Adaptive Binary Arithmetic Code)가 이용될 수 있다.
도 6은 본 발명의 일 실시예에 따른 시간적 영상 생성부(310)의 구성을 나타낸 블록도이다. 도 6을 참조하면, 시간적 영상 생성부(310)는 다시 분할부(312) 및 제 2 저장부(316)를 포함하고, 생성 제어부(314) 및 순서 제어부(318)를 더 포함하여 구성될 수 있다. 수신된 비디오 신호는 분할부(312)로 입력되어 시간적 프레임을 구성할 기본 단위(예를 들면, 수직 또는 수평 형태의 라인 슬라이스)로 분해된다. 어떠한 기본 단위로 분해하고 새롭게 생성되는 시간적 프레임에서 어떤 위치에 배열(예를 들면, 시간적으로 먼저 획득된 라인 슬라이스를 좌측에 위치하도록 배열)의 되는지는 시간적 프레임 생성 제어부(314)에서 결정한다. 생성 제어부(314)에서는 전술한 바와 같이 프레임들의 상관관계가 높아지도록 기본 단위들의 위치를 조절하여 시간적 프레임을 생성할 수 있다. 하나의 시간적 프레임은 여러 개의 원 프레임을 이용하여 생성되므로, 생성되는 과정의 시간적 프레임들은 제 2 저장부(316)에 저장된다. 완성된 프레임들 간의 순서(예를 들면, 좌측에 있는 수직 라인 슬라이스들로 구성된 프레임이 앞쪽에 오도록 배열)는 순서 제어부(318)에서 결정한다.
시간적 영상을 이용해서 코딩된 비트스트림에 대한 디코딩 과정을 도 7및 도8을 참조하여 이하에서 설명한다. 도 7은 본 발명의 일 실시예에 따른 비디오 신호 디코딩 장치(300)의 개략적인 블록도이고, 도 8은 본 발명의 일 실시예에 따른 비디오 신호를 디코딩 하는 방법을 나타내는 순서도이다.
도 7을 참조하면, 디코더 장치(400)는 시간적 영상 변환부(460)를 포함하고, 엔트로피 디코딩부(410), 역양자화부(420), 역변환부(430), 필터링부(440), 예측부(450)를 포함할 수 있다. 입력된 비트스트림은 엔트로피 디코딩부(410), 역양자화부(420), 역변환부(430) 등을 거쳐 복원되며, 영상의 품질 향상을 위해 필터링부(440)를 더 거치는 것이 일반적이다. 복원된 영상은 시간적 영상 변환부(460)에서 시간적 프레임인 경우에는 원래의 형태로 변형되어 비디오 신호를 생성한다.
엔트로피 디코딩부(410)는 비디오 신호 비트스트림을 수신하고(S410 단계) 이를 엔트로피 디코딩하여, 각 매크로블록의 변환 계수, 모션 벡터 등을 추출한다(S420단계). 역양자화부(420)는 엔트로피 디코딩된 변환 계수를 역양자화하고(S430단계), 역변환부(430)는 역양자화된 변환 계수를 이용하여 원래의 화소값을 복원한다(S440 단계). 한편, 필터링부(440)는 영상에 대한 필터링을 수행하여 화질을 향상시킨다. 여기에는 블록 왜곡 현상을 감소시키기 위한 디블록킹 필터(미도시), 영상 전체의 왜곡 제거를 위한 적응적 루프 필터(미도시) 등이 포함될 수 있다. 필터링을 거친 영상은 시간적 영상 변환부(460)으로 전달되거나 다음 영상에 대한 참조 영상으로 이용하기 위하여 영상 저장부(456)에 저장된다. 만약 복원된 현재 프레임이 시간적 영상의 형태이라면 사용자가 원하는 코딩 전의 비디오 신호로의 출력을 위해 원 영상 형태로의 변환이 필요하다. 따라서 시간적 영상 변환부(460)는 일반적인 디코딩 과정, 즉 엔트로피 디코딩, 역양자화, 역변환 등을 수행한 후에 시간적 프레임을 원 영상 형태로 변환한다(S450 단계). 변환된 프레임들은 원래 프레임의 시간 순으로 재배열되어(S460단계) 출력 비디오 신호를 생성한다(S470단계)
화면내 예측부(452)에서는 현재 영상 내의 디코딩된 샘플로부터 화면내 예측을 수행하게 된다. 디코더의 화면내 예측부(452)에서의 동작은 상술한 인코더의 화면내 예측부(392)의 동작과 동일하다.
화면간 예측부(454)는 제 1저장부(396)에 저장된 참조 영상을 이용하여 모션 벡터를 추정하고 예측 영상을 생성한다. 화면간 예측부(454)는 다시 움직임 보상부(미도시) 및 움직임 추정부(미도시)를 포함하여 구성될 수 있는데, 움직임 추정부에서는 현재 블록과 코딩에 사용하는 참조 영상의 참조 블록간의 관계를 나타내는 모션 벡터를 획득하여 움직임 보상부로 전달한다. 디코더의 화면간 예측부(452)에서의 동작은 상술한 인코더의 화면간 예측부(394)의 동작과 동일하다.
화면내 예측부(452) 또는 화면간 예측부(454)로부터 출력된 예측값, 및 역변환부(425)로부터 출력된 화소값이 더해져서 복원된 비디오 영상이 생성된다.
한편, 시간적 영상과 원 영상 형태가 함께 사용된 경우에는, 이를 구분하기 위해 시간적 영상의 위치를 미리 지정해두거나 관련된 정보를 비트스트림으로부터 획득할 수 있다. 도 9 및 도 10은 시간적 영상 및 원 영상 형태가 함께 사용되어 코딩된 경우, 디코딩 과정에 대한 서로 다른 실시예를 나타내는 순서도이다. 수신된 비트스트림은 엔트로피 디코딩, 역양자화, 역변환 등의 과정을 거쳐 영상 프레임으로 복원된다(S520단계). 필요에 따라 영상 화질 개선을 위한 필터링 과정이 추가될 수도 있다(미도시).
도 9에 따르면 현재 프레임이 시간적 프레임을 사용한 것인지 여부를 나타내는 프레임 타입 플래그를 획득한다(S530A 단계). 예를 들어, 이 플래그가 1인 경우에 현재 프레임은 시간적 영상, 0인 경우 변환되지 않은 원 영상이 될 수 있다. 이 정보를 이용하여 현재 프레임이 시간적 프레임 인지 여부를 판단한다(S540A 단계).
한편, 이러한 정보는 각 프레임 별로 획득되는 대신에, 픽쳐(혹은 슬라이스) 헤더와 같은 여러 영상에 대한 일반적인 내용을 포함하는 헤더에 영역 위치 등을 나타내는 정보로써 포함될 수 있다. 이러한 정보에는 프레임의 수, 프레임 종류 플래그의 사용 여부 등이 포함될 수도 있다. 도 10에 따르면 비트스트림으로부터 시간적 프레임 사용 영역에 대한 정보를 획득하고(S530B 단계), 이 정보를 이용하여 현재 프레임이 시간적 영상의 사용 영역 내에 속하는 것인지 여부를 계산하여 판단한다(S540B 단계).
비트 압축률을 높이기 위해서, 픽쳐(혹은 슬라이스) 헤더에 시간적 프레임 사용 여부에 대한 정보를 포함하고, 각 프레임에서는 시간적 프레임을 사용할 수 있거나 포함된 경우에만(예를 들어, 픽쳐 헤더에 포함된 픽쳐 정보가 시간적 영상이 포함된 픽쳐 타입을 지시하는 경우), 시간적 영상 사용 여부에 대한 정보를 전송할 수 있다.
만약 시간적 영상 형태의 프레임인 경우, 출력을 위해 원 영상으로의 변환 과정을 거친다(S550 단계). 시간적 영상의 원 영상으로의 변환은, 상술한 시간적 영상 생성 과정의 역과정으로 진행된다. 시간적 프레임의 픽셀들을 분할하여 원 영상을 구성하게 되는데, 상술한 바와 같이 수직 또는 수평 라인의 슬라이스 형태로 분할하는 것으로 설명한다. 분할된 라인 슬라이스들을 동일한 시간에 획득된 것끼리 모아 원 영상에 대한 프레임들을 구성하게 된다. 이 때 원영상 에서의 라인 슬라이스의 위치는 기결정된 순서(예를 들어 좌측에서 우측)일 수도 있고, 영상 내에서의 상관 관계가 높아지도록 임의로 계산된 순서일수도 있다. 이에 대한 정보는 수신된 비디오 신호로부터 획득될 수 있다.
시간적 영상들을 원 영상들으로 복원하고 나면, 원 영상의 원래 시간적 순서대로 프레임들을 배열하는 것이 필요하다(S560단계). 이를 위해 코딩된 신호에서 원 영상에서의 시간적 위치에 대한 정보를 획득한다. 만약 기 결정된 순서대로(예를 들어, 좌측에서 우측) 코딩하는 경우에는 정보 획득은 생략될 수 있다. 획득된 정보는 순서 방향을 나타내는 플래그 정보(예를 들어, 원 영상에서의 위치에 대해 좌측에서 우측, 우측에서 좌측, 상측에서 하측 또는 하측에서 상측으로 하였는지 여부는 각각 0 내지 3에 대응될 수 있다.) 또는 순서 자체를 나타내는 값일 수 있다. 상기 시간적 위치에 대한 정보에서 획득된 순서가 빠른 영상이 시간상으로 먼저 획득된 영상이므로, 출력 비디오 신호에서 앞쪽에 위치하게 된다.
만약 현재 프레임이 시간적 영상이 아니라면 원 영상을 그대로 사용하면 된다(S540A 및 S540B 단계의 '아니오'). 이러한 프레임들이 모여 출력 비디오 신호를 생성하게 된다(S570단계).
도 11은 본 발명의 일 실시예에 따른 시간적 영상 변환부(460)의 구성을 나타낸 블록도이다. 도 11을 참조하면, 시간적 영상 변환부(460)는 다시 분할부(462) 및 제 2 저장부(466)를 포함하고, 생성 제어부(464) 및 순서 제어부(468)를 더 포함하여 구성될 수 있다. 시간적 프레임은 분할부(462)로 입력되어 시간적 프레임이 생성되는데 이용된 기본 단위(예를 들면, 수직 또는 수평의 라인 슬라이스)로 분해된다. 시간적 프레임 생성 제어부(464)에서는 기 정해진 순서에 따르거나, 수신된 비트스트림으로부터 관련 정보를 획득하여 시간적 프레임이 어떠한 기본 단위로 생성되었고, 원 프레임에서 어떤 위치에 있었는지 결정한다. 복수개의 시간적 프레임이 복수개의 원 프레임으로 변환되므로, 생성되는 과정의 복원된 프레임들은 제 2 저장부(466)에 저장된다. 완성된 프레임들 간의 순서(예를 들면, 좌측에 있는 수직 라인 슬라이스들로 구성된 프레임이 앞쪽에 오도록 배열)는 순서 제어부(318)에서 기 결정되어 있는 순서 또는, 수신된 비트스트림으로부터 획득된 정보에 기초한 순서에 따라서 결정한다.
본 발명이 적용되는 디코딩/인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무선 통신망을 이용해 전송될 수 있다.
이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.

Claims (11)

  1. 복수개의 프레임에 대한 정보를 포함하는 비디오 신호를 수신하는 단계, 상기 복수개의 프레임은 제 1 방식 프레임 및 제 2 방식 프레임으로 구성됨;
    상기 수신된 비디오 신호로부터 상기 복수개의 프레임들을 획득하는 단계;
    현재 프레임이 상기 제 1 방식 프레임 또는 상기 제 2 방식 프레임 중 어느 것인지를 나타내는 프레임 정보를 획득하는 단계; 및
    상기 프레임 정보에 기초하여, 상기 복수개의 프레임들 중에서 상기 제 1 방식 프레임들을 상기 제 2 방식 프레임으로 변환하는 단계를 포함하고,
    상기 제 2 방식 프레임은 동일한 시간에 획득한 픽셀들로 구성되고, 상기 제 1방식 프레임은 복수개의 상기 제 2 방식 프레임에서 동일한 위치에 대응하는 영역의 픽셀들로 구성된 것을 특징으로 하는 비디오 신호 처리 방법.
  2. 제 1항에 있어서,
    상기 제1방식 프레임의 사용 여부에 대한 정보를 시퀀스 레벨 단위로 획득하는 단계를 더 포함하고,
    상기 프레임 정보는 상기 프레임 사용 여부에 대한 정보에 기초하여 획득되는 것을 특징으로 하는 비디오 신호 처리 방법.
  3. 제 1항에 있어서,
    상기 제 1 방식 프레임들을 상기 제 2 방식 프레임으로 변환하는 단계는,
    상기 제1방식 프레임들을 수직 픽셀열 또는 수평 픽셀열들로 분리하는 단계;
    상기 분리된 수직 픽셀열 또는 수평 픽셀열들 중에서 동일 시간에 획득된 수직 픽셀열 또는 수평 픽셀열들을 이용하여 상기 제 2 방식 프레임들을 생성하는 단계; 및
    상기 변환된 제 2 방식 프레임들을 출력 순서에 따라 배열 하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 처리 방법.
  4. 복수개의 제 1 방식 프레임에 대한 정보를 포함하는 비디오 신호를 수신하는 단계;
    상기 수신된 비디오 신호로부터 상기 제 1 방식 프레임들을 획득하는 단계;
    상기 제 1 방식 프레임들을 상기 제 2 방식 프레임으로 변환하는 단계; 및
    상기 변환된 제 2 방식 프레임들을 출력 순서에 따라 배열하는 단계를 포함하고,
    상기 제 2 방식 프레임은 동일한 시간에 획득한 픽셀들로 구성되고, 상기 제 1방식 프레임은 복수개의 상기 제 2 방식 프레임에서 동일한 위치에 대응하는 영역의 픽셀들로 구성된 것을 특징으로 하는 비디오 신호 처리 방법.
  5. 복수개의 제 1 방식 프레임들에 대한 정보를 포함하는 비디오 신호를 수신하는 단계;
    상기 수신된 제 1 방식 프레임들을 제 2 방식 프레임들로 변환하는 단계; 및
    상기 제 2 방식 프레임들에 대하여 영상간 또는 영상내 상관관계를 이용하여 부호화하는 단계를 포함하는 것을 특징으로 하고,
    상기 제 1 방식 프레임은 동일한 시간에 획득한 픽셀들로 구성되고,
    상기 제 2방식 프레임은 복수개의 상기 제 1 방식 프레임에서 동일한 위치에 대응하는 영역의 픽셀들로 구성된 것을 특징으로 하는 비디오 신호 처리 방법.
  6. 제 5항에 있어서,
    상기 수신된 제 1 방식 프레임들을 제 2 방식 프레임들로 변환하는 단계는,
    상기 제1방식 프레임들을 수직 픽셀열 또는 수평 픽셀열들로 분리하는 단계 및
    상기 분리된 수직 픽셀열 또는 수평 픽셀열들 중에서, 서로 다른 시간에 획득된 상기 제 1방식 프레임들 내에서 동일한 위치에 대응하는 수직 픽셀열 또는 수평 픽셀열들을 이용하여 상기 제 2 방식 프레임들을 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 처리 방법.
  7. 제 6항에 있어서,
    상기 수신된 제 1 방식 프레임들을 제 2 방식 프레임들로 변환하는 단계는,
    현재 프레임 정보 플래그에 상기 제 2 방식 프레임을 나타내는 것을 표시하는 단계를 더 포함하는 것을 특징으로 하는 비디오 신호 처리 방법.
  8. 복수개의 프레임에 대한 정보를 포함하는 비디오 신호를 수신하는 수신부, 상기 복수개의 프레임은 제 1 방식 프레임 및 제 2 방식 프레임으로 구성됨;
    상기 수신된 비디오 신호로부터 상기 복수개의 프레임들을 획득하는 디코딩부; 및
    현재 프레임이 상기 제 1 방식 프레임 또는 상기 제 2 방식 프레임 중 어느 것인지를 나타내는 프레임 정보를 획득하고, 상기 프레임 정보에 기초하여 상기 복수개의 프레임들 중에서 상기 제1방식 프레임들을 상기 제 2 방식 프레임으로 변환하는 영상 변환부를 포함하고,
    상기 제 2 방식 프레임은 동일한 시간에 획득한 픽셀들로 구성되고, 상기 제 1방식 프레임은 복수개의 상기 제 2 방식 프레임에서 동일한 위치에 대응하는 영역의 픽셀들로 구성된 것을 특징으로 하는 비디오 신호 처리 장치.
  9. 제 8항에 있어서, 상기 영상 변환부는,
    상기 복수개의 프레임들 중에서 상기 제1방식 프레임들을 수직 픽셀열 또는 수평 픽셀열들로 분리하는 분할부;
    상기 상기 분리된 수직 픽셀열 또는 수평 픽셀열들 중에서 동일 시간에 획득된 수직 픽셀열 또는 수평 픽셀열들을 이용하여 상기 제 2 방식 프레임들을 구성하는 생성 제어부; 및
    상기 제 1 방식 프레임 및 상기 제 2 방식 프레임들을 출력 순으로 배열 하는 순서 제어부를 포함하는 것을 특징으로 하는 비디오 신호 처리 장치.
  10. 복수개의 제 1 방식 프레임에 대한 정보를 포함하는 비디오 신호를 수신하는 수신부;
    상기 수신된 제 1 방식 프레임들을 제 2 방식 프레임들로 변환하는 프레임 생성부; 및
    상기 제 2 방식 프레임들에 대하여 영상간 또는 영상내 상관관계를 이용하여 부호화하는 코딩부를 포함하고,
    상기 제 1 방식 프레임은 동일한 시간에 획득한 픽셀들로 구성되고,
    상기 제 2방식 프레임은 복수개의 상기 제 1 방식 프레임들에서 동일한 위치에 대응하는 영역의 픽셀들로 구성된 것을 특징으로 하는 비디오 신호 처리 장치.
  11. 제 10항에 있어서, 상기 프레임 생성부는,
    상기 수신된 제 1 방식 프레임을 수직 픽셀열 또는 수평 픽셀열들로 분리하는 분할부;
    상기 분리된 수직 픽셀열 또는 수평 픽셀열들 중에서, 서로 다른 시간에 획득된 상기 제 1 방식 프레임들 내에서 동일한 위치에 대응하는 수직 픽셀열 또는 수평 픽셀열들을 이용하여 상기 제 2 방식 프레임들을 생성하는 생성 제어부; 및
    생성된 프레임들을 저장하는 저장부를 포함하는 것을 특징으로 하는 비디오 신호 처리 장치.
KR1020100070012A 2009-11-19 2010-07-20 비디오 신호의 처리 및 방법 KR20110055358A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US26290509A 2009-11-19 2009-11-19
US61/262,905 2009-11-19

Publications (1)

Publication Number Publication Date
KR20110055358A true KR20110055358A (ko) 2011-05-25

Family

ID=44364363

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100070012A KR20110055358A (ko) 2009-11-19 2010-07-20 비디오 신호의 처리 및 방법

Country Status (1)

Country Link
KR (1) KR20110055358A (ko)

Similar Documents

Publication Publication Date Title
JP5957561B2 (ja) 大きいサイズの変換単位を用いた映像符号化、復号化方法及び装置
US8515190B2 (en) Method and apparatus for encoding and decoding image by using large transformation unit
CN107295347B (zh) 用于解码合并模式下的运动信息的装置
KR101483750B1 (ko) 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
CN108432248A (zh) 用于对视频信号进行熵编码和解码的方法和设备
KR20100081974A (ko) 비디오 신호처리 방법 및 장치
KR20100017453A (ko) 비디오 신호 처리 방법 및 장치
KR20120116936A (ko) 영상 블록 코딩 및 재구성 방법
KR20110112224A (ko) 부호화 모드에 대한 정보를 부호화, 복호화하는 방법 및 장치
KR20110017302A (ko) 움직임 벡터의 정확도 조절을 이용한 영상 부호화, 복호화 방법 및 장치
JPWO2009051010A1 (ja) 画像符号化装置、画像復号装置、画像符号化方法、および画像復号方法
KR101973568B1 (ko) 영상 변환 부호화/복호화 방법 및 장치
JP5768180B2 (ja) 画像復号方法及び画像復号装置
KR20110098089A (ko) 영상 부호화 장치 및 그 방법, 및 영상 복호화 장치 및 그 방법
KR20110055358A (ko) 비디오 신호의 처리 및 방법
KR101662741B1 (ko) 영상 복호화 방법
KR101618214B1 (ko) 영상 복호화 방법
KR101618766B1 (ko) 영상 복호화 방법 및 장치
KR101525015B1 (ko) 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
KR101489222B1 (ko) 영상의 부호화 방법 및 장치, 영상 복호화 방법 및 장치
JP4153774B2 (ja) 動画像符号化方法とその復号化方法、およびそれらの装置
JP2007306528A (ja) 動画像復号装置および動画像復号方法
KR20130041039A (ko) 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
KR20130041038A (ko) 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination