KR20080055685A - 비디오 신호의 디코딩 방법 및 장치 - Google Patents

비디오 신호의 디코딩 방법 및 장치 Download PDF

Info

Publication number
KR20080055685A
KR20080055685A KR1020070129740A KR20070129740A KR20080055685A KR 20080055685 A KR20080055685 A KR 20080055685A KR 1020070129740 A KR1020070129740 A KR 1020070129740A KR 20070129740 A KR20070129740 A KR 20070129740A KR 20080055685 A KR20080055685 A KR 20080055685A
Authority
KR
South Korea
Prior art keywords
information
prediction
video signal
inter
decoding
Prior art date
Application number
KR1020070129740A
Other languages
English (en)
Other versions
KR101366288B1 (ko
Inventor
박승욱
전병문
전용준
구한서
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20080055685A publication Critical patent/KR20080055685A/ko
Application granted granted Critical
Publication of KR101366288B1 publication Critical patent/KR101366288B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 비디오 신호의 헤더로부터 현재 NAL의 코딩 방식을 구별하는 제 1 플래그 정보를 획득하는 단계, 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩인 경우, 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 단계 및 상기 제 2 플래그 정보에 따라 상기 비디오 신호를 부분적으로 디코딩하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.
Figure P1020070129740
다시점, 시점간 예측

Description

비디오 신호의 디코딩 방법 및 장치{A METHOD AND APPARATUS FOR DECODING A VIDEO SIGNAL}
본 발명은 비디오 신호의 코딩에 관한 기술이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성을 지니고 있는 점에 특징이 있다.
픽쳐의 시점을 식별할 수 있는 시점 정보를 정의함으로써 비디오 신호를 효율적으로 코딩하고자 한다.
현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측에 이용되는지 여부를 나타내는 인터뷰 예측 플래그를 정의함으로써 비디오 신호를 효율적으로 코딩하고자 한다.
시점간의 의존 관계를 나타내는 인터뷰 참조 정보를 이용하여 참조 픽쳐 리스트를 생성 및 관리함으로써 비디오 신호를 효율적으로 코딩하고자 한다.
인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 참조 정보를 획득함으로써 시점간의 랜덤 액세스를 효율적으로 수행할 수 있다.
다시점 비디오 영상의 속성 정보를 적절한 곳에 위치시킴으로써 코딩 효율을 높이고자 한다.
시퀀스 파라미터 세트의 확장 영역을 적절한 곳에 위치시킴으로써 코딩 효율을 높이고자 한다.
본 발명은 비디오 신호의 헤더로부터 현재 NAL의 코딩 방식을 구별하는 제 1 플래그 정보를 획득하는 단계, 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩인 경우, 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 단계 및 상기 제 2 플래그 정보에 따라 상기 비디오 신호를 부분적으로 디코딩하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제 공한다.
또한, 본 발명은, 현재 NAL 유닛에 포함된 매크로블록의 타입 정보를 획득하는 단계를 더 포함하고, 상기 매크로블록의 타입 정보에 기초하여 비디오 신호를 부분적으로 디코딩하는 것을 특징으로 한다.
또한, 본 발명은, 매크로블록의 타입 정보가 인트라 예측인 경우, 매크로블록의 모든 데이터를 디코딩하는 것을 특징으로 한다.
또한, 본 발명은, 매크로블록의 타입 정보가 인터 예측인 경우, 매크로블록의 레지듀얼 데이터만 디코딩하는 것을 특징으로 한다.
또한, 본 발명은, 비디오 신호로부터 시퀀스 파라미터 정보를 획득하는 단계, 상기 시퀀스 파라미터 정보를 획득한 후, 시퀀스 파라미터 세트의 확장 영역으로부터 다시점 비디오 신호의 속성 정보를 획득하는 단계 및 상기 속성 정보에 기초하여 상기 비디오 신호를 디코딩하는 단계를 포함하되, 상기 속성 정보는 시점간 참조 관계를 나타내는 인터뷰 참조 정보와 카메라 파라미터 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.
또한, 본 발명은, 시퀀스 파라미터 정보는 영상 포맷을 나타내는 정보를 포함하고, 영상 포맷이 4:4:4 포맷이 아닌 경우, 각 시점마다 색차 위상 이동 정보를 획득하는 것을 특징으로 한다.
또한, 본 발명은, 현재 NAL 유닛의 코딩 방식을 구별하는 제 1 플래그 정보에 따라 상기 현재 NAL 유닛이 다시점 비디오 코딩된 경우, 상기 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 파싱부와 상 기 제 2 플래그 정보에 따라 상기 비디오 신호를 부분적으로 디코딩하는 인터 예측부를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치를 제공한다.
본 발명은 비디오 신호를 코딩함에 있어서, 코딩 정보를 적절한 곳에 위치시킴으로써 보다 효율적으로 코딩을 수행할 수 있게 된다. 또한, 현재 픽쳐가 시점간 예측에 이용되는 경우인지를 먼저 확인하고, 시점간 예측에 이용되는 경우에만 시점간 예측에 필요한 정보를 전송함으로써 전송할 비트수를 감소시킬 수 있을 뿐만 아니라, 복호 픽쳐 버퍼의 부담을 감소시켜 코딩 속도를 향상시킬 수 있다. 또한, 다시점 영상에 대한 다양한 속성 정보들을 이용함으로써 보다 효율적인 코딩이 가능할 수 있다.
비디오 신호 데이터를 압축 부호화하는 기술은 공간적 중복성, 시간적 중복성, 스케일러블한 중복성, 시점간 존재하는 중복성을 고려하고 있다. 또한, 이러한 압축 부호화 과정에서 시점 간 존재하는 상호 중복성을 고려하여 압축 코딩을 할 수 있다. 시점간 중복성을 고려하는 압축 코딩에 대한 기술은 본 발명의 실시예일 뿐이며, 본 발명의 기술적 사상은 시간적 중복성, 스케일러블한 중복성 등에도 적용될 수 있다. 또한, 본 명세서에서 코딩이라 함은 인코딩과 디코딩의 개념을 모두 포함할 수 있고, 본 발명의 기술적 사상 및 기술적 범위에 따라 유연하게 해석할 수 있을 것이다.
도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.
상기 디코딩 장치는 크게 파싱부(100), 엔트로피 디코딩부(200), 역양자화/역변환부(300), 인트라 예측부(400), 디블록킹 필터부(500), 복호 픽쳐 버퍼부(600), 인터 예측부(700) 등을 포함한다.
파싱부(100)에서는 수신된 비디오 영상을 복호하기 위하여 NAL(Network Abstraction Layer) 단위로 파싱을 수행한다. 일반적으로 하나 또는 그 이상의 시퀀스 파라미터 셋과 픽쳐 파라미터 셋이 슬라이스 헤더와 슬라이스 데이터가 디코딩되기 전에 디코더로 전송된다. 이 때 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에는 여러 가지 속성 정보가 포함될 수 있다. MVC(Multiview Video Coding)는 기존 AVC 기술에 대한 추가 기술이므로 무조건적으로 추가하기보다는 MVC 비트스트림인 경우에 한해 여러 가지 속성 정보들을 추가하는 것이 더 효율적일 수 있다. 예를 들어, 상기 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에서 MVC 비트스트림인지 여부를 식별할 수 있는 플래그 정보를 추가할 수 있다. 상기 플래그 정보에 따라 입력된 비트스트림이 다시점 영상 코딩된 비트스트림일 경우에 한해 다시점 영상에 대한 속성 정보들을 추가할 수 있다. 예를 들어, 상기 속성 정보들은 시점 식별(view identification) 정보, 인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information), 인터뷰 예측 플래그 정보(inter-view prediction flag information) 등을 포함할 수 있다.
먼저 시점 식별 정보(view identification information)란, 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 정보를 말한다. 비디오 영상 신 호가 코딩될 때, 각각의 픽쳐를 식별하기 위하여 POC(Picture Order Count)와 frame_num 이 이용된다. 다시점 비디오 영상인 경우에는 시점간 예측이 수행되기 때문에 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 식별 정보가 필요하다. 따라서, 픽쳐의 시점을 식별하는 시점 식별 정보를 정의할 필요가 있다. 상기 시점 식별 정보는 비디오 신호의 헤더 영역으로부터 획득될 수 있다. 예를 들어, 상기 헤더 영역은 NAL 헤더 또는 NAL 헤더의 확장 영역일 수도 있고, 슬라이스 헤더일 수도 있다. 상기 시점 식별 정보를 이용하여 현재 픽쳐와 다른 시점에 있는 픽쳐의 정보를 획득하고, 상기 다른 시점에 있는 픽쳐의 정보를 이용하여 상기 비디오 신호를 디코딩할 수 있다.
인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information)란, 현재 NAL 유닛의 코딩된 픽쳐가 인터뷰 픽쳐 그룹인지 여부를 식별하는 정보를 말한다. 그리고, 인터뷰 픽쳐 그룹(inter-view picture group)이라 함은, 모든 슬라이스들이 동일 시간대의 프레임에 있는 슬라이스만을 참조하는 부호화된 픽쳐를 의미한다. 예를 들어, 다른 시점에 있는 슬라이스만을 참조하고 현재 시점에 있는 슬라이스는 참조하지 않는 부호화된 픽쳐를 말한다. 다시점 영상의 복호화 과정에 있어서, 시점 간의 랜덤 액세스는 가능할 수 있다. 이처럼, 인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 참조 정보를 획득하게 될 경우, 보다 효율적으로 시점 간의 랜덤 액세스를 수행할 수 있게 된다. 이는 인터뷰 픽쳐 그룹에서의 각 픽쳐들 사이의 시점간 참조 관계가 넌-인터뷰 픽쳐 그룹에서의 시점간 참조 관계가 다를 수 있기 때문이다. 이때, 상기 시점 식별 정보를 이용하게 되면 보다 효율적인 랜덤 액세스가 가능할 수 있다.
인터뷰 예측 플래그 정보(inter-view prediction flag information)란, 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보를 말한다. 상기 인터뷰 예측 플래그 정보는 시간적 예측 또는 시점간 예측이 수행되는 부분에서 이용될 수 있다. 이때, NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보와 함께 이용될 수 있다. 예를 들어, 상기 식별 정보에 따라 현재 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지는 않지만 시점간 예측을 위해 이용되는 경우에, 상기 현재 NAL 유닛은 시점간 예측에만 이용되는 참조 픽쳐일 수 있다. 또는, 상기 식별 정보에 따라 현재 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 시점간 예측을 위해 이용되는 경우에, 상기 현재 NAL 유닛은 시간적 예측과 시점간 예측을 위해 이용될 수 있다. 또한, 상기 식별 정보에 따라 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지 않더라도, 복호 픽쳐 버퍼에 저장될 수 있다. 왜냐하면, 상기 인터뷰 예측 플래그 정보에 따라 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우에는 저장해야 될 필요가 있기 때문이다. 이에 대해서는 도 3에서 상세히 설명하도록 한다.
파싱된 비트스트림은 엔트로피 디코딩부(200)를 통하여 엔트로피 디코딩되고, 각 매크로블록의 계수, 움직임 벡터 등이 추출된다. 역양자화/역변환부(300)에서는 수신된 양자화된 값에 일정한 상수를 곱하여 변환된 계수값을 획득하고, 상기 계수값을 역변환하여 화소값을 복원하게 된다. 상기 복원된 화소값을 이용하여 인트라 예측부(400)에서는 현재 픽쳐 내의 디코딩된 샘플로부터 화면내 예측을 수행 하게 된다. 한편, 디블록킹 필터부(500)에서는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 매크로블록에 적용된다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 프레임의 화질을 향상시킨다. 필터링 과정의 선택은 경계 세기(boundary strenth)와 경계 주위의 이미지 샘플의 변화(gradient)에 의해 좌우된다. 필터링을 거친 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(600)에 저장된다.
복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(600)에서는 화면간 예측을 수행하기 위해서 이전에 코딩된 픽쳐들을 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(600)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용하게 된다. 따라서, MVC에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 픽쳐와 다른 시점에 있는 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 상기 frame_num 과 POC 뿐만 아니라 픽쳐의 시점을 식별하는 시점 정보도 함께 이용할 수 있다. 또한, 상기 frame_num 과 유사한 개념의 시점 방향으로 픽쳐를 식별하는 정보도 함께 이용할 수 있다.
인터 예측부(700)에서는 복호 픽쳐 버퍼부(600)에 저장된 참조 픽쳐를 이용하여 화면간 예측을 수행한다. 인터 코딩된 매크로블록은 매크로블록 파티션으로 나누어질 수 있으며, 각 매크로블록 파티션은 하나 또는 두개의 참조 픽쳐로부터 예측될 수 있다. 상기 인터 예측부(700)에서는 엔트로피 디코딩부(200)로부터 전송된 정보들을 이용하여 현재 블록의 움직임을 보상한다. 비디오 신호로부터 현재 블 록에 이웃하는 블록들의 움직임 벡터를 추출하고, 상기 현재 블록의 움직임 벡터 예측값을 획득한다. 상기 획득된 움직임 벡터 예측값과 비디오 신호로부터 추출되는 차분 벡터를 이용하여 현재 블록의 움직임을 보상한다. 또한, 이러한 움직임 보상은 하나의 참조 픽쳐를 이용하여 수행될 수도 있고, 복수의 픽쳐를 이용하여 수행될 수도 있다. 다시점 비디오 코딩에 있어서, 현재 픽쳐가 다른 시점에 있는 픽쳐들을 참조하게 되는 경우, 상기 복호 픽쳐 버퍼부(600)에 저장되어 있는 시점간 예측을 위한 참조 픽쳐 리스트에 대한 정보를 이용하여 움직임 보상을 수행할 수 있다. 그리고, 그 픽쳐의 시점을 식별하는 시점 식별 정보를 이용하여 움직임 보상을 수행할 수도 있다.
상기와 같은 과정을 통해 인터 예측된 픽쳐들과 인트라 예측된 픽쳐들은 예측 모드에 따라 선택되어 현재 픽쳐를 복원하게 된다. 이하에서는 비디오 신호의 효율적인 디코딩 방법을 제공하기 위한 다양한 실시예들을 설명하도록 한다.
도 2는 본 발명이 적용되는 실시예로서, 다시점 비디오 코딩된 비트스트림에 추가될 수 있는 다시점 비디오 영상에 대한 속성 정보를 설명하기 위한 NAL 유닛의 구조를 나타낸다.
상기 도 2에서는 다시점 비디오 영상에 대한 속성 정보들이 추가될 수 있는 NAL 유닛의 구조의 일례를 나타낸다. 크게 NAL 유닛은 NAL 유닛의 헤더와 RBSP(Raw Byte Sequence Payload, 동영상 압축의 결과데이터)로 구성될 수 있다. 그리고, NAL 유닛의 헤더에서는 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보(nal_ref_idc)와 NAL 유닛의 타입을 나타내는 정 보(nal_unit_type)를 포함할 수 있다. 또한, 제한적으로 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 예를 들어, 상기 NAL 유닛의 타입을 나타내는 정보가 다시점 비디오 코딩과 관련이 있는 경우에, 상기 NAL 유닛은 상기 NAL 유닛 헤더의 확장 영역을 포함할 수 있다. 구체적 예로, 상기 nal_unit_type = 20 또는 14 일 때 상기 NAL 유닛은 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 또한, 상기 NAL 유닛 헤더의 확장 영역은 현재 NAL 유닛의 코딩 방식을 구별하는 플래그 정보(svc_mvc_flag)를 포함할 수 있다. 예를 들어, 상기 플래그 정보에 따라 현재 NAL 유닛이 다시점 비디오 코딩된 비트스트림인지 아니면 스케일러블 비디오 코딩된 비트스트림인지 여부를 식별할 수 있다. 상기 플래그 정보에 따라 다시점 비디오 코딩된 비트스트림인 경우에 다시점 비디오 영상에 대한 속성 정보들을 추가할 수 있다.
또 다른 예로, 상기 NAL 유닛의 타입을 나타내는 정보가 서브셋 시퀀스 파라미터 세트(subset sequence parameter set)를 나타내는 정보일 경우, 상기 RBSP는 서브셋 시퀀스 파라미터 세트에 대한 정보를 포함할 수 있다. 구체적 예로, nal_unit_type = 15 일 경우, 상기 RBSP는 서브셋 시퀀스 파라미터 세트에 대한 정보, 슬라이스 레이어에 대한 정보 등을 포함할 수 있다. 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트 데이터 영역을 포함할 수 있다. 상기 시퀀스 파라미터 세트 데이터 영역은 시퀀스 파라미터 정보를 포함할 수 있다. 예를 들어, 상기 시퀀스 파라미터 정보로는 프로파일 정보, 레벨 정보, 색차 포맷 정보 및 스케일링 관련 정보 등이 있을 수 있다.
또한, 프로파일 정보에 따라 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 예를 들어, 프로파일 정보(profile_idc)가 다시점 비디오 코딩에 관련된 프로파일인 경우, 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 또는 프로파일 정보에 따라 시퀀스 파라미터 세트가 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 상기 시퀀스 파라미터 세트의 확장 영역은 인터뷰 참조 정보와 부분적 디코딩 정보를 포함할 수 있다. 인터뷰 참조 정보(inter-view reference information)란, 시점간 의존 관계를 나타내기 위해 이용되는 정보를 의미할 수 있다. 예를 들어, 시점간 의존 관계를 나타내기 위해서는 인터뷰 참조 픽쳐의 개수 정보, 인터뷰 참조 픽쳐의 시점 식별 정보 등이 필요할 수 있다. 부분적 디코딩 정보란, 대응되는 참조 시점의 픽쳐를 완전히 디코딩하지 않을 수 있음을 나타내는 정보를 의미할 수 있다. 이는 넌-인터뷰 픽쳐 그룹의 경우에 적용될 수 있다. 예를 들어, 모든 시점의 모든 넌-인터뷰 픽쳐 그룹에 대해서는 대응되는 참조 시점의 픽쳐를 완전히 디코딩하지 않고, 부분적으로 디코딩할 수 있다. 구체적 예로, 넌-인터뷰 픽쳐 그룹에서, 인트라 매크로블록은 필요할 경우 완전히 디코딩을 수행하고, 인터 매크로블록은 필요할 경우 레지듀얼 정보만 디코딩을 수행할 수 있다. 또는, 인터 매크로블록에 대해서는 매크로블록 타입 정보와 움직임 정보가 디코딩되어 다른 시점에서의 모션 스킵 정보로 이용될 수 있다.
상기 인터뷰 참조 정보는, 시점 간 영상들이 어떠한 구조로 예측되었는지를 알 수 있는 정보를 말한다. 또한, 상기 시점간 참조 정보는 참조 픽쳐의 개수와 참 조 픽쳐의 시점 정보를 이용하여 파악할 수 있다. 예를 들어, 먼저 전체 시점의 개수를 획득하고, 상기 전체 시점의 개수에 근거하여 각 시점을 구별하는 시점 식별 정보를 파악할 수 있다. 그리고, 각 시점마다 참조 방향에 대한 참조 픽쳐의 개수를 나타내는 인터뷰 참조 픽쳐의 개수 정보를 획득할 수 있다. 상기 인터뷰 참조 픽쳐의 개수 정보에 따라 각 인터뷰 참조 픽쳐의 시점 식별 정보를 획득할 수 있다. 이러한 방식을 통해서 상기 인터뷰 참조 정보가 획득될 수 있으며, 상기 인터뷰 참조 정보는 인터뷰 픽쳐 그룹일 경우와 넌-인터뷰 픽쳐 그룹일 경우로 나누어서 파악될 수 있다. 이는 현재 NAL에 있는 코딩된 슬라이스가 인터뷰 픽쳐 그룹인지 여부를 나타내는 인터뷰 픽쳐 그룹 식별 정보를 이용하여 알 수 있다. 또한, 상기 인터뷰 픽쳐 그룹 식별 정보에 따라 획득된 인터뷰 참조 정보는 참조 픽쳐 리스트의 생성 및 수정 등에 이용될 수 있다.
도 3은 본 발명이 적용되는 실시예로서, 인터뷰 예측 플래그가 이용되는 디코딩 과정을 설명하기 위한 다시점 영상 신호의 전체적인 예측 구조를 나타낸다.
도 3에 나타난 바와 같이 가로축의 T0 ~ T100 은 각각 시간에 따른 프레임을 나타낸 것이고, 세로축의 S0 ~ S7은 각각 시점에 따른 프레임을 나타낸 것이다. 예를 들어, T0에 있는 픽쳐들은 같은 시간대(T0)에 서로 다른 카메라에서 찍은 영상들을 의미하며, S0 에 있는 픽쳐들은 한 대의 카메라에서 찍은 다른 시간대의 영상들을 의미한다. 또한, 도면 상의 화살표들은 각 픽쳐들의 예측 방향과 순서를 나타낸 것으로서, 예를 들어, T0 시간대의 S2 시점에 있는 P0 픽쳐는 I0로부터 예측된 픽쳐이며, 이는 TO 시간대의 S4 시점에 있는 P0 픽쳐의 참조 픽쳐가 된다. 또한, S2 시점의 T4, T2 시간대에 있는 B1, B2 픽쳐의 참조 픽쳐가 된다. 이처럼, 시점간 예측을 수행하기 위해서는 인터뷰 참조 픽쳐가 필요하며, 현재 픽쳐가 시점간 예측을 위해 이용되는지 여부는 인터뷰 예측 플래그 정보에 의해 결정될 수 있다. 이하, 상기 인터뷰 예측 플래그가 이용되는 실시예를 설명하도록 한다.
앞서 설명한 바와 같이, 인터뷰 예측 플래그 정보(inter-view prediction flag information)란, 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보를 말한다. 상기 인터뷰 예측 플래그 정보는 시간적 예측 또는 시점간 예측이 수행되는 부분에서 이용될 수 있다. 이때, NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보와 함께 이용될 수 있다. 또한, 상기 식별 정보에 따라 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지 않더라도, 복호 픽쳐 버퍼에 저장될 수 있다. 왜냐하면, 상기 인터뷰 예측 플래그 정보에 따라 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우에는 저장해야 될 필요가 있기 때문이다. 상기 플래그 정보와 식별 정보를 함께 이용하는 경우 외에, 하나의 식별 정보로서 현재 NAL 유닛의 코딩된 픽쳐가 시간적 예측 또는/및 시점간 예측을 위해 이용되는지 여부를 나타낼 수도 있다.
본 발명의 다른 실시예로서, 상기 인터뷰 예측 플래그 정보는 싱글 루프 디코딩 과정에서 이용될 수 있다. 상기 인터뷰 예측 플래그 정보에 따라 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되지 않는 경우 부분적으로 디코딩을 수행할 수 있다. 예를 들어, 인트라 매크로블록은 필요할 경우 완전히 디코딩을 수행하고, 인터 매크로블록은 필요할 경우 레지듀얼 정보만 디코딩을 수행할 수 있 다. 구체적 예로, 인터 매크로블록에 대해서는 매크로블록 타입 정보와 움직임 정보가 디코딩되어 다른 시점에서의 모션 스킵 정보로 이용될 수 있다. 이로써 디코딩 장치의 복잡도를 감소시킬 수 있다. 이는 사용자가 모든 시점의 영상을 보지 않고 어느 특정 시점의 영상만을 볼 때, 다른 시점들 중 특별히 움직임 보상을 수행하여 영상을 복원할 필요가 없는 경우에 효율적일 수 있다. 도 3을 이용하여 설명해보도록 한다.
예를 들어, 도 3에서 일부분(3개의 시점, S0,S1,S2)만 살펴볼 때, 코딩하는 순서는 S0, S2, S1 순서일 수 있다. 현재 코딩하고자 하는 픽쳐를 S1 시점의 T2 시간대에 있는 B3 픽쳐라고 하자. 이때 시점간 예측을 위해 S0 시점의 T2 시간대에 있는 B2 픽쳐와, S2 시점의 T2시간대에 있는 B2 픽쳐를 이용할 수 있다. 만약 S0 시점의 T2 시간대에 있는 B2 픽쳐가 시점간 예측에 이용된다면 상기 인터뷰 예측 플래그 정보는 1로 셋팅될 수 있다. 그리고, 만약 시점간 예측에 이용되지 않는다면 상기 인터뷰 예측 플래그 정보는 0으로 셋팅될 수 있다. 이때 S0 시점에 있는 모든 슬라이스의 인터뷰 예측 플래그 정보가 0이 된다면 상기 S0 시점의 모든 슬라이스를 디코딩할 필요가 없게 될 수 있다. 따라서, 코딩 효율을 높일 수 있게 된다.
또 다른 예로서, 만약 S0 시점에 있는 모든 슬라이스의 인터뷰 예측 플래그 정보가 0이 아니라면, 즉 하나라도 1로 셋팅된 경우가 있다면, 0으로 셋팅된 슬라이스라 할지라도 반드시 디코딩을 해야 한다. 만약 S0 시점의 T2 시간대에 있는 B2 픽쳐가 현재 픽쳐의 디코딩에 이용되지 않아 상기 인터뷰 예측 플래그 정보를 0으 로 셋팅하고 디코딩을 수행하지 않는다고 가정하면, S0 시점에 있는 슬라이스들을 디코딩할 때 상기 S0 시점의 T2 시간대에 있는 B2 픽쳐를 참조 픽쳐로 사용하는 S0 시점의 T1 시간대에 있는 B3 픽쳐와 S0 시점의 T3 시간대에 있는 B3 픽쳐는 복원할 수 없게 되기 때문이다. 따라서 상기 인터뷰 예측 플래그 정보에 상관없이 반드시 복원해야만 한다.
또 다른 예로서, 상기 인터뷰 예측 플래그 정보는 복호 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 사용될 수 있다. 만약, 상기 인터뷰 예측 플래그 정보가 없다면 상기 복호 픽쳐 버퍼에 무조건 상기 S0 시점의 T2 시간대에 있는 B2 픽쳐 등을 저장해 두어야 한다. 그러나, 상기 인터뷰 예측 플래그 정보가 0이라는 것를 알 수 있다면 상기 S0 시점의 T2 시간대에 있는 B2 픽쳐는 상기 복호 픽쳐 버퍼에 저장 하지 않을 수 있다. 따라서, 복호 픽쳐 버퍼의 메모리를 절약할 수 있게 된다.
도 4는 본 발명이 적용되는 실시예로서, 시퀀스 파라미터 세트의 확장 영역의 위치를 설명하기 위해 나타낸 것이다.
상기 도 2에서 설명한 바와 같이, 프로파일 정보에 따라 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있는데, 이 때 상기 시퀀스 파라미터 세트의 확장 영역이 상기 서브셋 시퀀스 파라미터 세트의 내의 어느 부분에 위치하느냐에 따라 코딩의 효율성이 달라질 수 있다. 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트 데이터 영역을 포함할 수 있고, 상기 시퀀스 파라미터 세트 데이터 영역은 시퀀스 파라미터 정보를 포함할 수 있다. 예를 들어, 상기 시퀀스 파라미터 정보로는 프로파일 정보, 레벨 정보, 색차 포맷 정보 및 스케일링 관련 정보 등이 있을 수 있다.
예를 들어, 상기 시퀀스 파라미터 세트의 확장 영역이 상기 시퀀스 파라미터 정보들보다 앞서 위치하게 되는 경우, 상기 시퀀스 파라미터 정보들을 중복해서 정의하게 되는 경우가 있을 수 있다. 따라서, 상기 시퀀스 파라미터 세트의 확장 영역 내에 있는 정보들을 이용하기 위해 먼저 정의되어야 할 시퀀스 파라미터 정보들에 앞서서, 상기 시퀀스 파라미터 세트의 확장 영역을 위치시킬 경우 보다 효율적인 코딩이 가능할 수 있다.
본 발명의 실시예로서, 시퀀스 파라미터 정보 중 색차 포맷 정보에 따라 상기 시퀀스 파라미터 세트의 확장 영역 내의 정보들을 이용할 수 있다. 상기 시퀀스 파라미터 세트의 확장 영역은 시점간 의존 관계를 나타내는 인터뷰 참조 정보와 서로 다른 시점에 있는 카메라들의 좌표를 맞추기 위해 이용되는 카메라 파라미터 정보 등을 포함할 수 있다. 예를 들어, 카메라들의 좌표를 맞추기 위한 조정(rectification) 작업시 실제 픽셀들 간의 인터폴레이션을 할 수 있다. 이때, 상기 색차 포맷 정보에 따라 상기 시퀀스 파라미터 세트의 확장 영역 내의 정보가 필요할 수도 있고, 필요하지 않을 수도 있다. 예를 들어, 상기 색차 포맷 정보에 따라 4:4:4 포맷일 경우 각 픽셀 값은 정수(integer) 위치에 있으므로 위상 이동(phase shift) 현상이 생기지 않는다. 그러나, 4:4:2 또는 4:2:0 포맷일 경우에는 색차 신호의 픽셀 값들에 대해서는 휘도 신호의 픽셀 값들의 위치를 기준으로 다양한 위치에서 샘플링이 될 수 있기 때문에, 상기 휘도 신호와 상기 색차 신호 간의 위상 이동 현상이 발생할 수 있다. 따라서, 보다 정확한 인터폴레이션을 수행하기 위해서는 각 시점마다 색차 위상 이동(chroma phase shift) 정보를 보내줄 필요가 있다. 이 때, 상기 시퀀스 파라미터 세트의 확장 영역이 시퀀스 파라미터 정보의 정의 이후에 존재하게 된다면, 먼저 시퀀스 파라미터 정보 중 색차 포맷 정보를 확인할 수 있게 된다. 그리고, 상기 색차 포맷 정보에 따라 4:4:4 포맷이 아닐 경우에만 상기 각 시점마다의 색차 위상 이동(chroma phase shift) 정보를 전송할 수 있게 되므로 코딩 효율을 향상시킬 수 있다.
본 발명이 적용되는 디코딩/인코딩 장치는 DMB(Digital Multimedia Broadcasting)과 같은 멀티미디어 방송 송/수신 장치에 구비되어, 비디오 신호 및 데이터 신호 등을 복호화하는데 사용될 수 있다. 또한 상기 멀티미디어 방송 송/수신 장치는 이동통신 단말기를 포함할 수 있다.
또한, 본 발명이 적용되는 디코딩/인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무 선 통신망을 이용해 전송될 수 있다.
이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면, 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 또다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다. 또한, 본 발명에 의한 적어도 일 특징을 적용한 데이터를 저장하는 매체(mediun)를 제공하는 것이 가능하다.
도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.
도 2는 본 발명이 적용되는 실시예로서, 다시점 비디오 코딩된 비트스트림에 추가될 수 있는 다시점 비디오 영상에 대한 속성 정보를 설명하기 위한 NAL 유닛의 구조를 나타낸다.
도 3은 본 발명이 적용되는 실시예로서, 인터뷰 예측 플래그가 이용되는 디코딩 과정을 설명하기 위한 다시점 영상 신호의 전체적인 예측 구조를 나타낸다.
도 4는 본 발명이 적용되는 실시예로서, 시퀀스 파라미터 세트의 확장 영역의 위치를 설명하기 위해 나타낸 것이다.

Claims (9)

  1. 비디오 신호의 헤더로부터 현재 NAL의 코딩 방식을 구별하는 제 1 플래그 정보를 획득하는 단계;
    상기 제 1 플래그 정보에 따라 다시점 비디오 코딩인 경우, 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 단계; 및
    상기 제 2 플래그 정보에 따라 상기 비디오 신호를 부분적으로 디코딩하는 단계
    를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  2. 제 1항에 있어서, 상기 비디오 신호 디코딩 방법은,
    상기 현재 NAL에 포함된 매크로블록의 타입 정보를 획득하는 단계를 더 포함하되,
    상기 매크로블록의 타입 정보에 기초하여 상기 비디오 신호를 부분적으로 디코딩하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  3. 제 2항에 있어서,
    상기 매크로블록의 타입 정보가 인트라 예측인 경우, 상기 매크로블록의 모든 데이터를 디코딩하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  4. 제 2항에 있어서,
    상기 매크로블록의 타입 정보가 인터 예측인 경우, 상기 매크로블록의 레지듀얼 데이터만 디코딩하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  5. 제 1항에 있어서, 상기 비디오 신호 디코딩 방법은,
    상기 제 2 플래그 정보에 따라 상기 현재 NAL이 시점간 예측에 이용되는 경우에만, 상기 현재 NAL의 정보를 버퍼에 저장하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  6. 제 1항에 있어서, 상기 비디오 신호 디코딩 방법은,
    상기 제 2 플래그 정보에 따라 상기 현재 NAL이 시점간 예측에 이용되지 않더라도, 상기 현재 NAL과 동일한 시점에 있는 다른 슬라이스 중 적어도 하나의 슬라이스가 시점간 예측에 이용되는 경우, 상기 현재 NAL에 포함되는 슬라이스는 디코딩되는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  7. 비디오 신호로부터 시퀀스 파라미터 정보를 획득하는 단계;
    상기 시퀀스 파라미터 정보를 획득한 후, 시퀀스 파라미터 세트의 확장 영역으로부터 다시점 비디오 신호의 속성 정보를 획득하는 단계; 및
    상기 속성 정보에 기초하여 상기 비디오 신호를 디코딩하는 단계
    를 포함하되,
    상기 속성 정보는 시점간 참조 관계를 나타내는 인터뷰 참조 정보와 카메라 파라미터 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  8. 제 7항에 있어서,
    상기 시퀀스 파라미터 정보는 영상 포맷을 나타내는 정보를 포함하고,
    상기 영상 포맷이 4:4:4 포맷이 아닌 경우, 각 시점마다 색차 위상 이동 정보를 획득하는 것을 특징으로 하는 비디오 신호 디코딩 방법.
  9. 현재 NAL 유닛의 코딩 방식을 구별하는 제 1 플래그 정보에 따라 상기 현재 NAL 유닛이 다시점 비디오 코딩된 경우, 상기 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 파싱부와;
    상기 제 2 플래그 정보에 따라 상기 비디오 신호를 부분적으로 디코딩하는 인터 예측부
    를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치.
KR1020070129740A 2006-12-13 2007-12-13 비디오 신호의 디코딩 방법 및 장치 KR101366288B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US86986706P 2006-12-13 2006-12-13
US60/869,867 2006-12-13

Publications (2)

Publication Number Publication Date
KR20080055685A true KR20080055685A (ko) 2008-06-19
KR101366288B1 KR101366288B1 (ko) 2014-02-21

Family

ID=39802396

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020070129741A KR101366289B1 (ko) 2006-12-13 2007-12-13 비디오 신호의 디코딩/인코딩 방법 및 장치
KR1020070129740A KR101366288B1 (ko) 2006-12-13 2007-12-13 비디오 신호의 디코딩 방법 및 장치

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020070129741A KR101366289B1 (ko) 2006-12-13 2007-12-13 비디오 신호의 디코딩/인코딩 방법 및 장치

Country Status (1)

Country Link
KR (2) KR101366289B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140088497A (ko) * 2012-12-28 2014-07-10 한국전자통신연구원 영상의 부호화/복호화 방법 및 이를 이용하는 장치
KR20140088496A (ko) * 2012-12-28 2014-07-10 한국전자통신연구원 영상 부호화/복호화 방법 및 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102114416B1 (ko) 2012-04-23 2020-05-25 삼성전자주식회사 다시점 비디오 부호화 방법 및 장치, 다시점 비디오 복호화 방법 및 장치
US9848202B2 (en) 2012-12-28 2017-12-19 Electronics And Telecommunications Research Institute Method and apparatus for image encoding/decoding

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100679740B1 (ko) * 2004-06-25 2007-02-07 학교법인연세대학교 시점 선택이 가능한 다시점 동영상 부호화/복호화 방법
KR20060068254A (ko) * 2004-12-16 2006-06-21 엘지전자 주식회사 비디오 부호화 방법, 복호화 방법 그리고, 복호화 장치
KR20060122663A (ko) * 2005-05-26 2006-11-30 엘지전자 주식회사 영상신호의 엔코딩 및 디코딩에서의 픽처 정보를 전송하고이를 이용하는 방법
KR20060122671A (ko) * 2005-05-26 2006-11-30 엘지전자 주식회사 영상 신호의 스케일러블 인코딩 및 디코딩 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140088497A (ko) * 2012-12-28 2014-07-10 한국전자통신연구원 영상의 부호화/복호화 방법 및 이를 이용하는 장치
KR20140088496A (ko) * 2012-12-28 2014-07-10 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
KR20160144338A (ko) * 2012-12-28 2016-12-16 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
KR20190132974A (ko) * 2012-12-28 2019-11-29 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
KR20200104845A (ko) * 2012-12-28 2020-09-04 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
KR20210093819A (ko) * 2012-12-28 2021-07-28 한국전자통신연구원 영상 부호화/복호화 방법 및 장치

Also Published As

Publication number Publication date
KR101366288B1 (ko) 2014-02-21
KR101366289B1 (ko) 2014-02-21
KR20080055686A (ko) 2008-06-19

Similar Documents

Publication Publication Date Title
US11601640B2 (en) Image coding method using history-based motion information and apparatus for the same
US11582457B2 (en) In-loop filtering-based image coding apparatus and method
US11895314B2 (en) Method and device for coding image/video on basis of prediction weighted table
CN114586349A (zh) 基于滤波编译视频的设备和方法
US20240056566A1 (en) Inter prediction method and apparatus in image/video coding system
US20230217015A1 (en) Prediction weighted table-based image/video coding method and apparatus
US20240080447A1 (en) Image/video coding method and device
CN115104317A (zh) 图像编码装置和用于控制环路滤波的方法
US20220201338A1 (en) Adaptive loop filtering-based image coding apparatus and method
US20230328269A1 (en) Image/video coding method and apparatus based on inter prediction
KR101366288B1 (ko) 비디오 신호의 디코딩 방법 및 장치
US20220377370A1 (en) Inter prediction in video or image coding system
US20230239463A1 (en) Image/video coding method and device based on weighted prediction
US20230239478A1 (en) Method and device for processing image information for image/video coding
US20230164321A1 (en) In-loop filtering-based image coding device and method
US20220256165A1 (en) Image/video coding method and device based on bi-prediction
CN114762350A (zh) 基于切片类型的图像/视频编译方法和设备
CN114762349A (zh) 用于图像/视频编译的高级别语法信令方法和装置
RU2803187C1 (ru) Способ и устройство кодирования изображения на основе подкартинки
CN115004708A (zh) 用于发信号通知图像信息的方法和设备
CN114982242A (zh) 发信号通知图片分割信息的方法和设备
KR20080023210A (ko) 비디오 신호 디코딩 방법 및 장치

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170113

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee