KR101366288B1 - A method and apparatus for decoding a video signal - Google Patents

A method and apparatus for decoding a video signal Download PDF

Info

Publication number
KR101366288B1
KR101366288B1 KR1020070129740A KR20070129740A KR101366288B1 KR 101366288 B1 KR101366288 B1 KR 101366288B1 KR 1020070129740 A KR1020070129740 A KR 1020070129740A KR 20070129740 A KR20070129740 A KR 20070129740A KR 101366288 B1 KR101366288 B1 KR 101366288B1
Authority
KR
South Korea
Prior art keywords
information
interview
picture
inter
prediction
Prior art date
Application number
KR1020070129740A
Other languages
Korean (ko)
Other versions
KR20080055685A (en
Inventor
박승욱
전병문
전용준
구한서
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20080055685A publication Critical patent/KR20080055685A/en
Application granted granted Critical
Publication of KR101366288B1 publication Critical patent/KR101366288B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

본 발명은 비디오 신호의 헤더로부터 현재 NAL의 코딩 방식을 구별하는 제 1 플래그 정보를 획득하는 단계, 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩인 경우, 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 단계 및 상기 제 2 플래그 정보에 따라 상기 비디오 신호를 부분적으로 디코딩하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.

Figure R1020070129740

다시점, 시점간 예측

The present invention provides a method of obtaining first flag information that distinguishes a coding scheme of a current NAL from a header of a video signal, and in the case of multiview video coding according to the first flag information, whether the current NAL is used for inter-view prediction. Obtaining a second flag information indicating and partially decoding the video signal according to the second flag information.

Figure R1020070129740

Multi-view, point-in-time prediction

Description

비디오 신호의 디코딩 방법 및 장치{A METHOD AND APPARATUS FOR DECODING A VIDEO SIGNAL}A method and device for decoding a video signal {A METHOD AND APPARATUS FOR DECODING A VIDEO SIGNAL}

본 발명은 비디오 신호의 코딩에 관한 기술이다.The present invention relates to the coding of video signals.

압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성을 지니고 있는 점에 특징이 있다.Compression coding refers to a series of signal processing techniques that transmit digitized information through a communication line or store the data in a form suitable for a storage medium. The target of compression coding includes objects such as voice, image, and character. In particular, the technique of performing compression coding on an image is referred to as video image compression. The general feature of the video image is that it has spatial redundancy and temporal redundancy.

픽쳐의 시점을 식별할 수 있는 시점 정보를 정의함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by defining viewpoint information that can identify a viewpoint of a picture.

현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측에 이용되는지 여부를 나타내는 인터뷰 예측 플래그를 정의함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by defining an interview prediction flag that indicates whether the coded picture of the current NAL unit is used for inter-view prediction.

시점간의 의존 관계를 나타내는 인터뷰 참조 정보를 이용하여 참조 픽쳐 리스트를 생성 및 관리함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by generating and managing a reference picture list using interview reference information indicating a dependency between viewpoints.

인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 참조 정보를 획득함으로써 시점간의 랜덤 액세스를 효율적으로 수행할 수 있다.Random access between viewpoints can be efficiently performed by obtaining interview reference information based on the interview picture group identification information.

다시점 비디오 영상의 속성 정보를 적절한 곳에 위치시킴으로써 코딩 효율을 높이고자 한다.It is intended to improve coding efficiency by placing attribute information of a multiview video image in an appropriate place.

시퀀스 파라미터 세트의 확장 영역을 적절한 곳에 위치시킴으로써 코딩 효율을 높이고자 한다.In order to improve coding efficiency, an extended region of the sequence parameter set is located at an appropriate position.

본 발명은 비디오 신호의 헤더로부터 현재 NAL의 코딩 방식을 구별하는 제 1 플래그 정보를 획득하는 단계, 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩인 경우, 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 단계 및 상기 제 2 플래그 정보에 따라 상기 비디오 신호를 부분적으로 디코딩하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제 공한다.The present invention provides a method of obtaining first flag information that distinguishes a coding scheme of a current NAL from a header of a video signal. A method of decoding a video signal, the method comprising: obtaining second flag information indicating and partially decoding the video signal according to the second flag information.

또한, 본 발명은, 현재 NAL 유닛에 포함된 매크로블록의 타입 정보를 획득하는 단계를 더 포함하고, 상기 매크로블록의 타입 정보에 기초하여 비디오 신호를 부분적으로 디코딩하는 것을 특징으로 한다.The present invention may further include acquiring type information of a macroblock included in a current NAL unit, and partially decoding the video signal based on the type information of the macroblock.

또한, 본 발명은, 매크로블록의 타입 정보가 인트라 예측인 경우, 매크로블록의 모든 데이터를 디코딩하는 것을 특징으로 한다.In addition, the present invention is characterized by decoding all data of the macroblock when the type information of the macroblock is intra prediction.

또한, 본 발명은, 매크로블록의 타입 정보가 인터 예측인 경우, 매크로블록의 레지듀얼 데이터만 디코딩하는 것을 특징으로 한다.In addition, the present invention is characterized in that only the residual data of the macroblock is decoded when the type information of the macroblock is inter prediction.

또한, 본 발명은, 비디오 신호로부터 시퀀스 파라미터 정보를 획득하는 단계, 상기 시퀀스 파라미터 정보를 획득한 후, 시퀀스 파라미터 세트의 확장 영역으로부터 다시점 비디오 신호의 속성 정보를 획득하는 단계 및 상기 속성 정보에 기초하여 상기 비디오 신호를 디코딩하는 단계를 포함하되, 상기 속성 정보는 시점간 참조 관계를 나타내는 인터뷰 참조 정보와 카메라 파라미터 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.The present invention also provides a method for acquiring sequence parameter information from a video signal, acquiring attribute information of a multi-view video signal from an extended region of a sequence parameter set after acquiring the sequence parameter information, and based on the attribute information. And decoding the video signal, wherein the attribute information includes interview reference information and camera parameter information indicating an inter-view reference relationship.

또한, 본 발명은, 시퀀스 파라미터 정보는 영상 포맷을 나타내는 정보를 포함하고, 영상 포맷이 4:4:4 포맷이 아닌 경우, 각 시점마다 색차 위상 이동 정보를 획득하는 것을 특징으로 한다.In addition, the present invention is characterized in that the sequence parameter information includes information indicating an image format, and when the image format is not the 4: 4: 4 format, color difference phase shift information is obtained for each viewpoint.

또한, 본 발명은, 현재 NAL 유닛의 코딩 방식을 구별하는 제 1 플래그 정보에 따라 상기 현재 NAL 유닛이 다시점 비디오 코딩된 경우, 상기 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 파싱부와 상 기 제 2 플래그 정보에 따라 상기 비디오 신호를 부분적으로 디코딩하는 인터 예측부를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치를 제공한다.In addition, the present invention, when the current NAL unit is multi-view video coded according to the first flag information for distinguishing the coding scheme of the current NAL unit, the second flag information indicating whether the current NAL is used for inter-view prediction It provides a video signal decoding apparatus comprising a parser for obtaining the inter prediction unit for decoding the video signal in accordance with the second flag information.

본 발명은 비디오 신호를 코딩함에 있어서, 코딩 정보를 적절한 곳에 위치시킴으로써 보다 효율적으로 코딩을 수행할 수 있게 된다. 또한, 현재 픽쳐가 시점간 예측에 이용되는 경우인지를 먼저 확인하고, 시점간 예측에 이용되는 경우에만 시점간 예측에 필요한 정보를 전송함으로써 전송할 비트수를 감소시킬 수 있을 뿐만 아니라, 복호 픽쳐 버퍼의 부담을 감소시켜 코딩 속도를 향상시킬 수 있다. 또한, 다시점 영상에 대한 다양한 속성 정보들을 이용함으로써 보다 효율적인 코딩이 가능할 수 있다.According to the present invention, in coding a video signal, coding can be performed more efficiently by placing coding information at an appropriate place. In addition, by checking whether the current picture is used for inter-view prediction first, and transmitting information necessary for inter-view prediction only when it is used for inter-view prediction, the number of bits to be transmitted can be reduced and the decoded picture buffer By reducing the burden, coding speed can be improved. In addition, more efficient coding may be possible by using various attribute information of a multiview image.

비디오 신호 데이터를 압축 부호화하는 기술은 공간적 중복성, 시간적 중복성, 스케일러블한 중복성, 시점간 존재하는 중복성을 고려하고 있다. 또한, 이러한 압축 부호화 과정에서 시점 간 존재하는 상호 중복성을 고려하여 압축 코딩을 할 수 있다. 시점간 중복성을 고려하는 압축 코딩에 대한 기술은 본 발명의 실시예일 뿐이며, 본 발명의 기술적 사상은 시간적 중복성, 스케일러블한 중복성 등에도 적용될 수 있다. 또한, 본 명세서에서 코딩이라 함은 인코딩과 디코딩의 개념을 모두 포함할 수 있고, 본 발명의 기술적 사상 및 기술적 범위에 따라 유연하게 해석할 수 있을 것이다.The compression coding technique of video signal data considers spatial redundancy, temporal redundancy, scalable redundancy, and redundancy existing between views. In this compression encoding process, compression coding may be performed in consideration of mutual redundancy existing between views. The compression coding technique considering the inter-view redundancy is only an embodiment of the present invention, and the technical idea of the present invention may be applied to temporal redundancy, scalable redundancy, and the like. In addition, the term coding in this specification may include both the concepts of encoding and decoding, and may be flexibly interpreted according to the technical spirit and technical scope of the present invention.

도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of a video signal decoding apparatus to which the present invention is applied.

상기 디코딩 장치는 크게 파싱부(100), 엔트로피 디코딩부(200), 역양자화/역변환부(300), 인트라 예측부(400), 디블록킹 필터부(500), 복호 픽쳐 버퍼부(600), 인터 예측부(700) 등을 포함한다.The decoding apparatus includes a parsing unit 100, an entropy decoding unit 200, an inverse quantization / inverse transform unit 300, an intra prediction unit 400, a deblocking filter unit 500, a decoded picture buffer unit 600, Inter prediction unit 700 and the like.

파싱부(100)에서는 수신된 비디오 영상을 복호하기 위하여 NAL(Network Abstraction Layer) 단위로 파싱을 수행한다. 일반적으로 하나 또는 그 이상의 시퀀스 파라미터 셋과 픽쳐 파라미터 셋이 슬라이스 헤더와 슬라이스 데이터가 디코딩되기 전에 디코더로 전송된다. 이 때 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에는 여러 가지 속성 정보가 포함될 수 있다. MVC(Multiview Video Coding)는 기존 AVC 기술에 대한 추가 기술이므로 무조건적으로 추가하기보다는 MVC 비트스트림인 경우에 한해 여러 가지 속성 정보들을 추가하는 것이 더 효율적일 수 있다. 예를 들어, 상기 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에서 MVC 비트스트림인지 여부를 식별할 수 있는 플래그 정보를 추가할 수 있다. 상기 플래그 정보에 따라 입력된 비트스트림이 다시점 영상 코딩된 비트스트림일 경우에 한해 다시점 영상에 대한 속성 정보들을 추가할 수 있다. 예를 들어, 상기 속성 정보들은 시점 식별(view identification) 정보, 인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information), 인터뷰 예측 플래그 정보(inter-view prediction flag information) 등을 포함할 수 있다. The parser 100 performs parsing on a network abstraction layer (NAL) basis in order to decode the received video image. In general, one or more sequence parameter sets and picture parameter sets are transmitted to the decoder before the slice header and slice data are decoded. In this case, various attribute information may be included in the NAL header area or the extension area of the NAL header. Multiview Video Coding (MVC) is an additional technology to the existing AVC technology, so it may be more efficient to add various attribute information only in the case of MVC bitstream rather than unconditionally adding. For example, flag information for identifying whether an MVC bitstream is included in the NAL header region or an extension region of the NAL header may be added. Attribute information about a multiview image may be added only when the input bitstream is a multiview image coded bitstream according to the flag information. For example, the attribute information may include view identification information, inter-view picture group identification information, inter-view prediction flag information, and the like.

먼저 시점 식별 정보(view identification information)란, 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 정보를 말한다. 비디오 영상 신 호가 코딩될 때, 각각의 픽쳐를 식별하기 위하여 POC(Picture Order Count)와 frame_num 이 이용된다. 다시점 비디오 영상인 경우에는 시점간 예측이 수행되기 때문에 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 식별 정보가 필요하다. 따라서, 픽쳐의 시점을 식별하는 시점 식별 정보를 정의할 필요가 있다. 상기 시점 식별 정보는 비디오 신호의 헤더 영역으로부터 획득될 수 있다. 예를 들어, 상기 헤더 영역은 NAL 헤더 또는 NAL 헤더의 확장 영역일 수도 있고, 슬라이스 헤더일 수도 있다. 상기 시점 식별 정보를 이용하여 현재 픽쳐와 다른 시점에 있는 픽쳐의 정보를 획득하고, 상기 다른 시점에 있는 픽쳐의 정보를 이용하여 상기 비디오 신호를 디코딩할 수 있다.First, view identification information refers to information for distinguishing a picture at a current view from a picture at a different view. When a video image signal is coded, POC (Picture Order Count) and frame_num are used to identify each picture. In the case of a multiview video image, since inter-view prediction is performed, identification information for distinguishing a picture at a current view from a picture at a different view is required. Therefore, it is necessary to define viewpoint identification information for identifying the viewpoint of the picture. The view identification information may be obtained from a header area of a video signal. For example, the header area may be an NAL header, an extended area of the NAL header, or a slice header. The view identification information may be used to obtain information of a picture that is different from the current picture, and the video signal may be decoded using the information of the picture at the other view.

인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information)란, 현재 NAL 유닛의 코딩된 픽쳐가 인터뷰 픽쳐 그룹인지 여부를 식별하는 정보를 말한다. 그리고, 인터뷰 픽쳐 그룹(inter-view picture group)이라 함은, 모든 슬라이스들이 동일 시간대의 프레임에 있는 슬라이스만을 참조하는 부호화된 픽쳐를 의미한다. 예를 들어, 다른 시점에 있는 슬라이스만을 참조하고 현재 시점에 있는 슬라이스는 참조하지 않는 부호화된 픽쳐를 말한다. 다시점 영상의 복호화 과정에 있어서, 시점 간의 랜덤 액세스는 가능할 수 있다. 이처럼, 인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 참조 정보를 획득하게 될 경우, 보다 효율적으로 시점 간의 랜덤 액세스를 수행할 수 있게 된다. 이는 인터뷰 픽쳐 그룹에서의 각 픽쳐들 사이의 시점간 참조 관계가 넌-인터뷰 픽쳐 그룹에서의 시점간 참조 관계가 다를 수 있기 때문이다. 이때, 상기 시점 식별 정보를 이용하게 되면 보다 효율적인 랜덤 액세스가 가능할 수 있다.Inter-view picture group identification information refers to information for identifying whether a coded picture of a current NAL unit is an interview picture group. The inter-view picture group means an encoded picture in which all slices refer only to slices in frames of the same time zone. For example, an encoded picture refers to only a slice at another viewpoint and no slice at the current viewpoint. In the decoding process of a multiview image, random access between views may be possible. As such, when the interview reference information is acquired based on the interview picture group identification information, random access between viewpoints can be performed more efficiently. This is because the inter-view reference relationship between the pictures in the interview picture group may be different from the inter-view reference relationship in the non-interview picture group. In this case, if the view identification information is used, more efficient random access may be possible.

인터뷰 예측 플래그 정보(inter-view prediction flag information)란, 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보를 말한다. 상기 인터뷰 예측 플래그 정보는 시간적 예측 또는 시점간 예측이 수행되는 부분에서 이용될 수 있다. 이때, NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보와 함께 이용될 수 있다. 예를 들어, 상기 식별 정보에 따라 현재 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지는 않지만 시점간 예측을 위해 이용되는 경우에, 상기 현재 NAL 유닛은 시점간 예측에만 이용되는 참조 픽쳐일 수 있다. 또는, 상기 식별 정보에 따라 현재 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 시점간 예측을 위해 이용되는 경우에, 상기 현재 NAL 유닛은 시간적 예측과 시점간 예측을 위해 이용될 수 있다. 또한, 상기 식별 정보에 따라 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지 않더라도, 복호 픽쳐 버퍼에 저장될 수 있다. 왜냐하면, 상기 인터뷰 예측 플래그 정보에 따라 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우에는 저장해야 될 필요가 있기 때문이다. 이에 대해서는 도 3에서 상세히 설명하도록 한다.Inter-view prediction flag information refers to information indicating whether a coded picture of a current NAL unit is used for inter-view prediction. The interview prediction flag information may be used in a part where temporal prediction or inter-view prediction is performed. In this case, the NAL unit may be used together with identification information indicating whether the NAL unit includes a slice of the reference picture. For example, when the current NAL unit does not include a slice of a reference picture according to the identification information but is used for inter-view prediction, the current NAL unit may be a reference picture used only for inter-view prediction. Alternatively, when the current NAL unit includes a slice of a reference picture according to the identification information and is used for inter-view prediction, the current NAL unit may be used for temporal prediction and inter-view prediction. In addition, even if the NAL unit does not include a slice of the reference picture according to the identification information, it may be stored in the decoded picture buffer. This is because, if the coded picture of the current NAL unit is used for inter-view prediction according to the interview prediction flag information, it needs to be stored. This will be described in detail with reference to FIG. 3.

파싱된 비트스트림은 엔트로피 디코딩부(200)를 통하여 엔트로피 디코딩되고, 각 매크로블록의 계수, 움직임 벡터 등이 추출된다. 역양자화/역변환부(300)에서는 수신된 양자화된 값에 일정한 상수를 곱하여 변환된 계수값을 획득하고, 상기 계수값을 역변환하여 화소값을 복원하게 된다. 상기 복원된 화소값을 이용하여 인트라 예측부(400)에서는 현재 픽쳐 내의 디코딩된 샘플로부터 화면내 예측을 수행 하게 된다. 한편, 디블록킹 필터부(500)에서는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 매크로블록에 적용된다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 프레임의 화질을 향상시킨다. 필터링 과정의 선택은 경계 세기(boundary strenth)와 경계 주위의 이미지 샘플의 변화(gradient)에 의해 좌우된다. 필터링을 거친 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(600)에 저장된다.The parsed bitstream is entropy decoded through the entropy decoding unit 200, and coefficients, motion vectors, and the like of each macroblock are extracted. The inverse quantization / inverse transform unit 300 multiplies the received quantized value by a constant constant to obtain a transformed coefficient value, and inversely transforms the coefficient value to restore the pixel value. Using the reconstructed pixel value, the intra prediction unit 400 performs intra prediction from the decoded samples in the current picture. Meanwhile, the deblocking filter unit 500 is applied to each coded macroblock in order to reduce block distortion. The filter smoothes the edges of the block to improve the quality of the decoded frame. The choice of filtering process depends on the boundary strength and the gradient of the image samples around the boundary. The filtered pictures are output or stored in the decoded picture buffer unit 600 for use as a reference picture.

복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(600)에서는 화면간 예측을 수행하기 위해서 이전에 코딩된 픽쳐들을 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(600)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용하게 된다. 따라서, MVC에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 픽쳐와 다른 시점에 있는 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 상기 frame_num 과 POC 뿐만 아니라 픽쳐의 시점을 식별하는 시점 정보도 함께 이용할 수 있다. 또한, 상기 frame_num 과 유사한 개념의 시점 방향으로 픽쳐를 식별하는 정보도 함께 이용할 수 있다.The decoded picture buffer unit 600 stores or opens previously coded pictures in order to perform inter prediction. In this case, in order to store or open the decoded picture buffer unit 600, frame_num and POC (Picture Order Count) of each picture are used. Therefore, some of the previously coded pictures in MVC have pictures that are different from the current picture. Therefore, in order to utilize these pictures as reference pictures, not only the frame_num and the POC but also the view information for identifying the view point of the picture are included. It is available. In addition, information identifying a picture in a view direction having a concept similar to the frame_num may also be used.

인터 예측부(700)에서는 복호 픽쳐 버퍼부(600)에 저장된 참조 픽쳐를 이용하여 화면간 예측을 수행한다. 인터 코딩된 매크로블록은 매크로블록 파티션으로 나누어질 수 있으며, 각 매크로블록 파티션은 하나 또는 두개의 참조 픽쳐로부터 예측될 수 있다. 상기 인터 예측부(700)에서는 엔트로피 디코딩부(200)로부터 전송된 정보들을 이용하여 현재 블록의 움직임을 보상한다. 비디오 신호로부터 현재 블 록에 이웃하는 블록들의 움직임 벡터를 추출하고, 상기 현재 블록의 움직임 벡터 예측값을 획득한다. 상기 획득된 움직임 벡터 예측값과 비디오 신호로부터 추출되는 차분 벡터를 이용하여 현재 블록의 움직임을 보상한다. 또한, 이러한 움직임 보상은 하나의 참조 픽쳐를 이용하여 수행될 수도 있고, 복수의 픽쳐를 이용하여 수행될 수도 있다. 다시점 비디오 코딩에 있어서, 현재 픽쳐가 다른 시점에 있는 픽쳐들을 참조하게 되는 경우, 상기 복호 픽쳐 버퍼부(600)에 저장되어 있는 시점간 예측을 위한 참조 픽쳐 리스트에 대한 정보를 이용하여 움직임 보상을 수행할 수 있다. 그리고, 그 픽쳐의 시점을 식별하는 시점 식별 정보를 이용하여 움직임 보상을 수행할 수도 있다.The inter prediction unit 700 performs inter prediction using a reference picture stored in the decoded picture buffer unit 600. Inter-coded macroblocks can be divided into macroblock partitions, where each macroblock partition can be predicted from one or two reference pictures. The inter prediction unit 700 compensates for the movement of the current block by using the information transmitted from the entropy decoding unit 200. A motion vector of blocks neighboring the current block is extracted from the video signal, and a motion vector prediction value of the current block is obtained. The motion of the current block is compensated by using the obtained motion vector prediction value and the difference vector extracted from the video signal. In addition, such motion compensation may be performed using one reference picture or may be performed using a plurality of pictures. In multi-view video coding, when a current picture refers to pictures at different views, motion compensation is performed using information on a reference picture list for inter-view prediction stored in the decoded picture buffer unit 600. Can be done. In addition, motion compensation may be performed using viewpoint identification information for identifying the viewpoint of the picture.

상기와 같은 과정을 통해 인터 예측된 픽쳐들과 인트라 예측된 픽쳐들은 예측 모드에 따라 선택되어 현재 픽쳐를 복원하게 된다. 이하에서는 비디오 신호의 효율적인 디코딩 방법을 제공하기 위한 다양한 실시예들을 설명하도록 한다.Through the above process, the inter predicted pictures and the intra predicted pictures are selected according to the prediction mode to reconstruct the current picture. Hereinafter, various embodiments for providing an efficient decoding method of a video signal will be described.

도 2는 본 발명이 적용되는 실시예로서, 다시점 비디오 코딩된 비트스트림에 추가될 수 있는 다시점 비디오 영상에 대한 속성 정보를 설명하기 위한 NAL 유닛의 구조를 나타낸다.FIG. 2 is an embodiment to which the present invention is applied and shows a structure of a NAL unit for describing attribute information for a multiview video image that may be added to a multiview video coded bitstream.

상기 도 2에서는 다시점 비디오 영상에 대한 속성 정보들이 추가될 수 있는 NAL 유닛의 구조의 일례를 나타낸다. 크게 NAL 유닛은 NAL 유닛의 헤더와 RBSP(Raw Byte Sequence Payload, 동영상 압축의 결과데이터)로 구성될 수 있다. 그리고, NAL 유닛의 헤더에서는 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보(nal_ref_idc)와 NAL 유닛의 타입을 나타내는 정 보(nal_unit_type)를 포함할 수 있다. 또한, 제한적으로 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 예를 들어, 상기 NAL 유닛의 타입을 나타내는 정보가 다시점 비디오 코딩과 관련이 있는 경우에, 상기 NAL 유닛은 상기 NAL 유닛 헤더의 확장 영역을 포함할 수 있다. 구체적 예로, 상기 nal_unit_type = 20 또는 14 일 때 상기 NAL 유닛은 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 또한, 상기 NAL 유닛 헤더의 확장 영역은 현재 NAL 유닛의 코딩 방식을 구별하는 플래그 정보(svc_mvc_flag)를 포함할 수 있다. 예를 들어, 상기 플래그 정보에 따라 현재 NAL 유닛이 다시점 비디오 코딩된 비트스트림인지 아니면 스케일러블 비디오 코딩된 비트스트림인지 여부를 식별할 수 있다. 상기 플래그 정보에 따라 다시점 비디오 코딩된 비트스트림인 경우에 다시점 비디오 영상에 대한 속성 정보들을 추가할 수 있다.2 illustrates an example of a structure of a NAL unit to which attribute information of a multiview video image may be added. In general, the NAL unit may include a header of the NAL unit and a raw byte sequence payload (RBSP). The header of the NAL unit may include identification information nal_ref_idc indicating whether the NAL unit includes a slice of the reference picture and information nal_unit_type indicating the type of the NAL unit. In addition, the extended region of the NAL unit header may be limited. For example, when the information indicating the type of the NAL unit is related to multi-view video coding, the NAL unit may include an extended area of the NAL unit header. As a specific example, when nal_unit_type = 20 or 14, the NAL unit may also include an extended region of the NAL unit header. In addition, the extended region of the NAL unit header may include flag information svc_mvc_flag for distinguishing a coding scheme of a current NAL unit. For example, it may be identified whether the current NAL unit is a multiview video coded bitstream or a scalable video coded bitstream according to the flag information. In the case of a multiview video coded bitstream according to the flag information, attribute information of a multiview video image may be added.

또 다른 예로, 상기 NAL 유닛의 타입을 나타내는 정보가 서브셋 시퀀스 파라미터 세트(subset sequence parameter set)를 나타내는 정보일 경우, 상기 RBSP는 서브셋 시퀀스 파라미터 세트에 대한 정보를 포함할 수 있다. 구체적 예로, nal_unit_type = 15 일 경우, 상기 RBSP는 서브셋 시퀀스 파라미터 세트에 대한 정보, 슬라이스 레이어에 대한 정보 등을 포함할 수 있다. 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트 데이터 영역을 포함할 수 있다. 상기 시퀀스 파라미터 세트 데이터 영역은 시퀀스 파라미터 정보를 포함할 수 있다. 예를 들어, 상기 시퀀스 파라미터 정보로는 프로파일 정보, 레벨 정보, 색차 포맷 정보 및 스케일링 관련 정보 등이 있을 수 있다. As another example, when the information indicating the type of the NAL unit is information indicating a subset sequence parameter set, the RBSP may include information about the subset sequence parameter set. As a specific example, when nal_unit_type = 15, the RBSP may include information about a subset sequence parameter set, information about a slice layer, and the like. The subset sequence parameter set may include a sequence parameter set data area. The sequence parameter set data area may include sequence parameter information. For example, the sequence parameter information may include profile information, level information, color difference format information, and scaling related information.

또한, 프로파일 정보에 따라 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 예를 들어, 프로파일 정보(profile_idc)가 다시점 비디오 코딩에 관련된 프로파일인 경우, 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 또는 프로파일 정보에 따라 시퀀스 파라미터 세트가 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 상기 시퀀스 파라미터 세트의 확장 영역은 인터뷰 참조 정보와 부분적 디코딩 정보를 포함할 수 있다. 인터뷰 참조 정보(inter-view reference information)란, 시점간 의존 관계를 나타내기 위해 이용되는 정보를 의미할 수 있다. 예를 들어, 시점간 의존 관계를 나타내기 위해서는 인터뷰 참조 픽쳐의 개수 정보, 인터뷰 참조 픽쳐의 시점 식별 정보 등이 필요할 수 있다. 부분적 디코딩 정보란, 대응되는 참조 시점의 픽쳐를 완전히 디코딩하지 않을 수 있음을 나타내는 정보를 의미할 수 있다. 이는 넌-인터뷰 픽쳐 그룹의 경우에 적용될 수 있다. 예를 들어, 모든 시점의 모든 넌-인터뷰 픽쳐 그룹에 대해서는 대응되는 참조 시점의 픽쳐를 완전히 디코딩하지 않고, 부분적으로 디코딩할 수 있다. 구체적 예로, 넌-인터뷰 픽쳐 그룹에서, 인트라 매크로블록은 필요할 경우 완전히 디코딩을 수행하고, 인터 매크로블록은 필요할 경우 레지듀얼 정보만 디코딩을 수행할 수 있다. 또는, 인터 매크로블록에 대해서는 매크로블록 타입 정보와 움직임 정보가 디코딩되어 다른 시점에서의 모션 스킵 정보로 이용될 수 있다.  In addition, according to the profile information, the subset sequence parameter set may include an extended area of the sequence parameter set. For example, when the profile information profile_idc is a profile related to multi-view video coding, the subset sequence parameter set may include an extended region of the sequence parameter set. Alternatively, the sequence parameter set may include an extended area of the sequence parameter set according to the profile information. The extended area of the sequence parameter set may include interview reference information and partial decoding information. Inter-view reference information may mean information used to indicate inter-view dependency. For example, in order to indicate the inter-view dependency, information about the number of interview reference pictures and viewpoint identification information on the interview reference picture may be required. The partial decoding information may mean information indicating that the picture of the corresponding reference view may not be fully decoded. This may apply in the case of a non-interview picture group. For example, for all non-interview picture groups at all time points, the pictures at the corresponding reference time points may be partially decoded instead of completely decoded. As a specific example, in the non-interview picture group, the intra macroblock may completely decode when necessary, and the inter macroblock may decode only residual information when necessary. Alternatively, macroblock type information and motion information may be decoded for the inter macroblock and used as motion skip information at different views.

상기 인터뷰 참조 정보는, 시점 간 영상들이 어떠한 구조로 예측되었는지를 알 수 있는 정보를 말한다. 또한, 상기 시점간 참조 정보는 참조 픽쳐의 개수와 참 조 픽쳐의 시점 정보를 이용하여 파악할 수 있다. 예를 들어, 먼저 전체 시점의 개수를 획득하고, 상기 전체 시점의 개수에 근거하여 각 시점을 구별하는 시점 식별 정보를 파악할 수 있다. 그리고, 각 시점마다 참조 방향에 대한 참조 픽쳐의 개수를 나타내는 인터뷰 참조 픽쳐의 개수 정보를 획득할 수 있다. 상기 인터뷰 참조 픽쳐의 개수 정보에 따라 각 인터뷰 참조 픽쳐의 시점 식별 정보를 획득할 수 있다. 이러한 방식을 통해서 상기 인터뷰 참조 정보가 획득될 수 있으며, 상기 인터뷰 참조 정보는 인터뷰 픽쳐 그룹일 경우와 넌-인터뷰 픽쳐 그룹일 경우로 나누어서 파악될 수 있다. 이는 현재 NAL에 있는 코딩된 슬라이스가 인터뷰 픽쳐 그룹인지 여부를 나타내는 인터뷰 픽쳐 그룹 식별 정보를 이용하여 알 수 있다. 또한, 상기 인터뷰 픽쳐 그룹 식별 정보에 따라 획득된 인터뷰 참조 정보는 참조 픽쳐 리스트의 생성 및 수정 등에 이용될 수 있다.The interview reference information refers to information capable of knowing how the inter-view images are predicted. In addition, the inter-view reference information may be determined using the number of reference pictures and the view information of the reference picture. For example, first, the number of all viewpoints may be obtained, and viewpoint identification information for distinguishing each viewpoint may be determined based on the number of all viewpoints. In addition, information about the number of interview reference pictures indicating the number of reference pictures with respect to the reference direction may be obtained at each viewpoint. View identification information of each interview reference picture may be acquired according to the number information of the interview reference picture. In this manner, the interview reference information may be obtained, and the interview reference information may be identified by being divided into an interview picture group and a non-interview picture group. This can be known using the interview picture group identification information indicating whether the coded slice currently in the NAL is an interview picture group. In addition, the interview reference information acquired according to the interview picture group identification information may be used to generate and modify a reference picture list.

도 3은 본 발명이 적용되는 실시예로서, 인터뷰 예측 플래그가 이용되는 디코딩 과정을 설명하기 위한 다시점 영상 신호의 전체적인 예측 구조를 나타낸다.3 is an embodiment to which the present invention is applied and shows an overall prediction structure of a multiview image signal for explaining a decoding process using an interview prediction flag.

도 3에 나타난 바와 같이 가로축의 T0 ~ T100 은 각각 시간에 따른 프레임을 나타낸 것이고, 세로축의 S0 ~ S7은 각각 시점에 따른 프레임을 나타낸 것이다. 예를 들어, T0에 있는 픽쳐들은 같은 시간대(T0)에 서로 다른 카메라에서 찍은 영상들을 의미하며, S0 에 있는 픽쳐들은 한 대의 카메라에서 찍은 다른 시간대의 영상들을 의미한다. 또한, 도면 상의 화살표들은 각 픽쳐들의 예측 방향과 순서를 나타낸 것으로서, 예를 들어, T0 시간대의 S2 시점에 있는 P0 픽쳐는 I0로부터 예측된 픽쳐이며, 이는 TO 시간대의 S4 시점에 있는 P0 픽쳐의 참조 픽쳐가 된다. 또한, S2 시점의 T4, T2 시간대에 있는 B1, B2 픽쳐의 참조 픽쳐가 된다. 이처럼, 시점간 예측을 수행하기 위해서는 인터뷰 참조 픽쳐가 필요하며, 현재 픽쳐가 시점간 예측을 위해 이용되는지 여부는 인터뷰 예측 플래그 정보에 의해 결정될 수 있다. 이하, 상기 인터뷰 예측 플래그가 이용되는 실시예를 설명하도록 한다.As shown in FIG. 3, T0 to T100 on the horizontal axis represent frames over time, and S0 to S7 on the vertical axis represent frames according to viewpoints, respectively. For example, pictures in T0 refer to images taken by different cameras in the same time zone (T0), and pictures in S0 refer to images in different time zones taken by one camera. In addition, the arrows in the drawings indicate the prediction direction and the order of each picture. For example, a P0 picture at S2 time point in the T0 time zone is a picture predicted from I0, which refers to a P0 picture at S4 time point in the TO time zone. It becomes a picture. It is also a reference picture of the B1 and B2 pictures in the T4 and T2 time zones at the time S2. As such, an interview reference picture is required to perform the inter-view prediction, and whether the current picture is used for the inter-view prediction may be determined by the interview prediction flag information. Hereinafter, an embodiment in which the interview prediction flag is used will be described.

앞서 설명한 바와 같이, 인터뷰 예측 플래그 정보(inter-view prediction flag information)란, 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보를 말한다. 상기 인터뷰 예측 플래그 정보는 시간적 예측 또는 시점간 예측이 수행되는 부분에서 이용될 수 있다. 이때, NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보와 함께 이용될 수 있다. 또한, 상기 식별 정보에 따라 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지 않더라도, 복호 픽쳐 버퍼에 저장될 수 있다. 왜냐하면, 상기 인터뷰 예측 플래그 정보에 따라 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우에는 저장해야 될 필요가 있기 때문이다. 상기 플래그 정보와 식별 정보를 함께 이용하는 경우 외에, 하나의 식별 정보로서 현재 NAL 유닛의 코딩된 픽쳐가 시간적 예측 또는/및 시점간 예측을 위해 이용되는지 여부를 나타낼 수도 있다.As described above, the inter-view prediction flag information refers to information indicating whether a coded picture of a current NAL unit is used for inter-view prediction. The interview prediction flag information may be used in a part where temporal prediction or inter-view prediction is performed. In this case, the NAL unit may be used together with identification information indicating whether the NAL unit includes a slice of the reference picture. In addition, even if the NAL unit does not include a slice of the reference picture according to the identification information, it may be stored in the decoded picture buffer. This is because, if the coded picture of the current NAL unit is used for inter-view prediction according to the interview prediction flag information, it needs to be stored. In addition to using the flag information and the identification information together, one piece of identification information may indicate whether a coded picture of the current NAL unit is used for temporal prediction and / or inter-view prediction.

본 발명의 다른 실시예로서, 상기 인터뷰 예측 플래그 정보는 싱글 루프 디코딩 과정에서 이용될 수 있다. 상기 인터뷰 예측 플래그 정보에 따라 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되지 않는 경우 부분적으로 디코딩을 수행할 수 있다. 예를 들어, 인트라 매크로블록은 필요할 경우 완전히 디코딩을 수행하고, 인터 매크로블록은 필요할 경우 레지듀얼 정보만 디코딩을 수행할 수 있 다. 구체적 예로, 인터 매크로블록에 대해서는 매크로블록 타입 정보와 움직임 정보가 디코딩되어 다른 시점에서의 모션 스킵 정보로 이용될 수 있다. 이로써 디코딩 장치의 복잡도를 감소시킬 수 있다. 이는 사용자가 모든 시점의 영상을 보지 않고 어느 특정 시점의 영상만을 볼 때, 다른 시점들 중 특별히 움직임 보상을 수행하여 영상을 복원할 필요가 없는 경우에 효율적일 수 있다. 도 3을 이용하여 설명해보도록 한다.In another embodiment of the present invention, the interview prediction flag information may be used in a single loop decoding process. If the coded picture of the current NAL unit is not used for inter-view prediction according to the interview prediction flag information, decoding may be partially performed. For example, the intra macroblock may fully decode when necessary, and the inter macroblock may decode only residual information when necessary. As a specific example, the macroblock type information and the motion information may be decoded for the inter macroblock and used as motion skip information at different views. This may reduce the complexity of the decoding apparatus. This may be efficient when the user does not need to reconstruct the image by performing a motion compensation, among other viewpoints, when the user only sees the image of a certain view without seeing the image of all views. This will be described with reference to FIG. 3.

예를 들어, 도 3에서 일부분(3개의 시점, S0,S1,S2)만 살펴볼 때, 코딩하는 순서는 S0, S2, S1 순서일 수 있다. 현재 코딩하고자 하는 픽쳐를 S1 시점의 T2 시간대에 있는 B3 픽쳐라고 하자. 이때 시점간 예측을 위해 S0 시점의 T2 시간대에 있는 B2 픽쳐와, S2 시점의 T2시간대에 있는 B2 픽쳐를 이용할 수 있다. 만약 S0 시점의 T2 시간대에 있는 B2 픽쳐가 시점간 예측에 이용된다면 상기 인터뷰 예측 플래그 정보는 1로 셋팅될 수 있다. 그리고, 만약 시점간 예측에 이용되지 않는다면 상기 인터뷰 예측 플래그 정보는 0으로 셋팅될 수 있다. 이때 S0 시점에 있는 모든 슬라이스의 인터뷰 예측 플래그 정보가 0이 된다면 상기 S0 시점의 모든 슬라이스를 디코딩할 필요가 없게 될 수 있다. 따라서, 코딩 효율을 높일 수 있게 된다.For example, when only a part (three views, S0, S1, S2) of FIG. 3 is examined, the coding order may be S0, S2, S1. Let the current picture to be coded be a B 3 picture in the T2 time zone at the time S1. At this time, the picture B 2 in the time zone T2 of S0 point for inter-time prediction may be used for the picture B 2 in the time zone T2 of a point S2. If the B 2 picture in the T2 time zone at time S0 is used for inter-view prediction, the interview prediction flag information may be set to one. If not used for inter-view prediction, the interview prediction flag information may be set to zero. In this case, if the interview prediction flag information of all slices at the time S0 becomes 0, it may not be necessary to decode all slices at the time S0. Therefore, the coding efficiency can be improved.

또 다른 예로서, 만약 S0 시점에 있는 모든 슬라이스의 인터뷰 예측 플래그 정보가 0이 아니라면, 즉 하나라도 1로 셋팅된 경우가 있다면, 0으로 셋팅된 슬라이스라 할지라도 반드시 디코딩을 해야 한다. 만약 S0 시점의 T2 시간대에 있는 B2 픽쳐가 현재 픽쳐의 디코딩에 이용되지 않아 상기 인터뷰 예측 플래그 정보를 0으 로 셋팅하고 디코딩을 수행하지 않는다고 가정하면, S0 시점에 있는 슬라이스들을 디코딩할 때 상기 S0 시점의 T2 시간대에 있는 B2 픽쳐를 참조 픽쳐로 사용하는 S0 시점의 T1 시간대에 있는 B3 픽쳐와 S0 시점의 T3 시간대에 있는 B3 픽쳐는 복원할 수 없게 되기 때문이다. 따라서 상기 인터뷰 예측 플래그 정보에 상관없이 반드시 복원해야만 한다.As another example, if the interview prediction flag information of all slices at the time point S0 is not 0, that is, if any one is set to 1, even if the slice is set to 0, it must be decoded. If it is assumed that the B 2 picture in the T2 time zone at the time S0 is not used for decoding the current picture and the interview prediction flag information is set to 0 and no decoding is performed, the decoding is performed when decoding the slices at the time S0. B 3 picture on the time zone T3 of the picture B 3 and S0 point in time T1 of the point S0 using the picture B 2 in the time zone T2 of the point as the reference picture is that they can not be restored. Therefore, it must be restored regardless of the interview prediction flag information.

또 다른 예로서, 상기 인터뷰 예측 플래그 정보는 복호 픽쳐 버퍼(Decoded Picture Buffer, DPB)에 사용될 수 있다. 만약, 상기 인터뷰 예측 플래그 정보가 없다면 상기 복호 픽쳐 버퍼에 무조건 상기 S0 시점의 T2 시간대에 있는 B2 픽쳐 등을 저장해 두어야 한다. 그러나, 상기 인터뷰 예측 플래그 정보가 0이라는 것를 알 수 있다면 상기 S0 시점의 T2 시간대에 있는 B2 픽쳐는 상기 복호 픽쳐 버퍼에 저장 하지 않을 수 있다. 따라서, 복호 픽쳐 버퍼의 메모리를 절약할 수 있게 된다.As another example, the interview prediction flag information may be used in a decoded picture buffer (DPB). If there is no interview prediction flag information, a B 2 picture or the like in the T2 time zone at the time of S0 must be stored in the decoded picture buffer. However, if it is known that the interview prediction flag information is 0, the B 2 picture in the time zone T2 at the time point S0 may not be stored in the decoded picture buffer. Therefore, the memory of the decoded picture buffer can be saved.

도 4는 본 발명이 적용되는 실시예로서, 시퀀스 파라미터 세트의 확장 영역의 위치를 설명하기 위해 나타낸 것이다.FIG. 4 is an embodiment to which the present invention is applied and is shown to explain the position of an extended region of a sequence parameter set.

상기 도 2에서 설명한 바와 같이, 프로파일 정보에 따라 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있는데, 이 때 상기 시퀀스 파라미터 세트의 확장 영역이 상기 서브셋 시퀀스 파라미터 세트의 내의 어느 부분에 위치하느냐에 따라 코딩의 효율성이 달라질 수 있다. 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트 데이터 영역을 포함할 수 있고, 상기 시퀀스 파라미터 세트 데이터 영역은 시퀀스 파라미터 정보를 포함할 수 있다. 예를 들어, 상기 시퀀스 파라미터 정보로는 프로파일 정보, 레벨 정보, 색차 포맷 정보 및 스케일링 관련 정보 등이 있을 수 있다.As described above with reference to FIG. 2, the subset sequence parameter set may include an extended region of the sequence parameter set according to the profile information, wherein the extended region of the sequence parameter set is located at a portion of the subset sequence parameter set. The efficiency of the coding may vary depending on the type of code. The subset sequence parameter set may include a sequence parameter set data area, and the sequence parameter set data area may include sequence parameter information. For example, the sequence parameter information may include profile information, level information, color difference format information, and scaling related information.

예를 들어, 상기 시퀀스 파라미터 세트의 확장 영역이 상기 시퀀스 파라미터 정보들보다 앞서 위치하게 되는 경우, 상기 시퀀스 파라미터 정보들을 중복해서 정의하게 되는 경우가 있을 수 있다. 따라서, 상기 시퀀스 파라미터 세트의 확장 영역 내에 있는 정보들을 이용하기 위해 먼저 정의되어야 할 시퀀스 파라미터 정보들에 앞서서, 상기 시퀀스 파라미터 세트의 확장 영역을 위치시킬 경우 보다 효율적인 코딩이 가능할 수 있다.For example, when an extended region of the sequence parameter set is positioned ahead of the sequence parameter information, there may be a case where the sequence parameter information is defined overlappingly. Therefore, prior to the sequence parameter information to be defined first in order to use the information in the extended area of the sequence parameter set, more efficient coding may be possible when positioning the extended area of the sequence parameter set.

본 발명의 실시예로서, 시퀀스 파라미터 정보 중 색차 포맷 정보에 따라 상기 시퀀스 파라미터 세트의 확장 영역 내의 정보들을 이용할 수 있다. 상기 시퀀스 파라미터 세트의 확장 영역은 시점간 의존 관계를 나타내는 인터뷰 참조 정보와 서로 다른 시점에 있는 카메라들의 좌표를 맞추기 위해 이용되는 카메라 파라미터 정보 등을 포함할 수 있다. 예를 들어, 카메라들의 좌표를 맞추기 위한 조정(rectification) 작업시 실제 픽셀들 간의 인터폴레이션을 할 수 있다. 이때, 상기 색차 포맷 정보에 따라 상기 시퀀스 파라미터 세트의 확장 영역 내의 정보가 필요할 수도 있고, 필요하지 않을 수도 있다. 예를 들어, 상기 색차 포맷 정보에 따라 4:4:4 포맷일 경우 각 픽셀 값은 정수(integer) 위치에 있으므로 위상 이동(phase shift) 현상이 생기지 않는다. 그러나, 4:4:2 또는 4:2:0 포맷일 경우에는 색차 신호의 픽셀 값들에 대해서는 휘도 신호의 픽셀 값들의 위치를 기준으로 다양한 위치에서 샘플링이 될 수 있기 때문에, 상기 휘도 신호와 상기 색차 신호 간의 위상 이동 현상이 발생할 수 있다. 따라서, 보다 정확한 인터폴레이션을 수행하기 위해서는 각 시점마다 색차 위상 이동(chroma phase shift) 정보를 보내줄 필요가 있다. 이 때, 상기 시퀀스 파라미터 세트의 확장 영역이 시퀀스 파라미터 정보의 정의 이후에 존재하게 된다면, 먼저 시퀀스 파라미터 정보 중 색차 포맷 정보를 확인할 수 있게 된다. 그리고, 상기 색차 포맷 정보에 따라 4:4:4 포맷이 아닐 경우에만 상기 각 시점마다의 색차 위상 이동(chroma phase shift) 정보를 전송할 수 있게 되므로 코딩 효율을 향상시킬 수 있다.According to an embodiment of the present invention, information in an extended area of the sequence parameter set may be used according to color difference format information among sequence parameter information. The extended region of the sequence parameter set may include interview reference information indicating dependency between views and camera parameter information used to adjust coordinates of cameras at different viewpoints. For example, interpolation between actual pixels may be performed during a rectification operation to adjust the coordinates of the cameras. In this case, information in the extended area of the sequence parameter set may or may not be necessary according to the color difference format information. For example, in the case of 4: 4: 4 format according to the chrominance format information, each pixel value is at an integer position so that no phase shift occurs. However, in the case of 4: 4: 2 or 4: 2: 0 format, since the pixel values of the color difference signal can be sampled at various positions based on the positions of the pixel values of the luminance signal, the luminance signal and the color difference are different. Phase shift between signals may occur. Therefore, in order to perform more accurate interpolation, it is necessary to send chroma phase shift information at each time point. At this time, if the extended region of the sequence parameter set exists after the definition of the sequence parameter information, the color difference format information of the sequence parameter information can be checked first. In addition, since color phase shift information for each time point may be transmitted only in the case of 4: 4: 4 format according to the color difference format information, coding efficiency may be improved.

본 발명이 적용되는 디코딩/인코딩 장치는 DMB(Digital Multimedia Broadcasting)과 같은 멀티미디어 방송 송/수신 장치에 구비되어, 비디오 신호 및 데이터 신호 등을 복호화하는데 사용될 수 있다. 또한 상기 멀티미디어 방송 송/수신 장치는 이동통신 단말기를 포함할 수 있다.The decoding / encoding device to which the present invention is applied may be provided in a multimedia broadcasting transmitting / receiving device such as digital multimedia broadcasting (DMB), and may be used to decode video signals and data signals. Also, the multimedia broadcasting transmitting / receiving apparatus may include a mobile communication terminal.

또한, 본 발명이 적용되는 디코딩/인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무 선 통신망을 이용해 전송될 수 있다.In addition, the decoding / encoding method to which the present invention is applied may be stored in a computer-readable recording medium that is produced as a program for execution on a computer, and multimedia data having a data structure according to the present invention may also be read by a computer. It can be stored in the recording medium. The computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . In addition, the bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted using a wired / wireless communication network.

이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면, 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 또다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다. 또한, 본 발명에 의한 적어도 일 특징을 적용한 데이터를 저장하는 매체(mediun)를 제공하는 것이 가능하다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. , Alteration, substitution, addition, or the like. It is also possible to provide a medium for storing data applying at least one feature according to the present invention.

도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of a video signal decoding apparatus to which the present invention is applied.

도 2는 본 발명이 적용되는 실시예로서, 다시점 비디오 코딩된 비트스트림에 추가될 수 있는 다시점 비디오 영상에 대한 속성 정보를 설명하기 위한 NAL 유닛의 구조를 나타낸다.FIG. 2 is an embodiment to which the present invention is applied and shows a structure of a NAL unit for describing attribute information for a multiview video image that may be added to a multiview video coded bitstream.

도 3은 본 발명이 적용되는 실시예로서, 인터뷰 예측 플래그가 이용되는 디코딩 과정을 설명하기 위한 다시점 영상 신호의 전체적인 예측 구조를 나타낸다.3 is an embodiment to which the present invention is applied and shows an overall prediction structure of a multiview image signal for explaining a decoding process using an interview prediction flag.

도 4는 본 발명이 적용되는 실시예로서, 시퀀스 파라미터 세트의 확장 영역의 위치를 설명하기 위해 나타낸 것이다.FIG. 4 is an embodiment to which the present invention is applied and is shown to explain the position of an extended region of a sequence parameter set.

Claims (10)

비디오 신호로부터 NAL 유닛이 다시점 비디오 코딩된 비트스트림인지 스케일러블 비디오 코딩된 비트스트림인지 여부를 식별하는 제 1 플래그 정보를 획득하는 단계;Obtaining from the video signal first flag information identifying whether the NAL unit is a multiview video coded bitstream or a scalable video coded bitstream; 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩된 비트스트림인 경우, 상기 비디오 신호로부터 다시점 영상에 대한 속성 정보를 획득하는 단계;여기서, 상기 속성 정보는 인터뷰 예측 플래그 정보를 포함하고, 상기 인터뷰 예측 플래그 정보는 상기 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보임,Acquiring attribute information for a multiview image from the video signal when the multiview video is a bitstream according to the first flag information; wherein the attribute information includes interview prediction flag information, and the interview prediction Flag information is information indicating whether a coded picture of the NAL unit is used for inter-view prediction, 상기 비디오 신호로부터 프로파일 정보를 획득하는 단계;Obtaining profile information from the video signal; 상기 프로파일 정보가 다시점 비디오 코딩에 관련된 프로파일인 경우, 인터뷰 참조 정보를 획득하는 단계;여기서, 상기 인터뷰 참조 정보는 시점간 의존 관계를 나타내기 위해 이용되는 정보를 의미함,If the profile information is a profile related to multi-view video coding, obtaining interview reference information; wherein the interview reference information refers to information used to indicate inter-view dependency. 상기 인터뷰 예측 플래그 정보에 따라 상기 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우, 상기 인터뷰 참조 정보를 이용하여 시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 단계; 및When a coded picture of the NAL unit is used for inter-view prediction according to the interview prediction flag information, generating a reference picture list for inter-view prediction using the interview reference information; And 상기 시점간 예측을 위한 참조 픽쳐 리스트를 이용하여 화면간 예측을 수행하는 단계Performing inter prediction using the reference picture list for the inter-view prediction 를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Video signal decoding method comprising a. 제 1항에 있어서, 상기 인터뷰 참조 정보는 인터뷰 참조 픽쳐의 개수 정보 및 인터뷰 참조 픽쳐의 시점 식별 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.The method of claim 1, wherein the interview reference information includes information about the number of interview reference pictures and viewpoint identification information of the interview reference picture. 제 2항에 있어서, 상기 인터뷰 참조 정보는 인터뷰 픽쳐 그룹에 대해서 획득되되,The method of claim 2, wherein the interview reference information is obtained for an interview picture group, 상기 인터뷰 픽쳐 그룹은 픽쳐 내의 모든 슬라이스들이 동일 시간대의 슬라이스만을 참조하여 부호화된 픽쳐를 의미하는 것을 특징으로 하는 비디오 신호 디코딩 방법.The interview picture group means a picture in which all slices in a picture are encoded with reference to only slices of the same time zone. 제 3항에 있어서, 상기 인터뷰 참조 정보는 시퀀스 파라미터 세트의 확장 영역으로부터 획득되는 것을 특징으로 하는 비디오 신호 디코딩 방법.4. The method of claim 3, wherein said interview reference information is obtained from an extended region of a sequence parameter set. 제 1항에 있어서, 상기 제 1 플래그 정보는 NAL 유닛 헤더의 확장 영역으로부터 획득되는 것을 특징으로 하는 비디오 신호 디코딩 방법.The method of claim 1, wherein the first flag information is obtained from an extended area of a NAL unit header. 비디오 신호로부터 NAL 유닛이 다시점 비디오 코딩된 비트스트림인지 스케일러블 비디오 코딩된 비트스트림인지 여부를 식별하는 제 1 플래그 정보를 획득하고, 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩된 비트스트림인 경우 상기 비디오 신호로부터 다시점 영상에 대한 속성 정보를 획득하는 파싱부;여기서 상기 속성 정보는 인터뷰 예측 플래그 정보를 포함하고, 상기 인터뷰 예측 플래그 정보는 상기 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보임,Obtain first flag information identifying whether the NAL unit is a multiview video coded bitstream or a scalable video coded bitstream from the video signal, and is a multiview video coded bitstream according to the first flag information. A parsing unit obtaining attribute information of a multiview image from the video signal; wherein the attribute information includes interview prediction flag information, and the interview prediction flag information is used for inter-view prediction by a coded picture of the NAL unit. Information indicating whether or not 상기 비디오 신호로부터 프로파일 정보를 획득하고, 상기 프로파일 정보가 다시점 비디오 코딩에 관련된 프로파일인 경우 인터뷰 참조 정보를 획득하는 상기 파싱부;여기서 상기 인터뷰 참조 정보는 시점간 의존 관계를 나타내기 위해 이용되는 정보를 의미함,A parsing unit obtaining profile information from the video signal and acquiring interview reference information when the profile information is a profile related to multi-view video coding; wherein the interview reference information is information used to indicate inter-view dependency relations. Means, 상기 인터뷰 예측 플래그 정보에 따라 상기 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우, 상기 인터뷰 참조 정보를 이용하여 시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 복호 픽쳐 버퍼부; 및A decoded picture buffer unit configured to generate a reference picture list for inter-view prediction using the interview reference information when the coded picture of the NAL unit is used for inter-view prediction according to the interview prediction flag information; And 상기 시점간 예측을 위한 참조 픽쳐 리스트를 이용하여 화면간 예측을 수행하는 인터 예측부An inter prediction unit performing inter prediction using the reference picture list for inter-view prediction 를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치.Video signal decoding apparatus comprising a. 제 6항에 있어서, 상기 인터뷰 참조 정보는 인터뷰 참조 픽쳐의 개수 정보 및 인터뷰 참조 픽쳐의 시점 식별 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치.The video signal decoding apparatus of claim 6, wherein the interview reference information includes information about the number of interview reference pictures and viewpoint identification information of the interview reference picture. 제 7항에 있어서, 상기 인터뷰 참조 정보는 인터뷰 픽쳐 그룹에 대해서 획득되되,The method of claim 7, wherein the interview reference information is obtained for an interview picture group, 상기 인터뷰 픽쳐 그룹은 픽쳐 내의 모든 슬라이스들이 동일 시간대의 슬라이스만을 참조하여 부호화된 픽쳐를 의미하는 것을 특징으로 하는 비디오 신호 디코딩 장치.The interview picture group is a video signal decoding apparatus, characterized in that all slices in a picture are encoded with reference to only slices of the same time zone. 제 8항에 있어서, 상기 인터뷰 참조 정보는 시퀀스 파라미터 세트의 확장 영역으로부터 획득되는 것을 특징으로 하는 비디오 신호 디코딩 장치.9. The apparatus of claim 8, wherein the interview reference information is obtained from an extended region of a sequence parameter set. 제 6항에 있어서, 상기 제 1 플래그 정보는 NAL 유닛 헤더의 확장 영역으로부터 획득되는 것을 특징으로 하는 비디오 신호 디코딩 장치.7. The video signal decoding apparatus of claim 6, wherein the first flag information is obtained from an extended area of a NAL unit header.
KR1020070129740A 2006-12-13 2007-12-13 A method and apparatus for decoding a video signal KR101366288B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US86986706P 2006-12-13 2006-12-13
US60/869,867 2006-12-13

Publications (2)

Publication Number Publication Date
KR20080055685A KR20080055685A (en) 2008-06-19
KR101366288B1 true KR101366288B1 (en) 2014-02-21

Family

ID=39802396

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020070129741A KR101366289B1 (en) 2006-12-13 2007-12-13 A method and apparatus for decoding/encoding a video signal
KR1020070129740A KR101366288B1 (en) 2006-12-13 2007-12-13 A method and apparatus for decoding a video signal

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020070129741A KR101366289B1 (en) 2006-12-13 2007-12-13 A method and apparatus for decoding/encoding a video signal

Country Status (1)

Country Link
KR (2) KR101366289B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9848202B2 (en) 2012-12-28 2017-12-19 Electronics And Telecommunications Research Institute Method and apparatus for image encoding/decoding

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102114416B1 (en) 2012-04-23 2020-05-25 삼성전자주식회사 Method and apparatus for multi-view video encoding, method and apparatus for multi-view decoding
KR101685556B1 (en) * 2012-12-28 2016-12-13 한국전자통신연구원 Method and apparatus for image encoding/decoding
KR102270844B1 (en) * 2012-12-28 2021-06-30 한국전자통신연구원 Video encoding and decoding method and apparatus using the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050122717A (en) * 2004-06-25 2005-12-29 학교법인연세대학교 Method for coding/decoding for multiview sequence where view selection is possible
KR20060068254A (en) * 2004-12-16 2006-06-21 엘지전자 주식회사 Video encoding method, video decoding method, and video decoder
KR20060122684A (en) * 2005-05-26 2006-11-30 엘지전자 주식회사 Method for encoding and decoding video signal
KR20060122663A (en) * 2005-05-26 2006-11-30 엘지전자 주식회사 Method for transmitting and using picture information in a video signal encoding/decoding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050122717A (en) * 2004-06-25 2005-12-29 학교법인연세대학교 Method for coding/decoding for multiview sequence where view selection is possible
KR20060068254A (en) * 2004-12-16 2006-06-21 엘지전자 주식회사 Video encoding method, video decoding method, and video decoder
KR20060122684A (en) * 2005-05-26 2006-11-30 엘지전자 주식회사 Method for encoding and decoding video signal
KR20060122663A (en) * 2005-05-26 2006-11-30 엘지전자 주식회사 Method for transmitting and using picture information in a video signal encoding/decoding

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9848202B2 (en) 2012-12-28 2017-12-19 Electronics And Telecommunications Research Institute Method and apparatus for image encoding/decoding
US10397604B2 (en) 2012-12-28 2019-08-27 Electronics And Telecommunications Research Institute Method and apparatus for image encoding/decoding

Also Published As

Publication number Publication date
KR101366289B1 (en) 2014-02-21
KR20080055685A (en) 2008-06-19
KR20080055686A (en) 2008-06-19

Similar Documents

Publication Publication Date Title
US10911754B2 (en) Image coding method using history-based motion information and apparatus for the same
US20220182641A1 (en) In-loop filtering-based image coding apparatus and method
US20220353523A1 (en) Method and device for coding image/video on basis of prediction weighted table
US20240080447A1 (en) Image/video coding method and device
US20240056566A1 (en) Inter prediction method and apparatus in image/video coding system
US20230217015A1 (en) Prediction weighted table-based image/video coding method and apparatus
KR101366288B1 (en) A method and apparatus for decoding a video signal
US20240064305A1 (en) Slice type-based image/video coding method and apparatus
US20230057736A1 (en) Image coding apparatus and method based on sub-picture
US20230328269A1 (en) Image/video coding method and apparatus based on inter prediction
US20220377370A1 (en) Inter prediction in video or image coding system
US20230239478A1 (en) Method and device for processing image information for image/video coding
US20230239463A1 (en) Image/video coding method and device based on weighted prediction
CN114586351A (en) Image compiling apparatus and method based on adaptive loop filtering
KR20080006494A (en) A method and apparatus for decoding a video signal
US11936894B2 (en) High level syntax signaling method and device for image/video coding
RU2803187C1 (en) Method and device for image coding based on sub-image
US11627341B2 (en) Method and device for signaling information relating to slice type in picture header in image/video coding system
RU2810200C2 (en) Method and device for image coding based on sub-image
US20230046209A1 (en) Filtering-based image coding device and method
KR20080023210A (en) A method and apparatus for decoding a video signal

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170113

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee