KR101366289B1 - A method and apparatus for decoding/encoding a video signal - Google Patents

A method and apparatus for decoding/encoding a video signal Download PDF

Info

Publication number
KR101366289B1
KR101366289B1 KR1020070129741A KR20070129741A KR101366289B1 KR 101366289 B1 KR101366289 B1 KR 101366289B1 KR 1020070129741 A KR1020070129741 A KR 1020070129741A KR 20070129741 A KR20070129741 A KR 20070129741A KR 101366289 B1 KR101366289 B1 KR 101366289B1
Authority
KR
South Korea
Prior art keywords
information
interview
picture
inter
view
Prior art date
Application number
KR1020070129741A
Other languages
Korean (ko)
Other versions
KR20080055686A (en
Inventor
박승욱
전병문
전용준
구한서
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20080055686A publication Critical patent/KR20080055686A/en
Application granted granted Critical
Publication of KR101366289B1 publication Critical patent/KR101366289B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/188Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a video data packet, e.g. a network abstraction layer [NAL] unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

본 발명은 비디오 신호의 헤더로부터 현재 NAL의 코딩 방식을 구별하는 제 1 플래그 정보를 획득하는 단계, 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩인 경우, 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 단계, 상기 제 2 플래그 정보에 기초하여 시점 간 예측을 위한 정보를 획득하는 단계 및 상기 시점 간 예측을 위한 정보들을 이용하여 상기 비디오 신호를 디코딩하는 단계를 포함하되, 상기 시점 간 예측을 위한 정보들은 현재 슬라이스에서 조명 보상이 적용되는지 여부를 나타내는 정보와 시점 간 변이 벡터 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.

Figure R1020070129741

다시점, 시점간 예측

The present invention provides a method of obtaining first flag information that distinguishes a coding scheme of a current NAL from a header of a video signal. Acquiring second flag information indicating; acquiring information for inter-view prediction based on the second flag information; and decoding the video signal using the information for inter-view prediction, The information for inter-view prediction provides a video signal decoding method comprising information indicating whether illumination compensation is applied in a current slice and inter-view variation vector information.

Figure R1020070129741

Multi-view, point-in-time prediction

Description

비디오 신호의 디코딩/인코딩 방법 및 장치{A METHOD AND APPARATUS FOR DECODING/ENCODING A VIDEO SIGNAL}A method and device for decoding / encoding a video signal {A METHOD AND APPARATUS FOR DECODING / ENCODING A VIDEO SIGNAL}

본 발명은 비디오 신호의 코딩에 관한 기술이다.The present invention relates to the coding of video signals.

압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성을 지니고 있는 점에 특징이 있다.Compression coding refers to a series of signal processing techniques that transmit digitized information through a communication line or store the data in a form suitable for a storage medium. The target of compression coding includes objects such as voice, image, and character. In particular, the technique of performing compression coding on an image is referred to as video image compression. The general feature of the video image is that it has spatial redundancy and temporal redundancy.

픽쳐의 시점을 식별할 수 있는 시점 정보를 정의함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by defining viewpoint information that can identify a viewpoint of a picture.

현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측에 이용되는지 여부를 나타내는 인터뷰 예측 플래그를 정의함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by defining an interview prediction flag that indicates whether the coded picture of the current NAL unit is used for inter-view prediction.

시점간의 의존 관계를 나타내는 인터뷰 참조 정보를 이용하여 참조 픽쳐 리스트를 생성 및 관리함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by generating and managing a reference picture list using interview reference information indicating a dependency between viewpoints.

인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 참조 정보를 획득함으로써 시점간의 랜덤 액세스를 효율적으로 수행할 수 있다.Random access between viewpoints can be efficiently performed by obtaining interview reference information based on the interview picture group identification information.

다시점 비디오 영상의 속성 정보를 적절한 곳에 위치시킴으로써 코딩 효율을 높이고자 한다.It is intended to improve coding efficiency by placing attribute information of a multiview video image in an appropriate place.

현재 슬라이스가 기준 시점에 해당되는지를 알려줌으로써 시점 간 다양한 방식으로 레벨을 설정하고자 한다.We want to set the level in various ways from time to time by telling whether the current slice corresponds to the reference time point.

본 발명은 비디오 신호의 헤더로부터 현재 NAL의 코딩 방식을 구별하는 제 1 플래그 정보를 획득하는 단계, 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩인 경우, 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 단계, 상기 제 2 플래그 정보에 기초하여 시점 간 예측을 위한 정보를 획득하는 단계 및 상기 시점 간 예측을 위한 정보들을 이용하여 상기 비디오 신호 를 디코딩하는 단계를 포함하되, 상기 시점 간 예측을 위한 정보들은 현재 슬라이스에서 조명 보상이 적용되는지 여부를 나타내는 정보와 시점 간 변이 벡터 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.The present invention provides a method of obtaining first flag information that distinguishes a coding scheme of a current NAL from a header of a video signal, and when multiview video coding is performed according to the first flag information, whether the current NAL is used for inter-view prediction. Acquiring second flag information indicating; acquiring information for inter-view prediction based on the second flag information; and decoding the video signal using the information for inter-view prediction, The information for inter-view prediction provides a video signal decoding method comprising information indicating whether illumination compensation is applied in a current slice and inter-view variation vector information.

또한, 본 발명은, 현재 NAL의 코딩된 픽쳐가 인터 뷰 픽쳐 그룹인지를 나타내는 인터뷰 픽쳐 그룹 식별 정보를 획득하는 단계와 상기 식별 정보에 따라 상기 인터뷰 참조 정보를 획득하는 단계를 더 포함하되, 상기 인터뷰 참조 정보를 이용하여 상기 비디오 신호를 디코딩하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.The present invention may further include acquiring interview picture group identification information indicating whether a coded picture of a current NAL is an interview picture group, and acquiring the interview reference information according to the identification information. It provides a video signal decoding method characterized by decoding the video signal using the reference information.

또한, 본 발명은, 상기 현재 NAL 유닛이 기준 시점에 해당하는지 여부를 나타내는 기준 시점 플래그 정보를 획득하는 단계, 상기 기준 시점 플래그 정보에 따라, 현재 NAL 유닛이 기준 시점에 해당되는 경우 시점 간 예측을 위한 참조 픽쳐로 마킹하는 단계 및 상기 마킹된 참조 픽쳐를 이용하여 상기 비디오 신호를 디코딩하는 방법을 제공한다.The present invention may further include obtaining reference time flag information indicating whether the current NAL unit corresponds to a reference time point, and performing inter-view prediction when the current NAL unit corresponds to a reference time point according to the reference time flag information. And a method for decoding the video signal using the marked reference picture.

또한, 본 발명은, 다시점 비디오 신호의 인코딩 방법에 있어서, 시점 간의 의존 관계를 나타내는 인터뷰 참조 정보를 생성하는 단계, 상기 인터뷰 참조 정보에 따라 각 시점에 대한 우선 순위 정보를 결정하는 단계,The present invention also provides a method of encoding a multiview video signal, the method comprising: generating interview reference information indicating a dependency relationship between viewpoints, determining priority information for each viewpoint according to the interview reference information,

상기 우선 순위 정보에 기초하여, 현재 NAL 유닛이 기준 시점에 해당되는지 여부를 나타내는 기준 시점 플래그 정보를 생성하는 단계 및 상기 기준 시점 플래그 정보를 포함하는 비트스트림을 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 인코딩 방법을 제공한다.Generating reference time flag information indicating whether a current NAL unit corresponds to a reference time point and generating a bitstream including the reference time flag information based on the priority information. A video signal encoding method is provided.

또한, 본 발명은, 현재 NAL의 코딩 방식을 구별하는 제 1 플래그 정보에 따라, 상기 현재 NAL이 시점간 예측에 이용되는지 여부를 나타내는 제 2 플래그 정보를 획득하는 파싱부, 상기 제 2 플래그 정보에 기초하여 획득된 시점 간 예측을 위한 정보들을 이용하여 상기 비디오 신호를 디코딩하는 인터 예측부를 포함하되, 상기 시점 간 예측을 위한 정보들은 현재 슬라이스에서 조명 보상이 적용되는지 여부를 나타내는 정보와 시점 간 변이 벡터 정보를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치를 제공한다.The present invention also provides a parser for acquiring second flag information indicating whether the current NAL is used for inter-view prediction according to first flag information for distinguishing a coding scheme of a current NAL. And an inter predictor to decode the video signal using information obtained for inter-view prediction based on the information, wherein the information for inter-view prediction includes information indicating whether illumination compensation is applied in a current slice and an inter-view variation vector. Provided is a video signal decoding apparatus comprising information.

본 발명은 비디오 신호를 코딩함에 있어서, 코딩 정보를 적절한 곳에 위치시킴으로써 보다 효율적으로 코딩을 수행할 수 있게 된다. 또한, 현재 픽쳐가 시점간 예측에 이용되는 경우인지를 먼저 확인하고, 시점간 예측에 이용되는 경우에만 시점간 예측에 필요한 정보를 전송함으로써 전송할 비트수를 감소시킬 수 있을 뿐만 아니라, 복호 픽쳐 버퍼의 부담을 감소시켜 코딩 속도를 향상시킬 수 있다. 그리고, 현재 슬라이스가 기준 시점에 해당되는지를 알려줌으로써 시점 간 다양한 레벨을 설정할 수 있다. 또한, 다시점 영상에 대한 다양한 속성 정보들을 이용함으로써 보다 효율적인 코딩이 가능할 수 있다.According to the present invention, in coding a video signal, coding can be performed more efficiently by placing coding information at an appropriate place. In addition, by checking whether the current picture is used for inter-view prediction first, and transmitting information necessary for inter-view prediction only when it is used for inter-view prediction, the number of bits to be transmitted can be reduced and the decoded picture buffer By reducing the burden, coding speed can be improved. In addition, various levels between views may be set by indicating whether the current slice corresponds to a reference viewpoint. In addition, more efficient coding may be possible by using various attribute information of a multiview image.

비디오 신호 데이터를 압축 부호화하는 기술은 공간적 중복성, 시간적 중복성, 스케일러블한 중복성, 시점간 존재하는 중복성을 고려하고 있다. 또한, 이러한 압축 부호화 과정에서 시점 간 존재하는 상호 중복성을 고려하여 압축 코딩을 할 수 있다. 시점간 중복성을 고려하는 압축 코딩에 대한 기술은 본 발명의 실시예일 뿐이며, 본 발명의 기술적 사상은 시간적 중복성, 스케일러블한 중복성 등에도 적용될 수 있다. 또한, 본 명세서에서 코딩이라 함은 인코딩과 디코딩의 개념을 모두 포함할 수 있고, 본 발명의 기술적 사상 및 기술적 범위에 따라 유연하게 해석할 수 있을 것이다.The compression coding technique of video signal data considers spatial redundancy, temporal redundancy, scalable redundancy, and redundancy existing between views. In this compression encoding process, compression coding may be performed in consideration of mutual redundancy existing between views. The compression coding technique considering the inter-view redundancy is only an embodiment of the present invention, and the technical idea of the present invention may be applied to temporal redundancy, scalable redundancy, and the like. In addition, the term coding in this specification may include both the concepts of encoding and decoding, and may be flexibly interpreted according to the technical spirit and technical scope of the present invention.

도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of a video signal decoding apparatus to which the present invention is applied.

상기 디코딩 장치는 크게 파싱부(100), 엔트로피 디코딩부(200), 역양자화/역변환부(300), 인트라 예측부(400), 디블록킹 필터부(500), 복호 픽쳐 버퍼부(600), 인터 예측부(700) 등을 포함한다.The decoding apparatus includes a parsing unit 100, an entropy decoding unit 200, an inverse quantization / inverse transform unit 300, an intra prediction unit 400, a deblocking filter unit 500, a decoded picture buffer unit 600, Inter prediction unit 700 and the like.

파싱부(100)에서는 수신된 비디오 영상을 복호하기 위하여 NAL(Network Abstraction Layer) 단위로 파싱을 수행한다. 일반적으로 하나 또는 그 이상의 시퀀스 파라미터 셋과 픽쳐 파라미터 셋이 슬라이스 헤더와 슬라이스 데이터가 디코딩되기 전에 디코더로 전송된다. 이 때 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에는 여러 가지 속성 정보가 포함될 수 있다. MVC(Multiview Video Coding)는 기존 AVC 기술에 대한 추가 기술이므로 무조건적으로 추가하기보다는 MVC 비트스트림인 경우에 한해 여러 가지 속성 정보들을 추가하는 것이 더 효율적일 수 있다. 예를 들어, 상기 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에서 MVC 비트스트림인지 여부를 식별할 수 있는 플래그 정보를 추가할 수 있다. 상기 플래그 정보에 따라 입력된 비트스트림이 다시점 영상 코딩된 비트스트림일 경우에 한해 다시점 영상에 대한 속성 정보들을 추가할 수 있다. 예를 들어, 상기 속성 정보들은 시점 식별(view identification) 정보, 인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information), 인터뷰 예측 플래그 정보(inter-view prediction flag information), 기준 시점 플래그 정보(base view flag information) 등을 포함할 수 있다. 이에 대해서는 도 2에서 상세히 설명하도록 한다. The parser 100 performs parsing on a network abstraction layer (NAL) basis in order to decode the received video image. In general, one or more sequence parameter sets and picture parameter sets are transmitted to the decoder before the slice header and slice data are decoded. In this case, various attribute information may be included in the NAL header area or the extension area of the NAL header. Multiview Video Coding (MVC) is an additional technology to the existing AVC technology, so it may be more efficient to add various attribute information only in the case of MVC bitstream rather than unconditionally adding. For example, flag information for identifying whether an MVC bitstream is included in the NAL header region or an extension region of the NAL header may be added. Attribute information about a multiview image may be added only when the input bitstream is a multiview image coded bitstream according to the flag information. For example, the attribute information may include view identification information, inter-view picture group identification information, inter-view prediction flag information, and reference view flag information. view flag information), and the like. This will be described in detail in FIG.

파싱된 비트스트림은 엔트로피 디코딩부(200)를 통하여 엔트로피 디코딩되고, 각 매크로블록의 계수, 움직임 벡터 등이 추출된다. 역양자화/역변환부(300)에서는 수신된 양자화된 값에 일정한 상수를 곱하여 변환된 계수값을 획득하고, 상기 계수값을 역변환하여 화소값을 복원하게 된다. 상기 복원된 화소값을 이용하여 인트라 예측부(400)에서는 현재 픽쳐 내의 디코딩된 샘플로부터 화면내 예측을 수행하게 된다. 한편, 디블록킹 필터부(500)에서는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 매크로블록에 적용된다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 프레임의 화질을 향상시킨다. 필터링 과정의 선택은 경계 세기(boundary strenth)와 경계 주위의 이미지 샘플의 변화(gradient)에 의해 좌우된다. 필터링을 거친 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(600)에 저장된다.The parsed bitstream is entropy decoded through the entropy decoding unit 200, and coefficients, motion vectors, and the like of each macroblock are extracted. The inverse quantization / inverse transform unit 300 multiplies the received quantized value by a constant constant to obtain a transformed coefficient value, and inversely transforms the coefficient value to restore the pixel value. The intra prediction unit 400 performs intra prediction from the decoded samples in the current picture by using the reconstructed pixel value. Meanwhile, the deblocking filter unit 500 is applied to each coded macroblock in order to reduce block distortion. The filter smoothes the edges of the block to improve the quality of the decoded frame. The choice of filtering process depends on the boundary strength and the gradient of the image samples around the boundary. The filtered pictures are output or stored in the decoded picture buffer unit 600 for use as a reference picture.

복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(600)에서는 화면간 예측을 수행하기 위해서 이전에 코딩된 픽쳐들을 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(600)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용하게 된다. 따라서, MVC에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 픽쳐와 다른 시점에 있는 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 상기 frame_num 과 POC 뿐만 아니라 픽쳐의 시점을 식별하는 시점 정보도 함께 이용할 수 있다. 또한, 상기 frame_num 과 유사한 개념의 시점 방향으로 픽쳐를 식별하는 정보도 함께 이용할 수 있다.The decoded picture buffer unit 600 stores or opens previously coded pictures in order to perform inter prediction. In this case, in order to store or open the decoded picture buffer unit 600, frame_num and POC (Picture Order Count) of each picture are used. Therefore, some of the previously coded pictures in MVC have pictures that are different from the current picture. Therefore, in order to utilize these pictures as reference pictures, not only the frame_num and the POC but also the view information for identifying the view point of the picture are included. It is available. In addition, information identifying a picture in a view direction having a concept similar to the frame_num may also be used.

인터 예측부(700)에서는 복호 픽쳐 버퍼부(600)에 저장된 참조 픽쳐를 이용하여 화면간 예측을 수행한다. 인터 코딩된 매크로블록은 매크로블록 파티션으로 나누어질 수 있으며, 각 매크로블록 파티션은 하나 또는 두개의 참조 픽쳐로부터 예측될 수 있다. 상기 인터 예측부(700)에서는 엔트로피 디코딩부(200)로부터 전송된 정보들을 이용하여 현재 블록의 움직임을 보상한다. 비디오 신호로부터 현재 블록에 이웃하는 블록들의 움직임 벡터를 추출하고, 상기 현재 블록의 움직임 벡터 예측값을 획득한다. 상기 획득된 움직임 벡터 예측값과 비디오 신호로부터 추출되는 차분 벡터를 이용하여 현재 블록의 움직임을 보상한다. 또한, 이러한 움직임 보상은 하나의 참조 픽쳐를 이용하여 수행될 수도 있고, 복수의 픽쳐를 이용하여 수행될 수도 있다. 다시점 비디오 코딩에 있어서, 현재 픽쳐가 다른 시점에 있는 픽쳐들을 참조하게 되는 경우, 상기 복호 픽쳐 버퍼부(600)에 저장되어 있는 시점간 예측을 위한 참조 픽쳐 리스트에 대한 정보를 이용하여 움직임 보상을 수행할 수 있다. 그리고, 그 픽쳐의 시점을 식별하는 시점 식별 정보를 이용하여 움직임 보상을 수행할 수도 있다.The inter prediction unit 700 performs inter prediction using a reference picture stored in the decoded picture buffer unit 600. Inter-coded macroblocks can be divided into macroblock partitions, where each macroblock partition can be predicted from one or two reference pictures. The inter prediction unit 700 compensates for the movement of the current block by using the information transmitted from the entropy decoding unit 200. A motion vector of blocks neighboring the current block is extracted from the video signal, and a motion vector prediction value of the current block is obtained. The motion of the current block is compensated by using the obtained motion vector prediction value and the difference vector extracted from the video signal. In addition, such motion compensation may be performed using one reference picture or may be performed using a plurality of pictures. In multi-view video coding, when a current picture refers to pictures at different views, motion compensation is performed using information on a reference picture list for inter-view prediction stored in the decoded picture buffer unit 600. Can be done. In addition, motion compensation may be performed using viewpoint identification information for identifying the viewpoint of the picture.

상기와 같은 과정을 통해 인터 예측된 픽쳐들과 인트라 예측된 픽쳐들은 예측 모드에 따라 선택되어 현재 픽쳐를 복원하게 된다. 이하에서는 비디오 신호의 효율적인 디코딩 방법을 제공하기 위한 다양한 실시예들을 설명하도록 한다.Through the above process, the inter predicted pictures and the intra predicted pictures are selected according to the prediction mode to reconstruct the current picture. Hereinafter, various embodiments for providing an efficient decoding method of a video signal will be described.

도 2는 본 발명이 적용되는 실시예로서, 다시점 비디오 코딩된 비트스트림에 추가될 수 있는 다시점 비디오 영상에 대한 속성 정보를 설명하기 위한 NAL 유닛의 구조를 나타낸다.FIG. 2 is an embodiment to which the present invention is applied and shows a structure of a NAL unit for describing attribute information for a multiview video image that may be added to a multiview video coded bitstream.

상기 도 2에서는 다시점 비디오 영상에 대한 속성 정보들이 추가될 수 있는 NAL 유닛의 구조의 일례를 나타낸다. 크게 NAL 유닛은 NAL 유닛의 헤더와 RBSP(Raw Byte Sequence Payload, 동영상 압축의 결과데이터)로 구성될 수 있다. 그리고, NAL 유닛의 헤더에서는 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보(nal_ref_idc)와 NAL 유닛의 타입을 나타내는 정보(nal_unit_type)를 포함할 수 있다. 또한, 제한적으로 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 예를 들어, 상기 NAL 유닛의 타입을 나타내는 정보가 다시점 비디오 코딩과 관련이 있는 경우에, 상기 NAL 유닛은 상기 NAL 유닛 헤더의 확장 영역을 포함할 수 있다. 구체적 예로, 상기 nal_unit_type = 20 또는 14 일 때 상기 NAL 유닛은 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 또한, 상기 NAL 유닛 헤더의 확장 영역은 현재 NAL 유닛의 코딩 방식을 구별하는 플래그 정보(svc_mvc_flag)를 포함할 수 있다. 예를 들어, 상기 플래그 정보에 따라 현재 NAL 유닛이 다시점 비디오 코딩된 비트스트림인지 아니면 스케일러블 비디오 코딩된 비트스트림인지 여부를 식별할 수 있다. 상기 플래그 정보에 따라 다시점 비디 오 코딩된 비트스트림인 경우에 다시점 비디오 영상에 대한 속성 정보들을 추가할 수 있다.2 illustrates an example of a structure of a NAL unit to which attribute information of a multiview video image may be added. In general, the NAL unit may include a header of the NAL unit and a raw byte sequence payload (RBSP). The header of the NAL unit may include identification information nal_ref_idc indicating whether the NAL unit includes a slice of the reference picture and information nal_unit_type indicating the type of the NAL unit. In addition, the extended region of the NAL unit header may be limited. For example, when the information indicating the type of the NAL unit is related to multi-view video coding, the NAL unit may include an extended area of the NAL unit header. As a specific example, when nal_unit_type = 20 or 14, the NAL unit may also include an extended region of the NAL unit header. In addition, the extended region of the NAL unit header may include flag information svc_mvc_flag for distinguishing a coding scheme of a current NAL unit. For example, it may be identified whether the current NAL unit is a multiview video coded bitstream or a scalable video coded bitstream according to the flag information. In the case of a multiview video coded bitstream according to the flag information, attribute information of a multiview video image may be added.

먼저 시점 식별 정보(view identification information)란, 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 정보를 말한다. 비디오 영상 신호가 코딩될 때, 각각의 픽쳐를 식별하기 위하여 POC(Picture Order Count)와 frame_num 이 이용된다. 다시점 비디오 영상인 경우에는 시점간 예측이 수행되기 때문에 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 식별 정보가 필요하다. 따라서, 픽쳐의 시점을 식별하는 시점 식별 정보를 정의할 필요가 있다. 상기 시점 식별 정보는 비디오 신호의 헤더 영역으로부터 획득될 수 있다. 예를 들어, 상기 헤더 영역은 NAL 헤더 또는 NAL 헤더의 확장 영역일 수도 있고, 슬라이스 헤더일 수도 있다. 상기 시점 식별 정보를 이용하여 현재 픽쳐와 다른 시점에 있는 픽쳐의 정보를 획득하고, 상기 다른 시점에 있는 픽쳐의 정보를 이용하여 상기 비디오 신호를 디코딩할 수 있다.First, view identification information refers to information for distinguishing a picture at a current view from a picture at a different view. When a video image signal is coded, a picture order count (POC) and frame_num are used to identify each picture. In the case of a multiview video image, since inter-view prediction is performed, identification information for distinguishing a picture at a current view from a picture at a different view is required. Therefore, it is necessary to define viewpoint identification information for identifying the viewpoint of the picture. The view identification information may be obtained from a header area of a video signal. For example, the header area may be an NAL header, an extended area of the NAL header, or a slice header. The view identification information may be used to obtain information of a picture that is different from the current picture, and the video signal may be decoded using the information of the picture at the other view.

인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information)란, 현재 NAL 유닛의 코딩된 픽쳐가 인터뷰 픽쳐 그룹인지 여부를 식별하는 정보를 말한다. 그리고, 인터뷰 픽쳐 그룹(inter-view picture group)이라 함은, 모든 슬라이스들이 동일 시간대의 프레임에 있는 슬라이스만을 참조하는 부호화된 픽쳐를 의미한다. 예를 들어, 다른 시점에 있는 슬라이스만을 참조하고 현재 시점에 있는 슬라이스는 참조하지 않는 부호화된 픽쳐를 말한다. 다시점 영상의 복호화 과정에 있어서, 시점 간의 랜덤 액세스는 가능할 수 있다. 이처럼, 인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 참조 정보를 획득하게 될 경우, 보다 효율적으로 시점 간의 랜덤 액세스를 수행할 수 있게 된다. 이는 인터뷰 픽쳐 그룹에서의 각 픽쳐들 사이의 시점간 참조 관계가 넌-인터뷰 픽쳐 그룹에서의 시점간 참조 관계가 다를 수 있기 때문이다. 이때, 상기 시점 식별 정보를 이용하게 되면 보다 효율적인 랜덤 액세스가 가능할 수 있다.Inter-view picture group identification information refers to information for identifying whether a coded picture of a current NAL unit is an interview picture group. The inter-view picture group means an encoded picture in which all slices refer only to slices in frames of the same time zone. For example, an encoded picture refers to only a slice at another viewpoint and no slice at the current viewpoint. In the decoding process of a multiview image, random access between views may be possible. As such, when the interview reference information is acquired based on the interview picture group identification information, random access between viewpoints can be performed more efficiently. This is because the inter-view reference relationship between the pictures in the interview picture group may be different from the inter-view reference relationship in the non-interview picture group. In this case, if the view identification information is used, more efficient random access may be possible.

인터뷰 예측 플래그 정보(inter-view prediction flag information)란, 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보를 말한다. 상기 인터뷰 예측 플래그 정보는 시간적 예측 또는 시점간 예측이 수행되는 부분에서 이용될 수 있다. 이때, NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보와 함께 이용될 수 있다. 예를 들어, 상기 식별 정보에 따라 현재 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지는 않지만 시점간 예측을 위해 이용되는 경우에, 상기 현재 NAL 유닛은 시점간 예측에만 이용되는 참조 픽쳐일 수 있다. 또는, 상기 식별 정보에 따라 현재 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 시점간 예측을 위해 이용되는 경우에, 상기 현재 NAL 유닛은 시간적 예측과 시점간 예측을 위해 이용될 수 있다. 또한, 상기 식별 정보에 따라 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지 않더라도, 복호 픽쳐 버퍼에 저장될 수 있다. 왜냐하면, 상기 인터뷰 예측 플래그 정보에 따라 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우에는 저장해야 될 필요가 있기 때문이다. 이에 대해서는 도 3에서 상세히 설명하도록 한다.Inter-view prediction flag information refers to information indicating whether a coded picture of a current NAL unit is used for inter-view prediction. The interview prediction flag information may be used in a part where temporal prediction or inter-view prediction is performed. In this case, the NAL unit may be used together with identification information indicating whether the NAL unit includes a slice of the reference picture. For example, when the current NAL unit does not include a slice of a reference picture according to the identification information but is used for inter-view prediction, the current NAL unit may be a reference picture used only for inter-view prediction. Alternatively, when the current NAL unit includes a slice of a reference picture according to the identification information and is used for inter-view prediction, the current NAL unit may be used for temporal prediction and inter-view prediction. In addition, even if the NAL unit does not include a slice of the reference picture according to the identification information, it may be stored in the decoded picture buffer. This is because, if the coded picture of the current NAL unit is used for inter-view prediction according to the interview prediction flag information, it needs to be stored. This will be described in detail with reference to FIG. 3.

기준 시점 플래그 정보(base view flag information)란, 현재 슬라이스가 기 준 시점에 해당하는지 여부를 의미할 수 있다. 예를 들어, 상기 기준 시점 플래그가 1이면 현재 슬라이스는 기준 시점에 해당된다. 상기 기준 시점 플래그를 이용할 경우, 시점 간의 레벨을 보다 다양한 방식으로 설정할 수 있다. 즉, 기준 시점 플래그를 이용하게 될 경우 view level이 0 인 시점을 결정해줄 수 있기 때문에 다른 시점의 view level 을 보다 다양하게 정의할 수 있게 된다. 이에 대해서는 도 4에서 상세히 설명하도록 한다.The base view flag information may mean whether the current slice corresponds to the base view. For example, when the reference time flag is 1, the current slice corresponds to the reference time point. When the reference time flag is used, levels between time points can be set in more various ways. That is, when the reference view flag is used, a view level of 0 can be determined, and thus, the view level of another view can be defined more variously. This will be described in detail in FIG.

우선순위 식별(priority identification) 정보란, NAL 유닛의 우선순위를 식별해주는 정보를 의미한다. 이를 이용하여 시점 확장성을 제공할 수 있다. 예를 들어, 상기 우선순위 식별 정보를 이용하여 시점 레벨 정보를 정의할 수 있다. 여기서, 시점 레벨 정보란, 비디오 신호로부터 시점 확장성을 제공하기 위한 계층적인 구조에 대한 정보를 말한다. 다시점 비디오 영상에서는 사용자에게 다양한 시간 및 시점의 영상을 제공하도록 하기 위해 시간 및 시점에 대한 레벨을 정의해 줄 필요가 있다. 이처럼 레벨 정보를 정의할 경우, 시간 및 시점에 대한 확장성(scalability)을 이용할 수 있게 된다. 따라서, 사용자는 원하는 시간 및 시점의 영상만을 볼 수도 있고, 다른 제한 조건에 따른 영상만을 볼 수 있게 된다. 이에 대해서는 도 4에서 상세히 설명하도록 한다.Priority identification information means information for identifying the priority of the NAL unit. This can be used to provide view scalability. For example, viewpoint level information may be defined using the priority identification information. Here, the view level information refers to information on a hierarchical structure for providing view expandability from a video signal. In a multi-view video image, it is necessary to define the levels of time and view in order to provide a user with images of various times and views. When defining the level information in this way, scalability with respect to time and time can be used. Accordingly, the user may view only an image of a desired time and time point, and may view only an image according to another constraint. This will be described in detail in FIG.

또 다른 예로, 상기 NAL 유닛의 타입을 나타내는 정보가 서브셋 시퀀스 파라미터 세트(subset sequence parameter set)를 나타내는 정보일 경우, 상기 RBSP는 서브셋 시퀀스 파라미터 세트에 대한 정보를 포함할 수 있다. 구체적 예로, nal_unit_type = 15 일 경우, 상기 RBSP는 서브셋 시퀀스 파라미터 세트에 대한 정 보, 슬라이스 레이어에 대한 정보 등을 포함할 수 있다. As another example, when the information indicating the type of the NAL unit is information indicating a subset sequence parameter set, the RBSP may include information about the subset sequence parameter set. As a specific example, when nal_unit_type = 15, the RBSP may include information about a subset sequence parameter set, information about a slice layer, and the like.

또한, 프로파일 정보에 따라 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 예를 들어, 프로파일 정보(profile_idc)가 다시점 비디오 코딩에 관련된 프로파일인 경우, 상기 서브셋 시퀀스 파라미터 세트는 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 또는 프로파일 정보에 따라 시퀀스 파라미터 세트가 시퀀스 파라미터 세트의 확장 영역을 포함할 수 있다. 상기 시퀀스 파라미터 세트의 확장 영역은 인터뷰 참조 정보와 부분적 디코딩 정보를 포함할 수 있다. 인터뷰 참조 정보(inter-view reference information)란, 시점간 의존 관계를 나타내기 위해 이용되는 정보를 의미할 수 있다. 예를 들어, 시점간 의존 관계를 나타내기 위해서는 인터뷰 참조 픽쳐의 개수 정보, 인터뷰 참조 픽쳐의 시점 식별 정보 등이 필요할 수 있다. 부분적 디코딩 정보란, 대응되는 참조 시점의 픽쳐를 완전히 디코딩하지 않을 수 있음을 나타내는 정보를 의미할 수 있다. 이는 넌-인터뷰 픽쳐 그룹의 경우에 적용될 수 있다. 예를 들어, 모든 시점의 모든 넌-인터뷰 픽쳐 그룹에 대해서는 대응되는 참조 시점의 픽쳐를 완전히 디코딩하지 않고, 부분적으로 디코딩할 수 있다. 구체적 예로, 넌-인터뷰 픽쳐 그룹에서, 인트라 매크로블록은 필요할 경우 완전히 디코딩을 수행하고, 인터 매크로블록은 필요할 경우 레지듀얼 정보만 디코딩을 수행할 수 있다. 또는, 인터 매크로블록에 대해서는 매크로블록 타입 정보와 움직임 정보가 디코딩되어 다른 시점에서의 모션 스킵 정보로 이용될 수 있다.  In addition, the subset sequence parameter set may include an extended area of the sequence parameter set according to profile information. For example, when the profile information profile_idc is a profile related to multi-view video coding, the subset sequence parameter set may include an extended region of the sequence parameter set. Alternatively, the sequence parameter set may include an extended area of the sequence parameter set according to the profile information. The extended area of the sequence parameter set may include interview reference information and partial decoding information. Inter-view reference information may mean information used to indicate inter-view dependency. For example, in order to indicate the inter-view dependency, information about the number of interview reference pictures and viewpoint identification information on the interview reference picture may be required. The partial decoding information may mean information indicating that the picture of the corresponding reference view may not be fully decoded. This may apply in the case of a non-interview picture group. For example, for all non-interview picture groups at all time points, the pictures at the corresponding reference time points may be partially decoded instead of completely decoded. As a specific example, in the non-interview picture group, the intra macroblock may completely decode when necessary, and the inter macroblock may decode only residual information when necessary. Alternatively, macroblock type information and motion information may be decoded for the inter macroblock and used as motion skip information at different views.

상기 인터뷰 참조 정보는, 시점 간 영상들이 어떠한 구조로 예측되었는지를 알 수 있는 정보를 말한다. 또한, 상기 시점간 참조 정보는 참조 픽쳐의 개수와 참조 픽쳐의 시점 정보를 이용하여 파악할 수 있다. 예를 들어, 먼저 전체 시점의 개수를 획득하고, 상기 전체 시점의 개수에 근거하여 각 시점을 구별하는 시점 식별 정보를 파악할 수 있다. 그리고, 각 시점마다 참조 방향에 대한 참조 픽쳐의 개수를 나타내는 인터뷰 참조 픽쳐의 개수 정보를 획득할 수 있다. 상기 인터뷰 참조 픽쳐의 개수 정보에 따라 각 인터뷰 참조 픽쳐의 시점 식별 정보를 획득할 수 있다. 이러한 방식을 통해서 상기 인터뷰 참조 정보가 획득될 수 있으며, 상기 인터뷰 참조 정보는 인터뷰 픽쳐 그룹일 경우와 넌-인터뷰 픽쳐 그룹일 경우로 나누어서 파악될 수 있다. 이는 현재 NAL에 있는 코딩된 슬라이스가 인터뷰 픽쳐 그룹인지 여부를 나타내는 인터뷰 픽쳐 그룹 식별 정보를 이용하여 알 수 있다. 또한, 상기 인터뷰 픽쳐 그룹 식별 정보에 따라 획득된 인터뷰 참조 정보는 참조 픽쳐 리스트의 생성 및 수정 등에 이용될 수 있다.The interview reference information refers to information capable of knowing how the inter-view images are predicted. The inter-view reference information may be determined using the number of reference pictures and the view information of the reference picture. For example, first, the number of all viewpoints may be obtained, and viewpoint identification information for distinguishing each viewpoint may be determined based on the number of all viewpoints. In addition, information about the number of interview reference pictures indicating the number of reference pictures with respect to the reference direction may be obtained at each viewpoint. View identification information of each interview reference picture may be acquired according to the number information of the interview reference picture. In this manner, the interview reference information may be obtained, and the interview reference information may be identified by being divided into an interview picture group and a non-interview picture group. This can be known using the interview picture group identification information indicating whether the coded slice currently in the NAL is an interview picture group. In addition, the interview reference information acquired according to the interview picture group identification information may be used to generate and modify a reference picture list.

도 3은 본 발명이 적용되는 실시예로서, 인터뷰 예측 플래그가 이용되는 디코딩 과정을 설명하기 위한 다시점 영상 신호의 전체적인 예측 구조를 나타낸다.3 is an embodiment to which the present invention is applied and shows an overall prediction structure of a multiview image signal for explaining a decoding process using an interview prediction flag.

상기 도 3에 나타난 바와 같이 가로축의 T0 ~ T100 은 각각 시간에 따른 프레임을 나타낸 것이고, 세로축의 S0 ~ S7은 각각 시점에 따른 프레임을 나타낸 것이다. 예를 들어, T0에 있는 픽쳐들은 같은 시간대(T0)에 서로 다른 카메라에서 찍은 영상들을 의미하며, S0 에 있는 픽쳐들은 한 대의 카메라에서 찍은 다른 시간대의 영상들을 의미한다. 또한, 도면 상의 화살표들은 각 픽쳐들의 예측 방향과 순서를 나타낸 것으로서, 예를 들어, T0 시간대의 S2 시점에 있는 P0 픽쳐는 I0로부터 예측된 픽쳐이며, 이는 TO 시간대의 S4 시점에 있는 P0 픽쳐의 참조 픽쳐가 된다. 또한, S2 시점의 T4, T2 시간대에 있는 B1, B2 픽쳐의 참조 픽쳐가 된다. 이처럼, 시점간 예측을 수행하기 위해서는 인터뷰 참조 픽쳐가 필요하며, 현재 픽쳐가 시점간 예측을 위해 이용되는지 여부는 인터뷰 예측 플래그 정보에 의해 결정될 수 있다. 이하, 상기 인터뷰 예측 플래그가 이용되는 실시예를 설명하도록 한다.As shown in FIG. 3, T0 to T100 on the horizontal axis represent frames over time, and S0 to S7 on the vertical axis represent frames according to viewpoints, respectively. For example, pictures in T0 refer to images taken by different cameras in the same time zone (T0), and pictures in S0 refer to images in different time zones taken by one camera. In addition, the arrows in the drawings indicate the prediction direction and the order of each picture. For example, a P0 picture at S2 time point in the T0 time zone is a picture predicted from I0, which refers to a P0 picture at S4 time point in the TO time zone. It becomes a picture. It is also a reference picture of the B1 and B2 pictures in the T4 and T2 time zones at the time S2. As such, an interview reference picture is required to perform the inter-view prediction, and whether the current picture is used for the inter-view prediction may be determined by the interview prediction flag information. Hereinafter, an embodiment in which the interview prediction flag is used will be described.

본 발명의 다른 실시예로서, 인터뷰 예측 플래그 정보(inter-view prediction flag information)는, 코딩된 슬라이스를 디코딩함에 있어서 시점 간 예측이 이용되는지 여부를 나타내는 플래그 정보를 의미할 수 있다. 예를 들어, 상기 플래그 정보가 1일 경우, 어떠한 시점 간 예측도 현재 슬라이스에서 이용되지 않음을 의미할 수 있다. 즉, 시점 간 예측에 관한 코딩 모드 예측, 움직임 예측 및/또는 레지듀얼 예측 등이 현재 슬라이스에서 이용되지 않음을 의미할 수 있다. 그리고, 상기 플래그 정보가 0일 경우라도 매크로블록에서의 코딩 방식에 따라 시점간 예측이 이용될 수도 있고, 이용되지 않을 수 있다. 이는 매크로블록 단위에서 시점 간 예측이 이용될 수도 있고, 이용되지 않을 수도 있기 때문이다.In another embodiment of the present invention, inter-view prediction flag information may refer to flag information indicating whether inter-view prediction is used in decoding a coded slice. For example, when the flag information is 1, it may mean that no inter-view prediction is used in the current slice. That is, it may mean that coding mode prediction, motion prediction, and / or residual prediction regarding inter-view prediction are not used in the current slice. In addition, even when the flag information is 0, inter-view prediction may or may not be used according to a coding scheme in a macroblock. This is because inter-view prediction may or may not be used in macroblock units.

또한, 슬라이스 레이어에서는 시점 간 예측을 위한 다양한 정보들을 포함할 수 있다. 예를 들어, 현재 슬라이스에서 조명 보상이 적용되는지를 나타내는 정보, 현재 슬라이스와 다른 시점에 있는 슬라이스 사이의 매크로블록 단위의 글로벌 변이 벡터 정보 등을 포함할 수 있다. 상기 정보들은 슬라이스 헤더로부터 획득될 수 있다. 또는, 시점 간의 모션 스킵이 적용되는지 여부를 나타내는 정보를 포함할 수도 있다. 이러한 상기 다양한 정보들은 상기 인터뷰 예측 플래그를 확인함으로써 전송하지 않을 수 있다.In addition, the slice layer may include various pieces of information for inter-view prediction. For example, the information may include information indicating whether illumination compensation is applied in the current slice, global variation vector information in units of macroblocks between the current slice and slices at different views. The information may be obtained from a slice header. Alternatively, the information may include information indicating whether motion skip between views is applied. Such various information may not be transmitted by confirming the interview prediction flag.

이처럼, 다시점 비디오 코딩에 있어서, 현재 NAL 유닛의 헤더에서 시점 간 예측이 이용되는지를 확인함으로써, 상기 현재 NAL 유닛이 시점 간 예측에 이용되지 않는 경우에는 시점 간 예측에 이용되는 코딩 정보를 전송할 필요가 없게 되므로 코딩 효율을 높일 수 있다.As such, in multi-view video coding, by checking whether inter-view prediction is used in the header of the current NAL unit, when the current NAL unit is not used for inter-view prediction, it is necessary to transmit coding information used for inter-view prediction. There is no need to increase the coding efficiency.

도 4는 본 발명이 적용된 실시예로서, 기준 시점 플래그가 이용되는 디코딩 과정을 설명하기 위한 레벨 정보의 계층적 구조를 나타낸다.4 is an embodiment to which the present invention is applied and shows a hierarchical structure of level information for explaining a decoding process in which a reference view flag is used.

각 시점의 레벨 정보는 시점간 참조 정보를 고려하여 결정될 수 있다. 예를 들어, I픽쳐 없이는 P픽쳐와 B픽쳐의 디코딩이 불가능하기 때문에 인터뷰 픽쳐 그룹이 I픽쳐인 기준 시점(base view)에는 level=0을 할당할 수 있고, 앵커 쳐가 P픽쳐인 시점에는 level=1을 할당할 수 있으며, 인터뷰 픽쳐 그룹이 B픽쳐인 시점에는 level=2를 할당할 수 있다. 하지만 특정 기준에 따라 임의대로 레벨 정보를 결정할 수도 있다.Level information of each viewpoint may be determined in consideration of inter-view reference information. For example, since I and P pictures cannot be decoded without an I picture, level = 0 can be assigned to a base view where the interview picture group is an I picture, and a level when the anchor picture is a P picture. = 1 may be assigned, and level = 2 may be assigned when the interview picture group is a B picture. However, level information may be arbitrarily determined according to specific criteria.

또한, 레벨 정보는 특정 기준에 따라 임의대로 결정될 수 있고, 또는 기준없이 랜덤하게 결정될 수도 있다. 예를 들어, 시점을 기준으로 레벨 정보를 결정하게 되는 경우, V0 시점을 기준 시점으로 설정하여 view level 0, 하나의 시점에 있는 픽쳐들을 이용하여 예측된 픽쳐들의 시점을 view level 1, 그리고 복수개의 시점에 있는 픽쳐들을 이용하여 예측된 픽쳐들의 시점을 view level 2로 설정할 수 있다. 이 경우, 기존의 디코더(예를 들어, H.264/AVC, MPEG-2, MPEG-4 등)와 호환성을 가지기 위한 적어도 하나의 시점 영상이 필요할 수 있다. 이러한 기준 시점은 다시 점 중 부호화의 기준이 되며, 이는 다른 시점의 예측을 위한 참조 시점에 해당될 수 있다. 다시점 비디오 코딩에서 기준 시점에 해당되는 영상은 종래 일반적인 영상 부호화 방식(MPEG-2, MPEG-4, H.263, H.264 등)에 의해 부호화되어 독립적인 비트스트림으로 형성될 수 있다. 기준 시점에 해당되는 영상은 H.264/AVC와 호환될 수도 있고, 되지 않을 수도 있다. 하지만, H.264/AVC와 호환될 수 있는 시점의 영상은 기준 시점이 된다.In addition, the level information may be arbitrarily determined according to a specific criterion, or may be randomly determined without the criterion. For example, when the level information is determined based on a viewpoint, the viewpoint of pictures predicted by using view level 0, pictures at one viewpoint by setting the viewpoint of V0 as a reference viewpoint, view level 1, and a plurality of views The view of the predicted pictures may be set to view level 2 using the pictures at the view. In this case, at least one viewpoint image for compatibility with an existing decoder (eg, H.264 / AVC, MPEG-2, MPEG-4, etc.) may be required. This reference time point is again a reference of encoding among points, which may correspond to a reference time point for prediction of another time point. In multi-view video coding, an image corresponding to a reference view may be encoded by a conventional general image encoding scheme (MPEG-2, MPEG-4, H.263, H.264, etc.) to form an independent bitstream. The image corresponding to the reference time point may or may not be compatible with H.264 / AVC. However, an image of a viewpoint compatible with H.264 / AVC becomes a reference viewpoint.

상기 도 4를 살펴보면, 상기 V0 시점에 있는 픽쳐들을 이용하여 예측된 픽쳐들의 시점인 V2 시점, V2 시점에 있는 픽쳐들을 이용하여 예측된 픽쳐들의 시점인 V4 시점과 V4 시점에 있는 픽쳐들을 이용하여 예측된 픽쳐들의 시점인 V6 시점, 그리고 V6 시점에 있는 픽쳐들을 이용하여 예측된 픽쳐들의 시점인 V7 시점을 view level 1 으로 설정할 수 있다. 그리고, V0 시점과 V2 시점에 있는 픽쳐들을 이용하여 예측된 픽쳐들의 시점인 V1 시점, 그리고 동일한 방식으로 예측된 V3 시점, V5 시점은 view level 2 로 설정할 수 있다. 따라서, 사용자의 디코더가 다시점 비디오 영상을 볼 수 없는 경우에는 상기 view level 0 에 해당되는 시점의 영상들만을 디코딩하게 된다. 또는 사용자의 디코더가 프로파일 정보에 의해 제한되는 경우에도 제한된 view level의 정보만을 디코딩할 수 있게 된다.Referring to FIG. 4, the prediction is performed by using the pictures at the view point V4 and the view point V4, which are views of the pictures predicted by using the pictures at the view point V2 and the view point V2, which are predicted using the pictures at the view point V0. A view level 1 may be set as a view level 1 based on a V6 view, which is the view of the pictures, and a V7 view, which is the view of the pictures predicted using the pictures at the V6 view. In addition, the view point V1, which is the view point of the pictures predicted using the pictures located at the view point V0 and the view point V2, and the view point V3 and V5 that are predicted in the same manner, may be set to view level 2. Therefore, when the decoder of the user cannot see the multiview video image, only the images of the view corresponding to the view level 0 are decoded. Alternatively, even when the user's decoder is limited by the profile information, only the limited view level information can be decoded.

다른 실시예로서, 시점 간의 레벨을 설정하는 방법으로 우선순위 식별 정보를 이용할 수 있다. 상기 도 2에서 살펴본 바와 같이, 우선순위 식별(priority identification) 정보란, NAL 유닛의 우선순위를 식별해주는 정보를 의미한다. 이를 이용하여 시점 확장성을 제공할 수 있다. 예를 들어, 상기 우선순위 식별 정보 를 이용하여 시점 레벨 정보를 정의할 수 있다. 이처럼 레벨 정보를 정의할 경우, 시간 및 시점에 대한 확장성(scalability)을 이용할 수 있게 된다. 상기 레벨 정보는 그 기준 조건에 따라 다양한 방법으로 다르게 설정될 수 있다. 예를 들어, 카메라의 위치에 따라 다르게 설정될 수 있고, 카메라의 배열 형태에 따라 다르게 설정될 수 있다. 또한, 상기 레벨 정보는 인터뷰 참조 정보를 고려하여 결정될 수도 있는데, 예를 들어, 인터뷰 픽쳐 그룹이 I픽쳐인 시점에는 레벨을 0으로 할당하고, 인터뷰 픽쳐 그룹이 P픽쳐인 시점에는 레벨을 1로 할당하고, 인터 뷰 픽쳐 그룹이 B픽쳐인 시점에는 레벨을 2로 할당할 수 있다. 이처럼 상기 레벨값을 상기 우선순위 정보에 할당할 수도 있을 것이다. 또한, 상기 레벨 정보는 특별한 기준에 의하지 않고 임의로 설정될 수도 있다.In another embodiment, priority identification information may be used as a method of setting levels between viewpoints. As shown in FIG. 2, priority identification information means information for identifying a priority of the NAL unit. This can be used to provide view scalability. For example, viewpoint level information may be defined using the priority identification information. When defining the level information in this way, scalability with respect to time and time can be used. The level information may be set differently in various ways according to the reference condition. For example, it may be set differently according to the position of the camera, or may be set differently according to the arrangement of the camera. In addition, the level information may be determined in consideration of the interview reference information. For example, the level is assigned to 0 when the interview picture group is an I picture, and the level is assigned to 1 when the interview picture group is a P picture. When the interview picture group is a B picture, the level may be assigned to 2. As such, the level value may be assigned to the priority information. In addition, the level information may be arbitrarily set regardless of a special criterion.

본 발명이 적용되는 다른 실시예로서, 기준 시점 플래그를 이용하여 시점 간의 레벨을 설정할 수 있다. 예를 들어, 기준 시점 플래그를 이용하게 될 경우 view level 이 0 인 시점을 결정해줄 수 있기 때문에 다른 시점의 view level 을 보다 다양하게 정의할 수 있게 된다. 이때, 상기에서 설명한 방식들을 적용할 수도 있다.As another embodiment to which the present invention is applied, a level between viewpoints may be set using a reference viewpoint flag. For example, when the reference view flag is used, a view level of 0 can be determined, and thus the view level of another view can be defined more variously. In this case, the methods described above may be applied.

본 발명이 적용되는 다른 실시예로서, 레벨 정보는 카메라의 위치에 따라 달라질 수 있다. 예를 들어, V0 시점과 V1 시점은 정면에 위치한 카메라에 의해 획득된 영상들이고, V2 시점과 V3 시점은 후면에 위치한 카메라에 의해 획득된 영상들이고, V4 시점과 V5 시점은 좌측에 위치한 카메라에 의해 획득된 영상들이며, V6 시점과 V7 시점은 우측에 위치한 카메라에 의해 획득된 영상들이라고 가정할 경우, V0 시점과 V1 시점을 view level 0로, V2 시점과 V3 시점은 view level 1로, V4 시점과 V5 시점은 view level 2로, V6 시점과 V7 시점은 view level 3로 설정할 수도 있다. 또 다른 실시예로서, 레벨 정보는 카메라의 배열 형태에 따라 달라질 수 있다. 또한, 레벨 정보는 특별한 기준에 의하지 않고 임의로 결정될 수도 있다.As another embodiment to which the present invention is applied, the level information may vary depending on the position of the camera. For example, viewpoints V0 and V1 are images acquired by a camera located in the front, views V2 and V3 are images acquired by a camera located at the rear, and views V4 and V5 are viewed by a camera located on the left. When the V6 and V7 views are acquired by the camera located on the right side, the V0 and V1 views are view level 0, the V2 and V3 views are view level 1, and the V4 views are obtained. And V5 may be set to view level 2, and V6 and V7 may be set to view level 3. As another embodiment, the level information may vary depending on the arrangement of the cameras. In addition, the level information may be arbitrarily determined without resorting to special criteria.

본 발명이 적용되는 디코딩/인코딩 장치는 DMB(Digital Multimedia Broadcasting)과 같은 멀티미디어 방송 송/수신 장치에 구비되어, 비디오 신호 및 데이터 신호 등을 복호화하는데 사용될 수 있다. 또한 상기 멀티미디어 방송 송/수신 장치는 이동통신 단말기를 포함할 수 있다.The decoding / encoding device to which the present invention is applied may be provided in a multimedia broadcasting transmitting / receiving device such as digital multimedia broadcasting (DMB), and may be used to decode video signals and data signals. Also, the multimedia broadcasting transmitting / receiving apparatus may include a mobile communication terminal.

또한, 본 발명이 적용되는 디코딩/인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무선 통신망을 이용해 전송될 수 있다.In addition, the decoding / encoding method to which the present invention is applied may be stored in a computer-readable recording medium that is produced as a program for execution on a computer, and multimedia data having a data structure according to the present invention may also be read by a computer. It can be stored in the recording medium. The computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and may be implemented in the form of a carrier wave (for example, transmission via the Internet) . In addition, the bit stream generated by the encoding method may be stored in a computer-readable recording medium or transmitted using a wired / wireless communication network.

이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면, 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 또다른 다양한 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다. 또한, 본 발명에 의한 적어도 일 특징을 적용한 데이터를 저장하는 매체(mediun)를 제공하는 것이 가능하다.Or more, preferred embodiments of the present invention described above, for the purpose of illustration, those skilled in the art, within the technical spirit and the technical scope of the present invention disclosed in the appended claims below, to further improve various other embodiments Changes, substitutions or additions will be possible. It is also possible to provide a medium for storing data applying at least one feature according to the present invention.

도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of a video signal decoding apparatus to which the present invention is applied.

도 2는 본 발명이 적용되는 실시예로서, 다시점 비디오 코딩된 비트스트림에 추가될 수 있는 다시점 비디오 영상에 대한 속성 정보를 설명하기 위한 NAL 유닛의 구조를 나타낸다.FIG. 2 is an embodiment to which the present invention is applied and shows a structure of a NAL unit for describing attribute information for a multiview video image that may be added to a multiview video coded bitstream.

도 3은 본 발명이 적용되는 실시예로서, 인터뷰 예측 플래그가 이용되는 디코딩 과정을 설명하기 위한 다시점 영상 신호의 전체적인 예측 구조를 나타낸다.3 is an embodiment to which the present invention is applied and shows an overall prediction structure of a multiview image signal for explaining a decoding process using an interview prediction flag.

도 4는 본 발명이 적용된 실시예로서, 기준 시점 플래그가 이용되는 디코딩 과정을 설명하기 위한 레벨 정보의 계층적 구조를 나타낸다.4 is an embodiment to which the present invention is applied and shows a hierarchical structure of level information for explaining a decoding process in which a reference view flag is used.

Claims (10)

비디오 신호의 NAL 유닛 헤더의 확장 영역으로부터 NAL 유닛이 다시점 비디오 코딩된 비트스트림인지 스케일러블 비디오 코딩된 비트스트림인지 여부를 식별하는 제 1 플래그 정보를 획득하는 단계;Obtaining first flag information identifying from the extended region of the NAL unit header of the video signal whether the NAL unit is a multiview video coded bitstream or a scalable video coded bitstream; 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩된 비트스트림인 경우, 상기 비디오 신호로부터 다시점 영상에 대한 속성 정보를 획득하는 단계;여기서, 상기 속성 정보는 인터뷰 예측 플래그 정보 및 인터뷰 픽쳐 그룹 식별 정보를 포함하고, 상기 인터뷰 예측 플래그 정보는 상기 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보이고, 상기 인터뷰 픽쳐 그룹 식별 정보는 픽쳐 타입이 인터뷰 픽쳐 그룹인지 여부를 식별하는 정보이며, 상기 인터뷰 픽쳐 그룹은 픽쳐 내의 모든 슬라이스들이 동일 시간대의 슬라이스만을 참조하여 부호화된 픽쳐임,Acquiring attribute information about a multiview image from the video signal when the multiview video is a bitstream according to the first flag information; wherein the attribute information includes interview prediction flag information and interview picture group identification information. And the interview prediction flag information is information indicating whether a coded picture of the NAL unit is used for inter-view prediction, and the interview picture group identification information is information for identifying whether a picture type is an interview picture group. The interview picture group is a picture in which all slices in the picture are encoded by referring to slices of the same time zone. 상기 비디오 신호의 시퀀스 파라미터 세트의 확장 영역으로부터 인터뷰 참조 정보를 획득하는 단계;여기서, 상기 인터뷰 참조 정보는 인터뷰 참조 픽쳐의 개수 정보 및 인터뷰 참조 픽쳐의 시점 식별 정보를 포함하고, 상기 인터뷰 참조 정보는 상기 인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 픽쳐 그룹 및 넌-인터뷰 픽쳐 그룹에 대해서 각각 획득됨,Acquiring interview reference information from an extended region of the sequence parameter set of the video signal; wherein the interview reference information includes information about the number of interview reference pictures and viewpoint identification information of the interview reference picture, and the interview reference information includes: Obtained for each of the interview picture group and the non-interview picture group based on the interview picture group identification information, 상기 인터뷰 예측 플래그 정보에 따라 상기 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우,상기 인터뷰 픽쳐 그룹 식별 정보 및 상기 인터뷰 참조 정보를 이용하여 시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 단계; 및When a coded picture of the NAL unit is used for inter-view prediction according to the interview prediction flag information, generating a reference picture list for inter-view prediction using the interview picture group identification information and the interview reference information. ; And 상기 시점간 예측을 위한 참조 픽쳐 리스트를 이용하여 화면간 예측을 수행하는 단계Performing inter prediction using the reference picture list for the inter-view prediction 를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Video signal decoding method comprising a. 비디오 신호의 NAL 유닛 헤더의 확장 영역으로부터 NAL 유닛이 다시점 비디오 코딩된 비트스트림인지 스케일러블 비디오 코딩된 비트스트림인지 여부를 식별하는 제 1 플래그 정보를 획득하고, 상기 제 1 플래그 정보에 따라 다시점 비디오 코딩된 비트스트림인 경우 상기 비디오 신호로부터 다시점 영상에 대한 속성 정보를 획득하는 파싱부;여기서 상기 속성 정보는 인터뷰 예측 플래그 정보 및 인터뷰 픽쳐 그룹 식별 정보를 포함하고, 상기 인터뷰 예측 플래그 정보는 상기 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보이고, 상기 인터뷰 픽쳐 그룹 식별 정보는 픽쳐 타입이 인터뷰 픽쳐 그룹인지 여부를 식별하는 정보이며, 상기 인터뷰 픽쳐 그룹은 픽쳐 내의 모든 슬라이스들이 동일 시간대의 슬라이스만을 참조하여 부호화된 픽쳐임,Obtain first flag information identifying whether a NAL unit is a multiview video coded bitstream or a scalable video coded bitstream from an extension region of a NAL unit header of a video signal, and multiview according to the first flag information A parsing unit obtaining attribute information of a multi-view image from the video signal in the case of a video coded bitstream; wherein the attribute information includes interview prediction flag information and interview picture group identification information, and the interview prediction flag information includes: Information indicating whether a coded picture of a NAL unit is used for inter-view prediction, wherein the interview picture group identification information is information for identifying whether a picture type is an interview picture group, and the interview picture group includes all slices in the picture. Only refer to slices in the same time zone Is a coded picture, 상기 비디오 신호의 시퀀스 파라미터 세트의 확장 영역으로부터 인터뷰 참조 정보를 획득하는 상기 파싱부;여기서 상기 인터뷰 참조 정보는 인터뷰 참조 픽쳐의 개수 정보 및 인터뷰 참조 픽쳐의 시점 식별 정보를 포함하고, 상기 인터뷰 참조 정보는 상기 인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 픽쳐 그룹 및 넌-인터뷰 픽쳐 그룹에 대해서 각각 획득됨,The parsing unit obtaining interview reference information from an extended region of the sequence parameter set of the video signal; wherein the interview reference information includes information about the number of interview reference pictures and viewpoint identification information of an interview reference picture, and the interview reference information includes: Obtained for each of the interview picture group and the non-interview picture group based on the interview picture group identification information, 상기 인터뷰 예측 플래그 정보에 따라 상기 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우, 상기 인터뷰 픽쳐 그룹 식별 정보 및 상기 인터뷰 참조 정보를 이용하여 시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 복호 픽쳐 버퍼부; 및When the coded picture of the NAL unit is used for inter-view prediction according to the interview prediction flag information, decoding to generate a reference picture list for inter-view prediction using the interview picture group identification information and the interview reference information. A picture buffer unit; And 상기 시점간 예측을 위한 참조 픽쳐 리스트를 이용하여 화면간 예측을 수행하는 인터 예측부An inter prediction unit performing inter prediction using the reference picture list for inter-view prediction 를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치.Video signal decoding apparatus comprising a. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020070129741A 2006-12-13 2007-12-13 A method and apparatus for decoding/encoding a video signal KR101366289B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US86986706P 2006-12-13 2006-12-13
US60/869,867 2006-12-13

Publications (2)

Publication Number Publication Date
KR20080055686A KR20080055686A (en) 2008-06-19
KR101366289B1 true KR101366289B1 (en) 2014-02-21

Family

ID=39802396

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020070129741A KR101366289B1 (en) 2006-12-13 2007-12-13 A method and apparatus for decoding/encoding a video signal
KR1020070129740A KR101366288B1 (en) 2006-12-13 2007-12-13 A method and apparatus for decoding a video signal

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020070129740A KR101366288B1 (en) 2006-12-13 2007-12-13 A method and apparatus for decoding a video signal

Country Status (1)

Country Link
KR (2) KR101366289B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102114416B1 (en) 2012-04-23 2020-05-25 삼성전자주식회사 Method and apparatus for multi-view video encoding, method and apparatus for multi-view decoding
US9848202B2 (en) 2012-12-28 2017-12-19 Electronics And Telecommunications Research Institute Method and apparatus for image encoding/decoding
KR102270844B1 (en) * 2012-12-28 2021-06-30 한국전자통신연구원 Video encoding and decoding method and apparatus using the same
KR101685556B1 (en) * 2012-12-28 2016-12-13 한국전자통신연구원 Method and apparatus for image encoding/decoding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050122717A (en) * 2004-06-25 2005-12-29 학교법인연세대학교 Method for coding/decoding for multiview sequence where view selection is possible
KR20060068254A (en) * 2004-12-16 2006-06-21 엘지전자 주식회사 Video encoding method, video decoding method, and video decoder
KR20060122663A (en) * 2005-05-26 2006-11-30 엘지전자 주식회사 Method for transmitting and using picture information in a video signal encoding/decoding
KR20060122684A (en) * 2005-05-26 2006-11-30 엘지전자 주식회사 Method for encoding and decoding video signal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050122717A (en) * 2004-06-25 2005-12-29 학교법인연세대학교 Method for coding/decoding for multiview sequence where view selection is possible
KR20060068254A (en) * 2004-12-16 2006-06-21 엘지전자 주식회사 Video encoding method, video decoding method, and video decoder
KR20060122663A (en) * 2005-05-26 2006-11-30 엘지전자 주식회사 Method for transmitting and using picture information in a video signal encoding/decoding
KR20060122684A (en) * 2005-05-26 2006-11-30 엘지전자 주식회사 Method for encoding and decoding video signal

Also Published As

Publication number Publication date
KR20080055685A (en) 2008-06-19
KR101366288B1 (en) 2014-02-21
KR20080055686A (en) 2008-06-19

Similar Documents

Publication Publication Date Title
US7856148B2 (en) Processing multiview video
JP5156088B2 (en) Video signal decoding / encoding method and apparatus
JP5249242B2 (en) Video signal processing method and apparatus
KR101619451B1 (en) Method and apparatus for processing a multiview video signal
JP5475464B2 (en) Video signal processing method and apparatus
US9712819B2 (en) Image encoding method and image decoding method
JP2010525724A (en) Method and apparatus for decoding / encoding a video signal
KR20110139304A (en) Reference picture list changing method of multi-view video
KR20120027194A (en) Method and apparatus for processing multi-view video signal
JP2009543508A (en) Signal processing method and apparatus
EP3737091A1 (en) Method for processing image on basis of inter-prediction mode and device therefor
CN114556957A (en) Video coding device and method based on in-loop filtering
EP2207357A1 (en) Method and apparatus for video coding using large macroblocks
KR20080007086A (en) A method and apparatus for decoding/encoding a video signal
KR101366289B1 (en) A method and apparatus for decoding/encoding a video signal
KR20070098429A (en) A method for decoding a video signal
CN114586351A (en) Image compiling apparatus and method based on adaptive loop filtering
KR20080006494A (en) A method and apparatus for decoding a video signal
USRE44680E1 (en) Processing multiview video
KR20080050349A (en) A method and apparatus for decoding a video signal
KR20080023210A (en) A method and apparatus for decoding a video signal
WO2009139569A2 (en) Method and apparatus for decoding video signal
KR20080029788A (en) A method and apparatus for decoding a video signal
KR20080007177A (en) A method and apparatus for processing a video signal

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170113

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee