KR20080023210A - A method and apparatus for decoding a video signal - Google Patents

A method and apparatus for decoding a video signal Download PDF

Info

Publication number
KR20080023210A
KR20080023210A KR1020070091601A KR20070091601A KR20080023210A KR 20080023210 A KR20080023210 A KR 20080023210A KR 1020070091601 A KR1020070091601 A KR 1020070091601A KR 20070091601 A KR20070091601 A KR 20070091601A KR 20080023210 A KR20080023210 A KR 20080023210A
Authority
KR
South Korea
Prior art keywords
picture
variable
view
reference picture
inter
Prior art date
Application number
KR1020070091601A
Other languages
Korean (ko)
Inventor
박승욱
전병문
전용준
구한서
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20080023210A publication Critical patent/KR20080023210A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/174Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a slice, e.g. a line of blocks or a group of blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction

Abstract

A method and an apparatus for decoding a video signal are provided to define information capable of identifying pictures in a view point direction, thereby coding efficiently the video signal. A method for decoding a video signal comprises the following steps of: acquiring picture identification information for identifying a picture in a view point direction; inducing a first variable for generating a reference picture list for inter-view prediction by using the picture identification information; and generating the reference picture list for the inter-view prediction by using the first variable.

Description

비디오 신호 디코딩 방법 및 장치{A method and apparatus for decoding a video signal}A method and apparatus for decoding a video signal

본 발명은 비디오 신호의 코딩에 관한 기술이다.The present invention relates to the coding of video signals.

압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성을 지니고 있는 점에 특징이 있다.Compression coding refers to a series of signal processing techniques that transmit digitized information through a communication line or store the data in a form suitable for a storage medium. The object of compression encoding includes objects such as voice, video, text, and the like. In particular, a technique of performing compression encoding on an image is called video image compression. The general feature of the video image is that it has spatial redundancy and temporal redundancy.

본 발명의 목적은 비디오 신호의 코딩 효율을 높이고자 함에 있다.An object of the present invention is to improve the coding efficiency of a video signal.

시점 방향으로 픽쳐들을 식별할 수 있는 정보를 정의함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by defining information that can identify pictures in a view direction.

시점 방향으로 픽쳐들을 식별할 수 있는 정보를 정의함으로써 효율적인 랜덤 액세스를 수행하고자 한다.Efficient random access is to be performed by defining information for identifying pictures in a view direction.

참조 픽쳐 관리 방법을 제공함으로써 효율적인 랜덤 액세스를 수행하고자 한다.It is intended to perform efficient random access by providing a reference picture management method.

시점간 예측에 이용되는 참조 픽쳐들을 관리하기 위한 방법을 제공함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by providing a method for managing reference pictures used for inter-view prediction.

시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 방법을 제공함으로써 비디오 신호를 효율적으로 코딩하고자 한다.It is intended to efficiently code a video signal by providing a method of generating a reference picture list for inter-view prediction.

시점간 예측을 위한 참조 픽쳐 리스트를 재배열하는 방법을 제공함으로써 비디오 신호를 효율적으로 코딩하고자 한다.The present invention seeks to efficiently code a video signal by providing a method of rearranging a reference picture list for inter-view prediction.

본 발명은 비디오 신호를 코딩함에 있어서, 시점 방향으로 픽쳐들을 식별할 수 있는 정보를 정의함으로써 비디오 신호를 효율적으로 코딩할 수 있다. 또한, 시점 방향으로 픽쳐들을 식별할 수 있는 정보를 정의함으로써 보다 효율적인 랜덤 액 세스를 수행할 수 있다. 시점간 예측에 이용되는 참조 픽쳐들을 관리하기 위한 방법을 제공함으로써 보다 효율적으로 코딩을 수행할 수 있게 된다. 본 발명을 이용하여 시점간 예측(inter-view prediction)을 수행할 때, DPB(Decoded Picture Buffer)의 부담을 감소시켜 코딩 속도를 향상시킬 수 있을 뿐만 아니라 보다 정확한 예측이 가능하여 전송할 비트수를 감소시킬 수도 있다.According to the present invention, in coding a video signal, the video signal can be efficiently coded by defining information for identifying pictures in a view direction. In addition, more efficient random access may be performed by defining information for identifying pictures in a view direction. By providing a method for managing reference pictures used for inter-view prediction, coding can be performed more efficiently. When performing inter-view prediction using the present invention, the coding speed can be improved by reducing the burden of a decoded picture buffer (DPB), and more accurate prediction can be performed, thereby reducing the number of bits to be transmitted. You can also

상기 목적을 달성하기 위하여 본 발명은 시점 방향으로 픽쳐를 식별하는 픽쳐 식별 정보(view_num)를 획득하는 단계와 상기 픽쳐 식별 정보를 이용하여, 시점간 예측을 위한 참조 픽쳐 리스트를 생성하기 위한 제 1 변수(PicNum)를 유도하는 단계 및 상기 제 1 변수를 이용하여 상기 시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.In order to achieve the above object, the present invention provides a variable for obtaining picture identification information (view_num) for identifying a picture in a view direction and a first variable for generating a reference picture list for inter-view prediction using the picture identification information. (PicNum) and generating a reference picture list for the inter-view prediction using the first variable.

또한, 본 발명은 현재 픽쳐의 시점을 식별하는 시점 정보(view_id)를 획득하는 단계와 상기 현재 픽쳐의 슬라이스 타입(slice_type)을 획득하는 단계와 상기 시점 정보와 상기 슬라이스 타입에 기초하여, 시점 방향으로 픽쳐를 식별하는 픽쳐 식별 정보(view_num)를 유도하는 단계 및 상기 유도된 픽쳐 식별 정보를 이용하여 참조 픽쳐 리스트를 생성하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.In addition, the present invention obtains the view information (view_id) for identifying the view point of the current picture, the step of obtaining a slice type (slice_type) of the current picture, and based on the view information and the slice type, in the view direction And deriving picture identification information (view_num) for identifying a picture and generating a reference picture list using the derived picture identification information.

또한, 본 발명은 시점 방향으로 픽쳐를 식별하는 픽쳐 식별 정보(view_num)를 이용하여, 시점간 예측을 위한 참조 픽쳐 리스트를 생성하기 위한 변수(PicNum) 를 유도하는 변수 유도부와 상기 변수를 이용하여 상기 시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 참조 픽쳐 리스트 생성부를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치를 제공한다.The present invention also provides a variable derivation unit for deriving a variable PicNum for generating a reference picture list for inter-view prediction using picture identification information (view_num) for identifying a picture in a view direction and using the variable. A reference picture list generating unit for generating a reference picture list for inter-view prediction is provided.

비디오 신호 데이터를 압축 부호화하는 기술은 공간적 중복성, 시간적 중복성, 스케일러블한 중복성, 시점간 존재하는 중복성을 고려하고 있다. 또한, 이러한 압축 부호화 과정에서 시점 간 존재하는 상호 중복성을 고려하여 압축 코딩을 할 수 있다. 시점간 중복성을 고려하는 압축 코딩에 대한 기술은 본 발명의 실시예일 뿐이며, 본 발명의 기술적 사상은 시간적 중복성, 스케일러블한 중복성 등에도 적용될 수 있다. 또한, 본 명세서에서 코딩이라 함은 인코딩과 디코딩의 개념을 모두 포함할 수 있고, 본 발명의 기술적 사상 및 기술적 범위에 따라 유연하게 해석할 수 있을 것이다.The compression coding technique of video signal data considers spatial redundancy, temporal redundancy, scalable redundancy, and redundancy existing between views. In this compression encoding process, compression coding may be performed in consideration of mutual redundancy existing between views. The compression coding technique considering the inter-view redundancy is only an embodiment of the present invention, and the technical idea of the present invention may be applied to temporal redundancy, scalable redundancy, and the like. In addition, the term coding in this specification may include both the concepts of encoding and decoding, and may be flexibly interpreted according to the technical spirit and technical scope of the present invention.

도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of a video signal decoding apparatus to which the present invention is applied.

상기 디코딩 장치는 크게 파싱부(100), 엔트로피 디코딩부(200), 역양자화/역변환부(300), 인트라 예측부(400), 디블록킹 필터부(500), 복호 픽쳐 버퍼부(600), 인터 예측부(700) 등을 포함한다. 그리고, 복호 픽쳐 버퍼부(600)는 크게 참조 픽쳐 저장부(610), 참조 픽쳐 리스트 생성부(630), 참조 픽쳐 관리부(650) 등을 포함하며, 상기 참조 픽쳐 리스트 생성부(630)는 변수 유도부(631), 참조 픽쳐 리스트 초기화부(635), 참조 픽쳐 리스트 재배열부(640)을 포함한다.The decoding apparatus includes a parsing unit 100, an entropy decoding unit 200, an inverse quantization / inverse transform unit 300, an intra prediction unit 400, a deblocking filter unit 500, a decoded picture buffer unit 600, Inter prediction unit 700 and the like. The decoded picture buffer unit 600 includes a reference picture storage unit 610, a reference picture list generator 630, a reference picture manager 650, and the like, and the reference picture list generator 630 is a variable. The derivation unit 631, the reference picture list initialization unit 635, and the reference picture list rearranging unit 640 are included.

파싱부(100)에서는 수신된 비디오 영상을 복호하기 위하여 NAL 단위로 파싱 을 수행한다. 일반적으로 하나 또는 그 이상의 시퀀스 파라미터 셋과 픽쳐 파라미터 셋이 슬라이스 헤더와 슬라이스 데이터가 디코딩되기 전에 디코더로 전송된다. 이 때 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에는 여러 가지 속성 정보가 포함될 수 있다. MVC는 기존 AVC 기술에 대한 추가 기술이므로 무조건적으로 추가하기보다는 MVC 비트스트림인 경우에 한해 여러 가지 속성 정보들을 추가하는 것이 더 효율적일 수 있다. 예를 들어, 상기 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에서 MVC 비트스트림인지 여부를 식별할 수 있는 플래그 정보를 추가할 수 있다. 상기 플래그 정보에 따라 입력된 비트스트림이 다시점 영상 코딩된 비트스트림일 경우에 한해 다시점 영상에 대한 속성 정보들을 추가할 수 있다. 예를 들어, 상기 속성 정보들은 시점 식별(view identification) 정보, 시점 방향으로 픽쳐를 식별하는 정보(picture identification information in the view direction), 인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information), 인터뷰 예측 플래그 정보(inter-view prediction flag information), 시간적 레벨(temporal level) 정보, 우선순위 식별(priority identification) 정보, 시점에 대한 순간 복호 픽쳐인지 여부를 나타내는 식별 정보 등을 포함할 수 있다. 이는 도 2에서 상세히 설명하도록 한다. The parsing unit 100 performs parsing on a NAL basis to decode the received video image. In general, one or more sequence parameter sets and picture parameter sets are transmitted to the decoder before the slice header and slice data are decoded. In this case, various attribute information may be included in the NAL header area or the extension area of the NAL header. Since MVC is an additional technology to the existing AVC technology, it may be more efficient to add various attribute information only in the case of MVC bitstream rather than unconditionally adding. For example, flag information for identifying whether an MVC bitstream is included in the NAL header region or an extension region of the NAL header may be added. Attribute information about a multiview image may be added only when the input bitstream is a multiview image coded bitstream according to the flag information. For example, the attribute information may include view identification information, picture identification information in the view direction, inter-view picture group identification information, and interview. Inter-view prediction flag information, temporal level information, priority identification information, and identification information indicating whether the picture is a momentary decoded picture for a view. This will be described in detail with reference to FIG. 2.

파싱된 비트스트림은 엔트로피 디코딩부(200)를 통하여 엔트로피 디코딩되고, 각 매크로브록의 계수, 움직임 벡터 등이 추출된다. 역양자화/역변환부(300)에서는 수신된 양자화된 값에 일정한 상수를 곱하여 변환된 계수값을 획득하고, 상기 계수값을 역변환하여 화소값을 복원하게 된다. 상기 복원된 화소값을 이용하여 인 트라 예측부(400)에서는 현재 픽쳐 내의 디코딩된 샘플로부터 화면내 예측을 수행하게 된다. 한편, 디블록킹 필터부(500)에서는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 매크로블록에 적용된다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 프레임의 화질을 향상시킨다. 필터링 과정의 선택은 경계 세기(boundary strenth)와 경계 주위의 이미지 샘플의 변화(gradient)에 의해 좌우된다. 필터링을 거친 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(600)에 저장된다. The parsed bitstream is entropy decoded by the entropy decoding unit 200, and coefficients, motion vectors, and the like of each macroblock are extracted. The inverse quantization / inverse transform unit 300 multiplies the received quantized value by a constant constant to obtain a transformed coefficient value, and inversely transforms the coefficient value to restore the pixel value. Using the reconstructed pixel value, the intra prediction unit 400 performs intra prediction from the decoded samples in the current picture. Meanwhile, the deblocking filter unit 500 is applied to each coded macroblock in order to reduce block distortion. The filter smoothes the edges of the block to improve the quality of the decoded frame. The choice of filtering process depends on the boundary strength and the gradient of the image samples around the boundary. The filtered pictures are output or stored in the decoded picture buffer unit 600 for use as a reference picture.

복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(600)에서는 화면간 예측을 수행하기 위해서 이전에 코딩된 픽쳐들을 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(600)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용하게 된다. 따라서, MVC에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 픽쳐와 다른 시점에 있는 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 상기 frame_num 과 POC 뿐만 아니라 픽쳐의 시점을 식별하는 시점 정보도 함께 이용할 수 있다. 또한, 상기 frame_num 과 유사한 개념의 시점 방향으로 픽쳐를 식별하는 정보도 함께 이용할 수 있다. 이에 대해서는 도 3에서 상세히 설명하도록 한다.The decoded picture buffer unit 600 stores or opens previously coded pictures in order to perform inter prediction. In this case, in order to store or open the decoded picture buffer unit 600, frame_num and POC (Picture Order Count) of each picture are used. Therefore, some of the previously coded pictures in MVC have pictures that are different from the current picture. Therefore, in order to utilize these pictures as reference pictures, not only the frame_num and the POC but also the view information for identifying the view point of the picture are included. It is available. In addition, information identifying a picture in a view direction having a concept similar to the frame_num may also be used. This will be described in detail with reference to FIG. 3.

상기 복호 픽쳐 버퍼부(600)는 참조 픽쳐 저장부(610)와 참조 픽쳐 리스트 생성부(630)와 참조 픽쳐 관리부(650)를 포함한다. The decoded picture buffer unit 600 includes a reference picture storage unit 610, a reference picture list generator 630, and a reference picture manager 650.

참조 픽쳐 저장부(610)는 현재 픽쳐의 코딩을 위해 참조가 되는 픽쳐들을 저장한다. 참조 픽쳐 리스트 생성부(630)는 화면간 예측을 위한 참조 픽쳐들의 리스 트를 생성하게 된다. 다시점 비디오 코딩에 있어서는 시점간 예측이 이루어질 수 있으므로 현재 픽쳐가 다른 시점에 있는 픽쳐를 참조하게 되는 경우, 시점간 예측을 위한 참조 픽쳐 리스트를 생성할 필요가 있을 수 있다. 또한, 시간적 예측 및 시점간 예측을 모두 하기 위한 참조 픽쳐 리스트를 생성할 수도 있다. 예를 들어, 현재 픽쳐가 대각선 방향에 있는 픽쳐를 참조하는 경우에, 대각선 방향의 참조 픽쳐 리스트를 생성할 수도 있다. 이때, 상기 대각선 방향의 참조 픽쳐 리스트를 생성하는 방법에는 여러 가지가 있을 수 있다. 예를 들어, 참조 픽쳐 리스트를 식별하는 정보(ref_list_idc)를 정의할 수 있다. ref_list_idc = 0 이면, 시간적 예측을 위한 참조 픽쳐 리스트를 나타내고, 1이면, 시점간 예측을 위한 참조 픽쳐 리스트, 2이면, 시간적 예측 및 시점간 예측을 위한 참조 픽쳐 리스트를 나타낼 수 있다. The reference picture storage unit 610 stores pictures that are referenced for coding the current picture. The reference picture list generator 630 generates a list of reference pictures for inter prediction. In multi-view video coding, since inter-view prediction may be performed, it may be necessary to generate a reference picture list for inter-view prediction when the current picture refers to a picture at a different view. In addition, a reference picture list for both temporal prediction and inter-view prediction may be generated. For example, when the current picture refers to a picture in a diagonal direction, a diagonal reference picture list may be generated. In this case, there may be various methods for generating the reference picture list in the diagonal direction. For example, information (ref_list_idc) for identifying a reference picture list may be defined. If ref_list_idc = 0, a reference picture list for temporal prediction may be indicated, if 1, a reference picture list for inter-view prediction may be indicated, and if 2, a reference picture list for temporal prediction and inter-view prediction may be indicated.

또한, 상기 대각선 방향의 참조 픽쳐 리스트는 상기 시간적 예측을 위한 참조 픽쳐 리스트 또는 상기 시점간 예측을 위한 참조 픽쳐 리스트를 이용하여 생성할 수도 있다. 예를 들어, 시간적 예측을 위한 참조 픽쳐 리스트에 대각선 방향에 있는 참조 픽쳐들을 배열시킬 수 있다. 또는 시점간 예측을 위한 참조 픽쳐 리스트에 대각선 방향에 있는 참조 픽쳐들을 배열시킬 수도 있다. 이처럼, 다양한 방향에 대한 리스트를 생성할 경우 보다 효율적인 코딩이 가능할 수 있다. 본 명세서에서는 상기 시간적 예측을 위한 참조 픽쳐 리스트와 상기 시점간 예측을 위한 참조 픽쳐 리스트에 대해서 주로 설명하지만, 본 발명의 컨셉은 대각선 방향의 참조 픽쳐 리스트에도 적용될 수 있다.In addition, the diagonal reference picture list may be generated using the reference picture list for the temporal prediction or the reference picture list for the inter-view prediction. For example, reference pictures in a diagonal direction may be arranged in a reference picture list for temporal prediction. Alternatively, reference pictures in a diagonal direction may be arranged in a reference picture list for inter-view prediction. As such, when a list of various directions is generated, more efficient coding may be possible. In the present specification, the reference picture list for the temporal prediction and the reference picture list for the inter-view prediction are mainly described. However, the concept of the present invention may be applied to the reference picture list in the diagonal direction.

상기 참조 픽쳐 리스트 생성부(630)는 시점간 예측을 위한 참조 픽쳐 리스트를 생성하기 위하여 시점 방향으로 픽쳐를 식별하는 정보를 이용할 수 있다. 예를 들어, frame_num 과 유사한 개념의 시점 방향으로 픽쳐를 식별하는 정보를 이용할 수 있다. 이에 대해서는 도 3 내지 도 5에서 상세히 설명하도록 한다.The reference picture list generator 630 may use information for identifying a picture in the view direction to generate a reference picture list for inter-view prediction. For example, information for identifying a picture in a view direction having a concept similar to that of frame_num may be used. This will be described in detail with reference to FIGS. 3 to 5.

참조 픽쳐 관리부(650)는 보다 유연하게 화면간 예측을 실현하기 위하여 참조 픽쳐를 관리한다. 예를 들어, 적응 메모리 관리 방법(Memory Management Control Operation Method)과 이동 윈도우 방법(Sliding Window Method)이 이용될 수 있다. 이는 참조 픽쳐와 비참조 픽쳐의 메모리를 하나의 메모리로 통일하여 관리하고 적은 메모리로 효율적으로 관리하기 위함이다. 다시점 비디오 코딩에 있어서, 시점 방향의 픽쳐들은 픽쳐 출력 순서(Picture Order Count)가 동일할 수 있기 때문에 이들의 마킹을 위해서는 각 픽쳐의 시점을 식별해주는 정보 및/또는 시점 방향으로 픽쳐를 식별하는 정보가 이용될 수 있다. 이러한 과정을 통해 관리되는 참조 픽쳐들은 인터 예측부(700)에서 이용될 수 있다.The reference picture manager 650 manages the reference picture in order to more flexibly implement inter prediction. For example, an adaptive memory management control method and a sliding window method may be used. This is to manage the memory of the reference picture and the non-reference picture into one memory and manage them efficiently with less memory. In multi-view video coding, since pictures in a view direction may have the same Picture Order Count, information for identifying a view of each picture and / or information for identifying a picture in the view direction may be used for their marking. Can be used. Reference pictures managed through this process may be used in the inter predictor 700.

인터 예측부(700)에서는 복호 픽쳐 버퍼부(600)에 저장된 참조 픽쳐를 이용하여 화면간 예측을 수행한다. 인터 코딩된 매크로블록은 매크로블록 파티션으로 나누어질 수 있으며, 각 매크로블록 파티션은 하나 또는 두개의 참조 픽쳐로부터 예측될 수 있다. 상기 인터 예측부(700)에서는 엔트로피 디코딩부(200)로부터 전송된 정보들을 이용하여 현재 블록의 움직임을 보상한다. 비디오 신호로부터 현재 블록에 이웃하는 블록들의 움직임 벡터를 추출하고, 상기 현재 블록의 움직임 벡터 예측값을 획득한다. 상기 획득된 움직임 벡터 예측값과 비디오 신호로부터 추출되 는 차분 벡터를 이용하여 현재 블록의 움직임을 보상한다. 또한, 이러한 움직임 보상은 하나의 참조 픽쳐를 이용하여 수행될 수도 있고, 복수의 픽쳐를 이용하여 수행될 수도 있다. The inter prediction unit 700 performs inter prediction using a reference picture stored in the decoded picture buffer unit 600. Inter-coded macroblocks can be divided into macroblock partitions, where each macroblock partition can be predicted from one or two reference pictures. The inter prediction unit 700 compensates for the movement of the current block by using the information transmitted from the entropy decoding unit 200. A motion vector of blocks neighboring the current block is extracted from the video signal, and a motion vector prediction value of the current block is obtained. The motion of the current block is compensated by using the obtained motion vector prediction value and the difference vector extracted from the video signal. In addition, such motion compensation may be performed using one reference picture or may be performed using a plurality of pictures.

다시점 비디오 코딩에 있어서, 현재 픽쳐가 다른 시점에 있는 픽쳐들을 참조하게 되는 경우, 상기 복호 픽쳐 버퍼부(600)에 저장되어 있는 시점간 예측을 위한 참조 픽쳐 리스트에 대한 정보를 이용하여 움직임 보상을 수행할 수 있다. 또한, 그 픽쳐의 시점을 식별하는 시점 정보 및/또는 시점 방향으로 픽쳐를 식별하는 정보를 이용하여 움직임 보상을 수행할 수도 있다.In multi-view video coding, when a current picture refers to pictures at different views, motion compensation is performed using information on a reference picture list for inter-view prediction stored in the decoded picture buffer unit 600. Can be done. In addition, motion compensation may be performed using view information for identifying the view of the picture and / or information for identifying the picture in the view direction.

상기와 같은 과정을 통해 인터 예측된 픽쳐들과 인트라 예측된 픽쳐들은 예측 모드에 따라 선택되어 현재 픽쳐를 복원하게 된다. 이하에서는 비디오 신호의 효율적인 디코딩 방법을 제공하기 위한 다양한 실시예들을 설명하도록 한다.Through the above process, the inter predicted pictures and the intra predicted pictures are selected according to the prediction mode to reconstruct the current picture. Hereinafter, various embodiments for providing an efficient decoding method of a video signal will be described.

도 2는 본 발명이 적용되는 실시예로서, 다시점 영상 코딩된 비트스트림에 추가될 수 있는 다시점 영상에 대한 속성 정보들을 나타낸다. 2 is an embodiment to which the present invention is applied and shows attribute information of a multiview image that may be added to a multiview image coded bitstream.

상기 도 2에서는 다시점 영상에 대한 속성 정보들이 추가될 수 있는 NAL 단위의 구성의 일례를 나타낸다. 크게 NAL 유닛은 NAL 유닛의 헤더와 RBSP(Raw Byte Sequence Payload, 동영상 압축의 결과데이터)로 구성될 수 있다. 그리고, NAL 유닛의 헤더에서는 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보(nal_ref_idc)와 NAL 유닛의 타입을 나타내는 정보(nal_unit_type)를 포함할 수 있다. 또한, 제한적으로 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 예를 들어, 상기 NAL 유닛의 타입을 나타내는 정보가 스케일러블 비디오 코딩과 관련이 있는 경우, 또는 prefix NAL 유닛을 나타내는 경우에, 상기 NAL 유닛은 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 구체적 예로, 상기 nal_unit_type = 20 또는 14 일때 상기 NAL 유닛은 상기 NAL 유닛 헤더의 확장 영역도 포함할 수 있다. 또한, 상기 NAL 유닛 헤더의 확장 영역 내에서는, MVC 비트스트림인지 여부를 식별할 수 있는 플래그 정보(svc_mvc_flag)에 따라 다시점 영상에 대한 속성 정보들을 추가할 수 있다.2 illustrates an example of a configuration of an NAL unit to which attribute information about a multiview image may be added. In general, the NAL unit may include a header of the NAL unit and a raw byte sequence payload (RBSP). The header of the NAL unit may include identification information nal_ref_idc indicating whether the NAL unit includes a slice of the reference picture and information nal_unit_type indicating the type of the NAL unit. In addition, the extended region of the NAL unit header may be limited. For example, when the information indicating the type of the NAL unit is related to scalable video coding or indicates a prefix NAL unit, the NAL unit may also include an extended area of the NAL unit header. As a specific example, when nal_unit_type = 20 or 14, the NAL unit may also include an extended region of the NAL unit header. In addition, in the extension region of the NAL unit header, attribute information of a multiview image may be added according to flag information svc_mvc_flag for identifying whether the MVC bitstream is an MVC bitstream.

이하 다시점 영상에 대한 다양한 속성 정보들, 예를 들어, NAL 유닛 헤더의 확장 영역에 포함될 수 있는 속성 정보들에 대해 구체적으로 살펴보도록 한다.Hereinafter, various attribute information about a multiview image, for example, attribute information that may be included in an extended region of a NAL unit header, will be described in detail.

먼저 시점 식별 정보(view identification information)란, 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 정보를 말한다. 비디오 영상 신호가 코딩될 때, 각각의 픽쳐를 식별하기 위하여 POC(Picture Order Count)와 frame_num 이 이용된다. 다시점 비디오 영상인 경우에는 시점간 예측이 수행되기 때문에 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 식별 정보가 필요하다. 따라서, 픽쳐의 시점을 식별하는 시점 식별 정보를 정의할 필요가 있다. 상기 시점 식별 정보는 비디오 신호의 헤더 영역으로부터 획득될 수 있다. 예를 들어, 상기 헤더 영역은 NAL 헤더 또는 NAL 헤더의 확장 영역일 수도 있고, 슬라이스 헤더일 수도 있다. 상기 시점 식별 정보를 이용하여 현재 픽쳐와 다른 시점에 있는 픽쳐의 정보를 획득하고, 상기 다른 시점에 있는 픽쳐의 정보를 이용하여 상기 비디오 신호를 디코딩할 수 있다.First, view identification information refers to information for distinguishing a picture at a current view from a picture at a different view. When a video image signal is coded, a picture order count (POC) and frame_num are used to identify each picture. In the case of a multiview video image, since inter-view prediction is performed, identification information for distinguishing a picture at a current view from a picture at a different view is required. Therefore, it is necessary to define viewpoint identification information for identifying the viewpoint of the picture. The view identification information may be obtained from a header area of a video signal. For example, the header area may be an NAL header, an extended area of the NAL header, or a slice header. The view identification information may be used to obtain information of a picture that is different from the current picture, and the video signal may be decoded using the information of the picture at the other view.

또한, 시점 방향으로 픽쳐를 식별하는 정보란, 시점 방향으로 존재하는 픽쳐 들을 구별하기 위한 픽쳐 식별자를 의미한다. 예를 들어, 복호 픽쳐 버퍼부(600)에서 픽쳐들을 관리하기 위하여 상기 시점 방향으로 픽쳐를 식별하는 정보를 이용할 수 있다. 이 때, 상기 시점 식별 정보가 함께 이용될 수 있다. 그리고, POC와 frame_num 이 함께 이용될 수도 있다. 구체적 예로, 시점간 예측을 위한 참조 픽쳐 리스트를 생성하기 위하여 시점 방향으로 픽쳐를 식별하는 정보를 이용할 수 있다. 예를 들어, frame_num 과 유사하게 시점 방향으로 픽쳐를 식별하는 정보를 정의할 수 있다. 즉, 시점 방향의 픽쳐들 간의 디코딩된 순서에 기초하여 상기 시점 방향으로 픽쳐를 식별하는 정보를 정의할 수 있다.In addition, the information for identifying the picture in the view direction means a picture identifier for distinguishing pictures existing in the view direction. For example, in order to manage pictures in the decoded picture buffer unit 600, information for identifying a picture in the view direction may be used. In this case, the viewpoint identification information may be used together. POC and frame_num may be used together. As a specific example, information for identifying a picture in the view direction may be used to generate a reference picture list for inter-view prediction. For example, similar to frame_num, information for identifying a picture in a view direction may be defined. That is, the information for identifying the picture in the view direction may be defined based on the decoded order between the pictures in the view direction.

이러한 상기 시점 방향으로 픽쳐를 식별하는 정보와 상기 시점 식별 정보는 비디오 신호의 인코딩/디코딩 과정 전반에 걸쳐 적용될 수 있다. 예를 들어, 시점 식별 정보는 시점간 의존 관계를 나타내기 위해 이용될 수 있다. 시점간 의존 관계를 나타내기 위해서는 인터뷰 참조 픽쳐의 개수 정보, 인터뷰 참조 픽쳐의 시점 식별 정보 등이 필요할 수 있다. 상기 인터뷰 참조 픽쳐의 개수 정보, 인터뷰 참조 픽쳐의 시점 식별 정보처럼, 시점관 의존 관계를 나타내기 위해 이용되는 정보들을 인터뷰 참조 정보(inter-view reference information)라 부르기로 한다. 이때, 상기 인터뷰 참조 픽쳐의 시점 식별 정보를 나타내기 위해 상기 시점 식별 정보가 이용될 수 있다. 또한, 인터뷰 참조 픽쳐들을 구별하기 위해 상기 시점 방향으로 픽쳐를 식별하는 정보가 이용될 수 있다. 여기서, 인터뷰 참조 픽쳐란, 현재 픽쳐에 대해 시점간 예측을 수행할 때 이용되는 참조 픽쳐를 의미할 수 있다. 또한, 특정한 픽쳐 식별자가 아닌, 시점이 고려된 frame_num을 이용하여 다시점 비디오 코딩 에 그대로 적용할 수도 있다. 예를 들어, 상기 시점 방향으로 픽쳐를 식별하는 정보를 기존의 frame_num 에 맵핑시켜서 상기 frame_num 을 이용할 수도 있다. 또한, 상기 시점 식별 정보를 POC 에 맵핑시켜서 상기 POC 를 이용할 수도 있다. 이에 대해서는 도 3 내지 도 5에서 상세히 설명하도록 한다. The information identifying the picture in the view direction and the view identification information may be applied throughout the encoding / decoding process of the video signal. For example, the viewpoint identification information may be used to indicate the inter-view dependency. In order to indicate the inter-view dependency, information about the number of interview reference pictures and viewpoint identification information on the interview reference picture may be required. Information used to indicate a viewpoint-dependent relationship, such as the number of interview reference pictures and the view identification information of the interview reference picture, will be referred to as interview reference information. In this case, the viewpoint identification information may be used to indicate viewpoint identification information of the interview reference picture. In addition, information identifying a picture in the view direction may be used to distinguish interview reference pictures. Here, the interview reference picture may mean a reference picture used when performing inter-view prediction with respect to the current picture. In addition, the frame_num may be applied to multi-view video coding as it is, using a frame_num in consideration of a view rather than a specific picture identifier. For example, the frame_num may be used by mapping information identifying a picture in the view direction to an existing frame_num. In addition, the POC may be used by mapping the viewpoint identification information to a POC. This will be described in detail with reference to FIGS. 3 to 5.

인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information)란, 현재 NAL 유닛의 코딩된 픽쳐가 인터뷰 픽쳐 그룹인지 여부를 식별하는 정보를 말한다. 그리고, 인터뷰 픽쳐 그룹(inter-view picture group)이라 함은, 모든 슬라이스들이 동일 시간대의 프레임에 있는 슬라이스만을 참조하는 부호화된 픽쳐를 의미한다. 예를 들어, 다른 시점에 있는 슬라이스만을 참조하고 현재 시점에 있는 슬라이스는 참조하지 않는 부호화된 픽쳐를 말한다. 다시점 영상의 복호화 과정에 있어서, 시점 간의 랜덤 액세스는 가능할 수 있다. 이처럼, 인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 참조 정보를 획득하게 될 경우, 보다 효율적으로 시점 간의 랜덤 액세스를 수행할 수 있게 된다. 이는 인터뷰 픽쳐 그룹에서의 각 픽쳐들 사이의 시점간 참조 관계가 넌-인터뷰 픽쳐 그룹에서의 시점간 참조 관계가 다를 수 있기 때문이다. 이때, 상기 시점 방향으로 픽쳐를 식별하는 정보를 이용하게 되면 보다 효율적인 랜덤 액세스가 가능할 수 있다.Inter-view picture group identification information refers to information for identifying whether a coded picture of a current NAL unit is an interview picture group. The inter-view picture group means an encoded picture in which all slices refer only to slices in frames of the same time zone. For example, an encoded picture refers to only a slice at another viewpoint and no slice at the current viewpoint. In the decoding process of a multiview image, random access between views may be possible. As such, when the interview reference information is acquired based on the interview picture group identification information, random access between viewpoints can be performed more efficiently. This is because the inter-view reference relationship between the pictures in the interview picture group may be different from the inter-view reference relationship in the non-interview picture group. In this case, more efficient random access may be possible by using information identifying a picture in the view direction.

또한, 참조 픽쳐 리스트를 생성할 때 상기 인터뷰 픽쳐 그룹 식별 정보가 이용될 수도 있다. 이때 상기 참조 픽쳐 리스트는 시점간 예측을 위한 참조 픽쳐 리스트를 포함할 수 있다. 그리고, 상기 시점간 예측을 위한 참조 픽쳐 리스트는 상기 참조 픽쳐 리스트에 추가될 수 있다. 예를 들어, 참조 픽쳐 리스트를 초기화하 는 경우나 상기 참조 픽쳐 리스트를 재배열하는 경우에 상기 인터뷰 픽쳐 그룹 식별 정보가 이용될 수 있다. 그리고, 추가된 상기 시점간 예측을 위한 참조 픽쳐들을 관리하기 위해서도 이용될 수 있다. 예를 들어, 상기 참조 픽쳐들을 인터뷰 픽쳐 그룹과 넌-인터뷰 픽쳐 그룹으로 나누고, 시점간 예측을 수행할 때 이용되지 않는 참조 픽쳐들은 사용하지 않겠다는 마킹을 할 수 있다. 또한, 상기 인터뷰 픽쳐 그룹 식별 정보는 가상 참조 디코더(hypothetical reference decoder)에서도 적용될 수 있다. In addition, the interview picture group identification information may be used when generating a reference picture list. In this case, the reference picture list may include a reference picture list for inter-view prediction. The reference picture list for the inter-view prediction may be added to the reference picture list. For example, the interview picture group identification information may be used when initializing a reference picture list or rearranging the reference picture list. It may also be used to manage the added reference pictures for the inter-view prediction. For example, the reference pictures may be divided into an interview picture group and a non-interview picture group, and the reference pictures not used when performing inter-view prediction may be marked not to be used. In addition, the interview picture group identification information may be applied to a hypothetical reference decoder.

인터뷰 예측 플래그 정보(inter-view prediction flag information)란, 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는지 여부를 나타내는 정보를 말한다. 상기 인터뷰 예측 플래그 정보는 시간적 예측 또는 시점간 예측이 수행되는 부분에서 이용될 수 있다. 이때, NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있는지 여부를 나타내는 식별 정보와 함께 이용될 수 있다. 예를 들어, 상기 식별 정보에 따라 현재 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지는 않지만 시점간 예측을 위해 이용되는 경우에, 상기 현재 NAL 유닛은 시점간 예측에만 이용되는 참조 픽쳐일 수 있다. 또는, 상기 식별 정보에 따라 현재 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 시점간 예측을 위해 이용되는 경우에, 상기 현재 NAL 유닛은 시간적 예측과 시점간 예측을 위해 이용될 수 있다. 또한, 상기 식별 정보에 따라 NAL 유닛이 참조 픽쳐의 슬라이스를 포함하고 있지 않더라도, 복호 픽쳐 버퍼에 저장될 수 있다. 왜냐하면, 상기 인터뷰 예측 플래그 정보에 따라 현재 NAL 유닛의 코딩된 픽쳐가 시점간 예측을 위해 이용되는 경우에는 저장해야 될 필요가 있기 때 문이다. 이처럼, 시점간 예측을 위해 인터뷰 참조 픽쳐들을 구별하기 위하여 상기 시점 방향으로 픽쳐를 식별하는 정보가 이용될 수 있다.Inter-view prediction flag information refers to information indicating whether a coded picture of a current NAL unit is used for inter-view prediction. The interview prediction flag information may be used in a part where temporal prediction or inter-view prediction is performed. In this case, the NAL unit may be used together with identification information indicating whether the NAL unit includes a slice of the reference picture. For example, when the current NAL unit does not include a slice of a reference picture according to the identification information but is used for inter-view prediction, the current NAL unit may be a reference picture used only for inter-view prediction. Alternatively, when the current NAL unit includes a slice of a reference picture according to the identification information and is used for inter-view prediction, the current NAL unit may be used for temporal prediction and inter-view prediction. In addition, even if the NAL unit does not include a slice of the reference picture according to the identification information, it may be stored in the decoded picture buffer. This is because, if the coded picture of the current NAL unit is used for inter-view prediction according to the interview prediction flag information, it needs to be stored. As such, information identifying the picture in the view direction may be used to distinguish interview reference pictures for inter-view prediction.

이하 도 3에서는 상기 시점 방향으로 픽쳐를 식별하는 정보가 이용되는 실시예들에 대해서 살펴보도록 한다.Hereinafter, embodiments of using information for identifying a picture in the view direction will be described with reference to FIG. 3.

도 3은 본 발명이 적용되는 실시예로서, 시점 방향으로 픽쳐를 식별하는 정보가 적용되는 다시점 비디오 코딩의 예측 구조를 나타낸다.3 illustrates a prediction structure of multi-view video coding to which information identifying a picture in a view direction is applied according to an embodiment to which the present invention is applied.

비디오 코딩에 있어서, 각각의 픽쳐를 식별하기 위해서는 식별 정보가 필요하다. 또한, 참조 픽쳐를 관리하기 위해서 각각의 픽쳐를 식별하기 위한 정보가 필요할 수 있다. 예를 들어, 시간 방향에서 픽쳐를 식별하기 위한 정보로 frame_num 과 POC 를 정의할 수 있다. 여기서, frame_num 이란, 디코딩 순서에 기초하여 픽쳐마다 할당되는 픽쳐 번호를 의미할 수 있다. 그리고, POC 란, 픽쳐 출력 순서에 기초하여 픽쳐마다 할당되는 픽쳐 번호를 의미할 수 있다. 한편, 시점 방향에서 픽쳐를 식별하기 위한 정보로 view_id 와 view_num 을 정의할 수 있다. 여기서, view_id 란, 픽쳐의 시점을 식별하기 위한 시점 번호를 의미할 수 있다. 그리고, view_num 이란, 인터뷰 픽쳐들 사이의 디코딩 순서 또는 예측 구조에 기초하여 픽쳐마다 할당되는 픽쳐 번호(또는 시점 번호)를 의미할 수 있다.In video coding, identification information is needed to identify each picture. In addition, information for identifying each picture may be needed to manage the reference picture. For example, frame_num and POC may be defined as information for identifying a picture in the time direction. Here, frame_num may mean a picture number allocated to each picture based on the decoding order. The POC may mean a picture number assigned to each picture based on the picture output order. Meanwhile, view_id and view_num may be defined as information for identifying a picture in the view direction. Here, view_id may mean a view number for identifying a view point of a picture. And, view_num may mean a picture number (or view number) assigned to each picture based on a decoding order or a prediction structure between interview pictures.

도 3에 나타난 바와 같이 가로축의 T0 ~ T8 은 각각 시간에 따른 픽쳐를 나타낸 것이고, 세로축의 V0 ~ V4는 각각 시점에 따른 픽쳐를 나타낸 것이다. 예를 들어, T0에 있는 픽쳐들은 같은 시간대(T0)에 서로 다른 카메라에서 찍은 영상들을 의미하며, V0에 있는 픽쳐들은 한 대의 카메라에서 찍은 다른 시간대의 영상들을 의미한다. 또한, 각 픽쳐 상의 I,P,B,b 는 각 픽쳐들의 픽쳐 타입을 나타낸 것으로서, 예를 들어, I 픽쳐는 인트라 예측된 픽쳐를 나타내고, P 픽쳐는 하나의 참조 픽쳐를 이용하여 예측된 픽쳐를 나타내며, B 또는 b 픽쳐는 두 개의 참조의 픽쳐를 이용하여 예측된 픽쳐를 나타낸다. 이 때, b 픽쳐는 인터뷰 예측된 픽쳐를 의미할 수 있고, B 픽쳐는 인터뷰 예측을 위해 이용되는 참조 픽쳐를 의미할 수 있다. 다만, B 픽쳐라도 인터뷰 픽쳐 그룹인 경우(예를 들어, T0,T4,T8 시간대에 존재하는 픽쳐)에는 인터뷰 예측된 픽쳐일 수 있다.As illustrated in FIG. 3, the horizontal axes T0 to T8 represent pictures according to time, and the vertical axes V0 to V4 represent pictures according to viewpoints. For example, pictures in T0 refer to images taken by different cameras in the same time zone T0, and pictures in V0 refer to images in different time zones taken by one camera. In addition, I, P, B, and b on each picture represent picture types of respective pictures, for example, an I picture represents an intra predicted picture and a P picture represents a picture predicted using one reference picture. A B or b picture represents a picture predicted by using pictures of two references. In this case, the b picture may mean an interview predicted picture, and the B picture may mean a reference picture used for interview prediction. However, even if the B picture is an interview picture group (for example, a picture existing in time zones T0, T4, and T8), the picture may be an interview predicted picture.

상기 도 3에 있는 픽쳐를 예로 하여, 상기 픽쳐를 식별하기 위한 정보들이 어떻게 할당될 수 있는지 알아보기로 하자.Taking the picture of FIG. 3 as an example, it will be described how information for identifying the picture can be allocated.

먼저, 각 시점에 존재하는 픽쳐 시퀀스가 개별적으로 코딩될 경우에, 시간 방향의 픽쳐들에 대해 frame_num 과 POC 가 어떻게 할당되는지 알아본다. 예를 들어, VO 시점에 있는 픽쳐들의 경우, POC 값은 시간 순서(T0 ~ T8)에 따라 할당될 수 있다. 즉, TO ~ T8 순서에 따라 POC 값이 0 ~ 8 까지 할당될 수 있다. 한편, frame_num 은 디코딩 순서에 기초하여 할당될 수 있다. 예를 들어, TO 시간대의 I 픽쳐가 제일 먼저 디코딩되고, 그 다음에 T4 시간대의 I 픽쳐가 디코딩되며, 상기 2개의 I 픽쳐로부터 T2 시간대의 B 픽쳐가 디코딩될 수 있다. 그리고, T8 시간대의 I 픽쳐가 디코딩되면서, TO 시간대의 I 픽쳐와 T2 시간대의 B 픽쳐를 이용하여 T1 시간대의 B 픽쳐가 디코딩될 수 있으며, 또한 T2 시간대의 B 픽쳐와 T4 시간대의 I 픽쳐를 이용하여 T3 시간대의 B 픽쳐가 디코딩될 수 있다. 이러한 경우에 각 픽쳐의 frame_num 은 상기 순서대로 할당될 수 있다. 즉, TO 시간대의 I 픽쳐의 frame_num 은 0, T4 시간대의 I 픽쳐의 frame_num 은 1, T2 시간대의 B 픽쳐의 frame_num 은 2, T8 시간대의 I 픽쳐와 T1 시간대의 B 픽쳐와 T3 시간대의 B 픽쳐의 frame_num 은 모두 3 의 값이 할당될 수 있다. 그 이후의 픽쳐들에 대해서도 동일한 방식으로 frame_num 값이 할당될 수 있다.First, when a picture sequence existing at each time point is individually coded, it will be described how frame_num and POC are allocated to pictures in the temporal direction. For example, for pictures at the VO time point, the POC value may be allocated according to the time order T0 to T8. That is, POC values from 0 to 8 may be allocated in the order of TO to T8. Meanwhile, frame_num may be allocated based on the decoding order. For example, an I picture in the TO time zone may be decoded first, followed by an I picture in the T4 time zone, and a B picture in the T2 time zone from the two I pictures. Then, while I pictures in the T8 time zone are decoded, the B pictures in the T1 time zone and the B pictures in the T2 time zone and the I pictures in the T4 time zone can be decoded using the I pictures in the TO time zone and B pictures in the T2 time zone. B pictures in the T3 time zone can be decoded. In this case, frame_num of each picture may be allocated in the above order. That is, frame_num of I picture in TO time zone is 0, frame_num of I picture in T4 time zone is 1, frame_num of B picture in T2 time zone is 2, I picture in T8 time zone, B picture in T1 time zone, and B picture in T3 time zone. frame_num may be assigned a value of all 3. Frame_num values may be assigned to the subsequent pictures in the same manner.

다음으로, 각 시간대에 존재하는 픽쳐 시퀀스가 코딩될 경우에, 시점 방향의 픽쳐들에 대해 view_id 와 view_num 이 어떻게 할당되는지 알아본다.Next, when a picture sequence existing in each time zone is coded, it will be described how view_id and view_num are allocated to pictures in a view direction.

예를 들어, TO 시간대에 있는 픽쳐들의 경우, view_id 값은 카메라 배열 순서(V0 ~ V4)에 따라 할당될 수 있다. 또는 정해진 순서에 따라 할당될 수도 있으며, 또는 임의적으로 할당할 수도 있다. 상기 도 3에서는 카메라 배열 순서에 따라 할당된 예를 나타낸다. 즉, 카메라가 배열된 VO ~ V4 순서에 따라 view_id 값이 0 ~ 4 까지 할당될 수 있다. 상기 view_id 는 동일한 카메라에 의해 찍힌 픽쳐들에 대해서 모두 동일한 값이 할당될 수 있다. 예를 들어, V0 시점에 있는 픽쳐들의 view_id 는 모두 0 값을 가질 수 있다. For example, for pictures in the TO time zone, the view_id value may be assigned according to the camera arrangement order V0 to V4. Alternatively, they may be allocated in a predetermined order, or may be allocated arbitrarily. 3 shows an example of allocation according to the camera arrangement order. That is, the view_id value may be allocated from 0 to 4 according to the order of VO to V4 where the cameras are arranged. The view_id may be assigned the same value with respect to pictures taken by the same camera. For example, view_id of pictures at the time point V0 may all have a value of zero.

한편, view_num 은 예측 구조에 기초하여 할당될 수 있다. 예를 들어, T0 시간대에 있는 픽쳐들의 시점간 예측 구조를 알아보자. V2 시점에 있는 P 픽쳐는 T0 시간대의 I 픽쳐로부터 예측된 픽쳐일 수 있다. 그리고, V2 시점의 P 픽쳐를 이용하여 V4 시점의 P 픽쳐가 예측될 수 있으며, 또한 V2 시점의 P 픽쳐와 V0 시점의 I 픽쳐를 이용하여 V1 시점의 B 픽쳐가 예측될 수 있다. 이러한 경우에 각 픽쳐의 view_num 은 상기 순서대로 할당될 수 있다. 즉, VO 시점의 I 픽쳐의 view_num 은 0, V2 시점의 P 픽쳐의 view_num 은 1, V1 시점의 B 픽쳐와 V4 시점의 P 픽쳐의 view_num 은 모두 2 의 값이 할당될 수 있다. 그 이후의 픽쳐들에 대해서도 동일한 방식으로 view_num 값이 할당될 수 있다. 상기 view_num 은 동일한 카메라에 의해 찍힌 픽쳐들에 대해서 모두 동일한 값이 할당될 수 있다. 왜냐하면, 시점간의 예측 구조가 각 시간대별로 동일하게 적용될 수 있기 때문이다. 예를 들어, V0 시점에 있는 픽쳐들의 view_num 은 모두 0 값을 가질 수 있다. On the other hand, view_num may be allocated based on the prediction structure. For example, let's look at the inter-view prediction structure of pictures in the time zone T0. The P picture at the time point V2 may be a picture predicted from the I picture in the T0 time zone. The P picture at V4 may be predicted using the P picture at V2, and the B picture at V1 may be predicted using the P picture at V2 and the I picture at V0. In this case, view_num of each picture may be allocated in the above order. That is, the view_num of the I picture at the VO view is 0, the view_num of the P picture at the V2 view is 1, the view_num of the B picture at the V1 view and the view_num of the P picture at the V4 view are both assigned a value of 2. For subsequent pictures, the view_num value may be allocated in the same manner. The view_num may be assigned the same value with respect to pictures taken by the same camera. This is because the prediction structure between viewpoints may be equally applied to each time zone. For example, view_num of pictures at the time point V0 may all have a value of zero.

본 발명의 다른 실시예로서, 상기 시점 방향에서 픽쳐를 식별하기 위한 정보를 이용하여 참조 픽쳐를 관리할 수 있다. 이하 도 4에서 상세히 설명하도록 한다.In another embodiment of the present invention, the reference picture may be managed using information for identifying the picture in the view direction. Hereinafter will be described in detail in FIG.

도 4는 본 발명이 적용되는 일실시예로서, 참조 픽쳐 리스트 생성부(630)의 내부 블록도를 나타낸다.4 illustrates an internal block diagram of the reference picture list generator 630 according to an embodiment to which the present invention is applied.

앞서 살펴본 바와 같이, 비디오 코딩에 있어서, 각각의 픽쳐를 식별하기 위해서는 식별 정보가 필요하다. 또한, 참조 픽쳐를 관리하기 위해서도 각각의 픽쳐를 식별하기 위한 정보가 필요할 수 있다. 복호 픽쳐 버퍼부(600)에서는 상기 참조 픽쳐들을 관리하기 위하여 변수 PicNum 을 이용할 수 있다. 이 때, 시점간 예측을 위한 참조 픽쳐들을 관리하기 위해서는 시점 방향의 픽쳐들을 구별하기 위한 정보가 필요할 수 있다. 따라서, 시점 방향에서 픽쳐를 식별하기 위한 정보인 view_id 와 view_num 을 상기 변수 PicNum 에 할당하여 이용할 수 있다. 그 구체적인 실시예를 알아보도록 한다.As described above, in video coding, identification information is required to identify each picture. In addition, information for identifying each picture may be needed to manage the reference picture. The decoded picture buffer unit 600 may use the variable PicNum to manage the reference pictures. In this case, in order to manage reference pictures for inter-view prediction, information for distinguishing pictures in a view direction may be needed. Accordingly, view_id and view_num, which are information for identifying a picture in the view direction, may be allocated to the variable PicNum. The specific embodiment will be described.

상기 참조 픽쳐 리스트 생성부(630)는 변수 유도부(631), 참조 픽쳐 리스트 초기화부(635) 및 참조 픽쳐 리스트 재배열부(640)를 포함할 수 있다.The reference picture list generator 630 may include a variable derivator 631, a reference picture list initializer 635, and a reference picture list rearranger 640.

상기 변수 유도부(625)는 참조 픽쳐 리스트 초기화에 사용되는 변수들을 유 도한다. 예를 들어, 픽쳐의 식별 번호를 나타내는 frame_num 을 이용하여 상기 변수를 유도할 수 있다. 구체적 예로, 각각의 단기 참조 픽쳐에는 변수 FrameNum과 변수 FrameNumWrap 이 이용될 수 있다. 먼저 상기 변수 FrameNum은 신택스 요소인 frame_num 값과 같다. 그리고, 상기 변수 FrameNumWrap은 상기 복호 픽쳐 버퍼부(600)에서 참조 픽쳐마다 작은 번호를 할당해주기 위하여 이용될 수 있으며, 상기 변수 FrameNum으로부터 유도될 수 있다. 이렇게 유도된 상기 변수 FrameNumWrap 을 이용하여 변수 PicNum 을 유도할 수 있다. 여기서 변수 PicNum은 상기 복호 픽쳐 버퍼부(600)에서 사용되는 픽쳐의 식별 번호를 의미할 수 있다. 장기 참조 픽쳐를 나타내는 경우에는 변수 LongTermPicNum이 이용될 수 있다.The variable derivation unit 625 induces variables used to initialize the reference picture list. For example, the variable may be derived using frame_num indicating an identification number of a picture. As a specific example, a variable FrameNum and a variable FrameNumWrap may be used for each short-term reference picture. First, the variable FrameNum is equal to the frame_num value that is a syntax element. The variable FrameNumWrap may be used by the decoded picture buffer unit 600 to allocate a small number for each reference picture, and may be derived from the variable FrameNum. The variable PicNum can be derived using the variable FrameNumWrap thus derived. The variable PicNum may refer to an identification number of a picture used in the decoded picture buffer unit 600. The variable LongTermPicNum may be used when representing a long term reference picture.

또한, 시점간 예측을 위한 참조 픽쳐 리스트를 생성하기 위해서는 시점에 대한 정보를 이용할 수 있다. 예를 들어, view_num 에 대해 frame_num 이용 과정과 유사한 방식을 적용할 수 있다. 그리고, view_id 에 대해서는 POC 이용 과정과 유사한 방식을 적용할 수 있다. In addition, information about a viewpoint may be used to generate a reference picture list for inter-view prediction. For example, a method similar to the process of using frame_num may be applied to view_num. In addition, a method similar to a POC usage process may be applied to view_id.

또는 상기 view_num 은 frame_num에, 상기 view_id는 POC 에 맵핑시키고, 기존 방식대로 frame_num 과 POC를 이용하여 제 1 변수 PicNum을 유도할 수도 있다. Alternatively, view_num may be mapped to frame_num, view_id may be mapped to POC, and the first variable PicNum may be derived using frame_num and POC in the conventional manner.

예를 들어, 시점 방향으로 픽쳐를 식별해주는 view_num 을 이용하여 제 2 변수(예를 들어, ViewNum)를 유도할 수 있다. 먼저 상기 제 2 변수는 신택스 요소인 상기 view_num 값과 같을 수 있다. 그리고, 제 3 변수(예를 들어, ViewNumWrap)는 상기 복호 픽쳐 버퍼부(600)에서 참조 픽쳐마다 작은 식별 번호를 할당해주기 위하여 이용될 수 있으며, 상기 제 2 변수로부터 유도될 수 있다.For example, a second variable (for example, ViewNum) may be derived using view_num identifying a picture in the view direction. First, the second variable may be equal to the view_num value that is a syntax element. The third variable (eg, ViewNumWrap) may be used in the decoded picture buffer unit 600 to allocate a small identification number for each reference picture, and may be derived from the second variable.

한편, 참조 픽쳐 리스트 초기화부(630)는 상기 변수들을 이용하여 참조 픽쳐 리스트를 초기화한다. 이때 참조 픽쳐 리스트의 초기화 과정은 슬라이스 타입에 따라 그 방식이 달라질 수 있다. 예를 들어, P슬라이스를 디코딩할 경우에는 디코딩 순서(예를 들어, frame_num)에 기초하여 참조 픽쳐 번호를 할당할 수 있으며, B슬라이스를 디코딩할 경우에는 픽쳐 출력 순서(예를 들어, POC)에 기초하여 참조 픽쳐 번호를 할당할 수 있다. 마찬가지로, 시점간 예측을 위한 참조 픽쳐 리스트를 초기화할 경우에는 상기 제 1 변수, 즉 시점 방향으로 픽쳐를 식별해주는 픽쳐 식별 정보로부터 유도된 변수에 기초하여 참조 픽쳐에 번호를 할당할 수 있다. 또는, 슬라이스 타입에 따라 P 슬라이스일 경우에는 view_num 에 기초하여 참조 픽쳐 번호를 할당할 수 있으며, B 슬라이스일 경우에는 view_id 에 기초하여 참조 픽쳐 번호를 할당할 수 있다. 예를 들어, 현재 픽쳐의 슬라이스 타입이 B 슬라이스일 경우, view_id 로부터 유도된 제 4 변수(ViewId)를 이용하여 참조 픽쳐 리스트를 초기화할 수 있다. 이때, 상기 view_id 는 카메라 배열 순서에 기초하여 결정된 값일 수 있다.The reference picture list initialization unit 630 initializes the reference picture list by using the variables. In this case, the initialization process of the reference picture list may vary depending on the slice type. For example, when decoding a P slice, a reference picture number may be assigned based on a decoding order (for example, frame_num), and when decoding a B slice, the picture output order (for example, POC) may be assigned. A reference picture number can be assigned based on this. Similarly, when initializing a reference picture list for inter-view prediction, a number may be assigned to a reference picture based on the first variable, that is, a variable derived from picture identification information identifying a picture in a view direction. Alternatively, in the case of a P slice, a reference picture number may be allocated based on view_num, and in the case of a B slice, a reference picture number may be allocated based on view_id. For example, when the slice type of the current picture is a B slice, the reference picture list may be initialized using the fourth variable ViewId derived from view_id. In this case, the view_id may be a value determined based on the camera arrangement order.

구체적 예로, 현재 픽쳐의 슬라이스 타입이 P 슬라이스인 경우, 단기 참조 픽쳐와 장기 참조 픽쳐는 디코딩 순서에 기초하여 배열될 수 있다. 예를 들어, 시점 방향으로 픽쳐의 식별 번호를 나타내는 값(예를 들어, view_num)으로부터 유도된 변수(PicNum 또는 ViewNum)값에 따라 배열될 수 있다. 먼저 장기 참조 픽쳐에 앞서 단기 참조 픽쳐들이 초기화될 수 있다. 단기 참조 픽쳐의 배열되는 순서는 참조 픽쳐 중 가장 높은 변수(PicNum 또는 ViewNum)값을 갖는 참조 픽쳐부터 가장 낮 은 변수값을 갖는 참조 픽쳐의 순서로 배열될 수 있다. 장기 참조 픽쳐의 배열되는 순서는 참조 픽쳐 중 가장 낮은 변수값을 갖는 참조 픽쳐부터 가장 높은 변수값을 갖는 참조 픽쳐의 순서로 배열될 수 있다. 다만, 시점간 예측을 위한 참조 픽쳐 리스트의 경우, 장기 참조 픽쳐가 존재하지 않을 수 있다.As a specific example, when the slice type of the current picture is a P slice, the short-term reference picture and the long-term reference picture may be arranged based on the decoding order. For example, it may be arranged according to a value of a variable (PicNum or ViewNum) derived from a value (eg, view_num) indicating an identification number of a picture in a view direction. First, the short-term reference pictures may be initialized prior to the long-term reference picture. The order in which the short-term reference pictures are arranged may be arranged in the order of the reference picture having the highest variable value (PicNum or ViewNum) among the reference pictures from the reference picture having the lowest variable value. The order in which the long-term reference pictures are arranged may be arranged in the order of the reference picture having the lowest variable value from the reference picture and the reference picture having the highest variable value. However, in the case of a reference picture list for inter-view prediction, a long-term reference picture may not exist.

또한, 현재 픽쳐의 슬라이스 타입이 B 슬라이스인 경우, 시점 식별 정보(view_id)를 이용하여 유도된 제 4 변수(ViewId)에 기초하여 배열될 수 있다. 또는 상기 view_id는 POC 에 맵핑시키고, 상기 POC 를 이용하여 배열할 수도 있다. 예를 들어, 시점간 예측을 위한 참조 픽쳐 리스트0의 경우 현재 픽쳐보다 낮은 제 4 변수값을 갖는 참조 픽쳐 중 가장 높은 제 4 변수값을 갖는 참조 픽쳐부터 가장 낮은 제 4 변수값을 갖는 참조 픽쳐의 순서로 배열될 수 있다. 그리고, 현재 픽쳐보다 높은 제 4 변수값을 갖는 참조 픽쳐 중 가장 낮은 제 4 변수값을 갖는 참조 픽쳐부터 가장 높은 제 4 변수값을 갖는 참조 픽쳐의 순서로 배열될 수 있다. In addition, when the slice type of the current picture is a B slice, it may be arranged based on the fourth variable ViewId derived using the view identification information view_id. Alternatively, the view_id may be mapped to a POC and arranged using the POC. For example, in the case of reference picture list 0 for inter-view prediction, the reference picture having the lowest fourth variable value from the reference picture having the highest fourth variable value among the reference pictures having the fourth variable value lower than the current picture is used. Can be arranged in order. The reference picture having the fourth variable value among the reference pictures having the fourth variable value higher than the current picture may be arranged in the order of the reference picture having the highest fourth variable value.

그리고, 시점간 예측을 위한 참조 픽쳐 리스트1의 경우 현재 픽쳐보다 높은 제 4 변수값을 갖는 참조 픽쳐 중 가장 낮은 제 4 변수값을 갖는 참조 픽쳐부터 가장 높은 제 4 변수값을 갖는 참조 픽쳐의 순서로 배열될 수 있다. 그리고, 현재 픽쳐보다 낮은 제 4 변수값을 갖는 참조 픽쳐 중 가장 높은 제 4 변수값을 갖는 참조 픽쳐부터 가장 낮은 제 4 변수값을 갖는 참조 픽쳐의 순서로 배열될 수 있다.In the case of the reference picture list 1 for inter-view prediction, the reference picture having the lowest fourth variable value among the reference pictures having the fourth variable value higher than the current picture starts from the reference picture having the highest fourth variable value. Can be arranged. The reference picture having the fourth variable value among the reference pictures having the fourth variable value lower than the current picture may be arranged in the order of the reference picture having the lowest fourth variable value.

참조 픽쳐 리스트 재배열부(640)는 초기화된 참조 픽쳐 리스트에서 빈번하게 참조된 픽쳐에 더 작은 번호를 할당함으로써 압축률을 향상시키는 역할을 수행한다. 참조 픽쳐를 지정하는 참조 픽쳐 번호는 블록단위로 부호화되는데 참조 픽쳐 번호의 부호화를 위한 참조 픽쳐 번호가 작을수록 작은 비트수의 부호가 할당되기 때문이다. The reference picture list rearranger 640 improves the compression ratio by allocating a smaller number to a picture frequently referenced in the initialized reference picture list. The reference picture number for designating the reference picture is encoded in units of blocks because a smaller number of bits is assigned as the reference picture number for encoding the reference picture number is smaller.

이상에서 설명한 바와 같이, 본 발명이 적용되는 디코딩/인코딩 장치는 DMB(Digital Multimedia Broadcasting)과 같은 멀티미디어 방송 송/수신 장치에 구비되어, 비디오 신호 및 데이터 신호 등을 복호화하는데 사용될 수 있다. 또한 상기 멀티미디어 방송 송/수신 장치는 이동통신 단말기를 포함할 수 있다.As described above, the decoding / encoding device to which the present invention is applied may be provided in a multimedia broadcasting transmission / reception device such as digital multimedia broadcasting (DMB), and may be used to decode a video signal and a data signal. In addition, the multimedia broadcasting transmission / reception apparatus may include a mobile communication terminal.

또한, 본 발명이 적용되는 디코딩/인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무선 통신망을 이용해 전송될 수 있다.In addition, the decoding / encoding method to which the present invention is applied may be stored in a computer-readable recording medium that is produced as a program for execution on a computer, and multimedia data having a data structure according to the present invention may also be read by a computer. It can be stored in the recording medium. The computer readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. In addition, the bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted using a wired / wireless communication network.

이상, 전술한 본 발명의 바람직한 실시예는, 예시의 목적을 위해 개시된 것으로, 당업자라면 이하 첨부된 특허청구범위에 개시된 본 발명의 기술적 사상과 그 기술적 범위 내에서, 다양한 다른 실시예들을 개량, 변경, 대체 또는 부가 등이 가능할 것이다.As mentioned above, preferred embodiments of the present invention are disclosed for purposes of illustration, and those skilled in the art can improve and change various other embodiments within the spirit and technical scope of the present invention disclosed in the appended claims below. , Replacement or addition would be possible.

도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다. 1 is a schematic block diagram of a video signal decoding apparatus to which the present invention is applied.

도 2는 본 발명이 적용되는 실시예로서, 다시점 영상 코딩된 비트스트림에 추가될 수 있는 다시점 영상에 대한 속성 정보들을 나타낸다.2 is an embodiment to which the present invention is applied and shows attribute information of a multiview image that may be added to a multiview image coded bitstream.

도 3은 본 발명이 적용되는 실시예로서, 시점 방향으로 픽쳐를 식별하는 정보가 적용되는 다시점 비디오 코딩의 예측 구조를 나타낸다.3 illustrates a prediction structure of multi-view video coding to which information identifying a picture in a view direction is applied according to an embodiment to which the present invention is applied.

도 4는 본 발명이 적용되는 일실시예로서, 참조 픽쳐 리스트 생성부(630)의 내부 블록도를 나타낸다.4 illustrates an internal block diagram of the reference picture list generator 630 according to an embodiment to which the present invention is applied.

Claims (14)

시점 방향으로 픽쳐를 식별하는 픽쳐 식별 정보를 획득하는 단계;Obtaining picture identification information for identifying a picture in a view direction; 상기 픽쳐 식별 정보를 이용하여, 시점간 예측을 위한 참조 픽쳐 리스트를 생성하기 위한 제 1 변수를 유도하는 단계; 및Deriving a first variable for generating a reference picture list for inter-view prediction using the picture identification information; And 상기 제 1 변수를 이용하여 상기 시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 단계Generating a reference picture list for the inter-view prediction using the first variable 를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Video signal decoding method comprising a. 제 1항에 있어서, 상기 제 1 변수를 유도하는 단계는,The method of claim 1, wherein the deriving of the first variable comprises: 상기 픽쳐 식별 정보로부터 셋팅된 제 2 변수와 상기 제 2 변수로부터 유도된 제 3 변수를 이용하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And a second variable set from the picture identification information and a third variable derived from the second variable. 제 2항에 있어서,The method of claim 2, 상기 시점간 예측을 위한 참조 픽쳐 리스트를 초기화하는 단계를 더 포함하되,The method may further include initializing a reference picture list for the inter-view prediction. 상기 시점간 예측을 위한 참조 픽쳐 리스트는 상기 제 1 변수에 기초하여 정렬되는 것을 특징으로 하는 비디오 신호 디코딩 방법.The reference picture list for the inter-view prediction is arranged based on the first variable. 제 3항에 있어서,The method of claim 3, wherein 현재 픽쳐의 슬라이스 타입을 획득하는 단계를 더 포함하고,Obtaining a slice type of the current picture, 상기 슬라이스 타입이 P/SP 슬라이스인 경우, 상기 제 1 변수를 이용하여 시점간 예측을 위한 참조 픽쳐 리스트 0를 생성하되, 상기 시점간 예측을 위한 참조 픽쳐 리스트 0는 참조 픽쳐 중 가장 높은 제 1 변수를 갖는 참조 픽쳐부터 가장 낮은 제 1 변수를 갖는 픽쳐 순서로 정렬되는 것을 특징으로 하는 비디오 신호 디코딩 방법.When the slice type is a P / SP slice, the reference picture list 0 for inter-view prediction is generated using the first variable, and the reference picture list 0 for the inter-view prediction is the highest first variable among the reference pictures. And a picture ordered from the reference picture having the lowest first variable to the picture having the lowest first variable. 제 1항에 있어서,The method of claim 1, 상기 픽쳐 식별 정보는 인터뷰 픽쳐들 사이의 디코딩 순서에 기초하여 결정되는 것을 특징으로 하는 비디오 신호 디코딩 방법.And the picture identification information is determined based on a decoding order between interview pictures. 제 1항에 있어서,The method of claim 1, 현재 픽쳐의 시점을 식별하는 시점 정보를 획득하는 단계;Obtaining viewpoint information identifying a viewpoint of a current picture; 상기 현재 픽쳐의 슬라이스 타입을 획득하는 단계; 및Obtaining a slice type of the current picture; And 상기 슬라이스 타입이 B 슬라이스인 경우, 상기 시점 정보로부터 유도된 제 4 변수를 이용하여 상기 시점간 예측을 위한 참조 픽쳐 리스트를 초기화하는 단계If the slice type is a B slice, initializing a reference picture list for the inter-view prediction using a fourth variable derived from the view information 를 더 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.The video signal decoding method further comprising. 제 6항에 있어서,The method of claim 6, 상기 슬라이스 타입이 B 슬라이스인 경우, 상기 제 4 변수를 이용하여 시점 간 예측을 위한 참조 픽쳐 리스트 0를 생성하되, 상기 시점간 예측을 위한 참조 시점 리스트 0는 현재 픽쳐의 제 4 변수보다 낮으면서 가장 높은 제 4 변수를 갖는 참조 픽쳐부터 가장 낮은 제 4 변수를 갖는 참조 픽쳐 순서로 정렬되고, 그 다음에 현재 픽쳐의 제 4 변수보다 높으면서 가장 낮은 제 4 변수를 갖는 참조 픽쳐부터 가장 높은 제 4 변수를 갖는 참조 픽쳐 순서로 정렬되는 것을 특징으로 하는 비디오 신호 디코딩 방법.When the slice type is a B slice, a reference picture list 0 for inter-view prediction is generated using the fourth variable, and the reference view list 0 for inter-view prediction is lower than a fourth variable of the current picture. The reference pictures having the highest fourth variable are arranged in the order of the reference pictures having the lowest fourth variable, and then the highest fourth variable is selected starting from the reference picture having the lowest fourth variable that is higher than the fourth variable of the current picture. And a video signal decoding method arranged in a reference picture order. 제 6항에 있어서,The method of claim 6, 상기 슬라이스 타입이 B 슬라이스인 경우, 상기 제 4 변수를 이용하여 시점간 예측을 위한 참조 픽쳐 리스트 1을 생성하되, 상기 시점간 예측을 위한 참조 시점 리스트 1은 현재 픽쳐의 제 4 변수보다 높으면서 가장 낮은 제 4 변수를 갖는 참조 픽쳐부터 가장 높은 제 4 변수를 갖는 참조 픽쳐 순서로 정렬되고, 그 다음에 현재 픽쳐의 제 4 변수보다 낮으면서 가장 높은 제 4 변수를 갖는 참조 픽쳐부터 가장 낮은 제 4 변수를 갖는 참조 픽쳐 순서로 정렬되는 것을 특징으로 하는 비디오 신호 디코딩 방법.When the slice type is a B slice, the reference picture list 1 for inter-view prediction is generated using the fourth variable, and the reference view list 1 for the inter-view prediction is higher than the fourth variable of the current picture and is the lowest. The reference pictures having the fourth variable are arranged in the order of the reference pictures having the highest fourth variable, and then the lowest fourth variable starting from the reference picture having the highest fourth variable lower than the fourth variable of the current picture is ordered. And a video signal decoding method arranged in a reference picture order. 제 6항에 있어서,The method of claim 6, 상기 시점 정보는 카메라 배열 순서에 기초하여 결정되는 것을 특징으로 하는 비디오 신호 디코딩 방법.The viewpoint information is determined based on the camera arrangement order. 현재 픽쳐의 시점을 식별하는 시점 정보를 획득하는 단계;Obtaining viewpoint information identifying a viewpoint of a current picture; 상기 현재 픽쳐의 슬라이스 타입을 획득하는 단계; 및Obtaining a slice type of the current picture; And 상기 시점 정보와 상기 슬라이스 타입에 기초하여, 시점 방향으로 픽쳐를 식별하는 픽쳐 식별 정보를 유도하는 단계Deriving picture identification information identifying a picture in a view direction based on the view information and the slice type 상기 유도된 픽쳐 식별 정보를 이용하여 참조 픽쳐 리스트를 생성하는 단계Generating a reference picture list using the derived picture identification information 를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법.Video signal decoding method comprising a. 제 1 항 또는 제 10항에 있어서,The method according to claim 1 or 10, 상기 비디오 신호는, 방송 신호로서 수신된 것임을 특징으로 하는 비디오 신호 디코딩 방법.And the video signal is received as a broadcast signal. 제 1 항 또는 제 10항에 있어서,The method according to claim 1 or 10, 상기 비디오 신호는, 디지털 미디엄을 통해 수신된 것임을 특징으로 하는 비디오 신호 디코딩 방법.And the video signal is received through digital medium. 제 1 항 또는 제 10항에 기재된 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.A computer readable medium having recorded thereon a program for executing the method according to claim 1. 시점 방향으로 픽쳐를 식별하는 픽쳐 식별 정보를 이용하여, 시점간 예측을 위한 참조 픽쳐 리스트를 생성하기 위한 변수를 유도하는 변수 유도부와;A variable deriving unit for deriving a variable for generating a reference picture list for inter-view prediction using picture identification information for identifying a picture in a view direction; 상기 변수를 이용하여 상기 시점간 예측을 위한 참조 픽쳐 리스트를 생성하는 참조 픽쳐 리스트 생성부A reference picture list generator for generating a reference picture list for the inter-view prediction using the variable 를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 장치.Video signal decoding apparatus comprising a.
KR1020070091601A 2006-09-08 2007-09-10 A method and apparatus for decoding a video signal KR20080023210A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US84297406A 2006-09-08 2006-09-08
US60/842,974 2006-09-08

Publications (1)

Publication Number Publication Date
KR20080023210A true KR20080023210A (en) 2008-03-12

Family

ID=39396875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070091601A KR20080023210A (en) 2006-09-08 2007-09-10 A method and apparatus for decoding a video signal

Country Status (1)

Country Link
KR (1) KR20080023210A (en)

Similar Documents

Publication Publication Date Title
KR101619451B1 (en) Method and apparatus for processing a multiview video signal
EP2424247B1 (en) Method and apparatus for processing multi-view video signal
US7856148B2 (en) Processing multiview video
KR20110139304A (en) Reference picture list changing method of multi-view video
KR20100014552A (en) A method and an apparatus for decoding/encoding a video signal
JP2010525724A (en) Method and apparatus for decoding / encoding a video signal
CN114402597B (en) Video or image coding using adaptive loop filters
JP2017505025A (en) Simple depth coding (SDC) signaling for depth intra prediction mode and depth inter prediction mode in 3D video coding
KR20090113281A (en) A method and an apparatus for processing a video signal
US10321157B2 (en) Video decoding method and apparatus for decoding multi-view video
CN114556957A (en) Video coding device and method based on in-loop filtering
CN106664423B (en) Depth picture compiling method in video compiling
US20170310994A1 (en) 3d video coding method and device
US11895314B2 (en) Method and device for coding image/video on basis of prediction weighted table
US20230100733A1 (en) Method and device for weighted prediction for image/video coding
KR20080007086A (en) A method and apparatus for decoding/encoding a video signal
KR101366289B1 (en) A method and apparatus for decoding/encoding a video signal
CN114586351A (en) Image compiling apparatus and method based on adaptive loop filtering
USRE44680E1 (en) Processing multiview video
CN114762349A (en) High level syntax signaling method and apparatus for image/video coding
CN114788291A (en) Method and apparatus for processing image information for image/video compilation
KR20080023210A (en) A method and apparatus for decoding a video signal
US20220272386A1 (en) Method and device for signaling information relating to slice type in picture header in image/video coding system

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination