KR20080060188A - A method and apparatus for decoding a video signal - Google Patents

A method and apparatus for decoding a video signal Download PDF

Info

Publication number
KR20080060188A
KR20080060188A KR1020070137657A KR20070137657A KR20080060188A KR 20080060188 A KR20080060188 A KR 20080060188A KR 1020070137657 A KR1020070137657 A KR 1020070137657A KR 20070137657 A KR20070137657 A KR 20070137657A KR 20080060188 A KR20080060188 A KR 20080060188A
Authority
KR
South Korea
Prior art keywords
motion
block
neighboring
current block
motion vector
Prior art date
Application number
KR1020070137657A
Other languages
Korean (ko)
Inventor
구한서
전병문
박승욱
전용준
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20080060188A publication Critical patent/KR20080060188A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

A video signal decoding method and apparatus are provided to reduce the amount of error value transmissions by estimating coding information of a current block by using coding information of a picture having a high correlation with the current block. A motion skip discriminating unit(750) discriminates whether to induce motion information of a current block. When the motion information of the current block s induced, a motion information inducing unit(730). When the motion information of the current block is induced, the motion information inducing unit induces motion information the current block by using motion information of a neighbor block of the current block. A motion compensating unit(740) performs motion compensation by using the motion information of the induced current block. When the motion information of the neighbor block is used, it is checked whether the neighbor block refers to a picture of a different time point.

Description

비디오 신호 디코딩 방법 및 장치{A method and apparatus for decoding a video signal}A method and apparatus for decoding a video signal

본 발명은 비디오 신호의 코딩에 관한 기술이다.The present invention relates to the coding of video signals.

압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성을 지니고 있는 점에 특징이 있다.Compression coding refers to a series of signal processing techniques that transmit digitized information through a communication line or store the data in a form suitable for a storage medium. The object of compression encoding includes objects such as voice, video, text, and the like. In particular, a technique of performing compression encoding on an image is called video image compression. The general feature of the video image is that it has spatial redundancy and temporal redundancy.

본 발명의 목적은 비디오 신호의 코딩 효율을 높이고자 함에 있다.An object of the present invention is to improve the coding efficiency of a video signal.

본 발명의 다른 목적은 다시점 비디오 신호에 대하여 효율적으로 처리하는 방법 및 장치를 제공하는데 있다.Another object of the present invention is to provide a method and apparatus for efficiently processing a multiview video signal.

본 발명의 또 다른 목적은 비디오 신호의 움직임 정보를 예측하는 방법을 제공함으로써 비디오 신호를 효율적으로 처리하고자 함에 있다.It is still another object of the present invention to provide a method for predicting motion information of a video signal, thereby efficiently processing the video signal.

본 발명의 또 다른 목적은 변이 벡터를 유도하는 방법을 제공함으로써 비디오 신호를 효율적으로 처리하고자 함에 있다.It is still another object of the present invention to provide a method for deriving a disparity vector, thereby efficiently processing a video signal.

본 발명의 또 다른 목적은 현재 블록에 대응되는 블록을 찾는 방법을 제공함으로써 비디오 신호를 효율적으로 처리하고자 함에 있다.Another object of the present invention is to efficiently process a video signal by providing a method for finding a block corresponding to the current block.

본 발명은 현재 블록의 움직임 정보를 유도할지 여부를 판별하는 단계, 상기 현재 블록의 움직임 정보를 유도하게 되는 경우, 상기 현재 블록에 이웃하는 블록의 움직임 정보를 이용하여 상기 현재 블록의 움직임 정보를 유도하는 단계 및 상기 유도된 현재 블록의 움직임 정보를 이용하여 움직임 보상을 수행하는 단계를 포함하되, 상기 이웃 블록의 움직임 정보를 이용할 때, 이웃 블록이 다른 시점에 있는 픽쳐를 참조하는지 여부를 확인하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.According to an embodiment of the present invention, determining whether to derive motion information of a current block, and when deriving motion information of the current block, deriving motion information of the current block by using motion information of a block neighboring the current block. And performing motion compensation using the derived motion information of the current block, and when using the motion information of the neighboring block, checking whether the neighboring block refers to a picture at another point in time. A video signal decoding method is provided.

또한, 본 발명은, 이웃 블록들이 모두 동일 시점의 다른 시간대에 있는 픽쳐 를 참조하는 경우, 인터뷰 픽쳐 그룹 내 대응 블록의 움직임 벡터를 이용하여 상기 현재 블록의 시점 방향 움직임 벡터를 예측하는 것을 특징으로 한다.In addition, when the neighboring blocks all refer to pictures in different time zones at the same time, the present invention is characterized by predicting the view direction motion vector of the current block using the motion vector of the corresponding block in the interview picture group. .

또한, 본 발명은, 이웃 블록이 파티션으로 분할되어 있는 경우, 상기 현재 블록에 인접한 파티션 블록의 움직임 벡터를 이용하여 상기 이웃 블록의 움직임 벡터로 셋팅하는 단계를 더 포함하되, 상기 현재 블록의 움직임 정보는 상기 이웃 블록의 셋팅된 움직임 벡터로부터 유도되는 것을 특징으로 한다.The present invention may further include setting a motion vector of the neighboring block using a motion vector of a partition block adjacent to the current block when the neighboring block is divided into partitions, wherein the motion information of the current block is included. Is derived from the set motion vector of the neighboring block.

또한, 본 발명은, 현재 블록의 움직임 정보를 유도할지 여부를 판별하는 모션 스킵 판별부, 상기 현재 블록의 움직임 정보를 유도하게 되는 경우, 상기 현재 블록에 이웃하는 블록의 움직임 정보를 이용하여 상기 현재 블록의 움직임 정보를 유도하는 움직임 정보 유도부 및 상기 유도된 현재 블록의 움직임 정보를 이용하여 움직임 보상을 수행하는 움직임 보상부를 포함하되, 상기 이웃 블록의 움직임 정보를 이용할 때, 이웃 블록이 다른 시점에 있는 픽쳐를 참조하는지 여부를 확인하는 것을 특징으로 하는 비디오 신호 디코딩 장치를 제공한다.In addition, the present invention, a motion skip determination unit for determining whether to induce the motion information of the current block, when the motion information of the current block is derived, by using the motion information of the block neighboring the current block A motion information derivation unit for deriving motion information of the block and a motion compensation unit for performing motion compensation using the derived motion information of the current block, wherein when using the motion information of the neighboring block, the neighboring block is located at different time points Provided is a video signal decoding apparatus characterized by checking whether a picture is referred to.

본 발명은 신호를 처리함에 있어서, 영상 시퀀스의 시간적, 공간적 상관 관계를 이용하여 움직임 정보를 예측함으로써 신호 처리 효율을 높일 수 있다. 현재 블록과 상관 관계가 높은 픽쳐의 코딩 정보를 이용하여 현재 블록의 코딩 정보를 예측함으로써 보다 정확하게 예측이 가능하고, 그에 따른 오차값 전송량이 감소하게 되어 효율적인 코딩을 수행할 수 있다. 그리고, 현재 블록의 움직임 정보가 전송되지 않더라도, 현재 블록의 움직임 정보와 매우 유사한 움직임 정보를 산출할 수 있기 때문에 복원율이 향상되는 효과가 있다. According to the present invention, signal processing efficiency can be improved by predicting motion information using temporal and spatial correlation of an image sequence. By predicting the coding information of the current block by using the coding information of the picture having a high correlation with the current block, more accurate prediction is possible, and the error value transmission amount is reduced accordingly, thereby enabling efficient coding. And even if the motion information of the current block is not transmitted, since the motion information very similar to the motion information of the current block can be calculated, the reconstruction rate is improved.

또한, 현재 블록에 이웃하는 블록들의 코딩 정보를 이용하여 현재 블록의 코딩 정보를 예측함으로써 보다 정확하게 예측이 가능하고, 그에 따른 오차값 전송량이 감소하게 되어 효율적인 코딩을 수행할 수 있다.In addition, by predicting the coding information of the current block by using the coding information of the blocks neighboring the current block, it is possible to predict more accurately, thereby reducing the amount of transmission of the error value, thereby performing efficient coding.

비디오 신호 데이터를 압축 부호화하는 기술은 공간적 중복성, 시간적 중복성, 스케일러블한 중복성, 시점간 존재하는 중복성을 고려하고 있다. 또한, 이러한 압축 부호화 과정에서 시점 간 존재하는 상호 중복성을 고려하여 압축 코딩을 할 수 있다. 시점간 중복성을 고려하는 압축 코딩에 대한 기술은 본 발명의 실시예일 뿐이며, 본 발명의 기술적 사상은 시간적 중복성, 스케일러블한 중복성 등에도 적용될 수 있다. 또한, 본 명세서에서 코딩이라 함은 인코딩과 디코딩의 개념을 모두 포함할 수 있고, 본 발명의 기술적 사상 및 기술적 범위에 따라 유연하게 해석할 수 있을 것이다.The compression coding technique of video signal data considers spatial redundancy, temporal redundancy, scalable redundancy, and redundancy existing between views. In this compression encoding process, compression coding may be performed in consideration of mutual redundancy existing between views. The compression coding technique considering the inter-view redundancy is only an embodiment of the present invention, and the technical idea of the present invention may be applied to temporal redundancy, scalable redundancy, and the like. In addition, the term coding in this specification may include both the concepts of encoding and decoding, and may be flexibly interpreted according to the technical spirit and technical scope of the present invention.

도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of a video signal decoding apparatus to which the present invention is applied.

상기 디코딩 장치는 크게 파싱부(100), 엔트로피 디코딩부(200), 역양자화/역변환부(300), 인트라 예측부(400), 디블록킹 필터부(500), 복호 픽쳐 버퍼부(600), 인터 예측부(700) 등을 포함한다. 그리고, 인터 예측부(700)는 모션 스킵 판별부(710), 대응 블록 탐색부(720), 움직임 정보 유도부(730), 움직임 보상부(740) 및 움직임 정보 획득부(750)를 포함할 수 있다.The decoding apparatus includes a parsing unit 100, an entropy decoding unit 200, an inverse quantization / inverse transform unit 300, an intra prediction unit 400, a deblocking filter unit 500, a decoded picture buffer unit 600, Inter prediction unit 700 and the like. The inter prediction unit 700 may include a motion skip determination unit 710, a corresponding block search unit 720, a motion information derivation unit 730, a motion compensator 740, and a motion information acquisition unit 750. have.

파싱부(100)에서는 수신된 비디오 영상을 복호하기 위하여 NAL(Network Abstraction Layer) 단위로 파싱을 수행한다. 일반적으로 하나 또는 그 이상의 시퀀스 파라미터 셋과 픽쳐 파라미터 셋이 슬라이스 헤더와 슬라이스 데이터가 디코딩되기 전에 디코더로 전송된다. 이 때 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에는 여러 가지 속성 정보가 포함될 수 있다. MVC(Multiview Video Coding)는 기존 AVC 기술에 대한 추가 기술이므로 무조건적으로 추가하기보다는 MVC 비트스트림인 경우에 한해 여러 가지 속성 정보들을 추가하는 것이 더 효율적일 수 있다. 예를 들어, 상기 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에서 MVC 비트스트림인지 여부를 식별할 수 있는 플래그 정보를 추가할 수 있다. 상기 플래그 정보에 따라 입력된 비트스트림이 다시점 영상 코딩된 비트스트림일 경우에 한해 다시점 영상에 대한 속성 정보들을 추가할 수 있다. 예를 들어, 상기 속성 정보들은 시점 식별(view identification) 정보, 인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information) 등을 포함할 수 있다. The parser 100 performs parsing on a network abstraction layer (NAL) basis in order to decode the received video image. In general, one or more sequence parameter sets and picture parameter sets are transmitted to the decoder before the slice header and slice data are decoded. In this case, various attribute information may be included in the NAL header area or the extension area of the NAL header. Multiview Video Coding (MVC) is an additional technology to the existing AVC technology, so it may be more efficient to add various attribute information only in the case of MVC bitstream rather than unconditionally adding. For example, flag information for identifying whether an MVC bitstream is included in the NAL header region or an extension region of the NAL header may be added. Attribute information about a multiview image may be added only when the input bitstream is a multiview image coded bitstream according to the flag information. For example, the attribute information may include view identification information, inter-view picture group identification information, and the like.

먼저 시점 식별 정보(view identification information)란, 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 정보를 말한다. 비디오 영상 신호가 코딩될 때, 각각의 픽쳐를 식별하기 위하여 POC(Picture Order Count)와 frame_num 이 이용된다. 다시점 비디오 영상인 경우에는 시점간 예측이 수행되기 때문에 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 식별 정보가 필요하다. 따라서, 픽쳐의 시점을 식별하는 시점 식별 정보를 정의할 필요가 있다. 상기 시점 식별 정보는 비디오 신호의 헤더 영역으로부터 획득될 수 있다. 예를 들어, 상기 헤더 영역은 NAL 헤더 또는 NAL 헤더의 확장 영역일 수도 있고, 슬라이스 헤더일 수도 있다. 상기 시점 식별 정보를 이용하여 현재 픽쳐와 다른 시점에 있는 픽쳐의 정보를 획득하고, 상기 다른 시점에 있는 픽쳐의 정보를 이용하여 상기 비디오 신호를 디코딩할 수 있다.First, view identification information refers to information for distinguishing a picture at a current view from a picture at a different view. When a video image signal is coded, a picture order count (POC) and frame_num are used to identify each picture. In the case of a multiview video image, since inter-view prediction is performed, identification information for distinguishing a picture at a current view from a picture at a different view is required. Therefore, it is necessary to define viewpoint identification information for identifying the viewpoint of the picture. The view identification information may be obtained from a header area of a video signal. For example, the header area may be an NAL header, an extended area of the NAL header, or a slice header. The view identification information may be used to obtain information of a picture that is different from the current picture, and the video signal may be decoded using the information of the picture at the other view.

인터뷰 픽쳐 그룹 식별 정보(inter-view picture group identification information)란, 현재 NAL 유닛의 코딩된 픽쳐가 인터뷰 픽쳐 그룹인지 여부를 식별하는 정보를 말한다. 그리고, 인터뷰 픽쳐 그룹(inter-view picture group)이라 함은, 모든 슬라이스들이 동일 시간대의 프레임에 있는 슬라이스만을 참조하는 부호화된 픽쳐를 의미한다. 예를 들어, 다른 시점에 있는 슬라이스만을 참조하고 현재 시점에 있는 슬라이스는 참조하지 않는 부호화된 픽쳐를 말한다. 다시점 영상의 복호화 과정에 있어서, 시점 간의 랜덤 액세스는 가능할 수 있다. 이처럼, 인터뷰 픽쳐 그룹 식별 정보에 기초하여 인터뷰 참조 정보를 획득하게 될 경우, 보다 효율적으로 시점 간의 랜덤 액세스를 수행할 수 있게 된다. 이는 인터뷰 픽쳐 그룹에서의 각 픽쳐들 사이의 시점간 참조 관계가 넌-인터뷰 픽쳐 그룹에서의 시점간 참조 관계가 다를 수 있기 때문이다. 이때, 상기 시점 식별 정보를 이용하게 되면 보다 효율적인 랜덤 액세스가 가능할 수 있다.Inter-view picture group identification information refers to information for identifying whether a coded picture of a current NAL unit is an interview picture group. The inter-view picture group means an encoded picture in which all slices refer only to slices in frames of the same time zone. For example, an encoded picture refers to only a slice at another viewpoint and no slice at the current viewpoint. In the decoding process of a multiview image, random access between views may be possible. As such, when the interview reference information is acquired based on the interview picture group identification information, random access between viewpoints can be performed more efficiently. This is because the inter-view reference relationship between the pictures in the interview picture group may be different from the inter-view reference relationship in the non-interview picture group. In this case, if the view identification information is used, more efficient random access may be possible.

파싱된 비트스트림은 엔트로피 디코딩부(200)를 통하여 엔트로피 디코딩되고, 각 매크로블록의 계수, 움직임 벡터 등이 추출된다. 역양자화/역변환부(300)에서는 수신된 양자화된 값에 일정한 상수를 곱하여 변환된 계수값을 획득하고, 상기 계수값을 역변환하여 화소값을 복원하게 된다. 상기 복원된 화소값을 이용하여 인 트라 예측부(400)에서는 현재 픽쳐 내의 디코딩된 샘플로부터 화면내 예측을 수행하게 된다. 한편, 디블록킹 필터부(500)에서는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 매크로블록에 적용된다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 프레임의 화질을 향상시킨다. 필터링 과정의 선택은 경계 세기(boundary strenth)와 경계 주위의 이미지 샘플의 변화(gradient)에 의해 좌우된다. 필터링을 거친 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(600)에 저장된다.The parsed bitstream is entropy decoded through the entropy decoding unit 200, and coefficients, motion vectors, and the like of each macroblock are extracted. The inverse quantization / inverse transform unit 300 multiplies the received quantized value by a constant constant to obtain a transformed coefficient value, and inversely transforms the coefficient value to restore the pixel value. Using the reconstructed pixel value, the intra prediction unit 400 performs intra prediction from the decoded samples in the current picture. Meanwhile, the deblocking filter unit 500 is applied to each coded macroblock in order to reduce block distortion. The filter smoothes the edges of the block to improve the quality of the decoded frame. The choice of filtering process depends on the boundary strength and the gradient of the image samples around the boundary. The filtered pictures are output or stored in the decoded picture buffer unit 600 for use as a reference picture.

복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(600)에서는 화면간 예측을 수행하기 위해서 이전에 코딩된 픽쳐들을 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(600)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용하게 된다. 따라서, MVC에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 픽쳐와 다른 시점에 있는 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 상기 frame_num 과 POC 뿐만 아니라 픽쳐의 시점을 식별하는 시점 정보도 함께 이용할 수 있다. 또한, 상기 frame_num 과 유사한 개념의 시점 방향으로 픽쳐를 식별하는 정보도 함께 이용할 수 있다.The decoded picture buffer unit 600 stores or opens previously coded pictures in order to perform inter prediction. In this case, in order to store or open the decoded picture buffer unit 600, frame_num and POC (Picture Order Count) of each picture are used. Therefore, some of the previously coded pictures in MVC have pictures that are different from the current picture. Therefore, in order to utilize these pictures as reference pictures, not only the frame_num and the POC but also the view information for identifying the view point of the picture are included. It is available. In addition, information identifying a picture in a view direction having a concept similar to the frame_num may also be used.

인터 예측부(700)에서는 복호 픽쳐 버퍼부(600)에 저장된 참조 픽쳐를 이용하여 화면간 예측을 수행한다. 인터 코딩된 매크로블록은 매크로블록 파티션으로 나누어질 수 있으며, 각 매크로블록 파티션은 하나 또는 두개의 참조 픽쳐로부터 예측될 수 있다. 상기 인터 예측부(700)에서는 엔트로피 디코딩부(200)로부터 전송 된 정보들을 이용하여 현재 블록의 움직임을 보상한다. 비디오 신호로부터 현재 블록에 이웃하는 블록들의 움직임 벡터를 추출하고, 상기 현재 블록의 움직임 벡터 예측값을 획득한다. 상기 획득된 움직임 벡터 예측값과 비디오 신호로부터 추출되는 차분 벡터를 이용하여 현재 블록의 움직임을 보상한다. 이에 대해서는 도 2에서 상세히 설명하도록 한다. 또한, 이러한 움직임 보상은 하나의 참조 픽쳐를 이용하여 수행될 수도 있고, 복수의 픽쳐를 이용하여 수행될 수도 있다. 다시점 비디오 코딩에 있어서, 현재 픽쳐가 다른 시점에 있는 픽쳐들을 참조하게 되는 경우, 상기 복호 픽쳐 버퍼부(600)에 저장되어 있는 시점간 예측을 위한 참조 픽쳐 리스트에 대한 정보를 이용하여 움직임 보상을 수행할 수 있다. 그리고, 그 픽쳐의 시점을 식별하는 시점 식별 정보를 이용하여 움직임 보상을 수행할 수도 있다. The inter prediction unit 700 performs inter prediction using a reference picture stored in the decoded picture buffer unit 600. Inter-coded macroblocks can be divided into macroblock partitions, where each macroblock partition can be predicted from one or two reference pictures. The inter prediction unit 700 compensates for the movement of the current block by using the information transmitted from the entropy decoding unit 200. A motion vector of blocks neighboring the current block is extracted from the video signal, and a motion vector prediction value of the current block is obtained. The motion of the current block is compensated by using the obtained motion vector prediction value and the difference vector extracted from the video signal. This will be described in detail with reference to FIG. 2. In addition, such motion compensation may be performed using one reference picture or may be performed using a plurality of pictures. In multi-view video coding, when a current picture refers to pictures at different views, motion compensation is performed using information on a reference picture list for inter-view prediction stored in the decoded picture buffer unit 600. Can be done. In addition, motion compensation may be performed using viewpoint identification information for identifying the viewpoint of the picture.

또한, 직접 예측 모드(direct mode)는 부호화가 끝난 블록의 움직임 정보로부터 현재 블록의 움직임 정보를 예측하는 부호화 모드이다. 이러한 방법은 움직임 정보를 부호화할 때 필요한 비트수가 절약되기 때문에 압축 효율이 향상된다. 예를 들어, 시간 직접 모드(temporal direct mode)는 시간 방향의 움직임 정보 상관도를 이용하여 현재 블록의 움직임 정보를 예측하게 된다. 상기 시간 직접 모드는 서로 다른 움직임을 포함하고 있는 영상에서 그 움직임의 속도가 일정할 때 효과가 있다. 공간 직접 모드(spatial direct mode)는 공간 방향의 움직임 정보 상관도를 이용하여 현재 블록의 움직임 정보를 예측하게 된다. 상기 공간 직접 모드는 서로 같은 움직임을 포함하고 있는 영상에서 그 움직임의 속도가 변할 때 효과가 있다.In addition, the direct prediction mode is a coding mode for predicting motion information of a current block from motion information of a coded block. This method improves compression efficiency because the number of bits necessary for encoding motion information is saved. For example, in the temporal direct mode, the motion information of the current block is predicted using the motion information correlation in the time direction. The direct temporal mode is effective when the speed of the movement is constant in an image including different movements. In the spatial direct mode, the motion information of the current block is predicted by using the motion information correlation in the spatial direction. The spatial direct mode is effective when the speed of the motion changes in an image including the same motion.

상기와 같은 과정을 통해 인터 예측된 픽쳐들과 인트라 예측된 픽쳐들은 예 측 모드에 따라 선택되어 현재 픽쳐를 복원하게 된다. 이하에서는 비디오 신호의 효율적인 디코딩 방법을 제공하기 위한 다양한 실시예들을 설명하도록 한다.Through the above process, the inter predicted pictures and the intra predicted pictures are selected according to the prediction mode to reconstruct the current picture. Hereinafter, various embodiments for providing an efficient decoding method of a video signal will be described.

도 2는 본 발명이 적용되는 실시예로서, 모션 스킵 여부에 따라 움직임 보상을 수행하는 방법을 설명하기 위한 블록도를 나타낸다.2 is a block diagram illustrating a method of performing motion compensation according to whether to skip motion according to an embodiment to which the present invention is applied.

본 발명에서 사용되는 유닛이라 함은 비디오 신호에 적용함에 있어서는 블록, 서브 블록, 매크로블록, 슬라이스, 픽쳐, 프레임, 픽쳐 그룹, 시퀀스 등의 의미를 모두 포함할 수 있다. 따라서, 상기 유닛의 의미는 각각의 적용례에 따라 그에 상응하는 의미로 해석되어야 할 것이다. 또한, 비디오 신호뿐만 아니라 다른 신호 등에 적용할 때에는 그 신호에 적합한 다른 의미로 해석될 수도 있다.The unit used in the present invention may include all meanings of a block, a sub block, a macro block, a slice, a picture, a frame, a picture group, a sequence, and the like in application to a video signal. Therefore, the meaning of the unit should be interpreted as a corresponding meaning according to each application. In addition, when applied to not only a video signal but also other signals, it may be interpreted as another meaning suitable for the signal.

먼저, 인터 예측부(700)는 모션 스킵 판별부(710), 대응 유닛 탐색부(720), 움직임 정보 유도부(730), 움직임 보상부(740) 및 움직임 정보 획득부(750)를 포함할 수 있다. 모션 스킵 판별부(710)에서는 현재 유닛의 움직임 정보를 유도할지 여부를 판별하게 된다. 예를 들어, 모션 스킵 플래그를 이용할 수 있다. motion_skip_flag = 1 일 경우, 모션 스킵을 수행하게 되며 즉 현재 유닛의 움직임 정보를 유도하게 된다. 반면, motion_skip_flag = 0 일 경우에는 모션 스킵을 수행하지 않고 전송되어 온 움직임 정보를 획득하게 된다. 여기서, 움직임 정보란, 움직임 벡터, 레퍼런스 인덱스, 블록 타입 등을 포함할 수 있다. 상기 모션 스킵 판별부(710)에 의해 모션 스킵을 수행하는 경우, 대응 유닛 탐색부(720)에서는 대응 유닛을 탐색한다. 움직임 정보 유도부(730)에서는 상기 대응 유닛의 움직임 정보를 이용하여 현재 유닛의 움직임 정보를 유도할 수 있다. 이렇게 유도된 움직임 정보 를 이용하여 움직임 보상부(740)에서는 움직임 보상을 수행하게 된다. 한편, 상기 모션 스킵 판별부(710)에 의해 모션 스킵을 수행하지 않는 경우, 움직임 정보 획득부(750)에서는 전송되어 온 움직임 정보를 획득하게 된다. 상기 획득된 움직임 정보를 이용하여 움직임 보상부(740)에서는 움직임 보상을 수행하게 된다.First, the inter predictor 700 may include a motion skip determiner 710, a corresponding unit searcher 720, a motion information derivator 730, a motion compensator 740, and a motion information acquirer 750. have. The motion skip determination unit 710 determines whether to derive the motion information of the current unit. For example, a motion skip flag can be used. When motion_skip_flag = 1, motion skip is performed, that is, motion information of the current unit is derived. On the other hand, when motion_skip_flag = 0, motion information transmitted without performing motion skip is obtained. Here, the motion information may include a motion vector, a reference index, a block type, and the like. When the motion skip is performed by the motion skip determination unit 710, the corresponding unit search unit 720 searches for the corresponding unit. The motion information deriving unit 730 may derive the motion information of the current unit by using the motion information of the corresponding unit. The motion compensation unit 740 performs motion compensation by using the derived motion information. Meanwhile, when the motion skip is not performed by the motion skip determination unit 710, the motion information acquisition unit 750 acquires the transmitted motion information. The motion compensation unit 740 performs motion compensation using the obtained motion information.

이하에서는 모션 스킵을 수행하게 되는 경우 움직임 정보를 유도하는 구체적인 실시예들을 설명하도록 한다.Hereinafter, specific embodiments for deriving motion information when performing a motion skip will be described.

도 3은 본 발명이 적용되는 실시예로서, 현재 유닛의 움직임 정보를 예측하는 방법을 설명하기 위해 나타낸 것이다.3 is an embodiment to which the present invention is applied and is shown to explain a method of predicting motion information of a current unit.

다시점 비디오 시퀀스에 있어서, 각 유닛들은 제 1 도메인과 제 2 도메인 영역에 존재할 수 있다. 예를 들어, 상기 제 1 도메인은 시간 영역, 상기 제 2 도메인은 시점 영역일 수 있다. 이러한 경우, 상기 각 유닛들은 시간 방향과 시점 방향의 축 상에 존재할 수 있다. 따라서, 어떤 유닛들은 시간 방향으로만 예측 정보를 얻을 수도 있고, 다른 어떤 유닛들은 시점 방향으로만 예측 정보를 얻을 수도 있다. 또한, 어떤 유닛들은 시간, 시점 방향 모두에서 예측 정보를 얻을 수 있다. 이때, 상기 시간 방향에서 코딩 정보를 예측하게 되는 경우, 레퍼런스 유닛이 동일 시점의 다른 시간대에 존재하게 되면 상기 각 유닛은 시간 방향 움직임 벡터를 갖게 된다. 그리고, 레퍼런스 유닛이 동일 시간대의 다른 시점에 존재하게 되면, 상기 각 유닛은 시점 방향 움직임 벡터를 갖게 된다. 이를 변이 벡터(disparity vector)라 하기도 한다. 이하에서는 움직임 벡터라 함은 상기 시간 방향 움직임 벡터와 상기 시점 방향 움직임 벡터의 개념을 모두 포함할 수 있다. 또한, 본 발명에 서 코딩 정보라 함은, 움직임 벡터, 레퍼런스 인덱스, 블록 타입, 예측 방향 등에 대한 정보를 포함할 수 있다.In a multiview video sequence, each unit may be in a first domain and a second domain region. For example, the first domain may be a time domain and the second domain may be a viewpoint domain. In this case, each of the units may exist on an axis in a time direction and a view direction. Thus, some units may obtain prediction information only in the time direction, and some units may obtain prediction information only in the view direction. In addition, some units may obtain prediction information in both time and view direction. In this case, when the coding information is predicted in the time direction, when the reference units exist in different time zones at the same time point, each unit has a time direction motion vector. When the reference units exist at different time points in the same time zone, each unit has a view direction motion vector. This is sometimes called a disparity vector. Hereinafter, the motion vector may include both the concept of the time direction motion vector and the view direction motion vector. In addition, in the present invention, the coding information may include information about a motion vector, a reference index, a block type, a prediction direction, and the like.

본 발명이 적용되는 다른 실시예로서, 제 1 도메인 유닛의 제 2 도메인에 대한 코딩 정보를 이용하여 현재 유닛의 제 2 도메인에 대한 코딩 정보를 예측할 수 있다. 예를 들어, 스킵 모드란 현재 유닛보다 먼저 코딩된 다른 유닛의 정보를 이용하여 현재 유닛의 정보로 활용하는 것을 의미할 수 있다. 이러한 스킵 모드를 적용함에 있어서, 서로 다른 도메인에 존재하는 정보를 이용할 수 있다. 이하에서는 그에 대한 구체적인 실시예들을 살펴보고자 한다.In another embodiment to which the present invention is applied, the coding information for the second domain of the current unit may be predicted using the coding information for the second domain of the first domain unit. For example, the skip mode may mean using information of another unit coded before the current unit and using the information as the information of the current unit. In applying the skip mode, information existing in different domains may be used. Hereinafter, specific embodiments thereof will be described.

먼저, 시간 Tb에서 다른 두 개의 시점 영상들 내의 객체(또는 배경)들의 상대적인 움직임 관계는 충분히 가까운 시간 Tc에서도 거의 유사하게 유지된다고 가정할 수 있다. 이 때, 시간 Tb에서의 시점 방향 코딩 정보와 시간 Tc에서의 시점 방향 코딩 정보는 높은 상관도를 갖는다. 동일 시점의 다른 시간대에 있는 대응 블록의 움직임 정보를 그대로 가져다 이용하면 높은 코딩 효율을 얻을 수 있다. 이러한 방식을 이용했는지 여부를 나타내는 모션 스킵 정보를 이용할 수 있다. 상기 모션 스킵 정보에 따라 모션 스킵 모드가 적용되는 경우, 블록 타입, 움직임 벡터, 레퍼런스 인덱스와 같은 움직임 정보를 현재 블록의 대응 블록으로부터 예측할 수 있다. 따라서 이러한 움직임 정보를 코딩하는데 필요한 비트량을 줄일 수 있다. 예를 들어, motion_skip_flag가 0일 때는 상기 모션 스킵 모드가 적용되지 않으며, 1일 때는 현재 블록에 모션 스킵 모드가 적용된다. 상기 모션 스킵 정보는 매크로블록 레이어에 위치할 수 있다. 예를 들어, 상기 모션 스킵 정보가 매크로블록 레이 어의 확장 영역에 위치하여, 디코더측에서 움직임 정보를 비트스트림에서 가져오는지를 우선적으로 알려줄 수 있다.First, it can be assumed that the relative motion relationship of objects (or backgrounds) in two different viewpoint images at time Tb is maintained almost similarly even at a sufficiently close time Tc. At this time, the view direction coding information at time Tb and the view direction coding information at time Tc have a high correlation. High coding efficiency can be obtained by using the motion information of the corresponding block in different time zones at the same time. Motion skip information indicating whether such a scheme is used may be used. When the motion skip mode is applied according to the motion skip information, motion information such as a block type, a motion vector, and a reference index may be predicted from a corresponding block of the current block. Therefore, the amount of bits required for coding such motion information can be reduced. For example, when motion_skip_flag is 0, the motion skip mode is not applied, and when 1, motion skip mode is applied to the current block. The motion skip information may be located in a macroblock layer. For example, the motion skip information may be located in an extended region of the macroblock layer, so that the decoder may preferentially indicate whether motion information is obtained from the bitstream.

또한, 상기 예와 마찬가지로, 알고리듬 적용축인 상기 제 1 도메인과 제 2 도메인을 바꾸어 동일한 방식을 이용할 수 있다. 즉, 동일 시간 Tb에서의 Vb시점 내의 객체(또는 배경)와 그에 이웃하는 Va 시점내의 객체(또는 배경)는 유사한 움직임 정보를 가질 확률이 높다. 이때, 동일 시간대의 다른 시점에 있는 대응 블록의 움직임 정보를 그대로 가져다 이용하면 높은 코딩 효율을 가져다 줄 수 있다. 이러한 방식을 이용했는지 여부를 나타내는 모션 스킵 정보를 이용할 수 있다. In addition, similarly to the above example, the same method may be used by changing the first domain and the second domain, which are algorithm application axes. That is, the object (or background) in the Vb point in time at the same time Tb and the object (or background) in the neighboring Va point in time are likely to have similar motion information. In this case, if the motion information of the corresponding block at another point in time is used as it is, high coding efficiency can be obtained. Motion skip information indicating whether such a scheme is used may be used.

또한, 다시점 비디오 코딩에서는 참조 픽쳐가 시간축뿐만 아니라 시점축으로도 존재할 수 있다. 이러한 특성 때문에 현재 매크로블록의 참조 픽쳐 번호와 이웃 블록의 참조 픽쳐 번호가 다를 경우, 그 움직임 벡터들은 아무런 상관 관계를 가지지 않을 가능성이 높다. 이런 경우 움직임 벡터 예측값의 정확도는 매우 떨어지게 된다. 따라서, 본 발명이 적용되는 일실시예로서, 시점간의 상관 관계를 이용한 새로운 움직임 벡터 예측 방법을 제안한다.In addition, in multi-view video coding, a reference picture may exist not only in the time axis but also in the view axis. Because of this characteristic, if the reference picture number of the current macroblock is different from the reference picture number of the neighboring block, the motion vectors are likely to have no correlation. In this case, the accuracy of the motion vector prediction is very poor. Therefore, as an embodiment to which the present invention is applied, a new motion vector prediction method using correlation between viewpoints is proposed.

예를 들어, 시점 간에 생기는 움직임 벡터는 각 객체(object)들의 깊이(depth)에 의존적(dependent)일 수 있다. 영상의 깊이가 공간적으로 매우 심한 변화가 없고 시간축의 변화에 따른 영상의 움직임 자체가 매우 심하지만 않다면, 각 매크로블록 위치에서의 깊이 자체는 크게 변하지 않을 것이다. 여기서, 깊이(depth)란, 시점 간의 변이 차이를 나타낼 수 있는 정보를 의미할 수 있다. 또한, 기본적으로 카메라 간에 글로벌 움직임 벡터들의 영향이 존재하기 때문에 깊이 가 조금 변하더라도 글로벌 움직임 벡터가 깊이 변화에 비해 충분히 크다면, 상관 관계(correlation)가 없는 이웃 블록의 시간 방향 움직임 벡터를 이용하는 것보다 상기 글로벌 움직임 벡터를 이용하는 것이 더 효율적일 수 있다. For example, the motion vector generated between viewpoints may be dependent on the depth of each object. If the depth of the image does not change very spatially and the movement of the image itself is not very severe according to the change of time axis, the depth itself at each macroblock position will not change significantly. Here, the depth may refer to information that may indicate a difference in variation between viewpoints. In addition, since the effects of global motion vectors exist between cameras, if the global motion vector is sufficiently large compared to the depth change even if the depth is slightly changed, it is better to use the motion direction motion vector of the neighboring block without correlation. It may be more efficient to use the global motion vector.

여기서, 글로벌 움직임 벡터(global motion vector)란, 일정 영역에 공통적으로 적용할 수 있는 움직임 벡터를 의미할 수 있다. 예를 들어, 움직임 벡터가 일부 영역(예: 매크로블록, 블록, 픽셀 등)에 대응된다면, 글로벌 움직임 벡터(global motion vector 또는 global disparity vector)는 상기 일부 영역을 포함하는 전체 영역에 대응되는 모션 벡터이다. 예를 들어, 상기 전체 영역은 하나의 슬라이스에 대응될 수도 있고, 하나의 픽쳐에 대응될 수도 있으며, 시퀀스 전체에 대응될 수도 있다. 또는, 픽쳐내 하나 이상의 객체, 배경, 또는 일정 영역에 각각 대응될 수도 있다. 이러한 글로벌 움직임 벡터는 픽셀 단위 또는 1/4픽셀 단위의 값이 될 수도 있고, 4x4 단위, 8x8 단위, 또는 매크로블록 단위의 값이 될 수도 있다.Here, the global motion vector may mean a motion vector that can be commonly applied to a predetermined region. For example, if the motion vector corresponds to a partial region (eg, macroblock, block, pixel, etc.), the global motion vector or global disparity vector corresponds to the entire region including the partial region. to be. For example, the entire region may correspond to one slice, may correspond to one picture, or may correspond to the entire sequence. Alternatively, the image may correspond to one or more objects, a background, or a predetermined area in the picture. The global motion vector may be a value of a pixel unit or a quarter pixel unit, or may be a value of 4x4 unit, 8x8 unit, or macroblock unit.

본 발명이 적용되는 실시예로서, 상기 글로벌 움직임 벡터를 이용함에 있어서, 로컬 움직임 벡터(local disparity vector)를 이용할지 글로벌 움직임 벡터를 이용할지 여부를 결정할 수 있다. 예를 들어, 움직임 벡터 모드 플래그를 이용할 수 있다. disparity_mode_flag 값에 따라, 로컬 움직임 벡터를 이용할 수 있고, 또는 글로벌 움직임 벡터를 이용할 수도 있다. 상기 움직임 벡터 모드 플래그는 시퀀스 파라미터 세트, 픽쳐 파라미터 세트, 또는 슬라이스 레벨에서 정의될 수 있다. 상기 플래그 정보가 로컬 움직임 벡터를 이용할 것을 나타내는 경우에는 각 매크로 블록마다 시점 방향의 움직임 벡터를 유도할 수 있다. 또는 상기 플래그 정보가 글로벌 움직임 벡터를 이용할 것을 나타내는 경우에는 비트스트림 내에서 글로벌 움직임 벡터를 추출할 수 있다.As an embodiment to which the present invention is applied, in using the global motion vector, it is possible to determine whether to use a local disparity vector or a global motion vector. For example, a motion vector mode flag may be used. According to the disparity_mode_flag value, a local motion vector may be used or a global motion vector may be used. The motion vector mode flag may be defined at a sequence parameter set, a picture parameter set, or a slice level. When the flag information indicates that the local motion vector is to be used, the motion vector in the view direction may be derived for each macroblock. Alternatively, when the flag information indicates that the global motion vector is to be used, the global motion vector may be extracted in the bitstream.

다시점 비디오 코딩 구조에서는 일정 시간 간격으로 시점 방향으로만 예측하는 픽쳐들을 둠으로써 랜덤 액세스(random access)를 실현할 수 있다. 이처럼 시점 방향으로만 움직임 정보를 예측하는 두 개의 픽쳐가 복호화되면, 시간적으로 그 사이에 있는 픽쳐들에 대해 새로운 움직임 벡터 예측 방법을 적용할 수 있다. 예를 들어, 시점 방향으로만 예측하는 픽쳐로부터 시점 방향 움직임 벡터를 얻을 수 있다. 시점 방향으로만 예측할 때 조명(illumination) 차이가 매우 심할 경우에는 인트라 예측으로 코딩되는 경우가 많이 발생하게 된다. 이때에는 움직임 벡터를 0으로 설정할 수 있다. 그러나, 조명 차이가 커서 인트라 예측으로 많이 코딩되면 시점 방향의 움직임 벡터에 대한 정보를 알 수 없는 매크로블록이 많이 생기게 된다. 이를 보완하기 위해 인트라 예측일 경우에는 이웃 블록의 움직임 벡터를 이용하여 가상의 시점간 움직임 벡터(inter-view motion vector)를 계산할 수 있다. 그리고, 상기 가상의 시점간 움직임 벡터를 상기 인트라 예측으로 코딩된 블록의 움직임 벡터로 설정할 수 있다. 이렇게 복호화된 2개의 픽쳐로부터 시점간 움직임 정보를 획득한 후 그 사이에 존재하는 계층적(hierarchical) B 픽쳐들을 코딩할 수 있다. 이 때 상기 복호화된 2개의 픽쳐는 인터뷰 픽쳐 그룹일 수 있다.In the multi-view video coding structure, random access can be realized by placing pictures that are predicted only in the view direction at regular time intervals. As described above, when two pictures predicting motion information only in the view direction are decoded, a new motion vector prediction method may be applied to pictures in between. For example, a view direction motion vector can be obtained from a picture predicted only in the view direction. When the illumination difference is very severe when predicting only in the view direction, many cases are coded as intra prediction. At this time, the motion vector may be set to zero. However, when the illumination difference is large and coded a lot by intra prediction, many macroblocks in which information about a motion vector in the view direction are unknown are generated. To compensate for this, in the case of intra prediction, a virtual inter-view motion vector may be calculated using a motion vector of a neighboring block. The virtual inter-view motion vector may be set as a motion vector of a block coded by the intra prediction. After inter-view motion information is obtained from the two decoded pictures, hierarchical B pictures existing therebetween may be coded. In this case, the two decoded pictures may be an interview picture group.

본 발명이 적용되는 다른 실시예로서, 현재 유닛에 이웃하는 유닛들의 정보를 이용하여 상기 현재 유닛의 움직임 정보를 예측할 수 있다.In another embodiment to which the present invention is applied, motion information of the current unit may be predicted using information of units neighboring the current unit.

예를 들어, 현재 유닛(M①)에 이웃하는 유닛들 중 2개의 이웃 유닛 A, B가 시간 방향 움직임 벡터를 가지고 있고 1개의 유닛 C가 시점 방향의 움직임 벡터를 가지고 있다고 가정하자. 이 때, 상기 현재 유닛(M①)의 시간 방향 움직임 벡터를 예측하고자 할 경우에는 상기 이웃 유닛 A,B의 시간 방향 움직임 벡터를 이용할 수 있다. 또한, 상기 이웃 유닛 C의 시점 방향 움직임 벡터를 이용해서 상기 이웃 유닛 C의 시간 방향 움직임 벡터를 예측할 수 있다. 이렇게 예측된 이웃 유닛 C의 시간 방향 움직임 벡터를 포함하여 상기 3개의 시간 방향 움직임 벡터를 모두 이용하여 상기 현재 유닛(M①)의 시간 방향 움직임 벡터를 예측할 수도 있다. 이처럼 제 1 도메인의 움직임 벡터를 적용한 것처럼, 제 2 도메인에서도 동일한 방법으로 적용할 수 있다.For example, suppose that two neighboring units A and B of units neighboring the current unit M① have a time direction motion vector and one unit C has a motion vector in the view direction. In this case, in order to predict the time direction motion vector of the current unit M①, the time direction motion vectors of the neighboring units A and B may be used. In addition, the time direction motion vector of the neighboring unit C may be predicted using the view direction motion vector of the neighboring unit C. The time direction motion vector of the current unit M① may be predicted using all three time direction motion vectors including the predicted time direction motion vector of the neighboring unit C. In this way, the same applies to the second domain as the motion vector of the first domain is applied.

예를 들어, 현재 유닛(M①)의 시점 방향 움직임 벡터를 예측하고자 할 경우에는 이웃 유닛 C의 시점 방향 움직임 벡터를 직접 이용할 수 있다. 또한, 이웃 유닛 A, B의 시간 방향 움직임 벡터를 이용하여 각각의 시점 방향 움직임 벡터를 예측할 수 있다. 그리고, 상기 3개의 시점 방향 움직임 벡터를 이용하여 상기 현재 유닛(M①)의 시점 방향 움직임 벡터를 보다 정확히 예측할 수 있다. For example, in order to predict the view motion vector of the current unit M①, the view motion vector of the neighboring unit C may be directly used. In addition, each view direction motion vector may be predicted using the time direction motion vectors of neighboring units A and B. FIG. The three view direction motion vectors may be used to more accurately predict the view direction motion vector of the current unit M①.

또한, 상기 현재 유닛(M①)의 이웃 유닛들이 시간 방향 움직임 벡터, 시점 방향 움직임 벡터를 가지게 되는 모든 조합에 대해서 위 방법을 적용하여 상기 현재 유닛(M①)의 시간 방향 움직임 벡터, 시점 방향 움직임 벡터를 예측할 수 있다.In addition, the above method is applied to all combinations in which neighboring units of the current unit M① have a time direction motion vector and a view direction motion vector to apply the time direction motion vector and the view direction motion vector of the current unit M①. It can be predicted.

구체적 예로, 현재 유닛(M①)의 이웃 유닛들 중 하나의 이웃 유닛만이 다른 시점에 있는 유닛을 참조하는 경우, 상기 현재 유닛(M①)의 시점 방향 움직임 벡터 는 상기 이웃 유닛의 움직임 벡터로부터 예측할 수 있다. 그리고, 상기 현재 유닛(M①)의 이웃 유닛들 중 2 이상의 이웃 유닛이 다른 시점에 있는 유닛을 참조하는 경우, 상기 현재 유닛(M①)의 시점 방향 움직임 벡터는 상기 이웃 유닛들의 움직임 벡터들의 중간값으로부터 예측할 수 있다. 단, 상기 이웃 유닛들 중 동일 시점의 다른 시간대에 있는 유닛을 참조하는 이웃 유닛의 움직임 벡터는 0으로 셋팅한 뒤 이용될 수 있다.As a specific example, when only one neighboring unit of the neighboring units of the current unit M① refers to a unit at a different viewpoint, the view direction motion vector of the current unit M① may be predicted from the motion vector of the neighboring unit. have. And, when two or more neighboring units of the neighboring units of the current unit M① refer to a unit at a different point in time, the view direction motion vector of the current unit M① is determined from the median of the motion vectors of the neighboring units. It can be predicted. However, a motion vector of a neighboring unit that refers to a unit in another time zone at the same time point among the neighboring units may be used after setting to zero.

또한, 상기 이웃 유닛들이 모두 동일 시점의 다른 시간대에 있는 유닛을 참조하는 경우, 주변 인터뷰 참조 픽쳐의 대응 유닛의 움직임 벡터를 이용하여 현재 유닛의 시점 방향 움직임 벡터를 예측할 수 있다. 예를 들어, 현재 유닛(M①)이 복수개의 인터뷰 참조 픽쳐(②,③)를 참조하고 있을 때, 동일 시점의 시간 방향으로 가장 가까운 인터뷰 참조 픽쳐의 대응 유닛(M②)의 움직임 벡터(mv②_f)를 상기 현재 유닛(M①)의 시점 방향 움직임 벡터(mv①_f)로 예측할 수 있다. 이 때, 상기 인터뷰 참조 픽쳐의 대응 유닛(M②)의 위치는 상기 현재 유닛(M①)의 예측된 시간 방향 움직임 벡터(mv①'_f)에 의해 결정될 수 있다. 또한, 상기 인터뷰 참조 픽쳐의 대응 유닛은 상기 현재 유닛과 동일 위치에 있는 유닛일 수 있다. 또는 상기 인터뷰 참조 픽쳐의 대응 유닛은 상기 이웃 유닛의 시간 방향 움직임 벡터가 가리키는 위치에 존재하는 유닛일 수 있다.In addition, when the neighboring units all refer to units in different time zones at the same time, the motion vector of the corresponding unit of the neighboring interview reference picture may be used to predict the view direction motion vector of the current unit. For example, when the current unit M① refers to the plurality of interview reference pictures ② and ③, the motion vector mv②_f of the corresponding unit M② of the interview reference picture closest to each other in the time direction at the same time point is determined. It can be predicted by the view direction motion vector mv①_f of the current unit M①. In this case, the position of the corresponding unit M② of the interview reference picture may be determined by the predicted time direction motion vector mv①'_f of the current unit M①. In addition, the corresponding unit of the interview reference picture may be a unit in the same position as the current unit. Alternatively, the corresponding unit of the interview reference picture may be a unit existing at a position indicated by the temporal motion vector of the neighboring unit.

또한, 상기 실시예들의 경우, 현재 유닛의 블록 타입에 따라 양방향 예측을 수행하게 되는 경우에는 포워드, 백워드 방향 모두에 적용할 수 있음은 당연하다.In addition, in the above embodiments, when bidirectional prediction is performed according to the block type of the current unit, it may be applicable to both forward and backward directions.

이하에서는 현재 유닛에 이웃하는 유닛들로부터 시점 방향 움직임 벡터를 유 도하는 구체적인 방법들을 살펴보도록 한다.Hereinafter, specific methods of inducing a view direction motion vector from units neighboring the current unit will be described.

도 4는 본 발명이 적용되는 실시예로서, 현재 유닛에 이웃하는 유닛들로부터 시점 방향 움직임 벡터를 유도하는 방법을 설명하기 위해 나타낸 것이다.FIG. 4 is an embodiment to which the present invention is applied and shows a method of deriving a view direction motion vector from units neighboring a current unit.

인코더에서는 현재 유닛에 이웃하는 유닛의 움직임 정보를 이용하여, 현재 유닛의 움직임 정보를 예측하고, 실제 움직임 벡터와 예측된 움직임 벡터의 차이 값을 전송해주게 된다. 마찬가지로 디코더에서는, 현재 유닛이 참조하는 유닛의 참조 번호와 이웃 유닛이 참조하는 유닛의 참조 번호가 동일한지 여부를 판별하고 그에 따라서 움직임 벡터 예측값을 획득하게 된다. 예를 들어, 상기 이웃 유닛들 중에서 현재 유닛과 동일한 참조 번호를 가지는 유닛이 하나만 존재하는 경우에는 그 이웃 유닛의 움직임 벡터를 그대로 사용하고 그 이외의 경우에는 이웃 유닛들의 움직임 벡터들의 중간값(median value)을 사용할 수 있다.The encoder predicts motion information of the current unit by using motion information of a unit neighboring the current unit and transmits a difference value between the actual motion vector and the predicted motion vector. Similarly, the decoder determines whether the reference number of the unit referred to by the current unit and the reference number of the unit referred to by the neighboring unit are the same and obtains a motion vector prediction value accordingly. For example, when there is only one unit having the same reference number as the current unit among the neighboring units, the motion vector of the neighboring unit is used as it is. Otherwise, the median value of the motion vectors of the neighboring units is used. ) Can be used.

본 발명의 실시예로서, 현재 유닛에 이웃하는 유닛들의 움직임 벡터를 이용할 때, 상기 이웃 유닛이 파티션 유닛들로 구성되어 있는 경우 상기 이웃 유닛의 시점 방향 움직임 벡터를 결정하는 구체적인 실시예들을 설명하도록 한다.As an embodiment of the present invention, when using the motion vectors of the units neighboring the current unit, specific embodiments of determining the view direction motion vector of the neighboring unit when the neighboring unit is composed of partition units .

예를 들어, 상기 이웃 유닛이 파티션 유닛들로 구성되어 있는 경우 상기 이웃 유닛의 시점 방향 움직임 벡터를 결정할 때, 현재 유닛에 인접한 파티션 유닛의 움직임 벡터를 이용할 경우에 보다 정확한 예측을 할 수 있다. 상기 도 4를 살펴보면, 도 4(a)는 현재 유닛과 그에 이웃하는 유닛들을 나타낸다. 도 4(b)는 이웃 유닛(A)가 파티션 유닛들로 구성되어 있는 경우를 나타내고, 도 4(c)는 이웃 유닛(B)가 파티션 유닛들로 구성되어 있는 경우를 나타낸다. For example, when the neighboring unit is composed of partition units, when determining the view direction motion vector of the neighboring unit, when the motion vector of the partition unit adjacent to the current unit is used, more accurate prediction can be performed. Referring to FIG. 4, FIG. 4 (a) shows a current unit and neighboring units. 4 (b) shows a case where the neighboring unit A is composed of partition units, and FIG. 4 (c) shows a case where the neighboring unit B is composed of partition units.

구체적으로 예를 들어 설명하면, 16X16의 이웃 유닛(A)를 이용하게 되는 경우, 상기 이웃 유닛(A)가 4X4의 파티션 유닛들로 구성되어 있다고 가정하자. 이때, 현재 유닛(M)에 인접한 파티션 유닛의 움직임 벡터(dv0 또는 dv1)를 이용하여 상기 이웃 유닛(A)의 시점 방향 움직임 벡터를 정의할 수 있다. 예를 들어, 현재 유닛(M)에 인접한 파티션 유닛 중 시점 방향의 움직임 벡터를 갖는 파티션 유닛을 색칠되어 있는 유닛이라 가정하자. 상기 파티션이 4X4 유닛들로 이루어진 경우, 현재 유닛과 인접한 유닛들부터 이웃 시점에 있는 유닛을 참조하는지 확인할 수 있다. 따라서, 우측 상위에 있는 4X4 유닛의 움직임 벡터(dv0)가 이웃 시점에 있는 유닛을 참조하는 경우, 이웃 유닛(A)의 시점 방향 움직임 벡터(dvA)는 현재 유닛에 인접한 블록의 움직임 벡터(dv0)로 유도될 수 있다. 상기 우측 상위에 있는 움직임 벡터가 이웃 시점에 있는 유닛을 참조하지 않는다면, 우측 하단에 있는 4X4 유닛의 움직임 벡터(dv1)가 이웃 시점에 있는 유닛을 참조하는지를 확인할 수 있다. 상기 우측 하단에 있는 4X4 유닛의 움직임 벡터(dv1)가 이웃 시점에 있는 유닛을 참조하는 경우, 이웃 유닛(A)의 시점 방향 움직임 벡터(dvA)는 현재 유닛에 인접한 블록의 움직임 벡터(dv1)로 유도될 수 있다. 또는, 상기 현재 블록에 인접한 4X4 블록들이 모두 이웃 시점에 있는 유닛을 참조하지 않는 경우, 이웃 유닛(A)의 시점 방향 움직임 벡터(dvA)는 0으로 셋팅될 수 있다.In detail, for example, suppose that the neighboring unit A of 16 × 16 is used, and the neighboring unit A is composed of 4 × 4 partition units. At this time, the motion vector dv0 or dv1 of the partition unit adjacent to the current unit M may be used to define the view direction motion vector of the neighboring unit A. FIG. For example, assume that a partition unit having a motion vector in the view direction among the partition units adjacent to the current unit M is a colored unit. When the partition is composed of 4 × 4 units, it may be determined whether the neighboring unit refers to a unit located adjacent to the current unit. Therefore, when the motion vector dv0 of the 4X4 unit in the upper right refers to the unit at the neighboring viewpoint, the view direction motion vector dvA of the neighboring unit A is the motion vector dv0 of the block adjacent to the current unit. May be induced. If the motion vector on the upper right side does not refer to the unit at the neighboring viewpoint, it may be determined whether the motion vector dv1 of the 4 × 4 unit at the lower right refers to the unit at the neighboring viewpoint. When the motion vector dv1 of the 4X4 unit at the lower right refers to a unit at the neighboring viewpoint, the view direction motion vector dvA of the neighboring unit A is the motion vector dv1 of the block adjacent to the current unit. Can be induced. Alternatively, when the 4x4 blocks adjacent to the current block do not all refer to a unit at a neighboring viewpoint, the view direction motion vector dvA of the neighboring unit A may be set to zero.

마찬가지로, 이웃 유닛(B)를 이용하게 되는 경우, 현재 유닛(M)에 인접한 블록의 움직임 벡터를 이용하여 상기 이웃 유닛(B)의 시점 방향 움직임 벡터를 정의할 수 있다. 상기 이웃 유닛(A)를 이용하는 경우와 마찬가지로 현재 유닛(M)에 인 접한 파티션 유닛부터 우선적으로 이웃 시점에 있는 유닛을 참조하는지를 확인할 수 있다.Similarly, when the neighboring unit B is used, the view motion vector of the neighboring unit B may be defined using the motion vector of the block adjacent to the current unit M. FIG. As in the case of using the neighboring unit A, it may be determined whether the partition unit adjacent to the current unit M refers to a unit located in the neighboring viewpoint first.

또한, 이웃 유닛(C)를 이용하게 되는 경우, 상기 이웃 유닛(B)의 유도 과정과 유사한 방식을 적용할 수 있다. 다만, 상기 이웃 유닛(C)가 이용불가능한 경우, 예를 들어, 픽쳐의 오른쪽 끝에 위치하는 유닛일 경우, 현재 유닛(M)의 상위 좌측에 위치하는 유닛(D)의 움직임 벡터(dvD)를 이용할 수 있다. 또는, 상기 유닛(C)의 dv0와 dv1이 모두 이웃 시점에 있는 유닛을 참조하지 않는 경우, 이웃 유닛(D)의 시점 방향 움직임 벡터(dvD)를 이용할 수 있다. 마찬가지로, 상기 이웃 유닛(B)에서 적용했던 방법과 유사하게 적용할 수 있다.In addition, when using the neighboring unit (C), a similar method to the derivation process of the neighboring unit (B) can be applied. However, when the neighboring unit C is unavailable, for example, a unit located at the right end of the picture, the motion vector dvD of the unit D located at the upper left of the current unit M is used. Can be. Alternatively, when both dv0 and dv1 of the unit C do not refer to a unit at a neighboring viewpoint, the view direction motion vector dvD of the neighboring unit D may be used. Similarly, it can be applied similarly to the method applied in the neighboring unit (B).

이렇게 정의된 이웃 유닛들의 움직임 벡터를 이용하여 현재 유닛의 시점 방향 움직임 벡터를 유도할 수 있다. 이때, 현재 유닛의 시점 방향 움직임 벡터는 상기 이웃 유닛들의 움직임 벡터들의 중간값으로부터 유도될 수 있다.The motion vector of neighboring units defined as described above may be used to derive the view direction motion vector of the current unit. In this case, the view direction motion vector of the current unit may be derived from the median of the motion vectors of the neighboring units.

도 5는 본 발명이 적용되는 다른 실시예로서, 시점간 상관관계를 이용하여 현재 블록의 코딩 정보를 예측하는 방법을 설명하기 위해 나타낸 것이다.FIG. 5 is a diagram for describing a method of predicting coding information of a current block using inter-view correlation as another embodiment to which the present invention is applied.

현재 블록의 움직임 벡터를 예측하는 방법에 있어서, 현재 블록의 시점과 다른 시점에 존재하는 대응 블록을 찾아서 상기 대응 블록의 코딩 정보를 이용하여 상기 현재 블록의 코딩 정보를 예측할 수 있다. 먼저 현재 블록의 시점과 다른 시점에 존재하는 대응 블록을 찾는 방법에 대해서 살펴보도록 한다.In the method of predicting a motion vector of a current block, the corresponding block existing at a different point in time from the current block may be found and the coding information of the current block may be predicted using the coding information of the corresponding block. First, a method of finding a corresponding block existing at a different point in time from the current block will be described.

예를 들어, 대응 블록은 현재 블록의 시점 방향 움직임 벡터가 가리키는 블록일 수 있다. 여기서, 시점 방향의 움직임 벡터는 시점 간의 변이 차이를 나타내 는 벡터를 의미할 수 있고, 또는 글로벌 움직임 벡터를 의미할 수 있다. 여기서, 글로벌 움직임 벡터(global motion vector)의 의미에 대해서는 상기 도 3에서 설명한 바 있다. 또한, 상기 글로벌 움직임 벡터는 현재 블록과 동일한 시간상에 있는 이웃 시점의 대응되는 블록 위치(corresponding macroblock position of neighboring view on the same temporal instant)를 가리킬 수 있다. 상기 도 5를 살펴보면, 픽쳐 A,B는 Ta시간에, 픽쳐 C,D는 Tcurr 시간에, 픽쳐 E,F는 Tb시간에 존재한다. 이때, Ta,Tb시간에 있는 상기 픽쳐 A,B,E,F는 인터뷰 픽쳐 그룹일 수 있고, Tcurr시간에 있는 상기 픽쳐 C,D는 넌-인터뷰 픽쳐 그룹일 수 있다. 그리고, 픽쳐 A,C,E는 동일한 시점(Vn)상에 존재하며, 픽쳐 B,D,F도 동일한 시점(Vm)상에 존재한다. 픽쳐 C가 현재 복호화하려는 픽쳐이며, 픽쳐 D의 대응 매크로블록(corresponding MB)은 현재 블록(current MB)의 시점 방향의 글로벌 움직임 벡터(GDVcurr)가 가리키는 블록이다. 상기 상기 글로벌 움직임 벡터는 현재 픽쳐와 이웃 시점에 있는 픽쳐 사이의 매크로블록 단위로 획득될 수 있다. 이 때 상기 이웃 시점에 관한 정보는 시점간 참조 관계를 나타내는 정보에 의해 알 수 있다. For example, the corresponding block may be a block indicated by the view motion vector of the current block. Herein, the motion vector in the view direction may mean a vector representing a difference between views, or may mean a global motion vector. Here, the meaning of the global motion vector has been described with reference to FIG. 3. In addition, the global motion vector may indicate a corresponding macroblock position of neighboring view on the same temporal instant at the same time as the current block. Referring to FIG. 5, pictures A and B exist in Ta time, pictures C and D in Tcurr time, and pictures E and F in Tb time. In this case, the pictures A, B, E, and F in Ta and Tb may be interview picture groups, and the pictures C and D in Tcurr time may be non-interview picture groups. Pictures A, C, and E exist on the same viewpoint Vn, and pictures B, D, and F also exist on the same viewpoint Vm. Picture C is a picture to be currently decoded, and a corresponding macroblock (corresponding MB) of picture D is a block indicated by a global motion vector (GDVcurr) in the view direction of the current block (current MB). The global motion vector may be obtained in a macroblock unit between a current picture and a picture at a neighbor view. In this case, the information on the neighbor viewpoint may be known by information indicating a reference relation between viewpoints.

시점간 참조 관계(view dependency)를 나타내는 정보란, 시점간 영상들이 어떠한 구조로 예측되었는지를 알 수 있는 정보를 말한다. 이는 비디오 신호의 데이터 영역로부터 획득될 수 있는데, 예를 들어, 시퀀스 파라미터 셋 영역으로부터 획득될 수 있다. 또한, 상기 시점간 참조 정보는 참조 픽쳐의 개수와 참조 픽쳐의 시점 정보를 이용하여 파악할 수 있다. 예를 들어, 먼저 전체 시점의 개수를 획득하고, 상기 전체 시점의 개수에 근거하여 각 시점을 구별하는 시점 정보를 파악할 수 있다. 그리고, 각 시점마다 참조 방향에 대한 참조 픽쳐의 개수를 획득할 수 있다. 상기 참조 픽쳐의 개수에 따라 각 참조 픽쳐의 시점 정보를 획득할 수 있다. 이러한 방식을 통해서 시점간 참조 정보가 획득될 수 있으며, 상기 시점간 참조 정보는 인터뷰 픽쳐 그룹일 경우와 넌-인터뷰 픽쳐 그룹일 경우로 나누어서 파악될 수 있다. 이는 현재 NAL에 있는 코딩된 슬라이스가 인터뷰 픽쳐 그룹인지 여부를 나타내는 인터뷰 픽쳐 그룹 식별 정보를 이용하여 알 수 있다.The information representing the view dependency between views refers to information that knows what structure the images between views are predicted. This may be obtained from the data region of the video signal, for example from the sequence parameter set region. The inter-view reference information may be determined using the number of reference pictures and the view information of the reference picture. For example, first, the number of all viewpoints may be obtained, and viewpoint information for distinguishing each viewpoint may be determined based on the number of all viewpoints. In addition, the number of reference pictures with respect to the reference direction may be obtained at each viewpoint. View information of each reference picture may be obtained according to the number of the reference pictures. In this manner, inter-view reference information may be obtained, and the inter-view reference information may be identified by being divided into an interview picture group and a non-interview picture group. This can be known using the interview picture group identification information indicating whether the coded slice currently in the NAL is an interview picture group.

상기 인터뷰 픽쳐 그룹 식별 정보에 따라 상기 글로벌 움직임 벡터를 획득하는 방법이 다를 수 있다. 예를 들어, 현재 픽쳐가 인터뷰 픽쳐 그룹일 경우에는 수신된 비트스트림으로부터 상기 글로벌 움직임 벡터를 획득할 수 있다. 현재 픽쳐가 넌-인터뷰 픽쳐 그룹일 경우에는 상기 인터뷰 픽쳐 그룹의 글로벌 움직임 벡터로부터 유도할 수 있다.The method of acquiring the global motion vector may vary according to the interview picture group identification information. For example, when the current picture is an interview picture group, the global motion vector may be obtained from the received bitstream. When the current picture is a non-interview picture group, the current picture may be derived from the global motion vector of the interview picture group.

이 때, 상기 인터뷰 픽쳐 그룹의 글로벌 움직임 벡터 외에 시간 거리를 나타내는 정보도 함께 이용할 수 있다. 예를 들어, 상기 도 5를 살펴보면, 픽쳐 A의 글로벌 움직임 벡터를 GDVa라 하고, 픽쳐 E의 글로벌 움직임 벡터를 GDVb라 하면, 넌-인터뷰 픽쳐 그룹인 현재 픽쳐 C의 글로벌 움직임 벡터는 상기 인터뷰 픽쳐 그룹인 픽쳐 A,E의 글로벌 움직임 벡터와 시간 거리 정보를 이용하여 획득할 수 있다. 예를 들어, 상기 시간 거리 정보로는 픽쳐 출력 순서를 나타내는 POC(Picture Order Count)일 수 있다. 따라서, 상기 현재 픽쳐의 글로벌 움직임 벡터는 아래 수학식 3을 이용하여 유도할 수 있다.In this case, in addition to the global motion vector of the interview picture group, information indicating a time distance may be used together. For example, referring to FIG. 5, when the global motion vector of Picture A is called GDVa and the global motion vector of Picture E is called GDVb, the global motion vector of the current picture C, which is a non-interview picture group, is the interview picture group. It can be obtained using the global motion vector and time distance information of the in-picture A and E. For example, the time distance information may be a picture order count (POC) indicating a picture output order. Therefore, the global motion vector of the current picture can be derived using Equation 3 below.

이렇게 유도된 현재 픽쳐의 글로벌 움직임 벡터가 가리키는 블록을 상기 현 재 블록의 코딩 정보를 예측하기 위한 대응 블록으로 볼 수 있다.The block indicated by the global motion vector of the current picture thus derived can be regarded as a corresponding block for predicting coding information of the current block.

상기 대응 블록의 모든 움직임 정보와 모드 정보는 상기 현재 블록의 코딩 정보를 예측하기 위해 이용될 수 있다. 상기 코딩 정보는 움직임 정보, 조명 보상(illumination compensation)에 관한 정보, 가중치 예측 정보 등 현재 블록을 코딩하기 위해 필요한 다양한 정보를 포함할 수 있다. 현재 매크로블록에 모션 스킵 모드가 적용되는 경우에는 상기 현재 매크로블록의 움직임 정보를 코딩하지 않고, 이미 코딩된 다른 시점에 있는 픽쳐의 움직임 정보를 상기 현재 매크로블록의 움직임 정보로 그대로 이용할 수 있다. 여기서, 모션 스킵 모드란 이웃 시점에 있는 대응 블록의 움직임 정보에 의존하여 현재 블록의 움직임 정보를 획득하는 경우를 포함한다. 예를 들어, 현재 매크로블록에 모션 스킵 모드가 적용되는 경우, 상기 대응 블록의 모든 움직임 정보, 예를 들어, 매크로블록 타입, 참조 인덱스(reference index), 움직임 벡터 등을 그대로 현재 매크로블록의 움직임 정보로 활용할 수 있다. 다만, 상기 모션 스킵 모드는 다음과 같은 경우에는 적용되지 않을 수 있다. 예를 들어, 현재 픽쳐가 기존 코덱과 호환가능한 기준 시점에 있는 픽쳐인 경우이거나, 또는 인터뷰 픽쳐 그룹인 경우를 들 수 있다. 그리고, 상기 모션 스킵 모드는 이웃 시점에 대응 블록이 존재하고, 상기 대응 블록이 인터 예측 모드로 코딩된 경우에 적용될 수 있다. 또한, 상기 모션 스킵 모드가 적용되는 경우에는 상기 시점간 참조 정보에 따라, 먼저 List0 참조 픽쳐의 움직임 정보를 이용하고, 필요한 경우에는 List1 참조 픽쳐의 움직임 정보도 이용할 수 있다.All motion information and mode information of the corresponding block may be used to predict coding information of the current block. The coding information may include various information necessary for coding the current block, such as motion information, information on illumination compensation, and weight prediction information. When the motion skip mode is applied to the current macroblock, the motion information of a picture that is already coded at another point in time may be used as the motion information of the current macroblock without coding the motion information of the current macroblock. In this case, the motion skip mode includes a case of acquiring motion information of a current block based on motion information of a corresponding block at a neighbor view. For example, when the motion skip mode is applied to the current macroblock, all the motion information of the corresponding block, for example, the macroblock type, the reference index, the motion vector, etc., are used as the motion information of the current macroblock. Can be utilized as However, the motion skip mode may not be applied in the following cases. For example, the current picture may be a picture at a reference point compatible with an existing codec, or an interview picture group. The motion skip mode may be applied to a case where a corresponding block exists in a neighbor view and the corresponding block is coded in an inter prediction mode. When the motion skip mode is applied, first, motion information of the List0 reference picture may be used according to the inter-view reference information, and motion information of the List1 reference picture may be used if necessary.

이상에서 설명한 바와 같이, 본 발명이 적용되는 디코딩/인코딩 장치는 DMB(Digital Multimedia Broadcasting)과 같은 멀티미디어 방송 송/수신 장치에 구비되어, 비디오 신호 및 데이터 신호 등을 복호화하는데 사용될 수 있다. 또한 상기 멀티미디어 방송 송/수신 장치는 이동통신 단말기를 포함할 수 있다.As described above, the decoding / encoding device to which the present invention is applied may be provided in a multimedia broadcasting transmission / reception device such as digital multimedia broadcasting (DMB), and may be used to decode a video signal and a data signal. In addition, the multimedia broadcasting transmission / reception apparatus may include a mobile communication terminal.

또한, 본 발명이 적용되는 디코딩/인코딩 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유/무선 통신망을 이용해 전송될 수 있다.In addition, the decoding / encoding method to which the present invention is applied may be stored in a computer-readable recording medium that is produced as a program for execution on a computer, and multimedia data having a data structure according to the present invention may also be read by a computer. It can be stored in the recording medium. The computer readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. In addition, the bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted using a wired / wireless communication network.

도 1은 본 발명이 적용되는 비디오 신호 디코딩 장치의 개략적인 블록도를 나타낸다.1 is a schematic block diagram of a video signal decoding apparatus to which the present invention is applied.

도 2는 본 발명이 적용되는 실시예로서, 모션 스킵 여부에 따라 움직임 보상을 수행하는 방법을 설명하기 위한 블록도를 나타낸다.2 is a block diagram illustrating a method of performing motion compensation according to whether to skip motion according to an embodiment to which the present invention is applied.

도 3은 본 발명이 적용되는 실시예로서, 현재 유닛의 움직임 정보를 예측하는 방법을 설명하기 위해 나타낸 것이다.3 is an embodiment to which the present invention is applied and is shown to explain a method of predicting motion information of a current unit.

도 4는 본 발명이 적용되는 실시예로서, 현재 유닛에 이웃하는 유닛들로부터 시점 방향 움직임 벡터를 유도하는 방법을 설명하기 위해 나타낸 것이다.FIG. 4 is an embodiment to which the present invention is applied and shows a method of deriving a view direction motion vector from units neighboring a current unit.

도 5는 본 발명이 적용되는 다른 실시예로서, 시점간 상관관계를 이용하여 현재 블록의 코딩 정보를 예측하는 방법을 설명하기 위해 나타낸 것이다.FIG. 5 is a diagram for describing a method of predicting coding information of a current block using inter-view correlation as another embodiment to which the present invention is applied.

Claims (15)

현재 블록의 움직임 정보를 유도할지 여부를 판별하는 단계;Determining whether to derive motion information of the current block; 상기 현재 블록의 움직임 정보를 유도하게 되는 경우, 상기 현재 블록에 이웃하는 블록의 움직임 정보를 이용하여 상기 현재 블록의 움직임 정보를 유도하는 단계; 및When the motion information of the current block is derived, deriving motion information of the current block by using motion information of a block neighboring the current block; And 상기 유도된 현재 블록의 움직임 정보를 이용하여 움직임 보상을 수행하는 단계Performing motion compensation using the derived motion information of the current block 를 포함하되,Including but not limited to: 상기 이웃 블록의 움직임 정보를 이용할 때, 이웃 블록이 다른 시점에 있는 픽쳐를 참조하는지 여부를 확인하는 것을 특징으로 하는 비디오 신호 디코딩 방법.When using the motion information of the neighboring block, it is determined whether the neighboring block refers to a picture at a different point in time. 제 1항에 있어서,The method of claim 1, 상기 이웃 블록이 다른 시점에 있는 픽쳐를 참조하는지 여부를 확인한 결과, 하나의 이웃 블록만이 다른 시점에 있는 픽쳐를 참조하는 경우, 상기 이웃 블록의 움직임 벡터를 상기 현재 블록의 시점 방향 움직임 벡터로 예측하는 것을 특징으로 하는 비디오 신호 디코딩 방법.As a result of checking whether the neighboring block refers to a picture at another viewpoint, when only one neighboring block refers to a picture at another viewpoint, the motion vector of the neighboring block is predicted as the view motion vector of the current block. Video signal decoding method characterized in that. 제 1항에 있어서,The method of claim 1, 상기 이웃 블록이 다른 시점에 있는 픽쳐를 참조하는지 여부를 확인한 결과, 2이상의 이웃 블록이 다른 시점에 있는 픽쳐를 참조하는 경우, 상기 이웃 블록들의 움직임 벡터들의 중간값을 상기 현재 블록의 시점 방향 움직임 벡터로 예측하는 것을 특징으로 하는 비디오 신호 디코딩 방법.As a result of checking whether the neighboring block refers to a picture at a different point in time, when two or more neighboring blocks refer to a picture at a different point in time, the median value of the motion vectors of the neighboring blocks is determined as the motion direction vector of the current block. The video signal decoding method characterized in that the prediction. 제 3항에 있어서,The method of claim 3, wherein 상기 이웃 블록들 중 동일 시점의 다른 시간대에 있는 픽쳐를 참조하는 이웃 블록이 존재하는 경우에는, 상기 이웃 블록의 움직임 벡터는 0으로 셋팅하는 것을 특징으로 하는 비디오 신호 디코딩 방법.If there is a neighboring block referring to a picture in a different time zone at the same time point among the neighboring blocks, the motion vector of the neighboring block is set to zero. 제 1항에 있어서,The method of claim 1, 상기 이웃 블록들이 모두 동일 시점의 다른 시간대에 있는 픽쳐를 참조하는 경우, 인터뷰 픽쳐 그룹의 움직임 벡터를 이용하여 상기 현재 블록의 시점 방향 움직임 벡터를 예측하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And when the neighboring blocks all refer to pictures in different time zones at the same time point, predicting the view direction motion vector of the current block by using the motion vector of the interview picture group. 제 5항에 있어서,The method of claim 5, 상기 인터뷰 픽쳐 그룹이 복수개일 경우, 상기 현재 블록과 시간상으로 가장 가까운 곳에 위치하는 인터뷰 픽쳐 그룹 내 대응 블록의 움직임 벡터가 이용되는 것을 특징으로 하는 비디오 신호 디코딩 방법.And when there are a plurality of interview picture groups, a motion vector of a corresponding block in the interview picture group located closest in time to the current block is used. 제 5항에 있어서,The method of claim 5, 상기 대응 블록은 상기 현재 블록과 동일 위치에 있는 블록인 것을 특징으로 하는 비디오 신호 디코딩 방법.And the corresponding block is a block in the same position as the current block. 제 5항에 있어서,The method of claim 5, 상기 대응 블록은 상기 이웃 블록의 시간 방향 움직임 벡터가 가리키는 위치에 존재하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And wherein the corresponding block is present at a position indicated by a temporal motion vector of the neighboring block. 제 1항에 있어서,The method of claim 1, 상기 이웃 블록들이 모두 동일 시점의 다른 시간대에 있는 픽쳐를 참조하고 상기 현재 블록은 인터뷰 픽쳐 그룹을 참조하지 않는 경우, 상기 현재 블록의 시점 방향 움직임 벡터는 0으로 셋팅하는 것을 특징으로 하는 비디오 신호 디코딩 방법.When the neighboring blocks all refer to pictures in different time zones at the same time and the current block does not refer to the interview picture group, the video motion decoding method of the current block is set to 0. . 제 1항에 있어서,The method of claim 1, 상기 이웃 블록이 파티션으로 분할되어 있는 경우, 상기 현재 블록에 인접한 파티션 블록의 움직임 벡터를 이용하여 상기 이웃 블록의 움직임 벡터로 셋팅하는 단계를 더 포함하되,If the neighboring block is divided into partitions, the method may further include setting a motion vector of the neighboring block by using a motion vector of a partition block adjacent to the current block. 상기 현재 블록의 움직임 정보는 상기 이웃 블록의 셋팅된 움직임 벡터로부터 유도되는 것을 특징으로 하는 비디오 신호 디코딩 방법.Motion information of the current block is derived from the set motion vector of the neighboring block. 제 10항에 있어서,The method of claim 10, 상기 이웃 블록들의 셋팅된 움직임 벡터들의 중간값을 상기 현재 블록의 시점 방향 움직임 벡터로 예측하는 것을 특징으로 하는 비디오 신호 디코딩 방법.And predicting an intermediate value of the set motion vectors of the neighboring blocks as a view motion vector of the current block. 현재 블록의 움직임 정보를 유도할지 여부를 판별하는 모션 스킵 판별부;A motion skip determination unit for determining whether to derive motion information of the current block; 상기 현재 블록의 움직임 정보를 유도하게 되는 경우, 상기 현재 블록에 이웃하는 블록의 움직임 정보를 이용하여 상기 현재 블록의 움직임 정보를 유도하는 움직임 정보 유도부 및A motion information derivation unit for deriving motion information of the current block by using motion information of a block neighboring the current block when deriving motion information of the current block; 상기 유도된 현재 블록의 움직임 정보를 이용하여 움직임 보상을 수행하는 움직임 보상부Motion compensation unit for performing motion compensation using the derived motion information of the current block 를 포함하되,Including but not limited to: 상기 이웃 블록의 움직임 정보를 이용할 때, 이웃 블록이 다른 시점에 있는 픽쳐를 참조하는지 여부를 확인하는 것을 특징으로 하는 비디오 신호 디코딩 장치.And using the motion information of the neighboring block, checking whether the neighboring block refers to a picture at a different point in time. 제 1항에 있어서,The method of claim 1, 상기 비디오 신호는, 방송 신호로서 수신된 것임을 특징으로 하는 방법.The video signal is received as a broadcast signal. 제 1항에 있어서,The method of claim 1, 상기 비디오 신호는, 디지털 미디엄을 통해 수신된 것임을 특징으로 하는 방법.And the video signal is received via digital medium. 제 1항에 기재된 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체.A computer-readable medium having recorded thereon a program for executing the method of claim 1.
KR1020070137657A 2006-12-26 2007-12-26 A method and apparatus for decoding a video signal KR20080060188A (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US87194206A 2006-12-26 2006-12-26
US60/871,942 2006-12-26
US88452707A 2007-01-11 2007-01-11
US60/884,527 2007-01-11
US88491607A 2007-01-15 2007-01-15
US60/884,916 2007-01-15

Publications (1)

Publication Number Publication Date
KR20080060188A true KR20080060188A (en) 2008-07-01

Family

ID=39812813

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070137657A KR20080060188A (en) 2006-12-26 2007-12-26 A method and apparatus for decoding a video signal

Country Status (1)

Country Link
KR (1) KR20080060188A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014042459A1 (en) * 2012-09-17 2014-03-20 엘지전자 주식회사 Method and apparatus for processing video signal
WO2014054896A1 (en) * 2012-10-07 2014-04-10 엘지전자 주식회사 Method and device for processing video signal
US8849048B2 (en) 2010-11-12 2014-09-30 Samsung Electronics Co., Ltd. Apparatus for decoding image data based on availability of reference data and method thereof
WO2016148513A1 (en) * 2015-03-19 2016-09-22 엘지전자 주식회사 Method for processing video signal and device therefor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8849048B2 (en) 2010-11-12 2014-09-30 Samsung Electronics Co., Ltd. Apparatus for decoding image data based on availability of reference data and method thereof
WO2014042459A1 (en) * 2012-09-17 2014-03-20 엘지전자 주식회사 Method and apparatus for processing video signal
US9781442B2 (en) 2012-09-17 2017-10-03 Lg Electronics Inc. Method and apparatus for processing video signal
WO2014054896A1 (en) * 2012-10-07 2014-04-10 엘지전자 주식회사 Method and device for processing video signal
US10171836B2 (en) 2012-10-07 2019-01-01 Lg Electronics Inc. Method and device for processing video signal
WO2016148513A1 (en) * 2015-03-19 2016-09-22 엘지전자 주식회사 Method for processing video signal and device therefor
US10390022B2 (en) 2015-03-19 2019-08-20 Lg Electronics Inc. Method for processing video signal and device therefor

Similar Documents

Publication Publication Date Title
KR101370919B1 (en) A method and apparatus for processing a signal
US11190795B2 (en) Method and an apparatus for processing a video signal
KR100943913B1 (en) Method and apparatus for processing multiview video
KR20090113281A (en) A method and an apparatus for processing a video signal
CN101617537A (en) Be used to handle the method and apparatus of vision signal
KR20150109282A (en) A method and an apparatus for processing a multi-view video signal
KR20110093792A (en) Method and device for processing a video signal using inter-view prediction
CN105122812A (en) Advanced merge mode for three-dimensional (3d) video coding
KR20100014553A (en) A method and an apparatus for decoding/encoding a video signal
KR20150110357A (en) A method and an apparatus for processing a multi-view video signal
EP2207356A1 (en) Method and apparatus for video coding using large macroblocks
KR20150043319A (en) Method and device for processing video signal
KR20080060188A (en) A method and apparatus for decoding a video signal
KR20080006494A (en) A method and apparatus for decoding a video signal
KR101366289B1 (en) A method and apparatus for decoding/encoding a video signal
KR101276847B1 (en) Processing multiview video
KR20080050349A (en) A method and apparatus for decoding a video signal
KR20080029788A (en) A method and apparatus for decoding a video signal
WO2009139569A2 (en) Method and apparatus for decoding video signal
KR20080007177A (en) A method and apparatus for processing a video signal

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination