KR101276847B1 - Processing multiview video - Google Patents

Processing multiview video Download PDF

Info

Publication number
KR101276847B1
KR101276847B1 KR1020087019748A KR20087019748A KR101276847B1 KR 101276847 B1 KR101276847 B1 KR 101276847B1 KR 1020087019748 A KR1020087019748 A KR 1020087019748A KR 20087019748 A KR20087019748 A KR 20087019748A KR 101276847 B1 KR101276847 B1 KR 101276847B1
Authority
KR
South Korea
Prior art keywords
block
value
current block
delete delete
neighboring
Prior art date
Application number
KR1020087019748A
Other languages
Korean (ko)
Other versions
KR20080094048A (en
Inventor
양정휴
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020060037773A external-priority patent/KR20070076356A/en
Priority claimed from KR1020060110338A external-priority patent/KR20070076392A/en
Priority claimed from KR1020060110337A external-priority patent/KR20070076391A/en
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority claimed from PCT/KR2007/000225 external-priority patent/WO2007081176A1/en
Publication of KR20080094048A publication Critical patent/KR20080094048A/en
Application granted granted Critical
Publication of KR101276847B1 publication Critical patent/KR101276847B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/187Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scalable video layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • H04N19/197Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters including determination of the initial value of an encoding parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 수신하는 단계와, 상기 다시점 비디오 신호의 부분과 관련된 플래그 정보를 상기 비트스트림으로부터 추출하는 단계 및 상기 플래그 정보에 따라 조명 보상이 수행되는 부분에 대해, 상기 부분 내의 세그먼트와 관련된 값을 상기 비트스트림으로부터 추출하고, 상기 추출된 값으로부터 상기 세그먼트의 조명 보상이 수행되는지 여부를 결정하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하고, 상기 플래그 정보는 상기 다시점 비디오 신호의 부분 내의 세그먼트들에 대해 조명 보상이 수행되는지 여부를 나타내는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법을 제공한다.The present invention is directed to a method comprising: receiving a bitstream in which a plurality of viewpoints of a multiview video signal are encoded, extracting flag information related to a portion of the multiview video signal from the bitstream, and lighting compensation according to the flag information For this performed portion, extracting a value associated with a segment in the portion from the bitstream and determining whether illumination compensation of the segment is performed from the extracted value, wherein each of the plurality of views The view includes a plurality of pictures divided into a plurality of segments, wherein the flag information indicates whether illumination compensation is performed on segments within a portion of the multiview video signal. To provide.

비디오, 다시점, 프로파일 Video, multi-view, profile

Description

다시점 비디오의 처리{PROCESSING MULTIVIEW VIDEO}Processing of multiview video {PROCESSING MULTIVIEW VIDEO}

본 발명은 다시점 비디오의 처리에 관한 것이다.The present invention relates to the processing of multiview video.

MVC(Multiview Video Coding)에서는 여러 대의 카메라에서 취득된 비디오 영상(예를 들어, 일련의 이미지들 또는 픽쳐들)에 대한 압축 표준을 다룬다. 상기 비디오 영상 또는 시점들은 MPEG과 같은 표준에 따라 코딩될 수 있다. 비디오 영상 내의 픽쳐는 완전한 비디오 프레임 또는 비디오 프레임의 필드를 나타낼 수 있다. 슬라이스는 상기 픽쳐 내의 일부 또는 모든 매크로블록들을 포함하는 픽쳐의 독립적으로 코딩된 부분일 수 있다. 그리고, 매크로블록은 픽쳐 요소들(또는 픽셀들)로 구성된 블록들을 포함할 수 있다.Multiview Video Coding (MVC) deals with compression standards for video images (eg, a series of images or pictures) acquired from multiple cameras. The video image or viewpoints may be coded according to a standard such as MPEG. The picture in the video image may represent a complete video frame or a field of video frames. A slice may be an independently coded portion of a picture that includes some or all macroblocks within the picture. In addition, the macroblock may include blocks composed of picture elements (or pixels).

상기 비디오 영상들은 H.264/AVC 코덱 기술에 따라 다시점 비디오 영상으로 코딩될 수 있다. 그리고, 많은 연구원들이 다시점 비디오 영상들을 제공하기 위해 표준의 추가 기술로 연구를 수행하고 있다. The video images may be coded as multi-view video images according to the H.264 / AVC codec technology. In addition, many researchers are working with standard additional techniques to provide multi-view video images.

현재 H.264에는 특정한 기능을 지원하는 세 개의 프로파일이 정의되어 있는데, 프로파일(Profile)이란 비디오 부호화/복호화 과정에서 알고리즘상 들어가는 기술적 구성요소를 규격화한 것을 의미한다. 즉, 압축된 영상의 비트열을 복호하기 위해 필요한 기술요소의 집합으로서 일종의 서브 규격이라 할 수 있다. 상기 세 개 의 프로파일은 베이스라인 프로파일(Baseline Profile), 메인 프로파일(Main Profile), 확장 프로파일(Extended Profile)을 말한다. 디코더가 각각의 프로파일과 호환되기 위해서, 인코더와 디코더에 요구되는 다양한 사항들이 H.264 표준에서 정의되어 있다.Currently, H.264 defines three profiles that support specific functions. Profile refers to the standardization of technical components that enter algorithms during video encoding / decoding. In other words, it is a kind of sub-standard that is a set of description elements necessary for decoding a bit string of a compressed image. The three profiles refer to a baseline profile, a main profile, and an extended profile. In order for the decoder to be compatible with each profile, various requirements for the encoder and decoder are defined in the H.264 standard.

H.264/AVC 에서의 비트열의 구성을 살펴보면, 동영상 부호화 처리 그 자체를 다루는 VCL(Video Coding Layer, 비디오 부호화 계층)과 부호화된 정보를 전송하고 저장하는 하위 시스템과의 사이에 있는 NAL(Network Abstraction Layer, 네트워크 추상 계층)이라는 분리된 계층 구조로 정의되어 있다. 부호화 과정의 출력은 VCL 데이터이고 전송하거나 저장하기 전에 NAL 단위로 맵핑된다. 각 NAL 단위는 압축된 비디오 데이터 또는 헤더 정보에 해당하는 데이터인 RBSP(Raw Byte Sequence Payload, 동영상 압축의 결과데이터)를 포함한다.Looking at the structure of the bit stream in H.264 / AVC, the network abstraction between the video coding layer (VCL) that deals with the video encoding process itself and the subsystem that transmits and stores the encoded information Layer, which is defined as a separate hierarchical structure. The output of the encoding process is VCL data and is mapped in units of NAL before transmission or storage. Each NAL unit includes raw video sequence payload (RBSP), which is data corresponding to compressed video data or header information.

NAL 단위는 NAL헤더와 RBSP를 포함한다. 상기 NAL 헤더는 플래그 정보(예를 들어, nal_ref_idc)와 식별(ID) 정보(예를 들어, nal_unit_type)를 포함할 수 있다. 상기 플래그 정보는 상기 NAL 단위의 참조 픽처가 되는 슬라이스가 포함되어 있는지 여부를 나타내고, 상기 식별 정보는 NAL 단위의 종류를 나타낸다. RBSP 에는 압축된 원본의 데이터를 저장하며, RBSP 의 길이를 8비트의 배수로 표현하기 위해 RBSP 의 마지막에 RBSP 채워넣기 비트(RBSP trailing bit)를 첨가한다.NAL unit includes NAL header and RBSP. The NAL header may include flag information (eg, nal_ref_idc) and identification (ID) information (eg, nal_unit_type). The flag information indicates whether a slice serving as a reference picture of the NAL unit is included, and the identification information indicates the type of the NAL unit. The RBSP stores the compressed original data and adds an RBSP trailing bit at the end of the RBSP to express the length of the RBSP in multiples of 8 bits.

이러한 NAL 단위의 종류에는 IDR (Instantaneous Decoding Refresh, 순간 복호 리프레쉬) 픽쳐, SPS (Sequence Parameter Set, 시퀀스 파라미터 세트), PPS (Picture Parameter Set, 픽쳐 파라미터 세트), SEI (Supplemental Enhancement Information, 보충적 부가정보) 등이 있다.These NAL unit types include Instantaneous Decoding Refresh (IDR) pictures, Sequence Parameter Set (SPS), Picture Parameter Set (PPS), and Supplemental Enhancement Information (SEI). Etc.

또한, 규격에서는 대상 제품을 적당한 비용으로 구현 가능하도록 여러 가지 프로파일 및 레벨로 제약하고 있는데, 복호기는 해당 프로파일과 레벨에서 정해진 제약을 만족시켜야 한다. In addition, the specification restricts the product to various profiles and levels so that the target product can be implemented at a reasonable cost. The decoder must satisfy the constraints defined in the profile and level.

이처럼 복호기가 어떤 압축 영상의 범위까지 대응할 수 있는지 그 기능 또는 파라미터를 나타내기 위해 프로파일과 레벨이라는 두 가지의 개념이 정의되었다. 비트스트림이 어떤 프로파일에 기초하는 것인가는 프로파일 식별 정보(profile_idc)로 식별할 수 있다. 프로파일 식별 정보란, 비트스트림에 관련된 프로파일을 나타내는 플래그를 의미한다. H.264/AVC 표준은 3가지 프로파일 식별정보를 포함할 수 있다. 예를 들어, 상기 프로파일 식별 정보가 66 이면 상기 비트스트림은 베이스라인 프로파일에 기초함을 의미하고, 77 이면 메인 프로파일에 기초함을 의미하며, 88 이면 확장 프로파일에 기초함을 의미한다. 상기 프로파일 식별 정보는 시퀀스 파라미터 세트에 포함될 수 있다.As such, two concepts, profile and level, have been defined to represent the function or parameter of a compressed video range. Which profile the bitstream is based on may be identified by profile identification information profile_idc. The profile identification information means a flag indicating a profile related to the bitstream. The H.264 / AVC standard may include three profile identifications. For example, if the profile identification information is 66, the bitstream means that the bitstream is based on a baseline profile, if 77, which means that the bitstream is based on the main profile, and if it is 88, it means based on the extended profile. The profile identification information may be included in a sequence parameter set.

다시점(multiview) 영상을 효율적으로 다루기 위해서는, 디코딩 장치가 입력 비트스트림이 다시점 프로파일(Multiview Profile)에 관련되어 있는지 여부를 결정하도록 하는 정보를, 상기 입력 비트스트림은 포함할 수 있다. 상기 입력 비트스트림이 다시점 프로파일과 관련되어 있는 것으로 식별되면 다시점 영상에 대한 하나 이상의 추가 정보를 전송할 수 있도록 신택스를 추가할 필요가 있다. 여기서 다시점 프로파일 식별 정보란, H.264/AVC의 추가 기술로서 다시점 비디오(multiview video)를 다루는 프로파일 모드(profile mode)를 나타낼 수 있다.In order to efficiently handle a multiview image, the input bitstream may include information for causing a decoding device to determine whether an input bitstream is related to a multiview profile. If the input bitstream is identified as being associated with a multiview profile, it may be necessary to add a syntax to transmit one or more additional information about the multiview image. Here, the multiview profile identification information may indicate a profile mode that handles multiview video as an additional technique of H.264 / AVC.

MVC 기술은 H.264/AVC 기술에 대한 추가 기술이므로 무조건적인 신택스보다는 MVC 모드인 경우에 대한 추가 정보로서 신택스를 추가하는 것이 더 효율적일 수 있다. 예를 들어, AVC의 프로파일 식별자가 다시점 프로파일을 나타낼 때 다시점 영상에 대한 정보를 추가하면 부호화 효율을 높일 수 있다. Since MVC technology is an additional technology to H.264 / AVC technology, it may be more efficient to add syntax as additional information for MVC mode than unconditional syntax. For example, when the profile identifier of the AVC indicates a multi-view profile, adding information about the multi-view image may increase encoding efficiency.

시퀀스 파라미터 세트란, 프로파일, 레벨 등 시퀀스 전체의 부호화에 걸쳐있는 정보가 포함되어 있는 헤더 정보를 말한다. The sequence parameter set refers to header information that includes information that covers the entire sequence, such as profile and level.

압축된 동영상 전체, 즉 시퀀스는 반드시 시퀀스 헤더로부터 시작하여야 하므로 헤더 정보에 상당하는 시퀀스 파라미터 세트는 그 파라미터 세트를 참조하는 데이터보다 먼저 복호기에 도착하여야 한다. 시퀀스 파라미터 세트 RBSP (도 2의 S1)는 동영상 압축의 결과 데이터에 대한 헤더 정보로써의 역할을 한다. 비트스트림이 입력되면, 먼저 프로파일 식별자는 입력된 비트스트림이 복수개의 프로파일 중에서 어떤 프로파일에 기초하는 것인지를 식별하게 된다. Since the entire compressed video, i.e., the sequence, must start from the sequence header, the sequence parameter set corresponding to the header information must arrive at the decoder before the data referring to the parameter set. The sequence parameter set RBSP (S1 in FIG. 2) serves as header information for the result data of moving picture compression. When the bitstream is input, the profile identifier first identifies which of the plurality of profiles the input bitstream is based on.

따라서, 입력되는 비트스트림이 다시점 프로파일에 대한 것인지 여부를 판단하는(예를 들어, " If ( profile_idc == MULTI_VIEW_PROFILE )") 프로파일 식별 정보를 신택스 상에 포함시킴으로써, 입력된 비트스트림이 다시점 프로파일에 대한 것인지 여부를 판별하고, 다시점 프로파일에 대한 것으로 인정되는 경우에 여러 가지 속성 정보들을 추가할 수 있게 된다.Thus, by including profile identification information on the syntax that determines whether the input bitstream is for a multiview profile (eg, "If (profile_idc == MULTI_VIEW_PROFILE)"), the input bitstream is a multiview profile. It is possible to determine whether or not to and to add various attribute information when it is recognized as that for a multi-view profile.

도 1은 본 발명이 적용되는 실시예로서, 다시점 비디오 영상을 포함하는 비디오 신호의 디코딩을 위한 다시점 비디오 시스템의 디코딩 장치의 개략적인 블록도를 나타낸다. FIG. 1 is a schematic block diagram of a decoding apparatus of a multiview video system for decoding a video signal including a multiview video image according to an embodiment to which the present invention is applied.

상기 다시점 비디오 시스템은 상기 다시점 비디오 영상을 제공하기 위해 대응되는 인코딩 장치(인코더)를 포함할 수 있다. 이때, 상기 다시점 비디오 영상은 장치로 판독가능한 정보의 운송체(예를 들어, 장치로 판독가능한 저장 매체, 또는 송신기와 수신기 사이에서 전파되는 장치로 판독가능한 에너지 신호)에 포함된 인코딩된 이미지 데이터를 포함하는 비트스트림으로써 제공될 수 있다. The multi-view video system may include a corresponding encoding device (encoder) for providing the multi-view video image. In this case, the multi-view video image is encoded image data contained in a vehicle of information readable by the device (for example, a device readable storage medium, or an energy signal readable by the device propagating between the transmitter and the receiver). It may be provided as a bitstream including a.

도 1에 따르면, 상기 디코딩 장치는 크게 파싱부(10), 엔트로피 디코딩부(11), 역양자화/역변환부(12), 화면간 예측부(13), 화면내 예측부(14), 디블록킹 필터부(15), 복호 픽쳐 버퍼부(16) 등을 포함한다. According to FIG. 1, the decoding apparatus includes a parsing unit 10, an entropy decoding unit 11, an inverse quantization / inverse transform unit 12, an inter prediction unit 13, an intra prediction unit 14, and deblocking. A filter section 15, a decoded picture buffer section 16, and the like.

상기 화면간 예측부(13)는 움직임 보상부(17), 조명 보상부(18), 조명 보상 오프셋 예측부(19) 등을 포함한다.The inter prediction unit 13 includes a motion compensator 17, an illumination compensator 18, an illumination compensation offset predictor 19, and the like.

파싱부(10)에서는 수신된 비디오 영상을 복호하기 위하여 NAL 단위로 파싱을 수행한다. 일반적으로 하나 또는 그 이상의 시퀀스 파라미터 셋과 픽쳐 파라미터 셋이 슬라이스 헤더와 슬라이스 데이터가 디코딩되기 전에 디코더로 전송된다. 이 때 NAL 헤더 영역 또는 NAL 헤더의 확장 영역에는 여러 가지 속성 정보가 포함될 수 있다. 예를 들어, 시간적 레벨(temporal level) 정보, 시점 레벨(view level) 정보, 앵커 픽쳐(anchor picture) 식별 정보, 시점 식별(view identifier) 정보 등이 포함될 수 있다.  The parser 10 performs parsing on a NAL basis to decode the received video image. In general, one or more sequence parameter sets and picture parameter sets are transmitted to the decoder before the slice header and slice data are decoded. In this case, various attribute information may be included in the NAL header area or the extension area of the NAL header. For example, temporal level information, view level information, anchor picture identification information, view identifier information, and the like may be included.

여기서, 시간적 레벨 정보란, 비디오 신호로부터 시간적 확장성을 제공하기 위한 계층적인 구조에 대한 정보를 말한다. 이러한 시간적 레벨 정보를 통해 사용자에게 다양한 시간대의 영상을 제공할 수 있게 된다. Here, the temporal level information refers to information on a hierarchical structure for providing temporal scalability from a video signal. Through such temporal level information, it is possible to provide a user with images of various time zones.

시점 레벨 정보란, 비디오 신호로부터 시점 확장성을 제공하기 위한 계층적인 구조에 대한 정보를 말한다. 다시점 비디오 영상에서는 사용자에게 다양한 시간 및 시점의 영상을 제공하도록 하기 위해 시간 및 시점에 대한 레벨을 정의해 줄 필요가 있다. The viewpoint level information refers to information on a hierarchical structure for providing viewpoint scalability from a video signal. In a multi-view video image, it is necessary to define the levels of time and view in order to provide a user with images of various times and views.

이처럼 레벨 정보를 정의할 경우, 시간 및 시점에 대한 확장성(scalability)을 이용할 수 있게 된다. 따라서, 사용자는 원하는 시간 및 시점의 영상만을 볼 수도 있고, 다른 제한 조건에 따른 영상만을 볼 수 있게 된다. 상기 레벨 정보는 그 기준 조건에 따라 다양한 방법으로 다르게 설정될 수 있다. 예를 들어, 상기 레벨 정보는 카메라의 위치에 따라 다르게 설정될 수 있고, 카메라의 배열 형태에 따라 다르게 설정될 수 있다. 또한, 상기 레벨 정보는 특별한 기준에 의하지 않고 임의로 설정될 수도 있다. When defining the level information in this way, scalability with respect to time and time can be used. Accordingly, the user may view only an image of a desired time and time point, and may view only an image according to another constraint. The level information may be set differently in various ways according to the reference condition. For example, the level information may be set differently according to the position of the camera, or may be set differently according to the arrangement of the camera. In addition, the level information may be arbitrarily set regardless of a special criterion.

앵커 픽쳐라 함은, 모든 슬라이스들이 동일 시간대의 프레임에 있는 슬라이스만을 참조하는 부호화된 픽쳐를 의미한다. 예를 들어, 다른 시점에 있는 슬라이스만을 참조하고 현재 시점에 있는 슬라이스는 참조하지 않는 부호화된 픽쳐를 말한다. 다시점 영상의 복호화 과정에 있어서, 시점 간의 랜덤 액세스가 필요할 수 있다. An anchor picture refers to an encoded picture in which all slices refer only to slices in frames of the same time zone. For example, an encoded picture refers to only a slice at another viewpoint and no slice at the current viewpoint. In the decoding process of a multiview image, random access between viewpoints may be required.

복호화 노력을 최소화하면서 임의 시점에 대한 액세스가 가능하도록 하여야 한다. 여기서 효율적인 랜덤 액세스를 실현하기 위하여 앵커 픽쳐 식별 정보가 필요할 수 있다. Access to any point in time should be allowed while minimizing the decryption effort. Here, anchor picture identification information may be needed to realize efficient random access.

또한, 시점 식별 정보란, 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위한 정보를 말한다. 비디오 영상 신호가 코딩될 때, 각각의 픽쳐를 식별하기 위하여 POC(Picture Order Count)와 frame_num 이 이용될 수 있다. The viewpoint identification information refers to information for distinguishing a picture at a current viewpoint from a picture at a different viewpoint. When a video image signal is coded, a picture order count (POC) and frame_num may be used to identify each picture.

다시점 비디오 영상인 경우에는 시점 간의 예측이 수행될 수 있다. 따라서, 현재 시점에 있는 픽쳐와 다른 시점에 있는 픽쳐를 구별하기 위해 식별자가 이용될 수 있다.In the case of a multiview video image, inter-view prediction may be performed. Thus, an identifier may be used to distinguish a picture at a current time point from a picture at a different time point.

픽쳐의 시점을 나타내는 시점 식별자(view identifier)가 정의될 수 있다. 상기 시점 식별자를 이용하여 현재 픽쳐와 다른 시점에 있는 픽쳐의 정보를 획득하고, 상기 다른 시점에 있는 픽쳐의 정보를 이용하여 상기 비디오 신호를 디코딩할 수 있다. 이러한 상기 시점 식별자는 비디오 신호의 인코딩/디코딩 과정 전반에 걸쳐 적용될 수 있다. 또한, 특정한 시점 식별자가 아닌, 시점이 고려된 frame_num을 이용하여 다시점 비디오 코딩에 그대로 적용할 수도 있다.A view identifier indicating a viewpoint of the picture may be defined. The view identifier may be used to obtain information about a picture at a different point in time from the current picture, and the video signal may be decoded using the picture information at a different point in time. This view identifier may be applied throughout the encoding / decoding process of the video signal. In addition, the frame_num may be applied to a multi-view video coding as it is, using a frame_num in consideration of a view rather than a specific view identifier.

일반적으로 다시점 영상의 데이터량이 방대하기 때문에, 이를 해결하기 위해 각 시점의 계층적(hierarchy) 부호화(이를, '뷰 스케일러빌러티(view scalability)'라고도 한다) 기능이 필요할 수 있다. 뷰 스케일러빌러티 기능을 수행하기 위해 다시점 영상의 시점을 고려한 예측 구조를 정의할 수 있다. In general, since a large amount of data of a multiview image is required, a hierarchical encoding (also called 'view scalability') function of each view may be required to solve this problem. In order to perform the view scalability function, a prediction structure considering the viewpoint of a multiview image may be defined.

상기 예측 구조는 여러 개의 시점 영상들에 대해서 예측 순서 및 방향 등을 구조화함으로써 정의될 수 있다. 예를 들어, 부호화하려는 여러 시점의 영상들이 주어질 때, 전체 배열의 중앙을 기준 시점(base view)으로 정하고 점차 계층적으로 부호화하려는 시점의 영상을 선택할 수 있다. 또는 전체 배열의 끝부분이나 그외 다른 부분을 기준 시점으로 정할 수도 있다. The prediction structure may be defined by structuring a prediction order and a direction for a plurality of viewpoint images. For example, when images of various viewpoints to be encoded are given, the center of the entire array may be determined as a base view, and an image of a viewpoint to be encoded hierarchically may be selected. Alternatively, the end of the entire array or any other part can be determined as a reference point.

만약 카메라 시점의 개수가 2의 지수승인 경우를 기준으로 각 시점 영상 간의 계층적인 예측 구조를 형성할 수도 있다. 또는 카메라 시점의 개수가 2의 지수승이 아닌 경우에는 실제 개수보다 크면서 가장 작은 2의 지수승의 경우를 기준으로 가상의 시점을 상정하고 예측 구조를 형성할 수도 있다. 또한, 카메라 배열이 2차원일 경우에는 수평, 수직 방향으로 번갈아가며 예측 순서를 정할 수 있다.If the number of camera viewpoints is an exponential power of 2, a hierarchical prediction structure between each viewpoint image may be formed. Alternatively, when the number of camera viewpoints is not an exponential power of 2, a virtual viewpoint may be assumed and a prediction structure may be formed based on the case of the exponential power of 2 which is larger than the actual number and is the smallest. In addition, when the camera array is two-dimensional, it is possible to determine the prediction order alternately in the horizontal and vertical directions.

파싱된 비트스트림은 엔트로피 디코딩부(11)를 통하여 엔트로피 디코딩되고, 각 매크로브록의 계수, 움직임 벡터 등이 추출된다. 역양자화부/역변환부(12)에서는 수신된 양자화된 값에 일정한 상수를 곱하여 변환된 계수값을 획득하고, 상기 계수값을 역변환하여 화소값을 복원하게 된다. 상기 복원된 화소값을 이용하여 화면내 예측부(14)에서는 현재 픽쳐 내의 디코딩된 샘플로부터 화면내 예측을 수행하게 된다. The parsed bitstream is entropy decoded by the entropy decoding unit 11, and coefficients, motion vectors, and the like of each macroblock are extracted. The inverse quantizer / inverse transformer 12 multiplies the received quantized value by a constant constant to obtain a transformed coefficient value, and inversely transforms the coefficient value to restore the pixel value. The intra prediction unit 14 performs the intra prediction from the decoded samples in the current picture by using the reconstructed pixel value.

디블록킹 필터부(15)에서는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 매크로블록에 적용된다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 프레임의 화질을 향상시킨다. 필터링 과정의 선택은 경계 세기(boundary strenth)와 경계 주위의 이미지 샘플의 변화(gradient)에 의해 좌우된다. 필터링을 거친 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(16)에 저장된다. The deblocking filter section 15 is applied to each coded macroblock to reduce block distortion. The filter smoothes the edges of the block to improve the quality of the decoded frame. The choice of filtering process depends on the boundary strength and the gradient of the image samples around the boundary. The filtered pictures are output or stored in the decoded picture buffer unit 16 for use as a reference picture.

복호 픽쳐 버퍼부(Decoded Picture Buffer unit)(16)에서는 화면간 예측을 수행하기 위해서 이전에 코딩된 픽쳐들을 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(16)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용하게 된다. 따라서, MVC에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 픽쳐와 다른 시점에 있는 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 상기 frame_num 과 POC 뿐만 아니라 픽쳐의 시점을 나타내는 시점 식별자도 함께 이용할 수 있다.The decoded picture buffer unit 16 stores or opens previously coded pictures in order to perform inter prediction. At this time, the frame_num and POC (Picture Order Count) of each picture are used to store or open the decoded picture buffer unit 16. Therefore, some of the previously coded pictures in MVC have pictures that are different from the current picture. Therefore, in order to utilize these pictures as reference pictures, not only the frame_num and the POC but also a view identifier indicating the picture's view point may be used. Can be.

화면간 예측부(13)에서는 복호 픽쳐 버퍼부(16)에 저장된 참조 픽쳐를 이용하여 화면간 예측을 수행한다. 인터 코딩된 매크로블록은 매크로블록 파티션으로 나누어질 수 있으며, 각 매크로블록 파티션은 하나 또는 두개의 참조 픽쳐로부터 예측될 수 있다. The inter prediction unit 13 performs inter prediction using a reference picture stored in the decoded picture buffer unit 16. Inter-coded macroblocks can be divided into macroblock partitions, where each macroblock partition can be predicted from one or two reference pictures.

움직임 보상부(17)에서는 엔트로피 디코딩부(11)로부터 전송된 정보들을 이용하여 현재 블록의 움직임을 보상한다. 비디오 신호로부터 현재 블록에 이웃하는 블록들의 움직임 벡터를 추출하고, 상기 현재 블록의 움직임 벡터 프리딕터를 획득한다. 상기 획득된 움직임 벡터 프리딕터와 비디오 신호로부터 추출되는 차분 벡터를 이용하여 현재 블록의 움직임을 보상한다. 또한, 이러한 움직임 보상은 하나의 참조 픽쳐를 이용하여 수행될 수도 있고, 복수의 픽쳐를 이용하여 수행될 수도 있다. The motion compensation unit 17 compensates for the motion of the current block by using the information transmitted from the entropy decoding unit 11. A motion vector of blocks neighboring the current block is extracted from the video signal, and a motion vector predictor of the current block is obtained. The motion of the current block is compensated by using the obtained motion vector predictor and the difference vector extracted from the video signal. In addition, such motion compensation may be performed using one reference picture or may be performed using a plurality of pictures.

따라서, 상기 참조 픽쳐들이 현재 시점과 다른 시점에 있는 픽쳐들인 경우에는 그 시점을 나타내는 시점 식별자를 이용하여 움직임 보상을 수행할 수 있다. Therefore, when the reference pictures are pictures that are different from the current view, motion compensation may be performed using a view identifier indicating the view.

또한, 직접 예측 모드(direct mode)는 부호화가 끝난 블록의 움직임 정보로부터 현재 블록의 움직임 정보를 예측하는 부호화 모드이다. 이러한 방법은 움직임 정보를 부호화할 때 필요한 비트수가 절약되기 때문에 압축 효율이 향상된다. In addition, the direct prediction mode is a coding mode for predicting motion information of a current block from motion information of a coded block. This method improves compression efficiency because the number of bits necessary for encoding motion information is saved.

예를 들어, 시간 직접 예측 모드(temporal direct mode)는 시간 방향의 움직임 정보 상관도를 이용하여 현재 블록의 움직임 정보를 예측하게 된다. 이 방법과 유사하게, 상기 디코더는 시점 방향의 움직임 정보 상관도를 이용하여 현재 블록의 움직임 정보를 예측할 수 있다. For example, in the temporal direct mode, a temporal direct mode predicts motion information of a current block by using motion information correlation in the time direction. Similar to this method, the decoder may predict the motion information of the current block by using the motion information correlation in the view direction.

또한, 입력된 비트스트림이 다시점 영상에 해당되는 경우, 각 시점 영상(view sequence)들은 각기 다른 카메라에서 취득된 영상들이기 때문에 카메라의 내외적 요인으로 인하여 조명 (illumination) 차이가 발생하게 된다. 이를 방지하기 위해서 조명 보상부(18)에서는 조명 보상(illumination compensation)을 수행하게 된다. In addition, when the input bitstream corresponds to a multi-view image, since the view sequences are images obtained from different cameras, illumination differences may occur due to internal and external factors of the camera. In order to prevent this, the illumination compensation unit 18 performs illumination compensation.

조명 보상을 수행함에 있어서, 비디오 신호의 일정 계층에 대한 조명 보상 수행여부를 나타내는 플래그 정보를 이용할 수 있다. 예를 들어, 해당 슬라이스 또는 해당 매크로블록의 조명 보상 수행여부를 나타내는 플래그 정보를 이용하여 조명 보상을 수행할 수 있다. 또한, 상기 플래그 정보를 이용하여 조명 보상을 수행함에 있어서, 여러 가지 매크로블록의 타입(예를 들어, 인터16×16모드 또는 B-skip모드 또는 직접 예측 모드 등)에 적용될 수 있다.In performing lighting compensation, flag information indicating whether lighting compensation is performed on a predetermined layer of a video signal may be used. For example, lighting compensation may be performed using flag information indicating whether lighting of the slice or the macroblock is performed. In addition, in performing lighting compensation using the flag information, it may be applied to various types of macroblocks (eg, inter16 × 16 mode, B-skip mode, or direct prediction mode).

또한, 조명 보상을 수행함에 있어서, 현재 블록을 복원하기 위하여 주변 블록의 정보 또는 현재 블록과 다른 시점에 있는 블록의 정보를 이용할 수 있으며, 현재 블록의 오프셋 값을 이용할 수도 있다. 여기서 현재 블록의 오프셋 값이란, 현재 블록의 평균 화소값과 그에 대응하는 참조 블록의 평균 화소값 사이의 차이를 말한다. 상기 오프셋 값을 이용하는 일례로, 상기 현재 블록의 이웃 블록들을 이용하여 상기 현재 블록의 오프셋 값의 프리딕터를 획득하고, 상기 오프셋 값과 상기 프리딕터와의 차이값(residual)을 이용할 수 있다. 따라서, 디코더에서는 상기 차이값과 상기 프리딕터를 이용하여 상기 현재 블록의 오프셋 값을 복원할 수 있다. In addition, in performing the illumination compensation, information of a neighboring block or information on a block that is different from the current block may be used to restore the current block, and an offset value of the current block may be used. Here, the offset value of the current block refers to a difference between the average pixel value of the current block and the average pixel value of the reference block corresponding thereto. As an example of using the offset value, a predicate of an offset value of the current block may be obtained using neighboring blocks of the current block, and a difference between the offset value and the predictor may be used. Accordingly, the decoder may restore the offset value of the current block by using the difference value and the predictor.

또한, 현재 블록의 프리딕터를 획득함에 있어서, 이웃 블록의 정보를 이용할 수 있다. In addition, in obtaining the predictor of the current block, information of the neighboring block may be used.

예를 들어, 이웃 블록의 오프셋 값을 이용하여 현재 블록의 오프셋 값을 예측할 수 있는데, 이에 앞서 상기 현재 블록의 참조 번호(reference index)와 상기 이웃 블록의 참조 번호가 동일한지 여부를 확인할 수 있다. 상기 확인 결과에 따라 상기 조명 보상부(18)는 어떤 이웃 블록을 이용할지, 또는 어떤 값을 이용할지를 결정할 수 있다. For example, the offset value of the current block may be predicted using the offset value of the neighboring block. Before this, it may be determined whether the reference number of the current block and the reference number of the neighboring block are the same. According to the check result, the illumination compensator 18 may determine which neighboring block to use or what value to use.

또한, 상기 조명 보상부(18)는 현재 블록의 프리딕션 타입을 이용하여 조명 보상을 수행할 수도 있으며, 현재 블록이 2개의 참조 블록을 이용하여 예측 코딩된 경우에는 현재 블록의 오프셋 값을 이용하여 각 참조 블록에 대응하는 오프셋 값을 획득할 수도 있다. In addition, the lighting compensation unit 18 may perform lighting compensation by using the prediction type of the current block. When the current block is predictively coded using two reference blocks, the lighting compensation unit 18 uses the offset value of the current block. An offset value corresponding to each reference block may be obtained.

이처럼 조명 보상, 움직임 보상 등을 이용하여 인터 예측된 픽쳐들과 인트라 예측된 픽쳐들은 예측 모드에 따라 선택되어 현재 픽쳐를 복원하게 된다. As such, inter predicted pictures and intra predicted pictures using lighting compensation, motion compensation, and the like are selected according to a prediction mode to reconstruct the current picture.

이하에서는 현재 픽쳐를 복원하기 위해 적용되는 인코딩/디코딩 방법들의 구체적인 실시예들을 살펴보도록 한다.Hereinafter, specific embodiments of encoding / decoding methods applied to reconstruct the current picture will be described.

도 2는 본 발명이 적용된 일실시예로서, 비디오 영상 부호화 방법을 설명하기 위한 흐름도를 도시한 것이다. 2 is a flowchart illustrating a video image encoding method according to an embodiment to which the present invention is applied.

도 2에 따르면, 비디오 영상 부호화 방법의 일실시예로서, 현재 블록에 인접한 블록들과 다른 시점의 참조 영상 블록들 중 적어도 하나의 블록에 대한 조명 평균값(average pixel value)을 획득한다(S131). 상기 획득된 값을 가지고 복수개의 모드들 중에서 하나 이상의 모드를 이용하여 현재 블록의 조명 평균 예측값(predicted average pixel value)을 유도한다(S132). 그리고 상기 현재 블록의 조명 평균 예측값과 조명 평균값과의 오차값(difference value)을 획득한다(S133). 상기 복수개의 모드에 대하여 각각의 부호화 효율을 측정하고 최적인 모드를 선택하게 된다(S134). 상기 최적의 모드를 선택하는 방법의 일실시예들로서, 상기 획득된 오차값들 중에서 오차값이 최소가 되는 모드를 선택하는 방법, 또는 RD(Rate-Distortion) 관계식을 이용하는 방법 등을 들 수 있다.Referring to FIG. 2, as an example of a video image encoding method, an average pixel value of at least one block among reference image blocks at different points of time from blocks adjacent to the current block is obtained (S131). The predicted average pixel value of the current block is derived using one or more modes among a plurality of modes with the obtained value (S132). In operation S133, a difference value between the illumination average prediction value and the illumination average value of the current block is obtained. The coding efficiency of each of the plurality of modes is measured and an optimal mode is selected (S134). Examples of the method of selecting the optimal mode include a method of selecting a mode in which the error value is minimum among the obtained error values, or a method using a rate-distortion (RD) relational expression.

여기서, RD 관계식이란, 해당 블록을 부호화할 때 생기는 부호화 비트수와 실제 영상과의 오차를 나타내는 왜곡값, 이 두 성분을 가지고 비용을 계산한다. 구체적으로, 비트수에 양자화 계수에 의해 결정되는 라그랑지안 승수를 곱하고 왜곡값을 더하여 구할 수 있다. 상기 최적의 모드가 선택된 후에는 상기 선택된 모드를 나타내는 식별 정보만 부호화하여 전송하거나 상기 선택된 모드를 나타내는 식별 정보와 함께 상기 선택된 모드에 의해 획득된 오차값도 부호화하여 전송할 수 있다(S135).Here, the RD relational expression calculates the cost using two components, the number of encoded bits generated when the corresponding block is encoded and a distortion value representing an error between the actual video. Specifically, it can be obtained by multiplying the number of bits by the Lagrangian multiplier determined by the quantization coefficient and adding the distortion value. After the optimal mode is selected, only the identification information representing the selected mode may be encoded and transmitted, or the error value obtained by the selected mode may be encoded and transmitted together with the identification information representing the selected mode (S135).

도 3은 본 발명을 적용한 일실시예로서, 다른 시점의 참조 영상 블록으로부터 현재 블록의 조명 평균 예측값(predicted average pixel value)을 유도하는 과정을 설명하기 위한 블록 구성도를 도시한 것이다.FIG. 3 is a block diagram illustrating a process of deriving a predicted average pixel value of a current block from a reference image block at another point in time according to an embodiment of the present invention.

도 3에 따르면,

Figure 112008057611866-pct00001
블록 픽셀값들의 평균값을
Figure 112008057611866-pct00002
,
Figure 112008057611866-pct00003
의 평균값을
Figure 112008057611866-pct00004
라고 하고, 나머지 블록들의 평균값도 상기 블록 표시법(notation)에 준해서 표현한다. 주변 정보를 이용하는 방법에 따라
Figure 112008057611866-pct00005
정보를 예측하는 방법이 다양하다.
Figure 112008057611866-pct00006
블록을 부호화할 시, 참조 영상#1(reference frame#1)이 후보 참조 영상(reference frame)이 되는 경우라고 가정하자.According to FIG. 3,
Figure 112008057611866-pct00001
The average of the block pixel values
Figure 112008057611866-pct00002
,
Figure 112008057611866-pct00003
Mean of
Figure 112008057611866-pct00004
The average value of the remaining blocks is also expressed according to the block notation. Depending on how you use your surrounding information
Figure 112008057611866-pct00005
There are many ways to predict information.
Figure 112008057611866-pct00006
When encoding a block, it is assumed that reference picture # 1 becomes a candidate reference frame.

주변 정보를 이용하는 방법에 따라

Figure 112008057611866-pct00007
정보를 예측하는 방법의 일실시예로서, 현재 블록에 대응되는 다른 시점의 참조 영상 블록의 조명 평균값으로부터 예측하는 경우(Mode1)를 들 수 있다. 즉, 도 3에서 참조 영상#1(reference frame#1)의 블록
Figure 112008057611866-pct00008
의 평균값으로 예측하는 경우이다. 오차값(difference value)은 다음 수학식 1과 같다.Depending on how you use your surrounding information
Figure 112008057611866-pct00007
As an example of the method of predicting the information, the prediction may be performed from a lighting average value of the reference image block of another view corresponding to the current block (Mode1). That is, the block of the reference picture # 1 (reference frame # 1) in FIG.
Figure 112008057611866-pct00008
It is a case of predicting by the average value of. The difference value is represented by Equation 1 below.

Figure 112008057611866-pct00009
Figure 112008057611866-pct00009

또 다른 일실시예로서, 현재 블록과 이에 대응하는 다른 시점의 참조 영상 블록의 조명 평균값과의 차이를, 현재 블록과 참조 영상 블록의 각각 인접한 블록들끼리의 조명 평균값 차이로부터 예측하는 경우(Mode2)를 들 수 있다. 즉, 도 3에서 참조 영상1(reference frame#1)의 블록

Figure 112008057611866-pct00010
의 조명 평균값과의 차이를, 인접한 블록들(
Figure 112008057611866-pct00011
,
Figure 112008057611866-pct00012
) 끼리의 조명 평균값 차이로 예측하는 경우이다. 오차값은 다음 수학식 2와 같다.According to another embodiment, when the difference between the illumination average value of the current block and the reference image block at different views corresponding thereto is predicted from the difference in illumination average values between adjacent blocks of the current block and the reference image block (Mode2) Can be mentioned. That is, the block of the reference frame # 1 (reference frame # 1) in FIG.
Figure 112008057611866-pct00010
The difference between the average of the illumination and the adjacent blocks (
Figure 112008057611866-pct00011
,
Figure 112008057611866-pct00012
) This is the case of predicting the difference between the average lighting values. The error value is shown in Equation 2 below.

Figure 112008057611866-pct00013
Figure 112008057611866-pct00013

또 다른 일실시예로서, 현재 블록에 인접한 블록의 조명 평균값과 현재 블록에 대응되는 다른 시점의 참조 영상 블록의 조명 평균값 차이로부터 예측하는 경우(Mode3)를 들 수 있다. 즉, 인접한 블록

Figure 112008057611866-pct00014
의 조명 평균값과 참조 영상#1( reference frame#1)의 블록
Figure 112008057611866-pct00015
의 조명 평균값 차이로부터 예측하는 경우이다. 오차값은 다음 수학식 3과 같다.As another example, the prediction may be performed based on a difference between an illumination average value of a block adjacent to the current block and an illumination average value of a reference image block at another view corresponding to the current block (Mode3). That is, adjacent blocks
Figure 112008057611866-pct00014
The average value of illumination and the block of reference image # 1 (reference frame # 1)
Figure 112008057611866-pct00015
It is a case where it predicts from the illumination average value difference of. The error value is shown in Equation 3 below.

Figure 112008057611866-pct00016
Figure 112008057611866-pct00016

또 다른 일실시예로서, 현재 블록에 인접한 블록이 다른 시점의 참조 영상 블록의 인접한 블록으로부터 부호화된 경우, 현재 블록에 인접한 블록의 조명 평균값 예측 차이로부터 예측하는 경우(Mode4)를 들 수 있다. 즉,

Figure 112008057611866-pct00017
이 이미 참조 영상#2(reference frame#2)의 블록
Figure 112008057611866-pct00018
을 참조해서 부호화된 경우, 이웃 블록
Figure 112008057611866-pct00019
의 조명 평균값 예측 차이로 예측하는 경우이다. 오차값은 다음 수학식 4와 같다.As another embodiment, a case in which a block adjacent to the current block is encoded from an adjacent block of a reference image block at another point in time may be predicted from the illumination average value prediction difference of the block adjacent to the current block (Mode4). In other words,
Figure 112008057611866-pct00017
This block of reference image # 2 (reference frame # 2)
Figure 112008057611866-pct00018
If encoded with reference to neighboring block
Figure 112008057611866-pct00019
This is the case of predicting the difference in the prediction of the lighting average. The error value is shown in Equation 4 below.

Figure 112008057611866-pct00020
Figure 112008057611866-pct00020

상기 Mode2, Mode3, Mode4의 방법에서 인접한 블록 정보를 이용할 시, 바로 위의 블록 한 개의 정보만 이용하는 경우를 예로 들었지만, 일반적으로 현재 블록을 둘러싼 여러 이웃의 정보들을 조합하여 활용할 수 있다.When the adjacent block information is used in the method of Mode2, Mode3, or Mode4, only the information of one block above is used as an example, but in general, information of various neighbors surrounding the current block may be used in combination.

도 4는 본 발명을 적용한 일실시예로서, 다른 시점의 참조 영상 블록으로부터 현재 블록의 조명 평균 예측값을 유도하는 과정을 일반화하여 설명하기 위한 블록 구성도를 도시한 것이다.FIG. 4 is a block diagram for generalizing and describing a process of deriving an illumination average prediction value of a current block from a reference image block at another time point as an embodiment to which the present invention is applied.

상기 도 4에서는 현재 블록과 경계선(boundary)을 공유하는 이미 부호화된 블록들, 그리고 참조 블록과 경계선을 공유하는 블록들을 나타낸다. 이때, Mode2, Mode3, Mode4 방법의 식들은 각각 아래 수학식 5와 같이 일반화시킬 수 있다.4 shows already coded blocks that share a boundary with the current block, and blocks that share a boundary with the reference block. At this time, the equations of the Mode2, Mode3, and Mode4 methods may be generalized as shown in Equation 5 below.

Figure 112008057611866-pct00021
Mode 2 :
Figure 112008057611866-pct00021
Mode 2:

Mode 3 :

Figure 112008057611866-pct00022
Mode 3:
Figure 112008057611866-pct00022

Mode 4 :

Figure 112008057611866-pct00023
Mode 4:
Figure 112008057611866-pct00023

Mode 4의 일반화된 식에서,

Figure 112008057611866-pct00024
Figure 112008057611866-pct00025
블록의 참조 블록이 참조 프레임(reference frame) #
Figure 112008057611866-pct00026
에 있을 때, 이 블록의 조명 평균값을 나타낸다. In the generalized expression of Mode 4,
Figure 112008057611866-pct00024
The
Figure 112008057611866-pct00025
The reference block of the block is the reference frame #
Figure 112008057611866-pct00026
When is on, it represents the average lighting value of this block.

상기 식들에서

Figure 112008057611866-pct00027
는 가중치가 되며, 예측에 이용하는 인접한 블록은 상기와 같이 경계선을 공유하는 것들만으로 국한되지 않으며, 상기 이웃들의 이웃들도 포함될 수 있으며, 또한 그 중 일부만 활용할 수도 있다. 이는
Figure 112008057611866-pct00028
로 조절할 수 있다. 이렇게 구한 오차값
Figure 112008057611866-pct00029
는 양자화한 후, 엔트로피 부호화하여 전송한다.In the above formulas
Figure 112008057611866-pct00027
Is a weight, and adjacent blocks used for prediction are not limited to those that share a boundary as described above, and may include neighbors of the neighbors, and may also utilize only some of them. this is
Figure 112008057611866-pct00028
Can be adjusted with The error value
Figure 112008057611866-pct00029
After quantization is performed, entropy encoding is performed.

상기 모드들(Mode1, Mode2, Mode3, Mode4)의 참조 프레임(Reference frame)의 결정은 실제 비트스트림(bitstream) 단계까지 계산해 본 후, 율(rate)과 왜곡(distortion) 측면에서 최적인 것으로 찾는다. 상기 최적의 모드를 선택하는 방법의 일실시예들로서, 상기 획득된 오차값들 중에서 오차값이 최소가 되는 모드를 선택하는 방법, 또는 RD(Rate-Distortion) 관계식을 이용하는 방법 등을 들 수 있다. Determination of the reference frame of the modes Mode1, Mode2, Mode3, and Mode4 is calculated up to the actual bitstream level and found to be optimal in terms of rate and distortion. Examples of the method of selecting the optimal mode include a method of selecting a mode in which the error value is minimum among the obtained error values, or a method using a rate-distortion (RD) relational expression.

상기 RD(Rate-Distortion) 관계식을 이용하는 방법은 실제로 각 모드에 대해서 실제 비트스트림(bitstream)까지 계산하는 단계를 모두 해본 후, 율(rate)과 왜곡(distortion) 측면에서 최적인 모드를 선택한다. 기존의 방식과 다른 점은, 블록 차분(block residual)값을 계산할 때, 현재 블록 및 참조블록에서 각 블록의 평균값을 제한 값들로부터 그 차이값을 계산한다는 점이다. 즉 아래 수학식 6과 같다.In the method using the rate-distortion (RD) relation, all the steps for calculating the actual bitstream for each mode are actually selected, and then the mode that is optimal in terms of rate and distortion is selected. The difference from the conventional method is that when calculating the block residual value, the difference value is calculated from the limits of the average value of each block in the current block and the reference block. That is, the following equation (6).

Figure 112008057611866-pct00030
Figure 112008057611866-pct00030

여기서,

Figure 112008057611866-pct00031
는 변이 벡터(disparity vector)를 나타내고,
Figure 112008057611866-pct00032
는 조명값(pixel value)을 나타낸다.
Figure 112008057611866-pct00033
는 주변 정보를 통해서 예측한 값과, 오차 값을 양자화한 후, 다시 복원된 값을 더해서 구한 값으로서, 이는 인코더와 디코더에서 동일한 값을 얻기 위함이다.
Figure 112008057611866-pct00034
은 참조 블록(reference block)의 조명 평균값이며, 복호된 영상이므로 인코더와 디코더에서 동일한 값이 된다. 그리고, 실제 적용에서는 시간적으로도 참조를 찾아서 한 후, 시공간 영역에서 최적인 것을 찾게 된다. 따라서, 조명 보상(illumination compensation)을 적용할지 여부의 식별 정보 또한 각 프레임과 각 블록에 대해서 0 또는 1로 지정이 되며, 이 또한 엔트로피 부호화를 적용한다.here,
Figure 112008057611866-pct00031
Represents a disparity vector,
Figure 112008057611866-pct00032
Denotes a pixel value.
Figure 112008057611866-pct00033
Is a value obtained by quantizing an error value, an error value, and then reconstructing the value. This is to obtain the same value at the encoder and the decoder.
Figure 112008057611866-pct00034
Is an average value of illumination of a reference block, and since the decoded image is the same value in the encoder and the decoder. In actual application, the reference is also found in time, and then the optimum one is found in the space-time domain. Therefore, identification information of whether to apply illumination compensation is also designated as 0 or 1 for each frame and each block, and this also applies entropy coding.

상기 최적의 모드가 선택된 후에는 상기 선택된 모드만 부호화하여 전송할 수 있다. 또한, 상기 선택된 모드와 함께 상기 선택된 모드에 의해 획득된 오차값도 부호화하여 전송할 수 있다. 선택된 모드 정보는 인덱스(index)로 표현되며, 이 정보 역시 이웃 모드 정보로부터 예측할 수도 있으며, 현재 선택된 모드의 인덱스(index)와 예측된 모드의 인덱스(index) 값과의 오차값도 부호화하여 전송할 수 있다.After the optimal mode is selected, only the selected mode may be encoded and transmitted. In addition, the error value obtained by the selected mode together with the selected mode may be encoded and transmitted. The selected mode information is expressed as an index, and this information may also be predicted from neighboring mode information, and an error value between the index of the currently selected mode and the index value of the predicted mode may be encoded and transmitted. have.

상기의 모드들은 모두 고려할 수도 있으며, 일부를 선택하거나, 이들 모드들 중 하나만 선택해서 적용할 수도 있다. 가능한 모든 경우 중, 단일 방법만을 사용하는 경우에는 모드 인덱스(mode index)를 따로 부호화하지 않아도 된다. All of the above modes may be considered, some may be selected, or only one of these modes may be applied. In all possible cases, if only a single method is used, the mode index does not need to be separately coded.

본 발명을 적용한 또 다른 실시예로서, 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 참조 영상과 부호화하려는 영상의 부호화하고 있는 현재 블록들에 대해서, 이미 복호화된 픽셀 값들을 이용할 수 있다. As another embodiment to which the present invention is applied, in deriving the average lighting value and deriving the average lighting prediction value, pixel values that have already been decoded may be used for current blocks that are encoded in a reference image and an image to be encoded.

기본적으로, 현재 블록의 조명 평균값을 예측할 때, 좌측과 상단의 픽셀들의 이미 복호화된 값들을 이용한다. 이들 픽셀들의 조명 평균값을 현재 블록의 조명 평균값으로 예측할 수 있다. 실제 비디오 영상을 부호화할 때, 매크로 블록을 기준으로 부호화를 한다. 그리고, 16x16 사이즈의 매크로 블록은 영상의 복잡도에 따라서, 16x8, 8x16, 8x8로 세분화되어 부호화하기도 하며, 각각의 8x8 블록은 다시 같은 방식으로 8x4, 4x8, 4x4블록으로 쪼개어질 수 있다. 각각의 경우에 하나의 매크로 블록을 기준으로 각 위치에 있는 작은 블록들의 조명 평균값을 예측하는 방법은 다양할 수 있다. Basically, when predicting the illumination average value of the current block, the already decoded values of the left and top pixels are used. The illumination average of these pixels can be predicted as the illumination average of the current block. When encoding an actual video image, encoding is performed based on a macro block. In addition, the 16x16 macroblock may be divided into 16x8, 8x16, and 8x8 and encoded according to the complexity of the image, and each 8x8 block may be split into 8x4, 4x8, and 4x4 blocks in the same manner. In each case, a method of predicting an illumination average value of small blocks at each position based on one macro block may vary.

도 5는 본 발명을 적용한 일실시예로서, 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 블록의 좌측과 상단에 있는 픽셀들의 이미 복호화된 값들을 이용하는 것을 설명하기 위한 16x16 매크로 블록을 도시한 것이다.FIG. 5 is a diagram illustrating a 16x16 macroblock illustrating an example of using previously decoded values of pixels on the left and top of a block in obtaining an illumination mean value and deriving an illumination mean prediction value according to an embodiment of the present invention. will be.

도 5에 따르면, 16x16 매크로블록은 상단, 좌측에 있는 모든 픽셀값을 이용할 수 있다. 따라서, 현재 블록의 조명 평균값을 예측할 때, 상기 블록의 상단, 좌측에 있는 모든 픽셀(v1~v16, h1~h16)들의 조명 평균값을 계산하여 이로부터 현재 블록의 조명 평균값을 예측할 수 있다. 이 경우 B16x16 블록의 조명 평균값은 다음 수학식 7과 같다.According to FIG. 5, a 16x16 macroblock may use all pixel values at the top and left sides. Therefore, when predicting the average illumination value of the current block, it is possible to calculate the illumination average value of all the pixels (v1 ~ v16, h1 ~ h16) on the top, left of the block to predict the average illumination of the current block from it. In this case, the average lighting value of the B16x16 block is expressed by Equation 7 below.

Figure 112008057611866-pct00035
Figure 112008057611866-pct00035

도 6a 및 도 6b는 본 발명을 적용한 일실시예들로서, 블록이 분할된 경우 분할된 블록의 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 상기 분할된 블록을 둘러싸는 픽셀 전부를 이용하는 경우와, 상기 분할된 블록을 둘러싸는 픽셀들만을 이용하는 경우를 설명하기 위한 16x8 매크로 블록을 각각 도시한 것이다.6A and 6B illustrate exemplary embodiments to which the present invention may be applied. In the case where a block is divided, in the obtaining of an illumination average value of the divided block and deriving an illumination average prediction value, all of the pixels surrounding the divided block are used. 16x8 macroblocks for explaining the case of using only pixels surrounding the divided block, respectively.

도 6a의 경우, 즉 상기 분할된 블록을 둘러싸는 픽셀 전부를 이용하는 경우, B16x8_0 및 B16x8_1 블록의 평균값은 다음 수학식 8과 같다.In the case of FIG. 6A, that is, when all pixels surrounding the divided block are used, the average value of the B16x8_0 and B16x8_1 blocks is expressed by Equation 8 below.

Figure 112008057611866-pct00036
Figure 112008057611866-pct00036

도 6b의 경우, 즉 상기 분할된 블록을 둘러싸는 픽셀들만을 이용하는 경우, B16x8_0 및 B16x8_1 블록의 조명 평균값은 각각 다음 수학식 9,10과 같다.In the case of FIG. 6B, that is, when only pixels surrounding the divided block are used, the illumination average values of the B16x8_0 and B16x8_1 blocks are represented by Equations 9 and 10, respectively.

Figure 112008057611866-pct00037
Figure 112008057611866-pct00037

Figure 112008057611866-pct00038
Figure 112008057611866-pct00038

또한, 상기의 경우들에 있어서, 코너의

Figure 112008057611866-pct00039
도 포함하여 계산할 수도 있다. 이 경우 상기 도 6a 및 도 6b 경우의 B16x8_0 조명 평균값은 각각 다음 수학식 11,12와 같다.Also, in the above cases, the corner
Figure 112008057611866-pct00039
It can also be calculated. In this case, the average B16x8_0 illumination value in the case of FIGS. 6A and 6B is represented by Equations 11 and 12, respectively.

Figure 112008057611866-pct00040
Figure 112008057611866-pct00040

Figure 112008057611866-pct00041
Figure 112008057611866-pct00041

또한, 상기의 경우들에 있어서, 코너의

Figure 112008057611866-pct00042
Figure 112008057611866-pct00043
포함하여 계산할 수도 있다. 이 경우 상기 도 6a 및 도 6b 경우의 B16x8_1 조명 평균값은 각각 다음 수학식 13,14와 같다.Also, in the above cases, the corner
Figure 112008057611866-pct00042
Wow
Figure 112008057611866-pct00043
It can also be calculated. In this case, the average illumination value of B16x8_1 in the case of FIGS. 6A and 6B is represented by Equations 13 and 14, respectively.

Figure 112008057611866-pct00044
Figure 112008057611866-pct00044

Figure 112008057611866-pct00045
Figure 112008057611866-pct00045

도 7a 및 도 7b는 본 발명을 적용한 일실시예로서, 블록이 분할된 경우 분할된 블록의 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 상기 분할된 블록을 둘러싸는 픽셀 전부를 이용하는 경우와 상기 분할된 블록을 둘러싸는 픽셀들만을 이용하는 경우를 설명하기 위한 8x16 매크로 블록을 각각 도시한 것이다. 분할된 각 블록의 조명 평균값을 구하는 방법은 상기 도 6a 및 도 6b에서 구하는 방법과 동일하다.7A and 7B illustrate an embodiment to which the present invention is applied. In the case where a block is divided, in the obtaining of an illumination average value of the divided block and deriving an illumination average prediction value, the pixels surrounding the divided block are used. 8x16 macroblocks for explaining the case of using only pixels surrounding the divided block are illustrated. The method of obtaining the average illumination value of each divided block is the same as the method obtained in FIGS. 6A and 6B.

도 8a 및 도 8b는 본 발명을 적용한 일실시예로서, 블록이 분할된 경우 분할된 블록의 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 상기 분할된 블록을 둘러싸는 픽셀 전부를 이용하는 경우와 상기 분할된 블록을 둘러싸는 픽셀들만을 이용하는 경우를 설명하기 위한 8x8 매크로 블록을 각각 도시한 것이다. 분할된 각 블록의 조명 평균값을 구하는 방법은 상기 도 6a 및 도 6b에서 구하는 방법과 동일하다.8A and 8B illustrate an embodiment to which the present invention is applied. In the case where a block is divided, in the obtaining of an illumination average value of the divided block and deriving an illumination average prediction value, the pixels surrounding all of the divided blocks are used. 8x8 macroblocks for explaining the case of using only pixels surrounding the divided block are shown. The method of obtaining the average illumination value of each divided block is the same as the method obtained in FIGS. 6A and 6B.

상기의 방법들과 마찬가지로 8x8 블록은 더 세부블록으로 분할될 수 있고, 동일한 방법이 적용될 수 있다.Like the above methods, the 8x8 block may be further divided into subblocks, and the same method may be applied.

위와 같은 방식으로 부호화하려는 영상의 현재 블록과 참조 영상에서의 해당 블록 픽셀의 조명 평균값을 예측하여 각각

Figure 112008057611866-pct00046
,
Figure 112008057611866-pct00047
이라고 한다. In this way, the illumination average values of the current block of the image to be encoded and the corresponding pixel of the reference block are predicted.
Figure 112008057611866-pct00046
,
Figure 112008057611866-pct00047
.

각 블록 내의 모든 픽셀에 대해서 각각의 조명 평균 예측값을 뺀 후에, 두 블록의 오차값을 다음 수학식 15와 같이 계산할 수 있다. After subtracting the respective illumination average prediction values for all the pixels in each block, the error values of the two blocks can be calculated as in Equation 15 below.

Figure 112008057611866-pct00048
Figure 112008057611866-pct00048

여기서,

Figure 112008057611866-pct00049
는 변이 벡터(disparity vector)를 의미하고,
Figure 112008057611866-pct00050
는 픽셀값을 표현한다. 이 블록 오차가 가장 작은 참조 영상의 블록을 조명(illumination)이 보상된 최적 블록으로 선택한다. 이때, 추정된 변이 벡터(disparity vector)는
Figure 112008057611866-pct00051
가 된다. 실제 시스템에서는 조명 보상(illumination compensation)을 하지 않는 경우와 결과를 비교하여, 성능이 좋은 것을 선택한다.here,
Figure 112008057611866-pct00049
Means a disparity vector,
Figure 112008057611866-pct00050
Represents a pixel value. The block of the reference image having the smallest block error is selected as the optimal block whose illumination is compensated. In this case, the estimated disparity vector is
Figure 112008057611866-pct00051
. In a real system, the results are compared with those without illumination compensation, and the one with the best performance is selected.

위 방식의 한가지 변형으로는, 참조 영상 블록의 조명 평균값은 주위 픽셀값을 가지고 예측하는 것이 아니라, 실제 블록 내의 모든 픽셀들의 조명 평균값으로 직접 계산하는 경우가 있다. In one variation of the above scheme, the illumination average value of the reference picture block is calculated directly from the illumination average value of all pixels in the actual block, rather than predicted with the surrounding pixel values.

다른 변형으로서, 상단과 좌측 이용 픽셀의 수를 늘리는 경우이다. 즉 바로 인접한 한층의 픽셀들만이 아니라, 인접한 2개 이상 층의 픽셀들을 이용할 수도 있다.Another variation is the case of increasing the number of upper and left used pixels. That is, not only pixels of one adjacent layer but also pixels of two or more adjacent layers may be used.

디코더 측에서는 식별 정보를 통해서 해당 블록의 조명 보상(illumination compensation) 여부를 결정할 수 있다. 조명 보상을 수행하게 되는 경우, 오차값

Figure 112008057611866-pct00052
에 대한 복호된 값을 먼저 구하고, 상기 예측 방법에 따라 예측 값을 구할 수 있다. 그리고 이 두 값을 더함으로써
Figure 112008057611866-pct00053
(=
Figure 112008057611866-pct00054
+ e)를 복호할 수 있다. 소위 상기 현재 블록의 예측자(predictor)로 불리는 예측 블록인 참조 블록(Reference block)으로부터
Figure 112008057611866-pct00055
을 빼 준 후, 차분 블록(residual block)값의 복호된 값에 더해줌으로써 현재 블록값을 최종적으로 구할 수 있다. 상기 현재 블록은 다음과 같이 복원될 수 있다.The decoder may determine whether illumination compensation of the corresponding block is performed through the identification information. If you perform lighting compensation, the error value
Figure 112008057611866-pct00052
A decoded value for may be obtained first, and a prediction value may be obtained according to the prediction method. And by adding these two values
Figure 112008057611866-pct00053
(=
Figure 112008057611866-pct00054
+ e) can be decoded. From a reference block, which is a prediction block called a predictor of the current block.
Figure 112008057611866-pct00055
After subtracting, the current block value can be finally obtained by adding to the decoded value of the residual block value. The current block may be restored as follows.

B = 예측 블록(prediction block) + 차분 블록(residual block) + (

Figure 112008057611866-pct00056
+ e), 여기서 B는 현재 블록값을 나타내고, 예측 블록은 상기 현재 블록의 예측자를 나타낸다. 그리고,
Figure 112008057611866-pct00057
은 상기 현재 블록의 조명 보상 오프셋 예측값인 평균 픽셀값의 예측된 차이값을 나타내고, e는 상기에서 설명한 오차값을 나타낸다. 디코딩부는 상기 현재 블록의 조명 보상 오프셋값과 예측된 차이값 사이의 오차값을 획득할 수 있다. 그리고, 상기 획득된 오차값과 상기 예측된 차이값을 이용하여 상기 현재 블록의 조명 보상 오프셋 값을 복원할 수 있다.B = prediction block + residual block + (
Figure 112008057611866-pct00056
+ e), where B represents a current block value and a predictive block represents a predictor of the current block. And,
Figure 112008057611866-pct00057
Denotes a predicted difference value of an average pixel value that is an illumination compensation offset prediction value of the current block, and e denotes an error value described above. The decoding unit may obtain an error value between the illumination compensation offset value and the predicted difference value of the current block. The illumination compensation offset value of the current block may be restored using the obtained error value and the predicted difference value.

도 9는 본 발명이 적용되는 일실시예로서, 현재 블록의 오프셋 값을 획득하는 과정을 설명하기 위한 도면을 나타낸다.9 is a diagram for describing a process of obtaining an offset value of a current block according to an embodiment to which the present invention is applied.

조명 보상은 움직임 추정(motion estimation) 과정에서 수행될 수 있다. 현재 블록과 후보 참조 블록(candidate reference block)의 유사성을 비교할 때 양 블록 사이의 조명 차이를 고려하여야 한다. 상기 조명 차이를 보상하기 위하여 새 로운 움직임 추정/움직임 보상(motion compensation)이 수행된다. 새로운 SAD는 아래 수학식 16,17을 이용하여 구할 수 있다.Illumination compensation may be performed in a motion estimation process. When comparing the similarity between the current block and the candidate reference block, the lighting difference between the two blocks should be considered. New motion estimation / motion compensation is performed to compensate for the illumination differences. The new SAD can be obtained by using Equations 16 and 17 below.

Figure 112008057611866-pct00058
Figure 112008057611866-pct00058

Figure 112008057611866-pct00059
Figure 112008057611866-pct00059

여기서, Mc 는 현재 블록의 평균 화소값을 나타내고, Mr 은 참조 블록의 평균 화소값을 나타낸다. Ic(x,y) 는 현재 블록의 (x,y)좌표에서의 화소값을 나타내고, Ir(x+△x, y+△y) 는 참조 블록의 움직임 벡터 (△x,△y)일 때의 화소값을 나타낸다. 상기 수학식 16의 새로운 SAD에 기초하여 움직임 추정을 수행함으로써 상기 현재 블록과 상기 참조 블록 사이의 평균 화소값 차이가 획득될 수 있다. 상기 획득된 평균 화소값 차이를 오프셋 값(IC_offset)이라 한다.Here, M c represents an average pixel value of the current block and M r represents an average pixel value of the reference block. I c (x, y) represents the pixel value at the (x, y) coordinate of the current block, and I r (x + Δx, y + Δy) is the motion vector (Δx, Δy) of the reference block. Indicates a pixel value. By performing motion estimation based on the new SAD of Equation 16, the average pixel value difference between the current block and the reference block can be obtained. The obtained average pixel value difference is referred to as an offset value IC_offset.

조명 보상이 적용된 움직임 추정이 수행되는 경우, 오프셋 값과 움직임 벡터 가 구해지고 조명 보상은 상기 오프셋 값과 상기 움직임 벡터를 이용하여 수학식 18과 같이 수행될 수 있다.When motion estimation with illumination compensation is performed, an offset value and a motion vector are obtained, and illumination compensation may be performed using Equation 18 using the offset value and the motion vector.

Figure 112008057611866-pct00060
Figure 112008057611866-pct00060

여기서, R(x,y)는 조명 보상이 수행된 오차값(residual)을 나타낸다. Here, R (x, y) represents an error value in which illumination compensation is performed.

상기 오프셋 값(IC_offset = Mc - Mr)은 디코딩부로 전송될 수 있다. 디코딩부에서의 조명 보상은 다음 수학식 19와 같이 수행될 수 있다.The offset value (IC_offset = M c M r ) may be transmitted to the decoding unit. Illumination compensation in the decoding unit may be performed as in Equation 19 below.

Figure 112008057611866-pct00061
Figure 112008057611866-pct00061

R'(x,y)는 복원된, 조명 보상이 수행된 오차값(residual)을 나타내고, I'c(x,y)는 복원된 현재 블록의 화소값을 나타낸다.R '(x, y) denotes a two restored, the illumination compensation values to perform the error (residual), I' c ( x, y) represents the pixel value of the restored current block.

현재 블록을 복원하기 위해서는 오프셋 값이 디코딩부에 전송되어야 하고, 상기 오프셋 값은 이웃 블록들의 정보로부터 예측될 수 있다. 상기 오프셋 값을 코딩할 비트수를 더 감소시키기 위하여, 현재 블록의 오프셋 값(IC_offset)과 이웃 블록의 오프셋 값(IC_offset_pred)과의 차이값(RIC_offset)만 보낼 수 있다. 이는 아래 수학식 20와 같다.In order to recover the current block, an offset value must be transmitted to the decoding unit, and the offset value can be predicted from information of neighboring blocks. In order to further reduce the number of bits to code the offset value, only the difference value R IC_offset between the offset value IC_offset of the current block and the offset value IC_offset_pred of the neighboring block may be sent. This is shown in Equation 20 below.

RIC _ offset = IC_offset ― IC_offset_predR IC _ offset = IC_offset-IC_offset_pred

도 10은 본 발명이 적용되는 일실시예로서, 현재 블록에 대한 조명 보상을 수행하는 과정을 설명하기 위한 흐름도를 나타낸다.FIG. 10 is a flowchart illustrating a process of performing lighting compensation on a current block according to an embodiment to which the present invention is applied.

현재 블록의 조명 보상 플래그가 0 인 경우에는 현재 블록에 대한 조명 보상이 수행되지 않는다. 플래그가 1인 경우에 현재 블록의 오프셋 값을 복원하는 과정이 수행된다. 이 때, 현재 블록의 프리딕터를 획득함에 있어서, 이웃 블록의 정보를 이용할 수 있다. 먼저 현재 블록의 참조 번호와 이웃 블록의 참조 번호가 동일한지 여부를 판단한다(S210). 상기 판단 결과에 기초하여 현재 블록의 조명 보상을 위한 프리딕터를 획득한다(S211). 상기 획득된 프리딕터를 이용하여 현재 블록의 오프셋 값을 복원한다(S212). 여기서, 상기 현재 블록의 참조 번호와 이웃 블록의 참조 번호가 동일한지 여부를 판단하고(S210), 그 판단 결과에 기초하여 프리딕터를 획득하는 단계(S211)에 대해서 보다 상세히 살펴볼 필요가 있다. 이에 대해서는 도 11에서 설명하도록 한다.When the lighting compensation flag of the current block is 0, lighting compensation for the current block is not performed. If the flag is 1, a process of restoring the offset value of the current block is performed. At this time, in obtaining the predictor of the current block, information of the neighboring block may be used. First, it is determined whether the reference number of the current block is the same as that of the neighboring block (S210). Based on the determination result, a predictor for lighting compensation of the current block is obtained (S211). The offset value of the current block is restored using the obtained predictor (S212). Here, it is necessary to examine in more detail the step S211 of determining whether the reference number of the current block and the reference number of the neighboring block are the same (S210) and acquiring a predictor based on the determination result. This will be described with reference to FIG. 11.

도 11은 본 발명이 적용되는 일실시예로서, 현재 블록과 이웃 블록의 참조 번호 동일 여부에 기초하여 프리딕터를 획득하는 방법을 설명하기 위한 흐름도를 나타낸다.FIG. 11 is a flowchart illustrating a method of acquiring a predictor based on whether a reference number is identical between a current block and a neighboring block according to an embodiment to which the present invention is applied.

디코딩부에서는 조명 보상을 수행하기 위하여 비디오 신호로부터 현재 블록의 이웃 블록들의 플래그 정보 및 오프셋 값, 상기 현재 블록과 그 이웃 블록들의 해당 참조 블록들의 참조 번호 등을 추출하고, 이러한 정보들을 이용하여 현재 블 록의 프리딕터를 획득할 수 있다. 그리고, 현재 블록의 오프셋 값과 상기 프리딕터 사이의 차이값(residual)을 획득하고, 상기 획득된 차이값과 상기 프리딕터를 이용하여 상기 현재 블록의 오프셋 값을 복원할 수 있다. The decoding unit extracts flag information and offset values of neighboring blocks of the current block, reference numbers of corresponding reference blocks of the current block and its neighboring blocks, and the like from the video signal to perform lighting compensation, and uses the current block Obtain a Lock Predictor. The offset value of the current block and the predictor may be obtained, and the offset value of the current block may be restored using the obtained difference value and the predictor.

이때, 현재 블록의 프리딕터를 획득함에 있어서, 이웃 블록의 정보를 이용할 수 있다. 예를 들어, 상기 이웃 블록의 오프셋 값을 이용하여 상기 현재 블록의 오프셋 값을 예측할 수 있는데, 이에 앞서 현재 블록의 참조 번호(reference index)와 상기 이웃 블록의 참조 번호가 동일한지 여부를 확인하고, 그 확인 결과에 따라 어떤 이웃 블록을 이용할지, 또는 어떤 값을 이용할지가 결정될 수 있다. 또한, 상기 이웃 블록의 플래그 정보가 참인지 여부를 확인하고, 그 확인 결과에 따라 상기 이웃 블록을 이용할지를 결정할 수 있다.In this case, in obtaining the predictor of the current block, information of the neighboring block may be used. For example, the offset value of the current block may be predicted by using the offset value of the neighboring block. Before this, whether the reference number of the current block is the same as the reference number of the neighboring block is determined. According to the checking result, which neighboring block or a value to use may be determined. In addition, it is possible to check whether the flag information of the neighboring block is true, and determine whether to use the neighboring block according to the check result.

첫번째 실시예로, 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 존재하는지 여부를 판단한다(S220). 상기 판단 결과, 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 1개만 존재하는 경우, 상기 참조 번호가 동일한 이웃 블록의 오프셋 값을 현재 블록의 프리딕터에 할당하게 된다(S221). 상기 S220 단계의 판단 결과에 따라 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 2개 존재하는 경우에는 동일한 참조 번호를 가지는 2개의 이웃 블록들의 오프셋 값들의 평균값이 현재 블록의 프리딕터에 할당된다(S222). 또한, 상기 S220 단계의 판단 결과에 따라 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 3개 존재하는 경우에는 동일한 참조 번호를 가지는 3개의 이웃 블록들의 오프셋 값들의 중간값(Median)이 현재 블록의 프리딕 터에 할당된다(S223). 또한, 상기 S220 단계의 판단 결과에 따라 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 존재하지 않는 경우, 현재 블록의 프리딕터는 "0"으로 할당된다(S224). 위의 참조 번호의 동일성을 확인하는 과정(S220)에서 해당 이웃 블록의 플래그가 1인지 여부를 확인하는 조건을 포함할 수 있다.In a first embodiment, it is determined whether a neighboring block having the same reference number as the reference number of the current block exists (S220). As a result of the determination, when only one neighboring block having the same reference number as the reference number of the current block exists, the offset value of the neighboring block having the same reference number is allocated to the predictor of the current block (S221). When two neighboring blocks having the same reference number as the reference number of the current block exist according to the determination result of step S220, an average value of offset values of two neighboring blocks having the same reference number is assigned to the predictor of the current block. (S222). In addition, when there are three neighboring blocks having the same reference number as the reference number of the current block according to the determination result of step S220, the median of the offset values of the three neighboring blocks having the same reference number is present. It is allocated to the predicate of the block (S223). In addition, when there is no neighbor block having the same reference number as the reference number of the current block according to the determination result of step S220, the predictor of the current block is allocated to "0" (S224). In step S220 of checking the sameness of the above reference numbers, a condition of checking whether the flag of the corresponding neighboring block is 1 may be included.

두번째 실시예로서, 이웃 블록이 현재 블록의 참조 번호와 동일한 참조 번호를 가지는지 여부를 확인하고, 상기 이웃 블록의 플래그가 1인지를 확인한다. 상기 두가지 조건이 모두 만족되는 이웃 블록이 있으면, 그 이웃 블록의 오프셋 값을 프리딕터로 할 수 있다. 이때, 이웃 블록을 체크하는 순서는 좌측 -> 상단 -> 상우측 -> 상좌측 순으로 할 수도 있고, 상단 -> 좌측 -> 상우측 -> 상좌측 순으로 할 수도 있다. 상기 두 가지 조건이 모두 만족되는 이웃 블록이 없고, 상기 3개의 이웃 블록들의 플래그들(예를 들어, 좌측, 상단, 상우측(또는 상좌측)에 있는 3개의 이웃블록의 플래그들)이 1이면, 상기 3개의 이웃 블록의 오프셋 값들의 중간값(median)을 프리딕터로 하고, 이 또한 만족하지 않으면, 현재 블록의 프리딕터는 "0"으로 할당될 수 있다.As a second embodiment, it is checked whether the neighboring block has the same reference number as that of the current block, and whether the flag of the neighboring block is 1 is checked. If there is a neighboring block that satisfies both of the above conditions, the offset value of the neighboring block may be a predictor. In this case, the order of checking the neighboring blocks may be in the order of left-> top-> upper right-> upper left, or in the order of upper-> left-> upper right-> upper left. If there is no neighboring block that satisfies both conditions, and the flags of the three neighboring blocks (for example, the flags of the three neighboring blocks on the left, top, top right (or top left)) are 1 If the median of the offset values of the three neighboring blocks is a predictor, and this is also not satisfied, the predictor of the current block may be allocated as "0".

도 12는 본 발명이 적용되는 일실시예로서, 현재 블록의 프리딕션 타입에 기초하여 조명 보상을 수행하는 방법을 설명하기 위한 흐름도를 나타낸다.12 is a flowchart illustrating a method of performing lighting compensation based on a prediction type of a current block according to an embodiment to which the present invention is applied.

현재 블록의 프리딕션 타입에 따라 참조하는 이웃 블록이 달라질 수 있다. 예를 들어, 현재 블록과 이웃 블록의 형상이 동일한 경우에는 현재 블록은 이웃 블록들의 중간값(Median)을 이용하여 예측을 수행할 수 있다. 그러나, 그 형상이 다 른 경우에는 다른 방법이 적용될 수 있다. The neighboring block referred to may vary according to the prediction type of the current block. For example, when the shape of the current block and the neighboring block is the same, the current block may perform prediction using the median of the neighboring blocks. However, other methods may be applied when the shapes are different.

예를 들어, 현재 블록의 좌측에 있는 블록이 여러 블록으로 나뉘어져 있을 경우 그 중 가장 상단에 위치한 블록이 예측을 위해 사용될 수 있다. 또는 현재 블록의 상단에 있는 블록이 여러 개로 나뉘어져 있을 경우 그 중 가장 좌측에 위치한 블록이 예측을 위해 사용될 수 있다. 이와 같이 현재 블록의 프리딕션 타입이 어느 이웃 블록을 사용할 것인지에 따라 그 예측값이 달라질 수 있다. 따라서, 본 발명의 일실시예에서는 먼저 현재 블록의 프리딕션 타입에 따라 참조하는 이웃 블록을 결정할 수 있다(S231). 상기 결정된 이웃 블록의 참조 번호와 상기 현재 블록의 참조 번호가 동일한지 여부를 판단할 수 있다(S232). 여기서, 위의 참조 번호의 동일여부를 확인하는 과정(S232)에서 해당 이웃 블록의 플래그가 1인지 여부를 확인하는 조건도 포함할 수 있다. 상기 판단 결과에 기초하여 현재 블록의 조명 보상을 위한 프리딕터를 획득할 수 있다(S233). 상기 획득된 프리딕터를 이용하여 현재 블록의 오프셋 값을 복원함으로써 조명 보상을 수행할 수 있다(S234). 여기서, 상기 S232 단계의 결과에 기초하여 S233 단계를 수행하는 과정에 대하여 구체적 실시예를 들어 설명하도록 한다. 이 부분에 대한 구체적 실시예들은 상기 도 11에서 설명한 방식과 유사한 방식으로 적용될 수 있다.For example, when a block on the left side of the current block is divided into several blocks, the block located at the top of the block may be used for prediction. Alternatively, when the block on the top of the current block is divided into several blocks, the leftmost block among them may be used for prediction. As such, the prediction value may vary depending on which neighboring block the prediction type of the current block uses. Therefore, in an embodiment of the present invention, first, the neighboring block to be referred may be determined according to the prediction type of the current block (S231). It may be determined whether the reference number of the determined neighboring block is the same as the reference number of the current block (S232). Here, the process of checking whether the same reference number is the same may include a condition of checking whether the flag of the corresponding neighboring block is 1 (S232). A predictor for lighting compensation of the current block may be obtained based on the determination result (S233). Lighting compensation may be performed by restoring the offset value of the current block by using the obtained predictor (S234). Here, a process of performing step S233 based on the result of step S232 will be described with reference to specific embodiments. Specific embodiments of this part may be applied in a manner similar to that described with reference to FIG. 11.

예를 들어, 현재 블록의 프리딕션 타입이 현재 블록의 좌측 블록을 참조하여 예측을 수행하는 경우라면, 상기 현재 블록의 좌측 블록의 참조 번호가 상기 현재 블록의 참조 번호와 동일한지 여부를 판단한다. 상기 판단 결과, 참조 번호가 동일한 경우 상기 좌측 블록의 오프셋 값을 현재 블록의 프리딕터에 할당한다. 또한, 현재 블록의 프리딕션 타입이 현재 블록의 좌측 블록과 상단 블록 2개를 참조하여 예측을 수행하는 경우, 또는 현재 블록의 좌측 블록과 상단 블록, 그리고 우측 상단 블록 3개를 참조하는 경우 등 각각의 경우는 상기 도 11에서 설명한 방식과 동일하게 적용된다.For example, when the prediction type of the current block performs prediction by referring to the left block of the current block, it is determined whether the reference number of the left block of the current block is the same as the reference number of the current block. As a result of the determination, when the reference numbers are the same, the offset value of the left block is allocated to the predictor of the current block. In addition, when the prediction type of the current block performs prediction by referring to the left block and the top two blocks of the current block, or the left block and the top block and the top right block of the current block, respectively. Is applied in the same manner as described in FIG.

도 13은 본 발명이 적용되는 일실시예로서, 해당 블록의 조명 보상 수행여부를 나타내는 플래그 정보를 이용하여 조명 보상을 수행하는 방법을 설명하기 위한 흐름도를 나타낸다.FIG. 13 is a flowchart illustrating a method of performing lighting compensation using flag information indicating whether to perform lighting compensation of a corresponding block in an embodiment to which the present invention is applied.

본 발명의 다른 실시예로, 현재 블록의 오프셋 값을 복원할 때, 상기 현재 블록의 조명 보상 수행 여부를 나타내는 플래그 정보(IC_flag)도 이용할 수 있다. 또는 상기 도 11에서 설명했던 참조 번호를 확인하는 방법과 플래그 정보를 예측하는 방법 모두를 이용하여 상기 프리딕터를 획득할 수도 있다. 먼저 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 존재하는지 여부를 판단할 수 있다(S241). 상기 판단 결과에 기초하여 현재 블록의 조명 보상을 위한 프리딕터를 획득할 수 있다. 이때 이웃 블록의 플래그가 1인지 여부를 판단 기준으로 포함할 수 있다(S242). 또한 상기 판단 결과에 기초하여 현재 블록의 플래그 정보를 예측할 수 있다(S243). 상기 획득된 프리딕터와 상기 예측된 플래그 정보를 이용하여 현재 블록의 오프셋 값을 복원함으로써 조명 보상을 수행할 수 있게 된다(S244). 여기서, 상기 S242 단계는 상기 도 11에서 설명한 방식과 동일하게 적용될 수 있다. 그리고 상기 S243 단계는 이하 도 14에서 상세하게 설명하도록 한다.In another embodiment of the present invention, when restoring the offset value of the current block, flag information IC_flag indicating whether the current block performs lighting compensation may also be used. Alternatively, the predictor may be obtained using both the method of confirming the reference number described with reference to FIG. 11 and the method of predicting flag information. First, it may be determined whether a neighboring block having the same reference number as the reference number of the current block exists (S241). A predictor for lighting compensation of the current block may be obtained based on the determination result. In this case, whether the flag of the neighboring block is 1 may be included as a criterion of determination (S242). In addition, the flag information of the current block may be predicted based on the determination result (S243). Lighting compensation may be performed by restoring the offset value of the current block by using the obtained predictor and the predicted flag information (S244). Here, the step S242 may be applied in the same manner as described in FIG. The step S243 will be described in detail later with reference to FIG. 14.

도 14는 본 발명이 적용되는 일실시예로서, 현재 블록과 이웃 블록의 참조 번호 동일 여부에 기초하여 현재 블록의 플래그 정보를 예측하는 방법을 설명하기 위한 흐름도를 나타낸다.FIG. 14 is a flowchart illustrating a method of predicting flag information of a current block based on whether a reference number of a current block and a neighboring block is the same as an embodiment to which the present invention is applied.

본 발명의 일실시예에서는, 먼저 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 존재하는지 여부를 판단할 수 있다(S250). 상기 판단 결과, 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 1개만 존재하는 경우, 상기 참조 번호가 동일한 이웃 블록의 플래그 정보로부터 현재 블록의 플래그 정보를 예측할 수 있다(S251). 상기 S250 단계의 판단 결과에 따라 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 2개 존재하는 경우에는 동일한 참조 번호를 가지는 2개의 이웃 블록들의 플래그 정보 중 어느 하나의 플래그 정보로부터 현재 블록의 플래그 정보를 예측할 수 있다(S252).In an embodiment of the present invention, first, it may be determined whether a neighboring block having the same reference number as that of the current block exists. As a result of the determination, when only one neighboring block having the same reference number as the reference number of the current block exists, the flag information of the current block may be predicted from the flag information of the neighboring block having the same reference number (S251). When there are two neighboring blocks having the same reference number as the reference number of the current block according to the determination result of step S250, the current block may be selected from the flag information of any one of flag information of two neighboring blocks having the same reference number. The flag information can be predicted (S252).

또한, 상기 S250 단계의 판단 결과에 따라 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 3개 존재하는 경우에는 동일한 참조 번호를 가지는 3개의 이웃 블록들의 플래그 정보 중 중간값(Median)으로부터 현재 블록의 플래그 정보를 예측할 수 있다(S253). 또한, 상기 S250 단계의 판단 결과에 따라 현재 블록의 참조 번호와 동일한 참조 번호를 가지는 이웃 블록이 존재하지 않는 경우, 현재 블록의 플래그 정보 예측은 수행하지 않을 수 있다(S254). In addition, when there are three neighboring blocks having the same reference number as the reference number of the current block according to the determination result of step S250, the current value is determined from the median of the flag information of the three neighboring blocks having the same reference number. The flag information of the block can be predicted (S253). In addition, when there is no neighbor block having the same reference number as the reference number of the current block according to the determination result of step S250, flag information prediction of the current block may not be performed (S254).

도 15는 본 발명이 적용되는 일실시예로서, 현재 블록이 2개의 참조 블록을 이용하여 예측 코딩된 경우에 있어서 조명 보상을 수행하는 방법을 설명하기 위한 흐름도이다.15 is a flowchart illustrating a method of performing lighting compensation when a current block is predictively coded using two reference blocks according to an embodiment to which the present invention is applied.

조명 보상을 수행함에 있어서, 현재 블록이 2개의 참조 블록을 이용하여 예 측 코딩된 경우에는 디코더에서 각 참조 블록에 대응되는 오프셋 값을 직접적으로 알 수 없게 된다. 왜냐하면, 현재 블록의 오프셋 값을 획득할 때, 상기 2개의 참조 블록을 평균한 화소값을 이용하였기 때문이다. 따라서, 본 발명의 일실시예에서는 각 참조 블록마다 대응되는 오프셋 값을 획득하여 보다 정확한 예측을 가능하게 할 수 있다. 먼저, 현재 블록의 프리딕터와 오차값을 이용하여 현재 블록의 오프셋 값을 복원한다(S261). 현재 블록이 2개의 참조 블록을 이용하여 예측 코딩된 경우, 상기 오프셋 값을 이용하여 각 참조 블록에 대응하는 오프셋 값을 획득한다(S262). 이는 아래 수학식 21과 같다.In performing the illumination compensation, when the current block is predictively coded using two reference blocks, the decoder cannot directly know an offset value corresponding to each reference block. This is because, when the offset value of the current block is obtained, the pixel value obtained by averaging the two reference blocks is used. Therefore, in an embodiment of the present invention, an offset value corresponding to each reference block may be obtained to enable more accurate prediction. First, the offset value of the current block is restored using the predictor and the error value of the current block (S261). If the current block is predictively coded using two reference blocks, an offset value corresponding to each reference block is obtained using the offset value (S262). This is shown in Equation 21 below.

Figure 112008057611866-pct00062
Figure 112008057611866-pct00063
Figure 112008057611866-pct00064
Figure 112008057611866-pct00065
Figure 112008057611866-pct00066
IC_Offset = - * - *
Figure 112008057611866-pct00062
Figure 112008057611866-pct00063
Figure 112008057611866-pct00064
Figure 112008057611866-pct00065
Figure 112008057611866-pct00066
IC_Offset =-*-*

IC_OffsetL0 =

Figure 112008057611866-pct00067
-
Figure 112008057611866-pct00068
= IC_Offset + (
Figure 112008057611866-pct00069
- 1)*
Figure 112008057611866-pct00070
+
Figure 112008057611866-pct00071
*
Figure 112008057611866-pct00072
IC_OffsetL0 =
Figure 112008057611866-pct00067
-
Figure 112008057611866-pct00068
= IC_Offset + (
Figure 112008057611866-pct00069
- One)*
Figure 112008057611866-pct00070
+
Figure 112008057611866-pct00071
*
Figure 112008057611866-pct00072

IC_OffsetL1 =

Figure 112008057611866-pct00073
-
Figure 112008057611866-pct00074
= IC_Offset +
Figure 112008057611866-pct00075
*
Figure 112008057611866-pct00076
+ (
Figure 112008057611866-pct00077
- 1)*
Figure 112008057611866-pct00078
.IC_OffsetL1 =
Figure 112008057611866-pct00073
-
Figure 112008057611866-pct00074
= IC_Offset +
Figure 112008057611866-pct00075
*
Figure 112008057611866-pct00076
+ (
Figure 112008057611866-pct00077
- One)*
Figure 112008057611866-pct00078
.

여기서, mc 는 현재 블록의 평균 화소값을 나타내고, mr ,1 , mr ,2는 각각 참조 블록의 평균 화소값을 나타낸다. w1 , w2 는 쌍방향 예측 코딩(bi-predictive coding)시의 가중치 계수를 나타낸다. Here, m c represents the average pixel value of the current block, and m r , 1 , m r , 2 represent the average pixel value of the reference block, respectively. w 1 and w 2 represent weight coefficients in bi-predictive coding.

상기 조명 보상 방법의 일실시예로서, 상기 시스템은 각 참조 블록에 대응하는 정확한 오프셋 값을 별도로 획득하여 이용할 수 있으므로 보다 정확한 예측 코 딩을 할 수 있게 된다. 상기 현재 블록의 오프셋 값을 복원할 때(S262), 복원된 오프셋 차이값(residual)과 프리딕터 값을 더하여 오프셋 값을 구할 수 있다. 이때, List 0의 참조 픽쳐와, List 1의 참조 픽쳐 각각에 대한 프리딕터를 구하고, 이들을 조합하여 현재블록의 오프셋 값을 복원할 때 필요한 프리딕터 값을 구할 수 있다.As an embodiment of the illumination compensation method, the system can separately obtain and use an accurate offset value corresponding to each reference block, thereby enabling more accurate prediction coding. When restoring the offset value of the current block (S262), the offset value may be obtained by adding the restored offset difference value and the predictor value. In this case, a predictor for each of the reference picture of List 0 and each of the reference pictures of List 1 may be obtained, and a combination of these may be used to obtain a predictor required for restoring the offset value of the current block.

또 다른 실시예로서, 본 발명은 스킵 매크로블록의 경우에도 적용될 수 있다. 본 실시예에서는 예측이 조명 보상에 관한 정보를 획득하기 위하여 수행된다. 조명 보상 수행 여부를 나타내는 플래그 정보는 주변 블록에서 예측된 값을 쓸 수 있고, 현재 블록의 오프셋 값은 주변 블록에서 예측된 오프셋 값을 쓸 수 있다. 예를 들어, 플래그 정보가 참이라면 오프셋 값은 참조 블록에 더해지게 된다. 구체적 예로서, P-Skip 모드가 적용되는 매크로블록의 경우, 좌측과 상단의 이웃 블록들의 플래그와 오프셋 값을 이용해서 예측하여 상기 매크로블록의 플래그와 오프셋 값을 구할 수 있다. 한개의 블록만 플래그가 1이라면 상기 현재 블록의 플래그와 오프셋 값은 상기 블록의 플래그와 오프셋값으로 설정될 수 있다. 두개의 블록이 모두 플래그 1을 가지면, 상기 현재 블록의 플래그는 1이 되고, 오프셋 값은 두 이웃 블록의 오프셋값의 평균값으로 설정될 수 있다.As another embodiment, the present invention may be applied to a skip macroblock. In this embodiment, prediction is performed to obtain information regarding lighting compensation. The flag information indicating whether the lighting compensation is performed may use a value predicted in the neighboring block, and the offset value of the current block may use an offset value predicted in the neighboring block. For example, if the flag information is true, the offset value is added to the reference block. As a specific example, in the case of the macroblock to which the P-Skip mode is applied, the flag and the offset value of the macroblock may be obtained by predicting using the flags and the offset values of the neighboring blocks on the left and the top. If only one block flag is 1, the flag and offset value of the current block may be set to the flag and offset value of the block. If both blocks have the flag 1, the flag of the current block is 1, and the offset value may be set to an average value of offset values of two neighboring blocks.

또 다른 실시예로서, 본 발명은 직접 예측 모드(예를 들어, Direct, B-Skip 모드)에도 적용될 수 있다. 본 실시예에서는 예측이 조명 보상에 관한 정보를 획득하기 위하여 수행된다. 상기의 다양한 플래그, 오프셋 예측 방법들을 적용해서 각각의 프리딕터를 구할 수 있다. 이 값을 현재 블록의 실제 플래그, 오프셋 값으로 설정할 수 있다. 각 블록이 한쌍의 플래그, 오프셋 정보만을 갖고 있다면, 각각에 대해서 하나씩의 예측값을 구하면 된다. 이때 참조블록이 2개인 경우, 참조 번호 체크를 할 경우에는 상기 현재 블록과 이웃 블록의 각 참조 번호가 모두 일치하는 지를 체크한다. 또한, 각 참조블록에 대해서 각각의 오프셋 값을 가지고 있는 경우에는 예측된 제 1 플래그 정보와 예측된 제 1 오프셋 값, 예측된 제 2 플래그 정보와 예측된 제 2 오프셋 값이 획득될 수 있다. 이 경우, 플래그 정보는 주변 블록에서 예측된 값을 쓸 수 있고, 2개의 참조 블록의 오프셋 값은 각각 상기 예측된 제 1 오프셋 값과 제 2 오프셋 값을 쓸 수 있다. 여기서 현재 블록의 오프셋 값은 각 참조 블록의 오프셋 값의 평균값을 쓸 수 있다.As another embodiment, the present invention may be applied to a direct prediction mode (eg, Direct, B-Skip mode). In this embodiment, prediction is performed to obtain information regarding lighting compensation. Each of the predictors can be obtained by applying the various flag and offset prediction methods described above. You can set this value to the actual flag and offset value of the current block. If each block has only a pair of flag and offset information, one prediction value for each block may be obtained. In this case, when there are two reference blocks, when the reference number is checked, it is checked whether each reference number of the current block and the neighboring block is identical. In addition, when each reference block has an offset value, the predicted first flag information, the predicted first offset value, the predicted second flag information, and the predicted second offset value may be obtained. In this case, the flag information may write a predicted value in the neighboring block, and the offset values of the two reference blocks may write the predicted first offset value and the second offset value, respectively. Here, the offset value of the current block may use an average value of the offset values of each reference block.

직접 예측 모드와 스킵 매크로블록의 경우 플래그 정보를 부호화/복호화할 수도 있다. 즉, 플래그 값에 따라 오프셋 값이 더해질 수도 있고, 그렇지 않을 수도 있다. 또한, 오프셋 값과 예측된 오프셋 값 사이의 오차값을 부호화/복호화할 수도 있다. 이 경우 좀더 정확하게 복원될 수 있으며, RD측면에서 최적인 것을 선택하도록 할 수도 있다. 또한, 본 명세서에서 설명한 예측 과정에서 참조 픽쳐가 이용가능하지 않은 경우, 즉 참조 픽쳐 번호가 1보다 작은 경우는 플래그 정보 또는 예측된 플래그 정보가 거짓이 될 수 있고, 오프셋 값 또는 예측된 오프셋 값은 0으로 설정될 수 있다.In the case of the direct prediction mode and the skip macroblock, flag information may be encoded / decoded. That is, the offset value may or may not be added according to the flag value. In addition, an error value between the offset value and the predicted offset value may be encoded / decoded. In this case, it can be restored more accurately, and it is possible to select the optimal one in terms of RD. In addition, when the reference picture is not available in the prediction process described herein, that is, when the reference picture number is less than 1, the flag information or the predicted flag information may be false, and the offset value or the predicted offset value may be It can be set to zero.

또 다른 실시예로서, 본 발명은 엔트로피 코딩에도 적용될 수 있다. 플래그 정보에 대해서는 이웃 블록(예를 들어, 현재 블록의 좌측 블록과 상위 블록)의 플래그 값에 따라 3개의 컨텍스트를 생각할 수 있다. As another embodiment, the present invention may be applied to entropy coding. Regarding the flag information, three contexts can be considered according to the flag value of the neighboring block (for example, the left block and the upper block of the current block).

플래그 값이 참일 경우는 1, 거짓일 경우는 0으로 변환하면 각 경우에 대해서 두 값을 합하면 3가지 경우가 나온다. 이러한 3개의 컨텍스트를 이용하여 플래그 정보를 부호화/복호화할 수 있다. 오프셋의 예측 오차값에 대해서는 예를 들어, 변환 계수 레벨 코딩(transform coefficient levels coding)에서와 같은 방법을 사용할 수 있다. 즉 UEG0로 이진화가 수행되고 최초 빈(first bin) 값에 대해서 컨텍스트 모델 하나, 유너리 프리픽스 파트(unary prefix part)의 나머지 빈(bin) 값들에 대해서 컨텍스트 모델 하나 적용할 수 있다. 사인 비트(sign bit)는 바이패스 모드(bypass mode)로 부호화/복호화될 수 있다. 플래그 정보에 대해서 다른 실시예로서, 예측된 플래그 정보의 값에 따라 2개의 컨텍스트를 생각할 수 있으며 이를 이용해서 부호화/복호화할 수 있다.If the flag value is true, it is converted to 1, and if it is false, it is converted to 0. Flag information can be encoded / decoded using these three contexts. For the prediction error value of the offset, the same method as in transform coefficient levels coding can be used, for example. That is, binarization may be performed to UEG0, and one context model may be applied to the first bin value and one context model may be applied to the remaining bin values of the unary prefix part. The sign bit may be encoded / decoded in a bypass mode. As another embodiment of the flag information, two contexts may be considered according to the predicted value of the flag information and may be encoded / decoded using the context.

도 16은 본 발명이 적용된 실시예로서, 현재 블록의 조명 보상 수행여부를 나타내는 플래그 정보와 현재 블록의 오프셋 값을 이용하여 조명 보상을 수행하는 과정을 설명하기 위한 흐름도를 나타낸다.FIG. 16 is a flowchart illustrating a process of performing lighting compensation using flag information indicating whether lighting compensation is performed on a current block and an offset value of the current block according to an embodiment to which the present invention is applied.

디코딩부에서는 조명 보상을 수행하기 위하여 비디오 신호로부터 다양한 정보, 예를 들어, 상기 현재 블록의 이웃 블록들의 플래그 정보 및 오프셋 값, 상기 현재 블록과 그 이웃 블록들의 해당 참조 블록들의 인덱스 정보 등을 추출할 수 있다. 그리고, 이러한 정보들을 이용하여 상기 현재 블록의 프리딕터를 획득할 수 있다. 상기 디코딩부는, 현재 블록의 오프셋 값과 상기 프리딕터 사이의 차이값(residual)을 획득하고, 상기 획득된 차이값과 상기 프리딕터를 이용하여 상기 현재 블록의 오프셋 값을 복원할 수 있다. 이때, 현재 블록의 오프셋 값을 복원할 때, 상기 현재 블록의 조명 보상 수행 여부를 나타내는 플래그 정보(IC_flag)를 이용할 수 있다. In order to perform lighting compensation, the decoding unit extracts various information, for example, flag information and offset values of neighboring blocks of the current block, index information of corresponding reference blocks of the current block and its neighboring blocks, and the like from the video signal. Can be. In addition, the information of the current block may be obtained using the information. The decoder may obtain a difference between the offset value of the current block and the predictor and restore the offset value of the current block by using the obtained difference value and the predictor. In this case, when restoring the offset value of the current block, flag information IC_flag indicating whether illumination compensation of the current block is performed may be used.

상기 디코딩부는 비디오 신호로부터 현재 블록의 조명보상 수행여부를 나타내는 플래그 정보를 획득한다(S271). 상기 플래그 정보에 따라 조명보상이 수행되는 경우, 상기 현재 블록의 평균 화소값과 참조 블록의 평균 화소값의 차이를 나타내는 현재 블록의 오프셋 값을 복원할 수 있다(S272). 이처럼, 조명 보상 기술은 서로 다른 픽쳐에 속한 블록들의 평균 화소값의 차이값을 코딩한다. 각 블록에 대해서 조명 보상 기술의 적용 여부를 나타내는 플래그가 사용될 때, 해당 블록이 P 슬라이스에 속한 블록인 경우에는 하나의 플래그 정보와 하나의 오프셋 값을 부호화/복호화하면 된다. 그러나, 해당 블록이 B 슬라이스에 속한 블록인 경우에는 여러 가지 방법이 가능할 수 있다. 이하 도 17a ~ 도 17b에서 상세하게 설명하도록 한다.The decoding unit obtains flag information indicating whether to perform illumination compensation of the current block from the video signal (S271). When illumination compensation is performed according to the flag information, the offset value of the current block indicating the difference between the average pixel value of the current block and the average pixel value of the reference block may be restored (S272). As such, the illumination compensation technique codes difference values of average pixel values of blocks belonging to different pictures. When a flag indicating whether the illumination compensation technique is applied to each block is used, when the corresponding block is a block belonging to a P slice, one flag information and one offset value may be encoded / decoded. However, if the corresponding block is a block belonging to a B slice, various methods may be possible. Hereinafter, the detailed description will be made with reference to FIGS. 17A to 17B.

도 17a ~ 도 17b는 본 발명이 적용된 일실시예로서, 각각 P 슬라이스 및 B 슬라이스에 속한 블록에 대해 플래그 정보와 오프셋 값을 이용하여 조명 보상을 수행하는 방법을 설명하기 위해 나타낸 것이다.17A to 17B illustrate an embodiment to which the present invention is applied to explain a method of performing illumination compensation using flag information and offset values for blocks belonging to a P slice and a B slice, respectively.

상기 도 17a에서, "C"는 현재 블록(C)을 나타내고, "N"는 현재 블록(C)에 이웃하는 블록을, "R"은 현재 블록(C)이 참조하는 블록을, "S"는 현재 블록(C)에 이웃하는 블록(N)이 참조하는 블록을 나타낸다. "mc"는 현재 블록의 평균 화소값을 나타내고, "mr"은 현재 블록이 참조하는 블록의 평균 화소값을 나타낸다. 현재 블 록(C)의 오프셋 값을 "IC_offset" 이라 하면, IC_offset = mc - mr 이 된다. In FIG. 17A, "C" represents a current block C, "N" represents a block neighboring the current block C, "R" represents a block referred to by the current block C, and "S". Denotes a block referenced by a block N neighboring the current block C. "m c " represents an average pixel value of the current block, and "m r " represents an average pixel value of the block referenced by the current block. If the offset value of the current block (C) is called "IC_offset", then IC_offset = m c- m r becomes

마찬가지로 이웃 블록(N)의 오프셋 값을 "IC_offset_pred"라 하면, 인코딩부에서는 현재 블록(C)의 오프셋 값인 "IC_offset"을 복원하기 위해 그 값을 그대로 전송하지 않고, 현재 블록의 오프셋 값(IC_offset)과 이웃 블록의 오프셋 값(IC_offset_pred)과의 차이값(RIC_offset)만을 보낼 수 있다. 여기서, RIC _ offset은 상기 수학식 20과 같다. Similarly, if the offset value of the neighboring block N is "IC_offset_pred", the encoding unit does not transmit the value as it is to restore "IC_offset", which is the offset value of the current block C, but instead offsets the offset value (IC_offset) of the current block. Only the difference value R IC_offset between the offset value IC_offset_pred and the neighboring block may be transmitted. Wherein, R IC _ offset is shown in Equation 20.

상기 이웃 블록의 플래그 정보 또는 오프셋 값으로부터 현재 블록의 프리딕터를 생성할 때는 다양한 방법이 적용될 수 있다. 예를 들어, 이웃 블록 하나만의 정보를 이용할 수도 있고, 2 이상의 이웃 블록의 정보를 이용할 수도 있다. 2 이상의 이웃 블록의 정보를 이용하는 경우에는 평균값을 이용할 수도 있고, 중간값(median)을 이용할 수도 있다. 이처럼, 현재 블록이 하나의 참조 블록을 이용하여 예측 코딩된 경우에는 하나의 오프셋 값과 하나의 플래그 정보를 이용하여 조명 보상을 수행할 수 있다. Various methods may be applied when generating the predicate of the current block from the flag information or the offset value of the neighboring block. For example, information of only one neighboring block may be used, or information of two or more neighboring blocks may be used. When using information of two or more neighboring blocks, an average value may be used or a median may be used. As such, when the current block is predictively coded using one reference block, lighting compensation may be performed using one offset value and one flag information.

그러나, 해당 블록이 B 슬라이스에 속한 블록인 경우, 즉 현재 블록이 2 이상의 참조 블록들을 이용하여 예측 코딩된 경우에는 여러 가지 방법이 가능할 수 있다. However, if the corresponding block is a block belonging to a B slice, that is, the current block is predictively coded using two or more reference blocks, various methods may be possible.

예를 들어, 도 17b에서 "C"는 현재 블록(C)을 나타내고, "N"은 현재 블록(C)에 이웃하는 블록을, "R0"는 현재 블록이 참조하는 List 0의 참조 픽쳐 1에 있는 참조 블록을, "S0"는 이웃 블록이 참조하는 List 0의 참조 픽쳐 1에 있는 참조 블 록을 나타낸다고 가정한다. 그리고, "R1"은 현재 블록이 참조하는 List 1의 참조 픽쳐 3에 있는 참조 블록을, "S0"는 이웃 블록이 참조하는 List 1의 참조 픽쳐 3에 있는 참조 블록을 나타낸다고 가정한다. 이 때, 현재 블록의 플래그 정보와 오프셋 값은 각 참조 블록에 대해 존재하므로 각각 두 개의 값이 존재한다. 따라서, 상기 플래그 정보와 오프셋 값을 이용함에 있어서, 각각 적어도 하나 이상을 이용할 수 있다.For example, in FIG. 17B, "C" represents a current block C, "N" represents a block neighboring the current block C, and "R0" corresponds to reference picture 1 of List 0 referenced by the current block. For a reference block, it is assumed that "S0" represents a reference block in reference picture 1 of List 0 referenced by a neighboring block. In addition, it is assumed that "R1" represents a reference block in reference picture 3 of List 1 referred to by the current block, and "S0" represents a reference block in reference picture 3 of List 1 referred to by the neighboring block. In this case, since the flag information and the offset value of the current block exist for each reference block, two values exist. Accordingly, at least one of the flag information and the offset value may be used.

첫번째 예로, 움직임 보상을 통하여 두 개의 참조 블록에 대한 정보의 조합으로 현재 블록의 프리딕터가 구해질 수 있다. 여기서, 현재 블록에 조명 보상를 적용할지 여부를 하나의 플래그 정보로 나타내고, 상기 플래그 정보가 참인 경우, 상기 현재 블록과 상기 프리딕터로부터 하나의 오프셋 값을 획득하여 부호화/복호화를 수행할 수 있다. As a first example, the predictor of the current block may be obtained by combining information about two reference blocks through motion compensation. Here, whether to apply lighting compensation to the current block is indicated by one flag information, and when the flag information is true, one offset value may be obtained from the current block and the predictor to perform encoding / decoding.

두번째 예로, 움직임 보상을 수행하는 과정에서 두 개의 참조 블록에 대해서 각각 조명 보상을 적용할지 여부가 결정될 수 있다. 각각의 참조 블록에 대해서 플래그 정보가 부여되고, 상기 플래그 정보를 이용하여 획득된 하나의 오프셋 값이 부호화/복호화될 수 있다. 이 경우, 플래그 정보는 참조 블록을 기준으로 2개, 오프셋 값은 현재 블록을 기준으로 1개 사용될 수 있다.As a second example, it may be determined whether to apply illumination compensation to two reference blocks in the process of performing motion compensation. Flag information is provided for each reference block, and one offset value obtained using the flag information may be encoded / decoded. In this case, two flag information may be used based on the reference block and one offset value may be used based on the current block.

세번째 예로, 현재 블록을 기준으로, 이 블록에 대해서 조명 보상을 적용할 것인지 여부를 하나의 플래그 정보에 나타낼 수 있다. 그리고, 두 개의 참조 블록에 대해서 각각의 오프셋 값이 부호화/복호화될 수 있다. 부호화 과정에 있어서, 어느 한쪽의 참조 블록에 대해서 조명 보상을 적용하지 않는 경우에는 그에 해당하 는 오프셋 값을 0으로 한다. 이 경우, 플래그 정보는 현재 블록을 기준으로 1개, 오프셋 값은 참조 블록을 기준으로 2개 사용될 수 있다. As a third example, whether or not to apply lighting compensation to this block based on the current block may be indicated in one flag information. Each offset value may be encoded / decoded with respect to two reference blocks. In the encoding process, when illumination compensation is not applied to any one of the reference blocks, the corresponding offset value is set to zero. In this case, one flag information may be used based on the current block and two offset values may be used based on the reference block.

네번째 예로, 각 참조 블록에 대해서 각각의 플래그 정보와 오프셋 값이 부호화/복호화될 수 있다. 이 경우, 플래그 정보와 오프셋 값은 모두 참조 블록을 기준으로 각각 2개씩 사용될 수 있다. As a fourth example, each flag information and an offset value may be encoded / decoded for each reference block. In this case, both the flag information and the offset value may be used in each of two reference blocks.

상기 첫번째~네번째 예의 경우에 대해서, 오프셋 값은 그대로 부호화되지 않고, 이웃 블록의 오프셋 값으로부터 예측한 후, 그 오차값만을 부호화할 수 있다. In the case of the first to fourth examples, the offset value is not encoded as it is, and after predicting from the offset value of the neighboring block, only the error value can be encoded.

도 18은 본 발명이 적용되는 일실시예로서, 현재 블록이 2개의 참조 블록을 이용하여 예측 코딩된 경우에 있어서 조명 보상을 수행하는 방법을 설명하기 위한 흐름도이다.18 is a flowchart illustrating a method of performing lighting compensation when a current block is predictively coded using two reference blocks according to an embodiment to which the present invention is applied.

현재 블록이 B 슬라이스에 속한 블록인 경우, 조명 보상을 수행하기 위하여 비디오 신호로부터 상기 현재 블록의 이웃 블록들의 플래그 정보 및 오프셋 값, 상기 현재 블록과 그 이웃 블록들의 해당 참조 블록들의 인덱스 정보 등을 추출하고, 이러한 정보들을 이용하여 현재 블록의 프리딕터를 획득할 수 있다. 그리고, 현재 블록의 오프셋 값과 상기 프리딕터 사이의 차이값(residual)을 획득하고, 상기 획득된 차이값과 상기 프리딕터를 이용하여 상기 현재 블록의 오프셋 값을 복원할 수 있다. 이때, 현재 블록의 오프셋 값을 복원할 때, 상기 현재 블록의 조명 보상 수행 여부를 나타내는 플래그 정보(IC_flag)를 이용할 수 있다. If the current block is a block belonging to a B slice, in order to perform lighting compensation, flag information and offset values of neighboring blocks of the current block, index information of corresponding reference blocks of the current block and its neighboring blocks, etc. are extracted from the video signal. In addition, the information of the current block may be obtained using the information. The offset value of the current block and the predictor may be obtained, and the offset value of the current block may be restored using the obtained difference value and the predictor. In this case, when restoring the offset value of the current block, flag information IC_flag indicating whether illumination compensation of the current block is performed may be used.

상기 디코딩부는, 비디오 신호로부터 현재 블록의 조명보상 수행여부를 나타내는 플래그 정보를 획득할 수 있다(S291). 상기 플래그 정보에 따라 조명보상이 수행되는 경우, 상기 현재 블록의 평균 화소값과 참조 블록의 평균 화소값의 차이를 나타내는 현재 블록의 오프셋 값을 복원할 수 있다(S292). The decoding unit may obtain flag information indicating whether to perform illumination compensation of the current block from the video signal (S291). When illumination compensation is performed according to the flag information, the offset value of the current block indicating the difference between the average pixel value of the current block and the average pixel value of the reference block may be restored (S292).

그런데, 이와 같이 현재 블록이 2개의 참조 블록을 이용하여 예측 코딩된 경우에는 디코더에서 각 참조 블록에 대응되는 오프셋 값을 직접적으로 알 수 없게 된다. 왜냐하면, 현재 블록의 오프셋 값을 획득할 때, 상기 2개의 참조 블록을 평균한 화소값을 이용하였기 때문이다. 따라서, 본 발명의 일실시예에서는 각 참조 블록마다 대응되는 오프셋 값을 획득하여 보다 정확한 예측을 가능하게 할 수 있다. 따라서, 현재 블록이 2개의 참조 블록을 이용하여 예측 코딩된 경우, 상기 오프셋 값을 이용하여 각 참조 블록에 대응하는 오프셋 값을 획득할 수 있다(S293). 이는 아래 수학식 22와 같다.However, when the current block is predictively coded using two reference blocks as described above, the decoder cannot directly know an offset value corresponding to each reference block. This is because, when the offset value of the current block is obtained, the pixel value obtained by averaging the two reference blocks is used. Therefore, in an embodiment of the present invention, an offset value corresponding to each reference block may be obtained to enable more accurate prediction. Therefore, when the current block is predictively coded using two reference blocks, an offset value corresponding to each reference block may be obtained using the offset value (S293). This is shown in Equation 22 below.

IC_offset = mc - w1 * mr ,1 - w2 * mr ,2 IC_offset = m c -w 1 * m r , 1 -w 2 * m r , 2

IC_offsetL0 = mc - mr ,1 = IC_offset + (w1-1)* mr ,1 + w2 * mr ,2 IC_offsetL0 = m c -m r , 1 = IC_offset + (w 1 -1) * m r , 1 + w 2 * m r , 2

IC_offsetL1 = mc - mr ,2 = IC_offset + w1 * mr ,1 + (w2 - 1) * mr ,2.IC_offsetL1 = m c -m r , 2 = IC_offset + w 1 * m r , 1 + (w 2 -1) * m r , 2 .

여기서, mc 는 현재 블록의 평균 화소값을 나타내고, mr ,1 , mr ,2는 각각 참조 블록의 평균 화소값을 나타낸다. w1 , w2 는 쌍방향 예측 코딩(bi-predictive coding)시의 가중치 계수를 나타낸다.Here, m c represents the average pixel value of the current block, and m r , 1 , m r , 2 represent the average pixel value of the reference block, respectively. w 1 and w 2 represent weight coefficients in bi-predictive coding.

이러한 방법으로 조명 보상을 수행하게 되는 경우, 각 참조 블록에 대응하는 정확한 오프셋 값을 별도로 획득하여 이용할 수 있게 되므로 보다 정확한 예측 코딩을 할 수 있게 된다. 상기 현재 블록의 오프셋 값을 복원할 때, 복원된 오프셋 차이값(residual)과 프리딕터 값을 더하여 오프셋 값을 획득할 수 있다. 이 때, List0, List1 각각에 대한 프리딕터를 구하고, 이들을 조합하여 현재 블록의 오프셋 값을 복원할 때 필요한 프리딕터 값을 구할 수 있다.When the illumination compensation is performed in this manner, the accurate offset value corresponding to each reference block can be obtained and used separately, thereby enabling more accurate predictive coding. When restoring the offset value of the current block, the offset value may be obtained by adding the restored offset difference value and the predictor value. At this time, a predictor for each of List0 and List1 may be obtained, and the combination may be combined to obtain a predicator required when restoring the offset value of the current block.

도 19는 본 발명이 적용되는 일실시예로서, 현재 블록의 조명 보상 수행 여부를 나타내는 플래그 정보를 이용하여 조명 보상을 수행하는 과정을 설명하기 위한 흐름도를 나타낸다.19 is a flowchart illustrating a process of performing lighting compensation by using flag information indicating whether lighting compensation is performed on a current block according to an embodiment to which the present invention is applied.

조명 보상 기술은 카메라 사이의 조명 또는 색상(color) 차이를 보상하기 위한 것이다. 이 기술은 좀더 확장하여, 같은 카메라에서 획득된 시퀀스 영상들 사이에서도 적용할 수 있다. 이 기술을 통해서 조명이나 색상 차이가 움직임 추정에 크게 영향을 미치지 않도록 할 수 있다. 그러나, 실제 부호화 과정에서는 조명 보상의 적용 여부를 나타내는 플래그 정보를 사용하게 된다. 조명 보상의 적용 범위는 시퀀스(sequence), 시점(view), GOP(Group Of Picture), 픽쳐(picture), 슬라이스(slice), 매크로블록(macroblock), 서브블록(sub-block) 등이 될 수 있다. Lighting compensation techniques are intended to compensate for lighting or color differences between cameras. This technique is further extended and can be applied between sequence images obtained from the same camera. This technique ensures that lighting or color differences do not significantly affect motion estimation. However, in actual encoding, flag information indicating whether lighting compensation is applied is used. The scope of illumination compensation may be a sequence, a view, a group of pictures (GOP), a picture, a slice, a macroblock, a sub-block, and the like. have.

작은 영역 범위에 조명 보상 기술이 쓰이면, 좀더 로컬(local)한 영역에 대해서 조절이 가능하지만, 그대신 플래그 정보를 위한 비트가 그만큼 많이 소요된다. 또한, 많은 경우에 조명 보상 기술이 필요없을 수도 있다. 따라서, 각 영역 범위 별로 조명 보상 기술의 사용 여부를 나타내는 플래그 비트를 할당함으로써, 효과적으로 조명 보상 기술을 사용할 수 있게 된다. 먼저 비디오 신호의 일정 계층에 대해 조명 보상을 수행하도록 유도하는 플래그 정보를 획득할 수 있다(S301). If the lighting compensation technique is used in a small area range, it is possible to adjust the more local area, but instead, it takes a lot of bits for the flag information. Also, in many cases, lighting compensation techniques may not be needed. Therefore, by assigning a flag bit indicating whether the illumination compensation technique is used for each region range, it is possible to effectively use the illumination compensation technique. First, flag information for inducing lighting compensation for a predetermined layer of a video signal may be obtained (S301).

예를 들어, 각 영역 범위 별로 다음과 같이 플래그 정보를 설정할 수 있다. 시퀀스 계층에 대해서는 "seq_IC_flag", 시점 계층에 대해서는 "view_IC_flag", GOP 계층에 대해서는 "GOP_IC_flag", 픽쳐 계층에 대해서는 "pic_IC_flag", 슬라이스 계층에 대해서는 "slice_IC_flag", 매크로블록 계층에 대해서는 "mb_IC_flag", 블록 계층에 대해서는 "blk_IC_flag" 로 플래그 비트를 할당할 수 있다. 이에 대해서는 도 20a ~ 도 20c에서 상세히 설명하도록 한다. 그리고, 상기 플래그 정보에 따라 조명 보상이 수행된 상기 비디오 신호의 일정 계층을 디코딩할 수 있게 된다(S302). For example, flag information may be set for each region range as follows. "Seq_IC_flag" for sequence layer, "view_IC_flag" for view layer, "GOP_IC_flag" for GOP layer, "pic_IC_flag" for picture layer, "slice_IC_flag" for slice layer, "mb_IC_flag" for macroblock layer, block For the layer, flag bits may be allocated with "blk_IC_flag". This will be described in detail with reference to FIGS. 20A to 20C. In operation S302, a predetermined layer of the video signal on which illumination compensation is performed may be decoded according to the flag information.

도 20a ~ 도 20c는 본 발명이 적용된 일실시예로서, 현재 블록의 조명 보상 수행하도록 유도하는 플래그 정보의 사용 범위를 설명하기 위해 나타낸 것이다.20A to 20C are diagrams for describing a range of use of flag information for inducing lighting compensation of a current block as an embodiment to which the present invention is applied.

조명 보상을 수행하도록 유도하는 플래그 정보의 적용 범위를 계층별로 구분할 수 있다. 예를 들어, 상기 도 20a ~ 도 20b에서처럼, 시퀀스 계층에 대해서는 "seq_IC_flag"(311), 시점 계층에 대해서는 "view_IC_flag"(312), GOP 계층에 대해서는 "GOP_IC_flag"(313), 픽쳐 계층에 대해서는 "pic_IC_flag"(314), 슬라이스 계층에 대해서는 "slice_IC_flag"(315), 매크로블록 계층에 대해서는 "mb_IC_flag"(316), 블록 계층에 대해서는 "blk_IC_flag"(317) 로 나타낼 수 있다. An application range of flag information for inducing lighting compensation may be divided by layers. For example, as illustrated in FIGS. 20A to 20B, "seq_IC_flag" 311 for the sequence layer, "view_IC_flag" 312 for the view layer, "GOP_IC_flag" 313 for the GOP layer, and "" for the picture layer are described. pic_IC_flag "314," slice_IC_flag "315 for the slice layer," mb_IC_flag "316 for the macroblock layer, and" blk_IC_flag "317 for the block layer.

여기서, 각 플래그는 1비트 정보이며, 상기 플래그들은 적어도 하나 이상 존재할 수 있다. 또한, 시퀀스/시점/픽쳐/슬라이스 범위 등의 플래그들은 해당 파라미터 세트 또는 헤더에 위치할 수 있으며, 또는 다른 파라미터 세트에도 위치할 수 있다. 예를 들어, "seq_IC_flag"(311)는 시퀀스 파라미터 세트(sequence parameter set)에 위치할 수 있고, "view_IC_flag"(312)는 시점 파라미터 세트(view parameter set)에 위치할 수 있으며, "pic_IC_flag"(314)는 픽쳐 파라미터 세트(picture parameter set)에 위치할 수 있다. 또한, "slice_IC_flag"(315)는 슬라이스 헤더에 위치할 수 있다.Here, each flag is 1 bit information, and at least one flag may exist. In addition, flags such as sequence / view / picture / slice range may be located in the corresponding parameter set or header, or in other parameter sets. For example, "seq_IC_flag" 311 may be located in a sequence parameter set, "view_IC_flag" 312 may be located in a view parameter set, and "pic_IC_flag" ( 314 may be located in a picture parameter set. Also, "slice_IC_flag" 315 may be located in the slice header.

상기 플래그 정보가 2이상 존재하는 경우, 2이상의 일정 계층 중 하위 계층의 조명 보상 수행 여부는 상위 계층의 조명 보상 수행 여부에 의해 제어될 수 있다. 즉, 각 플래그 비트값이 1로 설정이 되면, 그 하위 범위에서 조명 보상 기술이 적용되는 경우가 있을 수 있음을 나타낸다. When two or more flag information exist, whether to perform lighting compensation of a lower layer among two or more predetermined layers may be controlled by performing lighting compensation of a higher layer. That is, when each flag bit value is set to 1, it indicates that the lighting compensation technique may be applied in the lower range.

예를 들어, pic_IC_flag = 1인 경우, 해당 픽쳐 범위 내의 각 슬라이스에 대해서 slice_IC_flag값을 1 또는 0으로 셋팅할 수 있고, 또는 각 매크로블록에 대해서 mb_IC_flag값을 1 또는 0으로 셋팅할 수 있으며, 또는 각 블록에 대해서 blk_IC_flag값을 1 또는 0으로 셋팅할 수 있다. 시점 파라미터 세트가 있는 경우, seq_IC_flag = 1 이라면, 각 시점에 대해서 view_IC_flag값을 1 또는 0으로 셋팅할 수 있게 된다. 다만, view_IC_flag=1인 경우에는, 도 20a에서처럼 해당 시점에 속하는 각 GOP, 픽쳐, 슬라이스, 매크로블록, 또는 블록에 대한 플래그 비트값을 1 또는 0으로 셋팅할 수도 있고, 그렇지 않은 경우도 있을 수 있다. 여기서, 그렇지 않은 경우는 도 20b에서처럼 각 GOP, 픽쳐, 슬라이스, 매크로블록, 또는 블록에 대한 플래그들이 시점에 대한 플래그 정보에 의해 제어되지 않는 경우를 말한다.For example, if pic_IC_flag = 1, the slice_IC_flag value can be set to 1 or 0 for each slice within the corresponding picture range, or the mb_IC_flag value can be set to 1 or 0 for each macroblock, or each A blk_IC_flag value may be set to 1 or 0 for a block. If there is a viewpoint parameter set, if seq_IC_flag = 1, the view_IC_flag value can be set to 1 or 0 for each viewpoint. However, when view_IC_flag = 1, as shown in FIG. 20A, a flag bit value for each GOP, picture, slice, macroblock, or block belonging to the corresponding view may be set to 1 or 0, or may not be the case. . In this case, otherwise, the flag for each GOP, picture, slice, macroblock, or block is not controlled by the flag information on the viewpoint.

상위 범위의 플래그 비트값이 0인 경우, 하위 범위의 플래그 비트값들은 자 동적으로 0이 된다. 예를 들어, seq_IC_flag = 0인 경우, 해당 시퀀스에 대해서 조명 보상 기술이 적용되지 않는다는 것을 의미하며, 따라서 view_IC_flag, GOP_IC_flag, pic_IC_flag, slice_IC_flag, mb_IC_flag, blk_IC_flag는 모두 0으로 셋팅된다. 그리고, mb_IC_flag와 blk_IC_flag는 조명 보상 기술의 구체적인 구현 방법에 따라 하나만 사용될 수도 있다. 또한, 시점에 대한 플래그 정보(view_IC_flag)는 다시점 비디오 코딩에서 시점 파라미터 세트가 새로이 적용될 경우에 적용될 수 있다. 제일 하위 단위인 매크로블록 또는 서브블록에서의 플래그 비트값에 따라 현재 블록의 오프셋 값이 추가적으로 부호화/복호화 될 수 있다.If the flag bit value of the upper range is 0, the flag bit values of the lower range are automatically 0. For example, when seq_IC_flag = 0, this means that the lighting compensation technique is not applied to the sequence, and therefore, view_IC_flag, GOP_IC_flag, pic_IC_flag, slice_IC_flag, mb_IC_flag, and blk_IC_flag are all set to zero. In addition, only one mb_IC_flag and blk_IC_flag may be used according to a specific implementation method of the lighting compensation technique. In addition, the flag information view_IC_flag about the viewpoint may be applied when a viewpoint parameter set is newly applied in multiview video coding. The offset value of the current block may be additionally encoded / decoded according to the flag bit value in the macroblock or subblock which is the lowest unit.

또한, 도 20c와 같이 IC 기술 적용에 대한 플래그가 슬라이스와 매크로블록 계층에만 적용되는 실시예도 생각할 수 있다. 예를 들어, slice_IC_flag 가 0 인 경우는 해당 슬라이스에서 IC가 적용되지 않음을 의미할 수 있다. slice_IC_flag가 1 인 경우는 해당 슬라이스에서 IC가 적용됨을 의미할 수 있으며, 이 경우 mb_IC_flag가 1이면 해당 매크로블록에서 IC_offset 이 복원된다. mb_IC_flag 가 0 이면 해당 매크로블록에서 IC가 적용되지 않음을 의미할 수 있다.Also, as shown in FIG. 20C, an embodiment in which a flag for applying an IC technology is applied only to a slice and a macroblock layer may be considered. For example, when slice_IC_flag is 0, it may mean that the IC is not applied to the slice. If slice_IC_flag is 1, it may mean that the IC is applied to the corresponding slice. In this case, if mb_IC_flag is 1, IC_offset is restored in the corresponding macroblock. If mb_IC_flag is 0, this may mean that the IC is not applied to the corresponding macroblock.

또한, 본 발명의 다른 일실시예로서, 매크로블록 계층보다 상위 계층의 플래그 정보가 참인 경우, 현재 블록의 평균 화소값과 참조 블록의 평균 화소값 차이를 나타내는 현재 블록의 오프셋 값을 획득할 수 있는데, 이 때 상기 매크로블록 계층 또는 상기 블록 계층에 대한 플래그 정보는 이용하지 않을 수 있다. 조명 보상 기술을 적용할 때, 각 블록에 대해서 조명 보상 기술을 적용할 것인지 여부를 플래그 정보를 통해서 나타낼 수 있다. 그러나, 움직임 벡터처럼 그 값만을 나타내는 것으 로도 충분할 수도 있다. 이는 조명 보상 기술의 적용범위와 함께 운용이 가능할 수 있으며, 상위 범위(sequence, view, GOP, picture)에 대해서는 플래그 정보를 통해서 그 하위 범위에서 조명 보상이 적용되는지를 나타낼 수 있다. 제일 하위 범위인 매크로블록 계층 또는 블록 계층에서는 플래그 비트를 사용함이 없이 오프셋 값만으로 충분할 수 있다. 이는 기본적으로 움직임 벡터와 유사한 방식으로 예측 및 부호화를 수행할 수 있다. 예를 들어, 현재 블록에 대해서 예측 코딩을 수행하는 경우, 이웃 블록의 오프셋 값을 현재 블록의 오프셋 값에 할당하게 된다. 그리고, 쌍방향 예측 코딩인 경우, List 0, List 1에서 찾아진 참조 블록과의 계산을 통해서 각 참조 블록에 대한 오프셋 값이 획득된다. 따라서, 현재 블록의 오프셋 값들을 부호화할 때, 이웃 블록들의 오프셋 값들을 이용해서 상기 각 참조 블록에 대한 ㅇ오프셋 값을 직접 부호화 하지 않고, 예측 오차만을 부호화/복호화 한다. 오프셋 값의 예측방법은 위의 오프셋 예측 방법이나 움직임 벡터 예측시 사용되는 중간값(median)을 획득하는 방법을 사용할 수도 있다. 쌍방향 예측의 직접 모드(direct mode)일 때도, 움직임 벡터와 같은 방법으로 부가 정보의 부호화/복호화 없이 이미 주어진 정보를 통해서 오프셋 값들을 구할 수 있다.According to another embodiment of the present invention, when flag information of a layer higher than a macroblock layer is true, an offset value of a current block indicating a difference between an average pixel value of a current block and an average pixel value of a reference block may be obtained. In this case, flag information on the macroblock layer or the block layer may not be used. When applying the lighting compensation technology, whether or not to apply the lighting compensation technology to each block may be indicated through the flag information. However, it may be sufficient to represent only that value, such as a motion vector. This may be operated together with the application range of the lighting compensation technology, and may indicate whether lighting compensation is applied in the lower range through flag information on the upper range (sequence, view, GOP, picture). In the lowest block, the macroblock layer or block layer, the offset value may be sufficient without using the flag bit. It can basically perform prediction and encoding in a manner similar to a motion vector. For example, when performing predictive coding on the current block, the offset value of the neighboring block is assigned to the offset value of the current block. In the case of bidirectional predictive coding, an offset value for each reference block is obtained through calculation with reference blocks found in List 0 and List 1. Therefore, when encoding offset values of the current block, only offset errors are encoded / decoded without directly encoding the offset value for each reference block by using offset values of neighboring blocks. The prediction method of the offset value may use the above offset prediction method or a method of obtaining a median used in motion vector prediction. Even in the direct mode of the bidirectional prediction, offset values may be obtained through the information already given in the same manner as the motion vector without encoding / decoding the additional information.

또한, 본 발명의 다른 일실시예로서, MVC 디코더가 아닌 디코더(예를 들어,H.264)를 이용하게 되는 경우, 기존의 디코더와 호환성을 가지는 시점 영상은 기존의 디코더로 디코딩될 수 있어야 하므로 "view_IC_flag = false or 0" 으로 설정해야 된다. 여기서 기준 시점(base views)에 대한 개념을 설명할 필요가 있다. 우리는 H.264/AVC 디코더와 호환성을 가지기 위한 적어도 하나의 시점 영상(view sequence)이 필요할 수 있다. 따라서, 독립적으로 복호화가 가능한 시점들을 정의할 필요가 있는데, 이를 기준 시점이라 한다. 이러한 기준시점은 다시점 중 부호화의 기준이 되며, 이는 참조 시점(reference view)에 해당된다. MVC에서 기준 시점에 해당되는 영상은 종래 일반적인 영상 부호화 방식(MPEG-2, MPEG-4, H.263, H.264 등)에 의해 부호화되어 독립적인 비트스트림으로 형성하게 된다. 기준 시점에 해당되는 영상은 H.264/AVC와 호환될 수도 있고, 되지 않을 수도 있다. 하지만, H.264/AVC와 호환될 수 있는 시점의 영상은 항상 기준 시점이 된다. In addition, as another embodiment of the present invention, when using a decoder other than the MVC decoder (for example, H.264), since the view image compatible with the existing decoder should be able to be decoded by the existing decoder Must be set to "view_IC_flag = false or 0" Here we need to explain the concept of base views. We may need at least one view sequence to be compatible with the H.264 / AVC decoder. Therefore, it is necessary to define time points that can be independently decoded, which is called a reference time point. This reference time point becomes a reference of encoding among multiviews, which corresponds to a reference view. In MVC, an image corresponding to a reference time point is encoded by a conventional general video encoding method (MPEG-2, MPEG-4, H.263, H.264, etc.) to form an independent bitstream. The image corresponding to the reference time point may or may not be compatible with H.264 / AVC. However, an image of a viewpoint compatible with H.264 / AVC is always a reference viewpoint.

도 21은 본 발명이 적용되는 일실시예로서, 현재 블록의 오프셋 값을 고려하여 움직임 벡터를 획득하는 과정을 설명하기 위한 흐름도를 나타낸다.FIG. 21 is a flowchart illustrating a process of obtaining a motion vector in consideration of an offset value of a current block according to an embodiment to which the present invention is applied.

도 21에 따르면, 상기 시스템은 비디오 신호로부터 현재 블록의 오프셋 값을 획득할 수 있다(S321). 상기 시스템은 상기 오프셋 값을 이용하여 현재 블록과 최적으로 매칭되는 참조 블록을 서치할 수 있다(S322). 상기 시스템은 상기 서치된 참조 블록으로부터 움직임 벡터를 획득하여 부호화할 수 있다(S323). 여기서, 조명 보상을 적용하는 경우 움직임 추정을 수행할 때 고려할 사항들이 있다. 예를 들어, 블록 사이의 평균 화소값을 상쇄해서 두 블록의 유사성을 비교하는 방법의 경우, 움직임 추정을 수행할 때 각 블록의 화소값들에서 블록의 평균 화소값을 뺀 값들을 가지고 유사성 정도를 계산할 수 있다. 이때, 두 블록 간의 오프셋 값이 따로 부호화되기 때문에 이러한 비용도 움직임 추정 과정에 반영되어야 한다. 기존의 비용(cost) 계산은 아래 수학식 23과 같다.According to FIG. 21, the system may obtain an offset value of a current block from a video signal (S321). The system may search for a reference block that optimally matches the current block using the offset value (S322). The system may obtain and encode a motion vector from the searched reference block (S323). Here, there are considerations when performing motion estimation when applying illumination compensation. For example, in the case of comparing the similarity of two blocks by canceling the average pixel value between blocks, when the motion estimation is performed, the similarity degree is determined by subtracting the average pixel value of each block from the pixel values of each block. Can be calculated In this case, since the offset value between the two blocks is separately coded, such a cost should be reflected in the motion estimation process. The existing cost calculation is shown in Equation 23 below.

Figure 112008057611866-pct00079
Figure 112008057611866-pct00079

조명 보상을 적용하는 경우, SAD(Sum of Absolute Differences)는 아래 수학식 24와 같이 계산될 수 있다.In the case of applying illumination compensation, sum of absolute differences (SAD) may be calculated as in Equation 24 below.

Figure 112008057611866-pct00080
Figure 112008057611866-pct00080

여기서, Ic, Ir은 각각 현재 블록과 참조 블록의 화소값을 나타낸다. Mc, Mr은 각각 현재 블록과 참조 블록의 평균 화소값을 나타낸다. 오프셋 값의 비용은 SAD 계산에 포함하여 반영할 수 있다.Here, I c and I r represent pixel values of the current block and the reference block, respectively. M c and M r represent average pixel values of the current block and the reference block, respectively. The cost of the offset value can be reflected in the SAD calculation.

Figure 112008057611866-pct00081
Figure 112008057611866-pct00081

SADIC = α|offset - offset_pred|+ ∑ |(Ic(m,n)-Mc ) - (Ir(m,n)- Mr )|SAD IC = α | offset-offset_pred | + ∑ | (I c (m, n) -M c )-(I r (m, n)-M r ) |

여기서,

Figure 112008057611866-pct00082
는 가중치가 되며, 1일 때, 오프셋 값의 절대치가 반영된다. 또한, 조명 보상 비용을 반영하는 다른 방법으로서, 오프셋 값을 부호화하는 데에 쓰이는 비트수를 추정해서 반영하는 방법이 있다. here,
Figure 112008057611866-pct00082
Is a weight, and when 1, the absolute value of the offset value is reflected. As another method of reflecting the illumination compensation cost, there is a method of estimating and reflecting the number of bits used to encode the offset value.

이는 아래 수학식 27에서처럼 오프셋 부호화 비트를 추정해서 반영한다. 여 기서, 상기 부호화 비트는 오프셋 차이값의 크기에 비례하도록 추정할 수 있다.This estimates and reflects the offset encoding bits as shown in Equation 27 below. Here, the coded bits can be estimated to be proportional to the magnitude of the offset difference value.

Figure 112008057611866-pct00083
Figure 112008057611866-pct00083

이 경우, 새로운 비용은 아래 수학식 28을 이용하여 구할 수 있다.In this case, the new cost can be obtained using Equation 28 below.

Figure 112008057611866-pct00084
Cost =
Figure 112008057611866-pct00084
Cost =

도 1은 본 발명이 적용되는 실시예로서, 다시점 비디오 영상을 포함하는 비디오 신호의 디코딩을 위한 다시점 비디오 시스템의 디코딩 장치의 개략적인 블록도를 나타낸다.FIG. 1 is a schematic block diagram of a decoding apparatus of a multiview video system for decoding a video signal including a multiview video image according to an embodiment to which the present invention is applied.

도 2는 본 발명이 적용된 일실시예로서, 비디오 영상 부호화 방법을 설명하기 위한 흐름도를 도시한 것이다. 2 is a flowchart illustrating a video image encoding method according to an embodiment to which the present invention is applied.

도 3은 본 발명을 적용한 일실시예로서, 다른 시점의 참조 영상 블록으로부터 현재 블록의 조명 평균 예측값(predicted average pixel value)을 유도하는 과정을 설명하기 위한 블록 구성도를 도시한 것이다.FIG. 3 is a block diagram illustrating a process of deriving a predicted average pixel value of a current block from a reference image block at another point in time according to an embodiment of the present invention.

도 4는 본 발명을 적용한 일실시예로서, 다른 시점의 참조 영상 블록으로부터 현재 블록의 조명 평균 예측값을 유도하는 과정을 일반화하여 설명하기 위한 블록 구성도를 도시한 것이다.FIG. 4 is a block diagram for generalizing and describing a process of deriving an illumination average prediction value of a current block from a reference image block at another time point as an embodiment to which the present invention is applied.

도 5는 본 발명을 적용한 일실시예로서, 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 블록의 좌측과 상단에 있는 픽셀들의 이미 복호화된 값들을 이용하는 것을 설명하기 위한 16x16 매크로 블록을 도시한 것이다.FIG. 5 is a diagram illustrating a 16x16 macroblock illustrating an example of using previously decoded values of pixels on the left and top of a block in obtaining an illumination mean value and deriving an illumination mean prediction value according to an embodiment of the present invention. will be.

도 6a 및 도 6b는 본 발명을 적용한 일실시예들로서, 블록이 분할된 경우 분할된 블록의 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 상기 분할된 블록을 둘러싸는 픽셀 전부를 이용하는 경우와, 상기 분할된 블록을 둘러싸는 픽셀들만을 이용하는 경우를 설명하기 위한 16x8 매크로 블록을 각각 도시한 것이다.6A and 6B illustrate exemplary embodiments to which the present invention may be applied. In the case where a block is divided, in the obtaining of an illumination average value of the divided block and deriving an illumination average prediction value, all of the pixels surrounding the divided block are used. 16x8 macroblocks for explaining the case of using only pixels surrounding the divided block, respectively.

도 7a 및 도 7b는 본 발명을 적용한 일실시예로서, 블록이 분할된 경우 분할된 블록의 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 상기 분할된 블록을 둘러싸는 픽셀 전부를 이용하는 경우와 상기 분할된 블록을 둘러싸는 픽셀들만을 이용하는 경우를 설명하기 위한 8x16 매크로 블록을 각각 도시한 것이다. 7A and 7B illustrate an embodiment to which the present invention is applied. In the case where a block is divided, in the obtaining of an illumination average value of the divided block and deriving an illumination average prediction value, the pixels surrounding the divided block are used. 8x16 macroblocks for explaining the case of using only pixels surrounding the divided block are illustrated.

도 8a 및 도 8b는 본 발명을 적용한 일실시예로서, 블록이 분할된 경우 분할된 블록의 조명 평균값의 획득 및 조명 평균 예측값을 유도함에 있어서, 상기 분할된 블록을 둘러싸는 픽셀 전부를 이용하는 경우와 상기 분할된 블록을 둘러싸는 픽셀들만을 이용하는 경우를 설명하기 위한 8x8 매크로 블록을 각각 도시한 것이다. 8A and 8B illustrate an embodiment to which the present invention is applied. In the case where a block is divided, in the obtaining of an illumination average value of the divided block and deriving an illumination average prediction value, the pixels surrounding all of the divided blocks are used. 8x8 macroblocks for explaining the case of using only pixels surrounding the divided block are shown.

도 9는 본 발명이 적용되는 일실시예로서, 현재 블록의 오프셋 값을 획득하는 과정을 설명하기 위한 도면을 나타낸다.9 is a diagram for describing a process of obtaining an offset value of a current block according to an embodiment to which the present invention is applied.

도 10은 본 발명이 적용되는 일실시예로서, 현재 블록에 대한 조명 보상을 수행하는 과정을 설명하기 위한 흐름도를 나타낸다.FIG. 10 is a flowchart illustrating a process of performing lighting compensation on a current block according to an embodiment to which the present invention is applied.

도 11은 본 발명이 적용되는 일실시예로서, 현재 블록과 이웃 블록의 참조 번호 동일 여부에 기초하여 프리딕터를 획득하는 방법을 설명하기 위한 흐름도를 나타낸다.FIG. 11 is a flowchart illustrating a method of acquiring a predictor based on whether a reference number is identical between a current block and a neighboring block according to an embodiment to which the present invention is applied.

도 12는 본 발명이 적용되는 일실시예로서, 현재 블록의 프리딕션 타입에 기초하여 조명 보상을 수행하는 방법을 설명하기 위한 흐름도를 나타낸다.12 is a flowchart illustrating a method of performing lighting compensation based on a prediction type of a current block according to an embodiment to which the present invention is applied.

도 13은 본 발명이 적용되는 일실시예로서, 해당 블록의 조명 보상 수행여부를 나타내는 플래그 정보를 이용하여 조명 보상을 수행하는 방법을 설명하기 위한 흐름도를 나타낸다.FIG. 13 is a flowchart illustrating a method of performing lighting compensation using flag information indicating whether to perform lighting compensation of a corresponding block in an embodiment to which the present invention is applied.

도 14는 본 발명이 적용되는 일실시예로서, 현재 블록과 이웃 블록의 참조 번호 동일 여부에 기초하여 현재 블록의 플래그 정보를 예측하는 방법을 설명하기 위한 흐름도를 나타낸다.FIG. 14 is a flowchart illustrating a method of predicting flag information of a current block based on whether a reference number of a current block and a neighboring block is the same as an embodiment to which the present invention is applied.

도 15는 본 발명이 적용되는 일실시예로서, 현재 블록이 2개의 참조 블록을 이용하여 예측 코딩된 경우에 있어서 조명 보상을 수행하는 방법을 설명하기 위한 흐름도이다.15 is a flowchart illustrating a method of performing lighting compensation when a current block is predictively coded using two reference blocks according to an embodiment to which the present invention is applied.

도 16은 본 발명이 적용된 실시예로서, 현재 블록의 조명 보상 수행여부를 나타내는 플래그 정보와 현재 블록의 오프셋 값을 이용하여 조명 보상을 수행하는 과정을 설명하기 위한 흐름도를 나타낸다.FIG. 16 is a flowchart illustrating a process of performing lighting compensation using flag information indicating whether lighting compensation is performed on a current block and an offset value of the current block according to an embodiment to which the present invention is applied.

도 17a ~ 도 17b는 본 발명이 적용된 일실시예로서, 각각 P 슬라이스 및 B 슬라이스에 속한 블록에 대해 플래그 정보와 오프셋 값을 이용하여 조명 보상을 수 행하는 방법을 설명하기 위해 나타낸 것이다.17A to 17B illustrate an embodiment to which the present invention is applied to illustrate a method of performing lighting compensation using flag information and offset values for blocks belonging to a P slice and a B slice, respectively.

도 18은 본 발명이 적용되는 일실시예로서, 현재 블록이 2개의 참조 블록을 이용하여 예측 코딩된 경우에 있어서 조명 보상을 수행하는 방법을 설명하기 위한 흐름도이다.18 is a flowchart illustrating a method of performing lighting compensation when a current block is predictively coded using two reference blocks according to an embodiment to which the present invention is applied.

도 19는 본 발명이 적용되는 일실시예로서, 현재 블록의 조명 보상 수행 여부를 나타내는 플래그 정보를 이용하여 조명 보상을 수행하는 과정을 설명하기 위한 흐름도를 나타낸다.19 is a flowchart illustrating a process of performing lighting compensation by using flag information indicating whether lighting compensation is performed on a current block according to an embodiment to which the present invention is applied.

도 20a ~ 도 20c는 본 발명이 적용된 일실시예로서, 현재 블록의 조명 보상 수행하도록 유도하는 플래그 정보의 사용 범위를 설명하기 위해 나타낸 것이다.20A to 20C are diagrams for describing a range of use of flag information for inducing lighting compensation of a current block as an embodiment to which the present invention is applied.

도 21은 본 발명이 적용되는 일실시예로서, 현재 블록의 오프셋 값을 고려하여 움직임 벡터를 획득하는 과정을 설명하기 위한 흐름도를 나타낸다.FIG. 21 is a flowchart illustrating a process of obtaining a motion vector in consideration of an offset value of a current block according to an embodiment to which the present invention is applied.

본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 수신하는 단계와, 상기 다시점 비디오 신호의 부분과 관련된 플래그 정보를 상기 비트스트림으로부터 추출하는 단계 및 상기 플래그 정보에 따라 조명 보상이 수행되는 부분에 대해, 상기 부분 내의 세그먼트와 관련된 값을 상기 비트스트림으로부터 추출하고, 상기 추출된 값으로부터 상기 세그먼트의 조명 보상이 수행되는지 여부를 결정하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들(예를 들어, 단일 블록 또는 매크로블록 같은 이미지 블록 세그먼트, 또는 이미지의 슬라이스 같은 세그먼트)로 구분된 다수개의 픽쳐들을 포함하고, 상기 플래 그 정보는 상기 다시점 비디오 신호의 부분 내의 세그먼트들에 대해 조명 보상이 수행되는지 여부를 나타내는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법을 제공한다.The present invention is directed to a method comprising: receiving a bitstream in which a plurality of viewpoints of a multiview video signal are encoded, extracting flag information related to a portion of the multiview video signal from the bitstream, and lighting compensation according to the flag information For this performed portion, extracting a value associated with a segment in the portion from the bitstream and determining whether illumination compensation of the segment is performed from the extracted value, wherein each of the plurality of views The view includes a plurality of pictures divided into a plurality of segments (eg, an image block segment such as a single block or macroblock, or a segment such as a slice of an image), wherein the flag information is part of the multi-view video signal. Whether lighting compensation is performed on segments within Provides a multi-view video signal decoding method characterized in that the indicating.

또한, 본 발명은 다음과 같은 특징들 중 하나 이상을 포함할 수 있다.In addition, the present invention may include one or more of the following features.

본 발명에서, 상기 세그먼트들은 이미지 블록들로 이루어지는 것을 특징으로 한다.In the present invention, the segments are composed of image blocks.

본 발명은, 조명 보상이 수행되는 것을 나타내는 값과 관련된 제 1 블록에 대해, 상기 제 1 블록에 인접한 적어도 하나의 이웃 블록의 조명 보상 오프셋 값을 이용하여, 상기 제 1 블록의 조명 보상 예측값을 획득하는 단계를 더 포함하는 것을 특징으로 한다.The present invention obtains an illumination compensation prediction value of the first block, using an illumination compensation offset value of at least one neighboring block adjacent to the first block, for a first block associated with a value indicating that illumination compensation is performed. Characterized in that it further comprises the step.

본 발명에서, 이웃 블록의 조명 보상 오프셋 값은, 상기 이웃 블록의 조명 보상 예측값과 차분값을 더함으로써 획득되는 것을 특징으로 한다.In the present invention, the illumination compensation offset value of the neighboring block is obtained by adding the difference value and the illumination compensation prediction value of the neighboring block.

본 발명에서, 상기 제 1 블록에 인접한 적어도 하나의 이웃 블록의 조명 보상 오프셋 값을 이용하여 상기 제 1 블록의 조명 보상 예측값을 획득하는 단계는, 상기 이웃 블록들 중 정해진 순서에 따라 상기 적어도 하나의 이웃 블록을 선택하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the obtaining of the lighting compensation prediction value of the first block by using the lighting compensation offset value of at least one neighboring block adjacent to the first block may be performed according to the predetermined order among the neighboring blocks. And selecting a neighboring block.

본 발명에서, 상기 정해진 순서에 따라 상기 적어도 하나의 이웃 블록을 선택하는 단계는, 하나 이상의 수직 또는 수평 방향에 있는 이웃 블록들, 그 다음에 하나 이상의 대각선 방향에 있는 이웃 블록들의 순서로, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of selecting the at least one neighboring block according to the predetermined order includes one or more neighboring blocks in one or more vertical or horizontal directions, and then one or more neighboring blocks in one or more diagonal directions. Determining whether the conditions are satisfied for the neighboring block.

본 발명에서, 상기 플래그 정보는, 상기 블록을 포함하는 시퀀스, 시점, 픽쳐들의 그룹, 픽쳐 및 슬라이스 중 하나 이상에 대해 조명 보상을 가능하게 하는 것을 특징으로 한다.In the present invention, the flag information, characterized in that the illumination compensation for one or more of the sequence, the viewpoint, the group of pictures, the picture and the slice containing the block.

본 발명에서, 상기 플래그 정보는, 상기 블록을 포함하는 상기 슬라이스에 대해 조명 보상을 가능하게 하는 것을 특징으로 한다.In the present invention, the flag information, characterized in that to enable illumination compensation for the slice containing the block.

본 발명에서, 상기 추출된 값은, 상기 블록을 포함하는 매크로블록의 플래그 정보 또는 상기 블록의 플래그 정보로 이루어지는 것을 특징으로 한다.In the present invention, the extracted value is characterized by consisting of flag information of the macroblock including the block or flag information of the block.

본 발명에서, 상기 추출된 값은, 상기 블록을 포함하는 매크로블록의 플래그 정보로 이루어지는 것을 특징으로 한다.In the present invention, the extracted value is characterized by consisting of flag information of a macroblock including the block.

또한, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 수신하는 단계와, 제 1 세그먼트에 인접한 적어도 하나의 이웃 세그먼트의 조명 보상 오프셋 값을 이용하여, 상기 제 1 세그먼트의 조명 보상 예측값을 획득하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하고, 상기 예측값을 획득하는 단계는, 상기 이웃 세그먼트들 중 정해진 순서에 따라 상기 적어도 하나의 이웃 세그먼트를 선택하는 단계를 포함하는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법을 제공한다.In addition, the present invention provides a method of receiving a bitstream in which a plurality of viewpoints of a multiview video signal are encoded, and illuminating the first segment using an illumination compensation offset value of at least one neighboring segment adjacent to the first segment. Obtaining a compensation prediction value, wherein each viewpoint of the plurality of viewpoints includes a plurality of pictures divided into a plurality of segments, and obtaining the prediction value is performed according to a predetermined order among the neighboring segments. It provides a multi-view video signal decoding method comprising the step of selecting at least one neighboring segment.

또한, 본 발명은 다음과 같은 특징들 중 하나 이상을 포함할 수 있다.In addition, the present invention may include one or more of the following features.

본 발명에서, 상기 제 1 세그먼트와 상기 적어도 하나의 이웃 세그먼트는 이미지 블록으로 이루어지는 것을 특징으로 한다.In the present invention, the first segment and the at least one neighboring segment are formed of image blocks.

본 발명에서, 이웃 블록의 조명 보상 오프셋 값은, 상기 이웃 블록의 조명 보상 예측값과 차분값을 더함으로써 획득되는 것을 특징으로 한다.In the present invention, the illumination compensation offset value of the neighboring block is obtained by adding the difference value and the illumination compensation prediction value of the neighboring block.

본 발명에서, 상기 정해진 순서에 따라 상기 적어도 하나의 이웃 블록을 선택하는 단계는, 하나 이상의 수직 또는 수평 방향에 있는 이웃 블록들, 그 다음에 하나 이상의 대각선 방향에 있는 이웃 블록들의 순서로, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of selecting the at least one neighboring block according to the predetermined order includes one or more neighboring blocks in one or more vertical or horizontal directions, and then one or more neighboring blocks in one or more diagonal directions. Determining whether the conditions are satisfied for the neighboring block.

본 발명에서, 상기 정해진 순서에 따라 상기 적어도 하나의 이웃 블록을 선택하는 단계는, 좌측 이웃 블록, 상단 이웃 블록, 우측 상단 이웃 블록, 좌측 상단 이웃 블록의 순서로, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of selecting the at least one neighboring block according to the predetermined order, in the order of the left neighboring block, the upper neighboring block, the upper right neighboring block, the upper left neighboring block, one or more conditions for the neighboring block Determining whether it is satisfied.

본 발명에서, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계는, 상기 이웃 블록의 조명 보상이 수행되는지 여부를 나타내는 상기 이웃 블록에 관련된 값을 상기 비트스트림으로부터 추출하는 단계를 포함하는 것을 특징으로 한다.In the present invention, determining whether one or more conditions are satisfied for a neighboring block includes extracting from the bitstream a value related to the neighboring block indicating whether illumination compensation of the neighboring block is performed. It is characterized by.

본 발명에서, 상기 추출된 값은, 상기 블록을 포함하는 매크로블록의 플래그 정보 또는 상기 블록의 플래그 정보로 이루어지는 것을 특징으로 한다.In the present invention, the extracted value is characterized by consisting of flag information of the macroblock including the block or flag information of the block.

본 발명에서, 상기 조명 보상 예측값을 획득하는 단계는, 하나의 이웃 블록의 조명 보상 오프셋 값을 이용할지 또는 각 이웃 블록들의 다수개의 조명 보상 오프셋 값들을 이용할지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, obtaining the illumination compensation prediction value includes determining whether to use an illumination compensation offset value of one neighboring block or a plurality of illumination compensation offset values of each neighboring block. It is done.

본 발명에서, 다수개의 조명 보상 오프셋 값들이 이용되는 경우, 상기 다수개의 조명 보상 오프셋 값들을 이용하여 상기 제 1 블록의 조명 보상 예측값을 획 득하는 단계를 더 포함하는 것을 특징으로 한다.In the present invention, when the plurality of illumination compensation offset values are used, the method may further include acquiring an illumination compensation prediction value of the first block by using the plurality of illumination compensation offset values.

본 발명에서, 상기 다수개의 조명 보상 오프셋 값들을 이용하는 단계는, 상기 다수개의 조명 보상 오프셋 값들의 평균값 또는 중간값을 취하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of using the plurality of illumination compensation offset values comprises the step of taking an average or median of the plurality of illumination compensation offset values.

또한, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 수신하는 단계와, 참조 픽쳐에 관한 제 1 세그먼트의 조명 보상 오프셋 값을 획득하는 단계 및 상기 제 1 세그먼트의 조명 보상을 이용하여 상기 비트스트림을 디코딩하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하고, 상기 오프셋 값은 이웃 세그먼트와 관련된 특성에 기초하여 결정된 적어도 하나의 이웃 세그먼트의 조명 보상 오프셋 값을 이용하여 예측되고, 상기 디코딩 단계는, 상기 참조 픽쳐로부터 획득된 상기 제 1 세그먼트의 픽셀들의 예측값과, 상기 제 1 세그먼트의 픽셀들의 차분값과, 대응되는 조명 보상 오프셋 값을 더하는 단계를 포함하는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법을 제공한다.The present invention also provides a method of receiving a bitstream encoded with multiple views of a multiview video signal, obtaining an illumination compensation offset value of a first segment with respect to a reference picture, and performing illumination compensation of the first segment. Decoding the bitstream using a plurality of pictures, wherein each view of the plurality of views includes a plurality of pictures divided into a plurality of segments, and the offset value is at least one determined based on characteristics associated with a neighboring segment. Predicted using an illumination compensation offset value of a neighboring segment of, wherein the decoding step comprises: predicting pixels of the first segment obtained from the reference picture, difference values of the pixels of the first segment, and corresponding illumination compensation; A multiview video signal decoding room comprising adding an offset value It provides.

또한, 본 발명은 다음과 같은 특징들 중 하나 이상을 포함할 수 있다.In addition, the present invention may include one or more of the following features.

본 발명에서, 상기 제 1 세그먼트와 상기 적어도 하나의 이웃 세그먼트는 이미지 블록으로 이루어지는 것을 특징으로 한다.In the present invention, the first segment and the at least one neighboring segment are formed of image blocks.

본 발명에서, 이웃 블록의 조명 보상 오프셋 값은, 상기 이웃 블록의 조명 보상 예측값과 차분값을 더함으로써 획득되는 것을 특징으로 한다.In the present invention, the illumination compensation offset value of the neighboring block is obtained by adding the difference value and the illumination compensation prediction value of the neighboring block.

본 발명은, 하나 이상의 수직 또는 수평 방향에 있는 이웃 블록들, 그 다음 에 하나 이상의 대각선 방향에 있는 이웃 블록들의 순서로, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부에 기초하여 적어도 하나의 이웃 블록을 선택하는 단계를 더 포함하는 것을 특징으로 한다.The present invention is directed to at least one neighboring block based on whether one or more conditions are satisfied for the neighboring block, in the order of one or more vertical or horizontal neighboring blocks, followed by one or more diagonal neighboring blocks. It characterized in that it further comprises the step of selecting.

본 발명에서, 상기 정해진 순서에 따라 상기 적어도 하나의 이웃 블록을 선택하는 단계는, 좌측 이웃 블록, 상단 이웃 블록, 우측 상단 이웃 블록, 좌측 상단 이웃 블록의 순서로, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of selecting the at least one neighboring block according to the predetermined order, in the order of the left neighboring block, the upper neighboring block, the upper right neighboring block, the upper left neighboring block, one or more conditions for the neighboring block Determining whether it is satisfied.

본 발명에서, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계는, 상기 이웃 블록의 조명 보상이 수행되는지 여부를 나타내는 상기 이웃 블록에 관련된 값을 상기 비트스트림으로부터 추출하는 단계를 포함하는 것을 특징으로 한다.In the present invention, determining whether one or more conditions are satisfied for a neighboring block includes extracting from the bitstream a value related to the neighboring block indicating whether illumination compensation of the neighboring block is performed. It is characterized by.

본 발명에서, 상기 추출된 값은, 상기 블록을 포함하는 매크로블록의 플래그 정보 또는 상기 블록의 플래그 정보로 이루어지는 것을 특징으로 한다.In the present invention, the extracted value is characterized by consisting of flag information of the macroblock including the block or flag information of the block.

본 발명에서, 적어도 하나의 이웃 블록을 선택하는 단계는, 하나의 이웃 블록의 조명 보상 오프셋 값을 이용할지 또는 각 이웃 블록들의 다수개의 조명 보상 오프셋 값들을 이용할지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, selecting at least one neighboring block includes determining whether to use an illumination compensation offset value of one neighboring block or a plurality of illumination compensation offset values of each neighboring block. It features.

본 발명에서, 다수개의 조명 보상 오프셋 값들이 이용되는 경우, 상기 다수개의 조명 보상 오프셋 값들을 이용하여 상기 제 1 블록의 조명 보상 예측값을 획득하는 단계를 더 포함하는 것을 특징으로 한다.In the present invention, if a plurality of lighting compensation offset values are used, the method further comprises obtaining the lighting compensation prediction value of the first block by using the plurality of lighting compensation offset values.

본 발명에서, 상기 다수개의 조명 보상 오프셋 값들을 이용하는 단계는, 상 기 다수개의 조명 보상 오프셋 값들의 평균값 또는 중간값을 취하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of using the plurality of illumination compensation offset values is characterized in that it comprises taking the average value or the median of the plurality of illumination compensation offset values.

또한, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 수신하는 단계와, 참조 픽쳐에 관한 제 1 세그먼트의 조명 보상 예측값을 획득하는 단계와, 상기 제 1 세그먼트의 조명 보상 예측값과 차분값을 더함으로써 상기 제 1 세그먼트의 조명 보상 오프셋 값을 결정하는 단계 및 상기 제 1 세그먼트의 조명 보상을 이용하여 상기 비트스트림을 디코딩하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하고, 상기 디코딩 단계는, 상기 참조 픽쳐로부터 획득된 상기 제 1 세그먼트의 픽셀들의 예측값과, 상기 제 1 세그먼트의 픽셀들의 차분값과, 대응되는 조명 보상 오프셋 값을 더하는 단계를 포함하는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법을 제공한다.In addition, the present invention provides a method comprising: receiving a bitstream in which a plurality of viewpoints of a multiview video signal are encoded, obtaining an illumination compensation prediction value of a first segment related to a reference picture, and an illumination compensation prediction value of the first segment; And determining the illumination compensation offset value of the first segment by adding the difference value and the difference value and decoding the bitstream using the illumination compensation of the first segment, wherein each of the plurality of viewpoints is multiple. And a plurality of pictures divided into four segments, wherein the decoding comprises: predicting pixels of the first segment obtained from the reference picture, difference values of pixels of the first segment, and corresponding illumination compensation offsets; It provides a multi-view video signal decoding method comprising the step of adding a value.

또한, 본 발명은 다음과 같은 특징들 중 하나 이상을 포함할 수 있다.In addition, the present invention may include one or more of the following features.

본 발명에서, 상기 세그먼트들은 이미지 블록들로 이루어지는 것을 특징으로 한다.In the present invention, the segments are composed of image blocks.

본 발명에서, 상기 제 1 세그먼트의 조명 보상을 이용하는 것은, 이웃 블록의 조명 보상 예측값과 차분값을 더함으로써 상기 이웃 블록의 조명 보상 오프셋 값을 획득하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the use of the illumination compensation of the first segment may include obtaining an illumination compensation offset value of the neighboring block by adding a difference value and an illumination compensation prediction value of the neighboring block.

본 발명에서, 하나 이상의 수직 또는 수평 방향에 있는 이웃 블록들, 그 다음에 하나 이상의 대각선 방향에 있는 이웃 블록들의 순서로, 하나 이상의 조건들 이 이웃 블록에 대해 만족되는지 여부에 기초하여 적어도 하나의 이웃 블록을 선택하는 단계를 더 포함하는 것을 특징으로 한다.In the present invention, at least one neighbor based on whether one or more conditions are satisfied for the neighboring block, in the order of one or more vertical or horizontal neighboring blocks, followed by one or more diagonal neighboring blocks. The method may further include selecting a block.

본 발명에서, 상기 적어도 하나의 이웃 블록을 선택하는 단계는, 좌측 이웃 블록, 상단 이웃 블록, 우측 상단 이웃 블록, 좌측 상단 이웃 블록의 순서로, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of selecting the at least one neighboring block, in the order of the left neighboring block, the upper neighboring block, the upper right neighboring block, the upper left neighboring block, determines whether one or more conditions are satisfied for the neighboring block. Characterized in that it comprises a step.

본 발명에서, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계는, 상기 이웃 블록의 조명 보상이 수행되는지 여부를 나타내는 상기 이웃 블록에 관련된 값을 상기 비트스트림으로부터 추출하는 단계를 포함하는 것을 특징으로 한다.In the present invention, determining whether one or more conditions are satisfied for a neighboring block includes extracting from the bitstream a value related to the neighboring block indicating whether illumination compensation of the neighboring block is performed. It is characterized by.

본 발명에서, 상기 추출된 값은, 상기 블록을 포함하는 매크로블록의 플래그 정보 또는 상기 블록의 플래그 정보로 이루어지는 것을 특징으로 한다.In the present invention, the extracted value is characterized by consisting of flag information of the macroblock including the block or flag information of the block.

본 발명에서, 적어도 하나의 이웃 블록을 선택하는 단계는, 하나의 이웃 블록의 조명 보상 오프셋 값을 이용할지 또는 각 이웃 블록들의 다수개의 조명 보상 오프셋 값들을 이용할지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, selecting at least one neighboring block includes determining whether to use an illumination compensation offset value of one neighboring block or a plurality of illumination compensation offset values of each neighboring block. It features.

본 발명에서, 다수개의 조명 보상 오프셋 값들이 이용되는 경우, 상기 다수개의 조명 보상 오프셋 값들을 이용하여 상기 제 1 블록의 조명 보상을 수행하기 위한 예측값을 획득하는 단계를 더 포함하는 것을 특징으로 한다.In the present invention, when a plurality of lighting compensation offset values are used, the method may further include obtaining a prediction value for performing lighting compensation of the first block by using the plurality of lighting compensation offset values.

본 발명에서, 상기 다수개의 조명 보상 오프셋 값들을 이용하는 단계는, 상기 다수개의 조명 보상 오프셋 값들의 평균값 또는 중간값을 취하는 단계를 포함하 는 것을 특징으로 한다.In the present invention, the step of using the plurality of illumination compensation offset values comprises the step of taking an average or median of the plurality of illumination compensation offset values.

또한, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 수신하는 단계와, 제 1 세그먼트와 관련된 참조 픽쳐가 이웃 세그먼트와 관련된 참조 픽쳐와 동일한지 여부에 따라, 상기 제 1 세그먼트에 인접한 적어도 하나의 이웃 세그먼트의 조명 보상 오프셋 값을 이용하여 참조 픽쳐에 관한 제 1 세그먼트의 조명 보상 예측값을 획득하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법을 제공한다.The present invention also relates to receiving a bitstream in which multiple views of a multiview video signal are encoded, and whether or not a reference picture associated with a first segment is the same as a reference picture associated with a neighboring segment. Obtaining an illumination compensation prediction value of a first segment with respect to a reference picture using an illumination compensation offset value of at least one neighboring segment adjacent to, wherein each viewpoint of the plurality of viewpoints is divided into a plurality of segments; It provides a multi-view video signal decoding method comprising a number of pictures.

또한, 본 발명은 다음과 같은 특징들 중 하나 이상을 포함할 수 있다.In addition, the present invention may include one or more of the following features.

본 발명에서, 상기 세그먼트들은 이미지 블록들로 이루어지는 것을 특징으로 한다.In the present invention, the segments are composed of image blocks.

본 발명에서, 상기 제 1 세그먼트의 조명 보상을 이용하는 것은, 이웃 블록의 조명 보상 예측값과 차분값을 더함으로써 상기 이웃 블록의 조명 보상 오프셋 값을 획득하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the use of the illumination compensation of the first segment may include obtaining an illumination compensation offset value of the neighboring block by adding a difference value and an illumination compensation prediction value of the neighboring block.

본 발명은, 하나 이상의 수직 또는 수평 방향에 있는 이웃 블록들, 그 다음에 하나 이상의 대각선 방향에 있는 이웃 블록들의 순서로, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부에 기초하여 적어도 하나의 이웃 블록을 선택하는 단계를 더 포함하는 것을 특징으로 한다.The present invention is directed to at least one neighboring block based on whether one or more conditions are satisfied for the neighboring block, in the order of one or more vertical or horizontal neighboring blocks, followed by one or more diagonal neighboring blocks. It characterized in that it further comprises the step of selecting.

본 발명에서, 상기 적어도 하나의 이웃 블록을 선택하는 단계는, 좌측 이웃 블록, 상단 이웃 블록, 우측 상단 이웃 블록, 좌측 상단 이웃 블록의 순서로, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of selecting the at least one neighboring block, in the order of the left neighboring block, the upper neighboring block, the upper right neighboring block, the upper left neighboring block, determines whether one or more conditions are satisfied for the neighboring block. Characterized in that it comprises a step.

본 발명에서, 하나 이상의 조건들이 이웃 블록에 대해 만족되는지 여부를 결정하는 단계는, 상기 이웃 블록의 조명 보상이 수행되는지 여부를 나타내는 상기 이웃 블록에 관련된 값을 상기 비트스트림으로부터 추출하는 단계를 포함하는 것을 특징으로 한다.In the present invention, determining whether one or more conditions are satisfied for a neighboring block includes extracting from the bitstream a value related to the neighboring block indicating whether illumination compensation of the neighboring block is performed. It is characterized by.

본 발명에서, 상기 추출된 값은, 상기 블록을 포함하는 매크로블록의 플래그 정보 또는 상기 블록의 플래그 정보로 이루어지는 것을 특징으로 한다.In the present invention, the extracted value is characterized by consisting of flag information of the macroblock including the block or flag information of the block.

본 발명에서, 적어도 하나의 이웃 블록을 선택하는 단계는, 하나의 이웃 블록의 조명 보상 오프셋 값을 이용할지 또는 각 이웃 블록들의 다수개의 조명 보상 오프셋 값들을 이용할지 여부를 결정하는 단계를 포함하는 것을 특징으로 한다.In the present invention, selecting at least one neighboring block includes determining whether to use an illumination compensation offset value of one neighboring block or a plurality of illumination compensation offset values of each neighboring block. It features.

본 발명에서, 다수개의 조명 보상 오프셋 값들이 이용되는 경우, 상기 다수개의 조명 보상 오프셋 값들을 이용하여 상기 제 1 블록의 조명 보상을 수행하기 위한 예측값을 획득하는 단계를 더 포함하는 것을 특징으로 한다.In the present invention, when a plurality of lighting compensation offset values are used, the method may further include obtaining a prediction value for performing lighting compensation of the first block by using the plurality of lighting compensation offset values.

본 발명에서, 상기 다수개의 조명 보상 오프셋 값들을 이용하는 단계는, 상기 다수개의 조명 보상 오프셋 값들의 평균값 또는 중간값을 취하는 단계를 포함하는 것을 특징으로 한다.In the present invention, the step of using the plurality of illumination compensation offset values comprises the step of taking an average or median of the plurality of illumination compensation offset values.

또한, 본 발명은, 각각의 디코딩 방법에 대하여, 상기 각각의 디코딩 방법에 의해 상기 비디오 신호가 디코딩될 수 있는 비트스트림을 생성하는 것을 특징으로 하는 비디오 신호 인코딩 방법을 제공한다. The present invention also provides, for each decoding method, a video signal encoding method characterized by generating a bitstream in which the video signal can be decoded by the respective decoding method.

예를 들어, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 생성하는 단계와, 상기 다시점 비디오 신호의 부분과 관련된 플래그 정보를 제공하는 단계 및 상기 플래그 정보에 따라 조명 보상이 수행되는 부분에 대해, 상기 부분 내의 세그먼트와 관련된 값을 제공하고, 상기 제공된 값으로부터 상기 세그먼트의 조명 보상이 수행되는지 여부를 결정하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하고, 상기 플래그 정보는 상기 다시점 비디오 신호의 부분 내의 세그먼트들에 대해 조명 보상이 수행되는지 여부를 나타내는 것을 특징으로 하는 비디오 신호 인코딩 방법을 제공한다.For example, the present invention provides a method of generating a bitstream in which a plurality of viewpoints of a multiview video signal are encoded, providing flag information related to a portion of the multiview video signal, and lighting compensation according to the flag information. For this portion to be performed, providing a value associated with a segment in the portion, and determining whether illumination compensation of the segment is performed from the provided value, wherein each of the plurality of viewpoints is a plurality of segments. And a plurality of pictures, each of which is divided into a plurality of pictures, wherein the flag information indicates whether lighting compensation is performed on segments within a portion of the multi-view video signal.

또한, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 생성하는 단계와, 제 1 세그먼트에 인접한 적어도 하나의 이웃 세그먼트의 조명 보상 오프셋 값을 이용하여, 상기 제 1 세그먼트의 조명 보상 예측값을 제공하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하고, 상기 예측값을 제공하는 단계는, 상기 이웃 세그먼트들 중 정해진 순서에 따라 상기 적어도 하나의 이웃 세그먼트를 선택하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 인코딩 방법을 제공한다.The present invention also provides a method of generating a bitstream in which a plurality of viewpoints of a multiview video signal are encoded, and using illumination compensation offset values of at least one neighboring segment adjacent to the first segment, illuminating the first segment. Providing a compensated prediction value, wherein each viewpoint of the plurality of viewpoints includes a plurality of pictures divided into a plurality of segments, and providing the prediction value comprises: determining the prediction value according to a predetermined order of the neighboring segments. Selecting at least one neighboring segment provides a video signal encoding method.

또한, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 생성하는 단계와, 참조 픽쳐에 관한 제 1 세그먼트의 조명 보상 오프셋 값을 제공하는 단계 및 상기 제 1 세그먼트의 조명 보상을 위한 정보를 제공하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개 의 픽쳐들을 포함하고, 상기 오프셋 값은 이웃 세그먼트와 관련된 특성에 기초하여 결정된 적어도 하나의 이웃 세그먼트의 조명 보상 오프셋 값을 이용하여 예측되고, 상기 정보 제공 단계는, 상기 참조 픽쳐로부터 획득된 상기 제 1 세그먼트의 픽셀들의 예측값과, 상기 제 1 세그먼트의 픽셀들의 차분값과, 대응되는 조명 보상 오프셋 값을 더하는 것에 기초하는 것을 특징으로 하는 비디오 신호 인코딩 방법을 제공한다.The present invention also provides a method of generating a bitstream in which a plurality of viewpoints of a multiview video signal are encoded, providing an illumination compensation offset value of a first segment with respect to a reference picture, and lighting compensation of the first segment. Providing information for each of the plurality of viewpoints, wherein each viewpoint of the plurality of viewpoints comprises a plurality of pictures divided into a plurality of segments, wherein the offset value is at least one neighbor determined based on characteristics associated with the neighboring segment. Wherein the information providing step comprises: predicting the pixels of the first segment obtained from the reference picture, a difference value of the pixels of the first segment, and a corresponding illumination compensation offset; A video signal encoding method is provided based on adding a value.

또한, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 생성하는 단계와, 참조 픽쳐에 관한 제 1 세그먼트의 조명 보상 예측값을 제공하는 단계와, 상기 제 1 세그먼트의 조명 보상 예측값과 차분값을 더함으로써 상기 제 1 세그먼트의 조명 보상 오프셋 값을 제공하는 단계 및 상기 제 1 세그먼트의 조명 보상을 위한 정보를 제공하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하고, 상기 정보 제공 단계는, 상기 참조 픽쳐로부터 획득된 상기 제 1 세그먼트의 픽셀들의 예측값과, 상기 제 1 세그먼트의 픽셀들의 차분값과, 대응되는 조명 보상 오프셋 값을 더하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 인코딩 방법을 제공한다.The present invention also provides a method of generating a bitstream in which a plurality of viewpoints of a multiview video signal are encoded, providing an illumination compensation prediction value of a first segment related to a reference picture, and an illumination compensation prediction value of the first segment. And providing an illumination compensation offset value of the first segment by adding a difference value and a difference value, and providing information for illumination compensation of the first segment, wherein each viewpoint of the plurality of viewpoints is a plurality of segments. And the information providing step comprises: predicting pixels of the first segment obtained from the reference picture, difference values of the pixels of the first segment, and corresponding illumination compensation offset values; It provides a video signal encoding method comprising the step of adding.

또한, 본 발명은, 다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 생성하는 단계와, 제 1 세그먼트와 관련된 참조 픽쳐가 이웃 세그먼트와 관련된 참조 픽쳐와 동일한지 여부에 따라, 상기 제 1 세그먼트에 인접한 적어도 하나의 이웃 세그먼트의 조명 보상 오프셋 값을 이용하여 참조 픽쳐에 관한 제 1 세그먼트의 조명 보상 예측값을 제공하는 단계를 포함하되, 상기 다수개 시점들의 각 시점은 다수개의 세그먼트들로 구분된 다수개의 픽쳐들을 포함하는 것을 특징으로 하는 비디오 신호 인코딩 방법을 제공한다.The present invention also provides a method of generating a bitstream in which a plurality of viewpoints of a multiview video signal are encoded and whether the reference picture associated with the first segment is the same as the reference picture associated with the neighboring segment. Providing an illumination compensation estimate of the first segment with respect to the reference picture using an illumination compensation offset value of at least one neighboring segment adjacent to, wherein each of the plurality of viewpoints is divided into a plurality of segments. It provides a video signal encoding method comprising a number of pictures.

또한, 각각의 디코딩 방법에 대하여, 컴퓨터로 읽을 수 있는 매체에 저장된 컴퓨터 프로그램은, 상기 각각의 디코딩 방법을 수행하도록 컴퓨터에 지시하는 것을 특징으로 한다.In addition, for each decoding method, the computer program stored in the computer readable medium instructs the computer to perform the respective decoding method.

또한, 각각의 디코딩 방법에 대하여, 장치로 판독가능한 정보 운송체에 포함된 이미지 데이터는 상기 각각의 디코딩 방법에 의해 비디오 신호로 디코딩될 수 있다.In addition, for each decoding method, the image data included in the apparatus-readable information carrier can be decoded into a video signal by the respective decoding method.

또한, 각각의 디코딩 방법에 대하여, 디코더는 상기 각각의 디코딩 방법을 수행하기 위한 수단을 포함하는 것을 특징으로 한다.In addition, for each decoding method, the decoder comprises means for performing said respective decoding method.

또한, 각각의 디코딩 방법에 대하여, 인코더는 상기 각각의 디코딩 방법에 의해 비디오 신호로 디코딩될 수 있도록 비트스트림을 생성하는 수단을 포함하는 것을 특징으로 한다.In addition, for each decoding method, the encoder comprises means for generating a bitstream to be decoded into a video signal by said respective decoding method.

또한, 본 발명은, (a)현재 블록에 인접한 블록들과 다른 시점의 참조 영상 블록들 중 적어도 하나의 블록에 대한 조명(illumination) 평균값을 획득하는 단계와, (b)상기 획득된 적어도 하나의 블록에 대한 조명 평균값으로부터 현재 블록의 조명 평균 예측값을 유도하는 단계 및 (c)상기 현재 블록의 조명 평균 예측값과 현재 블록의 조명 평균값 사이의 오차값을 획득하는 단계로 이루어지는 것을 특징으로 하는 비디오 영상 인코딩 방법을 제공한다.In addition, the present invention, (a) obtaining an average of the illumination (illumination) for at least one block of the reference image blocks at a different time point than the blocks adjacent to the current block, and (b) at least one obtained Deriving an illumination average prediction value of the current block from the illumination average value for the block; and (c) obtaining an error value between the illumination average prediction value of the current block and the illumination average value of the current block. Provide a method.

또한, 본 발명은, (l)비디오 신호로부터 현재 블록의 조명 평균값을 복원하 기 위한 오차값을 획득하는 단계와, (m)다른 시점의 참조 영상 블록들에 기초하여 현재 블록의 조명 평균 예측값을 유도하는 단계 및 (n)상기 조명 평균 예측값과 오차값으로부터 상기 현재 블록의 조명 평균값을 복원하는 단계를 포함하여 이루어지는 것을 특징으로 하는 비디오 영상 디코딩 방법을 제공한다.In addition, the present invention, (l) obtaining an error value for restoring the illumination average value of the current block from the video signal, and (m) calculating the illumination average prediction value of the current block based on the reference image blocks at different time points And (n) restoring an illumination average value of the current block from the illumination average prediction value and the error value.

또한, 본 발명은, 현재 블록에 인접한 블록들과 다른 시점의 참조 영상 블록들의 조명 평균값을 획득하는 조명 평균값 획득부와, 상기 획득된 평균값으로부터 상기 현재 블록의 조명 평균 예측값을 유도하는 조명 평균값 예측부와, 상기 조명 평균 예측값과 현재 블록의 조명 평균값과의 오차값을 구하는 오차값 부호화부를 포함하여 이루어지는 것을 특징으로 하는 비디오 영상 인코딩 장치를 제공한다.In addition, the present invention, the illumination average value acquisition unit for obtaining the illumination average value of the reference image blocks at a different time point than the blocks adjacent to the current block, and the illumination average value prediction unit for inducing the illumination average prediction value of the current block from the obtained average value And an error value encoder which obtains an error value between the illumination average prediction value and the illumination average value of the current block.

또한, 본 발명은, 수신된 비트스트림으로부터 오차값을 획득하는 오차값 복호화부와, 다른 시점의 참조 영상 블록에 기초하여 현재 블록의 조명 평균 예측값을 유도하는 조명 평균값 예측부와, 상기 오차값과 조명 평균 예측값으로부터 현재 블록의 조명 평균값을 복원하는 조명 보상부를 포함하여 이루어지는 것을 특징으로 하는 비디오 영상 디코딩 장치를 제공한다.The present invention also provides an error value decoder for obtaining an error value from a received bitstream, an illumination average value predictor for inducing an illumination average predicted value of a current block based on a reference image block at a different view, and the error value and The present invention provides a video image decoding apparatus comprising an illumination compensator for restoring an illumination average value of a current block from an illumination average prediction value.

또한, 본 발명은, 현재 블록에 인접하는 이웃 블록의 오프셋 값을 이용하여 상기 현재 블록의 조명 보상을 위한 프리딕터(predictor)를 획득하는 단계와, 상기 프리딕터를 이용하여 상기 현재 블록의 오프셋 값을 복원하는 단계를 포함하되, 상기 프리딕터는, 현재 블록의 참조 번호와 상기 이웃 블록들의 참조 번호가 동일한지 여부에 따라 결정되는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.The present invention also provides a method for acquiring a predictor for lighting compensation of the current block by using an offset value of a neighboring block adjacent to a current block, and using the predictor to offset the current block. And reconstructing the signal, wherein the predictor is determined according to whether a reference number of a current block and a reference number of the neighboring blocks are the same.

또한, 본 발명은, 현재 블록의 조명 평균값과 참조 블록의 조명 평균값의 차이를 나타내는 현재 블록의 오프셋 값을 복원하는 단계와, 상기 현재 블록이 2이상의 참조 블록을 이용하여 예측 코딩된 경우, 상기 오프셋 값을 이용하여 상기 현재 블록의 각 참조 블록에 대한 오프셋 값들을 획득하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.The present invention also provides a method of restoring an offset value of a current block indicating a difference between an illumination average value of a current block and an illumination average value of a reference block, and when the current block is predictively coded using two or more reference blocks, the offset And obtaining offset values for each reference block of the current block by using a value.

또한, 본 발명은, 현재 블록의 조명보상 수행여부를 나타내는 플래그 정보를 획득하는 단계와, 상기 플래그 정보에 따라 조명보상이 수행되는 경우, 상기 현재 블록의 평균 화소값과 참조 블록의 평균 화소값의 차이를 나타내는 현재 블록의 오프셋 값을 복원하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.The present invention also provides a method of acquiring flag information indicating whether or not to perform illumination compensation of a current block, and when illumination compensation is performed according to the flag information, And restoring the offset value of the current block indicating the difference.

또한, 본 발명은, 비디오 신호의 일정 계층에 대해 조명 보상을 수행하도록 유도하는 플래그 정보를 획득하는 단계와, 상기 플래그 정보에 따라 조명 보상이 수행된 상기 비디오 신호의 일정 계층을 디코딩하는 단계를 포함하되, 상기 비디오 신호의 일정 계층은, 시퀀스(sequence) 계층, 시점(view) 계층, 픽쳐그룹(Group Of Picture) 계층, 픽쳐(picture) 계층, 슬라이스(slice) 계층, 매크로블록(macroblock) 계층 또는 블록(block) 계층 중 어느 하나인 것을 특징으로 하는 비디오 신호 디코딩 방법을 제공한다.The present invention also includes obtaining flag information for inducing illumination compensation for a certain layer of a video signal, and decoding a layer of the video signal for which illumination compensation has been performed according to the flag information. The predetermined layer of the video signal may include a sequence layer, a view layer, a group of picture layer, a picture layer, a slice layer, a macroblock layer, or A video signal decoding method is provided which is any one of a block layer.

또한, 본 발명은, 현재 블록의 평균 화소값과 참조 블록의 평균 화소값 차이를 나타내는 현재 블록의 오프셋 값을 획득하는 단계와, 상기 오프셋 값을 이용하여 현재 블록과 최적으로 매칭되는 참조 블록을 서치하는 단계와, 상기 서치된 참 조 블록으로부터 움직임 벡터를 획득하여 부호화하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 인코딩 방법을 제공한다.The present invention also provides a method of obtaining an offset value of a current block representing a difference between an average pixel value of a current block and an average pixel value of a reference block, and searching for a reference block that is optimally matched to the current block by using the offset value. And acquiring and encoding a motion vector from the searched reference block.

상기 실시예들은 하나 이상의 다음과 같은 이점을 가질 수 있다.The above embodiments may have one or more of the following advantages.

상기 비디오 영상의 인코딩/디코딩 방법 또는 장치는 부호화하려는 블록(current block)의 평균값을 주변 블록으로부터 예측하고 그 차이 값만을 보내는 방식을 이용함으로써, 조명 보상(illumination compensation)을 위해서 전송해야 하는 정보를 최소화할 수 있다.The encoding / decoding method or apparatus for the video image predicts an average value of a block to be encoded from a neighboring block and transmits only the difference value, thereby minimizing information to be transmitted for illumination compensation. can do.

또한, 본 발명은 방대한 데이터량을 필요로 하는 다시점 비디오 영상에 있어서 효율적인 조명 보상(illumination compensation)을 수행함으로써 부호화 효율을 높일 수 있다. 또한, 블록 간 또는 시점 간의 상관관계를 이용함으로써 효율적인 부호화 및 복호화 시스템을 구성하는 것이 가능해진다.In addition, the present invention can improve coding efficiency by performing efficient illumination compensation in a multiview video image requiring a large amount of data. In addition, it is possible to construct an efficient encoding and decoding system by using correlations between blocks or viewpoints.

다시점 비디오 데이터의 시점 영상들은 서로 다른 카메라에 의해 생성되기 때문에, 카메라의 내외적 요인으로 인하여 조명 차이가 발생하게 된다. 따라서, 본 발명에서는 현재 블록의 오프셋 값을 이웃 블록의 정보를 이용하여 예측하고 그 차이값만을 전송함으로써, 조명 보상을 위해서 전송해야 하는 정보를 최소화할 수 있다. 또한, 상기 현재 블록의 오프셋 값을 예측할 때, 현재 블록과 이웃 블록의 참조 번호가 동일한지 여부를 확인함으로써 보다 정확한 예측을 수행할 수 있게 된다. Since the viewpoint images of the multiview video data are generated by different cameras, illumination differences occur due to internal and external factors of the cameras. Therefore, in the present invention, by predicting the offset value of the current block using the information of the neighboring block and transmitting only the difference value, it is possible to minimize the information to be transmitted for lighting compensation. In addition, when predicting the offset value of the current block, it is possible to perform a more accurate prediction by checking whether the reference number of the current block and the neighboring block is the same.

또한, 본 발명은 현재 블록의 조명 보상 수행 여부를 나타내는 플래그 정보도 예측하여 그 차이값만을 전송함으로써 전송해야 하는 정보를 최소화할 수 있다. 마찬가지로 현재 블록과 이웃 블록의 참조 번호가 동일한지 여부도 확인함으로써 보다 정확한 예측을 수행할 수 있게 된다. 상기와 같은 본 발명을 통해, 블록 간 또는 시점 간의 상관관계를 이용함으로써 효율적인 코딩이 가능해진다.In addition, the present invention can also minimize the information to be transmitted by predicting the flag information indicating whether the illumination compensation of the current block is performed only by transmitting the difference value. Similarly, by checking whether the current block and the neighboring block have the same reference number, more accurate prediction can be performed. Through the present invention as described above, efficient coding is enabled by using correlations between blocks or viewpoints.

다시점 비디오 데이터의 시점 영상들은 서로 다른 카메라에 의해 생성되기 때문에, 카메라의 내외적 요인으로 인하여 조명 차이가 발생하게 된다. 따라서, 본 발명에서는 현재 블록의 오프셋 값을 이웃 블록의 정보를 이용하여 예측하고 그 차이값만을 전송함으로써, 조명 보상을 위해서 전송해야 하는 정보를 최소화할 수 있다. 본 발명은, 현재 블록의 조명 보상 수행 여부를 나타내는 플래그 정보도 예측하여 그 차이값만을 전송함으로써 전송해야 하는 정보를 최소화할 수 있다. Since the viewpoint images of the multiview video data are generated by different cameras, illumination differences occur due to internal and external factors of the cameras. Therefore, in the present invention, by predicting the offset value of the current block using the information of the neighboring block and transmitting only the difference value, it is possible to minimize the information to be transmitted for lighting compensation. According to the present invention, it is possible to minimize the information to be transmitted by predicting flag information indicating whether the current block performs lighting compensation and transmitting only the difference value.

또한, 2이상의 참조 블록을 이용하여 예측 코딩된 경우, 오프셋 값과 플래그 정보를 각각 적어도 하나 이상의 방법으로 적용함으로써 보다 효율적인 코딩이 가능해질 수 있다. 또한, 비디오 신호의 각 영역 범위 별로 조명 보상 기술의 사용 여부를 나타내는 플래그 비트를 할당함으로써, 효과적으로 조명 보상 기술을 사용할 수 있다. 또한, 본 발명은, 움직임 추정을 수행하는 과정에서 조명 차이를 반영하여 비용 계산을 함으로써 보다 정확한 예측 코딩을 수행할 수 있게 된다.In addition, when prediction is coded using two or more reference blocks, more efficient coding may be enabled by applying offset values and flag information in at least one or more methods, respectively. In addition, by assigning a flag bit indicating whether to use the illumination compensation technique for each region range of the video signal, it is possible to effectively use the illumination compensation technique. In addition, the present invention, it is possible to perform more accurate predictive coding by calculating the cost by reflecting the illumination difference in the process of performing the motion estimation.

다른 특징들과 이점들은 발명의 상세한 설명과 청구 범위에서 보다 명백하게 나타날 것이다.Other features and advantages will appear more clearly in the description and claims.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.It will be understood by those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, it is to be understood that the embodiments described above are exemplary in all respects and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

Claims (50)

다시점 비디오 신호의 다수개 시점들이 인코딩된 비트스트림을 수신하는 단계;Receiving a bitstream in which a plurality of viewpoints of a multiview video signal are encoded; 상기 비트스트림으로부터 상기 다시점 비디오 신호의 현재 슬라이스에 대한 제 1 플래그 정보를 추출하는 단계;Extracting first flag information for a current slice of the multiview video signal from the bitstream; 상기 제 1 플래그 정보에 따라 조명 보상이 상기 현재 슬라이스에 대해 수행되는 경우, 상기 비트스트림으로부터 상기 현재 슬라이스 내의 현재 블록에 대한 제 2 플래그 정보를 추출하는 단계;Extracting second flag information for a current block in the current slice from the bitstream when lighting compensation is performed on the current slice according to the first flag information; 상기 제 2 플래그 정보에 따라 조명 보상이 상기 현재 블록에 대해 수행되는 경우, 상기 현재 블록에 인접한 적어도 하나의 이웃 블록의 조명 보상 오프셋 값을 이용하여 상기 현재 블록의 조명 보상 예측값을 유도하는 단계;Deriving an illumination compensation prediction value of the current block using an illumination compensation offset value of at least one neighboring block adjacent to the current block when illumination compensation is performed on the current block according to the second flag information; 상기 비트스트림으로부터 상기 현재 블록의 조명 보상 차분값을 추출하는 단계; 및Extracting an illumination compensation difference value of the current block from the bitstream; And 상기 현재 블록의 조명 보상 예측값과 상기 현재 블록의 조명 보상 차분값을 더하여 상기 현재 블록의 조명 보상 오프셋 값을 획득하는 단계를 포함하되,Obtaining an illumination compensation offset value of the current block by adding an illumination compensation prediction value of the current block and an illumination compensation difference value of the current block, 상기 제 1 플래그 정보는 조명 보상이 상기 현재 슬라이스에 대해 수행되는지 여부를 나타내고,The first flag information indicates whether lighting compensation is performed on the current slice, 상기 제 2 플래그 정보는 조명 보상이 상기 현재 블록에 대해 수행되는지 여부를 나타내는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법.And the second flag information indicates whether lighting compensation is performed on the current block. 제 1항에 있어서,The method of claim 1, 상기 현재 블록의 조명 보상 오프셋 값을 이용하여 상기 현재 블록의 픽셀값을 예측하는 단계; 및Predicting a pixel value of the current block using an illumination compensation offset value of the current block; And 상기 예측된 현재 블록의 픽셀값을 이용하여 상기 현재 블록을 디코딩하는 단계를 더 포함하는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법.And decoding the current block using the predicted pixel value of the current block. 제 1항에 있어서,The method of claim 1, 상기 현재 블록의 조명 보상 예측값은 상기 현재 블록의 참조 번호와 상기 이웃 블록의 참조 번호가 동일한지 여부에 기초하여 유도되는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법.The illumination compensation prediction value of the current block is derived based on whether the reference number of the current block and the reference number of the neighboring block is the same. 제 1항에 있어서,The method of claim 1, 상기 이웃 블록의 조명 보상 오프셋 값은 상기 이웃 블록의 조명 보상 예측값과 상기 이웃 블록의 조명 보상 차분값을 더하여 획득되는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법.The illumination compensation offset value of the neighboring block is obtained by adding the illumination compensation prediction value of the neighboring block and the illumination compensation difference value of the neighboring block. 제 3항에 있어서,The method of claim 3, 상기 이웃 블록은 상기 현재 블록에 인접한 이웃 블록들 중에서 기결정된 순서에 따라 선택된 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법.And wherein the neighboring block is selected according to a predetermined order among neighboring blocks adjacent to the current block. 제 5항에 있어서,6. The method of claim 5, 상기 이웃 블록은 상기 현재 블록의 상단, 좌측, 우측상단 그리고 좌측상단에 위치한 블록 순으로 선택되는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법.The neighboring block is a multi-view video signal decoding method characterized in that the block is located in the order of the upper, left, upper right and the upper left of the current block. 제 1항에 있어서, 상기 현재 블록의 조명 보상 예측값을 유도하는 단계는,The method of claim 1, wherein the deriving an illumination compensation prediction value of the current block comprises: 하나의 이웃 블록의 조명 보상 오프셋 값을 이용할지 또는 다수개의 이웃 블록들의 조명 보상 오프셋 값들을 이용할지 여부를 결정하는 단계를 포함하는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법.And determining whether to use the illumination compensation offset value of one neighboring block or the illumination compensation offset values of the plurality of neighboring blocks. 제 7항에 있어서, 상기 다수개의 이웃 블록들의 조명 보상 오프셋 값들을 이용하는 경우, 상기 현재 블록의 조명 보상 예측값은 상기 다수개의 이웃 블록들의 조명 보상 오프셋 값들의 평균값 또는 중간값으로부터 유도되는 것을 특징으로 하는 다시점 비디오 신호 디코딩 방법.8. The method of claim 7, wherein when using the illumination compensation offset values of the plurality of neighboring blocks, the illumination compensation prediction value of the current block is derived from an average value or a median value of the illumination compensation offset values of the plurality of neighboring blocks. Multi-view video signal decoding method. 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020087019748A 2006-01-12 2007-01-12 Processing multiview video KR101276847B1 (en)

Applications Claiming Priority (25)

Application Number Priority Date Filing Date Title
US75823406P 2006-01-12 2006-01-12
US60/758,234 2006-01-12
KR20060004956 2006-01-17
KR1020060004956 2006-01-17
US75962006P 2006-01-18 2006-01-18
US60/759,620 2006-01-18
US76253406P 2006-01-27 2006-01-27
US60/762,534 2006-01-27
KR1020060027100 2006-03-24
KR20060027100 2006-03-24
US78719306P 2006-03-30 2006-03-30
US60/787,193 2006-03-30
KR1020060037773A KR20070076356A (en) 2006-01-18 2006-04-26 Method and apparatus for coding and decoding of video sequence
KR1020060037773 2006-04-26
US81827406P 2006-07-05 2006-07-05
US60/818,274 2006-07-05
US83008706P 2006-07-12 2006-07-12
US60/830,087 2006-07-12
US83032806P 2006-07-13 2006-07-13
US60/830,328 2006-07-13
KR1020060110338A KR20070076392A (en) 2006-01-18 2006-11-09 A method and apparatus for decoding/encoding a video signal
KR1020060110338 2006-11-09
KR1020060110337A KR20070076391A (en) 2006-01-18 2006-11-09 A method and apparatus for decoding/encoding a video signal
KR1020060110337 2006-11-09
PCT/KR2007/000225 WO2007081176A1 (en) 2006-01-12 2007-01-12 Processing multiview video

Publications (2)

Publication Number Publication Date
KR20080094048A KR20080094048A (en) 2008-10-22
KR101276847B1 true KR101276847B1 (en) 2013-06-18

Family

ID=39731061

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020087019748A KR101276847B1 (en) 2006-01-12 2007-01-12 Processing multiview video

Country Status (2)

Country Link
US (1) USRE44680E1 (en)
KR (1) KR101276847B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2805511B1 (en) 2012-01-20 2019-03-06 Sun Patent Trust Methods and apparatus for encoding and decoding video using temporal motion vector prediction
EP2811743B1 (en) 2012-02-03 2021-03-03 Sun Patent Trust Image encoding method, image decoding method, image encoding device, image decoding device, and image encoding/decoding device
JP6421931B2 (en) 2012-03-06 2018-11-14 サン パテント トラスト Moving picture coding method and moving picture coding apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030202592A1 (en) 2002-04-20 2003-10-30 Sohn Kwang Hoon Apparatus for encoding a multi-view moving picture
EP1515550A1 (en) * 2002-06-20 2005-03-16 Sony Corporation Decoding apparatus and decoding method

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0698312A (en) 1992-09-16 1994-04-08 Fujitsu Ltd High efficiency picture coding system
IL112795A (en) 1994-03-04 2001-01-28 Astrazeneca Ab Peptide derivatives as antithrombic agents their preparation and pharmaceutical compositions containing them
US6055012A (en) 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
WO1998031152A2 (en) 1997-01-13 1998-07-16 Koninklijke Philips Electronics N.V. Embedding supplemental data in a digital video signal
JPH11252552A (en) 1998-03-05 1999-09-17 Sony Corp Compression coding method and compression coder for video signal, and multiplexing method and multiplexer for compression coded data
US6167084A (en) 1998-08-27 2000-12-26 Motorola, Inc. Dynamic bit allocation for statistical multiplexing of compressed and uncompressed digital video signals
KR100375708B1 (en) 2000-10-28 2003-03-15 전자부품연구원 3D Stereosc opic Multiview Video System and Manufacturing Method
KR100397511B1 (en) 2001-11-21 2003-09-13 한국전자통신연구원 The processing system and it's method for the stereoscopic/multiview Video
WO2003098939A1 (en) 2002-05-22 2003-11-27 Matsushita Electric Industrial Co., Ltd. Moving image encoding method, moving image decoding method, and data recording medium
EP1530370A4 (en) 2002-06-20 2008-12-03 Sony Corp Decoding device and decoding method
KR100475060B1 (en) 2002-08-07 2005-03-10 한국전자통신연구원 The multiplexing method and its device according to user's request for multi-view 3D video
KR100751422B1 (en) 2002-12-27 2007-08-23 한국전자통신연구원 A Method of Coding and Decoding Stereoscopic Video and A Apparatus for Coding and Decoding the Same
US7489342B2 (en) 2004-12-17 2009-02-10 Mitsubishi Electric Research Laboratories, Inc. Method and system for managing reference pictures in multiview videos
US7286689B2 (en) 2003-06-07 2007-10-23 Hewlett-Packard Development Company, L.P. Motion estimation for compression of calibrated multi-view image sequences
US20060153466A1 (en) 2003-06-30 2006-07-13 Ye Jong C System and method for video processing using overcomplete wavelet coding and circular prediction mapping
US7778328B2 (en) 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
CN1212014C (en) 2003-08-18 2005-07-20 北京工业大学 Video coding method based on time-space domain correlation quick movement estimate
WO2005055607A1 (en) 2003-12-08 2005-06-16 Electronics And Telecommunications Research Institute System and method for encoding and decoding an image using bitstream map and recording medium thereof
KR100987775B1 (en) 2004-01-20 2010-10-13 삼성전자주식회사 3 Dimensional coding method of video
KR100679740B1 (en) 2004-06-25 2007-02-07 학교법인연세대학교 Method for Coding/Decoding for Multiview Sequence where View Selection is Possible
US7671893B2 (en) 2004-07-27 2010-03-02 Microsoft Corp. System and method for interactive multi-view video
US7444664B2 (en) 2004-07-27 2008-10-28 Microsoft Corp. Multi-view video format
KR100584603B1 (en) 2004-08-03 2006-05-30 학교법인 대양학원 Direct mode motion prediction method and apparatus for multi-view video
US7924923B2 (en) 2004-11-30 2011-04-12 Humax Co., Ltd. Motion estimation and compensation method and device adaptive to change in illumination
CN102263962A (en) 2004-12-10 2011-11-30 韩国电子通信研究院 Apparatus for universal coding for multi-view video
US7468745B2 (en) 2004-12-17 2008-12-23 Mitsubishi Electric Research Laboratories, Inc. Multiview video decomposition and encoding
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US7710462B2 (en) 2004-12-17 2010-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for randomly accessing multiview videos
US8644386B2 (en) 2005-09-22 2014-02-04 Samsung Electronics Co., Ltd. Method of estimating disparity vector, and method and apparatus for encoding and decoding multi-view moving picture using the disparity vector estimation method
KR101276720B1 (en) 2005-09-29 2013-06-19 삼성전자주식회사 Method for predicting disparity vector using camera parameter, apparatus for encoding and decoding muti-view image using method thereof, and a recording medium having a program to implement thereof
US9131247B2 (en) 2005-10-19 2015-09-08 Thomson Licensing Multi-view video coding using scalable video coding
ZA200805337B (en) 2006-01-09 2009-11-25 Thomson Licensing Method and apparatus for providing reduced resolution update mode for multiview video coding
CN101375593A (en) 2006-01-12 2009-02-25 Lg电子株式会社 Processing multiview video
WO2007081177A1 (en) 2006-01-12 2007-07-19 Lg Electronics Inc. Processing multiview video
KR100959538B1 (en) 2006-03-30 2010-05-27 엘지전자 주식회사 A method and apparatus for decoding/encoding a video signal
US9456223B2 (en) 2006-10-18 2016-09-27 Thomson Licensing Local illumination and color compensation without explicit signaling
US20100135388A1 (en) 2007-06-28 2010-06-03 Thomson Licensing A Corporation SINGLE LOOP DECODING OF MULTI-VIEW CODED VIDEO ( amended
US8665958B2 (en) 2008-01-29 2014-03-04 Electronics And Telecommunications Research Institute Method and apparatus for encoding and decoding video signal using motion compensation based on affine transformation
US8130277B2 (en) 2008-02-20 2012-03-06 Aricent Group Method and system for intelligent and efficient camera motion estimation for video stabilization

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030202592A1 (en) 2002-04-20 2003-10-30 Sohn Kwang Hoon Apparatus for encoding a multi-view moving picture
EP1515550A1 (en) * 2002-06-20 2005-03-16 Sony Corporation Decoding apparatus and decoding method

Also Published As

Publication number Publication date
KR20080094048A (en) 2008-10-22
USRE44680E1 (en) 2013-12-31

Similar Documents

Publication Publication Date Title
KR100947234B1 (en) Method and apparatus for processing multiview video
KR102436983B1 (en) Method and apparatus for processing a video signal
KR101370919B1 (en) A method and apparatus for processing a signal
US20070177671A1 (en) Processing multiview video
JP5498963B2 (en) Coding and decoding of an image or a sequence of images divided into pixel blocks
KR102081945B1 (en) Method and apparatus for processing a video signal
WO2009099510A1 (en) Methods and apparatus for implicit block segmentation in video encoding and decoding
KR101276847B1 (en) Processing multiview video
KR20080006494A (en) A method and apparatus for decoding a video signal
KR20080060188A (en) A method and apparatus for decoding a video signal
KR102333745B1 (en) Method and apparatus for processing a video signal
KR20140124440A (en) Method for encoding and decoding video using weighted prediction, and apparatus thereof
KR20080029944A (en) A method and apparatus for processing a video signal
KR20140124438A (en) Method for encoding and decoding video using weighted prediction, and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160524

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170512

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180514

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190514

Year of fee payment: 7