WO2014168411A1 - 비디오 신호 처리 방법 및 장치 - Google Patents

비디오 신호 처리 방법 및 장치 Download PDF

Info

Publication number
WO2014168411A1
WO2014168411A1 PCT/KR2014/003078 KR2014003078W WO2014168411A1 WO 2014168411 A1 WO2014168411 A1 WO 2014168411A1 KR 2014003078 W KR2014003078 W KR 2014003078W WO 2014168411 A1 WO2014168411 A1 WO 2014168411A1
Authority
WO
WIPO (PCT)
Prior art keywords
depth
residual
value
current block
prediction
Prior art date
Application number
PCT/KR2014/003078
Other languages
English (en)
French (fr)
Inventor
남정학
예세훈
김태섭
정지욱
허진
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US14/780,781 priority Critical patent/US20160050437A1/en
Priority to JP2016507884A priority patent/JP2016519519A/ja
Priority to EP14783381.8A priority patent/EP2985999A4/en
Priority to CN201480020415.3A priority patent/CN105103555A/zh
Priority to KR1020157024954A priority patent/KR20160002712A/ko
Publication of WO2014168411A1 publication Critical patent/WO2014168411A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Definitions

  • the present invention relates to a method and apparatus for coding a video signal.
  • Compression coding refers to a series of signal processing techniques that transmit digitized information through a communication line or store the data in a form suitable for a storage medium.
  • the object of compression encoding includes objects such as voice, video, text, and the like.
  • a technique of performing compression encoding on an image is called video image compression.
  • a general feature of a multiview video image is that it has spatial redundancy, temporal redundancy and inter-view redundancy.
  • An object of the present invention is to improve the coding efficiency of video signals, especially depth data.
  • the present invention obtains a depth prediction value of a current block, restores a depth residual for each sample of the current block according to an SDC mode indicator, and uses the depth prediction value and the reconstructed depth residual. Restoring the depth value of the current block.
  • the SDC mode indicator refers to a flag indicating whether the current block is coded in the SDC mode, and the SDC mode refers to depth residuals of a plurality of samples in the current block as one depth residual. Characterized by means of coding.
  • the depth residual of the current block may be reconstructed using the residual coding information.
  • the residual coding information according to the present invention includes the absolute value of the depth residual and the sign information of the depth residual.
  • Depth residual means a difference between the average value of the depth value of the current block and the average value of the depth prediction value of the current block.
  • the depth residual means the average value of the depth residual of the i th sample derived from the difference between the depth value of the i th sample of the current block and the depth prediction value of the i th sample.
  • the SDC mode indicator according to the present invention indicates that the current block is coded in the SDC mode
  • the depth residual is restored using the depth lookup table.
  • the depth residual derives a difference index by using an absolute value of a depth residual and sign information of the depth residual, obtains a depth prediction average value of a current block, and calculates a depth prediction average value and the depth lookup table.
  • Obtains a prediction index using the depth lookup table obtains a table depth value corresponding to an index derived from the sum of the prediction index and the difference index, and restores the difference between the obtained table depth value and the depth prediction average value. It is characterized by.
  • the prediction index according to the present invention is set to a table index assigned to a table depth value that minimizes the difference between the depth prediction average value and the table depth value in the depth lookup table.
  • the coding efficiency of the depth data can be improved by adaptively using the SDC mode using the SDC mode indicator.
  • the depth residual for all samples in the current block may be coded as one depth residual, and the inverse quantization and inverse transform processes are skipped.
  • the coding efficiency of the depth residual can be improved.
  • an error according to the round operation can be reduced by performing an average operation after the difference operation between the depth value of the current block and the depth prediction value of the current block.
  • the number of bits required for coding depth data can be reduced.
  • FIG. 1 is a schematic block diagram of a video decoder 100 according to an embodiment to which the present invention is applied.
  • FIG. 2 is a block diagram illustrating a broadcast receiver to which a video decoder is applied according to an embodiment to which the present invention is applied.
  • FIG. 3 is a flowchart illustrating a process of restoring a depth value of a current block according to an embodiment to which the present invention is applied.
  • FIG. 4 illustrates a method of encoding residual coding information when an depth lookup table is not used as an embodiment to which the present invention is applied.
  • FIG. 5 illustrates a method of obtaining a depth residual of a current block by using residual coding information when the depth lookup table is not used as an embodiment to which the present invention is applied.
  • FIG. 6 illustrates a method of encoding residual coding information when using a depth lookup table according to an embodiment to which the present invention is applied.
  • FIG. 7 illustrates a method of restoring a depth residual using residual coding information when using a depth lookup table according to an embodiment to which the present invention is applied.
  • the present invention obtains the depth prediction value of the current block, and the depth residual for each sample of the current block according to the SDC mode indicator. And restore the depth value of the current block by using the depth prediction value and the reconstructed depth residual.
  • the SDC mode indicator refers to a flag indicating whether the current block is coded in the SDC mode, and the SDC mode refers to depth residuals of a plurality of samples in the current block as one depth residual. Characterized by means of coding.
  • the depth residual of the current block may be reconstructed using the residual coding information.
  • the residual coding information according to the present invention includes the absolute value of the depth residual and the sign information of the depth residual.
  • Depth residual means a difference between the average value of the depth value of the current block and the average value of the depth prediction value of the current block.
  • the depth residual means the average value of the depth residual of the i th sample derived from the difference between the depth value of the i th sample of the current block and the depth prediction value of the i th sample.
  • the SDC mode indicator according to the present invention indicates that the current block is coded in the SDC mode
  • the depth residual is restored using the depth lookup table.
  • the depth residual derives a difference index by using an absolute value of a depth residual and sign information of the depth residual, obtains a depth prediction average value of a current block, and calculates a depth prediction average value and the depth lookup table.
  • Obtains a prediction index using the depth lookup table obtains a table depth value corresponding to an index derived from the sum of the prediction index and the difference index, and restores the difference between the obtained table depth value and the depth prediction average value. It is characterized by.
  • the prediction index according to the present invention is set to a table index assigned to a table depth value that minimizes the difference between the depth prediction average value and the table depth value in the depth lookup table.
  • FIG. 1 is a schematic block diagram of a video decoder 100 according to an embodiment to which the present invention is applied.
  • the video decoder 100 may include a parser 110, a residual reconstructor 120, an intra predictor 130, an in-loop filter 140, a decoded picture buffer 150,
  • the inter prediction unit 160 may be included.
  • the parser 110 may receive a bitstream including multi-view texture data.
  • the bitstream including the depth data may be further received.
  • the input texture data and the depth data may be transmitted in one bitstream or may be transmitted in separate bitstreams.
  • the bitstream may further include a camera parameter.
  • Camera parameters may have intrinsic camera parameters and extrinsic camera parameters, and inherent camera parameters may include focal length, aspect ratio, and principal. point) and the like, and the non-unique camera parameter may include location information of the camera in the world coordinate system.
  • the parser 110 performs parsing on a NAL basis to decode the received bitstream, thereby coding information (eg, block partition information, intra prediction mode, motion information, reference index, etc.) for predicting a video image. ) And coding information (eg, quantized transform coefficients, absolute values of the depth residuals, code information of the depth residuals, etc.) corresponding to the residual data of the video image may be extracted.
  • coding information eg, quantized transform coefficients, absolute values of the depth residuals, code information of the depth residuals, etc.
  • the residual reconstruction unit 120 may obtain the scaled transform coefficients by scaling the quantized transform coefficients using the quantization parameter, and reconstruct the residual data by inverse transforming the scaled transform coefficients.
  • the residual restoring unit 120 may restore the residual data using the absolute value of the depth residual and the sign information of the depth residual, which will be described later with reference to FIGS. 3 to 7.
  • the quantization parameter for the depth block may be set in consideration of the complexity of the texture data. For example, when the texture block corresponding to the depth block is a region of high complexity, a low quantization parameter may be set, and in the case of a region of low complexity, a high quantization parameter may be set.
  • the complexity of the texture block may be determined based on a difference value between pixels adjacent to each other in the reconstructed texture picture as shown in Equation 1 below.
  • Equation 1 E denotes the complexity of the texture data, C denotes the restored texture data, and N denotes the number of pixels in the texture data area to which the complexity is to be calculated.
  • the complexity of the texture data corresponds to the difference value between the texture data corresponding to the (x, y) position and the texture data corresponding to the (x-1, y) position and the (x, y) position. It may be calculated using a difference value between the texture data and the texture data corresponding to the position (x + 1, y).
  • the complexity may be calculated for the texture picture and the texture block, respectively, and the quantization parameter may be derived using Equation 2 below.
  • the quantization parameter for the depth block may be determined based on a ratio of the complexity of the texture picture and the complexity of the texture block.
  • ⁇ and ⁇ may be variable integers derived at the decoder, or may be predetermined integers in the decoder.
  • the intra predictor 130 may perform intra prediction using a neighboring sample adjacent to the current block and an intra prediction mode.
  • the neighboring samples are samples located at the left, bottom left, top, and top right of the current block, and may refer to samples in which restoration is completed before the current block.
  • the intra prediction mode may be extracted from the bitstream or may be derived based on the intra prediction mode of at least one of the left neighboring block and the upper neighboring block of the current block.
  • the intra prediction mode of the depth block may be derived from the intra prediction mode of the texture block corresponding to the depth block.
  • the inter prediction unit 160 may perform motion compensation on the current block by using the reference picture and the motion information stored in the decoded picture buffer unit 150.
  • the motion information may be understood as a broad concept including a motion vector and a reference index.
  • the inter prediction unit 160 may perform motion compensation through temporal inter prediction.
  • Temporal inter prediction may mean inter prediction using a reference picture located at the same time point and a different time zone as the current block.
  • inter-view inter prediction as well as temporal inter prediction may be used.
  • Inter-view inter prediction may mean inter prediction using a reference picture located at a different time point than the current block.
  • the in-loop filter unit 140 may apply an in-loop filter to each coded block to reduce block distortion.
  • the filter can smooth the edges of the block to improve the quality of the decoded picture.
  • Filtered texture pictures or depth pictures may be output or stored in the decoded picture buffer unit 150 for use as a reference picture.
  • the coding efficiency may be reduced.
  • a separate in-loop filter for depth data may be defined.
  • an in-loop filtering method capable of efficiently coding depth data a region-based adaptive loop filter and a trilateral loop filter will be described.
  • the region-based adaptive loop filter it may be determined whether to apply the region-based adaptive loop filter based on the variation of the depth block.
  • the variation amount of the depth block may be defined as the difference between the maximum pixel value and the minimum pixel value in the depth block.
  • Whether to apply the filter may be determined by comparing the change amount of the depth block with a predetermined threshold. For example, when the amount of change in the depth block is greater than or equal to the predetermined threshold value, since the difference between the maximum pixel value and the minimum pixel value in the depth block is large, it may be determined to apply an area-based adaptive loop filter. . In contrast, when the depth change amount is smaller than the predetermined threshold, it may be determined that the region-based adaptive loop filter is not applied.
  • the pixel value of the filtered depth block may be derived by applying a predetermined weight to the neighboring pixel value.
  • the predetermined weight may be determined based on a position difference between the pixel currently being filtered and the neighboring pixel and / or a difference value between the pixel value currently being filtered and the neighboring pixel value.
  • the neighbor pixel value may mean any one of the pixel values included in the depth block except for the pixel value currently being filtered.
  • Trilateral loop filters are similar to region-based adaptive loop filters, except that they consider texture data additionally.
  • the trilateral loop filter compares the following three conditions and extracts depth data of neighboring pixels satisfying the following three conditions.
  • Condition 1 is to compare the positional difference between the current pixel p and the neighboring pixel q in the depth block with a predetermined parameter
  • condition 2 is the depth data of the current pixel p and the depth data of the neighboring pixel q. The difference is compared with the predetermined parameter
  • Condition 3 is to compare the difference between the texture data of the current pixel p and the texture data of the neighboring pixel q with the predetermined parameter. The neighboring pixels satisfying the three conditions may be extracted, and the current pixel p may be filtered by the median or average value of the depth data.
  • the decoded picture buffer unit 150 stores or opens a previously coded texture picture or a depth picture in order to perform inter prediction.
  • frame_num and POC Picture Order Count
  • POC Picture Order Count
  • some of the previously coded pictures may have depth pictures that are different from the current depth picture, and thus, view identification information identifying a view point of the depth picture may be used to use these pictures as reference pictures. have.
  • the decoded picture buffer unit 150 may manage the reference picture using an adaptive memory management method, a sliding window method, or the like in order to more flexibly realize inter prediction.
  • the depth pictures may be marked by a separate mark in order to distinguish them from the texture pictures in the decoded picture buffer unit, and an identifier may be used to identify each depth picture in the marking process.
  • FIG. 2 is a block diagram illustrating a broadcast receiver to which a video decoder is applied according to an embodiment to which the present invention is applied.
  • the broadcast receiver is for receiving an over-the-air broadcast signal and playing back an image.
  • the broadcast receiver may generate 3D content using the received depth related information.
  • the broadcast receiver includes a tuner 200, a demodulation / channel decoder 202, a transport demultiplexer 204, a packet release unit 206, an audio decoder 208, a video decoder 210, a PSI / PSIP processor ( 214, a 3D renderer 216, a formatter 220, and a display 222.
  • the tuner 200 selects and outputs a broadcast signal of one channel selected by a user from among a plurality of broadcast signals input through an antenna (not shown).
  • the demodulation / channel decoder 202 demodulates the broadcast signal from the tuner 200 and performs error correction decoding on the demodulated signal to output the transport stream TS.
  • the transport demultiplexer 204 demultiplexes the transport stream, separates the video PES and the audio PES, and extracts PSI / PSIP information.
  • the packet release unit 206 restores the video ES and the audio ES by releasing packets for the video PES and the audio PES.
  • the audio decoder 208 decodes the audio ES and outputs an audio bitstream.
  • the audio bitstream is converted into an analog voice signal by a digital-to-analog converter (not shown), amplified by an amplifier (not shown), and then output through a speaker (not shown).
  • the video decoder 210 decodes the video ES to reconstruct the original image, which will be omitted with reference to FIG. 1.
  • the decoding process of the audio decoder 208 and the video decoder 210 may be performed based on the packet ID (PID) confirmed by the PSI / PSIP processing unit 214.
  • the video decoder 210 may extract depth information.
  • additional information required to generate an image of a virtual camera viewpoint for example, camera information, or information for estimating occlusion covered by a relatively forward object (eg, geometric information such as an object outline, an object Transparency information, color information), and the like, may be extracted and provided to the 3D renderer 216.
  • the depth information and / or additional information may be separated by the transport demultiplexer 204.
  • the PSI / PSIP processing unit 214 receives the PSI / PSIP information from the transport demultiplexing unit 204, parses it, and stores it in a memory (not shown) or a register so that the broadcast is reproduced based on the stored information.
  • the 3D renderer 216 may generate color information at the virtual camera position, depth information, etc. using the reconstructed image, depth information, additional information, and camera parameters. In addition, the 3D renderer 216 generates a virtual image at a virtual camera position by performing 3D warping using the reconstructed image and depth information of the reconstructed image.
  • the 3D rendering unit 216 is described as being composed of a separate block from the video decoder 210, but this is only an example, and the 3D rendering unit 216 is the video decoder 210. It may be included in the).
  • the formatter 220 formats the image reconstructed in the decoding process, that is, the image captured by the actual camera and the virtual image generated by the 3D renderer 216 according to the display method of the corresponding receiver, and displays the display unit 222. ) Will display the 3D image.
  • the synthesis of the depth information and the virtual image at the virtual camera position by the 3D rendering unit 216 and the image formatting by the formatter 220 may be selectively performed in response to a user's command. That is, the viewer may operate the remote controller (not shown) so that the synthesized image is not displayed or may specify a time point at which the image synthesis is to be performed.
  • the depth information is used by the 3D rendering unit 216 to generate a 3D image, but may be used by the video decoder 210 as another embodiment.
  • FIG. 3 is a flowchart illustrating a process of restoring a depth value of a current block according to an embodiment to which the present invention is applied.
  • a depth prediction value of the current block may be obtained (S300).
  • a depth prediction value of the current block may be obtained using a neighboring sample adjacent to the current block and an intra prediction mode of the current block.
  • the intra prediction mode may include a planar mode, a DC mode, and an angular mode.
  • the depth prediction value of the current block may be obtained using the motion information and the reference picture of the current block.
  • the depth residual may be restored for each sample of the current block (S310).
  • the SDC mode indicator may mean a flag indicating whether the current block is coded in the SDC mode.
  • the SDC mode may mean a method of coding depth residuals of a plurality of samples in a current block into one residual.
  • the depth residual may be restored only when the current block is not coded in the skip mode. This is because the skip mode does not involve residual data.
  • the quantized transform coefficient may be obtained from the bitstream.
  • the obtained quantized transform coefficients may be scaled using a quantization parameter, and the scale residual transform may be inversely transformed to restore the depth residual.
  • the depth residual of the current block may be restored using the residual coding information.
  • the residual coding information may include the absolute value of the depth residual and the sign information of the depth residual.
  • the residual coding information may be divided into a case coded without using a depth look-up table (DLT) and a case coded using a depth look-up table.
  • the depth lookup table is for improving coding efficiency by coding the index by allocating an index corresponding to the depth value without coding the depth value as it is.
  • the depth lookup table may be a table in which a table depth value and a table index corresponding to each table depth value are defined.
  • the table depth value may include at least one depth value covering a range of a depth residual minimum value and a depth residual maximum value of the current block.
  • the table depth value may be coded in an encoder and transmitted through a bitstream, and a predetermined value in the decoder may be used.
  • the depth value of the current block may be reconstructed using the depth prediction value acquired in step S300 and the depth residual reconstructed in step S310 (S320).
  • the depth value of the current block may be derived from the sum of the depth prediction value and the depth residual.
  • the depth value of the current block may be derived for each sample.
  • FIG. 4 illustrates a method of encoding residual coding information when an depth lookup table is not used as an embodiment to which the present invention is applied.
  • the first method according to the present invention is a method of acquiring a depth residual of a current block through a difference operation after averaging an original depth value of a current block and a depth prediction value of the current block.
  • an average value DCorig of the depth value of the current block is obtained.
  • the average value DCpred of the depth prediction value of the current block is obtained.
  • Depth residual DCres may be obtained by a difference between the average value of the obtained depth values and the average value of the depth prediction values.
  • the depth residual may be coded with an absolute value DCabs of the depth residual and sign information DCsign of the depth residual, and then transmitted to the decoder.
  • the second method according to the present invention is a method of acquiring a depth residual of the current block through an average operation after a difference operation between the depth value of the current block and the depth prediction value.
  • the depth residual Resi of the i th sample is obtained by performing a difference operation between the depth value Origi of the i th sample of the current block and the depth prediction value Predi of the i th sample corresponding thereto. Can be obtained.
  • i is greater than or equal to 0 and less than or equal to N2-1, which may specify the position of the sample.
  • the depth residual DCres of the current block may be obtained by averaging between N2 depth residuals.
  • the depth residual may be coded with the absolute value DCabs of the depth residual and the sign information DCsign of the depth residual and transmitted to the decoder.
  • an average operation may be used to code the depth residual of the current block into one depth residual according to the SDC mode.
  • one depth residual may be obtained from a maximum value, a minimum value, or a mode value among a plurality of depth residuals of the current block.
  • FIG. 5 illustrates a method of obtaining a depth residual of a current block by using residual coding information when the depth lookup table is not used as an embodiment to which the present invention is applied.
  • the absolute value of the depth residual and the sign information of the depth residual may be extracted from the bitstream (S500).
  • the depth residual of the current block may be derived by using the absolute value of the depth residual extracted in operation S500 and the sign information of the depth residual (S510).
  • the depth residual may be defined as a difference between the average value of the depth value of the current block and the average value of the depth prediction value of the current block. Can be.
  • the absolute value of the depth residual and the sign information are coded according to the second method described in FIG. 4, the depth residual is derived from the difference between the depth value of the i th sample and the i th sample of the current block. It may be defined as the average value of the depth residual of the i th sample.
  • FIG. 6 illustrates a method of encoding residual coding information when using a depth lookup table according to an embodiment to which the present invention is applied.
  • a depth average value DCorig of the current block may be obtained.
  • the depth average value may mean an average value of depth values of a plurality of samples included in the current block.
  • the depth index Iorig may be obtained using the obtained depth average value DCorig and the depth lookup table of the current block.
  • the table depth value in the depth lookup table corresponding to the depth average value DCorig may be determined.
  • the determined table depth value may mean a table depth value that minimizes the difference between the depth average value DCorig and the table depth value in the depth lookup table.
  • the table index assigned to the determined table depth value may be set as the depth index Iorig.
  • the depth prediction value of the current block may be obtained.
  • the depth prediction value may be obtained in one of an intra mode and an inter mode.
  • An average value (hereinafter, referred to as a depth prediction average value DCpred) between depth prediction values of a plurality of samples included in the current block may be obtained.
  • the prediction index Ipred may be obtained using the depth prediction average value DCpred and the depth lookup table of the current block. Specifically, the table depth value in the depth lookup table corresponding to the depth prediction average value DCpred may be determined. The determined table depth value may mean a table depth value that minimizes the difference between the depth prediction average value DCpred and the table depth value in the depth lookup table. The table index assigned to the determined table depth value may be set as the prediction index (Ipred).
  • the difference index Ires between the obtained depth index Iorig and the prediction index Ipred may be obtained.
  • the difference index Ires may be encoded into residual coding information including an absolute value DCabs of the depth residual and sign information DCsign of the depth residual, as in the case of not using the depth lookup table.
  • the absolute value of the depth residual may mean an absolute value of the difference index Ires
  • the sign information of the depth residual may mean a sign of the difference index Ires.
  • the depth residual when the depth lookup table is not used, the depth residual is coded with the value of the sample domain, while when using the depth lookup table, the depth residual may be coded with the value of the index domain.
  • FIG. 7 illustrates a method of restoring a depth residual using residual coding information when using a depth lookup table according to an embodiment to which the present invention is applied.
  • Residual coding information can be obtained from the bitstream.
  • the residual coding information may include an absolute value DCabs of the depth residual and sign information DCsign of the depth residual.
  • the difference index Ires may be derived using the absolute value DCabs of the depth residual and the sign information DCsign of the depth residual.
  • coding information eg, intra prediction mode, motion information, etc.
  • a depth prediction value may be obtained for each sample of the current block by using the coding information, and an average value of the obtained depth prediction values, that is, a depth prediction average value DCpred may be obtained.
  • a prediction index Ipred may be obtained by using the depth prediction average value DCpred and the depth lookup table of the current block. As illustrated in FIG. 6, the prediction index Ipred may be set to a table index assigned to a table depth value that minimizes the difference between the depth prediction average value DCpred and the table depth value in the depth lookup table.
  • the depth residual may be restored using the prediction index Ipred, the difference index Ires, and the depth lookup table.
  • a table depth value Idx2DepthValue (Ipred + Ires) corresponding to an index derived from the sum of the prediction index Ipred and the difference index Ires may be obtained from the depth lookup table. Then, the depth residual of the current block may be restored from the difference between the obtained table depth value and the depth prediction average value DCpred.
  • each component or feature is to be considered optional unless stated otherwise.
  • Each component or feature may be embodied in a form that is not combined with other components or features. It is also possible to combine some of the components and / or features to form an embodiment of the invention.
  • the order of the operations described in the embodiments of the present invention may be changed. Some components or features of one embodiment may be included in another embodiment or may be replaced with corresponding components or features of another embodiment.
  • the invention can be used to encode or decode a video signal.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

본 발명에 따른 비디오 신호 처리 방법은 현재 블록의 뎁스 예측값을 획득하고, SDC 모드 지시자에 따라 상기 현재 블록의 샘플 별로 뎁스 레지듀얼을 복원하며, 상기 뎁스 예측값과 복원된 뎁스 레지듀얼을 이용하여 상기 현재 블록의 뎁스값을 복원한다. SDC 모드 지시자에 따라 SDC 모드를 적응적으로 이용하고, 나아가 SDC 모드 및/또는 뎁스 룩업 테이블을 이용함으로써, 뎁스 데이터에 대한 코딩 효율을 향상시킬 수 있다.

Description

비디오 신호 처리 방법 및 장치
본 발명은 비디오 신호의 코딩 방법 및 장치에 관한 것이다.
압축 부호화란 디지털화한 정보를 통신 회선을 통해 전송하거나, 저장 매체에 적합한 형태로 저장하는 일련의 신호 처리 기술을 의미한다. 압축 부호화의 대상에는 음성, 영상, 문자 등의 대상이 존재하며, 특히 영상을 대상으로 압축 부호화를 수행하는 기술을 비디오 영상 압축이라고 일컫는다. 다시점 비디오 영상의 일반적인 특징은 공간적 중복성, 시간적 중복성 및 시점간 중복성을 지니고 있는 점에 특징이 있다.
본 발명의 목적은 비디오 신호, 특히 뎁스 데이터의 코딩 효율을 높이고자 함에 있다.
상기 목적을 달성하기 위해 본 발명은, 현재 블록의 뎁스 예측값을 획득하고, SDC 모드 지시자에 따라 상기 현재 블록의 샘플 별로 뎁스 레지듀얼을 복원하며, 상기 뎁스 예측값과 복원된 뎁스 레지듀얼을 이용하여 상기 현재 블록의 뎁스값을 복원하는 것을 특징으로 한다.
본 발명에 따른 SDC 모드 지시자는 상기 현재 블록이 SDC 모드로 코딩되는지 여부를 나타내는 플래그를 의미하고, 상기 SDC 모드라 함은 상기 현재 블록 내의 복수개의 샘플에 대한 뎁스 레지듀얼을 하나의 뎁스 레지듀얼로 코딩하는 방식을 의미하는 것을 특징으로 한다.
본 발명에 따른 SDC 모드 지시자가 상기 현재 블록이 SDC 모드로 코딩됨을 나타내는 경우, 레지듀얼 코딩 정보를 이용하여 현재 블록의 뎁스 레지듀얼을 복원하는 것을 특징으로 한다.
본 발명에 따른 레지듀얼 코딩 정보는 뎁스 레지듀얼의 절대값과 뎁스 레지듀얼의 부호 정보를 포함한다.
본 발명에 따른 뎁스 레지듀얼은 현재 블록의 뎁스값의 평균값과 현재 블록의 뎁스 예측값의 평균값 간의 차분을 의미한다.
본 발명에 따른 뎁스 레지듀얼은 현재 블록의 i번째 샘플의 뎁스값과 i번째 샘플의 뎁스 예측값 간의 차분으로부터 나온 i번째 샘플의 뎁스 레지듀얼의 평균값을 의미한다.
본 발명에 따른 SDC 모드 지시자가 상기 현재 블록이 SDC 모드로 코딩됨을 나타내는 경우, 뎁스 레지듀얼은 뎁스 룩업 테이블을 이용하여 복원된다.
본 발명에 따른 뎁스 레지듀얼은 뎁스 레지듀얼의 절대값과 상기 뎁스 레지듀얼의 부호 정보를 이용하여 차분 인덱스를 유도하고, 현재 블록의 뎁스 예측 평균값을 획득하며, 뎁스 예측 평균값과 상기 뎁스 룩업 테이블을 이용하여 예측 인덱스를 획득하고, 상기 뎁스 룩업 테이블로부터 상기 예측 인덱스와 상기 차분 인덱스 간의 합으로부터 나온 인덱스에 대응하는 테이블 뎁스값을 획득하며, 획득된 테이블 뎁스값과 뎁스 예측 평균값 간의 차분을 통해 복원되는 것을 특징으로 한다.
본 발명에 따른 예측 인덱스는 뎁스 예측 평균값과 뎁스 룩업 테이블 내의 테이블 뎁스값 간의 차분을 최소로 하는 테이블 뎁스값에 할당된 테이블 인덱스로 설정된다.
본 발명에 따른 비디오 신호 처리 방법 및 장치의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시예 중 적어도 하나에 의하면, SDC 모드 지시자를 이용하여 SDC 모드를 적응적으로 이용함으로써, 뎁스 데이터의 코딩 효율을 향상시킬 수 있다.
본 발명의 실시예 중 적어도 하나에 의하면, SDC 모드의 경우, 현재 블록 내의 모든 샘플에 대한 뎁스 레지듀얼을 코딩하지 아니하고, 하나의 뎁스 레지듀얼로 코딩이 가능하며, 역양자화 및 역변환 과정을 스킵하므로, 뎁스 레지듀얼의 코딩 효율을 향상시킬 수 있다.
본 발명의 실시예 중 적어도 하나에 의하면, 현재 블록의 뎁스값과 현재 블록의 뎁스 예측값 간의 차분 연산 후 평균 연산을 수행함으로써, Round 연산에 따른 에러를 줄일 수 있다.
본 발명의 실시예 중 적어도 하나에 의하면, 뎁스 룩업 테이블을 이용하여 뎁스값을 인덱스로 변환함으로써, 뎁스 데이터의 코딩에 필요한 비트수를 줄일 수 있다.
도 1은 본 발명이 적용되는 일실시예로서, 비디오 디코더(100)의 개략적인 블록도를 도시한 것이다.
도 2는 본 발명이 적용되는 일실시예로서, 비디오 디코더가 적용되는 방송 수신기의 내부 블록도를 나타낸 것이다.
도 3은 본 발명이 적용되는 일실시예로서, 현재 블록의 뎁스값을 복원하는 과정을 도시한 순서도이다.
도 4는 본 발명이 적용되는 일실시예로서, 뎁스 룩업 테이블을 이용하지 아니하는 경우, 레지듀얼 코딩 정보를 인코딩하는 방법을 도시한 것이다.
도 5는 본 발명이 적용되는 일실시예로서, 뎁스 룩업 테이블을 이용하지 아니하는 경우, 레지듀얼 코딩 정보를 이용하여 현재 블록의 뎁스 레지듀얼을 획득하는 방법을 도시한 것이다.
도 6은 본 발명이 적용되는 일실시예로서, 뎁스 룩업 테이블을 이용하는 경우, 레지듀얼 코딩 정보를 인코딩하는 방법을 도시한 것이다.
도 7은 본 발명이 적용되는 일실시예로서, 뎁스 룩업 테이블을 이용하는 경우, 레지듀얼 코딩 정보를 이용하여 뎁스 레지듀얼을 복원하는 방법을 도시한 것이다.
상기와 같은 목적을 달성하기 위하여 본 발명에 따른 비디오 신호 처리 방법은 상기 목적을 달성하기 위해 본 발명은, 현재 블록의 뎁스 예측값을 획득하고, SDC 모드 지시자에 따라 상기 현재 블록의 샘플 별로 뎁스 레지듀얼을 복원하며, 상기 뎁스 예측값과 복원된 뎁스 레지듀얼을 이용하여 상기 현재 블록의 뎁스값을 복원하는 것을 특징으로 한다.
본 발명에 따른 SDC 모드 지시자는 상기 현재 블록이 SDC 모드로 코딩되는지 여부를 나타내는 플래그를 의미하고, 상기 SDC 모드라 함은 상기 현재 블록 내의 복수개의 샘플에 대한 뎁스 레지듀얼을 하나의 뎁스 레지듀얼로 코딩하는 방식을 의미하는 것을 특징으로 한다.
본 발명에 따른 SDC 모드 지시자가 상기 현재 블록이 SDC 모드로 코딩됨을 나타내는 경우, 레지듀얼 코딩 정보를 이용하여 현재 블록의 뎁스 레지듀얼을 복원하는 것을 특징으로 한다.
본 발명에 따른 레지듀얼 코딩 정보는 뎁스 레지듀얼의 절대값과 뎁스 레지듀얼의 부호 정보를 포함한다.
본 발명에 따른 뎁스 레지듀얼은 현재 블록의 뎁스값의 평균값과 현재 블록의 뎁스 예측값의 평균값 간의 차분을 의미한다.
본 발명에 따른 뎁스 레지듀얼은 현재 블록의 i번째 샘플의 뎁스값과 i번째 샘플의 뎁스 예측값 간의 차분으로부터 나온 i번째 샘플의 뎁스 레지듀얼의 평균값을 의미한다.
본 발명에 따른 SDC 모드 지시자가 상기 현재 블록이 SDC 모드로 코딩됨을 나타내는 경우, 뎁스 레지듀얼은 뎁스 룩업 테이블을 이용하여 복원된다.
본 발명에 따른 뎁스 레지듀얼은 뎁스 레지듀얼의 절대값과 상기 뎁스 레지듀얼의 부호 정보를 이용하여 차분 인덱스를 유도하고, 현재 블록의 뎁스 예측 평균값을 획득하며, 뎁스 예측 평균값과 상기 뎁스 룩업 테이블을 이용하여 예측 인덱스를 획득하고, 상기 뎁스 룩업 테이블로부터 상기 예측 인덱스와 상기 차분 인덱스 간의 합으로부터 나온 인덱스에 대응하는 테이블 뎁스값을 획득하며, 획득된 테이블 뎁스값과 뎁스 예측 평균값 간의 차분을 통해 복원되는 것을 특징으로 한다.
본 발명에 따른 예측 인덱스는 뎁스 예측 평균값과 뎁스 룩업 테이블 내의 테이블 뎁스값 간의 차분을 최소로 하는 테이블 뎁스값에 할당된 테이블 인덱스로 설정된다.
이하 첨부된 도면을 참조로 본 발명의 바람직한 실시예를 상세히 설명하되, 참조 번호에 관계없이 동일하거나 유사한 구성 요소에 대해서 중복되는 설명은 생략하기로 한다. 또한, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위하여 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
도 1은 본 발명이 적용되는 일실시예로서, 비디오 디코더(100)의 개략적인 블록도를 도시한 것이다.
도 1을 참조하면, 비디오 디코더(100)는 파싱부(110), 레지듀얼 복원부(120), 인트라 예측부(130), 인-루프 필터부(140), 복호 픽쳐 버퍼부(150), 인터 예측부(160)를 포함할 수 있다.
파싱부(110)는 다시점 텍스쳐 데이터를 포함한 비트스트림을 수신할 수 있다. 또한, 뎁스 데이터가 텍스쳐 데이터의 코딩에 필요한 경우, 뎁스 데이터를 포함한 비트스트림을 더 수신할 수도 있다. 이 때 입력되는 텍스쳐 데이터와 뎁스 데이터는 하나의 비트스트림으로 전송될 수 있고, 또는 별개의 비트스트림으로 전송될 수도 있다. 또한, 수신된 비트스트림이 다시점 관련 데이터(예를 들어, 3-Dimensional Video)인 경우, 상기 비트스트림은 카메라 파라미터를 더 포함할 수 있다. 카메라 파라미터는 고유의 카메라 파라미터 (intrinsic camera parameter) 및 비고유의 카메라 파라미터 (extrinsic camera parameter)가 있을 수 있고, 고유의 카메라 파라미터는 초점 거리(focal length), 가로세로비(aspect ratio), 주점(principal point) 등을 포함할 수 있고, 비고유의 카메라 파라미터는 세계 좌표계에서의 카메라의 위치정보 등을 포함할 수 있다.
상기 파싱부(110)는 수신된 비트스트림을 디코딩하기 위하여 NAL 단위로 파싱을 수행하여, 비디오 영상을 예측하기 위한 코딩 정보 (예를 들어, 블록 파티션 정보, 인트라 예측 모드, 모션 정보, 레퍼런스 인덱스 등)와 비디오 영상의 레지듀얼 데이터에 대응하는 코딩 정보 (예를 들어, 양자화된 변환 계수, 뎁스 레지듀얼의 절대값, 뎁스 레지듀얼의 부호 정보 등)를 추출할 수 있다.
레지듀얼 복원부(120)에서는 양자화 파라미터를 이용하여 양자화된 변환 계수를 스케일링함으로써 스케일링된 변환 계수를 획득하고, 상기 스케일링된 변환 계수를 역변환하여 레지듀얼 데이터를 복원할 수 있다. 또는, 레지듀얼 복원부(120)에서는 뎁스 레지듀얼의 절대값 및 뎁스 레지듀얼의 부호 정보를 이용하여 레지듀얼 데이터를 복원할 수도 있으며, 이에 대해서는 도 3 내지 도 도 7을 참조하여 후술하도록 한다. 또한, 뎁스 블록에 대한 양자화 파라미터는 텍스쳐 데이터의 복잡도를 고려하여 설정될 수 있다. 예를 들어, 뎁스 블록에 대응하는 텍스쳐 블록이 복잡도가 높은 영역인 경우에는 낮은 양자화 파라미터를 설정하고, 복잡도가 낮은 영역인 경우에는 높은 양자화 파라미터를 설정할 수 있다. 텍스쳐 블록의 복잡도는 수학식 1과 같이 복원된 텍스쳐 픽쳐 내에서 서로 인접한 픽셀들 간의 차분값에 기초하여 결정될 수 있다.
수학식 1
Figure PCTKR2014003078-appb-M000001
수학식 1에서 E는 텍스쳐 데이터의 복잡도를 나타내고, C는 복원된 텍스쳐 데이터를 의미하며, N은 복잡도를 산출하고자 하는 텍스쳐 데이터 영역 내의 픽셀 개수를 의미할 수 있다. 수학식 1을 참조하면, 텍스쳐 데이터의 복잡도는 (x,y) 위치에 대응하는 텍스쳐 데이터와 (x-1,y) 위치에 대응하는 텍스쳐 데이터 간의 차분값 및 (x,y) 위치에 대응하는 텍스쳐 데이터와 (x+1,y) 위치에 대응하는 텍스쳐 데이터 간의 차분값을 이용하여 산출될 수 있다. 또한, 복잡도는 텍스쳐 픽쳐와 텍스쳐 블록에 대해서 각각 산출될 수 있고, 이를 이용하여 아래 수학식 2와 같이 양자화 파라미터를 유도할 수 있다.
수학식 2
Figure PCTKR2014003078-appb-M000002
수학식 2를 참조하면, 뎁스 블록에 대한 양자화 파라미터는 텍스쳐 픽쳐의 복잡도와 텍스쳐 블록의 복잡도의 비율에 기초하여 결정될 수 있다. α 및 β는 디코더에서 유도되는 가변적인 정수일 수 있고, 또는 디코더 내에서 기 결정된 정수일 수 있다.
인트라 예측부(130)는 현재 블록에 인접한 이웃 샘플 및 인트라 예측 모드를 이용하여 인트라 예측을 수행할 수 있다. 여기서, 상기 이웃 샘플은 현재 블록의 좌측, 좌측하단, 상단, 상단우측에 위치한 샘플로서, 현재 블록 이전에 복원이 완료된 샘플을 의미할 수 있다. 또한, 상기 인트라 예측 모드는 비트스트림으로부터 추출될 수도 있고, 현재 블록의 좌측 이웃 블록 또는 상단 이웃 블록 중 적어도 하나의 인트라 예측 모드에 기초하여 유도될 수도 있다. 또한, 뎁스 블록의 인트라 예측 모드는 뎁스 블록에 대응되는 텍스쳐 블록의 인트라 예측 모드로부터 유도될 수도 있다.
인터 예측부(160)는 복호 픽쳐 버퍼부(150)에 저장된 참조 픽쳐와 모션 정보를 이용하여 현재 블록의 모션 보상을 수행할 수 있다. 본 명세서에서 모션 정보라 함은 모션 벡터, 레퍼런스 인덱스를 포함하는 광의의 개념으로 이해될 수 있다. 또한, 인터 예측부(160)는 시간적 인터 예측을 통해 모션 보상을 수행할 수 있다. 시간적 인터 예측이라 함은 현재 블록과 동일 시점 및 다른 시간대에 위치한 참조 픽쳐를 이용한 인터 예측을 의미할 수 있다. 또한, 복수 개의 카메라에 의해 촬영된 다시점 영상의 경우, 시간적 인터 예측뿐만 아니라 시점 간 인터 예측이 이용될 수 있다. 시점 간 인터 예측이라 함은 현재 블록과 다른 시점에 위치한 참조 픽쳐를 이용한 인터 예측을 의미할 수 있다.
인-루프 필터부(140)는 블록 왜곡 현상을 감소시키기 위해 각각의 코딩된 블록에 인-루프 필터를 적용할 수 있다. 필터는 블록의 가장자리를 부드럽게 하여 디코딩된 픽쳐의 화질을 향상시킬 수 있다. 필터링을 거친 텍스쳐 픽쳐 또는 뎁스 픽쳐들은 출력되거나 참조 픽쳐로 이용하기 위해 복호 픽쳐 버퍼부(150)에 저장될 수 있다. 한편, 텍스쳐 데이터의 특성과 뎁스 데이터의 특성이 서로 상이하기 때문에 동일한 인-루프 필터를 사용하여 텍스쳐 데이터와 뎁스 데이터의 코딩을 수행할 경우, 코딩 효율이 떨어질 수 있다. 따라서, 뎁스 데이터를 위한 별도의 인-루프 필터를 정의할 수도 있다. 이하, 뎁스 데이터를 효율적으로 코딩할 수 있는 인-루프 필터링 방법으로서, 영역 기반의 적응적 루프 필터 (region-based adaptive loop filter)와 트라일래터럴 루프 필터 (trilateral loop filter)를 살펴 보기로 한다.
영역 기반의 적응적 루프 필터의 경우, 뎁스 블록의 변화량 (variance)에 기초하여 영역 기반의 적응적 루프 필터를 적용할 지 여부를 결정할 수 있다. 여기서, 뎁스 블록의 변화량은 뎁스 블록 내에서 최대 픽셀값과 최소 픽셀값 간의 차분으로 정의될 수 있다. 뎁스 블록의 변화량과 기결정된 문턱값 간의 비교를 통해서 필터 적용 여부를 결정할 수 있다. 예를 들어, 뎁스 블록의 변화량이 기결정된 문턱값보다 크거나 같은 경우, 뎁스 블록 내의 최대 픽셀값과 최소 픽셀값 간의 차이가 큰 것을 의미하므로 영역 기반의 적응적 루프 필터를 적용하는 것으로 결정할 수 있다. 반대로, 뎁스 변화량이 기결정된 문턱값보다 작은 경우에는 영역 기반의 적응적 루프 필터를 적용하지 아니하는 것으로 결정할 수 있다. 상기 비교 결과에 따라 필터를 적용하는 경우, 필터링된 뎁스 블록의 픽셀값은 소정의 가중치를 이웃 픽셀값에 적용하여 유도될 수 있다. 여기서, 소정의 가중치는 현재 필터링되는 픽셀과 이웃 픽셀 간의 위치 차이 및/또는 현재 필터링되는 픽셀값과 이웃 픽셀값 간의 차분값에 기초하여 결정될 수 있다. 또한, 이웃 픽셀값은 뎁스 블록 내에 포함된 픽셀값 중에서 현재 필터링되는 픽셀값을 제외한 어느 하나를 의미할 수 있다.
트라일래터럴 루프 필터는 영역 기반의 적응적 루프 필터와 유사하나, 텍스쳐 데이터를 추가적으로 고려한다는 점에서 차이가 있다. 구체적으로, 트라일래터럴 루프 필터는 다음의 세가지 조건을 비교하여, 이를 만족하는 이웃 픽셀의 뎁스 데이터를 추출할 수 있다.
Figure PCTKR2014003078-appb-I000001
Figure PCTKR2014003078-appb-I000002
Figure PCTKR2014003078-appb-I000003
조건 1은 뎁스 블록 내의 현재 픽셀(p)와 이웃 픽셀(q) 간의 위치 차이를 기결정된 매개변수 과 비교하는 것이고, 조건 2는 현재 픽셀(p)의 뎁스 데이터와 이웃 픽셀(q)의 뎁스 데이터 간의 차분을 기결정된 매개변수 와 비교하는 것이며, 조건 3은 현재 픽셀(p)의 텍스쳐 데이터와 이웃 픽셀(q)의 텍스쳐 데이터 간의 차분을 기결정된 매개변수 과 비교하는 것이다. 상기 세가지 조건을 만족하는 이웃 픽셀들을 추출하고, 이들 뎁스 데이터의 중간값 또는 평균값으로 현재 픽셀(p)을 필터링할 수 있다.
복호 픽쳐 버퍼부(150)에서는 인터 예측을 수행하기 위해서 이전에 코딩된 텍스쳐 픽쳐 또는 뎁스 픽쳐를 저장하거나 개방하는 역할 등을 수행한다. 이 때 복호 픽쳐 버퍼부(150)에 저장하거나 개방하기 위해서 각 픽쳐의 frame_num 과 POC(Picture Order Count)를 이용할 수 있다. 나아가, 뎁스 코딩에 있어서 상기 이전에 코딩된 픽쳐들 중에는 현재 뎁스 픽쳐와 다른 시점에 있는 뎁스 픽쳐들도 있으므로, 이러한 픽쳐들을 참조 픽쳐로서 활용하기 위해서는 뎁스 픽쳐의 시점을 식별하는 시점 식별 정보를 이용할 수도 있다. 복호 픽쳐 버퍼부(150)는 보다 유연하게 인터 예측을 실현하기 위하여 적응 메모리 관리 방법(Memory Management Control Operation Method)과 이동 윈도우 방법(Sliding Window Method) 등을 이용하여 참조 픽쳐를 관리할 수 있다. 이는 참조 픽쳐와 비참조 픽쳐의 메모리를 하나의 메모리로 통일하여 관리하고 적은 메모리로 효율적으로 관리하기 위함이다. 뎁스 코딩에 있어서, 뎁스 픽쳐들은 복호 픽쳐 버퍼부 내에서 텍스쳐 픽쳐들과 구별하기 위하여 별도의 표시로 마킹될 수 있고, 상기 마킹 과정에서 각 뎁스 픽쳐를 식별해주기 위는 식별자가 이용될 수 있다.
도 2는 본 발명이 적용되는 일실시예로서, 비디오 디코더가 적용되는 방송 수신기의 내부 블록도를 나타낸 것이다.
본 실시예에 따른 방송 수신기는 공중파 방송신호를 수신하여 영상을 재생하기 위한 것이다. 상기 방송 수신기는 수신된 뎁스 관련 정보들을 이용하여 3차원 콘텐츠를 생성할 수 있다. 상기 방송 수신기는 튜너(200), 복조/채널 디코더(202), 트랜스포트 역다중화부(204), 패킷 해제부(206), 오디오 디코더(208), 비디오 디코더(210), PSI/PSIP 처리부(214), 3D 렌더링부(216), 포맷터(220) 및 디스플레이부(222)를 포함할 수 있다.
튜너(200)는 안테나(미도시)를 통해 입력되는 다수의 방송 신호들 중에서 사용자가 선국한 어느 한 채널의 방송 신호를 선택하여 출력한다.
복조/채널 디코더(202)는 튜너(200)로부터의 방송 신호를 복조하고 복조된 신호에 대하여 에러 정정 디코딩을 수행하여 트랜스포트 스트림(TS)을 출력한다.
트랜스포트 역다중화부(204)는 트랜스포트 스트림을 역다중화하여, 비디오 PES와 오디오 PES를 분리하고, PSI/PSIP 정보를 추출해낸다.
패킷 해제부(206)는 비디오 PES와 오디오 PES에 대하여 패킷을 해제하여 비디오 ES와 오디오 ES를 복원한다.
오디오 디코더(208)는 오디오 ES를 디코딩하여 오디오 비트스트림을 출력한다. 오디오 비트스트림은 디지털-아날로그 변환기(미도시)에 의해 아날로그 음성신호로 변환되고, 증폭기(미도시됨)에 의해 증폭된 후, 스피커(미도시됨)를 통해 출력된다.
비디오 디코더(210)는 비디오 ES를 디코딩하여 원래의 영상을 복원하며, 이는 도 1을 참조하여 살펴본 바 자세한 설명은 생략하기로 한다. 상기 오디오 디코더(208) 및 상기 비디오 디코더(210)의 디코딩 과정은 PSI/PSIP 처리부(214)에 의해 확인되는 패킷 ID(PID)를 토대로 진행될 수 있다. 디코딩 과정에서, 상기 비디오 디코더(210)는 뎁스 정보를 추출할 수 있다. 또한, 가상 카메라 시점의 영상을 생성하는데 필요한 부가 정보, 예를 들어, 카메라 정보, 또는 상대적으로 앞에 있는 객체에 의해 가려지는 영역(Occlusion)을 추정하기 위한 정보(예컨대, 객체 윤곽선 등 기하학적 정보, 객체 투명도 정보 및 컬러 정보) 등을 추출하여 3D 렌더링부(216)에 제공할 수 있다. 그러나, 본 발명의 다른 실시예에 있어서는, 상기 뎁스 정보 및/또는 부가 정보가 트랜스포트 역다중화부(204)에 의해 분리될 수도 있다.
PSI/PSIP 처리부(214)는 트랜스포트 역다중화부(204)로부터의 PSI/PSIP 정보를 받아들이고, 이를 파싱하여 메모리(미도시) 또는 레지스터에 저장함으로써, 저장된 정보를 토대로 방송이 재생되도록 한다.
3D 렌더링부(216)는 복원된 영상, 뎁스 정보, 부가 정보 및 카메라 파라미터를 이용하여, 가상 카메라 위치에서의 컬러 정보, 뎁스 정보 등을 생성할 수 있다. 또한, 3D 렌더링부(216)는 복원된 영상과, 상기 복원된 영상에 대한 뎁스 정보를 이용하여 3D 와핑(Warping)을 수행함으로써, 가상 카메라 위치에서의 가상 영상을 생성한다. 본 실시예에서는 상기 3D 렌더링부(216)가 상기 비디오 디코더(210)와 별개의 블록으로 구성되어 설명되고 있지만, 이는 일실시예에 불과하며, 상기 3D 렌더링부(216)는 상기 비디오 디코더(210)에 포함되어 수행될 수도 있다.
포맷터(220)는 디코딩 과정에서 복원한 영상 즉, 실제 카메라에 의하여 촬영된 영상과, 3D 렌더링부(216)에 의하여 생성된 가상 영상을 해당 수신기에서의 디스플레이 방식에 맞게 포맷팅하여, 디스플레이부(222)를 통해 3D 영상이 표시되도록 하게 된다. 여기서, 상기 3D 렌더링부(216)에 의한 가상 카메라 위치에서의 뎁스 정보 및 가상 영상의 합성, 그리고 포맷터(220)에 의한 영상 포맷팅이 사용자의 명령에 응답하여 선택적으로 수행될 수도 있다. 즉, 시청자는 리모콘(미도시)을 조작하여 합성 영상이 표시되지 않도록 할 수도 있고, 영상 합성이 이루어질 시점을 지정할 수도 있다.
상기에서 살펴본 바와 같이, 3D 영상을 생성하기 위해 뎁스 정보는 3D 렌더링부(216)에서 이용되고 있지만, 다른 실시예로서 상기 비디오 디코더(210)에서 이용될 수도 있다.
도 3은 본 발명이 적용되는 일실시예로서, 현재 블록의 뎁스값을 복원하는 과정을 도시한 순서도이다.
도 3을 참조하면, 현재 블록의 뎁스 예측값을 획득할 수 있다(S300). 구체적으로, 현재 블록이 인트라 모드로 코딩된 경우, 현재 블록에 인접한 이웃 샘플 및 현재 블록의 인트라 예측 모드를 이용하여 현재 블록의 뎁스 예측값을 획득할 수 있다. 여기서, 인트라 예측 모드는 Planar 모드, DC 모드, Angular 모드를 포함할 수 있다. 또는, 현재 블록이 인터 모드로 코딩된 경우, 현재 블록의 모션 정보 및 참조 픽쳐를 이용하여 현재 블록의 뎁스 예측값을 획득할 수 있다.
SDC 모드 지시자에 따라 현재 블록의 샘플 별로 뎁스 레지듀얼을 복원할 수 있다(S310). 여기서, SDC 모드 지시자는 현재 블록이 SDC 모드로 코딩되는지 여부를 나타내는 플래그를 의미할 수 있다. SDC 모드라 함은 현재 블록 내의 복수개의 샘플에 대한 뎁스 레지듀얼을 하나의 레지듀얼로 코딩하는 방식을 의미할 수 있다. 또한, 상기 현재 블록이 스킵 모드로 코딩되지 아니한 경우에 한하여 뎁스 레지듀얼을 복원할 수 있다. 이는 스킵 모드의 경우, 레지듀얼 데이터를 수반하지 않기 때문이다.
구체적으로, 상기 SDC 모드 지시자에 따라 현재 블록이 SDC 모드로 코딩되지 아니한 경우, 비트스트림으로부터 양자화된 변환 계수를 획득할 수 있다. 상기 획득된 양자화된 변환 계수를 양자화 파라미터를 이용하여 스케일링하고, 스케일링된 변환 계수를 역변환하여 뎁스 레지듀얼을 복원할 수 있다.
반면, 상기 SDC 모드 지시에 따라 현재 블록이 SDC 모드로 코딩된 경우, 레지듀얼 코딩 정보를 이용하여 현재 블록의 뎁스 레지듀얼을 복원할 수 있다. 여기서, 상기 레지듀얼 코딩 정보는 뎁스 레지듀얼의 절대값 및 뎁스 레지듀얼의 부호 정보를 포함할 수 있다. 한편, 상기 레지듀얼 코딩 정보는 뎁스 룩업 테이블(Depth Look-up Table, DLT)을 이용하지 아니하고 코딩된 경우와 뎁스 룩업 테이블을 이용하여 코딩된 경우를 각각 나누어 살펴볼 수 있다. 뎁스 룩업 테이블은 뎁스값을 그대로 코딩하지 아니하고, 뎁스값에 대응하는 인덱스를 할당하여 상기 인덱스를 코딩함으로써, 코딩 효율을 향상시키기 위한 것이다. 따라서, 뎁스 룩업 테이블은 테이블 뎁스값, 그리고 각 테이블 뎁스값에 대응하는 테이블 인덱스를 정의한 테이블일 수 있다. 상기 테이블 뎁스값은 현재 블록의 뎁스 레지듀얼 최소값과 뎁스 레지듀얼 최대값의 범위를 커버하는 적어도 하나 이상의 뎁스값을 포함할 수 있다. 또한, 상기 테이블 뎁스값은 인코더에서 코딩되어 비트스트림을 통해 전송될 수 있고, 디코더 내의 기결정된 값이 이용될 수도 있다.
이하, 뎁스 룩업 테이블을 이용하지 아니하는 경우, 레지듀얼 코딩 정보를 인코딩하는 방법 및 레지듀얼 코딩 정보를 이용하여 뎁스 레지듀얼을 복원하는 방법에 대해서는 도 4 및 도 5를 참조하여 각각 살펴보기로 한다. 또한, 뎁스 룩업 테이블을 이용하는 경우, 레지듀얼 코딩 정보를 인코딩하는 방법 및 레지듀얼 코딩 정보를 이용하여 뎁스 레지듀얼을 복원하는 방법에 대해서는 도 6 및 도 7을 참조하여 각각 살펴 보기로 한다.
S300 단계에서 획득된 뎁스 예측값과 S310 단계에서 복원된 뎁스 레지듀얼을 이용하여 현재 블록의 뎁스값을 복원할 수 있다(S320). 예를 들어, 상기 현재 블록의 뎁스값은 상기 뎁스 예측값과 뎁스 레지듀얼의 합으로부터 유도될 수 있다. 또한, 현재 블록의 뎁스값은 각 샘플 별로 유도될 수 있다.
도 4는 본 발명이 적용되는 일실시예로서, 뎁스 룩업 테이블을 이용하지 아니하는 경우, 레지듀얼 코딩 정보를 인코딩하는 방법을 도시한 것이다.
1. 제1 방식
본 발명에 따른 제1 방식은 현재 블록의 뎁스값(original depth value)과 현재 블록의 뎁스 예측값(depth prediction value)의 평균 연산 후 차분 연산을 통해 현재 블록의 뎁스 레지듀얼을 획득하는 방식이다.
도 4(a)를 참조하면, 현재 블록의 뎁스값의 평균값(DCorig)을 획득한다. 그리고, 현재 블록의 뎁스 예측값의 평균값(DCpred)을 획득한다. 상기 획득된 뎁스값의 평균값과 뎁스 예측값의 평균값 간의 차분을 통해 뎁스 레지듀얼(DCres)을 획득할 수 있다. 상기 뎁스 레지듀얼은 뎁스 레지듀얼의 절대값(DCabs)과 뎁스 레지듀얼의 부호 정보(DCsign)로 코딩되어 디코더로 전송될 수 있다.
2. 제2 방식
본 발명에 따른 제2 방식은 현재 블록의 뎁스값과 뎁스 예측값 간의 차분 연산 후 평균 연산을 통해 현재 블록의 뎁스 레지듀얼을 획득하는 방식이다.
도 4(b)를 참조하면, 현재 블록의 i번째 샘플의 뎁스값(Origi)과 이에 대응하는 i번째 샘플의 뎁스 예측값(Predi) 간의 차분 연산을 통해 i번째 샘플의 뎁스 레지듀얼(Resi)을 획득할 수 있다. 여기서, 현재 블록의 NxN 블록인 경우, i는 0보다 크거나 같고 N2-1보다 작거나 같으며, 이는 샘플의 위치를 특정할 수 있다. 그리고, N2개의 뎁스 레지듀얼 간의 평균 연산을 통해 현재 블록의 뎁스 레지듀얼(DCres)을 획득할 수 있다. 마찬가지로, 상기 뎁스 레지듀얼은 뎁스 레지듀얼의 절대값(DCabs)과 뎁스 레지듀얼의 부호 정보(DCsign)로 코딩되어 디코더로 전송될 수 있다.
상술한 바와 같이, SDC 모드에 따라 현재 블록의 뎁스 레지듀얼을 하나의 뎁스 레지듀얼로 코딩하기 위해 평균 연산이 이용될 수 있다. 다만, 이에 한정되지 아니하며, 현재 블록의 복수 개의 뎁스 레지듀얼 중 최대값, 최소값 또는 최빈값 등으로부터 하나의 뎁스 레지듀얼을 획득할 수 있음은 물론이다.
도 5는 본 발명이 적용되는 일실시예로서, 뎁스 룩업 테이블을 이용하지 아니하는 경우, 레지듀얼 코딩 정보를 이용하여 현재 블록의 뎁스 레지듀얼을 획득하는 방법을 도시한 것이다.
비트스트림으로부터 뎁스 레지듀얼의 절대값과 뎁스 레지듀얼의 부호 정보를 추출할 수 있다(S500).
S500 단계에서 추출된 뎁스 레지듀얼의 절대값과 뎁스 레지듀얼의 부호 정보를 이용하여 현재 블록의 뎁스 레지듀얼을 유도할 수 있다(S510). 여기서, 뎁스 레지듀얼의 절대값과 부호 정보가 도 4에서 살펴본 제1 방식에 따라 코딩된 경우, 상기 뎁스 레지듀얼은 현재 블록의 뎁스값의 평균값과 현재 블록의 뎁스 예측값의 평균값 간의 차분으로 정의될 수 있다. 한편, 뎁스 레지듀얼의 절대값과 부호 정보가 도 4에서 살펴본 제2 방식에 따라 코딩된 경우, 상기 뎁스 레지듀얼은 현재 블록의 i번째 샘플의 뎁스값과 i번째 샘플의 뎁스 예측값 간의 차분으로부터 나온 i번째 샘플의 뎁스 레지듀얼의 평균값으로 정의될 수 있다.
도 6은 본 발명이 적용되는 일실시예로서, 뎁스 룩업 테이블을 이용하는 경우, 레지듀얼 코딩 정보를 인코딩하는 방법을 도시한 것이다.
도 6을 참조하면, 현재 블록의 뎁스 평균값(DCorig)을 획득할 수 있다. 여기서, 뎁스 평균값은 현재 블록에 포함된 복수 개의 샘플들의 뎁스값들의 평균값을 의미할 수 있다.
그리고, 상기 획득된 뎁스 평균값(DCorig)과 현재 블록의 뎁스 룩업 테이블을 이용하여 뎁스 인덱스(Iorig)를 획득할 수 있다.
구체적으로, 뎁스 평균값(DCorig)에 대응하는 뎁스 룩업 테이블 내의 테이블 뎁스값을 결정할 수 있다. 상기 결정된 테이블 뎁스값은 뎁스 평균값(DCorig)과 뎁스 룩업 테이블 내의 테이블 뎁스값 간의 차분을 최소로 하는 테이블 뎁스값을 의미할 수 있다. 그리고, 상기 결정된 테이블 뎁스값에 할당된 테이블 인덱스를 상기 뎁스 인덱스(Iorig)로 설정할 수 있다.
한편, 현재 블록의 뎁스 예측값을 획득할 수 있다. 상기 뎁스 예측값은 인트라 모드 및 인터 모드 중 어느 하나로 획득될 수 있다. 현재 블록에 포함된 복수 개의 샘플들의 뎁스 예측값들 간의 평균값(이하, 뎁스 예측 평균값(DCpred)이라 한다.)을 획득할 수 있다.
그리고, 상기 뎁스 예측 평균값(DCpred)과 현재 블록의 뎁스 룩업 테이블을 이용하여 예측 인덱스(Ipred)를 획득할 수 있다. 구체적으로, 뎁스 예측 평균값(DCpred)에 대응하는 뎁스 룩업 테이블 내의 테이블 뎁스값을 결정할 수 있다. 상기 결정된 테이블 뎁스값은 뎁스 예측 평균값(DCpred)과 뎁스 룩업 테이블 내의 테이블 뎁스값 간의 차분을 최소로 하는 테이블 뎁스값을 의미할 수 있다. 그리고, 상기 결정된 테이블 뎁스값에 할당된 테이블 인덱스를 상기 예측 인덱스(Ipred)로 설정할 수 있다.
그런 다음, 상기 획득된 뎁스 인덱스(Iorig)와 예측 인덱스(Ipred) 간의 차분 인덱스(Ires)을 획득할 수 있다. 상기 차분 인덱스(Ires)는 뎁스 룩업 테이블을 이용하지 않는 경우와 같이, 뎁스 레지듀얼의 절대값(DCabs)과 뎁스 레지듀얼의 부호 정보(DCsign)를 포함한 레지듀얼 코딩 정보로 인코딩될 수 있다. 다만, 여기서 뎁스 레지듀얼의 절대값은 차분 인덱스(Ires)의 절대값을, 뎁스 레지듀얼의 부호 정보는 차분 인덱스(Ires)의 부호를 각각 의미할 수 있다. 다시 말해, 뎁스 룩업 테이블을 이용하지 않는 경우, 뎁스 레지듀얼은 샘플 도메인의 값으로 코딩되는 반면, 뎁스 룩업 테이블을 이용하는 경우, 상기 뎁스 레지듀얼은 인덱스 도메인의 값으로 코딩될 수 있다.
도 7은 본 발명이 적용되는 일실시예로서, 뎁스 룩업 테이블을 이용하는 경우, 레지듀얼 코딩 정보를 이용하여 뎁스 레지듀얼을 복원하는 방법을 도시한 것이다.
비트스트림으로부터 레지듀얼 코딩 정보를 획득할 수 있다. 상기 레지듀얼 코딩 정보는 뎁스 레지듀얼의 절대값(DCabs)과 뎁스 레지듀얼의 부호 정보(DCsign)를 포함할 수 있다. 상기 뎁스 레지듀얼의 절대값(DCabs)과 뎁스 레지듀얼의 부호 정보(DCsign)를 이용하여 차분 인덱스(Ires)를 유도할 수 있다.
한편, 비트스트림으로부터 현재 블록을 예측하기 위한 코딩 정보 (예를 들어, 인트라 예측 모드, 모션 정보 등)를 더 획득할 수 있다. 상기 코딩 정보를 이용하여 현재 블록의 각 샘플 별로 뎁스 예측값을 획득하고, 획득된 뎁스 예측값들의 평균값 즉, 뎁스 예측 평균값(DCpred)을 획득할 수 있다.
상기 뎁스 예측 평균값(DCpred)과 현재 블록의 뎁스 룩업 테이블을 이용하여 예측 인덱스(Ipred)를 획득할 수 있다. 여기서, 예측 인덱스(Ipred)는 도 6에서 살펴본 바와 같이, 뎁스 예측 평균값(DCpred)과 뎁스 룩업 테이블 내의 테이블 뎁스값 간의 차분을 최소로 하는 테이블 뎁스값에 할당된 테이블 인덱스로 설정할 수 있다.
그런 다음, 상기 예측 인덱스(Ipred)와 차분 인덱스(Ires), 그리고 뎁스 룩업 테이블을 이용하여 뎁스 레지듀얼을 복원할 수 있다.
예를 들어, 뎁스 룩업 테이블로부터 상기 예측 인덱스(Ipred)와 차분 인덱스(Ires) 간의 합으로부터 나온 인덱스에 대응하는 테이블 뎁스값(Idx2DepthValue(Ipred +Ires))을 획득할 수 있다. 그런 다음, 상기 획득된 테이블 뎁스값과 뎁스 예측 평균값(DCpred) 간의 차분으로부터 현재 블록의 뎁스 레지듀얼을 복원할 수 있다.
이상에서 설명된 실시예들은 본 발명의 구성요소들과 특징들이 소정 형태로 결합된 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려되어야 한다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성하는 것도 가능하다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.
본 발명은 비디오 신호를 인코딩 또는 디코딩하는데 이용될 수 있다.

Claims (8)

  1. 현재 블록의 뎁스 예측값을 획득하는 단계;
    SDC 모드 지시자에 따라 상기 현재 블록의 샘플 별로 뎁스 레지듀얼을 복원하는 단계; 및
    상기 뎁스 예측값과 복원된 뎁스 레지듀얼을 이용하여 상기 현재 블록의 뎁스값을 복원하는 단계를 포함하되,
    상기 SDC 모드 지시자는 상기 현재 블록이 SDC 모드로 코딩되는지 여부를 나타내는 플래그를 의미하고, 상기 SDC 모드라 함은 상기 현재 블록 내의 복수개의 샘플에 대한 뎁스 레지듀얼을 하나의 뎁스 레지듀얼로 코딩하는 방식을 의미하는 것을 특징으로 하는 비디오 신호 처리 방법.
  2. 제 1항에 있어서, 상기 SDC 모드 지시자가 상기 현재 블록이 SDC 모드로 코딩됨을 나타내는 경우, 상기 뎁스 레지듀얼을 복원하는 단계는,
    비트스트림으로부터 레지듀얼 코딩 정보를 추출하는 단계; 및
    상기 추출된 레지듀얼 코딩 정보를 이용하여 상기 현재 블록의 뎁스 레지듀얼을 유도하는 단계를 포함하되,
    상기 레지듀얼 코딩 정보는 뎁스 레지듀얼의 절대값과 뎁스 레지듀얼의 부호 정보를 포함하는 것을 특징으로 하는 비디오 신호 처리 방법.
  3. 제 2항에 있어서, 상기 유도된 뎁스 레지듀얼은 상기 현재 블록의 뎁스값의 평균값과 상기 현재 블록의 뎁스 예측값의 평균값 간의 차분을 의미하는 것을 특징으로 하는 비디오 신호 처리 방법.
  4. 제 2항에 있어서, 상기 유도된 뎁스 레지듀얼은 상기 현재 블록의 i번째 샘플의 뎁스값과 i번째 샘플의 뎁스 예측값 간의 차분으로부터 나온 i번째 샘플의 뎁스 레지듀얼의 평균값을 의미하는 것을 특징으로 하는 비디오 신호 처리 방법.
  5. 제 1항에 있어서, 상기 SDC 모드 지시자가 상기 현재 블록이 SDC 모드로 코딩됨을 나타내는 경우, 상기 뎁스 레지듀얼은 뎁스 룩업 테이블을 이용하여 복원되는 것을 특징으로 하는 비디오 신호 처리 방법.
  6. 제 5항에 있어서, 상기 뎁스 레지듀얼을 복원하는 단계는,
    비트스트림으로부터 레지듀얼 코딩 정보를 획득하는 단계;여기서, 상기 레지듀얼 코딩 정보는 뎁스 레지듀얼의 절대값과 뎁스 레지듀얼의 부호 정보를 포함함,
    상기 뎁스 레지듀얼의 절대값과 상기 뎁스 레지듀얼의 부호 정보를 이용하여 차분 인덱스를 유도하는 단계;
    상기 현재 블록의 뎁스 예측 평균값을 획득하는 단계; 여기서, 상기 뎁스 예측 평균값은 상기 획득된 뎁스 예측값의 평균값을 의미함,
    상기 뎁스 예측 평균값과 상기 뎁스 룩업 테이블을 이용하여 예측 인덱스를 획득하는 단계;
    상기 뎁스 룩업 테이블로부터, 상기 예측 인덱스와 상기 차분 인덱스 간의 합으로부터 나온 인덱스에 대응하는 테이블 뎁스값을 획득하는 단계; 및
    상기 획득된 테이블 뎁스값과 상기 뎁스 예측 평균값 간의 차분으로부터 상기 현재 블록의 뎁스 레지듀얼을 복원하는 단계를 포함하는 것을 특징으로 하는 비디오 신호 처리 방법.
  7. 제 6항에 있어서, 상기 예측 인덱스는 상기 뎁스 예측 평균값과 상기 뎁스 룩업 테이블 내의 테이블 뎁스값 간의 차분을 최소로 하는 테이블 뎁스값에 할당된 테이블 인덱스로 설정되는 것을 특징으로 하는 비디오 신호 처리 방법.
  8. 현재 블록의 뎁스 예측값을 획득하는 인터 예측부;
    SDC 모드 지시자에 따라 상기 현재 블록의 샘플 별로 뎁스 레지듀얼을 복원하는 레지듀얼 복원부; 및
    상기 뎁스 예측값과 복원된 뎁스 레지듀얼을 이용하여 상기 현재 블록의 뎁스값을 복원하는 뎁스 복원부를 포함하되,
    상기 SDC 모드 지시자는 상기 현재 블록이 SDC 모드로 코딩되는지 여부를 나타내는 플래그를 의미하고, 상기 SDC 모드라 함은 상기 현재 블록 내의 복수개의 샘플에 대한 뎁스 레지듀얼을 하나의 뎁스 레지듀얼로 코딩하는 방식을 의미하는 것을 특징으로 하는 비디오 신호 처리 장치.
PCT/KR2014/003078 2013-04-11 2014-04-09 비디오 신호 처리 방법 및 장치 WO2014168411A1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US14/780,781 US20160050437A1 (en) 2013-04-11 2014-04-09 Method and apparatus for processing video signal
JP2016507884A JP2016519519A (ja) 2013-04-11 2014-04-09 ビデオ信号処理方法及び装置
EP14783381.8A EP2985999A4 (en) 2013-04-11 2014-04-09 METHOD AND APPARATUS FOR PROCESSING VIDEO SIGNAL
CN201480020415.3A CN105103555A (zh) 2013-04-11 2014-04-09 处理视频信号的方法及装置
KR1020157024954A KR20160002712A (ko) 2013-04-11 2014-04-09 비디오 신호 처리 방법 및 장치

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361810715P 2013-04-11 2013-04-11
US61/810,715 2013-04-11
US201361856033P 2013-07-18 2013-07-18
US61/856,033 2013-07-18

Publications (1)

Publication Number Publication Date
WO2014168411A1 true WO2014168411A1 (ko) 2014-10-16

Family

ID=51689761

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/003078 WO2014168411A1 (ko) 2013-04-11 2014-04-09 비디오 신호 처리 방법 및 장치

Country Status (6)

Country Link
US (1) US20160050437A1 (ko)
EP (1) EP2985999A4 (ko)
JP (1) JP2016519519A (ko)
KR (1) KR20160002712A (ko)
CN (1) CN105103555A (ko)
WO (1) WO2014168411A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10708626B2 (en) * 2018-11-19 2020-07-07 Google Llc Iterative IDCT with adaptive non-linear filtering
US12047567B2 (en) * 2021-01-26 2024-07-23 Beijing Dajia Internet Information Technology Co., Ltd. System and method for applying adaptive loop filter in video coding

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110017300A (ko) * 2009-08-13 2011-02-21 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
KR20120008323A (ko) * 2010-07-16 2012-01-30 광운대학교 산학협력단 쿼드트리 기반의 매크로블록을 위한 멀티 레벨의 양자화 파라미터 기록 방법 및 장치
WO2012059841A1 (en) * 2010-11-04 2012-05-10 Koninklijke Philips Electronics N.V. Generation of depth indication maps
US20120230421A1 (en) * 2011-03-10 2012-09-13 Qualcomm Incorporated Transforms in video coding

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009131703A2 (en) * 2008-04-25 2009-10-29 Thomson Licensing Coding of depth signal
US10271034B2 (en) * 2013-03-05 2019-04-23 Qualcomm Incorporated Simplified depth coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110017300A (ko) * 2009-08-13 2011-02-21 삼성전자주식회사 큰 크기의 변환 단위를 이용한 영상 부호화, 복호화 방법 및 장치
KR20120008323A (ko) * 2010-07-16 2012-01-30 광운대학교 산학협력단 쿼드트리 기반의 매크로블록을 위한 멀티 레벨의 양자화 파라미터 기록 방법 및 장치
WO2012059841A1 (en) * 2010-11-04 2012-05-10 Koninklijke Philips Electronics N.V. Generation of depth indication maps
US20120230421A1 (en) * 2011-03-10 2012-09-13 Qualcomm Incorporated Transforms in video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JAGER, F.: "Simplified depth map intra coding with an optional depth lookup table''.", 3D IMAGING (IC3D), 2012 INTERNATIONAL CONFERENCE., 3 December 2012 (2012-12-03), pages 1 - 4, XP032491674 *

Also Published As

Publication number Publication date
KR20160002712A (ko) 2016-01-08
JP2016519519A (ja) 2016-06-30
EP2985999A4 (en) 2016-11-09
US20160050437A1 (en) 2016-02-18
EP2985999A1 (en) 2016-02-17
CN105103555A (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
WO2010087589A2 (ko) 경계 인트라 코딩을 이용한 비디오 신호 처리 방법 및 장치
WO2014107083A1 (ko) 비디오 신호 처리 방법 및 장치
KR101619448B1 (ko) 영상 신호 처리 방법 및 장치
WO2014107029A1 (ko) 비디오 신호 처리 방법 및 장치
WO2015009098A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014168443A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013133627A1 (ko) 비디오 신호 처리 방법
WO2011090352A2 (ko) 영역 기반의 부호화/복호화 장치 및 방법
WO2014058207A1 (ko) 다시점 비디오 신호의 인코딩 방법, 디코딩 방법 및 이에 대한 장치
WO2014054897A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014054896A1 (ko) 비디오 신호 처리 방법 및 장치
WO2015009091A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014073877A1 (ko) 다시점 비디오 신호의 처리 방법 및 이에 대한 장치
WO2014109547A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013133587A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014168411A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014109563A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014077573A2 (ko) 비디오 신호 처리 방법 및 장치
WO2014073873A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014042459A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014168445A1 (ko) 비디오 신호 처리 방법 및 장치
WO2015009092A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014168444A1 (ko) 비디오 신호 처리 방법 및 장치
WO2015133830A1 (ko) 다시점 비디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480020415.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14783381

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20157024954

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2014783381

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14780781

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2016507884

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE