WO2015152505A1 - 깊이 정보를 이용한 움직임 병합 후보 부호화/복호화 방법 및 장치 - Google Patents

깊이 정보를 이용한 움직임 병합 후보 부호화/복호화 방법 및 장치 Download PDF

Info

Publication number
WO2015152505A1
WO2015152505A1 PCT/KR2015/000451 KR2015000451W WO2015152505A1 WO 2015152505 A1 WO2015152505 A1 WO 2015152505A1 KR 2015000451 W KR2015000451 W KR 2015000451W WO 2015152505 A1 WO2015152505 A1 WO 2015152505A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
condition
motion
current block
coding
Prior art date
Application number
PCT/KR2015/000451
Other languages
English (en)
French (fr)
Inventor
박광훈
이윤진
Original Assignee
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔렉추얼디스커버리 주식회사 filed Critical 인텔렉추얼디스커버리 주식회사
Priority to US15/126,106 priority Critical patent/US20170094303A1/en
Publication of WO2015152505A1 publication Critical patent/WO2015152505A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0085Motion estimation from stereoscopic image signals

Definitions

  • the present invention relates to a method and apparatus for encoding / decoding a motion merge candidate using depth information, and more particularly, to derive a motion merge candidate using encoding information of a reference block to derive a motion merge candidate for a current block.
  • a method and apparatus are disclosed.
  • HEVC High Efficiency Video Coding
  • HEVC has been adopted at the standardization stage considering not only coding efficiency but also various coding / decoding required by next-generation video standards.
  • HEVC includes a new picture segmentation unit called tile considering merging / decoding process parallelism, and merging estimation region (MER) which guarantees parallelism of PU unit decoding.
  • MER merging estimation region
  • HEVC adopts deblocking filters, sample adaptive offsets (SAO), scaling lists, and the like to meet the market demand for high resolution and high quality.
  • SAO sample adaptive offsets
  • HEVC needs to insert an additional bit when deriving motion information, and there is a need for encoding / decoding motion information more efficiently by minimizing this bit.
  • Korean Patent Laid-Open No. 10-2011-0137042 name of the invention: the inter prediction method and apparatus discloses a step of deriving reference motion information for a decoding target unit in a current picture and a method of performing motion compensation thereto. It is starting.
  • the present invention has been made to solve the above-described problems of the prior art, and some embodiments of the present invention provide a method for performing motion information on blocks coded in a motion merge prediction mode in a high efficiency video coding (HEVC) coding result for an image.
  • HEVC high efficiency video coding
  • the motion merge candidate coding method using depth information relates to whether a current block and adjacent blocks spatially adjacent to the current block exist in the same object region. Determining the first condition, using the depth information; Determining a second condition on whether the motion merge candidate of the current block and the motion merge candidate of the adjacent block are the same; And coding flag information indicating that the motion merge candidate of the current block and the motion merge candidate of the neighboring block are the same instead of coding the motion merge candidate of the current block when the first condition and the second condition are satisfied. do.
  • the motion merge candidate coding apparatus using depth information includes a depth information extracting unit for extracting the depth information of the current block and adjacent blocks spatially adjacent to the current block; An object area comparison unit determining a first condition on whether a current block and an adjacent block exist in the same object area based on depth information extracted from the depth information extractor; A motion merge candidate comparison unit that determines a second condition on whether the motion merge candidate of the current block and the motion merge candidate of the neighboring block are the same; A flag information generation unit generating flag information based on a determination result of at least one of the object region comparison unit and the motion merge candidate comparison unit; And a coding unit for coding at least one of motion merge candidate and flag information of the current block.
  • the motion merge candidate coding method using depth information further includes determining a third condition for whether the motion merge candidate between the first adjacent block and the second adjacent block is the same. It may include. In this case, when the third condition is satisfied, the first condition and the second condition are determined, and when the first condition, the second condition, and the third condition are satisfied, when the first condition and the second condition are satisfied, Coding flag information may code flag information.
  • the first neighboring block may be an upper block of the current block, and the second neighboring block may be a left block of the current block.
  • At least one of the first adjacent block and the second adjacent block may be a skip block.
  • the motion merging candidate coding method may further include coding a motion merging candidate of the current block when the third condition is not satisfied.
  • the motion merging candidate coding method may further include coding flag information as 0 when coding the first condition or the second condition and coding a motion merging candidate of the current block.
  • the determining of the first condition using depth information may include performing labeling on the object region in which the current block exists and the object region in which the adjacent block exists by analyzing depth information acquired through the depth camera. And the first condition may be determined based on the labeling.
  • the object region comparator may analyze the depth information obtained through the depth camera to perform labeling on the object region where the current block exists and the object region where the adjacent block exists, and determine the first condition based on the labeling. .
  • the motion merging candidate comparator may determine a third condition for whether the motion merging candidate between the first neighboring block and the second neighboring block adjacent to the current block is the same.
  • the first neighboring block may be an upper block of the current block
  • the second neighboring block may be a left block of the current block
  • At least one of the first adjacent block and the second adjacent block may be a skip block.
  • the coding unit may code the motion merge candidate of the current block while coding the flag information as 0.
  • the object region comparator determines the first condition and the motion merge candidate comparator determines the second condition, and when the first condition, the second condition, and the third condition are satisfied, the coding part is the current block.
  • the flag information indicating that the motion merge candidate of the current block and the motion merge candidate of the neighboring block are the same may be coded.
  • the coding unit may code a motion merging candidate of the current block.
  • the present invention can improve the encoding and decoding efficiency by determining the object region based on the depth information, and encoding at least one of the motion merge candidate and the flag information based on the result. have.
  • the present invention can indirectly determine whether the current block and the adjacent block exist in the same object region based on the flag information even if the depth information is not directly encoded and decoded, thereby improving the overall encoding and decoding efficiency. have.
  • the present invention may infer object information by sharing flag information using depth information with each other, and set an object region to which each block belongs.
  • FIG. 1 is a block diagram illustrating an example of an image encoding apparatus.
  • FIG. 2 is a block diagram illustrating an example of an image decoding apparatus.
  • FIG. 3 is a block diagram of a motion merge candidate coding apparatus using depth information according to an embodiment of the present invention.
  • FIG. 4 illustrates the skip blocks analyzed after the coding is performed in the same object region.
  • FIG. 5 illustrates adjacent blocks spatially adjacent to a current block in the same object area.
  • FIG. 6 is a flowchart illustrating a motion merge candidate coding method using depth information according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a coding method of a motion merge candidate using depth information according to another embodiment of the present invention.
  • the method and apparatus disclosed in the embodiments of the present invention can be applied to both an encoding process and a decoding process performed in an image processing process, and coding used throughout the present specification includes a higher level including both an encoding process and a decoding process.
  • encoding means converting a form or format of an image into another form or format for standardization, security, compression, or the like.
  • Decoding also means converting an encoded image back into a form or format before being encoded.
  • FIG. 1 is a block diagram illustrating an example of an image encoding apparatus 100.
  • the image encoding apparatus 100 may include a predictor 110, a subtractor 120, a transformer 130, a quantizer 140, an encoder 150, an inverse quantizer 160, It may include an inverse transform unit 170, an adder 180, and a memory 190.
  • the predictor 110 generates a predicted block by predicting a current block to be currently encoded in an image. That is, the prediction unit 110 may generate a pixel value of each pixel of the current block as a prediction block having a pixel value predicted according to the motion information determined based on the motion estimation. In addition, the prediction unit 110 may transmit the information about the prediction mode to the encoder such that the encoding unit 150 encodes the information about the prediction mode.
  • the subtraction unit 120 may generate a residual block by subtracting the prediction block from the current block.
  • the converter 130 may convert the residual block into the frequency domain to convert each pixel value of the residual block into a frequency coefficient.
  • the transform unit 130 may convert the time-domain image signal into the frequency domain based on a transform method such as a Hadamard transform or a Discrete Cosine transform based transform. .
  • the quantization unit 140 may quantize the residual block transformed into the frequency domain by the transform unit 130.
  • the encoder 150 may encode the quantized residual block based on an encoding technique and output the encoded quantized block in a bit stream.
  • the encoding technique may be an entropy coding technique.
  • the encoder 150 may encode information about the prediction mode for the current block received from the predictor 110 together.
  • the inverse quantization unit 160 may inverse quantize the residual block quantized by the quantization unit 140. That is, the inverse quantization unit 160 may inversely quantize the residual block in the quantized frequency domain to convert the residual block converted into the frequency domain.
  • the inverse transform unit 170 may inverse transform the residual block inversely quantized by the inverse quantizer 160. That is, the inverse transform unit 170 may restore the residual block in the frequency domain to the residual block having the pixel value. In this case, the inverse transform unit 170 may perform inverse transform on the transform method of the transform unit 130.
  • the adder 180 may reconstruct the current block by adding the prediction block predicted by the predictor 110 and the residual block inversely transformed and reconstructed by the inverse transformer 170.
  • the restored current block is stored in the memory 190, and the restored current block stored in the memory 190 may be transferred to the predictor 110 to be used to predict the next block as a reference block.
  • the image encoding apparatus 100 may include a deblocking filter (not shown).
  • the deblocking filter (not shown) may perform a function of improving the image having a better image quality before storing the current block restored by the adder 180 in the memory.
  • FIG. 2 is a block diagram illustrating an example of an image decoding apparatus 200.
  • the image decoding apparatus 200 may decode a bitstream to extract a residual block and a prediction mode before encoding by the image encoding apparatus 100.
  • the image decoding apparatus 200 may include a decoder 210, an inverse quantizer 220, an inverse transformer 230, an adder 240, a predictor 250, and a memory 260.
  • the decoder 210 may restore motion information of the encoded residual block and the current block from the input bitstream. That is, the decoder 210 may restore the encoded residual block to the quantized residual block based on the encoding technique.
  • the encoding technique of the decoder 210 may be an entropy encoding technique.
  • the inverse quantizer 220 may inverse quantize the quantized residual block. That is, the inverse quantizer 220 may inversely quantize the quantized residual block and restore the residual block transformed into the frequency domain.
  • the inverse transform unit 230 may inversely transform an inverse quantized residual block restored from the inverse quantizer 220 to restore the residual block.
  • the inverse transformer 230 may perform inverse transformation by performing a transformation technique used by the transformer 130 of the image encoding apparatus 100 in reverse.
  • the predictor 240 may be extracted from the bitstream, and may be predicted by the decoder 210 based on the motion information of the current block decoded and reconstructed, and generate a predicted block.
  • the adder 250 may reconstruct the current block by adding the prediction block and the reconstructed residual block. That is, the adder 250 adds the predicted pixel value of the predicted block output from the predictor 240 and the residual signal of the reconstructed residual block output from the inverse transform unit 230 to add the reconstructed pixel value of the current block. To restore the current block.
  • the current block restored by the adder 250 may be stored in the memory 260.
  • the stored current block may be stored as a reference block so that the prediction unit 240 may be used to predict the next block.
  • FIG. 3 is a block diagram of a motion merge candidate coding apparatus 300 using depth information according to an embodiment of the present invention.
  • a motion merge candidate coding apparatus 300 using depth information may include a depth information extractor 310, an object region comparator 320, and a motion merge candidate comparator ( 330, a flag generator 340, and a coding unit 350.
  • the depth information extractor 310 may extract depth information of the current block and adjacent blocks spatially adjacent to the current block.
  • the object region comparison unit 320 may determine a first condition on whether the current block and the adjacent block exist in the same object region based on the depth information extracted from the depth information extractor 310.
  • the object area comparator 320 may analyze the depth information obtained through the depth camera and perform labeling on the object area in which the current block exists and the object area in which the adjacent block exists, respectively.
  • the object region comparison unit 320 may determine the first condition based on the labeling.
  • the depth camera 360 for acquiring such depth information may be combined / connected as a part of the motion merging candidate coding apparatus 300 using the depth information or arranged as a separate configuration, and according to the development of technology, such as size, shape, etc. It can be produced in various ways without limitation.
  • the motion merge candidate comparator 330 may determine a second condition on whether the motion merge candidate of the current block and the motion merge candidate of the adjacent block are the same.
  • the flag information generator 340 may generate flag information based on a determination result of at least one of the object region comparator 320 and the motion merge candidate comparator 330.
  • the coding unit 350 may perform at least one of coding a motion merge candidate of the current block or setting flag information.
  • the coding unit 350 indicates that the motion merge candidate of the current block and the motion merge candidate of the neighboring block are the same instead of coding the motion merge candidate of the current block.
  • Flag information can be set.
  • the coding unit 350 may set same_merge_flag to 1, which means true, in the flag information.
  • the coding unit 350 does not satisfy the first condition or the second condition, the above-described current block and the neighboring block do not exist in the same object region, or the motion merge candidate of the current block and the motion merge candidate of the neighboring block are the same.
  • Flag information may be set, and a motion merge candidate of the current block may be coded.
  • same_merge_flag is set to 0 in the flag information, which means false, and the current block (X3). Can be coded.
  • the motion merging candidate comparator 330 may determine a third condition for whether the motion merging candidate between the first neighboring block and the second neighboring block is the same.
  • the first neighboring block may be an upper block of the current block
  • the second neighboring block may be a left block of the current block
  • the motion merging candidate comparator 330 may be a skip block of at least one of the first adjacent block and the second adjacent block.
  • the above-described skip block may be a block existing in the same object region and having the same motion merge candidate.
  • the flag information generator 340 may generate flag information based on a determination result of at least one of the object region comparator 320 and the motion merge candidate comparator 330.
  • the object region comparator 320 may determine the first condition
  • the motion merge candidate comparator 330 may determine the second condition. have.
  • the coding unit 350 If the coding unit 350 satisfies the first condition, the second condition, and the third condition, instead of coding the motion merge candidate of the current block, the coding unit 350 indicates that the motion merge candidate of the current block is the same as the motion merge candidate of the neighboring block. Flag information indicating that a message can be set.
  • the same_merge_flag is added to the flag information without coding the motion merge candidate for the current block. Can be set to 1.
  • the coding unit 350 may code a motion merge candidate of the current block.
  • FIG. 4 illustrates the skip blocks analyzed after the coding is performed in the same object region.
  • FIG. 4 shows a depth information image 420 obtained by coding an example image 410 including a predetermined area 411. 2 shows the coding result 430 of the region 421 corresponding to the predetermined region 411 in the depth information image.
  • the arrow 431 illustrated in the lower coding result 430 of FIG. 2 represents a skip block having the same motion merging candidate.
  • the skip block shows a characteristic of being coded in a group in the same object area.
  • the motion merging candidate coding apparatus 300 using the depth information may share depth information in association with existing motion information by using a characteristic that the same object region has the same motion information.
  • the encoding and decoding efficiency of the motion merge candidate coding apparatus 300 using depth information may be improved as a whole.
  • FIG 5 illustrates adjacent blocks spatially adjacent to the current block in the same object area.
  • the motion merging candidate coding apparatus 300 using the depth information may substitute the current block (instead of coding the motion merging candidate of the current block X3).
  • Flag information indicating that the motion merging candidate of X3) and the motion merging candidate of the adjacent blocks A32 and B31 are the same can be set.
  • the depth The motion merge candidate coding apparatus 300 using the information may set same_merge_flag to 1 in flag information without coding a motion merge candidate for the current block X3.
  • the depth The motion merging candidate coding apparatus 300 using the information may set flag information and code a motion merging candidate of the current block X3.
  • the set flag information is that the above-described current block X3 and the neighboring blocks A32 and B31 do not exist in the same object area 510 or the motion merge candidate and the neighboring blocks A32 and B31 of the current block X3. It may include information that the motion merging candidates of are not the same.
  • the motion merging candidate coding apparatus 300 using depth information the above-described current block X3 and the adjacent blocks A32 and B31 do not exist in the same object region 510, or the current block X3 of the current block X3 does not exist.
  • the same_merge_flag may be set to 0 in the flag information.
  • the motion merging candidate coding apparatus 100 using the depth information may code the motion merging candidate of the current block X3.
  • the same object region as that of the motion merge candidate prediction process can be inferred, and depth information (or object information derived from the depth information) can be used with high efficiency.
  • the motion merge candidate coding apparatus 300 using depth information may be included in the image encoding apparatus 100 illustrated in FIG. 1 or the image decoding apparatus 200 illustrated in FIG. 2. .
  • the motion merge candidate coding apparatus 300 using depth information may be mounted in the image encoding apparatus 100 or the image decoding apparatus 200 in one configuration.
  • a program that performs each component or an operation of each component of the motion merge candidate coding apparatus 300 using depth information may be performed by the predictor 110, the adder 180, and the encoder () of the image encoding apparatus 100. It may be a form included in the existing configuration, such as 150, or a form included in the existing configuration, such as the predictor 250, the adder 240, and the decoder 210 of the image decoding apparatus 200.
  • FIG. 6 is a flowchart illustrating a motion merge candidate coding method using depth information according to an embodiment of the present invention.
  • a first condition regarding whether a current block and adjacent blocks spatially adjacent to the current block exist in the same object region may be determined. Can be.
  • the first condition may be determined using depth information (S620).
  • the motion merge candidate coding method using the depth information may determine a second condition on whether the motion merge candidate of the current block and the motion merge candidate of the adjacent block are the same (S630).
  • the motion merge candidate of the current block and the motion merge candidate of the neighboring block are the same instead of coding the motion merge candidate of the current block. It is possible to set the flag information indicating that the (S640).
  • the motion merging candidate coding method using the depth information is a motion for the current block.
  • the same_merge_flag may be set to 1 in flag information without coding a merge candidate.
  • encoding and decoding efficiency is determined by determining an object region based on depth information and coding at least one of motion merge candidate and flag information based on the result. There is an effect to improve.
  • the motion merging candidate coding method using depth information when the first condition or the second condition is not satisfied, the above-described current block and the adjacent block do not exist in the same object region or the motion merge candidate of the current block.
  • the flag information indicating that the motion merge candidates of the and neighboring blocks are not the same may be output and set, and the motion merge candidates of the current block may be coded (S650).
  • the motion merge candidate coding method using the depth information may be based on flag information indicating that the above-described current block and the adjacent block do not exist in the same object region or that the motion merge candidate of the current block and the motion merge candidate of the adjacent block are not the same.
  • same_merge_flag may be set to 0.
  • the motion merge candidate coding method using the depth information may code the motion merge candidate of the current block.
  • the motion merge candidate coding method using the depth information may determine a first condition regarding whether the above-described current block and the adjacent block spatially adjacent to the current block exist in the same object region.
  • the depth information obtained through the depth camera may be analyzed to label the object region in which the current block exists and the object region in which the adjacent block exists, respectively ( Not shown), the first condition may be determined based on the labeling.
  • FIG. 7 is a flowchart illustrating a motion merge candidate coding method using depth information according to another embodiment of the present invention.
  • the motion merge candidate coding method using depth information may determine a first condition regarding whether a current block and a neighboring block spatially adjacent to the current block exist in the same object region. It may be (S730). In this case, the first condition may be determined using depth information.
  • the motion merge candidate coding method using the depth information may determine a second condition for whether the motion merge candidate of the current block and the motion merge candidate of the neighboring block are the same (S740).
  • the motion merging candidate of the current block is identical to the motion merging candidate of the neighboring block instead of coding the motion merging candidate of the current block. It is possible to code the flag information indicating that (S750).
  • the motion merge candidate coding method using the depth information may determine a third condition on whether the motion merge candidate between the current neighboring block and the first neighboring block and the second neighboring block is the same (S720). ).
  • the motion merge candidate coding method using the depth information may determine the first condition and the second condition described above.
  • the motion merging candidate coding method using the depth information when the first condition, the second condition, and the third condition are satisfied, the motion merging candidate of the current block and the neighboring block of the current block instead of coding the motion merging candidate of the current block described above.
  • Flag information indicating that the motion merge candidates are the same may be set (S750).
  • same_merge_flag may be set to 1.
  • the first neighboring block may be an upper block of the current block
  • the second neighboring block may be a left block of the current block.
  • at least one of the first adjacent block and the second adjacent block may be a skip block.
  • the motion merging candidate of the current block may be coded (S760).
  • same_merge_flag may be coded as 0 and the motion merge candidate of the current block may be coded (S570).
  • 'Components' included in an embodiment of the present invention are not limited to software or hardware, and each component may be configured to be in an addressable storage medium and configured to reproduce one or more processors. May be
  • a component may include components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, and subs. Routines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.
  • Components and the functionality provided within those components may be combined into a smaller number of components or further separated into additional components.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media.
  • Computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.
  • Computer-readable recording media include all kinds of recording media having data stored thereon that can be decrypted by a computer system.
  • ROM read only memory
  • RAM random access memory
  • magnetic tape magnetic tape
  • magnetic disk magnetic disk
  • flash memory an optical data storage device
  • the computer readable recording medium can also be distributed over computer systems connected over a computer network, stored and executed as readable code in a distributed fashion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 깊이 정보를 이용한 움직임 병합 후보 코딩 방법 및 장치를 제안한다. 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록 및 현재 블록과 공간적으로 인접한 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단하되, 깊이 정보를 이용하여 판단하는 단계, 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한지에 대한 제 2조건을 판단하는 단계 및 제 1조건 및 제 2조건을 만족하는 경우, 현재 블록의 움직임 병합 후보를 코딩하는 대신에 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 코딩하는 단계를 포함한다.

Description

깊이 정보를 이용한 움직임 병합 후보 부호화/복호화 방법 및 장치
본 발명은 깊이 정보를 이용한 움직임 병합 후보 부호화/복호화 방법 및 장치에 관한 것으로써, 보다 상세하게는, 현재 블록에 대한 움직임 병합 후보 유도를 위해서 참조 블록의 부호화 정보를 이용하여 움직임 병합 후보를 유도하는 방법 및 장치에 관한 것이다.
최근 FHD(Full High Definition) 및 UHD(Ultra High Definition)와 같은 고품질 비디오 서비스 수요와 더불어 차세대 비디오 압축 표준에 대한 요구가 증가하였다. ISO/IEC의 MPEG(Moving Picture Expert Group)과 ITU-T의 VCEG(Video Coding Expert Group)에서는 JCT-VC(Joint Collaborative Team on Video Coding)을 결성하여 H.264/AVC의 압축효율을 2배 이상 향상시키는 것을 목표로 새로운 비디오 압축 표준인 HEVC (High Efficiency Video Coding)에 대한 표준화를 진행하였다. 2013년 1월 HEVC version 1에 대한 표준 기술 개발이 완료되었으며, 이후에는 다양한 컬러 포맷과 비트 심도의 지원을 위한 HEVC 확장(Range extension) 표준에 대한 개발이 진행 중이다.
HEVC는 부호화 효율뿐만 아니라 차세대 비디오 표준에서 요구되는 다양한 부호화/복호화를 고려한 기술이 표준화 단계에서 채택되었다. 일례로 HEVC는 부/복호화 과정의 병렬성을 고려한 타일이라는 새로운 픽쳐 분할 단위와 PU 단위 복호화의 병렬성을 보장하는 MER(Merge Estimation Region) 등의 기술들이 있다. 특히, HEVC는 고해상도 및 고화질에 대한 시장의 요구에 맞추어, 주관적 화질을 향상시키기 위해 디블록킹 필터 및 SAO (Sample Adaptive Offset), 스케일링 리스트 등의 기술이 채택되어 있다. 그러나, HEVC는 움직임 정보 유도 시 별도의 추가 비트(Bit)의 삽입이 필요하며, 이 비트를 최소화하여 보다 효율적으로 움직임 정보를 부호화/복호화할 필요성이 대두되고 있다.
한편, 대한민국공개특허 제10-2011-0137042호(발명의 명칭: 인터 예측 방법 및 그 장치)에서는 현재 픽쳐 내의 복호화 대상 유닛에 대해 참조 움직임 정보를 도출하는 단계 및 이에 대한 움직임 보상을 수행하는 방법을 개시하고 있다.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로써, 본 발명의 일부 실시예는 영상에 대한 HEVC(High Efficiency Video Coding) 코딩 결과에서 움직임 병합 예측 모드로 코딩되는 블록들에 대한 움직임 정보의 분석결과, 동일한 객체 내의 블록들은 동일한 움직임 정보를 갖는 경향이 있으므로, 이를 활용하여 효율적인 움직임 정보 코딩 방법 및 장치를 제안하는 데에 그 목적이 있다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로써, 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록 및 현재 블록과 공간적으로 인접한 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단하되, 깊이 정보를 이용하여 판단하는 단계; 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한지에 대한 제 2조건을 판단하는 단계; 및 제 1조건 및 제 2조건을 만족하는 경우, 현재 블록의 움직임 병합 후보를 코딩하는 대신에 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 코딩하는 단계를 포함한다.
또한, 본 발명의 일실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 장치는 현재 블록 및 현재 블록과 공간적으로 인접한 인접 블록의 깊이 정보를 추출하는 깊이 정보 추출부; 깊이 정보 추출부로부터 추출된 깊이 정보에 기초하여 현재 블록 및 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단하는 객체 영역 비교부; 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한지에 대한 제 2조건을 판단하는 움직임 병합 후보 비교부; 객체 영역 비교부와 움직임 병합 후보 비교부 중 적어도 어느 하나의 판단 결과를 기초로 플래그 정보를 생성하는 플래그 정보 생성부; 및 현재 블록의 움직임 병합 후보 및 플래그 정보 중 적어도 어느 하나를 코딩하는 코딩부를 포함한다.
또한, 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록과 인접한 제 1인접 블록 및 제 2인접 블록 간의 움직임 병합 후보가 동일한지에 대한 제 3조건을 판단하는 단계를 더 포함할 수 있다. 이때, 제 3조건을 만족하는 경우, 제 1조건 및 제 2조건을 판단하며, 제 1조건, 제 2조건, 및 제 3조건을 만족하는 경우, 제 1조건 및 제 2조건을 만족하는 경우, 플래그 정보를 코딩하는 단계는 플래그 정보를 코딩할 수 있다.
그리고 제 1인접 블록은 현재 블록의 상측 블록이고, 제 2인접 블록은 현재 블록의 좌측 블록일 수 있다.
또한, 제 1인접 블록과 제 2인접 블록 중 적어도 하나는 스킵(Skip) 블록일 수 있다.
또한, 움직임 병합 후보 코딩 방법은 제 3조건을 불만족 하는 경우, 현재 블록의 움직임 병합 후보를 코딩하는 단계를 더 포함할 수 있다.
그리고 움직임 병합 후보 코딩 방법은 제 1조건 또는 제 2조건을 불만족 하는 경우, 플래그 정보를 0으로 코딩하고, 현재 블록의 움직임 병합 후보를 코딩하는 단계를 더 포함할 수 있다.
또한, 깊이 정보를 이용하여 제 1조건을 판단하는 단계는 깊이 카메라를 통해 획득된 깊이 정보를 분석하여 현재 블록이 존재하는 객체 영역과 인접 블록이 존재하는 객체 영역에 대해 각각 라벨링을 수행하는 단계를 포함하고, 라벨링을 기초로 제 1조건을 판단할 수 있다.
객체 영역 비교부는 깊이 카메라를 통해 획득된 깊이 정보를 분석하여 현재 블록이 존재하는 객체 영역과 인접 블록이 존재하는 객체 영역에 대해 각각 라벨링을 수행하고, 라벨링을 기초로 제 1조건을 판단할 수 있다.
또한, 움직임 병합 후보 비교부는 현재 블록과 인접한 제 1인접 블록 및 제 2인접 블록 간의 움직임 병합 후보가 동일한지에 대한 제 3조건을 판단할 수 있다.
이때, 제 1인접 블록은 현재 블록의 상측 블록이고, 제 2인접 블록은 현재 블록의 좌측 블록일 수 있다.
또한, 제 1인접 블록과 제 2인접 블록 중 적어도 하나는 스킵(Skip) 블록일 수 있다.
그리고 코딩부는 제 1조건 또는 제 2조건을 불만족 하는 경우, 플래그 정보를 0으로 코딩하면서 현재 블록의 움직임 병합 후보를 코딩할 수 있다.
그리고 제 3조건을 만족하는 경우, 객체 영역 비교부는 제 1조건 및 움직임 병합 후보 비교부는 제 2조건을 판단하고, 제 1조건, 제 2조건, 및 제 3조건을 만족하는 경우, 코딩부는 현재 블록의 움직임 병합 후보를 코딩하는 대신에 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 코딩할 수 있다.
이때, 코딩부는 제 3조건을 불만족 하는 경우, 현재 블록의 움직임 병합 후보를 코딩할 수 있다.
전술한 본 발명의 과제 해결 수단에 의하면, 본 발명은 깊이 정보에 기초하여 객체 영역을 판단하고, 그 결과를 바탕으로 움직임 병합 후보 및 플래그 정보 중에서 적어도 하나를 부호화함으로써 부호화 및 복호화 효율을 향상시킬 수 있다.
또한, 본 발명은 깊이 정보를 직접 부호화 및 복호화하지 않더라도, 플래그 정보를 기초로 현재 블록과 인접 블록이 동일한 객체 영역에 존재하는지에 대해 간접적으로 판단이 가능하므로, 전체적인 부호화 및 복호화 효율을 향상 시킬 수 있다.
또한, 본 발명은 깊이 정보를 이용한 플래그 정보를 서로 공유하여 객체 정보를 유추할 수 있고, 각각의 블록이 속하는 객체 영역을 설정할 수 있다.
도 1은 영상 부호화 장치의 일 예를 도시한 블록도이다.
도 2는 영상 복호화 장치의 일 예를 도시한 블록도이다.
도 3은 본 발명의 일실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 장치의 블록도이다.
도 4는 동일한 객체 영역에서 코딩을 수행한 이후, 분석된 스킵(Skip) 블록을 도시한 것이다.
도 5는 동일한 객체 영역에서의 현재 블록과 공간적으로 인접한 인접 블록을 도시한 것이다.
도 6은 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법에 대한 순서도이다.
도 7은 본 발명의 다른 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보를 코딩 방법에 대한 순서도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본원 명세서 전체에서, 어떤 부재가 다른 부재 “상에” 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
본 발명의 구체적인 실시예를 첨부한 도면을 참조하여 상세히 설명하면 다음과 같다. 다만, 본 발명의 사상은 제시되는 일 실시예에 제한되지 아니하며, 본 발명의 사상을 이해하는 동일한 사상의 범위 내에서 구성요소의 부가, 변경, 삭제, 추가 등에 의해서 다른 실시예를 쉽게 발명할 수 있을 것이나, 이 또한 본 발명의 사항의 범위 내에 포함된다고 할 것이다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 본원 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.
또한, 본 발명의 실시예들에서 개시되는 방법 및 장치는 영상 처리 과정에서 수행되는 부호화 과정과 복호화 과정에 모두 적용 가능하며, 본 명세서 전반에 사용된 코딩은 부호화 과정과 복호화 과정을 모두 포함하는 상위 개념이다.
이때, 부호화(Encoding)는 영상의 형태나 형식을 표준화, 보안, 압축 등을 위해서 다른 형태나 형식으로 변환하는 것을 의미한다. 또한, 복호화(decoding)은 부호화된 영상을 부호화되기 이전으로 형태나 형식으로 되돌리는 변환하는 것을 의미한다.
다음은 도 1 및 도 2를 참조하여 부호화 장치(Encoder; 100) 및 복호화 장치(Decoder; 200)를 설명한다.
도 1은 영상 부호화 장치(100)의 일 예를 도시한 블록도이다.
도 1을 참조하면, 영상 부호화 장치(100)는 예측부(110), 감산부(120), 변환부(130), 양자화부(140), 부호화부(150), 역 양자화부(160), 역 변환부(170), 가산부(180) 및 메모리(190)를 포함할 수 있다.
예측부(110)는 영상에서 현재 부호화하고자 하는 현재 블록(Current block)을 예측하여 예측 블록(Predicated block)을 생성한다. 즉, 예측부(110)는 현재 블록의 각 화소의 픽셀 값을 움직임 추정에 기초하여 결정되는 움직임 정보에 따라 예측된 픽셀 값을 가지는 예측 블록으로 생성할 수 있다. 또한, 예측부(110)는 부호화부(150)가 예측 모드에 대한 정보를 부호화하도록 부호화부에게 예측 모드에 대한 정보를 전달할 수 있다.
감산부(120)는 현재 블록에서 예측 블록을 감산하여 잔차 블록(residual block)을 생성할 수 있다.
또한, 변환부(130)는 잔차 블록을 주파수 영역으로 변환하여 잔차 블록의 각 픽셀 값을 주파수 계수로 변환할 수 있다. 예를 들어, 변환부(130)는 하다마드 변환(Hadamard transform), 이산 코사인 변환 기반 변환(Discrete Cosine transform based transform) 등과 같이 변환 방법에 기초하여 시간 영역의 영상 신호를 주파수 영역으로 변환할 수 있다.
양자화부(140)는 변환부(130)에 의해 주파수 영역으로 변환된 잔차 블록을 양자화(Quantizaion)할 수 있다.
또한, 부호화부(150)는 양자화된 잔차 블록을 부호화 기법에 기초하여 부호화하여 비트스트림(bit stream)으로 출력할 수 있다. 이때, 부호화 기법은 엔트로피 부호화(Entropy Coding) 기법이 될 수 있다. 또한, 부호화부(150)는 예측부(110)에서 전달받은 현재 블록에 대한 예측 모드에 대한 정보를 함께 부호화 할 수 있다.
역 양자화부(160)는 양자화부(140)에 의해 양자화된 잔차 블록을 역 양자화(Inverse Quantization)할 수 있다. 즉, 역 양자화부(160)는 양자화된 주파수 영역의 잔차 블록을 역 양자화하여 주파수 영역으로 변환된 잔차 블록을 변환할 수 있다.
역 변환부(170)는 역 양자화부(160)에 의해 역 양자화된 잔차 블록을 역 변환할 수 있다. 즉, 역 변환부(170)는 주파수 영역의 잔차 블록을 픽셀 값을 가지는 잔차 블록으로 복원할 수 있다. 이때, 역 변환부(170)는 변환부(130)의 변환 방법을 역 변환하여 사용할 수 있다.
가산기(180)는 예측기(110)에 의해 예측된 예측 블록과 역 변환기(170)에 의해 역 변환되어 복원된 잔차 블록을 가산하여 현재 블록을 복원할 수 있다. 또한, 복원된 현재 블록은 메모리(190)에 저장되며, 메모리(190)에 저장된 복원된 현재 블록은 예측기(110)로 전달되어 참조 블록(Corresponding reference block)으로 다음 블록을 예측하는데 활용할 수 있다.
또한, 영상 부호화 장치(100)는 디블록킹 필터(미도시)를 포함할 수 있다. 디블로킹 필터(미도시)는 가산기(180)에 의해 복원된 현재 블록을 메모리에 저장하기 전, 좀 더 좋은 화질의 영상으로 개선하는 기능을 수행할 수 있다.
도 2는 영상 복호화 장치(200)의 일 예를 도시한 블록도이다.
도 2를 참조하면, 영상 복호화 장치(200)는 비트스트림을 복호화하여 영상 부호화 장치(100)에 의하여 부호화되기 전의 잔차 블록 및 예측 모드를 추출할 수 있다. 영상 복호화 장치(200)는 복호화부(210), 역 양자화부(220), 역 변환부(230), 가산부(240), 예측부(250) 및 메모리(260)를 포함할 수 있다.
복호화부(210)는 입력되는 비트스트림으로부터 부호화된 잔차 블록 및 현재 블록의 움직임 정보를 복원할 수 있다. 즉, 복호화부(210)는 부호화 기법에 기초하여 부호화된 잔차 블록을 양자화된 잔차 블록으로 복원할 수 있다. 예를 들어, 복호화부(210)의 부호화 기법은 엔트로피 부호화 기법이 될 수 있다.
역 양자화부(220)는 양자화된 잔차 블록을 역 양자화할 수 있다. 즉, 역 양자화부(220)는 양자화된 잔차 블록을 역 양자화 하여 주파수 영역으로 변환된 잔차 블록으로 복원할 수 있다.
역 변환부(230)는 역 양자화부(220)로부터 복원되는 역 양자화된 잔차 블록을 역 변환하여 잔차 블록으로 복원할 수 있다. 이때, 역 변환부(230)는 영상 부호화 장치(100)의 변환부(130)에서 이용한 변환 기법을 역으로 수행하여 역 변환 할 수 있다.
예측부(240)는 비트스트림으로부터 추출되고, 복호화기(210)에 의해, 복호화되어 복원된 현재 블록의 움직임 정보에 기초하여 현재 블록을 예측하고, 예측 블록을 생성할 수 있다.
가산부(250)는 예측 블록과 복원된 잔차 블록을 가산하여 현재 블록을 복원할 수 있다. 즉, 가산부(250)는 예측부(240)로부터 출력되는 예측 블록의 예측 픽셀 값 및 역 변환부(230)로부터 출력되는 복원된 잔차 블록의 잔차 신호를 가산하여 현재 블록의 복원 픽셀 값을 가산함으로써 현재 블록을 복원하다.
가산부(250)에 의하여 복원된 현재 블록은 메모리(260)에 저장될 수 있다. 또한, 저장된 현재 블록은 참조 블록으로 저장되어 예측부(240)가 다음 블록을 예측하는데 사용될 수 있다.
도 3은 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)의 블록도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는, 깊이 정보 추출부(310), 객체 영역 비교부(320), 움직임 병합 후보 비교부(330), 플래그 생성부(340), 및 코딩부(350)를 포함할 수 있다.
일실시예에서, 깊이 정보 추출부(310)는 현재 블록 및 현재 블록과 공간적으로 인접한 인접 블록의 깊이 정보를 추출할 수 있다.
객체 영역 비교부(320)는 깊이 정보 추출부(310)로부터 추출된 깊이 정보에 기초하여 현재 블록 및 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단할 수 있다.
예를 들어, 객체 영역 비교부(320)는 깊이 카메라를 통해 획득된 깊이 정보를 분석하여 현재 블록이 존재하는 객체 영역과 인접 블록이 존재하는 객체 영역에 대해 각각 라벨링을 수행할 수 있다. 객체 영역 비교부(320)는 이러한 라벨링을 기초로 제 1 조건을 판단할 수 있다.
이러한 깊이 정보를 획득하기 위한 깊이 카메라(360)는 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)의 일부로써 결합/연결되거나 별도의 구성으로써 배치될 수 있고, 기술 발전에 따라 크기, 형태 등의 제한 없이 다양하게 제작될 수 있다.
움직임 병합 후보 비교부(330)는 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한지에 대한 제 2조건을 판단할 수 있다.
플래그 정보 생성부(340)는 객체 영역 비교부(320)와 움직임 병합 후보 비교부(330) 중 적어도 어느 하나의 판단 결과를 기초로 플래그 정보를 생성할 수 있다.
코딩부(350)는 현재 블록의 움직임 병합 후보를 코딩하거나 플래그 정보를 설정하는 것 중 적어도 어느 하나를 수행할 수 있다.
구체적으로, 제 1조건 및 제 2조건을 만족하는 경우, 코딩부(350)는 현재 블록의 움직임 병합 후보를 코딩하는 대신에 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 설정할 수 있다.
예를 들어, 현재 블록과 인접 블록이 동일 객체 영역에 속하고, 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한 경우, 코딩부(350)는 현재 블록에 대한 움직임 병합 후보를 코딩하지 않을 수 있다. 그러므로 코딩부(350)는 플래그 정보에 same_merge_flag를 참(True)를 의미하는 1로 설정할 수 있다.
또한, 코딩부(350)는 제 1조건 또는 제 2 조건을 불만족 하는 경우, 상술된 현재 블록과 인접 블록이 동일한 객체 영역에 존재하지 않거나 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하지 않다는 플래그 정보를 설정하고, 현재 블록의 움직임 병합 후보를 코딩할 수 있다.
예를 들어, 현재 블록과 인접 블록이 동일한 객체 영역에 있지 않거나 현재 블록과 인접 블록의 움직임 병합 후보가 상이한 경우, 플래그 정보에 same_merge_flag는 거짓(False)를 의미하는 0을 설정하고, 현재 블록(X3)의 움직임 병합 후보를 코딩할 수 있다.
한편, 다른 실시예에서 움직임 병합 후보 비교부(330)는 현재 블록과 인접한 제 1인접 블록 및 제 2 인접 블록 간의 움직임 병합 후보가 동일한지에 대한 제 3조건을 판단할 수 있다.
여기서, 제 1 인접 블록은 현재 블록의 상측 블록이고, 상기 제 2 인접 블록은 현재 블록의 좌측 블록일 수 있다.
또한, 움직임 병합 후보 비교부(330)는 제 1인접 블록과 제 2인접 블록 중 적어도 하나는 스킵(Skip) 블록일 수 있다. 이때, 상술된 스킵 블록은 동일한 객체 영역에 존재하면서 동일한 움직임 병합 후보를 갖는 블록일 수 있다.
플래그 정보 생성부(340)는 객체 영역 비교부(320)와 움직임 병합 후보 비교부(330) 중 적어도 어느 하나의 판단 결과를 기초로 플래그 정보를 생성할 수 있다.
아울러, 움직임 병합 후보 비교부(330)에서 판단된 제 3조건을 만족하는 경우, 객체 영역 비교부(320)는 제 1 조건을 판단하고 움직임 병합 후보 비교부(330)는 2 조건을 판단할 수 있다.
코딩부(350)는 제 1조건, 제 2 조건, 및 제 3조건을 만족하는 경우, 현재 블록의 움직임 병합 후보를 코딩하는 대신에 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 설정할 수 있다.
예를 들어, 현재 블록과 인접 블록이 동일 객체 영역에 속하고, 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한 경우에, 현재 블록에 대한 움직임 병합 후보를 코딩하지 않고 플래그 정보에 same_merge_flag를 1로 설정할 수 있다.
또한 제 3조건을 불만족 하는 경우, 코딩부(350)는 현재 블록의 움직임 병합 후보를 코딩할 수 있다.
도 4는 동일한 객체 영역에서 코딩을 수행한 이후, 분석된 스킵(Skip) 블록을 도시한 것이다.
도 4를 참조하면, 도 4의 상단은 소정의 영역(411)을 포함하는 예시 이미지(410)를 코딩하여 얻은 깊이 정보 영상(420)을 보여주고 있다. 또한, 도 2의 하단은 깊이 정보 영상에서 소정의 영역(411)에 상응하는 영역(421)의 코딩 결과(430)를 보여주고 있다.
여기서 도 2 의 하단 코딩 결과(430)에 도시된 화살표(431)는 동일한 움직임 병합 후보를 갖는 스킵(Skip) 블록을 나타내고 있다. 이때, 스킵 블록은 동일한 객체 영역에서 무리지어 코딩되는 특성을 보여주고 있다.
따라서, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는 동일한 객체 영역이 동일한 움직임 정보를 가진다는 특성을 이용하여, 기존의 움직임 정보와 연계하여 깊이 정보를 공유할 수 있다. 또한, 이로 인하여, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는 부호화 및 복호화 효율은 전체적으로 향상될 수 있다.
도 5은 동일한 객체 영역에서의 현재 블록과 공간적으로 인접한 인접 블록을 도시한 것이다.
이하에서는 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)에서 제안되는 현재 블록, 인접 블록, 및 그와 관련된 내용을 도 5을 참고하여 설명 하기로 한다.
객체 영역(510)에 존재하는 현재 블록(X3), 및 현재 블록(X3)과 공간적으로 인접한 인접 블록(A32, B31)은 동일한 객체 영역(510)에 존재한다. 이때, 현재 블록의 움직임 병합 후보와 이들 인접 블록의 움직임 병합 후보가 동일한 경우, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는 현재 블록(X3)의 움직임 병합 후보를 코딩하는 대신에 현재 블록(X3)의 움직임 병합 후보와 인접 블록(A32, B31)의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 설정할 수 있다.
예를 들어, 현재 블록(X3)과 인접 블록(A32, B31)이 동일 객체 영역(510)에 속하고, 현재 블록(X3)의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한 경우에, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는 현재 블록(X3)에 대한 움직임 병합 후보를 코딩하지 않고 플래그 정보에 same_merge_flag를 1로 설정할 수 있다.
다른 실시예에서 현재 블록(X3)과 인접 블록(A32, B31)이 동일한 객체 영역(510)에 있지 않거나, 현재 블록(X3)과 인접 블록(A32, B31)의 움직임 병합 후보가 상이한 경우, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는 플래그 정보를 설정하고, 현재 블록(X3)의 움직임 병합 후보를 코딩할 수 있다. 이때, 설정되는 플래그 정보는 상술된 현재 블록(X3)과 인접 블록(A32, B31)이 동일한 객체 영역(510)에 존재하지 않거나 현재 블록(X3)의 움직임 병합 후보와 인접 블록(A32, B31)의 움직임 병합 후보가 동일하지 않다는 정보를 포함할 수 있다.
예를 들어, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는 상술된 현재 블록(X3)과 인접 블록(A32, B31)이 동일한 객체 영역(510)에 존재하지 않거나, 현재 블록(X3)의 움직임 병합 후보와 인접 블록(A32, B31)의 움직임 병합 후보가 상이한 경우, 플래그 정보에 same_merge_flag를 0으로 설정할 수 있다. 또한, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(100)는 현재 블록(X3)의 움직임 병합 후보를 코딩할 수 있다.
이를 통해 본 발명에서는 복호화 또는 부호화 시, 움직임 병합 후보 예측 수행 과정과 동일한 객체 영역을 유추할 수 있게 되고, 깊이 정보(또는 깊이 정보로부터 유도된 객체 정보)를 높은 효율로 이용할 수 있게 된다.
덧붙여, 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는 도 1에 도시된 영상 부호화 장치(100) 또는 도 2에 도시된 영상 복호화 장치(200) 내에 포함될 수 있다. 일 예로, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)는 영상 부호화 장치(100) 또는 영상 복호화 장치(200) 내에 일 구성으로 탑재될 수 있다. 다른 예로, 깊이 정보를 이용한 움직임 병합 후보 코딩 장치(300)의 각 구성 또는 각 구성의 동작을 수행하는 프로그램은 영상 부호화 장치(100)의 예측부(110), 가산부(180) 및 부호화부(150)등과 같은 기존 구성에 포함된 형태이거나, 영상 복호화 장치(200)의 예측부(250), 가산부(240) 및 복호화부(210) 등과 같은 기존 구성에 포함된 형태일 수 있다.
이하에서는 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법에 대해서 도 6및 도 7을 통해 상세히 설명한다.
도 6은 본 발명의 일실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법에 대한 순서도이다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록 및 현재 블록과 공간적으로 인접한 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단할 수 있다. 이때, 제 1 조건은 깊이 정보를 이용하여 판단할 수 있다(S620).
다음으로, 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한지에 대한 제 2조건을 판단할 수 있다(S630).
깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 앞에서 설명한 제 1조건 및 제 2조건을 만족하는 경우, 현재 블록의 움직임 병합 후보를 코딩하는 대신에 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 설정할 수 있다(S640).
예를 들어, 현재 블록과 인접 블록이 동일 객체 영역에 속하고, 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한 경우에, 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록에 대한 움직임 병합 후보를 코딩하지 않고 플래그 정보에 same_merge_flag를 1로 설정할 수 있다.
본 발명의 일실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 깊이 정보에 기초하여 객체 영역을 판단하고, 그 결과를 바탕으로 움직임 병합 후보 및 플래그 정보 중에서 적어도 하나를 코딩함으로써 부호화 및 복호화 효율을 향상시킬 수 있는 효과가 있다.
다른 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 위의 제 1조건 또는 제 2조건을 불만족 하는 경우, 상술된 현재 블록과 인접 블록이 동일한 객체 영역에 존재하지 않거나 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하지 않다는 플래그 정보를 출력 및 설정하고, 현재 블록의 움직임 병합 후보를 코딩할 수 있다(S650).
예를 들어, 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 상술된 현재 블록과 인접 블록이 동일한 객체 영역에 존재하지 않거나, 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하지 않다는 플래그 정보에 same_merge_flag를 0으로 설정할 수 있다. 또한, 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록의 움직임 병합 후보를 코딩할 수 있다
여기서, 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 상술된 현재 블록 및 현재 블록과 공간적으로 인접한 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단할 수 있다. 이때, 깊이 정보를 이용하여 판단하는 단계(S620)는 깊이 카메라를 통해 획득된 깊이 정보를 분석하여, 현재 블록이 존재하는 객체 영역과 상기 인접 블록이 존재하는 객체 영역에 대해 각각 라벨링을 수행하고(미도시), 라벨링을 기초로 상기 제 1 조건을 판단할 수 있다.
도 7은 본 발명의 다른 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법에 대한 순서도이다.
도 7을 참조하면, 본 발명의 다른 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록 및 현재 블록과 공간적으로 인접한 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단할 수 있다(S730). 이때, 제 1 조건은 깊이 정보를 이용하여 판단할 수 있다.
다음으로, 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한지에 대한 제 2조건을 판단할 수 있다(S740).
그리고 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 제 1조건 및 제 2조건을 만족하는 경우, 현재 블록의 움직임 병합 후보를 코딩하는 대신에 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 코딩할 수 있다(S750).
아울러, 상술된 다른 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 현재 블록과 인접한 제 1 인접 블록 및 제 2 인접 블록 간의 움직임 병합 후보가 동일한지에 대한 제 3 조건을 판단할 수 있다(S720).
이때, 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 제 3조건을 만족하는 경우, 다시 위에서 설명한 제 1조건 및 제 2조건을 판단할 수 있다. 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 제 1조건, 제 2조건, 및 제 3조건을 만족하는 경우, 상술한 현재 블록의 움직임 병합 후보를 코딩하는 대신에 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 설정할 수 있다(S750) .
예를 들어, 현재 블록과 인접 블록이 동일 객체 영역에 속하고, 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일한 경우에, 현재 블록에 대한 움직임 병합 후보를 코딩하지 않고, 플래그 정보에 same_merge_flag를 1로 설정할 수 있다.
이때, 제 1인접 블록은 현재 블록의 상측 블록이고, 제 2인접 블록은 현재 블록의 좌측 블록일 수 있다. 또한, 제 1 인접 블록과 제 2 인접 블록 중 적어도 하나는 스킵(Skip) 블록일 수 있다.
또 다른 실시예에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 제 3조건을 불만족 하는 경우, 현재 블록의 움직임 병합 후보를 코딩할 수 있다(S760).
아울러, 본 발명의 또 다른 실시예에서 깊이 정보를 이용한 움직임 병합 후보 코딩 방법은 제 1 조건 또는 제 2 조건을 불만족 하는 경우, 상술된 현재 블록과 인접 블록이 동일한 객체 영역에 존재하지 않거나 현재 블록의 움직임 병합 후보와 인접 블록의 움직임 병합 후보가 동일하지 않다는 플래그 정보에 same_merge_flag는 0으로 코딩하고, 현재 블록의 움직임 병합 후보를 코딩할 수 있다(S570).
본 발명의 실시예에 포함되는 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
상술한 본 발명에 따른 깊이 정보를 이용한 움직임 병합 후보 코딩 방법 및 장치는 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (16)

  1. 깊이 정보를 이용한 움직임 병합 후보 코딩 방법에 있어서,
    (a) 현재 블록 및 상기 현재 블록과 공간적으로 인접한 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단하되, 상기 깊이 정보를 이용하여 판단하는 단계;
    (b) 상기 현재 블록의 움직임 병합 후보와 상기 인접 블록의 움직임 병합 후보가 동일한지에 대한 제 2조건을 판단하는 단계; 및
    (c) 상기 제 1조건 및 상기 제 2조건을 만족하는 경우, 상기 현재 블록의 움직임 병합 후보를 코딩하는 대신에 상기 현재 블록의 움직임 병합 후보와 상기 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 코딩하는 단계를 포함하는 깊이 정보를 이용한 움직임 병합 후보 코딩 방법.
  2. 제 1 항에 있어서,
    (d) 상기 현재 블록과 인접한 제 1인접 블록 및 제 2인접 블록 간의 움직임 병합 후보가 동일한지에 대한 제 3조건을 판단하는 단계를 더 포함하고,
    상기 제 3조건을 만족하는 경우, 상기 제 1조건 및 상기 제 2조건을 판단하며,
    상기 제 1조건, 상기 제 2조건, 및 상기 제 3조건을 만족하는 경우, 상기 (c)단계는 상기 플래그 정보를 코딩하는 깊이 정보를 이용한 움직임 병합 후보 코딩 방법.
  3. 제 2 항에 있어서,
    상기 제 1인접 블록은 상기 현재 블록의 상측 블록이고,
    상기 제 2인접 블록은 상기 현재 블록의 좌측 블록인 깊이 정보를 이용한 움직임 병합 후보 코딩 방법.
  4. 제 2 항에 있어서,
    상기 제 1인접 블록과 상기 제 2인접 블록 중 적어도 하나는 스킵(Skip) 블록인 깊이 정보를 이용한 움직임 병합 후보 코딩 방법.
  5. 제 2 항에 있어서,
    (e) 상기 제 3조건을 불만족 하는 경우, 상기 현재 블록의 움직임 병합 후보를 코딩하는 단계를 더 포함하는 깊이 정보를 이용한 움직임 병합 후보 코딩 방법.
  6. 제 1 항에 있어서,
    (f) 상기 제 1조건 또는 상기 제 2조건을 불만족 하는 경우, 상기 플래그 정보를 0으로 코딩하고, 상기 현재 블록의 움직임 병합 후보를 코딩하는 단계를 더 포함하는 깊이 정보를 이용한 움직임 병합 후보 코딩 방법.
  7. 제 1 항에 있어서,
    상기 (a)단계는
    깊이 카메라를 통해 획득된 깊이 정보를 분석하여 상기 현재 블록이 존재하는 객체 영역과 상기 인접 블록이 존재하는 객체 영역에 대해 각각 라벨링을 수행하는 단계를 포함하고,
    상기 라벨링을 기초로 상기 제 1조건을 판단하는 깊이 정보를 이용한 움직임 병합 후보 코딩 방법.
  8. 깊이 정보를 이용한 움직임 병합 후보 코딩 장치에 있어서,
    현재 블록 및 상기 현재 블록과 공간적으로 인접한 인접 블록의 깊이 정보를 추출하는 깊이 정보 추출부;
    상기 깊이 정보 추출부로부터 추출된 깊이 정보에 기초하여 상기 현재 블록 및 상기 인접 블록이 동일한 객체 영역에 존재하는지에 대한 제 1조건을 판단하는 객체 영역 비교부;
    상기 현재 블록의 움직임 병합 후보와 상기 인접 블록의 움직임 병합 후보가 동일한지에 대한 제 2조건을 판단하는 움직임 병합 후보 비교부;
    상기 객체 영역 비교부와 상기 움직임 병합 후보 비교부 중 적어도 어느 하나의 판단 결과를 기초로 플래그 정보를 생성하는 플래그 정보 생성부; 및
    상기 현재 블록의 움직임 병합 후보 및 상기 플래그 정보 중 적어도 어느 하나를 코딩하는 코딩부를 포함하는 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
  9. 제 8 항에 있어서,
    상기 객체 영역 비교부는
    깊이 카메라를 통해 획득된 깊이 정보를 분석하여 상기 현재 블록이 존재하는 객체 영역과 상기 인접 블록이 존재하는 객체 영역에 대해 각각 라벨링을 수행하고,
    상기 라벨링을 기초로 상기 제 1조건을 판단하는 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
  10. 제 8 항에 있어서,
    상기 움직임 병합 후보 비교부는
    상기 현재 블록과 인접한 제 1인접 블록 및 제 2인접 블록 간의 움직임 병합 후보가 동일한지에 대한 제 3조건을 판단하는 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
  11. 제 10 항에 있어서,
    상기 제 1인접 블록은 상기 현재 블록의 상측 블록이고,
    상기 제 2인접 블록은 상기 현재 블록의 좌측 블록인 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
  12. 제 10 항에 있어서,
    상기 제 1인접 블록과 상기 제 2인접 블록 중 적어도 하나는 스킵(Skip) 블록인 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
  13. 제 8 항에 있어서,
    상기 코딩부는
    상기 제 1조건 및 상기 제 2조건을 만족하는 경우, 상기 현재 블록의 움직임 병합 후보를 코딩하는 대신에 상기 현재 블록의 움직임 병합 후보와 상기 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 코딩하는 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
  14. 제 8 항에 있어서,
    상기 코딩부는
    상기 제 1조건 또는 상기 제 2조건을 불만족 하는 경우, 상기 플래그 정보를 0으로 코딩하면서 상기 현재 블록의 움직임 병합 후보를 코딩하는 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
  15. 제 10 항에 있어서,
    상기 제 3조건을 만족하는 경우, 객체 영역 비교부는 상기 제 1조건 및 움직임 병합 후보 비교부는 상기 제 2조건을 판단하고,
    상기 제 1조건, 상기 제 2조건, 및 상기 제 3조건을 만족하는 경우, 상기 코딩부는 상기 현재 블록의 움직임 병합 후보를 코딩하는 대신에 상기 현재 블록의 움직임 병합 후보와 상기 인접 블록의 움직임 병합 후보가 동일하다는 것을 나타내는 플래그 정보를 코딩하는 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
  16. 제 10 항에 있어서,
    상기 코딩부는
    상기 제 3조건을 불만족 하는 경우, 상기 현재 블록의 움직임 병합 후보를 코딩하는 깊이 정보를 이용한 움직임 병합 후보 코딩 장치.
PCT/KR2015/000451 2014-03-31 2015-01-15 깊이 정보를 이용한 움직임 병합 후보 부호화/복호화 방법 및 장치 WO2015152505A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/126,106 US20170094303A1 (en) 2014-03-31 2015-01-15 Method and device for encoding/decoding motion merging candidate using depth information

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140038098A KR20150113714A (ko) 2014-03-31 2014-03-31 깊이 정보를 이용한 움직임 병합 후보 부호화/복호화 방법 및 장치
KR10-2014-0038098 2014-03-31

Publications (1)

Publication Number Publication Date
WO2015152505A1 true WO2015152505A1 (ko) 2015-10-08

Family

ID=54240786

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/000451 WO2015152505A1 (ko) 2014-03-31 2015-01-15 깊이 정보를 이용한 움직임 병합 후보 부호화/복호화 방법 및 장치

Country Status (3)

Country Link
US (1) US20170094303A1 (ko)
KR (1) KR20150113714A (ko)
WO (1) WO2015152505A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110107827A (ko) * 2008-12-31 2011-10-04 어드밴스드 마이크로 디바이시즈, 인코포레이티드 차동 움직임 벡터들의 개선된 공간적인 필터링을 갖는 다중-후보 움직임 추정
WO2012005520A2 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
WO2013067917A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of decoding video data
KR20130119478A (ko) * 2011-01-14 2013-10-31 모토로라 모빌리티 엘엘씨 시간적 블록 병합 모드
KR20140011481A (ko) * 2011-06-15 2014-01-28 미디어텍 인크. 3d 비디오 코딩을 위한 움직임 벡터 및 변이 벡터의 예측과 보상 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110107827A (ko) * 2008-12-31 2011-10-04 어드밴스드 마이크로 디바이시즈, 인코포레이티드 차동 움직임 벡터들의 개선된 공간적인 필터링을 갖는 다중-후보 움직임 추정
WO2012005520A2 (en) * 2010-07-09 2012-01-12 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using block merging, and method and apparatus for decoding video by using block merging
KR20130119478A (ko) * 2011-01-14 2013-10-31 모토로라 모빌리티 엘엘씨 시간적 블록 병합 모드
KR20140011481A (ko) * 2011-06-15 2014-01-28 미디어텍 인크. 3d 비디오 코딩을 위한 움직임 벡터 및 변이 벡터의 예측과 보상 방법 및 장치
WO2013067917A1 (en) * 2011-11-07 2013-05-16 LI, Yingjin Method of decoding video data

Also Published As

Publication number Publication date
US20170094303A1 (en) 2017-03-30
KR20150113714A (ko) 2015-10-08

Similar Documents

Publication Publication Date Title
WO2013070006A1 (ko) 스킵모드를 이용한 동영상 부호화 및 복호화 방법 및 장치
WO2013069932A1 (ko) 영상의 부호화 방법 및 장치, 및 복호화 방법 및 장치
WO2012057528A2 (ko) 적응적 화면내 예측 부호화 및 복호화 방법
WO2010050706A2 (ko) 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2013141671A1 (ko) 인터 레이어 인트라 예측 방법 및 장치
WO2013002549A2 (ko) 영상 부호화/복호화 방법 및 장치
WO2011139099A2 (ko) 비디오 신호의 처리 방법 및 장치
WO2010087620A2 (ko) 보간 필터를 적응적으로 사용하여 영상을 부호화 및 복호화하는 방법 및 장치
WO2011087271A2 (ko) 비디오 신호의 처리 방법 및 장치
WO2011149291A2 (ko) 비디오 신호의 처리 방법 및 장치
WO2012011672A2 (ko) 확장된 스킵모드를 이용한 영상 부호화/복호화 방법 및 장치
WO2012015275A2 (ko) 블록 분할예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2012033344A2 (ko) 효과적인 화면내 예측모드 집합 선택을 이용한 영상 부호화/복호화 방법 및 장치
WO2017043769A1 (ko) 부호화 장치, 복호화 장치 및 그 부호화 방법 및 복호화 방법
WO2011108879A2 (ko) 영상 부호화 장치, 그 영상 부호화 방법, 영상 복호화 장치 및 그 영상 복호화 방법
WO2013157814A1 (ko) 영상의 레퍼런스 픽쳐 세트를 결정하기 위한 방법 및 장치
WO2017043766A1 (ko) 비디오 부호화, 복호화 방법 및 장치
WO2018074626A1 (ko) 적응적 보간 필터를 사용하는 비디오 코딩 방법 및 장치
WO2012021040A2 (ko) 필터링모드 생략가능한 영상 부호화/복호화 방법 및 장치
WO2012081917A2 (ko) 움직임정보 병합을 이용한 부호움직임정보생성/움직임정보복원 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2018070568A1 (ko) 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치
WO2012033343A2 (ko) 참조 화소들의 특성을 이용하여 예측모드 정보의 전송을 생략할 수 있는 화면 내 예측 부호화/복호화 장치 및 그 방법
WO2019135628A1 (ko) 영상을 부호화 또는 복호화하는 방법 및 장치
WO2011068332A2 (ko) 공간적 예측장치 및 그 예측방법, 그것을 이용한 영상 부호화 장치 및 방법, 및 영상 복호화 장치 및 방법
WO2014081261A1 (ko) 움직임 정보 병합을 이용한 비디오 부호화/복호화 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15774331

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15126106

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15774331

Country of ref document: EP

Kind code of ref document: A1