WO2014051321A1 - 다시점 영상 부호화/복호화 장치 및 방법 - Google Patents

다시점 영상 부호화/복호화 장치 및 방법 Download PDF

Info

Publication number
WO2014051321A1
WO2014051321A1 PCT/KR2013/008564 KR2013008564W WO2014051321A1 WO 2014051321 A1 WO2014051321 A1 WO 2014051321A1 KR 2013008564 W KR2013008564 W KR 2013008564W WO 2014051321 A1 WO2014051321 A1 WO 2014051321A1
Authority
WO
WIPO (PCT)
Prior art keywords
vector
candidate
motion vector
block
view
Prior art date
Application number
PCT/KR2013/008564
Other languages
English (en)
French (fr)
Inventor
이진영
이재준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130112745A external-priority patent/KR102186605B1/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to CN201380051015.4A priority Critical patent/CN104782126B/zh
Priority to US14/432,404 priority patent/US9900620B2/en
Publication of WO2014051321A1 publication Critical patent/WO2014051321A1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Definitions

  • the following description relates to a multiview image encoding apparatus and method for encoding a multiview image, and a multiview image decoding apparatus and method for decoding an encoded multiview image.
  • the stereoscopic image refers to a 3D image that provides shape information about depth and space simultaneously with the image information.
  • images of different viewpoints are provided to the left and right eyes, whereas stereoscopic images provide the same images as viewed from different directions whenever the viewer views different views. Therefore, in order to generate a stereoscopic image, images captured at various viewpoints are required.
  • Images taken from a plurality of viewpoints have a large amount of data.
  • images captured from a plurality of viewpoints are encoded by a single-view video encoding scheme such as MPEG-2, H.264 / AVC, and HEVC, the network infrastructure and terrestrial bandwidth are almost impossible to realize.
  • an encoding method according to an encoding method suitable for a multiview image is required.
  • network infrastructure and terrestrial bandwidth are still limited, there is a need for more efficient multi-view video compression.
  • a multi-view image encoding method may include identifying a motion vector candidate associated with encoding of a current block in a first view image; Determining a predicted motion vector to be used for encoding the current block based on the identified motion vector candidate; And transmitting the index of the predicted motion vector to a multiview image decoding apparatus through a bitstream.
  • a multiview image decoding method includes extracting an index of a predicted motion vector from a bitstream received from a multiview image encoding apparatus; And determining the final motion vector of the current block in the first view image to be decoded based on the index of the predicted motion vector.
  • a multiview image encoding apparatus includes: a motion vector candidate identifier for identifying a motion vector candidate associated with encoding of a current block in a first view image; A predicted motion vector determiner that determines a predicted motion vector to be used for encoding the current block based on the identified motion vector candidate; And a bitstream transmitter for transmitting the index of the predicted motion vector to a multiview image decoding apparatus through a bitstream.
  • a multiview image decoding apparatus includes: an index extractor which extracts an index of a predicted motion vector from a bitstream received from a multiview image encoding apparatus; And a final motion vector determiner that determines a final motion vector of the current block in the first view image to be decoded based on the index of the predicted motion vector.
  • FIG. 1 is a diagram illustrating an operation of a multiview image encoding apparatus and a multiview image decoding apparatus, according to an exemplary embodiment.
  • FIG. 2 is a diagram illustrating an apparatus for encoding a multiview image, according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating an apparatus for decoding a multiview image, according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating a structure of a multiview image, according to an exemplary embodiment.
  • FIG. 5 is a diagram illustrating a reference image used when coding a current block according to an embodiment.
  • FIG. 6 is a diagram illustrating an encoding mode used when encoding a multiview image, according to an embodiment.
  • FIG. 7 illustrates a process of identifying a candidate vector in view using a disparity vector, according to an exemplary embodiment.
  • FIG. 8 is a diagram for describing a process of deriving a disparity vector, according to an exemplary embodiment.
  • FIG. 9 is a flowchart illustrating a method of encoding a multiview image, according to an exemplary embodiment.
  • FIG. 10 is a flowchart illustrating a method of decoding a multiview image, according to an exemplary embodiment.
  • a multiview image encoding method may be performed by a multiview image encoding apparatus, and the multiview image decoding method may be performed by a multiview image decoding apparatus.
  • the multiview image decoding method may be performed by a multiview image decoding apparatus.
  • Like reference numerals in the drawings denote like elements.
  • a current block represents a block to be encoded or decoded from an image of one viewpoint included in a multiview image.
  • the first view image represents a view image including a current block among view images included in a multiview image.
  • the first view image has the same meaning as the current view image.
  • the second view image is a view image encoded or decoded before the first view image, and represents a view image having a view different from the first view image.
  • a corresponding block represents a block in a second view image corresponding to the current block.
  • Co-located block represents a block that is encoded or decoded before the current view image and is located at the same position as the current block in a frame having the same view as the current view image.
  • FIG. 1 is a diagram illustrating an operation of a multiview image encoding apparatus and a multiview image decoding apparatus, according to an exemplary embodiment.
  • the multiview image encoding apparatus 110 may encode a multiview image, generate coded data in a bitstream form, and transmit the encoded data to the multiview image decoding apparatus 120.
  • the multiview image may include images photographed at various viewpoints.
  • the multi-view image has not only temporal redundancy shown between temporally consecutive images but also inter-view redundancy shown between images of different viewpoints.
  • the multi-view image encoding apparatus 110 may minimize redundancy between images by determining a motion vector for maximizing encoding efficiency for each block in a block-based encoding process.
  • the multiview image encoding apparatus 110 may encode a multiview image according to various encoding modes.
  • the multi-view image encoding apparatus 110 may encode the current block using a prediction motion vector indicating a prediction block most similar to the current block to be encoded.
  • the multi-view image encoding apparatus 110 may represent the encoded multi-view image with a smaller amount of data by removing redundancy between the images as much as possible in the process of encoding the multi-view image.
  • the multi-view image encoding apparatus 110 may use a block-based intra, inter, or inter-view prediction method to remove redundancy between images.
  • the multiview image encoding apparatus 110 may identify various motion vector candidates with respect to the current block, and determine a predictive motion vector capable of maximizing coding efficiency of the current block among the motion vector candidates.
  • the multiview image encoding apparatus 110 may transmit the determined index of the predicted motion vector to the multiview image decoding apparatus 120 through a bitstream.
  • the multi-view image encoding apparatus 110 may search for a prediction block most similar to the current block in an image of a viewpoint different from the viewpoint image including the current block to be encoded.
  • the multiview image encoding apparatus 110 may search for a prediction block most similar to the current block in a previously encoded frame of the view image including the current block.
  • the multiview image encoding apparatus 110 may represent a predicted motion vector indicating a relationship between a current block and a predictive block as an index of the predicted motion vector, and may transmit information about the index of the predicted motion vector to the multiview image decoding apparatus 120. have.
  • the multiview image decoding apparatus 120 may receive a multiview image encoded from the multiview image encoding apparatus 110 in a bitstream form. Also, the multi-view image decoding apparatus 120 may extract the index of the predicted motion vector to be used in the decoding process from the bitstream. The multiview image decoding apparatus 120 may identify the prediction motion vector from the index of the prediction motion vector. The multiview image decoding apparatus 120 may determine a final motion vector based on a prediction motion vector according to an encoding mode applied to the encoding process of the multiview image.
  • FIG. 2 is a diagram illustrating an apparatus for encoding a multiview image, according to an exemplary embodiment.
  • the multiview image encoding apparatus 210 may include a motion vector candidate identifier 230, a predictive motion vector determiner 240, and a bitstream transmitter 250.
  • the motion vector candidate identifier 230 may identify a motion vector candidate associated with encoding of the current block in the first view image.
  • the motion vector candidate identifier 230 may select a spatial candidate vector, a temporal candidate vector, an inter-view candidate vector, or a disparity candidate vector. Can be identified.
  • the candidate candidate in space represents a motion vector of a neighboring block neighboring the current block to be encoded.
  • the motion vector candidate identifier 230 may identify whether a neighboring block neighboring the current block has a motion vector and include the motion vector of the neighboring block as a spatial candidate vector in the motion vector candidate. For example, the motion vector candidate identifier 230 may identify whether the left block of the current block, the upper block of the current block, the upper left block of the current block, or the upper right block of the current block has a motion vector. have.
  • the temporal candidate vector represents a motion vector of the co-located block at the same position as the current block within a frame of the first view image encoded before the first view image. For example, if it is assumed that the center position of the current block is (x, y), the same position block may select a block having the center position (x, y) in a frame existing at a position different in time from the first viewpoint image. Indicates.
  • the frame of the first view image encoded before the first view image is a frame existing at a position different in time from the first view image, and represents a frame having the same view as the first view image.
  • the candidate vector in time may include motion vectors of neighboring blocks neighboring the co-located block.
  • the neighboring block of the colocated block may include a left block of the colocated block, an upper block of the colocated block, an upper right block of the colocated block, or an upper left block of the colocated block.
  • the motion vector candidate identifying unit 230 identifies whether the co-located block or the neighboring block adjacent to the co-located block has a motion vector, and determines the motion vector of the co-located block and the motion vector of the neighboring block neighboring the co-located block. May be included in the motion vector candidate as a candidate vector in time.
  • the candidate vector on view represents a motion vector of the corresponding block in the second view image corresponding to the current block.
  • the second view image represents a view image having a view different from the first view image.
  • the motion vector candidate identifier 230 may include the motion vector as a candidate view vector as the motion vector candidate.
  • the motion vector candidate identifier 230 may use a disparity vector to identify whether a candidate vector exists in view. For example, the motion vector candidate identifier 230 determines whether the candidate vector in view is present within the disparity vector of the neighboring block of the current block, the frame of the first view image encoded before the first view image. The disparity vector of the colocated block at the same position as the current block or the disparity vector of the neighboring block neighboring the colocated block may be used.
  • the motion vector candidate identification unit 230 may classify the viewpoint candidate vector into a first viewpoint candidate vector and a second viewpoint candidate vector.
  • the motion vector candidate identifier 230 may include only one of the viewpoint candidate vectors in the motion vector candidate.
  • the motion vector candidate identifier 230 may identify the candidate vector on the first viewpoint using the disparity vector of the neighboring block neighboring the current block. If the disparity vector does not exist in the neighboring block adjacent to the current block, the motion vector candidate identifier 230 may be at the same position as the current block in the frame of the first view image encoded before the first view image. The at least one candidate vector may be identified based on at least one of the disparity vector of the block and the disparity vector of the neighboring block of the co-located block. The motion vector candidate identifier 230 may determine a candidate vector of the same position block and the disparity vector of the same position block at the same position as the current block in the frame of the first viewpoint image encoded before the first viewpoint image.
  • At least one of the disparity vectors of the neighboring block may be identified.
  • the motion vector candidate identifier 230 determines whether there is a candidate vector in view based on the displacement vector of the neighboring block neighboring the current block when the disparity vector does not exist in the colocated block and the neighboring block neighboring the colocated block. Can be identified.
  • the motion vector candidate identifier 230 may determine a motion vector and a motion vector of a co-located block at the same position as the current block within a frame of the first view image encoded before the first view image. It may be identified using at least one of the disparity vectors of the neighboring blocks of the location block. The motion vector candidate identifier 230 determines whether there is a candidate vector in view based on the displacement vector of the neighboring block neighboring the current block when the disparity vector does not exist in the colocated block and the neighboring block neighboring the colocated block. Can be identified. The motion vector candidate identifier 230 may identify the candidate vector on the second viewpoint using the disparity vector of the neighboring block neighboring the current block.
  • the motion vector candidate identifier 230 may be at the same position as the current block in the frame of the first view image encoded before the first view image.
  • the at least one candidate vector may be identified based on at least one of the disparity vector of the block and the disparity vector of the neighboring block of the co-located block.
  • the motion vector candidate identifier 230 may determine that the motion vector of the neighboring block is obtained based on the disparity vector when the neighboring block adjacent to the current block does not have the disparity vector but has the motion vector. It can be determined whether it is a vector. As a result of determination, when the motion vector of the neighboring block is a motion vector obtained using the disparity vector, the motion vector candidate identifier 230 may identify whether a candidate vector exists in view using the disparity vector.
  • the motion vector candidate identifier 230 calculates the complexity of the process of identifying the candidate vector in view, and the complexity If it is larger than a preset threshold, the candidate candidate vector may not be included in the motion vector candidate.
  • the motion vector candidate identifying unit 230 may determine that the co-located block or the neighboring block neighboring the co-located block does not have the disparity vector but has the motion vector. It may be determined whether the motion vector is a motion vector obtained based on the disparity vector. As a result of determination, when the motion vector of the co-located block or the neighboring block neighboring the co-located block is a motion vector obtained based on the disparity vector, the motion vector candidate identification unit 230 uses the corresponding disparity vector to view the candidate vector. Can be identified.
  • the motion vector candidate identifier 230 calculates a complexity of identifying a candidate vector in view when the colocation block or a neighboring block adjacent to the colocation block does not have a disparity vector but has a motion vector. If is greater than a preset threshold, the candidate candidate vector may not be included in the motion vector candidate.
  • a neighboring block neighboring the current block does not have a disparity vector but has a motion vector, it may be determined whether the motion vector of the neighboring block is a motion vector obtained based on the disparity vector. As a result of the determination, when the motion vector of the neighboring block is a motion vector obtained based on the disparity vector, the motion vector candidate identifier 230 may identify whether a candidate vector exists in view using the disparity vector.
  • the motion vector candidate identifier 230 determines a zero motion vector as the disparity vector of the current block, and the candidate vector in view is determined based on the determined disparity vector of the current block. It can be identified whether it exists. For example, when the candidate vector does not exist in the viewpoint, the motion vector candidate identifier 230 sets the disparity vector of the current block as a zero vector, and the motion of the corresponding block corresponding to the current block in the viewpoint image at another viewpoint. Vectors can be identified. Alternatively, when the candidate vector in view does not exist, the motion vector candidate identifier 230 may determine a zero vector as the candidate view in view.
  • the motion vector candidate identifier 230 may include a neighboring block neighboring the current block, a co-located block located at the same position as the current block within a frame of the first view image encoded before the first view image, And when the neighboring block adjacent to the co-located block does not have the disparity vector, the candidate vector in view may not be included in the motion vector candidate.
  • the motion vector candidate identifier 230 may not include the viewpoint candidate vector in the motion vector candidate when the candidate view vector does not exist.
  • the disparity candidate vector indicates a disparity vector used to search for a corresponding block in a second view image corresponding to the current block.
  • the disparity candidate vector may include a disparity vector of a neighboring block neighboring the current block, a disparity vector of the same position block, or a disparity vector of the neighboring block neighboring the same block.
  • the motion vector candidate identification unit 230 may identify whether a disparity candidate vector exists and include the disparity vector used to search for the corresponding block in the second view image as the disparity candidate vector in the motion vector candidate.
  • the motion vector candidate identifier 230 finds a disparity vector for the current block, the motion vector candidate identifier 230 searches for a corresponding block in the second viewpoint image pointed to by the disparity vector, and uses the motion vector of the corresponding block as a candidate vector in view. You can decide.
  • the motion vector candidate identifier 230 may identify the disparity vector used to search for the corresponding block in the second view image as the disparity candidate vector and include it in the motion vector candidate.
  • the motion vector candidate identifier 230 may identify two disparity candidate vectors associated with each of the candidate viewpoint images. Can be. When the identified two disparity candidate vectors are the same, the motion vector candidate identifier 230 may include only one disparity candidate vector in the motion vector candidate.
  • the prediction motion vector determiner 240 may determine the prediction motion vector to be used for encoding the current block based on the identified motion vector candidate.
  • the predictive motion vector determiner 240 may determine the most efficient motion vector candidate among various motion vector candidates. For example, the prediction motion vector determiner 240 determines a degree of similarity between the current block and the prediction block indicated by each motion vector candidate, and determines the motion vector candidate indicating the prediction block most similar to the current block as the prediction motion vector. Can be.
  • the predictive motion vector determiner 240 identifies a predictive block that minimizes the number of bits required to express the difference between the current block and the predictive block, and predicts a motion vector candidate indicating the identified predictive block. Can be determined.
  • the bitstream transmitter 250 may transmit the index of the predicted motion vector to the multiview image decoding apparatus 220 through the bitstream.
  • the bitstream transmitter 250 may transmit the residual signal of the encoded current block and the prediction block indicated by the prediction motion vector to the multiview image decoding apparatus 220 through the bitstream. have.
  • the residual signal before encoding may be predicted from the residual signal generated when the second view image is encoded.
  • the disparity vector may be used to predict a residual signal generated in the second view image.
  • the disparity vector of the neighboring block adjacent to the current block, the disparity vector of the same position block, or the disparity vector of the neighboring block neighboring the same block may be used.
  • the residual signal generated in the second view image may be predicted using the disparity vector of the neighboring block neighboring the current block, and if the disparity vector does not exist in the neighboring block neighboring the current block, the colocation block
  • the disparity vector of or the disparity vector of the neighboring block adjacent to the same block may be used.
  • the residual signal generated in the second view image may be predicted using the disparity vector of the colocated block or the disparity vector of the neighboring block adjacent to the colocated block. If the disparity vector does not exist, the disparity vector of the neighboring block neighboring the current block may be used.
  • the multi-view image encoding apparatus 210 may encode a difference signal between the residual signal of the current block and the residual signal generated in the second view image identified using the disparity vector.
  • the multi-view image encoding apparatus 210 may not predict the residual signal generated in the second view image when the prediction block is predicted using the second view image.
  • the multiview image encoding apparatus 210 may not predict the residual signal generated in the second view image when the prediction block is predicted using the image of the same view as the first view image and the second view image. Can be.
  • FIG. 3 is a diagram illustrating an apparatus for decoding a multiview image, according to an exemplary embodiment.
  • the multiview image decoding apparatus 320 may include an index extractor 330 and a final motion vector determiner 340.
  • the index extractor 330 may extract an index of the predicted motion vector from the bitstream received from the multiview image encoding apparatus 310.
  • the final motion vector determiner 340 may determine the final motion vector of the current block in the first view image to be decoded based on the index of the predicted motion vector. For example, the final motion vector determiner 340 may determine the predicted motion vector as the final motion vector. According to another embodiment, the final motion vector determiner 340 may newly search for a prediction block that is more similar to the current block based on the prediction motion vector, and determine the final motion vector based on the newly searched prediction block. have.
  • the predicted motion vector may be determined based on the motion vector candidate identified by the multiview image encoding apparatus 310.
  • the motion vector candidate may include at least one of a viewpoint candidate vector, a spatial candidate vector, a temporal candidate vector, and a disparity candidate vector.
  • the candidate candidate in space represents a motion vector of a neighboring block neighboring the current block to be encoded.
  • a left block of the current block, an upper block of the current block, an upper left block of the current block, or an upper right block of the current block may include a motion vector.
  • the temporal candidate vector represents a motion vector of the co-located block at the same position as the current block within a frame of the first view image decoded before the first view image.
  • the frame of the first view image decoded before the first view image is a frame existing at a position different in time from the first view image, and represents a frame having the same view as the first view image.
  • the candidate vector in time may include motion vectors of neighboring blocks neighboring the co-located block.
  • the candidate vector on view represents a motion vector of the corresponding block in the second view image corresponding to the current block to be decoded.
  • the candidate vector in view may include a disparity vector of a neighboring block neighboring the current block and a disparity vector of a co-located block at the same position as the current block within a frame of the first view image decoded before the first view image, It may be determined based on the disparity vector of the neighboring block of the co-located block, or the zero vector.
  • the disparity candidate vector indicates a disparity vector used to search for a corresponding block in a second view image corresponding to the current block.
  • the disparity candidate vector may include a disparity vector of a neighboring block neighboring the current block, a disparity vector of the same position block, or a disparity vector of the neighboring block neighboring the same block.
  • FIG. 4 is a diagram illustrating a structure of a multiview image, according to an exemplary embodiment.
  • GOP means a set of consecutive images starting with an I-frame.
  • the process of encoding a multi-view image basically uses the concept of hierarchical B picture (or hierarchical B-frame) as the temporal axis and the view axis. Redundancy of the liver can be reduced.
  • the multi-view image encoding apparatus 110 of FIG. 1 encodes a left picture (I-view) according to the structure of the multi-view image shown in FIG. 4, and performs a right picture (P-view) and a center.
  • images corresponding to three viewpoints may be encoded.
  • the multi-view image encoding apparatus 110 may encode the right image or the center image first, and is not limited to the encoding order described above.
  • an area similar to the left image may be searched from previous images through motion estimation, and temporal redundancy may be reduced by using information of the searched area. Since the right image encoded after the left image is encoded with reference to the already encoded left image, not only temporal redundancy through motion estimation but also view redundancy through disparity estimation may be reduced. In addition, since the center image may perform encoding through disparity estimation by referring to both the left image and the right image that are already encoded, inter-view redundancy may be reduced.
  • an image that is encoded without using an image of another view like the left image is encoded by predicting an image of another view in one direction such as an I-View image and a right image in one direction.
  • the image to be encoded may be defined as a P-View image, and an image encoded by predicting images of different views in both directions, such as a center image, as a B-View image.
  • FIG. 5 is a diagram illustrating a reference image used when coding a current block according to an embodiment.
  • the multi-view image encoding apparatus When the multi-view image encoding apparatus encodes a current block included in the current view image B 510, the images 540 and 550 or the current view image B (which are located in the vicinity of the current view image B 510) Images 520 and 530 located in the vicinity of time 510 may be used as a reference image.
  • the multi-view image encoding apparatus may identify a prediction block that is most similar to the current block in the surrounding images 520 ⁇ 550, and may encode a residual signal between the current block and the prediction block.
  • an encoding mode for searching for a prediction block using a reference image may include P Slice Only / Direct (B Slice Only), 16x16, 16x8, 8x16, and P8x8 modes.
  • a coding mode for searching for a prediction block using a reference picture may include a merge (SKIP / DIRECT), 2NX2N, NXN, 2NxN, and NX2N modes.
  • the multi-view image encoding apparatus may use reference images 520 and 530 which are located in time around the current view image B 510 in order to reduce temporal redundancy.
  • the multi-view image encoding apparatus may use reference images 540 and 550 positioned in the periphery of the current viewpoint image in order to reduce inter-view redundancy.
  • the multi-view image encoding apparatus may use the Ref1 image 520 and the Ref2 image 530 to remove temporal redundancy, and may use the Ref3 image 540 and the Ref4 image 550 to remove redundancy between viewpoints. have.
  • FIG. 6 is a diagram illustrating an encoding mode used when encoding a multiview image, according to an embodiment.
  • the multi-view image encoding apparatus may segment the view image into a plurality of blocks in predicting a coding unit block, and the size of the segmented block may vary for each block.
  • the multi-view image encoding apparatus may apply various compression modes (eg, merge mode, inter mode-2NX2N, NXN, 2NXN, NX2N, etc., intra mode, etc.) to the granular blocks.
  • the multi-view image encoding apparatus may determine an encoding mode that is most suitable for each of the subdivided blocks among various encoding modes, and encode the subdivided block according to the determined encoding mode.
  • the merge mode among various compression modes does not encode motion information of blocks to be encoded, thereby reducing the amount of bits required to encode and transmit a multiview image. As more merge modes are selected in the process of encoding the view image, encoding performance may be further improved.
  • FIG. 7 illustrates a process of identifying a candidate vector in view using a disparity vector, according to an exemplary embodiment.
  • the apparatus for encoding a multiview image may use the disparity vector 740 for the current block 730 in the first view image 710 to view the candidate image 760 associated with the encoding of the current block 730. ) Can be identified.
  • the apparatus for encoding a multiview image may be located at the same position as the current block 730 within a frame of the neighboring block of the current block 730 and the first view image encoded before the first view image 710.
  • the disparity vector of the block or the disparity vector 740 of the neighboring block adjacent to the co-located block may be used.
  • the multi-view image encoding apparatus may determine the motion vector 750 of the corresponding block in the second view image 720 indicated by the disparity vector 740 as the candidate view vector 760.
  • the multi-view image encoding apparatus may determine the zero vector as the disparity vector 740 of the current block 730, and corresponds to the current block 730 based on the disparity vector 740 of the zero vector.
  • the motion vector 750 of the corresponding block in the second view image 720 may be identified and determined as a candidate view vector 760.
  • the multi-view image encoding apparatus has a motion vector of a neighboring block neighboring the current block 730 does not have a disparity vector but has a motion vector, and the motion vector of the neighboring block is obtained based on the disparity vector.
  • whether the candidate vector 760 exists in view can be identified using the disparity vector 740.
  • the co-located block or the neighboring block adjacent to the co-located block does not have the disparity vector but has a motion vector.
  • the disparity vector 740 may be used to identify the existence of the candidate vector 760 in view.
  • FIG. 8 is a diagram for describing a process of deriving a disparity vector, according to an exemplary embodiment.
  • (a) illustrates a process of inducing a disparity vector by the multiview image encoding apparatus using the neighboring block 820 of the current block 810 to identify a candidate viewpoint in view.
  • the motion vector of the neighboring block 820 neighboring the current block 810 may correspond to the spatial candidate vector.
  • the multiview image encoding apparatus may identify the candidate vector in view from the motion vector of the corresponding block in the second view image using the disparity vector of the neighboring block 820 adjacent to the current block 810.
  • (b) is a co-location block 830 at the same position as the current block in the frame of the first view image encoded before the first view image so that the multiview image encoding apparatus identifies the candidate viewpoint vector.
  • the motion vector of the colocated block 830 and the motion vector of the neighboring block 840 adjacent to the colocated block 830 may correspond to the candidate vector in time.
  • the multi-view image encoding apparatus uses the disparity vector of the co-located block 830 or the disparity vector of the neighboring block 840 adjacent to the co-located block 830 to view the motion vector of the corresponding block in the second view image.
  • Candidate vectors can be identified.
  • FIG. 9 is a flowchart illustrating a method of encoding a multiview image, according to an exemplary embodiment.
  • the multiview image encoding apparatus may identify a motion vector candidate associated with encoding of the current block in the first view image.
  • the multiview image encoding apparatus may identify a spatial candidate vector, a temporal candidate vector, a viewpoint candidate vector, or a disparity candidate vector.
  • the multi-view image encoding apparatus may identify whether a neighboring block neighboring the current block has a motion vector and include the motion vector of the neighboring block as a spatial candidate vector in the motion vector candidate.
  • the multi-view image encoding apparatus identifies whether the co-located block or the neighboring block adjacent to the co-located block has a motion vector and candidates the motion vector of the co-located block and the motion vector of the neighboring block neighboring the co-located block in time. It can be included in the motion vector candidate as a vector.
  • the multi-view image encoding apparatus may include the motion vector as a candidate view vector in the motion vector candidate.
  • the multi-view image encoding apparatus may use the disparity vector to identify whether there is a candidate vector in view.
  • the multi-view image encoding apparatus is equal to a current vector in a disparity vector of a neighboring block neighboring a current block and a frame of a first viewpoint image encoded before the first viewpoint image.
  • the disparity vector of the colocated block at the position, the disparity vector of the neighboring block adjacent to the colocated block, or the zero vector may be used.
  • the apparatus for encoding a multiview image may classify the viewpoint candidate vector into a first viewpoint candidate vector and a second viewpoint candidate vector.
  • the multiview image encoding apparatus may include only one viewpoint candidate vector in the motion vector candidate.
  • the multi-view image encoding apparatus determines a zero vector as the disparity vector of the current block, and determines whether the candidate view vector exists based on the determined disparity vector of the current block. Can be identified. According to another embodiment, the multi-view image encoding apparatus may not include the viewpoint candidate vector as the motion vector candidate when the candidate viewpoint vector does not exist.
  • the multi-view image encoding apparatus may identify whether a disparity candidate vector exists and include the disparity vector used to search for a corresponding block in the second view image as the disparity candidate vector in the motion vector candidate.
  • the multiview image encoding apparatus may determine the predictive motion vector to be used for encoding the current block based on the identified motion vector candidate.
  • the multiview image encoding apparatus may determine the most efficient motion vector candidate among several motion vector candidates.
  • the multiview image encoding apparatus may transmit the index of the predicted motion vector to the multiview image decoding apparatus through a bitstream.
  • FIG. 10 is a flowchart illustrating a method of decoding a multiview image, according to an exemplary embodiment.
  • the multiview image decoding apparatus may extract an index of a predicted motion vector from a bitstream received from the multiview image encoding apparatus.
  • the predicted motion vector may be determined based on the motion vector candidate identified by the multiview image encoding apparatus.
  • the motion vector candidate may include at least one of a viewpoint candidate vector, a spatial candidate vector, a temporal candidate vector, and a disparity candidate vector.
  • the candidate candidate in space represents a motion vector of a neighboring block neighboring the current block to be encoded.
  • the temporal candidate vector represents a motion vector of the co-located block at the same position as the current block within a frame of the first view image decoded before the first view image.
  • the frame of the first view image decoded before the first view image is a frame existing at a position different in time from the first view image, and represents a frame having the same view as the first view image.
  • the candidate vector in time may include motion vectors of neighboring blocks neighboring the co-located block.
  • the candidate vector on view represents a motion vector of the corresponding block in the second view image corresponding to the current block to be decoded.
  • the candidate vector on the viewpoint includes the disparity vector of the neighboring block adjacent to the current block and the disparity vector of the co-located block at the same position as the current block within the frame of the first view image decoded before the first view image. It may be determined based on at least one of the disparity vector and the zero vector of the neighboring block.
  • the disparity candidate vector indicates a disparity vector used to search for a corresponding block in a second view image corresponding to the current block.
  • the disparity candidate vector may include a disparity vector of a neighboring block neighboring the current block, a disparity vector of the same position block, or a disparity vector of the neighboring block neighboring the same block.
  • the apparatus for decoding a multiview image may determine the final motion vector of the current block in the first view image to be decoded based on the index of the predicted motion vector. For example, the multi-view image decoding apparatus may determine the predicted motion vector as the final motion vector. According to another embodiment, the multi-view image decoding apparatus may newly search for a prediction block more similar to the current block based on the prediction motion vector, and determine the final motion vector based on the newly searched prediction block. When the final motion vector is determined, the multi-view image decoding apparatus may reconstruct the current block based on the final prediction block indicated by the final motion vector.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

다시점 영상을 부호화/복호화하는 시스템이 개시된다. 일실시예에 따른 시스템은 다시점 영상 부호화 장치 및 다시점 영상 복호화 장치를 포함할 수 있다. 다시점 영상 부호화 장치는 복수의 후보 움직임 벡터들로부터 현재 블록에 가장 적합한 예측 움직임 벡터를 결정할 수 있고, 결정된 예측 움직임 벡터의 인덱스를 다시점 영상 복호화 장치에 전송할 수 있다.

Description

다시점 영상 부호화/복호화 장치 및 방법
아래의 설명은 다시점 영상을 부호화하는 다시점 영상 부호화 장치 및 방법, 부호화된 다시점 영상을 복호화하는 다시점 영상 복호화 장치 및 방법에 관한 것이다.
입체 영상이란 깊이 및 공간에 대한 형상 정보를 영상 정보와 동시에 제공하는 3차원 영상을 의미한다. 스테레오 영상의 경우, 좌우 눈에 각각 다른 시점의 영상을 제공하는 반면에, 입체 영상은 관찰자가 보는 시점을 달리할 때마다 다른 방향에서 본 것과 같은 영상을 제공한다. 따라서, 입체 영상을 생성하기 위해서는 여러 시점에서 촬영한 영상들이 필요하다.
복수의 시점에서 촬영한 영상들을 많은 데이터량을 가진다. 이와 같이 복수의 시점에서 촬영한 영상들을 MPEG-2, H.264/AVC, HEVC와 같은 단일 시점 비디오 부호화 방식으로 부호화하는 경우, 네트워크 인프라 및 지상파 대역폭을 고려하였을 때, 실현이 거의 불가능하다.
따라서, 복수의 시점에서 촬영한 영상들을 보다 효율적으로 부호화하기 위해서는 다시점 영상에 적합한 부호화 방식에 따른 부호화 방법이 필요하다. 그러나, 여전히 네트워크 인프라와 지상파 대역폭은 한정되어 있기 때문에, 다시점 비디오 압축 방식을 보다 효율적으로 개선하는 것이 요구된다.
일실시예에 따른 다시점 영상 부호화 방법은, 제1 시점 영상 내 현재 블록의 부호화와 관련된 움직임 벡터 후보를 식별하는 단계; 상기 식별된 움직임 벡터 후보에 기초하여 상기 현재 블록의 부호화에 이용될 예측 움직임 벡터를 결정하는 단계; 및 상기 예측 움직임 벡터의 인덱스를 비트스트림을 통해 다시점 영상 복호화 장치에 전송하는 단계를 포함할 수 있다.
일실시예에 따른 다시점 영상 복호화 방법은, 다시점 영상 부호화 장치로부터 수신한 비트스트림에서 예측 움직임 벡터의 인덱스를 추출하는 단계; 및 상기 예측 움직임 벡터의 인덱스에 기초하여 복호화하고자 하는 제1 시점 영상 내 현재 블록의 최종 움직임 벡터를 결정하는 단계를 포함할 수 있다.
일실시예에 따른 다시점 영상 부호화 장치는, 제1 시점 영상 내 현재 블록의 부호화와 관련된 움직임 벡터 후보를 식별하는 움직임 벡터 후보 식별부; 상기 식별된 움직임 벡터 후보에 기초하여 상기 현재 블록의 부호화에 이용될 예측 움직임 벡터를 결정하는 예측 움직임 벡터 결정부; 및 상기 예측 움직임 벡터의 인덱스를 비트스트림을 통해 다시점 영상 복호화 장치에 전송하는 비트스트림 전송부를 포함할 수 있다.
일실시예에 따른 다시점 영상 복호화 장치는, 다시점 영상 부호화 장치로부터 수신한 비트스트림에서 예측 움직임 벡터의 인덱스를 추출하는 인덱스 추출부; 및 상기 예측 움직임 벡터의 인덱스에 기초하여 복호화하고자 하는 제1 시점 영상 내 현재 블록의 최종 움직임 벡터를 결정하는 최종 움직임 벡터 결정부를 포함할 수 있다.
도 1은 일실시예에 따른 다시점 영상 부호화 장치와 다시점 영상 복호화 장치의 동작을 설명하기 위한 도면이다.
도 2는 일실시예에 따른 다시점 영상 부호화 장치를 도시한 도면이다.
도 3은 일실시예에 따른 다시점 영상 복호화 장치를 도시한 도면이다.
도 4는 일실시예에 따른 다시점 영상의 구조를 도시한 도면이다.
도 5는 일실시예에 따른 현재 블록을 코딩할 때 사용되는 참조 영상을 도시한 도면이다.
도 6은 일실시예에 따른 다시점 영상을 부호화할 때 사용되는 부호화 모드를 도시한 도면이다.
도 7은 일실시예에 따른 변이 벡터를 이용하여 시점상 후보 벡터를 식별하는 과정을 도시한 도면이다.
도 8은 일실시예에 따른 변이 벡터를 유도하는 과정을 설명하기 위한 도면이다.
도 9는 일실시예에 따른 다시점 영상을 부호화하는 방법을 도시한 흐름도이다.
도 10은 일실시예에 따른 다시점 영상을 복호화하는 방법을 도시한 흐름도이다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 발명의 실시예들을 설명하기 위한 목적으로 예시된 것으로, 발명의 범위가 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 안된다. 일실시예에 따른 다시점 영상 부호화 방법은 다시점 영상 부호화 장치에 의해 수행될 수 있으며, 다시점 영상 복호화 방법은 다시점 영상 복호화 장치에 의해 수행될 수 있다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
실시예들을 상세하게 설명하기 전에, 실시예 또는 특허청구범위에 기재된 용어들을 다음과 같이 정의한다.
(1) 현재 블록(current block): 현재 블록은 다시점 영상에 포함된 어느 한 시점의 영상에서 부호화 또는 복호화하고자 하는 블록을 나타낸다.
(2) 제1 시점 영상: 제1 시점 영상은 다시점 영상에 포함된 시점 영상들 중 현재 블록을 포함하고 있는 시점 영상을 나타낸다. 일실시예에서, 제1 시점 영상은 현재 시점 영상과 동일한 의미를 가진다.
(3) 제2 시점 영상: 제2 시점 영상은 제1 시점 영상 이전에 부호화 또는 복호화된 시점 영상으로서, 제1 시점 영상과 다른 시점을 가지고 있는 시점 영상을 나타낸다.
(4) 대응 블록(corresponding block): 대응 블록은 현재 블록에 대응하는 제2 시점 영상 내 블록을 나타낸다.
(5) 동위치 블록(co-located block): 동위치 블록은 현재 시점 영상 이전에 부호화 또는 복호화되고, 현재 시점 영상과 동일 시점을 가진 프레임 내에서 현재 블록과 동일한 위치에 있는 블록을 나타낸다.
도 1은 일실시예에 따른 다시점 영상 부호화 장치와 다시점 영상 복호화 장치의 동작을 설명하기 위한 도면이다.
일실시예에 따른 다시점 영상 부호화 장치(110)는 다시점 영상을 부호화하고, 부호화된 데이터를 비트스트림 형태로 생성하여 다시점 영상 복호화 장치(120)에 전송할 수 있다. 다시점 영상은 여러 시점에서 촬영된 영상들을 포함할 수 있다. 다시점 영상은 시간적으로 연속적인 영상들 간에 나타나는 시간적 중복성 뿐만 아니라 서로 다른 시점의 영상들 간에 나타나는 시점간 중복성을 가지고 있다. 다시점 영상 부호화 장치(110)는 블록 기반의 부호화 과정에서 각각의 블록에 대해 부호화 효율을 최대화할 수 있는 움직임 벡터(motion vector)를 결정함으로써, 영상들 간의 중복성을 최소화할 수 있다.
다시점 영상 부호화 장치(110)는 다양한 부호화 모드에 따라 다시점 영상을 부호화할 수 있다. 다시점 영상 부호화 장치(110)는 부호화하고자 하는 현재 블록에 가장 유사한 예측 블록을 가리키는 예측 움직임 벡터를 이용하여 현재 블록을 부호화할 수 있다. 다시점 영상 부호화 장치(110)는 다시점 영상을 부호화하는 과정에서 영상들 간의 중복성을 최대한으로 제거함으로써, 부호화된 다시점 영상을 보다 적은 양의 데이터로 나타낼 수 있다. 다시점 영상 부호화 장치(110)는 영상들 간의 중복성을 제거하기 위해 블록 기반의 인트라(Intra), 인터(Inter), 또는 인터뷰(Inter-View) 예측 방법을 이용할 수 있다.
다시점 영상 부호화 장치(110)는 현재 블록에 대해 다양한 움직임 벡터 후보들(motion vector candidates)을 식별하고, 움직임 벡터 후보들 중에서 현재 블록의 부호화 효율을 최대화할 수 있는 예측 움직임 벡터를 결정할 수 있다. 다시점 영상 부호화 장치(110)는 결정된 예측 움직임 벡터의 인덱스를 비트스트림을 통해 다시점 영상 복호화 장치(120)에 전송할 수 있다.
예를 들어, 다시점 영상 부호화 장치(110)는 부호화하고자 하는 현재 블록이 포함된 시점 영상과 다른 시점의 영상에서 현재 블록과 가장 유사한 예측 블록을 탐색할 수 있다. 또는, 다시점 영상 부호화 장치(110)는 현재 블록이 포함된 시점 영상의 이전에 부호화된 프레임에서 현재 블록과 가장 유사한 예측 블록을 탐색할 수 있다. 다시점 영상 부호화 장치(110)는 현재 블록과 예측 블록 간의 관계를 나타내는 예측 움직임 벡터를 예측 움직임 벡터의 인덱스로 나타내고, 예측 움직임 벡터의 인덱스에 대한 정보를 다시점 영상 복호화 장치(120)에 전송할 수 있다.
다시점 영상 복호화 장치(120)는 다시점 영상 부호화 장치(110)로부터 부호화된 다시점 영상을 비트스트림 형태로 수신할 수 있다. 또한, 다시점 영상 복호화 장치(120)는 비트스트림으로부터 복호화 과정에서 이용할 예측 움직임 벡터의 인덱스를 추출할 수 있다. 다시점 영상 복호화 장치(120)는 예측 움직임 벡터의 인덱스로부터 예측 움직임 벡터를 식별할 수 있다. 다시점 영상 복호화 장치(120)는 다시점 영상의 부호화 과정에 적용된 부호화 모드에 따라 예측 움직임 벡터에 기초하여 최종 움직임 벡터를 결정할 수 있다.
도 2는 일실시예에 따른 다시점 영상 부호화 장치를 도시한 도면이다.
도 2를 참조하면, 다시점 영상 부호화 장치(210)는 움직임 벡터 후보 식별부(230), 예측 움직임 벡터 결정부(240) 및 비트스트림 전송부(250)를 포함할 수 있다.
움직임 벡터 후보 식별부(230)는 제1 시점 영상 내 현재 블록의 부호화와 관련된 움직임 벡터 후보를 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 공간상 후보 벡터(spatial candidate vector), 시간상 후보 벡터(temporal candidate vector), 시점상 후보 벡터(inter-view candidate vector), 또는 변이 후보 벡터(disparity candidate vector)를 식별할 수 있다.
공간상 후보 벡터는 부호화하고자 하는 현재 블록에 이웃한 주변 블록의 움직임 벡터를 나타낸다. 움직임 벡터 후보 식별부(230)는 현재 블록에 이웃한 주변 블록이 움직임 벡터를 가지고 있는지 여부를 식별하여 주변 블록의 움직임 벡터를 공간상 후보 벡터로서 움직임 벡터 후보에 포함시킬 수 있다. 예를 들어, 움직임 벡터 후보 식별부(230)는 현재 블록의 좌측 블록, 현재 블록의 상단 블록, 현재 블록의 좌측 상단 블록, 또는 현재 블록의 우측 상단 블록이 움직임 벡터를 가지고 있는지 여부를 식별할 수 있다.
시간상 후보 벡터는 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 움직임 벡터를 나타낸다. 예를 들어, 현재 블록의 중심 위치가 (x, y)라고 가정하는 경우, 동위치 블록은 제1 시점 영상과 시간상으로 다른 위치에 존재하는 프레임 내에서 중심 위치가 (x, y)인 블록을 나타낸다. 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임은, 제1 시점 영상과 시간상으로 다른 위치에 존재하는 프레임으로서, 제1 시점 영상과 동일한 시점을 가진 프레임을 나타낸다.
시간상 후보 벡터는 동위치 블록에 이웃한 주변 블록의 움직임 벡터를 포함할 수 있다. 예를 들어, 동위치 블록의 주변 블록은 동위치 블록의 좌측 블록, 동위치 블록의 상단 블록, 동위치 블록의 우측 상단 블록, 또는 동위치 블록의 좌측 상단 블록을 포함할 수 있다. 움직임 벡터 후보 식별부(230)는 동위치 블록 또는 동위치 블록에 이웃한 주변 블록이 움직임 벡터를 가지고 있는지 여부를 식별하고, 동위치 블록의 움직임 벡터 및 동위치 블록에 이웃한 주변 블록의 움직임 벡터를 시간상 후보 벡터로서 움직임 벡터 후보에 포함시킬 수 있다.
시점상 후보 벡터는 현재 블록에 대응하는 제2 시점 영상 내 대응 블록의 움직임 벡터를 나타낸다. 제2 시점 영상은 제1 시점 영상과 다른 시점을 갖는 시점 영상을 나타낸다. 움직임 벡터 후보 식별부(230)는 제2 시점 영상의 대응 블록에 움직임 벡터가 존재하는 경우, 해당 움직임 벡터를 시점상 후보 벡터로서 움직임 벡터 후보에 포함시킬 수 있다.
움직임 벡터 후보 식별부(230)는 시점상 후보 벡터가 존재하는지 여부를 식별하기 위해 변이 벡터(disparity vector)를 이용할 수 있다. 예를 들어, 움직임 벡터 후보 식별부(230)는 시점상 후보 벡터가 존재하는지 여부를 식별하기 위해 현재 블록의 주변 블록의 변이 벡터, 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터, 또는 동위치 블록에 이웃한 주변 블록의 변이 벡터를 이용할 수 있다.
일실시예에 따르면, 움직임 벡터 후보 식별부(230)는 시점상 후보 벡터를 첫 번째 시점상 후보 벡터와 두 번째 시점상 후보 벡터로 분류하여 식별할 수 있다. 첫 번째 시점상 후보 벡터와 두 번째 시점상 후보 벡터가 동일한 경우, 움직임 벡터 후보 식별부(230)는 둘 중 어느 하나의 시점상 후보 벡터만을 움직임 벡터 후보에 포함시킬 수 있다.
예를 들어, 움직임 벡터 후보 식별부(230)는 첫 번째 시점상 후보 벡터를 현재 블록에 이웃한 주변 블록의 변이 벡터를 이용하여 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 현재 블록에 이웃한 주변 블록에 변이 벡터가 존재하지 않는 경우, 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터 및 동위치 블록의 주변 블록의 변이 벡터 중 적어도 하나에 기초하여 상기 시점상 후보 벡터가 존재하는지 여부를 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 두 번째 시점상 후보 벡터를 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터 및 동위치 블록의 주변 블록의 변이 벡터 중 적어도 하나를 이용하여 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 동위치 블록 및 동위치 블록에 이웃한 주변 블록에 변이 벡터가 존재하지 않는 경우, 현재 블록에 이웃한 주변 블록의 변이 벡터에 기초하여 시점상 후보 벡터가 존재하는지 여부를 식별할 수 있다.
다른 예로, 움직임 벡터 후보 식별부(230)는 첫 번째 시점상 후보 벡터를 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터 및 동위치 블록의 주변 블록의 변이 벡터 중 적어도 하나를 이용하여 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 동위치 블록 및 동위치 블록에 이웃한 주변 블록에 변이 벡터가 존재하지 않는 경우, 현재 블록에 이웃한 주변 블록의 변이 벡터에 기초하여 시점상 후보 벡터가 존재하는지 여부를 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 두 번째 시점상 후보 벡터를 현재 블록에 이웃한 주변 블록의 변이 벡터를 이용하여 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 현재 블록에 이웃한 주변 블록에 변이 벡터가 존재하지 않는 경우, 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터 및 동위치 블록의 주변 블록의 변이 벡터 중 적어도 하나에 기초하여 상기 시점상 후보 벡터가 존재하는지 여부를 식별할 수 있다.
다른 실시예에 따르면, 움직임 벡터 후보 식별부(230)는 현재 블록에 이웃한 주변 블록이 변이 벡터는 가지고 있지 않으나 움직임 벡터는 가지고 있는 경우, 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인지 여부를 판단할 수 있다. 움직임 벡터 후보 식별부(230)는 판단 결과, 주변 블록의 움직임 벡터가 변이 벡터를 이용하여 획득된 움직임 벡터인 경우에는, 해당 변이 벡터를 이용하여 시점상 후보 벡터의 존재 여부를 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 현재 블록에 이웃한 주변 블록이 변이 벡터는 가지고 있지 않으나 움직인 벡터는 가지고 있는 경우, 시점상 후보 벡터를 식별하는 과정의 복잡도(complexity)를 계산하고, 복잡도가 미리 설정된 임계값보다 큰 경우에는 시점상 후보 벡터를 움직임 벡터 후보에 포함시키지 않을 수 있다.
또한, 움직임 벡터 후보 식별부(230)는 동위치 블록 또는 동위치 블록에 이웃한 주변 블록이 변이 벡터는 가지고 있지 않으나 움직임 벡터는 가지고 있는 경우, 동위치 블록 또는 동위치 블록에 이웃한 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인지 여부를 판단할 수 있다. 움직임 벡터 후보 식별부(230)는 판단 결과, 동위치 블록 또는 동위치 블록에 이웃한 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인 경우에는 해당 변이 벡터를 이용하여 시점상 후보 벡터의 존재 여부를 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 동위치 블록 또는 동위치 블록에 이웃한 주변 블록이 변이 벡터는 가지고 있지 않으나 움직임 벡터는 가지고 있는 경우, 시점상 후보 벡터를 식별하는 과정의 복잡도를 계산하고, 복잡도가 미리 설정된 임계값보다 큰 경우에는 시점상 후보 벡터를 움직임 벡터 후보에 포함시키지 않을 수 있다.
현재 블록에 이웃한 주변 블록이 변이 벡터는 가지고 있지 않으나 움직임 벡터는 가지고 있는 경우, 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인지 여부를 판단할 수 있다. 움직임 벡터 후보 식별부(230)는 판단 결과, 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인 경우에는 해당 변이 벡터를 이용하여 시점상 후보 벡터의 존재 여부를 식별할 수 있다.
움직임 벡터 후보 식별부(230)는 시점상 후보 벡터가 존재하지 않는 경우, 영벡터(zero motion vector)를 현재 블록의 변이 벡터로 결정하고, 결정된 현재 블록의 변이 벡터에 기초하여 시점상 후보 벡터가 존재하는지 여부를 식별할 수 있다. 예를 들어, 움직임 벡터 후보 식별부(230)는 시점상 후보 벡터가 존재하지 않는 경우, 현재 블록의 변이 벡터를 영벡터로 설정하여, 다른 시점의 시점 영상에서 현재 블록에 대응되는 대응 블록의 움직임 벡터를 식별할 수 있다. 또는, 움직임 벡터 후보 식별부(230)는 시점상 후보 벡터가 존재하지 않는 경우, 영벡터를 시점상 후보 벡터로 결정할 수 있다.
다른 실시예에 따르면, 움직임 벡터 후보 식별부(230)는 현재 블록에 이웃한 주변 블록, 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록, 및 동위치 블록에 이웃한 주변 블록이 변이 벡터를 가지고 있지 않은 경우에는, 시점상 후보 벡터를 움직임 벡터 후보에 포함시키지 않을 수 있다.
또 다른 실시예에 따르면, 움직임 벡터 후보 식별부(230)는 시점상 후보 벡터가 존재하지 않는 경우에는, 시점상 후보 벡터를 움직임 벡터 후보에 포함시키지 않을 수 있다.
변이 후보 벡터는 현재 블록에 대응하는 제2 시점 영상 내 대응 블록을 탐색하는데 이용된 변이 벡터를 나타낸다. 예를 들어, 변이 후보 벡터는 현재 블록에 이웃한 주변 블록의 변이 벡터, 동위치 블록의 변이 벡터, 또는 동위치 블록에 이웃한 주변 블록의 변이 벡터 등을 포함할 수 있다. 움직임 벡터 후보 식별부(230)는 변이 후보 벡터의 존재 여부를 식별하고, 제2 시점 영상 내 대응 블록을 탐색하는데 이용된 변이 벡터를 변이 후보 벡터로서 움직임 벡터 후보에 포함시킬 수 있다.
예를 들어, 움직임 벡터 후보 식별부(230)는 현재 블록에 대한 변이 벡터를 찾으면, 해당 변이 벡터가 가리키는 제2 시점 영상 내 대응 블록을 탐색하고, 그 대응 블록의 움직임 벡터를 시점상 후보 벡터로 결정할 수 있다. 여기서, 움직임 벡터 후보 식별부(230)는 제2 시점 영상 내 대응 블록을 탐색하기 위해 이용한 변이 벡터를 변이 후보 벡터로 식별하여 움직임 벡터 후보에 포함시킬 수 있다.
시점상 후보 벡터를 첫 번째 시점상 후보 벡터와 두 번째 시점상 후보 벡터로 분류하여 식별하는 경우, 움직임 벡터 후보 식별부(230)는 각각의 시점상 후보 벡터와 관련된 두 개의 변이 후보 벡터를 식별할 수 있다. 움직임 벡터 후보 식별부(230)는 식별한 두 개의 변이 후보 벡터가 동일한 경우에는, 둘 중 어느 하나의 변이 후보 벡터만을 움직임 벡터 후보에 포함시킬 수 있다.
예측 움직임 벡터 결정부(240)는 식별된 움직임 벡터 후보에 기초하여 현재 블록의 부호화에 이용될 예측 움직임 벡터를 결정할 수 있다. 예측 움직임 벡터 결정부(240)는 여러 움직임 벡터 후보들 중에 가장 효율적인 움직임 벡터 후보를 결정할 수 있다. 예를 들어, 예측 움직임 벡터 결정부(240)는 현재 블록과 각각의 움직임 벡터 후보들이 가리키는 예측 블록 간의 유사성 정도를 판단하고, 현재 블록과 가장 유사한 예측 블록을 가리키는 움직임 벡터 후보를 예측 움직임 벡터로 결정할 수 있다. 예를 들어, 예측 움직임 벡터 결정부(240)는 현재 블록과 예측 블록 간의 차이를 표현하기 위한 필요 비트수를 최소로 하는 예측 블록을 식별하고, 식별된 예측 블록을 가리키는 움직임 벡터 후보를 예측 움직임 벡터로 결정할 수 있다.
비트스트림 전송부(250)는 예측 움직임 벡터의 인덱스를 비트스트림을 통해 다시점 영상 복호화 장치(220)에 전송할 수 있다.
부호화 모드가 머지 모드 또는 인터 모드인 경우, 비트스트림 전송부(250)는 부호화된 현재 블록과 예측 움직임 벡터가 가리키는 예측 블록의 잔차 신호를 비트스트림을 통해 다시점 영상 복호화 장치(220)에 전송할 수 있다.
일실시예에 따르면, 부호화되기 전의 잔차 신호는 제2 시점 영상을 부호화할 때 발생된 잔차 신호로부터 예측될 수 있다. 제2 시점 영상에서 발생된 잔차 신호(residual signal)를 예측하기 위해 변이 벡터를 이용할 수 있다. 제2 시점 영상에서 발생된 잔차 신호를 예측하기 위해 현재 블록에 이웃한 주변 블록의 변이 벡터, 동위치 블록의 변이 벡터, 또는 동위치 블록에 이웃한 주변 블록의 변이 벡터를 이용할 수 있다. 예를 들어, 현재 블록에 이웃한 주변 블록의 변이 벡터를 이용하여 제2 시점 영상에서 발생된 잔차 신호를 예측할 수 있고, 만약 현재 블록에 이웃한 주변 블록에 변이 벡터가 존재하지 않는다면, 동위치 블록의 변이 벡터 또는 동위치 블록에 이웃한 주변 블록의 변이 벡터를 이용할 수 있다. 다른 예로, 동위치 블록의 변이 벡터 또는 동위치 블록에 이웃한 주변 블록의 변이 벡터를 이용하여 제2 시점 영상에서 발생된 잔차 신호를 예측할 수 있고, 만약 동위치 블록 및 동위치 블록의 주변 블록에 변이 벡터가 존재하지 않는다면, 현재 블록에 이웃한 주변 블록의 변이 벡터를 이용할 수 있다. 다시점 영상 부호화 장치(210)는 현재 블록의 잔차 신호와 변이 벡터를 이용하여 식별한 제2 시점 영상에서 발생된 잔차 신호 간의 차분 신호를 부호화할 수 있다. 다시점 영상 부호화 장치(210)는 예측 블록이 제2 시점 영상을 이용하여 예측된 경우, 제2 시점 영상에서 발생된 잔차 신호를 예측하지 않을 수 있다. 다른 예로, 다시점 영상 부호화 장치(210)는 예측 블록이 제1 시점 영상과 동일한 시점의 영상과 제2 시점 영상을 함께 이용하여 예측된 경우, 제2 시점 영상에서 발생된 잔차 신호를 예측하지 않을 수 있다.
도 3은 일실시예에 따른 다시점 영상 복호화 장치를 도시한 도면이다.
도 3을 참조하면, 다시점 영상 복호화 장치(320)는 인덱스 추출부(330) 및 최종 움직임 벡터 결정부(340)를 포함할 수 있다.
인덱스 추출부(330)는 다시점 영상 부호화 장치(310)로부터 수신한 비트스트림에서 예측 움직임 벡터의 인덱스를 추출할 수 있다. 최종 움직임 벡터 결정부(340)는 예측 움직임 벡터의 인덱스에 기초하여 복호화하고자 하는 제1 시점 영상 내 현재 블록의 최종 움직임 벡터를 결정할 수 있다. 예를 들어, 최종 움직임 벡터 결정부(340)는 예측 움직임 벡터를 최종 움직임 벡터로 결정할 수 있다. 다른 실시예에 따르면, 최종 움직임 벡터 결정부(340)는 예측 움직임 벡터를 기초로 하여 현재 블록과 보다 유사한 예측 블록을 새로이 탐색할 수 있고, 새로이 탐색된 예측 블록에 기초하여 최종 움직임 벡터를 결정할 수 있다.
예측 움직임 벡터는 다시점 영상 부호화 장치(310)가 식별한 움직임 벡터 후보에 기초하여 결정될 수 있다. 움직임 벡터 후보는 시점상 후보 벡터, 공간상 후보 벡터, 시간상 후보 벡터, 및 변이 후보 벡터 중 적어도 하나를 포함할 수 있다.
공간상 후보 벡터는 부호화하고자 하는 현재 블록에 이웃한 주변 블록의 움직임 벡터를 나타낸다. 예를 들어, 공간상 후보 벡터는 현재 블록의 좌측 블록, 현재 블록의 상단 블록, 현재 블록의 좌측 상단 블록, 또는 현재 블록의 우측 상단 블록이 움직임 벡터를 포함할 수 있다.
시간상 후보 벡터는 제1 시점 영상 이전에 복호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 움직임 벡터를 나타낸다. 제1 시점 영상 이전에 복호화된 제1 시점 영상의 프레임은, 제1 시점 영상과 시간상으로 다른 위치에 존재하는 프레임으로서, 제1 시점 영상과 동일한 시점을 가진 프레임을 나타낸다. 시간상 후보 벡터는 동위치 블록에 이웃한 주변 블록의 움직임 벡터를 포함할 수 있다.
시점상 후보 벡터는 복호화하고자 하는 현재 블록에 대응하는 제2 시점 영상 내 대응 블록의 움직임 벡터를 나타낸다. 예를 들어, 시점상 후보 벡터는 현재 블록에 이웃한 주변 블록의 변이 벡터 및 제1 시점 영상 이전에 복호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터, 동위치 블록의 주변 블록의 변이 벡터, 또는 영벡터 등에 기초하여 결정될 수 있다.
변이 후보 벡터는 현재 블록에 대응하는 제2 시점 영상 내 대응 블록을 탐색하는데 이용된 변이 벡터를 나타낸다. 예를 들어, 변이 후보 벡터는 현재 블록에 이웃한 주변 블록의 변이 벡터, 동위치 블록의 변이 벡터, 또는 동위치 블록에 이웃한 주변 블록의 변이 벡터 등을 포함할 수 있다.
도 4는 일실시예에 따른 다시점 영상의 구조를 도시한 도면이다.
도 4를 참고하면, 일실시예에 따라 3개 시점(Left view, Center view, Right view)의 영상을 입력받았을 때, GOP(Group of Picture) '8'로 부호화하는 다시점 영상 부호화 방식(Multi-view Video Coding, MVC)을 나타낸다. GOP는 I-프레임으로 시작하는 연속적인 이미지들의 집합을 의미한다.
다시점(Multi-view) 영상을 부호화하는 과정에서는 기본적으로 시간(Temporal)축과 시점(View)축으로 계층적 B 영상(Hierarchical B Picture, 또는 계층적 B-프레임)의 개념을 이용하기 때문에 영상 간의 중복성(Redundancy)은 감소될 수 있다.
도 1의 다시점 영상 부호화 장치(110)는 도 4에 도시된 다시점 영상의 구조에 따라 좌측 영상(Left Picture: I-view)을 부호화하고, 우측 영상(Right Picture: P-view)과 중앙 영상(Center Picture: B-view)를 차례대로 부호화함으로써 3개 시점에 대응하는 영상을 부호화할 수 있다. 단, 다시점 영상 부호화 장치(110)는 우측 영상 또는 중앙 영상을 먼저 부호화할 수도 있으며, 위에 기재된 부호화 순서에 한정되는 것은 아니다.
좌측 영상을 부호화하는 과정에서, 움직임 추정(Motion Estimation)을 통해 이전 영상들에서 좌측 영상과 비슷한 영역을 탐색할 수 있고, 탐색된 영역의 정보를 이용함으로써 시간적 중복성은 감소될 수 있다. 좌측 영상 이후에 부호화되는 우측 영상은 이미 부호화된 좌측 영상을 참조하여 부호화되기 때문에, 움직임 추정을 통한 시간적 중복성 뿐만 아니라 변이 추정(Disparity Estimation)을 통한 시점간의 중복성(View Redundancy)도 감소될 수 있다. 또한, 중앙 영상은 이미 부호화된 좌측 영상과 우측 영상을 모두 참조하여 변이 추정을 통한 부호화를 수행할 수 있기 때문에, 시점간 중복성이 감소될 수 있다.
도 4를 참고하면, 다시점 영상을 부호화하는 과정에서, 좌측 영상과 같이 다른 시점의 영상을 이용하지 않고 부호화되는 영상은 I-View 영상, 우측 영상과 같이 다른 시점의 영상을 단방향으로 예측하여 부호화되는 영상은 P-View 영상, 그리고 중앙 영상과 같이 서로 다른 시점의 영상들을 양방향으로 예측하여 부호화되는 영상은 B-View 영상이라고 정의될 수 있다.
도 5는 일실시예에 따른 현재 블록을 코딩할 때 사용되는 참조 영상을 도시한 도면이다.
다시점 영상 부호화 장치는 현재 시점 영상 B (510)에 포함된 현재 블록을 부호화할 때, 현재 시점 영상 B (510)와 시점상으로 주변에 위치한 영상들(540, 550) 또는 현재 시점 영상 B (510)의 시간상으로 주변에 위치한 영상들(520, 530)을 참조 영상으로 이용할 수 있다. 예를 들어, 다시점 영상 부호화 장치는 주변에 위치한 영상들(520~550)에서 현재 블록과 가장 유사한 예측 블록을 식별하고, 현재 블록과 예측 블록 사이의 잔차 신호(Residue)를 부호화할 수 있다. H.264/AVC의 경우, 참조 영상을 이용하여 예측 블록을 탐색하는 부호화 모드는 SKIP(P Slice Only)/Direct(B Slice Only), 16x16, 16x8, 8x16, P8x8 모드 등을 포함할 수 있다. HEVC(high efficiency video coding)의 경우, 참조 영상을 이용하여 예측 블록을 탐색하는 부호화 모드는 Merge(SKIP/DIRECT), 2NX2N, NXN, 2NxN, NX2N 모드 등을 포함할 수 있다.
다시점 영상 부호화 장치는 현재 블록을 부호화하는 과정에서, 시간적 중복성을 감소시키기 위해 현재 시점 영상 B (510)에 대해 시간상으로 주변에 위치하는 참조 영상(520, 530)을 이용할 수 있다. 또한, 다시점 영상 부호화 장치는 시점간 중복성을 감소시키기 위해 현재 시점 영상에 대해 시점상 주변에 위치하는 참조 영상(540, 550)을 이용할 수 있다. 다시점 영상 부호화 장치는 시간적인 중복성을 제거하기 위해 Ref1 영상(520) 및 Ref2 영상(530)을 이용할 수 있고, 시점 간의 중복성을 제거하기 위해 Ref3 영상(540) 및 Ref4 영상(550)을 이용할 수 있다.
도 6은 일실시예에 따른 다시점 영상을 부호화할 때 사용되는 부호화 모드를 도시한 도면이다.
다시점 영상 부호화 장치는 코딩 단위 블록을 예측하는데 있어서, 시점 영상을 복수 개의 블록으로 세분화할 수 있으며, 세분화된 블록의 크기는 각각의 블록마다 다양할 수 있다. 다시점 영상 부호화 장치는 세분화된 블록들에 다양한 압축 모드(예를 들어, 머지(Merge) 모드, 인터 모드-2NX2N, NXN, 2NXN, NX2N 등-, 인트라 모드 등)를 적용할 수 있다. 다시점 영상 부호화 장치는 여러 부호화 모드 중 세분화된 블륵들 각각에 가장 적합한 부호화 모드를 결정하고, 결정된 부호화 모드에 따라 세분화된 블록을 부호화할 수 있다.
다양한 압축 모드 중 머지 모드는 부호화되는 블록들의 움직임 정보를 부호화하지 않기 때문에 다시점 영상을 부호화하여 전송하는데 필요한 비트량을 줄일 수 있다. 시점 영상을 부호화하는 과정에서 머지 모드가 많이 선택될수록 부호화 성능은 더욱 개선될 수 있다.
도 7은 일실시예에 따른 변이 벡터를 이용하여 시점상 후보 벡터를 식별하는 과정을 도시한 도면이다.
도 7를 참조하면, 다시점 영상 부호화 장치는 제1 시점 영상(710)에서 현재 블록(730)에 대한 변이 벡터(740)를 이용하여 현재 블록(730)의 부호화와 관련된 시점상 후보 벡터(760)를 식별할 수 있다.
예를 들어, 다시점 영상 부호화 장치는 현재 블록(730)의 주변 블록, 제1 시점 영상(710) 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록(730)과 동일한 위치에 있는 동위치 블록의 변이 벡터, 또는 동위치 블록에 이웃한 주변 블록의 변이 벡터(740)를 이용할 수 있다. 다시점 영상 부호화 장치는 변이 벡터(740)가 가리키는 제2 시점 영상(720) 내 대응 블록의 움직임 벡터(750)를 시점상 후보 벡터(760)로 결정할 수 있다.
다른 실시예에 따르면, 다시점 영상 부호화 장치는 영벡터를 현재 블록(730)의 변이 벡터(740)로 결정할 수 있고, 영벡터의 변이 벡터(740)에 기초하여 현재 블록(730)에 대응하는 제2 시점 영상(720) 내 대응 블록의 움직임 벡터(750)를 식별하여 시점상 후보 벡터(760)로 결정할 수 있다.
또 다른 실시예에 따르면, 다시점 영상 부호화 장치는 현재 블록(730)에 이웃한 주변 블록이 변이 벡터는 가지고 있지 않으나 움직임 벡터는 가지고 있고, 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인 경우에는 해당 변이 벡터(740)를 이용하여 시점상 후보 벡터(760)의 존재 여부를 식별할 수 있다. 다시점 영상 부호화 장치는 동위치 블록 또는 동위치 블록에 이웃한 주변 블록이 변이 벡터는 가지고 있지는 않으나 움직임 벡터는 가지고 있고, 동위치 블록 또는 동위치 블록에 이웃한 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인 경우, 해당 변이 벡터(740)를 이용하여 시점상 후보 벡터(760)의 존재 여부를 식별할 수 있다.
도 8은 일실시예에 따른 변이 벡터를 유도하는 과정을 설명하기 위한 도면이다.
도 8을 참조하면, (a)는 다시점 영상 부호화 장치가 시점상 후보 벡터를 식별하기 위해 현재 블록(810)의 주변 블록(820)을 이용하여 변이 벡터를 유도하는 과정을 설명하기 위한 것이다. (a)에서, 현재 블록(810)에 이웃한 주변 블록(820)의 움직임 벡터는 공간상 후보 벡터에 대응될 수 있다. 다시점 영상 부호화 장치는 현재 블록(810)에 이웃한 주변 블록(820)의 변이 벡터를 이용하여 제2 시점 영상 내 대응 블록이 가지는 움직임 벡터를 시점상 후보 벡터를 식별할 수 있다.
(b)는 다시점 영상 부호화 장치가 시점상 후보 벡터를 식별하기 위해 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록(830), 또는 동위치 블록(830)에 이웃한 주변 블록(840)을 이용하여 변이 벡터를 유도하는 과정을 설명하기 위한 것이다. (b)에서, 동위치 블록(830)의 움직임 벡터 및 동위치 블록(830)에 이웃한 주변 블록(840)의 움직임 벡터는 시간상 후보 벡터에 대응될 수 있다. 다시점 영상 부호화 장치는 동위치 블록(830)의 변이 벡터 또는 동위치 블록(830)에 이웃한 주변 블록(840)의 변이 벡터를 이용하여 제2 시점 영상 내 대응 블록이 가지는 움직임 벡터를 시점상 후보 벡터를 식별할 수 있다.
도 9는 일실시예에 따른 다시점 영상을 부호화하는 방법을 도시한 흐름도이다.
단계(910)에서, 다시점 영상 부호화 장치는 제1 시점 영상 내 현재 블록의 부호화와 관련된 움직임 벡터 후보를 식별할 수 있다. 다시점 영상 부호화 장치는 공간상 후보 벡터, 시간상 후보 벡터, 시점상 후보 벡터, 또는 변이 후보 벡터를 식별할 수 있다.
다시점 영상 부호화 장치는 현재 블록에 이웃한 주변 블록이 움직임 벡터를 가지고 있는지 여부를 식별하여 주변 블록의 움직임 벡터를 공간상 후보 벡터로서 움직임 벡터 후보에 포함시킬 수 있다. 다시점 영상 부호화 장치는 동위치 블록 또는 동위치 블록에 이웃한 주변 블록이 움직임 벡터를 가지고 있는지 여부를 식별하고, 동위치 블록의 움직임 벡터 및 동위치 블록에 이웃한 주변 블록의 움직임 벡터를 시간상 후보 벡터로서 움직임 벡터 후보에 포함시킬 수 있다.
다시점 영상 부호화 장치는 제2 시점 영상의 대응 블록에 움직임 벡터가 존재하는 경우, 해당 움직임 벡터를 시점상 후보 벡터로서 움직임 벡터 후보에 포함시킬 수 있다. 다시점 영상 부호화 장치는 시점상 후보 벡터가 존재하는지 여부를 식별하기 위해 변이 벡터를 이용할 수 있다. 다시점 영상 부호화 장치는 시점상 후보 벡터가 존재하는지 여부를 식별하기 위해, 현재 블록에 이웃한 주변 블록의 변이 벡터, 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터, 동위치 블록에 이웃한 주변 블록의 변이 벡터, 또는 영벡터를 이용할 수 있다.
일실시예에 따르면, 다시점 영상 부호화 장치는 시점상 후보 벡터를 첫 번째 시점상 후보 벡터와 두 번째 시점상 후보 벡터로 분류하여 식별할 수 있다. 첫 번째 시점상 후보 벡터와 두 번째 시점상 후보 벡터가 동일한 경우, 다시점 영상 부호화 장치는 하나의 시점상 후보 벡터만을 움직임 벡터 후보에 포함시킬 수 있다.
다른 실시예에 따르면, 다시점 영상 부호화 장치는 시점상 후보 벡터가 존재하지 않는 경우, 영벡터를 현재 블록의 변이 벡터로 결정하고, 결정된 현재 블록의 변이 벡터에 기초하여 시점상 후보 벡터가 존재하는지 여부를 식별할 수 있다. 또 다른 실시예에 따르면, 다시점 영상 부호화 장치는 시점상 후보 벡터가 존재하지 않는 경우에는 시점상 후보 벡터를 움직임 벡터 후보에 포함시키지 않을 수 있다.
다시점 영상 부호화 장치는 변이 후보 벡터의 존재 여부를 식별하고, 제2 시점 영상 내 대응 블록을 탐색하는데 이용된 변이 벡터를 변이 후보 벡터로서 움직임 벡터 후보에 포함시킬 수 있다.
단계(920)에서, 다시점 영상 부호화 장치는 예측 움직임 벡터 결정부는 식별된 움직임 벡터 후보에 기초하여 현재 블록의 부호화에 이용될 예측 움직임 벡터를 결정할 수 있다. 다시점 영상 부호화 장치는 여러 움직임 벡터 후보들 중에 가장 효율적인 움직임 벡터 후보를 결정할 수 있다.
단계(930)에서, 다시점 영상 부호화 장치는 예측 움직임 벡터의 인덱스를 비트스트림을 통해 다시점 영상 복호화 장치에 전송할 수 있다.
도 10은 일실시예에 따른 다시점 영상을 복호화하는 방법을 도시한 흐름도이다.
단계(1010)에서, 다시점 영상 복호화 장치는 다시점 영상 부호화 장치로부터 수신한 비트스트림에서 예측 움직임 벡터의 인덱스를 추출할 수 있다. 예측 움직임 벡터는 다시점 영상 부호화 장치가 식별한 움직임 벡터 후보에 기초하여 결정될 수 있다. 움직임 벡터 후보는 시점상 후보 벡터, 공간상 후보 벡터, 시간상 후보 벡터, 및 변이 후보 벡터 중 적어도 하나를 포함할 수 있다.
공간상 후보 벡터는 부호화하고자 하는 현재 블록에 이웃한 주변 블록의 움직임 벡터를 나타낸다. 시간상 후보 벡터는 제1 시점 영상 이전에 복호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 움직임 벡터를 나타낸다. 제1 시점 영상 이전에 복호화된 제1 시점 영상의 프레임은, 제1 시점 영상과 시간상으로 다른 위치에 존재하는 프레임으로서, 제1 시점 영상과 동일한 시점을 가진 프레임을 나타낸다. 시간상 후보 벡터는 동위치 블록에 이웃한 주변 블록의 움직임 벡터를 포함할 수 있다.
시점상 후보 벡터는 복호화하고자 하는 현재 블록에 대응하는 제2 시점 영상 내 대응 블록의 움직임 벡터를 나타낸다. 시점상 후보 벡터는 현재 블록에 이웃한 주변 블록의 변이 벡터 및 제1 시점 영상 이전에 복호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터, 동위치 블록의 주변 블록의 변이 벡터, 및 영벡터 중 적어도 하나에 기초하여 결정될 수 있다.
변이 후보 벡터는 현재 블록에 대응하는 제2 시점 영상 내 대응 블록을 탐색하는데 이용된 변이 벡터를 나타낸다. 예를 들어, 변이 후보 벡터는 현재 블록에 이웃한 주변 블록의 변이 벡터, 동위치 블록의 변이 벡터, 또는 동위치 블록에 이웃한 주변 블록의 변이 벡터 등을 포함할 수 있다.
단계(1020)에서, 다시점 영상 복호화 장치는 예측 움직임 벡터의 인덱스에 기초하여 복호화하고자 하는 제1 시점 영상 내 현재 블록의 최종 움직임 벡터를 결정할 수 있다. 예를 들어, 다시점 영상 복호화 장치는 예측 움직임 벡터를 최종 움직임 벡터로 결정할 수 있다. 다른 실시예에 따르면, 다시점 영상 복호화 장치는 예측 움직임 벡터를 기초로 하여 현재 블록과 보다 유사한 예측 블록을 새로이 탐색할 수 있고, 새로이 탐색된 예측 블록에 기초하여 최종 움직임 벡터를 결정할 수 있다. 다시점 영상 복호화 장치는 최종 움직임 벡터가 결정되면, 최종 움직임 벡터가 가리키는 최종 예측 블록에 기초하여 현재 블록을 복원할 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (21)

  1. 제1 시점 영상 내 현재 블록의 부호화와 관련된 움직임 벡터 후보를 식별하는 단계;
    상기 식별된 움직임 벡터 후보에 기초하여 상기 현재 블록의 부호화에 이용될 예측 움직임 벡터를 결정하는 단계; 및
    상기 예측 움직임 벡터의 인덱스를 비트스트림을 통해 다시점 영상 복호화 장치에 전송하는 단계
    를 포함하고,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 현재 블록에 대응하는 제2 시점 영상 내 대응 블록의 움직임 벡터를 나타내는 시점상 후보 벡터(inter-view candidate vector)가 존재하는지 여부를 식별하는 다시점 영상 부호화 방법.
  2. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 현재 블록에 이웃한 주변 블록의 변이 벡터에 기초하여 상기 시점상 후보 벡터가 존재하는지 여부를 식별하는 다시점 영상 부호화 방법.
  3. 제2항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 현재 블록에 이웃한 주변 블록에 변이 벡터가 존재하지 않는 경우, 상기 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터 및 상기 동위치 블록의 주변 블록의 변이 벡터 중 적어도 하나에 기초하여 상기 시점상 후보 벡터가 존재하는지 여부를 식별하는 다시점 영상 부호화 방법.
  4. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터 및 상기 동위치 블록의 주변 블록의 변이 벡터 중 적어도 하나에 기초하여 상기 시점상 후보 벡터가 존재하는지 여부를 식별하는 다시점 영상 부호화 방법.
  5. 제4항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 동위치 블록의 변이 벡터 및 상기 동위치 블록에 이웃한 주변 블록에 변이 벡터가 존재하지 않는 경우, 상기 현재 블록에 이웃한 주변 블록의 변이 벡터에 기초하여 상기 시점상 후보 벡터가 존재하는지 여부를 식별하는 다시점 영상 부호화 방법.
  6. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 시점상 후보 벡터가 존재하지 않는 경우, 영벡터를 상기 현재 블록의 변이 벡터로 결정하고, 상기 결정된 변이 벡터에 기초하여 상기 시점상 후보 벡터가 존재하는지 여부를 식별하는 다시점 영상 부호화 방법.
  7. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 시점상 후보 벡터가 존재하지 않는 경우, 영벡터를 시점상 후보 벡터로 결정하는 단계
    를 포함하는 다시점 영상 부호화 방법.
  8. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 현재 블록에 이웃한 주변 블록의 움직임 벡터를 나타내는 공간상 후보 벡터(spatial candidate vector)가 존재하는지 여부를 식별하는 다시점 영상 부호화 방법.
  9. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 움직임 벡터 및 상기 동위치 블록에 이웃한 주변 블록의 움직임 벡터를 나타내는 시간상 후보 벡터(temporal candidate vector)가 존재하는지 여부를 식별하는 다시점 영상 부호화 방법.
  10. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 현재 블록에 대응하는 제2 시점 영상 내 대응 블록을 탐색하는데 이용된 변이 벡터를 나타내는 변이 후보 벡터(disparity candidate vector)의 존재 여부를 식별하는 다시점 영상 부호화 방법.
  11. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 현재 블록에 이웃한 주변 블록, 상기 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록, 및 상기 동위치 블록에 이웃한 주변 블록이 변이 벡터를 가지고 있지 않은 경우, 상기 시점상 후보 벡터를 상기 움직임 벡터 후보에 포함시키지 않는 다시점 영상 부호화 방법.
  12. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 현재 블록에 이웃한 주변 블록이 변이 벡터는 가지고 있지 않으나 움직임 벡터는 가지고 있는 경우, 상기 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인지 여부를 판단하는 단계; 및
    상기 판단 결과, 상기 주변 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인 경우, 상기 변이 벡터를 이용하여 시점상 후보 벡터의 존재 여부를 식별하는 단계
    를 포함하는 다시점 영상 부호화 방법.
  13. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 제1 시점 영상 이전에 부호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록이 변이 벡터는 가지고 있지 않으나 움직임 벡터는 가지고 있는 경우, 상기 동위치 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인지 여부를 판단하는 단계; 및
    상기 판단 결과, 상기 동위치 블록의 움직임 벡터가 변이 벡터에 기초하여 획득된 움직임 벡터인 경우, 상기 변이 벡터를 이용하여 시점상 후보 벡터의 존재 여부를 식별하는 단계
    를 포함하는 다시점 영상 부호화 방법.
  14. 제1항에 있어서,
    상기 움직임 벡터 후보를 식별하는 단계는,
    상기 시점상 후보 벡터가 존재하지 않는 경우, 상기 시점상 후보 벡터를 상기 움직임 벡터 후보에 포함시키지 않는 다시점 영상 부호화 방법.
  15. 다시점 영상 부호화 장치로부터 수신한 비트스트림에서 예측 움직임 벡터의 인덱스를 추출하는 단계; 및
    상기 예측 움직임 벡터의 인덱스에 기초하여 복호화하고자 하는 제1 시점 영상 내 현재 블록의 최종 움직임 벡터를 결정하는 단계
    를 포함하고,
    상기 예측 움직임 벡터는, 상기 다시점 영상 부호화 장치가 식별한 움직임 벡터 후보에 기초하여 결정되고,
    상기 움직임 벡터 후보는, 시점상 후보 벡터, 공간상 후보 벡터, 시간상 후보 벡터, 및 변이 후보 벡터 중 적어도 하나를 포함하는 다시점 영상 복호화 방법.
  16. 제15항에 있어서,
    상기 시점상 후보 벡터는,
    상기 현재 블록에 대응하는 제2 시점 영상 내 대응 블록의 움직임 벡터를 나타내는 다시점 영상 복호화 방법.
  17. 제16항에 있어서,
    상기 시점상 후보 벡터는,
    상기 현재 블록에 이웃한 주변 블록의 변이 벡터 및 제1 시점 영상 이전에 복호화된 제1 시점 영상의 프레임 내에서 현재 블록과 동일한 위치에 있는 동위치 블록의 변이 벡터 및 상기 동위치 블록의 주변 블록의 변이 벡터 중 적어도 하나에 기초하여 결정된 시점상 후보 벡터를 포함하는 다시점 영상 복호화 방법.
  18. 제15항에 있어서,
    상기 변이 후보 벡터는,
    상기 현재 블록에 대응하는 제2 시점 영상 내 대응 블록을 탐색하는데 이용된 변이 벡터를 나타내는 다시점 영상 복호화 방법.
  19. 제1항 내지 제18항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.
  20. 제1 시점 영상 내 현재 블록의 부호화와 관련된 움직임 벡터 후보를 식별하는 움직임 벡터 후보 식별부;
    상기 식별된 움직임 벡터 후보에 기초하여 상기 현재 블록의 부호화에 이용될 예측 움직임 벡터를 결정하는 예측 움직임 벡터 결정부; 및
    상기 예측 움직임 벡터의 인덱스를 비트스트림을 통해 다시점 영상 복호화 장치에 전송하는 비트스트림 전송부
    를 포함하고,
    상기 움직임 벡터 후보 식별부는,
    상기 현재 블록에 대응하는 제2 시점 영상 내 대응 블록의 움직임 벡터를 나타내는 시점상 후보 벡터가 존재하는지 여부를 식별하는 다시점 영상 부호화 장치.
  21. 다시점 영상 부호화 장치로부터 수신한 비트스트림에서 예측 움직임 벡터의 인덱스를 추출하는 인덱스 추출부; 및
    상기 예측 움직임 벡터의 인덱스에 기초하여 복호화하고자 하는 제1 시점 영상 내 현재 블록의 최종 움직임 벡터를 결정하는 최종 움직임 벡터 결정부
    를 포함하고,
    상기 예측 움직임 벡터는, 상기 다시점 영상 부호화 장치가 식별한 움직임 벡터 후보에 기초하여 결정되고,
    상기 움직임 벡터 후보는, 시점상 후보 벡터, 공간상 후보 벡터, 시간상 후보 벡터, 및 변이 후보 벡터 중 적어도 하나를 포함하는 다시점 영상 복호화 장치.
PCT/KR2013/008564 2012-09-28 2013-09-25 다시점 영상 부호화/복호화 장치 및 방법 WO2014051321A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201380051015.4A CN104782126B (zh) 2012-09-28 2013-09-25 用于对多视点图像进行编码/解码的设备和方法
US14/432,404 US9900620B2 (en) 2012-09-28 2013-09-25 Apparatus and method for coding/decoding multi-view image

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201261707537P 2012-09-28 2012-09-28
US61/707,537 2012-09-28
US201261746276P 2012-12-27 2012-12-27
US61/746,276 2012-12-27
KR10-2013-0112745 2013-09-23
KR1020130112745A KR102186605B1 (ko) 2012-09-28 2013-09-23 다시점 영상 부호화/복호화 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2014051321A1 true WO2014051321A1 (ko) 2014-04-03

Family

ID=50388627

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/008564 WO2014051321A1 (ko) 2012-09-28 2013-09-25 다시점 영상 부호화/복호화 장치 및 방법

Country Status (1)

Country Link
WO (1) WO2014051321A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070011147A (ko) * 2005-07-18 2007-01-24 한국전자통신연구원 시간 및 시점간 참조영상 버퍼를 활용한 예측부호화/복호화장치 및 그 방법
WO2011031030A2 (ko) * 2009-09-10 2011-03-17 에스케이텔레콤 주식회사 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2011062392A2 (ko) * 2009-11-18 2011-05-26 에스케이텔레콤 주식회사 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US20120014614A1 (en) * 2010-07-16 2012-01-19 Sony Corporation Image processing apparatus and image processing method
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070011147A (ko) * 2005-07-18 2007-01-24 한국전자통신연구원 시간 및 시점간 참조영상 버퍼를 활용한 예측부호화/복호화장치 및 그 방법
WO2011031030A2 (ko) * 2009-09-10 2011-03-17 에스케이텔레콤 주식회사 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
WO2011062392A2 (ko) * 2009-11-18 2011-05-26 에스케이텔레콤 주식회사 후보 예측 움직임 벡터 집합 선택을 이용한 움직임 벡터 부호화/복호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US20120014614A1 (en) * 2010-07-16 2012-01-19 Sony Corporation Image processing apparatus and image processing method
KR20120080122A (ko) * 2011-01-06 2012-07-16 삼성전자주식회사 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법

Similar Documents

Publication Publication Date Title
WO2010068020A9 (ko) 다시점 영상 부호화, 복호화 방법 및 그 장치
RU2769146C1 (ru) Способ и устройство для обработки сигналов видео с использованием интер-предсказания
RU2705435C1 (ru) Способ и устройство для кодирования информации движения, а также способ и устройство для ее декодирования
WO2012144829A2 (en) Method and apparatus for encoding and decoding motion vector of multi-view video
WO2012081877A2 (ko) 다시점 비디오 부호화/복호화 장치 및 방법
WO2011139099A2 (ko) 비디오 신호의 처리 방법 및 장치
BR112019025566A2 (pt) Predição de vetor de movimento
WO2010123203A2 (ko) 다시점 영상의 참조 픽쳐 리스트 변경 방법
WO2012144821A2 (en) Method and apparatus for unified scalable video encoding for multi-view video and method and apparatus for unified scalable video decoding for multi-view video
WO2010087589A2 (ko) 경계 인트라 코딩을 이용한 비디오 신호 처리 방법 및 장치
WO2014107083A1 (ko) 비디오 신호 처리 방법 및 장치
WO2014010935A1 (ko) 비디오 신호 처리 방법 및 장치
KR102137266B1 (ko) 움직임 벡터와 변이 벡터를 예측하는 영상 처리 방법 및 장치
WO2014010918A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013176485A1 (ko) 비디오 신호 처리 방법 및 장치
KR20120080122A (ko) 경쟁 기반의 다시점 비디오 부호화/복호화 장치 및 방법
WO2013191436A1 (ko) 비디오 신호 처리 방법 및 장치
KR102186605B1 (ko) 다시점 영상 부호화/복호화 장치 및 방법
WO2013133587A1 (ko) 비디오 신호 처리 방법 및 장치
WO2013002620A2 (ko) 스킵 모드를 이용한 모션 정보 부호화 방법 및 장치, 그 복호화 방법 및 장치
WO2016003209A1 (ko) 다시점 비디오 신호 처리 방법 및 장치
WO2018070568A1 (ko) 복호화기 기반의 화면 내 예측 모드 추출 기술을 사용하는 비디오 코딩 방법 및 장치
WO2014051321A1 (ko) 다시점 영상 부호화/복호화 장치 및 방법
WO2015152504A1 (ko) 시점 간 움직임 병합 후보 유도 방법 및 장치
WO2013032071A1 (ko) 가상 시점 합성 예측을 이용한 부호화/복호화 장치 및 부호화/복호화 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13841785

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14432404

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 13841785

Country of ref document: EP

Kind code of ref document: A1