WO2010146696A1 - 動画像符号化装置及び動画像復号化装置 - Google Patents

動画像符号化装置及び動画像復号化装置 Download PDF

Info

Publication number
WO2010146696A1
WO2010146696A1 PCT/JP2009/061130 JP2009061130W WO2010146696A1 WO 2010146696 A1 WO2010146696 A1 WO 2010146696A1 JP 2009061130 W JP2009061130 W JP 2009061130W WO 2010146696 A1 WO2010146696 A1 WO 2010146696A1
Authority
WO
WIPO (PCT)
Prior art keywords
block
prediction
encoding
unit
decoding
Prior art date
Application number
PCT/JP2009/061130
Other languages
English (en)
French (fr)
Inventor
沙織 浅香
中條 健
昭行 谷沢
豪毅 安田
直史 和田
隆志 渡辺
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to JP2011519374A priority Critical patent/JP5242784B2/ja
Priority to BR122021002161-9A priority patent/BR122021002161B1/pt
Priority to EP14158493.8A priority patent/EP2765779B1/en
Priority to MX2011013707A priority patent/MX2011013707A/es
Priority to BR122020003111-5A priority patent/BR122020003111B1/pt
Priority to PT202052841T priority patent/PT3809703T/pt
Priority to PL20205284.1T priority patent/PL3809703T3/pl
Priority to CA2765828A priority patent/CA2765828C/en
Priority to EP23188518.7A priority patent/EP4254961A3/en
Priority to HRP20231396TT priority patent/HRP20231396T1/hr
Priority to EP18193270.8A priority patent/EP3448031B1/en
Priority to BR122015029294A priority patent/BR122015029294A2/pt
Priority to EP17153817.6A priority patent/EP3179721B1/en
Priority to LTEP20205284.1T priority patent/LT3809703T/lt
Priority to LTEP18193270.8T priority patent/LT3448031T/lt
Priority to AU2009348128A priority patent/AU2009348128B2/en
Priority to SI200932186T priority patent/SI3809703T1/sl
Priority to HUE18193270A priority patent/HUE053386T2/hu
Priority to ES20205284T priority patent/ES2963468T3/es
Priority to EP14158486.2A priority patent/EP2768228B1/en
Priority to EP14158488.8A priority patent/EP2765778B1/en
Priority to DK20205284.1T priority patent/DK3809703T3/da
Priority to PCT/JP2009/061130 priority patent/WO2010146696A1/ja
Priority to HUE20205284A priority patent/HUE065097T2/hu
Priority to BRPI0924908-7A priority patent/BRPI0924908B1/pt
Priority to SI200932109T priority patent/SI3448031T1/sl
Priority to ES18193270T priority patent/ES2850074T3/es
Priority to EP20205284.1A priority patent/EP3809703B1/en
Priority to DK18193270.8T priority patent/DK3448031T3/da
Priority to PL18193270T priority patent/PL3448031T3/pl
Priority to EP14158491.2A priority patent/EP2768229B1/en
Priority to FIEP20205284.1T priority patent/FI3809703T3/fi
Priority to CN200980159915.4A priority patent/CN102461172B/zh
Priority to KR1020117029341A priority patent/KR101368053B1/ko
Priority to BR122021002162-7A priority patent/BR122021002162B1/pt
Priority to EP12178726.1A priority patent/EP2530937B1/en
Priority to RU2012101644/08A priority patent/RU2486692C1/ru
Priority to PT181932708T priority patent/PT3448031T/pt
Priority to EP09846189.0A priority patent/EP2445215B1/en
Publication of WO2010146696A1 publication Critical patent/WO2010146696A1/ja
Priority to US13/325,856 priority patent/US9167273B2/en
Priority to US14/192,485 priority patent/US9307242B2/en
Priority to US14/201,471 priority patent/US20140185685A1/en
Priority to US14/201,429 priority patent/US20140192888A1/en
Priority to US14/201,412 priority patent/US9628794B2/en
Priority to US14/201,454 priority patent/US9602815B2/en
Priority to US15/446,477 priority patent/US9979980B2/en
Priority to US15/826,438 priority patent/US10880568B2/en
Priority to US15/826,457 priority patent/US10341676B2/en
Priority to US16/254,734 priority patent/US10939133B2/en
Priority to US17/155,727 priority patent/US11265571B2/en
Priority to HRP20210210TT priority patent/HRP20210210T1/hr
Priority to CY20211100150T priority patent/CY1123899T1/el
Priority to US17/579,685 priority patent/US11729413B2/en
Priority to US18/342,255 priority patent/US20230345037A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Definitions

  • the present invention relates to a moving image encoding device and a moving image decoding device that obtain motion vectors from encoded and decoded images and perform motion compensation prediction.
  • motion compensation prediction One of the techniques used for video coding is motion compensation prediction.
  • motion-compensated prediction a motion vector is obtained using an encoding target image to be newly encoded in the video encoding device and a local decoded image that has already been obtained, and motion compensation is performed using the motion vector. Thus, a predicted image is generated.
  • a direct mode in which a prediction image is generated using a motion vector of an encoding target block derived from a motion vector of an already encoded block (Japanese Patent No. 4020789). No. and U.S. Pat. No. 7,233,621).
  • the direct mode since the motion vector is not encoded, the code amount of the motion vector information can be reduced.
  • the direct mode is H.264. H.264 / AVC.
  • the motion vector of the encoding target block is predicted and generated, the motion vector is calculated by a fixed method of calculating the motion vector from the median value of the motion vector of the encoded block adjacent to the encoding target block. Generate. Therefore, the freedom degree of motion vector calculation is low.
  • the position of the block is always set. It must be sent as motion vector selection information. For this reason, the code amount increases.
  • the present invention provides a moving image encoding device and a moving image decoding device that reduce the additional information of motion vector selection information while selecting one of the encoded blocks to increase the degree of freedom of motion vector calculation. With the goal.
  • One aspect of the present invention is a moving picture coding apparatus that performs motion compensation prediction coding of a moving picture, and an available block that is a block having a motion vector from a coded block adjacent to a coding target block and the use
  • An obtaining unit that obtains the number of possible blocks; an encoded block; a selection unit that selects one selected block from the available blocks; and a code table corresponding to the number of available blocks
  • a video encoding apparatus comprising: a selection information encoding unit that encodes selection information to be identified; and an image encoding unit that performs motion compensation prediction encoding on the encoding target block using a motion vector included in the selection block. I will provide a.
  • Another aspect of the present invention is a moving picture decoding apparatus that performs motion compensation prediction decoding of a moving picture, and is a code table according to the number of available blocks that are adjacent decoded blocks having motion vectors adjacent to the decoding target block.
  • a selection information decoding unit that decodes selection information
  • a motion vector selection unit that selects one motion vector indicated by the selection information decoded by the selection information decoding unit from the available blocks, and the motion
  • a moving picture decoding apparatus including an image decoding unit that performs motion compensation prediction decoding on a decoding target image using a motion vector selected by a vector selection unit.
  • FIG. 1 is a block diagram of a video encoding apparatus according to an embodiment of the present invention.
  • the flowchart which shows the process sequence of a moving image encoder.
  • the flowchart which shows the process sequence of an acquisition part / selection part Diagram explaining the discrimination method based on block size Diagram explaining the discrimination method based on block size Diagram explaining the discrimination method based on block size
  • the figure explaining the discrimination method by unidirectional or bidirectional prediction Flow chart showing processing procedure of selection information encoding unit Example of index of selection information Example of code table of selection information Outline of syntax structure Macroblock layer data structure Block diagram of a video decoding apparatus according to an embodiment of the present invention
  • the flowchart which shows the process sequence of a moving image decoding apparatus.
  • the subtractor 101 is configured to calculate a difference between the input moving image signal 11 and the predicted image signal 15 and output a prediction error signal 12.
  • the output terminal of the subtractor 101 is connected to the variable length encoder 111 via the orthogonal transformer 102 and the quantizer 103.
  • the orthogonal transformer 102 orthogonally transforms the prediction error signal 12 from the subtractor 101 to generate orthogonal transform coefficients, and the quantizer 103 quantizes the orthogonal transform coefficients and outputs quantized orthogonal transform coefficient information 13.
  • the variable length encoder 111 performs variable length encoding on the quantized orthogonal transform coefficient information 13 from the quantizer 103.
  • the output terminal of the quantizer 103 is connected to an adder 106 via an inverse quantizer 104 and an inverse orthogonal transformer 105.
  • the inverse quantizer 104 inverse quantizes the quantized orthogonal transform coefficient information 13 and transforms it into orthogonal transform coefficients.
  • the inverse orthogonal transformer 105 converts the orthogonal transform coefficient into a prediction error signal.
  • the adder 106 adds the prediction error signal of the inverse orthogonal transformer 105 and the prediction image signal 15 to generate a local decoded image signal 14.
  • the output terminal of the adder 105 is connected to the motion compensation predictor 108 via the frame memory 107.
  • the frame memory 107 stores the locally decoded image signal 14.
  • the setting unit 114 sets the motion compensation prediction mode (prediction mode) of the encoding target block.
  • the prediction mode includes unidirectional prediction using one reference image and bidirectional prediction using two reference images.
  • Unidirectional prediction includes AVC L0 prediction and L1 prediction.
  • the motion compensation predictor 108 includes a predictor 109 and an acquisition / selection unit 110.
  • the acquisition unit / selection unit 110 obtains an available block that is a block having a motion vector and the number of the available blocks from the encoded blocks adjacent to the encoding target block, and selects one selected block from the available blocks. select.
  • the motion compensated predictor 108 generates a predicted image signal 15 from the local decoded image signal 14 and the input moving image signal 11 from the frame memory 107.
  • the acquisition unit / selection unit 110 selects one block (selected block) from adjacent blocks adjacent to the encoding target block. For example, a block having an appropriate motion vector among adjacent blocks is selected as the selected block.
  • the acquisition unit / selection unit 110 selects the motion vector included in the selected block as the motion vector 16 used for motion compensation prediction, and sends the motion vector to the predictor 109. Also, the acquisition unit / selection unit 110 generates selection information 17 of the selected block and sends it to the variable length encoder 111.
  • the variable length encoder 111 has a selection information encoder 112.
  • the selection information encoding unit 112 performs variable-length encoding on the selection information 17 while switching the code table so that the code table has the same number of entries as the number of blocks that can be used in the encoded block.
  • An available block is a block having a motion vector among encoded blocks adjacent to the encoding target block.
  • a multiplexer (multiplexer) 113 multiplexes the encoded quantized orthogonal transform coefficient information and selection information, and outputs encoded data.
  • a prediction error signal 12 is generated (S11).
  • a motion vector is selected, and a predicted image is generated using the selected motion vector.
  • the difference between the predicted image signal, that is, the predicted image signal 15 and the input moving image signal 11 is calculated by the subtractor 101, whereby the prediction error signal 12 is generated.
  • the orthogonal transform is performed on the prediction error signal 12 by the orthogonal transformer 102, and an orthogonal transform coefficient is generated (S12).
  • the orthogonal transform coefficient is quantized by the quantizer 103 (S13).
  • the quantized orthogonal transform coefficient information is inversely quantized by the inverse quantizer 104 (S14), and then inversely orthogonally transformed by the inverse orthogonal transformer 105 to obtain a reproduced prediction error signal (S15).
  • the adder 106 adds the reproduced prediction error signal and the predicted image signal 15 to generate a locally decoded image signal 14 (S16).
  • the locally decoded image signal 14 is accumulated (as a reference image) in the frame memory 107 (S17), and the locally decoded image signal read from the frame memory 107 is input to the motion compensation predictor 108.
  • the predictor 109 of the motion compensation predictor 108 performs motion compensation prediction on the locally decoded image signal (reference image) using the motion vector 16 to generate a predicted image signal 15.
  • the predicted image signal 15 is sent to the subtractor 101 to obtain a difference from the input moving image signal 11, and is further sent to the adder 106 to generate a local decoded image signal 14.
  • the acquisition unit / selection unit 110 selects one motion vector used for motion compensation prediction from adjacent blocks, sends the selected motion vector 16 to the predictor 109, and generates selection information 17.
  • the selection information 17 is sent to the selection information encoding unit 112. When selecting a motion vector from adjacent blocks, it is possible to select an appropriate motion vector that reduces the code amount.
  • the orthogonal transform coefficient information 13 quantized by the quantizer 103 is also input to the variable length encoder 111 and subjected to variable length encoding (S18).
  • selection information 16 used for motion compensation prediction is output and input to the selection information encoding unit 112.
  • the code table is switched so that the code table has the same number of entries as the number of usable blocks that are adjacent to the encoding target block and are encoded blocks having motion vectors.
  • Information 17 is variable length encoded.
  • the quantized orthogonal transform coefficient information and selection information from the variable length encoder 111 are multiplexed by the multiplexer 113, and the bit stream of the encoded data 18 is output (S19).
  • the encoded data 18 is sent to a storage system or transmission path (not shown).
  • the flow of steps S14 to S17 and the flow of steps S18 and S19 can be replaced. That is, the variable length encoding step S18 and the multiplexing step S19 are performed after the quantization step S13, and the inverse quantization step S14 to the storage step S17 can be performed in pairs with the multiplexing step S19.
  • an available block candidate that is an encoded block having a motion vector adjacent to the encoding target block is searched (S101).
  • the block size of motion compensated prediction of these available block candidates is determined (S102).
  • an available block is extracted from the available block candidates.
  • One selected block is selected from the extracted available blocks, and information for specifying the selected block is obtained as selection information (S104).
  • block size determination (S102) will be described with reference to FIGS. 4A to 4C.
  • the adjacent blocks used in this embodiment are blocks located on the left, upper left, upper, and upper right of the encoding target block. Therefore, when the encoding target block is located at the upper left corner of the frame, there is no usable block adjacent to the encoding target block, and therefore the present invention cannot be applied to this encoding target block.
  • the available block is only one block on the left, and when the encoding target block is the left end of the screen and not the right end, the available block is above the encoding target block, The upper right two blocks.
  • the macro block size is 16 ⁇ 16 size
  • there are four types of block sizes for motion compensation prediction of adjacent blocks 16 ⁇ 16 size, 16 ⁇ 8 size, 8 ⁇ 16 size, and 8 ⁇ 8 size as shown in FIGS. 4A to 4C.
  • these four types are considered, there are 20 types of adjacent blocks that can be used as shown in FIGS. 4A to 4C. That is, the 16 ⁇ 16 size shown in FIG. 4A has 4 types, the 16 ⁇ 8 size and 8 ⁇ 16 size shown in FIG. 4B have 10 types, and the 8 ⁇ 8 size shown in FIG. 4C has 6 types.
  • the block size determination S102
  • an available block is searched from these 20 types of blocks according to the block size.
  • the available blocks determined by this block size are four types of blocks of 16 ⁇ 16 size as shown in FIG. 4A. That is, the available blocks are the upper left block of the encoding target block, the upper block of the encoding target block, the left block of the encoding target block, and the upper right block of the encoding target block. Also, when the macroblock size is expanded to 16 ⁇ 16 size or more, it can be an available block as in the case where the macroblock size is 16 ⁇ 16 size.
  • the macro block size is 32 ⁇ 32 size
  • the block size is limited to 16 ⁇ 16, and the unidirectional or bidirectional prediction of the adjacent block with respect to the encoding target block is as shown in FIG.
  • an available block is searched according to the direction of prediction.
  • an adjacent block including the prediction direction L0 is set as an available block determined in the prediction direction. That is, the upper, left, and upper right blocks shown in FIG. 5A are available blocks determined in the prediction direction. In this case, the upper left block of the encoding target block is not used.
  • the adjacent block including the prediction direction L1 is an available block determined by the prediction method
  • the upper left block and the upper block of the encoding target block shown in FIG. Become.
  • the left and upper right blocks of the encoding target block are not used.
  • an adjacent block including the prediction direction L0 / L1 is an available block determined by the prediction method
  • an available block in which only the block above the encoding target block shown in FIG. 5C is determined in the prediction direction. It becomes.
  • the left, upper left, and upper right blocks of the encoding target block are not used.
  • the prediction direction L0 (L1) corresponds to the prediction direction of L0 prediction (L1 prediction) in AVC.
  • the code table is switched according to the number of usable blocks as shown in FIG. 8 (S202).
  • the selection information 17 sent from the acquisition unit / selection unit 110 is variable-length encoded (S203).
  • selection information is not sent.
  • FIG. 7B when there is one available block, the motion vector of the available block used for motion compensation of the encoding target block is uniquely determined, so selection information is not sent.
  • FIG. 7C when there are two available blocks, selection information for index 0 or 1 is sent.
  • FIG. 7D when there are three available blocks, selection information for index 0, 1 or 2 is sent.
  • selection information for index 0, 1, 2, or 3 is sent.
  • FIG. 7 shows an example in which indexes are assigned to usable blocks in the order of left, upper left, upper, upper right of the encoding target block.
  • the used blocks are indexed with sequential numbers except for the unused blocks.
  • the selection information encoding unit 112 switches the code table according to the number of available blocks (S202). As described above, the selection information 17 needs to be encoded when there are two or more usable blocks.
  • FIG. 9 shows an outline of the syntax structure used in this embodiment.
  • the syntax mainly consists of three parts, and High Level Syntax 801 is packed with syntax information of higher layers above the slice.
  • Slice Level Syntax 804 information necessary for each slice is specified, and in Macroblock Level Syntax 807, variable length encoded error signals and mode information required for each macroblock are specified.
  • Each of these syntaxes is composed of a more detailed syntax, and in High Level Syntax 801, it is composed of sequence such as Sequence parameter set 802 and Picture parameter set syntax 803, and picture level syntax.
  • Slice Level Syntax 804 includes Slice header syntax 405, Slice data syntax 406, and the like.
  • Macroblock Level Syntax 807 is configured by macroblock layer syntax 808, macroblock prediction syntax 809, and the like.
  • the syntax information required in this embodiment is macroblock layer syntax 808, and the syntax will be described below.
  • the available_block_num shown in FIGS. 10 (a) and 10 (b) indicates the number of available blocks. When this is 2 or more, selection information needs to be encoded.
  • Mvcopy_flag is a flag indicating whether or not to use a motion vector of an available block in motion compensation prediction. When the available block is 1 or more and this flag is 1, the available block of motion compensated prediction Motion vectors can be used.
  • mv_select_info indicates selection information, and the code table is as described above.
  • FIG. 10 (a) shows the syntax for encoding selection information after mb_type. For example, when the block size is only 16 ⁇ 16, mvcopy_flag and mv_select_info do not need to be encoded if mb_type is other than 16 ⁇ 16. If mb_type is 16x16, mvcopy_flag and mv_select_info are encoded.
  • FIG. 10 (b) shows the syntax for encoding selection information before mb_type. For example, if mvcopy_flag is 1, it is not necessary to encode mb_type. If mv_copy_flag is 0, mb_type is encoded.
  • any scan order may be used for encoding.
  • the present invention can be applied to a line scan or a Z scan.
  • a moving picture decoding apparatus according to another embodiment will be described with reference to FIG.
  • a demultiplexer (demultiplexer) 201 demultiplexes the encoded data 21 and separates the encoded data 21 into quantized orthogonal transform coefficient information and selection information.
  • the output terminal of the demultiplexer 201 is connected to the variable length decoder 202.
  • the variable length decoder 202 decodes the quantized orthogonal transform coefficient information and selection information.
  • the output terminal of the variable length decoder 202 is connected to the adder 206 by the inverse quantizer 204 and the inverse orthogonal transformer 205.
  • the inverse quantizer 204 inversely quantizes the quantized orthogonal transform coefficient information and converts it into orthogonal transform coefficients.
  • the inverse orthogonal transformer 205 performs inverse orthogonal transform on the orthogonal transform coefficient to generate a prediction error signal.
  • the adder 206 adds the prediction error signal to the prediction image signal from the prediction image generator 207 to generate a moving image signal.
  • the predicted image generator 207 includes a predictor 208 and a selection unit 209.
  • the selection unit 209 selects a motion vector based on the selection information 23 decoded by the selection information decoder 203 of the variable length decoder 202 and sends the selected motion vector 25 to the predictor 208.
  • the predictor 208 performs motion compensation on the reference image stored in the frame memory 210 using the motion vector 25 to generate a predicted image.
  • the encoded data 21 is demultiplexed by the demultiplexer 201 (S31), decoded by the variable length decoder 202, and quantized orthogonal transform coefficient information 22 is generated (S32). Further, the selection information decoder 203 checks the state of the adjacent block adjacent to the decoding target block, and the selection information of the encoding device according to the number of usable blocks that are adjacent encoded blocks having motion vectors. Similar to the encoding unit 112, the code table is switched as shown in FIG. Thereby, the selection information 23 is output (S33).
  • the quantized orthogonal transform coefficient information 22 is inversely quantized by the inverse quantizer 204 (S34), and then inversely orthogonally transformed by the inverse orthogonal transformer 205 (S35). Thereby, the prediction error signal 24 is obtained.
  • the adder 206 adds the prediction image signal to the prediction error signal 24 to reproduce the moving image signal 26 (S36).
  • the reproduced moving image signal 27 is stored in the frame memory 210 (S37).
  • the predicted image generator 207 generates a predicted image 26 using the motion vector of an available block that is a decoded block that is adjacent to the decoding target block and has a motion vector, selected by the decoded selection information 23. To do.
  • the selection unit 209 investigates the state of the adjacent block, and obtains a motion vector used for motion compensation prediction from the available block information of the adjacent block and the selection information 23 decoded by the selection information decoding unit 203. In the same manner as the selection unit 110, one is selected from adjacent blocks.
  • a predicted image 26 is generated by the predictor 208 using the selected motion vector 25 and is sent to the adder 206 to obtain a moving image signal 27.
  • selection information by encoding selection information according to the number of available blocks, selection information can be sent using an appropriate encoding table, and additional information of selection information can be reduced. .
  • the motion vector calculation method is not fixed, but by selecting an appropriate one from the available blocks, the degree of freedom in motion vector calculation is higher than in the direct mode.
  • the method of the present invention described in the embodiment of the present invention can be executed by a computer, and as a program that can be executed by the computer, a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM) , DVD, etc.) and storage media such as semiconductor memory can also be distributed.
  • a magnetic disk flexible disk, hard disk, etc.
  • an optical disk CD-ROM
  • DVD digital versatile disk
  • storage media such as semiconductor memory
  • the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
  • various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment.
  • constituent elements over different embodiments may be appropriately combined.
  • the apparatus of the present invention is used for image compression processing in communication, storage and broadcasting.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 動画像符号化装置は動画像を動き補償予測符号化する動画像符号化装置であり、符号化対象ブロックに隣接する符号化済みブロックから、動きベクトルを持つブロックである利用可能ブロック及び前記利用可能ブロックの数を求める取得部と、符号化済みブロック前記利用可能ブロックから、1つの選択ブロックを選択する選択部と、前記利用可能ブロックの数に応じた符号表を用いて、前記選択ブロックを特定する選択情報を符号化する選択情報符号化部と、前記選択ブロックが有する動きベクトルを用いて、前記符号化対象ブロックを動き補償予測符号化する画像符号化部とを備える。

Description

動画像符号化装置及び動画像復号化装置
 本発明は、符号化及び復号済み画像から動きベクトルを求め動き補償予測を行う動画像符号化装置及び動画像復号化装置に関する。
 動画像の符号化に用いられる技術の一つとして、動き補償予測がある。動き補償予測では、動画像符号化装置において新たに符号化しようとする符号化対象画像と、既に得られている局所復号画像を用いて動きベクトルを求め、この動きベクトルを用いて動き補償を行うことにより予測画像を生成する。
 動き補償予測において動きベクトルを求める方法の一つとして、既符号化済みブロックの動きベクトルから導出した符号化対象ブロックの動きベクトルを用いて、予測画像を生成するダイレクトモードがある(日本特許第4020789号及び米国特許第7233621号を参照)。ダイレクトモードでは、動きベクトルを符号化しないため、動きベクトル情報の符号量を削減することができる。ダイレクトモードは、H.264/AVCにおいて採用されている。
 ダイレクトモードでは、符号化対象ブロックの動きベクトルを予測生成する際に、符号化対象ブロックに隣接する符号化済みブロックの動きベクトルのメディアン値から動きベクトルを算出するという固定された方法で動きベクトルを生成する。そのため、動きベクトル算出の自由度が低い。また、前述の自由度を上げるため、複数の符号化済みブロックから1つを選択する動きベクトルの算出方法を用いた場合、選択した符号化済みブロックを示すためには、常に当該ブロックの位置を動きベクトル選択情報として送らなければならない。このため、符号量増加を招く。
 本発明は、符号化済みブロックから1つを選択して動きベクトル算出の自由度を高めつつ、動きベクトル選択情報の付加情報を削減する動画像符号化装置及び動画像復号化装置を提供することを目的とする。
 本発明の一態様は、動画像を動き補償予測符号化する動画像符号化装置であり、符号化対象ブロックに隣接する符号化済みブロックから、動きベクトルを持つブロックである利用可能ブロック及び前記利用可能ブロックの数を求める取得部と、符号化済みブロック前記利用可能ブロックから、1つの選択ブロックを選択する選択部と、前記利用可能ブロックの数に応じた符号表を用いて、前記選択ブロックを特定する選択情報を符号化する選択情報符号化部と、前記選択ブロックが有する動きベクトルを用いて、前記符号化対象ブロックを動き補償予測符号化する画像符号化部とを備える動画像符号化装置を提供する。
 本発明の他の態様は、動画像を動き補償予測復号する動画像復号化装置であり、復号対象ブロックに隣接し、動きベクトルを持つ既復号ブロックである利用可能ブロックの数に応じて符号表を切り替えて、選択情報を復号する選択情報復号部と、前記利用可能ブロックから、前記選択情報復号部により復号された選択情報によって示される1つの動きベクトルを選択する動きベクトル選択部と、前記動きベクトル選択部で選択された動きベクトルを用いて復号化対象画像を動き補償予測復号する画像復号部とを具備する動画像復号化装置を提供する。
本発明の実施形態に係る動画像符号化装置のブロック図 動画像符号化装置の処理手順を示すフローチャート 取得部/選択部の処理手順を示すフローチャート ブロックサイズによる判別方法について説明する図 ブロックサイズによる判別方法について説明する図 ブロックサイズによる判別方法について説明する図 単方向又は双方向予測による判別方法について説明する図 選択情報符号化部の処理手順を示すフローチャート 選択情報のインデクスの一例 選択情報の符号表の一例 シンタクス構造の概略 マクロブロックレイヤーのデータ構造 本発明の実施形態に係る動画像復号化装置のブロック図 動画像復号化装置の処理手順を示すフローチャート
 以下、本発明の実施形態について図面を参照して説明する。
 図1を参照して一実施形態に係る動画像符号化装置について説明する。減算器101は入力動画像信号11と予測画像信号15との差分を計算し、予測誤差信号12を出力するように構成される。減算器101の出力端は直交変換器102及び量子化器103を介して可変長符号化器111に接続される。直交変換器102は減算器101からの予測誤差信号12を直交変換し、直交変換係数を生成し、量子化器103は直交変換係数を量子化し、量子化直交変換係数情報13を出力する。可変長符号化器111は量子化器103からの量子化直交変換係数情報13を可変長符号化する。
 量子化器103の出力端は逆量子化器104及び逆直交変換器105を介して加算器106に接続される。逆量子化器104は量子化直交変換係数情報13を逆量子化して、直交変換係数に変換する。逆直交変換器105は直交変換係数を予測誤差信号に変換する。加算器106は逆直交変換器105の予測誤差信号と予測画像信号15とを加算して、局部復号画像信号14を生成する。加算器105の出力端はフレームメモリ107を介して動き補償予測器108に接続される。
 フレームメモリ107は局部復号画像信号14を蓄積する。設定部114は符号化対象ブロックの動き補償予測モード(予測モード)を設定する。予測モードは、1枚の参照画像を用いる単方向予測と、2枚の参照画像を用いる双方向予測とを含む。単方向予測はAVCのL0予測およびL1予測を含む。動き補償予測器108は予測器109と取得部/選択部110とを備えている。取得部/選択部110は符号化対象ブロックに隣接する符号化済みブロックから、動きベクトルを持つブロックである利用可能ブロック及び前記利用可能ブロックの数を求め、利用可能ブロックから、1つの選択ブロックを選択する。動き補償予測器108はフレームメモリ107から局部復号画像信号14と入力動画像信号11とから予測画像信号15を生成する。取得部/選択部110は符号化対象ブロックに隣接する隣接ブロックから1つのブロック(選択ブロック)を選択する。例えば、隣接ブロックのうち適切な動きベクトルを持つブロックが、選択ブロックとして選ばれる。取得部/選択部110は、選択ブロックが有する動きベクトルを動き補償予測に用いる動きベクトル16として選択し、予測器109に送る。また、取得部/選択部110は選択ブロックの選択情報17を生成し、可変長符号化器111に送る。
 可変長符号化器111は、選択情報符号化部112を有する。選択情報符号化部112は、符号化済みブロック利用可能ブロックの数と等しい数のエントリーをコード表に持つように符号表を切り替えながら、選択情報17を可変長符号化する。利用可能ブロックとは、符号化対象ブロックに隣接する符号化済みブロックのうち、動きベクトルを持つブロックである。多重化器(マルチプレクサ)113は符号化された量子化直交変換係数情報及び選択情報を多重化し、符号化データを出力する。
 上記構成の動画像符号化装置の作用を図2のフローチャートを参照して説明する。
 まず、予測誤差信号12が生成される(S11)。この予測誤差信号12の生成においては、動きベクトルが選択され、選択された動きベクトルを用いて予測画像が生成される。この予測画像の信号、即ち予測画像信号15と入力動画像信号11との差分が減算器101により計算されることにより、予測誤差信号12が生成される。
 予測誤差信号12に対して直交変換器102により直交変換が施され、直交変換係数が生成される(S12)。直交変換係数は、量子化器103により量子化される(S13)。量子化された直交変換係数情報は、逆量子化器104により逆量子化され(S14)、その後、逆直交変換器105により逆直交変換され、再生された予測誤差信号を得る(S15)。加算器106では、再生された予測誤差信号と予測画像信号15が加算されることによって、局部復号画像信号14が生成される(S16)。局部復号画像信号14はフレームメモリ107に(参照画像として)蓄積され(S17)、フレームメモリ107から読み出される局部復号画像信号は、動き補償予測器108に入力される。
 動き補償予測器108の予測器109は、局部復号画像信号(参照画像)を動きベクトル16を用いて動き補償予測して、予測画像信号15を生成する。予測画像信号15は、入力動画像信号11との差分をとるために減算器101に送られ、さらに局部復号画像信号14を生成するために加算器106にも送られる。
 取得部/選択部110は、動き補償予測に用いる1つの動きベクトルを隣接ブロックから選択し、選択した動きベクトル16を予測器109に送り、選択情報17を生成する。選択情報17は、選択情報符号化部112に送られる。動きベクトルを隣接ブロックから選択する際には、符号量が小さくなるような適切な動きベクトルを選択することができる。
 量子化器103により量子化された直交変換係数情報13は、可変長符号化器111にも入力され、可変長符号化が施される(S18)。取得部/選択部110からは、動き補償予測に用いられた選択情報16が出力され、選択情報符号化部112に入力される。選択情報符号化部112では、符号化対象ブロックに隣接し、動きベクトルを持つ符号化済みブロックである利用可能ブロックの数と等しい数のエントリーをコード表に持つように符号表が切り替えられ、選択情報17が可変長符号化される。可変長符号化器111からの量子化直交変換係数情報及び選択情報が多重化器113によって多重化され、符号化データ18のビットストリームが出力される(S19)。符号化データ18は、図示しない蓄積系あるいは伝送路へ送出される。
 図2のフローチャートにおいて、ステップS14~S17のフローとステップS18及びS19のフローは置き換えることができる。即ち、量子化ステップS13に次いで可変長符号化ステップS18及び多重化ステップS19が行われ、多重化ステップS19に対で逆量子化ステップS14~記憶ステップS17を行うことができる。
 次に、図3に示すフローチャートを用いて取得部/選択部110の作用について説明する。
 まず、フレームメモリ107を参照して、符号化対象ブロックに隣接する、動きベクトルを持った符号化済みブロックである利用可能ブロック候補を探索する(S101)。利用可能ブロック候補が探索されると、これら利用可能ブロック候補の動き補償予測のブロックサイズが判別される(S102)。次に、利用可能ブロック候補が単方向又は双方向予測かが判別される(S103)。判別結果と符号化対象ブロックの予測モードに基づいて、利用可能ブロック候補の中から利用可能ブロックを抽出する。抽出された利用可能ブロックの中から1つの選択ブロックを選択し、選択ブロックを特定する情報を選択情報として求める(S104)。
 次に、図4A~4Cを参照してブロックサイズの判別(S102)について説明する。
 本実施形態で用いる隣接ブロックは、符号化対象ブロック符号化対象ブロックの左、左上、上、右上に位置するブロックとする。そのため、符号化対象ブロックがフレームの一番左上に位置する場合は、符号化対象ブロックに隣接する利用可能ブロックはないため、この符号化対象ブロックには本発明は適用できない。符号化対象ブロックが画面の上端にある場合、利用可能ブロックは左の1ブロックのみとなり、符号化対象ブロックが画面の左端であり、かつ右端でない場合、利用可能ブロックは符号化対象ブロックの上、右上の2ブロックとなる。
 マクロブロックサイズが16x16サイズの場合、隣接ブロックの動き補償予測のブロックサイズは、図4A~4Cに示されるように16x16サイズ、16x8サイズ、8x16サイズ、8x8サイズの4種類がある。これら4種類を考慮した際に、利用可能ブロックに成り得る隣接ブロックは、図4A~4Cに示すような20種類となる。即ち、図4Aに示される16x16サイズで4種類、図4Bに示される16x8サイズ及び8x16サイズで10種類、図4Cに示される8x8サイズで6種類となる。ブロックサイズの判別(S102)では、これら20種類のブロックの中からブロックサイズに応じて、利用可能ブロックを探索する。例えば、利用可能ブロックのサイズを16x16のみとした場合、このブロックサイズで判定された利用可能ブロックは、図4Aに示すように16x16サイズの4種類のブロックである。即ち、利用可能ブロックは、符号化対象ブロックの左上側のブロックと、符号化対象ブロックの上側のブロックと、符号化対象ブロックの左側のブロックと、符号化対象ブロックの右上側のブロックである。また、マクロブロックサイズが16x16サイズ以上に拡張された場合についても、マクロブロックサイズが16x16サイズの場合と同様に利用可能ブロックと成り得る。例えば、マクロブロックサイズが32x32サイズの場合、隣接ブロックの動き補償予測のブロックサイズは、32x32サイズ、32x16サイズ、16x32サイズ、16x16サイズの4種類があり、利用可能ブロックに成り得る隣接ブロックは20種類となる。
 次に、図5を参照して取得部/選択部110によって行われる、単方向又は双方向予測の判別(S103)について、例を挙げて説明する。
 例えば、ブロックサイズを16x16に制限し、符号化対象ブロックに対し、隣接するブロックの単方向又は双方向予測が図5に示すような場合であったとする。単方向又は双方向予測の判別(S103)では、予測の方向に応じて利用可能ブロックを探索する。例えば、予測方向L0を含む隣接ブロックを予測方向で判定された利用可能ブロックとする。即ち、図5(a)に示される、符号化対象ブロックの上、左、右上のブロックが予測方向で判定された利用可能ブロックとなる。この場合、符号化対象ブロックの左上のブロックは使用されない。予測方向L1を含む隣接ブロックを予測方法で判定された利用可能ブロックとすると、図5(b)に示される、符号化対象ブロックの左上及び上のブロックが予測方向で判定された利用可能ブロックとなる。この場合、符号化対象ブロックの左及び右上のブロックは使用されない。予測方向L0/L1を含む隣接ブロックを予測方法で判定された利用可能ブロックとすると、図5(c)に示される、符号化対象ブロックの上のブロックのみが予測方向で判定された利用可能ブロックとなる。この場合、符号化対象ブロックの左、左上及び右上のブロックは使用されない。なお、予測方向L0(L1)は、AVCにおけるL0予測(L1予測)の予測方向に対応する。
 次に、図6に示すフローチャートを参照して選択情報符号化部112について説明する。
 符号化対象ブロックに隣接する隣接ブロックの中から、動きベクトルを持った符号化済みブロックである利用可能ブロックを探索し、ブロックサイズ及び単方向又は双方向予測で判定された利用可能ブロック情報を取得する(S201)。この利用可能ブロック情報を用いて、図8に示されるような利用可能ブロックの数に応じた符号表の切り替えを行う(S202)。切り替えられた符号表を用いて、取得部/選択部110より送られた選択情報17を可変長符号化する(S203)。
 次に、図7を参照して選択情報のインデクスの一例を説明する。
 図7(a)に示すように利用可能ブロックがない場合、本発明はこのブロックに適用不可能なため、選択情報は送らない。図7(b)に示すように利用可能ブロックが1つの場合、符号化対象ブロックの動き補償に用いる利用可能ブロックの動きベクトルは一意に決まるため、選択情報は送らない。図7(c)に示すように利用可能ブロックが2つの場合、インデクス0または1の選択情報を送る。図7(d)に示すように利用可能ブロックが3つの場合、インデクス0、1または2の選択情報を送る。図7(e)に示すように利用可能ブロックが4つの場合、インデクス0、1、2または3の選択情報を送る。
 また、利用可能ブロックのインデクスのつけ方の一例として、符号化対象ブロックの左、左上、上、右上の順に、利用可能ブロックにインデクスをつけた例を図7に示す。即ち、使用されないブロックを除いて使用されるブロックに対して連番でインデックスをつける。
 次に、図8を用いて選択情報17の符号表について説明をする。
 選択情報符号化部112では、利用可能ブロックの数に応じて符号表の切替を行う(S202)。前述したとおり、選択情報17を符号化する必要があるのは、利用可能ブロックが2つ以上の場合である。
 まず、利用可能ブロックが2つの場合は、インデクスは0と1が必要となり、符号表は図8の左側に示す表となる。利用可能ブロックが3つの場合は、インデクスは0,1,2が必要となり、符号表は図8の中央に示す表となる。利用可能ブロックが4つの場合は、インデクスは0,1,2,3が必要となり、符号表は図8の右側に示す表となる。これらの符号表が利用可能ブロックの数に応じて切り替えられる。
 次に、選択情報の符号化方法について説明する。
 図9に本実施の形態で用いられるシンタクスの構造の概略を示す。シンタクスは主に3つのパートから成り、High Level Syntax801はスライス以上の上位レイヤのシンタクス情報が詰め込まれている。Slice Level Syntax804では、スライス毎に必要な情報が明記されており、Macroblock Level Syntax807では、マクロブロック毎に必要とされる可変長符号化された誤差信号やモード情報などが明記されている。
 これらシンタックスはそれぞれさらに詳細なシンタクスで構成されており、High Level Syntax801では、Sequence parameter set syntax802とPicture parameter set syntax803などのシーケンス、ピクチャレベルのシンタクスから構成されている。Slice Level Syntax804では、Slice header syntax405、Slice data syntax406などから成る。さらに、Macroblock Level Syntax807は、macroblock layer syntax808、macroblock prediction syntax809などから構成されている。
 本実施の形態で必要となるシンタクス情報は、macroblock layer syntax808であり、シンタクスを以下で説明する。
 図10(a)(b)に示されるavailable_block_numは、利用可能ブロックの数を示しており、これが2以上の場合は、選択情報の符号化が必要となる。また、mvcopy_flagは動き補償予測において利用可能ブロックの動きベクトルを使用するかどうかを示すフラグであり、利用可能ブロックが1以上であり、且つこのフラグが1の場合、動き補償予測において利用可能ブロックの動きベクトルを使用することができる。さらに、mv_select_infoは選択情報を示しており、符号表は前述したとおりである。
 図10(a)は、mb_typeの後に選択情報を符号化する場合のシンタックスを示している。例えばブロックサイズが16x16のみの場合、mb_typeが16x16以外ならばmvcopy_flag及びmv_select_infoは符号化する必要がない。mb_typeが16x16ならばmvcopy_flag及びmv_select_infoを符号化する。
 図10(b)は、mb_typeの前に選択情報を符号化する場合のシンタックスを示している。例えばmvcopy_flagが1であるならば、mb_typeを符号化する必要はない。mv_copy_flagが0ならば、mb_typeを符号化する。
 本実施の形態では、符号化のスキャン順についてはどのような順序でも構わない。例えば、ラインスキャンやZスキャンなどに対しても、本発明は適応可能である。
 図11を参照して他の実施形態に係る動画像復号化装置について説明する。
 図1の動画像符号化装置から出力される符号化データ18が蓄積系または伝送系を経て復号対象の符号化データ21として動画像復号化装置の逆多重化器201に入力される。逆多重化器(デマルチプレクサ)201は符号化データ21を逆多重化し、符号化データ21を量子化直交変換係数情報及び選択情報に分離する。逆多重化器201の出力端は可変長復号化器202に接続される。可変長復号化器202は量子化直交変換係数情報及び選択情報を復号する。可変長復号化器202の出力端は逆量子化器204及び逆直交変換器205を加算器206に接続される。逆量子化器204は量子化直交変換係数情報を逆量子化し、直交変換係数に変換する。逆直交変換器205は直交変換係数を逆直交変換し、予測誤差信号に生成する。加算器206は予測誤差信号を予測画像生成器207からの予測画像信号に加算し、動画像信号を生成する。
 予測画像生成器207は予測器208と選択部209とを含む。選択部209は可変長復号化器202の選択情報復号化器203によって復号された選択情報23によって動きベクトルを選択し、選択動きベクトル25を予測器208に送る。予測器208はフレームメモリ210に蓄積された参照画像を動きベクトル25によって動き補償し、予測画像を生成する。
 上記構成の動画像復号化装置の作用を図12のフローチャートを参照して説明する。
 符号化データ21は逆多重化器201により逆多重化され(S31)、可変長復号化器202によって復号され、量子化直交変換係数情報22が生成される(S32)。また、選択情報復号化器203によって、復号対象ブロックに隣接する隣接ブロックの状態が調査され、動きベクトルを持つ隣接する符号化済みブロックである利用可能ブロックの数に応じて符号化装置の選択情報符号化部112と同様にして、符号表を図8のように切り替えて復号される。これにより、選択情報23が出力される(S33)。
 可変復号化器202から出力される情報である、量子化された直交変換係数情報22は逆量子化器204に、選択情報復号部203から出力される情報である、選択情報23は選択部209にそれぞれ送られる。
 量子化直交変換係数情報22は逆量子化器204によって逆量子化され(S34)、その後、逆直交変換器205により逆直交変換される(S35)。これにより、予測誤差信号24が得られる。加算器206では予測誤差信号24に予測画像信号が加算されることにより、動画像信号26が再生される(S36)。再生される動画像信号27は、フレームメモリ210に蓄積される(S37)。
 予測画像生成器207では、復号化された選択情報23によって選択された、復号対象ブロックに隣接し動きベクトルを持つ既復号化ブロックである利用可能ブロックの動きベクトルを用いて、予測画像26を生成する。選択部209では、隣接ブロックの状態を調査し、隣接ブロックの利用可能ブロック情報と選択情報復号部203で復号された選択情報23から、動き補償予測に用いる動きベクトルを符号化装置の取得部/選択部110と同様にして隣接ブロックから1つ選択する。この選択された動きベクトル25を用いて、予測器208により予測画像26が生成され、動画像信号27を得るために加算器206に送られる。
 本発明によれば、利用可能ブロックの数に応じた選択情報を符号化することにより、選択情報を適切な符号化テーブルを用いて送ることができ、選択情報の付加情報を削減することができる。
 また、利用可能ブロックの動きベクトルを符号化対象ブロックの動き補償予測に用いることにより、動きベクトル情報に関する付加情報を削減できる。
 更に、動きベクトル算出方法を固定ではなく、利用可能ブロックから適切な1つを選択することにより、ダイレクトモードに比べ動きベクトル算出の自由度が高くなる。
 本発明の実施の形態に記載した本発明の手法は、コンピュータによって実行させることができ、また、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD-ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することもできる。
 また、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 本発明の装置は、通信、蓄積および放送における画像圧縮処理に使用される。

Claims (8)

  1.  動画像を動き補償予測符号化する動画像符号化装置であり、
     符号化対象ブロックに隣接する符号化済みブロックから、動きベクトルを持つブロックである利用可能ブロック及び前記利用可能ブロックの数を求める取得部と、
     前記利用可能ブロックから、1つの選択ブロックを選択する選択部と、
     前記利用可能ブロックの数に応じた符号表を用いて、前記選択ブロックを特定する選択情報を符号化する選択情報符号化部と、
     前記選択ブロックが有する動きベクトルを用いて、前記符号化対象ブロックを動き補償予測符号化する画像符号化部と、
    を備える動画像符号化装置。
  2.  前記取得部は、前記符号化済みブロックから動きベクトルを持つ特定のブロックサイズのブロックを前記利用可能ブロックとして求めることを特徴とする請求項1の動画像符号化装置。
  3.  前記符号化対象ブロックの予測モードを
      (A)第1ベクトルのみを用いる第1単方向予測、
      (B)第2ベクトルのみを用いる第2単方向予測、および、
      (C)前記第1ベクトルと前記第2ベクトルの両方を用いる双方向予測、
    のいずれかに設定する設定部をさらに備え、
     前記取得部は、前記符号化済みブロックから、前記符号化対象ブロックを前記予測モードで動き補償予測するために必要な動きベクトルを持つ特定のブロックサイズのブロックを前記利用可能ブロックとして求める、
    ことを特徴とする請求項2の動画像符号化装置。
  4.  前記画像符号化部は、前記選択ブロックの量子化パラメータを用いて、前記符号化対象ブロックを動き補償予測符号化することを特徴とする請求項3の動画像符号化装置。
  5.  動画像を動き補償予測復号する動画像復号化装置であり、
     復号対象ブロックに隣接する復号化済みブロックから動きベクトルを持つブロックである利用可能ブロック及び前記利用可能ブロックの数を求める取得部と、
     前記利用可能ブロックの数に応じた符号表を用いて、前記選択ブロックを特定する選択情報を復号する選択情報復号部と、
     前記利用可能ブロックから、前記選択情報に従って1つの選択ブロックを選択する選択部と、
     前記選択ブロックが有する動きベクトルを用いて、前記復号化対象ブロックを動き補償予測復号化する動き補償予測復号する画像復号部と、
     を具備する動画像復号化装置。
  6.  前記取得部は、前記符号化済みブロックから動きベクトルを持つ特定のブロックサイズのブロックを前記利用可能ブロックとして求めることを特徴とする、請求項5の動画像復号化装置。
  7.  前記復号化対象ブロックの予測モードを
      (A)第1ベクトルのみを用いる第1単方向予測、
      (B)第2ベクトルのみを用いる第2単方向予測、および、
      (C)前記第1ベクトルと前記第2ベクトルの両方を用いる双方向予測、
    のいずれかに設定する設定部をさらに備え、
     前記取得部は、前記復号化済みブロックから、前記復号化対象ブロックを前記予測モードで動き補償予測するために必要な動きベクトルを持つ特定のブロックサイズのブロックを前記利用可能ブロックとして求めることを特徴とする、請求項6の動画像復号化装置。
  8.  前記画像復号化部は、前記選択ブロックの量子化パラメータを用いて、前記復号化対象ブロックを動き補償予測符号化することを特徴とする、請求項7の動画像復号化装置。
PCT/JP2009/061130 2009-06-18 2009-06-18 動画像符号化装置及び動画像復号化装置 WO2010146696A1 (ja)

Priority Applications (54)

Application Number Priority Date Filing Date Title
JP2011519374A JP5242784B2 (ja) 2009-06-18 2009-06-18 動画像符号化装置及び方法
BR122021002161-9A BR122021002161B1 (pt) 2009-06-18 2009-06-18 Aparelhos de codificação e decodificação de vídeo, métodos para codificação e decodificação de vídeo
EP14158493.8A EP2765779B1 (en) 2009-06-18 2009-06-18 Video encoding apparatus
MX2011013707A MX2011013707A (es) 2009-06-18 2009-06-18 Dispositivo de codificacion de imagenes dinamicas y dispositivo de decodificacion de imagenes dinamicas.
BR122020003111-5A BR122020003111B1 (pt) 2009-06-18 2009-06-18 aparelhos de codificação e decodificação de vídeo, métodos de codificação e decodificação de vídeo
PT202052841T PT3809703T (pt) 2009-06-18 2009-06-18 Codificação de vídeo
PL20205284.1T PL3809703T3 (pl) 2009-06-18 2009-06-18 Kodowanie wideo
CA2765828A CA2765828C (en) 2009-06-18 2009-06-18 Video encoding apparatus and a video decoding apparatus
EP23188518.7A EP4254961A3 (en) 2009-06-18 2009-06-18 Video encoding
HRP20231396TT HRP20231396T1 (hr) 2009-06-18 2009-06-18 Video kodiranje
EP18193270.8A EP3448031B1 (en) 2009-06-18 2009-06-18 Video decoding apparatus and video decoding method
BR122015029294A BR122015029294A2 (pt) 2009-06-18 2009-06-18 aparelho de decodificação de vídeo
EP17153817.6A EP3179721B1 (en) 2009-06-18 2009-06-18 Video decoding method and apparatus
LTEP20205284.1T LT3809703T (lt) 2009-06-18 2009-06-18 Vaizdo kodavimas
LTEP18193270.8T LT3448031T (lt) 2009-06-18 2009-06-18 Vaizdo dekodavimo aparatas ir dekodavimo būdas
AU2009348128A AU2009348128B2 (en) 2009-06-18 2009-06-18 Dynamic Image Encoding Device
SI200932186T SI3809703T1 (sl) 2009-06-18 2009-06-18 Kodiranje videa
HUE18193270A HUE053386T2 (hu) 2009-06-18 2009-06-18 Videodekódolási berendezés és videodekódolási eljárás
ES20205284T ES2963468T3 (es) 2009-06-18 2009-06-18 Codificación de vídeo
EP14158486.2A EP2768228B1 (en) 2009-06-18 2009-06-18 Video decoding apparatus
EP14158488.8A EP2765778B1 (en) 2009-06-18 2009-06-18 Video encoding apparatus
DK20205284.1T DK3809703T3 (da) 2009-06-18 2009-06-18 Videokodning
PCT/JP2009/061130 WO2010146696A1 (ja) 2009-06-18 2009-06-18 動画像符号化装置及び動画像復号化装置
HUE20205284A HUE065097T2 (hu) 2009-06-18 2009-06-18 Videokódolás
BRPI0924908-7A BRPI0924908B1 (pt) 2009-06-18 2009-06-18 aparelhos de codificação e decodificação de vídeo, métodos para codificação e decodificação de vídeo
SI200932109T SI3448031T1 (sl) 2009-06-18 2009-06-18 Naprava za video dekodiranje in postopek za video dekodiranje
ES18193270T ES2850074T3 (es) 2009-06-18 2009-06-18 Aparato de decodificación de vídeo y procedimiento de decodificación de vídeo
EP20205284.1A EP3809703B1 (en) 2009-06-18 2009-06-18 Video encoding
DK18193270.8T DK3448031T3 (da) 2009-06-18 2009-06-18 Videoafkodningsanordning og videoafkodningsfremgangsmåde
PL18193270T PL3448031T3 (pl) 2009-06-18 2009-06-18 Urządzenie do dekodowania wideo i metoda dekodowania wideo
EP14158491.2A EP2768229B1 (en) 2009-06-18 2009-06-18 Video decoding apparatus
FIEP20205284.1T FI3809703T3 (fi) 2009-06-18 2009-06-18 Videokoodaus
CN200980159915.4A CN102461172B (zh) 2009-06-18 2009-06-18 运动图像编码装置
KR1020117029341A KR101368053B1 (ko) 2009-06-18 2009-06-18 동화상 부호화장치 및 동화상 복호화장치
BR122021002162-7A BR122021002162B1 (pt) 2009-06-18 2009-06-18 Aparelhos de codificação e decodificação de vídeo, métodos para codificação e decodificação de vídeo
EP12178726.1A EP2530937B1 (en) 2009-06-18 2009-06-18 Video encoding apparatus and video decoding apparatus
RU2012101644/08A RU2486692C1 (ru) 2009-06-18 2009-06-18 Устройство кодирования видео и устройство декодирования видео
PT181932708T PT3448031T (pt) 2009-06-18 2009-06-18 Aparelho de descodificação de vídeo e método de descodificação de vídeo
EP09846189.0A EP2445215B1 (en) 2009-06-18 2009-06-18 Dynamic image encoding device and dynamic image decoding device
US13/325,856 US9167273B2 (en) 2009-06-18 2011-12-14 Video encoding apparatus and a video decoding apparatus
US14/192,485 US9307242B2 (en) 2009-06-18 2014-02-27 Video encoding apparatus and video decoding apparatus
US14/201,471 US20140185685A1 (en) 2009-06-18 2014-03-07 Video encoding apparatus and a video decoding apparatus
US14/201,429 US20140192888A1 (en) 2009-06-18 2014-03-07 Video encoding apparatus and video decoding apparatus
US14/201,412 US9628794B2 (en) 2009-06-18 2014-03-07 Video encoding apparatus and a video decoding apparatus
US14/201,454 US9602815B2 (en) 2009-06-18 2014-03-07 Video encoding apparatus and video decoding apparatus
US15/446,477 US9979980B2 (en) 2009-06-18 2017-03-01 Video encoding apparatus and a video decoding apparatus
US15/826,438 US10880568B2 (en) 2009-06-18 2017-11-29 Video encoding apparatus and a video decoding apparatus
US15/826,457 US10341676B2 (en) 2009-06-18 2017-11-29 Video encoding apparatus and a video decoding apparatus
US16/254,734 US10939133B2 (en) 2009-06-18 2019-01-23 Video encoding apparatus and a video decoding apparatus
US17/155,727 US11265571B2 (en) 2009-06-18 2021-01-22 Video encoding apparatus and a video decoding apparatus
HRP20210210TT HRP20210210T1 (hr) 2009-06-18 2021-02-08 Aparat za video dekodiranje i metoda video dekodiranja
CY20211100150T CY1123899T1 (el) 2009-06-18 2021-02-23 Συσκευη αποκωδικοποιησης βιντεο και μεθοδος αποκωδικοποιησης βιντεο
US17/579,685 US11729413B2 (en) 2009-06-18 2022-01-20 Video encoding apparatus and a video decoding apparatus
US18/342,255 US20230345037A1 (en) 2009-06-18 2023-06-27 Video encoding apparatus and a video decoding apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/061130 WO2010146696A1 (ja) 2009-06-18 2009-06-18 動画像符号化装置及び動画像復号化装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/325,856 Continuation US9167273B2 (en) 2009-06-18 2011-12-14 Video encoding apparatus and a video decoding apparatus

Publications (1)

Publication Number Publication Date
WO2010146696A1 true WO2010146696A1 (ja) 2010-12-23

Family

ID=43356034

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/061130 WO2010146696A1 (ja) 2009-06-18 2009-06-18 動画像符号化装置及び動画像復号化装置

Country Status (21)

Country Link
US (5) US9167273B2 (ja)
EP (10) EP3809703B1 (ja)
JP (1) JP5242784B2 (ja)
KR (1) KR101368053B1 (ja)
CN (1) CN102461172B (ja)
AU (1) AU2009348128B2 (ja)
BR (5) BR122021002162B1 (ja)
CA (1) CA2765828C (ja)
CY (1) CY1123899T1 (ja)
DK (2) DK3809703T3 (ja)
ES (2) ES2963468T3 (ja)
FI (1) FI3809703T3 (ja)
HR (2) HRP20231396T1 (ja)
HU (2) HUE053386T2 (ja)
LT (2) LT3448031T (ja)
MX (1) MX2011013707A (ja)
PL (2) PL3448031T3 (ja)
PT (2) PT3809703T (ja)
RU (1) RU2486692C1 (ja)
SI (2) SI3448031T1 (ja)
WO (1) WO2010146696A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011125256A1 (ja) * 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
WO2012101781A1 (ja) * 2011-01-26 2012-08-02 株式会社日立製作所 画像復号化装置
JP2015053729A (ja) * 2014-11-17 2015-03-19 株式会社東芝 画像符号化方法及び画像復号化方法
JP2016129387A (ja) * 2016-02-17 2016-07-14 株式会社東芝 画像符号化方法及び画像復号化方法
JP2017085616A (ja) * 2016-12-16 2017-05-18 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018023126A (ja) * 2017-08-31 2018-02-08 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018057016A (ja) * 2017-11-13 2018-04-05 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018186536A (ja) * 2018-07-02 2018-11-22 株式会社東芝 画像符号化方法及び画像復号化方法
JP2020025308A (ja) * 2019-10-21 2020-02-13 株式会社東芝 画像符号化方法及び画像復号化方法
JP2021036703A (ja) * 2019-10-21 2021-03-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP2021036704A (ja) * 2019-10-21 2021-03-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP7399332B2 (ja) 2019-10-21 2023-12-15 株式会社東芝 画像符号化方法及び画像復号化方法

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126046B2 (en) * 2006-06-30 2012-02-28 Intel Corporation Flexible macroblock ordering and arbitrary slice ordering apparatus, system, and method
US11015149B2 (en) * 2010-06-21 2021-05-25 Toyota Motor Corporation Methods of facilitating removal of a fingerprint
US8796009B2 (en) * 2010-06-21 2014-08-05 Toyota Motor Engineering & Manufacturing North America, Inc. Clearcoat containing thermolysin-like protease from Bacillus stearothermophilus for cleaning of insect body stains
US9621909B2 (en) 2012-07-02 2017-04-11 Lg Electronics Inc. Method for decoding image and apparatus using same
CN103841425B (zh) * 2012-10-08 2017-04-05 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
CN102883163B (zh) 2012-10-08 2014-05-28 华为技术有限公司 用于运动矢量预测的运动矢量列表建立的方法、装置
US9749642B2 (en) 2014-01-08 2017-08-29 Microsoft Technology Licensing, Llc Selection of motion vector precision
US9774881B2 (en) 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
US9942560B2 (en) * 2014-01-08 2018-04-10 Microsoft Technology Licensing, Llc Encoding screen capture data
EP3595302B1 (en) 2017-05-31 2021-07-14 LG Electronics Inc. Method and device for performing image decoding on basis of intra prediction in image coding system
CN114900694A (zh) 2018-06-29 2022-08-12 抖音视界(北京)有限公司 哪个查找表需要更新或不更新
JP7137008B2 (ja) 2018-06-29 2022-09-13 北京字節跳動網絡技術有限公司 1つまたは複数のルックアップテーブルを使用して、以前コーディングされた動き情報を順に記憶させてそれらを後続のブロックのコーディングに使用する概念
EP3791585A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Partial/full pruning when adding a hmvp candidate to merge/amvp
EP3791588A1 (en) 2018-06-29 2021-03-17 Beijing Bytedance Network Technology Co. Ltd. Checking order of motion candidates in lut
CN110662043B (zh) 2018-06-29 2021-12-21 北京字节跳动网络技术有限公司 一种用于处理视频数据的方法、装置和计算机可读介质
WO2020003270A1 (en) 2018-06-29 2020-01-02 Beijing Bytedance Network Technology Co., Ltd. Number of motion candidates in a look up table to be checked according to mode
AU2019293670B2 (en) 2018-06-29 2023-06-08 Beijing Bytedance Network Technology Co., Ltd. Update of look up table: FIFO, constrained FIFO
CN110662052B (zh) 2018-06-29 2022-07-08 北京字节跳动网络技术有限公司 更新查找表(lut)的条件
CN110677667B (zh) 2018-07-02 2022-06-07 北京字节跳动网络技术有限公司 查找表的使用
WO2020053800A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. How many hmvp candidates to be checked
JP7275286B2 (ja) 2019-01-10 2023-05-17 北京字節跳動網絡技術有限公司 Lut更新の起動
CN113383554B (zh) 2019-01-13 2022-12-16 北京字节跳动网络技术有限公司 LUT和共享Merge列表之间的交互
CN113330739A (zh) 2019-01-16 2021-08-31 北京字节跳动网络技术有限公司 Lut中的运动候选的插入顺序
CN113615193B (zh) 2019-03-22 2024-06-25 北京字节跳动网络技术有限公司 Merge列表构建和其他工具之间的交互

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299102A (ja) * 2002-03-18 2003-10-17 Lg Electronics Inc ビデオ符号化システムにおけるbピクチャーモード決定方法及びその装置
JP2004129191A (ja) * 2002-10-04 2004-04-22 Lg Electronics Inc Bピクチャのダイレクトモード動きベクトル演算方法
WO2006052577A2 (en) * 2004-11-04 2006-05-18 Thomson Licensing Method and apparatus for fast mode decision of b-frames in a video encoder
JP2008205790A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd H.264復号装置、プログラム、および記録媒体

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58138655A (ja) 1982-02-12 1983-08-17 Toshiba Corp 文書印刷制御装置
JPH03253119A (ja) 1990-03-02 1991-11-12 Kokusai Denshin Denwa Co Ltd <Kdd> 適応予測符号化における制御情報削減方式
KR100244291B1 (ko) * 1997-07-30 2000-02-01 구본준 동영상 움직임 벡터 코딩 방법
KR100249223B1 (ko) * 1997-09-12 2000-03-15 구자홍 엠팩(mpeg)-4의움직임벡터코딩방법
JP3646845B2 (ja) * 1998-03-03 2005-05-11 Kddi株式会社 ビデオ符号化装置
EP1119975B1 (en) * 1998-10-13 2003-04-23 STMicroelectronics Asia Pacific Pte Ltd. Motion vector detection with local motion estimator
US6735249B1 (en) 1999-08-11 2004-05-11 Nokia Corporation Apparatus, and associated method, for forming a compressed motion vector field utilizing predictive motion coding
JP4114859B2 (ja) * 2002-01-09 2008-07-09 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
CN1449197A (zh) * 2002-03-29 2003-10-15 Lg电子株式会社 视频编码系统中的b图象模式确定方法与装置
JP4130780B2 (ja) 2002-04-15 2008-08-06 松下電器産業株式会社 画像符号化方法および画像復号化方法
KR100931746B1 (ko) * 2002-04-19 2009-12-14 파나소닉 주식회사 움직임 벡터 계산방법
JP2004208259A (ja) 2002-04-19 2004-07-22 Matsushita Electric Ind Co Ltd 動きベクトル計算方法
JP4130783B2 (ja) * 2002-04-23 2008-08-06 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
JP2003319391A (ja) 2002-04-26 2003-11-07 Sony Corp 符号化装置および方法、復号装置および方法、記録媒体、並びにプログラム
KR100491530B1 (ko) * 2002-05-03 2005-05-27 엘지전자 주식회사 모션 벡터 결정 방법
JP4373702B2 (ja) 2003-05-07 2009-11-25 株式会社エヌ・ティ・ティ・ドコモ 動画像符号化装置、動画像復号化装置、動画像符号化方法、動画像復号化方法、動画像符号化プログラム及び動画像復号化プログラム
JP2005005844A (ja) * 2003-06-10 2005-01-06 Hitachi Ltd 計算装置及び符号化処理プログラム
US7233622B2 (en) * 2003-08-12 2007-06-19 Lsi Corporation Reduced complexity efficient binarization method and/or circuit for motion vector residuals
US8064520B2 (en) * 2003-09-07 2011-11-22 Microsoft Corporation Advanced bi-directional predictive coding of interlaced video
US7454076B2 (en) 2004-06-15 2008-11-18 Cisco Technology, Inc. Hybrid variable length coding method for low bit rate video coding
CN101005620B (zh) 2004-09-03 2011-08-10 微软公司 为隔行扫描和逐行扫描视频编码和解码宏块和运动信息中的革新
JP4146444B2 (ja) * 2005-03-16 2008-09-10 株式会社東芝 動画像符号化の方法及び装置
JP4047879B2 (ja) * 2005-08-23 2008-02-13 松下電器産業株式会社 動きベクトル検出装置および動きベクトル検出方法
CN101005614A (zh) 2006-01-17 2007-07-25 鲁海宁 动态图像编解码方法、装置和计算机可读记录介质
US7573407B2 (en) * 2006-11-14 2009-08-11 Qualcomm Incorporated Memory efficient adaptive block coding
US8335261B2 (en) * 2007-01-08 2012-12-18 Qualcomm Incorporated Variable length coding techniques for coded block patterns
JP5025286B2 (ja) 2007-02-28 2012-09-12 シャープ株式会社 符号化装置及び復号装置
JP2009060377A (ja) * 2007-08-31 2009-03-19 Toshiba Corp 補間フレーム生成装置及び補間フレーム生成方法
US8938009B2 (en) * 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
US8228990B2 (en) * 2008-01-16 2012-07-24 Sony Corporation Template matching scheme using multiple predictors as candidates for intra-prediction
WO2009115901A2 (en) * 2008-03-19 2009-09-24 Nokia Corporation Combined motion vector and reference index prediction for video coding
TWI491258B (zh) * 2008-06-20 2015-07-01 Mstar Semiconductor Inc 決定移動向量的方法及其相關裝置
JP5739025B2 (ja) 2014-01-20 2015-06-24 株式会社東芝 動画像復号化装置及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003299102A (ja) * 2002-03-18 2003-10-17 Lg Electronics Inc ビデオ符号化システムにおけるbピクチャーモード決定方法及びその装置
JP2004129191A (ja) * 2002-10-04 2004-04-22 Lg Electronics Inc Bピクチャのダイレクトモード動きベクトル演算方法
WO2006052577A2 (en) * 2004-11-04 2006-05-18 Thomson Licensing Method and apparatus for fast mode decision of b-frames in a video encoder
JP2008205790A (ja) * 2007-02-20 2008-09-04 Matsushita Electric Ind Co Ltd H.264復号装置、プログラム、および記録媒体

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9906812B2 (en) 2010-04-08 2018-02-27 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10542281B2 (en) 2010-04-08 2020-01-21 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10999597B2 (en) 2010-04-08 2021-05-04 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10779001B2 (en) 2010-04-08 2020-09-15 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US9538181B2 (en) 2010-04-08 2017-01-03 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10715828B2 (en) 2010-04-08 2020-07-14 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US9794587B2 (en) 2010-04-08 2017-10-17 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US11889107B2 (en) 2010-04-08 2024-01-30 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10560717B2 (en) 2010-04-08 2020-02-11 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US11265574B2 (en) 2010-04-08 2022-03-01 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10091525B2 (en) 2010-04-08 2018-10-02 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
US10009623B2 (en) 2010-04-08 2018-06-26 Kabushiki Kaisha Toshiba Image encoding method and image decoding method
WO2011125256A1 (ja) * 2010-04-08 2011-10-13 株式会社 東芝 画像符号化方法及び画像復号化方法
WO2012101781A1 (ja) * 2011-01-26 2012-08-02 株式会社日立製作所 画像復号化装置
JP2015053729A (ja) * 2014-11-17 2015-03-19 株式会社東芝 画像符号化方法及び画像復号化方法
JP2016129387A (ja) * 2016-02-17 2016-07-14 株式会社東芝 画像符号化方法及び画像復号化方法
JP2017085616A (ja) * 2016-12-16 2017-05-18 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018023126A (ja) * 2017-08-31 2018-02-08 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018057016A (ja) * 2017-11-13 2018-04-05 株式会社東芝 画像符号化方法及び画像復号化方法
JP2018186536A (ja) * 2018-07-02 2018-11-22 株式会社東芝 画像符号化方法及び画像復号化方法
JP2021036704A (ja) * 2019-10-21 2021-03-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP2021036703A (ja) * 2019-10-21 2021-03-04 株式会社東芝 画像符号化方法及び画像復号化方法
JP7399332B2 (ja) 2019-10-21 2023-12-15 株式会社東芝 画像符号化方法及び画像復号化方法
JP2020025308A (ja) * 2019-10-21 2020-02-13 株式会社東芝 画像符号化方法及び画像復号化方法

Also Published As

Publication number Publication date
US20120128073A1 (en) 2012-05-24
EP2530937A2 (en) 2012-12-05
CY1123899T1 (el) 2022-05-27
PL3809703T3 (pl) 2023-12-11
EP2765778A1 (en) 2014-08-13
CA2765828C (en) 2016-04-19
AU2009348128B2 (en) 2014-05-15
PL3448031T3 (pl) 2021-04-19
CN102461172A (zh) 2012-05-16
AU2009348128A1 (en) 2012-01-19
FI3809703T3 (fi) 2023-12-04
HUE053386T2 (hu) 2021-06-28
PT3809703T (pt) 2023-11-23
PT3448031T (pt) 2021-02-05
EP2768229B1 (en) 2017-03-29
EP2768229A1 (en) 2014-08-20
BRPI0924908A2 (pt) 2016-05-03
KR101368053B1 (ko) 2014-02-27
HUE065097T2 (hu) 2024-05-28
US9167273B2 (en) 2015-10-20
HRP20231396T1 (hr) 2024-05-10
EP3809703A1 (en) 2021-04-21
DK3448031T3 (da) 2021-02-01
BR122021002162B1 (pt) 2021-09-28
BR122015029294A2 (pt) 2016-05-10
MX2011013707A (es) 2012-02-28
EP2445215B1 (en) 2015-03-18
RU2486692C1 (ru) 2013-06-27
US20140177727A1 (en) 2014-06-26
SI3809703T1 (sl) 2024-04-30
SI3448031T1 (sl) 2021-03-31
ES2963468T3 (es) 2024-03-27
DK3809703T3 (da) 2023-11-20
EP2445215A1 (en) 2012-04-25
US20140192888A1 (en) 2014-07-10
EP3809703B1 (en) 2023-09-13
KR20120024731A (ko) 2012-03-14
EP2530937B1 (en) 2015-03-18
LT3448031T (lt) 2021-02-10
HRP20210210T1 (hr) 2021-06-25
EP2530937A3 (en) 2013-07-10
JPWO2010146696A1 (ja) 2012-11-29
CN102461172B (zh) 2015-03-11
EP2765779B1 (en) 2018-10-10
US9307242B2 (en) 2016-04-05
ES2850074T3 (es) 2021-08-25
EP4254961A2 (en) 2023-10-04
EP3448031B1 (en) 2020-12-23
LT3809703T (lt) 2023-12-11
BRPI0924908B1 (pt) 2021-05-11
CA2765828A1 (en) 2010-12-23
US20140185685A1 (en) 2014-07-03
JP5242784B2 (ja) 2013-07-24
BR122021002161B1 (pt) 2021-09-28
EP4254961A3 (en) 2023-12-20
EP3448031A1 (en) 2019-02-27
EP2768228B1 (en) 2016-08-24
US20140185684A1 (en) 2014-07-03
BR122020003111B1 (pt) 2021-05-11
EP3179721B1 (en) 2018-08-01
EP2765778B1 (en) 2016-08-17
US9602815B2 (en) 2017-03-21
EP2445215A4 (en) 2013-07-10
EP2768228A1 (en) 2014-08-20
EP3179721A1 (en) 2017-06-14
EP2765779A1 (en) 2014-08-13

Similar Documents

Publication Publication Date Title
JP5242784B2 (ja) 動画像符号化装置及び方法
JP5739025B2 (ja) 動画像復号化装置及び方法
JP6109884B2 (ja) 動画像復号化装置及び方法
JP6608904B2 (ja) 動画像符号化装置及び方法
JP6356762B2 (ja) 動画像符号化装置及び方法
JP7431935B2 (ja) 動画像符号化装置及び動画像復号化装置
JP6514307B2 (ja) 動画像符号化装置及び方法
JP5547312B2 (ja) 動画像復号化装置及び方法
JP5498597B2 (ja) 動画像符号化装置及び方法
JP5739026B2 (ja) 動画像符号化装置及び方法
JP5784158B2 (ja) 動画像符号化装置及び方法
JP5666028B2 (ja) 動画像復号化装置及び方法
CA2845186C (en) Video encoding apparatus and a video decoding apparatus

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980159915.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09846189

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2011519374

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20117029341

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2011/013707

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 2765828

Country of ref document: CA

Ref document number: 2009846189

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2009348128

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 10217/DELNP/2011

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2012101644

Country of ref document: RU

ENP Entry into the national phase

Ref document number: 2009348128

Country of ref document: AU

Date of ref document: 20090618

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: PI0924908

Country of ref document: BR

ENP Entry into the national phase

Ref document number: PI0924908

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20111213