WO2019117646A1 - 분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치 - Google Patents

분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치 Download PDF

Info

Publication number
WO2019117646A1
WO2019117646A1 PCT/KR2018/015845 KR2018015845W WO2019117646A1 WO 2019117646 A1 WO2019117646 A1 WO 2019117646A1 KR 2018015845 W KR2018015845 W KR 2018015845W WO 2019117646 A1 WO2019117646 A1 WO 2019117646A1
Authority
WO
WIPO (PCT)
Prior art keywords
parameter
information
block
parameters
unit
Prior art date
Application number
PCT/KR2018/015845
Other languages
English (en)
French (fr)
Inventor
조승현
김연희
석진욱
이주영
임웅
김종호
이대열
정세윤
김휘용
최진수
강제원
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US16/772,557 priority Critical patent/US11663476B2/en
Priority claimed from KR1020180160774A external-priority patent/KR102435595B1/ko
Publication of WO2019117646A1 publication Critical patent/WO2019117646A1/ko
Priority to US18/306,075 priority patent/US20230297833A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0495Quantised networks; Sparse networks; Compressed networks

Definitions

  • the following embodiments relate to a method and apparatus for deep learning in a distributed processing environment and a method and an apparatus for compressing learning parameters for learning a deep learning model in a distributed processing environment and transmitting the compressed parameters will be.
  • a feature of the state-of-the-art deep learning model such as the Convolutional Neural Network (CNN) is that it has a large-scale network structure to improve recognition performance.
  • CNN Convolutional Neural Network
  • the hierarchical depth of the model increases more and more. As the depth increases, the number of weighting parameters of the edge connecting the nodes of the network also increases.
  • Acceleration schemes for distributed learning can be classified into a data parallelism method and a model parallelism method.
  • Data parallelism is a method in which an input data set, which is the object of learning, is divided into a plurality of computers, and each computer performs learning using a divided input data set assigned to itself.
  • the model parallel processing method is a method in which a deep learning model is divided and a plurality of computers perform learning of divided deep learning models.
  • each distributed computer of the distributed processing system performs learning on the entirety of the deep learning learning model using input data divided into parts.
  • the distributed computer exchanges kernel parameters modified by learning with other distributed computers. That is to say, the exchange of modified kernel parameters takes place between the distributed computers of the distributed processing system.
  • a data-parallel processing scheme can be used to divide the deep-run model and perform learning on the divided deep-run model .
  • multiple distributed computers in a distributed processing system each perform learning on partitions of the deep learning model.
  • each distributed computer in the distributed processing system performs training on the entire input data, and exchanges the partially calculated local parameter for the division of the deep learning model with another distributed computer.
  • local parameters are exchanged between distributed computers in a distributed processing system.
  • One embodiment may provide a method and apparatus for providing compression and transmission of learning parameters in a distributed processing environment.
  • One embodiment may provide a method and apparatus for sharing updated parameters in a single electronic device among a plurality of electronic devices in a distributed processing system.
  • Information for updating the sagittal parameter may be generated based on the residual of the parameter.
  • the residual of the parameter may be the difference between the value of the parameter updated by performing the learning and the value of the previous parameter of the learning.
  • Information for updating the parameter may be sent to one or more other electronic devices that perform learning of the neural network in the distributed processing system.
  • Information for updating the parameter may be transmitted to the parameter server in the distributed processing system.
  • the parameter server may forward information for updating the parameter to one or more electronic devices performing learning of the neural network in the distributed processing system.
  • the electronic device may perform learning on one of a plurality of layers of the deep learning model.
  • the parameter may be plural.
  • the plurality of parameters may constitute one layer of the deep learning model.
  • the information for updating the parameter may include compressed residuals of the plurality of parameters.
  • the residuals of the plurality of parameters can be obtained by performing decoding on the compressed residuals of the plurality of parameters contained in the information for updating the parameter.
  • the updating of the plurality of parameters may be performed using the residuals of the plurality of parameters.
  • a decoding method for a block of an image can be used.
  • Each parameter of the plurality of parameters may correspond to the block.
  • the block may be plural.
  • the plurality of blocks may constitute a target image.
  • a decoding method for a target image can be used.
  • At least one of entropy decoding, scanning, dequantization, and inverse transform for the block may be used for the decoding.
  • the scanned information may be generated based on the information for updating the parameter.
  • the scanned information may include scanned quantized warps.
  • Scanned quantized slopes can be generated by performing one-dimensional to two-dimensional scanning of the scanned information.
  • the reconstructed slopes can be generated by performing inverse quantization on the quantized slopes.
  • the reconstructed warp yarns may be residuals of the plurality of parameters.
  • the scanned information may comprise zero subblocks.
  • the zero subblock may represent a specified region in a block and may indicate that the values of the quantized warp in the specified region are all zero.
  • the scanned information may include a zero block.
  • the zero block may indicate that the values of quantized slopes in the block are all zero.
  • the scanned information may include a zero layer.
  • the zero layer may indicate that the values of all quantized slopes of all blocks of the layer are zero.
  • an electronic apparatus in a distributed processing system comprising: a communication unit for receiving information for updating parameters from another apparatus in the distributed processing system; And a processing unit for performing update of the parameter using information for updating the parameter, wherein the processing unit generates a residual of the parameter based on the information for updating the parameter, and updates the residual of the parameter to the parameter To perform the update of the parameter.
  • a method and apparatus are provided for providing compression and transmission of learning parameters in a distributed processing environment.
  • a method and apparatus are provided for sharing updated parameters in one electronic device among a plurality of electronic devices in a distributed processing system.
  • FIG. 1 is a block diagram illustrating a configuration of an encoding apparatus to which the present invention is applied.
  • FIG. 2 is a block diagram illustrating a configuration of a decoding apparatus to which the present invention is applied.
  • FIG. 3 is a diagram schematically showing a division structure of an image when coding and decoding an image.
  • Figure 4 illustrates sharing of parameters based on a full mesh topology according to an example.
  • Figure 5 illustrates the sharing of parameters based on a star topology according to an example.
  • FIG. 6 is a flow diagram of a method for providing information about updated parameters in accordance with one embodiment.
  • FIG. 7 is a flow diagram of a method for performing parameter updates using information about updated parameters in accordance with one embodiment.
  • FIG. 9 shows a process of quantization, raster scan and entropy coding according to an example.
  • FIG. 10 illustrates entropy encoding using zero subblocks and zero layers according to an example.
  • FIG 11 shows the sharing of parameters in the model parallel processing method according to an example.
  • first, second, etc. in the present invention may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
  • / or < / RTI &gt includes any combination of a plurality of related listed items or any of a plurality of related listed items.
  • a component When it is mentioned that a component is “connected” or “connected” to another component, the two components may be directly connected or connected to each other, It is to be understood that other components may be present in the middle of the components. When a component is referred to as being “directly connected” or “directly connected” to another component, it should be understood that no other component is present in the middle of the two components.
  • each component shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that each component is composed of separate hardware or one software constituent unit. That is, each component is listed as a separate component for convenience of explanation. At least two components of each component are combined to form one component, or one component is divided into a plurality of components, And the integrated embodiments and the separate embodiments of each of these components are also included in the scope of the present invention unless they depart from the essence of the present invention.
  • the description of "comprising" a specific configuration does not exclude a configuration other than the specific configuration, and the additional configuration is not limited to the implementation of the exemplary embodiments or the technical idea of the exemplary embodiments. Range. ≪ / RTI >
  • an image may denote a picture constituting a video, or may represent a video itself.
  • "encoding and / or decoding of an image” may mean “encoding and / or decoding of video ", which means” encoding and / or decoding of one of the images constituting a video " It is possible.
  • video and “motion picture” may be used interchangeably and may be used interchangeably.
  • the target image may be a coding target image to be coded and / or a decoding target image to be decoded.
  • the target image may be an input image input to the encoding device or an input image input to the decoding device.
  • image image
  • picture picture
  • frame and “screen” may be used interchangeably and may be used interchangeably.
  • the target block may be a current block to be coded and / or a current block to be decoded.
  • the target block may be the current block that is the current encoding and / or decoding target.
  • the terms "object block” and "current block” may be used interchangeably and may be used interchangeably.
  • block and “unit” may be used interchangeably and may be used interchangeably. Or “block” may represent a particular unit.
  • a specific signal may be a signal indicating a specific block.
  • an original signal may be a signal representing a target block.
  • the prediction signal may be a signal representing a prediction block.
  • the residual signal may be a signal representing the residual block.
  • each of the specified information, data, flags and elements, attributes, etc. may have a value.
  • the value "0" of information, data, flags and element, attribute, etc. may represent a logical false or a first predefined value. That is to say, the values “0 ", False, Logical False, and First Default values can be used interchangeably.
  • the value "1" of information, data, flags and elements, attributes, etc. may represent a logical true or a second predefined value. That is to say, the values "1 ", " true ", " logical "
  • i When a variable such as i or j is used to represent a row, column or index, the value of i may be an integer greater than or equal to 0 and may be an integer greater than or equal to one. In other words, in the embodiments, rows, columns, indexes, etc. may be counted from 0 and counted from 1.
  • Encoder An apparatus that performs encoding.
  • Decoder A device that performs decoding.
  • a unit may represent a unit of encoding and decoding of an image.
  • the terms “unit” and “block” may be used interchangeably and may be used interchangeably.
  • the unit may be an MxN array of samples.
  • M and N may be positive integers, respectively.
  • a unit can often refer to an array of two-dimensional samples.
  • a unit may be an area generated by the division of one image. That is to say, a unit may be a specified area in one image.
  • One image may be divided into a plurality of units.
  • a unit may mean the divided portion when one image is divided into subdivided portions and when encoding or decoding is performed on the subdivided portions.
  • predetermined processing on the unit may be performed depending on the type of unit.
  • the type of unit may be a Macro Unit, a Coding Unit (CU), a Prediction Unit (PU), a Residual Unit and a Transform Unit (TU) . ≪ / RTI >
  • the unit may include a block, a macroblock, a Coding Tree Unit, a Coding Tree Block, a Coding Unit, a Coding Block, A prediction unit, a prediction block, a residual unit, a residual block, a transform unit, and a transform block.
  • a unit may refer to information comprising a luma component block and its corresponding chroma component block, and a syntax element for each block, to distinguish it from a block.
  • the size and shape of the unit may vary.
  • the unit may have various sizes and shapes.
  • the shape of the unit may include not only squares but also geometric figures that can be expressed in two dimensions, such as rectangles, trapezoids, triangles, and pentagons.
  • the unit information may include at least one of a unit type, a unit size, a unit depth, a unit encoding order, and a unit decoding order.
  • the type of unit may refer to one of CU, PU, residual unit, and TU.
  • one unit may be further subdivided into smaller units with a smaller size than the unit.
  • Depth can mean the degree of division of a unit. Unit depth can also indicate the level at which a unit is present when the unit is represented in a tree structure.
  • the unit partition information may include a depth for the depth of the unit.
  • the depth may indicate the number and / or the number of times the unit is divided.
  • the depth of the root node is the shallowest and the depth of the leaf node is the deepest.
  • a unit may be hierarchically divided into a plurality of subunits with depth information based on a tree structure. That is to say, the unit and the lower unit generated by the division of the unit can correspond to the node and the child node of the node, respectively. Each divided subunit may have a depth. Since the depth indicates the number and / or degree of division of the unit, the division information of the lower unit may include information on the size of the lower unit.
  • the top node may correspond to the first unit that has not been partitioned.
  • the superordinate node may be referred to as a root node.
  • the uppermost node may have a minimum depth value. At this time, the uppermost node can have a level 0 depth.
  • a node with a depth of level 1 can represent a unit created as the first unit is once partitioned.
  • a node with a depth of level 2 may represent a unit created as the first unit is divided twice.
  • a node with a depth of level n can represent a unit created as the first unit is divided n times.
  • the leaf node may be the lowest node, and may be a node that can not be further divided.
  • the depth of the leaf node may be the maximum level.
  • the default value of the maximum level may be three.
  • - QT depth can indicate depth for quad split.
  • the BT depth can represent the depth for binary segmentation.
  • the TT depth can represent the depth for the ternary splitting.
  • a sample can be a base unit that makes up a block.
  • the samples can be represented as values from 0 to 2 Bd- 1, depending on the bit depth (Bd).
  • the sample may be a pixel or a pixel value.
  • pixel In the following, the terms “pixel”, “pixel” and “sample” may be used interchangeably and may be used interchangeably.
  • a CTU can consist of one luma component (Y) coding tree block and two chroma component (Cb, Cr) coding tree blocks related to the luma component coding tree block have.
  • the CTU may also include the above blocks and the syntax elements for each block of the above blocks.
  • Each coding tree unit may be configured as a quad tree (QT), a binary tree (BT), and a ternary tree (TT) to construct a lower unit such as a coding unit, May be divided using one or more division methods.
  • each coding tree unit may be partitioned using a MultiType Tree (MTT) using one or more partitioning schemes.
  • QT quad tree
  • BT binary tree
  • TT ternary tree
  • MTT MultiType Tree
  • the CTU can be used as a term to refer to a pixel block, which is a processing unit in the process of decoding and encoding an image, as in the segmentation of an input image.
  • a coding tree block can be used as a term for designating any one of a Y coding tree block, a Cb coding tree block, and a Cr coding tree block.
  • a neighboring block may mean a block adjacent to a target block.
  • a neighboring block may mean a restored neighboring block.
  • peripheral block and “adjacent block” may be used interchangeably and may be used interchangeably.
  • a spatial neighbor block may be a block spatially adjacent to a target block.
  • the neighboring block may include a spatial neighboring block.
  • the target block and the spatial neighboring block may be included in the target picture.
  • a spatial neighboring block may refer to a block that is bounded to a target block or a block located within a predetermined distance from a target block.
  • a spatial neighboring block may mean a block adjacent to the vertex of the target block.
  • a block adjacent to a vertex of a target block may be a block vertically adjacent to a neighboring block horizontally adjacent to the target block or a block horizontally adjacent to a neighboring block vertically adjacent to the target block.
  • Temporal neighbor block The temporal neighbor block may be temporally adjacent to the target block.
  • the neighboring blocks may include temporal neighboring blocks.
  • the temporal neighboring block may include a co-located block (col block).
  • the call block may be a block in a co-located picture (col picture).
  • the position of the call block in the call picture may correspond to the position in the target picture of the target block.
  • the position of the call block in the call picture may be the same as the position in the target picture of the target block.
  • the call picture may be a picture included in the reference picture list.
  • the temporal neighboring block may be a block temporally adjacent to the spatial neighboring block of the target block.
  • Prediction unit It can mean a base unit for prediction such as inter prediction, intra prediction, inter-compensation, intra compensation, and motion compensation.
  • one prediction unit may be divided into a plurality of partitions or lower prediction units having a smaller size.
  • the plurality of partitions may also be a base unit in performing prediction or compensation.
  • the partition generated by the division of the prediction unit may also be a prediction unit.
  • Prediction unit partition may mean a type in which a prediction unit is divided.
  • the reconstructed neighboring unit may be a unit that has already been decoded and reconstructed around the target unit.
  • the reconstructed neighboring unit may be a spatial adjacent unit or a temporal adjacent unit for the target unit.
  • the reconstructed spatial surrounding unit may be a unit in the target picture and a unit already reconstructed through coding and / or decoding.
  • the reconstructed temporal neighboring unit may be a unit in the reference image and a unit already reconstructed through coding and / or decoding.
  • the position in the reference picture of the reconstructed temporal neighboring unit may be the same as the position in the target picture of the target unit or may correspond to the position in the target picture of the target unit.
  • a parameter set may correspond to header information among structures in a bitstream.
  • the parameter set includes a video parameter set (VPS), a sequence parameter set (SPS), a picture parameter set (PPS), and an adaptation parameter set (APS) And the like.
  • VPS video parameter set
  • SPS sequence parameter set
  • PPS picture parameter set
  • APS adaptation parameter set
  • the parameter set may include slice header information and tile header information.
  • Rate-distortion optimization An encoding apparatus uses rate-distortion optimization to provide a high coding efficiency using a combination of a coding unit size, a prediction mode, a prediction unit size, motion information, Distortion optimization can be used.
  • the rate-distortion optimization scheme can calculate the rate-distortion cost of each combination to select the optimal combination from among the combinations above.
  • the rate-distortion cost can be calculated using Equation 1 below.
  • the combination in which the rate-distortion cost is minimized can be selected as the optimum combination in the rate-distortion optimization method.
  • D may be the mean square error of the difference values between the original transform coefficients and the reconstructed transform coefficients in the transform unit.
  • R can represent the bit rate using related context information.
  • R may include coding parameter information such as a prediction mode, motion information, and coded block flag, as well as bits generated by coding the transform coefficients.
  • the encoder may perform inter prediction and / or intra prediction, conversion, quantization, entropy coding, inverse quantization, inverse transform, etc. to calculate the correct D and R. These processes can greatly increase the complexity in the encoding apparatus.
  • Bitstream may be a bit string containing encoded image information.
  • a parameter set may correspond to header information among structures in a bitstream.
  • the parameter set may comprise at least one of a video parameter set, a sequence parameter set, a picture parameter set and an adaptation parameter set.
  • the parameter set may also include information of a slice header and information of a tile header.
  • Parsing may entropy-decode the bitstream to determine the value of a syntax element. Or, parsing may mean entropy decoding itself.
  • Symbol may include at least one of a syntax element, a coding parameter, and a transform coefficient of a coding target unit and / or a target unit to be decoded.
  • the symbol may mean a target of entropy encoding or a result of entropy decoding.
  • a reference picture may refer to an image that a unit refers to for inter prediction or motion compensation.
  • the reference picture may be an image including a reference unit referred to by the target unit for inter prediction or motion compensation.
  • reference picture and “reference picture” may be used interchangeably and may be used interchangeably.
  • Reference picture list may be a list including one or more reference pictures used for inter-prediction or motion compensation.
  • the types of the reference picture list include a list combination (LC), a list 0 (L0), a list 1 (L1), a list 2 (L2), and a list 3 ) And the like.
  • One or more reference picture lists may be used for inter prediction.
  • An inter prediction indicator may indicate the direction of inter prediction for a target unit.
  • the inter prediction may be one of a unidirectional prediction and a bidirectional prediction.
  • the inter prediction indicator may indicate the number of reference images used when generating the prediction unit of the target unit.
  • the inter prediction indicator may mean the number of prediction blocks used for inter prediction or motion compensation for the target unit.
  • the reference picture index may be an index indicating a specific reference picture in the reference picture list.
  • Motion Vector A motion vector may be a two-dimensional vector used in inter prediction or motion compensation.
  • a motion vector may mean an offset between a target image and a reference image.
  • MV can be expressed in the form (mv x , mv y ).
  • mv x may represent a horizontal component
  • mv y may represent a vertical component.
  • the search area may be a two-dimensional area where an MV search is performed during inter prediction.
  • the size of the search area may be MxN.
  • M and N may be positive integers, respectively.
  • Motion vector candidate may mean a motion vector of a block, which is a prediction candidate or a prediction candidate, when a motion vector is predicted.
  • the motion vector candidate may be included in the motion vector candidate list.
  • a motion vector candidate list may refer to a list constructed using one or more motion vector candidates.
  • Motion vector candidate index may indicate an indicator indicating a motion vector candidate in a motion vector candidate list.
  • the motion vector candidate index may be an index of a motion vector predictor.
  • Motion information includes motion picture information, reference picture list information, reference pictures, motion vector candidates, motion vector candidate indexes, merge candidates, and merge indices, as well as motion vectors, reference picture indexes and inter prediction indicators Quot; and " information "
  • a merge candidate list can mean a list constructed using merge candidates.
  • a merge candidate can mean a spatial merge candidate, a temporal merge candidate, a combined merge candidate, a combined bi-prediction merge candidate, and a zero merge candidate.
  • the merge candidate may include motion type information such as prediction type information, a reference picture index for each list, and a motion vector.
  • the merge index may be an indicator that indicates the merge candidate in the merge candidate list.
  • the merge index may indicate a reconstructed unit spatially adjacent to the target unit and a reconstructed unit that derives the merge candidate out of the reconstructed units temporally adjacent to the target unit.
  • the merge index may indicate at least one of the motion information of the merge candidate.
  • the transform unit can be a base unit in residual signal coding and / or residual signal decoding such as transform, inverse transform, quantization, inverse quantization, transform coefficient coding and transform coefficient decoding.
  • One conversion unit can be divided into a plurality of conversion units of a smaller size.
  • Scaling can refer to the process of multiplying the transform coefficient level by an argument.
  • Scaling may also be referred to as dequantization.
  • the quantization parameter may refer to a value used when generating a transform coefficient level for a transform coefficient in quantization.
  • the quantization parameter may mean a value used when generating the transform coefficient by scaling the transform coefficient level in the inverse quantization.
  • the quantization parameter may be a value mapped to a quantization step size.
  • a delta quantization parameter means a predicted quantization parameter and a differential value of the quantization parameter of the target unit.
  • a scan may mean a method of arranging the order of coefficients within a unit, block, or matrix. For example, arranging a two-dimensional array in a one-dimensional array form can be referred to as a scan. Alternatively, arranging the one-dimensional arrays in the form of a two-dimensional array may be referred to as a scan or an inverse scan.
  • the transform coefficient may be a coefficient value generated as a result of performing the transform in the encoding apparatus.
  • the transform coefficient may be a coefficient value generated by performing at least one of entropy decoding and inverse quantization in the decoding apparatus.
  • the quantized level or quantized transform coefficient level generated by applying the quantization to the transform coefficients or residual signals may also be included in the meaning of the transform coefficients.
  • a quantized level may mean a value generated by performing a quantization on a transform coefficient or a residual signal in an encoding apparatus.
  • the quantized level may be a value to be subjected to inverse quantization in performing inverse quantization in the decoding apparatus.
  • the quantized transform coefficient levels resulting from the transform and quantization can also be included in the meaning of the quantized levels.
  • Non-zero transform coefficient may mean a transform coefficient having a value other than zero or a transform coefficient level having a non-zero value.
  • the non-zero transform coefficient may mean a transform coefficient whose magnitude is not zero or a transform coefficient level whose magnitude is not zero.
  • a quantization matrix may mean a matrix used in a quantization process or a dequantization process to improve the subjective or objective image quality of an image.
  • the quantization matrix may also be referred to as a scaling list.
  • Quantization matrix coefficient may refer to each element in the quantization matrix.
  • the quantization matrix coefficient may also be referred to as a matrix coefficient.
  • the base matrix may be a predefined quantization matrix in the encoder and decoder.
  • Non-default matrix The non-default matrix may be a non-default quantization matrix in the encoder and decoder.
  • the non-default matrix may be signaled from the encoder to the decoder.
  • the MPM may indicate an intra prediction mode that is likely to be used for intra prediction of a target block.
  • the encoding device and the decoding device may determine one or more MPMs based on coding parameters related to the object block and attributes of the object related to the object block.
  • the encoder and decoder may determine one or more MPMs based on the intra prediction mode of the reference block.
  • the reference block may be plural.
  • the plurality of reference blocks may include a spatial neighboring block to the left of the target block and a spatial neighboring block to the top of the target block. That is to say, one or more different MPMs may be determined depending on which intra prediction modes are used for the reference blocks.
  • One or more MPMs may be determined in the same manner in the encoder and decoder. That is to say, the encoder and decoder can share an MPM list that includes the same one or more MPMs.
  • the MPM list may be a list containing one or more MPMs.
  • the number of one or more MPMs in the MPM list may be predetermined.
  • the MPM indicator can indicate the MPM used for intraprediction of the target block of one or more MPMs in the MPM list.
  • the MPM indicator may be an index to the MPM list.
  • the MPM list is determined in the same manner in the encoder and the decoder, the MPM list itself may not need to be transmitted from the encoder to the decoder.
  • the MPM indicator may be signaled from the encoder to the decoder. As the MPM indicator is signaled, the decoding device may determine the MPM to be used for intra prediction of the target block among the MPMs in the MPM list.
  • the MPM Utilization Indicator can indicate whether the MPM use mode is to be used for prediction of the target block.
  • the MPM usage mode may be a mode for determining an MPM to be used for intra prediction on a target block using the MPM list.
  • the MPM usage indicator may be signaled from the encoding device to the decryption device.
  • Signaling may indicate that information is sent from the encoding device to the decoding device.
  • signaling may mean including information in a bitstream or recording medium.
  • the information signaled by the encoding apparatus may be used by the decoding apparatus.
  • FIG. 1 is a block diagram illustrating a configuration of an encoding apparatus to which the present invention is applied.
  • the encoding apparatus 100 may be an encoder, a video encoding apparatus, or an image encoding apparatus.
  • the video may include one or more images.
  • the encoding apparatus 100 may sequentially encode one or more images of the video.
  • an encoding apparatus 100 includes an inter prediction unit 110, an intra prediction unit 120, a switch 115, a subtractor 125, a transform unit 130, a quantization unit 140, An inverse quantization unit 160, an inverse transform unit 170, an adder 175, a filter unit 180, and a reference picture buffer 190.
  • the encoding apparatus 100 may perform encoding of a target image using an intra mode and / or an inter mode.
  • the encoding apparatus 100 can generate a bitstream including encoding information through encoding of a target image, and output the generated bitstream.
  • the generated bit stream can be stored in a computer-readable recording medium and can be streamed through a wired / wireless transmission medium.
  • the switch 115 When the intra mode is used as the prediction mode, the switch 115 can be switched to intra. When the inter mode is used as the prediction mode, the switch 115 can be switched to the inter.
  • the encoding apparatus 100 may generate a prediction block for the target block. Also, after the prediction block is generated, the encoding device 100 can code the residual of the target block and the prediction block.
  • the intra prediction unit 120 can use the pixels of the already coded / decoded block around the target block as a reference sample.
  • the intra prediction unit 120 can perform spatial prediction of a target block using a reference sample and generate prediction samples of a target block through spatial prediction.
  • the inter prediction unit 110 may include a motion prediction unit and a motion compensation unit.
  • the motion predicting unit can search for the best matched region from the reference block in the motion estimation process, derive the motion vector for the target block and the searched region using the searched region, can do.
  • the reference picture may be stored in the reference picture buffer 190 and may be stored in the reference picture buffer 190 when the coding and / or decoding of the reference picture has been processed.
  • the motion compensation unit may generate a prediction block for a target block by performing motion compensation using a motion vector.
  • the motion vector may be a two-dimensional vector used for inter prediction.
  • the motion vector may also indicate an offset between the target image and the reference image.
  • the motion prediction unit and the motion compensation unit can generate a prediction block by applying an interpolation filter to a part of the reference image when the motion vector has a non-integer value.
  • a method of motion prediction and motion compensation of a PU included in a CU based on a CU is called a skip mode, a merge mode, an advanced motion vector prediction (AMVP) mode and a current picture reference mode, and inter prediction or motion compensation may be performed according to each mode.
  • the subtracter 125 may generate a residual block which is a difference between the target block and the prediction block.
  • the residual block may be referred to as a residual signal.
  • the residual signal may mean a difference between the original signal and the prediction signal.
  • the residual signal may be a signal generated by transforming, quantizing, or transforming and quantizing the difference between the original signal and the prediction signal.
  • the residual block may be a residual signal for a block unit.
  • the transforming unit 130 may perform a transform on the residual block to generate a transform coefficient, and output the generated transform coefficient.
  • the transform coefficient may be a coefficient value generated by performing a transform on the residual block.
  • the conversion unit 130 may use one of a plurality of predetermined conversion methods for performing the conversion.
  • the predetermined plurality of conversion methods may include Discrete Cosine Transform (DCT), Discrete Sine Transform (DST), and Karhunen-Loeve Transform (KLT) have.
  • DCT Discrete Cosine Transform
  • DST Discrete Sine Transform
  • KLT Karhunen-Loeve Transform
  • the transform method used for transforming the residual block may be determined according to at least one of the coding parameters for the object block and / or the surrounding block.
  • the transformation method may be determined based on at least one of an inter prediction mode for the PU, an intra prediction mode for the PU, a size of the TU, and a type of the TU.
  • conversion information indicating the conversion method may be signaled from the encoding device 100 to the decryption device 200.
  • the transforming unit 130 may omit the transform for the residual block.
  • a quantized transform coefficient level or a quantized level can be generated by applying quantization to the transform coefficients.
  • the quantized transform coefficient level and the quantized level may also be referred to as a transform coefficient.
  • the quantization unit 140 may generate a quantized transform coefficient level (i.e., a quantized level or a quantized coefficient) by quantizing the transform coefficient in accordance with the quantization parameter.
  • the quantization unit 140 may output the generated quantized transform coefficient levels. At this time, the quantization unit 140 can quantize the transform coefficient using the quantization matrix.
  • the entropy encoding unit 150 can generate a bitstream by performing entropy encoding according to the probability distribution based on the values calculated by the quantization unit 140 and / or the coding parameter values calculated in the encoding process .
  • the entropy encoding unit 150 may output the generated bitstream.
  • the entropy encoding unit 150 may perform entropy encoding on information about pixels of an image and information for decoding an image.
  • the information for decoding the image may include a syntax element or the like.
  • entropy coding When entropy coding is applied, a small number of bits can be assigned to a symbol having a high probability of occurrence, and a large number of bits can be assigned to a symbol having a low probability of occurrence. As the symbol is represented through this allocation, the size of the bit string for the symbols to be encoded can be reduced. Therefore, the compression performance of the image encoding can be improved through the entropy encoding.
  • the entropy encoding unit 150 may use an exponential golomb, a context-adaptive variable length coding (CAVLC), and a context-adaptive binary arithmetic coding Arithmetic Coding (CABAC), and the like can be used.
  • the entropy encoding unit 150 may perform entropy encoding using a Variable Length Coding / Code (VLC) table.
  • VLC Variable Length Coding / Code
  • the entropy encoding unit 150 may derive a binarization method for a target symbol.
  • the entropy encoding unit 150 may derive a probability model of a target symbol / bin.
  • the entropy encoding unit 150 may perform arithmetic encoding using the derived binarization method, the probability model, and the context model.
  • the entropy encoding unit 150 may change coefficients of a form of a two-dimensional block into a form of a one-dimensional vector through a transform coefficient scanning method to encode the quantized transform coefficient levels.
  • the coding parameters may be information required for coding and / or decoding.
  • the coding parameters may include information that is encoded in the encoding apparatus 100 and transferred from the encoding apparatus 100 to the decoding apparatus, and may include information that can be inferred in the encoding or decoding process. For example, as information transmitted to the decoding apparatus, there is a syntax element.
  • Coding parameters may include not only information (or flags, indexes, etc.) encoded in a coding apparatus such as syntax elements and signaled from a coding apparatus to a decoding apparatus, but also information derived from a coding process or a decoding process have.
  • the coding parameters may include information required in coding or decoding an image.
  • the primary transformation selection information may represent a primary transformation applied to the target block.
  • the secondary transformation selection information may represent a quadratic transformation applied to the target block.
  • the residual signal may represent a difference between the original signal and the prediction signal.
  • the residual signal may be a signal generated by transforming the difference between the original signal and the prediction signal.
  • the residual signal may be a signal generated by converting and quantizing the difference between the original signal and the prediction signal.
  • the residual block may be a residual signal for the block.
  • Signaling a flag or an index may be performed by encoding the entropy-encoded flag or the entropy-encoded index generated by performing entropy encoding on a flag or an index in a bitstream in the encoding apparatus 100
  • the decryption apparatus 200 may mean to obtain a flag or an index by performing entropy decoding on an entropy-encoded flag extracted from the bitstream or an entropy-encoded index .
  • the encoded target image can be used as a reference image for another image (s) to be processed later. Accordingly, the encoding apparatus 100 can reconstruct or decode the encoded target image again, and store the reconstructed or decoded image as a reference image in the reference picture buffer 190. [ The inverse quantization and inverse transform of the encoded object image for decoding can be processed.
  • the quantized level may be inversely quantized in the inverse quantization unit 160 and may be inversely transformed in the inverse transformation unit 170.
  • the inverse quantization unit 160 may generate inverse quantized coefficients by performing inverse quantization on the quantized levels.
  • the inverse transform unit 170 performs inverse transform on the inversely quantized coefficients so that the reconstructed residual block can be generated. That is to say, the reconstructed residual block may be inverse quantized and inverse transformed coefficients.
  • the dequantized and inverse transformed coefficients may be combined with a prediction block via an adder 175.
  • a reconstructed block may be generated by summing the dequantized and / or inverse transformed coefficients and the prediction block.
  • the dequantized and / or inverse transformed coefficient may mean a coefficient on which at least one of dequantization and inverse-transformation is performed, and may mean a reconstructed residual block.
  • the reconstructed block may pass through filter portion 180.
  • the filter unit 180 includes at least one of a deblocking filter, a sample adaptive offset (SAO), an adaptive loop filter (ALF), and a non-local filter (NLF) One or more can be applied to reconstructed blocks or reconstructed pictures.
  • the filter unit 180 may be referred to as an in-loop filter.
  • the deblocking filter can remove block distortion occurring at the boundary between the blocks. To determine whether to apply a deblocking filter, it may be determined whether to apply a deblocking filter to a target block based on the number of columns or pixels (or pixels) included in the block.
  • the applied filter may differ depending on the strength of the required deblocking filtering. In other words, a filter determined according to the strength of deblocking filtering among different filters can be applied to the target block.
  • a deblocking filter is applied to a target block, one of a strong filter and a weak filter may be applied to the target block according to the strength of the required deblocking filtering.
  • horizontal filtering and vertical filtering can be processed in parallel.
  • SAO may add an appropriate offset to the pixel value of the pixel to compensate for coding errors.
  • SAO can perform correction using an offset with respect to a difference between an original image and an image to which deblocking is applied, in units of pixels, for an image to which deblocking is applied.
  • a method of dividing pixels included in an image into a predetermined number of regions, determining an area to be offset of the divided areas, and applying an offset to the determined area may be used And a method of applying an offset in consideration of edge information of each pixel of the image may be used.
  • ALF can perform filtering based on the comparison of the reconstructed image and the original image. After dividing the pixels included in the image into predetermined groups, a filter to be applied to each divided group can be determined, and different filtering can be performed for each group. For a luma signal, information related to whether or not to apply an adaptive loop filter may be signaled per CU. The shape and filter coefficients of the ALF to be applied to each block may be different for each block. Alternatively, regardless of the characteristics of the block, a fixed form of ALF may be applied to the block.
  • the non-local filter can perform filtering based on reconstructed blocks similar to the target block.
  • a region similar to the target block can be selected, and the filtering of the target block can be performed using the statistical properties of the selected similar regions.
  • Information related to whether or not to apply a non-local filter may be signaled to the CU.
  • the shapes of the non-local filters to be applied to the blocks and the filter coefficients may differ from each other depending on the blocks.
  • the reconstructed block or reconstructed image through the filter unit 180 may be stored in the reference picture buffer 190.
  • the reconstructed block through the filter unit 180 may be part of the reference picture. That is to say, the reference picture may be a reconstructed picture composed of reconstructed blocks via the filter unit 180.
  • the stored reference picture can then be used for inter prediction.
  • FIG. 2 is a block diagram illustrating a configuration of a decoding apparatus to which the present invention is applied.
  • the decoding apparatus 200 may be a decoder, a video decoding apparatus, or an image decoding apparatus.
  • the decoding apparatus 200 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, an inter prediction unit 250, a switch 245, An adder 255, a filter unit 260, and a reference picture buffer 270.
  • the decoding apparatus 200 can receive the bit stream output from the encoding apparatus 100. [ The decoding apparatus 200 can receive a bitstream stored in a computer-readable recording medium and can receive a bitstream streamed through a wired / wireless transmission medium.
  • the decoding apparatus 200 may perform decoding of an intra mode and / or an inter mode with respect to a bit stream.
  • the decoding apparatus 200 can generate a reconstructed image or a decoded image through decoding, and output the reconstructed image or the decoded image.
  • the switch to the intra mode or the inter mode according to the prediction mode used for decoding may be performed by the switch 245.
  • the prediction mode used for decoding is the intra mode
  • the switch 245 can be switched to intra.
  • the prediction mode used for decoding is the inter mode
  • the switch 245 can be switched to the inter.
  • the decoding apparatus 200 can obtain a reconstructed residual block by decoding the input bitstream, and can generate a prediction block. Once the reconstructed residual block and the prediction block are obtained, the decoding apparatus 200 can generate the reconstructed block to be decoded by adding the reconstructed residual block and the prediction block.
  • the entropy decoding unit 210 may generate the symbols by performing entropy decoding on the bitstream based on the probability distribution of the bitstream.
  • the generated symbols may include symbols in the form of a quantized transform coefficient level (i.e., a quantized level or a quantized coefficient).
  • the entropy decoding method may be similar to the above-described entropy encoding method.
  • the entropy decoding method may be the inverse of the above-described entropy encoding method.
  • the entropy decoding unit 210 may change the coefficient of the one-dimensional vector form into a two-dimensional block form through a transform coefficient scanning method to decode the quantized transform coefficient levels.
  • the coefficients may be changed to a two-dimensional block form by scanning the coefficients of the block using the upper-right diagonal scan.
  • it may be determined which of the upper right diagonal scan, the vertical scan and the horizontal scan will be used.
  • the quantized coefficients may be inversely quantized in the inverse quantization unit 220.
  • the inverse quantization unit 220 may generate inverse quantized coefficients by performing inverse quantization on the quantized coefficients.
  • the inverse quantized coefficient may be inversely transformed by the inverse transform unit 230.
  • the inverse transform unit 230 may generate the reconstructed residual block by performing an inverse transform on the inversely quantized coefficient.
  • the reconstructed residual block can be generated.
  • the inverse quantization unit 220 may apply the quantization matrix to the quantized coefficients in generating the reconstructed residual block.
  • the intraprediction unit 240 can generate a prediction block by performing spatial prediction using the pixel value of the already decoded block around the target block.
  • the inter prediction unit 250 may include a motion compensation unit.
  • the inter prediction unit 250 may be named as a motion compensation unit.
  • the motion compensation unit may generate a prediction block by performing motion compensation using a motion vector and a reference image stored in the reference picture buffer 270.
  • the motion compensation unit can apply an interpolation filter to a part of the reference image and generate a prediction block using the reference image to which the interpolation filter is applied.
  • the motion compensation unit may determine which of the skip mode, the merge mode, the AMVP mode, and the current picture reference mode is used for the PU included in the CU based on the CU to perform motion compensation, To perform motion compensation.
  • the reconstructed residual block and the prediction block may be added through an adder 255.
  • the adder 255 may generate the reconstructed block by adding the reconstructed residual block and the prediction block.
  • the reconstructed block may pass through filter portion 260.
  • the filter unit 260 may apply at least one of the deblocking filter, SAO, ALF, and non-local filter to the reconstructed block or the reconstructed image.
  • the reconstructed image may be a picture including a reconstructed block.
  • the reconstructed image through the filter unit 260 can be output by the encoding apparatus 100 and can be used by the encoding apparatus 100.
  • the reconstructed image through the filter unit 260 can be stored in the reference picture buffer 270 as a reference picture.
  • the reconstructed block through the filter unit 260 may be part of the reference picture. That is to say, the reference picture may be an image composed of reconstructed blocks through the filter unit 260.
  • the stored reference picture may then be used for inter prediction.
  • FIG. 3 is a structural view of an electronic device according to an embodiment.
  • the electronic device 300 may correspond to the encoding apparatus 100 and the decoding apparatus 200 described above. In other words, the electronic device 300 can perform the function of encoding the encoding apparatus 100 and the function of decoding the decoding apparatus 200 described above.
  • the electronic device 300 includes a processing unit 310, a memory 330, a user interface (UI) input device 350, a UI output device 360, and a storage unit 350 that communicate with each other via a bus 390. [ (340). In addition, the electronic device 300 may further include a communication unit 320 connected to the network 399.
  • the processing unit 310 may be a semiconductor device that executes processing instructions stored in a central processing unit (CPU), memory 330, or storage 340.
  • the processing unit 310 may be at least one hardware processor.
  • the processing unit 310 may perform the generation and processing of signals, data, or information that are input to, output from, or used within the electronic device 300, Compare, and judge related to data or information. In other words, in the embodiment, the generation and processing of data or information, and the inspection, comparison, and judgment related to data or information can be performed by the processing unit 310.
  • the processing unit 310 includes an inter prediction unit 110, an intra prediction unit 120, a switch 115, a subtractor 125, a transform unit 130, a quantization unit 140, an entropy coding unit 150, An inverse transform unit 170, an adder 175, a filter unit 180, and a reference picture buffer 190, as shown in FIG.
  • the processing unit 310 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, an inter prediction unit 250, a switch 245, an adder 255, A filter unit 260, and a reference picture buffer 270.
  • the inter prediction unit 110, the intra prediction unit 120, the switch 115, the subtractor 125, the transform unit 130, the quantization unit 140, the entropy coding unit 150, the inverse quantization unit 160, At least some of the inverse transform unit 170, the adder 175, the filter unit 180, and the reference picture buffer 190 may be program modules and may communicate with an external device or system.
  • the program modules may be included in the electronic device 300 in the form of an operating system, application program modules, and other program modules.
  • an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, an inter prediction unit 250, a switch 245, an adder 255, a filter unit 260 ) And reference picture buffer 270 may be program modules and may communicate with an external device or system.
  • Program modules may be included in an electronic device in the form of an operating system, application program modules, and other program modules.
  • the program modules may be physically stored on various known storage devices. Also, at least some of these program modules may be stored in a remote storage device capable of communicating with the electronic device 300.
  • Program modules may be implemented as a set of routines, subroutines, programs, objects, components, and data that perform functions or operations in accordance with one embodiment, implement an abstract data type according to one embodiment, Data structures, and the like, but are not limited thereto.
  • Program modules may be comprised of instructions or code that are executed by at least one processor of the electronic device 300.
  • the processing unit 310 includes an inter prediction unit 110, an intra prediction unit 120, a switch 115, a subtractor 125, a transform unit 130, a quantization unit 140, an entropy coding unit 150, The adder 175, the filter unit 180, and the reference picture buffer 190, as shown in FIG.
  • the processing unit 310 includes an entropy decoding unit 210, an inverse quantization unit 220, an inverse transform unit 230, an intra prediction unit 240, an inter prediction unit 250, a switch 245, an adder 255, The filter unit 260, and the reference picture buffer 270, as shown in FIG.
  • the storage may represent memory 330 and / or storage 340.
  • Memory 330 and storage 340 may be various types of volatile or non-volatile storage media.
  • the memory 330 may include at least one of a ROM 331 and a RAM 332.
  • the storage unit may store data or information used for the operation of the electronic device 300.
  • the data or information that electronic device 300 has may be stored in a storage.
  • the storage unit may store pictures, blocks, lists, motion information, inter prediction information, bit streams, and the like.
  • the electronic device 300 can be implemented in a computer system that includes a recording medium that can be read by a computer.
  • the recording medium may store at least one module for which the electronic device 300 is required to operate.
  • the memory 330 may store at least one module, and at least one module may be configured to be executed by the processing unit 310.
  • the functions related to the communication of data or information of the electronic device 300 may be performed through the communication unit 320.
  • the communication unit 320 can transmit the bit stream to another electronic device.
  • Figure 4 illustrates sharing of parameters based on a full mesh topology according to an example.
  • the compute node may be the electronic device 300 described above.
  • the compute nodes may refer to the electronic device 300 that performs distributed processing in the distributed processing system.
  • Figure 5 illustrates the sharing of parameters based on a star topology according to an example.
  • a plurality of calculation nodes sharing a parameter are shown, and a parameter server used as a sharing place for parameter sharing is shown.
  • the parameters of the deep learning model may have to be shared among the multiple compute nodes in the course of learning.
  • a sharing method based on a full mesh topology and a sharing method based on a star topology can be used.
  • one compute node can pass parameters directly to all other compute nodes.
  • all of the compute nodes can read and write parameters using a parameter server as a shared location.
  • the central parameter server can manage parameter updates and sharing.
  • control over concurrency and synchronization is required.
  • the epoch which is a learning process for data, is iterated, the synchronization of parameters between compute nodes may be required.
  • the number of communications between compute nodes for parameter sharing can increase.
  • the number of communications required for parameter sharing may be proportional to the square of the number of computation nodes.
  • a gradient descent scheme is used for adjustment of the gradient to the weight parameter set? Of the deep learning network.
  • the energy function J ([theta]) can define the difference between the predicted value of the deep running network and the actual resultant value.
  • J ( ⁇ ) the energy function J ( ⁇ )
  • the learning of &thetas; in the slope descent system can be expressed as the following equation (2).
  • ⁇ t may be the parameter set in the t th learning. It can be expected that at sufficiently large t, &thetas; t converges to the optimal parameter set [theta] opt . mu may be step size.
  • the number of parameters in the parameter set of the deep learning model may exceed several hundred thousand. Also, a large amount of input data may be used for learning of the deep learning model, and the number of iterations required for learning using such input data may also exceed several thousand times. Depending on the number of these parameters, the amount of input data, and the number of iterations, a large number of operations of Equation 2 may be required for learning of the deep learning model.
  • the present learning model and parameter sharing scheme used for distributed learning of a large-scale deep learning model as the number of distributed computers in the distributed processing system increases and learning of the kernel parameters is repeated according to the descending algorithm, The number of parameters to be shared among the nodes may increase sharply.
  • a network delay problem caused by sharing a large amount of parameters within a limited band width of the network can slow the entire learning process. Also, the storage space of the compute nodes required for sharing such a large amount of parameters can also be increased.
  • an efficient distributed learning algorithm may be provided that compresses the shared parameters and transmits the compressed parameters.
  • a distributed computer that is, an encoding apparatus
  • a distributed computer that transmits parameters can generate predicted encoding only for residuals of the learned parameters to generate encoded residuals.
  • a distributed computer i. E., A decryption device
  • receives the parameters can reconstruct the parameters using the transmitted coded residual and previous parameters.
  • the embodiment can also be applied to a case where a central parameter server transmits the learned parameters in one distributed computer to a plurality of distributed computers.
  • FIG. 6 is a flow diagram of a method for providing information about updated parameters in accordance with one embodiment.
  • the electronic device 300 is capable of performing the functions of the encoding device 100.
  • the distributed processing system may include a plurality of electronic devices that perform distributed learning of the neural network.
  • the electronic device 300 may be one of a plurality of electronic devices. That is to say, the embodiments below can represent operations performed in one of the plurality of electronic devices of the distributed processing system.
  • step 610 the processing unit 310 of the electronic device 300 in the distributed processing system may perform learning of the neural network.
  • the neural network may be a neural network for deep running.
  • the parameters of the neural network can be updated by performing the learning.
  • step 620 the processing unit 310 of the electronic device 300 may generate information for updating the parameters of the neural network.
  • the information for updating the parameters of the neural network may be information for sharing updated parameters made in the electronic device 300 with other electronic devices.
  • the processing unit 310 may generate information for updating the parameter based on the state of the parameter updated by performing the learning and the state of the previous parameter of the learning.
  • the state of the parameter may mean the value of the parameter. That is to say, the processing unit 310 can generate information for parameter update based on the value of the parameter updated by performing the learning and the value of the previous parameter of the learning.
  • the information for updating the parameter may include the residual of the parameter.
  • the residual of the parameter may be the difference between the value of the parameter updated by performing the learning and the value of the previous parameter of the learning.
  • the processing unit 310 may generate information for parameter update based on the residual of the parameter.
  • the communication unit 320 of the electronic device 300 may transmit information for updating the parameters to another device in the distributed processing system.
  • the communication unit 320 of the electronic device 300 may transmit the bit stream to another device in the distributed processing system.
  • the bitstream may contain information for parameter update.
  • Other devices may be one or more other electronic devices that perform learning of the neural network within the distributed processing system.
  • the other device may be a parameter server in a distributed processing system.
  • the parameter server may communicate information for updating parameters to one or more other electronic devices that perform learning of the neural network in the distributed processing system.
  • FIG. 7 is a flow diagram of a method for performing parameter updates using information about updated parameters in accordance with one embodiment.
  • the distributed processing system may include a plurality of electronic devices that perform distributed learning of the neural network.
  • the electronic device 300 may be one of a plurality of electronic devices. That is to say, the embodiments below can represent operations performed in one of the plurality of electronic devices of the distributed processing system.
  • the electronic device 300 may perform the function of the decryption device 200.
  • the communication unit 320 of the electronic device 300 may receive information for updating parameters from other devices in the distributed processing system.
  • the communication unit 320 of the electronic device 300 can receive a bit stream from another device in the distributed processing system.
  • the bitstream may contain information for parameter update.
  • Other devices may be other electronic devices that perform learning of the neural network within the distributed processing system.
  • the other device may be a parameter server in a distributed processing system.
  • the parameter server may receive information for updating parameters from other electronic devices performing learning of the neural network in the distributed processing system.
  • the parameter server may send information for updating the parameter to the electronic device 300.
  • step 720 the processing unit 310 may perform the parameter update using the information for updating the parameter.
  • the information for updating the parameter may be information for sharing the update of the parameter with the electronic device 300 if the parameter is updated by performing learning performed by another electronic device.
  • the information for updating the parameter may include the residual of the parameter.
  • the residual of the parameter may be the difference between the value of the parameter updated by the performance of the learning made at the other electronic device and the value of the previous parameter of the learning.
  • the processing unit 310 may generate the residual of the parameter based on the information for updating the parameter.
  • the processing unit 310 can update the parameter by adding the residual of the parameter to the parameter.
  • the process of generating a set of kernel parameters at time t + 1 is shown by summing the kernel parameter set and the kernel parameter residual signal set at the existing time t. That is to say, a set of kernel parameters at a particular point in time can be updated with a set of kernel parameters at a later point in time using the kernel parameter residual signal set.
  • the kernel parameter residual signal set may be information from another electronic device carried over the bitstream and may be information generated through learning of the neural network at another electronic device.
  • the plurality of parameters may constitute a parameter set.
  • the information for updating the parameters described with reference to Figs. 7 and 8 may be a residual signal set of a plurality of parameters.
  • the information for updating the parameter may comprise a residual signal set of a plurality of parameters.
  • information for updating a parameter may be generated based on a residual signal set of a plurality of parameters, and conversely, a residual signal set of a plurality of parameters may be generated based on information for updating a parameter.
  • the plurality of parameters may be deep running parameters that constitute one layer of the deep running model.
  • the electronic device 300 may obtain a residual signal set of a plurality of parameters by performing decoding on the bit stream.
  • the residual signal may correspond to ?? t in Equation (2).
  • ⁇ t + 1 can be updated from ⁇ t every time the learning is iterated.
  • the residuals of the plurality of parameters can be compressed. That is to say, the information for updating the parameter may include the compressed residuals of the plurality of parameters. Since the size of the update of ⁇ t + 1 is not large, the size of data to be transmitted can be reduced by transmitting the compressed ⁇ t rather than the compressed ⁇ t + 1 .
  • Processing unit 310 of the electronic device 300 may be constructed by adding the decoded ⁇ t ⁇ t with a prior re- ⁇ t + 1.
  • the encoding method and the decoding method for the block of the image described above can be used. That is to say, a plurality of parameters can be regarded as a target block.
  • the values of the plurality of parameters can be regarded as samples of the target block, and the residuals of the plurality of parameters can be regarded as residual blocks for the target block.
  • the parameters of the blocks of the NxN kernel can be learned. Filtering of the learned kernel parameters may be applied, and the kernel parameters to which the filtering is applied may generate a feature map of the next layer.
  • learning on one kernel parameter is not performed in CNN, and learning on a plurality of kernel parameters in each layer can be done. By learning about these many kernel parameters, a set of parameters can be constructed.
  • 24 kernel parameters constituting one layer of CNN are shown as 24 blocks. That is to say, a block can correspond to a kernel parameter, and a kernel parameter can correspond to a block.
  • the size of the block may be NxN.
  • the sizes of the blocks may be the same.
  • 24 blocks can constitute an image.
  • the parameter set may include a plurality of parameters, and each parameter of the plurality of parameters may correspond to a block. That is to say, the parameter set may comprise a plurality of blocks. Further, the sizes of the plurality of blocks may be the same.
  • the parameter set can be regarded as a target image including a plurality of blocks. That is to say, a plurality of blocks may be plural, and a plurality of blocks may constitute a target image.
  • the processing method for the target image described above in the previous embodiments can also be applied to this embodiment.
  • the processing method may include encoding and decoding.
  • the block in the target image may be regarded as the target block described above in the previous embodiments.
  • the above-described processing method for the target block in the previous embodiments can also be applied to the block of this embodiment.
  • the processing method may include encoding and decoding.
  • the electronic device 300 may use one or more of conversion, quantization, scanning, and entropy encoding for a block or signal in parameter coding.
  • the electronic device 300 may use one or more of entropy decoding, scanning, dequantization, and inverse transform of the block or signal in parameter decoding. At least some of the processes in such encoding and decoding may be changed and / or omitted.
  • FIG. 9 shows a process of quantization, raster scan and entropy coding according to an example.
  • the block may be slopes of a filter having a specified size.
  • quantized warp yarns are shown that are the result of quantization for the gradients of a 4-by-4 (or 4x4) filter, and the result of the inverse quantization of the quantized warp
  • the slopes were shown.
  • the filter can mean the kernel.
  • the slope may refer to a residual signal, i.e., ?? t .
  • the quantized slope may also be referred to as a quantization index.
  • the quantized gradients are scanned (i.e., raster scans) for conversion from 2D (Dimension; D) to 1D, quantized (scanned by 1D)
  • the entropy coding is applied to the quantized slopes scanned to 1D, so that entropy coded quantized gradients can be generated.
  • the information for updating the parameter may include an entropy coded quantized gradient.
  • the processing unit 310 of the electronic device 300 may generate quantized warp yarns by performing quantization on the warp yarns of the filter.
  • the processing unit 310 may generate the scanned information by performing 2D to ID scanning on the quantized warp yarns.
  • the scanned information may include scanned quantized warps.
  • the processing unit 310 may generate information for parameter update by performing entropy encoding on the scanned information.
  • the information for updating the parameter may represent entropy encoded quantized slopes.
  • the processing unit 310 of the electronic device 300 may obtain information for updating the parameters from the bitstream.
  • the processing unit 310 may generate the scanned information by performing entropy decoding on the information for updating the parameter. That is to say, the processing unit 310 can generate the scanned information based on the information for updating the parameter.
  • the scanned information may include scanned quantized warps.
  • the processing unit 310 can generate quantized warp yarns by performing 1D to 2D scanning of the scanned information.
  • the processing unit 310 can generate reconstructed warp yarns by performing inverse quantization on the quantized warp yarns.
  • the reconstructed warp yarns may be residuals of a plurality of parameters.
  • FIG. 10 illustrates entropy encoding using zero subblocks and zero layers according to an example.
  • the result of the learning indicated by the equation 2 can converge.
  • the distribution of zeros of the quantization indices in the block (ie, the quantized tapers) in the current iteration can vary.
  • the number of quantized slopes having a value of 0 in a block may increase.
  • the values of the quantization indices of the specified region in the block can all be zero.
  • the values of the quantization indices of the specified region in the block may not need to be shared. If the values of the quantization indices of the specified area are all 0 or the values of the quantization indices of the specified area do not need to be shared, then the specified area can be regarded as a zero subblock having a value of zero.
  • the scanned information may include zero sub-blocks for a specified area. In Fig. 10, the zero subblock in the scanned information is shown as "(zero subblock) ".
  • the processing unit 310 of the electronic device 300 may determine that the values of the quantized warp values in the subblocks of the specified region are all 0, instead of the quantized warp values of the zero values Zero sub-blocks.
  • a zero sub-block may be included in the scanned information instead of the quantized slopes having zero values of the specified sub-block.
  • a zero sub-block may represent a specified region in a block and may indicate that the values of the quantized warp in the specified region are all zero.
  • the processing unit 310 of the electronic device 300 may determine that there are zero subblocks in the scanned information, such that if the quantized slopes in the specified area represented by the zero subblock are filled with a value of zero .
  • the values of the quantization indices of the block can be all zeros.
  • the values of the block's quantization indices may not need to be shared. If the values of the quantization indices of the block are all zero, or if the values of the quantization indices of the block do not need to be shared, then the block can be regarded as a zero block with a value of zero. In this case, zero blocks may be used instead of the scanned quantized warps for the block.
  • the scanned information may include zero blocks.
  • a zero block may indicate that the values of quantized slopes in the block are all zero.
  • the processing unit 310 of the electronic device 300 may fill all the quantized warps in the block with a value of zero if the scanned information for the block is a zero block.
  • the values of the parameters of the layer can all be zero.
  • the values of the parameters of the layer may not need to be shared. If the values of the specified parameters are all zero, or if the values of the parameters of the layer do not need to be shared, a zero layer may be sent instead of the quantized slopes for the layer.
  • a zero layer may indicate that all of the blocks in the layer are zero blocks. That is to say, the zero layer can indicate that the values of all quantized slopes of all blocks of the layer are zero. In Fig. 10, the zero layer in the scanned information is shown as "(zero layer) ".
  • step 620 the processing unit 310 of the electronic device 300 determines whether the values of the parameters of the layer are all zero, or the values of the parameters of the layer need not be shared, You can create a zero layer instead of the slopes.
  • the scanned information may include a zero layer.
  • the zero layer may indicate that the values of the quantized slopes of the blocks of the layer are all zero.
  • the processing unit 310 of the electronic device 300 may fill all the quantized warps of all blocks of the layer with a value of zero if the scanned information for the layer is a zero layer .
  • the electronic device 300 performing the function of the decryption apparatus 200 can predict the performance of the network with respect to the transmission of the information about the parameter and can determine whether or not to transmit the parameter for sharing based on the predicted performance .
  • the parameter may mean a quantized slope of the sub-block, a quantized slope of the block and / or a quantized slope of the layer.
  • the electronic device 300 may determine whether the parameter is to be transmitted such that the cost function J in Equation 3 below is minimized.
  • C may be the classification performance of the network.
  • B may be the number of bits required for transmission of the parameter.
  • lambda may be a constant.
  • the processing unit 310 of the electronic device 300 may determine whether to transmit the parameter so that the cost function J is minimized.
  • the processing unit 310 may include a zero sub-block, a zero block, or a zero layer in the scanned information so that the cost function is minimized.
  • FIG 11 shows the sharing of parameters in the model parallel processing method according to an example.
  • one calculation node may not be able to process a large capacity deep learning model.
  • the electronic device 300 may have to share the computed parameters for a portion of the deep learning model with other electronic devices at every iteration.
  • the electronic device 300 can update the parameters for one portion of the above through learning about one portion of the deep learning model and share the updated parameters with other electronic devices .
  • the electronic device 300 may transmit information for updating the above-described parameters to other devices.
  • other electronic devices may also be able to update other parameters for the other portions and share the updated parameters with the electronic device 300 through learning about other portions of the deep learning model.
  • another electronic device may send information to electronic device 300 for updating of other parameters.
  • updated parameters generated in a plurality of electronic devices may be shared among a plurality of electronic devices.
  • FIG. 11 it has been shown that three compute nodes (i. E., Three electronic devices) perform the learning on three layers of the deep learning model in a divided manner. That is, the calculation node 1, the calculation node 2, and the calculation node 3 can respectively play the learning for the layer 1, the learning for the layer 2, and the learning for the layer 3, respectively. , The parameters of the layer can be updated.
  • three compute nodes i. E., Three electronic devices
  • the processing unit 310 of the electronic device 300 may perform learning on one of a plurality of layers of the deep learning model.
  • the processing unit 310 may update the parameters for one layer.
  • the processing unit 310 can generate information for updating the parameter of the layer based on the value of the parameter updated by the learning and the value of the previous parameter of the learning.
  • Information for updating the parameters of the layer may be sent to other electronic devices performing learning for the other layer.
  • the transmission of information for updating these parameters can be performed for each iteration of the learning.
  • the information for updating the parameter may include the residual of the parameter, or may represent the residual.
  • the residual of the parameter may be the difference between the value of the parameter at the current iteration and the value of the parameter at the previous iteration.
  • the information for updating the parameters may include the residuals of the kernel filter.
  • input data used for learning can be partitioned.
  • the computation node can perform the learning of the deep learning model using the partitioned input data.
  • the plurality of electronic devices 300 can perform the learning of the deep learning model using each of the divided input data generated by the division of the input data.
  • the electronic device 300 may send information for parameter updates to the parameter server.
  • the parameter server may record the learning made by the electronic devices by storing information for updating the transmitted parameters.
  • the parameter server may send information for updating the received parameters to other electronic devices.
  • Other electronic devices may update the parameters using information for updating the received parameters. Such transmission and updating can lead to continuous learning.
  • the electronic device 300 may send the updated parameters to the parameter sharing server.
  • the parameter sharing server can transmit only the residual of the parameter to another electronic device using the updated parameter and the stored parameter.
  • the residual of the parameter may be the difference between the value of the parameter stored in the parameter sharing server and the value of the updated parameter sent from the electronic device 300.
  • the embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium.
  • the computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination.
  • the program instructions recorded on the computer-readable recording medium may be those specially designed and constructed for the present invention or may be those known and used by those skilled in the computer software arts.
  • the computer-readable recording medium may include information used in embodiments according to the present invention.
  • the computer readable recording medium may comprise a bit stream, and the bit stream may comprise the information described in embodiments according to the present invention.
  • the computer-readable recording medium may comprise a non-transitory computer-readable medium.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
  • Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

분산 처리 환경에서의 딥 러닝 모델의 학습을 위한 학습 파라미터를 압축하고, 압축된 파라미터를 전송하는 방법 및 장치가 개시된다. 분산 처리 시스탬 내의 복수의 전자 장치들은 신경망의 학습을 수행한다. 학습의 수행에 의해 파라미터가 갱신된다. 전자 장치는 자신의 갱신된 파라미터를 다른 전자 장치들과 공유할 수 있다. 이러한 공유를 효율적으로 수행하기 위해, 파라미터의 잔차가 다른 전자 장치에게 제공된다. 파라미터의 잔차가 제공되면, 다른 전자 장치는 파라미터의 잔차를 사용하여 파라미터의 갱신을 수행한다.

Description

분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치
아래의 실시예들은 분산 처리 환경에서의 딥 러닝을 위한 방법 및 장치에 관한 것으로서, 분산 처리 환경에서의 딥 러닝 모델의 학습을 위한 학습 파라미터를 압축하고, 압축된 파라미터를 전송하는 방법 및 장치에 관한 것이다.
컨벌루션 신경망(Convolutional Neural Network; CNN)과 같은 최첨단의(state-of-the-art) 딥 러닝 모델의 특징은 인식 성능을 향상시키기 위해 대규모의 네트워크 구조의 형태를 갖는 것이다.
대규모의 네트워크 구조에서는, 모델의 계층(hierarchical) 깊이가 점점 더 증가한다. 깊이의 증가에 따라 네트워크의 노드들을 연결하는 에지의 가중치(weight) 파라미터들의 개수 또한 증가한다.
대규모의 딥 러닝 모델을 개발하기 위해서는, 분산 처리에 기반하는 고성능 컴퓨터 인프라가 반드시 필요하다. 말하자면, 입력 데이터의 양이 많아질수록 수 많은 컴퓨터들이 필요하고, 수 많은 컴퓨터들이 사용됨에 따라 효율적인 분산 학습 알고리즘이 중요하다.
분산 학습의 가속화 방식은 데이터 병렬처리(data parallelism) 방식 및 모델 병렬처리(model parallelism) 방식으로 구분될 수 있다.
데이터 병렬처리 방식은 학습의 대상인 입력 데이터 셋(set)이 다수의 컴퓨터들에게 분할되고, 각 컴퓨터가 자신에게 할당된 분할된 입력 데이터 셋을 사용하는 학습을 수행하는 방식이다.
모델 병렬처리 방식은 딥 러닝 모델이 분할되고, 다수의 컴퓨터가 분할된 딥 러닝 모델들의 대한 학습을 각각 수행하는 방식이다.
보다 구체적으로, 데이터 병렬처리 방식에서, 분산 처리 시스템의 각 분산 컴퓨터(distributed computer)는 부분으로 나뉜 입력 데이터를 사용하여 딥 러닝 학습 모델의 전체에 대한 학습을 수행한다.
이 때, 학습의 반복(iteration)이 수행될 때마다, 분산 컴퓨터는 학습에 의해 수정된 커널 파라미터를 다른 분산 컴퓨터와 교환한다. 말하자면, 분산 처리 시스템의 분산 컴퓨터들 간에서 수정된 커널 파라미터들의 교환이 이루어진다.
한편, 대규모의 딥 러닝 모델이 하나의 컴퓨터에 의해 로드 및 처리될 수 없을 정도가 되면, 딥 러닝 모델을 분할하고, 분할된 딥 러닝 모델에 대한 학습을 수행하기 위해 데이터 병렬처리 방식이 사용될 수 있다. 데이터 병렬처리 방식에서, 분산 처리 시스템의 다수의 분산 컴퓨터들은 딥 러닝 모델의 분할들에 대한 학습을 각각 수행한다.
이 때, 분산 처리 시스템의 각 분산 컴퓨터에서는 전체의 입력 데이터에 대해 트레이닝을 수행하고, 딥 러닝 모델의 분할에 대해 부분적으로 계산된 로컬 파라미터를 다른 분산 컴퓨터와 교환한다. 말하자면, 분산 처리 시스템의 분산 컴퓨터들 간에서 로컬 파라미터의 교환이 이루어진다.
즉. 분산 처리에 기반하는 딥 러닝 모델의 학습 과정에 있어서, 분산 처리 시스템의 분산 컴퓨터들이 커널 파라미터를 서로 교환하는 과정이 필수적으로 요구된다.
일 실시예는 분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치를 제공할 수 있다.
일 실시예는 하나의 전자 장치에서 갱신된 파라미터를 분산 처리 시스템 내의 복수의 전자 장치들 간에 공유하는 방법 및 장치를 제공할 수 있다.
일 측에 있어서, 분산 처리 시스템 내의 전자 장치에 의해 수행되는, 신경망의 파라미터의 갱신을 위한 정보를 생성하는 단계; 및 상기 파라미터의 갱신을 위한 정보를 전송하는 단계를 포함하고, 상기 파라미터의 갱신을 위한 정보는, 학습의 수행에 의해 갱신된 상기 파라미터의 상태 및 상기 학습의 이전의 상기 파라미터의 상태에 기반하여 생성되는, 갱신된 파라미터에 대한 정보를 제공하는 방법이 제공된다.
상가 파라미터의 갱신을 위한 정보는 상기 파라미터의 잔차에 기반하여 생성될 수 있다.
상기 파라미터의 잔차는 상기 학습의 수행에 의해 갱신된 상기 파라미터의 값 및 상기 학습의 이전의 상기 파라미터의 값 간의 차이일 수 있다.
상기 파라미터의 갱신을 위한 정보는 상기 분산 처리 시스템 내에서 상기 신경망의 학습을 수행하는 하나 이상의 다른 전자 장치로 전송될 수 있다.
상기 파라미터의 갱신을 위한 정보는 상기 분산 처리 시스템 내의 파라미터 서버로 전송될 수 있다.
상기 파라미터 서버는 상기 파라미터의 갱신을 위한 정보를 상기 분산 처리 시스템 내에서 상기 신경망의 학습을 수행하는 하나 이상의 전자 장치들로 전달할 수 있다.
상기 전자 장치는 딥 러닝 모델의 복수의 레이어들 중 하나의 레이어에 대한 학습을 수행할 수 있다.
다른 일 측에 있어서, 분산 처리 시스템 내의 전자 장치에 의해 수행되는, 상기 분산 처리 시스템 내의 다른 장치로부터 파라미터의 갱신을 위한 정보를 수신하는 단계; 및 상기 파라미터의 갱신을 위한 정보를 사용하여 상기 파라미터의 갱신을 수행하는 단계를 포함하고, 상기 파라미터의 갱신을 위한 정보에 기반하여 파라미터의 잔차가 생성되고, 상기 파라미터의 잔차를 상기 파라미터에 더함으로써 상기 파라미터가 갱신되는, 파라미터 갱신 방법이 제공된다.
상기 파라미터는 복수일 수 있다.
상기 복수의 파라미터들은 딥 러닝 모델의 하나의 계층을 구성할 수 있다.
상기 파라미터의 갱신을 위한 정보는 상기 복수의 파라미터들의 압축된 잔차들을 포함할 수 있다.
파라미터의 갱신을 위한 정보에 포함된 상기 복수의 파라미터들의 압축된 잔차들에 대한 복호화를 수행함으로써 상기 복수의 파라미터들의 잔차들이 획득될 수 있다.
상기 복수의 파라미터들의 잔차들을 사용하여 상기 복수의 파라미터들의 갱신이 수행될 수 있다.
상기 복호화에 있어서, 영상의 블록에 대한 복호화 방법이 사용될 수 있다.
상기 복수의 파라미터들의 각 파라미터는 상기 블록에 대응할 수 있다.
상기 블록은 복수일 수 있다.
상기 복수의 블록들은 대상 영상을 구성할 수 있다.
상기 복호화에 있어서, 대상 영상에 대한 복호화 방법이 사용될 수 있다.
상기 복호화를 위해 상기 블록에 대한 엔트로피 복호화, 스캐닝, 역양자화 및 역변환 중 하나 이상이 사용될 수 있다.
상기 파라미터의 갱신을 위한 정보에 기반하여 스캐닝된 정보가 생성될 수 있다.
상기 스캐닝된 정보는 스캐닝된 양자화된 경사들을 포함할 수 있다.
상기 스캐닝된 정보에 대한 1차원으로부터 2차원으로의 스캐닝을 수행함으로써 양자화된 경사들이 생성될 수 있다.
상기 양자화된 경사들에 대한 역양자화를 수행함으로써 재구축된 경사들이 생성될 수 있다.
상기 재구축된 경사들은 상기 복수의 파라미터들의 잔차들일 수 있다.
상기 스캐닝된 정보는 제로 서브 블록을 포함할 수 있다.
상기 제로 서브 블록은 블록 내의 특정된 영역을 나타낼 수 있고, 상기 특정된 영역 내의 양자화된 경사들의 값들이 모두 0임을 나타낼 수 있다.
상기 스캐닝된 정보는 제로 블록을 포함할 수 있다.
상기 제로 블록은 블록 내의 양자화된 경사들의 값들이 모두 0임을 나타낼 수 있다.
상기 스캐닝된 정보는 제로 레이어를 포함할 수 있다.
상기 제로 레이어는 레이어의 모든 블록들의 모든 양자화된 경사들의 값들이 0임을 나타낼 수 있다.
또 다른 일 측에 있어서, 분산 처리 시스템 내의 전자 장치에 있어서, 상기 분산 처리 시스템 내의 다른 장치로부터 파라미터의 갱신을 위한 정보를 수신하는 통신부; 및 상기 파라미터의 갱신을 위한 정보를 사용하여 상기 파라미터의 갱신을 수행하는 처리부를 포함하고, 상기 처리부는 파라미터의 갱신을 위한 정보에 기반하여 파라미터의 잔차를 생성하고, 상기 파라미터의 잔차를 상기 파라미터에 더함으로써 상기 파라미터의 갱신을 수행하는, 전자 장치가 제공된다.
분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치가 제공된다.
하나의 전자 장치에서 갱신된 파라미터를 분산 처리 시스템 내의 복수의 전자 장치들 간에 공유하는 방법 및 장치가 제공된다.
도 1은 본 발명이 적용되는 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 2는 본 발명이 적용되는 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
도 3은 영상을 부호화 및 복호화할 때의 영상의 분할 구조를 개략적으로 나타내는 도면이다.
도 4는 일 예에 따른 풀 메시 토폴로지에 기반하는 파라미터의 공유를 나타낸다.
도 5는 일 예에 따른 스타 토폴로지에 기반하는 파라미터의 공유를 나타낸다.
도 6은 일 실시예에 따른 갱신된 파라미터에 대한 정보를 제공하는 방법의 흐름도이다.
도 7은 일 실시예에 따른 갱신된 파라미터에 대한 정보를 사용하여 파라미터의 갱신을 수행하는 방법의 흐름도이다.
도 8은 일 예에 따른 딥 러닝의 파라미터 셋의 갱신을 나타낸다.
도 9는 일 예에 따른 양자화, 레스터 스캔 및 엔트로피 코딩의 과정을 나타낸다.
도 10은 일 예에 따른 제로 서브 블록 및 제로 레이어를 사용하는 엔트로피 부호화를 나타낸다.
도 11은 일 예에 따른 모델 병렬 처리 방식에서의 파라미터의 공유를 나타낸다.
도 12는 일 예에 따른 데이터 병렬 처리 방식에서의 파라미터의 공유를 나타낸다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들면, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.
도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있다.
본 발명에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들면, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소(component)가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기의 2개의 구성요소들이 서로 간에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있으나, 상기의 2개의 구성요소들의 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 어떤 구성요소(component)가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기의 2개의 구성요소들의 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 발명의 실시예에 나타나는 구성요소들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성요소들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성요소는 설명의 편의상 각각의 구성요소로 나열하여 포함한 것으로 각 구성요소 중 적어도 두 개의 구성요소가 합쳐져 하나의 구성요소로 이루어지거나, 하나의 구성요소가 복수 개의 구성요소로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성요소의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 예시적 실시예들에서 특정 구성을 "포함"한다고 기술하는 내용은 상기의 특정 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성이 예시적 실시예들의 실시 또는 예시적 실시예들의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 발명에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 즉, 본 발명에서 특정 구성을 "포함"한다고 기술하는 내용은 해당 구성 이외의 구성을 배제하는 것이 아니며, 추가적인 구성 또한 본 발명의 실시 또는 본 발명의 기술적 사상의 범위에 포함될 수 있음을 의미한다.
이하에서는, 기술분야에서 통상의 지식을 가진 자가 실시예들을 용이하게 실시할 수 있도록 하기 위하여, 첨부된 도면을 참조하여 실시 형태에 대하여 구체적으로 설명한다. 실시예들을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 도면 상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고, 동일한 구성요소에 대한 중복된 설명은 생략한다.
이하에서, 영상은 비디오(video)을 구성하는 하나의 픽처(picture)를 의미할 수 있으며, 비디오 자체를 나타낼 수도 있다. 예를 들면, "영상의 부호화 및/또는 복호화"는 "비디오의 부호화 및/또는 복호화"를 의미할 수 있으며, "비디오를 구성하는 영상들 중 하나의 영상의 부호화 및/또는 복호화"를 의미할 수도 있다.
이하에서, 용어들 "비디오(video)" 및 "동영상(motion picture)"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, 대상 영상은 부호화의 대상인 부호화 대상 영상 및/또는 복호화의 대상인 복호화 대상 영상일 수 있다. 또한, 대상 영상은 부호화 장치로 입력된 입력 영상일 수 있고, 복호화 장치로 입력된 입력 영상일 수 있다.
이하에서, 용어들 "영상", "픽처", "프레임(frame)" 및 "스크린(screen)"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, 대상 블록은 부호화의 대상인 부호화 대상 블록 및/또는 복호화의 대상인 복호화 대상 블록일 수 있다. 또한, 대상 블록은 현재 부호화 및/또는 복호화의 대상인 현재 블록일 수 있다. 예를 들면, 용어들 "대상 블록" 및 "현재 블록"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
이하에서, 용어들 "블록" 및 "유닛"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. 또는 "블록"은 특정한 유닛을 나타낼 수 있다.
이하에서, 용어들 "영역(region)" 및 "세그먼트(segment)"는 서로 교체되어 사용될 수 있다.
이하에서, 특정한 신호는 특정한 블록을 나타내는 신호일 수 있다. 예를 들면, 원(original) 신호는 대상 블록을 나타내는 신호일 수 있다. 예측(prediction) 신호는 예측 블록을 나타내는 신호일 수 있다. 잔차(residual) 신호는 잔차 블록을 나타내는 신호일 수 있다.
실시예들에서, 특정된 정보, 데이터, 플래그(flag) 및 요소(element), 속성(attribute) 등의 각각은 값을 가질 수 있다. 정보, 데이터, 플래그(flag) 및 요소(element), 속성(attribute) 등의 값 "0"은 논리 거짓(logical false) 또는 제1 기정의된(predefined) 값을 나타낼 수 있다. 말하자면, 값 "0", 거짓, 논리 거짓 및 제1 기정의된 값은 서로 대체되어 사용될 수 있다. 정보, 데이터, 플래그(flag) 및 요소(element), 속성(attribute) 등의 값 "1"은 논리 참(logical true) 또는 제2 기정의된(predefined) 값을 나타낼 수 있다. 말하자면, 값 "1", 참, 논리 참 및 제2 기정의된 값은 서로 대체되어 사용될 수 있다.
행, 열 또는 인덱스(index)를 나타내기 위해 i 또는 j 등의 변수가 사용될 때, i의 값은 0 이상의 정수일 수 있으며, 1 이상의 정수일 수도 있다. 말하자면, 실시예들에서 행, 열 및 인덱스 등은 0에서부터 카운트될 수 있으며, 1에서부터 카운트될 수 있다.
아래에서는, 실시예들에서 사용되는 용어가 설명된다.
부호화기(encoder): 부호화(encoding)를 수행하는 장치를 의미한다.
복호화기(decoder): 복호화(decoding)를 수행하는 장치를 의미한다.
유닛(unit): 유닛은 영상의 부호화 및 복호화의 단위를 나타낼 수 있다. 용어들 "유닛" 및 "블록(block)"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
- 유닛은 샘플의 MxN 배열일 수 있다. M 및 N은 각각 양의 정수일 수 있다. 유닛은 흔히 2차원의 샘플들의 배열을 의미할 수 있다.
- 영상의 부호화 및 복호화에 있어서, 유닛은 하나의 영상의 분할에 의해 생성된 영역일 수 있다. 말하자면, 유닛은 하나의 영상 내의 특정된 영역일 수 있다. 하나의 영상은 복수의 유닛들로 분할될 수 있다. 또는, 유닛은 하나의 영상을 세분화된 부분들로 분할하고, 분할된 부분에 대한 부호화 또는 복호화가 수행될 때, 상기의 분할된 부분을 의미할 수 있다.
- 영상의 부호화 및 복호화에 있어서, 유닛의 종류에 따라서 유닛에 대한 기정의된 처리가 수행될 수 있다.
- 기능에 따라서, 유닛의 타입은 매크로 유닛(Macro Unit), 코딩 유닛(Coding Unit; CU), 예측 유닛(Prediction Unit; PU), 잔차 유닛(Residual Unit) 및 변환 유닛(Transform Unit; TU) 등으로 분류될 수 있다. 또는, 기능에 따라서, 유닛은 블록, 매크로블록(Macroblock), 코딩 트리 유닛(Coding Tree Unit), 코딩 트리 블록(Coding Tree Block), 코딩 유닛(Coding Unit), 부호화 블록(Coding Block), 예측 유닛(Prediction Unit), 예측 블록(Prediction Block), 잔차 유닛(Residual Unit), 잔차 블록(Residual Block), 변환 유닛(Transform Unit) 및 변환 블록(Transform Block) 등을 의미할 수 있다.
- 유닛은, 블록과 구분하여 지칭하기 위해, 루마(luma) 성분 블록 및 이에 대응하는 크로마(chroma) 성분 블록, 그리고 각 블록에 대한 구문 요소(syntax element)를 포함하는 정보를 의미할 수 있다.
- 유닛의 크기 및 형태는 다양할 수 있다. 또한, 유닛은 다양한 크기 및 다양한 형태를 가질 수 있다. 특히 유닛의 형태는 정사각형뿐만 아니라 직사각형, 사다리꼴, 삼각형 및 오각형 등 2차원으로 표현될 수 있는 기하학적 도형을 포함할 수 있다.
- 또한, 유닛 정보는 유닛의 타입, 유닛의 크기, 유닛의 깊이, 유닛의 부호화 순서 및 유닛의 복호화 순서 등 중 적어도 하나 이상을 포함할 수 있다. 예를 들면, 유닛의 타입은 CU, PU, 잔차 유닛 및 TU 등 중 하나를 가리킬 수 있다.
- 하나의 유닛은 유닛에 비해 더 작은 크기를 갖는 하위 유닛으로 더 분할될 수 있다.
깊이(depth): 깊이는 유닛의 분할된 정도를 의미할 수 있다. 또한, 유닛 깊이는 유닛을 트리 구조로 표현했을 때 유닛이 존재하는 레벨을 나타낼 수 있다.
- 유닛 분할 정보는 유닛의 깊이에 관한 깊이를 포함할 수 있다. 깊이는 유닛이 분할되는 회수 및/또는 정도를 나타낼 수 있다.
- 트리 구조에서, 루트 노드(root node)의 깊이가 가장 얕고, 리프 노드(leaf node)의 깊이가 가장 깊다고 볼 수 있다.
- 하나의 유닛은 트리 구조(tree structure)에 기반하여 깊이 정보(depth)를 가지면서 계층적으로(hierarchically) 복수의 하위 유닛들로 분할될 수 있다. 말하자면, 유닛 및 상기의 유닛의 분할에 의해 생성된 하위 유닛은 노드 및 상기의 노드의 자식 노드에 각각 대응할 수 있다. 각각의 분할된 하위 유닛은 깊이를 가질 수 있다. 깊이는 유닛이 분할된 회수 및/또는 정도를 나타내므로, 하위 유닛의 분할 정보는 하위 유닛의 크기에 관한 정보를 포함할 수도 있다.
- 트리 구조에서, 가장 상위 노드는 분할되지 않은 최초의 유닛에 대응할 수 있다. 가장 상위 노드는 루트 노드로 칭해질 수 있다. 또한, 가장 상위 노드는 최소의 깊이 값을 가질 수 있다. 이 때, 가장 상위 노드는 레벨 0의 깊이를 가질 수 있다.
- 레벨 1의 깊이를 갖는 노드는 최초의 유닛이 한 번 분할됨에 따라 생성된 유닛을 나타낼 수 있다. 레벨 2의 깊이를 갖는 노드는 최초의 유닛이 두 번 분할됨에 따라 생성된 유닛을 나타낼 수 있다.
- 레벨 n의 깊이를 갖는 노드는 최초의 유닛이 n번 분할됨에 따라 생성된 유닛을 나타낼 수 있다.
- 리프 노드는 가장 하위의 노드일 수 있으며, 더 분할될 수 없는 노드일 수 있다. 리프 노드의 깊이는 최대 레벨일 수 있다. 예를 들면, 최대 레벨의 기정의된 값은 3일 수 있다.
- QT 깊이는 쿼드 분할에 대한 깊이를 나타낼 수 있다. BT 깊이는 이진 분할에 대한 깊이를 나타낼 수 있다. TT 깊이는 삼진 분할에 대한 깊이를 나타낼 수 있다.
샘플(sample): 샘플은 블록을 구성하는 기반(base) 단위일 수 있다. 샘플은 비트 깊이(bit depth; Bd)에 따라서 0부터 2Bd-1까지의 값들로서 표현될 수 있다.
- 샘플은 픽셀 또는 픽셀 값일 수 있다.
- 이하에서, 용어들 "픽셀", "화소" 및 "샘플"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
코딩 트리 유닛(Coding Tree Unit; CTU): CTU는 하나의 루마 성분(Y) 코딩 트리 블록과, 상기의 루마 성분 코딩 트리 블록에 관련된 두 크로마 성분(Cb, Cr) 코딩 트리 블록들로 구성될 수 있다. 또한, CTU는 상기의 블록들과 상기의 블록들의 각 블록에 대한 구문 요소를 포함한 것을 의미할 수도 있다.
- 각 코딩 트리 유닛은 코딩 유닛, 예측 유닛 및 변환 유닛 등의 하위 유닛을 구성하기 위하여 쿼드 트리(Quad Tree: QT), 이진 트리(Binary Tree; BT) 및 삼진 트리(Ternary Tree; TT) 등과 같은 하나 이상의 분할 방식을 이용하여 분할될 수 있다. 또한, 각 코딩 트리 유닛은 하나 이상의 분할 방식들을 사용하는 복수 트리(MultiType Tree; MTT)을 이용하여 분할될 수 있다.
- CTU는 입력 영상의 분할에서와 같이, 영상의 복호화 및 부호화 과정에서의 처리 단위인 픽셀 블록을 지칭하기 위한 용어로서 사용될 수 있다.
코딩 트리 블록(Coding Tree Block; CTB): 코딩 트리 블록은 Y 코딩 트리 블록, Cb 코딩 트리 블록, Cr 코딩 트리 블록 중 어느 하나를 지칭하기 위한 용어로 사용될 수 있다.
주변 블록(neighbor block): 주변 블록은 대상 블록에 인접한 블록을 의미할 수 있다. 주변 블록은 복원된 주변 블록을 의미할 수도 있다.
- 이하에서, 용어들 "주변 블록" 및 "인접 블록(adjacent block)"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
공간적 주변 블록(spatial neighbor block): 공간적 주변 블록은 대상 블록에 공간적으로 인접한 블록일 수 있다. 주변 블록은 공간적 주변 블록을 포함할 수 있다.
- 대상 블록 및 공간적 주변 블록은 대상 픽처 내에 포함될 수 있다.
- 공간적 주변 블록은 대상 블록에 경계가 맞닿은 블록 또는 대상 블록으로부터 소정의 거리 내에 위치한 블록을 의미할 수 있다.
- 공간적 주변 블록은 대상 블록의 꼭지점에 인접한 블록을 의미할 수 있다. 여기에서, 대상 블록의 꼭지점에 인접한 블록이란, 대상 블록에 가로로 인접한 이웃 블록에 세로로 인접한 블록 또는 대상 블록에 세로로 인접한 이웃 블록에 가로로 인접한 블록일 수 있다.
시간적 주변 블록(temporal neighbor block): 시간적 주변 블록은 대상 블록에 시간적으로 인접한 블록일 수 있다. 주변 블록은 시간적 주변 블록을 포함할 수 있다.
- 시간적 주변 블록은 콜 블록(co-located block; col block)을 포함할 수 있다.
- 콜 블록은 이미 복원된 콜 픽처(co-located picture; col picture) 내의 블록일 수 있다. 콜 블록의 콜 픽처 내에서의 위치는 대상 블록의 대상 픽처 내의 위치에 대응할 수 있다. 또는, 콜 블록의 콜 픽처 내에서의 위치는 대상 블록의 대상 픽처 내의 위치와 동일할 수 있다. 콜 픽처는 참조 픽처 리스트에 포함된 픽처일 수 있다.
- 시간적 주변 블록은 대상 블록의 공간적 주변 블록에 시간적으로 인접한 블록일 수 있다.
예측 유닛(prediction unit): 인터 예측, 인트라 예측, 인터 보상(compensation), 인트라 보상 및 움직임 보상 등의 예측에 대한 기반 단위를 의미할 수 있다.
- 하나의 예측 유닛은 더 작은 크기를 갖는 복수의 파티션(partition)들 또는 하위 예측 유닛들로 분할될 수도 있다. 복수의 파티션들 또한 예측 또는 보상의 수행에 있어서의 기반 단위일 수 있다. 예측 유닛의 분할에 의해 생성된 파티션 또한 예측 유닛일 수 있다.
예측 유닛 파티션(prediction unit partition): 예측 유닛 파티션은 예측 유닛이 분할된 형태를 의미할 수 있다.
재구축된 이웃 유닛(reconstructed neighboring unit): 재구축된 이웃 유닛은 대상 유닛의 주변에 이미 복호화되어 재구축된 유닛일 수 있다.
- 재구축된 이웃 유닛은 대상 유닛에 대한 공간적(spatial) 인접 유닛 또는 시간적(temporal) 인접 유닛일 수 있다.
- 재구축된 공간적 주변 유닛은 대상 픽처 내의 유닛이면서 부호화 및/또는 복호화를 통해 이미 재구축된 유닛일 수 있다.
- 재구축된 시간적 주변 유닛은 참조 영상 내의 유닛이면서 부호화 및/또는 복호화를 통해 이미 재구축된 유닛일 수 있다. 재구축된 시간적 주변 유닛의 참조 영상 내에서의 위치는 대상 유닛의 대상 픽처 내에서의 위치와 같거나, 대상 유닛의 대상 픽처 내에서의 위치에 대응할 수 있다.
파라미터 세트(parameter set): 파라미터 세트는 비트스트림 내의 구조(structure) 중 헤더(header) 정보에 해당할 수 있다. 예를 들면, 파라미터 세트는 비디오 파라미터 세트(Video Parameter Set; VPS), 시퀀스 파라미터 세트(Sequence Parameter Set: SPS), 픽처 파라미터 세트(Picture Parameter Set; PPS) 및 적응 파라미터 세트(Adaptation Parameter Set; APS) 등을 포함할 수 있다.
또한, 파라미터 세트는 슬라이스(slice) 헤더 정보 및 타일 헤더 정보를 포함할 수 있다.
율-왜곡 최적화(rate-distortion optimization): 부호화 장치는 코딩 유닛의 크기, 예측 모드, 예측 유닛의 크기, 움직임 정보 및, 변환 유닛의 크기 등의 조합을 이용해서 높은 부호화 효율을 제공하기 위해 율-왜곡 최적화를 사용할 수 있다.
- 율-왜곡 최적화 방식은 상기의 조합들 중에서 최적의 조합을 선택하기 위해 각 조합의 율-왜곡 비용(rate-distortion cost)을 계산할 수 있다. 율-왜곡 비용은 아래의 수식 1을 이용하여 계산될 수 있다. 일반적으로 상기 율-왜곡 비용이 최소가 되는 조합이 율-왜곡 최적화 방식에 있어서의 최적의 조합으로 선택될 수 있다.
[수식 1]
Figure PCTKR2018015845-appb-I000001
- D는 왜곡을 나타낼 수 있다. D는 변환 유닛 내에서 원래의 변환 계수들 및 재구축된 변환 계수들 간의 차이 값들의 제곱들의 평균(mean square error)일 수 있다.
- R은 율을 나타낼 수 있다. R은 관련된 문맥 정보를 이용한 비트 율을 나타낼 수 있다.
- λ는 라그랑지안 승수(Lagrangian multiplier)를 나타낼 수 있다. R은 예측 모드, 움직임 정보 및 코드된 블록 플래그(coded block flag) 등과 같은 코딩 파라미터 정보뿐만 아니라, 변환 계수의 부호화에 의해 발생하는 비트도 포함할 수 있다.
- 부호화 장치는 정확한 D 및 R을 계산하기 위해 인터 예측 및/또는 인트라 예측, 변환, 양자화, 엔트로피 부호화, 역양자화, 역변환 등의 과정들을 수행할 수 있다. 이러한 과정들은 부호화 장치에서의 복잡도를 크게 증가시킬 수 있다.
비트스트림(bitstream): 비트스트림은 부호화된 영상 정보를 포함하는 비트의 열을 의미할 수 있다.
파라미터 세트(parameter set): 파라미터 세트는 비트스트림 내의 구조(structure) 중 헤더(header) 정보에 해당할 수 있다.
- 파라미터 세트는 비디오 파라미터 세트(video parameter set), 시퀀스 파라미터 세트(sequence parameter set), 픽처 파라미터 세트(picture parameter set) 및 적응 파라미터 세트(adaptation parameter set) 중 적어도 하나를 포함할 수 있다. 또한, 파라미터 세트는 슬라이스(slice) 헤더의 정보 및 타일(tile) 헤더의 정보를 포함할 수도 있다.
파싱(parsing): 파싱은 비트스트림을 엔트로피 복호화하여 구문 요소(syntax element)의 값을 결정하는 것을 의미할 수 있다. 또는, 파싱은 엔트로피 복호화 자체를 의미할 수 있다.
심볼(symbol): 부호화 대상 유닛 및/또는 복호화 대상 유닛의 구문 요소, 코딩 파라미터(coding parameter) 및 변환 계수(transform coefficient) 등 중 적어도 하나를 의미할 수 있다. 또한, 심볼은 엔트로피 부호화의 대상 또는 엔트로피 복호화의 결과를 의미할 수 있다.
참조 픽처(reference picture): 참조 픽처는 인터 예측 또는 움직임 보상을 위하여 유닛이 참조하는 영상을 의미할 수 있다. 또는, 참조 픽처는 인터 예측 또는 움직임 보상을 위해 대상 유닛이 참조하는 참조 유닛을 포함하는 영상일 수 있다.
이하, 용어 "참조 픽처" 및 "참조 영상"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.
참조 픽처 리스트(reference picture list): 참조 픽처 리스트는 인터 예측 또는 움직임 보상에 사용되는 하나 이상의 참조 영상들을 포함하는 리스트일 수 있다.
- 참조 픽처 리스트의 종류는 리스트 조합(List Combined; LC), 리스트 0(List 0; L0), 리스트 1(List 1; L1), 리스트 2(List 2; L2) 및 리스트 3(List 3; L3) 등이 있을 수 있다.
- 인터 예측에는 하나 이상의 참조 픽처 리스트들이 사용될 수 있다.
인터 예측 지시자(inter prediction indicator): 인터 예측 지시자는 대상 유닛에 대한 인터 예측의 방향을 가리킬 수 있다. 인터 예측은 단방향 예측 및 양방향 예측 등 중 하나일 수 있다. 또는, 인터 예측 지시자는 대상 유닛의 예측 유닛을 생성할 때 사용되는 참조 영상의 개수를 나타낼 수 있다. 또는, 인터 예측 지시자는 대상 유닛에 대한 인터 예측 혹은 움직임 보상을 위해 사용되는 예측 블록의 개수를 의미할 수 있다.
참조 픽처 색인(reference picture index): 참조 픽처 색인은 참조 픽처 리스트에서 특정 참조 영상을 지시하는 색인일 수 있다.
움직임 벡터(Motion Vector; MV): 움직임 벡터는 인터 예측 또는 움직임 보상에서 사용되는 2차원의 벡터일 수 있다. 움직임 벡터는 대상 영상 및 참조 영상 간의 오프셋을 의미할 수 있다.
- 예를 들면, MV는 (mvx, mvy)와 같은 형태로 표현될 수 있다. mvx는 수평(horizontal) 성분을 나타낼 수 있고, mvy 는 수직(vertical) 성분을 나타낼 수 있다.
탐색 영역(search range): 탐색 영역은 인터 예측 중 MV에 대한 탐색이 이루어지는 2차원의 영역일 수 있다. 예를 들면, 탐색 영역의 크기는 MxN일 수 있다. M 및 N은 각각 양의 정수일 수 있다.
움직임 벡터 후보(motion vector candidate): 움직임 벡터 후보는 움직임 벡터를 예측할 때 예측 후보인 블록 혹은 예측 후보인 블록의 움직임 벡터를 의미할 수 있다.
- 움직임 벡터 후보는 움직임 벡터 후보 리스트에 포함될 수 있다.
움직임 벡터 후보 리스트(motion vector candidate list): 움직임 벡터 후보 리스트는 하나 이상의 움직임 벡터 후보들을 이용하여 구성된 리스트를 의미할 수 있다.
움직임 벡터 후보 색인(motion vector candidate index): 움직임 벡터 후보 색인은 움직임 벡터 후보 리스트 내의 움직임 벡터 후보를 가리키는 지시자를 의미할 수 있다. 또는, 움직임 벡터 후보 색인은 움직임 벡터 예측기(motion vector predictor)의 색인(index)일 수 있다.
움직임 정보(motion information): 움직임 정보는 움직임 벡터, 참조 픽처 색인 및 인터 예측 지시자(inter prediction indicator) 뿐만 아니라 참조 픽처 리스트 정보, 참조 영상, 움직임 벡터 후보, 움직임 벡터 후보 색인, 머지 후보 및 머지 색인 등 중 적어도 하나를 포함하는 정보를 의미할 수 있다.
머지 후보 리스트(merge candidate list): 머지 후보 리스트는 머지 후보를 이용하여 구성된 리스트를 의미할 수 있다.
머지 후보(merge candidate): 머지 후보는 공간적 머지 후보, 시간적 머지 후보, 조합된 머지 후보, 조합 양예측(combined bi-prediction) 머지 후보 및 제로 머지 후보 등을 의미할 수 있다. 머지 후보는 예측 타입 정보, 각 리스트에 대한 참조 픽처 색인 및 움직임 벡터 등의 움직임 정보를 포함할 수 있다.
머지 색인(merge index): 머지 색인은 머지 후보 리스트 내의 머지 후보를 가리키는 지시자일 수 있다.
- 머지 색인은 대상 유닛에 공간적으로 인접한 재구축된 유닛 및 대상 유닛에 시간적으로 인접한 재구축된 유닛 중 머지 후보를 유도한 재구축된 유닛을 지시할 수 있다.
- 머지 색인은 머지 후보의 움직임 정보들 중 적어도 하나를 지시할 수 있다.
변환 유닛(transform unit): 변환 유닛은 변환, 역변환, 양자화, 역양자화, 변환 계수 부호화 및 변환 계수 복호화 등과 같은 잔차 신호(residual signal) 부호화 및/또는 잔차 신호 복호화에 있어서의 기본 유닛일 수 있다. 하나의 변환 유닛은 더 작은 크기의 복수의 변환 유닛들로 분할될 수 있다.
스케일링(scaling): 스케일링은 변환 계수 레벨에 인수를 곱하는 과정을 의미할 수 있다.
- 변환 계수 레벨에 대한 스케일링의 결과로서, 변환 계수가 생성될 수 있다. 스케일링은 역양자화(dequantization)로 칭해질 수도 있다.
양자화 파라미터(Quantization Parameter; QP): 양자화 파라미터는 양자화에서 변환 계수에 대해 변환 계수 레벨(transform coefficient level)을 생성할 때 사용되는 값을 의미할 수 있다. 또는, 양자화 파라미터는 역양자화에서 변환 계수 레벨을 스케일링(scaling)함으로써 변환 계수를 생성할 때 사용되는 값을 의미할 수도 있다. 또는, 양자화 파라미터는 양자화 스탭 크기(step size)에 매핑된 값일 수 있다.
델타 양자화 파라미터(delta quantization parameter): 델타 양자화 파라미터는 예측된 양자화 파라미터 및 대상 유닛의 양자화 파라미터의 차분(differential) 값을 의미한다.
스캔(scan): 스캔은 유닛, 블록 또는 행렬 내의 계수들의 순서를 정렬하는 방법을 의미할 수 있다. 예를 들면, 2차원 배열을 1차원 배열 형태로 정렬하는 것을 스캔이라고 칭할 수 있다. 또는, 1차원 배열을 2차원 배열 형태로 정렬하는 것도 스캔 또는 역 스캔(inverse scan)이라고 칭할 수 있다.
변환 계수(transform coefficient): 변환 계수는 부호화 장치에서 변환을 수행함에 따라 생성된 계수 값일 수 있다. 또는, 변환 계수는 복호화 장치에서 엔트로피 복호화 및 역양자화 중 적어도 하나를 수행함에 따라 생성된 계수 값일 수 있다.
- 변환 계수 또는 잔차 신호에 양자화를 적용함으로써 생성된 양자화된 레벨 또는 양자화된 변환 계수 레벨 또한 변환 계수의 의미에 포함될 수 있다.
양자화된 레벨(quantized level): 양자화된 레벨은 부호화 장치에서 변환 계수 또는 잔차 신호에 양자화를 수행함으로써 생성된 값을 의미할 수 있다. 또는, 양자화된 레벨은 복호화 장치에서 역양자화를 수행함에 있어서 역양자화의 대상이 되는 값을 의미할 수도 있다.
- 변환 및 양자화의 결과인 양자화된 변환 계수 레벨도 양자화된 레벨의 의미에 포함될 수 있다.
넌제로 변환 계수(non-zero transform coefficient): 넌제로 변환 계수는 0이 아닌 값을 갖는 변환 계수 또는 0이 아닌 값을 갖는 변환 계수 레벨을 의미할 수 있다. 또는, 넌제로 변환 계수는 값의 크기가 0이 아난 변환 계수 또는 값의 크기가 0이 아닌 변환 계수 레벨을 의미할 수 있다.
양자화 행렬(quantization matrix): 양자화 행렬은 영상의 주관적 화질 혹은 객관적 화질을 향상시키기 위해서 양자화 과정 또는 역양자화 과정에서 이용되는 행렬을 의미할 수 있다. 양자화 행렬은 스케일링 리스트(scaling list)라고도 칭해질 수 있다.
양자화 행렬 계수(quantization matrix coefficient): 양자화 행렬 계수는 양자화 행렬 내의 각 원소(element)를 의미할 수 있다. 양자화 행렬 계수는 행렬 계수(matrix coefficient)라고도 칭해질 수 있다.
디폴트 행렬(default matrix): 기본 행렬은 부호화 장치 및 복호화 장치에서 기정의된 양자화 행렬일 수 있다.
비 디폴트 행렬(non-default matrix): 비 디폴트 행렬은 부호화 장치 및 복호화 장치에서 기정의되어 있지 않은 양자화 행렬일 수 있다. 비 디폴트 행렬은 부호화 장치로부터 복호화 장치로 시그널링될 수 있다.
가장 가능성있는 모드(Most Probable Mode; MPM): MPM은 대상 블록의 인트라 예측을 위해 사용될 가능성이 높은 인트라 예측 모드를 나타낼 수 있다.
부호화 장치 및 복호화 장치는 대상 블록에 관련된 코딩 파라미터 및 대상 블록에 관련된 개체의 속성에 기반하여 하나 이상의 MPM들을 결정할 수 있다.
부호화 장치 및 복호화 장치는 참조 블록의 인트라 예측 모드에 기반하여 하나 이상의 MPM들을 결정할 수 있다. 참조 블록은 복수일 수 있다. 복수의 참조 블록들은 대상 블록의 좌측에 인접한 공간적 주변 블록 및 대상 블록의 상단에 인접한 공간적 주변 블록을 포함할 수 있다. 말하자면, 참조 블록들에 대하여 어떠한 인트라 예측 모드들이 사용되었는가에 따라서 서로 다른 하나 이상의 MPM들이 결정될 수 있다.
하나 이상의 MPM들은 부호화 장치 및 복호화 장치에서 동일한 방식으로 결정될 수 있다. 말하자면, 부호화 장치 및 복호화 장치는 동일한 하나 이상의 MPM들을 포함하는 MPM 리스트를 공유할 수 있다.
MPM 리스트: MPM 리스트는 하나 이상의 MPM들을 포함하는 리스트일 수 있다. MPM 리스트 내의 하나 이상의 MPM들의 개수는 기정의될 수 있다.
MPM 지시자: MPM 지시자는 MPM 리스트의 하나 이상의 MPM들 중 대상 블록의 인트라 예측을 위해 사용되는 MPM을 지시할 수 있다. 예를 들면, MPM 지시자는 MPM 리스트에 대한 인덱스일 수 있다.
MPM 리스트는 부호화 장치 및 복호화 장치에서 동일한 방식으로 결정되기 때문에 MPM 리스트 자체는 부호화 장치로부터 복호화 장치로 전송될 필요가 없을 수 있다.
MPM 지시자는 부호화 장치로부터 복호화 장치로 시그널링될 수 있다. MPM 지시자가 시그널링됨에 따라 복호화 장치는 MPM 리스트의 MPM들 중 대상 블록에 대한 인트라 예측을 위해 사용될 MPM을 결정할 수 있다.
MPM 사용 지시자: MPM 사용 지시자는 대상 블록에 대한 예측을 위해 MPM 사용 모드가 사용될지 여부를 지시할 수 있다. MPM 사용 모드는 MPM 리스트를 사용하여 대상 블록에 대한 인트라 예측을 위해 사용될 MPM을 결정하는 모드일 수 있다.
MPM 사용 지시자는 부호화 장치로부터 복호화 장치로 시그널링될 수 있다.
시그널링: 시그널링은 정보가 부호화 장치로부터 복호화 장치로 전송되는 것을 나타낼 수 있다. 또는, 시그널링은 정보를 비트스트림 또는 기록 매체 내에 포함시키는 것을 의미할 수 있다. 부호화 장치에 의해 시그널링된 정보는 복호화 장치에 의해 사용될 수 있다.
도 1은 본 발명이 적용되는 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
부호화 장치(100)는 인코더, 비디오 부호화 장치 또는 영상 부호화 장치일 수 있다. 비디오는 하나 이상의 영상들을 포함할 수 있다. 부호화 장치(100)는 비디오의 하나 이상의 영상들을 순차적으로 부호화할 수 있다.
도 1을 참조하면, 부호화 장치(100)는 인터 예측부(110), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조 픽처 버퍼(190)를 포함할 수 있다.
부호화 장치(100)는 인트라 모드 및/또는 인터 모드를 사용하여 대상 영상에 대한 부호화를 수행할 수 있다.
또한, 부호화 장치(100)는 대상 영상에 대한 부호화를 통해 부호화의 정보를 포함하는 비트스트림을 생성할 수 있고, 생성된 비트스트림을 출력할 수 있다. 생성된 비트스트림은 컴퓨터 판독가능한 기록 매체에 저장될 수 있고, 유/무선 전송 매체를 통해 스트리밍될 수 있다.
예측 모드로서, 인트라 모드가 사용되는 경우, 스위치(115)는 인트라로 전환될 수 있다. 예측 모드로서, 인터 모드가 사용되는 경우, 스위치(115)는 인터로 전환될 수 있다.
부호화 장치(100)는 대상 블록에 대한 예측 블록을 생성할 수 있다. 또한, 부호화 장치(100)는 예측 블록이 생성된 후, 대상 블록 및 예측 블록의 차분(residual)을 부호화할 수 있다.
예측 모드가 인트라 모드인 경우, 인트라 예측부(120)는 대상 블록의 주변에 있는, 이미 부호화/복호화된 블록의 픽셀을 참조 샘플로서 이용할 수 있다. 인트라 예측부(120)는 참조 샘플을 이용하여 대상 블록에 대한 공간적 예측을 수행할 수 있고, 공간적 예측을 통해 대상 블록에 대한 예측 샘플들을 생성할 수 있다.
인터 예측부(110)는 움직임 예측부 및 움직임 보상부를 포함할 수 있다.
예측 모드가 인터 모드인 경우, 움직임 예측부는, 움직임 예측 과정에서 참조 영상으로부터 대상 블록과 가장 매치가 잘 되는 영역을 검색할 수 있고, 검색된 영역을 이용하여 대상 블록 및 검색된 영역에 대한 움직임 벡터를 도출할 수 있다.
참조 영상은 참조 픽처 버퍼(190)에 저장될 수 있으며, 참조 영상에 대한 부호화 및/또는 복호화가 처리되었을 때 참조 픽처 버퍼(190)에 저장될 수 있다.
움직임 보상부는 움직임 벡터를 이용하는 움직임 보상을 수행함으로써 대상 블록에 대한 예측 블록을 생성할 수 있다. 여기에서, 움직임 벡터는 인터 예측에 사용되는 2차원 벡터일 수 있다. 또한 움직임 벡터는 대상 영상 및 참조 영상 간의 오프셋(offset)을 나타낼 수 있다.
움직임 예측부 및 움직임 보상부는 움직임 벡터가 정수가 아닌 값을 가진 경우 참조 영상 내의 일부 영역에 대해 보간 필터(interpolation filter)를 적용함으로써 예측 블록을 생성할 수 있다. 인터 예측 또는 움직임 보상을 수행하기 위해, CU를 기준으로 CU에 포함된 PU의 움직임 예측 및 움직임 보상의 방법이 스킵 모드(skip mode), 머지 모드(merge mode), 향상된 움직임 벡터 예측(advanced motion vector prediction; AMVP) 모드 및 현재 픽처 참조 모드 중 어떠한 방법인지 여부가 판단될 수 있고, 각 모드에 따라 인터 예측 또는 움직임 보상이 수행될 수 있다.
감산기(125)는 대상 블록 및 예측 블록의 차분인 잔차 블록(residual block)을 생성할 수 있다. 잔차 블록은 잔차 신호로 칭해질 수도 있다.
잔차 신호는 원 신호 및 예측 신호 간의 차이(difference)를 의미할 수 있다. 또는, 잔차 신호는 원신호 및 예측 신호 간의 차이를 변환(transform)하거나 양자화하거나 또는 변환 및 양자화함으로써 생성된 신호일 수 있다. 잔차 블록은 블록 단위에 대한 잔차 신호일 수 있다.
변환부(130)는 잔차 블록에 대해 변환(transform)을 수행하여 변환 계수를 생성할 수 있고, 생성된 변환 계수(transform coefficient)를 출력할 수 있다. 여기서, 변환 계수는 잔차 블록에 대한 변환을 수행함으로써 생성된 계수 값일 수 있다.
변환부(130)는 변환을 수행함에 있어서 기정의된 복수의 변환 방법들 중 하나를 사용할 수 있다.
기정의된 복수의 변환 방법들은 이산 코사인 변환(Discrete Cosine Transform; DCT), 이산 사인 변환(Discrete Sine Transform; DST) 및 카루넨-루베 변환(Karhunen-Loeve Transform; KLT) 기반 변환 등을 포함할 수 있다.
잔차 블록에 대한 변환을 위해 사용되는 변환 방법은 대상 블록 및/또는 주변 블록에 대한 코딩 파라미터들 중 적어도 하나에 따라 결정될 수 있다. 예를 들면, 변환 방법은 PU에 대한 인터 예측 모드, PU에 대한 인트라 예측 모드, TU의 크기 및 TU의 형태 중 적어도 하나에 기반하여 결정될 수 있다. 또는, 변환 방법을 지시하는 변환 정보가 부호화 장치(100)로부터 복호화 장치(200)로 시그널링될 수도 있다.
변환 스킵(transform skip) 모드가 적용되는 경우, 변환부(130)는 잔차 블록에 대한 변환을 생략할 수도 있다.
변환 계수에 양자화를 적용함으로써 양자화된 변환 계수 레벨(transform coefficient level) 또는 양자화된 레벨이 생성될 수 있다. 이하, 실시예들에서는 양자화된 변환 계수 레벨 및 양자화된 레벨도 변환 계수로 칭해질 수 있다.
양자화부(140)는 변환 계수를 양자화 파라미터에 맞춰 양자화함으로써 양자화된 변환 계수 레벨(quantized transform coefficient level)(말하자면, 양자화된 레벨 또는 양자화된 계수)를 생성할 수 있다. 양자화부(140)는 생성된 양자화된 변환 계수 레벨을 출력할 수 있다. 이때, 양자화부(140)에서는 양자화 행렬을 사용하여 변환 계수를 양자화할 수 있다.
엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 및/또는 부호화 과정에서 산출된 코딩 파라미터 값들 등에 기초하여 확률 분포에 따른 엔트로피 부호화를 수행함으로써 비트스트림(bitstream)을 생성할 수 있다. 엔트로피 부호화부(150)는 생성된 비트스트림을 출력할 수 있다.
엔트로피 부호화부(150)는 영상의 픽셀에 관한 정보 및 영상의 복호화를 위한 정보에 대한 엔트로피 부호화를 수행할 수 있다. 예를 들면, 영상의 복호화를 위한 정보는 구문 요소(syntax element) 등을 포함할 수 있다.
엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼에 적은 수의 비트가 할당될 수 있고, 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당될 수 있다. 이러한 할당을 통해 심볼이 표현됨에 따라, 부호화의 대상인 심볼들에 대한 비트열(bitstring)의 크기가 감소될 수 있다. 따라서, 엔트로피 부호화를 통해서 영상 부호화의 압축 성능이 향상될 수 있다.
또한, 엔트로피 부호화부(150)는 엔트로피 부호화를 위해 지수 골롬(exponential golomb), 문맥-적응형 가변 길이 코딩(Context-Adaptive Variable Length Coding; CAVLC) 및 문맥-적응형 이진 산술 코딩(Context-Adaptive Binary Arithmetic Coding; CABAC) 등과 같은 부호화 방법을 사용할 수 있다. 예를 들면, 엔트로피 부호화부(150)는 가변 길이 부호화(Variable Length Coding/Code; VLC) 테이블을 이용하여 엔트로피 부호화를 수행할 수 있다. 예를 들면, 엔트로피 부호화부(150)는 대상 심볼에 대한 이진화(binarization) 방법을 도출할 수 있다. 또한, 엔트로피 부호화부(150)는 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출할 수 있다. 엔트로피 부호화부(150)는 도출된 이진화 방법, 확률 모델 및 문맥 모델(context model)을 사용하여 산술 부호화를 수행할 수도 있다.
엔트로피 부호화부(150)는 양자화된 변환 계수 레벨을 부호화하기 위해 변환 계수 스캐닝(transform coefficient scanning) 방법을 통해 2차원의 블록의 형태(form)의 계수를 1차원의 벡터의 형태로 변경할 수 있다.
코딩 파라미터는 부호화 및/또는 복호화를 위해 요구되는 정보일 수 있다. 코딩 파라미터는 부호화 장치(100)에서 부호화되어 부호화 장치(100)로부터 복호화 장치로 전달되는 정보를 포함할 수 있고, 부호화 혹은 복호화 과정에서 유추될 수 있는 정보를 포함할 수 있다. 예를 들면, 복호화 장치로 전달되는 정보로서, 구문 요소가 있다.
코딩 파라미터(coding parameter)는 구문 요소와 같이 부호화 장치에서 부호화되고, 부호화 장치로부터 복호화 장치로 시그널링되는 정보(또는, 플래그, 인덱스 등)뿐만 아니라, 부호화 과정 또는 복호화 과정에서 유도되는 정보를 포함할 수 있다. 또한, 코딩 파라미터는 영상을 부호화하거나 복호화함에 있어서 요구되는 정보를 포함할 수 있다. 예를 들면, 유닛/블록의 크기, 유닛/블록의 깊이, 유닛/블록의 분할 정보, 유닛/블록의 분할 구조, 유닛/블록이 쿼드 트리 형태로 분할되는지 여부를 나타내는 정보, 유닛/블록이 이진 트리 형태로 분할되는지 여부를 나타내는 정보, 이진 트리 형태의 분할 방향(가로 방향 또는 세로 방향), 이진 트리 형태의 분할 형태(대칭 분할 또는 비대칭 분할), 유닛/블록이 삼진 트리 형태로 분할되는지 여부를 나타내는 정보, 삼진 트리 형태의 분할 방향(가로 방향 또는 세로 방향), 삼진 트리 형태의 분할 형태(대칭 분할 또는 비대칭 분할 등), 유닛/블록이 복합 트리 형태로 분할되는지 여부를 나타내는 정보, 복합 트리 형태의 분할의 조합 및 방향(가로 방향 또는 세로 방향 등), 예측 방식(인트라 예측 또는 인터 예측), 인트라 예측 모드/방향, 참조 샘플 필터링 방법, 예측 블록 필터링 방법, 예측 블록 경계 필터링 방법, 필터링의 필터 탭, 필터링의 필터 계수, 인터 예측 모드, 움직임 정보, 움직임 벡터, 참조 픽처 색인, 인터 예측 방향, 인터 예측 지시자, 참조 픽처 리스트, 참조 영상, 움직임 벡터 예측기, 움직임 벡터 예측 후보, 움직임 벡터 후보 리스트, 머지 모드를 사용하는지 여부를 나타내는 정보, 머지 후보, 머지 후보 리스트, 스킵(skip) 모드를 사용하는지 여부를 나타내는 정보, 보간 필터의 종류, 보간 필터의 필터 탭, 보간 필터의 필터 계수, 움직임 벡터 크기, 움직임 벡터 표현 정확도, 변환 종류, 변환 크기, 1차 변환을 사용하는지 여부를 나타내는 정보, 추가(2차) 변환을 사용하는지 여부를 나타내는 정보, 1차 변환 선택 정보(또는, 1차 변환 인덱스), 2차 변환 선택 정보(또는, 2차 변환 인덱스), 잔차 신호의 유무를 나타내는 정보, 코드된 블록 패턴(coded block pattern), 코드된 블록 플래그(coded block flag), 양자화 파라미터, 양자화 행렬, 인트라-루프 필터에 대한 정보, 인트라-루프 필터를 적용하는지 여부에 대한 정보, 인트라-루프 필터의 계수, 인트라-루프의 필터 탭, 인트라 루프 필터의 모양(shape)/형태(form), 디블록킹 필터를 적용하는지 여부를 나타내는 정보, 디블록킹 필터 계수, 디블록킹 필터 탭, 디블록킹 필터 강도, 디블록킹 필터 모양/형태, 적응적 샘플 오프셋을 적용하는지 여부를 나타내는 정보, 적응적 샘플 오프셋 값, 적응적 샘플 오프셋 카테고리, 적응적 샘플 오프셋 종류, 적응적 루프-내(in-loop) 필터를 적용하는지 여부, 적응적 루프-내 필터 계수, 적응적 루프-내 필터 탭, 적응적 루프-내 필터 모양/형태, 이진화/역이진화 방법, 문맥 모델, 문맥 모델 결정 방법, 문맥 모델 업데이트 방법, 레귤러 모드를 수행하는지 여부, 바이패스 모드를 수행하는지 여부, 문맥 빈, 바이패스 빈, 변환 계수, 변환 계수 레벨, 변환 계수 레벨 스캐닝 방법, 영상의 디스플레이/출력 순서, 슬라이스 식별 정보, 슬라이스 타입, 슬라이스 분할 정보, 타일 식별 정보, 타일 타입, 타일 분할 정보, 픽처 타입, 비트 심도, 루마 신호에 대한 정보 및 크로마 신호에 대한 정보 중 적어도 하나의 값, 조합된 형태 또는 통계가 코딩 파라미터에 포함될 수 있다. 예측 방식은 인트라 예측 모드 및 인터 예측 모드 중 하나의 예측 모드를 나타낼 수 있다.
1차 변환 선택 정보는 대상 블록에 적용되는 1차 변환을 나타낼 수 있다.
2차 변환 선택 정보는 대상 블록에 적용되는 2차 변환을 나타낼 수 있다.
잔차 신호는 원 신호 및 예측 신호 간의 차분(difference)을 나타낼 수 있다. 또는, 잔차 신호는 원신호 및 예측 신호 간의 차분을 변환(transform)함으로써 생성된 신호일 수 있다. 또는, 잔차 신호는 원 신호 및 예측 신호 간의 차분을 변환 및 양자화함으로써 생성된 신호일 수 있다. 잔차 블록은 블록에 대한 잔차 신호일 수 있다.
여기서, 플래그 또는 인덱스를 시그널링(signaling)한다는 것은 부호화 장치(100)에서는 플래그 또는 인덱스에 대한 엔트로피 부호화(entropy encoding)를 수행함으로써 생성된 엔트로피 부호화된 플래그 또는 엔트로피 부호화된 인덱스를 비트스트림(Bitstream)에 포함시키는 것을 의미할 수 있고, 복호화 장치(200)에서는 비트스트림으로부터 추출된 엔트로피 부호화된 플래그 또는 엔트로피 부호화된 인덱스에 대한 엔트로피 복호화(entropy decoding)를 수행함으로써 플래그 또는 인덱스를 획득하는 것을 의미할 수 있다.
부호화 장치(100)에 의해 인터 예측을 통한 부호화가 수행되기 때문에, 부호화된 대상 영상은 이후에 처리되는 다른 영상(들)에 대하여 참조 영상으로서 사용될 수 있다. 따라서, 부호화 장치(100)는 부호화된 대상 영상을 다시 재구축 또는 복호화할 수 있고, 재구축 또는 복호화된 영상을 참조 영상으로서 참조 픽처 버퍼(190)에 저장할 수 있다. 복호화를 위해 부호화된 대상 영상에 대한 역양자화 및 역변환이 처리될 수 있다.
양자화된 레벨은 역양자화부(160)에서 역양자화될(inversely quantized) 수 있고, 역변환부(170)에서 역변환될(inversely transformed) 수 있다. 역양자화부(160)는 양자화된 레벨에 대한 역양자화를 수행함으로써 역양자화된 계수를 생성할 수 있다. 역변환부(170)는 역양자화된 계수에 대한 역변환을 수행함으로써 재구축된 잔차 블록이 생성될 수 있다. 말하자면, 재구축된 잔차 블록은 역양자화 및 역변환된 계수일 수 있다.
역양자화 및 역변환된 계수는 가산기(175)를 통해 예측 블록과 합해질 수 있다, 역양자화 및/또는 역변환된 계수와 예측 블록을 합함으로써 재구축된(reconstructed) 블록이 생성될 수 있다. 여기서, 역양자화 및/또는 역변환된 계수는 역양자화(dequantization) 및 역변환(inverse-transformation) 중 적어도 하나 이상이 수행된 계수를 의미할 수 있고, 재구축된 잔차 블록을 의미할 수 있다.
재구축된 블록은 필터부(180)를 거칠 수 있다. 필터부(180)는 디블록킹 필터(deblocking filter), 샘플 적응적 오프셋(Sample Adaptive Offset; SAO), 적응적 루프 필터(Adaptive Loop Filter; ALF) 및 논 로컬 필터(Non Local Filter; NLF) 중 적어도 하나 이상을 재구축된 블록 또는 재구축된 픽처에 적용할 수 있다. 필터부(180)는 루프-내(in-loop) 필터로 칭해질 수도 있다.
디블록킹 필터는 블록들 간의 경계에서 발생한 블록 왜곡을 제거할 수 있다. 디블록킹 필터를 적용할지 여부를 판단하기 위해, 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀(들)에 기반하여 대상 블록에 디블록킹 필터를 적용할지 여부가 판단될 수 있다.
대상 블록에 디블록킹 필터를 적용하는 경우, 적용되는 필터는 요구되는 디블록킹 필터링의 강도에 따라 다를 수 있다. 말하자면, 서로 다른 필터들 중 디블록킹 필터링의 강도에 따라 결정된 필터가 대상 블록에 적용될 수 있다. 대상 블록에 디블록킹 필터가 적용되는 경우, 요구되는 디블록킹 필터링의 강도에 따라 강한 필터(strong filter) 및 약한 필터(weak filter) 중 하나의 필터가 대상 블록에 적용될 수 있다.
또한, 대상 블록에 수직 방향 필터링 및 수평 방향 필터링이 수행되는 경우, 수평 방향 필터링 및 수직 방향 필터링이 병행으로 처리될 수 있다.
SAO는 코딩 에러에 대한 보상을 위해 픽셀의 픽셀 값에 적정한 오프셋(offset)을 더할 수 있다. SAO는 디블록킹이 적용된 영상에 대해, 픽셀의 단위로 원본 영상 및 디블록킹이 적용된 영상 간의 차이에 대하여 오프셋을 사용하는 보정을 수행할 수 있다. 영상에 대한 오프셋 보정을 수행하기 위해, 영상에 포함된 픽셀들을 일정한 수의 영역들로 구분한 후, 구분된 영역들 중 오프셋이 수행될 영역을 결정하고 결정된 영역에 오프셋을 적용하는 방법이 사용될 수 있고, 영상의 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법이 사용될 수 있다.
ALF는 재구축된 영상 및 원래의 영상을 비교한 값에 기반하여 필터링을 수행할 수 있다. 영상에 포함된 픽셀들을 소정의 그룹들로 분할한 후, 각 분할된 그룹에 적용될 필터가 결정될 수 있고, 그룹 별로 차별적으로 필터링이 수행될 수 있다. 루마 신호에 대하여, 적응적 루프 필터를 적용할지 여부에 관련된 정보는 CU 별로 시그널링될 수 있다. 각 블록에 적용될 ALF 의 모양 및 필터 계수는 블록 별로 다를 수 있다. 또는, 블록의 특징과는 무관하게, 고정된 형태의 ALF가 블록에 적용될 수 있다.
논 로컬 필터는 대상 블록과 유사한 재구축된 블록들에 기반하여 필터링을 수행할 수 있다. 재구축된 영상에서 대상 블록과 유사한 영역이 선택될 수 있고, 선택된 유사한 영역의 통계적 성질을 사용하여 대상 블록의 필터링이 수행될 수 있다. 논 로컬 필터를 적용할지 여부에 관련된 정보는 CU에 대하여 시그널링될 수 있다. 또한, 블록들에 적용될 논 로컬 필터의 모양들 및 필터 계수들은 블록에 따라서 서로 다를 수 있다.
필터부(180)를 거친 재구축된 블록 또는 재구축된 영상은 참조 픽처 버퍼(190)에 저장될 수 있다. 필터부(180)를 거친 재구축된 블록은 참조 픽처의 일부일 수 있다. 말하자면, 참조 픽처는 필터부(180)를 거친 재구축된 블록들로 구성된 재구축된 픽처일 수 있다. 저장된 참조 픽처는 이후 인터 예측에 사용될 수 있다.
도 2는 본 발명이 적용되는 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.
복호화 장치(200)는 디코더, 비디오 복호화 장치 또는 영상 복호화 장치일 수 있다.
도 2를 참조하면, 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 인터 예측부(250), 스위치(245), 가산기(255), 필터부(260) 및 참조 픽처 버퍼(270)를 포함할 수 있다.
복호화 장치(200)는 부호화 장치(100)에서 출력된 비트스트림을 수신할 수 있다. 복호화 장치(200)는 컴퓨터 판독가능한 기록 매체에 저장된 비트스트림을 수신할 수 있고, 유/무선 전송 매체를 통해 스트리밍되는 비트스트림을 수신할 수 있다.
복호화 장치(200)는 비트스트림에 대하여 인트라 모드 및/또는 인터 모드의 복호화를 수행할 수 있다. 또한, 복호화 장치(200)는 복호화를 통해 재구축된 영상 또는 복호화된 영상을 생성할 수 있고, 생성된 재구축된 영상 또는 복호화된 영상을 출력할 수 있다.
예를 들면, 복호화에 사용되는 예측 모드에 따른 인트라 모드 또는 인터 모드로의 전환은 스위치(245)에 의해 이루어질 수 있다. 복호화에 사용되는 예측 모드가 인트라 모드인 경우 스위치(245)가 인트라로 전환될 수 있다. 복호화에 사용되는 예측 모드가 인터 모드인 경우 스위치(245)가 인터로 전환될 수 있다.
복호화 장치(200)는 입력된 비트스트림을 복호화함으로써 재구축된 잔차 블록(reconstructed residual block)을 획득할 수 있고, 예측 블록을 생성할 수 있다. 재구축된 잔차 블록 및 예측 블록이 획득되면, 복호화 장치(200)는 재구축된 잔차 블록 및 예측 블록을 더함으로써 복호화의 대상이 되는 재구축된 블록을 생성할 수 있다.
엔트로피 복호화부(210)는 비트스트림에 대한 확률 분포에 기초하여 비트스트림에 대한 엔트로피 복호화를 수행함으로써 심볼들을 생성할 수 있다. 생성된 심볼들은 양자화된 변환 계수 레벨(quantized transform coefficient level)(말하자면, 양자화된 레벨 또는 양자화된 계수) 형태의 심볼을 포함할 수 있다. 여기에서, 엔트로피 복호화 방법은 상술된 엔트로피 부호화 방법과 유사할 수 있다. 예를 들면, 엔트로피 복호화 방법은 상술된 엔트로피 부호화 방법의 역과정일 수 있다.
엔트로피 복호화부(210)는 양자화된 변환 계수 레벨을 복호화하기 위해 변환 계수 스캐닝 방법을 통해 1차원의 벡터의 형태의 계수를 2차원의 블록의 형태로 변경할 수 있다.
예를 들면, 우상단 대각 스캔을 이용하여 블록의 계수들을 스캔함으로써 계수들이 2차원 블록 형태로 변경될 수 있다. 또는, 블록의 크기 및/또는 인트라 예측 모드에 따라 우상단 대각 스캔, 수직 스캔 및 수평 스캔 중 어떤 스캔이 사용될 것인지가 결정될 수 있다.
양자화된 계수는 역양자화부(220)에서 역양자화될 수 있다. 역양자화부(220)는 양자화된 계수에 대한 역양자화를 수행함으로써 역양자화된 계수를 생성할 수 있다. 또한, 역양자화된 계수는 역변환부(230)에서 역변환될 수 있다. 역변환부(230)는 역양자화된 계수에 대한 역변환을 수행함으로써 재구축된 잔차 블록을 생성할 수 있다. 양자화된 계수에 대한 역양자화 및 역변환이 수행된 결과로서, 재구축된 잔차 블록이 생성될 수 있다. 이때, 역양자화부(220)는 재구축된 잔차 블록을 생성함에 있어서 양자화된 계수에 양자화 행렬을 적용할 수 있다.
인트라 모드가 사용되는 경우, 인트라 예측부(240)는 대상 블록 주변의 이미 복호화된 블록의 픽셀 값을 이용하는 공간적 예측을 수행함으로써 예측 블록을 생성할 수 있다.
인터 예측부(250)는 움직임 보상부를 포함할 수 있다. 또는, 인터 예측부(250)는 움직임 보상부로 명명될 수 있다.
인터 모드가 사용되는 경우, 움직임 보상부는 움직임 벡터 및 참조 픽처 버퍼(270)에 저장된 참조 영상을 이용하는 움직임 보상을 수행함으로써 예측 블록을 생성할 수 있다.
움직임 보상부는 움직임 벡터가 정수가 아닌 값을 가진 경우, 참조 영상 내의 일부 영역에 대해 보간 필터를 적용할 수 있고, 보간 필터가 적용된 참조 영상을 사용하여 예측 블록을 생성할 수 있다. 움직임 보상부는 움직임 보상을 수행하기 위해 CU를 기준으로 CU에 포함된 PU를 위해 사용되는 움직임 보상 방법이 스킵 모드, 머지 모드, AMVP 모드 및 현재 픽처 참조 모드 중 어떤 모드인가를 결정할 수 있고, 결정된 모드에 따라 움직임 보상을 수행할 수 있다.
재구축된 잔차 블록 및 예측 블록은 가산기(255)를 통해 더해질 수 있다. 가산기(255)는 재구축된 잔차 블록 및 예측 블록을 더함으로써 재구축된 블록을 생성할 수 있다.
재구축된 블록은 필터부(260)를 거칠 수 있다. 필터부(260)는 디블록킹 필터, SAO, ALF 및 논 로컬 필터 중 적어도 하나를 재구축된 블록 또는 재구축된 영상에 적용할 수 있다. 재구축된 영상은 재구축된 블록을 포함하는 픽처일 수 있다.
필터부(260)를 거친 재구축된 영상은 부호화 장치(100)에 의해 출력될 수 있으며, 부호화 장치(100)에 의해 사용될 수 있다.
필터부(260)를 거친 재구축된 영상은 참조 픽처 버퍼(270)에 참조 픽처로서 저장될 수 있다. 필터부(260)를 거친 재구축된 블록은 참조 픽처의 일부일 수 있다. 말하자면, 참조 픽처는 필터부(260)를 거친 재구축된 블록들로 구성된 영상일 수 있다. 저장된 참조 픽처는 이후 인터 예측을 위해 사용될 수 있다.
도 3은 일 실시예에 따른 전자 장치의 구조도이다.
전자 장치(300)는 전술된 부호화 장치(100) 및 복호화 장치(200)에 대응할 수 있다. 말하자면, 전자 장치(300)는 전술된 부호화 장치(100)의 부호화의 기능 및 복호화 장치(200)의 복호화의 기능을 수행할 수 있다.
전자 장치(300)는 버스(390)를 통하여 서로 통신하는 처리부(310), 메모리(330), 사용자 인터페이스(User Interface; UI) 입력 디바이스(350), UI 출력 디바이스(360) 및 저장소(storage)(340)를 포함할 수 있다. 또한, 전자 장치(300)는 네트워크(399)에 연결되는 통신부(320)를 더 포함할 수 있다.
처리부(310)는 중앙 처리 장치(Central Processing Unit; CPU), 메모리(330) 또는 저장소(340)에 저장된 프로세싱(processing) 명령어(instruction)들을 실행하는 반도체 장치일 수 있다. 처리부(310)는 적어도 하나의 하드웨어 프로세서일 수 있다.
처리부(310)는 전자 장치(300)로 입력되거나, 전자 장치(300)에서 출력되거나, 전자 장치(300)의 내부에서 사용되는 신호, 데이터 또는 정보의 생성 및 처리를 수행할 수 있고, 신호, 데이터 또는 정보에 관련된 검사, 비교 및 판단 등을 수행할 수 있다. 말하자면, 실시예에서 데이터 또는 정보의 생성 및 처리와, 데이터 또는 정보에 관련된 검사, 비교 및 판단은 처리부(310)에 의해 수행될 수 있다.
처리부(310)는 인터 예측부(110), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조 픽처 버퍼(190)를 포함할 수 있다.
또한, 처리부(310)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 인터 예측부(250), 스위치(245), 가산기(255), 필터부(260) 및 참조 픽처 버퍼(270)를 포함할 수 있다.
인터 예측부(110), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조 픽처 버퍼(190) 중 적어도 일부는 프로그램 모듈들일 수 있으며, 외부의 장치 또는 시스템과 통신할 수 있다. 프로그램 모듈들은 운영 체제, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 전자 장치(300)에 포함될 수 있다.
또한, 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 인터 예측부(250), 스위치(245), 가산기(255), 필터부(260) 및 참조 픽처 버퍼(270) 중 적어도 일부는 프로그램 모듈들일 수 있으며, 외부의 장치 또는 시스템과 통신할 수 있다. 프로그램 모듈들은 운영 체제, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 전자 장치에 포함될 수 있다.
프로그램 모듈들은 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈 중 적어도 일부는 전자 장치(300)와 통신 가능한 원격 기억 장치에 저장될 수도 있다.
프로그램 모듈들은 일 실시예에 따른 기능 또는 동작을 수행하거나, 일 실시예에 따른 추상 데이터 유형을 구현하는 루틴(routine), 서브루틴(subroutine), 프로그램, 오브젝트(object), 컴포넌트(component) 및 데이터 구조(data structure) 등을 포괄할 수 있지만, 이에 제한되지는 않는다.
프로그램 모듈들은 전자 장치(300)의 적어도 하나의 프로세서(processor)에 의해 수행되는 명령어(instruction) 또는 코드(code)로 구성될 수 있다.
처리부(310)는 인터 예측부(110), 인트라 예측부(120), 스위치(115), 감산기(125), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(175), 필터부(180) 및 참조 픽처 버퍼(190)의 명령어 또는 코드를 실행할 수 있다.
또한, 처리부(310)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 인터 예측부(250), 스위치(245), 가산기(255), 필터부(260) 및 참조 픽처 버퍼(270)의 명령어 또는 코드를 실행할 수 있다.
저장부는 메모리(330) 및/또는 저장소(340)를 나타낼 수 있다. 메모리(330) 및 저장소(340)는 다양한 형태의 휘발성 또는 비휘발성 저장 매체일 수 있다. 예를 들면, 메모리(330)는 롬(ROM)(331) 및 램(RAM)(332) 중 적어도 하나를 포함할 수 있다.
저장부는 전자 장치(300)의 동작을 위해 사용되는 데이터 또는 정보를 저장할 수 있다. 실시예에서, 전자 장치(300)가 갖는 데이터 또는 정보는 저장부 내에 저장될 수 있다.
예를 들면, 저장부는 픽처, 블록, 리스트, 움직임 정보, 인터 예측 정보 및 비트스트림 등을 저장할 수 있다.
전자 장치(300)는 컴퓨터에 의해 독출(read)될 수 있는 기록 매체를 포함하는 컴퓨터 시스템에서 구현될 수 있다.
기록 매체는 전자 장치(300)가 동작하기 위해 요구되는 적어도 하나의 모듈을 저장할 수 있다. 메모리(330)는 적어도 하나의 모듈을 저장할 수 있고, 적어도 하나의 모듈이 처리부(310)에 의하여 실행되도록 구성될 수 있다.
전자 장치(300)의 데이터 또는 정보의 통신과 관련된 기능은 통신부(320)를 통해 수행될 수 있다.
예를 들면, 통신부(320)는 비트스트림을 다른 전자 장치로 전송할 수 있다.
도 4는 일 예에 따른 풀 메시 토폴로지에 기반하는 파라미터의 공유를 나타낸다.
도 4에서는, 파라미터를 공유하는 복수의 계산 노드들이 도시되었다. 계산 노드는 전술된 전자 장치(300)일 수 있다. 말하자면, 계산 노드는 분산 처리 시스템에서 분산 처리를 수행하는 전자 장치(300)를 의미할 수 있다.
이하에서, 용어들 "파라미터", "학습 파라미터", "가중치(weight) 파라미터" 및 "커널(kernel) 파라미터"의 의미들은 동일 또는 유사할 수 있다. 또한, 상기의 용어들은 서로 교체되어 사용될 수 있다. 또한, 상기의 "파라미터"는 "가중치"를 나타낼 수도 있다.
이하에서, 용어들 "학습(learning)" 및 "트레이닝(training)"의 의미들은 동일할 수 있다. 또한, 상기의 용어들은 서로 교체되어 사용될 수 있다.
도 5는 일 예에 따른 스타 토폴로지에 기반하는 파라미터의 공유를 나타낸다.
도 5에서는, 파라미터를 공유하는 복수의 계산 노드들이 도시되었고, 파라미터의 공유를 위해 공유 장소로서 사용되는 파라미터 서버가 도시되었다.
딥 러닝 모델에 대한 분산 학습을 위해서는, 학습의 과정에서 딥 러닝 모델의 파라미터들이 다수의 계산 노드들 간에 공유되어야 할 수 있다.
파라미터의 공유 방법으로서, 풀 메시(full mesh) 토폴로지(topology)에 기반하는 공유 방법과, 스타(star) 토폴로지에 기반하는 공유 방법이 사용될 수 있다.
풀 메시 토폴로지에 기반하는 공유 방법이 사용될 경우, 하나의 계산 노드가 모든 다른 계산 노드들에게 직접적으로 파라미터를 전달할 수 있다.
스타 토폴로지에 기반하는 공유 방법이 사용될 경우, 모든 계산 노드들은 공유 장소인 파라미터 서버를 이용하여 파라미터를 독출(read) 및 기입(write)할 수 있다.
스타 토폴로지에 기반하는 공유 방법이 사용될 경우, 중앙의 파라미터 서버가 파라미터의 갱신 및 공유를 관리할 수 있다. 따라서, 파라미터의 공유를 위해 사용되는 저장소에서, 동시성(concurrency) 및 동기화(synchronization)에 대한 제어가 요구된다. 데이터에 대한 1 회의 학습 과정인 시대(epoch)가 반복(iterate)됨에 따라, 계산 노드들 간의 파라미터의 동기화가 요구될 수 있다.
2 개의 공유 방법들의 모두에서, 토폴로지를 구성하는 계산 노드들의 개수가 증가함에 따라, 파라미터의 공유를 위한 계산 노드들 간의 통신의 횟수가 증가할 수 있다. 특히, 풀 메시 토폴로지에 기반하는 공유 방법이 사용될 경우, 파라미터의 공유를 위해 요구되는 통신의 횟수는 계산 노드들의 개수의 제곱에 비례할 수 있다.
일반적으로, 딥 러닝 네트워크의 가중치 파라미터 셋 θ에 대한 경사의 조절을 위해 경사 하강(gradient descent) 방식이 이용된다.
경사 하강 방식에서, 에너지 함수 J(θ)는 딥 러닝 네트워크의 예측 값 및 실제의 결과 값 간의 차이를 정의할 수 있다. 경사 하강 방식은 에너지 함수 J(θ)를 최소화 하기 위해 기울기
Figure PCTKR2018015845-appb-I000002
J(θ) 를 이용하여 θ를 학습하는 과정일 수 있다.
예를 들면, 경사 하강 방식에서의 θ의 학습은 아래의 수식 2와 같이 표현될 수 있다.
[수식 2]
Figure PCTKR2018015845-appb-I000003
θt는 t 번째의 학습에서의 파라미터 셋일 수 있다. 충분히 큰 t에서 θt가 최적 파라미터 셋 θopt로 수렴한다는 것이 기대될 수 있다. μ는 스탭 크기일 수 있다.
딥 러닝 모델의 파라미터 셋 내의 파라미터들의 개수는 수 십만을 상회할 수도 있다. 또한, 딥 러닝 모델의 학습을 위해 방대한 양의 입력 데이터가 사용될 수 있으며, 이러한 입력 데이터를 사용하는 학습을 위해 요구되는 반복(iteration)의 횟수 또한 수천 번을 상회할 수 있다. 이러한 파라미터들의 개수, 입력 데이터의 양 및 반복의 횟수에 따라서, 딥 러닝 모델의 학습을 위해서는 방대한 횟수의 수식 2의 연산들이 요구될 수 있다.
대규모의 딥 러닝 모델의 분산 학습에 이용되는 현재까지의 학습 모델 및 파라미터 공유 방식에 따르면, 분산 처리 시스템 내의 분산 컴퓨터들의 개수가 증가하고, 경사 하강 알고리즘에 따라 커널 파라미터의 학습이 반복됨에 따라, 계산 노드들 간에서 공유되어야 하는 파라미터들의 개수가 급격히 늘어날 수 있다.
이 때, 네트워크의 한정된 대역 폭(band width) 내에서 방대한 양의 파라미터가 공유됨에 따라 발생하는 네트워크의 지연 문제는 전체의 학습 과정을 느리게 할 수 있다. 또한, 이러한 방대한 양의 파라미터의 공유를 위해 요구되는 계산 노드의 저장 공간 또한 증가할 수 있다.
실시예에서는, 공유되는 파라미터를 압축하고, 압축된 파라미터를 전송하는 효율적인 분산 학습 알고리즘이 제공될 수 있다.
실시예에서는, 파라미터를 전송하는 분산 컴퓨터(말하자면, 부호화 장치)에서는 학습된 파라미터에 대한 잔차에 대해서만 예측 부호화를 수행하여 부호화된 잔차를 생성할 수 있다. 파라미터를 수신하는 분산 컴퓨터(말하자면, 복호화 장치)에서는 전달된 부호화된 잔차 및 이전의 파라미터를 이용하여 파라미터를 재구축할 수 있다.
실시예는, 중앙의 파라미터 서버가 하나의 분산 컴퓨터에서 학습된 파라미터를 다수의 분산 컴퓨터들로 전송하는 경우에도 적용될 수 있다.
도 6은 일 실시예에 따른 갱신된 파라미터에 대한 정보를 제공하는 방법의 흐름도이다.
실시예에서, 전자 장치(300)는 부호화 장치(100)의 기능을 수행할 수 있다.
분산 처리 시스템은 신경망의 학습을 분산하여 수행하는 복수의 전자 장치들을 포함할 수 있다. 아래에서, 전자 장치(300)는 복수의 전자 장치들 중 하나일 수 있다. 말하자면, 아래의 실시예는 분산 처리 시스템의 복수의 전자 장치들 중 하나의 전자 장치에서 수행되는 동작을 나타낼 수 있다.
단계(610)에서, 분산 처리 시스템 내의 전자 장치(300)의 처리부(310)는 신경망의 학습을 수행할 수 있다.
신경망은 딥 러닝을 위한 신경망일 수 있다.
학습의 수행에 의해 신경망의 파라미터가 갱신될 수 있다.
단계(620)에서, 전자 장치(300)의 처리부(310)는 신경망의 파라미터의 갱신을 위한 정보를 생성할 수 있다.
신경망의 파라미터의 갱신을 위한 정보는 전자 장치(300)에서 이루어진 갱신된 파라미터를 다른 전자 장치들과 공유하기 위한 정보일 수 있다.
처리부(310)는 학습의 수행에 의해 갱신된 파라미터의 상태 및 상기의 학습의 이전의 파라미터의 상태에 기반하여 파라미터의 갱신을 위한 정보를 생성할 수 있다.
여기에서, 파라미터의 상태는 파라미터의 값을 의미할 수 있다. 말하자면, 처리부(310)는 학습의 수행에 의해 갱신된 파라미터의 값 및 상기의 학습의 이전의 파라미터의 값에 기반하여 파라미터의 갱신을 위한 정보를 생성할 수 있다.
파라미터의 갱신을 위한 정보는 파라미터의 잔차(residual)를 포함할 수 있다. 파라미터의 잔차는 학습의 수행에 의해 갱신된 파라미터의 값 및 상기의 학습의 이전의 파라미터의 값 간의 차이일 수 있다. 처리부(310)는 파라미터의 잔차에 기반하여 파라미터의 갱신을 위한 정보를 생성할 수 있다.
단계(630)에서, 전자 장치(300)의 통신부(320)는 파라미터의 갱신을 위한 정보를 분산 처리 시스템 내의 다른 장치로 전송할 수 있다.
전자 장치(300)의 통신부(320)는 비트스트림을 분산 처리 시스템 내의 다른 장치로 전송할 수 있다. 비트스트림은 파라미터의 갱신을 위한 정보를 포함할 수 있다.
다른 장치는 분산 처리 시스템 내에서 신경망의 학습을 수행하는 하나 이상의 다른 전자 장치들일 수 있다.
다른 장치는 분산 처리 시스템 내의 파라미터 서버일 수 있다. 파라미터 서버는 파라미터의 갱신을 위한 정보를 분산 처리 시스템 내의 신경망의 학습을 수행하는 하나 이상의 다른 전자 장치들로 전달할 수 있다.
도 7은 일 실시예에 따른 갱신된 파라미터에 대한 정보를 사용하여 파라미터의 갱신을 수행하는 방법의 흐름도이다.
분산 처리 시스템은 신경망의 학습을 분산하여 수행하는 복수의 전자 장치들을 포함할 수 있다. 아래에서, 전자 장치(300)는 복수의 전자 장치들 중 하나일 수 있다. 말하자면, 아래의 실시예는 분산 처리 시스템의 복수의 전자 장치들 중 하나의 전자 장치에서 수행되는 동작을 나타낼 수 있다.
실시예에서, 전자 장치(300)는 복호화 장치(200)의 기능을 수행할 수 있다.
단계(710)에서, 전자 장치(300)의 통신부(320)는 분산 처리 시스템 내의 다른 장치로부터 파라미터의 갱신을 위한 정보를 수신할 수 있다.
전자 장치(300)의 통신부(320)는 분산 처리 시스템 내의 다른 장치로부터 비트스트림을 수신할 수 있다. 비트스트림은 파라미터의 갱신을 위한 정보를 포함할 수 있다.
다른 장치는 분산 처리 시스템 내에서 신경망의 학습을 수행하는 다른 전자 장치일 수 있다.
다른 장치는 분산 처리 시스템 내의 파라미터 서버일 수 있다. 파라미터 서버는 분산 처리 시스템 내의 신경망의 학습을 수행하는 다른 전자 장치로부터 파라미터의 갱신을 위한 정보를 수신할 수 있다. 파라미터 서버는 파라미터의 갱신을 위한 정보를 전자 장치(300)로 전송할 수 있다.
단계(720)에서, 처리부(310)는 파라미터의 갱신을 위한 정보를 사용하여 파라미터의 갱신을 수행할 수 있다.
파라미터의 갱신을 위한 정보는, 다른 전자 장치에서 이루어진 학습의 수행에 의해 파라미터가 갱신되면, 상기의 파라미터의 갱신을 전자 장치(300)에도 공유하기 위한 정보일 수 있다.
파라미터의 갱신을 위한 정보는 파라미터의 잔차(residual)를 포함할 수 있다. 파라미터의 잔차는 다른 전자 장치에서 이루어진 학습의 수행에 의해 갱신된 파라미터의 값 및 상기의 학습의 이전의 파라미터의 값 간의 차이일 수 있다.
처리부(310)는 파라미터의 갱신을 위한 정보에 기반하여 파라미터의 잔차를 생성할 수 있다. 처리부(310)는 파라미터의 잔차를 파라미터에 더함으로써 파라미터를 갱신할 수 있다.
도 8은 일 예에 따른 딥 러닝의 파라미터 셋의 갱신을 나타낸다.
도 8에서는, 기존의 시간 t에서의 커널 파라미터 셋 및 커널 파라미터 잔차 신호 셋을 서로 합함으로써 시간 t+1에서의 커널 파라미터 셋이 생성되는 과정이 도시되었다. 말하자면, 커널 파라미터 잔차 신호 셋을 사용하여 특정된 시점에서의 커널 파라미터 셋이 다음 시점에서의 커널 파라미터 셋으로 갱신될 수 있다. 여기에서 커널 파라미터 잔차 신호 셋은 비트스트림을 통해 전달된 다른 전자 장치로부터의 정보일 수 있으며, 다른 전자 장치에서의 신경망의 학습을 통해 생성된 정보일 수 있다.
도 6을 참조하여 전술된 실시예 및 도 7을 참조하여 전술된 실시예에서 갱신의 대상인 파라미터는 복수일 수 있다.
복수의 파라미터들은 파라미터 셋을 구성할 수 있다. 도 7 및 도 8을 참조하여 설명된 파라미터의 갱신을 위한 정보는 복수의 파라미터들의 잔차 신호 셋일 수 있다. 또는, 파라미터의 갱신을 위한 정보는 복수의 파라미터들의 잔차 신호 셋을 포함할 수 있다. 또는, 파라미터의 갱신을 위한 정보는 복수의 파라미터들의 잔차 신호 셋에 기반하여 생성될 수 있고, 반대로 파라미터의 갱신을 위한 정보에 기반하여 복수의 파라미터들의 잔차 신호 셋이 생성될 수 있다.
여기에서, 복수의 파라미터들은 딥 러닝 모델의 하나의 계층을 구성하는 딥 러닝 파라미터들일 수 있다.
전자 장치(300)는 비트스트림에 대한 복호화를 수행함으로써 복수의 파라미터들의 잔차 신호 셋을 획득할 수 있다.
잔차 신호는 수식 2에서의 Δθt에 해당할 수 있다.
θt+1는 학습이 반복(iteration)될 때마다 θt로부터 갱신될 수 있다.
복수의 파라미터들의 잔차들은 압축될 수 있다. 말하자면, 파라미터의 갱신을 위한 정보는 복수의 파라미터들의 압축된 잔차들을 포함할 수 있다. θt+1의 갱신의 크기는 크지 않기 때문에 압축된 θt+1 보다는 압축된 θt를 전송함에 따라 전송되는 데이터의 크기가 감소될 수 있다.
예를 들면, 단계(620)에서, 전자 장치(300)의 처리부(310)는 복수의 파라미터들의 잔차들에 부호화를 수행함으로써 복수의 파라미터들의 압축된 잔차들을 생성할 수 있고, 복수의 파라미터들의 압축된 잔차들을 포함하는 파라미터의 갱신을 위한 정보를 생성할 수 있다.
전자 장치(300)의 처리부(310)는 사전에 가지고 있는 θt에 복호화된 Δθt을 더함으로써 θt+1를 재구축할 수 있다.
예를 들면, 단계(720)에서, 처리부(310)는 파라미터의 갱신을 위한 정보에 포함된 복수의 파라미터들의 압축된 잔차들에 대한 복호화를 수행함으로써 복수의 파라미터들의 잔차들을 획득할 수 있고, 복수의 파라미터들의 잔차들을 사용하여 복수의 파라미터들의 갱신을 수행할 수 있다.
복수의 파라미터들의 잔차들에 대한 부호화 및 복호화에 있어서, 전술된 영상의 블록에 대한 부호화 방법 및 복호화 방법이 사용될 수 있다. 말하자면, 복수의 파라미터들은 대상 블록으로 간주될 수 있다. 복수의 파라미터들의 값들은 대상 블록의 샘플들로 간주될 수 있고, 복수의 파라미터들의 잔차들은 대상 블록에 대한 잔차 블록으로 간주될 수 있다.
CNN의 컨벌루션 레이어에서는 NxN 커널의 블록의 파라미터들이 학습될 수 있다. 학습된 커널 파라미터들에 대한 필터링이 적용될 수 있으며, 필터링이 적용된 커널 파라미터들은 다음의 레이어의 특징 맵(feature map)을 생성할 수 있다.
일반적으로, CNN에서는 하나의 커널 파라미터에 대한 학습이 수행되지는 않으며, 각 계층에서 다수의 커널 파라미터들에 대한 학습이 이루어질 수 있다. 이러한 다수의 커널 파라미터들에 대한 학습을 통해 파라미터 셋이 구성될 수 있다.
도 8에서는, CNN의 하나의 레이어를 구성하는 24 개의 커널 파라미터들이 24 개의 블록들로서 표시되었다. 말하자면, 블록은 커널 파라미터에 대응할 수 있고, 커널 파라미터는 블록에 대응할 수 있다. 블록의 크기는 NxN일 수 있다. 블록들의 크기는 동일할 수 있다. 24 개의 블록들은 영상을 구성할 수 있다. 실시예의 과정들을 통해, 충분한 반복들의 이후에, 커널 파라미터 셋은 보다 적은 노이즈를 갖는 형태로 수렴될 수 있다.
전술된 것과 같이, 파라미터 셋은 복수의 파라미터들을 포함할 수 있고, 복수의 파라미터들의 각 파라미터는 블록에 대응할 수 있다. 말하자면, 파라미터 셋은 복수의 블록들을 포함할 수 있다. 또한, 복수의 블록들의 크기들은 동일할 수 있다.
파라미터 셋은 복수의 블록들을 포함하는 대상 영상으로 간주될 수 있다. 말하자면, 블록은 복수일 수 있고, 복수의 블록들은 대상 영상을 구성할 수 있다. 이전의 실시예들에서 전술된 대상 영상에 대한 처리 방법이 본 실시예에도 적용될 수 있다. 여기에서, 처리 방법은 부호화 및 복호화를 포함할 수 있다.
예를 들면, 단계(720)에서, 처리부(310)는 파라미터의 갱신을 위한 정보에 포함된 복수의 파라미터들의 압축된 잔차들에 대한 복호화를 수행함으로써 복수의 파라미터들의 잔차들을 획득할 수 있고, 복수의 파라미터들의 잔차들을 사용하여 복수의 파라미터들의 갱신을 수행할 수 있다. 이 때, 복수의 블록들은 대상 영상을 구성할 수 있고, 복호화에 있어서 전술된 실시예들에서의 대상 영상에 대한 복호화 방법이 사용될 수 있다.
대상 영상 내의 블록은 이전의 실시예들에서 전술된 대상 블록으로 간주될 수 있다. 이전의 실시예들에서 전술된 대상 블록에 대한 처리 방법이 본 실시예의 블록에도 적용될 수 있다. 여기에서, 처리 방법은 부호화 및 복호화를 포함할 수 있다.
여기에서, 전자 장치(300)는 파라미터의 부호화에 있어서, 블록 또는 신호에 대한 변환, 양자화, 스캐닝 및 엔트로피 부호화 중 하나 이상을 사용할 수 있다. 또한, 전자 장치(300)는 파라미터의 복호화에 있어서, 블록 또는 신호에 대한 엔트로피 복호화, 스캐닝, 역양자화 및 역변환 중 하나 이상을 사용할 수 있다. 이러한 부호화 및 복호화에 있어서 적어도 일부의 과정은 변경 및/또는 생략될 수 있다.
도 9는 일 예에 따른 양자화, 레스터 스캔 및 엔트로피 코딩의 과정을 나타낸다.
블록은 특정된 크기를 갖는 필터의 경사들일 수 있다.
도 9에서, 4-by-4(또는, 4x4) 필터의 경사(gradient)들에 대한 양자화의 결과인 양자화된 경사들이 도시되었고, 상기의 양자화된 경사들에 대한 역양자화의 결과인 역양자화된 경사들이 도시되었다. 여기에서, 필터는 커널을 의미할 수 있다. 경사는 잔차 신호, 즉 Δθt을 의미할 수 있다.
양자화된 경사는 양자화 인덱스로도 명명될 수 있다.
또한, 도 9에서는, 상기의 양자화된 경사들에 대하여, 2차원(Dimension; D)로부터 1D로의 변환을 위한 스캐닝(즉, 래스터 스캔(raster scan)이 적용되었고, 스캐닝에 의해 1D로 스캐닝된 양자화된 경사들이 생성되었다. 1D로 스캐닝된 양자화된 경사들에 대해 엔트로피 코딩이 적용됨으로써 엔트로피 코딩된 양자화된 경사들이 생성될 수 있다.
예를 들면, 파라미터의 갱신을 위한 정보는 엔트로피 코딩된 양자화된 경사를 포함할 수 있다.
예를 들면, 단계(620)에서, 전자 장치(300)의 처리부(310)는 필터의 경사들에 대한 양자화를 수행함으로써 양자화된 경사들을 생생할 수 있다. 처리부(310)는 양자화된 경사들에 대한 2D로부터 1D로의 스캐닝을 수행함으로써 스캐닝된 정보를 생성할 수 있다. 스캐닝된 정보는 스캐닝된 양자화된 경사들을 포함할 수 있다. 처리부(310)는 스캐닝된 정보에 대한 엔트로피 부호화를 수행함으로써 파라미터의 갱신을 위한 정보를 생성할 수 있다. 파라미터의 갱신을 위한 정보는 엔트로피 부호화된 양자화된 경사들을 나타낼 수 있다.
예를 들면, 단계(720)에서, 전자 장치(300)의 처리부(310)는 비트스트림으로부터 파라미터의 갱신을 위한 정보를 획득할 수 있다. 처리부(310)는 파라미터의 갱신을 위한 정보에 대한 엔트로피 복호화를 수행함으로써 스캐닝된 정보를 생성할 수 있다. 말하자면, 처리부(310)는 파라미터의 갱신을 위한 정보에 기반하여 스캐닝된 정보를 생성할 수 있다. 스캐닝된 정보는 스캐닝된 양자화된 경사들을 포함할 수 있다. 처리부(310)는 스캐닝된 정보에 대한 1D로부터 2D로의 스캐닝을 수행함으로써 양자화된 경사들을 생성할 수 있다. 처리부(310)는 양자화된 경사들에 대한 역양자화를 수행함으로써 재구축된 경사들을 생성할 수 있다. 재구축된 경사들은 복수의 파라미터들의 잔차들일 수 있다.
도 10은 일 예에 따른 제로 서브 블록 및 제로 레이어를 사용하는 엔트로피 부호화를 나타낸다.
신경망의 학습의 반복이 수행됨에 따라, 수식 2가 나타내는 학습의 결과가 수렴할 수 있다. 수렴에 의해 Δθt가 충분히 작아짐에 따라, 현재의 반복에서 블록 내의 양자화 인덱스들(즉, 양자화된 경사들)의 0의 분포가 변할 수 있다. 예를 들면, 신경망의 학습의 반복이 수행됨에 따라 블록 내에서 0의 값을 갖는 양자화된 경사들의 개수가 증가할 수 있다.
이러한 증가에 따라, 블록 내의 특정된 영역의 양자화 인덱스들의 값들이 모두 0이 될 수 있다. 또는, 블록 내의 특정된 영역의 양자화 인덱스들의 값들이 공유될 필요가 없을 수 있다. 특정된 영역의 양자화 인덱스들의 값들이 모두 0이거나 특정된 영역의 양자화 인덱스들의 값들이 공유될 필요가 없으면, 특정된 영역은 0의 값을 갖는 제로 서브 블록으로 간주될 수 있다. 스캐닝된 정보는 특정된 영역에 대하여 제로 서브 블록을 포함할 수 있다. 도 10에서, 스캐닝된 정보 내의 제로 서브 블록은 "(제로 서브 블록)"으로 도시되었다.
예를 들면, 단계(620)에서, 전자 장치(300)의 처리부(310)는 특정된 영역의 서브 블록 내의 양자화된 경사들의 값들이 모두 0이면, 상기의 0의 값들을 갖는 양자화된 경사들 대신 제로 서브 블록을 생성할 수 있다. 제로 서브 블록은 특정된 서브 블록의 0 의 값들을 갖는 양자화된 경사들 대신 스캐닝된 정보 내에 포함될 수 있다. 여기에서, 제로 서브 블록은 블록 내의 특정된 영역을 나타낼 수 있고, 상기의 특정된 영역 내의 양자화된 경사들의 값들이 모두 0임을 나타낼 수 있다.
예를 들면, 단계(720)에서, 전자 장치(300)의 처리부(310)는 스캐닝된 정보 내에 제로 서브 블록이 존재할 경우, 제로 서브 블록이 나타내는 특정된 영역 내의 양자화된 경사들을 0의 값으로 채울 수 있다.
또한, 이러한 증가에 따라, 블록의 양자화 인덱스들의 값들이 모두 0이 될 수 있다. 또는, 블록의 양자화 인덱스들의 값들이 공유될 필요가 없을 수 있다. 블록의 양자화 인덱스들의 값들이 모두 0이거나, 블록의 양자화 인덱스들의 값들이 공유될 필요가 없으면, 블록은 0의 값을 갖는 제로 블록으로 간주될 수 있다. 이러한 경우, 블록에 대한 스캐닝된 양자화된 경사들 대신 제로 블록이 사용될 수 있다.
예를 들면, 단계(620)에서, 전자 장치(300)의 처리부(310)는 블록의 양자화된 경사들의 값들이 모두 0이거나, 블록의 양자화된 경사들의 값들이 공유될 필요가 없으면, 0의 값들을 갖는 스캐닝된 양자화된 경사들 대신 제로 블록을 생성할 수 있다. 스캐닝된 정보는 제로 블록을 포함할 수 있다. 제로 블록은 블록 내의 양자화된 경사들의 값들이 모두 0임을 나타낼 수 있다.
예를 들면, 단계(720)에서, 전자 장치(300)의 처리부(310)는 블록에 대한 스캐닝된 정보가 제로 블록일 경우, 블록 내의 모든 양자화된 경사들을 0의 값으로 채울 수 있다.
또한, 이러한 증가에 따라, 레이어의 파라미터들의 값들이 모두 0이 될 수 있다. 또는, 레이어의 파라미터들의 값들이 공유될 필요가 없을 수 있다. 특정된 파라미터들의 값들이 모두 0이거나, 레이어의 파라미터들의 값들이 공유될 필요가 없으면, 레이어에 대한 양자화된 경사들 대신 제로 레이어가 전송될 수 있다. 제로 레이어는 레이어의 블록들이 모두 제로 블록임을 나타낼 수 있다. 말하자면, 제로 레이어는 레이어의 모든 블록들의 모든 양자화된 경사들의 값들이 0임을 나타낼 수 있다. 도 10에서, 스캐닝된 정보 내의 제로 레이어는 "(제로 레이어)"로 도시되었다.
예를 들면, 단계(620)에서, 전자 장치(300)의 처리부(310)는 레이어의 파라미터의 값들이 모두 0이거나, 레이어의 파라미터의 값들이 공유될 필요가 없으면, 레이어의 블록들의 스캐닝된 양자화된 경사들 대신 제로 레이어를 생성할 수 있다. 스캐닝된 정보는 제로 레이어를 포함할 수 있다. 제로 레이어는 레이어의 블록들의 양자화된 경사들의 값들이 모두 0임을 나타낼 수 있다.
예를 들면, 단계(720)에서, 전자 장치(300)의 처리부(310)는 레이어에 대한 스캐닝된 정보가 제로 레이어인 경우, 레이어의 모든 블록들의 모든 양자화된 경사들을 0의 값으로 채울 수 있다.
전술된 것과 같은 특정된 정보의 공유가 필요한지 여부는 계산 노드들 간의 네트워크의 성능에 기반하여 판단될 수 있다.
복호화 장치(200)의 기능을 수행하는 전자 장치(300)는 파라미터에 대한 정보의 전송에 대한 네트워크의 성능을 예측할 수 있고, 예측된 성능에 기반하여 파라미터의 공유를 위한 전송의 여부를 결정할 수 있다. 여기에서, 파라미터는 서브 블록의 양자화된 경사, 블록의 양자화된 경사 및/또는 레이어의 양자화된 경사를 의미할 수 있다.
예를 들면, 네트워크가 영상의 분류를 위해 사용되는 경우, 전자 장치(300)는 아래의 수식 3의 비용 함수 J가 최소화되도록 파라미터의 전송 여부를 결정할 수 있다.
[수식 3]
J = C + λB
C는 네트워크의 분류 성능일 수 있다. B는 파라미터의 전송을 위해 요구되는 비트의 개수일 수 있다. λ는 상수일 수 있다.
전자 장치(300)의 처리부(310)는 비용 함수 J가 최소가 되도록 파라미터의 전송 여부를 결정할 수 있다. 또는, 처리부(310)는 비용 함수가 J가 최소가 되도록 스캐닝된 정보 내에 제로 서브 블록, 제로 블록 또는 제로 레이어를 포함시킬 수 있다.
도 11은 일 예에 따른 모델 병렬 처리 방식에서의 파라미터의 공유를 나타낸다.
모델 병렬 처리 방식에서는 하나의 계산 노드가 대용량의 딥 러닝 모델을 처리하지 못할 수 있다. 모델 병렬 처리 방식에서는, 전자 장치(300)는 딥 러닝 모델의 일 부분에 대하여 연산된 파라미터를 반복(iteration)마다 다른 전자 장치와 공유해야 할 수 있다.
신경망의 학습의 각 반복마다, 전자 장치(300)는 딥 러닝 모델의 일 부분에 대한 학습을 통해 상기의 일 부분에 대한 파라미터를 갱신할 수 있고, 갱신된 파라미터를 다른 전자 장치와 공유할 수 있다. 공유를 위해, 전자 장치(300)는 전술된 파라미터의 갱신을 위한 정보를 다른 장치들로 전송할 수 있다.
또한, 다른 전자 장치에서도 딥 러닝 모델의 다른 부분에 대한 학습을 통해 상기의 다른 부분에 대한 다른 파라미터를 갱신할 수 있고, 갱신된 다른 파라미터를 전자 장치(300)와 공유할 수 있다. 공유를 위해, 다른 전자 장치는 다른 파라미터의 갱신을 위한 정보를 전자 장치(300)로 전송할 수 있다.
따라서, 신경망의 학습의 각 반복마다, 복수의 전자 장치들에서 분할되어 생성된 갱신된 파라미터들이 복수의 전자 장치들 간에 공유될 수 있다.
도 11에서는, 3 개의 계산 노드들(즉, 3 개의 전자 장치들)이 딥 러닝 모델의 3 개의 레이어들에 대한 학습을 분할하여 수행하는 것이 도시되었다. 즉, 계산 노드 1, 계산 노드 2 및 계산 노드 3이 레이어 1에 대한 학습, 레이어 2에 대한 학습 및 레이어 3에 대한 학습을 각각 담당할 수 있으며, 시간이 경과함에 따라 레이어에 대한 학습을 수행하면서, 레이어의 파라미터를 갱신할 수 있다.
전자 장치(300)의 처리부(310)는 딥 러닝 모델의 복수의 레이어들 중 하나의 레이어에 대한 학습을 수행할 수 있다. 처리부(310)는 하나의 레이어에 대한 파라미터를 갱신할 수 있다. 처리부(310)는 학습에 의해 갱신된 파라미터의 값 및 상기의 학습의 이전의 파라미터의 값에 기반하여 레이어의 파라미터의 갱신을 위한 정보를 생성할 수 있다. 레이어의 파라미터의 갱신을 위한 정보는 다른 레이어에 대한 학습을 수행하는 다른 전자 장치들로 전송될 수 있다.
이러한 파라미터의 갱신을 위한 정보의 전송은 학습의 각 반복마다 수행될 수 있다.
전술된 것과 같이, 파라미터의 갱신을 위한 정보는 파라미터의 잔차를 포함하거나, 상기의 잔차를 나타낼 수 있다. 파라미터의 잔차는 현재의 반복에서의 파라미터의 값 및 이전의 반복에서의 파라미터의 값 간의 차이일 수 있다. 또는, 파라미터의 갱신을 위한 정보는 커널 필터의 잔차들을 포함할 수 있다.
도 12는 일 예에 따른 데이터 병렬 처리 방식에서의 파라미터의 공유를 나타낸다.
데이터 병렬 처리 방식에서는 학습을 위해 사용되는 입력 데이터가 분할(partition)될 수 있다. 계산 노드는 분할된 입력 데이터를 사용하여 딥 러닝 모델의 학습을 수행할 수 있다.
말하자면, 복수의 전자 장치(300)들은 입력 데이터의 분할에 의해 생성된 분할된 입력 데이터를 각각 사용하여 딥 러닝 모델의 학습을 수행할 수 있다.
스타 토폴로지 공유 방식이 사용될 때, 전자 장치(300)는 파라미터의 갱신을 위한 정보를 파라미터 서버로 전송할 수 있다. 파라미터 서버는 전송된 파라미터의 갱신을 위한 정보를 저장함으로써 전자 장치들에 의해 이루어진 학습을 기록할 수 있다. 파라미터 서버는 수신된 파라미터의 갱신을 위한 정보를 다른 전자 장치들로 전송할 수 있다. 다른 전자 장치는 수신된 파라미터의 갱신을 위한 정보를 사용하여 파라미터를 갱신할 수 있다. 이러한 전송 및 갱신을 통해 학습이 계속적으로 이루어질 수 있다.
전자 장치(300)는 갱신된 파라미터를 파라미터 공유 서버로 전송할 수도 있다. 파라미터 공유 서버는 갱신된 파라미터 및 저장된 파라미터를 사용하여 파라미터의 잔차만을 다른 전자 장치로 전송할 수 있다. 여기에서, 파라미터의 잔차는 파라미터 공유 서버 내에 저장된 파라미터의 값 및 전자 장치(300)로부터 전송된 갱신된 파라미터의 값 간의 차이일 수 있다.
상술한 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체는 본 발명에 따른 실시예들에서 사용되는 정보를 포함할 수 있다. 예를 들면, 컴퓨터 판독 가능한 기록 매체는 비트스트림을 포함할 수 있고, 비트스트림은 본 발명에 따른 실시예들에서 설명된 정보를 포함할 수 있다.
컴퓨터 판독 가능한 기록 매체는 비-일시적 컴퓨터 판독 가능한 매체(non-transitory computer-readable medium)를 포함할 수 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.

Claims (20)

  1. 분산 처리 시스템 내의 전자 장치에 의해 수행되는,
    신경망의 파라미터의 갱신을 위한 정보를 생성하는 단계; 및
    상기 파라미터의 갱신을 위한 정보를 전송하는 단계
    를 포함하고,
    상기 파라미터의 갱신을 위한 정보는,
    학습의 수행에 의해 갱신된 상기 파라미터의 상태 및 상기 학습의 이전의 상기 파라미터의 상태에 기반하여 생성되는, 갱신된 파라미터에 대한 정보를 제공하는 방법.
  2. 제1항에 있어서,
    상가 파라미터의 갱신을 위한 정보는 상기 파라미터의 잔차에 기반하여 생성되고,
    상기 파라미터의 잔차는 상기 학습의 수행에 의해 갱신된 상기 파라미터의 값 및 상기 학습의 이전의 상기 파라미터의 값 간의 차이인, 갱신된 파라미터에 대한 정보를 제공하는 방법.
  3. 제1항에 있어서,
    상기 파라미터의 갱신을 위한 정보는 상기 분산 처리 시스템 내에서 상기 신경망의 학습을 수행하는 하나 이상의 다른 전자 장치로 전송되는, 갱신된 파라미터에 대한 정보를 제공하는 방법.
  4. 제1항에 있어서,
    상기 파라미터의 갱신을 위한 정보는 상기 분산 처리 시스템 내의 파라미터 서버로 전송되고,
    상기 파라미터 서버는 상기 파라미터의 갱신을 위한 정보를 상기 분산 처리 시스템 내에서 상기 신경망의 학습을 수행하는 하나 이상의 전자 장치들로 전달하는, 갱신된 파라미터에 대한 정보를 제공하는 방법.
  5. 제1항에 있어서,
    상기 전자 장치는 딥 러닝 모델의 복수의 레이어들 중 하나의 레이어에 대한 학습을 수행하는, 갱신된 파라미터에 대한 정보를 제공하는 방법.
  6. 분산 처리 시스템 내의 전자 장치에 의해 수행되는,
    상기 분산 처리 시스템 내의 다른 장치로부터 파라미터의 갱신을 위한 정보를 수신하는 단계; 및
    상기 파라미터의 갱신을 위한 정보를 사용하여 상기 파라미터의 갱신을 수행하는 단계
    를 포함하고,
    상기 파라미터의 갱신을 위한 정보에 기반하여 파라미터의 잔차가 생성되고,
    상기 파라미터의 잔차를 상기 파라미터에 더함으로써 상기 파라미터가 갱신되는, 파라미터 갱신 방법.
  7. 제6항에 있어서,
    상기 파라미터는 복수인, 파라미터 갱신 방법.
  8. 제7항에 있어서,
    상기 복수의 파라미터들은 딥 러닝 모델의 하나의 계층을 구성하는 딥 러닝 파라미터들인, 파라미터 갱신 방법.
  9. 제7항에 있어서,
    상기 파라미터의 갱신을 위한 정보는 상기 복수의 파라미터들의 압축된 잔차들을 포함하는, 파라미터 갱신 방법.
  10. 제7항에 있어서,
    파라미터의 갱신을 위한 정보에 포함된 상기 복수의 파라미터들의 압축된 잔차들에 대한 복호화를 수행함으로써 상기 복수의 파라미터들의 잔차들이 획득되고, 상기 복수의 파라미터들의 잔차들을 사용하여 상기 복수의 파라미터들의 갱신이 수행되는, 파라미터 갱신 방법.
  11. 제10항에 있어서,
    상기 복호화에 있어서, 영상의 블록에 대한 복호화 방법이 사용되는, 파라미터 갱신 방법.
  12. 제11항에 있어서,
    상기 복수의 파라미터들의 각 파라미터는 상기 블록에 대응하는, 파라미터 생성 방법.
  13. 제11항에 있어서,
    상기 블록은 복수이고,
    상기 복수의 블록들은 대상 영상을 구성하고,
    상기 복호화에 있어서, 대상 영상에 대한 복호화 방법이 사용되는, 파라미터 갱신 방법.
  14. 제11항에 있어서,
    상기 복호화를 위해 상기 블록에 대한 엔트로피 복호화, 스캐닝, 역양자화 및 역변환 중 하나 이상이 사용되는, 파라미터 갱신 방법.
  15. 제7항에 있어서,
    상기 파라미터의 갱신을 위한 정보에 기반하여 스캐닝된 정보가 생성되고,
    상기 스캐닝된 정보는 스캐닝된 양자화된 경사들을 포함하는, 파라미터 갱신 방법.
  16. 제15항에 있어서,
    상기 스캐닝된 정보에 대한 1차원으로부터 2차원으로의 스캐닝을 수행함으로써 양자화된 경사들이 생성되고,
    상기 양자화된 경사들에 대한 역양자화를 수행함으로써 재구축된 경사들이 생성되고,
    상기 재구축된 경사들은 상기 복수의 파라미터들의 잔차들인, 파라미터 갱신 방법.
  17. 제15항에 있어서,
    상기 스캐닝된 정보는 제로 서브 블록을 포함하고,
    상기 제로 서브 블록은 블록 내의 특정된 영역을 나타내고, 상기 특정된 영역 내의 양자화된 경사들의 값들이 모두 0임을 나타내는, 파라미터 갱신 방법.
  18. 제15항에 있어서,
    상기 스캐닝된 정보는 제로 블록을 포함하고,
    상기 제로 블록은 블록 내의 양자화된 경사들의 값들이 모두 0임을 나타내는, 파라미터 갱신 방법.
  19. 제15항에 있어서,
    상기 스캐닝된 정보는 제로 레이어를 포함하고,
    상기 제로 레이어는 레이어의 모든 블록들의 모든 양자화된 경사들의 값들이 0임을 나타내는, 파라미터 갱신 방법.
  20. 분산 처리 시스템 내의 전자 장치에 있어서,
    상기 분산 처리 시스템 내의 다른 장치로부터 파라미터의 갱신을 위한 정보를 수신하는 통신부; 및
    상기 파라미터의 갱신을 위한 정보를 사용하여 상기 파라미터의 갱신을 수행하는 처리부
    를 포함하고,
    상기 처리부는 파라미터의 갱신을 위한 정보에 기반하여 파라미터의 잔차를 생성하고, 상기 파라미터의 잔차를 상기 파라미터에 더함으로써 상기 파라미터의 갱신을 수행하는, 전자 장치.
PCT/KR2018/015845 2017-12-15 2018-12-13 분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치 WO2019117646A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/772,557 US11663476B2 (en) 2017-12-15 2018-12-13 Method and device for providing compression and transmission of training parameters in distributed processing environment
US18/306,075 US20230297833A1 (en) 2017-12-15 2023-04-24 Method and device for providing compression and transmission of training parameters in distributed processing environment

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2017-0172827 2017-12-15
KR20170172827 2017-12-15
KR10-2018-0160774 2018-12-13
KR1020180160774A KR102435595B1 (ko) 2017-12-15 2018-12-13 분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/772,557 A-371-Of-International US11663476B2 (en) 2017-12-15 2018-12-13 Method and device for providing compression and transmission of training parameters in distributed processing environment
US18/306,075 Continuation US20230297833A1 (en) 2017-12-15 2023-04-24 Method and device for providing compression and transmission of training parameters in distributed processing environment

Publications (1)

Publication Number Publication Date
WO2019117646A1 true WO2019117646A1 (ko) 2019-06-20

Family

ID=66820427

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/015845 WO2019117646A1 (ko) 2017-12-15 2018-12-13 분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치

Country Status (2)

Country Link
US (1) US20230297833A1 (ko)
WO (1) WO2019117646A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633798A (zh) * 2019-09-12 2019-12-31 北京金山数字娱乐科技有限公司 一种分布式训练中参数更新方法及装置
WO2022111403A1 (zh) * 2020-11-27 2022-06-02 华为技术有限公司 一种机器学习方法、装置和系统
WO2022266578A1 (en) * 2021-06-16 2022-12-22 Tencent America LLC Content-adaptive online training method and apparatus for deblocking in block- wise image compression

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220097513A (ko) * 2019-12-29 2022-07-07 엘지전자 주식회사 변환에 기반한 영상 코딩 방법 및 그 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090276472A1 (en) * 2008-05-05 2009-11-05 Subramanian Venkataraman Sankara Rama Data processing system and method
JP2010020444A (ja) * 2008-07-09 2010-01-28 Sony Corp 学習装置、学習方法、およびプログラム
US20150324690A1 (en) * 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
JP2016501398A (ja) * 2012-11-20 2016-01-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated 区分的線形ニューロンモデル化
KR20170061016A (ko) * 2015-11-25 2017-06-02 삼성전자주식회사 데이터 인식 모델 구축 장치 및 방법과 데이터 인식 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090276472A1 (en) * 2008-05-05 2009-11-05 Subramanian Venkataraman Sankara Rama Data processing system and method
JP2010020444A (ja) * 2008-07-09 2010-01-28 Sony Corp 学習装置、学習方法、およびプログラム
JP2016501398A (ja) * 2012-11-20 2016-01-18 クゥアルコム・インコーポレイテッドQualcomm Incorporated 区分的線形ニューロンモデル化
US20150324690A1 (en) * 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
KR20170061016A (ko) * 2015-11-25 2017-06-02 삼성전자주식회사 데이터 인식 모델 구축 장치 및 방법과 데이터 인식 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110633798A (zh) * 2019-09-12 2019-12-31 北京金山数字娱乐科技有限公司 一种分布式训练中参数更新方法及装置
WO2022111403A1 (zh) * 2020-11-27 2022-06-02 华为技术有限公司 一种机器学习方法、装置和系统
WO2022266578A1 (en) * 2021-06-16 2022-12-22 Tencent America LLC Content-adaptive online training method and apparatus for deblocking in block- wise image compression

Also Published As

Publication number Publication date
US20230297833A1 (en) 2023-09-21

Similar Documents

Publication Publication Date Title
WO2018097693A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019182385A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018066867A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018199675A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2017222237A1 (ko) 화면 내 예측 방법 및 장치
WO2018030773A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2018226015A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018026166A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018097692A2 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018016823A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018012886A1 (ko) 영상 부호화/복호화 방법 및 이를 위한 기록 매체
WO2019177354A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019172705A1 (ko) 샘플 필터링을 이용한 영상 부호화/복호화 방법 및 장치
WO2017222334A1 (ko) 변환 기반의 영상 부호화/복호화 방법 및 장치
WO2017204532A1 (ko) 영상 부호화/복호화 방법 및 이를 위한 기록 매체
WO2018097607A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2020005035A1 (ko) 처리율 향상을 위한 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2016195460A1 (ko) 화면 내 예측에 대한 부호화/복호화 방법 및 장치
WO2018124843A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019078629A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2018070742A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019039806A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019240493A1 (ko) 문맥 적응적 이진 산술 부호화 방법 및 장치
WO2018101700A1 (ko) 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
WO2019117646A1 (ko) 분산 처리 환경에서의 학습 파라미터의 압축 및 전송을 제공하는 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18888057

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18888057

Country of ref document: EP

Kind code of ref document: A1