WO2023022255A1 - Method and system for lightening deep learning model using pruning - Google Patents

Method and system for lightening deep learning model using pruning Download PDF

Info

Publication number
WO2023022255A1
WO2023022255A1 PCT/KR2021/011008 KR2021011008W WO2023022255A1 WO 2023022255 A1 WO2023022255 A1 WO 2023022255A1 KR 2021011008 W KR2021011008 W KR 2021011008W WO 2023022255 A1 WO2023022255 A1 WO 2023022255A1
Authority
WO
WIPO (PCT)
Prior art keywords
channel
deep learning
learning model
weight
mask
Prior art date
Application number
PCT/KR2021/011008
Other languages
French (fr)
Korean (ko)
Inventor
김태호
강신한
신은섭
Original Assignee
주식회사 노타
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 노타 filed Critical 주식회사 노타
Publication of WO2023022255A1 publication Critical patent/WO2023022255A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Definitions

  • the following description relates to a deep learning model lightweight method and system using pruning.
  • a representative method used to apply a deep learning model to an actual application is a deep learning model weight reduction technique.
  • Lightweighting of a deep learning model refers to functions, modules, and/or features that make a given deep learning model into a smaller deep learning model.
  • 'small' may mean reducing the number of weights/bias constituting the deep learning model, reducing capacity, or speeding up inference. At this time, it is very important not to degrade the performance while reducing the weight.
  • Local pruning receives parameters for how much weights in each layer should be pruned, and then , making decisions about which weights to prune at each layer. In the case of global pruning, it is also determined how many weights should be pruned for each layer, including local pruning.
  • Representative methods among global pruning techniques include techniques such as Growing, AutoSlim, and Nuclear Norm. These techniques are methodologies for determining the optimal number of channels in each layer of a deep learning model. Growing searches for the number of channels by gradually increasing the number of channels, based on when the channel in each layer is 1, After learning the entire model, it determines the optimal number of channels by reducing channels for each layer.
  • pruning is performed by calculating the nuclear norm of the singular value of the feature map for each layer and then deleting channels with values below a specific threshold. proceed
  • RAM Random Access Memory
  • FLOPS floating-point operations per second
  • the growing technique starts compressing the deep learning model with only one channel per layer, it takes a long time to learn to reach an optimal network.
  • the auto-slim technique learns the entire network for each layer, it also takes a long time to learn.
  • the Newtler norm there is a problem that the result is not sophisticated because pruning is performed based on the pre-learned weights.
  • a deep learning model lightweight method and system that can reduce the training time of the deep learning model by initializing pruning in consideration of the importance of channels for each layer of the deep learning model.
  • a model weight reduction method performed by a computer device including at least one processor comprising: determining, by the at least one processor, an importance of a channel for each layer of a deep learning model to be compressed; allocating, by the at least one processor, an initial value for each channel according to the importance of the channel; and initiating, by the at least one processor, compression of the deep learning model at a target compression ratio based on the assigned initial value.
  • the model weight reduction method is based on a value of the weight mask for an arbitrary channel of the deep learning model in a loss function configured using a weight mask based on the assigned initial value by the at least one processor.
  • the method may further include determining whether pruning is performed for the arbitrary channel.
  • the loss function is configured using cross-entropy loss for improving training accuracy of the deep learning model, the weight mask, and L1 regularization for the weight mask.
  • cross-entropy loss for improving training accuracy of the deep learning model, the weight mask, and L1 regularization for the weight mask.
  • the L1 normalization may be configured by multiplying an L1 norm for the weight mask and a hyperparameter for controlling an effect of the L1 norm on the loss function.
  • the step of determining whether to perform pruning on the random channel may include determining that the random channel is continuously used when the value of the weight mask is 1, and when the value of the weight mask is 0. It may be characterized in that the arbitrary channel is determined to be pruned.
  • the weight mask is composed of a sigmoid function having a product of a temperature parameter and a mask variable as an input parameter, and the temperature parameter has a relatively greater contribution to improving the performance of the deep learning model.
  • the temperature parameter has a relatively greater contribution to improving the performance of the deep learning model.
  • it may be characterized in that it is determined by multiplying the assigned initial value and the loss gradient according to the value of the mask variable.
  • the determining of the importance of the channel may include determining the importance of the channel for each layer of the deep learning model to be compressed using a global pruning technique.
  • the global pruning technique may include Layer-Adaptive Magnitude-based Pruning (LAMP).
  • LAMP Layer-Adaptive Magnitude-based Pruning
  • a computer program stored in a computer readable recording medium is provided in combination with a computer device to execute the method on the computer device.
  • a computer readable recording medium having a program for executing the method in a computer device is recorded.
  • At least one processor implemented to execute instructions readable by a computer device, determining the importance of a channel for each layer of a deep learning model to be compressed by the at least one processor, and determining the importance of a channel according to the importance of the channel. It provides a computer device characterized in that each assigns an initial value and starts compression of the deep learning model at a target compression rate based on the assigned initial value.
  • the learning time of the deep learning model can be reduced by initializing pruning considering the importance of the channel for each layer of the deep learning model.
  • FIG. 1 is a block diagram illustrating an example of a computer device according to one embodiment of the present invention.
  • FIG. 2 is a block diagram showing an example of an internal configuration of a deep learning model lightweight system according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating an example of a deep learning model lightweight method according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of starting compression of a deep learning model from a target compression ratio according to an embodiment of the present invention.
  • a deep learning model lightweight system may be implemented by at least one computer device.
  • a computer program according to an embodiment of the present invention may be installed and driven in the computer device, and the computer device may perform the deep learning model weight reduction method according to the embodiments of the present invention under the control of the driven computer program.
  • the above-described computer program may be combined with a computer device and stored in a computer readable recording medium to execute a deep learning model lightweight method on a computer.
  • a computer device 100 includes a memory 110, a processor 120, a communication interface 130, and an I/O interface 140.
  • the memory 110 is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive.
  • RAM random access memory
  • ROM read only memory
  • a permanent mass storage device such as a disk drive.
  • a non-perishable mass storage device such as a ROM and a disk drive may be included in the computer device 100 as a separate permanent storage device distinct from the memory 110.
  • an operating system and at least one program code may be stored in the memory 110 .
  • These software components may be loaded into the memory 110 from a recording medium readable by a separate computer from the memory 110 .
  • the separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card.
  • software components may be loaded into the memory 110 through the communication interface 130 rather than a computer-readable recording medium.
  • software components may be loaded into the memory 110 of the computer device 100 based on a computer program installed by files received through a network 160 .
  • the processor 120 may be configured to process commands of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processor 120 by memory 110 or communication interface 130 . For example, processor 120 may be configured to execute received instructions according to program codes stored in a recording device such as memory 110 .
  • the communication interface 130 may provide a function for the computer device 100 to communicate with other devices through the network 160 .
  • a request, command, data, file, etc. generated according to a program code stored in a recording device such as the memory 110 by the processor 120 of the computer device 100 is transmitted to the network ( 160) to other devices.
  • signals, commands, data, files, etc. from other devices may be received by the computer device 100 via the communication interface 130 of the computer device 100 via the network 160 .
  • Signals, commands, data, etc. received through the communication interface 130 may be transmitted to the processor 120 or the memory 110, and files, etc. may be stored as storage media that the computer device 100 may further include (described above). permanent storage).
  • the input/output interface 140 may be a means for interface with the input/output device (I/O device, 150).
  • the input device may include a device such as a microphone, keyboard, or mouse
  • the output device may include a device such as a display or speaker.
  • the input/output interface 140 may be a means for interface with a device in which functions for input and output are integrated into one, such as a touch screen.
  • the input/output device 150 and the computer device 100 may be configured as one device.
  • computer device 100 may include fewer or more elements than those of FIG. 1 . However, there is no need to clearly show most of the prior art components.
  • the computer device 100 may be implemented to include at least a portion of the above-described input/output device 150 or may further include other components such as a transceiver and a database.
  • FIG. 2 is a block diagram showing an example of the internal configuration of a deep learning model lightweight system according to an embodiment of the present invention
  • FIG. 3 is a flowchart showing an example of a deep learning model lightweight method according to an embodiment of the present invention.
  • the deep learning model lightweight system 200 may be implemented by at least one computer device 100.
  • the deep learning model weight reduction system 200 of FIG. 3 may include a channel importance determination unit 210, a channel initial value allocation unit 220, a compression start unit 230, and a pruning decision unit 240.
  • the channel importance determination unit 210, the channel initial value allocation unit 220, the compression start unit 230, and the pruning determination unit 240 are computer devices 100 implementing the deep learning model lightweight system 200.
  • the processor 120 of the computer device 100 may be implemented to execute control instructions according to codes of an operating system included in the memory 110 or codes of at least one computer program.
  • the processor 120 controls the computer device 100 so that the computer device 100 performs the steps 310 to 340 included in the method of FIG. 3 according to a control command provided by a code stored in the computer device 100. can control.
  • the channel importance determination unit 210, the channel initial value allocation unit 220, the compression start unit 230, and pruning decision Section 240 may be used as a functional expression of the processor 120 for performing each of the steps 310 to 340.
  • the channel importance determination unit 210 may determine the importance of the channel for each layer of the deep learning model to be compressed.
  • the channel importance determiner 210 may determine the importance of a channel for each layer of the deep learning model to be compressed using a global pruning technique.
  • a more specific example is Layer-Adaptive Magnitude-based Pruning (LAMP), which provides a pruning technique that can achieve a state-of-the-art compromise between sparsity and performance rather than simple size-based pruning using selected layer-specific sparsity for each layer. It can be used to determine the importance of the channel of
  • LAMP Layer-Adaptive Magnitude-based Pruning
  • the channel initial value allocator 220 may allocate an initial value for each channel according to the importance of the channel.
  • the initial value assigned to each channel may be an initial value of a temperature parameter to be described later.
  • the compression initiator 230 may start compression of the deep learning model at a target compression ratio based on the assigned initial value.
  • the growing technique starts compressing the deep learning model with only one channel per layer, it takes a long time to learn to reach an optimal network.
  • the AutoSlim technique learns the entire network for each layer, it also has a problem in that it takes a long time to learn.
  • the deep learning model weight reduction method according to the present embodiment after allocating an initial value for each channel according to the importance of the channel, it is possible to start compressing the deep learning model from the target compression rate, thereby optimizing the learning time of the deep learning model. can
  • the pruning decision unit 240 determines whether or not to prune an arbitrary channel according to the value of the weight mask for an arbitrary channel of the deep learning model in the loss function constructed using the weight mask based on the assigned initial value. You can decide whether to run or not.
  • the loss function may be configured using cross-entropy loss for improving training accuracy of a deep learning model, weight mask, and L1 regularization for the weight mask.
  • the pruning decision unit 240 may determine to continue using a random channel when the value of the weight mask is 1, and may determine to prun the random channel when the value of the weight mask is 0.
  • L1 normalization may consist of a multiplication between an L1 norm for a weight mask and a hyperparameter for adjusting the effect of the L1 norm on a loss function.
  • the weight mask may be composed of a sigmoid function having a product of a temperature parameter and a mask variable as an input parameter, and the temperature parameter is relatively proportional to a channel that makes a relatively greater contribution to improving the performance of the deep learning model.
  • it may be determined as a product of an assigned initial value and a loss gradient according to a value of a mask variable.
  • the network loss of the deep learning model may be calculated as in Equation 1 below.
  • L may mean a loss of the deep learning model
  • f may mean a deep learning model that receives data “ x ” as an input.
  • L _ CE is the cross-entropy loss to improve the learning accuracy of the deep learning model " f "
  • w is the weight
  • ⁇ ( ⁇ s) " is the role of weight masking It can be a weight mask that performs
  • “ ⁇ ” may be a sigmoid function
  • “ ⁇ ” may be a temperature parameter
  • s may be a mask variable.
  • may mean a Hadamard product (or element-wise product), and "
  • the temperature parameter “ ⁇ ” may be scheduled so that the deep learning model “ f ” is trained in an optimal direction. Scheduling of the temperature parameter " ⁇ " will be described in more detail later.
  • the pruning decision unit 240 determines that a random channel is continuously used when the value of the weight mask “ ⁇ ( ⁇ s)” is 1, and when the value of the weight mask “ ⁇ ( ⁇ s)” is 0. It can be determined by pruning any channel.
  • ⁇ _1 is a lower parameter for adjusting the influence of the L1 norm on loss, and can be scheduled as shown in Equation 2 below so that the deep learning model " f " is trained according to the target sparsity.
  • ⁇ _1 ⁇ base may mean hyperparameters
  • u may mean target sparsity
  • u_c may mean current sparsity, respectively.
  • the temperature parameter “ ⁇ ” multiplies “ ⁇ _0” as an initial value by the conversion degree of the loss according to the value of the mask variable, so that the greater the change in the corresponding mask contributes to the loss, the greater the weight. You can adopt the giving method.
  • FIG. 4 is a diagram illustrating an example of starting compression of a deep learning model from a target compression ratio according to an embodiment of the present invention.
  • FIG. 4 shows an example in which learning of a deep learning model is performed for all channels of each layer with respect to an original model 410 .
  • FIG. 4 shows an example of starting compression of a deep learning model with only one channel per layer for the Growing (420) technique.
  • FIG. 4 shows an example of learning the entire network for each layer for the AutoSlim (430) technique.
  • FIG. 4 is a proposed method (Proposed Method, 440) according to this embodiment. After allocating an initial value for each channel according to the importance of the channel, compression of the deep learning model is started from the target compression rate. shows an example of At this time, since compression starts from the target compression rate for each channel, learning time can be reduced by determining the optimal number of channels for each layer more quickly.
  • the training time of the deep learning model can be reduced by initializing pruning in consideration of the importance of the channel for each layer of the deep learning model.
  • the system or device described above may be implemented as a hardware component or a combination of hardware components and software components.
  • devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may run an operating system (OS) and one or more software applications running on the operating system.
  • a processing device may also access, store, manipulate, process, and generate data in response to execution of software.
  • the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include.
  • a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
  • Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device.
  • Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device.
  • can be embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer readable media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the medium may continuously store programs executable by a computer or temporarily store them for execution or download.
  • the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc.
  • examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server.
  • Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

Disclosed are a method and a system for lightening a deep learning model using pruning. A method for lightening a deep learning model according to one embodiment may comprise the steps of: determining a significance level for channels for each layer of a deep learning model to be compressed; assigning an initial value for each channel according to the significance level of the channel; and initiating compression of the deep learning model at a target compression rate on the basis of the assigned initial value.

Description

프루닝을 이용한 딥러닝 모델 경량화 방법 및 시스템Deep learning model lightweight method and system using pruning
아래의 설명은 프루닝을 이용한 딥러닝 모델 경량화 방법 및 시스템에 관한 것이다.The following description relates to a deep learning model lightweight method and system using pruning.
딥러닝 모델(또는 인공지능 모델)은 우수한 성능을 보이고 있지만, 모델의 크기가 크고 연산량이 많아 실제 응용에 적용되기에는 어려움이 많다. 딥러닝 모델을 실제 응용에 적용하기 위해서 이용되는 대표적인 방법으로는 딥러닝 모델 경량화 기법이 있다. 딥러닝 모델의 경량화는 주어진 딥러닝 모델을 더 작은 딥러닝 모델로 만드는 함수, 모듈 및/또는 기능을 의미한다. 여기서, '작다'는 딥러닝 모델을 구성하는 가중치(weights/bias)의 수를 줄이거나, 용량을 줄이거나, 추론 속도를 빠르게 하는 것을 의미할 수 있다. 이때, 경량화를 진행하면서 성능을 하락시키지 않는 것이 매우 중요하다.Although deep learning models (or artificial intelligence models) show excellent performance, it is difficult to apply them to practical applications due to the large size and computational complexity of the models. A representative method used to apply a deep learning model to an actual application is a deep learning model weight reduction technique. Lightweighting of a deep learning model refers to functions, modules, and/or features that make a given deep learning model into a smaller deep learning model. Here, 'small' may mean reducing the number of weights/bias constituting the deep learning model, reducing capacity, or speeding up inference. At this time, it is very important not to degrade the performance while reducing the weight.
경량화 기법에는 다양한 종류가 있다. 큰 분류로는 프루닝(Network Pruning), 양자화(Quantization), 지식 증류(Knowledge Distillation), 모델 탐색(Neural Architecture Search), 필터 분해(Filter Decomposition)가 있으며, 각 분류 내에도 굉장히 다양한 종류의 경량화 기법이 존재한다. 이 중 프루닝은 대표적인 경량화 기법이다.There are various types of lightweighting techniques. Large classifications include network pruning, quantization, knowledge distillation, model search (Neural Architecture Search), and filter decomposition, and within each classification, there are many different types of lightweighting techniques. this exists Among these, pruning is a representative lightweight technique.
프루닝 기법에는 크게 글로벌 프루닝(Global Pruning)과 로컬 프루닝(Local Pruning)이 있으며, 로컬 프루닝은 각 레이어별로 레이어 내의 가중치(weight)를 얼마나 프루닝해야 하는가에 대한 파라미터를 입력을 받은 뒤, 각 레이어에서 어떤 가중치를 프루닝할 지에 대한 결정을 내린다. 글로벌 프루닝의 경우에는 로컬 프루닝을 포함하여 각 레이어별로 어느 정도의 가중치가 프루닝되어야 하는지 또한 결정한다.There are two major pruning techniques: global pruning and local pruning. Local pruning receives parameters for how much weights in each layer should be pruned, and then , making decisions about which weights to prune at each layer. In the case of global pruning, it is also determined how many weights should be pruned for each layer, including local pruning.
글로벌 프루닝 기법 중 대표적인 방법으로는 그로잉(Growing), 오토슬림(AutoSlim), 뉴클리어 놈(Nuclear Norm) 등의 기법이 있다. 해당 기법들은 딥러닝 모델의 각 레이어의 최적의 채널 수가 몇 개인지 결정하는 방법론으로, 그로잉은 각 레이어 내의 채널이 1일 때를 기준으로, 채널을 조금씩 늘려가며 채널 수를 탐색하고, 오토슬림은 전체 모델을 학습한 후에 레이어별로 채널을 줄여가며 최적의 채널 수를 결정한다. 한편, 뉴클리어 놈의 경우에는 각 레이어별로 특징맵(feature map)의 특이치(singular value)의 뉴클리어 놈을 계산한 뒤, 특정 임계값 이하의 값을 지니는 채널을 삭제하는 방식으로 프루닝을 진행한다.Representative methods among global pruning techniques include techniques such as Growing, AutoSlim, and Nuclear Norm. These techniques are methodologies for determining the optimal number of channels in each layer of a deep learning model. Growing searches for the number of channels by gradually increasing the number of channels, based on when the channel in each layer is 1, After learning the entire model, it determines the optimal number of channels by reducing channels for each layer. On the other hand, in the case of the nuclear norm, pruning is performed by calculating the nuclear norm of the singular value of the feature map for each layer and then deleting channels with values below a specific threshold. proceed
해당 프루닝 기법을 활용해, 엣지 컴퓨팅(edge computing) 환경에서 추론을 하는 경우, 엣지 하드웨어의 환경에 제약이 있기 때문에, RAM(Random Access Memory), 메모리 크기, FLOPS(floating-point operations per second) 등에 제한을 받게 된다. 일례로, 앞서 설명한 글로벌 프루닝의 경우, FLOPS에 따라 제한된 수로 각 레이어별 채널 수를 조절하게 된다.When reasoning is performed in an edge computing environment using the corresponding pruning technique, RAM (Random Access Memory), memory size, and FLOPS (floating-point operations per second) are limited due to limitations in the edge hardware environment. etc. will be limited. For example, in the case of global pruning described above, the number of channels for each layer is adjusted to a limited number according to FLOPS.
또한, 그로잉 기법은 레이어마다 한 개의 채널만 가진 상태로 딥러닝 모델의 압축을 시작하기 때문에, 최적의 네트워크에 도달하기까지 학습 시간이 오래 걸린다는 단점이 있다. 또한, 오토슬림 기법은 각 레이어별로 전체 네트워크를 학습하기 때문에, 역시 학습 시간이 오래 걸린다는 문제점이 있다. 뿐만 아니라, 뉴틀리어 놈의 경우, 선학습된 가중치를 기준으로 프루닝을 진행하기 때문에 결과가 정교하지 못하다는 문제가 있다.In addition, since the growing technique starts compressing the deep learning model with only one channel per layer, it takes a long time to learn to reach an optimal network. In addition, since the auto-slim technique learns the entire network for each layer, it also takes a long time to learn. In addition, in the case of the Newtler norm, there is a problem that the result is not sophisticated because pruning is performed based on the pre-learned weights.
딥러닝 모델의 각 레이어마다 채널의 중요도를 고려하여 프루닝을 초기화함으로써, 딥러닝 모델의 학습 시간을 줄일 수 있는 딥러닝 모델 경량화 방법 및 시스템을 제공한다.Provided is a deep learning model lightweight method and system that can reduce the training time of the deep learning model by initializing pruning in consideration of the importance of channels for each layer of the deep learning model.
적어도 하나의 프로세서를 포함하는 컴퓨터 장치에 의해 수행되는 모델 경량화 방법에 있어서, 상기 적어도 하나의 프로세서에 의해, 압축할 딥러닝 모델의 각 레이어마다 채널의 중요도를 결정하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 채널의 중요도에 따라 채널별로 초기값을 할당하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 할당된 초기값에 기초하여 목표 압축률에서 상기 딥러닝 모델의 압축을 개시하는 단계를 포함하는 모델 경량화 방법을 제공한다.A model weight reduction method performed by a computer device including at least one processor, comprising: determining, by the at least one processor, an importance of a channel for each layer of a deep learning model to be compressed; allocating, by the at least one processor, an initial value for each channel according to the importance of the channel; and initiating, by the at least one processor, compression of the deep learning model at a target compression ratio based on the assigned initial value.
일측에 따르면, 상기 모델 경량화 방법은 상기 적어도 하나의 프로세서에 의해, 상기 할당된 초기값에 기반한 가중치 마스크를 이용하여 구성된 손실함수에서 상기 딥러닝 모델의 임의의 채널에 대한 상기 가중치 마스크의 값에 따라 상기 임의의 채널에 대한 프루닝 여부를 결정하는 단계를 더 포함할 수 있다.According to one aspect, the model weight reduction method is based on a value of the weight mask for an arbitrary channel of the deep learning model in a loss function configured using a weight mask based on the assigned initial value by the at least one processor. The method may further include determining whether pruning is performed for the arbitrary channel.
다른 측면에 따르면, 상기 손실함수는 상기 딥러닝 모델의 훈련 정확도 향상을 위한 크로스엔트로피 손실(cross-entropy loss), 상기 가중치 마스크 및 상기 가중치 마스크에 대한 L1 정규화(L1 regularization)를 이용하여 구성되는 것을 특징으로 할 수 있다.According to another aspect, the loss function is configured using cross-entropy loss for improving training accuracy of the deep learning model, the weight mask, and L1 regularization for the weight mask. can be characterized.
또 다른 측면에 따르면, 상기 L1 정규화는 상기 가중치 마스크에 대한 L1 놈(norm) 및 상기 손실함수에서 상기 L1 놈이 미치는 영향을 조절하기 위한 하이퍼파라미터 간의 곱으로 구성되는 것을 특징으로 할 수 있다.According to another aspect, the L1 normalization may be configured by multiplying an L1 norm for the weight mask and a hyperparameter for controlling an effect of the L1 norm on the loss function.
또 다른 측면에 따르면, 상기 임의의 채널에 대한 프루닝 여부를 결정하는 단계는, 상기 가중치 마스크의 값이 1인 경우 상기 임의의 채널을 계속 사용하는 것으로 결정하고 상기 가중치 마스크의 값이 0인 경우 상기 임의의 채널을 프루닝하는 것으로 결정하는 것을 특징으로 할 수 있다.According to another aspect, the step of determining whether to perform pruning on the random channel may include determining that the random channel is continuously used when the value of the weight mask is 1, and when the value of the weight mask is 0. It may be characterized in that the arbitrary channel is determined to be pruned.
또 다른 측면에 따르면, 상기 가중치 마스크는 온도 파라미터 및 마스크 변수의 곱을 입력 파라미터로 갖는 시그모이드(sigmoid) 함수로 구성되고, 상기 온도 파라미터는 상기 딥러닝 모델의 성능 향상에 상대적으로 더 큰 기여를 하는 채널에 상대적으로 더 큰 가중치를 할당하기 위해, 상기 할당된 초기값과 상기 마스크 변수의 값에 따른 손실 변화도 간의 곱으로 결정되는 것을 특징으로 할 수 있다.According to another aspect, the weight mask is composed of a sigmoid function having a product of a temperature parameter and a mask variable as an input parameter, and the temperature parameter has a relatively greater contribution to improving the performance of the deep learning model. In order to assign a relatively larger weight to the channel that corresponds to the selected channel, it may be characterized in that it is determined by multiplying the assigned initial value and the loss gradient according to the value of the mask variable.
또 다른 측면에 따르면, 상기 채널의 중요도를 결정하는 단계는, 글로벌 프루닝 기법을 이용하여 상기 압축할 딥러닝 모델의 각 레이어마다 채널의 중요도를 결정하는 것을 특징으로 할 수 있다.According to another aspect, the determining of the importance of the channel may include determining the importance of the channel for each layer of the deep learning model to be compressed using a global pruning technique.
또 다른 측면에 따르면, 상기 글로벌 프루닝 기법은 LAMP(Layer-Adaptive Magnitude-based Pruning)를 포함하는 것을 특징으로 할 수 있다.According to another aspect, the global pruning technique may include Layer-Adaptive Magnitude-based Pruning (LAMP).
컴퓨터 장치와 결합되어 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.A computer program stored in a computer readable recording medium is provided in combination with a computer device to execute the method on the computer device.
상기 방법을 컴퓨터 장치에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체를 제공한다.A computer readable recording medium having a program for executing the method in a computer device is recorded.
컴퓨터 장치에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 의해, 압축할 딥러닝 모델의 각 레이어마다 채널의 중요도를 결정하고, 상기 채널의 중요도에 따라 채널별로 초기값을 할당하고, 상기 할당된 초기값에 기초하여 목표 압축률에서 상기 딥러닝 모델의 압축을 개시하는 것을 특징으로 하는 컴퓨터 장치를 제공한다.At least one processor implemented to execute instructions readable by a computer device, determining the importance of a channel for each layer of a deep learning model to be compressed by the at least one processor, and determining the importance of a channel according to the importance of the channel. It provides a computer device characterized in that each assigns an initial value and starts compression of the deep learning model at a target compression rate based on the assigned initial value.
딥러닝 모델의 각 레이어마다 채널의 중요도를 고려하여 프루닝을 초기화함으로써, 딥러닝 모델의 학습 시간을 줄일 수 있다.The learning time of the deep learning model can be reduced by initializing pruning considering the importance of the channel for each layer of the deep learning model.
도 1은 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다.1 is a block diagram illustrating an example of a computer device according to one embodiment of the present invention.
도 2는 본 발명의 일실시예에 따른 딥러닝 모델 경량화 시스템의 내부 구성의 예를 도시한 블록도이다.2 is a block diagram showing an example of an internal configuration of a deep learning model lightweight system according to an embodiment of the present invention.
도 3은 본 발명의 일실시예에 따른 딥러닝 모델 경량화 방법의 예를 도시한 흐름도이다.3 is a flowchart illustrating an example of a deep learning model lightweight method according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 있어서, 목표 압축률에서부터 딥러닝 모델의 압축을 개시하는 예를 도시한 도면이다.4 is a diagram illustrating an example of starting compression of a deep learning model from a target compression ratio according to an embodiment of the present invention.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, an embodiment will be described in detail with reference to the accompanying drawings.
본 발명의 실시예들에 따른 딥러닝 모델 경량화 시스템은 적어도 하나의 컴퓨터 장치에 의해 구현될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 딥러닝 모델 경량화 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 딥러닝 모델 경량화 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.A deep learning model lightweight system according to embodiments of the present invention may be implemented by at least one computer device. At this time, a computer program according to an embodiment of the present invention may be installed and driven in the computer device, and the computer device may perform the deep learning model weight reduction method according to the embodiments of the present invention under the control of the driven computer program. can The above-described computer program may be combined with a computer device and stored in a computer readable recording medium to execute a deep learning model lightweight method on a computer.
도 1은 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 컴퓨터 장치(Computer device, 100)는 도 1에 도시된 바와 같이, 메모리(Memory, 110), 프로세서(Processor, 120), 통신 인터페이스(Communication interface, 130) 그리고 입출력 인터페이스(I/O interface, 140)를 포함할 수 있다. 메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(100)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(Network, 160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(100)의 메모리(110)에 로딩될 수 있다.1 is a block diagram illustrating an example of a computer device according to one embodiment of the present invention. As shown in FIG. 1, a computer device 100 includes a memory 110, a processor 120, a communication interface 130, and an I/O interface 140. can include The memory 110 is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. Here, a non-perishable mass storage device such as a ROM and a disk drive may be included in the computer device 100 as a separate permanent storage device distinct from the memory 110. Also, an operating system and at least one program code may be stored in the memory 110 . These software components may be loaded into the memory 110 from a recording medium readable by a separate computer from the memory 110 . The separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, software components may be loaded into the memory 110 through the communication interface 130 rather than a computer-readable recording medium. For example, software components may be loaded into the memory 110 of the computer device 100 based on a computer program installed by files received through a network 160 .
프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 120 may be configured to process commands of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processor 120 by memory 110 or communication interface 130 . For example, processor 120 may be configured to execute received instructions according to program codes stored in a recording device such as memory 110 .
통신 인터페이스(130)은 네트워크(160)를 통해 컴퓨터 장치(100)가 다른 장치와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 장치(100)의 통신 인터페이스(130)를 통해 컴퓨터 장치(100)로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 장치(100)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The communication interface 130 may provide a function for the computer device 100 to communicate with other devices through the network 160 . For example, a request, command, data, file, etc. generated according to a program code stored in a recording device such as the memory 110 by the processor 120 of the computer device 100 is transmitted to the network ( 160) to other devices. Conversely, signals, commands, data, files, etc. from other devices may be received by the computer device 100 via the communication interface 130 of the computer device 100 via the network 160 . Signals, commands, data, etc. received through the communication interface 130 may be transmitted to the processor 120 or the memory 110, and files, etc. may be stored as storage media that the computer device 100 may further include (described above). permanent storage).
입출력 인터페이스(140)는 입출력 장치(I/O device, 150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 장치(100)와 하나의 장치로 구성될 수도 있다.The input/output interface 140 may be a means for interface with the input/output device (I/O device, 150). For example, the input device may include a device such as a microphone, keyboard, or mouse, and the output device may include a device such as a display or speaker. As another example, the input/output interface 140 may be a means for interface with a device in which functions for input and output are integrated into one, such as a touch screen. The input/output device 150 and the computer device 100 may be configured as one device.
또한, 다른 실시예들에서 컴퓨터 장치(100)는 도 1의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(100)는 상술한 입출력 장치(150) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.Also, in other embodiments, computer device 100 may include fewer or more elements than those of FIG. 1 . However, there is no need to clearly show most of the prior art components. For example, the computer device 100 may be implemented to include at least a portion of the above-described input/output device 150 or may further include other components such as a transceiver and a database.
도 2는 본 발명의 일실시예에 따른 딥러닝 모델 경량화 시스템의 내부 구성의 예를 도시한 블록도이고, 도 3은 본 발명의 일실시예에 따른 딥러닝 모델 경량화 방법의 예를 도시한 흐름도이다. 본 실시예에 따른 딥러닝 모델 경량화 시스템(200)은 적어도 하나의 컴퓨터 장치(100)에 의해 구현될 수 있다. 도 3의 딥러닝 모델 경량화 시스템(200)은 채널 중요도 결정부(210), 채널 초기값 할당부(220), 압축 개시부(230) 및 프루닝 여부 결정부(240)를 포함할 수 있다. 이때, 채널 중요도 결정부(210), 채널 초기값 할당부(220), 압축 개시부(230) 및 프루닝 여부 결정부(240)는 딥러닝 모델 경량화 시스템(200)을 구현하는 컴퓨터 장치(100)의 프로세서(120)가 컴퓨터 프로그램의 제어에 따라 동작하는 기능의 기능적 표현(functional expression)일 수 있다. 일례로, 컴퓨터 장치(100)의 프로세서(120)는 메모리(110)가 포함하는 운영체제의 코드나 적어도 하나의 컴퓨터 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(120)는 컴퓨터 장치(100)에 저장된 코드가 제공하는 제어 명령에 따라 컴퓨터 장치(100)가 도 3의 방법이 포함하는 단계들(310 내지 340)을 수행하도록 컴퓨터 장치(100)를 제어할 수 있다. 이때, 각 단계들(310 내지 340)의 수행을 위한 프로세서(120)의 기능적 표현으로서 채널 중요도 결정부(210), 채널 초기값 할당부(220), 압축 개시부(230) 및 프루닝 여부 결정부(240)가 사용될 수 있다.2 is a block diagram showing an example of the internal configuration of a deep learning model lightweight system according to an embodiment of the present invention, and FIG. 3 is a flowchart showing an example of a deep learning model lightweight method according to an embodiment of the present invention. am. The deep learning model lightweight system 200 according to this embodiment may be implemented by at least one computer device 100. The deep learning model weight reduction system 200 of FIG. 3 may include a channel importance determination unit 210, a channel initial value allocation unit 220, a compression start unit 230, and a pruning decision unit 240. At this time, the channel importance determination unit 210, the channel initial value allocation unit 220, the compression start unit 230, and the pruning determination unit 240 are computer devices 100 implementing the deep learning model lightweight system 200. ) may be a functional expression of a function that the processor 120 operates under the control of a computer program. For example, the processor 120 of the computer device 100 may be implemented to execute control instructions according to codes of an operating system included in the memory 110 or codes of at least one computer program. Here, the processor 120 controls the computer device 100 so that the computer device 100 performs the steps 310 to 340 included in the method of FIG. 3 according to a control command provided by a code stored in the computer device 100. can control. At this time, as a functional expression of the processor 120 for performing each of the steps 310 to 340, the channel importance determination unit 210, the channel initial value allocation unit 220, the compression start unit 230, and pruning decision Section 240 may be used.
단계(310)에서 채널 중요도 결정부(210)는 압축할 딥러닝 모델의 각 레이어마다 채널의 중요도를 결정할 수 있다. 일례로, 채널 중요도 결정부(210)는 글로벌 프루닝 기법을 이용하여 상기 압축할 딥러닝 모델의 각 레이어마다 채널의 중요도를 결정할 수 있다. 보다 구체적인 예로, 선택된 계층별 희소성을 사용하여 단순한 크기 기반 프루닝이 아닌 희소성과 성능 사이의 최첨단 절충을 달성할 수 있는 프루닝 기법을 제공하는 LAMP(Layer-Adaptive Magnitude-based Pruning)가 각 레이어마다의 채널의 중요도를 결정하기 위해 사용될 수 있다.In step 310, the channel importance determination unit 210 may determine the importance of the channel for each layer of the deep learning model to be compressed. For example, the channel importance determiner 210 may determine the importance of a channel for each layer of the deep learning model to be compressed using a global pruning technique. A more specific example is Layer-Adaptive Magnitude-based Pruning (LAMP), which provides a pruning technique that can achieve a state-of-the-art compromise between sparsity and performance rather than simple size-based pruning using selected layer-specific sparsity for each layer. It can be used to determine the importance of the channel of
단계(320)에서 채널 초기값 할당부(220)는 채널의 중요도에 따라 채널별로 초기값을 할당할 수 있다. 여기서 채널별로 할당되는 초기값은 추후 설명되는 온도 파라미터(temperature parameter)의 초기값이 될 수 있다.In step 320, the channel initial value allocator 220 may allocate an initial value for each channel according to the importance of the channel. Here, the initial value assigned to each channel may be an initial value of a temperature parameter to be described later.
단계(330)에서 압축 개시부(230)는 할당된 초기값에 기초하여 목표 압축률에서 딥러닝 모델의 압축을 개시할 수 있다. 앞서 설명한 바와 같이, 그로잉(growing) 기법은 레이어마다 한 개의 채널만 가진 상태로 딥러닝 모델의 압축을 시작하기 때문에, 최적의 네트워크에 도달하기까지 학습 시간이 오래 걸린다는 단점이 있다. 또한, 오토슬림(AutoSlim) 기법은 각 레이어별로 전체 네트워크를 학습하기 때문에, 역시 학습 시간이 오래 걸린다는 문제점이 있다. 반면, 본 실시예에 따른 딥러닝 모델 경량화 방법에서는 채널의 중요도에 따라 채널별로 초기값을 할당한 후, 목표 압축률에서부터 딥러닝 모델의 압축을 개시할 수 있기 때문에 딥러닝 모델의 학습 시간을 최적화할 수 있다.In step 330, the compression initiator 230 may start compression of the deep learning model at a target compression ratio based on the assigned initial value. As described above, since the growing technique starts compressing the deep learning model with only one channel per layer, it takes a long time to learn to reach an optimal network. In addition, since the AutoSlim technique learns the entire network for each layer, it also has a problem in that it takes a long time to learn. On the other hand, in the deep learning model weight reduction method according to the present embodiment, after allocating an initial value for each channel according to the importance of the channel, it is possible to start compressing the deep learning model from the target compression rate, thereby optimizing the learning time of the deep learning model. can
단계(340)에서 프루닝 여부 결정부(240)는 할당된 초기값에 기반한 가중치 마스크를 이용하여 구성된 손실함수에서 딥러닝 모델의 임의의 채널에 대한 가중치 마스크의 값에 따라 임의의 채널에 대한 프루닝 여부를 결정할 수 있다. 일례로, 손실함수는 딥러닝 모델의 훈련 정확도 향상을 위한 크로스엔트로피 손실(cross-entropy loss), 가중치 마스크 및 가중치 마스크에 대한 L1 정규화(L1 regularization)를 이용하여 구성될 수 있다.In step 340, the pruning decision unit 240 determines whether or not to prune an arbitrary channel according to the value of the weight mask for an arbitrary channel of the deep learning model in the loss function constructed using the weight mask based on the assigned initial value. You can decide whether to run or not. For example, the loss function may be configured using cross-entropy loss for improving training accuracy of a deep learning model, weight mask, and L1 regularization for the weight mask.
이때, 프루닝 여부 결정부(240)는 가중치 마스크의 값이 1인 경우 임의의 채널을 계속 사용하는 것으로 결정하고 가중치 마스크의 값이 0인 경우 임의의 채널을 프루닝하는 것으로 결정할 수 있다.In this case, the pruning decision unit 240 may determine to continue using a random channel when the value of the weight mask is 1, and may determine to prun the random channel when the value of the weight mask is 0.
또한, L1 정규화는 가중치 마스크에 대한 L1 놈(norm) 및 손실함수에서 L1 놈이 미치는 영향을 조절하기 위한 하이퍼파라미터 간의 곱으로 구성될 수 있다.In addition, L1 normalization may consist of a multiplication between an L1 norm for a weight mask and a hyperparameter for adjusting the effect of the L1 norm on a loss function.
또한, 가중치 마스크는 온도 파라미터 및 마스크 변수의 곱을 입력 파라미터로 갖는 시그모이드(sigmoid) 함수로 구성될 수 있고, 온도 파라미터는 딥러닝 모델의 성능 향상에 상대적으로 더 큰 기여를 하는 채널에 상대적으로 더 큰 가중치를 할당하기 위해, 할당된 초기값과 마스크 변수의 값에 따른 손실 변화도 간의 곱으로 결정될 수 있다.In addition, the weight mask may be composed of a sigmoid function having a product of a temperature parameter and a mask variable as an input parameter, and the temperature parameter is relatively proportional to a channel that makes a relatively greater contribution to improving the performance of the deep learning model. In order to assign a larger weight, it may be determined as a product of an assigned initial value and a loss gradient according to a value of a mask variable.
보다 구체적인 예로, 딥러닝 모델의 네트워크 손실(network loss)은 아래 수학식 1과 같이 계산될 수 있다.As a more specific example, the network loss of the deep learning model may be calculated as in Equation 1 below.
Figure PCTKR2021011008-appb-img-000001
Figure PCTKR2021011008-appb-img-000001
여기서, "L"은 딥러닝 모델의 손실(loss)을, "f"는 데이터 "x"를 입력으로 받는 딥러닝 모델을 각각 의미할 수 있다. 또한, "L_CE"는 딥러닝 모델 "f"의 학습 정확도를 향상시키기 위한 크로스엔트로피 손실(cross-entropy loss)를, "w"는 가중치를, "σ(βs)"는 가중치 마스킹의 역할을 수행하는 가중치 마스크일 수 있다. 이때, "σ"는 시그모이드(sigmoid) 함수를, "β"는 온도 파라미터를, "s"는 마스크 변수일 수 있다. 또한, "˚"는 아다마드 곱(Hadamard product, 또는 요소별 곱(Element-wise Product))을 의미할 수 있으며, "||x||_1"는 x에 대한 L1 놈을 의미할 수 있다. 여기서, 온도 파라미터 "β"는 딥러닝 모델 "f"가 최적의 방향으로 학습되도록 스케줄링될 수 있다. 온도 파라미터 "β"의 스케줄링에 대해서는 이후 더욱 자세히 설명한다.Here, “ L ” may mean a loss of the deep learning model, and “ f ” may mean a deep learning model that receives data “ x ” as an input. In addition, " L _ CE " is the cross-entropy loss to improve the learning accuracy of the deep learning model " f ", " w " is the weight, and "σ (βs) " is the role of weight masking It can be a weight mask that performs In this case, “σ” may be a sigmoid function, “β” may be a temperature parameter, and “s” may be a mask variable. Also, "˚" may mean a Hadamard product (or element-wise product), and "||x||_1" may mean an L1 norm for x. Here, the temperature parameter “β” may be scheduled so that the deep learning model “ f ” is trained in an optimal direction. Scheduling of the temperature parameter "β" will be described in more detail later.
이 경우, 프루닝 여부 결정부(240)는 가중치 마스크 "σ(βs)"의 값이 1인 경우 임의의 채널을 계속 사용하는 것으로 결정하고 가중치 마스크 "σ(βs)"의 값이 0인 경우 임의의 채널을 프루닝하는 것으로 결정할 수 있다.In this case, the pruning decision unit 240 determines that a random channel is continuously used when the value of the weight mask “σ(βs)” is 1, and when the value of the weight mask “σ(βs)” is 0. It can be determined by pruning any channel.
"λ_1"는 손실에서 L1 놈이 미치는 영향을 조절하기 위한 하아퍼파라미터로 딥러닝 모델 "f"이 목표 희소성(target sparsity)에 맞게 학습되도록 아래 수학식 2와 같이 스케줄링될 수 있다." λ _1" is a lower parameter for adjusting the influence of the L1 norm on loss, and can be scheduled as shown in Equation 2 below so that the deep learning model " f " is trained according to the target sparsity.
Figure PCTKR2021011008-appb-img-000002
Figure PCTKR2021011008-appb-img-000002
여기서, "λ_1 ^ base"는 하이퍼파라미터들을, "u"는 목표 희소성을, "u_c"는 현재 희소성을 각각 의미할 수 있다.Here, “ λ _1 ^ base ” may mean hyperparameters , “u” may mean target sparsity, and “ u_c ” may mean current sparsity, respectively.
한편, 수학식 1에서 온도 파라미터 "β"값이 증가하는 경우 시그모이드 함수 "σ"의 기울기를 급격하게 만들고 따라서, 가중치 마스크 "σ(βs)"를 이산(discrete) 값으로 수렴시키는 역할을 할 수 있다. 기존보다 학습 안정성 및 수렴 속도 향상을 위해 성능향상에 큰 기여를 하는 채널은 큰 가중치를 할당하여 학습과정에서 해당 채널이 계속 사용될 수 있도록 온도 파라미터 "β"를 스케줄링할 수 있다.On the other hand, when the value of the temperature parameter “β” in Equation 1 increases, the slope of the sigmoid function “σ” becomes steep, and thus, the weight mask “σ(βs)” serves to converge to a discrete value. can do. In order to improve learning stability and convergence speed, a temperature parameter "β" can be scheduled so that a channel that contributes greatly to performance improvement can be assigned a large weight so that the corresponding channel can be continuously used in the learning process.
일례로 아래 수학식 3과 같이, 온도 파라미터 "β"는 초기값으로서의 "β_0"에 마스크 변수의 값에 따른 손실의 변환도를 곱해줌으로써, 해당 마스크의 변화가 손실에 큰 기여를 할수록 큰 가중치를 주는 방식을 채택할 수 있다.For example, as shown in Equation 3 below, the temperature parameter “β” multiplies “β_0” as an initial value by the conversion degree of the loss according to the value of the mask variable, so that the greater the change in the corresponding mask contributes to the loss, the greater the weight. You can adopt the giving method.
Figure PCTKR2021011008-appb-img-000003
Figure PCTKR2021011008-appb-img-000003
도 4는 본 발명의 일실시예에 있어서, 목표 압축률에서부터 딥러닝 모델의 압축을 개시하는 예를 도시한 도면이다. 도 4는 원래의 모델(Original model, 410)에 대해, 각 레이어들의 전체 채널에 대해 딥러닝 모델의 학습이 진행되는 예를 나타내고 있다. 또한, 도 4는 그로잉(Growing, 420) 기법에 대해, 레이어마다 한 개의 채널만 가진 상태로 딥러닝 모델의 압축을 시작하는 예를 나타내고 있다. 또한, 도 4는 오토슬림(AutoSlim, 430) 기법에 대해 각 레이어별로 전체 네트워크를 학습하는 예를 나타내고 있다. 이러한 종래기술들과 달리, 도 4는 본 실시예에 따라 제안된 방법(Proposed Method, 440)으로서, 채널의 중요도에 따라 채널별로 초기값을 할당한 후, 목표 압축률에서부터 딥러닝 모델의 압축을 개시하는 예를 나타내고 있다. 이때, 각 채널별로, 목표 압축률에서부터 압축이 시작되기 때문에 각 레이어별로 보다 빠르게 최적의 채널 수를 결정하여 학습 시간을 줄일 수 있다.4 is a diagram illustrating an example of starting compression of a deep learning model from a target compression ratio according to an embodiment of the present invention. FIG. 4 shows an example in which learning of a deep learning model is performed for all channels of each layer with respect to an original model 410 . In addition, FIG. 4 shows an example of starting compression of a deep learning model with only one channel per layer for the Growing (420) technique. In addition, FIG. 4 shows an example of learning the entire network for each layer for the AutoSlim (430) technique. Unlike these prior arts, FIG. 4 is a proposed method (Proposed Method, 440) according to this embodiment. After allocating an initial value for each channel according to the importance of the channel, compression of the deep learning model is started from the target compression rate. shows an example of At this time, since compression starts from the target compression rate for each channel, learning time can be reduced by determining the optimal number of channels for each layer more quickly.
이처럼, 본 발명의 실시예들에 따르면, 딥러닝 모델의 각 레이어마다 채널의 중요도를 고려하여 프루닝을 초기화함으로써, 딥러닝 모델의 학습 시간을 줄일 수 있다.As described above, according to embodiments of the present invention, the training time of the deep learning model can be reduced by initializing pruning in consideration of the importance of the channel for each layer of the deep learning model.
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented as a hardware component or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA) , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. can be embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The medium may continuously store programs executable by a computer or temporarily store them for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (15)

  1. 적어도 하나의 프로세서를 포함하는 컴퓨터 장치에 의해 수행되는 모델 경량화 방법에 있어서,A model weight reduction method performed by a computer device including at least one processor,
    상기 적어도 하나의 프로세서에 의해, 압축할 딥러닝 모델의 각 레이어마다 채널의 중요도를 결정하는 단계;determining, by the at least one processor, an importance of a channel for each layer of a deep learning model to be compressed;
    상기 적어도 하나의 프로세서에 의해, 상기 채널의 중요도에 따라 채널별로 초기값을 할당하는 단계; 및allocating, by the at least one processor, an initial value for each channel according to the importance of the channel; and
    상기 적어도 하나의 프로세서에 의해, 상기 할당된 초기값에 기초하여 목표 압축률에서 상기 딥러닝 모델의 압축을 개시하는 단계Initiating, by the at least one processor, compression of the deep learning model at a target compression rate based on the assigned initial value.
    를 포함하는 모델 경량화 방법.Model weight reduction method comprising a.
  2. 제1항에 있어서,According to claim 1,
    상기 적어도 하나의 프로세서에 의해, 상기 할당된 초기값에 기반한 가중치 마스크를 이용하여 구성된 손실함수에서 상기 딥러닝 모델의 임의의 채널에 대한 상기 가중치 마스크의 값에 따라 상기 임의의 채널에 대한 프루닝 여부를 결정하는 단계In a loss function constructed by using the weight mask based on the assigned initial value by the at least one processor, whether or not to prune an arbitrary channel of the deep learning model according to the value of the weight mask for the arbitrary channel step to determine
    를 더 포함하는 모델 경량화 방법.A model weight reduction method further comprising a.
  3. 제2항에 있어서,According to claim 2,
    상기 손실함수는 상기 딥러닝 모델의 훈련 정확도 향상을 위한 크로스엔트로피 손실(cross-entropy loss), 상기 가중치 마스크 및 상기 가중치 마스크에 대한 L1 정규화(L1 regularization)를 이용하여 구성되는 것을 특징으로 하는 모델 경량화 방법.Wherein the loss function is configured using cross-entropy loss for improving training accuracy of the deep learning model, the weight mask, and L1 regularization for the weight mask. method.
  4. 제3항에 있어서,According to claim 3,
    상기 L1 정규화는 상기 가중치 마스크에 대한 L1 놈(norm) 및 상기 손실함수에서 상기 L1 놈이 미치는 영향을 조절하기 위한 하이퍼파라미터 간의 곱으로 구성되는 것을 특징으로 하는 모델 경량화 방법.The L1 normalization is composed of a product of an L1 norm for the weight mask and a hyperparameter for controlling an effect of the L1 norm on the loss function.
  5. 제2항에 있어서,According to claim 2,
    상기 임의의 채널에 대한 프루닝 여부를 결정하는 단계는,The step of determining whether pruning for the arbitrary channel is performed,
    상기 가중치 마스크의 값이 1인 경우 상기 임의의 채널을 계속 사용하는 것으로 결정하고 상기 가중치 마스크의 값이 0인 경우 상기 임의의 채널을 프루닝하는 것으로 결정하는 것을 특징으로 하는 모델 경량화 방법.and determining to continue using the random channel when the value of the weight mask is 1, and determining to prune the random channel when the value of the weight mask is 0.
  6. 제2항에 있어서,According to claim 2,
    상기 가중치 마스크는 온도 파라미터 및 마스크 변수의 곱을 입력 파라미터로 갖는 시그모이드(sigmoid) 함수로 구성되고,The weight mask is composed of a sigmoid function having a product of a temperature parameter and a mask variable as an input parameter,
    상기 온도 파라미터는 상기 딥러닝 모델의 성능 향상에 상대적으로 더 큰 기여를 하는 채널에 상대적으로 더 큰 가중치를 할당하기 위해, 상기 할당된 초기값과 상기 마스크 변수의 값에 따른 손실 변화도 간의 곱으로 결정되는 것The temperature parameter is a product of the assigned initial value and the loss gradient according to the value of the mask variable, in order to assign a relatively larger weight to a channel that contributes relatively more to the performance improvement of the deep learning model. to be decided
    을 특징으로 하는 모델 경량화 방법.A model weight reduction method characterized by.
  7. 제1항에 있어서,According to claim 1,
    상기 채널의 중요도를 결정하는 단계는,The step of determining the importance of the channel,
    글로벌 프루닝 기법을 이용하여 상기 압축할 딥러닝 모델의 각 레이어마다 채널의 중요도를 결정하는 것을 특징으로 하는 모델 경량화 방법.A model weight reduction method characterized in that determining the importance of a channel for each layer of the deep learning model to be compressed using a global pruning technique.
  8. 제7항에 있어서,According to claim 7,
    상기 글로벌 프루닝 기법은 LAMP(Layer-Adaptive Magnitude-based Pruning)를 포함하는 것을 특징으로 하는 모델 경량화 방법.The global pruning method comprises layer-adaptive magnitude-based pruning (LAMP).
  9. 컴퓨터 장치와 결합되어 제1항 내지 제8항 중 어느 한 항의 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.A computer program stored in a computer readable recording medium to be combined with a computer device to execute the method of any one of claims 1 to 8 on the computer device.
  10. 제1항 내지 제8항 중 어느 한 항의 방법을 컴퓨터 장치에 실행시키기 위한 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체.A computer readable recording medium on which a program for executing the method of any one of claims 1 to 8 is recorded in a computer device.
  11. 컴퓨터 장치에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서at least one processor implemented to execute instructions readable by a computer device;
    를 포함하고,including,
    상기 적어도 하나의 프로세서에 의해,by the at least one processor,
    압축할 딥러닝 모델의 각 레이어마다 채널의 중요도를 결정하고,Determine the importance of the channel for each layer of the deep learning model to be compressed,
    상기 채널의 중요도에 따라 채널별로 초기값을 할당하고,Allocating an initial value for each channel according to the importance of the channel;
    상기 할당된 초기값에 기초하여 목표 압축률에서 상기 딥러닝 모델의 압축을 개시하는 것Initiating compression of the deep learning model at a target compression ratio based on the assigned initial value
    을 특징으로 하는 컴퓨터 장치.Characterized by a computer device.
  12. 제11항에 있어서,According to claim 11,
    상기 적어도 하나의 프로세서에 의해,by the at least one processor,
    상기 할당된 초기값에 기반한 가중치 마스크를 이용하여 구성된 손실함수에서 상기 딥러닝 모델의 임의의 채널에 대한 상기 가중치 마스크의 값에 따라 상기 임의의 채널에 대한 프루닝 여부를 결정하는 것Determining whether to prune for an arbitrary channel according to a value of the weight mask for an arbitrary channel of the deep learning model in a loss function constructed using a weight mask based on the assigned initial value
    을 특징으로 하는 컴퓨터 장치.Characterized by a computer device.
  13. 제12항에 있어서,According to claim 12,
    상기 손실함수는 상기 딥러닝 모델의 훈련 정확도 향상을 위한 크로스엔트로피 손실(cross-entropy loss), 상기 가중치 마스크 및 상기 가중치 마스크에 대한 L1 정규화(L1 regularization)를 이용하여 구성되는 것The loss function is configured using cross-entropy loss for improving training accuracy of the deep learning model, L1 regularization for the weight mask and the weight mask
    을 특징으로 하는 컴퓨터 장치.Characterized by a computer device.
  14. 제12항에 있어서,According to claim 12,
    상기 임의의 채널에 대한 프루닝 여부를 결정하기 위해, 상기 적어도 하나의 프로세서에 의해,By the at least one processor to determine whether to prune the arbitrary channel,
    상기 가중치 마스크의 값이 1인 경우 상기 임의의 채널을 계속 사용하는 것으로 결정하고 상기 가중치 마스크의 값이 0인 경우 상기 임의의 채널을 프루닝하는 것으로 결정하는 것Determining to continue using the random channel when the value of the weight mask is 1 and determining to prune the random channel when the value of the weight mask is 0
    을 특징으로 하는 컴퓨터 장치.Characterized by a computer device.
  15. 제12항에 있어서,According to claim 12,
    상기 가중치 마스크는 온도 파라미터 및 마스크 변수의 곱을 입력 파라미터로 갖는 시그모이드(sigmoid) 함수로 구성되고,The weight mask is composed of a sigmoid function having a product of a temperature parameter and a mask variable as an input parameter,
    상기 온도 파라미터는 상기 딥러닝 모델의 성능 향상에 상대적으로 더 큰 기여를 하는 채널에 상대적으로 더 큰 가중치를 할당하기 위해, 상기 할당된 초기값과 상기 마스크 변수의 값에 따른 손실 변화도 간의 곱으로 결정되는 것The temperature parameter is a product of the assigned initial value and the loss gradient according to the value of the mask variable, in order to assign a relatively larger weight to a channel that contributes relatively more to the performance improvement of the deep learning model. to be decided
    을 특징으로 하는 컴퓨터 장치.Characterized by a computer device.
PCT/KR2021/011008 2021-08-17 2021-08-19 Method and system for lightening deep learning model using pruning WO2023022255A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210107884A KR102597183B1 (en) 2021-08-17 2021-08-17 Method and system for lighting deep learning model using pruning
KR10-2021-0107884 2021-08-17

Publications (1)

Publication Number Publication Date
WO2023022255A1 true WO2023022255A1 (en) 2023-02-23

Family

ID=85239886

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/011008 WO2023022255A1 (en) 2021-08-17 2021-08-19 Method and system for lightening deep learning model using pruning

Country Status (2)

Country Link
KR (1) KR102597183B1 (en)
WO (1) WO2023022255A1 (en)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
LEE SEON-WOO, HO-JUN YANG, SEUNG-YEON OH, MUN-HYUNG LEE, JANG-WOO KWON: "Application and Performance Analysis of Double Pruning Method for Deep Neural Networks. Convergence Society for SMB", JOURNAL OF CONVERGENCE FOR INFORMATION TECHNOLOGY, vol. 10, no. 8, 28 August 2020 (2020-08-28), pages 23 - 34, XP093037630, DOI: 10.22156/CS4SMB.2020.10.08.023 *
MOON HYEON-CHEOL, LEE HO-YOUNG, KIM JAE-GON: " Acceleration of CNN Model Using Neural Network Compression and its Performance Evaluation on Embedded Boards", THE KOREAN SOCIETY OF BROADCAST ENGINEERS AUTUMN CONFERENCE, pages 44 - 45, XP093037699, Retrieved from the Internet <URL:https://koreascience.kr/article/CFKO201904533843568.pdf> [retrieved on 20230405] *
PAJUSCO NICOLAS, HUANG RICHARD, FARRUGIA NICOLAS: "LIGHTWEIGHT CONVOLUTIONAL NEURAL NETWORKS ON BINAURAL WAVEFORMS FOR LOW COMPLEXITY ACOUSTIC SCENE CLASSIFICATION", DETECTION AND CLASSIFICATION OF ACOUSTIC SCENES AND EVENTS 2020, 1 November 2020 (2020-11-01), pages 135 - 139, XP093037633 *
SEUL-KI YEOM; PHILIPP SEEGERER; SEBASTIAN LAPUSCHKIN; ALEXANDER BINDER; SIMON WIEDEMANN; KLAUS-ROBERT M\"ULLER; WOJCIECH SAME: "Pruning by Explaining: A Novel Criterion for Deep Neural Network Pruning", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 12 March 2021 (2021-03-12), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081895140, DOI: 10.1016/j.patcog.2021.107899 *
WANG, ZHE N ET AL.: "Boosting Lightweight CNNs Through Network Pruning and Knowledge Distillation for SAR Target Recognition", IEEE JOURNAL OF SELECTED TOPICS IN APPLIED EARTH OBSERVATIONS AND REMOTE SENSING, 11 August 2021 (2021-08-11), pages 8386 - 8397, XP011876473, DOI: 10.1109/JSTARS.2021.3104267 *

Also Published As

Publication number Publication date
KR102597183B1 (en) 2023-11-03
KR20230026014A (en) 2023-02-24

Similar Documents

Publication Publication Date Title
EP3788559A1 (en) Quantization for dnn accelerators
CN110766142A (en) Model generation method and device
CN107038064B (en) Virtual machine management method and device and storage medium
KR102655950B1 (en) High speed processing method of neural network and apparatus using thereof
KR20190041819A (en) Apparatus and method for convolution operation of convolution neural network
WO2022146080A1 (en) Algorithm and method for dynamically changing quantization precision of deep-learning network
CN113869496A (en) Acquisition method of neural network, data processing method and related equipment
Huu et al. Proposing a recognition system of gestures using MobilenetV2 combining single shot detector network for smart-home applications
KR20210066545A (en) Electronic device, method, and computer readable medium for simulation of semiconductor device
WO2023022255A1 (en) Method and system for lightening deep learning model using pruning
CN111382839B (en) Method and device for pruning neural network
WO2022163985A1 (en) Method and system for lightening artificial intelligence inference model
CN117436485A (en) Multi-exit point end-edge-cloud cooperative system and method based on trade-off time delay and precision
CN115984084B (en) Remote sensing distributed data processing method based on dynamic detachable network
KR102561799B1 (en) Method and system for predicting latency of deep learning model in device
WO2023033194A1 (en) Knowledge distillation method and system specialized for pruning-based deep neural network lightening
WO2020091139A1 (en) Effective network compression using simulation-guided iterative pruning
US20210357753A1 (en) Method and apparatus for multi-level stepwise quantization for neural network
WO2023101079A1 (en) Method and system for restoring accuracy by modifying quantization model generated by compiler
WO2023017885A1 (en) Method and system for changing resolution of feature map according to changes in input resolution
CN114462571A (en) Deep learning model training method, data processing method and device
WO2016195225A1 (en) Mobile device to which dvfs technique for gpgpu application is applied
WO2022145550A1 (en) Algorithm and method for dynamically varying quantization precision of deep learning network
KR20210144510A (en) Method and apparatus for processing data using neural network
WO2023038159A1 (en) Method and system for optimizing deep-learning model through layer-by-layer lightening

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21954302

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE