WO2022107910A1 - 재학습 가능한 모바일 딥러닝 하드웨어 장치 - Google Patents

재학습 가능한 모바일 딥러닝 하드웨어 장치 Download PDF

Info

Publication number
WO2022107910A1
WO2022107910A1 PCT/KR2020/016308 KR2020016308W WO2022107910A1 WO 2022107910 A1 WO2022107910 A1 WO 2022107910A1 KR 2020016308 W KR2020016308 W KR 2020016308W WO 2022107910 A1 WO2022107910 A1 WO 2022107910A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
data
artificial intelligence
intelligence model
training data
Prior art date
Application number
PCT/KR2020/016308
Other languages
English (en)
French (fr)
Inventor
이상설
장성준
박종희
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Publication of WO2022107910A1 publication Critical patent/WO2022107910A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Definitions

  • the present invention relates to an artificial intelligence-related technology and a system on chip (SoC) to which the same is applied, and more particularly, to a deep learning hardware device capable of additional learning or re-learning in a mobile device for a deep learning model that has been trained.
  • SoC system on chip
  • the problem with the above technique is that, when additional is required, it is impossible for the user to directly develop using all data, and the deep learning hardware device of the mobile terminal lacks the resources to perform this.
  • the present invention has been devised to solve the above problems, and an object of the present invention is to reduce hardware resources used in the learning process and to reduce power consumption, using only specific data rather than re-learning using all data. It is to provide a mobile deep learning hardware device capable of re-learning.
  • an artificial intelligence model re-learning method includes: processing data with the learned artificial intelligence model; selecting learning data for re-learning the learned artificial intelligence model; and re-learning the learned artificial intelligence model using the selected learning data.
  • learning data having a probability of recognizing an object within a set range may be selected.
  • the selection step may exclude learning data having a probability of recognizing an object less than a reference.
  • the selection step may exclude learning data in which a probability of recognizing an object exceeds a criterion.
  • the standard can be set by the user.
  • the selection step may exclude training data for recognizing an object designated by the user.
  • the method for re-learning an artificial intelligence model comprises: receiving the selected training data as an encrypted compressed file; Decrypting and restoring the received compressed file; further comprising, in the re-learning step, the artificial intelligence model learned from the restored training data may be re-trained.
  • a mobile artificial intelligence model processing apparatus a calculator for processing data with the learned artificial intelligence model; and a memory in which learning data for re-learning the learned artificial intelligence model is stored, wherein the learning data to be re-learned is some of the training data selected from the entire training data set.
  • re-learning can be performed using only specific data rather than re-learning using all data, so that hardware resources used in the learning process can be reduced and power consumption can be reduced, so that mobile deep
  • the learning hardware device can directly perform re-learning.
  • a user can exclude unnecessary learning data sets, which is advantageous in terms of securing resources for re-learning, and it is possible to strengthen security.
  • FIG. 4 is a diagram showing the configuration of a mobile deep learning hardware device to which the present invention is applicable;
  • FIG. 6 is a flowchart provided to explain a mobile deep learning model re-learning method according to another embodiment of the present invention.
  • cloud-based AI learning requires a large amount of communication data and leakage of personal data, there are many applications that require on-device learning technology optimized for the user's individual environment.
  • FIGS. 1 and 2 A conceptual diagram of the reasoning and learning process is presented in FIGS. 1 and 2 .
  • the mobile deep learning hardware device to which the present invention is applicable comprises an external communication interface 110 , an external memory 120 , a DMA engine 130 , an operator 140 and an internal memory 150 . do.
  • the mobile deep learning hardware device as shown in Figure 4 receives all the data sets through the external communication interface 110 and it is impossible or inappropriate to store them in the external memory 120, so by applying the learning data sets in a new way Re-learning is necessary.
  • An embodiment of the present invention provides a method of selecting learning data for this purpose.
  • the DMA engine 130 is configured to support the DMA of the operator 140 and the internal memory 150, and the operator 140 processes input data with the learned deep learning model, and performs re-learning if necessary. .
  • the internal memory 150 has a batch cache that stores data in batch units, a batch is a bundle of data of a specific class, and the data of the class is data that can have a big impact on the learning process. are selected
  • training data for re-learning the deep learning model is selected, and only the selected training data is received through the external communication interface 110 and stored in the external memory 120 . do.
  • the training data selection may be performed by a mobile deep learning hardware device or a separate user terminal.
  • the learning data When selecting the learning data, only the learning data having a probability of recognizing an object within a set range is selected. That is, the learning data in which the probability of recognizing an object is less than the lower limit criterion (eg, less than 20%) is excluded, and the learning data in which the probability of recognizing the object exceeds the upper limit criterion (eg, more than 80%) is excluded.
  • the lower limit criterion eg, less than 20%
  • the upper limit criterion eg, more than 80%
  • the training data sets are arranged according to the accuracy of each target object, and it is confirmed that the result is probabilistically similar to a Gaussian distribution, and the setting ranges ⁇ (lower limit reference probability) and ⁇ (upper limit reference probability) according to the memory size probability) to control the amount of training data set.
  • the setting range ie, the upper limit standard and the lower limit standard, allows the user to set the desired value.
  • all of the training data for recognizing an object designated by the user in the training data set may be excluded. That is, as shown in FIG. 5 , it is possible to exclude all training data for recognizing the Deer.
  • the selected training data is received as an encrypted compressed file, and the artificial intelligence model is retrained after decrypting and restoring the received compressed file.
  • the key value for encryption can be set by the user.
  • FIG. 6 is a flowchart provided to explain a mobile deep learning model re-learning method according to another embodiment of the present invention.
  • an upper limit criterion and a lower limit criterion for selecting a part from the learning data set stored in the server are set (S220).
  • some of the learning data is selected according to the criteria set in step S220. Specifically, learning data having a probability of recognizing an object less than the lower limit criterion ( ⁇ ) is excluded (S230), and the probability of recognizing an object is lower than the upper limit criterion. ( ⁇ ) Excluding the training data in excess (S240).
  • learning data for recognizing an object designated by the user may be additionally excluded ( S250 ).
  • the selected training data set is delivered to the mobile deep learning hardware device as an encrypted compressed file (S260), and the mobile deep learning hardware device decrypts and restores the received compressed file (S270), and then replays the deep learning model. learning (S280).
  • a deep learning hardware device capable of additional learning and re-learning on a previously learned model in a mobile device
  • hardware in the form of directly learning in a user device is presented, and applied to a mobile-oriented semiconductor
  • a possible rewritable deep learning structure was proposed, and the security problem was solved in the form of including data management technology.
  • the technical idea of the present invention can be applied to a computer-readable recording medium containing a computer program for performing the functions of the apparatus and method according to the present embodiment.
  • the technical ideas according to various embodiments of the present invention may be implemented in the form of computer-readable codes recorded on a computer-readable recording medium.
  • the computer-readable recording medium may be any data storage device readable by the computer and capable of storing data.
  • the computer-readable recording medium may be a ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, hard disk drive, or the like.
  • the computer-readable code or program stored in the computer-readable recording medium may be transmitted through a network connected between computers.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Telephone Function (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

재학습 가능한 모바일 딥러닝 하드웨어 장치가 제공된다. 본 발명의 실시예에 따른 인공지능 모델 재학습 방법은, 학습된 인공지능 모델로 데이터를 처리하고, 학습된 인공지능 모델을 재학습할 학습 데이터를 선별하며, 선별된 학습 데이터를 이용하여 학습된 인공지능 모델을 재학습시킨다. 이에 의해, 모든 데이터를 이용한 재학습이 아닌 특정 데이터만을 이용하여 재학습을 진행할 수 있어, 학습 과정에서 사용되는 하드웨어 리소스 감소 및 저전력화가 가능하여, 모바일 딥러닝 하드웨어 장치가 직접 재학습을 수행할 수 있게 된다.

Description

재학습 가능한 모바일 딥러닝 하드웨어 장치
본 발명은 인공지능 관련 기술 및 이를 적용한 SoC(System on Chip)에 관한 것으로, 더욱 상세하게는 학습이 완료된 딥러닝 모델에 대해 모바일 디바이스에서 추가 학습 또는 재학습이 가능한 딥러닝 하드웨어 장치에 관한 것이다.
학습이 완료된 모델에서 신규 객체를 추가하기 위해서는, 학습에 사용된 모든 데이터 및 테스트에 사용된 모든 데이터에 추가된 신규 객체 데이터베이스를 추가하여 재학습을 수행하여 최종 DB를 생성한 후 최종 어플리케이션에 업데이트 하여야 한다.
위 기술의 문제점은 추가가 필요한 경우, 사용자가 직접 모든 데이터를 이용하여 개발하는 것은 불가능하며, 모바일 단말의 딥러닝 하드웨어 장치가 이를 수행할 리소스가 부족하다는 점이다.
나아가 재학습을 진행한다 하더라도 개인정보 관리가 취약하다는 문제가 있다.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 학습 과정에서 사용되는 하드웨어 리소스 감소 및 저전력화를 위한 방안으로, 모든 데이터를 이용한 재학습이 아닌 특정 데이터만을 이용하여 재학습을 진행할 수 있는 모바일 딥러닝 하드웨어 장치를 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 인공지능 모델 재학습 방법은, 학습된 인공지능 모델로 데이터를 처리하는 단계; 학습된 인공지능 모델을 재학습할 학습 데이터를 선별하는 단계; 선별된 학습 데이터를 이용하여 학습된 인공지능 모델을 재학습시키는 단계;를 포함한다.
선별 단계는, 객체를 인식할 확률이 설정 범위 이내인 학습 데이터를 선별할 수 있다. 선별 단계는, 객체를 인식할 확률이 기준 미만인 학습 데이터를 배제할 수 있다. 선별 단계는, 객체를 인식할 확률이 기준 초과인 학습 데이터를 배제할 수 있다. 기준은, 사용자가 설정가능하다.
선별 단계는, 사용자가 지정한 객체를 인식하기 위한 학습 데이터를 배제할 수 있다.
본 발명의 실시예에 따른 인공지능 모델 재학습 방법은, 선별된 학습 데이터를 암호화된 압축 파일로 수신하는 단계; 수신된 압축 파일을 복호화하고 복원하는 단계;를 더 포함하고, 재학습 단계는, 복원한 학습 데이터로 학습된 인공지능 모델을 재학습시킬 수 있다.
한편, 본 발명의 다른 실시예에 따른, 모바일 인공지능 모델 처리 장치는, 학습된 인공지능 모델로 데이터를 처리하는 연산기; 및 학습된 인공지능 모델을 재학습할 학습 데이터가 저장되는 메모리;를 포함하고, 재학습할 학습 데이터는, 전체 학습 데이터 셋에서 선별된 일부의 학습 데이터이다.
이상 설명한 바와 같이, 본 발명의 실시예들에 따르면, 모든 데이터를 이용한 재학습이 아닌 특정 데이터만을 이용하여 재학습을 진행할 수 있어, 학습 과정에서 사용되는 하드웨어 리소스 감소 및 저전력화가 가능하여, 모바일 딥러닝 하드웨어 장치가 직접 재학습을 수행할 수 있게 된다.
또한, 본 발명의 실시예들에 따르면, 사용자가 불필요한 학습 데이터 셋을 배제할 수 있어 재학습을 위한 리소스 확보 차원에서 유리하고, 보안을 강화시킬 수 있게 된다.
도 1은 추론 과정의 개념도,
도 2는 학습 과정의 개념도,
도 3은 Weight 업데이트의 개념도,
도 4는 본 발명이 적용가능한 모바일 딥러닝 하드웨어 장치의 구성을 도시한 도면,
도 5는 학습 데이터 선별 방법의 부연 설명에 제공되는 도면, 그리고,
도 6은 본 발명의 다른 실시예에 따른 모바일 딥러닝 모델 재학습 방법의 설명에 제공되는 흐름도이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
현재 대부분의 딥러닝 알고리즘은 다수의 고성능 GPU와 많은 양의 메모리를 보유하고 있는 서버에서 학습을 진행하기 때문에 컴퓨팅 리소스가 풍부하다. 하지만 모바일 디바이스의 경우 리소스 및 파워가 제한적이기 때문에, 필요한 연산량과 메모리 사용량을 줄이는 방법으로 하드웨어 개발이 진행된다.
모바일 다바이스를 위한 학습 전용 ASIC 및 FPGA 플랫폼에서 대량의 원본 학습 데이터를 이용한 학습은 불가능하게 히기 때문에 이를 보완하기 위한 기술이 필요하다.
또한, 클라우드 기반 인공지능 학습은 개인 데이터의 유출 문제와 통신 데이터량의 막대한 사용이 필요하므로, 사용자의 개별 환경에 최적화된 온-디바이스 학습 기술을 필요로 하는 어플리케이션도 다수 존재한다.
학습은 크게 추론(Inference) 과정과 Weight를 역으로 전파(Back-propagation)하는 과정으로 구성된다. 추론 및 학습 과정 개념도를 도 1 및 도 2에 제시하였다.
학습을 위해서는 현재 Weight를 기반으로 추론 과정을 거친 후에, Error 값을 연산하여 이전 Weight 값에 업데이트 하는 과정을 거치는데 도 3에 제시된 바와 같은 수식으로 설명이 가능하다.
도 4는 본 발명이 적용가능한 모바일 딥러닝 하드웨어 장치의 구성을 도시한 도면이다. 본 발명이 적용가능한 모바일 딥러닝 하드웨어 장치는, 도시된 바와 같이, 외부 통신 인터페이스(110), 외부 메모리(120), DMA 엔진(130), 연산기(140) 및 내부 메모리(150)를 포함하여 구성된다.
도 4에 도시된 바와 같은 모바일 딥러닝 하드웨어 장치는 외부 통신 인터페이스(110)를 통해 모든 데이터 셋을 제공받아 외부 메모리(120)에 저장하는 것이 불가능하거나 부적합하므로, 새로운 방식으로 학습 데이터 셋을 적용하여 재학습하는 것이 필요하다.
특히, 모든 학습 데이터 셋을 저장하기에 메모리 자원이 한정되어 있기 때문에, 학습 데이터를 저장하는 방법이 중요한 이슈가 된다. 본 발명의 실시예에서는 이를 위해 학습 데이터를 선별하는 방법을 제시한다.
DMA 엔진(130)은 연산기(140)와 내부 메모리(150)의 DMA를 지원하기 위한 구성이고, 연산기(140)는 학습된 딥러닝 모델로 입력 데이터를 처리하는 한편, 필요시 재학습을 수행한다.
재학습을 위해, 내부 메모리(150)는 Batch 단위로 데이터를 보관하는 Batch cache를 보유하고 있는데, Batch는 특정한 클래스의 데이터의 묶음이며, 클래스의 데이터는 학습 과정에서 큰 영향을 줄 수 있는 데이터로 선정된다.
구체적으로, 서버(미도시)에 저장된 학습 데이터들 중 딥러닝 모델을 재학습할 학습 데이터를 선별하고, 선별된 학습 데이터들만을 외부 통신 인터페이스(110)를 통해 수신하여 외부 메모리(120)에 저장한다.
학습 데이터 선별은 모바일 딥러닝 하드웨어 장치가 수행할 수도 있고, 별도의 사용자 단말이 수행할 수도 있다.
학습 데이터 선별시에는, 객체를 인식할 확률이 설정 범위 이내인 학습 데이터들만을 선별한다. 즉, 객체를 인식할 확률이 하한 기준 미만(이를 테면, 20% 미만)인 학습 데이터를 배제하고, 객체를 인식할 확률이 상한 기준 초과(이를 테면, 80% 초과)인 학습 데이터를 배제한다.
위에서 배제되는 학습 데이터들은 딥러닝 모델의 정확도를 향상시키는데 도움이 많이 되지 않기 때문이다. 다양한 데이터 셋(CIFAR-10, ImageNet 등)을 이용하여 측정해 본 결과 확률이 낮은 부분과 높은 부분을 제외하고 성능을 측정했을 경우, 이를 제외하지 않은 경우 대비 성능 열화가 거의 없음을 확인하였다.
도 5는 학습 데이터 셋들을 대상 객체 별로 정확도에 따라 배열한 것으로, 확률적으로 가우시안 분포와 유사한 형태로 결과가 나옴을 확인하여, 메모리 크기에 따라 설정 범위 α(하한 기준 확률)와 β(상한 기준 확률)를 변경하여 학습 데이터 셋의 양을 조절할 수 있다.
즉, 설정 범위, 즉 상한 기준과 하한 기준은 사용자가 원하는 값으로 설정할 수 있도록 한다.
또한, 필요 없는 학습 데이터 셋의 경우는 아예 학습 과정에서 배재할 경우 메모리 사용량을 더 줄일 수 있는 효과가 있으며, 해당 데이터 셋이 저장되어 있는 Batch를 새로운 데이터 셋으로 변경이 가능하다.
따라서, 학습 데이터 셋에서 사용자가 지정한 객체를 인식하기 위한 학습 데이터들은 모두 배제할 수 있다. 즉, 도 5에 나타난 바와 같이, Deer를 인식하기 위한 학습 데이터들을 모두 배제할 수 있는 것이다.
한편, 선별된 학습 데이터를 암호화된 압축 파일로 수신하여, 수신된 압축 파일을 복호화하고 복원한 후에 인공지능 모델을 재학습시킨다. 암호화를 위한 키값은 사용자가 설정할 수 있도록 한다.
도 6은 본 발명의 다른 실시예에 따른 모바일 딥러닝 모델 재학습 방법의 설명에 제공되는 흐름도이다.
모바일 딥러닝 하드웨어 장치의 딥러닝 모델에 대한 재학습의 필요가 발생하면(S210-Y), 먼저, 서버에 저장된 학습 데이터 셋에서 일부를 선별하기 위한 상한 기준과 하한 기준을 설정한다(S220).
이에, S220단계에서 설정된 기준에 따라 학습 데이터들 중 일부를 선별하는데, 구체적으로, 객체를 인식할 확률이 하한 기준(α) 미만인 학습 데이터들을 배제하고(S230), 객체를 인식할 확률이 상한 기준(β) 초과인 학습 데이터들을 배제한다(S240).
다음, 사용자가 지정한 객체를 인식하기 위한 학습 데이터들은 추가로 배제할 수 있다(S250).
이후, 선별된 학습 데이터 셋은 암호화된 압축 파일로 모바일 딥러닝 하드웨어 장치에 전달되는데(S260), 모바일 딥러닝 하드웨어 장치는 수신된 압축 파일을 복호화하고 복원한 후에(S270), 딥러닝 모델을 재학습시킨다(S280).
지금까지, 재학습 가능한 모바일 딥러닝 하드웨어 장치 및 이의 재학습 방법에 대해 바람직한 실시예를 들어 상세히 설명하였다.
본 발명의 실시예에서는, 기존에 학습이 완료된 모델을 모바일 디바이스에서 추가 학습 및 재학습이 가능한 딥러닝 하드웨어 장치로써, 사용자 디바이스에서 직접 학습을 진행하는 형태의 하드웨어를 제시하였으며, 모바일 향 반도체에 적용 가능한 재학습 가능한 딥러닝 구조를 제안하였고, 데이터 관리 기술을 포함하는 형태로 보안 문제를 해결하였다.
모든 데이터를 이용한 재학습이 아닌 특정 데이터만을 이용하여 재학습을 진행함으로써, 학습 과정에서 사용되는 하드웨어 리소스 및 저 전력화 개발이 가능하며, 다양한 객체의 추가 및 객체의 변경을 쉽게 할 수 있어 다양한 환경에서 사용이 가능한 모델이며, 민감한 데이터를 개인이 처리할 수 있는 구조이다.
이에 의해, 사용자가 새로운 데이터 셋을 이용한 학습 진행이 가능한 보안이 강화된 하드웨어 구조를 통해, 기존 데이터 셋의 안전한 관리 및 복잡한 학습 과정을 거치지 않고 간단히 자신의 모바일 디바이스를 이용하여 지속적인 데이터 업데이트가 가능해진다.
한편, 본 실시예에 따른 장치와 방법의 기능을 수행하게 하는 컴퓨터 프로그램을 수록한 컴퓨터로 읽을 수 있는 기록매체에도 본 발명의 기술적 사상이 적용될 수 있음은 물론이다. 또한, 본 발명의 다양한 실시예에 따른 기술적 사상은 컴퓨터로 읽을 수 있는 기록매체에 기록된 컴퓨터로 읽을 수 있는 코드 형태로 구현될 수도 있다. 컴퓨터로 읽을 수 있는 기록매체는 컴퓨터에 의해 읽을 수 있고 데이터를 저장할 수 있는 어떤 데이터 저장 장치이더라도 가능하다. 예를 들어, 컴퓨터로 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광디스크, 하드 디스크 드라이브, 등이 될 수 있음은 물론이다. 또한, 컴퓨터로 읽을 수 있는 기록매체에 저장된 컴퓨터로 읽을 수 있는 코드 또는 프로그램은 컴퓨터간에 연결된 네트워크를 통해 전송될 수도 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (8)

  1. 학습된 인공지능 모델로 데이터를 처리하는 단계;
    학습된 인공지능 모델을 재학습할 학습 데이터를 선별하는 단계;
    선별된 학습 데이터를 이용하여 학습된 인공지능 모델을 재학습시키는 단계;를 포함하는 것을 특징으로 하는 인공지능 모델 재학습 방법.
  2. 청구항 1에 있어서,
    선별 단계는,
    객체를 인식할 확률이 설정 범위 이내인 학습 데이터를 선별하는 것을 특징으로 하는 인공지능 모델 재학습 방법.
  3. 청구항 2에 있어서,
    선별 단계는,
    객체를 인식할 확률이 기준 미만인 학습 데이터를 배제하는 것을 특징으로 하는 인공지능 모델 재학습 방법.
  4. 청구항 3에 있어서,
    선별 단계는,
    객체를 인식할 확률이 기준 초과인 학습 데이터를 배제하는 것을 특징으로 하는 인공지능 모델 재학습 방법.
  5. 청구항 4에 있어서,
    기준은,
    사용자가 설정가능한 것을 특징으로 하는 인공지능 모델 재학습 방법.
  6. 청구항 1에 있어서,
    선별 단계는,
    사용자가 지정한 객체를 인식하기 위한 학습 데이터를 배제하는 것을 특징으로 하는 인공지능 모델 재학습 방법.
  7. 청구항 1에 있어서,
    선별된 학습 데이터를 암호화된 압축 파일로 수신하는 단계;
    수신된 압축 파일을 복호화하고 복원하는 단계;를 더 포함하고,
    재학습 단계는,
    복원한 학습 데이터로 학습된 인공지능 모델을 재학습시키는 것을 특징으로 하는 인공지능 모델 재학습 방법.
  8. 학습된 인공지능 모델로 데이터를 처리하는 연산기; 및
    학습된 인공지능 모델을 재학습할 학습 데이터가 저장되는 메모리;를 포함하고,
    재학습할 학습 데이터는,
    전체 학습 데이터 셋에서 선별된 일부의 학습 데이터인 것을 특징으로 하는 모바일 인공지능 모델 처리 장치.
PCT/KR2020/016308 2020-11-18 2020-11-19 재학습 가능한 모바일 딥러닝 하드웨어 장치 WO2022107910A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0154273 2020-11-18
KR1020200154273A KR20220067732A (ko) 2020-11-18 2020-11-18 재학습 가능한 모바일 딥러닝 하드웨어 장치

Publications (1)

Publication Number Publication Date
WO2022107910A1 true WO2022107910A1 (ko) 2022-05-27

Family

ID=81709146

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/016308 WO2022107910A1 (ko) 2020-11-18 2020-11-19 재학습 가능한 모바일 딥러닝 하드웨어 장치

Country Status (2)

Country Link
KR (1) KR20220067732A (ko)
WO (1) WO2022107910A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101472452B1 (ko) * 2010-11-17 2014-12-17 한국전자통신연구원 멀티미디어 데이터 검색 방법, 장치 및 패턴인식 방법
KR101864412B1 (ko) * 2017-12-28 2018-06-04 (주)휴톰 학습용 데이터 관리방법, 장치 및 프로그램
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition
KR20190135329A (ko) * 2018-05-28 2019-12-06 삼성에스디에스 주식회사 컴퓨팅 시스템 및 상기 장치에서 수행되는 데이터 라벨링 방법
KR20200082490A (ko) * 2018-12-28 2020-07-08 사단법인 한국인지과학산업협회 기계 학습 데이터 선택 방법 및 장치
KR20200120469A (ko) * 2019-04-12 2020-10-21 삼성전자주식회사 인공지능 모델을 갱신하는 전자 장치, 서버 및 그 동작 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101472452B1 (ko) * 2010-11-17 2014-12-17 한국전자통신연구원 멀티미디어 데이터 검색 방법, 장치 및 패턴인식 방법
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition
KR101864412B1 (ko) * 2017-12-28 2018-06-04 (주)휴톰 학습용 데이터 관리방법, 장치 및 프로그램
KR20190135329A (ko) * 2018-05-28 2019-12-06 삼성에스디에스 주식회사 컴퓨팅 시스템 및 상기 장치에서 수행되는 데이터 라벨링 방법
KR20200082490A (ko) * 2018-12-28 2020-07-08 사단법인 한국인지과학산업협회 기계 학습 데이터 선택 방법 및 장치
KR20200120469A (ko) * 2019-04-12 2020-10-21 삼성전자주식회사 인공지능 모델을 갱신하는 전자 장치, 서버 및 그 동작 방법

Also Published As

Publication number Publication date
KR20220067732A (ko) 2022-05-25

Similar Documents

Publication Publication Date Title
EP4167130A1 (en) Neural network training method and related device
Kuh et al. Learning time-varying concepts
WO2020111647A1 (en) Multi-task based lifelong learning
US9852177B1 (en) System and method for generating automated response to an input query received from a user in a human-machine interaction environment
CN108629400A (zh) 一种基于Levy搜索的混沌人工蜂群算法
CN114332545A (zh) 一种基于低比特脉冲神经网络的图像数据分类方法和装置
WO2022255564A1 (ko) 생체신호 분석 방법
CN114513337B (zh) 一种基于邮件数据的隐私保护链接预测方法及系统
WO2022107910A1 (ko) 재학습 가능한 모바일 딥러닝 하드웨어 장치
US11095672B2 (en) Method for evaluating domain name and server using the same
WO2023033194A1 (ko) 가지치기 기반 심층 신경망 경량화에 특화된 지식 증류 방법 및 시스템
WO2020091139A1 (ko) 시뮬레이션-가이드된 반복적 프루닝을 사용하는 효율적인 네트워크 압축
WO2022107925A1 (ko) 딥러닝 객체 검출 처리 장치
WO2022163985A1 (ko) 인공지능 추론모델을 경량화하는 방법 및 시스템
WO2023027277A1 (ko) 신경망 모델의 다양성을 위한 학습 방법
WO2023085457A1 (ko) 효율적인 딥러닝 학습을 위한 메모리 구조 및 제어 방법
WO2023080292A1 (ko) 딥러닝 가속장치를 위한 적응적 파라미터 생성 장치 및 방법
WO2021107231A1 (ko) 계층적 단어 정보를 이용한 문장 인코딩 방법 및 장치
WO2022102912A1 (ko) Snn 모델 파라미터를 기반으로 모델 수행을 위한 뉴로모픽 아키텍처 동적 선택 방법, 이를 수행하기 위한 기록 매체 및 장치
WO2023085458A1 (ko) 경량 딥러닝 학습 메모리 제어 방법 및 장치
WO2024058465A1 (ko) 연합 학습을 위한 지역 신경망 모델 학습 방법
WO2024090600A1 (ko) 딥러닝 모델 학습 방법 및 이를 적용한 딥러닝 연산장치
WO2022107951A1 (ko) 초경량 딥러닝 네트워크 학습 방법
Saitou et al. Grey Wolf Optimization using Improved mutation oppositional based learning for optimization problems
WO2022145550A1 (ko) 딥러닝 네트워크의 동적 양자화 정밀도 가변 알고리즘 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20962516

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20962516

Country of ref document: EP

Kind code of ref document: A1