KR20220010927A - 엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법 - Google Patents

엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법 Download PDF

Info

Publication number
KR20220010927A
KR20220010927A KR1020200089662A KR20200089662A KR20220010927A KR 20220010927 A KR20220010927 A KR 20220010927A KR 1020200089662 A KR1020200089662 A KR 1020200089662A KR 20200089662 A KR20200089662 A KR 20200089662A KR 20220010927 A KR20220010927 A KR 20220010927A
Authority
KR
South Korea
Prior art keywords
neural network
edge
artificial intelligence
network layer
information
Prior art date
Application number
KR1020200089662A
Other languages
English (en)
Inventor
엄재군
Original Assignee
삼성전기주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전기주식회사 filed Critical 삼성전기주식회사
Priority to KR1020200089662A priority Critical patent/KR20220010927A/ko
Priority to US17/067,062 priority patent/US20220019889A1/en
Priority to CN202011561010.4A priority patent/CN114037882A/zh
Publication of KR20220010927A publication Critical patent/KR20220010927A/ko

Links

Images

Classifications

    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Abstract

본 발명의 일 실시 예에 따른 엣지 인공지능 모듈은, 각각 복수의 제1 셀을 포함하고 서로 연결된 적어도 하나의 제1 신경망 층; 및 각각 복수의 제2 셀을 포함하고 서로 연결된 적어도 하나의 제2 신경망 층; 을 포함하고, 적어도 하나의 제1 신경망 층 중 하나와 적어도 하나의 제2 신경망 층 중 하나는 서로 연결되고, 적어도 하나의 제1 신경망 층은 엣지 인공지능 모듈의 외부에서의 학습에 기반한 제1 가중치 정보를 제공받도록 구성되고, 적어도 하나의 제2 신경망 층은 제1 가중치 정보보다 외부에 대해 더 독립적인 제2 가중치 정보를 가지도록 구성될 수 있다.

Description

엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법{edge artificial intelligence module and method for upgrading weight of edge artificial intelligence module}
본 발명은 엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법에 관한 것이다.
현재 대부분의 개발되는 인공지능(AI) 서비스는 단말기(예: 핸드폰, 또는 인공지능스피커)에서 센서를 통해 신호 입력을 받고 실제 연산을 하기 위해 인공지능 클라우드(AI Cloud)를 통해 학습 및 추론이 진행되는 방향으로 발전하고 있다. 즉 예를 들면 AI스피커로 입력된 음성을 클라우드로 보내 클라우드에 AI가 답변을 찾은뒤 이를 다시 스피커로 전송하는 방식을 이용하고 있다. 이에 결과를 받기 위해 최소한의 시간이 소비가 되는 문제점이 있었다. 또한 통신을 해야하기 때문에 해킹에 취약함 또한 가지고 있다. 이에 새롭게 제안되는 서비스의 형태가 엣지 인공지능(Edge Ai) 칩으로 기기에 직접 탑재되어 AI를 단말기에서 수행하는 기술이 대두되고 있다. 엣지 인공지능(Edge Ai) 칩의 성능이 발전할수록 데이터 양이 늘고 더 나은 서비스를 제공할 수 있게 될것이라 예상되며 많은 기존 CPU업체들이 신경망을 이용한 엣지 인공지능(Edge Ai) 칩 개발에 뛰어 들고 있는 실정이다. 하지만 이 또한 현재 클라우드 서비스에 비해 엣지 인공지능(Edge Ai) 처리속도는 단말기 크기 및 엣지 인공지능(Edge Ai) 칩의 한계로 제공할 수 있는 서비스가 매우 한정적일 것으로 예상된다. 이에 단말기에 엣지 인공지능(Edge Ai) 칩이 처리할 수 있는 한정되는 Data를 위해 클라우드와 Edge 가 특정부분을 나누어서 수행하거나 엣지 인공지능(Edge Ai) 칩의 데이터 처리를 도움을 줄수 있는 외부 장치가 추가로 필요할 것이다. 하지만 현재 엣지 인공지능(Edge Ai) 컴퓨팅을 위해 처리할 수 있는 능력에 한계로 인해 Cloudl의 그것보다 (1000tops) 5-10tops로 그 기능이 매우 제한적으로 사용된다. 이 경우, 하나의 AI 연산처리 IC에서 수행할 수 있는 기능은 매우 제한적일 것으로 예상되어 여러 기능을 수행하려면 여러 NPU IC에서 각각의 다른 기능을 수행하는 장치의 필요성이 예상된다.
AI Engineer가 개발시에 다양한 입력신호들을 신경망(neural network)에 입력으로 받아들이고 이를 각 층(layer)에서 알고리즘에 의해 복합 연산하여, 원하고자 하는 출력을 얻어낸다. 이 경우, 연산의 정확도를 높여서 정확한 정보를 해석하기 위해서는 다양한 가중치가 주어져 학습될 수 있다. 각 가중치를 각 세포와 세포의 연결에 주어야 더 많은 해석을 할 수 있어 다양한 층이 요구될 수 있다. 그러나 이러한 중간 레이어들이 많을수록 성능이 개선될 여지는 있지만 너무 많이 생성되면 다양한 학습(training)을 통해 적절한 층을 얻어내는 것이 중요할 수 있다.
이러한 신경망 구조에서 어떻게 가중치 W를 찾아내는가 하는 것이 AI 성능에 가장 중요한 요소가 될 수 있으며 이는 학습이라는 단계를 통해 가중치(W)를 갱신시킬 수 있다. 즉 에러가 줄어드는 방향으로 W를 계속 갱신하여 예측한 값과 실제값이 같아지도록 계산 학습(training)시키는 과정을 거칠 수 있다. 즉 이런 반복적인 작업으로 W값은 계속 업데이트 될 수 있으며, W 값을 찾아주는 학습(training)과정을 계속 수행하는 것이 AI system의 특징이 된다.
엣지 인공지능(Edge Ai) 칩의 경우 연산량의 한계로 훈련 연산을 수행하기 위한 기능을 모든 층에서 수행 하기에는 어려운 경우가 있다.
공개특허공보 제10-2019-0096311호
본 발명은 엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법을 제공한다.
본 발명의 일 실시 예에 따른 엣지 인공지능 모듈은, 각각 복수의 제1 셀을 포함하고 서로 연결된 적어도 하나의 제1 신경망 층; 및 각각 복수의 제2 셀을 포함하고 서로 연결된 적어도 하나의 제2 신경망 층; 을 포함하고, 상기 적어도 하나의 제1 신경망 층 중 하나와 상기 적어도 하나의 제2 신경망 층 중 하나는 서로 연결되고, 상기 적어도 하나의 제1 신경망 층은 엣지 인공지능 모듈의 외부에서의 학습에 기반한 제1 가중치 정보를 제공받도록 구성되고, 상기 적어도 하나의 제2 신경망 층은 상기 제1 가중치 정보보다 상기 외부에 대해 더 독립적인 제2 가중치 정보를 가지도록 구성될 수 있다.
본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 가중치 업그레이드 방법은, 전자기기가, 엣지 인공지능 모듈의 적어도 하나의 제2 신경망 층으로 제2 가중치 정보를 제공하는 단계; 상기 전자기기가, 상기 엣지 인공지능 모듈의 외부로 변수 정보를 송신하는 단계; 상기 전자기기가, 상기 변수 정보가 송신됨에 따라 상기 엣지 인공지능 모듈의 외부로부터 제1 가중치 정보를 수신하는 단계; 및 상기 전자기기가, 상기 엣지 인공지능 모듈의 적어도 하나의 제1 신경망 층으로 상기 제1 가중치 정보를 제공하는 단계; 를 포함할 수 있다.
본 발명의 일 실시 예에 따르면, 엣지 인공지능 모듈의 연산 한계는 높아질 수 있으며, 엣지 인공지능 모듈은 성능/사이즈 대비 복잡한 인공지능 기능을 보다 신속하게 제공할 수 있다.
도 1a 및 도 1b는 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈을 나타낸 도면이다.
도 2a 및 도 2b는 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 외부를 나타낸 도면이다.
도 3a 및 도 3b는 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 가중치 업그레이드 방법을 나타낸 순서도이다.
도 4는 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 가중치를 나타낸 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1a 및 도 1b는 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈을 나타낸 도면이다.
도 1a를 참조하면, 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈(100a)은, 적어도 하나의 제1 신경망 층(110) 및 적어도 하나의 제2 신경망 층(120)을 포함할 수 있다.
예를 들어, 적어도 하나의 제1 신경망 층(110) 및 적어도 하나의 제2 신경망 층(120)은 엣지 인공지능 모듈(100a)에 포함될 수 있는 NPU(Neural Processing Unit)의 적어도 일부의 층으로 구현될 수 있다. 예를 들어, NPU는 IC(Integrated Circuit)로 구현될 수 있으며, PCB와 같은 기판 상에 실장될 수 있으며, 기판의 배선에 전기적으로 연결될 수 있다.
예를 들어, 적어도 하나의 제1 신경망 층(110)은 복수의 제1 셀(c1)을 포함하는 제1 신경망 층(111)과, 복수의 제1 셀(c2)을 포함하는 제1 신경망 층(112)과, 복수의 제1 셀(c3)을 포함하는 제1 신경망 층(113)과, 복수의 제1 셀(c4)을 포함하는 제1 신경망 층(114)과, 복수의 제1 셀(c5)을 포함하는 제1 신경망 층(115)이 서로 순차적으로 연결된 구조를 가질 수 있다.
예를 들어, 적어도 하나의 제2 신경망 층(120)은 복수의 제2 셀(c6)을 포함하는 제2 신경망 층(121)과, 복수의 제2 셀(c7)을 포함하는 제2 신경망 층(122)과, 복수의 제2 셀(c8)을 포함하는 제2 신경망 층(123)이 서로 순차적으로 연결된 구조를 가질 수 있다.
예를 들어, 적어도 하나의 제1 신경망 층(110) 및 적어도 하나의 제2 신경망 층(120)은 영상 데이터를 인식할 수 있는 컨볼루션(convolution) 신경망, BPTT(Back Propagation Through Time) 특성과 같은 연속 시간 특성을 갖는 데이터를 인식할 수 있는 리커런트(recurrent) 신경망으로 구현될 수 있으며, LSTM(Long Short-Term Memory) 방식과 같은 딥 러닝(deep Learning) 구조를 가질 수 있으며, 입력 층(Input Layer), 은닉 층(Hidden Layer), 완전 연결 층(Fully Connected Layer) 및 출력 층(Output Layer)과 같은 다양한 유형의 층으로 구현될 수 있다.
적어도 하나의 제1 신경망 층(110) 중 하나의 제1 신경망 층(115)과, 적어도 하나의 제2 신경망 층(120) 중 하나의 제2 신경망 층(116)은 서로 연결될 수 있다.
적어도 하나의 제1 신경망 층(110) 중 하나의 제1 신경망 층(111)은 입력 변수 정보를 입력 받을 수 있으며, 적어도 하나의 제2 신경망 층(120) 중 하나의 제2 신경망 층(118)은 출력 변수 정보를 출력할 수 있다.
엣지 인공지능 모듈(100a)은 상기 출력 변수 정보와 예상 출력 변수 정보 간의 차이 정보를 연산하고, 상기 차이 정보에 기반하여 신경망 층의 가중치 정보를 업데이트할 수 있으며, 가중치 정보가 업데이트된 이후의 출력 변수 정보와 예상 출력 변수 정보 간의 차이 정보를 반복적으로 연산하고, 상기 차이 정보에 기반하여 신경망 층의 가중치 정보를 반복적으로 업데이트할 수 있다. 이에 따라, 출력 변수 정보와 예상 출력 변수 정보 간의 차이는 점진적으로 줄어들 수 있으며, 엣지 인공지능 모듈(100a)은 학습될 수 있다.
이러한 학습 과정은 많은 연산 과정을 포함할 수 있으며, 많은 연산 과정은 NPU의 성능 및/또는 규모의 증가를 유발할 수 있으며, 엣지 인공지능 모듈(100a)의 전체 사이즈 및 단가의 증가를 유발할 수 있으며, 엣지 인공지능 모듈(100a)이 배치되는 전자기기의 사이즈 및 단가의 증가도 유발할 수 있다.
적어도 하나의 제1 신경망 층(110)은 엣지 인공지능 모듈(100a)의 외부에서의 학습에 기반한 제1 가중치 정보(w1, w2, w3, w4, w5)를 제공받도록 구성될 수 있으며, 적어도 하나의 제2 신경망 층(120)은 제1 가중치 정보보다 외부에 대해 더 독립적인 제2 가중치 정보(w6, w7, w8)를 가지도록 구성될 수 있다.
이에 따라, 엣지 인공지능 모듈(100a)의 학습 과정에 포함된 많은 연산 과정 중 제1 가중치 정보에 대응되는 연산 과정은 엣지 인공지능 모듈(100a)의 외부에서 수행될 수 있으므로, 엣지 인공지능 모듈(100a)의 학습 과정의 총 연산 양은 감소할 수 있다. 따라서, 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈(100a)의 전체 사이즈 및 단가는 감소할 수 있으며, 엣지 인공지능 모듈(100a)이 배치되는 전자기기의 사이즈 및 단가도 감소할 수 있다.
예를 들어, 적어도 하나의 제1 신경망 층(110)은 엣지 인공지능 모듈(100a)의 외부에 원격 접속될 수 있으며, 적어도 하나의 제2 신경망 층(120)은 엣지 인공지능 모듈(100a)의 외부에 원격 접속되지 않도록 구성될 수 있다.
한편, 제1 가중치 정보(w1, w2, w3, w4, w5)는 제1 신경망 층(111, 112, 113, 114, 115)의 복수의 제1 셀(c1, c2, c3, c4, c5)에 적용될 수 있으며, 외부의 특징 추출용 신경망에서 학습될 수 있다. 제2 가중치 정보(w6, w7, w8)는 제2 신경망 층(116, 117, 118)의 복수의 제2 셀(c6, c7, c8)에 적용될 수 있으며, 초기 가중치에 대응될 수 있다. 제1 가중치 정보(w1, w2, w3, w4, w5)와 제2 가중치 정보(w6, w7, w8)의 적용 순서는 NPU의 성능이나 인공지능 기능의 특성에 따라 달라질 수 있다.
도 1b를 참조하면, 본 발명의 일 실시 예에 따른 전자기기(200b)는 엣지 인공지능 모듈(131), 통신 접속(133), 입력 디바이스(134) 및 출력 디바이스(135)를 포함할 수 있으며, 통신 접속(133)을 통해 네트워크(136) 및 컴퓨팅 디바이스(137)와의 통신을 수행할 수 있다. 엣지 인공지능 모듈(131)은 메모리(132a)를 포함할 수 있다.
예를 들어, 전자기기(200b)는 스마트 폰(smart phone), 개인용 정보 단말기(personal digital assistant), 디지털 비디오 카메라(digital video camera), 디지털 스틸 카메라(digital still camera), 네트워크 시스템(network system), 컴퓨터(computer), 모니터(monitor), 태블릿(tablet), 랩탑(laptop), 넷북(netbook), 텔레비전(television), 비디오 게임(video game), 스마트 워치(smart watch), 오토모티브(Automotive) 중 하나일 수 있다.
메모리(132a)는 입력 변수 정보를 저장할 수 있다. 예를 들어, 메모리(132a)는 휘발성 메모리(예를 들어, RAM 등), 비휘발성 메모리(예를 들어, ROM, 플래시 메모리 등) 또는 이들의 조합일 수 있으며, 자기 스토리지, 광학 스토리지 등과 같은 스토리지(storage)일 수 있으며, 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 가중치 업그레이드 방법에 대응되는 알고리즘을 저장할 수 있다.
입력 디바이스(134)는 전자기기(200b)의 주변으로부터 입력 변수 정보에 대응되는 입력 신호를 획득할 수 있다. 예를 들어, 입력 디바이스(134)는 키보드, 마우스, 펜, 음성 입력 디바이스, 터치 입력 디바이스, 카메라, 비디오 입력 디바이스 등일 수 있다.
예를 들어, 전자기기(200b)는 입력 디바이스(134)로부터 입력된 영상 정보를 처리함에 따라 추출되는 변수 정보를 저장할 수 있으며, 상기 변수 정보를 통신 접속(133)을 통해 전자기기(200b)의 외부로 원격 송신할 수 있다.
출력 디바이스(135)는 출력 변수 정보에 대응되는 출력 신호를 출력할 수 있다. 예를 들어, 출력 디바이스(135)는 디스플레이, 스피커, 프린터 등일 수 있다.
예를 들어, 출력 변수 정보는 물체의 위치판단과 거리 시간 등의 데이터일 수 있으며, 제동장치나 제어장치에 제동을 위한 판단 데이터일 수 있으며, 사물 또는 사람의 인식 및 좌표, 거리 인식 등의 데이터일 수 있다.
예를 들어, 통신 접속(133)은 모뎀, 네트워크 인터페이스 카드(NIC), 통합 네트워크 인터페이스, 무선 주파수 송신기/수신기, 적외선 포트, USB 접속 등일 수 있다. 통신 접속(133)은 입력 변수 정보를 전자기기(200b)의 외부로 송신할 수 있으며, 제1 가중치 정보를 전자기기(200b)의 외부로부터 수신할 수 있다.
여기서, 전자기기(200b)의 외부는 컴퓨팅 디바이스(137)일 수 있다. 컴퓨팅 디바이스(137)는 전자기기(200b)와 동일한 유형의 외부 전자기기일 수 있다. 예를 들어, 컴퓨팅 디바이스(137)는 개인 컴퓨터, 서버 컴퓨터, 핸드헬드 또는 랩탑 디바이스, 모바일 디바이스(모바일폰, PDA, 미디어 플레이어 등), 멀티프로세서 시스템, 소비자 전자기기, 미니 컴퓨터, 메인프레임 컴퓨터, 임의의 전술된 시스템 또는 디바이스를 포함하는 분산 컴퓨팅 환경 등일 수 있으며, 클라우드(cloud) 시스템을 포함할 수 있다.
도 2a 및 도 2b는 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 외부를 나타낸 도면이다.
도 2a를 참조하면, 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈(100c)의 외부는 엣지 인공지능 모듈(100c)을 포함하는 전자기기(200)일 수 있으며, 전자기기(200)의 외부(300)일 수 있다. 전자기기(200)의 외부(300)는 클라우드(Cloud)나 외부 전자기기일 수 있다.
엣지 인공지능 모듈(100c)의 적어도 하나의 제1 신경망 층은 엣지 인공지능 모듈(100c)이 배치된 전자기기(200)의 외부(300)로부터 제1 가중치 정보를 제공받도록 구성될 수 있다. 예를 들어, 엣지 인공지능 모듈(100c)은 제1 가중치 정보를 주기적으로 정해진 시스템에 의해 원격으로 제공받거나 전자기기(200)의 사용자가 미리 설정한 조건이나 사용자의 입력 정보에 의해 원격으로 제공받을 수 있다.
이에 따라, 엣지 인공지능 모듈(100c)은 제1 가중치 정보의 학습 과정의 연산 양이 비교적 많은 인공지능 기능을 보다 효율적으로 구현할 수 있다.
엣지 인공지능 모듈(100c)의 적어도 하나의 제1 신경망 층은 엣지 인공지능 모듈(100c)이 배치된 전자기기(200)의 변수 정보가 외부 전자기기 또는 클라우드로 송신됨에 따라 제1 가중치 정보를 제공받도록 구성될 수 있다.
이에 따라, 엣지 인공지능 모듈(100c)은 제1 가중치 정보의 학습 과정의 연산 양이 비교적 많은 인공지능 기능의 정확도를 보다 효율적으로 향상시킬 수 있다.
엣지 인공지능 모듈(100c)의 적어도 하나의 제2 신경망 층은 적어도 하나의 제1 신경망 층이 제1 가중치 정보를 제공받음에 따라 제2 가중치 정보의 가중치 업그레이드를 위한 연산 과정을 수행하도록 구성될 수 있다.
이에 따라, 엣지 인공지능 모듈(100c)은 학습된 제1 가중치 정보에 기반하여 제2 가중치 정보를 보다 효율적으로 학습시킬 수 있다.
도 2b를 참조하면, 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈(100d)은 메모리(132b)에 저장된 입력 변수 정보를 제공받을 수 있다. 상기 입력 변수 정보는 전자기기(200)의 외부(300)로 송신될 수 있다. 메모리(132b)는 엣지 인공지능 모듈(100c)을 포함하는 전자기기(200)에 포함될 수 있고, 설계에 따라 엣지 인공지능 모듈(100c)에 포함될 수 있다.
도 3a 및 도 3b는 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 가중치 업그레이드 방법을 나타낸 순서도이다.
도 3a를 참조하면, 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 가중치 업그레이드 방법에 따라, 전자기기는, 엣지 인공지능 모듈의 적어도 하나의 제2 신경망 층으로 제2 가중치 정보를 제공(S110)할 수 있으며, 엣지 인공지능 모듈의 외부로 변수 정보를 송신(S120)할 수 있으며, 변수 정보가 송신됨에 따라 엣지 인공지능 모듈의 외부로부터 제1 가중치 정보를 수신(S130)할 수 있으며, 엣지 인공지능 모듈의 적어도 하나의 제1 신경망 층으로 제1 가중치 정보를 제공(S140)할 수 있다.
이에 따라, 엣지 인공지능 모듈의 학습 과정에 포함된 많은 연산 과정 중 제1 가중치 정보에 대응되는 연산 과정은 엣지 인공지능 모듈의 외부에서 수행될 수 있으므로, 엣지 인공지능 모듈의 학습 과정의 총 연산 양은 감소할 수 있다. 따라서, 엣지 인공지능 모듈의 전체 사이즈 및 단가는 감소할 수 있으며, 엣지 인공지능 모듈이 배치되는 전자기기의 사이즈 및 단가도 감소할 수 있다.
본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 가중치 업그레이드 방법에 따라, 전자기기는, 엣지 인공지능 모듈로 상기 제1 가중치 정보를 제공한 이후에 엣지 인공지능 모듈의 가중치 업그레이드를 위한 입력 변수 정보를 엣지 인공지능 모듈로 입력(S150)할 수 있다.
도 3b를 참조하면, 변수 정보를 송신하는 단계(S120)와, 제1 가중치 정보를 수신하는 단계(S130)와, 제1 가중치 정보를 제공하는 단계(S140) 각각은, 제2 가중치 정보를 제공하는 단계(S110)보다 더 많은 횟수만큼 반복적으로 수행될 수 있다.
도 4는 본 발명의 일 실시 예에 따른 엣지 인공지능 모듈의 가중치를 나타낸 도면이다.
도 4를 참조하면, 과거 신경망(410)은 과거의 입력 정보(xt-1)를 입력 받고, 과거의 출력 정보(ht-1)와 과거의 상태 정보(Ct-1)를 출력할 수 있다.
현재 신경망(420)은 현재의 입력 정보(xt)와 과거의 출력 정보(ht-1)와 과거의 상태 정보(Ct-1)를 입력 받고, 현재의 출력 정보(ht)와 현재의 상태 정보(Ct)를 출력할 수 있다.
미래 신경망(430)은 미래의 입력 정보(xt+1)와 현재의 출력 정보(ht)와 현재의 상태 정보(Ct)를 입력 받고, 미래의 출력 정보(ht+1)와 미래의 상태 정보(Ct+1)를 출력할 수 있다.
신경망은 현재의 입력 정보(xt)와 과거의 출력 정보(ht-1)에 시그모이드 함수(σ) 또는 쌍곡선 탄젠트(hyperbolic tangent) 함수(tanh)를 이용하여 변수를 생성할 수 있으며, 상기 변수를 매개로 하여 현재의 출력 정보(ht)를 출력할 수 있다.
시그모이드 함수(σ)와 쌍곡선 탄젠트 함수(tanh)는 입력값이 0에서 무한대 중 하나일 때 0 내지 1의 출력값을 출력하는 함수이며, 비선형적인 입력값을 선형적인 출력값으로 변환함으로써, 신경망의 변수 생성 과정에 동적 특성을 부여할 수 있다.
상기 신경망은 과거의 입력 정보(xt-1)에 기초하여 과거의 출력 정보(ht-1)를 생성하였으며, 과거의 상태 정보를 가질 수 있다.
이후, 상기 신경망은 하기의 수학식 1에 따른 함수를 이용하여 과거의 상태 정보(Ct-1)에서 버릴 정보를 선택할 수 있다.
Figure pat00001
또한, 상기 신경망은 하기의 수학식 2 내지 수학식 4에 따른 함수를 이용하여 과거의 상태 정보(Ct-1)에서 추가로 기억될 정보를 생성함으로써, 현재의 상태 정보(Ct)를 생성할 수 있다. 여기서, Wi와 Wc는 제1 또는 제2 가중치 정보이고, bf는 상수이다.
Figure pat00002
Figure pat00003
Figure pat00004
또한, 상기 신경망은 하기의 수학식 5 및 수학식 6에 따른 함수를 이용하여 현재의 출력 정보(ht)를 생성할 수 있다.
Figure pat00005
Figure pat00006
한편, Wt와 Wi와 Wc는 제1 또는 제2 가중치 정보이고, bf와 bi와 bc와 bo는 상수이다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
100a: 엣지 인공지능 모듈
110: 적어도 하나의 제1 신경망 층
120: 적어도 하나의 제2 신경망 층
200: 엣지 인공지능 모듈이 배치된 전자기기
300: 전자기기의 외부

Claims (11)

  1. 각각 복수의 제1 셀을 포함하고 서로 연결된 적어도 하나의 제1 신경망 층; 및
    각각 복수의 제2 셀을 포함하고 서로 연결된 적어도 하나의 제2 신경망 층; 을 포함하고,
    상기 적어도 하나의 제1 신경망 층 중 하나와 상기 적어도 하나의 제2 신경망 층 중 하나는 서로 연결되고,
    상기 적어도 하나의 제1 신경망 층은 엣지 인공지능 모듈의 외부에서의 학습에 기반한 제1 가중치 정보를 제공받도록 구성되고,
    상기 적어도 하나의 제2 신경망 층은 상기 제1 가중치 정보보다 상기 외부에 대해 더 독립적인 제2 가중치 정보를 가지도록 구성된 엣지 인공지능 모듈.
  2. 제1항에 있어서,
    상기 적어도 하나의 제1 신경망 층은 상기 엣지 인공지능 모듈이 배치된 전자기기의 외부 전자기기 또는 클라우드로부터 상기 제1 가중치 정보를 제공받도록 구성된 엣지 인공지능 모듈.
  3. 제2항에 있어서,
    상기 적어도 하나의 제1 신경망 층은 상기 엣지 인공지능 모듈이 배치된 전자기기의 변수 정보가 상기 외부 전자기기 또는 클라우드로 송신됨에 따라 상기 제1 가중치 정보를 제공받도록 구성된 엣지 인공지능 모듈.
  4. 제2항에 있어서,
    변수 정보를 저장하는 메모리를 더 포함하고,
    상기 적어도 하나의 제1 신경망 층은 상기 변수 정보가 상기 외부 전자기기 또는 클라우드로 송신됨에 따라 상기 제1 가중치 정보를 제공받도록 구성된 엣지 인공지능 모듈.
  5. 제1항에 있어서,
    상기 적어도 하나의 제2 신경망 층은 상기 적어도 하나의 제1 신경망 층이 상기 제1 가중치 정보를 제공받음에 따라 상기 제2 가중치 정보의 가중치 업그레이드를 위한 연산 과정을 수행하도록 구성된 엣지 인공지능 모듈.
  6. 제1항의 엣지 인공지능 모듈을 포함하는 전자기기.
  7. 전자기기가, 엣지 인공지능 모듈의 적어도 하나의 제2 신경망 층으로 제2 가중치 정보를 제공하는 단계;
    상기 전자기기가, 상기 엣지 인공지능 모듈의 외부로 변수 정보를 송신하는 단계;
    상기 전자기기가, 상기 변수 정보가 송신됨에 따라 상기 엣지 인공지능 모듈의 외부로부터 제1 가중치 정보를 수신하는 단계; 및
    상기 전자기기가, 상기 엣지 인공지능 모듈의 적어도 하나의 제1 신경망 층으로 상기 제1 가중치 정보를 제공하는 단계; 를 포함하는 엣지 인공지능 모듈의 가중치 업그레이드 방법.
  8. 제7항에 있어서,
    상기 전자기기가, 상기 엣지 인공지능 모듈로 상기 제1 가중치 정보를 제공한 이후에 상기 엣지 인공지능 모듈의 가중치 업그레이드를 위한 입력 변수 정보를 상기 엣지 인공지능 모듈로 입력하는 단계를 더 포함하는 엣지 인공지능 모듈의 가중치 업그레이드 방법.
  9. 제8항에 있어서,
    상기 변수 정보를 송신하는 단계와, 상기 제1 가중치 정보를 수신하는 단계와, 상기 제1 가중치 정보를 제공하는 단계 각각은, 상기 제2 가중치 정보를 제공하는 단계보다 더 많은 횟수만큼 반복적으로 수행되는 엣지 인공지능 모듈의 가중치 업그레이드 방법.
  10. 제9항에 있어서,
    상기 제2 가중치 정보는 상기 외부에 대해 상기 제1 가중치 정보보다 더 독립적인 엣지 인공지능 모듈의 가중치 업그레이드 방법.
  11. 제10항에 있어서,
    상기 외부는 상기 전자기기의 외부 전자기기 또는 클라우드를 포함하는 엣지 인공지능 모듈의 가중치 업그레이드 방법.
KR1020200089662A 2020-07-20 2020-07-20 엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법 KR20220010927A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200089662A KR20220010927A (ko) 2020-07-20 2020-07-20 엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법
US17/067,062 US20220019889A1 (en) 2020-07-20 2020-10-09 Edge artificial intelligence device and method
CN202011561010.4A CN114037882A (zh) 2020-07-20 2020-12-25 边缘人工智能装置、电子装置及其方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200089662A KR20220010927A (ko) 2020-07-20 2020-07-20 엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법

Publications (1)

Publication Number Publication Date
KR20220010927A true KR20220010927A (ko) 2022-01-27

Family

ID=79291535

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200089662A KR20220010927A (ko) 2020-07-20 2020-07-20 엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법

Country Status (3)

Country Link
US (1) US20220019889A1 (ko)
KR (1) KR20220010927A (ko)
CN (1) CN114037882A (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11520592B2 (en) 2019-07-15 2022-12-06 Microsoft Technology Licensing, Llc Executing large artificial intelligence models on memory-constrained devices
US11436019B2 (en) * 2019-07-15 2022-09-06 Microsoft Technology Licensing, Llc Data parallelism in distributed training of artificial intelligence models
US11354579B2 (en) 2019-07-15 2022-06-07 Microsoft Technology Licensing, Llc Dynamic multi-layer execution for artificial intelligence modeling
US11947503B2 (en) * 2021-06-17 2024-04-02 Google Llc Autoregressive graph generation machine learning models

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190096311A (ko) 2019-06-04 2019-08-19 엘지전자 주식회사 온도 예측 모델의 생성 장치 및 시뮬레이션 환경의 제공 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019119442A1 (en) * 2017-12-22 2019-06-27 Telefonaktiebolaget Lm Ericsson (Publ) A wireless communications system, a radio network node, a machine learning unt and methods therein for transmission of a downlink signal in a wireless communications network supporting beamforming
US20200272899A1 (en) * 2019-02-22 2020-08-27 Ubotica Technologies Limited Systems and Methods for Deploying and Updating Neural Networks at the Edge of a Network
US20210357739A1 (en) * 2020-05-14 2021-11-18 Micron Technology, Inc. Memory device to train neural networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190096311A (ko) 2019-06-04 2019-08-19 엘지전자 주식회사 온도 예측 모델의 생성 장치 및 시뮬레이션 환경의 제공 방법

Also Published As

Publication number Publication date
US20220019889A1 (en) 2022-01-20
CN114037882A (zh) 2022-02-11

Similar Documents

Publication Publication Date Title
KR20220010927A (ko) 엣지 인공지능 모듈 및 이의 가중치 업그레이드 방법
US11615310B2 (en) Training machine learning models by determining update rules using recurrent neural networks
CN108304388B (zh) 机器翻译方法及装置
CN109800732B (zh) 用于生成漫画头像生成模型的方法和装置
US20220058524A1 (en) Distributed training of machine learning models for personalization
US11640208B2 (en) Gesture feedback in distributed neural network system
CN111325258B (zh) 特征信息获取方法、装置、设备及存储介质
CN110147533B (zh) 编码方法、装置、设备及存储介质
CN110516113B (zh) 一种视频分类的方法、视频分类模型训练的方法及装置
CN111753498A (zh) 文本处理方法、装置、设备及存储介质
CN113361593A (zh) 生成图像分类模型的方法、路侧设备及云控平台
CN111507094B (zh) 基于深度学习的文本处理模型训练方法、装置及设备
CN112115900B (zh) 图像处理方法、装置、设备及存储介质
CN114581966A (zh) 用于信息处理的方法、电子设备和计算机程序产品
CN112381224A (zh) 神经网络训练方法、装置、设备及计算机可读存储介质
US11669201B2 (en) Electronic device and method for input coordinate prediction
CN113313381B (zh) 一种用户交互敏感的动态图序列推荐系统
KR20220027468A (ko) 동글형 전자기기 인공지능 지원 모듈 및 전자기기가 인공지능을 지원받는 방법
US20220245448A1 (en) Method, device, and computer program product for updating model
US20220114479A1 (en) Systems and methods for automatic mixed-precision quantization search
KR20220043534A (ko) 컨텐츠 추천 서비스를 제공하는 전자 장치 및 그 방법
CN114930335A (zh) 用于优化焊膏印刷装置的控制参数的设备及方法
CN111800537B (zh) 终端使用状态的评估方法、装置、存储介质及电子设备
CN114743081B (zh) 模型训练方法、相关装置及存储介质
CN111368556B (zh) 翻译模型的性能确定方法、置信度确定方法及装置