KR20190040144A - 딥러닝 소자를 포함하는 반도체 시스템 - Google Patents
딥러닝 소자를 포함하는 반도체 시스템 Download PDFInfo
- Publication number
- KR20190040144A KR20190040144A KR1020190036350A KR20190036350A KR20190040144A KR 20190040144 A KR20190040144 A KR 20190040144A KR 1020190036350 A KR1020190036350 A KR 1020190036350A KR 20190036350 A KR20190036350 A KR 20190036350A KR 20190040144 A KR20190040144 A KR 20190040144A
- Authority
- KR
- South Korea
- Prior art keywords
- hidden layers
- deep
- layer
- deep learning
- semiconductor system
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Abstract
딥러닝 소자를 포함하는 반도체 시스템이 제공된다. 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템은, 제1 입력층, 2개 이상의 제1 은닉층들 및 제1 출력층을 포함하고 상기 제1 은닉층들 간의 가중치를 변화시키는 제1 딥러닝 소자를 저장하는 제1 저장부; 제2 입력층, 2개 이상의 제2 은닉층들 및 제2 출력층을 포함하고, 상기 제1 은닉층들 간의 가중치에 따라 상기 제2 은닉층들 간의 가중치를 변화시키는 제2 딥러닝 소자를 저장하는 제2 저장부; 및 상기 제1 및 제2 은닉층들 각각에 적용되는 가중치를 결정하는 적어도 하나의 제어부들을 포함한다.
Description
본 발명은 딥러닝 소자를 포함하는 반도체 시스템에 관한 것이다.
인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기계가 스스로 학습하고 판단하며 똑똑해지는 기계학습이 대표적이다.
인공 신경망(artificial neural network, ANN)은 기계 학습(Machine Learning)을 구현하는 기법들 중 하나이다. 일반적으로, 인공 신경망은 입력 계층(input layer), 은닉 계층(hidden layer) 및 출력 계층(output layer)으로 구성된다. 각 계층들은 뉴런(neuron)으로 구성되어 있으며, 각 계층의 뉴런들은 이전 계층의 뉴런들의 출력과 연결되어 있다. 이전 계층의 뉴런들의 각 출력 값과 그에 상응하는 연결 가중치(weight)를 내적(inner product)한 값에 바이어스(bias)를 더한 값을 일반적으로 비선형(non-linear) 활성 함수(activation function)에 넣고 그 출력값을 다음 단계 계층의 뉴런들에게 전달한다.
이러한 인공 신경망을 바탕으로 하여 최근 각광받고 있는 딥러닝은 이미지 인식 및 분류(classification) 분야에서 두각을 나타내고 있으며 강화 학습 등과 결합하여 특정 분야에서 인간을 뛰어넘는 성능을 보여주고 있다.
그러나, 이미지 인식을 위한 딥러닝 기술은 메모리 및 프로세싱의 집중을 필요로 하는 학습과 인식을 위해, 데이터 프로세스들을 요구하여 많은 계산이 필요하다. 즉, 계산적인 프로세스들을 수행하는 동안, 저장 및 처리를 위해 많은 메모리 및 처리 용량을 요구한다.
이에 따라, 종래의 딥러닝을 구현하기 위한 하드웨어는 대부분 PC급 서버 기반으로 구성될 수 밖에 없어 소형 하드웨어나 시스템에 적용하기에는 크기와 비용 면에서 적합하지 않은 문제가 있다.
본 발명은 상기 문제점을 해결하기 위한 것으로, 은닉층의 개수 및 가중치를 조절하여 구성될 수 있는 딥러닝 소자를 포함하는 반도체 시스템을 제공한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템은, 제1 입력층, 2개 이상의 제1 은닉층들 및 제1 출력층을 포함하고 상기 제1 은닉층들 간의 가중치를 변화시키는 제1 딥러닝 소자를 저장하는 제1 저장부, 제2 입력층, 2개 이상의 제2 은닉층들 및 제2 출력층을 포함하고, 상기 제1 은닉층들 간의 가중치에 따라 상기 제2 은닉층들 간의 가중치를 변화시키는 제2 딥러닝 소자를 저장하는 제2 저장부 및 상기 제1 및 제2 은닉층들 각각에 적용되는 가중치를 결정하는 적어도 하나의 제어부들을 포함한다.
또한, 상기 제어부는, 상기 제1 및 제2 은닉층들의 개수를 조절할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면, 은닉층의 개수 및 가중치를 조절 가능한 다양한 형태의 딥러닝 소자를 구현하여 신경망의 크기를 제약없이 구성할 수 있어 뛰어난 확장성을 가질 수 있다.
도 1은 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템의 구성을 도시한 도면이다.
도 2는 딥러닝 소자의 구조를 도시한 도면이다.
도 2는 딥러닝 소자의 구조를 도시한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "이루어지다(made of)"는 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 본 발명에 대하여 첨부된 도면에 따라 보다 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템의 구성을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템(100, 이하 반도체 시스템)은, 제1 저장부(110), 제2 저장부(120), 제어부(130), 네트워크 인터페이스(140)를 포함한다.
그러나, 도 1에 도시된 구성 요소 모두가 반도체 시스템(100)의 필수 구성 요소인 것은 아니다. 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 반도체 시스템(100)이 구현될 수도 있고, 도 1에 도시된 구성 요소보다 적은 구성 요소에 의해 반도체 시스템(100)이 구현될 수도 있다. 예를 들어, 도면에는 도시하지 않았으나, 입력 장치, 출력 장치, 저장 장치, 센서 또는 이들의 조합 등의 주변장치 등을 연결하는 인터페이스를 더 포함할 수 있다. 주변장치는 오디오 장치, 마이크 또는 이들의 조합을 포함할 수 있다.
제1 및 제2 저장부들(110, 120)은 제1 및 제2 딥러닝 소자들을 구비하고, 딥러닝 처리 및 제어를 위한 소프트웨어, 프로그램, 명령어 집합 또는 이들의 조합 등을 저장할 수 있다.
구체적으로, 제1 및 제2 저장부들(110, 120)은 휘발성 메모리(예컨대, 레지스터, 캐시, RAM), 비휘발성 메모리(예컨대, ROM, EEPROM, 플래시 메모리 등) 또는 두 가지 메모리의 어떤 조합이 될 수 있다.
제어부(130)는 실행가능 명령어를 실행하며, 제1 및 제2 딥러닝 소자들을 제어하여 데이터 학습 등을 수행한다. 제어부(130)는 복수 개의 내부 제어 유닛들을 포함할 수 있고, 제1 및 제2 저장부들(110, 120) 각각을 제어할 수 있다.
제어부(130)는 인공신경망 계층 순서에 따라 은닉층의 개수를 조절할 수 있고, 은닉층 각각에 적용되는 가중치를 결정할 수 있다. 보다 구체적인 제어 방식에 대해서는 후술하여 살펴 보도록 한다.
네트워크 인터페이스(140)는 하나 이상의 유선 및/또는 무선 통신 서브시스템을 포함할 수 있다. 무선 통신 서브시스템은 무선 주파수(radio frequency) 수신기 및 송수신기 및/또는 광(예컨대, 적외선) 수신기 또는 송수신기를 포함할 수 있다. 네트워크 인터페이스(140)는 네트워크(50)와 연결되는 통신 프로토콜을 지원할 수 있다. 예를 들어, 네트워크 인터페이스(140)는 GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, WCDMA(W-Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, WiMax 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, Bluetooth 네트워크 등에 연결되어 적어도 하나 이상의 통신 프로토콜을 지원할 수 있다.
도 2는 딥러닝 소자의 구조를 도시한 도면이다.
인공 신경망은 입력층, 은닉층, 출력층으로 이루어지며, 입력층은 받은 값을 그대로 은닉층에 전달할 수 있다. 은닉층은 다수의 노드들을 포함할 수 있으며, 각 노드는 다수의 입력신호들을 각각 가중치들과 곱한 후, 이를 가산한 가산 신호를 출력할 수 있다.
일 실시예에서, 제1 또는 제2 입력층의 입력 노드마다 가중치 X를 곱하여 제1 또는 제2 은닉층의 복수 개의 노드들로 출력시킬 수 있고, 가중치 Y를 곱하여 제1 또는 제2 출력층으로 출력시킬 수 있다. 제1 또는 제2 입력층에 입력된 데이터와 제1 또는 제2 출력층에 출력된 데이터를 비교하고, 비교된 값에 따라 제1 또는 제2 은닉층들에 적용된 가중치를 갱신시킬 수 있다.
도 2를 참조하면, 인공 신경망은 은닉층이 2개 이상인 심층 신경망일 수 있으며, 딥러닝 기법이 적용되는 딥러닝 신경망일 수 있다. 도 2에서, 은닉층은 2층 구조(hidden layer1, hidden layer2)로 도시되었으나, 이에만 제한되지 않음은 자명하다 할 것이다. 이때, 딥러닝(deep learning) 모듈은 역전달(Back-Propagation), 제한된 볼츠만 머신(Restricted Boltzmann Machine), 오토 인코더(Auto Encoder), CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등을 포함할 수 있다.
일 실시예에서, 제1 저장부(110)는 입력 신호에 따라 제1 딥러닝 소자를 통해 제1 입력층과 제1 은닉층들 간의 가중치를 변화시킬 수 있다. 제2 딥러닝 소자는 제1 딥러닝 소자에서 적용된 가중치에 따라 제2 은닉층들에 적용되는 가중치를 변화시킬 수 있다.
예를 들어, 제1 저장부(110)는 제1 딥러닝 소자를 통해 n개의 입력 신호가 제1 입력층으로 들어오면 a만큼의 가중치를 적용하여 제1 은닉층으로 전달할 수 있다. 제1 딥러닝 소자에서 a만큼의 가중치가 적용되어 연산된 결과에 따라 제2 딥러닝 소자에서는 b만큼의 가중치를 적용되어 제2 은닉층으로 전달할 수 있다.
제어부(130)는 입력층과 은닉층, 은닉층과 출력층 간의 노드 개수와 은닉층의 개수를 조절할 수 있고, 인공 신경망 구조를 유동적으로 구성하여 신경망의 크기를 제약없이 구성할 수 있어 대규모 신경망을 구현할 수 있다.
한편, 본 발명의 일 실시예에 따른 시스템은 소프트웨어 및 하드웨어에 의해 하나의 모듈로 구현 가능하며, 전술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 롬(ROM), 플로피 디스크, 하드 디스크 등의 자기적 매체, CD, DVD 등의 광학적 매체 및 인터넷을 통한 전송과 같은 캐리어 웨이브와 같은 형태로 구현된다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네크워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
그리고, 본 발명의 실시예에서 사용되는 구성요소는 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 상기 구성요소는 컴퓨터로 판독 가능한 저장 매체에 포함되어 있을 수도 있고, 복수의 컴퓨터에 그 일부가 분산되어 분포될 수도 있다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 시스템을 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 시스템을 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 시스템에 의하여 해석되거나 처리 시스템에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 반도체 시스템
110: 제1 저장부 120: 제2 저장부
130: 제어부 140: 네트워크 인터페이스
110: 제1 저장부 120: 제2 저장부
130: 제어부 140: 네트워크 인터페이스
Claims (2)
- 제1 입력층, 2개 이상의 제1 은닉층들 및 제1 출력층을 포함하고 상기 제1 은닉층들 간의 가중치를 변화시키는 제1 딥러닝 소자를 저장하는 제1 저장부;
제2 입력층, 2개 이상의 제2 은닉층들 및 제2 출력층을 포함하고, 상기 제1 은닉층들 간의 가중치에 따라 상기 제2 은닉층들 간의 가중치를 변화시키는 제2 딥러닝 소자를 저장하는 제2 저장부; 및
상기 제1 및 제2 은닉층들 각각에 적용되는 가중치를 결정하는 적어도 하나의 제어부들을 포함하는 딥러닝 소자를 포함하는 반도체 시스템. - 제 1항에 있어서,
상기 제어부는,
상기 제1 및 제2 은닉층들의 개수를 조절하는 딥러닝 소자를 포함하는 반도체 시스템.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190036350A KR20190040144A (ko) | 2019-03-28 | 2019-03-28 | 딥러닝 소자를 포함하는 반도체 시스템 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190036350A KR20190040144A (ko) | 2019-03-28 | 2019-03-28 | 딥러닝 소자를 포함하는 반도체 시스템 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190040144A true KR20190040144A (ko) | 2019-04-17 |
Family
ID=66281533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190036350A KR20190040144A (ko) | 2019-03-28 | 2019-03-28 | 딥러닝 소자를 포함하는 반도체 시스템 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190040144A (ko) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160134019A (ko) | 2015-05-14 | 2016-11-23 | 한국과학기술원 | 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법 |
KR20170080428A (ko) | 2015-12-30 | 2017-07-10 | 에스케이하이닉스 주식회사 | 뉴로모픽 소자의 시냅스들을 학습 시키는 방법 |
-
2019
- 2019-03-28 KR KR1020190036350A patent/KR20190040144A/ko unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160134019A (ko) | 2015-05-14 | 2016-11-23 | 한국과학기술원 | 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법 |
KR20170080428A (ko) | 2015-12-30 | 2017-07-10 | 에스케이하이닉스 주식회사 | 뉴로모픽 소자의 시냅스들을 학습 시키는 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10902347B2 (en) | Rule creation using MDP and inverse reinforcement learning | |
US20240095538A1 (en) | Privacy-preserving graphical model training methods, apparatuses, and devices | |
JP2018523182A (ja) | 深層畳み込みネットワークにおいて画像解像度を低減すること | |
Chander et al. | Metaheuristic feature selection with deep learning enabled cascaded recurrent neural network for anomaly detection in Industrial Internet of Things environment | |
Shi et al. | Vulnerability detection and analysis in adversarial deep learning | |
Sayin et al. | Secure sensor design for cyber-physical systems against advanced persistent threats | |
CN112868033A (zh) | 用于提供具有可调节计算需求的机器学习模型的系统和方法 | |
WO2020062002A1 (en) | Robot movement apparatus and related methods | |
JP2023542654A (ja) | 強化学習のためのタスク優先順位付き経験再生アルゴリズム | |
KR20190040144A (ko) | 딥러닝 소자를 포함하는 반도체 시스템 | |
WO2020054345A1 (ja) | 電子制御装置、ニューラルネットワーク更新システム | |
US20210357753A1 (en) | Method and apparatus for multi-level stepwise quantization for neural network | |
KR102461257B1 (ko) | 네트워크 처리량 예측 장치 및 방법 | |
US20200234147A1 (en) | Neural network device, neural network system, and method of processing neural network model by using neural network system | |
KR20200086546A (ko) | 병렬 딥러닝 처리 시스템 | |
EP4176386A1 (en) | Training actor-critic algorithms in laboratory settings | |
CN112673367A (zh) | 用于预测用户意图的电子设备和方法 | |
Zhao et al. | A novel binary bat algorithm with chaos and Doppler effect in echoes for analog fault diagnosis | |
US20220300520A1 (en) | Recommender system for tuning parameters to generate data analytics model and method thereof | |
US20240104375A1 (en) | Method and system for lightweighting artificial neural network model, and non-transitory computer-readable recording medium | |
KR102498328B1 (ko) | 차량 상태 기반 모델을 기초로 차량의 상태전이를 학습시키는 방법 및 장치 | |
Varughese et al. | swarmfstaxis: Borrowing a swarm communication mechanism from fireflies and slime mold | |
Luo et al. | Intelligent waveform optimization for target tracking in radar sensor networks | |
Yusof et al. | Formulation of a lightweight hybrid ai algorithm towards self-learning autonomous systems | |
KR102578377B1 (ko) | 편향-분산 딜레마를 해결하는 뇌모사형 적응 제어를 위한 전자 장치 및 그의 방법 |