KR20190040144A - 딥러닝 소자를 포함하는 반도체 시스템 - Google Patents

딥러닝 소자를 포함하는 반도체 시스템 Download PDF

Info

Publication number
KR20190040144A
KR20190040144A KR1020190036350A KR20190036350A KR20190040144A KR 20190040144 A KR20190040144 A KR 20190040144A KR 1020190036350 A KR1020190036350 A KR 1020190036350A KR 20190036350 A KR20190036350 A KR 20190036350A KR 20190040144 A KR20190040144 A KR 20190040144A
Authority
KR
South Korea
Prior art keywords
hidden layers
deep
layer
deep learning
semiconductor system
Prior art date
Application number
KR1020190036350A
Other languages
English (en)
Inventor
김학재
Original Assignee
(주)쎄미하우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)쎄미하우 filed Critical (주)쎄미하우
Priority to KR1020190036350A priority Critical patent/KR20190040144A/ko
Publication of KR20190040144A publication Critical patent/KR20190040144A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Abstract

딥러닝 소자를 포함하는 반도체 시스템이 제공된다. 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템은, 제1 입력층, 2개 이상의 제1 은닉층들 및 제1 출력층을 포함하고 상기 제1 은닉층들 간의 가중치를 변화시키는 제1 딥러닝 소자를 저장하는 제1 저장부; 제2 입력층, 2개 이상의 제2 은닉층들 및 제2 출력층을 포함하고, 상기 제1 은닉층들 간의 가중치에 따라 상기 제2 은닉층들 간의 가중치를 변화시키는 제2 딥러닝 소자를 저장하는 제2 저장부; 및 상기 제1 및 제2 은닉층들 각각에 적용되는 가중치를 결정하는 적어도 하나의 제어부들을 포함한다.

Description

딥러닝 소자를 포함하는 반도체 시스템{SEMICONDUCTOR SYSTEM COMPRISING THE DEEP LEARNING ELEMENT}
본 발명은 딥러닝 소자를 포함하는 반도체 시스템에 관한 것이다.
인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기계가 스스로 학습하고 판단하며 똑똑해지는 기계학습이 대표적이다.
인공 신경망(artificial neural network, ANN)은 기계 학습(Machine Learning)을 구현하는 기법들 중 하나이다. 일반적으로, 인공 신경망은 입력 계층(input layer), 은닉 계층(hidden layer) 및 출력 계층(output layer)으로 구성된다. 각 계층들은 뉴런(neuron)으로 구성되어 있으며, 각 계층의 뉴런들은 이전 계층의 뉴런들의 출력과 연결되어 있다. 이전 계층의 뉴런들의 각 출력 값과 그에 상응하는 연결 가중치(weight)를 내적(inner product)한 값에 바이어스(bias)를 더한 값을 일반적으로 비선형(non-linear) 활성 함수(activation function)에 넣고 그 출력값을 다음 단계 계층의 뉴런들에게 전달한다.
이러한 인공 신경망을 바탕으로 하여 최근 각광받고 있는 딥러닝은 이미지 인식 및 분류(classification) 분야에서 두각을 나타내고 있으며 강화 학습 등과 결합하여 특정 분야에서 인간을 뛰어넘는 성능을 보여주고 있다.
그러나, 이미지 인식을 위한 딥러닝 기술은 메모리 및 프로세싱의 집중을 필요로 하는 학습과 인식을 위해, 데이터 프로세스들을 요구하여 많은 계산이 필요하다. 즉, 계산적인 프로세스들을 수행하는 동안, 저장 및 처리를 위해 많은 메모리 및 처리 용량을 요구한다.
이에 따라, 종래의 딥러닝을 구현하기 위한 하드웨어는 대부분 PC급 서버 기반으로 구성될 수 밖에 없어 소형 하드웨어나 시스템에 적용하기에는 크기와 비용 면에서 적합하지 않은 문제가 있다.
대한민국 공개특허 2017-0080428호 (2017.07.10. 공개) 대한민국 공개특허 2016-0134019호 (2016.11.23. 공개)
본 발명은 상기 문제점을 해결하기 위한 것으로, 은닉층의 개수 및 가중치를 조절하여 구성될 수 있는 딥러닝 소자를 포함하는 반도체 시스템을 제공한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 달성하기 위한 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템은, 제1 입력층, 2개 이상의 제1 은닉층들 및 제1 출력층을 포함하고 상기 제1 은닉층들 간의 가중치를 변화시키는 제1 딥러닝 소자를 저장하는 제1 저장부, 제2 입력층, 2개 이상의 제2 은닉층들 및 제2 출력층을 포함하고, 상기 제1 은닉층들 간의 가중치에 따라 상기 제2 은닉층들 간의 가중치를 변화시키는 제2 딥러닝 소자를 저장하는 제2 저장부 및 상기 제1 및 제2 은닉층들 각각에 적용되는 가중치를 결정하는 적어도 하나의 제어부들을 포함한다.
또한, 상기 제어부는, 상기 제1 및 제2 은닉층들의 개수를 조절할 수 있다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명에 따르면, 은닉층의 개수 및 가중치를 조절 가능한 다양한 형태의 딥러닝 소자를 구현하여 신경망의 크기를 제약없이 구성할 수 있어 뛰어난 확장성을 가질 수 있다.
도 1은 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템의 구성을 도시한 도면이다.
도 2는 딥러닝 소자의 구조를 도시한 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "이루어지다(made of)"는 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 본 발명에 대하여 첨부된 도면에 따라 보다 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템의 구성을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 딥러닝 소자를 포함하는 반도체 시스템(100, 이하 반도체 시스템)은, 제1 저장부(110), 제2 저장부(120), 제어부(130), 네트워크 인터페이스(140)를 포함한다.
그러나, 도 1에 도시된 구성 요소 모두가 반도체 시스템(100)의 필수 구성 요소인 것은 아니다. 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 반도체 시스템(100)이 구현될 수도 있고, 도 1에 도시된 구성 요소보다 적은 구성 요소에 의해 반도체 시스템(100)이 구현될 수도 있다. 예를 들어, 도면에는 도시하지 않았으나, 입력 장치, 출력 장치, 저장 장치, 센서 또는 이들의 조합 등의 주변장치 등을 연결하는 인터페이스를 더 포함할 수 있다. 주변장치는 오디오 장치, 마이크 또는 이들의 조합을 포함할 수 있다.
제1 및 제2 저장부들(110, 120)은 제1 및 제2 딥러닝 소자들을 구비하고, 딥러닝 처리 및 제어를 위한 소프트웨어, 프로그램, 명령어 집합 또는 이들의 조합 등을 저장할 수 있다.
구체적으로, 제1 및 제2 저장부들(110, 120)은 휘발성 메모리(예컨대, 레지스터, 캐시, RAM), 비휘발성 메모리(예컨대, ROM, EEPROM, 플래시 메모리 등) 또는 두 가지 메모리의 어떤 조합이 될 수 있다.
제어부(130)는 실행가능 명령어를 실행하며, 제1 및 제2 딥러닝 소자들을 제어하여 데이터 학습 등을 수행한다. 제어부(130)는 복수 개의 내부 제어 유닛들을 포함할 수 있고, 제1 및 제2 저장부들(110, 120) 각각을 제어할 수 있다.
제어부(130)는 인공신경망 계층 순서에 따라 은닉층의 개수를 조절할 수 있고, 은닉층 각각에 적용되는 가중치를 결정할 수 있다. 보다 구체적인 제어 방식에 대해서는 후술하여 살펴 보도록 한다.
네트워크 인터페이스(140)는 하나 이상의 유선 및/또는 무선 통신 서브시스템을 포함할 수 있다. 무선 통신 서브시스템은 무선 주파수(radio frequency) 수신기 및 송수신기 및/또는 광(예컨대, 적외선) 수신기 또는 송수신기를 포함할 수 있다. 네트워크 인터페이스(140)는 네트워크(50)와 연결되는 통신 프로토콜을 지원할 수 있다. 예를 들어, 네트워크 인터페이스(140)는 GSM(Global System for Mobile Communication) 네트워크, EDGE(Enhanced Data GSM Environment) 네트워크, CDMA(Code Division Multiple Access) 네트워크, WCDMA(W-Code Division Multiple Access) 네트워크, LTE(Long Term Evolution) 네트워크, OFDMA(Orthogonal Frequency Division Multiple Access) 네트워크, WiMax 네트워크, Wi-Fi(Wireless Fidelity) 네트워크, Bluetooth 네트워크 등에 연결되어 적어도 하나 이상의 통신 프로토콜을 지원할 수 있다.
도 2는 딥러닝 소자의 구조를 도시한 도면이다.
인공 신경망은 입력층, 은닉층, 출력층으로 이루어지며, 입력층은 받은 값을 그대로 은닉층에 전달할 수 있다. 은닉층은 다수의 노드들을 포함할 수 있으며, 각 노드는 다수의 입력신호들을 각각 가중치들과 곱한 후, 이를 가산한 가산 신호를 출력할 수 있다.
일 실시예에서, 제1 또는 제2 입력층의 입력 노드마다 가중치 X를 곱하여 제1 또는 제2 은닉층의 복수 개의 노드들로 출력시킬 수 있고, 가중치 Y를 곱하여 제1 또는 제2 출력층으로 출력시킬 수 있다. 제1 또는 제2 입력층에 입력된 데이터와 제1 또는 제2 출력층에 출력된 데이터를 비교하고, 비교된 값에 따라 제1 또는 제2 은닉층들에 적용된 가중치를 갱신시킬 수 있다.
도 2를 참조하면, 인공 신경망은 은닉층이 2개 이상인 심층 신경망일 수 있으며, 딥러닝 기법이 적용되는 딥러닝 신경망일 수 있다. 도 2에서, 은닉층은 2층 구조(hidden layer1, hidden layer2)로 도시되었으나, 이에만 제한되지 않음은 자명하다 할 것이다. 이때, 딥러닝(deep learning) 모듈은 역전달(Back-Propagation), 제한된 볼츠만 머신(Restricted Boltzmann Machine), 오토 인코더(Auto Encoder), CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등을 포함할 수 있다.
일 실시예에서, 제1 저장부(110)는 입력 신호에 따라 제1 딥러닝 소자를 통해 제1 입력층과 제1 은닉층들 간의 가중치를 변화시킬 수 있다. 제2 딥러닝 소자는 제1 딥러닝 소자에서 적용된 가중치에 따라 제2 은닉층들에 적용되는 가중치를 변화시킬 수 있다.
예를 들어, 제1 저장부(110)는 제1 딥러닝 소자를 통해 n개의 입력 신호가 제1 입력층으로 들어오면 a만큼의 가중치를 적용하여 제1 은닉층으로 전달할 수 있다. 제1 딥러닝 소자에서 a만큼의 가중치가 적용되어 연산된 결과에 따라 제2 딥러닝 소자에서는 b만큼의 가중치를 적용되어 제2 은닉층으로 전달할 수 있다.
제어부(130)는 입력층과 은닉층, 은닉층과 출력층 간의 노드 개수와 은닉층의 개수를 조절할 수 있고, 인공 신경망 구조를 유동적으로 구성하여 신경망의 크기를 제약없이 구성할 수 있어 대규모 신경망을 구현할 수 있다.
한편, 본 발명의 일 실시예에 따른 시스템은 소프트웨어 및 하드웨어에 의해 하나의 모듈로 구현 가능하며, 전술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 롬(ROM), 플로피 디스크, 하드 디스크 등의 자기적 매체, CD, DVD 등의 광학적 매체 및 인터넷을 통한 전송과 같은 캐리어 웨이브와 같은 형태로 구현된다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네크워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
그리고, 본 발명의 실시예에서 사용되는 구성요소는 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 상기 구성요소는 컴퓨터로 판독 가능한 저장 매체에 포함되어 있을 수도 있고, 복수의 컴퓨터에 그 일부가 분산되어 분포될 수도 있다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 시스템을 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 시스템을 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 시스템에 의하여 해석되거나 처리 시스템에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 반도체 시스템
110: 제1 저장부 120: 제2 저장부
130: 제어부 140: 네트워크 인터페이스

Claims (2)

  1. 제1 입력층, 2개 이상의 제1 은닉층들 및 제1 출력층을 포함하고 상기 제1 은닉층들 간의 가중치를 변화시키는 제1 딥러닝 소자를 저장하는 제1 저장부;
    제2 입력층, 2개 이상의 제2 은닉층들 및 제2 출력층을 포함하고, 상기 제1 은닉층들 간의 가중치에 따라 상기 제2 은닉층들 간의 가중치를 변화시키는 제2 딥러닝 소자를 저장하는 제2 저장부; 및
    상기 제1 및 제2 은닉층들 각각에 적용되는 가중치를 결정하는 적어도 하나의 제어부들을 포함하는 딥러닝 소자를 포함하는 반도체 시스템.
  2. 제 1항에 있어서,
    상기 제어부는,
    상기 제1 및 제2 은닉층들의 개수를 조절하는 딥러닝 소자를 포함하는 반도체 시스템.
KR1020190036350A 2019-03-28 2019-03-28 딥러닝 소자를 포함하는 반도체 시스템 KR20190040144A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190036350A KR20190040144A (ko) 2019-03-28 2019-03-28 딥러닝 소자를 포함하는 반도체 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190036350A KR20190040144A (ko) 2019-03-28 2019-03-28 딥러닝 소자를 포함하는 반도체 시스템

Publications (1)

Publication Number Publication Date
KR20190040144A true KR20190040144A (ko) 2019-04-17

Family

ID=66281533

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190036350A KR20190040144A (ko) 2019-03-28 2019-03-28 딥러닝 소자를 포함하는 반도체 시스템

Country Status (1)

Country Link
KR (1) KR20190040144A (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160134019A (ko) 2015-05-14 2016-11-23 한국과학기술원 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법
KR20170080428A (ko) 2015-12-30 2017-07-10 에스케이하이닉스 주식회사 뉴로모픽 소자의 시냅스들을 학습 시키는 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160134019A (ko) 2015-05-14 2016-11-23 한국과학기술원 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법
KR20170080428A (ko) 2015-12-30 2017-07-10 에스케이하이닉스 주식회사 뉴로모픽 소자의 시냅스들을 학습 시키는 방법

Similar Documents

Publication Publication Date Title
US10902347B2 (en) Rule creation using MDP and inverse reinforcement learning
US20240095538A1 (en) Privacy-preserving graphical model training methods, apparatuses, and devices
JP2018523182A (ja) 深層畳み込みネットワークにおいて画像解像度を低減すること
Chander et al. Metaheuristic feature selection with deep learning enabled cascaded recurrent neural network for anomaly detection in Industrial Internet of Things environment
Shi et al. Vulnerability detection and analysis in adversarial deep learning
Sayin et al. Secure sensor design for cyber-physical systems against advanced persistent threats
CN112868033A (zh) 用于提供具有可调节计算需求的机器学习模型的系统和方法
WO2020062002A1 (en) Robot movement apparatus and related methods
JP2023542654A (ja) 強化学習のためのタスク優先順位付き経験再生アルゴリズム
KR20190040144A (ko) 딥러닝 소자를 포함하는 반도체 시스템
WO2020054345A1 (ja) 電子制御装置、ニューラルネットワーク更新システム
US20210357753A1 (en) Method and apparatus for multi-level stepwise quantization for neural network
KR102461257B1 (ko) 네트워크 처리량 예측 장치 및 방법
US20200234147A1 (en) Neural network device, neural network system, and method of processing neural network model by using neural network system
KR20200086546A (ko) 병렬 딥러닝 처리 시스템
EP4176386A1 (en) Training actor-critic algorithms in laboratory settings
CN112673367A (zh) 用于预测用户意图的电子设备和方法
Zhao et al. A novel binary bat algorithm with chaos and Doppler effect in echoes for analog fault diagnosis
US20220300520A1 (en) Recommender system for tuning parameters to generate data analytics model and method thereof
US20240104375A1 (en) Method and system for lightweighting artificial neural network model, and non-transitory computer-readable recording medium
KR102498328B1 (ko) 차량 상태 기반 모델을 기초로 차량의 상태전이를 학습시키는 방법 및 장치
Varughese et al. swarmfstaxis: Borrowing a swarm communication mechanism from fireflies and slime mold
Luo et al. Intelligent waveform optimization for target tracking in radar sensor networks
Yusof et al. Formulation of a lightweight hybrid ai algorithm towards self-learning autonomous systems
KR102578377B1 (ko) 편향-분산 딜레마를 해결하는 뇌모사형 적응 제어를 위한 전자 장치 및 그의 방법