KR102607176B1 - 웨이트 파라미터 감소를 위한 자기 쳐내기 신경망들 - Google Patents
웨이트 파라미터 감소를 위한 자기 쳐내기 신경망들 Download PDFInfo
- Publication number
- KR102607176B1 KR102607176B1 KR1020180096347A KR20180096347A KR102607176B1 KR 102607176 B1 KR102607176 B1 KR 102607176B1 KR 1020180096347 A KR1020180096347 A KR 1020180096347A KR 20180096347 A KR20180096347 A KR 20180096347A KR 102607176 B1 KR102607176 B1 KR 102607176B1
- Authority
- KR
- South Korea
- Prior art keywords
- neural network
- parameter
- weight values
- function
- weights
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 89
- 238000013138 pruning Methods 0.000 title abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000012549 training Methods 0.000 claims abstract description 27
- 230000004044 response Effects 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 description 118
- 238000004590 computer program Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 5
- 244000141353 Prunus domestica Species 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012804 iterative process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000004205 output neuron Anatomy 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000035508 accumulation Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
Description
도 1은 여기에 기술된 주제에 따라 예시적인 계층의 웨이트들을 최적으로 쳐내기 위한 분석적 웨이트 함수(f(w))를 형성하는 분석적 문턱 함수의 신경망 및 응용 내의 예시적인 계층을 보여준다.
도 2는 VGG 16 DNN의 구조를 보여준다.
도 3a는 여기에 기술된 주제에 따른 예시적인 문턱 함수의 그래프를 보여준다.
도 3b는 여기에 기술된 주제에 따른 예시적인 웨이트 함수(f(w))의 그래프를 보여준다.
도 4a, 도 4b, 도 4c, 도 4d, 도 4d 및 도 4f는 여기에 기술된 주제에 따른 파라미터들(α, β)에 대해 상이한 값들을 갖는 예시적인 문턱 함수(h(w))의 여섯 개의 예시적인 그래프들을 보여준다.
도 5a 및 도 5b는 여기에 기술된 주제에 따라 훈련 및 반복된 역전달이 파라미터(β)를 어떻게 최적화되는지 그리고 파라미터(β)가 최적화됨에 따른 문턱 함수(h(w))의 수렴을 각각 보여준다.
도 6은 여기에 기술된 주제에 따른 예시적인 문턱 함수(h(w)) 및 예시적인 문턱 함수(h(w))의 2차 도함수를 보여준다.
도 7은 여기에 기술된 주제에 따라 신경망의 웨이트들을 쳐내는 예시적인 방법의 순서도를 보여준다.
도 8은 여기에 기술된 주제에 따라 문턱 함수(h(w))를 이용하여 쳐내진 웨이트들을 갖는 신경망을 포함하는 전자 장치를 보여준다.
101: 문턱 함수
CONV: 콘볼루션 계층
PL: 풀링 계층
FC: 완전 연결 계층
301a, 301b: 에지들
302: 폭
303: 웨이트 값들의 제1세트
302: 웨이트 값들의 제2세트
303: 웨이트 값들의 제3세트
601: 문턱 함수
602: 문턱 함수의 2차 도함수
810: 제어기
820: 입력/출력 장치
830: 메모리 장치
840: 인터페이스
850: 버스
Claims (20)
- 신경망에 있어서:
복수의 계층들을 포함하고, 상기 복수의 계층들 중 적어도 하나는 콘볼루션 계층을 포함하고,
상기 복수의 계층들의 각 계층은 상기 신경망의 속도 성능, 상기 신경망의 정확도, 또는 이들의 조합을 향상하는 계층과 연관된 웨이트들(w)의 세트를 포함하고,
상기 웨이트들(w)의 각 세트는 분석적 문턱 함수(h(w))를 이용하여 쳐내지고, 상기 분석적 문턱 함수(h(w))는 상기 분석적 문턱 함수(h(w))의 제1 에지 및 제2 에지의 가파름을 설정하는 제1 파라미터 그리고 상기 분석적 문턱 함수(h(w))의 상기 제1 에지 및 상기 제2 에지 사이의 거리를 설정하는 제2 파라미터를 포함하는 신경망. - 삭제
- 제1항에 있어서,
상기 분석적 문턱 함수(h(w))는 0을 중심으로 한 연속적인 웨이트 값들의 제1세트에 대한 0의 값, 그리고 연속적인 웨이트 값들의 제2세트 및 연속적인 웨이트 값들의 제3세트에 대한 1의 값을 포함하고,
상기 연속적인 웨이트 값들의 상기 제2세트는 상기 연속적인 웨이트 값들의 상기 제1세트와 다르고 더 크고 그리고 상기 연속적인 웨이트 값들의 상기 제3세트는 상기 연속적인 웨이트 값들의 상기 제1세트와 다르고 더 작고,
상기 분석적 문턱 함수(h(w))는 상기 연속적인 웨이트 값들의 상기 제1세트와 상기 연속적인 웨이트 값들의 상기 제2세트 사이의 제1 에지 및 상기 연속적인 웨이트 값들의 상기 제1세트와 상기 연속적인 웨이트 값들의 상기 제3세트 사이의 제2 에지를 더 포함하고,
0과 1 사이의 상기 제1 에지 및 상기 제2 에지의 상기 가파름은 상기 분석적 문턱 함수(h(w))의 상기 제1 파라미터의 값에 기반하고, 그리고 상기 제1 및 제2 에지들 사이의 상기 거리는 상기 분석적 문턱 함수(h(w))의 상기 제2 파라미터의 값에 기반하는 신경망. - 제3항에 있어서,
상기 분석적 문턱 함수(h(w))는 β에 비례하고 그리고 α에 반비례하고,
α는 상기 제1 파라미터이고 그리고 β는 상기 제2 파라미터인 신경망. - 제4항에 있어서,
상기 제1 파라미터(α)에 대한 초기값 및 상기 제2 파라미터(β)에 대한 초기값은 w가 0과 같은 것에 대한 상기 분석적 문턱 함수(h(w))의 부분 2차 도함수에 기반하는 신경망. - 제5항에 있어서,
상기 웨이트들(w)의 각 세트에 대한 상기 제1 파라미터(α) 및 상기 제2 파라미터(β)는, 입력 훈련 데이터에 응답하여 상기 신경망의 출력을 역전달함으로써 최소화되는 비용 함수(c), 분석적 문턱 함수(h(w))의 상기 제1 파라미터(α)에 대한 상기 비용 함수(c)의 도함수, 그리고 상기 분석적 문턱 함수(h(w))의 상기 제2 파라미터(β)에 대한 상기 비용 함수(c)의 도함수에 기반하고, 그리고
상기 비용 함수(c)는 계층들의 수, 최종 계층의 웨이트들의 인덱스, 그리고 하나 또는 그보다 많은 정규화 파라미터들에 기반하는 신경망. - 제6항에 있어서,
상기 출력을 상기 신경망을 통해 역전달하는 동안 상기 제1 파라미터(α)를 갱신함으로써, 상기 비용 함수(c)는 상기 제1 파라미터(α)에 대한 상기 비용 함수(c)의 상기 도함수에 기반하여 최소화되고,
상기 출력을 상기 신경망을 통해 역전달하는 동안 상기 제2 파라미터(β)를 갱신함으로써, 상기 비용 함수(c)는 상기 제2 파라미터(β)에 대한 상기 비용 함수(c)의 상기 도함수에 기반하여 최소화되는 신경망. - 제7항에 있어서,
상기 비용 함수(c)는 상기 출력을 상기 신경망을 통해 역전달하는 동안 상기 웨이트들(w)에 대한 값들을 갱신함으로써 더 최소화되는 신경망. - 제1항에 있어서,
상기 신경망은 심층 신경망을 포함하는 신경망. - 신경망의 웨이트들을 쳐내는 방법에 있어서:
분석적 문턱 함수(h(w))에 기반하여 신경망의 복수의 계층들의 각 계층과 연관된 웨이트들(w)에 대한 웨이트 함수(f(w))를 형성하는 단계;
상기 분석적 문턱 함수는 0을 중심으로 한 연속적인 웨이트 값들의 제1세트에 대한 0의 값, 그리고 연속적인 웨이트 값들의 제2세트 및 연속적인 웨이트 값들의 제3세트에 대한 1의 값을 포함하고, 상기 연속적인 웨이트 값들의 상기 제2세트는 상기 연속적인 값들의 상기 제1세트와 다르고 더 크고 그리고 상기 연속적인 웨이트 값들의 상기 제3세트는 상기 연속적인 웨이트 값들의 상기 제1세트와 다르고 더 작고, 상기 분석적 문턱 함수(h(w))는 상기 연속적인 웨이트 값들의 상기 제1세트와 상기 연속적인 웨이트 값들의 상기 제2세트 사이의 제1 에지 및 상기 연속적인 웨이트 값들의 상기 제1세트와 상기 연속적인 웨이트 값들의 상기 제3세트 사이의 제2 에지를 더 포함하고, 0과 1 사이의 상기 제1 및 제2 에지들의 각각의 가파름은 상기 분석적 문턱 함수(h(w))의 제1 파라미터의 값에 기반하고, 그리고 상기 제1 및 제2 에지들 사이의 거리는 상기 분석적 문턱 함수(h(w))의 제2 파라미터의 값에 기반하고;
훈련 데이터를 상기 신경망에 입력하여 상기 훈련 데이터에 기반하여 출력을 생성하는 단계;
상기 출력을 상기 신경망을 통해 역전달하는 단계; 그리고
상기 제1 파라미터에 대한 비용 함수(c)의 도함수에 기반하여 상기 비용 함수(c) 및 상기 제2 파라미터에 대한 상기 비용 함수(c)의 도함수에 기반하여 상기 비용 함수(c)를 최소화함으로써, 상기 출력 및 상기 훈련 데이터 사이의 차이를 최소화하여 상기 신경망의 속도 성능, 상기 신경망의 정확도, 또는 이들의 조합을 향상하는 웨이트들(w)의 세트를 판단하는 단계를 포함하는 방법. - 제10항에 있어서,
상기 분석적 문턱 함수(h(w))는 β에 비례하고 그리고 α에 반비례하고,
α는 상기 제1 파라미터이고 그리고 β는 상기 제2 파라미터인 방법. - 제11항에 있어서,
w가 0과 같은 것에 대한 상기 분석적 문턱 함수(h(w))의 부분 2차 도함수에 기반하여 상기 제1 파라미터(α) 및 상기 제2 파라미터(β)를 초기화하는 단계를 더 포함하는 방법. - 제11항에 있어서,
상기 웨이트 함수(f(w))는 상기 분석적 문턱 함수(h(w))에 의해 곱해진 상기 신경망의 웨이트들을 포함하는 방법. - 제13항에 있어서,
상기 비용 함수(c)는 계층들의 수, 최종 계층의 웨이트들의 인덱스, 그리고 하나 또는 그보다 많은 정규화 파라미터들에 기반하는 방법. - 제14항에 있어서,
상기 제1 파라미터(α)에 대한 상기 비용 함수(c)의 도함수에 기반하여 상기 비용 함수(c)를 최소화하는 것은 상기 출력을 상기 신경망을 통해 역전달하는 동안 상기 제1 파라미터(α)를 갱신하는 것을 포함하고, 그리고
상기 제2 파라미터(β)에 대한 상기 비용 함수(c)의 도함수에 기반하여 상기 비용 함수(c)를 최소화하는 것은 상기 출력을 상기 신경망을 통해 역전달하는 동안 상기 제2 파라미터(β)를 갱신하는 것을 포함하는 방법. - 제15항에 있어서,
상기 비용 함수(c)를 최소화하는 것은 상기 출력을 상기 신경망을 통해 역전달하는 동안 상기 웨이트들(w)에 대한 값들을 갱신하는 것을 포함하는 방법. - 제16항에 있어서,
훈련 데이터를 상기 신경망에 입력하여 상기 훈련 데이터에 기반하여 출력을 생성하는 단계, 상기 출력을 상기 신경망을 통해 역전달하는 단계, 그리고 상기 제1 파라미터에 대한 비용 함수(c)의 도함수에 기반하여 상기 비용 함수(c) 및 상기 제2 파라미터에 대한 상기 비용 함수(c)의 도함수에 기반하여 상기 비용 함수(c)를 최소화함으로써, 상기 출력 및 상기 훈련 데이터 사이의 차이를 최소화하여 상기 신경망의 속도 성능, 상기 신경망의 정확도, 또는 이들의 조합을 향상하는 웨이트들(w)의 세트를 판단하는 단계는 반복적으로 수행되어 상기 신경망의 속도 성능, 상기 신경망의 정확도, 또는 이들의 조합을 최적화하는 상기 웨이트들(w)의 각 세트를 판단하는 방법. - 제10항에 있어서,
상기 신경망은 심층 신경망을 포함하는 방법. - 신경망에 있어서:
복수의 계층들을 포함하고, 상기 복수의 계층들 중 적어도 하나는 콘볼루션 계층을 포함하고,
상기 복수의 계층들의 각 계층은 상기 신경망의 속도 성능, 상기 신경망의 정확도, 또는 이들의 조합을 향상하는 계층과 연관된 웨이트들(w)의 세트를 포함하고,
상기 웨이트들(w)의 각 세트는 입력 훈련 데이터에 응답하여 상기 신경망의 출력을 역전달함으로써 최소화되는 비용 함수(c), 분석적 문턱 함수(h(w))의 제1 파라미터에 대한 상기 비용 함수(c)의 도함수, 그리고 상기 분석적 문턱 함수(h(w))의 제2 파라미터에 대한 상기 비용 함수(c)의 도함수에 기반하고,
상기 분석적 문턱 함수(h(w))는 0을 중심으로 한 연속적인 웨이트 값들의 제1세트에 대한 0의 값, 그리고 연속적인 웨이트 값들의 제2세트 및 연속적인 웨이트 값들의 제3세트에 대한 1의 값을 포함하고,
상기 연속적인 웨이트 값들의 상기 제2세트는 상기 연속적인 값들의 상기 제1세트와 다르고 더 크고 그리고 상기 연속적인 웨이트 값들의 상기 제3세트는 상기 연속적인 웨이트 값들의 상기 제1세트와 다르고 더 작고,
상기 분석적 문턱 함수(h(w))는 상기 연속적인 웨이트 값들의 상기 제1세트와 상기 연속적인 웨이트 값들의 상기 제2세트 사이의 제1 에지 및 상기 연속적인 웨이트 값들의 상기 제1세트와 상기 연속적인 웨이트 값들의 상기 제3세트 사이의 제2 에지를 더 포함하고,
0과 1 사이의 상기 제1 및 제2 에지들의 각각의 가파름은 상기 분석적 문턱 함수(h(w))의 상기 제1 파라미터의 값에 기반하고, 그리고 상기 제1 및 제2 에지들 사이의 거리는 상기 분석적 문턱 함수(h(w))의 상기 제2 파라미터의 값에 기반하는 신경망. - 제19항에 있어서,
상기 분석적 문턱 함수(h(w))는 β에 비례하고 그리고 α에 반비례하고,
α는 상기 제1 파라미터이고 그리고 β는 상기 제2 파라미터이고,
상기 제1 파라미터(α)에 대한 초기값 및 상기 제2 파라미터(β에 대한 초기값은 w가 0과 같은 것에 대한 상기 분석적 문턱 함수(h(w))의 부분 2차 도함수에 기반하고, 그리고
상기 비용 함수(c)는 계층들의 수, 최종 계층의 웨이트들의 인덱스, 그리고 하나 또는 그보다 많은 정규화 파라미터들에 기반하는 신경망.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762597908P | 2017-12-12 | 2017-12-12 | |
US62/597,908 | 2017-12-12 | ||
US15/894,921 US11250325B2 (en) | 2017-12-12 | 2018-02-12 | Self-pruning neural networks for weight parameter reduction |
US15/894,921 | 2018-02-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190070241A KR20190070241A (ko) | 2019-06-20 |
KR102607176B1 true KR102607176B1 (ko) | 2023-11-28 |
Family
ID=66697003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180096347A KR102607176B1 (ko) | 2017-12-12 | 2018-08-17 | 웨이트 파라미터 감소를 위한 자기 쳐내기 신경망들 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11250325B2 (ko) |
JP (1) | JP7273489B2 (ko) |
KR (1) | KR102607176B1 (ko) |
CN (1) | CN109919297A (ko) |
TW (1) | TWI846674B (ko) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10657426B2 (en) | 2018-01-25 | 2020-05-19 | Samsung Electronics Co., Ltd. | Accelerating long short-term memory networks via selective pruning |
US20210073615A1 (en) * | 2018-04-12 | 2021-03-11 | Nippon Telegraph And Telephone Corporation | Neural network system, neural network method, and program |
US12045725B1 (en) | 2018-12-05 | 2024-07-23 | Perceive Corporation | Batch normalization for replicated layers of neural network |
US11847567B1 (en) | 2018-12-05 | 2023-12-19 | Perceive Corporation | Loss-aware replication of neural network layers |
US12136039B1 (en) | 2018-12-05 | 2024-11-05 | Perceive Corporation | Optimizing global sparsity for neural network |
KR20200070831A (ko) | 2018-12-10 | 2020-06-18 | 삼성전자주식회사 | 인공 신경망을 압축하기 위한 장치 및 방법 |
CN110532859B (zh) * | 2019-07-18 | 2021-01-22 | 西安电子科技大学 | 基于深度进化剪枝卷积网的遥感图像目标检测方法 |
WO2021040921A1 (en) * | 2019-08-29 | 2021-03-04 | Alibaba Group Holding Limited | Systems and methods for providing vector-wise sparsity in a neural network |
JP2021047711A (ja) | 2019-09-19 | 2021-03-25 | キオクシア株式会社 | 演算装置、演算方法、及び学習方法 |
US11704571B2 (en) * | 2019-10-11 | 2023-07-18 | Qualcomm Incorporated | Learned threshold pruning for deep neural networks |
US11816574B2 (en) | 2019-10-25 | 2023-11-14 | Alibaba Group Holding Limited | Structured pruning for machine learning model |
CN111062382A (zh) * | 2019-10-30 | 2020-04-24 | 北京交通大学 | 用于目标检测网络的通道剪枝方法 |
US11995555B1 (en) | 2019-12-17 | 2024-05-28 | Perceive Corporation | Training a neural network with quantized weights |
CN113392953B (zh) * | 2020-03-12 | 2025-01-28 | 澜起科技股份有限公司 | 用于对神经网络中卷积层进行剪枝的方法和装置 |
US11815819B2 (en) * | 2020-04-06 | 2023-11-14 | Nova Ltd. | Machine and deep learning methods for spectra-based metrology and process control |
US12093816B1 (en) * | 2020-07-07 | 2024-09-17 | Perceive Corporation | Initialization of values for training a neural network with quantized weights |
CN111866930B (zh) * | 2020-07-21 | 2022-02-25 | 西北大学 | 基于机器学习的射频信号检测方法及系统 |
US12061988B1 (en) | 2020-08-13 | 2024-08-13 | Perceive Corporation | Decomposition of ternary weight tensors |
US20220051102A1 (en) * | 2020-08-14 | 2022-02-17 | Tencent America LLC | Method and apparatus for multi-rate neural image compression with stackable nested model structures and micro-structured weight unification |
KR20220048832A (ko) * | 2020-10-13 | 2022-04-20 | 삼성전자주식회사 | 인공 신경망 프루닝 방법 및 장치 |
CN113052300B (zh) * | 2021-03-29 | 2024-05-28 | 商汤集团有限公司 | 神经网络训练方法、装置、电子设备及存储介质 |
US20230031691A1 (en) * | 2021-07-29 | 2023-02-02 | Capital One Services, Llc | Training machine learning models |
CN113919486A (zh) * | 2021-10-21 | 2022-01-11 | 北京邮电大学 | Vgg16衍射光子神经网络及面向情境依赖处理的方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060195406A1 (en) * | 2005-02-25 | 2006-08-31 | Microsoft Corporation | System and method for learning ranking functions on data |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19611732C1 (de) * | 1996-03-25 | 1997-04-30 | Siemens Ag | Verfahren zur Ermittlung von zur Entfernung geeigneten Gewichten eines neuronalen Netzes mit Hilfe eines Rechners |
US6408227B1 (en) | 1999-09-29 | 2002-06-18 | The University Of Iowa Research Foundation | System and method for controlling effluents in treatment systems |
US10849509B2 (en) | 2014-11-21 | 2020-12-01 | Siemens Healthcare Gmbh | Patient signal filtering |
CN109952581A (zh) * | 2016-09-28 | 2019-06-28 | D5A1有限责任公司 | 用于机器学习系统的学习教练 |
-
2018
- 2018-02-12 US US15/894,921 patent/US11250325B2/en active Active
- 2018-08-17 KR KR1020180096347A patent/KR102607176B1/ko active IP Right Grant
- 2018-09-25 TW TW107133685A patent/TWI846674B/zh active
- 2018-11-08 CN CN201811327128.3A patent/CN109919297A/zh active Pending
- 2018-12-06 JP JP2018229414A patent/JP7273489B2/ja active Active
-
2022
- 2022-01-10 US US17/572,625 patent/US20220129756A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060195406A1 (en) * | 2005-02-25 | 2006-08-31 | Microsoft Corporation | System and method for learning ranking functions on data |
Also Published As
Publication number | Publication date |
---|---|
CN109919297A (zh) | 2019-06-21 |
TWI846674B (zh) | 2024-07-01 |
US11250325B2 (en) | 2022-02-15 |
US20220129756A1 (en) | 2022-04-28 |
US20190180184A1 (en) | 2019-06-13 |
JP2019106181A (ja) | 2019-06-27 |
TW201928791A (zh) | 2019-07-16 |
KR20190070241A (ko) | 2019-06-20 |
JP7273489B2 (ja) | 2023-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102607176B1 (ko) | 웨이트 파라미터 감소를 위한 자기 쳐내기 신경망들 | |
KR102646667B1 (ko) | 이미지 영역을 찾기 위한 방법, 모델 훈련 방법 및 관련 장치 | |
US20220108178A1 (en) | Neural network method and apparatus | |
CN109829433B (zh) | 人脸图像识别方法、装置、电子设备及存储介质 | |
US10789734B2 (en) | Method and device for data quantization | |
JP2024050691A (ja) | ディープニューラルネットワークの動的適応 | |
CN108304921B (zh) | 卷积神经网络的训练方法及图像处理方法、装置 | |
CN106776673B (zh) | 多媒体文档概括 | |
US11256982B2 (en) | Noise-enhanced convolutional neural networks | |
US11556775B2 (en) | Systems and methods for trace norm regularization and faster inference for embedded models | |
US20180349758A1 (en) | Computation method and device used in a convolutional neural network | |
Chen et al. | CCPrune: Collaborative channel pruning for learning compact convolutional networks | |
EP3295381B1 (en) | Augmenting neural networks with sparsely-accessed external memory | |
CN111291190B (zh) | 一种编码器的训练方法、信息检测的方法以及相关装置 | |
US12039427B2 (en) | Cursor-based adaptive quantization for deep neural networks | |
US20210397963A1 (en) | Method and apparatus for neural network model compression with micro-structured weight pruning and weight unification | |
WO2019190340A1 (en) | Channel pruning of a convolutional network based on gradient descent optimization | |
WO2020060605A1 (en) | Approximate nearest neighbor searching strategy generating based on reinforcement learning | |
CN108875693A (zh) | 一种图像处理方法、装置、电子设备及其存储介质 | |
EP3924896A1 (en) | Apparatus and a method for neural network compression | |
WO2020232976A1 (zh) | 信息处理方法及装置、电子设备和存储介质 | |
WO2024248882A1 (en) | Sparsity-based reduction of gate switching in deep neural network accelerators | |
CN110489955B (zh) | 应用于电子设备的图像处理、装置、计算设备、介质 | |
Yang et al. | Comparative analysis of structured pruning and unstructured pruning | |
CN112685603A (zh) | 顶级相似性表示的有效检索 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20180817 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20210706 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20180817 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20221213 Patent event code: PE09021S01D |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230613 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230824 |
|
PG1601 | Publication of registration |