KR20200088198A - 뉴럴 네트워크의 레이어 축소를 이용하여 입력 데이터를 처리하는 방법 및 장치 - Google Patents
뉴럴 네트워크의 레이어 축소를 이용하여 입력 데이터를 처리하는 방법 및 장치 Download PDFInfo
- Publication number
- KR20200088198A KR20200088198A KR1020190087099A KR20190087099A KR20200088198A KR 20200088198 A KR20200088198 A KR 20200088198A KR 1020190087099 A KR1020190087099 A KR 1020190087099A KR 20190087099 A KR20190087099 A KR 20190087099A KR 20200088198 A KR20200088198 A KR 20200088198A
- Authority
- KR
- South Korea
- Prior art keywords
- reference sample
- layer
- input
- neural network
- inference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Description
도 2는 일 실시예에 따른 뉴럴 네트워크의 레이어 축소(layer contraction)를 설명하기 위한 도면이다.
도 3은 일 실시예에 따른 컴퓨팅 장치의 하드웨어 구성을 설명하기 위한 블록도이다.
도 4는 일 실시예에 따른 뉴럴 네트워크의 레이어 축소를 이용하여 입력 데이터를 처리하는 방법의 흐름도이다.
도 5는 일 실시예에 따른 뉴럴 네트워크의 레이어 축소를 이용하여 추론을 수행하는 방법을 설명하기 위한 알고리즘이다.
도 6a 내지 도 6d는 일 실시예들에 따른 참조 샘플의 갱신이 필요한지 여부를 판단하는 방식들을 설명하기 위한 도면들이다.
도 7은 일 실시예에 따라 원본 뉴럴 네트워크를 이용한 추론과 레이어-축소 뉴럴 네트워크를 이용한 추론을 비교하여 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 전자 시스템을 나타내는 블록도이다.
도 9는 일 실시예에 따른 뉴럴 네트워크의 레이어 축소를 이용하여 입력 데이터를 처리하는 방법의 흐름도이다.
Claims (20)
- 컴퓨팅 장치에서, 뉴럴 네트워크의 레이어 축소(layer contraction)를 이용하여 입력 데이터를 처리하는 방법에 있어서,
입력 레이어, 하나 이상의 히든 레이어들 및 출력 레이어를 포함하는 뉴럴 네트워크에 의해 처리될 일련의 입력 샘플들 중에서 참조 샘플을 결정하는 단계;
상기 입력 레이어로 입력된 상기 참조 샘플에 대한 상기 히든 레이어들에서의 연산들에 기초하여 상기 출력 레이어의 출력 액티베이션을 획득하는, 추론(inference) 프로세스를 수행하는 단계;
상기 추론 프로세스의 근사화를 위하여, 상기 입력 레이어 및 상기 출력 레이어 간의 어파인 변환(affine transformation)의 관계를 정의하는 레이어 축소 파라미터들을 결정하는 단계; 및
상기 참조 샘플에 대해 결정된 상기 레이어 축소 파라미터들에 기초한 어파인 변환을 이용하여 나머지 일련의 입력 샘플들에 대한 추론을 수행하는 단계를 포함하는, 방법. - 제 1 항에 있어서,
상기 현재 참조 샘플에 대해 결정된 상기 레이어 축소 파라미터들은
웨이트들을 나타내는 단일 웨이트 행렬, 바이어스들을 나타내는 바이어스 벡터, 및 바이너리 마스크를 포함하는, 방법. - 제 2 항에 있어서,
상기 바이너리 마스크는
상기 히든 레이어들 각각에서 수행된 활성화 함수(activation function)의 연산을 대체하여 활성화 마스킹(activation masking)을 수행하기 위하여 정의된 벡터인, 방법. - 제 2 항에 있어서,
상기 어파인 변환은
상기 히든 레이어들에서의 MAC 연산 및 활성화 함수의 연산을, 상기 레이어 축소 파라미터들을 이용한 아마다르 곱(Hadamard product)의 폼(form)에 기초한 변환인, 방법. - 제 1 항에 있어서,
현재 입력 샘플에 대한 추론을 수행하기 전, 상기 참조 샘플의 갱신이 필요한지 여부를 판단하는 단계; 및
상기 판단 결과 상기 참조 샘플의 갱신이 필요한 것으로 판단된 경우, 상기 참조 샘플을 상기 현재 입력 샘플로 갱신하는 단계를 더 포함하고,
상기 레이어 축소 파라미터들은 상기 갱신된 참조 샘플에 따라 갱신되는, 방법. - 제 5 항에 있어서,
상기 참조 샘플의 갱신이 필요한지 여부를 판단하는 단계는
상기 참조 샘플에 뒤이은 n개의 입력 샘플들에 대한 추론이 완료될 때마다 상기 참조 샘플의 갱신이 필요한 것으로 판단하는, 방법. - 제 5 항에 있어서,
상기 참조 샘플의 갱신이 필요한지 여부를 판단하는 단계는
상기 현재 입력 샘플 및 상기 참조 샘플 간의 MSE(mean-square error) 값을 소정의 임계값과 비교함으로써 상기 참조 샘플의 갱신이 필요한지 여부를 판단하는, 방법. - 제 5 항에 있어서,
상기 참조 샘플의 갱신이 필요한지 여부를 판단하는 단계는
상기 현재 입력 샘플의 직전 입력 샘플에 대한 추론 결과 및 상기 참조 샘플에 대한 추론 결과 간의 MSE 값을 소정의 임계값과 비교함으로써 상기 참조 샘플의 갱신이 필요한지 여부를 판단하는, 방법. - 제 5 항에 있어서,
상기 참조 샘플의 갱신이 필요한지 여부를 판단하는 단계는
레이어 별 정의된 바이너리 마스크에 의해 중간 액티베이션들의 부호들이 소정 횟수만큼 변경되는지 여부에 기초하여, 상기 참조 샘플의 갱신이 필요한지 여부를 판단하는, 방법. - 제 1 항에 있어서,
상기 일련의 입력 샘플들 각각은
비디오 데이터의 연속적인 프레임들 각각에 대응하는 것들이고,
상기 참조 샘플을 결정하는 단계는
상기 연속적인 프레임들 중 첫 번째 프레임의 이미지 데이터를 최초의 참조 샘플로서 결정하는, 방법. - 제 1 항 내지 제 10 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 비일시적인(non-transitory) 기록매체.
- 적어도 하나의 프로그램이 저장된 메모리; 및
상기 적어도 하나의 프로그램을 실행함으로써, 뉴럴 네트워크의 레이어 축소를 이용하여 입력 데이터를 처리하는 적어도 하나의 프로세서를 포함하고,
상기 프로세서는
입력 레이어, 하나 이상의 히든 레이어들 및 출력 레이어를 포함하는 뉴럴 네트워크에 의해 처리될 일련의 입력 샘플들 중에서 참조 샘플을 결정하고,
상기 입력 레이어로 입력된 상기 참조 샘플에 대한 상기 히든 레이어들에서의 연산들에 기초하여 상기 출력 레이어의 출력 액티베이션을 획득하는, 추론(inference) 프로세스를 수행하고,
상기 추론 프로세스의 근사화를 위하여, 상기 입력 레이어 및 상기 출력 레이어 간의 어파인 변환(affine transformation)의 관계를 정의하는 레이어 축소 파라미터들을 결정하고,
상기 참조 샘플에 대해 결정된 상기 레이어 축소 파라미터들에 기초한 어파인 변환을 이용하여 나머지 일련의 입력 샘플들에 대한 추론을 수행하는, 컴퓨팅 장치. - 제 12 항에 있어서,
상기 현재 참조 샘플에 대해 결정된 상기 레이어 축소 파라미터들은
웨이트들을 나타내는 단일 웨이트 행렬, 바이어스들을 나타내는 바이어스 벡터, 및 바이너리 마스크를 포함하는, 컴퓨팅 장치. - 제 13 항에 있어서,
상기 바이너리 마스크는
상기 히든 레이어들 각각에서 수행된 활성화 함수(activation function)의 연산을 대체하여 활성화 마스킹(activation masking)을 수행하기 위하여 정의된 벡터인, 컴퓨팅 장치. - 제 13 항에 있어서,
상기 어파인 변환은
상기 히든 레이어들에서의 MAC 연산 및 활성화 함수의 연산을, 상기 레이어 축소 파라미터들을 이용한 아마다르 곱(Hadamard product)의 폼(form)에 기초한 변환인, 컴퓨팅 장치. - 제 12 항에 있어서,
상기 프로세서는
현재 입력 샘플에 대한 추론을 수행하기 전, 상기 참조 샘플의 갱신이 필요한지 여부를 판단하고,
상기 판단 결과 상기 참조 샘플의 갱신이 필요한 것으로 판단된 경우, 상기 참조 샘플을 상기 현재 입력 샘플로 갱신하고,
상기 레이어 축소 파라미터들은
상기 갱신된 참조 샘플에 따라 갱신되는, 컴퓨팅 장치. - 제 16 항에 있어서,
상기 프로세서는
상기 참조 샘플에 뒤이은 n개의 입력 샘플들에 대한 추론이 완료될 때마다 상기 참조 샘플의 갱신이 필요한 것으로 판단하는, 컴퓨팅 장치. - 제 16 항에 있어서,
상기 프로세서는
상기 현재 입력 샘플 및 상기 참조 샘플 간의 MSE(mean-square error) 값을 소정의 임계값과 비교함으로써 상기 참조 샘플의 갱신이 필요한지 여부를 판단하는, 컴퓨팅 장치. - 제 16 항에 있어서,
상기 프로세서는
상기 현재 입력 샘플의 직전 입력 샘플에 대한 추론 결과 및 상기 참조 샘플에 대한 추론 결과 간의 MSE 값을 소정의 임계값과 비교함으로써 상기 참조 샘플의 갱신이 필요한지 여부를 판단하는, 컴퓨팅 장치. - 제 16 항에 있어서,
상기 프로세서는
레이어 별 정의된 바이너리 마스크에 의해 중간 액티베이션들의 부호들이 소정 횟수만큼 변경되는지 여부에 기초하여, 상기 참조 샘플의 갱신이 필요한지 여부를 판단하는, 컴퓨팅 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/739,543 US12282840B2 (en) | 2019-01-11 | 2020-01-10 | Method and apparatus with neural network layer contraction |
US18/891,591 US20250013862A1 (en) | 2019-01-11 | 2024-09-20 | Method and apparatus with neural network layer contraction |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962791237P | 2019-01-11 | 2019-01-11 | |
US62/791,237 | 2019-01-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200088198A true KR20200088198A (ko) | 2020-07-22 |
Family
ID=71892981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190087099A Pending KR20200088198A (ko) | 2019-01-11 | 2019-07-18 | 뉴럴 네트워크의 레이어 축소를 이용하여 입력 데이터를 처리하는 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200088198A (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230015648A (ko) * | 2021-07-23 | 2023-01-31 | 주식회사 유디엠텍 | Graph autoencoder를 활용한 자동화 설비 동작 시퀀스 이상 감지 방법 |
CN116359762A (zh) * | 2023-04-27 | 2023-06-30 | 北京玖行智研交通科技有限公司 | 一种基于深度学习和网络压缩的电池荷电状态估计方法 |
-
2019
- 2019-07-18 KR KR1020190087099A patent/KR20200088198A/ko active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230015648A (ko) * | 2021-07-23 | 2023-01-31 | 주식회사 유디엠텍 | Graph autoencoder를 활용한 자동화 설비 동작 시퀀스 이상 감지 방법 |
CN116359762A (zh) * | 2023-04-27 | 2023-06-30 | 北京玖行智研交通科技有限公司 | 一种基于深度学习和网络压缩的电池荷电状态估计方法 |
CN116359762B (zh) * | 2023-04-27 | 2024-05-07 | 北京玖行智研交通科技有限公司 | 一种基于深度学习和网络压缩的电池荷电状态估计方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102808577B1 (ko) | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 | |
JP7329455B2 (ja) | ニューラルネットワーク量子化のための方法及び装置 | |
KR102601604B1 (ko) | 뉴럴 네트워크의 파라미터들을 양자화하는 방법 및 장치 | |
McDanel et al. | Embedded binarized neural networks | |
US12026611B2 (en) | Method and apparatus for quantizing parameters of neural network | |
US11574198B2 (en) | Apparatus and method with neural network implementation of domain adaptation | |
KR20200070831A (ko) | 인공 신경망을 압축하기 위한 장치 및 방법 | |
US20230017432A1 (en) | Method and apparatus with neural network parameter quantization | |
KR102808579B1 (ko) | 뉴럴 네트워크에서 연산을 수행하는 방법 및 장치 | |
EP3817236B1 (en) | Neural network data processing method and apparatus | |
US11823029B2 (en) | Method and apparatus with neural network processing | |
JP2019194851A (ja) | 分類のためのニューラルネットワークにおいて、パラメータを処理する方法及び装置 | |
KR20220059194A (ko) | 대상 객체에 적응적인 객체 추적 방법 및 장치 | |
KR20210053791A (ko) | 뉴럴 네트워크의 데이터를 처리하는 방법 및 장치 | |
EP3985574A1 (en) | Method and apparatus with neural network pruning | |
CN116861962A (zh) | 一种数据处理方法及装置 | |
KR20200088198A (ko) | 뉴럴 네트워크의 레이어 축소를 이용하여 입력 데이터를 처리하는 방법 및 장치 | |
CN117592542A (zh) | 用于机器学习模型的具有对比损失的专家引导半监督的系统和方法 | |
KR20220065209A (ko) | 다양한 품질의 영상을 인식하는 방법 및 장치 | |
KR102783991B1 (ko) | 뉴럴 네트워크 장치 및 뉴럴 네트워크 장치에서 멀티-비트 연산을 처리하는 방법 | |
KR102800328B1 (ko) | 프로세싱 장치 및 프로세싱 장치에서 덧셈 연산을 처리하는 방법 | |
KR20230123309A (ko) | 프루닝 방법 및 장치 | |
CN119168954A (zh) | 基于提示学习的零样本缺陷检测方法及缺陷检测设备 | |
KR102760381B1 (ko) | 연사 영상 기반의 영상 복원 방법 및 장치 | |
KR20190127510A (ko) | 분류를 위한 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190718 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220704 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20190718 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20250422 Patent event code: PE09021S01D |