DK3251059T3 - Batch-normaliseringslag - Google Patents
Batch-normaliseringslag Download PDFInfo
- Publication number
- DK3251059T3 DK3251059T3 DK16704121.9T DK16704121T DK3251059T3 DK 3251059 T3 DK3251059 T3 DK 3251059T3 DK 16704121 T DK16704121 T DK 16704121T DK 3251059 T3 DK3251059 T3 DK 3251059T3
- Authority
- DK
- Denmark
- Prior art keywords
- layer
- neural network
- batch
- output
- outputs
- Prior art date
Links
- 238000010606 normalization Methods 0.000 title claims description 132
- 238000013528 artificial neural network Methods 0.000 claims description 176
- 238000012549 training Methods 0.000 claims description 71
- 238000000034 method Methods 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 4
- 230000001131 transforming effect Effects 0.000 claims 2
- 238000004364 calculation method Methods 0.000 claims 1
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 2
- 238000001994 activation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Claims (15)
- BATCH-NORM ALISERINGSLAG E Neuralt netværkssystem (100), der er implementeret af én eller flere computere, hvilket neuralt netværkssystem omfatter: et batch-normaliseringslag (108) mellem et første neuralt netværkslag (104) og et andet neuralt netværkslag (112), hvor det første neurale netværkslag genererer første lag-output med en flerhed af komponenter, og hvor batch-normaliseringslaget er konfigureret til, under træning af det neurale netværkssystem på en batch af træningseksempler, at: modtage et tilsvarende første lag-output for hvert træningseksempel i batchen; beregne en flerhed af normaliseringsstatistikker for batchet ud fra de første lag-outputs; normalisere hver komponent af hvert første lag-output ved anvendelse af normaliseringsstatistikkerne til at generere et tilsvarende normaliseret lag-output for hvert træningseksempel i batchen; generere et tilsvarende batch-normaliseringslag-output for hvert af træningseksempleme ud fra de normaliserede lag-outputs; og tilvejebringe batch-normaliseringslag-outputtet som et input til det andet neurale netværkslag; hvor flerheden af komponenter af det første lag-output er indekseret efter dimension, og hvor beregning af en flerhed af normaliseringsstatistikker for de første lag-outputs omfatter: beregning, for hver af dimensionerne, af en middelværdi for komponenterne af de første lagoutputs i dimensionen; og beregning, for hver af dimensionerne, af en standardafvigelse for komponenterne af de første lagoutputs i dimensionen.
- 2. Neuralt netværkssystem ifølge krav 1, hvor normalisering af hver komponent af hvert lag-output omfatter: normalisering af komponenten ved anvendelse af den beregnede middelværdi og beregnede standardafvigelse for den dimension, der svarer til komponenten.
- 3. Neuralt netværkssystem ifølge krav 1 eller 2, hvor batch-normaliseringslaget bevarer et tilsvarende sæt af parametre for hver dimension, og hvor generering af det tilsvarende batch-normaliseringslag-output for hvert af træningseksempleme ud fra de normaliserede lag-outputs omfatter: transformering, for hver dimension, af komponenten af det normaliserede lag-output for træningseksemplet i dimensionen i overensstemmelse med aktuelle værdier af et sæt af parametre for dimensionen.
- 4. Neuralt netværkssystem ifølge krav 3, hvor batch-normaliseringslaget er konfigureret til, efter at det neurale netværkssystem er blevet trænet til at bestemme trænede værdier af parametrene for hver af dimensionerne, at: modtage et nyt første lag-output genereret af det første neurale netværkslag for et nyt neuralt netværks-input; normalisere hver komponent af det nye første lag-output ved anvendelse af forudberegnede middel- og standardafvigelsesstatistikker for dimensionerne for at generere et nyt normaliseret lag-output; generere et nyt batch-normaliseringslag-output ved transformering, for hver dimension, af komponenten af det nye normaliserede lag-output for træningseksemplet i dimensionen i overensstemmelse med trænede værdier af sættet af parametre for dimensionen; og tilvejebringe batch-normaliseringslag-outputtet som et nyt lag-input til det andet neurale netværkslag.
- 5. Neuralt netværkssystem ifølge krav 4, hvor de forudberegnede middel- og standardafvigelsesstatistikker for dimensionerne er beregnet ud fra de første lag-outputs genereret af det første neurale netværkslag under træning af det neurale netværkssystem eller er beregnet ud fra nye første lag-outputs genereret af det første neurale netværkslag, efter at det neurale netværk er blevet trænet.
- 6. Neuralt netværkssystem implementeret af én eller flere computere, hvilket neuralt netværkssystem omfatter: et batch-normaliseringslag mellem et første neuralt netværkslag og et andet neuralt netværkslag, hvor det første neurale netværkslag genererer første lag-outputs med en flerhed af komponenter, og hvor batch-normaliseringslaget er konfigureret til, under træning af det neurale netværkssystem på en batch af træningseksempler, at: modtage et tilsvarende første lag-output for hvert træningseksempel i batchen; beregne en flerhed af normaliseringsstatistikker for batchet fra de første lag-outputs; normalisere hver komponent af hvert første lag-output ved anvendelse af normaliseringsstatistikkerne for at generere et tilsvarende normaliseret lag-output for hvert træningseksempel i batchen; generere et tilsvarende batch-normaliseringslag-output for hvert af træningseksempleme ud fra de normaliserede lag-outputs; og tilvejebringe batch-normaliseringslag-outputtet som et input til det andet neurale netværkslag; hvor det første neurale netværkslag er et konvolutionslag, hvor flerheden af komponenter af det første lag-output er indekseret efter karakteristikindeks og rumligt lokalitetsindeks, og hvor beregning af en flerhed af normaliseringsstatistikker for de første lag-outputs omfatter, for hvert af karakteristikindekserne: beregning af en middelværdi for komponenterne af de første lag-outputs, der svarer til karakteristikindekset; og beregning af en varians for komponenterne af de første lag-outputs, der svarer til karakteristikindekset.
- 7. Neuralt netværkssystem ifølge krav 6, hvor normalisering af hver komponent af hvert lag-output omfatter: normalisering af komponenten ved anvendelse af middelværdien og variansen for det karakteristikindeks, der svarer til komponenten.
- 8. Neuralt netværkssystem ifølge krav 6 eller 7, hvor generering af det tilsvarende batch-normaliseringslag-output for hvert af træningseksemplerne fra de normaliserede lag-outputs omfatter: transformering af hver komponent af det normaliserede lag-output i overensstemmelse med aktuelle værdier af et sæt af parametre for det karakteristikindeks, der svarer til komponenten.
- 9. Neuralt netværkssystem ifølge krav 8, hvor batch-normaliseringslaget er konfigureret til, efter at det neurale netværk er blevet trænet til at bestemme trænede værdier af parametrene for hver af dimensionerne, at: modtage et nyt første lag-input genereret fra et nyt neuralt netværks-input; normalisere hver komponent af det nye første lag-output ved anvendelse af forberegnede middel-og standardafvigelsesstatistikker for karakteristikindekseme til at generere et nyt normaliseret lag-output; generere et nyt batch-normaliseringslag-output ved transformering af hver komponent af det normaliserede lag-output i overensstemmelse med trænede værdier af sættet af parametre for det karakteristikindeks, der svarer til komponenten; og tilvejebringe det nye batch-normaliseringslag-output som et nyt lag-input til det andet neurale netværkslag.
- 10. Neuralt netværkssystem ifølge krav 6, hvor flerheden af komponenter af det første lag-output er indekseret efter karakteristikindeks og rumligt lokalitetsindeks, og hvor beregning af en flerhed af normaliseringsstatistikker for de første lag-outputs endvidere omfatter: beregning, for hver kombination af karakteristikindeks og rumligt lokalitetsindeks, af en middelværdi for komponenterne af de første lag-outputs med karakteristikindekset og rumligt lokalitetsindeks; beregning, for hvert karakteristikindeks, af et gennemsnit af middelværdierne for kombinationerna, der indbefatter karakteristikindekset; beregning, for hver kombination af karakteristikindeks og rumligt lokalitetsindeks, af en varians for komponenterne af de første lag-outputs med karakteristikindekset og rumligt lokalitetsindeks; og beregning, for hvert karakteristikindeks, af et gennemsnit af varianseme for kombinationerna, der indbefatter karakteristikindekset.
- 11. Neuralt netværkssystem ifølge krav 6, hvor normalisering af hver komponent af hvert lag-output omfatter: normalisering af komponenten ved anvendelse af gennemsnittet af middelværdierne og gennemsnittet af varianserne for det karakteristikindeks, der svarer til komponenten.
- 12. Neuralt netværkssystem ifølge et hvilket som helst af kravene 1-11, hvor det første neurale netværkslag genererer de første lag-outputs ved modificering af de første lag-inputs i overensstemmelse med aktuelle værdier af et sæt af parametre for det første neurale netværkslag og hvor det andet neurale netværkslag genererer andet lag-outputs ved anvendelse af en ikke-lineær operation til batch-normaliseringslag-outputs; eller hvor det første neurale netværkslag genererer de første lag-outputs ved modificering af første lag-inputs i overensstemmelse med aktuelle værdier af et sæt af parametre for det første neurale netværkslag for at generere modificerede første lag-inputs og derefter anvendelse af en ikke-lineær operation til de modificerede første lag-inputs.
- 13. Neuralt netværkssystem ifølge et hvilket som helst af kravene 1-12, hvor, under træningen af det neurale netværk, det neurale netværkssystem er konfigureret til at tilbagepropagere normaliseringsstatistikkerne som en del af justering af værdier af det neurale netværks parametre.
- 14. Fremgangsmåde til behandling af data ved anvendelse af det neurale netværkssystem ifølge et hvilket som helst af kravene 1-13, hvor fremgangsmåden omfatter udførelse af handlinger med et batch-normaliseringslag mellem et første neuralt netværkslag og et andet neuralt netværkslag, hvor det første neurale netværkslag genererer første lag-output med en flerhed af komponenter, hvor fremgangsmåden omfatter anvendelse af batch-normaliseringslaget til, under træning af det neurale netværkssystem på en batch af træningseksempler, at: modtage et tilsvarende første lag-output for hvert træningseksempel i batchen; beregne en flerhed af normaliseringsstatistikker for batchet fra de første lag-outputs; normalisere hver komponent af hvert første lag-output ved anvendelse af normaliseringsstatistikkerne til at generere et tilsvarende normaliseret lag-output for hvert træningseksempel i batchen; generere et tilsvarende batch-normaliseringslag-output for hvert af træningseksempleme ud fra de normaliserede lag-outputs; og tilvejebringe batch-normaliseringslag-outputtet som et input til det andet neurale netværkslag; hvor flerheden af komponenter af det første lag-output er indekseret efter i) dimension eller ii) hvor det første neurale netværkslag er et konvolutionslag og hvor flerheden af komponenter af det første lag-output er indekseret efter karakteristikindeks og rumligt lokalitetsindeks, og hvor beregning af en flerhed af normaliseringsstatistikker for de første lag-outputs endvidere omfatter, for (i): beregning, for hver af dimensionerne, af en middelværdi for komponenterne af de første lagoutputs i dimensionen; og beregning, for hver af dimensionerne, af en standardafvigelse for komponenterne af de første lagoutputs i dimensionen; og for (ii): beregning, for hvert af karakteristikindekseme, af en middelværdi for komponenterne af de første lag-outputs, der svarer til karakteristikindekset; og beregning, for hvert af karakteristikindekserne, af en varians for komponenterne af de første lagoutputs der svarer til karakteristikindekset.
- 15. Et eller flere ikke-transitoriske computerlagringsmedier, der er kodet med et computerprogram, hvilket computerprogram omfatter instruktioner, der, når de udføres af én eller flere computere, bevirker, at den ene eller flere computere implementerer fremgangsmåden ifølge krav 14.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562108984P | 2015-01-28 | 2015-01-28 | |
PCT/US2016/015476 WO2016123409A1 (en) | 2015-01-28 | 2016-01-28 | Batch normalization layers |
Publications (1)
Publication Number | Publication Date |
---|---|
DK3251059T3 true DK3251059T3 (da) | 2019-04-01 |
Family
ID=55349983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DK16704121.9T DK3251059T3 (da) | 2015-01-28 | 2016-01-28 | Batch-normaliseringslag |
Country Status (17)
Country | Link |
---|---|
US (8) | US10417562B2 (da) |
EP (3) | EP3251059B1 (da) |
JP (5) | JP6453477B2 (da) |
KR (2) | KR102055355B1 (da) |
CN (1) | CN107278310A (da) |
AU (5) | AU2016211333B2 (da) |
CA (1) | CA2975251C (da) |
DE (1) | DE112016000509T5 (da) |
DK (1) | DK3251059T3 (da) |
ES (1) | ES2714152T3 (da) |
IL (1) | IL253676A0 (da) |
MX (1) | MX2017009879A (da) |
PL (1) | PL3251059T3 (da) |
RU (1) | RU2666308C1 (da) |
SG (1) | SG11201706127RA (da) |
TR (1) | TR201902908T4 (da) |
WO (1) | WO2016123409A1 (da) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3251059B1 (en) | 2015-01-28 | 2018-12-05 | Google LLC | Batch normalization layers |
CN107851195B (zh) * | 2015-07-29 | 2022-02-11 | 诺基亚技术有限公司 | 利用神经网络进行目标检测 |
IL281241B (en) | 2016-08-22 | 2022-08-01 | Magic Leap Inc | An augmented reality display device with deep learning sensors |
CN110291540A (zh) | 2017-02-10 | 2019-09-27 | 谷歌有限责任公司 | 批再归一化层 |
US10255681B2 (en) * | 2017-03-02 | 2019-04-09 | Adobe Inc. | Image matting using deep learning |
US11308391B2 (en) | 2017-03-06 | 2022-04-19 | Baidu Usa Llc | Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles |
CN110366733A (zh) * | 2017-03-06 | 2019-10-22 | 索尼公司 | 信息处理装置 |
EP3602419B1 (en) * | 2017-04-28 | 2023-09-20 | Google LLC | Neural network optimizer search |
CN109034384B (zh) * | 2017-06-12 | 2021-06-22 | 浙江宇视科技有限公司 | 一种数据处理方法和装置 |
US10635813B2 (en) | 2017-10-06 | 2020-04-28 | Sophos Limited | Methods and apparatus for using machine learning on multiple file fragments to identify malware |
US11586905B2 (en) * | 2017-10-11 | 2023-02-21 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for customizing kernel machines with deep neural networks |
CN111373416B (zh) * | 2017-10-27 | 2024-01-23 | 谷歌有限责任公司 | 通过离散神经网络输入来增强神经网络的安全性 |
WO2019123544A1 (ja) | 2017-12-19 | 2019-06-27 | オリンパス株式会社 | データ処理方法およびデータ処理装置 |
CN108009634B (zh) * | 2017-12-21 | 2021-05-25 | 美的集团股份有限公司 | 一种卷积神经网络的优化方法、装置及计算机存储介质 |
EP3511872A1 (en) | 2018-01-12 | 2019-07-17 | Sony Corporation | Artificial neural network |
WO2019145912A1 (en) | 2018-01-26 | 2019-08-01 | Sophos Limited | Methods and apparatus for detection of malicious documents using machine learning |
US11941491B2 (en) | 2018-01-31 | 2024-03-26 | Sophos Limited | Methods and apparatus for identifying an impact of a portion of a file on machine learning classification of malicious content |
WO2019149376A1 (en) | 2018-02-02 | 2019-08-08 | Toyota Motor Europe | Method and system for processing input data using a neural network and normalizations |
WO2019149375A1 (en) * | 2018-02-02 | 2019-08-08 | Toyota Motor Europe | Method and system for processing input data and propagating variance in a neural network |
US20190251429A1 (en) * | 2018-02-12 | 2019-08-15 | Kneron, Inc. | Convolution operation device and method of scaling convolution input for convolution neural network |
CN108875787B (zh) * | 2018-05-23 | 2020-07-14 | 北京市商汤科技开发有限公司 | 一种图像识别方法及装置、计算机设备和存储介质 |
CN108921283A (zh) * | 2018-06-13 | 2018-11-30 | 深圳市商汤科技有限公司 | 深度神经网络的归一化方法和装置、设备、存储介质 |
US11869221B2 (en) * | 2018-09-27 | 2024-01-09 | Google Llc | Data compression using integer neural networks |
US11947668B2 (en) * | 2018-10-12 | 2024-04-02 | Sophos Limited | Methods and apparatus for preserving information between layers within a neural network |
KR20200051278A (ko) | 2018-11-05 | 2020-05-13 | 삼성전자주식회사 | 인공 신경망에서의 작업 관리 방법 및 이를 포함하는 시스템 |
US11687761B2 (en) * | 2018-12-11 | 2023-06-27 | Amazon Technologies, Inc. | Improper neural network input detection and handling |
US10789510B2 (en) * | 2019-01-11 | 2020-09-29 | Google Llc | Dynamic minibatch sizes |
US10325185B1 (en) * | 2019-01-23 | 2019-06-18 | StradVision, Inc. | Method and device for online batch normalization, on-device learning, and continual learning applicable to mobile devices or IOT devices additionally referring to one or more previous batches to be used for military purpose, drone or robot, and testing method and testing device using the same |
US11574052B2 (en) | 2019-01-31 | 2023-02-07 | Sophos Limited | Methods and apparatus for using machine learning to detect potentially malicious obfuscated scripts |
JP2020135011A (ja) | 2019-02-13 | 2020-08-31 | キオクシア株式会社 | 情報処理装置及び方法 |
CN109886392B (zh) * | 2019-02-25 | 2021-04-27 | 深圳市商汤科技有限公司 | 数据处理方法和装置、电子设备和存储介质 |
KR102046113B1 (ko) | 2019-03-19 | 2019-11-18 | 주식회사 루닛 | 신경망 학습 방법 및 그 장치 |
KR102046133B1 (ko) * | 2019-03-20 | 2019-11-18 | 주식회사 루닛 | 특징 데이터 리캘리브레이션 방법 및 그 장치 |
DE102019204136A1 (de) * | 2019-03-26 | 2020-10-01 | Robert Bosch Gmbh | Verfahren und Vorrichtung für Training und Herstellung eines künstlichen neuronalen Netzes |
KR102037483B1 (ko) | 2019-04-02 | 2019-11-15 | 주식회사 루닛 | 신경망 데이터 정규화 방법 및 그 장치 |
US11853890B2 (en) * | 2019-05-02 | 2023-12-26 | Macronix International Co., Ltd. | Memory device and operation method thereof |
US11361218B2 (en) * | 2019-05-31 | 2022-06-14 | International Business Machines Corporation | Noise and signal management for RPU array |
CN111967570B (zh) * | 2019-07-01 | 2024-04-05 | 北京砥脊科技有限公司 | 可视化神经网络系统的实现方法、装置和机器设备 |
KR102461732B1 (ko) * | 2019-07-16 | 2022-11-01 | 한국전자통신연구원 | 강화 학습 방법 및 장치 |
KR20190098106A (ko) * | 2019-08-02 | 2019-08-21 | 엘지전자 주식회사 | 배치 정규화 레이어 트레이닝 방법 |
CN110598852A (zh) * | 2019-08-29 | 2019-12-20 | 北京小米移动软件有限公司 | 子网络采样方法、构建超网络拓扑结构的方法及装置 |
DE102019213898A1 (de) * | 2019-09-11 | 2021-03-11 | Robert Bosch Gmbh | Robustes und besser trainierbares künstliches neuronales Netzwerk |
US11568259B2 (en) * | 2019-10-15 | 2023-01-31 | Zoox, Inc. | Cross batch normalization |
KR102127913B1 (ko) | 2019-10-29 | 2020-06-29 | 주식회사 루닛 | 신경망 학습 방법 및 그 장치 |
US11868855B2 (en) * | 2019-11-04 | 2024-01-09 | Hewlett Packard Enterprise Development Lp | Resiliency for machine learning workloads |
KR102143192B1 (ko) | 2019-11-12 | 2020-08-10 | 주식회사 루닛 | 신경망 학습 방법 및 그 장치 |
KR102143191B1 (ko) * | 2019-11-12 | 2020-08-10 | 주식회사 루닛 | 특징 데이터 리캘리브레이션 방법 및 그 장치 |
CN111144556B (zh) * | 2019-12-31 | 2023-07-07 | 中国人民解放军国防科技大学 | 面向深度神经网络训练和推理的范围批处理归一化算法的硬件电路 |
US11610303B2 (en) | 2020-03-03 | 2023-03-21 | The University Court Of The University Of Edinburgh | Data processing apparatus and method |
JP7297705B2 (ja) | 2020-03-18 | 2023-06-26 | 株式会社東芝 | 処理装置、処理方法、学習装置およびプログラム |
US11915419B1 (en) | 2020-06-25 | 2024-02-27 | Verily Life Sciences Llc | Auto-normalization for machine learning |
EP4193304A4 (en) * | 2020-09-08 | 2023-07-26 | Huawei Technologies Co., Ltd. | NORMALIZATION IN DEEP CONVOLUTIONAL NEURAL NETWORKS |
KR102441442B1 (ko) * | 2021-01-11 | 2022-09-08 | 성균관대학교산학협력단 | 그래프 컨볼루션 네트워크 학습 방법 및 장치 |
WO2022259566A1 (ja) | 2021-06-09 | 2022-12-15 | コニカミノルタ株式会社 | ニューラル・ネットワーク・システム |
US20230119791A1 (en) * | 2021-10-04 | 2023-04-20 | Qualcomm Incorporated | Relaxed instance frequency normalization for neural-network-based audio processing |
WO2023085852A1 (ko) * | 2021-11-11 | 2023-05-19 | 서울대학교산학협력단 | 통계 기반 정규화를 시행하는 딥 뉴럴 네트워크 학습 장치 및 그 방법 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1991014226A1 (en) | 1990-03-12 | 1991-09-19 | Fujitsu Limited | Neuro-fuzzy fusion data processing system |
JPH05346915A (ja) * | 1992-01-30 | 1993-12-27 | Ricoh Co Ltd | 学習機械並びにニューラルネットワークおよびデータ分析装置並びにデータ分析方法 |
JPH0785280B2 (ja) * | 1992-08-04 | 1995-09-13 | タカタ株式会社 | 神経回路網による衝突予測判定システム |
US5729662A (en) * | 1995-06-07 | 1998-03-17 | Rozmus; J. Michael | Neural network for classification of patterns with improved method and apparatus for ordering vectors |
US5790758A (en) * | 1995-07-07 | 1998-08-04 | The United States Of America As Represented By The Secretary Of The Navy | Neural network architecture for gaussian components of a mixture density function |
US6134537A (en) * | 1995-09-29 | 2000-10-17 | Ai Ware, Inc. | Visualization and self organization of multidimensional data through equalized orthogonal mapping |
US6539267B1 (en) * | 1996-03-28 | 2003-03-25 | Rosemount Inc. | Device in a process system for determining statistical parameter |
US6650779B2 (en) * | 1999-03-26 | 2003-11-18 | Georgia Tech Research Corp. | Method and apparatus for analyzing an image to detect and identify patterns |
US6418378B1 (en) * | 2000-06-26 | 2002-07-09 | Westerngeco, L.L.C. | Neural net prediction of seismic streamer shape |
US7305370B2 (en) * | 2000-11-30 | 2007-12-04 | Yang Ming Pok | Neural cortex |
US7107207B2 (en) | 2002-06-19 | 2006-09-12 | Microsoft Corporation | Training machine learning by sequential conditional generalized iterative scaling |
US7082394B2 (en) * | 2002-06-25 | 2006-07-25 | Microsoft Corporation | Noise-robust feature extraction using multi-layer principal component analysis |
US7496546B2 (en) | 2003-03-24 | 2009-02-24 | Riken | Interconnecting neural network system, interconnecting neural network structure construction method, self-organizing neural network structure construction method, and construction programs therefor |
US7219085B2 (en) | 2003-12-09 | 2007-05-15 | Microsoft Corporation | System and method for accelerating and optimizing the processing of machine learning techniques using a graphics processing unit |
JP2005352900A (ja) | 2004-06-11 | 2005-12-22 | Canon Inc | 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法 |
US7747070B2 (en) | 2005-08-31 | 2010-06-29 | Microsoft Corporation | Training convolutional neural networks on graphics processing units |
CN100367300C (zh) | 2006-07-07 | 2008-02-06 | 华中科技大学 | 一种基于人工神经网络的特征选择方法 |
US7606777B2 (en) | 2006-09-01 | 2009-10-20 | Massachusetts Institute Of Technology | High-performance vision system exploiting key features of visual cortex |
EP2345984B1 (en) * | 2010-01-19 | 2012-03-14 | Honda Research Institute Europe GmbH | Online learning of grounded categories using adaptive feature spaces |
JP5772442B2 (ja) | 2011-09-22 | 2015-09-02 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
US10127475B1 (en) | 2013-05-31 | 2018-11-13 | Google Llc | Classifying images |
US9892238B2 (en) | 2013-06-07 | 2018-02-13 | Scientific Design Company, Inc. | System and method for monitoring a process |
CN103824055B (zh) * | 2014-02-17 | 2018-03-02 | 北京旷视科技有限公司 | 一种基于级联神经网络的人脸识别方法 |
US9058517B1 (en) | 2014-04-16 | 2015-06-16 | I.R.I.S. | Pattern recognition system and method using Gabor functions |
EP3029606A3 (en) | 2014-11-14 | 2016-09-14 | Thomson Licensing | Method and apparatus for image classification with joint feature adaptation and classifier learning |
EP3251059B1 (en) | 2015-01-28 | 2018-12-05 | Google LLC | Batch normalization layers |
US11151449B2 (en) * | 2018-01-24 | 2021-10-19 | International Business Machines Corporation | Adaptation of a trained neural network |
KR102046113B1 (ko) * | 2019-03-19 | 2019-11-18 | 주식회사 루닛 | 신경망 학습 방법 및 그 장치 |
US11367163B2 (en) * | 2019-05-31 | 2022-06-21 | Apple Inc. | Enhanced image processing techniques for deep neural networks |
US11568259B2 (en) * | 2019-10-15 | 2023-01-31 | Zoox, Inc. | Cross batch normalization |
US20210150306A1 (en) * | 2019-11-14 | 2021-05-20 | Qualcomm Incorporated | Phase selective convolution with dynamic weight selection |
-
2016
- 2016-01-28 EP EP16704121.9A patent/EP3251059B1/en active Active
- 2016-01-28 MX MX2017009879A patent/MX2017009879A/es unknown
- 2016-01-28 TR TR2019/02908T patent/TR201902908T4/tr unknown
- 2016-01-28 ES ES16704121T patent/ES2714152T3/es active Active
- 2016-01-28 DK DK16704121.9T patent/DK3251059T3/da active
- 2016-01-28 CN CN201680012517.XA patent/CN107278310A/zh active Pending
- 2016-01-28 US US15/009,647 patent/US10417562B2/en active Active
- 2016-01-28 PL PL16704121T patent/PL3251059T3/pl unknown
- 2016-01-28 DE DE112016000509.1T patent/DE112016000509T5/de active Pending
- 2016-01-28 KR KR1020177023719A patent/KR102055355B1/ko active IP Right Grant
- 2016-01-28 JP JP2017539561A patent/JP6453477B2/ja active Active
- 2016-01-28 SG SG11201706127RA patent/SG11201706127RA/en unknown
- 2016-01-28 WO PCT/US2016/015476 patent/WO2016123409A1/en active Application Filing
- 2016-01-28 EP EP21161358.3A patent/EP3872716A1/en active Pending
- 2016-01-28 AU AU2016211333A patent/AU2016211333B2/en active Active
- 2016-01-28 EP EP18207898.0A patent/EP3483795B1/en active Active
- 2016-01-28 CA CA2975251A patent/CA2975251C/en active Active
- 2016-01-28 KR KR1020197036115A patent/KR102204286B1/ko active IP Right Grant
- 2016-01-28 RU RU2017130151A patent/RU2666308C1/ru active
-
2017
- 2017-07-26 IL IL253676A patent/IL253676A0/en active IP Right Grant
-
2018
- 2018-12-12 JP JP2018232445A patent/JP6710745B2/ja active Active
- 2018-12-19 US US16/226,483 patent/US10628710B2/en active Active
-
2019
- 2019-01-17 AU AU2019200309A patent/AU2019200309B2/en active Active
- 2019-09-16 US US16/572,454 patent/US10902319B2/en active Active
-
2020
- 2020-04-01 US US16/837,959 patent/US11308394B2/en active Active
- 2020-05-27 JP JP2020092300A patent/JP6935542B2/ja active Active
- 2020-10-09 AU AU2020250312A patent/AU2020250312B2/en active Active
-
2021
- 2021-01-22 US US17/156,464 patent/US20210216870A1/en active Pending
- 2021-01-22 US US17/156,453 patent/US11893485B2/en active Active
- 2021-07-30 US US17/390,768 patent/US11281973B2/en active Active
- 2021-08-25 JP JP2021137180A patent/JP7179935B2/ja active Active
-
2022
- 2022-03-16 AU AU2022201819A patent/AU2022201819B2/en active Active
- 2022-04-18 US US17/723,007 patent/US11853885B2/en active Active
- 2022-11-16 JP JP2022183459A patent/JP2023029845A/ja active Pending
-
2023
- 2023-12-22 AU AU2023285952A patent/AU2023285952A1/en active Pending
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DK3251059T3 (da) | Batch-normaliseringslag | |
US10762421B2 (en) | Whitened neural network layers | |
WO2019075267A1 (en) | ARTIFICIAL NEURON NETWORK AUTO-SYNCHRONIZATION ACTIVATION LAYERS |