DK3251059T3 - Batch-normaliseringslag - Google Patents

Batch-normaliseringslag Download PDF

Info

Publication number
DK3251059T3
DK3251059T3 DK16704121.9T DK16704121T DK3251059T3 DK 3251059 T3 DK3251059 T3 DK 3251059T3 DK 16704121 T DK16704121 T DK 16704121T DK 3251059 T3 DK3251059 T3 DK 3251059T3
Authority
DK
Denmark
Prior art keywords
layer
neural network
batch
output
outputs
Prior art date
Application number
DK16704121.9T
Other languages
English (en)
Inventor
Sergey Ioffe
Corinna Cortes
Original Assignee
Google Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google Llc filed Critical Google Llc
Application granted granted Critical
Publication of DK3251059T3 publication Critical patent/DK3251059T3/da

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Claims (15)

  1. BATCH-NORM ALISERINGSLAG E Neuralt netværkssystem (100), der er implementeret af én eller flere computere, hvilket neuralt netværkssystem omfatter: et batch-normaliseringslag (108) mellem et første neuralt netværkslag (104) og et andet neuralt netværkslag (112), hvor det første neurale netværkslag genererer første lag-output med en flerhed af komponenter, og hvor batch-normaliseringslaget er konfigureret til, under træning af det neurale netværkssystem på en batch af træningseksempler, at: modtage et tilsvarende første lag-output for hvert træningseksempel i batchen; beregne en flerhed af normaliseringsstatistikker for batchet ud fra de første lag-outputs; normalisere hver komponent af hvert første lag-output ved anvendelse af normaliseringsstatistikkerne til at generere et tilsvarende normaliseret lag-output for hvert træningseksempel i batchen; generere et tilsvarende batch-normaliseringslag-output for hvert af træningseksempleme ud fra de normaliserede lag-outputs; og tilvejebringe batch-normaliseringslag-outputtet som et input til det andet neurale netværkslag; hvor flerheden af komponenter af det første lag-output er indekseret efter dimension, og hvor beregning af en flerhed af normaliseringsstatistikker for de første lag-outputs omfatter: beregning, for hver af dimensionerne, af en middelværdi for komponenterne af de første lagoutputs i dimensionen; og beregning, for hver af dimensionerne, af en standardafvigelse for komponenterne af de første lagoutputs i dimensionen.
  2. 2. Neuralt netværkssystem ifølge krav 1, hvor normalisering af hver komponent af hvert lag-output omfatter: normalisering af komponenten ved anvendelse af den beregnede middelværdi og beregnede standardafvigelse for den dimension, der svarer til komponenten.
  3. 3. Neuralt netværkssystem ifølge krav 1 eller 2, hvor batch-normaliseringslaget bevarer et tilsvarende sæt af parametre for hver dimension, og hvor generering af det tilsvarende batch-normaliseringslag-output for hvert af træningseksempleme ud fra de normaliserede lag-outputs omfatter: transformering, for hver dimension, af komponenten af det normaliserede lag-output for træningseksemplet i dimensionen i overensstemmelse med aktuelle værdier af et sæt af parametre for dimensionen.
  4. 4. Neuralt netværkssystem ifølge krav 3, hvor batch-normaliseringslaget er konfigureret til, efter at det neurale netværkssystem er blevet trænet til at bestemme trænede værdier af parametrene for hver af dimensionerne, at: modtage et nyt første lag-output genereret af det første neurale netværkslag for et nyt neuralt netværks-input; normalisere hver komponent af det nye første lag-output ved anvendelse af forudberegnede middel- og standardafvigelsesstatistikker for dimensionerne for at generere et nyt normaliseret lag-output; generere et nyt batch-normaliseringslag-output ved transformering, for hver dimension, af komponenten af det nye normaliserede lag-output for træningseksemplet i dimensionen i overensstemmelse med trænede værdier af sættet af parametre for dimensionen; og tilvejebringe batch-normaliseringslag-outputtet som et nyt lag-input til det andet neurale netværkslag.
  5. 5. Neuralt netværkssystem ifølge krav 4, hvor de forudberegnede middel- og standardafvigelsesstatistikker for dimensionerne er beregnet ud fra de første lag-outputs genereret af det første neurale netværkslag under træning af det neurale netværkssystem eller er beregnet ud fra nye første lag-outputs genereret af det første neurale netværkslag, efter at det neurale netværk er blevet trænet.
  6. 6. Neuralt netværkssystem implementeret af én eller flere computere, hvilket neuralt netværkssystem omfatter: et batch-normaliseringslag mellem et første neuralt netværkslag og et andet neuralt netværkslag, hvor det første neurale netværkslag genererer første lag-outputs med en flerhed af komponenter, og hvor batch-normaliseringslaget er konfigureret til, under træning af det neurale netværkssystem på en batch af træningseksempler, at: modtage et tilsvarende første lag-output for hvert træningseksempel i batchen; beregne en flerhed af normaliseringsstatistikker for batchet fra de første lag-outputs; normalisere hver komponent af hvert første lag-output ved anvendelse af normaliseringsstatistikkerne for at generere et tilsvarende normaliseret lag-output for hvert træningseksempel i batchen; generere et tilsvarende batch-normaliseringslag-output for hvert af træningseksempleme ud fra de normaliserede lag-outputs; og tilvejebringe batch-normaliseringslag-outputtet som et input til det andet neurale netværkslag; hvor det første neurale netværkslag er et konvolutionslag, hvor flerheden af komponenter af det første lag-output er indekseret efter karakteristikindeks og rumligt lokalitetsindeks, og hvor beregning af en flerhed af normaliseringsstatistikker for de første lag-outputs omfatter, for hvert af karakteristikindekserne: beregning af en middelværdi for komponenterne af de første lag-outputs, der svarer til karakteristikindekset; og beregning af en varians for komponenterne af de første lag-outputs, der svarer til karakteristikindekset.
  7. 7. Neuralt netværkssystem ifølge krav 6, hvor normalisering af hver komponent af hvert lag-output omfatter: normalisering af komponenten ved anvendelse af middelværdien og variansen for det karakteristikindeks, der svarer til komponenten.
  8. 8. Neuralt netværkssystem ifølge krav 6 eller 7, hvor generering af det tilsvarende batch-normaliseringslag-output for hvert af træningseksemplerne fra de normaliserede lag-outputs omfatter: transformering af hver komponent af det normaliserede lag-output i overensstemmelse med aktuelle værdier af et sæt af parametre for det karakteristikindeks, der svarer til komponenten.
  9. 9. Neuralt netværkssystem ifølge krav 8, hvor batch-normaliseringslaget er konfigureret til, efter at det neurale netværk er blevet trænet til at bestemme trænede værdier af parametrene for hver af dimensionerne, at: modtage et nyt første lag-input genereret fra et nyt neuralt netværks-input; normalisere hver komponent af det nye første lag-output ved anvendelse af forberegnede middel-og standardafvigelsesstatistikker for karakteristikindekseme til at generere et nyt normaliseret lag-output; generere et nyt batch-normaliseringslag-output ved transformering af hver komponent af det normaliserede lag-output i overensstemmelse med trænede værdier af sættet af parametre for det karakteristikindeks, der svarer til komponenten; og tilvejebringe det nye batch-normaliseringslag-output som et nyt lag-input til det andet neurale netværkslag.
  10. 10. Neuralt netværkssystem ifølge krav 6, hvor flerheden af komponenter af det første lag-output er indekseret efter karakteristikindeks og rumligt lokalitetsindeks, og hvor beregning af en flerhed af normaliseringsstatistikker for de første lag-outputs endvidere omfatter: beregning, for hver kombination af karakteristikindeks og rumligt lokalitetsindeks, af en middelværdi for komponenterne af de første lag-outputs med karakteristikindekset og rumligt lokalitetsindeks; beregning, for hvert karakteristikindeks, af et gennemsnit af middelværdierne for kombinationerna, der indbefatter karakteristikindekset; beregning, for hver kombination af karakteristikindeks og rumligt lokalitetsindeks, af en varians for komponenterne af de første lag-outputs med karakteristikindekset og rumligt lokalitetsindeks; og beregning, for hvert karakteristikindeks, af et gennemsnit af varianseme for kombinationerna, der indbefatter karakteristikindekset.
  11. 11. Neuralt netværkssystem ifølge krav 6, hvor normalisering af hver komponent af hvert lag-output omfatter: normalisering af komponenten ved anvendelse af gennemsnittet af middelværdierne og gennemsnittet af varianserne for det karakteristikindeks, der svarer til komponenten.
  12. 12. Neuralt netværkssystem ifølge et hvilket som helst af kravene 1-11, hvor det første neurale netværkslag genererer de første lag-outputs ved modificering af de første lag-inputs i overensstemmelse med aktuelle værdier af et sæt af parametre for det første neurale netværkslag og hvor det andet neurale netværkslag genererer andet lag-outputs ved anvendelse af en ikke-lineær operation til batch-normaliseringslag-outputs; eller hvor det første neurale netværkslag genererer de første lag-outputs ved modificering af første lag-inputs i overensstemmelse med aktuelle værdier af et sæt af parametre for det første neurale netværkslag for at generere modificerede første lag-inputs og derefter anvendelse af en ikke-lineær operation til de modificerede første lag-inputs.
  13. 13. Neuralt netværkssystem ifølge et hvilket som helst af kravene 1-12, hvor, under træningen af det neurale netværk, det neurale netværkssystem er konfigureret til at tilbagepropagere normaliseringsstatistikkerne som en del af justering af værdier af det neurale netværks parametre.
  14. 14. Fremgangsmåde til behandling af data ved anvendelse af det neurale netværkssystem ifølge et hvilket som helst af kravene 1-13, hvor fremgangsmåden omfatter udførelse af handlinger med et batch-normaliseringslag mellem et første neuralt netværkslag og et andet neuralt netværkslag, hvor det første neurale netværkslag genererer første lag-output med en flerhed af komponenter, hvor fremgangsmåden omfatter anvendelse af batch-normaliseringslaget til, under træning af det neurale netværkssystem på en batch af træningseksempler, at: modtage et tilsvarende første lag-output for hvert træningseksempel i batchen; beregne en flerhed af normaliseringsstatistikker for batchet fra de første lag-outputs; normalisere hver komponent af hvert første lag-output ved anvendelse af normaliseringsstatistikkerne til at generere et tilsvarende normaliseret lag-output for hvert træningseksempel i batchen; generere et tilsvarende batch-normaliseringslag-output for hvert af træningseksempleme ud fra de normaliserede lag-outputs; og tilvejebringe batch-normaliseringslag-outputtet som et input til det andet neurale netværkslag; hvor flerheden af komponenter af det første lag-output er indekseret efter i) dimension eller ii) hvor det første neurale netværkslag er et konvolutionslag og hvor flerheden af komponenter af det første lag-output er indekseret efter karakteristikindeks og rumligt lokalitetsindeks, og hvor beregning af en flerhed af normaliseringsstatistikker for de første lag-outputs endvidere omfatter, for (i): beregning, for hver af dimensionerne, af en middelværdi for komponenterne af de første lagoutputs i dimensionen; og beregning, for hver af dimensionerne, af en standardafvigelse for komponenterne af de første lagoutputs i dimensionen; og for (ii): beregning, for hvert af karakteristikindekseme, af en middelværdi for komponenterne af de første lag-outputs, der svarer til karakteristikindekset; og beregning, for hvert af karakteristikindekserne, af en varians for komponenterne af de første lagoutputs der svarer til karakteristikindekset.
  15. 15. Et eller flere ikke-transitoriske computerlagringsmedier, der er kodet med et computerprogram, hvilket computerprogram omfatter instruktioner, der, når de udføres af én eller flere computere, bevirker, at den ene eller flere computere implementerer fremgangsmåden ifølge krav 14.
DK16704121.9T 2015-01-28 2016-01-28 Batch-normaliseringslag DK3251059T3 (da)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562108984P 2015-01-28 2015-01-28
PCT/US2016/015476 WO2016123409A1 (en) 2015-01-28 2016-01-28 Batch normalization layers

Publications (1)

Publication Number Publication Date
DK3251059T3 true DK3251059T3 (da) 2019-04-01

Family

ID=55349983

Family Applications (1)

Application Number Title Priority Date Filing Date
DK16704121.9T DK3251059T3 (da) 2015-01-28 2016-01-28 Batch-normaliseringslag

Country Status (17)

Country Link
US (8) US10417562B2 (da)
EP (3) EP3251059B1 (da)
JP (5) JP6453477B2 (da)
KR (2) KR102055355B1 (da)
CN (1) CN107278310A (da)
AU (5) AU2016211333B2 (da)
CA (1) CA2975251C (da)
DE (1) DE112016000509T5 (da)
DK (1) DK3251059T3 (da)
ES (1) ES2714152T3 (da)
IL (1) IL253676A0 (da)
MX (1) MX2017009879A (da)
PL (1) PL3251059T3 (da)
RU (1) RU2666308C1 (da)
SG (1) SG11201706127RA (da)
TR (1) TR201902908T4 (da)
WO (1) WO2016123409A1 (da)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3251059B1 (en) 2015-01-28 2018-12-05 Google LLC Batch normalization layers
CN107851195B (zh) * 2015-07-29 2022-02-11 诺基亚技术有限公司 利用神经网络进行目标检测
IL281241B (en) 2016-08-22 2022-08-01 Magic Leap Inc An augmented reality display device with deep learning sensors
CN110291540A (zh) 2017-02-10 2019-09-27 谷歌有限责任公司 批再归一化层
US10255681B2 (en) * 2017-03-02 2019-04-09 Adobe Inc. Image matting using deep learning
US11308391B2 (en) 2017-03-06 2022-04-19 Baidu Usa Llc Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles
CN110366733A (zh) * 2017-03-06 2019-10-22 索尼公司 信息处理装置
EP3602419B1 (en) * 2017-04-28 2023-09-20 Google LLC Neural network optimizer search
CN109034384B (zh) * 2017-06-12 2021-06-22 浙江宇视科技有限公司 一种数据处理方法和装置
US10635813B2 (en) 2017-10-06 2020-04-28 Sophos Limited Methods and apparatus for using machine learning on multiple file fragments to identify malware
US11586905B2 (en) * 2017-10-11 2023-02-21 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for customizing kernel machines with deep neural networks
CN111373416B (zh) * 2017-10-27 2024-01-23 谷歌有限责任公司 通过离散神经网络输入来增强神经网络的安全性
WO2019123544A1 (ja) 2017-12-19 2019-06-27 オリンパス株式会社 データ処理方法およびデータ処理装置
CN108009634B (zh) * 2017-12-21 2021-05-25 美的集团股份有限公司 一种卷积神经网络的优化方法、装置及计算机存储介质
EP3511872A1 (en) 2018-01-12 2019-07-17 Sony Corporation Artificial neural network
WO2019145912A1 (en) 2018-01-26 2019-08-01 Sophos Limited Methods and apparatus for detection of malicious documents using machine learning
US11941491B2 (en) 2018-01-31 2024-03-26 Sophos Limited Methods and apparatus for identifying an impact of a portion of a file on machine learning classification of malicious content
WO2019149376A1 (en) 2018-02-02 2019-08-08 Toyota Motor Europe Method and system for processing input data using a neural network and normalizations
WO2019149375A1 (en) * 2018-02-02 2019-08-08 Toyota Motor Europe Method and system for processing input data and propagating variance in a neural network
US20190251429A1 (en) * 2018-02-12 2019-08-15 Kneron, Inc. Convolution operation device and method of scaling convolution input for convolution neural network
CN108875787B (zh) * 2018-05-23 2020-07-14 北京市商汤科技开发有限公司 一种图像识别方法及装置、计算机设备和存储介质
CN108921283A (zh) * 2018-06-13 2018-11-30 深圳市商汤科技有限公司 深度神经网络的归一化方法和装置、设备、存储介质
US11869221B2 (en) * 2018-09-27 2024-01-09 Google Llc Data compression using integer neural networks
US11947668B2 (en) * 2018-10-12 2024-04-02 Sophos Limited Methods and apparatus for preserving information between layers within a neural network
KR20200051278A (ko) 2018-11-05 2020-05-13 삼성전자주식회사 인공 신경망에서의 작업 관리 방법 및 이를 포함하는 시스템
US11687761B2 (en) * 2018-12-11 2023-06-27 Amazon Technologies, Inc. Improper neural network input detection and handling
US10789510B2 (en) * 2019-01-11 2020-09-29 Google Llc Dynamic minibatch sizes
US10325185B1 (en) * 2019-01-23 2019-06-18 StradVision, Inc. Method and device for online batch normalization, on-device learning, and continual learning applicable to mobile devices or IOT devices additionally referring to one or more previous batches to be used for military purpose, drone or robot, and testing method and testing device using the same
US11574052B2 (en) 2019-01-31 2023-02-07 Sophos Limited Methods and apparatus for using machine learning to detect potentially malicious obfuscated scripts
JP2020135011A (ja) 2019-02-13 2020-08-31 キオクシア株式会社 情報処理装置及び方法
CN109886392B (zh) * 2019-02-25 2021-04-27 深圳市商汤科技有限公司 数据处理方法和装置、电子设备和存储介质
KR102046113B1 (ko) 2019-03-19 2019-11-18 주식회사 루닛 신경망 학습 방법 및 그 장치
KR102046133B1 (ko) * 2019-03-20 2019-11-18 주식회사 루닛 특징 데이터 리캘리브레이션 방법 및 그 장치
DE102019204136A1 (de) * 2019-03-26 2020-10-01 Robert Bosch Gmbh Verfahren und Vorrichtung für Training und Herstellung eines künstlichen neuronalen Netzes
KR102037483B1 (ko) 2019-04-02 2019-11-15 주식회사 루닛 신경망 데이터 정규화 방법 및 그 장치
US11853890B2 (en) * 2019-05-02 2023-12-26 Macronix International Co., Ltd. Memory device and operation method thereof
US11361218B2 (en) * 2019-05-31 2022-06-14 International Business Machines Corporation Noise and signal management for RPU array
CN111967570B (zh) * 2019-07-01 2024-04-05 北京砥脊科技有限公司 可视化神经网络系统的实现方法、装置和机器设备
KR102461732B1 (ko) * 2019-07-16 2022-11-01 한국전자통신연구원 강화 학습 방법 및 장치
KR20190098106A (ko) * 2019-08-02 2019-08-21 엘지전자 주식회사 배치 정규화 레이어 트레이닝 방법
CN110598852A (zh) * 2019-08-29 2019-12-20 北京小米移动软件有限公司 子网络采样方法、构建超网络拓扑结构的方法及装置
DE102019213898A1 (de) * 2019-09-11 2021-03-11 Robert Bosch Gmbh Robustes und besser trainierbares künstliches neuronales Netzwerk
US11568259B2 (en) * 2019-10-15 2023-01-31 Zoox, Inc. Cross batch normalization
KR102127913B1 (ko) 2019-10-29 2020-06-29 주식회사 루닛 신경망 학습 방법 및 그 장치
US11868855B2 (en) * 2019-11-04 2024-01-09 Hewlett Packard Enterprise Development Lp Resiliency for machine learning workloads
KR102143192B1 (ko) 2019-11-12 2020-08-10 주식회사 루닛 신경망 학습 방법 및 그 장치
KR102143191B1 (ko) * 2019-11-12 2020-08-10 주식회사 루닛 특징 데이터 리캘리브레이션 방법 및 그 장치
CN111144556B (zh) * 2019-12-31 2023-07-07 中国人民解放军国防科技大学 面向深度神经网络训练和推理的范围批处理归一化算法的硬件电路
US11610303B2 (en) 2020-03-03 2023-03-21 The University Court Of The University Of Edinburgh Data processing apparatus and method
JP7297705B2 (ja) 2020-03-18 2023-06-26 株式会社東芝 処理装置、処理方法、学習装置およびプログラム
US11915419B1 (en) 2020-06-25 2024-02-27 Verily Life Sciences Llc Auto-normalization for machine learning
EP4193304A4 (en) * 2020-09-08 2023-07-26 Huawei Technologies Co., Ltd. NORMALIZATION IN DEEP CONVOLUTIONAL NEURAL NETWORKS
KR102441442B1 (ko) * 2021-01-11 2022-09-08 성균관대학교산학협력단 그래프 컨볼루션 네트워크 학습 방법 및 장치
WO2022259566A1 (ja) 2021-06-09 2022-12-15 コニカミノルタ株式会社 ニューラル・ネットワーク・システム
US20230119791A1 (en) * 2021-10-04 2023-04-20 Qualcomm Incorporated Relaxed instance frequency normalization for neural-network-based audio processing
WO2023085852A1 (ko) * 2021-11-11 2023-05-19 서울대학교산학협력단 통계 기반 정규화를 시행하는 딥 뉴럴 네트워크 학습 장치 및 그 방법

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991014226A1 (en) 1990-03-12 1991-09-19 Fujitsu Limited Neuro-fuzzy fusion data processing system
JPH05346915A (ja) * 1992-01-30 1993-12-27 Ricoh Co Ltd 学習機械並びにニューラルネットワークおよびデータ分析装置並びにデータ分析方法
JPH0785280B2 (ja) * 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
US5729662A (en) * 1995-06-07 1998-03-17 Rozmus; J. Michael Neural network for classification of patterns with improved method and apparatus for ordering vectors
US5790758A (en) * 1995-07-07 1998-08-04 The United States Of America As Represented By The Secretary Of The Navy Neural network architecture for gaussian components of a mixture density function
US6134537A (en) * 1995-09-29 2000-10-17 Ai Ware, Inc. Visualization and self organization of multidimensional data through equalized orthogonal mapping
US6539267B1 (en) * 1996-03-28 2003-03-25 Rosemount Inc. Device in a process system for determining statistical parameter
US6650779B2 (en) * 1999-03-26 2003-11-18 Georgia Tech Research Corp. Method and apparatus for analyzing an image to detect and identify patterns
US6418378B1 (en) * 2000-06-26 2002-07-09 Westerngeco, L.L.C. Neural net prediction of seismic streamer shape
US7305370B2 (en) * 2000-11-30 2007-12-04 Yang Ming Pok Neural cortex
US7107207B2 (en) 2002-06-19 2006-09-12 Microsoft Corporation Training machine learning by sequential conditional generalized iterative scaling
US7082394B2 (en) * 2002-06-25 2006-07-25 Microsoft Corporation Noise-robust feature extraction using multi-layer principal component analysis
US7496546B2 (en) 2003-03-24 2009-02-24 Riken Interconnecting neural network system, interconnecting neural network structure construction method, self-organizing neural network structure construction method, and construction programs therefor
US7219085B2 (en) 2003-12-09 2007-05-15 Microsoft Corporation System and method for accelerating and optimizing the processing of machine learning techniques using a graphics processing unit
JP2005352900A (ja) 2004-06-11 2005-12-22 Canon Inc 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
US7747070B2 (en) 2005-08-31 2010-06-29 Microsoft Corporation Training convolutional neural networks on graphics processing units
CN100367300C (zh) 2006-07-07 2008-02-06 华中科技大学 一种基于人工神经网络的特征选择方法
US7606777B2 (en) 2006-09-01 2009-10-20 Massachusetts Institute Of Technology High-performance vision system exploiting key features of visual cortex
EP2345984B1 (en) * 2010-01-19 2012-03-14 Honda Research Institute Europe GmbH Online learning of grounded categories using adaptive feature spaces
JP5772442B2 (ja) 2011-09-22 2015-09-02 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US10127475B1 (en) 2013-05-31 2018-11-13 Google Llc Classifying images
US9892238B2 (en) 2013-06-07 2018-02-13 Scientific Design Company, Inc. System and method for monitoring a process
CN103824055B (zh) * 2014-02-17 2018-03-02 北京旷视科技有限公司 一种基于级联神经网络的人脸识别方法
US9058517B1 (en) 2014-04-16 2015-06-16 I.R.I.S. Pattern recognition system and method using Gabor functions
EP3029606A3 (en) 2014-11-14 2016-09-14 Thomson Licensing Method and apparatus for image classification with joint feature adaptation and classifier learning
EP3251059B1 (en) 2015-01-28 2018-12-05 Google LLC Batch normalization layers
US11151449B2 (en) * 2018-01-24 2021-10-19 International Business Machines Corporation Adaptation of a trained neural network
KR102046113B1 (ko) * 2019-03-19 2019-11-18 주식회사 루닛 신경망 학습 방법 및 그 장치
US11367163B2 (en) * 2019-05-31 2022-06-21 Apple Inc. Enhanced image processing techniques for deep neural networks
US11568259B2 (en) * 2019-10-15 2023-01-31 Zoox, Inc. Cross batch normalization
US20210150306A1 (en) * 2019-11-14 2021-05-20 Qualcomm Incorporated Phase selective convolution with dynamic weight selection

Also Published As

Publication number Publication date
ES2714152T3 (es) 2019-05-27
RU2666308C1 (ru) 2018-09-06
JP7179935B2 (ja) 2022-11-29
BR112017016306A2 (pt) 2018-07-10
US10902319B2 (en) 2021-01-26
KR20170108081A (ko) 2017-09-26
AU2020250312A1 (en) 2020-11-12
EP3872716A1 (en) 2021-09-01
CA2975251A1 (en) 2016-08-04
JP6710745B2 (ja) 2020-06-17
PL3251059T3 (pl) 2019-05-31
US20200057924A1 (en) 2020-02-20
KR102055355B1 (ko) 2019-12-12
DE112016000509T5 (de) 2018-03-22
EP3483795A1 (en) 2019-05-15
EP3251059A1 (en) 2017-12-06
JP2020149719A (ja) 2020-09-17
JP6453477B2 (ja) 2019-01-16
AU2016211333B2 (en) 2018-11-15
US11308394B2 (en) 2022-04-19
JP2023029845A (ja) 2023-03-07
CA2975251C (en) 2021-01-26
US20200234127A1 (en) 2020-07-23
US11853885B2 (en) 2023-12-26
KR102204286B1 (ko) 2021-01-18
US20200012942A1 (en) 2020-01-09
AU2022201819B2 (en) 2023-09-28
EP3251059B1 (en) 2018-12-05
AU2020250312B2 (en) 2021-12-16
BR112017016306A8 (pt) 2018-08-14
US11893485B2 (en) 2024-02-06
AU2019200309A1 (en) 2019-02-07
AU2023285952A1 (en) 2024-01-25
JP2021192251A (ja) 2021-12-16
IL253676A0 (en) 2017-09-28
US10417562B2 (en) 2019-09-17
US20210216870A1 (en) 2021-07-15
CN107278310A (zh) 2017-10-20
WO2016123409A1 (en) 2016-08-04
JP2019071080A (ja) 2019-05-09
US10628710B2 (en) 2020-04-21
AU2019200309B2 (en) 2020-07-09
TR201902908T4 (tr) 2019-03-21
SG11201706127RA (en) 2017-08-30
US20210224653A1 (en) 2021-07-22
JP2018508879A (ja) 2018-03-29
AU2022201819A1 (en) 2022-04-07
AU2016211333A1 (en) 2017-08-17
US20220237462A1 (en) 2022-07-28
JP6935542B2 (ja) 2021-09-15
KR20190138712A (ko) 2019-12-13
US20160217368A1 (en) 2016-07-28
EP3483795B1 (en) 2021-03-10
MX2017009879A (es) 2018-05-28
US20210357756A1 (en) 2021-11-18
US11281973B2 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
DK3251059T3 (da) Batch-normaliseringslag
US10762421B2 (en) Whitened neural network layers
WO2019075267A1 (en) ARTIFICIAL NEURON NETWORK AUTO-SYNCHRONIZATION ACTIVATION LAYERS