BR102018008580A2 - método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas - Google Patents
método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas Download PDFInfo
- Publication number
- BR102018008580A2 BR102018008580A2 BR102018008580-8A BR102018008580A BR102018008580A2 BR 102018008580 A2 BR102018008580 A2 BR 102018008580A2 BR 102018008580 A BR102018008580 A BR 102018008580A BR 102018008580 A2 BR102018008580 A2 BR 102018008580A2
- Authority
- BR
- Brazil
- Prior art keywords
- training
- coding
- backpropagation
- backpropagation algorithm
- instances
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 23
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000002068 genetic effect Effects 0.000 abstract 1
- 230000003068 static effect Effects 0.000 abstract 1
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/086—Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Physiology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
Abstract
método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas. a presente invenção refere-se a uma técnica de treinamento de redes neurais artificiais de forma a adaptar as configurações internas do algoritmo de retropropagação resiliente a medida que o treinamento evolui, utilizando os conceitos de algoritmos genéticos e redes neurais evolutivas. desta forma, cria-se a possibilidade de uma sintonia (tunning) mais adequada e mais rápida para o dado a ser aprendido ao invés de uma sintonia estática e universal para qualquer dado.
Description
“MÉTODO DE TREINAMENTO DE REDE NEURAL COM AJUSTE DE RETROPROPAGAÇÃO RESILIENTE UTILIZANDO REDES NEURAIS EVOLUTIVAS”
CAMPO DA INVENÇÃO [001] A presente invenção compreende um método para otimizar e melhorar o desempenho do algoritmo de retropropagação resiliente (RPROP - resiliente backpropagation) com o auxílio de redes neurais evolutivas para a sintonia ou ajuste (tunning - configurações internas do algoritmo) melhor para cada tipo de dado a ser treinado.
FUNDAMENTOS DA INVENÇÃO [002] Como sabido por aqueles técnicos no assunto, as redes neurais artificiais dependem de um algoritmo de treinamento para que possam ser utilizadas.
[003] É bastante difundido o algoritmo de treinamento de redes neurais chamado de RPROP, retropropagação resiliente ou “resilient backpropagation” no termo em inglês largamente utilizado. De modo simplificado, o algoritmo de retropropagação utiliza passos de programação e retropropagação em cada etapa de treinamento. No passo de programação, um sinal de entrada é propagado pela rede até produzir uma resposta na camada de saída. A resposta de saída é comparada com uma resposta alvo (target), indicado o erro. No passo de retropropagação, o erro é retropropagado da camada de saída até a camada de entrada, sendo que os parâmetros do algoritmo vão sendo modificado conforme o erro é propagado.
[004] O algoritmo RPROP tem como uma de suas principais estratégias o ajuste dos passos dados a cada etapa de treinamento: o algoritmo utiliza ajustes que vão aumentando ou diminuindo a medida que o alvo (target) de treinamento é aproximado.
[005] A taxa de aumento e de diminuição dos ajustes feitos a cada passo é fixa ou aleatória dentro de uma faixa fixa. Assim, é utilizada uma sintonia (tunning) universal para qualquer tipo de dado a ser treinado.
Petição 870180034467, de 27/04/2018, pág. 6/13
2/5 [006] Assim, permanece no estado da técnica a necessidade por um método de treinamento mais rápido, onde o ajuste (tunning) leve em conta e seja melhor adaptado ao tipo de dado a ser treinado. Nesse sentido, ressalta-se que um processo de treinamento otimizado reduz consideravelmente o custo computacional associado, tornando a aplicação desse tipo de técnica comercialmente interessante.
OBJETIVOS DA INVENÇÂO [007] É um dos objetivos da presente invenção proporcionar um método de treinamento de redes neurais que seja capaz de otimizar e melhorar o desempenho do algoritmo de retropropagação, utilizando redes neurais evolutivas.
[008] É mais um dos objetivos da presente invenção proporcionar um método que seja capaz de otimizar e melhorar o desempenho do algoritmo de retropropagação ao oferecer o melhor ajuste (tunning) para cada tipo de dado a ser treinado.
[009] É ainda outro dos objetivos da presente invenção proporcionar um método que seja capaz de reduzir o tempo de treinamento e o custo computacional associados ao treinamento de redes neurais artificiais com o algoritmo RPROP.
[0010] É ainda outro dos objetivos da presente invenção proporcionar um método que seja capaz de adaptar o algoritmo RPROP à medida que o treinamento da rede neural é feito, permitindo que o algoritmo tome decisões e ajuste de forma mais adequada ao dado sendo treinado, assim atingindo treinamentos de forma mais rápida.
BREVE DESCRIÇÃO DA INVENÇÃO [0011] A invenção contempla um método de treinamento de redes neurais que visa otimizar o desempenho do algoritmo de retropropagação resiliente (RPROP - resiliente backpropagation) com o auxílio de redes neurais evolutivas para a sintonia ou ajuste (tunning - configurações internas do algoritmo) melhor para cada tipo de dado a ser treinado.
[0012] Assim, o conceito de redes neurais evolutivas é utilizado para
Petição 870180034467, de 27/04/2018, pág. 7/13
3/5 permitir uma adaptação das taxas e faixas de ajustes para o dado que está sendo treinado no momento, aumentando a chance de um treinamento mais rápido e o uso de uma sintonia mais adequada aos dados.
DESCRIÇÃO DETALHADA DA INVENÇÃO [0013] A presente invenção contempla um método de treinamento que visa otimizar o desempenho do algoritmo de retropropagação resiliente (RPROP - resiliente backpropagation) com o auxílio de redes neurais evolutivas para a sintonia ou ajuste (tunning - configurações internas do algoritmo) melhor para cada tipo de dado a ser treinado.
[0014] A computação evolutiva é baseada em algoritmos inspirados na evolução, e na genética, de modo que os princípios evolutivos - seleção natural, mutação, recombinação, etc. - são aplicados para encontrar soluções ótimas para problemas computacionais reais.
[0015] Assim, o método de acordo com a presente invenção compreende as seguintes etapas:
[0016] a) definir uma codificação (CODING) que representa os parâmetros de sintonia utilizados pelo algoritmo de retropropagação resiliente; sendo que cada instância de codificação (CODING) possui uma rede neural utilizando o algoritmo de retropropagação (RPROP) de acordo com a codificação (CODING);
[0017] b) definir a forma de variação da codificação (CODING);
[0018] c) definir o alvo de treinamento (TARGET) para o conjunto de dados utilizado no treinamento;
[0019] d) criar N variações de codificação (CODING), de modo a compor instância iniciais do algoritmo de retropropagação (EVO-RPROP); cada instância correspondendo ao algoritmo de retropropagação (RPROP) configurado de acordo com a variação de codificação (CODING) associada; N compreendendo um número inteiro finito;
[0020] e) executar um número X de etapas de treinamento em cada algoritmo de retropropagação (EVO-RPROP); X sendo um número inteiro finito;
Petição 870180034467, de 27/04/2018, pág. 8/13
4/5 [0021] f) gerar novas instâncias de algoritmo de retropropagação (EVO-RPROP) que derivam das codificações (CODINGS) utilizadas nas etapas anteriores, sendo que os algoritmos de retropropagação (EVORPROP) que possuem melhor treinamento terão maior probabilidade de gerar novas codificações (CODINGS);
[0022] Essas novas instâncias geradas possuem novas codificações (CODINGS) e cópias de seus respectivos algoritmos de retropropagação (RPROP) no ponto atual de treinamento, mas agora utilizando a nova codificação (CODING) para configuração interna, sendo que as novas codificações são derivadas das codificações selecionadas (SEEDCODINGS). As melhores instâncias são as mais próximas do alvo de treinamento (TARGET).
[0023] g) executar um número X de etapas de treinamento em cada algoritmo de retropropagação (EVO-RPROP); X sendo um número inteiro finito;
[0024] h) conferir se o alvo de treinamento foi atingido em alguma instância do algoritmo de retropropagação (EVO-RPROP);
[0025] i) se o alvo de treinamento foi atingido em alguma instância, concluir o treinamento; mas se o alvo de treinamento não foi atingido em alguma instância, continuar o treinamento;
[0026] j) se o treinamento continuar, remover um número Y de instâncias do algoritmo de retropropagação (EVO-RPROP), sendo que as instâncias com pior desempenho no treinamento têm maior probabilidade de serem removidas;
[0027] Nesse sentido, as instâncias de pior desempenho são aquelas mais distantes do alvo de treinamento (TARGET). O número Y é um número inteiro finito, menor que o número atual de instâncias (EVORPROP), derivado de uma taxa T sobre este número atual de instâncias (EVO-RPROP). A taxa T pode ser qualquer taxa determinada por quem aplica a solução.
[0028] k) retornar à etapa “f” até que o alvo de treinamento seja
Petição 870180034467, de 27/04/2018, pág. 9/13
5/5 atingido na etapa “i”.
[0029] Na concretização preferida da presente invenção, a variação da codificação (CODING) da etapa b) é feita aleatoriamente sobre uma codificação de origem (SEED-CODING). Cada variação nova consistindo em uma nova codificação não idêntica, mas similar a codificação de origem, devido a alteração aleatória, mas não total, sobre a codificação de origem (SEED-CODING). A codificação de origem é qualquer codificação (CODING) pré-existente selecionada para gerar novas variações.
Claims (3)
- REIVINDICAÇÕES1. Método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas, caracterizado pelo fato de que compreende:a) definir uma codificação que representa os parâmetros de sintonia utilizados pelo algoritmo de retropropagação resiliente; sendo que cada instância de codificação possui uma rede neural utilizando o algoritmo de retropropagação de acordo com a codificação;b) definir a forma de variação da codificação;c) definir o alvo de treinamento (TARGET) para o conjunto de dados utilizado no treinamento;d) criar N variações de codificação, de modo a compor instância iniciais do algoritmo de retropropagação, cada instância correspondendo ao algoritmo de retropropagação de acordo a variação de codificação criada; onde N é um número inteiro finito;e) executar um número X de etapas de treinamento em cada algoritmo de retropropagação; onde X é um número inteiro finito;f) gerar novas instâncias de algoritmo de retropropagação, as quais que derivam das codificações utilizadas nas etapas anteriores, sendo que os algoritmos de retropropagação que possuem melhor treinamento terão maior probabilidade de gerar novas codificações (CODINGS);g) executar um número X de etapas de treinamento em cada algoritmo de retropropagação das novas instâncias de algoritmo de retropropagação; onde X é um número inteiro finito;h) conferir se o alvo de treinamento foi atingido em alguma instância do algoritmo de retropropagação;i) se o alvo de treinamento foi atingido em alguma instância, concluir o treinamento; mas se o alvo de treinamento não foi atingido em alguma instância, continuar o treinamento;j) se o treinamento continuar, remover um número Y de instâncias do algoritmo de retropropagação, sendo que as instâncias com pior desempenho no treinamento têm maior probabilidade de serem removidas; onde Y é umPetição 870180034467, de 27/04/2018, pág. 11/13
- 2/2 número inteiro finito menor que o número atual de instâncias do algoritmo de retropropagaçãok) retornar à etapa “f” até que o alvo de treinamento seja atingido na etapa2. Método de treinamento, de acordo com a reivindicação 1, caracterizado pelo fato de que a variação da codificação (CODING) da etapa b) é feita aleatoriamente sobre uma codificação de origem.
- 3. Método de treinamento, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que Y é um número derivado de uma taxa sobre o número atual de instâncias do algoritmo de retropropagação.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BR102018008580-8A BR102018008580A2 (pt) | 2018-04-27 | 2018-04-27 | método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BR102018008580-8A BR102018008580A2 (pt) | 2018-04-27 | 2018-04-27 | método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas |
Publications (1)
Publication Number | Publication Date |
---|---|
BR102018008580A2 true BR102018008580A2 (pt) | 2019-11-12 |
Family
ID=68502141
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR102018008580-8A BR102018008580A2 (pt) | 2018-04-27 | 2018-04-27 | método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas |
Country Status (1)
Country | Link |
---|---|
BR (1) | BR102018008580A2 (pt) |
-
2018
- 2018-04-27 BR BR102018008580-8A patent/BR102018008580A2/pt not_active IP Right Cessation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10944789B2 (en) | Phishing detection enhanced through machine learning techniques | |
US20210390416A1 (en) | Variable parameter probability for machine-learning model generation and training | |
Parisi | Asymmetric neural networks and the process of learning | |
CN112823327B (zh) | 模拟的交叉点阵列中匹配对称点作为零权重点的对准技术 | |
Turner et al. | Recurrent cartesian genetic programming | |
JP2013020638A5 (pt) | ||
Guo et al. | Online sequential extreme learning machine with generalized regularization and adaptive forgetting factor for time‐varying system prediction | |
KR20140039081A (ko) | 노이즈 제어를 통한 뉴런 발화 조절 방법 및 장치 | |
CN108717506B (zh) | 一种预测焦炭热态强度的方法 | |
Knabe et al. | Evolving biological clocks using genetic regulatory networks | |
CN116569177A (zh) | 神经网络中基于权重的调制 | |
BR102018008580A2 (pt) | método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas | |
CN107169561B (zh) | 面向功耗的混合粒子群脉冲神经网络映射方法 | |
Chebli et al. | PI stabilization for congestion control of AQM routers with tuning parameter optimization | |
WO2019121142A1 (en) | Approaching homeostasis in a binary neural network | |
JP7149503B2 (ja) | 階層型ニューラル・ネットワークにおけるフィードバックのための計算方法 | |
CN116075832A (zh) | 存储器中的人工神经网络训练 | |
US20170178743A1 (en) | Fuse-based integrity protection | |
Tang et al. | A fast kernel least mean square algorithm | |
JP7332193B2 (ja) | 因子グラフ上での確率伝搬 | |
CN111341362A (zh) | 一种译码方法及装置、存储介质 | |
CN115130771A (zh) | 一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法 | |
Kjosavik | From symbolism to information?–Decoding the gene code | |
Loghmanian et al. | Nonlinear dynamic system identification using Volterra series: Multi-objective optimization approach | |
Paenke et al. | On the influence of phenotype plasticity on genotype diversity |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B03A | Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette] | ||
B08F | Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette] |
Free format text: REFERENTE A 6A ANUIDADE. |
|
B08K | Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette] |
Free format text: REFERENTE AO DESPACHO 8.6 PUBLICADO NA RPI 2772 DE 20/02/2024. |