BR102018008580A2 - método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas - Google Patents

método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas Download PDF

Info

Publication number
BR102018008580A2
BR102018008580A2 BR102018008580-8A BR102018008580A BR102018008580A2 BR 102018008580 A2 BR102018008580 A2 BR 102018008580A2 BR 102018008580 A BR102018008580 A BR 102018008580A BR 102018008580 A2 BR102018008580 A2 BR 102018008580A2
Authority
BR
Brazil
Prior art keywords
training
coding
backpropagation
backpropagation algorithm
instances
Prior art date
Application number
BR102018008580-8A
Other languages
English (en)
Inventor
Monteiro Passos Graciliano
Original Assignee
Monteiro Passos Graciliano
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Monteiro Passos Graciliano filed Critical Monteiro Passos Graciliano
Priority to BR102018008580-8A priority Critical patent/BR102018008580A2/pt
Publication of BR102018008580A2 publication Critical patent/BR102018008580A2/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/086Learning methods using evolutionary algorithms, e.g. genetic algorithms or genetic programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physiology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Machine Translation (AREA)

Abstract

método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas. a presente invenção refere-se a uma técnica de treinamento de redes neurais artificiais de forma a adaptar as configurações internas do algoritmo de retropropagação resiliente a medida que o treinamento evolui, utilizando os conceitos de algoritmos genéticos e redes neurais evolutivas. desta forma, cria-se a possibilidade de uma sintonia (tunning) mais adequada e mais rápida para o dado a ser aprendido ao invés de uma sintonia estática e universal para qualquer dado.

Description

“MÉTODO DE TREINAMENTO DE REDE NEURAL COM AJUSTE DE RETROPROPAGAÇÃO RESILIENTE UTILIZANDO REDES NEURAIS EVOLUTIVAS”
CAMPO DA INVENÇÃO [001] A presente invenção compreende um método para otimizar e melhorar o desempenho do algoritmo de retropropagação resiliente (RPROP - resiliente backpropagation) com o auxílio de redes neurais evolutivas para a sintonia ou ajuste (tunning - configurações internas do algoritmo) melhor para cada tipo de dado a ser treinado.
FUNDAMENTOS DA INVENÇÃO [002] Como sabido por aqueles técnicos no assunto, as redes neurais artificiais dependem de um algoritmo de treinamento para que possam ser utilizadas.
[003] É bastante difundido o algoritmo de treinamento de redes neurais chamado de RPROP, retropropagação resiliente ou “resilient backpropagation” no termo em inglês largamente utilizado. De modo simplificado, o algoritmo de retropropagação utiliza passos de programação e retropropagação em cada etapa de treinamento. No passo de programação, um sinal de entrada é propagado pela rede até produzir uma resposta na camada de saída. A resposta de saída é comparada com uma resposta alvo (target), indicado o erro. No passo de retropropagação, o erro é retropropagado da camada de saída até a camada de entrada, sendo que os parâmetros do algoritmo vão sendo modificado conforme o erro é propagado.
[004] O algoritmo RPROP tem como uma de suas principais estratégias o ajuste dos passos dados a cada etapa de treinamento: o algoritmo utiliza ajustes que vão aumentando ou diminuindo a medida que o alvo (target) de treinamento é aproximado.
[005] A taxa de aumento e de diminuição dos ajustes feitos a cada passo é fixa ou aleatória dentro de uma faixa fixa. Assim, é utilizada uma sintonia (tunning) universal para qualquer tipo de dado a ser treinado.
Petição 870180034467, de 27/04/2018, pág. 6/13
2/5 [006] Assim, permanece no estado da técnica a necessidade por um método de treinamento mais rápido, onde o ajuste (tunning) leve em conta e seja melhor adaptado ao tipo de dado a ser treinado. Nesse sentido, ressalta-se que um processo de treinamento otimizado reduz consideravelmente o custo computacional associado, tornando a aplicação desse tipo de técnica comercialmente interessante.
OBJETIVOS DA INVENÇÂO [007] É um dos objetivos da presente invenção proporcionar um método de treinamento de redes neurais que seja capaz de otimizar e melhorar o desempenho do algoritmo de retropropagação, utilizando redes neurais evolutivas.
[008] É mais um dos objetivos da presente invenção proporcionar um método que seja capaz de otimizar e melhorar o desempenho do algoritmo de retropropagação ao oferecer o melhor ajuste (tunning) para cada tipo de dado a ser treinado.
[009] É ainda outro dos objetivos da presente invenção proporcionar um método que seja capaz de reduzir o tempo de treinamento e o custo computacional associados ao treinamento de redes neurais artificiais com o algoritmo RPROP.
[0010] É ainda outro dos objetivos da presente invenção proporcionar um método que seja capaz de adaptar o algoritmo RPROP à medida que o treinamento da rede neural é feito, permitindo que o algoritmo tome decisões e ajuste de forma mais adequada ao dado sendo treinado, assim atingindo treinamentos de forma mais rápida.
BREVE DESCRIÇÃO DA INVENÇÃO [0011] A invenção contempla um método de treinamento de redes neurais que visa otimizar o desempenho do algoritmo de retropropagação resiliente (RPROP - resiliente backpropagation) com o auxílio de redes neurais evolutivas para a sintonia ou ajuste (tunning - configurações internas do algoritmo) melhor para cada tipo de dado a ser treinado.
[0012] Assim, o conceito de redes neurais evolutivas é utilizado para
Petição 870180034467, de 27/04/2018, pág. 7/13
3/5 permitir uma adaptação das taxas e faixas de ajustes para o dado que está sendo treinado no momento, aumentando a chance de um treinamento mais rápido e o uso de uma sintonia mais adequada aos dados.
DESCRIÇÃO DETALHADA DA INVENÇÃO [0013] A presente invenção contempla um método de treinamento que visa otimizar o desempenho do algoritmo de retropropagação resiliente (RPROP - resiliente backpropagation) com o auxílio de redes neurais evolutivas para a sintonia ou ajuste (tunning - configurações internas do algoritmo) melhor para cada tipo de dado a ser treinado.
[0014] A computação evolutiva é baseada em algoritmos inspirados na evolução, e na genética, de modo que os princípios evolutivos - seleção natural, mutação, recombinação, etc. - são aplicados para encontrar soluções ótimas para problemas computacionais reais.
[0015] Assim, o método de acordo com a presente invenção compreende as seguintes etapas:
[0016] a) definir uma codificação (CODING) que representa os parâmetros de sintonia utilizados pelo algoritmo de retropropagação resiliente; sendo que cada instância de codificação (CODING) possui uma rede neural utilizando o algoritmo de retropropagação (RPROP) de acordo com a codificação (CODING);
[0017] b) definir a forma de variação da codificação (CODING);
[0018] c) definir o alvo de treinamento (TARGET) para o conjunto de dados utilizado no treinamento;
[0019] d) criar N variações de codificação (CODING), de modo a compor instância iniciais do algoritmo de retropropagação (EVO-RPROP); cada instância correspondendo ao algoritmo de retropropagação (RPROP) configurado de acordo com a variação de codificação (CODING) associada; N compreendendo um número inteiro finito;
[0020] e) executar um número X de etapas de treinamento em cada algoritmo de retropropagação (EVO-RPROP); X sendo um número inteiro finito;
Petição 870180034467, de 27/04/2018, pág. 8/13
4/5 [0021] f) gerar novas instâncias de algoritmo de retropropagação (EVO-RPROP) que derivam das codificações (CODINGS) utilizadas nas etapas anteriores, sendo que os algoritmos de retropropagação (EVORPROP) que possuem melhor treinamento terão maior probabilidade de gerar novas codificações (CODINGS);
[0022] Essas novas instâncias geradas possuem novas codificações (CODINGS) e cópias de seus respectivos algoritmos de retropropagação (RPROP) no ponto atual de treinamento, mas agora utilizando a nova codificação (CODING) para configuração interna, sendo que as novas codificações são derivadas das codificações selecionadas (SEEDCODINGS). As melhores instâncias são as mais próximas do alvo de treinamento (TARGET).
[0023] g) executar um número X de etapas de treinamento em cada algoritmo de retropropagação (EVO-RPROP); X sendo um número inteiro finito;
[0024] h) conferir se o alvo de treinamento foi atingido em alguma instância do algoritmo de retropropagação (EVO-RPROP);
[0025] i) se o alvo de treinamento foi atingido em alguma instância, concluir o treinamento; mas se o alvo de treinamento não foi atingido em alguma instância, continuar o treinamento;
[0026] j) se o treinamento continuar, remover um número Y de instâncias do algoritmo de retropropagação (EVO-RPROP), sendo que as instâncias com pior desempenho no treinamento têm maior probabilidade de serem removidas;
[0027] Nesse sentido, as instâncias de pior desempenho são aquelas mais distantes do alvo de treinamento (TARGET). O número Y é um número inteiro finito, menor que o número atual de instâncias (EVORPROP), derivado de uma taxa T sobre este número atual de instâncias (EVO-RPROP). A taxa T pode ser qualquer taxa determinada por quem aplica a solução.
[0028] k) retornar à etapa “f” até que o alvo de treinamento seja
Petição 870180034467, de 27/04/2018, pág. 9/13
5/5 atingido na etapa “i”.
[0029] Na concretização preferida da presente invenção, a variação da codificação (CODING) da etapa b) é feita aleatoriamente sobre uma codificação de origem (SEED-CODING). Cada variação nova consistindo em uma nova codificação não idêntica, mas similar a codificação de origem, devido a alteração aleatória, mas não total, sobre a codificação de origem (SEED-CODING). A codificação de origem é qualquer codificação (CODING) pré-existente selecionada para gerar novas variações.

Claims (3)

  1. REIVINDICAÇÕES
    1. Método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas, caracterizado pelo fato de que compreende:
    a) definir uma codificação que representa os parâmetros de sintonia utilizados pelo algoritmo de retropropagação resiliente; sendo que cada instância de codificação possui uma rede neural utilizando o algoritmo de retropropagação de acordo com a codificação;
    b) definir a forma de variação da codificação;
    c) definir o alvo de treinamento (TARGET) para o conjunto de dados utilizado no treinamento;
    d) criar N variações de codificação, de modo a compor instância iniciais do algoritmo de retropropagação, cada instância correspondendo ao algoritmo de retropropagação de acordo a variação de codificação criada; onde N é um número inteiro finito;
    e) executar um número X de etapas de treinamento em cada algoritmo de retropropagação; onde X é um número inteiro finito;
    f) gerar novas instâncias de algoritmo de retropropagação, as quais que derivam das codificações utilizadas nas etapas anteriores, sendo que os algoritmos de retropropagação que possuem melhor treinamento terão maior probabilidade de gerar novas codificações (CODINGS);
    g) executar um número X de etapas de treinamento em cada algoritmo de retropropagação das novas instâncias de algoritmo de retropropagação; onde X é um número inteiro finito;
    h) conferir se o alvo de treinamento foi atingido em alguma instância do algoritmo de retropropagação;
    i) se o alvo de treinamento foi atingido em alguma instância, concluir o treinamento; mas se o alvo de treinamento não foi atingido em alguma instância, continuar o treinamento;
    j) se o treinamento continuar, remover um número Y de instâncias do algoritmo de retropropagação, sendo que as instâncias com pior desempenho no treinamento têm maior probabilidade de serem removidas; onde Y é um
    Petição 870180034467, de 27/04/2018, pág. 11/13
  2. 2/2 número inteiro finito menor que o número atual de instâncias do algoritmo de retropropagação
    k) retornar à etapa “f” até que o alvo de treinamento seja atingido na etapa
    2. Método de treinamento, de acordo com a reivindicação 1, caracterizado pelo fato de que a variação da codificação (CODING) da etapa b) é feita aleatoriamente sobre uma codificação de origem.
  3. 3. Método de treinamento, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que Y é um número derivado de uma taxa sobre o número atual de instâncias do algoritmo de retropropagação.
BR102018008580-8A 2018-04-27 2018-04-27 método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas BR102018008580A2 (pt)

Priority Applications (1)

Application Number Priority Date Filing Date Title
BR102018008580-8A BR102018008580A2 (pt) 2018-04-27 2018-04-27 método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
BR102018008580-8A BR102018008580A2 (pt) 2018-04-27 2018-04-27 método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas

Publications (1)

Publication Number Publication Date
BR102018008580A2 true BR102018008580A2 (pt) 2019-11-12

Family

ID=68502141

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102018008580-8A BR102018008580A2 (pt) 2018-04-27 2018-04-27 método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas

Country Status (1)

Country Link
BR (1) BR102018008580A2 (pt)

Similar Documents

Publication Publication Date Title
US10944789B2 (en) Phishing detection enhanced through machine learning techniques
US20210390416A1 (en) Variable parameter probability for machine-learning model generation and training
Parisi Asymmetric neural networks and the process of learning
CN112823327B (zh) 模拟的交叉点阵列中匹配对称点作为零权重点的对准技术
Turner et al. Recurrent cartesian genetic programming
JP2013020638A5 (pt)
Guo et al. Online sequential extreme learning machine with generalized regularization and adaptive forgetting factor for time‐varying system prediction
KR20140039081A (ko) 노이즈 제어를 통한 뉴런 발화 조절 방법 및 장치
CN108717506B (zh) 一种预测焦炭热态强度的方法
Knabe et al. Evolving biological clocks using genetic regulatory networks
CN116569177A (zh) 神经网络中基于权重的调制
BR102018008580A2 (pt) método de treinamento de rede neural com ajuste de retropropagação resiliente utilizando redes neurais evolutivas
CN107169561B (zh) 面向功耗的混合粒子群脉冲神经网络映射方法
Chebli et al. PI stabilization for congestion control of AQM routers with tuning parameter optimization
WO2019121142A1 (en) Approaching homeostasis in a binary neural network
JP7149503B2 (ja) 階層型ニューラル・ネットワークにおけるフィードバックのための計算方法
CN116075832A (zh) 存储器中的人工神经网络训练
US20170178743A1 (en) Fuse-based integrity protection
Tang et al. A fast kernel least mean square algorithm
JP7332193B2 (ja) 因子グラフ上での確率伝搬
CN111341362A (zh) 一种译码方法及装置、存储介质
CN115130771A (zh) 一种基于长短期记忆网络lstm的液力缓速器的转矩预测方法
Kjosavik From symbolism to information?–Decoding the gene code
Loghmanian et al. Nonlinear dynamic system identification using Volterra series: Multi-objective optimization approach
Paenke et al. On the influence of phenotype plasticity on genotype diversity

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 6A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: REFERENTE AO DESPACHO 8.6 PUBLICADO NA RPI 2772 DE 20/02/2024.