RU2014110033A - Способ и устройство для нейронного временного кодирования, обучения и распознавания - Google Patents

Способ и устройство для нейронного временного кодирования, обучения и распознавания Download PDF

Info

Publication number
RU2014110033A
RU2014110033A RU2014110033/08A RU2014110033A RU2014110033A RU 2014110033 A RU2014110033 A RU 2014110033A RU 2014110033/08 A RU2014110033/08 A RU 2014110033/08A RU 2014110033 A RU2014110033 A RU 2014110033A RU 2014110033 A RU2014110033 A RU 2014110033A
Authority
RU
Russia
Prior art keywords
neural
input
delays
circuit
synapses
Prior art date
Application number
RU2014110033/08A
Other languages
English (en)
Other versions
RU2597504C2 (ru
Inventor
Виктор Хоккью ЧЕН
Джейсон Фрэнк ХАНЗИНДЖЕР
Бардиа Фаллах БЕХАБАДИ
Original Assignee
Квэлкомм Инкорпорейтед
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Квэлкомм Инкорпорейтед filed Critical Квэлкомм Инкорпорейтед
Publication of RU2014110033A publication Critical patent/RU2014110033A/ru
Application granted granted Critical
Publication of RU2597504C2 publication Critical patent/RU2597504C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

1. Способ нейронного временного кодирования, содержащий этапы, на которых:- используют абстракцию линии относительной задержки, которая задерживает один или более синаптических вводов в нейронную схему посредством временных задержек;- применяют динамическую спайковую модель для того, чтобы определять спайковое поведение нейронной схемы на основе взвешенных и задержанных синаптических вводов нейронной схемы; и- регулируют, согласно правилу неконтролируемого обучения, весовые коэффициенты, ассоциированные с синаптическими вводами, в зависимости от взаимосвязи по синхронизации образования спайков в нейронных схемах и задержанных синаптических вводов.2. Способ по п. 1, дополнительно содержащий этап, на котором:- управляют, по меньшей мере, одним из весовых коэффициентов, числа синапсов, ассоциированных с нейронной схемой, постоянных времени синапсов, порогового значения возбуждения нейронной схемы, степени торможения нейронной схемы или шума, ассоциированного с нейронной схемой, чтобы обуславливать начальные частоты возбуждения нейронной схемы.3. Способ по п. 1, дополнительно содержащий этап, на котором:- применяют, посредством правила неконтролируемого обучения, метод имитации отжига для регулирования весовых коэффициентов.4. Способ по п. 1, дополнительно содержащий этапы, на которых:- выбирают допускающий повторное использование синапс, ассоциированный с нейронной схемой; и- модифицируют, по меньшей мере, одно из весового коэффициента, задержки или афферента допускающего повторное использование синапса.5. Способ по п. 4, в котором выбор допускающего повторное использование синапса основан на уменьшении в

Claims (70)

1. Способ нейронного временного кодирования, содержащий этапы, на которых:
- используют абстракцию линии относительной задержки, которая задерживает один или более синаптических вводов в нейронную схему посредством временных задержек;
- применяют динамическую спайковую модель для того, чтобы определять спайковое поведение нейронной схемы на основе взвешенных и задержанных синаптических вводов нейронной схемы; и
- регулируют, согласно правилу неконтролируемого обучения, весовые коэффициенты, ассоциированные с синаптическими вводами, в зависимости от взаимосвязи по синхронизации образования спайков в нейронных схемах и задержанных синаптических вводов.
2. Способ по п. 1, дополнительно содержащий этап, на котором:
- управляют, по меньшей мере, одним из весовых коэффициентов, числа синапсов, ассоциированных с нейронной схемой, постоянных времени синапсов, порогового значения возбуждения нейронной схемы, степени торможения нейронной схемы или шума, ассоциированного с нейронной схемой, чтобы обуславливать начальные частоты возбуждения нейронной схемы.
3. Способ по п. 1, дополнительно содержащий этап, на котором:
- применяют, посредством правила неконтролируемого обучения, метод имитации отжига для регулирования весовых коэффициентов.
4. Способ по п. 1, дополнительно содержащий этапы, на которых:
- выбирают допускающий повторное использование синапс, ассоциированный с нейронной схемой; и
- модифицируют, по меньшей мере, одно из весового коэффициента, задержки или афферента допускающего повторное использование синапса.
5. Способ по п. 4, в котором выбор допускающего повторное использование синапса основан на уменьшении весового коэффициента допускающего повторное использование синапса посредством правила неконтролируемого обучения до значения ниже порогового значения.
6. Способ по п. 4, в котором выбор допускающего повторное использование синапса обусловливается посредством времени, истекшего с момента, когда синапс был повторно использован.
7. Устройство для нейронного временного кодирования, содержащее:
- первую схему, выполненную с возможностью использовать абстракцию линии относительной задержки, которая задерживает один или более синаптических вводов в нейронную схему посредством временных задержек;
- вторую схему, выполненную с возможностью применять динамическую спайковую модель для того, чтобы определять спайковое поведение нейронной схемы на основе взвешенных и задержанных синаптических вводов нейронной схемы; и
- третью схему, выполненную с возможностью регулировать, согласно правилу неконтролируемого обучения, весовые коэффициенты, ассоциированные с синаптическими вводами, в зависимости от взаимосвязи по синхронизации образования спайков в нейронных схемах и задержанных синаптических вводов.
8. Устройство по п. 7, дополнительно содержащее:
- четвертую схему, выполненную с возможностью управлять, по меньшей мере, одним из весовых коэффициентов, числа синапсов, ассоциированных с нейронной схемой, постоянных времени синапсов, порогового значения возбуждения нейронной схемы, степени торможения нейронной схемы или шума, ассоциированного с нейронной схемой, чтобы обуславливать начальные частоты возбуждения нейронной схемы.
9. Устройство по п. 7, дополнительно содержащее:
- четвертую схему, выполненную с возможностью применять, посредством правила неконтролируемого обучения, метод имитации отжига для регулирования весовых коэффициентов.
10. Устройство по п. 7, дополнительно содержащее:
- четвертую схему, выполненную с возможностью выбирать допускающий повторное использование синапс, ассоциированный с нейронной схемой; и
- пятую схему, выполненную с возможностью модифицировать, по меньшей мере, одно из весового коэффициента, задержки или афферента допускающего повторное использование синапса.
11. Устройство по п. 10, в котором выбор допускающего повторное использование синапса основан на уменьшении весового коэффициента допускающего повторное использование синапса посредством правила неконтролируемого обучения до значения ниже порогового значения.
12. Устройство по п. 10, в котором выбор допускающего повторное использование синапса обусловливается посредством времени, истекшего с момента, когда синапс был повторно использован.
13. Устройство для нейронного временного кодирования, содержащее:
- средство для использования абстракции линии относительной задержки, которая задерживает один или более синаптических вводов в нейронную схему посредством временных задержек;
- средство для применения динамической спайковой модели для того, чтобы определять спайковое поведение нейронной схемы на основе взвешенных и задержанных синаптических вводов нейронной схемы; и
- средство для регулирования, согласно правилу неконтролируемого обучения, весовых коэффициентов, ассоциированных с синаптическими вводами, в зависимости от взаимосвязи по синхронизации образования спайков в нейронных схемах и задержанных синаптических вводов.
14. Устройство по п. 13, дополнительно содержащее:
- средство для управления, по меньшей мере, одним из весовых коэффициентов, числа синапсов, ассоциированных с нейронной схемой, постоянных времени синапсов, порогового значения возбуждения нейронной схемы, степени торможения нейронной схемы или шума, ассоциированного с нейронной схемой, чтобы обуславливать начальные частоты возбуждения нейронной схемы.
15. Устройство по п. 13, дополнительно содержащее:
- средство для применения, посредством правила неконтролируемого обучения, метода имитации отжига для регулирования весовых коэффициентов.
16. Устройство по п. 13, дополнительно содержащее:
- средство для выбора допускающего повторное использование синапса, ассоциированного с нейронной схемой; и
- средство для модификации, по меньшей мере, одного из весового коэффициента, задержки или афферента допускающего повторное использование синапса.
17. Устройство по п. 16, в котором выбор допускающего повторное использование синапса основан на уменьшении весового коэффициента допускающего повторное использование синапса посредством правила неконтролируемого обучения до значения ниже порогового значения.
18. Устройство по п. 16, в котором выбор допускающего повторное использование синапса обусловливается посредством времени, истекшего с момента, когда синапс был повторно использован.
19. Компьютерный программный продукт для нейронного временного кодирования, содержащий машиночитаемый носитель, содержащий код для:
- использования абстракции линии относительной задержки, которая задерживает один или более синаптических вводов в нейронную схему посредством временных задержек;
- применения динамической спайковой модели для того, чтобы определять спайковое поведение нейронной схемы на основе взвешенных и задержанных синаптических вводов нейронной схемы; и
- регулирования, согласно правилу неконтролируемого обучения, весовых коэффициентов, ассоциированных с синаптическими вводами, в зависимости от взаимосвязи по синхронизации образования спайков в нейронных схемах и задержанных синаптических вводов.
20. Способ нейронного временного кодирования длинных и больших пространственно-временных шаблонов, содержащий этапы, на которых:
- соединяют каждый уровень нейронных схем в иерархической многоуровневой нейронной сети с вводом и с другим уровнем нейронных схем в многоуровневой нейронной сети; и
- согласуют первый уровень нейронных схем в многоуровневой нейронной сети с первой подсекцией входного шаблона, при этом:
- этот соединенный уровень согласует комбинацию возбуждения нейронных схем другого уровня в результате согласования подсекции входного шаблона и другой подсекции входного шаблона.
21. Способ по п. 20, в котором другая подсекция входного шаблона является последовательной для подсекции входного шаблона.
22. Способ по п. 20, в котором:
- первый уровень содержит сеть рекуррентных нейронных схем, возбужденных посредством первой подсекции входного шаблона, поддерживающего запоминающее устройство во временном коде, посредством воспроизведения полихронной волны возбуждения, при этом способ дополнительно содержит этап, на котором:
- возбуждают, посредством комбинации второй подсекции входного шаблона и полихронной волны возбуждения, другую сеть рекуррентных нейронных схем многоуровневой нейронной сети.
23. Способ по п. 20, в котором аксональная задержка между уровнями иерархической многоуровневой нейронной сети задерживает реакцию на согласование первой части входного шаблона таким образом, что реакция попадает в окно времени, соответствующее второй части входного шаблона.
24. Устройство для нейронного временного кодирования длинных и больших пространственно-временных шаблонов, содержащее:
- первую схему, выполненную с возможностью соединять каждый уровень нейронных схем в иерархической многоуровневой нейронной сети с вводом и с другим уровнем нейронных схем в многоуровневой нейронной сети; и
- вторую схему, выполненную с возможностью согласовывать первый уровень нейронных схем в многоуровневой нейронной сети с первой подсекцией входного шаблона, при этом:
- этот соединенный уровень согласует комбинацию возбуждения нейронных схем другого уровня в результате согласования подсекции входного шаблона и другой подсекции входного шаблона.
25. Устройство по п. 24, в котором другая подсекция входного шаблона является последовательной для подсекции входного шаблона.
26. Устройство по п. 24, в котором:
- первый уровень содержит сеть рекуррентных нейронных схем, возбужденных посредством первой подсекции входного шаблона, поддерживающего запоминающее устройство во временном коде, посредством воспроизведения полихронной волны возбуждения, при этом устройство дополнительно содержит:
- третью схему, выполненную с возможностью возбуждать, посредством комбинации второй подсекции входного шаблона и полихронной волны возбуждения, другую сеть рекуррентных нейронных схем многоуровневой нейронной сети.
27. Устройство по п. 24, в котором аксональная задержка между уровнями иерархической многоуровневой нейронной сети задерживает реакцию на согласование первой части входного шаблона таким образом, что реакция попадает в окно времени, соответствующее второй части входного шаблона.
28. Устройство для нейронного временного кодирования длинных и больших пространственно-временных шаблонов, содержащее:
- средство для соединения каждого уровня нейронных схем в иерархической многоуровневой нейронной сети с вводом и с другим уровнем нейронных схем в многоуровневой нейронной сети; и
- средство для согласования первого уровня нейронных схем в многоуровневой нейронной сети с первой подсекцией входного шаблона, при этом:
- этот соединенный уровень согласует комбинацию возбуждения нейронных схем другого уровня в результате согласования подсекции входного шаблона и другой подсекции входного шаблона.
29. Устройство по п. 28, в котором другая подсекция входного шаблона является последовательной для подсекции входного шаблона.
30. Устройство по п. 28, в котором:
- первый уровень содержит сеть рекуррентных нейронных схем, возбужденных посредством первой подсекции входного шаблона, поддерживающего запоминающее устройство во временном коде, посредством воспроизведения полихронной волны возбуждения, при этом устройство дополнительно содержит:
- средство для возбуждения, посредством комбинации второй подсекции входного шаблона и полихронной волны возбуждения, другой сети рекуррентных нейронных схем многоуровневой нейронной сети.
31. Устройство по п. 28, в котором аксональная задержка между уровнями иерархической многоуровневой нейронной сети задерживает реакцию на согласование первой части входного шаблона таким образом, что реакция попадает в окно времени, соответствующее второй части входного шаблона.
32. Компьютерный программный продукт для нейронного временного кодирования длинных и больших пространственно-временных шаблонов, содержащий машиночитаемый носитель, содержащий код для:
- соединения каждого уровня нейронных схем в иерархической многоуровневой нейронной сети с вводом и с другим уровнем нейронных схем в многоуровневой нейронной сети; и
- согласования первого уровня нейронных схем в многоуровневой нейронной сети с первой подсекцией входного шаблона, при этом:
- этот соединенный уровень согласует комбинацию возбуждения нейронных схем другого уровня в результате согласования подсекции входного шаблона и другой подсекции входного шаблона.
33. Способ нейронного временного кодирования длинных и больших пространственно-временных шаблонов, содержащий этапы, на которых:
- предоставляют, через синапсы с ассоциированными задержками, синаптические вводы в нейронную схему, при этом:
- по меньшей мере, один из синаптических вводов ассоциирован, по меньшей мере, с одним из самосоединяемых синапсов,
- синапсы принадлежат множеству наборов, и
- по меньшей мере, один из наборов содержит комбинацию задержек, чтобы согласовывать первую часть шаблона синаптических вводов, не содержащих рекурсивное самосоединение.
34. Способ по п. 33, в котором:
- по меньшей мере, один другой набор из множества наборов содержит другую комбинацию задержек, чтобы согласовывать вторую часть шаблона и, по меньшей мере, один самосоединяемый синапс, имеющий задержку, чтобы коррелировать первую часть шаблона со второй частью шаблона, согласующейся с другой комбинацией задержек.
35. Способ по п. 33, в котором аксональная задержка, ассоциированная, по меньшей мере, с одним самосоединяемым синапсом, задерживает реакцию на согласование первой части шаблона таким образом, что реакция попадает в окно времени, соответствующее второй части шаблона.
36. Устройство для нейронного временного кодирования длинных и больших пространственно-временных шаблонов, содержащее:
- первую схему, выполненную с возможностью предоставлять, через синапсы с ассоциированными задержками, синаптические вводы в нейронную схему, при этом:
- по меньшей мере, один из синаптических вводов ассоциирован, по меньшей мере, с одним из самосоединяемых синапсов,
- синапсы принадлежат множеству наборов, и
- по меньшей мере, один из наборов содержит комбинацию задержек, чтобы согласовывать первую часть шаблона синаптических вводов, не содержащих рекурсивное самосоединение.
37. Устройство по п. 36, в котором:
- по меньшей мере, один другой набор из множества наборов содержит другую комбинацию задержек, чтобы согласовывать вторую часть шаблона и, по меньшей мере, один самосоединяемый синапс, имеющий задержку, чтобы коррелировать первую часть шаблона со второй частью шаблона, согласующейся с другой комбинацией задержек.
38. Устройство по п. 36, в котором аксональная задержка, ассоциированная, по меньшей мере, с одним самосоединяемым синапсом, задерживает реакцию на согласование первой части шаблона таким образом, что реакция попадает в окно времени, соответствующее второй части шаблона.
39. Устройство для нейронного временного кодирования длинных и больших пространственно-временных шаблонов, содержащее:
- средство для предоставления, через синапсы с ассоциированными задержками, синаптических вводов в нейронную схему, при этом:
- по меньшей мере, один из синаптических вводов ассоциирован, по меньшей мере, с одним из самосоединяемых синапсов,
- синапсы принадлежат множеству наборов, и
- по меньшей мере, один из наборов содержит комбинацию задержек, чтобы согласовывать первую часть шаблона синаптических вводов, не содержащих рекурсивное самосоединение.
40. Устройство по п. 39, в котором:
- по меньшей мере, один другой набор из множества наборов содержит другую комбинацию задержек, чтобы согласовывать вторую часть шаблона и, по меньшей мере, один самосоединяемый синапс, имеющий задержку, чтобы коррелировать первую часть шаблона со второй частью шаблона, согласующейся с другой комбинацией задержек.
41. Устройство по п. 39, в котором аксональная задержка, ассоциированная, по меньшей мере, с одним самосоединяемым синапсом, задерживает реакцию на согласование первой части шаблона таким образом, что реакция попадает в окно времени, соответствующее второй части шаблона.
42. Компьютерный программный продукт для нейронного временного кодирования длинных и больших пространственно-временных шаблонов, содержащий машиночитаемый носитель, содержащий код для:
- предоставления, через синапсы с ассоциированными задержками, синаптических вводов в нейронную схему, при этом:
- по меньшей мере, один из синаптических вводов ассоциирован, по меньшей мере, с одним из самосоединяемых синапсов,
- синапсы принадлежат множеству наборов, и
- по меньшей мере, один из наборов содержит комбинацию задержек, чтобы согласовывать первую часть шаблона синаптических вводов, не содержащих рекурсивное самосоединение.
43. Способ нейронного кодирования для общих входных шаблонов, содержащий этапы, на которых:
- соединяют один или более синапсов с нейронной схемой с сомой, причем каждый из одного или более синапсов соответствует входному афференту нейронной схемы и имеет весовой коэффициент и относительную задержку; и
- вызывают, посредством каждой из относительных задержек, задержку между соответствующим входным афферентом и сомой, при этом:
- один или более наборов из одного или более синапсов имеют задержки и входные афференты, соответствующие субшаблонам, которые формируют, в комбинации, один из общих входных шаблонов, и
- субшаблоны содержат, по меньшей мере, одно из совпадений, частот возбуждения или временных шаблонов.
44. Способ по п. 43, в котором:
- набор синапсов, соответствующих субшаблону совпадения, имеет идентичные задержки для различных входных афферентов,
- набор синапсов, соответствующих субшаблону шаблона возбуждения, имеет различные задержки для идентичного входного афферента, и
- набор синапсов, соответствующих субшаблону временного шаблона, имеет различные задержки для различных входных афферентов.
45. Способ по п. 44, дополнительно содержащий этап, на котором:
- минимизируют задержку для нейронной схемы, чтобы реагировать на изученную частоту возбуждения посредством наличия двух или более наборов синапсов, соответствующих шаблону возбуждения, имеющему задержки, которые смещены относительно друг друга.
46. Способ по п. 45, дополнительно содержащий этап, на котором:
- прореживают некоторые синапсы из двух или более наборов, чтобы опускать временные смещения, которые вызывают возбуждение нейронной схемы, вследствие побочных составляющих одной или более нежелательных частот.
47. Способ по п. 43, дополнительно содержащий этап, на котором:
- варьируют окно интеграции возбуждения нейронной схемы в зависимости от степени, в которой нейронная схема имеет несколько задержек в расчете на соединение или задержек для различных соединений, которые являются идентичными, в отличие от одного ввода для соединений с задержками, которые являются неравными относительно других соединений.
48. Способ по п. 47, дополнительно содержащий этап, на котором:
- переназначают соединения, подавленные вследствие обучения, идентичному вводу с задержкой, отличающейся от всех уже используемых, посредством уже существующего соединения для этого идентичного ввода.
49. Способ по п. 47, дополнительно содержащий этап, на котором:
- переназначают, другому вводу, соединения, подавленные вследствие обучения.
50. Способ по п. 43, в котором:
- разница во времени между задержками в наборе задержек для одного из входных афферентов нейронной схемы соответствует кратному обратной величины частоты возбуждения, ассоциированной с этим одним входным афферентом.
51. Способ по п. 43, в котором:
- один или более избыточных вспомогательных задержанных спайков входного афферента не совмещают ниже одного или более пороговых значений, и
- один или более подпороговых избыточных вспомогательных задержанных спайков не снижают производительность сопоставления с шаблоном нейронной схемы.
52. Устройство для нейронного кодирования для общих входных шаблонов, содержащее:
- первую схему, выполненную с возможностью соединять один или более синапсов с нейронной схемой с сомой, причем каждый из одного или более синапсов соответствует входному афференту нейронной схемы и имеет весовой коэффициент и относительную задержку; и
- вторую схему, выполненную с возможностью вызывать, посредством каждой из относительных задержек, задержку между соответствующим входным афферентом и сомой, при этом:
- один или более наборов из одного или более синапсов имеют задержки и входные афференты, соответствующие субшаблонам, которые формируют, в комбинации, один из общих входных шаблонов, и
- субшаблоны содержат, по меньшей мере, одно из совпадений, частот возбуждения или временных шаблонов.
53. Устройство по п. 52, в котором:
- набор синапсов, соответствующих субшаблону совпадения, имеет идентичные задержки для различных входных афферентов,
- набор синапсов, соответствующих субшаблону шаблона возбуждения, имеет различные задержки для идентичного входного афферента, и
- набор синапсов, соответствующих субшаблону временного шаблона, имеет различные задержки для различных входных афферентов.
54. Устройство по п. 53, дополнительно содержащее:
- третью схему, выполненную с возможностью минимизировать задержку для нейронной схемы, чтобы реагировать на изученную частоту возбуждения посредством наличия двух или более наборов синапсов, соответствующих шаблону возбуждения, имеющему задержки, которые смещены относительно друг друга.
55. Устройство по п. 54, дополнительно содержащее:
- четвертую схему, выполненную с возможностью прореживать некоторые синапсы из двух или более наборов, чтобы опускать временные смещения, которые вызывают возбуждение нейронной схемы, вследствие побочных составляющих одной или более нежелательных частот.
56. Устройство по п. 52, дополнительно содержащее:
- третью схему, выполненную с возможностью варьировать окно интеграции возбуждения нейронной схемы в зависимости от степени, в которой нейронная схема имеет несколько задержек в расчете на соединение или задержек для различных соединений, которые являются идентичными, в отличие от одного ввода для соединений с задержками, которые являются неравными относительно других соединений.
57. Устройство по п. 56, дополнительно содержащее:
- четвертую схему, выполненную с возможностью переназначать соединения, подавленные вследствие обучения, идентичному вводу с задержкой, отличающейся от всех уже используемых, посредством уже существующего соединения для этого идентичного ввода.
58. Устройство по п. 56, дополнительно содержащее:
- четвертую схему, выполненную с возможностью переназначать, другому вводу, соединения, подавленные вследствие обучения.
59. Устройство по п. 52, в котором:
- разница во времени между задержками в наборе задержек для одного из входных афферентов нейронной схемы соответствует кратному обратной величины частоты возбуждения, ассоциированной с этим одним входным афферентом.
60. Устройство по п. 52, в котором:
- один или более избыточных вспомогательных задержанных спайков входного афферента не совмещают ниже одного или более пороговых значений, и
- один или более подпороговых избыточных вспомогательных задержанных спайков не снижают производительность сопоставления с шаблоном нейронной схемы.
61. Устройство для нейронного кодирования для общих входных шаблонов, содержащее:
- средство для соединения одного или более синапсов с нейронной схемой с сомой, причем каждый из одного или более синапсов соответствует входному афференту нейронной схемы и имеет весовой коэффициент и относительную задержку; и
- средство для вызывания, посредством каждой из относительных задержек, задержки между соответствующим входным афферентом и сомой, при этом:
- один или более наборов из одного или более синапсов имеют задержки и входные афференты, соответствующие субшаблонам, которые формируют, в комбинации, один из общих входных шаблонов, и
- субшаблоны содержат, по меньшей мере, одно из совпадений, частот возбуждения или временных шаблонов.
62. Устройство по п. 61, в котором:
- набор синапсов, соответствующих субшаблону совпадения, имеет идентичные задержки для различных входных афферентов,
- набор синапсов, соответствующих субшаблону шаблона возбуждения, имеет различные задержки для идентичного входного афферента, и
- набор синапсов, соответствующих субшаблону временного шаблона, имеет различные задержки для различных входных афферентов.
63. Устройство по п. 62, дополнительно содержащее:
- средство для минимизации задержки для нейронной схемы, чтобы реагировать на изученную частоту возбуждения посредством наличия двух или более наборов синапсов, соответствующих шаблону возбуждения, имеющему задержки, которые смещены относительно друг друга.
64. Устройство по п. 63, дополнительно содержащее:
- средство для прореживания некоторых синапсов из двух или более наборов, чтобы опускать временные смещения, которые вызывают возбуждение нейронной схемы, вследствие побочных составляющих одной или более нежелательных частот.
65. Устройство по п. 61, дополнительно содержащее:
- средство для варьирования окна интеграции возбуждения нейронной схемы в зависимости от степени, в которой нейронная схема имеет несколько задержек в расчете на соединение или задержек для различных соединений, которые являются идентичными, в отличие от одного ввода для соединений с задержками, которые являются неравными относительно других соединений.
66. Устройство по п. 65, дополнительно содержащее:
- средство для переназначения соединений, подавленных вследствие обучения, идентичному вводу с задержкой, отличающейся от всех уже используемых посредством уже существующего соединения для этого идентичного ввода.
67. Устройство по п. 65, дополнительно содержащее:
- средство для переназначения, другому вводу, соединений, подавленных вследствие обучения.
68. Устройство по п. 61, в котором:
- разница во времени между задержками в наборе задержек для одного из входных афферентов нейронной схемы соответствует кратному обратной величины частоты возбуждения, ассоциированной с этим одним входным афферентом.
69. Устройство по п. 61, в котором:
- один или более избыточных вспомогательных задержанных спайков входного афферента без совмещения ниже одного или более пороговых значений, и
- один или более подпороговых избыточных вспомогательных задержанных спайков не снижают производительность сопоставления с шаблоном нейронной схемы.
70. Компьютерный программный продукт для нейронного кодирования для общих входных шаблонов, содержащий машиночитаемый носитель, содержащий код для:
- соединения одного или более синапсов с нейронной схемой с сомой, причем каждый из одного или более синапсов соответствует входному афференту нейронной схемы и имеет весовой коэффициент и относительную задержку; и
- вызывания, посредством каждой из относительных задержек, задержки между соответствующим входным афферентом и сомой, при этом:
- один или более наборов из одного или более синапсов имеют задержки и входные афференты, соответствующие субшаблонам, которые формируют, в комбинации, один из общих входных шаблонов, и
- субшаблоны содержат, по меньшей мере, одно из совпадений, частот возбуждения или временных шаблонов.
RU2014110033/08A 2011-08-16 2012-08-14 Способ и устройство для нейронного временного кодирования, обучения и распознавания RU2597504C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/211,091 US9147155B2 (en) 2011-08-16 2011-08-16 Method and apparatus for neural temporal coding, learning and recognition
US13/211,091 2011-08-16
PCT/US2012/050781 WO2013025708A2 (en) 2011-08-16 2012-08-14 Method and apparatus for neural temporal coding, learning and recognition

Publications (2)

Publication Number Publication Date
RU2014110033A true RU2014110033A (ru) 2015-09-27
RU2597504C2 RU2597504C2 (ru) 2016-09-10

Family

ID=46690767

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2014110033/08A RU2597504C2 (ru) 2011-08-16 2012-08-14 Способ и устройство для нейронного временного кодирования, обучения и распознавания

Country Status (11)

Country Link
US (1) US9147155B2 (ru)
EP (1) EP2745244A2 (ru)
JP (2) JP6092213B2 (ru)
KR (4) KR20150105488A (ru)
CN (2) CN103733209B (ru)
BR (1) BR112014003581A2 (ru)
CA (1) CA2844777C (ru)
IN (1) IN2014CN00716A (ru)
RU (1) RU2597504C2 (ru)
TW (4) TWI526954B (ru)
WO (1) WO2013025708A2 (ru)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9070039B2 (en) * 2013-02-01 2015-06-30 Brian Corporation Temporal winner takes all spiking neuron network sensory processing apparatus and methods
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US9111224B2 (en) 2011-10-19 2015-08-18 Qualcomm Incorporated Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US9015091B2 (en) * 2011-11-09 2015-04-21 Qualcomm Incorporated Methods and apparatus for unsupervised neural replay, learning refinement, association and memory transfer: structural plasticity and structural constraint modeling
US9443190B2 (en) 2011-11-09 2016-09-13 Qualcomm Incorporated Methods and apparatus for neural pattern sequence completion and neural pattern hierarchical replay by invoking replay of a referenced neural pattern
US9424511B2 (en) 2011-11-09 2016-08-23 Qualcomm Incorporated Methods and apparatus for unsupervised neural component replay by referencing a pattern in neuron outputs
US9424513B2 (en) 2011-11-09 2016-08-23 Qualcomm Incorporated Methods and apparatus for neural component memory transfer of a referenced pattern by including neurons to output a pattern substantially the same as the referenced pattern
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
WO2014149070A1 (en) * 2013-03-15 2014-09-25 Hrl Laboratories, Llc Neural network and method of programming
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9275329B2 (en) * 2013-08-12 2016-03-01 Qualcomm Incorporated Behavioral homeostasis in artificial nervous systems using dynamical spiking neuron models
US9652711B2 (en) 2014-03-12 2017-05-16 Qualcomm Incorporated Analog signal reconstruction and recognition via sub-threshold modulation
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US20150269485A1 (en) * 2014-03-24 2015-09-24 Qualcomm Incorporated Cold neuron spike timing back-propagation
US20150278685A1 (en) * 2014-03-31 2015-10-01 Qualcomm Incorporated Probabilistic representation of large sequences using spiking neural network
EP3132389A1 (en) * 2014-04-15 2017-02-22 Intel Corporation Methods, systems and computer program products for neuromorphic graph compression using associative memories
CN111353590A (zh) * 2014-07-21 2020-06-30 徐志强 具有stdp突触可塑性的突触模拟方法及装置
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
CN106295799B (zh) * 2015-05-12 2018-11-02 核工业北京地质研究院 一种深度学习多层神经网络的实现方法
US10083395B2 (en) * 2015-05-21 2018-09-25 Google Llc Batch processing in a neural network processor
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
KR101701250B1 (ko) 2015-08-03 2017-02-01 서울대학교산학협력단 딥 빌리프 네트워크를 위한 복수 레이어가 적층된 뉴런 어레이 및 뉴런 어레이 동작 방법
US10423879B2 (en) 2016-01-13 2019-09-24 International Business Machines Corporation Efficient generation of stochastic spike patterns in core-based neuromorphic systems
TWI581205B (zh) * 2016-02-16 2017-05-01 國立屏東大學 文具供應商的選擇方法與電腦程式產品
CN109348707A (zh) * 2016-04-27 2019-02-15 纽拉拉股份有限公司 针对基于深度神经网络的q学习修剪经验存储器的方法和装置
CN106055866A (zh) * 2016-05-16 2016-10-26 天津大学 基于前馈网络的针刺信息传导通路模型
CN106447032B (zh) * 2016-09-09 2018-12-25 中国传媒大学 大脑神经元动作电位序列的快速预测方法
CN109155001B (zh) * 2016-11-28 2022-03-29 华为技术有限公司 基于脉冲神经网络的信号处理方法和装置
EP3340129B1 (en) * 2016-12-21 2019-01-30 Axis AB Artificial neural network class-based pruning
CN106897768B (zh) * 2017-01-25 2020-04-21 清华大学 神经网络信息发送方法和系统
WO2018164539A1 (ko) 2017-03-09 2018-09-13 (주)엘지하우시스 열가소성 폴리우레탄 입자 및 이의 제조방법
US20190087714A1 (en) * 2017-09-20 2019-03-21 International Business Machines Corporation Automatic timing resolution among neural network components
CN111386535A (zh) * 2017-11-30 2020-07-07 语享路有限责任公司 进行变换的方法及其装置
US20190302707A1 (en) * 2018-03-28 2019-10-03 Mitsubishi Electric Research Laboratories, Inc. Anomaly Detection in Manufacturing Systems Using Structured Neural Networks
US11734555B2 (en) * 2018-06-05 2023-08-22 Lightelligence PTE. Ltd. Optoelectronic computing systems
US11507818B2 (en) 2018-06-05 2022-11-22 Lightelligence PTE. Ltd. Optoelectronic computing systems
CN108985447B (zh) * 2018-06-15 2020-10-16 华中科技大学 一种硬件脉冲神经网络系统
US11188815B2 (en) * 2019-01-07 2021-11-30 International Business Machines Corporation Weight shifting for neuromorphic synapse array
US11734556B2 (en) 2019-01-14 2023-08-22 Lightelligence PTE. Ltd. Optoelectronic computing systems
KR20200111584A (ko) 2019-03-19 2020-09-29 한국전자통신연구원 시공간 입력 신호들이 나타내는 사건을 부호화하기 위한 전자 장치 및 그것의 동작 방법
KR102545066B1 (ko) * 2019-07-05 2023-06-20 한국전자통신연구원 뉴로모픽 컴퓨팅을 위한 신경망 생성 방법 및 이를 위한 장치
US11727250B2 (en) 2019-09-06 2023-08-15 International Business Machines Corporation Elastic-centroid based clustering
US11719963B2 (en) 2020-04-29 2023-08-08 Lightelligence, Inc. Optical modulation for optoelectronic processing
US11741353B2 (en) 2020-12-09 2023-08-29 International Business Machines Corporation Bias scheme for single-device synaptic element
US12013958B2 (en) 2022-02-22 2024-06-18 Bank Of America Corporation System and method for validating a response based on context information
CN114925734B (zh) * 2022-07-20 2022-11-25 浙江大学 一种基于神经拟态计算的在线神经元分类方法

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4893255A (en) * 1988-05-31 1990-01-09 Analog Intelligence Corp. Spike transmission for neural networks
WO1993018474A1 (en) 1992-03-11 1993-09-16 University College London Devices for use in neural processing
JP3178884B2 (ja) * 1992-03-30 2001-06-25 株式会社東芝 ニューラルネットワーク装置
JP3345478B2 (ja) 1993-09-20 2002-11-18 株式会社東芝 ニューラルネットワーク装置およびその学習方法
US5666079A (en) 1994-05-06 1997-09-09 Plx Technology, Inc. Binary relative delay line
RU2128363C1 (ru) * 1995-06-06 1999-03-27 Таганрогский государственный радиотехнический университет Рефлекторная нейросеть
WO1997029437A1 (en) 1996-02-09 1997-08-14 Sarnoff Corporation Method and apparatus for training a neural network to detect and classify objects with uncertain training data
US6284794B1 (en) * 1996-11-05 2001-09-04 Head Explorer Aps Method for treating tension-type headache with inhibitors of nitric oxide and nitric oxide synthase
WO1999012085A2 (en) * 1997-09-04 1999-03-11 Camelot Information Technologies Ltd. Heterogeneous neural networks
US6581046B1 (en) 1997-10-10 2003-06-17 Yeda Research And Development Co. Ltd. Neuronal phase-locked loops
US6505182B1 (en) 1998-10-09 2003-01-07 Van Den Heuvel Raymond C. Recognition engine with time referenced neurons
JP4478296B2 (ja) * 2000-06-16 2010-06-09 キヤノン株式会社 パターン検出装置及び方法、画像入力装置及び方法、ニューラルネットワーク回路
JP2002024795A (ja) * 2000-07-04 2002-01-25 Sony Corp 情報処理装置および方法、並びに記録媒体
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
AU2002356946A1 (en) 2001-11-16 2003-06-10 Joseph Chen Pausible neural network with supervised and unsupervised cluster analysis
US7412428B2 (en) 2002-03-12 2008-08-12 Knowmtech, Llc. Application of hebbian and anti-hebbian learning to nanotechnology-based physical neural networks
US7174325B1 (en) 2002-06-07 2007-02-06 George Mason Intellectual Properties, Inc. Neural processor
US7430546B1 (en) 2003-06-07 2008-09-30 Roland Erwin Suri Applications of an algorithm that mimics cortical processing
WO2005007075A2 (en) * 2003-07-21 2005-01-27 Ai-Semi Ltd. Adaptive resynchronization therapy system
US8335564B2 (en) 2005-05-27 2012-12-18 Rami Rom Ventricle pacing during atrial fibrillation episodes
US7904398B1 (en) 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
CA2642041C (en) * 2005-12-23 2014-07-15 Le Tan Thanh Tai Spatio-temporal pattern recognition using a spiking neural network and processing thereof on a portable and/or distributed computer
US8301250B2 (en) 2006-07-17 2012-10-30 Rami Rom Intelligent control system for adaptive cardiac resynchronization therapy device
US8037010B2 (en) 2007-02-28 2011-10-11 Numenta, Inc. Spatio-temporal learning algorithms in hierarchical temporal networks
GB0811057D0 (en) 2008-06-17 2008-07-23 Univ Ulster Artificial neural network architecture
WO2010025130A1 (en) * 2008-08-28 2010-03-04 Massachusetts Institute Of Technology Circuits and methods representative of spike timing dependent plasticity of neurons
US8250011B2 (en) 2008-09-21 2012-08-21 Van Der Made Peter A J Autonomous learning dynamic artificial neural computing device and brain inspired system
US8630966B2 (en) 2009-01-27 2014-01-14 Salk Institute For Biological Studies Temporally dynamic artificial neural networks
US7978510B2 (en) 2009-03-01 2011-07-12 International Businesss Machines Corporation Stochastic synapse memory element with spike-timing dependent plasticity (STDP)
US8447714B2 (en) 2009-05-21 2013-05-21 International Business Machines Corporation System for electronic learning synapse with spike-timing dependent plasticity using phase change memory
US8250010B2 (en) 2009-05-21 2012-08-21 International Business Machines Corporation Electronic learning synapse with spike-timing dependent plasticity using unipolar memory-switching elements
JP5458791B2 (ja) * 2009-10-16 2014-04-02 トヨタ自動車株式会社 連想記憶装置、連想記憶方法、及びプログラム
RU2413304C1 (ru) * 2009-11-02 2011-02-27 Василий Юрьевич Осипов Способ и устройство интеллектуальной обработки информации в нейронной сети
US8527438B2 (en) 2009-12-22 2013-09-03 International Business Machines Corporation Producing spike-timing dependent plasticity in an ultra-dense synapse cross-bar array
US8625337B2 (en) 2010-05-06 2014-01-07 Qualcomm Incorporated Method and apparatus of probabilistic programming multi-level memory in cluster states of bi-stable elements
CN101860357B (zh) * 2010-06-09 2012-04-11 中国科学院半导体研究所 一种利用时间编码控制权重和信息整合的方法
US8694452B2 (en) 2010-07-07 2014-04-08 Qualcomm Incorporated Methods and systems for CMOS implementation of neuron synapse
US8433665B2 (en) 2010-07-07 2013-04-30 Qualcomm Incorporated Methods and systems for three-memristor synapse with STDP and dopamine signaling
US8892485B2 (en) 2010-07-08 2014-11-18 Qualcomm Incorporated Methods and systems for neural processor training by encouragement of correct output
US8606732B2 (en) 2010-08-04 2013-12-10 Qualcomm Incorporated Methods and systems for reward-modulated spike-timing-dependent-plasticity
US9269042B2 (en) 2010-09-30 2016-02-23 International Business Machines Corporation Producing spike-timing dependent plasticity in a neuromorphic network utilizing phase change synaptic devices
US8515885B2 (en) 2010-10-29 2013-08-20 International Business Machines Corporation Neuromorphic and synaptronic spiking neural network with synaptic weights learned using simulation
US8473439B2 (en) 2010-12-08 2013-06-25 International Business Machines Corporation Integrate and fire electronic neurons
US8768865B2 (en) 2011-01-19 2014-07-01 Qualcomm Incorporated Learning situations via pattern matching
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US8706662B2 (en) 2011-07-21 2014-04-22 Qualcomm Incorporated Method and apparatus of controlling noise associated with synaptic inputs based on neuronal firing rate
US9053428B2 (en) 2011-07-21 2015-06-09 Qualcomm Incorporated Method and apparatus of robust neural temporal coding, learning and cell recruitments for memory using oscillation
US9092735B2 (en) 2011-09-21 2015-07-28 Qualcomm Incorporated Method and apparatus for structural delay plasticity in spiking neural networks
US9111224B2 (en) 2011-10-19 2015-08-18 Qualcomm Incorporated Method and apparatus for neural learning of natural multi-spike trains in spiking neural networks
US8909575B2 (en) 2012-02-29 2014-12-09 Qualcomm Incorporated Method and apparatus for modeling neural resource based synaptic placticity
US9064215B2 (en) 2012-06-14 2015-06-23 Qualcomm Incorporated Learning spike timing precision

Also Published As

Publication number Publication date
WO2013025708A2 (en) 2013-02-21
BR112014003581A2 (pt) 2017-03-14
CN103733209B (zh) 2016-10-26
WO2013025708A3 (en) 2013-08-15
TWI522935B (zh) 2016-02-21
IN2014CN00716A (ru) 2015-04-03
JP2016106299A (ja) 2016-06-16
KR101945678B1 (ko) 2019-02-07
KR101972282B1 (ko) 2019-04-24
KR20180027627A (ko) 2018-03-14
KR101616749B1 (ko) 2016-04-29
US9147155B2 (en) 2015-09-29
EP2745244A2 (en) 2014-06-25
KR20140054267A (ko) 2014-05-08
JP2014526110A (ja) 2014-10-02
JP6092213B2 (ja) 2017-03-08
CN103733209A (zh) 2014-04-16
TW201510883A (zh) 2015-03-16
CA2844777A1 (en) 2013-02-21
US20130046716A1 (en) 2013-02-21
RU2597504C2 (ru) 2016-09-10
JP6219418B2 (ja) 2017-10-25
KR20180027628A (ko) 2018-03-14
TW201514868A (zh) 2015-04-16
CN105930899B (zh) 2019-01-08
CA2844777C (en) 2017-11-28
TW201319960A (zh) 2013-05-16
KR20150105488A (ko) 2015-09-16
TWI526954B (zh) 2016-03-21
TWI540517B (zh) 2016-07-01
TWI480812B (zh) 2015-04-11
TW201514869A (zh) 2015-04-16
CN105930899A (zh) 2016-09-07

Similar Documents

Publication Publication Date Title
RU2014110033A (ru) Способ и устройство для нейронного временного кодирования, обучения и распознавания
Buonomano et al. Temporal information transformed into a spatial code by a neural network with realistic properties
KR101582061B1 (ko) 비감독 신경 리플레이, 학습 리파인먼트, 연관 및 기억 전달: 구조적 가소성 및 구조적 제약 모델링을 위한 방법들 및 장치
JP2020515001A5 (ru)
CN105868828A (zh) 神经系统工程设计方法和装置
KR101755082B1 (ko) 신경 성분 기억 전달을 위한 방법, 장치 및 컴퓨터 판독가능 저장 매체
CN113762530A (zh) 面向隐私保护的精度反馈联邦学习方法
HK1258101A2 (zh) 計算機實施的資產組合編制方法
CN110516804A (zh) 模型训练方法及装置
CN105069225B (zh) 应用高斯和声搜索的振动筛优化设计方法
KR20160124791A (ko) 좌표 변환을 위한 위상 코딩
ATE540382T1 (de) Objektregistrierung
KR20200098904A (ko) 학습 모델 생성 장치 및 방법
Kamiyama et al. A neural mechanism of dynamic gating of task-relevant information by top-down influence in primary visual cortex
Grinevich et al. Kinks behavior near the boundaries separating homogeneous regions of DNA
Kim et al. Efficient model selection for speech enhancement using a deflation method for nonnegative matrix factorization
CN103838140B (zh) 基于直接逆控制算法的弱非线性网络控制方法
CN101079740A (zh) 一种基于独特型网络的入侵检测系统
KR20210125729A (ko) 인공 신경망의 웨이트 갱신 시스템 및 방법
GB2600890A (en) Suppressing outlier drift coefficients while programming phase change memory synapses
Islam et al. Training neural network with chaotic learning rate
Guo et al. A Tuning Scheme for Parameters of Generalized Predictive Controller Based on Mind Evolutionary Algorithm
Guo et al. Node Localization Technology of Wireless Sensor Network (WSN) Based on Harmony Search (HS) Algorithm
Pourboghrat et al. Dynamic neural networks for adaptive control of nonlinear systems
TW201537475A (zh) 藉由對突觸後電位進行整形來實現的等效延遲

Legal Events

Date Code Title Description
MM4A The patent is invalid due to non-payment of fees

Effective date: 20190815