WO2024116229A1 - 信号処理装置 - Google Patents

信号処理装置 Download PDF

Info

Publication number
WO2024116229A1
WO2024116229A1 PCT/JP2022/043731 JP2022043731W WO2024116229A1 WO 2024116229 A1 WO2024116229 A1 WO 2024116229A1 JP 2022043731 W JP2022043731 W JP 2022043731W WO 2024116229 A1 WO2024116229 A1 WO 2024116229A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
processing device
input
reservoir unit
analog
Prior art date
Application number
PCT/JP2022/043731
Other languages
English (en)
French (fr)
Inventor
幸夫 寺▲崎▼
Original Assignee
Tdk株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tdk株式会社 filed Critical Tdk株式会社
Priority to PCT/JP2022/043731 priority Critical patent/WO2024116229A1/ja
Priority to US18/240,854 priority patent/US20240178854A1/en
Publication of WO2024116229A1 publication Critical patent/WO2024116229A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/124Sampling or signal conditioning arrangements specially adapted for A/D converters
    • H03M1/1245Details of sampling arrangements or methods
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M1/00Analogue/digital conversion; Digital/analogue conversion
    • H03M1/12Analogue/digital converters
    • H03M1/50Analogue/digital converters with intermediate conversion to time interval

Definitions

  • the present invention relates to a signal processing device.
  • a neuromorphic device is an element that mimics the human brain using a neural network. Neuromorphic devices artificially mimic the relationship between neurons and synapses in the human brain.
  • a neuromorphic device for example, has nodes (neurons in the brain) arranged in a hierarchical structure and the means of transmission that connects them (synapses in the brain). Neuromorphic devices increase the rate of correct answers to questions by having the means of transmission (synapses) learn. Learning is the process of finding knowledge that can be used in the future from information, and neuromorphic devices weight the input data.
  • Recurrent neural networks are known as one type of neural network.
  • Recurrent neural networks can handle nonlinear time series data.
  • Nonlinear time series data is data whose values change over time, such as stock prices.
  • Recurrent neural networks can process time series data by feeding the results of processing in neurons in later layers back to neurons in earlier layers.
  • Reservoir computing is one way of implementing recurrent neural networks. It performs recursive processing by interacting with signals based on internal connections. Reservoir computing is performed on a reservoir calculator.
  • Short-term memory performance is a measure of how much past information can be remembered and forgotten.
  • a reservoir calculator with optimal short-term memory performance for a given task outputs an estimated solution by taking into account the data in the necessary sections prior to the present in the time series data, while ignoring past data that is older than necessary.
  • a reservoir calculator with excellent short-term memory performance outputs an estimated solution by taking into account past data in the time series data, while a reservoir calculator with poor short-term memory performance outputs an estimated solution using the data immediately preceding the time series data.
  • Patent Document 1 describes the use of a first reservoir for short-term memory and a second reservoir for nonlinear processing in order to improve the short-term memory performance of a reservoir calculator.
  • Short-term memory performance and nonlinear conversion performance are known to be important performance requirements for a reservoir calculator, but there is a trade-off between the short-term memory performance and the nonlinear conversion performance of a reservoir calculator, and it is difficult to satisfy both. Therefore, a new method that satisfies both of these requirements is required.
  • the present invention has been made in consideration of the above circumstances, and provides a signal processing device for realizing a reservoir calculator that exhibits performance equivalent to that of a reservoir calculator with excellent short-term memory performance.
  • a signal processing device includes an input unit, an analog-to-digital converter, and a reservoir unit.
  • a first analog signal is input to the input unit.
  • the analog-to-digital converter converts the first analog signal into a first digital signal. At least a portion of the first digital signal is input to the reservoir unit.
  • the reservoir unit determines a rule for the timing of outputting a control signal for extracting a portion of the first analog signal or the first digital signal.
  • control signal is input to the analog-to-digital converter.
  • the analog-to-digital converter may change a sampling timing for converting the first analog signal into the first digital signal at the timing when the control signal is input.
  • control signal is input to the analog-to-digital converter.
  • the analog-to-digital converter may extract a portion of the signal from the first digital signal.
  • the number of signals input to the reservoir unit within a certain period of time in accordance with the control signal may be equal to or less than the short-term memory capacity of the reservoir unit.
  • a second analog signal may be further input to the input unit.
  • the signal processing device may further include a second analog-to-digital converter to which the second analog signal is input.
  • the reservoir unit may learn a rule for the timing of outputting the control signal under conditions that increase the accuracy rate of the reservoir unit during the learning process.
  • the reservoir unit may perform reinforcement learning.
  • the reservoir unit may output a likelihood between an output target value of the reservoir unit and an actual output from the reservoir unit.
  • the control signal reduces the sampling rate in an area where the likelihood is low.
  • the reservoir unit may be realized as a state machine consisting of a logic circuit.
  • the reservoir unit may be a physical reservoir consisting of an element or a circuit.
  • the reservoir unit may have a first unit and a second unit.
  • the first unit outputs an estimated solution for a task.
  • the second unit determines a rule for the timing of outputting the control signal.
  • the signal processing device and signal processing method according to the above aspect can extract and extract signals that have a significant effect on the estimated solution, and therefore can provide performance equivalent to that of a reservoir calculator with high short-term memory performance, even if the short-term memory performance of the reservoir calculator is low.
  • FIG. 1 is a conceptual diagram of a signal processing device according to a first embodiment.
  • FIG. 2 is a conceptual diagram of a reservoir unit according to the first embodiment.
  • FIG. 2 is a diagram for explaining signal processing of the signal processing device according to the first embodiment.
  • 10A to 10C are diagrams for explaining another example of signal processing by the signal processing device according to the first embodiment.
  • FIG. 13 is a conceptual diagram of a signal processing device according to a second embodiment.
  • FIG. 13 is a conceptual diagram of a signal processing device according to a third embodiment.
  • FIG. 13 is a conceptual diagram of a signal processing device according to another example of the third embodiment.
  • First embodiment 1 is a conceptual diagram of a signal processing device 100 according to the first embodiment.
  • the signal processing device 100 has an input section 10, an analog-to-digital converter 20 (hereinafter, referred to as ADC 20), and a reservoir unit 30.
  • ADC 20 analog-to-digital converter 20
  • the input unit 10 is an input terminal of the signal processing device 100.
  • An analog signal S1 is input to the input unit 10.
  • the analog signal S1 is an example of a first analog signal.
  • the input unit 10 is connected to, for example, a sensor.
  • the connection between the input unit 10 and the sensor may be wired or wireless.
  • the input unit 10 may be part of the sensor.
  • a known ADC 20 can be used as long as it converts an analog signal into a digital signal.
  • the ADC 20 is, for example, an analog-to-digital conversion circuit.
  • the ADC 20 converts, for example, an analog signal S1 into a digital signal S2.
  • the ADC 20 is connected, for example, to the input unit 10.
  • the ADC 20 may be part of a sensor together with the input unit 10.
  • the sensor may also have an interface that controls the ADC 20.
  • the reservoir unit 30 performs reservoir computing processing.
  • the reservoir unit 30 performs nonlinear conversion of input signals and performs learning and inference processing.
  • the reservoir unit 30 has an input layer L in , a reservoir layer R, and an output layer L out .
  • the input layer L in and the output layer L out are connected to the reservoir layer R.
  • the input layer L in inputs an input signal S in to the reservoir layer R.
  • the input signal S in is, for example, a digital signal input from the ADC 20.
  • the reservoir unit 30 does not need to have an input layer L in . That is, the input signal S in may be input directly to the reservoir layer R. Also, the input signal S in may be input to the reservoir layer R after being weighted in some way.
  • the reservoir layer R stores the input signal S in input from the input layer L in and converts it into another signal.
  • the reservoir layer R has a plurality of nodes n.
  • the connection weight between each node n is set, for example, by a random number.
  • the connection coefficient indicating the connection weight between each node n may be set, for example, so as to maximize the amount of information between the output signal and the expected signal.
  • the output of each node n is propagated to another node n via an activation function, and in the reservoir layer R, the input signal S in changes nonlinearly.
  • the input signal S in changes over time by interacting with each other in the reservoir layer R.
  • the node n corresponds to a neuron in a neural circuit, and the connection between the nodes n corresponds to a synapse.
  • the plurality of nodes n are connected randomly. For example, a signal output from one node n at time t may return to the node n that output the signal at time t+1.
  • the node n performs processing based on the signals at time t and time t+1, and information is processed recursively.
  • the output layer L out receives a signal from the reservoir layer R and outputs an output signal S out based on the signal.
  • the output layer L out performs learning processing and inference processing.
  • the output layer L out compares the output from the reservoir layer R with the teacher data D using a comparator C, and adjusts the connection weight w between the node n of the reservoir layer R and the node n of the output layer L out . Also in the learning process, the output layer L out compares the output from the reservoir layer R with the teacher data D using a comparator C, and determines the rule of timing for outputting the control signal S3.
  • the control signal S3 is a control signal for extracting a part of the signal from the analog signal S1 or the first digital signal.
  • the connection weight w and the rule of timing for outputting the control signal S3 are acquired, for example, by learning during the learning process.
  • the output layer L out outputs an inference result based on the input signal S in input in accordance with the control signal S 3 and the connection weight w as an output signal S out .
  • the reservoir unit 30 may be software or hardware.
  • the software is a program implemented in a computer.
  • the reservoir unit 30 includes, for example, a memory that stores the program and a processor that executes the program.
  • the hardware is a physical reservoir consisting of a combination of real elements or circuits.
  • a physical reservoir consists of multiple circuits or elements corresponding to nodes, which are connected to each other.
  • a physical reservoir is a realization of the concept of reservoir computing with real elements or circuits. If the physical reservoir is an analog interface, the reservoir unit 30 may have a digital-to-analog converter.
  • the reservoir unit 30 using a digital circuit may also be implemented in a PLD (Programmable Logic device) such as an FPGA (Field-Programmable Gate Array).
  • PLD Programmable Logic device
  • FPGA Field-Programmable Gate Array
  • an analog signal S1 detected by a sensor or the like is input to the signal processing device 100 from the input unit 10.
  • the analog signal S1 is converted into a digital signal S2 by the ADC 20.
  • the ADC 20 changes the sampling timing for converting the analog signal S1 into a digital signal S2 when the control signal S3 is input.
  • FIG. 3 is a diagram for explaining the first operation example of the signal processing of the signal processing device 100. As shown in FIG. 3, the sampling timing of the analog signal S1 is changed when the control signal S3 is input, and the period for converting the analog signal S1 into a digital signal S2 varies.
  • the control signal S3 may be output by the reservoir unit 30, or may be output by the control unit based on the learning results of the reservoir unit 30.
  • the control unit is connected, for example, to the ADC 20 and the reservoir unit 30.
  • the learning results of the reservoir unit 30 are sent to the control unit, and the control unit outputs the control signal S3 to the ADC 20 based on the learning results.
  • the reservoir unit 30 performs learning and inference processing. First, the learning processing of the reservoir unit 30 will be explained.
  • the reservoir unit 30 learns at least two items in the learning process. As a first item, the reservoir unit 30 learns the connection weight w between the node n of the reservoir layer R and the node n of the output layer L out . As a second item, the reservoir unit 30 learns the rule for the output timing of the control signal S3.
  • the reservoir unit 30 outputs a specific output signal S out when a specific connection weight w is set.
  • the reservoir unit 30 learns the first item by learning a combination of this connection weight w and the output signal S out while changing the connection weight w.
  • the reservoir unit 30 learns the first item so as to satisfy the condition that the reservoir unit 30 has a high correct answer rate.
  • the correct answer rate of the reservoir unit 30 is, for example, the degree of agreement between the teacher data D and the output signal S out . It can be said that the higher the degree of agreement between the teacher data D and the output signal S out , the higher the correct answer rate of the reservoir unit 30 .
  • the reservoir unit 30 outputs the likelihood between the output target value (teacher data) of the reservoir unit 30 and the actual output (output signal S out ) from the reservoir unit 30 . The higher the likelihood, the more plausible the output signal S out is, and the higher the correct answer rate of the reservoir unit 30 is.
  • the ADC 20 converts the analog signal S1 into a digital signal S2 based on the control signal S3.
  • the input signal Sin input to the reservoir unit 30 changes .
  • the reservoir unit 30 outputs a specific output signal Sout when a specific input signal Sin is input.
  • the reservoir unit 30 learns the second item by learning the combination of the input signal Sin and the output signal Sout while changing the input signal Sin .
  • the input signal Sin can be changed by changing the control signal S3 and changing the timing or period for converting the analog signal S1 into the digital signal S2.
  • the reservoir unit 30 learns the second item and determines a rule for the timing of outputting the sampling control signal so as to satisfy the condition that the correct answer rate of the reservoir unit 30 is high. For example, the reservoir unit 30 outputs the likelihood between the output target value (teaching data) of the reservoir unit 30 and the actual output (output signal S out ) from the reservoir unit 30.
  • the control signal S3 may lower the sampling rate in an area where the likelihood is low.
  • the number of signals input to the reservoir unit within a certain period according to the control signal S3 is, for example, equal to or less than the short-term memory capacity of the reservoir unit 30.
  • the certain period is, for example, a time period corresponding to the interval (period) of the output signal S out to be detected. Alternatively, the certain period may be set to a time period during which the input signal S in can theoretically affect the signal to be detected.
  • the reservoir unit 30 stores past information equivalent to the short-term memory capacity and operates. By suppressing the number of signals input to the reservoir unit 30 within a certain period to or less than the short-term memory capacity, it is possible to input sufficient necessary information to the reservoir unit 30 and perform calculations efficiently.
  • the reservoir unit 30 learns the first item and optimizes the connection weight w, and then reduces the timing of outputting the control signal S3 within a range in which the accuracy rate of the reservoir unit 30 does not decrease significantly, and learns the second item.
  • the reservoir unit 30 may reduce the timing of outputting the control signal S3 within a range in which the accuracy rate of the reservoir unit 30 does not decrease significantly, and after learning the second item, learn the first item and optimize the connection weight w.
  • the reservoir unit 30 may simultaneously change two parameters, the input signal S in (sampling timing by the control signal S3) and the connection weight w, and find the optimal values for each.
  • the reservoir unit 30 may perform unsupervised learning or reinforcement learning.
  • an index combining the favorability of the output from the reservoir unit 30 for example, the error for a given learning signal (root mean square error (RMSE))
  • RMSE root mean square error
  • the number of samplings is set as an objective function (score).
  • the scale of each index may be adjusted by standardization or the like.
  • the reservoir unit 30 learns actions (sampling timing) so as to minimize the score, and determines whether or not to output the sampling control signal 3 at each timing.
  • reinforcement learning When using reinforcement learning, there is a method of specifying a reward for the output state and actions (for example, the action of sampling or not sampling) and updating the action.
  • reinforcement learning also includes deep reinforcement learning. That is, the reservoir unit 30 determines the rule for the optimal output timing of the sampling control signal 3.
  • online learning may be used to adaptively learn the sampling timing in response to changes in the operating environment of the reservoir.
  • the reservoir unit 30 also learns using data sampled at a preset (sufficiently short) sampling interval. A portion of the data sampled at this sampling interval may be randomly thinned out before the first item is learned, and the result may be used as the learning data. The minimum number of samplings necessary to maintain the desired performance may be calculated by a computer or the like, and the result may be set in the reservoir unit 30.
  • the reservoir unit 30 may also learn from the sampling data after the sampling timing has been changed by the control signal S3, to return to the sampling timing before the change.
  • the inference process is performed by combining the connection weight w optimized in the learning process and the output timing of the control signal S3.
  • the rules that determine the output timing of the connection weight w and the control signal S3 do not change during the inference process.
  • the reservoir unit 30 outputs an estimated solution according to the conditions learned in the learning process.
  • FIG. 4 is a diagram for explaining a second example of the operation of the signal processing of the signal processing device 100.
  • the ADC 20 may convert the entire input analog signal S1 into a digital signal S2'. Then, the ADC 20 may extract the digital signal S2 from the digital signal S2' at the timing when the control signal S3 is input. That is, the signal processing device 100 may convert the analog signal S1 into a digital signal S2' once, and then extract a part of the digital signal S2'.
  • the control signal S3 here is a signal that instructs to mask a part of the signal.
  • the control signal S3 may be output by the reservoir unit 30, or may be output by the control unit based on the learning results of the reservoir unit 30.
  • the control unit is connected, for example, to the ADC 20 and the reservoir unit 30.
  • the learning results of the reservoir unit 30 are sent to the control unit, which outputs the control signal S3 to the ADC 20 based on the learning results.
  • the rule for the timing of outputting the control signal S3 is determined by the reservoir unit 30 through learning, as in the first operation example.
  • the signal processing device 100 can minimize the amount of signal input to the reservoir unit 30 by converting a portion of the analog signal S1 input to the signal processing device 100 into a digital signal S2.
  • the signals input to the reservoir layer R include signals that have a large effect on the estimated solution and signals that have a small effect on the estimated solution.
  • the signal processing device 100 extracts signals that have a large effect on the estimated solution by extracting a portion of the signal.
  • the reservoir unit 30 stores only signals that have a large effect on the estimated solution in the short term, and as a result, it can store information equivalent to that in the case of high short-term memory performance.
  • the signal processing device 100 can exhibit performance equivalent to that of a reservoir unit 30 with high short-term memory performance, even if the reservoir unit 30 has low short-term memory performance.
  • the signal processing device 100 determines rules for extracting a portion of a signal through learning by the reservoir unit 30. Therefore, the rules for extracting a signal are determined without any arbitrary human judgment, and signals that have a large impact on the estimated solution can be more appropriately extracted.
  • Second Embodiment 5 is a conceptual diagram of a signal processing device 101 according to the second embodiment.
  • the signal processing device 101 has an input unit 10, an input unit 40, an ADC 20, an analog-to-digital converter 50 (hereinafter, referred to as ADC 50), and a reservoir unit 30.
  • the signal processing device 101 according to the second embodiment differs from the signal processing device 100 according to the first embodiment in that it has the input unit 40 and the ADC 50.
  • the input section 10 the ADC 20, and the reservoir unit 30 are the same as those in the signal processing device 100 according to the first embodiment.
  • the input unit 40 is a second input terminal of the signal processing device 101.
  • An analog signal S4 is input to the input unit 40.
  • the analog signal S4 is an example of a second analog signal.
  • the input unit 40 is connected to, for example, a sensor.
  • the connection between the input unit 40 and the sensor may be wired or wireless.
  • the analog signal S4 is the result of sensing a parameter different from the analog signal S1.
  • the input unit 40 may also be part of the sensor.
  • ADC 50 can have the same configuration as ADC 20, so long as it converts an analog signal to a digital signal.
  • ADC 50 converts, for example, analog signal S4 to digital signal S5.
  • ADC 50 may change the sampling timing for converting analog signal S4 to digital signal S5 when control signal S6 is input from reservoir unit 30, or may extract a part of the digital signal converted from analog signal S4 as digital signal S5.
  • ADC 50 is connected to input unit 40, for example.
  • ADC 50 may be part of a sensor together with input unit 40. The sensor may also have an interface for controlling ADC 50.
  • a control signal S6 is input to the ADC 50 from the reservoir unit 30.
  • the control signal S6 is a control signal for extracting a digital signal S5 from the analog signal S4.
  • the control signal S6 is, for example, a signal that indicates the sampling timing for converting the analog signal S4 into a digital signal S5.
  • the control signal S6 may also be a signal that indicates that a portion of the digital signal S5 converted from the analog signal S4 should be masked.
  • the control signal S6 may be output by the reservoir unit 30, or may be output by the control unit based on the learning results of the reservoir unit 30.
  • the control unit is connected, for example, to the ADC 50 and the reservoir unit 30.
  • the learning results of the reservoir unit 30 are sent to the control unit, and the control unit outputs the control signal S6 to the ADC 20 based on the learning results.
  • the reservoir unit 30 determines the rule for the output timing of the control signal S6 during the learning process. This learning is performed in the same way as the rule for the output timing of the control signal S3 in the first embodiment.
  • the number of signals input to the reservoir unit 30 within a certain period of time by the control signal S6 is set to, for example, less than the short-term memory capacity of the reservoir unit 30.
  • the signal processing device 101 according to the second embodiment has the same effect as the signal processing device 100 according to the first embodiment. Furthermore, when multiple analog signals are input to the signal processing device 101, more information is input to the reservoir unit 30, allowing the reservoir unit 30 to perform more advanced processing.
  • the signal processing device 101 In the signal processing device 101 according to the second embodiment, an example has been shown in which two analog signals S1 and S4 are input to the signal processing device 101, but three or more analog signals may be input to the signal processing device 101. That is, the signal processing device may have three or more input units and analog-to-digital converters. Furthermore, in the signal processing device, multiple input units may be connected to one analog-to-digital converter. For example, the signal processing device may have multiple input units and one analog-to-digital converter. In this case, the analog-to-digital converter processes the analog signals from each input unit.
  • “Third embodiment” 6 is a conceptual diagram of a signal processing device 102 according to the third embodiment.
  • the signal processing device 101 has an input section 10, an ADC 20, and a reservoir unit 60.
  • the reservoir unit 60 has a first unit 61 and a second unit 62.
  • the signal processing device 102 according to the third embodiment differs from the signal processing device 100 according to the first embodiment in the configuration of the reservoir unit 60.
  • the reservoir unit 60 performs reservoir computing processing.
  • the reservoir unit 60 performs nonlinear conversion of input signals and performs learning and inference processing.
  • the reservoir unit 60 has a similar configuration to the reservoir unit 30, except that the units are divided by function.
  • the reservoir unit 60 learns at least two items in the learning process. As a first item, the reservoir unit 60 learns the connection weight w between the node n of the reservoir layer R and the node n of the output layer L out . As a second item, the reservoir unit 60 learns the rule of the output timing of the control signal S3. The first unit 61 is responsible for the first item, and the second unit 62 is responsible for the second item.
  • the first unit 61 optimizes the connection weights w between the nodes n in the reservoir layer R and the nodes n in the output layer L out in the learning stage, and outputs an estimated solution to the task in the inference stage.
  • the second unit 62 optimizes the output timing rule of the control signal S3 in the learning stage.
  • the signal processing device 102 according to the third embodiment has the same effect as the signal processing device 100 according to the first embodiment.
  • processing in the reservoir unit 60 becomes more efficient.
  • the reservoir unit 60 is divided into two units based on function, but the number of units may be three or more.
  • the configuration of the signal processing device 102 according to the third embodiment may also be combined with the configuration of the signal processing device 101 according to the second embodiment.
  • the units within the reservoir unit may be divided according to the analog signals to be input.
  • the reservoir unit 60 has two units connected in parallel for each function, but it is also possible to connect the output value of the first unit 61 as the input of the second unit 62.
  • FIG. 7 is a conceptual diagram of a signal processing device 102A according to another example of the third embodiment.
  • the second unit 62 learns to minimize the difference and to acquire sampling timing that requires the minimum number of samplings.
  • connection weights and activation functions within the reservoir layer R, and the connection topology between the nodes n it is possible to optimize the distribution (probability distribution) using an information criterion.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Analogue/Digital Conversion (AREA)

Abstract

本実施形態に係る信号処理装置は、入力部とアナログデジタルコンバーターとレザバーユニットとを備える。入力部には、第1アナログ信号が入力される。アナログデジタルコンバーターは、前記第1アナログ信号を第1デジタル信号に変換する。レザバーユニットは、前記第1デジタル信号の少なくとも一部が入力される。レザバーユニットは、前記第1アナログ信号又は前記第1デジタル信号から信号の一部を取り出すための制御信号を出力するタイミングのルールを決定する。

Description

信号処理装置
 本発明は、信号処理装置に関する。
 ニューロモルフィックデバイスは、ニューラルネットワークにより人間の脳を模倣した素子である。ニューロモルフィックデバイスは、人間の脳におけるニューロンとシナプスとの関係を人工的に模倣している。
 ニューロモルフィックデバイスは、例えば、階層状に配置されたノード(脳におけるニューロン)と、これらの間を繋ぐ伝達手段(脳におけるシナプス)と、を有する。ニューロモルフィックデバイスは、伝達手段(シナプス)が学習することで、問題の正答率を高める。学習は将来使えそうな知識を情報から見つけることであり、ニューロモルフィックデバイスでは入力されたデータに重み付けをする。
 ニューラルネットワークの一つとして、リカレントニューラルネットワークが知られている。リカレントニューラルネットワークは、非線形な時系列のデータを扱うことができる。非線形な時系列のデータは、時間の経過とともに値が変化するデータであり、株価等はその一例である。リカレントニューラルネットワークは、後段の階層のニューロンでの処理結果を前段の階層のニューロンに戻すことで、時系列のデータを処理することができる。
 レザバーコンピューティングは、リカレントニューラルネットワークを実現する一つの手段である。レザバーコンピューティングは、内部結合に基づいて、信号を相互作用させることで、再帰的な処理を行う。レザバーコンピューティングは、レザバー計算器で実行される。
 レザバー計算器に求められる性能の一つとして短期記憶性能がある。短期記憶性能は、過去の情報をどれだけ記憶でき、また忘却できるかという尺度である。一般には、所与のタスクに対して最適な短期記憶性能を持つレザバー計算器は、時系列データの中の現在以前の必要な区間のデータを参酌し、一方で必要以上に古い過去のデータを無視することで推定解を出力する。例えば、短期記憶性能に優れるレザバー計算器は、時系列データの過去のデータも参酌して推定解を出力するが、短期記憶性能に劣るレザバー計算器は、時系列データの直前のデータを用いて推定解を出力する。
 例えば、特許文献1には、レザバー計算器の短期記憶性能を高めるために、短期記憶を担う第1レザバーと非線形処理を担う第2レザバーとを用いることが記載されている。
国際公開第2022/024167号
 レザバー計算器に求められる重要な性能として、短期記憶性能と非線形変換性能が知られているが、レザバー計算器の短期記憶性能と非線形変換性能とはトレードオフの関係にあり、両方を満たすことは難しい。そのため、これらの両立を満たす新たな方法が求められている。
 本発明は上記事情に鑑みてなされたものであり、短期記憶性能に優れるレザバー計算器と同等の性能を示すレザバー計算器を実現するための信号処理装置を提供する。
(1)第1の態様に係る信号処理装置は、入力部とアナログデジタルコンバーターとレザバーユニットとを備える。入力部は、第1アナログ信号が入力される。アナログデジタルコンバーターは、前記第1アナログ信号を第1デジタル信号に変換する。レザバーユニットは、前記第1デジタル信号の少なくとも一部が入力される。レザバーユニットは、前記第1アナログ信号又は前記第1デジタル信号から信号の一部を取り出すための制御信号を出力するタイミングのルールを決定する。
(2)上記態様に係る信号処理装置において、前記制御信号は、前記アナログデジタルコンバーターに入力される。前記アナログデジタルコンバーターは、前記制御信号が入力されたタイミングで、前記第1アナログ信号を前記第1デジタル信号に変換するサンプリングタイミングを変更してもよい。
(3)上記態様に係る信号処理装置において、前記制御信号は、前記アナログデジタルコンバーターに入力される。前記アナログデジタルコンバーターは、前記第1デジタル信号から信号の一部を抽出してもよい。
(4)上記態様に係る信号処理装置において、前記制御信号に従い、一定期間内に前記レザバーユニットに入力される信号の数は、前記レザバーユニットの短期記憶性能以下でもよい。
(5)上記態様に係る信号処理装置において、前記入力部には、第2アナログ信号がさらに入力されてもよい。
(6)上記態様に係る信号処理装置において、前記第2アナログ信号が入力される第2アナログデジタルコンバーターをさらに備えてもよい。
(7)上記態様に係る信号処理装置において、前記レザバーユニットは、学習処理時に前記レザバーユニットの正答率が高くなる条件で、前記制御信号を出力するタイミングのルールを学習により獲得してもよい。
(8)上記態様に係る信号処理装置において、前記レザバーユニットは、強化学習を行ってもよい。
(9)上記態様に係る信号処理装置において、前記レザバーユニットは、前記レザバーユニットの出力目標値と前記レザバーユニットからの実際の出力との尤度を出力してもよい。前記制御信号は、前記尤度が低い区間でサンプリングレートを低下させる。
(10)上記態様に係る信号処理装置において、前記レザバーユニットは、論理回路からなるステートマシンとして実現してもよい。
(11)上記態様に係る信号処理装置において、前記レザバーユニットは、素子又は回路からなる物理レザバーでもよい。
(12)上記態様に係る信号処理装置において、前記レザバーユニットは、第1ユニットと第2ユニットとを有してもよい。前記第1ユニットは、タスクに対する推定解を出力する。前記第2ユニットは、前記制御信号を出力するタイミングのルールを決定する。
 上記態様にかかる信号処理装置及び信号処理方法は、推定解に大きな影響を及ぼす信号を抽出して取り出すことで、レザバー計算器の短期記憶性能が低くても、短期記憶性能が高い場合と同等の性能を示すことができる。
第1実施形態に係る信号処理装置の概念図である。 第1実施形態に係るレザバーユニットの概念図である。 第1実施形態に係る信号処理装置の信号処理を説明するための図である。 第1実施形態に係る信号処理装置の信号処理の別の例を説明するための図である。 第2実施形態に係る信号処理装置の概念図である。 第3実施形態に係る信号処理装置の概念図である。 第3実施形態の別の例に係る信号処理装置の概念図である。
 以下、本実施形態について、図を適宜参照しながら詳細に説明する。以下の説明で用いる図面は、本発明の特徴をわかりやすくするために便宜上特徴となる部分を拡大して示している場合があり、各構成要素の具体的な構成などは実際とは異なっていることがある。以下の説明において例示される構成等は一例であって、本発明はそれらに限定されるものではなく、本発明の効果を奏する範囲で適宜変更して実施することが可能である。
「第1実施形態」
 図1は、第1実施形態に係る信号処理装置100の概念図である。信号処理装置100は、入力部10とアナログデジタルコンバーター20(以下、ADC20とする。)とレザバーユニット30とを有する。
 入力部10は、信号処理装置100の入力端子である。入力部10には、アナログ信号S1が入力される。アナログ信号S1は、第1アナログ信号の一例である。入力部10は、例えば、センサーと接続されている。入力部10とセンサーとの接続は、有線でも無線でもよい。また入力部10は、センサーの一部でもよい。
 ADC20は、アナログ信号をデジタル信号に変換するものであれば、公知のものを用いることができる。ADC20は、例えば、アナログデジタル変換回路である。ADC20は、例えば、アナログ信号S1をデジタル信号S2に変換する。ADC20は、例えば、入力部10に接続されている。ADC20は、入力部10と共に、センサーの一部でもよい。またセンサーは、ADC20を制御するインターフェースを有してもよい。
 レザバーユニット30は、レザバーコンピューティングの処理を行う。レザバーユニット30は、入力信号を非線形変換し、学習処理及び推論処理を行う。
 図2は、第1実施形態にかかるレザバーユニット30の概念図である。レザバーユニット30は、入力層Linとレザバー層Rと出力層Loutとを有する。入力層Lin及び出力層Loutは、レザバー層Rに接続されている。
 入力層Linは、入力信号Sinをレザバー層Rに入力する。入力信号Sinは、例えば、ADC20から入力されるデジタル信号である。レザバーユニット30は、入力層Linを有さなくてもよい。すなわち、入力信号Sinをそのままレザバー層Rに入力してもよい。また、入力信号Sinに何等かの重みづけを行った後に、レザバー層Rに入力してもよい。
 レザバー層Rは、入力層Linから入力された入力信号Sinを貯留し、別の信号に変換する。レザバー層Rは、複数のノードnを有する。レザバー層R内では、各々のノードn間の結合重みは、例えば、乱数によって設定される。また各々のノードn間の結合重みを示す結合係数は、例えば、出力信号と期待される信号との情報量が最大化するように設定されてもよい。各々のノードnの出力は、活性化関数を介して別のノードnに伝搬され、レザバー層R内では、入力信号Sinは非線形に変化する。入力信号Sinは、レザバー層R内で互いに相互作用することで、時間の経過とともに変化する。ノードnは、神経回路のニューロンに相当し、ノードn間の接続がシナプスに相当する。複数のノードnは、ランダムに接続されている。例えば、時刻tに一つのノードnから出力された信号は、時刻t+1において信号を出力したノードnに戻る場合がある。ノードnは、時刻t及び時刻t+1の信号を踏まえた処理を行い、情報が再帰的に処理される。
 出力層Loutは、レザバー層Rから信号が入力され、その信号に基づく出力信号Soutを出力する。出力層Loutは、学習処理と推論処理を行う。
 学習処理では、出力層Loutは、レザバー層Rからの出力と教師データDとを比較器Cで比較し、レザバー層Rのノードnと出力層Loutのノードnとの間の結合重みwを調整する。また学習処理では、出力層Loutは、レザバー層Rからの出力と教師データDとを比較器Cで比較し、制御信号S3を出力するタイミングのルールを決定する。制御信号S3は、アナログ信号S1又は第1デジタル信号から信号の一部を取り出すための制御信号である。結合重みw及び制御信号S3を出力するタイミングのルールは、例えば、学習処理時に学習により獲得される。
 推論処理では、出力層Loutは、制御信号S3に従って入力された入力信号Sinと、結合重みwと、に基づく推論結果を出力信号Soutとして出力する。
 レザバーユニット30は、ソフトウェアでもハードウェアでもよい。ソフトウェアは、コンピュータ内に実装されるプログラムである。レザバーユニット30は、例えば、このプログラムを格納するメモリと、このプログラムを実行するプロセッサと、を含む。ハードウェアは、現実の素子又は回路の組み合わせからなる物理レザバーである。物理レザバーは、ノードに対応する複数の回路又は素子からなり、これらが互いに接続されている。物理レザバーは、レザバーコンピューティングの概念を現実の素子又は回路で実現したものである。また物理レザバーがアナログインタフェースの場合、レザバーユニット30は、デジタルアナログコンバーターを有してもよい。またデジタル回路によるレザバーユニット30を、FPGA(Field-Programmable Gate Array)などのPLD(Programmable Logic device)に実装してもよい。物理レザバーは、短期記憶性能が十分には確保できないことが課題となっており、本実施形態に係る信号処理装置の適用が適している。
 次いで、信号処理装置100の動作の第1の動作例を説明する。まずセンサー等で検出されたアナログ信号S1は、入力部10から信号処理装置100に入力される。アナログ信号S1は、ADC20でデジタル信号S2に変換される。
 第1の動作例では、ADC20は、制御信号S3が入力されたタイミングで、アナログ信号S1をデジタル信号S2に変換するサンプリングタイミングを変更する。図3は、信号処理装置100の信号処理の第1の動作例を説明するための図である。図3に示すように、アナログ信号S1は、制御信号S3が入力されたタイミングでサンプリングタイミングが変更され、アナログ信号S1をデジタル信号S2に変換する周期が変動する。
 制御信号S3は、レザバーユニット30が出力してもよいし、レザバーユニット30での学習結果に基づいて制御部が出力してもよい。制御部は、例えば、ADC20とレザバーユニット30とに接続される。レザバーユニット30での学習結果は制御部に送られ、制御部は学習結果に基づき制御信号S3をADC20に出力する。
 レザバーユニット30は、学習処理と推論処理とを行う。まず、レザバーユニット30の学習処理について説明する。
 レザバーユニット30は、学習処理において、少なくとも2つの事項を学習する。レザバーユニット30は、第1事項として、レザバー層Rのノードnと出力層Loutのノードnとの間の結合重みwを学習する。レザバーユニット30は、第2事項として、制御信号S3の出力タイミングのルールを学習する。
 まずレザバーユニット30の第1事項の学習について説明する。レザバーユニット30は、特定の結合重みwを設定した際に特定の出力信号Soutを出力する。この結合重みwと出力信号Soutとの組み合わせを結合重みwを変更しながら学習することで、レザバーユニット30は、第1事項を学習する。
 例えば、レザバーユニット30は、レザバーユニット30の正答率が高くなるという条件を満たすように、第1事項を学習する。レザバーユニット30の正答率は、例えば、教師データDと出力信号Soutとの一致度である。教師データDと出力信号Soutとの一致度が高い程、レザバーユニット30の正答率が高いと言える。例えば、レザバーユニット30は、レザバーユニット30の出力目標値(教師データ)とレザバーユニット30からの実際の出力(出力信号Sout)との尤度を出力する。尤度が高い程、出力信号Soutはもっともらしく、レザバーユニット30の正答率は高くなる。
 次いで、レザバーユニット30の第2事項の学習について説明する。ADC20は、制御信号S3に基づいて、アナログ信号S1をデジタル信号S2に変換する。制御信号S3によってアナログ信号S1をデジタル信号S2に変換する周期が変わると、レザバーユニット30に入力される入力信号Sinが変化する。結合重みwが固定されている場合、レザバーユニット30は、特定の入力信号Sinが入力された際に特定の出力信号Soutを出力する。この入力信号Sinと出力信号Soutとの組み合わせを入力信号Sinを変更しながら学習することで、レザバーユニット30は、第2事項を学習する。入力信号Sinは、制御信号S3を変更し、アナログ信号S1をデジタル信号S2に変換するタイミング又は周期を変えることで変更できる。
 例えば、レザバーユニット30は、レザバーユニット30の正答率が高くなるという条件を満たすように、第2事項を学習し、サンプリング制御信号を出力するタイミングのルールを決定する。例えば、レザバーユニット30は、レザバーユニット30の出力目標値(教師データ)と、レザバーユニット30からの実際の出力(出力信号Sout)との尤度を出力する。制御信号S3は、尤度が低い区間でサンプリングレートを低下させてもよい。
 制御信号S3に従い、一定期間内に前記レザバーユニットに入力される信号の数は、例えば、レザバーユニット30の短期記憶性能以下とする。一定期間は、例えば、検出したい出力信号Soutの間隔(周期)に相当する時間である。また一定期間として、入力信号Sinが検出対象の信号に理論上影響しうる時間等を設定してもよい。レザバーユニット30は、短期記憶性能分の過去の情報を記憶し、動作する。一定期間内にレザバーユニット30に入力される信号の数を短期記憶性能以下まで抑えることで、レザバーユニット30に必要な情報を十分入力しつつ、効率的に演算を行うことができる。
 一例として、レザバーユニット30は、第1事項を学習し、結合重みwを最適化した後に、レザバーユニット30の正答率が大きく減少しない範囲で、制御信号S3を出力するタイミングを減らし、第2事項を学習する。また一例として、レザバーユニット30は、レザバーユニット30の正答率が大きく減少しない範囲で、制御信号S3を出力するタイミングを減らし、第2事項を学習した後に、第1事項を学習し、結合重みwを最適化してもよい。また一例として、レザバーユニット30は、入力信号Sin(制御信号S3によるサンプリングタイミング)と結合重みwの2パラメータを同時進行で変更させながら、それぞれの最適値を求めてもよい。
 またここまで、レザバーユニット30が教師データDと出力信号Soutとの比較により最適値を学習する教師あり学習の例を示したが、学習処理はこれに限られない。例えば、レザバーユニット30は、教師無し学習を行ってもよいし、強化学習を行ってもよい。強化学習を行う場合、レザバーユニット30からの出力の好ましさ(例えば、与えられた学習信号に対する誤差(二重平均平方根誤差(RMSE))とサンプリング回数を組み合わせた指標を目的関数(スコア)とする。その場合、各々の指標のスケールを標準化等で調整してもよい。レザバーユニット30は、スコアが最小化するように行動(サンプリングタイミング)を学習し、それぞれのタイミングでサンプリング制御信号3を出力するか否かを判断する。強化学習を利用する場合、出力の状態、行動(例えば、サンプリングする又はしないという行動)に対する報酬を規定し、行動を更新するなどの手法がある。なお、強化学習には深層強化学習なども含まれる。すなわち、レザバーユニット30は、最適なサンプリング制御信号3の出力タイミングのルールを決定する。また、オンライン学習を用いてレザバーの動作環境の変化などに対して適応的にサンプリングタイミングを学習しても構わない。
 またレザバーユニット30の学習は、あらかじめ設定した(十分に短い間隔の)サンプリング間隔によってサンプリングされたデータを用いて行われる。このサンプリング間隔でサンプリングしたデータの一部をランダムに間引いた上で、第一事項の学習を実施させ、その結果を学習データとしてもよい。また目的とする性能を維持することが可能な最小のサンプリング回数をコンピュータ等で計算し、その結果をレザバーユニット30に設定させてもよい。またレザバーユニット30は、制御信号S3によってサンプリングのタイミングを変動させた後、変動させる前のサンプリングタイミングに復帰させることを、変動させた後のサンプリングデータから学習してもよい。
 次いで、レザバーユニット30の推論処理について説明する。推論処理は、学習処理で最適化された結合重みw及び制御信号S3の出力タイミングの組み合わせで行われる。推論処理において、結合重みw及び制御信号S3の出力タイミングを決めるルールは、原則変更しない。レザバーユニット30は、学習処理で学んだ条件に従い、推定解を出力する。
 ここまで信号処理装置100の動作の第1の動作例を説明したが、信号処理装置100の動作はこの例に限られるものではない。
 図4は、信号処理装置100の信号処理の第2の動作例を説明するための図である。図4に示すように、ADC20は、入力されたアナログ信号S1を全てデジタル信号S2’に変換してもよい。そして、ADC20は、制御信号S3が入力されたタイミングで、デジタル信号S2’からデジタル信号S2を抽出してもよい。すなわち、信号処理装置100は、アナログ信号S1を一旦デジタル信号S2’に変換した後で、デジタル信号S2’の一部を抽出してもよい。ここでの制御信号S3は、信号の一部をマスク処理するように指示する信号である。
 制御信号S3は、レザバーユニット30が出力してもよいし、レザバーユニット30での学習結果に基づいて制御部が出力してもよい。制御部は、例えば、ADC20とレザバーユニット30とに接続される。レザバーユニット30での学習結果は制御部に送られ、制御部は学習結果に基づき制御信号S3をADC20に出力する。制御信号S3を出力するタイミングのルールは、第1の動作例と同様に、レザバーユニット30が学習により決定する。
 上述のように、第1実施形態に係る信号処理装置100は、信号処理装置100に入力されたアナログ信号S1の一部をデジタル信号S2に変換することで、レザバーユニット30に入力される信号量を最小化することができる。
 レザバーコンピューティングにおいて、レザバー層Rに入力される信号には、推定解に大きな影響を及ぼす信号と推定解に与える影響が小さい信号とがある。第1実施形態に係る信号処理装置100は、信号の一部を抽出することで、推定解に大きな影響を及ぼす信号を抽出している。レザバーユニット30は、推定解に大きな影響を及ぼす信号のみを短期的に記憶することになるため、結果的に短期記憶性能が高い場合と同等の情報を記憶することができる。
 したがって、第1実施形態に係る信号処理装置100は、レザバーユニット30の短期記憶性能が低くても、短期記憶性能が高い場合と同等の性能を示すことができる。
 また第1実施形態に係る信号処理装置100は、レザバーユニット30が学習することで、信号の一部を抽出するルールを決定している。そのため、信号を抽出するルールの決定に、人による恣意的な判断が介在しておらず、推定解に与える影響の大きい信号をより適切に抽出することができる。
「第2実施形態」
 図5は、第2実施形態に係る信号処理装置101の概念図である。信号処理装置101は、入力部10と入力部40とADC20とアナログデジタルコンバーター50(以下、ADC50とする。)とレザバーユニット30とを有する。第2実施形態に係る信号処理装置101は、入力部40とADC50を有する点が、第1実施形態に係る信号処理装置100と異なる。
 信号処理装置101において、入力部10とADC20とレザバーユニット30は、第1実施形態に係る信号処理装置100と同様である。
 入力部40は、信号処理装置101の第2の入力端子である。入力部40には、アナログ信号S4が入力される。アナログ信号S4は、第2アナログ信号の一例である。入力部40は、例えば、センサーと接続されている。入力部40とセンサーとの接続は、有線でも無線でもよい。アナログ信号S4は、アナログ信号S1とは異なり、アナログ信号S1とは別のパラメータをセンシングした結果である。また入力部40は、センサーの一部でもよい。
 ADC50は、アナログ信号をデジタル信号に変換するものであれば、ADC20と同様の構成を選択できる。ADC50は、例えば、アナログ信号S4をデジタル信号S5に変換する。ADC50は、レザバーユニット30から制御信号S6が入力されたタイミングで、アナログ信号S4をデジタル信号S5に変換するサンプリングタイミングを変更してもよいし、アナログ信号S4から変換されたデジタル信号の一部をデジタル信号S5として抽出してもよい。ADC50は、例えば、入力部40に接続されている。ADC50は、入力部40と共に、センサーの一部でもよい。またセンサーは、ADC50を制御するインターフェースを有してもよい。
 ADC50には、レザバーユニット30から制御信号S6が入力される。制御信号S6は、アナログ信号S4からデジタル信号S5を抽出するための制御信号である。制御信号S6は、例えば、アナログ信号S4をデジタル信号S5に変換するサンプリングタイミングを指示する信号である。また制御信号S6は、アナログ信号S4から変換されたデジタル信号S5の一部をマスク処理するように指示する信号でもよい。
 制御信号S6は、レザバーユニット30が出力してもよいし、レザバーユニット30での学習結果に基づいて制御部が出力してもよい。制御部は、例えば、ADC50とレザバーユニット30とに接続される。レザバーユニット30での学習結果は制御部に送られ、制御部は学習結果に基づき制御信号S6をADC20に出力する。
 制御信号S6の出力タイミングのルール決定は、レザバーユニット30が学習処理時に行う。この学習は、第1実施形態における制御信号S3の出力タイミングのルール決定と同様に、行われる。制御信号S6により、一定期間内にレザバーユニット30に入力される信号の数は、例えば、レザバーユニット30の短期記憶性能以下とする。
 第2実施形態に係る信号処理装置101は、第1実施形態に係る信号処理装置100と同等の効果を奏する。また信号処理装置101に入力されるアナログ信号が複数であると、レザバーユニット30により多くの情報が入力されるため、レザバーユニット30がより高度な処理を行うことができる。
 第2実施形態に係る信号処理装置101では、信号処理装置101に2つのアナログ信号S1、S4が入力される例を示したが、信号処理装置101に入力されるアナログ信号は3つ以上でもよい。すなわち、信号処理装置は、入力部、アナログデジタルコンバーターを3つ以上有してもよい。また信号処理装置において、複数の入力部が一つのアナログデジタルコンバーターに接続されていてもよい。例えば、信号処理装置は、複数の入力部と一つのアナログデジタルコンバーターを有してもよい。この場合、アナログデジタルコンバータは、それぞれの入力部からのアナログ信号を処理する。
「第3実施形態」
 図6は、第3実施形態に係る信号処理装置102の概念図である。信号処理装置101は、入力部10とADC20とレザバーユニット60とを有する。レザバーユニット60は、第1ユニット61と第2ユニット62とを有する。第3実施形態に係る信号処理装置102は、レザバーユニット60の構成が、第1実施形態に係る信号処理装置100と異なる。
 レザバーユニット60は、レザバーコンピューティングの処理を行う。レザバーユニット60は、入力信号を非線形変換し、学習処理及び推論処理を行う。レザバーユニット60は、機能ごとにユニットを分けている点を除いて、レザバーユニット30と同様の構成を有する。
 レザバーユニット60は、学習処理において、少なくとも2つの事項を学習する。レザバーユニット60は、第1事項として、レザバー層Rのノードnと出力層Loutのノードnとの間の結合重みwを学習する。レザバーユニット60は、第2事項として、制御信号S3の出力タイミングのルールを学習する。第1ユニット61は、第1事項を担当し、第2ユニット62は、第2事項を担当する。
 第1ユニット61は、学習段階ではレザバー層Rのノードnと出力層Loutのノードnとの間の結合重みwの最適化を行い、推論段階ではタスクに対する推定解を出力する。これに対し、第2ユニット62は、学習段階では制御信号S3の出力タイミングのルールの最適化を行なう。
 第3実施形態に係る信号処理装置102は、第1実施形態に係る信号処理装置100と同等の効果を奏する。また信号処理装置102は、学習すべき事項ごとにユニットを分けているため、レザバーユニット60での処理が効率的になる。
 第3実施形態に係る信号処理装置102では、レザバーユニット60が機能ごとに2つのユニットに分かれている例を示したが、ユニットの数は3つ以上でもよい。また第3実施形態に係る信号処理装置102の構成は、第2実施形態に係る信号処理装置101の構成と組み合わせてもよい。例えば、入力するアナログ信号ごとに、レザバーユニット内のユニットを分割してもよい。
 また図6に示す信号処理装置102では、レザバーユニット60が機能ごとに2つのユニットが並列に接続する例を示したが、第1ユニット61の出力値を第2ユニット62の入力として接続することも可能である。
 また図7に示すように、第1ユニット61の出力値と教師データDとの差分を第2ユニット62の入力とすることも可能である。図7は、第3実施形態の別の例に係る信号処理装置102Aの概念図である。その場合、第2ユニット62の学習は、その差分を最小化し、且つ、最小のサンプリング回数ですむようにサンプリングタイミングを獲得するように学習が行われる。
 以上、本発明の実施形態について図面を参照して詳述したが、各実施形態における各構成及びそれらの組み合わせ等は一例であり、本発明の趣旨から逸脱しない範囲内で、構成の付加、省略、置換、及びその他の変更が可能である。
 また上記の実施形態に係る信号処理装置の更なる性能向上のために、レザバー層R内部の結合重み、活性化関数、ノードn間の結合トポロジーの最適化等が考えられる。これらの最適化のためには、情報量基準を用いた分布(確率分布)の最適化等が考えられる。
 また上記の実施形態に係る信号処理装置では、制御信号S3によるサンプリングタイミングを学習により獲得した後に、変更したサンプリングタイミングで取得したデータのみを用いて、追加的に学習をおこなってもよい。
10…入力部
20、50…アナログデジタルコンバーター(ADC)
30、60…レザバーユニット
61…第1ユニット
62…第2ユニット
100、101、102…信号処理装置
S1、S4…アナログ信号
S2、S2’、S5…デジタル信号
S3、S6…制御信号

Claims (12)

  1.  第1アナログ信号が入力される入力部と、
     前記第1アナログ信号を第1デジタル信号に変換するアナログデジタルコンバーターと、
     前記第1デジタル信号の少なくとも一部が入力されるレザバーユニットと、を備え、
     前記レザバーユニットは、前記第1アナログ信号又は前記第1デジタル信号から信号の一部を取り出すための制御信号を出力するタイミングのルールを決定する、信号処理装置。
  2.  前記制御信号は、前記アナログデジタルコンバーターに入力され、
     前記アナログデジタルコンバーターは、前記制御信号が入力されたタイミングで、前記第1アナログ信号を前記第1デジタル信号に変換するサンプリングタイミングを変更する、請求項1に記載の信号処理装置。
  3.  前記制御信号は、前記アナログデジタルコンバーターに入力され、
     前記アナログデジタルコンバーターは、前記第1デジタル信号から信号の一部を抽出する、請求項1に記載の信号処理装置。
  4.  前記制御信号に従い、一定期間内に前記レザバーユニットに入力される信号の数は、前記レザバーユニットの短期記憶性能以下である、請求項1に記載の信号処理装置。
  5.  前記入力部には、第2アナログ信号がさらに入力される、請求項1に記載の信号処理装置。
  6.  前記第2アナログ信号が入力される第2アナログデジタルコンバーターをさらに備える、請求項5に記載の信号処理装置。
  7.  前記レザバーユニットは、学習処理時に前記レザバーユニットの正答率が高くなる条件で、前記制御信号を出力するタイミングのルールを学習により獲得する、請求項1に記載の信号処理装置。
  8.  前記レザバーユニットは、強化学習を行う、請求項1に記載の信号処理装置。
  9.  前記レザバーユニットは、前記レザバーユニットの出力目標値と前記レザバーユニットからの実際の出力との尤度を出力し、前記制御信号は、前記尤度が低い区間でサンプリングレートを低下させる、請求項1に記載の信号処理装置。
  10.  前記レザバーユニットは、論理回路からなるステートマシンである、請求項1に記載の信号処理装置。
  11.  前記レザバーユニットは、素子又は回路からなる物理レザバーである、請求項1に記載の信号処理装置。
  12.  前記レザバーユニットは、第1ユニットと第2ユニットとを有し、
     前記第1ユニットは、タスクに対する推定解を出力し、
     前記第2ユニットは、前記制御信号を出力するタイミングのルールを決定する、請求項1に記載の信号処理装置。
PCT/JP2022/043731 2022-11-28 2022-11-28 信号処理装置 WO2024116229A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/043731 WO2024116229A1 (ja) 2022-11-28 2022-11-28 信号処理装置
US18/240,854 US20240178854A1 (en) 2022-11-28 2023-08-31 Signal processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/043731 WO2024116229A1 (ja) 2022-11-28 2022-11-28 信号処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/240,854 Continuation-In-Part US20240178854A1 (en) 2022-11-28 2023-08-31 Signal processor

Publications (1)

Publication Number Publication Date
WO2024116229A1 true WO2024116229A1 (ja) 2024-06-06

Family

ID=91191189

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/043731 WO2024116229A1 (ja) 2022-11-28 2022-11-28 信号処理装置

Country Status (2)

Country Link
US (1) US20240178854A1 (ja)
WO (1) WO2024116229A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019090795A (ja) * 2017-10-25 2019-06-13 ザ・ボーイング・カンパニーThe Boeing Company ビロウノイズ送信後(bat)チャープレーダー
JP2020177509A (ja) * 2019-04-19 2020-10-29 株式会社日立製作所 計算機及びデータ処理方法
JP2021060830A (ja) * 2019-10-08 2021-04-15 国立大学法人大阪大学 リザーバコンピューティング用リザーバ及びそれを用いた情報処理装置
WO2021205581A1 (ja) * 2020-04-08 2021-10-14 富士通株式会社 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019090795A (ja) * 2017-10-25 2019-06-13 ザ・ボーイング・カンパニーThe Boeing Company ビロウノイズ送信後(bat)チャープレーダー
JP2020177509A (ja) * 2019-04-19 2020-10-29 株式会社日立製作所 計算機及びデータ処理方法
JP2021060830A (ja) * 2019-10-08 2021-04-15 国立大学法人大阪大学 リザーバコンピューティング用リザーバ及びそれを用いた情報処理装置
WO2021205581A1 (ja) * 2020-04-08 2021-10-14 富士通株式会社 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KANNO, KAZUTAKA: "Reinforcement learning based on photonic reservoir computing", LECTURE PREPRINTS OF THE 68TH JSAP SPRING MEETING 2021. THE JAPAN SOCIETY OF APPLIED PHYSICS, 26 February 2021 (2021-02-26) *

Also Published As

Publication number Publication date
US20240178854A1 (en) 2024-05-30

Similar Documents

Publication Publication Date Title
De la Rosa et al. Randomized algorithms for nonlinear system identification with deep learning modification
Ibrahim An overview of soft computing
US10635978B2 (en) Ensembling of neural network models
US10657447B1 (en) Automated model building search space reduction
JP7228320B2 (ja) ニューロモーフィック・チップ、ニューロモーフィック・システム、ニューロモーフィック・チップ内のシナプス重みを更新するための方法およびコンピュータ・プログラム
US10970626B2 (en) Multi-memristive synapse with clock-arbitrated weight update
EP3136304A1 (en) Methods and systems for performing reinforcement learning in hierarchical and temporally extended environments
JP2019502970A (ja) 抵抗型処理ユニット
Yang et al. A novel self-constructing radial basis function neural-fuzzy system
US11562249B2 (en) DNN training with asymmetric RPU devices
CN108665070A (zh) 基于极限学习机的极限ts模糊推理方法及系统
CN113614745A (zh) 用于尖峰神经网络的尖峰突触元件
US11080592B2 (en) Neuromorphic architecture for feature learning using a spiking neural network
Kiumarsi et al. Optimal control using adaptive resonance theory and Q-learning
Tian et al. Hybrid neural state machine for neural network
WO2024116229A1 (ja) 信号処理装置
CN114730379A (zh) 具有交叉式阵列结构的神经形态设备
US20230023123A1 (en) Information processing system, information processing device, information processing method, and information processing program
Lee et al. A multi-layer feed-forward neural network with dynamically adjustable structures
Li et al. Using self-constructing recurrent fuzzy neural networks for identification of nonlinear dynamic systems
CN115204350A (zh) 脉冲神经网络的训练方法和训练装置
WO2024111067A1 (ja) 信号処理装置及び信号処理方法
Babinec et al. Modular echo state neural networks in time series prediction
Ünal et al. Artificial neural networks
Xie et al. Preliminary study on wilcoxon-norm-based robust extreme learning machine