WO2020153047A1 - 電圧制御装置 - Google Patents

電圧制御装置 Download PDF

Info

Publication number
WO2020153047A1
WO2020153047A1 PCT/JP2019/049265 JP2019049265W WO2020153047A1 WO 2020153047 A1 WO2020153047 A1 WO 2020153047A1 JP 2019049265 W JP2019049265 W JP 2019049265W WO 2020153047 A1 WO2020153047 A1 WO 2020153047A1
Authority
WO
WIPO (PCT)
Prior art keywords
voltage
neural network
determination unit
control device
inference result
Prior art date
Application number
PCT/JP2019/049265
Other languages
English (en)
French (fr)
Inventor
智宏 松本
恭正 長谷川
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to DE112019006731.1T priority Critical patent/DE112019006731T5/de
Priority to US17/422,974 priority patent/US20220075444A1/en
Priority to CN201980087476.4A priority patent/CN113316752A/zh
Priority to JP2020567425A priority patent/JP7404276B2/ja
Publication of WO2020153047A1 publication Critical patent/WO2020153047A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3296Power saving characterised by the action undertaken by lowering the supply or operating voltage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • G06N3/065Analogue means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Definitions

  • the present technology relates to a voltage control device.
  • DNN deep neural networks
  • SRAM Static Random Access Memory
  • Non-Patent Document 1 the learning neural network learns in an environment in which the voltage supplied to the SRAM of the learning neural network is low and an error in the SRAM is likely to occur.
  • this supply voltage becomes lower than a predetermined value, the error rate (Error Rate) of the learning neural network increases. Therefore, the author of this non-patent document 1 sets a threshold value for this error rate and sets an allowable error rate and the lowest supply voltage (limit operating voltage) at which this error rate is reached. Then, while the normal voltage was 0.8 V, the limit operating voltage was 0.5 V or less. The above is described in this nonpatent literature 1.
  • Non-Patent Document 1 a learning neural network and an inference neural network are used.
  • the coefficient data obtained by the learning by the learning neural network is stored in the SRAM of the inference neural network, and the inference neural network makes an inference. Therefore, it is desirable that the limit operating voltage obtained during learning can be applied during inference.
  • the PVT (process, voltage, and temperature) condition during learning and the PVT condition during inference may differ. Therefore, there is a problem that the limit operating voltage obtained during learning cannot be applied to the inference neural network as it is.
  • the main purpose of this technology is to reduce power consumption by providing a voltage control device that automatically sets the limit operating voltage.
  • the present technology includes a first neural network, a second neural network, an inference result determination unit, and a voltage determination unit, and the first neural network has a function of inferring based on learned information.
  • the second neural network has a function of inferring based on unlearned information
  • the inference result determining unit includes the correct answer value data held in the inference result determining unit and the first 1 has a function of comparing the inference result data of the neural network to obtain the determination result data
  • the voltage determining unit matches the correct answer value data with the inference result data based on the determination result data.
  • a voltage signal lower than the voltage supplied to the first neural network and the second neural network is output, and if the correct answer value data and the inference result data do not match, the first neural network and the A voltage controller having a function of outputting the voltage signal higher than the voltage supplied to the second neural network is provided.
  • the first neural network may be a duplicate of some or all of the components of the second neural network.
  • the first neural network may be formed by a part of the components of the second neural network.
  • the first neural network and the second neural network may include at least a storage unit and a plurality of processing elements.
  • the voltage determination unit includes at least a voltage difference determination unit and a voltage difference signal conversion unit, and the voltage difference determination unit is supplied to the first neural network based on the determination result data.
  • the voltage difference signal converter converts the voltage difference signal, It may have a function of outputting a voltage signal.
  • the voltage determination unit based on the determination result data and the voltage, the correct value data and the inference result data match, and the voltage supplied to the first neural network is a predetermined value. If it is higher, a voltage signal lower than the voltage supplied to the first neural network and the second neural network may be output.
  • the voltage control device further includes a voltage supply unit, and the voltage supply unit applies the voltage to the first neural network and the second neural network based on the voltage signal output by the voltage determination unit. It may have a function of supplying.
  • the voltage supply unit may include at least a DA converter, and the DA converter may have a function of converting the voltage signal that is a digital signal into the voltage that is an analog signal and outputting the voltage.
  • the voltage supplied to the first neural network is referred to as a first supply voltage and the voltage supplied to the second neural network is referred to as a second supply voltage. It may have a function of supplying the high second supply voltage to the second neural network.
  • the error occurrence rate of the first neural network is within the allowable range, and the lowest voltage supplied to the first neural network is called the limit operating voltage.
  • the voltage control device 100 includes a first neural network 110, a second neural network 120, an inference result determination unit 130, and a voltage determination unit 140.
  • the first neural network 110 and the second neural network 120 have a function of inferring what the input data is. For example, when image data of a cat is input, the first neural network 110 and the second neural network 120 infer whether or not this image is a cat image.
  • the input data may be, for example, voices, symbols, numbers, characters, signals, etc. in addition to images.
  • the first neural network 110 has a function of inferring based on already learned information.
  • the second neural network 120 has a function of inferring based on unlearned information.
  • the first neural network 110 is a replica of some or all of the components of the second neural network 120. As a result, the first neural network 110 and the second neural network 120 can perform the same operation.
  • the inference result determination unit 130 has a function of determining whether the inference result of the first neural network 110 is correct or incorrect and obtaining determination result data. More specifically, the inference result determination unit 130 compares the correct answer value data held by the inference result determination unit 130 with the inference result data of the first neural network 110, and outputs the determination result data. .. For example, when the correct answer value data is a cat and the inference result data is also a cat, the determination result data has a correct answer value.
  • the voltage determination unit 140 has a function of determining the voltage supplied to the first neural network 110 and the second neural network 120 based on the determination result data output by the inference result determination unit 130. More specifically, when the correct answer value data and the inference result data match, the voltage determination unit 140 outputs a voltage signal lower than the voltage supplied to the first neural network 110 and the second neural network 120. It has a function. On the other hand, when the correct answer value data and the inference result data do not match, the voltage determination unit 140 has a function of outputting a voltage signal higher than the voltage supplied to the first neural network 110 and the second neural network 120. There is.
  • the first neural network 110 may be configured with a part of the components of the second neural network 120. That is, the first neural network 110 may operate as the first neural network 110 at some times and as a part of the second neural network 120 at some times. For example, when inferring based on already learned information, the first neural network 110 operates as the first neural network 110, and when inferring based on unlearned information, the first neural network 110: It may operate as part of the second neural network 120.
  • the voltage determination unit 140 In order to reduce the power consumption of the first neural network 110 and the second neural network 120, it is effective to lower the voltage supplied to the first neural network 110 and the second neural network 120. Therefore, when the inference result data and the correct answer value data match, the voltage determination unit 140 outputs a voltage signal lower than the voltage supplied to the first neural network 110 and the second neural network 120.
  • the first neural network 110 has a function of inferring based on the learned information. Therefore, it is usual that the inference result data of the first neural network 110 and the correct value data match.
  • the case where the inference result data and the correct value data do not match is when the voltage supplied to the first neural network 110 becomes lower than the limit operating voltage V L.
  • the voltage determination unit 140 outputs a voltage signal higher than the voltage supplied to the first neural network 110 and the second neural network 120.
  • the first neural network 110 and the second neural network 120 operate at a voltage near the limit operating voltage V L. Therefore, the power consumption of the first neural network 110 and the second neural network 120 can be reduced.
  • the voltage control device 100 can automatically set the limit operating voltage.
  • FIG. 3 shows an embodiment in which the voltage control device 100 according to the present technology is embodied.
  • the voltage control device 100 according to the present technology includes a first neural network 110, a second neural network 120, an inference result determination unit 130, and a voltage determination unit 140.
  • the first neural network 110 can include at least a storage unit 111 and a processing element group 112.
  • the processing element group 112 is composed of a plurality of processing elements.
  • the storage unit 111 for example, a semiconductor storage element such as SRAM can be used.
  • the second neural network 120 can include at least a storage unit 121 and a processing element group 122.
  • Inference result judging unit 130 has the inference result determining section and correct value data A C held in the 130, the function to obtain a determination result data by comparing the inference result data of the first neural network 110.
  • the inference result determining unit 130 compares the inference and result judging unit 130 correct value data A C held in, the inference result data of the neural network 110 (S1).
  • the inference result determination unit 130 sets the value "0" to the determination result flag F which is the determination result data (S2).
  • the inference result judging unit 130, the determination result flag F sets the value "1" (S3).
  • the voltage determination unit 140 operates based on the value of the determination result flag F.
  • FIG. 5 shows a flowchart of the voltage determination unit 140.
  • the voltage determination unit 140 outputs a voltage signal lower than the voltage V1 supplied to the neural network 110. Output (S5).
  • the voltage determination unit 140 outputs a voltage signal higher than the voltage V1 supplied to the neural network 110 (S6).
  • FIGS. 6 and 7 show an embodiment of the first neural network 110 and the inference result determination unit 130.
  • FIG. 6 shows a process when the first neural network 110 can correctly infer.
  • FIG. 7 shows the processing when the first neural network 110 cannot correctly infer.
  • the image data G1 is input to the first neural network 110.
  • the image data G1 is a cat image.
  • the inference result data by the first neural network 110 is that the image data G1 has a probability of being a cat of 90%, a probability of being a dog of 5%, a probability of being a horse, 2%, a probability of being a bird, and a sheep.
  • the probability is 1%.
  • the voltage V1 supplied to the first neural network 110 is higher than the limit operating voltage V L. Therefore, the first neural network 110 can make inference correctly.
  • the binarization unit 131 included in the inference result determination unit 130 binarizes the inference result data by the first neural network 110 into “0” or “1” using a predetermined value, for example, 50% as a threshold. When the probability in the inference result data is higher than 50%, the binarization unit 131 outputs the value “1”. If the probability in the inference result data is 50% or less, the binarization unit 131 outputs the value “0”. The threshold does not have to be 50%.
  • the probability that the image data is a cat is 90%, which is higher than the threshold value of 50%, so the binarization unit 131 sets the value of the cat item to “1”. For other items (dogs, horses, birds, and sheep), the probability is 50% or less, so the binarization unit 131 sets the values of these items to “0”.
  • the correct answer is a cat because the image data is the image data of a cat. Therefore, the correct value data A C, the value of the cat of the item has become a "1", other items (dogs, horses, birds, and sheep) the value is and has a "0".
  • the correct answer comparing unit 132 included in the inference result determining unit 130 compares the correct answer value data A C and reasoning result data.
  • the cat item, the value of the inference result data is "1", the value of the correct value data A C is “1”, "1” is set to the determination value.
  • the value of the inference result data is "0”, the value of the correct value data A C is "0”, "1” is set to the determination value ..
  • the inference result judgment unit 130 sets the judgment result flag F to the value "0".
  • the image data G1 is a cat image.
  • the inference result data obtained by the first neural network 110 has a probability that the image data is a cat is 45%, a dog is 51%, a horse is 1%, a bird is 2%, and a sheep is a probability. Is 1%.
  • the voltage V1 supplied to the first neural network 110 is lower than the limit operating voltage V L. Therefore, the first neural network 110 cannot correctly make inference.
  • the probability that the image data is a dog is 51%, which is higher than the threshold value 50%, so the binarization unit 131 sets the value of the dog item to “1”. For other items (cat, horse, bird, and sheep), the probability is 50% or less, so the binarization unit 131 sets the values of these items to “0”.
  • the correct answer comparing unit 132 compares the correct answer value data A C and reasoning result data.
  • the cat item the value of the inference result data is "0", the value of the correct value data A C is “1”, "0” is set to the determination value.
  • the value of the inference result data is "1”, the value of the correct value data A C is "0", "0” is set to the determination value.
  • the value of the inference result data is "0"
  • the value of the correct value data A C is "0"
  • "1" is set to the determination value.
  • the inference result judgment unit 130 sets the judgment result flag F to the value “1”. To set.
  • the subsequent voltage determination unit 140 operates based on the determination result flag F.
  • the voltage determination unit 140 includes at least a voltage difference determination unit 141 and a voltage difference signal conversion unit 142.
  • the voltage difference determination unit 141 determines the voltage difference between the voltage supplied to the first neural network 110 and the changed voltage based on the determination result data, and outputs the voltage difference signal to the voltage difference signal conversion unit 142. It has a function to output.
  • the voltage difference determination unit 141 holds the ratio of the voltage difference when lowering the supply voltage V1 to the first neural network and the voltage difference when increasing the supply voltage V1.
  • the ratio of the voltage difference when lowering the supply voltage V1 and the voltage difference when increasing the supply voltage V1 can be ⁇ :(1 ⁇ ).
  • can be a value greater than 0 and less than 0.5.
  • the voltage difference signal conversion unit 142 has a function of converting the voltage difference signal and outputting the voltage signal.
  • the voltage difference signal conversion unit 142 can include, for example, an integrator.
  • FIG. 8 shows the supply voltage V1 to the first neural network, the limit operating voltage V L , the value of the determination result flag F, and the time T.
  • the value of the judgment result flag F is indicated by 0 and 1.
  • a flat low value is 0 and a high flat value is 1.
  • the supply voltage V1 When the value of the determination result flag F is 0, the supply voltage V1 is low. When the supply voltage V1 gradually decreases and the supply voltage V1 reaches the limit operating voltage VL at time t1, the value of the determination result flag F becomes 1 and the supply voltage V1 is high.
  • the ratio between the voltage difference when the supply voltage V1 is lowered and the voltage difference when the supply voltage is raised is not limited to ⁇ :1- ⁇ , and may be, for example, ⁇ :1.
  • FIG. 9 shows the supply voltage V1 to the first neural network 110, the limit operating voltage VL , the value of the determination result flag F, and the time T.
  • the supply voltage V1 gradually decreases, but when the supply voltage V1 becomes close to the limit operating voltage VL at time t3, the supply voltage V1 becomes lower than that. Not not. As a result, at a time after the time t3, the first neural network 110 does not make a false inference although the supply voltage is low. This state may be used when the first neural network 110 is not actively operating and can operate even at a low supply voltage.
  • FIG. 10 shows a flowchart of the voltage determination unit 140 at this time.
  • the voltage determination unit 140 outputs a voltage signal lower than the voltage supplied to the first neural network and the second neural network (S9). ..
  • the voltage determination unit 140 determines that the voltage V1 supplied to the neural network 110 A high voltage signal is output (S10).
  • the voltage difference signal conversion unit 142 has a function of converting the voltage difference signal output from the voltage difference determination unit 141 and outputting the voltage signal.
  • the voltage difference signal conversion unit 142 multiplies the voltage difference output from the voltage difference determination unit 141 by ⁇ , for example.
  • can be set to a value larger than 0 and much smaller than 1 for example.
  • FIG. 11 shows another embodiment of the voltage control device 100 according to the present technology. Detailed description of the overlapping portions between FIG. 11 and FIG. 3 will be omitted.
  • the voltage control device 100 can further include a voltage supply unit 150.
  • the voltage supply unit 150 has a function of supplying a voltage to the first neural network 110 and the second neural network 120 based on the voltage signal output by the voltage determination unit 140.
  • the voltage supply unit 150 can include at least the DA converter 151.
  • the DA converter 151 can convert a digital signal into an analog signal.
  • the voltage signal output by the voltage determination unit 140 is a digital signal.
  • the supply voltage to the first neural network 110 and the second neural network 120 is an analog signal. Therefore, conversion processing by the DA converter 151 is required.
  • the voltage supply unit 150 can further include a buffer 152. If the output voltage of the DA converter 151 is directly supplied to the first neural network 110 or the like, the load of the DA converter 151 or the like becomes high. Therefore, the buffer 152 converts the output voltage of the DA converter 151 and supplies it to the first neural network 110 and the like.
  • the buffer 152 for example, a low dropout linear regulator (LDO) or a DC/DC converter can be used.
  • FIG. 12 shows another embodiment in which the voltage control device 100 according to the present technology is embodied. Detailed description of the overlapping portions between FIG. 12 and FIG. 11 will be omitted.
  • the voltage supplied to the first neural network 110 is the first supply voltage V1.
  • the voltage supplied to the second neural network 120 is referred to as a second supply voltage V2.
  • the voltage difference signal conversion unit 142 converts the voltage difference signal output by the voltage difference determination unit 141 to generate a voltage signal corresponding to the first supply voltage V1 and a voltage corresponding to the second supply voltage V2 higher than the voltage signal. It has a function of outputting a signal.
  • the voltage difference ⁇ V between the first supply voltage V1 and the second supply voltage V2 depends on the fluctuation of noise, but may be, for example, 20 mV or 50 mV.
  • the voltage supply unit 150 has a function of supplying the first supply voltage V1 to the first neural network 110 and supplying the second supply voltage V2 higher than the first supply voltage V1 to the second neural network 120.
  • FIG. 13 shows the first supply voltage V1, the second supply voltage V2, the limit operating voltage VL , the value of the determination result flag F, and the time T.
  • the second supply voltage V2 is slightly higher than the first supply voltage V1. As a result, when the first supply voltage V1 reaches the limit operating voltage V L , the first neural network 110 generates an error, but the second supply voltage V2 does not reach the limit operating voltage V L. The neural network 120 does not generate an error.
  • the target for which the voltage control device 100 according to the present technology controls the voltage is not limited to the neural network.
  • a first neural network A second neural network, An inference result determination unit, And a voltage determination unit
  • the first neural network has a function of inferring based on learned information
  • the second neural network has a function of inferring based on unlearned information
  • the inference result determination unit has a function of comparing the correct value data held in the inference result determination unit with the inference result data of the first neural network to obtain determination result data, When the correct value data and the inference result data match based on the determination result data, the voltage determination unit outputs a voltage signal lower than the voltage supplied to the first neural network and the second neural network.
  • the voltage control device [2] The voltage control device according to [1], wherein the first neural network is a copy of some or all of the components of the second neural network. [3] The voltage control device according to [1] or [2], wherein the first neural network is configured by a part of the constituent elements of the second neural network. [4] The voltage according to any one of [1] to [3], wherein the first neural network and the second neural network include at least a storage unit and a plurality of processing elements. Control device.
  • the voltage determining unit includes at least a voltage difference determining unit and a voltage difference signal converting unit, and the voltage difference determining unit is based on the determination result data and the first neural network. Has a function of determining a voltage difference between the voltage being supplied to the voltage and the changed voltage, and outputting a voltage difference signal, wherein the voltage difference signal conversion unit converts the voltage difference signal.
  • the voltage control device according to any one of [1] to [4], which has a function of outputting the voltage signal.
  • the voltage determining unit determines, based on the determination result data and the voltage, that the correct answer value data and the inference result data match, and that the voltage supplied to the first neural network is The voltage according to any one of [1] to [5], which outputs a voltage signal lower than the voltage supplied to the first neural network and the second neural network when the voltage is higher than a predetermined value.
  • Control device [7] A function of further comprising a voltage supply unit, wherein the voltage supply unit supplies the voltage to the first neural network and the second neural network based on the voltage signal output by the voltage determination unit The voltage control device according to any one of [1] to [6].
  • the voltage supply unit has at least a DA converter, and the DA converter has a function of converting the voltage signal that is a digital signal into the voltage that is an analog signal and outputting the voltage.
  • the voltage control device according to [7].
  • the voltage supplied to the first neural network is the first supply voltage
  • the voltage supplied to the second neural network is the second supply voltage
  • the voltage supply unit is the first
  • the voltage control device according to [7] or [8], which has a function of supplying the second supply voltage higher than the supply voltage to the second neural network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Power Sources (AREA)
  • Control Of Voltage And Current In General (AREA)

Abstract

限界動作電圧を自動的に設定する電圧制御装置を提供する。 第1ニューラルネットワークと、第2ニューラルネットワークと、推論結果判定部と、電圧決定部と、を備えており、前記推論結果判定部が、前記推論結果判定部に保持された正解値データと前記第1ニューラルネットワークの推論結果データとを比較して判定結果データを得る機能を有しており、前記電圧決定部が、前記判定結果データに基づいて、前記正解値データと前記推論結果データが一致した場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている電圧より低い電圧信号を出力し、前記正解値データと前記推論結果データが一致しない場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている前記電圧より高い前記電圧信号を出力する機能を有している、電圧制御装置を提供する。

Description

電圧制御装置
 本技術は、電圧制御装置に関する。
 近年、ディープニューラルネットワーク(DNN)を用いた学習(ディープラーニング)が注目を浴びている。学習に利用されるデータは、ニューラルネットワークが有するSRAM(Static Random Access Memory)等の半導体記憶素子に記憶される。ニューラルネットワークの学習において、半導体記憶素子へのアクセスが数万回にも及ぶことがあるため、消費電力の大半は半導体記憶素子が消費する。したがって、この消費電力の削減が求められている。
 消費電力の削減のためには、ニューラルネットワークへの供給電圧を低下することが効果的である。非特許文献1において、学習ニューラルネットワークが有するSRAMへの供給電圧が低く、このSRAMのエラーが発生しやすい環境で学習ニューラルネットワークが学習している。この供給電圧が所定の値以下になると、学習ニューラルネットワークの誤り率(Error Rate)が上昇する。そこで、この非特許文献1の執筆者は、この誤り率に閾値が設定され、許容可能な誤り率と、この誤り率となるときの最も低い供給電圧(限界動作電圧)を設定した。すると、通常の電圧が0.8Vであるところ、限界動作電圧は0.5V以下となった。以上のことが、この非特許文献1で説明されている。
Lita Y, Boris M, "Approximate SRAM for Energy-Efficient, Privacy-Preserving Convolutional Neural Networks", IEEE, 2017 IEEE Computer Society Annual Symposium on VLSI (2017): 689-694
 非特許文献1では、学習ニューラルネットワークと、推論ニューラルネットワークが用いられている。当該学習ニューラルネットワークによる学習で得られた係数データ等を、当該推論ニューラルネットワークが有するSRAMに格納し、当該推論ニューラルネットワークが推論を行う。そのため、学習時に得られた限界動作電圧を、推論時にも適用できることが望ましい。
 しかしながら、学習時におけるPVT(プロセス、電圧、及び温度)条件と、推論時におけるPVT条件が異なることがある。そのため、学習時に得られた限界動作電圧を、そっくりそのまま当該推論ニューラルネットワークに適用できないという問題がある。
 そこで、本技術は、限界動作電圧を自動的に設定する電圧制御装置を提供することにより、消費電力を削減することを主目的とする。
 本技術は、第1ニューラルネットワークと、第2ニューラルネットワークと、推論結果判定部と、電圧決定部と、を備えており、前記第1ニューラルネットワークが、学習済みの情報に基づいて推論する機能を有しており、前記第2ニューラルネットワークが、未学習の情報に基づいて推論する機能を有しており、前記推論結果判定部が、前記推論結果判定部に保持された正解値データと前記第1ニューラルネットワークの推論結果データとを比較して判定結果データを得る機能を有しており、前記電圧決定部が、前記判定結果データに基づいて、前記正解値データと前記推論結果データが一致した場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている電圧より低い電圧信号を出力し、前記正解値データと前記推論結果データが一致しない場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている前記電圧より高い前記電圧信号を出力する機能を有している、電圧制御装置を提供する。
 前記第1ニューラルネットワークが、前記第2ニューラルネットワークの一部又は全部の構成要素が複製されたものであってもよい。
 前記第1ニューラルネットワークが、前記第2ニューラルネットワークの構成要素の一部で構成されていてもよい。
 前記第1ニューラルネットワーク及び前記第2ニューラルネットワークが、少なくとも、記憶部と、複数のプロセッシングエレメントと、を有していてもよい。
 前記電圧決定部が、少なくとも、電圧差決定部と、電圧差信号変換部と、を有しており、前記電圧差決定部が、前記判定結果データに基づいて、前記第1ニューラルネットワークに供給されている前記電圧と、変更後の前記電圧との電圧差を決定し、電圧差信号を出力する機能を有しており、前記電圧差信号変換部が、前記電圧差信号を変換して、前記電圧信号を出力する機能を有していてもよい。
 前記電圧決定部が、前記判定結果データと前記電圧に基づいて、前記正解値データと前記推論結果データが一致しており、かつ、前記第1ニューラルネットワークに供給されている前記電圧が所定の値より高い場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている前記電圧より低い電圧信号を出力してもよい。
 前記電圧制御装置が、電圧供給部をさらに備えており、前記電圧供給部が、前記電圧決定部が出力した前記電圧信号に基づいて、前記電圧を前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給する機能を有していてもよい。
 前記電圧供給部が、少なくともDAコンバーターを有しており、前記DAコンバーターが、デジタル信号である前記電圧信号を、アナログ信号である前記電圧に変換して出力する機能を有していてもよい。
 前記第1ニューラルネットワークに供給されている前記電圧を第1供給電圧とし、前記第2ニューラルネットワークに供給されている前記電圧を第2供給電圧とし、前記電圧供給部が、前記第1供給電圧より高い前記第2供給電圧を、前記第2ニューラルネットワークに供給する機能を有していてもよい。
 本技術では、第1ニューラルネットワークのエラー発生率が許容範囲内であり、第1ニューラルネットワークに供給される最も低い電圧を、限界動作電圧という。
本技術に係る電圧制御装置の全体構成図である。 本技術に係る電圧制御装置の全体構成図である。 本技術に係る電圧制御装置の一実施形態である。 本技術に係る推論結果判定部のフローチャートである。 本技術に係る電圧決定部のフローチャートである。 本技術に係る第1ニューラルネットワークと推論結果判定部の一実施形態である。 本技術に係る第1ニューラルネットワークと推論結果判定部の一実施形態である。 本技術に係る電圧差決定部の動作の例である。 本技術に係る電圧差決定部の動作の例である。 本技術に係る電圧決定部のフローチャートである。 本技術に係る電圧制御装置の一実施形態である。 本技術に係る電圧制御装置の一実施形態である。 本技術に係る電圧差決定部の動作の例である。
 以下、本技術を実施するための好適な形態について、添付した図面を参照しつつ説明する。なお、以下に説明する実施形態は、本技術の代表的な実施形態を示したものであり、本技術の範囲がこれらの実施形態に限定されることはない。なお、本技術の説明は以下の順序で行う。
1.本技術に係る第1の実施形態(基本構成)
2.本技術に係る第2の実施形態(電圧供給部)
3.本技術に係る第3の実施形態(異なる供給電圧)
1.本技術に係る第1の実施形態(基本構成)
 本技術に係る電圧制御装置100の全体構成図を図1に示す。図1に示すように、本技術に係る電圧制御装置100は、第1ニューラルネットワーク110と、第2ニューラルネットワーク120と、推論結果判定部130と、電圧決定部140と、を備えている。
 第1ニューラルネットワーク110及び第2ニューラルネットワーク120は、入力されたデータが何であるかを推論する機能を有している。例えば猫の画像データが入力された場合に、第1ニューラルネットワーク110及び第2ニューラルネットワーク120は、この画像が猫の画像であるか否かを推論する。入力されるデータは、画像のほかに、例えば音声、記号、数字、文字、信号等でもよい。
 第1ニューラルネットワーク110は、既に学習済みの情報に基づいて推論する機能を有している。第2ニューラルネットワーク120は、未学習の情報に基づいて推論する機能を有している。
 第1ニューラルネットワーク110は、第2ニューラルネットワーク120の一部又は全部の構成要素が複製(レプリカ)されたものである。このことにより、第1ニューラルネットワーク110と第2ニューラルネットワーク120は同じ動作をすることができる。
 推論結果判定部130は、第1ニューラルネットワーク110の推論結果が正解か不正解かを判定し、判定結果データを得る機能を有している。より具体的に説明すると、推論結果判定部130は、推論結果判定部130が保持している正解値データと、第1ニューラルネットワーク110の推論結果データを比較し、判定結果データを出力している。例えば正解値データが猫であり、推論結果データも猫である場合は、判定結果データは正解の値となる。
 電圧決定部140は、推論結果判定部130が出力した判定結果データに基づいて、第1ニューラルネットワーク110及び第2ニューラルネットワーク120に供給される電圧を決定する機能を有している。より具体的に説明すると、正解値データと推論結果データが一致した場合は、電圧決定部140は、第1ニューラルネットワーク110及び第2ニューラルネットワーク120に供給されている電圧より低い電圧信号を出力する機能を有している。一方、正解値データと推論結果データが一致しない場合は、電圧決定部140は、第1ニューラルネットワーク110及び第2ニューラルネットワーク120に供給されている電圧より高い電圧信号を出力する機能を有している。
 本技術に係る電圧制御装置100の別の全体構成図を図2に示す。図2に示すように、第1ニューラルネットワーク110は、第2ニューラルネットワーク120の構成要素の一部で構成されていてもよい。すなわち、この第1ニューラルネットワーク110は、あるときは第1ニューラルネットワーク110として動作し、あるときは第2ニューラルネットワーク120の一部として動作してもよい。例えば、既に学習済みの情報に基づいて推論するときは、第1ニューラルネットワーク110は、第1ニューラルネットワーク110として動作し、未学習の情報に基づいて推論するときは、第1ニューラルネットワーク110は、第2ニューラルネットワーク120の一部として動作してもよい。
 第1ニューラルネットワーク110及び第2ニューラルネットワーク120の消費電力を削減するためには、第1ニューラルネットワーク110及び第2ニューラルネットワーク120に供給されている電圧を低くすることが効果的である。そのため、推論結果データと正解値データが一致した場合、電圧決定部140が、第1ニューラルネットワーク110及び第2ニューラルネットワーク120に供給されている電圧より低い電圧信号を出力する。
 上述したように、第1ニューラルネットワーク110は、学習済みの情報に基づいて推論する機能を有している。そのため、第1ニューラルネットワーク110の推論結果データと正解値データが一致することが通常である。この推論結果データと正解値データが一致しない場合は、第1ニューラルネットワーク110に供給されている電圧が、限界動作電圧Vよりも低くなった場合である。この場合、電圧決定部140が、第1ニューラルネットワーク110及び第2ニューラルネットワーク120に供給されている電圧より高い電圧信号を出力する。
 このことにより、第1ニューラルネットワーク110及び第2ニューラルネットワーク120は、限界動作電圧Vの付近の電圧で動作する。したがって、第1ニューラルネットワーク110及び第2ニューラルネットワーク120の消費電力が削減できる。
 すなわち、電圧制御装置100は、限界動作電圧を自動的に設定することができる。
 本技術に係る電圧制御装置100を具体化した一実施形態を図3に示す。図3に示すように、本技術に係る電圧制御装置100は、第1ニューラルネットワーク110と、第2ニューラルネットワーク120と、推論結果判定部130と、電圧決定部140と、を備えている。
 第1ニューラルネットワーク110は、少なくとも、記憶部111と、プロセッシングエレメント群112と、を有することができる。このプロセッシングエレメント群112は、複数のプロセッシングエレメントから成っている。記憶部111として、例えばSRAM等の半導体記憶素子を利用できる。
 第1ニューラルネットワーク110と同様に、第2ニューラルネットワーク120は、少なくとも、記憶部121と、プロセッシングエレメント群122と、を有することができる。
 推論結果判定部130は、推論結果判定部130に保持された正解値データAと、第1ニューラルネットワーク110の推論結果データとを比較して判定結果データを得る機能を有している。
 ここで、推論結果判定部130のフローチャートを図4に示す。図4に示すように、推論結果判定部130は、推論結果判定部130に保持された正解値データAと、ニューラルネットワーク110の推論結果データとを比較する(S1)。
 正解値データAと推論結果データが一致した場合(S1:Yes)は、推論結果判定部130は、判定結果データである判定結果フラグFに、値「0」を設定する(S2)。一方、正解値データAと推論結果データが一致しない場合(S1:No)は、推論結果判定部130は、判定結果フラグFに、値「1」を設定する(S3)。
 この判定結果フラグFの値に基づいて、電圧決定部140が動作する。電圧決定部140のフローチャートを図5に示す。
 図5に示すように、判定結果フラグFに値「0」が設定されている場合(S4:Yes)は、電圧決定部140は、ニューラルネットワーク110に供給されている電圧V1より低い電圧信号を出力する(S5)。
 一方、判定結果フラグに値「1」が設定されている場合(S4:No)は、電圧決定部140は、ニューラルネットワーク110に供給されている電圧V1より高い電圧信号を出力する(S6)。
 続いて、第1ニューラルネットワーク110と、推論結果判定部130の一実施形態を、図6と図7に示す。図6は、第1ニューラルネットワーク110が正しく推論できた場合の処理を示す。図7は、第1ニューラルネットワーク110が正しく推論できなかった場合の処理を示す。
 まず、第1ニューラルネットワーク110が正しく推論できた場合の処理について、図6を参照しつつ説明する。図6に示すように、第1ニューラルネットワーク110に、画像データG1が入力される。この例では、画像データG1は猫の画像とする。
 第1ニューラルネットワーク110による推論結果データは、画像データG1が猫である確率が90%、犬である確率が5%、馬である確率が2%、鳥である確率が2%、羊である確率が1%となっている。
 第1ニューラルネットワーク110に供給されている電圧V1は、限界動作電圧Vよりも高い。そのため、第1ニューラルネットワーク110は、正しく推論ができている。
 推論結果判定部130が有する2値化部131は、所定の値、例えば50%を閾値として、第1ニューラルネットワーク110による推論結果データを「0」又は「1」に2値化する。推論結果データにおける確率が50%より高い場合は、2値化部131は値「1」を出力する。推論結果データにおける確率が50%以下の場合は、2値化部131は値「0」を出力する。なお、閾値は50%でなくともよい。
 この実施例では、画像データが猫である確率が90%であり、閾値50%より高いため、2値化部131は猫の項目の値を「1」に設定する。その他の項目(犬、馬、鳥、及び羊)においては、確率が50%以下であるため、2値化部131はこれらの項目の値を「0」に設定する。
 画像データが猫の画像データであるため、正解は猫である。そのため、正解値データAは、猫の項目の値が「1」となっており、その他の項目(犬、馬、鳥、及び羊)の値が「0」となっている。
 続いて、推論結果判定部130が有する正解比較部132は、推論結果データと正解値データAを比較する。猫の項目では、推論結果データの値が「1」、正解値データAの値が「1」であるため、判定値に「1」が設定される。その他の項目(犬、馬、鳥、及び羊)では、推論結果データの値が「0」、正解値データAの値が「0」であるため、判定値に「1」が設定される。
 以上の処理により、すべての項目の判定値が「1」に設定されるため、推論結果判定部130は、判定結果フラグFに値「0」を設定する。
 一方、第1ニューラルネットワーク110が正しく推論できなかった場合の処理について、図7を参照しつつ説明する。図7に示す例においても、画像データG1は猫の画像とする。
 第1ニューラルネットワーク110による推論結果データは、画像データが猫である確率が45%、犬である確率が51%、馬である確率が1%、鳥である確率が2%、羊である確率が1%となっている。
 第1ニューラルネットワーク110に供給されている電圧V1は、限界動作電圧Vよりも低い。そのため、第1ニューラルネットワーク110は、正しく推論ができていない。
 この実施例では、画像データが犬である確率が51%であり、閾値50%より高いため、2値化部131は犬の項目の値を「1」に設定する。その他の項目(猫、馬、鳥、及び羊)においては、確率が50%以下であるため、2値化部131はこれらの項目の値を「0」に設定する。
 続いて、正解比較部132は、推論結果データと正解値データAを比較する。猫の項目では、推論結果データの値が「0」、正解値データAの値が「1」であるため、判定値に「0」が設定される。犬の項目では、推論結果データの値が「1」、正解値データAの値が「0」であるため、判定値に「0」が設定される。その他の項目(馬、鳥、及び羊)では、推論結果データの値が「0」、正解値データAの値が「0」であるため、判定値に「1」が設定される。
 以上の処理により、値「0」が設定された判定値と、値「1」が設定された判定値が混在しているため、推論結果判定部130は、判定結果フラグFに値「1」を設定する。
 この判定結果フラグFに基づいて、後続の電圧決定部140が動作をする。ここで、図3の説明に戻る。図3に示すように、電圧決定部140は、少なくとも、電圧差決定部141と、電圧差信号変換部142と、を有している。
 電圧差決定部141は、判定結果データに基づいて、第1ニューラルネットワーク110に供給されている電圧と、変更後の電圧との電圧差を決定し、電圧差信号変換部142に電圧差信号を出力する機能を有している。
 電圧差決定部141には、第1ニューラルネットワークへの供給電圧V1を低くするときの電圧差と、当該供給電圧V1を高くするときの電圧差の比率が保持されている。供給電圧V1を低くするときの電圧差と、供給電圧V1を高くするときの電圧差との比率は、α:(1-α)とすることができる。αは、例えば0より大きく0.5未満の値とすることができる。
 電圧差信号変換部142は、電圧差信号を変換して、電圧信号を出力する機能を有している。電圧差信号変換部142は、例えば積分器を有することができる。
 電圧決定部140の動作を具体的に説明する。まず、電圧決定部140が備えている電圧差決定部141の動作の例について、図8を参照しつつ説明する。図8には、第1ニューラルネットワークへの供給電圧V1と、限界動作電圧Vと、判定結果フラグFの値と、時間Tが示されている。
 判定結果フラグFの値は0と1で示されている。平らになっている低い値が0、飛び出ている高い値が1である。
 判定結果フラグFの値が0のとき、供給電圧V1が低くなっている。供給電圧V1が徐々に低くなり、時間t1で供給電圧V1が限界動作電圧Vになったとき、判定結果フラグFの値が1となり、供給電圧V1が高くなっている。
 そして、再び供給電圧V1が徐々に低くなり、時間t2で限界動作電圧Vになったとき、判定結果フラグFの値が1となり、供給電圧V1が高くなっている。
 図8に示す実施例では、α=0.1の場合を示している。そのため、供給電圧V1を低くするときの電圧差と、供給電圧V1を高くするときの電圧差との比率は、0.1:(1-0.1)=0.1:0.9=1:9となっている。
 また、供給電圧V1が(1-α)/α+1回に1回の周期で高くなっている。この実施例では、α=0.1であるため、(1-0.1)/0.1+1=10回に1回の周期で供給電圧V1が高くなっている。
 αの値が小さくなるほど、供給電圧V1が高くなる頻度が低くなる。一方、αの値が大きくなるほど、供給電圧V1が高くなる頻度が高くなる。したがって、このαの値を変動させることにより、供給電圧V1が高くなる頻度を調整できる。
 なお、供給電圧V1を低くするときの電圧差と、供給電圧を高くするときの電圧差との比率は、α:1-αに限られず、例えばα:1であってもよい。
 電圧差決定部141の他の動作の例について、図9を参照しつつ説明する。図9には、第1ニューラルネットワーク110への供給電圧V1と、限界動作電圧Vと、判定結果フラグFの値と、時間Tが示されている。
 判定結果フラグFの値が0のとき、供給電圧V1が徐々に低くなっているが、時間t3で供給電圧V1が限界動作電圧Vの付近になったとき、供給電圧V1はそれ以上低くなっていない。このことにより、時間t3より後の時間においては、低い供給電圧でありながら、第1ニューラルネットワーク110は誤った推論をすることがない。第1ニューラルネットワーク110が活発に動作しておらず、低い供給電圧であっても動作できる場合は、この状態でもよい。
 このときの電圧決定部140のフローチャートを図10に示す。図10に示すように、正解値データと推論結果データが一致し、判定結果フラグFに値「0」が設定されている場合(S7:Yes)であり、かつ、第1ニューラルネットワーク110に供給されている電圧V1が所定の値より高い場合(S8:Yes)は、電圧決定部140は、第1ニューラルネットワーク及び第2ニューラルネットワークに供給されている電圧より低い電圧信号を出力する(S9)。
 判定結果フラグFに値「0」が設定されている場合(S7:Yes)であり、かつ、第1ニューラルネットワーク110に供給されている電圧V1が所定の値以下である場合(S8:No)は、電圧決定部140は、電圧信号を変化させない。
 正解値データと推論結果データが一致せず、判定結果フラグに値「1」が設定されている場合(S7:No)は、電圧決定部140は、ニューラルネットワーク110に供給されている電圧V1より高い電圧信号を出力する(S10)。
 続いて、図3の説明に戻り、電圧決定部140が有している電圧差信号変換部142について説明する。電圧差信号変換部142は、電圧差決定部141から出力された電圧差信号を変換して、電圧信号を出力する機能を有している。
 具体的に説明すると、電圧差信号変換部142は、例えば電圧差決定部141から出力された電圧差をμ倍する。μは、例えば0より大きく1より非常に小さな値とすることができる。
 このμの値が小さくなるほど、供給電圧V1が変化する電位差が小さくなる。一方、このμの値が大きくなるほど、供給電圧V1が変化する電位差が大きくなる。したがって、このμの値を変動させることにより、供給電圧V1が変化する電位差を調整できる。
2.本技術に係る第2の実施形態(電圧供給部)
 本技術に係る電圧制御装置100の他の一実施形態を図11に示す。なお、図11と図3の重複箇所については詳細な説明を割愛する。
 図11に示すように、電圧制御装置100は、さらに電圧供給部150を備えることができる。電圧供給部150は、電圧決定部140が出力した電圧信号に基づいて、電圧を第1ニューラルネットワーク110及び第2ニューラルネットワーク120に供給する機能を有している。
 電圧供給部150は、少なくともDAコンバーター151を有することができる。DAコンバーター151は、デジタル信号をアナログ信号に変換できる。電圧決定部140が出力した電圧信号はデジタル信号である。第1ニューラルネットワーク110及び第2ニューラルネットワーク120への供給電圧はアナログ信号である。したがって、DAコンバーター151による変換処理が必要となる。
 電圧供給部150は、さらにバッファ152を有することができる。DAコンバーター151の出力電圧をそのまま第1ニューラルネットワーク110等に供給すると、DAコンバーター151等の負荷が高くなる。したがって、バッファ152が、DAコンバーター151の出力電圧を変換して第1ニューラルネットワーク110等に供給する。バッファ152として、例えば低ドロップアウト・リニアレギュレータ(LDO)やDC/DCコンバーターを利用できる。
3.本技術に係る第3の実施形態(異なる供給電圧)
 本技術に係る電圧制御装置100を具体化した他の一実施形態を図12に示す。なお、図12と図11の重複箇所については詳細な説明を割愛する。
 第1ニューラルネットワーク110に供給されている電圧を第1供給電圧V1とする。第2ニューラルネットワーク120に供給されている電圧を第2供給電圧V2とする。
 電圧差信号変換部142は、電圧差決定部141が出力した電圧差信号を変換して、第1供給電圧V1に対応する電圧信号と、この電圧信号より高い第2供給電圧V2に対応する電圧信号を出力する機能を有している。第1供給電圧V1と第2供給電圧V2の電圧差ΔVは、ノイズのゆらぎに左右されるが、例えば20mVであってもよいし、50mVであってもよい。
 電圧供給部150は、第1供給電圧V1を第1ニューラルネットワーク110に供給し、第1供給電圧V1より高い第2供給電圧V2を第2ニューラルネットワーク120に供給する機能を有している。
 この電圧供給部150の動作と、電圧決定部140が備えている電圧差決定部141の動作について、図13を参照しつつ説明する。図13には、第1供給電圧V1と、第2供給電圧V2と、限界動作電圧Vと、判定結果フラグFの値と、時間Tが示されている。
 第1供給電圧V1と第2供給電圧V2が徐々に低くなり、時間t4で第1供給電圧V1が限界動作電圧Vになったとき、判定結果フラグFの値が1になり、第1供給電圧V1と第2供給電圧V2が高くなっている。
 そして、再び第1供給電圧V1と第2供給電圧V2が徐々に低くなり、時間t5で第1供給電圧V1が限界動作電圧Vになったとき、判定結果フラグFの値が1になり、第1供給電圧V1と第2供給電圧V2が高くなっている。
 第2供給電圧V2は、第1供給電圧V1よりもわずかに高くなっている。このことにより、第1供給電圧V1が限界動作電圧Vになったときに、第1ニューラルネットワーク110はエラーを発生するが、第2供給電圧V2が限界動作電圧Vにならないため、第2ニューラルネットワーク120はエラーを発生しない。
 なお、本技術に係る電圧制御装置100が電圧を制御する対象は、ニューラルネットワークに限られない。
 なお、本明細書中に記載した効果はあくまで例示であって限定されるものではなく、また他の効果があってもよい。
 なお、本技術は、以下のような構成をとることもできる。
[1]第1ニューラルネットワークと、
 第2ニューラルネットワークと、
 推論結果判定部と、
 電圧決定部と、を備えており、
 前記第1ニューラルネットワークが、学習済みの情報に基づいて推論する機能を有しており、
 前記第2ニューラルネットワークが、未学習の情報に基づいて推論する機能を有しており、
 前記推論結果判定部が、前記推論結果判定部に保持された正解値データと前記第1ニューラルネットワークの推論結果データとを比較して判定結果データを得る機能を有しており、
 前記電圧決定部が、前記判定結果データに基づいて、前記正解値データと前記推論結果データが一致した場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている電圧より低い電圧信号を出力し、前記正解値データと前記推論結果データが一致しない場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている前記電圧より高い前記電圧信号を出力する機能を有している、
 電圧制御装置。
[2]前記第1ニューラルネットワークが、前記第2ニューラルネットワークの一部又は全部の構成要素が複製されたものである、[1]に記載の電圧制御装置。
[3]前記第1ニューラルネットワークが、前記第2ニューラルネットワークの構成要素の一部で構成されている、[1]又は[2]に記載の電圧制御装置。
[4]前記第1ニューラルネットワーク及び前記第2ニューラルネットワークが、少なくとも、記憶部と、複数のプロセッシングエレメントと、を有している、[1]~[3]のいずれか一つに記載の電圧制御装置。
[5]前記電圧決定部が、少なくとも、電圧差決定部と、電圧差信号変換部と、を有しており、前記電圧差決定部が、前記判定結果データに基づいて、前記第1ニューラルネットワークに供給されている前記電圧と、変更後の前記電圧との電圧差を決定し、電圧差信号を出力する機能を有しており、前記電圧差信号変換部が、前記電圧差信号を変換して、前記電圧信号を出力する機能を有している、[1]~[4]のいずれか一つに記載の電圧制御装置。
[6]前記電圧決定部が、前記判定結果データと前記電圧に基づいて、前記正解値データと前記推論結果データが一致しており、かつ、前記第1ニューラルネットワークに供給されている前記電圧が所定の値より高い場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている前記電圧より低い電圧信号を出力する、[1]~[5]のいずれか一つに記載の電圧制御装置。
[7]電圧供給部をさらに備えており、前記電圧供給部が、前記電圧決定部が出力した前記電圧信号に基づいて、前記電圧を前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給する機能を有している、[1]~[6]のいずれか一つに記載の電圧制御装置。
[8]前記電圧供給部が、少なくともDAコンバーターを有しており、前記DAコンバーターが、デジタル信号である前記電圧信号を、アナログ信号である前記電圧に変換して出力する機能を有している、[7]に記載の電圧制御装置。
[9]前記第1ニューラルネットワークに供給されている前記電圧を第1供給電圧とし、前記第2ニューラルネットワークに供給されている前記電圧を第2供給電圧とし、前記電圧供給部が、前記第1供給電圧より高い前記第2供給電圧を、前記第2ニューラルネットワークに供給する機能を有している、[7]又は[8]に記載の電圧制御装置。
100 電圧制御装置
110 第1ニューラルネットワーク
120 第2ニューラルネットワーク
130 推論結果判定部
140 電圧決定部
141 電圧差決定部
142 電圧差信号変換部
150 電圧供給部
151 DAコンバーター
V1  第1供給電圧
V2  第2供給電圧
  限界動作電圧
F   判定結果フラグ
T   時間
  正解値データ

Claims (9)

  1.  第1ニューラルネットワークと、
     第2ニューラルネットワークと、
     推論結果判定部と、
     電圧決定部と、を備えており、
     前記第1ニューラルネットワークが、学習済みの情報に基づいて推論する機能を有しており、
     前記第2ニューラルネットワークが、未学習の情報に基づいて推論する機能を有しており、
     前記推論結果判定部が、前記推論結果判定部に保持された正解値データと前記第1ニューラルネットワークの推論結果データとを比較して判定結果データを得る機能を有しており、
     前記電圧決定部が、前記判定結果データに基づいて、前記正解値データと前記推論結果データが一致した場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている電圧より低い電圧信号を出力し、前記正解値データと前記推論結果データが一致しない場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている前記電圧より高い前記電圧信号を出力する機能を有している、
     電圧制御装置。
  2.  前記第1ニューラルネットワークが、前記第2ニューラルネットワークの一部又は全部の構成要素が複製されたものである、
     請求項1に記載の電圧制御装置。
  3.  前記第1ニューラルネットワークが、前記第2ニューラルネットワークの構成要素の一部で構成されている、
     請求項1に記載の電圧制御装置。
  4.  前記第1ニューラルネットワーク及び前記第2ニューラルネットワークが、少なくとも、
     記憶部と、
     複数のプロセッシングエレメントと、を有している、
     請求項1に記載の電圧制御装置。
  5.  前記電圧決定部が、少なくとも、
     電圧差決定部と、
     電圧差信号変換部と、を有しており、
     前記電圧差決定部が、前記判定結果データに基づいて、前記第1ニューラルネットワークに供給されている前記電圧と、変更後の前記電圧との電圧差を決定し、電圧差信号を出力する機能を有しており、
     前記電圧差信号変換部が、前記電圧差信号を変換して、前記電圧信号を出力する機能を有している、
     請求項1に記載の電圧制御装置。
  6.  前記電圧決定部が、前記判定結果データと前記電圧に基づいて、前記正解値データと前記推論結果データが一致しており、かつ、前記第1ニューラルネットワークに供給されている前記電圧が所定の値より高い場合は、前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給されている前記電圧より低い電圧信号を出力する、
     請求項1に記載の電圧制御装置。
  7.  電圧供給部をさらに備えており、
     前記電圧供給部が、前記電圧決定部が出力した前記電圧信号に基づいて、前記電圧を前記第1ニューラルネットワーク及び前記第2ニューラルネットワークに供給する機能を有している、
     請求項1に記載の電圧制御装置。
  8.  前記電圧供給部が、少なくともDAコンバーターを有しており、
     前記DAコンバーターが、デジタル信号である前記電圧信号を、アナログ信号である前記電圧に変換して出力する機能を有している、
     請求項7に記載の電圧制御装置。
  9.  前記第1ニューラルネットワークに供給されている前記電圧を第1供給電圧とし、
     前記第2ニューラルネットワークに供給されている前記電圧を第2供給電圧とし、
     前記電圧供給部が、前記第1供給電圧より高い前記第2供給電圧を、前記第2ニューラルネットワークに供給する機能を有している、
     請求項7に記載の電圧制御装置。
PCT/JP2019/049265 2019-01-24 2019-12-17 電圧制御装置 WO2020153047A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE112019006731.1T DE112019006731T5 (de) 2019-01-24 2019-12-17 Spannungssteuerungsvorrichtung
US17/422,974 US20220075444A1 (en) 2019-01-24 2019-12-17 Voltage control device
CN201980087476.4A CN113316752A (zh) 2019-01-24 2019-12-17 电压控制装置
JP2020567425A JP7404276B2 (ja) 2019-01-24 2019-12-17 電圧制御装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-009847 2019-01-24
JP2019009847 2019-01-24

Publications (1)

Publication Number Publication Date
WO2020153047A1 true WO2020153047A1 (ja) 2020-07-30

Family

ID=71735673

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/049265 WO2020153047A1 (ja) 2019-01-24 2019-12-17 電圧制御装置

Country Status (5)

Country Link
US (1) US20220075444A1 (ja)
JP (1) JP7404276B2 (ja)
CN (1) CN113316752A (ja)
DE (1) DE112019006731T5 (ja)
WO (1) WO2020153047A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050841A (ja) * 2011-08-31 2013-03-14 Nec Corp メモリ電圧制御装置およびメモリ電圧制御方法
JP2018005297A (ja) * 2016-06-27 2018-01-11 富士通株式会社 ニューラルネットワーク装置及びニューラルネットワーク装置の制御方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0643948A (ja) * 1992-07-27 1994-02-18 Tohoku Electric Power Co Inc 電圧無効電力制御装置
US7287014B2 (en) * 2001-11-16 2007-10-23 Yuan Yan Chen Plausible neural network with supervised and unsupervised cluster analysis
US7583059B2 (en) * 2003-12-18 2009-09-01 Lg Chem, Ltd. Apparatus and method for estimating state of charge of battery using neural network
CN106875940B (zh) * 2017-03-06 2020-08-14 吉林省盛创科技有限公司 一种基于神经网络的机器自学习构建知识图谱训练方法
CN107239852A (zh) * 2017-05-05 2017-10-10 南京邮电大学 一种基于深度学习的电量消耗预测方法
CN107562113B (zh) * 2017-08-22 2019-04-05 电子科技大学 一种基于神经网络的低线性调整率基准电路及产生方法
CN108009640B (zh) * 2017-12-25 2020-04-28 清华大学 基于忆阻器的神经网络的训练装置及其训练方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050841A (ja) * 2011-08-31 2013-03-14 Nec Corp メモリ電圧制御装置およびメモリ電圧制御方法
JP2018005297A (ja) * 2016-06-27 2018-01-11 富士通株式会社 ニューラルネットワーク装置及びニューラルネットワーク装置の制御方法

Also Published As

Publication number Publication date
JPWO2020153047A1 (ja) 2021-12-02
US20220075444A1 (en) 2022-03-10
CN113316752A (zh) 2021-08-27
DE112019006731T5 (de) 2021-11-18
JP7404276B2 (ja) 2023-12-25

Similar Documents

Publication Publication Date Title
Lenormand et al. Y recombination arrest and degeneration in the absence of sexual dimorphism
US10658929B2 (en) Apparatuses and methods for a load current control circuit for a source follower voltage regulator
Miller et al. Analogical reasoning for diagnosing strategic issues in dynamic and complex environments
CN110866113B (zh) 基于稀疏自注意力机制微调伯特模型的文本分类方法
Pilato et al. TSVD as a statistical estimator in the latent semantic analysis paradigm
Wegener et al. On the analysis of a simple evolutionary algorithm on quadratic pseudo-boolean functions
US20200409402A1 (en) Reference voltage generation
CA3049051A1 (en) Resolving abstract anaphoric references in conversational systems using hierarchically stacked neural networks
CN113408706B (zh) 训练用户兴趣挖掘模型、用户兴趣挖掘的方法和装置
WO2020168448A1 (zh) 睡眠预测方法、装置、存储介质及电子设备
Pujara et al. Using classifier cascades for scalable e-mail classification
WO2020153047A1 (ja) 電圧制御装置
Zhang et al. Robust associative learning is sufficient to explain the structural and dynamical properties of local cortical circuits
Köver et al. Cortical plasticity as a mechanism for storing Bayesian priors in sensory perception
CN112559738A (zh) 基于自适应不确定性正则化的情感分类持续学习方法
US7561484B2 (en) Reference-free sampled sensing
Dhar et al. Initial excitation based discrete-time multi-model adaptive online identification
Bach Are all kernels cursed
Bello et al. Prototypes generation from multi-label datasets based on granular computing
JP6963988B2 (ja) 提供装置、提供方法および提供プログラム
US8095485B2 (en) System and method for embedding emotion in logic systems
KR102375896B1 (ko) 딥 뉴럴 네트워크를 양자화하는 방법 및 장치
Rojček System for fuzzy document clustering and fast fuzzy classification
US20230351266A1 (en) Machine learning device, machine learning method, and non-transitory computer-readable recording medium having embodied thereon a machine learning program
Anderson et al. On Existence of Berk-Nash Equilibria in Misspecified Markov Decision Processes with Infinite Spaces

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19911965

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020567425

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 19911965

Country of ref document: EP

Kind code of ref document: A1