JP7325270B2 - Control program, control method and control device - Google Patents
Control program, control method and control device Download PDFInfo
- Publication number
- JP7325270B2 JP7325270B2 JP2019159963A JP2019159963A JP7325270B2 JP 7325270 B2 JP7325270 B2 JP 7325270B2 JP 2019159963 A JP2019159963 A JP 2019159963A JP 2019159963 A JP2019159963 A JP 2019159963A JP 7325270 B2 JP7325270 B2 JP 7325270B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- nodes
- parameter
- node
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Feedback Control In General (AREA)
Description
本発明は、制御プログラム、制御方法および制御装置に関する。 The present invention relates to a control program, control method and control device .
従来、機械学習によって生成された複数のモデルを用いて、音声認識を行う音声認識装置がある。かかる音声認識装置では、複数のモデルから得られる出力データのうち、最も適合度の高いデータを音声認識結果と見做す(例えば、特許文献1参照)。 Conventionally, there is a speech recognition device that performs speech recognition using a plurality of models generated by machine learning. In such a speech recognition apparatus, out of output data obtained from a plurality of models, data with the highest matching degree is regarded as a speech recognition result (see, for example, Patent Document 1).
しかしながら、従来技術では、複数のモデルをメモリに記憶しておく必要があるため、メモリ容量の大きい記憶媒体が必要となる。 However, in the prior art, since it is necessary to store a plurality of models in memory, a storage medium with a large memory capacity is required.
本発明は、上記に鑑みてなされたものであって、メモリ容量を抑えつつ、複数のモデルを用いることができる制御装置および制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a control device and a control method that can use a plurality of models while suppressing the memory capacity.
上述した課題を解決し、目的を達成するために、実施形態に係る制御装置は、記憶部と、切替部とを備える。前記記憶部は、ニューラルネットワークによって構成されるモデルを記憶する。前記切替部は、前記記憶部に記憶された前記モデルのパラメータを変更することで、ニューラルネットワークのノード数を疑似的に切り替える。 In order to solve the above-described problems and achieve the object, a control device according to an embodiment includes a storage section and a switching section. The storage unit stores a model configured by a neural network. The switching unit pseudo-switches the number of nodes of the neural network by changing parameters of the model stored in the storage unit.
本発明によれば、メモリ容量を抑えつつ、複数のモデルを用いることができる。 According to the present invention, a plurality of models can be used while suppressing memory capacity.
以下、添付図面を参照して、実施形態に係る制御装置および制御方法について説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, a control device and a control method according to embodiments will be described with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.
まず、図1Aおよび図1Bを用いて、実施形態に係る制御装置および制御方法の概要について説明する。図1Aは、制御装置の搭載例を示す図である。図1Bは、制御方法の概要を示す図である。なお、かかる制御方法は、図1Aに示す制御装置1によって実行される。
First, an outline of a control device and a control method according to an embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram showing an example of mounting a control device. FIG. 1B is a diagram showing an overview of the control method. This control method is executed by the
図1Aに示すように、実施形態に係る制御装置1は、車両100に搭載される。制御装置1は、車両100の車載センサから入力されるセンサ情報に基づく入力データDiをモデルMに入力することで出力データDoを生成する。ここで、モデルMとは、入力層、中間層(隠れ層)、および出力層と呼ばれるレイヤを有し、入力層から入力された入力データDiを各接続経路を伝播させながら出力層まで伝達する。なお、各層は、それぞれノードNによって構成される。
As shown in FIG. 1A, a
この際、各接続経路に設定されたパラメータに基づいた演算処理を実行することで、入力データDiに対応する出力データDoを生成する。 At this time, the output data Do corresponding to the input data Di is generated by executing arithmetic processing based on the parameters set for each connection path.
ところで、複数のモデルを記憶しておき、入力データ等に応じて、複数のモデルを切り替えて用いる場合が想定される。この場合、制御装置は、複数のモデルを予め記憶しておく必要があり、メモリ容量の圧迫を招く。また、上述のように、複数のモデルを車両に搭載する場合、それぞれのモデルについて、品質保証などの検査を行う必要があり、コストの増大を招くおそれがある。 By the way, it is conceivable that a plurality of models are stored and used by switching between them according to input data or the like. In this case, the control device needs to store a plurality of models in advance, which causes pressure on the memory capacity. Moreover, as described above, when a plurality of models are mounted on a vehicle, it is necessary to conduct inspections such as quality assurance for each model, which may lead to an increase in cost.
そこで、実施形態に係る制御方法では、モデルMのニューラルネットワーク構造を切り替えることで、1つのモデルMを複数のモデルMとして用いることとした。 Therefore, in the control method according to the embodiment, one model M is used as a plurality of models M by switching the neural network structure of the model M.
具体的には、図1Bに示すように、実施形態に係る制御方法では、大規模モデルM1と、大規模モデルM1よりもノード数が少ない小規模モデルM2とを切り替えることが可能である。 Specifically, as shown in FIG. 1B, in the control method according to the embodiment, it is possible to switch between the large-scale model M1 and the small-scale model M2 having fewer nodes than the large-scale model M1.
より詳細には、実施形態に係る制御方法では、モデルMのパラメータを変更することで、大規模モデルM1と小規模モデルM2とを切り替えることが可能である。ここで、パラメータには、重みパラメータや、バイアスパラメータが含まれる。 More specifically, in the control method according to the embodiment, by changing the parameters of the model M, it is possible to switch between the large-scale model M1 and the small-scale model M2. Here, the parameters include weight parameters and bias parameters.
図1Bに示す例において、小規模モデルM2が、大規模モデルM1に比べて、中間層Lが少ない場合を示す。この場合、中間層Lの各ノードの出力経路の重みパラメータを「1」とし、各ノードのバイアスパラメータを「0」とすることで、実質的に中間層Lを削減したモデルMとすることができる。 In the example shown in FIG. 1B, the small-scale model M2 has fewer intermediate layers L than the large-scale model M1. In this case, by setting the weight parameter of the output path of each node of the intermediate layer L to "1" and the bias parameter of each node to "0", the model M with the intermediate layer L substantially reduced can be obtained. can.
また、小規模モデルM2から大規模モデルM1へ切り替える場合には、上記の重みパラメータおよびバイアスパラメータをそれぞれ大規模モデルM1用に設定すればよい。 Also, when switching from the small-scale model M2 to the large-scale model M1, the weight parameter and the bias parameter may be set for the large-scale model M1.
このように、実施形態に係る制御方法では、1つのモデルMを大規模モデルM1と小規模モデルM2とで切り替えることが可能である。したがって、実施形態に係る制御方法では、1つのモデルMを記憶しておけばよいので、メモリ容量を抑えつつ、複数のモデルMを用いることができる。 Thus, in the control method according to the embodiment, it is possible to switch one model M between the large-scale model M1 and the small-scale model M2. Therefore, in the control method according to the embodiment, since it is sufficient to store one model M, it is possible to use a plurality of models M while suppressing the memory capacity.
なお、上述の例では、大規模モデルM1と、1つの小規模モデルM2との間でモデルMを切り替える場合について示したが、これに限定されるものではなく、小規模モデルM2は2つ以上であってもよい。また、上述した実施形態では、中間層Lを増減させる場合について示したが、これに限定されるものではない。すなわち、任意のノードNを増減させることが可能である。 In the above example, the model M is switched between the large-scale model M1 and one small-scale model M2. may be Also, in the above-described embodiment, the case where the intermediate layer L is increased or decreased has been described, but the present invention is not limited to this. That is, arbitrary nodes N can be increased or decreased.
次に、図2を用いて、実施形態に係る制御装置1の構成例について説明する。図2は、制御装置1のブロック図である。なお、図2には、車載センサ類101を併せて示す。車載センサ類101は、例えば、車両100の内燃機関(エンジン)の状態を検出するセンサ類である。制御装置1は、車載センサ類101から入力されるセンサ情報をモデルMに入力することで、エンジンの失火などといった状態を判定することができる。
Next, a configuration example of the
図2に示すように、制御装置1は、記憶部2と、制御部3とを備える。記憶部2は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。
As shown in FIG. 2 , the
また、図2に示すように、記憶部2は、モデルDB21と、パラメータDB22とを備える。モデルDB21は、モデルMを記憶するデータベースである。モデルDB21には、上述の大規模モデルM1が記憶される。
Moreover, as shown in FIG. 2, the memory|
パラメータDB22は、モデルMに適用するパラメータを記憶するデータベースである。図3は、パラメータDB22の一例を示す図である。図3に示すように、パラメータDB22には、「パラメータID」、「適用条件」、「重みパラメータ」、「バイアスパラメータ」等が互いに関連付けられて記憶される。
The
パラメータIDは、パラメータを識別する識別子であり、大規模モデルM1および小規模モデルM2を識別する識別子であるとも言える。適用条件は、対応するパラメータを適用する条件を示す。また、重みパラメータおよびバイアスパラメータは、上述のパラメータの一例である。また、これらパラメータは、機械学習によって導出される値である。なお、図3に示す例では、重みパラメータおよびバイアスパラメータを「C01」や「D01」のように模式的に示したが、「C01」や「D01」には具体的な情報が記載されているものとする。 A parameter ID is an identifier that identifies a parameter, and can be said to be an identifier that identifies the large-scale model M1 and the small-scale model M2. The applicable condition indicates the condition under which the corresponding parameter is applied. Also, the weight parameter and the bias parameter are examples of the parameters described above. Also, these parameters are values derived by machine learning. In the example shown in FIG. 3, the weight parameter and the bias parameter are schematically shown as "C01" and "D01", but specific information is described in "C01" and "D01". shall be
また、「C01」や「D01」には、モデルMのノード数に応じた個数のパラメータが記載される。詳細については後述するが、大規模モデルM1から小規模モデルM2へ切り替える場合に、削減するノードの重みパラメータおよびバイアスパラメータは「0」または「1」である。 Also, the number of parameters corresponding to the number of nodes of the model M is described in "C01" and "D01". Although the details will be described later, when switching from the large-scale model M1 to the small-scale model M2, the weight parameter and bias parameter of the nodes to be reduced are "0" or "1".
図2の説明に戻り、制御部3について説明する。制御部3は、コントローラであり、例えば、CPUやMPU等によって、記憶部2に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、例えば、ASICやFPGA等の集積回路により実現することができる。
Returning to the description of FIG. 2, the control unit 3 will be described. The control unit 3 is a controller, and is realized by, for example, executing various programs stored in the
図2に示すように、制御部3は、取得部31と、判定部32と、切替部33と、演算部34とを備える。取得部31は、車載センサ類101からセンサ情報を取得する。取得部31によって取得されたセンサ情報は、判定部32へ通知される。
As shown in FIG. 2 , the control unit 3 includes an
判定部32は、モデルMのノード数を切り替えるか否かを所定条件に基づいて判定する。具体的には、判定部32は、パラメータDB22を参照し、どの適用条件に合致するかを判定する。
The
ここで、適用条件の一例として、モデルMに要求される精度が挙げられる。すなわち、かかる精度が高い場合、大規模モデルM1の方が好ましく、精度が低い場合には小規模モデルM2であっても対応可能である。 Here, the accuracy required for the model M can be cited as an example of applicable conditions. That is, when the accuracy is high, the large-scale model M1 is preferable, and when the accuracy is low, even the small-scale model M2 can be used.
判定部32は、例えば、不図示の上位装置から要求される精度に基づいて、どの適用条件に合致するかを判定することができる。そして、判定部32は、判定結果となるパラメータIDを切替部33へ通知する。
The
なお、上記の所定条件は、モデルMに要求される精度に限られず、例えば、エンジン回転数など、センサ情報から読み取れるものであってもよいし、車両100の現在の走行位置などその他の情報から読み取れるものであってもよい。すなわち、所定条件については、任意に設定することが可能である。
The above predetermined conditions are not limited to the accuracy required for the model M. For example, they may be read from sensor information such as the number of engine revolutions, or from other information such as the current running position of the
切替部33は、記憶部2に記憶されたモデルMのパラメータを変更することで、ニューラルネットワークのノード数を疑似的に切り替える。ここで、切替部33は、上記の判定部32による判定結果に基づいて、パラメータを変更することで、モデルMのノード数を調節する。これにより、現在の要求に応じたノード数のモデルMを設定することが可能となる。
The switching
具体的には、切替部33は、判定部32から通知されたパラメータIDの重みパラメータおよびバイアスパラメータをモデルMに設定することで、モデルMのノード数を疑似的に切り替える。
Specifically, the switching
図4A、図4Bおよび図5は、切替部33が切り替えるパラメータの具体例を示す図である。まず、図4Aおよび図4Bを用いて、中間層L2を疑似的に削減する場合について説明する。なお、図4Aに示す「A1」、「B1」および「C1」などは、対応するノードNのバイアスパラメータを示し、「a11」や「b11」などは、対応するノードN間の接続経路における重みパラメータを示すものとする。また、図4Aでは、活性化関数がReLUであるものとして説明する。
4A, 4B, and 5 are diagrams showing specific examples of parameters switched by the switching
図4Aに示すように、ノードN21~ノードN23から成る中間層L2を疑似的に削減する場合、ノードN21~N23のバイアスパラメータB1~B3を切り替えるとともに、ノードN21~N23の出力経路における重みパラメータb11~b33を切り替える。 As shown in FIG. 4A, when the intermediate layer L2 consisting of the nodes N21 to N23 is pseudo-reduced, the bias parameters B1 to B3 of the nodes N21 to N23 are switched, and the weight parameter b11 in the output path of the nodes N21 to N23 ~b33 is switched.
具体的には、切替部33は、ノードN21~N23のバイアスパラメータB1~B3を全て「0」へ切り替え、重みパラメータb11、b22、b33を全て「1」とし、その他の重みパラメータ(b12、b13、b21、b23、b31、b32)を全て「0」へ切り替える。
Specifically, the switching
つまり、切替部33は、削減するノードNのバイアスパラメータを「0」に切り替えるとともに、かかるノードNから図中水平に延びるノードNへの出力経路の重みパラメータを「1」に、他の出力経路の重みパラメータを「0」に切り替える。
That is, the switching
これにより、図4Bに示すように、中間層L2のノードN21~N23が疑似的に削減され、ノードN11~N13が、それぞれノードN31~N33と重みパラメータa11~a33で接続され状態に実質的に切り替えることが可能となる。 As a result, as shown in FIG. 4B, the nodes N21 to N23 of the intermediate layer L2 are virtually eliminated, and the nodes N11 to N13 are connected to the nodes N31 to N33 by the weight parameters a11 to a33, respectively. It is possible to switch.
つまり、中間層L2に入力されるデータは、中間層L2において変更されることなく、次のノードN31~N33へ入力されることになる。言い換えれば、中間層L2について、実質的に意味を持たなくさせることができる。 In other words, the data input to the intermediate layer L2 is input to the next nodes N31 to N33 without being changed in the intermediate layer L2. In other words, the intermediate layer L2 can be rendered substantially meaningless.
このように、切替部33は、モデルMの構造を層単位で切り替えることで、モデルMを容易に縮小することが可能となる。
Thus, the switching
次に、図5を用いて、任意のノードNを疑似的に削減する場合について説明する。なお、ここでは、活性化関数がReLUまたはTanhであるものとして説明する。 Next, referring to FIG. 5, a case of pseudo-removing an arbitrary node N will be described. Here, the activation function is assumed to be ReLU or Tanh.
切替部33は、図5に示す下段のノード列Ncを疑似的に削減する場合、ノード列Ncに関するバイアスパラメータおよび重みパラメータをそれぞれ「0」とする。
When the lower node column Nc shown in FIG. 5 is pseudo-reduced, the switching
具体的には、切替部33は、ノード列Ncを構成するノードN13、ノードN23およびノードN33のバイアスパラメータA3、B3およびC3を全て「0」にし、かつ、ノードN13、ノードN23およびノードN33に関する重みパラメータを全て「0」へ切り替える。
Specifically, the switching
ここで、ノードN13、ノードN23およびノードN33に関する重みパラメータとは、ノードN13、ノードN23およびノードN33に対する入力経路の重みパラメータ(a13、a23、a33、b13、b23、b33)と、ノードN13、ノードN23およびノードN33の出力経路の重みパラメータ(a31、a32、a33、b31、b32、b33)の双方を示す。 Here, the weight parameters for the node N13, the node N23, and the node N33 are the weight parameters (a13, a23, a33, b13, b23, b33) of the input paths for the node N13, the node N23, and the node N33, and the weight parameters for the node N13, the node N13, and the node N33. Both N23 and node N33 output path weight parameters (a31, a32, a33, b31, b32, b33) are shown.
すなわち、ノードN13、ノードN23およびノードN33には、全て「0」としてデータが入力されるとともに、ノードN13、ノードN23およびノードN33から「0」として、次の各ノードNへ出力されることになる。なお、ノードN13、ノードN23およびノードN33から出力されるデータが「0」であればよいので、バイアスパラメータおよび入力経路の重みパラメータを保持した状態で、出力経路の重みパラメータのみを切り替えることにしてもよい。 That is, data "0" is input to the nodes N13, N23 and N33, and "0" is output from the nodes N13, N23 and N33 to the following nodes N. Become. It should be noted that the data output from the nodes N13, N23, and N33 need only be "0", so only the weight parameter of the output path is switched while the bias parameter and the weight parameter of the input path are held. good too.
なお、ここでは、ノード列Ncを疑似的に削減する場合について説明したが、任意のノードNを1つのノード単位で削減することも可能である。なお、ここでは、疑似的に削減したノードNを元に戻す場合は、重みパラメタ―およびバイアスパラメータをそれぞれ戻すことになる。 Although the case of artificially reducing the node string Nc has been described here, it is also possible to reduce arbitrary nodes N in units of one node. It should be noted that here, when restoring the pseudo-reduced node N, the weight parameter and the bias parameter are respectively restored.
図2の説明に戻り、演算部34について説明する。演算部34は、センサ情報に基づく入力データDiをモデルMに入力することで出力データDoを生成する。ここで、上述のように、演算部34が演算処理に用いるモデルMは、切替部33によってノード数が疑似的に変更される。
Returning to the description of FIG. 2, the
すなわち、演算部34は、大規模モデルM1または小規模モデルM2のいずれかを用いて、演算処理を行うことになる。
That is, the
次に、図6を用いて、実施形態に係る制御装置1が実行する処理手順について説明する。図6は、制御装置1が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、制御部3によってセンサ情報の取得毎に実行される。
Next, a processing procedure executed by the
図6に示すように、制御装置1は、まず、センサ情報を取得すると(ステップS101)、高精度が要求されているか否かを判定する(ステップS102)。ここで、制御装置1は、高精度が要求されていると判定した場合(ステップS102,Yes)、モデルMに大規模モデルM1用のパラメータを設定する(ステップS103)。
As shown in FIG. 6, when the
その後、制御装置1は、大規模モデルM1を用いて演算処理を行い(ステップS104)、処理を終了する。また、制御装置1は、ステップS102の判定処理において、高精度が求められていないと判定した場合(ステップS102,No)、モデルMに小規模モデルM2用のパラメータを設定する(ステップS105)。
After that, the
その後、制御装置1は、小規模モデルM2を用いて演算処理を行い(ステップS104)、処理を終了する。
After that, the
上述したように、実施形態に係る制御装置1は、記憶部2と、切替部33とを備える。記憶部2は、ニューラルネットワークによって構成されるモデルMを記憶する。切替部33は、記憶部2に記憶されたモデルMのパラメータを変更することで、ニューラルネットワークのノード数を疑似的に切り替える。したがって、実施形態に係る制御装置1によれば、メモリ容量を抑えつつ、複数のモデルを用いることができる。
As described above, the
ところで、上述した実施形態では、大規模モデルM1と小規模モデルM2とが精度の異なるモデルMである場合について説明したが、これに限定されるものではない。すなわち、大規模モデルM1と小規模モデルM2とは、使用目的が全く異なるモデルMであってもよい。すなわち、例えば、大規模モデルM1で、ノッキングを判定し、小規模モデルM2でエンジンの故障を判定することにしてもよい。 By the way, in the above-described embodiment, the case where the large-scale model M1 and the small-scale model M2 are models M with different accuracies has been described, but the present invention is not limited to this. That is, the large-scale model M1 and the small-scale model M2 may be models M having completely different purposes. That is, for example, knocking may be determined using the large-scale model M1, and engine failure may be determined using the small-scale model M2.
また、上述した実施形態では、制御装置1が車両100に搭載される場合について説明したが、これに限定されるものではない。すなわち、本発明は、パーソナルコンピュータをはじめとする種々の装置に適用することが可能である。
Also, in the above-described embodiment, the case where the
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.
1 制御装置
31 取得部
32 判定部
33 切替部
34 演算部
M モデル
Claims (6)
記憶部に記憶されたニューラルネットワークによって構成されるモデルのパラメータのうち、増減させるノードの重みパラメータと、バイアスパラメータとを変更してニューラルネットワークのノード数を疑似的に変更する
制御プログラム。 A control program to be executed by a computer,
Among the parameters of the model configured by the neural network stored in the storage unit , the weight parameter of the node to be increased or decreased and the bias parameter are changed to change the number of nodes of the neural network in a pseudo manner.
control program.
請求項1に記載の制御プログラム。 2. The control program according to claim 1 , further comprising determining whether or not switching of the number of nodes is necessary, and switching the number of nodes according to a determination result.
請求項2に記載の制御プログラム。 3. The control program according to claim 2, further comprising determining whether the number of nodes needs to be switched according to the accuracy required for the model.
請求項1~3のいずれか1つに記載の制御プログラム。A control program according to any one of claims 1 to 3.
記憶部に記憶されたニューラルネットワークによって構成されるモデルのパラメータのうち、増減させるノードの重みパラメータと、バイアスパラメータとを変更してニューラルネットワークのノード数を疑似的に変更する
制御方法。 A control method for controlling a control device,
Among the parameters of the model configured by the neural network stored in the storage unit , the weight parameter of the node to be increased or decreased and the bias parameter are changed to change the number of nodes of the neural network in a pseudo manner.
control method.
記憶部に記憶されたニューラルネットワークによって構成されるモデルのパラメータのうち、増減させるノードの重みパラメータと、バイアスパラメータとを変更してニューラルネットワークのノード数を疑似的に変更するAmong the parameters of the model configured by the neural network stored in the storage unit, the weight parameter of the node to be increased or decreased and the bias parameter are changed to change the number of nodes of the neural network in a pseudo manner.
制御装置。Control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019159963A JP7325270B2 (en) | 2019-09-02 | 2019-09-02 | Control program, control method and control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019159963A JP7325270B2 (en) | 2019-09-02 | 2019-09-02 | Control program, control method and control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021039522A JP2021039522A (en) | 2021-03-11 |
JP7325270B2 true JP7325270B2 (en) | 2023-08-14 |
Family
ID=74848661
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019159963A Active JP7325270B2 (en) | 2019-09-02 | 2019-09-02 | Control program, control method and control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7325270B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018156451A (en) | 2017-03-17 | 2018-10-04 | 株式会社東芝 | Network learning device, network learning system, network learning method, and program |
US20190108436A1 (en) | 2017-10-06 | 2019-04-11 | Deepcube Ltd | System and method for compact and efficient sparse neural networks |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149768A (en) * | 1992-11-09 | 1994-05-31 | Ricoh Co Ltd | Signal processor |
JP3438537B2 (en) * | 1997-07-18 | 2003-08-18 | 株式会社デンソー | Neural network computing device |
-
2019
- 2019-09-02 JP JP2019159963A patent/JP7325270B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018156451A (en) | 2017-03-17 | 2018-10-04 | 株式会社東芝 | Network learning device, network learning system, network learning method, and program |
US20190108436A1 (en) | 2017-10-06 | 2019-04-11 | Deepcube Ltd | System and method for compact and efficient sparse neural networks |
Also Published As
Publication number | Publication date |
---|---|
JP2021039522A (en) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021164506A1 (en) | Data processing method and device for neural network model, apparatus, and storage medium | |
US20190147337A1 (en) | Neural network system for single processing common operation group of neural network models, application processor including the same, and operation method of neural network system | |
KR102164427B1 (en) | Determining the order of execution of neural networks | |
CA3062949C (en) | Conversion method, apparatus, computer device, and storage medium | |
GB2568087A (en) | Activation functions for deep neural networks | |
US11423284B2 (en) | Subgraph tile fusion in a convolutional neural network | |
US10169295B2 (en) | Convolution operation device and method | |
US11762352B2 (en) | Edge computing device for controlling electromechanical system or electronic device with local and remote task distribution control | |
JP7325270B2 (en) | Control program, control method and control device | |
CN112418416A (en) | Neural network computing system, neural network computing method and computer system | |
CN112835718B (en) | Method and device for task processing, many-core system and computer readable medium | |
Eisenhardt et al. | Spatial and temporal data path remapping for fault-tolerant coarse-grained reconfigurable architectures | |
CN113408070A (en) | Method, device and equipment for determining engine parameters and storage medium | |
JP7432321B2 (en) | Control program, control method and control device | |
JP2022102966A (en) | Information processing device and information processing method | |
CN117319373A (en) | Data transmission method, device, electronic equipment and computer readable storage medium | |
CN112380612B (en) | Rapid design method, device, medium and terminal suitable for ship outfitting platform | |
WO2022269928A1 (en) | Convolutional neural network inference processing device and convolutional neural network inference processing method | |
JP7252862B2 (en) | Control device, control system and control method | |
CN111325854B (en) | Shape model correction device, shape model correction method, and storage medium | |
WO2005052821A2 (en) | System, method, and computer program product for determining wall thickness in graphic model | |
WO2020054402A1 (en) | Neural network processing device, computer program, neural network manufacturing method, neural network data manufacturing method, neural network use device, and neural network downscaling method | |
JP2006323873A (en) | Simulation method | |
JP2007219928A (en) | Clustering method and device | |
KR20200073445A (en) | Trainable Pooling Method for Neural Network and Apparatus Therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7325270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |