JP7325270B2 - Control program, control method and control device - Google Patents

Control program, control method and control device Download PDF

Info

Publication number
JP7325270B2
JP7325270B2 JP2019159963A JP2019159963A JP7325270B2 JP 7325270 B2 JP7325270 B2 JP 7325270B2 JP 2019159963 A JP2019159963 A JP 2019159963A JP 2019159963 A JP2019159963 A JP 2019159963A JP 7325270 B2 JP7325270 B2 JP 7325270B2
Authority
JP
Japan
Prior art keywords
model
nodes
parameter
node
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019159963A
Other languages
Japanese (ja)
Other versions
JP2021039522A (en
Inventor
賢吾 飯野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019159963A priority Critical patent/JP7325270B2/en
Publication of JP2021039522A publication Critical patent/JP2021039522A/en
Application granted granted Critical
Publication of JP7325270B2 publication Critical patent/JP7325270B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)

Description

本発明は、制御プログラム、制御方法および制御装置に関する。 The present invention relates to a control program, control method and control device .

従来、機械学習によって生成された複数のモデルを用いて、音声認識を行う音声認識装置がある。かかる音声認識装置では、複数のモデルから得られる出力データのうち、最も適合度の高いデータを音声認識結果と見做す(例えば、特許文献1参照)。 Conventionally, there is a speech recognition device that performs speech recognition using a plurality of models generated by machine learning. In such a speech recognition apparatus, out of output data obtained from a plurality of models, data with the highest matching degree is regarded as a speech recognition result (see, for example, Patent Document 1).

特開平6-67698号公報JP-A-6-67698

しかしながら、従来技術では、複数のモデルをメモリに記憶しておく必要があるため、メモリ容量の大きい記憶媒体が必要となる。 However, in the prior art, since it is necessary to store a plurality of models in memory, a storage medium with a large memory capacity is required.

本発明は、上記に鑑みてなされたものであって、メモリ容量を抑えつつ、複数のモデルを用いることができる制御装置および制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a control device and a control method that can use a plurality of models while suppressing the memory capacity.

上述した課題を解決し、目的を達成するために、実施形態に係る制御装置は、記憶部と、切替部とを備える。前記記憶部は、ニューラルネットワークによって構成されるモデルを記憶する。前記切替部は、前記記憶部に記憶された前記モデルのパラメータを変更することで、ニューラルネットワークのノード数を疑似的に切り替える。 In order to solve the above-described problems and achieve the object, a control device according to an embodiment includes a storage section and a switching section. The storage unit stores a model configured by a neural network. The switching unit pseudo-switches the number of nodes of the neural network by changing parameters of the model stored in the storage unit.

本発明によれば、メモリ容量を抑えつつ、複数のモデルを用いることができる。 According to the present invention, a plurality of models can be used while suppressing memory capacity.

図1Aは、制御装置の搭載例を示す図である。FIG. 1A is a diagram showing an example of mounting a control device. 図1Bは、制御方法の概要を示す図である。FIG. 1B is a diagram showing an overview of the control method. 図2は、制御装置のブロック図である。FIG. 2 is a block diagram of the control device. 図3は、パラメータDBの一例を示す図である。FIG. 3 is a diagram illustrating an example of a parameter DB; 図4Aは、切替部が切り替えるパラメータの一例を示す図(その1)である。4A is a diagram (part 1) illustrating an example of parameters switched by a switching unit; FIG. 図4Bは、切替部が切り替えるパラメータの一例を示す図(その2)である。FIG. 4B is a diagram (part 2) illustrating an example of parameters switched by the switching unit; 図5は、切替部が切り替えるパラメータの一例を示す図(その3)である。FIG. 5 is a diagram (part 3) illustrating an example of parameters switched by the switching unit; 図6は、制御装置が実行する処理手順を示すフローチャートである。FIG. 6 is a flow chart showing a processing procedure executed by the control device.

以下、添付図面を参照して、実施形態に係る制御装置および制御方法について説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。 Hereinafter, a control device and a control method according to embodiments will be described with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below.

まず、図1Aおよび図1Bを用いて、実施形態に係る制御装置および制御方法の概要について説明する。図1Aは、制御装置の搭載例を示す図である。図1Bは、制御方法の概要を示す図である。なお、かかる制御方法は、図1Aに示す制御装置1によって実行される。 First, an outline of a control device and a control method according to an embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram showing an example of mounting a control device. FIG. 1B is a diagram showing an overview of the control method. This control method is executed by the control device 1 shown in FIG. 1A.

図1Aに示すように、実施形態に係る制御装置1は、車両100に搭載される。制御装置1は、車両100の車載センサから入力されるセンサ情報に基づく入力データDiをモデルMに入力することで出力データDoを生成する。ここで、モデルMとは、入力層、中間層(隠れ層)、および出力層と呼ばれるレイヤを有し、入力層から入力された入力データDiを各接続経路を伝播させながら出力層まで伝達する。なお、各層は、それぞれノードNによって構成される。 As shown in FIG. 1A, a control device 1 according to the embodiment is mounted on a vehicle 100. As shown in FIG. The control device 1 generates the output data Do by inputting the input data Di based on the sensor information input from the vehicle-mounted sensors of the vehicle 100 to the model M. FIG. Here, the model M has layers called an input layer, an intermediate layer (hidden layer), and an output layer, and transmits input data Di input from the input layer to the output layer while propagating each connection path. . Each layer is composed of nodes N, respectively.

この際、各接続経路に設定されたパラメータに基づいた演算処理を実行することで、入力データDiに対応する出力データDoを生成する。 At this time, the output data Do corresponding to the input data Di is generated by executing arithmetic processing based on the parameters set for each connection path.

ところで、複数のモデルを記憶しておき、入力データ等に応じて、複数のモデルを切り替えて用いる場合が想定される。この場合、制御装置は、複数のモデルを予め記憶しておく必要があり、メモリ容量の圧迫を招く。また、上述のように、複数のモデルを車両に搭載する場合、それぞれのモデルについて、品質保証などの検査を行う必要があり、コストの増大を招くおそれがある。 By the way, it is conceivable that a plurality of models are stored and used by switching between them according to input data or the like. In this case, the control device needs to store a plurality of models in advance, which causes pressure on the memory capacity. Moreover, as described above, when a plurality of models are mounted on a vehicle, it is necessary to conduct inspections such as quality assurance for each model, which may lead to an increase in cost.

そこで、実施形態に係る制御方法では、モデルMのニューラルネットワーク構造を切り替えることで、1つのモデルMを複数のモデルMとして用いることとした。 Therefore, in the control method according to the embodiment, one model M is used as a plurality of models M by switching the neural network structure of the model M.

具体的には、図1Bに示すように、実施形態に係る制御方法では、大規模モデルM1と、大規模モデルM1よりもノード数が少ない小規模モデルM2とを切り替えることが可能である。 Specifically, as shown in FIG. 1B, in the control method according to the embodiment, it is possible to switch between the large-scale model M1 and the small-scale model M2 having fewer nodes than the large-scale model M1.

より詳細には、実施形態に係る制御方法では、モデルMのパラメータを変更することで、大規模モデルM1と小規模モデルM2とを切り替えることが可能である。ここで、パラメータには、重みパラメータや、バイアスパラメータが含まれる。 More specifically, in the control method according to the embodiment, by changing the parameters of the model M, it is possible to switch between the large-scale model M1 and the small-scale model M2. Here, the parameters include weight parameters and bias parameters.

図1Bに示す例において、小規模モデルM2が、大規模モデルM1に比べて、中間層Lが少ない場合を示す。この場合、中間層Lの各ノードの出力経路の重みパラメータを「1」とし、各ノードのバイアスパラメータを「0」とすることで、実質的に中間層Lを削減したモデルMとすることができる。 In the example shown in FIG. 1B, the small-scale model M2 has fewer intermediate layers L than the large-scale model M1. In this case, by setting the weight parameter of the output path of each node of the intermediate layer L to "1" and the bias parameter of each node to "0", the model M with the intermediate layer L substantially reduced can be obtained. can.

また、小規模モデルM2から大規模モデルM1へ切り替える場合には、上記の重みパラメータおよびバイアスパラメータをそれぞれ大規模モデルM1用に設定すればよい。 Also, when switching from the small-scale model M2 to the large-scale model M1, the weight parameter and the bias parameter may be set for the large-scale model M1.

このように、実施形態に係る制御方法では、1つのモデルMを大規模モデルM1と小規模モデルM2とで切り替えることが可能である。したがって、実施形態に係る制御方法では、1つのモデルMを記憶しておけばよいので、メモリ容量を抑えつつ、複数のモデルMを用いることができる。 Thus, in the control method according to the embodiment, it is possible to switch one model M between the large-scale model M1 and the small-scale model M2. Therefore, in the control method according to the embodiment, since it is sufficient to store one model M, it is possible to use a plurality of models M while suppressing the memory capacity.

なお、上述の例では、大規模モデルM1と、1つの小規模モデルM2との間でモデルMを切り替える場合について示したが、これに限定されるものではなく、小規模モデルM2は2つ以上であってもよい。また、上述した実施形態では、中間層Lを増減させる場合について示したが、これに限定されるものではない。すなわち、任意のノードNを増減させることが可能である。 In the above example, the model M is switched between the large-scale model M1 and one small-scale model M2. may be Also, in the above-described embodiment, the case where the intermediate layer L is increased or decreased has been described, but the present invention is not limited to this. That is, arbitrary nodes N can be increased or decreased.

次に、図2を用いて、実施形態に係る制御装置1の構成例について説明する。図2は、制御装置1のブロック図である。なお、図2には、車載センサ類101を併せて示す。車載センサ類101は、例えば、車両100の内燃機関(エンジン)の状態を検出するセンサ類である。制御装置1は、車載センサ類101から入力されるセンサ情報をモデルMに入力することで、エンジンの失火などといった状態を判定することができる。 Next, a configuration example of the control device 1 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram of the control device 1. As shown in FIG. 2 also shows on-vehicle sensors 101. As shown in FIG. The in-vehicle sensors 101 are, for example, sensors that detect the state of the internal combustion engine (engine) of the vehicle 100 . By inputting sensor information input from the in-vehicle sensors 101 to the model M, the control device 1 can determine a state such as an engine misfire.

図2に示すように、制御装置1は、記憶部2と、制御部3とを備える。記憶部2は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。 As shown in FIG. 2 , the control device 1 includes a storage section 2 and a control section 3 . The storage unit 2 is realized by, for example, a semiconductor memory device such as a RAM or flash memory, or a storage device such as a hard disk or an optical disk.

また、図2に示すように、記憶部2は、モデルDB21と、パラメータDB22とを備える。モデルDB21は、モデルMを記憶するデータベースである。モデルDB21には、上述の大規模モデルM1が記憶される。 Moreover, as shown in FIG. 2, the memory|storage part 2 is provided with model DB21 and parameter DB22. The model DB 21 is a database that stores the model M. FIG. The model DB 21 stores the large-scale model M1 described above.

パラメータDB22は、モデルMに適用するパラメータを記憶するデータベースである。図3は、パラメータDB22の一例を示す図である。図3に示すように、パラメータDB22には、「パラメータID」、「適用条件」、「重みパラメータ」、「バイアスパラメータ」等が互いに関連付けられて記憶される。 The parameter DB 22 is a database that stores parameters applied to the model M. FIG. FIG. 3 is a diagram showing an example of the parameter DB 22. As shown in FIG. As shown in FIG. 3, the parameter DB 22 stores "parameter ID", "application condition", "weight parameter", "bias parameter" and the like in association with each other.

パラメータIDは、パラメータを識別する識別子であり、大規模モデルM1および小規模モデルM2を識別する識別子であるとも言える。適用条件は、対応するパラメータを適用する条件を示す。また、重みパラメータおよびバイアスパラメータは、上述のパラメータの一例である。また、これらパラメータは、機械学習によって導出される値である。なお、図3に示す例では、重みパラメータおよびバイアスパラメータを「C01」や「D01」のように模式的に示したが、「C01」や「D01」には具体的な情報が記載されているものとする。 A parameter ID is an identifier that identifies a parameter, and can be said to be an identifier that identifies the large-scale model M1 and the small-scale model M2. The applicable condition indicates the condition under which the corresponding parameter is applied. Also, the weight parameter and the bias parameter are examples of the parameters described above. Also, these parameters are values derived by machine learning. In the example shown in FIG. 3, the weight parameter and the bias parameter are schematically shown as "C01" and "D01", but specific information is described in "C01" and "D01". shall be

また、「C01」や「D01」には、モデルMのノード数に応じた個数のパラメータが記載される。詳細については後述するが、大規模モデルM1から小規模モデルM2へ切り替える場合に、削減するノードの重みパラメータおよびバイアスパラメータは「0」または「1」である。 Also, the number of parameters corresponding to the number of nodes of the model M is described in "C01" and "D01". Although the details will be described later, when switching from the large-scale model M1 to the small-scale model M2, the weight parameter and bias parameter of the nodes to be reduced are "0" or "1".

図2の説明に戻り、制御部3について説明する。制御部3は、コントローラであり、例えば、CPUやMPU等によって、記憶部2に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部3は、例えば、ASICやFPGA等の集積回路により実現することができる。 Returning to the description of FIG. 2, the control unit 3 will be described. The control unit 3 is a controller, and is realized by, for example, executing various programs stored in the storage unit 2 using a RAM as a work area by a CPU, MPU, or the like. Also, the control unit 3 can be realized by an integrated circuit such as an ASIC or FPGA, for example.

図2に示すように、制御部3は、取得部31と、判定部32と、切替部33と、演算部34とを備える。取得部31は、車載センサ類101からセンサ情報を取得する。取得部31によって取得されたセンサ情報は、判定部32へ通知される。 As shown in FIG. 2 , the control unit 3 includes an acquisition unit 31 , a determination unit 32 , a switching unit 33 and a calculation unit 34 . The acquisition unit 31 acquires sensor information from the in-vehicle sensors 101 . The sensor information acquired by the acquisition unit 31 is notified to the determination unit 32 .

判定部32は、モデルMのノード数を切り替えるか否かを所定条件に基づいて判定する。具体的には、判定部32は、パラメータDB22を参照し、どの適用条件に合致するかを判定する。 The determination unit 32 determines whether or not to switch the number of nodes of the model M based on a predetermined condition. Specifically, the determination unit 32 refers to the parameter DB 22 and determines which application condition is met.

ここで、適用条件の一例として、モデルMに要求される精度が挙げられる。すなわち、かかる精度が高い場合、大規模モデルM1の方が好ましく、精度が低い場合には小規模モデルM2であっても対応可能である。 Here, the accuracy required for the model M can be cited as an example of applicable conditions. That is, when the accuracy is high, the large-scale model M1 is preferable, and when the accuracy is low, even the small-scale model M2 can be used.

判定部32は、例えば、不図示の上位装置から要求される精度に基づいて、どの適用条件に合致するかを判定することができる。そして、判定部32は、判定結果となるパラメータIDを切替部33へ通知する。 The determination unit 32 can determine which application condition is met, for example, based on the accuracy required by a host device (not shown). Then, the determination unit 32 notifies the switching unit 33 of the parameter ID as the determination result.

なお、上記の所定条件は、モデルMに要求される精度に限られず、例えば、エンジン回転数など、センサ情報から読み取れるものであってもよいし、車両100の現在の走行位置などその他の情報から読み取れるものであってもよい。すなわち、所定条件については、任意に設定することが可能である。 The above predetermined conditions are not limited to the accuracy required for the model M. For example, they may be read from sensor information such as the number of engine revolutions, or from other information such as the current running position of the vehicle 100. It may be readable. That is, the predetermined condition can be arbitrarily set.

切替部33は、記憶部2に記憶されたモデルMのパラメータを変更することで、ニューラルネットワークのノード数を疑似的に切り替える。ここで、切替部33は、上記の判定部32による判定結果に基づいて、パラメータを変更することで、モデルMのノード数を調節する。これにより、現在の要求に応じたノード数のモデルMを設定することが可能となる。 The switching unit 33 changes the parameters of the model M stored in the storage unit 2 to pseudo-switch the number of nodes of the neural network. Here, the switching unit 33 adjusts the number of nodes of the model M by changing parameters based on the determination result of the determination unit 32 described above. As a result, it is possible to set the model M with the number of nodes according to the current requirements.

具体的には、切替部33は、判定部32から通知されたパラメータIDの重みパラメータおよびバイアスパラメータをモデルMに設定することで、モデルMのノード数を疑似的に切り替える。 Specifically, the switching unit 33 sets the weight parameter and the bias parameter of the parameter ID notified from the determination unit 32 to the model M, thereby switching the number of nodes of the model M in a pseudo manner.

図4A、図4Bおよび図5は、切替部33が切り替えるパラメータの具体例を示す図である。まず、図4Aおよび図4Bを用いて、中間層L2を疑似的に削減する場合について説明する。なお、図4Aに示す「A1」、「B1」および「C1」などは、対応するノードNのバイアスパラメータを示し、「a11」や「b11」などは、対応するノードN間の接続経路における重みパラメータを示すものとする。また、図4Aでは、活性化関数がReLUであるものとして説明する。 4A, 4B, and 5 are diagrams showing specific examples of parameters switched by the switching unit 33. FIG. First, with reference to FIGS. 4A and 4B, a case of pseudo reduction of the intermediate layer L2 will be described. Note that "A1", "B1", "C1", etc. shown in FIG. 4A indicate the bias parameters of the corresponding node N, and "a11", "b11", etc. indicate the weights in the connection paths between the corresponding nodes N. shall indicate the parameters. Also, FIG. 4A is described assuming that the activation function is ReLU.

図4Aに示すように、ノードN21~ノードN23から成る中間層L2を疑似的に削減する場合、ノードN21~N23のバイアスパラメータB1~B3を切り替えるとともに、ノードN21~N23の出力経路における重みパラメータb11~b33を切り替える。 As shown in FIG. 4A, when the intermediate layer L2 consisting of the nodes N21 to N23 is pseudo-reduced, the bias parameters B1 to B3 of the nodes N21 to N23 are switched, and the weight parameter b11 in the output path of the nodes N21 to N23 ~b33 is switched.

具体的には、切替部33は、ノードN21~N23のバイアスパラメータB1~B3を全て「0」へ切り替え、重みパラメータb11、b22、b33を全て「1」とし、その他の重みパラメータ(b12、b13、b21、b23、b31、b32)を全て「0」へ切り替える。 Specifically, the switching unit 33 switches all of the bias parameters B1 to B3 of the nodes N21 to N23 to "0", sets all of the weight parameters b11, b22, and b33 to "1", and sets the other weight parameters (b12, b13 , b21, b23, b31, b32) are all switched to "0".

つまり、切替部33は、削減するノードNのバイアスパラメータを「0」に切り替えるとともに、かかるノードNから図中水平に延びるノードNへの出力経路の重みパラメータを「1」に、他の出力経路の重みパラメータを「0」に切り替える。 That is, the switching unit 33 switches the bias parameter of the node N to be reduced to "0", sets the weight parameter of the output path from the node N to the node N extending horizontally in the figure to "1", and sets the weight parameter of the output path to "1". to "0".

これにより、図4Bに示すように、中間層L2のノードN21~N23が疑似的に削減され、ノードN11~N13が、それぞれノードN31~N33と重みパラメータa11~a33で接続され状態に実質的に切り替えることが可能となる。 As a result, as shown in FIG. 4B, the nodes N21 to N23 of the intermediate layer L2 are virtually eliminated, and the nodes N11 to N13 are connected to the nodes N31 to N33 by the weight parameters a11 to a33, respectively. It is possible to switch.

つまり、中間層L2に入力されるデータは、中間層L2において変更されることなく、次のノードN31~N33へ入力されることになる。言い換えれば、中間層L2について、実質的に意味を持たなくさせることができる。 In other words, the data input to the intermediate layer L2 is input to the next nodes N31 to N33 without being changed in the intermediate layer L2. In other words, the intermediate layer L2 can be rendered substantially meaningless.

このように、切替部33は、モデルMの構造を層単位で切り替えることで、モデルMを容易に縮小することが可能となる。 Thus, the switching unit 33 can easily reduce the size of the model M by switching the structure of the model M on a layer-by-layer basis.

次に、図5を用いて、任意のノードNを疑似的に削減する場合について説明する。なお、ここでは、活性化関数がReLUまたはTanhであるものとして説明する。 Next, referring to FIG. 5, a case of pseudo-removing an arbitrary node N will be described. Here, the activation function is assumed to be ReLU or Tanh.

切替部33は、図5に示す下段のノード列Ncを疑似的に削減する場合、ノード列Ncに関するバイアスパラメータおよび重みパラメータをそれぞれ「0」とする。 When the lower node column Nc shown in FIG. 5 is pseudo-reduced, the switching unit 33 sets the bias parameter and the weight parameter for the node column Nc to "0".

具体的には、切替部33は、ノード列Ncを構成するノードN13、ノードN23およびノードN33のバイアスパラメータA3、B3およびC3を全て「0」にし、かつ、ノードN13、ノードN23およびノードN33に関する重みパラメータを全て「0」へ切り替える。 Specifically, the switching unit 33 sets the bias parameters A3, B3, and C3 of the node N13, the node N23, and the node N33, which constitute the node string Nc, to all "0", and Switch all weight parameters to '0'.

ここで、ノードN13、ノードN23およびノードN33に関する重みパラメータとは、ノードN13、ノードN23およびノードN33に対する入力経路の重みパラメータ(a13、a23、a33、b13、b23、b33)と、ノードN13、ノードN23およびノードN33の出力経路の重みパラメータ(a31、a32、a33、b31、b32、b33)の双方を示す。 Here, the weight parameters for the node N13, the node N23, and the node N33 are the weight parameters (a13, a23, a33, b13, b23, b33) of the input paths for the node N13, the node N23, and the node N33, and the weight parameters for the node N13, the node N13, and the node N33. Both N23 and node N33 output path weight parameters (a31, a32, a33, b31, b32, b33) are shown.

すなわち、ノードN13、ノードN23およびノードN33には、全て「0」としてデータが入力されるとともに、ノードN13、ノードN23およびノードN33から「0」として、次の各ノードNへ出力されることになる。なお、ノードN13、ノードN23およびノードN33から出力されるデータが「0」であればよいので、バイアスパラメータおよび入力経路の重みパラメータを保持した状態で、出力経路の重みパラメータのみを切り替えることにしてもよい。 That is, data "0" is input to the nodes N13, N23 and N33, and "0" is output from the nodes N13, N23 and N33 to the following nodes N. Become. It should be noted that the data output from the nodes N13, N23, and N33 need only be "0", so only the weight parameter of the output path is switched while the bias parameter and the weight parameter of the input path are held. good too.

なお、ここでは、ノード列Ncを疑似的に削減する場合について説明したが、任意のノードNを1つのノード単位で削減することも可能である。なお、ここでは、疑似的に削減したノードNを元に戻す場合は、重みパラメタ―およびバイアスパラメータをそれぞれ戻すことになる。 Although the case of artificially reducing the node string Nc has been described here, it is also possible to reduce arbitrary nodes N in units of one node. It should be noted that here, when restoring the pseudo-reduced node N, the weight parameter and the bias parameter are respectively restored.

図2の説明に戻り、演算部34について説明する。演算部34は、センサ情報に基づく入力データDiをモデルMに入力することで出力データDoを生成する。ここで、上述のように、演算部34が演算処理に用いるモデルMは、切替部33によってノード数が疑似的に変更される。 Returning to the description of FIG. 2, the calculation unit 34 will be described. The calculation unit 34 inputs the input data Di based on the sensor information to the model M to generate the output data Do. Here, as described above, the number of nodes of the model M used by the calculation unit 34 for calculation processing is pseudo-changed by the switching unit 33 .

すなわち、演算部34は、大規模モデルM1または小規模モデルM2のいずれかを用いて、演算処理を行うことになる。 That is, the calculation unit 34 performs calculation processing using either the large-scale model M1 or the small-scale model M2.

次に、図6を用いて、実施形態に係る制御装置1が実行する処理手順について説明する。図6は、制御装置1が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、制御部3によってセンサ情報の取得毎に実行される。 Next, a processing procedure executed by the control device 1 according to the embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing a processing procedure executed by the control device 1. As shown in FIG. Note that the processing procedure described below is executed by the control unit 3 each time sensor information is acquired.

図6に示すように、制御装置1は、まず、センサ情報を取得すると(ステップS101)、高精度が要求されているか否かを判定する(ステップS102)。ここで、制御装置1は、高精度が要求されていると判定した場合(ステップS102,Yes)、モデルMに大規模モデルM1用のパラメータを設定する(ステップS103)。 As shown in FIG. 6, when the control device 1 acquires sensor information (step S101), it determines whether high accuracy is required (step S102). If the controller 1 determines that high accuracy is required (step S102, Yes), it sets parameters for the large-scale model M1 in the model M (step S103).

その後、制御装置1は、大規模モデルM1を用いて演算処理を行い(ステップS104)、処理を終了する。また、制御装置1は、ステップS102の判定処理において、高精度が求められていないと判定した場合(ステップS102,No)、モデルMに小規模モデルM2用のパラメータを設定する(ステップS105)。 After that, the control device 1 performs arithmetic processing using the large-scale model M1 (step S104), and terminates the processing. If the control device 1 determines in the determination process of step S102 that high accuracy is not required (step S102, No), it sets parameters for the small-scale model M2 in the model M (step S105).

その後、制御装置1は、小規模モデルM2を用いて演算処理を行い(ステップS104)、処理を終了する。 After that, the control device 1 performs arithmetic processing using the small-scale model M2 (step S104), and terminates the processing.

上述したように、実施形態に係る制御装置1は、記憶部2と、切替部33とを備える。記憶部2は、ニューラルネットワークによって構成されるモデルMを記憶する。切替部33は、記憶部2に記憶されたモデルMのパラメータを変更することで、ニューラルネットワークのノード数を疑似的に切り替える。したがって、実施形態に係る制御装置1によれば、メモリ容量を抑えつつ、複数のモデルを用いることができる。 As described above, the control device 1 according to the embodiment includes the storage section 2 and the switching section 33 . The storage unit 2 stores a model M configured by a neural network. The switching unit 33 changes the parameters of the model M stored in the storage unit 2 to pseudo-switch the number of nodes of the neural network. Therefore, according to the control device 1 according to the embodiment, it is possible to use a plurality of models while suppressing the memory capacity.

ところで、上述した実施形態では、大規模モデルM1と小規模モデルM2とが精度の異なるモデルMである場合について説明したが、これに限定されるものではない。すなわち、大規模モデルM1と小規模モデルM2とは、使用目的が全く異なるモデルMであってもよい。すなわち、例えば、大規模モデルM1で、ノッキングを判定し、小規模モデルM2でエンジンの故障を判定することにしてもよい。 By the way, in the above-described embodiment, the case where the large-scale model M1 and the small-scale model M2 are models M with different accuracies has been described, but the present invention is not limited to this. That is, the large-scale model M1 and the small-scale model M2 may be models M having completely different purposes. That is, for example, knocking may be determined using the large-scale model M1, and engine failure may be determined using the small-scale model M2.

また、上述した実施形態では、制御装置1が車両100に搭載される場合について説明したが、これに限定されるものではない。すなわち、本発明は、パーソナルコンピュータをはじめとする種々の装置に適用することが可能である。 Also, in the above-described embodiment, the case where the control device 1 is mounted on the vehicle 100 has been described, but the present invention is not limited to this. That is, the present invention can be applied to various devices including personal computers.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 制御装置
31 取得部
32 判定部
33 切替部
34 演算部
M モデル
Reference Signs List 1 control device 31 acquisition unit 32 determination unit 33 switching unit 34 calculation unit M model

Claims (6)

コンピュータに実行させる制御プログラムであって、
記憶部に記憶されたニューラルネットワークによって構成されるモデルのパラメータのうち、増減させるノードの重みパラメータと、バイアスパラメータとを変更してニューラルネットワークのノード数を疑似的に変更す
制御プログラム。
A control program to be executed by a computer,
Among the parameters of the model configured by the neural network stored in the storage unit , the weight parameter of the node to be increased or decreased and the bias parameter are changed to change the number of nodes of the neural network in a pseudo manner.
control program.
記ノード数の切り替えが必要か否かを判定し、判定結果に応じた前記ノード数を切り替える
請求項1に記載の制御プログラム。
2. The control program according to claim 1 , further comprising determining whether or not switching of the number of nodes is necessary, and switching the number of nodes according to a determination result.
記モデルに要求される精度に応じて、前記ノード数の切替が必要か判定する
請求項2に記載の制御プログラム。
3. The control program according to claim 2, further comprising determining whether the number of nodes needs to be switched according to the accuracy required for the model.
前記ニューラルネットワークを構成する少なくとも1つの層を削減する場合、前記層の各出力経路の重みパラメータを1に設定し、中間層の各ノードのバイアスパラメータを0に設定するWhen removing at least one layer that constitutes the neural network, setting the weight parameter of each output path of the layer to 1 and setting the bias parameter of each node of the intermediate layer to 0.
請求項1~3のいずれか1つに記載の制御プログラム。A control program according to any one of claims 1 to 3.
制御装置を制御する制御方法であって、
記憶部に記憶されたニューラルネットワークによって構成されるモデルのパラメータのうち、増減させるノードの重みパラメータと、バイアスパラメータとを変更してニューラルネットワークのノード数を疑似的に変更す
御方法。
A control method for controlling a control device,
Among the parameters of the model configured by the neural network stored in the storage unit , the weight parameter of the node to be increased or decreased and the bias parameter are changed to change the number of nodes of the neural network in a pseudo manner.
control method.
制御装置の制御部は、The control unit of the control device is
記憶部に記憶されたニューラルネットワークによって構成されるモデルのパラメータのうち、増減させるノードの重みパラメータと、バイアスパラメータとを変更してニューラルネットワークのノード数を疑似的に変更するAmong the parameters of the model configured by the neural network stored in the storage unit, the weight parameter of the node to be increased or decreased and the bias parameter are changed to change the number of nodes of the neural network in a pseudo manner.
制御装置。Control device.
JP2019159963A 2019-09-02 2019-09-02 Control program, control method and control device Active JP7325270B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019159963A JP7325270B2 (en) 2019-09-02 2019-09-02 Control program, control method and control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019159963A JP7325270B2 (en) 2019-09-02 2019-09-02 Control program, control method and control device

Publications (2)

Publication Number Publication Date
JP2021039522A JP2021039522A (en) 2021-03-11
JP7325270B2 true JP7325270B2 (en) 2023-08-14

Family

ID=74848661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019159963A Active JP7325270B2 (en) 2019-09-02 2019-09-02 Control program, control method and control device

Country Status (1)

Country Link
JP (1) JP7325270B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156451A (en) 2017-03-17 2018-10-04 株式会社東芝 Network learning device, network learning system, network learning method, and program
US20190108436A1 (en) 2017-10-06 2019-04-11 Deepcube Ltd System and method for compact and efficient sparse neural networks

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149768A (en) * 1992-11-09 1994-05-31 Ricoh Co Ltd Signal processor
JP3438537B2 (en) * 1997-07-18 2003-08-18 株式会社デンソー Neural network computing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156451A (en) 2017-03-17 2018-10-04 株式会社東芝 Network learning device, network learning system, network learning method, and program
US20190108436A1 (en) 2017-10-06 2019-04-11 Deepcube Ltd System and method for compact and efficient sparse neural networks

Also Published As

Publication number Publication date
JP2021039522A (en) 2021-03-11

Similar Documents

Publication Publication Date Title
WO2021164506A1 (en) Data processing method and device for neural network model, apparatus, and storage medium
US20190147337A1 (en) Neural network system for single processing common operation group of neural network models, application processor including the same, and operation method of neural network system
KR102164427B1 (en) Determining the order of execution of neural networks
CA3062949C (en) Conversion method, apparatus, computer device, and storage medium
GB2568087A (en) Activation functions for deep neural networks
US11423284B2 (en) Subgraph tile fusion in a convolutional neural network
US10169295B2 (en) Convolution operation device and method
US11762352B2 (en) Edge computing device for controlling electromechanical system or electronic device with local and remote task distribution control
JP7325270B2 (en) Control program, control method and control device
CN112418416A (en) Neural network computing system, neural network computing method and computer system
CN112835718B (en) Method and device for task processing, many-core system and computer readable medium
Eisenhardt et al. Spatial and temporal data path remapping for fault-tolerant coarse-grained reconfigurable architectures
CN113408070A (en) Method, device and equipment for determining engine parameters and storage medium
JP7432321B2 (en) Control program, control method and control device
JP2022102966A (en) Information processing device and information processing method
CN117319373A (en) Data transmission method, device, electronic equipment and computer readable storage medium
CN112380612B (en) Rapid design method, device, medium and terminal suitable for ship outfitting platform
WO2022269928A1 (en) Convolutional neural network inference processing device and convolutional neural network inference processing method
JP7252862B2 (en) Control device, control system and control method
CN111325854B (en) Shape model correction device, shape model correction method, and storage medium
WO2005052821A2 (en) System, method, and computer program product for determining wall thickness in graphic model
WO2020054402A1 (en) Neural network processing device, computer program, neural network manufacturing method, neural network data manufacturing method, neural network use device, and neural network downscaling method
JP2006323873A (en) Simulation method
JP2007219928A (en) Clustering method and device
KR20200073445A (en) Trainable Pooling Method for Neural Network and Apparatus Therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230801

R150 Certificate of patent or registration of utility model

Ref document number: 7325270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150