JP2017182319A - Machine learning device - Google Patents
Machine learning device Download PDFInfo
- Publication number
- JP2017182319A JP2017182319A JP2016066356A JP2016066356A JP2017182319A JP 2017182319 A JP2017182319 A JP 2017182319A JP 2016066356 A JP2016066356 A JP 2016066356A JP 2016066356 A JP2016066356 A JP 2016066356A JP 2017182319 A JP2017182319 A JP 2017182319A
- Authority
- JP
- Japan
- Prior art keywords
- layer
- neural network
- intermediate layer
- temporary
- temporary output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、ニューラルネットワークの学習を行う機械学習装置に関する。 The present invention relates to a machine learning device that performs learning of a neural network.
ニューラルネットワークは、カメラにより撮影された画像から人物などの所定の物体を検出する物体検出装置や、センサにより計測されたデータを解析する解析装置などに採用されている。例えば、ニューラルネットワークを物体検出装置に用いる場合、機械学習装置が、画像に含まれる所定の物体の特徴をニューラルネットワークに学習させる。学習を終了したニューラルネットワークをコンピュータなどに実装することにより、物体検出装置が作成される。 The neural network is employed in an object detection device that detects a predetermined object such as a person from an image taken by a camera, an analysis device that analyzes data measured by a sensor, and the like. For example, when a neural network is used for an object detection device, a machine learning device causes a neural network to learn features of a predetermined object included in an image. An object detection apparatus is created by mounting a neural network that has finished learning on a computer or the like.
ニューラルネットワークは、その規模が大きくなるほど学習精度が高くなる傾向にある。しかし、ニューラルネットワークの規模が大きくなるにつれて、ニューラルネットワークの演算量が増大する。ニューラルネットワークを物体検出装置や、データ解析装置に適用するためには、ニューラルネットワークの演算量はできるだけ少ないことが望ましい。このため、高精度で、演算量の少ないニューラルネットネットワークを作成する技術の開発が望まれている。 A neural network tends to have higher learning accuracy as its scale increases. However, as the scale of the neural network increases, the amount of computation of the neural network increases. In order to apply the neural network to an object detection device or a data analysis device, it is desirable that the amount of calculation of the neural network is as small as possible. Therefore, it is desired to develop a technique for creating a neural network with high accuracy and a small amount of calculation.
非特許得文献1には、学習済みの大規模なニューラルネットワークの出力結果を利用して、小規模なニューラルネットワークの学習を行う技術が開示されている。小規模なニューラルネットワークの学習には、誤差逆伝播法(バックプロパゲーション)が用いられる。誤差逆伝播法は、教師あり学習のアルゴリズムである。 Non-Patent Document 1 discloses a technique for learning a small-scale neural network using an output result of a learned large-scale neural network. The error back-propagation method (back propagation) is used for learning of a small-scale neural network. The error back propagation method is a supervised learning algorithm.
ニューラルネットワークを物体検出装置や、データ解析装置などに使用する場合、ニューラルネットワークの規模を予め決定する必要がある。ニューラルネットワークの規模は、具体的には、ニューラルネットワークが有する層の数や、各層が有するノードの数により決定される。上述のように、ニューラルネットワークの規模を大きくすることにより、ニューラルネットワークの学習精度を向上させることができる。そのため、ニューラルネットワークの規模は、予め要求される学習精度に基づいて決定される。 When the neural network is used for an object detection device, a data analysis device, or the like, it is necessary to determine the size of the neural network in advance. Specifically, the scale of the neural network is determined by the number of layers that the neural network has and the number of nodes that each layer has. As described above, the learning accuracy of the neural network can be improved by increasing the scale of the neural network. Therefore, the scale of the neural network is determined based on learning accuracy required in advance.
しかし、要求される学習精度を実現するために、ニューラルネットワークの規模に余裕を持たせる場合がある。つまり、ニューラルネットワークの規模が、要求される学習精度に比べて過大に設定される。ニューラルネットワークの規模が過大である場合、学習済みのニューラルネットワークが、同じ計算を繰り返し行っている可能性がある。この場合、学習済みのニューラルネットワークを、要求される学習精度に応じた適切な規模にまで小さくすることにより、演算量を削減することが望ましい。しかし、学習済みのニューラルネットワークの規模を縮小する技術は開発されていない。 However, in order to achieve the required learning accuracy, there is a case where there is a margin in the scale of the neural network. That is, the scale of the neural network is set excessively compared to the required learning accuracy. If the scale of the neural network is excessive, the learned neural network may be performing the same calculation repeatedly. In this case, it is desirable to reduce the amount of calculation by reducing the learned neural network to an appropriate scale according to the required learning accuracy. However, no technology has been developed to reduce the scale of a learned neural network.
本発明の目的は、適切な規模のニューラルネットワークを作成することができる機械学習装置を提供することである。 An object of the present invention is to provide a machine learning device capable of creating a neural network having an appropriate scale.
上記課題を解決するために、請求項1記載の発明は、機械学習装置であって、少なくとも2つの中間層を備える学習済みのニューラルネットワークを取得する取得部と、前記少なくとも2つの中間層の中から、第1中間層及び第2中間層を選択する中間層選択部と、前記第1中間層が有するノードと接続された仮出力ノードを有する第1仮出力層と、前記第2中間層が有するノードと接続された仮出力ノードを有する第2仮出力層とを前記ニューラルネットワークに追加して、仮ネットワークを生成する仮出力層追加部と、テストデータを前記仮ネットワークに入力して前記仮ネットワークを用いた演算を実行し、前記第1仮出力層が有する仮出力ノードから出力される第1仮出力値と、前記第2仮出力層が有する仮出力ノードから出力される第2仮出力値とを取得する演算部と、前記第1仮出力値と前記第2仮出力値とを用いて前記第1中間層の機能が第2中間層の機能に類似する度合いを示す類似度を計算し、計算した類似度に基づいて前記1中間層を削除するか否かを判断する削除判断部と、前記削除判断部が前記第1中間層を削除すると判断した場合、前記ニューラルネットワークから前記第1中間層を削除する再構成部と、を備える。 In order to solve the above-mentioned problem, an invention according to claim 1 is a machine learning device, comprising: an acquisition unit that acquires a learned neural network including at least two intermediate layers; and an intermediate between the at least two intermediate layers. From the intermediate layer selector that selects the first intermediate layer and the second intermediate layer, the first temporary output layer having a temporary output node connected to the node of the first intermediate layer, and the second intermediate layer A temporary output layer adding unit that generates a temporary network by adding a second temporary output layer having a temporary output node connected to the node having the temporary output node; An operation using a network is executed, and the first temporary output value output from the temporary output node included in the first temporary output layer and the temporary output node included in the second temporary output layer are output. The degree of similarity of the function of the first intermediate layer to the function of the second intermediate layer is shown using the arithmetic unit for obtaining the second temporary output value, and the first temporary output value and the second temporary output value. Calculating a similarity, and determining whether to delete the one intermediate layer based on the calculated similarity; and when the deletion determining unit determines to delete the first intermediate layer, the neural network A reconfiguration unit that deletes the first intermediate layer from the network.
請求項2記載の発明は、請求項1に記載の機械学習装置であって、前記第1中間層は、前記第2中間層よりも前記ニューラルネットワークが備える入力層に近い位置に配置される。 A second aspect of the present invention is the machine learning device according to the first aspect, wherein the first intermediate layer is disposed closer to the input layer included in the neural network than the second intermediate layer.
請求項3記載の発明は、請求項1又は請求項2に記載の機械学習装置であって、前記第1仮出力層が有する仮出力ノードの数は、前記第2仮出力層が有する仮出力ノードと同じである。 The invention according to claim 3 is the machine learning device according to claim 1 or 2, wherein the number of temporary output nodes included in the first temporary output layer is the temporary output included in the second temporary output layer. Same as node.
請求項4記載の発明は、請求項3に記載の機械学習装置であって、前記第1仮出力層が有する仮出力ノードの数は、前記ニューラルネットワークにおける出力層が有する出力ノードの数と同じである。 The invention according to claim 4 is the machine learning device according to claim 3, wherein the number of temporary output nodes of the first temporary output layer is the same as the number of output nodes of the output layer in the neural network. It is.
請求項5記載の発明は、請求項1ないし請求項4のいずれかに記載の機械学習装置であって、前記仮出力層追加部は、前記第2中間層が有するノードが前記ニューラルネットワークにおける出力層が有するノードと接続されている場合、前記第2仮出力層として、前記出力層を使用することを決定する。 A fifth aspect of the present invention is the machine learning device according to any one of the first to fourth aspects, wherein the provisional output layer adding unit outputs nodes in the second intermediate layer in the neural network. If the layer is connected to a node, the output layer is determined to be used as the second temporary output layer.
請求項6記載の発明は、請求項1ないし請求項5のいずれかに記載の機械学習装置であって、さらに、前記第1中間層が有するノードと前記第1仮出力層が有するノードとの間の信号経路に設定される重み係数と、前記第2中間層が有するノードと前記第2仮出力層が有するノードとの間の信号経路に設定される重み係数とを更新するための学習を実行する追加学習部、を備える。 A sixth aspect of the present invention is the machine learning device according to any one of the first to fifth aspects, further comprising a node included in the first intermediate layer and a node included in the first temporary output layer. Learning to update the weighting factor set in the signal path between and the weighting factor set in the signal path between the node of the second intermediate layer and the node of the second temporary output layer An additional learning unit to be executed.
請求項7記載の発明は、請求項1ないし請求項6のいずれかに記載の機械学習装置であって、さらに、前記再構成部は、前記第1中間層が前記ニューラルネットワークの入力層から数えてk(kは2以上m−1以下の自然)番目の層である場合、(k−1)番目の層が有するノードと(k+1)番目の層が有するノードとを新たに接続し、(k−1)番目の層が有するノードと、(k+1)番目の層が有するノードの間の信号経路に設定される重み係数を更新するための学習を実行する。 A seventh aspect of the present invention is the machine learning device according to any one of the first to sixth aspects, wherein the reconfiguration unit counts the first intermediate layer from the input layer of the neural network. And k (k is a natural value of 2 to m−1) th layer, the node of the (k−1) th layer is newly connected to the node of the (k + 1) th layer, Learning for updating the weighting factor set in the signal path between the node of the (k-1) th layer and the node of the (k + 1) th layer is executed.
請求項8記載の発明は、機械学習方法であって、少なくとも2つの中間層を備える学習済みのニューラルネットワークを取得するステップと、前記少なくとも2つの中間層の中から、第1中間層及び第2中間層を選択するステップと、前記第1中間層が有するノードと接続された仮出力ノードを有する第1仮出力層と、前記第2中間層が有するノードと接続された仮出力ノードを有する第2仮出力層とを前記ニューラルネットワークに追加して、仮ネットワークを生成するステップと、テストデータを前記仮ネットワークに入力して前記仮ネットワークを用いた演算を実行し、前記第1仮出力層が有する仮出力ノードから出力される第1仮出力値と、前記第2仮出力層が有する仮出力ノードから出力される第2仮出力値とを取得するステップと、前記第1仮出力値と前記第2仮出力値とを用いて前記第1中間層の機能が第2中間層の機能に類似する度合いを示す類似度を計算し、計算した類似度に基づいて前記1中間層を削除するか否かを判断するステップと、前記第1中間層を削除すると判断された場合、前記ニューラルネットワークから前記第1中間層を削除するステップと、を備える。
The invention according to
本発明に係る機械学習装置は、学習済みのニューラルネットワークを取得する。中間層選択部は、取得したニューラルネットワークに含まれる2つの中間層を選択する。仮出力層追加部は、選択した2つの中間層の各々に接続される仮出力層をニューラルネットワークに追加して、仮ネットワークを生成する。仮ネットワークを用いた演算により、仮出力値が、仮出力層から出力される。削除判断部は、仮出力値に基づいて2つの中間層の類似度を算出し、算出した類似度に基づいて2つの中間層のうちいずれか一方の中間層を削除することができるか否かを判断する。再構成部は、いずれか一方の中間層を削除できると判断された場合、ニューラルネットワークからいずれか一方の中間層を削除する。これにより、機械学習装置は、要求される学習精度に応じた適切な規模のニューラルネットワークを生成することができる。 The machine learning device according to the present invention acquires a learned neural network. The intermediate layer selection unit selects two intermediate layers included in the acquired neural network. The temporary output layer adding unit adds a temporary output layer connected to each of the two selected intermediate layers to the neural network to generate a temporary network. A temporary output value is output from the temporary output layer by a calculation using the temporary network. The deletion determining unit calculates the similarity between the two intermediate layers based on the temporary output value, and determines whether one of the two intermediate layers can be deleted based on the calculated similarity. Judging. When it is determined that one of the intermediate layers can be deleted, the reconstruction unit deletes one of the intermediate layers from the neural network. As a result, the machine learning device can generate a neural network of an appropriate scale according to the required learning accuracy.
以下、図面を参照し、本発明の実施の形態を詳しく説明する。図中同一又は相当部分には同一符号を付してその説明は繰り返さない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals and description thereof will not be repeated.
{1.機械学習装置100の概略}
図1は、本発明の実施の形態に係る機械学習装置100の構成を示す機能ブロック図である。図1に示すように、機械学習装置100は、学習済みのニューラルネットワーク3Aを入力する。機械学習装置100は、ニューラルネットワーク3Aが有する中間層のうち、削除することが可能な中間層を特定する。機械学習装置100は、ニューラルネットワーク3Aから特定した中間層を削除したニューラルネットワークを出力する。
{1. Outline of Machine Learning Device 100}
FIG. 1 is a functional block diagram showing a configuration of a
図2は、機械学習装置100に入力されるニューラルネットワーク3Aの構成の一例を示す図である。図2に示すように、ニューラルネットワーク3Aは、6層のパーセプトロンであり、入力層21と、中間層22〜25と、出力層26とを備える。入力層21は、入力ノード21a〜21dを備える。中間層22は、ノード22a〜22dを備える。中間層23は、ノード23a〜23dを備える。中間層24は、ノード24a〜24dを備える。中間層25は、ノード25a〜25dを備える。出力層26は、出力ノード26a〜26cを備える。出力ノード26a〜26cは、通常出力値46a〜46cを出力する。以下、通常出力値46a〜46cを総称する場合、通常出力値46と記載する。
FIG. 2 is a diagram illustrating an example of the configuration of the neural network 3 </ b> A input to the
ニューラルネットワーク3Aは、上述のように学習済みであり、例えば、カメラにより撮影された画像から、複数種類の物体を検出するために用いられる。複数種類の物体は、例えば、イヌ、ネコ及びその他の物体である。ニューラルネットワーク3Aの学習アルゴリズムは特に限定されない。ニューラルネットワーク3Aの学習において、転移学習を用いてもよい。
The
機械学習装置100は、図2に示すニューラルネットワーク3Aが入力された場合、中間層22〜25から2つの中間層を選択する。機械学習装置100は、選択した2つの中間層の類似度に基づいて、選択した2つの中間層のうちいずれか一方を削除することができるか否かを判断する。類似度の算出方法については、後述する。
When the
例えば、機械学習装置100は、ニューラルネットワーク3Aにおいて中間層22及び23を選択し、中間層22及び23の類似度を算出する。機械学習装置100は、算出した類似度に基づいて、中間層22及び23のうち中間層22を削除することを決定する。機械学習装置100は、ニューラルネットワーク3Aから中間層22を削除したネットワークを、ニューラルネットワーク3Dとして生成する。ニューラルネットワーク3Dは、ニューラルネットワーク3Aと同等の学習精度を有し、かつ、ニューラルネットワーク3Aの規模よりも小さい。このように、機械学習装置100は、求められる学習精度に応じた適切な規模のニューラルネットワーク3Dを作成することができる。
For example, the
{2.機械学習装置100の構成}
図1に示すように、機械学習装置100は、ネットワーク取得部11と、中間層選択部12と、仮出力層追加部13と、追加学習部14と、演算部15と、削除判断部16と、再構成部17と、終了判断部18とを備える。
{2. Configuration of Machine Learning Device 100}
As illustrated in FIG. 1, the
ネットワーク取得部11は、学習済みのニューラルネットワーク3Aを取得する。ネットワーク取得部11は、LAN(Local Area Network)を介して他のコンピュータからニューラルネットワーク3Aを受信してもよいし、Blu−rayディスクなどの不揮発性記録媒体から取得してもよい。あるいは、ネットワーク取得部11は、学習済みのニューラルネットワーク3Aを自ら生成してもよい。
The
中間層選択部12は、ネットワーク取得部11により取得されたニューラルネットワーク3Aに含まれる中間層22〜25の中から、2つの中間層を選択する。
The intermediate
仮出力層追加部13は、選択された2つの中間層の各々と接続される仮出力層を、ニューラルネットワーク3Aに追加する。仮出力層追加部13は、ニューラルネットワーク3Aに仮出力層を追加したネットワークを、ニューラルネットワーク3Bとして出力する。例えば、中間層選択部12が中間層22及び23を選択した場合、仮出力層追加部13は、中間層22が有する各ノードと接続されたノードを有する仮出力層と、中間層23が有する各ノードと接続されたノードを有する仮出力層とを、ニューラルネットワーク3Aに追加する。
The temporary output
追加学習部14は、学習データ4を用いて、ニューラルネットワーク3Bの追加学習を行う。学習データ4は、例えば、イヌ、ネコ及びその他の物体のいずれか1つが撮影された画像である。追加学習部14は、ニューラルネットワーク3Bにおける信号経路のうち、仮出力層の追加により新たに設けられた信号経路の重み計数を更新する。重み計数の更新には、誤差逆伝播法(バックプロパゲーション)が用いられる。追加学習部14は、ニューラルネットワーク3Bにおける信号経路の重み計数を更新したネットワークを、ニューラルネットワーク3Cとして出力する。
The
演算部15は、ニューラルネットワーク3Cにテストデータ5を入力して、ニューラルネットワーク3Cを用いた演算を実行する。テストデータ5は、学習データ4と同様に、イヌ、ネコ及びその他の物体のいずれかが撮影された画像である。ニューラルネットワーク3Cは、演算結果として、出力層26が有する出力ノード26a〜26cから通常出力値46を出力する。また、ニューラルネットワーク3Cは、一方の仮出力層から仮出力値を出力し、他方の仮出力層から仮出力値を出力する。
The calculation unit 15 inputs the test data 5 to the neural network 3C and executes a calculation using the neural network 3C. Similarly to the learning data 4, the test data 5 is an image in which any one of a dog, a cat, and other objects is photographed. The neural network 3C outputs a normal output value 46 from the
削除判断部16は、仮出力値に基づいて、中間層選択部12により選択された2つの中間層の類似度を算出する。類似度の算出方法については、後述する。削除判断部16は、算出した類似度に基づいて、中間層選択部12により選択された2つの中間層のうちいずれか一方を削除することができるか否かを判断する。
The
再構成部17は、削除判断部16が2つの中間層のうちいずれか一方の中間層を削除することができると判断した場合、いずれか一方の中間層をニューラルネットワーク3Aから削除することにより、ニューラルネットワーク3Dを生成する。再構成部17は、生成したニューラルネットワーク3Dの再学習を行う。ニューラルネットワーク3Dの再学習において、再構成部17は、ニューラルネットワーク3Aの学習に用いられたアルゴリズムを使用する。
When the reconfiguration unit 17 determines that the
終了判断部18は、学習済みのニューラルネットワーク3Dから中間層をさらに削除するか否かを判断する。具体的には、終了判断部18は、ニューラルネットワーク3Aが有する中間層の数から、ニューラルネットワーク3Dが有する中間層の数を減算することにより、ニューラルネットワーク3Aから削除された中間層の数を決定する。
The
削除された中間層の数が予め設定された終了基準値に達していない場合、終了判断部18は、ニューラルネットワーク3Dから中間層をさらに削除することができると判断する。終了判断部18は、ニューラルネットワーク3Dを中間層選択部12及び仮出力層追加部13に出力する。これにより、機械学習装置100は、ニューラルネットワーク3Dから中間層を削除することができるか否かを判断する処理を繰り返す。
When the number of deleted intermediate layers does not reach the preset end reference value, the
削除された中間層の数が終了基準値に達している場合、終了判断部18は、ニューラルネットワーク3Dから中間層をさらに削除することができないと判断する。この場合、終了判断部18は、ニューラルネットワーク3Dを機械学習装置100の外部に出力する。機械学習装置100の外部に出力されたニューラルネットワーク3Dは、イヌ、ネコ及びその他の物体を識別する物体検出装置(図示省略)に用いられる。
When the number of deleted intermediate layers reaches the end reference value, the
{3.機械学習装置100の動作}
以下、図2に示すニューラルネットワーク3Aが機械学習装置100に入力される場合を例にして、機械学習装置100の動作について詳しく説明する。図3は、機械学習装置100の動作を示すフローチャートである。
{3. Operation of Machine Learning Device 100}
Hereinafter, the operation of the
{3.1.中間層22の削除}
最初に、図2に示すニューラルネットワーク3Aから中間層22を削除する場合を例として、機械学習装置100の動作を説明する。
{3.1. Delete intermediate layer 22}
First, the operation of the
{3.1.1.ニューラルネットワーク3Aの取得}
図3に示すように、ネットワーク取得部11は、機械学習装置100に入力されるニューラルネットワーク3Aを取得する(ステップS1)。
{3.1.1. Acquisition of
As shown in FIG. 3, the
ニューラルネットワーク3Aは、各層に含まれるノードを定義するデータと、2つのノードを接続する信号経路の重み計数とを含むデータである。信号経路は、2つの層が互いに隣接している場合において、一方の層が有する1つのノードと、他方の層が有するノードとを接続する。ニューラルネットワーク3Aが学習済みであるため、ニューラルネットワーク3Aに含まれる重み計数は、イヌ、ネコ及びその他の物体を識別するために既に調整されている。
The
図2に示すニューラルネットワーク3Aは、6層のパーセプトロンであるが、ニューラルネットワーク3Aの構成は、これに限定されない。ニューラルネットワーク3Aは、少なくとも2つの中間層を備えていればよい。つまり、ニューラルネットワーク3Aが備える層の数は、4以上であればよい。ニューラルネットワーク3Aの各層が備えるノードの数は、特に限定されない。
The
図2に示すニューラルネットワーク3Aにおいて、重み計数が設定される信号経路の「区間」を定義する。ここで、「区間」は、ニューラルネットワーク3Aにおける信号経路の位置を示すための便宜的な呼称である。具体的には、区間A1は、入力層21から中間層22までの区間である。区間B1は、中間層22から中間層23までの区間である。区間C1は、中間層23から中間層24までの区間である。区間D1は、中間層24から中間層25までの区間である。区間E1は、中間層25から出力層26までの区間である。次に、ニューラルネットワーク3Aにおける方向を定義する。ニューラルネットワーク3Aに含まれる任意の中間層に着目する、着目した中間層を基準にして、入力層21が位置する方向を「下方向」と定義し、出力層26が位置する方向を「上方向」と定義する。
In the neural network 3 </ b> A shown in FIG. 2, a “section” of a signal path in which a weight count is set is defined. Here, “section” is a convenient name for indicating the position of the signal path in the
{3.1.2.中間層の選択}
中間層選択部12は、ニューラルネットワーク3Aが有する中間層22〜25の中から、2つの中間層を選択する(ステップS2)。例えば、中間層選択部12は、中間層22及び23を選択する
中間層選択部12は、互いに隣接する2つの中間層を選択することが望ましい。以下、その理由を説明する。上述のように、機械学習装置100は、ニューラルネットワーク3Aが有する中間層22〜25の中で、類似する機能を有する2つの中間層を特定することができた場合、この2つの中間層のいずれか一方をニューラルネットワーク3Aから削除する。
{3.1.2. Middle layer selection}
The intermediate
ニューラルネットワーク3Aにおいて、2つの中間層の距離が近いほど、この2つの中間層の機能が近づくと考えられる。ニューラルネットワーク3Aの用途によって、各中間層の機能も変化するが、入力層21に近い中間層は、抽象的な概念を分類する機能を有し、出力層26に近い中間層は、具体的な概念を分類する機能を有すると理解することができる。
In the
例えば、ニューラルネットワーク3Aが、撮影された画像から、イヌ、ネコ及びその他の物体のいずれかを検出する機能を有する場合を考える。この場合、入力層21に近い中間層は、画像中の物体が動物であるか否かを判別し、出力層26に近い中間層は、画像中の動物がイヌであるかネコであるかを判別すると解釈することができる。
For example, consider a case where the
従って、ニューラルネットワーク3Aにおいて、隣接する2つの中間層は、互いに類似する機能を有していると予想される。このため、中間層選択部12は、隣接する2つの中間層を選択することが望ましい。ただし、選択される2つの中間層は、互いに隣接していなくてもよい。
Accordingly, in the
{3.1.3.仮出力層の追加}
中間層選択部12は、ステップS2において選択した2つの中間層を特定する中間層選択データを、仮出力層追加部13に出力する。仮出力層追加部13は、中間層選択データに基づいて、ニューラルネットワーク3Aに2つの仮出力層を追加する(ステップS3)。
{3.1.3. Add temporary output layer}
The intermediate
図4は、仮出力層を備えるニューラルネットワーク3Bを示す図である。図4に示すニューラルネットワーク3Bは、図2に示すニューラルネットワーク3Aに仮出力層32及び33を追加することにより生成される。図4において、中間層24及び25と出力層26の表示を省略している。
FIG. 4 is a diagram showing a
以下、ステップS2(図3参照)において、中間層22及び23が選択された場合を例にして、仮出力層の追加(ステップS3)について詳しく説明する。最初に、仮出力層追加部13は、選択された中間層22及び23の中で、上方向に位置する中間層23を特定する。仮出力層追加部13は、特定した中間層23に対応する仮出力層33を、ニューラルネットワーク3Aに追加する。
Hereinafter, the provisional output layer addition (step S3) will be described in detail by taking as an example the case where the
具体的には、仮出力層追加部13は、仮出力ノード33a〜33cを有する仮出力層33を生成する。仮出力層追加部13は、仮出力ノード33a〜33cの各々を、中間層23が有するノード23a〜23dと接続することにより、仮出力層33をニューラルネットワーク3Aに追加する。仮出力層33が有する仮出力ノードの数は、出力層26が有する出力ノードの数と同じとなるように設定される。この理由については、後述する。
Specifically, the temporary output
仮出力層追加部13は、仮出力層33の追加に伴って、中間層23と仮出力層33との間の区間G1における各信号経路の重み計数の初期値を設定する。重み計数の初期値は、例えば、予め定められた分散の範囲内に収まるようにランダムに設定される。
The temporary output
次に、仮出力層追加部13は、選択された中間層22及び23の中で、下方向に位置する中間層22を特定する。仮出力層追加部13は、特定した中間層22に対応する仮出力層32を、ニューラルネットワーク3Aに追加する。
Next, the temporary output
具体的には、仮出力層追加部13は、仮出力ノード32a〜32cを有する仮出力層32を生成する。仮出力層追加部13は、仮出力ノード32a〜32cの各々を、中間層22が有するノード22a〜22dと接続することにより、仮出力層32をニューラルネットワーク3Aに追加する。仮出力層32が有する仮出力ノードの数は、出力層26が有する出力ノードの数に一致する。
Specifically, the temporary output
仮出力層追加部13は、仮出力層32の追加に伴って、中間層22と仮出力層32との間の区間F1における各信号経路の重み計数の初期値を設定する。重み計数の初期値は、予め定められた分散の範囲内に収まるようにランダムに設定される。
The temporary output
仮出力層32が有する仮出力ノード32a〜32cの各々は、出力ノード26a〜26cのいずれか1つに対応する。仮出力層33が有する仮出力ノード33a〜33cについても同様である。具体的には、仮出力ノード32a及び33aは、出力ノード26aに対応する。仮出力ノード32b及び33bは、出力ノード26bに対応する。仮出力ノード32c及び33cは、出力ノード26cに対応する。
Each of the
このようにして、仮出力層32及び33が、ニューラルネットワーク3Aに追加される。仮出力層追加部13は、ニューラルネットワーク3Aに仮出力層32及び33を追加したネットワークを、ニューラルネットワーク3Bとして出力する。
In this way, the
{3.1.4.追加学習}
再び、図3を参照する。追加学習部14は、仮出力層追加部13が出力したニューラルネットワーク3Bを入力する。追加学習部14は、ニューラルネットワーク3Bの追加学習を実行する(ステップS4)。
{3.1.4. Additional learning}
Reference is again made to FIG. The
図4を参照しながら、追加学習(ステップS4)について詳しく説明する。追加学習部14は、区間F1及びG1における信号経路の重み計数のみを更新する。区間A1、B1、C1、D1及びE1における信号経路の重み計数は、更新されない。つまり、追加学習(ステップS4)は、ステップS2で選択された中間層と、選択された中間層と接続された仮出力層との間の区間における信号経路の重み計数を更新する処理である。
The additional learning (step S4) will be described in detail with reference to FIG. The
追加学習は、誤差逆伝播法を用いて実行される。具体的には、追加学習部14は、学習データ4をニューラルネットワーク3Bに入力し、ニューラルネットワーク3Bを用いた演算を実行する。学習データ4は、例えば、イヌ、ネコ、及びその他物体のいずれかが撮影された画像データである。
Additional learning is performed using the error back propagation method. Specifically, the
追加学習部14は、学習データ4を入力としたニューラルネットワーク3Bの演算により、仮出力値42a〜42c及び43a〜43cを取得する。
The
仮出力値42a〜42cは、学習データ4又は後述するテストデータ5をニューラルネットワーク3Bに入力した場合において、ニューラルネットワーク3Bの演算により仮出力ノード32a〜32cから出力される出力値である。以下、仮出力値42a〜42cを総称する場合、仮出力値42と記載する。仮出力値43a〜43cは、ニューラルネットワーク3Bの演算により仮出力ノード33a〜33cから出力される出力値である。以下、仮出力値43a〜43cを総称する場合、仮出力値42と記載する。以下、学習データ4をニューラルネットワーク3Bに入力することにより得られる仮出力値42及び43を、追加学習用の仮出力値と記載する。
The temporary output values 42a to 42c are output values output from the
追加学習部14は、正解値から追加学習用の仮出力値42を減算することにより、仮出力ノード32a〜32cの各々に対応する誤差値を算出する。正解値(教師信号)は、学習データ4をニューラルネットワーク3Bに入力した場合において、出力ノード26a〜26cの各々が出力すべき値として予め決定された値である。
The
例えば、仮出力ノード32aに対応する誤差値は、出力ノード26aの正解値から、追加学習用の仮出力値42aを減算することにより得られる。追加学習部14は、仮出力ノード32a〜32cの各々に対応する誤差値を仮出力ノード32a〜32cに入力し、入力した誤差値に基づいて区間F1における信号経路の重み計数を更新する。
For example, the error value corresponding to the
追加学習部14は、同様に、正解値から追加学習用の仮出力値43を減算することにより、仮出力ノード33a〜33cの各々に対応する誤差値を算出する。追加学習部14は、仮出力ノード33a〜33cの各々に対応する誤差値を仮出力ノード33a〜33cに入力し、入力した誤差値に基づいて区間G1における信号経路の重み計数を更新する。
Similarly, the
区間F1及びG1における信号経路の重み計数のみが、追加学習において更新される理由を説明する。追加学習部14は、追加学習(ステップS4)を実行する際に、仮出力ノード32a〜32cの各々に入力される誤差値に基づいて、区間A1における信号経路の重み計数を更新することが可能である。また、追加学習部14は、仮出力ノード33a〜33cの各々に入力される誤差値に基づいて、区間A1及びB1の各々における信号経路の重み計数を更新することが可能である。
The reason why only the weighting factor of the signal path in the sections F1 and G1 is updated in the additional learning will be described. When performing additional learning (step S4), the
しかし、ニューラルネットワーク3Aは、学習済みであるため、区間A1及びB1の各々における信号経路の重み計数は、既に調整されている。追加学習(ステップS4)において、区間A1及びB1の各々における信号経路の重み計数を更新した場合、ニューラルネットワーク3Aの学習精度が低下する可能性がある。このため、追加学習部14は、仮出力層32及び33の追加により設けられた区間F1及びG1における信号経路の重み計数のみを更新する。追加学習の完了したニューラルネットワーク3Bは、ニューラルネットワーク3Cとして演算部15に出力される。
However, since the
{3.1.5.類似度の算出}
演算部15は、追加学習部14が出力したニューラルネットワーク3Cを入力する。演算部15は、テストデータ5をニューラルネットワーク3Cに入力し、ニューラルネットワーク3Cを用いた演算を実行する(ステップS5)。テストデータ5は、本実施の形態では、イヌ、ネコ及びその他物体のいずれかが撮影された画像データである。図4に示すように、ニューラルネットワーク3Cは、テストデータ5を用いた演算結果として、仮出力ノード32a〜32cから仮出力値42を出力し、仮出力ノード33a〜33cから仮出力値43を出力する。
{3.1.5. Calculation of similarity}
The calculation unit 15 receives the neural network 3C output from the
削除判断部16は、仮出力値42及び43を演算部15から取得する。削除判断部16は、取得した仮出力値42及び43を用いて、中間層22と中間層23との類似度を算出する(ステップS6)。類似度は、2つの確率密度分布の類似性を示すパラメータである、バタチャリヤ距離を計算することにより得られる。具体的には、類似度は、下記式(1)を用いて算出される。
The
式(1)において、Sは、類似度である。p(i)は、2つの仮出力層のうち、一方の仮出力層における仮出力ノードから出力される仮出力値の確率密度分布である。q(i)は、他方の仮出力層における仮出力ノードから出力される仮出力値の確率密度分布である。iは、各仮出力層におけるi番目のノードを示す。 In equation (1), S is the similarity. p (i) is a probability density distribution of temporary output values output from the temporary output node in one temporary output layer of the two temporary output layers. q (i) is a probability density distribution of temporary output values output from the temporary output node in the other temporary output layer. i indicates the i-th node in each temporary output layer.
図4に示す例の場合、p(i)を、仮出力値42の確率密度分布に割り当て、q(i)を、仮出力値43の確率密度分布に割り当てることができる。削除判断部16は、仮出力値42a〜42cの各々の値を、0以上1以下の数値に正規化し、正規化された仮出力値42a〜42cを用いて確率密度分布p(i)を作成する。仮出力値43の確率密度分布q(i)も、同様に作成される。
In the case of the example shown in FIG. 4, p (i) can be assigned to the probability density distribution of the
式(1)により算出される類似度は、0以上1以下の数値である。仮出力値42と仮出力値43との差が小さくなるにつれて、類似度は、1に近づく。1つのテストデータ5に対して、1つの類似度が算出される。機械学習装置100は、ステップS5及びS6を繰り返すことにより、複数のテストデータ5の各々に対応する類似度を算出する。
The similarity calculated by the expression (1) is a numerical value of 0 or more and 1 or less. As the difference between the
なお、ステップS5において、ニューラルネットワーク3Cは、テストデータ5の演算結果として、通常出力値46を出力する。しかし、中間層22及び23がステップS2において選択されている場合、通常出力値46は、類似度の算出に用いられない。通常出力値46が類似度の算出に用いられる例については、後述する。
In step S5, the neural network 3C outputs a normal output value 46 as a calculation result of the test data 5. However, when the
{3.1.6.削除判断}
上述のように、演算部15が、所定数のテストデータ5をニューラルネットワーク3Cに入力して、ニューラルネットワーク3Cを演算することにより、削除判断部16は、所定数の類似度を算出する(ステップS5及びS6)。
{3.1.6. Deletion judgment}
As described above, the calculation unit 15 inputs a predetermined number of test data 5 to the neural network 3C and calculates the neural network 3C, so that the
所定数のテストデータ5を用いたニューラルネットワーク3Cの演算が終了した場合、削除判断部16は、所定数の類似度の平均値を算出する。削除判断部16は、算出した平均値を予め設定された類似基準値と比較することにより、中間層22及び23のいずれか一方を削除することができるか否かを判断する(ステップS7)。
When the calculation of the neural network 3C using the predetermined number of test data 5 is completed, the
上述のように、仮出力値42と仮出力値43との差が小さくなるにつれて、類似度は、1に近づく。類似度の平均値が1に近づくにつれて、ニューラルネットワーク3Aにおける中間層22及び23の機能が類似していると判断される。
As described above, the similarity degree approaches 1 as the difference between the
削除判断部16は、類似度の平均値が類似基準値よりも大きい場合、中間層22の機能が中間層23の機能に類似していると判断する。この場合、削除判断部16は、中間層22及び23のいずれか一方を削除することができると判断する(ステップS7においてYes)。削除判断部16は、中間層22及び23のうち、下方向に位置する中間層22を削除することを決定する。中間層22は、中間層23よりも出力層26から遠い位置にある。このため、中間層22は、中間層23よりも、出力層26が有する出力ノード26a〜26cから出力される通常出力値46に対して与える影響が小さい。このため、選択された2つの中間層22及び23のうち、下方向に位置する中間層22が削除される。
The
ここで、機械学習装置100が、2つの仮出力層から出力される仮出力値から類似度を算出し、算出した類似度を使用して2つの中間層が類似しているか否かを判断する理由を説明する。2つの中間層が類似しているか否かを判断する際に、一方の中間層からの出力値を、他方の中間層からの出力値と比較することが考えられる。しかし、一方の中間層からの出力値を、他方の中間層からの出力値と比較しても、2つの中間層が類似しているか否かを判断することは困難である。困難である理由として、2つの理由が挙げられる。
Here, the
第1の理由は、選択した2つの中間層の各々が有するノード数が同じであるとは限らないためである。図4に示す例では、ステップS2で選択された中間層22及び33の各々が有する数が同じとなっている。しかし、選択した2つの中間層の各々が有するノード数が異なる場合、一方の中間層が有するノードからの出力値を、他方の中間層が有するノードからの出力値と単純に比較することができない。
The first reason is that the number of nodes included in each of the two selected intermediate layers is not necessarily the same. In the example shown in FIG. 4, the number of each of the
第2の理由は、選択した2つの中間層の機能が類似しており、2つの中間層が有するノードの数が同じである場合であっても、一方の中間層が有するノードからの出力値が、他方の中間層が有するノードからの出力値と類似する値となるとは限らないためである。以下、詳しく説明する。 The second reason is that even if the functions of the two selected intermediate layers are similar and the number of nodes included in the two intermediate layers is the same, the output value from the node included in one of the intermediate layers This is because the value is not always similar to the output value from the node of the other intermediate layer. This will be described in detail below.
図4に示すニューラルネットワーク3Aの学習時に誤差逆伝播法を用いる場合、区間A1及びB1における信号経路の重み係数の初期値は、それぞれ所定の分散の範囲内に収まるようにランダムに設定される。また、区間A1を下方向に伝播する誤差は、区間B1を下方向に伝播する誤差よりも小さいため、区間A1における信号経路の重み係数の更新量は、区間B1における信号経路の重み係数の更新量と異なる。
When the error back-propagation method is used at the time of learning of the
この結果、中間層22及び23が類似する機能を有する場合であっても、区間A1及びB1において対応関係にある2つの信号経路の重み係数は、同じとはならない。例えば、図4において、区間A1におけるノード21bとノード22aとの間の信号経路は、区間B1におけるノード22bとノード23aとの信号経路に対応する。しかし、これら2つの信号経路の重み係数は、同じとはならない。ノード22aから出力される値と、ノード22aに対応するノード23aから出力される値とが一致したとしても、選択された中間層22及び23の機能が類似していると判断することはできない。
As a result, even when the
そこで、機械学習装置100は、選択した2つの中間層の各々に仮出力層を接続し、2つの仮出力層からの出力値の類似度に基づいて、選択した2つの中間層の機能が類似するか否かを判断する。
Therefore, the
一方の中間層に接続される仮出力層が有するノードの数を、他方の中間層に接続される仮出力層が有するノードの数と一致させる。また、2つの仮出力層が有する各々のノードを、出力層が有するノードに一対一に対応させる。これにより、一方の中間層に接続される仮出力層が有するノードと、他方の中間層に接続される仮出力層が有するノードとの対応関係を明確にすることができる。 The number of nodes included in the temporary output layer connected to one intermediate layer is made equal to the number of nodes included in the temporary output layer connected to the other intermediate layer. In addition, each node included in the two temporary output layers is made to correspond one-to-one with a node included in the output layer. As a result, it is possible to clarify the correspondence between a node included in the temporary output layer connected to one intermediate layer and a node included in the temporary output layer connected to the other intermediate layer.
一方の中間層と、一方の中間層に接続された仮出力層との間の信号経路における重み計数は、追加学習(ステップS4)により更新される。追加学習では、仮出力ノードに入力される誤差が、出力ノード26a〜26cから出力すべき正解値から算出される。従って、ニューラルネットワーク3Bにテストデータ5を入力した場合、仮出力層から出力される仮出力値は、一方の中間層が有する各ノードから出力される出力値と、出力ノードから出力される通常出力値46との関係を示すパラメータに相当する。つまり、仮出力層が有するノードから出力される仮出力値を、仮出力層が接続された中間層の機能を反映したパラメータとして使用することが可能である。
The weight count in the signal path between one intermediate layer and the temporary output layer connected to one intermediate layer is updated by additional learning (step S4). In the additional learning, the error input to the temporary output node is calculated from the correct value to be output from the
具体的には、仮出力値42は、中間層22の出力値に基づいて算出されるため、中間層22の機能を反映したパラメータである。仮出力値43は、中間層23の出力値に基づいて算出されるため、中間層23の機能を反映したパラメータである。また、仮出力層32が有する仮出力ノード23a〜23cと、仮出力層33が有する仮出力ノード33a〜33cとの対応関係が明確となっているため、仮出力値42a〜42cと、仮出力値43a〜43cとの対応関係も明確である。従って、仮出力値42の確率密度分布と、仮出力値43の確率密度分布とから算出された類似度を用いることにより、選択された2つの中間層22及び23が類似しているか否かを判断することが可能となる。
Specifically, the
{3.1.7.ニューラルネットワーク3Cの再構成}
再構成部17は、削除判断部16が2つの中間層のうち下方向に位置する中間層の削除を決定した場合、ニューラルネットワーク3Aを再構成する(ステップS8)。
{3.1.7. Reconfiguration of neural network 3C}
The reconfiguration unit 17 reconfigures the
例えば、中間層22及び23のうち中間層22の削除が決定された場合、再構成部17は、ニューラルネットワーク3Aにおいて、入力層21が有するノードと中間層22が有するノードとの接続を解除し、中間層22が有するノードと中間層23が有するノードとの接続を解除する。そして、再構成部17は、入力層21が有するノードと、中間層23が有するノードとを接続することにより、新たな信号経路を設定する。これにより、再構成部17は、ニューラルネットワーク3Aから中間層22を削除したネットワークとして、ニューラルネットワーク3Dを生成する。
For example, when it is determined that the
図5は、ステップS8において生成されるニューラルネットワーク3Dの構成を示す図である。図5に示すように、ニューラルネットワーク3Dは、図2に示すニューラルネットワーク3Aと異なり、中間層22を備えていない。ニューラルネットワーク3Dにおいて、入力層21が有する入力ノード21a〜21dが、中間層23が有するノード23a〜23dと直接接続されている。以下、入力層21と中間層23との間の区間を、区間A2と呼ぶ。
FIG. 5 is a diagram showing a configuration of the
区間A2における信号経路は、再構成部17により新たに設定される。再構成部17は、区間A2における信号経路の重み係数の初期値を、予め定められた分散の範囲内に収まるように設定する。その後、再構成部17は、ニューラルネットワーク3Dの再学習を実行する(ステップS9)。
The signal path in the section A2 is newly set by the reconstruction unit 17. The reconstruction unit 17 sets the initial value of the weighting factor of the signal path in the section A2 so as to be within a predetermined dispersion range. Thereafter, the reconfiguration unit 17 performs relearning of the
再学習には、ニューラルネットワーク3Aの学習の際に用いられた学習データが使用される。再学習のアルゴリズムは、ニューラルネットワーク3Aの学習に用いられたアルゴリズムと同じである。再学習により、ニューラルネットワーク3Dにおいて、区間A2における信号経路の重み係数だけでなく、区間C1、D1及びE1における信号経路の重み計数も更新される。これにより、ニューラルネットワーク3Dは、ニューラルネットワーク3Aと同等の学習精度を有することが可能となる。
For the relearning, learning data used in the learning of the
{3.1.8.終了判断}
再構成部17によるニューラルネットワーク3Dの再学習が終了した場合、終了判断部18は、中間層を削除する処理を終了するか否かを判断する(ステップS10)。
{3.1.8. End judgment}
When the re-learning of the
終了判断部18は、ニューラルネットワーク3Aから削除した中間層の数が予め設定された終了基準値となった場合、中間層を削除する処理を終了すると判断する。削除された中間層の数は、ニューラルネットワーク3Aが有する中間層の数からニューラルネットワーク3Bが有する中間層の数を削除することにより得られる。終了基準値を超える数の中間層がニューラルネットワーク3Aから削除されている場合、ニューラルネットワーク3Dの規模が、機械学習装置100に入力されるニューラルネットワーク3Aの規模より大幅に小さくなる。この結果、ニューラルネットワーク3Dの学習精度に悪影響を与える可能性がある。終了判断部18は、ニューラルネットワーク3Dの学習精度の低下を防ぐために、削除された中間層の数に基づいて、中間層の削除を継続するか否かを判断する。
When the number of intermediate layers deleted from the
現時点において、中間層22のみがニューラルネットワーク3Aから削除されており、削除された中間層の数は、1である。終了基準値が2に設定されている場合、削除された中間層の数は、終了基準値に達していない(ステップS10においてNo)。このため、終了判断部18は、ニューラルネットワーク3Aから中間層を削除する処理を継続する。具体的には、終了判断部18は、再学習済みのニューラルネットワーク3Dを、中間層選択部12及び仮出力層追加部13に出力する。機械学習装置100は、再びステップS2に戻り、ニューラルネットワーク3Dから中間層を削除する処理を実行する。
At present, only the
{3.2.中間層24の削除}
{3.2.1.中間層の選択及び仮出力層の追加}
中間層選択部12及び仮出力層追加部13は、終了判断部18からニューラルネットワーク3Dを取得する。中間層選択部12は、ニューラルネットワーク3Dにおいて、前回の選択時において選択しなかった中間層の中から、2つの中間層を選択する(ステップS2)。具体的には、前回の選択時において、中間層22及び23が選択されている。中間層選択部12は、ニューラルネットワーク3Dが有する中間層23〜25のうち、中間層24及び25を選択する。
{3.2. Delete intermediate layer 24}
{3.2.1. Select intermediate layer and add temporary output layer}
The intermediate
仮出力層追加部13は、中間層選択部12の選択に基づいて、ニューラルネットワーク3Dに新たな仮出力層を追加する(ステップS3)。図6は、ニューラルネットワーク3Dに仮出力層を追加したネットワークであるニューラルネットワーク3Eを示す図である。図6に示すニューラルネットワーク3Eにおいて、入力層21及び中間層22の表示を省略している。
The temporary output
図6に示すように、仮出力層追加部13は、中間層選択部12により選択された中間層24及び25のうち、中間層24のみに仮出力層34を接続する。仮出力層追加部13は、中間層25に仮出力層を接続しない。中間層選択部12により選択された中間層25は、出力層26に隣接している。このため、中間層25に接続された仮出力層として、出力層26を使用することが可能であると判断し、中間層25に仮出力層を接続しない。
As illustrated in FIG. 6, the temporary output
図6に示すように、仮出力層34は、出力層26が有するノードと同じ数のノードを備える。仮出力層34は、仮出力ノード34a〜34cを有する。仮出力ノード34aは、出力ノード26aに対応する。仮出力ノード34bは、出力ノード26bに対応する。仮出力ノード34cは、出力ノード26cに対応する。
As illustrated in FIG. 6, the
仮出力ノード34a〜34の各々は、中間層24が有するノード24a〜24dと接続される。仮出力層追加部13は、仮出力層34の追加に伴って、中間層24と仮出力層34との間の区間H1における信号経路の重み計数の初期値を設定する。重み計数の初期値は、仮出力層32及び33の追加と同様に、予め設定された分散の範囲内に収まるように、ランダムに設定される。
Each of
{3.2.2.追加学習}
追加学習部14は、仮出力層追加部13から出力されたニューラルネットワーク3Eを入力する。追加学習部14は、ニューラルネットワーク3Eの追加学習を実行する(ステップS4)。ニューラルネットワーク3Eの追加学習により、区間H1における信号経路の重み計数が更新される。ニューラルネットワーク3Eの追加学習では、区間A1、C1、D1及びE1における信号経路の重み計数は更新されない。ニューラルネットワーク3Eの追加学習は、ニューラルネットワーク3Bの追加学習と同様であるため、その詳細な説明を省略する。
{3.2.2. Additional learning}
The
{3.2.3.類似度の算出}
演算部15は、追加学習部14から出力されたニューラルネットワーク3Eを入力する。演算部15は、取得したニューラルネットワーク3Eにテストデータ5を入力して、ニューラルネットワーク3Eを用いた演算を実行する(ステップS5)。
{3.2.3. Calculation of similarity}
The calculation unit 15 receives the
ニューラルネットワーク3Eは、演算結果として、仮出力ノード34a〜34cから仮出力値44a〜44cを出力し、出力ノード26a〜26cから通常出力値46a〜46cを出力する。以下、仮出力値44a〜44cを総称する場合、仮出力値44と記載する。
As a calculation result, the
削除判断部16は、演算部15から仮出力値44及び通常出力値46を取得する。削除判断部16は、取得した仮出力値44及び通常出力値46を用いて、中間層選択部12により選択された中間層24及び25の類似度を算出する(ステップS6)。上記式(1)において、p(i)を仮出力値44の確率密度分布に割り当て、q(i)を通常出力値46の確率密度分布に割り当てることにより、中間層24及び25の類似度を算出することができる。
The
演算部15は、所定数のテストデータ5をニューラルネットワーク3Eに入力し、ニューラルネットワーク3Eを用いた演算を実行する(ステップS5)。削除判断部16は、各テストデータ5に対応する仮出力値44及び通常出力値46を取得し、各テストデータ5に対応する類似度を算出する(ステップS6)。
The calculation unit 15 inputs a predetermined number of test data 5 to the
{3.2.4.削除判断}
所定数のテストデータ5を用いたニューラルネットワーク3Eの演算が終了した場合、削除判断部16は、算出した複数の類似度の平均値を算出し、算出した類似度を削除基準値と比較する。ここで、中間層24及び25の類似度が削除基準値よりも大きいと仮定する。この場合、削除判断部16は、中間層24及び25のいずれか一方を削除することができると判断する(ステップS7においてYes)。削除判断部16は、中間層24及び25のうち下方向に位置する中間層24を削除することを決定する。
{3.2.4. Deletion judgment}
When the calculation of the
{3.2.5.ニューラルネットワークの再構成}
再構成部17は、削除判断部16による中間層24の削除の決定に基づいて、ニューラルネットワーク3Dを再構成する(ステップS8)。具体的には、再構成部17は、ニューラルネットワーク3Dにおいて、中間層23が有するノード23a〜23dと、中間層24が有するノード24a〜24dとの接続を解除し、中間層24が有するノード24a〜24dと、中間層25が有するノード25a〜25dとの接続を解除する。再構成部17は、中間層23が有するノード23a〜23dの各々を、中間層25が有するノード25a〜25dと接続する。これにより、中間層24がニューラルネットワーク3Dから削除される。
{3.2.5. Reconfiguration of neural network}
The reconfiguration unit 17 reconfigures the
図7は、図6に示すニューラルネットワーク3Dから中間層24を削除したネットワークであるニューラルネットワーク3Fを示す図である。図7に示すように、ニューラルネットワーク3Fは、図5に示すニューラルネットワーク3Dと異なり、中間層24を備えていない。ニューラルネットワーク3Fにおいて、中間層23が有するノード23a〜23dの各々が、中間層25が有するノード25a〜25dと直接接続されている。以下、ニューラルネットワーク3Fにおける中間層23と中間層25との間の区間を、区間C2と呼ぶ。
FIG. 7 is a diagram showing a
区間C2における信号経路は、再構成部17により新たに設定される。再構成部17は、区間C2における信号経路の重み係数の初期値を、予め定められた分散の範囲内に収まるように設定する。その後、再構成部17は、ニューラルネットワーク3Fの再学習を実行する(ステップS9)。再学習により、ニューラルネットワーク3Fにおいて、区間C2における信号経路の重み係数だけでなく、区間A2及びE1における信号経路の重み計数も更新される。ニューラルネットワーク3Fの再学習は、ニューラルネットワーク3Dの再学習と同様であるため、その詳細な説明を省略する。
The signal path in the section C2 is newly set by the reconstruction unit 17. The reconstruction unit 17 sets the initial value of the weighting factor of the signal path in the section C2 so as to be within a predetermined dispersion range. Thereafter, the reconfiguration unit 17 performs relearning of the
再構成部17によるニューラルネットワーク3Fの再学習が終了した場合、終了判断部18は、ニューラルネットワーク3Aから中間層を削除する処理を終了するか否かを判断する(ステップS10)。
When the re-learning of the
現時点において、中間層22及び24がニューラルネットワーク3Aから削除されているため、削除された中間層の数は、2である。終了基準値が2に設定されている場合、削除された中間層の数が基準値に達している(ステップS10においてYes)。この場合、終了判断部18は、ニューラルネットワーク3Aから中間層を削除する処理を終了すべきであると判断する。機械学習装置100は、再学習済みのニューラルネットワーク3Fを出力する。
At this time, since the
また、終了判断部18は、ニューラルネットワーク3Aが有する全ての中間層を選択した場合、ニューラルネットワーク3Aから中間層を削除する処理を終了する。全ての中間層が選択された場合、機械学習装置100は、削除可能な中間層を新たに特定することができないためである。
Further, when all the intermediate layers included in the
このように、機械学習装置100は、入力されたニューラルネットワーク3Aにおいて2つの中間層を選択し、選択された2つの中間層の各々に仮出力層を接続する。機械学習装置100は、選択された2つの中間層のうち、一方の中間層に接続された仮出力層から出力される仮出力値と、他方に接続された仮出力層から出力される仮出力値とに基づいて、選択された2つの中間層のうち一方の中間層を削除することができるか否かを判断する。機械学習装置は、削除することができると判断した場合、ニューラルネットワーク3Aから、選択された2つの中間層のうち1つを削除したネットワークを生成する。これにより、機械学習装置100は、ニューラルネットワーク3Aと同等の学習精度を有し、ニューラルネットワーク3Aよりも規模の小さいニューラルネットワーク3Eを作成することができる。つまり、機械学習装置100は、予め要求された学習精度を有し、かつ、適切な規模のニューラルネットワークを作成することができる。
In this way, the
{変形例}
上記実施の形態において、中間層選択部12が、ニューラルネットワーク3D(図5参照)から中間層24及び25を選択する例を説明したが、これに限られない。中間層選択部12は、ニューラルネットワーク3Dにおいて、中間層23を再度選択してもよい。具体的には、中間層選択部12は、ニューラルネットワーク3Dを入力した場合、中間層23及び24を選択してもよい。中間層23及び24の類似度が削除基準値を超えている場合、中間層23が、ニューラルネットワーク3Dから削除される。
{Modifications}
In the above embodiment, the example in which the intermediate
上記実施の形態において、中間層選択部12が、下方向に位置する中間層から順に選択する例を説明したが,これに限られない。中間層選択部12が、中間層を選択する順序は特に限定されず、上方向に位置する中間層から順に選択してもよい。
In the said embodiment, although the intermediate | middle
上記実施の形態において、終了判断部18が、削除された中間層の数が終了基準値に達しているか否かに基づいて、ニューラルネットワーク3Aから中間層を削除する処理を終了するか否かを判断する例を説明したが、これに限られない。終了判断部18は、再構成部17から出力されたニューラルネットワークにおける中間層の数が、予め設定された基準値に達した場合、中間層を削除する処理を終了すると判断してもよい。例えば、基準値が3に設定されている場合を考える。この場合、図6に示すニューラルネットワーク3Dが有する中間層の数が3であるため、終了判断部18は、ニューラルネットワーク3Dから中間層24を削除する処理を実行しない。終了判断部18は、ニューラルネットワーク3Dを機械学習装置100の外部に出力する。
In the above embodiment, the
上記実施の形態において、削除判断部16が、式(1)を用いて、2つの中間層の類似度を算出する例を説明したが、これに限られない。削除判断部16は、仮出力値42a〜42cの各々の値を、0以上1以下の数値に正規化し、仮出力値43a〜43cの各々の値を同様に正規化する。そして、削除判断部は、対応する2つの仮出力値の差分絶対値を計算し、差分絶対値の合計を類似度として算出してもよい。この場合、類似度は、0に近づくほど、2つの中間層の機能が類似していることを示す。
In the above embodiment, an example has been described in which the
また、上記実施の形態における機械学習装置100の各機能ブロック(各機能部)の処理の一部または全部は、プログラムにより実現されるものであってもよい。そして、上記実施の形態の機械学習装置100において、各機能ブロックの処理の一部または全部は、コンピュータにおいて、中央演算装置(CPU)により行われる。また、それぞれの処理を行うためのプログラムは、ハードディスク、ROMなどの記憶装置に格納されており、ROMにおいて、あるいはRAMに読み出されて実行される。例えば、機械学習装置100の構成を、図13に示すような構成とすることにより、上記各実施形態の各機能ブロック(各機能部)の処理の一部または全部が実行されるものであっても良い。
In addition, part or all of the processing of each functional block (each functional unit) of the
また、上記実施の形態の各処理をハードウェアにより実現してもよいし、ソフトウェア(OS(オペレーティングシステム)、ミドルウェア、あるいは、所定のライブラリとともに実現される場合を含む。)により実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現しても良い。 In addition, each process of the above embodiment may be realized by hardware, or may be realized by software (including a case where it is realized together with an OS (operating system), middleware, or a predetermined library). . Further, it may be realized by mixed processing of software and hardware.
また、上記実施の形態における処理方法の実行順序は、必ずしも、上記実施形態の記載に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えることができるものである。 Moreover, the execution order of the processing method in the said embodiment is not necessarily restricted to description of the said embodiment, The execution order can be changed in the range which does not deviate from the summary of invention.
前述した方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、大容量DVD、次世代DVD、半導体メモリを挙げることができる。 A computer program that causes a computer to execute the above-described method and a computer-readable recording medium that records the program are included in the scope of the present invention. Here, examples of the computer-readable recording medium include a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, large-capacity DVD, next-generation DVD, and semiconductor memory. .
上記コンピュータプログラムは、上記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。 The computer program is not limited to the one recorded on the recording medium, and may be transmitted via a telecommunication line, a wireless or wired communication line, a network represented by the Internet, or the like.
また、文言「部」は、「サーキトリー(circuitry)」を含む概念であってもよい。サーキトリーは、ハードウェア、ソフトウェア、あるいは、ハードウェアおよびソフトウェアの混在により、その全部または一部が、実現されるものであってもよい。 In addition, the word “part” may be a concept including “circuitry”. The circuit may be realized in whole or in part by hardware, software, or a mixture of hardware and software.
以上、本発明の実施の形態を説明したが、上述した実施の形態は本発明を実施するための例示に過ぎない。よって、本発明は上述した実施の形態に限定されることなく、その趣旨を逸脱しない範囲内で上述した実施の形態を適宜変形して実施することが可能である。 While the embodiments of the present invention have been described above, the above-described embodiments are merely examples for carrying out the present invention. Therefore, the present invention is not limited to the above-described embodiment, and can be implemented by appropriately modifying the above-described embodiment without departing from the spirit thereof.
100 機械学習装置
11 ネットワーク取得部
12 中間層選択部
13 仮出力層追加部
14 追加学習部
15 演算部
16 削除判断部
17 再構成部
18 終了判断部
DESCRIPTION OF
Claims (8)
前記少なくとも2つの中間層の中から、第1中間層及び第2中間層を選択する中間層選択部と、
前記第1中間層が有するノードと接続された仮出力ノードを有する第1仮出力層と、前記第2中間層が有するノードと接続された仮出力ノードを有する第2仮出力層とを前記ニューラルネットワークに追加して、仮ネットワークを生成する仮出力層追加部と、
テストデータを前記仮ネットワークに入力して前記仮ネットワークを用いた演算を実行し、前記第1仮出力層が有する仮出力ノードから出力される第1仮出力値と、前記第2仮出力層が有する仮出力ノードから出力される第2仮出力値とを取得する演算部と、
前記第1仮出力値と前記第2仮出力値とを用いて前記第1中間層の機能が第2中間層の機能に類似する度合いを示す類似度を計算し、計算した類似度に基づいて前記1中間層を削除するか否かを判断する削除判断部と、
前記削除判断部が前記第1中間層を削除すると判断した場合、前記ニューラルネットワークから前記第1中間層を削除する再構成部と、
を備える機械学習装置。 An acquisition unit for acquiring a learned neural network including at least two intermediate layers;
An intermediate layer selection unit for selecting a first intermediate layer and a second intermediate layer from the at least two intermediate layers;
A first temporary output layer having a temporary output node connected to a node of the first intermediate layer; and a second temporary output layer having a temporary output node connected to a node of the second intermediate layer. A temporary output layer adding unit for generating a temporary network in addition to the network;
The test data is input to the temporary network, the calculation using the temporary network is executed, the first temporary output value output from the temporary output node of the first temporary output layer, and the second temporary output layer An arithmetic unit for obtaining a second temporary output value output from the temporary output node having;
The first temporary output value and the second temporary output value are used to calculate a similarity indicating the degree to which the function of the first intermediate layer is similar to the function of the second intermediate layer, and based on the calculated similarity A deletion determination unit for determining whether to delete the one intermediate layer;
A reconfiguration unit that deletes the first intermediate layer from the neural network when the deletion determination unit determines to delete the first intermediate layer;
A machine learning device comprising:
前記第1中間層は、前記第2中間層よりも前記ニューラルネットワークが備える入力層に近い位置に配置される機械学習装置。 The machine learning device according to claim 1,
The machine learning device, wherein the first intermediate layer is disposed closer to an input layer included in the neural network than the second intermediate layer.
前記第1仮出力層が有する仮出力ノードの数は、前記第2仮出力層が有する仮出力ノードと同じである機械学習装置。 The machine learning device according to claim 1 or 2,
The machine learning device, wherein the number of temporary output nodes included in the first temporary output layer is the same as the number of temporary output nodes included in the second temporary output layer.
前記第1仮出力層が有する仮出力ノードの数は、前記ニューラルネットワークにおける出力層が有する出力ノードの数と同じである機械学習装置。 The machine learning device according to claim 3,
The machine learning device, wherein the number of temporary output nodes included in the first temporary output layer is the same as the number of output nodes included in the output layer in the neural network.
前記仮出力層追加部は、前記第2中間層が有するノードが前記ニューラルネットワークにおける出力層が有するノードと接続されている場合、前記第2仮出力層として、前記出力層を使用することを決定する機械学習装置。 The machine learning device according to any one of claims 1 to 4,
The provisional output layer adding unit determines to use the output layer as the second provisional output layer when a node of the second intermediate layer is connected to a node of the output layer in the neural network. Machine learning device.
前記第1中間層が有するノードと前記第1仮出力層が有するノードとの間の信号経路に設定される重み係数と、前記第2中間層が有するノードと前記第2仮出力層が有するノードとの間の信号経路に設定される重み係数とを更新するための学習を実行する追加学習部、
を備える機械学習装置。 The machine learning device according to any one of claims 1 to 5, further comprising:
A weighting factor set in a signal path between a node included in the first intermediate layer and a node included in the first temporary output layer; a node included in the second intermediate layer; and a node included in the second temporary output layer. An additional learning unit that performs learning to update the weighting factor set in the signal path between
A machine learning device comprising:
前記再構成部は、前記第1中間層が前記ニューラルネットワークの入力層から数えてk(kは2以上m−1以下の自然)番目の層である場合、(k−1)番目の層が有するノードと(k+1)番目の層が有するノードとを新たに接続し、(k−1)番目の層が有するノードと、(k+1)番目の層が有するノードの間の信号経路に設定される重み係数を更新するための学習を実行する機械学習装置。 The machine learning device according to any one of claims 1 to 6, further comprising:
When the first intermediate layer is a kth (k is a natural value between 2 and m−1) counting from the input layer of the neural network, the (k−1) th layer is And the node of the (k + 1) th layer is newly connected to the node of the (k + 1) th layer and the signal path between the node of the (k-1) th layer and the node of the (k + 1) th layer is set. A machine learning device that performs learning for updating a weighting coefficient.
前記少なくとも2つの中間層の中から、第1中間層及び第2中間層を選択するステップと、
前記第1中間層が有するノードと接続された仮出力ノードを有する第1仮出力層と、前記第2中間層が有するノードと接続された仮出力ノードを有する第2仮出力層とを前記ニューラルネットワークに追加して、仮ネットワークを生成するステップと、
テストデータを前記仮ネットワークに入力して前記仮ネットワークを用いた演算を実行し、前記第1仮出力層が有する仮出力ノードから出力される第1仮出力値と、前記第2仮出力層が有する仮出力ノードから出力される第2仮出力値とを取得するステップと、
前記第1仮出力値と前記第2仮出力値とを用いて前記第1中間層の機能が第2中間層の機能に類似する度合いを示す類似度を計算し、計算した類似度に基づいて前記1中間層を削除するか否かを判断するステップと、
前記第1中間層を削除すると判断された場合、前記ニューラルネットワークから前記第1中間層を削除するステップと、
を備える機械学習方法。
Obtaining a trained neural network comprising at least two intermediate layers;
Selecting a first intermediate layer and a second intermediate layer from the at least two intermediate layers;
A first temporary output layer having a temporary output node connected to a node of the first intermediate layer; and a second temporary output layer having a temporary output node connected to a node of the second intermediate layer. Adding to the network and generating a temporary network;
The test data is input to the temporary network, the calculation using the temporary network is executed, the first temporary output value output from the temporary output node of the first temporary output layer, and the second temporary output layer Obtaining a second temporary output value output from the temporary output node having;
The first temporary output value and the second temporary output value are used to calculate a similarity indicating the degree to which the function of the first intermediate layer is similar to the function of the second intermediate layer, and based on the calculated similarity Determining whether to delete the one intermediate layer;
If it is determined to delete the first intermediate layer, deleting the first intermediate layer from the neural network;
A machine learning method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016066356A JP2017182319A (en) | 2016-03-29 | 2016-03-29 | Machine learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016066356A JP2017182319A (en) | 2016-03-29 | 2016-03-29 | Machine learning device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017182319A true JP2017182319A (en) | 2017-10-05 |
Family
ID=60006114
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016066356A Pending JP2017182319A (en) | 2016-03-29 | 2016-03-29 | Machine learning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017182319A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019079102A (en) * | 2017-10-20 | 2019-05-23 | ヤフー株式会社 | Learning device, generation device, classification device, learning method, learning program, and operation program |
WO2019194299A1 (en) * | 2018-04-05 | 2019-10-10 | 日本電信電話株式会社 | Learning device, learning method, and learning program |
WO2019234810A1 (en) * | 2018-06-05 | 2019-12-12 | 三菱電機株式会社 | Learning device, inference device, method, and program |
WO2020054402A1 (en) * | 2018-09-11 | 2020-03-19 | 国立大学法人 和歌山大学 | Neural network processing device, computer program, neural network manufacturing method, neural network data manufacturing method, neural network use device, and neural network downscaling method |
WO2020105341A1 (en) * | 2018-11-21 | 2020-05-28 | 沖電気工業株式会社 | Information processing device and information processing method |
CN111325311A (en) * | 2018-12-14 | 2020-06-23 | 深圳云天励飞技术有限公司 | Neural network model generation method and device, electronic equipment and storage medium |
WO2020137090A1 (en) * | 2018-12-28 | 2020-07-02 | 日本電気株式会社 | Neural network learning device, method, and program |
WO2020189498A1 (en) * | 2019-03-15 | 2020-09-24 | 株式会社 Geek Guild | Learning device, method and program |
WO2020213670A1 (en) * | 2019-04-19 | 2020-10-22 | 国立大学法人北海道大学 | Neural calculation device and neural calculation method |
JP2020190996A (en) * | 2019-05-23 | 2020-11-26 | 沖電気工業株式会社 | Neural network weight reducing device, neural network weight reducing method, and program |
CN113050550A (en) * | 2019-12-27 | 2021-06-29 | 株式会社日立制作所 | Plant control device and control method thereof, rolling mill control device and control method thereof |
US11892925B2 (en) | 2018-10-19 | 2024-02-06 | Samsung Electronics Co., Ltd. | Electronic device for reconstructing an artificial intelligence model and a control method thereof |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04290156A (en) * | 1991-03-19 | 1992-10-14 | Fujitsu Ltd | Neural network computer and generating method of neural network |
JP2001256212A (en) * | 2000-03-09 | 2001-09-21 | Fuji Electric Co Ltd | Optimization learning method for neural network |
JP2015095215A (en) * | 2013-11-14 | 2015-05-18 | 株式会社デンソーアイティーラボラトリ | Learning device, learning program, and learning method |
-
2016
- 2016-03-29 JP JP2016066356A patent/JP2017182319A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04290156A (en) * | 1991-03-19 | 1992-10-14 | Fujitsu Ltd | Neural network computer and generating method of neural network |
JP2001256212A (en) * | 2000-03-09 | 2001-09-21 | Fuji Electric Co Ltd | Optimization learning method for neural network |
JP2015095215A (en) * | 2013-11-14 | 2015-05-18 | 株式会社デンソーアイティーラボラトリ | Learning device, learning program, and learning method |
Non-Patent Citations (1)
Title |
---|
増田達也、佐藤幸史、池谷浩彦、藤井善行: "冗長な隠れ層・隠れユニットの削除による階層型ニューラルネットのコンパクト構造化", 電気学会論文誌C:電子・情報・システム部門誌, vol. 114, no. 11, JPN6019051802, 20 October 1994 (1994-10-20), JP, pages 1194 - 1200, ISSN: 0004187953 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11580362B2 (en) | 2017-10-20 | 2023-02-14 | Yahoo Japan Corporation | Learning apparatus, generation apparatus, classification apparatus, learning method, and non-transitory computer readable storage medium |
JP2019079102A (en) * | 2017-10-20 | 2019-05-23 | ヤフー株式会社 | Learning device, generation device, classification device, learning method, learning program, and operation program |
WO2019194299A1 (en) * | 2018-04-05 | 2019-10-10 | 日本電信電話株式会社 | Learning device, learning method, and learning program |
JP2019185275A (en) * | 2018-04-05 | 2019-10-24 | 日本電信電話株式会社 | Learning device, learning method, and learning program |
WO2019234810A1 (en) * | 2018-06-05 | 2019-12-12 | 三菱電機株式会社 | Learning device, inference device, method, and program |
JP6632770B1 (en) * | 2018-06-05 | 2020-01-22 | 三菱電機株式会社 | Learning device, learning inference device, method, and program |
WO2020054402A1 (en) * | 2018-09-11 | 2020-03-19 | 国立大学法人 和歌山大学 | Neural network processing device, computer program, neural network manufacturing method, neural network data manufacturing method, neural network use device, and neural network downscaling method |
JP7438544B2 (en) | 2018-09-11 | 2024-02-27 | 国立大学法人 和歌山大学 | Neural network processing device, computer program, neural network manufacturing method, neural network data manufacturing method, neural network utilization device, and neural network downsizing method |
US11892925B2 (en) | 2018-10-19 | 2024-02-06 | Samsung Electronics Co., Ltd. | Electronic device for reconstructing an artificial intelligence model and a control method thereof |
WO2020105341A1 (en) * | 2018-11-21 | 2020-05-28 | 沖電気工業株式会社 | Information processing device and information processing method |
CN111325311A (en) * | 2018-12-14 | 2020-06-23 | 深圳云天励飞技术有限公司 | Neural network model generation method and device, electronic equipment and storage medium |
WO2020137090A1 (en) * | 2018-12-28 | 2020-07-02 | 日本電気株式会社 | Neural network learning device, method, and program |
JPWO2020137090A1 (en) * | 2018-12-28 | 2021-10-28 | 日本電気株式会社 | Neural network learning equipment, methods and programs |
JP7151788B2 (en) | 2018-12-28 | 2022-10-12 | 日本電気株式会社 | Neural network learning device, method and program |
WO2020189498A1 (en) * | 2019-03-15 | 2020-09-24 | 株式会社 Geek Guild | Learning device, method and program |
WO2020213670A1 (en) * | 2019-04-19 | 2020-10-22 | 国立大学法人北海道大学 | Neural calculation device and neural calculation method |
JP2020190996A (en) * | 2019-05-23 | 2020-11-26 | 沖電気工業株式会社 | Neural network weight reducing device, neural network weight reducing method, and program |
CN113050550A (en) * | 2019-12-27 | 2021-06-29 | 株式会社日立制作所 | Plant control device and control method thereof, rolling mill control device and control method thereof |
CN113050550B (en) * | 2019-12-27 | 2024-04-16 | 株式会社日立制作所 | Plant equipment control device and method thereof, rolling mill control device and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017182319A (en) | Machine learning device | |
US20210390416A1 (en) | Variable parameter probability for machine-learning model generation and training | |
US11100403B2 (en) | Cooperative execution of a genetic algorithm with an efficient training algorithm for data-driven model creation | |
US11610131B2 (en) | Ensembling of neural network models | |
JP6453968B2 (en) | Threshold change device | |
JP6855098B2 (en) | Face detection training methods, equipment and electronics | |
CN111507419B (en) | Training method and device of image classification model | |
US20180025271A1 (en) | Learning apparatus, identifying apparatus, learning and identifying system, and recording medium | |
CN110046706B (en) | Model generation method and device and server | |
US10733534B2 (en) | Data evaluation as a service | |
JP6572269B2 (en) | Learning device, learning method, and program | |
JP2017182320A (en) | Machine learning device | |
JPWO2020116490A1 (en) | Information processing device, information processing method, trained model generation method and program | |
JP2022548293A (en) | AUTOMATIC MODELING METHOD AND DEVICE FOR TARGET DETECTION MODEL | |
CN108460462A (en) | A kind of Interval neural networks learning method based on interval parameter optimization | |
Krishnamurty | Normative decision analysis in engineering design | |
CN113111185A (en) | Key path construction method and system for knowledge graph completion task | |
US11003989B2 (en) | Non-convex optimization by gradient-accelerated simulated annealing | |
US20240095535A1 (en) | Executing a genetic algorithm on a low-power controller | |
KR102189811B1 (en) | Method and Apparatus for Completing Knowledge Graph Based on Convolutional Learning Using Multi-Hop Neighborhoods | |
JP2019079227A (en) | State transition rule acquisition device, action selection learning device, action selection device, state transition rule acquisition method, action selection method, and program | |
CN115346125B (en) | Target detection method based on deep learning | |
CN108805290B (en) | Entity category determination method and device | |
JP4997524B2 (en) | Multivariable decision tree construction system, multivariable decision tree construction method, and program for constructing multivariable decision tree | |
EP3614314A1 (en) | Method and apparatus for generating chemical structure using neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200630 |