WO2023233621A1 - 学習処理装置、プログラム及び学習処理方法 - Google Patents

学習処理装置、プログラム及び学習処理方法 Download PDF

Info

Publication number
WO2023233621A1
WO2023233621A1 PCT/JP2022/022485 JP2022022485W WO2023233621A1 WO 2023233621 A1 WO2023233621 A1 WO 2023233621A1 JP 2022022485 W JP2022022485 W JP 2022022485W WO 2023233621 A1 WO2023233621 A1 WO 2023233621A1
Authority
WO
WIPO (PCT)
Prior art keywords
convolutional
convolution
activation
filter group
average
Prior art date
Application number
PCT/JP2022/022485
Other languages
English (en)
French (fr)
Inventor
恵一 白須賀
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2022/022485 priority Critical patent/WO2023233621A1/ja
Priority to JP2022567099A priority patent/JPWO2023233621A1/ja
Publication of WO2023233621A1 publication Critical patent/WO2023233621A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the present disclosure relates to a learning processing device, a program, and a learning processing method.
  • Non-Patent Document 1 the activation output of the convolutional filter is regarded as a matrix, and filters with small rank values, in other words, filters that output feature maps with a small amount of information, are deleted and relearning is performed. The method to do this is described.
  • one or more aspects of the present disclosure aim to further reduce the scale of the convolutional neural network while preventing deterioration in classification accuracy.
  • a learning processing device includes a storage unit that stores a trained model before retraining that has a plurality of convolutional layers, and a storage unit that stores a trained model before retraining that has a plurality of convolutional layers;
  • the average similarity which is the average value of the similarity between the plurality of activation outputs output from the plurality of convolution filter groups, is calculated for each of the plurality of convolution filter groups, and the convolution with the largest average similarity is calculated.
  • the present invention is characterized by comprising a redundancy removing unit that deletes at least a group of filters.
  • a learning processing device includes a storage unit that stores a pre-retrained trained model having a plurality of convolutional layers, and a storage unit that stores at least one image of a specific class to be detected in the convolutional neural network model.
  • an average activation degree that is an average value of activation degrees of a plurality of activation outputs that are input and output from a plurality of convolutional filter groups included in at least one convolutional layer included in the plurality of convolutional layers;
  • the present invention is characterized by comprising a specific class deletion unit that calculates for each of the plurality of convolution filter groups and deletes at least the convolution filter group with the smallest average activation degree.
  • a program includes a storage unit that stores a pre-retrained learned model having a plurality of convolutional layers, and at least one convolutional layer included in the plurality of convolutional layers.
  • the average similarity which is the average value of the similarity between the plurality of activation outputs output from the plurality of convolution filter groups included in the plurality of convolution filter groups, is calculated for each of the plurality of convolution filter groups, and the average similarity is the highest. It is characterized in that it functions as a redundancy removal unit that removes at least a large group of convolutional filters.
  • a program includes a storage unit that stores a pre-retrained trained model having a plurality of convolutional layers, and at least one image of a specific class to be detected by the convolutional neural network.
  • Average activation that is the average value of activation degrees of a plurality of activation outputs input to the model and output from a plurality of convolutional filter groups included in at least one convolutional layer included in the plurality of convolutional layers.
  • the present invention is characterized in that it functions as a specific class deletion unit that calculates a degree of activation for each of the plurality of convolution filter groups and deletes at least a convolution filter group with the smallest average activation degree.
  • a learning processing method includes a learning processing method that includes a plurality of convolutions included in at least one convolution layer included in the plurality of convolution layers in a pre-retraining trained model having a plurality of convolution layers.
  • An average similarity which is an average value of similarities between the plurality of activation outputs output from the filter group, is calculated for each of the plurality of convolution filter groups, and at least a convolution filter group having the largest average similarity is deleted. It is characterized by
  • a learning processing method includes inputting at least one image of a specific class to be detected to a pre-relearning trained model having a plurality of convolutional layers, and An average activation degree, which is an average value of the activation degrees of the plurality of activation outputs output from the plurality of convolution filter groups included in at least one convolution layer, is calculated for each of the plurality of convolution filter groups.
  • the method is characterized in that at least the convolution filter group having the smallest average activation degree is deleted.
  • FIG. 1 is a block diagram schematically showing the configuration of a learning processing device according to Embodiment 1.
  • FIG. FIG. 2 is an explanatory diagram showing the concept of a convolutional neural network.
  • 3 is a flowchart showing a learning processing method performed by the learning processing device according to the first embodiment.
  • 7 is a flowchart illustrating deletion processing of a convolution filter group that outputs a feature map with a small amount of information.
  • (A) to (D) are schematic diagrams for schematically explaining the process of deleting a convolution filter group that outputs a feature map with a small amount of information.
  • FIG. 3 is a schematic diagram showing the state of a convolution layer before deletion of a filter group.
  • FIG. 3 is a schematic diagram showing the state of a convolutional layer after a group of filters has been deleted; 12 is a flowchart illustrating deletion processing of a convolution filter group that outputs a highly redundant feature map.
  • FIG. 3 is a schematic diagram showing feature maps output by each convolution filter group in a certain convolution layer.
  • FIG. 2 is a block diagram schematically showing the configuration of a learning processing device according to Embodiment 2.
  • FIG. 7 is a flowchart showing a learning processing method performed by the learning processing device according to the second embodiment.
  • 12 is a flowchart illustrating a process for deleting a group of convolution filters that do not strongly activate a specific class to be detected.
  • FIG. 3 is a block diagram schematically showing the configuration of a learning processing device according to Embodiment 3.
  • FIG. (A) and (B) are block diagrams showing examples of hardware configurations.
  • FIG. 1 is a block diagram schematically showing the configuration of a learning processing device 100 according to the first embodiment. As illustrated, the learning processing device 100 includes a storage section 101 and a control section 110.
  • the storage unit 101 stores data and programs necessary for processing by the learning processing device 100.
  • the storage unit 101 stores a learned model before relearning.
  • the trained model before relearning is a trained convolutional neural network before relearning, and has multiple convolutional layers.
  • the control unit 110 controls the processing in the learning processing device 100. For example, the control unit 110 learns a neural network model that is a learning model using a neural network. The model learned here is the learned model before relearning. The control unit 110 then deletes the filter group of the convolutional neural network and performs processing to reduce the network size.
  • neural networks will be explained.
  • FIG. 2 is an explanatory diagram showing the concept of a convolutional neural network.
  • a convolutional neural network is made up of multiple convolutional layers. For example, in FIG. 2, among the plurality of convolutional layers, the nth convolutional layer (n is an integer greater than or equal to 1) and the (n+1)th convolutional layer are shown.
  • One convolution layer includes a plurality of convolution filter groups.
  • the nth convolutional layer includes five convolutional filter groups FG1 n to FG5 n
  • the n+1st convolutional layer includes two convolutional filter groups FG1 n+1 to FG2 n+1 .
  • the input to a certain convolutional layer is two-dimensional data made up of multiple channels.
  • the input to the nth convolutional layer is 3 channels of 2D data
  • the input to the n+1st convolutional layer is 5 channels of 2D data. There is.
  • Each convolutional filter group has a number of filters equal to the number of input channels that are input to that layer. As shown in FIG. 2, since the input to the n-th convolutional layer is three channels, each of the convolutional filter groups FG1 n to FG5 n is composed of three filters. Furthermore, since the input to the n+1 convolutional layer is five channels, each of the convolutional filter groups FG1 n+1 and FG2 n+1 is composed of five filters.
  • Each filter performs a convolution calculation on two-dimensional data of a corresponding input channel.
  • the convolution calculation results of each filter are added between a plurality of filters included in one filter group, and are output as a filter group output, which is the output of the convolution filter group.
  • a filter group output which is the output of the convolution filter group.
  • the convolution calculation results of three filters are added and output as the filter group output of the convolutional filter group FG1 n .
  • each convolutional layer outputs a number of feature maps equal to the number of convolutional filter groups as activation outputs, and the outputs are input to the subsequent convolutional layer.
  • the output of the nth convolutional layer shown in FIG. 2 becomes the input of the n+1st convolutional layer. Therefore, the number of channels of each filter group in the n+1 convolutional layer is equal to the number of channels or the number of convolutional filter groups in the feature map of the n-th convolutional layer preceding it.
  • control unit 110 includes a transfer learning unit 111, an information amount deletion unit 112, a redundancy deletion unit 113, and a relearning unit 114.
  • the transfer learning unit 111 performs transfer learning using the pre-relearning trained model stored in the storage unit 101 as a base model. For transfer learning, any known technique may be used.
  • the pre-relearning trained model on which transfer learning has been performed is stored in the storage unit 101.
  • the information amount deletion unit 112 deletes the information amount of the plurality of activation outputs output from the plurality of convolutional filter groups included in at least one convolutional layer included in the plurality of convolutional layers of the trained model before retraining. is calculated, and an average amount of information, which is an average value of the amount of information in each of the plurality of convolution filter groups, is calculated. Then, the information amount deletion unit 112 deletes at least the convolution filter group whose average information amount is the smallest. In the first embodiment, a rank value is used as the amount of information, and the average amount of information is the average value of the rank values.
  • the information amount deletion unit 112 extracts the activation output output from the deleted convolution filter group from a plurality of convolution groups included in the convolution layer one stage after the convolution layer from which the convolution filter group has been deleted. Remove filters for processing.
  • the redundancy removal unit 113 calculates the similarity between the plurality of activation outputs output from the plurality of convolutional filter groups included in at least one convolutional layer included in the plurality of convolutional layers of the trained model before retraining.
  • the degree of similarity is calculated, and an average degree of similarity is calculated, which is an average value of degrees of similarity in each of the plurality of convolution filter groups.
  • the redundancy removal unit 113 removes at least the convolution filter group with the largest average similarity. Note that in the first embodiment, the redundancy removing unit 113 deletes at least one convolutional filter group from the convolutional neural network model after the information amount removing unit 112 deletes at least one convolutional filter group and the corresponding filter in the subsequent stage. Delete.
  • the redundancy removing unit 113 extracts the activation output output from the deleted convolution filter group from a plurality of convolution groups included in the convolution layer one stage after the convolution layer from which the convolution filter group has been deleted. Remove filters for processing.
  • the relearning unit 114 retrains the convolutional neural network after the convolutional filter group and filters have been removed by the redundancy removal unit 113. As for relearning, a detailed explanation will be omitted because a known technique may be used.
  • FIG. 3 is a flowchart showing a learning processing method performed by the learning processing device 100 according to the first embodiment.
  • the transfer learning unit 111 performs transfer learning using a convolutional neural network that has already been sufficiently trained using large-scale data as a base network model (S10).
  • Transfer learning uses the feature extraction layer in the previous stage of the base network as is, but retrains it so that only the layer that performs classification can perform image classification. This makes it possible to efficiently classify images into desired classes. It is assumed that the base network model is stored in the storage unit 101.
  • the transfer learning unit 111 uses a network capable of general image classification of 1000 categories as a base network model, By fixing the learning rate of the feature extraction layer to 0 so that the weight of that layer is not updated during transfer learning, and learning only the classification layer using normal and abnormal images of that specific product, Transfer learning can be performed.
  • the information amount deletion unit 112 performs a process of deleting a convolution filter group that outputs a feature map with a small amount of information (S11). Details of the processing here will be explained using FIG. 4.
  • the redundancy deletion unit 113 deletes a convolution filter group that outputs a highly redundant feature map (S12). Details of the processing here will be explained using FIG. 8.
  • the relearning unit 114 retrains the convolutional neural network from which the filter group has been deleted as described above (S13). Note that the deletion of the convolutional filter group in step S11 or S12 may be performed for all convolutional layers or only for some convolutional layers.
  • FIG. 4 is a flowchart showing deletion processing of a convolution filter group that outputs a feature map with a small amount of information.
  • the information amount deletion unit 112 calculates the information amount of the feature map output by each convolution filter group (S20). For example, the information amount deletion unit 112 inputs a plurality of images as shown in FIG. 5(A) to a convolutional neural network as shown in FIG. 5(B), and in each convolutional layer, Obtain the feature map output by each convolution filter group.
  • FIG. 5C shows the feature map output from the conv1 layer, which is the first convolutional layer. Note that FIG. 5C is an example in which there are 16 filter groups in the conv1 layer, and the output of the conv1 layer is 16 feature maps.
  • the information amount deletion unit 112 regards each feature map as a two-dimensional matrix and calculates each rank value (S20). This makes it possible to understand the amount of information in the feature map. Note that the amount of information of a feature map generated by a certain group of convolutional filters has a characteristic that it does not change much even if the image changes. Therefore, the average rank value for multiple input images is calculated for each filter group, and the resulting feature map with a low average rank value has a small amount of information and does not play an important role in classification. It is possible to understand that there is no such thing.
  • the information amount deletion unit 112 generates a list in which the corresponding convolution filter groups are sorted in descending order of the average rank value of the feature map output by each convolution filter group (S21).
  • the convolutional filter group is given a filter group ID, which is ID that is identification information for identifying each convolution filter group, and the information amount deletion unit 112, as shown in FIG. 5(D),
  • the filter group IDs are sorted in descending order of average rank value. Based on the sorted results, important convolution filter groups can be sorted and understood from useless convolution filter groups with a small amount of information.
  • the information amount deletion unit 112 deletes the convolution filter groups corresponding to the predetermined reduction rate a% in the list generated in step S21 in order of decreasing average rank value (S22).
  • the reduction rate a% is a value calculated by (number of filter groups to be reduced)/(number of all filter groups) ⁇ 100. For example, in FIG. 5(D), a convolution filter group with a lower average rank value than filter group ID15 is deleted.
  • the information amount deletion unit 112 deletes the filters in each convolution filter group in the subsequent convolution layer that are affected by the deletion of the convolution filter group in step S22 (S23).
  • FIG. 6 shows the state of the convolutional layer before removing the filter
  • FIG. 7 shows the state of the convolutional layer after removing the filter.
  • the input to the n-th convolutional layer is three channels
  • the n-th convolutional layer includes four convolutional filter groups FG1 n to FG4 n .
  • Each of the convolution filter groups FG1 n to FG4 n is composed of three channel filters that respectively process three input channels.
  • the (n+1)th convolutional layer subsequent to the nth convolutional layer receives the four feature maps output from the previous stage. Therefore, the (n+1)th convolutional layer includes two convolution filter groups FG1 n+1 and FG2 n +1 including 4-channel filters that perform convolution operations on the inputs of these four channels, and these convolution filter groups FG1 n+ 1 ⁇ Two feature maps are output from FG2 n+1 .
  • the deleted convolutional filter groups FG2 n and FG3 n included in the n-th convolutional layer since the feature maps MA2 and MA3, which are output from the , are no longer available, the filter F12 for processing the two channels in the two filter groups FG1 n+1 and FG2 n+1 of the n+1 convolution layer performs convolution processing using these as input.
  • n+1 , F13 n+1 , F22 n+1 , and F23 n+1 become unnecessary. Therefore, the information amount deletion unit 112 deletes these filters F12 n+1 , F13 n+1 , F22 n+1 , and F23 n+1 .
  • the n-th convolutional layer and the n+1-th convolutional layer after deletion become as shown in FIG. 7.
  • the output of the (n+1)th convolutional layer after deletion is the output from two convolutional filter groups, so a two-channel feature map is output.
  • the number of channels in this output feature map remains the same as before the convolution filter was removed.
  • step S23 in FIG. 4 is a process for deleting the filters in the group of convolutional filters in the subsequent stages that are affected, so that the preceding and succeeding layers can be matched.
  • the information amount deletion unit 112 retrains the convolutional neural network from which the convolution filter group has been deleted (S24). Note that, as shown in FIG. 2, since the relearning unit 114 performs relearning, the relearning in step S24 does not need to be performed.
  • step S23 useless convolution filter groups each having a small amount of information are deleted in the target convolution layer in a number corresponding to the threshold a%.
  • this threshold a% may be common to all convolutional layers, or a different threshold may be set for each convolutional layer.
  • FIG. 8 is a flowchart showing deletion processing of a convolution filter group that outputs a highly redundant feature map.
  • the feature map will be explained using FIG. 9.
  • FIG. 9 is a schematic diagram showing feature maps output by each convolution filter group in a certain convolution layer.
  • a 5 ⁇ 5 convolution filter group exists in the convolution layer.
  • the feature map MAi of convolutional filter group i in the upper left corner of Fig. 9 is similar.
  • the redundancy removal unit 113 selects a feature map output by each convolution filter group of a certain convolution layer, and a feature map output by other convolution filter groups.
  • the degree of similarity is calculated (S30).
  • the degree of similarity calculated here is, for example, the root mean square error (RMSE) between feature maps, but another index indicating the degree of similarity may be used.
  • RMSE root mean square error
  • an average value of similarities between feature maps obtained by inputting a plurality of images may be used.
  • the redundancy removal unit 113 calculated the average similarity, which is the average value of the calculated similarities, for each convolution filter group, and sorted the corresponding convolution filter groups in descending order of the average similarity. A list is generated (S31). This sorted result makes it possible to identify important convolution filter groups with little redundancy from useless convolution filter groups with high redundancy.
  • the redundancy deletion unit 113 uses the generated list to delete convolution filter groups corresponding to a predetermined reduction rate b% in descending order of average similarity (S32).
  • the reduction rate b% is a value calculated by (number of filter groups to be reduced)/(number of all filter groups) ⁇ 100. Note that this threshold value b% may be common to all convolutional layers, or may be a different value for each convolutional layer.
  • the redundancy removal unit 113 deletes the filters in each convolution filter group in the subsequent convolution layer that are affected by the deletion of the convolution filter group in step S32 (S33).
  • the processing here is similar to the processing at step S23 in FIG.
  • the redundancy removal unit 113 retrains the convolutional neural network from which the convolution filter group has been removed (S34). Note that, as shown in FIG. 2, since the relearning unit 114 performs relearning, the relearning in step S34 does not need to be performed.
  • step S32 useless convolution filter groups with high redundancy are deleted from each convolution layer by the number equal to the threshold value b%.
  • step S10 of FIG. Since the convolutional filter group that outputs a feature map with a high value is deleted, it is possible to further reduce the network scale while maintaining the detection accuracy of the specific class to be detected. Note that the order of the processing in step S11 and the processing in step S12 may be reversed.
  • the advantage of determining the similarity between the activation outputs of the convolutional filters and deleting the convolutional filters that output highly redundant activation outputs is that, in general, the vertical x horizontal size of the convolutional filters is , 5x5, 3x3, and 1x1.
  • the activation output of the convolution filter group has a size larger than the size of the convolution filter group. Therefore, the amount of information to be compared is greater when determining the similarity between activation outputs than when directly determining the similarity between convolution filter groups. Therefore, redundancy can be calculated based on larger information, reduction candidates can be extracted more accurately, and the influence of deterioration in classification accuracy due to deletion of filter groups can be suppressed.
  • FIG. 10 is a block diagram schematically showing the configuration of a learning processing device 200 according to the second embodiment.
  • the learning processing device 200 includes a storage section 101 and a control section 210.
  • the storage unit 101 of the learning processing device 200 in the second embodiment is similar to the storage unit 101 of the learning processing device 100 in the first embodiment.
  • the control unit 210 controls the processing in the learning processing device 200. For example, the control unit 210 learns a neural network model that is a learning model using a neural network. The control unit 210 then deletes the convolution filter group of the convolutional neural network and performs processing to reduce the network size.
  • the control unit 210 includes a transfer learning unit 111, an information amount deletion unit 112, a relearning unit 114, and a specific class deletion unit 215.
  • the transfer learning section 111, the information amount deletion section 112, and the relearning section 114 of the control section 210 in the second embodiment are the same as the transfer learning section 111, the information amount deletion section 112, and the relearning section 114 of the control section 110 in the first embodiment. It is similar to
  • the specific class deletion unit 215 inputs at least one image of a specific class to be detected into a convolutional neural network model, and outputs an image from a plurality of convolution filter groups included in at least one convolution layer among the plurality of convolution layers.
  • the activation degrees of the plurality of activation outputs are calculated, and the average activation degree is calculated as the average value of the activation degrees in each of the plurality of convolution filter groups.
  • the specific class deletion unit 215 deletes at least the convolution filter group whose average activation degree is the smallest. Note that in the second embodiment, the specific class deletion unit 215 deletes at least one convolutional filter group from the convolutional neural network model after the information amount deletion unit 112 deletes at least one convolutional filter group and the corresponding filter in the subsequent stage. Delete.
  • the specific class deletion unit 215 selects the activity output from the deleted convolution filter group from a plurality of convolution groups included in the convolution layer one stage after the at least one convolution layer from which the convolution filter group has been deleted. Remove the filter for processing digitized output.
  • FIG. 11 is a flowchart showing a learning processing method performed by the learning processing device 200 according to the second embodiment.
  • steps that perform the same processing as in the flowchart shown in FIG. 3 are given the same reference numerals as the steps in the flowchart shown in FIG.
  • steps S10 and S11 in FIG. 11 is the same as the processing in steps S10 and S11 in FIG. 3. However, in FIG. 11, after the process in step S11, the process proceeds to step S42.
  • step S42 the specific class deletion unit 215 deletes a group of convolution filters that do not strongly activate the specific class to be detected. Details of the processing here will be explained using FIG. 12.
  • the relearning unit 114 retrains the convolutional neural network from which the filter group has been deleted as described above (S13).
  • the processing here is similar to the processing at step S13 in the flowchart shown in FIG. Note that the deletion of the convolutional filter group in step S42 may be performed for all convolutional layers or only for some convolutional layers.
  • FIG. 12 is a flowchart showing a process for deleting a group of convolution filters that do not strongly activate a specific class to be detected.
  • activation of the feature map will be explained using FIGS. 13 and 14.
  • FIGS. 13A and 13B show feature maps output by a first convolutional filter group, which is one convolutional filter group in a certain convolutional layer. Furthermore, FIGS. 14A and 14B show feature maps output by a second convolutional filter group that is a convolutional filter group different from the first convolutional filter group in a certain convolutional layer.
  • FIG. 13(A) is the feature map MA4#1 output from the first convolutional filter group when an image of a person is input to the convolutional neural network
  • FIG. This is the feature map MA4#2 output from the second convolution filter group when input to the neural network.
  • FIG. 13(B) is the feature map MA5#1 output from the first convolutional filter group when the image of the ship is input to the convolutional neural network
  • FIG. This is the feature map MA5#2 output from the second convolution filter group when input to the neural network.
  • the feature map MA4#1 which is the activation output of the first convolutional filter group for the human image, shows that the human face is white and is strongly activated. ing.
  • the feature map MA5#1 which is the activation output of the first convolutional filter group for the ship image, the ship part is not white and is not activated much. It has not been.
  • the feature map MA5#1 which is the activation output of the second convolutional filter group for the human image, shows that the human face part is not white, and Not activated.
  • the feature map MA5#2 which is the activation output of the second convolutional filter group for the ship image, the ship part is white and is strongly activated. ing.
  • the first convolutional filter group is a filter group that can capture the characteristics of human parts, and can be said to be an important convolutional filter group for human detection.
  • the second convolutional filter group is a convolutional filter group that can capture the characteristics of a ship, and can be said to be a convolutional filter group that is unnecessary for detecting a person. Therefore, for example, if you want to use a convolutional neural network for human recognition, you can remove unnecessary convolutions by leaving a convolutional filter group that can capture human features and deleting a convolutional filter group that captures non-human features. Filters can be deleted.
  • the specific class deletion unit 215 calculates the degree of activation of the feature map output by each convolution filter group of a certain convolution layer (S50).
  • a plurality of images of a specific classification class that is desired to be detected by the convolutional neural network are used as images input to calculate the degree of activation.
  • the activation degree calculated here is the maximum value, variance value, or maximum value and minimum value in the feature map output by a certain convolution filter group when multiple images of a specific class to be classified are input. The difference between can be used.
  • explanation will be given assuming that the maximum value is used.
  • the specific class deletion unit 215 calculates the average activation degree, which is the average value of the activation degree of each convolution filter group when multiple images of the specific classification class to be detected are input, and calculates the average activation degree.
  • a list is generated in which the corresponding convolution filter groups are sorted in ascending order of the number of filters (S51). This list allows you to understand the convolution filters that are important for detecting images of a specific classification class you want to detect.
  • the specific class deletion unit 215 uses the generated list to delete convolution filter groups corresponding to a predetermined reduction rate c% in descending order of average activation degree (S52).
  • the reduction rate c% is a value calculated by (number of filter groups to be reduced)/(number of all filter groups) ⁇ 100. Note that this threshold value c% may be common to all convolutional layers, or may be a different value for each convolutional layer.
  • the specific class deletion unit 215 deletes the filters in each convolution filter group in the subsequent convolution layer that are affected by the deletion of the convolution filter group in step S52 (S53).
  • the processing here is similar to the processing at step S23 in FIG.
  • the specific class deletion unit 215 retrains the convolutional neural network from which the convolution filter group has been deleted (S54). Note that, as shown in FIG. 2, since the relearning unit 114 performs relearning, the relearning in step S54 does not need to be performed.
  • step S52 convolution filters that do not strongly activate the specific class to be detected are deleted from each convolution layer by a number equal to the threshold value c%.
  • the convolution filter group that outputs a feature map with a small amount of information is deleted in step S11, and then the specific class to be further detected in step S42. Since convolutional filters that do not strongly activate are deleted, the network scale can be made smaller while maintaining the detection accuracy of the specific class to be detected. Note that the order of the processing in step S11 and the processing in step S42 may be reversed.
  • the vertical x horizontal size of the convolution filter group is small, such as 5 x 5, 3 x 3, or 1 x 1, but the activation output of the convolution filter group is smaller than the size of the convolution filter. It is a large size. Therefore, rather than directly calculating the sum of absolute values or sum of squares of the weights of the convolution filter group as the activation degree of the convolution filter group, it is possible to calculate the average activation of the filter output when inputting an image of a specific classification class to be detected. By calculating the degree of activation, it is possible to calculate the degree of activation based on more information. Therefore, reduction candidates can be extracted more accurately, and the influence of deterioration in classification accuracy due to deletion of the convolution filter group can be suppressed.
  • Embodiment 3 Filter group deletion processing that outputs a feature map with a small amount of information described in Embodiment 1 and Embodiment 2, filter group deletion processing that outputs a highly redundant feature map, and strong activation of a specific class to be detected. All of the convolution filter group deletion processing that is not performed may be performed.
  • FIG. 15 is a block diagram schematically showing the configuration of a learning processing device 300 according to the third embodiment.
  • the learning processing device 300 includes a storage section 101 and a control section 310.
  • the storage unit 101 of the learning processing device 300 in the third embodiment is similar to the storage unit 101 of the learning processing device 100 in the first embodiment.
  • the control unit 310 controls the processing in the learning processing device 300. For example, the control unit 310 learns a neural network model that is a learning model using a neural network. The control unit 310 then deletes the convolution filter group of the convolutional neural network and performs processing to reduce the network size.
  • the control unit 310 includes a transfer learning unit 111 , an information amount deletion unit 112 , a redundancy deletion unit 113 , a relearning unit 114 , and a specific class deletion unit 215 .
  • the transfer learning section 111, the information amount deletion section 112, the redundancy deletion section 113, and the relearning section 114 of the control section 310 in the third embodiment are the same as the transfer learning section 111, the information amount deletion section of the control section 110 in the first embodiment. 112, the redundancy removing unit 113, and the relearning unit 114.
  • the specific class deletion unit 215 of the control unit 310 in the third embodiment is similar to the specific class deletion unit 215 of the control unit 210 in the second embodiment.
  • a filter group deletion process that outputs a feature map with a small amount of information
  • a filter group deletion process that outputs a highly redundant feature map
  • a convolution filter group deletion process that does not strongly activate a specific class to be detected.
  • Embodiment 3 it is possible to further reduce the network scale while maintaining the detection accuracy of the specific class that is desired to be detected.
  • control units 110, 210, and 310 described above may be connected to the memory 10 and execute programs stored in the memory 10, as shown in FIG. 16(A), for example. It can be configured with a processor 11 such as a CPU (Central Processing Unit).
  • the learning processing devices 100, 200, and 300 can be realized by so-called computers.
  • Such a program may be provided through a network, or may be provided recorded on a recording medium. That is, such a program may be provided as a program product, for example.
  • control units 110, 210, and 310 may be, for example, a single circuit, a composite circuit, a processor that operates on a program, or a parallel processor that operates on a program, as shown in FIG. 16(B). , an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). As described above, the control units 110, 210, and 310 can be realized by a processing circuit network.
  • the transfer learning process in step S10 of FIG. 3 and step S10 of FIG. 11 and the feature map with a small amount of information are output in step S11 of FIG. 3 and step S11 of FIG.
  • the process of deleting the filter group and the relearning process in step S13 in FIG. 3 and step S13 in FIG. 11 are performed, at least one of these processes does not need to be performed.
  • 100,200, 300 learning processing devices 101 memory portions, 110, 210, 310 control department, 111 metastasic learning department, 112 information deletion unit, 113 redundancy deletion unit, 115 specific class deletion unit, 114 re -learning department.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

学習処理装置(100)は、複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部(101)と、その複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力間の類似度の平均値である平均類似度を、その複数の畳み込みフィルタ群毎に算出し、その平均類似度が最も大きい畳み込みフィルタ群を少なくとも削除する冗長性削除部(113)とを備える。

Description

学習処理装置、プログラム及び学習処理方法
 本開示は、学習処理装置、プログラム及び学習処理方法に関する。
 画像認識の分野では、近年、畳み込みニューラルネットワークを用いて高精度に画像認識を行う方式が主流になってきている。ニューラルネットワークを構成する畳み込み層の層数を増やし、多数のパラメータを持たせたネットワーク構造を、ネットワークの表現能力を高め、大量の画像を用いて学習することで、非常に高精度な画像認識が実現可能となってきている。しかし、このような技術を組込み機器へ適用するためには、ニューラルネットワークをCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)又はASIC(Application Specific Integrated Circuit)等で動作させる必要があり、演算量、ネットワークサイズ及びワークメモリサイズを小さくする必要がある。
 このため、非特許文献1には、畳み込みフィルタの活性化出力を行列とみなし、そのランク値が小さいもの、言い換えると、情報量の少ない特徴マップを出力するフィルタを削除して、再学習を実施する方式が記載されている。
Mingbao Lin. et al.、"Hrank: Filter Pruning using Hight-Rank Feature Map"、arXiv:2002.10179v2[cs.CV]、16 Mar 2020
 従来の技術では、畳み込み層から類似の特徴マップが出力される可能性があるため、冗長性の高い畳み込みフィルタ群が複数存在し得る。
 また、既に公開されている学習済みの畳み込みニューラルネットワークを用いて、複数の畳み込みフィルタで構成される複数の畳み込み層で主に構成される特徴抽出層を流用し、分類を行う場合、出力層のみを検知したい特定のクラスが認識できるように学習する転移学習を行って、学習後のモデルを使用するのが一般的である。この場合、特徴抽出層については、検知したい特定クラスに有効な畳み込みフィルタ群以外の不要なフィルタ群が存在してしまう。
 そこで、本開示の一又は複数の態様は、分類精度の劣化を防止しながら、畳み込みニューラルネットワークの規模をより削減できるようにすることを目的とする。
 本開示の第1の態様に係る学習処理装置は、複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部と、前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力間の類似度の平均値である平均類似度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均類似度が最も大きい畳み込みフィルタ群を少なくとも削除する冗長性削除部と、を備えることを特徴とする。
 本開示の第2の態様に係る学習処理装置は、複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部と、検知する特定のクラスの少なくとも一つの画像を前記畳み込みニューラルネットワークモデルに入力し、前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力の活性化度の平均値である平均活性化度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均活性化度が最も小さい畳み込みフィルタ群を少なくとも削除する特定クラス削除部と、を備えることを特徴とする。
 本開示の第1の態様に係るプログラムは、コンピュータを、複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部、及び、前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力間の類似度の平均値である平均類似度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均類似度が最も大きい畳み込みフィルタ群を少なくとも削除する冗長性削除部、として機能させることを特徴とする。
 本開示の第2の態様に係るプログラムは、コンピュータを、複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部、及び、検知する特定のクラスの少なくとも一つの画像を前記畳み込みニューラルネットワークモデルに入力し、前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力の活性化度の平均値である平均活性化度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均活性化度が最も小さい畳み込みフィルタ群を少なくとも削除する特定クラス削除部、として機能させることを特徴とする。
 本開示の第1の態様に係る学習処理方法は、複数の畳み込み層を有する再学習前学習済モデルにおける前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力間の類似度の平均値である平均類似度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均類似度が最も大きい畳み込みフィルタ群を少なくとも削除することを特徴とする。
 本開示の第2の態様に係る学習処理方法は、複数の畳み込み層を有する再学習前学習済モデルに、検知する特定のクラスの少なくとも一つの画像を入力し、前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力の活性化度の平均値である平均活性化度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均活性化度が最も小さい畳み込みフィルタ群を少なくとも削除することを特徴とする。
 本開示の一又は複数の態様によれば、分類精度の劣化を防止しながら、畳み込みニューラルネットワークの規模をより削減することができる。
実施の形態1に係る学習処理装置の構成を概略的に示すブロック図である。 畳み込みニューラルネットワークの概念を示す説明図である。 実施の形態1に係る学習処理装置が行う学習処理方法を示すフローチャートである。 情報量の少ない特徴マップを出力する畳み込みフィルタ群の削除処理を示すフローチャートである。 (A)~(D)は、情報量の少ない特徴マップを出力する畳み込みフィルタ群を削除する処理を概略的に説明するための概略図である。 フィルタ群の削除前の畳み込み層の状態を示す概略図である。 フィルタ群の削除後の畳み込み層の状態を示す概略図である。 冗長性の高い特徴マップを出力する畳み込みフィルタ群の削除処理を示すフローチャートである。 ある畳み込み層における各畳み込みフィルタ群が出力した特徴マップを示す概略図である。 実施の形態2に係る学習処理装置の構成を概略的に示すブロック図である。 実施の形態2に係る学習処理装置が行う学習処理方法を示すフローチャートである。 検知したい特定のクラスを強く活性化しない畳み込みフィルタ群の削除処理を示すフローチャートである。 (A)及び(B)は、ある畳み込み層における一つの畳み込みフィルタ群である第1畳み込みフィルタ群が出力する特徴マップを示している。 (A)及び(B)は、ある畳み込み層における第1畳み込みフィルタ群とは異なる一つの畳み込みフィルタ群である第2畳み込みフィルタ群が出力する特徴マップを示している。 実施の形態3に係る学習処理装置の構成を概略的に示すブロック図である。 (A)及び(B)は、ハードウェア構成例を示すブロック図である。
実施の形態1.
 図1は、実施の形態1に係る学習処理装置100の構成を概略的に示すブロック図である。
 図示するように、学習処理装置100は、記憶部101と、制御部110とを備える。
 記憶部101は、学習処理装置100での処理に必要なデータ及びプログラムを記憶する。例えば、記憶部101は、再学習前学習済モデルを記憶する。再学習前学習済モデルは、再学習前の学習済の畳み込みニューラルネットワークであり、複数の畳み込み層を有する。
 制御部110は、学習処理装置100での処理を制御する。例えば、制御部110は、ニューラルネットワークでの学習モデルであるニューラルネットワークモデルを学習する。ここで学習されたモデルが、再学習前学習済モデルである。そして、制御部110は、畳み込みニューラルネットワークのフィルタ群を削除し、ネットワークサイズを小さくする処理を行う。ここでは、まず、ニューラルネットワークについて説明する。
 図2は、畳み込みニューラルネットワークの概念を示す説明図である。
 畳み込みニューラルネットワークは、複数の畳み込み層で構成されている。例えば、図2では、複数の畳み込み層の内、第n畳み込み層(nは、1以上の整数)及び第n+1畳み込み層が示されている。
 一つの畳み込み層は、複数の畳み込みフィルタ群を含んでいる。図2では、第n畳み込み層は、五つの畳み込みフィルタ群FG1~FG5を含んでおり、第n+1畳み込み層は、二つの畳み込みフィルタ群FG1n+1~FG2n+1を含んでいる。
 また、ある畳み込み層の入力は、複数のチャンネルで構成された2次元データとなっている。例えば、図2に示されているように、第n畳み込み層への入力は、3チャンネルの2次元データとなっており、第n+1畳み込み層への入力は、5チャンネルの2次元データとなっている。
 各畳み込みフィルタ群には、その層に入力されるチャンネルである入力チャンネルの数と等しい数のフィルタが存在する。図2に示されているように、第n畳み込み層への入力は、3チャンネルとなっているため、畳み込みフィルタ群FG1~FG5の各々は、三つのフィルタで構成されている。また、第n+1畳み込み層への入力は、5チャンネルとなっているため、畳み込みフィルタ群FG1n+1、FG2n+1の各々は、五つのフィルタで構成されている。
 各フィルタは、対応する入力チャンネルの2次元データの畳み込み計算を行う。各フィルタの畳み込み計算結果は、一つのフィルタ群に含まれている複数のフィルタ間で加算され、その畳み込みフィルタ群の出力であるフィルタ群出力として出力される。例えば、図2に示されている第n畳み込み層の畳み込みフィルタ群FG1では、三つのフィルタの畳み込み計算結果が加算され、畳み込みフィルタ群FG1のフィルタ群出力として出力される。
 そして、各畳み込み層は、活性化出力として、その畳み込みフィルタ群数と等しい数の特徴マップを出力し、その出力は、後段の畳み込み層に入力される。例えば、図2に示されている第n畳み込み層の出力は、第n+1畳み込み層の入力になる。従って、第n+1畳み込み層の各フィルタ群のチャンネル数は、その前段の第n畳み込み層の特徴マップのチャンネル数又は畳み込みフィルタ群数と等しい。
 図1に戻り、制御部110は、転移学習部111と、情報量削除部112と、冗長性削除部113と、再学習部114とを備える。
 転移学習部111は、記憶部101に記憶されている再学習前学習済モデルをベースモデルとして用いて、転移学習を行う。転移学習については、公知の技術が使用されればよい。転移学習が行われた再学習前学習済モデルについては、記憶部101に記憶される。
 情報量削除部112は、再学習前学習済モデルの複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力の情報量を算出して、その複数の畳み込みフィルタ群の各々における情報量の平均値である平均情報量を算出する。そして、情報量削除部112は、その平均情報量が最も少ない畳み込みフィルタ群を少なくとも削除する。実施の形態1では、情報量として、ランク値が使用され、平均情報量は、そのランク値の平均値である。
 また、情報量削除部112は、畳み込みフィルタ群を削除した畳み込み層の一つ後段の畳み込み層に含まれている複数の畳み込み群から、その削除された畳み込みフィルタ群から出力される活性化出力を処理するためのフィルタを削除する。
 冗長性削除部113は、再学習前学習済モデルの複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力間の類似度を算出して、その複数の畳み込みフィルタ群の各々における類似度の平均値である平均類似度を算出する。そして、冗長性削除部113は、その平均類似度が最も大きい畳み込みフィルタ群を少なくとも削除する。なお、実施の形態1では、冗長性削除部113は、情報量削除部112により少なくとも一つの畳み込みフィルタ群及び後段の対応するフィルタが削除された後の畳み込みニューラルネットワークモデルから少なくとも一つの畳み込みフィルタ群を削除する。
 また、冗長性削除部113は、畳み込みフィルタ群を削除した畳み込み層の一つ後段の畳み込み層に含まれている複数の畳み込み群から、その削除された畳み込みフィルタ群から出力される活性化出力を処理するためのフィルタを削除する。
 再学習部114は、冗長性削除部113で畳み込みフィルタ群及びフィルタが削除された後の畳み込みニューラルネットワークを再学習する。再学習については、公知の技術が使用されればよいため、詳細な説明は省略する。
 図3は、実施の形態1に係る学習処理装置100が行う学習処理方法を示すフローチャートである。
 まず、転移学習部111は、既に大規模なデータで十分に学習された畳み込みニューラルネットワークをベースネットワークモデルとして転移学習を実施する(S10)。転移学習は、ベースネットワークの前段の特徴抽出層をそのまま活用するが、分類を行う層だけを意図した画像分類が可能なように再学習を行うものである。これにより分類したいクラスに画像の分類を効率的に行うことが可能となる。なお、ベースネットワークモデルは、記憶部101に記憶されているものとする。
 例えば、ある特定の製品について、正常か異常かの画像診断を行う畳み込みニューラルネットワークを得たい場合、転移学習部111は、ベースネットワークモデルとして1000カテゴリの一般的な画像分類が可能なネットワークを用い、その特徴抽出層の学習率を0に固定することでその層の重みを転移学習時に更新しないようにして、その特定の製品の正常画像及び異常画像を用いて分類層だけを学習することで、転移学習を行うことができる。
 次に、情報量削除部112は、情報量の少ない特徴マップを出力する畳み込みフィルタ群を削除する処理を行う(S11)。ここでの処理の詳細については、図4を用いて説明する。
 次に、冗長性削除部113は、冗長性の高い特徴マップを出力する畳み込みフィルタ群の削除を行う(S12)。ここでの処理の詳細については、図8を用いて説明する。
 次に、再学習部114は、以上のようにしてフィルタ群が削除された畳み込みニューラルネットワークの再学習を行う(S13)。
 なお、ステップS11又はS12における畳み込みフィルタ群の削除は、全ての畳み込み層に対して実施されてもよいし、一部の畳み込み層に対してのみ実施されてもよい。
 図4は、情報量の少ない特徴マップを出力する畳み込みフィルタ群の削除処理を示すフローチャートである。
 まず、情報量削除部112は、各畳み込みフィルタ群が出力する特徴マップの情報量を算出する(S20)。例えば、情報量削除部112は、図5(A)に示されているように複数の画像を、図5(B)に示されているように畳み込みニューラルネットワークに入力し、各畳み込み層において、各畳み込みフィルタ群が出力する特徴マップを取得する。図5(C)は、第1畳み込み層であるconv1層から出力された特徴マップを示している。なお、図5(C)は、conv1層にフィルタ群が16個存在する場合の例であり、conv1層の出力は、16枚の特徴マップとなっている。
 情報量削除部112は、特徴マップのそれぞれを2次元の行列とみなし、各ランク値を算出する(S20)。これにより特徴マップの情報量を把握することができる。なお、ある特定の畳み込みフィルタ群によって生成された特徴マップの情報量は、画像が変わってもあまり変化しない特徴がある。このため、複数枚の入力画像に対するランク値の平均値をフィルタ群ごとに算出し、得られた平均ランク値が低い特徴マップは、情報量が少なく、分類を行うのに重要な役割をしていないことを把握することができる。
 次に、情報量削除部112は、畳み込みフィルタ群のそれぞれが出力した特徴マップの平均ランク値の小さい順に、対応する畳み込みフィルタ群をソートしたリストを生成する(S21)。例えば、畳み込みフィルタ群には、それぞれを識別するための識別情報であるIDであるフィルタ群IDが付与されており、情報量削除部112は、図5(D)に示されているように、そのフィルタ群IDを平均ランク値の小さい順にソートする。このソートした結果により、情報量の少ない無駄な畳み込みフィルタ群から重要な畳み込みフィルタ群がソートされて把握できるようになる。
 次に、情報量削除部112は、ステップS21で生成したリストにおいて、平均ランク値の小さいものから順に、予め定められた削減率a%に対応する部分の畳み込みフィルタ群を削除する(S22)。ここで、削減率a%は、(削減するフィルタ群の数)÷(全フィルタ群の数)×100で算出される値である。例えば、図5(D)では、フィルタ群ID15よりも平均ランク値の低い畳み込みフィルタ群が削除されている。
 次に、情報量削除部112は、ステップS22において畳み込みフィルタ群を削除したことで、影響を受ける後段の畳み込み層内の各畳み込みフィルタ群内のフィルタを削除する(S23)。
 ステップS23での処理を、図6及び図7を用いて説明する。
 図6は、フィルタの削除前の畳み込み層の状態を示し、図7は、フィルタ削除後の畳み込み層の状態を示す。
 まず、図6に示されているように、第n畳み込み層の入力は、3チャンネルであり、第n畳み込み層は、四つの畳み込みフィルタ群FG1~FG4を含んでいる。畳み込みフィルタ群FG1~FG4の各々は、三つの入力チャンネルをそれぞれ処理する三つのチャンネルのフィルタで構成されている。
 また、図6に示されているように、第n畳み込み層の後段の第(n+1)畳み込み層は、前段が出力した4つの特徴マップが入力される。そのため、第(n+1)畳み込み層は、それら4チャンネルの入力に対して、畳み込み演算を行う4チャンネルのフィルタを含む2つの畳み込みフィルタ群FG1n+1、FG2n+1を含み、これらの畳み込みフィルタ群FG1n+1~FG2n+1から、2つの特徴マップが出力される。
 ここで、図6に示されているように、第n畳み込み層に含まれている畳み込みフィルタ群FG2及び畳み込みフィルタ群FG3が削除された場合、削除された畳み込みフィルタ群FG2、FG3からの出力である特徴マップMA2、MA3はなくなるため、これらを入力として畳み込み処理を行う第n+1畳み込み層の2つのフィルタ群FG1n+1、FG2n+1を中の、その2チャンネルを処理するためのフィルタF12n+1、F13n+1、F22n+1、F23n+1は不要になる。このため、情報量削除部112は、それらのフィルタF12n+1、F13n+1、F22n+1、F23n+1を削除する。
 これにより、削除後の第n畳み込み層及び第n+1畳み込み層は、図7に示されているようになる。
 なお、削除後の第n+1畳み込み層の出力は、2つの畳み込みフィルタ群からの出力なので2チャンネルの特徴マップが出力される。この出力特徴マップのチャネル数は、畳み込みフィルタ削除前と変わらない。
 以上のように、第n畳み込み層からj個の畳み込みフィルタ群を削除すると、その層からの出力チャネル数はj個減少し、第n+1畳み込み層の畳み込みフィルタ群から、j個のフィルタが削減されることとなる。以上のように、図4のステップS23は、影響を受ける後段の畳み込みフィルタ群内のフィルタが削除され、前後層の整合がとれるようにするための処理である。
 次に、情報量削除部112は、畳み込みフィルタ群が削除された畳み込みニューラルネットワークを再学習する(S24)。なお、図2に示されているように、再学習部114による再学習が行われるようになっているため、ステップS24での再学習は行われなくてもよい。
 以上のように、ステップS23での処理により、対象となる畳み込み層の中で、それぞれ情報量の少ない無駄な畳み込みフィルタ群が閾値a%に対応する個数だけ削除される。なお、この閾値a%は、全畳み込み層で共通としてもよいし、畳み込み層毎に異なる閾値が設定されていてもよい。
 図8は、冗長性の高い特徴マップを出力する畳み込みフィルタ群の削除処理を示すフローチャートである。
 ここでは、フローチャートを説明する前に、図9を用いて特徴マップについて説明する。
 図9は、ある畳み込み層における各畳み込みフィルタ群が出力した特徴マップを示す概略図である。
 ここでは、その畳み込み層に5×5個の畳み込みフィルタ群が存在する例を示す。
 ある画像を畳み込みニューラルネットワークに入力したとき、この畳み込み層の各畳み込みフィルタ群が出力する5×5個の特徴マップを見ると、図9の左上コーナの畳み込みフィルタ群iの特徴マップMAiと、類似する複数の特徴マップMAi#1、MAi#2が存在している。これらは類似性が高く、同じような特徴マップを出力する全ての畳み込みフィルタ群を残しておく必要はない。そこで、冗長性の高い特徴マップを出力する畳み込みフィルタ群を削除する処理を行うことで、無駄を省くことができる。
 図8に戻り、まず、冗長性削除部113は、畳み込みニューラルネットワークにある画像を入力したとき、ある畳み込み層の各畳み込みフィルタ群が出力する特徴マップと、他の畳み込みフィルタ群が出力する特徴マップとの類似度を算出する(S30)。ここで算出される類似度は、例えば、特徴マップ間の平方二乗平均誤差(RMSE)とするが、他の類似度を示す指標が用いられてもよい。さらに、複数の画像を入力することで得られる特徴マップ間の類似度の平均値が用いられてもよい。
 次に、冗長性削除部113は、算出された類似度の平均値である平均類似度を、畳み込みフィルタ群毎に算出して、その平均類似度が大きい順に、対応する畳み込みフィルタ群をソートしたリストを生成する(S31)。このソートされた結果により、冗長性の高い無駄な畳み込みフィルタ群から冗長性の少ない重要な畳み込みフィルタ群が把握できるようになる。
 次に、冗長性削除部113は、生成されたリストを用いて、平均類似度が大きいものから順に、予め定められた削減率b%に対応する部分の畳み込みフィルタ群を削除する(S32)。ここで、削減率b%は、(削減するフィルタ群の数)÷(全フィルタ群の数)×100で算出される値である。なお、この閾値b%は、全畳み込み層で共通であってもよく、畳み込み層毎に異なる値であってもよい。
 次に、冗長性削除部113は、ステップS32において畳み込みフィルタ群を削除したことで、影響を受ける後段の畳み込み層内の各畳み込みフィルタ群内のフィルタを削除する(S33)。ここでの処理は、図4のステップS23での処理と同様である。
 次に、冗長性削除部113は、畳み込みフィルタ群が削除された畳み込みニューラルネットワークを再学習する(S34)。なお、図2に示されているように、再学習部114による再学習が行われるようになっているため、ステップS34での再学習は行われなくてもよい。
 以上のように、ステップS32での処理により、各畳み込み層の中で、それぞれ冗長性の高い無駄な畳み込みフィルタ群が閾値b%の個数だけ各畳み込み層から削除される。
 以上のように、実施の形態1によれば、図3のステップS10の転移学習の後、ステップS11で情報量の少ない特徴マップを出力する畳み込みフィルタ群を削除した後、ステップS12でさらに冗長性の高い特徴マップを出力する畳み込みフィルタ群を削除するようにしたため、検知したい特定のクラスの検知精度を維持しつつ、よりネットワーク規模を小さくすることができる。
 なお、ステップS11での処理と、ステップS12での処理の順番については、逆の順番であってもよい。
 また、畳み込みフィルタ群の活性化出力間の類似度を求め、冗長性の高い活性化出力を出力する畳み込みフィルタ群を削除するようにした利点として、一般に、畳み込みフィルタ群の縦×横のサイズは、5×5、3×3、1×1のように小さなサイズとなっている。一方、畳み込みフィルタ群の活性化出力は、畳み込みフィルタ群のサイズよりも大きなサイズとなっている。そのため畳み込みフィルタ群間の類似度を直接求めるよりも、活性化出力間の類似度を求めるほうが、比較する情報量が多い。このため、より大きな情報をもとに冗長度を計算することができ、より的確に削減候補を抽出することができ、フィルタ群の削除による分類精度劣化の影響を抑えることができる。
実施の形態2.
 図10は、実施の形態2に係る学習処理装置200の構成を概略的に示すブロック図である。
 図示するように、学習処理装置200は、記憶部101と、制御部210とを備える。
 実施の形態2における学習処理装置200の記憶部101は、実施の形態1における学習処理装置100の記憶部101と同様である。
 制御部210は、学習処理装置200での処理を制御する。例えば、制御部210は、ニューラルネットワークでの学習モデルであるニューラルネットワークモデルを学習する。そして、制御部210は、畳み込みニューラルネットワークの畳み込みフィルタ群を削除し、ネットワークサイズを小さくする処理を行う。
 制御部210は、転移学習部111と、情報量削除部112と、再学習部114と、特定クラス削除部215とを備える。
 実施の形態2における制御部210の転移学習部111、情報量削除部112及び再学習部114は、実施の形態1における制御部110の転移学習部111、情報量削除部112及び再学習部114と同様である。
 特定クラス削除部215は、検知する特定のクラスの少なくとも一つの画像を畳み込みニューラルネットワークモデルに入力し、複数の畳み込み層における少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力の活性化度を算出して、複数の畳み込みフィルタ群の各々における活性化度の平均値である平均活性化度を算出する。そして、特定クラス削除部215は、その平均活性化度が最も小さい畳み込みフィルタ群を少なくとも削除する。なお、実施の形態2では、特定クラス削除部215は、情報量削除部112により少なくとも一つの畳み込みフィルタ群及び後段の対応するフィルタが削除された後の畳み込みニューラルネットワークモデルから少なくとも一つの畳み込みフィルタ群を削除する。
 また、特定クラス削除部215は、畳み込みフィルタ群を削除した少なくとも一つの畳み込み層の一つ後段の畳み込み層に含まれている複数の畳み込み群から、その削除された畳み込みフィルタ群から出力される活性化出力を処理するためのフィルタを削除する。
 図11は、実施の形態2に係る学習処理装置200が行う学習処理方法を示すフローチャートである。
 図11において、図3に示されているフローチャートと同様の処理を行うステップについては、図3に示されているフローチャートのステップと同じ符号を付す。
 図11におけるステップS10及びS11の処理については、図3におけるステップS10及びS11の処理と同様である。
 但し、図11においては、ステップS11の処理の後は、処理はステップS42に進む。
 ステップS42では、特定クラス削除部215は、検知したい特定のクラスを強く活性化しない畳み込みフィルタ群の削除を行う。ここでの処理の詳細については、図12を用いて説明する。
 次に、再学習部114は、以上のようにしてフィルタ群が削除された畳み込みニューラルネットワークの再学習を行う(S13)。ここでの処理は、図3に示されているフローチャートのステップS13での処理と同様である。
 なお、ステップS42における畳み込みフィルタ群の削除は、全ての畳み込み層に対して実施されてもよいし、一部の畳み込み層に対してのみ実施されてもよい。
 図12は、検知したい特定のクラスを強く活性化しない畳み込みフィルタ群の削除処理を示すフローチャートである。
 ここでは、フローチャートを説明する前に、図13及び図14を用いて、特徴マップの活性化について説明する。
 図13(A)及び(B)は、ある畳み込み層における一つの畳み込みフィルタ群である第1畳み込みフィルタ群が出力する特徴マップを示している。また、図14(A)及び(B)は、ある畳み込み層における第1畳み込みフィルタ群とは異なる一つの畳み込みフィルタ群である第2畳み込みフィルタ群が出力する特徴マップを示している。
 また、図13(A)は、人の画像を畳み込みニューラルネットワークに入力した際に、第1畳み込みフィルタ群から出力される特徴マップMA4#1であり、図14(A)は、その画像を畳み込みニューラルネットワークに入力した際に、第2畳み込みフィルタ群から出力される特徴マップMA4#2である。
 さらに、図13(B)は、船の画像を畳み込みニューラルネットワークに入力した際に、第1畳み込みフィルタ群から出力される特徴マップMA5#1であり、図14(B)は、その画像を畳み込みニューラルネットワークに入力した際に、第2畳み込みフィルタ群から出力される特徴マップMA5#2である。
 図13(A)に示されているように、人の画像に対する第1畳み込みフィルタ群の活性化出力である特徴マップMA4#1は、人の顔の部分が白くなっており、強く活性化されている。
 一方、図13(B)に示されているように、船の画像に対する第1畳み込みフィルタ群の活性化出力である特徴マップMA5#1は、船の部分が白くなっておらず、あまり活性化されていない。
 また、図14(A)に示されているように、人の画像に対する第2畳み込みフィルタ群の活性化出力である特徴マップMA5#1は、人の顔の部分が白くなっておらず、あまり活性化されていない。
 一方、図14(B)に示されているように、船の画像に対する第2畳み込みフィルタ群の活性化出力である特徴マップMA5#2は、船の部分が白くなっており、強く活性化されている。
 以上により、第1畳み込みフィルタ群は、人のパーツの特徴を捉えることができるフィルタ群であり、人の検出には重要な畳み込みフィルタ群といえる。逆に、第2畳み込みフィルタ群は、船の特徴を捉えることができる畳み込みフィルタ群であり、人の検出には不要な畳み込みフィルタ群といえる。
 従って、例えば、人を認識する用途で畳み込みニューラルネットワークを使用したい場合、人の特徴を捉えることができる畳み込みフィルタ群を残し、人以外の特徴を捉える畳み込みフィルタ群を削除することで、不要な畳み込みフィルタ群を削除することができる。
 図12に戻り、特定クラス削除部215は、畳み込みニューラルネットワークにある画像を入力したとき、ある畳み込み層の各畳み込みフィルタ群が出力する特徴マップの活性化度を算出する(S50)。この活性化度を算出するために入力される画像としては、畳み込みニューラルネットワークで検知したい特定の分類クラスの複数の画像が用いられる。ここで算出される活性化度としては、分類したい特定クラスの複数の画像を入力したときの、ある畳み込みフィルタ群が出力する特徴マップにおける、最大値、分散値、又は、最大値と最小値との差を用いることができる。ここでは、その最大値が用いられているものとして説明する。
 次に、特定クラス削除部215は、検知したい特定の分類クラスの複数画像を入力したときの各畳み込みフィルタ群の活性化度の平均値である平均活性化度を算出し、その平均活性化度の小さい順に、対応する畳み込みフィルタ群をソートしたリストを生成する(S51)。このリストにより、検知したい特定の分類クラスの画像を検知するために重要な畳み込みフィルタ群を把握できるようになる。
 次に、特定クラス削除部215は、生成されたリストを用いて、平均活性化度が低いものから順に、予め定められた削減率c%に対応する部分の畳み込みフィルタ群を削除する(S52)。ここで、削減率c%は、(削減するフィルタ群の数)÷(全フィルタ群の数)×100で算出される値である。なお、この閾値c%は、全畳み込み層で共通であってもよく、畳み込み層毎に異なる値であってもよい。
 次に、特定クラス削除部215は、ステップS52において畳み込みフィルタ群を削除したことで、影響を受ける後段の畳み込み層内の各畳み込みフィルタ群内のフィルタを削除する(S53)。ここでの処理は、図4のステップS23での処理と同様である。
 次に、特定クラス削除部215は、畳み込みフィルタ群が削除された畳み込みニューラルネットワークを再学習する(S54)。なお、図2に示されているように、再学習部114による再学習が行われるようになっているため、ステップS54での再学習は行われなくてもよい。
 以上のように、ステップS52の処理により、各畳み込み層の中で、それぞれ検知したい特定クラスを強く活性化しない畳み込みフィルタ群が閾値c%の個数だけ各畳み込み層から削除される。
 以上のように、実施の形態2によれば、ステップS10の転移学習の後、ステップS11で情報量の少ない特徴マップを出力する畳み込みフィルタ群が削除された後、ステップS42でさらに検知したい特定クラスを強く活性化しない畳み込みフィルタ群が削除されるため、検知したい特定のクラスの検出精度を維持しつつ、ネットワーク規模をより小さくすることができる。
 なお、ステップS11での処理と、ステップS42での処理の順番については、逆の順番であってもよい。
 また、畳み込みフィルタ群の活性化出力に対して、各畳み込みフィルタ群の活性化出力の平均活性化度を求め、特定クラスをあまり活性化しない不要な畳み込みフィルタ群を削除するようにした利点として、一般に、畳み込みフィルタ群の縦×横のサイズは、5×5、3×3、1×1のように小さなサイズとなっているが、畳み込みフィルタ群の活性化出力は、畳み込みフィルタのサイズよりも大きなサイズとなっている。そのため、畳み込みフィルタ群の重みの大きさの絶対値和又は二乗和を、畳み込みフィルタ群の活性化度として直接求めるよりも、検知したい特定の分類クラスの画像を入力したときのフィルタ出力の平均活性化度を求めるほうが、より大きな情報をもとに活性化度を計算することができる。このため、より的確に削減候補を抽出でき、畳み込みフィルタ群の削除による分類精度劣化の影響を抑えることができる。
実施の形態3.
 実施の形態1及び実施の形態2で記載した情報量の少ない特徴マップを出力するフィルタ群削除処理、冗長性の高い特徴マップを出力するフィルタ群削除処理、及び、検知したい特定クラスを強く活性化しない畳み込みフィルタ群削除処理の全てが行われてもよい。
 図15は、実施の形態3に係る学習処理装置300の構成を概略的に示すブロック図である。
 図示するように、学習処理装置300は、記憶部101と、制御部310とを備える。
 実施の形態3における学習処理装置300の記憶部101は、実施の形態1における学習処理装置100の記憶部101と同様である。
 制御部310は、学習処理装置300での処理を制御する。例えば、制御部310は、ニューラルネットワークでの学習モデルであるニューラルネットワークモデルを学習する。そして、制御部310は、畳み込みニューラルネットワークの畳み込みフィルタ群を削除し、ネットワークサイズを小さくする処理を行う。
 制御部310は、転移学習部111と、情報量削除部112と、冗長性削除部113と、再学習部114と、特定クラス削除部215とを備える。
 実施の形態3における制御部310の転移学習部111、情報量削除部112、冗長性削除部113及び再学習部114は、実施の形態1における制御部110の転移学習部111、情報量削除部112、冗長性削除部113及び再学習部114と同様である。
 また、実施の形態3における制御部310の特定クラス削除部215は、実施の形態2における制御部210の特定クラス削除部215と同様である。
 実施の形態3では、情報量の少ない特徴マップを出力するフィルタ群削除処理、冗長性の高い特徴マップを出力するフィルタ群削除処理、及び、検知したい特定クラスを強く活性化しない畳み込みフィルタ群削除処理が行われるが、これらが行われる順番については、任意の順番でよい。
 実施の形態3によれば、検知したい特定のクラスの検知精度を維持しつつ、よりネットワーク規模を小さくすることができる。
 なお、以上に記載された制御部110、210、310の一部又は全部は、例えば、図16(A)に示されているように、メモリ10と、メモリ10に格納されているプログラムを実行するCPU(Central Processing Unit)等のプロセッサ11とにより構成することができる。言い換えると、学習処理装置100、200、300は、いわゆるコンピュータで実現することができる。そのようなプログラムは、ネットワークを通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。
 また、制御部110、210、310の一部又は全部は、例えば、図16(B)に示されているように、単一回路、複合回路、プログラムで動作するプロセッサ、プログラムで動作する並列プロセッサ、ASIC(Application Specific Integrated Circuit)又はFPGA(Field Programmable Gate Array)等の処理回路12で構成することもできる。
 以上のように、制御部110、210、310は、処理回路網により実現することができる。
 以上に記載された実施の形態1~3では、図3のステップS10及び図11のステップS10における転移学習処理、図3のステップS11及び図11のステップS11における情報量の少ない特徴マップを出力するフィルタ群を削除する処理、並びに、図3のステップS13及び図11のステップS13における再学習処理が行われているが、これらの処理の少なくとも何れか一つは行われなくてもよい。
 100,200,300 学習処理装置、 101 記憶部、 110,210,310 制御部、 111 転移学習部、 112 情報量削除部、 113 冗長性削除部、 215 特定クラス削除部、 114 再学習部。

Claims (8)

  1.  複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部と、
     前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力間の類似度の平均値である平均類似度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均類似度が最も大きい畳み込みフィルタ群を少なくとも削除する冗長性削除部と、を備えること
     を特徴とする学習処理装置。
  2.  前記冗長性削除部は、前記少なくとも一つの畳み込み層の一つ後段の畳み込み層に含まれている複数の畳み込み群から、前記削除された畳み込みフィルタ群から出力される活性化出力を処理するためのフィルタを削除すること
     を特徴とする請求項1に記載の学習処理装置。
  3.  複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部と、
     検知する特定のクラスの少なくとも一つの画像を前記畳み込みニューラルネットワークモデルに入力し、前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力の活性化度の平均値である平均活性化度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均活性化度が最も小さい畳み込みフィルタ群を少なくとも削除する特定クラス削除部と、を備えること
     を特徴とする学習処理装置。
  4.  前記特定クラス削除部は、前記少なくとも一つの畳み込み層の一つ後段の畳み込み層に含まれている複数の畳み込み群から、前記削除された畳み込みフィルタ群から出力される活性化出力処理するためのフィルタを削除すること
     を特徴とする請求項3に記載の学習処理装置。
  5.  コンピュータを、
     複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部、及び、
     前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力間の類似度の平均値である平均類似度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均類似度が最も大きい畳み込みフィルタ群を少なくとも削除する冗長性削除部、として機能させること
     を特徴とするプログラム。
  6.  コンピュータを、
     複数の畳み込み層を有する再学習前学習済モデルを記憶する記憶部、及び、
     検知する特定のクラスの少なくとも一つの画像を前記畳み込みニューラルネットワークモデルに入力し、前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力の活性化度の平均値である平均活性化度を、前記複数の畳み込みフィルタ群毎に算出し、前記平均活性化度が最も小さい畳み込みフィルタ群を少なくとも削除する特定クラス削除部、として機能させること
     を特徴とするプログラム。
  7.  複数の畳み込み層を有する再学習前学習済モデルにおける前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力間の類似度の平均値である平均類似度を、前記複数の畳み込みフィルタ群毎に算出し、
     前記平均類似度が最も大きい畳み込みフィルタ群を少なくとも削除すること
     を特徴とする学習処理方法。
  8.  複数の畳み込み層を有する再学習前学習済モデルに、検知する特定のクラスの少なくとも一つの画像を入力し、
     前記複数の畳み込み層に含まれている少なくとも一つの畳み込み層に含まれている複数の畳み込みフィルタ群から出力される複数の活性化出力の活性化度の平均値である平均活性化度を、前記複数の畳み込みフィルタ群毎に算出し、
     前記平均活性化度が最も小さい畳み込みフィルタ群を少なくとも削除すること
     を特徴とする学習処理方法。
PCT/JP2022/022485 2022-06-02 2022-06-02 学習処理装置、プログラム及び学習処理方法 WO2023233621A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/022485 WO2023233621A1 (ja) 2022-06-02 2022-06-02 学習処理装置、プログラム及び学習処理方法
JP2022567099A JPWO2023233621A1 (ja) 2022-06-02 2022-06-02

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/022485 WO2023233621A1 (ja) 2022-06-02 2022-06-02 学習処理装置、プログラム及び学習処理方法

Publications (1)

Publication Number Publication Date
WO2023233621A1 true WO2023233621A1 (ja) 2023-12-07

Family

ID=89026097

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/022485 WO2023233621A1 (ja) 2022-06-02 2022-06-02 学習処理装置、プログラム及び学習処理方法

Country Status (2)

Country Link
JP (1) JPWO2023233621A1 (ja)
WO (1) WO2023233621A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020148482A1 (en) * 2019-01-18 2020-07-23 Nokia Technologies Oy Apparatus and a method for neural network compression
JP2021108039A (ja) * 2019-12-27 2021-07-29 Kddi株式会社 モデル圧縮装置及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020148482A1 (en) * 2019-01-18 2020-07-23 Nokia Technologies Oy Apparatus and a method for neural network compression
JP2021108039A (ja) * 2019-12-27 2021-07-29 Kddi株式会社 モデル圧縮装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUANZHI DUAN; XIAOFANG HU; YUE ZHOU; QIANG LIU; SHUKAI DUAN: "Network Compression via Central Filter", ARXIV.ORG, 13 December 2021 (2021-12-13), XP091114797 *

Also Published As

Publication number Publication date
JPWO2023233621A1 (ja) 2023-12-07

Similar Documents

Publication Publication Date Title
Salih et al. Combining best features selection using three classifiers in intrusion detection system
Ishida et al. Deep learning-based wafer-map failure pattern recognition framework
CN107408209B (zh) 用于在半导体工艺中进行缺陷分类的系统和方法
CN108345827B (zh) 识别文档方向的方法、系统和神经网络
Chen et al. Confidence scoring using whitebox meta-models with linear classifier probes
JP2004054956A (ja) 顔/類似顔映像で学習されたパターン分類器を利用した顔検出方法及びシステム
CN110602120B (zh) 一种面向网络的入侵数据检测方法
US11435719B2 (en) System and method for identifying manufacturing defects
US20210158161A1 (en) Methods and Systems for Detecting Spurious Data Patterns
JP7268756B2 (ja) 劣化抑制プログラム、劣化抑制方法および情報処理装置
Shawon et al. Silicon wafer map defect classification using deep convolutional neural network with data augmentation
Shoohi et al. DCGAN for Handling Imbalanced Malaria Dataset based on Over-Sampling Technique and using CNN.
Liu et al. A dual-branch balance saliency model based on discriminative feature for fabric defect detection
WO2023233621A1 (ja) 学習処理装置、プログラム及び学習処理方法
CN113157561A (zh) 一种数控系统软件模块的缺陷预测方法
CN117134958A (zh) 用于网络技术服务的信息处理方法及系统
JP2008040684A (ja) 信号識別装置の学習方法
Biasielli et al. A smart fault detection scheme for reliable image processing applications
Yang et al. Convolutional autoencoder-based sensor fault classification
Mohammed et al. Neural network behavior analysis based on transfer functions MLP & RB in face recognition
CN110504004B (zh) 一种基于复杂网络结构可控性基因的识别方法
JP2007213441A (ja) 多変数決定木構築システム、多変数決定木構築方法および多変数決定木を構築するためのプログラム
CN110265151B (zh) 一种基于ehr中异构时态数据的学习方法
WO2021024297A1 (ja) 敵対的事例検知システム、方法およびプログラム
Mandal et al. Adaptive median filtering based on unsupervised classification of pixels

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022567099

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22944902

Country of ref document: EP

Kind code of ref document: A1