WO2008072459A1 - 能動学習システム、能動学習方法、及び能動学習用プログラム - Google Patents

能動学習システム、能動学習方法、及び能動学習用プログラム Download PDF

Info

Publication number
WO2008072459A1
WO2008072459A1 PCT/JP2007/072651 JP2007072651W WO2008072459A1 WO 2008072459 A1 WO2008072459 A1 WO 2008072459A1 JP 2007072651 W JP2007072651 W JP 2007072651W WO 2008072459 A1 WO2008072459 A1 WO 2008072459A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning data
group
learning
candidate
weight
Prior art date
Application number
PCT/JP2007/072651
Other languages
English (en)
French (fr)
Inventor
Yoshiko Yamashita
Yukiko Kuroiwa
Minoru Asogawa
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US12/448,082 priority Critical patent/US20100005043A1/en
Priority to JP2008549233A priority patent/JP5187635B2/ja
Priority to EP07832380.5A priority patent/EP2096585A4/en
Publication of WO2008072459A1 publication Critical patent/WO2008072459A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Definitions

  • Active learning system Active learning method, and program for active learning
  • the present invention relates to an active learning system, and more particularly to an active learning system in machine learning.
  • This application is based on a Japanese patent application filed in Japanese Patent Application No. 2006-332983 filed on December 11, 2006. The priority of the application is claimed and the disclosure of the application is By quoting, it is incorporated here in its entirety.
  • Active learning is a form of machine learning technique that enables a learner (computer) to actively select learning data. In active learning, the total amount of experiment can be reduced by repeating the cycle of (1) experiment ⁇ (2) learning of result ⁇ (3) selection of next experiment target ⁇ (1) experiment. (2) and (3) are performed by a computer. Active learning is a method for obtaining a large number of results with a small number of experiments or a small amount of experiments, and is used in an experiment design method that appropriately plans experiments that require a lot of cost and time.
  • a computer system using active learning (hereinafter referred to as an active learning system) is, for example, a technology suitable for drug discovery screening that finds compounds that are active against a specific protein from a vast variety of compounds. It is attracting attention.
  • Data (learning data) handled by an active learning system is expressed by a plurality of descriptors (attributes) and one or more labels.
  • a descriptor characterizes the structure of the data, and a label indicates the state of an event of the data.
  • individual compound data describes the presence or absence of a partial structure such as a benzene ring in a 0/1 bit string, and various physicochemical constants such as molecular weight. Represented by multiple descriptors.
  • the label is used, for example, to indicate the presence or absence of activity against a specific protein.
  • the possible values of a label are called classes if they are discrete values, such as active and inactive.
  • the value that a label can take is a continuous value, it is called a function value. That is, the label includes a class or function value.
  • the label value of a plurality of learning data is known as a set of learning data (label The learning data is called the known learning data group, and the label value is unknown (the label is set! /, Na! /,)
  • the learning data is the unknown learning data group. Called.
  • initial learning is performed using known learning data.
  • learning data that is valuable to the user is referred to as “positive example” (positive example learning data)
  • data that is not valuable to the user is referred to as “negative example” (negative example learning data).
  • the active learning system learns using both positive example learning data and negative example learning data selected from the known learning data group. Positive examples and negative examples are determined by the value of the label that is noticed by the active learning system.
  • the value of the label of interest takes a binary value
  • the value of the user's attention is a positive example
  • the value that is not is a negative example.
  • the label with the value of activity is a positive example.
  • a label with an inactive value is a negative example.
  • the label is multi-valued, one or more values that are attracting attention by the active learning system are positive examples, and all other values are negative examples.
  • the values that can be taken by the label are continuous values, those that have a label value near the value noted by the active learning system are positive examples, and those that exist elsewhere are negative examples.
  • An active learning system selects arbitrary known learning data from a group of known learning data, applies ensemble learning (a method of performing prediction by integrating multiple learning machines), and applies it to the learning data.
  • ensemble learning a method of performing prediction by integrating multiple learning machines
  • a rule is generated (learned) using a positive example and a negative example for generating a rule for selecting the positive example learning data or the negative example learning data.
  • the rule is to select whether the value of the label of the learning data is the value of interest when the descriptor of any known learning data is input, in other words, whether the data is positive or negative. It expresses the hypothesis and rules.
  • Typical ensemble learning methods include bagging and boosting.
  • Bagging is one of the ensemble learning methods. Each learning machine learns using different learning data groups generated by resampling data from the same known case database. This is a technique to predict the class of unknown cases by majority decision of these predicted values.
  • Boosting is the integration of a number of different discriminating rules. It is one learning algorithm to make a good discrimination rule.
  • an integrated discrimination rule is a weighted majority rule based on the score given to each discrimination rule. This is called boosting because the score is repeatedly raised and lowered during the learning process.
  • the active learning system learns from arbitrary known learning data in the known learning data group, and generates a rule for the arbitrary known learning data.
  • the unknown learning data group is set as the candidate learning data group, and the rules are applied to the candidate learning data group to predict the label value of the candidate learning data group. That is, it is predicted whether or not the candidate learning data group is positive example learning data, and a prediction result is generated.
  • This prediction result is quantitatively shown by a numerical value called a score.
  • the score is a numerical value representing the likelihood of a positive example for each candidate learning data group, and the larger the value, the higher the possibility of being a positive example.
  • the active learning system selects and outputs selected candidate learning data representing learning data to be learned from the candidate learning data group based on the prediction result for the candidate learning data group.
  • this selection method there are several methods, such as a method of selecting data whose prediction is broken, a method of selecting data in descending order of score, and a method of selecting using a certain function.
  • the label value of the selection candidate learning data is unknown, the actual value of the label is examined by experiments or surveys and fed back to the active learning system.
  • the active learning system sets the label to the selected candidate learning data, removes the selected candidate learning data from the candidate learning data group, adds the selected candidate learning data to the known learning data group, and repeats the same operation as described above. Such a process is repeated until a predetermined end condition is satisfied.
  • the active learning system is used as a technique for discovering positive examples early with a small amount of experiment.
  • drug discovery screening finds compounds that are active against a specific protein from a vast variety of compounds. In this case, the majority of compounds with no activity (negative examples) and very few compounds with activity (positive examples). Thus, even when the number of positive examples and negative examples is unbalanced, an active compound (positive example) can be discovered early with an experimental amount of a small number of compounds.
  • the conventional technique has the following problems.
  • the active learning system is configured so that the previously stored known learning data in the known learning data group and the newly added known learning data have the same polarity. is there.
  • the rules for known learning data accumulated previously and the rules for newly added known learning data do not differ much. In such an active learning system, there is no significant effect due to the addition of known learning data to the previously stored known learning data.
  • JP-A-2005-107743 discloses a learning system.
  • the learning unit of the data processing unit inputs the learning data, the lower learning algorithm, and the end condition by the user's operation of the input device.
  • Learning data is data with a label (class or function value) set.
  • the lower learning algorithm is a computer program for performing active learning.
  • the learning unit stores the input learning data and the end condition in the learning data storage unit.
  • the lower learning algorithm is input together with the learning data and the end condition, but may be stored in advance in the learning data storage unit.
  • the learning department performs the learning process using the lower learning algorithm.
  • Japanese Patent Laid-Open No. 2001-325272 discloses an information organizing method, an information processing apparatus, a storage medium, and a program transmission apparatus.
  • Japanese Patent Laid-Open No. 2005-284348 discloses an information processing apparatus and method, a recording medium, and a program.
  • a weak discriminator is selected using data weights, and the reference value is calculated based on the cumulative sum of the values weighted by the reliability based on the discrimination result of the learning sample by the selected weak discriminator. .
  • Delete part of the training sample based on the calculated reference value Calculate data weights based on the learning samples that were not deleted!
  • Japanese Patent Application Laid-Open No. 2006-139718 discloses a topic word combining method and a topic word combining / representative word extracting method, apparatus and program.
  • the document sharing degree can be calculated using the freshness weight of the date and time of each document instead of the number of documents.
  • document sharing level (sum of freshness weights of each shared document) / (sum of freshness weights of documents of two corresponding topic words). This freshness weight acts so that the newer the document date and time, the higher the document sharing level.
  • each sample of learning data which is a set of samples composed of an explanatory variable including one or more variables for explaining a predetermined event and a non-explanatory variable that takes a value corresponding to the explanatory variable.
  • the probability corresponding to the value of the non-explanatory variable is calculated based on a probabilistic model prepared in advance.
  • the weight for each sample of the learning data is calculated based on the calculated probability.
  • a new probability model is created based on the calculated weight and learning data, and stored in the model storage device. Furthermore, using the probability model stored in the model storage device, the probability that an event will occur or will not occur is calculated for the input parameter in the same data format as the explanatory variable.
  • An object of the present invention is to provide an active learning system in which learning efficiency is improved by considering an acquisition order of learning data.
  • the active learning system of the present invention includes a learning data storage unit, a control unit, a learning unit, a candidate data storage unit, a prediction unit, a candidate data selection unit, and a data update unit. is doing.
  • the learning data storage unit stores a known learning data group in which a label indicating whether or not the learning data is valuable to the user is set.
  • the control unit sets a weight that increases in proportion to the acquisition order for each of the known learning data groups.
  • learning data that is valuable to the user is referred to as positive example learning data
  • learning data that is not valuable to the user is referred to as negative example learning data.
  • the learning unit selects selected known learning data having the largest weight from the known learning data group.
  • the candidate data storage unit stores a candidate learning data group that is learning data other than the known learning data group among the plurality of learning data.
  • the predicting unit applies the rule to a candidate learning data group that is learning data other than the known learning data group among the plurality of learning data, and the positive example learning data with respect to the candidate learning data group. Predict whether or not there is, and generate prediction results.
  • the candidate data selection unit selects selection candidate learning data representing learning data to be learned from the candidate learning data group based on the prediction result.
  • the data updating unit outputs the selection candidate learning data to an output device, sets the label input from the input device to the selection candidate learning data, and removes the selection candidate learning data from the candidate learning data group. Are added to the known learning data group as known learning data.
  • FIG. 1 is a block diagram of an active learning system according to first and second embodiments of the present invention.
  • FIG. 2 is a block diagram of an active learning system according to a first embodiment of the present invention.
  • FIG. 3 is a diagram showing a format example of learning data handled in the present invention.
  • FIG. 4 is a diagram showing an example of the contents of a rule storage unit.
  • FIG. 5 is a diagram showing an example of a learning data set handled in the first embodiment of the present invention.
  • FIG. 6 is a flowchart showing the operation of the active learning system according to the first embodiment of the present invention.
  • FIG. 7 is a block diagram of an active learning system according to a second embodiment of the present invention.
  • FIG. 8 is a flowchart showing the operation of the active learning system according to the second embodiment of the present invention.
  • the active learning system includes an input / output device 110, a processing device 120, and a storage device 130.
  • the input / output device 110 includes an input device such as a keyboard and a mouse, and an output device such as an LCD and a printer.
  • the storage device 130 includes a semiconductor memory, a magnetic disk, and the like.
  • the processing device 120 is a computer, and includes a CPU (Central Processing Unit) 20.
  • the storage device 130 includes a recording medium 30 in which a computer program 10 to be executed by a computer is stored.
  • the CPU 20 reads the computer program 10 from the recording medium 30 and executes it when the computer is started up.
  • the storage device 130 further includes a learning data storage unit (learning data storage unit 131), a rule storage unit (rule storage unit 132), and a candidate data storage unit (candidate data).
  • a known learning data representing learning data having a known label value (a label is set! /) That is among a plurality of learning data as a set of learning data.
  • Data groups are stored.
  • Each known learning data group includes, for example, as shown in FIG. 3, an identifier 201 for identifying the learning data, a plurality of descriptors 202, a plurality of labels 203, a weight 204, and the number of acquisition cycles. Including 205.
  • the descriptor 202 characterizes the structure of the learning data.
  • a label 203 indicates a state related to a certain event of the learning data, and includes a class or a function.
  • the label 203 indicates whether or not the event 203 is valuable to the user.
  • learning data that is valuable to the user is called “positive example” (positive example learning data)
  • learning data that is not valuable to the user is “negative example” (negative example learning data). Called.
  • the weight 204 takes a value from 0 to 1, for example, and indicates that the closer to 1 (the larger the value), the higher the importance. The same weight is set for the first time.
  • the acquisition cycle number 205 is information for obtaining an index of significance relating to rule generation for learning data, and the number of cycles in which the learning data is acquired is recorded. Acquisition cycle The number of data 205 may be stored in the learning data storage unit 131 in association with a plurality of learning data that is not included in each of the plurality of learning data! /.
  • the rule storage unit 132 stores a group of rules learned by, for example, the pugging method using the known learning data group stored in the learning data storage unit 131.
  • each rule group 301 includes a rule identifier group 302 that identifies itself, and is thereby distinguished from other rules.
  • Each rule 301 indicates that when an arbitrary learning data descriptor 202 is input, whether the learning data represents a positive example that is valuable to the user, that is, a desired label value is desired. It is for predicting whether it is a value, and is involved in the calculation of the score.
  • the score is a numerical value that represents the correctness of the learning data. For example, the score takes a value of 0 to;!
  • the candidate data storage unit 133 as a group of unknown learning data representing a learning data whose label value is unknown (a label is set! / ,! A candidate learning data group is stored. Similar to the learning data stored in the learning data storage unit 131, the candidate learning data group has a structure as shown in FIG. However, among the plurality of labels 203, the label on which learning is performed (desired label) is known in the known learning data group, that is, a significant value is set, but is not in the candidate learning data group. The difference is that it is unknown, that is, not set.
  • the selection data storage unit 134 is a part that stores selection candidate learning data selected by the processing device 120 as learning data to be learned next out of the candidate learning data group stored in the candidate data storage unit 133. is there.
  • the computer program 10 described above includes an active learning unit 140 and a control unit 150.
  • the active learning unit 140 includes a learning unit (learning unit 141), a prediction unit (prediction unit 142), a candidate data selection unit (candidate data selection unit 143), and a data update unit (data update unit 144). ).
  • the learning unit 141 reads the known learning data group from the learning data storage unit 131, and selects the selected known learning data having the largest weight 204 (described later) from the known learning data group. .
  • the selected known learning data represents the latest learning data from learning data other than the selected known learning data in the known learning data group.
  • the learning unit 141 generates (learns) a rule 301 for selecting positive example learning data or the negative example learning data from the selected known learning data, and stores the rule 301 in the rule storage unit 132 as the latest rule 301. To do.
  • the prediction unit 142 reads the latest rule 301 from the rule group 301 stored in the rule storage unit 132 and also reads the candidate learning data group from the candidate data storage unit 133.
  • the prediction unit 142 applies the read rule 301 to the candidate learning data group, and predicts whether or not the candidate learning data group is positive example learning data. That is, as a prediction result, for each candidate learning data group, the descriptor is input to the rule 301 to calculate a score representing the normality.
  • the prediction unit 142 outputs the prediction result to the candidate data selection unit 143.
  • Candidate data selection section 143 selects selection candidates representing learning data to be the next learning target from the candidate learning data group based on the scores for each of the candidate learning data calculated as the prediction results.
  • the learning data is selected, and the selection candidate learning data is stored in the selection data storage unit 134.
  • a method for selecting the selection candidate learning data a total or average score is obtained for each of the candidate learning data groups, and the selection candidate learning data is selected in descending order of the total or average score.
  • a method of selecting using a predetermined function can be used. Other methods are also applicable, such as a method of obtaining the variance of scores and selecting candidate learning data with poor prediction as selection candidate learning data.
  • the data updating unit 144 reads the selection candidate learning data stored in the selection data storage unit 134 and outputs it to the input / output device 110. At this time, the value of the label (desired label) is input from the input / output device 110. The data updating unit 144 sets the label (label value) as selection candidate learning data, removes the selection candidate learning data from the candidate learning data group stored in the candidate learning data storage unit 133, and removes the known learning data. To the known learning data group stored in the learning data storage unit 131. When adding known learning data to the learning data storage unit 131, the current number of active learning cycles is recorded in the acquisition cycle number 205. The output of the selection candidate learning data to be learned next from the input / output device 110 is shown in FIG.
  • the input of the label value from the input / output device 110 may be the entire data in which the value is input, or may be a set of the identifier 201, the label number, and the label value.
  • the label number is a number that identifies one label among multiple labels.
  • the data update unit 144 searches the selection data storage unit 134 for selection candidate learning data having the input identifier 201, sets the input value to the label of the specified label number, and learns it as known learning data. While registering in the data storage unit 131, the candidate candidate learning data having the input identifier 201 is searched from the candidate data storage unit 133 and deleted.
  • the control unit 150 includes a learning setting acquisition unit (learning setting acquisition unit 151), a learning data survey unit (learning data survey unit 152), and a learning data weight setting unit (learning data weight setting unit 1 53). It has.
  • the learning setting acquisition unit 151 acquires a learning condition including information representing a desired label (a label to be learned and a value in the case of the positive example) from the user or the like through the input / output device 110, and the active learning unit The processing is transferred to 140 learning units 141.
  • the learning data examining unit 152 checks the acquired cyclore number 205 stored in the learning data storage unit 131 and outputs it to the learning data weight setting unit 153.
  • the learning data weight setting unit 153 reads a known learning data group from the learning data storage unit 131 and sets a weight 204 that increases in proportion to the acquisition order for each of the known learning data groups.
  • the weight 204 is a value (0 ⁇ 0) for performing learning that places importance on the newly added known learning data in the known learning data group and that has been accumulated from the previous learning data. !; 0), which is determined based on the number of acquisition cycles 205.
  • a method of setting the weight a method of setting using a monotonically increasing function for the number of acquisition cycles 205 can be used.
  • the learning data weight setting unit 153 sets a weight 204 for each of the known learning data groups according to the acquisition order of the known learning data groups.
  • a function f (x) monotonically increasing up to the number of cycles X is applied to the known learning data group, for example, as shown in FIG.
  • the learning data weight setting unit 153 advances the processing to the learning unit 141 of the active learning unit 140 after completing the weight setting processing.
  • the importance is varied depending on the value of the learning weight 204.
  • learning data with a larger weight 204 is more important than learning data with a smaller weight.
  • a known learning data group is stored in the learning data storage unit 131 of the storage device 130, and a candidate learning data group is stored in the candidate data storage unit 133.
  • the weights 204 of the known learning data group and the candidate learning data group are set to the same weight.
  • no selection data is stored in the selection data storage unit 134 in which no rule is stored in the rule storage unit 132.
  • the learning condition given from the input / output device 110 is supplied to the learning setting acquisition unit 151 of the control unit 150. Then, the process proceeds to the learning unit 141.
  • the learning unit 141 reads the known learning data group from the learning data storage unit 131, and selects the selected known learning data having the largest weight 204 from the known learning data group.
  • the selected known learning data represents the latest learning data from the learning data other than the selected known learning data in the known learning data group.
  • the learning unit 141 generates (learns) a rule 301 for selecting positive example learning data or the negative example learning data from the selected known learning data, and stores the rule 301 in the rule storage unit 132 as the latest rule 301.
  • the predicting unit 142 applies the latest rule 301 stored in the rule storage unit 132 to the candidate learning data group stored in the candidate data storage unit 133, and is a positive example learning data for the candidate learning data group. Predict whether or not.
  • the prediction unit 142 outputs the prediction result to the candidate data selection unit 143.
  • the candidate data selection unit 143 selects the selection candidate learning data representing the learning data to be the next learning target from the candidate learning data group, and the selection candidate learning data is stored in the selection data storage unit 134.
  • the selection candidate learning data is stored in the selection data storage unit 134.
  • the data update unit 144 reads the selection candidate learning data stored in the selection data storage unit 134 and outputs it to the input / output device 110.
  • the data updating unit 144 sets the label (label value) as selection candidate learning data.
  • the data update unit 144 removes the selected candidate learning data from the candidate learning data group stored in the candidate data storage unit 133 and adds the selected candidate learning data to the known learning data group stored in the learning data storage unit 131 as known learning data. This completes one cycle of active learning, and the process moves to the control unit 150.
  • the control unit 150 determines whether the end condition is satisfied or not, and if the end condition is not satisfied, the control unit 150 proceeds to the learning data examining unit 152. In this case, in the learning data storage unit 131, the known learning data existing at the learning start time in the known learning data group and the known learning data added by the data updating unit 144 are mixed. The value of the desired label in the latter added known learning data is the actual value that has been examined through experimentation or investigation. On the other hand, if the end condition is satisfied, control unit 150 stops the repetition of the active learning cycle. The end condition is given from the input / output device 110, and the condition is good under any condition such as the maximum number of repetitions of the active learning cycle.
  • the learning data examining unit 152 checks the learning data acquisition cycle number 205 stored in the learning data storage unit 131, and outputs it to the learning data weight setting unit 153.
  • the learning data weight setting unit 153 reads the learning data from the learning data storage unit 131, and adds a weight 204 that increases in proportion to the acquisition order to each of the known learning data groups.
  • the active learning system learning in which newly added known learning data in the group of known learning data is more important than previously stored known learning data. It can be performed.
  • the reason is that, according to the number of acquisition cycles 205, the weight 204 having a larger value is set for newly acquired known learning data and accumulated from before. The weight 204 having a smaller value is set for the known learning data.
  • a rule 301 that reflects the newly acquired known learning data is generated.
  • it is expected that a rule 301 having a different property from the rule 301 generated in the previous cycle is generated.
  • the known learning data to be learned next which is selected from the candidate learning data by applying the rule 301, has more positive examples and various positive examples than the learning that does not make a difference in importance.
  • the probability of inclusion increases.
  • the learning efficiency is improved by considering the acquisition order of known learning data.
  • control unit 150 uses a learning review unit (learning review unit 154) instead of the learning data survey unit 152 and the learning data weight setting unit 153.
  • learning review unit 154 instead of the learning data survey unit 152 and the learning data weight setting unit 153.
  • the storage device 130 further includes rule identifier storage means (rule identifier storage unit 135).
  • the active learning system is similar to the first embodiment shown in FIG. 2 in that the input / output device 110, the processing device 120, the storage device 130, It has.
  • the processing device 120 includes an active learning unit 140 and a control unit 150.
  • the storage device 130 includes a learning data storage unit 131, a rule storage unit 132, a candidate data storage unit 133, a selection data storage unit 134, and a rule identifier storage unit 135.
  • the control unit 150 includes a learning setting acquisition unit 151 and a learning review unit 154. Other configurations are the same as those of the first embodiment shown in FIG.
  • the learning review unit 154 reads the known learning data group from the learning data storage unit 131, and reads the rule group 301 that is the rule 301 corresponding to each of the known learning data group from the rule storage unit 132.
  • the learning review unit 154 sets a weight 204 that increases in proportion to the acquisition order for each of the known learning data groups.
  • the learning review unit 154 applies the rule group 301 to the positive known learning data group representing the positive example learning data in the known learning data group according to the acquisition order of the rule group 301.
  • a score representing the number of positive example learning data is determined, and the weight 204 set for each of the known learning data groups is adjusted based on the score. This will be explained below.
  • the learning review unit 1 54 matches the known learning data added by the data updating unit 144 in the previous cycle, that is, the result of the most recently acquired known learning data, with the rule, which is the cause of rule generation. Feedback to the learning data before the previous cycle. That is, a known learning data group in which the previous cycle number is recorded as the number of acquisition cycles 205 is searched from the known learning data group stored in the learning data storage unit 131.
  • the learning review unit 1 54 performs processing on the positive example known learning data group. Then, the importance level is calculated by applying the rule group 301 stored in the rule storage unit 132! /. In calculating the importance of each rule group 301, a score representing the number of positive example learning data when applied to the positive example known learning data group is obtained, and the maximum or average score may be used.
  • the learning review unit 154 selects a rule having high importance from the group of norails 301 as the selection rule 301, and selects the knowledge IJ child 302 of the selection knowledge 301 and selects the knowledge IJ child 302. 302 is stored in the rule identifier storage unit 135.
  • the determination of the level of importance of a rule may be a value greater than a certain threshold value, a higher fixed ratio of the calculated value, or a higher fixed ratio of the number of rules.
  • the learning review unit 154 stores a number less than or equal to the previous cycle number as the acquisition cycle number 205 from the known learning data group stored in the learning data storage unit 131.
  • the learning data is read, and for each of the known learning data, the descriptor is input to the selection rule 301 to calculate a score representing the likelihood of being a positive example.
  • the learning review unit 1 54 compares the calculated score with the desired label value, is positive example learning data in the known learning data group, and the calculated score is higher than the predetermined score.
  • the weight 204 is increased by a predetermined value.
  • the weight 204 is reduced by a predetermined value.
  • the weight 204 is increased by a predetermined value.
  • the weight 204 is reduced by a predetermined value.
  • the weight 204 is increased by a predetermined value.
  • the weight 204 is reduced by a predetermined value.
  • the value to be set may be a constant or a calculated score value.
  • the learning review unit 154 proceeds to the learning unit 141 of the active learning unit 140.
  • the learning is advanced with a difference in importance depending on the value of the learning weight 204.
  • learning data with a larger weight 204 is more important than learning data with a smaller weight.
  • step S206 in the first cycle is the same as the operation from the start of the first embodiment to step S106.
  • the learning condition given from the input / output device 110 is supplied to the learning setting acquisition unit 151 of the control unit 150. Then, the process proceeds to the learning unit 141.
  • the learning unit 141 reads the known learning data group from the learning data storage unit 131, and selects the selected known learning data having the largest weight 204 from the known learning data group.
  • the selected known learning data represents learning data predicted more correctly than learning data other than the selected known learning data in the known learning data group.
  • the learning unit 141 generates (learns) a rule 301 for selecting positive example learning data or the negative example learning data from the selected known learning data, and stores the rule 301 as the latest rule 301 in the rule storage unit 132.
  • the predicting unit 142 applies the latest rule 301 stored in the rule storage unit 132 to the candidate learning data group stored in the candidate data storage unit 133, and is a positive example learning data for the candidate learning data group. Predict whether or not.
  • the prediction unit 142 outputs the prediction result to the candidate data selection unit 143.
  • Step S204 Based on the prediction result, the candidate data selection unit 143 selects the selection candidate learning data representing the learning data to be the next learning target from the candidate learning data group, and the selection candidate learning data is stored in the selection data storage unit 134.
  • the data update unit 144 reads the selection candidate learning data stored in the selection data storage unit 134 and outputs it to the input / output device 110.
  • the data updating unit 144 sets the label (label value) as selection candidate learning data.
  • the data update unit 144 removes the selected candidate learning data from the candidate learning data group stored in the candidate data storage unit 133 and adds the selected candidate learning data to the known learning data group stored in the learning data storage unit 131 as known learning data. This completes one cycle of active learning, and the process moves to the control unit 150.
  • the control unit 150 determines whether or not the end condition is satisfied, and if the end condition is not satisfied, the process proceeds to the learning review unit 154.
  • the learning data storage unit 131 the known learning data existing at the learning start time in the known learning data group and the known learning data added by the data update unit 144 are mixed.
  • the value of the desired label in the latter added learning data is the actual value that has been examined through experimentation or investigation.
  • the control unit 150 stops the repetition of the active learning cycle.
  • the termination condition is given from the input / output device 110, and the condition may be any condition such as the maximum number of repetitions of the active learning cycle.
  • the learning review unit 154 searches the known learning data group in which the previous cycle number is recorded as the acquisition cycle number 205 from the known learning data group stored in the learning data storage unit 131.
  • the retrieved known learning data group is a positive example known learning data group indicating that the desired label 203 is a positive example
  • the learning review unit 154 determines a rule for the positive example known learning data group.
  • the importance level is calculated by applying the rule group 301 stored in the storage unit 132.
  • Step S208 the learning review unit 154 selects a rule having high importance from the Norail group 301 as the selection rule 301, and stores the rule identifier 302 of the selection rule 301 as the selection rule identifier 302 in the rule identifier storage unit 135. To do.
  • the learning review unit 154 selects known learning data in which a number equal to or less than the previous cycle number is stored as the acquisition cycle number 205 from the known learning data group stored in the learning data storage unit 131. For each of the known learning data, the descriptor is input to the selection rule 301 and a score representing the likelihood of being a right example is calculated.
  • the learning review unit 154 compares the calculated score with the desired label value, and is positive example learning data in the known learning data group, and the calculated score is higher than the predetermined score.
  • the weight 204 is increased by a predetermined value.
  • the weight 204 is reduced by a predetermined value.
  • the weight 204 is increased by a predetermined value.
  • the processing after the learning unit 141 is the same as that in the first embodiment.
  • the process moves to the control unit 150 again.
  • the active learning system is provided with a function of feeding back positive example data obtained in the previous cycle to a rule for each active learning cycle.
  • This increases the weight of the learning data that was correctly predicted that the positive example is likely to be a positive example against the rule that was effective in obtaining the positive example, and the learning that was incorrectly predicted as a positive example! /
  • the weight of data is reduced.
  • the learning data correctly predicted that the negative example is not positive Increase the weight and make the negative example a positive example! /, And reduce the weight of the learning data incorrectly predicted! /.
  • the learning review unit 154 reads the known learning data group from the learning data storage unit 131, and reads the rule group 301 that is the rule 301 corresponding to each of the known learning data group from the rule storage unit 132. .
  • the learning review unit 154 sets a weight 204 that increases in proportion to the acquisition order for each known learning data group.
  • the learning review unit 154 is a positive example when the rule group 301 is applied to the positive known learning data group representing the positive learning data in the known learning data group according to the acquisition order of the rule group 301.
  • a score representing the number of learning data is determined, and the weight 204 set for each known learning data group is adjusted based on the score. That is, only the learning data in which the desired label 203 is a positive example in the known learning data group is stored in the rule storage unit 1 32 and applied to the rule group 301! / .
  • the learning review unit 154 indicates the number of positive example learning data when the rule group 301 is applied to the known learning data group according to the acquisition order of the rule group 301. Based on the score, the weight 204 set for each of the known learning data groups is adjusted. That is, in the known learning data group, the desired label 203 is applied to the rule group 301 for learning data including not only positive examples but also negative examples.
  • the power that the calculated score directly reflects in the importance of the rule.
  • the score ranges from 0 to 1. In this case, the value obtained by subtracting the calculated score from 1 is set as the positive example score. Is the score calculated in this way The importance of each rule group 301 is calculated.
  • the modified example of the present embodiment for each active learning cycle, there is provided a function of feeding back negative example learning data, which is not only the positive example learning data obtained in the previous cycle, to the rule. For this reason, at the time of learning in the next cycle, it is expected that learning with high classification ability of newly acquired learning data will be performed.
  • Learning with a rule feedback function has a higher number of positive examples and a higher probability of including various positive examples than learning without a rule feedback function.
  • the learning efficiency is improved by considering the acquisition order of rules corresponding to known learning data.
  • the active learning system and method of the present invention is a data mining method in which a user selects desired data from a large number of candidate data, such as searching for an active compound in a drug discovery screening situation. It can be applied to any use.

Abstract

以前から蓄積されているデータよりも、新しく取得されたデータを重要視した学習が行われるために、学習データの取得順序に応じて学習データに重みを設定する機能を設ける。また、前サイクルで取得したデータとその結果をより反映した学習が行われるために、前サイクルで学習した結果をルールにフィードバックし、データのラベルと予測値の関係に応じて学習データに重みを設定する機能を設ける。

Description

明 細 書
能動学習システム、能動学習方法、及び能動学習用プログラム 技術分野
[0001] 本発明は能動学習システムに関し、特に機械学習における能動学習システムに関 する。この出願 (ま、 2006年 12月 11曰 ίこ出願された特許出願番号 2006— 332983 号の日本特許出願に基づいており、その出願による優先権の利益を主張し、その出 願の開示は、引用することにより、そっくりそのままここに組み込まれている。
背景技術
[0002] 能動学習とは、学習者 (コンピュータ)が学習データを能動的に選択できる、機械学 習手法の一形態である。能動学習では、(1)実験→(2)結果の学習→(3)次の実験 対象の選択→ (1)実験、のサイクルを繰り返すことでトータルの実験量を減らすことが できる。 (2)と(3)はコンピュータによって行われる。能動学習は、少ない実験回数あ るいは実験量で多くの結果を得るための方法であり、多くの費用と時間を必要とする 実験を適切に計画する実験計画法で使われる。能動学習を用いたコンピュータシス テム(以下、能動学習システム)は、例えば、膨大な種類の化合物の中から特定のタ ンパク質に対し活性のある化合物を発見する創薬スクリーニングなどに適した技術と して注目されている。
[0003] 能動学習システムで扱われるデータ(学習データ)は、複数の記述子(属性)と 1以 上のラベルとで表現される。記述子はそのデータの構造などを特徴付けるものであり 、ラベルはそのデータの或る事象に関する状態を示している。例えば、能動学習によ る創薬スクリーニングの場合、個々の化合物データは、ベンゼン環などの部分構造の 有無を 0/1のビット列で記述したものや、分子量などの各種物理化学定数などを記 述した複数の記述子によって表現される。また、ラベルは、例えば特定のタンパク質 に対する活性の有無を示すために使用される。ラベルの取り得る値は、活性あり、活 性なしのように離散値の場合、クラスと呼ばれる。他方、ラベルが取り得る値が連続値 の場合、関数値と呼ばれる。つまり、ラベルはクラス又は関数値を含んでいる。
[0004] 学習データの集合として複数の学習データのうちの、ラベルの値が既知である(ラ ベルが設定されて!/、る)学習データは既知学習データ群と呼ばれ、ラベルの値が未 知である(ラベルが設定されて!/、な!/、)学習データは未知学習データ群と呼ばれる。 能動学習システムでは、最初の学習は、既知学習データを使って行われる。既知学 習データ群のうちの、利用者にとって価値のある学習データを「正例」(正例学習デ ータ)とし、利用者にとって価値がないものを「負例」(負例学習データ)として区別し、 能動学習システムは、既知学習データ群から選択した正例学習データ及び負例学 習データの双方を用いて学習する。正例、負例は、能動学習システムにより注目され るラベルの値で決まる。その注目されるラベルの値が 2値を取る場合、利用者の注目 する値が正例となり、そうでない値が負例となる。例えば、或るラベルが或るタンパク 質に対する活性の有無を示してレ、るものとし、そのタンパク質に対して活性のある化 合物に注目する場合、活性ありの値のラベルが正例となり、活性なしの値のラベルが 負例になる。なお、ラベルが多値の場合、能動学習システムにより注目されている 1 つ以上の値は正例となり、それ以外の全ての値は負例となる。またラベルの取り得る 値が連続値の場合、能動学習システムにより注目される値付近にラベル値が存在す るものは正例となり、それ以外のところにあるものは負例となる。
[0005] 能動学習システムは、既知学習データ群の中から、任意の既知学習データを選択 し、アンサンブル学習(複数の学習機械を統合して予測を行う手法)を適用して、その 学習データに対して前記正例学習データ又は前記負例学習データを選別するため のルールを生成する正例と負例を使ってルールを生成(学習)する。ルールは、任意 の既知学習データの記述子が入力されたとき、その学習データのラベルの値が注目 している値かどうか、換言すればそのデータが正例か、負例かを選別するための仮 説、規則を表している。代表的なアンサンブル学習手法として、パギング (Bagging) とブースティング(Boosting)がある。
[0006] バギングとは、アンサンブル学習法の 1つであり、各学習機械は、同一の既知事例 のデータベースからデータのリサンプリングを行って生成された、異なった学習デー タ群を用いて学習を行い、これらの予測値の多数決によって、未知事例のクラスを予 測する手法である。
[0007] ブースティングとは、複数の異なる判別ルールがあるとき、それらをうまく統合して 1 つの性能の良い判別ルールを作るための 1つの学習アルゴリズムである。実際には、 統合された判別ルールとは、それぞれの判別ルールは後述するスコアが与えられて 、そのスコアによる重み付き多数決ルールを指す。学習の過程でそのスコアの上げ 下げが繰り返されることからブースティングと呼ばれる。
[0008] 能動学習システムは、既知学習データ群のうちの任意の既知学習データで学習し て、任意の既知学習データに対するルールを生成する。未知学習データ群を候補学 習データ群とし、そのルールを候補学習データ群に適用し、候補学習データ群のラ ベルの値の予測を行う。即ち、候補学習データ群に対して正例学習データであるか 否かを予測し、予測結果を生成する。この予測結果は、スコアと呼ばれる数値で定量 的に示される。スコアは、個々の候補学習データ群に対して正例らしさを表す数値で あり、値が大きいほど、正例である可能性が高いことを示している。能動学習システム は、候補学習データ群に対する予測結果に基づいて、候補学習データ群の中から、 学習対象となる学習データを表す選択候補学習データを選択して出力する。この選 択方法に関しては、予測が割れたデータを選択する方法や、スコアの高い順に選択 する方法、或る関数を用いて選択する方法等、幾つかの方法がある。
[0009] 選択候補学習データは、ラベルの値が未知であるため、実験や調査などによってラ ベルの実際の値が調べられ、能動学習システムにフィードバックされる。能動学習シ ステムは、ラベルを選択候補学習データに設定し、選択候補学習データを候補学習 データ群から取り除いて既知学習データとして既知学習データ群に追加し、上述と 同様の動作が再度繰り返される。このような処理の繰り返しは、予め定められた終了 条件が満たされるまで続けられる。
[0010] これにより、能動学習システムは、少ない実験量で、かつ早期に正例を発見する技 術として用いられる。例えば、上述のように、創薬スクリーニングでは、膨大な種類の 化合物の中から特定のタンパク質に対し活性のある化合物を発見する。この場合、 活性なしの化合物 (負例)が大多数であり、活性ありの化合物(正例)が極僅かである 。このように正例と負例の数がアンバランスな場合においても、少ない化合物数の実 験量で早期に活性のある化合物(正例)を発見できる。
[0011] しかし、従来技術には、以下のような問題点が存在する。 第 1の問題点において、能動学習システムは、既知学習データ群のうちの、以前か ら蓄積されている既知学習データと、新たに追加された既知学習データとが同じ极 いにしていることである。これにより、以前から蓄積されている既知学習データに対す るルールと、新たに追加された既知学習データに対するルールは、それほど変わら ない。このような能動学習システムでは、以前から蓄積されている既知学習データに 新たに既知学習データが加わったことによる顕著な効果はない。
[0012] このように、上述の能動学習システムでは、ルールに変化がないため、そのルール を用いて次のルールを学習するための学習効率が向上しない。特に創薬スクリー二 ングのように未知ラベルの値を実験によって求める際のコストが大きい分野では、学 習コストが著しく増大する。
[0013] なお、関連する技術として、特開 2005— 107743号公報に学習システムが開示さ れている。
この従来技術では、データ処理部の学習部は、ユーザの入力装置の操作により学 習データと下位学習アルゴリズムと終了条件とを入力する。学習データは、ラベル (ク ラス又は関数値)が設定されたデータである。下位学習アルゴリズムは、能動学習を 行うためのコンピュータプログラムである。学習部は、入力した学習データと終了条件 とを学習データ記憶部に格納する。下位学習アルゴリズムは、学習データと終了条 件と共に入力されているが、予めに学習データ記憶部に格納されていても良い。学 習部は、下位学習アルゴリズムを用いて学習処理を行う。
[0014] また、特開 2001— 325272号公報に情報整理方法、情報処理装置、記憶媒体、 及びプログラム伝送装置が開示されている。
この従来技術では、新しく出現した単語に対して重み付けを高くして選別することを 特徴とする旨が示されてレ、る。
[0015] また、特開 2005— 284348号公報に情報処理装置及び方法、記録媒体、並びに プログラムが開示されている。
この従来技術では、データ重みを利用して弱判別器を選択し、選択された弱判別 器による学習サンプルの判別結果を、信頼度により重み付けした値の累積和に基づ いて基準値を演算する。演算された基準値に基づいて学習サンプルの一部を削除し 、削除されなかった学習サンプルに基づ!/、てデータ重みを演算する。
[0016] また、特開 2006— 139718号公報に話題語結合方法及び話題語結合 ·代表語抽 出方法及び装置及びプログラムが開示されている。
この従来技術では、文書共有度算出の際に、文書数の代わりに文書それぞれが持 つ日付や時刻の鮮度の重みを用いて、文書共有度を計算することもできる。例えば、 文書共有度 = (共有する文書それぞれの鮮度の重みの和) / (2つの該当する話題 語が持つ文書のそれぞれの鮮度の重みの和)。この鮮度の重みは、文書の日付や 時間が新しいものほど、文書共有度が高くなるように作用する。
[0017] 更に、特開 2006— 185099号公報に確率モデル作成方法が開示されている。
この従来技術では、所定の事象を説明するための 1つ以上の変数を含む説明変数 と該説明変数に応じた値を取る非説明変数とを組とするサンプルの集合である学習 データの各サンプル毎に、予め用意された確率モデルに基づいて、非説明変数の 値に対応する確率を算出する。また、該算出された確率に基づいて、学習データの 各サンプルに対する重みを算出する。また、算出された重みと学習データとに基づい て新たな確率モデルを作成してモデル記憶装置に記憶する。更に、モデル記憶装 置に記憶された確率モデルを用いて、説明変数と同じデータ形式の入力パラメータ に対して、事象が発生又は発生しない確率を算出する。
発明の開示
[0018] 本発明の目的は、学習データの取得順序を考慮することにより、学習効率が向上 する能動学習システムを提供することにある。
[0019] 本発明の能動学習システムは、学習データ記憶部と、制御部と、学習部と、候補デ ータ記憶部と、予測部と、候補データ選択部と、データ更新部と、を具備している。学 習データ記憶部は、複数の学習データのうちの、利用者にとって価値があるか否か を表すラベルが設定された既知学習データ群を記憶する。制御部は、前記既知学習 データ群のそれぞれに対して取得順序に比例して増加する重みを設定する。ここで 、前記既知学習データ群のうちの、利用者にとって価値がある学習データを正例学 習データとし、利用者にとって価値がない学習データを負例学習データとする。学習 部は、前記既知学習データ群の中から、前記重みが最も大きい選択既知学習デー タを選択し、前記選択既知学習データに対して前記正例学習データ又は前記負例 学習データを選別するためのルールを生成する。候補データ記憶部は、前記複数の 学習データのうちの前記既知学習データ群以外の学習データである候補学習デー タ群として記憶する。予測部は、前記ルールを前記複数の学習データのうちの前記 既知学習データ群以外の学習データである候補学習データ群に適用して、前記候 補学習データ群に対して前記正例学習データであるか否かを予測し、予測結果を生 成する。候補データ選択部は、前記予測結果に基づいて、前記候補学習データ群 の中から、学習対象となる学習データを表す選択候補学習データを選択する。デー タ更新部は、前記選択候補学習データを出力装置に出力し、入力装置から入力され る前記ラベルを前記選択候補学習データに設定し、前記選択候補学習データを前 記候補学習データ群から除いて既知学習データとして前記既知学習データ群に追 加する。
図面の簡単な説明
[0020] 上記発明の目的、効果、特徴は、添付される図面と連携して実施の形態の記述か ら、より明ら力、になる。
[0021] [図 1]図 1は、本発明の第 1及び第 2実施例による能動学習システムのブロック図であ
[図 2]図 2は、本発明の第 1実施例による能動学習システムのブロック図である。
[図 3]図 3は、本発明で扱う学習データのフォーマット例を示す図である。
[図 4]図 4は、ルール記憶部の内容例を示す図である。
[図 5]図 5は、本発明の第 1実施例で扱う学習データ集合の例を示す図である。
[図 6]図 6は、本発明の第 1実施例による能動学習システムの動作を示すフローチヤ ートである。
[図 7]図 7は、本発明の第 2実施例による能動学習システムのブロック図である。
[図 8]図 8は、本発明の第 2実施例による能動学習システムの動作を示すフローチヤ ートである。
発明を実施するための最良の形態
[0022] 以下に添付した図面を参照して、本発明の実施例による能動学習システムについ て説明する。
[0023] 図 1に示されるように、本発明の第 1実施例による能動学習システムは、入出力装 置 110と、処理装置 120と、記憶装置 130とを具備している。
[0024] 入出力装置 110は、キーボードやマウス等の入力装置と、 LCDやプリンタ等の出力 装置とを含んでいる。記憶装置 130は、半導体メモリや磁気ディスク等を含んでいる。
[0025] 処理装置 120は、コンピュータであり、 CPU (Central Processing Unit) 20を 具備している。記憶装置 130は、コンピュータに実行させるためのコンピュータプログ ラム 10が記憶された記録媒体 30を具備している。 CPU20は、コンピュータの起動時 などにコンピュータプログラム 10を記録媒体 30から読み取って実行する。
[0026] 図 2に示されるように、記憶装置 130は、更に、学習データ記憶手段(学習データ記 憶部 131)と、ルール記憶手段 (ルール記憶部 132)と、候補データ記憶手段 (候補 データ記憶部 133)と、選択データ記憶手段 (選択データ記憶部 134)とを具備して いる。
[0027] 学習データ記憶部 131には、学習データの集合として複数の学習データのうちの、 ラベルの値が既知である(ラベルが設定されて!/、る)学習データを表す既知学習デ ータ群が記憶される。既知学習データ群の各々は、例えば図 3に示されるように、当 該学習データを識別するための識別子 201と、複数の記述子 202と、複数のラベル 203と、重み 204と、取得サイクル数 205とを含んでいる。記述子 202は、当該学習 データの構造などを特徴付けるものである。ラベル 203は、当該学習データの或る事 象に関する状態を示し、クラス又は関数 を含んでいる。
[0028] ラベル 203は、事象に関するものとして、利用者にとって価値があるか否かを表して いる。既知学習データ群のうちの、利用者にとって価値のある学習データは「正例」( 正例学習データ)と呼ばれ、利用者にとって価値がない学習データは「負例」(負例 学習データ)と呼ばれる。
[0029] 重み 204は、例えば 0から 1までの値を取り、 1に近いほど(値が大きいほど)重要度 が高いことを示している。初回は同一の重みが設定されている。取得サイクル数 205 は、学習データに対するルールの生成に関する有意性の指標を得るための情報で あり、当該学習データが取得されたサイクル数が記録されている。なお、取得サイク ル数 205は複数の学習データの各々に含めるのではなぐ複数の学習データと対応 付けて学習データ記憶部 131に記憶しても良!/、。
[0030] ルール記憶部 132には、学習データ記憶部 131に記憶された既知学習データ群を 用いて、それぞれ、例えばパギング法によって学習されたルール群が記憶される。図 4に示されるように、ルール群 301は、それぞれ、 自己を識別するルール識別子群 30 2を含み、これによつて他のルールと区別される。各ルール 301は、任意の学習デー タの記述子 202が入力されたとき、その学習データが、利用者にとって価値のある正 例を表してレ、るかどうか、つまり所望のラベルの値が所望値であるかどうかを予測す るためのもので、スコアの算出に関与する。スコアは、当該学習データの正例らしさを 表す数値であり、例えば 0〜;!の値を取り、大きいほど、より正例らしいことを示してい
[0031] 候補データ記憶部 133には、複数の学習データのうちの、ラベルの値が未知であ る(ラベルが設定されて!/、な!/、)学習データを表す未知学習データ群として候補学習 データ群が記憶される。候補学習データ群は、学習データ記憶部 131に記憶された 学習データと同様に図 3に示したような構造を有している。但し、複数のラベル 203の うちの学習が行われるラベル (所望のラベル)は、既知学習データ群にあっては既知 、すなわち有意な値が設定されているのに対し、候補学習データ群にあっては未知 、すなわち未設定になっている点が相違する。
[0032] 選択データ記憶部 134は、候補データ記憶部 133に記憶された候補学習データ 群のうち、次に学習すべき学習データとして処理装置 120によって選択された選択 候補学習データを記憶する部分である。
[0033] 上記のコンピュータプログラム 10は、能動学習部 140と、制御部 150とを含んでい
[0034] 能動学習部 140は、学習手段(学習部 141)と、予測手段(予測部 142)と、候補デ ータ選択手段 (候補データ選択部 143)と、データ更新手段(データ更新部 144)とを 備えている。
[0035] 学習部 141は、学習データ記憶部 131から既知学習データ群を読み出し、既知学 習データ群の中から、重み 204 (後述)が最も大きい選択既知学習データを選択する 。選択既知学習データは、既知学習データ群のうちの選択既知学習データ以外の 学習データよりも最新の学習データを表している。学習部 141は、選択既知学習デ ータに対して正例学習データ又は前記負例学習データを選別するためのルール 30 1を生成(学習)し、最新のルール 301としてルール記憶部 132に記憶する。
[0036] 予測部 142は、ルール記憶部 132に記憶されたルール群 301の中から、最新のル ール 301を読み出すと共に、候補データ記憶部 133から候補学習データ群を読み 出す。予測部 142は、読み出されたルール 301を候補学習データ群に適用して、候 補学習データ群に対して正例学習データであるか否かを予測する。即ち、予測結果 として、候補学習データ群の各々に対して、その記述子をルール 301に入力して正 例らしさを表すスコアを算出する。予測部 142は、その予測結果を候補データ選択 部 143に出力する。
[0037] 候補データ選択部 143は、予測結果として算出された候補学習データの各々に対 するスコアに基づいて、候補学習データ群の中から、次の学習対象となる学習デー タを表す選択候補学習データを選択し、選択候補学習データを選択データ記憶部 1 34に記憶する。選択候補学習データを選択する方法としては、候補学習データ群の 各々に対してスコアの合計あるいは平均を求め、スコアの合計あるいは平均の高い 順に選択候補学習データとして選択する方法や、特開 2005— 107743号公報に記 載されるように所定の関数を用いて選択する方法などが利用できる。また、スコアの 分散を求め、予測が割れた候補学習データを選択候補学習データとして選択する方 法など、他の方法も適用可能である。
[0038] データ更新部 144は、選択データ記憶部 134に記憶された選択候補学習データを 読み出して入出力装置 110に出力する。このとき、ラベル (所望のラベル)の値が入 出力装置 110から入力される。データ更新部 144は、そのラベル (ラベルの値)を選 択候補学習データに設定し、選択候補学習データを、候補学習データ記憶部 133 に記憶された候補学習データ群から除いて、既知学習データとして学習データ記憶 部 131に記憶された既知学習データ群に追加する。既知学習データを学習データ 記憶部 131に追加する際に、取得サイクル数 205に現在の能動学習サイクル数を記 録する。次に学習すべき選択候補学習データの入出力装置 110からの出力は、図 3 に示したデータ構造全体であっても良いし、識別子 201だけであっても良い。また、 入出力装置 110からのラベルの値の入力は、その値が入力されたデータ全体であつ ても良いし、識別子 201とラベル番号とラベルの値の組であっても良い。ラベル番号 は複数のラベルの中から 1つのラベルを特定する番号である。この場合、データ更新 部 144は、入力された識別子 201を持つ選択候補学習データを選択データ記憶部 1 34から検索し、指定されたラベル番号のラベルに入力値を設定して既知学習データ として学習データ記憶部 131に登録する一方、入力された識別子 201を持つ選択候 補学習データを候補データ記憶部 133から検索して削除する。
[0039] 制御部 150は、学習設定取得手段 (学習設定取得部 151)と、学習データ調査手 段(学習データ調査部 152)と、学習データ重み設定手段(学習データ重み設定部 1 53)とを備えている。
[0040] 学習設定取得部 151は、利用者等から入出力装置 110を通じて所望のラベルを表 す情報 (学習するラベルとその正例のときの値)を含む学習条件を取得し、能動学習 部 140の学習部 141に処理を移す。
[0041] 学習データ調査部 152は、学習データ記憶部 131に記憶されている取得サイクノレ 数 205を調べ、学習データ重み設定部 153に出力する。
[0042] 学習データ重み設定部 153は、学習データ記憶部 131から既知学習データ群を読 み出し、既知学習データ群のそれぞれに対して取得順序に比例して増加する重み 2 04を設定する。ここで、重み 204は、既知学習データ群のうちの、新たに追加された 既知学習データを、以前から蓄積されてレ、る既知学習データより重要視した学習を 行うための値(0· 0〜; ! · 0)であり、取得サイクル数 205に基づいて決定される。重み を設定する方法としては、取得サイクル数 205に対して単調増加な関数を用いて設 定する方法などが利用できる。学習データ重み設定部 153は、既知学習データ群の 取得順序に応じて、既知学習データ群のそれぞれに対して重み 204を設定する。こ のとき、既知学習データ群には、例えば図 5に示されるように、サイクル数 Xまで単調 増加な関数 f (x)が適用される。学習データ重み設定部 153は、重みの設定処理を 終えると、能動学習部 140の学習部 141に処理を進める。
[0043] 学習部 141以降の処理においては、学習の重み 204の値により重要度に差をつけ て学習を進める。つまり、重み 204の大きな学習データは、それより重みの小さな学 習データより重要視して学習を進める。
[0044] 次に、図 6を参照して、本実施形態の動作を説明する。
[0045] 能動学習を開始するに際しては、記憶装置 130の学習データ記憶部 131に既知 学習データ群が記憶され、候補データ記憶部 133には候補学習データ群が記憶さ れている。既知学習データ群及び候補学習データ群の重み 204は同一の重みに設 定されている。またルール記憶部 132にはルールが保存されていなぐ選択データ 記憶部 134にも 1つも選択データは保存されていない。この状態で処理装置 120が 起動されると、図 6に示す処理が開始される。
[0046] (1)ステップ S 101
まず、入出力装置 110から与えられた学習条件が制御部 150の学習設定取得部 1 51へ供給される。そして、処理は学習部 141に移行する。
[0047] (2)ステップ S 102
学習部 141は、学習データ記憶部 131から既知学習データ群を読み出し、既知学 習データ群の中から、重み 204が最も大きい選択既知学習データを選択する。選択 既知学習データは、既知学習データ群のうちの選択既知学習データ以外の学習デ ータよりも最新の学習データを表している。学習部 141は、選択既知学習データに対 して正例学習データ又は前記負例学習データを選別するためのルール 301を生成( 学習)し、最新のルール 301としてルール記憶部 132に記憶する。
[0048] (3)ステップ S 103
予測部 142は、ルール記憶部 132に記憶された最新のルール 301を、候補データ 記憶部 133に記憶された候補学習データ群に適用して、候補学習データ群に対して 正例学習データであるか否かを予測する。予測部 142は、その予測結果を候補デー タ選択部 143に出力する。
[0049] (4)ステップ S 104
候補データ選択部 143は、予測結果に基づいて、候補学習データ群の中から、次 の学習対象となる学習データを表す選択候補学習データを選択し、選択候補学習 データを選択データ記憶部 134に記憶する。 [0050] (5)ステップ SI 05
データ更新部 144は、選択データ記憶部 134に記憶された選択候補学習データを 読み出して入出力装置 110に出力する。ラベル (所望のラベル)の値が入出力装置 1 10から入力されたとき、データ更新部 144は、そのラベル (ラベルの値)を選択候補 学習データに設定する。データ更新部 144は、選択候補学習データを、候補データ 記憶部 133に記憶された候補学習データ群から除いて、既知学習データとして学習 データ記憶部 131に記憶された既知学習データ群に追加する。これで、能動学習の 1サイクルが終了し、処理が制御部 150に移行する。
[0051] (6)ステップ S106
制御部 150は、終了条件が成立した力、どうかを判定し、終了条件が成立していなけ れば、学習データ調査部 152に処理を進める。この場合、学習データ記憶部 131に は、既知学習データ群のうちの、学習開始時点に存在した既知学習データと、デー タ更新部 144によって追加された既知学習データとが混在している。後者の追加さ れた既知学習データの所望のラベルの値は実験なり調査なりで調べられた実際の値 である。他方、終了条件が成立していれば、制御部 150は能動学習サイクルの繰り 返しを停止させる。終了条件は、入出力装置 110から与えられ、その条件は、能動学 習サイクルの最大繰り返し回数等、任意の条件で良レ、。
[0052] (7)ステップ S107
学習データ調査部 152は、学習データ記憶部 131に記憶されている学習データの 取得サイクル数 205を調べ、学習データ重み設定部 153に出力する。
[0053] (8)ステップ S108
学習データ重み設定部 153は、学習データ記憶部 131から学習データを読み出し 、既知学習データ群のそれぞれに対して取得順序に比例して増加する重み 204を E¾疋 ^る。
[0054] 本発明の第 1実施例による能動学習システムによれば、既知学習データ群のうちの 、新たに加えられた既知学習データを、以前から蓄積されている既知学習データより 重要視した学習を行うことができる。その理由としては、取得サイクル数 205に応じて 、新しく取得された既知学習データほど大きい値の重み 204を設定し、以前から蓄積 されている既知学習データほど小さい値の重み 204を設定する。これによつて、新し く取得された既知学習データをより反映したルール 301が生成される。更には、以前 のサイクルで生成されたルール 301と性質の異なったルール 301が生成されることが 期待される。そのルール 301を適用して候補学習データから選択される次に学習す べき既知学習データは、重要度に差をつけない学習に比べて、正例の数がより多ぐ そして多様な正例が含まれる確率が高くなる。このように、本発明の第 1実施例による 能動学習システムでは、既知学習データの取得順序を考慮することにより、学習効率 が向上する。
[0055] 次に、本発明の第 2実施例について説明する。
[0056] 本発明の第 2実施例による能動学習システムは、後述のとおり、制御部 150が学習 データ調査部 152と学習データ重み設定部 153の代わりに学習見直し手段(学習見 直し部 154)を備える点と、記憶装置 130が更にルール識別子記憶手段 (ルール識 別子記憶部 135)を備える点で、図 2に示した第 1実施例と相違する。
[0057] 図 7を参照すると、本発明の第 2実施例による能動学習システムは、図 2に示した第 1実施例と同様に、入出力装置 110と、処理装置 120と、記憶装置 130とを具備して いる。処理装置 120は、能動学習部 140と、制御部 150とを備えている。
[0058] ここでは、記憶装置 130は、学習データ記憶部 131と、ルール記憶部 132と、候補 データ記憶部 133と、選択データ記憶部 134と、ルール識別子記憶部 135とを備え ている。また、制御部 150は、学習設定取得部 151と、学習見直し部 154とを備えて いる。他の構成については、図 2に示した第 1実施例と同様である。
[0059] 学習見直し部 154は、学習データ記憶部 131から既知学習データ群を読み出し、 既知学習データ群のそれぞれに対応するルール 301であるルール群 301をルール 記憶部 132から読み出す。学習見直し部 154は、既知学習データ群のそれぞれに 対して取得順序に比例して増加する重み 204を設定する。学習見直し部 154は、ル ール群 301の取得順序に応じて、既知学習データ群のうちの、正例学習データを表 す正例既知学習データ群に対してルール群 301を適用したときの正例学習データの 数を表すスコアを決定し、スコアに基づいて、既知学習データ群のそれぞれに対して 設定された重み 204を調整する。これにつ!/、て以下に説明する。 [0060] 学習見直し部 1 54は、前サイクルでデータ更新部 144によって追加された既知学 習データ、すなわち最も新しく取得した既知学習データの結果をルールに照らし合 わせ、ルール生成の起因となった前々サイクル以前の学習データにフィードバックす る。すなわち、学習データ記憶部 131に記憶されている既知学習データ群の中から 、取得サイクル数 205として前サイクル番号が記録されている既知学習データ群を検 索する。
[0061] 学習見直し部 1 54は、検索された既知学習データ群が、所望のラベル 203が正例 であることを表す正例既知学習データ群である場合、その正例既知学習データ群に 対して、ルール記憶部 132に記憶されて!/、るルール群 301を適用して重要度を算出 する。ルール群 301の各々の重要度の算出は、正例既知学習データ群に適用したと きの正例学習データの数を表すスコアを求め、スコアの最大値又は平均値としても良 い。学習見直し部 154は、ノレール群 301のうちの、重要度が高いルールを選択ルー ノレ 301として選択し、選択ノレ一ノレ 301のノレ一ノレ識另 IJ子 302を選択ノレ一ノレ識另 IJ子 302 としてルール識別子記憶部 135に記憶する。ルールの重要度の高さの判定は、ある 閾値以上の値としても良いし、算出された値の上位一定割合としても良いし、ルール 数の上位一定割合としても良い。
[0062] 次に、学習見直し部 154は、学習データ記憶部 131に記憶されている既知学習デ ータ群の中から、取得サイクル数 205として前々サイクル番号以下の番号が記憶され ている既知学習データを読み出し、その既知学習データの各々に対して、その記述 子を選択ルール 301に入力して正例らしさを表すスコアを算出する。
[0063] 学習見直し部 1 54は、算出されたスコアと所望ラベル値を照らし合わせ、既知学習 データ群のうちの、正例学習データであり、算出されたスコアが所定スコアよりも高い 既知学習データについては、その重み 204を所定値だけ大きくする。また、正例学習 データである力 S、算出されたスコアが所定スコアよりも低い既知学習データについて は、その重み 204を所定値だけ小さくする。一方、負例学習データであり、算出され たスコアが所定スコアよりも低い既知学習データについては、その重み 204を所定値 だけ大きくする。また、負例学習データであるが、算出されたスコアが所定スコアよりも 高い既知学習データであっても、その重み 204を所定値だけ小さくする。重みを増減 させる値は、定数としても良いし、算出されたスコア値としても良い。
[0064] 学習見直し部 154は、重みの設定処理を終えると、能動学習部 140の学習部 141 に処理を進める。
[0065] 学習部 141以降の処理においては、学習の重み 204の値により重要度に差をつけ て学習を進める。つまり、重み 204の大きな学習データは、それより重みの小さな学 習データより重要視して学習を進める。
[0066] 図 8を参照すると、本実施形態に力、かる能動学習システムの動作フローは、後述の とおり、図 5に示した第 1実施例と比較して、ステップ S402、 S403の代わりにステツ プ S701〜S704が設けられている点が相違する。
[0067] 以下、本実施形態の動作を説明する。
なお、本実施形態のスタートから 1サイクル目のステップ S206までの動作は、第 1 実施例のスタートからステップ S106までの動作と同じである。
[0068] (1)ステップ S 201
まず、入出力装置 110から与えられた学習条件が制御部 150の学習設定取得部 1 51へ供給される。そして、処理は学習部 141に移行する。
[0069] (2)ステップ S202
学習部 141は、学習データ記憶部 131から既知学習データ群を読み出し、既知学 習データ群の中から、重み 204が最も大きい選択既知学習データを選択する。選択 既知学習データは、既知学習データ群のうちの選択既知学習データ以外の学習デ ータよりも正しく予測された学習データを表している。学習部 141は、選択既知学習 データに対して正例学習データ又は前記負例学習データを選別するためのルール 301を生成(学習)し、最新のルール 301としてルール記憶部 132に記憶する。
[0070] (3)ステップ S203
予測部 142は、ルール記憶部 132に記憶された最新のルール 301を、候補データ 記憶部 133に記憶された候補学習データ群に適用して、候補学習データ群に対して 正例学習データであるか否かを予測する。予測部 142は、その予測結果を候補デー タ選択部 143に出力する。
[0071] (4)ステップ S204 候補データ選択部 143は、予測結果に基づいて、候補学習データ群の中から、次 の学習対象となる学習データを表す選択候補学習データを選択し、選択候補学習 データを選択データ記憶部 134に記憶する。
[0072] (5)ステップ S205
データ更新部 144は、選択データ記憶部 134に記憶された選択候補学習データを 読み出して入出力装置 110に出力する。ラベル (所望のラベル)の値が入出力装置 1 10から入力されたとき、データ更新部 144は、そのラベル (ラベルの値)を選択候補 学習データに設定する。データ更新部 144は、選択候補学習データを、候補データ 記憶部 133に記憶された候補学習データ群から除いて、既知学習データとして学習 データ記憶部 131に記憶された既知学習データ群に追加する。これで、能動学習の 1サイクルが終了し、処理が制御部 150に移行する。
[0073] (6)ステップ S206
制御部 150は、終了条件が成立した力、どうかを判定し、終了条件が成立していなけ れば、学習見直し部 154に処理が移る。この場合、学習データ記憶部 131には、既 知学習データ群のうちの、学習開始時点に存在した既知学習データと、データ更新 部 144によって追加された既知学習データとが混在している。後者の追加された学 習データの所望のラベルの値は実験なり調査なりで調べられた実際の値である。他 方、終了条件が成立していれば、制御部 150は能動学習サイクルの繰り返しを停止 させる。終了条件は、入出力装置 110から与えられ、その条件は、能動学習サイクル の最大繰り返し回数等、任意の条件で良い。
[0074] (7)ステップ S207
学習見直し部 154は、学習データ記憶部 131に記憶されている既知学習データ群 の中から、取得サイクル数 205として前サイクル番号が記録されている既知学習デー タ群を検索する。学習見直し部 154は、検索された既知学習データ群が、所望のラ ベル 203が正例であることを表す正例既知学習データ群である場合、その正例既知 学習データ群に対して、ルール記憶部 132に記憶されているルール群 301を適用し て重要度を算出する。
[0075] (8)ステップ S208 次に、学習見直し部 154は、ノレール群 301のうちの、重要度が高いルールを選択 ルール 301として選択し、選択ルール 301のルール識別子 302を選択ルール識別 子 302としてルール識別子記憶部 135に記憶する。
[0076] (9)ステップ S209
次に、学習見直し部 154は、学習データ記憶部 131に記憶されている既知学習デ ータ群の中から、取得サイクル数 205として前々サイクル番号以下の番号が記憶され ている既知学習データを読み出し、その既知学習データの各々に対して、その記述 子を選択ルール 301に入力して正例らしさを表すスコアを算出する。
[0077] (10)ステップ S210
学習見直し部 154は、算出されたスコアと所望ラベル値を照らし合わせ、既知学習 データ群のうちの、正例学習データであり、算出されたスコアが所定スコアよりも高い 既知学習データについては、その重み 204を所定値だけ大きくする。また、正例学習 データである力 S、算出されたスコアが所定スコアよりも低い既知学習データについて は、その重み 204を所定値だけ小さくする。一方、負例学習データであり、算出され たスコアが所定スコアよりも低い既知学習データについては、その重み 204を所定値 だけ大きくする。また、負例学習データであるが、算出されたスコアが所定スコアよりも 高い既知学習データであっても、その重み 204を所定値だけ小さくする。そして、能 動学習部 140に処理が移る。
[0078] 学習部 141以降の処理においては、第 1実施例と同じである。能動学習部 140で 能動学習の 1サイクルが終了すると、制御部 150に再び処理が移る。
[0079] なお、第 1、第 2実施例のいずれかの動作 (能動学習方法)を規定したコンピュータ プログラムを用いて、諸般のコンピュータに本発明の能動学習方法における動作を 実施させるようにすることあでさる。
[0080] 本発明の第 2実施例による能動学習システムによれば、能動学習サイクル毎に、前 サイクルで得られた正例データをルールにフィードバックする機能が設けられている 。これにより、正例取得に効果のあったルールに対して、正例を正例らしいと正しく予 測した学習データの重みを増やし、正例を正例らしくな!/、と誤って予測した学習デー タの重みを減らしている。一方、負例を正例らしくないと正しく予測した学習データの 重みを増やし、負例を正例らし!/、と誤って予測した学習データの重みを減らして!/、る 。その結果、次サイクルの学習時において、前サイクルで正例を得たルールを反映し た学習が行われることが期待できる。また、新しく取得した正例が極僅かであった場 合にも、以前から蓄積されていたデータに引きずられたルールではなぐその新たに 取得した極僅かな正例を重視したルールが生成されることが期待される。ルールのフ イードバック機能がある学習は、ルールのフィードバック機能がない学習に比べて、 正例の数がより多ぐそして多様な正例が含まれる確率が高くなる。このように、本発 明の第 2実施例による能動学習システムでは、既知学習データに対応するルールの 取得順序を考慮することにより、学習効率が向上する。
[0081] 次に第 2実施例の変形例について説明する。
[0082] 前述したように、学習見直し部 154は、学習データ記憶部 131から既知学習データ 群を読み出し、既知学習データ群のそれぞれに対応するルール 301であるルール 群 301をルール記憶部 132から読み出す。学習見直し部 154は、既知学習データ 群のそれぞれに対して取得順序に比例して増加する重み 204を設定する。学習見 直し部 154は、ルール群 301の取得順序に応じて、既知学習データ群のうちの、正 例学習データを表す正例既知学習データ群に対してルール群 301を適用したときの 正例学習データの数を表すスコアを決定し、スコアに基づいて、既知学習データ群 のそれぞれに対して設定された重み 204を調整している。即ち、既知学習データ群 のうちの、所望のラベル 203が正例である学習データに対してのみ、ルール記憶部 1 32に記憶されて!/、るルール群 301に適用して!/、る。
[0083] 一方、変形例では、学習見直し部 154は、ルール群 301の取得順序に応じて、既 知学習データ群に対してルール群 301を適用したときの正例学習データの数を表す スコアを決定し、スコアに基づいて、既知学習データ群のそれぞれに対して設定され た重み 204を調整する。即ち、既知学習データ群のうちの、所望のラベル 203が正 例だけでなく負例を含めた学習データに対して、ルール群 301に適用する。正例の 場合は算出されたスコアがそのままルールの重要度に反映する力 負例の場合、例 えば、スコアは 0〜1の範囲を取り、 1に近いほど正例である可能性が高いとした場合 、算出されたスコアを 1から引いた値を正例スコアとする。こうして算出されたスコアか らルール群 301の各々の重要度を算出する。
[0084] 本実施形態の変形例によれば、能動学習サイクル毎に、前サイクルで得られた正 例学習データだけでなぐ負例学習データもルールにフィードバックする機能が設け られている。このため、次サイクルの学習時において、新しく取得した学習データの 分類能力が高い学習が行われることが期待される。ルールのフィードバック機能があ る学習は、ルールのフィードバック機能がない学習に比べて、正例の数がより多ぐそ して多様な正例が含まれる確率が高くなる。このように、本発明の第 2実施例による能 動学習システムでは、既知学習データに対応するルールの取得順序を考慮すること により、学習効率が向上する。
[0085] 以上、実施例を参照して本発明を説明した力 本発明は上記の実施例に限定され るものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し 得る様々な変更をすることができる。
[0086] 本発明の能動学習システム及び方法は、例えば、創薬スクリーニングの場面にお いて活性化合物を探索するなどのように、多数の候補データからユーザが所望する データを選択するようなデータマイニングの用途に適用できる。

Claims

請求の範囲
[1] 複数の学習データのうちの、利用者にとって価値があるか否かを表すラベルが設定 された既知学習データ群を記憶する学習データ記憶手段と、
前記既知学習データ群のそれぞれに対して取得順序に比例して増加する重みを 設定する制御手段と、ここで、前記既知学習データ群のうちの、利用者にとって価値 がある学習データを正例学習データとし、利用者にとって価値がなレ、学習データを 負例学習データとし、
前記既知学習データ群の中から、前記重みが最も大きい選択既知学習データを選 択し、前記選択既知学習データに対して前記正例学習データ又は前記負例学習デ ータを選別するためのルールを生成する学習手段と、
前記複数の学習データのうちの前記既知学習データ群以外の学習データである候 補学習データ群として記憶する候補データ記憶手段と、
前記ルールを前記複数の学習データのうちの前記既知学習データ群以外の学習 データである候補学習データ群に適用して、前記候補学習データ群に対して前記正 例学習データであるか否かを予測し、予測結果を生成する予測手段と、
前記予測結果に基づいて、前記候補学習データ群の中から、学習対象となる学習 データを表す選択候補学習データを選択する候補データ選択手段と、
前記選択候補学習データを出力装置に出力し、入力装置から入力される前記ラベ ルを前記選択候補学習データに設定し、前記選択候補学習データを前記候補学習 データ群から除いて既知学習データとして前記既知学習データ群に追加するデータ 更新手段と、
を具備する能動学習システム。
[2] 前記学習データ記憶手段は、取得サイクル数を更に記憶し、
前記制御手段は、
前記取得サイクル数に基づ!/、て前記重みを決定し、前記既知学習データ群の取得 順序に応じて、前記既知学習データ群のそれぞれに対して前記重みを設定する学 習データ重み設定手段、
を具備する請求の範囲 1に記載の能動学習システム。 [3] 前記選択既知学習データは、前記既知学習データ群のうちの前記選択既知学習 データ以外の学習データよりも最新の学習データを表している
請求の範囲 1に記載の能動学習システム。
[4] 前記既知学習データ群のそれぞれに対応する前記ルールをルール群として記憶 するルール記憶手段、
を更に具備し、
前記学習データ記憶手段は、取得サイクル数を更に記憶し、
前記制御手段は、
前記取得サイクル数に基づ!/、て前記重みを決定し、前記既知学習データ群のそれ ぞれに対して前記重みを設定し、前記ルール群の取得順序に応じて、前記既知学 習データ群に対して前記ルール群を適用したときの前記正例学習データの数を表す スコアを決定し、前記スコアに基づいて、前記既知学習データ群のそれぞれに対し て設定された前記重みを調整する学習見直し手段、
を具備する請求の範囲 1に記載の能動学習システム。
[5] 前記選択既知学習データは、前記既知学習データ群のうちの前記選択既知学習 データ以外の学習データよりも正しく予測された学習データを表している
請求の範囲 4に記載の能動学習システム。
[6] 前記学習見直し手段は、
前記ルール群の取得順序に応じて、前記既知学習データ群のうちの、前記正例学 習データを表す正例既知学習データ群に対して前記ルール群を適用したときの前 記正例学習データの数を表す前記スコアを決定し、前記スコアに基づいて、前記既 知学習データ群のそれぞれに対して設定された前記重みを調整する
請求の範囲 4に記載の能動学習システム。
[7] 複数の学習データのうちの、利用者にとって価値があるか否かを表すラベルが設定 された既知学習データ群を学習データ記憶手段に記憶するステップと、
前記既知学習データ群のそれぞれに対して取得順序に比例して増加する重みを 設定するステップと、ここで、前記既知学習データ群のうちの、利用者にとって価値が ある学習データを正例学習データとし、利用者にとって価値がな!、学習データを負 例学習データとし、
前記既知学習データ群の中から、前記重みが最も大きい選択既知学習データを選 択し、前記選択既知学習データに対して前記正例学習データ又は前記負例学習デ ータを選別するためのルールを生成するステップと、
前記複数の学習データのうちの前記既知学習データ群以外の学習データである候 補学習データ群として候補データ記憶手段に記憶するステップと、
前記ルールを前記複数の学習データのうちの前記既知学習データ群以外の学習 データである候補学習データ群に適用して、前記候補学習データ群に対して前記正 例学習データであるか否かを予測し、予測結果を生成するステップと、
前記予測結果に基づいて、前記候補学習データ群の中から、学習対象となる学習 データを表す選択候補学習データを選択するステップと、
前記選択候補学習データを出力装置に出力し、入力装置から入力される前記ラベ ルを前記選択候補学習データに設定し、前記選択候補学習データを前記候補学習 データ群から除いて既知学習データとして前記既知学習データ群に追加するステツ プと、
を具備する能動学習方法。
[8] 前記学習データ記憶手段に記憶するステップは、
取得サイクル数を更に前記学習データ記憶手段に記憶するステップ、 を具備し、
刖 ci重みを刖記!^定するステップは、
前記取得サイクル数に基づ!/、て前記重みを決定し、前記既知学習データ群の取得 順序に応じて、前記既知学習データ群のそれぞれに対して前記重みを設定するステ ップ、
を具備する請求の範囲 7に記載の能動学習方法。
[9] 前記選択既知学習データは、前記既知学習データ群のうちの前記選択既知学習 データ以外の学習データよりも最新の学習データを表している
請求の範囲 7に記載の能動学習方法。
[10] 前記既知学習データ群のそれぞれに対応する前記ルールをルール群としてルー ル記憶手段に記憶するステップ、
を更に具備し、
前記学習データ記憶手段に記憶するステップは、
取得サイクル数を更に前記学習データ記憶手段に記憶するステップ、 を具備し、
刖 ci重みを刖記!^定するステップは、
前記取得サイクル数に基づ!/、て前記重みを決定し、前記既知学習データ群のそれ ぞれに対して前記重みを設定し、前記ルール群の取得順序に応じて、前記既知学 習データ群に対して前記ルール群を適用したときの前記正例学習データの数を表す スコアを決定し、前記スコアに基づいて、前記既知学習データ群のそれぞれに対し て設定された前記重みを調整するステップ、
を具備する請求の範囲 7に記載の能動学習方法。
[11] 前記選択既知学習データは、前記既知学習データ群のうちの前記選択既知学習 データ以外の学習データよりも正しく予測された学習データを表している
請求の範囲 10に記載の能動学習方法。
[12] 前記重みを調整するステップは、
前記ルール群の取得順序に応じて、前記既知学習データ群のうちの、前記正例学 習データを表す正例既知学習データ群に対して前記ルール群を適用したときの前 記正例学習データの数を表す前記スコアを決定し、前記スコアに基づいて、前記既 知学習データ群のそれぞれに対して設定された前記重みを調整するステップ、 を具備する請求の範囲 10に記載の能動学習方法。
[13] 複数の学習データのうちの、利用者にとって価値があるか否かを表すラベルが設定 された既知学習データ群を学習データ記憶手段に記憶するステップと、
前記既知学習データ群のそれぞれに対して取得順序に比例して増加する重みを 設定するステップと、ここで、前記既知学習データ群のうちの、利用者にとって価値が ある学習データを正例学習データとし、利用者にとって価値がな!、学習データを負 例学習データとし、
前記既知学習データ群の中から、前記重みが最も大きい選択既知学習データを選 択し、前記選択既知学習データに対して前記正例学習データ又は前記負例学習デ ータを選別するためのルールを生成するステップと、
前記複数の学習データのうちの前記既知学習データ群以外の学習データである候 補学習データ群として候補データ記憶手段に記憶するステップと、
前記ルールを前記複数の学習データのうちの前記既知学習データ群以外の学習 データである候補学習データ群に適用して、前記候補学習データ群に対して前記正 例学習データであるか否かを予測し、予測結果を生成するステップと、
前記予測結果に基づいて、前記候補学習データ群の中から、学習対象となる学習 データを表す選択候補学習データを選択するステップと、
前記選択候補学習データを出力装置に出力し、入力装置から入力される前記ラベ ルを前記選択候補学習データに設定し、前記選択候補学習データを前記候補学習 データ群から除いて既知学習データとして前記既知学習データ群に追加するステツ プと、
の各ステップをコンピュータに実行させるためのコンピュータプログラムが記憶され、 前記コンピュータプログラムを前記コンピュータが読み取り可能な記録媒体。
前記学習データ記憶手段に記憶するステップは、
取得サイクル数を更に前記学習データ記憶手段に記憶するステップ、 を具備し、
Figure imgf000026_0001
前記取得サイクル数に基づ!/、て前記重みを決定し、前記既知学習データ群の取得 順序に応じて、前記既知学習データ群のそれぞれに対して前記重みを設定するステ ップ、
を具備する請求の範囲 13に記載の記録媒体。
[15] 前記選択既知学習データは、前記既知学習データ群のうちの前記選択既知学習 データ以外の学習データよりも最新の学習データを表している
請求の範囲 13に記載の記録媒体。
[16] 前記コンピュータプログラムは、
前記既知学習データ群のそれぞれに対応する前記ルールをルール群としてルー ル記憶手段に記憶するステップ、
を更に前記コンピュータに実行させ、
前記学習データ記憶手段に記憶するステップは、
取得サイクル数を更に前記学習データ記憶手段に記憶するステップ、 を具備し、
刖 ci重みを刖記!^定するステップは、
前記取得サイクル数に基づ!/、て前記重みを決定し、前記既知学習データ群のそれ ぞれに対して前記重みを設定し、前記ルール群の取得順序に応じて、前記既知学 習データ群に対して前記ルール群を適用したときの前記正例学習データの数を表す スコアを決定し、前記スコアに基づいて、前記既知学習データ群のそれぞれに対し て設定された前記重みを調整するステップ、
を具備する請求の範囲 13に記載の記録媒体。
[17] 前記選択既知学習データは、前記既知学習データ群のうちの前記選択既知学習 データ以外の学習データよりも正しく予測された学習データを表している
請求の範囲 16に記載の記録媒体。
[18] 前記重みを調整するステップは、
前記ルール群の取得順序に応じて、前記既知学習データ群のうちの、前記正例学 習データを表す正例既知学習データ群に対して前記ルール群を適用したときの前 記正例学習データの数を表す前記スコアを決定し、前記スコアに基づいて、前記既 知学習データ群のそれぞれに対して設定された前記重みを調整するステップ、 を具備する請求の範囲 16に記載の記録媒体。
PCT/JP2007/072651 2006-12-11 2007-11-22 能動学習システム、能動学習方法、及び能動学習用プログラム WO2008072459A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/448,082 US20100005043A1 (en) 2006-12-11 2007-11-22 Active learning system, active learning method and program for active learning
JP2008549233A JP5187635B2 (ja) 2006-12-11 2007-11-22 能動学習システム、能動学習方法、及び能動学習用プログラム
EP07832380.5A EP2096585A4 (en) 2006-12-11 2007-11-22 Active studying system, active studying method and active studying program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006332983 2006-12-11
JP2006-332983 2006-12-11

Publications (1)

Publication Number Publication Date
WO2008072459A1 true WO2008072459A1 (ja) 2008-06-19

Family

ID=39511484

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/072651 WO2008072459A1 (ja) 2006-12-11 2007-11-22 能動学習システム、能動学習方法、及び能動学習用プログラム

Country Status (4)

Country Link
US (1) US20100005043A1 (ja)
EP (1) EP2096585A4 (ja)
JP (1) JP5187635B2 (ja)
WO (1) WO2008072459A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092413A (ja) * 2008-10-10 2010-04-22 Ricoh Co Ltd 画像分類学習装置、画像分類学習方法、および画像分類学習システム
JP2019061419A (ja) * 2017-09-26 2019-04-18 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
JP2019512126A (ja) * 2016-02-29 2019-05-09 アリババ グループ ホウルディング リミテッド 機械学習システムをトレーニングする方法及びシステム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11941513B2 (en) * 2018-12-06 2024-03-26 Electronics And Telecommunications Research Institute Device for ensembling data received from prediction devices and operating method thereof
KR102131353B1 (ko) * 2020-01-29 2020-07-07 주식회사 이글루시큐리티 머신 러닝의 예측 데이터 피드백 적용 방법 및 그 시스템

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830458A (ja) * 1994-07-20 1996-02-02 Hitachi Inf Syst Ltd 問題解決支援システム
JP2001325272A (ja) 2000-05-16 2001-11-22 Internatl Business Mach Corp <Ibm> 情報整理方法、情報処理装置、記憶媒体、およびプログラム伝送装置
JP2002222083A (ja) * 2001-01-29 2002-08-09 Fujitsu Ltd 事例蓄積装置および方法
JP2005107743A (ja) 2003-09-29 2005-04-21 Nec Corp 学習システム
WO2005048184A1 (ja) * 2003-11-17 2005-05-26 Nec Corporation 能動学習方法およびシステム
JP2005284348A (ja) 2004-03-26 2005-10-13 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006139718A (ja) 2004-11-15 2006-06-01 Nippon Telegr & Teleph Corp <Ntt> 話題語結合方法及び話題語結合・代表語抽出方法及び装置及びプログラム
JP2006185099A (ja) 2004-12-27 2006-07-13 Toshiba Corp 確率モデル作成方法
JP2006332983A (ja) 2005-05-25 2006-12-07 Canon Inc 撮像装置及びその制御方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4645288B2 (ja) * 2005-04-28 2011-03-09 日本電気株式会社 能動学習方法および能動学習システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830458A (ja) * 1994-07-20 1996-02-02 Hitachi Inf Syst Ltd 問題解決支援システム
JP2001325272A (ja) 2000-05-16 2001-11-22 Internatl Business Mach Corp <Ibm> 情報整理方法、情報処理装置、記憶媒体、およびプログラム伝送装置
JP2002222083A (ja) * 2001-01-29 2002-08-09 Fujitsu Ltd 事例蓄積装置および方法
JP2005107743A (ja) 2003-09-29 2005-04-21 Nec Corp 学習システム
WO2005048184A1 (ja) * 2003-11-17 2005-05-26 Nec Corporation 能動学習方法およびシステム
JP2005284348A (ja) 2004-03-26 2005-10-13 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2006139718A (ja) 2004-11-15 2006-06-01 Nippon Telegr & Teleph Corp <Ntt> 話題語結合方法及び話題語結合・代表語抽出方法及び装置及びプログラム
JP2006185099A (ja) 2004-12-27 2006-07-13 Toshiba Corp 確率モデル作成方法
JP2006332983A (ja) 2005-05-25 2006-12-07 Canon Inc 撮像装置及びその制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092413A (ja) * 2008-10-10 2010-04-22 Ricoh Co Ltd 画像分類学習装置、画像分類学習方法、および画像分類学習システム
JP2019512126A (ja) * 2016-02-29 2019-05-09 アリババ グループ ホウルディング リミテッド 機械学習システムをトレーニングする方法及びシステム
JP6991983B2 (ja) 2016-02-29 2022-01-14 アリババ グループ ホウルディング リミテッド 機械学習システムをトレーニングする方法及びシステム
US11720787B2 (en) 2016-02-29 2023-08-08 Alibaba Group Holding Limited Method and system for training machine learning system
JP2019061419A (ja) * 2017-09-26 2019-04-18 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Also Published As

Publication number Publication date
US20100005043A1 (en) 2010-01-07
EP2096585A1 (en) 2009-09-02
JPWO2008072459A1 (ja) 2010-03-25
JP5187635B2 (ja) 2013-04-24
EP2096585A4 (en) 2017-11-15

Similar Documents

Publication Publication Date Title
JP7216021B2 (ja) 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法
US10963503B2 (en) Generation of document classifiers
US20070011127A1 (en) Active learning method and active learning system
US9928295B2 (en) Document relationship analysis system
EP3776565A2 (en) Ensemble model creation and selection
WO2008157027A1 (en) Learning and reasoning from web projections
JPWO2008047835A1 (ja) 能動学習システム、方法およびプログラム
JP5187635B2 (ja) 能動学習システム、能動学習方法、及び能動学習用プログラム
JP2001229026A (ja) 知識発見方式
Yang et al. Towards automatic clustering of protein sequences
Polat et al. A new method to forecast of Escherichia coli promoter gene sequences: Integrating feature selection and Fuzzy-AIRS classifier system
Li et al. MT-MAG: Accurate and interpretable machine learning for complete or partial taxonomic assignments of metagenomeassembled genomes
Hvidsten A tutorial-based guide to the ROSETTA system: A Rough Set Toolkit for Analysis of Data
JP4461854B2 (ja) 文書分類装置ならびに文書分類装置の分類体系生成装置および方法
JP4460417B2 (ja) 自動分類方法、自動分類プログラム、記録媒体、および、自動分類装置
CN114510629A (zh) 基于大数据挖掘的数字化医疗推送优化方法及医疗ai系统
Frey et al. Using prior knowledge and rule induction methods to discover molecular markers of prognosis in lung cancer
JP7006403B2 (ja) クラスタリングプログラム、クラスタリング方法およびクラスタリング装置
Chandwani et al. Aspect term extraction and optimized deep fuzzy clustering-based inverted indexing for document retrieval
JP2010055253A (ja) 不要語決定装置及びプログラム
Barutcuoglu et al. Bayesian aggregation for hierarchical classification
Planas et al. miRAW: A deep learning approach to predict miRNA targets by analyzing whole miRNA transcripts
Padgaonkar et al. Music Genre Classification using Machine Learning
CN114565093A (zh) 一种基于参数分层的深度学习神经网络参数调优的方法
GB2622298A (en) Patent claim feature mapping

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07832380

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008549233

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2007832380

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12448082

Country of ref document: US