WO2020175692A1 - 学習装置および判断装置 - Google Patents
学習装置および判断装置 Download PDFInfo
- Publication number
- WO2020175692A1 WO2020175692A1 PCT/JP2020/008473 JP2020008473W WO2020175692A1 WO 2020175692 A1 WO2020175692 A1 WO 2020175692A1 JP 2020008473 W JP2020008473 W JP 2020008473W WO 2020175692 A1 WO2020175692 A1 WO 2020175692A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- judgment
- data
- learning
- teacher
- machine learning
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Definitions
- the present invention relates to a learning device and a determination device.
- a learning device that performs machine learning on an input image visually observed by a human expert and a judgment result of the human expert on the input image, and a judgment device that estimates a judgment result of the human expert are known. (For example, see Patent Document 1).
- Patent Document 1 Japanese Unexamined Patent Publication No. 20 1 8-9 2 4 5 3
- a learning device in a first aspect of the present invention, includes an input unit for inputting teacher judgment target data, teacher judgment result data indicating a judgment result for the teacher judgment target data, and teacher judgment basis data indicating a basis for the judgment result for the teacher judgment target data, and a teacher judgment
- the judgment learning unit that generates the model and the second machine learning that learns the relationship between the teacher judgment target data and the teacher judgment basis data are executed.
- a reason learning unit that generates a reason reasoning model that outputs reason reasoning data indicating a reason is provided.
- At least some nodes of the decision reasoning model may be different from at least some nodes of the grounds reasoning model.
- the learning device includes a first error between the teacher judgment result data and the judgment inference data, and a teaching error. ⁇ 0 2020/175692 2 ⁇ (: 171? 2020 /008473
- At least one of the first machine learning and the second machine learning may be performed based on the second error between the teacher judgment basis data and the basis inference data.
- the learning device may perform both the first machine learning and the second machine learning based on the first error and the second error.
- the learning device may perform at least one of the first machine learning and the second machine learning so that the sum of the first error and the second error is minimized.
- the learning device may perform at least one of the first machine learning and the second machine learning by weighting the first error and the second error differently.
- the judgment learning unit may perform the first machine learning that reduces the first error independently of the second machine learning.
- the basis learning unit may perform the second machine learning that reduces the second error independently of the first machine learning.
- the judgment learning unit and the foundation learning unit may perform the first machine learning and the second machine learning, respectively, so that the sum of the first error and the second error is minimized.
- the decision reasoning model may include at least some nodes of the reasoning reasoning model.
- At least some of the nodes of the grounds inference model may include nodes to which the judgment target data is input.
- a judgment device in a second aspect of the present invention, includes a first judgment unit that outputs a judgment result for the judgment target data based on a judgment reasoning model generated by machine learning the relationship between the teacher judgment target data and the teacher judgment result data, and the teacher.
- a second judgment unit for outputting the grounds of the judgment result for the judgment target data, based on the grounds inference model generated by machine learning the relationship between the judgment target data and the teacher judgment grounds data.
- the determination device may include a display unit.
- the display unit may have a judgment target data display area for displaying judgment target data, a judgment result display area for displaying a judgment result, and a judgment reason display area for displaying a reason for the judgment result.
- FIG. 1 A diagram showing an example of a learning apparatus 100 according to an embodiment of the present invention.
- FIG. 2 is a diagram schematically showing an example of the first machine learning 60 and the second machine learning 70.
- FIG. 3 is a diagram showing a flow of first machine learning 60 and second machine learning 70.
- FIG. 4 is a diagram showing another example of a learning device 100 according to an embodiment of the present invention.
- FIG. 5 is a diagram schematically showing an example of the first machine learning 60 and the second machine learning 70 in the example of FIG.
- FIG. 6 is a diagram showing a flow of first machine learning 60 and second machine learning 70 in the examples of FIGS. 4 and 5.
- FIG. 7 is a diagram schematically showing another example of the first machine learning 60 and the second machine learning 70.
- FIG. 8 is a diagram showing an example of a determination device 200 according to an embodiment of the present invention.
- FIG. 9 is a diagram showing an example of the output of the judgment result 28 and the basis of the judgment result 38 by the judgment device 200.
- FIG. 10 is a diagram showing an example of a determination device 200.
- FIG. 1 is a diagram showing an example of a learning device 100 according to an embodiment of the present invention.
- the learning device 100 includes an input unit 100, a judgment learning unit 20 and a grounds learning unit 30.
- the teacher judgment target data 12, the teacher judgment result data 14 and the teacher judgment basis data 16 are input.
- Input section 10 is the teacher format ⁇ 0 2020/175692 4 ⁇ (: 171? 2020 /008473
- the cut target data 1 2 and the teacher judgment result data 14 are input to the judgment learning unit 20.
- the input unit 10 inputs the teacher judgment target data 12 and the teacher judgment basis data 16 to the ground learning unit 30.
- the teacher judgment target data 12 is teacher data for which a predetermined judgment regarding the data has already been made.
- the teacher judgment target data 12 may be data including a predetermined type of information such as image data, voice data, and text data.
- the teacher judgment target data 12 is image data including images of products such as vegetables, fruits and meat.
- the teacher judgment result data 14 is data indicating a judgment result for the teacher judgment target data 1 2.
- the teacher judgment result data 14 may be data indicating the result of judgment made by a judge such as a human on the teacher judgment target data 12. The judgment is preferably made by a skilled person.
- the teacher judgment result data 14 may be data showing one or a plurality of results selected by the judge from among a plurality of results preset as options. For example, when the teacher judgment target data 12 is image data related to a product, the teacher judgment result data 14 may be data indicating an evaluation result of evaluating the quality of the product.
- the teacher judgment result data 14 is input to the input unit 10 in a state of being associated with the teacher judgment target data 12 which is the basis of the judgment.
- the teacher judgment basis data 16 is data showing the basis for judging the result shown in the teacher judgment result data 14 with respect to the teacher judgment target data 12.
- the teacher judgment basis data 16 may be data input by a judge such as a person who judges the result shown in the teacher judgment result data 14 as a basis for the judgment.
- the teacher judgment basis data 16 may be data showing one or a plurality of reasons selected by a judge from a plurality of reasons set in advance as options.
- the teacher judgment basis data 16 may be data that specifies a part of the information included in the teacher judgment target data 12.
- the teacher judgment basis data 16 may be data designating a partial area of the image included in the teacher judgment target data 12 or may be data indicating characteristics of a partial area of the image. For example, if the judge is ⁇ 0 2020/175692 5 ⁇ (: 171? 2020 /008473
- the teacher judgment base data 16 is that the fruit skin of the predetermined part of the fruit is Is data indicating that the color has changed.
- the teacher judgment basis data 16 is input to the input unit 10 in a state of being associated with the teacher judgment target data 12 which is the basis of the judgment.
- the judgment learning unit 20 performs the first machine learning for learning the relationship between the teacher judgment target data 12 and the teacher judgment result data 14 to generate the judgment inference model 22.
- the judgment inference model 22 is a model that, when the judgment target data is input, performs predetermined processing on the judgment target data and outputs judgment reasoning data indicating the judgment result for the judgment target data.
- the judgment learning unit 20 optimizes the processing in the judgment reasoning model 2 2 by learning the relationship between a large number of teacher judgment target data 1 2 and the teacher judgment result data 1 4.
- the basis learning unit 30 performs a second machine learning for learning the relationship between the teacher judgment target data 12 and the teacher judgment basis data 16 to generate a basis inference model 3 2.
- the rationale reasoning model 32 is a model that, when the judgment target data is input, performs predetermined processing on the judgment target data and outputs the reasoning reason data indicating the reason for the judgment result for the judgment target data.
- the rationale learning unit 30 optimizes the processing in the rationale inference model 3 2 by learning the relationship between a large number of teacher judgment object data 12 and the teacher judgment rationale data 16.
- the learning device 100 may include a storage unit 40-1 and a storage unit 40-2.
- the storage unit 40_1 stores the decision reasoning model 22 generated by the decision learning unit 20.
- the storage unit 40 2 stores the reasoning inference model 32 generated by the reason learning unit 30.
- the learning device 100 of this example is configured such that teacher judgment target data 1 2 and teacher judgment result data
- the learning device 100 includes a judgment reasoning model 22 and a reasoning reasoning model. ⁇ 0 2020/175692 6 ⁇ (: 171? 2020 /008473
- the teacher judgment target data 12 may be image data related to products such as vegetables and meat, data related to investments such as changes in stock prices, and data related to diagnosis such as medical care. If the teacher judgment target data 12 is data related to investment such as stock price fluctuations, the teacher judgment result data 14 is based on the teacher judgment target data 12 such as stock price fluctuations The data may be data for determining whether or not to perform. Further, the teacher judgment basis data 16 may be the basis data for a skilled human being to judge whether or not to make the investment. If the teacher judgment target data 12 is data related to medical diagnosis, the teacher judgment result data 14 is data related to the treatment content determined by a human expert based on the data related to medical diagnosis. You can In addition, the teacher judgment basis data 16 may be the basis data that a skilled person has decided on the treatment content.
- the teacher judgment target data 12 is data related to diagnosis such as medical care
- the teacher judgment target data 12 is more specifically, for various cases. It may be medical images or moving images such as I, O and echo images, and data such as vital signals such as electrocardiogram and respiratory sounds.
- the teacher judgment result data 14 may be the disease name judged by the doctor based on the above data.
- the learning device 100 may perform the first machine learning for learning the relationship between the teacher judgment target data 12 and the teacher judgment result data 14 described above to generate the judgment reasoning model 22.
- the teacher judgment basis data 16 may be data including the findings of the doctor for the above data as a judgment basis.
- the learning device 100 performs the second machine learning for learning the relationship between the teacher judgment target data 12 and the teacher judgment basis data 16 described above, ⁇ 0 2020/175692 7 ⁇ (: 171? 2020 /008473
- a rationale inference model 3 2 may be generated.
- the determination device determines that a medical image or a moving image such as an octopus and an echo image, and data to be determined such as a vital signal such as an electrocardiogram or a breathing sound is used as a determination result.
- the disease name may be output based on the judgment and reasoning model 22 and the findings that are the basis for the judgment may be output based on the grounds and reasoning model 32.
- the doctor makes a final decision based on this information. This makes it possible to prevent the doctor from overlooking the disease and the misjudgment of the judgment device at the same time.
- the teacher judgment target data 12 may be personnel data.
- the teacher judgment target data 12 may be, more specifically, an employee profile.
- the teacher judgment result data 14 may be data including the performance of the employee in a predetermined activity area (such as research and development/sales).
- the learning device 100 may perform the first machine learning for learning the relationship between the teacher judgment target data 12 and the teacher judgment result data 14 described above, and generate the judgment reasoning model 22.
- the teacher judgment basis data 16 may be data including the reasons (reasons) that the above employees performed their performance.
- the learning device 100 may perform the second machine learning for learning the relationship between the teacher judgment target data 12 and the teacher judgment basis data 16 described above, and generate the reason inference model 3 2.
- the determination device outputs the performance expected of the recruitment target based on the determination reasoning model 22 as a determination result for the personnel data such as the employee profile. Based on the rationale reasoning model 32, the basis for demonstrating the performance as the basis for making the judgment may be output. In this way, the learning device and the determination device according to the present embodiment can be used for recruiting activities and personnel evaluation in companies.
- the teacher judgment target data 12 may be data regarding facility inspection in a factory.
- the teacher judgment target data 12 may be, more specifically, data of an image or operation sound of a facility inspection object in a factory.
- the teacher judgment result data 14 is the inspection result of the expert for the object to be inspected (requires replacement, detailed point ⁇ 0 2020/175692 8 ⁇ (: 171? 2020 /008473
- the learning device 100 may perform the first machine learning for learning the relationship between the teacher judgment target data 12 and the teacher judgment result data 14 described above to generate the judgment reasoning model 22.
- the teacher judgment basis data 16 may be data including the judgment basis of a skilled person for the data of the equipment inspection target.
- the learning device 100 may perform the second machine learning for learning the relationship between the teacher judgment target data 1 2 and the teacher judgment basis data 16 described above, and generate the reasoning inference model 3 2.
- the determination device according to the present embodiment outputs the inspection result of the inspection target object based on the determination inference model 22 as the determination result for the determination target data such as the image of the inspection target object and the operation sound.
- the judgment basis may be output based on the reasoning inference model 32.
- the learning device and the determination device according to the present embodiment can be used for facility inspection in a factory.
- a known algorithm can be used for each of the first machine learning and the second machine learning.
- Known algorithms include, for example, neural network, random forest, gradient boosting, ridge regression, lasso regression, logistic regression, and support vector machine (3 1 ⁇ /1).
- the neural network may be a convolutional type, a recurrent type, or a time delay type.
- the judgment reasoning model 22 and the reasoning reasoning model 32 may output the basis of the classification result and the classification result for the input data, respectively, and may output the regression result and the basis of the regression result for the input data, respectively. You may output.
- FIG. 2 is a diagram schematically showing an example of the first machine learning 60 and the second machine learning 70.
- the judgment reasoning model 22 has a plurality of layers 23. Each layer 23 has a plurality of nodes 2 4. Each node 24 performs a predetermined operation on the input parameters.
- the decision reasoning model 22 outputs the decision reasoning data 26 based on the predetermined calculation result of the plurality of nodes 24 in the plurality of layers 23.
- the learning device 100 compares the judgment inference data 26 with the teacher judgment result data 14 to calculate the first error port 1. ⁇ 0 2020/175692 9 ⁇ (: 171? 2020 /008473
- the side to which the teacher judgment target data 12 is input in FIG. 2 is the front side
- the side to which the judgment inference data 26 is output is the rear side.
- the judgment reasoning model 22 may have a plurality of layers 23 continuously from the front side to the rear side.
- the calculation results at the plurality of nodes 24 belonging to one layer 23 may be input to the plurality of nodes 24 belonging to another layer 23, respectively.
- the other layer 23 may be a layer on the subsequent stage side of the one layer 23.
- the decision reasoning model 22 shown in FIG. 2 has three layers 23 as an example,
- Each of the three layers 23 has four nodes 24.
- the judgment reasoning model 22 of this example has layers 23-1, 2-3 and 2-3-3 continuously from the front side to the rear side.
- Tier 2 3 — 1 has four nodes 2 4 — 1
- Tier 2 3 — 2 has 4 nodes 2 4 — 2
- Tier 2 3 — 3 has 4 nodes 2 4 3 ..
- the four nodes 2 4-1 perform a predetermined calculation on the six teacher judgment target data 12 indicated by X 1 to X 6, and the calculation results are stored in the four nodes 2 4-2. Output. In FIG. 2, only the arrows from X 1 to 8 1 to 8 4 are shown, and the arrows from X 2 to X 6 to 8 1 to 8 4 are omitted. Each of the four nodes 2 4 -1 may perform a predetermined weighting on the 6 teacher judgment target data 1 2 and perform the calculation.
- the four nodes 24-2 perform a predetermined operation on the outputs from the four nodes 24-1 and output the operation result to the four nodes 24-2.
- Figure 2 Only the arrows to 8 to 8 are shown, and the arrows from 8 to 8 to 9 to 1 are omitted.
- Each of the four nodes 2 4-2 may perform a predetermined weighting on the output from each of the four nodes 2 4-1.
- the four nodes 2 4-3 perform a predetermined calculation on the outputs from the four nodes 2 4-2 and output the calculation result.
- Figure 2 from 1 to 0 1 ⁇ ⁇ 0 2020/175692 10 ⁇ (: 171? 2020 /008473
- Each of the four nodes 2 4-3 may perform a predetermined weighting on the output from each of the four nodes 2 4-2.
- the three judgment inference data 2 6 are 4 nodes 2 4 —
- the arrow is omitted.
- the three pieces of decision inference data 26 may be calculated by giving a predetermined weight to the outputs from the four nodes 2 4-3.
- the learning device 100 are compared with the three teacher judgment result data 14 shown in D1 to D3, respectively.
- the learning device 100 To calculate the first error port 1.
- the grounds inference model 32 has a plurality of layers 33. Each layer 33 has a plurality of nodes 3 4. Each node 34 performs a predetermined calculation on the input parameters.
- the reasoning reasoning model 32 outputs the reasoning reasoning data 36 based on the predetermined calculation result of the plurality of nodes 34 in the plurality of layers 33.
- the learning device 100 compares the reasoning inference data 36 with the teacher judgment basis data 16 to calculate the second error 0 2.
- the side to which the teacher judgment target data 12 is input is the front side
- the side to which the ground inference data 36 is output is the rear side.
- the inference model 32 may have multiple layers 3 3 continuously from the front side to the rear side.
- the calculation results of the plurality of nodes 34 belonging to one layer 33 may be input to the plurality of nodes 34 belonging to another layer 33.
- the other layer 33 may be a layer on the subsequent stage side of the one layer 33.
- the grounds inference model 3 2 of this example has layers 3 3-1, layers 3 3-2, and layers 3 3-3 continuously from the upstream side to the downstream side.
- Node 3 4-1, Node 34-2 and Node 34-3 are respectively It is indicated as 1 to 3 and 1 to 0.
- the four nodes 34-1 perform predetermined arithmetic operations on the six teacher judgment target data 12 indicated by X1 to X6, and output the arithmetic results to the four nodes 34-2. To do. In Figure 2, only the arrow from X 1 to 81-84 is shown, The arrow to is omitted. Each of the four nodes 34-1 may perform a predetermined weighting operation on the six teacher judgment target data 12 respectively.
- the four nodes 34-2 perform predetermined arithmetic operations on the outputs from the four nodes 34-1, and output the arithmetic results to the four nodes 34-3.
- the arrow from 32 to 84 to 10 1 to ⁇ 4 is omitted.
- Each of the four nodes 34-2 may perform a predetermined weighting on the output from each of the four nodes 34-1.
- the four nodes 34-3 perform a predetermined calculation on the outputs from the four nodes 34-2 and output the calculation result.
- FIG. 2 only the arrows from 13 1 to 0 1 to 0 4 are shown, and the arrows from 62 to 1 to 0 1 to 0 4 are omitted.
- Each of the four nodes 34-3 may perform a predetermined weighting on the output from each of the four nodes 34-2.
- the three basis inference data 36 indicated by [0045] are four nodes 34-
- the three grounds inference data 36 may be calculated by giving a predetermined weight to the outputs from the four nodes 34-3.
- the learning device 100 Each It is compared with the three teacher judgment basis data shown in.
- the learning device 100 is 2 1 ⁇ 3 each ⁇ 0 2020/175692 12 ⁇ (: 171? 2020 /008473 And the second error 0 2 is calculated.
- At least one node 2 4 of the decision reasoning model 2 2 is
- At least one node 24 differs from at least one node 34 if the grounds inference model 32 does not have the at least one node 24, and the judgment reasoning model 22 has at least one node 34. Indicates that node 3 4 is not included.
- all nodes 24 of the reasoning reasoning model 22 are different from all nodes 34 of the reasoning reasoning model 32.
- the judgment learning unit 20 and the ground learning unit 30 independently perform the first machine learning 60 and the second machine learning 70, respectively.
- the number of layers 23 may be more than three.
- the layer 23 may have more or less than four nodes 24.
- the number of nodes 24 included in each of the layers 23-1, 2-3 and 2-3-3 may be different.
- the number of layers 33 may be more than three.
- Layer 33 may have more or less than four nodes 34.
- the number of nodes 34 included in the layers 33-1, 3-3-2 and 3-3-3 may be different from each other. Further, the number of layers 23 and the number of layers 33 may be different.
- FIG. 3 is a diagram showing the flow of the first machine learning 60 and the second machine learning 70.
- the learning device 100 calls the initial models of the judgment reasoning model 2 2 and the grounds reasoning model 3 2.
- the initial model may be stored in the storage unit 40_1 and the storage unit 40-2 (see Fig. 1), respectively.
- step 3102 the learning device 100 inputs the teacher judgment target data 1 2, the teacher judgment result data 14 and the teacher judgment basis data 16 to the input unit 10.
- the judgment learning unit 20 performs a first machine learning 60 for learning the relationship between the teacher judgment target data 12 and the teacher judgment result data 14.
- the ground learning unit 30 carries out a second machine learning 70 for learning the relationship between the teacher judgment ground data 16 and the teacher judgment result data 14.
- Judgment learning section 20 performs the first machine learning 60. ⁇ 0 2020/175692 13 ⁇ (: 171? 2020 /008473
- the grounds learning unit 30 generates the grounds inference model 3 2 by performing the second machine learning 70.
- step 3104 the learning device 100 calculates a model error.
- the model error is the first error 0 1 between the judgment reasoning data 2 6 output by the judgment reasoning model 2 2 and the teacher judgment result data 1 4 and the reasoning reasoning data 3 output by the reasoning reasoning model 3 2. It refers to the second error 0 2 between 6 and the teacher judgment basis data 16.
- the functions for calculating the first error port 1 and the second error 0 2 are the first error function Chi 1 and the second error function Chi 2, respectively.
- the learning device 100 sets the first error port 1 to the judgment inference data 26 and the teacher judgment result data 1 4 as the first error function ⁇
- the learning device 100 may calculate the second error 0 2 by inputting the grounds inference data 36 and the teacher judgment grounds data 16 to the second error function C 2.
- the first error function chi 1 and the second error function chi 2 are the mean square error function, the mean absolute error function, the mean square log error function, the cross entropy error function, and the function using the connectionist time series classification method. , Hinge loss function, "Function, index loss function, 1_divergence (Re II
- Function, etc. may be any known loss function.
- the first error function S 1 and the second error function S 2 may be the same, and they may be the same. It does not have to be.
- the learning device 100 adjusts the weighting coefficient (parameter) of the operation in the node 2 4 based on the first error port 1, and based on the second error based on port 2. Adjust the weighting coefficient (parameter) of the calculation at node 34.
- the learning device 100 may adjust the weighting coefficient based on the first error port 1 for each node 24 belonging to each of the plurality of layers 23. Further, the learning device 100 may adjust the weighting coefficient for each node 34 belonging to each of the plurality of layers 33, based on the second error 02. That is, the weighting factor may be different for each node 24 belonging to each of the layers 2 3. ⁇ 0 2020/175692 14 ⁇ (: 171? 2020 /008473
- each node 34 belonging to each of the plurality of layers 33 may be different for each node 34 belonging to each of the plurality of layers 33.
- the learning device 100 is based on the first error port 1 and the four learning judgment target data 1 2 and the four nodes 2 4- Between node 2 4-1 and 4 nodes 2 4-2, between 4 nodes 2 4-2 and 4 nodes 2 4 _ 3, and between 4 nodes 2 4 _ 3 and 3 decisions. Adjust the weighting coefficient (parameter) with the theoretical data 26. Based on the second error 0 2, the learning device 100 has four nodes 3 4 — 1 and 4 nodes 3 4 — 1 and four nodes 3 4 — 1 between the six teacher decision target data 1 2 and four nodes 3 4 — 1. Between 4—2, between 4 nodes 3 4 -2 and 4 nodes 3 4 -3, and
- the learning device 100 determines whether the decision reasoning model 22 and the reasoning reasoning model 32 complete the first machine learning 60 and the second machine learning 70, respectively. To judge. The learning device 100 may compare the predetermined first threshold value D 1 and the first error 0 1 to determine whether to complete the first machine learning 60. The learning device 100 may determine whether or not to complete the second machine learning 70 by comparing the predetermined second threshold value 2 and the second error 0 2. The first threshold value D1 and the second threshold value D2 may be different and may be equal.
- the learning device 100 0 When the first error 0 1 is larger than the first threshold value 1, the learning device 100 0 returns to step 3 102 and the input unit 10 receives the teacher judgment target data 12 and the teacher judgment data. Enter the disconnection result data 1 4. When the second error 0 2 is larger than the second threshold D 2, the learning device 100 returns to step 3 102 and the input data for teacher judgment target data 1 2 and teacher judgment basis data 1 Enter 6.
- step 3102 Each time the learning device 100 returns from step 3108 to step 3102, different teacher judgment target data 1 2, different teacher judgment result data 1 4 and different teacher judgment basis data 1 6 May be input to the input section 10. Each time the loop from Step 3102 to Step 3108 is repeated, the decision learning unit 20 ⁇ 0 2020/175692 15 ⁇ (: 171? 2020 /008473
- the judgment reasoning model 22 and the reasoning reasoning model 32 can output a highly accurate judgment result and the basis of the judgment result for the judgment target data, respectively.
- the learning device 100 may store the judgment inference model 22 and the reasoning inference model 32 in the storage unit 40_1 and the storage unit 40-2, respectively.
- the judgment learning unit 20 may perform the first machine learning 60, which reduces the first error 0 1, independently of the second machine learning 70.
- the basis learning unit 30 may perform the second machine learning 70, which reduces the second error port 2, independently of the first machine learning 60. That is, the judgment learning unit 20 may perform the first machine learning 60 without being influenced by the reasoning reasoning data 36, and the grounds learning unit 30 may receive the first machine learning 60 without being affected by the reasoning reasoning data 26. You can do 2 machine learning 70.
- the learning device 100 may perform the first machine learning 60 and the second machine learning 70 in parallel.
- the learning device 100 may perform the second machine learning 70 after performing the first machine learning 60, or may perform the second machine learning 70 after performing the first machine learning 60. You can go.
- FIG. 4 is a diagram showing another example of the learning device 100 according to an embodiment of the present invention.
- the learning result of the first machine learning 60 in the judgment learning unit 20 is fed back to the grounds learning unit 30 and the second machine learning 70 in the grounds learning unit 30. This is different from the learning device 100 of FIG. 1 in that the learning result of is fed back to the judgment learning unit 20.
- FIG. 5 shows the first machine learning 60 and the second machine learning 70 in the example of FIG. ⁇ 0 2020/175692 16 ⁇ (: 171? 2020 /008473
- the learning device 100 has the first error between the teacher judgment result data 1 4 and the judgment inference data 2 6 and the second error between the teacher judgment basis data 1 6 and the reasoning data 3 6. Based on 0 2, at least one of the first machine learning 60 and the second machine learning 70 is performed. The learning device 100 may perform both the first machine learning 60 and the second machine learning 70 based on the first error port 1 and the second error 0 2.
- the learning device 100 performs at least one of the first machine learning 60 and the second machine learning 70 based on the first error port 1 and the second error 0 2,
- the learning results of the grounds reasoning model 32 can be reflected in the learning of the judgmental reasoning model 22.
- the judgment learning unit 20 compares the teacher judgment result data 14 and the teacher judgment basis data 1 6 with the case where the judgment reasoning model 2 2 and the reasoning reasoning model 3 2 are independently trained. We can build a decision reasoning model 2 2 that reflects hidden relationships.
- the learning device 100 performs the first machine learning 60, which reduces the first error 0 1 independently of the second machine learning 70, and then performs the first error learning 1 0.
- the first machine learning 60 may be performed based on the second error 0 2 and the second error 0 2.
- the learning device 100 can converge the first machine learning 60 faster than when the first machine learning 60 and the second machine learning 70 are performed in parallel. it can.
- the learning device 100 performs the second machine learning 70, which reduces the second error 02, independently of the first machine learning 60, and then performs the first error learning 1
- the second machine learning 70 may be performed based on the second error 0 2 and the second error 0 2.
- the learning device 100 can converge the second machine learning 70 faster than the case where the first machine learning 60 and the second machine learning 70 are performed in parallel. it can.
- the learning device 100 may perform a predetermined calculation on the first error 0 1 and the second error 0 2 at the node 80. For the given operation, the sum of the first error port 1 and the second error port 2, the average of the first error 0 1 and the second error 0 2, and the first error port 1 A weighted average with a second error 0 2 may be included. The learning device 100 performs a predetermined calculation on the first error port 1 and the second error 0 2 at the node 80. ⁇ 0 2020/175692 17 ⁇ (: 171? 2020 /008473
- At least one of the first machine learning 60 and the second machine learning 70 may be performed.
- the result of performing the predetermined operation on the first error port 1 and the second error 0 2 may be fed back to any one of the plurality of nodes 2 4 or may be fed back to any one of the plurality of nodes 3 4. ..
- the result of performing a predetermined operation on the first error port 1 and the second error 0 2 is fed back to any of node 24-1 to node 2-4-3.
- it can be fed back to any of Nodes 3 4 — 1 to Nodes 3 4 — 3.
- FIG. 6 is a diagram showing a flow of the first machine learning 60 and the second machine learning 70 in the examples of FIGS. 4 and 5.
- the flow of FIG. 6 is different from the flow of FIG. 3 in that it further includes step 3105 for calculating the evaluation error between step 3104 and step 3106 of FIG.
- the operation of the learning device 100 other than step 3105 is the same as each step in FIG.
- step 3104 learning apparatus 100 calculates a model error.
- the model error is the error 0 1 (first error port 1) between the judgment inference data 2 6 output by the judgment inference model 22 and the teacher judgment result data 1 4 and the rationale inference model 3 2.
- step 3105 the learning device 100 calculates the error for evaluation from the model error.
- the error port for evaluation refers to an error that the learning device 100 performs a predetermined calculation on the model error.
- the learning device 100 may calculate the combined error using the first error port 1 and the second error 0 2. Let the combined error be the combined error IV! 0. The learning device 100 may perform the first machine learning 60 or the second machine learning 70 based on the combined error IV! 0. Synthesis error It may be the sum of the first error port 1 and the second error 0 2. Learning device 100 has a synthetic error Using the sum of the first error 0 1 and the second error 0 2, the first machine learning 60 and the second machine learning 70 You may do at least one ⁇ 0 2020/175692 18 ⁇ (: 171? 2020 /008473
- the learning device 100 has an evaluation error port (combined error Is the sum of the first error port 1 and the second error 0 2, and at least one of the first machine learning 60 and the second machine learning 70 is performed so that the evaluation error port is minimized. You may The learning device 100 calculates the evaluation error ⁇ in step 3105 each time the loop of steps 3102 to 3108 is repeated, until the evaluation error becomes minimum. The loop from step 3102 to step 3108 may be repeated.
- the learning device 100 of this example uses the first machine learning until the evaluation error port is minimized.
- the judgment reasoning model 22 and the reasoning model 32 can output a highly accurate judgment result and the basis of the judgment result for the judgment target data, respectively.
- the learning device 100 causes the first error 0 1 and the second error 0 2 to be weighted differently as the combined error IV! 0, and the first machine learning 60 and the second machine learning are performed. At least one of 70 may be performed. That is, the learning device 100 produces a combined error calculated by differentiating the weights of the first error port 1 and the second error 0 2. At least one of the first machine learning 60 and the second machine learning 70 may be performed using as the error port for evaluation.
- the evaluation error port may be a weighted average of the first error port 1 and the second error port 2.
- the learning device 100 uses the error 0 for evaluation in which the weighting of the first error port 1 and the second error 0 2 is different, and the first machine learning 60 or the second machine learning 70 By doing, it is possible to adjust which of the judgment results and the basis for the judgment results is to be emphasized for learning.
- the learning device 100 has a first error 0 1 and a second error 0 1 in the combined error IV! 0.
- the weighting with 2 may be adjustable.
- the learning device 100 performs at least one of the first machine learning 60 and the second machine learning 70 using the combined error IV! 0 with the weighting changed for each predetermined number of steps. I don't mind. For example, when performing the first machine learning 60, the learning device 100 initially ⁇ 0 2020/175692 19 ⁇ (: 171? 2020 /008473
- the first machine learning 60 is performed by increasing the weighting of one error (for example, the first error port 1) in the composite error IV! 0, and the other error (for example, the second error).
- the first machine learning 60 may be performed by increasing the weighting of the error 0 2) of.
- the learning device 100 can balance the convergence speed of the first machine learning 60 and the accuracy of the generated decision reasoning model 22. In this case, the learning device 100 may adjust the weighting according to the convergence status of the first machine learning 60.
- the learning device 100 when performing the second machine learning 70, the learning device 100 initially increases the weight of one error (for example, the second error 0 2) in the combined error IV!
- the second machine learning 70 may be performed by increasing the weighting of the other error (for example, the first error port 1) as the number of steps progresses.
- the learning device 100 can balance the convergence speed of the second machine learning 70 and the accuracy of the generated judgment basis model 32. In this case, the learning device 100 may adjust the weighting according to the convergence state of the second machine learning 70.
- the decision learning unit 20 reduces the first error 0 1 independently of the second machine learning 70.
- Machine learning 60, the basis learning unit 30 performs the second machine learning 70, which reduces the second error 0 2 independently of the first machine learning 60, and then the decision learning unit 20 and the basis learning unit 30 perform the first machine learning 60 and the second machine learning 70, respectively, so that the sum of the first error port 1 and the second error 0 2 is minimized.
- the learning device 100 repeats the loop of step 3 102 to step 3 108 in FIG. 3 a predetermined number of times, and then repeats the loop of step 3 10 2 to step 3 108 in FIG. Good.
- the learning device 100 repeats the loop of step 3 102 to step 3 108 in Fig. 6 a predetermined number of times, and then loops from step 3 10 2 to step 3 108 in Fig. 3. You may repeat.
- the learning device 100 may alternately repeat the loop of FIG. 3 and the loop of FIG. 6 multiple times.
- FIG. 7 schematically shows another example of the first machine learning 60 and the second machine learning 70. ⁇ 0 2020/175692 20 units (: 171? 2020 /008473
- the decision reasoning model 22 may include at least one node 3 4 of the grounds reasoning model 32. Also, the grounds inference model 32 may include at least one node 24 of the judgment inference model 22.
- each of the four nodes 2 4 _1 is X 1 ⁇
- a predetermined weighting is applied to the six teacher judgment target data 12 shown by 6 and the calculation is performed, and the calculation result is output to four nodes 2 4-2 and four nodes 3 4-2.
- the four nodes 2 4-2 perform predetermined weighting on the outputs from the four nodes 2 4-1 and the four nodes 3 4-1 and perform the operation, and the operation results are output to the four nodes 2 4 -. Output to 3.
- the four nodes 3 4 _ 1 are represented by X 1 to X 6, respectively.
- a predetermined weighting is performed on the six teacher judgment target data 12 and the calculation is performed, and the calculation result is output to four nodes 3 4-2 and four nodes 2 4-2.
- the four nodes 3 4-2 perform predetermined weighting on the outputs from the four nodes 3 4-1 and the four nodes 2 4-1 and perform the operation. Output to 3.
- the learning device 100 may perform the first machine learning 60 and the second machine learning 70 according to the flowchart shown in FIG.
- the decision learning unit 20 (see Fig. 1) repeats the first machine learning 60 with respect to the nodes 24 and 34, and the basis learning unit 30 (see Fig. 1) uses the node 3 4 Repeat the second machine learning 70 for node and node 24. Therefore, the judgment reasoning model 22 can output a highly accurate judgment result in which the learning result of the grounds reasoning model 32 is also added to the judgment target data.
- the grounds inference model 32 can output the grounds of the judgment result with high accuracy in which the learning result of the judgment reasoning model 22 is added to the judgment target data.
- the judgment inference model 22 may include the node 34 on the upstream side of the plurality of nodes 34 in the grounds inference model 32.
- the grounds inference model 32 may include the node 24 in the preceding stage among the plurality of nodes 24 in the judgment inference model 22.
- the judgment reasoning model 22 is the data to be judged. ⁇ 0 2020/175692 21 ⁇ (: 171? 2020 /008473
- Judgment inference model 2 2 includes front-side node 3 4 and grounds inference model 3 2 includes front-side node 2 4 so that common operation results are input to rear-side nodes 2 4 and 3 4. To be done. Therefore, the learning device 100 can strengthen the relationship between the judgment inference data 26 and the grounds inference data 36.
- FIG. 8 is a diagram showing an example of the determination device 200 according to an embodiment of the present invention.
- the determination device 200 includes an input unit 10, a first determination unit 42, and a second determination unit 44.
- the judgment target data 18 is input to the input unit 10.
- the input unit 10 inputs the judgment target data 18 into the first judgment unit 4 2 and the second judgment unit 4 4.
- the first judgment unit 42 outputs the judgment result 28 for the judgment target data 18 based on the judgment reasoning model 22.
- the second judgment unit 44 outputs the basis 38 of the judgment result for the judgment target data 18 based on the ground reasoning model 3 2.
- the decision reasoning model 22 may be a model generated by the decision learning unit 20 (see FIG. 1) that has completed the first machine learning 60.
- the grounds inference model 32 may be a model generated by the grounds learning unit 30 (see Fig. 1) that has completed the second machine learning 70. That is, the judgment reasoning model 22 and the grounds reasoning model 32 may be the models judged to be ⁇ ⁇ 3 in step 310 in the flow of FIG. 3, respectively.
- the judgment reasoning model 22 may be stored in the storage unit 40-1.
- the grounds inference model 32 may be stored in the storage unit 40 _2.
- the determination device 200 of this example is configured so that the teacher determination target data 1 2 and the teacher determination result data
- the decision result 2 8 for the decision target data 1 8 is output.
- the judgment device 200 of this example uses the basis inference model 3 2 generated by machine learning of the relationship between the teacher judgment target data 1 2 and the teacher judgment basis data 16 to determine the judgment target data 1 2.
- the basis of the judgment result for 8 is output. For this reason, ⁇ 0 2020/175692 22 Approximately (:171? 2020 /008473)
- the reasoning reasoning model 32 can output the judgment result basis 38 which is easy for the user to interpret the judgment result 28.
- FIG. 9 is a diagram showing an example of the output of the judgment result 28 and the judgment result basis 38 by the judgment device 200.
- the judgment target data 18 is the melon 19.
- Judgment and reasoning model 22 is a model generated by machine learning (first machine learning 60) of the judgment result when the quality of melon 19 is judged by a judge such as a human.
- the grounds inference model 32 is a model generated by machine learning (second machine learning 70) on the grounds of the judgment result of the judgment of the quality of melon 19 by a judge such as a human.
- the judgment result includes a plurality of judgment results of the quality of melon 19 by a judge such as a human being.
- the judgment result includes the result of judging the quality of melon 19 from the result of human's visual inspection of melon 19 or the feeling of touching the surface of melon 19.
- the multiple results include three options: “not yet ready to eat”, “now to eat” and “more than ready to eat”.
- the grounds of the judgment result include a plurality of grounds by which a judge such as a human judges the quality of melon 19.
- the multiple grounds are four choices: "The vine is firm", “The vine is lithe", "The skin looks the same overall” and "A part of the skin is fresh”. including.
- Judgment result 28 shows the probability value that the quality of melon 19 is either "not yet ready to eat", “now eating” or “more than ready to eat”. Good.
- the probability value of judgment result 28 is shown in a histogram.
- the basis of the judgment result 38 is the reason for the judgment result 28 for the melon 19: "The vine is firm”, “The vine is shriveled", "The skin looks the same” and " Probability value corresponding to any of "part of the skin is fresh” may be indicated.
- the probability value of the basis 38 of the judgment result is shown in a histogram.
- the determination device 200 of this example can output both the determination result 28 and the basis of the determination result 38 for the determination target data 18 (melon 19). Therefore, the user ⁇ 0 2020/175692 23 ⁇ (: 171? 2020 /008473
- the judgment device 200 of this example can also present the basis of the judgment result 38 to the user who is presented with the judgment result 28, which makes it easier for the user to interpret the judgment result 28. ..
- the determination device 200 can output a response equivalent to the response when the determination result of the quality of the determination target and the basis thereof are asked to a determination person such as a human.
- a judge such as a human judges the judgment result made by the judge on the judgment target data 18 (melon 19) and the basis thereof, based on the judgment reasoning model 22 and the judgment reasoning 28 and the reasoning reasoning, respectively. By comparing with the basis 38 of the judgment result based on the model 32, the judgment on the judgment target data 18 (melon 19) can be learned.
- FIG. 10 is a diagram showing an example of the determination device 200.
- the judging device 200 is, for example, a computer equipped with a II, a memory and an interface.
- the determination device 200 may include a display unit 210.
- FIG. 10 also shows an enlarged view of the display unit 210 with a bold rectangular area.
- the display section 210 may have a judgment target data display area 220, a judgment result display area 230, and a judgment basis display area 240.
- the judgment target data display area 220 displays the judgment target data 18.
- the judgment target data display area 220 displays the image of the melon 19 as the judgment target data 18.
- the judgment result display area 2300 displays the judgment result 2 8.
- the judgment result display area 230 displays the probability values of the three options as the judgment result 28 of the quality of the melon 19 output by the judgment reasoning model 22.
- the three options include “not yet ready to eat”, “now is ready to eat” and “more than ready to eat”.
- the judgment grounds display area 2 40 displays the grounds 3 8 of the judgment result.
- the judgment reason display area 240 shows the probability values of the four options as the basis 38 for the quality judgment result of the melon 19 output by the reason reasoning model 32.
- the four options are “Crane is solid” and “Crane is flexible”. ⁇ 02020/175692 24 ⁇ (: 171? 2020 /008473
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
教師判断対象データ、教師判断対象データに対する判断結果を示す教師判断結果データ、および、教師判断対象データに対する判断結果の根拠を示す教師判断根拠データを入力する入力部と、教師判断対象データと教師判断結果データとの関係を学習する第1の機械学習を行うことにより、判断対象データが入力されると、判断対象データに対する判断結果を示す判断推論データを出力する判断推論モデルを生成する判断学習部と、教師判断対象データと教師判断根拠データとの関係を学習する第2の機械学習を行うことにより、判断対象データが入力されると、判断対象データに対する判断結果の根拠を示す根拠推論データを出力する根拠推論モデルを生成する根拠学習部と、を備える学習装置を提供する。
Description
\¥0 2020/175692 1 卩(:17 2020 /008473 明 細 書
発明の名称 : 学習装置および判断装置
技術分野
[0001 ] 本発明は、 学習装置および判断装置に関する。
背景技術
[0002] 人間の熟練者が目視した入力画像と、 その入力画像に対する人間の熟練者 の判断結果とを機械学習する学習装置、 および、 人間の熟練者の判断結果を 推定する判断装置が知られている (例えば、 特許文献 1参照) 。
特許文献 1 特開 2 0 1 8—9 2 4 5 3号公報
解決しようとする課題
[0003] 従来は、 判断装置による判断結果の信頼性を検証することが困難であった 一般的開示
[0004] 本発明の第 1の態様においては、 学習装置を提供する。 学習装置は、 教師 判断対象データ、 教師判断対象データに対する判断結果を示す教師判断結果 データ、 および、 教師判断対象データに対する判断結果の根拠を示す教師判 断根拠データを入力する入力部と、 教師判断対象データと教師判断結果デー 夕との関係を学習する第 1の機械学習を行うことにより、 判断対象データが 入力されると、 判断対象データに対する判断結果を示す判断推論データを出 力する判断推論モデルを生成する判断学習部と、 教師判断対象データと教師 判断根拠データとの関係を学習する第 2の機械学習を行うことにより、 判断 対象データが入力されると、 判断対象データに対する判断結果の根拠を示す 根拠推論データを出力する根拠推論モデルを生成する根拠学習部と、 を備え る。
[0005] 判断推論モデルの少なくとも一部のノードは、 根拠推論モデルの少なくと も一部のノードと異なっていてよい。
[0006] 学習装置は、 教師判断結果データと判断推論データとの第 1の誤差と、 教
\¥0 2020/175692 2 卩(:171? 2020 /008473
師判断根拠データと根拠推論データとの第 2の誤差とに基づいて、 第 1の機 械学習および第 2の機械学習の少なくとも一方を行ってよい。
[0007] 学習装置は、 第 1の誤差と第 2の誤差とに基づいて、 第 1の機械学習およ び第 2の機械学習の両方を行ってもよい。
[0008] 学習装置は、 第 1の誤差と第 2の誤差との和が最小になるように、 第 1の 機械学習および第 2の機械学習の少なくとも一方を行ってよい。
[0009] 学習装置は、 第 1の誤差と第 2の誤差との重み付けを異ならせて、 第 1の 機械学習および第 2の機械学習の少なくとも一方を行ってもよい。
[0010] 判断学習部は、 第 2の機械学習とは独立して第 1の誤差を小さくする第 1 の機械学習を行ってよい。 根拠学習部は、 第 1の機械学習とは独立して第 2 の誤差を小さくする第 2の機械学習を行ってよい。 判断学習部および根拠学 習部は、 第 1の誤差と第 2の誤差との和が最小になるように、 それぞれ第 1 の機械学習および第 2の機械学習を行ってよい。
[001 1 ] 判断推論モデルは、 根拠推論モデルの少なくとも一部のノードを含んでよ い。
[0012] 根拠推論モデルの少なくとも一部のノードは、 判断対象データが入力され るノードを含んでよい。
[0013] 本発明の第 2の態様においては、 判断装置を提供する。 判断装置は、 教師 判断対象データと教師判断結果データとの関係を機械学習することにより生 成された判断推論モデルに基づいて、 判断対象データに対する判断結果を出 力する第 1判断部と、 教師判断対象データと教師判断根拠データとの関係を 機械学習することにより生成された根拠推論モデルに基づいて、 判断対象デ —夕に対する判断結果の根拠を出力する第 2判断部と、 を備える。
[0014] 判断装置は、 表示部を備えてよい。 表示部は、 判断対象データを表示する 判断対象データ 表示領域と、 判断結果を表示する判断結果表示領域と、 判断 結果の根拠を表示する判断 根拠表示領域と、 を有してよい。
[0015] なお、 上記の発明の概要は、 本発明の必要な特徴の全てを列挙したもので はない。 また、 これらの特徴群のサブコンビネーシヨンもまた、 発明となり
\¥0 2020/175692 3 卩(:171? 2020 /008473
うる。
図面の簡単な説明
[0016] [図 1]本発明の一つの実施形態に係る学習装置 1 0 0の一例を示す図である。
[図 2]第 1の機械学習 6 0および第 2の機械学習 7 0の一例を模式的に示す図 である。
[図 3]第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図である
[図 4]本発明の一つの実施形態に係る学習装置 1 0 0の他の一例を示す図であ る。
[図 5]図 4の例における第 1の機械学習 6 0および第 2の機械学習 7 0の一例 を模式的に示す図である。
[図 6]図 4および図 5の例における第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図である。
[図 7]第 1の機械学習 6 0および第 2の機械学習 7 0の他の一例を模式的に示 す図である。
[図 8]本発明の一つの実施形態に係る判断装置 2 0 0の一例を示す図である。 [図 9]判断装置 2 0 0による判断結果 2 8および判断結果の根拠 3 8の出力の _例を示す図である。
[図 10]判断装置 2 0 0の一例を示す図である。
発明を実施するための形態
[0017] 以下、 発明の実施の形態を通じて本発明を説明するが、 以下の実施形態は 請求の範囲にかかる発明を限定するものではない。 また、 実施形態の中で説 明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限 らない。
[0018] 図 1は、 本発明の一つの実施形態に係る学習装置 1 0 0の一例を示す図で ある。 学習装置 1 〇〇は、 入力部 1 〇、 判断学習部 2 0および根拠学習部 3 0を備える。 入力部 1 〇には、 教師判断対象データ 1 2、 教師判断結果デー 夕 1 4および教師判断根拠データ 1 6が入力される。 入力部 1 0は、 教師判
\¥0 2020/175692 4 卩(:171? 2020 /008473
断対象データ 1 2および教師判断結果データ 1 4を、 判断学習部 2 0に入力 する。 入力部 1 〇は、 教師判断対象データ 1 2および教師判断根拠データ 1 6を、 根拠学習部 3 0に入力する。
[0019] 教師判断対象データ 1 2は、 当該データに関する所定の判断が既にされて いる教師データである。 教師判断対象データ 1 2は、 画像データ、 音声デー 夕、 テキストデータ等の所定の種類の情報を含むデータであってよい。 より 具体的な例として、 教師判断対象データ 1 2は、 野菜、 果物および精肉等の 生産物の画像を含む画像データである。
[0020] 教師判断結果データ 1 4は、 教師判断対象データ 1 2に対する判断結果を 示すデータである。 教師判断結果データ 1 4は、 教師判断対象データ 1 2に 対して人間等の判断者が判断した結果を示すデータであってよい。 当該判断 は、 熟練者が行うことが好ましい。 教師判断結果データ 1 4は、 選択肢とし て予め設定された複数の結果のうち、 判断者により選択された 1つまたは複 数の結果を示すデータであってよい。 例えば教師判断対象データ 1 2が生産 物に係る画像データである場合、 教師判断結果データ 1 4は、 当該生産物の 品質を評価した評価結果を示すデータであってよい。 教師判断結果データ 1 4は、 判断の元となった教師判断対象データ 1 2と対応付けられた状態で、 入力部 1 0に入力される。
[0021 ] 教師判断根拠データ 1 6は、 教師判断対象データ 1 2に対して、 教師判断 結果データ 1 4に示される結果を判断した根拠を示すデータである。 教師判 断根拠データ 1 6は、 教師判断結果データ 1 4に示される結果を判断した人 間等の判断者が、 当該判断の根拠として入力したデータであってよい。 教師 判断根拠データ 1 6は、 選択肢として予め設定された複数の根拠のうち、 判 断者により選択された 1つまたは複数の根拠を示すデータであってもよい。 教師判断根拠データ 1 6は、 教師判断対象データ 1 2に含まれる一部の情報 を指定するデータであってもよい。 教師判断根拠データ 1 6は、 教師判断対 象データ 1 2に含まれる画像の一部の領域を指定するデータであってよく、 画像の一部の領域の特性を示すデータであってもよい。 例えば判断者が、 教
\¥0 2020/175692 5 卩(:171? 2020 /008473
師判断対象データ 1 2に含まれる画像データから果物の果皮の所定の部分の 変色を根拠に当該果物を品質不良と判断した場合、 教師判断根拠データ 1 6 は、 その果物の所定の部分の果皮が変色していることを示すデータである。 教師判断根拠データ 1 6は、 判断の元となった教師判断対象データ 1 2と対 応付けられた状態で、 入力部 1 0に入力される。
[0022] 判断学習部 2 0は、 教師判断対象データ 1 2と教師判断結果データ 1 4と の関係を学習する第 1の機械学習を行い、 判断推論モデル 2 2を生成する。 判断推論モデル 2 2は、 判断対象データが入力されると、 判断対象データに 対して所定の処理を行い、 当該判断対象データに対する判断結果を示す判断 推論データを出力するモデルである。 判断学習部 2 0は、 多数の教師判断対 象データ 1 2と教師判断結果データ 1 4との関係を学習することで、 判断推 論モデル 2 2における処理を最適化する。
[0023] 根拠学習部 3 0は、 教師判断対象データ 1 2と教師判断根拠データ 1 6と の関係を学習する第 2の機械学習を行い、 根拠推論モデル 3 2を生成する。 根拠推論モデル 3 2は、 判断対象データが入力されると、 判断対象データに 対して所定の処理を行い、 当該判断対象データに対する判断結果の根拠を示 す根拠推論データを出力するモデルである。 根拠学習部 3 0は、 多数の教師 判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習することで、 根拠推論モデル 3 2における処理を最適化する。
[0024] 学習装置 1 0 0は、 記憶部 4 0— 1および記憶部 4 0— 2を備えてよい。
記憶部 4 0 _ 1は、 判断学習部 2 0が生成した判断推論モデル 2 2を記憶す る。 記憶部 4 0 _ 2は、 根拠学習部 3 0が生成した根拠推論モデル 3 2を記 憶する。
[0025] 本例の学習装置 1 0 0は、 教師判断対象データ 1 2と教師判断結果データ
1 4との関係を学習する第 1の機械学習だけでなく、 教師判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習も行う。 即 ち、 学習装置 1 〇〇は、 判断推論モデル 2 2だけでなく、 根拠推論モデル 3 2も生成する。 学習装置 1 0 0は、 判断推論モデル 2 2および根拠推論モデ
\¥0 2020/175692 6 卩(:171? 2020 /008473
ル 3 2を用いることで、 新たな判断対象データに対して、 判断推論データと 根拠推論データの両方を出力できる。 このため、 利用者は、 判断推論データ の妥当性を根拠推論データに基づいて検証しやすくなる。 また、 判断推論デ —夕が提示された利用者に、 根拠推論データも合わせて提示できるので、 利 用者が判断推論データを解釈しやすくなる。 根拠推論データを伴わずに判断 推論データだけが利用者に提示されると、 利用者は、 判断推論データに示さ れる結果が妥当であるか否かの判断に迷いやすい。
[0026] 教師判断対象データ 1 2は、 野菜、 精肉等の生産物に係る画像データ、 株 価の変動等の投資に係るデータ、 医療等の診断に係るデータであってもよい 。 教師判断対象データ 1 2が株価の変動等の投資に係るデータである場合、 教師判断結果データ 1 4は、 株価の変動等の教師判断対象データ 1 2に基づ いて人間の熟練者が投資を行うか否かを判断したデータであってよい。 また 、 教師判断根拠データ 1 6は、 人間の熟練者が当該投資を行うか否かを判断 した根拠データであってよい。 教師判断対象データ 1 2が医療等の診断に係 るデータである場合、 教師判断結果データ 1 4は、 医療等の診断に係るデー 夕に基づいて人間の熟練者が決定した治療内容に関するデータであってよい 。 また、 教師判断根拠データ 1 6は、 人間の熟練者が当該治療内容に決定し た根拠データであってよい。
[0027] 教師判断対象データ 1 2が医療等の診断に係るデータである場合、 教師判 断対象データ 1 2は、 より具体的には、 種々の症例に対する
I、 〇丁お よびエコー画像などの医療画像または動画、 ならびに心電図や呼吸音などの バイタル信号等のデータであってよい。 この場合、 教師判断結果データ 1 4 は上記データを元に医師が判断した疾患名であってよい。 学習装置 1 〇〇は 、 上記の教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習 する第 1の機械学習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教師判断根拠データ 1 6は、 上記データに対する医師の所見を判断根拠とし て含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象データ 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習を行い、
\¥0 2020/175692 7 卩(:171? 2020 /008473
根拠推論モデル 3 2を生成してよい。 その結果、 本実施形態に係る判断装置 は、 〇丁およびエコー画像などの医療画像または動画、 ならびに心 電図や呼吸音などのバイタル信号等の判断対象データに対して、 判断結果と して当該判断推論モデル 2 2に基づいて疾患名を出力し、 当該根拠推論モデ ル 3 2に基づいてその判断根拠となった所見を出力してよい。 医師は、 これ らの情報を元に、 最終的判断を行う。 これにより、 医師による疾患の見落と しと、 判断装置の誤判断を同時に防ぐことができる。
[0028] また、 教師判断対象データ 1 2は、 人事データであってもよい。 教師判断 対象データ 1 2が人事データである場合、 教師判断対象データ 1 2は、 より 具体的には従業員プロファイルであってよい。 この場合、 教師判断結果デー 夕 1 4は当該従業員の所定の活動領域 (研究開発/営業など) におけるパフ ォーマンスを含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断 対象データ 1 2と教師判断結果データ 1 4との関係を学習する第 1の機械学 習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教師判断根拠デー 夕 1 6は上記従業員がパフォーマンスを発揮した根拠 (理由) を含むデータ であってよい。 学習装置 1 0 0は、 上記の教師判断対象データ 1 2と教師判 断根拠データ 1 6との関係を学習する第 2の機械学習を行い、 根拠推論モデ ル 3 2を生成してよい。 その結果、 本実施形態に係る判断装置は、 従業員プ ロファイル等の人事データに対して、 判断結果として当該判断推論モデル 2 2に基づいて採用対象者に期待されるパフォーマンスを出力し、 当該根拠推 論モデル 3 2に基づいてその判断根拠となったパフォーマンスを発揮する根 拠を出力してよい。 このように、 本実施形態に係る学習装置および判断装置 を企業における採用活動や人事評価に利用することができる。
[0029] また、 教師判断対象データ 1 2は、 工場における設備点検に関するデータ であってもよい。 教師判断対象データ 1 2が設備点検に関するデータである 場合、 教師判断対象データ 1 2は、 より具体的には工場における設備点検対 象物の画像や動作音のデータであってよい。 この場合、 教師判断結果データ 1 4は、 当該設備点検対象物に対する熟練者の点検結果 (要交換、 要詳細点
\¥0 2020/175692 8 卩(:171? 2020 /008473
検、 重篤な問題なしなど) を含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習す る第 1の機械学習を行い、 判断推論モデル 2 2を生成してよい。 さらに、 教 師判断根拠データ 1 6は上記設備点検対象物のデータに対する熟練者の判断 根拠を含むデータであってよい。 学習装置 1 〇〇は、 上記の教師判断対象デ —夕 1 2と教師判断根拠データ 1 6との関係を学習する第 2の機械学習を行 い、 根拠推論モデル 3 2を生成してよい。 その結果、 本実施形態に係る判断 装置は、 点検対象物の画像や動作音等の判断対象データに対して、 判断結果 として当該判断推論モデル 2 2に基づいて当該点検対象物の点検結果を出力 し、 当該根拠推論モデル 3 2に基づいてその判断根拠を出力してよい。 これ により、 本実施形態に係る学習装置および判断装置を工場における設備点検 に利用することができる。
[0030] 第 1の機械学習および第 2の機械学習のそれぞれには、 公知のアルゴリズ ムを用いることができる。 公知のアルゴリズムとしては、 例えば、 ニューラ ルネッ トワーク、 ランダムフォレスト、 勾配ブースティング、 リッジ回帰、 ラッソ回帰、 ロジスティック回帰、 および、 サボートべクタマシン (3 1\/1 ) などを挙げることができる。 ニューラルネッ トワークは、 畳み込み型、 リ カレント型またはタイムディレイ型などの型式であってよい。 また、 判断推 論モデル 2 2および根拠推論モデル 3 2は、 それぞれ入カデータに対する分 類結果および分類結果の根拠を出力してもよいし、 それぞれ入カデータに対 する回帰結果および回帰結果の根拠を出力してもよい。
[0031 ] 図 2は、 第 1の機械学習 6 0および第 2の機械学習 7 0の一例を模式的に 示す図である。 判断推論モデル 2 2は、 複数の層 2 3を有する。 それぞれの 層 2 3は、 複数のノード 2 4を有する。 それぞれのノード 2 4は、 入力され たパラメータに対して所定の演算を行う。 判断推論モデル 2 2は、 複数の層 2 3における複数のノード 2 4の所定の演算結果に基づいて、 判断推論デー 夕 2 6を出力する。 学習装置 1 0 0は、 判断推論データ 2 6を教師判断結果 データ 1 4と比較して、 第 1の誤差口 1 を算出する。
\¥0 2020/175692 9 卩(:171? 2020 /008473
[0032] 本明細書においては、 図 2において教師判断対象データ 1 2が入力される 側を前段側とし、 判断推論データ 2 6が出力される側を後段側とする。 判断 推論モデル 2 2は、 前段側から後段側まで、 複数の層 2 3を連続的に有して よい。 一の層 2 3に属する複数のノード 2 4における演算結果は、 他の層 2 3に属する複数のノード 2 4にそれぞれ入力されてよい。 当該他の層 2 3は 、 当該一の層 2 3の後段側の層であってよい。
[0033] 図 2に示される判断推論モデル 2 2は、 一例として 3つの層 2 3を有し、
3つの層 2 3のそれぞれが 4つのノード 2 4を有する。 本例の判断推論モデ ル 2 2は、 前段側から後段側まで、 層 2 3— 1、 層 2 3— 2および層 2 3— 3を連続的に有する。 層 2 3— 1は 4つのノード 2 4— 1 を有し、 層 2 3— 2は 4つのノード 2 4— 2を有し、 層 2 3— 3は 4つのノード 2 4— 3を有 する。 図 2において、 4つのノード 2 4 _ 1 を八 1 ~八4、 4つのノード 2 4— 2を巳 1 ~巳4、 4つのノード 2 4— 3を〇 1 ~〇4と、 それぞれ示し ている。
[0034] 4つのノード 2 4 - 1は、 それぞれX 1〜X 6で示される 6つの教師判断 対象データ 1 2に対して所定の演算を行い、 その演算結果を 4つのノード 2 4— 2に出力する。 図 2においては、 X 1から八 1 ~八4への矢印のみ示し ており、 X 2〜X 6から八 1 ~八4への矢印を省略している。 4つのノード 2 4 - 1は、 それぞれ 6つの教師判断対象データ 1 2に対して所定の重み付 けをして演算を行ってもよい。
[0035] 4つのノード 2 4— 2は、 4つのノード 2 4— 1からの出力に対して所定 の演算を行い、 その演算結果を 4つのノード 2 4— 3に出力する。 図 2にお いては、
への矢印のみ示しており、 八2 ~八4から巳 1 ~巳 4への矢印を省略している。 4つのノード 2 4— 2は、 それぞれ 4つの ノード 2 4— 1からの出力に対して所定の重み付けをして演算を行ってもよ い。
[0036] 4つのノード 2 4— 3は、 4つのノード 2 4— 2からの出力に対して所定 の演算を行い、 その演算結果を出力する。 図 2においては、 巳 1から〇 1 ~
\¥0 2020/175692 10 卩(:171? 2020 /008473
〇 4への矢印のみ示しており、 巳 2〜巳4から〇 1〜〇 4への矢印を省略し ている。 4つのノード 2 4— 3は、 それぞれ 4つのノード 2 4— 2からの出 力に対して所定の重み付けをして演算を行ってもよい。
矢印を省略している。 3つの判断推論データ 2 6は、 それぞれ 4つのノード 2 4— 3からの出力に対して所定の重み付けをして演算を行ってもよい。
[0038] 学習装置 1 0 0は、
をそれぞれ丁 1 〜丁3で示される 3つの教師判断結果データ 1 4と比較する。 学習装置 1 0 0は、
をそれぞれ丁 1 ~丁 3と比較し、 第 1の誤差口 1 を算出す る。
[0039] 根拠推論モデル 3 2は、 複数の層 3 3を有する。 それぞれの層 3 3は、 複 数のノード 3 4を有する。 それぞれのノード 3 4は、 入力されたパラメータ に対して所定の演算を行う。 根拠推論モデル 3 2は、 複数の層 3 3における 複数のノード 3 4の所定の演算結果に基づいて、 根拠推論データ 3 6を出力 する。 学習装置 1 〇〇は、 根拠推論データ 3 6を教師判断根拠データ 1 6と 比較して、 第 2の誤差 0 2を算出する。
[0040] 本明細書においては、 図 2において教師判断対象データ 1 2が入力される 側を前段側とし、 根拠推論データ 3 6が出力される側を後段側とする。 根拠 推論モデル 3 2は、 前段側から後段側まで、 複数の層 3 3を連続的に有して よい。 一の層 3 3に属する複数のノード 3 4における演算結果は、 他の層 3 3に属する複数のノード 3 4にそれぞれ入力されてよい。 当該他の層 3 3は 、 当該一の層 3 3の後段側の層であってよい。
[0041 ] 図 2に示される根拠推論モデル 3 2は、 一例として教師判断対象データ 1
2が入力される側から 3つの層 3 3を有し、 3つの層 3 3のそれぞれが 4つ のノード 3 4を有する。 本例の根拠推論モデル 3 2は、 前段側から後段側ま で、 層 3 3— 1、 層 3 3— 2および層 3 3— 3を連続的に有する。 層 3 3—
\¥02020/175692 11 卩(:171? 2020 /008473
1は 4つのノード 34— 1 を有し、 層 33— 2は 4つのノード 34— 2を有 し、 層 33— 3は 4つのノード 34— 3を有する。 図 2において、 ノード 3 4— 1、 ノード 34— 2およびノード 34— 3を、 それぞれ
匕 1 ~匕4および〇 1 ~〇 4と示している。
[0042] 4つのノード 34- 1は、 それぞれX 1〜X 6で示される 6つの教師判断 対象データ 1 2に対して所定の演算を行い、 その演算結果を 4つのノード 3 4— 2に出力する。 図 2においては、 X 1から 8 1 ~ 84への矢印のみ示し ており、
への矢印を省略している。 4つのノード 34- 1は、 それぞれ 6つの教師判断対象データ 1 2に対して所定の重み付 けをして演算を行ってもよい。
[0043] 4つのノード 34— 2は、 4つのノード 34— 1からの出力に対して所定 の演算を行い、 その演算結果を 4つのノード 34— 3に出力する。 図 2にお いては、
しており、 32~84から 1〇 1 ~匕 4への矢印を省略している。 4つのノード 34— 2は、 それぞれ 4つの ノード 34— 1からの出力に対して所定の重み付けをして演算を行ってもよ い。
[0044] 4つのノード 34— 3は、 4つのノード 34— 2からの出力に対して所定 の演算を行い、 その演算結果を出力する。 図 2においては、 13 1から〇 1 ~ 〇 4への矢印のみ示しており、 62~匕4から〇 1 ~〇 4への矢印を省略し ている。 4つのノード 34— 3は、 それぞれ 4つのノード 34— 2からの出 力に対して所定の重み付けをして演算を行ってもよい。
[0045] で示される 3つの根拠推論データ 36は、 4つのノード 34-
3からの出力に対して所定の演算を行い、 生成される。 図 2においては、 〇 1から å 1 ~ å 3への矢印のみ示しており、 〇 2~〇 4から å 1 ~å 3への 矢印を省略している。 3つの根拠推論データ 36は、 それぞれ 4つのノード 34— 3からの出力に対して所定の重み付けをして演算を行ってもよい。
[0046] 学習装置 1 00は、
をそれぞれ
で示される 3つの教 師判断根拠データ 1 6と比較する。 学習装置 1 00は、 2 1 ~å 3をそれぞ
\¥0 2020/175692 12 卩(:171? 2020 /008473
と比較し、 第 2の誤差 0 2を算出する。
[0047] 判断推論モデル 2 2の少なくとも一つのノード 2 4は、 根拠推論モデル 3
2の少なくとも一つのノード 3 4と異なっていてよい。 少なくとも一つのノ -ド 2 4が少なくとも一つのノード 3 4と異なるとは、 根拠推論モデル 3 2 が当該少なくとも一つのノード 2 4を有さず、 判断推論モデル 2 2が当該少 なくとも一つのノード 3 4を有さないことを指す。 本例においては、 判断推 論モデル 2 2の全てのノード 2 4が、 根拠推論モデル 3 2の全てのノード 3 4と異なる。 言い換えると、 本例においては、 判断学習部 2 0および根拠学 習部 3 0は、 それぞれ独立に第 1の機械学習 6 0および第 2の機械学習 7 0 行う。
[0048] なお、 層 2 3の数は 3つより多くてもよい。 層 2 3が有するノード 2 4の 数は、 4つより多くてもよく、 少なくてもよい。 層 2 3— 1、 層 2 3— 2お よび層 2 3 - 3が有するノード 2 4の数は、 それぞれ異なっていてもよい。 同様に、 層 3 3の数は 3つより多くてもよい。 層 3 3が有するノード 3 4の 数は、 4つより多くてもよく、 少なくてもよい。 層 3 3— 1、 層 3 3— 2お よび層 3 3 - 3が有するノード 3 4の数は、 それぞれ異なっていてもよい。 また、 層 2 3の数と層 3 3の数は、 異なっていてもよい。
[0049] 図 3は、 第 1の機械学習 6 0および第 2の機械学習 7 0のフローを示す図 である。 ステップ 3 1 0 0において、 学習装置 1 0 0は判断推論モデル 2 2 および根拠推論モデル 3 2の初期モデルを呼び出す。 当該初期モデルは、 そ れぞれ記憶部 4 0 _ 1および記憶部 4 0 - 2 (図 1参照) に記憶されていて もよい。
[0050] ステップ 3 1 0 2において、 学習装置 1 0 0は入力部 1 0に教師判断対象 データ 1 2、 教師判断結果データ 1 4および教師判断根拠データ 1 6を入力 する。 判断学習部 2 0は、 教師判断対象データ 1 2と教師判断結果データ 1 4との関係を学習する第 1の機械学習 6 0を行う。 根拠学習部 3 0は、 教師 判断根拠データ 1 6と教師判断結果データ 1 4との関係を学習する第 2の機 械学習 7 0を行う。 判断学習部 2 0は、 第 1の機械学習 6 0を行うことによ
\¥0 2020/175692 13 卩(:171? 2020 /008473
り判断推論モデル 2 2を生成する。 根拠学習部 3 0は、 第 2の機械学習 7 0 を行うことにより根拠推論モデル 3 2を生成する。
[0051 ] ステップ 3 1 0 4において、 学習装置 1 0 0はモデル誤差を算出する。 モ デル誤差とは、 判断推論モデル 2 2が出力する判断推論データ 2 6と教師判 断結果データ 1 4との第 1の誤差 0 1、 および、 根拠推論モデル 3 2が出力 する根拠推論データ 3 6と教師判断根拠データ 1 6との第 2の誤差 0 2を指 す。
[0052] 第 1の誤差口 1および第 2の誤差 0 2を算出する関数を、 それぞれ第 1誤 差関数チ 1および第 2誤差関数チ 2とする。 学習装置 1 0 0は、 第 1の誤差 口 1 を、 判断推論データ 2 6と教師判断結果データ 1 4とを第 1誤差関数†
1 に入力することにより算出してよい。 学習装置 1 0 0は、 第 2の誤差 0 2 を、 根拠推論データ 3 6と教師判断根拠データ 1 6とを第 2誤差関数チ 2に 入力することにより算出してよい。
[0053] 第 1誤差関数チ 1および第 2誤差関数チ 2は、 平均二乗誤差関数、 平均絶 対誤差関数、 平均二乗対数誤差関数、 交差エントロピー誤差関数、 コネクシ ョニスト時系列分類法を用いた関数、 ヒンジ損失関数、
「関数、 指 数損失関数、 1_ダイバージェンス ( リ I I
〇1 I V 6 「 9 6 11 0 6) 関数、 等の公知の損失関数のいずれかであってよい 。 第 1誤差関数干 1 と第 2誤差関数干 2とは、 同じであってよく、 同じでな くてもよい。
[0054] ステップ 3 1 0 6において、 学習装置 1 0 0は、 第 1の誤差口 1 に基づい てノード 2 4における演算の重み付け係数 (パラメータ) を調整し、 第 2の 誤差に口 2に基づいてノード 3 4における演算の重み付け係数 (パラメータ ) を調整する。 学習装置 1 〇〇は第 1の誤差口 1 に基づいて、 複数の層 2 3 のそれぞれに属するノード 2 4ごとに、 重み付け係数を調整してよい。 また 、 学習装置 1 0 0は第 2の誤差 0 2に基づいて、 複数の層 3 3のそれぞれに 属するノード 3 4ごとに、 重み付け係数を調整してよい。 即ち、 重み付け係 数は、 複数の層 2 3のそれぞれに属するノード 2 4ごとに異なっていてよく
\¥0 2020/175692 14 卩(:171? 2020 /008473
、 複数の層 3 3のそれぞれに属するノード 3 4ごとに異なっていてよい。
[0055] 図 2に示される例においては、 学習装置 1 0 0は第1の誤差口 1 に基づい て、 6つの教師判断対象データ 1 2と 4つのノード 2 4 - 1 との間、 4つの ノード 2 4— 1 と 4つのノード 2 4— 2との間、 4つのノード 2 4— 2と 4 つのノード 2 4 _ 3との間、 および、 4つのノード 2 4 _ 3と 3つの判断推 論データ 2 6との間の重み付け係数 (パラメータ) を調整する。 また、 学習 装置 1 0 0は第 2の誤差 0 2に基づいて、 6つの教師判断対象データ 1 2と 4つのノード 3 4— 1 との間、 4つのノード 3 4— 1 と 4つのノード 3 4— 2との間、 4つのノード 3 4 - 2と 4つのノード 3 4 - 3との間、 および、
4つのノード 3 4— 3と 3つの根拠推論データ 3 6との間の重み付け係数 ( パラメータ) を調整する。
[0056] ステップ 3 1 0 8において、 学習装置 1 0 0は判断推論モデル 2 2および 根拠推論モデル 3 2が、 それぞれ第 1の機械学習 6 0および第 2の機械学習 7 0を完了したかどうかを判断する。 学習装置 1 0 0は、 予め定められた第 1の閾値丁 1 と第 1の誤差 0 1 とを比較して、 第 1の機械学習 6 0を完了す るか否かを判断してよい。 学習装置 1 〇〇は、 予め定められた第 2の閾値丁 2と第 2の誤差 0 2とを比較して、 第 2の機械学習 7 0を完了するか否かを 判断してよい。 第 1の閾値丁 1 と第 2の閾値丁 2とは異なっていてよく、 等 しくてもよい。
[0057] 第 1の誤差 0 1が第 1の閾値丁 1 よりも大きい場合、 学習装置 1 0 0はス テップ3 1 0 2に戻り、 入力部 1 0に教師判断対象データ 1 2および教師判 断結果データ 1 4を入力する。 第 2の誤差 0 2が第 2の閾値丁 2よりも大き い場合、 学習装置 1 0 0はステップ 3 1 0 2に戻り、 入力部 1 0に教師判断 対象データ 1 2および教師判断根拠データ 1 6を入力する。
[0058] 学習装置 1 0 0は、 ステップ 3 1 0 8からステップ 3 1 0 2に戻るごとに 、 異なる教師判断対象データ 1 2、 異なる教師判断結果データ 1 4および異 なる教師判断根拠データ 1 6を入力部 1 0に入力してよい。 ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返すごとに、 判断学習部 2 0が第 1の
\¥0 2020/175692 15 卩(:171? 2020 /008473
機械学習 6 0を繰り返し、 根拠学習部 3 0が第 2の機械学習 7 0を繰り返す ので、 判断推論モデル 2 2および根拠推論モデル 3 2の精度が向上する。 こ のため、 判断推論モデル 2 2および根拠推論モデル 3 2は、 判断対象データ に対して精度の高い判断結果および判断結果の根拠をそれぞれ出力できる。
[0059] ステップ3 1 0 2〜ステップ3 1 0 8のループを繰り返して第 1の誤差口
1が第 1の閾値丁 1 よりも小さくなった場合、 学習装置 1 0 0は第1の機械 学習 6 0を完了してステップ 3 1 1 0に進む。 同様に、 ステップ 3 1 0 2〜 ステップ 3 1 0 8のループを繰り返して第 2の誤差 0 2が第 2の閾値丁 2よ りも小さくなった場合、 学習装置 1 〇〇は第 2の機械学習 7 0を完了してス テップ3 1 1 0に進む。 ステップ 3 1 1 0において、 学習装置 1 0 0は判断 推論モデル 2 2および根拠推論モデル 3 2を、 それぞれ記憶部 4 0 _ 1およ び記憶部 4 0 - 2に保存してよい。
[0060] 判断学習部 2 0は、 第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小 さくする第 1の機械学習 6 0を行ってよい。 根拠学習部 3 0は、 第 1の機械 学習 6 0とは独立して第 2の誤差口 2を小さくする第 2の機械学習 7 0を行 ってよい。 即ち、 判断学習部 2 0は根拠推論データ 3 6の影響を受けずに第 1の機械学習 6 0を行ってよく、 根拠学習部 3 0は判断推論データ 2 6の影 響を受けずに第 2の機械学習 7 0を行ってよい。
[0061 ] 学習装置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行し て行ってよい。 学習装置 1 0 0は、 第 1の機械学習 6 0を行った後に第 2の 機械学習 7 0を行ってもよく、 第 2の機械学習 7 0を行った後に第 1の機械 学習 6 0を行ってもよい。
[0062] 図 4は、 本発明の一つの実施形態に係る学習装置 1 0 0の他の一例を示す 図である。 本例の学習装置 1 0 0は、 判断学習部 2 0における第 1の機械学 習 6 0の学習結果が根拠学習部 3 0にフィードバックされ、 根拠学習部 3 0 における第 2の機械学習 7 0の学習結果が判断学習部 2 0にフィードバック される点で、 図 1の学習装置 1 0 0と異なる。
[0063] 図 5は、 図 4の例における第 1の機械学習 6 0および第 2の機械学習 7 0
\¥0 2020/175692 16 卩(:171? 2020 /008473
の一例を模式的に示す図である。 本例において、 学習装置 1 〇〇は教師判断 結果データ 1 4と判断推論データ 2 6との第 1の誤差口 1 と、 教師判断根拠 データ 1 6と根拠推論データ 3 6との第 2の誤差 0 2に基づいて、 第 1の機 械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行う。 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 1の機械学習 6 0および第 2の機械学習 7 0の両方を行ってもよい。
[0064] 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて第 1の 機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行うことで、 判 断推論モデル 2 2の学習に根拠推論モデル 3 2の学習結果を反映させること ができる。 その結果、 判断学習部 2 0は、 判断推論モデル 2 2と根拠推論モ デル 3 2とを独立に学習させた場合と比較して、 教師判断結果データ 1 4と 教師判断根拠データ 1 6との隠された関係を反映した判断推論モデル 2 2を 構築することができる。
[0065] 学習装置 1 0 0は、 第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小 さくする第 1の機械学習 6 0を行った後に、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 1の機械学習 6 0を行ってもよい。 これにより、 学習装 置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行して行う場 合よりも、 第 1の機械学習 6 0を早く収束させることができる。
[0066] 学習装置 1 0 0は、 第 1の機械学習 6 0とは独立して第 2の誤差 0 2を小 さくする第 2の機械学習 7 0を行った後に、 第 1の誤差口 1 と第 2の誤差 0 2とに基づいて、 第 2の機械学習 7 0を行ってもよい。 これにより、 学習装 置 1 0 0は、 第 1の機械学習 6 0と第 2の機械学習 7 0とを並行して行う場 合よりも、 第 2の機械学習 7 0を早く収束させることができる。
[0067] 学習装置 1 0 0は、 ノード 8 0において第 1の誤差 0 1 と第 2の誤差 0 2 に所定の演算を行ってよい。 所定の演算には、 第 1の誤差口 1 と第 2の誤差 口 2との和、 第 1の誤差 0 1 と第 2の誤差 0 2との平均、 および、 第 1の誤 差口 1 と第 2の誤差 0 2との加重平均が含まれてよい。 学習装置 1 0 0は、 ノード 8 0において第 1の誤差口 1 と第 2の誤差 0 2とに所定の演算を行っ
\¥0 2020/175692 17 卩(:171? 2020 /008473
た結果に基づいて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少なく とも一方を行ってよい。 第 1の誤差口 1および第 2の誤差 0 2に所定の演算 を行った結果は、 複数のノード 2 4のいずれかにフイードバックされてよく 、 複数のノード 3 4のいずれかにフイードバックされてよい。 図 5の例にお いては、 第 1の誤差口 1および第 2の誤差 0 2に所定の演算を行った結果は 、 ノード 2 4— 1〜ノード 2 4— 3のいずれかにフイードバックされてよく 、 ノード 3 4— 1〜ノード 3 4— 3のいずれかにフイードバックされてよい
[0068] 図 6は、 図 4および図 5の例における第 1の機械学習 6 0および第 2の機 械学習 7 0のフローを示す図である。 図 6のフローは、 図 3のステップ 3 1 0 4とステップ 3 1 0 6の間に評価用誤差を算出するステップ 3 1 0 5をさ らに有する点で、 図 3のフローと異なる。 ステップ 3 1 0 5以外の学習装置 1 0 0の動作は、 図 3における各ステップと同じである。
[0069] ステップ 3 1 0 4において、 学習装置 1 0 0はモデル誤差を算出する。 モ デル誤差とは、 判断推論モデル 2 2が出力する判断推論データ 2 6と教師判 断結果データ 1 4との誤差 0 1 (第 1の誤差口 1) 、 および、 根拠推論モデ ル 3 2が出力する根拠推論データ 3 6と教師判断根拠データ 1 6との誤差 0 2 (第 2の誤差 0 2) を指す。
[0070] ステップ3 1 0 5において、 学習装置 1 0 0はモデル誤差から評価用誤差 口を算出する。 評価用誤差口とは、 学習装置 1 0 0がモデル誤差に所定の演 算を行った誤差を指す。
[0071 ] 学習装置 1 0 0は、 第 1の誤差口 1および第 2の誤差 0 2を用いて合成誤 差を算出してよい。 当該合成誤差を、 合成誤差 IV! 0とする。 学習装置 1 0 0 は、 合成誤差 IV! 0に基づいて第 1の機械学習 6 0または第 2の機械学習 7 0 を行ってよい。 合成誤差
第 1の誤差口 1 と第 2の誤差 0 2との和で あってもよい。 学習装置 1 〇〇は、 合成誤差
として第 1の誤差 0 1 と第 2の誤差 0 2との和を用いて、 当該合成誤差 IV! 0が最小になるように、 第 1 の機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってもよい
\¥0 2020/175692 18 卩(:171? 2020 /008473
。 即ち、 学習装置 1 〇〇は評価用誤差口 (合成誤差
を第 1の誤差口 1 と第 2の誤差 0 2との和とし、 当該評価用誤差口が最小になるように第 1の 機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってよい。 学 習装置 1 0 0は、 ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返す 毎にステップ 3 1 0 5において当該評価用誤差〇を算出し、 当該評価用誤差 口が最小になるまでステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返 してよい。
[0072] 本例の学習装置 1 0 0は、 評価用誤差口が最小になるまで第 1の機械学習
6 0および第 2の機械学習 7 0を繰り返すので、 判断推論モデル 2 2および 根拠推論モデル 3 2の精度が向上する。 このため、 判断推論モデル 2 2およ び根拠推論モデル 3 2は、 判断対象データに対して精度の高い判断結果およ び判断結果の根拠をそれぞれ出力できる。
[0073] 学習装置 1 0 0は、 合成誤差 IV! 0として第 1の誤差 0 1 と第 2の誤差 0 2 との重み付けを異ならせて、 第 1の機械学習 6 0および第 2の機械学習 7 0 の少なくとも一方を行ってよい。 即ち、 学習装置 1 0 0は第 1の誤差口 1 と 第 2の誤差 0 2との重み付けを異ならせて算出された合成誤差
を評価用 誤差口として用いて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少な くとも一方を行ってよい。 当該評価用誤差口は、 第 1の誤差口 1 と第 2の誤 差口 2との加重平均であってよい。 学習装置 1 0 0は、 第 1の誤差口 1 と第 2の誤差 0 2との重み付けを異ならせた評価用誤差 0を用いて第 1の機械学 習 6 0または第 2の機械学習 7 0を行うことにより、 判断結果および判断結 果の根拠のうち、 どちらの精度を重視して学習するかを調整することができ る。
[0074] 学習装置 1 0 0は、 合成誤差 IV! 0における第 1の誤差 0 1 と第 2の誤差 0
2との重み付けを、 調整可能であってよい。 学習装置 1 0 0は、 予め定めら れたステップ回数ごとに当該重み付けを変更した合成誤差 IV! 0を用いて、 第 1の機械学習 6 0および第 2の機械学習 7 0の少なくとも一方を行ってもよ い。 例えば、 第 1の機械学習 6 0を行う場合に、 学習装置 1 0 0は、 当初は
\¥0 2020/175692 19 卩(:171? 2020 /008473
合成誤差 IV! 0における一方の誤差 (例えば、 第 1の誤差口 1) の重み付けを 大きく して第 1の機械学習 6 0を行い、 ステップ回数が進むごとに他方の誤 差 (例えば、 第 2の誤差 0 2) の重み付けを大きく して第 1の機械学習 6 0 を行ってもよい。 これにより、 学習装置 1 0 0は、 第 1の機械学習 6 0の収 束速度と、 生成される判断推論モデル 2 2の精度とのバランスを取ることが できる。 この場合、 学習装置 1 0 0は、 第 1の機械学習 6 0の収束状況に応 じて当該重み付けを調整してもよい。 また、 第 2の機械学習 7 0を行う場合 に、 学習装置 1 〇〇は、 当初は合成誤差 IV! 0における一方の誤差 (例えば、 第 2の誤差 0 2) の重み付けを大きく して第 2の機械学習 7 0を行い、 ステ ップ回数が進むごとに他方の誤差 (例えば、 第 1の誤差口 1) の重み付けを 大きく して第 2の機械学習 7 0を行ってもよい。 これにより、 学習装置 1 0 0は、 第 2の機械学習 7 0の収束速度と、 生成される判断根拠モデル 3 2の 精度とのバランスを取ることができる。 この場合、 学習装置 1 0 0は、 第 2 の機械学習 7 0の収束状況に応じて当該重み付けを調整してもよい。
[0075] ステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返す場合において、 判断学習部 2 0が第 2の機械学習 7 0とは独立して第 1の誤差 0 1 を小さく する第 1の機械学習 6 0を行い、 根拠学習部 3 0が第 1の機械学習 6 0とは 独立して第 2の誤差 0 2を小さくする第 2の機械学習 7 0を行った後、 判断 学習部 2 0および根拠学習部 3 0は第 1の誤差口 1 と第 2の誤差 0 2の和が 最小になるように、 それぞれ第 1の機械学習 6 0および第 2の機械学習 7 0 を行ってもよい。 即ち、 学習装置 1 0 0は図 3におけるステップ 3 1 0 2〜 ステップ 3 1 0 8のループを所定回数繰り返した後、 図 6におけるステップ 3 1 0 2〜ステップ 3 1 0 8のループを繰り返してもよい。 また、 学習装置 1 0 0は図 6におけるステップ3 1 0 2〜ステップ3 1 0 8のループを所定 回数繰り返した後、 図 3におけるステップ 3 1 0 2〜ステップ 3 1 0 8のル —プを繰り返してもよい。 学習装置 1 〇〇は、 図 3のループと図 6のループ を交互に複数回繰り返してもよい。
[0076] 図 7は、 第 1の機械学習 6 0および第 2の機械学習 7 0の他の一例を模式
\¥0 2020/175692 20 卩(:171? 2020 /008473
的に示す図である。 判断推論モデル 2 2は、 根拠推論モデル 3 2の少なくと も一つのノード 3 4を含んでよい。 また、 根拠推論モデル 3 2は、 判断推論 モデル 2 2の少なくとも一つのノード 2 4を含んでよい。
[0077] 図 7に示される例においては、 4つのノード 2 4 _ 1はそれぞれ X 1 ~乂
6で示される 6つの教師判断対象データ 1 2に対して所定の重み付けをして 演算を行い、 その演算結果を 4つのノード 2 4— 2および 4つのノード 3 4 - 2に出力する。 4つのノード 2 4 - 2は、 4つのノード 2 4 - 1および 4 つのノード 3 4— 1からの出力に対して所定の重み付けをして演算を行い、 その演算結果を 4つのノード 2 4— 3に出力する。
[0078] 本例においては、 4つのノード 3 4 _ 1はそれぞれ X 1 〜 X 6で示される
6つの教師判断対象データ 1 2に対して所定の重み付けをして演算を行い、 その演算結果を 4つのノード 3 4— 2および 4つのノード 2 4— 2に出力す る。 4つのノード 3 4 - 2は、 4つのノード 3 4 - 1および 4つのノード 2 4 - 1からの出力に対して所定の重み付けをして演算を行い、 その演算結果 を 4つのノード 3 4— 3に出力する。
[0079] 図 7の例においても、 学習装置 1 0 0は図 3に示されるフロー図に沿って 第 1の機械学習 6 0および第 2の機械学習 7 0を行ってよい。 本例において は、 判断学習部 2 0 (図 1参照) はノード 2 4およびノード 3 4に対して第 1の機械学習 6 0を繰り返し、 根拠学習部 3 0 (図 1参照) はノード 3 4お よびノード 2 4に対して第 2の機械学習 7 0を繰り返す。 このため、 判断推 論モデル 2 2は、 判断対象データに対して根拠推論モデル 3 2の学習結果も 加味した、 精度の高い判断結果を出力できる。 また、 根拠推論モデル 3 2は 、 判断対象データに対して判断推論モデル 2 2の学習結果も加味した、 精度 の高い判断結果の根拠を出力できる。
[0080] 判断推論モデル 2 2は、 根拠推論モデル 3 2における複数のノード 3 4の うち、 前段側のノード 3 4を含んでよい。 根拠推論モデル 3 2は、 判断推論 モデル 2 2における複数のノード 2 4のうち、 前段側のノード 2 4を含んで よい。 図 7の例においては、 判断推論モデル 2 2は判断対象データが入力さ
\¥0 2020/175692 21 卩(:171? 2020 /008473
れるノード 3 4 - 1 を含み、 根拠推論モデル 3 2は判断対象データが入力さ れるノード 2 4 _ 1 を含む。 判断推論モデル 2 2が前段側のノード 3 4を含 み、 根拠推論モデル 3 2が前段側のノード 2 4を含むことで、 共通する演算 結果が後段側のノード 2 4およびノード 3 4に入力される。 このため、 学習 装置 1 0 0は、 判断推論データ 2 6と根拠推論データ 3 6との関連性を強く できる。
[0081 ] 図 8は、 本発明の一つの実施形態に係る判断装置 2 0 0の一例を示す図で ある。 判断装置 2 0 0は、 入力部 1 0、 第 1判断部 4 2および第 2判断部 4 4を備える。 入力部 1 0には、 判断対象データ 1 8が入力される。 入力部 1 〇は、 判断対象データ 1 8を第 1判断部 4 2および第 2判断部 4 4に入力す る。
[0082] 第 1判断部 4 2は、 判断推論モデル 2 2に基づいて判断対象データ 1 8に 対する判断結果 2 8を出力する。 第 2判断部 4 4は、 根拠推論モデル 3 2に 基づいて判断対象データ 1 8に対する判断結果の根拠 3 8を出力する。 判断 推論モデル 2 2は、 第 1の機械学習 6 0を完了した判断学習部 2 0 (図 1参 照) により生成されたモデルであってよい。 根拠推論モデル 3 2は、 第 2の 機械学習 7 0を完了した根拠学習部 3 0 (図 1参照) により生成されたモデ ルであってよい。 即ち、 当該判断推論モデル 2 2および当該根拠推論モデル 3 2は、 それぞれ図 3のフローにおけるステップ 3 1 0 8において丫㊀ 3と 判断されたモデルであってよい。 判断推論モデル 2 2は、 記憶部 4 0— 1 に 保存されていてよい。 根拠推論モデル 3 2は、 記憶部 4 0 _ 2に保存されて いてよい。
[0083] 本例の判断装置 2 0 0は、 教師判断対象データ 1 2と教師判断結果データ
1 4との関係を機械学習することにより生成された判断推論モデル 2 2に基 づいて、 判断対象データ 1 8に対する判断結果 2 8を出力する。 また、 本例 の判断装置 2 0 0は、 教師判断対象データ 1 2と教師判断根拠データ 1 6と の関係を機械学習することにより生成された根拠推論モデル 3 2に基づいて 、 判断対象データ 1 8に対する判断結果の根拠 3 8を出力する。 このため、
\¥0 2020/175692 22 卩(:171? 2020 /008473 根拠推論モデル 3 2は判断結果 2 8に対して利用者が解釈しやすい判断結果 の根拠 3 8を出力できる。
[0084] 図 9は、 判断装置 2 0 0による判断結果 2 8および判断結果の根拠 3 8の 出力の一例を示す図である。 本例において、 判断対象データ 1 8はメロン 1 9である。 判断推論モデル 2 2は、 メロン 1 9の品質を人間等の判断者が判 断した判断結果を機械学習 (第 1の機械学習 6 0) することにより生成され たモデルである。 根拠推論モデル 3 2は、 メロン 1 9の品質を人間等の判断 者が判断した判断結果の根拠を機械学習 (第 2の機械学習 7 0) することに より生成されたモデルである。 当該判断結果には、 人間等の判断者がメロン 1 9の品質を判断した複数の結果が含まれている。 判断者が人間である場合 、 当該判断結果には、 人間がメロン 1 9を目視した結果から、 または、 メロ ン 1 9の表面に触れた感覚から、 メロン 1 9の品質を判断した結果が含まれ てよい。 本例においては、 この複数の結果は 「まだ食べ頃ではない」 、 「今 が食べ頃」 および 「もう食べ頃を過ぎている」 の 3つの選択肢を含む。 また 、 当該判断結果の根拠には、 人間等の判断者がメロン 1 9の品質を判断した 複数の根拠が含まれている。 本例においては、 この複数の根拠は、 「ツルが しっかりしている」 、 「ツルがしなびている」 、 「皮は全体的に同じ様子」 および 「皮の一部がみずみずしい」 の 4つの選択肢を含む。
[0085] 判断結果 2 8は、 メロン 1 9の品質が 「まだ食べ頃ではない」 、 「今が食 ベ頃」 および 「もう食べ頃を過ぎている」 のいずれかに該当する確率値を示 してよい。 図 9においては、 判断結果 2 8の確率値をヒストグラムにて示し ている。 判断結果の根拠 3 8は、 メロン 1 9に対する判断結果 2 8の根拠と して、 「ツルがしっかりしている」 、 「ツルがしなびている」 、 「皮は全体 的に同じ様子」 および 「皮の一部がみずみずしい」 のいずれかに該当する確 率値を示してよい。 図 9においては、 判断結果の根拠 3 8の確率値をヒスト グラムにて示している。
[0086] 本例の判断装置 2 0 0は、 判断対象データ 1 8 (メロン 1 9) に対して判 断結果 2 8と判断結果の根拠 3 8の両方を出力できる。 このため、 利用者は
\¥0 2020/175692 23 卩(:171? 2020 /008473
判断結果 2 8の妥当性を判断結果の根拠 3 8に基づいて検証しやすくなる。 また、 本例の判断装置 2 0 0は、 判断結果 2 8が提示された利用者に判断結 果の根拠 3 8も合わせて提示できるので、 利用者が判断結果 2 8を解釈しや すくなる。 言い換えると、 判断装置 2 0 0は、 人間等の判断者に判断対象に 関する品質の判断結果とその根拠を尋ねた場合の回答と同等の回答を出力で きる。 また、 人間等の判断者は、 当該判断者が判断対象データ 1 8 (メロン 1 9) に対して行った判断結果およびその根拠を、 それぞれ判断推論モデル 2 2に基づく判断結果 2 8および根拠推論モデル 3 2に基づく判断結果の根 拠 3 8と比較することにより、 判断対象データ 1 8 (メロン 1 9) に対する 判断を学習できる。
[0087] 図 1 0は、 判断装置 2 0 0の一例を示す図である。 判断装置 2 0 0は、 一 例として〇 II、 メモリおよびインターフエース等を備えるコンビユータで ある。
[0088] 判断装置 2 0 0は、 表示部 2 1 0を備えてよい。 図 1 0に、 表示部 2 1 0 の拡大図を太線の矩形領域にて合わせて示している。 表示部 2 1 0は、 判断 対象データ表示領域 2 2 0、 判断結果表示領域 2 3 0および判断根拠表示領 域 2 4 0を有してよい。
[0089] 判断対象データ表示領域 2 2 0は、 判断対象データ 1 8を表示する。 本例 においては、 判断対象データ表示領域 2 2 0は判断対象データ 1 8としてメ ロン 1 9の画像を表示している。 判断結果表示領域 2 3 0は、 判断結果 2 8 を表示する。 本例においては、 判断結果表示領域 2 3 0は、 判断推論モデル 2 2が出力したメロン 1 9の品質の判断結果 2 8として 3つの選択肢の確率 値をそれぞれ表示している。 当該 3つの選択肢には、 「まだ食べ頃ではない 」 、 「今が食べ頃」 および 「もう食べ頃を過ぎている」 が含まれている。 判 断根拠表示領域 2 4 0は、 判断結果の根拠 3 8を表示する。 本例においては 、 判断根拠表示領域 2 4 0は、 根拠推論モデル 3 2が出力したメロン 1 9の 品質の判断結果の根拠 3 8として 4つの選択肢の確率値をそれぞれ表示して いる。 当該 4つの選択肢には、 「ツルがしっかりしている」 、 「ツルがしな
\¥02020/175692 24 卩(:171? 2020 /008473
びている」 、 「皮は全体的に同じ様子」 および 「皮の一部がみずみずしい」 が含まれている。
[0090] 以上、 本発明を実施の形態を用いて説明したが、 本発明の技術的範囲は上 記実施の形態に記載の範囲には限定されない。 上記実施の形態に、 多様な変 更または改良を加えることが可能であることが当業者に明らかである。 その 様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが 、 請求の範囲の記載から明らかである。
[0091] 請求の範囲、 明細書、 および図面中において示した装置、 システム、 プロ グラム、 および方法における動作、 手順、 ステップ、 および段階等の各処理 の実行順序は、 特段 「より前に」 、 「先立って」 等と明示しておらず、 また 、 前の処理の出力を後の処理で用いるのでない限り、 任意の順序で実現しう ることに留意すべきである。 請求の範囲、 明細書、 および図面中の動作フロ —に関して、 便宜上 「まず、 」 、 「次に、 」 等を用いて説明したとしても、 この順で実施することが必須であることを意味するものではない。
符号の説明
[0092] 1 0 · · ·入力部、 1 2 · · ·教師判断対象データ、 1 4 · · ·教師判断結 果データ、 1 6 · · ·教師判断根拠データ、 1 8 · · ·判断対象データ、 1 9 メロン、 20 · · 判断学習部、 22 · · 判断推論モデル、 23 層、 24 ノード、 26 判断推論データ、 28 · · 判断 結果、 30 · · ·根拠学習部、 32 · · ·根拠推論モデル、 33 · · 層、 34 ノード、 36 · · 根拠推論データ、 38 · · 判断結果の根拠 . 40 · · ·記憶部、 42 · · 第 1判断部、 44 · · ·第 2判断部、 60 第 1の機械学習、 70 · · 第 2の機械学習、 80 · · ノード、 1 〇〇 学習装置、 200 · · ·判断装置、 2 1 0 · · ·表示部、 220 - 判断対象データ表示領域、 230 判断結果表示領域、 240 - -判断根拠表示領域
Claims
[請求項 1 ] 教師判断対象データ、 前記教師判断対象データに対する判断結果を 示す教師判断結果データ、 および、 前記教師判断対象データに対する 判断結果の根拠を示す教師判断根拠データを入力する入力部と、 前記教師判断対象データと前記教師判断結果データとの関係を学習 する第 1の機械学習を行うことにより、 判断対象データが入力される と、 前記判断対象データに対する判断結果を示す判断推論データを出 力する判断推論モデルを生成する判断学習部と、
前記教師判断対象データと前記教師判断根拠データとの関係を学習 する第 2の機械学習を行うことにより、 前記判断対象データが入力さ れると、 前記判断対象データに対する前記判断結果の根拠を示す根拠 推論データを出力する根拠推論モデルを生成する根拠学習部と、 を備える学習装置。
[請求項 2] 前記判断推論モデルの少なくとも一部のノードは、 前記根拠推論モ デルの少なくとも一部のノードと異なる、 請求項 1 に記載の学習装置
[請求項 3] 前記教師判断結果データと前記判断推論データとの第 1の誤差と、 前記教師判断根拠データと前記根拠推論データとの第 2の誤差とに基 づいて、 前記第 1の機械学習および前記第 2の機械学習の少なくとも 一方を行う、 請求項 1 または 2に記載の学習装置。
[請求項 4] 前記第 1の誤差と前記第 2の誤差とに基づいて、 前記第 1の機械学 習および前記第 2の機械学習の両方を行う、 請求項 3に記載の学習装 置。
[請求項 5] 前記第 1の誤差と前記第 2の誤差との和が最小になるように、 前記 第 1の機械学習および前記第 2の機械学習の少なくとも一方を行う、 請求項 3または 4に記載の学習装置。
[請求項 6] 前記第 1の誤差と前記第 2の誤差との重み付けを異ならせて、 前記 第 1の機械学習および前記第 2の機械学習の少なくとも一方を行う、
\¥0 2020/175692 26 卩(:171? 2020 /008473
請求項 3から 5のいずれか一項に記載の学習装置。
[請求項 7] 前記判断学習部は、 前記第 2の機械学習とは独立して前記第 1の誤 差を小さくする前記第 1の機械学習を行い、
前記根拠学習部は、 前記第 1の機械学習とは独立して前記第 2の誤 差を小さくする前記第 2の機械学習を行い、
前記判断学習部および前記根拠学習部は、 前記第 1の誤差と前記第 2の誤差との和が最小になるように、 それぞれ前記第 1の機械学習お よび前記第 2の機械学習を行う、
請求項 3から 6のいずれか一項に記載の学習装置。
[請求項 8] 前記判断推論モデルは、 前記根拠推論モデルの少なくとも一部のノ
—ドを含む、 請求項 1 に記載の学習装置。
[請求項 9] 前記少なくとも一部のノードは、 前記判断対象データが入力される ノードを含む、 請求項 8に記載の学習装置。
[請求項 10] 教師判断対象データと教師判断結果データとの関係を機械学習する ことにより生成された判断推論モデルに基づいて、 判断対象データに 対する判断結果を出力する第 1判断部と、
前記教師判断対象データと教師判断根拠データとの関係を機械学習 することにより生成された根拠推論モデルに基づいて、 前記判断対象 データに対する前記判断結果の根拠を出力する第 2判断部と、 を備える判断装置。
[請求項 1 1 ] 前記判断対象データを表示する判断対象データ表示領域と、
前記判断結果を表示する判断結果表示領域と、 前記判断結果の根拠を表示する判断根拠表示領域と、
を有する表示部を備える、 請求項 1 〇に記載の判断装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021502658A JP7213948B2 (ja) | 2019-02-28 | 2020-02-28 | 学習装置および判断装置 |
US17/402,600 US20210374618A1 (en) | 2019-02-28 | 2021-08-15 | Learning device and determination device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-035085 | 2019-02-28 | ||
JP2019035085 | 2019-02-28 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/402,600 Continuation US20210374618A1 (en) | 2019-02-28 | 2021-08-15 | Learning device and determination device |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020175692A1 true WO2020175692A1 (ja) | 2020-09-03 |
Family
ID=72239850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/008473 WO2020175692A1 (ja) | 2019-02-28 | 2020-02-28 | 学習装置および判断装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210374618A1 (ja) |
JP (1) | JP7213948B2 (ja) |
WO (1) | WO2020175692A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6774129B1 (ja) * | 2020-02-03 | 2020-10-21 | 望 窪田 | 解析装置、解析方法及び解析プログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005148880A (ja) * | 2003-11-12 | 2005-06-09 | Advanced Telecommunication Research Institute International | 年齢推定装置、年齢推定方法および年齢推定プログラム |
JP2019028484A (ja) * | 2017-07-25 | 2019-02-21 | 日本電信電話株式会社 | 属性識別装置、属性識別モデル学習装置、方法、及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8112378B2 (en) * | 2008-06-17 | 2012-02-07 | Hitachi, Ltd. | Methods and systems for performing root cause analysis |
US11100420B2 (en) * | 2014-06-30 | 2021-08-24 | Amazon Technologies, Inc. | Input processing for machine learning |
WO2018163555A1 (ja) | 2017-03-07 | 2018-09-13 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP6794921B2 (ja) | 2017-05-01 | 2020-12-02 | トヨタ自動車株式会社 | 興味判定装置、興味判定方法、及びプログラム |
-
2020
- 2020-02-28 WO PCT/JP2020/008473 patent/WO2020175692A1/ja active Application Filing
- 2020-02-28 JP JP2021502658A patent/JP7213948B2/ja active Active
-
2021
- 2021-08-15 US US17/402,600 patent/US20210374618A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005148880A (ja) * | 2003-11-12 | 2005-06-09 | Advanced Telecommunication Research Institute International | 年齢推定装置、年齢推定方法および年齢推定プログラム |
JP2019028484A (ja) * | 2017-07-25 | 2019-02-21 | 日本電信電話株式会社 | 属性識別装置、属性識別モデル学習装置、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7213948B2 (ja) | 2023-01-27 |
US20210374618A1 (en) | 2021-12-02 |
JPWO2020175692A1 (ja) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Salekin et al. | Detection of chronic kidney disease and selecting important predictive attributes | |
Liu et al. | Managing consensus and self-confidence in multiplicative preference relations in group decision making | |
US10832128B2 (en) | Transfer learning apparatus, transfer learning system, transfer learning method, and recording medium | |
Xian et al. | Double parameters TOPSIS for multi-attribute linguistic group decision making based on the intuitionistic Z-linguistic variables | |
EP3618080B1 (en) | Reinforcement learning for medical system | |
CN113379042B (zh) | 保护数据隐私的业务预测模型训练方法及装置 | |
CN111723948A (zh) | 基于演化计算的联邦学习方法、装置、设备及介质 | |
CN104484562B (zh) | 一种基于模糊神经网络的体域网健康信息监测、交互系统 | |
CN107249434A (zh) | 鲁棒分类器 | |
Kwakye et al. | Machine learning-based classification algorithms for the prediction of coronary heart diseases | |
WO2020175692A1 (ja) | 学習装置および判断装置 | |
KR20230044976A (ko) | 학습 기반 사용자 맞춤형 인지 모델을 이용하여, 인지검사 태스크를 대체 수행하는 인지모델 기반의 인지 상태 평가 장치 및 그 동작 방법 | |
Hart et al. | Connectionist models in medicine: an investigation of their potential | |
Joshi et al. | Analysis of Heart Disease Prediction using Various Machine Learning Techniques: A Review Study | |
Yazdi et al. | Best practice performance of COVID-19 in America continent with artificial intelligence | |
Das et al. | An approach for decision making using intuitionistic trapezoidal fuzzy soft set | |
Fauziyah et al. | Hybrid Genetic Algorithm for Optimization of Food Composition on Hypertensive Patient. | |
CN113345581A (zh) | 一种基于集成学习的脑卒中溶栓后出血概率预测方法 | |
Pious et al. | Heart disease prediction using machine learning algorithms | |
US20240038370A1 (en) | Treatment outcome prediction for neovascular age-related macular degeneration using baseline characteristics | |
Fadhlullah Kh TQ | Classification of Tuberculosis Based on Chest X-Ray Images for Imbalance Data using SMOTE | |
JP7229313B2 (ja) | 加齢による黄斑変性症用の分類モデルを学習させる電子機器及び方法 | |
Lee et al. | Subject-specific Deep Neural Networks for Count Data with High-cardinality Categorical Features | |
US20220138678A1 (en) | A system and method for presenting an amalgamated carriage method | |
Bezrukov et al. | Hybrid Intelligen System Based on an Adaptive Fuzzy Neural Network with a Data Input Search Block |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20762627 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2021502658 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20762627 Country of ref document: EP Kind code of ref document: A1 |