WO2019167556A1 - ラベル収集装置、ラベル収集方法及びラベル収集プログラム - Google Patents

ラベル収集装置、ラベル収集方法及びラベル収集プログラム Download PDF

Info

Publication number
WO2019167556A1
WO2019167556A1 PCT/JP2019/003818 JP2019003818W WO2019167556A1 WO 2019167556 A1 WO2019167556 A1 WO 2019167556A1 JP 2019003818 W JP2019003818 W JP 2019003818W WO 2019167556 A1 WO2019167556 A1 WO 2019167556A1
Authority
WO
WIPO (PCT)
Prior art keywords
label
teacher
accuracy
processing unit
teacher data
Prior art date
Application number
PCT/JP2019/003818
Other languages
English (en)
French (fr)
Inventor
井上 創造
Original Assignee
国立大学法人九州工業大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人九州工業大学 filed Critical 国立大学法人九州工業大学
Priority to JP2020502890A priority Critical patent/JP7320280B2/ja
Priority to US16/967,639 priority patent/US20210279637A1/en
Priority to CN201980012515.4A priority patent/CN111712841A/zh
Publication of WO2019167556A1 publication Critical patent/WO2019167556A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • the present invention relates to a label collection device, a label collection method, and a label collection program.
  • Supervised machine learning which is one field of machine learning, may be executed to recognize human behavior based on sensor data or the like (see Non-Patent Document 1).
  • the supervised machine learning phase includes a learning (training) phase and a determination (evaluation) phase.
  • teacher data is created by attaching a teacher label (Annotations) to a sample such as sensor data. Since the work of creating teacher data requires time and effort, the burden on the creator is great. For this reason, the creator may give a teacher a label that is not related to the sample due to human error, concentration, incentive, or the like. In this case, the accuracy of machine learning for recognizing a human action based on the sample decreases.
  • a teacher label Annotations
  • the conventional label collecting apparatus may not be able to collect teacher labels of teacher data that improves the accuracy of machine learning.
  • an object of the present invention is to provide a label collection device, a label collection method, and a label collection program that can collect teacher labels of teacher data that improves the accuracy of machine learning.
  • One aspect of the present invention is an acquisition unit that acquires a teacher label of teacher data used for machine learning, a learning processing unit that executes machine learning of a model based on the teacher data including the acquired teacher label,
  • the label collection device includes an accuracy detection unit that detects the accuracy of the model and a presentation processing unit that presents the accuracy, and the acquisition unit acquires the updated teacher data.
  • One aspect of the present invention is based on first teacher data including an acquisition unit that acquires a first teacher label of first teacher data used for machine learning, and the acquired first teacher label and sample.
  • a learning processing unit that performs machine learning of the first model, an accuracy detection unit that detects the accuracy of the first model, a presentation processing unit that presents the accuracy, and a second correct as an action label for the sample
  • a warning processing unit that outputs a warning when the similarity between the second teacher data including the teacher label and the first teacher data is equal to or lower than a predetermined similarity threshold, and the acquisition unit is updated
  • It is a label collection apparatus which acquires 1st teacher data.
  • the learning processing unit includes third teacher data including a third teacher label that is not correct as an action label for the sample, and the second teacher label. Based on the second teacher data including the second teacher data, and the warning processing unit has an accuracy of the second model with respect to the first teacher data equal to or lower than a predetermined accuracy threshold. Output a warning in case.
  • One embodiment of the present invention is the above-described label collection device, in which the sample is sensor data, and the first teacher label is a label representing human behavior.
  • One embodiment of the present invention is based on first teacher data including a step of obtaining a first teacher label of first teacher data used for machine learning, and the obtained first teacher label and sample. Performing a machine learning of a first model; detecting an accuracy of the first model; presenting the accuracy; and a second teacher label that is not associated with the sample.
  • a label collecting method including a step of outputting a warning when the similarity between the second teacher data and the first teacher data is equal to or less than a predetermined similarity threshold, and obtaining the updated first teacher data. is there.
  • a first teacher data including a procedure for acquiring a first teacher label of first teacher data used for machine learning in a computer, and the acquired first teacher label and sample.
  • a second teacher label whose association with the sample is not low, a procedure for performing machine learning of the first model based on the steps, a procedure for detecting the accuracy of the first model, a procedure for presenting the accuracy,
  • a procedure for outputting a warning and a procedure for obtaining the updated first teacher data are executed. It is a label collection program for.
  • FIG. 1 is a diagram illustrating an example of the configuration of the label collection device 1a.
  • the label collection device 1a is an information processing device that collects teacher labels of teacher data used for machine learning, and is, for example, a personal computer, a smartphone terminal, a tablet terminal, or the like.
  • the teacher label is an action label for the sample, for example, a label representing a human action.
  • the label collection device 1a stores a set X of samples x as input data.
  • the number of samples (number of elements) in the set is 1 or more.
  • the sample x is sensor data, for example, image data, audio data, acceleration data, temperature data, and illuminance data.
  • the image data is, for example, moving image data or still image data taken by a nurse with a camera attached to a hospital room.
  • the image data may include a recognition result of characters included in the image.
  • the voice data is, for example, voice data collected by a microphone worn by a nurse at work.
  • the acceleration data is, for example, acceleration data detected by an acceleration sensor worn by a nurse at work.
  • the subscript i of d i represents the index of the sample included in the teacher data.
  • the creator confirms the sample x presented from the label collection device 1a and determines the teacher label y to be given to the sample x.
  • the creator can give a teacher label such as “dog” or “cat” to still image data that is non-series data.
  • the creator can give a teacher label “medicine” to sample x, which is still image data in which the figure of a nurse who is taking medication to a patient is captured.
  • the creator can assign a teacher label in a group format such as [start time, end time, classification class] to the audio data that is the series data.
  • the creator records the teacher label given to the sample x in the label collection device 1a by operating the label collection device 1a.
  • the sample x is non-series data as an example.
  • the teacher label set Y is represented in the form of ⁇ y 1 ,..., Y n ⁇ as an example.
  • the label collection device 1a includes a bus 2, an input device 3, an interface 4, a display device 5, a storage device 6, a memory 7, and an arithmetic processing unit 8a.
  • the bus 2 transfers data between the functional units of the label collection device 1a.
  • the input device 3 is configured using an existing input device such as a keyboard, a pointing device (such as a mouse or a tablet), a button, or a touch panel.
  • the input device 3 is operated by a teacher data creator.
  • the input device 3 may be a wireless communication device.
  • the input device 3 may input a sample x such as image data and audio data generated by a sensor to the interface 4 by wireless communication.
  • the interface 4 is realized by using hardware such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).
  • the interface 4 records the sample x input from the input device 3 in the storage device 6.
  • the interface 4 may output the sample x to the arithmetic processing unit 8a.
  • the interface 4 outputs the teacher label y input from the input device 3 to the arithmetic processing unit 8a.
  • Display device 5 is an image display device such as a CRT (Cathode Ray Tube) display, a liquid crystal display, or an organic EL (Electro Luminescence) display.
  • the display device 5 displays the image data acquired from the interface 4.
  • the image data acquired from the interface 4 is, for example, image data of the sample x, character string image data representing the teacher label, and numerical data representing the accuracy of the machine learning estimation model.
  • the storage device 6 is a non-volatile recording medium (non-temporary recording medium) such as a flash memory or a hard disk drive.
  • the storage device 6 stores a program.
  • the program is provided to the label collection device 1a as a cloud service, for example.
  • the program may be provided to the label collection device 1a as an application distributed from the server device.
  • the storage device 6 stores one or more samples x input to the interface 4 by the input device 3.
  • the storage device 6 stores one or more teacher labels y input to the interface 4 by the input device 3 in association with the sample x.
  • the storage device 6 stores one or more teacher data d that is data in which the sample x and the teacher label y are associated with each other.
  • the memory 7 is a volatile recording medium such as a RAM (Random Access Memory).
  • the memory 7 stores the program developed from the storage device 6.
  • the memory 7 temporarily stores various data generated by the arithmetic processing unit 8a.
  • the arithmetic processing unit 8a is configured by using a processor such as a CPU (Central Processing Unit).
  • the arithmetic processing unit 8 a functions as an acquisition unit 80, a learning processing unit 81, an accuracy detection unit 82, and a presentation processing unit 83 by executing a program expanded from the storage device 6 to the memory 7.
  • the acquisition unit 80 acquires the teacher label y i input to the interface 4 by the input device 3.
  • Acquisition unit 80 records the generated training data d i in the storage device 6.
  • subscript j of d j represents the index of the sample of teacher data.
  • the learning processing unit 81 performs machine learning of the estimation model M based on the set D of teacher data d i acquired by the acquisition unit 80.
  • the learning processing unit 81 may perform machine learning of the estimation model M based on past teacher data.
  • the accuracy detector 82 detects the accuracy of the estimated model M.
  • the accuracy of the estimation model M is a value that can be expressed by probability, and is, for example, the accuracy rate, accuracy rate, or recall rate of the estimation model M.
  • the accuracy detection unit 82 may detect an error of the output variable of the estimation model M.
  • the presentation processing unit 83 generates a numerical image representing the accuracy of the estimated model M.
  • the presentation processing unit 83 may generate an image representing each sample included in the teacher data.
  • the presentation processing unit 83 may generate an image such as a character string representing each teacher label included in the teacher data.
  • the presentation processing unit 83 outputs the generated image to the display device 5.
  • FIG. 2 is a flowchart showing an example of teacher data creation processing by the creator and the operation of the label collection device 1a.
  • the creator inputs a set D of teacher data d i to the label collection device 1a by assigning a teacher label y i to the sample x i (step S101).
  • the acquisition unit 80 acquires a set D of teacher data d i (step S201).
  • the learning processing unit 81 performs machine learning of the estimation model M based on the set D of the teacher data d i (Step S202).
  • the accuracy detector 82 detects the accuracy of the estimated model M (step S203).
  • the presentation processing unit 83 displays a numerical image indicating the accuracy of the estimated model M on the display device 5 (step S204).
  • the presentation processing unit 83 executes the processing in step S204 in real time while the sensor is generating image data or the like, for example.
  • the presentation processing unit 83 may execute the process of step S204 at a predetermined time on the day after the date on which the sensor generated image data or the like.
  • the creator creates a set of additional teacher data (step S102).
  • the creator performs the process of step S101 again in order to input the teacher data D + newly acquired so that the accuracy of the estimated model M exceeds the first accuracy threshold value to the learning processing unit.
  • the label collection device 1a of the first embodiment includes the acquisition unit 80, the learning processing unit 81, the accuracy detection unit 82, and the presentation processing unit 83.
  • the acquisition unit 80 acquires the teacher label y of the teacher data d used for machine learning.
  • Learning processing unit 81 performs a machine learning estimation model M on the basis of the training data d i containing the training labels y and the sample x i obtained.
  • the accuracy detector 82 detects the accuracy of the estimated model M.
  • the presentation processing unit 83 presents the accuracy of the estimated model M to the operator by causing the display device 5 to display the accuracy of the estimated model M.
  • the acquisition unit 80 acquires updated teacher data d i +.
  • the label collecting apparatus 1a can collect teacher labels of teacher data for improving the accuracy of machine learning. Since the quality of the updated teacher data is improved, the accuracy of supervised machine learning that recognizes behavior based on sensor data is improved.
  • the label collection device 1a can display the accuracy of the estimated model M on the display device 5, and can execute gamification that motivates the creator to improve the quality of the teacher data.
  • the device that records the action recognition result as the work history can record the output variable of the estimation model M in real time.
  • the device that visualizes the action recognition result can visualize the output variable of the estimation model M in real time.
  • the user can check the business history based on the recorded action recognition result.
  • the user can improve the business based on the business history.
  • a creator may perform an illegal act in which the creator gives the sample a teacher label that is not related to the sample. For example, a creator may give a teacher label “medicine” instead of a teacher label “document creation” to a sample that is still image data in which a figure of a nurse sitting and creating a document is photographed. it can.
  • the label collection device includes: first teacher data created by a first creator; and second teacher data created by one or more second creators who are not cheating. Based on the similarity, it is determined whether or not there is an illegal act when the first creator creates the first teacher data.
  • FIG. 3 is a diagram showing an example of the configuration of the label collection device 1b.
  • the label collection device 1b includes a bus 2, an input device 3, an interface 4, a display device 5, a storage device 6, a memory 7, and an arithmetic processing unit 8b.
  • the arithmetic processing unit 8b executes a program expanded from the storage device 6 to the memory 7, thereby obtaining an acquisition unit 80, a learning processing unit 81, an accuracy detection unit 82, a presentation processing unit 83, and a feature amount processing unit. 84, a set data generation unit 85, and a warning processing unit 86.
  • Acquisition unit 80 a set X of the first sample x i, obtains from the storage unit 6.
  • the acquisition unit 80 acquires from the storage device 6 a set Y of first teacher labels y i given to the first sample x i by the first creator.
  • the acquisition unit 80 acquires the second sample set X ′ from the storage device 6.
  • the acquisition unit 80 acquires, from the storage device 6, a set Y ′ of second teacher labels y j ′ given to the second sample x j ′ by one or more second creators who are not cheating.
  • the second teacher label y j ′ is a correct teacher label (hereinafter referred to as “legitimate label”) as an action label for the sample. Whether or not the teacher label has a low association with the sample is determined in advance based on a predetermined standard, for example.
  • Feature quantity processing unit 84 feature based on statistics of the set X of the first sample x i (hereinafter referred to as "first feature amounts”.) Is calculated.
  • the first feature quantity for example, if the first sample x i is the image data, an image feature amount of the first sample x i.
  • the feature quantity processing unit 84 calculates a feature quantity (hereinafter referred to as “second feature quantity”) based on a statistic of the set X ′ of the second samples x j ′.
  • the second feature amount is, for example, an image feature amount of the second sample x j ′ when the second sample x j ′ is image data.
  • the distance is a distance between a vector that is a set of the first feature value V and the first teacher data and a vector that is a set of the second feature value V ′ and the second teacher data.
  • the similarity G i is 1 when the average value h of each distance is equal to or greater than the threshold. When the average value h of each distance is less than the threshold value, the similarity G i is 0.
  • the degree of abnormality is the distance between the first teacher data d i and the second teacher data d j , that is, the first feature value V obtained from the first teacher data and the second feature value V ′ obtained from the second teacher data. May be the absolute value of the difference.
  • the degree of abnormality may be a Euclidean distance between the first feature value V obtained from the first data and the second feature value V ′ obtained from the second teacher data. An upper limit may be provided for the degree of abnormality.
  • the similarity threshold is, for example, 0.5 when the similarity G i is 1 or 0.
  • the presentation processing unit 83 outputs the average value H of the similarity G i to the display device 5. If it is determined that the average value H of the similarity G i is equal to or lower than the similarity threshold, the presentation processing unit 83 issues a warning that there is a high possibility that an illegal act has been performed regarding the creation of the first teacher data d i. To the display device 5.
  • FIG. 4 is a flowchart showing an example of the operation of the label collecting apparatus 1b.
  • the acquiring unit 80 acquires the set X of the first sample x i and the set Y of the first teacher label y i (step S301).
  • the acquiring unit 80 acquires a second sample set X ′ and a second teacher label y j ′ set Y ′ (step S302).
  • Feature quantity processing unit 84 based on the set X of the first sample x i, for calculating a first feature quantity V (step S303).
  • the feature quantity processing unit 84 calculates the second feature quantity V ′ based on the set X ′ of the second samples x j ′ (Step S304).
  • the set data generation unit 85 generates a set D of the first teacher data d i (step S305). Aggregate data generation unit 85 generates a set D 'of the second training data d j (step S306).
  • the warning processing unit 86 calculates an average value H of similarity G i between a set of vectors including the first feature quantity and the first teacher data and a set of vectors including the second feature quantity and the second teacher data. Is calculated (step S307).
  • the presentation processing unit 83 outputs the average value H of the similarities G i to the display device 5 (step S308).
  • the warning processing unit 86 determines whether or not the average value H of the similarity G i exceeds the similarity threshold (step S309). When it is determined that the average value H of the similarity G i exceeds the similarity threshold (step S309: YES), the label collection device 1b ends the process of the flowchart shown in FIG. When it is determined that the average value H of the similarity G i is equal to or less than the similarity threshold (step S309: NO), the presentation processing unit 83 outputs a warning to the display device 5 (step S310).
  • the label collection device 1b includes the acquisition unit 80, the learning processing unit 81, the accuracy detection unit 82, the presentation processing unit 83, and the warning processing unit 86.
  • the acquisition unit 80 acquires the first teacher label y i of the first teacher data d i used for machine learning.
  • the learning processing unit 81 performs machine learning of the estimation model M based on the first teacher data d i including the acquired first teacher label y i and the sample x i .
  • the accuracy detector 82 detects the accuracy of the estimated model M.
  • the presentation processing unit 83 presents the accuracy of the estimated model M to the operator by causing the display device 5 to display the accuracy of the estimated model M.
  • Warning processing unit 86 the similarity between the second training data d j and the first training data d i associated with the sample containing the second training labels not low (legitimate label) is equal to or less than a predetermined similarity threshold If it is, a warning is output. Moreover, the acquisition unit 80 acquires the first training data d i that has been updated.
  • the label collection device 1b can present to the user the degree of similarity between the teacher data set created by the creator and the teacher data set created by another creator. And Further, the label collecting apparatus 1b can output a warning when the similarity between the second teacher data dj and the first teacher data d i is equal to or less than a predetermined similarity threshold.
  • the third embodiment is different from the second embodiment in that the label collecting apparatus determines the presence or absence of fraud using a determination model in which machine learning is executed. In the third embodiment, differences from the second embodiment will be described.
  • FIG. 5 is a diagram showing an example of the configuration of the label collection device 1c.
  • the label collection device 1c includes a bus 2, an input device 3, an interface 4, a display device 5, a storage device 6, a memory 7, and an arithmetic processing unit 8c.
  • the arithmetic processing unit 8b executes a program expanded from the storage device 6 to the memory 7, thereby obtaining an acquisition unit 80, a learning processing unit 81, an accuracy detection unit 82, a presentation processing unit 83, and a feature amount processing unit.
  • 84 a set data generation unit 85, a warning processing unit 86, a label processing unit 87, a learning data generation unit 88, and a fraud determination learning processing unit 89.
  • Acquisition unit 80 acquires a set X of the first sample x i, and a set Y of the first training labels y i which is applied to the first sample x i by the first author.
  • the acquisition unit 80 obtains the second sample set X ′ and the second teacher label y j ′ set Y ′ given to the second sample x j ′ by one or more second creators who are not cheating. 'And get.
  • the acquiring unit 80 obtains the third sample set X ′′ and the third teacher label y k given to the third sample x k ′′ by one or more third creators who intentionally cheated. Get a set Y of ''.
  • the subscript k of x k ′′ represents the index of the third sample.
  • the label processing unit 87 includes the legitimate label in the second teacher data set D ′. For example, the label processing unit 87 'configuration of the (second sample x j' second training data d j, second training labels y j ') and (second sample x j', the second training labels y j ' , The valid label r j ′) is updated.
  • the label processing unit 87 includes an incorrect teacher label (hereinafter referred to as “illegal label”) as an action label for the sample in the third teacher data set D ′′.
  • the label processing unit 87 converts the configuration of the third teacher data d k ′′ (third sample x k ′′, third teacher label y k ′′) to (third sample x k ′′, third teacher label y k '', unauthorized label r k 'to update the configuration that').
  • the learning data generation unit 88 generates learning data that is data used for machine learning of the determination model F based on the second teacher data set D ′ and the third teacher data set D ′′.
  • the determination model F is a model for machine learning, and is a model used for determining the presence or absence of fraud.
  • the fraud determination learning processing unit 89 performs machine learning of the determination model F by using the generated learning data as input variables and output variables of the determination model F.
  • the fraud determination learning processing unit 89 records the determination model F for which machine learning has been executed in the storage device 6.
  • the first teacher data set D is detected.
  • the output P i indicating the legitimate label is 0, and the output variable P i representing the illegal label is 1.
  • the output P i may be expressed with a probability from 0 to 1.
  • the warning processing unit 86 determines whether or not the average accuracy H ′ of the determination model F exceeds the second accuracy threshold.
  • the second accuracy threshold is, for example, 0.5 when the output Pi is 1 or 0.
  • the accuracy of the determination model F is a value that can be expressed by probability, and is, for example, the accuracy rate, accuracy rate, or recall rate of the determination model F.
  • the presentation processing unit 83 outputs the average value H ′ of the accuracy of the determination model F to the display device 5.
  • the presentation processing unit 83 outputs a warning to the display device 5 when it is determined that the accuracy average value H ′ of the determination model F is equal to or less than the second accuracy threshold value.
  • FIG. 6 is a flowchart illustrating a learning example (learning phase) of the determination model F.
  • the acquiring unit 80 acquires the set X of the first sample x i and the set Y of the first teacher label y i (step S401).
  • the acquiring unit 80 acquires a second sample set X ′ and a second teacher label y j ′ set Y ′ (step S402).
  • the acquiring unit 80 acquires a third sample set X ′′ and a third teacher label y k ′′ set Y ′′ (step S403).
  • Aggregate data generation unit 85 generates a set D of the first training data d i (step S404). Aggregate data generation unit 85 generates a set D 'of the second training data d j (step S405). The set data generation unit 85 generates a set D ′′ of the third teacher data d k (step S406).
  • the label processing unit 87 includes the legitimate label in the second teacher data set D '(step S407).
  • the label processing unit 87 includes the unauthorized label in the third teacher data set D ′′ (step S408).
  • the learning data generation unit 88 generates learning data based on the second teacher data set D 'and the third teacher data set D' '(step S409).
  • the fraud determination learning processing unit 89 performs machine learning of the determination model F (step S410).
  • the fraud determination learning processing unit 89 records the determination model F for which machine learning has been executed in the storage device 6 (step S411).
  • FIG. 7 is a flowchart showing an example of determination of the accuracy of the determination model F (determination phase).
  • the fraud determination learning processing unit 89 inputs the first sample set X to the determination model F as an input variable (step S501).
  • Warning processing unit 86 the average value of the output P i (the output of the decision model F), calculated as an average value H 'of the accuracy of the determination model F (Step S502).
  • the presentation processing unit 83 outputs the average accuracy value H ′ of the determination model F to the display device 5 (step S503).
  • the warning processing unit 86 determines whether or not the accuracy average value H ′ of the determination model F exceeds the second accuracy threshold value (step S504). When it is determined that the accuracy average value H ′ of the determination model F exceeds the second accuracy threshold (step S504: YES), the label collection device 1c ends the processing of the flowchart shown in FIG. . When it is determined that the accuracy average value H ′ of the determination model F is equal to or less than the second accuracy threshold value (step S504: NO), the presentation processing unit 83 outputs a warning to the display device 5 (step S505).
  • the label collection device 1c includes the learning processing unit 81 and the warning processing unit 86.
  • the learning processing unit 81 performs machine learning of the determination model F based on the third teacher data d k and the second teacher data d j including the third teacher label (incorrect label) that is not related to the sample. Run.
  • Warning processing unit 86 the accuracy of judgment model F for the first training data d i outputs a warning when it is less than a predetermined second accuracy threshold.
  • the label collection device 1c can determine, for each creator, whether or not there is an illegal act when the creator creates the teacher data using the determination model F.
  • the label collection device 1c creates one first sample x i by fraud It is possible to determine whether the sample has been processed.
  • the present invention is applicable to an information processing apparatus that collects teacher labels of teacher data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

ラベル収集装置は、機械学習に用いられる教師データの教師ラベルを取得する取得部と、取得された教師ラベルを含む教師データに基づいてモデルの機械学習を実行する学習処理部と、モデルの精度を検出する精度検出部と、精度を提示する提示処理部とを備え、取得部は、更新された教師データを取得する。

Description

ラベル収集装置、ラベル収集方法及びラベル収集プログラム
 本発明は、ラベル収集装置、ラベル収集方法及びラベル収集プログラムに関する。
 本願は、2018年2月27日に、日本に出願された特願2018-033655号に基づき優先権を主張し、その内容をここに援用する。
 機械学習の一分野である教師あり機械学習は、センサデータ等に基づいて人の行動を認識するために実行されることがある(非特許文献1参照)。教師あり機械学習のフェーズには、学習(訓練)フェーズと、判定(評価)フェーズとがある。
Nattaya Mairittha (Fah), Sozo Inoue, "Exploring the Challenges of Gamification in Mobile Activity Recognition", SOFT九州支部学術講演会, pp.47-50, 2017-12-02, Kagoshima.
 学習フェーズでは、センサデータ等であるサンプルに教師ラベルが付与されること(Annotations)によって、教師データが作成される。教師データを作成する作業は、手間と時間が必要であるため、作成者への負担が大きい。このため、作成者は、ヒューマンエラー、集中力又はインセンティブ等の理由で、サンプルとは関連が低い教師ラベルをサンプルに付与してしまう場合がある。この場合、サンプルに基づいて人の行動を認識する機械学習の精度は、低下してしまう。
 機械学習の精度を低下させないためには、機械学習の精度を向上させる教師データの教師ラベルを収集する必要がある。しかしながら、従来のラベル収集装置は、機械学習の精度を向上させる教師データの教師ラベルを収集することができない場合があった。
 上記事情に鑑み、本発明は、機械学習の精度を向上させる教師データの教師ラベルを収集することを可能とするラベル収集装置、ラベル収集方法及びラベル収集プログラムを提供することを目的としている。
 本発明の一態様は、機械学習に用いられる教師データの教師ラベルを取得する取得部と、取得された前記教師ラベルを含む前記教師データに基づいてモデルの機械学習を実行する学習処理部と、前記モデルの精度を検出する精度検出部と、前記精度を提示する提示処理部とを備え、前記取得部は、更新された前記教師データを取得する、ラベル収集装置である。
 本発明の一態様は、機械学習に用いられる第1の教師データの第1の教師ラベルを取得する取得部と、取得された第1の教師ラベルとサンプルとを含む第1の教師データに基づいて第1のモデルの機械学習を実行する学習処理部と、前記第1のモデルの精度を検出する精度検出部と、前記精度を提示する提示処理部と、前記サンプルに対する行動ラベルとして正しい第2の教師ラベルを含む第2の教師データと第1の教師データとの類似度が所定の類似度閾値以下である場合に警告を出力する警告処理部とを備え、前記取得部は、更新された第1の教師データを取得する、ラベル収集装置である。
 本発明の一態様は、上記のラベル収集装置であって、前記学習処理部は、前記サンプルに対する行動ラベルとして正しくない第3の教師ラベルを含む第3の教師データと、前記第2の教師ラベルを含む第2の教師データとに基づいて、第2のモデルの機械学習を実行し、前記警告処理部は、第1の教師データに対する前記第2のモデルの精度が所定の精度閾値以下である場合に警告を出力する。
 本発明の一態様は、上記のラベル収集装置であって、前記サンプルは、センサデータであり、前記第1の教師ラベルは、人の行動を表すラベルである。
 本発明の一態様は、機械学習に用いられる第1の教師データの第1の教師ラベルを取得するステップと、取得された第1の教師ラベルとサンプルとを含む第1の教師データに基づいて第1のモデルの機械学習を実行するステップと、前記第1のモデルの精度を検出するステップと、前記精度を提示するステップと、前記サンプルとの関連が低くない第2の教師ラベルを含む第2の教師データと第1の教師データとの類似度が所定の類似度閾値以下である場合に警告を出力するステップと更新された第1の教師データを取得するステップとを含むラベル収集方法である。
 本発明の一態様は、コンピュータに、機械学習に用いられる第1の教師データの第1の教師ラベルを取得する手順と、取得された第1の教師ラベルとサンプルとを含む第1の教師データに基づいて第1のモデルの機械学習を実行する手順と、前記第1のモデルの精度を検出する手順と、前記精度を提示する手順と、前記サンプルとの関連が低くない第2の教師ラベルを含む第2の教師データと第1の教師データとの類似度が所定の類似度閾値以下である場合に警告を出力する手順と更新された第1の教師データを取得する手順とを実行させるためのラベル収集プログラムである。
 本発明により、機械学習の精度を向上させる教師データの教師ラベルを収集することが可能である。
第1実施形態における、ラベル収集装置の構成の例を示す図である。 第1実施形態における、作成者による教師データの作成処理とラベル収集装置の動作との例を示すフローチャートである。 第2実施形態における、ラベル収集装置の構成の例を示す図である。 第2実施形態における、ラベル収集装置の動作の例を示すフローチャートである。 第3実施形態における、ラベル収集装置の構成の例を示す図である。 第3実施形態における、判定モデルの学習例を示すフローチャートである。 第3実施形態における、判定モデルの精度の判定例を示すフローチャートである。
 本発明の実施形態について、図面を参照して詳細に説明する。
 (第1実施形態)
 図1は、ラベル収集装置1aの構成の例を示す図である。ラベル収集装置1aは、機械学習に用いられる教師データの教師ラベルを収集する情報処理装置であり、例えば、パーソナルコンピュータ、スマートフォン端末、タブレット端末等である。教師ラベルは、サンプルに対する行動ラベルであり、例えば人の行動を表すラベルである。
 ラベル収集装置1aは、サンプルxの集合Xを入力データとして記憶している。以下では、集合のサンプルの数(要素数)は1以上である。サンプルxは、センサデータであり、例えば、画像データ、音声データ、加速度データ、温度データ、照度データである。画像データは、例えば、病室に取り付けられたカメラによって看護師が撮影されている動画像又は静止画像のデータである。画像のデータは、画像に含まれている文字の認識結果を含んでもよい。音声データは、例えば、勤務中の看護師が身につけているマイクによって収音された音声のデータである。加速度データは、例えば、勤務中の看護師が身につけている加速度センサによって検出された加速度のデータである。
 1人以上の作成者は、サンプルの集合Xを構成するサンプルxに教師ラベル(分類クラス)を付与することによって、機械学習に用いられる教師データd(=(サンプルx,教師ラベルy))を作成する。dの添字iは、教師データに含まれているサンプルのインデックスを表す。
 作成者は、ラベル収集装置1aから提示されたサンプルxを確認し、サンプルxに付与する教師ラベルyを決定する。例えば、作成者は、非系列データである静止画像データに、「犬」「猫」のような教師ラベルを付与することができる。例えば、作成者は、患者に投薬している看護師の姿が撮影されている静止画像データであるサンプルxに、教師ラベル「投薬」を付与することができる。作成者は、系列データである音声データに、[開始時刻,終了時刻,分類クラス]等の組形式の教師ラベルを付与することができる。作成者は、ラベル収集装置1aを操作することによって、サンプルxに付与される教師ラベルをラベル収集装置1aに記録する。
 以下では、サンプルxは、一例として非系列データである。教師ラベルの集合Yは、一例として{y,…,y}の形式で表記される。
 ラベル収集装置1aは、バス2と、入力装置3と、インタフェース4と、表示装置5と、記憶装置6と、メモリ7と、演算処理部8aとを備える。
 バス2は、ラベル収集装置1aの各機能部の間におけるデータを転送する。
 入力装置3は、キーボード、ポインティングデバイス(マウス、タブレット等)、ボタン、タッチパネル等の既存の入力装置を用いて構成される。入力装置3は、教師データの作成者によって操作される。
 入力装置3は、無線通信装置でもよい。入力装置3は、例えば、センサによって生成された画像データ及び音声データ等のサンプルxを、無線通信によってインタフェース4に入力してもよい。
 インタフェース4は、例えば、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアを用いて実現される。インタフェース4は、入力装置3から入力されたサンプルxを、記憶装置6に記録する。インタフェース4は、サンプルxを演算処理部8aに出力してもよい。インタフェース4は、入力装置3から入力された教師ラベルyを、演算処理部8aに出力する。
 表示装置5は、CRT(Cathode Ray Tube)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の画像表示装置である。表示装置5は、インタフェース4から取得された画像データを表示する。インタフェース4から取得される画像データは、例えば、サンプルxの画像データ、教師ラベルを表す文字列の画像データ、機械学習の推定モデルの精度を表す数値データである。
 記憶装置6は、フラッシュメモリ、ハードディスクドライブ等の不揮発性の記録媒体(非一時的な記録媒体)である。記憶装置6は、プログラムを記憶する。プログラムは、例えば、クラウドサービスとしてラベル収集装置1aに提供される。プログラムは、サーバ装置から配信されるアプリケーションとして、ラベル収集装置1aに提供されてもよい。
 記憶装置6は、入力装置3によってインタフェース4に入力された1以上のサンプルxを記憶する。記憶装置6は、入力装置3によってインタフェース4に入力された1以上の教師ラベルyを、サンプルxに対応付けて記憶する。記憶装置6は、サンプルxと教師ラベルyとが対応付けられたデータである1以上の教師データdを記憶する。
 メモリ7は、RAM(Random Access Memory)等の揮発性の記録媒体である。メモリ7は、記憶装置6から展開されたプログラムを記憶する。メモリ7は、演算処理部8aによって生成された各種データを一時的に記憶する。
 演算処理部8aは、CPU(Central Processing Unit)等のプロセッサを用いて構成される。演算処理部8aは、記憶装置6からメモリ7に展開されたプログラムを実行することによって、取得部80と、学習処理部81と、精度検出部82と、提示処理部83として機能する。
 取得部80は、入力装置3によってインタフェース4に入力された教師ラベルyを取得する。取得部80は、表示装置5に表示されているサンプルxに教師ラベルyを対応付けることによって、教師データd(=(x,y))を生成する。取得部80は、生成された教師データdを記憶装置6に記録する。
 取得部80は、教師データdの集合D(=(サンプルxの集合X,教師ラベルyの集合Y))を、教師データのデータセットとして記憶装置6から取得する。なお、取得部80は、他の作成者によって作成された教師データdの集合Dを、過去の教師データのデータセットとして更に取得してもよい。dの添字jは、教師データのサンプルのインデックスを表す。
 学習処理部81は、取得部80によって取得された教師データdの集合Dに基づいて、推定モデルMの機械学習を実行する。学習処理部81は、過去の教師データに基づいて推定モデルMの機械学習を実行してもよい。
 精度検出部82は、推定モデルMの精度を検出する。推定モデルMの精度は、確率で表現可能な値であり、例えば、推定モデルMの正解率、適合率又は再現率である。精度検出部82は、推定モデルMの精度を検出する代わりに、推定モデルMの出力変数の誤差を検出してもよい。
 提示処理部83は、推定モデルMの精度を表す数値の画像を生成する。提示処理部83は、教師データに含まれている各サンプルを表す画像を生成してもよい。提示処理部83は、教師データに含まれている各教師ラベルを表す文字列等の画像を生成してもよい。提示処理部83は、生成された画像を表示装置5に出力する。
 次に、動作例を説明する。
 図2は、作成者による教師データの作成処理とラベル収集装置1aの動作との例を示すフローチャートである。
 作成者は、サンプルxに教師ラベルyを付与することによって、教師データdの集合Dをラベル収集装置1aに入力する(ステップS101)。
 取得部80は、教師データdの集合Dを取得する(ステップS201)。学習処理部81は、教師データdの集合Dに基づいて、推定モデルMの機械学習を実行する(ステップS202)。精度検出部82は、推定モデルMの精度を検出する(ステップS203)。提示処理部83は、推定モデルMの精度を表すを数値の画像等を、表示装置5に表示させる(ステップS204)。
 提示処理部83は、ステップS204の処理を、例えばセンサが画像データ等を生成中にリアルタイムで実行する。提示処理部83は、ステップS204の処理を、センサが画像データ等を生成した日の後日における所定時刻に実行してもよい。
 作成者は、追加の教師データの集合を作成する(ステップS102)。作成者は、推定モデルMの精度が第1の精度閾値を超えるように新規に取得された教師データDを学習処理部に入力するため、ステップS101の処理を再び行う。
 以上のように、第1実施形態のラベル収集装置1aは、取得部80と、学習処理部81と、精度検出部82と、提示処理部83とを備える。取得部80は、機械学習に用いられる教師データdの教師ラベルyを取得する。学習処理部81は、取得された教師ラベルyとサンプルxとを含む教師データdに基づいて推定モデルMの機械学習を実行する。精度検出部82は、推定モデルMの精度を検出する。提示処理部83は、推定モデルMの精度を表示装置5に表示させることによって、推定モデルMの精度を作業者に提示する。取得部80は、更新された教師データdi+を取得する。
 これによって、ラベル収集装置1aは、機械学習の精度を向上させる教師データの教師ラベルを収集することが可能である。更新された教師データの質は向上しているので、センサデータに基づいて行動を認識する教師あり機械学習の精度は向上する。ラベル収集装置1aは、推定モデルMの精度を表示装置5に表示させ,作成者が教師データの質を向上させる動機づけをするというゲーミフィケーション(Gamification)を実行することが可能である。
 行動認識結果を業務履歴として記録する装置は、推定モデルMの出力変数をリアルタイムで記録することができる。行動認識結果を可視化する装置は、推定モデルMの出力変数をリアルタイムで可視化することができる。ユーザは、記録された行動認識結果に基づいて業務履歴を確認することができる。ユーザは、業務履歴に基づいて業務改善を行うことができる。
 (第2実施形態)
 第2実施形態では、サンプルに対する行動ラベルとして正しくない(サンプルとの関連が低い)教師ラベルを作成者がサンプルに付与するという不正行為(cheating)の有無をラベル収集装置が判定する点が、第1実施形態と相違する。第2実施形態では第1実施形態との相違点について説明する。
 作成者は、教師データを作成する際に、サンプルとの関連が低い教師ラベルを作成者がサンプルに付与するという不正行為を行う可能性がある。例えば、作成者は、座って書類を作成している看護師の姿が撮影されている静止画像データであるサンプルに、教師ラベル「書類作成」ではなく、教師ラベル「投薬」を付与することができる。
 第2実施形態のラベル収集装置は、第1の作成者によって作成された第1教師データと、不正行為を行っていない1人以上の第2の作成者によって作成された第2教師データとの類似度に基づいて、第1の作成者が第1教師データを作成した際の不正行為の有無を判定する。
 図3は、ラベル収集装置1bの構成の例を示す図である。ラベル収集装置1bは、バス2と、入力装置3と、インタフェース4と、表示装置5と、記憶装置6と、メモリ7と、演算処理部8bとを備える。演算処理部8bは、記憶装置6からメモリ7に展開されたプログラムを実行することによって、取得部80と、学習処理部81と、精度検出部82と、提示処理部83と、特徴量処理部84と、集合データ生成部85と、警告処理部86として機能する。
 取得部80は、第1サンプルxの集合Xを、記憶装置6から取得する。取得部80は、第1の作成者によって第1サンプルxに付与された第1教師ラベルyの集合Yを、記憶装置6から取得する。
 取得部80は、第2サンプルの集合X’を、記憶装置6から取得する。取得部80は、不正行為を行っていない1人以上の第2の作成者によって第2サンプルx’に付与された第2教師ラベルy’の集合Y’を、記憶装置6から取得する。第2教師ラベルy’は、サンプルに対する行動ラベルとして正しい教師ラベル(以下「正当ラベル」という。)である。サンプルとの関連が低い教師ラベルであるか否かは、例えば、所定の基準に基づいて予め定められる。
 特徴量処理部84は、第1サンプルxの集合Xの統計量に基づく特徴量(以下「第1特徴量」という。)を算出する。第1特徴量は、例えば、第1サンプルxが画像データである場合、第1サンプルxの画像特徴量である。
 特徴量処理部84は、第2サンプルx’の集合X’の統計量に基づく特徴量(以下「第2特徴量」という。)を算出する。第2特徴量は、例えば、第2サンプルx’が画像データである場合、第2サンプルx’の画像特徴量である。
 集合データ生成部85は、第1サンプルxの集合Xと第1教師ラベルyの集合Yとを結合することによって、第1教師データdの集合D(={(x,y),…})を生成する。集合データ生成部85は、第2サンプルxの集合X’と第2教師ラベルyの集合Y’とを結合することによって、第2教師データdの集合D’(={(x’,y’),…})を生成する。
 警告処理部86は、第1教師データの集合Dと第2教師データの集合D’との類似度G(i=1,2,…)を、例えば第1特徴量V及び第2特徴量V’に基づいて、閾値法又は異常検出法によって算出する。なお、これらの方法は一例である。
 (閾値法)
 警告処理部86は、例えば第1教師データdから第2教師データd(j=1,2,…)までの各距離の平均値hを、類似度Gとして算出する。距離とは、第1特徴量V及び第1教師データを組にしたベクトルと、第2特徴量V’及び第2教師データを組にしたベクトルとの間の距離である。各距離の平均値hが閾値以上である場合、類似度Gは1である。各距離の平均値hが閾値未満である場合、類似度Gは0である。
 (異常検出法)
 警告処理部86は、第2教師データd(j=1,2,…)に対する第1教師データdの異常度の逆数(正常度)を、類似度Gとして算出してもよい。異常度は、第1教師データd及び第2教師データdの間の距離、すなわち、第1教師データから得られる第1特徴量Vと第2教師データから得られる第2特徴量V’との差分の絶対値でもよい。又は、異常度は、第1データから得られる第1特徴量Vと第2教師データから得られる第2特徴量V’とのユークリッド距離でもよい。異常度には、上限が設けられてもよい。
 警告処理部86は、類似度G(i=1,2,…)の平均値Hを算出する。警告処理部86は、類似度Gの平均値Hが類似度閾値を超えているか否かを判定する。類似度閾値は、類似度Gが1又は0である場合、例えば0.5である。
 提示処理部83は、類似度Gの平均値Hを表示装置5に出力する。提示処理部83は、類似度Gの平均値Hが類似度閾値以下であると判定された場合、第1教師データdの作成に関して不正行為が行われた可能性が高い旨の警告を、表示装置5に出力する。
 次に、ラベル収集装置1bの動作の例を説明する。
 図4は、ラベル収集装置1bの動作の例を示すフローチャートである。取得部80は、第1サンプルxの集合Xと、第1教師ラベルyの集合Yとを取得する(ステップS301)。取得部80は、第2サンプルの集合X’と、第2教師ラベルy’の集合Y’とを取得する(ステップS302)。
 特徴量処理部84は、第1サンプルxの集合Xに基づいて、第1特徴量Vを算出する(ステップS303)。特徴量処理部84は、第2サンプルx’の集合X’に基づいて、第2特徴量V’を算出する(ステップS304)。
 集合データ生成部85は、第1教師データdの集合Dを生成する(ステップS305)。集合データ生成部85は、第2教師データdの集合D’を生成する(ステップS306)。
 警告処理部86は、第1特徴量及び第1教師データを組みにしたベクトルの集合と、第2特徴量及び第2教師データを組みにしたベクトルの集合との類似度Gの平均値Hを算出する(ステップS307)。提示処理部83は、類似度Gの平均値Hを表示装置5に出力する(ステップS308)。
 警告処理部86は、類似度Gの平均値Hが類似度閾値を超えているか否かを判定する(ステップS309)。類似度Gの平均値Hが類似度閾値を超えていると判定された場合(ステップS309:YES)、ラベル収集装置1bは、図4に示されたフローチャートの処理を終了する。類似度Gの平均値Hが類似度閾値以下であると判定された場合(ステップS309:NO)、提示処理部83は、警告を表示装置5に出力する(ステップS310)。
 以上のように、第2実施形態のラベル収集装置1bは、取得部80と、学習処理部81と、精度検出部82と、提示処理部83と、警告処理部86とを備える。取得部80は、機械学習に用いられる第1の教師データdの第1の教師ラベルyを取得する。学習処理部81は、取得された第1の教師ラベルyとサンプルxとを含む第1の教師データdに基づいて、推定モデルMの機械学習を実行する。精度検出部82は、推定モデルMの精度を検出する。提示処理部83は、推定モデルMの精度を表示装置5に表示させることによって、推定モデルMの精度を作業者に提示する。警告処理部86は、サンプルとの関連が低くない第2の教師ラベル(正当ラベル)を含む第2の教師データdと第1の教師データdとの類似度が所定の類似度閾値以下である場合に警告を出力する。さらに、取得部80は、更新された第1の教師データdを取得する。
 これによって、第2実施形態のラベル収集装置1bは、作成者によって作成された教師データの集合と他の作成者によって作成された教師データの集合との類似度を、ユーザに提示することを可能とする。また、ラベル収集装置1bは、第2の教師データdと第1の教師データdとの類似度が所定の類似度閾値以下である場合に、警告を出力することが可能である。
 (第3実施形態)
 第3実施形態では、機械学習が実行された判定モデルを用いて不正行為の有無をラベル収集装置が判定する点が、第2実施形態と相違する。第3実施形態では第2実施形態との相違点について説明する。
 図5は、ラベル収集装置1cの構成の例を示す図である。ラベル収集装置1cは、バス2と、入力装置3と、インタフェース4と、表示装置5と、記憶装置6と、メモリ7と、演算処理部8cとを備える。演算処理部8bは、記憶装置6からメモリ7に展開されたプログラムを実行することによって、取得部80と、学習処理部81と、精度検出部82と、提示処理部83と、特徴量処理部84と、集合データ生成部85と、警告処理部86と、ラベル処理部87と、学習データ生成部88と、不正判定学習処理部89として機能する。
 取得部80は、第1サンプルxの集合Xと、第1の作成者によって第1サンプルxに付与された第1教師ラベルyの集合Yとを取得する。取得部80は、第2サンプルの集合X’と、不正行為を行っていない1人以上の第2の作成者によって第2サンプルx’に付与された第2教師ラベルy’の集合Y’とを取得する。取得部80は、第3サンプルの集合X’’と、意図的に不正行為を行った1人以上の第3の作成者によって第3サンプルx’’に付与された第3教師ラベルy’’の集合Y’’とを取得する。x’’の添字kは、第3サンプルのインデックスを表す。
 集合データ生成部85は、第1サンプルxの集合Xと第1教師ラベルyの集合Yとを結合することによって、第1教師データdの集合D(={(x,y),…})を生成する。集合データ生成部85は、第2サンプルxの集合X’と第2教師ラベルyの集合Y’とを結合することによって、第2教師データdの集合D’(={(x’,y’),…})を生成する。集合データ生成部85は、第3サンプルxの集合X’’と第3教師ラベルyの集合Y’’とを結合することによって、第3教師データdの集合D’’(={(x’’,y’’),…})を生成する。
 ラベル処理部87は、正当ラベルを第2教師データの集合D’に含める。例えば、ラベル処理部87は、第2教師データd’の構成(第2サンプルx’,第2教師ラベルy’)を、(第2サンプルx’,第2教師ラベルy’,正当ラベルr’)という構成に更新する。
 ラベル処理部87は、サンプルに対する行動ラベルとして正しくない教師ラベル(以下「不正ラベル」という。)を、第3教師データの集合D’’に含める。例えば、ラベル処理部87は、第3教師データd’’の構成(第3サンプルx’’,第3教師ラベルy’’)を、(第3サンプルx’’,第3教師ラベルy’’,不正ラベルr’’)という構成に更新する。
 学習データ生成部88は、第2教師データの集合D’と第3教師データの集合D’’とに基づいて、判定モデルFの機械学習に用いられるデータである学習データを生成する。判定モデルFは、機械学習のモデルであり、不正行為の有無を判定するために用いられるモデルである。
 学習フェーズにおいて、不正判定学習処理部89は、生成された学習データを判定モデルFの入力変数及び出力変数とすることによって、判定モデルFの機械学習を実行する。不正判定学習処理部89は、機械学習が実行された判定モデルFを、記憶装置6に記録する。
 学習フェーズよりも後の判定フェーズにおいて、不正判定学習処理部89は、第1教師データdを判定モデルFの入力変数として、判定モデルFの出力P(=F(d))を、第1教師データの集合Dについて検出する。正当ラベル及び不正ラベルが2値で表現されている場合、正当ラベルであることを表す出力Pは0であり、不当ラベルであることを表す出力変数Pは1である。なお、出力Pは、0から1までの確率で表現されてもよい。
 判定フェーズにおいて、警告処理部86は、出力P(i=1,2,…)の平均値を、判定モデルFの精度の平均値H’として算出する。警告処理部86は、判定モデルFの精度の平均値H’が第2の精度閾値を超えているか否かを判定する。第2の精度閾値は、出力Pが1又は0である場合、例えば0.5である。判定モデルFの精度は、確率で表現可能な値であり、例えば、判定モデルFの正解率、適合率又は再現率である。
 提示処理部83は、判定モデルFの精度の平均値H’を表示装置5に出力する。提示処理部83は、判定モデルFの精度の平均値H’が第2の精度閾値以下であると判定された場合、警告を表示装置5に出力する。
 次に、ラベル収集装置1cの動作の例を説明する。
 図6は、判定モデルFの学習例(学習フェーズ)を示すフローチャートである。取得部80は、第1サンプルxの集合Xと第1教師ラベルyの集合Yとを取得する(ステップS401)。取得部80は、第2サンプルの集合X’と第2教師ラベルy’の集合Y’とを取得する(ステップS402)。取得部80は、第3サンプルの集合X’’と第3教師ラベルy’’の集合Y’’とを取得する(ステップS403)。
 集合データ生成部85は、第1教師データdの集合Dを生成する(ステップS404)。集合データ生成部85は、第2教師データdの集合D’を生成する(ステップS405)。集合データ生成部85は、第3教師データdの集合D’’を生成する(ステップS406)。
 ラベル処理部87は、正当ラベルを第2教師データの集合D’に含める(ステップS407)。ラベル処理部87は、不正ラベルを第3教師データの集合D’’に含める(ステップS408)。
 学習データ生成部88は、第2教師データの集合D’と第3教師データの集合D’’とに基づいて、学習データを生成する(ステップS409)。不正判定学習処理部89は、判定モデルFの機械学習を実行する(ステップS410)。不正判定学習処理部89は、機械学習が実行された判定モデルFを、記憶装置6に記録する(ステップS411)。
 図7は、判定モデルFの精度の判定例(判定フェーズ)を示すフローチャートである。不正判定学習処理部89は、第1サンプルの集合Xを、入力変数として判定モデルFに入力する(ステップS501)。警告処理部86は、出力Pの平均値(判定モデルFの出力)を、判定モデルFの精度の平均値H’として算出する(ステップS502)。提示処理部83は、判定モデルFの精度の平均値H’を表示装置5に出力する(ステップS503)。
 警告処理部86は、判定モデルFの精度の平均値H’が第2の精度閾値を超えているか否かを判定する(ステップS504)。判定モデルFの精度の平均値H’が第2の精度閾値を超えていると判定された場合(ステップS504:YES)、ラベル収集装置1cは、図7に示されたフローチャートの処理を終了する。判定モデルFの精度の平均値H’が第2の精度閾値以下であると判定された場合(ステップS504:NO)、提示処理部83は、警告を表示装置5に出力する(ステップS505)。
 以上のように、第3実施形態のラベル収集装置1cは、学習処理部81と、警告処理部86とを備える。学習処理部81は、サンプルとの関連が低い第3の教師ラベル(不正ラベル)を含む第3の教師データdと第2の教師データdとに基づいて、判定モデルFの機械学習を実行する。警告処理部86は、第1の教師データdに対する判定モデルFの精度が所定の第2の精度閾値以下である場合に警告を出力する。
 これによって、第3実施形態のラベル収集装置1cは、作成者が教師データを作成した際の不正行為の有無を、判定モデルFを用いて作成者ごとに判定することができる。ラベル収集装置1cは、1個の第1サンプルxと1個の教師ラベルyとから第1教師データdが構成されている場合、1個の第1サンプルxが不正行為によって作成されたサンプルであるか否かを判定することができる。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 本発明は、教師データの教師ラベルを収集する情報処理装置に適用可能である。
 1a,1b,1c…ラベル収集装置、2…バス、3…入力装置、4…インタフェース、5…表示装置、6…記憶装置、7…メモリ、8a,8b,8c…演算処理部、80…取得部、81…学習処理部、82…精度検出部、83…提示処理部、84…特徴量処理部、85…集合データ生成部、86…警告処理部、87…ラベル処理部、88…学習データ生成部、89…不正判定学習処理部

Claims (6)

  1.  機械学習に用いられる教師データの教師ラベルを取得する取得部と、
     取得された前記教師ラベルを含む前記教師データに基づいてモデルの機械学習を実行する学習処理部と、
     前記モデルの精度を検出する精度検出部と、
     前記精度を提示する提示処理部と
     を備え、
     前記取得部は、更新された前記教師データを取得する、
     ラベル収集装置。
  2.  機械学習に用いられる第1の教師データの第1の教師ラベルを取得する取得部と、
     取得された第1の教師ラベルとサンプルとを含む第1の教師データに基づいて第1のモデルの機械学習を実行する学習処理部と、
     前記第1のモデルの精度を検出する精度検出部と、
     前記精度を提示する提示処理部と、
     前記サンプルに対する行動ラベルとして正しい第2の教師ラベルを含む第2の教師データと第1の教師データとの類似度が所定の類似度閾値以下である場合に警告を出力する警告処理部と
     を備え、
     前記取得部は、更新された第1の教師データを取得する、
     ラベル収集装置。
  3.  前記学習処理部は、前記サンプルに対する行動ラベルとして正しくない第3の教師ラベルを含む第3の教師データと、前記第2の教師ラベルを含む第2の教師データとに基づいて、第2のモデルの機械学習を実行し、
     前記警告処理部は、第1の教師データに対する前記第2のモデルの精度が所定の精度閾値以下である場合に警告を出力する、
     請求項2に記載のラベル収集装置。
  4.  前記サンプルは、センサデータであり、
     前記第1の教師ラベルは、人の行動を表すラベルである、
     請求項2又は請求項3に記載のラベル収集装置。
  5.  機械学習に用いられる第1の教師データの第1の教師ラベルを取得するステップと、
     取得された第1の教師ラベルとサンプルとを含む第1の教師データに基づいて第1のモデルの機械学習を実行するステップと、
     前記第1のモデルの精度を検出するステップと、
     前記精度を提示するステップと、
     前記サンプルとの関連が低くない第2の教師ラベルを含む第2の教師データと第1の教師データとの類似度が所定の類似度閾値以下である場合に警告を出力するステップと
     更新された第1の教師データを取得するステップと
     を含むラベル収集方法。
  6.  コンピュータに、
     機械学習に用いられる第1の教師データの第1の教師ラベルを取得する手順と、
     取得された第1の教師ラベルとサンプルとを含む第1の教師データに基づいて第1のモデルの機械学習を実行する手順と、
     前記第1のモデルの精度を検出する手順と、
     前記精度を提示する手順と、
     前記サンプルとの関連が低くない第2の教師ラベルを含む第2の教師データと第1の教師データとの類似度が所定の類似度閾値以下である場合に警告を出力する手順と
     更新された第1の教師データを取得する手順と
     を実行させるためのラベル収集プログラム。
PCT/JP2019/003818 2018-02-27 2019-02-04 ラベル収集装置、ラベル収集方法及びラベル収集プログラム WO2019167556A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020502890A JP7320280B2 (ja) 2018-02-27 2019-02-04 ラベル収集装置、ラベル収集方法及びラベル収集プログラム
US16/967,639 US20210279637A1 (en) 2018-02-27 2019-02-04 Label collection apparatus, label collection method, and label collection program
CN201980012515.4A CN111712841A (zh) 2018-02-27 2019-02-04 标签收集装置、标签收集方法以及标签收集程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-033655 2018-02-27
JP2018033655 2018-02-27

Publications (1)

Publication Number Publication Date
WO2019167556A1 true WO2019167556A1 (ja) 2019-09-06

Family

ID=67806121

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003818 WO2019167556A1 (ja) 2018-02-27 2019-02-04 ラベル収集装置、ラベル収集方法及びラベル収集プログラム

Country Status (4)

Country Link
US (1) US20210279637A1 (ja)
JP (1) JP7320280B2 (ja)
CN (1) CN111712841A (ja)
WO (1) WO2019167556A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021078538A (ja) * 2019-11-14 2021-05-27 日本光電工業株式会社 学習済みモデルの生成方法、学習済みモデルの生成システム、推論装置、およびコンピュータプログラム
WO2022185360A1 (ja) * 2021-03-01 2022-09-09 日本電信電話株式会社 支援装置、支援方法およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113805931B (zh) * 2021-09-17 2023-07-28 杭州云深科技有限公司 一种确定app标签的方法、电子设备及可读存储介质
US11874798B2 (en) * 2021-09-27 2024-01-16 Sap Se Smart dataset collection system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230570A (ja) * 2014-06-04 2015-12-21 日本電信電話株式会社 学習モデル作成装置、判定システムおよび学習モデル作成方法
JP2018013857A (ja) * 2016-07-19 2018-01-25 富士通株式会社 センサデータ学習方法、センサデータ学習プログラム、及びセンサデータ学習装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8010357B2 (en) * 2004-03-02 2011-08-30 At&T Intellectual Property Ii, L.P. Combining active and semi-supervised learning for spoken language understanding
US20110112995A1 (en) * 2009-10-28 2011-05-12 Industrial Technology Research Institute Systems and methods for organizing collective social intelligence information using an organic object data model
CN104408469A (zh) * 2014-11-28 2015-03-11 武汉大学 基于图像深度学习的烟火识别方法及系统
US10949770B2 (en) * 2016-01-28 2021-03-16 Shutterstock, Inc. Identification of synthetic examples for improving search rankings
JP6946081B2 (ja) * 2016-12-22 2021-10-06 キヤノン株式会社 情報処理装置、情報処理方法、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230570A (ja) * 2014-06-04 2015-12-21 日本電信電話株式会社 学習モデル作成装置、判定システムおよび学習モデル作成方法
JP2018013857A (ja) * 2016-07-19 2018-01-25 富士通株式会社 センサデータ学習方法、センサデータ学習プログラム、及びセンサデータ学習装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
INOUE, SOZO ET AL.: "Experiment of Caregiving Activity Sensing in a Nursing Facility", IPSJ TECHNICAL REPORT, 18 May 2017 (2017-05-18), pages 1 - 8, ISSN: 2188-8604 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021078538A (ja) * 2019-11-14 2021-05-27 日本光電工業株式会社 学習済みモデルの生成方法、学習済みモデルの生成システム、推論装置、およびコンピュータプログラム
JP7381301B2 (ja) 2019-11-14 2023-11-15 日本光電工業株式会社 学習済みモデルの生成方法、学習済みモデルの生成システム、推論装置、およびコンピュータプログラム
WO2022185360A1 (ja) * 2021-03-01 2022-09-09 日本電信電話株式会社 支援装置、支援方法およびプログラム

Also Published As

Publication number Publication date
JP7320280B2 (ja) 2023-08-03
CN111712841A (zh) 2020-09-25
JPWO2019167556A1 (ja) 2021-02-04
US20210279637A1 (en) 2021-09-09

Similar Documents

Publication Publication Date Title
WO2019167556A1 (ja) ラベル収集装置、ラベル収集方法及びラベル収集プログラム
US11553874B2 (en) Dental image feature detection
US10909401B2 (en) Attention-based explanations for artificial intelligence behavior
CN107610770B (zh) 用于自动化诊断的问题生成系统和方法
US10599761B2 (en) Digitally converting physical document forms to electronic surveys
US11610148B2 (en) Information processing device and information processing method
JP5875285B2 (ja) 医療診断支援装置、情報処理方法及びプログラム
KR20200005987A (ko) 터치입력을 이용한 인지장애 진단 시스템 및 방법
JP2013192624A (ja) 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム
CN114341838A (zh) 病理报告中的使用自然语言处理的自动信息提取与扩展
US20210125724A1 (en) Medical image processing apparatus, medical image processing method, machine learning system, and program
JP2020052463A (ja) 情報処理方法および情報処理装置
JP5995415B2 (ja) 医療診断支援装置、情報処理方法及びプログラム
CN112486338A (zh) 医疗信息处理方法、装置及电子设备
JP2017010577A (ja) 医療診断支援装置及び医療診断支援方法
US20230125321A1 (en) User-guided structured document modeling
JP2021111299A (ja) 学習装置、学習方法、学習プログラム、識別装置、識別方法および識別プログラム
US20190163870A1 (en) Effective patient state sharing
JP6316325B2 (ja) 情報処理装置、情報処理装置の作動方法及び情報処理システム
US11068716B2 (en) Information processing method and information processing system
JP2018110040A (ja) 情報処理装置、情報処理方法及びプログラム
JP2018073069A (ja) 評価方法、評価プログラム、及び評価装置
US20230137094A1 (en) Measurement device, measurement system, measurement method, and computer program product
US11154220B2 (en) Information processing apparatus, method, and information processing system for inferring a movement destination of a person by utilizing a wireless device
JP2005209229A (ja) 画像検索方法及びその装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19761692

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020502890

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19761692

Country of ref document: EP

Kind code of ref document: A1