JP6506360B2 - Method of generating teacher data, method of generating learned model, learned model, computer and program - Google Patents

Method of generating teacher data, method of generating learned model, learned model, computer and program Download PDF

Info

Publication number
JP6506360B2
JP6506360B2 JP2017161140A JP2017161140A JP6506360B2 JP 6506360 B2 JP6506360 B2 JP 6506360B2 JP 2017161140 A JP2017161140 A JP 2017161140A JP 2017161140 A JP2017161140 A JP 2017161140A JP 6506360 B2 JP6506360 B2 JP 6506360B2
Authority
JP
Japan
Prior art keywords
image
teacher
label
teacher data
classified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017161140A
Other languages
Japanese (ja)
Other versions
JP2019040335A (en
Inventor
祐貴 徳田
祐貴 徳田
領 菊池
領 菊池
啓紀 佐藤
啓紀 佐藤
光義 山足
光義 山足
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Information Systems Corp
Priority to JP2017161140A priority Critical patent/JP6506360B2/en
Publication of JP2019040335A publication Critical patent/JP2019040335A/en
Application granted granted Critical
Publication of JP6506360B2 publication Critical patent/JP6506360B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は機械学習に関し、とくに、教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラムに関する。   The present invention relates to machine learning, and more particularly to a method of generating teacher data, a method of generating a learned model, a learned model, a computer and a program.

機械学習を用いてデータのラベリングを行う技術が公知である。たとえば、画像データに対するラベリングは、画像認識等に応用可能である。機械学習の一方法では、予め正しいラベルが付されたデータ(教師データ)を用いて、ラベリングモデルを定義するパラメータを機械的に学習しておき、学習されたラベリングモデルを用いて未知データのラベリングを行う。このような技術の例は、特許文献1および非特許文献1に開示される。特許文献1および非特許文献1では、データとして画像データが扱われている。   Techniques for labeling data using machine learning are known. For example, labeling for image data is applicable to image recognition and the like. In one method of machine learning, parameters that define a labeling model are mechanically learned using data (teacher data) to which a correct label is attached in advance, and unknown data is labeled using the learned labeling model. I do. Examples of such techniques are disclosed in Patent Document 1 and Non-Patent Document 1. In Patent Document 1 and Non-Patent Document 1, image data is treated as data.

特開平10−21393号公報Unexamined-Japanese-Patent No. 10-21393

岡谷貴之、「ディープラーニングと画像認識―基礎と最近の動向―」、[online]、[平成28年4月22日検索]、インターネット<URL:http://www.orsj.or.jp/archive2/or60-4/or60_4_198.pdf>Takaya Okaya, "Deep Learning and Image Recognition-Basics and Recent Trends-", [online], [Search on April 22, 2016], Internet <URL: http://www.orsj.or.jp/archive2 /or60-4/or60_4_198.pdf>

しかしながら、従来の構成では、正解ラベルを持つ教師データを大量に生成するのが困難であるという問題があった。   However, in the conventional configuration, there is a problem that it is difficult to generate a large amount of teacher data having correct answer labels.

たとえば、データを大量に準備しておき、1件ずつ目視により正解ラベルを与えることにより教師データを生成することが考えられるが、作業量が膨大となるため実行するのは困難である。   For example, a large amount of data may be prepared, and teacher data may be generated by giving correct labels one by one visually, but it is difficult to execute because the amount of work is enormous.

この発明は、このような問題点を解決するためになされたものであり、正解ラベルを持つ教師データを大量に生成可能な、機械学習用の教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラムを提供することを目的とする。   The present invention has been made to solve such problems, and a method of generating teacher data for machine learning, capable of generating a large amount of teacher data having correct labels, and a learned model are generated. The purpose is to provide a method, a learned model, a computer and a program.

上述の問題点を解決するため、この発明に係る方法は、
コンピュータが機械学習用の教師データを生成する方法であって、
第1ラベルが与えられた所定数A個の分類済み第1教師データと、前記第1ラベルが与えられていない分類済み第2教師データとを用いて機械学習を行うことにより、教師データと前記第1ラベルとの関係を表す第1学習済みモデルを生成する、第1学習ステップと、
前記第1学習済みモデルに基づいて、所定数B個の、未分類の教師データに前記第1ラベルを与えるべきか否かを判定する、判定ステップと
X個の、未分類の教師データに、前記判定ステップを実行すべきか否かを判定する、追加判定ステップと、
を備え
X=B・(C−A−D)/Dであり、
Cは、第1ラベルを与えられた分類済み教師データの必要数であり、
Dは、前記判定ステップにおいて第1ラベルを与えるべきと判定された教師データの数である。
特定の態様によれば、前記判定ステップの結果に応じて、前記未分類の教師データに基づき、前記第1ラベルが与えられた分類済み第3教師データを生成するか、または、前記第1ラベルが与えられていない分類済み第4教師データを生成する、教師データ生成ステップを備える。
特定の態様によれば、
前記教師データ生成ステップの後に、
前記分類済み第3教師データに与えられていた前記第1ラベルを削除するか、または、前記分類済み第4教師データに前記第1ラベルを与える、修正ステップ
を備える。
また、この発明に係る方法は、コンピュータが機械学習によって学習済みモデルを生成する方法であって、
上述の方法を用いて教師データを生成するステップと、
前記分類済み第1教師データと、前記分類済み第2教師データと、前記分類済み第3教師データおよび前記分類済み第4教師データのうち少なくとも一方とを用いて機械学習を行うことにより、教師データと前記第1ラベルとの関係を表す第2学習済みモデルを生成する、第2学習ステップと
を備える。
特定の態様によれば、前記第1学習ステップおよび前記第2学習ステップは、同一の学習前モデルに基づいて実行される。
また、この発明に係る学習済みモデルは、上述の方法を用いて生成される第2学習済みモデルであって、教師データに基づいて、テストデータに前記第1ラベルを与えるべきか否かを判定するよう、コンピュータを機能させる。
また、この発明に係るコンピュータは、上述の方法を実行する。
また、この発明に係るプログラムは、上述の方法をコンピュータに実行させる。
In order to solve the above-mentioned problems, the method according to the present invention is
A computer is a method of generating teacher data for machine learning, wherein
By performing machine learning using a predetermined number A of classified first teacher data to which a first label has been given and classified second teacher data to which the first label has not been given, teacher data and A first learning step of generating a first learned model representing a relationship with the first label;
Determining whether or not the first label should be given to a predetermined number B of unclassified teacher data based on the first learned model ;
An additional determination step of determining whether or not the determination step should be performed on X unclassified teacher data;
Equipped with
X = B. (C-A-D) / D,
C is the required number of classified teacher data given the first label,
D is Ru number der teacher data is determined to be given a first label in the determination step.
According to a particular aspect, depending on the result of the determining step, based on the unclassified teacher data, generating classified third teacher data to which the first label is given, or the first label The method includes a teacher data generation step of generating classified fourth teacher data which is not given.
According to a particular aspect,
After the teacher data generation step,
The method may further comprise a correction step of deleting the first label given to the classified third teacher data or giving the first label to the classified fourth teacher data.
Further, a method according to the present invention is a method in which a computer generates a learned model by machine learning, and
Generating teacher data using the method described above;
Wherein the classified first teacher data, wherein the classified second training data, by performing machine learning using at least one of the classified third teacher data and the classified fourth teacher data, teacher data And a second learning step of generating a second learned model representing the relationship between and and the first label.
According to a particular aspect, the first learning step and the second learning step are performed based on the same pre-learning model.
Further, a learned model according to the present invention is a second learned model generated using the method described above, and it is determined whether to give the first label to test data based on teacher data. Make the computer function as you
Also, a computer according to the present invention performs the method described above.
Further, a program according to the present invention causes a computer to execute the method described above.

この発明に係る技術によれば、教師データのうち分類済みの一部に基づいて、残る未分類の教師データを分類するので、容易に大量に教師データを生成できる。   According to the technique of the present invention, since the remaining unclassified teacher data is classified based on a part of the teacher data, it is possible to easily generate a large amount of teacher data.

本発明の実施の形態1に係る機械学習システムの構成の例を示す図である。It is a figure which shows the example of a structure of the machine learning system which concerns on Embodiment 1 of this invention. 図1の機械学習システムが実行する処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the processing which the machine learning system of FIG. 1 performs. 図2のステップS1〜S3の処理の入出力を説明する図である。It is a figure explaining the input-output of the process of step S1-S3 of FIG. 図2のステップS5およびS6の処理の入出力を説明する図である。It is a figure explaining the input-output of the process of step S5 of FIG. 2, and S6.

以下、この発明の実施の形態を添付図面に基づいて説明する。
実施の形態1.
図1に、本発明の実施の形態1に係る機械学習システム10の構成の例を示す。機械学習システム10は、機械学習方法を実行するシステムであり、データに対するラベリングを行うためのラベリングモデルを機械学習によって生成する。また、機械学習システム10は、本明細書に記載される方法を実行するコンピュータである。
Hereinafter, an embodiment of the present invention will be described based on the attached drawings.
Embodiment 1
FIG. 1 shows an example of the configuration of a machine learning system 10 according to the first embodiment of the present invention. The machine learning system 10 is a system that executes a machine learning method, and generates a labeling model for labeling data by machine learning. Machine learning system 10 is also a computer that performs the methods described herein.

「ラベリング」とは、各データについて何らかの判定を実行し、データに応じて異なり得る結果を得ることをいう。データはたとえば画像データである。画像データの表現形式はどのようなものであってもよいが、たとえばビットマップ形式であってもよく、公知の特徴量を用いた形式であってもよい。   "Labeling" means performing some judgment on each data to obtain a result that may differ depending on the data. The data is, for example, image data. The representation format of the image data may be any format, but may be, for example, a bitmap format, or may be a format using a known feature quantity.

画像データに対するラベリングは、たとえば、各画像データが何を表す画像であるか(白杖が現れているか、ベビーカーが現れているか、人が現れているか、物が現れているか、動物が現れているか、等)を判定する処理として実現することができる。判定はラベリングモデルに基づいて行われる。ラベリングモデルは、機械学習によって生成された学習済みモデルであり、たとえば1つ以上のパラメータを用いて表現することができる。   Labeling of image data is, for example, what each image data represents (a white cane appears, a stroller appears, a person appears, an object appears, an animal appears, etc. , Etc.) can be realized. The determination is made based on the labeling model. The labeling model is a trained model generated by machine learning, and can be expressed using, for example, one or more parameters.

本実施形態では、ニューラルネットワークを用いて学習を実現する。たとえば、本実施形態におけるラベリングモデルは、複数のニューロン層を備えるニューラルネットワークにおいて、異なる層のニューロンを結合する重みを用いて定義される。このようなニューラルネットワークおよびラベリングモデルの具体例は、たとえば非特許文献1に開示される。非特許文献1には、ディープラーニングに係るラベリングモデルが開示されている。   In the present embodiment, learning is realized using a neural network. For example, the labeling model in the present embodiment is defined using a weight connecting neurons of different layers in a neural network including a plurality of neuron layers. Specific examples of such neural networks and labeling models are disclosed, for example, in Non-Patent Document 1. Non-Patent Document 1 discloses a labeling model according to deep learning.

図1に示すように、機械学習システム10は公知のコンピュータとしての構成を有し、演算を行う演算手段11と、情報を格納する記憶手段12とを備える。演算手段11はたとえばCPU(中央処理装置)を含み、記憶手段12はたとえば半導体メモリおよびHDD(ハードディスクドライブ)を含む。記憶手段12は、図1に示すように各種の画像データを格納する。機械学習システム10は、これらの画像データを用いて、本実施形態に係る方法を実行する。   As shown in FIG. 1, the machine learning system 10 has a configuration as a known computer, and includes an operation unit 11 that performs an operation and a storage unit 12 that stores information. Arithmetic unit 11 includes, for example, a CPU (central processing unit), and storage unit 12 includes, for example, a semiconductor memory and an HDD (hard disk drive). The storage unit 12 stores various image data as shown in FIG. The machine learning system 10 executes the method according to the present embodiment by using these image data.

記憶手段12はプログラム(図示せず)も格納しており、演算手段11がこのプログラムを実行することによって、機械学習システム10は本明細書に記載される機能を実現する。すなわち、このプログラムは、コンピュータに本明細書に記載の方法を実行させることにより、そのコンピュータを機械学習システム10として機能させる。   The storage means 12 also stores a program (not shown), and the machine learning system 10 implements the functions described herein by the computing means 11 executing this program. That is, this program causes the computer to function as the machine learning system 10 by causing the computer to execute the method described herein.

また、機械学習システム10は、公知のコンピュータが通常備える他の構成要素を備えてもよい。たとえば、出力装置であるディスプレイおよびプリンタ、入力装置であるキーボードおよびマウス、通信ネットワークに対する入力装置と出力装置とを兼ねるネットワークインタフェース、等を備えてもよい。   The machine learning system 10 may also include other components that a known computer usually comprises. For example, a display and a printer which are output devices, a keyboard and a mouse which are input devices, a network interface which combines an input device and an output device for a communication network, and the like may be provided.

図1に示すように、画像データは、教師データを表す教師画像Tと、テストデータを表すテスト画像Eとを含む。教師画像Tは、ラベリングモデルを学習するために用いられるものである。テスト画像Eは、ラベリングモデルの精度を評価するために用いられるものである。   As shown in FIG. 1, the image data includes a teacher image T representing teacher data and a test image E representing test data. The teacher image T is used to learn a labeling model. The test image E is used to evaluate the accuracy of the labeling model.

教師画像Tは、たとえば動画を構成する画像から抽出することにより生成することが可能である。この抽出は、機械学習システム10または他のコンピュータが自動的に行ってもよいし、機械学習システム10の使用者等が目視により行ってもよい。   The teacher image T can be generated, for example, by extracting it from images constituting a moving image. This extraction may be performed automatically by the machine learning system 10 or another computer, or may be performed visually by the user of the machine learning system 10 or the like.

教師画像Tは、分類済み教師画像TCと、未分類教師画像TUとを含む。分類済み教師画像TCは、正解ラベルとして特定のラベルが与えられた画像である。たとえば画像中に白杖が表れている場合には、その画像には「白杖」というラベルが与えられる。本実施形態では、分類済み教師画像TCのうち少なくとも1つは、「白杖」というラベル(第1ラベル)が与えられた白杖画像T1(第1教師データ)である。   The teacher image T includes a classified teacher image TC and an unclassified teacher image TU. The classified teacher image TC is an image given a specific label as the correct answer label. For example, if a white cane appears in the image, the image is given the label "white cane". In the present embodiment, at least one of the classified teacher images TC is a white cane image T1 (first teacher data) to which a label (first label) of "white cane" is given.

また、分類済み教師画像TCのうち少なくとも1つは、「白杖」というラベルが与えられていない非白杖画像T2(第2教師データ)である。本実施形態では、非白杖画像T2の例として、別のラベルである「ベビーカー」というラベル(第2ラベル)が与えられたものを用いる。分類済み教師画像TCについては、「白杖」「ベビーカー」等のラベルは事前に付与されている。分類済み教師画像TCに対するラベルの付与は、たとえば目視により行うことができる。   Further, at least one of the classified teacher images TC is a non-white cane image T2 (second teacher data) which is not given the label "white cane". In the present embodiment, as an example of the non-white cane image T2, a label (second label) given as another label "stroller" is used. For the classified teacher image TC, labels such as "white cane" and "stroller" are given in advance. The labeling of the classified teacher image TC can be performed, for example, visually.

なお、ラベルの付与は排反または選択的である必要はない。たとえば、分類済み教師画像TCは、いかなるラベルも持たない画像を含んでもよく、「白杖」というラベルおよび「ベビーカー」というラベルの双方を持つ画像を含んでもよく、さらに別のラベル(たとえば「人」)を持つ画像を含んでもよい。   Note that the labeling does not have to be exclusive or selective. For example, the classified teacher image TC may include an image without any label, and may include an image with both the label “white stick” and the label “stroller”, and another label (eg, “person ') May be included.

未分類教師画像TUは、いずれのラベルも与えられていない画像である。または、ラベルを与えるための処理が行われていない画像である。または、ラベルを与えるか否かを決定するための処理が行われていない画像である。とくに、未分類教師画像TUについては、目視等によるラベル付与処理を事前に行う必要はない。   The unclassified teacher image TU is an image to which no label is given. Or, the image is not processed to give a label. Or, the image is not processed to determine whether to give a label. In particular, with regard to the unclassified teacher image TU, it is not necessary to perform labeling processing by visual inspection or the like in advance.

機械学習に係るラベルの種類は、教師画像Tおよびテスト画像Eを通じて共通である。たとえば本実施形態では、教師画像Tおよびテスト画像Eのいずれも、白杖を表すものと、ベビーカーを表すものとを含む。   The types of labels related to machine learning are common to the teacher image T and the test image E. For example, in the present embodiment, both the teacher image T and the test image E include those representing white canes and those representing strollers.

以上のような構成を備える機械学習システム10の動作を、図2〜図4を用いて以下に説明する。
図2は、機械学習システム10が実行する処理の流れを説明するフローチャートである。図2のうち、とくにステップS1〜S3は、機械学習用の教師データを生成する方法に係る。
図3は、図2のステップS1〜S3の処理の入出力を説明する図である。
The operation of the machine learning system 10 having the configuration as described above will be described below with reference to FIGS.
FIG. 2 is a flow chart for explaining the flow of processing executed by the machine learning system 10. Steps S1 to S3 in FIG. 2 particularly relate to a method of generating teacher data for machine learning.
FIG. 3 is a diagram for explaining the input and output of the process of steps S1 to S3 of FIG.

図2の処理において、まず機械学習システム10は、分類済み教師画像TCを用いて第1ラベリングモデル(第1学習済みモデル)を生成する(ステップS1、第1学習ステップ)。この第1ラベリングモデルは、白杖画像T1と非白杖画像T2とを用いて機械学習を行うことにより生成される学習済みモデルであって、教師画像T(厳密にはその一部である分類済み教師画像TC)と「白杖」というラベルとの関係を表す学習済みモデルである。   In the process of FIG. 2, first, the machine learning system 10 generates a first labeling model (first learned model) using the classified teacher image TC (step S1, first learning step). The first labeling model is a learned model generated by performing machine learning using the white cane image T1 and the non-white cane image T2, and the first labeling model is a teacher image T (strictly, it is a part of it. It is a learned model that represents the relationship between the completed teacher image TC) and the label “white stick”.

ステップS1は、たとえばニューラルネットワークを用いたディープラーニング技術を用いて実行することができる。この場合、第1ラベリングモデルは、複数のニューロン層を備えるニューラルネットワークにおいて、異なる層のニューロンを結合する重みを用いて定義することができる。たとえばcaffeフレームワークを用いてもよい。   Step S1 can be performed using a deep learning technique using, for example, a neural network. In this case, the first labeling model can be defined using weights connecting neurons of different layers in a neural network comprising a plurality of neuron layers. For example, the caffe framework may be used.

次に、機械学習システム10は、第1ラベリングモデルに基づき、未分類教師画像TUを分類する(ステップS2、判定ステップ)。このステップS2では、未分類教師画像TUに「白杖」というラベルを与えるべきか否かが判定される。ステップS2は、たとえば、第1ラベリングモデルに未分類教師画像TUを入力し、出力されるラベルを取得することにより実行される。   Next, the machine learning system 10 classifies the unclassified teacher image TU based on the first labeling model (Step S2, determination step). In this step S2, it is determined whether the unclassified teacher image TU should be labeled as "white stick". Step S2 is executed, for example, by inputting the unclassified teacher image TU into the first labeling model and acquiring the output label.

次に、機械学習システム10は、ステップS2の結果に応じて、未分類教師画像TUに基づき、新たな分類された教師データを生成する(ステップS3、教師データ生成ステップ)。たとえば、ある未分類教師画像TUに、「白杖」というラベルを与えるべきであると判定された場合には、その未分類教師画像TUに基づいて、「白杖」というラベルが与えられた白杖画像T3(第3教師データ)を生成する。一方、ある未分類教師画像TUに「白杖」というラベルを与えるべきでないと判定された場合には、「白杖」というラベルが与えられていない画像(第4教師データ)を生成する。   Next, the machine learning system 10 generates new classified teacher data based on the unclassified teacher image TU according to the result of step S2 (step S3, teacher data generation step). For example, if it is determined that an unclassified teacher image TU should be labeled "white cane", a white labeled "white cane" is given based on the unclassified teacher image TU. A cane image T3 (third teacher data) is generated. On the other hand, when it is determined that the label "white cane" should not be given to an unclassified teacher image TU, an image (fourth teacher data) not having the label "white cane" is generated.

「白杖」というラベルが与えられていない非白杖画像T4(第4教師データ)は、たとえば「ベビーカー」というラベルが与えられた画像である。ここで、第1ラベリングモデルの内容等によっては、ステップS2の判定が必ずしも正確ではなく、本来「白杖」というラベルを与えるべきであるのにそうでないと判定されたり、その逆が発生する可能性がある。このため、たとえばステップS3で生成される「非白杖画像T4」は、実際には「白杖」が表れた画像である可能性もあるが、少なくともある程度の精度をもってラベルの付与を行うことが可能である。   The non-white cane image T4 (fourth teacher data) that is not given the label "white cane" is, for example, an image that is given the label "stroller". Here, depending on the content of the first labeling model, the determination in step S2 is not necessarily accurate, and it may be determined that the label "white cane" should be given although it is not so, or the reverse may occur. There is sex. Therefore, for example, the “non-white cane image T4” generated in step S3 may actually be an image in which “white cane” appears, but labeling may be performed with at least a certain degree of accuracy. It is possible.

与えられたラベルを表す具体的なデータ形式は任意に設計可能であるが、たとえば白杖画像T1および非白杖画像T2と同一の形式としてもよい。その場合には、白杖画像T1と白杖画像T3とはデータ形式上区別不可能であり、また、非白杖画像T2と非白杖画像T4ともデータ形式上区別不可能である。   A specific data format representing a given label can be arbitrarily designed, but may be the same format as, for example, the white cane image T1 and the non-white cane image T2. In that case, the white cane image T1 and the white cane image T3 can not be distinguished in data format, and the non-white cane image T2 and the non-white cane image T4 can not be distinguished in data format.

このように、本発明の実施の形態1に係る機械学習システム10は、教師画像Tの一部をなす分類済み教師画像TC(白杖画像T1および非白杖画像T2)に基づいて、残る未分類教師画像TUを分類するので、容易に大量に分類済みの教師画像T(白杖画像T3および非白杖画像T4)を生成できる。   As described above, the machine learning system 10 according to the first embodiment of the present invention does not have any remaining based on the classified teacher image TC (white cane image T1 and non-white cane image T2) forming a part of the teacher image T. Since the classified teacher image TU is classified, it is possible to easily generate a large number of classified teacher images T (white cane image T3 and non-white cane image T4).

たとえば、10000個の教師画像Tが存在する場合に、そのうちの500個にだけ目視でラベルを付与して分類済み教師画像TCとし、残る9500個を未分類教師画像TUとして本発明を適用すれば、効率的に10000個の教師画像Tのラベルを決定することができる。   For example, when 10000 teacher images T exist, only 500 of them are visually labeled and classified as classified teacher images TC, and the remaining 9500 are unclassified teacher images TU and the present invention is applied. Labels of 10000 teacher images T can be determined efficiently.

なお、生成される白杖画像T3および非白杖画像T4は、必ずしもすべてが正しいラベルを持つものではない可能性もあるが、少なくとも概ね正しいラベルを持つものと考えることができる。このため、機械学習システム10によれば、概ね正しいラベルを持つ教師画像Tを容易かつ大量に生成することができる。   The generated white cane image T3 and non-white cane image T4 may not necessarily all have the correct label, but can be considered to at least generally have the correct label. For this reason, according to the machine learning system 10, it is possible to easily and massly generate teacher images T having roughly correct labels.

本発明による効果の一部は、ステップS3までの処理において得ることが可能であるが、さらに後続の処理を実行してもよい。   Although part of the effect of the present invention can be obtained in the processing up to step S3, further subsequent processing may be performed.

たとえば、ステップS3の後に、機械学習システム10は、白杖画像T3に与えられていた「白杖」というラベルを削除するか、または、非白杖画像T4に「白杖」というラベルを与える(ステップS4、修正ステップ)。   For example, after step S3, the machine learning system 10 deletes the label “white cane” given to the white cane image T3 or gives the label “white cane” to the non-white cane image T4 (see FIG. Step S4, correction step).

この修正ステップは、たとえば機械学習システム10の使用者の操作に応じて実行されてもよい。具体例として、機械学習システム10は、白杖画像T3と、白杖画像T3に「白杖」というラベルが与えられたことを示す情報と、非白杖画像T4と、非白杖画像T4に「白杖」というラベルが与えられなかったことを示す情報とを表示し、白杖画像T3または非白杖画像T4のいずれかを選択する操作と、選択した画像のラベルを変更するための操作を受け付ける機能を備えてもよい。また、機械学習システム10は、入力された操作に応じて、白杖画像T3および非白杖画像T4のラベルを修正してもよい。   This correction step may be performed, for example, in response to the operation of the user of the machine learning system 10. As a specific example, the machine learning system 10 includes a white stick image T3, information indicating that the white stick image T3 is given the label "white stick", a non-white stick image T4, and a non-white stick image T4. An operation to display information indicating that the label "White Cane" was not given, to select either the white cane image T3 or the non-white cane image T4, and to change the label of the selected image It may have a function of accepting In addition, the machine learning system 10 may correct the labels of the white cane image T3 and the non-white cane image T4 according to the input operation.

たとえば、機械学習システム10の使用者は、白杖画像T3および非白杖画像T4を閲覧し、誤ったラベルが与えられているものを発見した場合には、ラベルを変更すべき教師画像Tを特定する情報(ファイル名等)と、ラベルの変更内容(特定のラベルを削除する、特定のラベルを与える、等)を表す情報とを、機械学習システム10に入力してもよい。ステップS4の結果として、ステップS3で生成された白杖画像T3が非白杖画像T4に変更されたり、逆にステップS3で生成された非白杖画像T4が白杖画像T3に変更されたりする可能性がある。   For example, if the user of the machine learning system 10 browses the white cane image T3 and the non-white cane image T4 and finds out that the wrong label is given, the teacher image T for which the label should be changed is used. Information to be identified (such as a file name) and information representing a label change (deleting a particular label, giving a particular label, etc.) may be input to the machine learning system 10. As a result of step S4, the white cane image T3 generated in step S3 is changed to a non-white cane image T4, or conversely the non-white cane image T4 generated in step S3 is changed to a white cane image T3 there is a possibility.

このような修正には、ある程度の目視作業が必要となるが、大量(たとえば9500個)の未分類教師画像TUをすべて目視によって分類する場合に比べると、作業効率が向上する。   Although such a correction requires some visual work, the work efficiency is improved as compared to the case where a large number (for example, 9500 pieces) of unclassified teacher images TU are all visually classified.

また、ステップS4は、自動的に実行されてもよい。たとえば、機械学習システム10は、事前に決定される所定の基準に基づき、白杖画像T3に与えられていた「白杖」というラベルを削除するか、または、非白杖画像T4に「白杖」というラベルを与えてもよい。   Also, step S4 may be performed automatically. For example, the machine learning system 10 deletes the label “white cane” given to the white cane image T3 based on predetermined criteria determined in advance, or “white cane” on the non-white cane image T4. "" May be given.

ステップS1〜S3(またはステップS1〜S4)によって生成された教師画像Tは、様々な方法で利用することができる。たとえばテスト画像Eに対してラベリングを行う処理に利用することができる。ステップS5およびS6にこのような利用方法の一例を示す。   The teacher image T generated in steps S1 to S3 (or steps S1 to S4) can be used in various ways. For example, it can be used for the process of labeling the test image E. Steps S5 and S6 show an example of such a method of use.

図4は、図2のステップS5およびS6の処理の入出力を説明する図である。ステップS3の後(またはステップS4の後)、機械学習システム10は、教師画像Tを用いて第2ラベリングモデル(第2学習済みモデル)を生成する(ステップS5、第2学習ステップ)。この第2ラベリングモデルは、白杖画像T1と、非白杖画像T2と、白杖画像T3と、非白杖画像T4とを用いて機械学習を行うことにより生成される学習済みモデルであって、教師画像Tと「白杖」というラベルとの関係を表す学習済みモデルである。すべての教師画像Tを用いてもよいが、必ずしもすべての教師画像Tを用いる必要はない。たとえば、白杖画像T3および非白杖画像T4の双方を用いる必要はなく、これらのうちいずれか一方のみを用いてもステップS5の処理は実行可能である。このようにして、機械学習システム10は、機械学習によって学習済みモデルを生成する。   FIG. 4 is a diagram for explaining the input and output of the processes of steps S5 and S6 of FIG. After step S3 (or after step S4), the machine learning system 10 generates a second labeling model (second learned model) using the teacher image T (step S5, second learning step). The second labeling model is a learned model generated by performing machine learning using the white cane image T1, the non-white cane image T2, the white cane image T3, and the non-white cane image T4. , And a learned model representing the relationship between the teacher image T and the label "white stick". Although all teacher images T may be used, not all teacher images T need to be used. For example, it is not necessary to use both the white cane image T3 and the non-white cane image T4, and the process of step S5 can be performed using only one of them. Thus, the machine learning system 10 generates a learned model by machine learning.

ステップS5は、たとえばニューラルネットワークを用いたディープラーニング技術を用いて実行することができる。この場合、第2ラベリングモデルは、複数のニューロン層を備えるニューラルネットワークにおいて、異なる層のニューロンを結合する重みを用いて定義することができる。たとえばcaffeフレームワークを用いてもよい。   Step S5 can be performed using a deep learning technique using, for example, a neural network. In this case, a second labeling model can be defined using a weight connecting neurons of different layers in a neural network comprising a plurality of neuron layers. For example, the caffe framework may be used.

ここで、ステップS1およびS5は、同一の学習前モデルに基づいて実行されてもよい。「学習前モデル」の定義は当業者が適宜決定可能である。ニューラルネットワークを用いたディープラーニングの場合には、たとえば、誤差逆伝搬による重み付けの修正を開始する前のニューラルネットワークの具体的構造をいう。より具体的には、各ニューロンの出力を決定するための関数、階層数、各階層におけるニューロンの数、各ニューロン間の接続関係の有無、等が等しいものをいう。なお学習前モデルの一部が乱数を含む場合(重みの初期値等)には、乱数によるモデルの相違は考慮しない(たとえば、重みの初期値のみが異なる学習前モデルは、同一の学習前モデルである)。   Here, steps S1 and S5 may be performed based on the same pre-learning model. The definition of the “pre-learning model” can be determined as appropriate by those skilled in the art. In the case of deep learning using a neural network, for example, it refers to a specific structure of the neural network before the start of correction of weighting by error back propagation. More specifically, it refers to a function for determining the output of each neuron, the number of layers, the number of neurons in each layer, the presence or absence of a connection relation between the neurons, and the like. When part of the pre-learning model includes random numbers (initial values of weights, etc.), differences in models due to random numbers are not taken into account (for example, pre-learning models having different initial values of weights are identical to the pre-learning models). Is).

次に、機械学習システム10は、第2ラベリングモデルに基づき、テスト画像Eを分類する(ステップS6)。このステップS6では、白杖画像T1またはT3と、非白杖画像T2またはT4とを用いて、テスト画像Eに「白杖」というラベルを与えるべきか否かが判定される。ステップS6は、たとえば、第2ラベリングモデルにテスト画像Eを入力し、出力されるラベルを取得することにより実行される。ここで、第2ラベリングモデルは、教師画像Tに基づいて、テスト画像Eに「白杖」というラベルを与えるべきか否かを判定するよう、コンピュータを機能させるための学習済みモデルであるということができる。   Next, the machine learning system 10 classifies the test image E based on the second labeling model (step S6). In step S6, it is determined whether the label “white cane” should be given to the test image E using the white cane image T1 or T3 and the non-white cane image T2 or T4. Step S6 is executed, for example, by inputting the test image E into the second labeling model and acquiring the output label. Here, the second labeling model is a learned model for causing the computer to function to determine whether to label the test image E with the label “white stick” based on the teacher image T. Can.

このようにしてテスト画像Eの分類が行われる。ステップS6の後に、判定結果に応じてテスト画像Eにラベルを与えてもよい。この処理はステップS3と同様に実行されてもよい。   Classification of the test image E is performed in this manner. After step S6, the test image E may be labeled according to the determination result. This process may be performed similarly to step S3.

上述の実施の形態1において、次のような変形を施すことができる。
判定されるラベルの種類の数および組合せは任意に設計可能である。単一のラベルを与えるか否かのみを判定してもよいし、複数のラベルのうちいずれを与えるか(またはいずれも与えないか)を選択してもよいし、複数のラベルのそれぞれについてそのラベルを与えるか否かを個別に判定してもよい。
The following modifications can be made in the first embodiment described above.
The number and combination of label types to be determined can be arbitrarily designed. It may be determined whether to give a single label or not, it may be selected whether to give (or not give) any of a plurality of labels, or for each of a plurality of labels Whether to give a label may be determined individually.

実施の形態1では、データはすべて画像データであるが、機械学習によってラベリングを行うことが可能なデータであれば、任意の他の種類のデータ(文書データ、数値データ等)を用いてもよい。   In the first embodiment, all data are image data, but any other type of data (document data, numerical data, etc.) may be used as long as the data can be labeled by machine learning. .

図2を用いて説明した機械学習システム10の動作は、10000個の教師画像Tが存在し、500個が分類済み教師画像TCであり残る9500個が未分類教師画像TUであるとき、ステップS2の処理で全ての未分類教師画像TUを分類するように構成している。
変形例として、ステップS2〜ステップS3の処理を繰り返すように構成する。未分類教師画像TUを例えば500個ずつに分けてステップS2で500個について新たな分類された教師画像を生成し、ステップS3で新たに分類された教師データを生成する。ステップS3の次に、教師データの累積数を算出し、累積数が所定数に達しているかどうかの判定処理を加え、累積数が所定数に達していないと判定したときは、次の500個についてステップS2〜ステップS3の処理を繰り返すように構成する。ステップS3の次で、教師データの累積数が所定数に達すると判定したときは、処理を終了する。
未分類教師画像TUに関して一度の処理で教師画像TCを生成しようとすると処理時間を要してしまう可能性があるが、このように未分類教師画像TUの一定数を順次処理するように構成することで、所定数の教師画像TCを効率的に生成できる可能性が高まる。
The operation of the machine learning system 10 described with reference to FIG. 2 proceeds to step S2 when 10000 teacher images T are present and 500 are classified teacher images TC and the remaining 9500 are unclassified teacher images TU. Is configured to classify all unclassified teacher images TU in the processing of.
As a modification, it is constituted so that processing of Step S2-Step S3 may be repeated. The unclassified teacher image TU is divided into, for example, 500 pieces to generate a teacher image newly classified about 500 pieces in step S2, and a newly classified teacher data is generated in step S3. After step S3, the cumulative number of teacher data is calculated, and it is determined whether the cumulative number has reached a predetermined number. If it is determined that the cumulative number has not reached a predetermined number, the next 500 are determined. The processing of steps S2 to S3 is repeated. If it is determined that the cumulative number of teacher data reaches the predetermined number after step S3, the process ends.
Although it may take processing time to generate a teacher image TC by one process for an unclassified teacher image TU, it is configured to sequentially process a constant of the unclassified teacher image TU in this way This increases the possibility that the predetermined number of teacher images TC can be generated efficiently.

またステップS2でまずは一定数(例えば500個)について教師画像を生成するように構成し、ステップS3の次に、ステップS3で累積される教師画像TCがステップS2で処理した未分類教師画像TU数と比例して増加しているかの判定処理を加え、未分類教師画像TU数と比例して増加していると判断したとき、次のステップS2からの処理で残りの未分類教師画像TUについてまとめて教師画像を生成するように構成してもよい。このような教師画像の場合は、未分類教師画像TU数と比例して効率的に教師画像TCの増加が見込まれるが、そのような教師画像の特性を持っているかどうかを予め確認することで、処理時間を短縮できる可能性が高まる。
なお所定数とは、予め設定している教師画像TCを必要とする数である。
In step S2, first, a teacher image is generated for a fixed number (for example, 500), and after step S3, the number of unclassified teacher images TU processed in step S2 is the teacher image TC accumulated in step S3. When it is determined that the number of unsorted teacher images TU increases in proportion to the number of unsorted teacher images TU, the remaining unclassified teacher images TU are summarized in the process from the next step S2. It may be configured to generate a teacher image. In the case of such a teacher image, the teacher image TC is expected to increase efficiently in proportion to the number of unclassified teacher images TU, but it is confirmed in advance whether or not it has the characteristics of such a teacher image. The possibility of shortening the processing time is increased.
Note that the predetermined number is a number that requires a preset teacher image TC.

比例原理をどのように利用するかは適宜設計可能であるが、具体例の1つを以下に説明する。まず、特定のラベルを持つ教師画像について目標数を設定する。たとえば、「白杖」というラベルを持つ教師画像が1000個必要な場合には、目標数は1000となる。次に、機械学習システム10は、ステップS2およびS3で、未分類教師画像TUのうち所定数(たとえば500個)について教師画像を生成し、それらのうちで「白杖」というラベルが与えられたものの比率を算出する。ステップS3で分類済み教師画像TCが500個生成され、そのうち100個が「白杖」に対応するものであった場合には、比率は100/500=0.2となる。そして、機械学習システム10は、この比率と、目標数とに基づき、追加で処理すべき分類済み教師画像TCの数を算出する。たとえば、最初に存在していた(すなわち目視により判定された)分類済み教師画像TC500個のうち200個が「白杖」に対応するものであったとすると、ステップS3で生成された100個と合わせて合計300個の「白杖」教師画像が存在することになり、残りは1000−300=700個となるので、この700個の「白杖」教師画像を得るために処理が必要となる未分類教師画像TUの数は、700/0.2=3500個となる。したがって、機械学習システム10は、新たに3500個の未分類教師画像TUについてステップS2およびS3を実行し、必要な数の「白杖」教師画像を得る。なお、ここで得られたものを含めた「白杖」教師画像の総数が結果として目標数に届かない場合等には、さらに同様の比例計算を行ってステップS2およびS3を繰り返し実行してもよい。   Although how to use the proportional principle can be designed as appropriate, one specific example will be described below. First, target numbers are set for teacher images having specific labels. For example, if 1000 teacher images with the label "white cane" are needed, the target number is 1000. Next, in steps S2 and S3, the machine learning system 10 generates teacher images for a predetermined number (for example, 500) of the unclassified teacher images TU, and among them, the label "white cane" is given. Calculate the ratio of things. If 500 classified teacher images TC are generated in step S3 and 100 of them correspond to "white cane", the ratio is 100/500 = 0.2. Then, the machine learning system 10 calculates the number of classified teacher images TC to be additionally processed based on the ratio and the target number. For example, if 200 out of the 500 classified teacher images TC that were originally present (that is, determined visually) were to correspond to "white cane", then they were combined with 100 generated in step S3. There will be a total of 300 "white cane" teacher images, and the rest will be 1000-300 = 700. Therefore, processing is not necessary to obtain these 700 "white cane" teacher images. The number of classified teacher images TU is 700 / 0.2 = 3500. Therefore, the machine learning system 10 executes steps S2 and S3 for the newly 3500 unclassified teacher images TU to obtain the required number of "white cane" teacher images. If the total number of "white cane" teacher images including those obtained here does not reach the target number as a result, etc., similar proportional calculations are performed and steps S2 and S3 are repeatedly executed. Good.

機械学習の具体的実現方法は、任意に設計可能である。実施の形態1では、ニューラルネットワークを用いたディープラーニングを用いたが、他の機械学習方法を用いてもよい。また、ディープラーニングを用いる場合についても、具体的な学習方法は任意に設計可能である。たとえば、学習回数、学習中の精度評価方法および評価基準、入出力データのディレクトリ構造およびファイル構造、等を任意に設計してもよい。また、たとえば、公知のcaffeフレームワークを利用してもよい。   The concrete implementation method of machine learning can be designed arbitrarily. Although deep learning using a neural network is used in the first embodiment, another machine learning method may be used. Further, even in the case of using deep learning, a specific learning method can be designed arbitrarily. For example, the number of times of learning, the accuracy evaluation method and evaluation criteria during learning, the directory structure and file structure of input / output data, and the like may be arbitrarily designed. Also, for example, the known caffe framework may be used.

10 機械学習システム(コンピュータ)、S1 第1学習ステップ、S2 判定ステップ、S3 教師データ生成ステップ、S4 修正ステップ、S5 第2学習ステップ、E テスト画像(テストデータ)、T 教師画像(教師データ)、T1 白杖画像(第1教師データ)、T2 非白杖画像(第2教師データ)、T3 白杖画像(第3教師データ)、T4 非白杖画像(第4教師データ)、TU 未分類教師画像(未分類の教師データ)。   10 machine learning system (computer), S1 first learning step, S2 determination step, S3 teacher data generation step, S4 correction step, S5 second learning step, E test image (test data), T teacher image (teacher data), T1 white cane image (first teacher data), T2 non-white cane image (second teacher data), T3 white cane image (third teacher data), T4 non white cane image (fourth teacher data), TU unclassified teacher Image (Unclassified teacher data).

Claims (7)

コンピュータが機械学習用の教師データを生成する方法であって、
第1ラベルが与えられた所定数A個の分類済み第1教師データと、前記第1ラベルが与えられていない分類済み第2教師データとを用いて機械学習を行うことにより、教師データと前記第1ラベルとの関係を表す第1学習済みモデルを生成する、第1学習ステップと、
前記第1学習済みモデルに基づいて、所定数B個の、未分類の教師データに、前記第1ラベルを与えるべきか否かを判定する、判定ステップと
X個の、未分類の教師データに、前記判定ステップを実行すべきか否かを判定する、追加判定ステップと、
を備え
X=B・(C−A−D)/Dであり、
Cは、第1ラベルを与えられた分類済み教師データの必要数であり、
Dは、前記判定ステップにおいて第1ラベルを与えるべきと判定された教師データの数である、方法。
A computer is a method of generating teacher data for machine learning, wherein
By performing machine learning using a predetermined number A of classified first teacher data to which a first label has been given and classified second teacher data to which the first label has not been given, teacher data and A first learning step of generating a first learned model representing a relationship with the first label;
A determining step of determining whether the first label should be given to a predetermined number B of unclassified teacher data based on the first learned model ;
An additional determination step of determining whether or not the determination step should be performed on X unclassified teacher data;
Equipped with
X = B. (C-A-D) / D,
C is the required number of classified teacher data given the first label,
D is Ru number der teacher data is determined to be given a first label in the determination step, the method.
前記判定ステップの結果に応じて、前記未分類の教師データに基づき、前記第1ラベルが与えられた分類済み第3教師データを生成するか、または、前記第1ラベルが与えられていない分類済み第4教師データを生成する、教師データ生成ステップを備える、請求項1に記載の方法。 According to the result of the determination step, based on the unclassified teacher data, the classified third teacher data to which the first label is given is generated, or the classified not to which the first label is given The method of claim 1, comprising generating teacher data, generating fourth teacher data. 前記教師データ生成ステップの後に、
前記分類済み第3教師データに与えられていた前記第1ラベルを削除するか、または、前記分類済み第4教師データに前記第1ラベルを与える、修正ステップ
を備える、請求項2に記載の方法。
After the teacher data generation step,
The method according to claim 2, further comprising: a correction step of deleting the first label given to the classified third teacher data or giving the first label to the classified fourth teacher data. .
コンピュータが機械学習によって学習済みモデルを生成する方法であって、
請求項2に記載の方法を用いて教師データを生成するステップと、
前記分類済み第1教師データと、前記分類済み第2教師データと、前記分類済み第3教師データおよび前記分類済み第4教師データのうち少なくとも一方とを用いて機械学習を行うことにより、教師データと前記第1ラベルとの関係を表す第2学習済みモデルを生成する、第2学習ステップと
を備える、方法。
A computer is a method of generating a learned model by machine learning,
Generating teacher data using the method according to claim 2;
Wherein the classified first teacher data, wherein the classified second training data, by performing machine learning using at least one of the classified third teacher data and the classified fourth teacher data, teacher data And a second learning step, generating a second learned model that represents the relationship between and the first label.
前記第1学習ステップおよび前記第2学習ステップは、同一の学習前モデルに基づいて実行される、請求項4に記載の方法。   The method according to claim 4, wherein the first learning step and the second learning step are performed based on the same pre-learning model. 請求項1〜5のいずれか一項に記載の方法を実行するコンピュータ。   A computer implementing the method according to any one of the preceding claims. 請求項1〜5のいずれか一項に記載の方法をコンピュータに実行させるプログラム。   The program which makes a computer perform the method as described in any one of Claims 1-5.
JP2017161140A 2017-08-24 2017-08-24 Method of generating teacher data, method of generating learned model, learned model, computer and program Active JP6506360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017161140A JP6506360B2 (en) 2017-08-24 2017-08-24 Method of generating teacher data, method of generating learned model, learned model, computer and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017161140A JP6506360B2 (en) 2017-08-24 2017-08-24 Method of generating teacher data, method of generating learned model, learned model, computer and program

Publications (2)

Publication Number Publication Date
JP2019040335A JP2019040335A (en) 2019-03-14
JP6506360B2 true JP6506360B2 (en) 2019-04-24

Family

ID=65726569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017161140A Active JP6506360B2 (en) 2017-08-24 2017-08-24 Method of generating teacher data, method of generating learned model, learned model, computer and program

Country Status (1)

Country Link
JP (1) JP6506360B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220024718A (en) 2019-06-18 2022-03-03 몰로코, 인크. Methods and systems for providing machine learning services
JP7268731B2 (en) * 2019-06-19 2023-05-08 日本電信電話株式会社 LEARNING DATA GENERATION DEVICE, LEARNING DEVICE, LEARNING DATA GENERATION METHOD, AND LEARNING DATA GENERATION PROGRAM
JP7333496B2 (en) * 2019-07-05 2023-08-25 公立大学法人会津大学 LABELING PROGRAM, LABELING APPARATUS AND LABELING METHOD
JP7264281B2 (en) 2020-01-10 2023-04-25 日本電気株式会社 Visualization image display device
WO2022157892A1 (en) * 2021-01-21 2022-07-28 日本電信電話株式会社 Image selection device, image selection method, and image selection program
CN113205119B (en) 2021-04-20 2023-10-31 北京百度网讯科技有限公司 Data labeling method, device, electronic equipment and readable storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003141498A (en) * 2001-10-30 2003-05-16 Nippon Telegr & Teleph Corp <Ntt> Answer extracting method, device, program and recording medium recorded the same therein
JP5197774B2 (en) * 2011-01-18 2013-05-15 株式会社東芝 Learning device, determination device, learning method, determination method, learning program, and determination program
JP2015087903A (en) * 2013-10-30 2015-05-07 ソニー株式会社 Apparatus and method for information processing
JP6291844B2 (en) * 2014-01-06 2018-03-14 日本電気株式会社 Data processing device
JP6618735B2 (en) * 2015-08-31 2019-12-11 国立研究開発法人情報通信研究機構 Question answering system training apparatus and computer program therefor

Also Published As

Publication number Publication date
JP2019040335A (en) 2019-03-14

Similar Documents

Publication Publication Date Title
JP6506360B2 (en) Method of generating teacher data, method of generating learned model, learned model, computer and program
JP6755849B2 (en) Pruning based on the class of artificial neural networks
JP6182242B1 (en) Machine learning method, computer and program related to data labeling model
US11907675B2 (en) Generating training datasets for training neural networks
EP3602419B1 (en) Neural network optimizer search
JP2019511033A5 (en)
CN108536784B (en) Comment information sentiment analysis method and device, computer storage medium and server
JP6338036B1 (en) Table semantic estimation system, method and program
CN110276456A (en) A kind of machine learning model auxiliary construction method, system, equipment and medium
JP2021501417A (en) Neural architecture search
US20180285769A1 (en) Artificial immune system for fuzzy cognitive map learning
US20180068009A1 (en) Point-in-time dependent identification for offering interactive services in a user web journey
CN114600196A (en) Domain specific human model collaborative annotation tool
JP6933217B2 (en) Table meaning estimation system, method and program
JP2021051589A5 (en)
CN114238764A (en) Course recommendation method, device and equipment based on recurrent neural network
JP5835802B2 (en) Purchase forecasting apparatus, method, and program
CN116302088B (en) Code clone detection method, storage medium and equipment
JP2019028484A (en) Attribute identification apparatus, attribute identification model learning apparatus, method and program
JP2020181318A (en) Optimization device, optimization method, and program
US11593569B2 (en) Enhanced input for text analytics
JP7398944B2 (en) Electronic album generation device, electronic album generation method and program
CN110990353B (en) Log extraction method, log extraction device and storage medium
JP7063397B2 (en) Answer integration device, answer integration method and answer integration program
CN110880141A (en) Intelligent deep double-tower model matching algorithm and device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190328

R150 Certificate of patent or registration of utility model

Ref document number: 6506360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250