WO2020166321A1 - モデル学習装置、ラベル推定装置、それらの方法、およびプログラム - Google Patents
モデル学習装置、ラベル推定装置、それらの方法、およびプログラム Download PDFInfo
- Publication number
- WO2020166321A1 WO2020166321A1 PCT/JP2020/003061 JP2020003061W WO2020166321A1 WO 2020166321 A1 WO2020166321 A1 WO 2020166321A1 JP 2020003061 W JP2020003061 W JP 2020003061W WO 2020166321 A1 WO2020166321 A1 WO 2020166321A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- label
- data
- probability
- learning
- value
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 68
- 230000006870 function Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 description 25
- 238000013500 data storage Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 4
- 238000003062 neural network model Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Definitions
- the learning label data illustrated in FIG. 4 corresponds to the label data number i, the data number y(i,0), the evaluator number y(i,1), and the correct answer label (for example, the correct answer label) impression value. It has the label y(i,2) (label).
- the label data number i ⁇ 0, 1,..., I ⁇ is a number for identifying each record of the learning label data.
- the data number y(i,0) ⁇ 0,1,...,J ⁇ is a number for identifying each learning feature data.
- the learning feature data x(j) in the example of FIG. 5 is a feature amount such as a voice signal or a vector whose elements are features extracted from the voice signal.
- the initial value setting unit 131 (FIG. 1) of the label estimation unit 13 refers to the learning label data (FIG. 4) stored in the learning label data storage unit 11 and refers to all the data numbers j ⁇ 0, 1,... , J ⁇ and all impression value labels c ⁇ 0, 1,..., C ⁇ , set (initialize) the initial value of the probability h j,c and output it.
- the method of setting the initial value of the probability h j,c is not particularly limited, but the initial value setting unit 131 sets the initial value of the probability h j,c as follows, for example.
- the initial value of the probability h j,c output from the initial value setting unit 131 is sent to the skill estimation unit 132.
- the skill estimation unit 132 receives the latest probability h j,c as an input, estimates (updates) the probability a k,c,c′ according to the following equation (2) , and outputs it. That is, the skill estimating unit 132 regards the probability h j,c as known (correct) and updates the probability a k,c,c′ by the formula (2) and outputs the updated probability. Furthermore, the skill estimation unit 132 estimates (updates) and outputs the distribution (probability distribution) q c of all impression value labels c ⁇ 0, 1,..., C ⁇ according to the following expression (3).
- the type of learning processing performed by the learning unit 14 and the type of model ⁇ obtained by the learning processing are not limited.
- the learning unit 14 may perform learning so as to minimize the cross entropy error.
- the learning unit 14 may perform learning so as to minimize the cross entropy error of the following Expression (6) and obtain the model ⁇ .
- f is the model ⁇
- the learning unit 14 uses the cross entropy error of Obtain model ⁇ by updating f to minimize
- the superscript “ ⁇ ” of y ⁇ (j) should originally be written directly above “y” as in Expression (6). Is described in the upper right of “y”.
- the model ⁇ may be a recognition model such as SVM (support vector machine).
- SVM support vector machine
- the probability h j,c that is an “index indicating the degree of correctness of each label with respect to the data”
- the probability a k that is the “index indicating the ability of the evaluator to correctly label the data”
- the variation Bayes method is used to define "the ability of the evaluator to correctly label the data" as a distribution according to the Direle distribution, not a simple probability. This prevents the local solution from falling sharply.
- the skill estimation unit 232 updates the parameter ⁇ k,c and the parameter ⁇ that specifies the probability distribution of the distribution q c of each impression value label c ⁇ 0, 1,..., C ⁇ using the probability h j,c. To do. The details will be described below.
- the data number of the true impression value label c ⁇ 0, 1,..., C ⁇ and the information of the data number j ⁇ 0, 1,..., J ⁇ are evaluator numbers.
- Probability distribution a k,c representing the degree to which the evaluator of k ⁇ 0, 1,..., K ⁇ can correctly label is given as in the following Expression (7) according to the Direlet distribution.
- a computer that executes such a program first stores, for example, the program recorded in a portable recording medium or the program transferred from the server computer in its own storage device. When executing the process, this computer reads the program stored in its own storage device and executes the process according to the read program. As another execution form of this program, the computer may directly read the program from the portable recording medium and execute processing according to the program, and further, each time the program is transferred from the server computer to this computer. The processing according to the received program may be sequentially executed. Even if the configuration is such that the above process is executed by a so-called ASP (Application Service Provider) type service that does not transfer the program from the server computer to this computer and realizes the processing function only by executing the execution instruction and acquiring the result. Good.
- ASP Application Service Provider
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Machine Translation (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
1データあたりの評価者が少ない学習データを用いた場合であっても、高い精度でラベル推定を行うことが可能なモデルを学習する。複数のデータと当該データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る。
Description
本発明は、モデル学習およびラベル推定に関する。
電話音声の好感度(非特許文献1)や外国語の発音の良さ・流暢さ(非特許文献2)等の印象を評価して会話の技能を図るテストでは、音声に対して定量的な印象値(例えば、「良い」から「悪い」の5段階評価、好感度が「高い」から「低い」の5段階評価、自然さが「高い」から「低い」の5段階評価等)が付与される。
現在は、各技能の専門家が音声の印象を評価して印象値を付与し、合格・不合格の判定を行っている。しかし、音声の印象を自動推定して印象値が得られるようになると、それをテストの足切り判定等に活用したり、評価に不慣れな専門家(例えば評価者になりたての人物)への参考値として用いたりできる。
機械学習を用いてデータ(例えば、音声データ)に対するラベル(例えば、印象値)の自動推定を実現するためには、データとそのデータに付与されたラベルとの組みを学習データとした学習処理を行い、入力データに対するラベルを推定するモデルを生成すればよい。
しかし、評価者には個人差があり、またラベルを付与することに慣れていない評価者がデータにラベルを付与する場合もある。そのため、同じデータに対して異なる評価者が異なるラベルを付与することもある。
複数の評価者によるラベルの値を平均したようなラベルを推定するモデルを学習するためには、同一のデータに対して複数人の評価者がラベルを付与し、それらの値を平均したラベルと当該データとの組を学習データとすればよい。平均的なラベルを安定して推定できるようになるには、できるだけ多人数の評価者が同一のデータにラベルを付与するとよい。例えば、非特許文献3では同一のデータに対して10名の評価者がラベルを付与している。
F. Burkhardt, B. Schuller, B. Weiss and F. Weninger, "Would You Buy a Car From Me?" On the Likability of Telephone Voices," In Proc. Interspeech, pp. 1557 - 1560, 2011.
Kei Ohta and Seiichi Nakagawa, "A statistical method of evaluating pronunciation proficiency for Japanese words," INTERSPEECH2005, pp. 2233 - 2236.
籠宮隆之,山住賢司,槙洋一,"印象評定データの概要", [online], [平成31年1月28日検索],インターネット<http://pj.ninjal.ac.jp/corpus_center/csj/manu-f/impression.pdf>
評価者の中には、評価能力の高い人物とそうではない人物が存在する。1データあたりの評価者が多い場合、評価能力の低い評価者が混在していても、評価能力の高い評価者が付与したラベルによって学習データのラベルはある程度正確なものに補正される。しかし、1データあたりの評価者が少ない場合、評価者の評価能力不足によって学習データのラベル誤りが大きくなり、精度の高いラベルを推定するモデルを学習できなくなる場合が生じる。
本発明はこのような点に鑑みてなされたものであり、1データあたりの評価者が少ない学習データを用いた場合であっても、高い精度でラベル推定を行うことが可能なモデルを学習できる技術を提供することである。
本発明では、複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る。
本発明では、複数のデータとラベル期待値との組を学習データとして用いるため、1データあたりの評価者が少ない場合であっても、高い精度でラベル推定を行うことが可能なモデルを学習できる。
以下、図面を参照して本発明の実施形態を説明する。
[第1実施形態]
まず本発明の第1実施形態を説明する。
<構成>
図1に例示するように、本実施形態のモデル学習装置1は、学習ラベルデータ記憶部11、学習特徴データ記憶部12、ラベル推定部13、および学習部14を有する。ラベル推定部13は、初期値設定部131、スキル推定部132、ラベル期待値推定部133、および制御部134を有する。図3に例示するように、本実施形態のラベル推定装置15は、モデル記憶部151、および推定部152を有する。
[第1実施形態]
まず本発明の第1実施形態を説明する。
<構成>
図1に例示するように、本実施形態のモデル学習装置1は、学習ラベルデータ記憶部11、学習特徴データ記憶部12、ラベル推定部13、および学習部14を有する。ラベル推定部13は、初期値設定部131、スキル推定部132、ラベル期待値推定部133、および制御部134を有する。図3に例示するように、本実施形態のラベル推定装置15は、モデル記憶部151、および推定部152を有する。
<前処理>
モデル学習装置1によるモデル学習処理の前処理として、学習ラベルデータが学習ラベルデータ記憶部11に格納され、学習特徴データが記憶部12に格納される。学習ラベルデータは、複数の評価者それぞれによって付与された複数の学習特徴データ(データ)それぞれに対する印象値ラベル(ラベル)を表す情報である。学習特徴データは、ヒトが知覚可能な情報を表すデータ(例えば、音声データ、楽曲データ、テキストデータ、画像データ、動画データなど)であってもよいし、このようなヒトが知覚可能な情報の特徴量を表すデータであってもよい。印象値ラベルは、学習特徴データに対応する「ヒトが知覚可能な情報(例えば、音声、楽曲、テキスト、画像、動画など)」を知覚した評価者が自らの判断でその学習特徴データに対して付与した正解ラベルである。例えば、印象値ラベルは、学習特徴データに対応する「ヒトが知覚可能な情報」を知覚した評価者がその情報を評価して付与した評価結果を表す数値(例えば、印象を表す数値)である。
モデル学習装置1によるモデル学習処理の前処理として、学習ラベルデータが学習ラベルデータ記憶部11に格納され、学習特徴データが記憶部12に格納される。学習ラベルデータは、複数の評価者それぞれによって付与された複数の学習特徴データ(データ)それぞれに対する印象値ラベル(ラベル)を表す情報である。学習特徴データは、ヒトが知覚可能な情報を表すデータ(例えば、音声データ、楽曲データ、テキストデータ、画像データ、動画データなど)であってもよいし、このようなヒトが知覚可能な情報の特徴量を表すデータであってもよい。印象値ラベルは、学習特徴データに対応する「ヒトが知覚可能な情報(例えば、音声、楽曲、テキスト、画像、動画など)」を知覚した評価者が自らの判断でその学習特徴データに対して付与した正解ラベルである。例えば、印象値ラベルは、学習特徴データに対応する「ヒトが知覚可能な情報」を知覚した評価者がその情報を評価して付与した評価結果を表す数値(例えば、印象を表す数値)である。
≪学習ラベルデータ・学習特徴データの例示≫
学習ラベルデータの例を図4、学習特徴データの例を図5に示す。ただし、これらは一例であって本発明を限定するものではない。
図4に例示した学習ラベルデータは、ラベルデータ番号i、データ番号y(i,0)、評価者番号y(i,1)、および正解ラベルに対応する(例えば、正解ラベルである)印象値ラベルy(i,2)(ラベル)を有する。ここで、ラベルデータ番号i∈{0,1,…,I}は、学習ラベルデータの各レコードを識別する番号である。データ番号y(i,0)∈{0,1,…,J}は各学習特徴データを識別する番号である。評価者番号y(i,1)∈{0,1,…,K}は、学習特徴データに対応する情報(ヒトが知覚可能な情報。例えば、音声)の評価を行う各評価者を識別する番号である。印象値ラベルy(i,2)∈{0,1,…,C}は、学習特徴データに対応する情報(ヒトが知覚可能な情報。例えば、音声)に対する評価者による評価結果を表す数値である。例えば、値の大きな印象値ラベルy(i,2)ほど評価が高くてもよいし、逆に値の小さな印象値ラベルy(i,2)ほど評価が高くてもよい。ただし、I,J,K,Cはそれぞれ2以上の整数である。図4の例では、各ラベルデータ番号iが、評価対象の学習特徴データを識別するデータ番号y(i,0)と、データ番号y(i,0)の学習特徴データに対する評価を行った評価者を識別する評価者番号y(i,1)と、データ番号y(i,0)の学習特徴データに対して評価者番号y(i,1)の評価者が行った評価結果を表す印象値ラベルy(i,2)と、が対応付けられている。図4に例示するように、少なくとも一部の学習特徴データでは、1つの学習特徴データに複数の評価者によって複数の印象値ラベルy(i,2)が付与されているものとする。図5の例では、複数のデータ番号j=y(i,0)∈{0,1,…,J}のそれぞれと、データ番号jの学習特徴データx(j)とが対応付けられている。図5の例の学習特徴データx(j)は、音声信号や音声信号から抽出された特徴を要素とするベクトル等の特徴量である。
学習ラベルデータの例を図4、学習特徴データの例を図5に示す。ただし、これらは一例であって本発明を限定するものではない。
図4に例示した学習ラベルデータは、ラベルデータ番号i、データ番号y(i,0)、評価者番号y(i,1)、および正解ラベルに対応する(例えば、正解ラベルである)印象値ラベルy(i,2)(ラベル)を有する。ここで、ラベルデータ番号i∈{0,1,…,I}は、学習ラベルデータの各レコードを識別する番号である。データ番号y(i,0)∈{0,1,…,J}は各学習特徴データを識別する番号である。評価者番号y(i,1)∈{0,1,…,K}は、学習特徴データに対応する情報(ヒトが知覚可能な情報。例えば、音声)の評価を行う各評価者を識別する番号である。印象値ラベルy(i,2)∈{0,1,…,C}は、学習特徴データに対応する情報(ヒトが知覚可能な情報。例えば、音声)に対する評価者による評価結果を表す数値である。例えば、値の大きな印象値ラベルy(i,2)ほど評価が高くてもよいし、逆に値の小さな印象値ラベルy(i,2)ほど評価が高くてもよい。ただし、I,J,K,Cはそれぞれ2以上の整数である。図4の例では、各ラベルデータ番号iが、評価対象の学習特徴データを識別するデータ番号y(i,0)と、データ番号y(i,0)の学習特徴データに対する評価を行った評価者を識別する評価者番号y(i,1)と、データ番号y(i,0)の学習特徴データに対して評価者番号y(i,1)の評価者が行った評価結果を表す印象値ラベルy(i,2)と、が対応付けられている。図4に例示するように、少なくとも一部の学習特徴データでは、1つの学習特徴データに複数の評価者によって複数の印象値ラベルy(i,2)が付与されているものとする。図5の例では、複数のデータ番号j=y(i,0)∈{0,1,…,J}のそれぞれと、データ番号jの学習特徴データx(j)とが対応付けられている。図5の例の学習特徴データx(j)は、音声信号や音声信号から抽出された特徴を要素とするベクトル等の特徴量である。
<モデル学習処理>
次に、本実施形態のモデル学習処理を説明する。
≪ラベル推定部13の処理≫
モデル学習装置1(図1)のラベル推定部13の処理を説明する。
評価者がデータに正しくラベルを付与できる能力は一様ではなく、評価者ごとに異なる場合がある。ラベル推定部13は、評価者がデータに正しくラベルを付与できる能力、および、データに対する各ラベルの正しさの度合いを推定する。すなわち、ラベル推定部13は、複数の評価者それぞれによって付与された複数のデータそれぞれに対するラベルを表す情報(学習ラベルデータ)を入力とし、データ(学習特徴データ)に対する各ラベル(印象値ラベル)の正しさの度合いを表す指標を既知とみなし(データに対する各ラベルの正しさの度合いを表す指標が正しいとみなし)、評価者がデータに正しくラベルを付与できる能力を表す指標を更新する第1処理と、評価者がデータに正しくラベルを付与できる能力を表す指標を既知とみなし(評価者がデータに正しくラベルを付与できる能力を表す指標が正しいとみなし)、データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、を交互に繰り返し、これによって得られたデータに対する各ラベルの正しさの度合いを表す指標をラベル期待値として出力する。第1処理および第2処理の繰り返し処理は、例えば、潜在変数を求めながら解を推定していくアルゴリズムに従って行われる。得られたラベル期待値は学習部14に送られる。
次に、本実施形態のモデル学習処理を説明する。
≪ラベル推定部13の処理≫
モデル学習装置1(図1)のラベル推定部13の処理を説明する。
評価者がデータに正しくラベルを付与できる能力は一様ではなく、評価者ごとに異なる場合がある。ラベル推定部13は、評価者がデータに正しくラベルを付与できる能力、および、データに対する各ラベルの正しさの度合いを推定する。すなわち、ラベル推定部13は、複数の評価者それぞれによって付与された複数のデータそれぞれに対するラベルを表す情報(学習ラベルデータ)を入力とし、データ(学習特徴データ)に対する各ラベル(印象値ラベル)の正しさの度合いを表す指標を既知とみなし(データに対する各ラベルの正しさの度合いを表す指標が正しいとみなし)、評価者がデータに正しくラベルを付与できる能力を表す指標を更新する第1処理と、評価者がデータに正しくラベルを付与できる能力を表す指標を既知とみなし(評価者がデータに正しくラベルを付与できる能力を表す指標が正しいとみなし)、データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、を交互に繰り返し、これによって得られたデータに対する各ラベルの正しさの度合いを表す指標をラベル期待値として出力する。第1処理および第2処理の繰り返し処理は、例えば、潜在変数を求めながら解を推定していくアルゴリズムに従って行われる。得られたラベル期待値は学習部14に送られる。
本実施形態では、一例として以下の(1-a)から(1-d)を満たす場合を例示する。しかし、これは本発明を限定するものではない。
(1-a)「データに対する各ラベルの正しさの度合いを表す指標」が、データ番号j=y(i,0)∈{0,1,…,J}に対する印象値ラベルc=y(i,2)∈{0,1,…,C}が真のラベル(正しい印象値ラベル)である確率(データjに対する各ラベルcが真のラベルである確率)hj,cである。
(1-b)「評価者がデータに正しくラベルを付与できる能力を表す指標」が、真の印象値ラベルがc∈{0,1,…,C}であるデータ番号j=y(i,0)の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k=y(i,1)の評価者が印象値ラベルc’∈{0,1,…,C}を付与する(真のラベルcのデータjに対して評価者kがラベルc’を付与する確率)確率ak,c,c’である。
(1-c)「第1処理」が、確率hj,cを用いて確率ak,c,c’と各ラベルc∈{0,1,…,C}の分布qcとを更新する処理である。
(1-d)「第2処理」が、確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理である。
この例のラベル推定部13は、EMアルゴリズムによって確率ak,c,c’および分布qcと確率hj,cとを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値として学習部14に出力する。ここでは、データ番号j∈{0,1,…,J}、評価者番号k∈{0,1,…,K}、印象値ラベルc∈{0,1,…,C}を用い、学習ラベルデータのレコードからなる集合A(α,β,γ)、および各集合A(α,β,γ)に属するレコードの個数N(α,β,γ)を以下のように定義する。
A(j,k,c)={i|y(i,0)=j∧y(i,1)=k∧y(i,2)=c,∀i}
N(j,k,c)=|A(j,k,c)|
A(*,k,c)={i|y(i,1)=k∧y(i,2)=c,∀i}
N(*,k,c)=|A(*,k,c)|
A(j,*,c)={i|y(i,0)=j∧y(i,2)=c,∀i}
N(j,*,c)=|A(j,*,c)|
A(j,k,*)={i|y(i,0)=j∧y(i,1)=k,∀i}
N(j,k,*)=|A(j,k,*)|
A(j,*,*)={i|y(i,0)=j,∀i}
N(j,*,*)=|A(j,*,*)|
A(*,k,*)={i|y(i,1)=k,∀i}
N(*,k,*)=|A(*,k,*)|
A(*,*,c)={i|y(i,2)=c,∀i}
N(*,*,c)=|A(*,*,c)|
A=A(*,*,*)={∀i}
N=N(*,*,*)=|A(*,*,*)|=I+1
ただし、*は任意を示すシンボルである。集合αに対する|α|は集合αに属する要素の個数を表す。
(1-a)「データに対する各ラベルの正しさの度合いを表す指標」が、データ番号j=y(i,0)∈{0,1,…,J}に対する印象値ラベルc=y(i,2)∈{0,1,…,C}が真のラベル(正しい印象値ラベル)である確率(データjに対する各ラベルcが真のラベルである確率)hj,cである。
(1-b)「評価者がデータに正しくラベルを付与できる能力を表す指標」が、真の印象値ラベルがc∈{0,1,…,C}であるデータ番号j=y(i,0)の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k=y(i,1)の評価者が印象値ラベルc’∈{0,1,…,C}を付与する(真のラベルcのデータjに対して評価者kがラベルc’を付与する確率)確率ak,c,c’である。
(1-c)「第1処理」が、確率hj,cを用いて確率ak,c,c’と各ラベルc∈{0,1,…,C}の分布qcとを更新する処理である。
(1-d)「第2処理」が、確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理である。
この例のラベル推定部13は、EMアルゴリズムによって確率ak,c,c’および分布qcと確率hj,cとを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値として学習部14に出力する。ここでは、データ番号j∈{0,1,…,J}、評価者番号k∈{0,1,…,K}、印象値ラベルc∈{0,1,…,C}を用い、学習ラベルデータのレコードからなる集合A(α,β,γ)、および各集合A(α,β,γ)に属するレコードの個数N(α,β,γ)を以下のように定義する。
A(j,k,c)={i|y(i,0)=j∧y(i,1)=k∧y(i,2)=c,∀i}
N(j,k,c)=|A(j,k,c)|
A(*,k,c)={i|y(i,1)=k∧y(i,2)=c,∀i}
N(*,k,c)=|A(*,k,c)|
A(j,*,c)={i|y(i,0)=j∧y(i,2)=c,∀i}
N(j,*,c)=|A(j,*,c)|
A(j,k,*)={i|y(i,0)=j∧y(i,1)=k,∀i}
N(j,k,*)=|A(j,k,*)|
A(j,*,*)={i|y(i,0)=j,∀i}
N(j,*,*)=|A(j,*,*)|
A(*,k,*)={i|y(i,1)=k,∀i}
N(*,k,*)=|A(*,k,*)|
A(*,*,c)={i|y(i,2)=c,∀i}
N(*,*,c)=|A(*,*,c)|
A=A(*,*,*)={∀i}
N=N(*,*,*)=|A(*,*,*)|=I+1
ただし、*は任意を示すシンボルである。集合αに対する|α|は集合αに属する要素の個数を表す。
図2を用い、ラベル推定部13の処理の詳細を説明する。
≪ステップS131≫
ラベル推定部13の初期値設定部131(図1)は、学習ラベルデータ記憶部11に格納された学習ラベルデータ(図4)を参照し、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について確率hj,cの初期値を設定(初期化)して出力する。確率hj,cの初期値の設定方法には特に限定はないが、初期値設定部131は、例えば以下のように確率hj,cの初期値を設定する。
初期値設定部131から出力された確率hj,cの初期値はスキル推定部132に送られる。
≪ステップS131≫
ラベル推定部13の初期値設定部131(図1)は、学習ラベルデータ記憶部11に格納された学習ラベルデータ(図4)を参照し、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について確率hj,cの初期値を設定(初期化)して出力する。確率hj,cの初期値の設定方法には特に限定はないが、初期値設定部131は、例えば以下のように確率hj,cの初期値を設定する。
初期値設定部131から出力された確率hj,cの初期値はスキル推定部132に送られる。
≪ステップS132≫
スキル推定部132は、最新の確率hj,cを入力とし、以下の式(2)に従って確率ak,c,c’を推定(更新)して出力する。すなわち、スキル推定部132は、確率hj,cを既知(正しい)とみなして式(2)によって確率ak,c,c’を更新して出力する。
さらにスキル推定部132は、以下の式(3)に従って全ての印象値ラベルc∈{0,1,…,C}の分布(確率分布)qcを推定(更新)して出力する。すなわち、スキル推定部132は、確率hj,cを既知(正しい)とみなして式(3)によって分布qcを更新して出力する。
スキル推定部132で更新された新たな確率ak,c,c’および分布qcはラベル期待値推定部133に送られる。
スキル推定部132は、最新の確率hj,cを入力とし、以下の式(2)に従って確率ak,c,c’を推定(更新)して出力する。すなわち、スキル推定部132は、確率hj,cを既知(正しい)とみなして式(2)によって確率ak,c,c’を更新して出力する。
さらにスキル推定部132は、以下の式(3)に従って全ての印象値ラベルc∈{0,1,…,C}の分布(確率分布)qcを推定(更新)して出力する。すなわち、スキル推定部132は、確率hj,cを既知(正しい)とみなして式(3)によって分布qcを更新して出力する。
スキル推定部132で更新された新たな確率ak,c,c’および分布qcはラベル期待値推定部133に送られる。
≪ステップS133≫
ラベル期待値推定部133は、最新の確率ak,c,c’および分布qcを入力とし、以下の式(4)(5)に従って全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について確率hj,cを推定(更新)して出力する。すなわち、ラベル期待値推定部133は、確率ak,c,c’および分布qcを既知(正しい)とみなして式(4)(5)によって確率hj,cを更新して出力する。
ラベル期待値推定部133で更新された新たな確率hj,cはスキル推定部132に送られる。
ラベル期待値推定部133は、最新の確率ak,c,c’および分布qcを入力とし、以下の式(4)(5)に従って全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について確率hj,cを推定(更新)して出力する。すなわち、ラベル期待値推定部133は、確率ak,c,c’および分布qcを既知(正しい)とみなして式(4)(5)によって確率hj,cを更新して出力する。
ラベル期待値推定部133で更新された新たな確率hj,cはスキル推定部132に送られる。
≪ステップS134≫
制御部134は、終了条件を充足したか否かを判定する。終了条件に限定はなく、必要なレベルにまで確率hj,cが収束したことを判断できるものであれば、どのような条件を終了条件としてもよい。例えば、制御部134は、最新のステップS133の処理で更新された確率hj,cとその更新直前の確率hj,cとの差分Δhj,cが、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について予め設定された正の閾値δを下回った場合(Δhj,c<δ)に終了条件を充足したと判断してもよい。その他、制御部134は、ステップS132およびS133の繰り返し回数が閾値を超えた場合に終了条件を充足したと判断してもよい。終了条件を充足していないと判断された場合にはステップS132に戻る。一方、終了条件を充足したと判断された場合、ラベル期待値推定部133は最新の確率hj,cをラベル期待値として学習部14に出力し、学習部14は以下のステップS14の処理を実行する。
制御部134は、終了条件を充足したか否かを判定する。終了条件に限定はなく、必要なレベルにまで確率hj,cが収束したことを判断できるものであれば、どのような条件を終了条件としてもよい。例えば、制御部134は、最新のステップS133の処理で更新された確率hj,cとその更新直前の確率hj,cとの差分Δhj,cが、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について予め設定された正の閾値δを下回った場合(Δhj,c<δ)に終了条件を充足したと判断してもよい。その他、制御部134は、ステップS132およびS133の繰り返し回数が閾値を超えた場合に終了条件を充足したと判断してもよい。終了条件を充足していないと判断された場合にはステップS132に戻る。一方、終了条件を充足したと判断された場合、ラベル期待値推定部133は最新の確率hj,cをラベル期待値として学習部14に出力し、学習部14は以下のステップS14の処理を実行する。
≪学習部14の処理≫
≪ステップS14≫
学習部14は、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について、学習特徴データ記憶部12から読み出した学習特徴データx(j)(複数のデータ)とラベル期待値推定部133から送られたラベル期待値(確率)hj,c(当該データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値)との組を学習データとして用いた学習処理を行い、入力データxに対する印象値ラベルを推定するモデルλを特定する情報(例えば、モデルパラメータ)を得て出力する。入力データxは学習特徴データx(j)と同じ種別のデータであり、例えば学習特徴データx(j)と同じフォーマットのデータである。
≪ステップS14≫
学習部14は、全てのデータ番号j∈{0,1,・・,J}および全ての印象値ラベルc∈{0,1,・・・,C}について、学習特徴データ記憶部12から読み出した学習特徴データx(j)(複数のデータ)とラベル期待値推定部133から送られたラベル期待値(確率)hj,c(当該データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値)との組を学習データとして用いた学習処理を行い、入力データxに対する印象値ラベルを推定するモデルλを特定する情報(例えば、モデルパラメータ)を得て出力する。入力データxは学習特徴データx(j)と同じ種別のデータであり、例えば学習特徴データx(j)と同じフォーマットのデータである。
学習部14が行う学習処理の種別、および学習処理によって得られるモデルλの種別に限定はない。例えば、モデルλがニューラルネットワークモデルの場合、学習部14は交差エントロピー誤差を最小化するように学習を行えばよい。例えば、学習部14は次の式(6)の交差エントロピー誤差を最小化するように学習を行ってモデルλを得ればよい。
ただし、y^(j)はx(j)に対するニューラルネットワークモデルの推定値y^(j)=f(x(j))であり、fがモデルλであり、学習部14はの交差エントロピー誤差を最小化するようにfを更新してモデルλを得る。なお、y^(j)の上付き添え字の「^」は、本来、式(6)のように「y」の真上に記載されるべきであるが、記載表記の制約上から「^」を「y」の右上に記載している。モデルλがSVM(support vector machine)のような認識モデルであってもよい。例えば、モデルλがSVMである場合、学習部14は、全てのデータ番号j∈{0,1,・・,J}について、学習特徴データ記憶部12から読み出した各学習特徴データx(j)からC+1個の学習特徴データx(j)を生成し、学習特徴データx(j)と印象値ラベルcとサンプル重みとするラベル期待値hj,cとの組み合わせ(x(j),0,h_j,0),(x(j),1,h_j,1),・・・,(x(j),C,h_j,C)を学習データとし、各学習データ点間の距離が最大となるマージン最大化超平面を求めるという基準でモデルλのパラメータを学習する。なお、ラベル期待値hj,cはSVMのサンプル重みに対応する。
ただし、y^(j)はx(j)に対するニューラルネットワークモデルの推定値y^(j)=f(x(j))であり、fがモデルλであり、学習部14はの交差エントロピー誤差を最小化するようにfを更新してモデルλを得る。なお、y^(j)の上付き添え字の「^」は、本来、式(6)のように「y」の真上に記載されるべきであるが、記載表記の制約上から「^」を「y」の右上に記載している。モデルλがSVM(support vector machine)のような認識モデルであってもよい。例えば、モデルλがSVMである場合、学習部14は、全てのデータ番号j∈{0,1,・・,J}について、学習特徴データ記憶部12から読み出した各学習特徴データx(j)からC+1個の学習特徴データx(j)を生成し、学習特徴データx(j)と印象値ラベルcとサンプル重みとするラベル期待値hj,cとの組み合わせ(x(j),0,h_j,0),(x(j),1,h_j,1),・・・,(x(j),C,h_j,C)を学習データとし、各学習データ点間の距離が最大となるマージン最大化超平面を求めるという基準でモデルλのパラメータを学習する。なお、ラベル期待値hj,cはSVMのサンプル重みに対応する。
<推定処理>
次に、本実施形態の推定処理を説明する。
上述のようにモデル学習装置1から出力されたモデルλを特定する情報は、ラベル推定装置15(図3)のモデル記憶部151に格納される。推定部152には、上述した学習特徴データx(j)と同じ種別の入力データxが入力される。推定部152はモデル記憶部151からモデルλを特定する情報を読み込み、モデルλに対して入力データxを適用し、入力データxに対するラベルyを推定して出力する。推定部152は1つの入力データxに対して、1つのラベルyを出力してもよいし、複数のラベルyを出力してもよいし、複数のラベルyの確率を出力してもよい。
次に、本実施形態の推定処理を説明する。
上述のようにモデル学習装置1から出力されたモデルλを特定する情報は、ラベル推定装置15(図3)のモデル記憶部151に格納される。推定部152には、上述した学習特徴データx(j)と同じ種別の入力データxが入力される。推定部152はモデル記憶部151からモデルλを特定する情報を読み込み、モデルλに対して入力データxを適用し、入力データxに対するラベルyを推定して出力する。推定部152は1つの入力データxに対して、1つのラベルyを出力してもよいし、複数のラベルyを出力してもよいし、複数のラベルyの確率を出力してもよい。
[第2実施形態]
次に本発明の第2実施形態を説明する。以下では、既に説明した事項との相違点を中心に説明し、説明済みの事項については同じ参照番号を用いて説明を簡略化する。
第1実施形態では、EMアルゴリズムによって、「データに対する各ラベルの正しさの度合いを表す指標」である確率hj,cと、「評価者がデータに正しくラベルを付与できる能力を表す指標」である確率ak,c,c’とを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値としていた。しかし、1つのデータ番号y(i,0)あたり(すなわち、学習特徴データあたり)の印象値ラベルy(i,2)の数が少ない場合、上述の推定過程において確率hj,cや確率ak,c,c’が急峻に局所解に陥り、本来の適切なラベル期待値が得られなくなる場合がある。例えば、C=5の例におけるステップS132およびS133(図2)の1回目の処理において、確率hj,cがhj,0=0,hj,1=0,hj,2=0,hj,3=1,hj,4=0,hj,5=0と一意に決定され、各確率ak,c,c’も0や1に一意に決定され、それ以降の繰り返しで確率hj,cやak,c,c’が更新されない状態になる場合がある。ただ、現実的には「データに対する各ラベルの正しさの度合いを表す指標」である確率hj,cや「評価者がデータに正しくラベルを付与できる能力を表す指標」である確率ak,c,c’が0や1といった決定的な値になることは考えにくい。そこで第2実施形態では、変分ベイズ法を用い、「評価者がデータに正しくラベルを付与できる能力」を単純な確率ではなく、ディレクレ分布に従った分布として定義する。これにより、局所解に急峻に陥らせることを防ぐ。
次に本発明の第2実施形態を説明する。以下では、既に説明した事項との相違点を中心に説明し、説明済みの事項については同じ参照番号を用いて説明を簡略化する。
第1実施形態では、EMアルゴリズムによって、「データに対する各ラベルの正しさの度合いを表す指標」である確率hj,cと、「評価者がデータに正しくラベルを付与できる能力を表す指標」である確率ak,c,c’とを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値としていた。しかし、1つのデータ番号y(i,0)あたり(すなわち、学習特徴データあたり)の印象値ラベルy(i,2)の数が少ない場合、上述の推定過程において確率hj,cや確率ak,c,c’が急峻に局所解に陥り、本来の適切なラベル期待値が得られなくなる場合がある。例えば、C=5の例におけるステップS132およびS133(図2)の1回目の処理において、確率hj,cがhj,0=0,hj,1=0,hj,2=0,hj,3=1,hj,4=0,hj,5=0と一意に決定され、各確率ak,c,c’も0や1に一意に決定され、それ以降の繰り返しで確率hj,cやak,c,c’が更新されない状態になる場合がある。ただ、現実的には「データに対する各ラベルの正しさの度合いを表す指標」である確率hj,cや「評価者がデータに正しくラベルを付与できる能力を表す指標」である確率ak,c,c’が0や1といった決定的な値になることは考えにくい。そこで第2実施形態では、変分ベイズ法を用い、「評価者がデータに正しくラベルを付与できる能力」を単純な確率ではなく、ディレクレ分布に従った分布として定義する。これにより、局所解に急峻に陥らせることを防ぐ。
<構成>
図6に例示するように、本実施形態のモデル学習装置2は、学習ラベルデータ記憶部11、学習特徴データ記憶部12、ラベル推定部23、および学習部14を有する。ラベル推定部23は、初期値設定部131、スキル推定部232、ラベル期待値推定部233、および制御部134を有する。
図6に例示するように、本実施形態のモデル学習装置2は、学習ラベルデータ記憶部11、学習特徴データ記憶部12、ラベル推定部23、および学習部14を有する。ラベル推定部23は、初期値設定部131、スキル推定部232、ラベル期待値推定部233、および制御部134を有する。
<前処理>
第1実施形態と同じ前処理が行われる。
第1実施形態と同じ前処理が行われる。
<モデル学習処理>
次に、本実施形態のモデル学習処理を説明する。
≪ラベル推定部23の処理≫
モデル学習装置2(図6)のラベル推定部23の処理を説明する。
本実施形態では、一例として以下の(2-a)から(2-d)を満たす場合を例示する。しかし、これは本発明を限定するものではない。
(2-a)「データに対する各ラベルの正しさの度合いを表す指標」が、データ番号j=y(i,0)∈{0,1,…,J}に対する印象値ラベルc=y(i,2)∈{0,1,…,C}が真のラベル(正しい印象値ラベル)である確率(データjに対する各ラベルcが真のラベルである確率)hj,cである。
(2-b)「評価者がデータに正しくラベルを付与できる能力を表す指標」が、真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が正しくラベル付与できる度合いを表す確率分布(真のラベルcのデータjに対して評価者kが正しくラベル付与できる度合いを表す確率分布)を特定するディレクレ分布のパラメータμk,cである。
(2-c)「第1処理」が、確率hj,cを用いてパラメータμk,cと各ラベルc∈{0,1,…,C}の分布qcの確率分布を特定するディレクレ分布のパラメータρとを更新する処理である。
(2-d)「第2処理」は、パラメータμk,cおよびパラメータρを用いて確率hj,cを更新する処理である。
この例のラベル推定部23は、変分ベイズ法によってパラメータμk,cおよびρと確率hj,cとを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値として学習部14に出力する。
次に、本実施形態のモデル学習処理を説明する。
≪ラベル推定部23の処理≫
モデル学習装置2(図6)のラベル推定部23の処理を説明する。
本実施形態では、一例として以下の(2-a)から(2-d)を満たす場合を例示する。しかし、これは本発明を限定するものではない。
(2-a)「データに対する各ラベルの正しさの度合いを表す指標」が、データ番号j=y(i,0)∈{0,1,…,J}に対する印象値ラベルc=y(i,2)∈{0,1,…,C}が真のラベル(正しい印象値ラベル)である確率(データjに対する各ラベルcが真のラベルである確率)hj,cである。
(2-b)「評価者がデータに正しくラベルを付与できる能力を表す指標」が、真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が正しくラベル付与できる度合いを表す確率分布(真のラベルcのデータjに対して評価者kが正しくラベル付与できる度合いを表す確率分布)を特定するディレクレ分布のパラメータμk,cである。
(2-c)「第1処理」が、確率hj,cを用いてパラメータμk,cと各ラベルc∈{0,1,…,C}の分布qcの確率分布を特定するディレクレ分布のパラメータρとを更新する処理である。
(2-d)「第2処理」は、パラメータμk,cおよびパラメータρを用いて確率hj,cを更新する処理である。
この例のラベル推定部23は、変分ベイズ法によってパラメータμk,cおよびρと確率hj,cとを交互に推定し、各j∈{0,1,…,J}およびc∈{0,1,…,C}について最適な確率hj,cをラベル期待値として学習部14に出力する。
図7を用い、ラベル推定部23の処理の詳細を例示する。
≪ステップS131≫
ラベル推定部23の初期値設定部131(図6)は、第1実施形態で説明したステップS131の処理を実行し、確率hj,cの初期値を設定(初期化)して出力する。初期値設定部131から出力された確率hj,cの初期値はスキル推定部232に送られる。
≪ステップS131≫
ラベル推定部23の初期値設定部131(図6)は、第1実施形態で説明したステップS131の処理を実行し、確率hj,cの初期値を設定(初期化)して出力する。初期値設定部131から出力された確率hj,cの初期値はスキル推定部232に送られる。
≪ステップS232≫
スキル推定部232は、確率hj,cを用いてパラメータμk,cと各印象値ラベルc∈{0,1,…,C}の分布qcの確率分布を特定するパラメータρとを更新する。以下に詳細に説明する。
真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が正しくラベル付与できる度合いを表す確率分布ak,cをディレクレ分布に従って次の式(7)のように与える。
ここでμk,cは以下のようなディリクレ分布のパラメータである。
確率分布ak,cは以下のような分布である。μ(c’) k,cは0以上の実数である。
ak,c,c’は真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が印象値ラベルc’∈{0,1,…,C}を付与する確率を示している。ak,c,c’は0以上1以下の実数であって以下の関係を満たす。
またΓはガンマ関数である。
スキル推定部232は、確率hj,cを用いてパラメータμk,cと各印象値ラベルc∈{0,1,…,C}の分布qcの確率分布を特定するパラメータρとを更新する。以下に詳細に説明する。
真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が正しくラベル付与できる度合いを表す確率分布ak,cをディレクレ分布に従って次の式(7)のように与える。
ここでμk,cは以下のようなディリクレ分布のパラメータである。
確率分布ak,cは以下のような分布である。μ(c’) k,cは0以上の実数である。
ak,c,c’は真の印象値ラベルc∈{0,1,…,C}のデータ番号j∈{0,1,…,J}の情報(ヒトが知覚可能な情報。例えば、音声)に対して評価者番号k∈{0,1,…,K}の評価者が印象値ラベルc’∈{0,1,…,C}を付与する確率を示している。ak,c,c’は0以上1以下の実数であって以下の関係を満たす。
またΓはガンマ関数である。
以上に基づき、スキル推定部232は、最新の確率hj,cを入力とし、すべての評価者番号k∈{0,1,…,K}および印象値ラベルc,c’∈{0,1,…,C}について、式(7)に従って確率分布ak,cを特定するディリクレ分布のパラメータμk,cを以下の式(8)のように更新する。
すなわち、スキル推定部232は、式(8)の右辺を新たなμ(c’) k,cとする。μ(c’) k,cの初期値に限定はないが、例えばμ(c’) k,cの初期値をμ(c’) k,c=1とする。なお、式(8)のように、「μ(c’) k,c」の下付き添え字の「k,c」は本来「(c’)」の真下に記載すべきであるが、記載表記の制約上、「(c’)」の右下に記載する場合がある。
すなわち、スキル推定部232は、式(8)の右辺を新たなμ(c’) k,cとする。μ(c’) k,cの初期値に限定はないが、例えばμ(c’) k,cの初期値をμ(c’) k,c=1とする。なお、式(8)のように、「μ(c’) k,c」の下付き添え字の「k,c」は本来「(c’)」の真下に記載すべきであるが、記載表記の制約上、「(c’)」の右下に記載する場合がある。
同様に、すべての印象値ラベルc∈{0,1,…,C}の分布qcの確率分布qをディレクレ分布に従って次の式(9)のように与える。
ここでqはパラメータq=(q0,q1,…,qc’,…,qC)であり、ρはディリクレ分布のパラメータρ=(ρ0,ρ1,…,ρc’,…,ρC)である。qc’およびρc’は正実数である。
ここでqはパラメータq=(q0,q1,…,qc’,…,qC)であり、ρはディリクレ分布のパラメータρ=(ρ0,ρ1,…,ρc’,…,ρC)である。qc’およびρc’は正実数である。
以上に基づき、スキル推定部232は、最新の確率hj,cを入力とし、すべての印象値ラベルc∈{0,1,…,C}について、次の式(10)のようにディリクレ分布のパラメータρcを更新する。
すなわち、スキル推定部232は、式(10)の右辺を新たなディリクレ分布のパラメータρcとする。ρcの初期値に限定はないが、例えばρcの初期値をρc=1とする。
スキル推定部232で更新された新たなμk,cおよびρはラベル期待値推定部233に送られる。
すなわち、スキル推定部232は、式(10)の右辺を新たなディリクレ分布のパラメータρcとする。ρcの初期値に限定はないが、例えばρcの初期値をρc=1とする。
スキル推定部232で更新された新たなμk,cおよびρはラベル期待値推定部233に送られる。
≪ステップS233≫
ラベル期待値推定部233は、最新のパラメータμk,cおよびパラメータρを入力とし、これらを用いて確率hj,cを以下の式(11)(12)のように推定(更新)して出力する。
ここでΨはディガンマ関数であり、ガンマ関数の逆関数を示す。ラベル期待値推定部233で更新された新たな確率hj,cはスキル推定部232に送られる。
ラベル期待値推定部233は、最新のパラメータμk,cおよびパラメータρを入力とし、これらを用いて確率hj,cを以下の式(11)(12)のように推定(更新)して出力する。
ここでΨはディガンマ関数であり、ガンマ関数の逆関数を示す。ラベル期待値推定部233で更新された新たな確率hj,cはスキル推定部232に送られる。
≪ステップS134≫
第1実施形態で説明したように、制御部134は終了条件を充足したか否かを判定する。終了条件を充足していないと判断された場合にはステップS132に戻る。一方、終了条件を充足したと判断された場合、ラベル期待値推定部133は最新の確率hj,cをラベル期待値として学習部14に出力し、学習部14は第1実施形態で説明したステップS14の処理を実行する。その後実行される学習部14の処理およびラベル推定装置15による推定処理は、第1実施形態で説明した通りである。
第1実施形態で説明したように、制御部134は終了条件を充足したか否かを判定する。終了条件を充足していないと判断された場合にはステップS132に戻る。一方、終了条件を充足したと判断された場合、ラベル期待値推定部133は最新の確率hj,cをラベル期待値として学習部14に出力し、学習部14は第1実施形態で説明したステップS14の処理を実行する。その後実行される学習部14の処理およびラベル推定装置15による推定処理は、第1実施形態で説明した通りである。
[実験データ]
図8は、評価者の総数を269名とし、1つのデータ番号y(i,0)に対応する音声ごとに2名ずつの評価者が音声の印象を「高/低」の2値で評価し、それらの評価結果を表す2値の印象値ラベルy(i,2)∈{0,1}を付与して得られた学習ラベルデータを用い、第1,2実施形態の方法で求めたラベル期待値hj,c(データ番号j∈{0,1,…,268}に対する印象値ラベルc∈{0,1}が真のラベルである確率hj,c)を例示した図である。印象値ラベルcは、1に近ければ近いほど印象が「高」であることを示し、0に近ければ近いほど印象が「低」を示す。縦軸の値は第1実施形態の方法(EMアルゴリズム)で推定されたラベル期待値(確率)hj,cを表し、横軸の値は第2実施形態の方法(変分ベイズ法)で推定されたラベル期待値(確率)hj,cを表す。図中の×マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者が共に「低」の印象、すなわち印象値ラベルc=0を付した事象を表す。〇マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者が共に「高」の印象、すなわち印象値ラベルc=1を付した事象を表す。△マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者の印象が分かれた事象、すなわち、一方の評価者が印象値ラベルc=0を付し、他方の評価者が印象値ラベルc=1を付した事象を表す。この図から分かるように、横軸の値が0または1である事象が多く、第1実施形態の方法(EMアルゴリズム)で推定されたラベル期待値hj,cは1または0の局所解に収束することも多いことが分かる。一方、縦軸の値が0または1である事象は少なく、第2実施形態の方法(変分ベイズ法)で推定されたラベル期待値hj,cは局所解に収束することが少なく、ラベル期待値hj,cが0から1の間に広く分布していることが分かる。
図8は、評価者の総数を269名とし、1つのデータ番号y(i,0)に対応する音声ごとに2名ずつの評価者が音声の印象を「高/低」の2値で評価し、それらの評価結果を表す2値の印象値ラベルy(i,2)∈{0,1}を付与して得られた学習ラベルデータを用い、第1,2実施形態の方法で求めたラベル期待値hj,c(データ番号j∈{0,1,…,268}に対する印象値ラベルc∈{0,1}が真のラベルである確率hj,c)を例示した図である。印象値ラベルcは、1に近ければ近いほど印象が「高」であることを示し、0に近ければ近いほど印象が「低」を示す。縦軸の値は第1実施形態の方法(EMアルゴリズム)で推定されたラベル期待値(確率)hj,cを表し、横軸の値は第2実施形態の方法(変分ベイズ法)で推定されたラベル期待値(確率)hj,cを表す。図中の×マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者が共に「低」の印象、すなわち印象値ラベルc=0を付した事象を表す。〇マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者が共に「高」の印象、すなわち印象値ラベルc=1を付した事象を表す。△マークは、そのデータ番号y(i,0)に対応する音声に対して2名の評価者の印象が分かれた事象、すなわち、一方の評価者が印象値ラベルc=0を付し、他方の評価者が印象値ラベルc=1を付した事象を表す。この図から分かるように、横軸の値が0または1である事象が多く、第1実施形態の方法(EMアルゴリズム)で推定されたラベル期待値hj,cは1または0の局所解に収束することも多いことが分かる。一方、縦軸の値が0または1である事象は少なく、第2実施形態の方法(変分ベイズ法)で推定されたラベル期待値hj,cは局所解に収束することが少なく、ラベル期待値hj,cが0から1の間に広く分布していることが分かる。
[その他の変形例等]
なお、本発明は上述の実施形態に限定されるものではない。例えば、第1実施形態では、初期値設定部131が確率hj,cの初期値を設定し(ステップS131)、スキル推定部132が確率hj,cを用いて確率ak,c,c’および分布qcを更新する処理(ステップS132)を行った後に、ラベル期待値推定部133が確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理(ステップS133)を行うことを繰り返した。この順序が最適であるが、スキル推定部132の処理とラベル期待値推定部133の処理との順序を入れ替えてもよい。すなわち、初期値設定部131が確率ak,c,c’および分布qcの初期値を設定し、ラベル期待値推定部133が確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理(ステップS133)を行った後に、スキル推定部132が確率hj,cを用いて確率ak,c,c’および分布qcを更新する処理(ステップS132)を行うことを繰り返してもよい。この場合にも終了条件を満たした時点で最新の確率hj,cをラベル期待値hj,cとすればよい。確率ak,c,c’の初期値としては、データ番号jの「ヒトが知覚可能な情報(音声等)」に対して評価者番号kの評価者が付した印象値ラベルc’に対し、同じデータ番号jの「ヒトが知覚可能な情報(音声等)」に対して他の評価者が同じ評価値ラベルc’を付した数が多いほど大きくなる値(0以上1以下の値)を例示できる。分布qcの初期値としては1を例示できる。
なお、本発明は上述の実施形態に限定されるものではない。例えば、第1実施形態では、初期値設定部131が確率hj,cの初期値を設定し(ステップS131)、スキル推定部132が確率hj,cを用いて確率ak,c,c’および分布qcを更新する処理(ステップS132)を行った後に、ラベル期待値推定部133が確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理(ステップS133)を行うことを繰り返した。この順序が最適であるが、スキル推定部132の処理とラベル期待値推定部133の処理との順序を入れ替えてもよい。すなわち、初期値設定部131が確率ak,c,c’および分布qcの初期値を設定し、ラベル期待値推定部133が確率ak,c,c’および分布qcを用いて確率hj,cを更新する処理(ステップS133)を行った後に、スキル推定部132が確率hj,cを用いて確率ak,c,c’および分布qcを更新する処理(ステップS132)を行うことを繰り返してもよい。この場合にも終了条件を満たした時点で最新の確率hj,cをラベル期待値hj,cとすればよい。確率ak,c,c’の初期値としては、データ番号jの「ヒトが知覚可能な情報(音声等)」に対して評価者番号kの評価者が付した印象値ラベルc’に対し、同じデータ番号jの「ヒトが知覚可能な情報(音声等)」に対して他の評価者が同じ評価値ラベルc’を付した数が多いほど大きくなる値(0以上1以下の値)を例示できる。分布qcの初期値としては1を例示できる。
同様に、第2実施形態では、初期値設定部131が確率hj,cの初期値を設定し(ステップS131)、スキル推定部232が確率hj,cを用いてパラメータμk,cとパラメータρとを更新する処理(ステップS232)を行った後に、ラベル期待値推定部233がパラメータμk,cおよびパラメータρを用いて確率hj,cを更新する処理(ステップS233)を行うことを繰り返した。この順序が最適であるが、スキル推定部232の処理とラベル期待値推定部233の処理との順序を入れ替えてもよい。すなわち、初期値設定部131がパラメータμk,cとパラメータρとの初期値を設定し、ラベル期待値推定部233がパラメータμk,cおよびパラメータρを用いて確率hj,cを更新する処理(ステップS233)を行った後に、スキル推定部232が確率hj,cを用いてパラメータμk,cとパラメータρとを更新する処理(ステップS232)を行うことを繰り返してもよい。この場合にも終了条件を満たした時点で最新の確率hj,cをラベル期待値hj,cとすればよい。
その他、第1,2実施形態のラベル推定部13,23で得られたラベル期待値hj,cに代えて、ラベル推定部13,23とは異なる方法で得られたラベル期待値hj,cまたは外部から入力されたラベル期待値hj,cが学習部14に入力され、前述したステップS14の処理が実行されてもよい。
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
上記の各装置は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。
コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されるのではなく、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。
1,2 モデル学習装置
15 ラベル推定装置
15 ラベル推定装置
Claims (8)
- 複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る、モデル学習装置。
- 請求項1のモデル学習装置であって、
前記ラベル期待値は、
複数の評価者それぞれによって付与された前記複数のデータそれぞれに対するラベルを表す情報を入力とし、
前記データに対する各ラベルの正しさの度合いを表す指標を既知とみなし、前記評価者が前記データに正しくラベルを付与できる能力を表す指標を更新する第1処理と、
前記評価者が前記データに正しくラベルを付与できる能力を表す指標を既知とみなし、前記データに対する各ラベルの正しさの度合いを表す指標を更新する第2処理と、
を交互に繰り返すことで得られた、前記データに対する各ラベルの正しさの度合いを表す指標である、モデル学習装置。 - 請求項2のモデル学習装置であって、
(1)前記データに対する各ラベルの正しさの度合いを表す指標は、前記データjに対する各ラベルcが真のラベルである確率hj,cであり、前記評価者が前記データに正しくラベルを付与できる能力を表す指標は、真のラベルcの前記データjに対して前記評価者kがラベルc’を付与する確率ak,c,c’であり、前記第1処理は、前記確率hj,cを用いて前記確率ak,c,c’と各ラベルcの分布qcとを更新する処理であり、前記第2処理は、前記確率ak,c,c’および前記分布qcを用いて前記確率hj,cを更新する処理である、または
(2)前記データに対する各ラベルの正しさの度合いを表す指標は、前記データjに対する各ラベルcが真のラベルである確率hj,cであり、前記評価者が前記データに正しくラベルを付与できる能力を表す指標は、真のラベルcの前記データjに対して前記評価者kが正しくラベル付与できる度合いを表す確率分布を特定するパラメータμk,cであり、前記第1処理は、前記確率hj,cを用いて前記パラメータμk,cと各ラベルcの分布qcの確率分布を特定するパラメータρとを更新する処理であり、前記第2処理は、前記パラメータμk,cおよび前記パラメータρを用いて前記確率hj,cを更新する処理である、モデル学習装置。 - 請求項1から3の何れかの学習装置で得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定するラベル推定装置。
- 複数のデータと前記データに対する各ラベルの正しさの度合いを表す指標であるラベル期待値との組を学習データとして用いた学習処理を行い、入力データに対するラベルを推定するモデルを得る、モデル学習方法。
- 請求項1から3の何れかの学習装置で得られたモデルに対して入力データを適用し、前記入力データに対するラベルを推定するラベル推定方法。
- 請求項1から3の何れかのモデル学習装置としてコンピュータを機能させるためのプログラム。
- 請求項4のラベル推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/429,875 US20220108217A1 (en) | 2019-02-12 | 2020-01-29 | Model learning apparatus, label estimation apparatus, method and program thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019022353A JP7298174B2 (ja) | 2019-02-12 | 2019-02-12 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
JP2019-022353 | 2019-10-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020166321A1 true WO2020166321A1 (ja) | 2020-08-20 |
Family
ID=72044865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2020/003061 WO2020166321A1 (ja) | 2019-02-12 | 2020-01-29 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220108217A1 (ja) |
JP (1) | JP7298174B2 (ja) |
WO (1) | WO2020166321A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529104A (zh) * | 2020-12-23 | 2021-03-19 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆故障预测模型生成方法、故障预测方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282686A (ja) * | 2008-05-21 | 2009-12-03 | Toshiba Corp | 分類モデル学習装置および分類モデル学習方法 |
JP2011203991A (ja) * | 2010-03-25 | 2011-10-13 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8027939B2 (en) * | 2006-11-02 | 2011-09-27 | Siemens Medical Solutions Usa, Inc. | Automatic labeler assignment using a model built from multi-labeler data |
JP6946081B2 (ja) | 2016-12-22 | 2021-10-06 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2019022353A (ja) | 2017-07-19 | 2019-02-07 | 株式会社明電舎 | オフセット推定器、および、インバータ制御装置、および、オフセット推定方法 |
US11556777B2 (en) * | 2017-11-15 | 2023-01-17 | Uatc, Llc | Continuous convolution and fusion in neural networks |
-
2019
- 2019-02-12 JP JP2019022353A patent/JP7298174B2/ja active Active
-
2020
- 2020-01-29 US US17/429,875 patent/US20220108217A1/en active Pending
- 2020-01-29 WO PCT/JP2020/003061 patent/WO2020166321A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282686A (ja) * | 2008-05-21 | 2009-12-03 | Toshiba Corp | 分類モデル学習装置および分類モデル学習方法 |
JP2011203991A (ja) * | 2010-03-25 | 2011-10-13 | Sony Corp | 情報処理装置、情報処理方法、およびプログラム |
Non-Patent Citations (1)
Title |
---|
TANAKA, DAIKI ET AL., JOINT OPTIMIZATION FRAMEWORK FOR LEARNING WITH NOISY LABELS, 30 March 2018 (2018-03-30), pages 1 - 11, XP033473469, Retrieved from the Internet <URL:https://arxiv.org/pdf/1803.11364.pdf> [retrieved on 20200406] * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529104A (zh) * | 2020-12-23 | 2021-03-19 | 东软睿驰汽车技术(沈阳)有限公司 | 一种车辆故障预测模型生成方法、故障预测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7298174B2 (ja) | 2023-06-27 |
US20220108217A1 (en) | 2022-04-07 |
JP2020129322A (ja) | 2020-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190378044A1 (en) | Processing dynamic data within an adaptive oracle-trained learning system using curated training data for incremental re-training of a predictive model | |
US20200302337A1 (en) | Automatic selection of high quality training data using an adaptive oracle-trained learning framework | |
CN109086654B (zh) | 手写模型训练方法、文本识别方法、装置、设备及介质 | |
CN112529153B (zh) | 基于卷积神经网络的bert模型的微调方法及装置 | |
CN111310846A (zh) | 一种选取样本图像的方法、装置、存储介质和服务器 | |
JP7222274B2 (ja) | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム | |
CN108052862B (zh) | 年龄预估方法和装置 | |
US20220067588A1 (en) | Transforming a trained artificial intelligence model into a trustworthy artificial intelligence model | |
CN111834004B (zh) | 一种基于中心化空间学习的未知疾病类别识别方法及装置 | |
JP6856503B2 (ja) | 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム | |
CN110163252A (zh) | 数据分类方法及装置、电子设备、存储介质 | |
CN113902944A (zh) | 模型的训练及场景识别方法、装置、设备及介质 | |
WO2020166321A1 (ja) | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム | |
CN113780365B (zh) | 样本生成方法和装置 | |
CN113220883B (zh) | 一种文本分类方法、装置及存储介质 | |
CN116662555B (zh) | 一种请求文本处理方法、装置、电子设备及存储介质 | |
CN114298299A (zh) | 基于课程学习的模型训练方法、装置、设备及存储介质 | |
CN117541853A (zh) | 一种基于类别解耦的分类知识蒸馏模型训练方法和装置 | |
CN110059743B (zh) | 确定预测的可靠性度量的方法、设备和存储介质 | |
CN116109907B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
JP2019159835A (ja) | 学習プログラム、学習方法および学習装置 | |
CN116956171A (zh) | 基于ai模型的分类方法、装置、设备及存储介质 | |
US11210604B1 (en) | Processing dynamic data within an adaptive oracle-trained learning system using dynamic data set distribution optimization | |
CN116152612A (zh) | 一种长尾图像识别方法及相关装置 | |
CN114970732A (zh) | 分类模型的后验校准方法、装置、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20754973 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20754973 Country of ref document: EP Kind code of ref document: A1 |