JP6642878B1 - コンピュータ、構成方法、及びプログラム - Google Patents
コンピュータ、構成方法、及びプログラム Download PDFInfo
- Publication number
- JP6642878B1 JP6642878B1 JP2018237649A JP2018237649A JP6642878B1 JP 6642878 B1 JP6642878 B1 JP 6642878B1 JP 2018237649 A JP2018237649 A JP 2018237649A JP 2018237649 A JP2018237649 A JP 2018237649A JP 6642878 B1 JP6642878 B1 JP 6642878B1
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning data
- learning
- data set
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 220
- 238000005070 sampling Methods 0.000 claims abstract description 35
- 230000015654 memory Effects 0.000 claims abstract description 30
- 238000000605 extraction Methods 0.000 claims description 55
- 238000012552 review Methods 0.000 claims description 54
- 238000010801 machine learning Methods 0.000 claims description 34
- 238000004364 calculation method Methods 0.000 claims description 24
- 238000010586 diagram Methods 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 42
- 239000013598 vector Substances 0.000 description 18
- 239000008186 active pharmaceutical agent Substances 0.000 description 16
- 201000002487 asphyxiating thoracic dystrophy 1 Diseases 0.000 description 7
- 201000002486 asphyxiating thoracic dystrophy 2 Diseases 0.000 description 5
- 238000002372 labelling Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- MSTPNDZQVGSTET-UHFFFAOYSA-M sodium;2-anilino-6-sulfanylidene-1h-1,3,5-triazine-4-thiolate Chemical compound [Na+].N1C(=S)N=C([S-])N=C1NC1=CC=CC=C1 MSTPNDZQVGSTET-UHFFFAOYSA-M 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 240000006829 Ficus sundaica Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000009291 secondary effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Abstract
Description
本発明の一実施形態に係るコンピュータ1の構成について、図1を参照して説明する。図1は、コンピュータ1の構成例を示すブロック図である。なお、図1に示されるコンピュータ1の構成は、あくまでも一例に過ぎない。後述するように、コンピュータ1が実行する各処理を、複数のコンピュータで実行することもできる。
本実施形態に係る学習処理Sにて構築される学習済みモデルMは、データセットDSに含まれる各データDiを入力とし、該データDiが予め定められた抽出条件を満たす程度を表すスコアSiを出力とするモデル(アルゴリズム)である。この学習済みモデルMは、コンピュータ1がマシンレビュー処理を実施するために用いられる。
本発明の一実施形態に係る構成処理を含む学習処理Sについて、図2〜図4を参照して説明する。図2は、学習処理Sにおける処理の流れを示すフロー図である。図3は、学習処理Sの前半におけるデータの流れを示すフロー図である。図4は、学習処理Sの後半におけるデータの流れを示すフロー図である。
学習用データサンプリング処理S1は、データセットDSから予め定められた個数m(m<n)のデータをサンプリングする処理である。以下、データセットDSに含まれるデータD1,D2,…,Dnのうち、学習用データサンプリング処理S1にてサンプリングされたデータを、学習用データTDj(j=1,2,…,m)と記載する。学習用データTDjは、特許請求の範囲における「第1学習用データ」の一例である。また、学習用データTD1,TD2,…,TDmの集合を、学習用データセットTDSと記載する。
学習用データラベル付与処理S2は、学習用データセットTDSに含まれる各学習用データTDjに、そのデータが予め定められた抽出条件を満たすか否かを示すラベルLjを付与する処理である。各学習用データTDjが抽出条件を満たすか否かの判断は、レビューア(一般の又は専門性の低いレビューアであってもよいし、特定の又は専門性の高いレビューアであってもよいが、後者であることが望ましい)が行う。
クラスタリング処理S3は、データセットDSに含まれるデータD1,D2,…,Dnをクラスタリングする処理である。クラスタリング処理S3は、例えば、以下のように実行される。まず、データセットDSに含まれる各データDiをベクトルVi(予め定められたベクトル空間Eの元)によって表現する。次に、データセットDSに含まれるデータD1,D2,…,Dnを、ベクトル空間EにおけるベクトルV1,V2,…,Vnの配置に基づいてクラスタリングする。すなわち、対応するベクトルVi,Vi’間の距離d(Vi,Vi’)が小さいデータDi,Di’は同じクラスタに属するように、逆に、対応するベクトルVi,Vi’間の距離d(Vi,Vi’)が大きいデータDi,Di’は異なるクラスタに属するようにクラスタリングする。
なお、データDiが文書データである場合、例えば、データDiが表す文章における所定の語彙の出現回数、TF値、又はTF・IDF値を所定の順序で並べることで得られるベクトルを、データDiを表現するベクトルとして利用することができる。或いは、データDiが表す文章の所定の特徴量を所定の順序で並べたベクトルを、データDiを表現するベクトルViとして利用することができる。文章の特徴量としては、例えば、異語数、品詞数、TTR(Type Token Ratio)、CTTR(Corrected Type Token Ratio)、ユールK特性値、係り受け回数、数値比率などの文章の複雑さを表す特徴量や、文字数、語数、文数、段落数などの文章のサイズを表す特徴量などが挙げられる。
1次クラスタ分類処理S4は、クラスタC1,C2,…,Clを、各クラスタCkに属するデータの個数に応じて、希少クラスタと非希少クラスタとに分類する処理である。ここで、あるクラスタCkが希少クラスタは、例えば、そのクラスタCkに属するデータの個数が予め定められた閾値(例えば3)未満となるクラスタであり得る。また、あるクラスタCkが非希少クラスタは、例えば、そのクラスタCkに属するデータの個数が上記閾値以上となるクラスタであり得る。
2次クラスタ分類処理S5は、非希少クラスタC’1,C’2,…,C’l’を、各非希少クラスタC’kが学習用データTDjを含むか否かに応じて、余剰クラスタと非余剰クラスタとに分類する処理である。ここで、ある非希少クラスタC’kが余剰クラスタであるとは、その非希少クラスタC’kが学習用データセットTDSに含まれる学習用データTDjを含まないことを意味する。また、ある非希少クラスタC’kが非余剰クラスタであるとは、その非希少クラスタC’kが学習用データセットTDSに含まれる学習用データTDjを含むことを意味する。
追加学習用データ選択処理S6は、各余剰クラスタC”kから少なくとも1つのデータを選択する処理である。追加学習用データ選択処理S6にて選択するデータは、ユーザ(例えば、レビューア)が手動選択したデータであってもよいし、コンピュータ1が自動選択(例えば、ランダムサンプリング)したデータであってもよい。
コンピュータ1は、例えば、以下に説明する機械学習処理S7、スコア算出処理S8、エラー率算出処理S9、低スコア追加学習用データ選択処理S10、及び低スコア追加学習用データラベル付与処理S11を、エラー率算出処理S9にて算出されるエラー率ERが予め定められた閾値未満になるまで繰り返し実行してもよい。
1回目の機械学習処理S7(1)は、(a)学習用データサンプリング処理S1にてサンプリングされた学習用データTD1,TD2,…,TDmと、(b)学習用データラベル付与処理S2にて付与されたラベルL1,L2,…,Lmと、により教師データ(特許請求の範囲における「学習用データセット」の一例)を構成し、この教師データを用いて学習済みモデルM(1)を構築する処理である。
t回目(tは1以上の自然数)のスコア算出処理S8(t)は、t回目の機械学習処理S7(t)にて得られた学習済みモデルM(t)を用いて、学習用データセットTDSに含まれる各学習用データTDjのスコアSjを算出すると共に、追加学習用データセットATDSに含まれる各追加学習用データATDkのスコアTkを算出する処理である。
t回目(tは1以上の自然数)のエラー率算出処理S9は、t回目のスコア算出処理S8(t)にて得られた学習用データTD1,TD2,…,TDmのスコアS1(t),S2(t),…,Sm(t)、及び、追加学習用データATD1,ATD2,…,ATDl”のスコアT1(t),T2(t),…,Tl”(t)を参照して、学習済みモデルM(t)のエラー率ERを算出する処理である。ここでは、例えば、ラベルLjが1である(抽出条件を満たす)学習用データTDjのスコアSjが予め定められた閾値Th以下になることをエラーと見做す。
t回目(tは1以上の自然数)の低スコア追加学習用データ選択処理S10(t)は、追加学習用データセットATDSから、スコアTkの低い少なくとも1の追加学習用データATDkを選択する処理である。ただし、t−1回目までの低スコア追加学習用データ選択処理S10(1),S10(2),…,S10(t−1)にて選択された追加学習用データATDkは、t回目の低スコア追加学習用データ選択処理S10(t)では選択されないものとする。
t回目(tは1以上の自然数)の低スコア追加学習用データラベル付与処理S11は、t回目の低スコア追加学習用データ選択処理S10(t)にて選択された低スコア追加学習用データLSD(t)に、予め定められた抽出条件を満たすか否かを示すラベルL(t)を付与する処理である。
本発明の態様1に係るコンピュータは、メモリとコントローラとを備え、機械学習に供する学習用データセットを構成するコンピュータであって、前記メモリには、データセットが格納されており、前記コントローラは、前記データセットから第1学習用データをサンプリングするサンプリング処理と、前記データセットに含まれるデータをクラスタリングすることによって、複数のクラスタを生成するクラスタリング処理と、前記複数のクラスタのうち、前記第1学習用データを含まないクラスタから第2学習用データを選択する選択処理と、前記学習用データセットとして、前記第1学習用データと前記第2学習用データの少なくとも一部とを含む学習用データセットを構成する構成処理と、を実行する。
本発明の態様10に係るコンピュータは、メモリとコントローラとを備え、モデルを学習させるための学習用データセットを構成するコンピュータであって、前記メモリは、データセットを記憶しており、前記データセットは、所定の抽出条件を満たすか否かを示すラベルが付与されていない複数のラベル無しデータを少なくとも一部に含み、前記所定の抽出条件は、前記データが該抽出条件を満たすか否かの判断基準となる複数の観点から構成されるものであり、前記コントローラは、前記データセットから前記ラベル無しデータをサンプリングすることによって、レビュー用データセットを構成する処理と、前記データセットに含まれるデータをクラスタリングすることによって、複数のクラスタを生成する処理と、前記複数のクラスタの少なくとも一部に含まれる前記ラベル無しデータを、前記観点の漏れを軽減するように、前記レビュー用データセットに補充する処理と、を実行する。
本発明の態様11に係る方法は、上記態様10に記載のコンピュータを用いて、モデルを学習させるための学習用データセットを構成する方法であって、前記補充されたレビュー用データセットに含まれるラベル無しデータが、前記所定の抽出条件を満たすか否かに基づいて、レビューアが前記ラベルを該ラベル無しデータにそれぞれ付与することにより、前記モデルを学習させるための前記学習用データセットを構成する。
上記の構成によれば、上記観点の漏れを軽減することができるため、例えば、ランダムにサンプリングされたレビュー用データからなるレビュー用データセットよりも、観点の多様性が担保されたレビュー用データセットを構成することができる。これをレビューアがレビューし、ラベルを付与して学習用データセットを構成することにより、高い汎化能力を有する学習済みモデルを構築することが可能になる。特に、学習用データの量が不十分となる場合であっても、高い汎化能力を発揮するモデルを得ることができる。
Claims (11)
- メモリとコントローラとを備え、機械学習に供する学習用データセットを構成するコンピュータであって、
前記メモリには、データセットが格納されており、
前記コントローラは、
前記データセットから第1学習用データをサンプリングするサンプリング処理と、
前記データセットに含まれるデータをクラスタリングすることによって、複数のクラスタを生成するクラスタリング処理と、
前記複数のクラスタのうち、前記第1学習用データを含まないクラスタから第2学習用データを選択する選択処理と、
前記学習用データセットとして、前記第1学習用データと前記第2学習用データの少なくとも一部とを含む学習用データセットを構成する構成処理と、を実行する、
ことを特徴とするコンピュータ。 - 前記選択処理は、前記複数のクラスタのうち、前記第1学習用データを含まないクラスタであって、包含するデータの個数が予め定められた閾個数を上回るクラスタから前記第2学習用データを選択する処理である、
ことを特徴とする請求項1に記載のコンピュータ。 - 前記コントローラは、
前記データセットに含まれるデータを入力とし、該データが予め定められた抽出条件を満たす程度を表すスコアを出力とする学習済みモデルであって、前記学習用データセットを用いた機械学習により構築された学習済みモデルを用いて、前記第1学習用データ及び前記第2学習用データのスコアを算出するスコア算出処理をさらに実行し、
前記構成処理は、前記第1学習用データと前記スコアが予め定められた第1閾スコアを下回る前記第2学習用データとを含む学習用データセットを構成する処理である、
ことを特徴とする請求項1又は2に記載のコンピュータ。 - 前記コントローラは、
ユーザの指示に基づき、予め定められた抽出条件を満たす前記第1学習用データに特定のラベルを付与するラベル付与処理と、
前記データセットに含まれるデータを入力とし、該データが前記抽出条件を満たす程度を表すスコアを出力とする学習済みモデルであって、前記学習用データセットを用いた機械学習により構築された学習済みモデルを用いて、前記第1学習用データ及び前記第2学習用データのスコアを算出するスコア算出処理と、
前記ラベルが付与された前記第1学習用データであって、前記スコアが予め定められた第2閾スコアを下回る第1学習用データの個数に応じて、前記学習済みモデルのエラー率を算出するエラー率算出処理と、をさらに実行し、
前記エラー率が予め定められた閾値を下回るまで、前記構成処理を前記学習用データセットに新たな第2学習用データを追加しながら繰り返す、
ことを特徴とする請求項1〜3の何れか1項に記載のコンピュータ。 - 前記選択処理は、前記複数のクラスタのうち、第1学習用データを含まないクラスタから、ユーザの指定した第2学習用データを選択する処理である、
ことを特徴とする請求項1〜4の何れか1項に記載のコンピュータ。 - 前記コントローラは、
前記データセットに含まれるデータを入力とし、該データが予め定められた抽出条件を満たす程度を表すスコアを出力とする学習済みモデルであって、前記第1学習用データからなる初期学習用データセットを用いた機械学習により構築された学習済みモデルを用いて、前記第1学習用データ及び前記第2学習用データのスコアを算出するスコア算出処理と、
前記スコア、又は、前記第1学習用データ及び前記第2学習用データを前記スコアに応じてソートした結果を、ユーザに提示する提示処理と、をさらに実行する、
ことを特徴とする請求項1〜5の何れか1項に記載のコンピュータ。 - 前記データセットは、レビューが予め定められた抽出条件を満たすデータを抽出するヒューマンレビューの対象となるデータを含み、
前記コントローラは、
前記データセットに含まれるデータを入力とし、該データが前記抽出条件を満たす程度を表すスコアを出力とする学習済みモデルであって、前記学習用データセットを用いた機械学習により構築された学習済みモデルを用いて、前記データセットに含まれる各データのスコアを算出するマシンレビュー処理をさらに実行する、
ことを特徴とする請求項1〜6の何れか1項に記載のコンピュータ。 - データセットが格納されたメモリとコントローラとを備えたコンピュータを用いて、機械学習に供する学習用データセットを構成する構成方法であって、
前記コントローラが、前記データセットから第1学習用データをサンプリングするサンプリング処理と、
前記コントローラが、前記データセットに含まれるデータをクラスタリングすることによって、複数のクラスタを生成するクラスタリング処理と、
前記コントローラが、前記複数のクラスタのうち、前記第1学習用データを含まないクラスタから第2学習用データを選択する選択処理と、
前記コントローラが、前記学習用データセットとして、前記第1学習用データと前記第2学習用データの少なくとも一部とを含む学習用データセットを構成する構成処理と、を含んでいる、
ことを特徴とする構成方法。 - 請求項1〜7の何れか1項に記載のコンピュータに、機械学習に供する学習用データセットを構成させるプログラムであって、前記各処理を前記コンピュータに実行させるプログラム。
- メモリとコントローラとを備え、モデルを学習させるための学習用データセットを構成するコンピュータであって、
前記メモリは、データセットを記憶しており、
前記データセットは、所定の抽出条件を満たすか否かを示すラベルが付与されていない複数のラベル無しデータを少なくとも一部に含み、
前記所定の抽出条件は、前記データが該抽出条件を満たすか否かの判断基準となる複数の観点から構成されるものであり、
前記コントローラは、
前記データセットから前記ラベル無しデータをサンプリングすることによって、レビュー用データセットを構成する処理と、
前記データセットに含まれるデータをクラスタリングすることによって、複数のクラスタを生成する処理と、
前記複数のクラスタの少なくとも一部に含まれる前記ラベル無しデータを、前記観点の漏れを軽減するように、前記レビュー用データセットに補充する処理と、を実行する
ことを特徴とするコンピュータ。 - 請求項10に記載のコンピュータを用いて、モデルを学習させるための学習用データセットを構成する方法であって、
前記補充されたレビュー用データセットに含まれるラベル無しデータが、前記所定の抽出条件を満たすか否かに基づいて、レビューアが前記ラベルを該ラベル無しデータにそれぞれ付与することにより、前記モデルを学習させるための前記学習用データセットを構成する方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237649A JP6642878B1 (ja) | 2018-12-19 | 2018-12-19 | コンピュータ、構成方法、及びプログラム |
US16/590,533 US20200202253A1 (en) | 2018-12-19 | 2019-10-02 | Computer, configuration method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018237649A JP6642878B1 (ja) | 2018-12-19 | 2018-12-19 | コンピュータ、構成方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6642878B1 true JP6642878B1 (ja) | 2020-02-12 |
JP2020101856A JP2020101856A (ja) | 2020-07-02 |
Family
ID=69412088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018237649A Active JP6642878B1 (ja) | 2018-12-19 | 2018-12-19 | コンピュータ、構成方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20200202253A1 (ja) |
JP (1) | JP6642878B1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114598480A (zh) * | 2022-05-06 | 2022-06-07 | 浙江乾冠信息安全研究院有限公司 | 一种网络安全运营平台机器数据处理方法及系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11556825B2 (en) * | 2019-11-26 | 2023-01-17 | International Business Machines Corporation | Data label verification using few-shot learners |
JP7226388B2 (ja) * | 2020-04-24 | 2023-02-21 | トヨタ自動車株式会社 | 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム |
US20230250188A1 (en) | 2020-06-11 | 2023-08-10 | National University Corporation Kochi University | Humanized Anti-GPC-1 Antibody |
US20230016157A1 (en) * | 2021-07-13 | 2023-01-19 | International Business Machines Corporation | Mapping application of machine learning models to answer queries according to semantic specification |
CN114120452A (zh) * | 2021-09-02 | 2022-03-01 | 北京百度网讯科技有限公司 | 一种活体检测模型训练方法、装置、电子设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SG178474A1 (en) * | 2009-08-17 | 2012-03-29 | Mol Accessportal Sdn Bhd | Value exchange system for use within an internet-based social network |
-
2018
- 2018-12-19 JP JP2018237649A patent/JP6642878B1/ja active Active
-
2019
- 2019-10-02 US US16/590,533 patent/US20200202253A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114598480A (zh) * | 2022-05-06 | 2022-06-07 | 浙江乾冠信息安全研究院有限公司 | 一种网络安全运营平台机器数据处理方法及系统 |
CN114598480B (zh) * | 2022-05-06 | 2022-08-23 | 浙江乾冠信息安全研究院有限公司 | 一种网络安全运营平台机器数据处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20200202253A1 (en) | 2020-06-25 |
JP2020101856A (ja) | 2020-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6642878B1 (ja) | コンピュータ、構成方法、及びプログラム | |
Kim et al. | Transparency and accountability in AI decision support: Explaining and visualizing convolutional neural networks for text information | |
US11922308B2 (en) | Generating neighborhood convolutions within a large network | |
US11270225B1 (en) | Methods and apparatus for asynchronous and interactive machine learning using word embedding within text-based documents and multimodal documents | |
CN108399228B (zh) | 文章分类方法、装置、计算机设备及存储介质 | |
Villegas et al. | General overview of ImageCLEF at the CLEF 2015 labs | |
US8386574B2 (en) | Multi-modality classification for one-class classification in social networks | |
US20180293505A1 (en) | Method for clustering nodes of a textual network taking into account textual content, computer-readable storage device and system implementing said method | |
Dash et al. | Summarizing user-generated textual content: Motivation and methods for fairness in algorithmic summaries | |
US20130204835A1 (en) | Method of extracting named entity | |
Kotzias et al. | Deep multi-instance transfer learning | |
US11886515B2 (en) | Hierarchical clustering on graphs for taxonomy extraction and applications thereof | |
JPWO2014073206A1 (ja) | 情報処理装置、及び、情報処理方法 | |
CN112307336A (zh) | 热点资讯挖掘与预览方法、装置、计算机设备及存储介质 | |
US10891513B2 (en) | System and method for cascading image clustering using distribution over auto-generated labels | |
JP5210224B2 (ja) | アノテーションデータ解析装置、アノテーションデータ解析プログラムおよびそのプログラムを記録した記録媒体 | |
JP6026036B1 (ja) | データ分析システム、その制御方法、プログラム、及び、記録媒体 | |
JP5491430B2 (ja) | クラス分類装置、クラス分類方法、及びクラス分類プログラム | |
JPWO2016189606A1 (ja) | データ分析システム、制御方法、制御プログラム、および記録媒体 | |
US20220309276A1 (en) | Automatically classifying heterogenous documents using machine learning techniques | |
JP6509391B1 (ja) | 計算機システム | |
Wang et al. | Enhanced gender identification through social media analytics on the cloud | |
JP5946949B1 (ja) | データ分析システム、その制御方法、プログラム、および、記録媒体 | |
Ororbia II et al. | Privacy protection for natural language: Neural generative models for synthetic text data | |
CN115392389B (zh) | 跨模态信息匹配、处理方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6642878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |