JP6965973B2 - サンプルデータの生成方法、装置及びコンピュータ読み取り可能な記録媒体 - Google Patents

サンプルデータの生成方法、装置及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP6965973B2
JP6965973B2 JP2020154411A JP2020154411A JP6965973B2 JP 6965973 B2 JP6965973 B2 JP 6965973B2 JP 2020154411 A JP2020154411 A JP 2020154411A JP 2020154411 A JP2020154411 A JP 2020154411A JP 6965973 B2 JP6965973 B2 JP 6965973B2
Authority
JP
Japan
Prior art keywords
sample data
recommendation
neural network
network model
weak teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020154411A
Other languages
English (en)
Other versions
JP2021047861A (ja
Inventor
ディン レイ
トォン イシュアヌ
ジャン ジィアシ
ジアン シャヌシャヌ
ジャン ヨンウェイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2021047861A publication Critical patent/JP2021047861A/ja
Application granted granted Critical
Publication of JP6965973B2 publication Critical patent/JP6965973B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は機械学習の技術分野に関し、具体的には、サンプルデータの生成方法、装置及びコンピュータ読み取り可能な記録媒体に関する。
近年、レコメンドシステムは、検索エンジンやeコマースのWebサイトなど、多くの分野でうまく適用されている。レコメンドシステムは、ユーザデータのマイニングに基づいてレコメンドモデルを構築し、ニーズに合った製品や情報やサービス等の内容をユーザに推薦することにより、ユーザが情報過多の問題を解決するのに役立っている。
既存のレコメンドシステムは、レコメンドモデルの訓練プロセスを、ラベル(評価など)またはユーザからの特定行為の教師問題とみなす。この明示的な方法は明確なラベルを提供するが、これらのラベルの信頼性には問題があり、その原因にはユーザのさまざまな原因による誤ラベリングなどが含まれる。
教師あり学習の技術は、大量の訓練サンプルを学習することによりレコメンドモデルを構築し、その中の各訓練サンプルの全てには、その真値の出力をマークするラベルが有る。現在の技術は大成功を収めているが、データラベリングプロセスのコストが高いため、多くのタスクで全ての真値のラベルのような強力な教師情報を取得するのが困難であることに注意しなければならない。よって、弱教師ありの機械学習技術を用いることが望ましい。
弱教師あり学習は、訓練サンプルのラベルが信頼できないものである。例えば、(x、y)は、yのxに対するラベルが信頼できないものである。ここでの信頼できないものには、不正確なラベリング、多種のラベリング、不十分なラベリング、ローカルラベリングなどが含まれる。教師情報が不完全または不明確な対象の学習問題は、弱教師あり学習と総称される。訓練サンプルのラベルの信頼性が低いため、弱教師あり学習に基づいて構築されたレコメンドモデルの性能に対して悪影響を及ぼす。
本発明の実施例が解決しようとする課題は、サンプルデータのラベル品質を向上することができ、それによって該サンプルデータに基づいて訓練したレコメンドモデルの性能を改善可能な、サンプルデータの生成方法、装置及びコンピュータ読み取り可能な記憶媒体を提供することである。
上記課題を解決するために、本発明の実施例が提供するサンプルデータの生成方法は、レコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成するステップと、ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習するステップと、訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直して、更新後のサンプルデータを得るステップと、を含む。
好ましくは、ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習するステップは、前記少なくとも二つの弱教師レコメンドモデルの出力に基づき、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を表すためのニューラルネットワークモデルを構築するステップと、前記少なくとも二つの弱教師レコメンドモデルの出力の同時確率を最大化することにより、前記ニューラルネットワークモデルのパラメータを訓練し、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を生成するステップと、を含む。
好ましくは、訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直すステップは、前記少なくとも二つの弱教師レコメンドモデルのサンプルデータに対するラベリング結果を取得するステップと、訓練後の前記ニューラルネットワークモデルを用いて、前記ラベリング結果の最尤推定値を得て、前記ラベリング結果の最尤推定値に基づいて、サンプルデータに対してラベルを付け直すステップと、を含む。
好ましくは、前記のレコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成するステップは、既存の弱教師ラベルに基づいて、訓練により複数の異なるタイプの弱教師レコメンドモデルを生成するステップと、各タイプの弱教師レコメンドモデルから、ラベル性能が所定の閾値より高い弱教師レコメンドモデルをそれぞれ選択して、前記少なくとも二つの弱教師レコメンドモデルを得るステップと、を含む。
好ましくは、更新後のサンプルデータを得た後に、さらに、更新後のサンプルデータを用いて、訓練により前記レコメンドシステムの目標レコメンドモデルを得るステップを含む。
本発明の実施の実施例は、サンプルデータの生成装置も提供しており、該装置は、レコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成するレコメンドモデル取得ユニットと、ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習するニューラルネットワークモデル学習ユニットと、訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直して、更新後のサンプルデータを得るラベル付け直しユニットと、を含む。
好ましくは、前記ニューラルネットワークモデル学習ユニットは、前記少なくとも二つの弱教師レコメンドモデルの出力に基づき、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を表すためのニューラルネットワークモデルを構築し、前記少なくとも二つの弱教師レコメンドモデルの出力の同時確率を最大化することにより、前記ニューラルネットワークモデルのパラメータを訓練し、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を生成する。
好ましくは、前記ラベル付け直しユニットは、前記少なくとも二つの弱教師レコメンドモデルのサンプルデータに対するラベリング結果を取得し、訓練後の前記ニューラルネットワークモデルを用いて、前記ラベリング結果の最尤推定値を得て、前記ラベリング結果の最尤推定値に基づいて、サンプルデータに対してラベルを付け直す。
好ましくは、前記レコメンドモデル取得ユニットは、既存の弱教師ラベルに基づいて、訓練により複数の異なるタイプの弱教師レコメンドモデルを生成し、各タイプの弱教師レコメンドモデルから、ラベル性能が所定の閾値より高い弱教師レコメンドモデルをそれぞれ選択して、前記少なくとも二つの弱教師レコメンドモデルを得る。
好ましくは、上記生成装置は、更新後のサンプルデータを用いて、訓練により前記レコメンドシステムの目標レコメンドモデルを得る目標レコメンドモデル訓練ユニットをさらに含む。
本発明の実施例は、メモリと、プロセッサと、メモリ上に記憶されておりプロセッサで実行可能なコンピュータプログラムと、を備えるサンプルデータの生成装置も提供しており、前記コンピュータプログラムがプロセッサによって実行される際に、上記のサンプルデータの生成方法のステップを実現する。
本発明の実施例はコンピュータ読み取り可能な記憶媒体も提供しており、前記コンピュータ読み取り可能な記憶媒体にはコンピュータプログラムが記憶されており、前記コンピュータプログラムがプロセッサによって実行される際に、上記のサンプルデータの生成方法のステップを実現する。
従来技術に比べ、本発明の実施例が提供するサンプルデータの生成方法、装置及びコンピュータ読み取り可能な記録媒体は、ニューラルネットワークモデルによって複数の弱教師レコメンドモデル間の依存関係を学習するとともに、上記依存関係を用いてサンプルデータのラベリング品質を向上させ、サンプルデータの誤ラベリングのレコメンドモデル訓練に対する不利な影響を回避するか減少させ、訓練後のレコメンドモデルの性能を改善することができる。
本発明の実施例の技術案をより明瞭にするために、以下に本発明の実施例に対する記述に使用される図面を簡単に説明する。明らかに、以下に記載の図面は本発明の実施例に過ぎず、創造的な作業を行わない前提下で、これらの図面により得られるその他の図面も可能であることは、当業者にとって自明である。
本発明の実施例のサンプルデータの生成方法のフロー図である。 本発明の実施例で構築する、ニューラルネットワークモデルの例を示す図である。 本発明の実施例のサンプルデータの生成方法の別のフロー図である。 本発明の実施例のサンプルデータの生成装置の構造図である。 本発明の実施例のサンプルデータの生成装置の別の構造図である。 本発明の実施例のサンプルデータの生成装置の更に別の構造図である。
本発明が解決しようとする課題と技術案と利点をさらに明瞭にするために、以下、図面及び具体的実施例を組み合わせて詳細に記載する。以下の図面において、具体的な配置とモジュールの特定の細部は本発明の実施例全体を理解するのを助けるためのものにすぎない。よって、ここの記載の実施例に対する各種改変と改修は本発明の範囲と精神を逸脱しないことを当業者は承知すべきである。また、明晰と簡潔のために、既知の機能と構造に対する記載は省略する。
明細書全体で言及した「一つの実施例」または「一実施例」は実施例と関係する特定の特徴や構造や特性が本発明の少なくとも一つの実施例中に含むことを意味している、と理解すべきである。よって、明細書全体の各所に出てくる「一つの実施例において」または「一実施例において」が必ず同じ実施例を指しているとは限らない。また、これらと特定の特徴、構造、特性は任意の適切な方法で、一つ又は複数の実施例に組み合わせることが可能である。
本発明の各種実施例において、以下の各プロセスの番号の大きさは実行順序の前後を意味するのではない。各プロセスの実行順序は、その機能と内在的論理に依存し、本発明実施例の実施過程に対していかなる限定も行われない。
図1は、本発明の実施例が提供するサンプルデータの生成方法のフロー図であり、該サンプルデータの生成方法はサンプルデータのラベル品質を向上させることができ、それによって、該サンプルデータに基づいて訓練したレコメンドモデルの性能を改善することができる。図1に示すように、本発明の実施例が提供するサンプルデータの生成方法は以下のステップを含む。
ステップ101において、レコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成する。
ここで、本発明の実施例は、既存の訓練サンプルに基づいて、レコメンドシステムの少なくとも二つの弱教師レコメンドモデルを訓練して得ることが可能である。通常、前記訓練サンプルは信頼できないラベルを含んでいるので、訓練後のレコメンドモデルは弱教師レコメンドモデルである。具体的に、各弱教師レコメンドモデルが採用する訓練サンプルは、完全に同じであっても良いし、部分的に同じであっても良いし、完全に異なっても良く、本発明ではこれについて具体的に限定しない。
ステップ102において、ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習する。
ここで、弱教師レコメンドモデル間の依存関係を学習しやすくするために、本発明の実施例は、ニューラルネットワークモデルを構築する。具体的に、前記少なくとも二つの弱教師レコメンドモデルの出力に基づき、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を表すのに用いるニューラルネットワークモデルを構築する。通常、該ニューラルネットワークモデルは少なくとも2層のネットワークを含む。その後、前記少なくとも二つの弱教師レコメンドモデルの出力の同時確率を最大化することにより、前記ニューラルネットワークモデルのパラメータを訓練し、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を生成する。前記ニューラルネットワークモデルを訓練する際、前記少なくとも二つの弱教師レコメンドモデルの同一サンプルデータに対する出力(ラベル)を用いて、前記出力の尤度関数を最大化することを目標とした訓練を行い、前記ニューラルネットワークモデルのパラメータを最終的に得る。これらのパラメータは、少なくとも二つの弱教師レコメンドモデル間の依存関係を反映している。
図2は、本発明の実施例の、二つの弱教師レコメンドモデルに対して構築するニューラルネットワークモデルの例である。該ニューラルネットワークモデルは2層のネットワークを含んでおり、2層のニューラルネットワークは、AND、OR、NAND、XORを含むすべての論理演算を含んで表すことができる。なお、λ1とλはそれぞれ、二つの弱教師レコメンドモデルの同一サンプルデータに対する出力を表しており、Yはラベルの取る範囲を表しており、Pθ(λ1,Y)は該二つの弱教師レコメンドモデルの出力の尤度関数を表しており、θはニューラルネットワークモデル中のパラメータ(例えばニューロン間の重みパラメータなど)を表している。尤度関数Pθ(λ1,Y)を最大化することにより、ニューラルネットワークモデル中のパラメータを訓練することができる。
ステップ103において、訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直して、更新後のサンプルデータを得る。
本発明の実施例は、ステップ102によって訓練後のニューラルネットワークモデルを得た後、本発明の実施例は、前記少なくとも二つの弱教師レコメンドモデルの某サンプルデータに対するラベリング結果を取得し、その後、訓練後の前記ニューラルネットワークモデルを用いて、前記ラベリング結果の最尤推定値を得て、前記ラベリング結果の最尤推定値に基づいて、サンプルデータに対してラベルを付け直す。ここで、ラベルを付け直したサンプルデータは、ステップ101で訓練した前記弱教師レコメンドモデルのサンプルデータであっても良いし、前記レコメンドシステムのその他のサンプルデータであっても良く、本発明の実施例では具体的に限定しない。
例えば、図2に示すニューラルネットワークを例にする。該二つの弱教師レコメンドモデルの某サンプルデータに対するラベリング結果をそれぞれλ1´、λ2´と仮定し、その後、前記ニューラルネットワークモデルを用いて、前記ラベリング結果の最尤推定関数Pθ(λ1´,λ´,y1)を得て、それからy1に基づいてサンプルデータに対してラベルを付け直す、即ち、そのレベルをy1とする。
以上のステップにより、本発明の実施例は、ニューラルネットワークモデルによって複数の弱教師レコメンドモデル間の依存関係を学習するとともに、上記依存関係を用いてサンプルデータに対してラベルを付け直して、サンプルデータのラベル品質を向上させ、サンプルデータの誤ラベリングのレコメンドモデル訓練に対する不利な影響を回避するか減少させ、訓練後のレコメンドモデルの性能を改善することができる。
ラベルを付け直したラベルの品質を向上させるため、本発明の実施例はステップ101において、一定数量であり且つ相互間に一定の差異がある弱教師レコメンドモデルを生成することができる。つまり、更に良好なラベル付け直し性能に達するために、ステップ101において多様性がある弱教師レコメンドモデルを用いることができる。具体的に実現する際に、本発明の実施例は、既存の弱教師ラベルに基づいて、複数の異なるタイプの弱教師レコメンドモデルを生成するための訓練をする。その後、各タイプの弱教師レコメンドモデルから、ラベル性能が所定の閾値より高い弱教師レコメンドモデルをそれぞれ選択して、前記少なくとも二つの弱教師レコメンドモデルを得る。
具体的に、上記の複数の異なるタイプの弱教師レコメンドモデルを生成するための訓練の具体的な実現方法として、弱教師レコメンドモデルのタイプを手動の方法によって定義することが可能である。この時、ステップ101において既存の弱教師ラベルに基づいて、複数の異なる所定のタイプの弱教師レコメンドモデルを生成するための訓練を行う。例えば、異なる方式で得た弱教師レコメンドモデルを異なるタイプとすることができる。弱教師レコメンドモデルの取得方法は通常、
(1)ユーザの行動ルールに基づくパターンマッチングまたは手動ラベル付け、
(2)例えば異常行動分析といった、教師なし方法、
(3)既存のラベルに基づく、教師あり/弱教師レコメンドモデル、
を含むことができる。
上記の複数の異なるタイプの弱教師レコメンドモデルを生成するための訓練の別の実現方法として、本発明の実施例は、先ず既存の弱教師ラベルに基づいて、複数の弱教師レコメンドモデルを生成するための訓練を行うことも可能である。その後、前記複数の弱教師レコメンドモデルのレコメンド結果に対してクラスタリングを行う。例えば、K-meansのクラスタリング方法を用いて複数のクラスタリングを得て、それによって複数の異なるタイプの弱監督レコメンドモデルを得る。
また、後続のニューラルネットワークモデルの訓練に要する時間を減らすために、本発明の実施例は、ステップ101の前記少なくとも二つの弱教師レコメンドモデルの数量を制御することが可能である。例えば、本発明の実施例は、各モデルの弱教師レコメンドモデルから、ラベル性能が所定の閾値より高い弱教師レコメンドモデルをそれぞれ選択して、ラベル性能が低い弱教師レコメンドモデルを破棄する。具体的に、ラベル性能は、弱教師レコメンドモデルの信頼性が低いサンプルデータ(即ち該サンプルデータのラベルは信頼できない)に対するラベルの正確性を参考指標として用いて、正確性が所定の閾値より低い弱教師レコメンドモデルを破棄することが可能である。
上記ステップ103において、本発明の実施例は、更新後のサンプルデータを得た後で、図3に示すように、本発明の実施例は以下のステップを含むことも可能である。
ステップ104において、更新後のサンプルデータを用いて、前記レコメンドシステムの目標レコメンドモデルを訓練して得る。
ここで、本発明の実施例は、更新後のサンプルデータを用いてレコメンドモデルの訓練を行う。更新後のサンプルデータのラベルの正確性はより高いものであるので、訓練後のレコメンドモデルは更に良好な性能を有する。具体的に、ステップ104の目標レコメンドモデルの構造は、ステップ101に記載の少なくとも二つの弱教師レコメンドモデルの任意の一つと同じでも良いし、ステップ101に記載の少なくとも二つの弱教師レコメンドモデルと違っても良く、本発明の実施例ではこれについて具体的に限定しない。
以上の方法に基づき、本発明の実施例は、上記方法を実行する装置も提供する。図4を参照し、本発明の実施例が提供するサンプルデータの生成装置400は、以下のユニットを含む。
レコメンドモデル取得ユニット401は、レコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成する。
ニューラルネットワークモデル学習ユニット402は、ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習する。
ラベル付け直しユニット403は、訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直して、更新後のサンプルデータを得る。
以上のサンプルデータの生成装置400により、サンプルデータに対してラベルを付け直し、さらに正確なラベルを生成し、ラベル品質を向上させることができ、それによって、後続の該サンプルデータに基づいて訓練して得るレコメンドモデルのモデル性能を改善することができる。
好ましくは、前記ニューラルネットワークモデル学習ユニット402は、前記少なくとも二つの弱教師レコメンドモデルの出力に基づき、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を表すためのニューラルネットワークモデルを構築し、前記少なくとも二つの弱教師レコメンドモデルの出力の同時確率を最大化することにより、前記ニューラルネットワークモデルのパラメータを訓練し、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を生成する。
好ましくは、前記ラベル付け直しユニット403は、前記少なくとも二つの弱教師レコメンドモデルのサンプルデータに対するラベリング結果を取得し、訓練後の前記ニューラルネットワークモデルを用いて、前記ラベリング結果の最尤推定値を得て、前記ラベリング結果の最尤推定値に基づいて、サンプルデータに対してラベルを付け直す。
好ましくは、前記レコメンドモデル取得ユニット401は、既存の弱教師ラベルに基づいて、複数の異なるタイプの弱教師レコメンドモデルを訓練により生成し、各タイプの弱教師レコメンドモデルから、ラベル性能が所定の閾値より高い弱教師レコメンドモデルをそれぞれ選択して、前記少なくとも二つの弱教師レコメンドモデルを得る。
本発明の別の実施例は、図5に示すサンプルデータの生成装置400Aも提供しており、図4に示すレコメンドモデル取得ユニット401、ニューラルネットワークモデル学習ユニット402、ラベル付け直しユニット403の他に、目標レコメンドモデル訓練ユニット404をさらに含む。
目標レコメンドモデル訓練ユニット404は、更新後のサンプルデータを用いて、前記レコメンドシステムの目標レコメンドモデルを訓練により得る。
上記の目標レコメンドモデル訓練ユニットにより、本発明の実施例は、更に良好なレコメンドモデルを得ることができる。
図6を参照し、本発明の実施例は、サンプルデータの生成装置のハードウェア構造ブロック図も提供した。図6に示すように、該サンプルデータの生成装置600は、プロセッサ602と、プログラムが記憶されているメモリ604と、を含む。
前記プログラムが前記プロセッサによって実行される際、前記プロセッサ602が、レコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成するステップと、ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習するステップと、訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直して、更新後のサンプルデータを得るステップと、を実行する。
更に、図6に示すように、該サンプルデータの生成装置600は、ネットワークインターフェース601と、入力装置603と、ハードディスク605と、表示装置606を含むことも可能である。
上記各インターフェースと装置との間は、バスアーキテクチャによって互いに接続する。バスアーキテクチャは、任意の数量の相互接続するバス及びブリッジを含むことが可能である。具体的には、プロセッサ602に代表される一つ又は複数のセントラルプロセッサ(CPU)、及びメモリ604に代表される一つ又は複数のメモリの各種回路が、一つに接続される。バスアーキテクチャは、周辺機器や電圧レギュレータや電力管理回路のようなさまざまなその他の回路と一緒に接続することも可能である。バスアーキテクチャは、これらの構成要素の間の接続通信を実現するためのものであると理解可能である。バスアーキテクチャは、データバスの他、電力バス、制御バス、およびステータス信号バスも含むが、これらは全て本分野で公知のものであるので、本明細書ではこれらについて詳細に記載しない。
前記ネットワークインターフェース601は、ネットワーク(例えばインターネット、ローカルエリアネットワーク等)と接続可能で、ネットワークから情報を受信するとともに、受信した内容をハードディスク605中に保存することができる。
前記入力装置603は、オペレータが入力する様々なコマンドを受信できるとともに、実行のためにプロセッサ602に送信することができる。前記入力装置603は、キーボードやクリックデバイス(例えばマウス、トラックボール(trackball)、タッチパッド、タッチスクリーンなど)を含むことが可能である。
前記表示装置606は、プロセッサ602がコマンドを実行して得た結果を表示することができる。例えば、サンプルデータのラベルを付し直した結果又はラベル付けの進行状況等を表示する。
前記メモリ604は、オペレーティングシステムが稼働するのに必須のプログラムとデータや、プロセッサ602の演算プロセス中の中間結果などのデータを保存するのに用いられる。
本発明の実施例のメモリ604は、揮発性メモリまたは不揮発性メモリであっても良いし、揮発性メモリと不揮発性メモリの両方を含んでも良い、と理解できる。なお、不揮発性メモリは、読み出し専用メモリ(ROM)であっても、プログラマブル読み出し専用メモリ(PROM)であっても、消去可能なプログラマブル読み出し専用メモリ(EPROM)であっても、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM)であっても、フラッシュメモリであってもよい。揮発性メモリは、ランダムアクセスメモリ(RAM)であってもよく、外部キャッシュとして用いられる。本明細書に記載の装置と方法のメモリ604は、これらと任意のその他の適合類型のメモリを含むが、これらに限らない。
いくつかの実施形態において、メモリ604は、実行可能なモジュールまたはデータ構造、それらのサブ集合または拡張集合、オペレーティングシステム6041、アプリケーションプログラム6042、の要素を記憶している。
なお、オペレーティングシステム6041は各種の基礎業務およびハードウェアに基づくタスクを実現するように、例えば枠組層、コアー層、駆動層など各種のシステムプログラムを含む。アプリケーションプログラム6042は各種のアプリケーション業務を実現するように、例えばブラウザー(Browser)などの各種アプリケーションプログラムを含む。本発明の実施例の方法を実現するプログラムはアプリケーションプログラム6042に含まれることが可能である。
本発明の上記実施例による方法はプロセッサ602に応用でき、あるいはプロセッサ602によって実現できる。プロセッサ602は信号の処理能力を有する集積回路チップであってもよい。実現過程では、上記方法の各ステップはプロセッサ602内のハードウェアの集積ロジック回路またはソフトウェア形式のコマンドによって完成できる。上記プロセッサ602は汎用プロセッサであっても、デジタル信号処理器(DSP)であっても、特定用途向け集積回路(ASIC)であっても、現場で構成可能な回路アレイ(FPGA)又はその他のプログラマブルロジックデバイスであっても、個別ゲートまたはトランジスタロジックデバイスであっても、個別ハードウェアユニットであってもよく、本発明の実施例に公開された各方法、ステップおよびロジックブロック図を実現または実行できる。汎用プロセッサは、マイクロプロセッサ又はいかなる常用的なプロセッサであっても良い。本発明の実施例より公開された方法のステップと組み合わせて直接的にできることは、ハードウェアデコーダプロセッサにより実行して完成すること、或いは、デコーダプロセッサ内のハードウェアおよびソフトウェアモジュールの組み合わせによって実行して完成すること、である。ソフトウェアモジュールはランダムメモリ、フラッシュメモリ、読み出し専用メモリ、プログラマブル読み出し専用メモリまたは電気的に消去可能なプログラマブルメモリ、レジスタなどの当分野において成熟された記録媒体に位置することが可能である。当該記録媒体はメモリ604にあり、プロセッサ602はメモリ604内の情報を読み取って、そのハードウェアと組み合わせて上記方法のステップを完成する。
本明細書に記載されたこれらの実施例は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはその組み合わせによって実現できる、と理解可能である。ハードウェアの実現について、プロセスユニットは一つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号処理器(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールド プログラマブル
ゲート アレイ(FPGA)、汎用プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、本願の前記機能を実現するためのほかの電子モジュール、または組み合わせで実現可能である。
ソフトウェアの実現について、本明細書に記載された前記機能を実行するモジュール(例えばプロセス、関数など)によって本明細書の前記技術を実現できる。ソフトウェアコードはメモリに記憶され、かつプロセッサによって実行することが可能である。メモリはプロセッサ内またはプロセッサ外部において実現できる。
好ましくは、前記プログラムがプロセッサ602によって実行される際は、前記少なくとも二つの弱教師レコメンドモデルの出力に基づき、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を表すためのニューラルネットワークモデルを構築するステップと、前記少なくとも二つの弱教師レコメンドモデルの出力の同時確率を最大化することにより、前記ニューラルネットワークモデルのパラメータを訓練し、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を生成するステップと、を実現することもできる。
好ましくは、前記プログラムがプロセッサ602によって実行される際は、前記少なくとも二つの弱教師レコメンドモデルのサンプルデータに対するラベリング結果を取得するステップと、訓練後の前記ニューラルネットワークモデルを用いて、前記ラベリング結果の最尤推定値を得て、前記ラベリング結果の最尤推定値に基づいて、サンプルデータに対してラベルを付け直すステップと、を実現することもできる。
好ましくは、前記プログラムがプロセッサ602によって実行される際は、既存の弱教師ラベルに基づいて、複数の異なるタイプの弱教師レコメンドモデルを訓練により生成するステップと、各タイプの弱教師レコメンドモデルから、ラベル性能が所定の閾値より高い弱教師レコメンドモデルをそれぞれ選択して、前記少なくとも二つの弱教師レコメンドモデルを得るステップと、を実現することもできる。
好ましくは、前記プログラムがプロセッサ602によって実行される際は、更新後のサンプルデータを用いて、前記レコメンドシステムの目標レコメンドモデルを訓練により得るステップを実現することもできる。
当業者は、本明細書に開示された実施例に記載された様々な例のユニットおよびアルゴリズムステップを組み合わせて、電子ハードウェアまたはコンピュータソフトウェアと電子ハードウェアとの組み合わせによって実現させることができる、と理解することができる。これらの機能がハードウェアで実行されるかソフトウェアで実行させるかは、技術方案の特定用途や設計上の制約条件によって決められる。当業者は、特定の用途ごとに異なる方法を用いて前記の機能を実現できるが、このような実現は本発明の範囲を超えるものと見なすべきではない。
当業者は、説明の便宜及び簡潔さのために、上記のシステム、装置とユニットの具体的な作業プロセスについて、前記方法の実施例における対応プロセスを参照できることを明確に理解できるので、ここでは贅言しない。
本発明が提供する実施例において開示された方法及び装置は別の形態でも実現可能であると理解すべきである。例えば、上記記載された装置は模式的なものに過ぎない。例えば、前記ユニットの分割は論理的な機能分割に過ぎず、実際に実現する際に別の分割方式を採用しても良い。例えば、複数のユニットまたはモジュールを組み合わせるか、別のシステムに集約しても良いし、或いは一部の機能を省略しても良いし、若しくは実行しなくてもよい。さらに、上記表示または開示された相互的な接続または直接な接続若しくは通信可能な接続は、インターフェースを介した接続であっても良いし、装置やユニット同士の間接的な接続または通信可能な接続は、電気的または機械的もしくは他の形態の接続であっても良い。
前記分離部材として説明したユニットは物理的に分離してもしなくてもよい。ユニットとして表示した部材は物理的なユニットであってもでなくてもよい。即ち、同一の場所に位置しても良いし、複数のネットワークユニット上に分散しても良い。実際のニーズに応じてその中の一部または全部のユニットを選択して本発明の実施例の目的を実現することができる。
また、本発明の各実施例における各機能的なユニットをひとつのプロセスユニットに集成しても良いし、各ユニットが物理的に単独で存在させても良いし、二つあるいは二つ以上のユニットを一つのユニットに集成させても良い。
前記機能はソフトウェア機能ユニットの形式で実現し、且つ、独立製品として販売または使用される場合、コンピュータ読み取り可能記憶媒体に記憶することができる。このような理解に基づき、本発明の技術方案の本質、あるいは従来技術に対して貢献する部分、または当該技術方案の一部は、ソフトウェア製品の形式で実現することができる。当該コンピュータソフトウェア製品は記録媒体に記憶されて、コンピュータ装置(パーソナルコンピュータ、サーバ或いはネットワーク設備などでも良い)に本願の各実施例に記載した前記方法の全部または一部のステップを実行させる若干のコマンドを含んでいる。前記の記録媒体は、USBメモリ、リムーバブルディスク、ROM、RAM、磁気ディスク、あるいは光ディスクなど、プログラムコードを格納できる様々な媒体を含む。
以上の記載は、本発明の具体的な実施形態に過ぎず、本発明の保護範囲はこれに限らない。本発明に開示される技術範囲内で、本技術分野に属する当業者が容易に想到される変化または置換は、本発明の保護範囲内に含めるべきである。したがって、本発明の保護範囲は権利要求の保護範囲に準じるべきである。

Claims (11)

  1. レコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成するステップと、
    ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習するステップと、
    訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直して、更新後のサンプルデータを得るステップと、を含むことを特徴とするサンプルデータの生成方法。
  2. ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習するステップは、
    前記少なくとも二つの弱教師レコメンドモデルの出力に基づき、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を表すためのニューラルネットワークモデルを構築するステップと、
    前記少なくとも二つの弱教師レコメンドモデルの出力の同時確率を最大化することにより、前記ニューラルネットワークモデルのパラメータを訓練し、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を生成するステップと、を含むことを特徴とする請求項1に記載のサンプルデータの生成方法。
  3. 訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直すステップは、
    前記少なくとも二つの弱教師レコメンドモデルのサンプルデータに対するラベリング結果を取得するステップと、
    訓練後の前記ニューラルネットワークモデルを用いて、前記ラベリング結果の最尤推定値を得て、前記ラベリング結果の最尤推定値に基づいて、サンプルデータに対してラベルを付け直すステップと、を含むことを特徴とする請求項1に記載のサンプルデータの生成方法。
  4. 前記のレコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成するステップは、
    既存の弱教師ラベルに基づいて、訓練により複数の異なるタイプの弱教師レコメンドモデルを生成するステップと、
    各タイプの弱教師レコメンドモデルから、ラベル性能が所定の閾値より高い弱教師レコメンドモデルをそれぞれ選択して、前記少なくとも二つの弱教師レコメンドモデルを得るステップと、を含むことを特徴とする請求項1に記載のサンプルデータの生成方法。
  5. 更新後のサンプルデータを得た後に、さらに、
    更新後のサンプルデータを用いて、訓練により前記レコメンドシステムの目標レコメンドモデルを得るステップ、を含むことを特徴とする請求項1から4のいずれか一項に記載のサンプルデータの生成方法。
  6. レコメンドシステムの少なくとも二つの弱教師レコメンドモデルを生成するレコメンドモデル取得ユニットと、
    ニューラルネットワークモデルを訓練することにより、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を学習するニューラルネットワークモデル学習ユニットと、
    訓練後の前記ニューラルネットワークモデルを用いて、サンプルデータに対してラベルを付け直して、更新後のサンプルデータを得るラベル付け直しユニットと、を含むことを特徴とするサンプルデータの生成装置。
  7. 前記ニューラルネットワークモデル学習ユニットは、
    前記少なくとも二つの弱教師レコメンドモデルの出力に基づき、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を表すためのニューラルネットワークモデルを構築し、
    前記少なくとも二つの弱教師レコメンドモデルの出力の同時確率を最大化することにより、前記ニューラルネットワークモデルのパラメータを訓練し、前記少なくとも二つの弱教師レコメンドモデル間の依存関係を生成することを特徴とする請求項6に記載のサンプルデータの生成装置。
  8. 前記ラベル付け直しユニットは、
    前記少なくとも二つの弱教師レコメンドモデルのサンプルデータに対するラベリング結果を取得し、
    訓練後の前記ニューラルネットワークモデルを用いて、前記ラベリング結果の最尤推定値を得て、前記ラベリング結果の最尤推定値に基づいて、サンプルデータに対してラベルを付け直すことを特徴とする請求項6に記載のサンプルデータの生成装置。
  9. 前記レコメンドモデル取得ユニットは、
    既存の弱教師ラベルに基づいて、訓練により複数の異なるタイプの弱教師レコメンドモデルを生成し、
    各タイプの弱教師レコメンドモデルから、ラベル性能が所定の閾値より高い弱教師レコメンドモデルをそれぞれ選択して、前記少なくとも二つの弱教師レコメンドモデルを得ることを特徴とする請求項6に記載のサンプルデータの生成装置。
  10. 更新後のサンプルデータを用いて、訓練により前記レコメンドシステムの目標レコメンドモデルを訓練して得る目標レコメンドモデル訓練ユニット、をさらに含むことを特徴とする請求項6から9のいずれか一項に記載のサンプルデータの生成装置。
  11. プロセッサによって実行される際に、請求項1から5のいずれか一項に記載のサンプルデータの生成方法のステップを実現するコンピュータプログラムが記憶されていることを特徴とする、コンピュータ読み取り可能な記録媒体。
JP2020154411A 2019-09-17 2020-09-15 サンプルデータの生成方法、装置及びコンピュータ読み取り可能な記録媒体 Active JP6965973B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910875573.1 2019-09-17
CN201910875573.1A CN112529024A (zh) 2019-09-17 2019-09-17 一种样本数据的生成方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2021047861A JP2021047861A (ja) 2021-03-25
JP6965973B2 true JP6965973B2 (ja) 2021-11-10

Family

ID=74869704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154411A Active JP6965973B2 (ja) 2019-09-17 2020-09-15 サンプルデータの生成方法、装置及びコンピュータ読み取り可能な記録媒体

Country Status (3)

Country Link
US (1) US20210081788A1 (ja)
JP (1) JP6965973B2 (ja)
CN (1) CN112529024A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113283578A (zh) * 2021-04-14 2021-08-20 南京大学 一种基于标记风险控制的数据去噪方法
CN113591986B (zh) * 2021-07-30 2024-06-04 阿里巴巴创新公司 用于生成推荐模型的对象权值的方法和个性化推荐方法
CN113486982A (zh) * 2021-07-30 2021-10-08 北京字节跳动网络技术有限公司 模型训练方法、装置和电子设备
CN114612408B (zh) * 2022-03-04 2023-06-06 拓微摹心数据科技(南京)有限公司 一种基于联邦深度学习的心脏图像处理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6127778B2 (ja) * 2013-06-28 2017-05-17 富士通株式会社 モデル学習方法、モデル学習プログラム及びモデル学習装置
US10116680B1 (en) * 2016-06-21 2018-10-30 Symantec Corporation Systems and methods for evaluating infection risks based on profiled user behaviors
US11200483B2 (en) * 2016-08-30 2021-12-14 Lunit Inc. Machine learning method and apparatus based on weakly supervised learning
US10606885B2 (en) * 2016-11-15 2020-03-31 Evolv Technology Solutions, Inc. Data object creation and recommendation using machine learning based online evolution
US11288595B2 (en) * 2017-02-14 2022-03-29 Groq, Inc. Minimizing memory and processor consumption in creating machine learning models
EP3399465A1 (en) * 2017-05-05 2018-11-07 Dassault Systèmes Forming a dataset for fully-supervised learning
JP7082461B2 (ja) * 2017-07-26 2022-06-08 株式会社Ye Digital 故障予知方法、故障予知装置および故障予知プログラム
CN108132968B (zh) * 2017-12-01 2020-08-04 西安交通大学 网络文本与图像中关联语义基元的弱监督学习方法
CN108108849A (zh) * 2017-12-31 2018-06-01 厦门大学 一种基于弱监督多模态深度学习的微博情感预测方法
CN108399406B (zh) * 2018-01-15 2022-02-01 中山大学 基于深度学习的弱监督显著性物体检测的方法及系统
US10511681B2 (en) * 2018-03-02 2019-12-17 Adobe Inc. Establishing and utilizing behavioral data thresholds for deep learning and other models to identify users across digital space
CN109543693B (zh) * 2018-11-28 2021-05-07 中国人民解放军国防科技大学 基于正则化标签传播的弱标注数据降噪方法
CN109740588B (zh) * 2018-12-24 2020-06-09 中国科学院大学 基于弱监督和深度响应重分配的x光图片违禁品定位方法
CN109872333B (zh) * 2019-02-20 2021-07-06 腾讯科技(深圳)有限公司 医学影像分割方法、装置、计算机设备和存储介质
CN110070183B (zh) * 2019-03-11 2021-08-20 中国科学院信息工程研究所 一种弱标注数据的神经网络模型训练方法及装置
CN110196908A (zh) * 2019-04-17 2019-09-03 深圳壹账通智能科技有限公司 数据分类方法、装置、计算机装置及存储介质

Also Published As

Publication number Publication date
US20210081788A1 (en) 2021-03-18
CN112529024A (zh) 2021-03-19
JP2021047861A (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
JP6965973B2 (ja) サンプルデータの生成方法、装置及びコンピュータ読み取り可能な記録媒体
US10719301B1 (en) Development environment for machine learning media models
US20230195845A1 (en) Fast annotation of samples for machine learning model development
US20210034980A1 (en) Real-time visualization of machine learning models
US11537506B1 (en) System for visually diagnosing machine learning models
US11581067B2 (en) Method and apparatus for generating a chemical structure using a neural network
US20190354810A1 (en) Active learning to reduce noise in labels
KR102052624B1 (ko) 기계 학습 방법 및 장치
US7577935B2 (en) Generative programming system and method employing focused grammars
CN111694917B (zh) 一种车辆异常轨迹检测、模型训练方法及装置
CN114787831B (zh) 改进分类模型的准确性
Norris Machine Learning with the Raspberry Pi
CN112420125A (zh) 分子属性预测方法、装置、智能设备和终端
CN112651467A (zh) 卷积神经网络的训练方法和系统以及预测方法和系统
US20220108054A1 (en) System for universal hardware-neural network architecture search (co-design)
CN110807693A (zh) 专辑的推荐方法、装置、设备和存储介质
Chen et al. Understanding and accelerating neural architecture search with training-free and theory-grounded metrics
CN112905809B (zh) 知识图谱学习方法和系统
CN113869377A (zh) 训练方法、装置及电子设备
CN112417463A (zh) 软件漏洞预测方法、装置、计算机设备及存储介质
CN116091174A (zh) 推荐策略优化系统、方法、装置及相关设备
KR102413588B1 (ko) 학습 데이터에 따른 객체 인식 모델 추천 방법, 시스템 및 컴퓨터 프로그램
Wu et al. Two-stage salient object detection based on prior distribution learning and saliency consistency optimization
WO2022024315A1 (ja) 精度推定プログラム、装置、及び方法
Zhang et al. Selectivity drives productivity: efficient dataset pruning for enhanced transfer learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210921

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R151 Written notification of patent or utility model registration

Ref document number: 6965973

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151