JP7216021B2 - 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法 - Google Patents

機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法 Download PDF

Info

Publication number
JP7216021B2
JP7216021B2 JP2019564084A JP2019564084A JP7216021B2 JP 7216021 B2 JP7216021 B2 JP 7216021B2 JP 2019564084 A JP2019564084 A JP 2019564084A JP 2019564084 A JP2019564084 A JP 2019564084A JP 7216021 B2 JP7216021 B2 JP 7216021B2
Authority
JP
Japan
Prior art keywords
data
sampling
model
annotations
algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019564084A
Other languages
English (en)
Other versions
JP2020522055A5 (ja
JP2020522055A (ja
Inventor
コーリー ヒューズ
ティモシー エステス
ジョン リュー
ブランドン カール
ウダイ カマス
Original Assignee
デジタル リーズニング システムズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by デジタル リーズニング システムズ インコーポレイテッド filed Critical デジタル リーズニング システムズ インコーポレイテッド
Publication of JP2020522055A publication Critical patent/JP2020522055A/ja
Publication of JP2020522055A5 publication Critical patent/JP2020522055A5/ja
Priority to JP2023006402A priority Critical patent/JP2023052502A/ja
Application granted granted Critical
Publication of JP7216021B2 publication Critical patent/JP7216021B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/30Creation or generation of source code
    • G06F8/36Software reuse
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7796Active pattern-learning, e.g. online learning of image or video features based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

発明の詳細な説明
[技術分野]
[関連出願の相互参照]
本出願は、2017年5月14日に出願された米国仮特許出願第62/505,936号の優先権及び利益を主張し、その全体が引用により本明細書に組み込まれている。
[背景技術]
従来の機械学習技術は、データアノテーション、データ探索、及びモデル作成の容易化に個別に対処する。データアノテーション用の一部のインターフェースでは、ユーザは関心のあるテキストの範囲を強調表示し、強調表示したテキストにアノテーションを割り当ててもよい。あるいは、ユーザは関心のある画像の部分を強調表示し、画像の強調表示した部分にアノテーションを割り当ててもよい。多くの場合、これらの手法では、データの手動の「総当たりの(brute force)」アノテーションが用いられており、ユーザがデータを順番に確認していく必要があるので、機械学習モデルの生成にかなりのコストと時間の遅れとが生じる。さらに、このような既存のツールでは、データの前処理、特徴抽出、及び実行する可視化のタイプに関する広範な知識が必要になる場合がある。
一部の従来手法の欠点、短所、及び不利点の中でもとりわけ、以下の問題がある場合がある。多くの場合、アノテーション済みのデータが必要であり、そのようなデータが存在しない場合、スタート地点が提供されない。非構造化データを対象としていないことが多い。多くの場合、モデルの訓練には時間がかかり、かなりのハードウェアリソースを必要とする。不均衡なデータ(すなわち、所望の結果の発生率が低い、たとえば、確率が10%未満であるデータ)での作業に効果的に対処できない場合がある。統合されたワークフローを提供しない場合がある。
[発明の概要]
本開示は、機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法に関する。本開示は、機械学習モデルのライフサイクルを管理する方法を提供する。一部の態様では、この方法は、アノテーションなしデータのセットを受信することと、アノテーションなしデータのサンプルのアノテーションを要求して、アノテーション付きデータのセットを生成することと、アノテーション付きデータのセットに基づいて機械学習モデルを構築することと、機械学習モデルをクライアントシステムに配備することであって、クライアントシステムにおいて本番アノテーション(production annotation)が生成される、配備することと、生成された本番アノテーションを収集し、本番アノテーションを組み込んだ新たな機械学習モデルを生成することと、アノテーション付きデータのセットに基づいて構築された機械学習モデル、または新たな機械学習モデルの一方を選択することと、を含む。
本開示の上記態様のいずれかによれば、この方法は、適合率、再現率、平均適合率、受信者動作者特性スコア、またはFベータスコアを含む、機械学習モデルの1つまたは複数の品質尺度を報告することをさらに含むことができる。
本開示の上記態様のいずれかによれば、この方法は、モデルを第三者と共有することをさらに含むことができる。
本開示の上記態様のいずれかによれば、この方法は、モデルを第三者と共有することをさらに含むことができる。
本開示の上記態様のいずれかによれば、サンプルのアノテーションを要求することは、ユーザ入力または自動サンプラ選択に基づいて、アノテーションなしデータのセットからサンプルを選択することを含むことができる。
本開示の上記態様のいずれかによれば、ユーザ入力は、セマンティック検索、類似サンプルの選択、またはアノテーションなしデータの視覚マップ上の選択のうちの1つまたは複数を含むことができる。
本開示の上記態様のいずれかによれば、自動サンプラ選択は、進行過程内の複数のサンプラのうちの1つからのものとすることができる。
本開示の上記態様のいずれかによれば、複数のサンプラのそれぞれは、異なるサンプリングアルゴリズムを使用することができる。
本開示の上記態様のいずれかによれば、それぞれのサンプリングアルゴリズムは、密度サンプリングアルゴリズム、エントロピーサンプリングアルゴリズム、推定誤差低減サンプリングアルゴリズム、網羅的なサンプリングアルゴリズム、フラグ付き予測アルゴリズム、ハードネガティブマイニングサンプリングアルゴリズム、高信頼度サンプリングアルゴリズム、線形サンプリングアルゴリズム、マップ可視化サンプリングアルゴリズム、メタデータ検索サンプリングアルゴリズム、最小マージンサンプリングアルゴリズム、クエリバイコミッティ(query by committee)サンプリングアルゴリズム、ランダムサンプリングアルゴリズム、レビューサンプリングアルゴリズム、検索サンプリングアルゴリズム、類似性サンプリングアルゴリズム、入力がサンプルをスキップするものであったサンプルのサンプリングのタイプのアルゴリズム、層化サンプリングアルゴリズム、最も信頼性のあるサンプルのアルゴリズム、または最も不確実なサンプルのアルゴリズムから選択され得る。
本開示の上記態様のいずれかによれば、進行過程は、複数のサンプラのうちのサンプラ間で連続的に変更されることを含むことができる。
本開示の上記態様のいずれかによれば、複数のサンプラの各サンプラは、進行過程における前または次のサンプラのいずれに移動するかを決定する結果の期待分布を有することができる。
本開示の上記態様のいずれかによれば、モデル予測が誤っている所定数のサンプルアノテーションを受信すると、進行過程はサンプラ間で、進行過程における前のサンプラに変更され得る。
本開示の上記態様のいずれかによれば、モデル予測が一致する所定数のサンプルアノテーションを受信すると、進行過程はサンプラ間で、進行過程における次のサンプラに変更され得る。
本開示の上記態様のいずれかによれば、機械学習モデルを構築することは、共有モデルを受信し、中間モデルの重みを共有モデルの重みに初期化し、異なる学習率で訓練することを含むことができる。
本開示の上記態様のいずれかによれば、アノテーションなしデータのサンプルのアノテーションを要求することは、テストデータのセットの網羅的なアノテーションを要求することを含むことができる。
本開示の上記態様のいずれかによれば、テストデータのセットの網羅的なアノテーションは、密度サンプリング、レベルセットツリー、またはランダムサンプリングのうちの1つまたは複数を含む遠距離教師あり学習(distant supervision)によって実行され得る。
本開示の上記態様のいずれかによれば、アノテーションなしデータのサンプルのアノテーションを要求することは、アノテーションなしデータのセットからサンプルを選択するための、複数のサンプラからのサンプラの推奨をグラフィカルユーザインターフェース上に提示することを含むことができる。
本開示の上記態様のいずれかによれば、この方法は、グラフィカルユーザインターフェース上にデータ品質メトリック及びデータ数量メトリックを提示することをさらに含むことができる。
本開示の上記態様のいずれかによれば、データ数量メトリックは、いくつかの訓練されたサンプル、いくつかの正例、いくつかの負例、またはサンプルのクラスについて訓練されたいくつかのサンプルのうちの1つまたは複数を含むことができる。
本開示の上記態様のいずれかによれば、データ品質メトリックは、正解率、適合率、再現率、またはF1スコアのうちの1つまたは複数を含むことができる。
本開示の上記態様のいずれかによれば、この方法は、グラフィカルユーザインターフェース上に、アノテーションなしデータのセットのアノテーションにわたる不一致を提示することをさらに含むことができる。
本開示の上記態様のいずれかによれば、機械学習モデルを構築することは、機械学習モデルを確立するためのアルゴリズム及び損失関数を選択することを含むことができる。
本開示の上記態様のいずれかによれば、アルゴリズムを選択することは、モデルタイプに基づく。
本開示の上記態様のいずれかによれば、この方法は、アノテーションなしデータのセットからアノテーションが付けられたアノテーション付き訓練データのセットでモデルを複数回訓練し、実行にわたる品質メトリックの分散を測定することによって、収束をテストすることをさらに含むことができる。
本開示の上記態様のいずれかによれば、品質メトリックは学習曲線の傾きを含むことができる。
本開示の上記態様のいずれかによれば、モデルは、所与のモデルタイプ及びアルゴリズムに対して選択されたデフォルトのハイパーパラメータを使用して訓練され得る。
本開示の上記態様のいずれかによれば、ハイパーパラメータは、ランダム選択、グリッド探索、またはベイズ推定法のうちの1つまたは複数を使用して選択され得る。
本開示の上記態様のいずれかによれば、ランダムシード、アルゴリズム選択、損失関数、ハイパーパラメータ、データセット分割、データセットハッシュ、またはクラス重みのうちの1つまたは複数が、モデルに対して記憶され得る。
本開示の上記態様のいずれかによれば、機械学習モデルは、バージョン管理され、切り替えられ、またはロールバックされ得る。
本開示の上記態様のいずれかによれば、この方法は、データドリフトまたはコンセプトドリフトを介してモデル間の変化を監視することをさらに含むことができる。
本開示の上記態様のいずれかによれば、コンセプトドリフトは、アノテーション付きデータのセットと本番アノテーションとの間で変化したいくつかの予測を定量化することに基づいてモデルを訓練することにより計算され得る。
本開示の上記態様のいずれかによれば、データドリフトは、アノテーション付きデータのセットと本番アノテーションとの間のコーパス統計及び/またはコーパス比較に基づいて測定され得る。
本開示の上記態様のいずれかによれば、データドリフトまたはコンセプトドリフトを識別した場合に警告が生成され得る。
本開示の上記態様のいずれかによれば、データドリフトまたはコンセプトドリフトは、経時的なアノテーションなしデータに関するメトリック、または経時的なモデル予測に関するメトリックを含むことができる。
本開示の上記態様のいずれかによれば、モデルを共有することは、特徴ハッシュ化、暗号ハッシュ化、またはランダムプロジェクションのうちの1つまたは複数を実行することを含むことができる。
本開示の上記態様のいずれかによれば、モデルを共有することは、モデルの勾配更新を共有することを含むことができる。
本開示の上記態様のいずれかによれば、勾配更新は、計算グラフのレイヤに加算され得る。
本開示の上記態様のいずれかによれば、モデルを共有することは、1つまたは複数のモデル資産を共有することを含むことができる。
本開示の上記態様のいずれかによれば、1つまたは複数のモデル資産は、データセットで訓練された単語埋め込み(word embedding)、単語ベクトル、アノテーションのセット、キーワード及びフレーズのリスト、例文のリスト、言語モデル、辞書、ならびに訓練されたモデル、及びモデルアーキテクチャを含むことができる。
本開示の上記態様のいずれかによれば、1つまたは複数のモデル資産は、個人を特定可能な情報がサニタイズされ得る。
本開示の上記態様のいずれかによれば、進行過程は、シードサンプラからハードネガティブサンプラ、層化サンプラ、不確実性サンプラへと進むことを含むことができる。
本開示の上記態様のいずれかによれば、サンプルのアノテーションを要求することは、アノテーションフィードバックのためにグラフィカルユーザインターフェース上にユーザに質問を提示することを含むことができる。
本開示の上記態様のいずれかによれば、この方法は、アノテーションなしデータのサンプルに対して1つまたは複数のアノテーションを予測することをさらに含むことができる。
本開示の上記態様のいずれかによれば、1つまたは複数のアノテーションの予測は、アノテーションなしデータのサンプルのアノテーションを要求する前とすることができる。
本開示の上記態様のいずれかによれば、この方法は、予測された1つまたは複数のアノテーションをサンプリングスコアに基づいて優先度キューに記憶することをさらに含むことができる。
本開示の上記態様のいずれかによれば、サンプリングスコアは、予測された1つまたは複数のアノテーションの信頼度スコアとすることができる。
本開示の上記態様のいずれかによれば、予測された1つまたは複数のアノテーションを優先度キューに記憶する前に、この方法によれば、サンプリングスコアが閾値サンプリングスコアより大きいか否かを判定することができる。
本開示の上記態様のいずれかによれば、この方法は、閾値サンプリングスコア未満であると判定されたサンプリングスコアを有する予測を破棄することをさらに含むことができる。
本開示の上記態様のいずれかによれば、優先度キューは、所定の最大数の予測を記憶することができる。
本開示の上記態様のいずれかによれば、この方法は、予測を優先度キューに記憶する前に、優先度キューに記憶されたいくつかの予測が予測の所定の最大数未満であると判定することをさらに含むことができる。
本開示の上記態様のいずれかによれば、この方法は、予測を優先度キューに記憶する前に、サンプリングスコアが、優先度キュー内の少なくとも1つの以前に記憶された予測よりも大きいと判定することをさらに含むことができる。
本開示の上記態様のいずれかによれば、この方法は、最も低いサンプリングスコアを有する、優先度キュー内の以前に記憶された予測を破棄することをさらに含むことができる。
本開示の上記態様のいずれかによれば、アノテーションなしデータのサンプルのアノテーションを要求することは、複数の優先度キューの中から優先度キューを選択することを含むことができる。
本開示は、機械学習モデルのライフサイクルを管理するためのシステムをさらに提供する。一部の態様では、システムは、プロセッサと、プロセッサに結合され、コンピュータ可読命令を記憶する非一時的メモリデバイスであって、コンピュータ可読命令は、プロセッサより実行された場合に、システムに機能を実行させ、機能は、アノテーションなしデータのセットを受信することと、アノテーションなしデータのサンプルのアノテーションを要求して、アノテーション付きデータのセットを生成することと、アノテーション付きデータのセットに基づいて機械学習モデルを構築することと、機械学習モデルをクライアントシステムに配備することであって、クライアントシステムにおいて本番アノテーションが生成される、配備することと、生成された本番アノテーションを収集し、本番アノテーションを組み込んだ新たな機械学習モデルを生成することと、アノテーション付きデータのセットに基づいて構築された機械学習モデル、または新たな機械学習モデルの一方を選択することと、を含む、非一時的メモリデバイスと、を備える。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、適合率、再現率、平均適合率、受信者動作者特性スコア、またはFベータスコアを含む、機械学習モデルの1つまたは複数の品質尺度を報告することをさらに含むことができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、モデルを第三者と共有することをさらに含むことができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、モデルを第三者と共有することをさらに含むことができる。
本開示の上記態様のいずれかによれば、サンプルのアノテーションを要求することは、ユーザ入力または自動サンプラ選択に基づいて、アノテーションなしデータのセットからサンプルを選択することを含むことができる。
本開示の上記態様のいずれかによれば、ユーザ入力は、セマンティック検索、類似サンプルの選択、またはアノテーションなしデータの視覚マップ上の選択のうちの1つまたは複数を含むことができる。
本開示の上記態様のいずれかによれば、自動サンプラ選択は、進行過程内の複数のサンプラのうちの1つからのものとすることができる。
本開示の上記態様のいずれかによれば、複数のサンプラのそれぞれは、異なるサンプリングアルゴリズムを使用することができる。
本開示の上記態様のいずれかによれば、それぞれのサンプリングアルゴリズムは、密度サンプリングアルゴリズム、エントロピーサンプリングアルゴリズム、推定誤差低減サンプリングアルゴリズム、網羅的なサンプリングアルゴリズム、フラグ付き予測アルゴリズム、ハードネガティブマイニングサンプリングアルゴリズム、高信頼度サンプリングアルゴリズム、線形サンプリングアルゴリズム、マップ可視化サンプリングアルゴリズム、メタデータ検索サンプリングアルゴリズム、最小マージンサンプリングアルゴリズム、クエリバイコミッティサンプリングアルゴリズム、ランダムサンプリングアルゴリズム、レビューサンプリングアルゴリズム、検索サンプリングアルゴリズム、類似性サンプリングアルゴリズム、入力がサンプルをスキップするものであったサンプルのサンプリングのタイプのアルゴリズム、層化サンプリングアルゴリズム、最も信頼性のあるサンプルのアルゴリズム、または最も不確実なサンプルのアルゴリズムから選択され得る。
本開示の上記態様のいずれかによれば、進行過程は、複数のサンプラのうちのサンプラ間で連続的に変更されることを含むことができる。
本開示の上記態様のいずれかによれば、複数のサンプラの各サンプラは、進行過程における前または次のサンプラのいずれに移動するかを決定する結果の期待分布を有することができる。
本開示の上記態様のいずれかによれば、モデル予測が誤っている所定数のサンプルアノテーションを受信すると、進行過程はサンプラ間で、進行過程における前のサンプラに変更され得る。
本開示の上記態様のいずれかによれば、モデル予測が一致する所定数のサンプルアノテーションを受信すると、進行過程はサンプラ間で、進行過程における次のサンプラに変更され得る。
本開示の上記態様のいずれかによれば、機械学習モデルを構築することは、共有モデルを受信し、中間モデルの重みを共有モデルの重みに初期化し、異なる学習率で訓練することを含むことができる。
本開示の上記態様のいずれかによれば、アノテーションなしデータのサンプルのアノテーションを要求することは、テストデータのセットの網羅的なアノテーションを要求することを含むことができる。
本開示の上記態様のいずれかによれば、テストデータのセットの網羅的なアノテーションは、密度サンプリング、レベルセットツリー、またはランダムサンプリングのうちの1つまたは複数を含む遠距離教師あり学習によって実行され得る。
本開示の上記態様のいずれかによれば、アノテーションなしデータのサンプルのアノテーションを要求することは、アノテーションなしデータのセットからサンプルを選択するための、複数のサンプラからのサンプラの推奨をグラフィカルユーザインターフェース上に提示することを含むことができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、グラフィカルユーザインターフェース上にデータ品質メトリック及びデータ数量メトリックを提示することをさらに含むことができる。
本開示の上記態様のいずれかによれば、データ数量メトリックは、訓練されたいくつかのサンプル、いくつかの正例、いくつかの負例、またはサンプルのクラスについて訓練されたいくつかのサンプルのうちの1つまたは複数を含むことができる。
本開示の上記態様のいずれかによれば、データ品質メトリックは、正解率、適合率、再現率、またはF1スコアのうちの1つまたは複数を含むことができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、グラフィカルユーザインターフェース上に、アノテーションなしデータのセットのアノテーションにわたる不一致を提示することをさらに含むことができる。
本開示の上記態様のいずれかによれば、機械学習モデルを構築することは、機械学習モデルを確立するためのアルゴリズム及び損失関数を選択することを含むことができる。
本開示の上記態様のいずれかによれば、アルゴリズムを選択することは、モデルタイプに基づく。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、アノテーションなしデータのセットからアノテーションが付けられたアノテーション付き訓練データのセットでモデルを複数回訓練し、実行にわたる品質メトリックの分散を測定することによって、収束をテストすることをさらに含むことができる。
本開示の上記態様のいずれかによれば、品質メトリックは学習曲線の傾きを含むことができる。
本開示の上記態様のいずれかによれば、モデルは、所与のモデルタイプ及びアルゴリズムに対して選択されたデフォルトのハイパーパラメータを使用して訓練され得る。
本開示の上記態様のいずれかによれば、ハイパーパラメータは、ランダム選択、グリッド探索、またはベイズ推定法のうちの1つまたは複数を使用して選択され得る。
本開示の上記態様のいずれかによれば、ランダムシード、アルゴリズム選択、損失関数、ハイパーパラメータ、データセット分割、データセットハッシュ、またはクラス重みのうちの1つまたは複数が、モデルに対して記憶され得る。
本開示の上記態様のいずれかによれば、機械学習モデルは、バージョン管理され、切り替えられ、またはロールバックされ得る。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、データドリフトまたはコンセプトドリフトを介してモデル間の変化を監視することをさらに含むことができる。
本開示の上記態様のいずれかによれば、コンセプトドリフトは、アノテーション付きデータのセットと本番アノテーションとの間で変化したいくつかの予測を定量化することに基づいてモデルを訓練することにより計算され得る。
本開示の上記態様のいずれかによれば、データドリフトは、アノテーション付きデータのセットと本番アノテーションとの間のコーパス統計及び/またはコーパス比較に基づいて測定され得る。
本開示の上記態様のいずれかによれば、データドリフトまたはコンセプトドリフトを識別した場合に警告が生成され得る。
本開示の上記態様のいずれかによれば、データドリフトまたはコンセプトドリフトは、経時的なアノテーションなしデータに関するメトリック、または経時的なモデル予測に関するメトリックを含むことができる。
本開示の上記態様のいずれかによれば、モデルを共有することは、特徴ハッシュ化、暗号ハッシュ化、またはランダムプロジェクションのうちの1つまたは複数を実行することを含むことができる。
本開示の上記態様のいずれかによれば、モデルを共有することは、モデルの勾配更新を共有することを含むことができる。
本開示の上記態様のいずれかによれば、勾配更新は、計算グラフのレイヤに加算され得る。
本開示の上記態様のいずれかによれば、モデルを共有することは、1つまたは複数のモデル資産を共有することを含むことができる。
本開示の上記態様のいずれかによれば、1つまたは複数のモデル資産は、データセットで訓練された単語埋め込み、単語ベクトル、アノテーションのセット、キーワード及びフレーズのリスト、例文のリスト、言語モデル、辞書、ならびに訓練されたモデル、及びモデルアーキテクチャを含むことができる。
本開示の上記態様のいずれかによれば、1つまたは複数のモデル資産は、個人を特定可能な情報がサニタイズされ得る。
本開示の上記態様のいずれかによれば、進行過程は、シードサンプラからハードネガティブサンプラ、層化サンプラ、不確実性サンプラへと進むことを含むことができる。
本開示の上記態様のいずれかによれば、サンプルのアノテーションを要求することは、アノテーションフィードバックのためにグラフィカルユーザインターフェース上にユーザに質問を提示することを含むことができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、アノテーションなしデータのサンプルに対して1つまたは複数のアノテーションを予測することをさらに含むことができる。
本開示の上記態様のいずれかによれば、1つまたは複数のアノテーションの予測は、アノテーションなしデータのサンプルのアノテーションを要求する前とすることができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、予測された1つまたは複数のアノテーションをサンプリングスコアに基づいて優先度キューに記憶することをさらに含むことができる。
本開示の上記態様のいずれかによれば、サンプリングスコアは、予測された1つまたは複数のアノテーションの信頼度スコアとすることができる。
本開示の上記態様のいずれかによれば、予測された1つまたは複数のアノテーションを優先度キューに記憶する前に、この方法によれば、サンプリングスコアが閾値サンプリングスコアより大きいか否かを判定することができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、閾値サンプリングスコア未満であると判定されたサンプリングスコアを有する予測を破棄することをさらに含むことができる。
本開示の上記態様のいずれかによれば、優先度キューは、所定の最大数の予測を記憶することができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、予測を優先度キューに記憶する前に、優先度キューに記憶されたいくつかの予測が予測の所定の最大数未満であると判定することをさらに含むことができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、予測を優先度キューに記憶する前に、サンプリングスコアが、優先度キュー内の少なくとも1つの以前に記憶された予測よりも大きいと判定することをさらに含むことができる。
本開示の上記態様のいずれかによれば、システムによって実行される機能は、最も低いサンプリングスコアを有する、優先度キュー内の以前に記憶された予測を破棄することをさらに含むことができる。
本開示の上記態様のいずれかによれば、アノテーションなしデータのサンプルのアノテーションを要求することは、複数の優先度キューの中から優先度キューを選択することを含むことができる。
これら及び他の特徴は、添付の図面及び特許請求の範囲と併せて以下の詳細な説明からより明確に理解されよう。
本開示をより完全に理解するために、ここで以下の簡単な説明を、添付の図面及び詳細な説明に関連して参照し、同様の参照番号は同様の部分を表す。必ずしも縮尺通りに描いていない添付図面は、本開示のいくつかの実施形態を示しており、本説明と共に、実施形態による開示した技術の原理を説明するのに役立つ。
開示した技術の例示的な実施形態による、機械学習モデルを作成するための情報スタックを示す。 開示した技術の例示的な実施形態による、データアノテーション及び機械学習モデルの作成を容易にするコンピュータアーキテクチャを示す。 開示した技術の例示的な実施形態による、データアノテーション及びモデル構築のための統合されたワークフロープロセスのフロー図を示す。 開示した技術の例示的な実施形態による、訓練データのセットにアノテーションを付けるためのアノテーションプロセスのフロー図を示す。 開示した技術の例示的な実施形態による、アノテーションなしデータのアノテーションを容易にするサンプリング技法の進行過程のシーケンス図を示す。 開示した技術の例示的な実施形態による、データにアノテーションを付けるための計算アーキテクチャのブロック図である。 開示した技術の例示的な実施形態による、予測を高速化し、ハードウェア要件を低減するために使用される優先度キュー方法を示すブロック図である。 開示した技術の例示的な実施形態による、テストデータのセットにアノテーションを付けるためのアノテーションプロセスのフロー図である。 開示した技術の例示的な実施形態による、新たな機械学習モデルの作成を開始するための例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、ユーザが複数のデータセットを管理できる方法を示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、ユーザが複数のアノテーションのセットを管理できる方法を示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、様々なアノテーションのセットの一実施例を示す。 開示した技術の例示的な実施形態による、ユーザがアノテーションをセットアップするのに使用できる構成オプションを示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、キーワード及びフレーズのリストを入力及び管理する方法を示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、ユーザが関連する単語及びフレーズを発見及び管理できる方法を示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、単語リスト管理へのオントロジーの組み込みを示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、例文のリストを入力及び管理する方法を示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、アノテーションプロセス、アノテーションプロセスを管理するためのツール、及び進捗状況に関するフィードバックを示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、ユーザが自身の反応の強さをスコア付けすることを可能にするアノテーションプロセスを示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、隣接するエントリにアノテーションを付ける機能、ならびにアノテーションに関する色付きのフィードバックを示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、複数のタイプの候補サンプリングを示すドロップダウンを示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、データにわたる一回限りのキーワード検索を示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、ユーザが自身のデータを視覚的に探索することを可能にし得るデータマップを示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、いかにして失敗状態を処理することができ、情報がユーザに返されるかを示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による、以前にアノテーションが付けられたエントリのリスト、及びそれらのエントリの管理方法を示す例示的なグラフィカルユーザインターフェースを示す。 開示した技術の例示的な実施形態による例示的なコンピュータシステムを示す。
1つまたは複数の実施形態の例示的な実施態様を以下に示すが、開示したシステム及び方法は、既知または既存であるかを問わず、任意数の技法を使用して実装し得ることを最初に理解されたい。本開示は、以下で説明する例示的な実施態様、図面、及び技法に一切限定されるべきではなく、添付の特許請求の範囲、ならびにそれらの均等物の全範囲内で修正してもよい。
機械学習モデルの作成は、複雑で時間のかかるタスクである場合がある。従来、これには、データの集約、前処理、アノテーション、及び検査、特徴抽出及びベクトル化、ならびにモデルの訓練及び評価が含まれていた。結果として、そのようなモデルを作成する機能は、多くの場合、データサイエンスの専門知識を有する人々による使用に制限されていた。開示した技術の実施形態によって提供される利点及び利益の中でもとりわけ、データサイエンスの広範な知識を有さないユーザが強力なモデルを作成することができると共に、データサイエンティストが自身の仕事をより迅速に実行することが可能になる。
開示した技術の様々な実施形態によれば、ユーザは適切なデータソースを接続し、アノテーションプロセスをセットアップし、データにアノテーションを付け、それらのアノテーションから機械学習モデルを構築し、機械学習モデルを配備し、本番のフィードバックを収集してモデルの新たなバージョンに組み込み、モデル及び学習内容を共有することができる。
図1に、開示した技術の例示的な実施形態による、機械学習モデルを作成するための情報スタック100を示す。情報スタック100は、アノテーションなしデータ102、アノテーション付きデータ104、分析106、及びモデル108を含む。アノテーションなしデータ102は、データソースからの未処理データを含む。たとえば、アノテーションなしデータ102は、電子メールコミュニケーション、チャットログ、文書ストア、または他のテキストデータのソースのセットを含んでもよい。テキストデータはプレーンテキストファイルからのものでもよく、たとえば、電子メールもしくはチャットを介した電子的コミュニケーション、フラットファイル、または他のタイプの文書ファイル(たとえば、.pdf、.docなど)からのものでもよい。また、アノテーションなしデータ102は、画像ライブラリ、ビデオライブラリ、または他の画像もしくはビデオデータのソースを含んでもよい。また、アノテーションなしデータ102は、電話、ポッドキャスト、及び他の音声データのソースを含んでもよい。アノテーションなしデータ102は、既存のデータストアから提供されてもよく、または任意の所望のフォーマットのアノテーションなしデータのライブストリームを含んでもよい。一部の実施態様では、アノテーションなしデータ102は、ファイルのディレクトリを含んでもよく、グラフィカル形式のデータを含むことができる。他の電子データのソースが使用されてもよい。
新たな機械学習モデル108の作成におけるボトルネックは、アノテーションなしデータにアノテーションを付けてアノテーション付きデータ104にすることである。アノテーション付きデータ104は、アノテーション、または本明細書に記載のアプリケーションなどを介してユーザにより提供されるアノテーションと結合された1つまたは複数のデータセットを含むことができる。データサイエンスの専門家を利用するのとは対照的に、あるドメインの主題専門家(subject matter expert)は、本明細書に記載のアノテーションプロセスに参加して、自身の知識を移転しやすくし、機械学習モデル作成プロセスの速度を向上させ、コストを削減してもよい。開示したアノテーションプロセスは、言語に依存せず、ドメインに依存しない方法で実行される。
分析106を実行して、モデル108を作成する前に、十分なアノテーションが行われたことを確認することができる。
図2に、開示した技術の例示的な実施形態による、データアノテーション及び機械学習モデルの作成を容易にするコンピュータアーキテクチャ200を示す。コンピュータアーキテクチャ200は、本明細書に記載のアノテーションプロセスを実行するアノテーションサーバ202を含む。アノテーションサーバ202は、情報スタック100を内部に記憶するように構成されるデータベース204と通信する。単一のデータベースとして図示しているが、情報スタック100の要素ごとに1つまたは複数のデータベースが使用されてもよい。アノテーションサーバ202は、アノテーションクライアント206からネットワーク208を介してアノテーションなしデータ102を受信して、データベース204に記憶してもよい。アノテーションサーバ202は、1つまたは複数のグラフィカルユーザインターフェースを介してアノテーションクライアント206と対話して、アノテーション付きデータ104の生成を容易にする。1つまたは複数のアノテーション訓練基準による指定通りに、アノテーションなしデータ102に十分にアノテーションが付けられると(たとえば、クラスごとに20個のアノテーション)、アノテーションサーバ202は、1つまたは複数の中間モデルを生成するように構成される。
これらの中間モデルはアノテーションなしデータについての予測を生成し、これをネットワーク208を介してアノテーションクライアント206または別のクライアントコンピュータ(図示せず)に通信して、本番アノテーションを容易にしてもよい。クライアントコンピュータ206での通常の本番作業中に、さらなる本番アノテーション付きデータが生成され、本番アノテーションデータベース210に記憶される。たとえば、クライアントコンピュータ206上で新たなデータが入力または操作されると、ベースラインモデルは新たなデータについてのアノテーションの予測を提示し、これは承認されるかまたは修正されて、さらなる本番アノテーション付きデータが生成される。定期的に、本番アノテーションは、アノテーションサーバ202にフィードバックされ、さらなる本番アノテーション付きデータを考慮した更新されたモデルを生成するために使用される。本番アノテーションは、本番アノテーションを含むファイルをインポートするか、またはアノテーションサーバ202上で公開された標準APIを介して、アノテーションサーバ202にフィードバックされてもよい。APIは、攻撃を防ぐためにレート制限されてもよい。
図3に、開示した技術の例示的な実施形態による、データアノテーション及びモデル構築のための統合されたワークフロープロセス300のフロー図を示す。302において、アノテーションなしデータ102がアノテーションサーバ202にインポートされて、データベース204に記憶される。
304において、アノテーションなしデータ102の探索的データ分析が実行される。これにより、データをアノテーションのために適切にサブセットに層化することが可能になる。たとえば、テキストの場合、探索的データ分析により、ロジスティック回帰などの方法を使用して、外国語の分布、文書タイプ(電子メール、チャット、ポータブルドキュメントフォーマットの文書、ハイパーテキストマークアップ言語など)の分布、ならびにFlesch-Kincaid可読性スコアの分布を特定してもよい。画像データの場合、探索的データ分析により、カラー画像対白黒画像の分布、画像のサイズ及び解像度、ならびに画像内のエントロピーの分布を特定してもよい。これらの分布は、アノテーション用に層化されたサブセットを選択するために使用される。たとえば、ユーザは、2018年4月2日から2018年4月7日までの週のスペイン語のチャットメッセージにアノテーションを付けることを選択してもよい。
307において、アノテーションなしデータ102は、事前定義されたまたはユーザ指定のクリーニングパイプラインを使用して前処理される。これは一種の次元削減であって、分析及び関心領域へのセグメンテーションのためにデータを正規化するものである。たとえば、テキストの前処理は、免責事項、意味のないテキスト、または電子メールのインライン返信の削除などのタスクの実行を含んでもよい。テキストデータの場合、これは、テキストをトークン化して、文、段落、または文書に分割すること、小文字に変換することを含むことができ、句読点の間にスペースが挿入されてもよく、日本語のような非空白言語の場合に、空白が挿入されてもよい。
306において、前処理されたデータのサブセットが選択され、308において訓練候補のセットが提供され、314においてテストデータのセットが提供される。310において、以下で図4~図7に関連してより詳細に説明するガイド付きアノテーションプロセスを通じて、アノテーション付き訓練セットが作成される。ガイド付きアノテーションプロセスにより、主題専門家は、短時間で、削減されたコストで、削減された計算リソースで、大きな訓練候補のセットにアノテーションを付けることが可能になる。データアナリストによるデータセットの「総当たりの」アノテーションに依存する従来のアノテーション方法では、典型的には、不均衡なデータセットに十分にアノテーションを付けるのに数人年かかるが、本明細書で開示するガイド付きアノテーションプロセスは、数人時または数人日にわたるデータセットの十分なアノテーションを容易にし得る。
316において、以下で図8に関連してより詳細に説明するように、テストセットの作成のために確保されたデータにアノテーションを付けて、アノテーションテストセットを生成し、明示的に、または遠距離教師あり学習を使用して代理でテストする。一部の実施態様では、テストデータのセットに網羅的にアノテーションが付けられる。場合によっては、能動学習により、偏ったデータ分布が生成され、これは偏りのないテストセットを作成するのに適さない。代わりに、レベルセットツリー、ランダムサンプリングを使用した教師なしクラスタリング、及び密度ベースのサンプリングにより、テストデータのセットに十分かつ効率的にアノテーションを付けることが容易になる。
312及び318において、アノテーション付き訓練セット及びアノテーション付きテストセットに対してデータレビューが実行される。データレビューは、基礎となるサンプルが意味的に類似しているが同一ではない場合でも、複数のレビューアにわたるアノテーション間の不一致を識別するアノテーション「クリーニング」を含む。アノテーションの一致は、ユーザ内で(疲労または誤った判断のため)またはユーザ間で確認することもできる。アノテーションの一致は、分散表現の類似度測定(たとえば、ベクトル埋め込みのコサイン類似度)と組み合わせたユーザアノテーションを使用することによって、測定することができる。このレビュー中に、教師(supervisor)は、「ゴールドスタンダード」アノテーションを確立することができる。一部の実施態様では、アノテーション「クリーニング」は、その全体が引用により本明細書に組み込まれる、Gardner et al.による同一所有者の米国特許第9,058,317号「System and Method for Machine Learning Management」に記載されているように実行されてもよい。
320において、クレンジングされたアノテーション付き訓練セット及びアノテーション付きテストセットを使用して、機械学習モデルが構築される。場合によっては、共有モデル322を供給して、モデル構築320に情報を与えてもよい。共有モデル322が提供されると、構築中のモデルは共有モデル322の重みに初期化され、差分学習率で訓練される。一部の実施態様では、構築中のモデルは徐々に低くなる学習率を使用して訓練される。一部の実施態様では、共有モデル322によって提供される特定の重みは、未訓練のまま、または軽く訓練されたままであってもよい。構築中のモデルが未訓練または軽く訓練された重みを有する場合、高い学習率を選択的に維持して、それらの重みを迅速に訓練してもよい。
324において、モデル構築320の結果として、挑戦者モデルが生成される。328において、生成されたモデルに関する報告を提示してもよい。一部の実施態様では、複数のモデルを構築し、アノテーション付きテストセットに対して共通の品質尺度を使用して比較してもよい。品質尺度は、たとえば、適合率、再現率、平均適合率、受信者動作者特性スコア、Fベータスコアなどを含んでもよい。他の品質尺度が使用されてもよい。モデル同士の意見が合う場合と、合わない場合との予測の実施例を、報告328を通じてユーザに提示してもよい。モデルの選択を容易にするために、モデルごとの様々な閾値での適合率-再現率曲線、ROC曲線、及び真/偽陽性/陰性のサンプルについて、さらなる可視化が提供されてもよい。
ユーザは任意の時点で、十分な訓練データが収集されたとみなし、モデルの構築を進める準備をしてもよい。モデル構築中に、アノテーションサーバ202は、ユーザに一連のステップを自動化された方法で案内する。一部の実施形態では、ユーザは、機械学習の訓練に使用される特定のアノテーションセットと、機械学習モデルの品質のテストに使用される他のアノテーションセットとを指定する。他の実施形態では、アノテーションサーバ202は、所与の概念について利用可能な全てのアノテーション付きデータを、訓練データのセット及びテストデータのセットに分割する。
訓練データ及びテストデータならびにモデルタイプ(たとえば、テキスト分類器、画像分類器、意味役割ラベリング)が与えられると、アノテーションサーバ202は、ベースラインを確立するために使用する適切なアルゴリズム及び損失関数を選択する。ほとんどの場合、モデルのタイプ及び訓練データの量に対して特定のアルゴリズムが事前に決定されている。たとえば、バイグラム機能を有するロジスティック回帰がテキスト分類のベースラインアルゴリズムとして選択されてもよく、スペクトログラム機能を有する隠れマルコフモデルが自動音声認識のベースラインアルゴリズムとして選択されてもよい。ベースラインを超えて、各モデルタイプは、アノテーションサーバ202によって事前に決定された適用可能なアルゴリズムの関連付けられたリストを有する。
アルゴリズム及び損失関数が選択されると、アノテーションサーバ202は収束をテストし、追加の訓練データの利益を評価し、ベースラインモデルを確立する。収束は、訓練データでモデルを複数回訓練し、テストデータで品質メトリックを測定し、実行にわたる品質メトリックの分散を測定することによってテストしてもよく、ここで、分散は標準偏差により計算される。追加の訓練データの利益は、学習曲線を介して評価され、フィードバックのためにユーザに返される。学習曲線を使用した評価については、以下でより詳細に説明する。最後に、「ベースラインモデル」は、所与のモデルタイプ及びアルゴリズムに対して選択されたデフォルトのハイパーパラメータを使用して訓練される。ベースラインモデルの予測と、テストセットの参照アノテーションとを使用して、多数のメトリックが計算される。これらのメトリックは問題のタイプに関するものであるが、以下でより詳細に説明するデータ品質メトリック、データ数量メトリック、及びモデル品質メトリックを含んでもよい。
一部の実施形態において、メトリックは検証セットに対して実行される。他の実施形態では、検証セットは存在せず、訓練データは、典型的な交差検証方法によって、訓練及び検証の両方に使用される。
ベースライン選択プロセスと同様に、アノテーションサーバ202はモデルタイプを使用して、適切な探索空間を選択する。探索空間は、アルゴリズムのファミリーと、それらに関連する損失関数と、アルゴリズムを調整するための潜在的なハイパーパラメータとで構成される。単一のハイパーパラメータの最適化の実行中に、アルゴリズム及びサンプルのハイパーパラメータが選択され、モデルが訓練され、メトリックが計算される。
アルゴリズム及び候補ハイパーパラメータの選択は、任意数の方法を使用して実行され、たとえば、ランダム選択、グリッド探索、またはベイズ推定法(たとえば、Parzen推定器のツリー)などがある。モデル訓練の各実行では、実験を再現するために必要なパラメータ、及び実験の結果が、データベースに記憶される。これらのパラメータは、ランダムシード、アルゴリズム選択、損失関数、ハイパーパラメータ、データセット分割、データセットハッシュ(たとえば、変化が発生したか否かを判定するためのデータセット全体にわたる尺度)、及びクラス重みを含んでもよい。ストア結果は、ベースラインだけでなく、ハイパーパラメータ最適化中に実行される反復を含んでもよい。
ハイパーパラメータの推定は、品質目標が達成された場合、品質の変化が小さくなった場合、または計算予算が使い果たされた場合に停止する。一部の実施形態では、ユーザには、全てのアルゴリズム及びハイパーパラメータの実行の結果のグラフィカルなリストが提示され、そこからモデルを選択することができる。他の実施形態では、目的関数を最大化または最小化する最良のモデルが自動的に選択される。たとえば、テキスト分類では、これは受信者動作特性曲線の下の面積を最大化するモデルであってもよい。
一部の実施態様では、最初の挑戦者モデル324が生成されると、このモデルはチャンピオンであると見なされ、330において配備され得る。新たなアノテーションが、アノテーションクライアント206または他のクライアントコンピュータ(図示せず)などの外部のシステムから提供されてもよい。たとえば、コンプライアンス監視システムが存在し、コンプライアンス担当者の日々の活動が、会社にとって潜在的なリスクになるメッセージにフラグを立てることであると仮定する。これらのフラグ付きメッセージは本番アノテーションであり、これらをアノテーションサーバ202にフィードバックして、データベース204に記憶されたアノテーション付き訓練セットを補うことができ、324において新たな挑戦者モデルを生成するために使用することができる。ベースラインモデル、または最初の挑戦者モデル324は、チャンピオンモデル326とみなしてもよい。報告328は、上述のように、チャンピオンモデル326と、新たに構築された挑戦者モデル324とを比較して、330で配備されるモデルの1つの選択を容易にすることを含んでもよい。
新たな本番アノテーションがアノテーションサーバ202に供給されると、その後生成されるモデルは、データドリフト計算及びコンセプトドリフト計算によって変化が監視される。たとえば、コンセプトドリフトは、アノテーション付き訓練セットの新旧バージョンに基づいて訓練モデルを計算し、新旧データセットに関していくつかの変化した予測を定量化することによって計算してもよい。データドリフトは、アノテーション付き訓練セットの新旧バージョン間のコーパス統計及び/またはコーパス比較に基づいて測定してもよい。たとえば、テキストデータの場合、コーパス統計は、文書で固定された割合、HTMLタグの割合、参照語彙(たとえば、チャット語彙、標準語彙)と比較した語彙外の単語の割合、文字及び/または数字が混在している単語の割合、品詞の割合、句読点、文字(英語、キリル文字など)、数字、及び/または他のテキスト記号の割合、大文字の、小文字の、大文字で始まる、及び/または他の形式の単語の割合、いくつかの文字、単語、文、段落、及び/または単語、文、段落、及び/または文書ごとの段落、改行ごとの文字及び/または単語の分布、重複した文の分布、電子メールまたは他の文書ごとのいくつかの文の分布、形式、最も一般的な単語及びバイグラム、及び/または可読性スコア、を含んでもよい。コーパス統計は、追加的または代替的に、経時的なアノテーションなしデータに関するメトリック、または経時的なモデル予測に関するメトリックを含んでもよい。コーパス比較は、上記のコーパス統計、スピアマンの順位相関係数、及び/またはパープレキシティ(perplexity)のいずれか1つまたは組み合わせに基づく比較を含む。
ユーザは、クライアントコンピュータ206に表示されるメッセージまたは画面を介して、それらのデータのそのようなドリフトを警告される。さらにモデルは、所望であれば、クライアントコンピュータ206を介して供給されるユーザ入力に基づいて、バージョン管理、切り替え、及びロールバックを行うことができる。
332において、大規模なデータセットの迅速な探索及びアノテーション、ならびに対応するモデル作成が可能になることに加えて、特定の実施態様では、生成されたモデル及び/または生成されたモデル資産を購入、販売、共有、及び配布することが可能になる。これらのモデル資産は、限定はしないが、データセットで訓練された単語埋め込み、単語ベクトル、アノテーションのセット、キーワード及びフレーズのリスト、例文のリスト、言語モデル、辞書、ならびに訓練されたモデル、及びモデルアーキテクチャを含む。一部の実施態様では、アノテーションは、新たなモデルが訓練される前に、個人を特定可能な情報が「サニタイズ(sanitized)」される。元の未加工の特徴が発見されないように、特徴を安全にハッシュ化してもよい。準同型暗号化を単純なモデルに使用することができる。
一部の実施態様では、これらのモデルの「学習内容」は、モデル自体を共有せずに、公開または別の方法で共有される。たとえば、「パブリッシャ」が基礎となるモデルを調整すると、モデルの勾配更新が、管理された外部サーバに送信され、外部サーバはこれらの勾配更新を「サブスクライバ」に再配布する。「サブスクライバ」は、勾配更新を使用して自身のローカルモデルをさらに訓練することができる。一部の実施形態では、勾配更新は暗号化されてもよい。一部の実施態様では、勾配更新が計算グラフのレイヤに加算される。ローカルモデルを訓練する場合、勾配更新に局所学習率が乗算されてもよい。あるいは、勾配更新は(X,y)を共有してもよく、ここで、Xは入力データ点、入力データの意味表現、または匿名データである。
図4に、開示した技術の例示的な実施形態による、訓練候補のセットにアノテーションを付けるためのアノテーションプロセス400のフロー図を示す。アノテーションプロセス400は、310でのアノテーション付き訓練セットの作成中に行われ、アノテーションサーバ202によって実行されてもよく、アノテーションクライアント206上のローカルインストールで実行されてもよい。
402において、アノテーションなしの訓練候補のセットが受信される。訓練候補のセット内の各データ要素を、アノテーションなしデータ102のサンプルと呼ぶ。たとえば、テキストの場合、サンプルは、前処理されたトークン化されたテキスト(たとえば、nグラム、文、段落など)を含む。404において、訓練候補のセットまたはそのサブセット内のサンプルに対してアノテーションを予測するモデル406によって予測セットが生成される。予測セット内の予測は、ストリーミングされてもよく(たとえば、1つずつ決定されてもよく)、予測のバッチで提供されてもよい。また、予測セット内の予測は、訓練候補のセット内のアノテーションなしサンプルの1つまたは複数のクラスタ内のサンプルに対して作成されてもよい。クラスタは、アノテーションなしデータ102の前処理中に特定されてもよい。モデル406は、予測ごとに予測ベクトルスコアをさらに提供する。たとえば、分類タスクの場合、モデル406は、バイナリ分類器アルゴリズムまたはマルチクラス分類器アルゴリズムを使用して、予測セットを生成してもよい。使用され得るモデルの実施例については、以下で図9を参照してより詳細に説明する。一部の実施態様では、モデルは、線形分類器及び訓練可能な単語埋め込みを有する連続的なバッグオブワード(bag of words)モデルである。他の実施形態では、モデルは、訓練可能なまたは固定の単語埋め込みを有する深層学習モデル(たとえば、畳み込みまたはリカレントニューラルネットワーク)であってもよい。テキスト以外のデータ用の他のタイプのモデルが本開示により企図される。
408において、予測の予測ベクトルに基づいて予測セットが評価され、1つまたは複数のサンプルのアノテーションを要求するか否かについての判定が行われる。アノテーションプロセスを通じたモデルの迅速かつ集中的な訓練を容易にするために、複数のサンプリングアルゴリズムのうちの1つに従って予測セットをサンプリングし、サンプリングされた予測セット内の各サンプルをキュー内にサンプリングスコアの順で並べることにより、サンプリングされた予測セットが生成される。サンプリングスコアは、信頼度スコアと等しくてもよく、予測がサンプリングアルゴリズムにどの程度適合するかを表すように予測ベクトルから導出されてもよい。サンプリングされた予測セットを生成するために使用されるサンプリングアルゴリズム、及びサンプリングされた予測セットが配置されたキューは、サンプラまたは「例文候補生成エンジン」と呼ぶ。そして、サンプラによって提供されるサンプルについて、アノテーションを要求してもよい。
サンプリングアルゴリズムは、密度サンプリングに基づくサンプリング、エントロピーサンプリング(たとえば、最大レベルのシャノンエントロピーを有する予測を特定する)、推定誤差低減サンプリング、網羅的なサンプリング(たとえば、直線的な進行(linear progression))、フラグ付き(たとえば、予測にフラグを立てて後で分析できるようにするためのユーザ入力が提供された予測)、ハードネガティブマイニングサンプリング、高信頼度サンプリング(たとえば、最大信頼度スコアを有する予測)、線形サンプリング、マップ可視化サンプリング(たとえば、以下で図23に関連してより詳細に説明するデータマップ上で受け取ったユーザ入力からのもの)、メタデータ検索サンプリング、最小マージンサンプリング、クエリバイコミッティサンプリング、ランダムサンプリング、レビューサンプリング、検索サンプリング(たとえば、以下で図13~図16及び図22に関連してより詳細に説明する検索パラメータ及び/またはキーワードのユーザ入力からのもの)、類似性サンプリング、スキップされたサンプリング(たとえば、ユーザ入力が予測のアノテーション付けをスキップするものであった予測)、層化サンプリング、最も不確実なもの(たとえば、最低信頼度スコアを有する予測)を含む。このサンプリングアルゴリズムのリストは、網羅的なリストであることを意図したものではなく、他のサンプリングアルゴリズムが使用されてもよい。
410において、サンプラは、異なるサンプリングアルゴリズムを使用する異なるサンプラに変更されてもよい。サンプラは、サンプラを変更するためのユーザ選択の受信に基づいて、またはサンプラを変更するというアルゴリズムの判定に基づいて変更されてもよい。以下で図6~図7を参照してより詳細に説明するように、サンプラを変更する際にモデルを再訓練する必要はない。
412において、ユーザがサンプルにアノテーションを付けるのをスキップしたか否かが判定される。スキップした場合、プロセス400はループして、アノテーションを要求するために他のアノテーションなしデータ402を評価する。スキップしなかった場合、414において、ユーザのフィードバックに基づいてサンプルにアノテーションが付けられる。416において、アノテーション付きサンプルに基づいてモデルが更新される。モデルは、新たなアノテーションのたびに更新が実行されるように、ストリーミング方式で更新されてもよい。あるいは、モデルは、たとえば所定数のアノテーションの後などに、バッチ方式で更新されてもよい。別の代替例として、モデルを更新するためのユーザ入力を受信したときに、モデルが更新されてもよい。さらなる代替例として、モデルはアルゴリズムの判定に基づいて、たとえば、定期的に、いくつかの正しい予測の追跡に基づいて、または学習を強化するように更新されてもよい。
アノテーションプロセス400は、更新されたモデル416が停止基準を満たすまで継続してもよい。停止基準は、モデルの品質に関する人間の判断を容易にする情報を提供してもよい。たとえば、更新されたモデル416は、データ品質メトリック及びデータ数量メトリックについて、網羅的にアノテーションが付けられたテストデータのセットに対して評価されてもよい。データ品質メトリックは、コヒーレンスメトリックを含んでもよい。たとえば、マルチクラス分類アルゴリズムの場合、ジニ係数カウントまたは各部分(proportions)の最大エントロピーのパーセントに基づいて、クラスタコヒーレンスメトリックが生成される。
データ数量メトリックは、学習曲線メトリックまたはモデル収束メトリックを含んでもよい。たとえば、学習曲線メトリックは、複数の所定のデータアノテーションレベルのそれぞれにおいて(たとえば、データの5、10、20、50、75、100%にアノテーションが付けられた各時点で)、テストデータのセットに対して、更新されたモデルの反復の予測の正解率を測定してもよい。学習曲線の傾きは、更新されたモデルが学習している追加情報の量の尺度である。学習曲線が平坦になると、更新されたモデルのさらなる反復ごとに、学習される追加情報の量が減少する。したがって、アノテーションプロセス400を終了するための停止基準は、学習曲線の傾きが所定の閾値学習率を下回った場合であってもよい。モデル収束メトリックは、実行にわたる、交差検証の分割にわたる、及び/または交差検証の平均にわたるメトリックの標準偏差である場合がある。アノテーションプロセス400の他の停止基準が使用されてもよい。
図5に、開示した技術の例示的な実施形態による、訓練候補のセットのアノテーションを容易にするサンプリング技法のアルゴリズムのサンプリングの進行過程500のシーケンス図を示す。一般に、選択されたサンプラについて、モデルが高い信頼度のサンプルを識別しており、アノテーションクライアント206上でのアノテーション入力を介した確認フィードバックを受信している場合、サンプラの進行過程500は続いて、サンプラを進行過程500のさらに下のサンプラに変更する。すなわち、各サンプラは、進行過程における前または次のサンプラのいずれに移動するかを決定する結果の期待分布を有する。たとえば、選択されたサンプラがハードネガティブサンプラ504であって、ユーザによって提供されたアノテーションがモデル予測と一致する場合、サンプラを層化サンプラ506に変更してもよい。
同様に、ユーザによって提供されたアノテーションがモデル予測と異なる場合、サンプラは進行過程500のより上のサンプラに変更してもよい。すなわち、モデル予測が誤っている所定数のサンプルアノテーションを受け取ると、進行過程の前のサンプラが選択される。たとえば、層化サンプラ506が予測を正しく提供していない場合、サンプラはハードネガティブサンプラ504に変更してもよい。一部の実施態様では、進行過程500は、いくつかの「サプライズ」アノテーションを最大化し、あるいは学習曲線の最大化を強化する(たとえば、学習曲線で可能な限り急な傾きを維持する)異なるサンプラを選択する。
最初に、選択されるサンプラはシードサンプラ502である。シードサンプラ502は、ユーザによって提供された入力に基づいてサンプルを識別する。以下で図13~図16を参照してより詳細に説明するように、入力は、ユーザにより入力された、ユーザが分類することに関心があるキーワード、フレーズ、及び/または例文を含んでもよい。さらに、他のデータタイプの辞書、オントロジー、または他のそのようなデータベースをインポートして、ユーザによって提供された入力を補い、拡張してもよい。また、入力は、上述の共有モデル資産などの共有モデル資産の入力を含んでもよい。また、シードサンプラ502により、以下により詳細に説明するように、ユーザが訓練候補のセット内のサンプルを能動的に検索することが可能になる。テキストベースのアノテーションの場合、シードサンプラ402に提供されるキーワード及びフレーズリストを使用して、まず、ユーザが探しているものの例文を探し、それにより不均衡なデータ(たとえば、データセット内のサンプル数と比較して少数の代表的なサンプルしか存在しないデータ)の問題に対処する方法を提供する。
一部の実施形態では、「シード」サンプリングは、事前に訓練されたモデルによって部分的に完了している。これにより、ユーザが代表的なシード例を探す必要性が減少し、ハードネガティブサンプラへのより高速な進行が可能になる。そのような実施形態では、中間モデルは、前述の増分学習率を使用して漸進的に訓練される。
進行過程500はシードサンプラへ/から、ハードネガティブサンプラ504から/へ進む。ハードネガティブサンプラ504は、ハードネガティブマイニングサンプリングアルゴリズムを使用して、「サプライズ」アノテーションを識別しようと試みる。すなわち、ハードネガティブマイニングアルゴリズムは、信頼度スコアが高いアノテーションの予測をモデルが有するサンプルを検索するが、(たとえば、異なるアノテーションを割り当てることによって)アノテーションが正しくないというアノテーションをユーザから受け取る。
進行過程500はハードネガティブサンプラ504へ/から、層化サンプラ506から/へ進む。層化サンプラ506は、層化サンプリングアルゴリズムを使用する。層化サンプリングアルゴリズムは、所与の結果についてのスコアが2つの浮動小数の間[A,B]にあるサンプルを識別する。
進行過程500は層化サンプラ504へ/から、不確実性サンプラ508から/へ進む。不確実性サンプラ508は、最大エントロピーアルゴリズム、最小マージンアルゴリズム、クエリバイコミッティアルゴリズム、または他のそのような不確実性サンプリングアルゴリズムのうちの1つまたは複数を使用する。不確実性サンプラ508は、不均衡なデータセット内のユニークな、もしくはまれな、または別の方法で等しくない確率サンプルにアノテーションを付ける際に特に役立つ。
上記のように、このサンプラは、それぞれ独自のサンプリングアルゴリズムを有する事前に提供されたサンプラのリストからユーザが手動で選択してもよい。サンプリングアルゴリズムは、限定はしないが、最大情報量(最大エントロピー)、最小マージン、特定のクラスからのランダムサンプル、キーワードベースのサンプル、ランダムサンプル、またはデータの直線的な進行を含む。「最大エントロピー」などの方法により、フィードバックを求めるために、低い信頼度スコアが存在する予測を効果的に識別することができる。
一部の実施態様では、たとえば図21に示すように、ユーザは「自動サンプリング」を使用することを勧められる。上述のように、サンプリング進行過程500による自動サンプリングによって、ユーザにより受け取られる新たなアノテーションに応じて得られる情報価値を最大化することができる。具体的には、進行過程500は、最初にキーワード及びフレーズを使用し(不均衡なデータ内で正例を探すため)、その後、より高度な方法に移行してもよい。進行過程500は、ユーザによって提供されたアノテーションが「サプライズ」となる(すなわち、アノテーションがモデルの予測と異なる)か否かに応じて、1つまたはいくつかの可能なサンプリング方法に適応することができる。たとえば、モデルが予測に関連する高い信頼度スコアを有すると仮定する。人間のアノテータがモデルの予測と意見が合う場合、進行過程500は、より高い不確実性が存在するサンプルを提供するサンプラに自動的に移行してもよい。しかしながら、人間のアノテータがモデルの予測と意見が合わない場合、進行過程500は、予想される情報獲得を最大化するために、他の「高信頼度」サンプルを表示し続けてもよい。
一部の実施形態では、ユーザは、アノテーションの品質を維持するために、不確実なサンプルにフラグを立てて後でレビューすることができる。他の実施形態では、ユーザは、サンプルが「記憶」されるように指定することができ、これにより、これらのサンプルに関して、ハッシュテーブルを参照して機械学習モデルがオーバーライドされる。
キーワード及びフレーズのリストが提供されたか、またはモデルにシードを与えるための他のそのような入力が提供された場合、進行過程500は、入力データの適切な「カバー範囲」を確保してもよい。たとえば、10個のキーワードのリストが与えられた場合、サンプラは各キーワードに関してユーザに表示されるサンプルの数を追跡してもよい。特定のキーワードが他のキーワードに対して「アンダーサンプリング」されていると判定された場合、進行過程500は、不均衡が修正されるまでそのエントリをオーバーサンプリングすることを選択してもよい。この方法により、関連する学習モデルの再現率が改善される。
ユーザが不十分な「文脈」が提供されたと考えた場合、追加の文脈を要求することができる。たとえば、文が曖昧であると考えられる場合、ユーザは文の前後を見ることを要求することができる。この場合、アノテーションだけでなく、より多くの文脈が必要であったという2つのアノテーションが記録されることになる。
ユーザは訓練中の例の領域を最も関連性があるものとして「ほのめかす」か、または別の方法で手動で指定することができる。これにより、たとえば、観点付き感情分析(aspect-based sentiment analysis)が可能になる。他のそのようなユーザ向けのサンプリング方法は、「類似のサンプル」及び「データマップ」を含む。これらのサンプリング方法のそれぞれは、アノテーションなしデータ102または訓練候補のセットに対して教師なし学習技法を使用することにより既に発見されている表現を利用する。ユーザが特定のサンプルの「類似のサンプル」を要求した場合、サンプラは教師なし学習技法で学習された情報を使用して、近似する例文を探そうとし得る。同様に、ユーザが特定の用語またはフレーズのキーワード検索を実行すると、サンプラは教師なし学習技法で学習されたこの情報を使用して、キーワード及びその類義語を有する例文を探そうとし得る。一部の実施形態において、連続的なバッグオブワードモデルを使用して文ベクトルが計算され、コサイン距離を使用して近い文が計算される。
また、非構造化表現を使用して、t-sneまたはPCAなどの技法により、データの次元を2次元または3次元に削減することができる。これらの低次元の表現は「マップ」として視覚的に提示することができ、これにより、図23に示すように、ユーザは自分のデータを移動させて、特定の例文を探すことができる。そのような一実施形態では、サンプルは散布図のように表され、以前にアノテーションが付けられたサンプルはユーザアノテーションを表す色で提示される。「マップ」表現により、ユーザは、「まだ移動していない領域」に加え、予測ミスが発生している場合がある領域を視覚的に確認することが可能になる。
図6は、開示した技術の例示的な実施形態による、データにアノテーションを付けるための計算アーキテクチャ600のブロック図である。以下に詳述するように、計算アーキテクチャ600は、限られた計算リソースでほぼリアルタイムに大規模なデータセットへの操作を提供する。図3及び図4に関連して上述したように、データベース204に記憶されたアノテーションなしデータ102は前処理され、前処理されたデータのサブセットが訓練候補のセットを生成するために選択される。計算アーキテクチャ600では、アノテーションなしデータはストリーミング方式で処理される。602において、アノテーションなしデータ102または訓練候補のセットからサンプルが取得され、前処理される。サンプルは、アノテーションなしデータ102または訓練候補のセットから抽出された、ランダムに選択されたサンプルであってもよい。ランダム性の性質は、ランダムシードを介して制御することができる。取得されたテキストは前処理される(たとえば、小文字化され、句読点の間にスペースが挿入され、日本語などの非空白言語の場合は空白が挿入される)。
604において、前処理されたデータ(たとえば、テキスト)は、モデル406を介してストリーミングされ、モデル406は、前処理されたデータ(たとえば、テキスト)をスコアのベクトル(分類器の場合)または他のそのようなモデル出力に変換して、予測セットの予測を生成する。606において、(サンプル識別子、ベクトルスコア)のタプル(またはモデルにより出力される他の予測)が、サンプリングストレージ書込器を介してストリーミングされ、予測を書き込む1つまたは複数の優先度キュー608が選択される。610において、サンプリング選択ロジックは優先度キューを選択し、そこから612においてアノテーションのためにサンプル及び予測がユーザに提示される。ユーザからアノテーションを受け取ると、614においてモデルが訓練されて、更新されたモデル616を生成され、プロセスが継続されて、604において前処理されたデータから予測が生成される。
仮にシステムが全てのサンプルについての結果的に得られる予測を記憶するとすれば、メモリ及びディスク容量の要件は非常に大きくなる。たとえば、アノテーションなしデータ102または訓練候補のセットが、数百万さらには数千または数億のサンプルを有し得ることはよくある。全てのサンプルに対する予測を生成及び記憶するために必要な計算リソースは非常に大きくなる。したがって、優先度キュー608はそれぞれ、サンプラのタイプごとに、限られた長さの優先度キューを提供する。優先度キュー608のそれぞれは、サンプラによって使用されるサンプリングアルゴリズムに従って、サンプルの上位10個、100個、1000個、または10000個の予測のみを記憶してもよい。一部の実施態様では、優先度キュー608は、一度に2000個のサンプルを記憶し得る。上述のように、関心のある様々なクラスのサンプラと、様々な目的関数とが存在し、それぞれ対応する優先度キュー608を有する。様々な実施態様では、2個、5個、10個、20個、またはそれ以上のサンプラが存在してもよい。一部の実施態様では、サンプラのうちの1つまたは複数は優先度キュー608を有さなくてもよく、代わりにリザーバサンプリングアルゴリズムに依存するものであってもよい。たとえば、クラスAの信頼度レベルが0.5~1.0の予測ベクトルから選択的にサンプリングするために、リザーバサンプリングは、これらの要件に適合するストリーミングされたサンプルからサブセットを選択的にサンプリングする。優先度キュー608は、クライアントコンピュータ206またはアノテーションサーバ202上のディスクに存続させることができる。一部の実施形態では、優先度キューは、データベース204に記憶されるなど、分散データベース技術を使用して記憶される。以下で図7に関連してより詳細に説明するように、優先度キュー608のデータ構造により、上位の結果のみを記憶し、その他を破棄することが可能になる。
サンプラ及び優先度キュー608のそれぞれは、特定のユーザによる単一のアノテーションプロセスに属する。すなわち、異なるユーザが同じアノテーションなしデータのセットにアノテーションを提供してもよく、その場合、各ユーザに対して、別個のアノテーションのセットが提供される。優先度キュー608、及び進行過程500で現在選択されているサンプラは、ユーザごとに異なっていてもよい。
優先度キュー608はそれぞれ、異なるサンプリングアルゴリズムに基づいて異なるサンプルのセットを保持するので、アノテーションプロセス400は、アノテーションの処理における明らかな遅延なしに、410などでサンプラを変更することができる。この結果は特に、必要なユーザの認知負荷を軽減するという設計目標から実現される。モデルの現在の反復を改善するためにアノテーションをシステムにフィードバックし、システムがサンプラに通知する、などとすることができる。
たとえば、サンプルが与えられると、システムは分類予測を生成することができる。これらの予測を使用して、エントロピー、最小マージンなどの必要なメトリックを計算することができる。これらのスコアは、サンプラのタイプごとに既に記憶されているスコアと比較することができる。一部の実施形態では、予測が特定の基準を満たしている場合、予測は保持され、結果は1つまたは複数の優先度キュー608に記憶され、それ以外の場合は破棄される。有利かつ有益な正味の影響は、優先度キュー608に必要なメモリが、実行時にほとんど影響を与えずに、小さく、かつ固定であることである。そのような実施形態では、上述のように、モデルは短い固定の期間で、ユーザの要求により、またはアルゴリズムの再訓練の決定時に再訓練することができる。
一部の実施態様では、モデルを動的な状態のままにすることができる。新たなアノテーションが到着すると、モデルは多少の調整を行うことができる。その後、サンプラサンプリングアルゴリズムの1つと一致するサンプルに遭遇するまで、予測に進むことができる。その時点で、モデルは「一時停止」して、ユーザからのさらなるフィードバックを待ってから、サンプルにアノテーションを付けることができる。このアノテーションが提供されると、このプロセスを繰り返すことができる。
図7は、開示した技術の例示的な実施形態による、予測を高速化し、ハードウェア要件を低減するために使用される優先度キュー方法700を示すブロック図である。予測702がサンプリングストレージ書込器606によってストリーミングされると、予測は複数の優先度キュー608に提供される。図7の実施例に示す優先度キュー608は、「クラスA」というアノテーションが付けられる高信頼度の予測を有するサンプル用の優先度キュー704、「クラスB」というアノテーションが付けられる高信頼度の予測を有するサンプル用の優先度キュー706、高いエントロピーを有するサンプル用の優先度キュー708(たとえば、最大のシャノンエントロピーの順に保持されるもの)、及び最小マージンサンプル用の優先度キュー710を含む。より多いまたはより少ない優先度キュー608が使用されてもよい。サンプルは、サンプリングスコア714の増加順に優先度キューに配置される。上述のように、サンプリングスコアは、信頼度スコアであってもよく、または予測ベクトルによって別の方法で得られる値であってもよい。
新たな予測が受信されると、優先度キュー608のそれぞれは、新たな予測のサンプリングスコアを評価する。サンプリングスコアが所与の優先度キュー608の閾値716を下回る場合、優先度キュー608は予測を破棄720してもよい。異なる優先度キューは、異なる閾値716を使用してもよい。サンプリングスコアが所与の優先度キュー608の閾値716を上回る場合、優先度キューは予測を保存718するか否かを評価する。たとえば、所与の優先度キュー608が満杯ではなく、サンプリングスコアが閾値716より大きい場合、優先度キュー608は予測を保存する。しかしながら、所与の優先度キュー608が満杯である場合、サンプリングスコアは、優先度キュー608に以前に保存された予測のサンプリングスコアのうちの1つまたは複数と比較される。一部の実施形態では、サンプリングスコアが予め記憶された予測のサンプリングスコアのいずれよりも大きくない場合、予測は破棄される。そうでない場合、予測は優先度キュー608内に、その優先度スコアに応じた位置に保存され、最低スコアの予測が優先度キュー608から削除される。上述のように、このようにして、優先度キュー608は、全ての予測が保存される場合に必要となるよりも大幅に小さい固定メモリ要件を維持する。他の実施形態では、リザーバサンプリングなどの方法を使用して、基礎となる候補サンプルの分布を近似しながら、元の予測のサブセットを維持する。
図8は、開示した技術の例示的な実施形態による、テストデータのセットにアノテーションを付けるためのアノテーションプロセス800のフロー図である。アノテーションプロセス800は、316でのアノテーション付きテストセットの作成中に行われ、アノテーションサーバ202によって実行されてもよく、アノテーションクライアント206上のローカルインストールで実行されてもよい。802において、アノテーションなしテストデータのセットが受信される。804において、アノテーションプロセス800によって、またはユーザ入力を介して、テストセットの網羅的なアノテーションが望ましいか否かについての判定が行われる。望ましい場合、806において、アノテーションプロセス800は、ユーザによるアノテーションのためのテストセットの直線的な進行を、プログレスバーなどによる直線的な進行の進捗状況の表示と共に提供する。
網羅的なアノテーション付けが望ましくない場合、808において、テストセットデータのコアクラスタの識別を通じて遠距離教師あり学習プロセスが開始される。たとえば、基礎となる分布の分析に関連する様々な技法を通じて、コアクラスタが識別されてもよい。たとえば、分布モードを有する密度ベースのクラスタ、分布平均を有する確率ベースのクラスタ、または分布重心を有するレイヤベースのクラスタなどがある。各技法は対応する距離メトリックに関連付けられている(たとえば、レイヤベースのクラスタはユークリッド距離を使用する)。810において、クラスタのうちの1つまたは複数から取得されたサンプルにアノテーションを付ける要求が、グラフィカルユーザインターフェースを介してユーザに提示される。最初に、クラスタからサンプルをランダムに取り出してもよい。データにアノテーションが付けられると、コヒーレンスメトリック、たとえば、二乗距離の和、サンプルベースのエントロピーメトリック、及びジニ係数などがクラスタに割り当てられる。812において、アノテーションなしデータ点に、アノテーション付きサンプルまでの距離の逆数に関連する信頼度スコアが割り当てられる。システムは、既知のサンプルに近い点の活用と、分布の新たな部分の探索とを交互に行う。そのような一実施形態では、探索と活用とを交互に行うことは、ベイジアンバンディットなどの強化学習方法を介して行われる。816において、最も不確実な予測の信頼度スコアが閾値信頼度スコアを超えるか否かの判定が、アノテーションプロセス800によって行われる。超えない場合、アノテーションプロセス800はループバックして、810においてテストデータのセットの追加サンプルのアノテーションを要求する。超える場合、テストデータのセットは十分にアノテーションが付けられていると判定され、818において出力される。様々な実施形態において、全ての技法は同時に実行され(密度ベース、確率ベース及びレイヤベース)、強化学習を通じて最も成功した技法が学習される。
図9~図25に、機械学習モデルを構築するためのアノテーション付き訓練セットを作成するための様々な例示的なグラフィカルユーザインターフェースを示す。図9~図25のグラフィカルユーザインターフェースは、アノテーションクライアント206のディスプレイ上に表示され、アノテーションクライアント206の入力デバイスを介してアノテーションユーザから入力が受け取られる。図9~図25のグラフィカルユーザインターフェースは、たとえば、アノテーションサーバ202が1つまたは複数のウェブページを提供して、アノテーションクライアント206のウェブブラウザに表示することによって、アノテーションサーバ202からアノテーションクライアント206に提供されてもよい。あるいは、アノテーションクライアント206上のローカルインストールが、アノテーションクライアントのディスプレイ上に図9~図25のグラフィカルユーザインターフェースを提示してもよい。他の構成が本開示により企図される。
図9に、開示した技術の例示的な実施形態による、新たな機械学習モデルの作成を開始するための例示的なグラフィカルユーザインターフェース900を示す。モデル名フィールド902は、作成する新たなモデルに名前を付ける英数字または他の文字列を受け取るように構成される。モデル選択セクション904は複数の選択可能なモデルボタンを含み、それぞれが異なるタイプの分類器に関連付けられている。たとえば、テキストモデルの場合、文分類器、段落分類器、文書分類器、表分類器、または表抽出器のそれぞれに選択可能なモデルボタンを設けてもよい。同様に、画像モデルの場合、物体検出モデルまたは画像類似性モデルのそれぞれに対して選択可能なモデルボタンを設けてもよい。本明細書では、他のタイプのモデルが使用されてもよい。上記のシステム及びプロセスは、使用されるデータまたはモデルのタイプに依存せず、テキストデータの場合、テキストで使用される言語に依存しない。アノテーションを作成するために現在ログインしているユーザアカウントを識別するためのユーザインジケータ906が表示されてもよい。ナビゲーションメニュー908は、本明細書に記載の他のグラフィカルユーザインターフェースに移動するための選択可能なボタン及び/またはメニューを提供する。グラフィカルユーザインターフェース間の移動は、所与の画面で所望の入力を提供したときに自動化されてもよい。たとえば、図9のグラフィカルユーザインターフェース上で新たなモデルに名前を付け、モデルのタイプを選択すると、図10のグラフィカルユーザインターフェースが自動的に表示されてもよい。
様々な実施態様において、アノテーションが付けられるアノテーションなしデータは、アノテーションなしのテキスト、画像、ビデオ、または音声データである。モデルは、1クラス分類器、バイナリ分類器、マルチクラス分類器、または言語分類器である。モデルは、回帰、情報抽出、意味役割ラベリング、テキスト要約、文、段落、または文書の分類、表抽出、機械翻訳、含意及び矛盾、質問回答、音声タグ付け、音声分類、話者ダイアライゼーション、言語モデル調整、画像タグ付け、物体検出、画像セグメンテーション、画像類似性、ピクセル単位アノテーション、テキスト認識、あるいはビデオタグ付けを実行してもよい。上記のアノテーションなしデータのモデル及びタイプのリストは、網羅的なものではなく、単に実施例として提供している。他の任意のタイプのモデルまたは他の任意のタイプのアノテーションなしデータが本開示により企図される。
図10に、開示した技術の例示的な実施形態による、ユーザが複数のデータセットを管理できる方法を示す例示的なグラフィカルユーザインターフェース1000を示す。図示のように、アノテーションサーバ202もしくはアノテーションクライアント206またはそれぞれのデータベース204、208にインポートされた選択可能なデータセット1002のリストに、アノテーションなしデータ102の1つまたは複数のデータセットが提供されている。
図11に、開示した技術の例示的な実施形態による、ユーザが複数のアノテーションのセットを管理できる方法を示す例示的なグラフィカルユーザインターフェース1100を示す。1つまたは複数のデータセットがインポートされると、ユーザは「アノテーションセット」を作成することができる。グラフィカルユーザインターフェース1100により、ユーザは多数のアノテーションセットを管理することが可能になる。アノテーション付きもしくはアノテーションなしの訓練候補のセットまたはテストデータのセットなどの1つまたは複数のアノテーションセット104が、アノテーションなしデータ102から生成された選択可能なアノテーションセット1102のリストに提供される。
図12に、開示した技術の例示的な実施形態による、様々なカテゴリのアノテーションのセットの一実施例を示す。たとえば、アノテーションセットは、感情カテゴリ1202、行動カテゴリ1204、ライフイベントカテゴリ1206、または顧客カテゴリ1208に分類してもよい。他のカテゴリ及びタイプのアノテーションセットが本開示により企図される。各カテゴリ内に、複数のアノテーションセットをリストしてもよい。たとえば、感情カテゴリ1202の場合、アノテーションセットのリストは、愛情、動揺、怒り、不満、幸福、悲しみ、連帯感、及び不安を含む。他の感情が本開示により企図される。
図13に、開示した技術の例示的な実施形態による、ユーザがアノテーションをセットアップするのに使用できる構成オプションを示す例示的なグラフィカルユーザインターフェース1300を示す。図17のグラフィカルユーザインターフェースに移動して例文を編集するための、選択可能な「例文編集」ボタン1302が設けられている。図14のグラフィカルユーザインターフェースに移動してキーワードを編集するための、選択可能な「キーワード編集」ボタン1304が設けられている。ユーザがデータセットで探しているものの例文及びキーワードは、上記のシードサンプラ502への入力を提供する。図18~図23のグラフィカルユーザインターフェースの1つに移動して、上述のプロセス300~800のうちの1つまたは複数に従ってサンプルにアノテーションを付けるための、選択可能なアノテーション付けボタン1306が設けられている。図25のグラフィカルユーザインターフェースに移動して、アノテーションをレビュー及び編集するための、選択可能なレビューボタン1308が設けられている。
サンプルにアノテーションを付けるための選択可能なラベルボタン1310は、アノテーションの追加または変更を容易にする。選択されたアノテーションは、アノテーションセクション1312に表示される。2つのアノテーションのみが表示されているが、単一クラスまたはマルチクラスの分類器に対して他の数のアノテーションを提供してもよい。選択可能なデータセットボタン1314は、アノテーションを付けるさらなるデータセットの追加を容易にする。データセットは、図10で保持されているデータセットのセットから選択可能であってもよい。データセットに関連付けられた選択可能な削除アイコン1316は、そのデータセットをアノテーションに関して削除することを容易にする。不均衡なデータに関する問題に対処するために、頻度選択1318は、ユーザがデータセット内の例文またはキーワードの出現頻度を示すのを容易にする。一部の実施態様では、キーワード、例文、及び/またはアノテーションは、外部サーバなどを介して外部プロバイダからダウンロード、購入、または販売されてもよい。進捗状況インジケータ1320は、サンプルのアノテーションを開始する前に、どの入力が提供済みであり、どれがまだ必要であるかをユーザに示す。選択可能なアノテーションボタン1306と同様に、図18~図23のグラフィカルユーザインターフェースのうちの1つに移動して、上述のプロセス300~800のうちの1つまたは複数に従ってサンプルにアノテーションを付けるための選択可能なアノテーションボタン1322が設けられている。同じく、選択可能なレビューボタン1308と同様に、図25のグラフィカルユーザインターフェースに移動してアノテーションをレビュー及び編集するための選択可能なレビューボタン1324が設けられている。
図14に、開示した技術の例示的な実施形態による、キーワード及びフレーズのリストを入力及び管理する方法を示す例示的なグラフィカルユーザインターフェース1400を示す。テキスト入力ボックス1402は、シードサンプラ502に提供するキーワードまたはフレーズを追加するために設けられている。キーワードまたはフレーズが追加されると、キーワードリスト1412が更新されて、入力されたキーワードまたはフレーズのリストが表示される。選択可能なボタン1404は、別の文書またはプログラムからコピーされたキーワードまたはフレーズのリストをペーストするオプションを提供する。選択可能なオプション1406は、キーワードリストに入力するためのキーワードまたはフレーズのファイルをアップロードするオプションを提供する。外部キーワードソースリスト1410は、アップロードされたキーワードリストによって更新される。リスト検索ボタン1408は、1つまたは複数のキーワードリストの検索及びダウンロードまたは購入を容易にする。
キーワードリスト1412に表示された各キーワードまたはフレーズについて、選択可能な類義語ボタン1414は、入力されたキーワードまたはフレーズを拡張して類義語を含めることを容易にする。キーワードまたはフレーズは、シソーラスの参照、近似する単語埋め込み、及び外部のオントロジーを介して拡張される。単語埋め込みとは、単語を表す数字のセットを指す。これらの単語埋め込みは、事前に提供することができ、またはユーザにより提供されるデータセットから作成することもでき、あるいはその両方を行うこともできる。単語埋め込みは教師なし技法、たとえば、スキップグラム、ネガティブサンプリング、またはシフトされた正の自己相互情報量(shifted positive pointwise mutual information)などを使用して学習されてもよい。オントロジーは、オープンソースまたはユーザ提供のオントロジー、たとえば、DBペディアなどを指す。オントロジーエントリのツリーが作成されてもよく、キーワードのリストが与えられると、与えられたリストの最も近い共通の祖先が見つかる。次いで、この祖先の子孫をグラフィカルユーザインターフェース上に提示し、ユーザが選択してキーワードリスト1412に含めることができる。これらの各ケースでは、単語または短いフレーズが与えられると、図15及び図16に示すように、キーワードリスト1412を拡張するための類似の単語またはフレーズが選択可能な方法でユーザに提供される。キーワード及びフレーズの入力及び拡張が完了すると、選択可能な完了ボタン1416は、図13のグラフィカルユーザインターフェースに戻ることを容易にする。
図15に、開示した技術の例示的な実施形態による、ユーザが関連する単語及びフレーズを発見及び管理できる方法を示す例示的なグラフィカルユーザインターフェース1500を示す。キーワードインジケータ1502は、類義語またはさらなる文脈を追加するために現在検討中のキーワードを強調表示する。キーワードの類義語のリスト1504は、文脈クラスタに編成されて提供される。各クラスタは、そのクラスタ内の全ての類義語を選択するための選択可能なオプション1506を提供する。さらに、各クラスタ内の類義語のそれぞれには、対応する類義語を選択するための選択可能なオプション1508が提供される。キャンセルボタン1510は、選択した全ての類義語を破棄し、図14のグラフィカルユーザインターフェースに戻るために選択可能になっている。そうでなければ、承認ボタン1512は、選択された類義語をキーワードリスト1412に保存し、図14のグラフィカルユーザインターフェースに戻る。
図16に、開示した技術の例示的な実施形態による、単語リスト管理へのオントロジーの組み込みを示す例示的なグラフィカルユーザインターフェース1600を示す。テキスト入力ボックス1402は、キーワードまたはフレーズをキーワードリスト1412に追加するために設けられている。キーワードまたはフレーズがキーワードリスト1412に追加されると、1つまたは複数のオントロジーが参照されて、キーワードリスト1412に追加する選択可能なキーワード1602のリストが提供される。上述のように、オントロジーエントリのツリーが作成されてもよく、キーワードリストのキーワードが与えられると、与えられたリストの最も近い共通の祖先が見つかる。次いで、この祖先の子孫をグラフィカルユーザインターフェース1600上に選択可能なキーワード1602として提示し、ユーザが選択してキーワードリスト1412に含めることができる。
図17に、開示した技術の例示的な実施形態による、例文のリストを入力及び管理する方法を示す例示的なグラフィカルユーザインターフェース1700を示す。グラフィカルユーザインターフェース1300上の例文編集ボタン1302を選択することにより、グラフィカルユーザインターフェース1700に移動してもよい。キーワードまたはフレーズと同様に、例示的なグラフィカルユーザインターフェース1700は、新たな例文を追加するためのテキスト入力ボックス1702を含む。図示のように、例文は、1つまたは複数の文を通じて文脈の中でキーワードを提供する。各例文は、その例文にアノテーションを割り当てるために選択可能になっている。たとえば、アノテーションメニュー1704は、その例文が、ユーザがデータセット内で探している特定のクラスまたは他のデータの例文であるか否かを示すために提示される。以前に入力された例文及び対応するアノテーションのリスト1706が表示されている。完了ボタン1708は、グラフィカルユーザインターフェース1300に戻るために選択可能になっている。
以下、記載のアノテーションプロセスを容易にするグラフィカルユーザインターフェースの様々な態様についてさらに詳細に説明する。図18~図24のグラフィカルユーザインターフェースは、モデルの品質に関する人間の判断を容易にする情報を提供する。ユーザがいくつかの例文にアノテーションを付けると、初期モデルを訓練することができ、追加のサンプリング方法が利用可能になる。
図18に、開示した技術の例示的な実施形態による、アノテーションプロセス、アノテーションプロセスを管理するためのツール、及び進捗状況に関するフィードバックを示す例示的なグラフィカルユーザインターフェース1800を示す。グラフィカルユーザインターフェース1800により、機械学習モデルを訓練するのに必要な認知負荷及び専門知識が最小化される。これは、ユーザにより提供されたデータセットから取得された一連の例文を表示することによって、実現することができる。上述のように、例文は、ユーザが強力なモデルを作成するために必要とされるアノテーションの数を最小化することができるサンプラによって選択される。
例文1802を、グラフィカルユーザインターフェースに提供してもよい。関心があるとわかった単語またはフレーズの強調表示1804が提供され、ここで、強調表示及び色は、最終的な予測に与えられる影響の方向及び大きさを表してもよい。また、前後の文などの周囲の文脈1806が、例文と共に提供されてもよい。さらに、予測1808が、その予測の信頼度スコアと共にユーザに表示される。「Yes」ボタン1810または「No」ボタン1812のいずれかを選択するなどして、データアノテーションを質問への回答に記憶することができる。ユーザは任意選択で、キーボードショートカットによって、たとえば「Y」または「N」を入力するなどして、応答を提供することができる。
アノテーション付きデータの品質及び数量に関するフィードバック1814がユーザに提供される。たとえば、アノテーションのカバー範囲に関するフィードバックは、訓練されたいくつかの正例及びいくつかの負例の内訳を含む、訓練された例の数を含んでもよい。また、モデルの性能メトリック、たとえば、バイナリ分類器の正解率、適合率、再現率、F1スコア、またはROC下の面積などが表示されてもよい。他のメトリックが表示されてもよい。矢印1818の選択などによって例文のアノテーションをスキップするための、または矢印1816の選択などによって前の例文に戻るための、1つまたは複数のナビゲーションアイコンが設けられてもよい。
図19に、開示した技術の例示的な実施形態による、ユーザが自身の反応の強さをスコア付けすることを可能にするアノテーションプロセスを示す例示的なグラフィカルユーザインターフェース1900を示す。アノテーションについて「Yes」または「No」の入力を提供することに加えて、またはその代わりに、ユーザは、スケール上の複数のスコアボタン1902(たとえば、「1」から「5」までのボタン)のうちの1つを選択することなどによって、例文の良さをスコア付けしてもよい。また、アノテーション用の例文を選択するために現在使用されているサンプラ1904のタイプについてのさらなるフィードバックが提供されてもよい。
図20に、開示した技術の例示的な実施形態による、隣接するエントリにアノテーションを付ける機能、ならびにアノテーションに関する色付きのフィードバックを示す例示的なグラフィカルユーザインターフェース2000を示す。たとえば、例文が提示されると、ユーザは隣接するエントリを強調表示2002し、メニュー2004から選択して、たとえば、隣接するエントリに正例、負例としてアノテーションを付けたり、隣接するエントリの強調表示をクリアしたりしてもよい。
図21に、開示した技術の例示的な実施形態による、複数のタイプの候補サンプリングを示すドロップダウンを示す例示的なグラフィカルユーザインターフェース2100を示す。上述のように、サンプラは、ユーザ入力を通じて手動で選択してもよい。図21に示す実施例では、例文を提供するための様々なタイプのサンプラから選択するためのサンプリング方法メニュー2102が設けられている。現在選択されているサンプラは、選択強調表示2104によって示される。選択可能なサンプラは、選択アイコン2106で示される。たとえば、選択アイコン2106を選択すると、サンプラは自動サンプラ(たとえば、進行過程500)から誤差低減サンプラに変更してもよい。他のタイプのサンプリング方法メニュー、たとえば、ドロップダウンリストなどが使用されてもよい。上述の優先度キュー608を使用することにより、グラフィカルユーザインターフェースに例文を提供するためのサンプリングアルゴリズムを変更しても、ユーザは後続の例文を取得する際の処理の遅れに気付くことはない。
図22に、開示した技術の例示的な実施形態による、データにわたる一回限りのキーワード検索を示す例示的なグラフィカルユーザインターフェース2200を示す。加えて、上述のように、シードサンプラ502は、ユーザによって提供された入力を使用して、さらなる例文を検索してもよい。たとえば、ユーザは検索ボックス2202にキーワードを入力して、データセット内を検索し、さらなる例文を特定してもよい。ユーザが検索ボックス2202でキーワード検索したことに応答して、ユーザインターフェース2200は、ユーザの検索を拡張するための追加の選択可能なキーワードまたはフレーズ2204を提示してもよい。たとえば、上述のように、シソーラス、辞書、及び/またはオントロジーを使用して、追加のキーワードまたはフレーズを生成してもよい。選択可能なキーワードまたはフレーズ2204のうちの1つが選択されると、選択されたキーワードまたはフレーズを使用したさらなる検索を実行してもよい。
図23に、開示した技術の例示的な実施形態による、ユーザが自身のデータを視覚的に探索することを可能にし得るデータマップを示す例示的なグラフィカルユーザインターフェース2300を示す。上記のように、データセットの非構造化表現を使用して、t-sneまたはPCAなどの技法を使用して、データの次元を2次元または3次元に削減することができる。次いで、これらの低次元表現は、グラフィカルユーザインターフェース2300上にデータマップ2302として表示することができる。データマップ2302は、識別されたクラスタまたは他のデータグループ内のサンプルを表すデータインジケータ2304を含んでもよい。各サンプルは、そのサンプルのアノテーションを表す色、またはそのサンプルにアノテーションが付けられていないかを示す色を有してもよい。加えて、サンプルの信頼度スコアが、所与のサンプルを表すアイコンのサイズによってグラフィカルに表現されてもよい(たとえば、円の直径が信頼度スコアに基づいて異なる)。アノテータ間の不一致/間違いは、データマップ2302上でエラーアイコン(たとえば、赤色、または間違いを示す独特の形状もしくはパターン)を介してさらに示されてもよい。ユーザは、データマップ2302でデータを移動させ、アノテーションのための特定の例文2306を探して選択することができる。たとえば、ユーザは、アノテーションを付けたいサンプルの周囲に境界ボックスまたは投げ縄を描いてもよい。上述のように、シードサンプラ502は、ユーザによって提供されたこの入力を使用して、さらなる例文を提示してもよい。たとえば、ユーザは、まだアノテーションが付けられていない識別されたサンプルのクラスタにアノテーションを付けることを選択してもよい。あるいは、ユーザは、クラスタ内のデータ要素にアノテーションを付けるために複数の異なるアノテーションが使用されたことを表す、サンプルに関連付けられたいくつかの色を使用して、サンプルのクラスタにアノテーションを付けることを選択してもよい。したがって、ユーザは、所望のアノテーションを明確にするか、あるいはさらなる入力を提供して、選択したデータの正しいアノテーション付けを容易にしてもよい。
図24に、開示した技術の例示的な実施形態による、いかにして失敗状態を処理することができ、情報がユーザに返されるかを示す例示的なグラフィカルユーザインターフェース2400を示す。たとえば、失敗状態が表示された理由についてフィードバック2402が提供され、失敗状態を解決する方法についての推奨2404が提供されてもよい。推奨2404を自動的に開始するための推奨行動ボタン2406が設けられてもよい。
図25に、開示した技術の例示的な実施形態による、以前にアノテーションが付けられたエントリのリスト及びそれらのエントリの管理方法を示す例示的なグラフィカルユーザインターフェース2500を示す。たとえば、アノテーションをレビューするためのレビューボタン1308、1324を選択すると、ユーザインターフェース2500に移動し得る。アノテーションのレビューを実行する際、ユーザはアノテーションのいずれかを選択して、そのアノテーションに関連するアノテーションを変更してもよい。たとえば、アノテーションを選択すると、アノテーションメニュー2502に、異なるアノテーションを選択するためのオプションを提示し得る。
図26に、開示した技術の例示的な実施形態による例示的なコンピュータシステムを示す。
開示した技術の特定の態様は、本明細書では、システム及び方法、及び/またはアプリケーション、プログラム、または他のコンピュータ関連の実施態様及び構成に関して説明している。本明細書に記載の「システム」は、単一のコンピュータまたは分散コンピューティングアーキテクチャを利用し得るコンピュータ関連のシステム及びコンポーネントを指す場合がある。グラフィカルユーザインターフェースの態様を示し、本明細書で説明した様々な図の図解は、表示されるデータに加え、機能的なインタラクティブ要素及び出力を指し、これらは、入出力コントローラ及び/または1つまたは複数のコンピューティングシステムの他のシステムによって制御し得る。1つまたは複数のコンピューティングシステムは、本明細書で言及する様々なシステム、方法、及び/またはアプリケーション/プログラムを実装するための機能コンポーネント、たとえば、命令を記憶するための1つまたは複数のメモリデバイス及び/または他の記憶デバイスに結合される1つまたは複数のプロセッサを含む1つまたは複数のコンピュータを含むことができ、命令は、1つまたは複数のプロセッサによって実行されると、開示した技術の説明した実施形態の様々な態様を実施するための特定のタスクをコンピュータ(複数可)に実行させる。
コンピュータ(複数可)のそのようなコンポーネントは、上記で簡単に述べたように、入力デバイスからの入力、たとえば、グラフィカルユーザインターフェースの表示を見ているコンピュータのユーザからの対話型入力を受け取り、1つまたは複数の表示デバイスあるいは他の出力周辺デバイスへのデータの出力を制御するための入力/出力コントローラに結合されてもよい。本明細書で言及される「方法」は、1つまたは複数のプロセッサ及び/または他のコンピュータシステムコンポーネントによって実行される一連の動作を含むコンピュータ実装方法とすることができる。本明細書におけるアプリケーション、プログラムなどへの参照は、モジュール、ハードディスク、及び/またはリムーバブルストレージメディア(別名「コンピュータ可読媒体」もしくは「コンピュータ可読記憶媒体」または「非一時的コンピュータ可読記憶媒体」)に記憶され得るコンピュータ実行可能命令とすることができ、それらの命令は、1つまたは複数のプロセッサによって実行されると、1つまたは複数のコンピュータシステムに、本明細書に記載の実施形態に関する特定の機能を実行させる。本明細書に記載の様々なコンピュータ及び/またはシステムのコンポーネントは、インターネットまたは内部ネットワークなどのネットワークへのネットワーク接続にアクセスして、たとえば、1つまたは複数の外部サーバとデータを交換することによって、そのようなネットワークを介してデータを送受信するためのネットワークインターフェースコンポーネントを含むことができる。
様々な図に関して本明細書で説明する論理演算は、(1)コンピューティングデバイス(たとえば、図26に記載のコンピューティングデバイス)上で実行される一連のコンピュータ実装行為またはプログラムモジュール(すなわち、ソフトウェア)として、(2)コンピューティングデバイス内の相互接続された機械論理回路または回路モジュール(すなわち、ハードウェア)として、及び/または(3)コンピューティングデバイスのソフトウェア及びハードウェアの組み合わせとして実装し得ることを理解されたい。したがって、本明細書で説明する論理演算は、ハードウェア及びソフトウェアのいかなる特定の組み合わせにも限定されない。その実装は、コンピューティングデバイスの性能及び他の要件に応じて選択できる問題である。したがって、本明細書に記載の論理演算は、動作、構造デバイス、行為、またはモジュールと様々に呼ぶ。これらの動作、構造デバイス、行為、及びモジュールは、ソフトウェア、ファームウェア、専用デジタルロジック、及びそれらの任意の組み合わせで実装してもよい。また、図示及び本明細書の説明よりも多いまたは少ない動作を実行してもよいことも理解されたい。これらの動作は、本明細書の説明とは異なる順序で実行されてもよい。
図26を参照すると、本発明の実施形態が実装され得る例示的なコンピューティングデバイス2600が示されている。たとえば、本明細書に記載のアノテーションサーバ202またはクライアントコンピュータ206のそれぞれは、コンピューティングデバイス2600などのコンピューティングデバイスとしてそれぞれ実装されてもよい。例示的なコンピューティングデバイス2600は、本発明の実施形態が実装され得る適切なコンピューティング環境の一実施例にすぎないことを理解されたい。任意選択で、コンピューティングデバイス2600は、よく知られているコンピューティングシステムとすることができ、たとえば、限定はしないが、パーソナルコンピュータ、サーバ、ハンドヘルドもしくはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースのシステム、ネットワークパーソナルコンピュータ(PC)、ミニコンピュータ、メインフレームコンピュータ、組み込みシステム、及び/または上記のシステムもしくはデバイスのいずれかを複数含む分散コンピューティング環境とすることができる。分散コンピューティング環境により、通信ネットワークまたは他のデータ伝送媒体に接続されたリモートコンピューティングデバイスは、様々なタスクを実行することが可能になる。分散コンピューティング環境では、プログラムモジュール、アプリケーション、及び他のデータは、ローカル及び/またはリモートコンピュータの記憶媒体に記憶されてもよい。
一実施形態では、コンピューティングデバイス2600は、協働してタスクを実行する、互いに通信する2つ以上のコンピュータを備えてもよい。たとえば、限定ではないが、アプリケーションは、そのアプリケーションの命令の同時及び/または並列処理を可能にするような方法で分割されてもよい。あるいは、アプリケーションによって処理されるデータは、2つ以上のコンピュータによるデータセットの異なる部分の同時及び/または並列処理を可能にするような方法で分割されてもよい。一実施形態では、コンピューティングデバイス2600が仮想化ソフトウェアを利用して、コンピューティングデバイス2600内のコンピュータの数にそのまま縛られないいくつかのサーバの機能を提供してもよい。たとえば、仮想化ソフトウェアは、4つの物理コンピュータ上に20個の仮想サーバを提供してもよい。一実施形態では、クラウドコンピューティング環境でアプリケーション及び/または複数のアプリケーションを実行することにより、上記で開示した機能が提供されてもよい。クラウドコンピューティングは、動的にスケーラブルなコンピューティングリソースを使用して、ネットワーク接続を介したコンピューティングサービスを提供することを含んでもよい。クラウドコンピューティングは、仮想化ソフトウェアによって少なくとも部分的にサポートされてもよい。クラウドコンピューティング環境は、企業によって確立される場合があり、及び/または必要に応じてサードパーティプロバイダからレンタルされる場合がある。一部のクラウドコンピューティング環境は、企業により所有及び運用されるクラウドコンピューティングリソースに加え、サードパーティプロバイダからレンタル及び/またはリースされるクラウドコンピューティングリソースを含む場合がある。
最も基本的な構成では、コンピューティングデバイス2600は、典型的には少なくとも1つの処理ユニット2620及びシステムメモリ2630を含む。コンピューティングデバイスの正確な構成及びタイプに応じて、システムメモリ2630は、揮発性(たとえば、ランダムアクセスメモリ(RAM))、不揮発性(たとえば、読み取り専用メモリ(ROM)、フラッシュメモリなど)、またはこれら2つの組み合わせであってもよい。この最も基本的な構成は図26に破線2610で示している。処理ユニット2620は、コンピューティングデバイス2600の動作に必要な算術演算及び論理演算を実行する標準的なプログラマブルプロセッサであってもよい。1つの処理ユニット2620のみを図示しているが、複数のプロセッサが存在してもよい。したがって、命令はプロセッサによって実行されるものとして論じている場合があるが、命令は同時に、連続的に、あるいは1つまたは複数のプロセッサによって実行されてもよい。コンピューティングデバイス2600は、コンピューティングデバイス2600の様々なコンポーネント間で情報を伝達するためのバスまたは他の通信メカニズムをさらに含んでもよい。
コンピューティングデバイス2600は、さらなる特徴/機能を有してもよい。たとえば、コンピューティングデバイス2600は、磁気もしくは光ディスクまたはテープを含むがこれらに限定されない、リムーバブルストレージ2640及び非リムーバブルストレージ2650などの追加のストレージを含んでもよい。コンピューティングデバイス2600は、そのデバイスが本明細書に記載の通信経路などを介して他のデバイスと通信することを可能にするネットワーク接続(複数可)2680をさらに含んでもよい。ネットワーク接続(複数可)2680は、モデム、モデムバンク、イーサネットカード、ユニバーサルシリアルバス(USB)インターフェースカード、シリアルインターフェース、トークンリングカード、ファイバー分散データインターフェース(FDDI)カード、ワイヤレスローカルエリアネットワーク(WLAN)カード、無線トランシーバーカード、たとえば、符号分割多重アクセス(CDMA)、モバイル通信用グローバルシステム(GSM)、ロングタームエボリューション(LTE)、世界規模相互運用マイクロ波アクセス(WiMAX:worldwide interoperability for microwave access)、及び/または他のエアインターフェースプロトコルの無線トランシーバーカード、ならびに他のよく知られているネットワークデバイスの形態をとってもよい。コンピューティングデバイス2600は、キーボード、キーパッド、スイッチ、ダイヤル、マウス、トラックボール、タッチスクリーン、音声認識器、カードリーダー、紙テープリーダー、または他のよく知られている入力デバイスなどの入力デバイス(複数可)2670を有してもよい。プリンタ、ビデオモニタ、液晶ディスプレイ(LCD)、タッチスクリーンディスプレイ、ディスプレイ、スピーカーなどの出力デバイス(複数可)2660が含まれてもよい。コンピューティングデバイス2600のコンポーネント間のデータ通信を容易にするために、追加のデバイスがバスに接続されてもよい。これらのデバイスは全て当技術分野ではよく知られており、ここで詳細に議論する必要はない。
処理ユニット2620は、有形のコンピュータ可読媒体に符号化されたプログラムコードを実行するように構成されてもよい。有形のコンピュータ可読媒体とは、コンピューティングデバイス2600(すなわち、マシン)に特定の方法で動作させるデータを提供可能な任意の媒体を指す。様々なコンピュータ可読媒体を利用して、処理ユニット2620に命令を提供して、実行させてもよい。有形のコンピュータ可読媒体の実施例は、限定はしないが、コンピュータ可読命令、データ構造、プログラムモジュールまたは他のデータなどの情報を記憶するための任意の方法または技術で実装される揮発性媒体、不揮発性媒体、リムーバブルメディア及び非リムーバブルメディアを含んでもよい。システムメモリ2630、リムーバブルストレージ2640、及び非リムーバブルストレージ2650は全て、有形のコンピュータ記憶媒体の実施例である。例示的な有形のコンピュータ可読記録媒体は、限定はしないが、集積回路(たとえば、フィールドプログラマブルゲートアレイまたは特定用途向けIC)、ハードディスク、光ディスク、光磁気ディスク、フロッピーディスク、磁気テープ、ホログラフィック記憶媒体、ソリッドステートデバイス、RAM、ROM、電気的消去可能プログラム読み取り専用メモリ(EEPROM)、フラッシュメモリまたは他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)または他の光学ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、または他の磁気ストレージデバイスを含む。
実行可能なソフトウェアをコンピュータにロードして実装できる機能を、よく知られている設計ルールによりハードウェア実装に変換できることは、電気工学技術及びソフトウェア工学技術の基本である。ソフトウェア対ハードウェアのコンセプトの実装の意思決定は、典型的には、ソフトウェアドメインからハードウェアドメインへの変換に関連する問題というよりも、設計の安定性と、生産されるユニットの数との考慮事項に依存する。一般に、ハードウェア実装のリスピンはソフトウェア設計のリスピンよりも費用がかかるので、まだ頻繁に変更される設計はソフトウェアで実装する方が好ましい場合がある。一般に、大量生産される安定した設計は、特定用途向け集積回路(ASIC)などのハードウェアで実装することが好ましい場合があり、その理由は、大量生産では、ハードウェア実装はソフトウェア実装よりも安価な場合があるためである。多くの場合、設計は、ソフトウェア形式で開発及びテストし、その後、よく知られている設計ルールによって、ソフトウェアの命令をハードワイヤした特定用途向け集積回路の同等のハードウェア実装に変換してもよい。新たなASICによって制御されるマシンが特定のマシンまたは装置であるのと同じように、同様に、プログラムされた及び/または実行可能な命令がロードされたコンピュータは、特定のマシンまたは装置と見なしてもよい。
例示的な実施態様では、処理ユニット2620は、システムメモリ2630に記憶されたプログラムコードを実行してもよい。たとえば、バスはシステムメモリ2630にデータを運んでもよく、そこから処理ユニット2620が命令を受け取り、実行する。任意選択で、システムメモリ2630によって受け取られたデータは、処理ユニット2620による実行の前または後に、リムーバブルストレージ2640または非リムーバブルストレージ2650に記憶されてもよい。
本明細書に記載の様々な技法は、ハードウェアもしくはソフトウェア、または適切な場合にはそれらの組み合わせに関連して実装してもよいことを理解されたい。したがって、本開示の主題の方法及び装置、またはそれらの特定の態様もしくは部分は、たとえば、フロッピーディスク、CD-ROM、ハードドライブ、または他の任意のマシン可読記憶媒体などの有形媒体に具現化されたプログラムコード(すなわち、命令)の形をとってもよく、プログラムコードがコンピューティングデバイスなどのマシンにロードされて実行されると、マシンは本開示の主題を実施するための装置になる。プログラム可能なコンピュータ上でプログラムコードを実行する場合、コンピューティングデバイスは一般に、プロセッサと、プロセッサによって読み取り可能な記憶媒体(揮発性及び不揮発性メモリ及び/または記憶素子を含む)と、少なくとも1つの入力デバイスと、少なくとも1つの出力デバイスとを含む。1つまたは複数のプログラムは、たとえば、アプリケーションプログラミングインターフェース(API)、再利用可能なコントロールなどを使用して、本開示の主題に関連して説明したプロセスを実装または利用してもよい。そのようなプログラムは、コンピュータシステムと通信するように、高水準の手続き型またはオブジェクト指向プログラミング言語で実装されてもよい。しかしながら、所望であれば、プログラム(複数可)はアセンブリ言語または機械語で実装することができる。いずれにせよ、言語はコンパイル型言語でもインタプリタ型言語でもよく、ハードウェア実装と組み合わせられてもよい。
方法及びシステムの実施形態は、方法、システム、装置及びコンピュータプログラム製品のブロック図及びフローチャート図を参照して本明細書で説明している場合がある。ブロック図及びフローチャート図の各ブロック、ならびにブロック図及びフローチャート図におけるブロックの組み合わせは、それぞれ、コンピュータプログラム命令によって実装できることは理解されよう。これらのコンピュータプログラム命令を汎用コンピュータ、専用コンピュータ、または他のプログラム可能なデータ処理装置にロードしてマシンを生成し、コンピュータまたは他のプログラム可能なデータ処理装置で実行される命令により、フローチャートの1つまたは複数のブロックで指定された機能を実施する手段が作成されるようにしてもよい。
これらのコンピュータプログラム命令は、コンピュータ可読メモリに記憶されてもよく、コンピュータプログラム命令は、コンピュータまたは他のプログラム可能なデータ処理装置に特定の方法で機能するように指示して、コンピュータ可読メモリに記憶された命令により、フローチャートの1つまたは複数のブロックで指定された機能を実施するためのコンピュータ可読命令を含む製品が生産されるようにすることができる。また、コンピュータプログラム命令を、コンピュータまたは他のプログラム可能なデータ処理装置にロードして、コンピュータまたは他のプログラム可能な装置で一連の動作ステップを実行させることによって、コンピュータ実装プロセスを生成し、それによって、コンピュータまたは他のプログラム可能な装置で実行される命令により、フローチャートの1つまたは複数のブロックで指定された機能を実施するためのステップが提供されるようにしてもよい。
したがって、ブロック図及びフローチャート図のブロックは、指定された機能を実行するための手段の組み合わせ、指定された機能を実行するためのステップの組み合わせ、及び指定された機能を実行するためのプログラム命令手段をサポートする。また、ブロック図及びフローチャート図の各ブロック、ならびにブロック図及びフローチャート図のブロックの組み合わせは、指定された機能またはステップを実行する専用ハードウェアベースのコンピュータシステム、あるいは専用ハードウェア及びコンピュータ命令の組み合わせによって実装することができることを理解されたい。
「及び/または」という語句の使用は、選択肢のリストの任意の1つまたは任意の組み合わせが使用できることを示す。たとえば、「A、B、及び/またはC」とは、「A」、「B」、または「C」、「A及びB」、「A及びC」、または「B及びC」、あるいは「A及びB及びC」を意味する。本明細書で使用する場合、単数形「a」、「an」、及び「the」は、文脈が明確に別途指示しない限り、複数の指示対象を含む。さらに、本明細書では、読者の便宜のためにタイトルまたはサブタイトルが使用される場合があり、これらは開示した技術の範囲に影響を与えないものとする。「備える(comprising)」もしくは「含む(containing)」または「含む(including)」とは、少なくとも指定された化合物、要素、粒子、または方法のステップが組成物もしくは物品または方法の中に存在することを意味するが、他のそのような化合物、材料、粒子、方法のステップが指定されたものと同じ機能を有する場合でも、他の化合物、材料、粒子、方法のステップの存在を排除するものではない。
例示的な実施形態を説明する際に、明確にするように用語を使用する。各用語は、当業者によって理解されるその最も広い意味を企図しており、同様の目的を達成するために同様の方法で動作する全ての技術的均等物を含むものとする。
方法の1つまたは複数のステップの言及は、追加の方法のステップ、または明示的に特定されたそれらのステップの間の介在する方法のステップの存在を排除しないことを理解されたい。方法のステップは、本明細書の記載とは異なる順序で実行されてもよい。同様に、デバイスまたはシステムにおける1つまたは複数のコンポーネントの言及は、追加のコンポーネント、または明示的に特定されたそれらのコンポーネント間の介在するコンポーネントの存在を排除しないことも理解されたい。
本開示ではいくつかの実施形態を提供しているが、開示したシステム及び方法が、本開示の精神または範囲から逸脱することなく、他の多くの特定の形態で具現化し得ることを理解されたい。本実施例は限定ではなく例示的なものと見なされるべきであり、その意図は本明細書に示した詳細に限定されるべきではない。たとえば、様々な要素またはコンポーネントが別のシステムにおいて組み合わせられても統合されてもよく、特定の機能が省略されても実装されなくてもよい。
また、様々な実施形態で個別または別個のものとして説明及び図示した技法、システム、サブシステム、及び方法は、本開示の範囲から逸脱することなく、他のシステム、モジュール、技法、または方法と組み合わせられても統合されてもよい。互いに直接結合されるかまたは通信するように図示または説明している他のアイテムは、電気的、機械的、またはそれ以外にかかわらず、何らかのインターフェース、デバイス、または中間コンポーネントを介して間接的に結合されるかまたは通信してもよい。変更、置換、及び変形の他の実施例は、当業者によって解明可能であり、本明細書に開示した精神及び範囲から逸脱せずに実施することができる。

Claims (102)

  1. 機械学習モデルのライフサイクルを管理する方法であって、
    アノテーションなしデータのセットを受信することと、
    前記アノテーションなしデータのサンプルのアノテーションを要求して、アノテーション付きデータのセットを生成することと、
    前記アノテーション付きデータのセットに基づいて機械学習モデルを構築することと、
    前記機械学習モデルをクライアントシステムに配備することであって、前記クライアントシステムにおいて本番アノテーションが生成される、前記配備することと、
    生成された前記本番アノテーションを収集し、前記本番アノテーションを組み込んだ新たな機械学習モデルを生成することと、
    前記アノテーション付きデータのセットに基づいて構築された前記機械学習モデル、または前記新たな機械学習モデルの一方を選択することと、を含み、
    前記アノテーションなしデータのサンプルのアノテーションを要求することは、前記アノテーションなしデータのセットからサンプルを選択するための複数の選択可能なボタンをグラフィカルユーザインターフェース上に設けることを含み、前記複数の選択可能なボタンの各々は、互いに異なるサンプラの推奨に関連付けられている、前記方法。
  2. 適合率、再現率、平均適合率、受信者動作者特性スコア、またはFベータスコアを含む、前記機械学習モデルの1つまたは複数の品質尺度を報告すること、をさらに含む、請求項1に記載の方法。
  3. 前記機械学習モデルを第三者と共有すること、をさらに含む、請求項1に記載の方法。
  4. サンプルのアノテーションを要求することは、
    ユーザ入力または自動サンプラ選択に基づいて、前記アノテーションなしデータのセットからサンプルを選択することを含む、請求項1に記載の方法。
  5. 前記ユーザ入力は、セマンティック検索、類似サンプルの選択、または前記アノテーションなしデータの視覚マップ上の選択のうちの1つまたは複数を含む、請求項4に記載の方法。
  6. 前記自動サンプラ選択は、進行過程内の複数のサンプラのうちの1つからのものである、請求項4に記載の方法。
  7. 前記複数のサンプラのそれぞれは、異なるサンプリングアルゴリズムを使用する、請求項6に記載の方法。
  8. 前記それぞれのサンプリングアルゴリズムは、密度サンプリングアルゴリズム、エントロピーサンプリングアルゴリズム、推定誤差低減サンプリングアルゴリズム、網羅的なサンプリングアルゴリズム、フラグ付き予測アルゴリズム、ハードネガティブマイニングサンプリングアルゴリズム、高信頼度サンプリングアルゴリズム、線形サンプリングアルゴリズム、マップ可視化サンプリングアルゴリズム、メタデータ検索サンプリングアルゴリズム、最小マージンサンプリングアルゴリズム、クエリバイコミッティサンプリングアルゴリズム、ランダムサンプリングアルゴリズム、レビューサンプリングアルゴリズム、検索サンプリングアルゴリズム、類似性サンプリングアルゴリズム、前記ユーザ入力がサンプルをスキップするものであったサンプルのサンプリングのタイプのアルゴリズム、層化サンプリングアルゴリズム、最も信頼性のあるサンプルのアルゴリズム、または最も不確実なサンプルのアルゴリズムから選択される、請求項7に記載の方法。
  9. 前記進行過程は、前記複数のサンプラのうちのサンプラ間で連続的に変更されることを含む、請求項7に記載の方法。
  10. 前記複数のサンプラの各サンプラは、前記進行過程における前または次のサンプラのいずれに移動するかを決定する結果の期待分布を有する、請求項9に記載の方法。
  11. モデル予測が誤っている所定数のサンプルアノテーションを受信すると、前記進行過程はサンプラ間で、前記進行過程における前のサンプラに変更される、請求項10に記載の方法。
  12. モデル予測が一致する所定数のサンプルアノテーションを受信すると、前記進行過程はサンプラ間で、前記進行過程における次のサンプラに変更される、請求項10に記載の方法。
  13. 前記機械学習モデルを構築することは、共有モデルを受信し、中間モデルの重みを前記共有モデルの重みに初期化し、異なる学習率で訓練することを含む、請求項1に記載の方法。
  14. 前記アノテーションなしデータのサンプルのアノテーションを要求することは、テストデータのセットの網羅的なアノテーションを要求することを含む、請求項1に記載の方法。
  15. 前記テストデータのセットの前記網羅的なアノテーションは、密度サンプリング、レベルセットツリー、またはランダムサンプリングのうちの1つまたは複数を含む遠距離教師あり学習によって実行される、請求項14に記載の方法。
  16. 前記グラフィカルユーザインターフェース上にデータ品質メトリック及びデータ数量メトリックを提示することをさらに含む、請求項1に記載の方法。
  17. 前記データ数量メトリックは、いくつかの訓練されたサンプル、いくつかの正例、いくつかの負例、またはサンプルのクラスについて訓練されたいくつかのサンプルのうちの1つまたは複数を含む、請求項1に記載の方法。
  18. 前記データ品質メトリックは、正解率、適合率、再現率、またはF1スコアのうちの1つまたは複数を含む、請求項1に記載の方法。
  19. グラフィカルユーザインターフェース上に、前記アノテーションなしデータのセットのアノテーションにわたる不一致を提示することをさらに含む、請求項1に記載の方法。
  20. 前記機械学習モデルを構築することは、前記機械学習モデルを確立するためのアルゴリズム及び損失関数を選択することを含む、請求項1に記載の方法。
  21. 前記アルゴリズムを選択することは、モデルタイプに基づく、請求項2に記載の方法。
  22. 前記アノテーションなしデータのセットからアノテーションが付けられたアノテーション付き訓練データのセットでモデルを複数回訓練し、実行にわたる品質メトリックの分散を測定することによって、収束をテストすること、をさらに含む、請求項2に記載の方法。
  23. 前記品質メトリックは学習曲線の傾きを含む、請求項2に記載の方法。
  24. 前記機械学習モデルは、所与のモデルタイプ及び前記アルゴリズムに対して選択されたデフォルトのハイパーパラメータを使用して訓練される、請求項2に記載の方法。
  25. 前記ハイパーパラメータは、ランダム選択、グリッド探索、またはベイズ推定法のうちの1つまたは複数を使用して選択される、請求項2に記載の方法。
  26. ランダムシード、アルゴリズム選択、損失関数、ハイパーパラメータ、データセット分割、データセットハッシュ、またはクラス重みのうちの1つまたは複数が、前記機械学習モデルに対して記憶される、請求項2に記載の方法。
  27. 前記機械学習モデルは、バージョン管理され、切り替えられ、またはロールバックされる、請求項1に記載の方法。
  28. データドリフトまたはコンセプトドリフトを介してモデル間の変化を監視すること、をさらに含む、請求項1に記載の方法。
  29. コンセプトドリフトは、前記アノテーション付きデータのセットと前記本番アノテーションとの間でいくつかの変化した予測を定量化することに基づいてモデルを訓練することにより計算される、請求項2に記載の方法。
  30. データドリフトは、前記アノテーション付きデータのセットと前記本番アノテーションとの間のコーパス統計及び/またはコーパス比較に基づいて測定される、請求項2に記載の方法。
  31. データドリフトまたはコンセプトドリフトを識別した場合に警告が生成される、請求項2に記載の方法。
  32. 前記データドリフトまたは前記コンセプトドリフトは、経時的なアノテーションなしデータに関するメトリック、または経時的なモデル予測に関するメトリックを含む、請求項3に記載の方法。
  33. 前記機械学習モデルを共有することは、特徴ハッシュ化、暗号ハッシュ化、またはランダムプロジェクションのうちの1つまたは複数を実行することを含む、請求項3に記載の方法。
  34. 前記機械学習モデルを共有することは、前記機械学習モデルの勾配更新を共有することを含む、請求項3に記載の方法。
  35. 前記勾配更新は、計算グラフのレイヤに加算される、請求項3に記載の方法。
  36. 前記機械学習モデルを共有することは、1つまたは複数のモデル資産を共有することを含む、請求項3に記載の方法。
  37. 前記1つまたは複数のモデル資産は、データセットで訓練された単語埋め込み、単語ベクトル、アノテーションのセット、キーワード及びフレーズのリスト、例文のリスト、言語モデル、辞書、ならびに訓練されたモデル、及びモデルアーキテクチャを含む、請求項3に記載の方法。
  38. 前記1つまたは複数のモデル資産は、個人を特定可能な情報がサニタイズされる、請求項3に記載の方法。
  39. 前記進行過程は、シードサンプラからハードネガティブサンプラ、層化サンプラ、不確実性サンプラへと進むことを含む、請求項6に記載の方法。
  40. サンプルのアノテーションを要求することは、アノテーションフィードバックのためにグラフィカルユーザインターフェース上にユーザに質問を提示することを含む、請求項1に記載の方法。
  41. 前記アノテーションなしデータのサンプルに対して1つまたは複数のアノテーションを予測することをさらに含む、請求項1に記載の方法。
  42. 前記1つまたは複数のアノテーションの前記予測は、前記アノテーションなしデータのサンプルのアノテーションを要求する前である、請求項4に記載の方法。
  43. 前記予測された1つまたは複数のアノテーションをサンプリングスコアに基づいて優先度キューに記憶することをさらに含む、請求項4に記載の方法。
  44. 前記サンプリングスコアは、前記予測された1つまたは複数のアノテーションの信頼度スコアである、請求項4に記載の方法。
  45. 前記予測された1つまたは複数のアノテーションを前記優先度キューに記憶する前に、前記サンプリングスコアが閾値サンプリングスコアより大きいか否かを判定することをさらに含む、請求項4に記載の方法。
  46. 前記閾値サンプリングスコア未満であると判定されたサンプリングスコアを有する予測を破棄することをさらに含む、請求項4に記載の方法。
  47. 前記優先度キューは、所定の最大数の予測を記憶する、請求項4に記載の方法。
  48. 前記予測を前記優先度キューに記憶する前に、前記優先度キューに記憶されたいくつかの予測が前記予測の所定の最大数未満であると判定することをさらに含む、請求項4に記載の方法。
  49. 前記予測を前記優先度キューに記憶する前に、前記サンプリングスコアが、前記優先度キュー内の少なくとも1つの以前に記憶された予測よりも大きいと判定することをさらに含む、請求項4に記載の方法。
  50. 最も低いサンプリングスコアを有する、前記優先度キュー内の以前に記憶された予測を破棄することをさらに含む、請求項4に記載の方法。
  51. 前記アノテーションなしデータのサンプルのアノテーションを要求することは、複数の優先度キューの中から前記優先度キューを選択することを含む、請求項4に記載の方法。
  52. 機械学習モデルのライフサイクルを管理するためのシステムであって、
    プロセッサと、
    前記プロセッサに結合され、コンピュータ可読命令を記憶する非一時的メモリデバイスであって、前記コンピュータ可読命令は、前記プロセッサより実行された場合に、前記システムに機能を実行させ、前記機能は、
    アノテーションなしデータのセットを受信することと、
    前記アノテーションなしデータのサンプルのアノテーションを要求して、アノテーション付きデータのセットを生成することと、
    前記アノテーション付きデータのセットに基づいて機械学習モデルを構築することと、
    前記機械学習モデルをクライアントシステムに配備することであって、前記クライアントシステムにおいて本番アノテーションが生成される、前記配備することと、
    生成された前記本番アノテーションを収集し、前記本番アノテーションを組み込んだ新たな機械学習モデルを生成することと、
    前記アノテーション付きデータのセットに基づいて構築された前記機械学習モデル、または前記新たな機械学習モデルの一方を選択することと、
    を含み、
    前記アノテーションなしデータのサンプルのアノテーションを要求することは、前記アノテーションなしデータのセットからサンプルを選択するための複数の選択可能なボタンをグラフィカルユーザインターフェース上に設けることを含み、前記複数の選択可能なボタンの各々は、互いに異なるサンプラの推奨に関連付けられている、前記非一時的メモリデバイスと、を備える、前記システム。
  53. 前記システムによって実行される前記機能は、
    適合率、再現率、平均適合率、受信者動作者特性スコア、またはFベータスコアを含む、前記機械学習モデルの1つまたは複数の品質尺度を報告すること、をさらに含む、請求項5に記載のシステム。
  54. 前記システムによって実行される前記機能は、
    前記機械学習モデルを第三者と共有すること、をさらに含む、請求項5に記載のシステム。
  55. サンプルのアノテーションを要求することは、
    ユーザ入力または自動サンプラ選択に基づいて、前記アノテーションなしデータのセットからサンプルを選択すること、を含む、請求項5に記載のシステム。
  56. 前記ユーザ入力は、セマンティック検索、類似サンプルの選択、または前記アノテーションなしデータの視覚マップ上の選択のうちの1つまたは複数を含む、請求項5に記載のシステム。
  57. 前記自動サンプラ選択は、進行過程内の複数のサンプラのうちの1つからのものである、請求項5に記載のシステム。
  58. 前記複数のサンプラのそれぞれは、異なるサンプリングアルゴリズムを使用する、請求項5に記載のシステム。
  59. 前記それぞれのサンプリングアルゴリズムは、密度サンプリングアルゴリズム、エントロピーサンプリングアルゴリズム、推定誤差低減サンプリングアルゴリズム、網羅的なサンプリングアルゴリズム、フラグ付き予測アルゴリズム、ハードネガティブマイニングサンプリングアルゴリズム、高信頼度サンプリングアルゴリズム、線形サンプリングアルゴリズム、マップ可視化サンプリングアルゴリズム、メタデータ検索サンプリングアルゴリズム、最小マージンサンプリングアルゴリズム、クエリバイコミッティサンプリングアルゴリズム、ランダムサンプリングアルゴリズム、レビューサンプリングアルゴリズム、検索サンプリングアルゴリズム、類似性サンプリングアルゴリズム、前記ユーザ入力がサンプルをスキップするものであったサンプルのサンプリングのタイプのアルゴリズム、層化サンプリングアルゴリズム、最も信頼性のあるサンプルのアルゴリズム、または最も不確実なサンプルのアルゴリズムから選択される、請求項5に記載のシステム。
  60. 前記進行過程は、前記複数のサンプラのうちのサンプラ間で連続的に変更されることを含む、請求項5に記載のシステム。
  61. 前記複数のサンプラの各サンプラは、前記進行過程における前または次のサンプラのいずれに移動するかを決定する結果の期待分布を有する、請求項6に記載のシステム。
  62. モデル予測が誤っている所定数のサンプルアノテーションを受信すると、前記進行過程はサンプラ間で、前記進行過程における前のサンプラに変更される、請求項6に記載のシステム。
  63. モデル予測が一致する所定数のサンプルアノテーションを受信すると、前記進行過程はサンプラ間で、前記進行過程における次のサンプラに変更される、請求項61に記載のシステム。
  64. 前記機械学習モデルを構築することは、共有モデルを受信し、中間モデルの重みを前記共有モデルの重みに初期化し、異なる学習率で訓練することを含む、請求項5に記載のシステム。
  65. 前記アノテーションなしデータのサンプルのアノテーションを要求することは、テストデータのセットの網羅的なアノテーションを要求することを含む、請求項5に記載のシステム。
  66. 前記テストデータのセットの前記網羅的なアノテーションは、密度サンプリング、レベルセットツリー、またはランダムサンプリングのうちの1つまたは複数を含む遠距離教師あり学習によって実行される、請求項6に記載のシステム。
  67. 前記システムによって実行される前記機能は、前記グラフィカルユーザインターフェース上にデータ品質メトリック及びデータ数量メトリックを提示することをさらに含む、請求項52に記載のシステム。
  68. 前記データ数量メトリックは、いくつかの訓練されたサンプル、いくつかの正例、いくつかの負例、またはサンプルのクラスについて訓練されたいくつかのサンプルのうちの1つまたは複数を含む、請求項6に記載のシステム。
  69. 前記データ品質メトリックは、正解率、適合率、再現率、またはF1スコアのうちの1つまたは複数を含む、請求項6に記載のシステム。
  70. 前記システムによって実行される前記機能は、グラフィカルユーザインターフェース上に、前記アノテーションなしデータのセットのアノテーションにわたる不一致を提示することをさらに含む、請求項5に記載のシステム。
  71. 前記機械学習モデルを構築することは、前記機械学習モデルを確立するためのアルゴリズム及び損失関数を選択することを含む、請求項5に記載のシステム。
  72. 前記アルゴリズムを選択することは、モデルタイプに基づく、請求項7に記載のシステム。
  73. 前記システムによって実行される前記機能は、
    前記アノテーションなしデータのセットからアノテーションが付けられたアノテーション付き訓練データのセットでモデルを複数回訓練し、実行にわたる品質メトリックの分散を測定することによって、収束をテストすること、をさらに含む、請求項7に記載のシステム。
  74. 前記品質メトリックは学習曲線の傾きを含む、請求項73に記載のシステム。
  75. 前記機械学習モデルは、所与のモデルタイプ及び前記アルゴリズムに対して選択されたデフォルトのハイパーパラメータを使用して訓練される、請求項7に記載のシステム。
  76. 前記ハイパーパラメータは、ランダム選択、グリッド探索、またはベイズ推定法のうちの1つまたは複数を使用して選択される、請求項7に記載のシステム。
  77. ランダムシード、アルゴリズム選択、損失関数、ハイパーパラメータ、データセット分割、データセットハッシュ、またはクラス重みのうちの1つまたは複数が、前記機械学習モデルに対して記憶される、請求項7記載のシステム。
  78. 前記機械学習モデルは、バージョン管理され、切り替えられ、またはロールバックされる、請求項5に記載のシステム。
  79. 前記システムによって実行される前記機能は、
    データドリフトまたはコンセプトドリフトを介してモデル間の変化を監視すること、をさらに含む、請求項5に記載のシステム。
  80. コンセプトドリフトは、前記アノテーション付きデータのセットと前記本番アノテーションとの間でいくつかの変化した予測を定量化することに基づいてモデルを訓練することにより計算される、請求項79に記載のシステム。
  81. データドリフトは、前記アノテーション付きデータのセットと前記本番アノテーションとの間のコーパス統計及び/またはコーパス比較に基づいて測定される、請求項79に記載のシステム。
  82. データドリフトまたはコンセプトドリフトを識別した場合に警告が生成される、請求項79に記載のシステム。
  83. 前記データドリフトまたは前記コンセプトドリフトは、経時的なアノテーションなしデータに関するメトリック、または経時的なモデル予測に関するメトリックを含む、請求項82に記載のシステム。
  84. 前記機械学習モデルを共有することは、特徴ハッシュ化、暗号ハッシュ化、またはランダムプロジェクションのうちの1つまたは複数を実行することを含む、請求項5に記載のシステム。
  85. 前記機械学習モデルを共有することは、前記機械学習モデルの勾配更新を共有することを含む、請求項5に記載のシステム。
  86. 前記勾配更新は、計算グラフのレイヤに加算される、請求項8に記載のシステム。
  87. 前記機械学習モデルを共有することは、1つまたは複数のモデル資産を共有することを含む、請求項5に記載のシステム。
  88. 前記1つまたは複数のモデル資産は、データセットで訓練された単語埋め込み、単語ベクトル、アノテーションのセット、キーワード及びフレーズのリスト、例文のリスト、言語モデル、辞書、ならびに訓練されたモデル、及びモデルアーキテクチャを含む、請求項8に記載のシステム。
  89. 前記1つまたは複数のモデル資産は、個人を特定可能な情報がサニタイズされる、請求項88に記載のシステム。
  90. 前記進行過程は、シードサンプラからハードネガティブサンプラ、層化サンプラ、不確実性サンプラへと進むことを含む、請求項5に記載のシステム。
  91. サンプルのアノテーションを要求することは、アノテーションフィードバックのためにグラフィカルユーザインターフェース上にユーザに質問を提示することを含む、請求項53に記載のシステム。
  92. 前記アノテーションなしデータのサンプルに対して1つまたは複数のアノテーションを予測することをさらに含む、請求項5に記載のシステム。
  93. 前記1つまたは複数のアノテーションの前記予測は、前記アノテーションなしデータのサンプルのアノテーションを要求する前である、請求項9に記載のシステム。
  94. 前記システムによって実行される前記機能は、前記予測された1つまたは複数のアノテーションをサンプリングスコアに基づいて優先度キューに記憶することをさらに含む、請求項9に記載のシステム。
  95. 前記サンプリングスコアは、前記予測された1つまたは複数のアノテーションの信頼度スコアである、請求項9に記載のシステム。
  96. 前記システムによって実行される前記機能は、前記予測された1つまたは複数のアノテーションを前記優先度キューに記憶する前に、前記サンプリングスコアが閾値サンプリングスコアより大きいか否かを判定することをさらに含む、請求項9に記載のシステム。
  97. 前記システムによって実行される前記機能は、前記閾値サンプリングスコア未満であると判定されたサンプリングスコアを有する予測を破棄することをさらに含む、請求項9に記載のシステム。
  98. 前記優先度キューは、所定の最大数の予測を記憶する、請求項9に記載のシステム。
  99. 前記システムによって実行される前記機能は、前記予測を前記優先度キューに記憶する前に、前記優先度キューに記憶されたいくつかの予測が前記予測の所定の最大数未満であると判定することをさらに含む、請求項94に記載のシステム。
  100. 前記システムによって実行される前記機能は、前記予測を前記優先度キューに記憶する前に、前記サンプリングスコアが、前記優先度キュー内の少なくとも1つの以前に記憶された予測よりも大きいと判定することをさらに含む、請求項9に記載のシステム。
  101. 前記システムによって実行される前記機能は、最も低いサンプリングスコアを有する、前記優先度キュー内の以前に記憶された予測を破棄することをさらに含む、請求項9に記載のシステム。
  102. 前記アノテーションなしデータのサンプルのアノテーションを要求することは、複数の優先度キューの中から前記優先度キューを選択することを含む、請求項9に記載のシステム。
JP2019564084A 2017-05-14 2018-05-14 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法 Active JP7216021B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023006402A JP2023052502A (ja) 2017-05-14 2023-01-19 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762505936P 2017-05-14 2017-05-14
US62/505,936 2017-05-14
PCT/US2018/032607 WO2018213205A1 (en) 2017-05-14 2018-05-14 Systems and methods for rapidly building, managing, and sharing machine learning models

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023006402A Division JP2023052502A (ja) 2017-05-14 2023-01-19 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法

Publications (3)

Publication Number Publication Date
JP2020522055A JP2020522055A (ja) 2020-07-27
JP2020522055A5 JP2020522055A5 (ja) 2021-07-26
JP7216021B2 true JP7216021B2 (ja) 2023-01-31

Family

ID=64274823

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019564084A Active JP7216021B2 (ja) 2017-05-14 2018-05-14 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法
JP2023006402A Pending JP2023052502A (ja) 2017-05-14 2023-01-19 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023006402A Pending JP2023052502A (ja) 2017-05-14 2023-01-19 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法

Country Status (7)

Country Link
US (1) US12106078B2 (ja)
EP (1) EP3625677A4 (ja)
JP (2) JP7216021B2 (ja)
CN (1) CN111095308A (ja)
AU (1) AU2018269941A1 (ja)
CA (1) CA3063738A1 (ja)
WO (1) WO2018213205A1 (ja)

Families Citing this family (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11288595B2 (en) * 2017-02-14 2022-03-29 Groq, Inc. Minimizing memory and processor consumption in creating machine learning models
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
US11573573B2 (en) 2017-06-06 2023-02-07 Plusai, Inc. Method and system for distributed learning and adaptation in autonomous driving vehicles
US11042155B2 (en) 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
CN110119507A (zh) * 2018-02-05 2019-08-13 阿里巴巴集团控股有限公司 词向量生成方法、装置以及设备
US12099909B2 (en) 2018-03-06 2024-09-24 Tazi AI Systems, Inc. Human understandable online machine learning system
US11715042B1 (en) 2018-04-20 2023-08-01 Meta Platforms Technologies, Llc Interpretability of deep reinforcement learning models in assistant systems
US10782986B2 (en) 2018-04-20 2020-09-22 Facebook, Inc. Assisting users with personalized and contextual communication content
US11307880B2 (en) 2018-04-20 2022-04-19 Meta Platforms, Inc. Assisting users with personalized and contextual communication content
US11676220B2 (en) 2018-04-20 2023-06-13 Meta Platforms, Inc. Processing multimodal user input for assistant systems
US11886473B2 (en) 2018-04-20 2024-01-30 Meta Platforms, Inc. Intent identification for agent matching by assistant systems
US11487941B2 (en) * 2018-05-21 2022-11-01 State Street Corporation Techniques for determining categorized text
US11423330B2 (en) * 2018-07-16 2022-08-23 Invoca, Inc. Performance score determiner for binary signal classifiers
US11403465B2 (en) * 2018-08-24 2022-08-02 Royal Bank Of Canada Systems and methods for report processing
US11880396B2 (en) * 2018-10-08 2024-01-23 Arctic Alliance Europe Oy Method and system to perform text-based search among plurality of documents
US11074456B2 (en) * 2018-11-14 2021-07-27 Disney Enterprises, Inc. Guided training for automation of content annotation
US11651235B2 (en) * 2018-11-28 2023-05-16 International Business Machines Corporation Generating a candidate set of entities from a training set
RU2702980C1 (ru) * 2018-12-14 2019-10-14 Самсунг Электроникс Ко., Лтд. Распределённое обучение моделей машинного обучения для персонализации
CN109740752B (zh) * 2018-12-29 2022-01-04 北京市商汤科技开发有限公司 深度模型训练方法及装置、电子设备及存储介质
US11790239B2 (en) * 2018-12-29 2023-10-17 International Business Machines Corporation Deep learning testing
US11030086B2 (en) * 2019-02-15 2021-06-08 Tencent America LLC Machine learning model full life cycle management framework
US10984246B2 (en) 2019-03-13 2021-04-20 Google Llc Gating model for video analysis
CN111797126B (zh) * 2019-04-08 2024-04-02 阿里巴巴集团控股有限公司 数据的处理方法、装置及设备
US20200334553A1 (en) * 2019-04-22 2020-10-22 Electronics And Telecommunications Research Institute Apparatus and method for predicting error of annotation
US11475358B2 (en) 2019-07-31 2022-10-18 GE Precision Healthcare LLC Annotation pipeline for machine learning algorithm training and optimization
US11409772B2 (en) * 2019-08-05 2022-08-09 International Business Machines Corporation Active learning for data matching
US11663275B2 (en) 2019-08-05 2023-05-30 International Business Machines Corporation Method for dynamic data blocking in a database system
WO2021040588A1 (en) * 2019-08-28 2021-03-04 Telefonaktiebolaget Lm Ericsson (Publ) Network nodes and methods for handling machine learning models in a communications network
US11080352B2 (en) 2019-09-20 2021-08-03 International Business Machines Corporation Systems and methods for maintaining data privacy in a shared detection model system
US11216268B2 (en) 2019-09-20 2022-01-04 International Business Machines Corporation Systems and methods for updating detection models and maintaining data privacy
US11188320B2 (en) 2019-09-20 2021-11-30 International Business Machines Corporation Systems and methods for updating detection models and maintaining data privacy
US11157776B2 (en) * 2019-09-20 2021-10-26 International Business Machines Corporation Systems and methods for maintaining data privacy in a shared detection model system
US11003825B1 (en) * 2019-09-26 2021-05-11 Cadence Design Systems, Inc. System, method, and computer program product for optimization in an electronic design
US11288515B2 (en) * 2019-11-11 2022-03-29 Samsung Electronics Co., Ltd. Methods and systems for real-time data reduction
CN110956018B (zh) * 2019-11-22 2023-04-18 腾讯科技(深圳)有限公司 文本处理模型的训练方法、文本处理方法、装置及存储介质
EP3828725A1 (en) * 2019-11-27 2021-06-02 Ubimax GmbH Method of performing a process using artificial intelligence
EP3828734A1 (en) * 2019-11-27 2021-06-02 Ubimax GmbH Method of performing a data collection procedure for a process which uses artificial intelligence
US11429813B1 (en) * 2019-11-27 2022-08-30 Amazon Technologies, Inc. Automated model selection for network-based image recognition service
TWI732370B (zh) 2019-12-04 2021-07-01 財團法人工業技術研究院 神經網路模型的訓練裝置和訓練方法
US11294759B2 (en) 2019-12-05 2022-04-05 International Business Machines Corporation Detection of failure conditions and restoration of deployed models in a computing environment
WO2021118173A1 (en) 2019-12-09 2021-06-17 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
US11610152B2 (en) * 2019-12-27 2023-03-21 GE Precision Healthcare LLC Machine learning model development and optimization process that ensures performance validation and data sufficiency for regulatory approval
US11704602B2 (en) * 2020-01-02 2023-07-18 Intuit Inc. Method for serving parameter efficient NLP models through adaptive architectures
US11715151B2 (en) * 2020-01-31 2023-08-01 Walmart Apollo, Llc Systems and methods for retraining of machine learned systems
US12099997B1 (en) 2020-01-31 2024-09-24 Steven Mark Hoffberg Tokenized fungible liabilities
US20230067026A1 (en) * 2020-02-17 2023-03-02 DataRobot, Inc. Automated data analytics methods for non-tabular data, and related systems and apparatus
US11494588B2 (en) 2020-03-06 2022-11-08 International Business Machines Corporation Ground truth generation for image segmentation
US11556852B2 (en) 2020-03-06 2023-01-17 International Business Machines Corporation Efficient ground truth annotation
US11495038B2 (en) 2020-03-06 2022-11-08 International Business Machines Corporation Digital image processing
US11361146B2 (en) 2020-03-06 2022-06-14 International Business Machines Corporation Memory-efficient document processing
US11755951B2 (en) * 2020-05-15 2023-09-12 Vmware, Inc. Machine learning with an intelligent continuous learning service in a big data environment
US11294946B2 (en) * 2020-05-15 2022-04-05 Tata Consultancy Services Limited Methods and systems for generating textual summary from tabular data
CN111612158B (zh) * 2020-05-22 2024-03-01 云知声智能科技股份有限公司 模型部署方法、装置、设备和存储介质
US12118297B2 (en) * 2020-06-15 2024-10-15 Canon Kabushiki Kaisha Information processing apparatus
US20210406758A1 (en) * 2020-06-24 2021-12-30 Surveymonkey Inc. Double-barreled question predictor and correction
US11461292B2 (en) * 2020-07-01 2022-10-04 International Business Machines Corporation Quick data exploration
CN113971422A (zh) * 2020-07-06 2022-01-25 华为技术有限公司 样本数据标注系统、方法以及相关设备
US20220024032A1 (en) * 2020-07-21 2022-01-27 UiPath, Inc. Artificial intelligence / machine learning model drift detection and correction for robotic process automation
US20220027578A1 (en) * 2020-07-27 2022-01-27 Nvidia Corporation Text string summarization
JP2022028338A (ja) * 2020-08-03 2022-02-16 オムロン株式会社 予測システム、情報処理装置および情報処理プログラム
KR20220023639A (ko) 2020-08-21 2022-03-02 삼성전자주식회사 전자 장치 및 그 제어 방법
CN112101952B (zh) * 2020-09-27 2024-05-10 中国建设银行股份有限公司 银行可疑交易评估、数据处理方法及装置
US12086548B2 (en) 2020-09-30 2024-09-10 Amazon Technologies, Inc. Event extraction from documents with co-reference
US20220100967A1 (en) * 2020-09-30 2022-03-31 Amazon Technologies, Inc. Lifecycle management for customized natural language processing
US10930272B1 (en) * 2020-10-15 2021-02-23 Drift.com, Inc. Event-based semantic search and retrieval
EP3989101A1 (en) * 2020-10-20 2022-04-27 Dassault Systèmes Improving unsupervised embedding methods for similarity based industrial component model requesting systems
KR20220063361A (ko) * 2020-11-10 2022-05-17 이인텔리전스 주식회사 어노테이션 관리 장치 및 방법
US11769318B2 (en) 2020-11-23 2023-09-26 Argo AI, LLC Systems and methods for intelligent selection of data for building a machine learning model
FR3118245B1 (fr) * 2020-12-18 2024-04-05 Airbus Defence & Space Sas Procede et systeme d’apprentissage actif et d’analyse automatique de documents
US11657591B2 (en) * 2021-01-15 2023-05-23 Argo AI, LLC Autonomous vehicle system for intelligent on-board selection of data for building a remote machine learning model
US20220237234A1 (en) * 2021-01-22 2022-07-28 Microsoft Technology Licensing, Llc Document sampling using prefetching and precomputing
US11711257B1 (en) * 2021-03-03 2023-07-25 Wells Fargo Bank, N.A. Systems and methods for automating incident severity classification
CN113033631A (zh) * 2021-03-09 2021-06-25 北京百度网讯科技有限公司 一种模型的增量训练方法和装置
WO2022217122A1 (en) * 2021-04-08 2022-10-13 Nec Laboratories America, Inc. Learning ordinal representations for deep reinforcement learning based object localization
EP4099142A4 (en) 2021-04-19 2023-07-05 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND METHOD OF OPERATION
KR102343043B1 (ko) * 2021-05-13 2021-12-24 주식회사 인피닉 실시간 작업 변경 사항에 대응하는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
US20220398524A1 (en) * 2021-06-11 2022-12-15 Aktify, Inc. Consumer interaction agent management platform
KR102310600B1 (ko) * 2021-06-17 2021-10-13 주식회사 인피닉 빅데이터 기반의 인공지능 학습용 데이터 추출 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
CN113449878B (zh) * 2021-06-24 2024-04-02 西安交通大学 数据分布式的增量学习方法、系统、设备及存储介质
US20230004857A1 (en) * 2021-06-30 2023-01-05 Armis Security Ltd. Techniques for validating machine learning models
US11797425B2 (en) * 2021-07-09 2023-10-24 International Business Machines Corporation Data augmentation based on failure cases
CN113568739B (zh) * 2021-07-12 2024-06-18 北京淇瑀信息科技有限公司 用户资源额度分配方法、装置及电子设备
WO2023006224A1 (en) * 2021-07-30 2023-02-02 NEC Laboratories Europe GmbH Entity matching with joint learning of blocking and matching
CN113704667B (zh) * 2021-08-31 2023-06-27 北京百炼智能科技有限公司 一种招标公告的自动提取处理方法和装置
CN113610191B (zh) * 2021-09-07 2023-08-29 中原动力智能机器人有限公司 垃圾分类模型建模方法、垃圾分类方法
US20230140160A1 (en) * 2021-11-04 2023-05-04 International Business Machines Corporation Compliance risk management for data in computing systems
EP4212973A1 (en) * 2022-01-13 2023-07-19 Siemens Aktiengesellschaft Method and system for quality inspection
CN114428677B (zh) * 2022-01-28 2023-09-12 北京百度网讯科技有限公司 任务处理方法、处理装置、电子设备及存储介质
WO2023149880A1 (en) * 2022-02-03 2023-08-10 Google Llc Continuous training of machine learning models on changing data
EP4274297A1 (en) 2022-05-05 2023-11-08 Continental Automotive Technologies GmbH Base station, user equipment, network and method for machine learning related communication
CN114820074A (zh) * 2022-05-16 2022-07-29 郑州简信软件科技有限公司 基于机器学习的目标用户群体预测模型构建方法
WO2024004127A1 (ja) * 2022-06-30 2024-01-04 株式会社マーケットヴィジョン 情報処理システム
CN116665656B (zh) * 2023-07-24 2023-10-10 美智纵横科技有限责任公司 语音识别模型的生成方法、语音识别方法、装置及芯片

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080126556A1 (en) 2006-09-13 2008-05-29 International Business Machines Corporation System and method for classifying data streams using high-order models
CN101425152A (zh) 2008-12-12 2009-05-06 湖南大学 一种基于变学习率神经网络的fir滤波器的设计方法
JP2013538543A (ja) 2010-07-16 2013-10-10 ザ トラスティーズ オブ コロンビア ユニバーシティ イン ザ シティー オブ ニューヨーク 送電網用の機械学習
US20140380286A1 (en) 2013-06-20 2014-12-25 Six Five Labs, Inc. Dynamically evolving cognitive architecture system based on training by third-party developers
JP2016042322A (ja) 2014-08-19 2016-03-31 日本電気株式会社 データ分析装置、分析方法とそのプログラム
WO2016140701A1 (en) 2015-03-02 2016-09-09 Northrop Grumman Systems Corporation Digital object library management system for machine learning applications
US20170032281A1 (en) 2015-07-29 2017-02-02 Illinois Tool Works Inc. System and Method to Facilitate Welding Software as a Service
US20170032279A1 (en) 2015-07-31 2017-02-02 Acuity Solutions Corporation System and method for in-situ classifier retraining for malware identification and model heterogeneity
CN106560848A (zh) 2016-10-09 2017-04-12 辽宁工程技术大学 模拟生物双向认知能力的新型神经网络模型及训练方法
WO2017073000A1 (ja) 2015-10-29 2017-05-04 株式会社Preferred Networks 情報処理装置及び情報処理方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7996219B2 (en) * 2005-03-21 2011-08-09 At&T Intellectual Property Ii, L.P. Apparatus and method for model adaptation for spoken language understanding
KR100750886B1 (ko) * 2005-12-09 2007-08-22 한국전자통신연구원 학습 데이터 구축 장치 및 방법
US8250408B1 (en) 2007-04-02 2012-08-21 Hewlett-Packard Development Company, L.P. System diagnosis
TWI489394B (zh) 2008-03-03 2015-06-21 Videoiq Inc 用於追蹤、索引及搜尋之物件匹配
US8386401B2 (en) * 2008-09-10 2013-02-26 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data using a plurality of learning machines wherein the learning machine that optimizes a performance function is selected
US20100257167A1 (en) 2009-04-01 2010-10-07 Microsoft Corporation Learning to rank using query-dependent loss functions
US9111218B1 (en) 2011-12-27 2015-08-18 Google Inc. Method and system for remediating topic drift in near-real-time classification of customer feedback
US9058317B1 (en) 2012-11-01 2015-06-16 Digital Reasoning Systems, Inc. System and method for machine learning management
WO2014075108A2 (en) * 2012-11-09 2014-05-15 The Trustees Of Columbia University In The City Of New York Forecasting system using machine learning and ensemble methods
US9122681B2 (en) * 2013-03-15 2015-09-01 Gordon Villy Cormack Systems and methods for classifying electronic information using advanced active learning techniques
GB2525804B (en) * 2013-03-15 2020-08-05 Veracyte Inc Methods and compositions for classification of samples
ITTO20130588A1 (it) 2013-07-12 2015-01-13 Fond Istituto Italiano Di Tecnologia Sistema per la penetrazione non distruttiva di un substrato
US10262272B2 (en) * 2014-12-07 2019-04-16 Microsoft Technology Licensing, Llc Active machine learning
US20160358099A1 (en) * 2015-06-04 2016-12-08 The Boeing Company Advanced analytical infrastructure for machine learning
US20170011077A1 (en) * 2015-07-07 2017-01-12 Socrata, Inc. Scalable annotation architecture
US20170143284A1 (en) 2015-11-25 2017-05-25 Carestream Health, Inc. Method to detect a retained surgical object
US20180032901A1 (en) * 2016-07-27 2018-02-01 International Business Machines Corporation Greedy Active Learning for Reducing User Interaction

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080126556A1 (en) 2006-09-13 2008-05-29 International Business Machines Corporation System and method for classifying data streams using high-order models
CN101425152A (zh) 2008-12-12 2009-05-06 湖南大学 一种基于变学习率神经网络的fir滤波器的设计方法
JP2013538543A (ja) 2010-07-16 2013-10-10 ザ トラスティーズ オブ コロンビア ユニバーシティ イン ザ シティー オブ ニューヨーク 送電網用の機械学習
US20140380286A1 (en) 2013-06-20 2014-12-25 Six Five Labs, Inc. Dynamically evolving cognitive architecture system based on training by third-party developers
JP2016042322A (ja) 2014-08-19 2016-03-31 日本電気株式会社 データ分析装置、分析方法とそのプログラム
WO2016140701A1 (en) 2015-03-02 2016-09-09 Northrop Grumman Systems Corporation Digital object library management system for machine learning applications
US20170032281A1 (en) 2015-07-29 2017-02-02 Illinois Tool Works Inc. System and Method to Facilitate Welding Software as a Service
US20170032279A1 (en) 2015-07-31 2017-02-02 Acuity Solutions Corporation System and method for in-situ classifier retraining for malware identification and model heterogeneity
WO2017073000A1 (ja) 2015-10-29 2017-05-04 株式会社Preferred Networks 情報処理装置及び情報処理方法
CN106560848A (zh) 2016-10-09 2017-04-12 辽宁工程技术大学 模拟生物双向认知能力的新型神经网络模型及训练方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宮崎 亮輔,Wikipediaを用いた遠距離教師あり学習による専門用語抽出,言語処理学会 第21回年次大会発表論文集,2015年03月17日,pp.87-90,[検索日:2022.05.09],インターネット<URL:https://www.anlp.jp/proceedings/annual_meeting/2015/pdf_dir/P1-22.pdf>

Also Published As

Publication number Publication date
US12106078B2 (en) 2024-10-01
CN111095308A (zh) 2020-05-01
WO2018213205A1 (en) 2018-11-22
US20200202171A1 (en) 2020-06-25
EP3625677A1 (en) 2020-03-25
JP2020522055A (ja) 2020-07-27
AU2018269941A1 (en) 2019-12-05
EP3625677A4 (en) 2021-04-21
JP2023052502A (ja) 2023-04-11
CA3063738A1 (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP7216021B2 (ja) 機械学習モデルを迅速に構築し、管理し、共有するためのシステム及び方法
US11080340B2 (en) Systems and methods for classifying electronic information using advanced active learning techniques
US11243993B2 (en) Document relationship analysis system
EP3020006B1 (en) Interactive segment extraction in computer-human interactive learning
US20190164084A1 (en) Method of and system for generating prediction quality parameter for a prediction model executed in a machine learning algorithm
AlQahtani Product sentiment analysis for amazon reviews
US11256991B2 (en) Method of and server for converting a categorical feature value into a numeric representation thereof
US11620453B2 (en) System and method for artificial intelligence driven document analysis, including searching, indexing, comparing or associating datasets based on learned representations
US11995519B2 (en) Method of and server for converting categorical feature value into a numeric representation thereof and for generating a split value for the categorical feature
Rafail et al. Natural language processing
US20230030341A1 (en) Dynamic user interface and machine learning tools for generating digital content and multivariate testing recommendations
US11868313B1 (en) Apparatus and method for generating an article
US20230273964A1 (en) Apparatus and method for evaluating search engine performance, and dashboard
US20230376858A1 (en) Classification-based machine learning frameworks trained using partitioned training sets
Swadia A study of text mining framework for automated classification of software requirements in enterprise systems
US20240004913A1 (en) Long text clustering method based on introducing external label information
RU2817726C2 (ru) Способ и сервер для определения обучающего набора для обучения алгоритма машинного обучения (MLA)
US20240184570A1 (en) Code review comment generation via retrieval-augmented transformer with chunk cross- attention
Anupriya et al. Audio Based Sentiment Prediction Model
Ait Benali et al. Arabic named entity recognition in social media based on BiLSTM-CRF using an attention mechanism
Klingfors Data mining on Data sets of Products
Tesfay Using various Natural Language Processing Techniques to Automate Information Retrieval
Zhu Improving Software Defect Assignment Accuracy With the LSTM and Rule Engine Model
Tohalino et al. Using citation networks to evaluate the impact of text length on keyword extraction
TANVIR Design and Implementation of an Efficient Web Crawling

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230119

R150 Certificate of patent or registration of utility model

Ref document number: 7216021

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150