JP6212217B2 - 機械学習における重みの生成 - Google Patents

機械学習における重みの生成 Download PDF

Info

Publication number
JP6212217B2
JP6212217B2 JP2016532125A JP2016532125A JP6212217B2 JP 6212217 B2 JP6212217 B2 JP 6212217B2 JP 2016532125 A JP2016532125 A JP 2016532125A JP 2016532125 A JP2016532125 A JP 2016532125A JP 6212217 B2 JP6212217 B2 JP 6212217B2
Authority
JP
Japan
Prior art keywords
weight
processor
distribution
training
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016532125A
Other languages
English (en)
Other versions
JP2017500639A (ja
Inventor
アブ−モスタファ,ヤセル,サイド
ゴンザレス,カルロス,ロベルト
Original Assignee
カリフォルニア インスティテュート オブ テクノロジー
カリフォルニア インスティテュート オブ テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カリフォルニア インスティテュート オブ テクノロジー, カリフォルニア インスティテュート オブ テクノロジー filed Critical カリフォルニア インスティテュート オブ テクノロジー
Publication of JP2017500639A publication Critical patent/JP2017500639A/ja
Application granted granted Critical
Publication of JP6212217B2 publication Critical patent/JP6212217B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)
  • Complex Calculations (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本出願は、出願全体を本明細書において参照により援用する、2013年11月22日に出願した米国特許仮出願第61/907,491号明細書、2014年6月20日に出願した米国特許仮出願第62/015,176号明細書、および2014年8月5日に出願した米国特許仮出願第14/451,870号明細書の優先権を主張するものである。本出願は、2014年8月5日に出願された「WEIGHT BENEFIT EVALUATOR FOR TRAINING DATA」と題する特許出願第14/451,859号、2014年8月5日に出願された「WEIGHT GENERATION IN MACHINE LEARNING」と題する特許出願第14/451,899号、および2014年8月5日に出願された「ALTERNATIVE TRAINING DISTRIBUTION DATA IN MACHINE LEARNING」と題する特許出願第14/451,935号に関する。
本明細書において特に指示のない限り、この節において説明される題材は、本出願における特許請求の範囲に対する従来技術ではなく、この節に含有することにより従来技術であると是認されるものではない。
機械学習は、データから学習し、データに基づいて一般化を行うために、データにより訓練され得るシステムを伴うことができる。訓練された機械学習システムは、入力を取り込み、出力を予測することができる。一部の例において、機械学習技法は、分類または回帰の問題を解決することによって、出力を予測することができる。機械学習システムは、データによる学習アルゴリズムの訓練に基づいて、データを分類すること、推奨を行うこと、および/またはさまざまな結果を予測することに効果的となり得る。
一部の例において、機械学習環境において重みを決定するための方法が、概ね説明される。一部の例において、方法は、プロセッサにより、トレーニングデータのトレーニング分布を識別することを含むことができる。その他の例において、方法はまた、プロセッサにより、テストデータのテスト分布に関する情報を識別することを含むことができる。一部の他の例において、方法はまた、プロセッサにより、トレーニングデータおよびテストデータのコーディネイトを識別することを含むことができる。さらにその他の例において、方法はまた、プロセッサにより、コーディネイトについて、テスト分布とトレーニング分布との差を決定することを含むことができる。その他の例において、方法はまた、プロセッサにより、コーディネイトの重み重要度パラメータを識別することを含むことができる。一部の他の例において、方法はまた、プロセッサにより、前記差に基づいて、および重み重要度パラメータに基づいて、重みを計算することを含むことができる。重みは、トレーニング分布を、ある適合度においてテスト分布と適合させるように構成されてもよい。一部の例において、ある適合度は、重み重要度パラメータに基づいてもよい。
一部の例において、機械学習環境において重みを決定するための方法が、概ね説明される。一部の例において、方法は、プロセッサにより、トレーニングデータのトレーニング分布を識別することを含むことができる。さらに他の例において、方法はまた、プロセッサにより、テストデータのテスト分布に関する情報を識別することを含むことができる。さまざまな例において、方法はまた、プロセッサにより、トレーニングデータおよびテストデータのコーディネイトを識別することを含むことができる。一部の他の例において、方法はまた、プロセッサにより、コーディネイトについて、テスト分布とトレーニング分布との差を決定することを含むことができる。その他の例において、方法は、プロセッサにより、コーディネイトの第1の重み重要度パラメータを識別することを含むことができる。さらに他の例において、方法はまた、プロセッサにより、前記差に基づいて、および第1の重み重要度パラメータに基づいて、第1の重みを計算することを含むことができる。第1の重みは、トレーニング分布を、第1の適合度においてテスト分布と適合させるように構成されてもよい。一部の例において、第1の適合度は、第1の重み重要度パラメータに基づいてもよい。さまざまな他の例において、方法はまた、プロセッサにより、コーディネイトの第2の重み重要度パラメータを識別することを含むことができる。一部の他の例において、方法はまた、プロセッサにより、前記差に基づいて、および第2の重み重要度パラメータに基づいて、第2の重みを計算することを含むことができる。第2の重みは、トレーニング分布を、第2の適合度においてテスト分布と適合させるように構成されてもよい。一部の例において、第2の適合度は、第2の重み重要度パラメータに基づいてもよい。さまざまな例において、第2の適合度は、第1の適合度と異なっていてもよい。
一部の他の例において、機械学習システムが、概ね説明される。一部の例において、機械学習システムは、プロセッサ、および/またはプロセッサと通信するように構成されたメモリとを含むことができる。一部の例において、メモリは、トレーニングデータを含むことができる。トレーニングデータは、第1の点を含むことができる。一部の他の例において、メモリは、テストデータを含むことができる。テストデータは、第2の点を含むことができる。一部の例において、プロセッサは、第1および第2の点のコーディネイトを識別することに有効であってもよい。コーディネイトは、コーディネイト空間における値の範囲を含むことができる。一部の他の例において、プロセッサは、コーディネイト空間における値の範囲を複数のビンに分割することに効果的であってもよい。それぞれのビンは、値の範囲のサブセットを定義することができる。さまざまな他の例において、プロセッサは、第1の度数を決定することに有効であってもよい。第1の度数は、特定のビン内に位置し得る第1の点の第1の割合に関連してもよい。一部の他の例において、プロセッサは、第2の度数を決定することに有効であってもよい。第2の度数は、前記特定のビン内に位置し得る第2の点の第2の割合に関連してもよい。一部の他の例において、プロセッサは、コーディネイトの重み重要度パラメータを識別することに有効であってもよい。その他の例において、プロセッサは、第1の度数および第2の度数を比較することに有効であってもよい。その他の例において、プロセッサは、第1と第2の度数の比較に少なくとも部分的に基づいて、および重み重要度パラメータに基づいて、トレーニングデータの重みを計算することに有効であってもよい。重みは、トレーニングデータを、ある適合度においてテストデータと適合させるように構成されてもよい。ある適合度は、重み重要度パラメータに基づいてもよい。一部の他の例において、メモリは、重みを格納することに有効であってもよい。
前述の課題を解決するための手段は、例示的なものに過ぎず、限定的であることは全く意図されていない。上記で説明される例示的な態様、実施形態、および特徴に加えて、さらなる態様、実施形態、および特徴は、図面および後段の詳細な説明を参照することにより明らかとなろう。
本開示の前述およびその他の特徴は、付属の図面と併せて以下の説明と添付の特許請求の範囲を読めばさらに十分に明らかとなろう。それらの図面が本開示によるいくつかの実施形態を示すに過ぎず、その範囲を限定するものと見なされるべきではないことを理解すれば、本開示は、付属の図面を使用することでさらに具体的かつ詳細に説明されるであろう。
本明細書において説明される少なくとも一部の実施形態に従って配置される、機械学習において重み生成を実施するために使用され得る例示のシステムを示す図である。 本明細書において説明される少なくとも一部の実施形態に従って配置される、重み生成モジュールに関連する追加の詳細と共に図1の例示のシステムを示す図である。 本明細書において説明される少なくとも一部の実施形態に従って配置される、機械学習において重み生成を実施するための例示のプロセスを示す流れ図である。 本明細書において説明される少なくとも一部の実施形態に従って配置される、機械学習において重み生成を実施するために使用され得る例示のコンピュータプログラム製品を示す図である。 本明細書において説明される少なくとも一部の実施形態に従って配置される、機械学習において重み生成のために配置された例示のコンピューティングデバイスを示すブロック図である。
以下の詳細な説明において、本明細書の一部を形成する付属の図面が参照される。図面において、文脈に特に指示がない限り、類似する符号は概して、類似するコンポーネントを識別する。発明を実施するための形態、図面、および特許請求の範囲において説明される例示的な実施形態は、限定的であることを意図されていない。本明細書において提示される主題の精神または範囲を逸脱することなく、その他の実施形態が使用されてもよく、その他の変更が行われてもよい。本明細書において概ね説明され、図面に示される本開示の態様が、多岐にわたるさまざまな構成において配置され、代替され、組み合わされ、分離され、設計されてもよい。
本開示は、とりわけ、機械学習における重みの生成に関連する方法、装置、システム、デバイス、およびコンピュータプログラム製品を概ね対象とする。
簡潔に述べると、機械学習環境において重みを決定することに関連するシステム、デバイス、および方法について概ね説明される。トレーニングデータのトレーニング分布が、識別されてもよい。たとえば、トレーニングデータは、機能を学習するために使用され得る、入力および出力のような、点を含むことができる。テストデータのテスト分布に関する情報が、識別されてもよい。一部の例において、テストデータは、機械学習機能への入力のためのデータであってもよい。トレーニングデータおよびテストデータのコーディネイトが、識別されてもよい。コーディネイトは、たとえば、ユーザによって評価された複数のムービーであってもよい。テスト分布とトレーニング分布の差は、コーディネイトについて決定されてもよい。たとえば、差は、ムービーの評判に関連してもよい。重み重要度パラメータは、コーディネイトについて識別されてもよい。プロセッサは、差に基づいて、および重み重要度パラメータに基づいて重みを計算することができる。重み重要度パラメータは、トレーニング分布がどの程度テスト分布と適合すべきかに関連してもよい。重みは、トレーニング分布を、ある適合度においてテスト分布と適合させるように構成されてもよい。ある適合度は、重み重要度パラメータに基づいてもよい。
図1は、機械学習において重み生成を実施するために使用され得る、本明細書において説明される少なくとも一部の実施形態に従って配置される、例示のシステム100を示す。示されているように、システム100は、コンピューティングデバイス102を含むことができる。コンピューティングデバイス102は、相互に通信するようにすべてが構成された、処理モジュール104、メモリ106、重み生成モジュール108、および機械学習モジュール110を含むことができる。処理モジュール104は、ハードウェアであってもよく、1つまたは複数の命令を実行するように構成されてもよい。たとえば、処理モジュール104は、メモリ106に格納されている1つまたは複数の命令を実行するように構成されてもよい。メモリ106は、1つまたは複数の機械学習アルゴリズム114を格納することにさらに有効であってもよい。機械学習アルゴリズム114は、機械学習モジュール110によって実行されるとき、関数116を生成することに有効な命令および/または命令のセットを含むことができる。
後段においてさらに詳細に説明されるように、機械学習モジュール110は、1つまたは複数の機械学習アルゴリズム114およびトレーニングデータ118を使用して関数116を学習または訓練することに効果的であってもよい。関数116の例は、クレジットスコアを決定するための関数であってもよい。一部の例において、トレーニングデータ118は、1つまたは複数の点130を含むことができる。点130は、関連付けられている入力122aおよび出力124aのセットを含むことができる。たとえば、収入Xと債務Yによる入力は、クレジットスコアZという結果になり得る。一部の例において、トレーニングデータ118のトレーニング分布は、処理モジュール104によって識別されてもよい。さまざまな他の例において、処理モジュール104は、トレーニングデータ118の点130を識別することに有効であってもよい。トレーニングデータ118は、メモリ106に格納されてもよい。トレーニングデータ118の点130は、特定のトレーニング分布に従うことができる。たとえば、トレーニング分布は、第1の時間のインスタンスにおける収入レベルの範囲を指示することができる。一部の例において、トレーニング分布は、確率分布であってもよい。トレーニングデータ118は、関数116の生成に先立ち得る時間のインスタンスにおいて生成されてもよい。一部の例において、関数116は、関数116に提供されたテストデータ120の入力122bに基づいて(たとえば、決定、分類、予測、および/または推奨のような)出力124bを決定することに有効であってもよい。一部の例において、出力124bは、「ラベル」と称されてもよい。
たとえば、テスト分布は、第2の時間のインスタンスにおける収入レベルの範囲を指示することができる。テストデータ120は、特定のテスト分布に従い得る複数の点131を含むことができる。一部の例において、テストデータ120は、トレーニングデータ118が生成される時間のインスタンスよりも後である時間のインスタンスにおいて生成されてもよい。一部の例において、テスト分布は、確率分布であってもよい。テストデータ120のテスト分布は、トレーニングデータ118のトレーニング分布とは異なっていてもよい。一部の例において、関数116へのテストデータ120の入力に先立ってテストデータ120のテスト分布に関する一部の情報が、知られていてもよい。たとえば、人口調査データのような公的に利用可能な情報は、トレーニングデータとテストデータとの間の収入または評判の変化を識別するためにアクセスされてもよい。例において、処理モジュール104は、テストデータ120のテスト分布に関する情報を識別するように構成されてもよい。一部の例において、テスト分布に関する情報は、テスト分布の平均および/または標準偏差のような統計を含むことができる。一部の他の例において、テスト分布に関する情報は、テスト分布の投影の推定を含むことができる。たとえば、コーディネイトに沿った点131のヒストグラムは、コーディネイトに沿ったテスト分布の投影の推定をもたらすことができる。テストデータ120および/またはテストデータ120に関する情報は、メモリ106に格納されてもよい。重み生成モジュール108は、トレーニングデータ118の各点130について重み112を決定および/または計算することに有効であってもよい。重み112は、トレーニングデータ118の点130が、重み112の適用後に、ある適合度においてテストデータ120の確率分布と類似、一致、および/または適合する確率分布に従うことができるように、トレーニングデータ118の点130に適用されてもよい。重み重要度パラメータ140は、重みが、トレーニングデータ118の点130を、テストデータ120の点と一致および/または適合させるために使用され得る度合いを制御するように調整されてもよい。重み重要度パラメータ140は、コンピューティングデバイス102のユーザによって、または機械学習モジュール110によって調整されてもよい。一部の例において、処理モジュール104は、重み重要度パラメータ140を識別するように構成されてもよい。
機械学習モジュール110は、重み生成モジュール108から重み112を受信することができる。機械学習アルゴリズム114は、重み112および/またはトレーニングデータ118を使用して、重み付き関数132を生成する。重み付き関数132は、重み付き関数132への入力122cの適用に基づいて、(たとえば、決定、分類、予測、および/または推奨のような)出力またはラベル124cを決定および/または生成することに有効であってもよい。一部の例において、たとえ関数116および重み付き関数132に同じ入力値が適用された場合であっても、重み付き関数132によって生成された一部のラベルは、関数116によって生成されたラベルと異なっていてもよい。
図2は、機械学習における重み生成に関連する追加の詳細と共に、本明細書において説明される少なくとも一部の実施形態に従って配置される図1の例示のシステム100を示す。図2は、図1のシステム100と実質的に類似しており、追加の詳細を伴う。図1のコンポーネントと同様にラベル付けされている図2のコンポーネントは、明確および簡潔を期すために再度説明されることはない。
一部の例において、後段においてさらに詳細に説明されるように、重み生成モジュール108は、メモリ106から、または別のソースから、トレーニングデータ118およびテストデータ120を受信することができる。重み生成モジュール108は、トレーニングデータ118のトレーニング分布を識別することができる。重み生成モジュール108は、テストデータ120のテスト分布に関する情報を識別することができる。重み生成モジュール108は、トレーニング分布およびテスト分布によって共有される1つまたは複数のコーディネイト210(たとえば、210...210を含む)を識別および/または選択することができる。コーディネイト210は、たとえば、点130の1つまたは複数のパラメータまたは次元を含むことができる。コーディネイト210の各々は、コーディネイト空間における値の範囲を含むことができる。コーディネイト空間は、たとえば、特定のコーディネイト210に対するユークリッドまたはその他の幾何学空間であってもよい。たとえば、機械学習モジュール110がクレジットスコアの生成に関連する場合、コーディネイト210は収入、債務などに関連し得る。重み生成モジュール108は、各コーディネイト空間の値の範囲を1つまたは複数のビンに分割することができる。それぞれのビンは、各コーディネイトの値の範囲のサブセットを定義することができる。たとえば、重み生成モジュール108は、各々の識別済みおよび/または選択済みのコーディネイト210を(たとえば、「Bin1」、「Bin2」、「Bin3」などのような)1つまたは複数のビンに分割することができる。
後段における詳細な説明をさらに要約すると、重み生成モジュール108は、各々の識別済みのコーディネイト210に沿った点130のそれぞれの値を決定することができる。重み生成モジュール108は、それぞれのコーディネイト210について、それぞれのビン内に位置する点130、131の数の度数を決定することができる。度数は、たとえば、特定のコーディネイト210について、点130の総数と相対的な、特定のビン内に位置する点130の割合であってもよい。重み112は、各コーディネイトについて、各ビン内に位置する点130の度数に基づいて、テストデータ120の点に関する情報に基づいて、および重み重要度パラメータ140に基づいて、トレーニングデータ118の各点130に対して計算されてもよい。例において、重み重要度パラメータ140は、重み112が、トレーニングデータ118の点130を、テストデータ120の点と一致および/または適合させることに有効となり得る度合いを制御するように調整されてもよい。機械学習モジュール110は、重み112、重み重要度パラメータ140、および/またはトレーニングデータ118に基づいて、重み付き関数132を生成することができる。
トレーニングデータ118の入力122aは、1つまたは複数のパラメータを含むベクトルであってもよい。機械学習アルゴリズム114がユーザに映画を推薦するために設計される場合の例において、入力122aの一部の例のパラメータは、ユーザの年齢、年収、ユーザによって評価された複数の映画、ユーザの居住する場所などを含むことができる。重み生成モジュール108は、パラメータの1つまたは複数をコーディネイト210(たとえば、コーディネイト210、210、...、210を含む)として選択することができる。重み生成モジュール108は、コーディネイトごとに、各点130を検査することによって点130を評価することに有効であってもよい。各コーディネイト210は、(「Bin1」、「Bin2」、「Bin3」などのような)多数のビンに分割されてもよい。選択済みのコーディネイト210が年収である場合の例において、Bin1は$0〜$25,000の範囲、Bin2は$25,000〜$50,000の範囲、Bin3は$50,0000〜$75,000の範囲などであってもよい。各点130は、年収に関連するパラメータを含むことができる。各点130の位置は、年収コーディネイト210に沿って決定されてもよい。たとえば、第1の点130は、$42,000の年収パラメータ値を含むことができる。したがって、第1の点130は、Bin2に位置してもよい。各ビン内に位置する点130の数は、重み生成モジュール108によって決定されてもよく、各ビンの度数を生成するために点130の総数によって除算されてもよい。後段においてさらに詳細に説明されるように、重み112は、重み重要度パラメータ140に基づいて決定および/または計算されてもよい。一部の他の例において、重み112の決定および/または計算は、テスト分布について計算された度数と、トレーニング分布について計算された度数との差にさらに基づいてもよい。
重み生成モジュール108は、式(1)を使用して重み112を生成することができる。
Figure 0006212217

ここで、ωは、点130のうちの特定の点iの重み112であってもよい。μは、(たとえば、「Bin1」、「Bin2」、「Bin3」および/または「Bin4」などのような)特定のビン内の、テストデータ120の点131の度数と、特定のコーディネイトcに対する重み重要度パラメータ140を伴う係数で乗算された、特定のビン内の、トレーニングデータ118の点130の重み付き度数との差を定量化することができる。一部の例において、μは、(コーディネイト210の)各コーディネイトcについて計算されてもよい。Cは、コーディネイト210の総数を表すことができる。θは、どのビンに、点130の、特定の点iが収まるかを決定することができる関数である。λは、重み重要度パラメータ140を表すことができる。λは、重み112が、トレーニング分布をテスト分布と一致および/または適合させることに有効となり得る度合いを制御するように調整されてもよい。
重み生成モジュール108は、式(2)を使用してμの値を決定することができる。
Figure 0006212217

ここで、nは、コーディネイト210のうちの、特定のコーディネイトCの、各ビン内の、トレーニングデータ118の点の数を表し得る現行カウント値を保持することができるベクトルであってもよい。Nは、トレーニングデータ118内の点130の数を表すことができる。νは、点130の総数と相対的な、コーディネイト210のうちの特定のコーディネイトCに対して、(たとえば、「Bin1」、「Bin2」、「Bin3」および/または「Bin4」などのような)特定のビンに出現するテストデータ120内の点の度数を表すことができる。λは、重み重要度パラメータ140を表すことができる。重み生成モジュール108は、式(1)でμの値を使用して、重み112を決定および/または計算することができる。
反復プロセスは、μを決定するために重み生成モジュール108によって使用されてもよい。一部の例において、すべてのμは、ゼロまたは一部の他の値に初期化されてもよい。第1の比較値μ(t)は、式(2)を使用して各コーディネイトの各ビンについて識別されてもよい。μ(t)の計算値は、式(2)に繰り返し代入されて、さまざまな値を生成することができる。μ(t)の値は、μ(t)の収束値に到達するまで、繰り返し更新されてもよい。μ(t)の収束値は、式(1)に使用され、トレーニングデータ118の各点130について重み112を生成することができる。一部の例において、式(2)を繰り返す間に使用されたμ(t)の値は、式(3)により以前の反復に使用された値の差の割合に基づいてもよい。
μ’new=α*μnew+(1−α)*μold (3)
ただし、α=0.1またはα=0.01
ここで、μoldは、μnewを計算するために式(2)の以前の反復中に使用されたμの値であってもよい。式(3)は、μnewおよびμoldを使用してμ’newを計算することができ、その値は式(2)の後続の反復に使用されてもよい。αは、式(2)を繰り返す間に、μの新しい値(たとえば、μ’new)がμの以前の値(たとえば、μold)に依存する度合いを制御するために使用されてもよい。
潜在的な利点の中でも特に、本開示により配置された機械学習における重み生成は、テストおよびトレーニング分布の簡略化マッチングが、機械学習システムの予測能力を高めることができるようにする。重み重要度パラメータは、重みが、トレーニング分布をテスト分布に適合させる上で役立つ度合いに影響を及ぼし得る。加えて、重み重要度パラメータは、分布をマッチングすることの利点と、トレーニング分布とテスト分布をマッチングする際に生じ得るサンプル損失の不利点との間に純プラス利得があるように調整されてもよい。さらに、コーディネイトごとにビンの数を選択することによって、本開示による機械学習における重み生成は、有限サンプルサイズの影響から生じるトレーニングデータセットとテストデータセットとの差を明らかにすることができる。見解、傾向、流行などが変化した結果として経時的に生じ得る変化は、トレーニングデータとテストデータとの間で識別されてもよい。一部の例において、そのような変化を考慮に入れることで、より優れた予測能力を備える機械学習システムをもたらすことができる。推奨システム、または株式市場のような時系列の予測は、説明されているシステムの利益を享受することができる。さまざまな重み重要度パラメータが、さまざまなコーディネイトについて識別されてもよい。たとえば、コーディネイト「給与」の重み重要度パラメータは、分布がコーディネイト「年齢」の重み重要度パラメータよりも適合するように重みを割り当てられてもよい。
図3は、本明細書において説明される少なくとも一部の実施形態に従って配置される、機械学習において重み生成を実施するための例示のプロセスを示す流れ図である。一部の例において、図3のプロセスは、上記で説明されるシステム100を使用して実施されてもよく、機械学習の重みを生成するために使用されてもよい。例示のプロセスは、ブロックS2、S4、S6、S8、S10、および/またはS12などの1つまたは複数によって示される1つまたは複数の操作、アクション、または機能を含むことができる。別個のブロックとして示されているが、さまざまなブロックは、特定の実施態様に応じて、追加のブロックに分割されてもよいか、より少ないブロックに結合されてもよいか、または除去されてもよい。ブロックは、その他の操作、アクション、または機能を表す追加のブロックで補足されてもよい。図3のプロセスは、処理モジュール104のようなプロセッサによって、または上記で説明される機械学習モジュール110のような機械学習モジュールによって使用されてもよい。
処理は、ブロックS2「プロセッサにより、トレーニングデータのトレーニング分布を識別する」において開始することができる。ブロックS2において、プロセッサは、トレーニングデータのトレーニング分布を識別することができる。
処理は、ブロックS2から、ブロックS4「プロセッサにより、テストデータのテスト分布に関する情報を識別する」へと続行することができる。ブロックS4において、プロセッサは、テストデータのテスト分布に関する情報を識別することができる。例において、トレーニングデータは第1の時間のインスタンスにおいて生成されてもよく、テストデータは第2の時間のインスタンスにおいて生成されてもよい。第2の時間のインスタンスは、第1の時間のインスタンスよりも後であってもよい。
処理は、ブロックS4から、ブロックS6「プロセッサにより、トレーニングデータとテストデータのコーディネイトを識別する」へと続行することができる。ブロックS6において、プロセッサは、トレーニングデータとテストデータのコーディネイトを識別することができる。一部の例において、コーディネイト空間における値の範囲は、複数のビンに分割されてもよい。たとえば、コーディネイト210は、図2に示されるように「Bin1」、「Bin2」、「Bin3」などのような、1つまたは複数のビンに分割されてもよい。
処理は、ブロックS6から、ブロックS8「プロセッサにより、コーディネイトについて、テスト分布とトレーニング分布との差を決定する」へと続行することができる。ブロックS8において、テスト分布とトレーニング分布の差は、識別されてもよい。差は、繰り返し決定されてもよく、重みは、トレーニングデータとテストデータとの差の収束値に基づいて計算されてもよい。たとえば、テスト分布とトレーニング分布との差は、上記で説明されるように、式(2)を使用して繰り返し決定されてもよい。
処理は、ブロックS8から、ブロックS10「プロセッサにより、コーディネイトについて重み重要度パラメータを識別する」へと続行することができる。ブロックS10において、重み重要度パラメータ140のような重み重要度パラメータは、識別されてもよい。
処理は、ブロックS10から、ブロックS12「プロセッサにより、差に基づいて、および重み重要度パラメータに基づいて重みを計算し、重みは、トレーニング分布を適合度においてテスト分布と適合させるように構成されてもよく、適合度は、重み重要度パラメータに基づいてもよい」へと続行することができる。ブロックS12において、重みが計算されてもよい。例において、重みは、上記で説明される式(1)を使用して計算されてもよい。重みは、差に基づいて、および重み重要度パラメータに基づいて計算されてもよい。重みは、トレーニング分布を、ある適合度においてテスト分布と適合させるように構成されてもよい。ある適合度は、重み重要度パラメータに基づいてもよい。一部の例において、重みを計算すること、およびある適合度を決定することは、第2の重み重要度パラメータにさらに基づいてもよい。関数は、トレーニングデータおよび重みに基づいて生成されてもよい。たとえば、重み付き関数は、トレーニングデータおよび重みに基づいて、機械学習モジュールによって生成されてもよい。テストデータは、関数に入力として適用されてもよい。たとえば、テストデータは、重み付き関数に入力として適用されてもよい。関数へのテストデータの適用に応答して、ラベルが生成されてもよい。一部の例において、重み付き関数への入力の適用に応答して、出力またはラベルが生成されてもよい。さまざまな例において、ラベルは、推奨、分類、予測、および/または決定のうちの少なくとも1つを含むことができる。
図4は、本明細書において説明される少なくとも一部の実施形態に従って配置される、機械学習において重み生成を実施するために使用され得る例示のコンピュータプログラム製品400を示す図である。プログラム製品400は、信号担持媒体402を含むことができる。信号担持媒体402は、たとえば、プロセッサによる実行に応答して、図1〜図3に関して上記で説明される機能および特徴を提供することができる1つまたは複数の命令404を含むことができる。したがって、たとえば、システム100を参照すると、処理モジュール104および/または機械学習モジュール110は、媒体402によってシステム100に搬送される命令404に応答して、図4に示されるブロックの1つまたは複数を実行することができる。一部の例において、命令404は、メモリ106のようなメモリに格納されてもよい。
一部の実施態様において、信号担持媒体402は、ハードディスクドライブ、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、デジタルテープ、メモリなどのようなコンピュータ可読媒体406を含むことができるが、これらに限定されることはない。一部の実施態様において、信号担持媒体402は、メモリ、読取り/書込み(R/W)CD、R/W DVDなどのような記録可能媒体408を含むことができるが、これらに限定されることはない。一部の実施態様において、信号担持媒体402は、デジタルおよび/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)のような通信媒体410を含むことができるが、これらに限定されることはない。したがって、たとえば、プログラム製品400は、RF信号担持媒体402によってシステム100の1つまたは複数のモジュールに搬送されてもよく、信号担持媒体402は、無線通信媒体410(たとえば、IEEE802.11規格に準拠する無線通信媒体)によって搬送される。
図5は、機械学習において重み生成を実施するために配置され、本明細書において説明される少なくとも一部の実施形態に従って配置される、例示のコンピューティングデバイス500を示すブロック図である。極めて基本的な構成502において、コンピューティングデバイス500は一般に、1つまたは複数の(たとえば、処理モジュール104のような)プロセッサ504、および(たとえば、メモリ106のような)システムメモリ506を含む。メモリバス508は、プロセッサ504とシステムメモリ506との間で通信するために使用されてもよい。
望ましい構成に応じて、プロセッサ504は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタルシグナルプロセッサ(DSP)、またはそれらの任意の組み合わせを含む任意のタイプであってもよいが、これらに限定されることはない。プロセッサ504は、レベル1キャッシュ510およびレベル2キャッシュ512のような、1つまたは複数のレベルのキャッシング、プロセッサコア514、およびレジスタ516を含むことができる。例示のプロセッサコア514は、演算論理装置(ALU:arithmetic logic unit)、浮動小数点演算ユニット(FPU:floating point unit)、デジタル信号処理コア(DSP Core:digital signal processing core)、またはそれらの任意の組み合わせを含むことができる。例示のメモリコントローラ518はまた、プロセッサ504と共に使用されてもよいか、または一部の実施態様において、メモリコントローラ518はプロセッサ504の内部部品であってもよい。
望ましい構成に応じて、システムメモリ506は、(RAMのような)揮発性メモリ、(ROM、フラッシュメモリなどのような)不揮発性メモリ、またはそれらの任意の組み合わせを含む任意のタイプであってもよいが、これらに限定されることはない。システムメモリ506は、オペレーティングシステム520、1つまたは複数のアプリケーション522、およびプログラムデータ524を含むことができる。アプリケーション522は、システム100に関連して図1〜図4について説明されている機能および操作を含む本明細書において説明される機能および操作を実行するように配置される、機械学習における重みの生成アルゴリズム526を含むことができる。プログラムデータ524は、本明細書において説明される機械学習における重みの生成を実施するために有用となり得る機械学習における重みの生成データ528を含むことができる。一部の実施形態において、アプリケーション522は、機械学習において重み生成が提供され得るように、プログラムデータ524および/またはオペレーティングシステム524と連携して動作するように配置されてもよい。この説明される基本構成502は、破線内のコンポーネントにより図5に示される。
コンピューティングデバイス500は、追加の特徴または機能、および追加のインターフェースを有して、基本構成502と、任意の必要なデバイスおよびインターフェース間の通信を容易にすることができる。たとえば、バス/インターフェースコントローラ530は、ストレージインターフェースバス524を介して基本構成502と1つまたは複数のデータストレージデバイス532との間の通信を容易にするために使用されてもよい。データストレージデバイス532は、取外し式ストレージデバイス536、非取外し式ストレージデバイス538、またはそれらの組み合わせであってもよい。取外し式ストレージデバイスおよび非取外し式ストレージデバイスの例は、ほんの一部をあげると、フレキシブルディスクドライブおよびハードディスクドライブ(HDD)のような磁気ディスクデバイス、コンパクトディスク(CD)ドライブまたはデジタル多用途ディスク(DVD)ドライブのような光ディスクドライブ、ソリッドステートドライブ(SSD)、およびテープドライブを含む。例示のコンピュータストレージ媒体は、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータのような情報の格納のための任意の方法または技術で実施された揮発性および不揮発性の、取外し式および非取外し式媒体を含むことができる。
システムメモリ506、取外し式ストレージデバイス536、および非取外し式ストレージデバイス538は、コンピュータストレージ媒体の例である。コンピュータストレージ媒体は、RAM、ROM、EEPROM、フラッシュメモリまたはその他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)またはその他の光ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたはその他の磁気ストレージデバイス、もしくは望ましい情報を格納するために使用され得る、コンピューティングデバイス500によってアクセスされ得る任意の他の媒体を含むが、これらに限定されることはない。任意のそのようなコンピュータストレージ媒体は、コンピューティングデバイス500の一部であってもよい。
コンピューティングデバイス500はまた、さまざまなインターフェースデバイス(たとえば、出力デバイス542、周辺インターフェース544、および通信デバイス546)から基本構成502へのバス/インターフェースコントローラ530を介する通信を容易にするためのインターフェースバス540を含むこともできる。例示の出力デバイス542は、グラフィックス処理ユニット548およびオーディオ処理ユニット550を含み、これらは1つまたは複数のA/Vポート552を介してディスプレイまたはスピーカのようなさまざまな外部デバイスと通信するように構成されてもよい。例示の周辺インターフェース544は、シリアルインターフェースコントローラ554またはパラレルインターフェースコントローラ556を含み、これらは1つまたは複数の入出力ポート558を介して入力デバイス(たとえば、キーボード、マウス、ペン、音声入力デバイス、タッチ入力デバイスなど)またはその他の周辺デバイス(たとえば、プリンタ、スキャナなど)のような外部デバイスと通信するように構成されてもよい。例示の通信デバイス546はネットワークコントローラ560を含み、これは1つまたは複数の通信ポート564を介するネットワーク通信リンク上の1つまたは複数のその他のコンピューティングデバイス564との通信を容易にするために配置されてもよい。
ネットワーク通信リンクは、通信媒体の一例であってもよい。通信媒体は通常、搬送波または他のトランスポート機構のような、変調データ信号のコンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータによって具現されてもよく、任意の情報配信媒体を含むことができる。「変調データ信号」は、信号の特性セットの1つまたは複数を有する信号、または信号の情報をエンコードするような方法で変更された信号であってもよい。限定的ではなく、一例として、通信媒体は、有線ネットワークまたは直接有線接続のような有線媒体、ならびに音響、無線周波数(RF)、マイクロ波、赤外線(IR)および他の無線媒体のような無線媒体を含むことができるが、これらに限定されることはない。本明細書において使用されているコンピュータ可読媒体という用語は、ストレージ媒体および通信媒体の両方を含むことができる。
コンピューティングデバイス500は、携帯電話、携帯情報端末(PDA)のようなスモールフォームファクターのポータブル(またはモバイル)電子デバイス、パーソナルメディアプレイヤーデバイス、無線Web視聴デバイス、パーソナルハンドセットデバイス、アプリケーション固有デバイス、または上記の機能のいずれかを含む混合デバイスの一部として実施されてもよい。コンピューティングデバイス500はまた、ラップトップコンピュータおよびラップトップコンピュータ以外の構成を含むパーソナルコンピュータとして実施されてもよい。
本開示は、本出願において説明される特定の実施形態に関して限定されるべきではなく、実施形態はさまざまな態様を例示することを目的としている。その精神および範囲を逸脱することなく多くの変更および変形が行われてもよい。本開示の範囲内の機能的に等価の方法および装置は、本明細書において列挙される方法および装置に加えて、上記の説明から明らかとなるであろう。そのような変更および変形は、添付の特許請求の範囲内に含まれることが意図される。本開示は、添付の特許請求の範囲の条項、ならびにそのような特許請求の範囲が権利を有する等価物の全範囲によってのみ限定されるものとする。本開示が、当然変化し得るものである特定の方法、試薬、化合物組成、または生態系に限定されないことを理解されたい。また、本明細書において使用される用語が、特定の実施形態を説明することのみを目的としており、限定的であることは意図されていないことも理解されたい。
本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。さまざまな単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。
通常、本明細書において、特に添付の特許請求の範囲(たとえば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されている(たとえば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しない。たとえば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(たとえば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(たとえば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。たとえば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。
書面による説明を行うことに関してなど、任意およびすべての目的のため、本明細書において開示されるあらゆる範囲はまた、任意およびすべての可能な下位範囲およびその下位範囲の組み合わせを網羅する。任意の一覧される範囲は、同範囲が少なくとも等価の2分の1、3分の1、4分の1、5分の1、10分の1などに分割されることを十分に説明および可能にするものと容易に理解されてもよい。非限定的な例として、本明細書において説明される各範囲は、下3分の1、中3分の1、および上3分の1などに容易に分解されてもよい。さらに当業者によって理解されるであろうように、「最大(up to)」、「少なくとも(at least)」、「よりも大きい(greater than)」、「よりも小さい(less than)」などのようなすべての表現は、列挙される数を含み、上記で説明されている下位範囲に引き続き分解されてもよい範囲を示す。最終的に、範囲は、各々個別の構成要素を含む。したがって、たとえば、1〜3のセルを有するグループは、1、2、または3のセルを有するグループを示す。同様に、1〜5のセルを有するグループは、1、2、3、4、または5のセルを有するグループを示し、以下同様である。
本明細書においてさまざまな態様および実施形態が開示されたが、その他の態様および実施形態が可能である。本明細書において開示されるさまざまな態様および実施形態は、説明のためのものであって、限定的であることを意図しておらず、真の範囲および精神は後段の特許請求の範囲により示される。

Claims (20)

  1. 機械学習環境において重みを決定するための方法であって、
    プロセッサにより、トレーニングデータのトレーニング分布を識別することと、
    前記プロセッサにより、テストデータのテスト分布に関する情報を識別することと、
    前記プロセッサにより、前記トレーニングデータと前記テストデータのコーディネイトを識別することと、
    前記プロセッサにより、前記コーディネイトについて、前記テスト分布と前記トレーニング分布との差を決定することと、
    前記プロセッサにより、前記コーディネイトの重み重要度パラメータを識別することと、
    前記プロセッサにより、前記差に基づいて、および前記重み重要度パラメータに基づいて重みを計算することと、を備える方法であって、
    前記重みは、前記トレーニング分布を前記テスト分布に適合させるように構成され、前記重み重要度パラメータは、前記トレーニング分布を前記テスト分布に適合させる度合いを制御するためのパラメータである、
    方法。
  2. 前記コーディネイトは第1のコーディネイトを含み、前記重み重要度パラメータは第1の重み重要度パラメータを含み
    前記プロセッサにより、前記トレーニングデータと前記テストデータの第2のコーディネイトを識別することと、
    前記プロセッサにより、前記第2のコーディネイトについて、前記テスト分布と前記トレーニング分布との差を決定することと、
    前記プロセッサにより、前記第2のコーディネイトの第2の重み重要度パラメータを識別することであって、前記第2の重み重要度パラメータは、前記第1の重み重要度パラメータとは異なることとをさらに備え、
    前記重みを計算することは、前記第2の重み重要度パラメータにさらに基づく、請求項1に記載の方法。
  3. 前記トレーニングデータおよび前記重みに基づいて関数を生成することと、
    前記テストデータを前記関数に入力として適用することと、
    前記関数への前記テストデータの前記適用に応答して、ラベルを生成することとをさらに備える、請求項1に記載の方法。
  4. 前記ラベルは、推奨、分類、予測、および決定のうちの少なくとも1つを含む、請求項3に記載の方法。
  5. 前記トレーニングデータは、第1の時間のインスタンスにおいて生成され、
    前記テストデータは、第2の時間のインスタンスにおいて生成され、前記第2の時間のインスタンスは、前記第1の時間のインスタンスよりも後である、請求項1に記載の方法。
  6. 前記重みを計算することは、
    前記トレーニングデータと前記テストデータとの差を繰り返し決定することであって、前記重みは、前記トレーニングデータと前記テストデータとの前記差の収束値に基づいて計算されることを備える、請求項1に記載の方法。
  7. 前記トレーニングデータは複数の点を含み、前記コーディネイトはコーディネイト空間内の値の範囲を含み、
    前記方法は、前記コーディネイト空間内の値の前記範囲を複数のビンに分割することをさらに備え、
    前記重みを計算することは、前記トレーニングデータ内の点の数および前記複数のビンの数にさらに基づく、請求項1に記載の方法。
  8. 前記テストデータおよび前記トレーニングデータは、それぞれ第1および第2の点を含み、前記コーディネイトはコーディネイト空間内の値の範囲を含み、
    前記方法は、前記コーディネイト空間内の値の前記範囲を複数のビンに分割することをさらに備え、
    前記重みを計算することは、前記複数のビン内に位置する前記第1および第2の点の数にさらに基づく、請求項1に記載の方法。
  9. 機械学習環境において重みを決定するための方法であって、
    プロセッサにより、トレーニングデータのトレーニング分布を識別することと、
    前記プロセッサにより、テストデータのテスト分布に関する情報を識別することと、
    前記プロセッサにより、前記トレーニングデータと前記テストデータのコーディネイトを識別することと、
    前記プロセッサにより、前記コーディネイトについて、前記テスト分布と前記トレーニング分布との差を決定することと、
    前記プロセッサにより、前記コーディネイトの第1の重み重要度パラメータを識別することと、
    前記プロセッサにより、前記差に基づいて、および前記第1の重み重要度パラメータに基づいて第1の重みを計算することであって、前記第1の重みは、前記トレーニング分布を前記テスト分布と適合させるように構成され、前記第1の重み重要度パラメータは、前記トレーニング分布を前記テスト分布に適合させる度合いを制御するためのパラメータである、第1の重みを計算することと、
    前記プロセッサにより、前記コーディネイトの第2の重み重要度パラメータを識別することと、
    前記プロセッサにより、前記差に基づいて、および前記第2の重み重要度パラメータに基づいて第2の重みを計算することであって、前記第2の重みは、前記トレーニング分布を前記テスト分布と適合させるように構成され、前記第2の重み重要度パラメータは、前記トレーニング分布を前記テスト分布に適合させる度合いを制御するためのパラメータであり、前記第2の重み重要度パラメータは、前記第1の重み重要度パラメータとは異なる値を有する、第2の重みを計算することとを備える方法。
  10. 前記コーディネイトは第1のコーディネイトを含み
    前記方法は、前記トレーニングデータと前記テストデータの第2のコーディネイトを識別することと、
    前記プロセッサにより、前記第2のコーディネイトの第3の重み重要度パラメータを識別することであって、前記第3の重み重要度パラメータは、前記第1および第2の重み重要度パラメータとは異なることとをさらに備え、
    前記トレーニングデータの前記第1の重みおよび前記第2の重みを計算することは、前記第3の重み重要度パラメータに、少なくとも部分的に、さらに基づく、請求項9に記載の方法。
  11. 前記トレーニングデータおよび前記重みに基づいて関数を生成することと、
    前記テストデータを前記関数に入力として適用することと、
    前記関数への前記テストデータの前記適用に応答して、ラベルを生成することとをさらに備える、請求項9に記載の方法。
  12. 前記ラベルは、推奨、分類、予測、および決定のうちの少なくとも1つを含む、請求項11に記載の方法。
  13. 前記トレーニングデータは、第1の時間のインスタンスにおいて生成され、
    前記テストデータは、第2の時間のインスタンスにおいて生成され、前記第2の時間のインスタンスは、前記第1の時間のインスタンスよりも後である、請求項9に記載の方法。
  14. 前記重みを計算することは、
    前記トレーニングデータと前記テストデータとの差を繰り返し決定することであって、前記重みは、前記トレーニングデータと前記テストデータとの前記差の収束値に基づいて計算されることを備える、請求項9に記載の方法。
  15. 前記トレーニングデータは複数の点を含み、前記コーディネイトはコーディネイト空間内の値の範囲を含み、
    前記方法は、前記コーディネイト空間内の値の前記範囲を複数のビンに分割することをさらに備え、
    前記重みを計算することは、前記トレーニングデータ内の点の数および前記複数のビンの数にさらに基づく、請求項9に記載の方法。
  16. プロセッサと、
    前記プロセッサと通信するように構成されたメモリであって、
    第1の点を備えるトレーニングデータと、
    第2の点を備えるテストデータとを含むメモリとを備え、
    前記プロセッサは、
    前記第1および第2の点のコーディネイトを識別することであって、前記コーディネイトはコーディネイト空間内の値の範囲を含むことと、
    前記コーディネイト空間内の値の前記範囲を複数のビンに分割することであって、それぞれのビンは値の前記範囲のサブセットを定義することと、
    第1の度数を決定することであって、前記第1の度数は、特定のビン内に位置する前記第1の点の第1の割合に関連することと、
    第2の度数を決定することであって、前記第2の度数は、前記特定のビン内に位置する前記第2の点の第2の割合に関連することと、
    前記コーディネイトの重み重要度パラメータを識別することと、
    前記第1の度数および前記第2の度数を比較することと、
    前記第1および第2の度数の前記比較に少なくとも部分的に基づいて、および前記重み重要度パラメータに基づいて前記トレーニングデータの重みを計算することと、を行うのに有効であり、
    前記重みは、前記トレーニングデータを前記テストデータと適合させるように構成され、前記重み重要度パラメータは、前記トレーニングデータを前記テストデータに適合させる度合いを制御するためのパラメータであり、
    前記メモリは、前記重みを格納するのに有効である、機械学習システム。
  17. 前記第1の点はトレーニング分布に従い、
    前記第2の点はテスト分布に従い、
    前記重みは、前記トレーニング分布内の特定の点を前記テスト分布内の特定の点と適合させるのに有効である、請求項16に記載の機械学習システム。
  18. 前記度数を比較するために、前記プロセッサは、
    第1の比較値を識別することと、
    差の値を生成するために、それぞれのビンおよびコーディネイト内の前記テストデータおよび前記トレーニングデータの度数値を比較することと、
    前記差の値に基づいて、第2の比較値を生成するように前記第1の比較値を更新することと、
    前記第2の比較値が収束するまで、前記第1の比較値の前記識別と、前記差の値を生成するためのそれぞれのビンおよびコーディネイト内の前記テストデータおよび前記トレーニングデータの度数値の前記比較と、前記差の値に基づいて前記第2の比較値を生成するための前記第1の比較値の前記更新とを反復的に繰り返すことと、
    前記第2の比較値の収束値を前記メモリに格納することとを行うのにさらに有効である、請求項16に記載の機械学習システム。
  19. 機械学習モジュールをさらに備え、前記プロセッサは、
    前記重みおよび前記トレーニングデータを前記機械学習モジュールに送信することを行うのにさらに有効であり、
    それに応答して、前記機械学習モジュールは、
    前記重みおよび前記トレーニングデータを前記プロセッサから受信することと、
    前記重みおよび前記トレーニングデータに少なくとも部分的に基づいて関数を生成することと、
    前記関数を前記メモリに格納することとを行うのに有効である、請求項16に記載の機械学習システム。
  20. 前記プロセッサは、前記複数のビン内に位置する前記第1および第2の点の数に基づいて前記重みを計算することを行うのに有効である、請求項16に記載の機械学習システム。
JP2016532125A 2013-11-22 2014-11-21 機械学習における重みの生成 Active JP6212217B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361907491P 2013-11-22 2013-11-22
US61/907,491 2013-11-22
US201462015176P 2014-06-20 2014-06-20
US62/015,176 2014-06-20
US14/451,870 2014-08-05
US14/451,870 US9953271B2 (en) 2013-11-22 2014-08-05 Generation of weights in machine learning
PCT/US2014/066808 WO2015077557A1 (en) 2013-11-22 2014-11-21 Generation of weights in machine learning

Publications (2)

Publication Number Publication Date
JP2017500639A JP2017500639A (ja) 2017-01-05
JP6212217B2 true JP6212217B2 (ja) 2017-10-11

Family

ID=53180180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016532125A Active JP6212217B2 (ja) 2013-11-22 2014-11-21 機械学習における重みの生成

Country Status (5)

Country Link
US (1) US9953271B2 (ja)
EP (1) EP3072069A4 (ja)
JP (1) JP6212217B2 (ja)
KR (1) KR101868829B1 (ja)
WO (1) WO2015077557A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10558935B2 (en) * 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US9858534B2 (en) 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
US10291485B2 (en) * 2015-10-19 2019-05-14 Nec Corporation System and method for fault-tolerant parallel learning over non-iid data
CN107153630B (zh) 2016-03-04 2020-11-06 阿里巴巴集团控股有限公司 一种机器学习系统的训练方法和训练系统
US11164043B2 (en) * 2016-04-28 2021-11-02 Nippon Telegraph And Telephone Corporation Creating device, creating program, and creating method
KR101926837B1 (ko) 2017-02-20 2018-12-07 아주대학교산학협력단 데이터 빈도수 기반의 단일 클래스 모델 생성 방법 및 장치
US20210256615A1 (en) * 2017-09-27 2021-08-19 State Farm Mutual Automobile Insurance Company Implementing Machine Learning For Life And Health Insurance Loss Mitigation And Claims Handling
KR102016812B1 (ko) * 2017-11-24 2019-10-21 한국생산기술연구원 데이터 불균형 환경에서 머신러닝 모델을 통해 공정 불량 원인을 도출하고 시각화하는 방법
KR102327062B1 (ko) * 2018-03-20 2021-11-17 딜로이트컨설팅유한회사 임상시험 결과 예측 장치 및 방법
US11887003B1 (en) * 2018-05-04 2024-01-30 Sunil Keshav Bopardikar Identifying contributing training datasets for outputs of machine learning models
KR102321039B1 (ko) * 2019-07-23 2021-11-04 주식회사 카이 머신러닝 기반의 비디오 분류 장치, 방법 및 컴퓨터 프로그램
KR20220031966A (ko) * 2020-09-06 2022-03-15 조강훈 외식 프랜차이즈 커뮤니케이션 시스템
KR20230131821A (ko) * 2021-01-14 2023-09-14 엘지전자 주식회사 모델 스플릿 기반 추론 방법 및 상기 방법을 이용하는 장치

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2167748A1 (en) 1995-02-09 1996-08-10 Yoav Freund Apparatus and methods for machine learning hypotheses
US6119083A (en) 1996-02-29 2000-09-12 British Telecommunications Public Limited Company Training process for the classification of a perceptual signal
US6373483B1 (en) * 1997-01-13 2002-04-16 Silicon Graphics, Inc. Method, system and computer program product for visually approximating scattered data using color to represent values of a categorical variable
US6594586B1 (en) 1997-10-28 2003-07-15 California Institute Of Technology Incorporation of contextual information in object identification
US7318051B2 (en) 2001-05-18 2008-01-08 Health Discovery Corporation Methods for feature selection in a learning machine
WO1999057622A2 (en) 1998-05-01 1999-11-11 Barnhill Technologies, Llc Pre-processing and post-processing for enhancing knowledge discovery using support vector machines
US6789069B1 (en) 1998-05-01 2004-09-07 Biowulf Technologies Llc Method for enhancing knowledge discovered from biological data using a learning machine
US6850873B1 (en) 1999-09-29 2005-02-01 Eric T Bax Using validation by inference to select a hypothesis function
US7970718B2 (en) * 2001-05-18 2011-06-28 Health Discovery Corporation Method for feature selection and for evaluating features identified as significant for classifying data
US6701311B2 (en) 2001-02-07 2004-03-02 International Business Machines Corporation Customer self service system for resource search and selection
EP1449108A4 (en) 2001-11-07 2006-11-22 Health Discovery Corp CLASSIFICATION OF CHARACTERISTICS PRETRATED FOR A SUPPORT VECTOR MACHINE
US6876955B1 (en) 2001-12-28 2005-04-05 Fannie Mae Method and apparatus for predicting and reporting a real estate value based on a weighted average of predicted values
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2005107743A (ja) 2003-09-29 2005-04-21 Nec Corp 学習システム
US7356187B2 (en) 2004-04-12 2008-04-08 Clairvoyance Corporation Method and apparatus for adjusting the model threshold of a support vector machine for text classification and filtering
US7426497B2 (en) 2004-08-31 2008-09-16 Microsoft Corporation Method and apparatus for analysis and decomposition of classifier data anomalies
US7480667B2 (en) 2004-12-24 2009-01-20 Microsoft Corporation System and method for using anchor text as training data for classifier-based search systems
US7689520B2 (en) 2005-02-25 2010-03-30 Microsoft Corporation Machine learning system and method for ranking sets of data using a pairing cost function
US7877383B2 (en) 2005-04-27 2011-01-25 Microsoft Corporation Ranking and accessing definitions of terms
US7472096B2 (en) 2005-07-18 2008-12-30 Microsoft Corporation Training a learning system with arbitrary cost functions
US7561158B2 (en) 2006-01-11 2009-07-14 International Business Machines Corporation Method and apparatus for presenting feature importance in predictive modeling
EP1818746A1 (en) 2006-02-10 2007-08-15 ALSTOM Technology Ltd Method of condition monitoring
US8019763B2 (en) 2006-02-27 2011-09-13 Microsoft Corporation Propagating relevance from labeled documents to unlabeled documents
US8001121B2 (en) 2006-02-27 2011-08-16 Microsoft Corporation Training a ranking function using propagated document relevance
US7617164B2 (en) 2006-03-17 2009-11-10 Microsoft Corporation Efficiency of training for ranking systems based on pairwise training with aggregated gradients
AU2006201210A1 (en) 2006-03-23 2007-10-11 Canon Information Systems Research Australia Pty Ltd Motion characterisation
US7720830B2 (en) 2006-07-31 2010-05-18 Microsoft Corporation Hierarchical conditional random fields for web extraction
US20080169975A1 (en) 2007-01-12 2008-07-17 Young Paul Yee Process for generating spatially continuous wind profiles from wind profiler measurements
US8005771B2 (en) 2007-10-04 2011-08-23 Siemens Corporation Segment-based change detection method in multivariate data stream
US20090132515A1 (en) 2007-11-19 2009-05-21 Yumao Lu Method and Apparatus for Performing Multi-Phase Ranking of Web Search Results by Re-Ranking Results Using Feature and Label Calibration
US8175384B1 (en) 2008-03-17 2012-05-08 Adobe Systems Incorporated Method and apparatus for discriminative alpha matting
JP2009282685A (ja) 2008-05-21 2009-12-03 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US8386401B2 (en) 2008-09-10 2013-02-26 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data using a plurality of learning machines wherein the learning machine that optimizes a performance function is selected
JP2010092266A (ja) 2008-10-08 2010-04-22 Nec Corp 学習装置、学習方法及びプログラム
US20100169243A1 (en) 2008-12-27 2010-07-01 Kibboko, Inc. Method and system for hybrid text classification
US9189472B2 (en) 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
US20120290316A1 (en) 2009-11-27 2012-11-15 New Ideas Company Pty Ltd Method and System for Consumer Centred Care Management
US9187984B2 (en) 2010-07-29 2015-11-17 Exxonmobil Upstream Research Company Methods and systems for machine-learning based simulation of flow
US8924314B2 (en) 2010-09-28 2014-12-30 Ebay Inc. Search result ranking using machine learning
US8504392B2 (en) 2010-11-11 2013-08-06 The Board Of Trustees Of The Leland Stanford Junior University Automatic coding of patient outcomes
US20120271821A1 (en) 2011-04-20 2012-10-25 Microsoft Corporation Noise Tolerant Graphical Ranking Model
US8798984B2 (en) 2011-04-27 2014-08-05 Xerox Corporation Method and system for confidence-weighted learning of factored discriminative language models
US20120330971A1 (en) 2011-06-26 2012-12-27 Itemize Llc Itemized receipt extraction using machine learning
US9471882B2 (en) 2011-07-25 2016-10-18 International Business Machines Corporation Information identification method, program product, and system using relative frequency
US20130066452A1 (en) 2011-09-08 2013-03-14 Yoshiyuki Kobayashi Information processing device, estimator generating method and program
US8873813B2 (en) 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
US9916538B2 (en) 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US9031897B2 (en) 2012-03-23 2015-05-12 Nuance Communications, Inc. Techniques for evaluation, building and/or retraining of a classification model
US8788439B2 (en) 2012-12-21 2014-07-22 InsideSales.com, Inc. Instance weighted learning machine learning model
US20140180738A1 (en) 2012-12-21 2014-06-26 Cloudvu, Inc. Machine learning for systems management
WO2014110167A2 (en) 2013-01-08 2014-07-17 Purepredictive, Inc. Integrated machine learning for a data management product
EP2883173A1 (en) 2013-03-15 2015-06-17 The Echo Nest Corporation Demographic and media preference prediction using media content data analysis
US9679258B2 (en) * 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US9858534B2 (en) 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
US10558935B2 (en) 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US20170011307A1 (en) 2015-07-07 2017-01-12 California Institute Of Technology Alternative training distribution based on density modification

Also Published As

Publication number Publication date
KR101868829B1 (ko) 2018-06-20
KR20160084453A (ko) 2016-07-13
JP2017500639A (ja) 2017-01-05
US9953271B2 (en) 2018-04-24
EP3072069A4 (en) 2017-08-09
EP3072069A1 (en) 2016-09-28
US20150206066A1 (en) 2015-07-23
WO2015077557A1 (en) 2015-05-28

Similar Documents

Publication Publication Date Title
JP6212217B2 (ja) 機械学習における重みの生成
JP6212216B2 (ja) 機械学習における重み生成
US20190354810A1 (en) Active learning to reduce noise in labels
JP6276857B2 (ja) 訓練データに関する重み利益エバリュエータ
KR101933916B1 (ko) 머신 러닝에서의 대안 트레이닝 분포 데이터
JP2022527536A (ja) 強化学習を通じた公平性の改善
AU2016225947A1 (en) System and method for multimedia document summarization
CN112368697A (zh) 经由对偶分解评估损失函数或损失函数的梯度的系统和方法
JP2012058972A (ja) 評価予測装置、評価予測方法、及びプログラム
CN105761102B (zh) 一种预测用户购买商品行为的方法和装置
EP4107668A1 (en) Adversarial autoencoder architecture for methods of graph to sequence models
JP2022515941A (ja) 生成的敵対神経網ベースの分類システム及び方法
JP2024521150A (ja) アノテーション解決のためのデータ駆動タクソノミ
US20220207368A1 (en) Embedding Normalization Method and Electronic Device Using Same
KR20230094696A (ko) 추천시스템에서의 효율적인 행렬 분해를 위한 양자화 프레임워크 장치 및 학습 방법
Dey et al. Deep-n-Cheap: An automated efficient and extensible search framework for cost-effective deep learning
US20220269858A1 (en) Learning Rules and Dictionaries with Neuro-Symbolic Artificial Intelligence
CN107451662A (zh) 优化样本向量的方法及装置、计算机设备
Tang et al. An interaction-enhanced feature selection algorithm
JP2010198518A (ja) クラスタリング距離学習装置およびそのプログラム、ならびに、クラスタリング装置
CN113553841A (zh) 词的表征方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170914

R150 Certificate of patent or registration of utility model

Ref document number: 6212217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250