JP6276857B2 - 訓練データに関する重み利益エバリュエータ - Google Patents

訓練データに関する重み利益エバリュエータ Download PDF

Info

Publication number
JP6276857B2
JP6276857B2 JP2016532028A JP2016532028A JP6276857B2 JP 6276857 B2 JP6276857 B2 JP 6276857B2 JP 2016532028 A JP2016532028 A JP 2016532028A JP 2016532028 A JP2016532028 A JP 2016532028A JP 6276857 B2 JP6276857 B2 JP 6276857B2
Authority
JP
Japan
Prior art keywords
function
expected value
data
target
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016532028A
Other languages
English (en)
Other versions
JP2017500637A (ja
Inventor
アブ−モスタファ,ヤセル,サイド
ゴンザレス,カルロス,ロベルト
Original Assignee
カリフォルニア インスティテュート オブ テクノロジー
カリフォルニア インスティテュート オブ テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カリフォルニア インスティテュート オブ テクノロジー, カリフォルニア インスティテュート オブ テクノロジー filed Critical カリフォルニア インスティテュート オブ テクノロジー
Publication of JP2017500637A publication Critical patent/JP2017500637A/ja
Application granted granted Critical
Publication of JP6276857B2 publication Critical patent/JP6276857B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)
  • Debugging And Monitoring (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本出願は、2013年11月22日に出願した米国仮特許出願第61/907,504号、2014年6月20日に出願した米国仮特許出願第62/015,133号、および2014年8月5日に出願した米国特許出願第14/451,859号の優先権を主張するものであり、これらの出願の全体が、参照により本明細書に組み込まれている。本出願は、「GENERATION OF WEIGHTS IN MACHINE LEARNING」という名称の2014年8月5日に出願した出願、整理番号14/451,870号、「WEIGHT GENERATION IN MACHINE LEARNING」という名称の2014年8月5日に出願した出願、整理番号14/451,899号、および「ALTERNATIVE TRAINING DISTRIBUTION DATA IN MACHINE LEARNING」という名称の2014年8月5日に出願した出願、整理番号14/451,935号に関連する。
機械学習環境において、訓練入力および訓練ラベルを含む訓練データが、学習された関数を決定するのに使用され得る。学習された関数は、訓練入力と訓練ラベルの間の関係を示すのに有効であり得る。学習された関数は、機械学習システムにおいて展開され得る。機械学習システムは、試験入力を受け取ることが可能であり、学習された関数を試験入力に適用して、試験ラベルをもたらすことができ、試験入力および試験ラベルは、試験データに形成され得る。
いくつかの例において、機械学習環境において訓練データに関連する重み利益を決定する方法が、一般的に説明される。これらの方法は、デバイスによる、訓練データに基づいて第1の関数を決定することであって、その訓練データは、訓練入力と、訓練ラベルとを含み得ることを含むことが可能である。また、これらの方法は、デバイスによる、訓練データに重みのセットを適用して、重み付けされた訓練データを生成することを含むことも可能である。また、これらの方法は、デバイスによる、その重み付けされた訓練データに基づいて第2の関数を決定することを含むことも可能である。また、これらの方法は、デバイスによる、ターゲット関数に基づいてターゲットデータを生成することを含むことも可能である。ターゲットデータは、訓練ラベルとは異なるターゲットラベルを含み得る。また、これらの方法は、デバイスによる、そのターゲットデータに基づいて第3の関数を決定することを含むことも可能である。また、これらの方法は、デバイスによる、そのターゲットデータに重みのセットを適用して、重み付けされたターゲットデータを生成することを含むことも可能である。また、これらの方法は、デバイスによる、重み付けされたターゲットデータに基づいて第4の関数を決定することを含むことも可能である。また、これらの方法は、デバイスによる、第1の関数、第2の関数、第3の関数、および第4の関数に基づいて重み利益を決定することを含むことも可能である。その重み利益は、訓練データに重みのセットを適用する利益に関連することが可能である。
いくつかの例において、機械学習環境において訓練データに関連する重み利益を決定するのに有効なシステムが、一般的に説明される。これらのシステムは、メモリを含み得る。そのメモリは、訓練データを記憶するように構成され得る。その訓練データは、訓練入力と、訓練ラベルとを含み得る。また、そのメモリは、重みのセットを記憶するように構成されることも可能である。また、これらのシステムは、そのメモリと通信状態にあるように構成されたターゲット関数生成モジュールを含むことも可能である。ターゲット関数生成モジュールは、ターゲット関数に基づいてターゲットデータを生成するように構成され得る。ターゲットデータは、訓練ラベルとは異なるターゲットラベルを含み得る。また、ターゲット関数生成モジュールは、メモリの中にターゲットデータを記憶するように構成されることも可能である。また、これらのシステムは、ターゲット関数生成モジュールおよびメモリと通信状態にあるように構成された処理モジュールを含むことも可能である。その処理モジュールは、訓練データに重みのセットを適用して、重み付けされた訓練データを生成するように構成され得る。また、その処理モジュールは、ターゲットデータに重みのセットを適用して、重み付けされたターゲットデータを生成するように構成されることも可能である。また、その処理モジュールは、メモリの中に重み付けされた訓練データおよび重み付けされたターゲットデータを記憶するように構成されることも可能である。また、これらのシステムは、ターゲット関数生成モジュール、処理モジュール、およびメモリと通信状態にあるように構成された機械学習モジュールを含むことも可能である。その機械学習モジュールは、訓練データに基づいて第1の関数を決定するように構成され得る。また、その機械学習モジュールは、重み付けされた訓練データに基づいて第2の関数を決定するように構成されることも可能である。また、その機械学習モジュールは、ターゲットデータに基づいて第3の関数を決定するように構成されることも可能である。また、その機械学習モジュールは、重み付けされたターゲットデータに基づいて第4の関数を決定するように構成されることも可能である。また、これらのシステムは、ターゲット関数生成モジュール、処理モジュール、機械学習モジュール、およびメモリと通信状態にあるように構成された評価モジュールを含むことも可能である。その評価モジュールは、第1の関数、第2の関数、第3の関数、および第4の関数に基づいて重み利益を決定するように構成され得る。その重み利益は、訓練データに重みのセットを適用する利益に関連することが可能である。
いくつかの例において、機械学習環境において訓練データに関連する重み利益を決定する方法が、一般的に説明される。これらの方法は、第1のデバイスによる、第2のデバイスから第1の関数を受信することを含み得る。第1の関数は、訓練データに基づくことが可能である。その訓練データは、訓練入力と、訓練ラベルとを含み得る。また、これらの方法は、第1のデバイスによる、第2のデバイスから重みのセットを受信することを含むことも可能である。また、これらの方法は、第1のデバイスによる、第2のデバイスから第2の関数を受信することを含むことも可能である。第2の関数は、重み付けされた訓練データに基づくことが可能である。その重み付けされた訓練データは、重みのセットに基づくことが可能である。また、これらの方法は、第1のデバイスによる、ターゲット関数に基づいてターゲットデータを生成することを含むことも可能である。ターゲットデータは、訓練ラベルとは異なるターゲットラベルを含み得る。また、これらの方法は、第1のデバイスによる、ターゲットデータに基づいて第3の関数を決定することを含むことも可能である。また、これらの方法は、第1のデバイスによる、ターゲットデータに重みのセットを適用して、重み付けされたターゲットデータを生成することを含むことも可能である。また、これらの方法は、第1のデバイスによる、重み付けされたターゲットデータに基づいて第4の関数を決定することを含むことも可能である。また、これらの方法は、第1のデバイスによる、第1の関数、第2の関数、第3の関数、および第4の関数に基づいて重み利益を決定することを含むことも可能である。その重み利益は、訓練データに重みのセットを適用する利益に関連することが可能である。
以上の概要は、単に例示的であり、限定することはまったく意図していない。前述した例示的な態様、実施形態、および特徴に加えて、さらなる態様、実施形態、および特徴が、図面、および後段の詳細な説明を参照することによって明白となろう。
本開示の以上、およびその他の特徴は、添付の図面と併せて解釈される、後段の説明、および添付の特許請求の範囲から、より完全に明白となろう。これらの図面は、本開示によるいくつかの実施形態を表すに過ぎず、したがって、本開示の範囲を限定するものと見なされるべきではないものと理解して、本開示を、添付の図面の使用を介してさらに具体的に、さらに詳細に説明する。
本明細書で説明される少なくともいくつかの実施形態により構成された、訓練データに関する重み利益エバリュエータを実施するのに利用され得る例示的なシステムを示す図である。 本明細書で説明される少なくともいくつかの実施形態により構成された、人工的な学習された関数および人工的な重み付けされた関数の決定と関係するさらなる詳細とともに図1の例示的なシステムを示す図である。 本明細書で説明される少なくともいくつかの実施形態により構成された、重み利益の決定と関係するさらなる詳細とともに図1の例示的なシステムを示す図である。 本明細書で説明される少なくともいくつかの実施形態により構成された、訓練データに関する重み利益エバリュエータを実施する例示的なプロセスを示す流れ図である。 本明細書で説明される少なくともいくつかの実施形態により構成された、訓練データに関する重み利益エバリュエータを実施するのに利用され得る例示的なコンピュータプログラム製品を示す図である。 本明細書で説明される少なくともいくつかの実施形態により構成された、訓練データに関する重み利益エバリュエータを実施するように構成された例示的なコンピューティングデバイスを示すブロック図である。
後段の詳細な説明において、本明細書の一部分を形成する添付の図面が参照される。これらの図面において、同様の符号は、そうでないことを文脈が規定するのでない限り、通常、同様の構成要素を識別する。詳細な説明、図面、および特許請求の範囲において説明される例示的な実施形態は、限定することは意図していない。本明細書において提示される主題の趣旨も範囲も逸脱することなく、他の実施形態が利用されることが可能であり、他の変更が行われることが可能である。本明細書で一般的に説明され、図に例示される本開示の態様は、本明細書においてそのすべてが明示的に企図される多種多様な異なる構成において構成され、置換され、組み合わされ、分離され、設計されることが可能であることが容易に理解されよう。
本開示は、とりわけ、訓練データに関する重み利益エバリュエータと関係する方法、装置、システム、デバイス、およびコンピュータプログラム製品を対象とする。
簡単に述べると、機械学習環境において訓練データに重みのセットを適用することに関連する重み利益を決定するのに有効な方法およびシステムのための技術が、一般的に説明される。たとえば、それらの重みは、訓練データにおけるいくつかのポイントに、他のポイントと比べて、より多く寄与させて、異なる学習された関数の生成をもたらすのに使用され得る。例において、デバイスが、訓練データに基づいて第1の関数を決定することが可能であり、その訓練データは、訓練入力と、訓練ラベルとを含む。たとえば、それらの訓練入力は、ユーザプロファイル(たとえば、年齢、性別、収入)およびラベル(たとえば、映画格付け)であり得る。第1の関数は、訓練入力と訓練ラベルの間の関係を示すのに有効であり得る。たとえば、第1の関数は、ユーザプロファイルと映画格付けの間の関係を示してもよい。このデバイスは、訓練データに対する重みの適用に基づく、重み付けされた訓練データに基づいて第2の関数を決定することが可能である。第2の関数は、訓練データに重みが適用された後、生成され得る。第2の関数の演算が、本明細書で説明されるとおり第1の関数と比較され得る。このデバイスは、ターゲットデータに基づいて第3の関数を決定することが可能であり、そのターゲットデータは、ターゲット関数に基づいて生成される。そのターゲット関数は、重みを用いて生成された関数と重みを用いずに生成された関数を比較するのに使用され得る。ターゲットデータは、訓練ラベルとは異なるターゲットラベルを含み得る。このデバイスは、ターゲットデータに重みを適用したことの結果であり得る、重み付けされたターゲットデータに基づいて第4の関数を決定することが可能である。このデバイスは、第1の関数、第2の関数、第3の関数、および第4の関数に基づいて重み利益を決定することが可能である。たとえば、このデバイスは、その重みが適用されるべきかどうかを決定することが可能である。
図1は、本明細書で説明される少なくともいくつかの実施形態により構成された、訓練データに関する重み利益エバリュエータを実施するのに利用され得る例示的なシステムを示す。後段でより詳細に説明されるとおり、システム100が、機械学習システムとして実施されることが可能である。システム100は、訓練データ160((x,y)として表される)に基づいて、学習された関数162(gとして表される)を決定するように実施され得る。訓練データ160の例が、ユーザプロファイル(たとえば、年齢、性別、収入)およびラベル(たとえば、映画格付け)であり得る。学習された関数162の例が、試験ユーザプロファイルを入力として受け取り、試験映画格付けを出力として生成する関数であり得る。訓練データ160は、各ポイントiにおける訓練入力(x)と、訓練ラベル(yとして表される)とを含むペアにされたデータのセットに関連することが可能である。システム100は、重み付けされた訓練データ180((xwi,ywi)として表される)に基づいて、重み付けされた関数172(gとして表される)を決定するようにさらに実施され得る。重み付けされた訓練データ180は、訓練データ160に重みのセット(「重み」)170(wとして表される)を適用したことの結果であり得る。重みのセット170は、訓練データ160におけるいくつかのポイント(訓練入力と、訓練ラベルとを含む)に、訓練データ160におけるそれらのいくつかのポイントとは異なる他のポイントより重く評価することが可能である。たとえば、いくつかのポイントは、より高い重みを与えられることが可能であり、したがって、重み付けされた関数172の生成により多く寄与することが可能である。システム100は、重み利益152を決定するようにさらに実施されることが可能であり、重み利益152は、訓練データ160に重みのセット170を適用する利益に関連することが可能である。
例において、システム100は、コンピューティングデバイス102で実施されることが可能であり、コンピューティングデバイス102は、コンピュータまたはサーバであり得る。コンピューティングデバイス102は、処理モジュール110、機械学習モジュール120、ターゲット関数生成モジュール130、算術モジュール140、および/または評価モジュール150を含み得る。処理モジュール110、機械学習モジュール120、ターゲット関数生成モジュール130、算術モジュール140、および/または評価モジュール150は、互いに通信状態にあるように構成され得る。コンピューティングデバイス102は、処理モジュール110、機械学習モジュール120、ターゲット関数生成モジュール130、算術モジュール140、および/または評価モジュール150と通信状態にあるように構成されたメモリ104をさらに含み得る。いくつかの例において、コンピューティングデバイス102の各モジュールは、FPGA(フィールドプログラマブルゲートアレイ)、SoC(システムオンチップ)などの集積回路を含むハードウェア構成要素または組込み型システムであり得る。いくつかの例において、第1のモジュールは、第2のモジュール上に組み込まれてもよい。たとえば、算術モジュール140が、ターゲット関数生成モジュール130上に組み込まれてもよい。いくつかの例において、処理モジュール110、機械学習モジュール120、ターゲット関数生成モジュール130、算術モジュール140、および/または評価モジュール150は、コンピューティングデバイス102のプロセッサの構成要素であり得る。
メモリ104は、機械学習命令122、少なくとも1つの人工的な関数166(hとして表される)、訓練データ160、および/または重み170を記憶するように構成され得る。機械学習命令122は、学習された関数162および/または重み付けされた関数172などの学習された関数の生成を円滑にするのに有効な命令を含み得る。機械学習命令122は、ターゲット関数生成モジュール130、算術モジュール140、および/または評価モジュール150の動作に関連する命令をさらに含み得る。いくつかの例において、機械学習命令122は、機械学習モジュール120の中に記憶され得る。人工的な関数166は、後段で説明されるとおり、システム100の実施によってそれまでに生成された関数であり得る。
訓練データ160は、訓練入力(x)と、訓練ラベル(y)とを含むペアにされたデータのセットに関連することが可能である。訓練入力(x)は、ベクトルのセットであることが可能であり、各ベクトルは、1つまたは複数の座標に対応することが可能である。重みのセット170は、処理モジュール110などによって、訓練データ160に適用され得るベクトルのセットであり得る。訓練データ160に重み170を適用した結果、重み付けされた訓練データ180が生成され得る。重み付けされた訓練データ180は、重み付けされた訓練入力(xwi)と、重み付けされた訓練ラベル(ywi)とを含むペアにされたデータのセットに関連することが可能である。いくつかの例において、重みのセット170は、コンピューティングデバイス102において別のコンピューティングデバイスから受信され得る。いくつかの例において、コンピューティングデバイス102は、重み170を生成するように構成された重み生成モジュール106をさらに含み得る。いくつかの例において、処理モジュール110は、機械学習モジュール120、ターゲット関数生成モジュール130、算術モジュール140、および評価モジュール150などのコンピューティングデバイス102における1つまたは複数のモジュールの動作を制御するようにさらに構成され得る。処理モジュール110は、評価モジュール150から重み利益152を受信し、それに応答して、訓練データ160に重み170を適用すべきかどうかを決定するようにさらに構成され得る。重み利益152は、「適用する」または「適用しない」、あるいは「0」と「1」、あるいは「A」と「非A」などのバイナリデータであり得る。
ターゲット関数生成モジュール130は、訓練データ160および人工的な関数166(後段で説明される)を使用してターゲット関数168(fとして表される)を生成するように構成され得る。いくつかの例において、算術モジュール140は、ターゲット関数生成モジュール130によるターゲット関数168の生成を円滑にする特定の動作を実行するように構成され得る。たとえば、算術モジュール140は、システム100の実施中の大きいデータセットの比較などの複雑な計算を実行するように構成され得る。
機械学習モジュール120は、訓練データ160に基づいて、学習された関数162を決定するように構成され得る。学習された関数162の決定は、訓練入力(x)と訓練ラベル(y)の間の関係を決定することを含み得る。学習された関数162は、訓練入力(x)と訓練ラベル(y)の間の関係を示すのに有効であり得る。機械学習モジュール120は、重み付けされた訓練データ180に基づいて、重み付けされた関数172を決定するようにさらに構成され得る。重み付けされた関数172の決定は、重み付けされた訓練入力(xwi)と重み付けされた訓練ラベル(ywi)の間の関係を決定することを含み得る。重み付けされた関数172は、重み付けされた訓練入力(xwi)と重み付けされた訓練ラベル(ywi)の間の関係を示すのに有効であり得る。後段でより詳細に説明されるとおり、機械学習モジュール120は、人工的な関数166およびターゲット関数168に基づいて、人工的な学習された関数164(gとして表される)および人工的な重み付けされた関数174(gwjとして表される)を決定するように構成され得る。評価モジュール150は、学習された関数162、重み付けされた関数172、人工的な学習された関数164、および人工的な重み付けされた関数174に基づいて重み利益152を決定することが可能である。
図2は、本明細書で説明される少なくともいくつかの実施形態により構成された、人工的な学習された関数および人工的な重み付けされた関数の決定と関係するさらなる詳細とともに図1の例示的なシステム100を示す。図2は、さらなる詳細を伴って、図1のシステム100と実質的に同様である。図1の構成要素と同一のラベルを付けられた図2の構成要素については、簡明のため、再び説明することはしない。
後段でより詳細に説明されるとおり、ターゲット関数生成モジュール130が、訓練データ160(メモリ104の中の)および人工的な関数166(メモリ104の中の)に基づいて1つまたは複数のターゲット関数168を生成することが可能である(動作{210、211、212、213}を参照して説明される)。ターゲット関数168の生成の後、ターゲット関数生成モジュール130は、訓練データ160に基づき、かつターゲット関数168に基づき、ターゲットデータ230を生成することが可能である。処理モジュール110が、ターゲットデータ230に重み170を適用して、重み付けされたターゲットデータ232を生成することが可能である(動作{214,215})。機械学習モジュール120が、ターゲットデータ230に基づいて、人工的な学習された関数164を決定することが可能である(動作{216})。機械学習モジュール120は、重み付けされたターゲットデータ232に基づいて、人工的な重み付けされた関数174をさらに決定することが可能である(動作{216})。
動作210において、ターゲット関数生成モジュール130が、メモリ104から人工的な関数166を取り出すことが可能である。例において、処理モジュール110が、メモリ104の中に記憶された複数の人工的な関数の中からいくつかの人工的な関数166を選択するようターゲット関数生成モジュール130に命令するように構成され得る。人工的な関数166の選択は、機械学習命令122に基づくことが可能である。例において、最終の所望される学習された関数でもある、機械学習命令122の出力は、ax+bx+cx+dのような次数4の多項式によって表現されるモデルに従う関数であり得る。処理モジュール110は、機械学習命令122における命令に基づいて、係数a、b、c、dの値などの、パラメータのセットをランダムに選択することが可能である。特定の選択jに関して、処理モジュール110が、a=1、b=3、c=7、d=12を選択した場合、第j番の人工的な関数166は、x+3x+7x+12であることになる。
いくつかの人工的な関数166の選択の後、ターゲット関数168の生成は、動作210から動作211に進むことが可能である。動作211で、ターゲット関数生成モジュール130が、訓練データ160の訓練入力xを選択された数の人工的な関数166に適用することが可能である。人工的な関数166に訓練入力xを適用することは、人工的なデータ220の生成をもたらし得る。人工的なデータ220は、(x,h(x))によって表される、ペアにされたデータの1つまたは複数のセットを含むことが可能であり、ここで、iは、訓練データ160のポイントに対応し、jは、選択された人工的な関数に対応する。ペアにされたデータのセットの数は、選択された人工的な関数166の数と等しいことが可能である。人工的なデータ220の各セットの中のポイントの数は、訓練データ160におけるポイントの数と等しいことが可能である。たとえば、訓練データ160が、100のポイント(たとえば、i=1,2,...100であり、かつ(x,y)=(x,y),(x,y),...(x100,y100))を含むことが可能である。処理モジュール110は、10の人工的な関数166を選択するためにパラメータの10のセットを選択することが可能である。ターゲット関数生成モジュール130は、対応する10の人工的な関数に基づいて人工的なデータの10のセット220を生成して、人工的なデータの10のセット220の中の各セットが、100のポイントを含み得るようにすることが可能である。
人工的なデータ220の生成の後、ターゲット関数168の生成は、動作211から動作212に進むことが可能である。動作212で、ターゲット関数生成モジュール130が、訓練データ160および人工的なデータ220を算術モジュール140に送信することが可能である。算術モジュール140は、訓練データ160の平均値であり得る訓練平均値240を決定することが可能である。算術モジュール140は、訓練データ160の標準偏差であり得る訓練標準偏差242をさらに決定することが可能である。算術モジュール140は、いくつかの人工的な平均値250(mとして表される)をさらに決定することが可能であり、ここで、各人工的な平均値は、人工的なデータ220の特定のセットの平均値であり得る。たとえば、人工的な平均値mが、j=1における人工的なデータ220のセットの人工的な平均値であり得る。算術モジュール140は、いくつかの人工的な標準偏差252(dとして表される)をさらに決定することが可能であり、ここで、各人工的な標準偏差は、人工的なデータ220の特定のセットの標準偏差であり得る。たとえば、人工的な標準偏差dが、j=1における人工的なデータ220のセットの標準偏差であり得る。算術モジュール140が、訓練平均値240、訓練標準偏差242、人工的な平均値250、および人工的な標準偏差252をターゲット関数生成モジュール130に送信することが可能である。算術モジュール140がターゲット関数生成モジュール130の構成要素であり得る、いくつかの例において、ターゲット関数生成モジュール130が、訓練平均値240、訓練標準偏差242、人工的な平均値250、および人工的な標準偏差252を決定することが可能である。
訓練平均値240、訓練標準偏差242、人工的な平均値250、および人工的な標準偏差252の生成の後、ターゲット関数168の生成は、動作212から動作213に進むことが可能である。動作213において、ターゲット関数生成モジュールは、人工的なデータ220、訓練平均値240、訓練標準偏差242、人工的な平均値250、および人工的な標準偏差252に基づいて、いくつかのターゲット関数168を生成することが可能である。ターゲット関数168の数は、選択された人工的な関数166の数、または人工的なデータ220の中のセットの数と等しいことが可能である。たとえば、ターゲット関数fが、j=2における人工的な関数h、または人工的なデータ220のセットに基づくことが可能である。ターゲット関数fが、j=2における人工的なデータ220、訓練平均値240、訓練標準偏差242、人工的な平均値250 m、および人工的な標準偏差252 dに基づいて生成されることが可能である。
いくつかの例において、ターゲット関数生成モジュール130が、訓練平均値240、訓練標準偏差242、人工的な平均値250、および人工的な標準偏差252に符号関数を適用することによって、そのいくつかのターゲット関数168を生成することが可能である。いくつかの例において、ターゲット関数生成モジュール130が、訓練平均値240、訓練標準偏差242、人工的な平均値250、および人工的な標準偏差252にラウンド関数を適用することによって、ターゲット関数168を生成することが可能である。いくつかの例において、ターゲット関数生成モジュール130が、訓練平均値240、訓練標準偏差242、人工的な平均値250、および人工的な標準偏差252に最近接数関数(nearest number function)を適用することによって、ターゲット関数168を生成することが可能である。ターゲット関数生成モジュール130は、訓練平均値240、訓練標準偏差242、人工的な平均値250、および人工的な標準偏差252に、機械学習命令122に基づいて選択され得る様々な他の関数を適用することによって、ターゲット関数168を生成することが可能である。いくつかの例において、ターゲット関数168は、ガウス雑音などの雑音パラメータにさらに基づくことが可能である。
ターゲット関数168の生成の後、ターゲット関数生成モジュール130は、ターゲットデータ230および重み付けされたターゲットデータ232を生成することが可能である。動作214において、ターゲット関数生成モジュール130が、各ターゲット関数168に訓練データ160の訓練入力xを適用して、ターゲットデータ230を生成することが可能である。ターゲットデータ230は、(x,f(x))によって表される、ペアにされたデータの1つまたは複数のセットを含むことが可能であり、ここで、ターゲットデータ230におけるペアにされたデータのセットの数は、ターゲット関数168の数と等しいことが可能である。ターゲットデータ230の各セットの中のポイントの数は、訓練データ160におけるポイントの数と等しいことが可能である。たとえば、ターゲット生成関数モジュール130が、10のターゲット関数168を生成した場合、ターゲットデータ230においてターゲットデータの10のセットが存在する。ターゲットデータ230の生成の後、動作215において、処理モジュール110が、訓練データ160に重みのセット170を適用して、重み付けされたターゲットデータ232を生成することが可能である。重み付けされたターゲットデータ232は、(x,fwj(x))によって表される、ペアにされたデータの1つまたは複数のセットを含むことが可能であり、ここで、重み付けされたターゲットデータ232におけるペアにされたデータのセットの数は、ターゲット関数168の数と等しいことが可能である。重み付けされたターゲットデータ232の各セットの中のポイントの数は、訓練データ160におけるポイントの数と等しいことが可能である。
ターゲットデータ230および重み付けされたターゲットデータ232の生成の後、機械学習モジュール120が、いくつかの人工的な学習された関数164を決定することが可能であり、いくつかの人工的な重み付けされた関数174を決定することが可能である。機械学習モジュール120が、特定のターゲットデータ230に基づいて、特定の人工的な学習された関数164を決定することが可能である。たとえば、機械学習モジュール120が、セットj=2においてターゲットデータ(x,f(x))に基づいて、人工的な学習された関数gを決定することが可能である。人工的な学習された関数164の数は、ターゲットデータ230におけるターゲットデータのセットの数と等しいことが可能である。機械学習モジュール120は、特定の重み付けされたターゲットデータ232に基づいて、特定の人工的な重み付けされた関数174をさらに決定することが可能である。人工的な重み付けされた関数174の数は、重み付けされたターゲットデータ232における重み付けされたターゲットデータのセットの数と等しいことが可能である。
図3は、本明細書で説明される少なくともいくつかの実施形態により構成された、重み利益の決定と関係するさらなる詳細とともに図1の例示的なシステム100を示す。図3は、さらなる詳細を伴って、図1のシステム100と実質的に同様である。図1の構成要素と同一のラベルが付けられた図3における構成要素については、簡明のため、再び説明することはしない。
後段でより詳細に説明されるとおり、機械学習モジュール120が、学習された関数162、重み付けされた関数172、1つまたは複数の人工的な学習された関数164、および1つまたは複数の人工的な重み付けされた関数174に試験入力のセット302を適用することが可能である(動作{310})。その適用の結果、機械学習モジュール120は、試験データ304、重み付けされた試験データ305、人工的な試験データ306、および人工的な重み付けされた試験データ307を生成することが可能である(動作{310})。算術モジュール140が、試験データ304、重み付けされた試験データ305、人工的な試験データ306、および人工的な重み付けされた試験データ307に基づいて評価値340を決定することが可能である(動作{311,312})。評価モジュール150が、評価値340に基づいて重み利益152を生成することが可能である(動作{313,314,315})。
動作310において、機械学習モジュール120が、学習された関数162に試験入力302を適用して、試験データ304を生成することが可能である。試験入力302は、ベクトルのセット(sとして表される)であることが可能であり、システム100の外部のデバイスから受信されることが可能である。試験データ304は、試験入力302 sと、生成された試験ラベルg(s)とを含むペアにされたデータのセット(s,g(s)として表される)に関連することが可能である。学習された関数162は、試験入力302と生成された試験ラベルg(s)の間の関係を定義するのに有効であり得る。機械学習モジュール120は、重み付けされた関数172に試験入力302をさらに適用して、重み付けされた試験データ305を生成することが可能である。重み付けされた試験データ305は、試験入力302 sと、生成された重み付けされた試験ラベルg(s)とを含むペアにされたデータのセット((s,g(s))として表される)に関連することが可能である。重み付けされた関数172は、試験入力302と重み付けされた試験ラベルg(s)の間の関係を定義するのに有効であり得る。
機械学習モジュール120は、人工的な学習された関数164の中のそれぞれの人工的な学習された関数gに試験入力302をさらに適用して、人工的な試験データ306の1つまたは複数のセット((s,g(s))として表される)を生成することが可能である。人工的な試験データ306の各セットは、試験入力302 sと、対応する人工的な試験ラベルg(s)とを含むペアにされたデータのセットに関連することが可能である。たとえば、機械学習モジュール120が、人工的な学習された関数gに試験入力302を適用して、人工的な試験データのセット(s,g(s))を生成することが可能である。人工的な学習された関数164は、試験入力302と人工的な試験ラベルg(s)の間の関係を定義するのに有効であり得る。機械学習モジュール120は、人工的な重み付けされた関数174の中のそれぞれの人工的な重み付けされた関数に試験入力302をさらに適用して、人工的な重み付けされた試験データ307((s,gwj(s))として表される)を生成することが可能である。人工的な重み付けされた試験データ307のそれぞれのセットは、試験入力302 sと、対応する人工的な重み付けされた試験ラベルgwj(s)とを含むペアにされたデータのセットに関連することが可能である。人工的な重み付けされた関数174は、試験入力302と人工的な重み付けされた試験ラベルgwj(s)の間の関係を定義するのに有効であり得る。
動作311において、算術モジュール140が、学習された関数162と重み付けされた関数172の間の予期される値320を決定することが可能である。学習された関数162と重み付けされた関数172の間の予期される値320の例は、以下のとおりであり得る。すなわち、
E[(g−g
ここで、gは、学習された関数162を表し、gは、重み付けされた関数172を表す。
例において、算術モジュール140が、以下のような試験入力302を使用して、予期される値320を決定することが可能である。すなわち、
E[(g(s)−g(s))
ここで、sは、試験入力302であり、g(s)は、試験ラベルtであり、g(s)は、重み付けされた試験ラベルtwiである。
同様に、算術モジュール140は、各第j番の人工的な学習された関数164と各第j番のターゲット関数168の間の予期される値322をさらに決定することが可能である。算術モジュール140は、各第j番の人工的な重み付けされた関数174と各第j番のターゲット関数168の間の予期される値324をさらに決定することが可能である。算術モジュール140は、各第j番の人工的な学習された関数164と各第j番の人工的な重み付けされた関数174の間の予期される値326をさらに決定することが可能である。算術モジュール140は、試験入力302を使用して、予期される値322、324、326を決定することが可能である。
動作312において、算術モジュール140が、いくつかの評価値340(Tとして表される)を決定することが可能である。評価値340は、以下のとおり、予期される値322、324、326に基づくことが可能である。すなわち、
=E[(g−f]−E[(gwj−f]−E[(g−gwj
ここで、E[(g−f]は、予期される値322を表し、E[( wj −f]は、予期される値324を表し、E[(g−gwj]は、予期される値326を表す。

動作313において、評価モジュール150が、評価値340の中の各値を予期される値320と比較することが可能である。評価値340と予期される値320の例示的な比較は、以下の条件342に基づくことが可能である。
E[(g−g]+T>0
評価モジュール150が、評価値340の中のいくつの値が条件342を満たすかを数えることによってカウント350を決定することが可能である。たとえば、評価値340の中の37個の値が条件342を満たす場合、カウント350は、値「37」である。動作314において、評価モジュール150が、カウント350をしきい値360と比較することが可能であり、ここで、しきい値360は、機械学習命令122によって定義されることが可能であり、メモリ104の中に記憶されることが可能である。例において、しきい値360は、訓練データ160のポイントの数の半分であり得る。たとえば、訓練データ160が100のポイントを含む場合、しきい値360は、値「50」であり得る。
動作315において、評価モジュール150が、カウント350としきい値360の比較に基づいて、重み利益152を決定することが可能である。評価モジュール150は、カウント350としきい値360の比較に基づいて重み利益152に値を割り当てることが可能である。例において、カウント350が「37」であり、しきい値が「50」である場合、評価モジュール150には、重み利益152に「1」または「A」(「適用する」)という値を割り当てることが可能である。同様に、カウント350が「71」であり、しきい値が「50」である場合、評価モジュール150には、重み利益152に「0」または「非A」(「適用しない」)という値を割り当てることが可能である。評価モジュール150が、処理モジュール110に重み利益152を送信することが可能である。処理モジュール110が、重み利益152の値に基づいて、訓練データ160に重み170を適用すべきかどうかを決定することが可能である。処理モジュール110が、重み利益152の値に基づいて、学習された関数162を展開すべきか、または重み付けされた関数172を展開すべきかを機械学習モジュール120にさらに指示することが可能である。
他の可能な利点として、本開示によるシステムは、機械学習システムのパフォーマンスを向上させることが可能である。いくつかの例において、重み付けされた訓練データから決定された重み付けされた関数は、重み付けされていない訓練データから決定された関数と比べて、より正確であると見なされ得る。しかし、重み付けされた訓練データは、サンプルロスをもたらす可能性があり、重み付けされた関数の生成を意図せずに損なう可能性がある。本開示によるシステムは、訓練データに重みを適用することが、機械学習システムのパフォーマンスを利する可能性があるか、または損なう可能性があるかを決定する方法を提供することが可能である。
図4は、本明細書で提示される少なくともいくつかの実施形態により構成された、訓練データに関する重み利益エバリュエータを実施する例示的なプロセスに関する流れ図を示す。図4のプロセスは、たとえば、前述したシステム100を使用して実施されることも可能である。例示的なプロセスは、ブロックS2、S4、S6、S8、S10、S12、S14、および/またはS16のうちの1つまたは複数によって示される、1つまたは複数の動作、アクション、または機能を含み得る。別々のブロックとして例示されるものの、様々なブロックは、所望される実施形態に依存して、さらなるブロックに分割されても、組み合わされて、より少ないブロックにされても、無くされてもよい。
処理は、ブロックS2、「訓練データに基づいて第1の関数を決定する」において始まることが可能である。ブロックS2において、デバイスが、訓練データに基づいて第1の関数を決定することが可能である。訓練データは、訓練入力と、訓練ラベルとを含み得る。
処理は、ブロックS2からブロックS4、「訓練データに重みのセットを適用して、重み付けされた訓練データを生成する」に進むことが可能である。ブロックS4において、デバイスが、訓練データに重みのセットを適用して、重み付けされた訓練データを生成することが可能である。
処理は、ブロックS4からブロックS6、「重み付けされた訓練データに基づいて第2の関数を決定する」に進むことが可能である。ブロックS6において、デバイスが、重み付けされた訓練データに基づいて第2の関数を決定することが可能である。
処理は、ブロックS6からブロックS8、「ターゲット関数に基づいてターゲットデータを生成する」に進むことが可能である。ブロックS8において、デバイスが、ターゲット関数に基づいてターゲットデータを生成することが可能である。そのターゲット関数は、訓練ラベルとは異なるターゲットラベルを含み得る。デバイスが、そのターゲット関数を生成することが可能である。例において、デバイスが、人工的な関数を生成するパラメータのセットを決定することが可能である。デバイスは、訓練入力および人工的な関数を使用して人工的なデータをさらに生成することが可能である。その人工的なデータは、訓練入力と、人工的なラベルとを含むことが可能である。デバイスは、訓練データに関連する第1の平均値をさらに決定することが可能である。デバイスは、訓練データに関連する第1の標準偏差をさらに決定することが可能である。デバイスは、人工的なデータに関連する第2の平均値をさらに決定することが可能である。デバイスは、人工的なデータに関連する第2の標準偏差をさらに決定することが可能である。デバイスは、第1の平均値、第1の標準偏差、第2の平均値、および第2の偏差に基づいてターゲット関数をさらに生成することが可能である。いくつかの例において、ターゲット関数は、雑音パラメータに基づくことが可能である。
処理は、ブロックS8からブロックS10、「ターゲットデータに基づいて第3の関数を決定する」に進むことが可能である。ブロックS10において、デバイスが、ターゲットデータに基づいて第3の関数を決定することが可能である。
処理は、ブロックS10からブロックS12、「ターゲットデータに重みのセットを適用して、重み付けされたターゲットデータを生成する」に進むことが可能である。ブロックS12において、デバイスが、ターゲットデータに重みのセットを適用して、重み付けされたターゲットデータを生成することが可能である。
処理は、ブロックS12からブロックS14、「重み付けされたターゲットデータに基づいて第4の関数を決定する」に進むことが可能である。ブロックS14において、デバイスが、重み付けされたターゲットデータに基づいて第4の関数を決定することが可能である。
処理は、ブロックS14からブロックS16、「第1の関数、第2の関数、第3の関数、および第4の関数に基づいて重み利益を決定する」に進むことが可能である。ブロックS16において、デバイスが、第1の関数、第2の関数、第3の関数、および第4の関数に基づいて重み利益を決定することが可能である。重み利益は、訓練データに重みのセットを適用する利益に関連することが可能である。いくつかの例において、デバイスが、第1の予期される値、第2の予期される値、第3の予期される値、および第4の予期される値を決定することが可能である。第1の予期される値は、第1の関数と第2の関数の間の予期される値であり得る。第2の予期される値は、第3の関数とターゲット関数の間の予期される値であり得る。第3の予期される値は、第3の関数とターゲット関数の間の予期される値であり得る。第4の予期される値は、第3の関数と第4の関数の間の予期される値であり得る。重み利益の決定は、第1の予期される値、第2の予期される値、第3の予期される値、および第4の予期される値に基づくことが可能である。いくつかの例において、第1の予期される値、第2の予期される値、第3の予期される値、および第4の予期される値は、第1の関数、第2の関数、第3の関数、および第4の関数に試験入力を適用することに基づくことが可能である。
いくつかの例において、デバイスが、第2の予期される値、第3の予期される値、および第4の予期される値を使用して評価値をさらに決定することが可能である。デバイスは、その評価値を第1の予期される値とさらに比較することが可能である。デバイスは、その評価値と第1の予期される値の比較に基づいてカウントをさらに決定することが可能である。デバイスは、そのカウントをしきい値とさらに比較することが可能である。重み利益の決定はまず、そのカウントとしきい値の比較に基づくことが可能である。
図5は、本明細書で説明される少なくともいくつかの実施形態により構成された、訓練データに関する重み利益エバリュエータを実施するのに利用され得る例示的なコンピュータプログラム製品を示す。プログラム製品500が、信号担持媒体502を含み得る。信号担持媒体502は、たとえば、プロセッサによって実行されると、図1〜図4に関連して前述した機能をもたらすことが可能な1つまたは複数の命令504を含み得る。このため、たとえば、システム100を参照すると、コンピューティングデバイス102が、媒体502によってシステム100に伝送された命令504に応答して、図5に示されるブロックのうちの1つまたは複数を実行することが可能である。
いくつかの実施形態において、信号担持媒体502は、ハードディスクドライブ、コンパクトディスク(CD)、デジタルバーサタイルディスク(DVD)、デジタルテープ、メモリなどの、ただし、以上には限定されないコンピュータ可読媒体506を包含することが可能である。いくつかの実施形態において、信号担持媒体502は、メモリ、読取り/書込み(R/W)型CD、R/W型DVDなどの、ただし、以上には限定されない記録可能媒体508を包含することが可能である。いくつかの実施形態において、信号担持媒体502は、デジタル通信媒体および/またはアナログ通信媒体(たとえば、光ファイバケーブル、導波管、有線通信リンク、ワイヤレス通信リンク、その他)などの、ただし、以上には限定されない通信媒体510を包含することが可能である。このため、たとえば、プログラム製品500は、RF信号担持媒体502によってシステム100の1つまたは複数のモジュールに伝送されることが可能であり、信号担持媒体502は、ワイヤレス通信媒体510(たとえば、IEEE802.11標準に準拠するワイヤレス通信媒体)によって伝送される。
図6は、本明細書で説明される少なくともいくつかの実施形態により構成された、訓練データに関する重み利益エバリュエータを実施するように構成された例示的なコンピューティングデバイスを示すブロック図である。非常に基本的な構成602において、コンピューティングデバイス600は、通常、1つまたは複数のプロセッサ604と、システムメモリ606とを含む。メモリバス608が、プロセッサ604とシステムメモリ606の間で通信するために使用され得る。
所望される構成に依存して、プロセッサ604は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタルシグナルプロセッサ(DSP)、または以上の任意の組み合わせを含むが、以上には限定されない任意のタイプのものであり得る。プロセッサ604は、レベル1キャッシュ610およびレベル2キャッシュ612などの1つまたは複数のレベルのキャッシングと、プロセッサコア614と、レジスタ616とを含み得る。例示的なプロセッサコア614は、算術論理演算装置(ALU)、浮動小数点演算装置(FPU)、デジタル信号処理コア(DSPコア)、または以上の任意の組み合わせを含み得る。また、例示的なメモリコントローラ618が、プロセッサ604と一緒に使用されることも可能であり、またはいくつかの実施形態において、メモリコントローラ618は、プロセッサ604と一体化した部分であることが可能である。
所望される構成に依存して、システムメモリ606は、揮発性メモリ(RAMなどの)、不揮発性メモリ(ROM、フラッシュメモリなどの)、または揮発性メモリと不揮発性メモリの任意の組み合わせを含むが、以上には限定されない任意のタイプのものであり得る。システムメモリ606は、オペレーティングシステム620と、1つまたは複数のアプリケーション622と、プログラムデータ624とを含むことが可能である。アプリケーション622は、図1〜図4のシステム100に関連して説明した機能を含め、本明細書で説明される機能を実行するように構成された重み利益評価アルゴリズム626を含むことが可能である。プログラムデータ624は、本明細書で説明されるとおり訓練データに関する重み利益エバリュエータを実施するのに役立ち得る重み利益評価データ628を含むことが可能である。いくつかの実施形態において、アプリケーション622は、訓練データに関する重み利益エバリュエータの実施形態が提供され得るようにオペレーティングシステム620上でプログラムデータ624を操作するように構成されることが可能である。この説明される基本構成602が、内側の破線内の構成要素によって図6に示される。
コンピューティングデバイス600は、さらなる特徴または機能、ならびに基本構成602と任意の要求されるデバイスおよびインターフェースの間で通信を円滑にするさらなるインターフェースを有することが可能である。たとえば、バス/インターフェースコントローラ630が、ストレージインターフェースバス634を介して基本構成602と1つまたは複数のデータストレージデバイス632の間の通信を円滑にするのに使用され得る。データストレージデバイス632は、取外し式ストレージデバイス636、非取外し式ストレージデバイス638、または取外し式ストレージデバイス636と非取外し式ストレージデバイス638の組み合わせであることが可能である。取外し式ストレージデバイスおよび非取外し式ストレージデバイスの例には、いくつかを挙げると、フレキシブルディスクドライブおよびハードディスクドライブ(HDD)などの磁気ディスクデバイス、コンパクトディスク(CD)ドライブまたはデジタルバーサタイルディスク(DVD)ドライブなどの光ディスクドライブ、ソリッドステートドライブ(SSD)、およびテープドライブが含まれる。例示的なコンピュータ記憶媒体には、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を記憶するために任意の方法または技術で実装された揮発性媒体および不揮発性媒体、取外し式媒体および非取外し式媒体が含まれ得る。
システムメモリ606、取外し式ストレージデバイス636、および非取外し式ストレージデバイス638が、コンピュータ記憶媒体の例である。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、CD−ROM、デジタルバーサタイルディスク(DVD)もしくは他の光ストレージ、磁気カセット、磁気テープ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、または所望される情報を記憶するのに使用されることが可能であり、コンピューティングデバイス600によってアクセスされ得る他の任意の媒体が含まれるが、以上には限定されない。任意のそのようなコンピュータ記憶媒体が、コンピューティングデバイス600の一部であり得る。
また、コンピューティングデバイス600は、バス/インターフェースコントローラ630を介して様々なインターフェースデバイス(たとえば、出力デバイス642、周辺インターフェース644、および通信デバイス646)から基本構成602への通信を円滑にするためのインターフェースバス640を含むことも可能である。例示的な出力デバイス642は、1つまたは複数のA/Vポート652を介してディスプレイまたはスピーカなどの様々な外部デバイスに通信するように構成され得る、グラフィックス処理ユニット648およびオーディオ処理ユニット650を含む。例示的な周辺インターフェース644は、1つまたは複数のI/Oポート658を介して入力デバイス(たとえば、キーボード、マウス、ペン、音声入力デバイス、タッチ入力デバイスなど)またはその他の周辺デバイス(たとえば、プリンタ、スキャナなど)などの外部デバイスと通信するように構成され得るシリアルインターフェースコントローラ654またはパラレルインターフェースコントローラ656を含む。例示的な通信デバイス646は、1つまたは複数の通信ポート664経由でネットワーク通信リンクを介して他の1つまたは複数のコンピューティングデバイス662を相手にした通信を円滑にするように構成され得るネットワークコントローラ660を含む。
ネットワーク通信リンクは、通信媒体の一例であり得る。通信媒体は、通常、搬送波または他のトランスポート機構などの変調されたデータ信号内のコンピュータ可読命令、データ構造、プログラムモジュール、または他のデータによって実現されることが可能であり、任意の情報配信媒体を含み得る。「変調されたデータ信号」は、信号内に情報を符号化するように信号の特性のうちの1つまたは複数が設定された、または変更された信号であり得る。例として、限定としてではなく、通信媒体には、有線ネットワークまたは直接配線接続などの有線媒体、ならびに音響媒体、無線周波数(RF)媒体、マイクロ波媒体、赤外線(IR)媒体、およびその他のワイヤレス媒体などのワイヤレス媒体が含まれ得る。本明細書で使用されるコンピュータ可読媒体という用語は、記憶媒体と通信媒体をともに含み得る。
コンピューティングデバイス600は、セル電話、携帯情報端末(PDA)、パーソナルメディアプレーヤデバイス、ワイヤレスウェブウォッチデバイス、パーソナルヘッドセットデバイス、特定用途向けデバイス、または前述の機能のいずれかを含むハイブリッドデバイスなどのスモールフォームファクタのポータブル(またはモバイル)電子デバイスの一部分として実装され得る。また、コンピューティングデバイス600は、ラップトップコンピュータ構成と非ラップトップコンピュータ構成の両方を含め、パーソナルコンピュータとして実装されることも可能である。
本開示は、様々な態様の例示として意図される、本出願において説明される特定の実施形態に関して限定されるべきではない。当業者には明白となるとおり、本開示の趣旨および範囲を逸脱することなく、多くの変形および変更が行われ得る。本明細書において列挙される方法および装置に加えて、本開示の範囲に含まれる機能的に均等な方法および装置が、前段の説明から当業者には明白となろう。そのような変形および変更は、添付の特許請求の範囲に含まれるものとされる。本開示は、添付の特許請求の範囲、およびそのような特許請求の範囲に権利が与えられる均等物の完全な範囲によってのみ限定されるものとする。本開示は、無論、様々であり得る、特定の方法、試薬、化合物組成、または生物系に限定されないことを理解されたい。また、本明細書で使用される用語は、特定の実施形態を説明することを目的とするに過ぎず、限定することは意図していないことも理解されたい。
本明細書における実質的にすべての複数形および/または単数形の用語の使用に対して、当業者は、状況および/または用途に適切なように、複数形から単数形に、および/または単数形から複数形に変換することができる。様々な単数形/複数形の置き換えは、理解しやすいように、本明細書で明確に説明することができる。
通常、本明細書において、特に添付の特許請求の範囲(たとえば、添付の特許請求の範囲の本体部)において使用される用語は、全体を通じて「オープンな(open)」用語として意図されていることが、当業者には理解されよう(たとえば、用語「含む(including)」は、「含むがそれに限定されない(including but not limited to)」と解釈されるべきであり、用語「有する(having)」は、「少なくとも有する(having at least)」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない(includes but is not limited to)」と解釈されるべきである、など)。導入される請求項で具体的な数の記載が意図される場合、そのような意図は、当該請求項において明示的に記載されることになり、そのような記載がない場合、そのような意図は存在しないことが、当業者にはさらに理解されよう。たとえば、理解の一助として、添付の特許請求の範囲は、導入句「少なくとも1つの(at least one)」および「1つまたは複数の(one or more)」を使用して請求項の記載を導くことを含む場合がある。しかし、そのような句の使用は、同一の請求項が、導入句「1つまたは複数の」または「少なくとも1つの」および「a」または「an」などの不定冠詞を含む場合であっても、不定冠詞「a」または「an」による請求項の記載の導入が、そのように導入される請求項の記載を含む任意の特定の請求項を、単に1つのそのような記載を含む実施形態に限定する、ということを示唆していると解釈されるべきではない(たとえば、「a」および/または「an」は、「少なくとも1つの」または「1つまたは複数の」を意味すると解釈されるべきである)。同じことが、請求項の記載を導入するのに使用される定冠詞の使用にも当てはまる。また、導入される請求項の記載で具体的な数が明示的に記載されている場合でも、そのような記載は、少なくとも記載された数を意味すると解釈されるべきであることが、当業者には理解されよう(たとえば、他の修飾語なしでの「2つの記載(two recitations)」の単なる記載は、少なくとも2つの記載、または2つ以上の記載を意味する)。さらに、「A、BおよびC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、およびCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。「A、B、またはC、などの少なくとも1つ」に類似の慣例表現が使用されている事例では、通常、そのような構文は、当業者がその慣例表現を理解するであろう意味で意図されている(たとえば、「A、B、またはCの少なくとも1つを有するシステム」は、Aのみ、Bのみ、Cのみ、AおよびBを共に、AおよびCを共に、BおよびCを共に、ならびに/またはA、B、およびCを共に、などを有するシステムを含むが、それに限定されない)。2つ以上の代替用語を提示する事実上いかなる離接する語および/または句も、明細書、特許請求の範囲、または図面のどこにあっても、当該用語の一方(one of the terms)、当該用語のいずれか(either of the terms)、または両方の用語(both terms)を含む可能性を企図すると理解されるべきであることが、当業者にはさらに理解されよう。たとえば、句「AまたはB」は、「A」または「B」あるいは「AおよびB」の可能性を含むことが理解されよう。
さらに、本開示の特徴または態様がマーカッシュグループに関連して説明される場合、本開示は、その結果、そのマーカッシュグループの任意の個別のメンバ、またはそのようなメンバのサブグループに関連しても説明されることが当業者には認識されよう。
当業者には理解されるとおり、書面の説明を与えることなどに関してなどの一部およびすべての目的に関して、事実上、本明細書で開示されるすべての範囲は、その範囲の可能なすべての部分的範囲、およびその範囲の部分的範囲の組み合わせも包含する。いずれのリストアップされる範囲も、少なくとも等しい1/2、1/3、1/4、1/5、1/10などに細分された同一の範囲を十分に説明し、可能にするものと容易に認識され得る。非限定的な例として、本明細書で説明される各範囲は、下1/3、中1/3、および上1/3などに容易に細分され得る。当業者には理解されるとおり、「〜まで」、「少なくとも〜」、「〜より大きい」、「〜未満」などのすべての言い回しは、記載される数を含むとともに、前述したとおり、部分的範囲にその後、細分され得る範囲を指す。最後に、当業者には理解されるとおり、範囲は、個別の各メンバを含む。このため、たとえば、1〜3のセルを有するグループとは、1つのセル、2つのセル、または3つのセルを有するグループを指す。同様に、1〜5のセルを有するグループとは、1つのセル、2つのセル、3つのセル、4つのセル、または5つのセルを有するグループを指すといった具合である。
様々な態様および実施形態が本明細書で説明されてきたが、他の態様および実施形態が、当業者には明白となろう。本明細書で開示される様々な態様および実施形態は、例示を目的としており、限定することは意図しておらず、真の範囲および趣旨は、添付の特許請求の範囲によって示される。

Claims (20)

  1. 機械学習環境において訓練データに関連する重み利益を決定する方法であって、デバイスによる、
    前記訓練データに基づいて第1の関数を決定することであって、前記訓練データは、訓練入力と、訓練ラベルとを含むこと、
    前記訓練データに重みのセットを適用して、重み付けされた訓練データを生成すること、
    前記重み付けされた訓練データに基づいて第2の関数を決定すること、
    重みの前記セットの評価のために使用する関数(以下、ターゲット関数という)に基づいて、重みの前記セットの評価のために使用するデータ(以下、ターゲットデータという)を生成することであって、前記ターゲットデータは、前記訓練入力と、前記訓練入力を前記ターゲット関数に適用して得られるラベル(以下、ターゲットラベルという)を含み、前記ターゲットラベルは、前記訓練ラベルとは異なること
    前記ターゲットデータに基づいて第3の関数を決定すること、
    前記ターゲットデータに重みの前記セットを適用して、重み付けされたターゲットデータを生成すること、
    重み付けされたターゲットデータに基づいて第4の関数を決定すること、ならびに
    前記第1の関数、前記第2の関数、前記第3の関数、および前記第4の関数に基づいて前記重み利益を決定することであって、前記重み利益は、前記訓練データに重みの前記セットを適用する利益に関連すること、を備える方法。
  2. 前記第1の関数と前記第2の関数の間の第1の予期される値を決定すること、
    前記第3の関数と前記ターゲット関数の間の第2の予期される値を決定することであって、前記ターゲット関数は、前記訓練データに基づくこと、
    前記第4の関数と前記ターゲット関数の間の第3の予期される値を決定すること、および
    前記第3の関数と前記第4の関数の間の第4の予期される値を決定すること、をさらに備え、
    前記重み利益を前記決定することは、前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値に基づく、請求項1に記載の方法。
  3. 前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値は、それぞれ、前記第1の関数、前記第2の関数、前記第3の関数、および前記第4の関数に試験入力を適用することに基づく、請求項2に記載の方法。
  4. 前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値を使用して評価値を決定すること、
    前記評価値を前記第1の予期される値と比較すること、
    前記評価値と前記第1の予期される値を前記比較することに基づいてカウントを決定すること、および
    前記カウントをしきい値と比較すること、をさらに備え、
    前記重み利益を前記決定することは、前記カウントと前記しきい値を前記比較することに基づく、請求項2に記載の方法。
  5. 前記重み付けされたターゲットデータを前記生成することは、前記ターゲット関数に基づく、請求項2に記載の方法。
  6. 前記ターゲット関数を生成するために使用する関数(以下、人工的な関数という)を生成するパラメータのセットを決定すること、
    前記訓練入力および前記人工的な関数を使用して、前記ターゲット関数を生成するために使用するデータ(以下、人工的なデータという)を生成することであって、前記人工的なデータは、前記訓練入力と、前記訓練入力を前記人工的な関数に適用して得られるラベルとを含むこと、
    前記訓練データおよび前記人工的なデータに基づいて前記ターゲット関数を生成すること、
    前記第1の関数と前記第2の関数の間の第1の予期される値を決定すること、
    前記第3の関数と前記ターゲット関数の間の第2の予期される値を決定すること、
    前記第4の関数と前記ターゲット関数の間の第3の予期される値を決定すること、ならびに
    前記第3の関数と前記第4の関数の間の第4の予期される値を決定すること、をさらに備え、
    前記重み利益を前記決定することは、前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値に基づく、請求項1に記載の方法。
  7. 前記ターゲット関数を前記生成することは、
    前記訓練データに関連する第1の平均値を決定すること、
    前記訓練データに関連する第1の標準偏差を決定すること、
    前記人工的なデータに関連する第2の平均値を決定すること、
    前記人工的なデータに関連する第2の標準偏差を決定すること、を備え、
    前記ターゲット関数は、前記第1の平均値、前記第1の標準偏差、前記第2の平均値、および前記第2の偏差に基づく、請求項6に記載の方法。
  8. 前記ターゲット関数は、雑音パラメータにさらに基づく、請求項7に記載の方法。
  9. 前記ターゲット関数は、
    前記第1の平均値、前記第1の標準偏差、前記第2の平均値、および前記第2の標準偏差に符号関数、
    前記第1の平均値、前記第1の標準偏差、前記第2の平均値、および前記第2の標準偏差にラウンド関数、または
    前記第1の平均値、前記第1の標準偏差、前記第2の平均値、および前記第2の標準偏差に最近接数関数
    のうちの1つを適用することに基づく、請求項7に記載の方法。
  10. 機械学習環境において訓練データに関連する重み利益を決定するのに有効なシステムであって、
    前記訓練データを記憶することであって、前記訓練データは、訓練入力と、訓練ラベルとを含むこと、および
    重みのセットを記憶することを行うように構成されたメモリと、
    前記メモリと通信状態にあるように構成されたターゲット関数生成モジュールであって、
    重みの前記セットの評価のために使用する関数(以下、ターゲット関数という)に基づいて、重みの前記セットの評価のために使用するデータ(以下、ターゲットデータという)を生成することであって、前記ターゲットデータは、前記訓練入力と、前記訓練入力を前記ターゲット関数に適用して得られるラベル(以下、ターゲットラベルという)を含み、前記ターゲットラベルは、前記訓練ラベルとは異なること、および
    前記ターゲットデータを前記メモリの中に記憶することを行うように構成されたターゲット関数生成モジュールと、
    前記ターゲット関数生成モジュールおよび前記メモリと通信状態にあるように構成された処理モジュールであって、
    前記訓練データに重みの前記セットを適用して、重み付けされた訓練データを生成すること、
    前記ターゲットデータに重みの前記セットを適用して、重み付けされたターゲットデータを生成すること、
    前記重み付けされた訓練データおよび前記重み付けされたターゲットデータを前記メモリの中に記憶することを行うように構成された処理モジュールと、
    前記ターゲット関数生成モジュール、前記処理モジュール、および前記メモリと通信状態にあるように構成された機械学習モジュールであって、
    前記訓練データに基づいて第1の関数を決定すること、
    前記重み付けされた訓練データに基づいて第2の関数を決定すること、
    前記ターゲットデータに基づいて第3の関数を決定すること、および
    前記重み付けされたターゲットデータに基づいて第4の関数を決定することを行うように構成された機械学習モジュールと、
    前記ターゲット関数生成モジュール、前記処理モジュール、前記機械学習モジュール、および前記メモリと通信状態にあるように構成された評価モジュールであって、
    前記第1の関数、前記第2の関数、前記第3の関数、および前記第4の関数に基づいて前記重み利益を決定することであって、前記重み利益は、前記訓練データに重みの前記セットを適用する利益に関連することを行うように構成された評価モジュールと、を備えるシステム。
  11. 前記ターゲット関数生成モジュール、前記処理モジュール、前記機械学習モジュール、前記評価モジュール、および前記メモリと通信状態にあるように構成された算術モジュールをさらに備え、前記算術モジュールは、
    前記第1の関数と前記第2の関数の間の第1の予期される値を決定すること、
    前記メモリから前記ターゲット関数を取り出すことであって、前記ターゲット関数は、前記訓練データに基づくこと、
    前記第3の関数と前記ターゲット関数の間の第2の予期される値を決定すること、
    前記第4の関数と前記ターゲット関数の間の第3の予期される値を決定すること、
    前記第3の関数と前記第4の関数の間の第4の予期される値を決定すること、
    前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値を前記評価モジュールに送信することを行うように構成され、
    前記評価モジュールは、前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値に基づいて前記重み利益を決定するのに有効である、請求項10に記載のシステム。
  12. 前記評価モジュールは、
    前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値を受信すること、
    前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値を使用して評価値を決定すること、
    前記評価値を前記第1の予期される値と比較すること、
    前記評価値と前記第1の予期される値を前記比較することに基づいてカウントを決定すること、および
    前記カウントをしきい値と比較することを行うようにさらに構成され、
    前記重み利益を前記決定することは、前記カウントと前記しきい値を前記比較することに基づく、請求項11に記載のシステム。
  13. 前記処理モジュールは、
    前記ターゲット関数を使用して前記重み付けされたターゲットデータを生成することを行うように構成される、請求項11に記載のシステム。
  14. 前記ターゲット関数生成モジュールは、
    前記ターゲット関数を生成するために使用する関数(以下、人工的な関数という)を生成するパラメータのセットを決定すること、
    前記訓練入力および前記人工的な関数を使用して、前記ターゲット関数を生成するために使用するデータ(以下、人工的なデータという)を生成することであって、前記人工的なデータは、前記訓練入力と、前記訓練入力を前記人工的な関数に適用して得られるラベルとを含むこと、
    前記訓練データおよび前記人工的なデータに基づいて前記ターゲット関数を生成すること、
    前記第1の関数と前記第2の関数の間の第1の予期される値を決定すること、
    前記第3の関数と前記ターゲット関数の間の第2の予期される値を決定すること、
    前記第4の関数と前記ターゲット関数の間の第3の予期される値を決定すること、ならびに
    前記第3の関数と前記第4の関数の間の第4の予期される値を決定することを行うようにさらに構成され、
    前記評価モジュールは、前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値に基づいて前記重み利益を決定するのに有効である、請求項10に記載のシステム。
  15. 前記ターゲット関数生成モジュールは、
    前記訓練データに関連する第1の平均値を決定すること、
    前記訓練データに関連する第1の標準偏差を決定すること、
    前記人工的なデータに関連する第2の平均値を決定すること、および
    前記人工的なデータに関連する第2の標準偏差を決定することを行うようにさらに構成され、
    前記ターゲット関数は、前記人工的なデータ、前記第1の平均値、前記第1の標準偏差、前記第2の平均値、および前記第2の偏差に基づく、請求項14に記載のシステム。
  16. 機械学習環境において訓練データに関連する重み利益を決定する方法であって、第1のデバイスによる、
    第2のデバイスから、前記訓練データに基づく第1の関数を受信することであって、前記訓練データは、訓練入力と、訓練ラベルとを含むこと、
    前記第2のデバイスから、重みのセットを受信すること、
    前記第2のデバイスから、重み付けされた訓練データに基づく第2の関数を受信することであって、前記重み付けされた訓練データは、重みの前記セットに基づくこと、
    重みの前記セットの評価のために使用する関数(以下、ターゲット関数という)に基づいて、重みの前記セットの評価のために使用するデータ(以下、ターゲットデータという)を生成することであって、前記ターゲットデータは、前記訓練入力と、前記訓練入力を前記ターゲット関数に適用して得られるラベル(以下、ターゲットラベルという)を含み、前記ターゲットラベルは、前記訓練ラベルとは異なること
    前記ターゲットデータに基づいて第3の関数を決定すること、
    前記ターゲットデータに重みの前記セットを適用して、重み付けされたターゲットデータを生成すること、
    前記重み付けされたターゲットデータに基づいて第4の関数を決定すること、ならびに
    前記第1の関数、前記第2の関数、前記第3の関数、および前記第4の関数に基づいて前記重み利益を決定することであって、前記重み利益は、前記訓練データに重みの前記セットを適用する利益に関連すること、を備える方法。
  17. 前記第1の関数と前記第2の関数の間の第1の予期される値を決定すること、
    前記第3の関数と前記ターゲット関数の間の第2の予期される値を決定すること、
    前記第4の関数と前記ターゲット関数の間の第3の予期される値を決定すること、および
    前記第3の関数と前記第4の関数の間の第4の予期される値を決定すること、をさらに備え、
    前記重み利益を前記決定することは、前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値に基づく、請求項16に記載の方法。
  18. 前記第1の予期される値、前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値は、それぞれ、前記第1の関数、前記第2の関数、前記第3の関数、および前記第4の関数に試験入力を適用することに基づく、請求項17に記載の方法。
  19. 前記第2の予期される値、前記第3の予期される値、および前記第4の予期される値を使用して評価値を決定すること、
    前記評価値を前記第1の予期される値と比較すること、
    前記評価値と前記第1の予期される値を前記比較することに基づいてカウントを決定すること、および
    前記カウントをしきい値と比較すること、をさらに備え、
    前記重み利益を前記決定することは、前記カウントと前記しきい値を前記比較することに基づく、請求項17に記載の方法。
  20. 前記ターゲット関数を生成するために使用する関数(以下、人工的な関数という)を生成するパラメータのセットを決定すること、
    前記訓練入力および前記人工的な関数を使用して、前記ターゲット関数を生成するために使用するデータ(以下、人工的なデータという)を生成することであって、前記人工的なデータは、前記訓練入力と、前記訓練入力を前記人工的な関数に適用して得られるラベルとを含むこと、
    前記訓練データに関連する第1の平均値を決定すること、
    前記訓練データに関連する第1の標準偏差を決定すること、
    前記人工的なデータに関連する第2の平均値を決定すること、
    前記人工的なデータに関連する第2の標準偏差を決定すること、および
    前記人工的なデータ、前記第1の平均値、前記第1の標準偏差、前記第2の平均値、および前記第2の標準偏差を使用して前記ターゲット関数を生成すること、をさらに備える、請求項16に記載の方法。
JP2016532028A 2013-11-22 2014-11-21 訓練データに関する重み利益エバリュエータ Expired - Fee Related JP6276857B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361907504P 2013-11-22 2013-11-22
US61/907,504 2013-11-22
US201462015133P 2014-06-20 2014-06-20
US62/015,133 2014-06-20
US14/451,859 2014-08-05
US14/451,859 US10558935B2 (en) 2013-11-22 2014-08-05 Weight benefit evaluator for training data
PCT/US2014/066805 WO2015077555A2 (en) 2013-11-22 2014-11-21 Weight benefit evaluator for training data

Publications (2)

Publication Number Publication Date
JP2017500637A JP2017500637A (ja) 2017-01-05
JP6276857B2 true JP6276857B2 (ja) 2018-02-07

Family

ID=53180398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016532028A Expired - Fee Related JP6276857B2 (ja) 2013-11-22 2014-11-21 訓練データに関する重み利益エバリュエータ

Country Status (5)

Country Link
US (2) US10558935B2 (ja)
EP (1) EP3072060A4 (ja)
JP (1) JP6276857B2 (ja)
KR (1) KR101889451B1 (ja)
WO (1) WO2015077555A2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953271B2 (en) 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US9858534B2 (en) 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US10558935B2 (en) * 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US10535014B2 (en) 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
EP3602422B1 (en) 2017-03-22 2022-03-16 Visa International Service Association Privacy-preserving machine learning
CN107832852B (zh) * 2017-11-14 2021-03-02 深圳码隆科技有限公司 数据处理学习方法、系统以及电子设备
WO2019141905A1 (en) * 2018-01-19 2019-07-25 Nokia Technologies Oy An apparatus, a method and a computer program for running a neural network
JP6950647B2 (ja) * 2018-08-28 2021-10-13 株式会社豊田中央研究所 データ判定装置、方法、及びプログラム
US10977445B2 (en) * 2019-02-01 2021-04-13 International Business Machines Corporation Weighting features for an intent classification system
KR102411885B1 (ko) 2019-08-01 2022-06-21 박상훈 트레이닝 완성도를 평가하기 위한 장치 및 방법
US11861467B2 (en) * 2020-03-05 2024-01-02 Qualcomm Incorporated Adaptive quantization for execution of machine learning models
US11379748B2 (en) 2020-06-15 2022-07-05 Bank Of America Corporation System for threshold detection using learning reinforcement

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2167748A1 (en) * 1995-02-09 1996-08-10 Yoav Freund Apparatus and methods for machine learning hypotheses
US6119083A (en) 1996-02-29 2000-09-12 British Telecommunications Public Limited Company Training process for the classification of a perceptual signal
US6373483B1 (en) 1997-01-13 2002-04-16 Silicon Graphics, Inc. Method, system and computer program product for visually approximating scattered data using color to represent values of a categorical variable
US6594586B1 (en) * 1997-10-28 2003-07-15 California Institute Of Technology Incorporation of contextual information in object identification
US6453307B1 (en) 1998-03-03 2002-09-17 At&T Corp. Method and apparatus for multi-class, multi-label information categorization
US6789069B1 (en) * 1998-05-01 2004-09-07 Biowulf Technologies Llc Method for enhancing knowledge discovered from biological data using a learning machine
WO1999057622A2 (en) 1998-05-01 1999-11-11 Barnhill Technologies, Llc Pre-processing and post-processing for enhancing knowledge discovery using support vector machines
US7318051B2 (en) * 2001-05-18 2008-01-08 Health Discovery Corporation Methods for feature selection in a learning machine
US6850873B1 (en) 1999-09-29 2005-02-01 Eric T Bax Using validation by inference to select a hypothesis function
US7970718B2 (en) 2001-05-18 2011-06-28 Health Discovery Corporation Method for feature selection and for evaluating features identified as significant for classifying data
US6701311B2 (en) 2001-02-07 2004-03-02 International Business Machines Corporation Customer self service system for resource search and selection
EP1449108A4 (en) 2001-11-07 2006-11-22 Health Discovery Corp CLASSIFICATION OF CHARACTERISTICS PRETRATED FOR A SUPPORT VECTOR MACHINE
US6876955B1 (en) 2001-12-28 2005-04-05 Fannie Mae Method and apparatus for predicting and reporting a real estate value based on a weighted average of predicted values
JP2005044330A (ja) 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP2005107743A (ja) * 2003-09-29 2005-04-21 Nec Corp 学習システム
US7356187B2 (en) * 2004-04-12 2008-04-08 Clairvoyance Corporation Method and apparatus for adjusting the model threshold of a support vector machine for text classification and filtering
US7426497B2 (en) * 2004-08-31 2008-09-16 Microsoft Corporation Method and apparatus for analysis and decomposition of classifier data anomalies
US7480667B2 (en) 2004-12-24 2009-01-20 Microsoft Corporation System and method for using anchor text as training data for classifier-based search systems
US7689520B2 (en) * 2005-02-25 2010-03-30 Microsoft Corporation Machine learning system and method for ranking sets of data using a pairing cost function
US7877383B2 (en) * 2005-04-27 2011-01-25 Microsoft Corporation Ranking and accessing definitions of terms
US7472096B2 (en) * 2005-07-18 2008-12-30 Microsoft Corporation Training a learning system with arbitrary cost functions
US7561158B2 (en) 2006-01-11 2009-07-14 International Business Machines Corporation Method and apparatus for presenting feature importance in predictive modeling
EP1818746A1 (en) 2006-02-10 2007-08-15 ALSTOM Technology Ltd Method of condition monitoring
US8019763B2 (en) * 2006-02-27 2011-09-13 Microsoft Corporation Propagating relevance from labeled documents to unlabeled documents
US8001121B2 (en) * 2006-02-27 2011-08-16 Microsoft Corporation Training a ranking function using propagated document relevance
US7617164B2 (en) * 2006-03-17 2009-11-10 Microsoft Corporation Efficiency of training for ranking systems based on pairwise training with aggregated gradients
AU2006201210A1 (en) 2006-03-23 2007-10-11 Canon Information Systems Research Australia Pty Ltd Motion characterisation
US7720830B2 (en) * 2006-07-31 2010-05-18 Microsoft Corporation Hierarchical conditional random fields for web extraction
US20080169975A1 (en) 2007-01-12 2008-07-17 Young Paul Yee Process for generating spatially continuous wind profiles from wind profiler measurements
US8005771B2 (en) 2007-10-04 2011-08-23 Siemens Corporation Segment-based change detection method in multivariate data stream
US20090132515A1 (en) * 2007-11-19 2009-05-21 Yumao Lu Method and Apparatus for Performing Multi-Phase Ranking of Web Search Results by Re-Ranking Results Using Feature and Label Calibration
US8175384B1 (en) 2008-03-17 2012-05-08 Adobe Systems Incorporated Method and apparatus for discriminative alpha matting
JP2009282685A (ja) 2008-05-21 2009-12-03 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US8386401B2 (en) * 2008-09-10 2013-02-26 Digital Infuzion, Inc. Machine learning methods and systems for identifying patterns in data using a plurality of learning machines wherein the learning machine that optimizes a performance function is selected
JP2010092266A (ja) 2008-10-08 2010-04-22 Nec Corp 学習装置、学習方法及びプログラム
US20100169243A1 (en) * 2008-12-27 2010-07-01 Kibboko, Inc. Method and system for hybrid text classification
US9189472B2 (en) * 2009-03-30 2015-11-17 Touchtype Limited System and method for inputting text into small screen devices
US20120290316A1 (en) 2009-11-27 2012-11-15 New Ideas Company Pty Ltd Method and System for Consumer Centred Care Management
US9187984B2 (en) 2010-07-29 2015-11-17 Exxonmobil Upstream Research Company Methods and systems for machine-learning based simulation of flow
US8924314B2 (en) * 2010-09-28 2014-12-30 Ebay Inc. Search result ranking using machine learning
US8504392B2 (en) * 2010-11-11 2013-08-06 The Board Of Trustees Of The Leland Stanford Junior University Automatic coding of patient outcomes
US20120271821A1 (en) 2011-04-20 2012-10-25 Microsoft Corporation Noise Tolerant Graphical Ranking Model
US8798984B2 (en) * 2011-04-27 2014-08-05 Xerox Corporation Method and system for confidence-weighted learning of factored discriminative language models
US20120330971A1 (en) * 2011-06-26 2012-12-27 Itemize Llc Itemized receipt extraction using machine learning
US9471882B2 (en) * 2011-07-25 2016-10-18 International Business Machines Corporation Information identification method, program product, and system using relative frequency
US20130066452A1 (en) 2011-09-08 2013-03-14 Yoshiyuki Kobayashi Information processing device, estimator generating method and program
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US8873813B2 (en) * 2012-09-17 2014-10-28 Z Advanced Computing, Inc. Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities
US20130097103A1 (en) 2011-10-14 2013-04-18 International Business Machines Corporation Techniques for Generating Balanced and Class-Independent Training Data From Unlabeled Data Set
US9031897B2 (en) 2012-03-23 2015-05-12 Nuance Communications, Inc. Techniques for evaluation, building and/or retraining of a classification model
US8788439B2 (en) * 2012-12-21 2014-07-22 InsideSales.com, Inc. Instance weighted learning machine learning model
US20140180738A1 (en) 2012-12-21 2014-06-26 Cloudvu, Inc. Machine learning for systems management
WO2014110167A2 (en) 2013-01-08 2014-07-17 Purepredictive, Inc. Integrated machine learning for a data management product
EP2883173A1 (en) * 2013-03-15 2015-06-17 The Echo Nest Corporation Demographic and media preference prediction using media content data analysis
US9355088B2 (en) 2013-07-12 2016-05-31 Microsoft Technology Licensing, Llc Feature completion in computer-human interactive learning
US9679258B2 (en) 2013-10-08 2017-06-13 Google Inc. Methods and apparatus for reinforcement learning
US10558935B2 (en) 2013-11-22 2020-02-11 California Institute Of Technology Weight benefit evaluator for training data
US10535014B2 (en) * 2014-03-10 2020-01-14 California Institute Of Technology Alternative training distribution data in machine learning
US9858534B2 (en) * 2013-11-22 2018-01-02 California Institute Of Technology Weight generation in machine learning
US9953271B2 (en) * 2013-11-22 2018-04-24 California Institute Of Technology Generation of weights in machine learning
US10262272B2 (en) 2014-12-07 2019-04-16 Microsoft Technology Licensing, Llc Active machine learning
US20170011307A1 (en) 2015-07-07 2017-01-12 California Institute Of Technology Alternative training distribution based on density modification

Also Published As

Publication number Publication date
US20160379140A1 (en) 2016-12-29
EP3072060A4 (en) 2017-08-09
EP3072060A2 (en) 2016-09-28
WO2015077555A2 (en) 2015-05-28
JP2017500637A (ja) 2017-01-05
KR20160083111A (ko) 2016-07-11
WO2015077555A3 (en) 2015-10-29
US10558935B2 (en) 2020-02-11
KR101889451B1 (ko) 2018-08-17
US20150206065A1 (en) 2015-07-23

Similar Documents

Publication Publication Date Title
JP6276857B2 (ja) 訓練データに関する重み利益エバリュエータ
JP6212216B2 (ja) 機械学習における重み生成
JP6212217B2 (ja) 機械学習における重みの生成
KR101933916B1 (ko) 머신 러닝에서의 대안 트레이닝 분포 데이터
US10268451B2 (en) Method and processing apparatus for performing arithmetic operation
CN108630197B (zh) 用于语音识别的训练方法和设备
CN105761102B (zh) 一种预测用户购买商品行为的方法和装置
EP3115939A1 (en) Alternative training distribution based on density modification
JP6381962B2 (ja) シミュレーションシステム及び方法と該システムを含むコンピュータシステム
WO2016123788A1 (en) Rhythm based multimedia generator
US20160378791A1 (en) Method and apparatus for performing a search operation on heterogeneous computing systems
US20150255090A1 (en) Method and apparatus for detecting speech segment
KR20220013896A (ko) 프로세서의 신경망 아키텍처를 결정하기 위한 방법 및 장치
US20200202212A1 (en) Learning device, learning method, and computer-readable recording medium
WO2015070408A1 (en) Generation of a communication request based on visual selection
CN113128677A (zh) 模型生成方法和装置
US20160140203A1 (en) Ontology decomposer
WO2016054800A1 (en) Scene image generator
CN114201974A (zh) 一种对话处理方法及相关设备
CN115358288A (zh) 基于标签约束的多模态分类模型训练方法及装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180112

R150 Certificate of patent or registration of utility model

Ref document number: 6276857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees