JP2022524830A - 機械学習アプリケーションにおけるカテゴリフィールド値の取り扱い - Google Patents
機械学習アプリケーションにおけるカテゴリフィールド値の取り扱い Download PDFInfo
- Publication number
- JP2022524830A JP2022524830A JP2021555001A JP2021555001A JP2022524830A JP 2022524830 A JP2022524830 A JP 2022524830A JP 2021555001 A JP2021555001 A JP 2021555001A JP 2021555001 A JP2021555001 A JP 2021555001A JP 2022524830 A JP2022524830 A JP 2022524830A
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- network
- auxiliary
- fields
- transaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 69
- 238000013528 artificial neural network Methods 0.000 claims abstract description 145
- 239000013598 vector Substances 0.000 claims abstract description 71
- 238000000034 method Methods 0.000 claims abstract description 52
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 17
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 210000004205 output neuron Anatomy 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 26
- 230000003993 interaction Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/14—Travel agencies
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Tourism & Hospitality (AREA)
- Accounting & Taxation (AREA)
- Economics (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Entrepreneurship & Innovation (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Game Theory and Decision Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
一般的に言えば、機械学習とは、分析モデルの構築を自動化するためのデータ分析アプリケーションである。機械学習は、明示的に定義されたモデルを用いて検出することが困難または不可能なデータの相関関係を理解するために、様々な分野に適用されてきている。例えば、機械学習システム118に機械学習が適用され、取引時に知られている様々なデータフィールド(例えば、コスト、アカウント識別子、取引場所、購入アイテム)が、取引が不正である可能性の割合とどのように相関するかをモデル化している。これらのフィールドの値とこれに続く不正率とを相関させる履歴データが機械学習アルゴリズムに渡され、これにより統計モデルが生成される。新しい取引が試みられると、フィールドの値がモデルに渡され、その結果、新しい取引が不正である可能性の割合を示す数値が得られる。本技術分野では、ニューラルネットワーク、決定木、回帰アルゴリズム、ベイジアンアルゴリズムなど、数多くの機械学習モデルが知られている。
概説すれば、本開示の態様は、機械学習モデル内で相関情報を分析するために必要とされる過剰な計算資源を制限または除去しつつ、カテゴリ変数の相関情報を維持するための機械学習モデル内でカテゴリ変数を効率的に取り扱うことに関する。本開示の実施形態は、例示的に、多数の類似したカテゴリ変数値が不正を示す場合を検出するために使用することができ、これにより他の類似したカテゴリ変数値の不正の試みを検出することができる。例えば、本開示の実施形態は、不正と、“John Doe”および“John Dohe”という名称の使用との間に強い相関関係があることを検出し、これにより“Jon Doe”という名称の使用も不正である可能性が高いと予測することができる。カテゴリ変数を効率的に取り扱うために、本開示の実施形態では、カテゴリ値の高次元数値表現を生成するための「埋め込み(embedding)」を使用している。埋め込みは、機械学習における既知の技術であり、値の重要な相関情報を維持しつつ、値(例えば、カテゴリ値)の次元を減らすことを試みる。そして、これらの高次元数値表現は、補助ニューラルネットワークの特徴量(例えば、補助ニューラルネットワークへの入力)として処理される。各補助ニューラルネットワークの出力は、主ニューラルネットワークの特徴量として、他の特徴量(例えば、非カテゴリ変数)と共に使用され、結果として、取引が不正である可能性の割合を提供するモデルなどの出力が得られる。高次元の数値表現を別々の補助ネットワークで処理することにより、このような表現の個々の次元と他の特徴量(例えば、非カテゴリ変数)とのインタラクションが制限され、ネットワーク全体の過剰な組み合わせ的成長が低減または除去される。各補助ネットワークの出力は、分析の対象となる他のデータに基づいて、適切な次元でカテゴリ特徴を表現するように制約されている。例えば、一般的に意味的または文脈的に相互に関連しない2つの変数(取引の名称と時間など)は、低次元の値(例えば、それぞれが主ネットワークの特徴量を表す単一の値)として主ネットワークで処理されうる。意味的または文脈的に相関性の高い変数(名称の変数の2つの値など)は、高次元で処理されうる。多少の意味的または文脈的な相関がある変数(内容的には重複しているが全体的な形が異なる、名称とメールアドレスなど)は、2つの初期補助ネットワークの出力を中間補助ネットワークに結合し、その出力を主ニューラルネットワークに供給するなどして、中間次元で処理されうる。このネットワークの組み合わせにより、階層型ニューラルネットワークを得ることができる。このようなネットワークの「階層」を使用することで、ニューラルネットワーク上の特徴量のインタラクションのレベルを、これらのインタラクションに期待される意味的または文脈的な関連性に関して制御することができ、これにより、先行モデルの過剰な計算資源の使用を発生させることなく、カテゴリ変数の高次元表現に基づいて機械学習を行うことができる。
[条項1] 機械学習アプリケーションでカテゴリフィールド値を取り扱うシステムであって、
ラベル付けされた取引記録を備えるデータストアであって、各記録は、取引に対応し、かつ前記取引に関連するフィールドのセット内の個々のフィールドの値を含み、かつ前記取引が不正であると判別されたかどうかの表示でラベル付けされている、データストアと、
コンピュータ実行可能命令で構成された1つまたは複数のプロセッサであって、少なくとも、
階層型ニューラルネットワークのハイパーパラメータを取得し、前記ハイパーパラメータは、少なくとも前記フィールドのセット内のカテゴリフィールドおよび前記カテゴリフィールド値を多次元ベクトルに変換するために使用される埋め込み処理を識別し、
前記記録内の前記カテゴリフィールドのフィールド値を前記埋め込み処理によって変換することにより、前記カテゴリフィールドの前記多次元ベクトルを生成し、
補助ニューラルネットワークを生成し、前記補助ニューラルネットワークは、多次元ベクトルを入力として取り込み、かつ各ベクトルについてそのベクトルの低次元表現を出力し、
少なくとも前記補助ニューラルネットワークおよび主ニューラルネットワークを備える階層型ニューラルネットワークを生成し、前記主ニューラルネットワークは、入力として、前記補助ニューラルネットワークによって出力された前記低次元表現と前記フィールドのセット内の非カテゴリフィールドの1つまたは複数の値との組み合わせを取り込み、かつ入力記録に対応する個々の取引が不正である可能性を示す二値分類を出力し、
前記ラベル付けされた取引データによって前記階層型ニューラルネットワークを訓練して学習済みモデルを生成し、
前記学習済みモデルによって新しい取引記録を処理して、新しい取引が不正である可能性を判別し、
前記新しい取引が不正である可能性を出力する、
プロセッサと
を備える、システム。
[条項2] 前記カテゴリフィールドは、各取引の当事者の名称、ユーザネーム、メールアドレス、または住所のうちの少なくとも1つを表す、条項1記載のシステム。
[条項3] 前記非カテゴリフィールドは、各取引についての順序値または数値を表す、条項1記載のシステム。
[条項4] 前記順序値は、取引額または取引時間の少なくとも1つを含む、条項3記載のシステム。
[条項5] 前記埋め込み処理は、単語レベルまたは文字レベルの埋め込みの少なくとも1つを表す、条項1記載のシステム。
[条項6] コンピュータ実装方法であって、
ラベル付けされた取引記録を取得することであって、各記録は、取引に対応し、かつ前記取引に関連するフィールドのセット内の個々のフィールドの値を含み、かつ前記取引が不正であると判別されたかどうかの表示でラベル付けされている、ことと、
階層型ニューラルネットワークについてのハイパーパラメータを取得することであって、前記ハイパーパラメータは、少なくとも前記フィールドのセット内のカテゴリフィールドおよび前記カテゴリフィールド値を多次元ベクトルに変換するために使用される埋め込み処理を識別するためのものである、ことと、
前記多次元ベクトルを生成することと、
少なくとも補助ニューラルネットワークおよび主ニューラルネットワークを備える階層型ニューラルネットワークを生成することであって、
前記補助ニューラルネットワークは、入力として、前記多次元ベクトルを取り込み、各ベクトルについて、そのベクトルの低次元表現を出力し、
前記主ニューラルネットワークは、入力として、前記補助ニューラルネットワークによって出力された前記低次元表現と、前記フィールドのセット内の非カテゴリフィールドの1つまたは複数の値との組み合わせを取り込み、前記主ニューラルネットワークは、入力記録に対応する個々の取引が不正である可能性を示す二値分類を出力する、
ことと、
前記ラベル付けされた取引記録によって前記階層型ニューラルネットワークを訓練して学習済みモデルを生成することと、
前記学習済みモデルによって新しい取引記録を処理して、新しい取引が不正である可能性を判別することと、
前記新しい取引が不正である可能性を出力することと、
を含む、コンピュータ実装方法。
[条項7] 前記ハイパーパラメータは、前記フィールドのセット内の1つまたは複数の追加のカテゴリフィールドを識別し、前記階層型ニューラルネットワークは、前記1つまたは複数の追加のカテゴリフィールドのそれぞれについての追加の補助ニューラルネットワークを備えており、各追加の補助ニューラルネットワークの出力は、前記主ニューラルネットワークへの追加の入力を表している、条項6記載のコンピュータ実装方法。
[条項8] 前記低次元表現は、前記補助ニューラルネットワークの出力ニューロンのセットによって表される、条項7記載のコンピュータ実装方法。
[条項9] 前記多次元ベクトルを生成することは、前記カテゴリフィールドの各値について、対応する多次元ベクトルを識別するルックアップテーブルを参照することを含む、条項7記載のコンピュータ実装方法。
[条項10] 前記ルックアップテーブルは、前記カテゴリフィールドについての値のコーパスに機械学習アルゴリズムを事前に適用することによって生成される、条項7記載のコンピュータ実装方法。
[条項11] 前記階層型ニューラルネットワークは、さらに、前記補助ニューラルネットワークによって出力された前記低次元表現を前記主ニューラルネットワークに供給する中間ニューラルネットワークを備える、条項7記載のコンピュータ実装方法。
[条項12] 前記中間ニューラルネットワークは、さらに、前記低次元表現を前記主ニューラルネットワークに供給する前に、前記補助ニューラルネットワークによって出力された前記低次元表現の次元を低減する、条項11記載のコンピュータ実装方法。
[条項13] 前記埋め込み処理は、単語レベルまたは文字レベルの埋め込みの少なくとも1つを表す、条項7記載のコンピュータ実装方法。
[条項14] コンピュータ実行可能命令を含む非一時性コンピュータ可読媒体であって、前記コンピュータ実行可能命令は、コンピューティングシステムによって実行される際に、前記コンピューティングシステムに、
ラベル付けされた記録を取得させ、各記録は、フィールドのセット内の個々のフィールドの値を含み、かつ前記記録の分類でラベル付けされており、
階層型ニューラルネットワークについてのハイパーパラメータを取得させ、前記ハイパーパラメータは、少なくとも前記フィールドのセット内のカテゴリフィールドおよび前記カテゴリフィールド値を多次元ベクトルに変換するために使用される埋め込みを識別するためのものであり、
少なくとも補助ニューラルネットワークおよび主ニューラルネットワークを備える階層型ニューラルネットワークを生成させ、
前記補助ニューラルネットワークは、入力として、埋め込み処理による前記カテゴリフィールドについての値の変換から得られる、前記フィールドのセット内の前記カテゴリフィールドの多次元ベクトルを取り込み、かつ各多次元ベクトルについて、前記多次元ベクトルの低次元表現を出力するものであり、
前記主ニューラルネットワークは、入力として、前記補助ニューラルネットワークによって出力された前記低次元表現と、前記フィールドのセット内の非カテゴリフィールドの1つまたは複数の値との組み合わせを取り込み、かつ入力記録の二値分類を出力するものであり、
前記ラベル付けされた記録によって前記階層型ニューラルネットワークを訓練させて学習済みモデルを取得させ、
前記学習済みモデルによって新しい記録を処理させて前記新しい記録の分類を判別させ、
前記新しい記録の前記分類を出力させる、
ためのものである、非一時性コンピュータ可読媒体。
[条項15] 前記カテゴリフィールドは定性的な値を表し、前記非カテゴリフィールドは定量的な値を表す、条項14記載の非一時性コンピュータ可読媒体。
[条項16] 前記階層型ニューラルネットワークは、訓練中に、前記非カテゴリフィールド値と前記多次元ベクトルの個々の値との間の相関関係の識別を防止し、かつ訓練中に、前記非カテゴリフィールド値と前記低次元表現の個々の値との間の相関関係の識別を可能とするように構成されている、条項14記載の非一時性コンピュータ可読媒体。
[条項17] 前記ハイパーパラメータは、前記フィールドのセット内の1つまたは複数の追加のカテゴリフィールドを識別し、前記階層型ニューラルネットワークは、1つまたは複数の追加のカテゴリフィールドのそれぞれについての追加の補助ニューラルネットワークを備え、各追加の補助ニューラルネットワークの前記出力は、前記主ニューラルネットワークへの追加の入力を表す、条項14記載の非一時性コンピュータ可読媒体。
[条項18] 前記階層型ニューラルネットワークは、さらに、前記補助ニューラルネットワークによって出力された前記低次元表現を前記主ニューラルネットワークに供給する中間ニューラルネットワークを備える、条項14記載の非一時性コンピュータ可読媒体。
[条項19] 前記中間ニューラルネットワークは、さらに、前記低次元表現を前記主ニューラルネットワークに供給する前に、前記補助ニューラルネットワークによって出力された前記低次元表現の次元を低減する、条項18記載の非一時性コンピュータ可読媒体。
[条項20] 前記分類は、二値分類である、条項14記載の非一時性コンピュータ可読媒体。
Claims (15)
- ラベル付けされた取引記録を取得するステップであって、各記録は、取引に対応し、かつ前記取引に関連するフィールドのセット内の個々のフィールドについての値を含み、かつ前記取引が不正であると判別されたかどうかの表示でラベル付けされている、ステップと、
階層型ニューラルネットワークについてのハイパーパラメータを取得するステップであって、前記ハイパーパラメータは、少なくとも前記フィールドのセット内のカテゴリフィールドおよび前記カテゴリフィールド値を多次元ベクトルに変換するために使用される埋め込み処理を識別するためのものである、ステップと、
前記多次元ベクトルを生成するステップと、
少なくとも補助ニューラルネットワークおよび主ニューラルネットワークを備える階層型ニューラルネットワークを生成するステップであって、
前記補助ニューラルネットワークは、入力として前記多次元ベクトルを取り込み、かつ各ベクトルについて前記ベクトルの低次元表現を出力し、
前記主ニューラルネットワークは、入力として、前記補助ニューラルネットワークによって出力された前記低次元表現と前記フィールドのセット内の非カテゴリフィールドの1つまたは複数の値との組み合わせを取り込み、かつ入力記録に対応する個々の取引が不正である可能性を示す二値分類を出力する、
ステップと、
学習済みモデルを取得するために、前記ラベル付けされた取引記録によって前記階層型ニューラルネットワークを訓練するステップと、
新しい取引が不正である可能性を判別するために、前記学習済みモデルによって新しい取引記録を処理するステップと、
前記新しい取引が不正である可能性を出力するステップと、
を含む、コンピュータ実装方法。 - 前記ハイパーパラメータは、前記フィールドのセット内の1つまたは複数の追加のカテゴリフィールドを識別し、前記階層型ニューラルネットワークは、前記1つまたは複数の追加のカテゴリフィールドのそれぞれについて追加の補助ニューラルネットワークを備えており、各追加の補助ニューラルネットワークの出力は、前記主ニューラルネットワークへの追加の入力を表している、請求項2記載のコンピュータ実装方法。
- 前記低次元表現は、前記補助ニューラルネットワークの出力ニューロンのセットによって表される、請求項3記載のコンピュータ実装方法。
- 前記多次元ベクトルを生成するステップは、前記カテゴリフィールドの各値について、対応する多次元ベクトルを識別するルックアップテーブルを参照するステップを含む、請求項3記載のコンピュータ実装方法。
- 前記ルックアップテーブルは、前記カテゴリフィールドについての値のコーパスに機械学習アルゴリズムを事前に適用することによって生成される、請求項3記載のコンピュータ実装方法。
- 前記階層型ニューラルネットワークは、さらに、前記補助ニューラルネットワークによって出力された前記低次元表現を前記主ニューラルネットワークに供給する中間ニューラルネットワークを備える、請求項3記載のコンピュータ実装方法。
- 前記中間ニューラルネットワークは、さらに、前記低次元表現を前記主ニューラルネットワークに供給する前に、前記補助ニューラルネットワークによって出力された前記低次元表現の次元を低減する、請求項6記載のコンピュータ実装方法。
- 前記埋め込み処理は、単語レベルまたは文字レベルの埋め込みの少なくとも1つを表す、請求項7記載のコンピュータ実装方法。
- コンピューティングシステムであって、
プロセッサと、
コンピュータ実行可能命令を含むデータストアと、
を備え、
前記コンピュータ実行可能命令は、前記コンピューティングシステムによって実行される際に、前記コンピューティングシステムに、
ラベル付けされた記録を取得させ、各記録は、フィールドのセット内の個々のフィールドについての値を含み、かつ前記記録についての分類でラベル付けされており、
階層型ニューラルネットワークについてのハイパーパラメータを取得させ、前記ハイパーパラメータは、少なくとも前記フィールドのセット内のカテゴリフィールドおよび前記カテゴリフィールド値を多次元ベクトルに変換するために使用される埋め込みを識別するためのものであり、
少なくとも補助ニューラルネットワークおよび主ニューラルネットワークを備える階層型ニューラルネットワークを生成させ、
前記補助ニューラルネットワークは、入力として、埋め込み処理による前記カテゴリフィールドについての値の変換から得られる、前記フィールドのセット内の前記カテゴリフィールドの多次元ベクトルを取り込み、かつ各多次元ベクトルについて、前記多次元ベクトルの低次元表現を出力するものであり、
前記主ニューラルネットワークは、入力として、前記補助ニューラルネットワークによって出力された低次元表現と前記フィールドのセット内の非カテゴリフィールドの1つまたは複数の値との組み合わせを取り込み、かつ入力記録の二値分類を出力するものであり、
前記ラベル付けされた記録によって前記階層型ニューラルネットワークを訓練して学習済みモデルを取得させ、
前記学習済みモデルによって新しい記録を処理して前記新しい記録についての分類を判別させ、
前記新しい記録についての前記分類を出力させる、
ためのものである、
コンピューティングシステム。 - 前記カテゴリフィールドは定性的な値を表し、前記非カテゴリフィールドは定量的な値を表す、請求項9記載のシステム。
- 前記階層型ニューラルネットワークは、訓練中に、前記非カテゴリフィールド値と前記多次元ベクトルの個々の値との間の相関関係の識別を防止し、かつ訓練中に前記非カテゴリフィールド値と前記低次元表現の個々の値との間の相関関係の識別を可能とするように構成されている、請求項9記載のシステム。
- 前記ハイパーパラメータは、前記フィールドのセット内の1つまたは複数の追加のカテゴリフィールドを識別し、前記階層型ニューラルネットワークは、前記1つまたは複数の追加のカテゴリフィールドのそれぞれについての追加の補助ニューラルネットワークを備え、各追加の補助ニューラルネットワークの出力は、前記主ニューラルネットワークへの追加の入力を表す、請求項9記載のシステム。
- 前記階層型ニューラルネットワークは、さらに、前記補助ニューラルネットワークによって出力された前記低次元表現を前記主ニューラルネットワークに供給する中間ニューラルネットワークを備える、請求項9記載のシステム。
- 前記中間ニューラルネットワークは、さらに、前記低次元表現を前記主ニューラルネットワークに供給する前に、前記補助ニューラルネットワークによって出力された前記低次元表現の次元を低減する、請求項13記載のシステム。
- 前記分類は、二値分類である、請求項9記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/352,666 US20200293878A1 (en) | 2019-03-13 | 2019-03-13 | Handling categorical field values in machine learning applications |
US16/352,666 | 2019-03-13 | ||
PCT/US2020/021827 WO2020185741A1 (en) | 2019-03-13 | 2020-03-10 | Handling categorical field values in machine learning applications |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022524830A true JP2022524830A (ja) | 2022-05-10 |
JP7337949B2 JP7337949B2 (ja) | 2023-09-04 |
Family
ID=72423717
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021555001A Active JP7337949B2 (ja) | 2019-03-13 | 2020-03-10 | 機械学習アプリケーションにおけるカテゴリフィールド値の取り扱い |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200293878A1 (ja) |
EP (1) | EP3938966A4 (ja) |
JP (1) | JP7337949B2 (ja) |
CN (1) | CN113574549A (ja) |
AU (1) | AU2020236989B2 (ja) |
CA (1) | CA3132974A1 (ja) |
WO (1) | WO2020185741A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11836447B2 (en) * | 2019-04-25 | 2023-12-05 | Koninklijke Philips N.V. | Word embedding for non-mutually exclusive categorical data |
US11488177B2 (en) * | 2019-04-30 | 2022-11-01 | Paypal, Inc. | Detecting fraud using machine-learning |
US11308497B2 (en) * | 2019-04-30 | 2022-04-19 | Paypal, Inc. | Detecting fraud using machine-learning |
US20210042824A1 (en) * | 2019-08-08 | 2021-02-11 | Total System Services, Inc, | Methods, systems, and apparatuses for improved fraud detection and reduction |
US20220027915A1 (en) * | 2020-07-21 | 2022-01-27 | Shopify Inc. | Systems and methods for processing transactions using customized transaction classifiers |
US11756049B1 (en) * | 2020-09-02 | 2023-09-12 | Amazon Technologies, Inc. | Detection of evasive item listings |
CN112950372B (zh) * | 2021-03-03 | 2022-11-22 | 上海天旦网络科技发展有限公司 | 自动交易关联的方法及系统 |
US20220350936A1 (en) * | 2021-04-30 | 2022-11-03 | James R. Glidewell Dental Ceramics, Inc. | Neural network margin proposal |
WO2023100953A1 (ja) * | 2021-12-01 | 2023-06-08 | 国立大学法人東京工業大学 | 推定装置、推定方法及びプログラム |
CN115146187B (zh) * | 2022-09-01 | 2022-11-18 | 闪捷信息科技有限公司 | 接口信息处理方法、存储介质和电子设备 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7089592B2 (en) * | 2001-03-15 | 2006-08-08 | Brighterion, Inc. | Systems and methods for dynamic detection and prevention of electronic fraud |
US7813937B1 (en) * | 2002-02-15 | 2010-10-12 | Fair Isaac Corporation | Consistency modeling of healthcare claims to detect fraud and abuse |
US7017186B2 (en) * | 2002-07-30 | 2006-03-21 | Steelcloud, Inc. | Intrusion detection system using self-organizing clusters |
US9324022B2 (en) * | 2014-03-04 | 2016-04-26 | Signal/Sense, Inc. | Classifying data with deep learning neural records incrementally refined through expert input |
US10360276B2 (en) * | 2015-07-28 | 2019-07-23 | Expedia, Inc. | Disambiguating search queries |
US10282663B2 (en) * | 2015-08-15 | 2019-05-07 | Salesforce.Com, Inc. | Three-dimensional (3D) convolution with 3D batch normalization |
US20180046920A1 (en) * | 2016-08-10 | 2018-02-15 | Paypal, Inc. | User Data Learning Based on Recurrent Neural Networks with Long Short Term Memory |
US10853739B2 (en) * | 2017-06-09 | 2020-12-01 | Sap Se | Machine learning models for evaluating entities in a high-volume computer network |
CN109213831A (zh) * | 2018-08-14 | 2019-01-15 | 阿里巴巴集团控股有限公司 | 事件检测方法和装置、计算设备及存储介质 |
CN109376244A (zh) * | 2018-10-25 | 2019-02-22 | 山东省通信管理局 | 一种基于特征分类的诈骗网站识别方法 |
-
2019
- 2019-03-13 US US16/352,666 patent/US20200293878A1/en not_active Abandoned
-
2020
- 2020-03-10 CN CN202080020630.9A patent/CN113574549A/zh active Pending
- 2020-03-10 EP EP20769747.5A patent/EP3938966A4/en active Pending
- 2020-03-10 WO PCT/US2020/021827 patent/WO2020185741A1/en unknown
- 2020-03-10 AU AU2020236989A patent/AU2020236989B2/en active Active
- 2020-03-10 CA CA3132974A patent/CA3132974A1/en active Pending
- 2020-03-10 JP JP2021555001A patent/JP7337949B2/ja active Active
Non-Patent Citations (2)
Title |
---|
JOHANNES JURGOVSKY ET AL.: "Sequence classification for credit-card fraud detection", EXPERT SYSTEMS WITH APPLICATIONS, vol. 100, JPN6022055865, 2018, pages 234 - 245, XP085355459, ISSN: 0004957146, DOI: 10.1016/j.eswa.2018.01.037 * |
KONSTANTIN ZIEGLER ET AL.: "Injecting Semantic Background Knowledge into Neural Networks using Graph Embeddings", 2017 IEEE 26TH INTERNATIONAL CONFERENCE ON ENABLING TECHNOLOGIES: INFRASTRUCTURE FOR COLLABORATIVE E, JPN6022055864, 2017, ISSN: 0004957147 * |
Also Published As
Publication number | Publication date |
---|---|
EP3938966A1 (en) | 2022-01-19 |
JP7337949B2 (ja) | 2023-09-04 |
CN113574549A (zh) | 2021-10-29 |
AU2020236989A1 (en) | 2021-09-23 |
CA3132974A1 (en) | 2020-09-17 |
WO2020185741A1 (en) | 2020-09-17 |
AU2020236989B2 (en) | 2023-06-15 |
EP3938966A4 (en) | 2022-12-14 |
US20200293878A1 (en) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7337949B2 (ja) | 機械学習アプリケーションにおけるカテゴリフィールド値の取り扱い | |
WO2020253358A1 (zh) | 业务数据的风控分析处理方法、装置和计算机设备 | |
US11631029B2 (en) | Generating combined feature embedding for minority class upsampling in training machine learning models with imbalanced samples | |
WO2019196546A1 (zh) | 确定业务请求事件的风险概率的方法及装置 | |
US12118317B2 (en) | Techniques to add smart device information to machine learning for increased context | |
US11531824B2 (en) | Cross-lingual information retrieval and information extraction | |
WO2020098308A1 (zh) | 人群画像分类模型的建立方法、装置、设备和存储介质 | |
US20180300295A1 (en) | Automated tagging of text | |
US11755838B2 (en) | Machine learning for joint recognition and assertion regression of elements in text | |
US11669428B2 (en) | Detection of matching datasets using encode values | |
CN110377733B (zh) | 一种基于文本的情绪识别方法、终端设备及介质 | |
US11593619B2 (en) | Computer architecture for multiplier-less machine learning | |
CN113221570B (zh) | 基于线上问诊信息的处理方法、装置、设备及存储介质 | |
US20200312432A1 (en) | Computer architecture for labeling documents | |
US20230186319A1 (en) | Context-enhanced category classification | |
CN112541055B (zh) | 一种确定文本标签的方法及装置 | |
CN114266252A (zh) | 命名实体识别方法、装置、设备及存储介质 | |
Sharma et al. | Credit card fraud detection using deep learning based on auto-encoder | |
Li et al. | A deep learning approach of financial distress recognition combining text | |
CN111444714B (zh) | 一种文本分析装置、方法及模型训练方法 | |
Yang et al. | Network Configuration Entity Extraction Method Based on Transformer with Multi-Head Attention Mechanism. | |
Gama et al. | Advances in Knowledge Discovery and Data Mining: 26th Pacific-Asia Conference, PAKDD 2022, Chengdu, China, May 16–19, 2022, Proceedings, Part II | |
Ambareen et al. | Cyberbullying in social media Using Bidirectional Long Short-Term and Feed Forward Neural Network. | |
Boka | Predicting Fake Job Posts Using Machine Learning Models | |
CN118051617A (zh) | 一种多层级类别分类模型的训练方法以及答复方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230105 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7337949 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |