JP2021536067A - 機械学習モデルを使用した、偏りのあるデータの拒否 - Google Patents
機械学習モデルを使用した、偏りのあるデータの拒否 Download PDFInfo
- Publication number
- JP2021536067A JP2021536067A JP2021513193A JP2021513193A JP2021536067A JP 2021536067 A JP2021536067 A JP 2021536067A JP 2021513193 A JP2021513193 A JP 2021513193A JP 2021513193 A JP2021513193 A JP 2021513193A JP 2021536067 A JP2021536067 A JP 2021536067A
- Authority
- JP
- Japan
- Prior art keywords
- weight
- data set
- training
- training data
- cluster
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
この開示は、機械学習モデルを使用して偏りのあるデータを拒否することに関する。
一般的に言えば、偏りとは、パラメータを過大評価または過小評価する統計値の傾向である。この点で、データの収集およびデータの分析は典型的には、何らかの固有の偏りを含む。これらの偏りは、収集および分析の方法、または、当該収集および分析を行なうエンティティ(主体)に起因する場合がある。たとえば、人間によって設計され行なわれたデータ研究が、特定の仮説、人間の設計制約(たとえば人間の能力)、サンプリング制約などを提供する場合がある。これらの要素を提供することにより、当該研究のデータ結果は、さまざまなサンプリング誤差、測定誤差、または、当該研究のための目標母集団を表わしていないサンプルにより広範に基づいた誤差を含む可能性がある。コンピュータ処理は、技術が人間の活動とは比べものにならない速度でデータを収集および分析することを可能にするため、データ処理手法は、偏りの問題を同等に克服しなければならない。さもなければ、特にバルクデータのためのデータ処理は、偏りの問題を増幅して、人間の活動によって生じる偏りとは同様に比べものにならない結果を生み出すおそれがある。
この開示の1つの局面は、機械学習モデルを使用して偏りのあるデータを拒否するための方法を提供する。方法は、データ処理ハードウェアで、クラスタ訓練データセットを受信するステップを含み、クラスタ訓練データセットは偏りのない既知のデータ母集団(known unbiased population of data)を含む。方法はまた、データ処理ハードウェアが、偏りのない既知のデータ母集団のデータ特性に基づいて、受信されたクラスタ訓練データセットをクラスタに分割するように、クラスタ化モデルを訓練するステップを含む。クラスタ訓練データセットの各クラスタはクラスタ重みを含む。方法はさらに、データ処理ハードウェアで、機械学習モデルのための訓練データセットを受信するステップと、データ処理ハードウェアが、クラスタ化モデルに基づいて、機械学習モデルのための訓練データセットに対応する訓練データセット重みを生成するステップとを含む。方法はまた、データ処理ハードウェアが、訓練データセット重みの各訓練データセット重みを、それぞれのクラスタ重みと整合するように調節するステップと、データ処理ハードウェアが、調節された訓練データセットを、偏りのない訓練データセットとして、機械学習モデルに提供するステップとを含む。
図1は、機械学習環境10の一例である。機械学習環境10は一般に、ネットワーク120を介してアクセス可能なリソース110を有する分散型システム100(たとえば、クラウド環境などのリモートシステム)と、偏り拒否モデル200と、機械学習モデル300とを含む。リソース110は、偏り拒否モデル200および/または機械学習モデル300を訓練する際に使用するために、ならびに、ここに開示される機械学習機能を行なうために、偏り拒否モデル200および/または機械学習モデル300にアクセス可能である。分散型システム100は、偏り拒否モデル200および/または機械学習モデル300を動作させることができるコンピューティングリソース(たとえばリソース110)を有する任意のコンピュータ処理システムであってもよい。いくつかの例では、偏り拒否モデル200および/または機械学習モデル300は、ネットワーク120を介して分散型システム100にアクセス可能である、または他の態様で分散型システム100と通信しているデバイス上で動作する。たとえば、デバイスは、分散型システム100に関連付けられたウェブベースのアプリケーションを実行してもよい。
Claims (20)
- 方法(500)であって、
データ処理ハードウェア(112)で、クラスタ訓練データセット(130)を受信するステップを含み、前記クラスタ訓練データセット(130)は偏りのない既知のデータ母集団を含み、前記方法はさらに、
前記データ処理ハードウェア(112)が、前記偏りのない既知のデータ母集団のデータ特性に基づいて、受信された前記クラスタ訓練データセット(130)をクラスタ(212)に分割するように、クラスタ化モデル(211)を訓練するステップを含み、前記クラスタ訓練データセット(130)の各クラスタ(212)はクラスタ重み(214)を含み、前記方法はさらに、
前記データ処理ハードウェア(112)で、機械学習モデル(300)のための訓練データセット(302)を受信するステップと、
前記データ処理ハードウェア(112)が、前記クラスタ化モデル(211)に基づいて、前記機械学習モデル(300)のための前記訓練データセット(302)に対応する訓練データセット重み(218)を生成するステップと、
前記データ処理ハードウェア(112)が、前記訓練データセット重み(218)の各訓練データセット重み(218)を、それぞれのクラスタ重み(214)と整合するように、および、調節された訓練データセット(208)を形成するように調節するステップと、
前記データ処理ハードウェア(112)が、前記調節された訓練データセット(208)を、偏りのない訓練データセット(206)として、前記機械学習モデル(300)に提供するステップとを含む、方法。 - 前記調節された訓練データセット(208)を前記偏りのない訓練データセット(206)として前記機械学習モデル(300)に提供するステップは、前記偏りのない訓練データセット(206)を用いて前記機械学習モデル(300)を訓練するステップを含む、請求項1に記載の方法(500)。
- 前記データ処理ハードウェア(112)が、前記偏りのない訓練データセット(206)を用いて前記機械学習モデル(300)を訓練するステップと、
前記データ処理ハードウェア(112)で、少なくとも1つのそれぞれのデータ特性を含むサンプルデータセットを受信するステップと、
前記データ処理ハードウェア(112)が、訓練された前記機械学習モデル(300)を使用して、受信された前記サンプルデータセットに基づいた、偏りのない予測値(310)を生成するステップとをさらに含む、請求項1または2に記載の方法(500)。 - 各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節するステップは、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記それぞれのクラスタ重み(214)と整合させるステップと、
前記訓練データセット重み(218)が前記それぞれのクラスタ重み(214)と整合するまで、前記訓練データセットからデータを除去するステップとを含む、請求項1〜3のいずれか1項に記載の方法(500)。 - 各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節するステップは、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記それぞれのクラスタ重み(214)と整合させるステップと、
前記訓練データセット重み(218)が前記それぞれのクラスタ重み(214)と整合するまで、前記訓練データセットからデータを複製するステップとを含む、請求項1〜4のいずれか1項に記載の方法(500)。 - 各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節するステップは、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記クラスタ重み(214)と整合させるステップと、
前記訓練データセット重み(218)が前記それぞれのクラスタ重み(214)よりも小さい場合、前記訓練データセット重み(218)に対応する訓練データに対する前記機械学習モデル(300)の訓練を増加させることを示す重要性重み(228)を関連付けるステップとを含む、請求項1〜5のいずれか1項に記載の方法(500)。 - 各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節するステップは、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記クラスタ重み(214)と整合させるステップと、
前記訓練データセット重み(218)が前記それぞれのクラスタ重み(214)よりも大きい場合、前記訓練データセット重み(218)に対応する訓練データに対する前記機械学習モデル(300)の訓練を減少させることを示す重要性重み(228)を関連付けるステップとを含む、請求項1〜6のいずれか1項に記載の方法(500)。 - 前記訓練データセット重み(218)の各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節するステップはさらに、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記対応するクラスタ重み(214)と整合させるステップと、
前記訓練データセット重み(218)が前記対応するクラスタ重み(214)よりも小さい場合、前記訓練データセット重み(218)に対応する訓練データに対する前記機械学習モデル(300)の訓練を増加させることを示す重要性重み(228)を関連付けるステップと、
前記訓練データセット重み(218)が前記対応するクラスタ重み(214)よりも大きい場合、前記訓練データセット重み(218)に対応する訓練データに対する前記機械学習モデル(300)の訓練を減少させることを示す重要性重み(228)を関連付けるステップとを含む、請求項1〜7のいずれか1項に記載の方法(500)。 - 前記クラスタ化モデル(211)を訓練するステップはさらに、
前記偏りのない既知のデータ母集団のデータ特性に基づいて、受信された前記クラスタ訓練データセット(130)をクラスタ(212)に分割するステップと、
前記偏りのない既知のデータ母集団の前記データ特性に基づいた前記クラスタ(212)の各クラスタ(212)について、前記偏りのない既知のデータ母集団のサイズに対するそれぞれのクラスタ(212)のサイズの比に基づいて、前記クラスタ化モデル(211)の各クラスタ(212)についての前記クラスタ重み(214)を判定するステップとを含む、請求項1〜8のいずれか1項に記載の方法(500)。 - 教師なし機械学習アルゴリズムが、前記偏りのない既知のデータ母集団の前記データ特性に基づいて、受信された前記クラスタ訓練データセット(130)をクラスタ(212)に分割する、請求項1〜9のいずれか1項に記載の方法(500)。
- システム(100)であって、
データ処理ハードウェア(112)と、
前記データ処理ハードウェア(112)と通信しているメモリハードウェア(114)とを含み、前記メモリハードウェア(114)は、前記データ処理ハードウェア(112)上で実行されると前記データ処理ハードウェア(112)に動作を行なわせる命令を格納しており、前記動作は、
クラスタ訓練データセット(130)を受信することを含み、前記クラスタ訓練データセット(130)は偏りのない既知のデータ母集団を含み、前記動作はさらに、
前記偏りのない既知のデータ母集団のデータ特性に基づいて、受信された前記クラスタ訓練データセット(130)をクラスタ(212)に分割するように、クラスタ化モデル(211)を訓練することを含み、前記クラスタ訓練データセット(130)の各クラスタ(212)はクラスタ重み(214)を含み、前記動作はさらに、
機械学習モデル(300)のための訓練データセット(302)を受信することと、
前記クラスタ化モデル(211)に基づいて、前記機械学習モデル(300)のための前記訓練データセット(302)に対応する訓練データセット重み(218)を生成することと、
前記訓練データセット重み(218)の各訓練データセット重み(218)を、それぞれのクラスタ重み(214)と整合するように、および、調節された訓練データセット(208)を形成するように調節することと、
前記調節された訓練データセット(208)を、偏りのない訓練データセット(206)として、前記機械学習モデル(300)に提供することとを含む、システム。 - 前記調節された訓練データセット(208)を前記偏りのない訓練データセット(206)として前記機械学習モデル(300)に提供することは、前記偏りのない訓練データセット(206)を用いて前記機械学習モデル(300)を訓練することを含む、請求項11に記載のシステム(100)。
- 前記動作はさらに、
前記偏りのない訓練データセット(206)を用いて前記機械学習モデル(300)を訓練することと、
少なくとも1つのそれぞれのデータ特性を含むサンプルデータセットを受信することと、
訓練された前記機械学習モデル(300)を使用して、受信された前記サンプルデータセットに基づいた、偏りのない予測値(310)を生成することとを含む、請求項11または12に記載のシステム(100)。 - 各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節することは、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記それぞれのクラスタ重み(214)と整合させることと、
前記訓練データセット重み(218)が前記それぞれのクラスタ重み(214)と整合するまで、前記訓練データセットからデータを除去することとを含む、請求項11〜13のいずれか1項に記載のシステム(100)。 - 各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節することは、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記それぞれのクラスタ重み(214)と整合させることと、
前記訓練データセット重み(218)が前記それぞれのクラスタ重み(214)と整合するまで、前記訓練データセットからデータを複製することとを含む、請求項11〜14のいずれか1項に記載のシステム(100)。 - 各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節することは、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記クラスタ重み(214)と整合させることと、
前記訓練データセット重み(218)が前記それぞれのクラスタ重み(214)よりも小さい場合、前記訓練データセット重み(218)に対応する訓練データに対する前記機械学習モデル(300)の訓練を増加させることを示す重要性重み(228)を関連付けることとを含む、請求項11〜15のいずれか1項に記載のシステム(100)。 - 各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節することは、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記クラスタ重み(214)と整合させることと、
前記訓練データセット重み(218)が前記それぞれのクラスタ重み(214)よりも大きい場合、前記訓練データセット重み(218)に対応する訓練データに対する前記機械学習モデル(300)の訓練を減少させることを示す重要性重み(228)を関連付けることとを含む、請求項11〜16のいずれか1項に記載のシステム(100)。 - 前記訓練データセット重み(218)の各訓練データセット重み(218)を、前記それぞれのクラスタ重み(214)と整合するように調節することはさらに、各訓練データセット重み(218)について、
共通のデータ特性に基づいて、前記訓練データセット重み(218)を前記対応するクラスタ重み(214)と整合させることと、
前記訓練データセット重み(218)が前記対応するクラスタ重み(214)よりも小さい場合、前記訓練データセット重み(218)に対応する訓練データに対する前記機械学習モデル(300)の訓練を増加させることを示す重要性重み(228)を関連付けることと、
前記訓練データセット重み(218)が前記対応するクラスタ重み(214)よりも大きい場合、前記訓練データセット重み(218)に対応する訓練データに対する前記機械学習モデル(300)の訓練を減少させることを示す重要性重み(228)を関連付けることとを含む、請求項11〜17のいずれか1項に記載のシステム(100)。 - 前記クラスタ化モデル(211)を訓練する動作はさらに、
前記偏りのない既知のデータ母集団のデータ特性に基づいて、受信された前記クラスタ訓練データセット(130)をクラスタ(212)に分割することと、
前記偏りのない既知のデータ母集団の前記データ特性に基づいた前記クラスタ(212)の各クラスタ(212)について、前記偏りのない既知のデータ母集団のサイズに対するそれぞれのクラスタ(212)のサイズの比に基づいて、前記クラスタ化モデル(211)の各クラスタ(212)についての前記クラスタ重み(214)を判定することとを含む、請求項11〜18のいずれか1項に記載のシステム(100)。 - 教師なし機械学習アルゴリズムが、前記偏りのない既知のデータ母集団の前記データ特性に基づいて、受信された前記クラスタ訓練データセット(130)をクラスタ(212)に分割する、請求項11〜19のいずれか1項に記載のシステム(100)。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022130108A JP7405919B2 (ja) | 2018-09-10 | 2022-08-17 | 機械学習モデルを使用した、偏りのあるデータの拒否 |
JP2023211190A JP2024028987A (ja) | 2018-09-10 | 2023-12-14 | 機械学習モデルを使用した、偏りのあるデータの拒否 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/126,860 | 2018-09-10 | ||
US16/126,860 US11250346B2 (en) | 2018-09-10 | 2018-09-10 | Rejecting biased data using a machine learning model |
PCT/US2019/048121 WO2020055581A1 (en) | 2018-09-10 | 2019-08-26 | Rejecting biased data using a machine learning model |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022130108A Division JP7405919B2 (ja) | 2018-09-10 | 2022-08-17 | 機械学習モデルを使用した、偏りのあるデータの拒否 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021536067A true JP2021536067A (ja) | 2021-12-23 |
JP7127211B2 JP7127211B2 (ja) | 2022-08-29 |
Family
ID=67876099
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021513193A Active JP7127211B2 (ja) | 2018-09-10 | 2019-08-26 | 機械学習モデルを使用した、偏りのあるデータの拒否 |
JP2022130108A Active JP7405919B2 (ja) | 2018-09-10 | 2022-08-17 | 機械学習モデルを使用した、偏りのあるデータの拒否 |
JP2023211190A Pending JP2024028987A (ja) | 2018-09-10 | 2023-12-14 | 機械学習モデルを使用した、偏りのあるデータの拒否 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022130108A Active JP7405919B2 (ja) | 2018-09-10 | 2022-08-17 | 機械学習モデルを使用した、偏りのあるデータの拒否 |
JP2023211190A Pending JP2024028987A (ja) | 2018-09-10 | 2023-12-14 | 機械学習モデルを使用した、偏りのあるデータの拒否 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11250346B2 (ja) |
EP (1) | EP3834140A1 (ja) |
JP (3) | JP7127211B2 (ja) |
KR (3) | KR102629553B1 (ja) |
CN (1) | CN112639842A (ja) |
WO (1) | WO2020055581A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10783535B2 (en) * | 2016-05-16 | 2020-09-22 | Cerebri AI Inc. | Business artificial intelligence management engine |
US11537876B2 (en) * | 2018-11-28 | 2022-12-27 | Bank Of America Corporation | Targeted variation of machine learning input data |
US11343144B2 (en) * | 2019-03-12 | 2022-05-24 | Cisco Technology, Inc. | Downlink performance optimizations in wireless networks |
US11775863B2 (en) * | 2019-05-22 | 2023-10-03 | Oracle International Corporation | Enforcing fairness on unlabeled data to improve modeling performance |
US11416500B2 (en) | 2019-05-22 | 2022-08-16 | Oracle International Corporation | Control system for learning to rank fairness |
US11062234B1 (en) * | 2019-12-31 | 2021-07-13 | Capital One Services, Llc | System and method for managing classification outcomes of data inputs classified into bias categories |
KR102542451B1 (ko) * | 2020-11-04 | 2023-06-12 | 서울대학교산학협력단 | 공정 분포 추정을 통한 공정 군집화 방법 및 그의 장치 |
JP7322918B2 (ja) * | 2021-03-29 | 2023-08-08 | 横河電機株式会社 | プログラム、情報処理装置、及び学習モデルの生成方法 |
CN113077057B (zh) * | 2021-04-20 | 2022-09-06 | 中国科学技术大学 | 无偏机器学习方法 |
KR20230034762A (ko) * | 2021-09-03 | 2023-03-10 | 주식회사 뷰노 | 기계학습 방법 및 장치 |
KR102674249B1 (ko) * | 2022-02-03 | 2024-06-12 | 한국생산기술연구원 | 리플로우 장비의 이상 여부 확인 방법 |
GB2625073A (en) * | 2022-12-02 | 2024-06-12 | Sony Interactive Entertainment Inc | System and method for training a machine learning model |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282688A (ja) * | 2008-05-21 | 2009-12-03 | Mitomo Shoji Kk | 無線icタグ |
US20170330058A1 (en) * | 2016-05-16 | 2017-11-16 | Cerebri AI Inc. | Detecting and reducing bias (including discrimination) in an automated decision making process |
JP2018513461A (ja) * | 2015-03-03 | 2018-05-24 | ナントミクス,エルエルシー | アンサンブルに基づいたリサーチ・レコメンデーションシステムおよび方法 |
US20180165697A1 (en) * | 2016-12-08 | 2018-06-14 | App Annie Inc. | Determining usage data of mobile applications for a population |
JP2018109906A (ja) * | 2017-01-05 | 2018-07-12 | 住友電気工業株式会社 | 画像データ作成プログラム、画像データ作成装置および画像データ作成方法 |
US20180197105A1 (en) * | 2017-01-06 | 2018-07-12 | Accenture Global Solutions Limited | Security classification by machine learning |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7437334B2 (en) | 2004-12-03 | 2008-10-14 | Hewlett-Packard Development Company, L.P. | Preparing data for machine learning |
WO2009135076A1 (en) * | 2008-05-02 | 2009-11-05 | The Regents Of The University Of California | Estimation based on case-control designs |
JP5243888B2 (ja) | 2008-08-18 | 2013-07-24 | 日本放送協会 | データ分類装置及びデータ分類プログラム |
JP2010204966A (ja) | 2009-03-03 | 2010-09-16 | Nippon Telegr & Teleph Corp <Ntt> | サンプリング装置、サンプリング方法、サンプリングプログラム、クラス判別装置およびクラス判別システム。 |
US20110289025A1 (en) | 2010-05-19 | 2011-11-24 | Microsoft Corporation | Learning user intent from rule-based training data |
US9852019B2 (en) | 2013-07-01 | 2017-12-26 | Agent Video Intelligence Ltd. | System and method for abnormality detection |
JP2017076289A (ja) | 2015-10-15 | 2017-04-20 | キヤノン株式会社 | パラメータ決定装置、パラメータ決定方法及びプログラム |
-
2018
- 2018-09-10 US US16/126,860 patent/US11250346B2/en active Active
-
2019
- 2019-08-26 CN CN201980057266.0A patent/CN112639842A/zh active Pending
- 2019-08-26 JP JP2021513193A patent/JP7127211B2/ja active Active
- 2019-08-26 KR KR1020237023811A patent/KR102629553B1/ko active IP Right Grant
- 2019-08-26 KR KR1020217003605A patent/KR102556896B1/ko active IP Right Grant
- 2019-08-26 EP EP19765595.4A patent/EP3834140A1/en active Pending
- 2019-08-26 WO PCT/US2019/048121 patent/WO2020055581A1/en unknown
- 2019-08-26 KR KR1020247002451A patent/KR20240013898A/ko active Application Filing
-
2022
- 2022-01-31 US US17/649,510 patent/US20220156646A1/en active Pending
- 2022-08-17 JP JP2022130108A patent/JP7405919B2/ja active Active
-
2023
- 2023-12-14 JP JP2023211190A patent/JP2024028987A/ja active Pending
-
2024
- 2024-01-05 US US18/406,073 patent/US20240144095A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009282688A (ja) * | 2008-05-21 | 2009-12-03 | Mitomo Shoji Kk | 無線icタグ |
JP2018513461A (ja) * | 2015-03-03 | 2018-05-24 | ナントミクス,エルエルシー | アンサンブルに基づいたリサーチ・レコメンデーションシステムおよび方法 |
US20170330058A1 (en) * | 2016-05-16 | 2017-11-16 | Cerebri AI Inc. | Detecting and reducing bias (including discrimination) in an automated decision making process |
US20180165697A1 (en) * | 2016-12-08 | 2018-06-14 | App Annie Inc. | Determining usage data of mobile applications for a population |
JP2018109906A (ja) * | 2017-01-05 | 2018-07-12 | 住友電気工業株式会社 | 画像データ作成プログラム、画像データ作成装置および画像データ作成方法 |
US20180197105A1 (en) * | 2017-01-06 | 2018-07-12 | Accenture Global Solutions Limited | Security classification by machine learning |
Also Published As
Publication number | Publication date |
---|---|
US20200082300A1 (en) | 2020-03-12 |
JP7405919B2 (ja) | 2023-12-26 |
KR20230110830A (ko) | 2023-07-25 |
KR20240013898A (ko) | 2024-01-30 |
US20240144095A1 (en) | 2024-05-02 |
US11250346B2 (en) | 2022-02-15 |
EP3834140A1 (en) | 2021-06-16 |
JP2024028987A (ja) | 2024-03-05 |
KR102629553B1 (ko) | 2024-01-25 |
US20220156646A1 (en) | 2022-05-19 |
KR102556896B1 (ko) | 2023-07-18 |
KR20210025108A (ko) | 2021-03-08 |
JP7127211B2 (ja) | 2022-08-29 |
JP2022169657A (ja) | 2022-11-09 |
CN112639842A (zh) | 2021-04-09 |
WO2020055581A1 (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7241862B2 (ja) | 機械学習モデルを使用した、偏りのあるデータの拒否 | |
JP7405919B2 (ja) | 機械学習モデルを使用した、偏りのあるデータの拒否 | |
Cesare et al. | Detection of user demographics on social media: A review of methods and recommendations for best practices | |
US11475161B2 (en) | Differentially private dataset generation and modeling for knowledge graphs | |
Hegde et al. | Aspect based feature extraction and sentiment classification of review data sets using Incremental machine learning algorithm | |
WO2023103527A1 (zh) | 一种访问频次的预测方法及装置 | |
Purbolaksono et al. | Implementation of mutual information and bayes theorem for classification microarray data | |
Feng et al. | An improved X-means and isolation forest based methodology for network traffic anomaly detection | |
US20220129754A1 (en) | Utilizing machine learning to perform a merger and optimization operation | |
Sreedhar et al. | An Improved Technique to Identify Fake News on Social Media Network using Supervised Machine Learning Concepts | |
Pal et al. | Lifelong machine learning and root cause analysis for large-scale cancer patient data | |
Nidhi et al. | Methods to investigate concept drift in big data streams | |
US11928017B2 (en) | Point anomaly detection | |
US20220138585A1 (en) | Systems and methods for applying a lens function generated using supervised learning techniques to segment data provided to an unsupervised learning model | |
Straton et al. | Big social data analytics for public health: Comparative methods study and performance indicators of health care content on Facebook | |
Kayaalp et al. | A fuzzy bayesian classifier with learned mahalanobis distance | |
Jabin | Predicting lung cancer survivability: A machine learning regression model | |
US20240202816A1 (en) | Systems and methods for dynamically generating pre-approval data | |
Jayabharathi | Comparative Analysis of Social Media Analytics in Bigdata Using Fuzzy C Mean (Fcm), K-Nearest Neighbour (Knn) And K-Means Algorithms | |
Khalid et al. | A Dynamic Selection Hybrid Model for Advancing Thyroid Care with BOO-ST Balancing Method | |
Nanda et al. | Development of Novel Framework for Identifying Anomalies in High Volume of Data Using Robust Machine Learning Algorithm | |
Gour et al. | Trending Topics Detection using Machine Learning Approach | |
CN114120040A (zh) | 数据分类方法、装置、电子设备和存储介质 | |
KR20230015009A (ko) | 알코올 사용장애 환자의 외래 치료 조기 중단 예측 시스템 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210531 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220719 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7127211 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |