JP2019535047A - 主題分類器の訓練方法、装置及びコンピュータ読み取り可能な記憶媒体 - Google Patents
主題分類器の訓練方法、装置及びコンピュータ読み取り可能な記憶媒体 Download PDFInfo
- Publication number
- JP2019535047A JP2019535047A JP2018564802A JP2018564802A JP2019535047A JP 2019535047 A JP2019535047 A JP 2019535047A JP 2018564802 A JP2018564802 A JP 2018564802A JP 2018564802 A JP2018564802 A JP 2018564802A JP 2019535047 A JP2019535047 A JP 2019535047A
- Authority
- JP
- Japan
- Prior art keywords
- training
- logistic regression
- text data
- regression model
- subject classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2255—Hash tables
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
Abstract
Description
テキストデータに基づき対応した話題モデルを訓練した後に手動でタグ付けして取得される訓練サンプルと、テストサンプルとを取得するステップと、
予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、かつ前記訓練サンプルの特徴に基づき、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練するステップと、
前記テストサンプルの特徴と前記最適モデルパラメータを含むロジスティック回帰モデルに基づき対象作業特徴ROC曲線をプロットし、ROC曲線下面積AUCに基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価し、第1主題分類器を訓練するステップと、を含む。
テキストデータに基づき対応した話題モデルを訓練した後に手動でタグ付けして取得される訓練サンプルと、テストサンプルとを取得する第1取得モジュールと、
予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、かつ前記訓練サンプルの特徴に基づき、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練する第1訓練モジュールと、
前記テストサンプルの特徴と前記最適モデルパラメータを含むロジスティック回帰モデルに基づき対象作業特徴ROC曲線をプロットし、ROC曲線下面積AUCに基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価し、第1主題分類器を訓練する第2訓練モジュールと、を備える。
なお、ここで説明される具体的な実施例は本発明を解釈するためのものに過ぎず、本発明を限定するものではない。
図1に示すように、コンピュータ記憶媒体であるメモリ1005は、オペレーティングシステム、ネットワーク通信モジュール、ユーザーインタフェースモジュール及び主題分類器訓練プログラムを含むことができる。
テキストデータに基づき対応した話題モデルを訓練した後に手動でタグ付けして取得される訓練サンプルと、テストサンプルとを取得するステップと、
予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、かつ前記訓練サンプルの特徴に基づき、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練するステップと、
前記テストサンプルの特徴と前記最適モデルパラメータを含むロジスティック回帰モデルに基づき対象作業特徴ROC曲線をプロットし、ROC曲線下面積AUCに基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価し、第1主題分類器を訓練するステップと、を実現することができる。
テキストデータを収集し、前記テキストデータを前処理し、対応した第1キーワードセットを取得するステップと、
前記第1キーワードセットと所定数の話題に基づき、予め設定した主題モデルを利用して前記テキストデータの前記話題での分布を算出し、前記テキストデータの前記話題での分布状況に基づきクラスタリングし、前記テキストデータに対応した話題モデルを訓練するステップと、
前記話題モデルに基づく前記テキストデータへの手動タグ付け結果に応じて、前記テキストデータから目標主題分類器に対応した訓練サンプルをスクリーニングし、かつ前記訓練サンプル以外のテキストデータをテストサンプルとするステップと、を実現することができる。
予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、第1ハッシュテーブルと第2ハッシュテーブルを対応して作成するステップと、
前記第1ハッシュテーブルをロジスティック回帰モデルに代入し、かつ反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練するステップと、を実現することができる。
前記第2ハッシュテーブルを前記最適モデルパラメータを含むロジスティック回帰モデルに代入し、真陽性TP、真陰性TN、偽陰性FN及び偽陽性FPを得るステップと、
前記TP、TN、FN及びFPに基づきROC曲線をプロットするステップと、
ROC曲線下面積AUCを計算し、AUC値に基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価するステップと、
前記AUC値が所定AUC閾値以下であると、前記最適モデルパラメータを含むロジスティック回帰モデルが要求を満たさないと判定して戻り、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練するステップと、
前記AUC値が前記所定AUC閾値より大きいと、前記最適モデルパラメータを含むロジスティック回帰モデルが要求を満たすと判定し、第1主題分類器を訓練するステップと、を実現することができる。
前記TP、TN、FN及びFPに基づき、それぞれ計算式FPR=FP/(FP+TN)、TPR=TP/(TP+FN)を用いて偽陽性率FPRと真陽性率TPRを算出するステップと、
前記FPRを横座標とし、前記TPRを縦座標として、ROC曲線をプロットするステップと、を実現することができる。
前記第2ハッシュテーブルを前記第1主題分類器に代入し、前記テストサンプルが対応した話題に属する確率を得るステップと、
前記所定AUC閾値を調整し、かつ前記TP、FP及びFNに基づき正確率pと再現率rを計算するステップと、
前記pが所定p閾値以下であり、又は前記rが所定r閾値以下であると、戻り、前記pが前記所定p閾値より大きく且つ前記rが前記所定r閾値より大きくなるまで、前記所定AUC閾値を調整し、第2主題分類器を訓練するステップと、を実現することができる。
前記第2主題分類器を利用して前記テキストデータを分類するステップを実現することができる。
テキストデータを収集し、前記テキストデータに対して単語分割を行うステップと、
予め設定したストップワードリストに基づき単語分割後のテキストデータのうちのストップワードを除去し、第2キーワードセットを得るステップと、
前記第2キーワードセットのうちの各キーワードの単語出現頻度−逆文書頻度TF−IDF値を計算し、TFIDF値が所定TF−IDF閾値未満のキーワードを除去し、対応した第1キーワードセットを得るステップと、を実現することができる。
前記第2キーワードセットのうちの各キーワードの単語出現頻度TFと逆文書頻度IDFを計算するステップと、
前記TFとIDFに基づき前記第2キーワードセットのうちの各キーワードの単語出現頻度−逆文書頻度TF−IDF値を計算し、TF−IDF値が所定TF−IDF閾値未満のキーワードを除去し、対応した第1キーワードセットを得るステップと、を実現することができる。
ただし、xjは第j個の訓練サンプルの固有ベクトルを示し、x(i)は第i回のサンプリングを示し、θはモデルパラメータを示す。
ただし、niは該キーワードが現在のドキュメントに出現する回数を示し、nは現在のドキュメントのうちのキーワードの総数を示し、Nはデータセットのドキュメントの総数を示し、Niはテキストデータセットにおける該キーワードiを有するドキュメントの数を示す。
テキストデータに基づき対応した話題モデルを訓練した後に手動でタグ付けして取得される訓練サンプルと、テストサンプルとを取得する第1取得モジュールと、
予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、かつ前記訓練サンプルの特徴に基づき、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練する第1訓練モジュールと、
前記テストサンプルの特徴と前記最適モデルパラメータを含むロジスティック回帰モデルに基づき対象作業特徴ROC曲線をプロットし、かつROC曲線下面積AUCに基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価し、第1主題分類器を訓練する第2訓練モジュールと、を備える。
テキストデータを収集し、かつ前記テキストデータを前処理し、対応した第1キーワードセットを取得する収集ユニットと、
前記第1キーワードセットと所定数の話題に基づき、予め設定した主題モデルを利用して前記テキストデータの前記話題での分布を算出し、かつ前記テキストデータの前記話題での分布状況に基づきクラスタリングし、前記テキストデータに対応した話題モデルを訓練する第1訓練ユニットと、
前記話題モデルに基づく前記テキストデータへの手動タグ付け結果に応じて、前記テキストデータから目標主題分類器に対応した訓練サンプルをスクリーニングし、かつ前記テキストデータのうち前記訓練サンプルを除くテキストデータをテストサンプルとする分類ユニットと、を備える。
予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、第1ハッシュテーブルと第2ハッシュテーブルを対応して作成する作成ユニットと、
前記第1ハッシュテーブルをロジスティック回帰モデルに代入し、かつ反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練する第2訓練ユニットと、を備える。
前記第2ハッシュテーブルを前記最適モデルパラメータを含むロジスティック回帰モデルに代入し、真陽性TP、真陰性TN、偽陰性FN及び偽陽性FPを得る取得ユニットと、
前記TP、TN、FN及びFPに基づきROC曲線をプロットするプロットユニットと、
ROC曲線下面積AUCを計算し、AUC値に基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価する評価ユニットと、
前記AUC値が所定AUC閾値以下であると、前記最適モデルパラメータを含むロジスティック回帰モデルが要求を満たさないと判定して戻り、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練する判定ユニットと、
前記AUC値が前記所定AUC閾値より大きいと、前記最適モデルパラメータを含むロジスティック回帰モデルが要求を満たすと判定し、第1主題分類器を訓練する第3訓練ユニットと、を備える。
前記TP、TN、FN及びFPに基づき、それぞれ計算式FPR=FP/(FP+TN)、TPR=TP/(TP+FN)を用いて偽陽性率FPRと真陽性率TPRを算出する計算サブユニットと、
前記FPRを横座標とし、前記TPRを縦座標として、ROC曲線をプロットするプロットサブユニットと、を備える。
前記第2ハッシュテーブルを前記第1主題分類器に代入し、前記テストサンプルが対応した話題に属する確率を得る第2取得モジュールと、
前記所定AUC閾値を調整し、かつ前記TP、FP及びFNに基づき正確率pと再現率rを計算する第1調整モジュールと、
前記pが所定p閾値以下であり、又は前記rが所定r閾値以下であると、戻り、前記pが前記所定p閾値より大きく且つ前記rが前記所定r閾値より大きくなるまで、前記所定AUC閾値を調整し、第2主題分類器を訓練する第2調整モジュールと、
前記第2主題分類器を利用して前記テキストデータを分類する分類モジュールと、をさらに備える。
テキストデータを収集し、かつ前記テキストデータに対して単語分割を行う収集サブユニットと、
予め設定したストップワードリストに基づき単語分割後のテキストデータのうちのストップワードを除去し、第2キーワードセットを得る除去サブユニットと、
前記第2キーワードセットのうちの各キーワードの単語出現頻度−逆文書頻度TF−IDF値を計算し、かつTF−IDF値が所定TF−IDF閾値未満のキーワードを除去し、対応した第1キーワードセットを得る計算サブユニットと、を備える。
前記第2キーワードセットのうちの各キーワードの単語出現頻度TFと逆文書頻度IDFを計算する第1計算サブユニットと、
前記TFとIDFに基づき前記第2キーワードセットのうちの各キーワードの単語出現頻度−逆文書頻度TF−IDF値を計算し、かつTF−IDF値が所定TF−IDF閾値未満のキーワードを除去し、対応した第1キーワードセットを得る第2計算サブユニットと、を備える。
Claims (10)
- 主題分類器の訓練方法であって、
テキストデータに基づき対応した話題モデルを訓練した後に手動でタグ付けして取得される訓練サンプルと、テストサンプルとを取得するステップと、
予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、かつ前記訓練サンプルの特徴に基づき、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練するステップと、
前記テストサンプルの特徴と前記最適モデルパラメータを含むロジスティック回帰モデルに基づき対象作業特徴ROC曲線をプロットし、かつROC曲線下面積AUCに基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価し、第1主題分類器を訓練するステップと、を含むことを特徴とする主題分類器の訓練方法。 - 前記テキストデータに基づき対応した話題モデルを訓練した後に手動でタグ付けして取得される訓練サンプルと、テストサンプルとを取得することは、
テキストデータを収集し、かつ前記テキストデータを前処理し、対応した第1キーワードセットを取得するステップと、
前記第1キーワードセットと所定数の話題に基づき、予め設定した主題モデルを利用して前記テキストデータの前記話題での分布を算出し、かつ前記テキストデータの前記話題での分布状況に基づきクラスタリングし、前記テキストデータに対応した話題モデルを訓練するステップと、
前記話題モデルに基づく前記テキストデータへの手動タグ付け結果に応じて、前記テキストデータから目標主題分類器に対応した訓練サンプルをスクリーニングし、かつ前記テキストデータのうち前記訓練サンプルを除くテキストデータをテストサンプルとするステップと、を含むことを特徴とする請求項1に記載の主題分類器の訓練方法。 - 前記予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、かつ前記訓練サンプルの特徴に基づき、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練することは、
予め設定したアルゴリズムを利用して、それぞれ訓練サンプルとテストサンプルの特徴を抽出し、第1ハッシュテーブルと第2ハッシュテーブルを対応して作成するステップと、
前記第1ハッシュテーブルをロジスティック回帰モデルに代入し、かつ反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練するステップと、を含むことを特徴とする請求項2に記載の主題分類器の訓練方法。 - 前記テストサンプルの特徴と前記最適モデルパラメータを含むロジスティック回帰モデルに基づき対象作業特徴ROC曲線をプロットし、かつROC曲線下面積AUCに基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価し、第1主題分類器を訓練することは、
前記第2ハッシュテーブルを前記最適モデルパラメータを含むロジスティック回帰モデルに代入し、真陽性TP、真陰性TN、偽陰性FN及び偽陽性FPを得るステップと、
前記TP、TN、FN及びFPに基づきROC曲線をプロットするステップと、
ROC曲線下面積AUCを計算し、AUC値に基づき前記最適モデルパラメータを含むロジスティック回帰モデルを評価するステップと、
前記AUC値が所定AUC閾値以下であると、前記最適モデルパラメータを含むロジスティック回帰モデルが要求を満たさないと判定して戻り、反復アルゴリズムによってロジスティック回帰モデルの最適モデルパラメータを算出し、最適モデルパラメータを含むロジスティック回帰モデルを訓練するステップと、
前記AUC値が前記所定AUC閾値より大きいと、前記最適モデルパラメータを含むロジスティック回帰モデルが要求を満たすと判定し、第1主題分類器を訓練するステップと、を含むことを特徴とする請求項3に記載の主題分類器の訓練方法。 - 前記TP、TN、FN及びFPに基づきROC曲線をプロットすることは、
前記TP、TN、FN及びFPに基づき、それぞれ計算式FPR=FP/(FP+TN)、TPR=TP/(TP+FN)を用いて偽陽性率FPRと真陽性率TPRを算出するステップと、
前記FPRを横座標とし、前記TPRを縦座標として、ROC曲線をプロットするステップと、を含むことを特徴とする請求項4に記載の主題分類器の訓練方法。 - 前記第2ハッシュテーブルを前記第1主題分類器に代入し、前記テストサンプルが対応した話題に属する確率を得るステップと、
前記所定AUC閾値を調整し、かつ前記TP、FP及びFNに基づき正確率pと再現率rを計算するステップと、
前記pが所定p閾値以下であり、又は前記rが所定r閾値以下であると、戻り、前記pが前記所定p閾値より大きく且つ前記rが前記所定r閾値より大きくなるまで、前記所定AUC閾値を調整し、第2主題分類器を訓練するステップと、
前記第2主題分類器を利用して前記テキストデータを分類するステップと、をさらに含むことを特徴とする請求項4に記載の主題分類器の訓練方法。 - 前記テキストデータを収集し、かつ前記テキストデータを前処理し、対応した第1キーワードセットを取得することは、
テキストデータを収集し、かつ前記テキストデータに対して単語分割を行うステップと、
予め設定したストップワードリストに基づき単語分割後のテキストデータのうちのストップワードを除去し、第2キーワードセットを得るステップと、
前記第2キーワードセットのうちの各キーワードの単語出現頻度−逆文書頻度TF−IDF値を計算し、かつTF−IDF値が所定TF−IDF閾値未満のキーワードを除去し、対応した第1キーワードセットを得るステップと、を含むことを特徴とする請求項2に記載の主題分類器の訓練方法。 - 前記第2キーワードセットのうちの各キーワードの単語出現頻度−逆文書頻度TF−IDF値を計算し、かつTF−IDF値が所定TF−IDF閾値未満のキーワードを除去し、対応した第1キーワードセットを得ることは、
前記第2キーワードセットのうちの各キーワードの単語出現頻度TFと逆文書頻度IDFを計算するステップと、
前記TFとIDFに基づき前記第2キーワードセットのうちの各キーワードの単語出現頻度−逆文書頻度TF−IDF値を計算し、かつTF−IDF値が所定TF−IDF閾値未満のキーワードを除去し、対応した第1キーワードセットを得るステップと、を含むことを特徴とする請求項7に記載の主題分類器の訓練方法。 - 主題分類器の訓練装置であって、
メモリ、プロセッサ、及び前記メモリに記憶され前記プロセッサに実行可能な主題分類器訓練プログラムを備え、前記主題分類器訓練プログラムが前記プロセッサにより実行されるときに、請求項1〜8のいずれか一項に記載の主題分類器の訓練方法を実現することを特徴とする主題分類器の訓練装置。 - 主題分類器訓練プログラムが記憶されるコンピュータ読み取り可能な記憶媒体であって、
前記主題分類プログラムがプロセッサにより実行されるとき、請求項1〜8のいずれか一項に記載の主題分類器の訓練方法を実現することを特徴とするコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710741128.7A CN107704495B (zh) | 2017-08-25 | 2017-08-25 | 主题分类器的训练方法、装置及计算机可读存储介质 |
CN201710741128.7 | 2017-08-25 | ||
PCT/CN2017/104106 WO2019037197A1 (zh) | 2017-08-25 | 2017-09-28 | 主题分类器的训练方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019535047A true JP2019535047A (ja) | 2019-12-05 |
JP6764488B2 JP6764488B2 (ja) | 2020-09-30 |
Family
ID=61171128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018564802A Active JP6764488B2 (ja) | 2017-08-25 | 2017-09-28 | 主題分類器の訓練方法、装置及びコンピュータ読み取り可能な記憶媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200175397A1 (ja) |
JP (1) | JP6764488B2 (ja) |
CN (1) | CN107704495B (ja) |
WO (1) | WO2019037197A1 (ja) |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704495B (zh) * | 2017-08-25 | 2018-08-10 | 平安科技(深圳)有限公司 | 主题分类器的训练方法、装置及计算机可读存储介质 |
US10953548B2 (en) * | 2018-07-19 | 2021-03-23 | International Business Machines Corporation | Perform peg-in-hole task with unknown tilt |
CN109815991B (zh) * | 2018-12-29 | 2021-02-19 | 北京城市网邻信息技术有限公司 | 机器学习模型的训练方法、装置、电子设备及存储介质 |
CN111797990A (zh) * | 2019-04-08 | 2020-10-20 | 北京百度网讯科技有限公司 | 机器学习模型的训练方法、训练装置和训练系统 |
CN110334728B (zh) * | 2019-05-06 | 2022-04-01 | 中国联合网络通信集团有限公司 | 一种面向工业互联网的故障预警方法及装置 |
CN110428015A (zh) * | 2019-08-07 | 2019-11-08 | 北京嘉和海森健康科技有限公司 | 一种模型的训练方法及相关设备 |
CN110414627A (zh) * | 2019-08-07 | 2019-11-05 | 北京嘉和海森健康科技有限公司 | 一种模型的训练方法及相关设备 |
CN112541776A (zh) * | 2019-09-20 | 2021-03-23 | 北京达佳互联信息技术有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN110719272A (zh) * | 2019-09-27 | 2020-01-21 | 湖南大学 | 一种基于lr算法的慢速拒绝服务攻击检测方法 |
CN110728315B (zh) * | 2019-09-30 | 2023-09-15 | 复旦大学附属中山医院 | 一种实时质量控制方法,系统和设备 |
CN111090746B (zh) * | 2019-11-29 | 2023-04-28 | 北京明略软件系统有限公司 | 确定最佳主题数量的方法、情感分类器的训练方法和装置 |
CN111242170B (zh) * | 2019-12-31 | 2023-07-25 | 航天信息股份有限公司 | 食品检验检测项目预知方法及装置 |
JP6884436B1 (ja) * | 2020-01-16 | 2021-06-09 | 株式会社テンクー | 文書表示支援システム及び文書表示支援方法並びに該方法を実行するためのプログラム |
CN111401962A (zh) * | 2020-03-20 | 2020-07-10 | 上海络昕信息科技有限公司 | 一种关键意见消费者挖掘方法、装置、设备以及介质 |
CN111522750B (zh) * | 2020-04-27 | 2024-03-22 | 中国银行股份有限公司 | 一种功能测试问题的处理方法及系统 |
CN111695820B (zh) * | 2020-06-16 | 2023-04-18 | 深圳市城市公共安全技术研究院有限公司 | 工程车辆电子联单管理方法、装置、终端及存储介质 |
CN111708810B (zh) * | 2020-06-17 | 2022-05-27 | 北京世纪好未来教育科技有限公司 | 模型优化推荐方法、装置和计算机存储介质 |
CN111814868A (zh) * | 2020-07-03 | 2020-10-23 | 苏州动影信息科技有限公司 | 一种基于影像组学特征选择的模型、构建方法和应用 |
CN112507792B (zh) * | 2020-11-04 | 2024-01-23 | 华中师范大学 | 在线视频关键帧定位方法、定位系统、设备及存储介质 |
CN112507170A (zh) * | 2020-12-01 | 2021-03-16 | 平安医疗健康管理股份有限公司 | 基于智能决策的数据资产目录构建方法、及其相关设备 |
CN112750530A (zh) * | 2021-01-05 | 2021-05-04 | 上海梅斯医药科技有限公司 | 一种模型的训练方法、终端设备和存储介质 |
CN112734568B (zh) * | 2021-01-29 | 2024-01-12 | 深圳前海微众银行股份有限公司 | 信用评分卡模型构建方法、装置、设备及可读存储介质 |
CN112968872B (zh) * | 2021-01-29 | 2023-04-18 | 成都信息工程大学 | 基于自然语言处理的恶意流量检测方法、系统、终端 |
CN113222650B (zh) * | 2021-04-29 | 2023-11-14 | 西安点告网络科技有限公司 | 广告投放模型的训练特征选取方法、系统、设备及介质 |
CN113705247B (zh) * | 2021-10-27 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 主题模型效果评估方法、装置、设备、存储介质和产品 |
CN114241603B (zh) * | 2021-12-17 | 2022-08-26 | 中南民族大学 | 基于可穿戴设备的毽球动作识别与水平等级评估方法及系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7415445B2 (en) * | 2002-09-24 | 2008-08-19 | Hewlett-Packard Development Company, L.P. | Feature selection for two-class classification systems |
GB0517954D0 (en) * | 2005-09-02 | 2005-10-12 | Imp College Innovations Ltd | Bayesian feature selection |
US20120284212A1 (en) * | 2011-05-04 | 2012-11-08 | Google Inc. | Predictive Analytical Modeling Accuracy Assessment |
US20150324459A1 (en) * | 2014-05-09 | 2015-11-12 | Chegg, Inc. | Method and apparatus to build a common classification system across multiple content entities |
CN104504583B (zh) * | 2014-12-22 | 2018-06-26 | 广州品唯软件有限公司 | 分类器的评价方法 |
CN107045506A (zh) * | 2016-02-05 | 2017-08-15 | 阿里巴巴集团控股有限公司 | 评估指标获取方法及装置 |
CN105930411A (zh) * | 2016-04-18 | 2016-09-07 | 苏州大学 | 一种分类器训练方法、分类器和情感分类系统 |
CN106021410A (zh) * | 2016-05-12 | 2016-10-12 | 中国科学院软件研究所 | 一种基于机器学习的源代码注释质量评估方法 |
CN106650780B (zh) * | 2016-10-18 | 2021-02-12 | 腾讯科技(深圳)有限公司 | 数据处理方法及装置、分类器训练方法及系统 |
CN106600455A (zh) * | 2016-11-25 | 2017-04-26 | 国网河南省电力公司电力科学研究院 | 一种基于逻辑回归的电费敏感度评估方法 |
CN107704495B (zh) * | 2017-08-25 | 2018-08-10 | 平安科技(深圳)有限公司 | 主题分类器的训练方法、装置及计算机可读存储介质 |
-
2017
- 2017-08-25 CN CN201710741128.7A patent/CN107704495B/zh active Active
- 2017-09-28 JP JP2018564802A patent/JP6764488B2/ja active Active
- 2017-09-28 US US16/314,398 patent/US20200175397A1/en not_active Abandoned
- 2017-09-28 WO PCT/CN2017/104106 patent/WO2019037197A1/zh active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP6764488B2 (ja) | 2020-09-30 |
WO2019037197A1 (zh) | 2019-02-28 |
CN107704495B (zh) | 2018-08-10 |
US20200175397A1 (en) | 2020-06-04 |
CN107704495A (zh) | 2018-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6764488B2 (ja) | 主題分類器の訓練方法、装置及びコンピュータ読み取り可能な記憶媒体 | |
JP6799081B2 (ja) | ユーザ興味の識別方法、装置およびコンピュータ読み取り可能な記憶媒体 | |
US11361243B2 (en) | Recommending machine learning techniques, features, and feature relevance scores | |
CN108628971B (zh) | 不均衡数据集的文本分类方法、文本分类器及存储介质 | |
US11544459B2 (en) | Method and apparatus for determining feature words and server | |
JP2021516398A (ja) | 音楽推薦方法、装置、コンピューティング機器及び媒体 | |
US11392836B2 (en) | Structuring data in a knowledge graph | |
US11429807B2 (en) | Automated collection of machine learning training data | |
US20190236135A1 (en) | Cross-lingual text classification | |
US20180225372A1 (en) | User classification based on multimodal information | |
CA2997986C (en) | Scoring mechanism for discovery of extremist content | |
KR102544453B1 (ko) | 정보 처리 방법, 장치 및 저장 매체 | |
CN111914113A (zh) | 一种图像检索的方法以及相关装置 | |
CN111539212A (zh) | 文本信息处理方法、装置、存储介质及电子设备 | |
KR20210091076A (ko) | 비디오를 처리하기 위한 방법, 장치, 전자기기, 매체 및 컴퓨터 프로그램 | |
KR101545050B1 (ko) | 정답 유형 자동 분류 방법 및 장치, 이를 이용한 질의 응답 시스템 | |
JP2018206361A (ja) | ユーザ指向トピック選択及びブラウジングのためのシステム及び方法、複数のコンテンツ項目を表示する方法、プログラム、及びコンピューティングデバイス | |
CN115795030A (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
CN106484913B (zh) | 一种目标图片确定的方法以及服务器 | |
WO2022245469A1 (en) | Rule-based machine learning classifier creation and tracking platform for feedback text analysis | |
CN110750983A (zh) | 语料识别方法、装置、设备及计算机可读存储介质 | |
CN110019763B (zh) | 文本过滤方法、系统、设备及计算机可读存储介质 | |
CN113919361A (zh) | 一种文本分类方法和装置 | |
US11645456B2 (en) | Siamese neural networks for flagging training data in text-based machine learning | |
JP5929532B2 (ja) | イベント検出装置、イベント検出方法およびイベント検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6764488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |