JP7302022B2 - テキスト分類方法、装置、コンピュータ読み取り可能な記憶媒体及びテキスト分類プログラム。 - Google Patents
テキスト分類方法、装置、コンピュータ読み取り可能な記憶媒体及びテキスト分類プログラム。 Download PDFInfo
- Publication number
- JP7302022B2 JP7302022B2 JP2021569247A JP2021569247A JP7302022B2 JP 7302022 B2 JP7302022 B2 JP 7302022B2 JP 2021569247 A JP2021569247 A JP 2021569247A JP 2021569247 A JP2021569247 A JP 2021569247A JP 7302022 B2 JP7302022 B2 JP 7302022B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- vector
- vectors
- labeled
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/091—Active learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
位置エンコードを用いてラベル付きのテキストベクトルに位置情報を付加し、初期的な単語ベクトルで前記位置情報が付加されたラベル付きのテキストベクトルを表すステップと、
ラベル付きのテキストベクトルの品詞を取得し、前記品詞を品詞ベクトルに変換するステップと、
前記初期的な単語ベクトルと前記品詞ベクトルを加算し、前記ラベル付きのテキストベクトルの単語ベクトルを得るステップと、
前記単語ベクトルで表されたラベル付きのテキストベクトルをTransformerモデルに入力してデータ処理を行い、前記ラベル付きのテキストベクトルの単語行列を得るステップと、
前記単語行列を用いて、前記ラベル付きのテキストベクトルにおける2つの文が前後文であるか否か、2つの文中の隠し単語及び前記隠し単語の品詞特徴を予測するステップと、を含む。前記BERTモデルを訓練することにより、前記BERTモデルに入力されたテキストベクトルに1つの対応する品詞特徴を予測させることができ、品詞特徴に対して正規化処理を行って前記文字ベクトル特徴を得る。
位置エンコードを用いてラベル付きのテキストベクトルに位置情報を付加し、初期的な単語ベクトルで前記位置情報が付加されたラベル付きのテキストベクトルを表すステップと、
ラベル付きのテキストベクトルの品詞を取得し、前記品詞を品詞ベクトルに変換するステップと、
前記初期的な単語ベクトルと前記品詞ベクトルを加算し、前記ラベル付きのテキストベクトルの単語ベクトルを得るステップと、
前記単語ベクトルで表されたラベル付きのテキストベクトルをTransformerモデルに入力してデータ処理を行い、前記ラベル付きのテキストベクトルの単語行列を得るステップと、
前記単語行列を用いて、前記ラベル付きのテキストベクトルにおける2つの文が前後文であるか否か、2つの文中の隠し単語及び前記隠し単語の品詞特徴を予測するステップと、を含む。前記BERTモデルを訓練することにより、前記BERTモデルに入力されたテキストベクトルに1つの対応する品詞特徴を予測させることができ、品詞特徴に対して正規化処理を行って前記文字ベクトル特徴を得る。
Claims (10)
- プロセッサにより、オリジナルのテキストデータに対して前処理を行ってテキストベクトルを得るステップと、
プロセッサにより、前記テキストベクトルに対してラベルマッチングを行い、ラベル付きのテキストベクトルとラベルなしのテキストベクトルを得るステップと、
プロセッサにより、前記ラベル付きのテキストベクトルをBERTモデルに入力して文字ベクトル特徴を取得するステップと、
プロセッサにより、前記文字ベクトル特徴に基づいて、畳み込みニューラルネットワークモデルを用いて前記ラベルなしのテキストベクトルを訓練し、仮想ラベル付きのテキストベクトルを得るステップと、
プロセッサにより、ランダムフォレストモデルを用いて前記ラベル付きのテキストベクトルと仮想ラベル付きのテキストベクトルに対してマルチラベル分類を行い、テキスト分類結果を得るステップと、を含み、
プロセッサにより、文字ベクトル特徴に基づいて、畳み込みニューラルネットワークモデルを用いて前記ラベルなしのテキストベクトルを訓練し、仮想ラベル付きのテキストベクトルを得る前記ステップは、
プロセッサにより、前記ラベルなしのテキストベクトルを前記畳み込みニューラルネットワークモデルの畳み込み層に入力して前記畳み込みニューラルネットワークモデルを訓練し、訓練後の畳み込みニューラルネットワークモデルを得るステップと、
プロセッサにより、前記文字ベクトル特徴を前記訓練後の畳み込みニューラルネットワークモデルに入力し、特徴ベクトルを得るステップと、
プロセッサにより、前記特徴ベクトルに対して正規化処理を行って前記仮想ラベルを得るステップと、
プロセッサにより、前記仮想ラベルを前記ラベルなしのテキストベクトルにマッチングさせ、仮想ラベル付きのテキストベクトルを得るステップと、を含む
ことを特徴とするテキスト分類方法。 - オリジナルのテキストデータに対して前処理を行ってテキストベクトルを得る前記ステップは、
前記オリジナルのテキストデータに対して単語分割操作を行って第2のテキストデータを得るステップと、
前記第2のテキストデータに対してストップワード除去操作を行って第3のテキストデータを得るステップと、
前記第3のテキストデータに対して重複除去操作を行って第4のテキストデータを得るステップと、
前記第4のテキストデータに対して単語ベクトル形式への変換を行って前記テキストベクトルを得るステップと、を含むことを特徴とする請求項1に記載のテキスト分類方法。 - 前記BERTモデルは入力層、単語ベクトル層、分類層、符号化層を含み、また、
前記ラベル付きのテキストベクトルをBERTモデルに入力して文字ベクトル特徴を取得する前記ステップは、
ラベル付きのテキストベクトルの品詞を取得し、前記品詞を品詞ベクトルに変換するステップと、
前記ラベル付きのテキストベクトルに対応する前記品詞ベクトルをBERTモデルに入力してデータ処理を行い、前記ラベル付きのテキストベクトルの単語行列を得るステップと、
前記ラベル付きのテキストベクトルの単語行列に基づいて前記ラベル付きのテキストベクトルの文字ベクトル特徴を得るステップと、を含むことを特徴とする請求項1に記載のテキスト分類方法。 - 仮想ラベル付きのテキストベクトルを得る前記ステップの後、前記ランダムフォレストモデルを生成するステップをさらに含み、
前記ランダムフォレストモデルを生成する前記ステップは、
バギングアルゴリズムの復元サンプリングアルゴリズムを用いて、前記ラベル付きのテキストベクトルと仮想ラベル付きのテキストベクトルから複数のサンプルサブセットを抽出し、前記サンプルサブセットを用いて複数の決定木モデルを訓練するステップと、
前記決定木モデルをベース分類器とし、予め設定された分割ルールを利用して前記サンプルサブセットを分割し、複数の前記決定木モデルで構成されるランダムフォレストモデルを生成するステップと、を含むことを特徴とする請求項1に記載のテキスト分類方法。 - テキスト分類装置であって、メモリとプロセッサとを含み、前記メモリに前記プロセッサで実行可能なテキスト分類プログラムが記憶されており、前記テキスト分類プログラムが前記プロセッサにより実行されると、
オリジナルのテキストデータに対して前処理を行ってテキストベクトルを得るステップと、
前記テキストベクトルに対してラベルマッチングを行い、ラベル付きのテキストベクトルとラベルなしのテキストベクトルを得るステップと、
前記ラベル付きのテキストベクトルをBERTモデルに入力して文字ベクトル特徴を取得するステップと、
前記文字ベクトル特徴に基づいて、畳み込みニューラルネットワークモデルを用いて前記ラベルなしのテキストベクトルを訓練し、仮想ラベル付きのテキストベクトルを得るステップと、
ランダムフォレストモデルを用いて前記ラベル付きのテキストベクトルと仮想ラベル付きのテキストベクトルに対してマルチラベル分類を行い、テキスト分類結果を得るステップと、を実現させ、
文字ベクトル特徴に基づいて、畳み込みニューラルネットワークモデルを用いて前記ラベルなしのテキストベクトルを訓練し、仮想ラベル付きのテキストベクトルを得る前記ステップは、
前記ラベルなしのテキストベクトルを前記畳み込みニューラルネットワークモデルの畳み込み層に入力して前記畳み込みニューラルネットワークモデルを訓練し、訓練後の畳み込みニューラルネットワークモデルを得るステップと、
前記文字ベクトル特徴を前記訓練後の畳み込みニューラルネットワークモデルに入力し、特徴ベクトルを得るステップと、
前記特徴ベクトルに対して正規化処理を行って前記仮想ラベルを得るステップと、
前記仮想ラベルを前記ラベルなしのテキストベクトルにマッチングさせ、仮想ラベル付きのテキストベクトルを得るステップと、を含むことを特徴とするテキスト分類装置。 - オリジナルのテキストデータに対して前処理を行ってテキストベクトルを得る前記ステップは、
前記オリジナルのテキストデータに対して単語分割操作を行って第2のテキストデータを得るステップと、
前記第2のテキストデータに対してストップワード除去操作を行って第3のテキストデータを得るステップと、
前記第3のテキストデータに対して重複除去操作を行って第4のテキストデータを得るステップと、
前記第4のテキストデータに対して単語ベクトル形式への変換を行って前記テキストベクトルを得るステップと、を含むことを特徴とする請求項5に記載のテキスト分類装置。 - 前記BERTモデルは入力層、単語ベクトル層、分類層、符号化層を含み、また、
前記ラベル付きのテキストベクトルをBERTモデルに入力して文字ベクトル特徴を取得する前記ステップは、
ラベル付きのテキストベクトルの品詞を取得し、前記品詞を品詞ベクトルに変換するステップと、
前記ラベル付きのテキストベクトルに対応する前記品詞ベクトルをBERTモデルに入力してデータ処理を行い、前記ラベル付きのテキストベクトルの単語行列を得るステップと、
前記ラベル付きのテキストベクトルの単語行列に基づいて前記ラベル付きのテキストベクトルの文字ベクトル特徴を得るステップと、を含むことを特徴とする請求項5に記載のテキスト分類装置。 - 仮想ラベル付きのテキストベクトルを得る前記ステップの後、前記ランダムフォレストモデルを生成するステップをさらに含み、
前記ランダムフォレストモデルを生成する前記ステップは、
バギングアルゴリズムの復元サンプリングアルゴリズムを用いて、前記ラベル付きのテキストベクトルと仮想ラベル付きのテキストベクトルから複数のサンプルサブセットを抽出し、前記サンプルサブセットを用いて複数の決定木モデルを訓練するステップと、
前記決定木モデルをベース分類器とし、予め設定された分割ルールを利用して前記サンプルサブセットを分割し、複数の前記決定木モデルで構成されるランダムフォレストモデルを生成するステップと、を含むことを特徴とする請求項7に記載のテキスト分類装置。 - 請求項1乃至4のいずれか一項に記載のテキスト分類方法を1つ以上のプロセッサに実行させるテキストプログラムが記憶されたコンピュータ読み取り可能な記憶媒体。
- 請求項1乃至4のいずれか一項に記載のテキスト分類方法を1つ以上のプロセッサに実行させるテキスト分類プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910967010.5 | 2019-10-11 | ||
CN201910967010.5A CN110851596B (zh) | 2019-10-11 | 2019-10-11 | 文本分类方法、装置及计算机可读存储介质 |
PCT/CN2019/118010 WO2021068339A1 (zh) | 2019-10-11 | 2019-11-13 | 文本分类方法、装置及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022534377A JP2022534377A (ja) | 2022-07-29 |
JP7302022B2 true JP7302022B2 (ja) | 2023-07-03 |
Family
ID=69597311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021569247A Active JP7302022B2 (ja) | 2019-10-11 | 2019-11-13 | テキスト分類方法、装置、コンピュータ読み取り可能な記憶媒体及びテキスト分類プログラム。 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230195773A1 (ja) |
JP (1) | JP7302022B2 (ja) |
CN (1) | CN110851596B (ja) |
SG (1) | SG11202112456YA (ja) |
WO (1) | WO2021068339A1 (ja) |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111506696A (zh) * | 2020-03-03 | 2020-08-07 | 平安科技(深圳)有限公司 | 基于少量训练样本的信息抽取方法及装置 |
CN111159415B (zh) * | 2020-04-02 | 2020-07-14 | 成都数联铭品科技有限公司 | 序列标注方法及系统、事件要素抽取方法及系统 |
CN111460162B (zh) * | 2020-04-11 | 2021-11-02 | 科技日报社 | 一种文本分类方法、装置、终端设备及计算机可读存储介质 |
CN111651605B (zh) * | 2020-06-04 | 2022-07-05 | 电子科技大学 | 基于多标签分类的肺癌前沿趋势预测方法 |
CN113342970B (zh) * | 2020-11-24 | 2023-01-03 | 中电万维信息技术有限责任公司 | 一种多标签复杂文本分类方法 |
CN112541055A (zh) * | 2020-12-17 | 2021-03-23 | 中国银联股份有限公司 | 一种确定文本标签的方法及装置 |
CN112632971B (zh) * | 2020-12-18 | 2023-08-25 | 上海明略人工智能(集团)有限公司 | 一种用于实体匹配的词向量训练方法与系统 |
CN113076426B (zh) * | 2021-06-07 | 2021-08-13 | 腾讯科技(深圳)有限公司 | 多标签文本分类及模型训练方法、装置、设备及存储介质 |
CN113342940B (zh) * | 2021-06-24 | 2023-12-08 | 中国平安人寿保险股份有限公司 | 文本匹配分析方法、装置、电子设备及存储介质 |
CN113344125B (zh) * | 2021-06-29 | 2024-04-05 | 中国平安人寿保险股份有限公司 | 长文本匹配识别方法、装置、电子设备及存储介质 |
CN113239689B (zh) * | 2021-07-07 | 2021-10-08 | 北京语言大学 | 面向易混淆词考察的选择题干扰项自动生成方法及装置 |
CN113553848B (zh) * | 2021-07-19 | 2024-02-02 | 北京奇艺世纪科技有限公司 | 长文本分类方法、系统、电子设备、计算机可读存储介质 |
CN113656587B (zh) * | 2021-08-25 | 2023-08-04 | 北京百度网讯科技有限公司 | 文本分类方法、装置、电子设备及存储介质 |
CN113610194B (zh) * | 2021-09-09 | 2023-08-11 | 重庆数字城市科技有限公司 | 一种数字档案自动分类方法 |
CN113849655B (zh) * | 2021-12-02 | 2022-02-18 | 江西师范大学 | 一种专利文本多标签分类方法 |
CN114091472B (zh) * | 2022-01-20 | 2022-06-10 | 北京零点远景网络科技有限公司 | 多标签分类模型的训练方法 |
CN114548100A (zh) * | 2022-03-01 | 2022-05-27 | 深圳市医未医疗科技有限公司 | 一种基于大数据技术的临床科研辅助方法与系统 |
CN114817538B (zh) * | 2022-04-26 | 2023-08-08 | 马上消费金融股份有限公司 | 文本分类模型的训练方法、文本分类方法及相关设备 |
CN116932767B (zh) * | 2023-09-18 | 2023-12-12 | 江西农业大学 | 基于知识图谱的文本分类方法、系统、存储介质及计算机 |
CN116992035B (zh) * | 2023-09-27 | 2023-12-08 | 湖南正宇软件技术开发有限公司 | 一种提案智能分类的方法、装置、计算机设备和介质 |
CN117875262B (zh) * | 2024-03-12 | 2024-06-04 | 青岛天一红旗软控科技有限公司 | 基于管理平台的数据处理方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011138484A (ja) | 2009-12-30 | 2011-07-14 | Nec (China) Co Ltd | マルチレベル分類モデルを構築する方法とシステム |
JP2019159576A (ja) | 2018-03-09 | 2019-09-19 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
JP2019527440A (ja) | 2016-12-07 | 2019-09-26 | 三菱電機株式会社 | マルチ関連ラベルを生成する方法及びシステム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160253597A1 (en) * | 2015-02-27 | 2016-09-01 | Xerox Corporation | Content-aware domain adaptation for cross-domain classification |
CN105868773A (zh) * | 2016-03-23 | 2016-08-17 | 华南理工大学 | 一种基于层次随机森林的多标签分类方法 |
US20170308790A1 (en) * | 2016-04-21 | 2017-10-26 | International Business Machines Corporation | Text classification by ranking with convolutional neural networks |
CN107656990A (zh) * | 2017-09-14 | 2018-02-02 | 中山大学 | 一种基于字和词两个层面特征信息的文本分类方法 |
CN107577785B (zh) * | 2017-09-15 | 2020-02-07 | 南京大学 | 一种适用于法律识别的层次多标签分类方法 |
CN108073677B (zh) * | 2017-11-02 | 2021-12-28 | 中国科学院信息工程研究所 | 一种基于人工智能的多级文本多标签分类方法及系统 |
CN108829810A (zh) * | 2018-06-08 | 2018-11-16 | 东莞迪赛软件技术有限公司 | 面向健康舆情的文本分类方法 |
CN109471946B (zh) * | 2018-11-16 | 2021-10-01 | 中国科学技术大学 | 一种中文文本的分类方法及系统 |
CN109739986A (zh) * | 2018-12-28 | 2019-05-10 | 合肥工业大学 | 一种基于深度集成学习的投诉短文本分类方法 |
CN109918500A (zh) * | 2019-01-17 | 2019-06-21 | 平安科技(深圳)有限公司 | 基于卷积神经网络的文本分类方法及相关设备 |
CN109800435B (zh) * | 2019-01-29 | 2023-06-20 | 北京金山数字娱乐科技有限公司 | 一种语言模型的训练方法及装置 |
CN110309302B (zh) * | 2019-05-17 | 2023-03-24 | 江苏大学 | 一种结合svm和半监督聚类的不平衡文本分类方法及系统 |
CN110442707B (zh) * | 2019-06-21 | 2022-06-17 | 电子科技大学 | 一种基于seq2seq的多标签文本分类方法 |
-
2019
- 2019-10-11 CN CN201910967010.5A patent/CN110851596B/zh active Active
- 2019-11-13 JP JP2021569247A patent/JP7302022B2/ja active Active
- 2019-11-13 WO PCT/CN2019/118010 patent/WO2021068339A1/zh active Application Filing
- 2019-11-13 SG SG11202112456YA patent/SG11202112456YA/en unknown
- 2019-11-13 US US17/613,483 patent/US20230195773A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011138484A (ja) | 2009-12-30 | 2011-07-14 | Nec (China) Co Ltd | マルチレベル分類モデルを構築する方法とシステム |
JP2019527440A (ja) | 2016-12-07 | 2019-09-26 | 三菱電機株式会社 | マルチ関連ラベルを生成する方法及びシステム |
JP2019159576A (ja) | 2018-03-09 | 2019-09-19 | 富士通株式会社 | 学習プログラム、学習方法および学習装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110851596B (zh) | 2023-06-27 |
CN110851596A (zh) | 2020-02-28 |
US20230195773A1 (en) | 2023-06-22 |
WO2021068339A1 (zh) | 2021-04-15 |
SG11202112456YA (en) | 2021-12-30 |
JP2022534377A (ja) | 2022-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7302022B2 (ja) | テキスト分類方法、装置、コンピュータ読み取り可能な記憶媒体及びテキスト分類プログラム。 | |
CN110347835B (zh) | 文本聚类方法、电子装置及存储介质 | |
CN108717406B (zh) | 文本情绪分析方法、装置及存储介质 | |
Demir et al. | Improving named entity recognition for morphologically rich languages using word embeddings | |
JP5825676B2 (ja) | ノン・ファクトイド型質問応答システム及びコンピュータプログラム | |
US20200104350A1 (en) | Information extraction from open-ended schema-less tables | |
WO2021051518A1 (zh) | 基于神经网络模型的文本数据分类方法、装置及存储介质 | |
US20130036076A1 (en) | Method for keyword extraction | |
CN111931500B (zh) | 搜索信息的处理方法、装置 | |
CN110334186B (zh) | 数据查询方法、装置、计算机设备及计算机可读存储介质 | |
CN111241828A (zh) | 情感智能识别方法、装置及计算机可读存储介质 | |
Banik et al. | Gru based named entity recognition system for bangla online newspapers | |
US11537918B2 (en) | Systems and methods for document similarity matching | |
KR101545050B1 (ko) | 정답 유형 자동 분류 방법 및 장치, 이를 이용한 질의 응답 시스템 | |
CN116258137A (zh) | 文本纠错方法、装置、设备和存储介质 | |
CN114970553B (zh) | 基于大规模无标注语料的情报分析方法、装置及电子设备 | |
CN114492437B (zh) | 关键词识别方法、装置、电子设备及存储介质 | |
CN113468311B (zh) | 一种基于知识图谱的复杂问句问答方法、装置及存储介质 | |
Delgado-Solano et al. | Keyword Extraction From Users' Requirements Using TextRank and Frequency Analysis, and Their Classification into ISO/IEC 25000 Quality Categories | |
Riemer et al. | A deep learning and knowledge transfer based architecture for social media user characteristic determination | |
CN115048523A (zh) | 文本分类方法、装置、设备以及存储介质 | |
CN114255067A (zh) | 数据定价方法和装置、电子设备、存储介质 | |
JP5342574B2 (ja) | トピックモデリング装置、トピックモデリング方法、及びプログラム | |
Testas | Natural Language Processing with Pandas, Scikit-Learn, and PySpark | |
CN114897038B (zh) | 目标词语的检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211119 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211119 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230621 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7302022 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |