JP7110416B2 - コアエンティティのタグ付け方法、コアエンティティのタグ付け装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents
コアエンティティのタグ付け方法、コアエンティティのタグ付け装置、電子機器、記憶媒体及びコンピュータプログラム Download PDFInfo
- Publication number
- JP7110416B2 JP7110416B2 JP2021004630A JP2021004630A JP7110416B2 JP 7110416 B2 JP7110416 B2 JP 7110416B2 JP 2021004630 A JP2021004630 A JP 2021004630A JP 2021004630 A JP2021004630 A JP 2021004630A JP 7110416 B2 JP7110416 B2 JP 7110416B2
- Authority
- JP
- Japan
- Prior art keywords
- entity
- target text
- vector sequence
- character
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Optimization (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Operations Research (AREA)
- Animal Behavior & Ethology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
- Road Signs Or Road Markings (AREA)
- Molds, Cores, And Manufacturing Methods Thereof (AREA)
Description
Claims (17)
- コアエンティティのタグ付け装置によって実行されるコアエンティティのタグ付け方法であって、
それぞれ目標テキストに対して文字ベクトルマッピング、単語ベクトルマッピング及びエンティティベクトルマッピングを行い、前記目標テキストのそれぞれに対応する文字ベクトルシーケンス、第1の単語ベクトルシーケンス及びエンティティベクトルシーケンスを取得するステップであって、前記文字ベクトルシーケンスが前記目標テキスト中の各文字に対応する文字ベクトルを含み、前記第1の単語ベクトルシーケンスが前記目標テキスト中の各分割された単語に対応する単語ベクトルを含み、前記エンティティベクトルシーケンスが前記目標テキスト中の各エンティティに対応するエンティティベクトルを含むステップと、
前記目標テキストに対応する文字ベクトルシーケンス、第1の単語ベクトルシーケンス及びエンティティベクトルシーケンスに基づいて、前記目標テキストに対応する目標ベクトルシーケンスを生成するステップと、
予め設定されたネットワークモデルを利用して、前記目標ベクトルシーケンスを符号化・復号化処理し、前記目標テキスト中の各文字のコアエンティティの開始文字としての確率、及び終止文字としての確率を決定するステップと、
各文字のコアエンティティの開始文字としての確率、及び終止文字としての確率に基づいて、前記目標テキストのコアエンティティを決定するステップと、を含む、コアエンティティのタグ付け方法。 - 前記目標テキスト中の各文字のコアエンティティの開始文字としての確率、及び終止文字としての確率を決定するステップの前に、
前記目標テキスト中の各エンティティに対応するコアエンティティの事前確率を取得するステップと、
前記目標テキスト中の各エンティティに対応するコアエンティティの事前確率を全結合処理し、前記目標テキストに対応する事前シーケンスベクトルを決定するステップと、をさらに含み、
前記目標テキスト中の各文字のコアエンティティの開始文字としての確率、及び終止文字としての確率を決定するステップは、
予め設定されたネットワークモデルを利用して、前記目標ベクトルシーケンスを符号化処理し、前記目標ベクトルシーケンスに対応する目標シーケンスベクトルを決定するステップと、
前記予め設定されたネットワークモデルを利用して、前記目標シーケンスベクトル及び前記事前シーケンスベクトルを復号化処理し、前記目標テキスト中の各文字のコアエンティティの開始文字としての確率、及び終止文字としての確率を決定するステップと、を含む、請求項1に記載の方法。 - 前記目標テキストに対応する目標ベクトルシーケンスを生成するステップは、
前記第1の単語ベクトルシーケンス中の第1の単語ベクトルに対応する第1の分割された単語に含まれる文字の数がNである場合、前記第1の単語ベクトルをN回繰り返して、第2の単語ベクトルシーケンスを生成するステップと、
前記第2の単語ベクトルシーケンスをマトリクス変換し、次元数が前記目標テキストに対応する文字ベクトルシーケンス次元数と同じである第3の単語ベクトルシーケンスを生成するステップと、
前記第3の単語ベクトルシーケンスを前記目標テキストに対応する文字ベクトルシーケンスと合成し、前処理ベクトルシーケンスを生成するステップと、
前記目標テキストに対応するエンティティベクトルシーケンスを揃えてマトリクス変換し、次元数が前記前処理ベクトルシーケンスと同じである変換ベクトルシーケンスを生成するステップと、
前記変換ベクトルシーケンスを前記前処理ベクトルシーケンスと合成し、前記目標ベクトルシーケンスを生成するステップと、を含む、請求項1に記載の方法。 - 前記目標テキストに対応する目標ベクトルシーケンスを生成するステップは、
前記目標テキストに対応する文字ベクトルシーケンス、第1の単語ベクトルシーケンス及びエンティティベクトルシーケンスをスプライス処理し、前記目標テキストに対応する目標ベクトルシーケンスを生成するステップを含む、請求項1に記載の方法。 - 前記目標テキストのコアエンティティを決定するステップの後に、
各コアエンティティ中の開始文字確率及び終了文字確率に基づいて、各コアエンティティのスコアを決定するステップをさらに含む、請求項1から請求項4のいずれか1項に記載の方法。 - 前記目標テキストのコアエンティティが複数含まれると決定する場合、各コアエンティティのスコアを決定するステップの後、
前記目標テキストの複数のコアエンティティに交差するエンティティが含まれるか否かを判断するステップと、
第1のエンティティがそれぞれ第2のエンティティ及び第3のエンティティと交差する場合、前記第1のエンティティのスコアが第2のエンティティのスコアと第3のエンティティのスコアとの総和より大きいか否かを判断するステップと、
前記第1のエンティティのスコアが第2のエンティティのスコアと第3のエンティティのスコアとの総和より大きい場合、前記第2のエンティティ及び第3のエンティティを前記目標テキストのコアエンティティから削除するステップと、
第2のエンティティのスコアと第3のエンティティのスコアとの総和が前記第1のエンティティのスコアより大きい場合、前記第1のエンティティを前記目標テキストのコアエンティティから削除するステップと、をさらに含む、請求項5に記載の方法。 - 前記目標テキストのそれぞれに対応する文字ベクトルシーケンス、第1の単語ベクトルシーケンス及びエンティティベクトルシーケンスを取得するステップの前、
前記目標テキストを認識し、前記目標テキストに予め設定された記号で分離された複数のエンティティが含まれるか否かを判断するステップを含み、
目標テキストに対してエンティティベクトルマッピングを行うステップは、
含まれる場合、1番目の前記予め設定された記号の前の第4のエンティティ、及び前記目標テキスト中の、予め設定された記号で分離された前記複数のエンティティ以外の第5のエンティティに対してエンティティベクトルマッピングを行うステップを含み、
前記目標テキストのコアエンティティを決定するステップの後、
前記第4のエンティティがコアエンティティであるか否かを判断するステップと、
前記第4のエンティティがコアエンティティである場合、前記第4のエンティティと予め設定された記号で分離された他の各エンティティを前記目標テキストのコアエンティティとして決定するステップと、を含む、請求項1から請求項4のいずれか1項に記載の方法。 - コアエンティティのタグ付け装置であって、
それぞれ目標テキストに対して文字ベクトルマッピング、単語ベクトルマッピング及びエンティティベクトルマッピングを行い、前記目標テキストのそれぞれに対応する文字ベクトルシーケンス、第1の単語ベクトルシーケンス及びエンティティベクトルシーケンスを取得するための第1の取得モジュールであって、前記文字ベクトルシーケンスが前記目標テキスト中の各文字に対応する文字ベクトルを含み、前記第1の単語ベクトルシーケンスが前記目標テキスト中の各分割された単語に対応する単語ベクトルを含み、前記エンティティベクトルシーケンスが前記目標テキスト中の各エンティティに対応するエンティティベクトルを含む第1の取得モジュールと、
前記目標テキストに対応する文字ベクトルシーケンス、第1の単語ベクトルシーケンス及びエンティティベクトルシーケンスに基づいて、前記目標テキストに対応する目標ベクトルシーケンスを生成するための生成モジュールと、
予め設定されたネットワークモデルを利用して、前記目標ベクトルシーケンスを符号化・復号化処理し、前記目標テキスト中の各文字のコアエンティティの開始文字としての確率、及び終止文字としての確率を決定するための第1の決定モジュールと、
各文字のコアエンティティの開始文字としての確率、及び終止文字としての確率に基づいて、前記目標テキストのコアエンティティを決定するための第2の決定モジュールと、を備える、コアエンティティのタグ付け装置。 - 前記目標テキスト中の各エンティティに対応するコアエンティティの事前確率を取得するための第2の取得モジュールと、
前記目標テキスト中の各エンティティに対応するコアエンティティの事前確率を全結合処理し、前記目標テキストに対応する事前シーケンスベクトルを決定するための第3の決定モジュールと、をさらに備え、
前記第1の決定モジュールは、具体的には、
予め設定されたネットワークモデルを利用して、前記目標ベクトルシーケンスを符号化処理し、前記目標ベクトルシーケンスに対応する目標シーケンスベクトルを決定し、
前記予め設定されたネットワークモデルを利用して、前記目標シーケンスベクトル及び前記事前シーケンスベクトルを復号化処理し、前記目標テキスト中の各文字のコアエンティティの開始文字としての確率、及び終止文字としての確率を決定するために用いられる、請求項8に記載の装置。 - 前記生成モジュールは、具体的には、
前記第1の単語ベクトルシーケンス中の第1の単語ベクトルに対応する第1の分割された単語に含まれる文字の数がNである場合、前記第1の単語ベクトルをN回繰り返して、第2の単語ベクトルシーケンスを生成し、
前記第2の単語ベクトルシーケンスをマトリクス変換し、次元数が前記目標テキストに対応する文字ベクトルシーケンス次元数と同じである第3の単語ベクトルシーケンスを生成し、
前記第3の単語ベクトルシーケンスを前記目標テキストに対応する文字ベクトルシーケンスと合成し、前処理ベクトルシーケンスを生成し、
前記目標テキストに対応するエンティティベクトルシーケンスを揃えてマトリクス変換し、次元数が前記前処理ベクトルシーケンスと同じである変換ベクトルシーケンスを生成し、
前記変換ベクトルシーケンスを前記前処理ベクトルシーケンスと合成し、前記目標ベクトルシーケンスを生成するために用いられる、請求項8に記載の装置。 - 前記生成モジュールは、さらに、
前記目標テキストに対応する文字ベクトルシーケンス、第1の単語ベクトルシーケンス及びエンティティベクトルシーケンスをスプライス処理し、前記目標テキストに対応する目標ベクトルシーケンスを生成するために用いられる、
請求項8に記載の装置。 - 各コアエンティティ中の開始文字確率及び終了文字確率に基づいて、各コアエンティティのスコアを決定するための第4の決定モジュールをさらに備える、請求項8から請求項11のいずれか1項に記載の装置。
- 前記目標テキストのコアエンティティが複数含まれると決定する場合、
前記目標テキストの複数のコアエンティティに交差するエンティティが含まれるか否かを判断するための第1の判断モジュールと、
第1のエンティティがそれぞれ第2のエンティティ及び第3のエンティティと交差する場合、前記第1のエンティティのスコアが第2のエンティティのスコアと第3のエンティティのスコアとの総和より大きいか否かを判断するための第2の判断モジュールと、
前記第1のエンティティのスコアが第2のエンティティのスコアと第3のエンティティのスコアとの総和より大きい場合、前記第2のエンティティ及び第3のエンティティを前記目標テキストのコアエンティティから削除するための第1の削除モジュールと、
第2のエンティティのスコアと第3のエンティティのスコアとの総和が前記第1のエンティティのスコアより大きい場合、前記第1のエンティティを前記目標テキストのコアエンティティから削除するための第2の削除モジュールと、をさらに備える、請求項12に記載の装置。 - 前記目標テキストを認識し、前記目標テキストに予め設定された記号で分離された複数のエンティティが含まれるか否かを判断するための第3の判断モジュールと、
含まれる場合、1番目の前記予め設定された記号の前の第4のエンティティ、及び前記目標テキスト中の、予め設定された記号で分離された前記複数のエンティティ以外の第5のエンティティに対してエンティティベクトルマッピングを行うための前記第1の取得モジュールと、をさらに備え、
前記第4のエンティティがコアエンティティであるか否かを判断するための第4の判断モジュールと、
前記第4のエンティティがコアエンティティである場合、前記第4のエンティティと予め設定された記号で分離された他の各エンティティを前記目標テキストのコアエンティティとして決定するための第5の決定モジュールと、をさらに備える、請求項8から請求項11のいずれか1項に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信接続されるメモリと、を備え、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが請求項1から請求項7のいずれか1項に記載の方法を実行できる、電子機器。 - コンピュータ命令が記憶される非一時的なコンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、コンピュータに請求項1から請求項7のいずれか1項に記載の方法を実行させるために用いられる、非一時的なコンピュータ読み取り可能な記憶媒体。
- コンピュータ上で動作しているときに、請求項1から請求項7のいずれか1項に記載の方法を前記コンピュータに実行させる、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010042343.X | 2020-01-15 | ||
CN202010042343.XA CN111241832B (zh) | 2020-01-15 | 2020-01-15 | 核心实体标注方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021111416A JP2021111416A (ja) | 2021-08-02 |
JP7110416B2 true JP7110416B2 (ja) | 2022-08-01 |
Family
ID=70868853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021004630A Active JP7110416B2 (ja) | 2020-01-15 | 2021-01-15 | コアエンティティのタグ付け方法、コアエンティティのタグ付け装置、電子機器、記憶媒体及びコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210216712A1 (ja) |
EP (1) | EP3862907A1 (ja) |
JP (1) | JP7110416B2 (ja) |
KR (1) | KR102466399B1 (ja) |
CN (1) | CN111241832B (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114586038A (zh) * | 2020-09-28 | 2022-06-03 | 京东方科技集团股份有限公司 | 事件抽取和抽取模型训练的方法和装置、设备、介质 |
CN112347769B (zh) * | 2020-10-30 | 2024-01-23 | 北京百度网讯科技有限公司 | 实体识别模型的生成方法、装置、电子设备及存储介质 |
CN112434510B (zh) * | 2020-11-24 | 2024-03-29 | 北京字节跳动网络技术有限公司 | 一种信息处理方法、装置、电子设备和存储介质 |
CN112989829B (zh) * | 2021-02-10 | 2024-03-08 | 卡奥斯数字科技(上海)有限公司 | 一种命名实体识别方法、装置、设备及存储介质 |
CN113704481B (zh) * | 2021-03-11 | 2024-05-17 | 腾讯科技(深圳)有限公司 | 一种文本处理方法、装置、设备及存储介质 |
CN113204615B (zh) * | 2021-04-29 | 2023-11-24 | 北京百度网讯科技有限公司 | 实体抽取方法、装置、设备和存储介质 |
CN112988979B (zh) * | 2021-04-29 | 2021-10-08 | 腾讯科技(深圳)有限公司 | 实体识别方法、装置、计算机可读介质及电子设备 |
CN114330357B (zh) * | 2021-08-04 | 2024-05-10 | 腾讯科技(深圳)有限公司 | 一种文本处理方法、装置、计算机设备和存储介质 |
CN113641799B (zh) * | 2021-10-13 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机设备及存储介质 |
CN114091458A (zh) * | 2021-11-12 | 2022-02-25 | 北京明略软件系统有限公司 | 基于模型融合的实体识别方法和系统 |
CN114036281B (zh) * | 2021-11-22 | 2024-04-16 | 华南农业大学 | 基于知识图谱的柑橘管控问答模块构建方法及问答系统 |
CN114792092B (zh) * | 2022-06-24 | 2022-09-13 | 武汉北大高科软件股份有限公司 | 一种基于语义增强的文本主题抽取方法及装置 |
CN116486420B (zh) * | 2023-04-12 | 2024-01-12 | 北京百度网讯科技有限公司 | 文档图像的实体抽取方法、装置及存储介质 |
CN117688611B (zh) * | 2024-01-30 | 2024-06-04 | 深圳昂楷科技有限公司 | 电子病历脱敏方法及系统、电子设备、存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492217A (zh) | 2018-10-11 | 2019-03-19 | 平安科技(深圳)有限公司 | 一种基于机器学习的分词方法及终端设备 |
CN109753660A (zh) | 2019-01-07 | 2019-05-14 | 福州大学 | 一种基于lstm的中标网页命名实体抽取方法 |
CN109902307A (zh) | 2019-03-15 | 2019-06-18 | 北京金山数字娱乐科技有限公司 | 命名实体识别方法、命名实体识别模型的训练方法及装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060047500A1 (en) * | 2004-08-31 | 2006-03-02 | Microsoft Corporation | Named entity recognition using compiler methods |
CN101075228B (zh) * | 2006-05-15 | 2012-05-23 | 松下电器产业株式会社 | 识别自然语言中的命名实体的方法和装置 |
CN103365934A (zh) * | 2012-04-11 | 2013-10-23 | 腾讯科技(深圳)有限公司 | 复杂命名实体抽取方法及装置 |
KR101544690B1 (ko) * | 2012-12-06 | 2015-08-13 | 라쿠텐 인코포레이티드 | 단어 분할 장치, 단어 분할 방법 및 단어 분할 프로그램 |
US9542652B2 (en) * | 2013-02-28 | 2017-01-10 | Microsoft Technology Licensing, Llc | Posterior probability pursuit for entity disambiguation |
RU2571373C2 (ru) * | 2014-03-31 | 2015-12-20 | Общество с ограниченной ответственностью "Аби ИнфоПоиск" | Метод анализа тональности текстовых данных |
US10152298B1 (en) * | 2015-06-29 | 2018-12-11 | Amazon Technologies, Inc. | Confidence estimation based on frequency |
US10304444B2 (en) * | 2016-03-23 | 2019-05-28 | Amazon Technologies, Inc. | Fine-grained natural language understanding |
KR20180055189A (ko) * | 2016-11-16 | 2018-05-25 | 삼성전자주식회사 | 자연어 처리 방법 및 장치와 자연어 처리 모델을 학습하는 방법 및 장치 |
CN107633842B (zh) * | 2017-06-12 | 2018-08-31 | 平安科技(深圳)有限公司 | 语音识别方法、装置、计算机设备及存储介质 |
KR102017227B1 (ko) * | 2017-11-02 | 2019-09-02 | 서강대학교산학협력단 | 과학문서의 핵심어구 추출방법 및 장치 |
US11017173B1 (en) * | 2017-12-22 | 2021-05-25 | Snap Inc. | Named entity recognition visual context and caption data |
KR102118603B1 (ko) * | 2018-03-20 | 2020-06-05 | (주)에어사운드 | 딥러닝 알고리즘 기반의 핵심문장 추출 방법 |
CN110287477B (zh) * | 2018-03-16 | 2021-05-25 | 北京国双科技有限公司 | 实体情感分析方法及相关装置 |
KR102075505B1 (ko) * | 2018-03-29 | 2020-02-10 | 네이버 주식회사 | 핵심 키워드 추출 방법 및 시스템 |
US11314787B2 (en) * | 2018-04-18 | 2022-04-26 | Forcepoint, LLC | Temporal resolution of an entity |
CN108959256B (zh) * | 2018-06-29 | 2023-04-07 | 北京百度网讯科技有限公司 | 短文本的生成方法、装置、存储介质和终端设备 |
CN109697289B (zh) * | 2018-12-28 | 2023-01-13 | 北京工业大学 | 一种改进的用于命名实体识别的主动学习方法 |
CN109918647A (zh) * | 2019-01-30 | 2019-06-21 | 中国科学院信息工程研究所 | 一种安全领域命名实体识别方法及神经网络模型 |
CN110008469B (zh) * | 2019-03-19 | 2022-06-07 | 桂林电子科技大学 | 一种多层次命名实体识别方法 |
CN110472063B (zh) * | 2019-07-12 | 2022-04-08 | 新华三大数据技术有限公司 | 社交媒体数据处理方法、模型训练方法及相关装置 |
CN110399616A (zh) * | 2019-07-31 | 2019-11-01 | 国信优易数据有限公司 | 命名实体检测方法、装置、电子设备及可读存储介质 |
US10789532B1 (en) * | 2019-10-29 | 2020-09-29 | Capital One Services, Llc | Computer-based systems configured for detecting and splitting data types in a data file and methods of use thereof |
-
2020
- 2020-01-15 CN CN202010042343.XA patent/CN111241832B/zh active Active
-
2021
- 2021-01-14 US US17/149,185 patent/US20210216712A1/en not_active Abandoned
- 2021-01-14 EP EP21151484.9A patent/EP3862907A1/en not_active Withdrawn
- 2021-01-15 JP JP2021004630A patent/JP7110416B2/ja active Active
- 2021-01-15 KR KR1020210005899A patent/KR102466399B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492217A (zh) | 2018-10-11 | 2019-03-19 | 平安科技(深圳)有限公司 | 一种基于机器学习的分词方法及终端设备 |
CN109753660A (zh) | 2019-01-07 | 2019-05-14 | 福州大学 | 一种基于lstm的中标网页命名实体抽取方法 |
CN109902307A (zh) | 2019-03-15 | 2019-06-18 | 北京金山数字娱乐科技有限公司 | 命名实体识别方法、命名实体识别模型的训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
KR102466399B1 (ko) | 2022-11-10 |
KR20210092152A (ko) | 2021-07-23 |
CN111241832B (zh) | 2023-08-15 |
US20210216712A1 (en) | 2021-07-15 |
EP3862907A1 (en) | 2021-08-11 |
JP2021111416A (ja) | 2021-08-02 |
CN111241832A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7110416B2 (ja) | コアエンティティのタグ付け方法、コアエンティティのタグ付け装置、電子機器、記憶媒体及びコンピュータプログラム | |
JP7223785B2 (ja) | 時系列ナレッジグラフ生成方法、装置、デバイス及び媒体 | |
CN112329465B (zh) | 一种命名实体识别方法、装置及计算机可读存储介质 | |
CN111709243B (zh) | 一种基于深度学习的知识抽取方法与装置 | |
US20210216580A1 (en) | Method and apparatus for generating text topics | |
JP7301922B2 (ja) | 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP2022028887A (ja) | テキスト誤り訂正処理方法、装置、電子機器及び記憶媒体 | |
CN111078865B (zh) | 文本标题生成方法和装置 | |
WO2021121198A1 (zh) | 基于语义相似度的实体关系抽取方法、装置、设备及介质 | |
EP3748548A1 (en) | Adversarial learning-based text annotation method and device | |
JP7312799B2 (ja) | 情報抽出方法、抽出モデル訓練方法、装置及び電子機器 | |
US11907671B2 (en) | Role labeling method, electronic device and storage medium | |
CN113553414B (zh) | 智能对话方法、装置、电子设备和存储介质 | |
CN112100332A (zh) | 词嵌入表示学习方法及装置、文本召回方法及装置 | |
JP7413630B2 (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
CN113177412A (zh) | 基于bert的命名实体识别方法、系统、电子设备及存储介质 | |
CN112541125B (zh) | 序列标注模型训练方法、装置及电子设备 | |
US11704326B2 (en) | Generalization processing method, apparatus, device and computer storage medium | |
CN111126061B (zh) | 对联信息生成方法和装置 | |
KR20210148871A (ko) | 리소스 정렬 방법, 정렬 모델을 트레이닝하는 방법 및 대응하는 장치 | |
US20230114673A1 (en) | Method for recognizing token, electronic device and storage medium | |
CN110738059A (zh) | 一种文本相似度计算方法及系统 | |
CN110688837A (zh) | 数据处理的方法及装置 | |
CN114880520B (zh) | 视频标题生成方法、装置、电子设备和介质 | |
CN114722841B (zh) | 翻译方法、装置及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220624 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7110416 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |