KR102304673B1 - 키워드 추출 방법, 컴퓨터 장치, 및 저장 매체 - Google Patents
키워드 추출 방법, 컴퓨터 장치, 및 저장 매체 Download PDFInfo
- Publication number
- KR102304673B1 KR102304673B1 KR1020197017920A KR20197017920A KR102304673B1 KR 102304673 B1 KR102304673 B1 KR 102304673B1 KR 1020197017920 A KR1020197017920 A KR 1020197017920A KR 20197017920 A KR20197017920 A KR 20197017920A KR 102304673 B1 KR102304673 B1 KR 102304673B1
- Authority
- KR
- South Korea
- Prior art keywords
- word
- determined
- text
- processed
- sequence
- Prior art date
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 41
- 238000003062 neural network model Methods 0.000 claims abstract description 48
- 230000000306 recurrent effect Effects 0.000 claims abstract description 45
- 239000013598 vector Substances 0.000 claims description 66
- 238000012549 training Methods 0.000 claims description 52
- 238000000034 method Methods 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 20
- 230000011218 segmentation Effects 0.000 claims description 11
- 125000004122 cyclic group Chemical group 0.000 claims description 4
- UKLNMMHNWFDKNT-UHFFFAOYSA-M sodium chlorite Chemical compound [Na+].[O-]Cl=O UKLNMMHNWFDKNT-UHFFFAOYSA-M 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Operations Research (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Character Discrimination (AREA)
Abstract
Description
도 1은 일 실시예에 따른 키워드 추출 방법의 적용 환경을 개략적으로 나타낸 도면이다.
도 2는 일 실시예에 따른 컴퓨터 장치의 내부 구조를 개략적으로 나타낸 도면이다.
도 3은 일 실시예에 따른 키워드 추출 방법을 나타낸 흐름도이다.
도 4는 다른 실시예에 따른 키워드 추출 방법을 나타낸 흐름도이다.
도 5는 일 실시예에 따른 LSTM 유닛의 구조도이다.
도 6은 일 실시예에 따른 키워드 추출 방법에 대응하는 모델을 개략적으로 나타낸 구조도이다.
도 7은 일 실시예에 따른 컴퓨터 장치의 구조 블록도이다.
도 8은 다른 실시예에 따른 컴퓨터 장치의 구조 블록도이다.
Claims (15)
- 사용자 단말기 또는 서버에 적용되는 키워드 추출 방법으로서,
처리될 텍스트의 결정될 단어를 획득하는 단계;
결정될 단어에 각각 대응하는 선행 단어를 결정하는 단계 - 선행 단어는 처리될 텍스트 내의 결정될 단어의 선행 텍스트에 나타나는 단어임 -
결정될 단어 및 결정될 단어에 각각 대응하는 선행 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어의 단어 시퀀스(sequence)를 결정하는 단계 - 처리될 텍스트 내의 최초로 결정될 단어의 단어 시퀸스는 최초로 결정될 단어 자체로 구성되고, 최초로 결정될 단어 이외의 다른 결정될 단어의 단어 시퀸스는 상기 결정될 단어의 선행 단어와 결정될 단어가 처리될 텍스트에 나타나는 순서로 결정되는 단어 시퀸스임 - ;
결정될 단어 각각이 처리될 텍스트의 키워드일 확률을 얻기 위해, 결정될 단어의 단어 시퀀스를 훈련된 순환 신경망 모델(cyclic neural network model)에 각각 입력하는 단계; 및
결정될 단어 각각이 처리될 텍스트의 키워드일 확률 및 사전 설정된 임계값에 따라, 처리될 텍스트의 키워드를 결정하는 단계
를 포함하는 키워드 추출 방법. - 제1항에 있어서,
상기 처리될 텍스트의 결정될 단어를 획득하는 단계는,
처리될 텍스트 내의 단어를 획득하기 위해, 처리될 텍스트에 대해 단어 분할(word segmentation)을 수행하는 단계; 및
처리될 텍스트 내의 불용어(stop word)를 식별하고, 처리될 텍스트 내의 불용어 이외의 단어를 결정될 단어로서 결정하는 단계
를 포함하는, 키워드 추출 방법. - 제1항에 있어서,
상기 결정될 단어 및 결정될 단어에 각각 대응하는 선행 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어의 단어 시퀀스를 결정하는 단계는,
결정될 단어에 각각 대응하는 선행 단어의 단어 벡터(word vector)와 결정될 단어의 단어 벡터를 획득하는 단계; 및
결정될 단어에 각각 대응하는 선행 단어와 결정될 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어에 각각 대응하는 선행 단어의 단어 벡터와 결정될 단어의 단어 벡터를 이용하여, 결정될 단어의 단어 시퀀스를 결정하는 단계 - 결정될 단어의 단어 시퀀스는 단어 벡터 시퀀스임 -
를 포함하는, 키워드 추출 방법. - 제1항에 있어서,
상기 결정될 단어의 단어 시퀀스를 훈련된 순환 신경망 모델에 각각 입력하는 단계 이전에,
상기 순환 신경망 모델을 훈련시켜 훈련된 순환 신경망 모델을 얻기 위해 훈련용 샘플을 획득하는 단계 - 훈련용 샘플은 요소 쌍을 포함하고, 요소 쌍은 훈련용 텍스트에 대응하는 훈련용 단어 및 훈련용 단어가 훈련용 텍스트의 키워드일 확률을 포함하고 있음 -
를 포함하는, 키워드 추출 방법. - 제1항에 있어서,
상기 순환 신경망 모델은 LSTM 모델인, 키워드 추출 방법. - 컴퓨터 장치로서,
상기 컴퓨터 장치는 메모리와 프로세서를 포함하고, 상기 메모리는 컴퓨터 판독가능 명령을 저장하며, 상기 컴퓨터 판독가능 명령은, 상기 프로세서에 의해 실행되는 경우 상기 프로세서로 하여금:
처리될 텍스트의 결정될 단어를 획득하는 단계;
결정될 단어에 각각 대응하는 선행 단어를 결정하는 단계 - 선행 단어는 처리될 텍스트 내의 결정될 단어의 선행 텍스트에 나타나는 단어임 -
결정될 단어 및 결정될 단어에 각각 대응하는 선행 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어의 단어 시퀀스를 결정하는 단계 - 처리될 텍스트 내의 최초로 결정될 단어의 단어 시퀸스는 최초로 결정될 단어 자체로 구성되고, 최초로 결정될 단어 이외의 다른 결정될 단어의 단어 시퀸스는 상기 결정될 단어의 선행 단어와 결정될 단어가 처리될 텍스트에 나타나는 순서로 결정되는 단어 시퀸스임 - ;
결정될 단어 각각이 처리될 텍스트의 키워드일 확률을 얻기 위해, 결정될 단어의 단어 시퀀스를 훈련된 순환 신경망 모델(cyclic neural network model)에 각각 입력하는 단계; 및
결정될 단어 각각이 처리될 텍스트의 키워드일 확률 및 사전 설정된 임계값에 따라, 처리될 텍스트의 키워드를 결정하는 단계
를 수행하게 하는, 컴퓨터 장치. - 제6항에 있어서,
상기 처리될 텍스트의 결정될 단어를 획득하는 단계는,
처리될 텍스트 내의 단어를 획득하기 위해, 처리될 텍스트에 대해 단어 분할(word segmentation)을 수행하는 단계; 및
처리될 텍스트 내의 불용어(stop word)를 식별하고, 처리될 텍스트 내의 불용어 이외의 단어를 결정될 단어로서 결정하는 단계
를 포함하는, 컴퓨터 장치. - 제6항에 있어서,
상기 결정될 단어 및 결정될 단어에 각각 대응하는 선행 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어의 단어 시퀀스를 결정하는 단계는,
결정될 단어에 각각 대응하는 선행 단어의 단어 벡터와 결정될 단어의 단어 벡터를 획득하는 단계; 및
결정될 단어에 각각 대응하는 선행 단어와 결정될 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어에 각각 대응하는 선행 단어의 단어 벡터와 결정될 단어의 단어 벡터를 이용하여, 결정될 단어의 단어 시퀀스를 결정하는 단계 - 결정될 단어의 단어 시퀀스는 단어 벡터 시퀀스임 -
를 포함하는, 컴퓨터 장치. - 제6항에 있어서,
상기 결정될 단어의 단어 시퀀스를 훈련된 순환 신경망 모델에 각각 입력하는 단계 이전에, 상기 컴퓨터 판독가능 명령은 상기 프로세서로 하여금,
상기 순환 신경망 모델을 훈련시켜 훈련된 순환 신경망 모델을 얻기 위해 훈련용 샘플을 획득하는 단계 - 훈련용 샘플은 요소 쌍을 포함하고, 요소 쌍은 훈련용 텍스트에 대응하는 훈련용 단어 및 훈련용 단어가 훈련용 텍스트의 키워드일 확률을 포함하고 있음 -
를 더 수행하게 하는, 컴퓨터 장치. - 제6항에 있어서,
상기 순환 신경망 모델은 LSTM 모델인, 컴퓨터 장치. - 하나 이상의 비휘발성 저장 매체로서,
상기 하나 이상의 비휘발성 저장 매체는 컴퓨터 판독가능 명령을 저장하고, 상기 컴퓨터 판독가능 명령은, 하나 이상의 프로세서에 의해 실행되는 경우 하나 이상의 프로세서로 하여금:
처리될 텍스트의 결정될 단어를 획득하는 단계;
결정될 단어에 각각 대응하는 선행 단어를 결정하는 단계 - 선행 단어는 처리될 텍스트 내의 결정될 단어의 선행 텍스트에 나타나는 단어임 -
결정될 단어 및 결정될 단어에 각각 대응하는 선행 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어의 단어 시퀀스를 결정하는 단계 - 처리될 텍스트 내의 최초로 결정될 단어의 단어 시퀸스는 최초로 결정될 단어 자체로 구성되고, 최초로 결정될 단어 이외의 다른 결정될 단어의 단어 시퀸스는 상기 결정될 단어의 선행 단어와 결정될 단어가 처리될 텍스트에 나타나는 순서로 결정되는 단어 시퀸스임 - ;
결정될 단어 각각이 처리될 텍스트의 키워드일 확률을 얻기 위해, 결정될 단어의 단어 시퀀스를 훈련된 순환 신경망 모델(cyclic neural network model)에 각각 입력하는 단계; 및
결정될 단어 각각이 처리될 텍스트의 키워드일 확률 및 사전 설정된 임계값에 따라, 처리될 텍스트의 키워드를 결정하는 단계
를 수행하게 하는, 하나 이상의 비휘발성 저장 매체. - 제11항에 있어서,
상기 처리될 텍스트의 결정될 단어를 획득하는 단계는,
처리될 텍스트 내의 단어를 획득하기 위해, 처리될 텍스트에 대해 단어 분할(word segmentation)을 수행하는 단계; 및
처리될 텍스트 내의 불용어(stop word)를 식별하고, 처리될 텍스트 내의 불용어 이외의 단어를 결정될 단어로서 결정하는 단계
를 포함하는, 하나 이상의 비휘발성 저장 매체. - 제11항에 있어서,
상기 결정될 단어 및 결정될 단어에 각각 대응하는 선행 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어의 단어 시퀀스를 결정하는 단계는,
결정될 단어에 각각 대응하는 선행 단어의 단어 벡터와 결정될 단어의 단어 벡터를 획득하는 단계; 및
결정될 단어에 각각 대응하는 선행 단어와 결정될 단어가 처리될 텍스트에 나타나는 순서에 따라, 결정될 단어에 각각 대응하는 선행 단어의 단어 벡터와 결정될 단어의 단어 벡터를 이용하여, 결정될 단어의 단어 시퀀스를 결정하는 단계 - 결정될 단어의 단어 시퀀스는 단어 벡터 시퀀스임 -
를 포함하는, 하나 이상의 비휘발성 저장 매체. - 제11항에 있어서,
상기 결정될 단어의 단어 시퀀스를 훈련된 순환 신경망 모델에 각각 입력하는 단계 이전에, 상기 컴퓨터 판독가능 명령은 하나 이상의 프로세서로 하여금:
상기 순환 신경망 모델을 훈련시켜 훈련된 순환 신경망 모델을 얻기 위해 훈련용 샘플을 획득하는 단계 - 훈련용 샘플은 요소 쌍을 포함하고, 요소 쌍은 훈련용 텍스트에 대응하는 훈련용 단어 및 훈련용 단어가 훈련용 텍스트의 키워드일 확률을 포함하고 있음 -
를 더 수행하게 하는, 하나 이상의 비휘발성 저장 매체. - 제11항에 있어서,
상기 순환 신경망 모델은 LSTM 모델인, 하나 이상의 비휘발성 저장 매체.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710101013.1A CN108304365A (zh) | 2017-02-23 | 2017-02-23 | 关键词提取方法及装置 |
CN201710101013.1 | 2017-02-23 | ||
PCT/CN2018/075711 WO2018153265A1 (zh) | 2017-02-23 | 2018-02-08 | 关键词提取方法、计算机设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190085098A KR20190085098A (ko) | 2019-07-17 |
KR102304673B1 true KR102304673B1 (ko) | 2021-09-23 |
Family
ID=62872540
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020197017920A KR102304673B1 (ko) | 2017-02-23 | 2018-02-08 | 키워드 추출 방법, 컴퓨터 장치, 및 저장 매체 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10963637B2 (ko) |
EP (1) | EP3518122A4 (ko) |
JP (1) | JP6956177B2 (ko) |
KR (1) | KR102304673B1 (ko) |
CN (1) | CN108304365A (ko) |
WO (1) | WO2018153265A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220044074A (ko) * | 2020-09-30 | 2022-04-06 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 여론 획득과 단어 점도 모델의 훈련 방법 및 기기, 서버와 매체 |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220215292A1 (en) * | 2018-08-01 | 2022-07-07 | Intuit Inc. | Method to identify incorrect account numbers |
CN111027313A (zh) * | 2018-10-08 | 2020-04-17 | 中国科学院沈阳计算技术研究所有限公司 | 基于注意力机制的BiGRU判决结果倾向性分析方法 |
CN109635288B (zh) * | 2018-11-29 | 2023-05-23 | 东莞理工学院 | 一种基于深度神经网络的简历抽取方法 |
CN109615241A (zh) * | 2018-12-13 | 2019-04-12 | 大连海事大学 | 一种基于卷积和循环神经网络的软件Bug分派方法 |
CN109740152B (zh) * | 2018-12-25 | 2023-02-17 | 腾讯科技(深圳)有限公司 | 文本类目的确定方法、装置、存储介质和计算机设备 |
CN109902273B (zh) * | 2019-01-30 | 2024-05-07 | 平安科技(深圳)有限公司 | 关键词生成模型的建模方法和装置 |
CN111859940B (zh) * | 2019-04-23 | 2024-05-14 | 北京嘀嘀无限科技发展有限公司 | 一种关键词提取方法、装置、电子设备及存储介质 |
CN110110330B (zh) * | 2019-04-30 | 2023-08-11 | 腾讯科技(深圳)有限公司 | 基于文本的关键词提取方法和计算机设备 |
US11537664B2 (en) | 2019-05-23 | 2022-12-27 | Google Llc | Learning to select vocabularies for categorical features |
US11316810B2 (en) * | 2019-06-07 | 2022-04-26 | International Business Machines Corporation | Messaging system for automatically generating semantic contextual messages |
CN110598095B (zh) * | 2019-08-27 | 2024-02-13 | 深圳市雅阅科技有限公司 | 一种识别包含指定信息文章的方法、装置及存储介质 |
CN111144127B (zh) * | 2019-12-25 | 2023-07-25 | 科大讯飞股份有限公司 | 文本语义识别方法及其模型的获取方法及相关装置 |
CN113076756A (zh) * | 2020-01-06 | 2021-07-06 | 北京沃东天骏信息技术有限公司 | 一种文本生成方法和装置 |
CN111738791B (zh) * | 2020-01-20 | 2024-05-24 | 北京沃东天骏信息技术有限公司 | 一种文本处理方法、装置、设备和存储介质 |
CN113221553A (zh) * | 2020-01-21 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 一种文本处理方法、装置、设备以及可读存储介质 |
CN111460096B (zh) * | 2020-03-26 | 2023-12-22 | 北京金山安全软件有限公司 | 一种碎片文本的处理方法、装置及电子设备 |
CN111709230B (zh) * | 2020-04-30 | 2023-04-07 | 昆明理工大学 | 基于词性软模板注意力机制的短文本自动摘要方法 |
KR102216066B1 (ko) * | 2020-05-04 | 2021-02-18 | 호서대학교 산학협력단 | 문장형 쿼리에 대해 검색결과를 제공하는 방법 |
KR102418260B1 (ko) * | 2020-05-27 | 2022-07-06 | 삼성생명보험주식회사 | 고객 상담 기록 분석 방법 |
CN111737996B (zh) * | 2020-05-29 | 2024-03-26 | 北京百度网讯科技有限公司 | 基于语言模型获取词向量的方法、装置、设备及存储介质 |
CN111831821B (zh) * | 2020-06-03 | 2024-01-09 | 北京百度网讯科技有限公司 | 文本分类模型的训练样本生成方法、装置和电子设备 |
CN111967268B (zh) * | 2020-06-30 | 2024-03-19 | 北京百度网讯科技有限公司 | 文本中的事件抽取方法、装置、电子设备和存储介质 |
CN112015884A (zh) * | 2020-08-28 | 2020-12-01 | 欧冶云商股份有限公司 | 一种用户走访数据关键词提取方法、装置及存储介质 |
CN112131877B (zh) * | 2020-09-21 | 2024-04-09 | 民生科技有限责任公司 | 一种海量数据下的实时中文文本分词方法 |
CN112632292A (zh) * | 2020-12-23 | 2021-04-09 | 深圳壹账通智能科技有限公司 | 业务关键词的提取方法、装置、设备及存储介质 |
CN112884440B (zh) * | 2021-03-02 | 2024-05-24 | 岭东核电有限公司 | 核电试验中的试验工序执行方法、装置和计算机设备 |
KR102620697B1 (ko) * | 2021-07-12 | 2024-01-02 | 주식회사 카카오뱅크 | 딥러닝 기반의 자연어 처리를 통한 메시지 내 이체 정보 판단 방법 및 장치 |
CN113761161A (zh) * | 2021-08-10 | 2021-12-07 | 紫金诚征信有限公司 | 文本关键词提取方法、装置、计算机设备和存储介质 |
CN113808758B (zh) * | 2021-08-31 | 2024-06-07 | 联仁健康医疗大数据科技股份有限公司 | 一种检验数据标准化的方法、装置、电子设备和存储介质 |
CN113609843B (zh) * | 2021-10-12 | 2022-02-01 | 京华信息科技股份有限公司 | 一种基于梯度提升决策树的句词概率计算方法及系统 |
KR102713582B1 (ko) * | 2022-04-06 | 2024-10-04 | 서울대학교산학협력단 | 교량점검보고서의 손상 메커니즘 추출 장치 및 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016134169A (ja) * | 2015-01-19 | 2016-07-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 言語モデル学習方法及び装置、言語認識方法及び装置 |
CN106095749A (zh) * | 2016-06-03 | 2016-11-09 | 杭州量知数据科技有限公司 | 一种基于深度学习的文本关键词提取方法 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4360122B2 (ja) * | 2003-05-26 | 2009-11-11 | 富士ゼロックス株式会社 | キーワード抽出装置 |
US7370034B2 (en) * | 2003-10-15 | 2008-05-06 | Xerox Corporation | System and method for performing electronic information retrieval using keywords |
US7519588B2 (en) * | 2005-06-20 | 2009-04-14 | Efficient Frontier | Keyword characterization and application |
CN101122909B (zh) * | 2006-08-10 | 2010-06-16 | 株式会社日立制作所 | 文本信息检索装置以及文本信息检索方法 |
US8346534B2 (en) * | 2008-11-06 | 2013-01-01 | University of North Texas System | Method, system and apparatus for automatic keyword extraction |
US9177333B2 (en) * | 2010-06-17 | 2015-11-03 | Microsoft Technology Licensing, Llc | Ad copy quality detection and scoring |
CN101944099B (zh) * | 2010-06-24 | 2012-05-30 | 西北工业大学 | 一种使用本体进行文本文档自动分类的方法 |
US9715660B2 (en) * | 2013-11-04 | 2017-07-25 | Google Inc. | Transfer learning for deep neural network based hotword detection |
JP6230190B2 (ja) * | 2014-01-09 | 2017-11-15 | 日本放送協会 | 重要語抽出装置、及びプログラム |
KR101656741B1 (ko) * | 2015-04-23 | 2016-09-12 | 고려대학교 산학협력단 | 프레임 기반 의견스팸 판단장치, 프레임 기반 의견스팸 판단방법, 프레임 기반으로 의견스팸을 판단하기 위한 컴퓨터 프로그램 및 컴퓨터 판독가능 기록매체 |
US9916376B2 (en) * | 2015-08-11 | 2018-03-13 | Fujitsu Limited | Digital document keyword generation |
CN105139237A (zh) * | 2015-09-25 | 2015-12-09 | 百度在线网络技术(北京)有限公司 | 信息推送的方法和装置 |
CN105260359B (zh) * | 2015-10-16 | 2018-10-02 | 晶赞广告(上海)有限公司 | 语义关键词提取方法及装置 |
CN105955952A (zh) * | 2016-05-03 | 2016-09-21 | 成都数联铭品科技有限公司 | 一种基于双向递归神经网络的信息提取方法 |
US10056083B2 (en) * | 2016-10-18 | 2018-08-21 | Yen4Ken, Inc. | Method and system for processing multimedia content to dynamically generate text transcript |
US10255269B2 (en) * | 2016-12-30 | 2019-04-09 | Microsoft Technology Licensing, Llc | Graph long short term memory for syntactic relationship discovery |
CN111078838B (zh) * | 2019-12-13 | 2023-08-18 | 北京小米智能科技有限公司 | 关键词提取方法、关键词提取装置及电子设备 |
-
2017
- 2017-02-23 CN CN201710101013.1A patent/CN108304365A/zh active Pending
-
2018
- 2018-02-08 KR KR1020197017920A patent/KR102304673B1/ko active IP Right Grant
- 2018-02-08 EP EP18758452.9A patent/EP3518122A4/en not_active Ceased
- 2018-02-08 WO PCT/CN2018/075711 patent/WO2018153265A1/zh unknown
- 2018-02-08 JP JP2019521096A patent/JP6956177B2/ja active Active
-
2019
- 2019-03-25 US US16/363,646 patent/US10963637B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016134169A (ja) * | 2015-01-19 | 2016-07-25 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 言語モデル学習方法及び装置、言語認識方法及び装置 |
CN106095749A (zh) * | 2016-06-03 | 2016-11-09 | 杭州量知数据科技有限公司 | 一种基于深度学习的文本关键词提取方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20220044074A (ko) * | 2020-09-30 | 2022-04-06 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 여론 획득과 단어 점도 모델의 훈련 방법 및 기기, 서버와 매체 |
KR102527589B1 (ko) | 2020-09-30 | 2023-04-28 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 여론 획득과 단어 점도 모델의 훈련 방법 및 기기, 서버와 매체 |
Also Published As
Publication number | Publication date |
---|---|
US20190220514A1 (en) | 2019-07-18 |
EP3518122A1 (en) | 2019-07-31 |
JP6956177B2 (ja) | 2021-11-02 |
US10963637B2 (en) | 2021-03-30 |
WO2018153265A1 (zh) | 2018-08-30 |
KR20190085098A (ko) | 2019-07-17 |
CN108304365A (zh) | 2018-07-20 |
JP2019531562A (ja) | 2019-10-31 |
EP3518122A4 (en) | 2019-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102304673B1 (ko) | 키워드 추출 방법, 컴퓨터 장치, 및 저장 매체 | |
US11562145B2 (en) | Text classification method, computer device, and storage medium | |
US11941366B2 (en) | Context-based multi-turn dialogue method and storage medium | |
KR102194200B1 (ko) | 인공신경망 모델을 이용한 뉴스 기사 분석에 의한 주가지수 예측 방법 및 장치 | |
CN108509596B (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
CN108491406B (zh) | 信息分类方法、装置、计算机设备和存储介质 | |
CN113849648B (zh) | 分类模型训练方法、装置、计算机设备和存储介质 | |
CN112417859A (zh) | 意图识别方法、系统、计算机设备及计算机可读存储介质 | |
CN114139551A (zh) | 意图识别模型的训练方法及装置、意图识别的方法及装置 | |
CN112100377B (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
CN113486175B (zh) | 文本分类方法、文本分类装置、计算机设备及存储介质 | |
CN110162639A (zh) | 识图知意的方法、装置、设备及存储介质 | |
US20230063686A1 (en) | Fine-grained stochastic neural architecture search | |
CN113836303A (zh) | 一种文本类别识别方法、装置、计算机设备及介质 | |
CN114372465A (zh) | 基于Mixup和BQRNN的法律命名实体识别方法 | |
CN112580329B (zh) | 文本噪声数据识别方法、装置、计算机设备和存储介质 | |
CN109885830A (zh) | 语句释义方法、装置、计算机设备 | |
CN110309504B (zh) | 基于分词的文本处理方法、装置、设备及存储介质 | |
CN110968725A (zh) | 图像内容描述信息生成方法、电子设备及存储介质 | |
KR20220096055A (ko) | 단어 임베딩을 수행하는 전자장치 및 이의 동작방법 | |
CN112307048A (zh) | 语义匹配模型训练方法、匹配方法、装置、设备及存储介质 | |
CN111680132A (zh) | 一种用于互联网文本信息的噪声过滤和自动分类方法 | |
KR20230030337A (ko) | 데이터 전처리를 통한 문헌내 화학물질 개체명 인식 방법 및 시스템 | |
CN117932058A (zh) | 基于文本分析的情绪识别方法、装置及设备 | |
CN114519353A (zh) | 模型的训练方法、情感消息生成方法和装置、设备、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0105 | International application |
Patent event date: 20190621 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210131 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20210830 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20210915 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20210915 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
PR1001 | Payment of annual fee |
Payment date: 20240820 Start annual number: 4 End annual number: 4 |