CN112287676A - 新词发现方法、装置、电子设备及介质 - Google Patents
新词发现方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN112287676A CN112287676A CN202011181496.9A CN202011181496A CN112287676A CN 112287676 A CN112287676 A CN 112287676A CN 202011181496 A CN202011181496 A CN 202011181496A CN 112287676 A CN112287676 A CN 112287676A
- Authority
- CN
- China
- Prior art keywords
- word
- words
- candidate
- original
- word set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及数据处理技术,揭露了一种新词发现方法,包括:对原始文本集进行分句、分词和去停用词处理,得到原始字词集,按照原始字词集中字词的顺序,将第一预设数量的连续字词合并处理,生成候选词集合,利用预设的顺序n元语言模型对候选词集合进行概率计算,得到候选词的概率值并排序,筛选第二预设数量的候选词,得到筛选词集,对筛选词集中的相同候选词的概率进行相加并对候选词排序,选择概率值大于预设阈值的候选词作为新词。本发明还涉及区块链技术,所述新词可以存储在区块链节点中。本发明还揭露一种新词发现装置、电子设备及计算机可读存储介质。本发明可以提高新词发现的效率及全面性。
Description
技术领域
本发明涉及数据处理技术领域,尤其涉及一种新词发现方法、装置、电子设备及计算机可读存储介质。
背景技术
信息化、电子化和网络化的迅猛发展和普及带来了信息爆炸式的增长,大量不存在于传统词典中的新词不断涌现,随着各类新词急剧增长,为了不断提高人机交互的便利性,持续跟踪新词并更新现有词库显然很有必要。
由于互联网语料规模的巨大,通过人工筛选标注新词的方法显然无法满足实用化的要求,通过统计相邻字词的信息熵,互信息熵、词频等统计方式进行高频字符串的发现,容易漏掉可能的新词,在发现新词的效率上不够高效,故需要提出一种筛选更全面的新词发现方法。
发明内容
本发明提供一种新词发现方法、装置、电子设备及计算机可读存储介质,其主要目的在于解决现有技术中发现新词不全面的问题。
为实现上述目的,本发明提供的一种新词发现方法,包括:
获取原始文本集,对所述原始文本集进行分句处理,得到原始句子集,并对所述原始句子集进行分词和去停用词处理,得到原始字词集;
按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合;
利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值;
根据所述概率值的排序,筛选第二预设数量的候选词,得到筛选词集;
对所述筛选词集中的相同候选词的概率进行相加,根据相加后的概率值对所述筛选词集中所有的候选词排序,选择概率值大于预设阈值的候选词作为新词。
可选地,所述对所述原始文本集进行分句处理,得到原始句子集,包括:
识别所述原始文本集中每个原始文本中的终止标点符号,得到所述终止标点符号的位置;
根据所述终止标点符号的位置对所述原始文本进行切分,得到原始句子,并汇总得到所有所述原始句子,得到原始句子集。
可选地,所述按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合,包括:
通过遍历操作依次从所述原始字词集中选择其中一个字词;
在所述原始字词集中按照顺序获取当前选择的所述字词之后的第一预设数量的字词,对所述当前选择的所述字词以及所述第一预设数量的字词执行合并处理,生成候选词集合。
可选地,所述利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值,包括:
采用预设的领域词词典对所述候选词集合中的候选词进行替换,产生训练样本;
利用预设的顺序n元语言模型对所述训练样本进行概率计算,得到所述候选词集合中每个候选词的概率值。
可选地,所述利用预设的顺序n元语言模型对所述训练样本进行概率计算,得到所述候选词集合中每个候选词的概率值,包括:
利用下述概率计算公式计算候选词sk的概率值:
其中,P(i)为概率值,entity为被替换掉的候选词,k表示词语Sk在训练样本中的位置,i表示entity在训练样本中的位置,n表示entity之后或者之前的候选词的数量,ppre(sk)为词语Sk计算相对于entity的前向概率,psuf(sk)为词语Sk计算相对于entity的后向概率。
可选地,所述根据所述概率值的排序,筛选第二预设数量的候选词,包括:
根据所述候选词集合中每个候选词的概率值对所述候选词进行排序,生成排序队列;
从所述排序队列中选择概率值大于预设筛选阈值的第二预设数量的候选词,得到筛选词集。
可选地,所述对所述原始句子集进行分词和去停用词处理,得到原始字词集,包括:
根据预设的分词规则对所述原始句子集按照从左至右的顺序进行划分,得到分词集;
对所述分词集进行停用词识别处理,识别所述分词集中的停用词;
将所述停用词进行删除,得到原始字词集。
为了解决上述问题,本发明还提供一种新词发现装置,所述装置包括:
原始字词集生成模块,用于获取原始文本集,对所述原始文本集进行分句处理,得到原始句子集,并对所述原始句子集进行分词和去停用词处理,得到原始字词集;
合并模块,用于按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合;
概率计算模块,用于利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值;
筛选模块,用于根据所述概率值的排序,筛选第二预设数量的候选词,得到筛选词集;
新词选择模块,用于对所述筛选词集中的相同候选词的概率进行相加,根据相加后的概率值对所述筛选词集中所有的候选词排序,选择概率值大于预设阈值的候选词作为新词。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的新词发现方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的新词发现方法。
本发明实施例对获取到的原始文本集进行分句处理,降低了计算的数据维度,提升了计算效率,所述分词和去停用词处理降低了无效词的出现频次,提升发现效率,进一步地,在所述原始字词集中将第一预设数量的连续字词合并处理,生成了新词的候选词集合,提高了新词发现的全面性,并利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,提升了新词发现任务的准确率。因此,本发明提出的新词发现方法、装置、电子设备及计算机可读存储介质,可以提高新词发现的效率及全面性。
附图说明
图1为本发明实施例提供的新词发现方法的流程示意图;
图2为图1所示的新词发现方法中其中一个步骤的流程示意图;
图3为图1所示的新词发现方法中另外一个步骤的流程示意图;
图4为图1所示的新词发现方法中另外一个步骤的流程示意图;
图5为本发明实施例提供的新词发现装置的模块示意图;
图6为本发明实施例提供的实现新词发现方法的电子设备的内部结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例提供一种新词发现方法,所述新词发现方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述新词发现方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明实施例提供的一种新词发现方法的流程示意图。在本实施例中,所述新词发现方法包括:
S1、获取原始文本集,对所述原始文本集进行分句处理,得到原始句子集,并对所述原始句子集进行分词和去停用词,得到原始字词集。
本发明实施例中,所述原始文本集可以是互联网中的语料数据。本发明实施例利用具有数据获取功能的python语句从互联网中获取所述原始文本集。
具体地,所述对所述原始文本集进行分句处理,得到原始句子集,包括:
识别所述原始文本集中每个原始文本中的终止标点符号,得到所述终止标点符号的位置;
根据所述终止标点符号的位置对所述原始文本进行切分,得到原始句子,并汇总得到所有所述原始句子,得到原始句子集。
其中,所述终止标点符号包括,但不限于句号、感叹号、问号,省略号、书名号、大中小括号等。
例如,若原始文本为aaa《ccc》ddd,则对其进行分句处理,得到原始句子包括“aaa”、“ccc”和“ddd”;若原始文本为aaa《ccc》ddd,ffff,对其进行分句处理,得到原始句子集包括“aaa”、“ccc”、“ddd”和“ffff”。
本发明实施例对所述原始文本集进行分句处理,可以将文本集划分成多个句子的集合,便于后续的操作,提高效率。
进一步地,所述对所述原始句子集进行分词和去停用词处理,得到原始字词集,包括:
根据预设的分词规则对所述原始句子集按照从左至右的顺序进行划分,得到分词集;
对所述分词集进行停用词识别处理,识别所述分词集中的停用词;
将所述停用词进行删除,得到原始字词集。
其中,所述停用词包括但不限于助词、连词和介词,得到原始字词集。
例如,所述原始句子集为“我的腿肚子有点疼”,本发明实施例对所述原始句子集进行分词和去停用词处理后,可以得到原始字词集为[我]、[腿]、[肚子]、[有点]、[疼]。
S2、按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合。
参阅图2所示,本发明实施例中,所述按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合,包括:
S21、通过遍历操作依次从所述原始字词集中选择其中一个字词;
S22、在所述原始字词集中按照顺序获取当前选择的所述字词之后的第一预设数量的字词,对所述当前选择的所述字词以及所述第一预设数量的字词执行合并处理,生成候选词集合。
本发明实施例中,所述第一预设数量可以是2,即本发明实施例将当前选择的字词与该字词后面的一个字词进行合并,生成候选词。例如,所述原始字词集为[我]、[腿]、[肚子]、[有点]、[疼],对所述原始字词集进行合并处理,得到候选词集合为[我腿]、[腿肚子]、[肚子有点]、[有点疼]。
本发明另一个实施例中,在执行所述合并处理时,遵循下述原则:数字和汉字不合并、字母和汉字不合并等。
S3、利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值。
参阅图3所示,本发明实施例中,所述利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值,包括:
S31、采用预设的领域词词典对所述候选词集合中的候选词进行替换,产生训练样本;
S32、利用预设的顺序n元语言模型对所述训练样本进行概率计算,得到所述候选词集合中每个候选词的概率值。
所述领域词词典中包含预设领域中的已知名词。
具体地,本发明实施例将所述候选词集合中的候选词与所述领域词词典进行遍历匹配,从所述领域词词典找到匹配的词时,将对应的候选词替换,产生训练样本。较佳地,若从所述领域词词典找到多个匹配的词,则每次替换其中一个对应的候选词,产生对应的训练样本。
例如,候选词为“我的腿有点疼”,所述候选词中“腿”和“疼”是在预设的领域词词典中,可以对“腿”和“疼”用entity进行替换,产生对应的训练样本“我的entity有点疼”和训练样本“我的腿有点entity”。
进一步地,所述利用预设的顺序n元语言模型对所述训练样本进行概率计算,得到所述候选词集合中每个候选词的概率值,包括:
利用下述概率计算公式计算候选词sk的概率值:
其中,P(i)为概率值,entity为被替换掉的候选词,k表示词语Sk在训练样本中的位置,i表示entity在训练样本中的位置,n表示entity之后或者之前的候选词的数量,ppre(sk)为词语Sk计算相对于entity的前向概率,psuf(sk)为词语Sk计算相对于entity的后向概率。
S4、根据所述概率值的排序,筛选第二预设数量的候选词,得到筛选词集。
本发明实施例中,第二预设数量可以设置为2。本发明实施例中,所述根据所述概率值的排序,筛选第二预设数量的候选词,包括:
根据所述候选词集合中每个候选词的概率值对所述候选词进行排序,生成排序队列;
从所述排序队列中选择概率值大于预设筛选阈值的第二预设数量的候选词,得到筛选词集。
S5、对所述筛选词集中的相同候选词的概率进行相加,根据相加后的概率值对所述筛选词集中所有的候选词排序,选择概率值大于预设阈值的候选词作为新词。
参阅图4所示,本发明实施例中,所述S5,包括:
S51、将所述筛选词集中相同候选词的概率执行求合处理,根据求合处理后的概率值对所述筛选词集中所有的候选词排序,得到排序表;
S52、判断所述排序表中的概率值与预设阈值的大小;
当所述概率值小于或者等于所述预设阈值,执行S53、所述概率值对应的候选词判定为不是新词;
当所述概率值大于所述预设阈值,执行S54、所述概率值对应的候选词判定为新词。
例如,对所述筛选词集合中候选词为“腿肚子”的概率进行求和,得到总概率值,所述总概率值大于预设阈值时,则判定“腿肚子”为新词。
本发明其中一个实施例中,所述新词可以存储在区块链节点中。
本发明实施例对获取到的原始文本集进行分句处理,降低了计算的数据维度,提升了计算效率,所述分词和去停用词处理降低了无效词的出现频次,提升发现效率,进一步地,在所述原始字词集中将第一预设数量的连续字词合并处理,生成了新词的候选词集合,提高了新词发现的全面性,并利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,提升了新词发现任务的准确率。因此,本发明可以提高新词发现的效率及全面性。
如图5所示,是本发明实施例提供的新词发现装置的模块示意图。
本发明所述新词发现装置100可以安装于电子设备中。根据实现的功能,所述新词发现装置100可以包括原始字词集生成模块101、合并模块102、概率计算模块103、筛选模块104、新词选择模块105。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述原始字词集生成模块101,用于获取原始文本集,对所述原始文本集进行分句处理,得到原始句子集,并对所述原始句子集进行分词和去停用词处理,得到原始字词集;
所述合并模块102,用于按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合;
所述概率计算模块103,用于利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值;
所述筛选模块104,用于根据所述概率值的排序,筛选第二预设数量的候选词,得到筛选词集;
所述新词选择模块105,用于对所述筛选词集中的相同候选词的概率进行相加,根据相加后的概率值对所述筛选词集中所有的候选词排序,选择概率值大于预设阈值的候选词作为新词。
详细地,所述新词发现装置100中的各模块在由电子设备的处理器执行时,可以实现一种包含下述步骤的新词发现方法:
步骤一、所述原始字词集生成模块101获取原始文本集,对所述原始文本集进行分句处理,得到原始句子集,并对所述原始句子集进行分词和去停用词处理,得到原始字词集。
本发明实施例中,所述原始文本集可以是互联网中的语料数据。本发明实施例所述原始字词集生成模块101可以利用具有数据获取功能的python语句从互联网中获取所述原始文本集。
具体地,所述所述原始字词集生成模块101通过下述操作执行对所述原始文本集的分句处理,得到原始句子集:
识别所述原始文本集中每个原始文本中的终止标点符号,得到所述终止标点符号的位置;
根据所述终止标点符号的位置对所述原始文本进行切分,得到原始句子,并汇总得到所有所述原始句子,得到原始句子集。
其中,所述终止标点符号包括,但不限于句号、感叹号、问号,省略号、书名号、大中小括号等。
例如,若原始文本为aaa《ccc》ddd,则对其进行分句处理,得到原始句子包括“aaa”、“ccc”和“ddd”;若原始文本为aaa《ccc》ddd,ffff,对其进行分句处理,得到原始句子集包括“aaa”、“ccc”、“ddd”和“ffff”。
本发明实施例利用所述原始字词集生成模块101对所述原始文本集进行分句处理,可以将文本集划分成多个句子的集合,便于后续的操作,提高效率。
进一步地,所述所述原始字词集生成模块101通过下述操作执行对所述原始句子集的分词和去停用词处理,得到原始字词集:
根据预设的分词规则对所述原始句子集按照从左至右的顺序进行划分,得到分词集;
对所述分词集进行停用词识别处理,识别所述分词集中的停用词;
将所述停用词进行删除,得到原始字词集。
其中,所述停用词包括但不限于助词、连词和介词,得到原始字词集。
例如,所述原始句子集为“我的腿肚子有点疼”,本发明实施例对所述原始句子集进行分词和去停用词处理后,可以得到原始字词集为[我]、[腿]、[肚子]、[有点]、[疼]。
步骤二、所述合并模块102按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合。
本发明实施例中,所述合并模块102通过下述操作在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合:
通过遍历操作依次从所述原始字词集中选择其中一个字词;
在所述原始字词集中按照顺序获取当前选择的所述字词之后的第一预设数量的字词,对所述当前选择的所述字词以及所述第一预设数量的字词执行合并处理,生成候选词集合。
本发明实施例中,所述第一预设数量可以是2,即本发明实施例将当前选择的字词与该字词后面的一个字词进行合并,生成候选词。例如,所述原始字词集为[我]、[腿]、[肚子]、[有点]、[疼],对所述原始字词集进行合并处理,得到候选词集合为[我腿]、[腿肚子]、[肚子有点]、[有点疼]。
本发明另一个实施例中,在执行所述合并处理时,所述合并模块102遵循下述原则:数字和汉字不合并、字母和汉字不合并等。
步骤三、所述概率计算模块103利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值。
本发明实施例中,所述概率计算模块103通过下述操作对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值:
采用预设的领域词词典对所述候选词集合中的候选词进行替换,产生训练样本;
利用预设的顺序n元语言模型对所述训练样本进行概率计算,得到所述候选词集合中每个候选词的概率值。
所述领域词词典中包含预设领域的已知名词。
具体地,本发明实施例所述概率计算模块103将所述候选词集合中的候选词与所述领域词词典进行遍历匹配,从所述领域词词典找到匹配的词时,将对应的候选词替换,产生训练样本。较佳地,若从所述领域词词典找到多个匹配的词,则每次替换其中一个对应的候选词,产生对应的训练样本。
例如,候选词为“我的腿有点疼”,所述候选词中“腿”和“疼”是在预设的领域词词典中,可以对“腿”和“疼”用entity进行替换,产生对应的训练样本“我的entity有点疼”和训练样本“我的腿有点entity”。
进一步地,所述所述概率计算模块103利用下述概率计算公式计算候选词sk的概率值:
其中,P(i)为概率值,entity为被替换掉的候选词,k表示词语Sk在训练样本中的位置,i表示entity在训练样本中的位置,n表示entity之后或者之前的候选词的数量,ppre(sk)为词语Sk计算相对于entity的前向概率,psuf(sk)为词语Sk计算相对于entity的后向概率。
步骤四、所述筛选模块104根据所述概率值的排序,筛选第二预设数量的候选词,得到筛选词集。
本发明实施例中,第二预设数量可以设置为2。本发明实施例中,所述筛选模块104根据所述概率值的排序,筛选第二预设数量的候选词,包括:
根据所述候选词集合中每个候选词的概率值对所述候选词进行排序,生成排序队列;
从所述排序队列中选择概率值大于预设筛选阈值的第二预设数量的候选词,得到筛选词集。
步骤五、所述新词选择模块105对所述筛选词集中的相同候选词的概率进行相加,根据相加后的概率值对所述筛选词集中所有的候选词排序,选择概率值大于预设阈值的候选词作为新词。
具体地,所述新词选择模块105通过下述操作确定所述候选词作为中的新词:
将所述筛选词集中相同候选词的概率执行求合处理,根据求合处理后的概率值对所述筛选词集中所有的候选词排序,得到排序表;
判断所述排序表中的概率值与预设阈值的大小;
当所述概率值小于或者等于所述预设阈值,所述概率值对应的候选词判定为不是新词;
当所述概率值大于所述预设阈值,所述概率值对应的候选词判定为新词。
例如,对所述筛选词集合中候选词为“腿肚子”的概率进行求和,得到总概率值,所述总概率值大于预设阈值,则判定“腿肚子”为新词。
本发明其中一个实施例中,所述新词可以存储在区块链节点中。
如图6所示,是本发明实现新词发现方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如新词发现程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如新词发现程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行新词发现程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图6仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图6示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的新词发现程序12是多个指令的组合,在所述处理器10中运行时,可以实现:
获取原始文本集,对所述原始文本集进行分句处理,得到原始句子集,并对所述原始句子集进行分词和去停用词处理,得到原始字词集;
按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合;
利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值;
根据所述概率值的排序,筛选第二预设数量的候选词,得到筛选词集;
对所述筛选词集中的相同候选词的概率进行相加,根据相加后的概率值对所述筛选词集中所有的候选词排序,选择概率值大于预设阈值的候选词作为新词。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图表记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种新词发现方法,其特征在于,所述方法包括:
获取原始文本集,对所述原始文本集进行分句处理,得到原始句子集,并对所述原始句子集进行分词和去停用词,得到原始字词集;
按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词进行合并处理,生成候选词集合;
利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值;
根据所述概率值的排序,筛选第二预设数量的候选词,得到筛选词集;
对所述筛选词集中的相同候选词的概率进行相加,根据相加后的概率值对所述筛选词集中所有的候选词排序,选择概率值大于预设阈值的候选词作为新词。
2.如权利要求1所述的新词发现方法,其特征在于,所述对所述原始文本集进行分句处理,得到原始句子集,包括:
识别所述原始文本集中每个原始文本中的终止标点符号,得到所述终止标点符号的位置;
根据所述终止标点符号的位置对所述原始文本进行切分,得到原始句子,并汇总得到所有所述原始句子,得到原始句子集。
3.如权利要求1所述的新词发现方法,其特征在于,所述按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合,包括:
通过遍历操作依次从所述原始字词集中选择其中一个字词;
在所述原始字词集中按照顺序获取当前选择的所述字词之后的第一预设数量的字词,对所述当前选择的所述字词以及所述第一预设数量的字词执行合并处理,生成候选词集合。
4.如权利要求1所述的新词发现方法,其特征在于,所述利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值,包括:
采用预设的领域词词典对所述候选词集合中的候选词进行替换,产生训练样本;
利用预设的顺序n元语言模型对所述训练样本进行概率计算,得到所述候选词集合中每个候选词的概率值。
6.如权利要求5所述的新词发现方法,其特征在于,所述根据所述概率值的排序,筛选第二预设数量的候选词,包括:
根据所述候选词集合中每个候选词的概率值对所述候选词进行排序,生成排序队列;
从所述排序队列中选择概率值大于预设筛选阈值的第二预设数量的候选词,得到筛选词集。
7.如权利要求1所述的新词发现方法,其特征在于,所述对所述原始句子集进行分词和去停用词处理,得到原始字词集,包括:
根据预设的分词规则对所述原始句子集按照从左至右的顺序进行划分,得到分词集;
对所述分词集进行停用词识别处理,识别所述分词集中的停用词;
将所述停用词进行删除,得到原始字词集。
8.一种新词发现装置,其特征在于,所述装置包括:
原始字词集生成模块,用于获取原始文本集,对所述原始文本集进行分句处理,得到原始句子集,并对所述原始句子集进行分词和去停用词处理,得到原始字词集;
合并模块,用于按照所述原始字词集中字词的顺序,在所述原始字词集中将第一预设数量的连续字词合并处理,生成候选词集合;
概率计算模块,用于利用预设的顺序n元语言模型对所述候选词集合中的每个候选词进行概率计算,得到所述候选词集合中每个候选词的概率值;
筛选模块,用于根据所述概率值的排序,筛选第二预设数量的候选词,得到筛选词集;
新词选择模块,用于对所述筛选词集中的相同候选词的概率进行相加,根据相加后的概率值对所述筛选词集中所有的候选词排序,选择概率值大于预设阈值的候选词作为新词。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序指令,所述计算机程序指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的新词发现方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的新词发现方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011181496.9A CN112287676A (zh) | 2020-10-29 | 2020-10-29 | 新词发现方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011181496.9A CN112287676A (zh) | 2020-10-29 | 2020-10-29 | 新词发现方法、装置、电子设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112287676A true CN112287676A (zh) | 2021-01-29 |
Family
ID=74352451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011181496.9A Pending CN112287676A (zh) | 2020-10-29 | 2020-10-29 | 新词发现方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112287676A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113515592A (zh) * | 2021-04-23 | 2021-10-19 | 平安科技(深圳)有限公司 | 文本预测方法、装置、电子设备及存储介质 |
-
2020
- 2020-10-29 CN CN202011181496.9A patent/CN112287676A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113515592A (zh) * | 2021-04-23 | 2021-10-19 | 平安科技(深圳)有限公司 | 文本预测方法、装置、电子设备及存储介质 |
CN113515592B (zh) * | 2021-04-23 | 2024-01-09 | 平安科技(深圳)有限公司 | 文本预测方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112016304A (zh) | 文本纠错方法、装置、电子设备及存储介质 | |
CN110457672B (zh) | 关键词确定方法、装置、电子设备及存储介质 | |
CN112541338A (zh) | 相似文本匹配方法、装置、电子设备及计算机存储介质 | |
CN110569335B (zh) | 基于人工智能的三元组校验方法、装置及存储介质 | |
CN111930962A (zh) | 文献数据价值评估方法、装置、电子设备及存储介质 | |
CN113312461A (zh) | 基于自然语言处理的智能问答方法、装置、设备及介质 | |
CN112883190A (zh) | 文本分类方法、装置、电子设备及存储介质 | |
CN112883730B (zh) | 相似文本匹配方法、装置、电子设备及存储介质 | |
CN113672781A (zh) | 数据查询方法、装置、电子设备及存储介质 | |
CN112906377A (zh) | 基于实体限制的问答方法、装置、电子设备及存储介质 | |
WO2022134355A1 (zh) | 基于关键词提示的检索方法、装置、电子设备及存储介质 | |
CN112528013A (zh) | 文本摘要提取方法、装置、电子设备及存储介质 | |
CN113886708A (zh) | 基于用户信息的产品推荐方法、装置、设备及存储介质 | |
CN112632264A (zh) | 智能问答方法、装置、电子设备及存储介质 | |
CN111475600B (zh) | 数据治理方法、装置及计算机可读存储介质 | |
CN113869456A (zh) | 采样监测方法、装置、电子设备及存储介质 | |
CN112287676A (zh) | 新词发现方法、装置、电子设备及介质 | |
CN112579781A (zh) | 文本归类方法、装置、电子设备及介质 | |
CN110705285B (zh) | 一种政务文本主题词库构建方法、装置、服务器及可读存储介质 | |
CN111639159A (zh) | 短语字典实时生成方法、装置、电子设备及存储介质 | |
CN115438048A (zh) | 表搜索方法、装置、设备及存储介质 | |
CN113486169B (zh) | 基于bert模型的同义语句生成方法、装置、设备及存储介质 | |
CN115525761A (zh) | 一种文章关键词筛选类别的方法、装置、设备及存储介质 | |
CN112988962A (zh) | 文本纠错方法、装置、电子设备及存储介质 | |
CN112632260A (zh) | 智能问答方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |