CN114970514A - 基于人工智能的中文分词方法、装置、计算机设备及介质 - Google Patents

基于人工智能的中文分词方法、装置、计算机设备及介质 Download PDF

Info

Publication number
CN114970514A
CN114970514A CN202210602729.0A CN202210602729A CN114970514A CN 114970514 A CN114970514 A CN 114970514A CN 202210602729 A CN202210602729 A CN 202210602729A CN 114970514 A CN114970514 A CN 114970514A
Authority
CN
China
Prior art keywords
text
word
word segmentation
target
segmentation result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202210602729.0A
Other languages
English (en)
Inventor
苏雪琦
王健宗
程宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210602729.0A priority Critical patent/CN114970514A/zh
Publication of CN114970514A publication Critical patent/CN114970514A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本申请适用于人工智能技术领域,尤其涉及一种基于人工智能的中文分词方法、装置、计算机设备及介质。该方法对获取的待分词文本按照正向和反向分别与词典进行匹配,得到正向分词结果和反向分词结果,在正向分词结果与反向分词结果不相同时,提取正向分词结果与反向分词结果中所有差异所在文本位置,将其所包含的文本作为二次分词文本,使用训练好的条件随机场模型对二次分词文本进行二次划分,得到二次分词结果,将反向分词结果或者正向分词结果中除二次分词文本外的一次分词结果与二次分词结果整合,得到待分词文本的分词结果,使用第一次分词可以提高分词的效率,使用第二次分词可以提高分词的准确率,从而既保证了效率又提高了准确率。

Description

基于人工智能的中文分词方法、装置、计算机设备及介质
技术领域
本申请适用于人工智能技术领域,尤其涉及一种基于人工智能的中文分词方法、装置、计算机设备及介质。
背景技术
目前,智能客服系统主要包括语音识别、语义识别和语音合成三大部分。语义识别在智能客服系统中一般指以语音识别输出的文本结果为输入,对该输入进行中文分词、停用词去除和关键词拓展等基本的预处理后,进行主题提取,分析当前对话用户的意图,并以此来决策如何生成应答。由于中文的特殊性,词语之间不存在空格等分隔符,而后续对文本进行主题词发现、提取,文具相似度计算等操作大多建立在词语的基础上,故在此之前对语音识别输出的文本进行分词尤为重要。
常用的中文分词方法大致可分为基于字和基于词两类,由于字和词的处理单元不同,在最终的分词效果上各有优劣。例如,基于词的分词方法过度依赖词典和规则库,效率较高,但可移植性较差,且对于歧义词和未录入词识别能力较低等缺点;基于字的分词方法不仅考虑了文字词语出现的频率信息,同时还考虑上下文语境,具备较好的学习能力,但是训练周期较长,运营时计算量大,性能不如基于词的分词方法。因此,如何在保证中文分词效率的同时,提高分词的识别能力,以兼容中文分词的效率和准确率成为亟待解决的问题。
发明内容
有鉴于此,本申请实施例提供了一种基于人工智能的中文分词方法、装置、计算机设备及介质,以解决如何在保证中文分词效率的同时,提高分词的识别能力,以兼容中文分词的效率和准确率的问题。
第一方面,本申请实施例提供一种基于人工智能的中文分词方法,所述中文分词方法包括:
获取待分词文本,并按照正向将所述待分词文本与词典匹配,得到正向分词结果,按照反向将所述待分词文本与所述词典匹配,得到反向分词结果,所述正向为表征所述待分词文本的词序的方向,所述反向与所述正向相反;
若所述正向分词结果与所述反向分词结果不相同,则提取所述正向分词结果与所述反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本;
将所述二次分词文本输入训练好的条件随机场模型,输出所述二次分词文本对应的二次分词结果;
将所述反向分词结果或者所述正向分词结果中除所述二次分词文本外的一次分词结果与所述二次分词结果整合,得到所述待分词文本的分词结果。
第二方面,本申请实施例提供一种基于人工智能的中文分词装置,所述中文分词装置包括:
一次分词模块,用于获取待分词文本,并按照正向将所述待分词文本与词典匹配,得到正向分词结果,按照反向将所述待分词文本与所述词典匹配,得到反向分词结果,所述正向为表征所述待分词文本的词序的方向,所述反向与所述正向相反;
差异分析模块,用于若所述正向分词结果与所述反向分词结果不相同,则提取所述正向分词结果与所述反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本;
二次分词模块,用于将所述二次分词文本输入训练好的条件随机场模型,输出所述二次分词文本对应的二次分词结果;
分词整合模块,用于将所述反向分词结果或者所述正向分词结果中除所述二次分词文本外的一次分词结果与所述二次分词结果整合,得到所述待分词文本的分词结果。
第三方面,本申请实施例提供一种计算机设备,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的中文分词方法。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的中文分词方法。
本申请实施例与现有技术相比存在的有益效果是:本申请对获取的待分词文本按照正向与词典进行匹配,得到正向分词结果,按照反向将待分词文本与词典匹配,得到反向分词结果,若正向分词结果与反向分词结果不相同,则提取正向分词结果与反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本,将二次分词文本输入训练好的条件随机场模型,输出二次分词文本对应的二次分词结果,将反向分词结果或者正向分词结果中除二次分词文本外的一次分词结果与二次分词结果整合,得到待分词文本的分词结果,采用双向匹配的方式对文本进行一次分词,在使用条件随机场模型进行二次分词,将两次分词的结果整合,得到完整的分词结果,使用第一次分词可以提高分词的效率,使用第二次分词可以提高分词的准确率,从而既保证了效率又提高了准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例一提供的一种基于人工智能的中文分词方法的一应用环境示意图;
图2是本申请实施例二提供的一种基于人工智能的中文分词方法的流程示意图;
图3是本申请实施例三提供的一种基于人工智能的中文分词方法的流程示意图;
图4是本申请实施例四提供的一种基于人工智能的中文分词装置的结构示意图;
图5是本申请实施例五提供的一种计算机设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
应理解,以下实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
为了说明本申请的技术方案,下面通过具体实施例来进行说明。
本申请实施例一提供的一种基于人工智能的中文分词方法,可应用在如图1的应用环境中,其中,客户端与服务端进行通信。其中,客户端包括但不限于掌上电脑、桌上型计算机、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、云端计算机设备、个人数字助理(personal digital assistant,PDA)等计算机设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
参见图2,是本申请实施例二提供的一种基于人工智能的中文分词方法的流程示意图,上述中文分词方法应用于图1中的服务端,服务端对应的计算机设备连接相应的数据库,以获取数据库中相应的待分词文本等。上述计算机设备还可以连接相应的客户端,客户端将待分词文本发送给服务端,实现了服务端获取数据的功能。如图2所示,该基于人工智能的中文分词方法可以包括以下步骤:
步骤S201,获取待分词文本,并按照正向将待分词文本与词典匹配,得到正向分词结果,按照反向将待分词文本与词典匹配,得到反向分词结果。
本申请中,正向为表征待分词文本的词序的方向,反向与正向相反。文本的词序即为阅读文本的顺序,反向即为反向阅读文本的顺序,但在反向匹配的过程中依然需要满足词序的要求,而不是反着阅读的词。例如,针对文本“ABCD”,其中,A、B、C、D分别为表示一个中文字或词,阅读文本的顺序为从A至D,反向阅读文本的顺序为从D至A。
上述服务端与相应的客户端连接,客户端用于采集待分词文本,并将待分词文本发送给服务端,实现服务端采集待分词文本的步骤。在一实施方式中,服务器从相应的数据库中获取待分词文本。
客户端可以是直接采集文本数据,当然,客户端可以是指具备语音采集设备的设备,如语音机器人、车载终端等,客户端将采集的语音数据传输给服务端,由服务端将语音数据转化为文本数据。其中,服务端具备语音转文本的功能,在语音转文本之前还对语音进行预处理,预处理包括降噪、增强等处理,从而保证后续转换的准确性。
正向分词结果可以是指针对待分词文本采用正向匹配的方式得到的匹配结果,包含已经分词后的文本,文本中相邻两个分词之间设置有间隔或者标记,以此区分一组分词;反向分词结果可以是指针对待分词文本采用反向匹配的方式得到的匹配结果,相应地,反向分词结果包含已经分词后的文本,文本中相邻两个分词之间设置有间隔或者标记,以此区分一组分词。例如,针对文本“ABCD”,正向匹配即为使用“ABCD”与词典中的词进行匹配,如果没有匹配到,则使用“ABC”与词典中的词进行匹配,以此类推,如果“AB”在词典中匹配到,则确定“AB”为一组分词,再使用“CD”与词典中的词进行匹配,如果没有匹配到,则使用“C”与词典中的词进行匹配;反向匹配即为使用“ABCD”与词典中的词进行匹配,如果没有匹配到,则使用“BCD”与词典中的词进行匹配,以此类推,如果“CD”在词典中匹配到,则确定“CD”为一组分词,在使用“AB”与词典中的词进行匹配,如果没有匹配到,则使用“B”与词典中的词进行匹配。正向匹配和反向匹配中对于待匹配词的词序没有改变,仅改变了构成词的顺序,在反向匹配中不会出现“BA”、“CB”、“DC”这种违反词序的词。
可选的是,按照正向将待分词文本与词典匹配,得到正向分词结果包括:
根据预设的匹配规则,从词典中确定当前次匹配的第一目标词,获取第一目标词的第一目标长度;
使用第一目标长度从待分词文本首位开始向后分割对应长度的第一目标文本,检测第一目标文本与第一目标词是否匹配;
若第一目标文本与第一目标词匹配,则保留第一目标文本的划分,并使用第一目标长度从第一目标文本的后一位开始向后分割对应长度的文本,将对应文本作为第一目标文本,返回执行检测第一目标文本与第一目标词是否匹配的步骤;
若第一目标文本与第一目标词不匹配,则使用第一目标长度从待分词文本首位的后一位开始向后分割对应长度的文本,将对应文本作为第一目标文本,返回执行检测第一目标文本与第一目标词是否匹配的步骤;
在第一目标文本的末位为待分词文本的末位或者第一目标文本的后一位至待分词文本的末位的长度小于第一目标长度时,若待分词文本未划分完毕,则根据预设的匹配规则,从词典中确定下一次匹配的词,并将下一次匹配的词作为第一目标词;
返回执行获取第一目标词的第一目标长度的步骤,直至待分词文本划分完毕或者词典中所有词均已参与匹配,确定最终匹配结果为正向分词结果。
其中,预设的匹配规则可以是指对于词典中每个词用于匹配时的匹配顺序,匹配顺序即为先使用哪个词与待分词文本进行匹配,再使用哪个词与待分词文本进行匹配。例如,将词典中长度最大的词作为最先匹配的词,词典中长度最小的词作为最后匹配的词,从而可以为文本匹配最优的分词结果,又如,如果词典中长度相同的多个词,采用随机的方式从中挑选一个词用于匹配,直至匹配工作完成。
将待分词文本作为一个字符串X为:X=(x1x2…xm),其中,xm为待分词文本中第m个字,将词典D表示为:D=(w1w2…wn),其中,wn为词典中第n个词。为保证切分获得的词串长度尽量长,每一次切分时,首先将该字符串的切分长度设置为词典D中最长词的长度。在最大切分长度下尝试与词典匹配,字符串匹配顺序为从左往右。若遍历整个词典后匹配失败,则将切分长度递减,再次尝试匹配,直到匹配成功或者长度等1,即匹配失败,将该单个字切分为一个词,得到正向分词结果。
可选的是,按照反向将待分词文本与词典匹配,得到反向分词结果包括:
根据预设的匹配规则,从词典中确定当前次匹配的第二目标词,获取第二目标词的第二目标长度;
使用第二目标长度从待分词文本末位开始向前分割对应长度的第二目标文本,检测第二目标文本与第二目标词是否匹配;
若第二目标文本与第二目标词匹配,则保留第二目标文本的划分,并使用第二目标长度从第二目标文本的前一位开始向前分割对应长度的文本,将对应文本作为第二目标文本,返回执行检测第二目标文本与第二目标词是否匹配的步骤;
若第二目标文本与第二目标词不匹配,则使用第二目标长度从待分词文本末位的前一位开始向前分割对应长度的文本,将对应文本作为第二目标文本,返回执行检测第二目标文本与第二目标词是否匹配的步骤;
在第二目标文本的首位为待分词文本的首位或者第二目标文本的前一位至待分词文本的首位的长度小于第二目标长度时,若待分词文本未划分完毕,则根据预设的匹配规则,从词典中确定下一次匹配的词,并将下一次匹配的词作为第二目标词;
返回执行获取第二目标词的第二目标长度的步骤,直至待分词文本划分完毕或者词典中所有词均已参与匹配,确定最终匹配结果为反向分词结果。
其中,反向匹配的方式与正向类似,唯一不同的是反向匹配分词通过反向尝试切分字串。由于中文词语偏正结构较多,采用反向匹配能够得到较为准确地分词结果。针对上述字符串而言,反向即为从字符串的右往左进行匹配。
步骤S202,若正向分词结果与反向分词结果不相同,则提取正向分词结果与反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本。
本申请中,差异可以是指两种分词结果在相同文本位置处分词不相同,在正向分词结果与反向分词结果不相同时存在该差异。文本位置可以是指两种分词结果在相同文本位置处分词不相同对应的位置。例如,文本位置可以使用排列次序表征,即在正向分词结果或者反向分词结果中,按照词序对应的正向依次对每一组分词进行排序,两个分词结果的排列次序的形式均为第1组分词、第2组分词、…、第i组分词。
如果正向分词结果的第1组分词与反向分词结果的第1组分词不相同,则确定该第1组分词为差异,差异对应的位置即为第1组分词,如果正向分词结果的第i组分词与反向分词结果的第i组分词不相同,则确定该第i组分词为差异,差异对应的位置即为第i组分词。
所有差异所在文本位置所包含的文本可以是指第1组分词与第i组分词中所包含的文本,当然,如果一个文本的前一个词被划分错误,其后间隔一定位置的词也出现划分错误,一般情况下即使两个词中间有匹配相同的词,也可能是一种误匹配,因此,为了避免误识别,上述所有差异所在文本位置所包含的文本也可以是指第1组分词的第一个字与第i组分词的最后一个字之间所有的字构成的文本。
将所有差异所在文本位置所包含的文本作为二次分词文本,用于后续的第二次分词,上述的正向匹配结果和反向分词结果即为第一次分词。若正向分词结果与反向分词结果相同,则两者的分词结果即最终的分词结果。
可选的是,若正向分词结果与反向分词结果不相同,则提取正向分词结果与反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本包括:
将正向分词结果中依次排列的词与反向分词结果中对应排列次序的词进行比较;
若在任一相同排列次序处正向分词结果的词与反向分词结果的词不相同,则确定正向分词结果与反向分词结果不相同;
确定所有不相同的词的排列次序为正向分词结果与反向分词结果中所有差异所在文本位置,确定所有不相同的词的排列次序中最靠前的排列次序为起始差异所在文本位置,确定所有不相同的词的排列次序中最靠后的排列次序为终止差异所在文本位置;
从正向分词结果或者反向分词结果中确定最靠前的排列次序和最靠后的排列次序中间的文本为二次分词文本。
其中,将排列次序作为文本位置,不相同的词的排列次序即为一个差异所在文本位置,将差异中排列次序最靠前的分词和最靠后的分词之间所有的文本均作为二次分词文本,用于后续的二次分词,以保证最靠前的分词与最靠后的分词间所有分词的准确性。
步骤S203,将二次分词文本输入训练好的条件随机场模型,输出二次分词文本对应的二次分词结果。
本申请中,条件随机场(Conditional Random Field,CRF)模型能够对汉字进行标注,CRF模型的输入可以为上述的字符串,CRF模型定义了标注结果序列随机变量Y的条件概率分布p(Y|X),它通过训练的方法来使得条件概率p(Y|X)最大,最后将标注结果转化为分词结果。其中,使用log-likelihood方法对条件随机场进行训练,可以得到较高的训练效果。在计算条件概率过程中,CRF模型可以利用词的上下文信息作为词的特征之一,相对于只能利用中心词的前几个词作为上下文信息的弱点,CRF模型能够同时使用中心词的前几个词和后几个词作为该词的上下文信息,更加符合实际情况。
训练好的CRF模型可以不仅仅为单独的模型,可以将CRF原理与深度学习结合,产生BiLSTM-CRF、BiLSTM-CNN-CRF等模型,对中文分词、命名实体识别、词性标注等具备较高效果。
步骤S204,将反向分词结果或者正向分词结果中除二次分词文本外的一次分词结果与二次分词结果整合,得到待分词文本的分词结果。
本申请中,反向分词结果中除去二次分词文本后剩余文本与正向分词结果中除去二次分词文本后剩余文本相同,因此,两者中任一个均可以表征一次分词结果。
整合可以是指将一次分词结果与二次分词结果结合,其中,二次分词结果需要替换反向分词结果或者正向分词结果的二次分词文本,即在一次分词结果中插入二次分词结果,插入位置为二次分词文本的剔除位置。
可选的是,将反向分词结果或者正向分词结果中除二次分词文本外的一次分词结果与二次分词结果整合,得到待分词文本的分词结果包括:
从正向分词结果或者反向分词结果中剔除二次分词文本,并在剔除的二次分词文本处生成待填入区,得到一次分词结果;
将二次分词结果填入一次分词结果的待填入区,确定填充后的结果为待分词文本的分词结果。
其中,在剔除二次分词文本后,在此处生成待填入区,与剩余的文本构成一次分词结果,将二次分词结果直接填入待填入区即可得到整合的分词结果。
本申请实施例对获取的待分词文本按照正向与词典进行匹配,得到正向分词结果,按照反向将待分词文本与词典匹配,得到反向分词结果,若正向分词结果与反向分词结果不相同,则提取正向分词结果与反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本,将二次分词文本输入训练好的条件随机场模型,输出二次分词文本对应的二次分词结果,将反向分词结果或者正向分词结果中除二次分词文本外的一次分词结果与二次分词结果整合,得到待分词文本的分词结果,采用双向匹配的方式对文本进行一次分词,在使用条件随机场模型进行二次分词,将两次分词的结果整合,得到完整的分词结果,使用第一次分词可以提高分词的效率,使用第二次分词可以提高分词的准确率,从而既保证了效率又提高了准确率。
参见图3,是本申请实施例三提供的一种基于人工智能的中文分词方法的流程示意图,在上述实施例二的基础上,训练好的条件随机场模型包括训练好的类别标注模型,对应的,如图3所示,该中文分词方法可以包括以下步骤:
步骤S301,获取待分词文本,并按照正向将待分词文本与词典匹配,得到正向分词结果,按照反向将待分词文本与词典匹配,得到反向分词结果。
步骤S302,若正向分词结果与反向分词结果不相同,则提取正向分词结果与反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本。
其中,步骤S301至步骤S302与上述实施例二中步骤S201至步骤S202的内容相同,可以参考上述步骤S201至步骤S202的描述,在此不再赘述。
步骤S303,将二次分词文本输出训练好的类别标注模型,得到二次分词文本中每个字的类别。
本申请中,类别包括词首类、词中类、词尾类和单字词。该训练好的类别标注模型本质上为分类模型,该分类模型能够根据当前字的上下文信息对该当前字进行归类,从而确定对应的所属类别,并使用所属的类别标注该字,用于后续的分词。该分类模型的训练较为简单,易于实现,无需较长的训练时间。
步骤S304,根据每个字在二次分词文本中的正向词序,确定类别为词首类的字与向后相邻的类别为词尾类以及两者之间的词中类为一组分词,并且确定类别为单字词的字为一组分词。
本申请中,单字词即为一个单独的分组的分词,即该组分词为一个字,两个字构成的一组分词,其中,前一个字的标注为词首类,后一个字的标注为词尾类,三个及以上字构成的一组分词,其中,最前的字的标注为词首类,最后的字的标注为词尾类,中间所有的字的标注均为词中类。因而,根据类别即可对二次分词文本进行分词,得到每一组的分词。
步骤S305,将每组分词按照对应的词序排列,得到二次分词文本对应的二次分词结果。
本申请中,词序即为二次分词文本的阅读顺序,将每一组分词按照词序进行排列节课得到二次分词结果。
步骤S306,将反向分词结果或者正向分词结果中除二次分词文本外的一次分词结果与二次分词结果整合,得到待分词文本的分词结果。
其中,步骤S306与上述实施例二中步骤S204的内容相同,可以参考上述步骤S204的描述,在此不再赘述。
本申请实施例对获取的待分词文本按照正向与词典进行匹配,得到正向分词结果,按照反向将待分词文本与词典匹配,得到反向分词结果,若正向分词结果与反向分词结果不相同,则提取正向分词结果与反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本,将二次分词文本输入训练好的类别标注模型进行分类,确定每个字的类别,根据每个字在二次分词文本中的正向词序,确定类别为词首类的字与向后相邻的类别为词尾类以及两者之间的词中类为一组分词,并且确定类别为单字词的字为一组分词,将每组分词按照对应的词序排列,得到二次分词文本对应的二次分词结果,最后,将反向分词结果或者正向分词结果中除二次分词文本外的一次分词结果与二次分词结果整合,得到待分词文本的分词结果,采用双向匹配的方式对文本进行一次分词,在使用条件随机场模型进行二次分词,将两次分词的结果整合,得到完整的分词结果,使用第一次分词可以提高分词的效率,使用第二次分词可以提高分词的准确率,从而既保证了效率又提高了准确率。
对应于上文实施例的基于人工智能的中文分词方法,图4示出了本申请实施例四提供的基于人工智能的中文分词装置的结构框图,上述中文分词装置应用于图1中的服务端,服务端对应的计算机设备连接相应的数据库,以获取数据库中相应的待分词文本等。上述计算机设备还可以连接相应的客户端,客户端将待分词文本发送给服务端,实现了服务端获取数据的功能。为了便于说明,仅示出了与本申请实施例相关的部分。
参见图4,该中文分词装置包括:
一次分词模块41,用于获取待分词文本,并按照正向将待分词文本与词典匹配,得到正向分词结果,按照反向将待分词文本与词典匹配,得到反向分词结果,正向为表征待分词文本的词序的方向,反向与正向相反;
差异分析模块42,用于若正向分词结果与反向分词结果不相同,则提取正向分词结果与反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本;
二次分词模块43,用于将二次分词文本输入训练好的条件随机场模型,输出二次分词文本对应的二次分词结果;
分词整合模块44,用于将反向分词结果或者正向分词结果中除二次分词文本外的一次分词结果与二次分词结果整合,得到待分词文本的分词结果。
可选的是,上述一次分词模块41包括:
第一长度获取单元,用于根据预设的匹配规则,从词典中确定当前次匹配的第一目标词,获取第一目标词的第一目标长度;
第一匹配检测单元,用于使用第一目标长度从待分词文本首位开始向后分割对应长度的第一目标文本,检测第一目标文本与第一目标词是否匹配;
第一返回执行单元,用于若第一目标文本与第一目标词匹配,则保留第一目标文本的划分,并使用第一目标长度从第一目标文本的后一位开始向后分割对应长度的文本,将对应文本作为第一目标文本,返回执行检测第一目标文本与第一目标词是否匹配的步骤;
第二返回执行单元,用于若第一目标文本与第一目标词不匹配,则使用第一目标长度从待分词文本首位的后一位开始向后分割对应长度的文本,将对应文本作为第一目标文本,返回执行检测第一目标文本与第一目标词是否匹配的步骤;
正向循环单元,用于在第一目标文本的末位为待分词文本的末位或者第一目标文本的后一位至待分词文本的末位的长度小于第一目标长度时,若待分词文本未划分完毕,则根据预设的匹配规则,从词典中确定下一次匹配的词,并将下一次匹配的词作为第一目标词;
正向一次分词单元,用于返回执行获取第一目标词的第一目标长度的步骤,直至待分词文本划分完毕或者词典中所有词均已参与匹配,确定最终匹配结果为正向分词结果。
可选的是,上述一次分词模块41包括:
第二长度获取单元,用于根据预设的匹配规则,从词典中确定当前次匹配的第二目标词,获取第二目标词的第二目标长度;
第二匹配检测单元,用于使用第二目标长度从待分词文本末位开始向前分割对应长度的第二目标文本,检测第二目标文本与第二目标词是否匹配;
第四返回执行单元,用于若第二目标文本与第二目标词匹配,则保留第二目标文本的划分,并使用第二目标长度从第二目标文本的前一位开始向前分割对应长度的文本,将对应文本作为第二目标文本,返回执行检测第二目标文本与第二目标词是否匹配的步骤;
第五返回执行单元,用于若第二目标文本与第二目标词不匹配,则使用第二目标长度从待分词文本末位的前一位开始向前分割对应长度的文本,将对应文本作为第二目标文本,返回执行检测第二目标文本与第二目标词是否匹配的步骤;
反向循环单元,用于在第二目标文本的首位为待分词文本的首位或者第二目标文本的前一位至待分词文本的首位的长度小于第二目标长度时,若待分词文本未划分完毕,则根据预设的匹配规则,从词典中确定下一次匹配的词,并将下一次匹配的词作为第二目标词;
反向一次分词单元,用于返回执行获取第二目标词的第二目标长度的步骤,直至待分词文本划分完毕或者词典中所有词均已参与匹配,确定最终匹配结果为反向分词结果。
可选的是,上述差异分析模块42包括:
比较单元,用于将正向分词结果中依次排列的词与反向分词结果中对应排列次序的词进行比较;
差异分析单元,用于若在任一相同排列次序处正向分词结果的词与反向分词结果的词不相同,则确定正向分词结果与反向分词结果不相同;
位置确定单元,用于确定所有不相同的词的排列次序为正向分词结果与反向分词结果中所有差异所在文本位置,确定所有不相同的词的排列次序中最靠前的排列次序为起始差异所在文本位置,确定所有不相同的词的排列次序中最靠后的排列次序为终止差异所在文本位置;
文本确定单元,用于从正向分词结果或者反向分词结果中确定最靠前的排列次序和最靠后的排列次序中间的文本为二次分词文本。
可选的是,上述分词整合模块44包括:
一次分词确定单元,用于从正向分词结果或者反向分词结果中剔除二次分词文本,并在剔除的二次分词文本处生成待填入区,得到一次分词结果;
分词整合单元,用于将二次分词结果填入一次分词结果的待填入区,确定填充后的结果为待分词文本的分词结果。
可选的是,训练好的条件随机场模型包括训练好的类别标注模型,上述二次分词模块43包括:
类别确定单元,用于将二次分词文本输出训练好的类别标注模型,得到二次分词文本中每个字的类别,类别包括词首类、词中类、词尾类和单字词;
二次分词单元,用于根据每个字在二次分词文本中的正向词序,确定类别为词首类的字与向后相邻的类别为词尾类以及两者之间的词中类为一组分词,并且确定类别为单字词的字为一组分词;
二次分词确定单元,用于将每组分词按照对应的词序排列,得到二次分词文本对应的二次分词结果。
需要说明的是,上述模块之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图5为本申请实施例五提供的一种计算机设备的结构示意图。如图5所示,该实施例的计算机设备包括:至少一个处理器(图5中仅示出一个)、存储器以及存储在存储器中并可在至少一个处理器上运行的计算机程序,处理器执行计算机程序时实现上述任意各个基于人工智能的中文分词方法实施例中的步骤。
该计算机设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,图5仅仅是计算机设备的举例,并不构成对计算机设备的限定,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括网络接口、显示屏和输入装置等。
所称处理器可以是CPU,该处理器还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器包括可读存储介质、内存储器等,其中,内存储器可以是计算机设备的内存,内存储器为可读存储介质中的操作系统和计算机可读指令的运行提供环境。可读存储介质可以是计算机设备的硬盘,在另一些实施例中也可以是计算机设备的外部存储设备,例如,计算机设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,该其他程序如计算机程序的程序代码等。存储器还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述装置中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述方法实施例的步骤。其中,计算机程序包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质至少可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
本申请实现上述实施例方法中的全部或部分流程,也可以通过一种计算机程序产品来完成,当计算机程序产品在计算机设备上运行时,使得计算机设备执行时实现可实现上述方法实施例中的步骤。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/计算机设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/计算机设备实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种基于人工智能的中文分词方法,其特征在于,所述中文分词方法包括:
获取待分词文本,并按照正向将所述待分词文本与词典匹配,得到正向分词结果,按照反向将所述待分词文本与所述词典匹配,得到反向分词结果,所述正向为表征所述待分词文本的词序的方向,所述反向与所述正向相反;
若所述正向分词结果与所述反向分词结果不相同,则提取所述正向分词结果与所述反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本;
将所述二次分词文本输入训练好的条件随机场模型,输出所述二次分词文本对应的二次分词结果;
将所述反向分词结果或者所述正向分词结果中除所述二次分词文本外的一次分词结果与所述二次分词结果整合,得到所述待分词文本的分词结果。
2.根据权利要求1所述的中文分词方法,其特征在于,按照正向将所述待分词文本与词典匹配,得到正向分词结果包括:
根据预设的匹配规则,从词典中确定当前次匹配的第一目标词,获取所述第一目标词的第一目标长度;
使用所述第一目标长度从所述待分词文本首位开始向后分割对应长度的第一目标文本,检测所述第一目标文本与所述第一目标词是否匹配;
若所述第一目标文本与所述第一目标词匹配,则保留所述第一目标文本的划分,并使用所述第一目标长度从所述第一目标文本的后一位开始向后分割对应长度的文本,将对应文本作为所述第一目标文本,返回执行检测所述第一目标文本与所述第一目标词是否匹配的步骤;
若所述第一目标文本与所述第一目标词不匹配,则使用所述第一目标长度从所述待分词文本首位的后一位开始向后分割对应长度的文本,将对应文本作为所述第一目标文本,返回执行检测所述第一目标文本与所述第一目标词是否匹配的步骤;
在所述第一目标文本的末位为所述待分词文本的末位或者所述第一目标文本的后一位至所述待分词文本的末位的长度小于所述第一目标长度时,若所述待分词文本未划分完毕,则根据所述预设的匹配规则,从所述词典中确定下一次匹配的词,并将所述下一次匹配的词作为所述第一目标词;
返回执行获取所述第一目标词的第一目标长度的步骤,直至所述待分词文本划分完毕或者所述词典中所有词均已参与匹配,确定最终匹配结果为正向分词结果。
3.根据权利要求1所述的中文分词方法,其特征在于,按照反向将所述待分词文本与所述词典匹配,得到反向分词结果包括:
根据预设的匹配规则,从词典中确定当前次匹配的第二目标词,获取所述第二目标词的第二目标长度;
使用所述第二目标长度从所述待分词文本末位开始向前分割对应长度的第二目标文本,检测所述第二目标文本与所述第二目标词是否匹配;
若所述第二目标文本与所述第二目标词匹配,则保留所述第二目标文本的划分,并使用所述第二目标长度从所述第二目标文本的前一位开始向前分割对应长度的文本,将对应文本作为所述第二目标文本,返回执行检测所述第二目标文本与所述第二目标词是否匹配的步骤;
若所述第二目标文本与所述第二目标词不匹配,则使用所述第二目标长度从所述待分词文本末位的前一位开始向前分割对应长度的文本,将对应文本作为所述第二目标文本,返回执行检测所述第二目标文本与所述第二目标词是否匹配的步骤;
在所述第二目标文本的首位为所述待分词文本的首位或者所述第二目标文本的前一位至所述待分词文本的首位的长度小于所述第二目标长度时,若所述待分词文本未划分完毕,则根据所述预设的匹配规则,从所述词典中确定下一次匹配的词,并将所述下一次匹配的词作为所述第二目标词;
返回执行获取所述第二目标词的第二目标长度的步骤,直至所述待分词文本划分完毕或者所述词典中所有词均已参与匹配,确定最终匹配结果为反向分词结果。
4.根据权利要求3所述的中文分词方法,其特征在于,若所述正向分词结果与所述反向分词结果不相同,则提取所述正向分词结果与所述反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本包括:
将所述正向分词结果中依次排列的词与所述反向分词结果中对应排列次序的词进行比较;
若在任一相同排列次序处所述正向分词结果的词与所述反向分词结果的词不相同,则确定所述正向分词结果与所述反向分词结果不相同;
确定所有不相同的词的排列次序为所述正向分词结果与所述反向分词结果中所有差异所在文本位置,确定所有不相同的词的排列次序中最靠前的排列次序为起始差异所在文本位置,确定所有不相同的词的排列次序中最靠后的排列次序为终止差异所在文本位置;
从所述正向分词结果或者所述反向分词结果中确定所述最靠前的排列次序和所述最靠后的排列次序中间的文本为二次分词文本。
5.根据权利要求4所述的中文分词方法,其特征在于,将所述反向分词结果或者所述正向分词结果中除所述二次分词文本外的一次分词结果与所述二次分词结果整合,得到所述待分词文本的分词结果包括:
从所述正向分词结果或者所述反向分词结果中剔除所述二次分词文本,并在剔除的所述二次分词文本处生成待填入区,得到一次分词结果;
将所述二次分词结果填入所述一次分词结果的所述待填入区,确定填充后的结果为所述待分词文本的分词结果。
6.根据权利要求1至5任一项所述的中文分词方法,其特征在于,所述训练好的条件随机场模型包括训练好的类别标注模型,将所述二次分词文本输入训练好的条件随机场模型,输出所述二次分词文本对应的二次分词结果包括:
将所述二次分词文本输出训练好的类别标注模型,得到所述二次分词文本中每个字的类别,所述类别包括词首类、词中类、词尾类和单字词;
根据每个字在所述二次分词文本中的正向词序,确定类别为词首类的字与向后相邻的类别为词尾类以及两者之间的词中类为一组分词,并且确定类别为单字词的字为一组分词;
将每组分词按照对应的词序排列,得到所述二次分词文本对应的二次分词结果。
7.一种基于人工智能的中文分词装置,其特征在于,所述中文分词装置包括:
一次分词模块,用于获取待分词文本,并按照正向将所述待分词文本与词典匹配,得到正向分词结果,按照反向将所述待分词文本与所述词典匹配,得到反向分词结果,所述正向为表征所述待分词文本的词序的方向,所述反向与所述正向相反;
差异分析模块,用于若所述正向分词结果与所述反向分词结果不相同,则提取所述正向分词结果与所述反向分词结果中所有差异所在文本位置,将所有差异所在文本位置所包含的文本作为二次分词文本;
二次分词模块,用于将所述二次分词文本输入训练好的条件随机场模型,输出所述二次分词文本对应的二次分词结果;
分词整合模块,用于将所述反向分词结果或者所述正向分词结果中除所述二次分词文本外的一次分词结果与所述二次分词结果整合,得到所述待分词文本的分词结果。
8.根据权利要求7所述的中文分词装置,其特征在于,所述一次分词模块包括:
第一长度获取单元,用于根据预设的匹配规则,从词典中确定当前次匹配的第一目标词,获取所述第一目标词的第一目标长度;
第一匹配检测单元,用于使用所述第一目标长度从所述待分词文本首位开始向后分割对应长度的第一目标文本,检测所述第一目标文本与所述第一目标词是否匹配;
第一返回执行单元,用于若所述第一目标文本与所述第一目标词匹配,则保留所述第一目标文本的划分,并使用所述第一目标长度从所述第一目标文本的后一位开始向后分割对应长度的文本,将对应文本作为所述第一目标文本,返回执行检测所述第一目标文本与所述第一目标词是否匹配的步骤;
第二返回执行单元,用于若所述第一目标文本与所述第一目标词不匹配,则使用所述第一目标长度从所述待分词文本首位的后一位开始向后分割对应长度的文本,将对应文本作为所述第一目标文本,返回执行检测所述第一目标文本与所述第一目标词是否匹配的步骤;
正向循环单元,用于在所述第一目标文本的末位为所述待分词文本的末位或者所述第一目标文本的后一位至所述待分词文本的末位的长度小于所述第一目标长度时,若所述待分词文本未划分完毕,则根据所述预设的匹配规则,从所述词典中确定下一次匹配的词,并将所述下一次匹配的词作为所述第一目标词;
第三返回执行单元,用于返回执行获取所述第一目标词的第一目标长度的步骤,直至所述待分词文本划分完毕或者所述词典中所有词均已参与匹配,确定最终匹配结果为正向分词结果。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述的中文分词方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的中文分词方法。
CN202210602729.0A 2022-05-30 2022-05-30 基于人工智能的中文分词方法、装置、计算机设备及介质 Withdrawn CN114970514A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210602729.0A CN114970514A (zh) 2022-05-30 2022-05-30 基于人工智能的中文分词方法、装置、计算机设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210602729.0A CN114970514A (zh) 2022-05-30 2022-05-30 基于人工智能的中文分词方法、装置、计算机设备及介质

Publications (1)

Publication Number Publication Date
CN114970514A true CN114970514A (zh) 2022-08-30

Family

ID=82956726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210602729.0A Withdrawn CN114970514A (zh) 2022-05-30 2022-05-30 基于人工智能的中文分词方法、装置、计算机设备及介质

Country Status (1)

Country Link
CN (1) CN114970514A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116884390A (zh) * 2023-09-06 2023-10-13 四川蜀天信息技术有限公司 一种提高用户交互流畅度的方法和装置
CN117422071A (zh) * 2023-12-19 2024-01-19 中南大学 一种文本词项多重分割标注转换方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680585A (zh) * 2017-08-23 2018-02-09 海信集团有限公司 一种中文分词方法、中文分词装置和终端
CN113111651A (zh) * 2021-04-22 2021-07-13 深圳华南城网科技有限公司 一种中文分词方法、装置以及搜索词库读取方法
US20210256294A1 (en) * 2020-02-19 2021-08-19 Northrop Grumman Systems Corporation System and method for whole word conversion of text in image
CN113962216A (zh) * 2021-09-15 2022-01-21 北京三快在线科技有限公司 文本处理方法、装置、电子设备及可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107680585A (zh) * 2017-08-23 2018-02-09 海信集团有限公司 一种中文分词方法、中文分词装置和终端
US20210256294A1 (en) * 2020-02-19 2021-08-19 Northrop Grumman Systems Corporation System and method for whole word conversion of text in image
CN113111651A (zh) * 2021-04-22 2021-07-13 深圳华南城网科技有限公司 一种中文分词方法、装置以及搜索词库读取方法
CN113962216A (zh) * 2021-09-15 2022-01-21 北京三快在线科技有限公司 文本处理方法、装置、电子设备及可读存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116884390A (zh) * 2023-09-06 2023-10-13 四川蜀天信息技术有限公司 一种提高用户交互流畅度的方法和装置
CN116884390B (zh) * 2023-09-06 2024-01-26 四川蜀天信息技术有限公司 一种提高用户交互流畅度的方法和装置
CN117422071A (zh) * 2023-12-19 2024-01-19 中南大学 一种文本词项多重分割标注转换方法及装置
CN117422071B (zh) * 2023-12-19 2024-03-15 中南大学 一种文本词项多重分割标注转换方法及装置

Similar Documents

Publication Publication Date Title
CN106156365B (zh) 一种知识图谱的生成方法及装置
CN108959257B (zh) 一种自然语言解析方法、装置、服务器及存储介质
CN111046133A (zh) 基于图谱化知识库的问答方法、设备、存储介质及装置
CN114970514A (zh) 基于人工智能的中文分词方法、装置、计算机设备及介质
CN110853625B (zh) 语音识别模型分词训练方法、系统、移动终端及存储介质
CN111460170B (zh) 一种词语识别方法、装置、终端设备及存储介质
CN111177375B (zh) 一种电子文档分类方法及装置
CN112182167B (zh) 一种文本匹配方法、装置、终端设备和存储介质
CN109117477B (zh) 面向中文领域的非分类关系抽取方法、装置、设备及介质
CN114860942B (zh) 文本意图分类方法、装置、设备及存储介质
CN115858773A (zh) 适用于长文档的关键词挖掘方法、装置及介质
CN113076720B (zh) 长文本的分段方法及装置、存储介质、电子装置
CN112151019A (zh) 文本处理方法、装置及计算设备
CN111368066A (zh) 获取对话摘要的方法、装置和计算机可读存储介质
CN111354354B (zh) 一种基于语义识别的训练方法、训练装置及终端设备
CN116090450A (zh) 一种文本处理方法及计算设备
CN114528851B (zh) 回复语句确定方法、装置、电子设备和存储介质
CN110874408A (zh) 模型训练方法、文本识别方法、装置及计算设备
JP3080066B2 (ja) 文字認識装置、方法及び記憶媒体
CN117235137B (zh) 一种基于向量数据库的职业信息查询方法及装置
CN115618968B (zh) 新意图发现方法、装置、电子设备及存储介质
CN111540363B (zh) 关键词模型及解码网络构建方法、检测方法及相关设备
CN114547255A (zh) 基于人工智能的会话提示方法、装置、存储介质及设备
CN115080733A (zh) 长文本识别方法、装置、服务器以及计算机可读存储介质
CN115033682A (zh) 文本生成模型的自适应训练方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20220830

WW01 Invention patent application withdrawn after publication