CN107680579B - 文本正则化模型训练方法和装置、文本正则化方法和装置 - Google Patents
文本正则化模型训练方法和装置、文本正则化方法和装置 Download PDFInfo
- Publication number
- CN107680579B CN107680579B CN201710912134.4A CN201710912134A CN107680579B CN 107680579 B CN107680579 B CN 107680579B CN 201710912134 A CN201710912134 A CN 201710912134A CN 107680579 B CN107680579 B CN 107680579B
- Authority
- CN
- China
- Prior art keywords
- character
- text
- input
- regularization
- characters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000012549 training Methods 0.000 title claims abstract description 43
- 230000011218 segmentation Effects 0.000 claims abstract description 151
- 238000002372 labelling Methods 0.000 claims abstract description 70
- 238000013528 artificial neural network Methods 0.000 claims abstract description 69
- 230000000306 recurrent effect Effects 0.000 claims abstract description 62
- 238000012545 processing Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 9
- 238000012423 maintenance Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000004913 activation Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 210000001072 colon Anatomy 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/151—Transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了文本正则化模型训练方法和装置、文本正则化方法和装置。该模型训练方法的一具体实施方式包括:将输入文本对应的输入字符序列中的输入字符依次输入文本正则化模型对应的循环神经网络中,其中输入文本对应的输入字符序列按照如下方式生成:按照第一预设粒度对输入文本进行分割得到第一分割结果;将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理;基于循环神经网络对各输入字符进行分类,得到输入字符序列的预测分类结果;根据输入字符序列的预测分类结果与输入文本的正则化文本的标注分类结果之间的差异,对神经网络的参数进行调整;该实施方式实现了文本正则化模型的自动化训练,提升了文本正则化模型的灵活性。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及语音合成技术领域,尤其涉及文本正则化模型训练方法和装置、文本正则化方法和装置。
背景技术
人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语音识别、语音合成、图像识别、自然语言处理和专家系统等。其中,语音合成技术是计算机科学领域与人工智能领域中的一个重要方向。
语音合成是通过机械的、电子的方法产生人造语音的技术。TTS(Text to Speech,文本到语音)技术隶属于语音合成,它是将计算机自己产生的、或外部输入的文字信息转变为可以听得懂的、流利的口语输出的技术。而文本正则化是语音合成的关键技术环节,它是将文本中的非标准字符转换成标准字符的过程。
现有的文本正则化方法大多是基于规则的,通过对语料的观察和统计,设定一些非标准字符到标准字符的转换规则。然而,随着TTS请求增多和文本多样性变化,规则数量逐渐增多,规则的维护越来越困难,不利于节约资源。
发明内容
本申请实施例提供了文本正则化模型训练方法和装置、文本正则化方法和装置。
第一方面,本申请实施例提供了一种文本正则化模型训练方法,包括:将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;基于循环神经网络对各输入字符进行分类,得到输入字符序列的预测分类结果;根据输入字符序列的预测分类结果与输入文本的正则化文本的标注分类结果之间的差异,对循环神经网络的参数进行调整;其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对输入文本进行分割得到第一分割结果;将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到输入字符序列。
在一些实施例中,上述第一分割结果中的具有至少两种正则化结果的非汉字字符包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符。这时,上述第一分割结果中的具有至少两种正则化结果的非汉字字符是按照如下方式进行标签化处理的:将第一分割结果中的具有至少两种正则化结果的符号字符替换为符号字符的读音类型标签,将第一分割结果中的具有至少两种正则化结果的连续数字字符替换为与连续数字字符的语义类型对应且包含连续数字字符的长度信息的标签,将第一分割结果中具有至少两种正则化结果的字母字符替换为与字母字符的语义类型对应的标签。
在一些实施例中,上述输入字符序列的预测分类结果包括输入字符序列中各输入字符的预测类别信息;上述输入文本的正则化文本的标注分类结果包括与输入文本的正则化文本对应的目标字符序列中各目标字符的已标注类别信息。
在一些实施例中,上述输入文本的正则化文本的标注分类结果按照如下方式生成:将输入文本的正则化文本按照第二预设粒度进行分割,得到第二分割结果,第二分割结果包括以下至少一项:与输入文本中的单个汉字字符对应的单个汉字字符、与输入文本中的连续数字字符对应的第一汉字字符串、与输入文本中的符号字符对应的第二汉字字符串或符号字符、以及与输入文本中的字母字符对应的第三汉字字符串或字母字符;将第二分割结果中的与输入文本中的单个汉字字符对应的单个汉字字符、与输入文本中的符号字符对应的符号字符、以及与输入文本中的字母字符对应的字母字符替换为第一预设类别标识;将第二分割结果中的与输入文本中的连续数字字符对应的第一汉字字符串替换为用于标识输入文本中对应的连续数字字符的语义类型的第一语义类别标识;将第二分割结果中的与输入文本中的符号字符对应的第二汉字字符串替换为用于标识输入文本中对应的符号字符的语义类型的第二语义类别标识;将与输入文本中的字母字符对应的第三汉字字符串替换为用于标识输入文本中对应的字母字符的语义类型的第三语义类别标识。
第二方面,本申请实施例提供了一种文本正则化方法,包括:获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;将待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;基于待处理字符序列对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符,并按顺序组合各输出字符,得到待处理文本的正则化文本;其中,文本正则化模型基于如第一方面的方法训练。
在一些实施例中,上述分割结果中的具有至少两种正则化结果的非汉字字符包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符;分割结果中的具有至少两种正则化结果的非汉字字符是按照如下方式进行标签化处理的:将分割结果中的具有至少两种正则化结果的符号字符替换为符号字符的读音类型标签,将分割结果中的具有至少两种正则化结果的连续数字字符替换为与连续数字字符的语义类型对应且包含连续数字字符的长度信息的标签,将分割结果中具有至少两种正则化结果的字母字符替换为与连续字母字符的语义类型对应的标签。
在一些实施例中,上述输出类别标识序列中的输出类别标识包括以下至少一项:用于标识未转换字符的类别的第一预设类别标识、用于标识连续数字字符的语义类型的第一语义类别标识、用于标识符号字符的语义类型的第二语义类别标识、用于标识字母字符的语义类型的第三语义类别标识。这时,上述基于待处理字符序列对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符,包括:将第一预设类别标识替换为对应的待处理字符;根据第一语义类别标识确定待处理字符序列中对应的连续数字字符的语义类型,根据连续数字字符的语义类型将连续数字字符转换为对应的汉字字符串;根据第二语义类别标识确定待处理字符序列中对应的符号字符的语义类型,根据符号字符的语义类型将符号字符转换为对应的汉字字符串;根据第三语义类别标识确定待处理字符序列中对应的字母字符的语义类型,根据字母字符的语义类型将字母字符转换为对应的汉字字符串。
第三方面,本申请实施例提供了一种文本正则化模型训练装置,包括:输入单元,用于将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;预测单元,用于基于循环神经网络对各输入字符进行分类,得到输入字符序列的预测分类结果;调整单元,用于根据输入字符序列的预测分类结果与输入文本的正则化文本的标注分类结果之间的差异,对循环神经网络的参数进行调整;其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对输入文本进行分割得到第一分割结果;将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到输入字符序列。
在一些实施例中,上述第一分割结果中的具有至少两种正则化结果的非汉字字符包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符。这时,上述第一分割结果中的具有至少两种正则化结果的非汉字字符是按照如下方式进行标签化处理的:将第一分割结果中的具有至少两种正则化结果的符号字符替换为符号字符的读音类型标签,将第一分割结果中的具有至少两种正则化结果的连续数字字符替换为与连续数字字符的语义类型对应且包含连续数字字符的长度信息的标签,将第一分割结果中具有至少两种正则化结果的字母字符替换为与字母字符的语义类型对应的标签。
在一些实施例中,上述输入字符序列的预测分类结果包括输入字符序列中各输入字符的预测类别信息;输入文本的正则化文本的标注分类结果包括与输入文本的正则化文本对应的目标字符序列中各目标字符的已标注类别信息。
在一些实施例中,上述输入文本的正则化文本的标注分类结果按照如下方式生成:将输入文本的正则化文本按照第二预设粒度进行分割,得到第二分割结果,第二分割结果包括以下至少一项:与输入文本中的单个汉字字符对应的单个汉字字符、与输入文本中的连续数字字符对应的第一汉字字符串、与输入文本中的符号字符对应的第二汉字字符串或符号字符、以及与输入文本中的字母字符对应的第三汉字字符串或字母字符;将第二分割结果中的与输入文本中的单个汉字字符对应的单个汉字字符、与输入文本中的符号字符对应的符号字符、以及与输入文本中的字母字符对应的字母字符替换为第一预设类别标识;将第二分割结果中的与输入文本中的连续数字字符对应的第一汉字字符串替换为用于标识输入文本中对应的连续数字字符的语义类型的第一语义类别标识;将第二分割结果中的与输入文本中的符号字符对应的第二汉字字符串替换为用于标识输入文本中对应的符号字符的语义类型的第二语义类别标识;将与输入文本中的字母字符对应的第三汉字字符串替换为用于标识输入文本中对应的字母字符的语义类型的第三语义类别标识。
第四方面,本申请实施例提供了一种文本正则化装置,包括:获取单元,用于获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;分类单元,用于将待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;处理单元,用于基于待处理字符序列对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符,并按顺序组合各输出字符,得到待处理文本的正则化文本;其中,文本正则化模型基于第一方面的方法训练。
在一些实施例中,上述分割结果中的具有至少两种正则化结果的非汉字字符包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符。这时,分割结果中的具有至少两种正则化结果的非汉字字符是按照如下方式进行标签化处理的:将分割结果中的具有至少两种正则化结果的符号字符替换为符号字符的读音类型标签,将分割结果中的具有至少两种正则化结果的连续数字字符替换为与连续数字字符的语义类型对应且包含连续数字字符的长度信息的标签,将分割结果中具有至少两种正则化结果的字母字符替换为与连续字母字符的语义类型对应的标签。
在一些实施例中,上述输出类别标识序列中的输出类别标识包括以下至少一项:用于标识未转换字符的类别的第一预设类别标识、用于标识连续数字字符的语义类型的第一语义类别标识、用于标识符号字符的语义类型的第二语义类别标识、用于标识字母字符的语义类型的第三语义类别标识。这时,上述处理单元进一步用于按照如下方式对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符:将第一预设类别标识替换为对应的待处理字符;根据第一语义类别标识确定待处理字符序列中对应的连续数字字符的语义类型,根据连续数字字符的语义类型将连续数字字符转换为对应的汉字字符串;根据第二语义类别标识确定待处理字符序列中对应的符号字符的语义类型,根据符号字符的语义类型将符号字符转换为对应的汉字字符串;根据第三语义类别标识确定待处理字符序列中对应的字母字符的语义类型,根据字母字符的语义类型将字母字符转换为对应的汉字字符串。
本申请实施例提供的文本正则化模型训练方法和装置,通过将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;然后基于第一预设类别标识循环神经网络对各第一预设类别标识输入字符进行分类,得到第一预设类别标识输入字符序列的预测分类结果;之后根据第一预设类别标识输入字符序列的预测分类结果与第一预设类别标识输入文本的正则化文本的标注分类结果之间的差异,对第一预设类别标识神经网络的参数进行调整;其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对第一预设类别标识输入文本进行分割得到第一分割结果;将第一预设类别标识第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到第一预设类别标识输入字符序列,实现了将输入文本中可能具有多种不同正则化结果的特殊文本转泛化为对应的类型标签进行训练,解决了规则维护困难的问题,并且能够保证训练得出的文本正则化模型可以准确地将这些特殊文本进行转化。
本申请实施例提供的文本正则化方法和装置,首先获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;然后将待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;之后基于待处理字符序列对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符,并按顺序组合各输出字符,得到待处理文本的正则化文本;其中,文本正则化模型基于如下方式训练:将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;然后基于第一预设类别标识循环神经网络对各第一预设类别标识输入字符进行分类,得到第一预设类别标识输入字符序列的预测分类结果;之后根据第一预设类别标识输入字符序列的预测分类结果与第一预设类别标识输入文本的正则化文本的标注分类结果之间的差异,对第一预设类别标识神经网络的参数进行调整;其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对第一预设类别标识输入文本进行分割得到第一分割结果;将第一预设类别标识第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到第一预设类别标识输入字符序列。该文本正则化方法无需对规则进行维护,避免了规则维护造成的资源消耗,且灵活性强、准确度高,可应用于复杂文本的转化。
附图说明
通过阅读参照以下附图所作的对非限制性实施例详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的文本正则化模型训练方法的一个实施例的流程示意图;
图3是根据本申请的文本正则化方法的一个实施例的流程示意图;
图4是本申请的文本正则化模型训练装置的一个实施例的结构示意图;
图5是本申请的文本正则化装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的服务器或终端设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的文本正则化模型的训练方法或装置、可以应用本申请的文本正则化方法或装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102,网络103、以及服务器104。网络103用以在终端设备101、102和服务器104之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户110可以使用终端设备101、102通过网络103与服务器104互,以接收或发送消息等。终端设备101、102上可以安装有各种语音交互类应用。
终端设备101、102可以是具有音频输入接口和音频输出接口并支持互联网访问的各种电子设备,包括但不限于智能手机、平板电脑、智能手表、电子书、智能音箱等。
服务器104可以是为语音服务提供支持的语音服务器,语音服务器可以接收终端设备101、102发出的语音交互请求,并对语音交互请求进行解析,然后查找相应的文本服务数据,将文本服务数据进行文本正则化处理后生成响应数据,并将生成的响应数据返回给终端设备101、102。
需要说明的是,本申请实施例所提供的文本正则化模型训练方法和文本正则化方法可以由终端设备101、102或服务器104执行,相应地,文本正则化模型训练装置和文本正则化装置可以设置于终端设备101、102或服务器104中。
应该理解,图1中的终端设备、网络、服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络、服务器。
继续参考图2,示出了根据本申请的文本正则化模型训练方法的一个实施例的流程200。该文本正则化模型训练方法,包括以下步骤:
步骤201,将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中。
在本实施例中,上述文本正则化模型训练方法运行于其上的电子设备(例如图1所示的服务器)可以获取已对输入文本进行处理后得到的对应的输入字符序列。输入字符序列可以包括按照输入文本中从前向后的顺序依次排列的多个字符。可以将获取到的输入字符序列中的输入字符按顺序输入待生成的文本正则化模型对应的RNN(Recurrent NeutralNetwork,循环神经网络)中。
上述输入文本对应的输入字符序列可以是按照如下方式生成的:按照第一预设粒度对输入文本进行分割得到第一分割结果;将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到输入字符序列。
上述输入文本可以为包含字符类型为汉字、字母、符号、阿拉伯数字等的字符文本。上述第一预设粒度可以是用于划分输入文本中的字符的最小单位。第一预设粒度可以为按照字符长度设定的,例如第一预设粒度可以是一个字符长度,包括单个字符,单个字符可以包括单个汉字、单个字母、单个符号、单个阿拉伯数字。第一预设粒度也可以是结合字符类型和字符长度设定的,例如单个汉字、单个符号、连续的一串数字、连续的一串字母。可选地,第一预设烈度可以包括:单个汉字、单个符号、连续数字、连续字母。在将输入文本按照第一预设粒度进行分割之后,得到第一分割结果,第一分割结果可以为顺序排列的字符。
第一分割结果可以包括汉字字符、具有一种正则化结果的非汉字字符以及具有至少两种正则化结果的非汉字字符。其中,具有一种正则化结果的非汉字字符可以例如为逗号“,”、顿号“、”、括号“(”或“)”等符号字符。具有至少两种正则化结果的非汉字字符可以包括冒号“:”等符号字符,以及“W”等字母字符。例如冒号“:”的正则化结果可以包括“比”和“*点*分”;“W”的正则化结果可以包括“万”、“W”、“瓦”等等。
在得到第一分割结果之后,可以将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,即可以将第一分割结果中的具有至少两种正则化结果的非汉字字符替换为对应的标签或在这些非汉字字符的特定位置增加相应的标签。具体地,可以根据第一分割结果中具有至少两种正则化结果的非汉字字符的不同字符类型,将各具有至少两种正则化结果的非汉字字符替换为对应的标签或在非汉字字符的特定位置增加对应的标签。其中,与各具有至少两种正则化结果的非汉字字符对应的标签可以是预先定义的。例如,可以将数字或符号根据其语义和读音类型替换为对应的标签,将不同的字母替换为同一个字母标签,等等。
可以预先由标注人员将上述输入文本按照第一预设粒度进行分割,得到第一分割结果,并由标注人员将第一分割结果中的具有至少两种正则化结果的非汉字字符按照其对应的类型(包括语义类型、读音类型等)替换为相应的标签;或者可以由上述电子设备对按照第一预设粒度分割输入文本得到第一分割结果,然后提取出其中的具有至少两种正则化结果的非汉字字符,之后由标注人员对提取出的具有至少两种正则化结果的非汉字字符根据其语义类型或读音类型将这些非汉字字符替换为与其语义类型或读音类型对应的标签。
在一些可选的实现方式中,可以将输入文本根据单个汉字、单个符号、连续数字、单个字母的粒度进行分割,分割结果中的具有至少两种正则化结果的非汉字字符可以包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符。上述第一分割结果中的具有至少两种正则化结果的非汉字字符可以是按照如下方式进行标签化处理的:将第一分割结果中的具有至少两种正则化结果的符号字符替换为符号字符的读音类型标签,将第一分割结果中的具有至少两种正则化结果的连续数字字符替换为与连续数字字符的语义类型对应且包含连续数字字符的长度信息的标签,将第一分割结果中具有至少两种正则化结果的字母字符替换为与字母字符的语义类型对应的标签。作为示例,具有至少两种正则化结果的符号字符“*”的读音类型标签可以为<FH_*_A>或<FH_*_B>,具有至少两种正则化结果的连续数字字符“100”的语义类型对应且包含连续数字字符的长度信息的标签可以为<INT_L3_T>或<INT_L3_S>,其中L3表示连续数据字符的长度为3,具有至少两种正则化结果的字母字符“X”的语义类型对应的标签可以为<ZM_X_A>或<ZM_X_B>。
表一示出了对一段输入文本按照第一预设粒度进行分割、并将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理的结果的示例。
表一输入文本的第一分割处理和标签化处理结果
通过将可能具有至少两种不同正则化结果的非汉字字符进行标签化处理,本实施例的文本正则化训练方法提升了模型的泛化性提升,能够被应用于处理复杂的文本。
步骤202,基于循环神经网络对各输入字符进行分类,得到输入字符序列的预测分类结果。
在本实施例中,可以利用待生成的文本正则化模型对应的循环神经网络对依次输入的各输入字符进行预测,得到每个输入字符的预测分类结果。
在本实施例中,循环神经网络可以包括输入层、隐藏层以及输出层。可以将输入字符序列x1,x2,x3,…,xTs(Ts为序列长度,或者说是输入字符序列中的输入字符数)输入循环神经网络的输入层。假设xt表示在第t步的输入,将输入字符xt进行如式(1)的非线性转换得到隐藏层状态st:
st=f(xt,st-1)=Uxt+Wst-1, (1)
其中,f是非线性激活函数,可以例如为tanh函数,U,W是非线性激活函数中的参数,t=1,2,3,…,TS;s0可以为0。
假设解码器的输出序列为y1,y2,y3,…,第t步输出层的输出为yt(即为xt的预测分类结果)为:
yt=g(st)=Vst+c, (2)
其中,上述式(2)相当于对状态st进行非线性变换,其中,V,c是变换参数,可选地,非线性变换的函数可以为softmax。
由式(1)可以看出,隐藏层第t步的状态与第t-1步的状态以及当前输入的字符xt相关,则文本正则化模型的训练过程可以比较准确地抓取上下文的信息来预测当前字符的类别。
步骤203,根据输入字符序列的预测分类结果与所述输入文本的正则化文本的标注分类结果之间的差异,对循环神经网络的参数进行调整。
在得到输入字符序列的预测结果之后,可以与已标注的输入文本的正则化文本的分类结果进行比对,计算二者之间的差异,然后根据差异对循环神经网络的参数进行调整。
具体来说,在对文本正则化模型进行训练时,可以标注输入文本的正则化对应的分类结果,作为已标注的样本数据。输入文本的正则化文本的标注结果可以是人工标注的、输入文本的正则化文本中每个字符的分类结果。在上述文本正则化模型对应的循环神经网络对输入文本进行预测得到预测分类结果之后,若预测分类结果与标注分类结果的差异较大,则表明循环神经网络准确度有待提升,这时,可以调整循环神经网络的参数。循环神经网络的参数具体可以包括上述非线性激活函数f中的参数U,W以及上述非线性变换函数g中的参数V,c。
进一步地,上述预测分类结果与标注分类结果之间的差异可以由损失函数来表示,然后计算损失函数关于循环神经网络中各参数的梯度,采用梯度下降法来更新各参数,将输入字符序列重新输入更新参数后的循环神经网络,得到新的预测分类结果,之后再重复上述更新参数的步骤,直到损失函数符合预设的收敛条件。这时,得到循环神经网络的训练结果,即文本正则化模型。
在本实施例的一些可选的实现方式中,上述输入字符序列的预测分类结果可以包括输入字符序列中各输入字符的预测类别信息,输入文本的正则化文本的标注分类结果包括与输入文本的正则化文本对应的目标字符序列中各目标字符的已标注类别信息。在这里,类别信息可以用类别标识符来表示。
举例来说,汉字字符以及仅具有一种正则化结果的非汉字字符的类别为未转换类,可以用预设类别标识符“E”表示,具有至少两种正则化结果的非汉字字符可以依照对应的不同正则化结果进行分类,例如连续数字字符“100”对应的类别可以包括数值类别、书面语号码类别以及口语号码类别,其中数值类别对应正则化结果“一百”,可以用类别标签<INT_L3_A>来标识,书面语号码类别和口语号码类别分别对应正则化结果“一零零”和“幺零零”,可以分别用类别标签<INT_L3_B>、<INT_L3_C>来标识。又例如符号“:”对应的类别可以包括标点类别、比分类别以及时间类别,字母“W”对应的类别可以包括字母类别、数字单位类别和功率单位类别等。
待生成的文本正则化模型的训练样本数据可以包括输入文本和输入文本的正则化文本。在进一步的实施例中,上述输入文本的正则化文本的标注分类结果按照如下方式生成:首先,将输入文本的正则化文本按照第二预设粒度进行分割,得到第二分割结果。在这里,第二预设粒度可以与第一预设粒度对应,输入文本的正则化文本的第二分割结果可以与输入文本的第一分割结果相对应。
第二分割结果包括以下至少一项:与输入文本中的单个汉字字符对应的单个汉字字符、与输入文本中的连续数字字符对应的第一汉字字符串、与输入文本中的符号字符对应的第二汉字字符串或符号字符、以及与输入文本中的字母字符对应的第三汉字字符串或字母字符。
然后,可以将第二分割结果中的与输入文本中的单个汉字字符对应的单个汉字字符、与输入文本中的符号字符对应的符号字符、以及与输入文本中的字母字符对应的字母字符替换为第一预设类别标识;将第二分割结果中的与输入文本中的连续数字字符对应的第一汉字字符串替换为用于标识输入文本中对应的连续数字字符的语义类型的第一语义类别标识;将第二分割结果中的与输入文本中的符号字符对应的第二汉字字符串替换为用于标识输入文本中对应的符号字符的语义类型的第二语义类别标识;将与输入文本中的字母字符对应的第三汉字字符串替换为用于标识输入文本中对应的字母字符的语义类型的第三语义类别标识。其中,不同的语义类别标识可以用不同的标识符(例如不同的英文字母、不同的数字、不同英文字母与数字、符号的组合等)来表示。
表二示出了与表一中的输入文本“另外准备了100亿日元(合约1.09亿美金)的创投基金”对应的正则化文本“另外准备了一百亿日元(合约一点零九亿美金)的创投基金”的进行处理得到对应的输出字符序列的示例。
表二对与输入文本对应的正则化文本处理得到输出字符序列的结果
其中,A和D分别为用于标识第二分割结果中与连续数字“100”和“09”对应的字符“一百”和“零九”的语义类型的类别标识,E为用于标识第二分割结果中未进行转换的字符的类别的第一预设类别标识。
从表一和表二可以看出,输入文本中的连续数字、字符、英文字母被替换为标签,并且输出字符序列中的连续数字、字符、连续英文字母被替换为对应的语义类别标识。这样,在训练过程中,文本正则化模型更容易学习到非汉字字符的分类逻辑,能够提升文本正则化模型的准确性。并且,本实施例的文本正则化模型训练方法通过分别对作为训练样本的输入文本进行标签化、对输入文本的正则化文本利用类别标识进行替换的泛化处理,能够对具有至少两种正则化结果的非汉字字符的语义类型进行准确的识别,从而提升了文本正则化模型的准确性。
本申请上述实施例提供的文本正则化模型训练方法,通过将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;然后基于第一预设类别标识循环神经网络对各第一预设类别标识输入字符进行分类,得到第一预设类别标识输入字符序列的预测分类结果;之后根据第一预设类别标识输入字符序列的预测分类结果与第一预设类别标识输入文本的正则化文本的标注分类结果之间的差异,对第一预设类别标识神经网络的参数进行调整;其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对第一预设类别标识输入文本进行分割得到第一分割结果;将第一预设类别标识第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到第一预设类别标识输入字符序列,实现了将输入文本中可能具有多种不同正则化结果的特殊文本泛化为对应的类型标签、并根据标记的分类结果进行训练,解决了规则维护困难的问题,并且能够保证训练得出的文本正则化模型可以准确地确定这些特殊文本的语义类型,进而进行准确的转化。
请参考图3,其示出了根据本申请的文本正则化方法的一个实施例的流程图。如图3所示,本实施例的文本正则化方法的流程300,可以包括以下步骤:
步骤301,获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列。
在本实施例中,第一预设粒度可以为例如为单个汉字、单个符号、连续数字、连续字母。可以将待处理文本按照第一预设粒度进行分割,将待处理文本拆分为仅包含仅具有一种正则化结果的字符和具有至少两种正则化结果的非汉字字符的序列。然后可以对分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,例如可以将具有至少两种正则化结果的非汉字字符替换为与其语义类型对应的标签、或在具有至少两种正则化结果的非汉字字符的特定位置添加与其语义类型对应的标签,然后将仅具有一种正则化结果的字符和标签化处理后的字符按照待处理文本中各字符的顺序排列,得到待处理字符序列。
上述文本正则化方法运行于其上的电子设备可以获取该待处理字符序列。在本实施例中,上述待处理字符序列是由标注人员对待处理文本进行分割、并进行标签化处理后得到的,则该电子设备可以获取标注人员通过输入接口输入的待处理字符序列。
在本实施例的一些可选的实现方式中,对待处理文本进行分割后得到的具有至少两种正则化结果的非汉字字符可以包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符。分割结果中的具有至少两种正则化结果的非汉字字符可以是按照如下方式进行标签化处理的:将分割结果中的具有至少两种正则化结果的符号字符替换为符号字符的读音类型标签,将分割结果中的具有至少两种正则化结果的连续数字字符替换为与连续数字字符的语义类型对应且包含连续数字字符的长度信息的标签,将分割结果中具有至少两种正则化结果的字母字符替换为与连续字母字符的语义类型对应的标签。
作为示例,待处理文本为“费德勒以3:1的比分赢下了比赛,本场比赛他发出了11记Ace球”,其中包含具有至少两种不同正则化结果的符号字符“:”和具有至少两种不同的正则化结果的连续数字字符“11”。可以按照单个汉字、单个符号、连续数字、连续字母的粒度对待处理文本进行分割。符号字符“:”的读音为“比”的读音,可以替换为其读音类型的标签<lab1_A>、连续数字字符可以替换为其语义类型“数值”的标签<lab2_C>。
步骤302,将待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列。
在本实施例中,文本正则化模型可以基于前面结合图2描述的方法训练。具体地,在训练文本正则化模型时,提供输入文本和输入文本对应的正则化文本作为原始训练样本。可以首先将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;然后基于循环神经网络对各输入字符进行分类,得到输入字符序列的预测分类结果;最后根据输入字符序列的预测分类结果与输入文本的正则化文本的标注分类结果之间的差异,对循环神经网络的参数进行调整。其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对输入文本进行分割得到第一分割结果;将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到输入字符序列。
可以看出,本实施例步骤301获取的待处理字符序列与文本正则化模型训练方法中的输入字符序列是分别由用于训练的输入文本和待处理文本经过相同的分割、标签化处理后得到的,则待处理字符序列与文本正则化模型训练方法中的输入字符序列的形式相同。
在将待处理字符序列输入文本正则化模型处理之后,可以输出与待处理字符序列对应的输出类别标识序列。输出类别标识序列可以包括与待处理字符序列中各待处理字符的类别标识。
步骤303,基于待处理字符序列对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符,并按顺序组合各输出字符,得到待处理文本的正则化文本。
可以结合待处理字符序列中的各字符,将输出类别标识序列中的输出类别标识替换为对应的输出字符。例如待处理字符序列中的英文字母为“W”,输出类别标识为功率单位的类别标识,则可以将该输出类别标识转换为对应的汉字字符“瓦”。
然后,可以按循环神经网络模型的输出顺序,将转换后的输出字符依序组合即可得到待处理文本的正则化文本。
在本实施例的一些可选的实现方式中,输出类别标识序列中的输出类别标识可以包括以下至少一项:用于标识未转换字符的类别的第一预设类别标识、用于标识连续数字字符的语义类型的第一语义类别标识、用于标识符号字符的语义类型的第二语义类别标识、用于标识字母字符的语义类型的第三语义类别标识。这时,上述基于待处理字符序列对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符,可以包括:将第一预设类别标识替换为对应的待处理字符;根据第一语义类别标识确定待处理字符序列中对应的连续数字字符的语义类型,根据连续数字字符的语义类型将连续数字字符转换为对应的汉字字符串;根据第二语义类别标识确定待处理字符序列中对应的符号字符的语义类型,根据符号字符的语义类型将符号字符转换为对应的汉字字符串;根据第三语义类别标识确定待处理字符序列中对应的字母字符的语义类型,根据字母字符的语义类型将字母字符转换为对应的汉字字符串。也就是说,可以首先根据输出类别标识确定出对应的待处理字符的语义类型,然后根据语义类型对输出类别标识进行转换。
举例来说,待处理文本“费德勒以3:1的比分赢下了比赛”在经过文本正则化模型处理后得到的输出类别标识序列为:E E E E E G E E E E E E E E E,其中输出类别标识G对应的待处理字符为“:”,可以根据该类别标识符G确定待处理字符的语义类型为比分类型,则可以将该类别标识符转换为与比分类型对应的“比”,类别标识E则直接转换为对应的待处理字符或与待处理字符的唯一正则化结果,得到输出字符序列“费德勒以三比一的比分赢下了比赛”,然后将输出字符序列组合得到待处理文本的正则化文本“费德勒以三比一的比分赢下了比赛”。
需要说明的是,本实施例中对待处理文本进行分割、并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理的具体实现方式还可以参考前述文本正则化模型训练方法的实施例中对输入文本进行分割得到第一分割结果、并对第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理的具体实现方式,此处不再赘述。
本申请实施例提供的文本正则化方法,首先获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;然后将所述待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;之后基于所述待处理字符序列对所述输出类别标识序列中的输出类别标识进行转换,得到各所述输出类别标识对应的输出字符,并按顺序组合各所述输出字符,得到所述待处理文本的正则化文本;其中,所述文本正则化模型基于如下方式训练:将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;然后基于第一预设类别标识循环神经网络对各第一预设类别标识输入字符进行分类,得到第一预设类别标识输入字符序列的预测分类结果;之后根据第一预设类别标识输入字符序列的预测分类结果与第一预设类别标识输入文本的正则化文本的标注分类结果之间的差异,对第一预设类别标识神经网络的参数进行调整;其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对第一预设类别标识输入文本进行分割得到第一分割结果;将第一预设类别标识第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到第一预设类别标识输入字符序列。该文本正则化方法无需对规则进行维护,避免了规则维护造成的资源消耗,且通过对待处理文本中的各字符进行分类、之后根据字符的分类结果确定字符的正则化结果,灵活性强、准确度高,可应用于复杂文本的转化。
进一步参考图4,作为对上述图2所示方法的实现,本申请提供了一种文本正则化模型的训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的文本正则化模型的训练装置400可以包括:输入单元401、预测单元402以及调整单元403。其中输入单元401可以用于将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中。输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对输入文本进行分割得到第一分割结果;将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到输入字符序列。预测单元402可以用于基于循环神经网络对各输入字符进行分类,得到输入字符序列的预测分类结果。调整单元403可以用于根据输入字符序列的预测分类结果与输入文本的正则化文本的标注分类结果之间的差异,对循环神经网络的参数进行调整。
在本实施例中,输入单元401可以获取已对输入文本进行处理后得到的对应的输入字符串序列,并将获取到的输入字符序列中的输入字符按顺序输入待生成的文本正则化模型对应的循环神经网络中。
预测单元402可以对输入字符序列中每个字符按照其语义类型或读音类型进行分类。具体地,在预测单元402进行分类时,可以利用循环神经网络中的非线性激活函数对第t步的输入字符xt和循环神经网络的隐藏层在上一步的状态进行变换得到隐藏层的当前状态,之后再利用非线性变换函数对隐藏层的当前状态进行变换得到输入字符xt的输出预测分类结果。
调整单元403可以将预测单元402的预测结果与已标注的输入文本的标注结果进行比对,计算二者之间的差异,具体可以基于比对结果构建损失函数。然后可以根据损失函数对文本正则化模型对应的循环神经网络中的非线性激活函数中的参数和非线性变换函数中的参数进行调整。具体来说,可以采用梯度下降法,计算损失函数关于各参数的梯度,按照设定的学习率沿梯度方向调整参数,得到调整后的参数。
之后,预测单元402可以基于调整参数后的神经网络对输入文本的转换结果进行预测,并将预测分类结果提供至调整单元403,继而调整单元403可以继续对参数进行调整。这样,通过预测单元402和调整单元403不断对循环神经网络的参数进行调整,使得预测分类结果逼近标注分类结果,在预测分类结果与标注分类结果之间的差异满足预设的收敛条件时得到训练好的文本正则化模型。
在一些实施例中,上述第一分割结果中的具有至少两种正则化结果的非汉字字符可以包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符。这时,第一分割结果中的具有至少两种正则化结果的非汉字字符可以是按照如下方式进行标签化处理的:将第一分割结果中的具有至少两种正则化结果的符号字符替换为符号字符的读音类型标签,将第一分割结果中的具有至少两种正则化结果的连续数字字符替换为与连续数字字符的语义类型对应且包含连续数字字符的长度信息的标签,将第一分割结果中具有至少两种正则化结果的字母字符替换为与字母字符的语义类型对应的标签。
在一些实施例中,上述输入字符序列的预测分类结果可以包括输入字符序列中各输入字符的预测类别信息;输入文本的正则化文本的标注分类结果包括与输入文本的正则化文本对应的目标字符序列中各目标字符的已标注类别信息。
在进一步的实施例中,输入文本的正则化文本的标注分类结果可以按照如下方式生成:将输入文本的正则化文本按照第二预设粒度进行分割,得到第二分割结果,第二分割结果包括以下至少一项:与输入文本中的单个汉字字符对应的单个汉字字符、与输入文本中的连续数字字符对应的第一汉字字符串、与输入文本中的符号字符对应的第二汉字字符串或符号字符、以及与输入文本中的字母字符对应的第三汉字字符串或字母字符;将第二分割结果中的与输入文本中的单个汉字字符对应的单个汉字字符、与输入文本中的符号字符对应的符号字符、以及与输入文本中的字母字符对应的字母字符替换为第一预设类别标识;将第二分割结果中的与输入文本中的连续数字字符对应的第一汉字字符串替换为用于标识输入文本中对应的连续数字字符的语义类型的第一语义类别标识;将第二分割结果中的与输入文本中的符号字符对应的第二汉字字符串替换为用于标识输入文本中对应的符号字符的语义类型的第二语义类别标识;将与输入文本中的字母字符对应的第三汉字字符串替换为用于标识输入文本中对应的字母字符的语义类型的第三语义类别标识。
本申请上述实施例的文本正则化模型训练装置400,通过输入单元将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中,其中输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对第一预设类别标识输入文本进行分割得到第一分割结果;将第一预设类别标识第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到第一预设类别标识输入字符序列,然后预测单元基于第一预设类别标识循环神经网络对各第一预设类别标识输入字符进行分类,得到第一预设类别标识输入字符序列的预测分类结果,之后调整单元根据第一预设类别标识输入字符序列的预测分类结果与第一预设类别标识输入文本的正则化文本的标注分类结果之间的差异,对第一预设类别标识神经网络的参数进行调整,实现了将输入文本中可能具有多种不同正则化结果的特殊文本转泛化为对应的类型标签进行训练,解决了规则维护困难的问题,并且能够保证训练得出的文本正则化模型可以准确地将这些特殊文本进行转化。
应当理解,装置400中记载的诸单元可以与参考图2描述的方法中的各个步骤相对应。由此,上文针对文本正则化模型训练方法描述的操作和特征同样适用于装置400及其中包含的单元,在此不再赘述。
进一步参考图5,作为对上述图3所示方法的实现,本申请提供了一种文本正则化装置的一个实施例,该装置实施例与图3所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的文本正则化装置500可以包括:获取单元501、分类单元502以及处理单元503。其中获取单元501可以用于获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;分类单元502可以用于将待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;处理单元503可以用于基于待处理字符序列对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符,并按顺序组合各输出字符,得到待处理文本的正则化文本。其中,文本正则化模型可以基于上述结合图2描述的方法训练。具体地,文本正则化模型可以按照如下方式训练:将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;然后基于第一预设类别标识循环神经网络对各第一预设类别标识输入字符进行分类,得到第一预设类别标识输入字符序列的预测分类结果;之后根据第一预设类别标识输入字符序列的预测分类结果与第一预设类别标识输入文本的正则化文本的标注分类结果之间的差异,对第一预设类别标识神经网络的参数进行调整;其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对第一预设类别标识输入文本进行分割得到第一分割结果;将第一预设类别标识第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到第一预设类别标识输入字符序列。
在本实施例中,获取单元501可以通过输入接口获取人工对待处理文本进行分割、标签化处理后的待处理字符序列。
在本实施例的一些可选的实现方式中,分割结果中的具有至少两种正则化结果的非汉字字符可以包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符。这时,分割结果中的具有至少两种正则化结果的非汉字字符可以是按照如下方式进行标签化处理的:将分割结果中的具有至少两种正则化结果的符号字符替换为符号字符的读音类型标签,将分割结果中的具有至少两种正则化结果的连续数字字符替换为与连续数字字符的语义类型对应且包含连续数字字符的长度信息的标签,将分割结果中具有至少两种正则化结果的字母字符替换为与连续字母字符的语义类型对应的标签。
处理单元503可以对分类单元502得到的输出类别标识序列中的类别标识进行转换处理,具体可以将类别标识替换为对应的汉字字符。然后可以将转换处理后得到的字符序列依次组合,形成待处理文本的正则化文本。
在本实施例的一些可选的实现方式中,上述输出类别标识序列中的输出类别标识可以包括以下至少一项:用于标识未转换字符的类别的第一预设类别标识、用于标识连续数字字符的语义类型的第一语义类别标识、用于标识符号字符的语义类型的第二语义类别标识、用于标识字母字符的语义类型的第三语义类别标识。这时,上述处理单元503可以进一步用于按照如下方式对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符:将第一预设类别标识替换为对应的待处理字符;根据第一语义类别标识确定待处理字符序列中对应的连续数字字符的语义类型,根据连续数字字符的语义类型将连续数字字符转换为对应的汉字字符串;根据第二语义类别标识确定待处理字符序列中对应的符号字符的语义类型,根据符号字符的语义类型将符号字符转换为对应的汉字字符串;根据第三语义类别标识确定待处理字符序列中对应的字母字符的语义类型,根据字母字符的语义类型将字母字符转换为对应的汉字字符串。
本申请实施例的文本正则化装置500,获取单元获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;而后分类单元将待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;最后基于待处理字符序列对输出类别标识序列中的输出类别标识进行转换,得到各输出类别标识对应的输出字符,并按顺序组合各输出字符,得到待处理文本的正则化文本。其中,文本正则化模型基于如下方式训练:将将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;基于循环神经网络对各输入字符进行分类,得到输入字符序列的预测分类结果;根据输入字符序列的预测分类结果与输入文本的正则化文本的标注分类结果之间的差异,对循环神经网络的参数进行调整;其中,输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对输入文本进行分割得到第一分割结果;将第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到输入字符序列。该装置实现了对待处理文本中各字符的分类,进而可以根据分类结果将文本正确转换,解决了规则维护困难、资源消耗大的问题,同时该装置灵活性强、准确度高,可应用于复杂文本的转化。
应当理解,装置500中记载的诸单元可以与参考图3描述的文本正则化方法中的各个步骤相对应。由此,上文针对文本正则化方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本申请实施例的终端设备或服务器的计算机系统600的结构示意图。图6示出的终端设备或服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括输入单元、预测单元和调整单元;以及一种处理器包括获取单元、分类单元和处理单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,输入单元还可以被描述为“将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;基于所述循环神经网络对各所述输入字符进行分类,得到所述输入字符序列的预测分类结果;根据所述输入字符序列的预测分类结果与所述输入文本的正则化文本的标注分类结果之间的差异,对所述循环神经网络的参数进行调整;其中,所述输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对所述输入文本进行分割得到第一分割结果;将所述第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到所述输入字符序列。
本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;将所述待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;基于所述待处理字符序列对所述输出类别标识序列中的输出类别标识进行转换,得到各所述输出类别标识对应的输出字符,并按顺序组合各所述输出字符,得到所述待处理文本的正则化文本;其中,所述文本正则化模型基于如下方式训练:将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;基于所述循环神经网络对各所述输入字符进行分类,得到所述输入字符序列的预测分类结果;根据所述输入字符序列的预测分类结果与所述输入文本的正则化文本的标注分类结果之间的差异,对所述循环神经网络的参数进行调整;其中,所述输入文本对应的输入字符序列是按照如下方式生成的:按照第一预设粒度对所述输入文本进行分割得到第一分割结果;将所述第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到所述输入字符序列。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (18)
1.一种文本正则化模型训练方法,其特征在于,所述方法包括:
将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;
基于所述循环神经网络对各所述输入字符进行分类,得到所述输入字符序列的预测分类结果;
根据所述输入字符序列的预测分类结果与所述输入文本的正则化文本的标注分类结果之间的差异,对所述循环神经网络的参数进行调整;
其中,所述输入文本对应的输入字符序列是按照如下方式生成的:
按照第一预设粒度对所述输入文本进行分割得到第一分割结果;
将所述第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到所述输入字符序列。
2.根据权利要求1所述的方法,其特征在于,所述第一分割结果中的具有至少两种正则化结果的非汉字字符包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符;
所述第一分割结果中的具有至少两种正则化结果的非汉字字符是按照如下方式进行标签化处理的:
将所述第一分割结果中的具有至少两种正则化结果的符号字符替换为所述符号字符的读音类型标签,将所述第一分割结果中的具有至少两种正则化结果的连续数字字符替换为与所述连续数字字符的语义类型对应且包含所述连续数字字符的长度信息的标签,将所述第一分割结果中具有至少两种正则化结果的字母字符替换为与所述字母字符的语义类型对应的标签。
3.根据权利要求1所述的方法,其特征在于,所述输入字符序列的预测分类结果包括所述输入字符序列中各所述输入字符的预测类别信息;
所述输入文本的正则化文本的标注分类结果包括与所述输入文本的正则化文本对应的目标字符序列中各目标字符的已标注类别信息。
4.根据权利要求3所述的方法,其特征在于,所述输入文本的正则化文本的标注分类结果按照如下方式生成:
将所述输入文本的正则化文本按照第二预设粒度进行分割,得到第二分割结果,所述第二分割结果包括以下至少一项:与所述输入文本中的单个汉字字符对应的单个汉字字符、与所述输入文本中的连续数字字符对应的第一汉字字符串、与所述输入文本中的符号字符对应的第二汉字字符串或符号字符、以及与所述输入文本中的字母字符对应的第三汉字字符串或字母字符;
将所述第二分割结果中的与所述输入文本中的单个汉字字符对应的单个汉字字符、与所述输入文本中的符号字符对应的符号字符、以及与所述输入文本中的字母字符对应的字母字符替换为第一预设类别标识;
将所述第二分割结果中的与所述输入文本中的连续数字字符对应的第一汉字字符串替换为用于标识所述输入文本中对应的连续数字字符的语义类型的第一语义类别标识;
将所述第二分割结果中的与所述输入文本中的符号字符对应的第二汉字字符串替换为用于标识所述输入文本中对应的符号字符的语义类型的第二语义类别标识;
将与所述输入文本中的字母字符对应的第三汉字字符串替换为用于标识所述输入文本中对应的字母字符的语义类型的第三语义类别标识。
5.一种文本正则化方法,其特征在于,所述方法包括:
获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;
将所述待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;
基于所述待处理字符序列对所述输出类别标识序列中的输出类别标识进行转换,得到各所述输出类别标识对应的输出字符,并按顺序组合各所述输出字符,得到所述待处理文本的正则化文本;
其中,所述文本正则化模型基于如权利要求1-4任一项所述的方法训练。
6.根据权利要求5所述的方法,其特征在于,所述分割结果中的具有至少两种正则化结果的非汉字字符包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符;
所述分割结果中的具有至少两种正则化结果的非汉字字符是按照如下方式进行标签化处理的:
将所述分割结果中的具有至少两种正则化结果的符号字符替换为所述符号字符的读音类型标签,将所述分割结果中的具有至少两种正则化结果的连续数字字符替换为与所述连续数字字符的语义类型对应且包含所述连续数字字符的长度信息的标签,将所述分割结果中具有至少两种正则化结果的字母字符替换为与所述字母字符的语义类型对应的标签。
7.根据权利要求6所述的方法,其特征在于,所述输出类别标识序列中的输出类别标识包括以下至少一项:用于标识未转换字符的类别的第一预设类别标识、用于标识连续数字字符的语义类型的第一语义类别标识、用于标识符号字符的语义类型的第二语义类别标识、用于标识字母字符的语义类型的第三语义类别标识;
所述基于所述待处理字符序列对所述输出类别标识序列中的输出类别标识进行转换,得到各所述输出类别标识对应的输出字符,包括:
将所述第一预设类别标识替换为对应的待处理字符;
根据所述第一语义类别标识确定待处理字符序列中对应的连续数字字符的语义类型,根据所述连续数字字符的语义类型将所述连续数字字符转换为对应的汉字字符串;
根据所述第二语义类别标识确定待处理字符序列中对应的符号字符的语义类型,根据所述符号字符的语义类型将所述符号字符转换为对应的汉字字符串;
根据所述第三语义类别标识确定待处理字符序列中对应的字母字符的语义类型,根据所述字母字符的语义类型将所述字母字符转换为对应的汉字字符串。
8.一种文本正则化模型训练装置,其特征在于,所述装置包括:
输入单元,用于将输入文本对应的输入字符序列中的输入字符依次输入待生成的文本正则化模型对应的循环神经网络中;
预测单元,用于基于所述循环神经网络对各所述输入字符进行分类,得到所述输入字符序列的预测分类结果;
调整单元,用于根据所述输入字符序列的预测分类结果与所述输入文本的正则化文本的标注分类结果之间的差异,对所述循环神经网络的参数进行调整;
其中,所述输入文本对应的输入字符序列是按照如下方式生成的:
按照第一预设粒度对所述输入文本进行分割得到第一分割结果;
将所述第一分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理,得到所述输入字符序列。
9.根据权利要求8所述的装置,其特征在于,所述第一分割结果中的具有至少两种正则化结果的非汉字字符包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符;
所述第一分割结果中的具有至少两种正则化结果的非汉字字符是按照如下方式进行标签化处理的:
将所述第一分割结果中的具有至少两种正则化结果的符号字符替换为所述符号字符的读音类型标签,将所述第一分割结果中的具有至少两种正则化结果的连续数字字符替换为与所述连续数字字符的语义类型对应且包含所述连续数字字符的长度信息的标签,将所述第一分割结果中具有至少两种正则化结果的字母字符替换为与所述字母字符的语义类型对应的标签。
10.根据权利要求8所述的装置,其特征在于,所述输入字符序列的预测分类结果包括所述输入字符序列中各所述输入字符的预测类别信息;
所述输入文本的正则化文本的标注分类结果包括与所述输入文本的正则化文本对应的目标字符序列中各目标字符的已标注类别信息。
11.根据权利要求10所述的装置,其特征在于,所述输入文本的正则化文本的标注分类结果按照如下方式生成:
将所述输入文本的正则化文本按照第二预设粒度进行分割,得到第二分割结果,所述第二分割结果包括以下至少一项:与所述输入文本中的单个汉字字符对应的单个汉字字符、与所述输入文本中的连续数字字符对应的第一汉字字符串、与所述输入文本中的符号字符对应的第二汉字字符串或符号字符、以及与所述输入文本中的字母字符对应的第三汉字字符串或字母字符;
将所述第二分割结果中的与所述输入文本中的单个汉字字符对应的单个汉字字符、与所述输入文本中的符号字符对应的符号字符、以及与所述输入文本中的字母字符对应的字母字符替换为第一预设类别标识;
将所述第二分割结果中的与所述输入文本中的连续数字字符对应的第一汉字字符串替换为用于标识所述输入文本中对应的连续数字字符的语义类型的第一语义类别标识;
将所述第二分割结果中的与所述输入文本中的符号字符对应的第二汉字字符串替换为用于标识所述输入文本中对应的符号字符的语义类型的第二语义类别标识;
将与所述输入文本中的字母字符对应的第三汉字字符串替换为用于标识所述输入文本中对应的字母字符的语义类型的第三语义类别标识。
12.一种文本正则化装置,其特征在于,所述装置包括:
获取单元,用于获取已按照第一预设粒度对待处理文本进行分割,并将分割结果中的具有至少两种正则化结果的非汉字字符进行标签化处理得到的待处理字符序列;
分类单元,用于将所述待处理字符序列输入已训练的文本正则化模型,得到输出类别标识序列;
处理单元,用于基于所述待处理字符序列对所述输出类别标识序列中的输出类别标识进行转换,得到各所述输出类别标识对应的输出字符,并按顺序组合各所述输出字符,得到所述待处理文本的正则化文本;
其中,所述文本正则化模型基于如权利要求1-4任一项所述的方法训练。
13.根据权利要求12所述的装置,其特征在于,所述分割结果中的具有至少两种正则化结果的非汉字字符包括以下至少一项:具有至少两种正则化结果的符号字符、具有至少两种正则化结果的连续数字字符、具有至少两种正则化结果的字母字符;
所述分割结果中的具有至少两种正则化结果的非汉字字符是按照如下方式进行标签化处理的:
将所述分割结果中的具有至少两种正则化结果的符号字符替换为所述符号字符的读音类型标签,将所述分割结果中的具有至少两种正则化结果的连续数字字符替换为与所述连续数字字符的语义类型对应且包含所述连续数字字符的长度信息的标签,将所述分割结果中具有至少两种正则化结果的字母字符替换为与所述字母字符的语义类型对应的标签。
14.根据权利要求13所述的装置,其特征在于,所述输出类别标识序列中的输出类别标识包括以下至少一项:用于标识未转换字符的类别的第一预设类别标识、用于标识连续数字字符的语义类型的第一语义类别标识、用于标识符号字符的语义类型的第二语义类别标识、用于标识字母字符的语义类型的第三语义类别标识;
所述处理单元进一步用于按照如下方式对所述输出类别标识序列中的输出类别标识进行转换,得到各所述输出类别标识对应的输出字符:
将所述第一预设类别标识替换为对应的待处理字符;
根据所述第一语义类别标识确定待处理字符序列中对应的连续数字字符的语义类型,根据所述连续数字字符的语义类型将所述连续数字字符转换为对应的汉字字符串;
根据所述第二语义类别标识确定待处理字符序列中对应的符号字符的语义类型,根据所述符号字符的语义类型将所述符号字符转换为对应的汉字字符串;
根据所述第三语义类别标识确定待处理字符序列中对应的字母字符的语义类型,根据所述字母字符的语义类型将所述字母字符转换为对应的汉字字符串。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
16.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求5-7中任一所述的方法。
17.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的方法。
18.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求5-7中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710912134.4A CN107680579B (zh) | 2017-09-29 | 2017-09-29 | 文本正则化模型训练方法和装置、文本正则化方法和装置 |
US16/054,815 US20190103091A1 (en) | 2017-09-29 | 2018-08-03 | Method and apparatus for training text normalization model, method and apparatus for text normalization |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710912134.4A CN107680579B (zh) | 2017-09-29 | 2017-09-29 | 文本正则化模型训练方法和装置、文本正则化方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107680579A CN107680579A (zh) | 2018-02-09 |
CN107680579B true CN107680579B (zh) | 2020-08-14 |
Family
ID=61137782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710912134.4A Active CN107680579B (zh) | 2017-09-29 | 2017-09-29 | 文本正则化模型训练方法和装置、文本正则化方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20190103091A1 (zh) |
CN (1) | CN107680579B (zh) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11423143B1 (en) | 2017-12-21 | 2022-08-23 | Exabeam, Inc. | Anomaly detection based on processes executed within a network |
CN108536656B (zh) * | 2018-03-09 | 2021-08-24 | 云知声智能科技股份有限公司 | 基于wfst的文本正则化方法及系统 |
US11431741B1 (en) * | 2018-05-16 | 2022-08-30 | Exabeam, Inc. | Detecting unmanaged and unauthorized assets in an information technology network with a recurrent neural network that identifies anomalously-named assets |
CN109460158A (zh) * | 2018-10-29 | 2019-03-12 | 维沃移动通信有限公司 | 字符输入方法、字符校正模型训练方法和移动终端 |
CN109597888A (zh) * | 2018-11-19 | 2019-04-09 | 北京百度网讯科技有限公司 | 建立文本领域识别模型的方法、装置 |
EP3924808A4 (en) * | 2019-02-14 | 2022-10-26 | Fluence Bioengineering, Inc. | CONTROLLED AGRICULTURAL SYSTEMS AND METHODS FOR MANAGING AGRICULTURAL SYSTEMS |
US11210470B2 (en) * | 2019-03-28 | 2021-12-28 | Adobe Inc. | Automatic text segmentation based on relevant context |
CN110134959B (zh) * | 2019-05-15 | 2023-10-20 | 第四范式(北京)技术有限公司 | 命名实体识别模型训练方法及设备、信息抽取方法及设备 |
US11625366B1 (en) | 2019-06-04 | 2023-04-11 | Exabeam, Inc. | System, method, and computer program for automatic parser creation |
CN110223675B (zh) * | 2019-06-13 | 2022-04-19 | 思必驰科技股份有限公司 | 用于语音识别的训练文本数据的筛选方法及系统 |
CN110457678B (zh) * | 2019-06-28 | 2022-12-20 | 创业慧康科技股份有限公司 | 一种电子病历修正方法及装置 |
CN110598206B (zh) * | 2019-08-13 | 2023-04-07 | 平安国际智慧城市科技股份有限公司 | 文本语义识别方法、装置、计算机设备和存储介质 |
CN111079432B (zh) * | 2019-11-08 | 2023-07-18 | 泰康保险集团股份有限公司 | 文本检测方法、装置、电子设备及存储介质 |
CN110956133A (zh) * | 2019-11-29 | 2020-04-03 | 上海眼控科技股份有限公司 | 单字符文本归一化模型训练方法、文本识别方法及装置 |
CN111090748A (zh) * | 2019-12-18 | 2020-05-01 | 广东博智林机器人有限公司 | 一种文本分类方法、装置、网络及存储介质 |
CN111241810B (zh) * | 2020-01-16 | 2023-08-01 | 百度在线网络技术(北京)有限公司 | 标点预测方法及装置 |
CN111261140B (zh) * | 2020-01-16 | 2022-09-27 | 云知声智能科技股份有限公司 | 韵律模型训练方法及装置 |
CN111341293B (zh) * | 2020-03-09 | 2022-11-18 | 广州市百果园信息技术有限公司 | 一种文本语音的前端转换方法、装置、设备和存储介质 |
CN111539207B (zh) * | 2020-04-29 | 2023-06-13 | 北京大米未来科技有限公司 | 文本识别方法、文本识别装置、存储介质和电子设备 |
CN111753506B (zh) * | 2020-05-15 | 2023-12-08 | 北京捷通华声科技股份有限公司 | 一种文本的替换方法和装置 |
US11956253B1 (en) | 2020-06-15 | 2024-04-09 | Exabeam, Inc. | Ranking cybersecurity alerts from multiple sources using machine learning |
CN112329434B (zh) * | 2020-11-26 | 2024-04-12 | 北京百度网讯科技有限公司 | 文本信息识别方法、装置、电子设备和存储介质 |
CN112667865A (zh) * | 2020-12-29 | 2021-04-16 | 西安掌上盛唐网络信息有限公司 | 中英混合语音合成技术在汉语言教学中的应用的方法及系统 |
CN112765937A (zh) * | 2020-12-31 | 2021-05-07 | 平安科技(深圳)有限公司 | 文本正则方法、装置、电子设备及存储介质 |
CN112732871B (zh) * | 2021-01-12 | 2023-04-28 | 上海畅圣计算机科技有限公司 | 一种机器人催收获取客户意向标签的多标签分类方法 |
US11816432B2 (en) * | 2021-02-09 | 2023-11-14 | Capital One Services, Llc | Systems and methods for increasing accuracy in categorizing characters in text string |
CN113010678A (zh) * | 2021-03-17 | 2021-06-22 | 北京百度网讯科技有限公司 | 分类模型的训练方法、文本分类方法及装置 |
CN113377917A (zh) * | 2021-06-22 | 2021-09-10 | 云知声智能科技股份有限公司 | 一种多模式匹配方法、装置、电子设备和存储介质 |
CN113505853B (zh) * | 2021-07-28 | 2023-05-23 | 姚宏宇 | 一种在约束条件下对晶体材料进行搜索的方法及装置 |
CN113641800B (zh) * | 2021-10-18 | 2022-04-08 | 中国铁道科学研究院集团有限公司科学技术信息研究所 | 一种文本查重方法、装置、设备及可读存储介质 |
CN115129951B (zh) * | 2022-07-21 | 2023-04-14 | 中科雨辰科技有限公司 | 一种获取目标语句的数据处理系统 |
CN115758990A (zh) * | 2022-10-14 | 2023-03-07 | 美的集团(上海)有限公司 | 文本的规范化方法、装置、存储介质和电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101661462A (zh) * | 2009-07-17 | 2010-03-03 | 北京邮电大学 | 四层结构的中文文本正则化体系及实现 |
CN102486787A (zh) * | 2010-12-02 | 2012-06-06 | 北大方正集团有限公司 | 用于提取文档结构的方法和装置 |
CN105574156A (zh) * | 2015-12-16 | 2016-05-11 | 华为技术有限公司 | 文本聚类方法、装置及计算设备 |
CN105868166A (zh) * | 2015-01-22 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 一种正则表达式的生成方法及系统 |
CN106507321A (zh) * | 2016-11-22 | 2017-03-15 | 新疆农业大学 | 一种维、汉双语gsm短信息语音转换播发系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050234724A1 (en) * | 2004-04-15 | 2005-10-20 | Andrew Aaron | System and method for improving text-to-speech software intelligibility through the detection of uncommon words and phrases |
US10388270B2 (en) * | 2014-11-05 | 2019-08-20 | At&T Intellectual Property I, L.P. | System and method for text normalization using atomic tokens |
-
2017
- 2017-09-29 CN CN201710912134.4A patent/CN107680579B/zh active Active
-
2018
- 2018-08-03 US US16/054,815 patent/US20190103091A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101661462A (zh) * | 2009-07-17 | 2010-03-03 | 北京邮电大学 | 四层结构的中文文本正则化体系及实现 |
CN102486787A (zh) * | 2010-12-02 | 2012-06-06 | 北大方正集团有限公司 | 用于提取文档结构的方法和装置 |
CN105868166A (zh) * | 2015-01-22 | 2016-08-17 | 阿里巴巴集团控股有限公司 | 一种正则表达式的生成方法及系统 |
CN105574156A (zh) * | 2015-12-16 | 2016-05-11 | 华为技术有限公司 | 文本聚类方法、装置及计算设备 |
CN106507321A (zh) * | 2016-11-22 | 2017-03-15 | 新疆农业大学 | 一种维、汉双语gsm短信息语音转换播发系统 |
Non-Patent Citations (1)
Title |
---|
中文语音合成中的文本正则化研究;贾玉祥等;《中文信息学报》;20080930;第22卷(第5期);第45-50页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107680579A (zh) | 2018-02-09 |
US20190103091A1 (en) | 2019-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107680579B (zh) | 文本正则化模型训练方法和装置、文本正则化方法和装置 | |
CN107705784B (zh) | 文本正则化模型训练方法和装置、文本正则化方法和装置 | |
US11501182B2 (en) | Method and apparatus for generating model | |
CN107680580B (zh) | 文本转换模型训练方法和装置、文本转换方法和装置 | |
CN107783960B (zh) | 用于抽取信息的方法、装置和设备 | |
CN107066449B (zh) | 信息推送方法和装置 | |
US10528667B2 (en) | Artificial intelligence based method and apparatus for generating information | |
CN107679039B (zh) | 用于确定语句意图的方法和装置 | |
CN109214386B (zh) | 用于生成图像识别模型的方法和装置 | |
CN110705301B (zh) | 实体关系抽取方法及装置、存储介质、电子设备 | |
CN107861954B (zh) | 基于人工智能的信息输出方法和装置 | |
CN111191428B (zh) | 评论信息处理方法、装置、计算机设备和介质 | |
CN111709240A (zh) | 实体关系抽取方法、装置、设备及其存储介质 | |
CN113051356B (zh) | 开放关系抽取方法、装置、电子设备及存储介质 | |
US11030405B2 (en) | Method and device for generating statement | |
CN111414561B (zh) | 用于呈现信息的方法和装置 | |
US10963647B2 (en) | Predicting probability of occurrence of a string using sequence of vectors | |
CN112528658B (zh) | 层次化分类方法、装置、电子设备和存储介质 | |
EP4170542A2 (en) | Method for sample augmentation | |
CN112861896A (zh) | 一种图像识别方法和装置 | |
CN113947086A (zh) | 样本数据生成方法、训练方法、语料生成方法和装置 | |
CN112188311B (zh) | 用于确定新闻的视频素材的方法和装置 | |
CN110807097A (zh) | 分析数据的方法和装置 | |
CN117290515A (zh) | 文本标注模型的训练方法、文生图方法及装置 | |
CN111666405A (zh) | 用于识别文本蕴含关系的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |