CN116088692B - 用于呈现候选字符串和训练判别式模型的方法和装置 - Google Patents
用于呈现候选字符串和训练判别式模型的方法和装置 Download PDFInfo
- Publication number
- CN116088692B CN116088692B CN202111294478.6A CN202111294478A CN116088692B CN 116088692 B CN116088692 B CN 116088692B CN 202111294478 A CN202111294478 A CN 202111294478A CN 116088692 B CN116088692 B CN 116088692B
- Authority
- CN
- China
- Prior art keywords
- sample
- weight
- character
- string
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 157
- 238000000034 method Methods 0.000 title claims abstract description 72
- 238000012546 transfer Methods 0.000 claims abstract description 82
- 238000012163 sequencing technique Methods 0.000 claims abstract description 25
- 230000007704 transition Effects 0.000 claims description 63
- 238000012805 post-processing Methods 0.000 claims description 7
- 238000005516 engineering process Methods 0.000 abstract description 4
- 238000010801 machine learning Methods 0.000 abstract description 4
- 230000000875 corresponding effect Effects 0.000 description 93
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000002596 correlated effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19193—Statistical pre-processing, e.g. techniques for normalisation or restoring missing data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19007—Matching; Proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
Abstract
本公开提供了用于呈现候选字符串和训练判别式模型的方法和装置,涉及计算机技术领域,特别涉及输入法技术和机器学习技术。具体实现方案为:获取用户输入的拼音文字的字符串;确定该字符串的字符转移权重,其中,该字符转移权重用于表征字符的转移概率;基于预先获取的与该字符串相匹配的基础权重和该字符转移权重,生成该字符串对应的排序权重;按照该排序权重所指示的顺序,从预先获取的候选字符串集合中选取与该字符串匹配的至少两个候选字符串进行呈现。从而可以从多维度确定与用户输入的字符串相匹配的候选字符串,进而提升候选字符串的准确性。
Description
技术领域
本公开涉及计算机技术领域,特别涉及输入法技术和机器学习技术,尤其涉及用于呈现候选字符串和训练判别式模型的方法和装置。
背景技术
随着计算机技术的发展,输入法技术对于人机交互的重要性也愈发显现。而如何准确地预测用户的真实输入想法,以使得候选词的呈现更具有准确性则对提升输入效率产生重要影响。例如,当用户输入“Talj”时,应通过纠错策略纠正为“Talk”。再例如,当用户输入“Apk”时,若词库中不存在现成词,通常会被纠错策略纠正为“Ask”、“All”等,但实际上用户想要原输入串“Apk”。
现有技术之一通常采用基于规则的方法针对用户输入的字符串进行加权调整排序,导致往往覆盖面不全,以及采用打补丁的形式导致复用性比较低。现有技术还采用联邦学习方式实现端到端训练循环神经网络,进而个性化优化用户输入。但上述深度学习的方式导致训练成本和维护成本较高,且由于模型参数量较大在移动设备上部署存在一定的难度。而且,通过联邦学习所得到的参数由于实际意义的抽象性导致无法进行有针对性的调整。
发明内容
提供了一种用于呈现候选字符串和训练判别式模型的方法、装置、电子设备以及存储介质。
根据第一方面,提供了一种用于呈现候选字符串的方法,该方法包括:获取用户输入的拼音文字的字符串;确定字符串的字符转移权重,其中,字符转移权重用于表征字符的转移概率;基于预先获取的与字符串相匹配的基础权重和字符转移权重,生成字符串对应的排序权重;按照排序权重所指示的顺序,从预先获取的候选字符串集合中选取与字符串匹配的至少两个候选字符串进行呈现。
根据第二方面,提供了一种用于训练判别式模型的方法,该方法包括:获取训练样本集合,其中,训练样本集合中的训练样本包括拼音文字的样本字符串对应的样本转移权重、样本基础权重和对应的样本期望权重;从训练样本集合中选取训练样本,根据所选取的训练样本的样本转移权重、样本基础权重,利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重;根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整初始判别式模型的参数。
根据第三方面,提供了一种用于呈现候选字符串的装置,该装置包括:第一获取单元,被配置成获取用户输入的拼音文字的字符串;第一确定单元,被配置成确定字符串的字符转移权重,其中,字符转移权重用于表征字符的转移概率;生成单元,被配置成基于预先获取的与字符串相匹配的基础权重和字符转移权重,生成字符串对应的排序权重;呈现单元,被配置成按照排序权重所指示的顺序,从预先获取的候选字符串集合中选取与字符串匹配的至少两个候选字符串进行呈现。
根据第四方面,提供了一种用于训练判别式模型的装置,该装置包括:第二获取单元,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括拼音文字的样本字符串对应的样本转移权重、样本基础权重和对应的样本期望权重;第二确定单元,被配置成从训练样本集合中选取训练样本,根据所选取的训练样本的样本转移权重、样本基础权重,利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重;根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整初始判别式模型的参数。
根据第五方面,提供了一种电子设备,该电子设备包括:至少一个处理器;以及与上述至少一个处理器通信连接的存储器;其中,存储器存储有可被上述至少一个处理器执行的指令,上述指令被至少一个处理器执行,以使上述至少一个处理器能够执行如第一方面和第二方面中任一实现方式所描述的方法。
根据第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,该计算机指令用于使计算机能够执行如第一方面和第二方面中任一实现方式所描述的方法。
根据第七方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现如第一方面和第二方面中任一实现方式所描述的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开第一实施例的示意图;
图2是根据本公开第二实施例的示意图;
图3是可以实现本公开实施例的用于呈现候选字符串的方法的一个应用场景的示意图;
图4是根据本公开实施例的用于呈现候选字符串的装置的示意图;
图5是根据本公开实施例的用于训练判别式模型的装置的示意图;
图6是用来实现本公开实施例的用于呈现候选字符串和训练判别式模型的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是示出了根据本公开第一实施例的示意图100。该用于呈现候选字符串方法包括以下步骤:
S101,获取用户输入的拼音文字的字符串。
在本实施例中,用于呈现候选字符串的方法的执行主体可以通过各种方式获取用户输入的拼音文字的字符串。其中,上述拼音文字例如可以包括各种拉丁字母语言,如英语、印尼语等。
作为示例,上述执行主体可以直接获取用户通过键盘输入的字符串,例如“talk”。需要说明的是,此处获取的上述字符串通常指用户输入的键码,即用户依次按键“t”“a”“l”“k”所形成的字符串而非指用户最终选定上屏的完整单词“talk”。
作为又一示例,上述执行主体还可以获取用户通过麦克风输入的语音经语音识别转换而得到的字符串,例如“apk”。同理,此处获取的上述字符串通常指用户语音拼读的连续字符,即用户语音“a-p-k”所形成的字符串而非指用户最终选定上屏的完整词汇“apk”。
S102,确定字符串的字符转移权重。
在本实施例中,上述执行主体可以通过各种方式确定步骤S101所获取的字符串的字符转移权重。其中,上述字符转移权重可以用于表征字符的转移概率。作为示例,上述执行主体可以基于马尔科夫链确定上述字符串的字符转移概率。而后,上述执行主体可以通过各种方式将所确定的字符转移概率转换为字符转移权重。例如,上述执行主体可以直接将上述字符转移概率确定为字符转移权重。再例如,由于字符转移概率通常很小,为了使不同字符转移概率的区分性更加明显,可以将上述字符转移概率的值取log后作为字符转移权重。可选地,还可以将上述字符转移概率的值取log后的相反数作为字符转移权重。
S103,基于预先获取的与字符串相匹配的基础权重和字符转移权重,生成字符串对应的排序权重。
在本实施例中,基于预先获取的与字符串相匹配的基础权重和步骤S102所确定的字符转移权重,上述执行主体可以通过各种方式生成步骤S101所获取的字符串对应的排序权重。作为示例,上述执行主体可以首先获取与步骤S101所获取的字符串相匹配的基础权重。其中,上述基础权重通常可以根据输入法预设的词库得到。上述预设的词库可以存储有各候选字符串及其对应的基础权重。其中,上述基础权重可以用于提供呈现候选词的依据。而后,上述执行主体可以通过各种方式将所获取的与字符串相匹配的基础权重和所确定的字符转移权重进行融合,以生成步骤S101所获取的字符串对应的排序权重。其中,上述融合例如可以是取最大值、最小值、相乘、相加等等,此处不再赘述。
S104,按照排序权重所指示的顺序,从预先获取的候选字符串集合中选取与字符串匹配的至少两个候选字符串进行呈现。
在本实施例中,按照步骤S103所生成的排序权重所指示的顺序,上述执行主体可以通过各种方式从预先获取的候选字符串集合中选取与字符串匹配的至少两个候选字符串进行呈现。其中,上述候选字符串集合通常可以根据如前所述的输入法预设的词库得到。上述执行主体可以将步骤S103所确定的排序权重与上述候选字符串集合中的字符串对应的基础权重进行比较,选取排序权重和基础权重中的值最大或最小的前T个对应的字符串作为匹配的候选字符串进行呈现。其中,上述T通常为不小于2的整数。作为示例,当排序权重与转移概率正相关时,选取最大的前T个;当排序权重与转移概率负相关时,选取最小的前T个。
本公开的上述实施例提供的方法,通过将所确定的用户输入的字符串的转移权重与预先获取的基础权重相结合形成排序权重,再依据排序权重确定与字符串匹配的至少两个候选字符串进行呈现。从而可以从多维度确定与用户输入的字符串相匹配的候选字符串,进而提升候选字符串的准确性,并且由于无需大规模参数而更适于在移动终端部署。
在本实施例的一些可选的实现方式中,上述执行主体可以按照如下步骤确定字符串的字符转移权重:
第一步,根据字符串所包含的子字符串,从预设的N元字符转移概率表中选取匹配的至少一个概率。
在这些实现方式中,上述预设的N元字符转移概率表可以通过对公开语料和常用的输入语料的统计而得到。其中,上述N可以为不小于2的整数,例如取3。作为示例,当N为3时,三元字符转移概率“a e z”可以为1.11×10-7,意为当上文是字符a、e时,下文字符是z的概率是1.11×10-7。
在这些实现方式中,上述执行主体可以首先确定上述步骤S101所获取的字符串(例如“talk”)所包含的子字符串(例如“tal”“alk”)。而后,上述执行主体可以从上述预设的N元字符转移概率表中选取分别与“tal”“alk”对应的概率。
需要说明的是,上述三元字符转移概率通常可以具有比二元字符转移概率更高的准确性,同时所占用的空间容量又显著小于四元字符转移概率,因而具有更佳的实用性。
第二步,根据所选取的至少一个概率,生成字符串的字符转移权重。
在这些实现方式中,上述执行主体可以通过各种方式将上述第一步所选取的至少一个概率转换为上述步骤S101所获取的字符串的字符转移权重。作为示例,上述执行主体可以从上述第一步所选取的至少一个概率中保留概率最高的前M个概率(M为正整数)。而后,上述执行主体可以将所保留的M个概率转换为对应的转移权重。转换的方式例如可以取log,此时转移权重与上述字符转移概率正相关。转换的方式再例如可以取log后再取相反数,此时转移权重与上述字符转移概率负相关。参见前例,当“a e z”的转移概率是1.11×10-7时,经上述不同方法转换后所得到的转移权重可以为-6.955,6.955。之后,上述执行主体可以将转换后所得到的转移权重进行综合(例如取最大值、最小值、加权求和等),生成上述字符串的字符转移权重。
基于上述可选的实现方式,本方案可以根据字符串所包含的子字符串对应的字符转移概率生成字符串的字符转移权重,从而丰富了字符转移权重的生成方式,有助于提升字符转移权重的准确性。
可选地,基于上述可选的实现方式,根据所选取的至少一个概率,上述执行主体可以按照如下步骤生成字符串的字符转移权重:
S2-1,将所选取的至少一个概率融合成一个总概率。
在这些实现方式中,上述执行主体可以将所选取的至少一个概率融合成一个总概率。其中,上述执行主体可以通过取最大值、最小值、加权求和等方式进行融合。
S2-2,将总概率转换为整型作为字符串的字符转移权重。
在这些实现方式中,上述执行主体可以通过各种方式将上述步骤S2-1所融合成的总概率转换为整型。作为示例,上述执行主体可以通过-log(p)*1000将上述总概率转换为整型。其中,上述p用于表征上述步骤S2-1所融合成的总概率。参见前例,“a e z”的转移概率转换后所得到的字符转移权重可以为6955。
基于上述可选的实现方式,本方案可以通过将数值较小以致区分不大的作为字符转移概率的小数转换为作为字符转移权重的整数,从而能够提升运算速度。
在本实施例的一些可选的实现方式中,基于预先获取的与字符串相匹配的基础权重和字符转移权重,上述执行主体可以按照如下步骤生成字符串对应的排序权重:
第一步,利用预先获取的系数与基础权重和字符转移权重对应相乘,生成第一结果。
在这些实现方式中,上述执行主体可以首先获取用以与基础权重和字符转移权重对应相乘的系数(例如w1,w2)。而后,上述执行主体可以将w1与步骤S103所预先获取的基础权重的乘积和w2与步骤S102所确定的字符转移权重的乘积相加,生成第一结果。
第二步,基于第一结果进行后处理,生成第二结果作为字符串对应的排序权重。
在这些实现方式中,上述执行主体可以通过各种方式对上述第一步所生成的第一结果进行后处理,以生成第二结果作为字符串对应的排序权重。其中,上述后处理例如可以取整。
基于上述可选的实现方式,本方案可以利用预先获取的系数与所得到的基础权重和字符转移权重共同生成字符串对应的排序权重,丰富了排序权重的生成方式,有助于提升排序权重的准确性。
可选地,基于上述可选的实现方式,基于第一结果进行后处理,上述执行主体可以按照如下步骤生成第二结果作为字符串对应的排序权重:
S2-1,根据预先获取的系数对应的长度系数与字符串的长度,生成第三结果。
在这些实现方式中,上述执行主体可以首先获取与上述第一步所获取的系数对应的长度系数(例如w3)。而后,根据w3与步骤S101所获取的字符串的长度(通常为所包含的字符的数目),上述执行主体可以通过各种方式生成第三结果。作为示例,上述执行主体可以将w3与步骤S101所获取的字符串的长度(通常为所包含的字符的数目)对应相乘得到第三结果。
S2-2,将第一结果与第三结果相加,生成第二结果。
在这些实现方式中,上述执行主体可以将上述第一步所生成的第一结果与上述步骤S2-1所生成的第三结果相加,生成第二结果。
基于上述可选的实现方式,本方案可以利用预先获取的长度系数结合字符串的长度共同生成字符串对应的排序权重,丰富了排序权重的生成方式,有助于进一步提升排序权重的准确性。
可选地,基于上述可选的实现方式,上述执行主体可以将第一结果与系数对应的偏置系数相加,生成第二结果。
在这些实现方式中,上述执行主体可以首先获取与上述第一步所获取的系数对应的偏置系数(例如b)。而后,上述执行主体可以将上述第一步所生成的第一结果与上述偏置系数相加,生成第二结果。
基于上述可选的实现方式,本方案可以利用预先获取的偏置系数与字符串的长度、转移权重、基础权重相结合,以共同生成字符串对应的排序权重,进一步丰富了排序权重的生成方式,有助于更进一步提升排序权重的准确性。
可选地,基于上述可选的实现方式,上述预先获取的系数可以是根据训练样本对判别式模型进行训练得到的。
在这些实现方式中,上述预先获取的系数可以是根据训练样本对判别式模型进行训练得到的。用于训练上述判别式模型的执行主体可以利用训练样本对上述判别式模型进行参数拟合,从而生成相应的系数。
可选地,上述判别式模型还可以通过如后续图4所示的用于训练判别式模型的方法训练得到,具体参见后续描述。
基于上述可选的实现方式,本方案可以通过预先获取的针对判别式模型训练得到的系数进行排序权重的确定。由于在使用时仅需要少量参数,性能消耗小、设备配置依赖性低,使用时计算量小,因而能够在普通低配的移动设备中也可以实现部署。
可选地,基于上述训练得到的系数,上述执行主体可以按照如下步骤利用预先获取的系数与基础权重和字符转移权重对应相乘,生成第一结果:
S1-1,根据字符串中是否包含预设先验字符串,从预先训练得到的两组系数中选取匹配的一组系数。
在这些实现方式中,上述执行主体可以预先获取训练得到的两组系数。其中,一组系数(例如w1,w2)对应于包含预设先验字符串的情况,另一组系数(例如w’ 1,w’ 2)对应于不包含预设先验字符串的情况中。其中,上述预设先验字符串例如可以包括常用的后缀(例如“ment”“ness”“ion”“ing”等)、前缀(例如“trans”“com”等)。上述执行主体可以根据上述步骤S101所获取的字符串中是否包含预设先验字符串,从预先训练得到的两组系数中选取匹配的一组系数。
S1-2,利用所选取的系数与基础权重和字符转移权重对应相乘,生成第一结果。
在这些实现方式中,上述执行主体可以利用上述步骤S1-1所选取的系数与步骤S103所预先获取的基础权重的乘积和步骤S102所确定的字符转移权重分别相乘再相加,生成第一结果。
基于上述可选的实现方式,本方案可以根据字符串中是否包含预设先验字符串来确定相匹配的系数,进而生成字符串对应的第一结果。由于增加了根据不同情况而确定的更有针对性的系数的影响,从而有助于提升排序权重的准确性。
在本实施例的一些可选的实现方式中,上述基础权重与以下至少一项相关联:n-gram语言模型,缺省值,字符串的长度。
在这些实现方式中,作为示例,上述基础权重可以通过n-gram语言模型来得到。作为又一示例,上述基础权重可以为缺省值,例如根据转移概率转换字符转移权重设定的方式设定为10或10000等。作为再一示例,上述基础权重可以字符串的长度通过n-gram语言模型来得到。作为又一示例,上述基础权重可以根据字符串的长度而确定。例如,当转移权重与字符的转移概率正相关时,上述基础权重则与字符串的长度负相关。当转移权重与字符的转移概率负相关时,上述基础权重则与字符串的长度正相关。
基于上述可选的实现方式,本方案可以通过n-gram语言模型、缺省值、字符串的长度中的至少一者来确定基础权重,丰富了基础权重的确定方式。
继续参见图2,图2是根据本公开第二实施例的示意图200。该用于训练判别式模型的方法包括以下步骤:
S201,获取训练样本集合。
在本实施例中,用于训练判别式模型的方法的执行主体可以通过各种方式获取训练样本集合。其中,上述训练样本集合中的训练样本可以包括拼音文字的样本字符串对应的样本转移权重、样本基础权重和对应的样本期望权重。作为示例,上述训练样本可以为“hello 13452 693 12785”。其中,上述“hello”可以为样本字符串。上述“13452”可以为样本字符串对应的样本转移权重。上述“693”可以为样本字符串对应的样本基础权重。上述“12785”可以为样本字符串对应的期望权重。
S202,从训练样本集合中选取训练样本,根据所选取的训练样本的样本转移权重、样本基础权重,利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重。
在本实施例中,上述执行主体可以从步骤S201所获取的训练样本集合中选取训练样本。而后,根据所选取的训练样本的样本转移权重、样本基础权重,上述执行主体可以通过各种方式利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重。其中,上述初始判别式模型中可以包括待调整的系数(例如w1,w2)。
在本实施例中,作为示例,上述执行主体可以将预先获取的初始判别式模型对应的待调整的系数(例如w1=0.6,w2=0.4)分别与所选取的训练样本的样本转移权重(例如13452)、样本基础权重(例如693)相乘,再将所得到的乘积相加后的结果(例如得到8348.4)确定为所选取的训练样本对应的排序权重。
可选地,上述初始判别式模型中还可以包括待调整的偏置系数。
S203,根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整初始判别式模型的参数。
在本实施例中,根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,上述执行主体可以通过各种机器学习方式调整初始判别式模型的参数,以使所选取的训练样本对应的排序权重与样本期望权重之间的差异趋于减小。作为示例,参见前述,由于上述所选取的训练样本对应的排序权重小于该训练样本对应的期望权重,从而上述执行主体可以按照预设的学习率增大上述待调整的系数的值(例如w1=0.7,w2=0.5)。
可选地,上述执行主体还可以在满足训练停止条件时停止训练,并将训练完成的初始判别式模型确定为上述判别式模型。在不满足训练停止条件时,上述执行主体可以从上述训练样本集合中重新选取训练样本,并在参数调整后的初始判别式模型的基础上继续训练并将训练完成的初始判别式模型确定为上述判别式模型
本公开的上述实施例提供的方法,通过包括拼音文字的样本字符串对应的样本转移权重、样本基础权重和对应的样本期望权重的训练样本对预先获取的初始判别式模型进行训练,得到训练后的初始判别式模型。与现有的深度学习方式训练的模型相比,具有更高的参数可解释性,从而可以通过对相应特征权重的调整实现控制候选词的优选方向。而且,本方案的参数量更小,设备配置依赖性低,更易于训练的实现。
在本实施例的一些可选的实现方式中,上述训练样本集合中可以包括预设比例的正样本和负样本。其中,上述正样本对应的样本期望权重可以用于指示期望上述样本字符串作为候选字符串的首选。上述负样本对应的样本期望权重可以用于指示期望上述样本字符串作为候选字符串的非首选。
在这些实现方式中,作为示例,当上述字符转移权重与上述字符的转移概率负相关时,上述正样本对应的样本期望权重趋于变小,上述负样本对应的样本期望权重趋于变大。作为又一示例,当上述字符转移权重与上述字符的转移概率正相关时,上述正样本对应的样本期望权重趋于变大,上述负样本对应的样本期望权重趋于变小。
基于上述可选的实现方式,本方案可以通过预设比例的正样本和负样本来控制输入法纠错的方向。例如,若想提高用户输入的字符串作为首选的概率(即减弱纠错力度),则可以加大正样本占比。需要注意的是,由于正样本占比越高,则纠错功能越会被削弱。因此通常需要加入大量常规样本进行评估,以确保提升输入串的首选率的同时保留纠错准确率。
在本实施例的一些可选的实现方式中,上述训练样本集合中的训练样本还可以包括样本字符串对应的字符串长度。上述样本基础权重可以与上述样本字符串对应的字符串长度相关联。
在这些实现方式中,作为示例,上述训练样本可以为“hello 13452 693 127855”。其中,上述“hello”可以为样本字符串。上述“13452”可以为样本字符串对应的样本转移权重。上述“693”可以为样本字符串对应的样本基础权重。上述“12785”可以为样本字符串对应的期望权重。上述“5”可以为样本字符串对应的字符串长度。上述样本基础权重可以根据上述样本字符串的长度而确定。例如,当转移权重与字符的转移概率正相关时,上述样本基础权重则与样本字符串的长度负相关。当转移权重与字符的转移概率负相关时,上述样本基础权重则与样本字符串的长度正相关。
基于上述可选的实现方式,本方案可以利用样本字符串对应的字符串长度训练得到长度系数,从而丰富了影响排序权重的参数的维度,有助于进一步提升排序权重的准确性。
在本实施例的一些可选的实现方式中,上述执行主体可以按照如下步骤从训练样本集合中选取训练样本,根据所选取的训练样本的样本转移权重、样本基础权重,利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重:
第一步,根据从训练样本集合中选取的训练样本中是否包含预设先验字符串,从预设的两个初始判别式模型中选取匹配的初始判别式模型作为目标初始判别式模型。
在这些实现方式中,上述执行主体可以首先确定从训练样本集合中选取的训练样本中是否包含预设先验字符串,将包含预设先验字符串的训练样本用于训练预设的两个初始判别式模型的其中一个;将不包含预设先验字符串的训练样本用于训练预设的两个初始判别式模型的另外一个。其中,上述预设先验字符串可以与前述实施例中的相应描述一致,此处不再赘述。
第二步,根据所选取的训练样本的样本转移权重、样本基础权重,利用目标初始判别式模型确定所选取的训练样本对应的排序权重。
在这些实现方式中,上述执行主体可以根据上述第一步所确定的训练样本与初始判别式模型的对应关系,确定所选取的训练样本根据上述匹配的目标初始判别式模型所得到的排序权重(例如利用上述目标初始判别式模型对应的系数加权求和)。
第三步,根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,上述执行主体还可以调整目标初始判别式模型的参数。
在这些实现方式中,上述执行主体可以参考前述步骤S203的方式,根据所选取的训练样本是否包含预设先验字符串调整相应的初始判别式模型的参数。
基于上述可选的实现方式,本方案可以根据字符串中是否包含预设先验字符串来训练两个判别式模型,用于提供两种针对不同情况的系数。由于增加了根据不同情况而确定的更有针对性的系数的影响,从而有助于提升排序权重的准确性。
在本实施例的一些可选的实现方式中,上述执行主体还可以利用上述步骤S203参数调整后的初始判别式所对应的参数,基于预先获取的与上述字符串相匹配的基础权重和上述字符转移权重,生成上述字符串对应的排序权重;进而按照上述排序权重所指示的顺序,从预先获取的候选字符串集合中选取与上述字符串匹配的至少两个候选字符串进行呈现。可选地,上述步骤的具体实现可以参见前述实施例中的相应描述,此处不再赘述。
基于上述可选的实现方式,本方案可以将训练判别式模型的方式应用于呈现候选字符串的方法,通过提供与基础权重和字符转移权重相对应的系数,有助于提升候选字符串排序的准确性。
继续参见图3,图3是根据本公开的实施例的用于呈现候选字符串的方法的应用场景的一个示意图。在图3的应用场景中,用户使用终端设备输入字符串“apk”301。终端设备可以基于马尔科夫链确定字符串“apk”301的转移权重(例如6200)。而后,终端设备可以基于预先从词库302获取的与字符串“apk”301相匹配的基础权重(例如10000)和上述转移权重,生成字符串“apk”301的排序权重(例如8100)。而后,终端设备可以根据上述排序权重和词库302中候选字符串集合中的候选字符串和对应的基础权重的比较,选取权重最小的3个字符串作为匹配的候选字符串303进行呈现。
目前,现有技术之一通常采用基于规则的方法针对用户输入的字符串进行加权调整排序,导致往往覆盖面不全且复用性比较低。现有技术还采用联邦学习方式实现端到端训练循环神经网络,进而个性化优化用户输入,但由于参数量较大而导致训练成本和维护成本较高,且在移动设备上部署存在一定的难度。而本公开的上述实施例提供的方法,通过将所确定的用户输入的字符串的转移权重与预先获取的基础权重相结合形成排序权重,再依据排序权重确定与字符串匹配的至少两个候选字符串进行呈现。从而可以从多维度确定与用户输入的字符串相匹配的候选字符串,进而提升候选字符串的准确性,并且由于无需大规模参数而更适于在移动终端部署。
进一步参考图4,作为对上述各图所示方法的实现,本公开提供了用于呈现候选字符串的装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例提供的用于呈现候选字符串的装置400包括第一获取单元401、第一确定单元402、生成单元403和呈现单元404。其中,第一获取单元401,被配置成获取用户输入的拼音文字的字符串;第一确定单元402,被配置成确定字符串的字符转移权重,其中,字符转移权重用于表征字符的转移概率;生成单元403,被配置成基于预先获取的与字符串相匹配的基础权重和字符转移权重,生成字符串对应的排序权重;呈现单元404,被配置成按照排序权重所指示的顺序,从预先获取的候选字符串集合中选取与字符串匹配的至少两个候选字符串进行呈现。
在本实施例中,用于呈现候选字符串的装置400中:第一获取单元401、第一确定单元402、生成单元403和呈现单元404的具体处理及其所带来的技术效果可分别参考图1对应实施例中的步骤S101、S102、S103和104的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述第一确定单元402可以包括:选取模块(图中未示出),被配置成根据字符串所包含的子字符串,从预设的N元字符转移概率表中选取匹配的至少一个概率;第一生成模块(图中未示出),被配置成根据所选取的至少一个概率,生成字符串的字符转移权重。
在本实施例的一些可选的实现方式中,上述第一生成模块可以进一步被配置成:将所选取的至少一个概率融合成一个总概率;将总概率转换为整型作为字符串的字符转移权重。
在本实施例的一些可选的实现方式中,上述生成单元403可以包括:第二生成模块(图中未示出),被配置成利用预先获取的系数与基础权重和字符转移权重对应相乘,生成第一结果;第三生成模块(图中未示出),被配置成基于第一结果进行后处理,生成第二结果作为字符串对应的排序权重。
在本实施例的一些可选的实现方式中,上述第三生成模块可以进一步被配置成:根据预先获取的系数对应的长度系数与字符串的长度,生成第三结果;将第一结果与第三结果相加,生成第二结果。
在本实施例的一些可选的实现方式中,上述第三生成模块可以进一步被配置成:将第一结果与系数对应的偏置系数相加,生成第二结果。
在本实施例的一些可选的实现方式中,上述预先获取的系数可以是根据训练样本对判别式模型进行训练得到的。
在本实施例的一些可选的实现方式中,上述第二生成模块可以进一步被配置成:根据字符串中是否包含预设先验字符串,从预先训练得到的两组系数中选取匹配的一组系数;利用所选取的系数与基础权重和字符转移权重对应相乘,生成第一结果。
在本实施例的一些可选的实现方式中,上述基础权重可以与以下至少一项相关联:n-gram语言模型,缺省值,字符串的长度。
本公开的上述实施例提供的装置,通过生成单元403将第一确定单元402所确定的用户输入的字符串的转移权重与预先获取的基础权重相结合形成排序权重,再通过呈现单元404依据排序权重确定与字符串匹配的至少两个候选字符串进行呈现。从而可以从多维度确定与用户输入的字符串相匹配的候选字符串,进而提升候选字符串的准确性,并且由于无需大规模参数而更适于在移动终端部署。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了用于训练判别式模型的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例提供的用于训练判别式模型的装置500包括第二获取单元501、第二确定单元502和调整单元503。其中,第二获取单元501,被配置成获取训练样本集合,其中,训练样本集合中的训练样本包括拼音文字的样本字符串对应的样本转移权重、样本基础权重和对应的样本期望权重;第二确定单元502,被配置成从训练样本集合中选取训练样本,根据所选取的训练样本的样本转移权重、样本基础权重,利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重;调整单元503,被配置成根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整初始判别式模型的参数。
在本实施例中,用于训练判别式模型的装置500中:第二获取单元501、第二确定单元502和调整单元503的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤S201、S202和S203的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述训练样本集合中可以包括预设比例的正样本和负样本。上述正样本对应的样本期望权重可以用于指示期望样本字符串作为候选字符串的首选。上述负样本对应的样本期望权重可以用于指示期望样本字符串作为候选字符串的非首选。
在本实施例的一些可选的实现方式中,上述训练样本集合中的训练样本还可以包括样本字符串对应的字符串长度。上述样本基础权重可以与样本字符串对应的字符串长度相关联。
在本实施例的一些可选的实现方式中,上述第二确定单元502可以进一步被配置成:根据从训练样本集合中选取的训练样本中是否包含预设先验字符串,从预设的两个初始判别式模型中选取匹配的初始判别式模型作为目标初始判别式模型;根据所选取的训练样本的样本转移权重、样本基础权重,利用目标初始判别式模型确定所选取的训练样本对应的排序权重。上述调整单元503可以进一步被配置成:根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整目标初始判别式模型的参数。
本公开的上述实施例提供的装置,调整单元503通过第二获取单元501所获取的包括拼音文字的样本字符串对应的样本转移权重、样本基础权重和对应的样本期望权重的训练样本对预先获取的初始判别式模型进行训练,具体地依据第二确定单元502确定排序权重作为调整基础,得到训练后的初始判别式模型。从而可以通过对相应特征权重的调整实现控制候选词的优选方向。而且,本方案的参数量更小,设备配置依赖性低,更易于训练的实现。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了可以用来实施本公开的实施例的示例电子设备600的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,设备600包括计算单元601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM603中,还可存储设备600操作所需的各种程序和数据。计算单元601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元601可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元601执行上文所描述的各个方法和处理,例如用于呈现候选字符串和训练判别式模型的方法。例如,在一些实施例中,用于呈现候选字符串和训练判别式模型的方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序加载到RAM 603并由计算单元601执行时,可以执行上文描述的用于呈现候选字符串和训练判别式模型的方法的一个或多个步骤。备选地,在其他实施例中,计算单元601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于呈现候选字符串和训练判别式模型的方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (16)
1.一种用于呈现候选字符串的方法,包括:
获取用户输入的拼音文字的字符串;
根据所述字符串所包含的子字符串,从预设的N元字符转移概率表中选取匹配的至少一个概率,其中,所述N元字符转移概率表中的N包括不小于2的整数;根据所选取的至少一个概率,生成所述字符串的字符转移权重,其中,所述字符转移权重用于表征字符的转移概率;
基于预先获取的与所述字符串相匹配的基础权重和所述字符转移权重,生成所述字符串对应的排序权重;
按照所述排序权重所指示的顺序,从预先获取的候选字符串集合中选取与所述字符串匹配的至少两个候选字符串进行呈现。
2.根据权利要求1所述的方法,其中,所述根据所选取的至少一个概率,生成所述字符串的字符转移权重,包括:
将所选取的至少一个概率融合成一个总概率;
将所述总概率转换为整型作为所述字符串的字符转移权重。
3.根据权利要求1-2之一所述的方法,其中,所述基于预先获取的与所述字符串相匹配的基础权重和所述字符转移权重,生成所述字符串对应的排序权重,包括:
利用预先获取的系数与所述基础权重和所述字符转移权重对应相乘,生成第一结果;
基于所述第一结果进行后处理,生成第二结果作为所述字符串对应的排序权重。
4.根据权利要求3所述的方法,其中,所述基于所述第一结果进行后处理,生成第二结果作为所述字符串对应的排序权重,包括:
根据所述预先获取的系数对应的长度系数与所述字符串的长度,生成第三结果;
将所述第一结果与所述第三结果相加,生成所述第二结果。
5.根据权利要求3所述的方法,其中,所述基于所述第一结果进行后处理,生成第二结果作为所述字符串对应的排序权重,包括:
将所述第一结果与所述系数对应的偏置系数相加,生成所述第二结果。
6.根据权利要求3所述的方法,其中,所述预先获取的系数是根据训练样本对判别式模型进行训练得到的。
7.根据权利要求6所述的方法,其中,所述利用预先获取的系数与所述基础权重和所述字符转移权重对应相乘,生成第一结果,包括:
根据所述字符串中是否包含预设先验字符串,从预先训练得到的两组系数中选取匹配的一组系数;
利用所选取的系数与所述基础权重和所述字符转移权重对应相乘,生成第一结果。
8.根据权利要求1所述的方法,其中,所述基础权重与以下至少一项相关联:n-gram语言模型,缺省值,字符串的长度。
9.一种用于训练判别式模型的方法,包括:
获取训练样本集合,其中,所述训练样本集合中的训练样本包括拼音文字的样本字符串对应的样本转移权重、样本基础权重和对应的样本期望权重,所述样本转移权重基于以下方式生成:根据所述样本字符串所包含的样本子字符串,从预设的N元字符转移概率表中选取匹配的至少一个概率后,根据所选取的至少一个概率生成,所述N元字符转移概率表中的N包括不小于2的整数;
从所述训练样本集合中选取训练样本,根据所选取的训练样本的样本转移权重、样本基础权重,利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重;
根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整所述初始判别式模型的参数。
10.根据权利要求9所述的方法,其中,所述训练样本集合中包括预设比例的正样本和负样本,所述正样本对应的样本期望权重用于指示期望所述样本字符串作为候选字符串的首选,所述负样本对应的样本期望权重用于指示期望所述样本字符串作为候选字符串的非首选。
11.根据权利要求9所述的方法,其中,所述训练样本集合中的训练样本还包括所述样本字符串对应的字符串长度;所述样本基础权重与所述样本字符串对应的字符串长度相关联。
12.根据权利要求9-11之一所述的方法,其中,所述从所述训练样本集合中选取训练样本,根据所选取的训练样本的样本转移权重、样本基础权重,利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重,包括:
根据从所述训练样本集合中选取的训练样本中是否包含预设先验字符串,从预设的两个初始判别式模型中选取匹配的初始判别式模型作为目标初始判别式模型;
根据所选取的训练样本的样本转移权重、样本基础权重,利用所述目标初始判别式模型确定所选取的训练样本对应的排序权重;以及
所述根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整所述初始判别式模型的参数,包括:
根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整所述目标初始判别式模型的参数。
13.一种用于呈现候选字符串的装置,包括:
第一获取单元,被配置成获取用户输入的拼音文字的字符串;
第一确定单元,被配置成根据所述字符串所包含的子字符串,从预设的N元字符转移概率表中选取匹配的至少一个概率,其中,所述N元字符转移概率表中的N包括不小于2的整数;根据所选取的至少一个概率,生成所述字符串的字符转移权重,其中,所述字符转移权重用于表征字符的转移概率;
生成单元,被配置成基于预先获取的与所述字符串相匹配的基础权重和所述字符转移权重,生成所述字符串对应的排序权重;
呈现单元,被配置成按照所述排序权重所指示的顺序,从预先获取的候选字符串集合中选取与所述字符串匹配的至少两个候选字符串进行呈现。
14.一种用于训练判别式模型的装置,包括:
第二获取单元,被配置成获取训练样本集合,其中,所述训练样本集合中的训练样本包括拼音文字的样本字符串对应的样本转移权重、样本基础权重和对应的样本期望权重,所述样本转移权重基于以下方式生成:根据所述样本字符串所包含的样本子字符串,从预设的N元字符转移概率表中选取匹配的至少一个概率后,根据所选取的至少一个概率生成,所述N元字符转移概率表中的N包括不小于2的整数;
第二确定单元,被配置成从所述训练样本集合中选取训练样本,根据所选取的训练样本的样本转移权重、样本基础权重,利用预先获取的初始判别式模型确定所选取的训练样本对应的排序权重;
调整单元,被配置成根据所选取的训练样本对应的排序权重与样本期望权重之间的差异,调整所述初始判别式模型的参数。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8或9-12中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-8或9-12中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111294478.6A CN116088692B (zh) | 2021-11-03 | 2021-11-03 | 用于呈现候选字符串和训练判别式模型的方法和装置 |
US17/868,647 US20220351085A1 (en) | 2021-11-03 | 2022-07-19 | Method and apparatus for presenting candidate character string, and method and apparatus for training discriminative model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111294478.6A CN116088692B (zh) | 2021-11-03 | 2021-11-03 | 用于呈现候选字符串和训练判别式模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116088692A CN116088692A (zh) | 2023-05-09 |
CN116088692B true CN116088692B (zh) | 2024-04-19 |
Family
ID=83807704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111294478.6A Active CN116088692B (zh) | 2021-11-03 | 2021-11-03 | 用于呈现候选字符串和训练判别式模型的方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220351085A1 (zh) |
CN (1) | CN116088692B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156551A (zh) * | 2011-03-30 | 2011-08-17 | 北京搜狗科技发展有限公司 | 一种字词输入的纠错方法及系统 |
CN106468960A (zh) * | 2016-09-07 | 2017-03-01 | 北京新美互通科技有限公司 | 一种输入法候选项排序的方法和系统 |
CN106557175A (zh) * | 2015-09-25 | 2017-04-05 | 华为技术有限公司 | 文字输入方法和电子设备 |
CN106774970A (zh) * | 2015-11-24 | 2017-05-31 | 北京搜狗科技发展有限公司 | 对输入法的候选项进行排序的方法和装置 |
CN106774975A (zh) * | 2016-11-30 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 输入方法和装置 |
CN109656384A (zh) * | 2018-12-24 | 2019-04-19 | 北京字节跳动网络技术有限公司 | 字符串输入方法和装置 |
CN110262674A (zh) * | 2019-06-27 | 2019-09-20 | 北京金山安全软件有限公司 | 一种基于拼音输入的汉字输入方法、装置及电子设备 |
CN111090341A (zh) * | 2019-12-24 | 2020-05-01 | 科大讯飞股份有限公司 | 输入法候选结果展示方法、相关设备及可读存储介质 |
JPWO2020065695A1 (ja) * | 2018-09-25 | 2021-03-11 | 三菱電機株式会社 | 文字入力支援装置、文字入力システム、および文字入力支援方法 |
CN112989148A (zh) * | 2019-12-13 | 2021-06-18 | 华为技术有限公司 | 纠错词排序方法、装置、终端设备和存储介质 |
-
2021
- 2021-11-03 CN CN202111294478.6A patent/CN116088692B/zh active Active
-
2022
- 2022-07-19 US US17/868,647 patent/US20220351085A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102156551A (zh) * | 2011-03-30 | 2011-08-17 | 北京搜狗科技发展有限公司 | 一种字词输入的纠错方法及系统 |
CN106557175A (zh) * | 2015-09-25 | 2017-04-05 | 华为技术有限公司 | 文字输入方法和电子设备 |
CN106774970A (zh) * | 2015-11-24 | 2017-05-31 | 北京搜狗科技发展有限公司 | 对输入法的候选项进行排序的方法和装置 |
CN106468960A (zh) * | 2016-09-07 | 2017-03-01 | 北京新美互通科技有限公司 | 一种输入法候选项排序的方法和系统 |
CN106774975A (zh) * | 2016-11-30 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 输入方法和装置 |
JPWO2020065695A1 (ja) * | 2018-09-25 | 2021-03-11 | 三菱電機株式会社 | 文字入力支援装置、文字入力システム、および文字入力支援方法 |
CN109656384A (zh) * | 2018-12-24 | 2019-04-19 | 北京字节跳动网络技术有限公司 | 字符串输入方法和装置 |
CN110262674A (zh) * | 2019-06-27 | 2019-09-20 | 北京金山安全软件有限公司 | 一种基于拼音输入的汉字输入方法、装置及电子设备 |
CN112989148A (zh) * | 2019-12-13 | 2021-06-18 | 华为技术有限公司 | 纠错词排序方法、装置、终端设备和存储介质 |
CN111090341A (zh) * | 2019-12-24 | 2020-05-01 | 科大讯飞股份有限公司 | 输入法候选结果展示方法、相关设备及可读存储介质 |
Non-Patent Citations (1)
Title |
---|
面向日文输入法的混合语言模型的改进与实现;陈龙;《中国优秀硕士学位论文全文数据库信息科技辑》;20140415(第4期);I138-1230 * |
Also Published As
Publication number | Publication date |
---|---|
US20220351085A1 (en) | 2022-11-03 |
CN116088692A (zh) | 2023-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210038449A (ko) | 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체 | |
CN112487173B (zh) | 人机对话方法、设备和存储介质 | |
EP3852020A1 (en) | Classification model training and use methods and apparatuses, device, and medium | |
CN112860866B (zh) | 语义检索方法、装置、设备以及存储介质 | |
CN111667056B (zh) | 用于搜索模型结构的方法和装置 | |
CN112926306B (zh) | 文本纠错方法、装置、设备以及存储介质 | |
JP7430820B2 (ja) | ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム | |
KR102475235B1 (ko) | 리소스 정렬 방법, 정렬 모델을 트레이닝하는 방법 및 대응하는 장치 | |
CN113326420B (zh) | 问题检索方法、装置、电子设备和介质 | |
CN113836925B (zh) | 预训练语言模型的训练方法、装置、电子设备及存储介质 | |
CN112925900B (zh) | 搜索信息处理方法、装置、设备及存储介质 | |
CN116186200B (zh) | 模型训练方法、装置、电子设备和存储介质 | |
CN116204672A (zh) | 图像识别、模型训练方法、装置、设备及存储介质 | |
CN115062718A (zh) | 语言模型训练方法、装置、电子设备及存储介质 | |
CN113919424A (zh) | 文本处理模型的训练、文本处理方法、装置、设备和介质 | |
CN111611364B (zh) | 一种智能应答方法、装置、设备及存储介质 | |
CN112989170A (zh) | 应用于信息搜索的关键词匹配方法、信息搜索方法及装置 | |
CN116088692B (zh) | 用于呈现候选字符串和训练判别式模型的方法和装置 | |
CN112784600A (zh) | 信息排序方法、装置、电子设备和存储介质 | |
CN113377921B (zh) | 用于匹配信息的方法、装置、电子设备以及介质 | |
CN116127948B (zh) | 待标注文本数据的推荐方法、装置及电子设备 | |
CN113377922B (zh) | 用于匹配信息的方法、装置、电子设备以及介质 | |
CN115168537B (zh) | 语义检索模型的训练方法、装置、电子设备及存储介质 | |
CN113822057B (zh) | 地点信息确定方法、装置、电子设备以及存储介质 | |
CN113377923B (zh) | 语义检索方法、装置、设备、存储介质以及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |