CN111124141A - 一种用于确定候选项的神经网络模型训练方法和装置 - Google Patents

一种用于确定候选项的神经网络模型训练方法和装置 Download PDF

Info

Publication number
CN111124141A
CN111124141A CN201811190172.4A CN201811190172A CN111124141A CN 111124141 A CN111124141 A CN 111124141A CN 201811190172 A CN201811190172 A CN 201811190172A CN 111124141 A CN111124141 A CN 111124141A
Authority
CN
China
Prior art keywords
word
user
group
neural network
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811190172.4A
Other languages
English (en)
Inventor
王丹
崔欣
张扬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sogou Technology Development Co Ltd
Original Assignee
Beijing Sogou Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sogou Technology Development Co Ltd filed Critical Beijing Sogou Technology Development Co Ltd
Priority to CN201811190172.4A priority Critical patent/CN111124141A/zh
Publication of CN111124141A publication Critical patent/CN111124141A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Abstract

本申请实施例公开了一种用于确定候选项的神经网络模型训练方法和装置,从用户的历史上屏数据确定满足该用户自身输入习惯的个性化输入方式。如果第一词在该个性化输入方式中具有第一组词关系,且该第一组词关系与第二词对应的第二组词关系相似度较高,那么可以确定第一词的词义与第二词在第二组词关系的词义近似,根据第二词在第二组词关系下的词义调整用于标识第一词词义的词嵌入向量,使得第一词的词嵌入向量体现出第二词词义。若根据调整后的词嵌入向量以及第一组词关系训练神经网络模型,训练得到的模型根据字符串确定出的候选项能够符合该用户的输入个性,被该用户选择上屏的几率更高,从而提高了该用户的输入效率,提升了该用户的输入体验。

Description

一种用于确定候选项的神经网络模型训练方法和装置
技术领域
本申请涉及输入法领域,特别是涉及用于确定候选项的神经网络模型训练方法和装置。
背景技术
输入法属于一种常用的文字输入工具,例如可以根据用户输入的字符串展示对应的候选项,并将用户选择的候选项进行上屏。
针对不同的用户,输入法在确定用户输入字符串所对应候选项时,一般通过同一个语言模型对字符串进行组词来确定对应的候选项。然而,不同用户的输入习惯并不尽相同,具有个性化因素,例如同一个词在使用过程中表达的含义和使用语境对于不同用户来说可能有所区别,导致不同用户在输入相同的字符串时,所要选择上屏的内容并不相同。
故如果不考虑用户的个性化输入方式而简单采用统一的语言模型来确定候选项,会导致一些输入场景下,用户在输入字符串后,输入法所展示的候选项中并没有用户实际希望上屏的候选项,或者用户实际希望上屏的候选项展示在较后位置导致用户需要多次翻页才能选择,从而降低用户的输入体验。
发明内容
为了解决上述技术问题,本申请提供了一种用于确定候选项的神经网络模型训练方法和装置,提高了该用户的输入效率,提升了该用户的输入体验。
本申请实施例公开了如下技术方案:
第一方面,本申请实施例提供了一种用于确定候选项的神经网络模型训练方法,所述方法包括:
根据用户的历史上屏数据,确定所述用户的个性化输入方式;
若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的第二组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量;
根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用于为所述用户输入的字符串确定对应的候选项。
可选的,所述根据用户的历史上屏数据,确定所述用户的个性化输入方式,包括:
根据所述用户的历史上屏数据,通过所述神经网络模型确定所述用户的个性化输入方式。
可选的,在训练完所述神经网络模型后,所述方法还包括:
获取所述用户输入的字符串;
根据所述神经网络模型确定所述字符串对应的候选项。
可选的,所述字符串具有至少三个分词结构。
可选的,在展示所述字符串对应的候选项之后,所述方法还包括:
若检测到所述用户没有选择所展示的候选项,将所展示的候选项作为训练所述神经网络模型的错误样本。
第二方面,本申请实施例提供了一种用于确定候选项的神经网络模型训练装置,所述装置包括确定单元、调整单元和训练单元:
所述确定单元,用于根据用户的历史上屏数据,确定所述用户的个性化输入方式;
所述调整单元,用于若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的第二组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量;
所述训练单元,用于根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用于为所述用户输入的字符串确定对应的候选项。
可选的,所述确定单元还用于根据所述用户的历史上屏数据,通过所述神经网络模型确定所述用户的个性化输入方式。
可选的,所述方法还包括获取单元:
所述获取单元,用于获取所述用户输入的字符串;
所述确定单元还用于根据所述神经网络模型确定所述字符串对应的候选项。
可选的,所述字符串具有至少三个分词结构。
可选的,所述装置还包括识别单元:
所述识别单元,用于若检测到所述用户没有选择所展示的候选项,将所展示的候选项作为训练所述神经网络模型的错误样本。
第三方面,本申请实施例提供了一种用于提示信息设置的设备,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
根据用户的历史上屏数据,确定所述用户的个性化输入方式;
若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的第二组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量;
根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用于为所述用户输入的字符串确定对应的候选项。
第四方面,本申请实施例提供了一种机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行如第一方面任意一项的所述用于确定候选项的神经网络模型训练方法。
由上述技术方案可以看出,在获取用户的历史上屏数据时,可以从中确定到该用户的个性化输入方式,该个性化输入方式中可以包括满足该用户自身输入习惯的、针对不同词的组词关系。如果一个词,例如第一词在该个性化输入方式中具有第一组词关系,且该第一组词关系与第二词对应的第二组词关系相似度较高,那么可以确定第一词的词义与第二词在第二组词关系的词义近似或相同,故可以根据第二词在第二组词关系下的词义调整用于标识第一词词义的词嵌入向量,使得第一词的词嵌入向量能够体现出前述第二词词义。由于第一词具有第二词词义是根据用户个性化输入方式得到的,故若根据调整后的前述词嵌入向量以及第一组词关系训练神经网络模型,训练得到的神经网络模型根据字符串确定出的候选项能够符合该用户的输入个性,被该用户选择上屏的几率更高,从而提高了该用户的输入效率,提升了该用户的输入体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种输入法显示候选词的示意图;
图2为本申请实施例提供的一种用于确定候选项的神经网络模型训练方法的流程示意图;
图3为本申请实施例提供的又一种输入法显示候选词的示意图;
图4为本申请实施例提供的一种用于确定候选项的神经网络模型训练装置的装置结构图;
图5为本申请实施例提供的一种用于确定候选项的神经网络模型训练的设备的结构图;
图6为本申请实施例提供的一种服务器的结构图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
由于传统方式输入法在确定用户输入字符串所对应的候选项时,一般通过同一个语言模型对字符串进行组词来确定对应的候选项,并没有考虑用户的个性化输入方式,从而导致一些输入场景下,用户在输入字符串后,输入法所展示的候选项中并没有用户实际希望上屏的候选项,或者用户希望上屏的候选项展示在较后位置导致用户需要多次翻页才能选择,从而使得用户体验不高。
一个用户的个性化输入方式,可以包括满足该用户自身输入习惯的、针对不同词的组词关系。其中,词是指可以表示完整含义的语言结构,一个词的组词关系例如可以包括可以与该词构成相应语言结构的词组的词。例如,对于词A而言,词A的组词关系例如可以与词A构成相应语言结构的词组的词B,可以理解的是,词A和词B可以构成相应语言结构的词组,若词B为词A的前一个词,则词A和词B构成的词组为B+A,若词B为词A的后一个词,则词A和词B构成的词组为A+B,。即词A对应的组词关系可以包含两种情况,一种是词B为词A的前一个词,另一种是词B为词A的后一个词。为方便描述,在本申请实施例的以下描述中,词A的对应的组词关系表示为“+B”或者“B+”,其中,“+B”表示词B为词A的后一个词,“B+”表示词B为词A的前一个词。
本申请实施例中提及的词,可以包括一个或者多个字符。例如,所述词可以仅包括一个字符“好”,又如,所述词可以包括两个字符“很好”。
可以理解的是,一个用户的针对不同词的组词关系中,有一部分组词关系与普通输入方式中的组词关系相同,有一部分组词关系与普通输入方式中的组词关系不同。本申请实施例中提及的用户的个性化输入方式包括后者,即包括与普通输入方式中的组词关系不同的组词关系。也就是说,所谓用户的个性化输入方式,是指该用户独特的不同于普通输入方式的输入方式。
可以理解的是,用户的个性化输入方式与用户的语言习惯有关,用户的个性化输入方式,例如可以包括该用户针对一些特定词的特定组词方式。作为一种示例,所述特定的词可以为某一地域的方言。可结合图1进行理解,在四川方言中,词“巴适”与词“好”以及词“舒服”具有相似的含义。例如,当形容一个菜好吃时,四川人常用“这个菜巴适的很”这种描述;又如,当询问这个菜好吃不好吃时,四川人常用“这个菜巴适不巴适”这种描述。
四川人在利用输入法输入时,可能会存在词“巴适”以及与词“巴适”对应的组词关系。但是,由于传统方式输入法在确定用户输入字符串所对应的候选项时,一般通过同一个语言模型对字符串进行组词来确定对应的候选项,并没有考虑用户的个性化输入方式。故而,若用户为四川人,当用户输入字符串“bashibubashi”时,输入法会给出图1所示的候选项,显然,候选项“八十不巴适”并不是用户实际希望上屏的候选项。
为此,本申请实施例提供了一种用于确定候选项的神经网络模型训练方法,用于解决上述问题。该方法可以应用于设置了输入法的终端中,该终端例如可以是安装有输入法的手机、笔记本电脑、台式电脑、平板电脑、电子书阅读器、动态影像专家压缩标准音频层面4(Moving Picture Experts Group Audio Layer IV,MP4)播放器、可穿戴设备(比如智能手表)、智能音箱和膝上型便携计算机等。
如前文,一个用户的个性化输入方式,是指该用户独特的不同于普通输入方式的输入方式。而用户的历史上屏数据在一定程度上可以体现用户的个性化输入方式。因此,在本申请实施例中,可以根据用户的历史上屏数据确定该用户的个性化输入方式。其中,所述用户的历史上屏数据,是指,所述用户选择对应字符串展示的候选项实现上屏对应的上屏文字。本申请实施例中提及的用户的历史上屏数据,可以是用户的社交软件的会话窗口或短信、邮件的编辑窗口中的上屏数据。
可以理解的是,如果一个词,例如第一词在该个性化输入方式中具有第一组词关系,且该第一组词关系与第二词对应的第二组词关系相似度较高,例如,第一词的第一词组关系为“第一词+C”以及“D+第一词”,第二词的第二词组关系为“第二词+C”以及“D+第二词”,那么可以确定第一词的词义与第二词在第二组词关系的词义近似或相同,故可以根据第二词在第二组词关系下的词义调整用于标识第一词词义的词嵌入向量,使得第一词的词嵌入向量能够体现出前述第二词词义。由于第一词具有第二词词义是根据用户个性化输入方式得到的,故若根据调整后的前述词嵌入向量以及第一组词关系训练神经网络模型,训练得到的神经网络模型根据字符串确定出的候选项能够符合该用户的输入个性,被该用户选择上屏的几率更高,从而提高了该用户的输入效率,提升了该用户的输入体验。
接下来结合附图说明本申请实施例提供的用于确定候选项的神经网络模型的方法。
参见图2,该图为本申请实施例提供的一种用于确定候选项的神经网络模型训练方法,所述方法例如可以通过以下步骤S201-S203实现。
S201:根据用户的历史上屏数据,确定所述用户的个性化输入方式。
本申请实施例不具体限定确定所述用户的个性化输入方式的具体实现方式,作为一种示例,可以利用神经网络模型例如长短期记忆网络(Long Short-Term Memory,LSTM)模型学习得到所述用户的个性化输入方式。
S202:若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量,所述第一组词关系为通过学习得到的。
以第一词为例,通过个性化输入方式可以确定出多个词对应的组词关系与第一词对应的组词关系比较相似,满足相似条件。在本申请实施例中,为了便于说明第一词的词嵌入向量的调整方式,主要以第一词和第二词为例进行说明,并不限定本申请实施例的方案仅能应用于两个词之间,例如,还可以通过确定第一词对应的组词关系与第二词对应的组词关系、第三词对应的组词关系的相似关系,以第二词的词义和第三词的词义来调整第一词的词嵌入向量等。
S203:根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用户为所述用户输入的字符串确定对应的候选项。
如前文,词是指可以表示完整含义的语言结构,此处提及的第一词,即为可以表示完整含义的语言结构。在本申请实施例中,所述第一词可以是与用户的个性化输入相关的词,例如,所述第一词可以为“巴适”。
如前文对所述组词关系的定义,所述第一词对应的第一组词关系,例如可以包括与第一词构成相应语言结构的词组。需要说明的是,本申请实施例中提及的第一组词关系,是指根据该用户的历史上屏数据确定出的,且属于第一词的组词关系中与普通输入方式中不同的组词关系。
本申请实施例中提及的第一组词关系,是根据用户的历史上屏数据得到的。本申请实施例不具体限定根据用户的历史上屏数据得到第一组词关系的具体实现方式,以下介绍两种可能的实现方式。
在一种可能的实现方式中,所述第一组词关系例如可以为根据用户的历史上屏数据以及通用语言模型得到的。可以理解的是,利用用户的历史上屏数据,可以得到用户针对不同词的组词关系,利用通用语言模型,可以得到普通输入方式中的组词关系,结合用户针对不同词的组词关系以及普通输入方式中的组词关系,即可得到该用户的个性化输入方式中与普通输入方式中不同的组词关系。在又一种可能的实现方式中,可以根据用户的历史上屏数据,利用神经网络模型例如LSTM模型学习得到所述第一组词关系。
本申请实施例中提及的第二词,可以是与用户的个性化输入方式相关的词,也可以是与用户的个性化输入不相关的词,例如可以为通用语言模型中的词。
所述第二词对应的第二组词关系可以包括与所述第二词构成相应语言结构的词组。
若所述第二词为与用户的个性化输入相关的词,则所述第二组词关系可以为根据用户的历史上屏数据得到的;若所述第二词是与用户的个性化输入不相关的词,则所述第二组词关系可以为根据通用语言模型得到的,所述第二组词关系也可以为结合用户的历史上屏数据以及通用语言模型得到的,本申请实施例不做具体限定。
一个词在不同的语境中可能具有不同的含义,相应的,一个词在不同语境中可能具有不同的组词关系。也就是说,第一词可以具有很多组词关系,第二词也可以具有很多组词关系。本申请实施例中提及第一词对应的第一组词关系,可以为所述第一词的所有组词关系中的部分或者全部组词关系。相应的,本申请实施例中提及第二词对应的第二组词关系,可以为所述第二词的所有组词关系中的部分或者全部组词关系。以第二词对应的组词关系为例说明,第二词具有四个组词关系分别为组词关系a1、组词关系a2、组词关系a3和组词关系a4,所述第二组词关系可以为组词关系a1和组词关系a2,所述第二组词关系也可以为组词关系a3和组词关系a4,第二组词关系还可以为组词关系a1、组词关系a2、组词关系a3和组词关系a4的其它组合关系。
需要说明的是,本申请实施例提及的第一组词关系和第二组词关系满足相似条件,用于表征所述第一词的词义和所述第二词在第二组词关系下的词义相似,即表征所述第一词的词义和所述第二词在第二组词关系对应的语境下的词义相似。而由于第二词组关系可能包括多种不同语境下的组词关系,因此,若所述第二组词关系所述第一组词关系满足相似条件例如相同,则在一定程度上可以表征所述第一词的词义和所述第二词在相应语境下的词义相似。举例说明,所述第一组词关系为“+x1”,第二组词关系为“+x1”。此时,由于所述第一组词关系“+x1”,与所述第二组词关系“+x1”相同,此时可以确定第一组词关系和第二组词关系满足相似条件。
如前文,第一组词关系和第二组词关系满足相似条件,用于表征所述第一词的词义和所述第二词在第二组词关系下的词义相似,即表征所述第一词的词义和所述第二词在第二组词关系对应的语境下的词义相似,故而,可以利用第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量。例如,所述第一组词关系为“+x1”,第二组词关系为“+x1”,由于第一组词关系和第二组词关系满足相似条件,则利用第二词在第二组词关系为“+x1”下的词义调整用于标识第一词词义的词嵌入向量。
需要说明的是,在本申请实施例中,与所述第一组词关系满足相似条件的第二组词关系可以包括多个不同的词对应的组词关系,即所述第二词可以包含多个不同的词。为方便描述,以下称所述多个不同的词中的任意一个词为第三词,将第三词对应的组词关系称为第三组词关系。可以理解的是,第三组词关系是第二组词关系的一部分。
举例说明,对于第一词“巴适”而言,第一组词关系“巴适的很”可以和第三词“好”对应的第三组词关系“好得很”满足相似条件,也可以和第三词“舒服”对应的第三组词关系“舒服的很”满足相似条件。对于这种情况,可以结合所述多个第三词分别在所述第三词对应的第三组词关系下的词义,调整用于标识所述第一词词义的词嵌入向量(即结合第三词“好”在第三组词关系“好得很”下的词义以及第三词“舒服”在第三组词关系“舒服得很”下的词义,调整用于标识所述第一词“巴适”词义的词嵌入向量),也可以从所述多个第三词中选择一个第三词,用选择后的一个第三词在所述第三词对应的第三组词关系下的词义,调整用于标识所述第一词词义的词嵌入向量(即从第三词“好”和“舒服”中选择一个第三词,例如第三词“好”,用选择后的第三词“好”在其对应的第三组词关系“好得很”下的词义调整用于标识所述第一词“巴适”词义的词嵌入向量)。
在本申请实施例中,用户输入的字符串可以包括多种形式,用户输入字符串的方式也可以包括多种形式,字符串的形式可以与用户的输入方式相关。例如用户可以通过虚拟、实体键盘输入字符形成字符串。用户还可以通过语音进行输入,设置了输入法的终端可以将用户输入的语音转换为用于体现语音内容的字符串。
需要说明的是,在根据用户输入的字符串为用户提供对应的候选项时,可以利用神经网络模型根据用户输入的字符串为用户提供对应的候选项,而神经网络模型的输入即为用于表征词义的词嵌入向量。因此,在本申请实施例中,确定第一词在第一组词关系中具有第二词在第二组词关系中的词义之后,可以根据第二词在第二组词关系下的词义调整该第一词的词嵌入向量,以使得该词嵌入向量能够体现所述第一词具有所述第二词在所述第二组词关系下的词义,从而利用调整后的能够体现用户个性化输入的词嵌入向量训练神经网络模型。需要说明的是,在本申请实施例中,所述调整后得到的词嵌入向量能够体现所述第一词具有所述第二词在所述第二组词关系下的词义,这是基于所述用户的个性化输入方式得到的。而所述第一词在普通输入方式中,可能也具有有别于所述第二词在所述第二组词关系下的词义的其它词义,鉴于此,在本申请实施例的一种可能的实现方式中,所述调整后的词嵌入向量,除了可以表征所述第二词在所述第二组词关系下的词义之外,还可以所述第一词在普通输入方式中的其它词义。当然,所述调整后的词嵌入向量,也可以仅表征所述第二词在所述第二组词关系下的词义,对此,本申请实施例不具体限定。
本申请实施例不具体限定S203中提及的神经网络模型,所述神经网络模型例如可以为LSTM模型。
需要说明的是,训练得到的神经网络模型可以包括多个参数,对神经网络模型的训练过程,实际上是对所述参数的调整过程。在本申请实施例中,将训练过程中的神经网络模型称为中间神经网络模型。在调整中间神经网络模型的参数的过程中,可以将所述用于标识所述第一词词义的词嵌入向量作为所述中间神经网络模型的输入,计算该词嵌入向量输入对应的中间神经网络模型的输出以及第一组词关系的误差,根据该误差调整所述神经网络模型的参数。若所述误差满足条件例如小于预设阈值,则可以停止训练,将该中间神经网络模型作为训练得到的神经网路模型。
利用本申请实施例提供的用于确定候选项的神经网络模型的方法,在获取用户的历史上屏数据时,可以从中确定到该用户的个性化输入方式,该个性化输入方式中可以包括满足该用户自身输入习惯的、针对不同词的组词关系。如果一个词,例如第一词在该个性化输入方式中具有第一组词关系,且该第一组词关系与第二词对应的第二组词关系相似度较高,那么可以确定第一词的词义与第二词在第二组词关系的词义近似或相同,故可以根据第二词在第二组词关系下的词义调整用于标识第一词词义的词嵌入向量,使得第一词的词嵌入向量能够体现出前述第二词词义。由于第一词具有第二词词义是根据用户个性化输入方式得到的,故若根据调整后的前述词嵌入向量以及第一组词关系训练神经网络模型,训练得到的神经网络模型根据字符串确定出的候选项能够符合该用户的输入个性,被该用户选择上屏的几率更高,从而提高了该用户的输入效率,提升了该用户的输入体验。
在本申请实施例的一种实例中,根据所述调整后的词嵌入向量以及所述第一词组关系训练得到神经网络模型之后,即可利用该神经网络模型为用户输入的字符串确定对应的候选项。
具体地,可以在用户利用输入法输入字符串的过程中,获取所述用户输入的字符串。然后对该字符串进行分词处理,得到若干个子字符串,并确定各个子字符串对应的词,并将各个子字符串对应的词的词嵌入向量作为所述训练得到的神经网络模型的输入,该神经网络模型基于输入的词嵌入向量,计算各种组词方式对应的概率,从而确定出对应的候选项。
举例说明,获取用户输入的字符串为“bashibubashi”之后,对该字符串进行分词处理,得到三个子字符串,分别为第一子字符串“bashi”、第二子字符串“bu”以及第三子字符串“bashi”,并将这三个子字符串对应的词的词嵌入向量例如第一子字符串对应的四个词“八十、巴适、巴士、罢市”分别对应的词嵌入向量、第二子字符串对应的三个词“不、部、补”分别对应的词嵌入向量、八十、第三子字符串对应的四个词“八十、巴适、巴士、罢市”分别对应的词嵌入向量输入所述训练得到的神经网络模型,神经网络模型计算各种组词方式的概率,例如,计算得到组词方式“巴适不巴适”的概率最高、组词方式“八十不巴适”的概率仅次于组词方式“巴适不巴适”、组词方式“八十不”的概率仅次于组词方式“八十不巴适”、组词方式“巴适不”的概率仅次于组词方式“八十不”以及组词方式“巴适”的概率仅次于组词方式“巴适不”等等,根据各种组词方式的概率,输入法想用户展示如图3所示的候选项,其中,第一候选项为前述概率最高的组词方式“巴适不巴适”、第二候选项为前述概率次高的组词方式“八十不巴适”等等。
在本申请实施例的一个实例中,本申请实施例中提及的上述字符串,至少具有三个分词结构。其中,所述字符串至少具有三个分词结构是指,对所述字符串进行分词处理之后,可以得到至少三个子字符串。在语音输入的输入法场景下,所输入语音对应的字符串至少能够体现包括三个分词结构的语音内容。
需要说明的是,利用传统的为用户输入的字符串提供候选词的技术,若用户输入的字符串包括两个或者两个以下分词结构,则可以为用户提供比较精准的、上屏率比较高的候选词;若用户输入的字符串包括两个以上的分词结构,则传统技术为用户提供的候选词的上屏率比较低,从而导致传统输入法用户输入长字符串(包括三个或者三个以上分词结构的字符串)的用户体验不佳。
因此,利用本申请实施例的技术方案,可以在用户输入长字符串时,为用户提供符合用户个性化输入的候选项,提升了用户输入长字符串时候选项的上屏率,使得用户无需多次翻页或者重新输入字符串才能获得用户希望上屏的字符串,从而提升了用户体验。
前述训练得到的神经网络模型是基于可以体现第一词具有第二词词义的词嵌入向量训练得到的,而第一词具有第二词词义是根据用户个性化输入方式得到的。因此,所述训练得到的神经网络模型与用户的个性化输入有关。
而在实际应用中,用户的个性化输入是可能发生改变的。例如,对于一个词,用户在一段时间内习惯使用第一种组词方式,而过了该段时间之后,用户对该词的组词方式发生了改变。这样一来,利用第一种组词方式以及第一种组词方式下该词的词嵌入向量训练得到的神经网络模型,可能并不适用输入方式发生改变之后的用户输入方式。
鉴于此,在本申请实施例中,在根据所述神经网络模型确定所述字符串对应的候选项,并向用户展示所述候选项之后,若检测到用户没有选择所展示的候选项,则将所展示的候选项作为训练所述神经网络模型的错误样本。
需要你说明的是,本申请实施例中提及的检测到用户没有选择所展示的候选项,是指,未检测到用户触发的对所述所展示的候选项的上屏操作。
可以结合图3进行理解,在本申请实施例中,若用户为并未选择候选项“巴适不巴适”,则将所述“巴适不巴适”作为训练所述神经网络模型的错误样本,确定所述错误样本中的第一词例如“巴适”,调整错误样本中体现用户的个性化的第一词的词嵌入向量,并利用调整后的词嵌入向量调整所述神经网络模型的参数,使得训练后的神经网络模型更接近用户当前的输入习惯。这样一来,当用户再次输入字符串“bashibubashi”时,根据该错误样本训练得到的神经网络模型则可能不将所述候选项“巴适不巴适”作为第一候选项。
也就是说,采用本申请实施例提供的方法,可以根据用户个性化输入方式,调整用于为用户输入的字符串确定候选项的神经网络模型,使得所述神经网络模型与用户当前的输入习惯匹配,可以有效提升用户的输入体验。
图4为本申请实施例提供的一种用于确定候选项的神经网络模型训练装置的装置结构图,所述装置包括确定单元401、调整单元402和训练单元403:
所述确定单元401,用于根据用户的历史上屏数据,确定所述用户的个性化输入方式;
所述调整单元402,用于若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的第二组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量;
所述训练单元403,用于根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用于为所述用户输入的字符串确定对应的候选项。
可选的,所述确定单元还用于根据所述用户的历史上屏数据,通过所述神经网络模型确定所述用户的个性化输入方式。
可选的,所述方法还包括获取单元:
所述获取单元,用于获取所述用户输入的字符串;
所述确定单元还用于根据所述神经网络模型确定所述字符串对应的候选项。
可选的,所述字符串具有至少三个分词结构。
可选的,所述装置还包括识别单元:
所述识别单元,用于若检测到所述用户没有选择所展示的候选项,将所展示的候选项作为训练所述神经网络模型的错误样本。
可见,在获取用户的历史上屏数据时,可以从中确定到该用户的个性化输入方式,该个性化输入方式中可以包括满足该用户自身输入习惯的、针对不同词的组词关系。如果一个词,例如第一词在该个性化输入方式中具有第一组词关系,且该第一组词关系与第二词对应的第二组词关系相似度较高,那么可以确定第一词的词义与第二词在第二组词关系的词义近似或相同,故可以根据第二词在第二组词关系下的词义调整用于标识第一词词义的词嵌入向量,使得第一词的词嵌入向量能够体现出前述第二词词义。由于第一词具有第二词词义是根据用户个性化输入方式得到的,故若根据调整后的前述词嵌入向量以及第一组词关系训练神经网络模型,训练得到的神经网络模型根据字符串确定出的候选项能够符合该用户的输入个性,被该用户选择上屏的几率更高,从而提高了该用户的输入效率,提升了该用户的输入体验。
图5是根据一示例性实施例示出的一种用于确定候选项的神经网络模型训练的装置500的框图。例如,装置500可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,装置500可以包括以下一个或多个组件:处理组件502,存储器504,电源组件506,多媒体组件508,音频组件510,输入/输出(I/O)的接口512,传感器组件514,以及通信组件516。
处理组件502通常控制装置500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件502可以包括一个或多个处理器520来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件502可以包括一个或多个模块,便于处理组件502和其他组件之间的交互。例如,处理部件502可以包括多媒体模块,以方便多媒体组件508和处理组件502之间的交互。
存储器504被配置为存储各种类型的数据以支持在设备500的操作。这些数据的示例包括用于在装置500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件506为装置500的各种组件提供电力。电源组件506可以包括电源管理系统,一个或多个电源,及其他与为装置500生成、管理和分配电力相关联的组件。
多媒体组件508包括在所述装置500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件508包括一个前置摄像头和/或后置摄像头。当设备500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件510被配置为输出和/或输入音频信号。例如,音频组件510包括一个麦克风(MIC),当装置500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器504或经由通信组件516发送。在一些实施例中,音频组件510还包括一个扬声器,用于输出音频信号。
I/O接口512为处理组件502和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件514包括一个或多个传感器,用于为装置500提供各个方面的状态评估。例如,传感器组件514可以检测到设备500的打开/关闭状态,组件的相对定位,例如所述组件为装置500的显示器和小键盘,传感器组件514还可以检测装置500或装置500一个组件的位置改变,用户与装置500接触的存在或不存在,装置500方位或加速/减速和装置500的温度变化。传感器组件514可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件514还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件514还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件516被配置为便于装置500和其他设备之间有线或无线方式的通信。装置500可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件516经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件516还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
图5是本发明实施例中服务器的结构示意图。该服务器600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)622(例如,一个或一个以上处理器)和存储器632,一个或一个以上存储应用程序642或数据644的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器632和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器622可以设置为与存储介质630通信,在服务器600上执行存储介质630中的一系列指令操作。
服务器600还可以包括一个或一个以上电源626,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口658,一个或一个以上键盘656,和/或,一个或一个以上操作系统641,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器504,上述指令可由装置500的处理器520执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种解码网络中非关键词模型的构建方法,所述方法包括:
根据用户的历史上屏数据,确定所述用户的个性化输入方式;
若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的第二组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量;
根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用于为所述用户输入的字符串确定对应的候选项。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质可以是下述介质中的至少一种:只读存储器(英文:read-only memory,缩写:ROM)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备及系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的设备及系统实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本申请的一种具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (10)

1.一种用于确定候选项的神经网络模型训练方法,其特征在于,所述方法包括:
根据用户的历史上屏数据,确定所述用户的个性化输入方式;
若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的第二组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量;
根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用于为所述用户输入的字符串确定对应的候选项。
2.根据权利要求1所述的方法,其特征在于,所述根据用户的历史上屏数据,确定所述用户的个性化输入方式,包括:
根据所述用户的历史上屏数据,通过所述神经网络模型确定所述用户的个性化输入方式。
3.根据权利要求1所述的方法,其特征在于,在训练完所述神经网络模型后,所述方法还包括:
获取所述用户输入的字符串;
根据所述神经网络模型确定所述字符串对应的候选项。
4.根据权利要求3所述的方法,其特征在于,所述字符串具有至少三个分词结构。
5.根据权利要求3所述的方法,其特征在于,在展示所述字符串对应的候选项之后,所述方法还包括:
若检测到所述用户没有选择所展示的候选项,将所展示的候选项作为训练所述神经网络模型的错误样本。
6.一种用于确定候选项的神经网络模型训练装置,其特征在于,所述装置包括确定单元、调整单元和训练单元:
所述确定单元,用于根据用户的历史上屏数据,确定所述用户的个性化输入方式;
所述调整单元,用于若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的第二组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量;
所述训练单元,用于根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用于为所述用户输入的字符串确定对应的候选项。
7.根据权利要求6所述的装置,其特征在于,所述确定单元还用于根据所述用户的历史上屏数据,通过所述神经网络模型确定所述用户的个性化输入方式。
8.根据权利要求6所述的装置,其特征在于,所述方法还包括获取单元:
所述获取单元,用于获取所述用户输入的字符串;
所述确定单元还用于根据所述神经网络模型确定所述字符串对应的候选项。
9.一种用于提示信息设置的设备,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
根据用户的历史上屏数据,确定所述用户的个性化输入方式;
若在所述个性化输入方式中第一词对应的第一组词关系与第二词对应的第二组词关系满足相似条件,根据所述第二词在所述第二组词关系下的词义调整用于标识所述第一词词义的词嵌入向量;
根据调整后的所述词嵌入向量以及所述第一组词关系训练神经网络模型,所述神经网络模型用于为所述用户输入的字符串确定对应的候选项。
10.一种机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得装置执行如权利要求1至5中一个或多个所述用于确定候选项的神经网络模型训练方法。
CN201811190172.4A 2018-10-12 2018-10-12 一种用于确定候选项的神经网络模型训练方法和装置 Pending CN111124141A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811190172.4A CN111124141A (zh) 2018-10-12 2018-10-12 一种用于确定候选项的神经网络模型训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811190172.4A CN111124141A (zh) 2018-10-12 2018-10-12 一种用于确定候选项的神经网络模型训练方法和装置

Publications (1)

Publication Number Publication Date
CN111124141A true CN111124141A (zh) 2020-05-08

Family

ID=70483941

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811190172.4A Pending CN111124141A (zh) 2018-10-12 2018-10-12 一种用于确定候选项的神经网络模型训练方法和装置

Country Status (1)

Country Link
CN (1) CN111124141A (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101149757A (zh) * 2007-11-09 2008-03-26 腾讯科技(深圳)有限公司 一种实现场景化文字输入的方法
CN103927299A (zh) * 2014-04-25 2014-07-16 百度在线网络技术(北京)有限公司 输入法中候选语句的提供方法、输入内容推荐方法和装置
CN104866469A (zh) * 2007-04-11 2015-08-26 谷歌股份有限公司 具有第二语言模式的输入法编辑器
CN106339371A (zh) * 2016-08-30 2017-01-18 齐鲁工业大学 一种基于词向量的英汉词义映射方法和装置
CN106774970A (zh) * 2015-11-24 2017-05-31 北京搜狗科技发展有限公司 对输入法的候选项进行排序的方法和装置
CN107239443A (zh) * 2017-05-09 2017-10-10 清华大学 一种词向量学习模型的训练方法及服务器
CN107621891A (zh) * 2017-09-28 2018-01-23 北京新美互通科技有限公司 一种文本输入方法、装置及电子设备
US20180090128A1 (en) * 2016-09-23 2018-03-29 International Business Machines Corporation Supervised training for word embedding

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866469A (zh) * 2007-04-11 2015-08-26 谷歌股份有限公司 具有第二语言模式的输入法编辑器
CN101149757A (zh) * 2007-11-09 2008-03-26 腾讯科技(深圳)有限公司 一种实现场景化文字输入的方法
CN103927299A (zh) * 2014-04-25 2014-07-16 百度在线网络技术(北京)有限公司 输入法中候选语句的提供方法、输入内容推荐方法和装置
CN106774970A (zh) * 2015-11-24 2017-05-31 北京搜狗科技发展有限公司 对输入法的候选项进行排序的方法和装置
CN106339371A (zh) * 2016-08-30 2017-01-18 齐鲁工业大学 一种基于词向量的英汉词义映射方法和装置
US20180090128A1 (en) * 2016-09-23 2018-03-29 International Business Machines Corporation Supervised training for word embedding
CN107239443A (zh) * 2017-05-09 2017-10-10 清华大学 一种词向量学习模型的训练方法及服务器
CN107621891A (zh) * 2017-09-28 2018-01-23 北京新美互通科技有限公司 一种文本输入方法、装置及电子设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
孙茂松等: "借重于人工知识库的词和义项的向量表示:以HowNet为例", 《中文信息学报》, vol. 30, no. 06, pages 1 - 6 *
李国佳等: "一种基于多义词向量表示的词义消歧方法", 《智能计算机与应用》, vol. 8, no. 04, pages 52 - 56 *

Similar Documents

Publication Publication Date Title
CN109961791B (zh) 一种语音信息处理方法、装置及电子设备
US9959487B2 (en) Method and device for adding font
CN108073303B (zh) 一种输入方法、装置及电子设备
CN111242303A (zh) 网络训练方法及装置、图像处理方法及装置
CN109447258B (zh) 神经网络模型的优化方法及装置、电子设备和存储介质
CN110648657A (zh) 一种语言模型训练方法、构建方法和装置
CN108073291B (zh) 一种输入方法和装置、一种用于输入的装置
CN110910884B (zh) 一种唤醒检测方法、装置和介质
CN109144286B (zh) 一种输入方法及装置
CN109901726B (zh) 一种候选词生成方法、装置及用于候选词生成的装置
CN111124141A (zh) 一种用于确定候选项的神经网络模型训练方法和装置
CN110858099B (zh) 候选词生成方法及装置
CN109917927B (zh) 一种候选项确定方法和装置
CN112000232A (zh) 一种交互处理方法、装置和介质
CN113515618A (zh) 语音处理方法、装置和介质
CN113050805A (zh) 基于输入工具的智能交互方法及装置
CN110780749A (zh) 一种字符串纠错方法和装置
CN110716653B (zh) 一种联想源确定方法和装置
CN111914983B (zh) 交互方法及装置、音箱、电子设备和存储介质
CN109388328B (zh) 一种输入方法、装置和介质
WO2022105229A1 (zh) 一种输入方法、装置和用于输入的装置
CN112905079B (zh) 一种数据处理方法、装置和介质
CN115454259A (zh) 一种输入方法、装置和用于输入的装置
CN113919293A (zh) 一种公式识别模型的训练方法及装置
CN112905023A (zh) 一种输入纠错方法、装置和用于输入纠错的装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination