CN110472223A - 一种输入配置方法、装置和电子设备 - Google Patents

一种输入配置方法、装置和电子设备 Download PDF

Info

Publication number
CN110472223A
CN110472223A CN201810443413.5A CN201810443413A CN110472223A CN 110472223 A CN110472223 A CN 110472223A CN 201810443413 A CN201810443413 A CN 201810443413A CN 110472223 A CN110472223 A CN 110472223A
Authority
CN
China
Prior art keywords
language model
input
user
information
general language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810443413.5A
Other languages
English (en)
Inventor
黄海兵
庞帅
刘羽佳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sogou Technology Development Co Ltd
Original Assignee
Beijing Sogou Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sogou Technology Development Co Ltd filed Critical Beijing Sogou Technology Development Co Ltd
Priority to CN201810443413.5A priority Critical patent/CN110472223A/zh
Publication of CN110472223A publication Critical patent/CN110472223A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明实施例提供了一种输入配置方法、装置和电子设备,其中,所述方法包括:输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;依据所述个性化语言模型匹配候选信息;进而采用个性化语言模型代替通用语言模型匹配候选信息,能够使输入法匹配出更符合用户个性化需求的候选信息,提高了用户输入效率。

Description

一种输入配置方法、装置和电子设备
技术领域
本发明涉及数据处理技术领域,特别是涉及一种输入配置方法、装置和电子设备。
背景技术
随着输入法技术的发展,使得输入法越来越智能化,即输入法可以更好的理解用户的输入,并为用户联想出更为准确的输出,比如当用户输入:“床前明月光”,输入法能够联想出该诗句的下一句:“疑似地上霜”;进而提高了用户的输入效率,降低了用户输入成本。其中,输入法的智能主要是依赖于各种语言模型,比如ngram模型、神经网络语言模型等。
但是现有的输入法语言模型多使用大众化(即通用)的语言模型,大众化模型很难实现个性化的输出,比如有人问你“你知道我今年多大了吗?”,采用大众化模型得到的回答一般是“不知道”,但是有些用户更喜欢使用“不晓得”或“母鸡呀”等这些更具有个性化的回答;因此这些用户无法从输入法展示的候选信息中选取想要的信息进行回复,而需要手动输入。
发明内容
本发明实施例提供一种输入配置方法,以提高输入效率。
相应的,本发明实施例还提供了一种输入配置装置和一种电子设备,用以保证上述方法的实现及应用。
为了解决上述问题,本发明实施例公开了一种输入配置方法,具体包括:输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;依据所述个性化语言模型匹配候选信息。
可选地,所述采用所述用户的历史输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,包括:筛选出设定时间内所述用户的输入信息,对所述筛选的输入信息进行预处理得到预处理数据;将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型。
可选地,所述对所述筛选的输入信息进行预处理得到预处理数据,包括:对筛选的输入信息进行分词,得到对应的词片段;依据映射关系确定各词片段对应的信息编号,并将所述信息编号确定为预处理数据。
可选地,所述将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型,包括:对所述预处理数据进行M次划分,其中,所述预处理数据每次被划分为N组;分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型;其中,M是小于设定阈值的正整数,N为大于0的整数。
可选地,对通用语言模型进行一轮训练包括:将一次划分的N组预处理数据分别输入至通用语言模型中,对所述通用语言模型进行N次训练。
可选地,还包括:将所述通用语言模型对应的学习率调整为目标学习率。
可选地,所述候选信息包括以下至少一种:输入序列对应的候选信息、联想候选信息、智能回复候选信息。
可选地,所述个性化语言模型包括个性化对话模型。
本发明实施例还公开了一种输入配置装置,具体包括:获取模块,用于输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;训练模块,用于采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;匹配模块,用于依据所述个性化语言模型匹配候选信息。
可选地,所述训练模型包括:预处理子模块,用于筛选出设定时间内所述用户的输入信息,对所述筛选的输入信息进行预处理得到预处理数据;模型训练子模块,用于将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型。
可选地,所述预处理子模块,具体用于对筛选的输入信息进行分词,得到对应的词片段;依据映射关系确定各词片段对应的信息编号,并将所述信息编号确定为预处理数据。
可选地,所述模型训练子模块包括:划分单元,用于对所述预处理数据进行M次划分,其中,所述预处理数据每次被划分为N组;数据训练单元,用于分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型;其中,M是小于设定阈值的正整数,N为大于0的整数。
可选地,所述数据训练单元,用于将一次划分的N组预处理数据分别输入至通用语言模型中,对所述通用语言模型进行N次训练。
可选地,还包括:调整模块,用于将所述通用语言模型对应的学习率调整为目标学习率。
可选地,所述候选信息包括以下至少一种:输入序列对应的候选信息、联想候选信息、智能回复候选信息。
可选地,所述个性化语言模型包括个性化对话模型。
本发明实施例还公开了一种可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如本发明实施例任一所述的输入配置方法。
本发明实施例还公开了一种电子设备,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;依据所述个性化语言模型匹配候选信息。
可选地,所述采用所述用户的历史输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,包括:筛选出设定时间内所述用户的输入信息,对所述筛选的输入信息进行预处理得到预处理数据;将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型。
可选地,所述对所述筛选的输入信息进行预处理得到预处理数据,包括:对筛选的输入信息进行分词,得到对应的词片段;依据映射关系确定各词片段对应的信息编号,并将所述信息编号确定为预处理数据。
可选地,所述将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型,包括:对所述预处理数据进行M次划分,其中,所述预处理数据每次被划分为N组;分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型;其中,M是小于设定阈值的正整数,N为大于0的整数。
可选地,对通用语言模型进行一轮训练包括:将一次划分的N组预处理数据分别输入至通用语言模型中,对所述通用语言模型进行N次训练。
可选地,还包含用于进行以下操作的指令:将所述通用语言模型对应的学习率调整为目标学习率。
可选地,所述候选信息包括以下至少一种:输入序列对应的候选信息、联想候选信息、智能回复候选信息。
可选地,所述个性化语言模型包括个性化对话模型。
本发明实施例包括以下优点:
本发明实施例的输入法可获取通用语言模型,依据所述通用语言模型为用户匹配对应的候选信息;并在用户输入的过程中,记录用户的输入信息,然后采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,并在后续依据所述个性化语言模型匹配候选信息;进而采用个性化语言模型代替通用语言模型匹配候选信息,能够使输入法匹配出更符合用户个性化需求的候选信息,提高了用户输入效率。
附图说明
图1是本发明的一种输入配置方法实施例的步骤流程图;
图2是本发明的一种输入配置方法可选实施例的步骤流程图;
图3是本发明的一种输入配置装置实施例的结构框图;
图4是本发明的一种输入配置装置可选实施例的结构框图;
图5根据一示例性实施例示出的一种用于输入配置的电子设备的结构框图;
图6是本发明根据另一示例性实施例示出的一种用于输入配置的电子设备的结构示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
目前,各输入法客户端均采用相同的语言模型匹配候选(如匹配输入序列的候选、提供候选等等),所述相同的语言模型即通用语言模型,所述通用语言模型是输入法服务器在收集全网用户的输入信息后,采用全网用户的输入信息对语言模型进行训练得到的。因此所述通用语言模型体现的是全网用户的输入共性,对不同用户的输入个性无法很好的体现,例如,用户输入输入序列“zm”,大多数用户可能是想输入“咱们”,而个别用户可能是想输入“桌面”,由于“桌面”这个候选项词频较小,导致“桌面”没有在首屏展示,这些用户还需要切换至下一屏查找这个候选项,操作十分繁琐,输入效率低;即现有输入法的通用语言模型无法满足用户的个性化输入,因此本发明实施例提出一种输入配置方法,应用于输入法客户端中,以提高用户的输入效率。
本发明实施例的核心构思之一是,为使得输入法更有个性化,针对每个用户,输入法可采用该用户的输入信息对通用语言模型进行训练,得到该用户对应的个性化语言模型;进而在该用户输入时,输入法可采用该个性化语言模型匹配出更符合该用户输入个性的候选信息,从而提高用户的输入效率。
参照图1,示出了本发明的一种输入配置方法实施例的步骤流程图,具体可以包括如下步骤:
步骤102、输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到。
本发明实施例中,输入法的服务端可预先依据全网用户的输入信息对语言模型进行训练,得到通用语言模型,然后可将所述通用语言模型下发至各个输入法的客户端中;进而输入法的客户端(后续简称输入法)可获取所述通用语言模型,在后续用户启动输入法,并采用所述输入法进行输入时,依据所述通用语言模型为用户匹配候选。其中,在输入法启动后,可记录用户的输入信息,所述输入信息可以包括用户采用输入法输入的信息如输入序列,上屏操作对应选中的候选项等等,也可以包括用户采用编辑操作如粘贴操作输入的信息;当然所述输入信息还可以包括用户浏览或接收的信息,在此不作限制。然后依据该用户的输入信息和通用语言模型,生成满足该用户个性化输入的个性化模型。
其中,输入序列是输入法系统直接接收的用户输入内容,输入法系统可以根据用户当前使用的输入方式,将这些输入内容转换为所输入文字的字词候选项,提供给用户选择。实际处理中,用户可以使用的输入方式多种多样,例如,拼音输入、笔画输入、五笔输入、语音输入和手写输入,或者是复制粘贴的编辑操作输入等。通过上述任意一种输入方式用户都可以完成输入序列的输入。对拼音输入、笔画输入、五笔输入等输入方式,输入序列通常是用户通过键盘、触摸屏等输入的编码字符串;对手写输入,输入序列可以是用户通过手写板、触摸屏等输入的移动轨迹。本申请不限定用户的输入方式,用户可以使用任何一种输入方式。
步骤104、采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型。
本发明实施例中,所述输入法可基于所述通用语言模型确定所述用户对应的个性化模型,进而既能够保留全网用户的输入共性,又能加入所述用户的个性。即输入法在记录用户的输入信息后,可采用选取出的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化模型;其中,所述用于训练的输入信息可以是最近一段时间内的输入信息,以保证采用能够有效体现用户个性化的信息进行训练。其中,对所述通用语言模型的训练是由客户端执行的,因此可在终端处于空闲时间时对所述通用语言模型进行训练,如凌晨2:00-5:00,以降低终端的负担。
步骤106、依据所述个性化语言模型匹配候选信息。
本发明实施例生成个性化模型后,输入法即可采用所述个性化语言模型匹配候选信息,例如,接收输入序列,采用所述个性化语言模型对所述输入序列进行转换,得到所述输入序列对应的候选信息;又例如接收用户的上屏操作,基于上屏的候选项,采用所述个性化语言模型进行联想,得到所述上屏的候选项对应的联想候选信息;等等。进而每个客户端的输入法可按照步骤102-步骤106,生成该客户端用户对应的个性化语言模型。
本发明的一个示例中,输入序列“zm”,输入法采用通用语言模型对该输入序列进行转换后,首屏中候选项按照以下顺序展示:“怎么”、“这么”、“咱们”和“在吗”;用户A的输入法采用其对应的个性化语言模型对该输入序列进行转换后,首屏中候选项按照以下顺序展示:“咱们”、“怎么”、“桌面”和“这么”;用户B的输入法采用其对应的个性化语言模型对该输入序列进行转换后,首屏中候选项按照以下顺序展示:“周末”、“字母”、“真么”和“怎么”。
本发明的一个可选实施例中,输入法在依据通用语言模型生成个性化语言模型后,可继续记录用户的输入信息,然后采用输入信息对所述个性化语言模型进行训练,以优化所述个性化语言模型。
综上,本发明实施例的输入法可获取通用语言模型,以依据所述通用语言模型为用户匹配对应的候选信息;并在用户输入的过程中,记录对用户的输入信息,然后采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,并在后续依据所述个性化语言模型匹配候选信息;进而采用个性化语言模型代替通用语言模型匹配候选信息,能够使输入法匹配出更符合用户个性化需求的候选信息,提高了用户输入效率。
本发明另一个实施例中,可每次从用户的输入信息中抽取少量的信息,对通用语言模型进行训练;以及在对所述通用语言模型进行一定轮数的训练后,停止对所述通用语言模型的训练,以减少终端的运算负担,提高训练效率。
参照图2,示出了本发明的一种输入配置方法可选实施例的步骤流程图,具体可以包括如下步骤:
步骤202、输入法获取通用语言模型,记录用户的输入信息。
本发明实施例中,输入法可在每次更新时获取通用语言模型,也可定期获取通用语言模型,然后依据获取的通用语言模型为用户匹配对应的候选信息。其中,所述通用语言模型可包括对话模型如seq2seq(sequence to sequence序列到序列)模型,所述对话模型可用于基于对端信息进行回复,以提高用户输入效率,例如,对端输入“你好”,输入法可基于对话模型匹配候选信息“你好”,用户选取该候选项即可,用户无需输入“你好”。输入法启动后,可记录用户的输入信息,依据用户的输入信息对通用语言模型进行训练,得到该用户对应的个性化语言模型。
步骤204、筛选出设定时间内所述用户的输入信息,对所述筛选的输入信息进行预处理得到预处理数据。
本发明实施例中,为保证用于训练的输入信息的有效性,可从输入法记录的输入信息中,筛选出设定时间内的输入信息,然后对所述筛选的输入信息进行预处理,可得到预处理数据;所述预处理数据的格式满足用于通用语言模型训练的数据格式要求,进而可将预处理数据直接输入至所述通用语言模型中进行训练。其中,所述设定时间可按照需求设置如最近一个月。
本发明实施例中,对所述筛选的输入信息进行预处理得到预处理数据,可包括如下子步骤:
子步骤42、对筛选的输入信息进行分词,得到对应的词片段。
子步骤44、依据映射关系确定各词片段对应的信息编号,并将所述信息编号确定为预处理数据。
本发明实施例中,用于通用语言模型训练的数据是信息编号,所述信息编号与词片段对应,因此输入法在获取所述通用语言模型时,可获取所述通用语言模型对应的映射关系,所述映射关系是指信息编号和词片段的对应关系;进而在对输入信息进行预处理时,可依据所述映射关系,确定所述预处理数据。具体的,可依次对所述筛选的每条输入信息进行处理,即针对每条输入信息,可将所述输入信息进行分词处理,得到该条输入信息对应的词片段;其中,分词处理的方法包括多种,如可对输入信息进行句法、语义分析,利用句法信息和语义信息来进行分词,如输入信息“你吃了吗”,进行分词处理后可得到的词片段包括:“你”和“吃了吗”;又例如采用二元分词的方法对应输入信息进行分词处理,如输入信息“明天早起”,采用二元分词的方法进行分词后得到的词片段包括:“明天”和“早起”;进而可完成对各条输入信息的分词,得到所述筛选的输入信息对应的词片段。然后依据所述通用语言模型对应的映射关系,确定各词片段对应的信息编号,例如,依据映射关系确定,“你”对应信息编号是0012、“吃了吗”对应信息编号是1002、“明天”对应信息编号是0145、以及“早起”对应信息编号是0563;因此得到的各信息编号即为所述筛选的输入信息对应的预处理数据。
然后可将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型;具体如下:
步骤206、对所述预处理数据进行M次划分,其中,所述预处理数据每次被划分为N组。
步骤208、分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型。
本发明实施例中,可采用预处理数据对所述通用语言模型进行M轮训练,每一轮训练包括对所述通用语言模型的N次训练;其中,所述M是小于设定阈值的正整数,以降低终端的运算量,所述设定阈值可按照需求设置如10,N是大于0的整数。具体的,可对所述预处理数据进行M次划分,每次对预处理数据进行划分后,将预处理数据中各信息编号的顺序打乱,再对该打乱后的预处理数据进行下一次划分;其中,每次都将所述预处理数据划分为N组。然后分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型,其中,对通用语言模型进行一轮训练时,可将一次划分的N组预处理数据分别输入至通用语言模型中,对所述通用语言模型进行N次训练。
以下以对通用语言模型的第一轮训练为例,进行说明。
例如,所述通用语言模型对应的函数表达式如下:
Y(x)=a0*A(x)+b0*B(x)+c0*C(x)
假设预处理数据为100条,第一次将这100条数据划分为N=5组,即(N1,N2,N3,N4,N5),每组20条数据。
首先将N1中的20条数据输入至通用语言模型中进行训练,得到对应的语言模型为:Y(x)=a1*A(x)+b1*B(x)+c1*C(x);
然后将N2中的20条数据输入至第一次训练得到的语言模型中,得到对应的语言模型为:Y(x)=a2*A(x)+b2*B(x)+c2*C(x);
依次类推,直到将N5中的20条数据输入至第四次训练得到的语言模型中,得到对应的语言模型为:Y(x)=a5*A(x)+b5*B(x)+c5*C(x),该模型也是第一轮训练得到的语言模型。
再进行第二轮训练,第二轮训练的第一次训练是在第一轮训练基础上进行的,即将第二轮的第一组数据输入至语言模型Y(x)=a5*A(x)+b5*B(x)+c5*C(x)中进行训练,以此类推得到第二轮训练的语言模型。
进而按照上述训练方式,完成对通用语言模型的M轮训练。
步骤210、依据所述个性化语言模型匹配候选信息。
本发明实施例在得到个性化语言模型后,可依据所述个性化语言模型匹配候选信息,所述候选信息包括以下至少一种:输入序列对应的候选信息、联想候选信息、智能回复候选信息。其中,所述输入序列对应的候选信息是指对输入序列进行转换得到的候选信息;所述联想候选信息是指对上屏操作选取的候选项进行联想,得到的联想候选信息;所述智能回复候选信息是指依据对端信息生成的回复信息。
本发明一个可选实施例中,输入法还可以将所述通用语言模型对应的学习率调整为目标学习率;例如所述目标学习率可配置为所述通用语言模型的训练结束时的学习率;进而防止通用语言模型被大幅度改变,而无法体现全网用户的输入共性。
本发明实施例中,输入法可获取通用语言模型和记录用户的输入信息,然后依据所述用户的输入信息对通用语言模型进行训练,即采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,并在后续依据所述个性化语言模型匹配候选信息;进而采用个性化语言模型代替通用语言模型匹配候选信息,能够使输入法匹配出更符合用户个性化需求的候选信息,提高了用户输入效率。
进一步,本发明实施例在采用输入信息对通用语言模型进行训练时,可对所述预处理数据进行M次划分,每次将所述预处理数据划分为N组,然后分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型;其中,所述M是小于设定阈值的正整数,进而对所述通用语言模型进行一定轮数的训练,减少终端的运算量,提高了训练效率。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图3,示出了本发明的一种输入配置装置实施例的结构框图,具体可以包括如下模块:获取模块302、训练模块304和匹配模块306,其中,
获取模块302,用于输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;
训练模块304,用于采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;
匹配模块306,用于依据所述个性化语言模型匹配候选信息。
参照图4,示出了本发明的一种输入配置装置可选实施例的结构框图;本发明一个可选的实施例中,所述装置还包括:调整模块308,用于将所述通用语言模型对应的学习率调整为目标学习率;其中,所述目标学习率配置为所述通用语言模型的训练结束时的学习率。
本发明一个可选的实施例中,所述训练模型304包括:预处理子模块3042和模型训练子模块3044,其中,
预处理子模块3042,用于筛选出设定时间内所述用户的输入信息,对所述筛选的输入信息进行预处理得到预处理数据;
模型训练子模块3044,用于将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型。
其中,所述预处理子模块3042,具体用于对筛选的输入信息进行分词,得到对应的词片段;依据映射关系确定各词片段对应的信息编号,并将所述信息编号确定为预处理数据。
本发明一个可选的实施例中,所述模型训练子模块3044包括:划分单元30442和数据训练单元30444,其中,
划分单元30442,用于对所述预处理数据进行M次划分,其中,所述预处理数据每次被划分为N组;
数据训练单元30444,用于分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型;其中,M是小于设定阈值的正整数,N为大于0的整数。
其中,所述数据训练单元30444,用于将一次划分的N组预处理数据分别输入至通用语言模型中,对所述通用语言模型进行N次训练。
本发明一个可选的实施例中,所述候选信息包括以下至少一种:输入序列对应的候选信息、联想候选信息、智能回复候选信息。
本发明一个可选的实施例中,所述个性化语言模型包括个性化对话模型。
本发明实施例的输入法可获取通用语言模型,以依据所述通用语言模型为用户匹配对应的候选信息;并在用户输入的过程中,记录对用户的输入信息,然后采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,并在后续依据所述个性化语言模型匹配候选信息;进而采用个性化语言模型代替通用语言模型匹配候选信息,能够使输入法匹配出更符合用户个性化需求的候选信息,提高了用户输入效率。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
图5是根据一示例性实施例示出的一种用于输入配置的电子设备500的结构框图。例如,电子设备500可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图5,电子设备500可以包括以下一个或多个组件:处理组件502,存储器504,电力组件506,多媒体组件508,音频组件510,输入/输出(I/O)的接口512,传感器组件514,以及通信组件516。
处理组件502通常控制电子设备500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件502可以包括一个或多个处理器520来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件502可以包括一个或多个模块,便于处理组件502和其他组件之间的交互。例如,处理部件502可以包括多媒体模块,以方便多媒体组件508和处理组件502之间的交互。
存储器504被配置为存储各种类型的数据以支持在设备500的操作。这些数据的示例包括用于在电子设备500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件506为电子设备500的各种组件提供电力。电力组件506可以包括电源管理系统,一个或多个电源,及其他与为电子设备500生成、管理和分配电力相关联的组件。
多媒体组件508包括在所述电子设备500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件508包括一个前置摄像头和/或后置摄像头。当电子设备500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件510被配置为输出和/或输入音频信号。例如,音频组件510包括一个麦克风(MIC),当电子设备500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器504或经由通信组件516发送。在一些实施例中,音频组件510还包括一个扬声器,用于输出音频信号。
I/O接口512为处理组件502和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件514包括一个或多个传感器,用于为电子设备500提供各个方面的状态评估。例如,传感器组件514可以检测到设备500的打开/关闭状态,组件的相对定位,例如所述组件为电子设备500的显示器和小键盘,传感器组件514还可以检测电子设备500或电子设备500一个组件的位置改变,用户与电子设备500接触的存在或不存在,电子设备500方位或加速/减速和电子设备500的温度变化。传感器组件514可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件514还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件514还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件516被配置为便于电子设备500和其他设备之间有线或无线方式的通信。电子设备500可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件514经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件514还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器504,上述指令可由电子设备500的处理器520执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行一种输入配置方法,所述方法包括:输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;依据所述个性化语言模型匹配候选信息。
可选地,所述采用所述用户的历史输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,包括:筛选出设定时间内所述用户的输入信息,对所述筛选的输入信息进行预处理得到预处理数据;将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型。
可选地,所述对所述筛选的输入信息进行预处理得到预处理数据,包括:对筛选的输入信息进行分词,得到对应的词片段;依据映射关系确定各词片段对应的信息编号,并将所述信息编号确定为预处理数据。
可选地,所述将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型,包括:对所述预处理数据进行M次划分,其中,所述预处理数据每次被划分为N组;分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型;其中,M是小于设定阈值的正整数,N为大于0的整数。
可选地,对通用语言模型进行一轮训练包括:将一次划分的N组预处理数据分别输入至通用语言模型中,对所述通用语言模型进行N次训练。
可选地,还包括:将所述通用语言模型对应的学习率调整为目标学习率。
可选地,所述候选信息包括以下至少一种:输入序列对应的候选信息、联想候选信息、智能回复候选信息。
可选地,所述个性化语言模型包括个性化对话模型。
图6是本发明根据另一示例性实施例示出的一种用于输入配置的电子设备600的结构示意图。该电子设备600可以是服务器,该服务器可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)622(例如,一个或一个以上处理器)和存储器632,一个或一个以上存储应用程序642或数据644的存储介质630(例如一个或一个以上海量存储设备)。其中,存储器632和存储介质630可以是短暂存储或持久存储。存储在存储介质630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器622可以设置为与存储介质630通信,在服务器上执行存储介质630中的一系列指令操作。
服务器还可以包括一个或一个以上电源626,一个或一个以上有线或无线网络接口650,一个或一个以上输入输出接口658,一个或一个以上键盘656,和/或,一个或一个以上操作系统641,例如Windows ServerTM,MacOS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
一种电子设备,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;依据所述个性化语言模型匹配候选信息。
可选地,所述采用所述用户的历史输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,包括:筛选出设定时间内所述用户的输入信息,对所述筛选的输入信息进行预处理得到预处理数据;将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型。
可选地,所述对所述筛选的输入信息进行预处理得到预处理数据,包括:对筛选的输入信息进行分词,得到对应的词片段;依据映射关系确定各词片段对应的信息编号,并将所述信息编号确定为预处理数据。
可选地,所述将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型,包括:对所述预处理数据进行M次划分,其中,所述预处理数据每次被划分为N组;分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型;其中,M是小于设定阈值的正整数,N为大于0的整数。
可选地,对通用语言模型进行一轮训练包括:将一次划分的N组预处理数据分别输入至通用语言模型中,对所述通用语言模型进行N次训练。
可选地,还包含用于进行以下操作的指令:将所述通用语言模型对应的学习率调整为目标学习率。
可选地,所述候选信息包括以下至少一种:输入序列对应的候选信息、联想候选信息、智能回复候选信息。
可选地,所述个性化语言模型包括个性化对话模型。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种输入配置方法、一种输入配置装置和一种电子设备,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种输入配置方法,其特征在于,包括:
输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;
采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;
依据所述个性化语言模型匹配候选信息。
2.根据权利要求1所述的方法,其特征在于,所述采用所述用户的历史输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型,包括:
筛选出设定时间内所述用户的输入信息,对所述筛选的输入信息进行预处理得到预处理数据;
将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型。
3.根据权利要求2所述的方法,其特征在于,所述对所述筛选的输入信息进行预处理得到预处理数据,包括:
对筛选的输入信息进行分词,得到对应的词片段;
依据映射关系确定各词片段对应的信息编号,并将所述信息编号确定为预处理数据。
4.根据权利要求2所述的方法,其特征在于,所述将所述预处理数据输入至所述通用语言模型中进行训练,得到所述用户对应的个性化语言模型,包括:
对所述预处理数据进行M次划分,其中,所述预处理数据每次被划分为N组;
分别将M次划分的N组预处理数据输入至通用语言模型中,对通用语言模型进行M轮训练得到所述用户对应的个性化语言模型;
其中,M是小于设定阈值的正整数,N为大于0的整数。
5.根据权利要求4所述的方法,其特征在于,对通用语言模型进行一轮训练包括:
将一次划分的N组预处理数据分别输入至通用语言模型中,对所述通用语言模型进行N次训练。
6.根据权利要求1所述的方法,其特征在于,还包括:
将所述通用语言模型对应的学习率调整为目标学习率。
7.根据权利要求1所述的方法,其特征在于,所述候选信息包括以下至少一种:输入序列对应的候选信息、联想候选信息、智能回复候选信息。
8.一种输入配置装置,其特征在于,包括:
获取模块,用于输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;
训练模块,用于采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;
匹配模块,用于依据所述个性化语言模型匹配候选信息。
9.一种可读存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如方法权利要求1-7任一所述的输入配置方法。
10.一种电子设备,其特征在于,包括有存储器,以及一个或者一个以上的程序,其中一个或者一个以上程序存储于存储器中,且经配置以由一个或者一个以上处理器执行所述一个或者一个以上程序包含用于进行以下操作的指令:
输入法获取通用语言模型,记录用户的输入信息,其中,所述通用语言模型依据全网用户的输入信息训练得到;
采用所述用户的输入信息对所述通用语言模型进行训练,得到所述用户对应的个性化语言模型;
依据所述个性化语言模型匹配候选信息。
CN201810443413.5A 2018-05-10 2018-05-10 一种输入配置方法、装置和电子设备 Pending CN110472223A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810443413.5A CN110472223A (zh) 2018-05-10 2018-05-10 一种输入配置方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810443413.5A CN110472223A (zh) 2018-05-10 2018-05-10 一种输入配置方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN110472223A true CN110472223A (zh) 2019-11-19

Family

ID=68504031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810443413.5A Pending CN110472223A (zh) 2018-05-10 2018-05-10 一种输入配置方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN110472223A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111240497A (zh) * 2020-01-15 2020-06-05 北京搜狗科技发展有限公司 一种通过输入法进行输入的方法、装置和电子设备
CN112002310A (zh) * 2020-07-13 2020-11-27 苏宁云计算有限公司 领域语言模型构建方法、装置、计算机设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102623010A (zh) * 2012-02-29 2012-08-01 北京百度网讯科技有限公司 一种建立语言模型的方法、语音识别的方法及其装置
CN103577386A (zh) * 2012-08-06 2014-02-12 腾讯科技(深圳)有限公司 一种基于用户输入场景动态加载语言模型的方法及装置
CN103871404A (zh) * 2012-12-13 2014-06-18 北京百度网讯科技有限公司 一种语言模型的训练方法、查询方法和对应装置
CN104143327A (zh) * 2013-07-10 2014-11-12 腾讯科技(深圳)有限公司 一种声学模型训练方法和装置
CN104166455A (zh) * 2013-05-16 2014-11-26 百度在线网络技术(北京)有限公司 用于确定目标用户所对应的输入模型的方法与设备
CN105654945A (zh) * 2015-10-29 2016-06-08 乐视致新电子科技(天津)有限公司 一种语言模型的训练方法及装置、设备
CN105760361A (zh) * 2016-01-26 2016-07-13 北京云知声信息技术有限公司 一种语言模型建立方法及装置
CN106415531A (zh) * 2014-04-28 2017-02-15 谷歌公司 用于输入法编辑器的特定于场境的语言模型
CN106469554A (zh) * 2015-08-21 2017-03-01 科大讯飞股份有限公司 一种自适应的识别方法及系统
CN106503066A (zh) * 2016-09-29 2017-03-15 北京百度网讯科技有限公司 基于人工智能的处理搜索结果方法和装置
CN107609092A (zh) * 2017-09-08 2018-01-19 北京百度网讯科技有限公司 智能应答方法和装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102623010A (zh) * 2012-02-29 2012-08-01 北京百度网讯科技有限公司 一种建立语言模型的方法、语音识别的方法及其装置
CN103577386A (zh) * 2012-08-06 2014-02-12 腾讯科技(深圳)有限公司 一种基于用户输入场景动态加载语言模型的方法及装置
CN103871404A (zh) * 2012-12-13 2014-06-18 北京百度网讯科技有限公司 一种语言模型的训练方法、查询方法和对应装置
CN104166455A (zh) * 2013-05-16 2014-11-26 百度在线网络技术(北京)有限公司 用于确定目标用户所对应的输入模型的方法与设备
CN104143327A (zh) * 2013-07-10 2014-11-12 腾讯科技(深圳)有限公司 一种声学模型训练方法和装置
CN106415531A (zh) * 2014-04-28 2017-02-15 谷歌公司 用于输入法编辑器的特定于场境的语言模型
CN106469554A (zh) * 2015-08-21 2017-03-01 科大讯飞股份有限公司 一种自适应的识别方法及系统
CN105654945A (zh) * 2015-10-29 2016-06-08 乐视致新电子科技(天津)有限公司 一种语言模型的训练方法及装置、设备
CN105760361A (zh) * 2016-01-26 2016-07-13 北京云知声信息技术有限公司 一种语言模型建立方法及装置
CN106503066A (zh) * 2016-09-29 2017-03-15 北京百度网讯科技有限公司 基于人工智能的处理搜索结果方法和装置
CN107609092A (zh) * 2017-09-08 2018-01-19 北京百度网讯科技有限公司 智能应答方法和装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111240497A (zh) * 2020-01-15 2020-06-05 北京搜狗科技发展有限公司 一种通过输入法进行输入的方法、装置和电子设备
CN112002310A (zh) * 2020-07-13 2020-11-27 苏宁云计算有限公司 领域语言模型构建方法、装置、计算机设备及存储介质
CN112002310B (zh) * 2020-07-13 2024-03-26 苏宁云计算有限公司 领域语言模型构建方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
US10462568B2 (en) Terminal and vehicle control method of mobile terminal using machine learning
CN109599128A (zh) 语音情感识别方法、装置、电子设备和可读介质
CN107221330A (zh) 标点添加方法和装置、用于标点添加的装置
CN108038102A (zh) 表情图像的推荐方法、装置、终端及存储介质
CN109871843A (zh) 字符识别方法和装置、用于字符识别的装置
CN104461348B (zh) 信息选取方法及装置
CN110147467A (zh) 一种文本描述的生成方法、装置、移动终端及存储介质
CN108256549A (zh) 图像分类方法、装置及终端
CN108345581A (zh) 一种信息识别方法、装置和终端设备
CN111210844B (zh) 语音情感识别模型的确定方法、装置、设备及存储介质
CN105139848B (zh) 数据转换方法和装置
CN108628813A (zh) 处理方法和装置、用于处理的装置
CN109961791A (zh) 一种语音信息处理方法、装置及电子设备
CN109002184A (zh) 一种输入法候选词的联想方法和装置
CN109144285A (zh) 一种输入方法和装置
CN107274903A (zh) 文本处理方法和装置、用于文本处理的装置
CN108960283A (zh) 分类任务增量处理方法及装置、电子设备和存储介质
CN108073572A (zh) 信息处理方法及其装置、同声翻译系统
CN109858614A (zh) 神经网络训练方法及装置、电子设备和存储介质
CN110503952A (zh) 一种语音处理方法、装置和电子设备
CN108803890A (zh) 一种输入方法、输入装置和用于输入的装置
CN108628819A (zh) 处理方法和装置、用于处理的装置
CN115273831A (zh) 语音转换模型训练方法、语音转换方法和装置
CN105847557A (zh) 一种切换情景模式的方法及装置
CN110472223A (zh) 一种输入配置方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination