CN107168546B - 输入提示方法及装置 - Google Patents
输入提示方法及装置 Download PDFInfo
- Publication number
- CN107168546B CN107168546B CN201710189039.6A CN201710189039A CN107168546B CN 107168546 B CN107168546 B CN 107168546B CN 201710189039 A CN201710189039 A CN 201710189039A CN 107168546 B CN107168546 B CN 107168546B
- Authority
- CN
- China
- Prior art keywords
- word
- information
- input
- vector
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种输入提示方法以及装置,其中,该方法包括:获取用户当前输入的文本信息;获取当前对话界面中的历史对话信息;根据历史对话信息和文本信息生成输入提示信息,并显示输入提示信息。本发明实施例提供的输入提示方法,结合上下文信息准确为用户提供输入提示信息,满足了上下文输入场景中用户的输入自动提示需求,方便了用户根据输入提示信息快速完成输入,减少了用户的输入量,提高了用户的输入体验度。
Description
技术领域
本发明涉及通信技术领域,尤其涉及一种输入提示方法及装置。
背景技术
目前,输入自动提示是一种提升文本输入效率的方式。它根据用户当前已输入的内容,生成对用户即将输入内容的若干个预测,以自动提示的方式展现给用户,用户可以从中直接选择,不必手动打字输入,从而提高输入效率。输入自动提示广泛应用于各种需要手动输入文字的场景,例如手机输入法、搜索引擎、客服系统等。
相关技术中的输入自动提示方式一般是将用户已输入的文本作为关键字或者前缀,去匹配数据库里已有的条目,将命中的条目作为自动提示。如果有多个可返回的输入条目时,还可以通过一定的排序方式(例如条目的使用频次)对输入条目进行排序,并返回排在前面的若干个。例如,当用户在搜索引擎中输入“泰坦尼克号”时,为了使得用户完成快速输入,可为用户提供“泰坦尼克号电影在线观看”、“泰坦尼克号主题曲”、“泰坦尼克号下载”、“泰坦尼克号女主角”等自动提示,以供用户选择完成快速输入。
然而,上述基于关键字或者前缀匹配的输入自动提示方式至少存在以下问题:1、当用户已输入的内容过长时,通过关键字或前缀匹配可能无法找到任何条目,导致该方法无法生成任何自动提示;2、该方式仅是使用用户当前输入的内容进行匹配,容易上下文信息之间的联系,所生成的自动提示可能缺乏相关性,导致用户选择机率偏低,无法满足有上下文的输入场景中(如聊天、客服等)中的输入自动提示;3、该方式的自动提示完全来自于已有的数据库。如果数据库规模较小,会导致很多情况下无法生成自动提示。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种输入提示方法,该方法结合上下文信息准确为用户提供输入提示信息,满足了上下文输入场景中用户的输入自动提示需求,方便了用户根据输入提示信息快速完成输入,减少了用户的输入量,提高了用户的输入体验度。
本发明的第二个目的在于提出一种输入提示装置。
为达上述目的,本发明第一方面实施例提出了一种输入提示方法,包括:获取用户当前输入的文本信息;获取当前对话界面中的历史对话信息;根据所述历史对话信息和所述文本信息生成输入提示信息,并显示所述输入提示信息。
根据本发明实施例的输入提示方法,获取用户当前输入的文本信息,并取当前对话界面中的历史对话信息,以及根据历史对话信息和文本信息生成输入提示信息,并显示输入提示信息,由此,结合上下文信息准确为用户提供输入提示信息,满足了上下文输入场景中用户的输入自动提示需求,方便了用户根据输入提示信息快速完成输入,减少了用户的输入量,提高了用户的输入体验度。
优选的,所述根据所述历史对话信息和所述文本信息生成输入提示信息,包括:判断所述历史对话信息是否为空,若否,则生成与所述历史对话信息对应的隐向量,否则获取初始隐向量;对所述文本信息进行分词处理,以生成所述文本信息的第一分词结果;根据所述第一分词结果生成所述文本信息中每个词的第一词向量;在所述历史对话信息不为空时,根据所述隐向量和所述第一词向量生成所述输入提示信息;在所述历史对话信息为空时,根据所述初始隐向量和所述第一词向量生成所述输入提示信息。
优选的,所述生成与所述历史对话信息对应的隐向量,包括:对所述历史对话信息进行分词处理,以生成所述历史对话信息的第二分词结果;根据所述第二分词结果生成所述历史对话信息中每个词的第二词向量;根据所述第二词向量生成所述历史对话信息的隐向量。
优选的,所述根据所述第二词向量生成所述历史对话信息的隐向量,包括:
基于第一循环神经网络模型,根据所述第二词向量生成所述历史对话信息的隐向量。
优选的,所述根据所述第一分词结果生成所述文本信息中每个词的第一词向量,包括:将所述第一分词结果输入词嵌入模型中,以通过所述词嵌入模型生成所述文本信息中每个词的第一词向量。
优选的,所述根据所述隐向量和所述第一词向量生成所述输入提示信息,包括:基于第二循环神经网络模型,根据所述隐向量和所述第一词向量生成所述输入提示信息。
为达上述目的,本发明第二方面实施例提出了一种输入提示装置,包括:第一获取模块,用于获取用户当前输入的文本信息;第二获取模块,用于获取当前对话界面中的历史对话信息;处理模块,根据所述历史对话信息和所述文本信息生成输入提示信息,并显示所述输入提示信息。
根据本发明实施例的输入提示装置,获取用户当前输入的文本信息,并取当前对话界面中的历史对话信息,以及根据历史对话信息和文本信息生成输入提示信息,并显示输入提示信息,由此,结合上下文信息准确为用户提供输入提示信息,满足了上下文输入场景中用户的输入自动提示需求,方便了用户根据输入提示信息快速完成输入,减少了用户的输入量,提高了用户的输入体验度。
优选的,所述处理模块,包括:判断单元,用于判断所述历史对话信息是否为空;第一生成单元,用于在判断所述历史对话信息不为空时,生成与所述历史对话信息对应的隐向量;获取单元,用于在判断所述历史对话信息为空时,获取初始隐向量;分词单元,用于对所述文本信息进行分词处理,以生成所述文本信息的第一分词结果;第二生成单元,用于根据所述第一分词结果生成所述文本信息中每个词的第一词向量;第三生成单元,用于在所述历史对话信息不为空时,根据所述隐向量和所述第一词向量生成所述输入提示信息;第四生成单元,用于在所述历史对话信息为空时,根据所述初始隐向量和所述第一词向量生成所述输入提示信息。
优选的,所述第一生成单元,具体用于:对所述历史对话信息进行分词处理,以生成所述历史对话信息的第二分词结果,并根据所述第二分词结果生成所述历史对话信息中每个词的第二词向量,以及根据所述第二词向量生成所述历史对话信息的隐向量。
优选的,所述第一生成单元,具体用于:基于第一循环神经网络模型,根据所述第二词向量生成所述历史对话信息的隐向量。
优选的,所述第二生成单元,具体用于:将所述第一分词结果输入词嵌入模型中,以通过所述词嵌入模型生成所述文本信息中每个词的第一词向量。
优选的,所述第三生成单元,具体用于:基于第二循环神经网络模型,根据所述隐向量和所述第一词向量生成所述输入提示信息。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
图1是本发明一个实施例的输入提示方法的流程图;
图2是本发明一个实施例的根据历史对话信息和文本信息生成输入提示信息的细化流程图;
图3是本发明一个实施例的输入提示装置的结构示意图;
图4是本发明另一个实施例的输入提示装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的输入提示方法以及装置。
图1是本发明一个实施例的输入提示方法的流程图。
如图1所示,该输入提示方法可以包括以下几个步骤:
S11,获取用户当前输入的文本信息。
作为一种示例性的实施方式,在多轮对话的场景中,在用户接收到对方发送的对话信息后,用户需要针对该对话信息进行回复,在用户在当前对话界面中的输入框中输入文本信息时,可获取当前输入的文本信息。
例如,在多轮对话场景中,用户接收到顾客发过来的信息为“我要订机票”,此时,用户需要通过打字输入的方式进行回复,以确定顾客的具体需求,假设用户当前输入的文本信息为“请问”,此时,所获取的用户当前输入的文本信息即为“请问”。
S12,获取当前对话界面中的历史对话信息。
S13,根据历史对话信息和文本信息生成输入提示信息,并显示输入提示信息。
在本发明的一个实施例中,在获取当前对话界面中的历史对话信息后,可判断历史对话信息是否为空,若历史对话信息为空,即,不存在历史对话信息,此时,可获取初始隐向量,然后,根据对文本信息进行分词处理,以生成文本信息的第一分词结果,之后,根据第一分词结果生成文本信息中每个词的第一词向量,以及根据初始隐向量和第一词向量生成输入提示信息。
在本发明的一个实施例中,根据初始隐向量和第一词向量生成输入提示信息可以包括将初始隐向量和第一词向量输入至第二循环神经网络模型,以通过第二循环神经网络模型生成输入提示信息。
其中,初始隐向量为全零向量。
若历史对话信息不为空,则生成与历史对话信息对应的隐向量,然后,根据对文本信息进行分词处理,以生成文本信息的第一分词结果,之后,根据第一分词结果生成文本信息中每个词的第一词向量,以及根据隐向量和第一词向量生成输入提示信息。
其中,在历史对话信息不为空时,历史对话信息可以为一条或者多条。
其中,需要说明的是,历史对话信息可以是用户输入的对话,还可以是接收到聊天对方的对话。
其中,需要说明的是,初始隐向量和历史对话信息对应的隐向量的维度是相同的。
综上,可以看出,该实施例在历史对话信息不为空时,根据隐向量和第一词向量生成输入提示信息;在历史对话信息不为空时,根据隐向量和第一词向量生成输入提示信息。
在本发明的一个实施例中,在历史对话信息不为空时,根据历史对话信息和文本信息生成输入提示信息的过程,如图2所示,可以包括:
S231,生成与历史对话信息对应的隐向量。
在本发明的一个实施例中,为了可以生成输入提示信息,在获取历史对话信息后,可对历史对话信息进行分词处理,以生成历史对话信息中每个词的第二分词结果,然后,根据第二分词结果生成历史对话信息中每个词的第二词向量,以及根据第二词向量生成历史对话信息的隐向量。
作为一种示例性的实施方式,可通过分词器对历史对话信息进行分词处理。
在本发明的一个实施例中,在得到历史对话信息的第二分词结果后,可将第二分词结果输入词嵌入模型中,以通过词嵌入模型生成历史对话信息中每个词的词向量。
举例而言,假设获取的历史对话信息为“我要订机票”,且词向量为二维向量,在将该历史对话信息输入分词器,得到的分词结果为“我要”、“订”、“机票”,可将该分词结果输入至词嵌入模型中,词嵌入模型将输出“我要”的词向量(0.1,0.9)、“订”的词向量(0.8,0.7)和“机票”的词向量(0.6,0.2)。
在本发明的一个实施例中,在获取历史对话信息中每个词的词向量后,可基于第一循环神经网络模型,根据第二词向量生成历史对话信息的隐向量。
其中,隐向量的维度是固定的。其中,需要理解的是,通常在不同的上下文场景下,输入文本的长度是不固定的,因此,为了可以对不同长度的上下文信息进行处理,可以通过第一神经网络模型将词向量转换为固定长度的隐向量。
也就是说,可以通过第一神经网络模型将不同长度的词向量转换为相同长度的隐向量。
其中,需要理解的是,第一神经网络模型是预先训练的,第一神经网络模型用于编码器中。
具体地,在获得历史对话信息中每个词的第二词向量后,可将第二词向量依次输入至第一循环神经网络模型,以通过第一循环神经网络模型获得历史对话信息的隐向量。
S232,对文本信息进行分词处理,以生成文本信息的第一分词结果。
作为一种示例性的实施方式,可通过分词器对当前输入的文本信息进行分词处理,以获得该文本信息的第一分词结果。
S233,根据第一分词结果生成文本信息中每个词的第一词向量。
在本发明的一个实施例中,在获得当前输入的文本信息的分词结果后,可将第一分词结果输入词嵌入模型中,以通过词嵌入模型生成文本信息中每个词的第一词向量。
举例而言,假设用户当前输入的文本信息为“请问”,可将“请问”输入至分词器中,得到分词结果“请问”,然后将分词结果“请问”输入至词嵌入模型,得到每个词对应的词向量(0.2,0.4)。
S234,根据隐向量和第一词向量生成输入提示信息。
其中,输入提示信息均是以当前输入的文本信息为前缀的语句。
其中,需要理解的是,输入提示信息可以为一个或者多个。
在本发明的一个实施例中,为了避免依赖于特定的数据库有时会出现无法自动提示情况的发生,可基于第二循环神经网络模型,根据隐向量和第一词向量生成输入提示信息。
其中,第二循环神经网络模型是预先训练得到的,第二循环神经网络模型用于解码器中。
具体地,在获取历史对话信息中每个词的隐向量,以及当前输入的文本信息中每个词的第一词向量后,可将历史对话信息中每个词的隐向量作为第二神经网络模型的隐向量的初始值,并将词向量依次输入至第二神经网络模型中,以通过第二神经网络模型中获取与当前输入的文本信息对应的输入提示信息。
具体而言,通过第二神经网络模型可计算出在历史对话信息中每个词的隐向量和当前输入的文本信息中每个词的第一词向量条件下,对应的候选语句对应的条件概率,并基于条件概率对对应的候选语句进行排序,并将条件概率最大的候选语句作为输入提示信息,或者,将条件概率排序在前几名的候选语句作为输入提示信息。
作为一种示例性的实施方式,假设用户已经输入了K个词,用w1,w2,…,wK来表示。以这K个词为前缀,生成长度为N(N>K)个词的自动提示,那么解码器需要生成从K+1开始的剩下N-K个词,用wK+1,wK+2,…,wN来表示。假设隐向量v表示历史对话信息对应的隐向量,在隐向量v和已输入文本w1,w2,…,wK的条件下,生成wK+1,wK+2,…,wN的概率,如下所示:
P(wK+1,wK+2,…,wN|v,w1,w2,…,wK)
最后,将解码器返回的条件概率值最高的若干个条目作为自动提示返回给用户选择。
举例而言,在对话场景中,假设获取的历史对话信息为“我要订机票”,用户当前输入的文本信息为“请问”,可为用户提供的输入提示信息为“请问您要从哪里飞哪里?”、“请问您想面哪天的机票?”、“请问乘机人是谁?”,以方便用户根据输入提示信息快速完成输入,减少用户的输入量,提高用户体验度,由此,可以看出,该实施例生成的输入提示信息均是上下文相关的,即,输入提示信息均是与买飞机票相关的问题。
综上可以看出,该实施的输入提示方法通过当前对话界面中的历史对话信息和当前输入的文本信息生成对应的输入提示信息,并将所生成的输入提示信息提供给用户,由此,结合上下文信息准确为用户提供输入提示信息,满足了上下文输入场景中用户的输入自动提示需求,方便了用户根据输入提示信息快速完成输入,减少了用户的输入量,提高了用户的输入体验度。
其中,需要说明的是,该实施例的输入提示方法基于历史对话信息和当前输入的文本信息生成输入提示信息,也就是说,该实施例在生成输入提示信息时,同时考虑上下文信息之间的相关性,因此,该实施例的方法适用于聊天、对话等上下文多轮对话的场景中。
根据本发明实施例的输入提示方法,获取用户当前输入的文本信息,并取当前对话界面中的历史对话信息,以及根据历史对话信息和文本信息生成输入提示信息,并显示输入提示信息,由此,结合上下文信息准确为用户提供输入提示信息,满足了上下文输入场景中用户的输入自动提示需求,方便了用户根据输入提示信息快速完成输入,减少了用户的输入量,提高了用户的输入体验度。
在本发明的一个实施例中,在多轮对话场景中,在确定当前界面中的历史对话信息不为空,且用户当前输入的文本信息为空时,也就是说,在当前界面中存在一条或者多条历史对话,而用户还没有输入文本时,可根据历史对话信息生成输入提示。
具体地,在确定当前界面中的历史对话信息不为空,且用户当前输入的文本信息为空时,可对历史对话信息进行分词处理,以生成历史对话信息的第二分词结果;根据第二分词结果生成历史对话信息中每个词的第二词向量;根据第二词向量生成历史对话信息的隐向量。
由于生成输入提示信息的第二循环神经网络模型必须包含两个输入参数,即,隐向量或者一个或者多个当前输入文本对应的词向量。为此,在本发明的一个实施例中可定义两个标识,第一标识例如<START>和第二标识<END>分别表示一句文本的开始和结束。
其中,第一标识例如<START>用于控制输入,任何已输入文本的第一个词都是第一标识例如<START>。
其中,任何已输入文本的最后一个词都是第二标识例如<END>。
该实施例通过第一标识和第二标识对输入文本的开始和结束进行标识,由此,使得即便没有已输入的文本,模型依然可以正常工作。
其中,需要理解的是,向第二循环神经网络模型输入的第一个词向量为第一标识对应的词向量,输入的最后一个词向量的为第二标识对应的词向量。
其中,第一标识和第二标识对应的词向量是通过词嵌入模型预先生成的。
举例而言,假设第一标识为<START>,第二标识为<END>,且获取的历史对话信息为“我要订机票”,且词向量为二维向量,在将该历史对话信息输入分词器,得到的分词结果为“我要”、“订”、“机票”,在通过词嵌入模型分别获取“我要”、“订”、“机票”对应的词向量,并且,以及获取“我要订机票”的隐向量后,将“我要订机票”的隐向量作为第二循环神经网络模型的隐向量的初始值,并将词向量依次输入至第二循环神经网络模型。其中,需要理解的是,在向第二循环神经网络模型输入的第一词向量为<START>对应的词向量,最后一个词向量为<END>对应的词向量。
为了实现上述实施例,本发明还提出了一种输入提示装置。
图3是本发明一个实施例的输入提示装置的结构示意图。
如图3所示,该输入提示装置包括第一获取模块110、第二获取模块120和处理模块130,其中:
第一获取模块110用于获取用户当前输入的文本信息。
第二获取模块120用于获取当前对话界面中的历史对话信息。
其中,历史对话信息可以为一条或者多条。
其中,需要说明的是,历史对话信息可以是用户输入的对话,还可以是接收到聊天对方的对话。
处理模块130根据历史对话信息和文本信息生成输入提示信息,并显示输入提示信息。
其中,输入提示信息均是以当前输入的文本信息为前缀的语句。
其中,需要理解的是,输入提示信息可以为一个或者多个。
在本发明的一个实施中,在图3所示的基础上,如图4所示,该处理模块130可以包括判断单元131、第一生成单元132、获取单元133、分词单元134、第二生成单元135、第三生成单元136和第四生成单元137,其中:
判断单元131用于判断历史对话信息是否为空。
第一生成单元132用于在判断历史对话信息不为空时,生成与历史对话信息对应的隐向量。
获取单元133用于在判断历史对话信息为空时,获取初始隐向量。
其中,初始隐向量为全零向量。
分词单元134用于对文本信息进行分词处理,以生成文本信息的第一分词结果。
第二生成单元135用于根据第一分词结果生成文本信息中每个词的第一词向量。
第三生成单元136用于根据隐向量和第一词向量生成输入提示信息。
第四生成单元137用于在历史对话信息为空时,根据初始隐向量和第一词向量生成输入提示信息。在本发明的一个实施例中,第一生成单元132具体用于:对历史对话信息进行分词处理,以生成历史对话信息的第二分词结果,并根据第二分词结果生成历史对话信息中每个词的第二词向量,以及根据第二词向量生成历史对话信息的隐向量。
在本发明的一个实施例中,第一生成单元132具体用于:基于第一循环神经网络模型,根据第二词向量生成历史对话信息的隐向量。
在本发明的一个实施例中,第二生成单元135具体用于:将第一分词结果输入词嵌入模型中,以通过词嵌入模型生成文本信息中每个词的第一词向量。
在本发明的一个实施例中,第三生成单元136具体用于:基于第二循环神经网络模型,根据隐向量和第一词向量生成输入提示信息。
其中,第二循环神经网络模型是预先训练得到的,第二循环神经网络模型用于解码器中。
具体地,第三生成单元136通过第二神经网络模型可计算出在历史对话信息中每个词的隐向量和当前输入的文本信息中每个词的第一词向量条件下,对应的候选语句对应的条件概率,并基于条件概率对对应的候选语句进行排序,并将条件概率最大的候选语句作为输入提示信息,或者,将条件概率排序在前几名的候选语句作为输入提示信息。
在本发明的一个实施例中,第四生成模块137具体用于:基于第二循环神经网络模型,根据初始隐向量和第一词向量生成输入提示信息。
其中,需要说明的是,前述对输入提示方法实施例的解释说明也适用于该实施例的输入提示装置,其实现原理类似,此处不再赘述。
根据本发明实施例的输入提示装置,获取用户当前输入的文本信息,并取当前对话界面中的历史对话信息,以及根据历史对话信息和文本信息生成输入提示信息,并显示输入提示信息,由此,结合上下文信息准确为用户提供输入提示信息,满足了上下文输入场景中用户的输入自动提示需求,方便了用户根据输入提示信息快速完成输入,减少了用户的输入量,提高了用户的输入体验度。
在本发明的一个实施例中,在多轮对话场景中,在确定当前界面中的历史对话信息不为空,且用户当前输入的文本信息为空时,也就是说,在当前界面中存在一条或者多条历史对话,而用户还没有输入文本时,处理模块130可根据历史对话信息生成输入提示。
具体地,在确定当前界面中的历史对话信息不为空,且用户当前输入的文本信息为空时,可通过处理模块130对历史对话信息进行分词处理,以生成历史对话信息的第二分词结果,之后,根据第二分词结果生成历史对话信息中每个词的第二词向量,以及根据第二词向量生成历史对话信息的隐向量。
由于生成输入提示信息的第二循环神经网络模型必须包含两个输入参数,即,隐向量或者一个或者多个当前输入文本对应的词向量。为此,在本发明的一个实施例中可定义两个标识,第一标识例如<START>和第二标识<END>分别表示一句文本的开始和结束。
其中,第一标识例如<START>用于控制输入,任何已输入文本的第一个词都是第一标识例如<START>。
其中,任何已输入文本的最后一个词都是第二标识例如<END>。
该实施例通过第一标识和第二标识对输入文本的开始和结束进行标识,由此,使得即便没有已输入的文本,模型依然可以正常工作。
其中,需要理解的是,向第二循环神经网络模型输入的第一个词向量为第一标识对应的词向量,输入的最后一个词向量的为第二标识对应的词向量。
其中,第一标识和第二标识对应的词向量是通过词嵌入模型预先生成的。
举例而言,假设第一标识为<START>,第二标识为<END>,且获取的历史对话信息为“我要订机票”,且词向量为二维向量,在将该历史对话信息输入分词器,得到的分词结果为“我要”、“订”、“机票”,在通过词嵌入模型分别获取“我要”、“订”、“机票”对应的词向量,并且,以及获取“我要订机票”的隐向量后,将“我要订机票”的隐向量作为第二循环神经网络模型的隐向量的初始值,并将词向量依次输入至第二循环神经网络模型。其中,需要理解的是,在向第二循环神经网络模型输入的第一词向量为<START>对应的词向量,最后一个词向量为<END>对应的词向量。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (6)
1.一种输入提示方法,其特征在于,包括以下步骤:
获取用户当前输入的文本信息;
获取当前对话界面中的历史对话信息;
根据所述历史对话信息和所述文本信息生成输入提示信息,并显示所述输入提示信息;
所述根据所述历史对话信息和所述文本信息生成输入提示信息,包括:
判断所述历史对话信息是否为空,若否,则生成与所述历史对话信息对应的隐向量,否则获取初始隐向量;
对所述文本信息进行分词处理,以生成所述文本信息的第一分词结果;
根据所述第一分词结果生成所述文本信息中每个词的第一词向量;
在所述历史对话信息不为空时,根据所述隐向量和所述第一词向量生成所述输入提示信息;
在所述历史对话信息为空时,根据所述初始隐向量和所述第一词向量生成所述输入提示信息;
所述生成与所述历史对话信息对应的隐向量,包括:
对所述历史对话信息进行分词处理,以生成所述历史对话信息的第二分词结果;
根据所述第二分词结果生成所述历史对话信息中每个词的第二词向量;
根据所述第二词向量生成所述历史对话信息的隐向量;
所述根据所述隐向量和所述第一词向量生成所述输入提示信息,包括:
基于第二循环神经网络模型,根据所述隐向量和所述第一词向量生成所述输入提示信息;
所述基于第二循环神经网络模型,根据所述隐向量和所述第一词向量生成所述输入提示信息,包括:
通过所述第二循环神经网络模型计算出在所述历史对话信息中每个词的隐向量和所述当前输入的文本信息中每个词的第一词向量条件下,对应的候选语句对应的条件概率,并基于条件概率对对应的候选语句进行排序,并将条件概率最大的候选语句作为所述输入提示信息。
2.如权利要求1所述的输入提示方法,其特征在于,所述根据所述第二词向量生成所述历史对话信息的隐向量,包括:
基于第一循环神经网络模型,根据所述第二词向量生成所述历史对话信息的隐向量。
3.如权利要求1所述的输入提示方法,其特征在于,所述根据所述第一分词结果生成所述文本信息中每个词的第一词向量,包括:
将所述第一分词结果输入词嵌入模型中,以通过所述词嵌入模型生成所述文本信息中每个词的第一词向量。
4.一种输入提示装置,其特征在于,包括:
第一获取模块,用于获取用户当前输入的文本信息;
第二获取模块,用于获取当前对话界面中的历史对话信息;
处理模块,根据所述历史对话信息和所述文本信息生成输入提示信息,并显示所述输入提示信息;
所述处理模块,包括:
判断单元,用于判断所述历史对话信息是否为空;
第一生成单元,用于在判断所述历史对话信息不为空时,生成与所述历史对话信息对应的隐向量;
获取单元,用于在判断所述历史对话信息为空时,获取初始隐向量;
分词单元,用于对所述文本信息进行分词处理,以生成所述文本信息的第一分词结果;
第二生成单元,用于根据所述第一分词结果生成所述文本信息中每个词的第一词向量;
第三生成单元,用于在所述历史对话信息不为空时,根据所述隐向量和所述第一词向量生成所述输入提示信息;
第四生成单元,用于在所述历史对话信息为空时,根据所述初始隐向量和所述第一词向量生成所述输入提示信息;
所述第一生成单元,具体用于:
对所述历史对话信息进行分词处理,以生成所述历史对话信息的第二分词结果,并根据所述第二分词结果生成所述历史对话信息中每个词的第二词向量,以及根据所述第二词向量生成所述历史对话信息的隐向量;
所述第三生成单元,具体用于:
基于第二循环神经网络模型,根据所述隐向量和所述第一词向量生成所述输入提示信息;
所述第三生成单元,具体用于:通过所述第二循环神经网络模型计算出在所述历史对话信息中每个词的隐向量和所述当前输入的文本信息中每个词的第一词向量条件下,对应的候选语句对应的条件概率,并基于条件概率对对应的候选语句进行排序,并将条件概率最大的候选语句作为所述输入提示信息。
5.如权利要求4所述的输入提示装置,其特征在于,所述第一生成单元,具体用于:
基于第一循环神经网络模型,根据所述第二词向量生成所述历史对话信息的隐向量。
6.如权利要求4所述的输入提示装置,其特征在于,所述第二生成单元,具体用于:
将所述第一分词结果输入词嵌入模型中,以通过所述词嵌入模型生成所述文本信息中每个词的第一词向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710189039.6A CN107168546B (zh) | 2017-03-27 | 2017-03-27 | 输入提示方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710189039.6A CN107168546B (zh) | 2017-03-27 | 2017-03-27 | 输入提示方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107168546A CN107168546A (zh) | 2017-09-15 |
CN107168546B true CN107168546B (zh) | 2021-03-09 |
Family
ID=59849310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710189039.6A Active CN107168546B (zh) | 2017-03-27 | 2017-03-27 | 输入提示方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107168546B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107831915A (zh) * | 2017-10-17 | 2018-03-23 | 北京三快在线科技有限公司 | 一种输入补全方法、装置、电子设备及可读存储介质 |
CN109995642A (zh) * | 2017-12-29 | 2019-07-09 | Tcl集团股份有限公司 | 一种自动生成快捷回复的方法及装置、即时通讯系统 |
CN108170683B (zh) * | 2018-01-22 | 2019-05-07 | 北京百度网讯科技有限公司 | 用于获取信息的方法和装置 |
CN110209774B (zh) * | 2018-02-11 | 2024-09-20 | 北京三星通信技术研究有限公司 | 处理会话信息的方法、装置及终端设备 |
CN110471538B (zh) * | 2018-05-10 | 2023-11-03 | 北京搜狗科技发展有限公司 | 一种输入预测方法及装置 |
CN109032381B (zh) * | 2018-08-01 | 2022-05-17 | 平安科技(深圳)有限公司 | 一种基于上下文的输入方法、装置、存储介质及终端 |
CN109683727B (zh) * | 2018-12-26 | 2021-07-16 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
CN109918673B (zh) * | 2019-03-14 | 2021-08-03 | 湖北亿咖通科技有限公司 | 语义仲裁方法、装置、电子设备和计算机可读存储介质 |
CN111078848A (zh) * | 2019-11-29 | 2020-04-28 | 支付宝(杭州)信息技术有限公司 | 一种用于对话机器人的输入提示方法及装置 |
CN111857331A (zh) * | 2020-06-16 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种确定用户场景的方法、系统、装置及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8504361B2 (en) * | 2008-02-07 | 2013-08-06 | Nec Laboratories America, Inc. | Deep neural networks and methods for using same |
US20140025367A1 (en) * | 2012-07-18 | 2014-01-23 | Htc Corporation | Predictive text engine systems and related methods |
US9195645B2 (en) * | 2012-07-30 | 2015-11-24 | Microsoft Technology Licensing, Llc | Generating string predictions using contexts |
CN106095834A (zh) * | 2016-06-01 | 2016-11-09 | 竹间智能科技(上海)有限公司 | 基于话题的智能对话方法及系统 |
-
2017
- 2017-03-27 CN CN201710189039.6A patent/CN107168546B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN107168546A (zh) | 2017-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107168546B (zh) | 输入提示方法及装置 | |
CN107273406B (zh) | 任务对话系统中的对话处理方法及装置 | |
CN110543552B (zh) | 对话交互方法、装置及电子设备 | |
CN109308357B (zh) | 一种用于获得答案信息的方法、装置和设备 | |
CN110196930B (zh) | 一种多模态客服自动回复方法及系统 | |
US20160210279A1 (en) | Methods and systems for analyzing communication situation based on emotion information | |
CN110874401B (zh) | 信息处理方法、模型训练方法、装置、终端及计算设备 | |
US9189708B2 (en) | Pruning and label selection in hidden markov model-based OCR | |
CN110187780B (zh) | 长文本预测方法、装置、设备和存储介质 | |
CN112860862B (zh) | 人机对话中智能体对话语句的生成方法和装置 | |
US9792909B2 (en) | Methods and systems for recommending dialogue sticker based on similar situation detection | |
CN116303949B (zh) | 一种对话处理方法、系统、存储介质及终端 | |
CN114239547A (zh) | 一种语句生成方法及电子设备、存储介质 | |
EP3563302A1 (en) | Processing sequential data using recurrent neural networks | |
CN111191450A (zh) | 语料清洗方法、语料录入设备及计算机可读存储介质 | |
CN106411683B (zh) | 一种关键社交信息的确定方法及装置 | |
US20220138531A1 (en) | Generating output sequences from input sequences using neural networks | |
CN114722171B (zh) | 多轮对话处理方法、装置、电子设备及存储介质 | |
CN111079428A (zh) | 一种分词和行业词典构建方法、装置以及可读存储介质 | |
CN113934834A (zh) | 一种问句匹配的方法、装置、设备和存储介质 | |
CN117370512A (zh) | 回复对话的方法、装置、设备及存储介质 | |
CN110708619B (zh) | 一种智能设备的词向量训练方法及装置 | |
CN116680387A (zh) | 基于检索增强的对话答复方法、装置、设备及存储介质 | |
CN111402864A (zh) | 语音处理方法及电子设备 | |
CN111045836B (zh) | 搜索方法、装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP03 | Change of name, title or address |
Address after: Room 138, building 3, 33 Leshan Road, Xuhui District, Shanghai 200030 Patentee after: Shanghai laiyibert Network Technology Co.,Ltd. Address before: 100081 701, block a, Rongke information, Xueyuan South Road, Haidian District, Beijing Patentee before: SHANGHAI BENYING NETWORK TECHNOLOGY CO.,LTD. |
|
CP03 | Change of name, title or address |