CN109857849A - 回复方法、回复装置、信息处理装置及存储介质 - Google Patents
回复方法、回复装置、信息处理装置及存储介质 Download PDFInfo
- Publication number
- CN109857849A CN109857849A CN201910048418.2A CN201910048418A CN109857849A CN 109857849 A CN109857849 A CN 109857849A CN 201910048418 A CN201910048418 A CN 201910048418A CN 109857849 A CN109857849 A CN 109857849A
- Authority
- CN
- China
- Prior art keywords
- scene
- reply
- input information
- information
- answering method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明提供一种回复方法、回复装置、信息处理装置及存储介质,该回复方法包括:场景识别步骤,利用预先训练的场景分类器识别输入信息的场景;以及回复获得步骤,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。根据本发明,能够在聊天对话中避免通用模型的单调乏味回复。
Description
技术领域
本发明涉及人机交互中的回复方法、回复装置及计算机可读存储介质,具体地,涉及一种在通用人机对话聊天系统中的聊天主题引导方法。
背景技术
现有技术中存在一种针对当前人机对话中聊天回复数据的生成方法,该方法依据用户输入的聊天数据作为第一语料序列,结合用户的兴趣标签代入注意力模型进行计算,生成目标词汇,将目标词汇作为用户聊天数据的回复数据进行反馈。由于生成模型自身的“安全性回复”的特点,因此回复数据的生动性较弱。
发明内容
针对在有主题、场景的聊天对话中,通用模型会出现高频、乏味回复的现象,本发明旨在提供一种针对聊天对话,能够依据场景识别、对相应场景的聊天数据做引导回复的方法,从而避免通用模型的单调乏味回复。
本发明的第一方面提供一种人机交互中的回复方法,所述回复方法包括:场景识别步骤,利用预先训练的场景分类器识别输入信息的场景;以及回复获得步骤,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
优选地,所述场景识别步骤包括:计算子步骤,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分;以及确定子步骤,将场景得分满足预定条件的场景确定为输入信息的场景。
优选地,在所述确定子步骤中,将场景得分大于或等于各场景的预定阈值的场景,确定为输入信息的场景。
优选地,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中随机选择一个候选场景,作为输入信息的场景。
优选地,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中选择场景得分最高的候选场景,作为输入信息的场景。
优选地,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中选择场景得分与各候选场景的预定阈值之间的差最大的候选场景,作为输入信息的场景。
优选地,根据各场景下正例数据和负例数据在分类器模型的分数分布情况,依据准确率优先的准则来确定针对该场景的预定阈值,使得基于该预定阈值的场景识别结果的准确率大于或等于目标预设阈值。
优选地,在所述回复获得步骤中,通过进行基于与识别出的场景相关联的回复数据库的检索处理,来获得与输入信息匹配的回复。
优选地,所述回复数据库以将输入信息和针对该输入信息的回复相关联的方式管理回复,并且在所述回复获得步骤中,从所述回复数据中检索与用户输入的输入信息相关联的回复。
优选地,如果在所述确定子步骤中场景得分不满足预定条件,则在所述回复获得步骤中,利用seq2seq模型来生成与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
优选地,所述输入信息为用户输入的文本信息、通过转换用户输入的语音信息而生成的文本信息、通过转换用户输入的图片信息而生成的文本信息或者通过将以上三种文本信息中的至少两种文本信息进行组合而成的文本信息。
本发明的第二方面提供一种人机交互中的回复装置,所述回复装置包括:场景识别单元,利用预先训练的场景分类器识别输入信息的场景;以及回复获得单元,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
优选地,所述场景识别单元包括:计算单元,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分;以及确定单元,将场景得分满足预定条件的场景确定为输入信息的场景。
优选地,所述确定单元将场景得分大于或等于各场景的预定阈值的场景确定为输入信息的场景。
优选地,在确定出输入信息的多个候选场景的情况下,所述确定单元从所述多个场景中随机选择一个候选场景,作为输入信息的场景。
优选地,在确定出输入信息的多个候选场景的情况下,所述确定单元从所述多个候选场景中选择场景得分最高的候选场景,作为输入信息的场景。
优选地,在确定出输入信息的多个候选场景的情况下,所述确定单元从所述多个候选场景中选择场景得分与各候选场景的预定阈值之间的差最大的候选场景,作为输入信息的场景。
优选地,根据各场景下正例数据和负例数据在分类器模型的分数分布情况,依据准确率优先的准则来确定针对该场景的预定阈值,使得基于该预定阈值的场景识别结果的准确率大于或等于目标预设阈值。
优选地,所述回复获得单元通过进行基于与识别出的场景相关联的回复数据库的检索处理,来获得与输入信息匹配的回复。
优选地,所述回复数据库以将输入信息和针对该输入信息的回复相关联的方式管理回复,并且所述回复获得单元从所述回复数据中检索与用户输入的输入信息相关联的回复。
优选地,如果场景得分不满足预定条件,则所述回复获得单元利用seq2seq模型来生成与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
优选地,所述输入信息为用户输入的文本信息、通过转换用户输入的语音信息而生成的文本信息、通过转换用户输入的图片信息而生成的文本信息或通过将以上三种文本信息中的至少两种文本信息进行组合而成的文本信息。
本发明的第三方面提供一种人机交互中的信息处理装置,其包括接收用户的输入信息的接收单元、回复装置以及输出单元,所述回复装置包括:场景识别单元,利用预先训练的场景分类器识别输入信息的场景;以及回复获得单元,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复,其中,所述输出单元将回复获得单元获得的针对输入信息的回复,输出给用户。
优选地,所述场景识别单元包括:计算单元,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分;以及确定单元,将场景得分满足预定条件的场景确定为输入信息的场景。
本发明的第三方面提供一种计算机可读存储介质,其存储计算机程序,所述计算机程序在被处理器执行时,实现上述回复方法中包括的步骤。
根据本发明,采用文本分类器对用户聊天数据分场景识别(基于聊天用户一般所处的场景有:家庭、课堂、校园、医院等),当在某个场景上达到该场景分类器阈值时,触发该场景相关的主题引导,做出场景相关的聊天回复,避免生成式聊天在回复场景相关对话的无趣性,从而达到生动性回复的目的。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域或普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是例示本发明中的回复装置的硬件构造的图。
图2是例示根据本发明实施例的回复方法的流程图。
图3是例示根据本发明实施例的回复方法的场景识别步骤的流程图。
图4是例示根据本发明实施例的回复装置的模块结构的框图。
图5是例示本发明的回复方法的示例性显示画面。
具体实施方式
在下文中将参照附图详细地描述本发明的实施例。应当理解,下述实施例并不意图限制本发明,并且,关于根据本发明的解决问题的手段,并不一定需要根据下述实施例描述的各方面的全部组合。为简化起见,对相同的结构部分或者步骤,使用了相同的标记或标号,并且省略其说明。
[回复装置的硬件结构]
图1是示出本发明中的回复装置的硬件构造的图。在本实施例中,以智能电话作为回复装置的示例给出描述。但请注意,虽然在本实施例中例示了智能电话作为回复装置1000,但是显然不限于此,本发明的回复装置可以是移动终端(智能手机、智能手表、智能手环、音乐播放设备)、笔记本电脑、平板电脑、PDA(个人数字助理)、传真装置、打印机、或者是具有回复功能的互联网设备(例如数字照相机、电冰箱、电视机等)等各种装置。
首先,参照图1的框图描述回复装置1000(2000、3000)的硬件结构。此外,在本实施例中作为示例描述了以下构造,但是本发明的回复装置不限于图1所示的构造。
回复装置1000包括经由系统总线彼此连接的输入接口101、CPU 102、ROM 103、RAM105、存储装置106、输出接口104、通信单元107和短距离无线通信单元108和显示单元109。输入接口101是用于接收用户所输入的数据以及功能的执行指令的接口,并且是用于经由诸如麦克风、按键、按钮或触摸屏的操作单元(未示出)接收从用户输入的数据和操作指令的接口。请注意,稍后描述的显示单元109和操作单元可以至少部分地集成,并且,例如,可以是在同一画面中进行画面输出和接收用户操作的构造。
CPU 102是系统控制单元,并且总体上全面地控制回复装置1000。此外,例如,CPU102进行回复装置1000的显示单元109的显示控制。ROM 103存储CPU 102执行的诸如数据表和控制程序以及操作系统(OS)程序等的固定数据。在本实施例中,ROM 103中存储的各个控制程序,例如,在ROM 103中存储的OS的管理下,进行诸如调度、任务切换和中断处理等的软件执行控制。
RAM 105例如由需要备用电源的SRAM(静态随机存取存储器)、DRAM等构造。在这种情况下,RAM 105可以以非易失性方式存储诸如程序控制变量等的重要数据。此外,RAM 105用作CPU 102的工作存储器和主存储器。
存储装置106存储预先训练的模型(例如,词纠错模式、实体模型、Rank模型、语义模型等)、用于进行检索的数据库以及用于执行根据本发明的回复方法的应用程序等。请注意,这里的数据库也可以存储在诸如服务器的外部装置中。此外,存储装置106存储诸如用于经由通信单元107与通信装置(未示出)进行发送/接收的信息发送/接收控制程序等的各种程序,以及这些程序使用的各种信息。此外,存储装置106还存储回复装置1000的设置信息、回复装置1000的管理数据等。
输出接口104是用于对显示单元109进行控制以显示信息以及应用程序的显示画面的接口。显示单元109例如由LCD(液晶显示器)构造。通过在显示单元109上布置具有诸如数值输入键、模式设置键、决定键、取消键和电源键等的键的软键盘,可以接收经由显示单元109的来自用户的输入。
回复装置100经由通信单元107通过例如Wi-Fi(无线保真)或蓝牙等无线通信方法,与外部装置(未示出)执行数据通信。
此外,回复装置1000也可以经由短距离无线通信单元108,在短距离范围内与外部装置等进行无线连接并执行数据通信。并且短距离无线通信单元108通过与通信单元107不同的通信方法进行通信。例如,可以使用其通信范围比通信单元107的通信方法短的蓝牙低功耗(BLE)作为短距离无线通信单元108的通信方法。此外,作为短距离无线通信单元108的通信方法,例如,还可以使用NFC(近场通信)或Wi-Fi感知(Wi-Fi Aware)。
[根据本发明实施例的回复方法]
根据本发明的回复方法可以通过回复装置1000的CPU 102读取存储在ROM 103或存储装置106上的控制程序、或者经由通信单元107从通过网络与回复装置1000连接的网络服务器(未示出)而下载的控制程序来实现。
在进行根据本发明的回复方法之前,需要训练场景分类器并准备与各场景相关联的回复数据库。首先,针对各个场景构建正负例数据,使用常见的文本分类器做模型训练即可。其次,针对各场景,准备相关联的话题索引数据库(回复数据库),通过预先抓取样本、进行样本数据清洗、并按照分词后的索引倒排表存放,来构建回复数据库。该回复数据库以将输入信息(例如聊天问题)和针对该输入信息的回复相关联的方式(例如“聊天问题-回复”对),来管理回复数据。
接下来,结合图2至图4对根据本发明实施例的回复方法进行说明。
图2是例示根据本发明实施例的回复方法的流程图。如图2所示,首先,在场景识别步骤S101中,利用预先训练的场景分类器来识别输入信息的场景。识别算法可以任意选取常用于做文本分类的算法,例如:支持向量机、逻辑回归、决策树、神经网络等一系列类似算法。这里,用户输入的信息可以为用户输入的文本信息、通过转换用户输入的语音信息而生成的文本信息、通过转换用户输入的图片信息而生成的文本信息或通过将以上三种文本信息中的至少两种文本信息进行组合而成的文本信息,其中,可通过如下方法来转换用户输入的图片信息以生成的文本信息,例如,提取图片中的文字作为文本信息,或者通过基于图片进行意图识别来获得反映用户意图的文本信息。
接下来,在回复获得步骤S102中,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。具体地说,通过进行基于与识别出的场景相关联的回复数据库的检索处理,来获得与输入信息匹配的回复。并且当在步骤S101中识别为某场景时,根据用户的输入信息在该回复数据库内搜索对应的“聊天问题-回复”对,以获得相应的回复。
下面参照图3详细描述场景识别步骤S101。如图3所示,场景识别步骤S101包括计算子步骤S1011和确定子步骤S1012。
首先,在计算子步骤S1011中,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分。具体地说,各场景的场景识别分类器用户的输入信息进行预测打分,以获得该输入信息的场景得分,该场景得分可以表示输入信息属于该场景的可能性,分数越高,可能性越大。
例如,针对用户的输入信息“快上课了”,可以得到如下场景识别结果:“学校:0.96;医院:0.03;家庭:0.65”,该识别结果表示,对于输入信息“快上课了”,判断当前所处场景为“学校”的得分为0.96(可能性最大),判断当前所处场景为“医院”的得分为0.03(可能性最小),判断当前所处场景为“家庭”的得分为0.65(可能性居中)。类似地,针对输入信息“今天在学校被老师批评了”,可以得到如下场景识别结果:“学校:0.93;医院:0.12;家庭:0.18”;针对输入信息“好怕生病,打针吃药”,可以得到如下场景识别结果:“学校:0.05;医院:0.82;家庭:0.23”。
接下来,在确定子步骤S1012中,将场景得分满足预定条件的场景确定为输入信息的场景。具体地说,针对在步骤S1011中获得的各场景的场景得分,如果该得分满足预定条件(例如,得分大于或等于场景的预定阈值),则将该场景确定为输入信息的场景。例如,针对输入信息“快上课了”,得到场景识别结果:“学校:0.96;医院:0.03;家庭:0.65”,如果0.96大于或等于针对场景“学校”的预定阈值,则将场景“学校”确定为输入信息“快上课了”的场景。
另外,还存在识别出多个候选场景的情况,即,多个候选场景得分同时大于或等于各候选场景的预定阈值。例如,针对上述场景识别结果:“学校:0.96;医院:0.03;家庭:0.65”,可能存在如下情况:0.96大于或等于针对场景“学校”的预定阈值,0.65大于或等于针对场景“家庭”的预定阈值。在这种情况下,可采用如下处理方式:(1)从所述多个候选场景中随机选择一个候选场景,作为输入信息的场景;(2)从所述多个候选场景中选择场景得分最高的候选场景,作为输入信息的场景(3)从所述多个候选场景中选择场景得分与各候选场景的预定阈值之间的差最大的候选场景,作为输入信息的场景。
这里,每个分类器都有事先确定好的场景阈值(预定阈值),该阈值可通过如下方式确定:根据各场景下正例数据和负例数据在分类器模型的分数分布情况,依据准确率优先的准则来确定针对该场景的预定阈值,使得基于该预定阈值的场景识别结果的准确率大于或等于目标预设阈值,这里的目标预设阈值例如可以取99%。因此,根据实际情况,不同场景的预定阈值可以相同,也可以不同。
这里例示了场景得分与预定阈值之间的关系作为预定条件,当然,根据实际情况,也可以采用其他合适的预定条件来确定输入信息的场景。
另外,如果在步骤S1011中获得的场景得分不满足预定条件,则在回复获得步骤S102中,可以利用seq2seq等常见模型(通用模型)来生成与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。例如,针对输入信息“快上课了”,通用模型的输出结果为:“上课吧”,“好的”,“哈哈”。针对输入信息“今天在学校被老师批评了”,通用模型的输出结果为:“是吗”,“真的吗”,“哈哈哈”。针对输入信息“好怕生病,打针吃药”,通用模型的输出结果为:“怕什么”,“怕生病”,“知道了”。
表1例示了针对不同输入信息,分别通过常见模型以及本发明的基于场景识别的回复方法而获得的回复。
表1
上表展示了本发明与通用聊天系统在用户场景相关话题中的回复区别。图5也例示了本发明的回复方法的示例性显示画面。由此可见,本发明能明显提升聊天的趣味性以及聊天对话的回合数。
根据本发明实施例的回复方法,通过对用户输入的输入信息进行场景识别,并做出场景相关的聊天回复,能够避免生成式聊天在回复场景相关对话的无趣性,从而达到生动性回复的目的。
[根据本发明实施例的回复装置的模块结构]
图4是例示根据本发明实施例的回复装置的模块结构的框图。如图4所示,回复装置1000包括场景识别单元1101和回复获得单元1102。
具体地说,场景识别单元1101利用预先训练的场景分类器来识别输入信息的场景;回复获得单元1102基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。所述场景识别单元进一步包括:计算单元11011,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分;以及确定单元11012,将场景得分满足预定条件的场景确定为输入信息的场景。
图4中示出的回复装置的部分或全部功能单元可以由硬件(例如,嵌入式硬件)实现,或者部分或全部功能单元可以由软件(计算机程序)实现。
此外,本发明还提供了一种信息处理装置,其包括接收用户的输入信息的接收单元、上述回复装置以及将回复装置获得的针对输入信息的回复输出给用户输出单元。其中,接收单元可通过图1中的输入接口101实现,输出单元可通过图1中的输出接口104实现。
[其他实施方式]
通过使用相应的程序,能够通过个人计算机、微计算机、CPU(Central ProcessingUnit(中央处理单元))、处理器等实现上述实施方式中描述的各种功能、处理或方法。在本实施方式中,以下将个人计算机、微计算机、CPU(中央处理单元)、处理器等称作“计算机X”。另外,在本实施方式中,将用于控制计算机X的程序,即用于实现上述实施方式中描述的各种功能、处理或方法中的一者的程序称作“程序Y”。
通过执行程序Y的计算机X实现上述实施方式中描述的各种功能、过程或方法中的每一者。在这种情况下,程序Y经由计算机可读介质供给到计算机X。根据本实施方式的计算机可读存储介质包括硬盘设备、磁存储设备、光存储设备、磁光存储设备、存储卡、易失性存储器、非易失性存储器等中的至少一者。根据本实施方式的计算机可读存储介质是非暂时性存储介质。
以上虽然参照示例性实施例对本发明进行了描述,但是上述实施例只为说明本发明的技术构思及特点,并不能以此限制本发明的保护范围。凡根据本发明精神实质所做的任何等效变型或修改,都应涵盖在本发明的保护范围之内。
本发明还提供了:
A1.一种人机交互中的回复方法,所述回复方法包括:
场景识别步骤,利用预先训练的场景分类器识别输入信息的场景;以及
回复获得步骤,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
A2.根据A1所述的回复方法,其中,所述场景识别步骤包括:
计算子步骤,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分;以及
确定子步骤,将场景得分满足预定条件的场景确定为输入信息的场景。
A3.根据A2所述的回复方法,其中,在所述确定子步骤中,将场景得分大于或等于各场景的预定阈值的场景,确定为输入信息的场景。
A4.根据A2所述的回复方法,其中,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中随机选择一个候选场景,作为输入信息的场景。
A5.根据A2所述的回复方法,其中,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中选择场景得分最高的候选场景,作为输入信息的场景。
A6.根据A3所述的回复方法,其中,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中选择场景得分与各候选场景的预定阈值之间的差最大的候选场景,作为输入信息的场景。
A7.根据A3所述的回复方法,其中,
根据各场景下正例数据和负例数据在分类器模型的分数分布情况,依据准确率优先的准则来确定针对该场景的预定阈值,使得基于该预定阈值的场景识别结果的准确率大于或等于目标预设阈值。
A8.根据A1或A2所述的回复方法,其中,在所述回复获得步骤中,通过进行基于与识别出的场景相关联的回复数据库的检索处理,来获得与输入信息匹配的回复。
A9.根据A8所述的回复方法,其中,所述回复数据库以将输入信息和针对该输入信息的回复相关联的方式管理回复,并且在所述回复获得步骤中,从所述回复数据中检索与用户输入的输入信息相关联的回复。
A10.根据A2所述的回复方法,其中,如果在所述确定子步骤中场景得分不满足预定条件,则在所述回复获得步骤中,利用seq2seq模型来生成与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
A11.根据A1或A2所述的回复方法,所述输入信息为用户输入的文本信息、通过转换用户输入的语音信息而生成的文本信息、通过转换用户输入的图片信息而生成的文本信息或者通过将以上三种文本信息中的至少两种文本信息进行组合而成的文本信息。
B12.一种人机交互中的回复装置,所述回复装置包括:
场景识别单元,利用预先训练的场景分类器识别输入信息的场景;以及
回复获得单元,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
B13.根据B12所述的回复装置,其中,所述场景识别单元包括:
计算单元,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分;以及
确定单元,将场景得分满足预定条件的场景确定为输入信息的场景。
B14.根据B13所述的回复装置,其中,所述确定单元将场景得分大于或等于各场景的预定阈值的场景确定为输入信息的场景。
B15.根据B13所述的回复装置,其中,在确定出输入信息的多个候选场景的情况下,所述确定单元从所述多个场景中随机选择一个候选场景,作为输入信息的场景。
B16.根据B13所述的回复装置,其中,在确定出输入信息的多个候选场景的情况下,所述确定单元从所述多个候选场景中选择场景得分最高的候选场景,作为输入信息的场景。
B17.根据B14所述的回复装置,其中,在确定出输入信息的多个候选场景的情况下,所述确定单元从所述多个候选场景中选择场景得分与各候选场景的预定阈值之间的差最大的候选场景,作为输入信息的场景。
B18.根据B14所述的回复装置,其中,
根据各场景下正例数据和负例数据在分类器模型的分数分布情况,依据准确率优先的准则来确定针对该场景的预定阈值,使得基于该预定阈值的场景识别结果的准确率大于或等于目标预设阈值。
B19.根据B12或13所述的回复装置,其中,所述回复获得单元通过进行基于与识别出的场景相关联的回复数据库的检索处理,来获得与输入信息匹配的回复。
B20.根据B19所述的回复装置,其中,所述回复数据库以将输入信息和针对该输入信息的回复相关联的方式管理回复,并且所述回复获得单元从所述回复数据中检索与用户输入的输入信息相关联的回复。
B21.根据B13所述的回复装置,其中,如果场景得分不满足预定条件,则所述回复获得单元利用seq2seq模型来生成与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
B22.根据B12或13所述的回复装置,所述输入信息为用户输入的文本信息、通过转换用户输入的语音信息而生成的文本信息、通过转换用户输入的图片信息而生成的文本信息或通过将以上三种文本信息中的至少两种文本信息进行组合而成的文本信息。
C23.一种人机交互中的信息处理装置,其包括接收用户的输入信息的接收单元、回复装置以及输出单元,所述回复装置包括:
场景识别单元,利用预先训练的场景分类器识别输入信息的场景;以及
回复获得单元,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复,
其中,所述输出单元将回复获得单元获得的针对输入信息的回复,输出给用户。
C24.根据C23所述的信息处理装置,其中,所述场景识别单元包括:
计算单元,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分;以及
确定单元,将场景得分满足预定条件的场景确定为输入信息的场景。
D25.一种计算机可读存储介质,其存储计算机程序,所述计算机程序在被处理器执行时,实现根据A1至A11中任一项所述的回复方法中包括的步骤。
Claims (10)
1.一种人机交互中的回复方法,所述回复方法包括:
场景识别步骤,利用预先训练的场景分类器识别输入信息的场景;以及
回复获得步骤,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
2.根据权利要求1所述的回复方法,其中,所述场景识别步骤包括:
计算子步骤,利用各场景的场景分类器,来针对各场景计算输入信息的场景得分;以及
确定子步骤,将场景得分满足预定条件的场景确定为输入信息的场景。
3.根据权利要求2所述的回复方法,其中,在所述确定子步骤中,将场景得分大于或等于各场景的预定阈值的场景,确定为输入信息的场景。
4.根据权利要求2所述的回复方法,其中,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中随机选择一个候选场景,作为输入信息的场景。
5.根据权利要求2所述的回复方法,其中,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中选择场景得分最高的候选场景,作为输入信息的场景。
6.根据权利要求3所述的回复方法,其中,在所述确定子步骤中,在确定出输入信息的多个候选场景的情况下,从所述多个候选场景中选择场景得分与各候选场景的预定阈值之间的差最大的候选场景,作为输入信息的场景。
7.根据权利要求3所述的回复方法,其中,
根据各场景下正例数据和负例数据在分类器模型的分数分布情况,依据准确率优先的准则来确定针对该场景的预定阈值,使得基于该预定阈值的场景识别结果的准确率大于或等于目标预设阈值。
8.一种人机交互中的回复装置,所述回复装置包括:
场景识别单元,利用预先训练的场景分类器识别输入信息的场景;以及
回复获得单元,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复。
9.一种人机交互中的信息处理装置,其包括接收用户的输入信息的接收单元、回复装置以及输出单元,所述回复装置包括:
场景识别单元,利用预先训练的场景分类器识别输入信息的场景;以及
回复获得单元,基于识别出的场景来获得与输入信息匹配的回复,以作为待输出给用户的针对输入信息的回复,
其中,所述输出单元将回复获得单元获得的针对输入信息的回复,输出给用户。
10.一种计算机可读存储介质,其存储计算机程序,所述计算机程序在被处理器执行时,实现根据权利要求1至7中任一项所述的回复方法中包括的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910048418.2A CN109857849A (zh) | 2019-01-18 | 2019-01-18 | 回复方法、回复装置、信息处理装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910048418.2A CN109857849A (zh) | 2019-01-18 | 2019-01-18 | 回复方法、回复装置、信息处理装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109857849A true CN109857849A (zh) | 2019-06-07 |
Family
ID=66895209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910048418.2A Pending CN109857849A (zh) | 2019-01-18 | 2019-01-18 | 回复方法、回复装置、信息处理装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109857849A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649410A (zh) * | 2015-11-04 | 2017-05-10 | 陈包容 | 一种获取聊天回复内容的方法及装置 |
US20170249504A1 (en) * | 2016-02-29 | 2017-08-31 | Toyota Jidosha Kabushiki Kaisha | Autonomous Human-Centric Place Recognition |
CN107329995A (zh) * | 2017-06-08 | 2017-11-07 | 北京神州泰岳软件股份有限公司 | 一种语义受控的答案生成方法、装置及系统 |
CN107463700A (zh) * | 2017-08-15 | 2017-12-12 | 北京百度网讯科技有限公司 | 用于获取信息的方法、装置及设备 |
CN107480690A (zh) * | 2017-07-04 | 2017-12-15 | 中国科学院计算技术研究所 | 一种基于支持向量机的包含未知类别的多分类方法 |
-
2019
- 2019-01-18 CN CN201910048418.2A patent/CN109857849A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649410A (zh) * | 2015-11-04 | 2017-05-10 | 陈包容 | 一种获取聊天回复内容的方法及装置 |
US20170249504A1 (en) * | 2016-02-29 | 2017-08-31 | Toyota Jidosha Kabushiki Kaisha | Autonomous Human-Centric Place Recognition |
CN107329995A (zh) * | 2017-06-08 | 2017-11-07 | 北京神州泰岳软件股份有限公司 | 一种语义受控的答案生成方法、装置及系统 |
CN107480690A (zh) * | 2017-07-04 | 2017-12-15 | 中国科学院计算技术研究所 | 一种基于支持向量机的包含未知类别的多分类方法 |
CN107463700A (zh) * | 2017-08-15 | 2017-12-12 | 北京百度网讯科技有限公司 | 用于获取信息的方法、装置及设备 |
Non-Patent Citations (1)
Title |
---|
孙少乙等: "一种SVM多分类算法", 《微型机与应用》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104813311B (zh) | 用于多人的虚拟代理推荐的系统和方法 | |
US11217244B2 (en) | System for processing user voice utterance and method for operating same | |
CN107301213A (zh) | 智能问答方法及装置 | |
CN107870974A (zh) | 使用设备上模型的智能回复 | |
CN107995370B (zh) | 通话控制方法、装置及存储介质和移动终端 | |
US20180359197A1 (en) | Automatic reply method, device, apparatus, and storage medium | |
CN108021572B (zh) | 回复信息推荐方法和装置 | |
CN108701128A (zh) | 解释和解析条件自然语言查询 | |
CN108293079A (zh) | 针对电话的跨设备伙伴应用 | |
CN109635098B (zh) | 一种智能问答方法、装置、设备及介质 | |
CN108735204A (zh) | 用于执行与用户话语相对应的任务的设备 | |
CN109981910A (zh) | 业务推荐方法及设备 | |
CN107911491A (zh) | 信息推荐方法、装置及存储介质、服务器和移动终端 | |
CN110084056A (zh) | 在个人设备上显示隐私信息 | |
CN105917405B (zh) | 外源性大词汇量模型到基于规则的语音识别的合并 | |
CN110073349A (zh) | 考虑频率和格式化信息的词序建议 | |
CN109643540A (zh) | 用于人工智能语音演进的系统和方法 | |
CN107767205A (zh) | 评价信息的展示系统、方法、客户端及处理方法、服务器 | |
CN111651571A (zh) | 基于人机协同的会话实现方法、装置、设备及存储介质 | |
US20230035366A1 (en) | Image classification model training method and apparatus, computer device, and storage medium | |
KR20190127372A (ko) | 전자 장치 및 전자 장치의 기능 실행 방법 | |
CN110113492A (zh) | 基于通知信息的信息显示方法及装置 | |
CN112434501A (zh) | 工单智能生成的方法、装置、电子设备及介质 | |
US20200175985A1 (en) | Electronic device and method of controlling thereof | |
CN109783677A (zh) | 回复方法、回复装置、电子设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200724 Address after: 518000 Nanshan District science and technology zone, Guangdong, Zhejiang Province, science and technology in the Tencent Building on the 1st floor of the 35 layer Applicant after: TENCENT TECHNOLOGY (SHENZHEN) Co.,Ltd. Address before: 100029, Beijing, Chaoyang District new East Street, building No. 2, -3 to 25, 101, 8, 804 rooms Applicant before: Tricorn (Beijing) Technology Co.,Ltd. |
|
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190607 |