CN110364152B - 语音交互方法、设备及计算机可读存储介质 - Google Patents

语音交互方法、设备及计算机可读存储介质 Download PDF

Info

Publication number
CN110364152B
CN110364152B CN201910679777.8A CN201910679777A CN110364152B CN 110364152 B CN110364152 B CN 110364152B CN 201910679777 A CN201910679777 A CN 201910679777A CN 110364152 B CN110364152 B CN 110364152B
Authority
CN
China
Prior art keywords
information
voice
user
text
voice interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910679777.8A
Other languages
English (en)
Other versions
CN110364152A (zh
Inventor
阿德旺
金大鹏
殷燕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zhihuilin Network Technology Co ltd
Original Assignee
Shenzhen Zhihuilin Network Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zhihuilin Network Technology Co ltd filed Critical Shenzhen Zhihuilin Network Technology Co ltd
Priority to CN201910679777.8A priority Critical patent/CN110364152B/zh
Publication of CN110364152A publication Critical patent/CN110364152A/zh
Application granted granted Critical
Publication of CN110364152B publication Critical patent/CN110364152B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开一种语音交互方法、设备及计算机可读存储介质。其中,所述语音交互方法包括以下步骤:接收用户当前发出的语音信息;确定所述用户的历史语音信息;从所述历史语音信息中提取与所述语音信息关联的信息;根据所述关联的信息和所述语音信息输出应答信息。本发明实施例中可以结合之前的应答场景的语音信息来做出当前的应答信息,使得应答信息准确、合理。

Description

语音交互方法、设备及计算机可读存储介质
技术领域
本发明涉及人工智能的技术领域,特别涉及一种语音交互方法、设备及计算机可读存储介质。
背景技术
语音交互是基于语音输入的交互方式,通过对话可以得到相应的反馈,并且广泛运用在各个领域。目前,相关技术所给出的语音交互的方式为:通过语音输入,在数据库中寻找相应的问答,并反馈给用户,实现交互。但是,上述这种一问一答的方式是已经在系统预设好的,回答过于刻板,不会针对上下文及用户的个人信息情况针对性的回答,使用范围有限,用户在使用时也极为不便。
发明内容
本发明的主要目的是提供一种语音交互方法、设备及计算机可读存储介质,旨在提供一种能够针对用户及上下文进行语音交互的方法。
为实现上述目的,本发明提出的一种语音交互方法,所述语音交互方法包括以下步骤:
接收用户当前发出的语音信息;
确定所述用户的历史语音信息;
从所述历史语音信息中提取与所述语音信息关联的信息;
根据所述关联的信息和所述语音信息输出应答信息。
可选地,所述语音交互方法还包括:
在未提取到关联的信息时,根据所述用户当前发出的语音信息的内容输出应答信息;
在提取到关联的信息时,执行根据所述关联的信息和所述语音信息输出应答信息的步骤。
可选地,所述从所述历史语音信息提取与所述语音信息关联的信息的步骤包括:
确定所述语音信息对应的文本信息,并从所述文本信息中获取关键词;
从所述历史语音信息中提取与所述文本信息关联的信息。
可选地,所述从所述文本信息中获取关键词的步骤包括:
对文本信息进行分词操作,得到词序列;
获取所述词序列中的词对应的同义词;
根据所述词序列中的词及其对应的同义词生成所述关键词。
可选地,所述根据所述关联的信息和所述语音信息输出应答信息的步骤包括:
根据所述关联的信息和所述文本信息生成对应的应答文本;
将所述应答文本转换成语音得到应答信息。
可选地,所述根据所述关联的信息和所述文本信息生成对应的应答文本的步骤包括:
当所述关联的信息的数量为一个时,根据所述关联的信息和所述文本信息生成对应的应答文本;
当所述关联的信息的数量为多个时,将多个所述关联的信息依据时间进行分析得到序列信息,根据所述序列信息和所述文本信息生成对应的应答文本。
可选地,所述确定所述历史语音信息的步骤包括:
根据用户的信息在云端调取所述历史语音信息。
可选地,所述根据用户的信息在云端调取所述历史语音信息的步骤包括:
将用户输入的用户名和密码作为用户的信息,从云端调取所述历史语音信息;
或,将用户的声纹作为用户的信息,从云端调取所述历史语音信息。
本发明还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有所述语音交互程序,所述语音交互程序被处理器执行时实现所述语音交互方法。
本发明还提供了一种语音交互设备,所述语音交互设备包括存储器、处理器及存储在存储器上并可在处理器上运行的语音交互程序,所述处理器执行所述语音交互程序时实现所述语音交互方法。
本发明技术方案通过调取用户的历史语音信息,用户在进行语音交互时,不再只限于一问一答,系统在回复时,会结合之前的应答场景的语音信息来做出当前的应答信息,回答准确、合理,用户在进行语音对话时的体验更好。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1为本发明语音交互方法一实施例的流程示意图;
图2为图1中S30的细化流程示意图;
图3为图1中S40的细化流程示意图;
图4为图3中S41的细化流程示意图;
图5为图2中S32的细化流程示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
本发明提出一种语音交互方法,通过调取用户的历史语音信息,用户在进行语音交互时,不再只限于一问一答,系统在回复时,会结合之前的应答场景的语音信息来做出当前的应答信息,回答准确、合理,用户在进行语音对话时的体验更好。
为了更好的理解上述技术方案,下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
参照图1,本发明提出的一种语音交互方法,语音交互方法包括以下步骤:
S10,接收用户当前发出的语音信息;
本发明的一实施例中,该语音交互方法是运用在看护机器人的语音交互中的,在与看护机器人进行语音对话的时候,通过麦克风接收用户的语音,并且,为了使用户所发出语音信息清楚,还需进行降噪处理。
S20,确定用户的历史语音信息;
本发明一实施例中,所述确定历史语音信息的步骤包括:
根据用户的信息在云端调取历史语音信息。
具体地,根据用户的信息在云端调取历史语音信息的步骤包括:
将用户输入的用户名和密码作为用户的信息,从云端调取历史语音信息;
用户输入用户名和密码后,云端接收到该数据,从而调取该用户的历史语音信息,以供使用。
或,将用户的声纹作为用户的信息,从云端调取历史语音信息。
即,通过在对话过程中,从云端调取用户的历史语音信息,用户不用实际操作,使用方便。
这样,准确验证正在使用的用户,以便调取用户的历史语音信息。
即,将历史语音信息存储在云端,这样,用户在任意位置或任意设备上进行语音对话时,均可进行与用户关联的对话,用户的历史语音信息也不易丢失。
调取用户的历史语音信息,即,调取用户在此次发出的语音信息之前的语音信息,历史语音信息根据存储技术而设定相应的存储时间或设定相应的存储内容。
由于实际技术的限制,上述历史语音信息可设定为一个月内用户交互时所发出的所有语音信息,当然,在本发明一实施例中,是通过设定历史语音信息存储的内容来相应减小存储空间,即,本实施例中,所需要存储的语音信息为:
与时间相关联的语音信息,即用户在什么时段做什么,如“我明天下午3点开会”、“我明天开会结束后要见客户”。并且,当该语音信息中的时间结束后,系统会进行提示并删除,以减小存储空间;
与人物地点相关联的语音信息,即与用户关联的地点,如“我的家在xxx”;或者“我哥哥住在xxx”;
与情感相关联的语音信息,即用户在对话中所表达的情绪,对情感进行记录,以便及时反馈给相关人员进行处理,如“我很伤心”。
这样,根据需要,可相应的增加所需存储的内容,如用户的个人健康情况,即,当用户在语音交互说要吃什么的时候,可根据用户的病情进行分析回答,还可相应增加用户的开销、用户的成长情况,当然,在理论状况不考虑成本的情况下,用户的所有内容均可存储在历史语音信息中不作删除。
S30,从历史语音信息中提取与语音信息关联的信息;
在历史语音信息中找到与当前发出的语音信息相关联的信息,本发明一实施例中,与当前发出的语音信息相关联的信息为时间相关联,如,当前的语音信息为“我今天下午3点想去吃饭”,如果用户在前一天发出的语音信息为“我明天下午3点要开会”,该历史语音信息即为关联的信息。
S40,根据关联的信息和语音信息输出应答信息。
即,在当前语音信息的基础上,结合之前所发出的语音信息,也就是历史语音信息,综合进行分析,从而得到用户所需的应答信息,在进行分析时,会将当前语音信息和关联的信息进行对比,判断是否矛盾,从而做出回答,如,当前的语音信息为“我今天下午3点想去吃饭”,如果用户在前一天发出的语音信息为“我明天下午3点要开会”,应答信息则为“你今天下午3点还需要开会”,而不是“你想吃什么”。
当当前语音信息和关联的信息不矛盾时,在分析时,会将关联的信息作为基础,类比到当前的语音信息中,从而做出回答,如当前的语音信息为“我要回家”,关联的信息为“我的家在xxx”,在分析时,会将“xxx”作为我想去的地方,应答信息则会指出怎么去xxx。
这样,通过调取用户的历史语音信息,用户在进行语音交互时,不再只限于一问一答,系统在回复时,会结合用户之前的应答场景的语音信息来做出当前的应答信息,应答信息更具针对性,回答准确、合理,并且更加智能化,用户在进行语音对话时的体验更好。
此外,该语音交互方法还包括:
在未提取到关联的信息时,根据用户当前发出的语音信息的内容输出应答信息;
在从历史语音信息中寻找相应的关联的信息时,也会存在与当前语音信息没有关联的信息,这时,仅根据用户当前发出的语音信息进行回复即可,如,当前的语音信息为“我今天下午3点想去吃饭”,当没有找寻到关联的信息时,则会回答“你想吃什么”。
在提取到关联的信息时,执行根据关联的信息和语音信息输出应答信息的步骤。
这样,在进行回复时不会出现无处可答的情况,即在任意情况下,系统均会进行相应的回复,以提高语音交互体验。
参考图2,所述从历史语音信息提取与语音信息关联的信息的步骤包括:
S31,确定语音信息对应的文本信息,并从文本信息中获取关键词;
即,从文本信息中获取主语、人物、时间、地点、动作等关键词,如,在“我今天下午3点想去吃饭”一句中,关键词即为“我”、“今天下午3点”、“吃饭”。
S32,从历史语音信息中提取与文本信息关联的信息。
在历史语音信息中如果存在相同的主语、人物、时间、地点、动作等关键词,即可作为关联的信息,如,在前一天发出的“我明天下午3点要开会”与“我今天下午3点想去吃饭”中,同样存在的关键词为“我”、“今天下午3点”,“我明天下午3点要开会”则会作为关联的信息。
通过摘取关键词,在进行分析应答时,运算更加快速,且容易在历史语音信息中找到相应的关联的信息。
具体地,从文本信息中获取关键词的步骤包括:
对文本信息进行分词操作,得到词序列;
即,将文本信息拆分为单个词,如,“我今天下午3点想去吃饭”中次序列即为“我”、“今天下午3点”“吃饭”。
获取词序列中的词对应的同义词;
即使词句不同,意义也是相同,如,“我”也可以是“俺/咱”。
根据词序列中的词及其对应的同义词生成关键词。
即,将所有的同义词和次序列中的词作为关键词,再从历史语音信息中提取与文本信息关联的信息,更加全面,不易遗漏。
参考图3,所述根据关联的信息和语音信息输出应答信息的步骤包括:
S41,根据关联的信息和文本信息生成对应的应答文本;
为了使系统做出最快的反应,一般首先生产文本,在上述中,当前语音信息的文本信息为“我今天下午3点想去吃饭”,关联的信息为“我明天下午3点要开会”,在分析时,“我”,“今天下午3点”,主语以及时间相同,但是“吃饭”和“开会”,动作不同,系统判定冲突,则会提醒,作为对应的应答文本。
S42,将应答文本转换成语音得到应答信息。
生成应答文本后,为了输出,还需将应答文本转换成语音,本发明一实施例中,看护机器人通过喇叭等设备进行输出,以便于交互,提高交互体验。
上述在分析生成应答文本时,是会根据当前语音信息和关联的信息发出的时间进行相应的回答,即,由于当前语音信息为“吃饭”而之前为“开会”,系统会回答“你今天下午3点还需要开会”;但是,当当前语音信息为“开会”,而之前为“吃饭”,则会回答“你今天下午3点还需要吃饭”。
另外,参考图4,所述根据关联的信息和文本信息生成对应的应答文本的步骤包括:
S411,当关联的信息的数量为一个时,根据关联的信息和文本信息生成对应的应答文本;
在历史语音信息中所搜寻到的关联的信息仅为一个时,则直接如上述生成对应的应答文本。
S412,当关联的信息的数量为多个时,将多个关联的信息依据时间进行分析得到序列信息,根据序列信息和文本信息生成对应的应答文本。
序列信息是通过多个关联的信息分析后得到的信息,同样为一文本,得到的应答文本也是一个,即,之前有多个与当前语音信息相关联的信息时,需要通过排序进行分析回答,当多个关联的信息之间出现矛盾时,以最后的关联的信息为主作为序列信息;当多个关联的信息之间无矛盾时,将多个关联的信息依据时间类比整合得到序列信息。
如,当前语音信息为“我今天下午3点想去吃饭”,历史语音信息中“我明天下午3点开会”和“我明天下午3点不开会了”均为关联的信息,二者出现矛盾,这时,在进行分析时,需要进行排序,若“我明天下午3点开会”在前,序列信息则为“我明天下午3点不开会了”,此时,结合当前的语音信息“我今天下午3点想去吃饭”,对应的应答文本为“你想吃什么”;但是,若“我明天下午3点不开会了”在前,得到的序列信息为“我明天下午3点开会”,此时则会回答“你今天下午3点还需要开会”。
此外,本发明的一实施例中,参考图5,所述从历史语音信息中提取与文本信息关联的信息的步骤包括:
S321,从历史语音信息中提取与文本信息关联的主要关联信息;
即,直接通过文本信息获取的关联信息即为主要关联信息,如当前为“我今天下午3点想去吃饭”,前一天发出的主要关联信息为“我明天2点到3点开会”。
S322,根据所述主要关联信息,从历史语音信息中提取与主要关联信息关联的次要关联信息;
通过文本信息间接获取的即为次要关联信息,前一天发出的主要关联信息为“我明天2点到3点开会”,根据关键词“我”、“明天”、“开会”,次要关联信息为“我明天开会结束后要见客户”。
S323,将主要关联信息和次要关联信息作为关联的信息。
次要关联信息的时间位于主要关联信息与当前语音信息之间,主要关联信息和次要关联信息均作为关联的信息,此时即为多个关联的信息,且此时为多个关联的信息不存在矛盾的情况,在依据时间排序后,分析得到序列信息为“我明天3点后要见客户”此时,对应的应答文本为“你今天下午3点还需要见客户”。
当然,根据需要,还可从历史语音信息提取与次要关联信息相关联的信息作为关联的信息,以此类推,不再赘述。
本发明还提出了一种计算机可读存储介质,计算机可读存储介质存储有上述语音交互程序,语音交互程序被处理器执行时实现如上述语音交互方法。
本发明的计算机可读存储介质的具体实施例与上述语音交互方法的实施例基本相同,不再赘述。
本发明还提出了一种语音交互设备,语音交互设备包括存储器、处理器及存储在存储器上并可在处理器上运行的语音交互程序,处理器执行语音交互程序时实现上述语音交互方法。
本发明一实施例中,该设备为看护机器人,设置在公共区域,通过用户的信息调出与用户相关的的历史语音信息,以便于针对用户进行相关对话,当然,该设备也可以是手机等移动设备,本发明的语音交互设备的具体实施例与上述语音交互方法的实施例基本相同,不再赘述。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法的流程图来描述的。应理解可由计算机程序指令实现流程图中的每一流程以及流程图中的流程的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程中指定的功能的步骤。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (7)

1.一种语音交互方法,其特征在于,所述语音交互方法包括以下步骤:
接收用户当前发出的语音信息;
确定所述用户的历史语音信息,所述历史语音信息根据存储技术而设定相应的存储时间或设定相应的存储内容;
确定所述语音信息对应的文本信息,并从所述文本信息中获取关键词;
从所述历史语音信息中提取与所述文本信息关联的信息;
当所述关联的信息的数量为一个时,根据所述关联的信息和所述文本信息生成对应的应答文本;
当所述关联的信息的数量为多个时,当多个关联的信息之间出现矛盾时,以最后的关联的信息为主作为序列信息,当多个关联的信息之间无矛盾时,将多个关联的信息依据时间排序并类比整合得到序列信息;
根据所述序列信息和所述文本信息生成对应的应答文本;及
将所述应答文本转换成语音得到应答信息。
2.如权利要求1所述的语音交互方法,其特征在于,所述语音交互方法还包括:
在未提取到关联的信息时,根据所述用户当前发出的语音信息的内容输出应答信息;
在提取到关联的信息时,执行根据所述关联的信息和所述语音信息输出应答信息的步骤。
3.如权利要求1所述的语音交互方法,其特征在于,所述从所述文本信息中获取关键词的步骤包括:
对文本信息进行分词操作,得到词序列;
获取所述词序列中的词对应的同义词;及
根据所述词序列中的词及其对应的同义词生成所述关键词。
4.如权利要求1至3任意一项所述的语音交互方法,其特征在于,所述确定所述历史语音信息的步骤包括:
根据用户的信息在云端调取所述历史语音信息。
5.如权利要求4所述的语音交互方法,其特征在于,所述根据用户的信息在云端调取所述历史语音信息的步骤包括:
将用户输入的用户名和密码作为用户的信息,从云端调取所述历史语音信息;
或,将用户的声纹作为用户的信息,从云端调取所述历史语音信息。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有语音交互程序,所述语音交互程序被处理器执行时实现权利要求1至5中任意一项所述的语音交互方法。
7.一种语音交互设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的语音交互程序,所述处理器执行所述语音交互程序时实现权利要求1至5任一所述的语音交互方法。
CN201910679777.8A 2019-07-25 2019-07-25 语音交互方法、设备及计算机可读存储介质 Active CN110364152B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910679777.8A CN110364152B (zh) 2019-07-25 2019-07-25 语音交互方法、设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910679777.8A CN110364152B (zh) 2019-07-25 2019-07-25 语音交互方法、设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110364152A CN110364152A (zh) 2019-10-22
CN110364152B true CN110364152B (zh) 2022-04-01

Family

ID=68222434

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910679777.8A Active CN110364152B (zh) 2019-07-25 2019-07-25 语音交互方法、设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110364152B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1573924A (zh) * 2003-06-20 2005-02-02 PtoPA株式会社 语音识别设备、语音识别方法、会话控制设备以及会话控制方法
CN104679472A (zh) * 2015-02-13 2015-06-03 百度在线网络技术(北京)有限公司 人机语音交互方法和装置
EP2916275A1 (en) * 2014-03-06 2015-09-09 Clarion Co., Ltd. Interaction history management device, interaction device and interaction history management method
CN105931638A (zh) * 2016-04-26 2016-09-07 北京光年无限科技有限公司 面向智能机器人的对话系统数据处理方法及装置
CN107203265A (zh) * 2017-05-17 2017-09-26 广东美的制冷设备有限公司 信息交互方法和装置
CN107493353A (zh) * 2017-10-11 2017-12-19 宁波感微知著机器人科技有限公司 一种基于上下文信息的智能机器人云计算方法
CN108255934A (zh) * 2017-12-07 2018-07-06 北京奇艺世纪科技有限公司 一种语音控制方法及装置
US10018977B2 (en) * 2015-10-05 2018-07-10 Savant Systems, Llc History-based key phrase suggestions for voice control of a home automation system
CN109032731A (zh) * 2018-07-09 2018-12-18 西安电子科技大学 一种面向操作系统的基于语义理解的语音互动方法及系统
CN110019683A (zh) * 2017-12-29 2019-07-16 同方威视技术股份有限公司 智能语音交互机器人及其语音交互方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1573924A (zh) * 2003-06-20 2005-02-02 PtoPA株式会社 语音识别设备、语音识别方法、会话控制设备以及会话控制方法
EP2916275A1 (en) * 2014-03-06 2015-09-09 Clarion Co., Ltd. Interaction history management device, interaction device and interaction history management method
CN104679472A (zh) * 2015-02-13 2015-06-03 百度在线网络技术(北京)有限公司 人机语音交互方法和装置
US10018977B2 (en) * 2015-10-05 2018-07-10 Savant Systems, Llc History-based key phrase suggestions for voice control of a home automation system
CN105931638A (zh) * 2016-04-26 2016-09-07 北京光年无限科技有限公司 面向智能机器人的对话系统数据处理方法及装置
CN107203265A (zh) * 2017-05-17 2017-09-26 广东美的制冷设备有限公司 信息交互方法和装置
CN107493353A (zh) * 2017-10-11 2017-12-19 宁波感微知著机器人科技有限公司 一种基于上下文信息的智能机器人云计算方法
CN108255934A (zh) * 2017-12-07 2018-07-06 北京奇艺世纪科技有限公司 一种语音控制方法及装置
CN110019683A (zh) * 2017-12-29 2019-07-16 同方威视技术股份有限公司 智能语音交互机器人及其语音交互方法
CN109032731A (zh) * 2018-07-09 2018-12-18 西安电子科技大学 一种面向操作系统的基于语义理解的语音互动方法及系统

Also Published As

Publication number Publication date
CN110364152A (zh) 2019-10-22

Similar Documents

Publication Publication Date Title
CN108664472B (zh) 自然语言处理方法、装置及其设备
CN110335595A (zh) 基于语音识别的插问对话方法、装置及存储介质
CN109145123A (zh) 知识图谱模型的构建方法、智能交互方法、系统及电子设备
US20140081643A1 (en) System and method for determining expertise through speech analytics
WO2020253064A1 (zh) 语音的识别方法及装置、计算机设备、存储介质
US20200066259A1 (en) Intelligence-driven virtual assistant for automated idea documentation
CN110970021A (zh) 一种问答控制方法、装置及系统
US11869675B2 (en) Provider determination system, methods for determining providers within a provider network, and methods for providing information related to providers to a user
CN116595148B (zh) 一种利用大型语言模型实现对话流程的方法及系统
CN109271503A (zh) 智能问答方法、装置、设备及存储介质
TWI674517B (zh) 資訊交互的方法及裝置
CN112199486A (zh) 一种办公场景的任务型多轮对话方法及系统
CN117151662A (zh) 基于ai的岗位信息处理方法、装置、设备及存储介质
CN117455430B (zh) 基于ai的简历信息处理方法、装置、设备及存储介质
CN111767386B (zh) 对话处理方法、装置、电子设备及计算机可读存储介质
CN110364152B (zh) 语音交互方法、设备及计算机可读存储介质
US11210462B1 (en) Voice input processing
CN111243587A (zh) 语音交互方法、装置、设备及存储介质
CN110442694A (zh) 一种智能交互平台训练方法、装置、设备
US10885129B2 (en) Using frames for action dialogs
KR102306953B1 (ko) 음성인식 기반 진료 지원 방법
CN113901192A (zh) 一种对话节点参数预填充的对话方法、装置、设备和介质
CN108520745B (zh) 设备画像信息的操作方法及装置
CN112182147A (zh) 一种可扩展的智能问答方法及系统
Zhang et al. A framework of context-aware mobile learning system for professionals

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant