CN114495900A - 智能交互方法、装置、电子设备及可读存储介质 - Google Patents

智能交互方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN114495900A
CN114495900A CN202111668025.5A CN202111668025A CN114495900A CN 114495900 A CN114495900 A CN 114495900A CN 202111668025 A CN202111668025 A CN 202111668025A CN 114495900 A CN114495900 A CN 114495900A
Authority
CN
China
Prior art keywords
interactive data
natural language
data
intelligent
interactive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111668025.5A
Other languages
English (en)
Inventor
牛正雨
吴华
王海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202111668025.5A priority Critical patent/CN114495900A/zh
Publication of CN114495900A publication Critical patent/CN114495900A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种智能交互方法、装置、电子设备及可读存储介质,计算机技术领域,具体地,涉及人机交互领域。具体实现方案为:获取对象与智能交互设备的交互数据,确定交互数据的所属类型,响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息,根据自然语言文本信息,生成对应的第一回复语句。本申请实现了根据非自然语言交互数据生成智能交互设备的回复语句,提高了智能交互设备的智能化程度,同时提升了用户使用智能交互设备时的用户体验。

Description

智能交互方法、装置、电子设备及可读存储介质
技术领域
本申请涉及计算机技术领域,具体地,涉及人机交互领域,尤其涉及一种智能交互方法、装置、电子设备及可读存储介质。
背景技术
相关技术中,智能系统可部署于多个终端,不同的终端可包括智能音箱、车载交互系统,智能健康设备等。用户与智能交互设备间进行交互,能够产生语音交互数据和非自然语言交互数据。而对于非自然语言交互数据,智能交互设备的交互性较差。
发明内容
本申请提供了一种智能交互方法、装置、电子设备及可读存储介质。
根据本申请的第一方面,提供了一种智能交互方法,包括:
获取对象与智能交互设备的交互数据;
确定所述交互数据的所属类型;
响应于所述交互数据的所属类型为非自然语言交互数据类型,基于所述交互数据生成对应的自然语言文本信息;
根据所述自然语言文本信息,生成对应的第一回复语句。
根据本申请的第二方面,提供了一种智能交互装置,包括:
获取模块,用于获取对象与智能交互设备的交互数据;
确定模块,用于确定所述交互数据的所属类型;
第一生成模块,用于响应于所述交互数据的所属类型为非自然语言交互数据类型,基于所述交互数据生成对应的自然语言文本信息;
第二生成模块,用于根据所述自然语言文本信息,生成对应的第一回复语句。
根据本申请的第三方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面所述的方法。
根据本申请的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行第一方面所述的方法。
根据本申请的第五方面,提供了一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如第一方面所述的智能交互方法的步骤。
根据本申请的技术方案,基于非自然语言交互数据生成对应的自然语言文本信息,根据自然语言文本信息,生成对应的第一回复语句,从而实现了根据非自然语言交互数据生成智能交互设备的回复语句,提高了智能交互设备的智能化程度,提升了用户使用智能交互设备时的用户体验。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是根据本申请第三实施例的示意图;
图4是根据本申请第四实施例的示意图;
图5是根据本申请第五实施例的示意图;
图6是根据本申请第六实施例的示意图;
图7是根据本申请第七实施例的示意图;
图8是根据本申请第八实施例的示意图;
图9是根据本申请第九实施例的示意图;
图10是根据本申请第十实施例的示意图;
图11是根据本申请第十一实施例的示意图;
图12是根据本申请第十二实施例的示意图;
图13是根据本申请第十三实施例的示意图;
图14是用来实现本申请实施例的智能交互的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
相关技术中,智能系统可部署于多个终端,不同的终端可包括智能音箱、车载交互系统,智能健康设备等。用户与智能交互设备间进行交互,能够产生语音交互数据和非自然语言交互数据。而对于非自然语言交互数据,智能交互设备的交互性较差。
基于上述问题,本申请提出了一种智能交互方法、装置、电子设备及可读存储介质,可以实现基于非自然语言交互数据生成对应的自然语言文本信息,根据自然语言文本信息,生成对应的第一回复语句,从而实现了根据非自然语言交互数据生成智能交互设备的回复语句,提高了智能交互设备的智能化程度,提升了用户使用智能交互设备时的用户体验。
图1是根据本申请第一实施例的示意图,需要说明的是,本申请实施例中的智能交互方法可用于本申请实施例中的智能交互装置,该装置可配置于电子设备。如图1所示,智能交互方法包括以下步骤:
步骤101,获取对象与智能交互设备的交互数据。
需要说明的是,上述对象可以是智能音箱、智能穿戴设备、智能检测设备等智能交互设备,还可以是使用上述智能交互设备的用户。上述智能交互设备可以是智能音箱、智能穿戴设备、智能检测设备等。上述交互数据可以是智能穿戴设备或智能检测设备获取到的用户生理参数数据,还可以是用户与上述智能交互设备进行直接交互得到的交互数据。
作为一种可能的示例,对象与智能交互设备之间交互所产生的交互数据,服务器获取上述交互数据获取。
步骤102,确定交互数据的所属类型。
作为一种可能的示例,服务器根据交互数据,确定交互数据的类型。上述所属类型可以是非自然语言交互数据类型。
步骤103,响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息。
可以理解的是,交互数据的所属类型可以有多种,不同类型的交互数据需要通过不同的处理方式转换成自然语言文本。因此,需要确定交互数据的所属类型,根据交互数据的所属类型确定与交互数据匹配的处理方式。
需要说明的是,上述非自然语言交互数据类型的交互数据,可以是用户与智能交互设备进行交互过程中产生的非自然语言形式的交互数据。例如,非自然语言交互数据类型的交互数据可以是智能检测设备对用户的生理状态进行检测所获得的生理参数数据。
举例来说,非自然语言交互类型的交互数据,可以是智能血压仪对用户的血压进行检测,得到用户的血压值;还可以是智能体脂秤对用户的体重、体脂进行检测,得到用户的体重数据和体脂数据。
作为一种可能的示例,响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息。
步骤104,根据自然语言文本信息,生成对应的第一回复语句。
作为一种可能的示例,根据自然语言文本信息,生成与根据自然语言文本信息对应的第一回复语句,以使控制智能交互设备基于第一回复语句与用户进行交互。
根据本申请实施例的智能交互方法,获取对象与智能交互设备的交互数据,确定交互数据的所属类型,响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息,根据自然语言文本信息,生成对应的第一回复语句,从而实现了根据非自然语言交互数据生成智能交互设备的回复语句,提高了智能交互设备的智能化程度,同时提升了用户使用智能交互设备时的用户体验。
为了保证能够基于非自然语言交互数据生成回复语句,可选地,基于知识库对交互数据进行分析,根据分析结果获得自然语言文本信息。图2是根据本申请第二实施例的示意图。需要说明的是,本申请实施例的智能交互方法可由本申请实施例中的智能交互装置执行。在本申请一些实施例中,如图2所示,该智能交互方法包括:
步骤201,获取对象与智能交互设备的交互数据。
在本申请的实施例中,步骤201可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤202,确定交互数据的所属类型。
在本申请的实施例中,步骤202可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤203,响应于交互数据的所属类型为非自然语言交互数据类型,从知识库中获取与交互数据对应的知识数据。
需要说明的是,上述知识库可以是交互数据所属知识领域的专家知识库,知识库中可以包含交互数据所属知识领域的相关专业性知识。
作为一种可能的示例,响应于交互数据的所属类型为非自然语言交互数据类型,确定交互数据的所属知识领域,根据交互数据的所属知识领域,确定与交互数据对应的知识库,从知识库中获取与交互数据对应的知识数据。
步骤204,基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果。
可以理解,上述分析规则可以是根据实际情况预先设定的规则。例如,根据用户的生理参数,预设分析用户生理状态的规则。
作为一种可能的示例,可以基于上述知识数据,按照预设分析规则对交互数据进行分析,得到交互数据的分析结果。
步骤205,基于分析结果,生成对应的自然语言文本信息。
作为一种可能的示例,基于交互数据的分析结果,生成与交互数据对应的自然语言文本信息。
作为一种可能的示例,针对每一种可能出现的分析结果,预先设定与分析结果对应的自然语言文本信息,得到分析结果后,获取与该分析结果对应的自然语言文本信息。
举例来说,基于知识库对用户的生理参数进行分析,得到分析结果,根据分析结果,找到与分析结果对应的自然语言文本。
步骤206,根据自然语言文本信息,生成对应的第一回复语句。
在本申请的实施例中,步骤206可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
根据本申请实施例的智能交互方法,响应于交互数据的所属类型为非自然语言交互数据类型,从知识库中获取与交互数据对应的知识数据,基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果,基于分析结果,生成对应的自然语言文本信息,从而实现了将非自然语言交互数据转换成自然语言文本信息,进而实现了基于非自然语言交互数据生成回复语句,提高了智能交互设备的智能化水平。
为了保证根据自然语言文本信息确定与交互数据对应的目标技能,可选地,将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能。图3是根据本申请第三实施例的示意图。需要说明的是,本申请实施例的智能交互方法可由本申请实施例中的智能交互装置执行。在本申请一些实施例中,如图3所示,该智能交互方法包括:
步骤301,获取对象与智能交互设备的交互数据。
在本申请的实施例中,步骤301可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤302,确定交互数据的所属类型。
在本申请的实施例中,步骤302可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤303,响应于交互数据的所属类型为非自然语言交互数据类型,从知识库中获取与交互数据对应的知识数据。
在本申请的实施例中,步骤303可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤304,基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果。
在本申请的实施例中,步骤304可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤305,基于分析结果,生成对应的自然语言文本信息。
在本申请的实施例中,步骤305可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤306,将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能。
需要说明的是,上述技能选择模型可以是预先训练好的模型。可选的,技能选择模型可以是分类模型,还可以是生成模型。上述目标技能可以是播放音频、控制智能设备等,例如,播放音乐、打开智能热水器等。
可以理解的是,可以将样本交互数据输入至待训练的技能选择模型,得到输出的样本目标技能。获取预先标注好的与该样本交互数据对应的目标技能,计算样本目标技能与预先标注的目标技能之间的损失值,基于损失值对技能选择模型进行训练,最终得到训练好的技能选择模型进。
作为一种可能的示例,将上述自然语言文本信息输入至预训练的技能选择模型,技能选择模型根据自然语言文本信息确定与交互数据对应的目标技能,技能选择模型输出与交互数据对应的目标技能。
步骤307,根据目标技能和分析结果,确定对应的第一回复语句。
作为一种可能的示例,可以预先设定与目标技能和分析结果对应的回复语句,响应于确定目标技能和分析结果,获取与目标技能和分析结果对应的回复语句,将该回复语句作为第一回复语句,以用于上述智能交互设备与用户进行交互。
根据本申请实施例的智能交互方法,将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能,根据目标技能和分析结果,确定对应的第一回复语句,从而能够根据自然语言文本信息确定与交互数据对应的目标技能,进而提高了第一回复语句的准确性。
为了保证智能交互设备能够按照第一回复语句与用户进行交互,可选地,将第一回复语句发送至智能交互设备。图4是根据本申请第四实施例的示意图。需要说明的是,本申请实施例的智能交互方法可由本申请实施例中的智能交互装置执行。在本申请一些实施例中,如图4所示,该智能交互方法包括:
步骤401,获取对象与智能交互设备的交互数据。
在本申请的实施例中,步骤401可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤402,确定交互数据的所属类型。
在本申请的实施例中,步骤402可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤404,响应于交互数据的所属类型为非自然语言交互数据类型,从知识库中获取与交互数据对应的知识数据。
在本申请的实施例中,步骤404可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤404,基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果。
在本申请的实施例中,步骤404可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤405,基于分析结果,生成对应的自然语言文本信息。
在本申请的实施例中,步骤405可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤406,将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能。
在本申请的实施例中,步骤406可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤407,根据目标技能和分析结果,确定对应的第一回复语句。
在本申请的实施例中,步骤407可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤408,将第一回复语句发送至智能交互设备。
作为一种可能的示例,将服务器在确定第一回复语句后,将第一回复语句发送至智能交互设备,用于使智能交互设备按照第一回复语句与用户进行交互。
根据本申请实施例的智能交互方法,将第一回复语句发送至智能交互设备,从而使智能交互设备能够按照第一回复语句与用户进行交互。
为了保证智能交互设备能够在对当前用户发出的交互信息进行回复的同时,播放第一回复语句,可选地,将第一回复语句和第二回复语句进行拼接。图5是根据本申请第五实施例的示意图。需要说明的是,本申请实施例的智能交互方法可由本申请实施例中的智能交互装置执行。在本申请一些实施例中,如图5所示,该智能交互方法包括:
步骤501,获取对象与智能交互设备的交互数据。
在本申请的实施例中,步骤501可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤502,确定交互数据的所属类型。
在本申请的实施例中,步骤502可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤504,响应于交互数据的所属类型为非自然语言交互数据类型,从知识库中获取与交互数据对应的知识数据。
在本申请的实施例中,步骤504可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤504,基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果。
在本申请的实施例中,步骤504可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤505,基于分析结果,生成对应的自然语言文本信息。
在本申请的实施例中,步骤505可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤506,将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能。
在本申请的实施例中,步骤506可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤507,根据目标技能和分析结果,确定对应的第一回复语句。
在本申请的实施例中,步骤507可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤508,响应于接收到来自智能交互设备的第一语音信息,对第一语音信息进行识别,得到第一识别结果。
需要说明的是,第一语音信息可以是用户向智能交互设备发送的交互语音。
作为一种可能的示例,智能交互设备接收到用户发出的第一语音信息后,将第一语音信息发送至服务器,服务器对第一语音信息进行识别,得到第一识别结果。
举例来说,用户对智能音箱说出“我想听音乐”的交互语音后,智能音箱将该交互语音发送给服务器,服务器对该交互于语音进行识别,得到用户想要听音乐的识别结果,即第一识别结果。
步骤509,基于第一识别结果,生成与第一识别结果对应的第二回复语句。
作为一种可能的示例,基于第一识别结果,服务器生成与第一识别结果对应的第二回复语句。例如,基于用户想要听音乐的识别结果,生成第二回复语句“好的,为您播放音乐”。
步骤5010,将第二回复语句和第一回复语句进行拼接,得到拼接语句。
作为一种可能的示例,将第二回复语句和第一回复语句进行拼接,得到拼接后的拼接语句。
举例来说,第一回复语句为“基于您最近的运动情况,是否需要为您推荐适合运动时听的音乐?”,则拼接语句可以是“好的,为您播放音乐。基于您最近的运动情况,是否需要为您推荐适合运动时听的音乐?”。
步骤5011,将拼接语句发送至智能交互设备。
作为一种可能的示例,服务器将拼接好的拼接语句发送至智能交互设备,用于智能交互设备对用户发出的语音信息进行回复。当用户向智能设备发出交互信息后,智能交互设备能够在对该交互信息进行回复的同时,基于在其他绑定的智能设备上获取到的非自然语言交互数据给出相应的回复语句。
根据本申请实施例的智能交互方法,响应于接收到来自智能交互设备的第一语音信息,对第一语音信息进行识别,得到第一识别结果,基于第一识别结果,生成与第一识别结果对应的第二回复语句,将第二回复语句和第一回复语句进行拼接,得到拼接语句,将拼接语句发送至智能交互设备,从而使智能交互设备能够在对当前用户发出的交互信息进行回复的同时,播放第一回复语句,提高了智能交互设备的智能化水平。
为了能够确定是否执行目标技能,可选地,响应于接收到来自智能交互设备的第二语音信息,对第二语音信息进行识别,得到第二识别结果。图6是根据本申请第六实施例的示意图。需要说明的是,本申请实施例的智能交互方法可由本申请实施例中的智能交互装置执行。在本申请一些实施例中,如图6所示,该智能交互方法包括:
步骤601,获取对象与智能交互设备的交互数据。
在本申请的实施例中,步骤601可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤602,确定交互数据的所属类型。
在本申请的实施例中,步骤602可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤604,响应于交互数据的所属类型为非自然语言交互数据类型,从知识库中获取与交互数据对应的知识数据。
在本申请的实施例中,步骤604可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤604,基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果。
在本申请的实施例中,步骤604可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤605,基于分析结果,生成对应的自然语言文本信息。
在本申请的实施例中,步骤605可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤606,将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能。
在本申请的实施例中,步骤606可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤607,根据目标技能和分析结果,确定对应的第一回复语句。
在本申请的实施例中,步骤607可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤608,响应于接收到来自智能交互设备的第二语音信息,对第二语音信息进行识别,得到第二识别结果。
可以理解的是,智能交互设备接收到服务器发送的第一回复语句后,将第一回复语句转换成语音进行播放,用户根据语音,给出用于回复第一回复语句的第二语音信息,智能交互设备将接收到的第二语音信息发送至服务器,服务器对第二语音信息进行识别,得到第二识别结果。
举例来说,智能音箱播放“基于您最近的运动情况,是否需要为您推荐适合运动时听的音乐?”,用户回复第二语音信息“好的”,智能音箱将第二语音信息发送至服务器,服务器对第二语音信息进行识别,确定用户接受播放适合运动时听的音乐,并以此作为第二识别结果。
步骤609,响应于第二识别结果为接受目标技能,执行目标技能。
作为一种可能的示例,响应于服务器对第二语音信息的第二识别结果为接受目标技能,智能交互设备执行上述目标技能。
步骤6010,响应于第二识别结果为拒绝目标技能,停止执行目标技能。
作为一种可能的示例,响应于服务器对第二语音信息的第二识别结果为拒绝目标技能,智能交互设备停止执行上述目标技能。
根据本申请实施例的智能交互方法,响应于接收到来自智能交互设备的第二语音信息,对第二语音信息进行识别,得到第二识别结果,响应于第二识别结果为接受目标技能,执行目标技能,响应于第二识别结果为拒绝目标技能,停止执行目标技能,从而能够根据识别结果判断用户的意图,进而确定是否执行目标技能。
为了保证基于语音交互数据与用户进行交互,可选地,识别交互数据,得到第三识别结果,基于第三识别结果,生成对应的第三回复语句。图7是根据本申请第七实施例的示意图。需要说明的是,本申请实施例的智能交互方法可由本申请实施例中的智能交互装置执行。在本申请一些实施例中,如图7所示,该智能交互方法包括:
步骤701,获取对象与智能交互设备的交互数据。
在本申请的实施例中,步骤701可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤702,确定交互数据的所属类型。
在本申请的实施例中,步骤702可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤703,响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息,根据自然语言文本信息,生成对应的第一回复语句,将第一回复语句发送至智能交互设备。
在本申请的实施例中,步骤703可以分别采用本申请的各实施例中的任一种方式实现,本申请实施例并不对此作出限定,也不再赘述。
步骤704,响应于交互数据的所属类型为语音交互数据类型,识别交互数据,得到第三识别结果。
需要说明的是,上述语音交互数据类型的交互数据,可以是用户通过对话的形式与智能交互设备进行交互所产生的交互数据。例如,用户向智能音箱发起对话“我想听音乐”,智能音箱播放回复语句“好的,为您播放音乐”,然后播放音乐。上述交互过程中的对话内容即为语音交互数据类型的交互数据。
作为一种可能的示例,响应于交互数据的所属类型为语音交互数据类型,将语音交互数据转换成自然语言文本数据,对上述自然语言文本数据进行识别,得到第三识别结果。可选的,可以通过语音识别引擎将语音交互数据识别为自然语言文本数据。
步骤705,基于第三识别结果,生成对应的第三回复语句。
作为一种可能的示例,将第三识别结果输入至目标技能选择模型,得到目标技能,基于目标技能,找到与该目标技能对应的第三回复语句。作为一种可能实施的示例,第三回复语句可以是预先设定的回复语句。
步骤706,将第三回复语句发送至智能交互设备。
作为一种可能的示例,服务器将第三回复语句发送至智能交互设备,用于使智能交互设备播放第三回复语句,以实现与用户进行交互。
根据本申请实施例的智能交互方法,响应于交互数据的所属类型为语音交互数据类型,识别交互数据,得到第三识别结果,基于第三识别结果,生成对应的第三回复语句,将第三回复语句发送至智能交互设备,从而实现了基于语音交互数据与用户进行交互。
为了实现上述实施例,本申请提出了一种交智能交互装置。
图8是根据本申请第八实施例的示意图。如图8所示,该装置包括:获取模块801、确定模块802、第一生成模块803和第二生成模块804。
获取模块801,用于获取对象与智能交互设备的交互数据;
确定模块802,用于确定交互数据的所属类型;
第一生成模块803,用于响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息;
第二生成模块804,用于根据自然语言文本信息,生成对应的第一回复语句。
根据本申请实施例的智能交互装置,获取对象与智能交互设备的交互数据,确定交互数据的所属类型,响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息,根据自然语言文本信息,生成对应的第一回复语句,从而实现了根据非自然语言交互数据生成智能交互设备的回复语句,提高了智能交互设备的智能化程度,同时提升了用户使用智能交互设备时的用户体验。
为了实现上述实施例,本申请提出了一种交智能交互装置。
图9是根据本申请第九实施例的示意图。如图9所示,该装置包括:获取模块910、确定模块920、第一生成模块930和第二生成模块940,其中,第一生成模块930包括获取子模块931、分析子模块932和第一生成子模块933。
获取模块910,用于获取对象与智能交互设备的交互数据;
确定模块920,用于确定交互数据的所属类型;
第一生成模块930,用于响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息;
其中,第一生成模块930包括:
获取子模块931,用于从知识库中获取与交互数据对应的知识数据;
分析子模块932,用于基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果;
第一生成子模块933,用于基于分析结果,生成对应的自然语言文本信息。
第二生成模块940,用于根据自然语言文本信息,生成对应的第一回复语句。
根据本申请实施例的智能交互装置,响应于交互数据的所属类型为非自然语言交互数据类型,从知识库中获取与交互数据对应的知识数据,基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果,基于分析结果,生成对应的自然语言文本信息,从而实现了将非自然语言交互数据转换成自然语言文本信息,进而实现了基于非自然语言交互数据生成回复语句,提高了智能交互设备的智能化水平。
为了实现上述实施例,本申请提出了一种交智能交互装置。
图10是根据本申请第十实施例的示意图。如图10所示,该装置包括:获取模块1010、确定模块1020、第一生成模块1030和第二生成模块1040,其中,第一生成模块1030包括获取子模块1031、分析子模块1032和第一生成子模块1033;其中,第二生成模块1040包括输入子模块1041和确定子模块1042。
获取模块1010,用于获取对象与智能交互设备的交互数据;
确定模块1020,用于确定交互数据的所属类型;
第一生成模块1030,用于响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息;
其中,第一生成模块1030包括:
获取子模块1031,用于从知识库中获取与交互数据对应的知识数据;
分析子模块1032,用于基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果;
第一生成子模块1033,用于基于分析结果,生成对应的自然语言文本信息。
第二生成模块1040,用于根据自然语言文本信息,生成对应的第一回复语句。
其中,第二生成模块1040包括:
输入子模块1041,用于将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能;
确定子模块1042,用于根据目标技能和分析结果,确定对应的第一回复语句。
根据本申请实施例的智能交互装置,将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能,根据目标技能和分析结果,确定对应的第一回复语句,从而能够根据自然语言文本信息确定与交互数据对应的目标技能,进而提高了第一回复语句的准确性。
为了实现上述实施例,本申请提出了一种交智能交互装置。
图11是根据本申请第十一实施例的示意图。如图11所示,该装置包括:获取模块1110、确定模块1120、第一生成模块1130和第二生成模块1140,其中,第一生成模块1130包括获取子模块1131、分析子模块1132和第一生成子模块1133;第二生成模块1140包括输入子模块1141和确定子模块1142;第一发送模块1150包括第一识别子模块1151、第二生成子模块1152、拼接子模块1153和发送子模块1154。
获取模块1110,用于获取对象与智能交互设备的交互数据;
确定模块1120,用于确定交互数据的所属类型;
第一生成模块1130,用于响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息;
其中,第一生成模块1130包括:
获取子模块1131,用于从知识库中获取与交互数据对应的知识数据;
分析子模块1132,用于基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果;
第一生成子模块1133,用于基于分析结果,生成对应的自然语言文本信息。
第二生成模块1140,用于根据自然语言文本信息,生成对应的第一回复语句。
其中,第二生成模块1140包括:
输入子模块1141,用于将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能;
确定子模块1142,用于根据目标技能和分析结果,确定对应的第一回复语句。
第一发送模块1150,用于将第一回复语句发送至智能交互设备。
其中,第一发送模块1150包括:
第一识别子模块1151,用于响应于接收到来自智能交互设备的第一语音信息,对第一语音信息进行识别,得到第一识别结果;
第二生成子模块1152,用于基于第一识别结果,生成与第一识别结果对应的第二回复语句;
拼接子模块1153,用于将第二回复语句和第一回复语句进行拼接,得到拼接语句;
发送子模块1154,用于将拼接语句发送至智能交互设备。
根据本申请实施例的智能交互装置,响应于接收到来自智能交互设备的第一语音信息,对第一语音信息进行识别,得到第一识别结果,基于第一识别结果,生成与第一识别结果对应的第二回复语句,将第二回复语句和第一回复语句进行拼接,得到拼接语句,将拼接语句发送至智能交互设备,从而使智能交互设备能够在对当前用户发出的交互信息进行回复的同时,播放第一回复语句,提高了智能交互设备的智能化水平。
为了实现上述实施例,本申请提出了一种交智能交互装置。
图12是根据本申请第十二实施例的示意图。如图12所示,该装置包括:获取模块1210、确定模块1220、第一生成模块1230和第二生成模块1240,其中,第一生成模块1230包括获取子模块1231、分析子模块1232和第一生成子模块1233;其中,第二生成模块1240包括输入子模块1241和确定子模块1242;第一发送模块1250包括第二识别子模块1251,第一执行子模块1252和第二执行子模块1253。
获取模块1210,用于获取对象与智能交互设备的交互数据;
确定模块1220,用于确定交互数据的所属类型;
第一生成模块1230,用于响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息;
其中,第一生成模块1230包括:
获取子模块1231,用于从知识库中获取与交互数据对应的知识数据;
分析子模块1232,用于基于知识数据,按照预设分析规则对交互数据进行分析,得到分析结果;
第一生成子模块1233,用于基于分析结果,生成对应的自然语言文本信息。
第二生成模块1240,用于根据自然语言文本信息,生成对应的第一回复语句。
其中,第二生成模块1240包括:
输入子模块1241,用于将自然语言文本信息输入至预训练的技能选择模型,得到与交互数据对应的目标技能;
确定子模块1242,用于根据目标技能和分析结果,确定对应的第一回复语句。
第一发送模块1250,用于将第一回复语句发送至智能交互设备。
其中,第一发送模块1250包括:
第二识别子模块1251,用于响应于接收到来自智能交互设备的第二语音信息,对第二语音信息进行识别,得到第二识别结果;
第一执行子模块1252,用于响应于第二识别结果为接受目标技能,执行目标技能;
第二执行子模块1253,用于响应于第二识别结果为拒绝目标技能,停止执行目标技能。
根据本申请实施例的智能交互装置,响应于接收到来自智能交互设备的第二语音信息,对第二语音信息进行识别,得到第二识别结果,响应于第二识别结果为接受目标技能,执行目标技能,响应于第二识别结果为拒绝目标技能,停止执行目标技能,从而能够根据识别结果判断用户的意图,进而确定是否执行目标技能。
为了实现上述实施例,本申请提出了一种交智能交互装置。
图13是根据本申请第十三实施例的示意图。如图13所示,该装置包括:获取模块1301、确定模块1302、第一生成模块1303和第二生成模块1304。
获取模块1301,用于获取对象与智能交互设备的交互数据;
确定模块1302,用于确定交互数据的所属类型;
第一生成模块1303,用于响应于交互数据的所属类型为非自然语言交互数据类型,基于交互数据生成对应的自然语言文本信息;
第二生成模块1304,用于根据自然语言文本信息,生成对应的第一回复语句。
识别模块1305,用于响应于交互数据的所属类型为语音交互数据类型,识别交互数据,得到第三识别结果;
第三生成模块1306,用于基于第三识别结果,生成对应的第三回复语句;
第二发送模块1307,用于将第三回复语句发送至智能交互设备。
根据本申请实施例的智能交互装置,响应于交互数据的所属类型为语音交互数据类型,识别交互数据,得到第三识别结果,基于第三识别结果,生成对应的第三回复语句,将第三回复语句发送至智能交互设备,从而实现了基于语音交互数据与用户进行交互。
需要说明的是,本申请的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图14所示,是根据本申请实施例的智能交互的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图14所示,该电子设备包括:一个或多个处理器1401、存储器1402,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图14中以一个处理器1401为例。
存储器1402即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的智能交互的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的智能交互的方法。
存储器1402作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的智能交互的方法对应的程序指令/模块(例如,附图8所示的获取模块801、确定模块802和第一生成模块803)。处理器1401通过运行存储在存储器1402中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的智能交互的方法。
存储器1402可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据智能交互的电子设备的使用所创建的数据等。此外,存储器1402可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1402可选包括相对于处理器1401远程设置的存储器,这些远程存储器可以通过网络连接至智能交互的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
智能交互的方法的电子设备还可以包括:输入装置1403和输出装置1404。处理器1401、存储器1402、输入装置1403和输出装置1404可以通过总线或者其他方式连接,图14中以通过总线连接为例。
输入装置1403可接收输入的数字或字符信息,以及产生与智能交互的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1404可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (17)

1.一种智能交互方法,包括:
获取对象与智能交互设备的交互数据;
确定所述交互数据的所属类型;
响应于所述交互数据的所属类型为非自然语言交互数据类型,基于所述交互数据生成对应的自然语言文本信息;
根据所述自然语言文本信息,生成对应的第一回复语句。
2.根据权利要求1所述的方法,其中,所述基于所述交互数据生成对应的自然语言文本信息,包括:
从知识库中获取与所述交互数据对应的知识数据;
基于所述知识数据,按照所述预设分析规则对所述交互数据进行分析,得到分析结果;
基于所述分析结果,生成对应的自然语言文本信息。
3.根据权利要求2所述的方法,其中,所述根据所述自然语言文本信息,生成对应的第一回复语句,包括:
将所述自然语言文本信息输入至预训练的技能选择模型,得到与所述交互数据对应的目标技能;
根据所述目标技能和所述分析结果,确定对应的第一回复语句。
4.根据权利要求3所述的方法,其中,还包括:
将所述第一回复语句发送至智能交互设备。
5.根据权利要求4所述的方法,其中,所述将所述第一回复语句发送至智能交互设备,包括:
响应于接收到来自所述智能交互设备的第一语音信息,对所述第一语音信息进行识别,得到第一识别结果;
基于所述第一识别结果,生成与所述第一识别结果对应的第二回复语句;
将所述第二回复语句和所述第一回复语句进行拼接,得到拼接语句;
将所述拼接语句发送至所述智能交互设备。
6.根据权利要求4所述的方法,其中,所述将所述第一回复语句发送至智能交互设备,还包括:
响应于接收到来自所述智能交互设备的第二语音信息,对所述第二语音信息进行识别,得到第二识别结果;
响应于所述第二识别结果为接受所述目标技能,执行所述目标技能;
响应于所述第二识别结果为拒绝所述目标技能,停止执行所述目标技能。
7.根据权利要求1所述的方法,其中,还包括:
响应于所述交互数据的所属类型为语音交互数据类型,识别所述交互数据,得到第三识别结果;
基于所述第三识别结果,生成对应的第三回复语句;
将所述第三回复语句发送至所述智能交互设备。
8.一种智能交互装置,包括:
获取模块,用于获取对象与智能交互设备的交互数据;
确定模块,用于确定所述交互数据的所属类型;
第一生成模块,用于响应于所述交互数据的所属类型为非自然语言交互数据类型,基于所述交互数据生成对应的自然语言文本信息;
第二生成模块,用于根据所述自然语言文本信息,生成对应的第一回复语句。
9.根据权利要求8所述的装置,其中,所述第一生成模块包括:
获取子模块,用于从知识库中获取与所述交互数据对应的知识数据;
分析子模块,用于基于所述知识数据,按照所述预设分析规则对所述交互数据进行分析,得到分析结果;
第一生成子模块,用于基于所述分析结果,生成对应的自然语言文本信息。
10.根据权利要求9所述的装置,其中,所述第二生成模块包括:
输入子模块,用于将所述自然语言文本信息输入至预训练的技能选择模型,得到与所述交互数据对应的目标技能;
确定子模块,用于根据所述目标技能和所述分析结果,确定对应的第一回复语句。
11.根据权利要求10所述的装置,其中,还包括:
第一发送模块,用于将所述第一回复语句发送至智能交互设备。
12.根据权利要求11所述的装置,其中,所述第一发送模块包括:
第一识别子模块,用于响应于接收到来自所述智能交互设备的第一语音信息,对所述第一语音信息进行识别,得到第一识别结果;
第二生成子模块,用于基于所述第一识别结果,生成与所述第一识别结果对应的第二回复语句;
拼接子模块,用于将所述第二回复语句和所述第一回复语句进行拼接,得到拼接语句;
发送子模块,用于将所述拼接语句发送至所述智能交互设备。
13.根据权利要求11所述的装置,其中,所述第一发送模块还包括:
第二识别子模块,用于响应于接收到来自所述智能交互设备的第二语音信息,对所述第二语音信息进行识别,得到第二识别结果;
第一执行子模块,用于响应于所述第二识别结果为接受所述目标技能,执行所述目标技能;
第二执行子模块,用于响应于所述第二识别结果为拒绝所述目标技能,停止执行所述目标技能。
14.根据权利要求8所述的装置,其中,还包括:
识别模块,用于响应于所述交互数据的所属类型为语音交互数据类型,识别所述交互数据,得到第三识别结果;
第三生成模块,用于基于所述第三识别结果,生成对应的第三回复语句;
第二发送模块,用于将所述第三回复语句发送至所述智能交互设备。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现如权利要求1至7任一项所述的智能交互方法的步骤。
CN202111668025.5A 2021-12-31 2021-12-31 智能交互方法、装置、电子设备及可读存储介质 Pending CN114495900A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111668025.5A CN114495900A (zh) 2021-12-31 2021-12-31 智能交互方法、装置、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111668025.5A CN114495900A (zh) 2021-12-31 2021-12-31 智能交互方法、装置、电子设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN114495900A true CN114495900A (zh) 2022-05-13

Family

ID=81507794

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111668025.5A Pending CN114495900A (zh) 2021-12-31 2021-12-31 智能交互方法、装置、电子设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN114495900A (zh)

Similar Documents

Publication Publication Date Title
US10832002B2 (en) System and method for scoring performance of chatbots
CN110991427B (zh) 用于视频的情绪识别方法、装置和计算机设备
CN112509552B (zh) 语音合成方法、装置、电子设备和存储介质
CN112466302B (zh) 语音交互的方法、装置、电子设备和存储介质
CN112951275B (zh) 语音质检方法、装置、电子设备及介质
CN112365880A (zh) 语音合成方法、装置、电子设备及存储介质
CN111177355B (zh) 基于搜索数据的人机对话交互方法、装置和电子设备
JP2021168139A (ja) マンマシンインタラクションのための方法、装置、機器および媒体
CN110704596B (zh) 基于话题的对话方法、装置和电子设备
CN112100352A (zh) 与虚拟对象的对话方法、装置、客户端及存储介质
CN111105800A (zh) 语音交互处理方法、装置、设备和介质
CN112270168B (zh) 对白情感风格预测方法、装置、电子设备及存储介质
CN111881254A (zh) 话术生成方法、装置、电子设备及存储介质
KR20120038686A (ko) 단말기의 어학 어플리케이션을 통한 학습 평가 방법 및 시스템
CN110717340A (zh) 推荐方法、装置、电子设备及存储介质
CN112382287A (zh) 语音交互方法、装置、电子设备和存储介质
CN111127191A (zh) 风险评估方法及装置
CN111782785A (zh) 自动问答方法、装置、设备以及存储介质
CN112559715B (zh) 态度的识别方法、装置、设备及存储介质
CN114547244A (zh) 用于确定信息的方法和装置
US20210098012A1 (en) Voice Skill Recommendation Method, Apparatus, Device and Storage Medium
CN112650844A (zh) 对话状态的追踪方法、装置、电子设备和存储介质
CN112289305A (zh) 韵律预测方法、装置、设备以及存储介质
CN114490967B (zh) 对话模型的训练方法、对话机器人的对话方法、装置和电子设备
CN114495900A (zh) 智能交互方法、装置、电子设备及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination