CN113505268A - 一种交互处理方法及装置 - Google Patents

一种交互处理方法及装置 Download PDF

Info

Publication number
CN113505268A
CN113505268A CN202110770158.7A CN202110770158A CN113505268A CN 113505268 A CN113505268 A CN 113505268A CN 202110770158 A CN202110770158 A CN 202110770158A CN 113505268 A CN113505268 A CN 113505268A
Authority
CN
China
Prior art keywords
interactive
response information
information
customer service
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110770158.7A
Other languages
English (en)
Inventor
李德强
罗涛
李峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202110770158.7A priority Critical patent/CN113505268A/zh
Publication of CN113505268A publication Critical patent/CN113505268A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/01Customer relationship services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Development Economics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Accounting & Taxation (AREA)
  • Evolutionary Computation (AREA)
  • Economics (AREA)
  • Finance (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供了一种交互处理方法,包括:响应于用户的交互输入信息,在交互应答库中确定是否存在针对所述交互输入信息的参考应答信息;在所述交互应答库中不存在所述参考应答信息的情况下,向人工客服发送所述交互输入信息,以供人工客服获知所述交互输入信息;获取所述人工客服针对所述交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频;对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息并输出。本公开还提供了一种交互处理装置、一种电子设备以及一种计算机可读存储介质。

Description

一种交互处理方法及装置
技术领域
本公开涉及人工智能技术领域,特别是涉及一种交互处理方法及装置。
背景技术
随着AI技术的快速发展,虚拟客服技术在不同的业务领域均得到了广泛的运用,例如,在金融领域,利用虚拟客服技术实现与用户的自动交互。具体地,虚拟客服基于交互应答库与用户进行自动交互。
在实现本公开技术方案的过程中,发明人发现相关技术中虚拟客服在与用户进行自动交互时,常因交互应答库对交互问题的覆盖范围有限,而导致虚拟客服无法对超出交互应答库覆盖范围的用户交互输入信息进行准确应答。
发明内容
本公开的一个方面提供了一种交互处理方法,包括:响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对所述交互输入信息的参考应答信息;若否,向人工客服发送所述交互输入信息,以供所述人工客服获知所述交互输入信息;获取所述人工客服针对所述交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频;对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息并输出。
可选地,基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的用户特征标签,与任一模拟交互视频关联的用户特征标签指示该模拟交互视频所适用的用户类型,其中,M为大于1的整数;所述获取基于虚拟客服生成的预设模拟交互视频,包括:获取与所述用户关联的用户特征信息;确定所述用户特征信息与各所述用户特征标签间的匹配度;将与匹配度最高的用户特征标签关联的模拟交互视频,作为适用于所述用户的模拟交互视频。
可选地,基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的面部驱动标签,与任一模拟交互视频关联的面部驱动标签指示虚拟客服在生成该模拟交互视频时所使用的面部驱动参数;在所述人工应答信息为语音应答信息的情况下,所述获取基于虚拟客服生成的预设模拟交互视频,还包括:对所述语音应答信息进行解析处理,以获得所述语音应答信息中的语音元素;根据语音元素与面部驱动参数间的预设映射关系,确定与所述语音元素匹配的面部驱动参数;根据与所述语音元素匹配的面部驱动参数,以及根据与各所述模拟交互视频关联的面部驱动标签,确定适用于所述语音应答信息的模拟交互视频。
可选地,所述模拟交互视频包括至少一个交互视频片段,其中,各所述交互视频片段具有对应的客服状态标签,所述客服状态包括所述虚拟客服的动作状态和/或唇形状态;在所述人工应答信息为语音应答信息的情况下,所述对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息,包括:对所述语音应答信息进行基于预设语音时长的切分处理,得到N个语音片段,N为大于1的整数;进行针对各所述语音片段的客服状态预测,得到与各所述语音片段关联的状态预测结果;根据所述状态预测结果,以及根据与各所述交互视频片段关联的客服状态标签,确定与各所述语音片段匹配的的交互视频片段;根据所述N个语音片段的时序关系,将各所述语音片段与匹配的交互视频片段进行融合处理,得到所述目标应答信息。
可选地,在所述人工应答信息为文本应答信息的情况下,所述对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息,包括:对所述文本应答信息进行语音转换,得到对应的语音应答信息;将所述对应的语音应答信息与所述模拟交互视频进行融合处理,得到所述目标应答信息。
可选地,所述交互应答库中包括至少一个预设交互问题和与各所述预设交互问题关联的参考应答信息,所述响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对所述交互输入信息的参考应答信息,包括:对所述交互输入信息进行意图识别处理,得到与所述交互输入信息关联的交互意图标签;将所述交互意图标签与所述至少一个预设交互问题进行匹配,得到所述交互意图标签与各所述预设交互问题的匹配度;以及确定是否存在对应匹配度高于预设阈值的所述预设交互问题,若不存在,确定所述交互应答库中不存在针对所述交互输入信息的参考应答信息。
可选地,所述方法还包括:响应于所述交互应答库中不存在针对所述交互输入信息的参考应答信息,输出等待提示信息,以提示用户正在生成所述目标应答信息;以及,响应于融合处理得到所述目标应答信息,停止显示所述等待提示信息。
本公开的另一方面提供了一种交互处理装置,包括:第一处理模块,用于响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对所述交互输入信息的参考应答信息;第二处理模块,用于在所述交互应答库中不存在所述参考应答信息的情况下,向人工客服发送所述交互输入信息,以供所述人工客服获知所述交互输入信息;获取模块,用于获取所述人工客服针对所述交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频;第三处理模块,用于对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息并输出。
可选地,基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的用户特征标签,与任一模拟交互视频关联的用户特征标签指示该模拟交互视频所适用的用户类型,其中,M为大于1的整数;所述获取模块包括:获取子模块,用于获取与所述用户关联的用户特征信息;第一处理子模块,用于确定所述用户特征信息与各所述用户特征标签间的匹配度;第二处理子模块,用于将与匹配度最高的用户特征标签关联的模拟交互视频,作为适用于所述用户的模拟交互视频。
可选地,基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的面部驱动标签,与任一模拟交互视频关联的面部驱动标签指示虚拟客服在生成该模拟交互视频时所使用的面部驱动参数;在所述人工应答信息为语音应答信息的情况下,所述获取模块还包括:第三处理子模块,用于对所述语音应答信息进行解析处理,以获得所述语音应答信息中的语音元素;第四处理子模块,用于根据语音元素与面部驱动参数间的预设映射关系,确定与所述语音元素匹配的面部驱动参数;第五处理子模块,用于根据与所述语音元素匹配的面部驱动参数,以及根据与各所述模拟交互视频关联的面部驱动标签,确定适用于所述语音应答信息的模拟交互视频。
可选地,所述模拟交互视频包括至少一个交互视频片段,其中,各所述交互视频片段具有对应的客服状态标签,所述客服状态包括所述虚拟客服的动作状态和/或唇形状态;所述第三处理模块包括:第六处理子模块,用于在所述人工应答信息为语音应答信息的情况下,对所述语音应答信息进行基于预设语音时长的切分处理,得到N个语音片段,N为大于1的整数;第七处理子模块,用于进行针对各所述语音片段的客服状态预测,得到与各所述语音片段关联的状态预测结果;第八处理子模块,用于根据所述状态预测结果,以及根据与各所述交互视频片段关联的客服状态标签,确定与各所述语音片段匹配的的交互视频片段;第九处理子模块,用于根据所述N个语音片段的时序关系,将各所述语音片段与匹配的交互视频片段进行融合处理,得到所述目标应答信息。
可选地,所述第三处理模块还包括:第十处理子模块,用于在所述人工应答信息为文本应答信息的情况下,对所述文本应答信息进行语音转换,得到对应的语音应答信息。
可选地,所述交互应答库中包括至少一个预设交互问题和与各所述预设交互问题关联的参考应答信息,所述第一处理模块包括:第十一处理子模块,用于对所述交互输入信息进行意图识别处理,得到与所述交互输入信息关联的交互意图标签;第十二处理子模块,用于将所述交互意图标签与所述至少一个预设交互问题进行匹配,得到所述交互意图标签与各所述预设交互问题的匹配度;第十三处理子模块,用于确定是否存在对应匹配度高于预设阈值的所述预设交互问题,若不存在,确定所述交互应答库中不存在针对所述交互输入信息的参考应答信息。
可选地,所述装置还包括第四处理模块,用于响应于所述交互应答库中不存在针对所述交互输入信息的参考应答信息,输出等待提示信息,以提示用户正在生成所述目标应答信息;以及,响应于融合处理得到所述目标应答信息,停止显示所述等待提示信息。
本公开的另一方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上所述的方法。
本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
本公开的另一方面提供了一种计算机程序,所述计算机程序包括计算机可执行指令,所述指令在被执行时用于实现如上所述的方法。
附图说明
为了更完整地理解本公开及其优势,现在将参考结合附图的以下描述,其中:
图1示意性示出了根据本公开实施例的交互处理方法及装置的系统架构;
图2示意性示出了根据本公开实施例的一种交互处理方法的流程图;
图3示意性示出了根据本公开实施例的另一交互处理方法的流程图;
图4示意性示出了根据本公开实施例的又一交互处理方法的流程图;
图5示意性示出了根据本公开实施例的用户基于本交互处理方法与虚拟客服进行交互的示意图;
图6示意性示出了根据本公开实施例的一种交互处理装置的框图;
图7示意性示出了根据本公开实施例的电子设备的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外,本公开的技术可以采取存储有指令的计算机可读存储介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。
本公开的实施例提供了一种交互处理方法以及能够应用该方法的处理装置。该方法包括响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对交互输入信息的参考应答信息,以及若否,向人工客服发送交互输入信息,以供人工客服获知交互输入信息,然后,获取人工客服针对交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频,最后,对人工应答信息和模拟交互视频进行融合处理,得到针对交互输入信息的目标应答信息并输出。
图1示意性示出了根据本公开实施例的交互处理方法及装置的系统架构。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,系统架构100可以包括用户终端101、102、103,人工客服终端105、106、107,网络108和管理服务器104。网络108用以在管理服务器104和用户终端(例如用户终端101、102、103)、或者人工客服终端(例如人工客服终端105、106、107)之间提供通信链路的介质。网络108可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。管理服务器104可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或分布式系统,还可以是提供云服务、云计算、网络服务、中间件服务等基础云计算服务的云服务器。
首先,管理服务器104响应于从用户终端(例如用户终端101、102、103)获取的交互输入信息,在预设交互应答库中确定是否存在针对交互输入信息的参考应答信息,以及若否,向人工客服(例如人工客服终端105、106、107)发送交互输入信息,以供人工客服获知交互输入信息,然后,获取人工客服(例如人工客服终端105、106、107)针对交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频,最后,对人工应答信息和模拟交互视频进行融合处理,得到针对交互输入信息的目标应答信息并输出。
需要说明的是,本公开实施例的交互处理方法和装置可用于金融领域,具体可以用于金融领域中的虚拟客服领域,也可用于除金融领域之外的任意领域。以下将结合附图和具体实施例详细阐述本公开。
图2示意性示出了根据本公开实施例的一种交互处理方法的流程图,如图2所示,方法200包括操作S210~S240。
在操作S210,响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对交互输入信息的参考应答信息。
接下来,在操作S220,若否,向人工客服发送交互输入信息,以供人工客服获知交互输入信息。
接下来,在操作S230,获取人工客服针对交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频。
接下来,在操作S240,对人工应答信息和模拟交互视频进行融合处理,得到针对交互输入信息的目标应答信息并输出。
下面详细说明本实施例的交互处理方法的各步骤的具体流程。
在操作S210,响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对交互输入信息的参考应答信息。
在本公开实施例中,具体地,本实施例的交互处理方法例如可以用于虚拟客服系统,虚拟客服系统可以通过语音方式或视频方式与用户进行自动交互,并为用户提供业务咨询、业务办理、售后业务等服务内容。
其中,用户的交互输入信息例如可以是来自用户端的文本输入信息或语音输入信息,其可用于表示用户的交互意图信息。示例性地,用户的交互输入信息例如可以是文本类型的咨询贵金属价格的业务咨询类信息,也可以是语音类型的进行信用卡办理的业务办理类信息。响应于接收到用户的交互输入信息,在预设交互应答库中确定是否存在与交互输入信息匹配的参考应答信息。
可选地,交互应答库的数量可以不止一个,不同交互应答库可以对应不同类型的交互意图,例如,交互应答库A可以对应业务办理类的交互意图,交互应答库B可以对应业务咨询类的交互意图,交互应答库C可以对售后业务类的交互意图。在确定针对用户的参考应答信息时,可以在与用户的交互意图类型关联的交互应答库中确定与交互输入信息匹配的参考应答信息。
接下来,在操作S220,在交互应答库中不存在参考应答信息的情况下,向人工客服发送交互输入信息,以供人工客服获知交互输入信息。
在本公开实施例中,具体地,在交互应答库中不存在与交互输入信息匹配的参考应答信息时,向人工客服发送交互输入信息,以供人工客服获知交互输入信息。具体地,可以通过显示终端向人工客服展示交互输入信息,在展示交互输入信息时,例如可以将交互输入信息在预设窗口中进行静止显示、滚动显示或按照预设轨迹显示,也可以将交互输入信息通过语音播报方式进行播放展示。
可选地,可以随机向人工客服发送交互输入信息,也可以根据与交互输入信息关联的交互意图类型或业务涉及范围,向匹配的特定人工客服发送交互输入信息。
接下来,在操作S230,获取人工客服针对交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频。
在本公开实施例中,具体地,为保证数字虚拟客服系统的线上服务质量,提高基于虚拟客服生成的模拟交互视频与用户间的匹配程度,基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的用户特征标签,与任一模拟交互视频关联的用户特征标签指示该模拟交互视频所适用的用户类型,其中,M为大于1的整数。
在获取基于虚拟客服生成的预设模拟交互视频时,可以获取与用户关联的用户特征信息;确定用户特征信息与各用户特征标签间的匹配度;将与匹配度最高的用户特征标签关联的模拟交互视频,作为适用于用户的模拟交互视频。
用户特征信息可用于区分不同用户类型,具体可以包括用户的年龄信息、性别信息、职业信息、所在地区等内容。与模拟交互视频关联的用户特征标签指示视频适用对象的用户特征信息,不同模拟交互视频中的虚拟客服的年龄、性别、造型、背景等信息可能不同。因此,可以根据获取的待交互对象的用户特征信息,以及根据与各模拟交互视频关联的用户特征标签,确定适用于待交互对象的模拟交互视频。
另外,基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频还可以具有对应的面部驱动标签,与任一模拟交互视频关联的面部驱动标签指示虚拟客服在生成该模拟交互视频时所使用的面部驱动参数。其中,面部驱动参数例如可以包括口型参数和表情参数。
在人工应答信息为语音应答信息的情况下,在获取基于虚拟客服生成的预设模拟交互视频时,可以对语音应答信息进行解析处理,以获得语音应答信息中的语音元素;根据语音元素与面部驱动参数间的预设映射关系,确定与语音元素匹配的面部驱动参数;根据与语音元素匹配的面部驱动参数,以及根据与各模拟交互视频关联的面部驱动标签,确定适用于语音应答信息的模拟交互视频。
对语音应答信息进行解析处理,也即对语音应答信息进行语音特征提取处理,得到语音应答信息中的语音元素,语音元素例如可以包括音色、音调、语速等语音特征。面部驱动标签由用于表征人脸的面部动作变化的参数信息构成,面部驱动标签具体可以是多维度的面部动画向量,具体可以包括口型参数和用于反映情绪状态的表情参数。口型参数例如可以包括左/右嘴角分别在X、Y方向上的移动值、上/下唇的平均上移、下移值等内容,表情参数例如可以包括上下眼皮高度差变化值、眼角/尾的高度差变化值等内容。根据解析得到的语音应答信息中的语音元素,确定与语音元素匹配的面部驱动标签,得到与人工客服的语音应答信息适配的模拟交互视频。
接下来,在操作S240,对人工应答信息和模拟交互视频进行融合处理,得到针对交互输入信息的目标应答信息并输出。
在本公开实施例中,具体地,将人工应答信息和模拟交互视频进行融合处理,将融合处理后的交互视频作为针对交互输入信息的目标应答信息并输出。
可选地,本实施例还可以包括:响应于交互应答库中不存在针对交互输入信息的参考应答信息,输出等待提示信息,以提示用户正在生成所述目标应答信息,以及,响应于融合处理得到目标应答信息,停止显示等待提示信息。
在将交互输入信息发送给人工客服之后,至少需要经过获取人工应答信息、将人工应答信息与模拟交互视频进行融合的操作,在执行该部分操作的同时,为避免长时间无法应答用户影响用户使用体验,可以向用户输出等待提示信息,以提示用户正在生成目标应答信息。
其中,等待提示信息可以是文本提示信息、语音提示信息或视频提示信息,其内容可以包括预计用户需要等待的时长信息。示例性地,等待提示信息可以是虚拟客服主动与用户进行交互的视频提示信息,交互内容例如可以是“请稍等,小I正在努力思考,预计20秒后给您回复”,此外,还可以通过播放音乐、笑话或者新闻等娱乐信息,减少用户等待感,提升用户线上服务体验感。
可选地,在向用户输出目标应答信息后,将目标应答信息作为参考应答信息存储至交互应答库中,以此实现扩大交互应答库的问题覆盖面,提升虚拟客服系统的线上交互服务的应答反应速度和应答准确性。
通过本公开实施例,响应于用户的交互输入信息,确定交互应答库中是否存在针对交互输入信息的参考应答信息,在交互应答库中不存在参考应答信息时,向人工客服发送交互输入信息,然后获取人工客服针对用户的交互输入信息的人工应答信息以及基于虚拟客服生成的预设模拟交互视频,再对人工应答信息和模拟交互视频进行融合处理,得到针对交互输入信息的目标应答信息并输出。本实施例方法能够在预设交互应答库无法覆盖来自用户的交互输入信息的情况下,获取人工客服针对交互输入信息的人工应答信息,将人工应答信息与基于虚拟客服生成的模拟交互视频进行融合,得到针对交互输入信息的目标应答信息,这有利于实现问题覆盖面广、响应速度快、答案匹配性高的虚拟客服服务,有利于提高虚拟客服系统与用户间的交互效率,改善与用户间的智能交互效果。
图3示意性示出了根据本公开实施例的另一交互处理方法的流程图,如图3所示,在人工应答信息为语音应答信息的情况下,操作S240例如可以包括操作S310~S340。
模拟交互视频包括至少一个交互视频片段,其中,各交互视频片段具有对应的客服状态标签,客服状态包括虚拟客服的动作状态和/或唇形状态。
在操作S310,对语音应答信息进行基于预设语音时长的切分处理,得到N个语音片段,N为大于1的整数。
接下来,在操作S320,进行针对各语音片段的客服状态预测,得到与各语音片段关联的状态预测结果。
接下来,在操作S330,根据状态预测结果,以及根据与各交互视频片段关联的客服状态标签,确定与各语音片段匹配的的交互视频片段。
接下来,在操作S340,根据N个语音片段的时序关系,将各语音片段与匹配的交互视频片段进行融合处理,得到目标应答信息。
在本实施例中,具体地,对语音应答信息进行基于预设语音时长的切分处理,得到N个语音片段,N为大于1的整数。示例性地,基于预设语音时长600ms,将语音应答信息切分为N个语音片段,其中,各语音片段时长为600ms。各语音片段具有对应的时间点信息,时间点信息指示N个语音片段间的时序关系。
模拟交互视频中的各交互视频片段具有对应的客服状态标签,客服状态包括虚拟客服的动作状态和/或唇形状态。对N个语音片段中的各语音片段进行客服状态预测,得到与各语音片段关联的客服动作序列和唇形图像序列,得到状态预测结果。然后,根据状态预测结果,确定与各语音片段匹配的交互视频片段,其中,针对任一语音片段,与该语音片段关联的状态预测结果,与相匹配的交互视频片段的客服状态标签间的相似度高于预设阈值。
根据N个语音片段间的时序关系,对各语音片段及对应的交互视频片段进行融合处理,得到针对用户的交互输入信息的目标应答信息,实际应用中,各交互视频片段可以是只包含虚拟客服图像的静默视频。在人工应答信息为文本应答信息的情况下,对文本应答信息进行语音转换处理,得到对应的语音应答信息,然后将对应的语音应答信息与模拟交互视频进行融合处理,得到目标应答信息。
另外,也可以利用虚拟客服的人物底板图像,根据N个语音片段间的时序关系,以及根据与各语音片段关联的状态预测结果指示的动作状态和/或唇形状态,将各语音片段与虚拟客服的人物底板图像进行合成处理,得到目标应答信息。
图4示意性示出了根据本公开实施例的又一交互处理方法的流程图,如图4所示,操作S210可以包括操作S410~S430。
预设的交互应答库中包括至少一个预设交互问题和与各预设交互问题关联的参考应答信息。
在操作S410,对交互输入信息进行意图识别处理,得到与交互输入信息关联的交互意图标签。
接下来,在操作S420,将交互意图标签与至少一个预设交互问题进行匹配,得到交互意图标签与各预设交互问题的匹配度。
接下来,在操作S430,确定是否存在对应匹配度高于预设阈值的预设交互问题,若不存在,确定交互应答库中不存在针对交互输入信息的参考应答信息。
在本公开实施例中,具体地,交互意图标签指示用户的交互需求分类,在交互输入信息为文本输入信息的情况下,对文本输入信息进行意图识别处理,得到用户的交互意图标签。具体地,可以对文本输入信息进行分词处理,得到词组集合;然后,将词组集合中的各词组与不同交互需求分类关联的预设关键词库进行比对,根据比对结果确定文本输入信息中的关键词,并将关键词作为与用户关联的交互意图标签。
在交互输入信息为语音输入信息的情况下,可以先对语音输入信息进行语音转换,得到对应的文本输入信息,然后再对转换得到的文本输入信息进行意图识别处理。其中,在对语音输入信息进行文本转换处理时,可以采用领域内的常用文本转换技术实现,本实施例在此不进行赘述。
每个预设交互问题可以对应不同的交互问题向量,在将交互意图标签与至少一个预设交互问题进行匹配,得到交互意图标签与各预设交互问题的匹配度时,可以先对交互意图标签进行向量转换,得到交互意图向量;然后,确定交互意图向量与交互问题向量的距离,并将确定出的各距离的倒数作为交互意图标签与各预设交互问题的匹配度。
图5示意性示出了根据本公开实施例的一种交互过程示意图,如图5所示,在交互过程500中,用户通过用户终端发起交互输入信息;然后,虚拟客服系统的管理服务器在交互应答库中确定是否存在与交互输入信息匹配的参考应答信息,若存在,输出参考应答信息,若不存在,向人工客服发送用户的交互输入信息;人工客服基于接收的交互输入信息,通过人工客服端返回人工应答信息;管理服务器获取获取人工客服针对交互输入信息的人工应答信息,以及从数据库服务器获取基于虚拟客服生成的预设模拟交互视频,最后,管理服务器对人工应答信息和模拟交互视频进行融合处理,得到针对交互输入信息的目标应答信息并输出。
图6示意性示出了根据本公开实施例的一种交互处理装置的框图。
如图6所示,交互处理装置600包括第一处理模块601、第二处理模块602、获取模块603和第三处理模块604。
具体地,第一处理模块601,用于响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对交互输入信息的参考应答信息;第二处理模块602,用于在交互应答库中不存在参考应答信息的情况下,向人工客服发送交互输入信息,以供人工客服获知交互输入信息;获取模块603,用于获取人工客服针对交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频;第三处理模块604,用于对人工应答信息和模拟交互视频进行融合处理,得到针对交互输入信息的目标应答信息并输出。
通过本公开实施例,响应于用户的交互输入信息,确定交互应答库中是否存在针对交互输入信息的参考应答信息,在交互应答库中不存在参考应答信息时,向人工客服发送交互输入信息,然后获取人工客服针对用户的交互输入信息的人工应答信息以及基于虚拟客服生成的预设模拟交互视频,再对人工应答信息和模拟交互视频进行融合处理,得到针对交互输入信息的目标应答信息并输出。本实施例方法能够在预设交互应答库无法覆盖来自用户的交互输入信息的情况下,获取人工客服针对交互输入信息的人工应答信息,将人工应答信息与基于虚拟客服生成的模拟交互视频进行融合,得到针对交互输入信息的目标应答信息,这有利于实现问题覆盖面广、响应速度快、答案匹配性高的虚拟客服服务,有利于提高虚拟客服系统与用户间的交互效率,改善与用户间的智能交互效果。
作为一种可行的方式,基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的用户特征标签,与任一模拟交互视频关联的用户特征标签指示该模拟交互视频所适用的用户类型,其中,M为大于1的整数;获取模块包括:获取子模块,用于获取与用户关联的用户特征信息;第一处理子模块,用于确定用户特征信息与各用户特征标签间的匹配度;第二处理子模块,用于将与匹配度最高的用户特征标签关联的模拟交互视频,作为适用于用户的模拟交互视频。
作为一种可行的方式,基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的面部驱动标签,与任一模拟交互视频关联的面部驱动标签指示虚拟客服在生成该模拟交互视频时所使用的面部驱动参数;在人工应答信息为语音应答信息的情况下,获取模块还包括:第三处理子模块,用于对语音应答信息进行解析处理,以获得语音应答信息中的语音元素;第四处理子模块,用于根据语音元素与面部驱动参数间的预设映射关系,确定与语音元素匹配的面部驱动参数;第五处理子模块,用于根据与语音元素匹配的面部驱动参数,以及根据与各模拟交互视频关联的面部驱动标签,确定适用于语音应答信息的模拟交互视频。
作为一种可行的方式,模拟交互视频包括至少一个交互视频片段,其中,各交互视频片段具有对应的客服状态标签,客服状态包括虚拟客服的动作状态和/或唇形状态;第三处理模块包括:第六处理子模块,用于在人工应答信息为语音应答信息的情况下,对语音应答信息进行基于预设语音时长的切分处理,得到N个语音片段,N为大于1的整数;第七处理子模块,用于进行针对各语音片段的客服状态预测,得到与各语音片段关联的状态预测结果;第八处理子模块,用于根据状态预测结果,以及根据与各交互视频片段关联的客服状态标签,确定与各语音片段匹配的的交互视频片段;第九处理子模块,用于根据N个语音片段的时序关系,将各语音片段与匹配的交互视频片段进行融合处理,得到目标应答信息。
作为一种可行的方式,第三处理模块还包括:第十处理子模块,用于在人工应答信息为文本应答信息的情况下,对文本应答信息进行语音转换,得到对应的语音应答信息。
作为一种可行的方式,交互应答库中包括至少一个预设交互问题和与各预设交互问题关联的参考应答信息,第一处理模块包括:第十一处理子模块,用于对交互输入信息进行意图识别处理,得到与交互输入信息关联的交互意图标签;第十二处理子模块,用于将交互意图标签与至少一个预设交互问题进行匹配,得到交互意图标签与各预设交互问题的匹配度;第十三处理子模块,用于确定是否存在对应匹配度高于预设阈值的预设交互问题,若不存在,确定交互应答库中不存在针对交互输入信息的参考应答信息。
作为一种可行的方式,装置还包括第四处理模块,用于响应于交互应答库中不存在针对交互输入信息的参考应答信息,输出等待提示信息,以提示用户正在生成目标应答信息;以及,响应于融合处理得到目标应答信息,停止显示等待提示信息。
需要说明的是,在本公开实施例中,装置部分的实施方式与方法部分的实施方式相同或类似,在此不再赘述。
根据本公开的实施例的模块中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者根据本公开实施例的模块中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,第一处理模块601、第二处理模块602、获取模块603和第三处理模块604中的任意多个可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一处理模块601、第二处理模块602、获取模块603和第三处理模块604中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。第一处理模块601、第二处理模块602、获取模块603和第三处理模块604中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图7示意性示出了适于实现根据本公开实施例的处理方法和处理装置的电子设备700的方框图。图7示出的电子设备700仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,根据本公开实施例的电子设备700包括处理器701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储部分708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。处理器701例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器701还可以包括用于缓存用途的板载存储器。处理器701可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM703中,存储有电子设备700操作所需的各种程序和数据。处理器701、ROM702以及RAM703通过总线704彼此相连。处理器701通过执行ROM702和/或RAM703中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,程序也可以存储在除ROM 702和RAM703以外的一个或多个存储器中。处理器701也可以通过执行存储在一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备700还可以包括输入/输出(I/O)接口705,输入/输出(I/O)接口705也连接至总线704。电子设备700还可以包括连接至I/O接口705的以下部件中的一项或多项:包括键盘、鼠标等的输入部分706;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分707;包括硬盘等的存储部分708;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分709。通信部分709经由诸如因特网的网络执行通信处理。驱动器710也根据需要连接至I/O接口705。可拆卸介质711,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器710上,以便于从其上读出的计算机程序根据需要被安装入存储部分708。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分709从网络上被下载和安装,和/或从可拆卸介质711被安装。在该计算机程序被处理器701执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 702和/或RAM 703和/或ROM 702和RAM 703以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行本公开实施例所提供的方法的程序代码,当计算机程序产品在电子设备上运行时,该程序代码用于使电子设备实现本公开实施例所提供的用于文件上传漏洞的检测方法。
在该计算机程序被处理器701执行时,执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分709被下载和安装,和/或从可拆卸介质711被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (11)

1.一种交互处理方法,包括:
响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对所述交互输入信息的参考应答信息;
若否,向人工客服发送所述交互输入信息,以供所述人工客服获知所述交互输入信息;
获取所述人工客服针对所述交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频;
对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息并输出。
2.根据权利要求1所述的方法,其中,
基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的用户特征标签,与任一模拟交互视频关联的用户特征标签指示该模拟交互视频所适用的用户类型,其中,M为大于1的整数;
所述获取基于虚拟客服生成的预设模拟交互视频,包括:
获取与所述用户关联的用户特征信息;
确定所述用户特征信息与各所述用户特征标签间的匹配度;
将与匹配度最高的用户特征标签关联的模拟交互视频,作为适用于所述用户的模拟交互视频。
3.根据权利要求1所述的方法,其中,
基于虚拟客服生成的M个模拟交互视频中的各模拟交互视频具有对应的面部驱动标签,与任一模拟交互视频关联的面部驱动标签指示虚拟客服在生成该模拟交互视频时所使用的面部驱动参数;
在所述人工应答信息为语音应答信息的情况下,所述获取基于虚拟客服生成的预设模拟交互视频,还包括:
对所述语音应答信息进行解析处理,以获得所述语音应答信息中的语音元素;
根据语音元素与面部驱动参数间的预设映射关系,确定与所述语音元素匹配的面部驱动参数;
根据与所述语音元素匹配的面部驱动参数,以及根据与各所述模拟交互视频关联的面部驱动标签,确定适用于所述语音应答信息的模拟交互视频。
4.根据权利要求1所述的方法,其中,
所述模拟交互视频包括至少一个交互视频片段,其中,各所述交互视频片段具有对应的客服状态标签,所述客服状态包括所述虚拟客服的动作状态和/或唇形状态;
在所述人工应答信息为语音应答信息的情况下,所述对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息,包括:
对所述语音应答信息进行基于预设语音时长的切分处理,得到N个语音片段,N为大于1的整数;
进行针对各所述语音片段的客服状态预测,得到与各所述语音片段关联的状态预测结果;
根据所述状态预测结果,以及根据与各所述交互视频片段关联的客服状态标签,确定与各所述语音片段匹配的的交互视频片段;
根据所述N个语音片段的时序关系,将各所述语音片段与匹配的交互视频片段进行融合处理,得到所述目标应答信息。
5.根据权利要求4所述的方法,其中,在所述人工应答信息为文本应答信息的情况下,所述对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息,包括:
对所述文本应答信息进行语音转换,得到对应的语音应答信息;
将所述对应的语音应答信息与所述模拟交互视频进行融合处理,得到所述目标应答信息。
6.根据权利要求1所述的方法,其中,
所述交互应答库中包括至少一个预设交互问题和与各所述预设交互问题关联的参考应答信息,
所述响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对所述交互输入信息的参考应答信息,包括:
对所述交互输入信息进行意图识别处理,得到与所述交互输入信息关联的交互意图标签;
将所述交互意图标签与所述至少一个预设交互问题进行匹配,得到所述交互意图标签与各所述预设交互问题的匹配度;以及
确定是否存在对应匹配度高于预设阈值的所述预设交互问题,若不存在,确定所述交互应答库中不存在针对所述交互输入信息的参考应答信息。
7.根据权利要求1至6中任一项所述的方法,还包括:
响应于所述交互应答库中不存在针对所述交互输入信息的参考应答信息,输出等待提示信息,以提示用户正在生成所述目标应答信息;
以及,响应于融合处理得到所述目标应答信息,停止显示所述等待提示信息。
8.一种交互处理装置,包括:
第一处理模块,用于响应于用户的交互输入信息,在预设交互应答库中确定是否存在针对所述交互输入信息的参考应答信息;
第二处理模块,用于在所述交互应答库中不存在所述参考应答信息的情况下,向人工客服发送所述交互输入信息,以供所述人工客服获知所述交互输入信息;
获取模块,用于获取所述人工客服针对所述交互输入信息的人工应答信息,以及获取基于虚拟客服生成的预设模拟交互视频;
第三处理模块,用于对所述人工应答信息和所述模拟交互视频进行融合处理,得到针对所述交互输入信息的目标应答信息并输出。
9.一种电子设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,存储有计算机可执行指令,所述指令在被执行时用于实现权利要求1至7中任一项所述的方法。
11.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法。
CN202110770158.7A 2021-07-07 2021-07-07 一种交互处理方法及装置 Pending CN113505268A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110770158.7A CN113505268A (zh) 2021-07-07 2021-07-07 一种交互处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110770158.7A CN113505268A (zh) 2021-07-07 2021-07-07 一种交互处理方法及装置

Publications (1)

Publication Number Publication Date
CN113505268A true CN113505268A (zh) 2021-10-15

Family

ID=78012048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110770158.7A Pending CN113505268A (zh) 2021-07-07 2021-07-07 一种交互处理方法及装置

Country Status (1)

Country Link
CN (1) CN113505268A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113992929A (zh) * 2021-10-26 2022-01-28 招商银行股份有限公司 虚拟数字人交互方法、系统、设备及计算机程序产品

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190295533A1 (en) * 2018-01-26 2019-09-26 Shanghai Xiaoi Robot Technology Co., Ltd. Intelligent interactive method and apparatus, computer device and computer readable storage medium
CN110647636A (zh) * 2019-09-05 2020-01-03 深圳追一科技有限公司 交互方法、装置、终端设备及存储介质
CN112632245A (zh) * 2020-12-18 2021-04-09 平安普惠企业管理有限公司 客服智能分配方法、装置、计算机设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190295533A1 (en) * 2018-01-26 2019-09-26 Shanghai Xiaoi Robot Technology Co., Ltd. Intelligent interactive method and apparatus, computer device and computer readable storage medium
CN110647636A (zh) * 2019-09-05 2020-01-03 深圳追一科技有限公司 交互方法、装置、终端设备及存储介质
CN112632245A (zh) * 2020-12-18 2021-04-09 平安普惠企业管理有限公司 客服智能分配方法、装置、计算机设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113992929A (zh) * 2021-10-26 2022-01-28 招商银行股份有限公司 虚拟数字人交互方法、系统、设备及计算机程序产品

Similar Documents

Publication Publication Date Title
US11158102B2 (en) Method and apparatus for processing information
US11436863B2 (en) Method and apparatus for outputting data
CN107609506B (zh) 用于生成图像的方法和装置
US10110933B2 (en) Video file processing
US11164004B2 (en) Keyframe scheduling method and apparatus, electronic device, program and medium
US11087140B2 (en) Information generating method and apparatus applied to terminal device
US20180204083A1 (en) Cognitive object and object use recognition using digital images
CN115935182A (zh) 模型训练方法、多轮对话中的话题分割方法、介质及装置
CN114286181B (zh) 一种视频优化方法、装置、电子设备和存储介质
CN112446214B (zh) 广告关键词的生成方法、装置、设备及存储介质
CN113505268A (zh) 一种交互处理方法及装置
US11521426B2 (en) Cognitive enablement of presenters
CN117633356A (zh) 基于大语言模型的资源处理方法、装置、电子设备及介质
CN110852801B (zh) 信息处理方法、装置及设备
US20230144326A1 (en) Contextual smart switching via multi-modal learning mechanism
CN113051381B (zh) 信息质检方法、装置、计算机系统和计算机可读存储介质
CN115730591A (zh) 基于知识图谱的用户服务方法、装置、设备和存储介质
US20220198141A1 (en) System and method for identifying and displaying information related to an off screen plot element or character in a media stream
CN111857935B (zh) 文字生成方法和装置
US20240163500A1 (en) Information display method, apparatus, electronic device and storage medium
CN116781965B (zh) 虚拟物品合成方法、装置、电子设备和计算机可读介质
CN115482490A (zh) 物品分类模型训练方法及物品分类方法、装置及介质
CN113326746A (zh) 用于人体模型的手语播报方法及装置
CN114154490A (zh) 模型训练、标题抽取方法、装置、电子设备和计算机可读介质
CN117786243A (zh) 一种搜索方法、装置、电子设备、计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination