CN113392201A - 信息交互方法、装置、电子设备、介质和程序产品 - Google Patents

信息交互方法、装置、电子设备、介质和程序产品 Download PDF

Info

Publication number
CN113392201A
CN113392201A CN202110682488.0A CN202110682488A CN113392201A CN 113392201 A CN113392201 A CN 113392201A CN 202110682488 A CN202110682488 A CN 202110682488A CN 113392201 A CN113392201 A CN 113392201A
Authority
CN
China
Prior art keywords
information
virtual object
request
interaction
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110682488.0A
Other languages
English (en)
Inventor
尹勇
罗涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202110682488.0A priority Critical patent/CN113392201A/zh
Publication of CN113392201A publication Critical patent/CN113392201A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供了一种信息交互方法、装置、电子设备、介质和程序产品,可应用于云计算和人工智能技术领域。该方法包括:接收来自客户端的交互请求,交互请求包括目标用户向虚拟对象发起实时交互的语音请求信息,响应于交互请求,利用部署在云端的平台即服务容器来获得用于响应语音请求信息的文本答复信息,调用部署在云端的图像处理服务器来基于文本答复信息生成虚拟对象的视频响应信息,将视频响应信息传输至客户端以向目标用户展示交互请求的响应结果。

Description

信息交互方法、装置、电子设备、介质和程序产品
技术领域
本公开涉及云计算、人工智能技术领域,特别是涉及一种信息交互方法、装置、电子设备、介质和程序产品。
背景技术
本部分旨在为权利要求书中陈述的本公开的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
随着信息科学和计算机技术的飞速发展与普及,信息资源逐步走向数字化,人们咨询信息的方式也已经不再局限于传统意义上的人(用户)与人(客服人员)之间的交流,利用计算机合成生动活泼的虚拟对象,并辅之以丰富、自然的语言、表情、以及口型等人类习惯的自然方式与用户进行人机交互更为人性化,也成为咨询方式的必然选择。
在实现用户和虚拟对象实时交互的过程中,想要达到逼真的效果,虚拟对象的实时渲染需要强大的图形图像和数据处理能力,例如利用图形处理器(Graphics ProcessingUnit,GPU)服务器对虚拟对象的形象进行实时重建、渲染,但是GPU服务器的价格昂贵,且搬运困难,导致利用虚拟对象实现人机交互的方案需要投入较高的经济成本和时间成本,严重制约虚拟对象在人机交互中的应用和推广。
发明内容
有鉴于此,为了至少部分地克服相关技术在实现用户和虚拟对象实时交互的过程中所存在的上述技术问题,本公开提供了一种既经济实用又灵活便捷的信息交互方法、装置、电子设备、介质和程序产品。
为了实现上述目标,本公开的一个方面提供了一种信息交互方法,可以包括:接收来自客户端的交互请求,上述交互请求包括目标用户向虚拟对象发起实时交互的语音请求信息,响应于上述交互请求,利用部署在云端的平台即服务容器来获得用于响应上述语音请求信息的文本答复信息,调用部署在云端的图像处理服务器来基于上述文本答复信息生成上述虚拟对象的视频响应信息,以及将上述视频响应信息传输至上述客户端以向上述目标用户展示上述交互请求的响应结果。
根据本公开的实施例,上述利用部署在云端的平台即服务容器来获得用于响应上述语音请求信息的文本答复信息可以包括:利用部署在云端的平台即服务容器调用自动语音识别构件来获得上述语音请求信息的文本请求信息,利用上述部署在云端的平台即服务容器调用自然语言处理构件来获得与上述文本请求信息对应的文本响应信息,将上述文本响应信息确定为用于响应上述语音请求信息的文本答复信息。
根据本公开的实施例,上述调用部署在云端的图像处理服务器来基于上述文本答复信息生成上述虚拟对象的视频响应信息可以包括:获得上述虚拟对象的对象模型,获得与上述文本答复信息对应的语音答复信息,基于上述对象模型和上述语音答复信息生成上述虚拟对象的表达序列,以及调用部署在云端的图像处理服务器对上述虚拟对象的表达序列进行渲染处理来生成上述虚拟对象的视频响应信息。
根据本公开的实施例,上述信息交互方法还可以包括:获得上述虚拟对象的训练样本数据,其中,上述训练样本数据用于表征构建上述虚拟对象的形态参数,以及训练上述训练样本数据来预先生成上述虚拟对象的对象模型。
根据本公开的实施例,上述将上述视频响应信息传输至上述客户端可以包括:使用预设传输协议将上述视频响应信息进行封装来生成响应视频流数据,以及以推流的方式将上述响应视频流数据传输至上述客户端。
根据本公开的实施例,上述信息交互方法还可以包括:获得与上述交互请求对应的交互场景信息,以及基于上述交互场景信息,确定与上述目标用户对应的虚拟对象。
为了实现上述目标,本公开的另一个方面提供了一种信息交互装置,可以包括:接收模块,用于接收来自客户端的交互请求,上述交互请求包括目标用户向虚拟对象发起实时交互的语音请求信息,第一获得模块,用于响应于上述交互请求,利用部署在云端的平台即服务容器来获得用于响应上述语音请求信息的文本答复信息,生成模块,用于调用部署在云端的图像处理服务器来基于上述文本答复信息生成上述虚拟对象的视频响应信息,传输模块,用于将上述视频响应信息传输至上述客户端以向上述目标用户展示上述交互请求的响应结果。
根据本公开的实施例,上述第一获得模块可以包括:第一获得子模块,用于利用部署在云端的平台即服务容器调用自动语音识别构件来获得上述语音请求信息的文本请求信息,第二获得子模块,用于利用上述部署在云端的平台即服务容器调用自然语言处理构件来获得与上述文本请求信息对应的文本响应信息,以及确定模块,用于将上述文本响应信息确定为用于响应上述语音请求信息的文本答复信息。
根据本公开的实施例,上述生成模块可以包括:第三获得子模块,用于获得上述虚拟对象的对象模型,第四获得子模块,用于获得与上述文本答复信息对应的语音答复信息,第一生成子模块,用于基于上述对象模型和上述语音答复信息生成上述虚拟对象的表达序列,以及第二生成子模块,用于调用部署在云端的图像处理服务器对上述虚拟对象的表达序列进行渲染处理来生成上述虚拟对象的视频响应信息。
根据本公开的实施例,上述信息交互装置还可以包括:第五获得子模块,用于获得上述虚拟对象的训练样本数据,其中,上述训练样本数据用于表征构建上述虚拟对象的形态参数,以及第三生成子模块,用于训练上述训练样本数据来预先生成上述虚拟对象的对象模型。
根据本公开的实施例,上述传输模块可以包括:封装子模块,用于使用预设传输协议将上述视频响应信息进行封装来生成响应视频流数据,以及传输子模块,用于以推流的方式将上述响应视频流数据传输至上述客户端。
根据本公开的实施例,上述信息交互装置还可以包括:第二获得模块,用于获得与上述交互请求对应的交互场景信息,以及确定模块,用于基于上述交互场景信息,确定与上述目标用户对应的虚拟对象。
为了实现上述目标,本公开的另一方面提供了一种电子设备,包括:一个或多个处理器,存储器,用于存储一个或多个程序,其中,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如上所述的信息交互方法。
为了实现上述目标,本公开的另一方面提供了一种计算机可读存储介质,存储有计算机可执行指令,上述指令在被执行时用于实现如上所述的信息交互方法。
为了实现上述目标,本公开的另一方面提供了一种计算机程序,上述计算机程序包括计算机可执行指令,上述指令在被执行时用于实现如上所述的信息交互方法。
与相关技术中利用部署在本地的GPU服务器对虚拟对象进行渲染的解决方案不同,本公开提供的信息交互方法利用部署在云端的图像处理服务器根据用于响应语音请求信息的文本答复信息生成虚拟对象的视频响应信息,可以避免使用本地的GPU服务器对虚拟对象进行渲染,克服GPU服务器的价格昂贵,且搬运困难,导致利用虚拟对象实现人机交互的方案需要投入较高的经济成本和时间成本,严重制约虚拟对象在人机交互中的应用和推广的技术问题,并因此可以减少利用虚拟对象进行人机交互时的经济成本和时间成本的投入,同时与提高虚拟对象的渲染效率,有助于虚拟对象在人机交互中的应用和推广。
附图说明
通过参考附图阅读下文的详细描述,本公开示例性实施方式的上述以及其他目的、特征和优点将变得易于理解。在附图中,以示例性而非限制性的方式示出了本公开的若干实施方式,其中:
图1示意性示出了适用于本公开实施例的信息交互方法、装置、电子设备、介质和程序产品的系统架构;
图2示意性示出了适用于本公开实施例的信息交互方法、装置、电子设备、介质和程序产品的应用场景;
图3示意性示出了根据本公开实施例的信息交互方法的流程图;
图4示意性示出了根据本公开另一实施例的信息交互方法的流程图;
图5示意性示出了根据本公开另一实施例的信息交互方法的流程图;
图6示意性示出了根据本公开实施例的信息交互装置的框图;
图7示意性示出了根据本公开实施例的适于实现上文描述的信息交互方法的计算机可读存储介质产品的示意图;以及
图8示意性示出了根据本公开实施例的适于实现上文描述的信息交互方法的电子设备的框图。
在附图中,相同或对应的标号表示相同或对应的部分。
应该注意的是,附图并未按比例绘制,并且出于说明目的,在整个附图中类似结构或功能的元素通常用类似的附图标记来表示。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了上述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程信息交互装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。本公开的技术可以硬件和/或软件(包括固件、微代码等)的形式来实现。另外本公开的技术可以采取存储有指令的计算机可读存储介质上的计算机程序产品的形式,该计算机程序产品可供指令执行系统使用或者结合指令执行系统使用。
在本公开中,虚拟对象指的是通过计算机技术构造出的虚拟人像,或者虚拟卡通形象,即数字人,利用数字人替代冷冰冰的机器人能够实现与用户之间的自然交互,为用户提供有温度的服务。同时从视觉维度上,不仅可以丰富用户的使用与交互的体验,还可以在交互过程中更加了解用户的真实咨询意图,进而更好的为客户提供信息咨询服务。数字人作为人机交互的参与方要求服务端对人像进行实时计算、渲染。但是在相关技术中,对人像进行实时计算、渲染的服务端为本地部署的GPU服务器,不仅价格昂贵,而且搬运困难,导致利用虚拟对象实现人机交互的方案需要投入较高的经济成本和时间成本。
因此,本公开提供了一种信息交互方法、装置、电子设备、介质和程序产品。该信息交互方法可以包括视频响应信息生成过程和视频响应信息传输过程。在视频响应信息生成过程中,首先接收来自客户端的交互请求,该交互请求包括目标用户向虚拟对象发起实时交互的语音请求信息,然后响应于交互请求,利用部署在云端的平台即服务容器来获得用于响应语音请求信息的文本答复信息,最后调用部署在云端的图像处理服务器来基于文本答复信息生成虚拟对象的视频响应信息。在完成响应信息生成过程后,进入视频响应信息传输过程,将视频响应信息传输至客户端以向目标用户展示交互请求的响应结果。
由于本公开提供的信息交互方法是利用部署在云端的平台即服务容器来获得用于响应语音请求信息的文本答复信息,并利用部署在云端的图像处理资源来渲染虚拟对象以生成虚拟对象的视频响应信息,因此可以至少部分地克服GPU服务器的价格昂贵,且搬运困难,导致利用虚拟对象实现人机交互的方案需要投入较高的经济成本和时间成本,严重制约虚拟对象在人机交互中的应用和推广的技术问题,并可以减少利用虚拟对象进行人机交互时的经济成本和时间成本的投入,同时与提高虚拟对象的渲染效率,有助于虚拟对象在人机交互中的应用和推广。
图1示意性示出了适用于本公开实施例的信息交互方法、装置、电子设备、介质和程序产品的系统架构100。需要注意的是,图1所示仅为可应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是部署在云端的,用来提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
需要说明的是,本公开实施例所提供的信息交互方法一般可以由服务器105执行。相应地,本公开实施例所提供的信息交互装置一般可以设置于服务器105中。本公开实施例所提供的信息交互方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的信息交互装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
图2示意性示出了适用于本公开实施例的信息交互方法、装置、电子设备、介质和程序产品的应用场景。
如图2所示,本公开实施例的信息交互方法、装置、电子设备、介质和程序产品适用于用户210与虚拟对象220进行交互的应用场景200中。用户210可以发起交互请求,例如语音。利用部署在云端上的图像处理服务器可以基于交互请求的文本答复信息生成视频响应信息,以推流的方式反馈给用户210,以实现用户210与虚拟对象220之间的人机交互。需要说明的是,图2中所示的虚拟对象的人物形式仅仅是示意性地,并非对人物形象的具体限定。
需要说明的是,随着5G技术的飞速发展以及智能终端性能的不断提升,用来提供全新智能的对客服务的数字人,不仅可以降低人力成本,还可以提升服务质量和效率,为数字人的应用提供了良好的发展空间,使得数字人技术得以广泛应用在金融、广电、教育、营销、医疗、零售、游戏等众多行业的人机交互场景。本公开提供的信息交互方法、装置、电子设备、介质和程序产品可用于金融领域的人机交互场景中,也可用于除金融领域之外的任意领域的人机交互场景中。因此,对本公开所提供的信息交互方法、装置、电子设备、介质和程序产品的应用领域不做具体限定。
图3示意性示出了根据本公开实施例的信息交互方法的流程图。
如图3所示,该信息交互方法300可以包括操作S310~操作S340。
在操作S310,接收来自客户端的交互请求,交互请求包括目标用户向虚拟对象发起实时交互的语音请求信息。
根据本公开的实施例,客户端可以是安装在图1所示的任意终端设备中的应用程序(Application,APP),用于实现人机交互。例如安装在智能手机上的智能客服APP。客户端的操作者,即目标用户作为交互请求的发起方,用于向虚拟对象发起交互请求,虚拟对象作为交互请求的接收方,用于响应目标用户的交互请求。交互请求中携带的语音请求信息可以是目标用户通过终端设备的客户端执行输入语音操作所输入的语音信息,在本公开中,对交互请求的发送机制以及交互请求中携带的语音请求信息的请求内容不进行具体限定。
根据本公开的实施例,可以通过拾音设备,例如麦克风阵列等,获取来自客户端的实时语音音频流,或者录音文件等语音请求信息。可选地,拾音设备还可以对采集的音频进行处理前的操作,比如回声消除,噪声抑制等,从而获取一段高质量的音频数据。
在本公开中,虚拟对象可以是数字人,数字人基于图像识别、语音识别与合成、语义理解、人像建模等人工智能技术,具有对物理世界的感知、认知与表达能力,以电子屏、虚拟现实(Virtual Reality,VR)等显示设备为载体,是实现人机交互的虚拟对象,可以提供极具温度的客户服务。虚拟对象可以为对二维或三维虚拟模型进行渲染得到的。二维或三维模型可以是自定义生成的,也可以是对一角色的图像或视频进行转换而得到的,还可以是对某一真人的图像或视频进行转换而得到的。
在操作S320,响应于交互请求,利用部署在云端的平台即服务容器来获得用于响应语音请求信息的文本答复信息。
根据本公开的实施例,对于平台即服务容器(Platform-as-a-Service,PAAS)来说,在部署PAAS容器服务时,需要购买相应的虚拟机,并构建相应的网络以支持通信交互。在具体实施时,可以利用部署在云端的平台即服务容器来识别语音请求信息所表达的语言意图,并获取与该语言意图相匹配的文本答复信息。
在操作S330,调用部署在云端的图像处理服务器来基于文本答复信息生成虚拟对象的视频响应信息。
根据本公开的实施例,通过文本答复信息对虚拟对象进行驱动,可以根据用于响应语音请求信息的文本答复信息进行口型匹配,并伴有肢体动作。在具体实施时,将与虚拟对象所对应的二维或三维虚拟模型存储在云端。在这种情况下,可以将文本答复信息作为驱动数据,调整虚拟对象所对应的二维或三维虚拟模型。利用云端GPU计算资源根据驱动数据所包含的控制参数来调整虚拟对象的二维或者三维模型参数,并基于调整后的二维或者三维模型参数,利用渲染引擎生成虚拟对象的回应动画,即视频响应信息,并向客户端发送生成的回应动画,此时回应动画中展示虚拟对象的口型、动作以及表情。在具体实施时,根据文本答复信息进行虚拟对象的口型匹配,并伴有肢体动作、以及表情。发音口型根据文字发声的声母和韵母发声口型,提取口型动作、手势和动作数据,根据人体捕捉动画数据采用算法使提取的数据自动合成,使数字人能够与用户进行动作、表情、手势上的交互。
根据本公开的实施例,可以基于文本答复信息,生成用于使虚拟对象将文本答复信息表达出来的驱动数据。需要说明的是,驱动数据可以部署在服务器中,也可以部署在云端,本公开对此不做具体限定。具体地,在识别出语言意图的情况下,可以通过提取文本内容中与语言意图相关的参数,也即实体,例如可以通过系统分词、信息抽取等方式确定实体。在语言意图分类所对应的数据中,通过实体可以进一步确定符合语言意图的文本答复信息。本领域技术人员应当理解,以上方式仅用于示例,也可以利用其它方式获得与语言意图匹配的文本答复信息,本公开对此不进行具体限定。驱动数据可以包括但不限于声音驱动数据、表情驱动数据、动作驱动数据中的一种或多种。需要说明的是,驱动数据可以是预先存储在服务器或者其他关联的业务服务器中的,在接收到来自客户端的交互请求之后,可以根据语音请求信息在服务器或其他关联的业务服务器中进行检索,以获得与语音请求信息相匹配的驱动数据。驱动数据也可以是根据语音请求信息生成的,例如通过将语音请求信息输入到预先训练好的深度学习模型中,以预测得到与语音请求信息匹配的驱动数据。
通过文本答复信息生成动作驱动数据、声音驱动数据、姿态驱动数据,可以使虚拟对象在通过音视频回答交互请求的同时,还可以做出与发音相匹配的表情、动作、并同时用肢体动作来做相应的演示。
需要说明的是,根据实际的人机交互需求,可以选择不同的云计算厂商,购置不同配置的GPU资源,本公开对此不做具体限定。
在操作S340,将视频响应信息传输至客户端以向目标用户展示交互请求的响应结果。
根据本公开的实施例,虚拟对象的视频响应信息可以根据驱动数据生成,通过控制客户端的视频播放界面,播放虚拟对象的视频响应信息,将虚拟对象对来自于客户端的交互请求的回应进行展示。
通过本公开的实施例,使用部署在云端上图像处理服务器,将渲染提交到远程计算集群的处理资源得到渲染后的虚拟对象的视频响应信息,可以至少部分地解决GPU服务器价格昂贵,且搬运困难,导致利用数字人实现人机交互的方案需要投入较高的经济成本和时间成本,严重限制了数字人在行业领域中的应用和推广的技术问题,并因此可以减少经济成本和时间成本的投入,提高虚拟对象的渲染效率,有助于数字人在行业领域中的应用和推广。
作为一种可选的实施例,利用部署在云端的平台即服务容器来获得用于响应语音请求信息的文本答复信息可以包括:利用部署在云端的平台即服务容器调用自动语音识别构件来获得语音请求信息的文本请求信息;利用部署在云端的平台即服务容器调用自然语言处理构件来获得与文本请求信息对应的文本响应信息;以及将文本响应信息确定为用于响应语音请求信息的文本答复信息。
在本公开中,可以基于自动语音识别(Automatic Speech Recognition,简称ASR)技术从所述音频信息中提取得到所述文本信息。ASR构件可以对音频类的输入信息进行信息识别,得到音频类的输入信息的识别结果。在具体实施时,对拾音设备获取到的实时语音音频流和录音文件,可以直接输入部署在云端的平台即服务容器调用的ASR中进行识别,也可以在拾音设备进行前处理后得到音频数据,再将此音频数据输入部署在云端的平台即服务容器调用的ASR中进行识别。需要说明的是,ASR构件可以包括但不限于音频过滤、语音分段、特征提取、声学模型、语言模型、解码器等模块。
需要说明的是,其他可将音频信息转化为其对应的文本请求信息的方法,均可用于实现这一步骤,本公开不一一列举。
根据本公开的实施例,在获得语音请求信息的文本请求信息之后,可以利用预先训练好的用于自然语言处理的神经网络模型对文本请求信息进行处理,神经网络模型可以包括但不限于卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)、长短期记忆网络(Long Short Term Memory Network,LSTM)。将获取到的文本请求信息输入至上述神经网络模型中,通过对文本内容所表征的语言意图进行分类,从而可以确定文本请求信息所表达的语言意图类别。由于文本请求信息所包括的文本内容可能包含多层含义,通过利用NLP算法,可以准确识别出用户实际想要表达的真实意图,从而能够直接反馈用户真正想要获取的文本响应信息,提升了用户的交互体验。
根据本公开的实施例,在获得语音请求信息的文本请求信息之后,可以在语料库中存储的交互请求集中搜索来获得与该文本请求信息对应的文本响应信息。搜索语料库中的交互请求集并反馈找到的文本响应信息,在检索时可以优先检索用户访问频率高的语音请求信息。语义匹配方面可以采用基于最大关键词有序序列的加权语句相似度算法和/或基于概念对象模型的问句相似度算法,本公开不做具体限定。
通过自动语音识别构件和自然语言处理构件,可以快速基于语音请求信息获得与其对应的文本答复信息,提高交互效率和准确度。
作为一种可选的实施例,调用部署在云端的图像处理服务器来基于文本答复信息生成虚拟对象的视频响应信息可以包括:获得虚拟对象的对象模型;获得与文本答复信息对应的语音答复信息;基于对象模型和语音答复信息生成虚拟对象的表达序列;以及调用部署在云端的图像处理服务器对虚拟对象的表达序列进行渲染处理来生成虚拟对象的视频响应信息。
根据本公开的实施例,数字人是通过虚拟现实技术,结合人机交互,高精度三维人像模拟、AI以及动作捕捉、面部表情捕捉等技术制作的虚拟人。本公开结合NLP技术和3D动画技术研究3D虚拟人像,使得虚拟人能够用自然语言与用户问答交流,并能在交流过程中根据情绪语义模仿人的表情以及口型。
根据本公开的实施例,虚拟对象的核心技术可以包括建模准备过程和人像生成过程。其中建模准备过程可以包括人像构建过程和模型训练两个过程,人像构建过程用于通过影像和动画技术构建2D和3D的人像形态,模型训练过程用于基于构建的人像形态并结合相应的数据与算法生成模型。人像生成过程可以包括模型预测和人像渲染两个过程,模型预测过程用于对构建的模型应用新数据(语音),生成数字人表达序列,人像渲染过程用于对表达序列进行人像重建,最终呈现出数字人形象。需要说明的是,不同的数字人形象在模型训练、模型预测和人像渲染可公用,而每个数字人形象都需要进行人像构建。
使用与文本答复信息对应的语音答复信息驱动数字人并生成自然的说话视频序列,即虚拟对象的表达序列。表达序列可以是在时间轴上连续或者不连续的语音信息,例如可以是具有特定语义的字、词语、或者句子,其可以是自然人说出的自然语音,也可以是预先录制好的语音,还可以是通过语音合成技术将文本信息进行语音合成后获得的语音,本公开对此不做限定。可以根据预设的语音信息与面部驱动参数之间的映射关系,获得与当前语音信息相对应的当前面部驱动参数。
本公开通过调用部署在云端的图像处理服务器对虚拟对象的表达序列进行渲染处理来生成虚拟对象的视频响应信息,可以提高响应信息的生成效率,向客户端快速反馈响应结果,同时可以提高虚拟对象的渲染效率,向用户及时展示渲染结果。
作为一种可选的实施例,该信息交互方法还可以包括:获得虚拟对象的训练样本数据,其中,训练样本数据用于表征构建虚拟对象的形态参数;以及训练训练样本数据来预先生成虚拟对象的对象模型。
根据本公开的实施例,训练样本的获取可以通过图像采集设备(例如高清摄像头等采集设备)获取用于表征构建虚拟对象的形态参数,形态参数可以包括但不限于人脸信息、手势信息、面部表情信息、面部情绪信息、嘴型信息、声音信息及其他图像数据。对人脸和手势进行图像采集,能够将这些信息作为后续对虚拟对象进行类别划分的参考。在具体实施时,虚拟对象可以是基于卡通人物形象虚拟出来的虚拟角色形象,也可以是基于真实的客服人员形象虚拟出来的虚拟角色形象,本公开不做具体限定。
可选地,训练样本数据可以包括训练样本集和测试样本集,训练样本集用于对对象模型进行训练,测试样本集用于验证对象模型的训练效果,并对其进行优化,直到训练结果表明对象模型效果达标为止。
需要说明的是,对象模型的训练步骤属于本领域的常规技术手段,故本公开实施例中不对其做进一步地详述,本领域技术人员可以自行选择模型训练方法来预先生成虚拟对象的对象模型。
本公开通过预先训练来生成虚拟对象的对象模型,可以在需要对虚拟对象进行实时渲染的情况下,直接获取对象模型,然后将答复语音信息合成到虚拟对象的对象模型中,生成视频响应信息,有利于给用户提供实时响应,提升用户的交互体验感受。
作为一种可选的实施例,将视频响应信息传输至客户端可以包括:使用预设传输协议将视频响应信息进行封装来生成响应视频流数据;以及以推流的方式将响应视频流数据传输至客户端。
考虑到人机交互的实时性要求较高,在本公开中,以推流的方式将响应视频流数据传输至客户端。推流指的是把采集阶段封包好的内容传输到服务器的过程,即现场的视频信号传到网络的过程。推流对网络要求比较高,如果网络不稳定,效果就会受到影响。要想用于推流还必须把音视频数据使用传输协议进行封装,变成流数据。常用的流传输协议类型包括RTSP、RTMP(Real Time Messaging Protocol,实时消息传输协议)、HLS等,RTMP是一个机遇TCP的协议族,是一种设计用来进行实时数据通信的网络协议,主要用来在Flash/AIR平台和支持RTMP协议的流媒体、交互服务器之间进行音视频和数据通信,由于使用RTMP传输的延时通常在1-3秒,对于实时性要求非常高的场景,RTMP也成为最常用的流传输协议。由于在实时交互场景中,网络状态不稳定是常见的,因此还可以通过一定的QoS算法来保证在网络不稳定的情况下将音视频流数据推送到网络端,具体地通过交互两端设置缓存,让码率均匀,最后通过CDN进行分发。
本公开通过推流方式将人像视频推送至客户端,可以给用户快速提供响应信息,提升人机交互的响应效率。
作为一种可选的实施例,该信息交互方法还可以包括:获得与交互请求对应的交互场景信息;以及基于交互场景信息,确定与目标用户对应的虚拟对象。
根据本公开的实施例,按照渲染方式和人物形象划分,可以针对不同场景需要,提供超写实、卡通等多种风格的数字人形象,支持通过人脸识别、手势识别等AI技术与用户进行智能交互,使得用户可以根据不同的交互场景选择适合的虚拟形象,这样虚拟对象可以快速对接不同知识领域的内容服务库,高效应用到更多行业。可选地,超写实风格的数字人可以打造银行、营业厅、服务大厅的智能前台,与用户进行真实有效的交互,提高服务质量和客户满意度。可选地,卡通风格的数字人可以应用于以趣味互动为想到的人机交互场景中,例如线下商超中的智能引导员,或者智能教练、虚拟教师等,达到顾客引流、激发兴趣、强化教学效果的目的。
为了进一步说明本公开提供的用户与数字人之间信息交互方法,下文将结合图4和图5所示的流程图详细描述具体实施方式。
图4示意性示出了根据本公开另一实施例的信息交互方法的流程图。
如图4所示,该信息交互方法400可以包括操作S410~操作S490。
在操作S410,用户发起交互请求至音视频采集构件410。在操作S420,音视频采集构件410采集用户音视频,上送用户请求至数字人交互控制系统构件420。在操作S430,数字人交互控制系统构件420上送语音请求至ASR构件430。在操作S440,ASR构件430生成语音识别文本,发送给数字人交互控制系统构件420。在操作S450,数字人交互控制系统构件420上送文本请求至NLP构件440。在操作S460,NLP构件440得到对话答复文本,发送给数字人交互控制系统构件420。在操作S470,数字人交互控制系统构件420上送新的答复文本,供数字人引擎构件450生成新的视频。在操作S480,数字人形象展示构件460实时展示新的数字人形象。在操作S490,用户观看答复视频。
在具体实施时,用户每次与数字人交互时,首先通过音视频采集构件410将交互请求上送至数字人交互控制系统构件420,数字人交互控制系统构件420的交互控制模块去调配各类构件来最终生成数字人形象,各类构件包括用于将用户的语音请求转换成文本的ASR构件430,用于根据用户文本请求获得答复文本的NLP构件440,用于生成新的数字人视频的数字人引擎构件450。最后通过数字人形象展示构件460来实时展示数字人形象。其中数字人交互控制系统构件420可以是PAAS容器,数字人形象展示构件460可以是GPU服务器。
本公开提供的信息交互方法,基于云计算资源的交互型数字人的系统建设方案。交互型数字人生成模型复杂度高,计算量大,对GPU服务器要求高,且购置GPU服务器的成本较高,本发明提出使用云端GPU渲染的方案,在服务端使用云端高性能GPU合成人像。
图5示意性示出了根据本公开另一实施例的信息交互方法的流程图。
如图5所示,该信息交互方法500涉及在调用者510、数字人后端服务平台520、云端数字人引擎GPU530、以及视频终端540之间的协作,该信息交互方法可以包括在调用者510和数字人后端服务平台520之间的操作S511~操作S516,在数字人后端服务平台520和云端数字人引擎GPU之间的操作S521~操作S526,在云端数字人引擎GPU530和视频终端540之间的操作S531~操作S532。
在具体实施时,该信息交互方法500的实时交互数字人云端渲染过程可以包括云端初始化接口初始化过程、长连接建立过程、视频流合成过程、以及长连接关闭过程。
在本公开中,调用云端资源实现用户与虚拟对象实时交互时虚拟对象的实时计算和渲染,需要调用云端初始化接口,在云端初始化接口初始化过程中,首先由调用者510向数字人后端服务平台520发送启动消息(操作S511)。数字人后端服务平台520响应于该启动消息,调用云端数字人引擎GPU530的云端初始化接口(操作S521)。在调用云端初始化接口成功的情况下,云端数字人引擎GPU530向数字人后端服务平台520返回初始化成功信息(操作S522),数字人后端服务平台520向调用者510返回初始化成功信息(操作S512)。
在云端初始化接口初始化成功的情况下,进入长连接建立过程。在长连接建立过程中,调用者510向数字人后端服务平台520发送建立长连接请求(操作S513)。数字人后端服务平台520响应于该建立长连接请求,与云端数字人引擎GPU530建立websocket长连接(操作S523)。在与云端数字人引擎GPU530之间的websocket长连接建立成功的情况下,云端数字人引擎GPU530向数字人后端服务平台520返回建立成功信息(操作S524),数字人后端服务平台520向调用者510返回建立成功信息(操作S514)。在本公开中,通过websocket建立长连接,接收用户发送过来的网络数据,websocket是HTML5提供的一种在单个TCP连接上进行全双工通讯的协议。Websocket使得客户端和服务器之间的数据交换变得更加简单,允许服务器主动向客户端推送数据。在websocket API中,浏览器和服务器只需要完成一次握手,两者之间就直接可以创建持久性的连接,并进行双向数据传输。在websocket API中,浏览器和服务器只需要做一个握手的动作,然后,浏览器和服务器之间就形成了一条快速通道。两者之间就直接可以数据互相传送。HTML5定义的websocket协议,可以更好的节省服务器资源和带宽,并且能够更加实时地进行通讯。浏览器通过JavaScript向服务器发出建立websocket连接的请求,连接建立之后,客户端和服务器端就可以通过TCP连接直接交换数据。当获取websocket连接后,可以通过send()方法来向服务器端发送数据,并通过onmessage事件来接收服务器端返回的数据。
在长连接建立成功的情况下,进入视频流合成过程。在视频流合成过程中,调用者510向数字人后端服务平台520发送文本信息(操作S515)。数字人后端服务平台520向云端数字人引擎GPU530发送文本信息(操作S525)。云端数字人引擎GPU530基于文本信息合成文本视频流(操作S531),然后云端数字人引擎GPU530推送文本视频流至视频终端540(操作S532),以使得用户可以观看文本视频流。需要说明的是,在视频流合成过程中的操作S515、操作S525、操作S531以及操作S532是可以循环执行的,即调用者510每向数字人后端服务平台520发送一次文本信息(操作S515)。数字人后端服务平台520就向云端数字人引擎GPU530发送一次文本信息(操作S525)。云端数字人引擎GPU530基于本次的文本信息合成文本视频流(操作S531),然后云端数字人引擎GPU530推送文本音视频流至视频终端540(操作S532),如此循环来完成用户与数字人之间的多次交互。
在视频流合成成功的情况下,进入长连接关闭过程,来结束用户与数字人之间的交互过程。在长连接关闭过程中,首先由调用者510向数字人后端服务平台520发送关闭长连接请求(操作S516),然后由数字人后端服务平台520向云端数字人引擎GPU530发送关闭websocket连接请求(操作S526)。
本公开利用云计算端部署的图像处理器对交互性数字人进行实时渲染,可以解除实时渲染对物理图像处理器的依赖性,通过云上数字人系统建设方案,可以有效的解决GPU设备的问题,通过使用云上GPU资源,实现数字人人像渲染的过程,适应性更强。
图6示意性示出了根据本公开实施例的信息交互装置的框图。
如图6所示,该信息交互装置600可以包括接收模块610、第一获得模块620、生成模块630、以及传输模块640。
接收模块610,用于接收来自客户端的交互请求,交互请求包括目标用户向虚拟对象发起实时交互的语音请求信息。可选地,接收模块610例如可以用于执行图3描述的操作S310,在此不再赘述。
第一获得模块620,用于响应于交互请求,利用部署在云端的平台即服务容器来获得用于响应语音请求信息的文本答复信息。可选地,第一获得模块620例如可以用于执行图3描述的操作S320,在此不再赘述。
生成模块630,用于调用部署在云端的图像处理服务器来基于文本答复信息生成虚拟对象的视频响应信息。可选地,生成模块630例如可以用于执行图3描述的操作S330,在此不再赘述。
传输模块640,用于将视频响应信息传输至客户端以向目标用户展示交互请求的响应结果。可选地,传输模块640例如可以用于执行图3描述的操作S340,在此不再赘述。
作为一种可选的实施例,前述第一获得模块620可以包括:第一获得子模块,用于利用部署在云端的平台即服务容器调用自动语音识别构件来获得语音请求信息的文本请求信息;第二获得子模块,用于利用部署在云端的平台即服务容器调用自然语言处理构件来获得与文本请求信息对应的文本响应信息;以及确定模块,用于将文本响应信息确定为用于响应语音请求信息的文本答复信息。
作为一种可选的实施例,前述生成模块630可以包括:第三获得子模块,用于获得虚拟对象的对象模型;第四获得子模块,用于获得与文本答复信息对应的语音答复信息;第一生成子模块,用于基于对象模型和语音答复信息生成虚拟对象的表达序列;以及第二生成子模块,用于调用部署在云端的图像处理服务器对虚拟对象的表达序列进行渲染处理来生成虚拟对象的视频响应信息。
作为一种可选的实施例,前述信息交互装置还可以包括:第五获得子模块,用于获得虚拟对象的训练样本数据,其中,训练样本数据用于表征构建虚拟对象的形态参数;以及第三生成子模块,用于训练训练样本数据来预先生成虚拟对象的对象模型。
作为一种可选的实施例,前述传输模块640可以包括:封装子模块,用于使用预设传输协议将视频响应信息进行封装来生成响应视频流数据;以及传输子模块,用于以推流的方式将响应视频流数据传输至客户端。
作为一种可选的实施例,前述信息交互装置还可以包括:第二获得模块,用于获得与交互请求对应的交互场景信息;以及确定模块,用于基于交互场景信息,确定与目标用户对应的虚拟对象。
需要说明的是,信息交互装置部分实施例中各模块的实施方式、解决的技术问题、实现的功能、以及达到的技术效果分别与信息交互方法部分实施例中各对应的步骤的实施方式、解决的技术问题、实现的功能、以及达到的技术效果相同或类似,在此不再赘述。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FNGA)、可编程逻辑阵列(NLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,接收模块、第一获得模块、生成模块、传输模块、第一获得子模块、第二获得子模块、确定模块、第三获得子模块、第四获得子模块、第一生成子模块、第二生成子模块、第五获得子模块、第三生成子模块、封装子模块、传输子模块、第二获得模块以及确定模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,接收模块、第一获得模块、生成模块、传输模块、第一获得子模块、第二获得子模块、确定模块、第三获得子模块、第四获得子模块、第一生成子模块、第二生成子模块、第五获得子模块、第三生成子模块、封装子模块、传输子模块、第二获得模块以及确定模块中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FNGA)、可编程逻辑阵列(NLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,接收模块、第一获得模块、生成模块、传输模块、第一获得子模块、第二获得子模块、确定模块、第三获得子模块、第四获得子模块、第一生成子模块、第二生成子模块、第五获得子模块、第三生成子模块、封装子模块、传输子模块、第二获得模块以及确定模块中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图7示意性示出了根据本公开实施例的适于实现上文描述的信息交互方法的计算机可读存储介质产品的示意图。
在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在设备上运行时,程序代码用于使设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的信息交互方法中的前述各项操作(或步骤),例如,电子设备可以执行如图3中所示的操作S310~操作S340、如图4中所示的操作S410~操作S490、如图5中所示的操作S511~操作S516、操作S521~操作S526、以及操作S531~操作S532。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、系统或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(ENROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
如图7所示,描述了根据本发明的实施方式的信息交互的程序产品700,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在设备,例如个人电脑上运行。然而本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、系统或者器件使用或者与其结合使用。
可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、系统或者器件使用或者与其结合使用的程序。可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、有线、光缆,RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,程序设计语言包括面向对象的程序设计语言-诸如Java,C++等,还包括常规的过程式程序设计语言-诸如“C”,语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络——包括局域网(LAA)或广域网(WAA)一连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
图8示意性示出了根据本公开实施例的适于实现上文描述的信息交互方法的电子设备的框图。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图8所示,根据本公开实施例的电子设备800包括处理器801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。处理器801例如可以包括通用微处理器(例如CNU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器801还可以包括用于缓存用途的板载存储器。处理器801可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 803中,存储有电子设备800操作所需的各种程序和数据。处理器801、ROM802以及RAM 803通过总线804彼此相连。处理器801通过执行ROM 802和/或RAM 803中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 802和RAM 803以外的一个或多个存储器中。处理器801也可以通过执行存储在所述一个或多个存储器中的程序来执行如图3中所示的操作S310~操作S340、如图4中所示的操作S410~操作S490、如图5中所示的操作S511~操作S516、操作S521~操作S526、以及操作S531~操作S532。
根据本公开的实施例,电子设备800还可以包括输入/输出(I/O)接口805,输入/输出(I/O)接口805也连接至总线804。系统800还可以包括连接至I/O接口805的以下部件中的一项或多项:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAA卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器801执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的信息交互方法,包括如图3中所示的操作S310~操作S340、如图4中所示的操作S410~操作S490、如图5中所示的操作S511~操作S516、操作S521~操作S526、以及操作S531~操作S532。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(ENROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 802和/或RAM 803和/或ROM 802和RAM 803以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目标,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (10)

1.一种信息交互方法,包括:
接收来自客户端的交互请求,所述交互请求包括目标用户向虚拟对象发起实时交互的语音请求信息;
响应于所述交互请求,利用部署在云端的平台即服务容器来获得用于响应所述语音请求信息的文本答复信息;
调用部署在云端的图像处理服务器来基于所述文本答复信息生成所述虚拟对象的视频响应信息;以及
将所述视频响应信息传输至所述客户端以向所述目标用户展示所述交互请求的响应结果。
2.根据权利要求1所述的方法,其中,所述利用部署在云端的平台即服务容器来获得用于响应所述语音请求信息的文本答复信息包括:
利用部署在云端的平台即服务容器调用自动语音识别构件来获得所述语音请求信息的文本请求信息;
利用所述部署在云端的平台即服务容器调用自然语言处理构件来获得与所述文本请求信息对应的文本响应信息;以及
将所述文本响应信息确定为用于响应所述语音请求信息的文本答复信息。
3.根据权利要求1所述的方法,其中,所述调用部署在云端的图像处理服务器来基于所述文本答复信息生成所述虚拟对象的视频响应信息包括:
获得所述虚拟对象的对象模型;
获得与所述文本答复信息对应的语音答复信息;
基于所述对象模型和所述语音答复信息生成所述虚拟对象的表达序列;以及
调用部署在云端的图像处理服务器对所述虚拟对象的表达序列进行渲染处理来生成所述虚拟对象的视频响应信息。
4.根据权利要求3所述的方法,其中,所述方法还包括:
获得所述虚拟对象的训练样本数据,其中,所述训练样本数据用于表征构建所述虚拟对象的形态参数;以及
训练所述训练样本数据来预先生成所述虚拟对象的对象模型。
5.根据权利要求1所述的方法,其中,所述将所述视频响应信息传输至所述客户端包括:
使用预设传输协议将所述视频响应信息进行封装来生成响应视频流数据;以及
以推流的方式将所述响应视频流数据传输至所述客户端。
6.根据权利要求1所述的方法,其中,所述方法还包括:
获得与所述交互请求对应的交互场景信息;以及
基于所述交互场景信息,确定与所述目标用户对应的虚拟对象。
7.一种信息交互装置,包括:
接收模块,用于接收来自客户端的交互请求,所述交互请求包括目标用户向虚拟对象发起实时交互的语音请求信息;
第一获得模块,用于响应于所述交互请求,利用部署在云端的平台即服务容器来获得用于响应所述语音请求信息的文本答复信息;
生成模块,用于调用部署在云端的图像处理服务器来基于所述文本答复信息生成所述虚拟对象的视频响应信息;以及
传输模块,用于将所述视频响应信息传输至所述客户端以向所述目标用户展示所述交互请求的响应结果。
8.一种电子设备,包括:
一个或多个处理器;以及
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1至6中任一项所述的方法。
9.一种计算机可读存储介质,其上存储有计算机可执行指令,所述指令在被执行时使处理器执行根据权利要求1至6中任一项所述的方法。
10.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时执行根据权利要求1至6中任一项所述的方法。
CN202110682488.0A 2021-06-18 2021-06-18 信息交互方法、装置、电子设备、介质和程序产品 Pending CN113392201A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110682488.0A CN113392201A (zh) 2021-06-18 2021-06-18 信息交互方法、装置、电子设备、介质和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110682488.0A CN113392201A (zh) 2021-06-18 2021-06-18 信息交互方法、装置、电子设备、介质和程序产品

Publications (1)

Publication Number Publication Date
CN113392201A true CN113392201A (zh) 2021-09-14

Family

ID=77623012

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110682488.0A Pending CN113392201A (zh) 2021-06-18 2021-06-18 信息交互方法、装置、电子设备、介质和程序产品

Country Status (1)

Country Link
CN (1) CN113392201A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113849117A (zh) * 2021-10-18 2021-12-28 深圳追一科技有限公司 交互方法、装置、计算机设备及计算机可读存储介质
CN113849626A (zh) * 2021-10-18 2021-12-28 深圳追一科技有限公司 基于h5的智能问答方法、装置、电子设备及存储介质
CN113868399A (zh) * 2021-10-18 2021-12-31 深圳追一科技有限公司 一种服务器超卖实现方法及装置、存储介质及电子设备
CN113992929A (zh) * 2021-10-26 2022-01-28 招商银行股份有限公司 虚拟数字人交互方法、系统、设备及计算机程序产品
CN114201043A (zh) * 2021-12-09 2022-03-18 北京百度网讯科技有限公司 内容交互的方法、装置、设备和介质
CN114221940A (zh) * 2021-12-13 2022-03-22 北京百度网讯科技有限公司 音频数据处理方法、系统、装置、设备以及存储介质
CN114238594A (zh) * 2021-11-30 2022-03-25 北京百度网讯科技有限公司 服务的处理方法、装置、电子设备及存储介质
CN114598738A (zh) * 2022-02-22 2022-06-07 网易(杭州)网络有限公司 数据处理方法、装置、存储介质及计算机设备
CN114610158A (zh) * 2022-03-25 2022-06-10 Oppo广东移动通信有限公司 数据处理方法及装置、电子设备、存储介质
CN114898746A (zh) * 2022-04-12 2022-08-12 青岛海尔科技有限公司 交互方法和装置、存储介质及电子装置
CN114911381A (zh) * 2022-04-15 2022-08-16 青岛海尔科技有限公司 交互的反馈方法和装置、存储介质及电子装置
CN115022395A (zh) * 2022-05-27 2022-09-06 平安普惠企业管理有限公司 业务视频推送方法、装置、电子设备及存储介质

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113849117A (zh) * 2021-10-18 2021-12-28 深圳追一科技有限公司 交互方法、装置、计算机设备及计算机可读存储介质
CN113849626A (zh) * 2021-10-18 2021-12-28 深圳追一科技有限公司 基于h5的智能问答方法、装置、电子设备及存储介质
CN113868399A (zh) * 2021-10-18 2021-12-31 深圳追一科技有限公司 一种服务器超卖实现方法及装置、存储介质及电子设备
CN113992929A (zh) * 2021-10-26 2022-01-28 招商银行股份有限公司 虚拟数字人交互方法、系统、设备及计算机程序产品
CN114238594A (zh) * 2021-11-30 2022-03-25 北京百度网讯科技有限公司 服务的处理方法、装置、电子设备及存储介质
CN114201043A (zh) * 2021-12-09 2022-03-18 北京百度网讯科技有限公司 内容交互的方法、装置、设备和介质
CN114221940A (zh) * 2021-12-13 2022-03-22 北京百度网讯科技有限公司 音频数据处理方法、系统、装置、设备以及存储介质
CN114221940B (zh) * 2021-12-13 2023-12-29 北京百度网讯科技有限公司 音频数据处理方法、系统、装置、设备以及存储介质
CN114598738A (zh) * 2022-02-22 2022-06-07 网易(杭州)网络有限公司 数据处理方法、装置、存储介质及计算机设备
CN114610158A (zh) * 2022-03-25 2022-06-10 Oppo广东移动通信有限公司 数据处理方法及装置、电子设备、存储介质
CN114898746A (zh) * 2022-04-12 2022-08-12 青岛海尔科技有限公司 交互方法和装置、存储介质及电子装置
CN114911381A (zh) * 2022-04-15 2022-08-16 青岛海尔科技有限公司 交互的反馈方法和装置、存储介质及电子装置
CN115022395A (zh) * 2022-05-27 2022-09-06 平安普惠企业管理有限公司 业务视频推送方法、装置、电子设备及存储介质
CN115022395B (zh) * 2022-05-27 2023-08-08 艾普科创(北京)控股有限公司 业务视频推送方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN113392201A (zh) 信息交互方法、装置、电子设备、介质和程序产品
US20230316643A1 (en) Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal
US10467792B1 (en) Simulating communication expressions using virtual objects
US11151765B2 (en) Method and apparatus for generating information
WO2021169431A1 (zh) 交互方法、装置、电子设备以及存储介质
US20210201886A1 (en) Method and device for dialogue with virtual object, client end, and storage medium
US20180336716A1 (en) Voice effects based on facial expressions
JP6967059B2 (ja) 映像を生成するための方法、装置、サーバ、コンピュータ可読記憶媒体およびコンピュータプログラム
CN110400251A (zh) 视频处理方法、装置、终端设备及存储介质
JP7479750B2 (ja) 仮想ビデオライブ放送処理方法及び装置、電子機器
US11308671B2 (en) Method and apparatus for controlling mouth shape changes of three-dimensional virtual portrait
US11670015B2 (en) Method and apparatus for generating video
CN112399258B (zh) 直播回放视频生成播放方法、装置、存储介质及电子设备
WO2022170848A1 (zh) 人机交互方法、装置、系统、电子设备以及计算机介质
CN114895817B (zh) 交互信息处理方法、网络模型的训练方法及装置
CN110880198A (zh) 动画生成方法和装置
CN113923462A (zh) 视频生成、直播处理方法、设备和可读介质
CN109697978B (zh) 用于生成模型的方法和装置
CN112738557A (zh) 视频处理方法及装置
CN112364144B (zh) 交互方法、装置、设备和计算机可读介质
CN111737516A (zh) 一种互动音乐生成方法、装置、智能音箱及存储介质
CN115631267A (zh) 生成动画的方法及装置
KR20220129989A (ko) 아바타에 기초한 인터랙션 서비스 방법 및 장치
WO2019168834A1 (en) Voice effects based on facial expressions
CN116524924A (zh) 数字人交互控制方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination