CN111048090A - 基于语音的动画交互方法及装置 - Google Patents

基于语音的动画交互方法及装置 Download PDF

Info

Publication number
CN111048090A
CN111048090A CN201911375331.2A CN201911375331A CN111048090A CN 111048090 A CN111048090 A CN 111048090A CN 201911375331 A CN201911375331 A CN 201911375331A CN 111048090 A CN111048090 A CN 111048090A
Authority
CN
China
Prior art keywords
animation
voice
instruction
interaction
instructions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201911375331.2A
Other languages
English (en)
Inventor
万洪涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AI Speech Ltd
Original Assignee
AI Speech Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AI Speech Ltd filed Critical AI Speech Ltd
Priority to CN201911375331.2A priority Critical patent/CN111048090A/zh
Publication of CN111048090A publication Critical patent/CN111048090A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces

Abstract

本发明公开了一种基于语音的动画交互方法,包括配置动画指令集存储;响应于接收到的用户语音指令,获取语音音频进行语音识别和解析,获取解析结果;根据获取的解析结果和所述动画指令集输出展示动画交互画面。本发明还公开了一种基于语音的动画交互装置。根据本发明公开的方法和装置,可以实现基于语音来控制设备进行动画交互,提高交互的趣味性,特别是方便儿童操作。

Description

基于语音的动画交互方法及装置
技术领域
本发明涉及语音交互技术领域,特别是一种基于语音的动画交互方法及装置。
背景技术
目前市面上的儿童带屏产品一般会根据儿童需求,在业务交互过程中展示一些动画效果,例如在场景切换中自动触发动画。或者其本身就是用于儿童的游戏产品,能够通过触屏(手指点击或滑动)的方式触发动画。但这些动画效果单一、固化或只能手动控制,对儿童并不友好。
发明内容
为了解决上述问题,发明人构思在设备上实现语音功能,并基于语音控制来实现动画交互效果,提升用户尤其是儿童的交互体验和对产品的兴趣。
根据本发明的第一方面,提供了一种基于语音的动画交互方法,其包括如下步骤:
配置动画指令集存储;
响应于接收到的用户语音指令,获取语音音频进行语音识别和解析,获取解析结果;
根据获取的解析结果和所述动画指令集输出展示动画交互画面。
根据本发明的第二个方面,提供了一种基于语音的动画交互装置,其包括
存储模块,其中存储有配置好的动画指令集;
语音处理模块,用于响应于接收到的用户语音指令,获取语音音频进行语音识别和解析,获取解析结果;和
动画展示模块,用于根据获取的解析结果和所述动画指令集输出展示动画交互画面。
根据本发明的第三个方面,提供了一种电子设备,其包括:至少一个处理器,以及与至少一个处理器通信连接的存储器,其中,存储器存储有可被至少一个处理器执行的指令,指令被所述至少一个处理器执行,以使至少一个处理器能够执行上述方法的步骤。
根据本发明的第四个方面,提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。
根据本实施例提供的语音控制动画交互效果的方案,可以实现基于语音来控制设备进行动画交互,提高交互的趣味性,特别是方便儿童操作。同时,通过自定义组合动画,可以根据需求展现更丰富、更个性化、与用户语音密切相关的动画效果,提高趣味性,解放儿童天性。
附图说明
图1为本发明一实施方式的基于语音的动画交互方法的方法流程图;
图2为本发明一实施方式的基于语音的动画交互装置的原理结构图;
图3为本发明一实施方式的电子设备原理示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明实施例的基于语音指令来控制动画交互的方法可以应用于任何集成了语音功能的终端设备上,例如,具有语音功能且具有动画交互需求的计算机、智能手机、平板电脑、智能家居等终端设备,本发明对此不作限制。本发明提供的方案可以实现基于用户的语音指令来对显示的画面进行动态控制,从而达到动画交互的效果,且支持自定义动画交互效果,相对于传统的用触屏来控制的动画交互设备,能大幅方便儿童使用这类设备。
下面结合附图对本发明作进一步详细的说明。
图1示意性地显示了根据本发明的一种实施方式的基于语音的动画交互方法的方法流程,如图1所示,本实施例的方法包括如下步骤:
步骤S101:配置动画指令集存储。首先需要收集动画交互的设备如平板、游戏机、动画机等所支持的所有动画指令,形成动画指令集进行配置存储。
其中,动画指令集中至少包括有设备支持的单功能动画指令,更优地可以包括有设备支持的顺序组合动画指令。示例性地,对于一种动画游戏机,假设其支持的动画指令包括有向左移动、向右移动这些单功能动画指令,则优选将这些动画指令配置存储在指令集中。示例性地,对于设备支持的顺序组合动画指令,例如向左向上的动画指令,包括了向左和向上两个顺序执行的单功能动画指令,两者共同组成了设备支持的顺序组合动画指令,则将这类组合动画指令也进行配置存储到指令集中。
更优地,根据需求也可以根据设备支持的动画指令,来进行自定义组合,从而形成自定义组合动画指令。其中,自定义组合动画指令可以仅仅是对单功能动画指令的按特定方式例如按顺序的特定组合,例如自定义组合形成的向左向下向左的组合动画指令。更优地,为了实现更丰富的动画交互效果,在具体实现中,自定义组合动画指令可以实现为包括自定义动作标签、与自定义动作标签对应的单功能动画指令及其组合方式,示例性地,自定义动作标签可以是“跳舞”,并自定义一组用于执行跳舞动作的但功能动画指令及其组合执行方式,例如可以是对应转圈的单功能动画指令,执行方式为持续十秒;再如还可以是对应转圈和歪头的单功能动画指令的组合,组合执行方式为先转圈五秒然后做一次歪头动作等。
动画指令集中的动画指令及其执行方式,特别是自定义组合动画指令所对应的内容,可以根据需求自定义设置,只要能够实现利用设备支持的动画指令完成自定义动画交互效果即可,本发明实施例对其格式和内容不进行限制。
步骤S102:响应于接收到的用户语音指令,获取语音音频进行语音识别和解析,获取解析结果。可以首先在设备上,例如Android平台的儿童带屏产品或软件中,集成语音技术,集成的方式可以根据所选用的语音支持商的集成说明进行操作。在设备上集成了语音技术后,用户在使用时,就可以直接通过设备上的麦克风进行录音。集成的语音软件会获取录制的音频数据通过语音内核进行处理,例如可以是通过语音内核将音频文件通过网络发送到进行语音处理的云平台(该平台由语音技术的开发商提供,已经通过语音软件进行了实现,故本发明不对此进行展开阐述)。进行语音处理的云平台对录音文件进行处理,包括语音识别,语义理解等将语音内容解析为对应的解析结果下发给发送音频文件的设备。其中,在本发明实施例中,通过对云端平台语义解析模块的训练和配置(具体实现方式可参照语义解析现有技术的实现方法),使得其语义解析得到的解析结果包括需要执行的指令下发给对应的设备。
步骤S103:根据获取的解析结果和动画指令集输出展示动画交互画面。设备在接收到云端平台下发的解析结果后,会根据解析结果中包括的需要执行的指令,调用动画指令集中的相应动画指令对应的接口来实现对画面的操作,从而达到动画交互效果。具体地,会首先根据与指令集中的指令的对应匹配关系,来判断解析结果中的指令是单功能动画指令还是顺序组合动画指令还是自定义组合动画指令,如果是单个动画指令,则直接执行该动画指令;如果是组合动画指令,则根据组合动画指令的执行方式来执行相应的动画指令,从而达到动画重组(编程)的交互效果。其中,动画重组(动画编程)是指将单一功能的动画指令,按指令的要求(一般是执行顺序或自定义的执行方式)进行重新设定执行顺序,或将几个单功能动画进行组合,然后按新的规则(如自定义的执行方式)展示组合后的动画指令效果。
示例性地,对于实现了上述方案的动画机,小孩子在玩这个动画机时,动画机会展示一个卡通形象,小孩子通过语音说出“跳舞”的语音指令,通过云端平台的解析,就可以得到指令为跳舞的解析结果。动画机在获取到该跳舞的指令时,就可以根据本地配置存储的动画指令集找到其对应的时自定义组合指令,从而获取自定义组合指令的内容为转圈指令和动头指令(假设动画机支持这两个指令),执行方式为限制性转圈指令5秒,然后执行一次动头指令,那么就可以根据该执行方式来调用相应的指令,从而在动画机的显示屏上展示出卡通形象跳舞的动画交互效果。
在优选实现例中,在设备接收到解析结果时,在执行指令之前,还首先对解析结果中的指令是否合法进行判断,具体例如可以为判断解析结果中的指令是否存在于动画指令集中,如果存在,则认为合法,如果不存在,则认为不合法。在合法时才执行上述指令动作,在不合法时,可以配置为播报提示语音,例如“换个其他动作试试”。优选地,还可以将不合法的情况配置为自定义组合指令,在播放提示语音的同时,执行该自定义组合指令,例如为摇头的指令动作,从而在出现不支持动作时在显示屏上播放摇头的动画,并播报提示音,以提高用户交互体验。
由于用户语音在云端平台有可能无法解析,此时云端平台会返回语法错误的解析结果,这种情况下,在其他实现例中,可以对解析结果进行判断,如果解析结果时语法错误,则在本地进行播放提示语音的响应,例如“我不懂您在说什么,请换个说法试试”。同样地,也可以为这种情景配置自定义组合指令,以在播报提示音的同时,展示动画交互画面,以提高用户交互体验。
通过上述方案可以实现基于语音来控制设备进行动画交互,提高交互的趣味性,特别是方便儿童操作。同时,通过自定义组合动画,可以根据需求展现更丰富、更个性化、与用户语音密切相关的动画效果,提高趣味性,解放儿童天性。
图2示意性地显示了本发明一种实施方式的基于语音的动画交互装置,如图2所示,其包括
存储模块20,其中存储有配置好的动画指令集;
语音处理模块21,用于响应于接收到的用户语音指令,获取语音音频进行语音识别和解析,获取解析结果;和
动画展示模块22,用于根据获取的解析结果和所述动画指令集输出展示动画交互画面。
其中,动画指令集中包括有设备支持的单功能动画指令、设备支持的顺序组合动画指令、以及自定义组合动画指令的其中一种或两种以上的任意组合。作为一种优选实现例,配置的自定义组合动画指令可以包括自定义动作标签、与自定义动作标签对应的单功能动画指令及其组合方式。示例性地,该基于语音的动画交互装置可以是游戏机、动画机、手机、平板等,其同时还具有显示屏,以展示动画交互画面,具有麦克风或收音机以进行录音。另外,本发明装置实施例中的各个模块的具体实现方式可以参照前文方法部分叙述,上述方法部分提及的合法性验证和语法错误的处理方案也适用该装置,在此不再赘述。
在一些实施方式中,本发明实施例还提供一种计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述基于语音的动画交互方法。
在一些实施例中,本发明实施例还提供一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当所程序指令被计算机执行时,使计算机执行上述基于语音的动画交互方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被所述至少一个处理器执行,以使至少一个处理器能够执行上述基于语音的动画交互方法。
在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时能够执行上述基于语音的动画交互方法。
上述本发明实施例的基于语音的动画交互装置可用于执行本发明实施例的基于语音的动画交互方法,并相应的达到上述本发明实施例的实现基于语音的动画交互方法所达到的技术效果,这里不再赘述。本发明实施例中可以通过硬件处理器(hardwareprocessor)来实现相关功能模块。
图3是本申请另一实施例提供的执行基于语音的动画交互方法的电子设备的硬件结构示意图,如图3所示,该设备包括:
一个或多个处理器510以及存储器520,图3中以一个处理器510为例。
执行基于语音的动画交互方法的设备还可以包括:输入装置530和输出装置540。
处理器510、存储器520、输入装置530和输出装置540可以通过总线或者其他方式连接,图3中以通过总线连接为例。
存储器520作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的基于语音的动画交互方法对应的程序指令/模块。处理器510通过运行存储在存储器520中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的基于语音的动画交互方法。
存储器520可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据基于语音的动画交互装置的使用所创建的数据等。此外,存储器520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器520可选包括相对于处理器510远程设置的存储器,这些远程存储器可以通过网络连接至基于语音的动画交互装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置530可接收输入的数字或字符信息,以及产生与基于语音的动画交互装置的用户设置以及功能控制有关的信号。输出装置540可包括显示屏等显示设备。
上述一个或者多个模块存储在所述存储器520中,当被所述一个或者多个处理器510执行时,执行上述任意方法实施例中的基于语音的动画交互方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.基于语音的动画交互方法,其特征在于,包括如下步骤:
配置动画指令集存储;
响应于接收到的用户语音指令,获取语音音频进行语音识别和解析,获取解析结果;
根据获取的解析结果和所述动画指令集输出展示动画交互画面。
2.根据权利要求1所述的方法,其特征在于,其中,所述动画指令集中包括有设备支持的单功能动画指令。
3.根据权利要求2所述的方法,其特征在于,所述动画指令集中还包括有设备支持的顺序组合动画指令。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述动画指令集中还包括有自定义组合动画指令,所述自定义组合动画指令包括自定义动作标签、与自定义动作标签对应的单功能动画指令及其组合方式。
5.基于语音的动画交互装置,其特征在于,包括
存储模块,其中存储有配置好的动画指令集;
语音处理模块,用于响应于接收到的用户语音指令,获取语音音频进行语音识别和解析,获取解析结果;和
动画展示模块,用于根据获取的解析结果和所述动画指令集输出展示动画交互画面。
6.根据权利要求5所述的装置,其特征在于,所述动画指令集中包括有设备支持的单功能动画指令。
7.根据权利要求6所述的装置,其特征在于,所述动画指令集中还包括有设备支持的顺序组合动画指令。
8.根据权利要求5至7任一项所述的装置,其特征在于,所述动画指令集中还包括有自定义组合动画指令,所述自定义组合动画指令包括自定义动作标签、与自定义动作标签对应的单功能动画指令及其组合方式。
9.电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任意一项所述方法的步骤。
10.存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-4中任意一项所述方法的步骤。
CN201911375331.2A 2019-12-27 2019-12-27 基于语音的动画交互方法及装置 Withdrawn CN111048090A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911375331.2A CN111048090A (zh) 2019-12-27 2019-12-27 基于语音的动画交互方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911375331.2A CN111048090A (zh) 2019-12-27 2019-12-27 基于语音的动画交互方法及装置

Publications (1)

Publication Number Publication Date
CN111048090A true CN111048090A (zh) 2020-04-21

Family

ID=70240540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911375331.2A Withdrawn CN111048090A (zh) 2019-12-27 2019-12-27 基于语音的动画交互方法及装置

Country Status (1)

Country Link
CN (1) CN111048090A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111524516A (zh) * 2020-04-30 2020-08-11 青岛海信网络科技股份有限公司 一种基于语音交互的控制方法、服务器及显示设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201640326A (zh) * 2015-02-02 2016-11-16 富智康(香港)有限公司 互動顯示系統及方法
CN109857352A (zh) * 2017-11-30 2019-06-07 富泰华工业(深圳)有限公司 动画显示方法及人机交互装置
CN110379430A (zh) * 2019-07-26 2019-10-25 腾讯科技(深圳)有限公司 基于语音的动画显示方法、装置、计算机设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201640326A (zh) * 2015-02-02 2016-11-16 富智康(香港)有限公司 互動顯示系統及方法
CN109857352A (zh) * 2017-11-30 2019-06-07 富泰华工业(深圳)有限公司 动画显示方法及人机交互装置
CN110379430A (zh) * 2019-07-26 2019-10-25 腾讯科技(深圳)有限公司 基于语音的动画显示方法、装置、计算机设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111524516A (zh) * 2020-04-30 2020-08-11 青岛海信网络科技股份有限公司 一种基于语音交互的控制方法、服务器及显示设备

Similar Documents

Publication Publication Date Title
KR100597670B1 (ko) 멀티미디어 콘텐츠의 갱신 및 재생이 가능한이동통신단말기 및 그 재생방법
CN111049996B (zh) 多场景语音识别方法及装置、和应用其的智能客服系统
KR101989732B1 (ko) 정보 처리 방법, 단말기 및 컴퓨터 저장 매체
US10271105B2 (en) Method for playing video, client, and computer storage medium
US20150082239A1 (en) Remote Virtualization of Mobile Apps with Transformed Ad Target Preview
CN111142833B (zh) 基于情景模式开发语音交互产品的方法及系统
US20140192140A1 (en) Visual Content Modification for Distributed Story Reading
US20140195222A1 (en) Speech Modification for Distributed Story Reading
EP3050604A1 (en) Location based augmentation for story reading
WO2021196609A1 (zh) 一种界面的操作方法、装置、电子设备及可读存储介质
CN111063353B (zh) 允许自定义语音交互内容的客户端处理方法及用户终端
CN110246499B (zh) 家居设备的语音控制方法及装置
WO2022089178A1 (zh) 视频处理方法及设备
KR102451925B1 (ko) 자연 언어 처리를 위한 네트워크-기반 학습 모델
JP7311707B2 (ja) ヒューマンマシン対話処理方法
WO2021169432A1 (zh) 直播应用的数据处理方法、装置、电子设备及存储介质
CN109151172A (zh) 音频输出控制方法及相关设备
CN104754421A (zh) 互动节拍特效系统及互动节拍特效处理方法
US20170161011A1 (en) Play control method and electronic client
CN110660391A (zh) 基于rpa接口实现大屏终端语音控制的定制方法及系统
US20170171266A1 (en) Method and electronic device based on android platform for multimedia resource play
CN111048090A (zh) 基于语音的动画交互方法及装置
CN113613031A (zh) 直播方法、装置、电子设备及计算机存储介质
CN112402954A (zh) 视频数据处理方法、装置及系统
CN110600021A (zh) 室外智能语音交互方法、装置和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant after: Sipic Technology Co.,Ltd.

Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Applicant before: AI SPEECH Co.,Ltd.

CB02 Change of applicant information
WW01 Invention patent application withdrawn after publication

Application publication date: 20200421

WW01 Invention patent application withdrawn after publication