CN111063353A - 允许自定义语音交互内容的客户端处理方法及用户终端 - Google Patents
允许自定义语音交互内容的客户端处理方法及用户终端 Download PDFInfo
- Publication number
- CN111063353A CN111063353A CN201911407435.7A CN201911407435A CN111063353A CN 111063353 A CN111063353 A CN 111063353A CN 201911407435 A CN201911407435 A CN 201911407435A CN 111063353 A CN111063353 A CN 111063353A
- Authority
- CN
- China
- Prior art keywords
- user
- parameter
- custom
- dialogue
- starting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 33
- 238000003672 processing method Methods 0.000 title claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims description 35
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 4
- 230000000977 initiatory effect Effects 0.000 claims 2
- 238000011022 operating instruction Methods 0.000 claims 2
- 230000003993 interaction Effects 0.000 abstract description 25
- 230000008569 process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000010295 mobile communication Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0638—Interactive procedures
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
Abstract
本发明公开了一种允许自定义语音交互内容的客户端处理方法,其包括:响应于启动客户端的指令,获取第一启动参数;根据第一启动参数确定是否启动自定义识别处理,在确定启动自定义识别处理时,展示输出用于获取自定义识别信息的第一用户界面;响应于在第一用户界面输入自定义识别信息的指令,获取输入的自定义识别信息添加至语音识别资源存储。本发明还公开了一种允许自定义语音交互内容的用户终端。根据本发明公开的方案,可以为用户提供可定制化的接口,以使得用户能够根据需求启动自定义语音识别内容的功能,由此可以提高识别的准确率,确保语音交互产品的服务质量。
Description
技术领域
本发明涉及语音交互技术领域,特别是一种允许自定义语音交互内容的客户端处理方法及用户终端。
背景技术
随着智能语音技术的发展,基于语音交互的产品日益增多。一个完整的语音交互产品一般是由语音识别、自然语言理解、语音合成技术进行组合,来达到语音请求到接收语音播报的目的,从而实现一轮语音交互。但是由于目前使用的此类技术是服务方提供的通用模型,包括语音识别模块、语义解析模型(即自然语言理解模型)和语音合成模块,不能很好的满足众多客户的多样性需求,比如:通用语音识别技术对同音字(李思与李斯)的处理,较难给出预期的效果。另外,自然语言理解技术直接影响对话结果,因此在某些应用场景中自然语言处理不好,会导致计算机的理解与客户实际表达的意思存在较大误差,从而给出错误的对话结果和引导客户端执行错误的指令,最终影响整个语音交互的产品。
发明内容
为了解决上述问题,发明人想到从不同的角度分析问题,即不同于目前业内人员多从服务端角度出发进行识别信息和语义理解信息的配置方式,发明人想到从客户端角度出发,在客户端提供接口给用户,以实现能够根据用户需求动态的上传识别、语义理解等信息,从而实现基于用户需求和实际应用场景自定义语音对话交互内容,以提高识别和对话交互的准确率。
根据本发明的第一方面,提供了一种允许自定义语音交互内容的客户端处理方法,其包括如下步骤:
响应于启动客户端的指令,获取第一启动参数;
根据第一启动参数确定是否启动自定义识别处理,在确定启动自定义识别处理时,展示输出用于获取自定义识别信息的第一用户界面;
响应于在第一用户界面输入自定义识别信息的指令,获取输入的自定义识别信息添加至语音识别资源存储。
根据本发明的第二个方面,提供了一种允许自定义语音交互内容的用户终端,其包括
参数配置模块,用于响应于启动客户端的指令,获取配置的启动参数,其中所述启动参数包括第一启动参数;
自定义识别模块,用于根据第一启动参数确定是否启动自定义识别处理,在确定启动自定义识别处理时,展示输出用于获取自定义识别信息的第一用户界面;
识别资源更新模块,用于响应于在第一用户界面输入自定义识别信息的指令,获取输入的自定义识别信息添加至语音识别资源存储。
根据本发明的第三个方面,提供了一种电子设备,其包括:至少一个处理器,以及与至少一个处理器通信连接的存储器,其中,存储器存储有可被至少一个处理器执行的指令,指令被所述至少一个处理器执行,以使至少一个处理器能够执行上述方法的步骤。
根据本发明的第四个方面,提供了一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述方法的步骤。
根据本实施例提供的自定义交互内容的客户端处理方案,通过启动参数的配置来为用户提供可定制化的接口,以使得用户能够根据需求启动自定义语音识别内容的功能,由此可以提高识别的准确率,确保语音交互产品的服务质量。
附图说明
图1为本发明一实施方式的允许自定义语音交互内容的客户端处理方法的方法流程图;
图2为本发明另一实施方式的允许自定义语音交互内容的客户端处理方法的方法流程图;
图3为本发明一实施方式的自定义语音交互内容的用户终端的原理框图;
图4为本发明一实施方式的电子设备原理示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、元件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
在本发明中,“模块”、“装置”、“系统”等指应用于计算机的相关实体,如硬件、硬件和软件的组合、软件或执行中的软件等。详细地说,例如,元件可以、但不限于是运行于处理器的过程、处理器、对象、可执行元件、执行线程、程序和/或计算机。还有,运行于服务器上的应用程序或脚本程序、服务器都可以是元件。一个或多个元件可在执行的过程和/或线程中,并且元件可以在一台计算机上本地化和/或分布在两台或多台计算机之间,并可以由各种计算机可读介质运行。元件还可以根据具有一个或多个数据包的信号,例如,来自一个与本地系统、分布式系统中另一元件交互的,和/或在因特网的网络通过信号与其它系统交互的数据的信号通过本地和/或远程过程来进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”,不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本发明实施例的允许自定义语音交互内的客户端处理方法可以应用于任何具有语音交互功能的终端设备上,例如,计算机、智能手机、平板电脑、智能家居等终端设备,本发明对此不作限制。本发明提供的方案可以实现为用户提供可定制化的接口,以使得用户能够根据需求启动自定义语音交互内容的功能,由此可以提高语音识别和对话结果的准确率,保证用户良好的交互体验。
下面结合附图对本发明作进一步详细的说明。
图1示意性地显示了根据本发明的一种实施方式的允许自定义语音交互内容的客户端处理方法的流程,如图1所示,本实施例的方法包括如下步骤:
步骤S101:响应于启动客户端的指令,获取启动参数。现有的语音交互客户端仅仅集成音频采集接口、语音识别接口、语义解析接口和对话播放及执行指令调用接口。本发明实施例在此基础上增加用于自定义交互内容的接口。其中,优选地,本发明实施例通过配置启动参数来确定是否启动自定义交互内容的接口。示例性地,启动参数包括用于标识是否启动自定义识别处理的第一启动参数和用于标识执行流程的第二启动参数,例如通过配置“是否定制识别内容”的第一启动参数来标识,在该参数值为“true”时,表明启动自定义识别处理,否则表示不启动自定义识别处理,通过配置“是否仅用ASR”的第二启动参数来标识对采集的输入音频的操作流程,在该参数值为“true”时,仅仅对采集的输入音频进行识别处理,不进行语义解析和对话处理,即执行“音频采集-语音识别-输出识别结果”的语音交互方式,在第一启动参数和第二启动参数都为“false”时,则按传统的交互接口方式来启动,执行“音频采集-语音识别-语义解析-对话回复及执行操作”的语音交互方式。该启动参数可以通过预先配置,在启动客户端时读取其内容,并根据其内容来执行客户端的语音交互方式。
步骤S102:根据第一启动参数确定是否启动自定义识别处理,在确定启动自定义识别处理时,展示输出用于获取自定义识别信息的第一用户界面。在启动客户端的过程中,首先对第一启动参数的参数值进行判断,如果第一启动参数的参数值为“启动自定义识别处理”,如为“true”,则启动自定义识别内容的接口,输出用于获取自定义识别信息的第一用户界面展示给用户。否则,仅仅调用音频采集接口进行语音监听即可。
步骤S103:响应于在第一用户界面输入自定义识别信息的指令,获取输入的自定义识别信息添加至语音识别资源存储。用户可以根据需求在第一用户界面输入自定义识别信息,例如针对“lisi”的输入音频,总是输出“李四”这一识别结果的情况,如果识别结果是不准确的,用户实际输入音频是“李斯”,则可以在第一用户界面输入“lisi”对应“李斯”的自定义识别信息,以添加到原有的语音识别资源,这样,在下次捕获到该输入音频时,根据添加的自定义识别信息,就可以将其识别为“李斯”的正确结果输出。其中,在具体实现中,自定义识别信息可以是输出到进行语音识别的云端服务器进行语音识别资源的更新和存储,也可以是在客户端设备本地进行添加和存储,以优选利用该自定义识别信息进行语音识别,根据输入的自定义识别信息添加语音识别资源的具体实现方式可以参照现有技术中语音识别资源的形成方式来实现,例如通过利用自定义识别信息进行训练,形成更新的语音识别模型,并将自定义识别信息增加至语音识别资源库。
步骤S104:在采集到输入音频时,根据第二启动参数确定对输入音频的处理。在客户端的启动过程中,根据第一启动参数进行了自定义识别内容的处理后,即持续采集输入音频进行语音交互处理。在本发明实施例中,在采集到输入音频时,还判断第二启动参数的参数值,根据第二启动参数的参数值确定语音交互处理流程,在第二启动参数为仅进行识别时,如为“true”时,进行步骤S105的处理。
步骤S105:在第二启动参数为仅进行识别时,通过存储的语音识别资源对输入音频进行语音识别,生成识别结果输出。在第二启动参数为仅识别时,只对输入音频进行识别处理,输出识别结果。需要说明的是,本发明实施例进行语音识别时,使用的语音识别资源是根据自定义识别信息更新后的,因而识别结果更加准确,特别是能根据自定义识别信息纠正一些错误识别结果。
图2示意性地显示了根据本发明的另一种实施方式的允许自定义语音交互内容的客户端处理方法的方法流程,如图2所示,本发明实施例的方法在图1所示实施例的基础上还包括如下步骤:
步骤S106:在第二启动参数为非仅进行识别时,根据第三启动参数确定是否启动自定义对话处理,并在确定启动自定义对话处理时,展示输出用于获取自定义对话内容的第二用户界面。在第二启动参数为非仅进行识别时,与传统的直接进行语义解析的处理方式不同,本发明实施例还配置了用于标识是否启动自定义对话处理的第三启动参数,根据第三启动参数的值来确定是否调用自定义对话处理的接口。例如通过配置“是否定制对话内容”的第一启动参数来标识,在该参数值为“true”时,表明启动自定义对话内容的接口,进行自定义对话内容的处理,否则表示不启动自定义对话内容的处理。在确定进行自定义内容的处理时,调用启动自定义对话内容的接口,输出用于获取自定义对话内容的第二用户界面展示给用户。用户可以根据需求在第二用户界面输入自定义的对话内容,例如针对某些特殊场景可能存在语义理解错误的情况,此时通过在第二用户界面输入自定义对话内容,来按定制内容进行语音交互响应,提高交互正确性和用户体验。
步骤S107:响应于在第二用户界面输入自定义对话内容的指令,获取输入的自定义对话内容添加至语义解析和/或对话管理模块。其中,获取自定义的对话内容添加至语义解析和对话管理模块可以参照现有技术在语义解析模块和对话管理模块增加新的语义和对话内容的实现方式,例如通过利用新的输入数据进行训练,更新语义解析模块,将新增的对话内容增加到对话管理模块存储等,在语义解析和对话管理模块均在云端的情况下,可以将自定义对话内容发送到云端进行相应处理,而根据需求也可以将自定义对话内容存储在本客户端设备上,以优选利用该自定义对话内容进行解析和交互。示例性地,根据需求输入的自定义对话内容包括与输入音频对应的语义、以及对话回复内容;或与输入音频对应的语义、以及操作指令;或与输入音频对应的语义、对话回复内容、以及操作指令。
图3示意性显示了本发明一种实施方式的允许自定义语音交互内容的用户终端,如图3所示,其包括
参数配置模块30,用于响应于启动客户端的指令,获取配置的启动参数,其中启动参数包括第一启动参数、第二启动参数和第三启动参数;
自定义识别模块31,用于根据第一启动参数确定是否启动自定义识别处理,在确定启动自定义识别处理时,展示输出用于获取自定义识别信息的第一用户界面;
识别资源更新模块32,用于响应于在第一用户界面输入自定义识别信息的指令,获取输入的自定义识别信息添加至语音识别资源存储;
语音监听模块33,用于在采集到输入音频时,根据第二启动参数确定对输入音频的处理;和
自定义对话模块34,用于响应于在第二用户界面输入自定义对话内容的指令,获取输入的自定义对话内容添加至语义解析和/或对话管理模块。
如图3所示,作为一种优选实现例,语音监听模块33实现为包括
识别单元33A,用于在第二启动参数为仅进行识别时,通过存储的语音识别资源对所述输入音频进行语音识别,生成识别结果输出。
对话设定单元33B,用于在第二启动参数为非仅进行识别时,根据第三启动参数确定是否启动自定义对话处理,并在确定启动自定义对话处理时,展示输出用于获取自定义对话内容的第二用户界面。
示例性地,输入的自定义对话内容包括与输入音频对应的语义、以及对话回复内容;或与输入音频对应的语义、以及操作指令;或与输入音频对应的语义、对话回复内容、以及操作指令。
其中,本发明实施例中的各个模块及单元的具体实现方式可以参照前文方法部分叙述,,在此不再赘述。在其他实现例中例如只进行语音识别的场景中,用户终端的实现也可以不包括自定义对话模块和对话设备单元。
本发明实施例针对整个语音对话交互过程进行自定义设置,包括针对语音识别不准确问题,提供可定制的接口给用户上传自定义识别信息;针对特殊场景的对话结果不正确问题,提供自定义接口给用户上传对话内容。由此,可提高识别的准确率,尤其是提高在某些特殊场景的识别准确率,从而提高服务质量。此外,在多轮对话交互中,通过定制语义策略,可以使计算机理解的自然语言的意思更加准确,保证语音交互的可靠性。并且,通过自定义对话内容,还可以实现在客户端订阅指令,通过语音操作返回和执行定制的特定的操作,满足用户的个性化需求。
在一些实施方式中,本发明实施例还提供一种计算机可读存储介质,所述存储介质中存储有一个或多个包括执行指令的程序,所述执行指令能够被电子设备(包括但不限于计算机,服务器,或者网络设备等)读取并执行,以用于执行本发明上述允许自定义语音交互内容的客户端处理方法。
在一些实施例中,本发明实施例还提供一种计算机程序产品,计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当所程序指令被计算机执行时,使计算机执行上述允许自定义语音交互内容的客户端处理方法。
在一些实施例中,本发明实施例还提供一种电子设备,其包括:至少一个处理器,以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被所述至少一个处理器执行,以使至少一个处理器能够执行上述允许自定义语音交互内容的客户端处理方法。
在一些实施例中,本发明实施例还提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时能够执行上述允许自定义语音交互内容的客户端处理方法。
上述本发明实施例的适用于多场景的移动端SDK可用于执行本发明实施例的允许自定义语音交互内容的客户端处理方法,并相应的达到上述本发明实施例的实现允许自定义语音交互内容的客户端处理方法所达到的技术效果,这里不再赘述。本发明实施例中可以通过硬件处理器(hardwareprocessor)来实现相关功能模块。
图4是本申请另一实施例提供的执行允许自定义语音交互内容的客户端处理方法的电子设备的硬件结构示意图,如图4所示,该设备包括:
一个或多个处理器510以及存储器520,图4中以一个处理器510为例。
执行允许自定义语音交互内容的客户端处理方法的设备还可以包括:输入装置530和输出装置540。
处理器510、存储器520、输入装置530和输出装置540可以通过总线或者其他方式连接,图4中以通过总线连接为例。
存储器520作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的允许自定义语音交互内容的客户端处理方法对应的程序指令/模块。处理器510通过运行存储在存储器520中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的允许自定义语音交互内容的客户端处理方法。
存储器520可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据允许自定义语音交互内容的用户终端的使用所创建的数据等。此外,存储器520可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器520可选包括相对于处理器510远程设置的存储器,这些远程存储器可以通过网络连接至允许自定义语音交互内容的用户终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置530可接收输入的数字或字符信息,以及产生与允许自定义语音交互内容的用户终端的用户设置以及功能控制有关的信号。输出装置540可包括显示屏等显示设备。
上述一个或者多个模块存储在所述存储器520中,当被所述一个或者多个处理器510执行时,执行上述任意方法实施例中的允许自定义语音交互内容的客户端处理方法。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例的电子设备以多种形式存在,包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类终端包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)超移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类终端包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放多媒体内容。该类设备包括:音频、视频播放器(例如iPod),掌上游戏机,电子书,以及智能玩具和便携式车载导航设备。
(4)服务器:提供计算服务的设备,服务器的构成包括处理器、硬盘、内存、系统总线等,服务器和通用的计算机架构类似,但是由于需要提供高可靠的服务,因此在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面要求较高。
(5)其他具有数据交互功能的电子装置。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.允许自定义语音交互内容的客户端处理方法,其特征在于,包括如下步骤:
响应于启动客户端的指令,获取第一启动参数;
根据第一启动参数确定是否启动自定义识别处理,在确定启动自定义识别处理时,展示输出用于获取自定义识别信息的第一用户界面;
响应于在第一用户界面输入自定义识别信息的指令,获取输入的自定义识别信息添加至语音识别资源存储。
2.根据权利要求1所述的方法,其特征在于,还包括
在采集到输入音频时,获取第二启动参数;
根据第二启动参数确定对输入音频的处理,其包括
在第二启动参数为仅进行识别时,通过存储的语音识别资源对所述输入音频进行语音识别,生成识别结果输出。
3.根据权利要求2所述的方法,其特征在于,根据第二启动参数确定对输入音频的处理还包括
在第二启动参数为非仅进行识别时,获取第三启动参数,根据第三启动参数确定是否启动自定义对话处理,并在确定启动自定义对话处理时,展示输出用于获取自定义对话内容的第二用户界面;
响应于在第二用户界面输入自定义对话内容的指令,获取输入的自定义对话内容添加至语义解析和/或对话管理模块。
4.根据权利要求3所述的方法,其特征在于,输入的自定义对话内容包括与输入音频对应的语义、以及对话回复内容;或
与输入音频对应的语义、以及操作指令;或
与输入音频对应的语义、对话回复内容、以及操作指令。
5.允许自定义语音交互内容的用户终端,其特征在于,包括
参数配置模块,用于响应于启动客户端的指令,获取配置的启动参数,其中所述启动参数包括第一启动参数;
自定义识别模块,用于根据第一启动参数确定是否启动自定义识别处理,在确定启动自定义识别处理时,展示输出用于获取自定义识别信息的第一用户界面;
识别资源更新模块,用于响应于在第一用户界面输入自定义识别信息的指令,获取输入的自定义识别信息添加至语音识别资源存储。
6.根据权利要求5所述的用户终端,其特征在于,所述启动参数还包括第二启动参数;所述装置还包括
语音监听模块,用于在采集到输入音频时,根据第二启动参数确定对输入音频的处理,所述语音监听模块包括
识别单元,用于在第二启动参数为仅进行识别时,通过存储的语音识别资源对所述输入音频进行语音识别,生成识别结果输出。
7.根据权利要求6所述的用户终端,其特征在于,所述启动参数还包括第三启动参数,所述语音监听模块还包括:
对话设定单元,用于在第二启动参数为非仅进行识别时,根据第三启动参数确定是否启动自定义对话处理,并在确定启动自定义对话处理时,展示输出用于获取自定义对话内容的第二用户界面;
所述装置还包括
自定义对话模块,用于响应于在第二用户界面输入自定义对话内容的指令,获取输入的自定义对话内容添加至语义解析和/或对话管理模块。
8.根据权利要求7所述的用户终端,其特征在于,输入的自定义对话内容包括与输入音频对应的语义、以及对话回复内容;或
与输入音频对应的语义、以及操作指令;或
与输入音频对应的语义、对话回复内容、以及操作指令。
9.电子设备,其包括:至少一个处理器,以及与所述至少一个处理器通信连接的存储器,其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-4中任意一项所述方法的步骤。
10.存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1-4中任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911407435.7A CN111063353B (zh) | 2019-12-31 | 2019-12-31 | 允许自定义语音交互内容的客户端处理方法及用户终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911407435.7A CN111063353B (zh) | 2019-12-31 | 2019-12-31 | 允许自定义语音交互内容的客户端处理方法及用户终端 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111063353A true CN111063353A (zh) | 2020-04-24 |
CN111063353B CN111063353B (zh) | 2022-11-11 |
Family
ID=70305205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911407435.7A Active CN111063353B (zh) | 2019-12-31 | 2019-12-31 | 允许自定义语音交互内容的客户端处理方法及用户终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111063353B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111625637A (zh) * | 2020-05-27 | 2020-09-04 | 苏州思必驰信息科技有限公司 | 意图训练和解析方法及装置 |
CN112309373A (zh) * | 2020-09-28 | 2021-02-02 | 惠州市德赛西威汽车电子股份有限公司 | 一种自定义车载语音技能的系统及方法 |
CN112735387A (zh) * | 2020-12-25 | 2021-04-30 | 惠州市德赛西威汽车电子股份有限公司 | 一种自定义车载语音技能系统及方法 |
CN113409805A (zh) * | 2020-11-02 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 人机交互方法、装置、存储介质及终端设备 |
CN114067792A (zh) * | 2020-08-07 | 2022-02-18 | 北京猎户星空科技有限公司 | 一种智能设备的控制方法及装置 |
CN113409805B (zh) * | 2020-11-02 | 2024-06-07 | 腾讯科技(深圳)有限公司 | 人机交互方法、装置、存储介质及终端设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923857A (zh) * | 2009-06-17 | 2010-12-22 | 复旦大学 | 一种人机交互的可扩展语音识别方法 |
CN102592595A (zh) * | 2012-03-19 | 2012-07-18 | 安徽科大讯飞信息科技股份有限公司 | 语音识别方法及系统 |
CN108831469A (zh) * | 2018-08-06 | 2018-11-16 | 珠海格力电器股份有限公司 | 语音命令定制方法、装置和设备及计算机存储介质 |
CN109036424A (zh) * | 2018-08-30 | 2018-12-18 | 出门问问信息科技有限公司 | 语音识别方法、装置、电子设备及计算机可读存储介质 |
CN110265019A (zh) * | 2019-07-03 | 2019-09-20 | 中通智新(武汉)技术研发有限公司 | 一种语音识别的方法及语音机器人系统 |
CN110570867A (zh) * | 2019-09-12 | 2019-12-13 | 安信通科技(澳门)有限公司 | 一种本地新增语料的语音处理方法及系统 |
-
2019
- 2019-12-31 CN CN201911407435.7A patent/CN111063353B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101923857A (zh) * | 2009-06-17 | 2010-12-22 | 复旦大学 | 一种人机交互的可扩展语音识别方法 |
CN102592595A (zh) * | 2012-03-19 | 2012-07-18 | 安徽科大讯飞信息科技股份有限公司 | 语音识别方法及系统 |
CN108831469A (zh) * | 2018-08-06 | 2018-11-16 | 珠海格力电器股份有限公司 | 语音命令定制方法、装置和设备及计算机存储介质 |
CN109036424A (zh) * | 2018-08-30 | 2018-12-18 | 出门问问信息科技有限公司 | 语音识别方法、装置、电子设备及计算机可读存储介质 |
CN110265019A (zh) * | 2019-07-03 | 2019-09-20 | 中通智新(武汉)技术研发有限公司 | 一种语音识别的方法及语音机器人系统 |
CN110570867A (zh) * | 2019-09-12 | 2019-12-13 | 安信通科技(澳门)有限公司 | 一种本地新增语料的语音处理方法及系统 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111625637A (zh) * | 2020-05-27 | 2020-09-04 | 苏州思必驰信息科技有限公司 | 意图训练和解析方法及装置 |
CN111625637B (zh) * | 2020-05-27 | 2022-07-08 | 思必驰科技股份有限公司 | 意图训练和解析方法及装置 |
CN114067792A (zh) * | 2020-08-07 | 2022-02-18 | 北京猎户星空科技有限公司 | 一种智能设备的控制方法及装置 |
CN112309373A (zh) * | 2020-09-28 | 2021-02-02 | 惠州市德赛西威汽车电子股份有限公司 | 一种自定义车载语音技能的系统及方法 |
CN113409805A (zh) * | 2020-11-02 | 2021-09-17 | 腾讯科技(深圳)有限公司 | 人机交互方法、装置、存储介质及终端设备 |
CN113409805B (zh) * | 2020-11-02 | 2024-06-07 | 腾讯科技(深圳)有限公司 | 人机交互方法、装置、存储介质及终端设备 |
CN112735387A (zh) * | 2020-12-25 | 2021-04-30 | 惠州市德赛西威汽车电子股份有限公司 | 一种自定义车载语音技能系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111063353B (zh) | 2022-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111063353B (zh) | 允许自定义语音交互内容的客户端处理方法及用户终端 | |
CN111049996B (zh) | 多场景语音识别方法及装置、和应用其的智能客服系统 | |
CN109473104B (zh) | 语音识别网络延时优化方法及装置 | |
US20170163580A1 (en) | Interactive method and device for playback of multimedia | |
CN110246499B (zh) | 家居设备的语音控制方法及装置 | |
CN109947388B (zh) | 页面播读的控制方法、装置、电子设备及存储介质 | |
CN107342083B (zh) | 用于提供语音服务的方法和装置 | |
CN111506292B (zh) | 用于人机对话的语音技能跳转方法、电子设备及存储介质 | |
CN111312240A (zh) | 数据控制方法、装置、电子设备及存储介质 | |
CN111130807A (zh) | 基于声纹识别的车载账户管理方法 | |
CN110660391A (zh) | 基于rpa接口实现大屏终端语音控制的定制方法及系统 | |
CN111142833B (zh) | 基于情景模式开发语音交互产品的方法及系统 | |
CN108509175B (zh) | 一种语音交互方法及电子设备 | |
CN112423285A (zh) | 终端设备的联网方法、电子设备及存储介质 | |
CN111613232A (zh) | 多终端设备语音交互方法及系统 | |
US20170188214A1 (en) | Method and electronic device for sharing multimedia information | |
US20170171266A1 (en) | Method and electronic device based on android platform for multimedia resource play | |
US20210098012A1 (en) | Voice Skill Recommendation Method, Apparatus, Device and Storage Medium | |
CN110442698B (zh) | 对话内容生成方法及系统 | |
CN109712622B (zh) | 用于语音对话平台的语音交互异常处理的配置方法及系统 | |
CN112447177B (zh) | 全双工语音对话方法及系统 | |
CN110109597B (zh) | 一种歌单切换方法、装置、系统、终端和存储介质 | |
CN111161734A (zh) | 基于指定场景的语音交互方法及装置 | |
CN113282268B (zh) | 音效配置方法和装置、存储介质及电子设备 | |
CN111064844A (zh) | 消息提示方法、装置、电子设备、计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant after: Sipic Technology Co.,Ltd. Address before: 215123 building 14, Tengfei Innovation Park, 388 Xinping street, Suzhou Industrial Park, Suzhou City, Jiangsu Province Applicant before: AI SPEECH Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |