CN110706704A - 用于生成语音交互原型的方法、装置和计算机设备 - Google Patents
用于生成语音交互原型的方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN110706704A CN110706704A CN201910988067.3A CN201910988067A CN110706704A CN 110706704 A CN110706704 A CN 110706704A CN 201910988067 A CN201910988067 A CN 201910988067A CN 110706704 A CN110706704 A CN 110706704A
- Authority
- CN
- China
- Prior art keywords
- instruction
- voice
- text information
- information
- reply
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 50
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 9
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 230000004044 response Effects 0.000 claims description 24
- 230000015572 biosynthetic process Effects 0.000 claims description 11
- 238000003786 synthesis reaction Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 9
- 230000002452 interceptive effect Effects 0.000 abstract description 8
- 238000013461 design Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012942 design verification Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明提出一种用于生成语音交互原型的方法、装置和计算机设备,属于人机交互领域。为解决语音交互设计师不能快速有效的通过可交互的方式检验设计方案可行性的问题,本发明包括:获取用户输入的文本信息,文本信息包括指令文本信息、指令关键词和回复文本信息;对文本信息进行数据处理,得到语义表;对语义表中的回复文本信息进行预处理,预合成对应的回复语音信息;获取用户输入的语音指令信息;识别语音指令信息,抓取关键词并将其与语义表中的指令关键词进行匹配,如指令关键词匹配度大于等于设定的阈值,则判定该语音指令信息为语义表中的指令文本信息;找到与语义表中的指令文本信息对应的回复文本信息,并将预合成的回复语音信息播报出来。
Description
技术领域
本发明涉及人机交互技术领域,特别涉及一种用于生成语音交互原型的方法、装置和计算机设备。
背景技术
人机交互是研究系统与用户之间的交互关系的科学。系统可以是机器,也可以是各种软件系统。通过人机交互可以实现人与系统之间的对话。如语音控制系统、语音应答系统等。语音合成和语音识别技术是实现人机语音交互的基础。通过将文字信息转化为语音播放出来,机器就可以和人进行基于语音的对话。
当语音交互设计师为语音交互系统设计对话时,常常需要将对话内容通过模拟真人的语音效果播报出来,以检验对话内容的可用性。但这种语音播报方式的可交互性差,不能很好的反应真实的用户体验。如建立可交互的语音程序则需要投入大量的开发成本且效率较低。
因此,建立可以对设计师预设的语音指令进行响应,并按照预设的回答内容进行语音播报的交互原型,对于提高设计师的工作效率,以及贴近真实的用户体验至关重要。
发明内容
本发明的目的是提供一种用于生成语音交互原型的方法、装置和计算机设备,解决了语音交互设计师不能快速有效的通过可交互的方式检验设计方案可行性的问题。
本发明解决其技术问题,采用的技术方案是:用于生成语音交互原型的方法,包括如下步骤:
步骤1、获取用户输入的文本信息,所述文本信息包括指令文本信息、指令关键词和回复文本信息;
步骤2、对所述文本信息进行数据处理,得到语义表;
步骤3、对上述语义表中的回复文本信息进行预处理,预合成对应的回复语音信息;
步骤4、获取用户输入的语音指令信息;
步骤5、识别所述语音指令信息,抓取其中的关键词并将其与语义表中的指令关键词进行匹配,如指令关键词匹配度大于等于设定的阈值,则判定该语音指令信息为语义表中的指令文本信息;
步骤6、找到与所述语义表中的指令文本信息对应的回复文本信息,并将预合成的回复语音信息播报出来。
具体的是,步骤1中,所述指令文本信息是语音交互原型中用以触发人机对话的数据;指令关键词是包含在上述指令文本信息内的部分内容,用户在输入指令文本信息后,标注出上述指令文本信息中的关键词;用户能够在一条指令文本信息中标注出一个或多个指令关键词。
进一步的是,步骤1中,一条指令文本信息能够对应多条回复文本信息。
具体的是,对于一条指令文本信息对应多条回复文本信息的情况,供选择的应答模式包括:
顺序应答模式,在顺序应答模式下,用户以语音的形式重复多次输入指令,语音交互原型识别指令后,按照用户编写的回复文本信息顺序,逐次播报回复文本信息对应的回复语音信息;
随机应答模式,在随机应答模式下,用户以语音的形式重复多次输入指令,语音交互原型识别指令后,从用户编写的回复文本信息中,随机挑选一条回复文本信息播报对应的回复语音信息,在随机模式下,各条回复文本的播报概率是相同的。
进一步的是,步骤3中,将所述语义表中的信息上传到语音合成装置,通过预置的声学模型对回复本文信息进行预处理,预合成对应的回复语音信息。
用于生成语音交互原型的装置,应用于所述的方法,包括:
第一数据获取模块,用于获取用户输入的文本信息;
数据处理模块,用于对所述文本信息进行处理,得到语义表,所述语义表包含指令文本信息、指令关键词和回复文本信息;
语音合成模块,用于预合成所述语义表中回复文本信息对应的回复语音信息;
第二数据获取模块,用于获取用户输入的语音指令信息;
语义识别模块,用于识别用户输入的语音指令信息,抓取其中的关键词与语义表中的指令关键词进行匹配,如指令关键词匹配度大于等于设定的阈值,则判定该语音指令信息为语义表中的指令文本信息;
语音播报模块,用于将预合成的回复语音信息播报出来。
计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的方法。
本发明的有益效果是,通过上述用于生成语音交互原型的方法、装置和计算机设备,可以快捷的生成可交互的语音原型,满足了语音交互设计师在工作中的验证需求,同时提高了生成语音交互原型的效率。
附图说明
图1为本发明实施例提供的用于生成语音交互原型的方法的系统架构图;
图2为本发明实施例提供的用于生成语音交互原型的方法的流程示意图;
图3为本发明实施例提供给的用于生成语音交互原型的装置的结构示意图。
具体实施方式
下面结合附图,详细描述本发明的技术方案。
本发明所述用于生成语音交互原型的方法,包括如下步骤:
步骤1、获取用户输入的文本信息,所述文本信息包括指令文本信息、指令关键词和回复文本信息。
其中,指令文本信息是语音交互原型中用以触发人机对话的数据;指令关键词是包含在上述指令文本信息内的部分内容,用户在输入指令文本信息后,标注出上述指令文本信息中的关键词;用户能够在一条指令文本信息中标注出一个或多个指令关键词。
并且,一条指令文本信息能够对应多条回复文本信息。
对于一条指令文本信息对应多条回复文本信息的情况,可以供选择的应答模式包括:
顺序应答模式,在顺序应答模式下,用户以语音的形式重复多次输入指令,语音交互原型识别指令后,按照用户编写的回复文本信息顺序,逐次播报回复文本信息对应的回复语音信息;
随机应答模式,在随机应答模式下,用户以语音的形式重复多次输入指令,语音交互原型识别指令后,从用户编写的回复文本信息中,随机挑选一条回复文本信息播报对应的回复语音信息,在随机模式下,各条回复文本的播报概率是相同的。
步骤2、对所述文本信息进行数据处理,得到语义表。
步骤3、对上述语义表中的回复文本信息进行预处理,预合成对应的回复语音信息。
其中,将所述语义表中的信息上传到语音合成装置,通过预置的声学模型对回复本文信息进行预处理,预合成对应的回复语音信息。
步骤4、获取用户输入的语音指令信息。
步骤5、识别所述语音指令信息,抓取其中的关键词并将其与语义表中的指令关键词进行匹配,如指令关键词匹配度大于等于设定的阈值,则判定该语音指令信息为语义表中的指令文本信息。
步骤6、找到与所述语义表中的指令文本信息对应的回复文本信息,并将预合成的回复语音信息播报出来。
用于生成语音交互原型的装置,应用于上述的方法,包括:第一数据获取模块,用于获取用户输入的文本信息;数据处理模块,用于对所述文本信息进行处理,得到语义表,所述语义表包含指令文本信息、指令关键词和回复文本信息;语音合成模块,用于预合成所述语义表中回复文本信息对应的回复语音信息;第二数据获取模块,用于获取用户输入的语音指令信息;语义识别模块,用于识别用户输入的语音指令信息,抓取其中的关键词与语义表中的指令关键词进行匹配,如指令关键词匹配度大于等于设定的阈值,则判定该语音指令信息为语义表中的指令文本信息;语音播报模块,用于将预合成的回复语音信息播报出来。
计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述的方法。
实施例
语音交互原型主要服务于语音设计阶段的设计验证,用户输入需要进行验证的指令和回复文本后,通过与生成的原型进行交互,模拟真实的使用效果,验证设计方案的可行性。
图1为本发明实施例提供的用于生成语音交互原型的方法的系统架构图。如图1所示,本实施例的系统架构包括终端设备110、120,无线网络130以及服务器140。终端设备110、120通过无线网络130连接服务器140。终端设备110、120通过无线网络130向服务器140发送文本信息和语音指令信息,服务器140根据终端设备110、120发送的文本信息合成对应的回复语音信息,服务器140识别终端设备110、120发送的语音指令信息并将对应的回复语音信息发送回终端设备110、120。
本实施例的终端设备可以是具有文字输入功能、音频录入功能、音频播放功能的电子设备,包括但不限于笔记本电脑、平板电脑、智能手机等。本实施例的服务器是具有语音合成与语音识别功能的服务器,用于根据设备发送的文本信息生成对应的语音信息,以及识别终端设备发送的语音信息。
图2为本发明实施例提供的用于生成语音交互原型的方法的流程示意图。如图2所示,本实施例提供给的用于生成语音交互原型的方法包括如下步骤:
210、获取用户输入的文本信息,用户输入的文本信息包括指令文本信息、指令关键词和回复文本信息;
其中指令文本信息对应用户在使用语音交互原型时输入的语音内容,指令文本信息并不仅仅指狭义上的操控类指示,而是广义上的一种输入,包含但不限于询问、聊天等内容类型;
指令关键词是包含在上述指令文本信息内的部分内容,用户在输入指令文本信息后,标注出上述指令文本信息中的关键词。
回复文本信息是用户输入的对指令文本信息的回复内容,即用户希望在使用语音交互原型时,输入语音指令后所得到的回答;
220、获取上述文本信息后,通过数据处理,得到语义表,语义表包含指令文本信息、关键词和回复文本信息;
230、将上述语义表中的信息上传到语音合成装置,通过预置的声学模型对回复本文信息进行预处理,合成对应的回复语音信息;
240、获取用户的语音指令信息;
250、将用户语音指令信息上传到语义识别装置,语义识别装置将语音指令转为文字信息,并与语义表中的关键词进行匹配,如关键词匹配度达到或超过系统设定的阈值,则判定该语音指令信息为语音表中的指令文本信息;
如语义表包含n个关键词,识别到的语音指令信息包含其中m(m≤n)个关键词,系统设定阈值为a:
m/n≥a(公式1)
则判断用户输入的语音指令与语义表中的指令文本信息匹配。
260、找到所述语义表中的指令文本信息对应的回复文本信息,并将预合成的回复语音信息播报出来。
可选地,用户可以在一条指令文本信息中标注出一个或多个关键词。
可选地,对于一条指令文本信息,用户可以输入多条回复文本信息。
对于一条指令文本信息对应多条回复文本信息的情况,可以选择的应答模式包括:
顺序应答模式,在顺序应答模式下,用户以语音的形式重复多次输入指令,语音交互原型识别指令后,按照用户编写的回复文本信息顺序,逐次播报回复文本信息对应的回复语音信息。
随机应答模式,在随机应答模式下,用户以语音的形式重复多次输入指令,语音交互原型识别指令后,从用户编写的回复文本信息中,随机挑选一条回复文本信息播报对应的回复语音信息,在随机模式下,各条回复文本的播报概率是相同的。
图3为本发明实施例提供给的用于生成语音交互原型的装置的结构示意图。如图3所示,本实施例提供给的用于生成语音交互原型的装置包括:第一数据获取模块310,数据处理模块320,语音合成模块330,第二数据获取模块340,语义识别模块350,语音播报模块360:
第一数据获取模块310,用于获取用户输入的文本信息;
数据处理模块320,用于对所述文本信息进行处理,得到语义表。语义表包含指令文本信息、关键词和回复文本信息;
语音合成模块330,用于预合成所述语义表中回复文本信息对应的回复语音信息;
第二数据获取模块340,用于获取用户输入的语音指令信息;
语义识别模块350,用于识别用户输入的语音指令信息,抓取其中的关键词与语义表中的指令文本信息关键词进行匹配,如关键词匹配度超过系统设定的阈值,则判定该语音指令信息为语音表中的指令文本信息;
语音播报模块360,用于将预合成的回复语音信息播报出来。
本发明实施例还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理起上运行的计算机程序,该处理器执行所述计算机程序时实现上述方法中的步骤。
本发明还提供了一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
根据本发明的方案,可以快捷的生成可交互的语音原型,满足了语音交互设计师在工作中的验证需求,同时提高了生成语音交互原型的效率。
Claims (7)
1.用于生成语音交互原型的方法,其特征在于,包括如下步骤:
步骤1、获取用户输入的文本信息,所述文本信息包括指令文本信息、指令关键词和回复文本信息;
步骤2、对所述文本信息进行数据处理,得到语义表;
步骤3、对上述语义表中的回复文本信息进行预处理,预合成对应的回复语音信息;
步骤4、获取用户输入的语音指令信息;
步骤5、识别所述语音指令信息,抓取其中的关键词并将其与语义表中的指令关键词进行匹配,如指令关键词匹配度大于等于设定的阈值,则判定该语音指令信息为语义表中的指令文本信息;
步骤6、找到与所述语义表中的指令文本信息对应的回复文本信息,并将预合成的回复语音信息播报出来。
2.如权利要求1所述的用于生成语音交互原型的方法,其特征在于,步骤1中,所述指令文本信息是语音交互原型中用以触发人机对话的数据;指令关键词是包含在上述指令文本信息内的部分内容,用户在输入指令文本信息后,标注出上述指令文本信息中的关键词;用户能够在一条指令文本信息中标注出一个或多个指令关键词。
3.如权利要求1所述的用于生成语音交互原型的方法,其特征在于,步骤1中,一条指令文本信息能够对应多条回复文本信息。
4.如权利要求3所述的用于生成语音交互原型的方法,其特征在于,对于一条指令文本信息对应多条回复文本信息的情况,供选择的应答模式包括:
顺序应答模式,在顺序应答模式下,用户以语音的形式重复多次输入指令,语音交互原型识别指令后,按照用户编写的回复文本信息顺序,逐次播报回复文本信息对应的回复语音信息;
随机应答模式,在随机应答模式下,用户以语音的形式重复多次输入指令,语音交互原型识别指令后,从用户编写的回复文本信息中,随机挑选一条回复文本信息播报对应的回复语音信息,在随机模式下,各条回复文本的播报概率是相同的。
5.如权利要求1所述的用于生成语音交互原型的方法,其特征在于,步骤3中,将所述语义表中的信息上传到语音合成装置,通过预置的声学模型对回复本文信息进行预处理,预合成对应的回复语音信息。
6.用于生成语音交互原型的装置,应用于权利要求1-5任意一项所述的方法,其特征在于,包括:
第一数据获取模块,用于获取用户输入的文本信息;
数据处理模块,用于对所述文本信息进行处理,得到语义表,所述语义表包含指令文本信息、指令关键词和回复文本信息;
语音合成模块,用于预合成所述语义表中回复文本信息对应的回复语音信息;
第二数据获取模块,用于获取用户输入的语音指令信息;
语义识别模块,用于识别用户输入的语音指令信息,抓取其中的关键词与语义表中的指令关键词进行匹配,如指令关键词匹配度大于等于设定的阈值,则判定该语音指令信息为语义表中的指令文本信息;
语音播报模块,用于将预合成的回复语音信息播报出来。
7.计算机设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现权利要求1至5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910988067.3A CN110706704A (zh) | 2019-10-17 | 2019-10-17 | 用于生成语音交互原型的方法、装置和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910988067.3A CN110706704A (zh) | 2019-10-17 | 2019-10-17 | 用于生成语音交互原型的方法、装置和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110706704A true CN110706704A (zh) | 2020-01-17 |
Family
ID=69200417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910988067.3A Pending CN110706704A (zh) | 2019-10-17 | 2019-10-17 | 用于生成语音交互原型的方法、装置和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110706704A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113030990A (zh) * | 2021-03-01 | 2021-06-25 | 爱驰汽车有限公司 | 车辆的融合测距方法、装置、测距设备及介质 |
CN113325752A (zh) * | 2021-05-12 | 2021-08-31 | 北京戴纳实验科技有限公司 | 一种设备管理系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110010177A1 (en) * | 2009-07-08 | 2011-01-13 | Honda Motor Co., Ltd. | Question and answer database expansion apparatus and question and answer database expansion method |
CN103187051A (zh) * | 2011-12-28 | 2013-07-03 | 上海博泰悦臻电子设备制造有限公司 | 车载互动装置 |
CN106294582A (zh) * | 2016-07-28 | 2017-01-04 | 上海未来伙伴机器人有限公司 | 基于自然语言的人机交互方法及系统 |
CN106709072A (zh) * | 2017-02-13 | 2017-05-24 | 长沙军鸽软件有限公司 | 一种基于共享语料库获得智能会话回复内容的方法 |
CN106847278A (zh) * | 2012-12-31 | 2017-06-13 | 威盛电子股份有限公司 | 基于语音识别的选择方法及其移动终端装置及信息系统 |
CN107315766A (zh) * | 2017-05-16 | 2017-11-03 | 广东电网有限责任公司江门供电局 | 一种集合智能与人工问答的语音问答方法及其装置 |
CN109272129A (zh) * | 2018-09-20 | 2019-01-25 | 重庆先特服务外包产业有限公司 | 呼叫中心业务管理系统 |
CN109947911A (zh) * | 2019-01-14 | 2019-06-28 | 深圳前海达闼云端智能科技有限公司 | 一种人机交互方法、装置、计算设备及计算机存储介质 |
CN110019683A (zh) * | 2017-12-29 | 2019-07-16 | 同方威视技术股份有限公司 | 智能语音交互机器人及其语音交互方法 |
-
2019
- 2019-10-17 CN CN201910988067.3A patent/CN110706704A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110010177A1 (en) * | 2009-07-08 | 2011-01-13 | Honda Motor Co., Ltd. | Question and answer database expansion apparatus and question and answer database expansion method |
CN103187051A (zh) * | 2011-12-28 | 2013-07-03 | 上海博泰悦臻电子设备制造有限公司 | 车载互动装置 |
CN106847278A (zh) * | 2012-12-31 | 2017-06-13 | 威盛电子股份有限公司 | 基于语音识别的选择方法及其移动终端装置及信息系统 |
CN106294582A (zh) * | 2016-07-28 | 2017-01-04 | 上海未来伙伴机器人有限公司 | 基于自然语言的人机交互方法及系统 |
CN106709072A (zh) * | 2017-02-13 | 2017-05-24 | 长沙军鸽软件有限公司 | 一种基于共享语料库获得智能会话回复内容的方法 |
CN107315766A (zh) * | 2017-05-16 | 2017-11-03 | 广东电网有限责任公司江门供电局 | 一种集合智能与人工问答的语音问答方法及其装置 |
CN110019683A (zh) * | 2017-12-29 | 2019-07-16 | 同方威视技术股份有限公司 | 智能语音交互机器人及其语音交互方法 |
CN109272129A (zh) * | 2018-09-20 | 2019-01-25 | 重庆先特服务外包产业有限公司 | 呼叫中心业务管理系统 |
CN109947911A (zh) * | 2019-01-14 | 2019-06-28 | 深圳前海达闼云端智能科技有限公司 | 一种人机交互方法、装置、计算设备及计算机存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113030990A (zh) * | 2021-03-01 | 2021-06-25 | 爱驰汽车有限公司 | 车辆的融合测距方法、装置、测距设备及介质 |
CN113030990B (zh) * | 2021-03-01 | 2024-04-05 | 爱驰汽车有限公司 | 车辆的融合测距方法、装置、测距设备及介质 |
CN113325752A (zh) * | 2021-05-12 | 2021-08-31 | 北京戴纳实验科技有限公司 | 一种设备管理系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101213835B1 (ko) | 음성 인식에 있어서 동사 에러 복원 | |
CN110046227B (zh) | 对话系统的配置方法、交互方法、装置、设备和存储介质 | |
JP2019102063A (ja) | ページ制御方法および装置 | |
CN103456299A (zh) | 一种控制语音识别的方法和装置 | |
US11404052B2 (en) | Service data processing method and apparatus and related device | |
CN102842306A (zh) | 语音控制方法及装置、语音响应方法及装置 | |
CN105391730A (zh) | 一种信息反馈方法、装置及系统 | |
CN111326154B (zh) | 语音交互的方法、装置、存储介质及电子设备 | |
CN110992955A (zh) | 一种智能设备的语音操作方法、装置、设备及存储介质 | |
CN110047484A (zh) | 一种语音识别交互方法、系统、设备和存储介质 | |
Billing et al. | Language models for human-robot interaction | |
KR102312993B1 (ko) | 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치 | |
CN111063355A (zh) | 会议记录的生成方法及记录终端 | |
CN110706704A (zh) | 用于生成语音交互原型的方法、装置和计算机设备 | |
CN106205622A (zh) | 信息处理方法及电子设备 | |
CN114401431A (zh) | 一种虚拟人讲解视频生成方法及相关装置 | |
CN105427856B (zh) | 一种面向智能机器人的约请数据处理方法和系统 | |
CN114064943A (zh) | 会议管理方法、装置、存储介质及电子设备 | |
CN116825105A (zh) | 一种基于人工智能的语音识别方法 | |
CN113362806A (zh) | 智能音响的评测方法、系统、存储介质及其计算机设备 | |
CN113643706B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
CN112820265B (zh) | 一种语音合成模型训练方法和相关装置 | |
CN115376517A (zh) | 一种会议场景下的说话内容的显示方法和装置 | |
CN114220034A (zh) | 图像处理方法、装置、终端及存储介质 | |
CN111176430B (zh) | 一种智能终端的交互方法、智能终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200117 |
|
RJ01 | Rejection of invention patent application after publication |