CN113223518A - 一种基于ai语音分析的边缘计算网关的人机互动的方法 - Google Patents
一种基于ai语音分析的边缘计算网关的人机互动的方法 Download PDFInfo
- Publication number
- CN113223518A CN113223518A CN202110412974.0A CN202110412974A CN113223518A CN 113223518 A CN113223518 A CN 113223518A CN 202110412974 A CN202110412974 A CN 202110412974A CN 113223518 A CN113223518 A CN 113223518A
- Authority
- CN
- China
- Prior art keywords
- voice
- menu
- instruction
- analysis
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 37
- 238000004458 analytical method Methods 0.000 title claims abstract description 26
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000013473 artificial intelligence Methods 0.000 title description 8
- 238000012545 processing Methods 0.000 claims abstract description 22
- 230000003044 adaptive effect Effects 0.000 claims abstract description 7
- 230000010365 information processing Effects 0.000 claims abstract description 4
- 238000001914 filtration Methods 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 6
- 230000003321 amplification Effects 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 238000002360 preparation method Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02166—Microphone arrays; Beamforming
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于AI语音分析的边缘计算网关的人机互动的方法,步骤包括:麦克风阵列采集用户语音操作指令;对该语音线性放大,数模转换,数据处理,其中数据处理包括敏感信息处理,将所述语音信号分割成多个语音段,且确定所述语音数据中的设定敏感信息的位置,包括:声源定位、波束形成、去噪;处理后的干净的语音数据经语音解析引擎成语义文字;查找比对语义关键文字与内存预先保存的菜单指令是否适配,如适配某个菜单指令,可选中菜单回馈并执行该指令;如无适配指令,用户重新进行语音操作。本发明公开的基于AI语音分析的边缘计算网关的人机互动的方法,能解放用户双手,非接触互动更方便健康。
Description
技术领域
本发明涉及人机互动技术领域,尤其是一种边缘计算网关的AI语音人机互动的方法。
背景技术
人机互动概念:人机互动就是人与机器的交互,本质上是指人与计算机的交互,或者可以理解为人与“含有计算机的机器”的交互,人机交互、人机互动是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板,或发电厂的控制室,操作系统的人机交互功能是决定计算机系统“友善性”的一个重要因素。人机交互功能主要靠可输入输出的外部设备和相应的软件来完成。可供人机交互使用的设备主要有键盘显示、鼠标、各种模式识别设备等。与这些设备相应的软件就是操作系统提供人机交互功能的部分。人机交互部分的主要作用是控制有关设备的运行和理解并执行通过人机交互设备传来的有关的各种命令和要求。
目前,随着物联网边缘计算网关的大量设置,不少有大数据图平台呈现,但是传统的触控式人机交互用户需要进行频繁的触摸操作,特别对于一些学习能力较差的中老年人来说,这种交互方式经常出现误触现象,且触控屏经过多人的触摸,不够清洁卫生。
发明内容
发明目的:基于AI语音分析的边缘计算网关的人机互动的方法,解放用户双手,非接触互动更实时更方便健康。
技术方案:本发明所述的基于AI语音分析的边缘计算网关的人机互动的方法,包括如下步骤:
步骤1,麦克风阵列采集用户语音操作指令,获取不同语音信号,对语音信号进行分组,每组语音信号包括相邻两个麦克风的语音信号,对每一组中的两路语音信号分别进行进行同步的滤波处理,接着将滤波后的语音信号转化成数字信号,然后对每一组语音信号转换处理后的数字信号分别进行云备份,根据同步备份的数字信号合成处理得到多声道的立体声信号;
步骤2,对该语音线性放大,数模转换,数据处理,其中数据处理包括敏感信息处理,将所述语音信号分割成多个语音段,且确定所述语音数据中的设定敏感信息的位置,即根据每个所述语音段中所述设定敏感信息的位置确定所述语音信号中的设定敏感信息的位置,从而对语音信号进行绿色筛选,自动过滤敏感语音信息;
步骤3,处理后的干净的语音数据自动送去编码器进行编码处理,然后将经过编码后的语音数据录入至服务器进行缓存,服务器采用语义分析法对缓存内容进行解码处理,最后经语音解析引擎成文字信息,将所述文字信息进行语义分析,从而对文字信息进行纠错处理,生成所需的目标文字信息;
步骤4,收集目标文字信息并保存,对所述目标文字信息进行语义拆分,得到若干词汇结构部分,并将若干所述词汇结构部分结合语境与预先保存的菜单指令建立关联关系,从而查找目标文字信息中的关键文字与内存预先保存的菜单指令比对是否适配;
步骤5.1,如适配某个菜单指令,根据适配菜单类型,在菜单表中生成目标设备的运行控件,包括:生成目标设备的文本显示控件、单选控件和多选控件,从而选中菜单回馈并执行该指令;
步骤5.2,如无适配指令,相关系统自动重置,麦克风自启动重新进行语音采集准备工作,用户重新进行语音操作,从步骤1再开始;
优选的,步骤1中,麦克风阵列采集用户语音操作指令,麦克风阵列采使用6(+1)个麦克风的环形阵列,所述麦克风阵列包括主麦克风和辅麦克风,并且所述辅麦克风为默认麦克风。
优选的,步骤2中,每个语音段时长控制在5秒-8秒,所述数据处理还包括:声源定位、波束形成、声源除噪,将粗数据转经过滤选后换成干净的数据。
优选的,步骤3中,将步骤2中进行数据处理后的干净的语音数据经语音自动断句后解析引擎成语义文字,其中语音解析引擎是由菜单指令关键字大数据经深度学习训练而成,匹配度大于90%。
优选的,步骤4中,查找语义关键文字与内存预先保存的菜单指令比对是否适配,内存预先保存的菜单指令是一个菜单表,菜单表中生成主菜单和若干子菜单,根据语义关键文字,可提取简缩为关键词。
优选的,步骤5.1中,如适配某个菜单指令,可选中菜单回馈并执行该指令,完全适配某个菜单指令,系统则直接执行该指令,部分适配某个菜单指令,选中该菜单,用户可自主进行回馈判断,匹配则执行该菜单指令,若用户回馈判断是,则继续执行菜单指令,若用户回馈判断为否,则不执行该菜单指令,重新返回到步骤1。
优选的,步骤5.2中,如无适配指令,则进行自主回馈判断,是否重新进行语音录入,若客户回馈判断是,则重新返回到步骤1,若客户回馈判断否,麦克风自动停止语音录入,反馈时间小于2秒,实时性较好。
本发明与现有技术相比,其有益效果是:经步骤3、步骤5.1、步骤5.2使得交互指令的准确率100%,而反馈时间小于2秒,实时性较好,本发明能够有效地确定所述语音数据是否为人机交互语音数据,有效地减少了噪声语音数据对人机交互的影响,降低了人机交互系统的误响应,从而解放用户双手,并且非接触互动更实时更方便健康。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面结合附图对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
实施例:
如图1所示,本发明所述的基于AI语音分析的边缘计算网关的人机互动的方法,包括如下步骤:
步骤1,麦克风阵列采集用户语音操作指令,获取不同语音信号,对语音信号进行分组,每组语音信号包括相邻两个麦克风的语音信号,对每一组中的两路语音信号分别进行进行同步的滤波处理,接着将滤波后的语音信号转化成数字信号,然后对每一组语音信号转换处理后的数字信号分别进行云备份,根据同步备份的数字信号合成处理得到多声道的立体声信号,更具体的来说,麦克风阵列采集用户语音操作指令,麦克风阵列采使用6(+1)个麦克风的环形阵列,所述麦克风阵列包括主麦克风和辅麦克风,并且所述辅麦克风为默认麦克风。
步骤2,对该语音线性放大,数模转换,数据处理,其中数据处理包括敏感信息处理,将所述语音信号分割成多个语音段,且确定所述语音数据中的设定敏感信息的位置,即根据每个所述语音段中所述设定敏感信息的位置确定所述语音信号中的设定敏感信息的位置,从而对语音信号进行绿色筛选,自动过滤敏感语音信息,更具体的来说每个语音段时长控制在5秒-8秒,所述数据处理还包括:声源定位、波束形成、声源除噪,将粗数据转经过滤选后换成干净的数据。
步骤3,处理后的干净的语音数据自动送去编码器进行编码处理,然后将经过编码后的语音数据录入至服务器进行缓存,服务器采用语义分析法对缓存内容进行解码处理,最后经语音解析引擎成文字信息,将所述文字信息进行语义分析,从而对文字信息进行纠错处理,生成所需的目标文字信息,更具体的来说将进行数据处理后的干净的语音数据经语音自动断句后解析引擎成语义文字,其中语音解析引擎是由菜单指令关键字大数据经深度学习训练而成,匹配度大于90%。
步骤4,收集目标文字信息并保存,对所述目标文字信息进行语义拆分,得到若干词汇结构部分,并将若干所述词汇结构部分结合语境与预先保存的菜单指令建立关联关系,从而查找目标文字信息中的关键文字与内存预先保存的菜单指令比对是否适配,更具体的来说查找语义关键文字与内存预先保存的菜单指令比对是否适配,内存预先保存的菜单指令是一个菜单表,菜单表中生成主菜单和若干子菜单,根据语义关键文字,可提取简缩为关键词。
步骤5.1,如适配某个菜单指令,根据适配菜单类型,在菜单表中生成目标设备的运行控件,包括:生成目标设备的文本显示控件、单选控件和多选控件,从而选中菜单回馈并执行该指令,更具体的来说如适配某个菜单指令,可选中菜单回馈并执行该指令,完全适配某个菜单指令,系统则直接执行该指令,部分适配某个菜单指令,选中该菜单,用户可自主进行回馈判断,匹配则执行该菜单指令,若用户回馈判断是,则继续执行菜单指令,若用户回馈判断为否,则不执行该菜单指令,重新返回到步骤1。
步骤5.2,如无适配指令,相关系统自动重置,麦克风自启动重新进行语音采集准备工作,用户重新进行语音操作,从步骤1再开始,更具体的来说如无适配指令,则进行自主回馈判断,是否重新进行语音录入,若客户回馈判断是,则重新返回到步骤1,若客户回馈判断否,麦克风自动停止语音录入。
本发明与现有技术相比,其有益效果是:经步骤3、步骤5.1、步骤5.2使得交互指令的准确率100%,而反馈时间小于2秒,实时性较好,本发明能够有效地确定所述语音数据是否为人机交互语音数据,有效地减少了噪声语音数据对人机交互的影响,降低了人机交互系统的误响应,从而解放用户双手,并且非接触互动更实时更方便健康。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上作出各种变化。
Claims (7)
1.一种基于AI语音分析的边缘计算网关的人机互动的方法,其特征包括如下步骤:
步骤1,麦克风阵列采集用户语音操作指令,获取不同语音信号,对语音信号进行分组,每组语音信号包括相邻两个麦克风的语音信号,对每一组中的两路语音信号分别进行进行同步的滤波处理,接着将滤波后的语音信号转化成数字信号,然后对每一组语音信号转换处理后的数字信号分别进行云备份,根据同步备份的数字信号合成处理得到多声道的立体声信号;
步骤2,对该语音线性放大,数模转换,数据处理,其中数据处理包括敏感信息处理,将所述语音信号分割成多个语音段,且确定所述语音数据中的设定敏感信息的位置,即根据每个所述语音段中所述设定敏感信息的位置确定所述语音信号中的设定敏感信息的位置,从而对语音信号进行绿色筛选,自动过滤敏感语音信息;
步骤3,处理后的干净的语音数据自动送去编码器进行编码处理,然后将经过编码后的语音数据录入至服务器进行缓存,服务器采用语义分析法对缓存内容进行解码处理,最后经语音解析引擎成文字信息,将所述文字信息进行语义分析,从而对文字信息进行纠错处理,生成所需的目标文字信息;
步骤4,收集目标文字信息并保存,对所述目标文字信息进行语义拆分,得到若干词汇结构部分,并将若干所述词汇结构部分结合语境与预先保存的菜单指令建立关联关系,从而查找目标文字信息中的关键文字与内存预先保存的菜单指令比对是否适配;
步骤5.1,如适配某个菜单指令,根据适配菜单类型,在菜单表中生成目标设备的运行控件,包括:生成目标设备的文本显示控件、单选控件和多选控件,从而选中菜单回馈并执行该指令;
步骤5.2,如无适配指令,相关系统自动重置,麦克风自启动重新进行语音采集准备工作,用户重新进行语音操作,从步骤1再开始。
2.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤1中,麦克风阵列采集用户语音操作指令,麦克风阵列采使用6(+1)个麦克风的环形阵列,所述麦克风阵列包括主麦克风和辅麦克风,并且所述辅麦克风为默认麦克风。
3.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤2中,每个语音段时长控制在5秒-8秒,所述数据处理还包括:声源定位、波束形成、声源除噪,将粗数据转经过滤选后换成干净的数据。
4.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤3中,将步骤2中进行数据处理后的干净的语音数据经语音自动断句后解析引擎成语义文字,其中语音解析引擎是由菜单指令关键字大数据经深度学习训练而成,匹配度大于90%。
5.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤4中,查找语义关键文字与内存预先保存的菜单指令比对是否适配,内存预先保存的菜单指令是一个菜单表,菜单表中生成主菜单和若干子菜单,根据语义关键文字,可提取简缩为关键词。
6.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤5.1中,如适配某个菜单指令,可选中菜单回馈并执行该指令,完全适配某个菜单指令,系统则直接执行该指令,部分适配某个菜单指令,选中该菜单,用户可自主进行回馈判断,匹配则执行该菜单指令,若用户回馈判断是,则继续执行菜单指令,若用户回馈判断为否,则不执行该菜单指令,重新返回到步骤1。
7.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤5.2中,如无适配指令,则进行自主回馈判断,是否重新进行语音录入,若客户回馈判断是,则重新返回到步骤1,若客户回馈判断否,麦克风自动停止语音录入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110412974.0A CN113223518B (zh) | 2021-04-16 | 2021-04-16 | 一种基于ai语音分析的边缘计算网关的人机互动的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110412974.0A CN113223518B (zh) | 2021-04-16 | 2021-04-16 | 一种基于ai语音分析的边缘计算网关的人机互动的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113223518A true CN113223518A (zh) | 2021-08-06 |
CN113223518B CN113223518B (zh) | 2024-03-22 |
Family
ID=77087603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110412974.0A Active CN113223518B (zh) | 2021-04-16 | 2021-04-16 | 一种基于ai语音分析的边缘计算网关的人机互动的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113223518B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113823065A (zh) * | 2021-08-19 | 2021-12-21 | 南通英可达信息技术有限公司 | 一种适用于智能住宅及养老服务的模块化智能终端 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102013254A (zh) * | 2010-11-17 | 2011-04-13 | 广东中大讯通信息有限公司 | 一种数字电视语音识别人机交互系统及方法 |
WO2015154447A1 (zh) * | 2014-08-15 | 2015-10-15 | 中兴通讯股份有限公司 | 一种交互式语音应答方法及装置 |
CN107170449A (zh) * | 2017-06-14 | 2017-09-15 | 上海雍敏信息科技有限公司 | 智能家居系统及其控制方法 |
CN107506166A (zh) * | 2017-08-04 | 2017-12-22 | 珠海市魅族科技有限公司 | 信息提示方法及装置、计算机装置及可读存储介质 |
CN107507623A (zh) * | 2017-10-09 | 2017-12-22 | 维拓智能科技(深圳)有限公司 | 基于麦克风阵列语音交互的自助服务终端 |
CN107910002A (zh) * | 2017-12-20 | 2018-04-13 | 北京工业大学 | 一种人机语音图形交互系统及方法 |
CN109036430A (zh) * | 2018-09-29 | 2018-12-18 | 芜湖星途机器人科技有限公司 | 语音控制终端 |
CN109065055A (zh) * | 2018-09-13 | 2018-12-21 | 三星电子(中国)研发中心 | 基于声音生成ar内容的方法、存储介质和装置 |
WO2020113935A1 (zh) * | 2018-12-03 | 2020-06-11 | 北京云知声信息技术有限公司 | 一种提升语音唤醒成功率的方法、装置及存储介质 |
-
2021
- 2021-04-16 CN CN202110412974.0A patent/CN113223518B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102013254A (zh) * | 2010-11-17 | 2011-04-13 | 广东中大讯通信息有限公司 | 一种数字电视语音识别人机交互系统及方法 |
WO2015154447A1 (zh) * | 2014-08-15 | 2015-10-15 | 中兴通讯股份有限公司 | 一种交互式语音应答方法及装置 |
CN107170449A (zh) * | 2017-06-14 | 2017-09-15 | 上海雍敏信息科技有限公司 | 智能家居系统及其控制方法 |
CN107506166A (zh) * | 2017-08-04 | 2017-12-22 | 珠海市魅族科技有限公司 | 信息提示方法及装置、计算机装置及可读存储介质 |
CN107507623A (zh) * | 2017-10-09 | 2017-12-22 | 维拓智能科技(深圳)有限公司 | 基于麦克风阵列语音交互的自助服务终端 |
CN107910002A (zh) * | 2017-12-20 | 2018-04-13 | 北京工业大学 | 一种人机语音图形交互系统及方法 |
CN109065055A (zh) * | 2018-09-13 | 2018-12-21 | 三星电子(中国)研发中心 | 基于声音生成ar内容的方法、存储介质和装置 |
CN109036430A (zh) * | 2018-09-29 | 2018-12-18 | 芜湖星途机器人科技有限公司 | 语音控制终端 |
WO2020113935A1 (zh) * | 2018-12-03 | 2020-06-11 | 北京云知声信息技术有限公司 | 一种提升语音唤醒成功率的方法、装置及存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113823065A (zh) * | 2021-08-19 | 2021-12-21 | 南通英可达信息技术有限公司 | 一种适用于智能住宅及养老服务的模块化智能终端 |
Also Published As
Publication number | Publication date |
---|---|
CN113223518B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3662780B2 (ja) | 自然言語を用いた対話システム | |
JP7130194B2 (ja) | ユーザ意図認識方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム | |
US20120016671A1 (en) | Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions | |
US8374875B2 (en) | Providing programming information in response to spoken requests | |
US11682381B2 (en) | Acoustic model training using corrected terms | |
KR101213835B1 (ko) | 음성 인식에 있어서 동사 에러 복원 | |
US20150279366A1 (en) | Voice driven operating system for interfacing with electronic devices: system, method, and architecture | |
JP5062171B2 (ja) | 音声認識システム、音声認識方法および音声認識用プログラム | |
JP2004295837A (ja) | 音声制御方法、音声制御装置、音声制御プログラム | |
US20110264452A1 (en) | Audio output of text data using speech control commands | |
JP2011504624A (ja) | 自動同時通訳システム | |
CN109782997B (zh) | 一种数据处理方法、装置及存储介质 | |
CN111179928A (zh) | 一种基于语音交互的变配电站智能控制方法 | |
JP2023511091A (ja) | 自動音声認識のための英数字列のバイアス付加 | |
CN113223518A (zh) | 一种基于ai语音分析的边缘计算网关的人机互动的方法 | |
CN112802460B (zh) | 一种基于语音处理的空间环境预报系统 | |
KR101134467B1 (ko) | 의미 표현 처리 장치 및 그 방법 | |
CN116564286A (zh) | 语音录入方法、装置、存储介质及电子设备 | |
Ou et al. | Application of keywords speech recognition in agricultural voice information system | |
CN210466389U (zh) | 一种智能中英语音翻译机 | |
Revuelta-Martínez et al. | A computer assisted speech transcription system | |
US11900072B1 (en) | Quick lookup for speech translation | |
US20210210092A1 (en) | Efficient dialogue configuration | |
JP2008243076A (ja) | 翻訳装置、方法及びプログラム | |
JP2011027971A (ja) | 音声認識装置、音声認識方法及びそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |