CN113223518B - 一种基于ai语音分析的边缘计算网关的人机互动的方法 - Google Patents

一种基于ai语音分析的边缘计算网关的人机互动的方法 Download PDF

Info

Publication number
CN113223518B
CN113223518B CN202110412974.0A CN202110412974A CN113223518B CN 113223518 B CN113223518 B CN 113223518B CN 202110412974 A CN202110412974 A CN 202110412974A CN 113223518 B CN113223518 B CN 113223518B
Authority
CN
China
Prior art keywords
voice
menu
instruction
edge computing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110412974.0A
Other languages
English (en)
Other versions
CN113223518A (zh
Inventor
周允强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iflytek Zhilian Technology Jiangsu Co ltd
Original Assignee
Iflytek Zhilian Technology Jiangsu Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iflytek Zhilian Technology Jiangsu Co ltd filed Critical Iflytek Zhilian Technology Jiangsu Co ltd
Priority to CN202110412974.0A priority Critical patent/CN113223518B/zh
Publication of CN113223518A publication Critical patent/CN113223518A/zh
Application granted granted Critical
Publication of CN113223518B publication Critical patent/CN113223518B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于AI语音分析的边缘计算网关的人机互动的方法,步骤包括:麦克风阵列采集用户语音操作指令;对该语音线性放大,数模转换,数据处理,其中数据处理包括敏感信息处理,将所述语音信号分割成多个语音段,且确定所述语音数据中的设定敏感信息的位置,包括:声源定位、波束形成、去噪;处理后的干净的语音数据经语音解析引擎成语义文字;查找比对语义关键文字与内存预先保存的菜单指令是否适配,如适配某个菜单指令,可选中菜单回馈并执行该指令;如无适配指令,用户重新进行语音操作。本发明公开的基于AI语音分析的边缘计算网关的人机互动的方法,能解放用户双手,非接触互动更方便健康。

Description

一种基于AI语音分析的边缘计算网关的人机互动的方法
技术领域
本发明涉及人机互动技术领域,尤其是一种边缘计算网关的AI语音人机互动的方法。
背景技术
人机互动概念:人机互动就是人与机器的交互,本质上是指人与计算机的交互,或者可以理解为人与“含有计算机的机器”的交互,人机交互、人机互动是一门研究系统与用户之间的交互关系的学问。系统可以是各种各样的机器,也可以是计算机化的系统和软件。人机交互界面通常是指用户可见的部分。用户通过人机交互界面与系统交流,并进行操作。小如收音机的播放按键,大至飞机上的仪表板,或发电厂的控制室,操作系统的人机交互功能是决定计算机系统“友善性”的一个重要因素。人机交互功能主要靠可输入输出的外部设备和相应的软件来完成。可供人机交互使用的设备主要有键盘显示、鼠标、各种模式识别设备等。与这些设备相应的软件就是操作系统提供人机交互功能的部分。人机交互部分的主要作用是控制有关设备的运行和理解并执行通过人机交互设备传来的有关的各种命令和要求。
目前,随着物联网边缘计算网关的大量设置,不少有大数据图平台呈现,但是传统的触控式人机交互用户需要进行频繁的触摸操作,特别对于一些学习能力较差的中老年人来说,这种交互方式经常出现误触现象,且触控屏经过多人的触摸,不够清洁卫生。
发明内容
发明目的:基于AI语音分析的边缘计算网关的人机互动的方法,解放用户双手,非接触互动更实时更方便健康。
技术方案:本发明所述的基于AI语音分析的边缘计算网关的人机互动的方法,包括如下步骤:
步骤1,麦克风阵列采集用户语音操作指令,获取不同语音信号,对语音信号进行分组,每组语音信号包括相邻两个麦克风的语音信号,对每一组中的两路语音信号分别进行进行同步的滤波处理,接着将滤波后的语音信号转化成数字信号,然后对每一组语音信号转换处理后的数字信号分别进行云备份,根据同步备份的数字信号合成处理得到多声道的立体声信号;
步骤2,对该语音线性放大,数模转换,数据处理,其中数据处理包括敏感信息处理,将所述语音信号分割成多个语音段,且确定所述语音数据中的设定敏感信息的位置,即根据每个所述语音段中所述设定敏感信息的位置确定所述语音信号中的设定敏感信息的位置,从而对语音信号进行绿色筛选,自动过滤敏感语音信息;
步骤3,处理后的干净的语音数据自动送去编码器进行编码处理,然后将经过编码后的语音数据录入至服务器进行缓存,服务器采用语义分析法对缓存内容进行解码处理,最后经语音解析引擎成文字信息,将所述文字信息进行语义分析,从而对文字信息进行纠错处理,生成所需的目标文字信息;
步骤4,收集目标文字信息并保存,对所述目标文字信息进行语义拆分,得到若干词汇结构部分,并将若干所述词汇结构部分结合语境与预先保存的菜单指令建立关联关系,从而查找目标文字信息中的关键文字与内存预先保存的菜单指令比对是否适配;
步骤5.1,如适配某个菜单指令,根据适配菜单类型,在菜单表中生成目标设备的运行控件,包括:生成目标设备的文本显示控件、单选控件和多选控件,从而选中菜单回馈并执行该指令;
步骤5.2,如无适配指令,相关系统自动重置,麦克风自启动重新进行语音采集准备工作,用户重新进行语音操作,从步骤1再开始;
优选的,步骤1中,麦克风阵列采集用户语音操作指令,麦克风阵列采使用6(+1)个麦克风的环形阵列,所述麦克风阵列包括主麦克风和辅麦克风,并且所述辅麦克风为默认麦克风。
优选的,步骤2中,每个语音段时长控制在5秒-8秒,所述数据处理还包括:声源定位、波束形成、声源除噪,将粗数据转经过滤选后换成干净的数据。
优选的,步骤3中,将步骤2中进行数据处理后的干净的语音数据经语音自动断句后解析引擎成语义文字,其中语音解析引擎是由菜单指令关键字大数据经深度学习训练而成,匹配度大于90%。
优选的,步骤4中,查找语义关键文字与内存预先保存的菜单指令比对是否适配,内存预先保存的菜单指令是一个菜单表,菜单表中生成主菜单和若干子菜单,根据语义关键文字,可提取简缩为关键词。
优选的,步骤5.1中,如适配某个菜单指令,可选中菜单回馈并执行该指令,完全适配某个菜单指令,系统则直接执行该指令,部分适配某个菜单指令,选中该菜单,用户可自主进行回馈判断,匹配则执行该菜单指令,若用户回馈判断是,则继续执行菜单指令,若用户回馈判断为否,则不执行该菜单指令,重新返回到步骤1。
优选的,步骤5.2中,如无适配指令,则进行自主回馈判断,是否重新进行语音录入,若客户回馈判断是,则重新返回到步骤1,若客户回馈判断否,麦克风自动停止语音录入,反馈时间小于2秒,实时性较好。
本发明与现有技术相比,其有益效果是:经步骤3、步骤5.1、步骤5.2使得交互指令的准确率100%,而反馈时间小于2秒,实时性较好,本发明能够有效地确定所述语音数据是否为人机交互语音数据,有效地减少了噪声语音数据对人机交互的影响,降低了人机交互系统的误响应,从而解放用户双手,并且非接触互动更实时更方便健康。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面结合附图对本发明技术方案进行详细说明,但是本发明的保护范围不局限于所述实施例。
实施例:
如图1所示,本发明所述的基于AI语音分析的边缘计算网关的人机互动的方法,包括如下步骤:
步骤1,麦克风阵列采集用户语音操作指令,获取不同语音信号,对语音信号进行分组,每组语音信号包括相邻两个麦克风的语音信号,对每一组中的两路语音信号分别进行进行同步的滤波处理,接着将滤波后的语音信号转化成数字信号,然后对每一组语音信号转换处理后的数字信号分别进行云备份,根据同步备份的数字信号合成处理得到多声道的立体声信号,更具体的来说,麦克风阵列采集用户语音操作指令,麦克风阵列采使用6(+1)个麦克风的环形阵列,所述麦克风阵列包括主麦克风和辅麦克风,并且所述辅麦克风为默认麦克风。
步骤2,对该语音线性放大,数模转换,数据处理,其中数据处理包括敏感信息处理,将所述语音信号分割成多个语音段,且确定所述语音数据中的设定敏感信息的位置,即根据每个所述语音段中所述设定敏感信息的位置确定所述语音信号中的设定敏感信息的位置,从而对语音信号进行绿色筛选,自动过滤敏感语音信息,更具体的来说每个语音段时长控制在5秒-8秒,所述数据处理还包括:声源定位、波束形成、声源除噪,将粗数据转经过滤选后换成干净的数据。
步骤3,处理后的干净的语音数据自动送去编码器进行编码处理,然后将经过编码后的语音数据录入至服务器进行缓存,服务器采用语义分析法对缓存内容进行解码处理,最后经语音解析引擎成文字信息,将所述文字信息进行语义分析,从而对文字信息进行纠错处理,生成所需的目标文字信息,更具体的来说将进行数据处理后的干净的语音数据经语音自动断句后解析引擎成语义文字,其中语音解析引擎是由菜单指令关键字大数据经深度学习训练而成,匹配度大于90%。
步骤4,收集目标文字信息并保存,对所述目标文字信息进行语义拆分,得到若干词汇结构部分,并将若干所述词汇结构部分结合语境与预先保存的菜单指令建立关联关系,从而查找目标文字信息中的关键文字与内存预先保存的菜单指令比对是否适配,更具体的来说查找语义关键文字与内存预先保存的菜单指令比对是否适配,内存预先保存的菜单指令是一个菜单表,菜单表中生成主菜单和若干子菜单,根据语义关键文字,可提取简缩为关键词。
步骤5.1,如适配某个菜单指令,根据适配菜单类型,在菜单表中生成目标设备的运行控件,包括:生成目标设备的文本显示控件、单选控件和多选控件,从而选中菜单回馈并执行该指令,更具体的来说如适配某个菜单指令,可选中菜单回馈并执行该指令,完全适配某个菜单指令,系统则直接执行该指令,部分适配某个菜单指令,选中该菜单,用户可自主进行回馈判断,匹配则执行该菜单指令,若用户回馈判断是,则继续执行菜单指令,若用户回馈判断为否,则不执行该菜单指令,重新返回到步骤1。
步骤5.2,如无适配指令,相关系统自动重置,麦克风自启动重新进行语音采集准备工作,用户重新进行语音操作,从步骤1再开始,更具体的来说如无适配指令,则进行自主回馈判断,是否重新进行语音录入,若客户回馈判断是,则重新返回到步骤1,若客户回馈判断否,麦克风自动停止语音录入。
本发明与现有技术相比,其有益效果是:经步骤3、步骤5.1、步骤5.2使得交互指令的准确率100%,而反馈时间小于2秒,实时性较好,本发明能够有效地确定所述语音数据是否为人机交互语音数据,有效地减少了噪声语音数据对人机交互的影响,降低了人机交互系统的误响应,从而解放用户双手,并且非接触互动更实时更方便健康。
如上所述,尽管参照特定的优选实施例已经表示和表述了本发明,但其不得解释为对本发明自身的限制。在不脱离所附权利要求定义的本发明的精神和范围前提下,可对其在形式上和细节上作出各种变化。

Claims (7)

1.一种基于AI语音分析的边缘计算网关的人机互动的方法,其特征包括如下步骤:
步骤1,麦克风阵列采集用户语音操作指令,获取不同语音信号,对语音信号进行分组,每组语音信号包括相邻两个麦克风的语音信号,对每一组中的两路语音信号分别进行进行同步的滤波处理,接着将滤波后的语音信号转化成数字信号,然后对每一组语音信号转换处理后的数字信号分别进行云备份,根据同步备份的数字信号合成处理得到多声道的立体声信号;
步骤2,对该语音线性放大,数模转换,数据处理,其中数据处理包括敏感信息处理,将所述语音信号分割成多个语音段,且确定所述语音数据中的设定敏感信息的位置,即根据每个所述语音段中所述设定敏感信息的位置确定所述语音信号中的设定敏感信息的位置,从而对语音信号进行绿色筛选,自动过滤敏感语音信息;
步骤3,处理后的干净的语音数据自动送去编码器进行编码处理,然后将经过编码后的语音数据录入至服务器进行缓存,服务器采用语义分析法对缓存内容进行解码处理,最后经语音解析引擎成文字信息,将所述文字信息进行语义分析,从而对文字信息进行纠错处理,生成所需的目标文字信息;
步骤4,收集目标文字信息并保存,对所述目标文字信息进行语义拆分,得到若干词汇结构部分,并将若干所述词汇结构部分结合语境与预先保存的菜单指令建立关联关系,从而查找目标文字信息中的关键文字与内存预先保存的菜单指令比对是否适配;
步骤5.1,如适配某个菜单指令,根据适配菜单类型,在菜单表中生成目标设备的运行控件,包括:生成目标设备的文本显示控件、单选控件和多选控件,从而选中菜单回馈并执行该指令;
步骤5.2,如无适配指令,相关系统自动重置,麦克风自启动重新进行语音采集准备工作,用户重新进行语音操作,从步骤1再开始。
2.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤1中,麦克风阵列采集用户语音操作指令,麦克风阵列采使用6(+1)个麦克风的环形阵列,所述麦克风阵列包括主麦克风和辅麦克风,并且所述辅麦克风为默认麦克风。
3.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤2中,每个语音段时长控制在5秒-8秒,所述数据处理还包括:声源定位、波束形成、声源除噪,将粗数据转经过滤选后换成干净的数据。
4.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤3中,将步骤2中进行数据处理后的干净的语音数据经语音自动断句后解析引擎成语义文字,其中语音解析引擎是由菜单指令关键字大数据经深度学习训练而成,匹配度大于90%。
5.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤4中,查找语义关键文字与内存预先保存的菜单指令比对是否适配,内存预先保存的菜单指令是一个菜单表,菜单表中生成主菜单和若干子菜单,根据语义关键文字,可提取简缩为关键词。
6.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤5.1中,如适配某个菜单指令,可选中菜单回馈并执行该指令,完全适配某个菜单指令,系统则直接执行该指令,部分适配某个菜单指令,选中该菜单,用户可自主进行回馈判断,匹配则执行该菜单指令,若用户回馈判断是,则继续执行菜单指令,若用户回馈判断为否,则不执行该菜单指令,重新返回到步骤1。
7.根据权利要求1所述的基于AI语音分析的边缘计算网关的人机互动的方法,其特征在于,步骤5.2中,如无适配指令,则进行自主回馈判断,是否重新进行语音录入,若客户回馈判断是,则重新返回到步骤1,若客户回馈判断否,麦克风自动停止语音录入。
CN202110412974.0A 2021-04-16 2021-04-16 一种基于ai语音分析的边缘计算网关的人机互动的方法 Active CN113223518B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110412974.0A CN113223518B (zh) 2021-04-16 2021-04-16 一种基于ai语音分析的边缘计算网关的人机互动的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110412974.0A CN113223518B (zh) 2021-04-16 2021-04-16 一种基于ai语音分析的边缘计算网关的人机互动的方法

Publications (2)

Publication Number Publication Date
CN113223518A CN113223518A (zh) 2021-08-06
CN113223518B true CN113223518B (zh) 2024-03-22

Family

ID=77087603

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110412974.0A Active CN113223518B (zh) 2021-04-16 2021-04-16 一种基于ai语音分析的边缘计算网关的人机互动的方法

Country Status (1)

Country Link
CN (1) CN113223518B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113823065A (zh) * 2021-08-19 2021-12-21 南通英可达信息技术有限公司 一种适用于智能住宅及养老服务的模块化智能终端

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102013254A (zh) * 2010-11-17 2011-04-13 广东中大讯通信息有限公司 一种数字电视语音识别人机交互系统及方法
WO2015154447A1 (zh) * 2014-08-15 2015-10-15 中兴通讯股份有限公司 一种交互式语音应答方法及装置
CN107170449A (zh) * 2017-06-14 2017-09-15 上海雍敏信息科技有限公司 智能家居系统及其控制方法
CN107506166A (zh) * 2017-08-04 2017-12-22 珠海市魅族科技有限公司 信息提示方法及装置、计算机装置及可读存储介质
CN107507623A (zh) * 2017-10-09 2017-12-22 维拓智能科技(深圳)有限公司 基于麦克风阵列语音交互的自助服务终端
CN107910002A (zh) * 2017-12-20 2018-04-13 北京工业大学 一种人机语音图形交互系统及方法
CN109036430A (zh) * 2018-09-29 2018-12-18 芜湖星途机器人科技有限公司 语音控制终端
CN109065055A (zh) * 2018-09-13 2018-12-21 三星电子(中国)研发中心 基于声音生成ar内容的方法、存储介质和装置
WO2020113935A1 (zh) * 2018-12-03 2020-06-11 北京云知声信息技术有限公司 一种提升语音唤醒成功率的方法、装置及存储介质

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102013254A (zh) * 2010-11-17 2011-04-13 广东中大讯通信息有限公司 一种数字电视语音识别人机交互系统及方法
WO2015154447A1 (zh) * 2014-08-15 2015-10-15 中兴通讯股份有限公司 一种交互式语音应答方法及装置
CN107170449A (zh) * 2017-06-14 2017-09-15 上海雍敏信息科技有限公司 智能家居系统及其控制方法
CN107506166A (zh) * 2017-08-04 2017-12-22 珠海市魅族科技有限公司 信息提示方法及装置、计算机装置及可读存储介质
CN107507623A (zh) * 2017-10-09 2017-12-22 维拓智能科技(深圳)有限公司 基于麦克风阵列语音交互的自助服务终端
CN107910002A (zh) * 2017-12-20 2018-04-13 北京工业大学 一种人机语音图形交互系统及方法
CN109065055A (zh) * 2018-09-13 2018-12-21 三星电子(中国)研发中心 基于声音生成ar内容的方法、存储介质和装置
CN109036430A (zh) * 2018-09-29 2018-12-18 芜湖星途机器人科技有限公司 语音控制终端
WO2020113935A1 (zh) * 2018-12-03 2020-06-11 北京云知声信息技术有限公司 一种提升语音唤醒成功率的方法、装置及存储介质

Also Published As

Publication number Publication date
CN113223518A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
JP3662780B2 (ja) 自然言語を用いた対話システム
CN107454508B (zh) 麦克风阵列的电视机及电视系统
US8805691B2 (en) Providing programming information in response to spoken requests
US7006973B1 (en) Providing information in response to spoken requests
US7260529B1 (en) Command insertion system and method for voice recognition applications
US7684985B2 (en) Techniques for disambiguating speech input using multimodal interfaces
US20150331665A1 (en) Information provision method using voice recognition function and control method for device
AU2016277548A1 (en) A smart home control method based on emotion recognition and the system thereof
WO2018212953A1 (en) Detecting a trigger of a digital assistant
US20120016671A1 (en) Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions
CN102024013A (zh) 启动包括第一功能和第二功能的多个功能的系统和方法
WO2016159961A1 (en) Voice driven operating system for interfacing with electronic devices
CN104090652A (zh) 一种语音输入方法和装置
US20230409566A1 (en) Combining parameters of multiple search queries that share a line of inquiry
CN113223518B (zh) 一种基于ai语音分析的边缘计算网关的人机互动的方法
WO2019031268A1 (ja) 情報処理装置、及び情報処理方法
CN110675866A (zh) 用于改进至少一个语义单元集合的方法、设备及计算机可读记录介质
US20160277698A1 (en) Method for vocally controlling a television and television thereof
JP2008145769A (ja) 対話シナリオ生成システム,その方法およびプログラム
JP2020101822A (ja) 音声認識機能を用いた情報提供方法および機器の制御方法
CN112802460B (zh) 一种基于语音处理的空间环境预报系统
WO2003079188A1 (fr) Procede de fonctionnement d'un objet logiciel au moyen d'une langue naturelle et programme correspondant
KR20000030906A (ko) 음성 인식과 음성 합성을 이용한 컴퓨터에서의 명령 실행방법 및 어플리케이션 프로그램에서의 선택된 텍스트를음성으로 변환하여 출력하기 위한 방법
CN113022153A (zh) 一种智能便签打印机及其打印方法
CN111832656A (zh) 医用人机交互辅助系统及含该程序的计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant