CN111161719B - 一种通过语音操作的ar眼镜及通过语音操作ar眼镜的方法 - Google Patents

一种通过语音操作的ar眼镜及通过语音操作ar眼镜的方法 Download PDF

Info

Publication number
CN111161719B
CN111161719B CN201811325922.4A CN201811325922A CN111161719B CN 111161719 B CN111161719 B CN 111161719B CN 201811325922 A CN201811325922 A CN 201811325922A CN 111161719 B CN111161719 B CN 111161719B
Authority
CN
China
Prior art keywords
information
voice
sound
streaming media
media file
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811325922.4A
Other languages
English (en)
Other versions
CN111161719A (zh
Inventor
白欲立
屠程远
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo New Vision Beijing Technology Co Ltd
Original Assignee
Lenovo New Vision Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo New Vision Beijing Technology Co Ltd filed Critical Lenovo New Vision Beijing Technology Co Ltd
Priority to CN201811325922.4A priority Critical patent/CN111161719B/zh
Publication of CN111161719A publication Critical patent/CN111161719A/zh
Application granted granted Critical
Publication of CN111161719B publication Critical patent/CN111161719B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

本申请提供了一种通过语音操作的AR眼镜及通过语音操作AR眼镜的方法。所述AR眼镜,包括:第一声音采集模块,用于采集第一声音信息,其中,所述第一声音信息,包括佩戴者的语音信息;第二声音采集模块,用于采集第二声音信息,其中,所述第二声音信息,包括周围环境声音信息;处理器,用于调用保存在存储模块中的第一程序生成第一进程以及调用所述第二程序生成第二进程;其中,所述第二进程,用于根据所述第二声音信息生成并保存第二流媒体文件;所述第一进程,用于获得所述第一声音信息和第二流媒体文件信息生成语音指令信息并根据所述语音指令信息执行相应操作。解决了在复杂环境中AR眼镜语音识别率低的问题。

Description

一种通过语音操作的AR眼镜及通过语音操作AR眼镜的方法
技术领域
本申请涉及增强现实技术领域,具体涉及通过语音操作的AR眼镜,以及通过语音操作AR眼镜的方法。
背景技术
增强现实技术(Augmented Reality,简称AR)是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
AR眼镜可以实现诸多功能,可以看作是一台微型的手机,通过跟踪眼球视线轨迹判断用户目前处于的状态,并且可以开启相应功能,如果需要打电话或者发短信只需要开启语音输入功能即可。
AR眼镜需要实时采集周边环境的声音,并传输到后台并进行记录。同时,也需要准确的识别佩戴人的语音指令信息,以便AR眼镜实现各种功能操作。但是,由于佩戴AR眼镜的使用者常常处于复杂的环境中,周围环境的噪声造成语音识别率大大降低。
发明内容
本申请提供一种通过语音操作的AR眼镜,以及一种通过语音操作AR眼镜的方法;以解决在复杂环境中AR眼镜语音识别率低的问题。
为了解决上述技术问题,本申请实施例提供了如下的技术方案:
本申请提供了一种通过语音操作的AR眼镜,包括:第一声音采集模块、第二声音采集模块、存储模块和处理模块;
所述第一声音采集模块,与所述处理模块信号连接,用于采集第一声音信息并传送给所述处理器,其中,所述第一声音信息,包括佩戴者的语音信息;
所述第二声音采集模块,与所述处理模块信号连接,用于采集第二声音信息并传送给所述处理器,其中,所述第二声音信息,包括周围环境声音信息;
所述存储模块,与所述处理模块信号连接,用于存储第一程序和第二程序;
所述处理器,用于调用所述存储模块的第一程序生成第一进程以及调用所述第二程序生成第二进程;
其中,所述第二进程,用于获取所述第二声音信息,根据所述第二声音信息生成并保存第二流媒体文件;
所述第一进程,用于获得所述第一声音信息和第二流媒体文件信息,根据所述第一声音信息和第二流媒体文件信息生成语音指令信息并根据所述语音指令信息执行相应操作。
优选的,所述第一声音采集模块,设置在所述佩戴者的嘴部附近。
进一步的,所述第一声音采集模块,朝向所述佩戴者的嘴部。
优选的,所述第二声音采集模块,设置在远离所述佩戴者的嘴部的位置。
进一步的,所述第二声音采集模块,朝向与所述佩戴者的嘴部朝向相反的方向。
本申请提供了一种通过语音操作AR眼镜的方法,包括:
获取第一声音信息和第二进程保存的第二流媒体文件信息;
根据所述第一声音信息和第二流媒体文件信息生成语音指令信息;
根据所述语音指令信息执行相应操作;
其中,所述第一声音信息,包括佩戴者的语音信息;所述第二流媒体文件由所述第二进程根据获取的所述第二声音信息生成并保存;所述第二声音信息,包括周围环境声音信息。
优选的,所述获取第二进程保存的第二流媒体文件信息,包括:
获取第二进程保存的带有时间戳的第二流媒体文件信息。
进一步的,所述获取所述第一声音信息,还包括获取与所述佩戴者的语音信息相关联的语音时间信息,其中,所述语音时间信息包括:语音开始时间信息和语音结束时间信息;
所述根据所述第一声音信息和第二流媒体文件信息生成语音指令信息,包括:
根据所述第一声音信息和语音时间信息及带有时间戳的第二流媒体文件信息生成语音指令信息。
进一步的,所述根据所述第一声音信息和语音时间信息及带有时间戳的第二流媒体文件信息生成语音指令信息,包括:
根据所述第一声音信息和语音时间信息获得第一语音信息;
根据所述语音时间信息与所述第二流媒体文件中时间戳的对应关系,从所述第二流媒体文件信息中截取第二流媒体片段信息;
根据所述第二流媒体片段信息和所述第一语音信息生成语音指令信息。
进一步的,所述根据所述第二流媒体片段信息和所述第一语音信息生成语音指令信息,包括:
根据所述第二流媒体片段信息与所述第一语音信息消除所述第一语音信息中的噪音,生成第二语音信息;
对所述第二语音信息进行整形和/或放大及语音识别,生成语音指令信息。
基于上述实施例的公开可以获知,本申请实施例具备如下的有益效果:
本申请提供了一种通过语音操作的AR眼镜及通过语音操作AR眼镜的方法。所述AR眼镜,包括:第一声音采集模块、第二声音采集模块、存储模块和处理模块;所述第一声音采集模块,与所述处理模块信号连接,用于采集第一声音信息并传送给所述处理器,其中,所述第一声音信息,包括佩戴者的语音信息;所述第二声音采集模块,与所述处理模块信号连接,用于采集第二声音信息并传送给所述处理器,其中,所述第二声音信息,包括周围环境声音信息;所述存储模块,与所述处理模块信号连接,用于存储第一程序和第二程序;所述处理器,用于调用所述存储模块的第一程序生成第一进程以及调用所述第二程序生成第二进程;其中,所述第二进程,用于获取所述第二声音信息,根据所述第二声音信息生成并保存第二流媒体文件;所述第一进程,用于获得所述第一声音信息和第二流媒体文件信息,根据所述第一声音信息和第二流媒体文件信息生成语音指令信息并根据所述语音指令信息执行相应操作。解决了在复杂环境中AR眼镜语音识别率低的问题。
附图说明
图1为本申请实施例提供的通过语音操作的AR眼镜的结构示意图;
图2为本申请实施例提供的通过语音操作AR眼镜的方法的流程图。
具体实施方式
下面,结合附图对本申请的具体实施例进行详细的描述,但不作为本申请的限定。
应理解的是,可以对此处公开的实施例做出各种修改。因此,上述说明书不应该视为限制,而仅是作为实施例的范例。本领域的技术人员将想到在本申请的范围和精神内的其他修改。
包含在说明书中并构成说明书的一部分的附图示出了本申请的实施例,并且与上面给出的对本申请的大致描述以及下面给出的对实施例的详细描述一起用于解释本申请的原理。
通过下面参照附图对给定为非限制性实例的实施例的优选形式的描述,本申请的这些和其它特性将会变得显而易见。
还应当理解,尽管已经参照一些具体实例对本申请进行了描述,但本领域技术人员能够确定地实现本申请的很多其它等效形式,它们具有如权利要求所述的特征并因此都位于借此所限定的保护范围内。
当结合附图时,鉴于以下详细说明,本申请的上述和其他方面、特征和优势将变得更为显而易见。
此后参照附图描述本申请的具体实施例;然而,应当理解,所公开的实施例仅仅是本申请的实例,其可采用多种方式实施。熟知和/或重复的功能和结构并未详细描述以避免不必要或多余的细节使得本申请模糊不清。因此,本文所公开的具体的结构性和功能性细节并非意在限定,而是仅仅作为权利要求的基础和代表性基础用于教导本领域技术人员以实质上任意合适的详细结构多样地使用本申请。
本说明书可使用词组“在一种实施例中”、“在另一个实施例中”、“在又一实施例中”或“在其他实施例中”,其均可指代根据本申请的相同或不同实施例中的一个或多个。
增强现实技术(Augmented Reality,简称AR)是一种实时地计算摄影机影像的位置及角度并加上相应图像、视频、3D模型的技术,这种技术的目标是在屏幕上把虚拟世界套在现实世界并进行互动。
AR眼镜可以实现诸多功能,可以看作是一台微型的手机,通过跟踪眼球视线轨迹判断用户目前处于的状态,并且可以开启相应功能,如果需要打电话或者发短信只需要开启语音输入功能即可。
AR眼镜需要实时采集周边环境的声音,并传输到后台并进行记录。同时,也需要准确的识别佩戴人的语音指令信息,以便AR眼镜实现各种功能操作。但是,由于佩戴AR眼镜的使用者常常处于复杂的环境中,周围环境的噪声造成语音识别率大大降低。
本申请提供一种通过语音操作的AR眼镜;本申请还提供一种通过语音操作 AR眼镜的方法。以解决在复杂环境中AR眼镜语音识别率低的问题。在下面的实施例中逐一进行详细说明。
对本申请提供的第一实施例,即一种通过语音操作的AR眼镜的实施例。
下面结合图1对本实施例进行详细说明,其中,图1为本申请实施例提供的通过语音操作的AR眼镜的结构示意图。
请参见图1所示,本实施例提供了一种通过语音操作的AR眼镜,包括:第一声音采集模块、第二声音采集模块、存储模块和处理模块。
所述第一声音采集模块,与所述处理模块信号连接,用于采集第一声音信息并传送给所述处理器,其中,所述第一声音信息,包括佩戴者的语音信息。
优选的,所述第一声音采集模块,设置在所述佩戴者的嘴部附近。
优选的,所述第一声音采集模块,朝向所述佩戴者的嘴部。
例如,所述第一声音采集模块是设置在所述AR眼镜上的第一微型麦克风;所述第一微型麦克风设置在佩戴AR眼镜的人的嘴部附近;最好的,所述第一微型麦克风的开口方向朝向佩戴AR眼镜的人的嘴部。这样,可以提高采集语音信息的效果。
虽然,所述第一声音信息中包括周围环境声音信息和佩戴者的语音信息,但是,所述佩戴者的语音信息在所述第一声音信息为主要信息,而所述周围环境声音信息在所述第一声音信息为次要信息,也就是背景声音信息;在所述第一声音信息的波形上,所述佩戴者的语音信息的振幅也要远远大于所述周围环境声音信息的振幅数倍。也就是所述第一声音信息中,所述佩戴者的语音信息的音量远远高于所述周围环境声音信息的音量。
所述第二声音采集模块,与所述处理模块信号连接,用于采集第二声音信息并传送给所述处理器,其中,所述第二声音信息,包括周围环境声音信息。
优选的,所述第二声音采集模块,设置在远离所述佩戴者的嘴部的位置。
优选的,所述第二声音采集模块,朝向与所述佩戴者的嘴部朝向相反的方向。
例如,所述第二声音采集模块是设置在所述AR眼镜上的第二微型麦克风;所述第二微型麦克风设置在远离所述佩戴AR眼镜的人的嘴部;最好的,所述第二微型麦克风的开口方向朝向佩戴AR眼镜的人的嘴部朝向相反的方向。目的是使所述第二微型麦克风尽量少的采集到佩戴者的语音信息,同时,尽可能多的采集周围环境声音信息。
虽然,所述第二声音信息中包括周围环境声音信息和佩戴者的语音信息,但是,所述周围环境声音信息在所述第二声音信息为主要信息,而所述佩戴者的语音信息在所述第二声音信息为次要信息,也就是背景声音信息;在所述第二声音信息的波形上,所述周围环境声音信息的振幅也要远远大于所述佩戴者的语音信息的振幅数倍。也就是所述第二声音信息中,所述周围环境声音信息的音量远远高于所述佩戴者的语音信息的音量。
所述存储模块,与所述处理模块信号连接,用于存储第一程序和第二程序。
由于同一个进程在同时处理两个不同声源的声音时,会造成处理困难,常因处理能力的问题而使采集的声音效果不佳。因此,本实施例设计了两个不同的程序,分别处理不同声源的声音。
所述处理器,用于调用所述存储模块的第一程序生成第一进程以及调用所述第二程序生成第二进程。
其中,所述第二进程,用于获取所述第二声音信息,根据所述第二声音信息生成并保存第二流媒体文件。
所述流媒体文件,是指依照预设格式而生成的文件,用于保存音频信息或视频信息。当播放时,按照所述预设格式将所述流媒体文件读出,并播放或显示。例如,WAV、mp3格式音频文件,MPEG、AVI格式视频文件。
所述第一进程,用于获得所述第一声音信息和第二流媒体文件信息,根据所述第一声音信息和第二流媒体文件信息生成语音指令信息并根据所述语音指令信息执行相应操作。
所述第一进程的方法在下面的第二实施例将详细描述,在此不再赘述。
本实施例解决了在复杂环境中AR眼镜语音识别率低的问题。
与本申请提供的第一实施例相对应,本申请还提供了第二实施例,即一种通过语音操作AR眼镜的方法。由于第二实施例与所述第一实施例相关联,所以一些方面描述得比较简单,相关的部分请参见第一实施例的对应说明即可。
图2示出了本申请提供的一种通过语音操作AR眼镜的方法的实施例。图2 为本申请实施例提供的通过语音操作AR眼镜的方法的流程图。
请参见图2所示,本申请提供一种通过语音操作AR眼镜的方法,包括:
步骤101,获取第一声音信息和第二进程保存的第二流媒体文件信息。
本实施例中的AR眼镜的存储模块中存储这第一程序和第二程序;所述处理器,用于调用所述存储模块的第一程序生成第一进程以及调用所述第二程序生成第二进程。
本实施例是从第一进程的角度出发,提供了一种通过语音操作AR眼镜的方法。
其中,所述第一声音信息,包括佩戴者的语音信息。虽然,所述第一声音信息中包括周围环境声音信息和佩戴者的语音信息,但是,所述佩戴者的语音信息在所述第一声音信息为主要信息,而所述周围环境声音信息在所述第一声音信息为次要信息,也就是背景声音信息;在所述第一声音信息的波形上,所述佩戴者的语音信息的振幅也要远远大于所述周围环境声音信息的振幅数倍。也就是所述第一声音信息中,所述佩戴者的语音信息的音量远远高于所述周围环境声音信息的音量。只有将所述第一声音信息中的所述周围环境声音信息消除掉才能获得清晰的所述佩戴者的语音信息。
本实施例利用一时间段内第二声音信息作为参照对象,消除该时间段内所述第一声音信息中的噪音,也就是消除所述第一声音信息中的周围环境声音信息,以提高所述第一声音信息中语音信息的质量。
优选的,所述获取所述第一声音信息,还包括获取与所述佩戴者的语音信息相关联的语音时间信息,其中,所述语音时间信息包括:语音开始时间信息和语音结束时间信息。例如,当所述第一声音信息的值首次大于预设语音值时,则获得语音开始时间信息;当所述第一声音信息的值最后一次大于语音值超过预设时间,则获得语音结束时间信息。
所述第二流媒体文件,由所述第二进程根据获取的所述第二声音信息生成并保存;所述第二声音信息,包括环境声音信息。
虽然,所述第二声音信息中包括周围环境声音信息和佩戴者的语音信息,但是,所述周围环境声音信息在所述第二声音信息为主要信息,而所述佩戴者的语音信息在所述第二声音信息为次要信息,也就是背景声音信息;在所述第二声音信息的波形上,所述周围环境声音信息的振幅也要远远大于所述佩戴者的语音信息的振幅数倍。也就是所述第二声音信息中,所述周围环境声音信息的音量远远高于所述佩戴者的语音信息的音量。
为了从所述第二声音信息中获得所述语音开始时间信息和语音结束时间信息间的第三声音信息,优选的,所述获取第二进程保存的第二流媒体文件信息,包括:获取第二进程保存的带有时间戳的第二流媒体文件信息。以便通过所述第二流媒体文件中的时间戳与所述语音时间信息的对应关系,从所述所述第二流媒体文件中提取出第二流媒体片段信息。
步骤102,根据所述第一声音信息和第二流媒体文件信息生成语音指令信息。
优选的,根据所述第一声音信息和语音时间信息及带有时间戳的第二流媒体文件信息生成语音指令信息,包括以下步骤:
步骤102-1,根据所述第一声音信息和语音时间信息获得第一语音信息。
步骤102-2,根据所述语音时间信息与所述第二流媒体文件中时间戳的对应关系,从所述第二流媒体文件信息中截取第二流媒体片段信息。
步骤102-3,根据所述第二流媒体片段信息和所述第一语音信息生成语音指令信息。进一步的,包括以下步骤:
步骤102-3-1,根据所述第二流媒体片段信息与所述第一语音信息消除所述第一语音信息中的噪音,生成第二语音信息。
例如,继续上述的例子,按照预设振幅压缩规则对所述第二流媒体片段信息进行波形压缩,将波形压缩后的第二流媒体片段信息与所述第一语音信息进行对比,将同一时间内所述第一语音信息中与波形压缩后的第二流媒体片段信息相同或相近的数据删除后,获得所述第二语音信息。
步骤102-3-2,对所述第二语音信息进行整形和/或放大及语音识别,生成语音指令信息。
所述音频整形,就是将音频信息变得悦耳、动听。目的是使所述第二语音信息更易于识别。
所述音频放大,就是将音频信息按照预设比例增大,也就是振幅增大,声音变高。目的是使所述第二语音信息更易于识别。
所述对所述第二语音信息进行整形和/或放大及语音识别,生成语音指令信息,也就是对加工后的所述第二语音信息通过预设语音识别算法生成语音指令信息。
步骤103,根据所述语音指令信息执行相应操作。
通常操作动作与所述语音指令信息具有一一对应的关系。当获得正确的语音指令信息后,本进程按照所述语音指令信息执行相应的操作。
本实施例解决了在复杂环境中AR眼镜语音识别率低的问题。
以上实施例仅为本申请的示例性实施例,不用于限制本申请,本申请的保护范围由权利要求书限定。本领域技术人员可以在本申请的实质和保护范围内,对本申请做出各种修改或等同替换,这种修改或等同替换也应视为落在本申请的保护范围内。

Claims (7)

1.一种通过语音操作的AR眼镜,其特征在于,包括:第一声音采集模块、第二声音采集模块、存储模块和处理模块;
所述第一声音采集模块,与所述处理模块信号连接,用于采集第一声音信息并传送给处理器,其中,所述第一声音信息,包括佩戴者的语音信息;
所述第二声音采集模块,与所述处理模块信号连接,用于采集第二声音信息并传送给所述处理器,其中,所述第二声音信息,包括周围环境声音信息;
所述存储模块,与所述处理模块信号连接,用于存储第一程序和第二程序;
所述处理器,用于调用所述存储模块的第一程序生成第一进程以及调用所述第二程序生成第二进程;
其中,所述第二进程,用于获取所述第二声音信息,根据所述第二声音信息生成并保存第二流媒体文件;
所述第一进程,用于获得所述第一声音信息和第二流媒体文件信息,所述获取所述第一声音信息,包括获取与所述佩戴者的语音信息相关联的语音时间信息,其中,所述语音时间信息包括:语音开始时间信息和语音结束时间信息;所述获取第二进程保存的第二流媒体文件信息,包括:获取第二进程保存的带有时间戳的第二流媒体文件信息;根据所述第一声音信息和第二流媒体文件信息生成语音指令信息,具体包括:根据所述第一声音信息和语音时间信息及带有时间戳的第二流媒体文件信息生成语音指令信息;所述根据所述第一声音信息和语音时间信息及带有时间戳的第二流媒体文件信息生成语音指令信息,包括:根据所述第一声音信息和语音时间信息获得第一语音信息;根据所述语音时间信息与所述第二流媒体文件中时间戳的对应关系,从所述第二流媒体文件信息中截取第二流媒体片段信息;根据所述第二流媒体片段信息和所述第一语音信息生成语音指令信息;并根据所述语音指令信息执行相应操作。
2.根据权利要求1所述的AR眼镜,其特征在于,所述第一声音采集模块,设置在所述佩戴者的嘴部附近。
3.根据权利要求2所述的AR眼镜,其特征在于,所述第一声音采集模块,朝向所述佩戴者的嘴部。
4.根据权利要求1所述的AR眼镜,其特征在于,所述第二声音采集模块,设置在远离所述佩戴者的嘴部的位置。
5.根据权利要求4所述的AR眼镜,其特征在于,所述第二声音采集模块,朝向与所述佩戴者的嘴部朝向相反的方向。
6.一种通过语音操作AR眼镜的方法,其特征在于,包括:
获取第一声音信息和第二进程保存的第二流媒体文件信息;所述获取所述第一声音信息,包括获取与佩戴者的语音信息相关联的语音时间信息,其中,所述语音时间信息包括:语音开始时间信息和语音结束时间信息;所述获取第二进程保存的第二流媒体文件信息,包括:获取第二进程保存的带有时间戳的第二流媒体文件信息;
根据所述第一声音信息和第二流媒体文件信息生成语音指令信息,具体包括:根据所述第一声音信息和语音时间信息及带有时间戳的第二流媒体文件信息生成语音指令信息;所述根据所述第一声音信息和语音时间信息及带有时间戳的第二流媒体文件信息生成语音指令信息,包括:根据所述第一声音信息和语音时间信息获得第一语音信息;根据所述语音时间信息与所述第二流媒体文件中时间戳的对应关系,从所述第二流媒体文件信息中截取第二流媒体片段信息;根据所述第二流媒体片段信息和所述第一语音信息生成语音指令信息;
根据所述语音指令信息执行相应操作;
其中,所述第一声音信息,包括佩戴者的语音信息;所述第二流媒体文件由所述第二进程根据获取的第二声音信息生成并保存;所述第二声音信息,包括周围环境声音信息。
7.根据权利要求6所述的方法,其特征在于,所述根据所述第二流媒体片段信息和所述第一语音信息生成语音指令信息,包括:
根据所述第二流媒体片段信息与所述第一语音信息消除所述第一语音信息中的噪音,生成第二语音信息;
对所述第二语音信息进行整形和/或放大及语音识别,生成语音指令信息。
CN201811325922.4A 2018-11-08 2018-11-08 一种通过语音操作的ar眼镜及通过语音操作ar眼镜的方法 Active CN111161719B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811325922.4A CN111161719B (zh) 2018-11-08 2018-11-08 一种通过语音操作的ar眼镜及通过语音操作ar眼镜的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811325922.4A CN111161719B (zh) 2018-11-08 2018-11-08 一种通过语音操作的ar眼镜及通过语音操作ar眼镜的方法

Publications (2)

Publication Number Publication Date
CN111161719A CN111161719A (zh) 2020-05-15
CN111161719B true CN111161719B (zh) 2023-01-20

Family

ID=70554907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811325922.4A Active CN111161719B (zh) 2018-11-08 2018-11-08 一种通过语音操作的ar眼镜及通过语音操作ar眼镜的方法

Country Status (1)

Country Link
CN (1) CN111161719B (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102915732A (zh) * 2012-10-31 2013-02-06 黑龙江省电力有限公司信息通信分公司 抑制背景广播的语音指令识别方法与装置
KR102223278B1 (ko) * 2014-05-22 2021-03-05 엘지전자 주식회사 글래스 타입 단말기 및 이의 제어방법
JP2016208348A (ja) * 2015-04-24 2016-12-08 セイコーエプソン株式会社 表示装置、表示装置の制御方法、及び、プログラム
CN106486130B (zh) * 2015-08-25 2020-03-31 百度在线网络技术(北京)有限公司 噪声消除、语音识别方法及装置
CN106548781A (zh) * 2015-09-21 2017-03-29 上海日趋信息技术有限公司 一种用于语音识别系统消除背景噪音的方法
CN108198552B (zh) * 2018-01-18 2021-02-02 深圳市大疆创新科技有限公司 一种语音控制方法及视频眼镜

Also Published As

Publication number Publication date
CN111161719A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
CN109446876B (zh) 手语信息处理方法、装置、电子设备和可读存储介质
WO2019216419A1 (ja) プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法
US11527242B2 (en) Lip-language identification method and apparatus, and augmented reality (AR) device and storage medium which identifies an object based on an azimuth angle associated with the AR field of view
CN106416292A (zh) 用于获取声信号的方法、电路、设备、系统和相关计算机可执行代码
EP4099709A1 (en) Data processing method and apparatus, device, and readable storage medium
CN108594777A (zh) 智能家居控制方法、装置、设备、系统及存储介质
WO2021143574A1 (zh) 增强现实眼镜、基于增强现实眼镜的ktv实现方法与介质
JP2019220848A (ja) データ処理装置、データ処理方法及びプログラム
US20230047858A1 (en) Method, apparatus, electronic device, computer-readable storage medium, and computer program product for video communication
TW201228332A (en) Mobile electronic device
CN112783330A (zh) 电子设备的操作方法、装置和电子设备
CN111815666A (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
CN111445901A (zh) 音频数据获取方法、装置、电子设备及存储介质
CN111641829A (zh) 视频处理方法及装置、系统、存储介质和电子设备
CN111741394A (zh) 一种数据处理方法、装置及可读介质
CN114697812A (zh) 声音采集方法、电子设备及系统
CN111161719B (zh) 一种通过语音操作的ar眼镜及通过语音操作ar眼镜的方法
CN112751582A (zh) 用于交互的可穿戴装置、交互方法及设备、存储介质
CN112069863B (zh) 一种面部特征的有效性判定方法及电子设备
CN110837557A (zh) 摘要生成方法、装置、设备及介质
CN114416237A (zh) 显示状态切换方法、装置及系统、电子设备、存储介质
CN112764549B (zh) 翻译方法、装置、介质和近眼显示设备
CN111524518B (zh) 增强现实处理方法及装置、存储介质和电子设备
JPWO2018135057A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN113345440A (zh) 一种信号处理方法、装置和设备以及一种增强现实ar系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant