CN113157099A - 智能眼镜 - Google Patents

智能眼镜 Download PDF

Info

Publication number
CN113157099A
CN113157099A CN202110577082.6A CN202110577082A CN113157099A CN 113157099 A CN113157099 A CN 113157099A CN 202110577082 A CN202110577082 A CN 202110577082A CN 113157099 A CN113157099 A CN 113157099A
Authority
CN
China
Prior art keywords
glasses
microphone
interaction
smart
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110577082.6A
Other languages
English (en)
Inventor
苗顺平
马斌斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Ileja Tech Co ltd
Original Assignee
Beijing Ileja Tech Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Ileja Tech Co ltd filed Critical Beijing Ileja Tech Co ltd
Priority to CN202110577082.6A priority Critical patent/CN113157099A/zh
Publication of CN113157099A publication Critical patent/CN113157099A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开实施例公开了一种智能眼镜,包括设置在智能眼镜上的至少一个麦克风,所述至少一个麦克风采集交互声音信号;设置在智能眼镜内部的处理电路,所述处理电路与所述至少一个麦克风电连接以接收所述至少一个麦克风采集的所述交互声音信号;设置在智能眼镜内部的工作电路,所述工作电路与所述处理电路电连接,其中,所述处理电路对所述交互声音信号进行处理后,生成交互控制信号,所述工作电路在接收到所述交互控制信号后,在所述交互控制信号的控制下进行工作。实现了用户与智能眼镜的交互不需要依赖于手,与智能眼镜的交互更加高效,进而克服了交互效率低的技术问题。

Description

智能眼镜
技术领域
本公开涉及智能眼镜交互控制技术领域,具体涉及到一种智能眼镜。
背景技术
与智能眼镜场景交互,通常通过触屏、键盘/鼠标、遥控器、手势控制来实现。
但是,对于智能眼镜的场景,特别是日常佩戴,上述方案需要用户用手操作特定的设备,或者触摸特定的部件(例如智能眼镜腿上的触摸屏等),因此,交互上存在着种种限制,交互效率低。
发明内容
本公开的主要目的在于提供一种智能眼镜。
为了实现上述目的,根据本公开的第一方面,提供了一种智能眼镜包括:设置在智能眼镜上的至少一个麦克风,所述至少一个麦克风采集交互声音信号;设置在智能眼镜内部的处理电路,所述处理电路与所述至少一个麦克风电连接以接收所述至少一个麦克风采集的所述交互声音信号;设置在智能眼镜内部的工作电路,所述工作电路与所述处理电路电连接,其中,所述处理电路对所述交互声音信号进行处理后,生成交互控制信号,所述工作电路在接收到所述交互控制信号后,在所述交互控制信号的控制下进行工作。
可选地,当麦克风为一个时,所述麦克风设置在智能眼镜的眼镜腿位置处,且所述麦克风的朝向为向下。
可选地,当麦克风为两个时,其中一个麦克风设置在智能眼镜腿下方,且朝向向下以接收所述交互声音信号;另一个麦克风设置在眼镜腿上,且朝向向外侧以接收环境噪音信号;当麦克风为多个时,多个麦克风设置在同一侧智能眼镜腿上、或设置在不同侧眼镜腿上;其中,每一个麦克风的朝向均根据智能眼镜的布局、以及麦克风功能的需要可调。
可选地,当麦克风为至少两个时,所述麦克风集成为麦克风阵列后设置在智能眼镜的眼镜腿、或眼镜框位置处。
可选地,还包括集成在智能眼镜上的无线网络连接电路,所述智能眼镜通过无线网络与云端服务器连接,以接收所述云端服务器的返回信息,并使所述麦克风以声音的方式输出所述返回信息;和/或,所述所述智能眼镜通过无线网络与其他设备端连接,所述其他设备与所述云端服务器连接,以在所述智能眼镜、以及云端服务器之间进行数据的发送与接收。
可选地,交互声音信号包括语音唤醒声音信号、和/或语音交互声音信号,所述处理电路对所述语音唤醒信号进行处理后,生成唤醒控制信号,以将智能眼镜内部的目标工作电路唤醒;在所述目标工作电路被唤醒后,所述处理电路接收并处理所述语音交互声音信号,生成所述交互控制信号,所述目标工作电路在所述交互控制信号的控制下进行工作。
可选地,在所述目标工作电路被唤醒后,所述处理电路接收并处理所述语音交互声音信号,生成所述交互控制信号,所述目标工作电路在所述交互控制信号的控制下退出交互控制状态。
可选地,所述工作电路包括:智能镜片显示模组,在所述交互控制信号的控制下对智能视频信号进行显示、和/或,对智能眼镜工作状态进行显示。
可选地,所述工作电路还包括:传感器电路,用于感知所述智能眼镜的工作状态、和/或智能眼镜所处环境。
可选地,所述智能眼镜还包括交互控制模组,与所述工作电路连接,所述交互控制模组接收交互信号,并基于所述交互信号生成控制信号,所述工作电路在所述控制信号下进行工作,其中,所述交互控制模板包括按键模组、触屏模组、震动感应模组、和/或遥控器模组。
在本公开实施例中智能眼镜包括:设置在智能眼镜上的至少一个麦克风,所述至少一个麦克风采集交互声音信号;设置在智能眼镜内部的处理电路,所述处理电路与所述至少一个麦克风电连接以接收所述至少一个麦克风采集的所述交互声音信号;设置在智能眼镜内部的工作电路,所述工作电路与所述处理电路电连接,其中,所述处理电路对所述交互声音信号进行处理后,生成交互控制信号,所述工作电路在接收到所述交互控制信号后,在所述交互控制信号的控制下进行工作。通过在AR眼镜上设置声音收集的麦克风,并可基于公开的技术处理电路对采集的声音信号进行处理,得到交互控制信号,基于交互控制信号实现对智能眼镜工作电路的控制,从而实现了用户与智能眼镜的交互不需要依赖于手,与智能眼镜的交互更加高效,进而克服了交互效率低的技术问题。
附图说明
为了更清楚地说明本公开具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本公开实施例智能眼镜结构图;
图2是根据本公开实施例智能眼镜的一个应用结构图;
图3是根据本公开实施例智能眼镜另一个应用结构图;
图4是根据本公开实施例智能眼镜一个应用场景图;
图5是根据本公开实施例智能眼镜另一个应用场景图。
具体实施方式
为了使本技术领域的人员更好地理解本公开方案,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分的实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本公开保护的范围。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
参考图1,根据本公开实施例,提供了一种智能眼镜,包括设置在智能眼镜上的至少一个麦克风101,所述至少一个麦克风采集交互声音信号;设置在智能眼镜内部的处理电路102,所述处理电路与所述至少一个麦克风电连接以接收所述至少一个麦克风采集的所述交互声音信号;设置在智能眼镜内部的工作电路103,所述工作电路与所述处理电路电连接,其中,所述处理电路对所述交互声音信号进行处理后,生成交互控制信号,所述工作电路在接收到所述交互控制信号后,在所述交互控制信号的控制下进行工作。
在本实施例中,智能眼镜可以是AR眼镜,通过将麦克风101设置在AR眼镜上,能够采集声音信号,处理电路102在接收到可用于交互的声音信号后,可以利用已经公开的技术对声音信号进行处理,以生成交互控制信号,交互控制信号可对AR眼镜的工作电路进行控制,例如,开启或关闭工作电路103,在开启工作电路103后,处理电路可以继续基于交互声音信号,生成控制信号,继续对工作电路进行控制。工作电路103可以包括可实现独立功能的电路,例如,AR眼镜的显示模组、电源电路、传感器电路等;还可以包括支持实现配置功能的硬件电路,例如,支持软件功能的硬件电路,包括但是不限于,支持天气查询功能的硬件电路、支持地图查询功能的硬件电路等等。
具体地,对声音信号进行处理的技术可以包括,语音识别技术、自然语言理解技术、beemforming技术。
通过波束形成(Beamforming)技术实现人声的算法增强。波束成形利用多组麦克风之间的相位差,来减少标的方向以外的声音的技术,能减少环境噪音,还能提升标的声的清晰度。具体来说,就是运用波束形成技术形成指向性,借由让指向轴转向标的声的方式来降低环境中的干扰噪音;不但如此,还透过噪音抑制(Noice suppression)功能,来降低残留在指向轴方向的固定噪音。本实施例不同于单纯阻绝噪音的方法,可让标的声更加明确。
通过在AR眼镜上设置声音收集的麦克风,并可基于公开的技术处理电路对采集的声音信号进行处理,得到交互控制信号,基于交互控制信号实现对智能眼镜工作电路的控制,从而实现了用户与智能眼镜的交互不需要依赖于手,与智能眼镜的交互更加高效。
相比于其他交互手段,需要一层层的交互才能实现交互的目的,而本实施则只需要采集语音信号即可实现最终的交互,因此提高了交互效率。例如,语音可以表达更加详细的意图,例如:“明天北京的天气怎么样?”,这个命令中明确了时间(“明天”)、地点(“北京”)、领域(“天气”)三重意思;而传统的触摸或按键操作,需要先选择天气,然后选择地名,然后在查看明天的天气;
语音可以跨应用(领域)操作,例如,在查询天气的界面,可以直接进行导航操作,“我要去首都机场T3航站楼,不走高速”,此命令包含了目的地(“首都机场T3航站楼”)和路线偏好(“不走高速”),直接进行了跨应用的沟通;对于传统的触摸或按键操作,需要先从天气应用进入到应用列表页,再选择导航应用,然后输入目的地,并选择路线偏好,之后才能导航,操作繁琐。
作为本实施例一种可选的实现方式,当麦克风101为一个时,所述麦克风设置在智能眼镜的眼镜腿位置处,且所述麦克风的朝向为向下.
参考图2,在本可选的实现方式中,AR眼镜只有一个麦克风,可以布置在左侧或右侧眼镜腿位置,方向朝下,用于接收用户的交互声音信号。
作为本实施例一种可选的实现方式,当麦克风101为两个时,其中一个麦克风设置在智能眼镜腿下方,且朝向向下以接收所述交互声音信号;另一个麦克风设置在眼镜腿上,且朝向向外侧以接收环境噪音信号;当麦克风为多个时,多个麦克风设置在同一侧智能眼镜腿上、或设置在不同侧眼镜腿上;每一个麦克风的朝向均根据智能眼镜的布局、以及麦克风功能的需要可调。
参考图3,AR眼镜有两个或多个麦克风,其中一个麦克风1010位于眼镜腿下方,朝向下方,用于获取用户的语音指令,另外的麦克风1011朝向外侧(两颗麦克风可以在同一侧的眼镜腿上,也可以在不同侧的眼睛腿上或眼镜框上),用于接收外界环境噪音,通过Beamforming等技术实现降噪。
在设置麦克风时,麦克风的朝向被设置为可调状态,调节麦克风的朝向,以基于不同的朝向实现不同功能。
作为本实施例一种可选地实现方式,当麦克风101为至少两个时,所述麦克风101集成为麦克风阵列后设置在智能眼镜的眼镜腿、或眼镜框位置处。
在本可选的实现方式中,可以集成2个或多个麦克风,可以组成麦克风阵列,实现降噪和声源定位。
在上述可选的实现方式中,AR眼镜集成一个或多个麦克风,若只有一个麦克风,那么麦克风可以布局在眼镜腿位置,并朝向下方,重点采集用户的交互声音信号;若集成2个或多个麦克风,可以组成麦克风阵列,实现降噪和声源定位功能;若集成两个或多个麦克风,其中一个麦克风位于眼镜腿下方,朝向下方,用于获取用户的语音指令,另外的麦克风朝向外侧,用于接收外界环境噪音。
具体地,麦克风可以透过物理结构实现人声和环境声的定向采集,提高定向音频的敏锐度,具体做法是通过调整麦克风的不同指向,配合外部的收音结构(包括不限于特殊设计的圆筒状或圆锥状结构(例如定制的硅胶套)、密封机构等),获取到不同方向上的声音。
作为本实施例一种可选的实现方式,还包括集成在智能眼镜上的无线网络连接电路,所述智能眼镜通过无线网络与云端服务器连接,以接收所述云端服务器的返回信息,并使所述麦克风以声音的方式输出所述返回信息;和/或,所述智能眼镜通过无线网络与其他设备端连接,所述其他设备端与所述云端服务器连接,以在所述智能眼镜、以及云端服务器之间进行数据的发送与接收。
智能眼镜集成在智能眼镜上的无线网络连接电路(图中未示出),包括但是不限于Wi-Fi、蓝牙、移动网络等的一种或多种。参考图4,在本可选的实现方式中,智能眼镜集成无线网络连接电路(图中未示出),智能眼镜(AR眼镜)通过无线网络与云端服务器连接,以接收云端服务器的返回信息,AR眼镜接收到云端服务器的返回信息后,展示在AR眼镜片上,并且可以通过声音输出云端服务器的返回信息。其他设备端包括但是不限于手机、平板、电脑等设备。
参考图5,智能眼镜(AR眼镜)通过无线网络与其他设备端连接,其他设备端与云端服务器连接,以在智能眼镜、以及云端服务器之间进行数据的发送与接收。
上述可选的实现方式,AR眼镜集成无线网络连接模块,可以将数据发送给云端服务器,并能够接收服务器返回的信息;AR眼镜可以与其他设备(例如手机)相连,由该设备与云端服务器连接,实现数据的发送与接收。
作为本实施例一种可选的实现方式,交互声音信号包括语音唤醒声音信号、和/或语音交互声音信号,所述处理电路对所述语音唤醒信号进行处理后,生成唤醒控制信号,以将智能眼镜内部的目标工作电路唤醒;在所述目标工作电路被唤醒后,所述处理电路接收并处理所述语音交互声音信号,生成所述交互控制信号,所述目标工作电路在所述交互控制信号的控制下进行工作。
在本可选的实现方式中,处理电路可以对交互声音信号利用已公开的技术进行处理,生成唤醒控制信号以唤醒目标工作电路(例如,传感器电路);智能眼镜在唤醒控制信号的唤醒下,继续进行语音交互,处理电路利用公开的技术(包括但是不限于,语音识别技术)生成交互控制信号,在交互控制信号的控制下,目标工作电路按照控制信号进行工作。
作为本实施例一种可选的实现方式,在所述目标工作电路被唤醒后,所述处理电路接收并处理所述语音交互声音信号,生成所述交互控制信号,所述目标工作电路在所述交互控制信号的控制下退出交互控制状态。
在本可选的实现方式中,语音交互声音信号可以包括固定的语音指令声音信号,例如“退出”、“结束”、“返回”等,处理电路对此信号进行处理,生成控制信号,控制工作电路退出工作状态。
具体地,智能眼镜也可以包括监测电路,监测电路与处理电路连接,如果监测在一段时间内,未接收到麦克风的声音信号,则向处理电路发送通知电信号,以使处理电路在接收到该通知电信号后,生成控制信号,控制工作电路退出工作状态。
作为本实施例一种可选的实现方式,工作电路包括:智能镜片显示模组,在所述交互控制信号的控制下对智能视频信号进行显示、和/或,对智能眼镜工作状态进行显示。
在本可选的实现方式中,显示模组可以包括1片或两片AR显示的镜片模组,也包括但是不限于指示灯、除AR显示模组外的显示屏幕等。显示模块实现AR视频信号的显示,也实现AR眼镜工作状态的显示,例如电池电量、当前工作模式等。
作为本实施例一种可选的实现方式,所述工作电路还包括传感器电路,用于感知所述智能眼镜的工作状态和智能眼镜所处环境。
在本可选的实现方式中,传感器包括但是不限于RGB摄像头、TOF摄像头、激光雷达、陀螺仪、重力加速度计、地磁传感器、距离传感器等的一种或多种。
传感器可以包括:环境光传感器可以获取环境光亮度,以调整AR显示模组的亮度;距离传感器,用于感知AR眼镜是否被佩戴了,从而控制眼镜的工作状态(例如工作、休眠等);或者霍尔传感器,可以感知眼镜是否折叠等状态,若折叠,则关闭显示,若打开,则自动点亮AR显示模组。
可以理解的是,根据需要,本实施例中的交互控制信号可以实现为控制传感器的开合。
可以理解的是,基于交互声音信号生成的交互控制信号,也可以是用于与麦克风产生交互的控制信号,例如控制麦克风的开启与关断。
作为本实施例一种可选的实现方式,智能眼镜还包括交互控制模组,与所述工作电路连接,所述交互控制模组接收交互信号,并基于所述交互信号生成控制信号,所述工作电路在所述控制信号下进行工作,其中,所述交互控制模板包括按键模组、触屏模组、震动感应模组、和/或遥控器模组。
在本可选的实现方式中,按键、触屏、震动感应、遥控器等,实现AR眼镜工作状态的控制,例如开关、修改设置等操作。
智能眼镜还可以包括电池和电源管理模块,实现AR眼镜的电源供应及充放电管理。
从以上的描述中,可以看出,本公开实现了如下技术效果:针对远距离操控的场景,相比于需要用户的手操控键盘、鼠标、遥控器等,用户需要先找到操作的硬件设备,再进行操作,交互更加高效。针对触控的场景,相较于操作的位置是固定的,用户的手必须在某个范围内才能操作,无法摆脱对手的依赖,交互更加快速便捷。针对视觉的手势识别技术,相较于需要保证用户手的可见性才能操作,交互控制更加精确。
虽然结合附图描述了本公开的实施方式,但是本领域技术人员可以在不脱离本公开的精神和范围的情况下作出各种修改和变型,这样的修改和变型均落入由所附权利要求所限定的范围之内。

Claims (10)

1.一种智能眼镜,其特征在于,包括:设置在智能眼镜上的至少一个麦克风,所述至少一个麦克风采集交互声音信号;
设置在智能眼镜内部的处理电路,所述处理电路与所述至少一个麦克风电连接以接收所述至少一个麦克风采集的所述交互声音信号;
设置在智能眼镜内部的工作电路,所述工作电路与所述处理电路电连接,其中,所述处理电路对所述交互声音信号进行处理后,生成交互控制信号,所述工作电路在接收到所述交互控制信号后,在所述交互控制信号的控制下进行工作。
2.根据权利要求1所述的智能眼镜,其特征在于,当麦克风为一个时,所述麦克风设置在智能眼镜的眼镜腿位置处,且所述麦克风的朝向为向下。
3.根据权利要求1所述的智能眼镜,其特征在于,当麦克风为两个时,其中一个麦克风设置在智能眼镜腿下方,且朝向向下以接收所述交互声音信号;另一个麦克风设置在眼镜腿上,且朝向向外侧以接收环境噪音信号;
当麦克风为多个时,多个麦克风设置在同一侧智能眼镜腿上、或设置在不同侧眼镜腿上;
其中,每一个麦克风的朝向均根据智能眼镜的布局、以及麦克风功能的需要可调。
4.根据权利要求1所述的智能眼镜,其特征在于,当麦克风为至少两个时,所述麦克风集成为麦克风阵列后设置在智能眼镜的眼镜腿、或眼镜框位置处。
5.根据权利要求1所述的智能眼镜,其特征在于,还包括集成在智能眼镜上的无线网络连接电路,所述智能眼镜通过无线网络与云端服务器连接,以接收所述云端服务器的返回信息,并使所述麦克风以声音的方式输出所述返回信息;
和/或,所述所述智能眼镜通过无线网络与其他设备端连接,所述其他设备端与所述云端服务器连接,以在所述智能眼镜、以及云端服务器之间进行数据的发送与接收。
6.根据权利要求1所述的智能眼镜,其特征在于,所述交互声音信号包括语音唤醒声音信号、和/或语音交互声音信号,所述处理电路对所述语音唤醒信号进行处理后,生成唤醒控制信号,以将智能眼镜内部的目标工作电路唤醒;
在所述目标工作电路被唤醒后,所述处理电路接收并处理所述语音交互声音信号,生成所述交互控制信号,所述目标工作电路在所述交互控制信号的控制下进行工作。
7.根据权利1或6所述的智能眼镜,其特征在于,在所述目标工作电路被唤醒后,所述处理电路接收并处理所述语音交互声音信号,生成所述交互控制信号,所述目标工作电路在所述交互控制信号的控制下退出交互控制状态。
8.根据权利要求1所述的智能眼镜,其特征在于,所述工作电路包括:智能镜片显示模组,在所述交互控制信号的控制下对智能视频信号进行显示、和/或,对智能眼镜工作状态进行显示。
9.根据权利要求1所述的智能眼镜,其特征在于,所述工作电路还包括传感器电路,用于感知所述智能眼镜的工作状态、和/或智能眼镜所处环境。
10.根据权利要求1所述的智能眼镜,其特征在于,所述智能眼镜还包括交互控制模组,与所述工作电路连接,所述交互控制模组接收交互信号,并基于所述交互信号生成控制信号,所述工作电路在所述控制信号下进行工作,其中,所述交互控制模板包括按键模组、触屏模组、震动感应模组、和/或遥控器模组。
CN202110577082.6A 2021-05-26 2021-05-26 智能眼镜 Pending CN113157099A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110577082.6A CN113157099A (zh) 2021-05-26 2021-05-26 智能眼镜

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110577082.6A CN113157099A (zh) 2021-05-26 2021-05-26 智能眼镜

Publications (1)

Publication Number Publication Date
CN113157099A true CN113157099A (zh) 2021-07-23

Family

ID=76877525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110577082.6A Pending CN113157099A (zh) 2021-05-26 2021-05-26 智能眼镜

Country Status (1)

Country Link
CN (1) CN113157099A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763940A (zh) * 2021-08-11 2021-12-07 北京乐驾科技有限公司 一种用于ar眼镜的语音信息处理方法及系统
CN113900578A (zh) * 2021-09-08 2022-01-07 北京乐驾科技有限公司 用于ar眼镜的交互的方法、ar眼镜

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763940A (zh) * 2021-08-11 2021-12-07 北京乐驾科技有限公司 一种用于ar眼镜的语音信息处理方法及系统
CN113900578A (zh) * 2021-09-08 2022-01-07 北京乐驾科技有限公司 用于ar眼镜的交互的方法、ar眼镜

Similar Documents

Publication Publication Date Title
CN110503959B (zh) 语音识别数据分发方法、装置、计算机设备及存储介质
CN109819041B (zh) 控制与设备连接的外部装置的系统和方法
CN113157099A (zh) 智能眼镜
US20220214894A1 (en) Command execution method, apparatus, and device
CN106325290A (zh) 一种基于无人机的监控系统及设备
CN105058393A (zh) 一种迎宾机器人
CN109888867B (zh) 一种充电方法及移动终端
CN111983559A (zh) 室内定位导航方法及装置
CN111739517B (zh) 语音识别方法、装置、计算机设备及介质
CN110956963A (zh) 一种基于可穿戴设备实现的交互方法及可穿戴设备
CN113138560B (zh) 终端控制方法、装置、设备及可读存储介质
JP2022551007A (ja) IoTデバイス、デバイス、および記憶媒体のアラームルールを設定するための方法および装置
EP4287068A1 (en) Model training method, scene recognition method, and related device
WO2022037398A1 (zh) 一种音频控制方法、设备及系统
CN106707512B (zh) 一种低功耗智能ar系统及智能ar眼镜
CN112134995A (zh) 一种查找应用对象的方法、终端及计算机可读存储介质
KR20190141109A (ko) 디바이스에 연결된 외부 기기를 제어하는 시스템 및 방법
CN115620728B (zh) 音频处理方法、装置、存储介质及智能眼镜
KR20200045851A (ko) 음성 인식 서비스를 제공하는 전자 장치 및 시스템
KR20210116897A (ko) 외부 장치의 음성 기반 제어를 위한 방법 및 그 전자 장치
CN113763940A (zh) 一种用于ar眼镜的语音信息处理方法及系统
CN215526608U (zh) 智能眼镜
WO2022124829A1 (ko) 사용자 음성에 기초한 인터랙션을 제공하는 전자 장치 및 그 방법
CN115132226A (zh) 语音交互方法、设备及存储介质
CN210864516U (zh) 人工智能设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination