CN113342158B - 眼镜设备以及数据处理方法、装置、电子设备 - Google Patents
眼镜设备以及数据处理方法、装置、电子设备 Download PDFInfo
- Publication number
- CN113342158B CN113342158B CN202010139340.8A CN202010139340A CN113342158B CN 113342158 B CN113342158 B CN 113342158B CN 202010139340 A CN202010139340 A CN 202010139340A CN 113342158 B CN113342158 B CN 113342158B
- Authority
- CN
- China
- Prior art keywords
- equipment
- glasses
- power supply
- component
- assembly
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000011521 glass Substances 0.000 title claims abstract description 109
- 238000003672 processing method Methods 0.000 title claims abstract description 31
- 238000004891 communication Methods 0.000 claims abstract description 59
- 230000003993 interaction Effects 0.000 claims abstract description 24
- 238000012545 processing Methods 0.000 claims abstract description 23
- 230000004044 response Effects 0.000 claims description 69
- 238000000034 method Methods 0.000 claims description 32
- 210000000988 bone and bone Anatomy 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000001755 vocal effect Effects 0.000 claims 3
- 230000005540 biological transmission Effects 0.000 abstract description 2
- 230000005611 electricity Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 6
- 210000005069 ears Anatomy 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 208000001491 myopia Diseases 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000005304 optical glass Substances 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/162—Interface to dedicated audio devices, e.g. audio drivers, interface to CODECs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
本发明实施例提供一种眼镜设备以及数据处理方法、装置、电子设备,该眼镜设备包括:镜架主体和显示组件,镜架主体与显示组件通过可拆卸的方式电连接。镜架主体上设置有控制器以及与控制器电连接的语音交互组件、通信组件。其中,语音交互组件用于拾取用户发出的语音信号,将语音信号传输至控制器。控制器用于通过通信组件从数据源设备中获取与语音信号对应的图像数据,将图像数据传输至显示组件进行显示。眼镜设备的镜架主体与显示组件以可拆卸的方式进行电连接,在保证眼镜设备的传输数据功能的情况下,避免了眼镜设备由于设备笨重导致的不宜长时间佩戴的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种眼镜设备以及数据处理方法、装置、电子设备。
背景技术
随着人工智能技术的不断发展,各种各样的智能终端层出不穷,为人们的工作、生活、娱乐带来了新体验。比如,虚拟现实(Virtual Reality,简称VR)设备、增强现实(Augmented Reality,简称AR)设备已经被广泛使用。
目前的VR设备、AR设备大多为头戴式的一体机设备,设备比较笨重,用户长时间佩戴会产生不适感,而且,设备功能单一,智能化程度低。
发明内容
第一方面,本发明实施例提供一种眼镜设备,包括:
镜架主体和显示组件,所述镜架主体与所述显示组件通过可拆卸的方式电连接;
所述镜架主体上设置有控制器以及与所述控制器电连接的语音交互组件、通信组件;
所述语音交互组件,用于拾取用户发出的语音信号,将所述语音信号传输至所述控制器;
所述控制器,用于通过所述通信组件从数据源设备中获取与所述语音信号对应的图像数据,将所述图像数据传输至所述显示组件进行显示。
在本发明实施例中,镜架主体和显示组件通过可拆卸的方式电连接,当用户(本文中的用户,是指佩戴者)需要使用显示组件的时候,将显示组件电连接到镜架主体上,不需要使用显示组件的时候,将显示组件卸下来即可,适合用户长期佩戴。用户可以通过语音交互的方式使用眼镜设备,以便利用户对眼镜设备的使用。具体地,当显示组件与镜架主体保持电连接时,用户可以触发指示获取图像数据的语音信号,基于语音信号,眼镜设备将获得的图像数据以通过显示组件进行。而且,诸如控制器、通信组件、语音交互组件等器件设置在镜架主体上,由此可见,镜架主体相当于也是一种智能设备,当显示组件与镜架主体分离时,用户也可以通过语音交互的方式使用眼镜设备,比如收听歌曲等,从而丰富了眼镜设备的使用模式,提高了其智能化程度。
第二方面,本发明实施例提供一种数据处理方法,应用于眼镜设备,所述方法包括:
将拾取到的用户发出的语音信号传输至第一设备,以使所述第一设备对所述语音信号进行语音识别,所述第一设备已建立与所述眼镜设备的通信连接;
接收所述第一设备根据语音识别结果反馈的响应数据;
输出所述响应数据。
第三方面,本发明实施例提供一种数据处理装置,应用于眼镜设备,所述装置包括:
发送模块,用于将拾取到的用户发出的语音信号传输至第一设备,以使所述第一设备对所述语音信号进行语音识别,所述第一设备已建立与所述眼镜设备的通信连接;
接收模块,用于接收所述第一设备根据语音识别结果反馈的响应数据;
输出模块,用于输出所述响应数据。
第四方面,本发明实施例提供一种眼镜设备,包括:
通信组件、麦克风组件、输出组件;
所述麦克风组件,用于拾取到用户发出的语音信号;
所述通信组件,用于建立与第一设备间的通信连接,将所述语音信号发送至所述第一设备,以使所述第一设备对所述语音信号进行语音识别,以及接收所述第一设备根据语音识别结果反馈的响应数据;
所述输出组件,用于输出所述响应数据。
第五方面,本发明实施例提供一种数据处理方法,应用于与眼镜设备通信连接的第一设备,所述方法包括:
接收所述眼镜设备拾取到的语音信号;
对所述语音信号进行语音识别;
根据语音识别结果响应所述语音信号。
第六方面,本发明实施例提供一种数据处理装置,应用于与眼镜设备通信连接的第一设备,所述装置包括:
接收模块,用于接收所述眼镜设备拾取到的语音信号;
识别模块,用于对所述语音信号进行语音识别;
响应模块,用于根据语音识别结果响应所述语音信号。
第七方面,本发明实施例提供一种电子设备,所述电子设备与眼镜设备通信连接,所述电子设备包括:存储器、处理器、通信接口;其中,所述存储器上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如第五方面所述的数据处理方法。
在上述第二方面至第七方面所述的方案中,眼镜设备可以与第一设备通信连接,基于该通信连接,眼镜设备在拾取到用户发出的语音信号后,可以将该语音信号发送至第一设备中进行语音识别处理,第一设备基于语音识别结果获取响应数据,并将响应数据发送给眼镜设备,眼镜设备输出该响应数据。在该方案中,眼镜设备相当于一种输入输出设备,将核心的处理过程移动到通信连接的外置设备中进行处理,可以降低眼镜设备的计算量,从而节省功耗。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一示例性实施例提供的一种眼镜设备示意图;
图2为一示例性实施例提供的另一种眼镜设备示意图;
图3为一示例性实施例提供的一种眼镜设备的应用场景示意图;
图4为一示例性实施例提供的另一种眼镜设备示意图;
图5为一示例性实施例提供的另一种眼镜设备示意图;
图6为一示例性实施例提供的数据处理方法的流程图;
图7为一示例性实施例提供的数据处理方法的执行过程示意图;
图8为一示例性实施例提供的数据处理方法的执行过程示意图;
图9为一示例性实施例提供的数据处理方法的执行过程示意图;
图10为一示例性实施例提供的数据处理方法的执行过程示意图;
图11为一示例性实施例提供的数据处理方法的执行过程示意图;
图12为一示例性实施例提供的数据处理装置的结构示意图;
图13为与图12所示实施例中提供的数据处理装置对应的眼镜设备的结构示意图;
图14为一示例性实施例提供的数据处理装置的结构示意图;
图15为与图14所示实施例中提供的数据处理装置对应的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“”也旨在包括多数形式。除非上下文清楚地表示其他含义,“多种”一般包含至少两种。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
图1为一示例性实施例提供的一种眼镜设备示意图,如图1所示,眼镜设备包括:镜架主体101和显示组件102,镜架主体101和显示组件102通过可拆卸的方式电连接。
其中,显示组件102是指能够实现成像显示功能的组件。
其中,可选地,如图1所示,可拆卸的电连接方式可以实现为:在显示组件102一侧设有第一USB插头103,另一侧设有第二USB插头104。在镜架主体一侧设有第一USB插口105,在另一侧设有第二USB插口106。通过第一USB插头103与第一USB插口105连接以及第二USB插头104与第二USB插口106连接,从而实现镜架主体101和显示组件102的可拆卸电连接。
可选地,上述电连接的实现方式不局限于一种,还可以实现为其他类型的可插拔的数据接口。
在本发明实施例中,支持用户以语音交互的方式来使用眼镜设备。基于此,可以在镜架主体上设置控制器107以及与控制器107电连接的语音交互组件108、通信组件109。
其中,概括来说,语音交互组件108可以实现语音的拾取与播放;通信组件109可以实现眼镜设备的联网功能。
实际应用中,通信组件109所支持的通信方式可以是诸如4G、5G等蜂窝移动通信方式,也可以是诸如Wi-Fi、蓝牙等通信方式,不具体限定。
由于实际应用中,当用户将显示组件102与镜架主体101电连接到一起时,其使用眼镜设备的目的往往是通过显示组件102观看诸如视频、图片等图像数据,因此,先以用户触发语音信号观看某图像数据为例来介绍眼镜设备的使用过程。此时,概括来说,语音交互组件108可以用于拾取用户发出的语音信号,将语音信号传输至控制器107。控制器107可以用于通过通信组件109从数据源设备中获取与语音信号对应的图像数据,将图像数据传输至显示组件进行显示。其中,数据源设备是指存储有用户想要获得的上述图像数据的设备,可以是用户的手机、电脑,也可以是云端的服务器。
可选地,当控制器107接收到用户触发的语音信号时,可以对语音信号进行语音识别处理,进而,根据语音识别结果生成反映用户意图的指令,最终,从数据源设备中获取与指令对应的图像数据。
其中,语音识别处理的过程可以实现为:将语音信号转换为文本内容,即实现语音向文本的转换。在得到语音信号对应的文本内容后,从中提取出反映用户意图的关键字,进而根据关键字提取结果,生成上述指令。
举例来说,假设语音信号对应的文本内容为:“我想看某某视频”,从中提取出的关键字为:某某视频,生成的指令可以是:播放某某视频。
语音信号识别的过程可以参考现有相关技术实现,本文中不展开描述。
当然,可选地,控制器107在接收到上述语音信号后,也可以通过通信组件109将语音信号上传到云端服务器,由云端服务器获取与语音信号对应的图像数据并反馈至控制器107。
实际应用中,上述图像数据可以是一幅幅独立的图片、一段2D的视频、一段3D的视频,等等。
控制器107在获得上述图像数据后,将图像数据发送至显示组件109进行显示。
为完成图像数据的显示,可选地,如图2所示,镜架主体上可以设置有镜片,镜片包括:镜片A和镜片B,显示组件109中包括显示屏和成像组件110。其中,成像组件110用于将图像数据显示于显示屏上,并将显示于显示屏上的图像数据投影到镜架主体101上的镜片A和镜片B上。其中,镜片的种类包括:墨镜镜片、光学远视镜片和光学近视镜片中任一种,用户可以根据自身的需求,任意更换镜片的种类。
在上述显示方案中,成像组件110的功能即完成图像数据的显示,显示屏的尺寸可以远低于镜片的尺寸。当显示组件与镜架主体分离时,镜架主体还可以作为人们日常生成中佩戴的各种光学眼镜之用,提高了眼镜设备的复用性。
实际应用中,可以根据实际需求,将显示屏的尺寸设计的较小。但是如果让用户直接通过显示屏来观看图像数据,感受不佳,因此,成像组件112将显示在显示屏上的较小尺寸的画面放大投影到镜片上,可以让用户看到与镜片尺寸相当的画面。
如图2所示,上述显示屏可以包括与左右眼分别对应的显示屏A和显示屏B。
可以理解的是,若当前需要显示的图像数据为2D数据,则投影到两个镜片上的图像内容是相同的,此时,用户看到的就是一段2D的影视视频;若当前需要显示的图像数据为3D数据,则投影到两个镜片的图像内容是不同的,如投影到左眼镜片的是奇数帧图像,投影到右眼镜片的是偶数帧图像,这样就可以造成不同的视差,给用户一种立体影像的感觉,即用户看到的是一段3D的影视视频。
下面结合图3所示的示例来理解通过语音交互方式使用智能眼镜观看图像数据。
如图3所示,眼镜设备接收到用户发出的语音信号为“播放电影《泰坦尼克号》”,语音交互组件108拾取语音信号,控制器107通过对语音信号进行处理以提取到关键字“电影”、“泰坦尼克号”,并生成请求获取电影的指令,以从数据源设备中获取相应的图像数据,并传输至显示组件进行显示。此时,假设数据源设备能够获得与指令匹配的多个视频,则可以反馈视频列表供用户进一步选择,从而,如图3中所示,此时显示组件显示的是一组视频列表,视频列表包括:《泰坦尼克号1》、《泰坦尼克号2》两种选项。进而,用户再次发出指示选择哪个选项的语音信号,比如,用户后续说“播放第一个视频”,控制器107基于对语音信号的识别确定用户意图为:播放第一个视频,从而,从数据源设备获取对应的视频,通过显示组件102显示视频。
综上,由于眼镜设备的镜架主体101与显示组件102以可拆卸的方式进行电连接,当用户不需要使用显示组件102观看图像数据时,将显示组件102卸下即可,并且,用户可以通过语音交互的方式来使用眼镜设备,使用方便。而且,将诸如控制器107、语音交互组件108、通信组件109等功能模块设计在镜架主体上,使得即时将显示组件102卸下,眼镜设备仍旧可以提供语音交互功能。
概括来说,用户使用眼镜设备的语音交互功能可以获得两种类型的数据:图像数据和音频数据。图像数据即为前述实施例中所述的需要通过显示组件进行呈现的图片、视频等数据。音频数据可以是歌曲、人机对话场景中的应答语音等等。
为了支持上述语音交互功能,如图4所示,可选地,语音交互组件108中可以包括麦克风组件和扬声器组件。其中,麦克风组件中可以包括一个或多个麦克风,扬声器组件中可以包括一个或多个扬声器。
在图4中,麦克风组件可以包括图中示意的麦克风A和麦克风B。扬声器组件可以包括图中示意的扬声器A和扬声器B。
本实施例中并不会对麦克风组件和扬声器组件的设置位置进行严格限定,但是,由于麦克风组件是用于拾取用户(指佩戴者)的语音信号的,因此,麦克风组件适宜设置在镜架主体上靠近嘴巴的位置处,如图4中示意的,麦克风组件可以设置于镜架主体的鼻翼部位。由于扬声器组件是用于向用户(指佩戴者)播放音频数据的,因此,扬声器组件适宜设置在镜架主体上靠近耳朵的位置处,如图4中示意的,扬声器组件可以设置于镜架主体的镜腿部位,具体是镜腿上靠近耳朵的部位。
在实际应用中,当用户说出语音信号时,通过麦克风组件拾取到语音信号,进而将语音信号发送至控制器107。控制器107获取与语音信号对应的图像数据或音频数据,进而输出给用户。前述实施例中已经对获取图像数据的过程进行了介绍,获取音频数据的原理与之类似,都是通过对用户的语音信号进行语音识别、用户意图识别等处理,以生成反映用户意图的指令,向数据源设备(可以认为是服务器)请求得到与指令对应的音频数据。在得到音频数据后,通过扬声器组件播放。
本实施例中,扬声器组件中设置多个扬声器的目的是形成立体音,通过控制多个扬声器播放不同声道的音频,由于双耳效应,用户的耳朵听到不同声道的音频,这些音频组合起来,生成立体音。另外,通过合理地设置多个扬声器的相对位置,保证扬声器组件产生的波束方向与佩戴者的耳朵保持在同一方向,即利用定向传声的技术将音频数据定向传输到佩戴者的耳朵,并且不会影响用户之外的其他人。
由于在实际应用中,眼镜设备的佩戴者在使用眼镜设备的时候,周围可能还会有其他人,为避免其他人的语音的干扰,可选地,控制器107还用于:若确定发出语音信号的用户为眼镜设备的佩戴者,则通过通信组件109从数据源设备中获取与语音信号对应的图像数据和/或音频数据。简单来说就是,如果确定说出语音信号的人即为佩戴者,则对语音信号进行响应,否则,丢弃语音信号。
其中,可选地,对佩戴者身份的识别可以通过如下方式实现:在镜架主体上设置与控制器107电连接的骨声纹传感器,用于采集佩戴者的骨声纹信息,并将采集的骨声纹信息传输至控制器107。从而,控制器107可以根据骨声纹信息确定发出语音信号的用户是否为佩戴者。实际应用中,眼镜设备中可以预先采集并存储佩戴者的骨声纹信息,以用于进行佩戴者身份的识别。
当然,可选地,控制器107还可以通过其他方式来确定发出语音信号的用户是否为佩戴者,比如通过声纹特征等识别。
综上,基于上述各实施例提供的眼镜设备,不管显示组件102是否与镜架主体101连接,眼镜设备都可以为用户提供语音交互服务,提高了眼镜设备的智能化程度和使用模式。
另外,眼镜设备在使用过程中,势必需要为其提供电力支持。可选地,眼镜设备的镜架主体上可以设置有充电口,从而可以通过外部供电电源为其供电。可选地,本发明实施例还提供了如图5所示的电力支持方案。
图5为一示例性实施例提供的另一种眼镜设备示意图,如图5所示,镜架主体上包括与控制器107电连接的电源组件。
电源组件在镜架主体101上的设置位置和个数可以根据眼镜设备的总重量、质量平衡等方面综合考虑而定。
其中,可选地,电源组件包括设置于镜架主体101上的第一电源组件111和设置于显示组件102中的第二电源组件112。第一电源组件111和第二电源组件112都可以是可充电的电池。
在图5中,镜架主体101上设置有两个第一电源组件111,分别部署在两侧的镜腿上。
在上述可选方案中,控制器107还用于:若检测到显示组件102电连接于镜架主体,则控制第一电源组件111和第二电源组件112输出第一功率;若检测到显示组件102未电连接于镜架主体,则控制第一电源组件111输出第二功率。
概括来说就是,当显示组件102被连接上时,由于需要进行图像数据的显示以及音频数据的播放,耗电量较大,因此,由第一电源组件111和第二电源组件112共同为眼镜设备供电。当显示组件102未被连接上时,由于仅需要进行音频数据的播放,耗电量相对较小,因此,由第一电源组件111为眼镜设备供电。
除了以上实施例中示意的眼镜设备外,本发明实施例中还提供一种数据处理方法。
图6为一示例性实施例提供的数据处理方法的流程图,如图6所示,该数据处理方法包括如下步骤:
601、眼镜设备将拾取到的用户发出的语音信号传输至第一设备,其中,第一设备已建立与眼镜设备的通信连接。
602、第一设备对语音信号进行语音识别。
603、第一设备根据语音识别结果响应语音信号。
第一设备可以是音箱设备等电子设备,眼镜设备与该第一设备可以通过WiFi、蓝牙等方式建立通信连接。
本实施例中,为简化眼镜设备的计算量,降低眼镜设备的功耗,眼镜设备在通过其上设置的麦克风组件拾取到用户发出的语音信号后,可以将该语音信号发送至第一设备,由第一设备对该语音信号进行处理。
实际应用中,用户发出的上述语音信号可以划分为两种:一种是表明用户真实意图的语音(比如播放某歌曲),另一种是第一设备的唤醒语音。
基于此,当第一设备接收到语音信号后,如果第一设备当前处于未唤醒状态,则可以识别该语音信号中是否包含与自己对应的唤醒词,若包含,则认为该语音信号为唤醒语音,因此,第一设备将自己的工作状态切换至唤醒状态。
其中,可以理解的是,第一设备可以将语音信号转换为文本内容,确定该本内容中是否包含设定的唤醒词,若包含,则认为该语音信号为唤醒语音。
若用户发出的语音信号不是唤醒语音,则第一设备对该语音信号进行语音识别、自然语言理解处理,以确定其用户意图,进而,对该语音信号进行相应的响应。此时,第一设备对语音信号的响应,概括来说是指:获取与语音信号对应的响应数据,根据该响应数据的组成,将响应数据发送至合适的设备进行输出,其中,该合适的设备包括眼镜设备,还可以包括与眼镜设备通信连接的第二设备,其中,第二设备是指不同于第一设备的某个设备。
实际上,根据用户意图的不同,响应数据的组成可能包括图像数据和/或音频数据。
下面结合以下几种应用场景,对图6所示数据处理方法的一些可选的实现方式进行示例性说明。其中,假设眼镜设备、第一设备、第二设备都已经彼此建立通信连接,比如都接入同一局域网内。
图7为一示例性实施例提供的数据处理方法的执行过程示意图,如图7中所示,该数据处理方法可以包括如下步骤:
701、眼镜设备将拾取到的用户发出的语音信号传输至第一设备。
702、第一设备对语音信号进行语音识别。
703、第一设备根据语音识别结果获取与语音信号对应的响应数据,响应数据中包括图像数据。
704、第一设备将图像数据发送至眼镜设备。
705、眼镜设备显示图像数据。
举例来说,该眼镜设备支持AR/VR功能,当用户想要观看某视频影像时,可以说出包含有该视频影像的名称的语音信号。眼镜设备拾取到该语音信号后,将语音信号发送到第一设备。根据应用场景的不同,该第一设备比如可以是:手机、音箱、等等。
第一设备通过对语音信号进行语音识别,确定出用户是要观看对应于上述名称的视频影像时,获取该视频影像,并将视频影像发送至眼镜设备。由于眼镜设备上具有显示组件,所以眼镜设备可以将视频影像这种图像数据通过显示组件进行显示。
再比如,第一设备为某种机器人,眼镜设备向机器人发送的语音信号可以是一种控制指令,控制机器人去往目标区域拍摄视频。基于此,机器人根据接收到的语音信号去往目标区域进行视频拍摄,并将拍得的视频回传给眼镜设备进行显示。
当然,在一些实际应用场景下,用户想要观看的可能是一组图片,相应地,第一设备会将这组图片反馈给眼镜设备进行播放。
综上,本实施例中所述的图像数据可以是图片、视频,第一设备如果根据用户发出的语音信号获取到与该语音信号对应的图像数据时,将该图像数据反馈给眼镜设备进行显示。
图8为一示例性实施例提供的数据处理方法的执行过程示意图,如图8中所示,该数据处理方法可以包括如下步骤:
801、眼镜设备将拾取到的用户发出的语音信号传输至第一设备。
802、第一设备对语音信号进行语音识别。
803、第一设备根据语音识别结果获取与语音信号对应的响应数据,响应数据中包括音频数据。
804、第一设备将音频数据发送至眼镜设备。
805、眼镜设备播放该音频数据。
本实施例中,假设第一设备为音箱设备,用户想要收听歌曲时,可以说出包含该歌曲相关信息(如歌曲名、歌手名)的语音信号。第一设备对该语音信号进行语音识别处理确定用户意图后,获得相应的歌曲。此时,可选地,第一设备可以将该歌曲对应的音频数据发送至眼镜设备。眼镜设备上设有扬声器等音频播放相关的元器件,从而,眼镜设备可以直接播放该音频数据。
图9为一示例性实施例提供的数据处理方法的执行过程示意图,如图9中所示,该数据处理方法可以包括如下步骤:
901、眼镜设备将拾取到的用户发出的语音信号传输至第一设备。
902、第一设备对语音信号进行语音识别。
903、第一设备根据语音识别结果获取与语音信号对应的响应数据,响应数据中包括音频数据。
904、第一设备将音频数据发送至眼镜设备。
905、眼镜设备将该音频数据发送至第二设备。
906、第二设备播放音频数据。
与图8所示实施例不同的是,本实施例中假设眼镜设备还与可以进行音频数据播放的第二设备建立了通信连接,从而,眼镜设备可以将音频数据发送至该第二设备进行播放,以降低对眼镜设备的功耗。
实际应用中,该第二设备比如为耳机,再比如为手机、智能手环、智能手表等设备。
为便于理解,以一个实际场景为例来说,第一设备为音箱设备、第二设备为耳机。用户佩戴眼镜设备与耳机,某时刻,该用户说出想要听某首歌曲的语音信号,该语音信号通过眼镜设备传输给音箱设备后,音箱设备获取对应的歌曲,将歌曲反馈给眼镜设备。眼镜设备将歌曲发送至耳机进行播放。
图10为一示例性实施例提供的数据处理方法的执行过程示意图,如图10中所示,该数据处理方法可以包括如下步骤:
1001、眼镜设备将拾取到的用户发出的语音信号传输至第一设备。
1002、第一设备对语音信号进行语音识别。
1003、第一设备根据语音识别结果获取与语音信号对应的响应数据,响应数据中包括音频数据。
1004、第一设备播放音频数据。
与前述图8和图9所示实施例不同的是,本实施例中,第一设备在获取到与语音信号对应的音频数据后,也可以直接播放该音频数据。由于第一设备与眼镜设备能够建立短距离的通信连接,说明第一设备与佩戴眼镜设备的用户相距比较仅,因此,通过第一设备直接播放该音频数据亦可满足用户的需求。
图11为一示例性实施例提供的数据处理方法的执行过程示意图,如图11中所示,该数据处理方法可以包括如下步骤:
1101、眼镜设备将拾取到的用户发出的语音信号传输至第一设备。
1102、第一设备对语音信号进行语音识别。
1103、第一设备根据语音识别结果获取与语音信号对应的响应数据,响应数据中包括音频数据。
1104、第一设备将音频数据发送至第二设备。
1105、第二设备播放音频数据。
与前述图10所示实施例不同的是,本实施例中,第一设备在获取到与语音信号对应的音频数据后,也可以直接将该音频数据发送至与第一设备连接的第二设备,由第二设备进行播放。其中,第二设备也可以与眼镜设备建立近距离的通信连接,如第二设备为由用户佩戴的某种设备(如耳机、智能手表,等等)。由于第二设备与佩戴眼镜设备的用户相距比较仅,因此,通过第二设备播放该音频数据亦可满足用户的需求。
另外,可选地,在图10和图11所示实施例中,第一设备自身音频数据播放,或者第一设备控制第二设备进行音频数据播放的情况下,第一设备还可以向眼镜设备反馈用于提示该音频数据的播放设备的提示语音,比如告知眼镜设备即将由第一设备或第二设备来播放音频数据。当然,该提示语音的作用还可以是用于询问用户是否可以由第一设备或第二设备播放该音频数据,若接收到用户反馈的“确认”语音,即表明用户同意由第一设备或第二设备播放,则由第一设备或第二设备播放音频数据。
综上图6至图11所示实施例可知,眼镜设备可以与其他设备联动,以满足用户在不同场景的使用需求,提高了眼镜设备与其他设备的智能化程度。
值得说明的是,图6至图11所示实施例中的眼镜设备可以具有与前述其他实施例中所示的眼镜设备相同或相似的结构特征,在此,不对眼镜设备的结构特征进行赘述。
图12为一示例性实施例提供的数据处理装置的结构示意图,该数据处理装置可以应用于眼镜设备中。如图12所示,该数据处理装置包括:发送模块11、接收模块12、输出模块13。
发送模块11,用于将拾取到的用户发出的语音信号传输至第一设备,以使所述第一设备对所述语音信号进行语音识别,所述第一设备已建立与所述眼镜设备的通信连接。
接收模块12,用于接收所述第一设备根据语音识别结果反馈的响应数据。
输出模块13,用于输出所述响应数据。
可选地,所述响应数据包括图像数据,输出模块13具体可以用于:显示所述图像数据。
可选地,所述响应数据包括音频数据,输出模块13具体可以用于:播放所述音频数据;或者,通过发送模块11将所述音频数据发送至第二设备进行播放,所述第二设备已建立与所述眼镜设备和所述第一设备的通信连接。
可选地,所述第一设备根据所述语音识别结果获得的数据包括音频数据;所述音频数据由所述第一设备播放,或者,由所述第一设备发送至第二设备播放,所述第二设备已建立与所述眼镜设备和所述第一设备的通信连接。此时,所述响应数据包括:用于提示所述音频数据的播放设备的提示语音。
可选地,所述第一设备包括音箱设备。
可选地,所述第二设备包括耳机。
图12所示装置可以执行前述图6至图11所示实施例中眼镜设备所执行的各步骤,详细的执行过程和技术效果参见前述实施例中的描述,在此不再赘述。
在一个可能的设计中,上述图12所示设备配置装置的结构可实现为眼镜设备,如图13所示,该眼镜设备可以包括:通信组件21、麦克风组件22、输出组件23。
其中,麦克风组件22,用于拾取到用户发出的语音信号。通信组件21,用于建立与第一设备间的通信连接,将所述语音信号发送至所述第一设备,以使所述第一设备对所述语音信号进行语音识别,以及接收所述第一设备根据语音识别结果反馈的响应数据。所述输出组件23,用于输出所述响应数据。
如图13中所示,输出组件23中可以包括显示组件231和扬声器232。
从而,所述响应数据包括图像数据时,显示组件231,用于显示所述图像数据。
值得说明的是,该眼镜设备中还可以包括前述其他实施例中所述的诸如电源组件、骨声纹传感器、控制器,等等其他元器件,相关元器件在眼镜设备上的设置情况可以参考前述其他实施例中的说明,在此不赘述。
该眼镜设备的使用过程可以参考前述实施例中的说明。
图14为一示例性实施例提供的数据处理装置的结构示意图,该数据处理装置可以应用于与眼镜设备通信连接的第一设备中。如图14所示,该数据处理装置包括:接收模块31、识别模块32、响应模块33。
接收模块31,用于接收所述眼镜设备拾取到的语音信号。
识别模块32,用于对所述语音信号进行语音识别。
响应模块33,用于根据语音识别结果响应所述语音信号。
可选地,响应模块33具体可以用于:若识别出所述语音信号中包含设定的唤醒词,则唤醒所述第一设备。
可选地,响应模块33具体可以用于:根据语音识别结果获取与所述语音信号对应的响应数据;若所述响应数据中包括图像数据,则将所述图像数据发送至所述眼镜设备进行显示。
可选地,响应模块33具体可以用于:根据语音识别结果获取与所述语音信号对应的响应数据;若所述响应数据中包括音频数据,则播放所述音频数据,或者,将所述音频数据发送至所述眼镜设备,或者,将所述音频数据发送至第二设备进行播放,所述第二设备已建立与所述眼镜设备和所述第一设备的通信连接。
可选地,所述第一设备包括音箱设备。
可选地,所述第二设备包括耳机。
图14所示装置可以执行前述图6至图11所示实施例中第一设备所执行的各步骤,详细的执行过程和技术效果参见前述实施例中的描述,在此不再赘述。
在一个可能的设计中,上述图14所示设备配置装置的结构可实现为某种电子设备,如图15所示,该电子设备可以包括:处理器41、存储器42、通信接口43。其中,存储器42上存储有可执行代码,当所述可执行代码被处理器41执行时,使处理器41至少可以实现如前述图6至图11所示实施例中提供的数据处理方法中第一设备执行的各个步骤。
可选地,该电子设备中还可以包括:电源组件、扬声器等其他元器件。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (29)
1.一种眼镜设备,其特征在于,包括:
镜架主体和显示组件,所述镜架主体与所述显示组件通过可拆卸的方式电连接;
所述镜架主体上设置有控制器以及与所述控制器电连接的语音交互组件、通信组件、与所述控制器电连接的电源组件,所述电源组件包括设置于所述镜架主体上的第一电源组件和设置于所述显示组件中的第二电源组件,所述第一电源组件在所述镜架主体上的设置位置和数量是基于所述眼镜设备的总重量以及质量平衡因素设计的;
所述语音交互组件,用于拾取用户发出的语音信号,将所述语音信号传输至所述控制器;
所述控制器,用于若检测到所述显示组件电连接于所述镜架主体,则控制所述第一电源组件和所述第二电源组件输出第一功率;若检测到所述显示组件未电连接于所述镜架主体,则控制所述第一电源组件输出第二功率;通过所述通信组件从数据源设备中获取与所述语音信号对应的图像数据,将所述图像数据传输至所述显示组件进行显示。
2.根据权利要求1所述的眼镜设备,其特征在于,所述控制器,用于对所述语音信号进行语音识别处理,根据语音识别结果生成反映用户意图的指令,获取与所述指令对应的所述图像数据。
3.根据权利要求1所述的眼镜设备,其特征在于,所述镜架主体上设置有镜片;所述显示组件中包括显示屏和成像组件;
所述成像组件,用于将所述图像数据显示于所述显示屏上,并将显示于所述显示屏上的图像数据投影到所述镜片上。
4.根据权利要求1所述的眼镜设备,其特征在于,所述控制器还用于:若确定所述用户为所述眼镜设备的佩戴者,则通过所述通信组件从数据源设备中获取与所述语音信号对应的图像数据。
5.根据权利要求4所述的眼镜设备,其特征在于,所述镜架主体上还包括:与所述控制器电连接的骨声纹传感器,用于采集所述佩戴者的骨声纹信息,并将所述骨声纹信息传输至所述控制器;
所述控制器用于:根据所述骨声纹信息确定所述用户是否为所述佩戴者。
6.根据权利要求1所述的眼镜设备,其特征在于,所述语音交互组件中包括麦克风组件和扬声器组件;
所述麦克风组件,用于拾取所述语音信号;
所述控制器,还用于获取与所述语音信号对应的音频数据,并控制所述扬声器组件播放所述音频数据。
7.根据权利要求6所述的眼镜设备,其特征在于,所述麦克风组件设置于所述镜架主体的鼻翼部位。
8.根据权利要求6所述的眼镜设备,其特征在于,所述扬声器组件包括第一扬声器和第二扬声器,所述第一扬声器设置于所述镜架主体的第一镜腿上,所述第二扬声器设置于所述镜架主体的第二镜腿上。
9.一种数据处理方法,其特征在于,应用于眼镜设备,所述眼镜设备包括镜架主体和显示组件,所述镜架主体上设置有电源组件,所述电源组件包括设置于所述镜架主体上的第一电源组件和设置于所述显示组件中的第二电源组件,所述第一电源组件在所述镜架主体上的设置位置和数量是基于所述眼镜设备的总重量以及质量平衡因素设计的;
所述方法包括:
将拾取到的用户发出的语音信号传输至第一设备,以使所述第一设备对所述语音信号进行语音识别,所述第一设备已建立与所述眼镜设备的通信连接;
接收所述第一设备根据语音识别结果反馈的响应数据;
输出所述响应数据;
若检测到所述显示组件电连接于所述镜架主体,则控制所述第一电源组件和所述第二电源组件输出第一功率;若检测到所述显示组件未电连接于所述镜架主体,则控制所述第一电源组件输出第二功率。
10.根据权利要求9所述的方法,其特征在于,所述响应数据包括图像数据;
所述输出所述响应数据,包括:
显示所述图像数据。
11.根据权利要求9所述的方法,其特征在于,所述响应数据包括音频数据;
所述输出所述响应数据,包括:
播放所述音频数据;或者,
将所述音频数据发送至第二设备进行播放,所述第二设备已建立与所述眼镜设备和所述第一设备的通信连接。
12.根据权利要求9所述的方法,其特征在于,所述第一设备根据所述语音识别结果获得的数据包括音频数据;
所述音频数据由所述第一设备播放,或者,由所述第一设备发送至第二设备播放,所述第二设备已建立与所述眼镜设备和所述第一设备的通信连接;
所述响应数据包括:用于提示所述音频数据的播放设备的提示语音。
13.根据权利要求9所述的方法,其特征在于,所述第一设备包括音箱设备。
14.根据权利要求11或12所述的方法,其特征在于,所述第二设备包括耳机。
15.一种数据处理装置,其特征在于,应用于眼镜设备,所述眼镜设备包括镜架主体和显示组件,所述镜架主体上设置有电源组件,所述电源组件包括设置于所述镜架主体上的第一电源组件和设置于所述显示组件中的第二电源组件,所述第一电源组件在所述镜架主体上的设置位置和数量是基于所述眼镜设备的总重量以及质量平衡因素设计的;
所述装置包括:
发送模块,用于将拾取到的用户发出的语音信号传输至第一设备,以使所述第一设备对所述语音信号进行语音识别,所述第一设备已建立与所述眼镜设备的通信连接;
接收模块,用于接收所述第一设备根据语音识别结果反馈的响应数据;
输出模块,用于输出所述响应数据;若检测到所述显示组件电连接于所述镜架主体,则控制所述第一电源组件和所述第二电源组件输出第一功率;若检测到所述显示组件未电连接于所述镜架主体,则控制所述第一电源组件输出第二功率。
16.根据权利要求15所述的装置,其特征在于,所述响应数据包括图像数据;
所述输出模块,用于显示所述图像数据。
17.根据权利要求15所述的装置,其特征在于,所述响应数据包括音频数据;所述输出模块,用于播放所述音频数据;或者,通过所述发送模块将所述音频数据发送至第二设备进行播放,所述第二设备已建立与所述眼镜设备和所述第一设备的通信连接。
18.一种眼镜设备,其特征在于,包括:
通信组件、麦克风组件、输出组件、镜架主体和显示组件,所述镜架主体上设置有控制器、与所述控制器电连接的电源组件,所述电源组件包括设置于所述镜架主体上的第一电源组件和设置于所述显示组件中的第二电源组件,所述第一电源组件在所述镜架主体上的设置位置和数量是基于所述眼镜设备的总重量以及质量平衡因素设计的;
所述麦克风组件,用于拾取到用户发出的语音信号;
所述通信组件,用于建立与第一设备间的通信连接,将所述语音信号发送至所述第一设备,以使所述第一设备对所述语音信号进行语音识别,以及接收所述第一设备根据语音识别结果反馈的响应数据;
所述输出组件,用于输出所述响应数据;
所述控制器,用于若检测到所述显示组件电连接于所述镜架主体,则控制所述第一电源组件和所述第二电源组件输出第一功率;若检测到所述显示组件未电连接于所述镜架主体,则控制所述第一电源组件输出第二功率。
19.根据权利要求18所述的眼镜设备,其特征在于,所述响应数据包括图像数据,所述输出组件包括显示组件;
所述显示组件,用于显示所述图像数据。
20.根据权利要求18所述的眼镜设备,其特征在于,所述响应数据包括音频数据;
所述通信组件,还用于建立与第二设备间的通信连接,将所述音频数据发送至所述第二设备进行播放。
21.一种数据处理方法,其特征在于,应用于与眼镜设备通信连接的第一设备,所述眼镜设备包括镜架主体和显示组件,所述镜架主体上设置有电源组件,所述电源组件包括设置于所述镜架主体上的第一电源组件和设置于所述显示组件中的第二电源组件,所述第一电源组件在所述镜架主体上的设置位置和数量是基于所述眼镜设备的总重量以及质量平衡因素设计的;
所述眼镜设备在检测到所述显示组件电连接于所述镜架主体时,控制所述第一电源组件和所述第二电源组件输出第一功率;在检测到所述显示组件未电连接于所述镜架主体时,控制所述第一电源组件输出第二功率;
所述方法包括:
接收所述眼镜设备拾取到的语音信号;
对所述语音信号进行语音识别;
根据语音识别结果响应所述语音信号。
22.根据权利要求21所述的方法,其特征在于,所述根据语音识别结果响应所述语音信号,包括:
若识别出所述语音信号中包含设定的唤醒词,则唤醒所述第一设备。
23.根据权利要求21所述的方法,其特征在于,所述根据语音识别结果响应所述语音信号,包括:
根据语音识别结果获取与所述语音信号对应的响应数据;
若所述响应数据中包括图像数据,则将所述图像数据发送至所述眼镜设备进行显示。
24.根据权利要求21所述的方法,其特征在于,所述根据语音识别结果响应所述语音信号,包括:
根据语音识别结果获取与所述语音信号对应的响应数据;
若所述响应数据中包括音频数据,则播放所述音频数据,或者,将所述音频数据发送至所述眼镜设备,或者,将所述音频数据发送至第二设备进行播放,所述第二设备已建立与所述眼镜设备和所述第一设备的通信连接。
25.根据权利要求21所述的方法,其特征在于,所述第一设备包括音箱设备。
26.根据权利要求24所述的方法,其特征在于,所述第二设备包括耳机。
27.一种数据处理装置,其特征在于,应用于与眼镜设备通信连接的第一设备,所述眼镜设备包括镜架主体和显示组件,所述镜架主体上设置有电源组件,所述电源组件包括设置于所述镜架主体上的第一电源组件和设置于所述显示组件中的第二电源组件,所述第一电源组件在所述镜架主体上的设置位置和数量是基于所述眼镜设备的总重量以及质量平衡因素设计的;
所述眼镜设备在检测到所述显示组件电连接于所述镜架主体时,控制所述第一电源组件和所述第二电源组件输出第一功率;在检测到所述显示组件未电连接于所述镜架主体时,控制所述第一电源组件输出第二功率;
所述装置包括:
接收模块,用于接收所述眼镜设备拾取到的语音信号;
识别模块,用于对所述语音信号进行语音识别;
响应模块,用于根据语音识别结果响应所述语音信号。
28.根据权利要求27所述的装置,其特征在于,所述响应模块具体可以用于:
根据语音识别结果获取与所述语音信号对应的响应数据;
若所述响应数据中包括音频数据,则播放所述音频数据,或者,将所述音频数据发送至所述眼镜设备,或者,将所述音频数据发送至第二设备进行播放,所述第二设备已建立与所述眼镜设备和所述第一设备的通信连接。
29.一种电子设备,其特征在于,所述电子设备与眼镜设备通信连接,所述电子设备包括:存储器、处理器、通信接口;其中,所述存储器上存储有可执行代码,当所述可执行代码被所述处理器执行时,使所述处理器执行如权利要求21至26中任一项所述的数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010139340.8A CN113342158B (zh) | 2020-03-03 | 2020-03-03 | 眼镜设备以及数据处理方法、装置、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010139340.8A CN113342158B (zh) | 2020-03-03 | 2020-03-03 | 眼镜设备以及数据处理方法、装置、电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113342158A CN113342158A (zh) | 2021-09-03 |
CN113342158B true CN113342158B (zh) | 2022-08-30 |
Family
ID=77467395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010139340.8A Active CN113342158B (zh) | 2020-03-03 | 2020-03-03 | 眼镜设备以及数据处理方法、装置、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113342158B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115808790A (zh) * | 2021-09-15 | 2023-03-17 | Oppo广东移动通信有限公司 | 头戴式设备 |
CN115185085A (zh) * | 2022-07-18 | 2022-10-14 | 佛山理成科技有限公司 | 智能眼镜及其控制方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104423573A (zh) * | 2013-09-05 | 2015-03-18 | Lg电子株式会社 | 显示装置及其操作方法 |
KR20150061909A (ko) * | 2013-11-28 | 2015-06-05 | 주식회사 이랜텍 | 청각 장애인용 스마트 안경 |
CN105068276A (zh) * | 2015-08-28 | 2015-11-18 | 上海超彩通信科技有限公司 | 一种智能眼镜 |
CN106019593A (zh) * | 2016-07-19 | 2016-10-12 | 苏州市景荣科技有限公司 | 一种多方式充电的智能眼镜 |
CN206440890U (zh) * | 2016-12-14 | 2017-08-25 | 无锡云瞳信息科技有限公司 | 可穿戴分离式智能眼镜 |
CN109061903A (zh) * | 2018-08-30 | 2018-12-21 | Oppo广东移动通信有限公司 | 数据显示方法、装置、智能眼镜及存储介质 |
CN110060695A (zh) * | 2019-04-24 | 2019-07-26 | 百度在线网络技术(北京)有限公司 | 信息交互方法、装置、服务器和计算机可读介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN209573465U (zh) * | 2018-09-30 | 2019-11-05 | 深圳市杰普特光电股份有限公司 | 穿戴设备 |
-
2020
- 2020-03-03 CN CN202010139340.8A patent/CN113342158B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104423573A (zh) * | 2013-09-05 | 2015-03-18 | Lg电子株式会社 | 显示装置及其操作方法 |
KR20150061909A (ko) * | 2013-11-28 | 2015-06-05 | 주식회사 이랜텍 | 청각 장애인용 스마트 안경 |
CN105068276A (zh) * | 2015-08-28 | 2015-11-18 | 上海超彩通信科技有限公司 | 一种智能眼镜 |
CN106019593A (zh) * | 2016-07-19 | 2016-10-12 | 苏州市景荣科技有限公司 | 一种多方式充电的智能眼镜 |
CN206440890U (zh) * | 2016-12-14 | 2017-08-25 | 无锡云瞳信息科技有限公司 | 可穿戴分离式智能眼镜 |
CN109061903A (zh) * | 2018-08-30 | 2018-12-21 | Oppo广东移动通信有限公司 | 数据显示方法、装置、智能眼镜及存储介质 |
CN110060695A (zh) * | 2019-04-24 | 2019-07-26 | 百度在线网络技术(北京)有限公司 | 信息交互方法、装置、服务器和计算机可读介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113342158A (zh) | 2021-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102197544B1 (ko) | 공간화 오디오를 가진 혼합 현실 시스템 | |
JP6094190B2 (ja) | 情報処理装置および記録媒体 | |
US9341866B2 (en) | Spectacles having a built-in computer | |
CN109407757B (zh) | 显示系统 | |
US9541761B2 (en) | Imaging apparatus and imaging method | |
CN110830811A (zh) | 直播互动方法及装置、系统、终端、存储介质 | |
CN113342158B (zh) | 眼镜设备以及数据处理方法、装置、电子设备 | |
EP2839675A1 (en) | Auto detection of headphone orientation | |
WO2017092396A1 (zh) | 一种虚拟现实交互系统及方法 | |
US20150039288A1 (en) | Integrated oral translator with incorporated speaker recognition | |
WO2019237427A1 (zh) | 用于辅助听障人士的方法、装置和系统及增强现实眼镜 | |
EP3376752A1 (en) | Headset | |
CN210090827U (zh) | 一种轻便化的ar眼镜实现系统 | |
CN111273775A (zh) | 增强现实眼镜、基于增强现实眼镜的ktv实现方法与介质 | |
CN114422935B (zh) | 音频处理方法、终端及计算机可读存储介质 | |
CN111103975B (zh) | 显示方法、电子设备及系统 | |
CN110069236A (zh) | 一种头戴电子设备及其音频输出控制方法 | |
CN112119372B (zh) | 电子设备及其控制方法 | |
JP2014027459A (ja) | 通信装置、通信方法及び通信プログラム | |
CN213876195U (zh) | 一种眼镜框架及智能导航眼镜 | |
CN111985252B (zh) | 对话翻译方法及装置、存储介质和电子设备 | |
CN112887703A (zh) | 头戴式显示设备的控制方法、头戴式显示设备及存储介质 | |
CN114267323A (zh) | 一种用于聋哑人的语音助听ar眼镜及其通信交流方法 | |
CN113296264A (zh) | 一种ar眼镜 | |
KR20210122568A (ko) | 전자 장치 및 그의 오디오 출력을 제어하는 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |