CN111506198A - 智能眼镜、智能眼镜控制方法及装置、存储介质 - Google Patents

智能眼镜、智能眼镜控制方法及装置、存储介质 Download PDF

Info

Publication number
CN111506198A
CN111506198A CN202010322199.5A CN202010322199A CN111506198A CN 111506198 A CN111506198 A CN 111506198A CN 202010322199 A CN202010322199 A CN 202010322199A CN 111506198 A CN111506198 A CN 111506198A
Authority
CN
China
Prior art keywords
module
image
environmental data
intelligent glasses
sensing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010322199.5A
Other languages
English (en)
Inventor
陈彪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oppo Chongqing Intelligent Technology Co Ltd
Original Assignee
Oppo Chongqing Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oppo Chongqing Intelligent Technology Co Ltd filed Critical Oppo Chongqing Intelligent Technology Co Ltd
Priority to CN202010322199.5A priority Critical patent/CN111506198A/zh
Publication of CN111506198A publication Critical patent/CN111506198A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D27/00Simultaneous control of variables covered by two or more of main groups G05D1/00 - G05D25/00
    • G05D27/02Simultaneous control of variables covered by two or more of main groups G05D1/00 - G05D25/00 characterised by the use of electric means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eyeglasses (AREA)

Abstract

本公开提供一种智能眼镜、智能眼镜控制方法及装置、存储介质,涉及电子设备技术领域。智能眼镜包括:显示模块,用于显示图像;传感器,用于获取智能眼镜所处的当前环境的环境数据;控制模块,分别与显示模块、传感器连接,用于获取并对显示模块显示的图像进行识别,得到图像中的场景信息,确定与场景信息匹配的目标环境数据;根据所获取的当前环境的环境数据以及目标环境数据,确定是否向感知触发模块发送控制指令;感知触发模块,与控制模块连接,用于在接收到控制指令时,执行控制指令对应的感知触发操作。本公开可以实现智能眼镜的多种智能化功能,提升用户体验。

Description

智能眼镜、智能眼镜控制方法及装置、存储介质
技术领域
本公开涉及电子设备技术领域,具体而言,涉及一种智能眼镜、智能眼镜控制方法、智能眼镜控制装置以及计算机可读存储介质。
背景技术
随着可穿戴设备的日益多样化,智能眼镜开始逐渐进入人们的生活。智能眼镜可以具有独立的操作系统,能够安装程序以及通过接收用户操作指令完成日程提醒、导航、拍照和视频通话等功能。
目前,智能眼镜能够实现增强现实、虚拟现实以及混合现实等近眼显示场景,虽然显示效果能够得到提升,但是功能仍然比较单一,用户体验较差。
发明内容
本公开的目的在于提供一种智能眼镜、智能眼镜控制方法、智能眼镜控制装置以及计算机可读存储介质,进而在一定程度上克服由于相关技术的限制和缺陷而导致的智能眼镜的功能比较单一、用户体验较差的问题。
根据本公开的第一方面,提供一种智能眼镜,包括:显示模块、传感器、控制模块和感知触发模块;
所述显示模块,用于显示图像;
所述传感器,用于获取智能眼镜所处的当前环境的环境数据;
所述控制模块,分别与所述显示模块、所述传感器连接,用于获取并对所述显示模块显示的图像进行识别,得到所述图像中的场景信息,确定与所述场景信息匹配的目标环境数据;根据所获取的所述当前环境的环境数据以及所述目标环境数据,确定是否向所述感知触发模块发送控制指令;
所述感知触发模块,与所述控制模块连接,用于在接收到所述控制指令时,执行所述控制指令对应的感知触发操作。
根据本公开的第二方面,提供一种智能眼镜控制方法,包括:
获取智能眼镜中显示模块显示的图像,并对所述图像进行识别,以得到所述图像中的场景信息;
确定与所述场景信息匹配的目标环境数据;
获取所述智能眼镜所处的当前环境的环境数据,并在所述当前环境的环境数据和所述目标环境数据不一致时,通过所述智能眼镜中的感知触发模块执行感知触发操作。
根据本公开的第三方面,提供一种智能眼镜控制装置,包括:
图像识别模块,用于获取智能眼镜中显示模块显示的图像,并对所述图像进行识别,以得到所述图像中的场景信息;
环境数据匹配模块,用于确定与所述场景信息匹配的目标环境数据;
触发操作确定模块,用于获取所述智能眼镜所处的当前环境的环境数据,并在所述当前环境的环境数据和所述目标环境数据不一致时,通过所述智能眼镜中的感知触发模块执行感知触发操作。
根据本公开的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述智能眼镜控制方法。
本公开示例性实施例可以具有以下部分或全部有益效果:
在本公开的一示例实施方式所提供的智能眼镜中,通过增加感知触发模块以及控制模块,在使用智能眼镜的过程中,可以结合显示模块中显示的图像的场景信息以及智能眼镜所处的当前环境,通过控制模块控制感知触发模块执行相应的感知触发操作,可以使用户的感知与图像中的场景相匹配。例如,可以通过感知触发模块模拟出游戏或电影中的环境,达成4D体验感,从而可以提升用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了相关技术中智能眼镜的一种示意图;
图2示出了本公开实施例中智能眼镜的一种结构示意图;
图3示出了本公开实施例中智能眼镜的一种架构示意图;
图4示出了本公开实施例中智能眼镜的又一种结构示意图;
图5示出了本公开实施例中智能眼镜控制方法的一种流程图;
图6示出了本公开实施例中智能眼镜控制装置的一种结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
随着虚拟现实以及增强现实技术的成熟,智能眼镜越来越多地应用于各个行业,如教育、医疗、设计、广告、娱乐等。参见图1,图1示出了相关技术中智能眼镜的一种示意图,该类型的智能眼镜可以包括处理器、光机、主板、显示模块、电池、接口、摄像头、传感器等模块。现有的智能眼镜在显示效果方面可以得到很好的提升,并且,可以实现常规的视听影音功能。但是,功能比较单一,仍然不能满足用户的需求,用户体验较差。
为了解决上述问题,本公开提供了一种智能眼镜、智能眼镜控制方法、智能眼镜控制装置以及计算机可读存储介质,可以使智能眼镜具有更多的功能,以提升用户体验。
参见图2,图2示出了本公开实施例中智能眼镜的一种结构示意图,智能眼镜200可以包括:显示模块210、传感器220、控制模块230和感知触发模块240;
显示模块210,用于显示图像;
传感器220,用于获取智能眼镜所处的当前环境的环境数据;
控制模块230,分别与显示模块210、传感器220连接,用于获取并对显示模块210显示的图像进行识别,得到图像中的场景信息,确定与场景信息匹配的目标环境数据;根据所获取的当前环境的环境数据以及目标环境数据,确定是否向感知触发模块240发送控制指令;
感知触发模块240,与控制模块230连接,用于在接收到控制指令时,执行该控制指令对应的感知触发操作。
本公开实施例的智能眼镜中,通过增加感知触发模块240以及控制模块230,在使用智能眼镜的过程中,可以结合显示模块210中显示的图像的场景信息以及智能眼镜所处的当前环境,通过控制模块230控制感知触发模块240执行相应的感知触发操作,可以使用户的感知与图像中的场景相匹配。例如,可以通过感知触发模块240模拟出游戏或电影中的环境,达成4D体验感,从而可以提升用户体验。
以下对本公开实施例的智能眼镜进行更加详细的介绍。
显示模块210,用于显示图像。
本公开实施例中,显示模块210中显示的图像可以是虚拟场景中的图像,例如,电影中或者游戏中的图像。当然,显示模块210中显示的图像也可以是通过智能眼镜中的图像传感器获取的现实场景中的真实图像等,在此不做限定。例如,显示模块210中可以显示图像传感器拍摄的远处的大海、高山等。
传感器220,用于获取智能眼镜所处的当前环境的环境数据。
本公开实施例中,智能眼镜包括:虚拟现实眼镜和增强现实眼镜。当前环境指的是现实场景中的环境,也就是用户佩戴智能眼镜时所处的环境。环境数据可以包括以下一种或多种:温度、湿度、风速、气味以及振动情况等。本公开以上述多种环境数据为例进行说明,相应地,如图3所示,传感器220可以包括:温度传感器221、湿度传感器222、风速传感器223、气味传感器224和振动传感器225等。
其中,温度传感器221可以是红外测温装置,通过对近皮肤位置的皮肤表面以及表面附近的空气温度进行探测,可以实时获知人体感知附近的环境温度变化,得到眼睛/鼻下/唇部等人体温度敏感的区域感知的温度信息。
湿度传感器222可以是湿敏电阻式湿度传感器等,湿敏电阻式湿度传感器体积更小,对于系统的集成度更好,通过简单的信号处理电路,可以得到湿度信息。
风速传感器223可以是热线式风速计,将通电加热的热线置于气流中,由于热线的散热量与流速相关,散热量将导致热线温度变化,从而引起电阻变化,将流速信号转变为电信号。通过模数转换电路,最终可以将流速信号处理为数字信号,得到风速。
气味传感器224可以识别当前环境中的气味。通常情况下,用户佩戴智能眼镜时所处的当前环境是一个常规的环境,也就是没有什么特殊气味,此时,智能眼镜200中也可以不包含气味传感器224。
振动传感器225可以识别智能眼镜的振动状态。与气味传感器224类似,智能眼镜200中也可以不包含振动传感器225。
除了上述传感器之外,还可以结合智能眼镜中固有的惯性传感器、Tof(飞行时间)传感器、视觉传感器等,以更全面地得到当前环境的环境数据。其中,飞行时间传感器是通过给目标连续发送光脉冲,然后用传感器接收从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。视觉传感器是指利用光学元件和成像装置获取外部环境图像信息的仪器。
控制模块230,分别与显示模块210、传感器220连接,用于获取并对显示模块210显示的图像进行识别,得到图像中的场景信息,确定与场景信息匹配的目标环境数据;根据所获取的当前环境的环境数据以及目标环境数据,确定是否向感知触发模块240发送控制指令。
本公开实施例中,控制模块230与显示模块210连接,两者可以进行通信。在本公开的一种实现方式中,控制模块230还可以获取智能眼镜中的图像传感器拍摄的真实图像,确定与真实图像匹配的虚拟对象。显示模块210可以获取真实图像以及虚拟对象,并显示真实图像和虚拟对象的融合图像。这样,可以提升真实图像的显示效果。例如,如果真实图像中包含一艘轮船,那么可以确定与该轮船匹配的虚拟对象是大海,可以将大海和轮船进行图像融合并显示融合图像。这样,控制模块230可以获取显示模块210中显示的融合图像。
在本公开的另一种实现方式中,显示模块210也可以直接获取并显示智能眼镜中的图像传感器拍摄的真实图像,例如可以是远处的景物。或者也可以从服务器获取虚拟图像(例如,游戏或电影中的图像),并显示虚拟图像。
之后,控制模块230可以获取显示模块210中显示的图像,并根据图像识别算法(例如,可以是深度学习算法等)识别图像中的场景信息,场景信息指与环境相关的信息,不同环境下可以对应不同的场景信息。例如,在电影或游戏中,场景信息通常是变化的,例如可以包括:海边沙滩、热带雨林、干旱沙漠等多种场景。
可以理解的是,不同的场景可以对应与其相匹配的环境数据,例如,干旱沙漠可以对应较低的湿度,海边沙滩可以对应较高的风速等。本公开可以预先建立场景信息和环境数据之间的映射关系,根据该映射关系,确定与场景信息匹配的目标环境数据,可见,目标环境数据也就是虚拟场景所需要的环境数据。或者,场景信息和环境数据之间的映射关系还可以在电影中或者游戏中预先设定,本公开直接获取即可。
需要说明的是,控制模块230还与传感器220连接,从而可以从传感器220获取当前环境的环境数据。由上述可以,传感器220可以包含多个不同类型的传感器,此时,控制模块230分别与多个不同类型的传感器连接。
通常情况下,当前环境的环境数据与目标环境数据是不一致的,在当前环境的环境数据与目标环境数据不一致时,控制模块230可以根据不一致数据的类型向感知触发模块发送对应的控制指令。
本公开实施例中,由于环境数据包括:温度、湿度、风速等多种类型,环境数据之间是独立的,多种环境数据之间可以并行处理。在任一环境数据不一致时,控制模块230可以向感知触发模块240发送对应的控制指令。例如,在当前环境的温度与目标环境数据中的温度不一致时,控制模块230可以向感知触发模块240发送温度控制指令;在当前环境的湿度与目标环境数据中的湿度不一致时,控制模块230可以向感知触发模块240发送湿度控制指令等。当然,对于当前环境的环境数据与目标环境数据一致的情况,控制模块230可以不做处理。
需要说明的是,不一致可理解为数据相差较大,超出一定的差异范围,在该差异范围内的差异均可以理解为一致。例如,对于温度而言,如果当前环境的温度为35摄氏度,目标环境数据中的温度为38摄氏度,此时可以认为两者一致。再比如,如果当前环境的温度为25摄氏度,目标环境数据中的温度为38摄氏度,此时可以认为两者不一致。本公开对差异范围不做具体限定。
感知触发模块240,与控制模块230连接,用于在接收到控制指令时,执行控制指令对应的感知触发操作。
本公开实施例中,感知触发模块240可以包括以下一个或多个:温度感知单元、湿度感知单元、风速感知单元、气味感知单元和振动感知单元等,在包含一个时,智能眼镜可以实现一种感知触发功能;在包含多个时,智能眼镜可以实现多种感知触发功能。
感知触发模块240包含的各感知单元可以与传感器220相对应。例如,在感知触发模块240只包含温度感知单元时,传感器220可以只包含温度传感器。在感知触发模块240包含湿度感知单元和风速感知单元时,传感器220可以包含湿度传感器和风速传感器。
本公开以感知触发模块240包括温度感知单元、湿度感知单元、风速感知单元、气味感知单元和振动感知单元为例进行说明。如图3所示,感知触发模块240可以包括:温度感知单元241、湿度感知单元242、风速感知单元243、气味感知单元244和振动感知单元245等。
感知触发模块240具体用于在接收到温度控制指令时,根据温度调节范围,通过温度感知单元241对当前环境中的温度进行调节。温度感知单元241可以设置在头部接触区域,在风速感知单元243与湿度感知单元242的旁边,如图4所示,温度感知单元241的数量可以是两个,可以使左右两边达到平衡,进一步提升用户体验。温度感知单元241中可以布置部分发热模组,在模拟环境变化的过程中,可以实现迅速的升温和降温的过程。值得一提的是,在实现升温及降温过程中,还可以设置温度调节范围,温度调节范围包括:最高温度阈值和最低温度阈值,避免温度过高或温度过低导致用户不适。
感知触发模块240具体用于在接收到湿度控制指令时,通过湿度感知单元242对当前环境中的湿度进行调节。其中,湿度感知单元242具体可以是,在智能眼镜壳体冷却储水槽内,储存少量冷却水,通过雾化器可以在皮肤附近小环境产生雾化水汽,从而增加空气湿度。在本公开的一种实现方式中,湿度感知单元242可以设置在智能眼镜的左下方或右下方,与显示模块相邻。由于人的上嘴唇是对刺激比较敏感的区域,湿度感知单元242可以靠近用户脸颊的位置,用户可以更容易感受到湿度的变化。
感知触发模块240具体用于在接收到风速控制指令时,通过风速感知单元243对当前环境中的风速进行调节。风速感知单元243具体可以是静音的小型风机等。和湿度感知单元242类似,风速感知单元243也可以设置在智能眼镜的左下方或右下方,与显示模块210相邻。当然,如果湿度感知单元242设置在智能眼镜的左下方,风速感知单元243可以设置在智能眼镜的右下方。或者,湿度感知单元242设置在智能眼镜的右下方,风速感知单元243可以设置在智能眼镜的左下方。湿度感知单元242和风速感知单元243的数量可以均为2个,在智能眼镜的左下方和右下方分别设置一个湿度感知单元242以及一个风速感知单元243,湿度感知单元242和风速感知单元243可以是相邻的。这样,通过风速的调节以及雾化操作,可以使用户感受到清风徐来的感受。
需要说明的是,湿度感知单元242和风速感知单元243可以是两个独立的模块,可以分别实现各自的功能。当然,也可以将两者合并为一个模块,同时实现两种功能。如图4所示,湿度感知单元242位于智能眼镜的左下方。
感知触发模块240具体用于在接收到气味控制指令时,通过气味感知单元244对当前环境中的气味进行调节。气味感知单元244可以是气味生成盒,包括集中多种基础气味物质,通过单独使用或者混合使用,可以产生不同的嗅觉气味感。例如,不同的花香、草香、木材等气味可以对应不同的香料单元,在匹配的场景中,对应的香料单元可以释放气味。在本公开的一种实现方式中,如图4所示,气味感知单元244可以靠近智能眼镜的鼻托,这样,气味感知单元244可以更靠近用户的鼻子,使用户可以更快的感受到气味的变化。
感知触发模块240具体用于在接收到振动控制指令时,通过振动感知单元245使智能眼镜发生振动。振动感知单元245具体可以是振动马达,由直流电机作为振动的震源,可以产生不同振动强度和振动频率的振动感。在本公开的一种实现方式中,感知触发模块240具体用于,在接收到不同类型的振动控制指令时,通过振动感知单元245使智能眼镜以不同的振动强度和振动频率发生振动,以模拟在颠簸或者爆炸等不同场景下的感受。
振动感知单元245的数量也可以是多个,如果智能眼镜的镜架是头箍式镜架,多个振动感知单元可以均匀分布在头箍式镜架上。这样,用户佩戴智能眼镜时,振动感知单元245均匀分布在用户的头部,可以产生较好的振动效果,并且可以避免局部过重,增加佩戴舒适度。头箍式镜架可以是可调节的,这样,不同的用户可以根据自身头围尺寸对镜架进行调节。如果智能眼镜的镜架是镜腿式镜架,多个振动感知单元可以均匀分布在两个镜腿上。另外,为了减小智能眼镜的重量、增加舒适度,镜架可以使用轻薄材料。
可以理解的是,智能眼镜还可以包括处理器和供电模块等,控制模块230可以和处理器进行通信,以实现感知触发模块240的启用与休眠。供电模块可以向智能眼镜的其他部件提供电源,供电模块可以是电池,也可以是电源转换器等。
本公开实施例的智能眼镜,通过多种传感器可以获取用户所处的当前环境的环境数据。同时,通过对显示模块显示的图像做场景识别,得到场景信息,例如在热带雨林的中游戏,或者看电影在干旱的沙漠等场景,并确定与场景信息匹配的目标环境数据。通过将当前环境的环境数据和目标环境数据进行对比,在两者不一致时,可以产生温度、风速、气味、湿度和振动等环境信息,传递到用户面部的感觉器官上,从而使用户产生身临其境的感觉。本公开能够给予用户更真实的感受,从而可以提升用户体验。
进一步的,本示例实施方式中,还提供了一种智能眼镜控制方法,如图5所示,包括以下步骤:
步骤S510,获取智能眼镜中显示模块显示的图像,并对该图像进行识别,以得到该图像中的场景信息。
步骤S520,确定与场景信息匹配的目标环境数据。
步骤S530,获取智能眼镜所处的当前环境的环境数据,并在当前环境的环境数据和目标环境数据不一致时,通过智能眼镜中的感知触发模块执行感知触发操作。
在本公开的一种示例性实施例中,在当前环境的环境数据与目标环境数据不一致时,根据不一致数据的类型向智能眼镜中的感知触发模块发送对应的控制指令,以使感知触发模块执行控制指令对应的感知触发操作。
在本公开的一种示例性实施例中,感知触发模块包括:振动感知单元;
感知触发模块执行控制指令对应的感知触发操作,包括:
感知触发模块在接收到振动控制指令时,通过振动感知单元使智能眼镜发生振动。
在本公开的一种示例性实施例中,感知触发模块包括:温度感知单元;
感知触发模块执行控制指令对应的感知触发操作,包括:
感知触发模块在接收到温度控制指令时,根据温度调节范围,通过温度感知单元对当前环境中的温度进行调节。
在本公开的一种示例性实施例中,在获取智能眼镜中显示模块显示的图像之前,上述智能眼镜控制方法还包括:
获取智能眼镜中的图像传感器拍摄的真实图像,确定与真实图像匹配的虚拟对象;
通过显示模块显示真实图像和虚拟对象的融合图像。
上述方法的具体细节已经在对应的智能眼镜中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供一种智能眼镜控制装置,如图6所示,智能眼镜控制装置600包括:
图像识别模块610,用于获取智能眼镜中显示模块显示的图像,并对该图像进行识别,以得到该图像中的场景信息;
环境数据匹配模块620,用于确定与场景信息匹配的目标环境数据;
触发操作确定模块630,用于获取智能眼镜所处的当前环境的环境数据,并在当前环境的环境数据和目标环境数据不一致时,通过智能眼镜中的感知触发模块执行感知触发操作。
上述装置的具体细节已经在对应的智能眼镜中进行了详细的描述,因此此处不再赘述。
在本公开的示例性实施例中,还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
需要说明的是,本公开所示的计算机可读存储介质例如可以是—但不限于—电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、射频等等,或者上述的任意合适的组合。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (15)

1.一种智能眼镜,其特征在于,包括:显示模块、传感器、控制模块和感知触发模块;
所述显示模块,用于显示图像;
所述传感器,用于获取智能眼镜所处的当前环境的环境数据;
所述控制模块,分别与所述显示模块、所述传感器连接,用于获取并对所述显示模块显示的图像进行识别,得到所述图像中的场景信息,确定与所述场景信息匹配的目标环境数据;根据所获取的所述当前环境的环境数据以及所述目标环境数据,确定是否向所述感知触发模块发送控制指令;
所述感知触发模块,与所述控制模块连接,用于在接收到所述控制指令时,执行所述控制指令对应的感知触发操作。
2.根据权利要求1所述的智能眼镜,其特征在于,所述感知触发模块包括:振动感知单元;
所述感知触发模块具体用于在接收到振动控制指令时,通过所述振动感知单元使所述智能眼镜发生振动。
3.根据权利要求2所述的智能眼镜,其特征在于,所述感知触发模块具体用于,在接收到不同类型的振动控制指令时,通过所述振动感知单元使所述智能眼镜以不同的振动强度和振动频率发生振动。
4.根据权利要求2所述的智能眼镜,其特征在于,还包括头箍式镜架;
在所述振动感知单元的数量为多个时,多个所述振动感知单元均匀分布在所述头箍式镜架上。
5.根据权利要求1所述的智能眼镜,其特征在于,所述感知触发模块还包括:温度感知单元;
所述感知触发模块具体用于在接收到温度控制指令时,根据温度调节范围,通过所述温度感知单元对所述当前环境中的温度进行调节。
6.根据权利要求1所述的智能眼镜,其特征在于,所述感知触发模块还包括:湿度感知单元;
所述感知触发模块具体用于在接收到湿度控制指令时,通过所述湿度感知单元对所述当前环境中的湿度进行调节。
7.根据权利要求6所述的智能眼镜,其特征在于,所述湿度感知单元设置在所述智能眼镜的左下方或右下方,与所述显示模块相邻。
8.根据权利要求1所述的智能眼镜,其特征在于,所述控制模块还用于获取所述智能眼镜中的图像传感器拍摄的真实图像,确定与所述真实图像匹配的虚拟对象;
所述显示模块具体用于,获取所述真实图像以及所述虚拟对象,并显示所述真实图像和所述虚拟对象的融合图像。
9.根据权利要求1所述的智能眼镜,其特征在于,所述显示模块具体用于显示所获取的虚拟图像。
10.根据权利要求1所述的智能眼镜,其特征在于,所述控制模块具体用于在所述当前环境的环境数据与所述目标环境数据不一致时,根据不一致数据的类型向所述感知触发模块发送对应的控制指令。
11.一种智能眼镜控制方法,其特征在于,包括:
获取智能眼镜中显示模块显示的图像,并对所述图像进行识别,以得到所述图像中的场景信息;
确定与所述场景信息匹配的目标环境数据;
获取所述智能眼镜所处的当前环境的环境数据,并在所述当前环境的环境数据和所述目标环境数据不一致时,通过所述智能眼镜中的感知触发模块执行感知触发操作。
12.根据权利要求11所述的智能眼镜控制方法,其特征在于,在所述当前环境的环境数据和所述目标环境数据不一致时,通过所述智能眼镜中的感知触发模块执行感知触发操作,包括:
在所述当前环境的环境数据与所述目标环境数据不一致时,根据不一致数据的类型向所述智能眼镜中的感知触发模块发送对应的控制指令,以使所述感知触发模块执行所述控制指令对应的感知触发操作。
13.根据权利要求12所述的智能眼镜控制方法,其特征在于,所述感知触发模块包括:振动感知单元;
所述感知触发模块执行所述控制指令对应的感知触发操作,包括:
所述感知触发模块在接收到振动控制指令时,通过所述振动感知单元使所述智能眼镜发生振动。
14.一种智能眼镜控制装置,其特征在于,包括:
图像识别模块,用于获取智能眼镜中显示模块显示的图像,并对所述图像进行识别,以得到所述图像中的场景信息;
环境数据匹配模块,用于确定与所述场景信息匹配的目标环境数据;
触发操作确定模块,用于获取所述智能眼镜所处的当前环境的环境数据,并在所述当前环境的环境数据和所述目标环境数据不一致时,通过所述智能眼镜中的感知触发模块执行感知触发操作。
15.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求11~13任一所述的方法。
CN202010322199.5A 2020-04-22 2020-04-22 智能眼镜、智能眼镜控制方法及装置、存储介质 Pending CN111506198A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010322199.5A CN111506198A (zh) 2020-04-22 2020-04-22 智能眼镜、智能眼镜控制方法及装置、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010322199.5A CN111506198A (zh) 2020-04-22 2020-04-22 智能眼镜、智能眼镜控制方法及装置、存储介质

Publications (1)

Publication Number Publication Date
CN111506198A true CN111506198A (zh) 2020-08-07

Family

ID=71864230

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010322199.5A Pending CN111506198A (zh) 2020-04-22 2020-04-22 智能眼镜、智能眼镜控制方法及装置、存储介质

Country Status (1)

Country Link
CN (1) CN111506198A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114647090A (zh) * 2022-05-19 2022-06-21 江苏省现代企业信息化应用支撑软件工程技术研发中心 一种多感官可扩展的ar交互装置
WO2022199065A1 (zh) * 2021-03-25 2022-09-29 海尔(深圳)研发有限责任公司 用于头戴设备的环境调节方法、装置、系统及头戴设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022199065A1 (zh) * 2021-03-25 2022-09-29 海尔(深圳)研发有限责任公司 用于头戴设备的环境调节方法、装置、系统及头戴设备
CN114647090A (zh) * 2022-05-19 2022-06-21 江苏省现代企业信息化应用支撑软件工程技术研发中心 一种多感官可扩展的ar交互装置

Similar Documents

Publication Publication Date Title
US11304017B2 (en) Reverberation fingerprint estimation
Ranasinghe et al. Ambiotherm: enhancing sense of presence in virtual reality by simulating real-world environmental conditions
US11497986B2 (en) Mixed reality system for context-aware virtual object rendering
US11068050B2 (en) Method for controlling display of virtual image based on eye area size, storage medium and electronic device therefor
US20200022632A1 (en) Digital content processing and generation for a virtual environment
US10083363B2 (en) System and method for customizing content for a user
CN106873778B (zh) 一种应用的运行控制方法、装置和虚拟现实设备
CN107392783B (zh) 基于虚拟现实的社交方法及装置
US20190196576A1 (en) Virtual reality device and a virtual reality server
US10298876B2 (en) Information processing system, control method, and storage medium
CN109254659A (zh) 穿戴式设备的控制方法、装置、存储介质及穿戴式设备
CN112396679B (zh) 虚拟对象显示方法及装置、电子设备、介质
CN105183147A (zh) 头戴式智能设备及其建模三维虚拟肢体的方法
CN111506198A (zh) 智能眼镜、智能眼镜控制方法及装置、存储介质
KR102469574B1 (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN109982124A (zh) 用户场景智能分析方法、装置和存储介质
CN109327737A (zh) 电视节目推荐方法、终端、系统及存储介质
CN106774929B (zh) 一种虚拟现实终端的显示处理方法和虚拟现实终端
CN105653020A (zh) 穿越时空的方法和装置以及使用其的眼镜或头盔
WO2018216602A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2022504516A (ja) 仮想および拡張現実のためのシステムおよび方法
CN111442464B (zh) 空调器及其控制方法
CN114341747A (zh) 移动装置的光场显示器
KR20160114996A (ko) 사용자 맞춤형 운동 서비스 제공 방법 및 장치
CN112506336A (zh) 具有触觉输出的头戴式显示器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination