CN111897425A - 可穿戴眼镜和利用其提供信息的方法 - Google Patents

可穿戴眼镜和利用其提供信息的方法 Download PDF

Info

Publication number
CN111897425A
CN111897425A CN202010703799.6A CN202010703799A CN111897425A CN 111897425 A CN111897425 A CN 111897425A CN 202010703799 A CN202010703799 A CN 202010703799A CN 111897425 A CN111897425 A CN 111897425A
Authority
CN
China
Prior art keywords
wearable glasses
user
information
notification
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010703799.6A
Other languages
English (en)
Other versions
CN111897425B (zh
Inventor
朱佳贤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020150043300A external-priority patent/KR102433291B1/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN202010703799.6A priority Critical patent/CN111897425B/zh
Publication of CN111897425A publication Critical patent/CN111897425A/zh
Application granted granted Critical
Publication of CN111897425B publication Critical patent/CN111897425B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

提供了一种可穿戴眼镜和利用其提供内容的方法。可穿戴眼镜包括感测电路、通信接口、显示器和控制器。感测电路感测穿戴着可穿戴眼镜的用户的运动信息。通信接口接收通知消息信息。显示器在穿戴着可穿戴眼镜的用户的视角内显示通知消息信息。控制器基于感测到的用户的运动信息确定用户的运动状态并且根据用户的运动状态控制显示器显示接收到的通知消息信息。

Description

可穿戴眼镜和利用其提供信息的方法
本申请是申请日为2015年7月31日、申请号为201510465036.1、发明名称为“可穿戴眼镜和利用其提供内容的方法”的发明专利申请的分案申请。
相关申请的交叉引用
本申请要求2014年7月31日在韩国知识产权局递交的10-2014-0098626号韩国专利申请和2015年3月27日在韩国知识产权局递交的10-2015-0043300号韩国专利申请的优先权,这里通过引用将这些韩国专利申请的公开内容全部并入。
技术领域
符合本公开的装置、方法和制品涉及可穿戴眼镜和经由可穿戴眼镜提供与通知事件相对应的内容的方法。
背景技术
可穿戴设备是人可以穿戴的设备。随着可穿戴设备被积极地开发,各种类型的可穿戴设备已被发布或者预期将被发布在市场上。这种可穿戴设备的示例是可穿戴手表、可穿戴眼镜和可穿戴腰带。
可穿戴眼镜可以像典型的眼镜那样被穿戴并且向用户提供各种信息。虽然可穿戴眼镜允许用户自由使用他/她的手,但用户的视野可被可穿戴眼镜上显示的信息所阻碍。
发明内容
根据一个或多个示范性实施例的一方面,提供了一种可穿戴眼镜,包括:感测电路,被配置为感测穿戴着可穿戴眼镜的用户的运动信息;通信接口,被配置为接收通知消息信息;显示器,被配置为在穿戴着可穿戴眼镜的用户的视角内显示通知消息信息:以及控制器,被配置为基于感测到的用户的运动信息确定用户的运动状态并且根据用户的运动状态控制显示器显示接收到的通知消息信息。
控制器还可被配置为利用感测电路中包括的至少一个传感器来确定用户是否穿戴着可穿戴眼镜,并且在确定用户穿戴着可穿戴眼镜时控制感测电路感测用户的运动。
控制器还可被配置为利用由感测电路测量到的加速度信息、倾斜信息、生物计量信息、高度信息、大气压信息、眼球跟踪信息和位置信息中的至少一者来确定用户的运动状态。
控制器还可被配置为利用从外部设备接收的用户的运动信息来确定用户的运动状态。
控制器还可被配置为基于用户的运动状态来确定显示通知消息信息的时间并且控制显示器在所确定的时间显示通知消息信息。
控制器还可被配置为当用户的运动速度小于阈值速度时在当前时间输出通知消息信息,并且当用户的运动速度等于或大于阈值速度时,控制器还可被配置为确定在与当前时间不同的时间输出通知消息信息。
不同的时间可包括以下各项中的至少一者:接收到用于请求输出通知消息信息的用户输入的时间点、用户的运动状态被改变的时间点以及预设的时间已过去的时间点。
控制器还可被配置为基于用户的运动状态来确定显示通知消息信息的显示形式并且控制显示器根据所确定的显示形式显示通知消息信息。
当用户的运动速度等于或大于阈值速度时,控制器还可被配置为显示通知消息信息的一部分,并且当用户的运动速度小于阈值速度时,所述控制器还可被配置为显示通知消息信息的全部。
控制器还可被配置为根据关于从可穿戴眼镜起的特定距离内的环境的环境信息确定音频信号和视频信号中的至少一者作为通知消息信息的输出形式。
环境信息可包括关于在从可穿戴眼镜起的特定距离内生成的外部声音的信息和关于利用图像传感器获得的外部图像的信息中的至少一者。
根据一个或多个示范性实施例的另一方面,提供了一种一种可穿戴眼镜,包括:感测电路,被配置为感测用户的运动并输出信号;通信接口,被配置为接收通知消息信息;显示器,被配置为显示通知消息信息;以及控制器,被配置为基于从感测电路输出的信号来控制显示器显示接收到的通知消息信息。
控制器还可被配置为基于从感测电路中包括的至少一个传感器输出的信号来确定用户是否穿戴着可穿戴眼镜,并且当确定用户穿戴着可穿戴眼镜时,控制器还可被配置为控制感测电路感测用户的运动。
根据一个或多个示范性实施例的另外一方面,提供了一种提供信息的方法,其中该方法由可穿戴眼镜执行并且包括:接收通知消息信息;感测穿戴着可穿戴眼镜的用户的运动信息;利用感测到的用户的运动信息确定用户的运动状态;以及根据用户的运动状态显示接收到的通知消息信息。
感测用户的运动信息可包括:利用可穿戴眼镜中包括的至少一个传感器确定用户是否穿戴着可穿戴眼镜;以及当确定用户穿戴着可穿戴眼镜时感测用户的运动信息。
显示接收到的通知消息信息可包括:确定显示通知消息信息的时间;以及在所确定的时间显示通知消息信息。
确定显示通知消息信息的时间可包括:当用户的运动速度小于阈值速度时确定在当前时间输出通知消息信息,以及当用户的运动速度等于或大于阈值速度时确定在与当前时间不同的时间输出通知消息信息。
显示接收到的通知消息信息可包括:确定显示通知消息信息的显示形式;以及根据所确定的显示形式显示通知消息信息。
确定显示形式可包括当用户的运动速度等于或大于阈值速度时确定输出通知消息信息的一部分,以及当用户的运动速度小于阈值速度时确定输出通知消息信息的全部。
确定显示形式可包括:获得关于从可穿戴眼镜起的特定距离内的环境的环境信息;以及根据所获得的环境信息确定以音频信号和视频信号中的至少一者的形式提供通知消息信息。
可穿戴眼镜可包括可穿戴眼镜。
根据一个或多个示范性实施例的另外一个方面,提供了一种可穿戴眼镜,包括:传感器,被配置为感测穿戴着可穿戴眼镜的用户的运动信息;以及控制器,被配置为基于感测到的运动信息确定用户的运动状态并且当运动状态指示出用户处于安全条件中时控制显示器显示接收到的通知消息的全部,当运动状态指示出用户处于危险情形中时控制显示器不显示接收到的通知消息,并且当运动状态指示出用户既不处于安全条件中也不处于危险情形中时控制显示器显示接收到的通知消息的一部分。
当运动状态指示出用户处于危险情形中时,控制器可存储接收到的通知消息以便在不同于当前时间的时间显示。
当运动状态指示出用户处于危险情形中时,控制器可在运动状态指示出用户不再处于危险情形中时控制显示器显示接收到的通知信息。
传感器可以是以下各项中的一者或多者:加速度传感器、倾斜传感器、生物计量信息传感器、高度传感器、大气压传感器、眼球跟踪传感器和位置传感器。
根据一个或多个示范性实施例的另外一方面,提供了一种可穿戴眼镜,包括:感测电路,被配置为获得可穿戴眼镜的运动信息;显示器,被配置为显示通知信息;以及一个或多个处理器,被配置为。基于所获得的可穿戴眼镜的运动信息,确定要经由显示器显示的通知信息的量,根据所确定的通知信息的量来显示通知信息。
根据一个或多个示范性实施例的另外一方面,提供了一种由可穿戴眼镜执行的提供信息的方法,该方法包括:获得通知信息;获得可穿戴眼镜的运动信息;基于所获得的可穿戴眼镜的运动信息,确定要显示的通知信息的量;根据所确定的通知信息的量来显示通知信息。
根据一个或多个示范性实施例的另外一方面,提供了一种非暂时性计算机可读记录介质,其上记录有用于执行前述方法的计算机可读程序。
附图说明
通过以下结合附图对示范性实施例的描述,这些和/或其他方面将变得清楚并且更容易领会,附图中:
图1根据示范性实施例图示了用于描述操作可穿戴眼镜的方法的图;
图2和图3根据示范性实施例图示了用于描述可穿戴眼镜的外观的图;
图4根据示范性实施例图示了用于描述通知系统的图;
图5A根据示范性实施例图示了可穿戴眼镜用来基于用户的运动信息提供内容的方法的流程图;
图5B和5C根据示范性实施例图示了用于描述可穿戴眼镜用来基于用户的运动信息确定用户的运动状态的方法的图;
图6根据示范性实施例图示了可穿戴眼镜用来基于用户是否穿戴着可穿戴眼镜而提供与通知事件相对应的内容的方法的流程图;
图7根据示范性实施例图示了可穿戴眼镜用来检测通知事件的发生的方法的流程图;
图8根据示范性实施例图示了可穿戴眼镜通过从服务器接收通知消息来感测通知事件的发生的示例;
图9根据示范性实施例图示了可穿戴眼镜通过从移动终端接收日程通知消息来感测通知事件的发生的示例;
图10根据示范性实施例图示了可穿戴眼镜通过经由移动终端接收文本消息来感测通知事件的发生的示例;
图11根据示范性实施例图示了可穿戴眼镜通过接收广告内容来感测通知事件的发生的示例;
图12根据示范性实施例图示了可穿戴眼镜用来获得用户的运动信息的方法的流程图;
图13根据示范性实施例图示了可穿戴眼镜用来从外部设备获得用户的运动信息的方法的流程图;
图14根据示范性实施例图示了可穿戴眼镜用来基于用户的运动速度确定输出与通知事件相对应的内容的时间的方法的流程图;
图15A和15B根据示范性实施例图示了用于描述可穿戴眼镜基于用户的运动速度调整输出与通知事件相对应的内容的时间和方法的示例的图;
图16根据示范性实施例图示了基于用户的运动信息确定与通知事件相对应的内容的输出形式的方法的流程图;
图17至图19根据示范性实施例图示了用于描述可穿戴眼镜基于用户的运动速度提供与通知事件相对应的内容的一部分或者整个内容的示例的图;
图20根据示范性实施例图示了可穿戴眼镜用来在已经发生事件时输出未输出内容的方法的流程图;
图21根据示范性实施例图示出可穿戴眼镜基于用户的运动变化事件输出与先前生成的通知事件相对应的内容的示例;
图22根据示范性实施例图示了用于描述可穿戴眼镜使用的基于用户的特定输入来改变内容的输出形式的方法的图;
图23和图24图示了用于描述可穿戴眼镜基于用户的抬头运动来输出整个内容的示例的图;
图25根据示范性实施例图示了用于描述输出了内容的一部分的可穿戴眼镜基于用户输入阻止内容的输出的示例的图;
图26根据示范性实施例图示了可穿戴眼镜用来突出显示与事件相对应的内容中的关键字的方法的流程图;
图27根据示范性实施例图示了用于描述可穿戴眼镜基于用户的运动信息突出显示内容中的关键字的示例的图;
图28根据示范性实施例图示了可穿戴眼镜用来调整与事件相对应的内容的透明度的方法的流程图;
图29根据示范性实施例图示了可穿戴眼镜当用户在驾驶时基于用户的速度信息来调整内容的透明度的示例的图;
图30根据示范性实施例图示了用于描述可穿戴眼镜用来基于环境信息确定输出信号的形式的方法的图;
图31和图32根据示范性实施例图示了示出可穿戴眼镜基于外部声音信息调整输出信号的形式的示例的图;
图33根据示范性实施例图示了可穿戴眼镜用来基于外部图像信息确定与通知事件相对应的内容的输出形式的方法的流程图;
图34根据示范性实施例图示了可穿戴眼镜基于外部图像信息调整输出信号的形式的示例;
图35根据示范性实施例图示了可穿戴眼镜用来基于外部图像的变动信息确定是否输出通知内容的方法的流程图;
图36根据示范性实施例图示了可穿戴眼镜基于外部图像的变动信息改变与通知事件相对应的内容的输出形式的示例;
图37根据示范性实施例图示了可穿戴眼镜用来基于外部图像信息调整与通知事件相对应的内容的透明度、颜色和色度中的至少一者的方法的流程图;
图38根据示范性实施例图示了用于描述可穿戴眼镜基于外部图像信息调整与通知事件相对应的内容的颜色的示例的图;
图39根据示范性实施例图示了可穿戴眼镜确定与通知事件相对应的内容的输出位置的方法的流程图;
图40根据示范性实施例图示了用于描述可穿戴眼镜改变与通知事件相对应的内容的输出位置的示例的图;
图41根据示范性实施例图示了可穿戴眼镜用来基于用户的设定信息确定提供与事件相对应的内容的方法的方法的流程图;
图42根据示范性实施例图示了关于与事件相对应的内容的输出的设定信息的示例;
图43和图44根据示范性实施例图示了可穿戴眼镜基于用户的设定信息输出与通知事件相对应的内容的示例;
图45根据示范性实施例图示了可穿戴眼镜用来从外部可穿戴设备接收紧急情况通知信息的方法的流程图;
图46根据示范性实施例图示了可穿戴眼镜显示从外部可穿戴设备接收的脉搏率信息的示例;
图47根据示范性实施例图示了可穿戴眼镜用来经由外部设备输出与通知事件相对应的内容的方法的流程图;
图48根据示范性实施例图示了可穿戴眼镜基于用户输入输出与通知事件相对应的内容的示例;
图49根据示范性实施例图示了可穿戴眼镜用来响应于外部设备的请求发送与通知事件相对应的内容的方法的流程图;
图50图示了外部设备基于经由外部设备接收的用户输入显示与通知事件相对应的内容的示例,其中外部设备连接到可穿戴眼镜;
图51根据示范性实施例图示了可穿戴眼镜用来基于用户的运动信息输出与通知事件相对应的内容的方法的流程图;
图52根据示范性实施例图示了可穿戴眼镜基于用户的运动信息输出与通知事件相对应的内容的示例;
图53根据示范性实施例图示了可穿戴眼镜用来提供未输出内容的列表的方法的流程图;
图54根据示范性实施例图示了可穿戴眼镜基于特定用户输入提供未输出内容的列表的示例;
图55根据示范性实施例图示了连接到可穿戴眼镜的可穿戴设备提供尚未从可穿戴眼镜输出的内容的列表的示例;
图56根据示范性实施例图示了连接到可穿戴眼镜的可穿戴设备提供先前已从可穿戴眼镜输出的内容的列表的示例;并且
图57和图58图示了根据示范性实施例图示可穿戴眼镜的结构的框图。
具体实施方式
现在将简要描述本文中使用的术语,然后将详细描述示范性实施例。
本文使用的包括描述性或技术性术语在内的所有术语应当被解释为具有本领域普通技术人员理解的含义。然而,根据本领域普通技术人员的意图、先例或者新技术的出现,术语可具有不同含义。另外,一些术语可由申请人选择,并且在此情况下,所选择的术语的含义将在详细描述中加以详细描述。从而,本文使用的术语必须基于术语的含义连同整个说明书中的描述来定义。
另外,当一部件“包括”或“包含”一元素时,除非有与之相反的具体描述,否则该部件还可包括其他元素,不排除其他元素。在接下来的描述中,诸如“单元”和“模块”之类的术语指用于处理至少一个功能或操作的单元,其中该单元和块可实现为硬件或软件或者可通过组合硬件和软件来实现。
现在将参考附图更充分描述示范性实施例。然而,示范性实施例可以以许多不同形式实现,而不应当被解释为限于本文记载的示范性实施例;更确切地说,提供这些示范性实施例是为了使得本公开将会透彻且完整,并且将会把一个或多个示范性实施例的构思完整地传达给本领域普通技术人员。在接下来的描述中,没有详细描述公知的功能或构造,因为它们将会以不必要的细节模糊示范性实施例,并且附图中的相似的标号在整个说明书中始终表示相似或类似的元素。
按照本文使用的,术语“和/或”包括关联的列出项目中的一个或多个的任意和所有组合。诸如“……中的至少一个”之类的表述当在元素的列表之前时修饰整个元素列表,而不修饰列表中的个体元素。
图1根据示范性实施例图示了用于描述操作可穿戴眼镜的方法的图。
根据示范性实施例,可穿戴眼镜100是被穿戴在用户的头上以在用户的眼睛前方提供图像的显示装置。本发明构思不限于眼镜型可穿戴设备(例如,可穿戴眼镜100),而是也可应用到头戴式显示器(head mounted display,HMD)装置,其主体的一部分固定到用户的头部以在用户的视角内显示信息。
根据示范性实施例,HMD装置可实现为各种形式。例如,HMD装置可实现为眼镜、头盔和帽子,但不限于此。
根据示范性实施例,可穿戴眼镜100可提供与通知事件相对应的内容10。在本说明书中,内容提供可包括例如显示内容、重放内容或输出内容。
在本说明书中,通知事件可以指生成要发送给用户的信息的事件。通知事件可以例如是用于通知用户在可穿戴眼镜100中或在可穿戴眼镜100外发生的情形的事件。
例如,通知事件可包括以下各项中的至少一者:日程通知事件、游客事件、交通信息通知事件、广告通知事件、更新通知事件、推荐内容通知事件、健康信息通知事件和紧急情况通知事件,但不限于此。
在本说明书中,“与通知事件相对应的内容”可以指被生成来发送给用户的内容。“与通知事件相对应的内容”可在可穿戴眼镜100中生成或者可从可穿戴眼镜100的外部获得。例如,当发生通知事件时,可穿戴眼镜100可生成与通知事件相对应的内容10。另外,可穿戴眼镜100可从外部设备或服务器接收与通知事件相对应的内容。以下,“与通知事件相对应的内容”也可称为“通知消息信息”。
在整个说明书中,“内容”指的是经由有线或无线通信网络提供的数字信息。根据示范性实施例的内容可包括例如视频内容、静止图像内容(例如,照片、绘画等等)、文本内容(例如,新闻文章、信件、网页等等)、音乐内容(例如,音乐、器乐、无线电广播等等),但不限于此。
根据示范性实施例,“与通知事件相对应的内容”可包括以下各项中的至少一者:日程通知内容(例如,药物通知评论、日程通知评论等等)、旅游景点通知内容(例如,历史遗迹的说明内容、旅游景点的开放和关闭时间等等)、交通信息通知内容(例如,公车运行日程、拥堵的通知,等等)、广告通知内容(例如,优惠券、促销开始/结束时间等等),更新通知内容(例如,对软件或硬件的更新通知、关于其他通知内容的更新信息——例如旅游景点开放/关闭日程的更新,等等),推荐内容(例如,推荐书籍信息、推荐音乐信息等等)、健康信息通知内容(例如,血糖水平信息、心率信息、温度信息等等)以及紧急情况通知内容(例如,附近的火灾、地震发生等等),但不限于此。以下,为了便于说明,“与通知事件相对应的内容”也可称为“通知内容”。
根据示范性实施例,可穿戴眼镜100可以以各种形式提供通知内容。例如,可穿戴眼镜100可以以增强现实(augmented reality,AR)、混合现实(mixed reality,MR)或虚拟现实(virtual reality,VR)的形式在显示器上显示通知内容。
当可穿戴眼镜在感测到通知事件的发生时不考虑用户的情形立即输出通知内容时,用户可能被暴露于危险情形。从而,根据示范性实施例,下文将描述可穿戴眼镜100基于用户的运动信息(也称为“运动状态”或“运动模式信息”)确定提供通知内容的时间和提供通知内容的形式的方法。首先,将参考图2和图3详细描述可穿戴眼镜100的外观。
图2和图3根据示范性实施例图示了用于描述可穿戴眼镜100的外观的图。根据图2和图3的示范性实施例,假定可穿戴眼镜100是眼镜形式的。
参考图2,可穿戴眼镜100可包括框架101、透镜102、电源103、显示器111、声音输出单元112、控制器120、用户输入单元130、图像传感器161和深度传感器154。然而,图2所示的元件并不全都是可穿戴眼镜100的必要元件。可穿戴眼镜100可包括比图2所示的那些更多或更少的元件。例如,根据一些示范性实施例,可穿戴眼镜100可省略透镜102。
可穿戴眼镜100中包括的一些元件可被安装在可穿戴眼镜100内部,并且一些其他元件可被安装在可穿戴眼镜100的外部。例如,电源103和控制器120可被安装在可穿戴眼镜100的内部。显示器111、声音输出单元112、用户输入单元130、图像传感器161和深度传感器154可被安装在可穿戴眼镜100的外部。安装在可穿戴眼镜100内部的元件和安装在可穿戴眼镜100的外部的元件可不限于上述元件。
框架101可包括诸如塑料和/或金属之类的材料并且可包括将可穿戴眼镜100中包括的元件彼此连接的布线。
根据示范性实施例,框架101可包括连接构件(未示出)以具有部分可折叠结构。另外,根据示范性实施例,可穿戴眼镜100还可包括橡皮筋,其允许用户无论头部的大小如何都可将可穿戴眼镜100穿戴在头上。
同时,根据示范性实施例,透镜102可被可拆离地安装在框架中。
透镜102可包括允许用户看到他/她前方的区域的透明材料。例如,透镜102可包括诸如聚碳酸酯或玻璃材料之类的塑料,但不限于此。
根据示范性实施例,透镜102可包括防反光和防眩涂层、防雾涂层和防紫外线(UV)涂层中的至少一者。
电源103可向可穿戴眼镜100的每个元件供应电力以使得可穿戴眼镜能够操作。电源可包括可再充电电池(未示出)和电缆(未示出)或者电缆端口(未示出),通过其从外界接收电力。
电源103可被布置在可穿戴眼镜100的框架101上的各种位置。例如,电源103可被布置在可穿戴眼镜100的框架101的一端。
显示器111可包括半透明光波导(例如,棱镜)。半透明光波导可反射从投影仪输出的光以将图像聚焦在用户的眼睛的视网膜的中心凹上。根据示范性实施例,显示器111可在发生了通知事件时显示与通知事件相对应的内容。内容可以是通知消息信息。通知消息信息可以是要广告给非指定数目的人的广告消息或者可以是只针对可穿戴眼镜100的用户的广告消息。另外,根据示范性实施例,通知消息信息可以与应用有关。应用可以是预定的。可经由通信接口接收通知消息信息。另外,可在可穿戴眼镜100内部生成通知消息信息。例如,可在可穿戴眼镜100内部生成指示电池剩余量的消息。作为另一示例,可在可穿戴眼镜100内部生成指示当前声音水平或亮度水平的消息。作为另外一个示例,可在可穿戴眼镜100内部生成指示可穿戴眼镜100的当前倾斜角度或者对可穿戴眼镜100的诊断信息的消息。
另外,根据发明构思显示器111可用于替换透镜102或透镜102的一部分。也就是说,显示器111可取代透镜102或透镜102的一部分被使用。
对于可穿戴眼镜,透镜102和显示区域可以是相同的。在此情况下,可在用户正透过透镜102看着实际物体的同时接收到通知消息信息,并且可在透镜102上显示接收到的通知消息信息。如果通知消息信息被显示在透镜102的整个区域之中的用户的视角外,则用户必须移动瞳孔来看到通知消息信息。另一方面,如果通知消息信息被显示在透镜102的整个区域之中的与用户的视角相对应的区域上,则用户为了观看通知消息信息不必转动他/她的头部或者移动他/她的瞳孔。
从而,当用户正以可穿戴眼镜的形式穿戴着可穿戴眼镜100时,可在显示器111上设定与用户的视角相对应的第一区域,并且可在第一区域中显示通知消息信息。用户的视角可以指如下的角度或范围:在该角度或范围内,在用户看着他或她的前方的同时,用户能够在不转动他/她的头部或他/她的瞳孔的情况下感知到物体。例如,用户的视角可以是向上方向和向下方向的每一方向上的45度和向左方向和向右方向的每一方向上的90度,但不限于此。视角可对每个用户以实验方式确定。或者,视角可在制造商处设定,或者可由用户利用可穿戴眼镜100的设定来设定。
根据示范性实施例,与用户的视角相对应的第一区域可以与整个显示区域相同或者小于整个显示区域。另外,与用户的视角相对应的第一区域可基于从用户的眼睛到透镜102的距离来确定或调整。
声音输出单元112可被配置为可穿戴在用户的耳朵上的耳机的形式。在此情况下,声音输出单元112可被安装在可穿戴眼镜100中。例如,声音输出单元112可包括骨传导扬声器。在一些示范性实施例中,声音输出单元112可以部分延伸到用户的耳朵中。
另外,声音输出单元112可被可拆离地安装到可穿戴眼镜100。在此情况下,可穿戴眼镜100的用户可以选择性地将声音输出单元112安装在耳朵上。
控制器120可按有线或无线方式连接到可穿戴眼镜100以便控制可穿戴眼镜100的每个元件。例如,控制器120可从图像传感器161或用户输入单元130接收数据,分析接收到的数据,并且通过显示器111和声音输出单元112中的至少一者输出通知内容。
用户输入单元130接收用户输入。用户输入可包括例如来自用户的开始或结束可穿戴眼镜100的操作的命令或请求。操作可以是预定的。
根据示范性实施例,用户输入单元130可包括触摸面板来接收触摸输入。贯穿整个说明书,“触摸输入”指的是用户在触摸面板上执行来控制可穿戴眼镜100的手势。例如,本说明书中描述的触摸输入可以是叩击、触摸并保持、双叩击、拖曳、平移、轻拂和拖放。
根据示范性实施例,用户输入单元130可包括用于接收弯曲输入的弯曲传感器。贯穿整个说明书,“弯曲输入”指的是用于弯曲整个HMS装置100或者用于弯曲可穿戴眼镜100的部分区域来控制可穿戴眼镜100的用户输入。根据示范性实施例,可穿戴眼镜100可利用弯曲传感器来感测例如弯曲位置(坐标值)、弯曲方向、弯曲角度、弯曲速度、弯曲次数、生成弯曲操作的时间或者维持弯曲操作的时段,等等。
根据示范性实施例,用户输入单元130可接收多重输入。贯穿整个说明书,“多重输入”指的是至少两种输入方法的组合。例如,可穿戴眼镜100可接收用户的触摸输入和运动输入或者可接收用户的触摸输入和声音输入。另外,可穿戴眼镜100可接收用户的触摸输入和眼球输入。眼球输入指的是用于调整眼睛眨动、注视位置、眼球运动速度等等来控制可穿戴眼镜100的用户输入。
同时,根据示范性实施例,可穿戴眼镜100还可包括麦克风(未示出)。麦克风可接收与用户的语音相对应的声音和/或在可穿戴眼镜100周围生成的环境声音。
图像传感器161可利用紧凑型相机来实现,例如在智能电话或网络摄像头中使用的相机。图像传感器161可被安装成当用户穿戴着可穿戴眼镜100时在用户的眼睛附近并且可捕捉与通过用户的眼睛接收的图像相似的图像。
根据示范性实施例,可穿戴眼镜100还可包括深度传感器154。可穿戴眼镜100可识别用户的三维空间手势。例如,深度传感器154可测量输入工具(例如,一只或多只手、一根或多根手指或者电子笔等等)的深度值等等。
根据示范性实施例,深度传感器154可利用各种方法获得输入工具的深度值。例如,深度传感器154可利用飞行时间(time of flight,TOF)方法、立体视觉方法和结构光图案方法中的至少一者来测量深度值。
根据TOF方法,分析光被物体反射并返回到光源所花的时间来测量从光源到物体的距离。在TOF系统中,红外LED发射红外光,并且利用红外相机来测量光被物体反射并返回到红外LED所花的时间。在此情况下,深度传感器154可包括红外LED和红外相机。深度传感器154可通过每秒几十次反复发射和接收光来以视频形式获取距离信息。另外,深度传感器154可创建经由像素的亮度或颜色表达距离信息的深度图。每秒几十次的采样时间只是示例,并且采样时间可大于或小于每秒几十次。
根据立体视觉方法,两个相机被用于捕捉物体的立体图像。在此情况下,深度传感器154可包括两个相机。深度传感器154可利用关于从各个相机观看的图像的差别信息基于三角测量原理来计算深度传感器154与物体之间的距离。人类基于左眼和右眼观看的各个图像之间的差异感知立体图像,并且深度传感器154以与人类眼睛的原理类似的方式由各个相机测量深度传感器154与物体之间的距离。例如,如果深度传感器154与物体之间的距离较小,则两个相机分别捕捉的图像之间的差异较大,而如果深度传感器154与物体之间的距离较大,则两个相机分别捕捉的图像之间的差异较小。
根据结构光图案方法,图案化的光被从光源发射到物体并且在物体的表面上形成的图案的位置被分析来测量从光源到物体的距离。深度传感器154通常向物体发射线状或点图案光并且图案根据物体的曲线而变化。
结构光图案方法可对应于两个相机之一被光学投影仪替换的立体视觉方法。例如,深度传感器154可通过利用特定算法分析由从红外投影仪发射的光在物体的表面上形成的图案的位置来实时地计算深度图。
根据示范性实施例,图像传感器161和深度传感器154可以是不同的传感器。根据另一示范性实施例,图像传感器161和深度传感器154可被集成在单个传感器中。
根据示范性实施例,除了图像传感器161和深度传感器154以外,可穿戴眼镜100还可包括其他传感器。
例如,可穿戴眼镜100可包括用于感测用户的运动输入的传感器。贯穿整个说明书,“运动输入”指的是由用户施加到可穿戴眼镜100来控制可穿戴眼镜100的运动。例如,运动输入可包括用于旋转可穿戴眼镜100、倾斜可穿戴眼镜100或者在向上或向下方向上或者向左或向右移动可穿戴眼镜100的用户输入。可穿戴眼镜100可利用例如加速度传感器、倾斜传感器、陀螺传感器或3轴磁传感器来感测用户的运动。运动可以是用户预设的。例如,用户可设定特定倾斜角度对应于特定输入。
另外,可穿戴眼镜100可包括用于感测用户是否穿戴着可穿戴眼镜100的传感器。例如,可穿戴眼镜100可包括温度传感器、压力传感器、加速度传感器、接近传感器或虹膜扫描传感器。
可穿戴眼镜100还可包括面对用户的脸部的眼球跟踪相机(未示出)。眼球跟踪相机可包括红外相机。眼球跟踪相机可通过跟踪用户的瞳孔来检测用户的注视。
参考图3,可穿戴眼镜100可被配置成使得透镜102起到显示器111的作用。在此情况下,透镜102可由透明显示器或半透明显示器形成。当透镜102由半透明显示器形成时,透镜102可由光波导(例如,棱镜)、电致发光显示器和液晶显示器中的至少一者形成,但不限于此。
虽然参考图2和图3描述了利用眼镜实现的可穿戴眼镜100,但可穿戴眼镜100不限于此。例如,可穿戴眼镜100可附着到头盔结构或者可以以风镜的形式来应用。
根据示范性实施例,可穿戴眼镜100可以是可在没有其他设备的帮助下操作的独立设备。另外,可穿戴眼镜100可以是与移动终端或云服务器链接的设备。以下,将参考图4描述可穿戴眼镜100与其他设备链接的示范性实施例。
图4根据示范性实施例图示了用于描述通知系统的图。
参考图4,根据示范性实施例的通知提供系统可包括可穿戴眼镜100、移动终端200和服务器300。然而,图4所示的所有元件并不都是通知提供系统的必要元件。通知提供系统可利用比图4所示的元件更多的元件或更少的元件来实现。例如,通知提供系统可利用可穿戴眼镜100和移动终端200来实现,省略服务器300,或者利用可穿戴眼镜100和服务器300来实现,省略移动终端200。
可穿戴眼镜100可以通信地连接到移动终端200或服务器300。例如,可穿戴眼镜100可与移动终端200执行短程通信。短程通信的示例是Wi-Fi、近场通信(Near FieldCommunication,NFC)、蓝牙、低能量蓝牙(Bluetooth Low Energy,BLE)、直接Wi-Fi(Wi-FiDirect,WFD)和超宽带(Ultra wideband,UWB),但不限于此。可穿戴眼镜100可经由无线通信或移动通信连接到服务器300。另外,在一些示范性实施例中,可穿戴眼镜100可包括多种通信方法。例如,可穿戴眼镜100可包括短程通信和无线通信两者,或者可包括多种短程通信方法。
移动终端200可向可穿戴眼镜100发送数据或从可穿戴眼镜100接收数据。例如,移动终端200可向可穿戴眼镜100发送通知消息或控制命令。数据可以是预定的。
移动终端200可实现为各种形式。例如,本说明书中描述的移动终端200可以是移动电话、智能电话、膝上型计算机、平板PC、电子书终端、数字广播终端、个人数字助理(personal digital assistant,PDA)、便携式多媒体播放器(portable multimediaplayer,PMP)、导航设备、MP3播放器或数码相机,但不限于此。
服务器300可以是控制可穿戴眼镜100的云服务器。另外,服务器300可以是提供通知消息的内容提供者。
根据示范性实施例,服务器300可包括智能引擎并且利用智能引擎来分析用户的运动。稍后将参考图13详细描述服务器300执行的分析用户的运动的操作。用户的运动除了利用服务器300来分析以外,也可利用可穿戴眼镜100或者经由短程通信连接到可穿戴眼镜100或通信地连接到可穿戴眼镜100的移动终端200来分析。
此外,利用服务器300分析的用户的运动可被直接发送到可穿戴眼镜100或者可经由移动终端200发送到可穿戴眼镜100,移动终端200经由短程通信连接到可穿戴眼镜100或者通信地连接到可穿戴眼镜100。
以下,将参考图5A至5C详细描述根据示范性实施例可穿戴眼镜100基于用户的运动信息提供通知内容的方法。
图5A根据示范性实施例图示了可穿戴眼镜用来基于用户的运动信息提供内容的方法的流程图。
在操作S510中,可穿戴眼镜100可检测通知事件的发生。
根据示范性实施例,可穿戴眼镜100可感测到生成了要通知给用户的内部系统通知信息或外部通知信息。例如,当电池剩余量等于或小于阈值时,可穿戴眼镜100可感测到生成了用于显示关于电池剩余量的通知消息的事件。
另外,当从移动终端200或服务器300接收到通知消息信息时,可穿戴眼镜100可感测到发生了用于输出通知消息信息的事件。这里,可穿戴眼镜100可经由通信接口接收通知消息信息。
另外,当发生了用于输出通知消息信息的事件时,可穿戴眼镜100可改变显示器111的颜色。也就是说,控制器120可基于对通知消息信息的接收控制显示器111改变其颜色。
例如,当通知消息已经到达时,显示器111可将整个屏幕显示成例如橙色达一秒。由于整个显示器111被改变成橙色,所以用户可感测到通知消息到达了。然而,这只是一个示例,或者,显示器111可将屏幕的一部分显示为特定颜色。此外,显示通知消息的时间也只是一个示例,并且通知消息可以被显示多于或少于一秒。
在操作S520中,在检测到通知事件的发生时,可穿戴眼镜100可获得穿戴着可穿戴眼镜100的用户的运动信息,并且基于运动信息确定用户的运动状态。
用户的运动信息可以是关于穿戴着可穿戴眼镜100的用户的运动的信息。用户的运动信息可以是关于狭义上的用户的运动的信息。替换地或额外地,运动信息可包括广义上的用户的生物计量信息的变化。例如,用户的运动信息可包括以下各项中的一者或多者(但不限于此):关于用户的运动的信息、用户的运动速度信息、用户的运动方向信息、用户的倾斜信息、用户的高度信息、用户的生物计量信息(例如,体温信息、脉搏率信息、出汗信息等等)、用户的眼球跟踪信息(例如,瞳孔识别信息、眼睛眨动频率信息、眼睛眨动速度信息、注视方向信息等等)以及用户位置信息(例如,GPS坐标信息、区域信息、建筑物信息、关于一时间段期间位置的变动的信息,等等)。用户的运动信息还可包括在用户讲话时通过麦克风感知到的用户语音信息、基于用户的饮酒测量到的酒精测试信息,等等。
根据示范性实施例,可穿戴眼镜100可利用可穿戴眼镜100中包括的至少一个传感器来感测用户的运动信息。例如,可穿戴眼镜100可利用加速度传感器、位置传感器、倾斜传感器、压力传感器、高度(大气压)传感器、生物计量传感器、虹膜扫描传感器、图像传感器、麦克风、气味传感器和温度传感器中的至少一者来感测用户的运动信息。
另外,可穿戴眼镜100可基于用户的运动信息确定用户的运动状态。用户的运动状态可包括例如行走状态、静止状态、奔跑状态、睡眠状态、驾驶状态、通勤状态、讲话状态(或者交谈状态)或者锻炼状态(例如,慢跑、游泳、网球、篮球或远足),但不限于此。将详细描述由可穿戴眼镜100执行的基于用户运动信息确定用户的运动状态的示例。
图5B和5C根据示范性实施例图示了用于描述可穿戴眼镜用来基于用户的运动信息确定用户的运动状态的方法的图。
参考图5B和5C,可穿戴眼镜100可利用加速度传感器、倾斜传感器、位置传感器和压力传感器中的至少一者来确定用户是处于静止状态还是奔跑状态。例如,可穿戴眼镜100可利用通过加速度传感器测量到的加速度信息:1)在用户以每一定时段0.001km/h的平均速度运动时,确定用户处于静止状态(即,在休息);2)当用户在以每一定时段4km/h的平均速度运动时,确定用户处于行走状态;并且3)在用户以每一定时段15km/h的平均速度运动时,确定用户处于奔跑状态。该一定时段可以是预定的。
或者,可穿戴眼镜100可利用通过位置传感器测量到的位置变动信息来确定用户是处于静止状态(例如,位置变动<第一变动)、处于行走状态(例如,第一变动≤位置变动<第二变动)还是处于奔跑状态(第二变动≤位置变动)。另外,可穿戴眼镜100可使用加速度信息和位置变动信息两者来增大该确定的确实性,或者提供验证。
类似地,或者作为另一替换,可穿戴眼镜100可利用通过倾斜传感器测量到的倾斜信息来确定用户是处于静止状态(例如,倾斜变动<第一阈值)、处于行走状态(例如,第一阈值≤倾斜变动<第二阈值)还是处于奔跑状态(例如,第二阈值≤倾斜变动)。用户的运动速度越高,利用倾斜传感器测量到的倾斜变动就可能越高。如上所述,可穿戴眼镜100可使用加速度信息、位置变动信息和倾斜信息中的多于一者来提供额外的确实性或者提供验证。
类似地,可穿戴眼镜100可利用关于在用户的运动期间施加到附着在可穿戴眼镜的鼻垫上的压力传感器的压力的压力信息来确定用户是处于静止状态(例如,测量到的压力<第一压力),处于行走状态(例如,第一压力≤测量到的压力<第二压力),还是处于奔跑状态(例如,第二压力≤测量到的压力)。用户的运动速度越高,利用压力传感器测量到的压力就可能越高。与其他信息一样,压力信息可用作单个数据点,或者可与一个或多个其他信息相结合以便提供额外的确实性或验证。
可穿戴眼镜100也可利用高度传感器(大气压传感器)来确定用户是处于站立状态、坐着状态还是躺下状态。例如,可穿戴眼镜100可利用通过高度传感器(大气压传感器)测量到的高度信息:1)在测量到的高度值是第一高度以上时(高度≥第一高度值),确定用户是站着的;2)当测量到的高度值小于第一高度值并且等于或大于第二高度值时,确定用户是坐着的(第一高度值>测量到的高度≥第二高度值);以及3)当测量到的高度值小于第二高度值时,确定用户是躺着的(高度<第二高度值)。利用高度传感器测量到的高度值在用户躺着时可以比用户站着时更小。
转到图5C,可穿戴眼镜100可经由加速度传感器、高度传感器、位置传感器和生物计量传感器中的至少一者确定用户处于远足状态。例如,可穿戴眼镜100可在利用高度传感器测量到的一定时段期间的高度变动等于或大于阈值时(高度变动≥阈值),和/或在利用位置传感器测量到的位置信息是“山区”时,和/或在利用生物计量传感器测量到的出汗量、温度变动和/或平均脉搏率大于阈值时(出汗量>阈值,温度变动>阈值,平均脉搏率>阈值),确定用户在远足。
可穿戴眼镜100可经由虹膜扫描传感器、图像传感器、麦克风、加速度传感器和倾斜传感器中的至少一者来确定用户处于睡眠状态。例如,可穿戴眼镜100可在利用虹膜扫描传感器测量到的用户的眼睛眨动的次数小于阈值次数时(例如,检测到每十分钟一次)和/或在一定时间段期间没有扫描到虹膜时(例如,五分钟没有扫描到虹膜),确定用户处于睡眠状态。该一定时间段可以是预定的。
额外地或替换地,可穿戴眼镜100可利用图像传感器捕捉一定时间段中用户的眼睛的图像并且可通过对眼睛的图像执行边缘分析来检测瞳孔。该一定时间段可以是预定的。如果在一定时间段中没有从眼睛的图像中检测到瞳孔(例如,如果五分钟或以上没有检测到瞳孔),则可穿戴眼镜100可确定用户处于睡眠状态。
额外地或替换地,可穿戴眼镜100可分析通过麦克风获得的声音信号,并且如果感测到与鼾声模式相对应的声音,则可穿戴眼镜100可确定用户处于睡眠状态。另外,如果利用加速度传感器或倾斜传感器测量到的头部的运动值等于或大于阈值,则可穿戴眼镜100可确定用户在坐着打磕睡。
额外地或替换地,可穿戴眼镜100可基于通过麦克风获得的声音信息确定用户是否处于讲话状态(或者正在交谈)。例如,可穿戴眼镜100可分析通过麦克风获得的声音信息,并且如果识别出用户的语音,则可穿戴眼镜100可确定用户在讲话。另外,如果从通过麦克风获得的声音信息中识别出除了用户的语音以外的另一人的语音,则可穿戴眼镜100可确定用户正在进行交谈。
可穿戴眼镜100可基于利用气味传感器测量到的气味信息来确定用户的饮酒状态。例如,可穿戴眼镜100可分析利用气味传感器测量到的气味信息,并且如果在一段时间中识别出酒精味,则可穿戴眼镜100可确定用户在饮酒。该时间段可以是预定的。
可穿戴眼镜100可利用加速度传感器、图像传感器和短程通信模块中的至少一者来确定用户是否处于驾驶状态。例如,当利用加速度传感器测量到的速度变动等于或大于阈值时(例如,平均40km/h)和/或从利用图像传感器捕捉的图像中检测到汽车的方向盘时(也就是说,当根据看着正前方的用户的眼睛角度检测到汽车的方向盘时),可穿戴眼镜100可确定用户处于驾驶状态。
额外地或替换地,可穿戴眼镜100可基于通过短程通信(例如,蓝牙)从汽车接收的信息来确定用户处于驾驶状态。例如,当用户触摸开始按钮时,汽车识别用户的指纹并且向利用特定指纹与用户的指纹匹配的可穿戴眼镜发送驾驶开始信息。在此情况下,可穿戴眼镜可基于从汽车接收的驾驶开始信息来识别出用户正开始驾驶。该特定指纹可以是预定的。
根据示范性实施例,可穿戴眼镜100可基于用户的情境信息确定用户的通勤状态。情境信息可存储在用户的个性化服务器中或者存储在可穿戴眼镜100中。
例如,可穿戴眼镜100可基于用户的日程信息或生活模式信息来确定用户的通勤状态。如果用户在工作日早上8点从家移动到特定位置(例如,工作场所),则可穿戴眼镜100可接收用户的通勤时间信息、通勤距离信息和工作场所位置信息作为情境信息。该特定位置可以是预定的。在当前时间是星期一早上8:20并且当前位置靠近地铁站时,可穿戴眼镜100可确定用户正要去工作。
另外,如果在一段时间中用户的平均运动速度是0.0001km/h并且用户在一段时间中位于办公室中,则可穿戴眼镜100可确定用户在工作。该时间段可以是预定的。
根据示范性实施例,可穿戴眼镜100可基于利用外部可穿戴设备测量到的生物计量信息来分析用户的运动状态。根据示范性实施例的可穿戴设备可包括戒指、项链、手环、手表、鞋、耳环、头带、衣服、手套或顶针,但不限于此。
例如,可穿戴眼镜100可接收利用可穿戴设备测量到的脉搏率信息、血压信息、心率信息、体温信息等等。可穿戴眼镜100可经由移动终端200从可穿戴设备接收生物计量信息或者可直接从可穿戴设备接收生物计量信息。如果在一段时间中用户的平均脉搏率等于阈值频率或更高,则可穿戴眼镜100可确定用户正在锻炼。该时间段可以是预定的。
根据示范性实施例,可穿戴眼镜100可基于从诸如跑鞋或鞋垫之类的周边可穿戴设备测量的加速度信息、压力信息和/或高度信息来确定用户是处于休息状态、行走状态、奔跑状态还是远足状态。例如,可穿戴眼镜100可在用户的运动速度等于阈值或更高并且从附着到用户的跑鞋的压力传感器测量到的鞋底的压力模式与关于远足的模式类似时确定用户处于远足状态。
根据示范性实施例,可穿戴眼镜100可基于用户设定的模式信息确定用户的运动状态。例如,用户可手动将可穿戴眼镜100的操作模式设定到驾驶模式、锻炼模式或通勤模式。例如,如果用户将可穿戴眼镜100的操作模式设定到驾驶模式,则可穿戴眼镜100可确定用户正在驾驶。
控制器120可基于用户的运动信息确定用户的运动状态,并且可根据用户的运动状态控制显示器111显示接收到的通知消息信息。
根据示范性实施例,可穿戴眼镜100可向连接到可穿戴眼镜100的外部设备请求用户的运动状态信息并接收该信息。外部设备可以是移动终端200或服务器300。稍后将参考图13详细描述外部设备分析用户的运动状态的操作。
在操作S530中,可穿戴眼镜100可基于所确定的用户的运动状态来确定提供与通知事件相对应的内容(通知消息信息)的方法。
根据示范性实施例,可穿戴眼镜100可确定提供通知内容(通知消息信息)的时间。例如,可穿戴眼镜100可基于用户的运动状态确定用户的运动速度是否小于阈值速度。当用户的运动速度小于阈值速度(例如,3km/h)时,可穿戴眼镜100可确定在当前时间输出通知内容。当前时间可指示从可穿戴眼镜100检测到通知事件的发生时起一定时间内(例如,30秒内)的时间段。该一定时间可以是预定的。
同时,当用户的运动速度等于或大于阈值速度时,可穿戴眼镜100可确定在不同的时间输出通知内容。不同的时间可以是先前设定的时间(例如,10pm)。或者,不同的时间可以是比当前时间晚一定量的时间(例如,10分钟内)。或者,不同时间可以是比当前时间晚一定量的时间,在该时间进行对用户的运动状态的另一确定。例如,如果用户被确定为处于奔跑状态中,则可穿戴眼镜100可确定等待10分钟,然后重确定用户的运动状态。如果重确定的用户的状态是站立状态,则可穿戴眼镜100可输出通知。另外,该不同时间可指示发生了特定事件的时间。该特定事件可以是预定的。
该特定事件可包括以下各项中的至少一者:接收请求通知内容的输出的用户输入的事件、某个量的时间经过的事件以及改变用户的运动状态的事件,但不限于此。
根据示范性实施例,可穿戴眼镜100可通过确定提供通知内容的形式来确定提供内容的方法。提供通知内容的形式可包括显示通知内容的显示形式。例如,可穿戴眼镜100可基于用户的运动状态确定用户的运动速度是否小于阈值速度(例如,4km/h)。当用户的运动速度等于或大于阈值速度时,可穿戴眼镜100可确定输出通知内容的一部分,并且如果用户的运动速度小于阈值速度,则可穿戴眼镜100可确定输出整个通知内容。
内容的一部分可包括内容的关键字、内容的概要信息和内容的标题中的至少一者,但不限于此。
根据示范性实施例,可穿戴眼镜100可基于用户的运动状态确定以音频信号和视频信号中的至少一者的形式提供通知内容。例如,当用户处于讲话状态时(例如,向另一个人说话),可穿戴眼镜100可确定将通知内容输出为视频信号,而如果用户处于驾驶状态中,则可穿戴眼镜100可确定将通知内容输出为音频信号。
以下,将参考图6详细描述可穿戴眼镜100基于用户是否穿戴着可穿戴眼镜100来提供通知内容的操作。
图6根据示范性实施例图示了可穿戴眼镜用来基于用户是否穿戴着可穿戴眼镜而提供与通知事件相对应的内容的方法的流程图。
在操作S610中,可穿戴眼镜100可检测通知事件的发生。操作S610对应于图5的操作S510,从而将省略对其的详细描述。
在操作S620中,可穿戴眼镜100可确定用户是否穿戴着可穿戴眼镜100。
根据示范性实施例,可穿戴眼镜100可利用可穿戴眼镜100中包括的传感器(例如,温度传感器、压力传感器、亮度传感器、接近传感器、虹膜扫描传感器和压力传感器等等中的至少一者)来确定用户是否穿戴着可穿戴眼镜100。例如,当附着到眼镜的鼻垫或镜腿的温度传感器的值,或者压力传感器的值等于或大于阈值时,可穿戴眼镜100可确定用户穿戴着可穿戴眼镜100。或者,可穿戴眼镜100可扫描用户的虹膜。当可穿戴眼镜100利用虹膜扫描传感器成功扫描到用户的虹膜时,可穿戴眼镜100可确定用户穿戴着可穿戴眼镜100。
或者,当利用倾斜传感器测量到的倾斜值连续变化时,可穿戴眼镜100可确定用户穿戴着可穿戴眼镜100。
或者,当扬声器和麦克风被包括在眼镜的镜腿内时,可穿戴眼镜100可通过扬声器输出声音信号并且通过麦克风获得反射的回声信号。可穿戴眼镜100可基于关于回声信号的信息确定用户是否穿戴着可穿戴眼镜100。
根据示范性实施例,可穿戴眼镜100可组合利用多个传感器测量到的多条信息来进一步准确地确定用户是否穿戴着可穿戴眼镜100。
当确定用户穿戴着可穿戴眼镜100时(S620,是),可穿戴眼镜100可获得到用户的运动信息,并且在操作S630中基于运动信息确定用户的运动状态。在操作S640中,可穿戴眼镜100可基于所确定的用户的运动状态来确定提供通知内容的方法。操作S630和S640分别对应于图5的操作S520和S530,从而将省略对其的详细描述。
另一方面,当确定用户未穿戴着可穿戴眼镜100时(S620,否),该过程结束,可穿戴眼镜100不提供通知内容,即使感测到通知事件的发生,可穿戴眼镜100也不提供通知内容。
图7根据示范性实施例图示了可穿戴眼镜用来检测通知事件的发生的方法的流程图。
在操作S710中,外部设备700可生成通知消息。通知消息可以是要广告给非指定数目的人的广告消息,或者仅针对可穿戴眼镜100的用户的消息。另外,根据示范性实施例,通知消息可以是与应用有关的消息。应用可以是预定的。
外部设备700可以是连接到可穿戴眼镜100的服务器300、连接到可穿戴眼镜100的移动终端200、连接到可穿戴眼镜100的可穿戴设备和另一人的设备中的至少一者。然而,外部设备700不限于此,而可以是可穿戴眼镜100外部的生成通知消息的任何设备。
在操作S720中,外部设备700可将所生成的通知消息发送给可穿戴眼镜100。外部设备700可经由短程通信、无线通信和移动通信中的至少一者来将所生成的通知消息发送给可穿戴眼镜100。
在操作S730中,当可穿戴眼镜100接收到通知消息时,可穿戴眼镜100可确定是否要阻止该通知消息。例如,可穿戴眼镜100的用户可利用可穿戴眼镜100或移动终端200阻止对与应用有关的推送消息的接收或者可阻止从特定用户接收的文本消息。应用可以是预定的并且特定用户可以是预定的。
当可穿戴眼镜100确定不阻止通知消息时(S730,否),可穿戴眼镜100可在操作S740中检测通知事件的发生。另一方面,当可穿戴眼镜100确定要阻止通知消息时(S730,是),该过程结束。
根据示范性实施例,可省略操作S730。例如,当从外部设备700接收到通知消息时,可穿戴眼镜100可确定已发生了通知事件。
图8根据示范性实施例图示了可穿戴眼镜通过从服务器接收通知消息来感测通知事件的发生的示例。
参考图8,可穿戴眼镜100可从新闻提供服务器800接收推送消息810。例如,可穿戴眼镜100可从新闻提供服务器800接收包括爆炸性新闻的推送消息810。例如,爆炸性新闻可以是“索契冬奥会,金妍儿,银牌!”。
在此情况下,可穿戴眼镜100可感测到用于显示爆炸性新闻内容的通知事件已发生(例如,“索契冬奥会,金妍儿,银牌!”)。
根据示范性实施例,可穿戴眼镜100可直接从新闻提供服务器800接收推送消息810。另外,可穿戴眼镜100可在主机设备(例如,移动终端200)位于短程通信半径内时从该主机设备接收推送消息810。推送消息随后可由可穿戴眼镜100根据上述过程之一来显示820。
图9根据另一示范性实施例图示了可穿戴眼镜通过从移动终端接收日程通知消息来感测通知事件的发生的示例。
参考图9,用户的日程信息910可被存储在连接到可穿戴眼镜100的移动终端200中。例如,用户可利用移动终端200登记日程信息910。或者,用户可利用计算机登记日程信息910并将日程信息910发送或以其他方式上传到移动终端200。用户可设定移动终端200以使得通知“晚7pm服药”的日程通知消息被可穿戴眼镜100输出。
当到7pm时,移动终端200可向可穿戴眼镜100发送通知服药的日程通知消息。日程通知消息可包括用于显示日程通知内容920的命令。
根据示范性实施例,移动终端200可经由短程通信(例如,蓝牙、WFD或NFC)向可穿戴眼镜100发送日程通知消息。
在此情况下,可穿戴眼镜100可感测到用于显示日程通知内容920(例如,“到服药的时候了”)的通知事件已发生。
图10根据另一示范性实施例图示了可穿戴眼镜通过经由移动终端接收文本消息来感测通知事件的发生的示例。
参考图10,移动终端200可从服务器300接收文本消息1010。服务器300可例如是消息服务器或移动通信服务器,但不限于此。
当接收到文本消息1010时,移动终端200可确定用户是否穿戴着可穿戴眼镜100。
根据示范性实施例,移动终端200可从可穿戴眼镜100请求温度信息、压力信息、虹膜扫描信息和倾斜信息、或者可基于其来进行确定的其他信息中的至少一者,移动终端200可从可穿戴眼镜100接收温度信息、压力信息、虹膜扫描信息和倾斜信息或者其他信息中的至少一者。移动终端200可基于温度信息、压力信息、虹膜扫描信息和倾斜信息或者其他信息中的至少一者确定用户是否穿戴着可穿戴眼镜100。例如,移动终端200可分析从可穿戴眼镜100接收的温度信息并且如果利用可穿戴眼镜100测量到的温度与体温相似(例如,36.5℃),则移动终端200可确定用户穿戴着可穿戴眼镜100。
根据示范性实施例,移动终端200可从可穿戴眼镜100请求位置信息并接收该位置信息。移动终端200可额外地基于将移动终端200的位置信息与可穿戴眼镜100的位置信息相比较的结果来确定用户是否穿戴着可穿戴眼镜100。在上述示例中,当温度与体温相似并且当移动终端200与可穿戴眼镜100之间的位置差异在阈值范围内时,移动终端200可确定携带着移动终端200的用户也穿戴着可穿戴眼镜100。
或者,根据示范性实施例,当除了利用其他请求的信息以外还经由短程通信(例如,蓝牙、WFD等等)找到可穿戴眼镜100时,移动终端200可确定用户穿戴着可穿戴眼镜100。
根据示范性实施例,当用户穿戴着可穿戴眼镜100时,移动终端200可向可穿戴眼镜100发送用于输出从服务器300接收的文本消息的命令,并且通知文本消息1010的到达的通知消息1020可被显示在显示器1030上。
在此情况下,可穿戴眼镜100可感测到用于显示通知文本消息1010的到达的通知消息1020(例如,“您有一条文本消息”)的通知事件已发生。
图11根据另一示范性实施例图示了可穿戴眼镜通过接收广告内容来感测通知事件的发生的示例。
根据示范性实施例,可穿戴眼镜100可经由短程通信从数字亭1100接收广告内容。例如,当可穿戴眼镜100位于数字亭1100的短程通信半径内时,可穿戴眼镜100可从数字亭1100接收移动优惠券广播。
根据示范性实施例,可穿戴眼镜100可经由移动终端200从数字亭1100接收广告内容(例如,移动优惠券)。根据另一示范性实施例,可穿戴眼镜100可直接从数字亭1100接收广告优惠券(例如,移动优惠券)。
可穿戴眼镜100可感测到用于显示从数字亭1100接收的广告内容1110的通知事件已发生。
以下,将详细描述可穿戴眼镜100获得用户的运动信息的操作。
图12根据示范性实施例图示了可穿戴眼镜用来获得用户的运动信息的方法的流程图。
在操作S1210中,可穿戴眼镜100可检测通知事件的发生。
操作S1210对应于图5A的操作S510,从而将省略对其的详细描述。
在操作S1220中,可穿戴眼镜100可利用至少一个传感器测量加速度信息、倾斜信息和位置信息中的至少一者。
根据示范性实施例,当可穿戴眼镜100检测到通知事件的发生时,可穿戴眼镜100可激活处于非活跃状态的至少一个传感器。可穿戴眼镜100可利用至少一个激活的传感器测量加速度信息、倾斜信息和位置信息中的至少一者。
例如,可穿戴眼镜100可利用加速度传感器测量可穿戴眼镜100的运动速度。替换地或额外地,可穿戴眼镜100可利用倾斜传感器测量可穿戴眼镜100的倾斜的变动。在此情况下,可穿戴眼镜100可基于可穿戴眼镜100的倾斜的变动确定穿戴着可穿戴眼镜100的用户是否在运动以及用户的运动量。
替换地或额外地,可穿戴眼镜100可利用位置传感器获得穿戴着可穿戴眼镜100的用户的位置信息。位置传感器的示例可包括全球定位系统(global positioning system,GPS)模块或Wi-Fi模块,但不限于此。
例如,可穿戴眼镜100可利用GPS或Wi-Fi定位系统(Wi-Fi positioning system,WPS)获得穿戴着可穿戴眼镜100的用户的位置信息。GPS是卫星导航系统,用以通过接收从卫星发送的信号来计算用户的当前位置。WPS是这样一种技术:终端接收从Wi-Fi接入点(access point,AP)发射的RF信号的参数(例如,MAC地址、信号强度等等)并且终端基于接收到的参数计算用户的位置。
在操作S1230中,可穿戴眼镜100可基于加速度信息、倾斜信息和位置信息中的至少一者来获得用户的运动信息,并且基于运动信息确定用户的运动状态。也就是说,可穿戴眼镜100可基于加速度信息、倾斜信息和位置信息中的至少一者来确定用户的运动状态。
例如,当用户在一段时间中以4km/h的平均速度运动时,可穿戴眼镜100可确定用户处于行走的运动状态。或者,当用户在一段时间中以20km/h的平均速度运动时,可穿戴眼镜100可确定用户处于骑自行车的运动状态。
或者,当在一段时间中用户的平均运动速度是0.0001km/h,并且用户在一段时间中在办公室中时,可穿戴眼镜100可确定处于在工作的运动状态。
根据示范性实施例,可穿戴眼镜100可利用图像传感器161获得用户的运动信息。例如,可穿戴眼镜100可基于利用图像传感器161获得的图像的变动来确定用户是处于移动状态还是处于休息状态。
在操作S1240中,可穿戴眼镜100可基于所确定的用户的运动状态来确定提供通知内容的方法。根据示范性实施例,可穿戴眼镜100可基于用户的运动状态确定提供通知内容的时间和提供通知内容的形式。操作S1240对应于图5的操作S530,从而将省略对其的详细描述。
在操作S1250中,可穿戴眼镜100可提供通知内容。
根据示范性实施例,可穿戴眼镜100可根据基于用户的运动状态确定的提供通知内容的时间和/或提供通知内容的形式来提供通知内容。在本说明书中,通知内容的提供可包括显示通知内容、输出通知内容、重放通知内容和/或将通知内容发送到外部设备。
例如,可穿戴眼镜100可基于用户的运动状态在当前时间或者在发生了特定事件的时间点提供通知内容。该特定事件可以是预定的。另外,可穿戴眼镜100可基于所确定的用户的运动状态来输出整个通知内容或者通知内容的一部分。
可穿戴眼镜100可基于用户的运动状态或者用户输入经由可穿戴眼镜100的显示器111或者经由外部可穿戴设备提供通知内容。
图13根据示范性实施例图示了可穿戴眼镜用来从外部设备获得用户的运动状态的方法的流程图。
在操作S1310中,可穿戴眼镜100可检测通知事件的发生。操作S1310对应于图5A的操作S510,从而将省略对其的详细描述。
在操作S1320中,可穿戴眼镜100可从外部设备1300请求用户的运动信息。外部设备1300可以是移动终端200或服务器300,但不限于此。
根据示范性实施例,可穿戴眼镜100可在检测到通知事件的发生时激活通信接口。可穿戴眼镜100可从外部设备1300请求用户的运动信息。根据示范性实施例,可穿戴眼镜100可将利用可穿戴眼镜100测量到的加速度信息、倾斜信息和位置信息发送到外部设备1300。
在操作S1330中,外部设备1300可获得可穿戴眼镜100的加速度信息、可穿戴眼镜100的位置信息和穿戴着可穿戴眼镜100的用户的生物计量信息中的至少一者。
根据示范性实施例,外部设备1300可从可穿戴眼镜100接收利用可穿戴眼镜100测量到的加速度信息、可穿戴眼镜100的位置信息等等。外部设备1300也可接收由可穿戴设备(例如,智能手表、假发、鞋等等)测量到的加速度信息或位置信息等等。
另外,当外部设备1300是穿戴着可穿戴眼镜100的用户的移动终端200时,外部设备1300可直接利用传感器测量可穿戴眼镜100的加速度和/或位置。
根据示范性实施例,外部设备1300可从连接到外部设备1300的至少一个可穿戴设备收集生物计量信息。例如,外部设备1300可接收由可穿戴设备(例如,智能手表、耳环、戒指、项链、眼镜、鞋、衣服等等)测量到的脉搏率信息、血压信息、心率信息、体温信息、出汗信息、呼吸率信息等等。
在操作S1340中,外部设备1300可基于加速度信息、位置信息和生物计量信息中的至少一者来分析用户的运动状态。也就是说,外部设备1300可基于加速度信息、位置信息和生物计量信息中的至少一者来确定用户的运动状态。
例如,当用户的平均脉搏率、平均呼吸率、出汗量和体温增大了一段时间时,外部设备1300可确定用户在锻炼。该时间段可以是预定的。或者,当用户逗留在家中一段时间并且用户的生物计量信息变化很小时,外部设备1300可确定用户处于在家休息的运动状态。当用户在公园中以4km/h的平均速度运动时,外部设备1300可确定用户处于在公园散步的运动状态。
在操作S1350中,外部设备1300可将用户的运动状态发送到可穿戴眼镜100。外部设备1300可经由短程通信、移动通信和无线通信的至少一者来将用户的运动状态发送给可穿戴眼镜100。例如,外部设备1300可将用户的运动状态信息、运动速度信息和位置信息发送给可穿戴眼镜100。在此情况下,在操作S1360中,可穿戴眼镜100可从外部设备1300获得用户的运动状态。
在操作S1370中,可穿戴眼镜100可基于用户的运动状态确定提供通知内容的方法。例如,可穿戴眼镜100可确定提供通知内容的时间和提供通知内容的形式。
在操作S1380中,可穿戴眼镜100可提供通知内容。例如,当用户处于散步的运动状态时,可穿戴眼镜100可输出通知内容的一部分,而当用户处于在家中休息的运动状态时,可输出整个通知内容。
操作S1370和S1380分别对应于图12的操作S1240和S1250,从而将省略对其的详细描述。
以下,将参考图14详细描述可穿戴眼镜100基于用户的运动状态确定提供通知内容的时间的操作。
图14根据示范性实施例图示了可穿戴眼镜用来基于用户的运动速度确定输出与通知事件相对应的内容的时间的方法的流程图。
在操作S1410中,可穿戴眼镜100可检测通知事件的发生。
在操作S1420中,可穿戴眼镜100可在检测到通知事件的发生时获得用户的运动信息。
在操作S1430中,可穿戴眼镜100可基于所获得的用户的运动信息确定用户的运动速度是否小于阈值速度。阈值速度可由用户或系统预设。阈值速度可例如基于用户的平均运动速度来确定。
例如,可穿戴眼镜100可确定用户的运动速度是否是4km/h,这是平均行走速度。
当用户的运动速度小于阈值速度时(S1430,是),可穿戴眼镜100在操作S1440中可确定输出通知内容。
例如,当用户的运动速度小于作为平均行走速度的4km/h时,可穿戴眼镜100可确定在当前时间输出通知内容。当前时间可以在从可穿戴眼镜100检测到通知事件的发生的时间点起的阈值时段内(例如,30秒内)。阈值时段可以是预定的。
在操作S1450中,可穿戴眼镜100可在当前时间输出通知内容。例如,当通知内容是视频内容或音频内容时,可穿戴眼镜100可在当前时间重放通知内容。当通知内容是静止图像内容或文本内容时,可穿戴眼镜100可在当前时间显示通知内容。
另一方面,当运动速度大于或等于阈值速度时(S1430,否)时,可穿戴眼镜100在操作S1460中可确定在不同的时间输出通知内容。不同时间可以是预设的,并且可以例如是以后的时间。
不同时间可指示预先设定的时间(例如,10pm)。或者,不同时间可指示发生了特定事件的时间。该特定事件可以是预定的。该特定事件可包括以下各项中的至少一者:接收请求输出通知内容的用户输入的事件、预设的时间经过的事件以及改变用户的运动状态的事件,但不限于此。
例如,可穿戴眼镜100可将输出通知内容的时间点确定为接收到请求输出通知内容的输入的时间点。该输入可以是预定的。另外,可穿戴眼镜100可将输出通知内容的时间点确定为用户的运动速度变成小于阈值速度的时间点。
在操作S1470中,可穿戴眼镜100可不在当前时间输出通知内容。替换地或额外地,可穿戴眼镜100可显示指示出发生了通知事件的指示符。
根据示范性实施例,当穿戴着可穿戴眼镜100的用户正以阈值速度或更高速度运动时,可穿戴眼镜100可不显示通知内容和/或可以显示指示出通知事件已发生的简单指示符以免阻碍用户的视野或者使用户分心。将参考图15A和15B更详细描述可穿戴眼镜100基于用户的运动状态确定提供通知内容的时间的操作。
图15A和15B根据示范性实施例图示了用于描述可穿戴眼镜基于用户的运动速度调整输出与通知事件相对应的内容的时间和方法的示例的图。
参考图15A,在用户1510正穿过人行横道时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可感测到用于显示新闻内容(例如,“索契冬奥会,金妍儿,银牌!”)的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户1510的运动信息并且确定用户1510的运动速度是否小于阈值速度(例如,2km/h)。例如,在用户1510穿过人行横道时,用户1510的运动速度可以是3km/h。在此情况下,可穿戴眼镜100可确定不在当前时间输出新闻内容,因为用户1510的运动速度(例如,3km/h)等于或大于阈值速度(2km/h)。可穿戴眼镜100可显示指示通知事件的发生的简单指示符1511。
根据示范性实施例,可穿戴眼镜100可确定不在用户1510正穿过人行横道时显示新闻内容,而是可以显示简单指示符1511,从而使对用户1510的视野的阻碍达到最低限度。
参考图15B,当穿戴着可穿戴眼镜100的用户1520正在家中坐着休息时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可感测到用于显示新闻内容1521的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容1521之前可获得用户1520的运动信息并且确定用户1520的运动速度是否小于阈值速度(例如,2km/h)。例如,在用户1520在家中休息时,用户1520的运动速度可以是大约0km/h。在此情况下,可穿戴眼镜100可确定在当前时间输出新闻内容1521,因为用户1520的运动速度(例如,0km/h)小于阈值速度(2km/h)。
可穿戴眼镜100可以以AR、MR或VR的形式显示新闻内容1521(例如,“索契冬奥会,金妍儿获得银牌!花样滑冰运动员金妍儿在索契冬奥会赢得了宝贵的银牌!”)。在此情况下,即使用户1520的视野可受到阻碍,用户1520也可经由可穿戴眼镜100安全地查看新闻内容1521。
以下,将参考图16详细描述可穿戴眼镜100基于用户的运动信息确定通知内容的输出形式的操作。
图16根据示范性实施例图示了基于用户的运动信息确定与通知事件相对应的内容的输出形式的方法的流程图。
在操作S1610中,可穿戴眼镜100可检测通知事件的发生。在操作S1620中,可穿戴眼镜100可获得用户的运动信息。操作S1610和S1620分别对应于图14的操作S1410和S1420,从而将省略对其的详细描述。
在操作S1630中,可穿戴眼镜100可确定用户的运动速度是否小于第一阈值速度。第一阈值速度可以是用于确定是否输出内容的参考速度。第一阈值速度可由用户或由系统预设。
例如,当第一阈值速度是10km/h时,可穿戴眼镜100可基于用户的运动信息确定用户的运动速度是否小于10km/h。
当用户的运动速度等于或大于第一阈值速度时(S1630,否),可穿戴眼镜100在操作S1640中可不在当前时间输出通知内容。例如,当穿戴着可穿戴眼镜100的用户正在骑摩托车时,用户的运动速度可等于或大于第一阈值速度。可穿戴眼镜100可不输出通知内容以免阻碍用户的视野。
另一方面,当用户的运动速度小于第一阈值速度时(S1630,是),可穿戴眼镜100在操作S1650中可确定用户的运动速度是否在第一阈值速度和第二阈值速度之间。第二阈值速度可以是用于确定是输出整个通知内容还是通知内容的一部分的参考速度。第二阈值速度可由用户或系统预设。另外,根据示范性实施例,第一阈值速度和第二阈值速度可基于用户的通常运动速度来确定。
根据示范性实施例,当第一阈值速度是10km/h,并且第二阈值速度是2km/h时,可穿戴眼镜100可基于用户的运动信息确定用户的运动速度是否在10km/h和2km/h之间。
当用户的运动速度在第一阈值速度和第二阈值速度之间时(S1650,是),可穿戴眼镜100在操作S1660中可输出通知内容的一部分。通知内容的一部分可包括通知内容的关键字、概要信息和标题中的至少一者,但不限于此。
例如,当用户的运动速度在第一阈值速度和第二阈值速度之间时,可穿戴眼镜100可利用通知内容的元数据来提取通知内容的关键字、概要信息和标题中的至少一者。然后,可穿戴眼镜100可提供通知内容的关键字、概要信息和标题中的至少一者。
另一方面,当用户的运动速度不在第一阈值速度和第二阈值速度之间时(S1650,否),在操作S1670中,可穿戴眼镜100可在用户的运动速度小于第二阈值速度时输出整个通知内容。
例如,当穿戴着可穿戴眼镜100的用户正在家中读书时,用户的运动速度可小于第二阈值速度。在此情况下,可穿戴眼镜100可输出整个通知内容。
以下,将参考图17至图19详细描述可穿戴眼镜100基于用户的运动信息确定通知内容的输出形式的示例。
图17至图19根据示范性实施例图示了用于描述可穿戴眼镜基于用户的运动速度提供与通知事件相对应的内容的一部分或者整个内容的示例的图。
将参考图17描述穿戴着可穿戴眼镜100的用户在骑自行车的示例。
在操作S1710中,可穿戴眼镜100可从服务器300接收包括新闻内容1000的推送消息。
在操作S1720中,可穿戴眼镜100可基于用户的运动信息确定用户的运动速度是否大于第一阈值速度(例如,15km/h)。由于用户在骑自行车,所以用户的平均运动速度可以是18km/h。
在操作S1730中,可穿戴眼镜100可确定不输出(1700)新闻内容1000,因为用户的运动速度(18km/h)大于第一阈值速度(例如,15km/h)。
对于图18,将描述穿戴着可穿戴眼镜100的用户正带着狗散步的示例。
在操作S1810中,可穿戴眼镜100可从服务器300接收包括新闻内容1000的推送消息。
在操作S1820中,可穿戴眼镜100可基于用户的运动信息确定用户的运动速度是否在第一阈值速度(例如,15km/h)和第二阈值速度(例如,2km/h)之间。由于用户在散步,所以用户的平均运动速度可以是2.5km/h。
在操作S1830中,由于用户的运动速度(2.5km/h)在第一阈值速度(例如,15km/h)和第二阈值速度(例如,2km/h)之间,所以可穿戴眼镜100可确定输出新闻内容1000的一部分。例如,可穿戴眼镜100可从新闻内容1000中提取新闻提要1800(例如,“金妍儿,银牌!”),并且以AR的形式提供新闻提要1800。
对于图19,将描述穿戴着可穿戴眼镜100的用户在办公室中工作的示例。
在操作S1910中,可穿戴眼镜100可从服务器300接收包括新闻内容1000的推送消息。
在操作S1920中,可穿戴眼镜100可基于用户的运动信息确定用户的运动速度是否小于第二阈值速度(例如,2km/h)。由于用户在办公室中坐在桌边,所以用户的运动速度可以是0km/h。
在操作S1930中,由于用户的运动速度(0km/h)小于第二阈值速度(例如,2km/h),所以可穿戴眼镜100可确定输出整个新闻内容1000。例如,可穿戴眼镜100可以以AR形式提供新闻内容1000中包括的整个新闻文章1900。
图20根据示范性实施例图示了可穿戴眼镜用来在发生了特定事件时输出未输出内容的方法的流程图。
在操作S2010中,可穿戴眼镜100可检测通知事件的发生。
在操作S2020中,可穿戴眼镜100可在检测到通知事件的发生时获得用户的运动信息。
在操作S2030中,可穿戴眼镜100可基于用户的运动信息确定用户的运动速度是否小于阈值速度。例如,可穿戴眼镜100可确定用户的运动速度是否小于4km/h,这是平均行走速度。
当用户的运动速度等于或大于阈值速度时(S2030,否),可穿戴眼镜100可不输出通知内容或者可输出通知内容的一部分。这里,根据示范性实施例,当用户的运动速度等于或大于阈值速度时,可穿戴眼镜100可确定在发生了特定事件的时间点输出通知内容。该特定事件可以是预定的。
该特定事件可包括以下各项中的至少一者:接收用于请求输出通知内容的用户输入的事件、预设的时间经过的事件以及改变用户的运动状态的事件,但不限于此。例如,可穿戴眼镜100可将用户的运动速度变得小于阈值速度的时间点确定为输出通知内容的时间。
在操作S2050中,可穿戴眼镜100可将未输出通知内容或者包括输出的一部分的通知内容存储在未输出通知内容的列表中。
在操作S2060中,可穿戴眼镜100可确定是否发生了特定事件。当没有发生特定事件时(S2060,否),可穿戴眼镜100可继续不输出通知内容。
另一方面,当发生了特定事件时(S2060,是),可穿戴眼镜100可在操作S2070中输出整个通知内容。例如,当改变用户的运动状态的事件发生时,可穿戴眼镜100可输出尚未输出的整个通知内容或者可输出已输出的部分的剩余部分。
当通知内容是视频内容或音频内容时,可穿戴眼镜100可重放通知内容。当通知内容是静止图像内容或文本内容时,可穿戴眼镜100可在当前时间显示通知内容。
以下,将参考图21详细描述可穿戴眼镜100在发生了特定事件时输出未输出内容的操作。
图21图示出可穿戴眼镜基于用户的运动变化事件输出与先前发生的通知事件相对应的内容的示例。
参考图21的2110,在穿戴着可穿戴眼镜100的用户正在骑自行车时,可穿戴眼镜100可从服务器300接收包括新闻内容2121的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容2121的通知事件已发生。
可穿戴眼镜100可基于用户的运动信息确定用户的运动速度是否大于阈值速度(例如,15km/h)。用户在骑自行车,从而用户的平均运动速度可以是18km/h。
由于用户的运动速度(18km/h)大于阈值速度(例如,15km/h),所以可穿戴眼镜100可不在当前时间输出新闻内容2121(2111),并且可确定在特定事件发生时输出新闻内容2121。特定事件可以是用户的运动速度变成2km/h或更小的时间点。
参考图21的2120,当穿戴着可穿戴眼镜100的用户停止了骑自行车时,可穿戴眼镜100可检测到使得运动速度变成2km/h的特定事件已发生。
可穿戴眼镜100可在感测到特定事件时提供未输出的新闻内容2121。例如,可穿戴眼镜100可以以AR的形式显示新闻内容2121。
根据示范性实施例,可穿戴眼镜100在用户的运动速度变成特定水平以下时提供通知内容,从而防止用户被暴露于危险情形。
图22根据示范性实施例图示了用于描述可穿戴眼镜使用的基于用户的特定输入来改变内容的输出形式的方法的图。
在操作S2210中,可穿戴眼镜100可检测通知事件的发生。
在操作S2220中,可穿戴眼镜100可在检测到通知事件的发生时获得用户的运动信息。
在操作S2230中,可穿戴眼镜100可基于用户的运动信息输出通知内容的一部分。例如,可穿戴眼镜100可在确定用户在街上行走时输出通知内容的一部分。
在操作S2240中,可穿戴眼镜100可确定是否接收到用于请求输出整个通知内容的第一用户输入。
根据示范性实施例,用于请求输出整个内容的第一用户输入的示例可以变化。例如,第一用户输入可以是运动输入、触摸输入、键输入、语音输入和多重输入中的至少一者,但不限于此。
根据示范性实施例,用于请求输出整个通知内容的第一用户输入可以是预设的。例如,抬头运动可被设定为用于请求输出整个内容的第一用户输入。
当接收到用于请求输出整个通知内容的第一用户输入时(S2240,是),可穿戴眼镜100可在操作S2250中响应于第一用户输入而输出整个通知内容。例如,当通知内容是视频内容或音频内容时,可穿戴眼镜100可重放整个通知内容。当通知内容是静止图像内容或文本内容时,可穿戴眼镜100可以以AR的形式显示整个通知内容。
另一方面,当未接收到用于请求输出整个通知内容的第一用户输入时(S2240,否),可穿戴眼镜100在操作S2260中可确定是否接收到了用于请求阻止通知内容的一部分的输出的第二用户输入。
根据示范性实施例,用于请求阻止通知内容的部分输出的第二用户输入的示例可以变化。例如,第二用户输入可以是运动输入、触摸输入、键输入、语音输入和多重输入中的至少一者,但不限于此。
根据示范性实施例,可以是预设用于请求阻止通知内容的部分输出的第二用户输入。例如,用户可将向左和向右摇头的摇晃运动设定为用于请求阻止通知内容的部分输出的第二用户输入。
当接收到用于请求阻止通知内容的一部分的输出的第二用户输入时(S2260,是),可穿戴眼镜100在操作S2270中可根据第二用户输入阻止通知内容的部分输出。在本说明书中,“阻止输出”可指示出输出条件结束。例如,当可穿戴眼镜100阻止通知内容的输出时,在用户的眼睛前方显示的通知内容可消失或者声音信号可不再被输出。
另一方面,当未接收到用于请求阻止通知内容的一部分的输出的第二用户输入时(S2260,否),可穿戴眼镜100在操作S2280中可等待一定量的时间过去。当在一定时间段过去之后没有接收到额外的用户输入时,可穿戴眼镜100在操作S2270中可阻止通知内容的该部分的输出。例如,当在输出了通知内容的一部分之后没有接收到请求输出整个通知内容的第一用户输入时,可穿戴眼镜100可不再输出通知内容的一部分。也就是说,用户可决定输出整个内容是可接受的,或者用户可决定迅速阻止通知的该部分的输出或者决定不采取动作,在此情况下通知的该部分的输出在一定时间段过去之后被阻止。
以下,将参考图23和图24描述可穿戴眼镜100基于用户的特定输入来修改内容的输出形式的示例。
图23和图24图示了用于描述可穿戴眼镜基于用户的抬头运动来输出整个内容的示例的图。对于图23和图24,将描述用于请求输出整个内容的用户输入是抬头运动的示例。
参考图23的2310,在穿戴着可穿戴眼镜100的用户正穿过人行横道时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户的运动信息。例如,可穿戴眼镜100可如前所述确定用户正以3km/h的速度运动。
由于用户在运动,所以可穿戴眼镜100可输出新闻内容的一部分2311以免阻碍用户的视野。例如,可穿戴眼镜100可从新闻内容中提取新闻提要并且输出提取的新闻提要。在此情况下,用户可在穿过人行横道的同时查看新闻内容的新闻提要。
根据示范性实施例,在查看新闻内容的新闻提要之后,为了观看整个新闻内容2321,用户可在完全穿过人行横道之后停下来并仰望天空。
在此情况下,可穿戴眼镜100可在输出新闻内容的部分2311(例如,新闻提要)的同时感测用户的抬头运动2300。例如,如前所述,可穿戴眼镜100可经由倾斜传感器、加速度传感器、陀螺仪传感器等等来感测用户的抬头运动2300。
参考图23的2320,可穿戴眼镜100可根据用户的抬头运动2300输出整个新闻内容2321。在此情况下,用户可安全地查看整个新闻内容2321。
根据另一示范性实施例,为了防止不顾用户的意图输出整个新闻内容2321,可穿戴眼镜100可仅在抬头运动2300的时间段等于或大于阈值时间时才输出整个新闻内容2321。例如,可穿戴眼镜100可在感测到用户的抬头运动2300时测量抬头运动2300的时间段。可穿戴眼镜100可在抬头运动2300的时间段等于或大于阈值时间(例如,两秒)时输出整个新闻内容2321。也就是说,为了防止在例如用户仰望天空中的飞机或鸟时无意中输出整个内容,可穿戴眼镜100可检查以确保抬头运动2400是用于观看整个内容的有意运动。
参考图24的2410,在穿戴着可穿戴眼镜100的用户正穿过人行横道时,可穿戴眼镜100可接收包括广告内容的推送消息。在此情况下,可穿戴眼镜100可感测到用于显示广告内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示广告内容之前可获得用户的运动信息。例如,可穿戴眼镜100可确定用户正以3km/h的速度运动。
由于用户在运动,所以为了不太阻碍用户的视野,可穿戴眼镜100可输出广告内容的一部分。例如,可穿戴眼镜100可显示广告内容的缩略图像2411。在此情况下,用户可在穿过人行横道的同时确定接收到了广告内容。
根据示范性实施例,用户可在完全穿过人行横道之后停下来并仰望天空以便在查看广告内容的缩略图2411之后观看整个广告内容2421。在此情况下,可穿戴眼镜100可在输出广告内容的一部分(例如,缩略图像2411)的同时感测到抬头运动2400。例如,可穿戴眼镜100可利用倾斜传感器、加速度传感器、陀螺仪传感器等等来感测抬头运动2400。
参考图24的2420,可穿戴眼镜100可根据用户的抬头运动2400输出整个广告内容2421。在此情况下,用户可以在安全的条件中查看整个广告内容2421。
根据另一示范性实施例,为了防止不顾用户的意图输出整个广告内容2421,可穿戴眼镜100可仅在抬头运动2400的时间段等于或大于阈值时间(例如,三秒)时才输出整个广告内容2421。也就是说,为了防止在例如用户仰望天空中的飞机或鸟时无意中输出整个内容,可穿戴眼镜100可检查以确保抬头运动2400是用于观看整个内容的有意运动。
图25图示了用于描述输出了内容的一部分的可穿戴眼镜基于用户输入阻止内容的输出的示例的图。对于图25,将描述用于请求阻止内容的输出的用户输入是摇晃运动的示例。
参考图25的2510,在穿戴着可穿戴眼镜100的用户正穿过人行横道时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户的运动信息。例如,可穿戴眼镜100可确定用户正以3km/h的速度运动。
由于用户在运动,所以为了不太阻碍用户的视野,可穿戴眼镜100可输出新闻内容的一部分2511(例如,新闻提要)。用户可在穿过人行横道的同时查看新闻内容的新闻提要。
根据示范性实施例,在查看新闻内容的新闻提要之后,如果用户不希望观看新闻内容,则用户可向左和向右摇头。在此情况下,可穿戴眼镜100可在输出新闻内容的部分2511(例如,新闻提要)的同时感测用户的摇晃运动2500。例如,可穿戴眼镜100可如前所述利用倾斜传感器、加速度传感器、陀螺仪传感器等等感测到向左和向右摇头特定次数(例如,两次)的摇晃运动2500。
参考图25的2520,可穿戴眼镜100可基于用户的摇晃运动2500而不再显示新闻内容的部分2511(例如,新闻提要)。根据示范性实施例,可穿戴眼镜100可将新闻内容添加到未输出内容的列表,如前所述。
虽然参考图23至图25运动输入被描述为用户输入的示例,但实施例不限于此。例如,用户可向可穿戴眼镜100输入用于请求输出整个通知内容的语音或者用于请求阻止通知内容的输出的语音或者可选择可穿戴眼镜100中包括的按钮来请求或阻止输出。
图26根据示范性实施例图示了可穿戴眼镜用来突出显示与通知事件相对应的内容中的关键字的方法的流程图。
在操作S2610中,可穿戴眼镜100可检测通知事件的发生。
在操作S2620中,可穿戴眼镜100可在检测到通知事件的发生时获得用户的运动信息。
在操作S2630中,可穿戴眼镜100可基于用户的运动信息确定突出显示通知内容中的关键字。
例如,基于用户的运动信息,当用户的运动速度等于或大于阈值速度(例如,4km/h)时,可穿戴眼镜100可从通知内容中提取关键字。根据示范性实施例,关于关键字的信息可被存储在通知内容的元数据中。
根据示范性实施例,可穿戴眼镜100可突出显示通知内容中的关键字。例如,可穿戴眼镜100可调整关键字的大小或颜色或者可为关键字加下划线。将参考图27更详细描述可穿戴眼镜100突出显示通知内容中的关键字的操作。
图27根据示范性实施例图示了用于描述可穿戴眼镜基于用户的运动信息突出显示内容中的关键字的示例的图。
参考图27的2700-1,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户的运动信息。另外,如果在一段时间中用户的平均运动速度是0.0001km/h并且用户在一段时间中在办公室中,则可穿戴眼镜100可确定用户正坐在椅子上工作。该时间段可以是预定的。
当用户正坐在椅子上工作时,由于即使用户的视野被阻碍,此情形也不危险,所以可穿戴眼镜100可在当前时间输出从服务器300接收的整个新闻内容2710(例如,“在索契冬奥会中,金妍儿获得了70.2分,仅比金牌得主少0.6分,很遗憾只获得了银牌。”)。
参考图27的2700-2,在穿戴着可穿戴眼镜100的用户正在散步时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户的运动信息。例如,可穿戴眼镜100可确定用户以3km/h的平均速度运动了一段时间。
当用户在以阈值速度(例如,2km/h)或更大速度运动时,由于用户不能够专注于整个新闻内容2710(例如,“在索契冬奥会中,金妍儿获得了70.2分,仅比金牌选手少0.6分,很遗憾只获得了银牌。”),所以可穿戴眼镜100可提取新闻内容中包括的关键字并突出显示关键字。
例如,可穿戴眼镜100可从新闻内容中提取“金妍儿”、“索契冬奥会”和“银牌”作为关键字并且调整“金妍儿”、“索契冬奥会”和“银牌”的大小、粗细和颜色。
图28根据示范性实施例图示了可穿戴眼镜用来调整与通知事件相对应的内容的透明度的方法的流程图。
在操作S2810中,可穿戴眼镜100可在通知事件已经发生时获得用户的运动信息。
在操作S2820中,可穿戴眼镜100可基于用户的运动信息确定穿戴着可穿戴眼镜100的用户是否在驾驶。
根据示范性实施例,可穿戴眼镜100可利用可穿戴眼镜100中包括的加速度传感器来测量用户的运动速度。如果用户正以80km/h运动,则可穿戴眼镜100可确定用户在驾驶。
根据示范性实施例,可穿戴眼镜100可基于从连接到可穿戴眼镜100的移动终端200或者汽车中包括的导航设备接收的加速度信息来确定用户是否在驾驶。
根据示范性实施例,当用户将可穿戴眼镜100的操作模式设定为导航模式时,可穿戴眼镜100可确定用户正在驾驶。
在操作S2830中,当确定用户正在驾驶时,可穿戴眼镜100可设定通知内容的透明度。例如,当确定用户正在驾驶时,可穿戴眼镜100可通过将通知内容的透明度设定为50%来显示通知内容。
根据示范性实施例,可穿戴眼镜100可基于驾驶速度调整通知内容的透明度。例如,可穿戴眼镜100可随着驾驶速度增大而增大通知内容的透明度以变得更透明。
图29根据示范性实施例图示了当用户在驾驶时基于用户的速度信息来调整内容的透明度的可穿戴眼镜的示例的图。
参考图29的2910,穿戴着可穿戴眼镜100的用户可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户的运动信息。例如,可穿戴眼镜100可确定在一段时间期间用户的平均运动速度是0km/h。该时间段可以是预定的。
由于用户处于静止状态,所以可穿戴眼镜100可将通知内容的透明度设定到0%,从而显示不透明的新闻内容2911。
参考图29的2920,另一方面,在穿戴着可穿戴眼镜100的用户正在驾驶时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户的运动信息。例如,可穿戴眼镜100可确定在一段时间期间用户的平均运动速度是80km/h并且确定用户正在驾驶。
由于用户处于驾驶状态,所以可穿戴眼镜100可将新闻内容的透明度设定到50%,并且显示半透明的新闻内容2921。
根据示范性实施例,可穿戴眼镜100可调整通知内容的透明度以防止阻碍正在驾驶的用户的视野。
图30根据示范性实施例图示了用于描述可穿戴眼镜用来基于环境信息确定输出信号的形式的方法的图。
在操作S3010中,可穿戴眼镜100可检测通知事件的发生。
在操作S3020中,可穿戴眼镜100可获得关于从可穿戴眼镜100起的特定距离内的环境的环境信息。该特定距离可以是预定的。环境信息可包括关于在从可穿戴眼镜100起的特定距离内生成的外部声音的信息和关于利用图像传感器161获得的外部图像的信息中的至少一者。
例如,可穿戴眼镜100可利用图像传感器161捕捉周围事物的图像。图像传感器161可被安装成当用户穿戴着可穿戴眼镜100时在用户的眼睛附近以便捕捉与用户的眼睛识别出的图像相似的图像。可穿戴眼镜100可分析捕捉的图像以获得关于外部图像的信息。例如,可穿戴眼镜100可获得捕捉的图像中包括的物体信息、边缘信息、氛围信息和颜色信息。
可穿戴眼镜100可经由麦克风检测周围声音。可穿戴眼镜100可分析检测到的周围声音以获得外部声音信息。例如,可穿戴眼镜100可获得关于周围噪声的量的信息、关于是否有多个语音的信息等等。
可穿戴眼镜100也可获得关于从存在于短程通信的半径内的穿戴着可穿戴眼镜100的用户的另一可穿戴设备起或者从移动终端200起的特定距离内的环境的环境信息。例如,当移动终端200通过分析利用项链捕捉的图像而获得了关于外部图像的信息时,可穿戴眼镜100可从移动终端200接收关于外部图像的信息。
另外,可穿戴眼镜100可从移动终端200或手表接收关于利用移动终端200或手表获得的外部声音的信息。
在操作S3030中,可穿戴眼镜100可通过考虑环境信息来确定通知内容的输出信号形式。
根据示范性实施例,可穿戴眼镜100可通过考虑环境信息来确定以音频信号和视频信号中的至少一者的形式提供通知内容。例如,当周围噪声的水平等于或大于阈值或者检测到多个语音时,可穿戴眼镜100可确定以视频信号的形式输出通知内容。另外,当从捕捉的图像中检测到多于特定数目的边缘时,可穿戴眼镜100可确定以音频信号的形式输出通知内容。该特定数目可以是预定的数目。
在操作S3040中,可穿戴眼镜100可以按所确定的输出信号形式输出通知内容。将参考图31和图32来描述此操作。
图31和图32根据示范性实施例图示了示出可穿戴眼镜基于外部声音信息调整输出信号的形式的示例的图。
参考图31的3110,在穿戴着可穿戴眼镜100的用户正在等列车时,可穿戴眼镜100可从服务器300接收包括新闻视频内容3101的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻视频内容3101的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻视频内容3101之前可获得用户的运动信息。例如,可穿戴眼镜100可确定在一段时间中用户的平均运动速度是0km/h并且确定用户处于静止状态。
由于用户处于静止状态,所以可穿戴眼镜100可确定输出新闻视频内容3101。可穿戴眼镜100还可包括关于从其起的特定距离内的环境的信息。例如,可穿戴眼镜100可激活麦克风来检测周围声音。由于周围声音的水平等于阈值或更小(例如,70dB),所以可穿戴眼镜100可重放新闻视频内容3101。
参考图31的3120,地铁列车正进入月台,从而周围声音的水平(例如,85dB)可大于阈值(例如,70dB)。在此情况下,可穿戴眼镜100可将新闻视频内容3101的音频信号转换成文本信号并且显示该文本信号。
例如,可穿戴眼镜100可基于话音到文本(speech to text,STT)技术将新闻视频内容3101中包括的语音转换成文本,从而生成与新闻视频内容3101相对应的抄录3102。在本说明书中,抄录可以指的是包括从话音转换的文本的记录。
根据示范性实施例,当周围声音等于或大于阈值时,可穿戴眼镜100可提供与音频内容相对应的抄录,以使得用户可从视觉上识别通知内容。
参考图32的3210,在穿戴着可穿戴眼镜100的用户正坐在公园中读书时,可穿戴眼镜100可从服务器300接收包括新闻视频内容3201的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻视频内容3201的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻视频内容3201之前可获得用户的运动信息。例如,可穿戴眼镜100可确定在一段时间期间用户的平均运动速度是0km/h并且确定用户处于静止状态。
由于用户处于静止状态,所以可穿戴眼镜100可确定输出新闻视频内容3201。可穿戴眼镜100还可包括关于从其起的特定距离内的环境的环境信息。例如,可穿戴眼镜100可激活麦克风来检测周围声音。由于周围声音的水平等于阈值或更小(例如,70dB),所以可穿戴眼镜100可重放新闻视频内容3201。
参考图32的3220,由于穿戴着可穿戴眼镜100的用户正与另一人交谈,所以可穿戴眼镜可检测到多个语音。当检测到多个语音时,如果HMS装置100重放新闻视频内容3201,则该重放可打扰交谈,从而HMS装置100可将新闻视频内容3201的音频信号转换成文本信号并且显示该文本信号。例如,可穿戴眼镜100可基于STT技术将新闻视频内容3201中包括的语音转换成文本3202并显示文本3202。
图33根据示范性实施例图示了可穿戴眼镜用来基于外部图像信息确定与通知事件相对应的内容的输出形式的方法的流程图。
在操作S3310中,可穿戴眼镜100可检测通知事件的发生。
在操作S3320中,可穿戴眼镜100可利用可穿戴眼镜100中包括的图像传感器161获得关于外部图像的信息。
关于外部图像的信息可包括关于外部图像的变动的变动信息、外部图像的颜色信息和关于外部图像中包括的物体的物体信息中的至少一者,但不限于此。
根据示范性实施例,可穿戴眼镜100可通过分析利用图像传感器161捕捉的外部图像来获得关于外部图像的信息。
根据另一示范性实施例,可穿戴眼镜100可在将捕捉的外部图像发送到移动终端200或服务器300的同时请求分析外部图像。可穿戴眼镜100可从移动终端200或服务器300接收外部图像的变动信息、外部图像的颜色信息和关于外部图像中包括的物体的物体信息中的至少一者。
在操作S3330中,可穿戴眼镜100可基于关于外部图像的信息来确定通知内容的输出形式。
根据示范性实施例,可穿戴眼镜100可基于关于外部图像的信息来确定以音频信号和视频信号中的至少一者提供通知内容。例如,当从捕捉的图像中检测到比边缘的阈值数目更多的边缘或者捕捉的图像的变动等于或大于阈值时,可穿戴眼镜100可确定以音频信号的形式输出通知内容。边缘的阈值数目可以是预设的。
根据示范性实施例,可穿戴眼镜100可基于关于外部图像的信息确定输出通知内容的一部分或整个通知内容。例如,当在捕捉的图像中检测到比阈值数目更多的边缘或者捕捉的图像的变动等于或大于阈值时,可穿戴眼镜100可确定输出通知内容的一部分。通知内容的一部分可包括通知内容的关键字、概要信息和标题中的至少一者,但不限于此。
在操作S3340中,可穿戴眼镜100可以按所确定的输出形式输出通知内容。例如,可穿戴眼镜100可以按音频信号和视频信号中的至少一者的形式提供通知内容。可穿戴眼镜100可首先输出通知内容的一部分,然后可在接收到用于输出整个通知内容的用户输入时输出整个通知内容。
将参考图34详细描述可穿戴眼镜100基于关于外部图像的信息以不同形式输出通知内容的操作。
图34根据示范性实施例图示了可穿戴眼镜基于外部图像信息调整输出信号的形式的示例。
参考图34的3410,在穿戴着可穿戴眼镜100的用户停下来仰望天空时,可穿戴眼镜100可从服务器300接收包括新闻内容3401的推送消息。可穿戴眼镜100可获得关于外部图像的信息。例如,可穿戴眼镜100可捕捉天空图像3411并分析天空图像3411。由于作为分析的结果在天空图像3411中有少于阈值数目的边缘,所以可穿戴眼镜100可将新闻内容3401显示为视频信号。
参考图34的3420,在穿戴着可穿戴眼镜100的用户正在有许多人的公共场所中行走时,可穿戴眼镜100可从服务器300接收包括新闻内容3401的推送消息。可穿戴眼镜100可获得关于外部图像的信息。例如,可穿戴眼镜100可捕捉公共场所图像3421并分析公共场所图像3421。
作为分析的结果,在公共场所图像3421中有多于阈值数目的边缘,从而可穿戴眼镜100可将新闻内容3401显示为音频信号3402。
根据示范性实施例,如果通过用户的眼睛观看的外部图像是复杂的,则用户难以从视觉上识别通知内容,从而可穿戴眼镜100可将通知内容提供为音频信号而不是视频信号。
图35根据示范性实施例图示了可穿戴眼镜用来基于外部图像的变动信息确定是否输出通知内容的方法的流程图。
在操作S3510中,可穿戴眼镜100可检测通知事件的发生。
在操作S3520中,可穿戴眼镜100可在检测到通知事件的发生时获得关于外部图像的变动信息。关于外部图像的变动信息可指示关于用户观察到的外部图像的变化的程度的信息。
根据示范性实施例,可穿戴眼镜100可利用图像传感器161获得多个外部图像。可穿戴眼镜100可通过比较在一段时间中获得的多个外部图像的各个帧来计算外部图像中的变动。例如,当穿戴着可穿戴眼镜100的用户在运动时,可穿戴眼镜100计算出的外部图像中的变动可大于当穿戴着可穿戴眼镜100的用户处于静止状态时外部图像中的变动。
根据示范性实施例,可穿戴眼镜100可在将捕捉的外部图像发送到移动终端200或服务器300的同时请求分析外部图像。可穿戴眼镜100可从移动终端200或服务器300接收外部图像的变动信息。
在操作S3530中,可穿戴眼镜100可确定外部图像的变动是否小于阈值。
例如,可穿戴眼镜100可确定在第n秒获得的第一帧与在第n+1秒获得的第二帧之间的差异是否小于阈值(例如,30%)。
当外部图像的变动小于阈值时(S3530,是),可穿戴眼镜100在操作S3540中可确定输出通知内容。可穿戴眼镜100可在当前时间输出通知内容。
例如,当用户的运动速度小于阈值速度时或者如果用户的注视不是易于分心的,则外部图像的变动可小于阈值。在此情况下,即使当输出通知内容时,用户也可不处于危险中,从而,可穿戴眼镜100可确定输出通知内容。
另一方面,当外部图像的变动等于或大于阈值时(S3530,否),在操作S3550中,可穿戴眼镜100可不输出通知内容,并且可确定显示指示通知事件的发生的指示符。
例如,当外部图像的变动等于或大于阈值时,可穿戴眼镜100可不显示通知内容或者可显示指示出通知事件的发生的简单指示符以不阻碍用户的视野。将参考图36详细描述可穿戴眼镜100基于外部图像的变动信息确定是否输出通知内容的操作。
图36图示了可穿戴眼镜基于外部图像的变动信息改变与通知事件相对应的内容的输出形式的示例。
参考图36的3600-1,在穿戴着可穿戴眼镜100的用户正穿过人行横道时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100可在显示新闻内容之前获得外部图像的变动信息,并且确定外部图像的变动是否小于阈值。例如,当用户正在穿过人行横道时,可穿戴眼镜100可获得人行横道周围的周围图像3610的变动图像。在此情况下,由于人行横道周围的周围图像3610的变动等于或大于阈值,所以可穿戴眼镜100可确定不在当前时间输出新闻内容。可穿戴眼镜100可显示指示通知事件的发生的简单指示符3611。
根据示范性实施例,可穿戴眼镜100可不在用户正穿过人行横道时显示新闻内容,而是可以显示指示符3611,从而使对用户的视野的阻碍达到最低限度。
参考图36的3600-2,在穿戴着可穿戴眼镜100的用户正坐着看墙时,可穿戴眼镜100可从服务器300接收包括新闻内容3621的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容3621的通知事件已发生。
根据示范性实施例,可穿戴眼镜100可在显示新闻内容3621之前获得外部图像的变动信息,并且确定外部图像的变动是否小于阈值。例如,由于用户在家中看墙,所以可穿戴眼镜100可获得墙壁图像3610的变动信息。在此情况下,可穿戴眼镜100可确定在当前时间输出新闻内容3621,因为墙壁图像3620的变动小于阈值。
可穿戴眼镜100可以以AR、MR或VR的形式显示新闻内容3621(例如,“索契冬奥会,金妍儿获得银牌!花样滑冰运动员金妍儿在索契冬奥会赢得了宝贵的银牌!”)。在此情况下,即使用户的视野受到阻碍,用户也可在不危险的情形中经由可穿戴眼镜100查看新闻内容3621。
以下,将参考图37详细描述可穿戴眼镜100调整通知内容的透明度、颜色和色度的操作。
图37根据示范性实施例图示了可穿戴眼镜用来基于外部图像信息调整与通知事件相对应的内容的透明度、颜色和色度中的至少一者的方法的流程图。
在操作S3710中,可穿戴眼镜100可检测通知事件的发生。
在操作S3720中,可穿戴眼镜100可利用图像传感器161获得关于外部图像的信息。关于外部图像的信息可包括外部图像的变动信息、外部图像的颜色信息和关于外部图像中包括的物体的物体信息中的至少一者,但不限于此。
操作S3710和S3720分别对应于图33的操作S3310和S3320,从而将省略对其的详细描述。
在操作S3730中,可穿戴眼镜100可基于关于外部图像的信息来确定是否输出通知内容。
根据示范性实施例,可穿戴眼镜100可在从外部图像检测到的边缘的数目大于或等于阈值数目时确定不输出通知内容。阈值数目可以是预设的。相反,当从外部图像检测到的边缘的数目小于阈值数目时,可穿戴眼镜100可确定输出通知内容。
根据示范性实施例,当外部图像的变动等于或大于阈值时,可穿戴眼镜100可确定不输出通知内容。相反,当外部图像的变动小于阈值时,可穿戴眼镜100可确定输出通知内容。
在操作S3740中,可穿戴眼镜100可在确定输出通知内容时调整通知内容的透明度、颜色和色度中的至少一者。
根据示范性实施例,可穿戴眼镜100可基于亮度信息来调整通知内容的透明度、颜色和色度中的至少一者。例如,可穿戴眼镜100可利用亮度传感器来测量亮度值。当测量到的亮度值小于阈值时,可穿戴眼镜100可减小通知内容的透明度并且增大通知内容的色度。
根据示范性实施例,可穿戴眼镜100可基于加速度信息来调整通知内容的透明度、颜色和色度中的至少一者。例如,可穿戴眼镜100可随着用户的运动速度增大而增大通知内容的透明度。
根据示范性实施例,可穿戴眼镜100可基于外部图像的颜色信息来调整通知内容的透明度、颜色和色度中的至少一者。例如,可穿戴眼镜100可以用与外部图像的颜色互补的颜色显示通知内容。
在操作S3750中,可穿戴眼镜100可基于调整后的透明度、颜色和色度中的至少一者来输出通知内容。下面将参考图38来描述此操作。
图38图示了用于描述可穿戴眼镜基于外部图像信息调整与通知事件相对应的内容的颜色的示例的图。
参考图38,在穿戴着可穿戴眼镜100的用户正仰望天空时,可穿戴眼镜100可检测通知事件的发生。在此情况下,可穿戴眼镜100可获得天空图像3800。
可穿戴眼镜100可基于天空图像3800的颜色信息调整通知内容的颜色。例如,当通知内容的基本颜色是蓝色3810时,用户可能难以识别在天空图像3800上用蓝色3810并且以AR形式显示的通知内容。
因此,可穿戴眼镜100可将通知内容的颜色从蓝色3810改变到黄色3820并且用黄色3820显示通知内容。
图39根据示范性实施例图示了可穿戴眼镜确定与通知事件相对应的内容的输出位置的方法的流程图。
在操作S3910中,可穿戴眼镜100可检测通知事件的发生。
在操作S3920中,可穿戴眼镜100可利用图像传感器161获得关于外部图像的信息。关于外部图像的信息可包括外部图像的颜色信息和关于外部图像中包括的物体的物体信息中的至少一者,但不限于此。
操作S3910和S3920分别对应于图33的操作S3310和S3320,从而将省略对其的详细描述。
在操作S3930中,可穿戴眼镜100可基于关于外部图像中包括的物体的物体信息和外部图像的颜色信息中的至少一者来确定通知内容的输出位置。
例如,可穿戴眼镜100可基于关于外部图像中包括的物体的物体信息确定不与实际物体(例如,交谈对方)重叠的位置为通知内容的输出位置。另外,可穿戴眼镜100可确定显示通知内容的基本颜色及其补色的区域作为通知内容的输出位置。
在操作S3940中,可穿戴眼镜100可在所确定的输出位置输出通知内容。下面将参考图40来描述此操作。
图40图示了用于描述可穿戴眼镜改变与通知事件相对应的内容的输出位置的示例的图。
参考图40,在穿戴着可穿戴眼镜100的第一用户正与第二用户进行交谈时,可穿戴眼镜100可从服务器300接收包括新闻内容4000的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容4000的通知事件已发生。
如图4的4010中所示,当可穿戴眼镜100在中央位置显示新闻内容4000时,第二用户的脸部可被新闻内容4000覆盖。
因此,可穿戴眼镜100在显示新闻内容4000之前可获得关于外部图像的信息。例如,可穿戴眼镜100可利用图像传感器161获得包括第二用户的捕捉图像。可穿戴眼镜100可分析该捕捉图像来检测第二用户的位置。可穿戴眼镜100可确定不与第二用户重叠的区域作为新闻内容4000的显示位置。
如图40的4020中所示,可穿戴眼镜100可在不与第二用户的脸部重叠的区域中显示新闻内容4000。
根据示范性实施例,随着第二用户的脸部移动,可穿戴眼镜100可适应性地改变新闻内容4000的显示位置。
图41根据示范性实施例图示了可穿戴眼镜用来基于用户的设定信息确定提供与通知事件相对应的内容的方法的方法的流程图。
在操作S4110中,可穿戴眼镜100可接收与通知内容的提供有关的设定信息。例如,可穿戴眼镜100可接收关于提供通知内容的时间、提供通知内容的地点和提供通知内容的形式中的至少一者的设定信息。
根据示范性实施例,可穿戴眼镜100可从移动终端200或服务器300接收与通知内容的提供有关的设定信息。例如,用户可利用移动终端200设定是否输出通知内容、输出通知内容的时间、通知内容的输出形式和输出通知内容的地点。
在操作S4120中,可穿戴眼镜100可检测通知事件的发生。
在操作S4130中,当检测到通知事件的发生时,可穿戴眼镜100可基于设定信息确定提供通知内容的方法。例如,可穿戴眼镜100可基于设定信息确定提供通知内容的时间、提供通知内容的地点和提供通知内容的形式。
在操作S4140中,可穿戴眼镜100可提供通知内容。例如,可穿戴眼镜100可按根据设定信息的时间和形式提供通知内容。该时间和形式可以是预定的。
以下,将参考图42至图44详细描述可穿戴眼镜100基于设定信息提供通知内容的操作。
图42图示了与对应于通知事件的内容的输出有关的设定信息4200的示例。
如图42所示,用户可根据位置4201或应用4202选择是否输出通知内容。
例如,当用户在图书馆中时,用户可设定阻止通知内容的输出;当用户在家中时,用户可设定输出整个通知内容;并且当用户在办公室中时,用户可设定输出通知内容的一部分。
另外,用户可设定输出与第一应用相对应的通知内容的一部分并且阻止输出与第二应用相对应的通知内容。
根据示范性实施例,可穿戴眼镜100可从移动终端200或服务器300获得与通知内容的输出有关的设定信息4200并且将设定信息4200存储在存储器中。
另外,当通知事件已发生时,可穿戴眼镜100可基于设定信息输出通知内容。下面将参考图43和图44来对此进行描述。
图43和图44图示了可穿戴眼镜基于用户的设定信息输出与通知事件相对应的内容的示例。
参考图43,在穿戴着可穿戴眼镜100的用户正待在家中时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
可穿戴眼镜100在输出通知事件之前可检查与通知事件的输出有关的设定信息4200。因为设定信息4200被设定为当穿戴着可穿戴眼镜100的用户在家中时输出整个通知内容,所以可穿戴眼镜100可输出整个新闻内容4300。
参考图44,在穿戴着可穿戴眼镜100的用户正在办公室中时,可穿戴眼镜100可经由移动终端200接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
可穿戴眼镜100在输出通知事件之前可检查与通知事件的输出有关的设定信息4200。由于设定信息4200被设定为当穿戴着可穿戴眼镜100的用户在办公室中时输出通知内容的一部分,所以可穿戴眼镜100可输出新闻内容4400的一部分(例如,新闻提要)。
图45根据示范性实施例图示了可穿戴眼镜用来从外部可穿戴设备400接收紧急情况通知信息的方法的流程图。
在操作S4510中,外部可穿戴设备400可测量用户的生物计量信息。
外部可穿戴设备400可包括例如戒指、项链、手环、手表、鞋、耳环、头带、衣服、手套或顶针,但不限于此。
根据示范性实施例,外部可穿戴设备400可测量脉搏率信息、血压信息、心率信息、体温信息等等。
在操作S4520中,外部可穿戴设备400可基于生物计量信息确定紧急情况。
例如,外部可穿戴设备400可在用户的脉搏率在一段时间中等于或大于阈值(例如,100次每分钟)或者当用户的体温等于阈值温度或更高(例如,38℃)时确定发生了紧急情况。
在操作S4530中,当确定发生了紧急情况时,外部可穿戴设备400可向可穿戴眼镜100发送紧急情况通知信息。紧急情况通知信息可包括由外部可穿戴设备400测量到的生物计量信息、将紧急情况通知给用户的消息、指示紧急情况的图标,等等。
根据示范性实施例,外部可穿戴设备400可经由短程通信(例如,蓝牙、WFD、NFC等等)向可穿戴眼镜100发送紧急情况通知信息。
根据示范性实施例,外部可穿戴设备400可经由移动终端200或服务器300向可穿戴眼镜100发送紧急情况通知信息。
在操作S4530中,可穿戴眼镜100可检测通知事件的发生。例如,可穿戴眼镜100可检测到用于输出紧急情况通知消息的通知事件已发生。
在操作S4550中,可穿戴眼镜100可提供通知内容。
根据示范性实施例,由于是紧急情况,所以可穿戴眼镜100可迅速提供紧急情况通知消息,而不管用户的运动信息或外部图像信息如何。将参考图46详细描述可穿戴眼镜100输出紧急情况通知消息的操作。
图46图示了可穿戴眼镜显示从外部可穿戴设备接收的脉搏率信息的示例。
参考图46的4610,智能手表400-1可测量用户的脉搏率。智能手表400-1在特定时间段测量用户的脉搏率。智能手表400-1可在发生了特定事件时测量用户的脉搏率。特定事件可包括由用户设定锻炼模式的事件和选择用于请求测量脉搏率的按钮的事件,等等,但不限于此。
例如,由智能手表400-1测量到的用户的脉搏率可以是97次每分钟(beats perminute,BPM)。用户的正常脉搏率可能是81BPM。
参考图46的4620,智能手表400-1可将测量到的脉搏率(97BPM)与用户的典型正常脉搏率(81BPM)相比较。由于测量到的脉搏率(97BPM)与用户的正常脉搏率(81BPM)之间的差异超过阈值(例如,10BPM),所以智能手表400-1可确定用户的脉搏率异常。
在此情况下,智能手表400-1可输出通知消息“异常脉搏率”。另外,智能手表400-1可向可穿戴眼镜100发送通知用户脉搏率异常的紧急情况通知信息。
参考图6的4630,可穿戴眼镜100可直接从智能手表400-1或经由移动终端200接收紧急情况信息。
可穿戴眼镜100可基于接收到的紧急情况通知信息输出紧急情况通知内容(例如,“紧急情况!脉搏率减小了。”)
根据示范性实施例,用户可利用可穿戴眼镜100实时地查看利用外部可穿戴设备400测量到的生物计量信息和紧急情况通知内容。
图47根据示范性实施例图示了可穿戴眼镜用来经由外部设备输出与通知事件相对应的内容的方法的流程图。
在操作S4710中,可穿戴眼镜100可检测通知事件的发生。
在操作S4720中,当检测到通知事件的发生时,可穿戴眼镜100可获得用户的运动信息。用户的运动信息可包括用户的运动状态信息、运动速度信息和位置信息中的至少一者,但不限于此。
在操作S4730中,可穿戴眼镜100可确定提供通知内容的方法。根据示范性实施例,可穿戴眼镜100可确定提供通知内容的时间。另外,根据示范性实施例,可穿戴眼镜100可确定提供通知内容的形式。
操作S4710至S4730分别对应于图5的操作S510至S530,从而将省略对其的详细描述。
在操作S4740中,可穿戴眼镜100可输出通知内容。根据示范性实施例,可穿戴眼镜100可根据提供通知内容的方法输出通知内容。例如,可穿戴眼镜100可输出通知内容的一部分。
在操作S4750中,可穿戴眼镜100可接收用于请求向外部设备4700发送通知内容的用户输入。用户输入可以变化。例如,用户输入可以是运动输入、触摸输入、键输入、语音输入和多重输入中的至少一者,但不限于此。
根据示范性实施例,外部设备4700可以是不同于可穿戴眼镜100的其他可穿戴设备。例如,外部设备4700可以是智能手表、手环或项链。另外,外部设备4700可以是连接到可穿戴眼镜100的移动终端200。
根据示范性实施例,可穿戴眼镜100可接收用于选择外部设备4700来发送通知内容的输入。例如,可穿戴眼镜100可接收用于选择智能手表的输入或者用于请求向智能手表发送通知内容的输入。
根据示范性实施例,用于发送通知内容的外部设备4700可以是预设的。
另外,根据示范性实施例,可穿戴眼镜100可搜索位于短程通信半径内的可穿戴设备并且向找到的可穿戴设备发送通知内容。
在操作S4760中,可穿戴眼镜100可根据用户输入向外部设备4700发送通知内容。例如,可穿戴眼镜100可经由短程通信(例如,蓝牙)或移动通信(例如,3G/4G/5G)向外部设备4700发送通知内容。
根据示范性实施例,可穿戴眼镜100可直接向外部设备4700发送通知内容或者经由移动终端200向外部设备4700发送通知内容。
例如,当外部设备4700是可穿戴设备时,可穿戴眼镜100可经由连接可穿戴设备和可穿戴眼镜100的移动终端200向外部设备4700发送通知内容。
在操作S4770中,外部设备4700可输出通知内容。例如,外部设备4700可在屏幕上显示通知内容。当通知内容是视频时,外部设备4700可重放通知内容。将参考图48详细描述连接到可穿戴眼镜100并输出通知内容的外部设备4700的操作。
图48图示了可穿戴眼镜基于用户输入输出与通知事件相对应的内容的示例。
参考图48的4800-1,在穿戴着可穿戴眼镜100的用户正穿过人行横道时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户的运动信息。例如,可穿戴眼镜100可确定用户正以3km/h的速度运动。
由于用户在运动,所以可穿戴眼镜100可输出新闻内容的一部分4810以免太多地阻碍用户的视野。例如,可穿戴眼镜100可从新闻内容中提取新闻提要并且输出提取的新闻提要。
参考图48的4800-2,用户可执行在可穿戴眼镜100之前摇手的摇晃手势4820以便在查看新闻内容的新闻提要之后在智能手表4800上查看新闻内容的整个内容4830。
在此情况下,可穿戴眼镜100可在输出新闻内容的部分4810(例如,新闻提要)的同时感测用户的摇晃手势4820。例如,可穿戴眼镜100可利用例如深度传感器154或图像传感器161来感测用户摇手的摇晃手势4820。
可穿戴眼镜100可根据用户的摇晃手势4820发送新闻内容。根据示范性实施例,可穿戴眼镜100可直接向智能手表4800发送新闻内容或者经由移动终端200向智能手表4800发送新闻内容。
根据示范性实施例,智能手表4800可将从可穿戴眼镜100接收的新闻内容的整个内容4830显示在屏幕上。可穿戴眼镜100现在可不再输出新闻内容的部分4810。
根据另一示范性实施例,为了防止新闻内容被不顾用户的意图地从可穿戴眼镜100发送到智能手表4800,可穿戴眼镜100可仅在摇晃手势4820的时间段等于或大于阈值时段时或者在摇晃的次数是阈值次数以上时(例如,两次)向智能手表4800发送新闻内容。也就是说,为了防止在例如用户抓痒时无意中向智能手表4800发送新闻内容,可穿戴眼镜100可检查以确保摇晃手势4820是用于发送新闻内容的有意运动。
同时,虽然摇晃手势4820在图48中被描述为用于发送通知内容的用户输入的示例,但用户输入不限于此。例如,用户可向可穿戴眼镜100输入用于请求发送通知内容的语音或者可按压可穿戴眼镜100中包括的按钮。
图49根据示范性实施例图示了可穿戴眼镜用来响应于外部设备的请求发送与通知事件相对应的内容的方法的流程图。
在操作S4910中,可穿戴眼镜100可检测通知事件的发生。
在操作S4920中,可穿戴眼镜100可获得用户的运动信息。
在操作S4930中,可穿戴眼镜100可根据基于用户的运动信息确定的提供通知内容的方法来输出通知内容。
操作S4910至S4930分别对应于图47的操作S4710至S4730,从而将省略对其的详细描述。
在操作S4940中,外部设备4900可接收用于请求从外部设备4900输出通知内容的用户输入。
根据示范性实施例,外部设备4900可以是不同于可穿戴眼镜100的另一可穿戴设备。例如,外部设备4900可以是智能手表、手环或项链。另外,外部设备4900可以是连接到可穿戴眼镜100的移动终端200。
根据示范性实施例,请求输出通知内容的用户输入可以变化。例如,用户输入可以是运动输入、触摸输入、键输入、语音输入和多重输入中的至少一者,但不限于此。
在操作S4950中,外部设备4900可请求可穿戴眼镜100发送通知内容。外部设备4900可请求可穿戴眼镜100直接发送通知内容或者请求可穿戴眼镜100经由移动终端200发送通知内容。
在操作S4960中,可穿戴眼镜100可向外部设备4900发送通知内容。例如,可穿戴眼镜100可经由短程通信(例如,蓝牙)或移动通信(例如,3G/4G/5G)向外部设备4900发送通知内容。
根据示范性实施例,可穿戴眼镜100可直接向外部设备4900发送通知内容或者可经由移动终端200向外部设备4900发送通知内容。例如,当外部设备4900是可穿戴设备时,可穿戴眼镜100可经由连接可穿戴设备和可穿戴眼镜100的移动终端200向外部设备4900发送通知内容。
在操作S4970中,外部设备4900可输出通知内容。例如,外部设备4900可在屏幕上显示通知内容。当通知内容是视频时,外部设备4900可重放通知内容。将参考图50详细描述连接到可穿戴眼镜100并输出通知内容的外部设备4900的操作。
图50根据示范性实施例图示了外部设备基于经由外部设备接收的用户输入显示与通知事件相对应的内容的示例,其中外部设备连接到可穿戴眼镜。
参考图50的5000-1,在穿戴着可穿戴眼镜100的用户正穿过人行横道时,可穿戴眼镜100可从服务器300接收包括新闻内容的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容的通知事件已发生。
根据示范性实施例,可穿戴眼镜100在显示新闻内容之前可获得用户的运动信息。例如,可穿戴眼镜100可确定用户正以3km/h的速度运动。
由于用户在运动,所以可穿戴眼镜100可输出新闻内容的一部分5010以免太多地阻碍用户的视野。例如,可穿戴眼镜100可从新闻内容中提取新闻提要并且输出提取的新闻提要。
参考图50的5000-2,用户在查看新闻内容的新闻提要之后可选择智能手表5000的按钮来在智能手表5000上查看新闻内容的整个内容5030。该按钮可以是预定的或者预先指派的。该按钮可对应于指示在智能手表5000上显示经由可穿戴眼镜100显示的通知内容的命令。根据示范性实施例,按钮可以是物理按钮或者图形用户界面(graphical userinterface,GUI)形式的虚拟按钮。
智能手表5000可请求可穿戴眼镜100发送可穿戴眼镜100正显示的新闻内容。
可穿戴眼镜100可响应于智能手表5000的请求向智能手表5000发送新闻内容。根据示范性实施例,可穿戴眼镜100可直接向智能手表5000发送新闻内容或者可经由移动终端200向智能手表5000发送新闻内容。
参考图50的5000-3,智能手表5000可将从可穿戴眼镜100接收的新闻内容的整个内容5030显示在屏幕上。可穿戴眼镜100可不再输出新闻内容的部分5010。
图51根据示范性实施例图示了可穿戴眼镜用来基于用户的运动信息输出与通知事件相对应的内容的方法的流程图。
在操作S5110中,可穿戴眼镜100可与外部设备5100建立通信链路。
例如,可穿戴眼镜100可与外部设备5100建立短程通信或移动通信链路(例如,3G、4G或5G)。短程通信的示例可包括蓝牙、BLE、WFD、UWB、紫蜂、NFC和Ant+,但不限于此。
在操作S5120中,可穿戴眼镜100可检测通知事件的发生。
在操作S5130中,当检测到通知事件的发生时,可穿戴眼镜100可获得用户的运动信息。
根据示范性实施例,可穿戴眼镜100可利用加速度传感器、倾斜传感器和位置传感器中的至少一者来获得用户的运动信息。根据示范性实施例,可穿戴眼镜100也可利用用户的日程信息或生活模式信息来获得用户的运动信息。根据示范性实施例,可穿戴眼镜100可利用通过使用外部可穿戴设备测量的生物计量信息来分析用户的运动信息。
在操作S5140中,可穿戴眼镜100可基于用户的运动信息来确定经由外部设备5100输出通知内容。
例如,可穿戴眼镜100可基于用户的运动信息确定用户的运动速度是否小于阈值速度(例如,4km/h)。当用户的运动速度等于或大于阈值速度时,可穿戴眼镜100可确定经由外部设备5100输出通知内容,并且如果用户的运动速度小于阈值速度,则可穿戴眼镜100可确定立即从可穿戴眼镜100输出通知内容。
在操作S5150中,当确定经由外部设备5100输出通知内容时,可穿戴眼镜100可向外部设备5100发送通知内容。根据示范性实施例,可穿戴眼镜100可经由先前建立的通信链路向外部设备5100发送通知内容。
在操作S5160中,外部设备5100可输出与通知事件相对应的内容。例如,外部设备5100可在屏幕上显示通知内容。当通知内容是视频时,外部设备5100可重放通知内容。
在操作S5170中,当确定不经由外部设备5100输出通知内容时,可穿戴眼镜100可输出通知内容。
图52图示了可穿戴眼镜基于用户的运动信息输出与通知事件相对应的内容的示例。
参考图52的5200-1,在穿戴着可穿戴眼镜100的用户正在有许多人的公共空间中行走时,可穿戴眼镜100可从服务器300接收包括新闻内容5210的推送消息。在此情况下,可穿戴眼镜100可检测到用于显示新闻内容5210的通知事件已发生。
可穿戴眼镜100在显示新闻内容5210之前可获得用户的运动信息并且确定用户的运动速度是否小于阈值速度(例如,2km/h)。例如,在公共空间中行走的用户的运动速度可以是3km/h。在此情况下,由于用户的运动速度(例如,3km/h)等于或大于阈值速度(2km/h),所以可穿戴眼镜100可确定不从可穿戴眼镜100而是经由智能手表5200输出新闻内容5210。
参考图52的5200-2,可穿戴眼镜100可在向智能手表5200发送新闻内容5210的同时请求输出新闻内容5210。智能手表5200可根据可穿戴眼镜100的请求在屏幕上显示新闻内容5210。
根据示范性实施例,当穿戴着可穿戴眼镜100的用户正以阈值速度或更大速度运动时,可穿戴眼镜100可向另一可穿戴设备(例如,智能手表5200)输出通知内容以不阻碍用户的视野。
图53根据示范性实施例图示了可穿戴眼镜用来提供未输出内容的列表的方法的流程图。
在操作S5310中,可穿戴眼镜100可接收用于请求未输出内容的列表的用户输入。未输出内容的列表可包括在通知事件已经发生时未输出的通知内容和包括在通知事件已经发生时输出的一部分的通知内容。
根据示范性实施例,用于请求未输出内容的列表的用户输入可以变化。例如,用于请求未输出内容的列表的用户输入可包括用于触摸眼镜的框架的特定区域的输入、用于选择眼镜的框架中包括的按钮的输入、用于请求未输出内容的列表的语音声音输入、用于抬起头的抬头运动输入等等,但不限于此。眼镜的框架的特定区域可以是预定的。
在操作S5320中,可穿戴眼镜100可响应于用户输入而提供未输出内容的列表。例如,可穿戴眼镜100可以以AR形式显示未输出内容的列表。
根据示范性实施例,当不可能在单个屏幕上显示未输出内容时,可穿戴眼镜100可从用户接收滚动请求。可穿戴眼镜100可响应于用户的滚动请求而垂直或水平地滚动未输出内容。
贯穿整个说明书,“滚动”指的是可穿戴眼镜100的如下操作:当要在屏幕上显示的信息的量大于要在可穿戴眼镜100的屏幕上显示的信息的可显示量时,垂直或水平地移动屏幕上显示的信息,以使得与从移动的屏幕消失的信息量相对应的新信息从相反方向出现。
在操作S5330中,可穿戴眼镜100可接收用于选择列表中包括的一条内容的输入。例如,当感测到垂直摇头的摇晃运动输入时,可穿戴眼镜100可将其识别为用户选择在列表的中央显示的内容的输入。
另外,可穿戴眼镜100可接收用于选择列表中包括的一条内容的眼球输入。例如,可穿戴眼镜100可基于将眼睛眨动阈值次数或以上或者注视着内容达阈值时间段或更长的眼球输入来选择列表中的内容。
在操作S5340中,可穿戴眼镜100可输出选择的内容。例如,可穿戴眼镜100可在屏幕上显示或重放未输出通知内容。
根据示范性实施例,可穿戴眼镜100可提供未输出内容的列表以使得用户可从列表中选择并查看希望查看的通知内容。
同时,根据示范性实施例,可穿戴眼镜100可提供输出通知内容的列表。用户可从输出通知内容的列表中选择通知内容并且再次查看通知内容。
图54图示了可穿戴眼镜基于特定用户输入提供未输出内容的列表的示例。对于图54,用于请求提供未输出内容的列表5411的用户输入是抬头运动5410,并且用于请求滚动的用户输入是摇晃运动5420。
参考图54的5400-1,在未感测到通知事件的发生时,可穿戴眼镜100可接收用户抬起头的抬头运动5410。例如,可穿戴眼镜100可利用例如倾斜传感器、加速度传感器或陀螺仪传感器来感测用户的抬头运动5410。
可穿戴眼镜100可响应于用户的抬头运动5410而显示未输出内容的列表5411。
根据另一示范性实施例,为了防止不顾用户的意图显示未输出内容的列表5411,可穿戴眼镜100可仅在抬头运动5410的时间段等于或大于阈值时间(例如,两秒)时才显示未输出内容的列表5411。也就是说,为了防止在例如用户仰望天空中的飞机或鸟时无意中显示列表5411,可穿戴眼镜100可检查以确保抬头运动5410是用于显示列表的有意运动。
参考图54的5400-2,可穿戴眼镜100可在显示未输出内容的列表5411的同时感测用户向左和向右摇晃头部的摇晃运动5420。
例如,可穿戴眼镜100可利用例如倾斜传感器、加速度传感器或陀螺仪传感器来感测到向左和向右摇头阈值次数(例如,两次)或以上的摇晃运动5420。可穿戴眼镜100可根据用户的摇晃运动5420而滚动未输出内容的列表5411。
根据示范性实施例,当用户从未输出内容的列表5411中选择第一内容5422时,可穿戴眼镜100可显示或重放第一内容5422。
图55图示了连接到可穿戴眼镜的可穿戴设备提供尚未从可穿戴眼镜输出的内容的列表的示例。
参考图55的5510,连接到可穿戴眼镜100的智能手表5500可显示尚未从可穿戴眼镜100输出的内容的列表。用户可查看未输出内容的列表,并且从未输出内容的列表中选择第一内容5501。
参考图55的5520,智能手表5500可提供用于选择设备来显示第一内容5501的选择窗口。
当用户从选择窗口5502中选择直接观看5502时,智能手表5500可在智能手表5500的屏幕上显示尚未从可穿戴眼镜100输出的第一内容5501。
当用户从选择窗口中选择HMD观看5503时,智能手表5500可请求可穿戴眼镜100输出第一内容5501。可穿戴眼镜100可根据智能手表5500的请求显示第一内容5501。
图56图示了连接到可穿戴眼镜的可穿戴设备提供先前已经从可穿戴眼镜输出的内容的列表的示例。
参考图56的5610,连接到可穿戴眼镜100的智能手表5600可显示先前已经从可穿戴眼镜100输出的内容的列表。用户可查看先前输出内容的列表,并且从先前输出内容的列表中选择第十一内容5601。
参考图56的5620,智能手表5600可提供选择窗口,从中可选择设备来显示第十一内容5601。
当用户从选择窗口中选择直接观看5602时,智能手表5600可在智能手表5600的屏幕上显示先前已经从可穿戴眼镜100输出的第十一内容5601。
当用户在选择窗口上选择HMD观看5603时,智能手表5500可请求可穿戴眼镜100输出第十一内容5601。可穿戴眼镜100可根据智能手表5600的请求显示第十一内容5601。
图57和图58图示了根据示范性实施例图示可穿戴眼镜的结构的框图。
如图57所示,根据示范性实施例的可穿戴眼镜100可包括输出设备110和控制器120。然而,不是所有图示的元素都是必要元素。可穿戴眼镜100可由比图示元素更多的元素或更少的元素实现。
例如,如图58所示,除了输出模块110和控制器120以外,根据示范性实施例的可穿戴眼镜100还可包括用户输入设备130、通信接口140、感测电路150、音频/视频(A/V)输入电路和存储器170。感测电路150也可被称为传感器电路。
以下,将详细描述上述元素。
输出设备110用于输出音频信号、视频信号或者振动信号,并且可包括显示器111、声音输出设备112和振动电机113。
显示器111可显示经可穿戴眼镜100处理的信息。例如,显示器111可显示与通知事件相对应的内容(通知消息信息)。显示器111可以以AR、MR或VR的形式显示与通知事件相对应的内容。另外,显示器111可显示指示通知事件的发生的指示符。
显示器111可显示未输出内容的列表。未输出内容的列表可包括在通知事件已经发生时未输出的通知内容和包括在通知事件已经发生时输出的一部分的通知内容。
同时,当显示器111通过与触摸板形成层结构而被配置为触摸屏时,显示器111除了用作输出设备以外也可用作用户输入设备。显示器111可包括液晶显示器(liquidcrystal display,LCD)、薄膜晶体管-液晶显示器(thin film transistor-liquidcrystal display,TFT-LCD)、有机发光二极管(organic light-emitting diode,OLED)、柔性显示器、3D显示器和电泳显示器中的至少一者。根据可穿戴眼镜100的示范性实施例,可穿戴眼镜100可包括至少两个显示器111。
声音输出电路112输出从通信单元140接收的或者存储在存储器170中的音频数据。另外,声音输出设备112输出与可穿戴眼镜100执行的功能有关的声音信号,例如呼叫信号接收音、消息接收音或者通知音。声音输出设备112可包括扬声器或蜂鸣器。
振动电机113可输出振动信号。例如,振动电机113可输出与音频数据或视频数据——例如呼叫信号接收音或消息接收音——的输出相对应的振动信号。另外,振动电机113可在触摸屏被触摸时输出振动信号。
输出设备110可根据基于用户的运动信息确定的方法提供与通知事件相对应的内容。
控制器120总体上控制可穿戴眼镜100的整体操作。例如,控制器120可通过执行存储器170中存储的程序来总体上控制输出设备110、用户输入设备130、通信接口140、感测电路150和A/V输入电路160。
当检测到通知事件的发生时,控制器120可获得穿戴着可穿戴眼镜100的用户的运动信息。用户的运动信息可包括用户的运动状态信息、运动速度信息和位置信息中的至少一者。
控制器120可基于可穿戴眼镜100中包括的至少一个传感器确定用户是否穿戴着可穿戴眼镜100,并且当确定用户穿戴着可穿戴眼镜时,控制器120可获得用户的运动信息。
控制器120也可通过基于利用可穿戴眼镜100测量到的加速度信息、倾斜信息和位置信息中的至少一者分析用户的运动来获得用户的运动信息。
控制器120可基于用户的运动信息确定提供与通知事件相对应的内容的时间。
控制器120可在用户的运动速度小于阈值速度时确定在当前时间输出通知内容,并且在用户的运动速度等于或大于阈值速度时确定在不同时间输出通知内容。不同时间可包括以下各项中的至少一者:接收用于请求输出与通知事件相对应的内容的用户输入的时间点、用户的运动变化的时间点以及预设的时间已过去的时间点,但不限于此。
控制器120可基于用户的运动信息确定提供与通知事件相对应的内容的方法。例如,控制器120可在用户的运动速度等于或大于阈值速度时确定输出通知内容的一部分,并且如果用户的运动速度小于阈值速度,则控制器120可确定输出整个通知内容。
控制器120可考虑到关于从可穿戴眼镜100起的特定距离内的环境的环境信息来确定将通知内容输出为音频信号或视频信号中的至少一者。环境信息可包括关于在从可穿戴眼镜100起的特定距离内生成的声音的外部声音信息和关于利用图像传感器161获得的外部图像的信息中的至少一者。
控制器120可基于从感测电路150输出的信号控制显示器111显示接收到的通知消息信息。
控制器120可基于从感测电路150中包括的至少一个传感器输出的信号确定用户是否穿戴着可穿戴眼镜,并且在确定用户穿戴着可穿戴眼镜时,控制器120可控制感测电路150感测用户的运动。
用户输入设备130被用户用来输入用于控制可穿戴眼镜100的数据。用户输入单元130的示例包括小键盘、圆顶开关、触摸板(触摸电容型、压力电阻膜型、红外光检测型、表面超声传导型、积分应力测量型或压电效应型)、缓动盘和滚轮开关,但不限于此。
上文参考图2描述了用户输入设备130,从而将省略重复描述。
用户输入设备130可接收用于请求输出通知内容的用户输入。
用户输入设备130可接收用于请求输出整个内容的第一用户输入。例如,第一用户输入可以是运动输入、触摸输入、键输入、语音输入和多重输入中的至少一者,但不限于此。根据示范性实施例,用于请求输出整个通知内容的第一用户输入可以是预设的。例如,用户可将抬起头部的抬头运动设定为用于请求输出整个通知内容的第一用户输入。
用户输入设备130可接收用于请求阻止通知内容的一部分的输出的第二用户输入。第二用户输入也可以是各种各样的。
用户输入设备130可接收用于请求未输出内容的列表的用户输入。用于请求未输出内容的列表的用户输入可包括用于触摸眼镜的框架的特定区域的输入、用于选择眼镜的框架中包括的按钮的输入、用于请求未输出内容的列表的输入、用于抬起头部的抬头运动输入等等,但不限于此。
用户输入设备130可接收用于请求向外部设备发送通知内容的用户输入。用户输入设备130可接收用于选择外部设备来发送通知内容的输入。例如,用户输入设备130可接收用于选择智能手表的输入和用于请求向智能手表发送通知内容的输入。
通信接口140可包括使得可穿戴眼镜100能够与外部设备或服务器通信的至少一个组件。例如,通信接口140可包括短程无线通信接口141、移动通信接口142和广播接收电路143。
短程无线通信接口141可包括蓝牙通信接口、BLE通信接口、NFC接口、无线局域网(wireless local area network,WLAN)(Wi-Fi)通信接口、紫蜂通信接口、红外数据协会(wireless local area network,IrDA)通信接口、WFD通信接口、UWB通信接口和Ant+通信接口,但短程无线通信接口141中包括的组件不限于此。
移动通信接口142在移动通信网络上向基站、外部终端和服务器中的至少一者发送和从其接收无线信号。这里,无线信号根据语音呼叫信号、视频电话呼叫信号或文本/多媒体消息的发送和接收可包括具有各种格式的数据。
广播接收电路143通过广播信道从外部源接收广播信号和/或与广播有关的信息。广播信道可包括卫星信道或地面广播信道。在一些实现方式中,可穿戴眼镜100可不包括广播接收电路143。
通信接口140可接收通知消息信息。
通信接口140可从连接到可穿戴眼镜100的外部设备请求并接收用户的运动信息。通信接口140可在向外部设备发送利用可穿戴眼镜100测量到的加速度信息、倾斜信息、位置信息等等的同时请求用户的运动信息。
通信接口140可在将捕捉的外部图像发送给移动终端200或服务器300的同时请求分析捕捉的外部图像。通信接口140可从移动终端200或服务器300接收外部图像的变动信息、外部图像的颜色信息和关于外部图像中包括的物体的物体信息中的至少一者。
感测电路150可感测可穿戴眼镜100的状态、可穿戴眼镜100的周围事物的状态、穿戴着可穿戴眼镜100的用户的状态、用户的运动,并且可将感测到的信息发送到控制器120。例如,感测电路150可感测用户的运动并且向控制器120输出与用户的运动有关的信号。信号可以是电信号。
感测电路150可包括磁传感器151、加速度传感器152、倾斜传感器153、深度传感器154、陀螺仪传感器155、诸如全球定位系统(GPS)之类的位置传感器156、大气压传感器157、接近传感器158和光学传感器159中的至少一者,但感测电路150中包括的组件不限于此。感测电路150还可包括温度传感器、亮度传感器、压力传感器或虹膜扫描传感器。因为每个传感器的功能可由本领域普通技术人员基于其名称直观地推断,所以这里不描述其细节。
A/V输入电路160用于接收音频信号或视频信号,并且可包括相机(图像传感器)161和麦克风162。相机(图像传感器)161可在视频电话模式或拍摄模式中获得静止图像或视频的图像帧。经由相机(图像传感器)161捕捉的图像可被控制器120或单独的图像处理器(未示出)处理。
经相机(图像传感器)161处理的图像帧可被存储在存储器170中或者通过通信接口140被发送到外部设备。根据可穿戴眼镜100的示范性实施例,可穿戴眼镜100可包括至少两个相机(图像传感器)161。
麦克风162接收外部声音信号并且把外部声音信号处理成电语音数据。例如,麦克风162可从外部设备或叙述者接收声音信号。麦克风162可使用各种噪声去除算法中的任何一种来去除在接收外部声音信号的同时生成的噪声。
存储器170可存储用于控制器120的处理和控制的程序,并且可存储输入/输出数据,例如未输出内容的列表、先前输出内容的列表、捕捉的图像、生物计量信息、用户的日程信息或者用户的生活模式信息。
存储器170可至少包括来自以下各项中的存储介质:闪存、硬盘、多媒体卡微型存储器、卡型存储器(例如,安全数字(secure digital,SD)卡或极速数字(extreme digital,XD)卡)、随机存取存储器(random access memory,RAM)、静态随机存取存储器(staticrandom access memory,SRAM)、只读存储器(read-only memory,ROM)、电可擦除可编程只读存储器(electrically erasable programmable read-only memory,EEPROM)、可编程只读存储器(programmable read-only memory,PROM)、磁存储器、磁盘和光盘。另外,可穿戴眼镜100可操作在互联网中执行存储器170的存储功能的web存储服务器或云服务器。
存储器170中存储的程序可基于功能被分类成多个模块,例如分类成UI模块171、通知模块172、STT模块173和图像处理模块174。
UI模块171可根据应用提供与可穿戴眼镜100相联系的专门化UI或GUI。通知模块172可生成用于通知可穿戴眼镜100中的事件的发生的信号。通知模块172可经由显示器111以视频信号的形式或者经由音频输出设备112以音频信号的形式或者经由振动电机113以振动信号的形式输出通知信号。
STT模块173可将多媒体内容中包括的语音转换成文本,从而生成与多媒体内容相对应的抄录。
图像处理模块174可通过分析捕捉的图像来获得关于捕捉的图像中包括的物体的物体信息、边缘信息、氛围信息和颜色信息。
以上描述的方法可实现为可利用各种计算机组件来执行并且可被记录在计算机可读记录介质上的程序命令。计算机可读记录介质可包括单独或组合的程序命令、数据文件、数据结构等等。记录在计算机可读记录介质中的程序命令可以是特别设计或者是计算机软件领域的普通技术人员公知的。计算机可读记录介质的示例包括磁存储介质(例如,硬盘、软盘、诸如磁带之类的磁介质等等)、光记录介质(例如,CD-ROM或DVD)、磁光介质(例如,软光盘)以及具体配置为存储和执行程序命令的硬件设备(例如,ROM、RAM、闪存,等等)。程序命令的示例包括由编译器准备的机械代码,以及可由计算机利用解释器执行的高级别语言。
如上所述,根据上述示范性实施例中的一个或多个,可穿戴眼镜100可基于用户的运动信息确定提供通知内容的时间和提供通知内容的形式,从而防止在对于用户查看通知内容来说危险的情形中阻碍用户的视野。
应当理解,本文描述的示范性实施例应当仅在描述意义上来加以考虑,而不是为了限制的。对每个示范性实施例内的特征或方面的描述通常应当被认为可用于其他示范性实施例中的其他类似的特征或方面。
虽然已参考附图描述了一个或多个示范性实施例,但本领域普通技术人员将会理解,在不脱离如所附权利要求限定的精神和范围的情况下,可对其进行形式和细节上的各种改变。

Claims (20)

1.一种可穿戴眼镜,包括:
感测电路,被配置为获得可穿戴眼镜的运动信息;
显示器,被配置为显示通知信息;以及
一个或多个处理器,被配置为。
基于所获得的可穿戴眼镜的运动信息,确定要经由显示器显示的通知信息的量,
根据所确定的通知信息的量来显示通知信息。
2.根据权利要求1所述的可穿戴眼镜,
其中,一个或多个处理器还被配置为:
控制感测电路获得用于确定可穿戴眼镜的第二运动状态的第二运动信息;以及
基于所确定的第二运动状态,基于第二运动状态改变用于显示通知消息信息的显示形式。
3.根据权利要求1所述的可穿戴眼镜,其中,一个或多个处理器还被配置为:通过使用包括在感测电路中的至少一个传感器来确定用户是否穿戴着可穿戴眼镜,并且当确定用户正穿戴着可穿戴眼镜时控制感测电路获得用户的运动信息。
4.根据权利要求2所述的可穿戴眼镜,其中,一个或多个处理器还被配置为:通过使用由感测电路测量到的加速度信息、倾斜信息、生物计量信息、高度信息、大气压信息、眼球跟踪信息和位置信息中的至少一个来确定可穿戴眼镜的所述第一运动状态或第二运动状态。
5.根据权利要求2所述的可穿戴眼镜,其中,一个或多个处理器还被配置为:使用从外部设备接收的可穿戴眼镜的运动信息来确定可穿戴眼镜的所述第一运动状或第二运动状态。
6.根据权利要求1所述的可穿戴眼镜,其中,一个或多个处理器还被配置为当可穿戴眼镜的运动速度小于阈值速度时在当前时间输出通知消息信息,并且当可穿戴眼镜的运动速度等于或大于所述阈值速度时,所述一个或多个控制器还被配置为确定在与当前时间不同的时间输出所述通知消息信息。
7.根据权利要求6所述的可穿戴眼镜,其中,所述不同的时间包括以下中的至少一个:接收到用于请求输出通知消息信息的用户输入的时间点、可穿戴眼镜的运动状态被改变的时间点以及预设的时间已过去的时间点。
8.根据权利要求1所述的可穿戴眼镜,其中,一个或多个处理器还被配置为:确定用于显示通知消息信息的显示形式,其中,用于显示通知消息信息的显示形式是突出显示通知消息信息中的关键字或设置通知消息信息的透明度。
9.根据权利要求8所述的可穿戴眼镜,其中,当可穿戴眼镜的运动速度等于或大于阈值速度时,一个或多个处理器还被配置为显示通知消息信息的一部分,并且当可穿戴眼镜的运动速度小于所述阈值速度时,一个或多个处理器还被配置为显示通知消息信息的全部。
10.根据权利要求9所述的可穿戴眼镜,其中,一个或多个处理器还被配置为根据关于从可穿戴眼镜起的特定距离内的环境的环境信息来确定音频信号和视频信号中的至少一个作为通知消息信息的输出形式。
11.根据权利要求10所述的可穿戴眼镜,其中,环境信息包括关于在从可穿戴眼镜起的所述特定距离内生成的外部声音的信息和关于利用图像传感器获得的外部图像的信息中的至少一个。
12.一种由可穿戴眼镜执行的提供信息的方法,该方法包括:
获得通知信息;
获得可穿戴眼镜的运动信息;
基于所获得的可穿戴眼镜的运动信息,确定要显示的通知信息的量;
根据所确定的通知信息的量来显示通知信息。
13.根据权利要求12所述的方法,其中,获得可穿戴眼镜的运动信息包括:
通过使用包括在可穿戴眼镜中的至少一个传感器来确定用户是否穿戴着可穿戴眼镜;并且
当确定用户正穿戴着可穿戴眼镜时获得用户的运动信息。
14.根据权利要求12所述的方法,还包括:
获得用于确定穿戴着可穿戴眼镜的可穿戴眼镜的第二运动状态的第二运动信息;以及
基于所确定的可穿戴眼镜的第二运动状态,基于可穿戴眼镜的第二运动状态来改变用于显示通知消息信息的显示形式。
15.根据权利要求12所述的方法,还包括:
当可穿戴眼镜的运动速度小于阈值速度时确定在当前时间输出通知消息信息,并且当可穿戴眼镜的运动速度等于或大于所述阈值速度时,确定在与当前时间不同的时间输出所述通知消息信息。
16.根据权利要求12所述的方法,还包括:
确定用于显示通知消息信息的显示形式,其中,用于显示通知消息信息的显示形式是突出显示通知消息信息中的关键字或设置通知消息信息的透明度。
17.根据权利要求12所述的方法,还包括:
当可穿戴眼镜的运动速度等于或大于阈值速度时,确定输出通知消息信息的一部分,并且当可穿戴眼镜的运动速度小于所述阈值速度时,确定输出通知消息信息的全部。
18.根据权利要求12所述的方法,还包括:
获得关于从可穿戴眼镜起的特定距离内的环境的环境信息;以及
根据所获得的环境信息来确定以音频信号和视频信号中的至少一个的形式来提供通知消息信息。
19.根据权利要求18所述的可穿戴眼镜,其中,环境信息包括关于在从可穿戴眼镜起的所述特定距离内生成的外部声音的信息和关于利用图像传感器获得的外部图像的信息中的至少一个。
20.一种非暂时性计算机可读记录介质,其上记录有用于执行权利要求12的方法的计算机可读程序。
CN202010703799.6A 2014-07-31 2015-07-31 可穿戴眼镜和利用其提供信息的方法 Active CN111897425B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010703799.6A CN111897425B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和利用其提供信息的方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2014-0098626 2014-07-31
KR20140098626 2014-07-31
KR1020150043300A KR102433291B1 (ko) 2014-07-31 2015-03-27 웨어러블 글래스 및 웨어러블 글래스의 컨텐트 제공 방법
KR10-2015-0043300 2015-03-27
CN201510465036.1A CN105320279B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和利用其提供内容的方法
CN202010703799.6A CN111897425B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和利用其提供信息的方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201510465036.1A Division CN105320279B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和利用其提供内容的方法

Publications (2)

Publication Number Publication Date
CN111897425A true CN111897425A (zh) 2020-11-06
CN111897425B CN111897425B (zh) 2024-03-12

Family

ID=53761274

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201510465036.1A Active CN105320279B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和利用其提供内容的方法
CN202010703799.6A Active CN111897425B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和利用其提供信息的方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201510465036.1A Active CN105320279B (zh) 2014-07-31 2015-07-31 可穿戴眼镜和利用其提供内容的方法

Country Status (4)

Country Link
US (4) US10037084B2 (zh)
EP (1) EP2980627A1 (zh)
CN (2) CN105320279B (zh)
WO (1) WO2016017997A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113014995A (zh) * 2021-02-26 2021-06-22 北京蜂巢世纪科技有限公司 视频回放方法、介质、眼镜及程序产品
CN114189668A (zh) * 2021-11-26 2022-03-15 长沙海润生物技术有限公司 一种穿戴式创面成像设备及成像方法
CN116204068A (zh) * 2023-05-06 2023-06-02 蔚来汽车科技(安徽)有限公司 增强现实显示设备及其显示方法、车辆、移动终端、介质

Families Citing this family (202)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US20120311585A1 (en) 2011-06-03 2012-12-06 Apple Inc. Organizing task items that represent tasks to perform
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
KR102579086B1 (ko) 2013-02-07 2023-09-15 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
EP3937002A1 (en) 2013-06-09 2022-01-12 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
EP3149728B1 (en) 2014-05-30 2019-01-16 Apple Inc. Multi-command single utterance input method
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10444930B2 (en) * 2014-08-05 2019-10-15 Lg Electronics Inc. Head-mounted display device and control method therefor
KR102337509B1 (ko) * 2014-08-29 2021-12-09 삼성전자주식회사 컨텐츠 제공 방법 및 그 전자 장치
US9659482B2 (en) * 2014-09-02 2017-05-23 Apple Inc. Context-based alerts for an electronic device
US11918375B2 (en) 2014-09-05 2024-03-05 Beijing Zitiao Network Technology Co., Ltd. Wearable environmental pollution monitor computer apparatus, systems, and related methods
US10448867B2 (en) 2014-09-05 2019-10-22 Vision Service Plan Wearable gait monitoring apparatus, systems, and related methods
US10617342B2 (en) 2014-09-05 2020-04-14 Vision Service Plan Systems, apparatus, and methods for using a wearable device to monitor operator alertness
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
KR20160069936A (ko) * 2014-12-09 2016-06-17 삼성전자주식회사 절전 제어 방법 및 이를 제공하는 전자 장치
JP6380091B2 (ja) * 2014-12-26 2018-08-29 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US10255713B2 (en) * 2014-12-29 2019-04-09 Google Llc System and method for dynamically adjusting rendering parameters based on user movements
US10215568B2 (en) 2015-01-30 2019-02-26 Vision Service Plan Systems and methods for tracking motion, performance, and other data for an individual such as a winter sports athlete
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
JP6367166B2 (ja) * 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US20170090196A1 (en) * 2015-09-28 2017-03-30 Deere & Company Virtual heads-up display application for a work machine
US10921592B2 (en) * 2015-10-07 2021-02-16 Smoke-I Corporation Self-contained breathing apparatus face piece lens vision system
US10540005B2 (en) * 2015-10-22 2020-01-21 Lg Electronics Inc. Mobile terminal and control method therefor
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
PT109153A (pt) * 2016-02-12 2017-08-14 Alves De Oliveira Neto Adail Solução de comunicação para eventos diversos
BR112018016726B1 (pt) 2016-02-18 2023-03-14 Apple Inc Método de processamento de imagem para realidade mista e dispositivo usado na cabeça
US9939635B2 (en) 2016-02-29 2018-04-10 Brillio LLC Method for providing notification in virtual reality device
US9912861B1 (en) * 2016-03-02 2018-03-06 Amazon Technologies, Inc. Systems and methods for determining a depth or reflectance of objects
JP5996138B1 (ja) * 2016-03-18 2016-09-21 株式会社コロプラ ゲームプログラム、方法およびゲームシステム
JP6784289B2 (ja) * 2016-03-29 2020-11-11 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN105872521A (zh) * 2016-04-26 2016-08-17 乐视控股(北京)有限公司 2d视频播放方法及装置
US10521009B2 (en) * 2016-05-17 2019-12-31 Samsung Electronics Co., Ltd. Method and apparatus for facilitating interaction with virtual reality equipment
KR20170129509A (ko) * 2016-05-17 2017-11-27 엘지전자 주식회사 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
US10387719B2 (en) * 2016-05-20 2019-08-20 Daqri, Llc Biometric based false input detection for a wearable computing device
CN106020482A (zh) * 2016-05-30 2016-10-12 努比亚技术有限公司 一种控制方法、虚拟现实设备和移动终端
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
EP3751396A1 (en) * 2016-06-16 2020-12-16 Apple Inc. Method and system for providing eye tracking based information about a user behavior, client device, server and computer program product
CN106094203A (zh) * 2016-06-16 2016-11-09 捷开通讯(深圳)有限公司 Vr系统、用于控制vr设备的穿戴设备及其方法
CN106125927B (zh) 2016-06-23 2019-11-29 捷开通讯(深圳)有限公司 图像处理系统及方法
CN105974808A (zh) * 2016-06-30 2016-09-28 宇龙计算机通信科技(深圳)有限公司 基于虚拟现实设备的控制方法、控制装置及虚拟现实设备
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
CN106227343A (zh) * 2016-07-20 2016-12-14 深圳市金立通信设备有限公司 一种虚拟现实眼镜及其控制方法
JP2018015187A (ja) * 2016-07-27 2018-02-01 セイコーエプソン株式会社 水泳情報処理システム、情報処理装置、水泳情報処理方法、およびプログラム
CN106293346A (zh) * 2016-08-11 2017-01-04 深圳市金立通信设备有限公司 一种虚拟现实视景的切换方法及终端
CN106325386A (zh) * 2016-08-19 2017-01-11 联想(北京)有限公司 一种电子设备
US10560679B2 (en) * 2016-08-30 2020-02-11 Microsoft Technology Licensing, Llc Deformation detection and automatic calibration for a depth imaging system
CN106373197B (zh) * 2016-09-06 2020-08-07 广州视源电子科技股份有限公司 一种增强现实的方法及增强现实装置
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US20180096505A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
CN108153406B (zh) * 2016-12-02 2021-09-10 成都理想智美科技有限公司 一种控制hmd视角的方法及头戴显示设备
US10356551B2 (en) 2016-12-16 2019-07-16 Garpie, Inc. System and method of providing augmented reality content in synchronized dynamic geolocation areas
JP2018101019A (ja) * 2016-12-19 2018-06-28 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US11294427B1 (en) * 2017-01-10 2022-04-05 Christen K Medulla Interactive head-mounted display
KR102556543B1 (ko) * 2017-02-10 2023-07-18 삼성디스플레이 주식회사 전자 장치
US10969583B2 (en) * 2017-02-24 2021-04-06 Zoll Medical Corporation Augmented reality information system for use with a medical device
US10693672B2 (en) * 2017-03-08 2020-06-23 Crackle, Inc. Security and environmental control based on virtual reality headset usage
US10684480B2 (en) * 2017-03-16 2020-06-16 Denso Wave Incorporated Information display system
CN107071555B (zh) * 2017-03-31 2020-07-17 奇酷互联网络科技(深圳)有限公司 Vr视频中图像的加载方法、装置及电子设备
US9910298B1 (en) 2017-04-17 2018-03-06 Vision Service Plan Systems and methods for a computerized temple for use with eyewear
CN107172414A (zh) * 2017-04-20 2017-09-15 北京安云世纪科技有限公司 一种虚拟现实头戴显示器设备及其处理信息的方法
TWI634453B (zh) * 2017-04-27 2018-09-01 拓集科技股份有限公司 在虛擬實境環境瀏覽時進行畫面切換之系統及方法,及其相關電腦程式產品
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK201770427A1 (en) 2017-05-12 2018-12-20 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
EP4047600A3 (en) * 2017-05-16 2022-12-07 Apple Inc. Far-field extension for digital assistant services
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
CN108965571A (zh) * 2017-05-19 2018-12-07 宏碁股份有限公司 自动连线的虚拟实境系统及其控制方法
CN107193381A (zh) * 2017-05-31 2017-09-22 湖南工业大学 一种基于眼球追踪传感技术的智能眼镜及其显示方法
GB2563276B (en) * 2017-06-09 2021-12-01 Advanced Risc Mach Ltd Virtual reality systems
US11682045B2 (en) * 2017-06-28 2023-06-20 Samsung Electronics Co., Ltd. Augmented reality advertisements on objects
CN107172205B (zh) * 2017-06-29 2018-11-09 腾讯科技(深圳)有限公司 推送信息处理方法、移动终端及计算机存储介质
US10699691B1 (en) * 2017-06-29 2020-06-30 Amazon Technologies, Inc. Active noise cancellation for bone conduction speaker of a head-mounted wearable device
SK500582017A3 (sk) * 2017-08-24 2019-03-01 Intensa, S. R.O. Technologické zariadenie na výškové práce
US10854002B2 (en) * 2017-09-08 2020-12-01 Verizon Patent And Licensing Inc. Interactive vehicle window system including augmented reality overlays
US10556185B2 (en) * 2017-09-29 2020-02-11 Sony Interactive Entertainment America Llc Virtual reality presentation of real world space
CN107797662B (zh) * 2017-10-23 2021-01-01 北京小米移动软件有限公司 视场角控制方法、装置及电子设备
JP7073702B2 (ja) * 2017-12-11 2022-05-24 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN109979012A (zh) * 2017-12-27 2019-07-05 北京亮亮视野科技有限公司 展示消息通知的方法及装置
EP3594794A4 (en) * 2018-01-12 2020-04-08 SONY Corporation INFORMATION PROCESSING DEVICE AND METHOD
US10874305B2 (en) * 2018-01-15 2020-12-29 Microsoft Technology Licensing, Llc Sensor device
US10818086B2 (en) * 2018-02-09 2020-10-27 Lenovo (Singapore) Pte. Ltd. Augmented reality content characteristic adjustment
US11145096B2 (en) 2018-03-07 2021-10-12 Samsung Electronics Co., Ltd. System and method for augmented reality interaction
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
CN108549511A (zh) * 2018-03-30 2018-09-18 努比亚技术有限公司 一种手环交互调控方法、设备及计算机可读存储介质
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10768426B2 (en) * 2018-05-21 2020-09-08 Microsoft Technology Licensing, Llc Head mounted display system receiving three-dimensional push notification
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US10908419B2 (en) 2018-06-28 2021-02-02 Lucyd Ltd. Smartglasses and methods and systems for using artificial intelligence to control mobile devices used for displaying and presenting tasks and applications and enhancing presentation and display of augmented reality information
US10722128B2 (en) 2018-08-01 2020-07-28 Vision Service Plan Heart rate detection system and method
US11175769B2 (en) * 2018-08-16 2021-11-16 Apple Inc. Electronic device with glass enclosure
US11258163B2 (en) 2018-08-30 2022-02-22 Apple Inc. Housing and antenna architecture for mobile device
US11042345B2 (en) * 2018-08-31 2021-06-22 Google Llc Systems, devices, and methods for interactive visual displays
TWI691891B (zh) 2018-09-07 2020-04-21 財團法人工業技術研究院 多重目標物資訊顯示方法及裝置
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
US20210392193A1 (en) * 2018-12-04 2021-12-16 Sony Group Corporation Information processing device and information processing method
US20200183762A1 (en) * 2018-12-06 2020-06-11 International Business Machines Corporation Simulation distraction suppression
KR102539579B1 (ko) * 2018-12-18 2023-06-05 삼성전자주식회사 정보의 표시 영역을 적응적으로 변경하기 위한 전자 장치 및 그의 동작 방법
TWI682356B (zh) * 2018-12-20 2020-01-11 威祺有限公司 自行車騎乘資訊的推播中繼裝置及其推播方法
EP3899642A1 (en) * 2018-12-20 2021-10-27 Snap Inc. Flexible eyewear device with dual cameras for generating stereoscopic images
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
JP2020112940A (ja) * 2019-01-09 2020-07-27 本田技研工業株式会社 コンテンツ出力装置及びコンテンツ出力方法
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
USD899500S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD900206S1 (en) 2019-03-22 2020-10-27 Lucyd Ltd. Smart glasses
USD899496S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD899494S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD900205S1 (en) 2019-03-22 2020-10-27 Lucyd Ltd. Smart glasses
USD899497S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD900203S1 (en) 2019-03-22 2020-10-27 Lucyd Ltd. Smart glasses
USD900920S1 (en) 2019-03-22 2020-11-03 Lucyd Ltd. Smart glasses
USD899498S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD899493S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD900204S1 (en) 2019-03-22 2020-10-27 Lucyd Ltd. Smart glasses
USD899499S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD899495S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11151967B2 (en) 2019-06-06 2021-10-19 Honeywell International Inc. Method and system for spawning attention pointers (ATP) for drawing attention of an user in a virtual screen display with augmented and virtual reality
US11488406B2 (en) 2019-09-25 2022-11-01 Apple Inc. Text detection using global geometry estimators
US10965931B1 (en) 2019-12-06 2021-03-30 Snap Inc. Sensor misalignment compensation
USD955467S1 (en) 2019-12-12 2022-06-21 Lucyd Ltd. Sport smartglasses having flat connector hinges
USD958234S1 (en) 2019-12-12 2022-07-19 Lucyd Ltd. Round smartglasses having pivot connector hinges
USD954135S1 (en) 2019-12-12 2022-06-07 Lucyd Ltd. Round smartglasses having flat connector hinges
USD954136S1 (en) 2019-12-12 2022-06-07 Lucyd Ltd. Smartglasses having pivot connector hinges
USD974456S1 (en) 2019-12-19 2023-01-03 Lucyd Ltd. Pivot hinges and smartglasses temples
USD954137S1 (en) 2019-12-19 2022-06-07 Lucyd Ltd. Flat connector hinges for smartglasses temples
US11388612B2 (en) * 2020-01-10 2022-07-12 Murata Manufacturing Co., Ltd. Communication terminal device and communication system
US11281289B2 (en) * 2020-02-21 2022-03-22 Honda Motor Co., Ltd. Content adjustment based on vehicle motion and eye gaze
US11282523B2 (en) * 2020-03-25 2022-03-22 Lucyd Ltd Voice assistant management
US11769616B2 (en) 2020-05-08 2023-09-26 Apple Inc. Items with magnetic straps and cables
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11183193B1 (en) 2020-05-11 2021-11-23 Apple Inc. Digital assistant hardware abstraction
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
CN111522142A (zh) * 2020-06-14 2020-08-11 深圳市安之眼科技有限公司 一种ar智能眼镜
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
CN114077302A (zh) * 2020-08-21 2022-02-22 华为技术有限公司 一种智能眼镜及其交互方法和交互装置
JP2022038495A (ja) * 2020-08-26 2022-03-10 ソフトバンク株式会社 表示制御装置、プログラム、及びシステム
CN116235225A (zh) * 2020-09-30 2023-06-06 谷歌有限责任公司 使用会话图来管理可穿戴设备上的显示内容
US11914835B2 (en) * 2020-11-16 2024-02-27 Samsung Electronics Co., Ltd. Method for displaying user interface and electronic device therefor
US20230418369A1 (en) * 2020-12-30 2023-12-28 Google Llc Device tracking with integrated angle-of-arrival data
CN112882235A (zh) * 2021-01-20 2021-06-01 山东梦幻视界智能科技有限公司 一种增强现实(mr)展示装置
US11711332B2 (en) 2021-05-25 2023-07-25 Samsung Electronics Co., Ltd. System and method for conversation-based notification management
CN113329375B (zh) * 2021-05-27 2023-06-27 Oppo广东移动通信有限公司 内容处理方法、装置、系统、存储介质和电子设备
US20230356095A1 (en) * 2021-07-09 2023-11-09 Gel Blaster, Inc. Smart target co-witnessing hit attribution system and method
US20230017775A1 (en) * 2021-07-15 2023-01-19 Invacare Corporation System and method for medical device communication
WO2023092375A1 (en) * 2021-11-25 2023-06-01 Citrix Systems, Inc. Computing device with live background and related method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101506868A (zh) * 2006-09-08 2009-08-12 索尼株式会社 显示设备和显示方法
US20090234614A1 (en) * 2007-04-23 2009-09-17 Philippe Kahn Eyewear having human activity monitoring device
US20110219080A1 (en) * 2010-03-05 2011-09-08 Qualcomm Incorporated Automated messaging response in wireless communication systems
US20120236030A1 (en) * 2010-02-28 2012-09-20 Osterhout Group, Inc. See-through near-eye display glasses including a modular image source
US20130339453A1 (en) * 2012-06-14 2013-12-19 Vaneet Aggarwal Presence information based messaging
US20140043213A1 (en) * 2012-08-07 2014-02-13 Industry-University Cooperation Foundation Hanyang University Wearable display device having a detection function
KR20140020177A (ko) * 2012-08-07 2014-02-18 한양대학교 산학협력단 감지 기능을 구비한 착용형 디스플레이 장치
WO2014054210A2 (en) * 2012-10-01 2014-04-10 Sony Corporation Information processing device, display control method, and program
US20140146075A1 (en) * 2012-11-29 2014-05-29 Kabushiki Kaisha Toshiba Electronic Apparatus and Display Control Method
CN103946732A (zh) * 2011-09-26 2014-07-23 微软公司 基于对透视、近眼显示器的传感器输入的视频显示修改
CN105009030A (zh) * 2013-03-06 2015-10-28 高通股份有限公司 停用高速行进的增强现实ar装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3364081B2 (ja) 1995-02-16 2003-01-08 株式会社半導体エネルギー研究所 半導体装置の作製方法
JP4006856B2 (ja) * 1998-11-02 2007-11-14 富士フイルム株式会社 電子カメラシステム及びその制御方法
US20020068500A1 (en) * 1999-12-29 2002-06-06 Oz Gabai Adaptive toy system and functionality
US20020044152A1 (en) 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US6919866B2 (en) 2001-02-06 2005-07-19 International Business Machines Corporation Vehicular navigation system
US7978184B2 (en) 2002-11-08 2011-07-12 American Greetings Corporation Interactive window display
JP2004109995A (ja) * 2003-08-12 2004-04-08 Toshiba Corp 装着型情報呈示装置および方法および記憶媒体
JP2005258015A (ja) 2004-03-11 2005-09-22 Mitsubishi Electric Corp 多次元表示装置及び方法
JP4373286B2 (ja) * 2004-05-06 2009-11-25 オリンパス株式会社 頭部装着型表示装置
CN101268437B (zh) 2005-11-02 2010-05-19 松下电器产业株式会社 显示目标透射装置及显示目标透射方法
JP2007134785A (ja) * 2005-11-08 2007-05-31 Konica Minolta Photo Imaging Inc 頭部装着型の映像表示装置
US7855743B2 (en) * 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
KR101058040B1 (ko) 2006-12-21 2011-08-19 삼성전자주식회사 컨텐츠 출력 방법 및 그 장치
JP4549381B2 (ja) 2007-11-14 2010-09-22 シャープ株式会社 情報処理システム及び情報処理装置
DE602008003680D1 (de) 2008-05-29 2011-01-05 Lg Electronics Inc Transparente Anzeige und Betriebsverfahren dafür
KR20100064177A (ko) 2008-12-04 2010-06-14 삼성전자주식회사 전자장치 및 그의 디스플레이방법
KR20100128958A (ko) 2009-05-29 2010-12-08 엘지전자 주식회사 영상표시장치 및 그 제어방법
JP5316453B2 (ja) * 2010-03-24 2013-10-16 ブラザー工業株式会社 ヘッドマウントディスプレイおよびプログラム
US9557812B2 (en) * 2010-07-23 2017-01-31 Gregory A. Maltz Eye gaze user interface and calibration method
KR20120029228A (ko) 2010-09-16 2012-03-26 엘지전자 주식회사 투명 디스플레이 장치 및 객체 정보 제공 방법
US20120202466A1 (en) * 2011-02-07 2012-08-09 Arnon Zangvil System and methods thereof for controlled delivery of messages to mobile devices
EP2523434A1 (en) * 2011-05-11 2012-11-14 10n2 Technologies, Inc. A method for limiting the use of a mobile communications device dependent on the travelling speed
KR20130050066A (ko) * 2011-11-07 2013-05-15 삼성전자주식회사 가시광 통신을 이용한 위치 보정 장치 및 방법
GB2500006A (en) 2012-03-06 2013-09-11 Teknologian Tutkimuskeskus Vtt Oy Optical touch screen using cameras in the frame.
US20130241805A1 (en) * 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
KR101793628B1 (ko) 2012-04-08 2017-11-06 삼성전자주식회사 투명 디스플레이 장치 및 그 디스플레이 방법
US9219901B2 (en) 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
KR102081797B1 (ko) 2012-12-13 2020-04-14 삼성전자주식회사 안경 장치 및 이의 제어 방법, 오디오 장치 및 이의 오디오 신호 제공 방법, 그리고 디스플레이 장치
US10218660B2 (en) * 2013-12-17 2019-02-26 Google Llc Detecting user gestures for dismissing electronic notifications
US9031812B2 (en) * 2014-02-27 2015-05-12 Fitbit, Inc. Notifications on a user device based on activity detected by an activity monitoring device
US9197590B2 (en) * 2014-03-27 2015-11-24 Dropbox, Inc. Dynamic filter generation for message management systems
US10133351B2 (en) * 2014-05-21 2018-11-20 Apple Inc. Providing haptic output based on a determined orientation of an electronic device
US9272658B2 (en) * 2014-06-24 2016-03-01 Google Inc. Attention and event management

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101506868A (zh) * 2006-09-08 2009-08-12 索尼株式会社 显示设备和显示方法
US20090234614A1 (en) * 2007-04-23 2009-09-17 Philippe Kahn Eyewear having human activity monitoring device
US20120236030A1 (en) * 2010-02-28 2012-09-20 Osterhout Group, Inc. See-through near-eye display glasses including a modular image source
US20110219080A1 (en) * 2010-03-05 2011-09-08 Qualcomm Incorporated Automated messaging response in wireless communication systems
CN103946732A (zh) * 2011-09-26 2014-07-23 微软公司 基于对透视、近眼显示器的传感器输入的视频显示修改
US20130339453A1 (en) * 2012-06-14 2013-12-19 Vaneet Aggarwal Presence information based messaging
US20140043213A1 (en) * 2012-08-07 2014-02-13 Industry-University Cooperation Foundation Hanyang University Wearable display device having a detection function
KR20140020177A (ko) * 2012-08-07 2014-02-18 한양대학교 산학협력단 감지 기능을 구비한 착용형 디스플레이 장치
WO2014054210A2 (en) * 2012-10-01 2014-04-10 Sony Corporation Information processing device, display control method, and program
US20140146075A1 (en) * 2012-11-29 2014-05-29 Kabushiki Kaisha Toshiba Electronic Apparatus and Display Control Method
CN105009030A (zh) * 2013-03-06 2015-10-28 高通股份有限公司 停用高速行进的增强现实ar装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113014995A (zh) * 2021-02-26 2021-06-22 北京蜂巢世纪科技有限公司 视频回放方法、介质、眼镜及程序产品
US11538243B2 (en) 2021-02-26 2022-12-27 Beijing SuperHexa Century Technology CO. Ltd. Video playback method, medium, glasses and program product
CN114189668A (zh) * 2021-11-26 2022-03-15 长沙海润生物技术有限公司 一种穿戴式创面成像设备及成像方法
CN114189668B (zh) * 2021-11-26 2024-03-15 长沙海润生物技术有限公司 一种穿戴式创面成像设备及成像方法
CN116204068A (zh) * 2023-05-06 2023-06-02 蔚来汽车科技(安徽)有限公司 增强现实显示设备及其显示方法、车辆、移动终端、介质
CN116204068B (zh) * 2023-05-06 2023-08-04 蔚来汽车科技(安徽)有限公司 增强现实显示设备及其显示方法、车辆、移动终端、介质

Also Published As

Publication number Publication date
CN111897425B (zh) 2024-03-12
US20200042098A1 (en) 2020-02-06
US20160034042A1 (en) 2016-02-04
US10452152B2 (en) 2019-10-22
EP2980627A1 (en) 2016-02-03
US20200356180A1 (en) 2020-11-12
CN105320279A (zh) 2016-02-10
US10037084B2 (en) 2018-07-31
CN105320279B (zh) 2020-08-14
US20180314339A1 (en) 2018-11-01
WO2016017997A1 (en) 2016-02-04
US11150738B2 (en) 2021-10-19
US10725556B2 (en) 2020-07-28

Similar Documents

Publication Publication Date Title
CN105320279B (zh) 可穿戴眼镜和利用其提供内容的方法
TWI670520B (zh) 可穿戴式眼鏡和使用其提供內容的方法
JP6966443B2 (ja) 画像表示システム、並びにヘッドマウントディスプレイの制御装置とその作動方法および作動プログラム
CN106030458B (zh) 用于基于凝视的媒体选择和编辑的系统和方法
CN108700982B (zh) 信息处理设备、信息处理方法以及程序
US9223401B1 (en) User interface
CN104932679B (zh) 可穿戴设备及其操作方法
US9807291B1 (en) Augmented video processing
US8767014B2 (en) Automatic text scrolling on a display device
JP2023113596A (ja) 改善された光学及び知覚デジタルアイウエア
TWI581178B (zh) 混合實境顯示器中使用者控制的真實物件的消失
KR102390875B1 (ko) 웨어러블 디바이스 및 그 동작 방법
US9794475B1 (en) Augmented video capture
CN106471419A (zh) 管理信息显示
KR200478490Y1 (ko) 헤드 마운트 장치
KR20150037251A (ko) 착용형 컴퓨팅 디바이스 및 사용자 인터페이스 방법
KR20160026429A (ko) 헤드 마운트 디스플레이 장치
WO2016204995A1 (en) Serial text presentation
AU2013200187B9 (en) Automatic text scrolling on a head-mounted display
US20240104849A1 (en) User interfaces that include representations of the environment
WO2022232127A1 (en) Text suggestion based on environmental context

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant