CN110082910A - 用于在显示镜上展示表情符号的方法和设备 - Google Patents

用于在显示镜上展示表情符号的方法和设备 Download PDF

Info

Publication number
CN110082910A
CN110082910A CN201810536794.1A CN201810536794A CN110082910A CN 110082910 A CN110082910 A CN 110082910A CN 201810536794 A CN201810536794 A CN 201810536794A CN 110082910 A CN110082910 A CN 110082910A
Authority
CN
China
Prior art keywords
wearer
video
display device
wearable
emoticon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810536794.1A
Other languages
English (en)
Inventor
石海
胡大文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute Of Snail Innovation
Original Assignee
Institute Of Snail Innovation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute Of Snail Innovation filed Critical Institute Of Snail Innovation
Publication of CN110082910A publication Critical patent/CN110082910A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

本发明公开用于在显示镜上展示表情符号的方法和设备,描述可佩戴显示装置的架构和设计。根据本发明的一个方面,可佩戴显示装置配备有面向外的外部显示装置。换句话说,所述外部显示装置并非意图用于所述可佩戴显示装置的佩戴者,而是用于使佩戴者吸引佩戴者之前或附近的人的注意。所述外部显示装置可以手动或自动地开启以显示表达。取决于实施方案或应用,所述表达可为文本、符号或有或无对所述可佩戴显示装置中显示的内容的提及的表情符号。

Description

用于在显示镜上展示表情符号的方法和设备
技术领域
本发明大体上涉及显示装置领域,且更具体地说涉及在事件中展示情绪表达的显示装置 的架构和设计,其中此显示装置可在包含游戏、虚拟现实和扩增现实的各种应用中使用。事 件的实例包含但可不限于对佩戴者附近的另一人表达感觉、当查看眼镜中显示的特定内容时 分享佩戴者的感觉、以及当佩戴者已盯着眼镜中显示的内容中的某一对象长达预先界定时间 段时显示表达。
背景技术
显示镜,也被称作可佩戴显示装置,为经设计呈一副眼镜的形状的光学头戴式显示器。 原先在生产普遍存在的计算机的任务的情况下研发出所述显示器。此显示装置以类似智能手 机的免提格式显示信息。佩戴者经由命令(例如,语音和手势)与因特网通信。使用此类可 佩戴显示装置的风行领域与游戏相关。使用所述设备的游戏玩家通常能够环视所产生的三维 环境、在所述环境中到处移动且与屏幕上或护目镜中描绘的特征或对象互动。
随着虚拟现实(VR)和扩增现实(AR)的引入,可佩戴显示装置迅速成为主流。几乎所 有AR和VR应用都依赖于可佩戴显示装置递送内容。头戴式显示器通常呈屏幕在眼睛前方的 头戴式护目镜形式。虚拟现实实际上通过切断外部刺激而将用户带入数字世界。以此方式, 用户仅仅关注于正在HMD中显示的数字内容。形成各种人工产生的三维环境以呈现可佩戴显 示装置的独特特征。其还用于在移动装置上显示关于电视播送的体育比赛的得分覆层且弹出 3D电子邮件、照片或文本消息。行业的领导者们还正使用AR来利用全息图和运动激活命令 进行令人振奋且革命性的事项。
图1展示用于显示视频、递送VR或AR的应用的市场中如今通常见到的示范性护目镜。 无论护目镜如何设计,其看起来都是封闭且私人的。换句话说,当用户佩戴护目镜时,他或 她将忽略或并不能够与他/她周围的其它人互动。因此,需要可显示视频或VR/AR内容并且允 许佩戴者在需要时保持吸引其它人的注意的设备。图2展示来自微软(Microsoft)的HoloLens 的简图。这也展现其防止佩戴者与正在交谈的某人互动,分享佩戴者对什么感兴趣或在一时 刻使其它人意识到他/她的感觉的封闭或私人特征。因此,进一步需要一种可佩戴查看或显示 装置,其看起来类似于一副常规眼镜但也是对佩戴者正在互动的某人的表达装置。
发明内容
本部分旨在概述本发明的一些方面且简单介绍一些优选实施例。可对此部分以及摘要和 标题进行简化或省略以免混淆此部分、摘要和标题的目的。此简化或省略并不意图限制本发 明的范围。
本发明大体上涉及可佩戴显示装置的架构和设计。根据本发明的一个方面,使得可佩戴 显示装置呈一副眼镜的形式且包含最小数目个部分以降低其复杂度和重量。单独壳套或外罩 提供为便携式的以附连或附接到用户(例如,口袋或腰带)。所述外罩包含所有必要部分和 电路以产生供在眼镜中显示的内容。镜片中的每一个包含专门设计的透明介质(例如,稜镜 或光波导)以从外罩接收图像和当前图像以供佩戴者查看。
眼镜的镜框上或附近定位有至少一个外部显示器,其中所述外部显示器并非意图用于佩 戴者且面向外以使得邻近佩戴者或佩戴者附近的人可以看到所述外部显示器。所述显示器供 佩戴者用以显示某物以吸引所述人的注意或根据佩戴者正在或已经查看的内容而显示预定内 容。取决于实施方案,外部显示器可显示表达(消息、符号或表情符号或其它指示符)且可 以在LED、LCD、OLED或其它显示装置中实施。可以从外罩中维持的列表产生或选择所述表达。
一种可佩戴显示装置,其包括:至少一集成镜片,其容纳在镜框中;外部显示器,其安 装在所述镜框上或附近从而以电子方式显示来自所述可佩戴显示装置的佩戴者的表达,其中 所述外部显示器面向外以使得坐或站在所述佩戴者前方的人会看到所述外部显示器上显示的 内容;一对镜腿,至少一个镜腿耦合到缆线,其中所述电缆延伸到所述镜腿之外以从可佩戴 盒接收视频;以及投影机构,其安置在所述镜腿的一端附近,从而接收所述视频且将所述视 频投影到所述集成镜片中,其中所述佩戴者在所述集成镜片中看到所述视频。
所述外部显示器经驱动以显示符号从而与所述人互动。所述外部显示器是基于LCD、LED 或OLED。所述外部显示器包含一个或多个定形LED。所述符号为玄子可由所述可佩戴盒访问 的多个表情符号的表情符号。所述表情符号由所述佩戴者手动选择。根据所述集成镜片中显 示的所述视频而手动选择所述表情符号。所述外部显示器包含多个LED,其中选择性地使所 述LED中的一些重组所述表情符号。致使所述外部显示器显示所述佩戴者已经盯着所述集成 镜片中显示的所述视频中的对象多久的指示。所述集成镜片包含用于使所述视频显示于其上 的光学介质。
一种用于使可佩戴显示装置显示效果的方法,所述可佩戴显示装置包含容纳在镜框中的 至少一集成镜片,所述方法包括:将外部显示器安装在所述镜框上或附近;且将表达以电子 方式在所述外部显示器上显示,其中所述外部显示器面向外以使得坐或站在所述佩戴者前方 的人会看到所述外部显示器上的所述表达,其中所述可佩戴显示装置进一步包含:一对镜腿, 至少一个镜腿耦合到缆线,其中所述缆线延伸到所述镜腿之外以从可佩戴盒接收视频;和 投影机构,其安置在所述镜腿的一端附近,从而接收所述视频且将所述视频投影到所述集成 镜片中,其中所述佩戴者在所述集成镜片中看到所述视频。所述外部显示器经驱动以显示符 号从而与所述人互动。所述外部显示器是基于LCD、LED或OLED。所述外部显示器包含一个 或多个定形LED。所述符号是从所述可佩戴盒可访问的多个表情符号中选择的表情符号。所 述表情符号由所述佩戴者手动选择。根据所述集成镜片中显示的所述视频而手动选择所述表 情符号。所述外部显示器包含多个LED,其中选择性地使所述LED中的一些重组所述表情符 号。致使所述外部显示器显示所述佩戴者已经盯着所述集成镜片中显示的所述视频中的对象 多久的指示。所述集成镜片包含用于使所述视频显示于其上的光学介质。
根据本发明的另一个方面,可佩戴显示装置中镜片中的一个或两个可以在需要时向外旋 转(例如,翻转)以充当外部显示器。当所述镜片旋转时,任选地不再显示佩戴者正查看的 其它镜片中所显示的图像且变为显示所述表达。当佩戴者需要分享他/她正在查看什么时,图 像可显示于旋转或翻转镜片上。
根据本发明的又一方面,外部显示器可用于指示佩戴者已经注视眼镜中显示的场景中的 指定对象多久;表达佩戴者的某一感觉或与其它人分享查看的内容。
本发明可被实施为设备、方法、系统的一部分。不同实施方案可产生不同益处、目标和 优点。在一个实施例中,本发明为可佩戴显示装置,包括:容纳在镜框中的至少一集成镜片; 外部显示器,其安装在镜框上或附近从而以电子方式显示来自可佩戴显示装置的佩戴者的表 达,其中所述外部显示器面向外以使得坐或站在佩戴者前方的人会看到外部显示器上显示的 内容;一对镜腿,至少一个镜腿耦合到缆线,其中所述缆线延伸到所述镜腿之外以从可佩戴 盒接收视频;以及投影机构,其安置在镜腿的一端附近,从而接收所述视频且将所述视频投 影到集成镜片中,其中佩戴者在集成镜片中看到所述视频。
在另一实施例中,本发明为用于使可佩戴显示装置显示效果的方法,所述可佩戴显示装 置包含容纳在镜框中的至少一集成镜片,所述方法包括:将外部显示器安装在镜框上或附近; 且在外部显示器上以电子方式显示表达,其中所述外部显示器面向外以使得坐或站在佩戴者 前方的人会看到外部显示器上的表达,且其中所述可佩戴显示装置进一步包含:一对镜腿, 至少一个镜腿耦合到缆线,其中所述缆线延伸到所述镜腿之外以从可佩戴盒接收视频;和投 影机构,其安置在镜腿的一端附近,从而接收所述视频且将所述视频投影到集成镜片中,其 中佩戴者在集成镜片中看到所述视频。
在再一实施例中,本发明为用于报告对视频中预定对象的跟踪的可佩戴显示装置,所述 可佩戴显示装置包括:容纳在镜框中的至少一集成镜片;外部显示器,其面向外以使得坐或 站在佩戴者前方的人会看到外部显示器上显示的内容;一对镜腿,至少一个镜腿耦合到延伸 到镜腿之外以从可佩戴盒接收视频的缆线;投影机构,其安置在镜腿的一端附近,从而接收 所述视频且将所述视频投影到集成镜片中;以及至少一传感器,其安装在镜框附近或镜框上, 经提供以关注盯着视频中移动的预定对象的瞳孔,其中所述外部显示器显示表达以展示佩戴 者一直如何追随视频中移动的预定对象。
在又一实施例中,本发明为用于使可佩戴显示装置报告对视频中预定对象的跟踪的方法, 所述方法包括经由可佩戴显示装置中的缆线接收所述视频,其中所述可佩戴显示装置包含: 容纳在镜框中的至少一集成镜片;外部显示器,其面向外以使得坐或站在佩戴者前方的人会 看到外部显示器上显示的内容;一对镜腿,至少一个镜腿耦合到缆线,其中所述缆线延伸到 所述镜腿之外以从可佩戴盒接收视频;投影机构,其安置在镜腿的一端附近,从而接收所述 视频且将所述视频投影到集成镜片中,其中佩戴者在集成镜片中看到所述视频。所述方法进 一步包括产生来自传感器的一组图像,所述传感器安装在镜框附近或镜框上,经提供以关注 盯着视频中移动的预定对象的瞳孔;且在外部显示器上显示表达以展示佩戴者一直如何追随 视频中移动的预定对象。
除了在以下描述中通过本发明的实践达成且产生附图中说明的实施例的以上目标,存在 许多其它目标。
附图说明
参考以下描述、所附权利要求书和附图将更好地理解本发明的这些和其它特征、方面以 及优点,在附图中:
图1展示用于递送或显示VR或AR的应用的市场中如今通常见到的示范性护目镜;
图2展示来自微软(Microsoft)的HoloLens的简图;
图3展示根据本发明的一个实施例的以外部显示器予以实施以对其它人展示表达的一副 示范性眼镜;
图4展示佩戴具有表情符号显示器的图3的眼镜的佩戴者或用户的实例;
图5展示一个实施例,其中壳套实施为包含允许佩戴者将手指(未展示)移动到某一位 置以激活命令或从一系列表情符号选择一表情符号的触控板;
图6展示其中经由控制器通过智能手机控制可佩戴显示装置(显示镜)的实例,其中所 述控制器通过拇指或手指操作;
图7展示可以由佩戴者或佩戴者前方的人查看的投影到一副透明镜片中的图像的实例, 其中所述图像可以在需要时经翻转以供人从外部查看;
图8展示其中眼镜镜片中的一个经翻转以与佩戴者前方的人分享所显示的内容的实例;
图9展示将传感器安装或嵌入特殊镜片附近的图;
图10展示其中表演者正佩戴耦合到可佩戴盒的一副显示镜的场景的实例,极其类似于使 用本发明的一个实施例的实例,除了所述表演者现正通过眼镜的一个镜片注视着相机以外;
图11展示可用于图9的眼镜或图3到5中所展示的眼镜中的示范性镜片;以及
图12展示可以实施于图3的可佩戴盒中以控制背向可佩戴显示装置的佩戴者的表情符号 显示器或显示器的电路的功能框图。
具体实施方式
具体实施方式很大程度上以程序、步骤、逻辑块、处理,以及直接或间接相似于耦合到 网络的数据处理装置的操作的其它符号表示呈现。这些过程描述和表示通常由所属领域的技 术人员使用以最有效地将其工作主旨传达给所属领域的其它技术人员。
本文中提及“一个实施例”或“实施例”是指结合实施例描述的特定特征、结构或特性 可包含于本发明的至少一个实施例中。本说明书中各个位置中的词组“在一个实施例中”的 出现未必全部是指同一实施例,也未必是与其它实施例相互排斥的单独或替代实施例。另外, 表示本发明的一个或多个实施例的过程、流程图或图式中的框的次序在本发明中并不固有地 指示任何特定次序,也不暗示任何局限性。
本文中参考图3到12论述本发明的实施例。然而,所属领域的技术人员将易于了解,本 文中关于这些图给出的详细描述是为了解释性目的,因为本发明扩展超出这些有限的实施例。
本发明涉及一种系统、方法和设备,其中的每一个经发明、独特地设计、实施或配置成 使得可佩戴显示装置,尤其头戴式显示器能够展示表达。取决于应用,所述表达可为文本、 表情符号、分数或一种类型的指示。如本文中所使用,对性别的任何代词参考(例如,他(he/him)、她(she/her)等等)意图为中性的。除非另外明确地陈述,否则在下文中代词“他(he)”、“他的(his)”或“他(him)”的使用仅出于管理清晰性和便利性。另外, 任何单数或复数的使用也应解释为根据上下文的需要分别指代复数或单数。
现参看图式,其中贯穿若干视图相同的数字是指相同的零件。图3展示根据本发明的一 个实施例的可用于展示视频(例如,VR/AR)的一副示范性眼镜200。眼镜200呈现为与一副 正常眼镜无显著差异,但包含分别从镜腿206和208延伸的一个或两个柔性缆线202和204。 根据一个实施例,每对所述两个柔性缆线202以及镜腿206和208集成或以可拆卸方式连接 在其一端处且包含一个或多个电线。
柔性缆线202和204两者均在其另一端处耦合到便携式计算装置210,其中计算装置210 产生或接收视频或图像。便携式计算装置210通常经设计以封闭在壳套或外罩中以携带在口 袋中或附接到身体上。通过缆线202中的一个或两个将图像传输到眼镜200,其中将图像投 影到眼镜200中的镜片上以供佩戴者查看。根据一个实施例,缆线为光纤,其经提供以通过 光纤内的全反射光学传输所显示图像(例如,来自LCS装置)。使用光纤的操作的细节可能 在美国申请第15/372,957号中有所提及。根据另一实施例,缆线包含多个电线,所述电线中 的一个将图像(信号或数据)从壳套210中的存储器装置发射到眼镜以供在其中显示图像。 此类眼镜的实例为来自www.vuzix.com的智能眼镜,其使用一组电线以从可佩戴盒获取图像。
图3中的重要特征中的一个为一个或多个外部显示器212实施于眼镜200上。取决于实 施方案,外部显示器212可以呈LED、OLED、LCD或其它显示装置。目标是对可能正注视眼镜 200的佩戴者、正与佩戴者交谈或佩戴者附近的某人显示表达。如本文中所使用,外部显示 器212在本文中也可以被称作表情符号显示器。
图4展示佩戴具有表情符号显示器222的眼镜200的佩戴者或用户220的实例。作为实 例,表情符号显示器222的分解版本224展示正显示一心形。取决于实施方案,表情符号显 示器222可以位于眼镜200的镜框上或镜框附近的任何地方。在如图4中所示的一个实施例 中,表情符号显示器222位于眼镜200的上镜框的转角处。在需要时,佩戴者220可激活命令(例如,语音、手势或身体触碰)以开启显示器222或显示器222自动开启以显示表达。
图5展示一个实施例,其中壳套220实施为包含允许佩戴者220将手指(未展示)移动 到某一位置以激活命令或从一系列表情符号226选择一表情符号的触控板224作为图4中所 展示的实例。因此,将选定表情符号显示于表情符号显示器222上或相应经定形的对应显示 器228开启,如图5中所示。
当佩戴者220正查看可从因特网获得的一些内容(例如,由可能坐或站在佩戴者之前的 另一人分享)时,所述佩戴者可能需要对这个人表达他的感觉,可能是关于他正查看的内容 或有关的任何内容。佩戴者激活表情符号的显示器以使得这个人可设想出含义。举例来说, 当两个人正在讨论某事时,佩戴眼镜200的人接收到便条(例如,电子邮件或文本),佩戴 者必须通过暂停与另一人的讨论来处理所述便条。结果是佩戴者可能耗费比预期更多的时间, 在此状况下佩戴者可致使表情符号显示器222显示符号或消息以指示“给我一点时间”或“稍 等片刻”。在另一实例中,佩戴者可能想要通过展示指示“好笑”或“有趣”的符号或消息 以吸引另一人的注意而与这个人分享所接收到的媒体。在再一实例中,佩戴者可能通过展示 表情符号(例如,心形)仅与另一人调情,在此状况下所显示表情符号未必与眼镜200中所 展示的内容相关。在又另一实例中,表情符号显示器222或228用于指示佩戴者已经盯着屏 幕/显示器中的某一位置或眼镜中显示的预定对象多久。
图6展示其中经由控制器254通过智能手机252控制可佩戴显示装置250(显示镜)的 另一实例,其中通过拇指或手指操作控制器254。外部显示器256上显示的表达或内容通过 智能手机252提供且经由控制器254选择。也可根据眼镜250中显示的场景自动地通过智能 手机252供应所述内容,其中所述场景也通过智能手机252供应。智能手机252执行实施本 发明的一个实施例的应用且以有线或无线方式与控制器254通信。所述应用允许用户设置是 否需要手动或自动地控制表情符号显示器。在再一实施例(未展示)中,可佩戴显示装置250 耦合到智能手机或与智能手机通信,在此状况下智能手机充当接口以允许佩戴者控制外部显 示器256的显示器。
图7展示包含两个镜片的示范性可佩戴装置260,每个镜片展示投影到其中的图像或视 频以使得佩戴者在佩戴装置260时可看到图像262。所述镜片为透视或透明的。在佩戴者希 望与站在佩戴者前方的另一人分享他正观看的内容的情况下,佩戴者可以允许这个人接近眼 镜,从而仔细查看镜片。也可看到图像262,但是颠倒的。在不摘掉眼镜的情况下,佩戴者 可触发命令以使图像260翻转,以使得这个人正常地看到图像262,而佩戴者看到颠倒的图 像262。
图8展示镜片中的一个经翻转的实施例。类似于机构中的翻转式太阳镜,可佩戴装置经 设计以具有根据一个实施例允许镜片270和272中的一个或两个翻转的机构。图8以图形方 式展示翻转镜片272中的一个以允许站在旁边的人看到佩戴者正观看的内容。举例来说,佩 戴者正观看镜片270和272中显示的某物且希望与站在他旁边或前方的某人分享所述内容。 佩戴者可仅翻转所述镜片中的一个以允许站在旁边的人看到所述内容,同时监视另一镜片270 上回放的进度。为了确保站在旁边的人可以正常看到所述内容,所述内容经颠倒或镜像处理。 换句话说,当翻转所述镜片中的一个或两个以允许佩戴者前方的某人看到所述内容时,所述 内容经镜像处理。颠倒或镜像处理图像的过程极为熟知且在本文中并不进一步描述。
现参考图9,其展示根据本发明的一个实施例将传感器302安装或嵌入于特殊镜片304 附近的图像306。如下文将进一步描述,提供特殊镜片304以用于形成或显示图像306,以使 得在佩戴可佩戴显示装置(例如,眼镜200)时人眼308可看到图像306。提供传感器302(例 如,CCD或CMOS)以关注和跟踪瞳孔。为了避免混淆本发明的各方面,如何跟踪瞳孔的位置 的细节本文中并未进一步提供。存在关于跟踪瞳孔的许多可用论述。在Wikipedia上搜索关 键词“眼动跟踪”会给出用于跟踪眼球/瞳孔的技术/装置的良好描述。网站www.pupil-labs.com提供关于眼动跟踪的开放源代码模型。关注且致力于瞳孔、移动眼动跟 踪耳机和开放源代码软件框架,且关注且致力于研发用于虚拟现实、扩增现实和混合实境的 开放源代码工具。在任何状况下,瞳孔跟踪的输出可以区域或坐标(x,y)表达。图9展示涵盖 眼睛盯着或聚焦的对象314的聚焦区域312的实例。
根据一个实施例,当佩戴者或用户在镜片中显示的场景中到处移动他的眼睛,从而导致 传感器302产生图像序列时,瞳孔的移动或轨迹可基于所述图像由瞳孔跟踪技术获得。如果 确定瞳孔的轨迹基本上类似于对象的移动(例如,场景310中的笑脸314),那么可作出用 户已经注视着(移动)对象314达一段时间的结论。表情符号显示器222或228上的显示可 用于指示用户一直如何注视着眼镜中显示的场景中的特定对象。此显示器可促进与用户周围 的一个或多个人的一种类型的视觉通信。举例来说,在视频游戏竞赛中,表情符号显示器222 可用于显示裁判的分数以知道参赛者视频游戏的进行情况。
图10展示表演者320正佩戴耦合到可佩戴盒324的一副显示镜322的场景的实例,极其 类似于使用本发明的一个实施例的实例,除表演者320现正通过眼镜322的一个镜片注视着 相机326以外。假设在表演者320正到处移动时,佩戴者正注视着壳套324且接着移动以聚 焦在眼镜322处。瞳孔相应地移动且遵循眼镜322的移动。通过瞳孔跟踪,执行实施瞳孔跟 踪方法的模块的过程确定瞳孔的轨迹。将所述轨迹与场景的内容进行比较,可以估计佩戴者 似乎对眼镜322感兴趣。因此,表情符号显示器222可被点亮或展示预定标志(例如,分数 或标志)。任选地,对应服务或内容(例如,广告)可以提供到用户正观看的显示器或插入 于所述显示器中。
为了促进对图9的镜片304的理解,图11展示可用于图9的眼镜或图3中所展示的眼镜 中的示范性镜片360。镜片360包含两个部分:棱镜362和光学校正镜片或校正器364。棱镜 362和校正器364经堆叠以形成镜片360。如名称所指示,光学校正器364经提供以校正来自 棱镜362的光学路径,以使得穿过棱镜362的光直通校正器364。换句话说,来自棱镜362的折射光由校正器364校正或去折射。在光学中,棱镜是具有折射光的平坦抛光表面的透明光学元件。平坦表面中的至少两个在其间必须具有某一角度。表面之间的确切角度取决于应 用。传统几何形状是具有三角形基底和矩形侧边的三角棱镜,且在口语使用中,棱镜通常指代 此类型。棱镜可由对其设计所针对的波长透明的任何材料制成。典型的材料包含玻璃、塑料 和氟石。根据一个实施例,棱镜362的类型实际上不在于几何棱镜的形状,因此棱镜362在 本文被称为任意形状棱镜或光导,其使得校正器364成为与棱镜362的形状互补、互反或轭 合的形状以形成镜片360。
在镜片360的一个边缘或棱镜362的边缘上,存在利用棱镜362的至少三个物件。参考 367为将图像投影到棱镜362中的成像源。成像源的实例可包含但不限于LCoS、LCD和OLED。 根据棱镜362的形状,所投影图像在棱镜362中经折射且随后被眼睛365看到。换句话说, 佩戴采用镜片462的一副眼镜的用户可看到通过棱镜362显示或在所述棱镜中显示的图像。
现参考图12,其展示可以实施于图3的可佩戴盒210中以控制背向可佩戴显示装置的佩 戴者的表情符号显示器或显示器的电路400的功能框图。换句话说,此显示器并非意图用于 佩戴者,而是经提供以用于在可佩戴显示装置中展示场景时分享佩戴者正查看的内容中的一 些或来自佩戴者的表达。
视频源(例如,视频、AR/VR内容)产生于可佩戴装置210内和/或经由因特网通过可佩 戴装置210获得。任选地,提供取样电路402以再取样视频源从而确保在呈现时其恰当地显 示于显示镜中。如名称所指示,提供处理单元404以处理所述视频源。取决于应用,可能需 要处理视频源以添加额外对象或描述(例如,AR)或“拼接”一系列视图以产生环绕视图(例 如,对于VR)。将经处理图像缓存在存储器406中以供显示于显示装置408上,其中所述显 示装置包含投影到特殊镜片(例如,图11的集成镜片360)中的机构。
除现有技术可佩戴显示装置之外,电路400包含驱动表达或表情符号显示器410的驱动 器(未展示)。如上文所描述,表情符号显示器410通常位于或嵌入于眼镜或眼镜框的外侧 上的某处且面向外,以使得坐或站在佩戴者前方的人在开启所述显示器时可看到所述显示器。 表情符号显示器410可以取决于实施方案而自动或手动开启。
在一个实施例中,每当佩戴者需要时,消息(例如,文本、符号或表情符号)就由佩戴 者手动选择且显示于表情符号显示器410上。在另一实施例中,当满足条件时,消息(例如, 文本、符号或表情符号)经自动选择且显示于表情符号显示器410上。一个示范性条件为佩 戴者已盯着场景中可识别的对象达预定时段(例如,2、3、4或5秒)。瞳孔检测器411经提供以跟踪瞳孔的移动且输出其轨迹。将瞳孔的坐标或轨迹提供到区域检测器412,其经编程或设计以计算瞳孔已经盯着的所关注区(ROI)或聚焦区域。通过ROI的信息,处理单元404经编程以确定哪一对象已经落入所述ROI或对应于所述ROI。当聚焦时间超出限制(例如, 1.5秒)时,发送来自存储器406的触发信号以驱动表情符号显示器410。任选地,在对象识 别引擎414处确定所述对象,所述引擎可以耦合到含有场景中可能已经使用的所有可用对象 的数据库。基于所识别对象,可以自动地选择文本、符号或表情符号且将其呈现给表情符号 显示器410以供显示。
已以一定程度的细致度足够详细地描述本发明。所属领域的技术人员应理解,已仅借助 于实例得出实施例的本公开且可对部分的布置和组合做出众多改变而不脱离所要求的本发明 的精神和范围。因此,本发明的范围由所附权利要求书而非前文对实施例的描述限定。

Claims (20)

1.一种可佩戴显示装置,其特征在于:其包括:
至少一集成镜片,其容纳在镜框中;
外部显示器,其安装在所述镜框上或附近从而以电子方式显示来自所述可佩戴显示装置的佩戴者的表达,其中所述外部显示器面向外以使得坐或站在所述佩戴者前方的人会看到所述外部显示器上显示的内容;
一对镜腿,至少一个镜腿耦合到缆线,其中所述电缆延伸到所述镜腿之外以从可佩戴盒接收视频;以及
投影机构,其安置在所述镜腿的一端附近,从而接收所述视频且将所述视频投影到所述集成镜片中,其中所述佩戴者在所述集成镜片中看到所述视频。
2.根据权利要求1所述的可佩戴显示装置,其特征在于:所述外部显示器经驱动以显示符号从而与所述人互动。
3.根据权利要求2所述的可佩戴显示装置,其特征在于:所述外部显示器是基于LCD、LED或OLED。
4.根据权利要求2所述的可佩戴显示装置,其特征在于:所述外部显示器包含一个或多个定形LED。
5.根据权利要求2所述的可佩戴显示装置,其特征在于:其中所述符号为选自可由所述可佩戴盒访问的多个表情符号的表情符号。
6.根据权利要求5所述的可佩戴显示装置,其特征在于:所述表情符号由所述佩戴者手动选择。
7.根据权利要求6所述的可佩戴显示装置,其特征在于:根据所述集成镜片中显示的所述视频而手动选择所述表情符号。
8.根据权利要求6所述的可佩戴显示装置,其特征在于:所述外部显示器包含多个LED,其中选择性地使所述LED中的一些重组所述表情符号。
9.根据权利要求1所述的可佩戴显示装置,其特征在于:致使所述外部显示器显示所述佩戴者已经盯着所述集成镜片中显示的所述视频中的对象多久的指示。
10.根据权利要求9所述的可佩戴显示装置,其特征在于:所述集成镜片包含用于使所述视频显示于其上的光学介质。
11.一种用于使可佩戴显示装置显示效果的方法,所述可佩戴显示装置包含容纳在镜框中的至少一集成镜片,其特征在于:所述方法包括:
将外部显示器安装在所述镜框上或附近;且
将表达以电子方式在所述外部显示器上显示,其中所述外部显示器面向外以使得坐或站在所述佩戴者前方的人会看到所述外部显示器上的所述表达,其中所述可佩戴显示装置进一步包含:
一对镜腿,至少一个镜腿耦合到缆线,其中所述缆线延伸到所述镜腿之外以从可佩戴盒接收视频;和
投影机构,其安置在所述镜腿的一端附近,从而接收所述视频且将所述视频投影到所述集成镜片中,其中所述佩戴者在所述集成镜片中看到所述视频。
12.根据权利要求11所述的方法,其特征在于:所述外部显示器经驱动以显示符号从而与所述人互动。
13.根据权利要求12所述的方法,其特征在于:所述外部显示器是基于LCD、LED或OLED。
14.根据权利要求12所述的方法,其特征在于:所述外部显示器包含一个或多个定形LED。
15.根据权利要求12所述的方法,其特征在于:其中所述符号为选自可由所述可佩戴盒访问的多个表情符号的表情符号。
16.根据权利要求15所述的方法,其特征在于:所述表情符号由所述佩戴者手动选择。
17.根据权利要求16所述的方法,其特征在于:根据所述集成镜片中显示的所述视频而手动选择所述表情符号。
18.根据权利要求16所述的方法,其特征在于:所述外部显示器包含多个LED,其中选择性地使所述LED中的一些重组所述表情符号。
19.根据权利要求11所述的方法,其特征在于:致使所述外部显示器显示所述佩戴者已经盯着所述集成镜片中显示的所述视频中的对象多久的指示。
20.根据权利要求19所述的方法,其特征在于:所述集成镜片包含用于使所述视频显示于其上的光学介质。
CN201810536794.1A 2018-01-26 2018-05-30 用于在显示镜上展示表情符号的方法和设备 Pending CN110082910A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/881609 2018-01-26
US15/881,609 US20190235246A1 (en) 2018-01-26 2018-01-26 Method and apparatus for showing emoji on display glasses

Publications (1)

Publication Number Publication Date
CN110082910A true CN110082910A (zh) 2019-08-02

Family

ID=67391385

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810536794.1A Pending CN110082910A (zh) 2018-01-26 2018-05-30 用于在显示镜上展示表情符号的方法和设备

Country Status (2)

Country Link
US (1) US20190235246A1 (zh)
CN (1) CN110082910A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114721146A (zh) * 2022-03-11 2022-07-08 青岛虚拟现实研究院有限公司 一种光学显示系统及虚拟现实设备
CN115174790A (zh) * 2022-07-20 2022-10-11 闪耀现实(无锡)科技有限公司 头戴显示设备体验分享架
RU215462U1 (ru) * 2022-05-25 2022-12-14 Элеонора Вячеславовна Липатова Устройство электронной маски для лица

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11861255B1 (en) 2017-06-16 2024-01-02 Apple Inc. Wearable device for facilitating enhanced interaction
JP7243138B2 (ja) * 2018-11-09 2023-03-22 株式会社アイシン ドア制御装置
US11252274B2 (en) * 2019-09-30 2022-02-15 Snap Inc. Messaging application sticker extensions
US20210390784A1 (en) * 2020-06-15 2021-12-16 Snap Inc. Smart glasses with outward-facing display

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103092338A (zh) * 2011-12-07 2013-05-08 微软公司 用个性化虚拟数据更新打印内容
CN103091844A (zh) * 2011-12-12 2013-05-08 微软公司 将头戴式显示连接到外部显示和其他通信网络
US20150160856A1 (en) * 2013-12-05 2015-06-11 Lg Electronics Inc. Mobile terminal and method for controlling the same
CN106030458A (zh) * 2013-12-31 2016-10-12 爱福露恩斯公司 用于基于凝视的媒体选择和编辑的系统和方法
CN107430489A (zh) * 2015-03-08 2017-12-01 苹果公司 共享用户可配置的图形构造

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160261675A1 (en) * 2014-08-02 2016-09-08 Apple Inc. Sharing user-configurable graphical constructs
US10285634B2 (en) * 2015-07-08 2019-05-14 Samsung Electronics Company, Ltd. Emotion evaluation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103092338A (zh) * 2011-12-07 2013-05-08 微软公司 用个性化虚拟数据更新打印内容
CN103091844A (zh) * 2011-12-12 2013-05-08 微软公司 将头戴式显示连接到外部显示和其他通信网络
US20150160856A1 (en) * 2013-12-05 2015-06-11 Lg Electronics Inc. Mobile terminal and method for controlling the same
CN106030458A (zh) * 2013-12-31 2016-10-12 爱福露恩斯公司 用于基于凝视的媒体选择和编辑的系统和方法
CN107430489A (zh) * 2015-03-08 2017-12-01 苹果公司 共享用户可配置的图形构造

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114721146A (zh) * 2022-03-11 2022-07-08 青岛虚拟现实研究院有限公司 一种光学显示系统及虚拟现实设备
RU215462U1 (ru) * 2022-05-25 2022-12-14 Элеонора Вячеславовна Липатова Устройство электронной маски для лица
CN115174790A (zh) * 2022-07-20 2022-10-11 闪耀现实(无锡)科技有限公司 头戴显示设备体验分享架
CN115174790B (zh) * 2022-07-20 2023-12-08 闪耀现实(无锡)科技有限公司 头戴显示设备体验分享架

Also Published As

Publication number Publication date
US20190235246A1 (en) 2019-08-01

Similar Documents

Publication Publication Date Title
US9898075B2 (en) Visual stabilization system for head-mounted displays
CN106662750B (zh) 透视计算机显示系统
CN110082910A (zh) 用于在显示镜上展示表情符号的方法和设备
CN106133674B (zh) 透视计算机显示系统
CA2820950C (en) Optimized focal area for augmented reality displays
US11320655B2 (en) Graphic interface for real-time vision enhancement
CN110082911A (zh) 用于展示在显示视频中如何盯着对象的表达的装置和方法
US20240094882A1 (en) Gestures for selection refinement in a three-dimensional environment
US20230343049A1 (en) Obstructed objects in a three-dimensional environment
CN107111366A (zh) 用于使感觉输出装置的感觉输出模式与使用者适配的方法
US20240103677A1 (en) User interfaces for managing sharing of content in three-dimensional environments
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces
US20240104819A1 (en) Representations of participants in real-time communication sessions
US20240103678A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
US20240104843A1 (en) Methods for depth conflict mitigation in a three-dimensional environment
US20240103608A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
US20240104861A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
US20240029377A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Inputs in Three-Dimensional Environments
US20240103636A1 (en) Methods for manipulating a virtual object
WO2024064372A1 (en) Devices, methods, and graphical user interfaces for providing computer-generated experiences
WO2024064036A1 (en) User interfaces for managing sharing of content in three-dimensional environments
WO2024064278A1 (en) Devices, methods, and graphical user interfaces for interacting with extended reality experiences
WO2024020061A1 (en) Devices, methods, and graphical user interfaces for providing inputs in three-dimensional environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190802

WD01 Invention patent application deemed withdrawn after publication