CN105190484B - 个人全息告示牌 - Google Patents

个人全息告示牌 Download PDF

Info

Publication number
CN105190484B
CN105190484B CN201480020881.1A CN201480020881A CN105190484B CN 105190484 B CN105190484 B CN 105190484B CN 201480020881 A CN201480020881 A CN 201480020881A CN 105190484 B CN105190484 B CN 105190484B
Authority
CN
China
Prior art keywords
customized information
virtual billboard
virtual
billboard
people
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480020881.1A
Other languages
English (en)
Other versions
CN105190484A (zh
Inventor
C·G·布朗
A·李
B·J·芒特
D·J·麦克洛克
M·J·斯卡维泽
R·L·哈斯廷斯
J·比维斯
M·托马斯
R·阿马多尔-利昂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN105190484A publication Critical patent/CN105190484A/zh
Application granted granted Critical
Publication of CN105190484B publication Critical patent/CN105190484B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00347Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with another still picture apparatus, e.g. hybrid still picture apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3245Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of image modifying data, e.g. handwritten addenda, highlights or augmented reality information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的方法。该个性化虚拟告示牌可促进在环境内的具有不同相识程度(例如,范围从亲密的家庭关系到陌生人)的人之间个性化信息的共享。在一些实施例中,头戴式显示设备(HMD)可检测与环境内的特定人相关联的移动设备,获取对应于该特定人的个性化信息集合,基于该个性化信息集合生成虚拟告示牌,以及在HMD上显示虚拟告示牌。个性化信息集合可包括与该特定人相关联的信息,诸如购物清单和分类广告。HMD可基于该特定人是朋友还是对HMD的最终用户而言是未知的来与移动设备共享与HMD的最终用户相关联的个性化信息。

Description

个人全息告示牌
背景技术
增强现实(AR)涉及提供经增强的真实世界环境,其中用计算机生成的虚拟数据来增强或修改对真实世界环境(或表示真实世界环境的数据)的感知。例如,可使用诸如相机或话筒等传感输入设备实时地捕捉表示真实世界环境的数据,并用包括虚拟图像和虚拟声音的计算机生成的虚拟数据来增强该数据。虚拟数据还可包括与真实世界环境有关的信息,诸如与真实世界环境中的真实世界对象相关联的文本描述。一AR环境内的对象可包括真实对象(即,存在于特定的真实世界环境中的对象)和虚拟对象(即,不存在于特定的真实世界环境中的对象)。
为了将虚拟对象逼真地集成到AR环境中,AR系统通常执行包括映射和定位的若干任务。映射涉及生成真实世界环境的映射的过程。定位涉及相对于真实世界环境的映射来定位特定的视角或姿势的过程。在一些情况下,AR系统可实时定位在真实世界环境内移动的移动设备的姿势,以便确定与该移动设备相关联的、需要随该移动设备在真实世界环境中移动而被增强的特定视图。
概述
描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的技术。个性化虚拟告示牌可促进在环境内的具有不同相识程度(例如,范围从亲密的家庭关系到陌生人)的人之间个性化信息的共享。在一些实施例中,头戴式显示设备(HMD)可检测与环境内的特定人相关联的移动设备,获取对应于该特定人的个性化信息集合,基于该个性化信息集合生成虚拟告示牌,以及在HMD上显示虚拟告示牌。个性化信息集合可包括与该特定人相关联的信息,诸如购物清单和分类广告。HMD可基于该特定人是朋友还是对HMD的最终用户而言是未知的来与移动设备共享与HMD的最终用户相关联的个性化信息。
提供该概述以便以简化形式介绍概念的选集,所述概念在以下详细描述中被进一步描述。该概述不意图标识所要求保护的主题的关键特征或基本特征,也不意图被用来帮助确定所要求保护的主题的范围。
附图简述
图1是可在其中实施所公开的技术的联网计算环境的一个实施例的框图。
图2A描绘了与第二移动设备通信的移动设备的一个实施例。
图2B描绘了HMD的一部分的一个实施例。
图3描绘了包括捕捉设备和计算环境的移动设备的一个实施例。
图4A描绘了在其中一个或多个虚拟告示牌可被显示的增强现实环境的一个实施例。
图4B描绘了在其中一个或多个虚拟告示牌可被显示的增强现实环境的一个实施例。
图4C描绘了使用HMD所查看到的增强现实环境的一个实施例。
图5A是描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的方法的一个实施例的流程图。
图5B是描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的方法的一个实施例的流程图。
图5C是描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的方法的替换实施例的流程图。
图6是移动设备的一个实施例的框图。
详细描述
描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的技术。个性化虚拟告示牌可促进在环境内的具有不同相识程度(例如,范围从亲密的家庭关系到陌生人)的人之间个性化信息的共享。在一些实施例中,头戴式显示设备(HMD)可检测与环境内的特定人相关联的移动设备,从移动设备获取对应于该特定人的个性化信息集合,基于该个性化信息集合生成虚拟告示牌,以及在HMD上显示虚拟告示牌。个性化信息集合可包括与特定人相关联的信息,诸如购物清单、分类广告、个人广告、所说的语言、年纪、婚姻状况、过敏史以及血型。在一些情况下,HMD可基于该特定人的分类级别(例如,该特定人是亲密朋友还是对最终用户而言是未知的)来与移动设备共享与HMD的最终用户相关联的个性化信息。被HMD的最终用户查看的虚拟告示牌的定位可基于特定人的位置(例如,虚拟告示牌可悬停在该特定人上方或在该特定人的侧面)和/或HMD的视野内另一人的存在(例如,虚拟告示牌可被放置成使得它不遮挡该另一人的面部的视图)来确定。
在一些实施例中,与在线约会服务、在线社交联网服务和/或在线分类广告服务相关联的个性化信息可实时地与处于HMD的特定距离内的其他人共享并被搜索以寻找特定距离内满足特定搜索准则(例如,说西班牙语、单身并学习过工程规范的人)的人。在找到成功的匹配之际,可在与匹配搜索准则的人相关联的HMD的视野内显示虚拟告示牌。在一个示例中,个性化信息可从在线活动中得到,在线活动诸如到消息板和/或社交联网网站的张贴(例如,到在线约会服务的消息板的关于是否有人感兴趣参加音乐会的张贴)。
在一些情况中,一人可能特别地寻找某物或某人(例如,自行车、针织衫或具有特定兴趣的另一人),但是不确切地知道哪里找到它或谁能帮助他们来找到它。在一个示例中,一人可能在他们进入服装店并浏览服装店来寻找针织衫时购买海军蓝圆领针织衫。如果该人花费太多时间来寻找,则他们可能变得泄气并离开商店。在另一示例中,想要获取新的山地自行车的一人可能经过街道上寻求售卖山地自行车的另一人。然而,由于这两个人可能不认识彼此或不知道他们都在寻求交换相似的项,该两个人可能不能就该相似的项进行通信。由此,存在促进在相互邻近度内的具有不同相识程度的人之间个性化信息的实时共享的需求。
图1是可在其中实施所公开的技术的联网计算环境100的一个实施例的框图。联网计算环境100包括通过一个或多个网络180互连的多个计算设备。所述一个或多个网络180允许一特定计算设备连接到另一计算设备以及与其通信。所描绘的计算设备包括移动设备11、移动设备12、移动设备19和服务器15。在一些实施例中,所述多个计算设备可以包括未示出的其他计算设备。在一些实施例中,所述多个计算设备可以包括比图1所示的计算设备的数目更多或更少的计算设备。所述一个或多个网络180可以包括诸如企业专用网络之类的安全网络、诸如无线开放式网络之类的不安全网络、局域网(LAN)、广域网(WAN)、以及因特网。所述一个或多个网络180中的每个网络可以包括集线器、网桥、路由器、交换机、以及有线传输介质,比如有线网络或直接线连接。
可包括补充信息服务器或应用服务器的服务器15可允许客户端从该服务器下载信息(例如,文本、音频、图像和视频文件)或者执行与存储在该服务器上的特定信息相关的搜索查询。一般而言,“服务器”可以包括在客户端-服务器关系中充当主机的硬件设备、或者与一个或多个客户端共享资源或为所述一个或多个客户端执行工作的软件过程。客户端-服务器关系下的计算设备之间的通信可以通过由客户端向服务器发送要求访问特定资源或执行特定工作的请求来发起。服务器随后可以执行所请求的动作并且将响应发送回客户端。
服务器15的一个实施例包括网络接口155、处理器156、存储器157和翻译器158,所有这些都彼此通信。网络接口155允许服务器15连接到一个或多个网络180。网络接口155可以包括无线网络接口、调制解调器、和/或有线网络接口。处理器156允许服务器15执行存储在存储器157中的计算机可读指令以执行在此讨论的过程。翻译器158可包括用于将第一文件格式的第一文件翻译成第二文件格式的对应第二文件的映射逻辑(即,第二文件可以是第一文件的经翻译的版本)。可使用文件映射指令来配置翻译器158,该文件映射指令提供用于将第一文件格式的文件(或其部分)映射成第二文件格式的对应文件的指令。
移动设备19的一个实施例包括网络接口145、处理器146、存储器147、相机148、传感器149、以及显示器150,所有这些都彼此通信。网络接口145允许移动设备19连接到一个或多个网络180。网络接口145可以包括无线网络接口、调制解调器、和/或有线网络接口。处理器146允许移动设备19执行存储在存储器147中的计算机可读指令以执行在此讨论的过程。相机148可以捕捉色彩图像和/或深度图像。传感器149可生成与移动设备19相关联的运动和/或定向信息。在一些情况下,传感器149可包括惯性测量单元(IMU)。显示器150可显示数字图像和/或视频。显示器150可包括透视显示器。
在一些实施例中,包括网络接口145、处理器146、存储器147、相机148以及传感器149的移动设备19的各组件可被集成在单芯片基片上。在一示例中,网络接口145、处理器146、存储器147、相机148、传感器149可被集成成为片上系统(SOC)。在另一实施例中,网络接口145、处理器146、存储器147、相机148、传感器149可被集成在单个封装中。
在一些实施例中,通过采用相机148、传感器149,和运行在处理器146上的姿势识别软件,移动设备19可提供自然用户界面(NUI)。使用自然用户界面,人的身体部位和移动可被检测、解释、以及用于控制计算应用的各方面。在一个示例中,利用自然用户界面的计算设备可推断与计算设备交互的人的意图(例如,最终用户执行了特定姿势来控制该计算设备)。
联网计算环境100可以为一个或多个计算设备提供云计算环境。云计算指的是基于因特网的计算,其中共享的资源、软件和/或信息通过因特网(或其他全局网络)被按需提供给一个或多个计算设备。基于在计算机网络图中使用的云图来将因特网描绘成对其所表示的底层基础设施的抽象,术语“云”被用作对因特网的比喻。
在一个示例中,移动设备19包括向头戴式显示设备(HMD)的最终用户提供增强现实环境或混合现实环境(例如,以控制在该HMD上运行的应用)的头戴式显示设备。HMD可包括视频透视和/或光学透视系统。最终用户佩戴的光学透视HMD可允许(例如经由透明透镜)对真实世界环境的实际直接查看,并且同时可将虚拟对象的图像投影到最终用户的视野中,由此用虚拟对象来增强最终用户所感知的真实世界环境。
通过利用HMD,佩戴HMD的最终用户可在真实世界环境(例如,起居室)中四处移动,并感知覆盖有虚拟对象的图像的真实世界的视图。虚拟对象可以看起来保持与真实世界环境的相干空间关系(即,当最终用户在真实世界环境中转动他们的头或移动时,显示给该最终用户的图像将改变,使得虚拟对象看起来像被最终用户感知的那样存在于该真实世界环境内)。虚拟对象还可看起来相对于最终用户的视角是固定的(例如,无论最终用户如何在真实世界环境中转动他们的头或移动,总是出现在最终用户视角的右上角的虚拟菜单)。在一个实施例中,真实世界环境的环境映射可由服务器15(即,在服务器侧上)来执行,而相机定位可在移动设备19上(即,在客户端侧上)执行。虚拟对象可包括与真实世界对象相关联的文本描述。
在一些实施例中,移动设备(诸如移动设备19)可与云中的服务器(诸如服务器15)通信,并可提供与移动设备相关联的服务器位置信息(例如,经由GPS坐标的移动设备的位置)和/或图像信息(例如,与在移动设备的视野内检测到的对象有关的信息)。作为响应,服务器可基于提供给该服务器的位置信息和/或图像信息向移动设备传送一个或多个虚拟对象。在一个实施例中,一个或多个虚拟对象可由移动设备的最终用户使用手和/或手指姿势来操纵或控制。
在一些实施例中,与HMD的最终用户相关联的个性化信息实时地与处于该HMD的特定距离内的移动设备共享(例如,如果该移动设备在该HMD的10米内)。该移动设备可被特定人使用(例如,该移动设备可包括被该特定人佩戴的HMD)。可通过使用HMD来捕捉图像并将面部识别技术应用到这些图像来标识该特定人。还可经由与移动设备相关联的设备标识符来标识该特定人。HMD可基于该特定人的分类级别来生成并共享与最终用户相关联的个性化信息。在一个示例中,如果该特定人被分类为亲密朋友,则个性化信息可包括私人信息,诸如最终用户居住的地址。如果该特定人被分类为陌生人,则个性化信息可仅包括公开可用的信息(或最终用户批准对公共的成员可用的信息)。如果该特定人被分类为急救或医护人员,则个性化信息可包括与最终用户相关联的医疗信息,诸如他们的血型、已知过敏史以及当前的药方。
在一些情况下,分类级别可与被HMD的最终用户设置的自定义隐私以及安全性设置相关联。例如,最终用户可指定哪组人可看到与最终用户相关联的特定的个性化信息或内容。最终用户还可指定在期间特定的个性化信息可被该组人查看的时间段。在一个示例中,一组同事可仅能够在白天期间查看个人电话号码信息。在另一示例中,处于HMD的最终用户的特定距离内的被标识为亲密朋友组中的一位的人可在早上7点到早上9点期间听到个性化语音消息(例如,早安消息)。
图2A描绘了与第二移动设备5通信的移动设备19的一个实施例。移动设备19可包括透视HMD。如所描绘的,移动设备19经由有线连接6与移动设备5通信。然而,移动设备19还可经由无线连接与移动设备5通信。在一个示例中,HMD的最终用户所佩戴的HMD可与处于该最终用户的邻近度内的第二移动设备(例如,最终用户所使用的移动电话)(例如,该第二移动设备可在外套口袋内)无线地通信。移动设备5可由移动设备19用来卸载计算密集的处理任务(例如,渲染虚拟对象和/或姿势识别),并将可被用来提供增强现实环境的信息(例如虚拟对象模型)存储在移动设备19上(例如,由最终用户使用来控制运行在移动设备上的应用)。移动设备19还可向移动设备5提供与移动设备19相关联的运动和/或定向信息。在一个示例中,运动信息可包括与移动设备19相关联的速度或加速度,并且定向信息可包括欧拉角,其提供围绕特定坐标系统或参照系的转动信息。在一些情况中,移动设备19可包括运动和定向传感器,诸如惯性测量单元(IMU),以便获得与移动设备19相关联的运动和/或定向信息。
图2B描绘了HMD(诸如图1的移动设备19)的一部分的一个实施例。仅示出了HMD200的右侧。HMD 200包括右镜腿202、鼻梁204、镜片216、以及眼镜框214。右镜腿202包括与处理单元236通信的捕捉设备213(例如,前置相机和/或话筒)。捕捉设备213可包括用于记录数字图像和/或视频的一个或多个相机,并可将视觉记录传送到处理单元236。一个或多个相机可捕捉色彩信息、IR信息、和/或深度信息。该一个或多个相机可包括一个或多个图像传感器(例如,CCD图像传感器或CMOS图像传感器)。捕捉设备213还可包括用于记录声音的一个或多个话筒,并可将音频记录传送到处理单元236。
右镜腿202还包括生物测定传感器220、眼睛跟踪系统221、耳机230、运动和定向传感器238、GPS接收器232、电源239、以及无线接口237,所有这些都与处理单元236通信。生物测定传感器220可包括用于确定与HMD 200的最终用户的脉搏或心率相关联的一个或多个电极,以及用于确定与HMD 200的最终用户相关联的体温的温度传感器。在一个实施例中,生物测定传感器220包括压着最终用户太阳穴的脉搏速率测量传感器。运动和定向传感器238可以包括三轴磁力计、三轴陀螺仪、和/或三轴加速度计。在一个实施例中,运动和定向传感器238可包括惯性测量单元(IMU)。GPS接收器可确定与HMD 200相关联的GPS位置。处理单元236可以包括一个或多个处理器和用于存储将要在所述一个或多个处理器上执行的计算机可读指令。存储器还可存储要在一个或多个处理器上执行的其它类型的数据。
在一个实施例中,眼睛跟踪系统221可包括面向内的相机。在另一实施例中,眼睛跟踪系统221可包括眼睛跟踪照明源和相关联的眼睛跟踪IR传感器。在一个实施例中,眼睛跟踪照明源可包括以大约预定IR波长或一定范围的波长发射的一个或多个红外(IR)发射器(诸如红外发光二极管(LED)或激光器(例如,VCSEL))。在一些实施例中,眼睛跟踪传感器可包括用于跟踪闪光位置的IR相机或IR位置敏感检测器(PSD)。关于眼睛跟踪系统的更多信息可在2008年7月22提交的标题为“Head Mounted Eye Tracking and Display System(头戴式眼睛跟踪和显示系统)”的美国专利7,401,920,以及2011年9月26日提交的标题为“Integrated Eye Tracking and Display System(集成眼睛跟踪和显示系统)”的美国专利申请13/245,700中找到。
在一个实施例中,镜片216可包括透视显示器,处理单元236生成的图像由此可被投影和/或显示在透视显示器上。捕捉设备213可被校准,使得捕捉设备213所捕捉的视野对应于HMD 200的最终用户所看到的视野。耳机230可用于输出与虚拟对象的投影图像相关联的声音。在一些实施例中,HMD 200可包括两个或更多个前置相机(例如,每个镜腿上一个相机),以便从与前置相机所捕捉的视野相关联的立体信息中获得深度。两个或更多个前置相机还可包括3D、IR、和/或RGB相机。也可从利用来自运动技术的深度的单个相机中获取深度信息。例如,可从单个相机获取两个图像,这两个图像与在不同的时间点的、两个不同的空间点相关联。然后,给定与两个不同空间点有关的位置信息的情况下,可执行视差计算。
在一些实施例中,HMD 200可使用凝视检测元件和与一个或多个人类眼睛元素(诸如角膜中心、眼球旋转的中心、或瞳孔中心)有关的三维坐标系,来为最终用户眼睛中的每只眼睛执行凝视检测。凝视检测可被用来标识最终用户正在关注视野内的何处。凝视检测元件的示例可包括生成闪光的照明器和用于捕捉表示所生成的闪光的数据的传感器。在一些情况中,角膜中心可以基于两次闪光使用平面几何来确定。角膜中心链接瞳孔中心和眼球的旋转中心,这可被当作用于确定处于某种凝视或观看角度的最终用户的眼睛的光轴的固定位置。
图3描绘了包括捕捉设备20和计算环境12的计算系统10的一个实施例。在一些实施例中,捕捉设备20和计算环境12可以集成在单个移动计算设备中。该单个集成移动计算设备可包括移动设备,诸如图1中的移动设备19。在一个示例中,捕捉设备20和计算环境12可被集成在HMD中。在其它实施例中,捕捉设备20可与第一移动设备(诸如图2A中的移动设备19)集成,而计算环境12可与和第一移动设备通信的第二移动设备(诸如图2A中的移动设备5)集成。
在一个实施例中,捕捉设备20可以包括用于捕捉图像和视频的一个或多个图像传感器。图像传感器可以包括CCD图像传感器或CMOS图像传感器。在某实施例中,捕捉设备20可包括图像传感器和/或IR CMOS图像传感器。捕捉设备20可包括图像相机组件32。图像相机组件32可包括可用来对捕捉区域的深度图像进行捕捉的IR光组件34、深度相机36以及RGB相机38。在一个示例中,捕捉设备20的IR光组件34可以将红外光发射进入捕捉区域,然后可以使用传感器,用图像相机组件32内的彩色和/或IR光传感组件来检测从捕捉区域中的一个或多个对象的表面反向散射的光。在某些实施例中,可以使用脉冲式红外光,从而出射光脉冲和相应的入射光脉冲之间的时间可以被测量并被用于确定从捕捉设备20到捕捉区域中的一个或多个对象上的特定位置的物理距离。捕捉设备20还可包括用于产生准直光和/或用于漫射光的光学器件(例如,用于扩散来自生成窄光束的IR光源的光的光学漫射器)以用于照明环境。
如图3所描绘的,捕捉设备20可以包括一个或多个话筒40。该一个或多个话筒40中的每一个都可以包括可以接收声音并将其转换成电信号的换能器或传感器。该一个或多个话筒可包括话筒阵列,其中一个或多个话筒可以按预定布局排列。
捕捉设备20可以包括可以与图像相机组件32可操作地通信的处理器42。处理器42可包括标准处理器、专用处理器、微处理器等。处理器42可以执行指令,所述指令可以包括用于接收和分析图像和/或确定是否已经发生特定姿势的指令(例如,用于控制或操纵虚拟对象的最终用户姿势)。应当理解,至少一些图像分析和/或姿势识别操作可由包含在一个或多个捕捉设备(诸如捕捉设备20)内的处理器来执行。
捕捉设备20可包括存储器44,该存储器44可存储可由处理器42执行的指令以及由图像相机组件32的光感测组件捕捉的图像(或图像帧)。在一个示例中,存储器44可包括随机存取存储器(RAM)、只读存储器(ROM)、高速缓存、闪存、非易失性存储器或任何其它合适的存储组件。如所描绘的,存储器44可以是与图像捕捉组件32和处理器42进行通信的分开的组件。在另一实施例中,存储器44可被集成到处理器42和/或图像捕捉组件32中。在其他实施例中,捕捉设备20的组件32、34、36、38、40、42和44中的部分或全部可被容纳在单个外壳中。
捕捉设备20可以经由通信链路46与计算环境12进行通信。通信链路46可以是有线连接或诸如无线802.11b、g、a或n连接之类的无线连接。在一个实施例中,捕捉设备20可将由例如深度相机36和/或RGB相机38捕捉的图像经由通信链路46提供给计算环境12。
如图3中所描绘的,计算环境12包括与应用196通信的图像和音频处理引擎194。应用196可包括操作系统应用或诸如游戏应用、消息应用、或用于生成增强显示环境的应用的其他计算应用。图像和音频处理引擎194包括虚拟数据引擎197、对象和姿势识别引擎190、结构数据198、处理单元191和存储器单元192,所有都彼此通信。图像和音频处理引擎194处理从捕捉设备20接收的视频、图像和音频数据。为了辅助对象的检测和/或跟踪,图像和音频处理引擎194可以利用结构数据198以及对象和姿势识别引擎190。
虚拟数据引擎197处理虚拟对象,并记录与存储在存储器单元192中的真实世界环境的各种映射有关的虚拟对象的位置和定向。虚拟数据引擎还可向计算系统10的最终用户渲染与供显示的虚拟对象相关联的图像。在一些实施例中,计算系统10可使用从捕捉设备20获得的图像来相对于环境的3D图确定对应于这些图像的六自由度(6DOF)姿态。在一示例中,6DOF姿态可包括与环境内移动设备(例如HMD)的位置和定向相关联的信息。6DOF姿态可用于定位移动设备并生成虚拟对象的图像,以使得这些虚拟对象看起来存在于增强现实环境内的合适位置处。关于确定6DOF姿态的更多信息可在题为“Distributed AsynchronousLocalization and Mapping for Augmented Reality(增强现实的分布式异步定位和映射)”的美国专利申请13/152,220中找到。关于执行对移动设备的姿态估计和/或定位的更多信息可在题为“Mobile Camera Localization Using Depth Maps(使用深度图的移动相机定位)”的美国专利申请13/017,474中找到。
处理单元191可以包括用于执行对象、面部和语音识别算法的一个或多个处理器。在一个实施例中,图像和音频处理引擎194可以将对象识别和面部识别技术应用于图像或视频数据。例如,对象识别可以用于检测特定对象(例如HMD的最终用户握持的铅笔),并且面部识别可以用于检测环境内的特定人的面部。图像和音频处理引擎194可以将音频和语音识别技术应用于音频数据。例如,音频识别可以用于检测特定声音。要检测的特定面部、语音、声音和对象可以存储在存储器单元192中所包含的一个或多个存储器中。处理单元191可执行存储在存储器单元192中的计算机可读指令以执行此处讨论的过程。
图像和音频处理引擎194可以在执行对象识别时利用结构数据198。结构数据198可以包括关于要跟踪的目标和/或对象的结构信息。例如,可以存储人类的骨架模型以帮助识别身体部位(例如,手臂、手、和/或手指)。在另一示例中,结构数据198可以包括关于一个或多个无生命对象的结构信息以便帮助识别所述一个或多个无生命对象(例如铅笔或指示笔)。
图像和音频处理引擎194还可以在执行姿势识别时利用对象和姿势识别引擎190。在一个示例中,对象和姿势识别引擎190可包括姿势过滤器的集合,每个姿势过滤器都包括关于可被执行的姿势的信息。物体和姿势识别引擎190可将由捕捉设备20捕捉的数据与姿势库中的姿势过滤器进行比较来标识用户何时执行了一个或多个姿势。在一个示例中,图像和音频处理引擎194可使用该对象和姿势识别引擎190来检测计算系统10的最终用户所执行的特定姿势(例如,用于操纵或控制增强现实环境内的虚拟对象的姿势)的执行。在一个实施例中,对象和姿势识别引擎190可利用机器学习分类技术。
图4A-4C提供了各种增强现实环境的示例,其中与一环境中不同的人相关联的一个或多个虚拟告示牌(或全息显示)可被生成并被显示给HMD的最终用户。被HMD的最终用户查看的一个或多个虚拟告示牌的定位可基于环境内特定人的位置(例如,虚拟告示牌可悬停在该特定人上方或在该特定人的侧面)和/或HMD的视野内其他人的存在(例如,虚拟告示牌可被放置成使得它在他们在与最终用户进行会话时不遮挡另一人的面部的视图)来确定。
图4A描绘了在其中一个或多个虚拟告示牌可被显示的增强现实环境400的一个实施例。如描绘的,增强现实环境400包括与第一移动设备29相关联的第一人以及与第二移动设备28相关联的第二人。在被第二人使用第二移动设备28查看时,第一虚拟告示牌414可被显示给第二人,该第一虚拟告示牌414包括第一集合的个性化信息,包括第一人的姓名(“Mark”)、第一人说的语言(“英语和法语”)、第一人的婚姻状况(“已婚”)、第一人的情绪(“高兴”)以及被第一人列出的第一在线分类广告415(即,出售山地自行车)。在被第一人使用第一移动设备29查看时,第二虚拟告示牌412可被显示给第一人,该第二虚拟告示牌412包括第二集合的个性化信息,包括来自第二人的个性化消息(“嗨,我是Tim!”)、第二人说的语言(“英语和西班牙语”)、第二人的婚姻状况(“单身”)、第二人居住的位置(“旧金山,加州”)以及被第二人列出的第二在线分类广告416(即,第二人正指望要获得自行车)。
在一个实施例中,如果第一人使用与第二人相同的在线分类广告服务,则第二在线分类广告416可被第一人使用第一移动设备29来查看。在一些情况下,如果第二在线分类广告416匹配被第一人找寻的项(例如,通过关键字搜索),则第二在线分类广告416可被显示在第一移动设备29上。
在一个实施例中,如果被第二人说的通用语言被第一人说,则第二虚拟告示牌412向第一人显示该通用语言(例如,如果第一人还说英语或另一语言,则第二虚拟告示牌412可提供第二人说英语或另一语言的通知)。
在一个实施例中,第二虚拟告示牌412在增强现实环境400内的位置可被第一移动设备29和第二移动设备28二者共享,使得与第一移动设备29相关联的第一人和与第二移动设备28相关联的第二人二者感受到第二虚拟告示牌412存在于增强现实环境内的相同位置处。在这种情况下,如果第一人指向第二虚拟告示牌412,则第二人可理解第一人正指向第二虚拟告示牌412。
在某些情况下,虚拟告示牌412可与声音效果、音乐或自定义的音频流相关联。例如,只要第二虚拟告示牌412可被增强现实环境400内的第一人查看,第一移动设备29就可播放特定的声音效果或歌曲。
图4B描绘了在其中一个或多个虚拟告示牌可被显示的增强现实环境400的一个实施例。如描绘的,增强现实环境400包括与第一移动设备29相关联的第一人以及与第二移动设备28相关联的第二人。在被第二人使用第二移动设备28查看时,第一虚拟告示牌424可被显示给第二人,该第一虚拟告示牌424包括第一集合的个性化信息,包括第一人的姓名(“Mark”)、与第一人相关联的头衔(“服装店职员”)、第一人说的语言(“英语和法语”)以及用于显示给第二人的用户特定信息425(即,对新的针织衫有20%的折扣)。在一个实施例中,如果发生了基于从第二移动设备28提供到第一移动设备29的信息的触发事件,则用户特定信息425可从第一移动设备29传送到第二移动设备28。触发事件可包括第二人正寻找特定项,诸如针织衫。
在被第一人使用第一移动设备29查看时,第二虚拟告示牌422可被显示给第一人,该第二虚拟告示牌422包括第二集合的个性化信息,包括来自第二人的个性化消息(“嗨,我是Tim!”)、第二人说的语言(“英语和西班牙语”)、第二人的婚姻状况(“单身”)、第二人居住的位置(“旧金山,加州”)以及购物清单项426(即,海军蓝的针织衫)。在一个实施例中,如果第一人被标识为服装店职员(例如,如在与第一人相关联的虚拟告示牌中标识的),则购物清单项426可从第二移动设备28传送到第一移动设备29。购物清单项426可作为虚拟告示牌的一部分被显示给服装店职员,该虚拟告示牌被锁定到处于第二人的固定距离内或看上去处于第二人的固定距离内。例如,虚拟告示牌可看上去处于距第二人两米的固定半径内。在其他实施例中,购物清单项426可被广播或传送到处于第二移动设备28的邻近度内的任一设备。在一个示例中,购物清单项426可被传送到位于服装店处的服务器或被传送到位于服装店内的任一移动计算设备(例如,购物清单可被传送到与服装店中的其他顾客相关联的移动设备)。在这种情况下,服装店职员或服装店内具有与购物清单项426相关联的信息的另一顾客可接收到与第二移动设备28相关联的第二人正在购买购物清单上的特定项(即,海军蓝的针织衫)的通知。
图4C描绘了使用HMD所查看到的增强现实环境的一个实施例。如描绘的,增强现实环境包括第一人430、第二人431以及与第二人431相关联的虚拟告示牌432。虚拟告示牌432包括与第二人431相关联的个性化信息,包括第二人431的姓名(“Mark Steele”)、第二人431说的语言(“英语和日语”)、第二人431的婚姻状况(“单身”)以及学习领域或感兴趣的领域(“电子工程”)。在一个实施例中,在HMD的最终用户在聚会或人的其他分组处时,该HMD可获取人的分组中的一个或多个人的虚拟告示牌并针对某个搜索准则(例如,说西班牙语、单身并学习过工程规范的人)来搜索虚拟告示牌。随后,满足搜索准则的虚拟告示牌可被显示给HMD的最终用户。在一个示例中,与第二人431相关联的虚拟告示牌可被显示给HMD的最终用户,因为它满足一个或多个搜索准则,而与第一人430相关联的虚拟告示牌不被显示给HMD的最终用户,因为它不满足一个或多个搜索准则。在一个实施例中,仅当环境内的一特定人处于HMD的视野内时,与该特定人相关联的虚拟告示牌才可被显示给HMD的最终用户。在另一实施例中,仅当一特定人处于HMD的特定距离内(例如,20米内)时,与该特定人相关联的虚拟告示牌才可被显示给HMD的最终用户。
在一些实施例中,被HMD的最终用户查看的虚拟告示牌432的定位可基于第二人431的位置来确定(例如,虚拟告示牌432可悬停在第二人431的侧面或可悬停在第二人431的头部上方)。在一些情况下,虚拟告示牌可包括虚拟地定位在第二人431的衬衫或外衣上的虚拟名牌。此外,虚拟告示牌432的定位可基于另一人在HMD的视野内的存在来调整(例如,虚拟告示牌432可被放置为使得它不遮挡第一人430的面部的视图)。在一个实施例中,虚拟告示牌432可被定位在HMD的视野内,使得它不遮挡参与和HMD的最终用户的会话的人的视图。例如,HMD的最终用户可以是看向拥挤的演讲厅的老师并且虚拟告示牌432可被定位成使得演讲厅中参与和最终用户的会话的学生之一的视图不被遮挡。可使用声源定位技术来确定与参与和最终用户的会话的人相关联的特定方向。声源定位可被用于通过检测被与HMD相关联的多个话筒捕捉的不同声音的到达时间方面的时差(取决于声音的速度)来定位声源的方向。在一些情况下,定向话筒(例如,利用声源定位和波束成型技术)可被用于确定与参与和HMD的最终用户的会话的人相关联的方向。
图5A是描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的方法的一个实施例的流程图。在一个实施例中,图5A的过程可由诸如图1中的移动设备19的移动设备来执行。
在步骤502,一个或多个移动设备被检测到处于来源设备的距离内。来源设备可包括HMD。一个或多个移动设备可包括第一移动设备。第一移动设备可包括与处于来源设备的距离内(例如,来源设备的10米内)的特定人相关联的移动电话或另一HMD。第一移动设备可经由与第一移动设备相关联的GPS坐标、或经由HMD的视野内的特定人的图像识别以及与被来源设备捕捉的特定人相关联的对应深度信息来被检测到处于来源设备的距离内。在一个实施例中,第一移动设备可对应于特定的设备标识符并可被定位在来源设备的无线范围内。
在一个实施例中,第一移动设备可通过标识HMD的视野内与第一移动设备相关联的特定人以及接收来自第一移动设备的无线通信来被检测到。在一个示例中,HMD的视野的图像可使用捕捉设备(诸如图3中的捕捉设备20)来捕捉,并且面部识别技术可被应用到图像以标识HMD的视野内的特定人。一旦特定人已被标识,到对应移动设备的距离可通过从图像中获取与特定人相关联的深度信息来确定(或推断)。
在步骤504,与第一移动设备相关联的第一人的分类级别被标识。存储在来源设备上的查找表或最终用户简档可将第一人的标识映射到一个或多个分类级别。第一人的分类级别可对应于第一人所具有的与来源设备的最终用户的相识程度(例如,第一人是HMD的最终用户的亲密朋友还是对于HMD的最终用户而言是未知的)。在一些实施例中,只有在第一人的分类级别指示该第一人是朋友或亲密朋友时,虚拟告示牌才被生成并被显示在HMD上。
在步骤506,基于分类级别来生成与虚拟告示牌相关联的第一集合的个性化信息。在步骤508,该第一集合的个性化信息被传送到第一移动设备。在一些实施例,分类级别可被用于过滤被传送到来源设备的距离内的其他设备的个性化信息。在一个示例中,如果第一人被分类为亲密朋友,则第一集合的个性化信息可包括私人信息,诸如最终用户居住的地址或私人日历条目。如果第一人被分类为陌生人,则第一集合的个性化信息可仅包括公开可用的信息(或最终用户批准对公共的成员可用的信息)。如果第一人被分类为急救或医护人员,则第一集合的个性化信息可包括与最终用户相关联的医疗信息,诸如他们的血型、已知过敏史以及当前的药方。
在步骤510,与虚拟告示牌相关联的第一集合的格式化信息被传送到第一移动设备。第一集合的格式化信息可向第一移动设备规定虚拟告示牌应当如何被显示在第一移动设备上或指定与虚拟告示牌在第一移动设备上的显示相关联的显示参数。在一个示例中,第一集合的格式化信息可规定在被第一人使用第一移动设备查看时虚拟告示牌悬停在HMD的最终用户周围或指定的距离内。在另一示例中,第一集合的格式化信息可规定虚拟告示牌被锁定到(或看上去被固定在)第一移动设备的视野内的一位置,而不管来源设备被定位在环境内的何处(例如,虚拟告示牌可被定位在第一移动设备的视野的被指定用于增强现实通知的区域内)。
在步骤512,从第一移动设备获取与第二虚拟告示牌相关联的第二集合的个性化信息。还可从第一移动设备获取与第二虚拟告示牌相关联的第二集合的格式化信息。第二虚拟告示牌可包括与第一人相关联的个性化信息。例如,第二集合的格式化信息可包括与第一人相关联的信息,诸如购物清单、分类广告、个人广告、所说的语言、年纪、婚姻状况、过敏史以及血型。
在步骤514,搜索第二集合的个性化信息以寻找与第一集合的个性化信息的匹配。在一个实施例中,基于包括在第一集合的个性化信息中的信息来对第二集合的个性化信息执行关键字搜索。在另一实施例中,基于存储在与来源设备的最终用户相关联的用户简档中的关键字列表来对第二集合的个性化信息执行关键字搜索。关键字匹配可在第二虚拟告示牌中被突出显示。在一些实施例中,可根据搜索准则来搜索第二集合的个性化信息。搜索准则可包括被来源设备的最终用户找寻的项。搜索准则可包括被来源设备的最终用户找寻的人的特征(例如,说西班牙语、单身且学习过工程规范的人)。在一些情况下,只有当找到一个或多个关键字匹配或只有当一个或多个搜索准则被满足时,第二虚拟告示牌才可被显示在来源设备上。可基于第一人的分类级别来生成搜索准则。
在步骤516,基于第二集合的个性化信息和第二集合的格式化信息来生成第二虚拟告示牌。在步骤518,渲染对应于第二虚拟告示牌的一个或多个图像并将其显示在来源设备上。对应于第二虚拟告示牌的一个或多个图像可被渲染并被显示成使得第二虚拟告示牌被感知为存在于向来源设备的最终用户显示的增强现实环境内。
图5B是描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的方法的一个实施例的流程图。在一个实施例中,图5B的过程可由诸如图1中的移动设备19的移动设备来执行。
在步骤532,一个或多个人被标识到处于来源设备的距离内。来源设备可包括HMD或移动电话。经由被应用到使用来源设备捕捉的图像的面部识别技术来标识一个或多个人。例如,对应于HMD的视野的图像可使用捕捉设备(诸如图3中的捕捉设备20)来捕捉,并且面部识别技术可被应用到图像以标识HMD的视野内的一个或多个人。在一些情况下,可通过识别特定人佩戴的特定标记或标签来标识该特定人(例如,该特定人可穿着显示条形码或个人标识标签的衬衫)。一旦一个或多个人中的特定人被标识,可通过从图像中获取深度信息来确定到该特定人的距离。
在步骤534,与一个或多个人中的第一人相关联的分类级别被标识。第一人的分类级别可对应于第一人所具有的与来源设备的最终用户的相识程度(例如,第一人是HMD的最终用户的亲密朋友还是对于HMD的最终用户而言是未知的)。
在步骤536,确定与第一人相关联的第一计算设备。第一计算设备可对应于被第一人使用的移动设备或另一HMD。在步骤538,基于分类级别来生成与虚拟告示牌相关联的第一集合的个性化信息。在步骤540,该第一集合的个性化信息被传送到第一计算设备。在一些实施例,分类级别可被用于过滤被传送到来源设备的距离内的其他设备的个性化信息。在一个示例中,如果第一人被分类为亲密朋友,则第一集合的个性化信息可包括私人信息,诸如最终用户居住的地址。如果第一人被分类为陌生人,则第一集合的个性化信息可仅包括公开可用的信息(或最终用户批准对公共的成员可用的信息)。如果第一人被分类为急救或医护人员,则第一集合的个性化信息可包括与最终用户相关联的医疗信息,诸如他们的血型、已知过敏史以及当前的药方。在一个实施例中,第一计算设备可包括与第一人相关联的云中的服务器,诸如图1中的服务器15。在这种情况下,虽然第一人可处于来源设备的距离内,但是第一计算设备不需要被定位在来源设备的该距离内。
在步骤542,从第一计算设备获取与第二虚拟告示牌相关联的第二集合的个性化信息。在一个实施例中,第二集合的个性化信息可响应于第一集合的个性化信息被传送到来源设备。还可从第一计算设备获取与第二虚拟告示牌相关联的第二集合的格式化信息。第二虚拟告示牌可包括与第一人相关联的个性化信息。例如,第二集合的格式化信息可包括与第一人相关联的信息,诸如购物清单、分类广告、个人广告、所说的语言、年纪、婚姻状况、过敏史以及血型。
在步骤544,搜索第二集合的个性化信息以寻找与第一集合的个性化信息的匹配。在一个实施例中,基于包括在第一集合的个性化信息中的信息来对第二集合的个性化信息执行关键字搜索。在另一实施例中,基于存储在与来源设备的最终用户相关联的用户简档中的关键字列表来对第二集合的个性化信息执行关键字搜索。关键字匹配可在第二虚拟告示牌中被突出显示。在一些实施例中,可根据搜索准则来搜索第二集合的个性化信息。搜索准则可包括被来源设备的最终用户找寻的项。搜索准则可包括被来源设备的最终用户找寻的人的特征(例如,说西班牙语、单身且学习过工程规范的人)。在一些情况下,只有当找到一个或多个关键字匹配或只有当一个或多个搜索准则被满足时,第二虚拟告示牌才可被显示在来源设备上。
在步骤546,基于第二集合的个性化信息和第二集合的格式化信息来生成第二虚拟告示牌。在步骤548,第二虚拟告示牌在来源设备的视野内的位置被确定。在一个实施例中,第二虚拟告示牌在来源设备的视野内的位置可基于第一人在该视野内的位置来确定(例如,虚拟告示牌可悬停在第一人上方或第一人的侧面)。第二虚拟告示牌的位置还可基于视野内其他人的存在来确定(例如,虚拟告示牌可被放置成使得它在他们在与最终用户进行会话时不遮挡另一人的面部的视图)。
在步骤550,渲染对应于第二虚拟告示牌的一个或多个图像并将其显示在来源设备上。对应于第二虚拟告示牌的一个或多个图像可被渲染并被显示成使得第二虚拟告示牌被感知为存在于向来源设备的最终用户显示的增强现实环境内的在步骤548确定的位置处。
图5C是描述了用于在增强现实环境内生成并显示个性化虚拟告示牌的方法的替换实施例的流程图。在一个实施例中,图5C的过程可由诸如图1中的移动设备19的移动设备来执行。
在步骤562,检测到多个移动设备处于来源设备的距离内。来源设备可包括HMD。可经由与多个移动设备相关联的GPS坐标来检测到多个移动设备处于来源设备的距离内。在一个实施例中,多个移动设备可对应于多个设备标识符。多个移动设备中的每一个可位于来源设备的视野内以及来源设备的无线范围内。多个移动设备中的每一个可与在聚会或人的其他分组(例如,商业会议或社交聚会)处的一人相关联。
在步骤564,获取对应于多个移动设备的最终用户的多个个性化信息集合。例如,个性化信息集合中的每一个集合可包括与特定人相关联的信息,诸如购物清单、分类广告、个人广告、所说的语言、年纪、婚姻状况、过敏史以及血型。在步骤566,确定搜索准则。搜索准则可包括被来源设备的最终用户找寻的项。搜索准则可包括被来源设备的最终用户找寻的人的特征(例如,说西班牙语、单身且学习过工程规范的人)。在步骤568,基于搜索准则来生成多个个性化信息集合中的第一集合的个性化信息集合。第一集合的个性化信息集合可包括满足在步骤566中确定的搜索准则的个性化信息集合。
在步骤570,确定优先级准则。优先级准则可允许个性化信息集合(例如,每个对应于不同的虚拟告示牌)基于各种优先级准则(诸如从来源设备到特定人的距离)以及针对其在个性化信息集合中找到匹配的搜索准则的数量被排序和/或分类。在步骤572,基于优先级准则来分类第一集合的个性化信息集合。在一个实施例中,第一集合的个性化信息集合对应于聚会处的一组人并且可被实时地分类,使得只有与来源设备的特定距离内的人相关联的并且满足特定搜索准则的告示牌才被显示给来源设备的最终用户。
在步骤574,生成对应于第一集合的个性化信息集合的一个或多个虚拟告示牌。在步骤576,渲染对应于一个或多个虚拟告示牌的一个或多个图像并将其显示在来源设备上。对应于一个或多个虚拟告示牌的一个或多个图像可被渲染并被显示成使得一个或多个虚拟告示牌中的每一个被感知为存在于向来源设备的最终用户显示的增强现实环境内。
所公开的技术的一个实施例包括与一个或多个处理器通信的透视显示器。该一个或多个处理器检测第一移动设备处于电子设备的距离内,确定与第一移动设备相关联的第一人的分类级别,基于该分类级别来生成一个或多个搜索准则,从第一移动设备获取与第二虚拟告示牌相关联的第二集合的个性化信息,确定第二集合的个性化信息是否满足一个或多个搜索准则,响应于确定第二集合的个性化信息满足一个或多个搜索准则来基于第二集合的个性化信息生成第二虚拟告示牌,以及渲染对应于第二虚拟告示牌的一个或多个图像。透视显示器显示一个或多个图像,使得第二虚拟告示牌被感知到存在于增强现实环境内。
公开的技术的一个实施例包括检测第一移动设备处于来源设备的距离内,标识与第一移动设备相关联的第一人的分类级别,基于分类级别来生成一个或多个搜索准则,以及从第一移动设备获取与第二虚拟告示牌相关联的第二集合的个性化信息。第二集合的个性化信息与第一人相关联。该方法还包括确定第二集合的个性化信息是否满足一个或多个搜索准则,响应于确定第二集合的个性化信息满足一个或多个搜索准则来基于第二集合的个性化信息生成第二虚拟告示牌,渲染对应于第二虚拟告示牌的一个或多个图像,以及在来源设备上显示一个或多个图像。
公开的技术的一个实施例包括检测一个或多个计算设备处于环境内。一个或多个计算设备包括第一移动设备。该方法还包括确定与第一移动设备相关联的第一人的分类级别,基于分类级别来生成一个或多个搜索准则,并且从第一移动设备获取与第二虚拟告示牌相关联的第二集合的个性化信息。第二集合的个性化信息与第一人相关联。该方法还包括从第一移动设备获取与第二虚拟告示牌相关联的第二集合的格式化信息,确定第二集合的个性化信息是否满足一个或多个搜索准则,响应于确定第二集合的个性化信息满足一个或多个搜索准则来基于第二集合的个性化信息和第二集合的格式化信息生成第二虚拟告示牌,渲染对应于第二虚拟告示牌的一个或多个图像,以及将一个或多个图像显示在来源设备上。
图6是移动设备8300(诸如图1中的移动设备19)的一个实施例的框图。移动设备可以包括已经整合了无线接收机/发射机技术的膝上型计算机、袖珍计算机、移动电话、HMD、个人数字助理、以及手持式媒体设备。
移动设备8300包括一个或多个处理器8312以及存储器8310。存储器8310包括应用8330和非易失性存储8340。存储器8310可以是任何种类的存储器存储介质类型,包括非易失性和易失性存储器。移动设备操作系统处理移动设备8300的不同操作,并可包含用于操作的用户界面,如拨打和接听电话呼叫、文本消息收发、检查语音邮件等。应用8330可以是任何种类的程序,如用于照片和/或视频的相机应用、地址簿、日历应用、媒体播放器、因特网浏览器、游戏、闹钟应用、以及其它应用。存储器8310中的非易失性存储组件8340可以包含诸如音乐、照片、联系人数据、日程安排数据、以及其它文件之类的数据。
一个或多个处理器8312与透视显示器8309进行通信。透视显示器8309可显示与真实世界环境相关联的一个或多个虚拟对象。所述一个或多个处理器8312还与下列各项通信:RF发射机/接收机8306,其又耦合到天线8302;红外发射机/接收机8308;全球定位服务(GPS)接收器8365;以及移动/定向传感器8314,其可以包括加速度计和/或磁力计。RF发射机/接收机8308可以通过诸如蓝牙或IEEE 802.11标准之类的各种无线技术标准来实现无线通信。加速度计可能已经结合在移动设备中以实现诸如下列应用:智能用户界面应用,其让用户通过姿势输入命令;以及定向应用,其可以在移动设备被旋转时将显示自动地从竖向改变成横向。可以,例如,通过微机电系统(MEMS)来提供加速度计,该微机电系统是构建在半导体芯片上的微小机械器件(微米尺寸)。可以感测加速度方向、以及定向、振动和震动。所述一个或多个处理器8312还与响铃器/振动器8316、用户界面小键盘/屏幕8318、扬声器8320、话筒8322、相机8324、光传感器8326和温度传感器8328进行通信。用户界面小键盘/屏幕可以包括触敏屏幕显示器。
所述一个或多个处理器8312控制无线信号的发射和接收。在发射模式期间,所述一个或多个处理器8312向RF发射机/接收机8306提供来自话筒8322的语音信号,或其它数据信号。发射机/接收机8306通过天线8302来发射信号。响铃器/振动器8316被用于向用户发传入呼叫、文本消息、日历提醒、闹钟提醒或其它通知等信号。在接收模式期间,RF发射机/接收机8306通过天线8302接收来自远程站的语音信号或数据信号。所接收到的语音信号被提供给扬声器8320,而接收到的其它数据信号被适当地处理。
另外,可以使用物理连接器8388来将移动设备8300连接到诸如AC适配器或加电对接底座之类的外部电源,以便对电池8304进行再充电。物理连接器8388还可被用作到外部计算设备的数据连接。该数据连接允许诸如将移动设备数据与另一设备上的计算数据进行同步等操作。
所公开的技术可用各种其它通用或专用计算系统环境或配置来操作。适合结合本技术中使用的公知的计算系统、环境和/或配置的示例包括,但不限于,个人计算机、服务器计算机、手持或膝上型设备、多处理器系统、基于微处理器的系统、机顶盒、可编程消费电子产品、网络PC、小型计算机、大型计算机、包含上述系统或设备中的任一个的分布式计算环境等。
所公开的技术可在诸如程序模块等由计算机执行的计算机可执行指令的通用上下文中描述。一般而言,如此处所述的软件和程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构和其它类型的结构。硬件或硬件和软件的组合可以替代在此描述的软件模块。
所公开的技术也可以在任务由通过通信网络链接的远程处理设备执行的分布式计算环境中实现。在分布式计算环境中,程序模块可以位于包括存储器存储设备的本地和远程计算机存储介质中。
出于本文档的目的,与所公开的技术相关联的每个过程可以持续地并由一个或多个计算设备来执行。该过程中的每个步骤都可由与在其他步骤中所使用的那些计算设备相同或不同的计算设备来执行,且每个步骤不必由单个计算设备来执行。
出于本文的目的,说明书中引述的“一实施例”、“一个实施例”、“某些实施例”或“另一实施例”用于描述不同的实施例并且不必然指的是同一实施例。
出于本文的目的,连接可以是直接连接或间接连接(例如,经由另一方)。
出于本文的目的,术语对象的“集合”指的是一个或多个对象的“集合”。
尽管用结构特征和/或方法动作专用的语言描述了本主题,但可以理解,所附权利要求书中定义的主题不必限于上述具体特征或动作。相反,上述具体特征和动作是作为实现权利要求的示例形式公开的。

Claims (9)

1.一种用于在增强现实环境内生成并显示个性化虚拟告示牌的电子设备,包括:
一个或多个处理器,所述一个或多个处理器检测所述电子设备的一距离内的第一移动设备,所述一个或多个处理器确定与所述第一移动设备相关联的第一人的分类级别,所述一个或多个处理器基于所述分类级别来生成一个或多个搜索准则,所述一个或多个处理器从所述第一移动设备获取与虚拟告示牌相关联的个性化信息集合,所述一个或多个处理器确定所述个性化信息集合是否满足所述一个或多个搜索准则,所述一个或多个处理器响应于确定所述个性化信息集合满足所述一个或多个搜索准则来基于所述个性化信息集合生成所述虚拟告示牌,所述一个或多个处理器检测不同于所述第一人的第二人在所述电子设备的视野内并确定所述虚拟告示牌在所述视野内的定位使得所述虚拟告示牌不遮挡所述第二人的面部在所述视野内的视图,所述一个或多个处理器渲染对应于所述虚拟告示牌的一个或多个图像;以及
与所述一个或多个处理器通信的显示器,所述显示器显示所述一个或多个图像使得所述虚拟告示牌被感受到存在于所述增强现实环境内。
2.如权利要求1所述的电子设备,其特征在于:
所述一个或多个处理器从所述第一移动设备获取与所述虚拟告示牌相关联的格式化信息集合,所述一个或多个处理器基于所述个性化信息集合和所述格式化信息集合来生成所述虚拟告示牌。
3.如权利要求1-2中的任一项所述的电子设备,其特征在于:
所述一个或多个处理器基于所述第一人在所述电子设备的视野内的位置来确定所述虚拟告示牌在所述视野内的定位,所述一个或多个处理器渲染所述一个或多个图像使得所述虚拟告示牌被感受到存在于所述电子设备的所述视野内的所述定位处。
4.如权利要求1-2中的任一项所述的电子设备,其特征在于:
所述一个或多个处理器通过确定所述个性化信息集合是否包括与在线分类广告相关联的列表来确定所述个性化信息集合是否满足所述一个或多个搜索准则。
5.如权利要求1-2中的任一项所述的电子设备,其特征在于:
所述一个或多个处理器通过确定所述个性化信息集合是否包括一个或多个个人特征来确定所述个性化信息集合是否满足所述一个或多个搜索准则。
6.如权利要求1-2中的任一项所述的电子设备,其特征在于:
所述电子设备包括HMD;以及
所述个性化信息集合包括所述第一人的婚姻状况或所述第一人的血型中的至少一个。
7.一种用于在增强现实环境内生成并显示个性化虚拟告示牌的方法,包括:
检测第一移动设备处于来源设备的一距离内;
标识与所述第一移动设备相关联的第一人的分别级别;
基于分类级别来生成一个或多个搜索准则;
从所述第一移动设备获取与虚拟告示牌相关联的个性化信息集合,所述个性化信息集合与所述第一人相关联;
确定所述个性化信息集合是否满足所述一个或多个搜索准则;
响应于确定所述个性化信息集合满足所述一个或多个搜索准则,基于所述个性化信息集合来生成所述虚拟告示牌;
检测不同于所述第一人的第二人在电子设备的视野内;
确定所述虚拟告示牌在所述视野内的定位使得所述虚拟告示牌不遮挡所述第二人的面部在所述视野内的视图;以及
渲染对应于所述虚拟告示牌的一个或多个图像。
8.如权利要求7所述的方法,进一步包括:
从所述第一移动设备获取与所述虚拟告示牌相关联的格式化信息集合,生成所述虚拟告示牌包括基于所述个性化信息集合和所述格式化信息集合来生成所述虚拟告示牌;以及
在所述来源设备上显示所述一个或多个图像。
9.如权利要求7-8中任一项所述的方法,其特征在于,还包括:
基于所述第一人在所述来源设备的视野内的位置来确定所述虚拟告示牌在所述视野内的定位,渲染所述一个或多个图像包括渲染所述一个或多个图像使得所述虚拟告示牌被感受到存在于所述来源设备的所述视野内的所述定位处。
CN201480020881.1A 2013-04-12 2014-04-09 个人全息告示牌 Active CN105190484B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/862,349 US9390561B2 (en) 2013-04-12 2013-04-12 Personal holographic billboard
US13/862,349 2013-04-12
PCT/US2014/033405 WO2014168994A1 (en) 2013-04-12 2014-04-09 Personal holographic billboard

Publications (2)

Publication Number Publication Date
CN105190484A CN105190484A (zh) 2015-12-23
CN105190484B true CN105190484B (zh) 2018-08-14

Family

ID=50733389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480020881.1A Active CN105190484B (zh) 2013-04-12 2014-04-09 个人全息告示牌

Country Status (4)

Country Link
US (1) US9390561B2 (zh)
EP (1) EP2984540A1 (zh)
CN (1) CN105190484B (zh)
WO (1) WO2014168994A1 (zh)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823737B2 (en) * 2008-04-07 2017-11-21 Mohammad A Mazed Augmented reality personal assistant apparatus
US9894116B2 (en) * 2012-04-12 2018-02-13 Intel Corporation Techniques for augmented social networking
US9430877B2 (en) * 2013-01-25 2016-08-30 Wilus Institute Of Standards And Technology Inc. Electronic device and method for selecting augmented content using the same
US9500865B2 (en) * 2013-03-04 2016-11-22 Alex C. Chen Method and apparatus for recognizing behavior and providing information
EP2983137B1 (en) * 2013-04-04 2019-05-22 Sony Corporation Information processing device, information processing method and program
KR20140130331A (ko) * 2013-04-30 2014-11-10 (주)세이엔 착용형 전자 장치 및 그의 제어 방법
US9747899B2 (en) 2013-06-27 2017-08-29 Amazon Technologies, Inc. Detecting self-generated wake expressions
US9588342B2 (en) * 2014-04-11 2017-03-07 Bank Of America Corporation Customer recognition through use of an optical head-mounted display in a wearable computing device
US9514463B2 (en) * 2014-04-11 2016-12-06 Bank Of America Corporation Determination of customer presence based on communication of a mobile communication device digital signature
US10121142B2 (en) 2014-04-11 2018-11-06 Bank Of America Corporation User authentication by token and comparison to visitation pattern
JP6108357B2 (ja) * 2014-05-13 2017-04-05 ジャパンモード株式会社 ウェアラブル端末装置、表示方法、プログラム、およびサービス提供システム
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
JP2016004340A (ja) * 2014-06-16 2016-01-12 セイコーエプソン株式会社 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
KR20160014418A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 유저 인터페이스 장치 및 유저 인터페이스 방법
KR20160015972A (ko) * 2014-08-01 2016-02-15 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
US9934573B2 (en) * 2014-09-17 2018-04-03 Intel Corporation Technologies for adjusting a perspective of a captured image for display
US9754416B2 (en) * 2014-12-23 2017-09-05 Intel Corporation Systems and methods for contextually augmented video creation and sharing
US9769602B2 (en) 2015-01-15 2017-09-19 Accenture Global Services Limited Multi-user content distribution
US10740971B2 (en) 2015-01-20 2020-08-11 Microsoft Technology Licensing, Llc Augmented reality field of view object follower
US10547709B2 (en) 2015-06-18 2020-01-28 Qualtrics, Llc Recomposing survey questions for distribution via multiple distribution channels
US10325568B2 (en) 2015-08-03 2019-06-18 Qualtrics, Llc Providing a display based electronic survey
CN105096144A (zh) * 2015-08-24 2015-11-25 小米科技有限责任公司 社交关系分析方法及装置
US10242643B2 (en) * 2016-07-18 2019-03-26 Microsoft Technology Licensing, Llc Constrained head-mounted display communication
US10176640B2 (en) * 2016-08-02 2019-01-08 Qualtrics, Llc Conducting digital surveys utilizing virtual reality and augmented reality devices
CN107773981A (zh) * 2016-08-24 2018-03-09 丰唐物联技术(深圳)有限公司 一种基于增强现实的交互方法及系统
US11301877B2 (en) 2016-09-01 2022-04-12 Qualtrics, Llc Providing analysis of perception data over time for events
US10440240B2 (en) 2016-09-30 2019-10-08 Sony Interactive Entertainment Inc. Systems and methods for reducing an effect of occlusion of a tracker by people
US20180123813A1 (en) * 2016-10-31 2018-05-03 Bragi GmbH Augmented Reality Conferencing System and Method
CN106730814A (zh) * 2016-11-22 2017-05-31 深圳维京人网络科技有限公司 基于ar及人脸识别技术的海洋捕鱼类游戏
KR20240033136A (ko) * 2016-12-05 2024-03-12 케이스 웨스턴 리저브 유니버시티 상호작용적 증강 현실 프리젠테이션들을 표시하기 위한 시스템들, 방법들 및 매체들
CN106933357A (zh) * 2017-02-23 2017-07-07 任刚 一种基于可穿戴混合现实设备的全息广告播放系统及方法
WO2019007936A1 (de) * 2017-07-04 2019-01-10 Atlas Elektronik Gmbh Visuelles ausgabegerät mit einer kamera und präsentations-verfahren
US10996741B2 (en) * 2017-09-12 2021-05-04 International Business Machines Corporation Augmented reality conversation feedback
US10956941B2 (en) 2017-09-15 2021-03-23 International Business Machines Corporation Dynamic billboard advertisement for vehicular traffic
US10950135B2 (en) * 2017-11-09 2021-03-16 Accenture Global Solutions Limited Customized virtual reality learning environment
US11556980B2 (en) * 2017-11-17 2023-01-17 Ebay Inc. Method, system, and computer-readable storage media for rendering of object data based on recognition and/or location matching
US10679306B2 (en) 2017-11-21 2020-06-09 International Business Machines Corporation Focus-object-determined communities for augmented reality users
JP2019133504A (ja) * 2018-02-01 2019-08-08 トヨタ自動車株式会社 配車サービス連携探索支援システム
US10762219B2 (en) * 2018-05-18 2020-09-01 Microsoft Technology Licensing, Llc Automatic permissions for virtual objects
US10482675B1 (en) 2018-09-28 2019-11-19 The Toronto-Dominion Bank System and method for presenting placards in augmented reality
US10547974B1 (en) * 2019-03-19 2020-01-28 Microsoft Technology Licensing, Llc Relative spatial localization of mobile devices
US11244319B2 (en) 2019-05-31 2022-02-08 The Toronto-Dominion Bank Simulator for value instrument negotiation training
US11557093B1 (en) * 2019-09-10 2023-01-17 Meta Platforms Technologies, Llc Using social connections to define graphical representations of users in an artificial reality setting
CN111104927B (zh) * 2019-12-31 2024-03-22 维沃移动通信有限公司 一种目标人物的信息获取方法及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101073274A (zh) * 2004-05-12 2007-11-14 谷歌公司 用于移动设备的基于位置的社会软件
CN102375741A (zh) * 2010-08-12 2012-03-14 株式会社泛泰 用于显示增强现实窗口的用户设备和方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US8548846B2 (en) * 2004-12-13 2013-10-01 Microsoft Corporation System and method for online targeted billboard advertising
US8711176B2 (en) * 2008-05-22 2014-04-29 Yahoo! Inc. Virtual billboards
US10217085B2 (en) * 2009-06-22 2019-02-26 Nokia Technologies Oy Method and apparatus for determining social networking relationships
US8386620B2 (en) 2009-12-15 2013-02-26 Apple Inc. Ad hoc networking based on content and location
US8639440B2 (en) 2010-03-31 2014-01-28 International Business Machines Corporation Augmented reality shopper routing
WO2012003844A1 (en) * 2010-07-05 2012-01-12 Sony Ericsson Mobile Communications Ab Method for displaying augmentation information in an augmented reality system
US20120113141A1 (en) 2010-11-09 2012-05-10 Cbs Interactive Inc. Techniques to visualize products using augmented reality
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
EP2691935A1 (en) 2011-03-29 2014-02-05 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101073274A (zh) * 2004-05-12 2007-11-14 谷歌公司 用于移动设备的基于位置的社会软件
CN102375741A (zh) * 2010-08-12 2012-03-14 株式会社泛泰 用于显示增强现实窗口的用户设备和方法

Also Published As

Publication number Publication date
US9390561B2 (en) 2016-07-12
CN105190484A (zh) 2015-12-23
EP2984540A1 (en) 2016-02-17
WO2014168994A1 (en) 2014-10-16
US20140306994A1 (en) 2014-10-16

Similar Documents

Publication Publication Date Title
CN105190484B (zh) 个人全息告示牌
US11601484B2 (en) System and method for augmented and virtual reality
CN105264548B (zh) 用于生成增强现实体验的难以察觉的标签
CN105264460B (zh) 全息图对象反馈
CN105378801B (zh) 全息图快照网格
US10019962B2 (en) Context adaptive user interface for augmented reality display
US20240112426A1 (en) Protocol for facilitating presentation of extended reality content in different physical environments
CN117897677A (zh) 人工现实设备采集控制和共享
WO2024069534A1 (en) Adaptive extended reality content presentation in multiple physical environments

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant