CN115499687A - 在多人内容呈现环境中重定向事件通知的电子设备和对应方法 - Google Patents

在多人内容呈现环境中重定向事件通知的电子设备和对应方法 Download PDF

Info

Publication number
CN115499687A
CN115499687A CN202110672481.0A CN202110672481A CN115499687A CN 115499687 A CN115499687 A CN 115499687A CN 202110672481 A CN202110672481 A CN 202110672481A CN 115499687 A CN115499687 A CN 115499687A
Authority
CN
China
Prior art keywords
electronic device
augmented reality
event notification
processors
companion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110672481.0A
Other languages
English (en)
Inventor
阿米特·库马尔·阿格拉沃尔
胡永华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Mobility LLC
Original Assignee
Motorola Mobility LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Mobility LLC filed Critical Motorola Mobility LLC
Priority to CN202110672481.0A priority Critical patent/CN115499687A/zh
Priority to US17/369,389 priority patent/US11836543B2/en
Publication of CN115499687A publication Critical patent/CN115499687A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/542Event management; Broadcasting; Multicasting; Notifications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/563Data redirection of data network streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4126The peripheral being portable, e.g. PDAs or mobile phones
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/02Details
    • H04L12/12Arrangements for remote connection or disconnection of substations or of equipment thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/183On-screen display [OSD] information, e.g. subtitles or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4856End-user interface for client configuration for language selection, e.g. for the menu or subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W12/00Security arrangements; Authentication; Protecting privacy or anonymity
    • H04W12/08Access security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

本发明涉及在多人内容呈现环境中重定向事件通知的电子设备和对应方法。一种电子设备,包括通信设备,该通信设备与作为电子设备的主显示器操作的内容呈现伴随设备和至少一个增强现实伴随设备电子地通信。在内容呈现伴随设备作为主显示器操作的同时,一个或多个传感器检测环境中的多个人。在内容呈现伴随设备作为电子设备的主显示器而操作,并且多个人在电子设备的环境中的同时,一个或多个处理器将预期在主显示器上呈现的事件通知重定向到增强现实伴随设备。当与两个增强现实伴随设备通信时,一个或多个处理器可以将有时以不同的语言的与内容提供相关联的字幕定向到至少第一增强现实伴随设备和第二增强现实伴随设备。

Description

在多人内容呈现环境中重定向事件通知的电子设备和对应 方法
技术领域
本公开总体上涉及电子设备,并且更具体地涉及被配置为电子地生成或接收通知的电子设备。
背景技术
与诸如智能电话和平板计算机的便携式电子设备相关联的技术正在不断改进。通过示例进行说明,不久前此类设备仅包括具有大块像素的灰度液晶二极管显示器,而现代智能手机、平板电脑和甚至智能手表也包括具有令人难以置信的小像素的有机发光二极管(OLED)显示器。
虽然这些OLED显示器提供了能够呈现高动态范围图像和视频的极高的对比度,但是它们的尺寸仍然受到限制,使得这些设备可以容易地在手、口袋或背包中携带。为了使由这些设备接收的内容更容易被看到,诸如例如当一组人想要观看内容时,许多便携式电子设备都包括内容重定向功能。使用内容重定向功能,一个人可以通过智能手机流式播放电影,然后将电影重定向到位于智能手机附近的更大的显示器,以便家人或其他组可以在更大的显示器上观看电影。虽然重定向功能对于观看电影非常好,但重定向功能可以影响设备的其他功能,诸如通知传递。具有允许改进的内容传递的用户界面特征的改进的电子设备将是有利的。
附图说明
在附图中,在各个单独的视图中,相同的附图标记指代相同或功能相似的元件,并且其与以下的详细描述一起并入说明书中并构成说明书的一部分,附图用于进一步说明各种实施例并解释全部根据本公开的各种原理和优点。
图1说明了根据本公开的一个或多个实施例的一种说明性增强现实伴随设备。
图2说明了根据本公开的一个或多个实施例的一种说明性电子设备。
图3说明了根据本公开的一个或多个实施例的一种说明性内容呈现伴随设备。
图4说明了根据本公开的一个或多个实施例的一个或多个说明性方法步骤。
图5说明了根据本公开的一个或多个实施例的一个或多个实施例说明性方法步骤。
图6说明了根据本公开的一个或多个实施例的一种说明性方法。
图7说明了根据本公开的一个或多个实施例的一个或多个说明性方法步骤。
图8说明了根据本公开的一个或多个实施例的另一种说明性方法。
图9说明了本公开的各种实施例。
图10说明了本公开的各种其他实施例。
技术人员将理解,图中的元件是为了简单和清楚而示出的,并且不一定按比例绘制。例如,附图中的一些元件的尺寸可能相对于其他元件被放大,以帮助改善对本公开的实施例的理解。
具体实施方式
在详细描述根据本公开的实施例之前,应观察到,这些实施例主要存在于方法步骤和装置组件的组合中,所述方法步骤和装置组件关联于当多个人在电子设备的环境中时将旨在呈现在电子设备的主显示器上的事件通知重定向到增强现实伴随设备,或者可替换地,根据用户语言偏好将字幕传递到增强现实伴随设备。流程图中的任何过程描述或框都应理解为代表代码的模块、段或部分,这些代码的模块、段或部分包括用于实施过程中特定逻辑功能或步骤的一个或多个可执行指令。包括替代的实施方式,并且将清楚的是,取决于所涉及的功能,可以与所示出或所讨论的不同顺序地执行功能,包括基本上同时或以相反的顺序执行。因此,在适当的情况下,装置部件和方法步骤已经由附图中的常规符号表示,附图仅示出了与理解本公开的实施例有关的那些具体细节,从而不会以对于受益于本文描述的本领域普通技术人员显而易见的细节混淆本公开。
本公开的实施例没有列举旨在处理商业信息的任何普通商业方法的实现,也没有将已知的商业过程应用于互联网的特定技术环境。此外,本公开的实施例不使用通用计算机功能和常规网络操作来创建或改变合同关系。恰恰相反,本公开的实施例采用了以下方法:当将这些方法应用于电子设备和/或用户界面技术时,其通过并改善整体用户体验来改善电子设备本身的功能,以克服在与电子设备用户交互相关的技术的领域中特别出现的问题。
应当理解,本文描述的本公开的实施例可以包括一个或多个常规处理器和唯一存储的程序指令,该程序指令控制一个或多个处理器结合某些非处理器电路来实现向增强现实伴随设备重定向事件通知和/或将字幕发送到增强现实伴随设备的一些、大多数或所有功能,如本文所述。非处理器电路可以包括但不限于无线电接收机、无线电发射机、信号驱动器、时钟电路、电源电路和用户输入设备。这样,这些功能可以解释为执行向增强现实伴随设备重定向事件通知和/或字幕向增强现实伴随设备的传输的方法的步骤。
替代地,一些或全部功能可以由不具有存储的程序指令的状态机来实现,或者在一个或多个专用集成电路(ASIC)中实现,其中,每个功能或某些功能的某些组合被实现作为自定义逻辑。当然,可以使用两种方法的组合。因此,本文已经描述了用于这些功能的方法和装置。此外,期望在本文公开的概念和原理的指导下,尽管可能花费例如由可用时间、当前技术和经济考虑而促使的大量的精力和许多设计选择,普通技术人员只需进行最少的试验就很容易生成这样的软件指令和程序以及ASIC。
现在详细描述本公开的实施例。参照附图,贯穿附图相同的数字表示相同的部分。如本文的说明书和整个权利要求书中所使用的,除非场境另外明确指出,否则以下术语具有本文明确关联的含义:“一”、“一种”和“该”的含义包括复数引用,“在...中”的含义包括“在...中”和“在...上”。诸如第一和第二以及顶部和底部等的关系术语可以仅用于将一个实体或动作与另一实体或动作区分开,而不必要求或暗示这种实体或动作之间的任何实际的这种关系或顺序。
如本文所使用的,即使可以在连接路径之间或沿着连接路径存在一个或多个中间或插入组件,当可以在组件之间发送信息时,这样的组件也可以“可操作地耦合”。术语“基本上”、“实质上”、“大体”、“大约”或其任何其他版本被定义为接近于本领域普通技术人员所理解的,并且在一个非限制性实施例中,该术语被定义为10%内,在另一个实施例中为5%内,在另一个实施例中为1%内,并且在另一个实施例中为0.5%。这里使用的术语“耦合”被定义为连接,尽管不一定是直接的并且不一定是机械的。而且,在括号中在此示出的附图标记表示图中所示出的组件,而不是在讨论中的组件。例如,在讨论图A的同时谈论设备(10)将指的是除图A以外的图中所示的元件10。
本公开的实施例供应了一种增强现实伴随设备(augmented reality companiondevice),其在说明性实施例中被配置为一副增强现实眼镜,当电子设备将其主显示器重定向到内容呈现伴随设备时,增强现实伴随设备可以从电子设备接收信息。有利地,这允许仅将信息传递给预期的接收者,而不是传递给可能正在消费内容呈现伴随设备上的内容的组。
信息可以采取多种形式。在一个或多个实施例中,该信息包括事件通知,该事件通知向用户警告已经生成或接收到通知的事实。事件通知的示例包括:已收到电子邮件的通知、已收到文本消息的通知、新闻警告、天气警告以及已发布新社交媒体帖子的新闻等等。在其他实施例中,该信息可以包括与内容提供相关联的字幕。在一些实施例中,音频内容与信息一起被重定向。例如,如果两个人戴着增强现实眼镜观看电影,并且那些人说两种不同的语言,则电子设备的一个或多个处理器可以使通信设备以首选语言将与内容相关联的字幕电子地传递给增强现实眼镜,而不使内容呈现伴随设备的显示混乱。可选地,还可以将其首选语言或另一种语言的音频与字幕一起传递。这样的信息的其他示例将在下面描述。其他内容对于受益于本公开的本领域普通技术人员将是显而易见的。
在一个或多个实施例中,电子设备的一个或多个处理器检测到该电子设备的通信设备正在与作为该电子设备的主显示器而操作的内容呈现伴随设备以及至少一个增强现实伴随设备进行通信,增强现实伴随设备的一个示例是增强现实眼镜。然后,一个或多个传感器检测到在内容呈现伴随设备作为电子设备的主显示器而操作时在电子设备的环境中存在多个人。当发生这种情况时,一个或多个处理器在多个人处于环境中的同时,将旨在呈现在电子设备的主显示器上的事件通知重定向到增强现实伴随设备。
为了说明,考虑家庭围绕大电视屏幕坐在客厅中的情况。家庭的母亲使得电影被流式传输到她的智能手机。由于屏幕太小以至于无法让全家人一起舒适地观看,因此她将电影从智能手机重定向到电视屏幕,通过充当智能手机的主显示器,电视屏幕用作内容呈现伴随设备。
通常,如果母亲的雇主经由她的智能手机向母亲发送了工作电子邮件或文本消息,则将生成事件通知,指示已接收到电子邮件或文本消息。通常,此事件通知将呈现在智能手机的显示器上。然而,现在将显示功能重定向到内容呈现伴随设备通常将导致事件通知被呈现在电视屏幕上。如果这是在电影的关键时刻发生的话,那么整个家庭因为只为母亲而发的工作电子邮件或文本消息的动作的中断而被惹恼。
有利地,使用本公开的实施例,智能电话使用一个或多个传感器来检测多个人——即,在该示例中的家庭——在由客厅限定的电子设备的环境内。当母亲诸如通过戴着增强现实眼镜使用增强现实伴随设备时,智能手机的一个或多个处理器检测到智能手机的通信设备与电视屏幕和增强现实眼镜进行电子通信。因此,在一个或多个实施例中,一个或多个处理器将事件通知从电视屏幕重定向到增强现实眼镜,使得只有母亲才看到事件通知。这导致事件通知的预期接收者看到事件通知,从而允许其他家庭成员可以不中断地观看电影。
也可以以其他方式使用本公开的实施例。在一个或多个其他实施例中,电子设备的一个或多个处理器使通信设备将诸如电影、视频、电视节目、网页、电子邮件或应用接口的内容提供电子传递到内容呈现伴随设备以进行呈现给电子设备的环境。一个或多个处理器还检测电子地与第一增强现实伴随设备和第二增强现实伴随设备通信的通信设备。
然后,电子设备的一个或多个传感器识别操作第一增强现实伴随设备的第一人和操作第二增强现实伴随设备的第二人。然后,一个或多个处理器确定第一人的第一语言偏好和第二人的第二语言偏好。然后,一个或多个处理器使通信设备将与第一语言偏好的内容相关联的第一字幕电子传递给第一增强现实伴随设备,并将与第二语言偏好的内容相关联的第二字幕电子传递给第二增强现实伴随设备。
为了说明,考虑两个人坐在房间中,其中,一个人正在将用英语对话的美国电影从智能手机向大电视屏幕流传输。每个人都戴着增强现实眼镜,该增强现实眼镜被配置作为对于智能手机而言的增强现实伴随设备。此外,每个人都在学习不同的语言,其中第一人学习法语,第二人学习西班牙语。因此,使用菜单或其他设备设置,第一人将第一语言偏好设置为法语,并将另一个人的第二语言偏好设置为西班牙语。
智能手机的一个或多个处理器检测到智能手机的通信设备与电视屏幕(以投射内容)、第一对增强现实眼镜和第二对增强现实眼镜的每个进行电子通信。电子设备的一个或多个传感器识别第一人和第二人。一个或多个处理器根据用户设置确定第一人的第一语言偏好是法语,第二人的第二语言偏好是西班牙语。因此,一个或多个处理器使智能电话的通信设备以法语向第一对增强现实眼镜传递第一字幕,并以西班牙语向第二对增强现实眼镜传递第二字幕。每个人在阅读他们正在学习的语言的同时,都能听到英语的电影对话,但又不打扰对方对电影的欣赏和学习经验。
本公开的实施例设想,当诸如智能电话或平板计算机的电子设备与伴随显示设备进行电子通信时,多个人可能正在观看伴随显示设备。每当将伴随设备用作电子设备的主显示器时,可能发生这种情况。当接收到事件通知时,在现有技术的系统中,智能手机的所有者在管理这样的事件通知时将只有两个选择:第一,他们可以将电子设备转换为“请勿打扰”操作模式,以防止事件通知被显示给该组并从在伴随显示设备上呈现的内容分神。这样做的问题是电子设备的所有者将至少暂时错过事件通知,该事件通知可能是时间敏感的或重要的。另外,电子设备的所有者可能觉得好像他们错过了其电子设备的充分使用。
第二,电子设备的所有者可以简单地允许事件通知被呈现在伴随显示设备上,就像事件通知通常被呈现在电子设备的显示器上一样。该选择也是有问题的,因为在消费伴随显示设备上的内容的其他人因事件通知的呈现而不断分散注意力。另外,如果将包含敏感信息的事件通知呈现给该组,则可能损害电子设备所有者的隐私。
尽管一些人很幸运拥有附加的伴随电子设备,诸如能够显示事件通知的智能手表,但许多个人负担不起这种选择。另外,每当事件通知被传递时,伴随电子设备的所有者将需要将他们的注意力从伴随显示设备上移开。因此,他们将无法在查看事件通知时同时欣赏伴随显示设备上的内容。
有利地,本公开的实施例通过使用增强现实眼镜作为增强现实伴随设备来供应针对这些问题的解决方案,从而允许电子设备的所有者在消费诸如外部显示器的伴随电子设备上的内容的同时保持连接到他们的电子设备。
在一个或多个实施例中,电子设备确定电子设备以内容共享模式连接到外部显示器,诸如当电子设备处于内容重定向模式或其中外部显示器用作电子设备的主显示器的“桌面”模式时。电子设备另外确定电子设备正在与增强现实眼镜通信。该电子设备确定该外部显示器上的内容除了由该电子设备的所有者之外还由一个以上的用户使用。在一个或多个实施例中,这是通过捕获环境的图片以确定多个人在该环境内而发生的。
在一个或多个实施例中,电子设备确定电子设备的所有者正在佩戴增强现实眼镜。电子设备确定将要显示事件通知。然后,电子设备的一个或多个处理器响应于这种情况而主动地将私人事件通知路由到增强现实眼镜。
在一个或多个实施例中,该主动路由根据预先配置的或用户可选择的私人通知列表而发生。预先配置的或用户可选择的私人通知列表中的每个列表项都可以是新消息通知、来电通知和来自特定应用的通知等等。
在其他实施例中,基于专用通知列表,主动路由根据目标显示决策机制而发生。例如,如果电子邮件消息被引导到用伴随显示设备消费内容的整个组,则决策机制可以将指示已接收到电子邮件消息的事件通知路由到伴随显示设备。相反,如果电子邮件消息仅定向到电子设备的所有者,则决策机制可以将消息定向到所有者的增强现实眼镜。
在又一个实施例中,根据基于目标显示决策的动作来进行主动路由。私人事件通知和内容随后将被定向到增强现实眼镜,而公共事件通知可被路由到另一显示器或另一设备。
在其他实施例中,增强现实眼镜用于传递与在伴随显示设备上消费的内容相对应的字幕。在这样的实施例中,电子设备确定其被电子连接到充当电子设备的主显示器的伴随显示设备。然后,该电子设备确定除了该电子设备的所有者之外,还有一个以上的人正在消费被传递到伴随显示设备的内容。
电子设备然后确定其被电子连接到除所有者的增强现实眼镜之外的多于一对的增强现实眼镜。电子设备确定在伴随显示设备上渲染的内容支持多于一种格式,例如多于一种语言的字幕。电子设备的一个或多个处理器为佩戴增强现实眼镜的每个用户确定语言偏好。这可以使用预先配置的设置或通过使用话音识出处理由麦克风所接收的音频动态检测语言来完成。
当电子设备确定多个用户佩戴与电子设备进行电子通信的不同的增强现实眼镜时,电子设备的一个或多个处理器基于他们的偏好为各个用户路由偏好字幕(不同的语言)。
通过示例说明,如果中国人和印度人正在观看包括英语对话的被流传输到电子设备并传递给伴随显示设备的电影,则该电子设备的一个或多个处理器可以向中国人所戴的增强现实眼镜传递普通话字幕并向印度人所戴的增强现实眼镜传递印地语的其他字幕。应该注意的是,该概念可以扩展以适应支持多种语言的其他情况,诸如游戏分数和歌曲歌词等等。其他情况对于受益于本公开内容的本领域普通技术人员将是有利的,在该其他情况中,将不同语言的字幕路由至与将内容提供引导至伴随显示设备的电子设备进行通信的增强现实眼镜。
现在转向图1,在此示出了根据本公开的一个或多个实施例配置的一个说明性增强现实伴随设备100。在图1的说明性实施例中,增强现实伴随设备100包括增强现实眼镜。然而,这仅出于解释的目的,因为也可以以任何数量的其他方式来配置增强现实伴随设备100。通过示例说明,增强现实伴随设备100还可以被配置为太阳镜、护目镜、口罩、护罩或护目镜中的任何一种。增强现实伴随设备100的其他形式对于受益于本公开的本领域普通技术人员将显而易见。
图1的增强现实伴随设备100包括:框架101和一个或多个杆102、103。在此,一个或多个杆102、103包括第一杆102和第二杆103。一个或多个透镜104、105可以被设置在框架101内。透镜104、105可以是处方的或非处方的,并且可以是透明的、有色的或黑暗的。在一个或多个实施例中,杆102、103可从位于与框架101相邻且平行的第一位置枢转到图1所示的第二径向移动的打开位置。然而,在其他实施例中,杆102、103可以相对于框架101固定。在其他实施例中,诸如如果增强现实伴随设备100被配置为护目镜的情况,杆102、103可以是柔性的或柔软的。例如,护目镜的杆经常是弹性的织物,其柔软、有弹性、柔韧且有弹性。其他类型的杆102、103对于受益于本公开的本领域普通技术人员将是显而易见的。
在一个或多个实施例中,杆102、103在第一端108、109处附接至框架101,并从框架101向远侧延伸至第二远端110、126。在一个实施例中,每个杆102、103包括镜腿(temple)部分106和耳朵接合部分107。镜腿部分106是杆102、103的一部分,其从框架101经过佩戴者的镜腿,而耳朵接合部分107与佩戴者的耳朵接合,以将增强现实眼镜保留在佩戴者的头部。
由于增强现实伴随设备100被配置为电子设备,因此框架101和杆102、103之一或两者可以包括一个或多个电子组件。在图1中的示意性框图125中示意性地示出了这些电子部件。受益于本公开的本领域普通技术人员将清楚的是,可以以不同的组合使用电子部件和相关联的模块,其中包括一些组件和模块,而其他组件和模块被省略。根据需要或应用,可以包括或排除组件或模块。
电子组件可以包括一个或多个处理器111。一个或多个处理器111可以被设置在杆102、103或框架101中的一个或两者中。一个或多个处理器111可以与存储器112一起操作。一个或多个处理器111可以执行本文所述的程序指令和方法,该处理器可以是一个或多个微处理器、可编程逻辑、专用集成电路设备或其他类似设备中的任何一个。程序指令和方法可以被板载存储在一个或多个处理器111中,或存储在存储器112中,或存储在耦合到一个或多个处理器111中的其他计算机可读介质中。
一个或多个处理器111可以被配置为操作增强现实伴随设备100的各种功能,并且还执行可以被存储在诸如存储器112之类的计算机可读介质中的软件或固件应用和模块。一个或多个处理器111部分地执行该软件或固件以供应设备功能。存储器112可以包括静态和动态存储器组件之任何一种或两者,可以用于存储嵌入式代码和用户数据。
在一个或多个实施例中,增强现实伴随设备100还包括可选的无线通信设备113。在包括无线通信设备113的情况下,无线通信设备113可与一个或多个处理器111一起操作,并用于促进与网络上的一个或多个电子设备或服务器或其他通信设备的电子通信。注意,可以将一个或多个处理器111、存储器112和无线通信设备113组合成单个设备,或者可替代地组合成具有较少部分的设备,同时保留组成部分的功能。
无线通信设备113可以与一个或多个处理器111结合操作,以通过通信网络进行电子通信,该无线通信设备可以是接收机或发射机之一。例如,在一个实施例中,无线通信设备113可以被配置为通过传统的蜂窝网络进行通信。通信电路可以与之通信的网络的其他示例包括专有网络和直接通信网络。在其他实施例中,无线通信设备113可以与近场或局域网、红外通信电路、磁场调制电路和Wi-Fi电路通信。在一个或多个实施例中,无线通信设备113可以被配置为供应消息传输功能以将电子消息传递到远程设备。
可以包括电池114或其他能量存储设备,以为增强现实伴随设备100的各个组件供应电力。虽然电池114如图1所示,对于受益于本公开的本领域普通技术人员显而易见的是,可以使用其他能量存储设备代替电池114,包括微型燃料单体或电化学电容器。电池114可以包括锂离子单体、锂聚合物单体或镍金属氢化物单体,这样的单体具有足够的能量容量、宽的操作温度范围、大量的充电循环以及长的使用寿命。电池114还可以包括过电压和过电流保护以及充电电路。在一个实施例中,电池114包括小的锂聚合物单体。
在一个或多个实施例中,可以包括诸如太阳能电池的光伏设备115以对电池114进行充电。在一个实施例中,可以沿着杆102、103的镜腿部分106设置光伏设备115。在该说明性实施例中,两个太阳能单体分别被设置在每个杆102、103的镜腿部分106中。
其他组件116也可以可选地也被包括在增强现实伴随设备100中。例如,在一个实施例中,可以包括一个或多个麦克风作为音频捕获设备117。这些音频捕获设备可以与一个或多个处理器111一起操作以接收语音输入。另外,在一个或多个实施例中,音频捕获设备117可以捕获环境音频噪声。可以将与所捕获的音频相对应的信号发送到与增强现实伴随设备100或服务器或云计算设备通信的电子设备。其他组件116可以另外包括用于将音频内容传递给佩戴增强现实伴随设备110的用户的扬声器。
其他组件116也可以包括用于向用户提供触觉通知或振动通知的运动生成设备。例如,压电换能器、旋转马达或其他机电设备可被配置为在杆102、103的镜腿部分106上或沿框架101施加力或振动。运动生成设备可对用户供应重击、碰撞、振动或其他物理感觉。一个或多个处理器111可被配置成致动运动生成设备以单独地或与诸如声音输出的其他输出组合地传递触觉或振动输出。
类似地,在一个或多个实施例中,眼镜可以包括视频捕获设备118,诸如成像器。成像器可以被设置在框架101或杆102、103内。在一个或多个实施例中,视频捕获设备118可以用作检测增强现实伴随设备100附近的光强度、颜色、光或阴影的变化。与音频捕获设备117一样,所捕获的视频信息可以被传输到电子设备、远程服务器或云计算设备。
增强现实伴随设备100中可以可选地包括其他传感器119。这种传感器的一个示例是用于确定增强现实伴随设备100位于何处的全球定位系统设备。全球定位系统设备可以与地球轨道卫星星座或地面基站网络进行通信,以确定大概的位置。尽管全球定位系统设备是位置确定模块的一个示例,但受益于本公开的本领域普通技术人员将清楚,也可以使用其他位置确定设备诸如电子罗盘或陀螺仪。
其他传感器119也可以包括可选的用户界面。用户界面可用于例如激活电路组件或将其关闭以及控制其他传感器119的灵敏度等。如果包括,用户界面可以与一个或多个处理器111一起操作,以向用户传递信息并从用户接收信息。用户界面可以包括翘板开关、滑块、按钮、触敏表面或其他控件,并且可选地包括语音命令界面。这些不同的组件可以被集成在一起。
在一个或多个实施例中,诸如扬声器或其他换能器的音频输出设备120可以将音频输出传递给用户。例如,压电换能器可以可操作地被设置在杆102、103内。压电换能器的致动可引起杆102、103振动,从而发射声音输出。也可以使用更传统的音频输出设备120,诸如扬声器。
其他组件116可以可选地包括向用户提供触觉反馈的触觉设备。触觉设备可以包括运动生成设备,以将触觉响应传递给用户。例如,在杆102、103中可以包括压电换能器或其他机电设备。换能器可以致动以在用户的头部上施加力,以向用户供应重击、碰撞、振动或其他物理感觉。音频输出设备120和触觉设备两者的包含允许音频和触觉反馈都被传递。
在一个或多个实施例中,增强现实伴随设备100包括可操作以将增强现实图像传递给用户的增强现实图像呈现设备121。增强现实图像呈现设备121可以与投影仪122一起操作。在图1的说明性实施例中,框架101支撑投影仪122。在一个或多个实施例中,投影仪122被配置为当增强现实伴随设备100以增强现实操作模式进行操作时将图像传送至全息光学元件。
在一个实施例中,投影仪122是可操作以沿着表面或全息光学元件投影调制光图像的调制光投影仪。在另一实施例中,投影仪122是薄型微型投影仪。在另一实施例中,投影仪122可以包括激光投影仪显示模块。其他类型的投影仪对于受益于本公开的本领域普通技术人员将是显而易见的。
在一个或多个实施例中,投影仪122可包括透镜和配置为操纵光以产生图像的空间光调制器。投影仪122可以包括光源,诸如单个白光发光二极管、多个分离的彩色发光二极管或多个分离的彩色激光二极管,其通过合色器将可见光传递到空间光调制器。增强现实图像呈现设备121可以驱动空间光调制器以调制光以产生图像。可以将空间光调制器光学耦合(例如,通过自由空间传播)到透镜和/或光束转向器。在使用的情况下,光束操纵器用于操纵从空间光调制器发出的经过空间调制的光束穿过透镜以创建图像。
在一个或多个实施例中,增强现实伴随设备100包括伴随设备显示集成管理器124。当另一设备向增强现实伴随设备100发送事件通知、字幕或其他场境信息时,伴随设备显示集成管理器将该信息传递给增强现实图像呈现设备121,以经由投影仪122作为增强现实体验呈现给用户。通过示例说明,在电子设备检测到其环境中的多个人的同时,当与增强现实伴随设备100通信的另一电子设备向增强现实伴随设备100重定向了旨在用于多个人在用作电子设备的主显示器的伴随设备上呈现的事件通知时,伴随设备显示集成管理器124将那些事件通知传递给增强现实图像呈现设备121以用于经由投影仪122向用户呈现增强现实体验。类似地,当另一电子设备根据佩戴增强现实伴随设备100的用户的语言偏好传递与内容提供相关的字幕时,伴随设备显示集成管理器124将那些事件通知传递到增强现实图像呈现设备121,以通过投影仪122向用户呈现为增强现实体验。下面将参考图4、5和8更详细说明这一点。
在一个或多个实施例中,图1的增强现实伴随设备100可以作为独立的电子设备进行操作。然而,在其他实施例中,增强现实伴随设备100可以经由使用无线通信设备113的无线电子通信或经由有线连接信道123与电子设备串联操作,以形成增强现实系统。现在转到图2,其中说明了一种这样的电子设备200。
图2的电子设备200是便携式电子设备,并且出于说明性目的而被示为智能电话。但是,对于受益于本公开的本领域普通技术人员应当显而易见的是,可以用其他电子设备代替图2的说明性智能电话。例如,电子设备200可以同样是传统的台式计算机、掌上计算机、平板计算机、游戏设备、媒体播放器或其他设备。
该说明性电子设备200包括显示器201,其可以可选地是触敏的。用户可以将用户输入传递至显示器201,该显示器201用作电子设备200的用户界面。在一个实施例中,用户可以通过传递来自手指、手写笔或与显示器201相邻放置的其他物体的触摸输入来将用户输入传递至这种实施例的显示器201。在一个实施例中,显示器201被配置为有源矩阵有机发光二极管(AMOLED)显示器。然而,应当注意,其他类型的显示器(包括液晶显示器)对于受益于本公开的本领域普通技术人员而言将是显而易见的。
图2的说明性电子设备200还包括设备壳体202。在一个实施例中,设备壳体202包括两个壳体构件,即,第一设备壳体203,其通过铰链205被耦合到第二设备壳体204,使得第一设备壳体203相对于第二设备壳体204在关闭位置和轴向移位的打开位置之间围绕铰链205可枢转。在其他实施例中,设备壳体202将是刚性的并且将不包括铰链。在其他实施例中,设备壳体202将由柔性材料制成,使得它可以弯曲和变形。在设备壳体202由柔性材料制成的情况下,或者在设备壳体202包括铰链的情况下,显示器201可以在柔性基板上制造为使得其弯曲。在一个或多个实施例中,显示器201被配置为柔性显示器,该柔性显示器跨接铰链205而被耦合到第一设备壳体203和第二设备壳体204。可以将功能结合到设备壳体202中,包括控制设备和连接器等。
也在图2中示出了说明性电子设备200的说明性框图示意图206。在一个或多个实施例中,框图示意图206被配置为被布置在电子设备200的设备外壳202内的印刷电路板组件。通过沿着一个或多个印刷电路板布置的导体或总线将各种组件电耦合在一起。
图2的说明性框图示意图206包含许多不同的组件。本公开的实施例预期这样的组件的数量和布置可以根据特定应用而改变。因此,根据本公开的实施例配置的电子设备可以包括在图2中未示出的一些组件,可能不需要所示出的其他组件,因此可以将其省略。
在一个实施例中,电子设备包括一个或多个处理器207。在一个实施例中,一个或多个处理器207可以包括应用处理器和可选地一个或多个辅助处理器。应用处理器或辅助处理器中的一个或两者可以包括一个或多个处理器。应用处理器或辅助处理器中的一个或两者可以是微处理器、一组处理组件、一个或多个ASIC、可编程逻辑或其他类型的处理设备。应用处理器和辅助处理器可以与框图原理图206的各个组件一起操作。应用处理器和辅助处理器的每个可以被配置为处理和执行可执行软件代码以执行框图示意图206使用其操作的电子设备的功能。诸如存储器208的存储设备可以可选地存储在操作期间由一个或多个处理器207使用的可执行软件代码。
在该说明性实施例中,框图示意图206还包括通信设备209,其可以被配置为与一个或多个其他设备或网络进行有线或无线通信。网络可以包括广域网、局域网和/或个人局域网。通信设备209还可利用无线技术,诸如但不限于:点对点或自组织通信,例如HomeRF、蓝牙和IEEE 802.11;以及其他形式的无线通信,诸如红外技术进行通信。通信设备209可以包括无线通信电路、接收机、发射机或收发机中的一个以及一个或多个天线210。
在一个实施例中,一个或多个处理器207可以负责执行框图示意图206可使用其操作的电子设备的主要功能。例如,在一个实施例中,一个或多个处理器207包括可与显示器201一起操作以向用户呈现呈现信息的一个或多个电路。可以将一个或多个处理器207使用的可执行软件代码配置为可与一个或多个处理器207一起操作的一个或多个模块211。这样的模块211可以存储指令和控制算法等。
在一个或多个实施例中,框图示意图206包括音频输入/处理器212。音频输入/处理器212可被操作以从电子设备200周围的环境213接收音频输入。在一个实施例中,音频输入/处理器212可包括硬件、可执行代码和话音监视器可执行代码。音频输入/处理器212可以使用存储在存储器208中的一个或多个预定义识别参考进行操作。关于音频输入,预定义识别参考可以包括基本话音模型的表示、训练过的话音模型的表示或预定义音频序列的其他表示,音频输入/处理器212使用该音频序列来接收和识别与由音频捕获设备捕获的音频输入一起接收的语音命令。在一个实施例中,音频输入/处理器212可包括语音识出引擎。不管各种实施例中利用的具体实现方式如何,音频输入/处理器212都可以访问存储有预定义识别参考的各种话音模型,以识别话音命令、所讲的语言和其他信息。
音频输入/处理器212可以包括波束转向引擎214,该波束转向引擎214包括一个或多个麦克风215。可以在波束转向引擎214中处理来自一个或多个麦克风215的输入,使得一个或多个麦克风定义虚拟的麦克风。该虚拟麦克风可以定义可以实际上围绕电子设备200“转向”的声接收锥。或者,也可以发生实际的转向,诸如在左右麦克风或前后麦克风之间切换,或单独地切换各种麦克风打开和关闭。在一个或多个实施例中,可以包括两个或更多个麦克风215,以用于通过波束转向引擎214的选择性波束转向。
通过示例说明,第一麦克风可以位于电子设备200的第一侧,以接收来自第一方向的音频输入,而第二麦克风可以被放置在电子设备200的第二侧,以接收来自第二方向的音频输入。可以通过有选择地打开和关闭这些麦克风来“转向”它们。
波束转向引擎214然后可以在第一麦克风和第二麦克风之间进行选择,以将音频接收向一个对象(例如传递音频输入的用户)进行波束转向。该波束转向可以响应于来自其他传感器的输入,诸如成像器、面部深度扫描仪、热传感器或其他传感器。例如,成像器216可以估计人脸的位置,并将信号传递到波束转向引擎214,以使其认识到其朝着哪个方向聚焦声接收锥和/或转向第一麦克风和第二麦克风,从而增加对音频转向的确认和节省时间。在电子设备200周围有多个人的情况下,该转向有利地将波束接收锥指向特定的人,以便可以确定所讲的语言、语言偏好以及有关该人的话音的其他信息。
替代地,波束转向引擎214处理并合并来自两个或更多个麦克风的信号以执行波束转向。一个或多个麦克风215可以用于语音命令和/或用于语言识出。响应于波束转向引擎214对一个或多个麦克风215的控制,可以确定用户位置方向。然后,波束转向引擎214可以在第一麦克风和第二麦克风之间进行选择,以将音频接收向用户进行波束转向。替代地,音频输入/处理器212可以采用麦克风的加权组合来将音频接收向用户进行波束转向。
在一个实施例中,音频输入/处理器212被配置为实现语音控制特征,该语音控制特征允许用户讲话以使一个或多个处理器207识别与特定人相对应的语言偏好。例如,用户可以说“No me gusta”。该语句是西班牙语的,其允许一个或多个处理器207与识别系统217协作,以识别语言以及谁是电子设备200的环境213内的语句的来源。因此,该语句可以使一个或多个处理器207访问识别系统217并开始识别过程,以确定环境213中的哪个人以西班牙语作为他们的语言偏好。在一或多个实施例中,音频输入/处理器212收听语音命令,处理命令,并与一个或多个处理器207结合地确定位于电子设备200的环境213内的人的语言偏好。
一个或多个处理器207可以对由音频输入/处理器212接收的音频输入执行滤波操作。例如,在一个实施例中,一个或多个处理器207可以将音频输入滤波为可识别的音频输入——即,第一音频输入、和无法识别的其他音频输入——即,第二音频输入。
各种传感器218可以与一个或多个处理器207一起操作。可以被包括在各种传感器218中的传感器的一个示例是触摸传感器。触摸传感器可以包括电容式触摸传感器、红外触摸传感器、电阻式触摸传感器或另一触敏技术。电容式触敏设备包括沿着基板设置的多个电容式传感器,例如电极。每个电容性传感器与相关的控制电路——例如一个或多个处理器207——一起配置为通过下述方式检测与电子设备200的显示器201或设备外壳202的表面紧密接近或触摸的物体:在成对的电容式传感器之间建立电场线,然后检测这些电场线的扰动。
可以与各种传感器218包括在一起的传感器的另一示例是用作位置检测器的地理定位器。在一个实施例中,位置检测器能够在认证用户时确定位置数据。可以通过捕获来自一个或多个地球轨道卫星的星座中或者来自地面基站网络中的位置数据以确定大概位置,从而确定位置。位置检测器还可能能够通过对传统蜂窝网络的地面基站进行定位或三角测量或从诸如Wi-Fi网络的其他局域网来确定位置。
可以与各种传感器218包括在一起的传感器的另一示例是方向检测器,其可用于确定电子设备200在三维空间中的方向和/或运动。通过示例说明,方向检测器可以包括加速度计、陀螺仪或其他设备以检测电子设备200的设备方向和/或运动。使用加速度计作为示例,可以包括加速度计以检测电子设备的运动。另外,加速度计可用于感测用户的某些手势,诸如一个人用他们的手交谈、跑步或走路。
方向检测器可以通过例如检测重力方向来确定电子设备200在三维空间中的空间方向。补充或代替加速度计,还可以包括电子罗盘,以检测电子设备相对于地球磁场的空间方向。类似地,可以包括一个或多个陀螺仪以检测电子设备200的旋转方向。
识别系统217可与一个或多个处理器207一起操作。识别系统217的第一识别符可包括成像器216。在一个实施例中,成像器216包括被配置为接收电子设备200的环境内的人的至少一个图像的二维成像器。在一个实施例中,成像器216包括二维RGB成像器。在另一实施例中,成像器216包括红外成像器。适合用作识别系统217的成像器216的其他类型的成像器对于受益于本公开的本领域普通技术人员是显而易见的。
识别系统217可以与面部分析器219和环境分析器220一起操作。面部分析器219和/或环境分析器220可以被配置为处理物体的图像或深度扫描,并通过将图像或深度扫描与存储在存储器208中的一个或多个预定义识别参考进行比较来确定该物体是否与预定义标准匹配。
例如,面部分析器219和/或环境分析器220可以用作配置有光学和/或空间识出的识别模块,以使用图像识出、字符识出、视觉识出、面部识出、颜色识出和形状识出等来识别物体。有利地,与识别系统217协同操作的面部分析器219和/或环境分析器220可以用作面部识出设备,以确定在电子设备200的环境213内检测到的一个或多个人的身份。
在一个实施例中,当识别系统217检测到人时,成像器216可以捕获该人的照片。识别系统217然后可以将图像与存储在存储器208中的一个或多个预定义的识别参考进行比较。在一个或多个实施例中,该比较用于确认超过阈值真实性概率,图像中人的脸充分匹配在存储器208中存储的一个或多个预定义识别参考,以识别该人,并在某些情况下确定谁是电子设备200的授权用户和/或谁是电子设备200的所有者。有益地,由与电子设备200的面部分析器219和/或环境分析器220结合操作的识别系统217执行的该光学识出,以确定谁在电子设备200的环境213内,以及谁正在使用增强现实伴侣设备(100)。
在一个或多个实施例中,用户可以通过将预定义的识别参考存储在电子设备200的存储器208中来“训练”电子设备200。通过示例说明,用户可以拍摄一系列照片。它们可以包括诸如眼睛颜色、水槽颜色、空气颜色、重量和高度的特殊特征的识别符。他们可以包括站在特定墙壁前面的用户,这可以由环境分析仪从成像器216捕获的图像中识别出来。他们可以包括诸如在轮廓视场上用户举起手、触摸头发或朝一个方向看。然后可以将这些作为预定义的识别参考存储在电子设备200的存储器208中。
面部分析器219也可以包括图像/凝视检测处理引擎。图像/凝视检测处理引擎可以处理信息以检测用户的凝视点。然后,可以从成像器216传递电子信号,以计算三维空间中用户凝视的方向。图像/凝视检测处理引擎可以进一步被配置为检测与检测到的凝视方向相对应的凝视锥,该凝视锥是在其中用户可以容易地看见而无需从检测的凝视方向转移他们的眼睛或头部的视场。图像/凝视检测处理引擎可以被配置为通过输入表示眼睛附近或周围的所选区域的照片的图像来交替地估计凝视方向。通过直接观看设备来确定用户是否要进行身份验证也可能很有价值。图像/凝视检测处理引擎不仅可以确定凝视锥,而且还可以确定眼睛是否朝特定方向观看以确认要认证的用户意图。
可与一个或多个处理器207一起操作的其他组件221可包括诸如视频、音频和/或机械输出之类的输出组件。例如,输出组件可以包括视频输出组件或辅助设备,其包括阴极射线管、液晶显示器、等离子显示器、白炽灯、荧光灯、前投影显示器或后投影显示器以及发光二极管指示器。输出组件的其他示例包括诸如被设置在扬声器端口后面的扬声器或其他警报和/或蜂鸣器的音频输出组件和/或诸如基于振动或基于运动的机构的机械输出组件。
其他组件221也可以包括接近传感器。接近传感器属于两个阵营之一:主动接近传感器和“被动”接近传感器。接近检测器组件或接近传感器组件通常可以用于手势控制和其他用户界面协议。
其他组件221可以可选地包括气压计,该气压计可操作以感测由于电子设备200的海拔变化或不同压力而引起的气压变化。其他组件221还可以可选地包括检测在电子设备环境中的光强度、颜色,光或阴影的变化的光传感器。这可用于推断诸如天气或颜色、墙壁和场地等的场境或其他提示。红外传感器可以与光传感器结合使用或代替光传感器使用。红外传感器可以被配置为检测来自电子设备200周围的环境的热辐射。类似地,温度传感器可以被配置为监视电子设备附近的温度。
场境引擎222然后可以与各种传感器一起操作以检测、推断、捕获并否则确定电子设备200附近的环境中发生的人和动作。例如,在被包括时,场境引擎222的一个实施例使用信息、数据和事件的可调整的场境评估的算法来确定所评估的场境和框架。可以通过重复数据分析来了解这些评估。替代地,用户可以经由显示器201采用菜单或用户控件来输入各种参数、构造、规则和/或范例,这些参数、构造、规则和/或范例指示或否则指导场境引擎222检测多模式社交线索、情绪状态、心情以及其他场境信息。在一个或多个实施例中,场境引擎222可以包括人工神经网络或其他类似技术。
在一个或多个实施例中,场境引擎222可与一个或多个处理器207一起操作。在一些实施例中,一个或多个处理器207可控制场境引擎222。在其他实施例中,场境引擎222可独立地操作,将从检测多模式社交线索、情绪状态、心情和其他场境信息中收集到的信息传递到一个或多个处理器207。场境引擎222可以从各种传感器接收数据。在一个或多个实施例中,一个或多个处理器207被配置为执行场境引擎222的操作。
在一个或多个实施例中,一个或多个处理器207可以与识别系统217的各种认证器一起操作。例如,一个或多个处理器207可以与第一认证器和第二认证器一起操作。在识别系统217中包括更多认证器的情况下,一个或多个处理器207也可以与这些认证器一起操作。
应当理解,在图1和图2两者中,供应了根据本公开的实施例的示出的元件仅用于说明目的。两者都不旨在成为所需各种组件的完整示意图。因此,根据本公开的实施例的其他电子设备可以包括对于受益于本公开的本领域技术人员显而易见但是未在图1或图2中示出的各种其他组件,或者可以包括两个或多个组件的组合,或者可以包括将特定组件划分为两个或多个单独的组件,并且仍然在本公开的范围内。
现在转向图3,其中示出了根据本公开的一个或多个实施例的一个说明性内容呈现伴随设备300。在该说明性实施例中,内容呈现伴随设备300包括彩色视频监视器。在其他实施例中,内容呈现伴随设备300可以采用其他形式。通过示例说明,内容呈现伴随设备300可以是电视机、计算机显示器、膝上型计算机显示器、平板计算机或将内容投影到屏幕上的投影仪。内容呈现伴随设备300的其他示例对于受益于本公开的本领域普通技术人员将是显而易见的。不管配置如何,在一个或多个实施例中,内容呈现伴随设备300包括一个或多个处理器302、显示器301、存储器303、音频输出304以及能够与诸如图2的电子设备(200)的电子设备进行有线或无线通信的通信设备305。
在一个或多个实施例中,当通过无线或有线连接耦合到这种电子设备(200)时,内容呈现伴随设备300可以用作电子设备(200)的主显示器。电子设备(200)可以从地面广播网络、有线电视网络、因特网流服务或其组合接收内容,并且由于其显示器301大于电子设备(200)的显示器(201),因此可以将该内容重定向到内容呈现伴随设备300。这允许电子设备(200)或内容呈现伴随设备300的环境中的人们更容易地看到内容。在一个或多个实施例中,内容通过通信设备305从电子设备(200)流到内容呈现伴随设备300。
如以下将参考后续方法和方法步骤更详细地描述的,事件通知、字幕或其他信息向佩戴增强现实伴随设备(100)的用户的呈现根据对应于一个或多个物理上位于电子设备(200)和/或内容呈现伴随设备300的预定义环境(213)中的一个或多个人的一个或多个个人特征而发生。这些个人特征可以包括诸如某人是否正在使用增强现实伴随设备(100)和预定环境(213)中的人说什么语言等等的特征。将在下面描述个人特征的其他示例。其他内容对于受益于本公开的本领域普通技术人员将是显而易见的。
现在转向图4,其中示出了一种说明性方法400,该说明性方法示出了图1的增强现实伴随设备100、图2的电子设备200和内容呈现伴随设备300如何可以用作系统。从步骤401开始,电子设备200正在流传输内容提供412,该内容提供412在该说明性示例中是重要比赛。换句话说,在步骤401,电子设备200的一个或多个处理器(207)使电子设备的通信设备(209)将内容提供412传递给内容呈现伴随设备300以呈现给环境411。
第一人409和第二人410位于电子设备200的环境411内。由于第一人409和第二人410都想要观看重要比赛,因此在此示例中作为电子设备200的所有者的第一人409使得重要比赛从电子设备200传递到内容呈现伴随设备300,因为其显示器301比电子设备200的显示器201大得多。当在此内容传递操作模式中时,内容呈现伴随设备300用作电子设备200的主显示器。这使得第一人409和第二人410都能轻松观看重要比赛。
在此图示中,第一人409还佩戴了增强现实伴随设备100。在步骤402,电子设备200的一个或多个处理器(207)使用电子设备200的通信设备(209)检测电子设备与内容呈现伴随设备300进行电子通信,而内容呈现伴随设备300作为电子设备200的主显示器进行操作。在步骤403处,电子设备200的一个或多个处理器(207)再次使用电子设备200的通信设备(209)检测到该电子设备正在与增强现实伴随设备100电子通信。
在步骤404,当内容呈现伴随设备300作为电子设备200的主显示器操作时,与电子设备200的一个或多个传感器(218)串联操作的电子设备200的一个或多个处理器(207)检测到多个人——这里是第一人409和第二人410——存在于电子设备200的环境411内。
在可选步骤405处,电子设备200的一个或多个处理器(207)可以使用识别系统(217)或电子设备200的其他组件来识别位于电子设备200的环境411内部的多个人中的一个人是否是电子设备200的授权用户。这里,第一人409是电子设备200的所有者,并且因此已经通过输入密码向电子设备200认证了其自身。因此,第一人409构成电子设备200的授权用户。
在一个或多个实施例中,步骤405还包括使用一个或多个传感器(218)、成像器216、识别系统(217)或电子设备200的其他组件来检测电子设备200的授权用户——这里是第一人409——正在操作增强现实伴随设备100。如步骤401所示,在该说明性示例中,授权用户确在操作增强现实伴随设备100。
在步骤406,电子设备200的一个或多个处理器(207)确定正在生成或接收事件通知用于显示。事件通知可以采取各种形式,所述时间通知可以包括以下通知:已接听来电、已接听电子邮件消息、已接听短信、发生警报、发布了社交媒体帖子、已接收新闻事件、发生日历事件、与内容提供相关联的一个或多个字幕、应用生成的事件通知、传入的电子通信事件通知或其他信息。在一个或多个实施例中,事件通知被图形地配置为图像、文字、形状或其他对象,指示电子设备200已经接收到一个或多个通知。例如,如果电子设备200包括在一个或多个处理器(207)上操作的互联网浏览器应用、电子邮件应用、社交媒体应用和新闻应用,则事件通知可以向用户供应在这些应用之一中发生了事件的简短的指示。
通过示例说明,当接收到新的电子邮件对应时,电子邮件应用可以生成事件通知以指示人未读电子邮件。类似地,当朋友发布新内容时,社交媒体应用可以使事件通知被生成以呈现给用户,等等。这些示例仅是说明性的,因为许多其他事件通知和相应的应用对于受益于本公开的本领域普通技术人员将是显而易见的。
由于第一人409和第二人410都在享受重要比赛,而内容呈现伴随设备300用作电子设备200的主显示器,因此在内容呈现伴随设备300的显示器301上呈现事件通知由于事件通知仅旨在用于电子设备200的所有者或授权用户而可能激怒第二人410或使第二人410分心。由于第二人410不是事件通知的预期接收者,因此,在内容呈现伴随设备300的显示器301上呈现事件通知仅是分心。
相应地,在一个或多个实施例中,步骤407包括电子设备200的一个或多个处理器(207)将旨在呈现在电子设备200的主显示器上的事件通知重定向到增强现实伴随设备100。步骤407可以可选地包括将音频内容重定向到增强现实伴随设备100也包括的扬声器。有利地,这允许第一人409容易地将事件通知413视为增强现实对象,如步骤408所示,和/或同时听到音频内容。这使得第一人409可以继续观看内容提供412,但仍保被通知关于被定向到电子设备200的通知,而不干扰第二人对内容提供412的享受。
在一个或多个实施例中,在步骤407发生的重定向根据一个或多个输入的函数414而发生。通过示例说明,在一个或多个实施例中,步骤407的重定向在电子设备200的通信设备(209)将内容提供412传递到内容呈现伴随设备300时发生。如果例如第一人409和第二人410暂停将内容提供412的传递从传递到内容呈现伴随设备300以进行洗手间休息,则可以在此期间在电子设备200的显示器201上呈现事件通知。在一个或多个实施例中,仅在电子设备200的通信设备(209)将内容提供412传递到内容呈现伴随设备300时,才发生在步骤407发生的重定向。
在一个或多个实施例中,电子设备200的一个或多个处理器(207)确定事件通知413是否与内容提供412无关415。在一个或多个实施例中,仅当事件通知413与内容提供412不相关415时发生步骤407的重定向。通过示例说明,如果事件通知413是分数更新或玩家伤害更新,或者以其他方式与重要比赛有关,则这样的事件通知413可能为第一人409和第二人410都感兴趣。因此,在一个或多个实施例中,当事件通知413与内容提供412有关时,电子设备200的一个或多个处理器(207)将省略步骤407的重定向,而是在电子设备200的主显示器上呈现事件通知413,在该示例中,主显示器是内容呈现伴随设备300的显示器301。相比之下,如果事件通知413与内容提供412不相关,诸如可以是当第一人409和第二人410正在观看重要比赛并且事件通知413与第一人的雇主正在经历的工作问题相关时的情况,则电子设备200的一个或多个处理器(207)将在步骤407将事件通知413重定向到增强现实伴随设备100。
如上所述,在步骤405,电子设备200的一个或多个处理器(207)可以确定授权用户是否位于电子设备200的环境411内。在一个或多个实施例中,仅当授权用户位于环境411内时,才发生步骤407的重定向。
如上所述,步骤405还可以包括确定电子设备200的授权用户是否正在操作增强现实伴随设备100。在一个或多个实施例中,仅当授权用户在操作增强现实伴随设备100时才进行步骤407的重定向。
在一个或多个实施例中,步骤406可以包括电子设备200的一个或多个处理器(207)确定谁是事件通知413的预期接收者。在一个或多个实施例中,仅当授权用户是事件通知413的预期接收者时发生步骤407的重定向。通过示例说明,如果第一人的雇主需要针对工作中发生的问题联系第一人409,则该通知将不旨在用于第二人410。替代地,位于电子设备200的环境411内的、事件通知413所针对的唯一的人将是第一人409。因此,在步骤407,该事件通知413将被重定向到增强现实伴随设备100。相比之下,如果第一人409和第二人410是双胞胎兄弟,并且有人祝他们生日快乐,则可以省略步骤407的重定向,并且事件通知413可以被呈现在电子设备200的主显示器上,该主显示器在该说明性示例中是内容呈现伴随设备300的显示器301。
在一个或多个实施例中,步骤407的重定向可以根据预先配置的或用户可选择的私人通知列表416而发生。预先配置的或用户可选择的私人通知列表416可以包括将要被重定向到增强现实伴随设备100的通知类型417的列表。列表中包括的此类类型417的示例可以是新消息通知、来电通知和来自特定应用的通知等。其他类型的事件通知对于受益于本公开的本领域普通技术人员而言将是显而易见的。因此,在一个或多个实施例中,在步骤406,电子设备的一个或多个处理器(207)确定与事件通知413相关联的事件通知类型417,仅当事件通知类型417在预先配置的或用户可选择的私人通知列表416中包括的预定义事件通知类型类中才发生步骤407的重定向。如果未包括在列表中,则可以省略在步骤407处发生的事件通知413的重定向,而替代地将事件通知413呈现在主显示器上。
在一个或多个实施例中,步骤407的重定向可以基于私人通知列表而根据目标显示决策机制418而发生。例如,如果事件通知413包含与私人通知列表相对应的私人或个人信息,则可以在步骤407将事件通知413重定向到增强现实伴随设备100。相反地,如果如由目标显示决策机制418确定的未包括任何个人信息,则可以省略在步骤407处发生的事件通知413的重定向,而替代地将事件通知413呈现在主显示器上。例如,这将防止第二人410看到事件通知413,该事件通知413指示第一人409的女友正在与他分手,同时允许其他事件通知,诸如来自为重要比赛的队伍之一欢呼的朋友的消息。
相应地,如图4所示,电子设备200包括与作为电子设备200的主显示器操作的内容呈现伴随设备300进行电子通信的通信设备(209)。通信设备(209)还与由电子设备200的所有者佩戴的增强现实伴随设备100进行电子通信,该所有者在本示例中是第一人409。
电子设备200的一个或多个传感器(218)、识别系统(217)、成像器(216)或其他组件检测位于电子设备200的环境411内的多个人,而内容呈现伴随设备300操作作为电子设备200的主显示器。当内容呈现伴随设备300用作电子设备200的主显示器,并且多个人在电子设备200的环境411内时,电子设备200的一个或多个处理器(207)然后将旨在呈现在主显示器上的事件通知413重定向到增强现实伴随设备100。
如上所述,事件通知413到增强现实伴随设备100的这种传递可以是有条件的。通过示例说明,在一个或多个实施例中,仅当电子设备200的一个或多个传感器(218)或其他组件检测到在位于电子设备200的环境411内的多个人之中的电子设备200的所有者时,一个或多个处理器(207)才将事件通知413重定向到增强现实伴随设备100。
在其他实施例中,仅当电子设备200的所有者是位于环境411内的多个人中的、作为事件通知413的预期接收者的唯一的人时,一个或多个处理器(207)才将事件通知413重定向到增强现实伴随设备100。在其他实施例中,仅当事件通知具有预定义事件通知类型417时,一个或多个处理器(207)才将事件通知413重定向到增强现实伴随设备100。事件通知类型417可以由预先配置的或用户可选择的私人通知列表416定义,该列表可以存储在电子设备200的存储器(208)中。
在一个或多个实施例中,当满足至少一个预定义条件时,一个或多个处理器(207)将事件通知413从内容呈现伴随设备300重定向到增强现实伴随设备100。在一个或多个实施例中,至少一个预定义条件包括一个或多个传感器(218)检测在电子设备200的环境411内的多个人正在消费内容提供412。
然而,至少一个预定义条件可以是多方面的。通过示例说明,在一个或多个实施例中,至少一个预定义条件还包括一个或多个传感器(218)在位于电子设备200的环境411内的多个人中识别电子设备200的所有者。类似地,至少一个预定义条件可以还包括一个或多个传感器(218)识别操作增强现实伴随设备100的电子设备200的所有者。在其他实施例中,至少一个预定义条件可以包括一个或多个处理器(207)确定电子设备200的所有者是事件通知413所针对的位于电子设备200的环境411内的多个人中的唯一的人。这些仅是示例。至少一种预定义条件下的方面的其他示例对于受益于本公开的本领域普通技术人员将是显而易见的。
尽管在许多实例中,事件通知413将是传入的电子通信事件通知,诸如当电子设备200接收到电子邮件、文本消息或语音呼叫时的情况或应用生成的事件通知,诸如在日历应用中发生警报的情况,但是本公开的实施例不限于此。本公开的实施例具有多种用途。通过示例说明,在其他实施例中,事件通知413可以是与内容提供412相关联的字幕。现在转向图5,其中示出了一种方法500,该方法500示出了本公开的另一实施例可以如何用于字幕。
从步骤501开始,示出了一种系统,该系统包括电子设备200,该电子设备200包括一个或多个传感器(218)、通信设备(209)以及一个或多个处理器(207)。内容呈现伴随设备300与电子设备200电子通信。类似地,增强现实伴随设备100也与电子设备200电子通信。
在步骤501,电子设备200的一个或多个处理器(207)使通信设备(209)将内容提供412传递给内容呈现伴随设备300,以呈现给电子设备200的环境411。因此,在步骤501,内容呈现伴随设备300的显示器301用作电子设备200的主显示器。
在步骤502,电子设备200的一个或多个处理器(207)使用电子设备200的通信设备(209)检测到电子设备200与内容呈现伴随设备300进行电子通信,而内容呈现伴随设备300用作电子设备200的主显示器而操作。在步骤503,电子设备200的一个或多个处理器(207)再次使用电子设备的通信设备(209)检测电子设备与增强现实伴随设备100进行电子通信。
在步骤504,当内容呈现伴随设备300作为电子设备200的主显示器进行操作时,与电子设备200的一个或多个传感器(218)协同操作的电子设备200的一个或多个处理器(207)检测到多个人——这里是第一人409和第二人410——存在于电子设备200的环境411内。
在可选步骤505处,电子设备200的一个或多个处理器(207)可以使用识别系统(217)或电子设备200的其他组件来识别位于电子设备200的环境411内部的多个人中的一个人是电子设备200的授权用户或所有者。这里,第一人409是电子设备200的所有者。步骤505还可以包括使用电子设备200的一个或多个传感器(218)、成像器216,识别系统(217)或其他组件检测电子设备200的所有者正在操作增强现实伴随设备100。
在步骤506,电子设备200的一个或多个处理器(207)确定内容提供412具有与其相关联的字幕。然后,步骤507包括一个或多个处理器(207)将字幕513重定向到增强现实伴随设备100,如步骤508所示。在一个或多个实施例中,步骤507可以根据一个或多个设备设置而发生。通过示例说明,在一个或多个实施例中,如果除了字幕513之外,还有需要或设备设置请求传递音频轨道,则步骤507还可以可选地包括重定向与内容提供412相关联的音频。字幕513和/或音频也可以根据位置。例如,如果第一人409和第二人410位于西班牙,则字幕513和/或音频可以是西班牙语的。相反,如果第一人409和第二人410在印度,则字幕513和/或音频可以是印地语的,依此类推。字幕513和/或音频的呈现可以与其他事件通知413的呈现相结合地发生,或者独立地发生。
现在转向图6,其中示出了根据本公开的一个或多个实施例的另一方法600。从步骤601开始,发生事件通知事件。在一个或多个实施例中,步骤601包括电子设备的通信设备,其接收导致需要呈现事件通知的数据。在其他实施例中,步骤601包括生成用于呈现的事件通知的应用。需要呈现事件通知的其他原因对于受益于本公开的本领域普通技术人员将显而易见。
决策602然后确定电子设备的通信设备是否与内容呈现伴随设备和增强现实伴随设备两者进行电子通信。在此,方法600移动到决策603。否则,方法600到步骤607停止。
然后,决策603确定在电子设备的环境内是否存在多个人。如果存在,方法600移动到决策604。否则,方法600移动到步骤606。
决策604然后确定步骤601的事件通知是私人通知还是公共通知。如果事件通知的预期接收者只是在决策603中检测到的多个人中的一个,则事件通知可以是私人事件通知。替代地,如果事件通知包含仅与在决策603检测到的多个人中的一个人有关的私人信息,则事件通知可以是私人事件通知。
在电子设备与内容呈现伴随设备和增强现实伴随设备两者进行电子通信,在一个或多个电子设备的环境中存在多个人,并且事件通知是私人通知的情况下,在一个或多个实施例中,步骤605包括电子设备将事件通知从内容呈现伴随设备重定向到增强现实伴随设备。在一个或多个实施例中,步骤605可以包括将与内容提供相关联的音频内容引导到增强现实伴随设备。相反,当一个或多个这些预定义条件未能发生时,在一个或多个实施例中,在步骤606,电子设备在内容呈现伴随设备和增强现实伴随设备两者处呈现事件通知。
现在转向图7,其中示出了根据本公开的实施例的另一方法700。图7的方法700说明了:在不同语言的说话者在消费来自用作电子设备的主显示器的内容呈现伴随设备的内容同时使用增强现实伴随设备时,本公开的实施例如何可以用于将不同语言的字幕传递给那些说话者。
从步骤701开始,电子设备200的一个或多个处理器(207)使电子设备200的通信设备(209)将内容提供412传递给内容呈现伴随设备300以呈现给电子设备200的环境411。在该说明性实施例中,第一人709和第二人710位于电子设备200的环境411内,并且在内容显示伴随设备300的显示器301用作电子设备200的主显示器而操作的同时消费来自内容呈现伴随设备300的内容提供412。
在此图示中,第一人709说西班牙语,而第二人710说法语。然而,内容提供412是具有英语音频对话的足球比赛。幸运的是,第一人709和第二人710都佩戴着根据本公开的实施例配置的增强现实伴随设备。如以下将证明的,这允许他们每个人都以其母语享受内容提供412。如上所述,如果第一人709和第二人710是说英语者但尝试分别学习西班牙语和法语,则也可以使用图7所示的方法700。
在步骤702,电子设备200的一个或多个处理器(207)检测到电子设备200的通信设备(209)与内容呈现伴随设备300电子通信。在步骤703,电子设备200的一个或多个处理器(207)检测到电子设备200的通信设备(209)与第一增强现实伴随设备100和第二增强现实伴随设备708电子通信。
在步骤704,一个或多个处理器(207)——可选地与如上面参照图2所述的一个或多个传感器(218)和/或识别系统(217)一起——识别操作第一增强现实伴随设备100的第一人709和操作第二增强现实伴随设备708的第二人710。在步骤705,电子设备200的一个或多个处理器(207)确定内容提供412是否支持字幕。在此示例中,它支持英文、法文、西班牙文、德文、印地文和中文的字幕。
在步骤706,电子设备200的一个或多个处理器(207)确定第一人709的第一语言偏好和第二人710的第二语言偏好。这可以通过多种方式来完成。
在一个或多个实施例中,电子设备200的一个或多个处理器(207)从电子设备200的一个或多个用户设置714确定第一人709的第一语言偏好和第二人710的第二语言偏好。电子设备200的所有者—在这里是第一人709—可以使用菜单或其他用户设置控件来让一个或多个处理器(207)知道他的第一语言偏好是西班牙语,而第二人710的第二语言偏好是法语。因此,在一个或多个实施例中,通过确定存储在电子设备200的存储器(208)中的用户设置714来进行对第一人的第一语言偏好或第二人的第二语言偏好中的至少一个的确定。
在另一个实施例中,语音识出715可以用于确定第一人709的第一语言偏好和第二人710的第二语言偏好。如参考图2上述,音频输入/处理器(212)可以从一个或多个麦克风(215)接收音频输入,并且可以确定第一人709和第二人710中的每一个正在说什么语言。
在其他实施例中,第一增强现实伴随设备100和第二增强现实伴随设备708的先前使用历史711可以用于确定第一人709的第一语言偏好和第二人710的第二语言偏好。用于确定第一人709的第一语言偏好和第二人710的第二语言偏好的其他技术对于受益于本公开的本领域普通技术人员将是显而易见的。
在步骤707,电子设备200的一个或多个处理器(207)使电子设备200的通信设备(209)以第一语言偏好将与内容提供412相关联的第一字幕712传递给第一增强现实伴随设备100,并且以第二语言偏好将与内容提供相关联的第二字幕713传递给第二增强现实伴随设备708。在一个或多个实施例中,电子设备200的一个或多个处理器(207)可以附加地使得电子设备200的通信设备(209)将音频内容传递到第一增强现实伴随设备100的扬声器或入耳式扬声器以及也传递到第二增强现实伴随设备713。在包括音频的情况下,这允许分别根据第一语言偏好和第二语言偏好将不同的音轨传递到第一增强现实伴随设备100和第二增强现实伴随设备713中的每一个。可替代地,可以与第一字幕712和第二字幕713一起传递第三语言——例如在该示例中为英语——的音频。其他配置对于受益于本公开的本领域普通技术人员将是显而易见的。
如果例如内容提供412是电影而不是重要比赛,则第一字幕712和第二字幕713可以包括与电影相关联的对话。在重要比赛的情况下,第一字幕712和第二字幕713可以包括播音员的转录,该播音员讲出逐个游戏动作。可替代地,当内容提供412是体育赛事时,如在图7的说明性示例中的情况那样,则第一字幕712和第二字幕713可以包括与体育赛事相关的分数。如果内容提供412已经是音乐视频,则第一字幕712和第二字幕713可以是与音乐视频相关联的歌词,等等。字幕的其他示例对于受益于本公开的本领域的普通技术人员是显而易见的。
在该说明性示例中,第一语言偏好和第二语言偏好是不同的,因为第一语言偏好是西班牙语,而第二语言偏好是法语。
由于第一语言偏好和第二语言偏好不同,因此步骤707还包括利用电子设备200的一个或多个处理器(207)来阻止第一字幕712或第二字幕713的呈现以防在内容呈现伴随设备300的显示器301上进行呈现,如步骤707所示。这增加了每个人对内容提供412的享受,因为说西班牙语的人——这里是第一人709、和说法语的人——这里是第二人710——不被他们不理解的语言的字幕分心。在其他实施例中,电子设备的一个或多个处理器(207)分别将向第一增强现实伴随设备100和内容呈现伴随设备300以及第二增强现实伴随设备708和内容呈现伴随设备300两者传递第一字幕712和第二字幕。
在又其他实施例中,诸如可以是当第一人709和第二人710都双语或听力受损时的情况,电子设备200的一个或多个处理器(207)可以使得通信设备(209)以将与内容提供412相关联的第三字幕714传递到内容呈现伴随设备300。在一个或多个实施例中,第三字幕714具有不同于第一语言偏好和第二语言偏好的第三语言偏好。通过示例说明,第三字幕714可以是英语的。
因此,如图7所示,电子设备200包括通信设备(209),其在通信设备(209)与至少两个增强型电子设备100、708进行电子通信的同时,将内容提供412电子传递到用作电子设备200的主显示器而操作的内容呈现伴随设备300。如上面参考图2所描述的,电子设备200的一个或多个传感器(218)或其他组件识别在容呈现伴随设备300用作电子设备200的主显示器的同时,在内容呈现伴随设备300的环境411内,操作在至少两个增强现实伴随设备708中的第一增强现实伴随设备100的第一人709和操作第二增强现实伴随设备708的第二人710。在该说明性实施例中,第一增强现实伴随设备100和第二增强现实伴随设备708都包括增强现实眼镜。
在一个或多个实施例中,电子设备200的一个或多个处理器(207)使通信设备(209)以第一人709的第一语言偏好来向第一增强现实伴随设备电子传递与内容提供412相关联的第一字幕712,并且以第二人710的第二语言偏好来向第二增强现实伴随设备708传递与内容提供412相关联的第二字幕713。在图7的说明性实施例中,虽然电子设备200包括显示器201,但是内容呈现伴随设备300包括监视器,该监视器具有比电子设备200的显示器201更大的另一显示器301。通过将内容提供412传递到内容呈现伴随设备参照图300,第一人709和第二人710可以更容易地看到内容提供412。
现在转向图8,其中示出了根据本公开的一个或多个实施例的另一方法800。方法800适用于以下系统,该系统包括:电子设备,该电子设备包括一个或多个传感器;通信设备;以及,一个或多个处理器;与用于呈现内容提供的电子设备电子地通信的内容呈现伴随设备;以及,至少两个与电子设备通信的增强现实伴随设备。该方法使得一个或多个处理器使通信设备以第一语言偏好将与内容提供相关联的第一字幕电子传递给至少两个增强现实伴随设备中的第一增强现实伴随设备,并且以第二语言偏好将与内容提供相关联的第二字幕传递给至少两个增强现实伴随设备中的第二增强现实伴随设备。在一个或多个实施例中,第一语言偏好和第二语言偏好是不同的。
从步骤801开始,方法800确定第一语言偏好和第二语言偏好。在一个或多个实施例中,该步骤包括电子设备的一个或多个传感器,该传感器包括接收来自电子设备的环境内的人的语音话语的音频输入,其中一个或多个处理器使用语音识出进一步确定第一语言偏好和第二语言偏好,以在第一人操作第一增强现实伴随设备而第二人操作第二增强现实伴随设备时,从音频输入接收的音频中识别第一语言偏好和第二语言偏好。在其他实施例中,该步骤801包括从存储第一语言偏好和第二语言偏好的电子设备的存储器中检索第一语言偏好和第二语言偏好。用于执行步骤801的其他技术对于受益于本公开的本领域普通技术人员将是显而易见的。
决策802确定电子设备与内容呈现伴随设备通信并向其传递内容提供。在此,该方法移动到决策803。否则,方法800移动到步骤806。
决策803确定电子设备与至少两个增强现实伴随设备进行通信。在此,该方法移动到决策804。否则,方法800移动到步骤806。
决策804确定第一语言偏好和第二语言偏好是否不同。在此,该方法移动到决策804。否则,方法800移动到步骤806。
在步骤805,电子设备的一个或多个处理器使通信设备以第一语言偏好向至少两个增强现实伴随设备的第一增强现实伴随设备电子传递与内容提供相关联的第一字幕,并且以第二语言偏好向至少两个增强现实伴随设备中的第二增强现实伴随设备传递与内容提供相关联的第二字幕。在一个或多个实施例中,步骤805还包括一个或多个处理器,该处理器使通信设备以第三语言偏好将第三字幕传递给内容呈现伴随设备,其中,第三语言偏好不同于第一语言偏好或第二语言偏好。步骤805可以还包括电子设备的一个或多个处理器排除在内容呈现伴随设备处字幕的呈现。在一个或多个实施例中,步骤805包括仅当一个或多个传感器识别操作第一增强现实伴随设备的第一人和操作第一增强现实伴随设备的第二人时,一个或多个处理器才使通信设备将第一字幕电子传递至第一增强现实伴随设备,并将第二字幕电子传递至第二增强现实伴随设备。
在不满足由决策802、决策803和决策804确定的各种条件的情况下,步骤806包括电子设备的一个或多个处理器将字幕传递到内容呈现伴随设备以在其显示器上呈现。例如,如果第一语言偏好和第二语言偏好是相同的,代替将第一字幕引导至第一增强现实伴随设备,并且将第二字幕引导至第二增强现实伴随设备,可以将单组字幕传递给内容呈现伴随设备等。
现在转向图9,其中示出了本公开的各种实施例。图9的实施例被示出为图9中的标记的方框,由于这些实施例的各个部件已经在图9之前的图1至8中详细示出。因此,由于先前已经图示和描述了这些项目,因此它们的重复图示对于正确理解这些实施例不再是必需的。因此,实施例被示出为标记的方框。
在901处,一种电子设备中的方法包括:利用一个或多个处理器,检测与作为电子设备的主显示器操作的内容呈现伴随设备和增强现实伴随设备电子地通信的通信设备。在901处,该方法包括在内容呈现伴随设备作为电子设备的主显示器操作的同时,利用一个或多个传感器检测在电子设备的环境内存在的多个人。在901处,该方法包括:在多个人处于环境中时,利用一个或多个处理器将预期在电子设备的主显示器上呈现的事件通知重定向到增强现实伴随设备。
在902处,方法901还包括:通过一个或多个处理器使通信设备将内容提供传递给内容呈现伴随设备以呈现给环境。在902处,在通信设备将内容提供传递到内容呈现伴随设备的同时发生重定向。
在903处,方法902还包括:利用一个或多个处理器确定事件通知是否与内容提供有关。在903,仅当事件通知与内容提供无关时才发生重定向。
在904处,903的事件通知包括与内容提供相关联的字幕。
在905处,方法902还包括:利用一个或多个传感器将环境内的多个人中的一个人识别为电子设备的授权用户。在905,仅当电子设备的授权用户在环境内时才发生重定向。
在906处,905的方法还包括:利用一个或多个传感器来检测操作增强现实伴随设备的电子设备的授权用户。在906,仅当授权用户正在操作增强现实伴随设备时才发生重定向。
在907处,方法906还包括:利用一个或多个处理器确定事件通知的预期接收者。在907,仅当授权用户是事件通知的预期接收者时才发生重定向。
在908处,方法906还包括:利用一个或多个处理器确定与事件通知相关联的事件通知类型。在908处,仅当事件通知类型在预定义事件通知类型类别内时才发生重定向。在909处,908的预定义事件通知类型类别由存储在电子设备的存储器内的用户选择的事件通知类型的预先配置列表定义。
在910处,电子设备包括与作为电子设备的主显示器操作的内容呈现伴随设备和增强现实伴随设备电子地通信的通信设备。在910处,电子设备包括一个或多个传感器,该一个或多个传感器在内容呈现伴随设备作为电子设备的主显示器操作的同时检测电子设备的环境内的多个人。在910处,电子设备包括一个或多个处理器,该一个或多个处理器在内容呈现伴随设备作为电子设备的主显示器操作并且多个人在电子设备的环境内的同时,将预期在主显示器上呈现的事件通知重定向到增强现实伴随设备。
在911处,仅当一个或多个传感器在环境内的多个人当中检测到电子设备的所有者时,910的一个或多个处理器才将事件通知重定向到增强现实伴随设备。在912处,仅当电子设备的所有者是多个人中作为事件通知的预期接收者的唯一人时,911的一个或多个处理器才将事件通知重定向到增强现实伴随设备。
在913处,仅当事件通知是预定义事件通知类型时,910的一个或多个处理器才重定向事件通知。在914处,913的电子设备还包括可与一个或多个处理器一起操作的存储器。在914处,由存储在电子设备的存储器中的用户选择的事件通知类型的预先配置列表之一来定义预定义事件通知类型913。
在915处,事件通知910包括与在内容呈现伴随设备上呈现的内容提供相关联的一个或多个字幕。在916处,910的事件通知包括应用生成的事件通知或传入的电子通信事件通知中的一个。
在917处,系统包括电子设备,该电子设备包括一个或多个传感器、通信设备以及一个或多个处理器。在917处,系统包括与电子设备电子地通信的内容呈现伴随设备。在917处,系统包括与电子设备通信的增强现实伴随设备。
在917处,一个或多个处理器使通信设备将内容提供传递给内容呈现伴随设备以呈现给电子设备的环境。在917处,当满足至少一个预定义条件时,一个或多个处理器将事件通知从内容呈现伴随设备重定向到增强现实伴随设备。在917处,至少一个预定义条件包括一个或多个传感器检测在电子设备的环境内消费内容提供的多个人。
在918处,917的至少一个预定义条件还包括一个或多个传感器识别多个人当中的电子设备的所有者。在919处,918的至少一个预定义条件还包括一个或多个传感器识别操作增强现实伴随设备的电子设备的所有者。在920处,919的至少一个预定义条件还包括一个或多个处理器确定电子设备的所有者是多个人中的事件通知所定向的唯一人。
现在转向图10,其中示出了本公开的更多实施例。与上面的图9一样,图10的实施例也被示为图10中的标记的方框,由于这些实施例的各个部件已经在图10之前的图1至8中详细示出的事实。因此,由于先前已经图示和描述了这些项目,因此它们的重复图示对于正确理解这些实施例不再是必不可少的。因此,实施例被示出为标记的方框。
在1001处,一种在电子设备中的方法包括:利用一个或多个处理器使通信设备将内容提供电子地传递给内容呈现伴随设备,以呈现给电子设备的环境。在901处,该方法包括利用一个或多个处理器检测与第一增强现实伴随设备和第二增强现实伴随设备这两者电子地通信的通信设备。
在1001处,该方法包括利用一个或多个传感器来识别操作第一增强现实伴随设备的第一人和操作第二增强现实伴随设备的第二人。在1001处,该方法包括利用一个或多个处理器来确定第一人的第一语言偏好和第二人的第二语言偏好。在1001处,该方法包括利用一个或多个处理器使通信设备以第一语言偏好将与内容提供相关联的第一字幕电子地传递给第一增强现实伴随设备,以及以第二语言偏好将与内容提供相关联的第二字幕电子地传递给第二增强现实伴随设备。
在1002处,1001的第一语言偏好和第二语言偏好不同。
在1003处,方法1001还包括:利用一个或多个处理器,阻止通过内容呈现伴随设备对第一字幕或第二字幕的呈现。在1004,1001的方法还包括:利用一个或多个处理器,使通信设备将与内容提供相关联的第三字幕传递给内容呈现伴随设备。在1005,1004的第三字幕为不同于第一语言偏好和第二语言偏好这两者的第三语言偏好。
在1006处,通过语音识出来确定第一人的第一语言偏好或第二人的第二语言偏好中的至少一个。在1007处,通过确定存储在电子设备的存储器内的用户设置来确定第一人的第一语言偏好或第二人的第二语言偏好中的至少一个。
在1008处,1001的内容提供包括电影,并且第一字幕和第二字幕包括与电影相关联的对话。在1009处,1001的内容提供包括体育赛事,并且第一字幕和第二字幕包括与体育赛事相关联的得分。在1010,1001的内容提供包括音乐视频,并且第一字幕和第二字幕包括与音乐视频相关联的歌曲歌词。
在1011处,电子设备包括通信设备,该通信设备将内容提供电子地传递给作为电子设备的主显示器操作的内容呈现伴随设备,并且与至少两个增强现实伴随设备进行通信。在1011处,电子设备包括一个或多个传感器,该传感器在该内容呈现伴随设备作为电子设备的主显示器操作的同时,在内容呈现伴随设备的环境内识别操作至少两个增强现实伴随设备中的第一增强现实伴随设备的第一人和操作至少两个增强现实伴随中的第二增强现实伴随设备的第二人。在1011处,电子设备包括一个或多个处理器,该处理器使通信设备以第一人的第一语言偏好将与内容提供相关联的第一字幕电子地传递给第一增强现实伴随设备,并且以第二人的第二语言偏好将与内容提供相关联的第二字幕电子地传递给第二增强现实伴随设备。
在1012处,1011的电子设备还包括显示器。在1012处,内容呈现伴随设备包括监视器,该监视器具有比电子设备的显示器更大的另一显示器。在1013处,1012的第一增强现实伴随设备和第二增强现实伴随设备中的每一个包括增强现实眼镜。在1014处,1011的电子设备包括存储第一语言偏好和第二语言偏好的存储器。
在1015处,1011的一个或多个传感器包括音频输入。在1015,一个或多个处理器还使用语音识出来确定第一语言偏好和第二语言偏好,以在第一人操作第一增强现实伴随设备并且第二人操作第二增强现实伴随设备的同时,从由音频输入接收的音频中识别第一语言偏好和第二语言偏好。在1016处,1011的第一语言偏好和第二语言偏好不同。
在1017处,系统包括电子设备,该电子设备包括一个或多个传感器、通信设备以及一个或多个处理器。在1017处,系统包括与电子设备电子地通信并呈现内容供应的内容呈现伴随设备。在1017,系统包括与电子设备通信的至少两个增强现实伴随设备。
在1017处,电子设备的一个或多个处理器使通信设备以第一语言偏好将与内容提供相关联的第一字幕电子地传递给至少两个增强现实伴随设备中的第一增强现实伴随设备,并且以第二语言偏好将与内容提供相关联的第二字幕电子地传递给至少两个增强现实伴随设备中的第二增强现实伴随设备。在1017处,第一语言偏好和第二语言偏好不同。
在1018处,1017的一个或多个处理器使通信设备以第三语言偏好将第三字幕传递到内容呈现伴随设备。在1017处,第三语言偏好不同于第一语言偏好和第二语言偏好这两者。
在1019处,1017的一个或多个处理器阻止在内容呈现伴随设备处呈现字幕。在1020处,仅当一个或多个传感器识别操作第一增强现实伴随设备的第一人和操作第一增强现实伴随设备的第二人时,1017的一个或多个处理器才使通信设备将第一字幕电子地传递至第一增强现实伴随设备,并将第二字幕电子地传递至第二增强现实伴随设备。
在前述说明书中,已经描述了本公开的特定实施例。然而,本领域的普通技术人员理解,在不脱离如所附权利要求书中所阐述的本公开的范围的情况下,可以进行各种修改和改变。因此,尽管已经图示和描述了本公开的优选实施例,但是很明显,本公开不限于此。对于本领域技术人员而言,在不脱离如所附权利要求所限定的本公开的精神和范围的情况下,将发生多种修改、改变、变化、替换和等同形式。
因此,说明书和附图应被认为是说明性的而不是限制性的,并且所有这样的修改旨在被包括在本公开的范围内。益处、优势、问题的解决方案以及可能导致任何益处、优势或解决方案出现或变得更加明显的任何要素都不应解释为任何或任何权利要求的关键、必需或必要特征或要素。

Claims (20)

1.一种电子设备中的方法,所述方法包括:
利用一个或多个处理器检测与以下两者电子地通信的通信设备:
内容呈现伴随设备,所述内容呈现伴随设备作为所述电子设备的主显示器操作;以及
增强现实伴随设备;
当所述内容呈现伴随设备作为所述电子设备的主显示器操作的同时,利用一个或多个传感器检测在所述电子设备的环境内存在的多个人;以及
当所述多个人处于所述环境中时,利用所述一个或多个处理器将预期在所述电子设备的所述主显示器上呈现的事件通知重定向到所述增强现实伴随设备。
2.根据权利要求1所述的方法,进一步包括:通过所述一个或多个处理器使所述通信设备将内容提供传递给所述内容呈现伴随设备以呈现给所述环境,其中,在所述通信设备向所述内容呈现伴随设备传递所述内容提供的同时发生所述重定向。
3.根据权利要求2所述的方法,进一步包括:利用所述一个或多个处理器确定所述事件通知是否与所述内容提供有关,其中,仅在所述事件通知与所述内容提供无关时才发生所述重定向。
4.根据权利要求2所述的方法,其中,所述事件通知包括与所述内容提供相关联的字幕。
5.根据权利要求2所述的方法,进一步包括:利用所述一个或多个传感器将所述环境内的所述多个人中的一个人识别为所述电子设备的授权用户,其中,仅当所述电子设备的所述授权用户在所述环境内时才发生所述重定向。
6.根据权利要求5所述的方法,进一步包括:利用所述一个或多个传感器检测操作所述增强现实伴随设备的所述电子设备的所述授权用户,其中,仅当所述授权用户正在操作所述增强现实伴随设备时才发生所述重定向。
7.根据权利要求6所述的方法,进一步包括:利用所述一个或多个处理器确定所述事件通知的预期接收者,其中,仅当所述授权用户是所述事件通知的所述预期接收者时才发生所述重定向。
8.根据权利要求6所述的方法,进一步包括:利用所述一个或多个处理器确定与所述事件通知相关联的事件通知类型,其中,仅当所述事件通知类型在预定义事件通知类型类别内时才发生所述重定向。
9.根据权利要求8所述的方法,其中,所述预定义事件通知类型类别由存储在所述电子设备的存储器内的用户选择的事件通知类型的预先配置列表定义。
10.一种电子设备,包括:
与作为所述电子设备的主显示器操作的内容呈现伴随设备和增强现实伴随设备电子地通信的通信设备;
一个或多个传感器,所述一个或多个传感器在所述内容呈现伴随设备作为所述电子设备的所述主显示器操作的同时检测所述电子设备的环境内的多个人;以及
一个或多个处理器,所述一个或多个处理器当以下两者的同时将预期在所述主显示器上呈现的事件通知重定向到所述增强现实伴随设备:
所述内容呈现伴随设备作为所述电子设备的所述主显示器操作;并且
所述多个人在所述电子设备的所述环境内。
11.根据权利要求10所述的电子设备,仅当所述一个或多个传感器在所述环境内的所述多个人当中检测到所述电子设备的所有者时,所述一个或多个处理器才将所述事件通知重定向到所述增强现实伴随设备。
12.根据权利要求11所述的电子设备,仅当所述电子设备的所述所有者是所述多个人中作为所述事件通知的预期接收者的唯一人时,所述一个或多个处理器才将所述事件通知重定向到所述增强现实伴随设备。
13.根据权利要求10所述的电子设备,仅当所述事件通知是预定义事件通知类型时,所述一个或多个处理器才重定向所述事件通知。
14.根据权利要求13所述的电子设备,进一步包括与所述一个或多个处理器一起操作的存储器,其中,所述预定义事件通知类型由存储在所述电子设备的存储器中的用户选择的事件通知类型的预先配置列表之一来定义。
15.根据权利要求10所述的电子设备,所述事件通知包括与在内容呈现伴随设备上呈现的内容提供相关联的一个或多个字幕。
16.根据权利要求10所述的电子设备,所述事件通知包括应用生成的事件通知或传入的电子通信事件通知中的一个。
17.一种系统,包括:
电子设备,所述电子设备包括一个或多个传感器、通信设备以及一个或多个处理器;
内容呈现伴随设备,所述内容呈现伴随设备与所述电子设备电子地通信;以及
与所述电子设备通信的增强现实伴随设备;
所述一个或多个处理器使所述通信设备将内容提供传递给所述内容呈现伴随设备以呈现给所述电子设备的环境,并且在满足至少一个预定义条件时将事件通知从所述内容呈现伴随设备重定向到所述增强现实伴随设备,所述至少一个预定义条件包括所述一个或多个传感器检测在所述电子设备的所述环境内消费所述内容提供的多个人。
18.根据权利要求17所述的系统,所述至少一个预定义条件进一步包括所述一个或多个传感器识别所述多个人当中的所述电子设备的所有者。
19.根据权利要求18所述的系统,所述至少一个预定义条件进一步包括所述一个或多个传感器识别操作所述增强现实伴随设备的所述电子设备的所述所有者。
20.根据权利要求19所述的系统,所述至少一个预定义条件进一步包括一个或多个处理器确定所述电子设备的所述所有者是所述多个人中的所述事件通知所定向的唯一人。
CN202110672481.0A 2021-06-17 2021-06-17 在多人内容呈现环境中重定向事件通知的电子设备和对应方法 Pending CN115499687A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110672481.0A CN115499687A (zh) 2021-06-17 2021-06-17 在多人内容呈现环境中重定向事件通知的电子设备和对应方法
US17/369,389 US11836543B2 (en) 2021-06-17 2021-07-07 Electronic devices and corresponding methods for redirecting event notifications in multi-person content presentation environments

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110672481.0A CN115499687A (zh) 2021-06-17 2021-06-17 在多人内容呈现环境中重定向事件通知的电子设备和对应方法

Publications (1)

Publication Number Publication Date
CN115499687A true CN115499687A (zh) 2022-12-20

Family

ID=84464784

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110672481.0A Pending CN115499687A (zh) 2021-06-17 2021-06-17 在多人内容呈现环境中重定向事件通知的电子设备和对应方法

Country Status (2)

Country Link
US (1) US11836543B2 (zh)
CN (1) CN115499687A (zh)

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9195775B2 (en) * 2009-06-26 2015-11-24 Iii Holdings 2, Llc System and method for managing and/or rendering internet multimedia content in a network
US20110181780A1 (en) * 2010-01-25 2011-07-28 Barton James M Displaying Content on Detected Devices
EP2819410A1 (en) * 2011-01-04 2014-12-31 Samsung Electronics Co., Ltd Display apparatus, 3D glasses, and control method thereof
US20120240177A1 (en) * 2011-03-17 2012-09-20 Anthony Rose Content provision
CN102907109A (zh) * 2011-03-18 2013-01-30 松下电器产业株式会社 眼镜、立体视觉影像处理装置、系统
US9002411B2 (en) * 2011-09-02 2015-04-07 Verizon Patent And Licensing Inc. Method and system for providing electronic media on wearable displays
EP2611152A3 (en) * 2011-12-28 2014-10-15 Samsung Electronics Co., Ltd. Display apparatus, image processing system, display method and imaging processing thereof
KR101310941B1 (ko) * 2012-08-03 2013-09-23 삼성전자주식회사 복수의 컨텐츠 뷰를 디스플레이하는 디스플레이 장치와 그 컨텐츠 뷰 중 하나에 동기화되어 구동되는 안경 장치 및 그 방법들
US9740375B2 (en) * 2012-11-16 2017-08-22 Empire Technology Development Llc Routing web rendering to secondary display at gateway
US10334303B1 (en) 2014-12-31 2019-06-25 The Directv Group, Inc. Systems and methods for personalized feature setup and parental guidance sensing
US10896591B2 (en) 2015-07-31 2021-01-19 Motorola Mobility Llc Eyewear with proximity sensors to detect outside line of sight presence and corresponding methods
US10234688B2 (en) 2016-10-25 2019-03-19 Motorola Mobility Llc Mobile electronic device compatible immersive headwear for providing both augmented reality and virtual reality experiences
WO2018211494A1 (en) 2017-05-15 2018-11-22 Real View Imaging Ltd. System with multiple displays and methods of use
US10757323B2 (en) 2018-04-05 2020-08-25 Motorola Mobility Llc Electronic device with image capture command source identification and corresponding methods
US10360713B1 (en) 2018-07-17 2019-07-23 Disney Enterprises, Inc. Event enhancement using augmented reality effects
US10506650B1 (en) 2018-11-19 2019-12-10 Motorola Mobility Llc Methods and systems for pairing electronic devices based upon proximity
JP7183025B2 (ja) 2018-12-20 2022-12-05 キヤノン株式会社 ファンに電力を供給する複数の電源部を備える情報処理装置
US10827455B1 (en) 2019-10-28 2020-11-03 Motorola Mobility Llc Method and apparatus for sending a notification to a short-range wireless communication audio output device

Also Published As

Publication number Publication date
US11836543B2 (en) 2023-12-05
US20220405154A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
US9900498B2 (en) Glass-type terminal and method for controlling the same
US10217475B2 (en) Headset and method for controlling same
CN110830811B (zh) 直播互动方法及装置、系统、终端、存储介质
CN110326300B (zh) 信息处理设备、信息处理方法及计算机可读存储介质
US20180288391A1 (en) Method for capturing virtual space and electronic device using the same
US9891706B2 (en) Mobile terminal and control method therof
CN110874129A (zh) 显示系统
KR20180057366A (ko) 이동 단말기 및 그 제어방법
CN109729372B (zh) 直播间切换方法、装置、终端、服务器及存储介质
CN114205324B (zh) 消息显示方法、装置、终端、服务器及存储介质
US10409324B2 (en) Glass-type terminal and method of controlling the same
CN110300274B (zh) 视频文件的录制方法、装置及存储介质
CN111309431B (zh) 群组会话中的显示方法、装置、设备及介质
WO2020211607A1 (zh) 生成视频的方法、装置、电子设备及介质
KR20180028211A (ko) 헤드 마운티드 디스플레이 및 그 제어 방법
CN112749956A (zh) 信息处理方法、装置及设备
US20220326760A1 (en) Light field display for mobile devices
CN113613028A (zh) 直播数据处理方法、装置、终端、服务器及存储介质
CN106454087B (zh) 一种拍摄装置和方法
US11907357B2 (en) Electronic devices and corresponding methods for automatically performing login operations in multi-person content presentation environments
CN111597797A (zh) 社交圈消息的编辑方法、装置、设备及介质
CN111554314A (zh) 噪声检测方法、装置、终端及存储介质
US11595732B2 (en) Electronic devices and corresponding methods for redirecting event notifications in multi-person content presentation environments
US11836543B2 (en) Electronic devices and corresponding methods for redirecting event notifications in multi-person content presentation environments
US12002435B1 (en) Electronic devices and corresponding methods for identifying a companion device type

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication