CN105518515A - 头戴式显示设备及其控制方法 - Google Patents
头戴式显示设备及其控制方法 Download PDFInfo
- Publication number
- CN105518515A CN105518515A CN201380079288.XA CN201380079288A CN105518515A CN 105518515 A CN105518515 A CN 105518515A CN 201380079288 A CN201380079288 A CN 201380079288A CN 105518515 A CN105518515 A CN 105518515A
- Authority
- CN
- China
- Prior art keywords
- personal information
- information
- period
- equipment
- face
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
根据一个实施例的头戴式显示(HMD)设备包括:相机单元,该相机单元被配置成捕获在HMD设备前方的图像;距离获取单元,该距离获取单元被配置成获取HMD设备与HMD设备前方的目标之间的距离;通信单元,该通信单元被配置成发送和接收数据;显示单元,该显示单元被配置成显示视觉信息;以及处理器,该处理器被配置成控制相机单元、距离获取单元、通信单元和显示单元,其中处理器被进一步配置成:从图像识别面部;接收与识别的面部相对应的个人数据;从接收的个人数据来获取个人信息和从面部被最后识别时的最近日期到面部被当前识别的当前日期的时段;当时段长于第一阈值时段时显示个人信息,以及基于时段以及识别的面部与HMD设备之间的距离来控制要显示的个人信息的数量;以及当时段短于第一阈值时段时不显示个人信息。
Description
技术领域
本说明书涉及头戴式显示设备,并且更具体地,涉及头戴式显示设备及其控制方法,其中根据设备与人之间的距离以及最后识别该人的时段来控制提供的信息的数量。
背景技术
头戴式显示(在下文中被称为HMD)设备允许用户像戴眼镜一样戴在他/她的头上。可向用户提供显示在HMD设备中的信息。具体地,HMD设备可以识别位于前方的人并且向用户提供关于检测的目标图像的信息。
然而,在提供个人信息过程中,根据现有技术的HMD设备没有根据与人的距离和最后识别该人的时段来控制个人信息的数量。相应地,根据现有技术的HMD设备未能选择性地提供个人信息中的重要信息,并且提供了用户已经知道的信息或重复的信息,从而对用户造成了困惑,并且显示的个人信息阻挡了用户的视线。
在此方面,考虑到人与设备之间的距离和最后识别该人的时段,将需要用于控制显示的个人信息的数量的方法。
发明内容
技术问题
相应地,本说明书涉及HMD设备及其控制方法,其实质上消除了由于现有技术的限制和缺点造成的一个或多个问题。
本说明书的一个目标是提供一种HMD设备及其控制方法,其中根据设备与人之间的距离以及从当该人被最后识别时的最近日期到该人被当前识别时的当前日期的时段来控制个人信息的数量。
本说明书的另一个目标是提供一种HMD设备及其控制方法,其中如果从当人被最后识别时的最近日期到该人被当前识别时的当前日期的时段短于阈值时段,则不提供个人信息。
本说明书的又一个目标是提供一种HMD设备及其控制方法,其中根据人的识别次数的数目来控制个人信息的数量。
本说明书的又一个目标是提供一种HMD设备及其控制方法,其中根据设备的位置信息来控制个人信息的数量。
本说明书的又一个目标是提供一种HMD设备及其控制方法,其中根据类别的优先级来控制个人信息的数量。
本说明书的其他优点、目标和特征将在随后的描述中被部分阐述,并且在查看下文时对于本领域普通技术人员将部分地变得显而易见或者可以通过本说明书的实践得知。通过在书面描述与其权利要求以及附图中具体指出的结构可以了解和获得本说明书的目标和其他优点。
技术方案
为了实现这些目标和其他优点并且根据本说明书的目的,如本文中所体现和广泛描述的,根据一个实施例的头戴式显示(HMD)设备包括:相机单元,该相机单元被配置成捕获在HMD设备前方的图像;距离获取单元,该距离获取单元被配置成获取HMD设备与HMD设备前方的目标之间的距离;通信单元,该通信单元被配置成发送和接收数据;显示单元,该显示单元被配置成显示视觉信息;以及处理器,该处理器被配置成控制相机单元、距离获取单元、通信单元和显示单元,其中处理器被进一步配置成:从图像识别面部;接收与识别的面部相对应的个人数据;从接收的个人数据来获取个人信息和从面部被最后识别时的最近日期到面部被当前识别的当前日期的时段;当时段长于第一阈值时段时显示个人信息,以及基于时段以及识别的面部与HMD设备之间的距离来控制要显示的个人信息的数量;以及当时段短于第一阈值时段时不显示个人信息。
有益效果
根据一个实施例,由于根据设备与人之间的距离和从面部被最后识别时的最近日期到面部被当前识别的当前日期的时段来控制个人信息的数量,所以该设备可以提供用于控制个人信息的数量的更有效的方法。
此外,根据另一个实施例,如果从面部被最后识别时的最近日期到面部被当前识别的当前日期的时段短于设备指定的阈值时段,则设备不提供个人信息,从而可以不将不必要的或重复的信息提供给用户。
此外,根据另一个实施例,设备可以根据类别的优先级和设备的位置信息来控制显示的个人信息的类别,从而可以向用户提供更有用且必要的信息。
在下文中将更加详细地描述更详细的优点。
应理解,本说明书的上述一般性描述和下面的详细描述都是示例性的和解释性的,并且意在提供对所要求保护的说明书的进一步解释。
附图说明
被包括以提供对本说明书的进一步理解并且被并入本申请且构成本申请一部分的附图图示本说明书的实施例,并且与描述一起用于解释本说明书的原理。在附图中:
图1是图示根据一个实施例的设备的框图;
图2是图示根据一个实施例的、根据从人被最后识别的最近日期到该人被当前识别的当前日期的时段来控制显示的个人信息的数量的设备的图;
图3是图示根据一个实施例的、根据设备与人之间的距离来控制显示的个人信息的数量的设备的图;
图4是图示根据一个实施例的、根据人的识别时段是否短于阈值时段来控制个人信息的数量的设备的图;
图5是图示根据一个实施例的、根据人被识别时记时的位置来控制显示的个人信息的数量的设备的图;
图6是图示根据一个实施例的、根据人的移动速度来控制提供个人信息的速度的设备的图;以及
图7是图示用于控制根据本说明书实施例的设备的方法的流程图。
具体实施方式
现在将详细参考本说明书的优选实施例,附图中图示了其示例。在可能的情况下,在整个附图中将使用相同的附图标记指代相同或相似的部分。
尽管考虑到其在本说明书中的作用而从普遍熟知和使用的术语中选择本说明书中使用的术语,但是能够根据本领域技术人员的意图、实践或新技术的出现来修改术语。此外,在特殊情况下,申请人可以以其判断力来选择在本说明书的描述中提及的术语,其详细含义被描述在本文描述的相关部分中。相应地,本文使用的术语不应简单地通过使用的实际术语理解,而应通过其内在含义和本文公开的描述理解。
而且,尽管将参考附图和附图描述的公开详细描述实施例,但是应理解,本说明书不限于这些实施例。
本说明书涉及HMD设备,其识别个人图像并且显示与识别的个人图像相对应的个人信息。在此情况下,HMD设备可以表示穿戴在用户头部上的可穿戴计算机。此外,个人信息可表示关于通过HMD设备识别的人的个人信息。作为一个实施例,个人信息可表示识别的人的各种信息,诸如姓名信息、年龄信息、职业信息、地址信息、公司信息、职称信息、联系信息、电子邮箱信息、爱好信息和最近的见面日期信息。个人信息可以作为虚拟图像或增强现实图像显示在显示单元上。
如果本说明书的HMD设备显示个人信息,则HMD设备可以根据从人被最后识别的最近日期到人被当前识别的当前日期的时段以及设备与人之间的距离来控制显示的个人信息的数量。此时,HMD设备可以通过控制个人信息的文本大小、个人信息的数量、个人信息的滚动速度、个人信息的类别数目以及个人信息的图像大小中的至少一个来控制显示的个人信息的数量。在本说明书中,将描述通过控制类别的数目来控制个人信息的数量的HMD设备。在下文中,为了描述的方便,HMD设备可被称为“设备”。
图1是图示根据一个实施例的设备的框图。在本说明书中,该设备可包括相机单元1010、通信单元1020、显示单元1030、距离获取单元1040、位置获取单元1050和处理器1060。
相机单元1010可以捕获在设备的前向方向上的图像。更详细地,相机单元1010可以通过使用设置在设备中的至少一个相机传感器来捕获在设备的前向方向上的图像。相机单元1010可以捕获在视野区域内的目标并且将捕获到的结果提供给处理器1060。具体地,在本说明书中,相机单元1010可以捕获在视野区域内的个人图像并且将捕获到的结果传送到处理器1060。在本说明书中,个人图像包括可以识别人的各种图像,诸如人的面部图像、人的瞳孔图像和人的虹膜图像。
通信单元1020可以通过使用各种协议执行通信来将数据发送到外部设备和/或网络服务器和/或从外部设备和/或网络服务器接收数据。更详细地,通信单元1020可以通过经由有线或无线接入网络来发送和/或接收各种数字数据诸如增强现实数据和虚拟图像数据。具体地,通信单元1020可以通过相机单元1010发送和/或接收识别的人的个人数据。
显示单元1030可以显示虚拟图像。具体地,在本说明书中,显示单元1030可以将个人信息显示为虚拟图像。在此情况下,虚拟图像可以表示通过显示单元1030提供给用户的图形用户界面。同时,显示单元1030可以包括光学透视显示面板。此时,显示单元1030可以通过显示基于现实世界的虚拟图像来为用户提供增强现实。具体地,在本说明书中,显示单元1030可以基于识别的人通过显示关于相应的人的信息来为用户提供增强现实。
距离获取单元1040可以通过使用设置在设备中的至少一个传感器来获取设备与人之间的距离。该至少一个传感器可以包括各种感测装置,诸如相机传感器、接近传感器、温度传感器、深度传感器、红外线传感器、紫外线传感器、速度测量传感器和运动传感器。距离获取单元1040指的是前面提到的各种感测装置。前面提到的传感器可以作为单独的元件包括在设备中,或者可以被合并成至少一个元件。距离获取单元1040可以将获取的结果转发到处理器1060。
位置获取单元1050可以通过使用设置在设备中的至少一个传感器来获取设备的位置。该至少一个传感器可以包括各种感测装置,诸如全球定位系统(GPS)传感器、相机传感器、接近传感器、红外线传感器、重力测量传感器和高度传感器。具体地,如果位置获取单元1050使用GPS信号,则若室内半径是500m或700m范围宽时它可能难以识别确切位置。在此情况下,位置获取单元1050可以通过室内安装的无线LAN信号中继来获取设备的唯一接入点(AP)。位置获取单元1050指的是前面提到的各种感测装置。前面提到的传感器可以作为单独的元件包括在设备中,或者可以被合并成至少一个元件。位置获取单元1050可以将获取的结果转发到处理器1060。
处理器1060可以通过处理设备之内的数据来实现各种应用。此外,处理器1060可以基于输入来控制由设备实现的内容。此外,处理器1060控制设备的每一个前面提到的单元,并且可以控制单元之间的数据发送和/或接收。
具体地,在本说明书中,处理器1060可以从通过相机单元1010获取的前面的图像识别个人信息。在此情况下,如上所述,个人图像可以包括面部图像、瞳孔图像和虹膜图像。如果处理器1060通过相机单元1010识别个人图像,则处理器1060可以通过使用通信单元1020来获取识别的个人图像的数据。更详细地,处理器1060可以通过使用通信单元1010执行与外部设备、网络服务器或存储单元的通信来获取识别的个人图像上的数据。
处理器1060可以从获取的数据来获取个人信息并且将获取的个人信息显示在显示单元1030上。而且,处理器1060可以通过从获取的数据来获得时段信息和次数信息来控制将被显示的个人信息的数量。将参考图2至图4对此进行更详细的描述。
此外,处理器1060可以通过距离获取单元1040获取设备与人之间的距离。处理器1060可以根据获取的距离控制将被显示的个人信息的数量。将参考图3对此进行更详细的描述。
此外,处理器1060可以通过位置获取单元1050获取设备的当前位置信息。处理器1060可以通过使用获取的位置信息来确定将被显示的个人信息的类别。将参照图5对此进行更详细的描述。
此外,尽管未在图1中示出,但是设备可额外包括存储单元、音频输入和输出单元或电力单元。
存储单元(未示出)可以存储各种数字数据,诸如音频、照片、移动图片、应用程序和虚拟图像。存储单元可以意指各种数字数据存储空间,诸如闪存、随机存取存储器(RAM)和固态设备(SSD)。
此外,存储单元可以临时存储通过通信单元1020外部接收的数据。此时,存储单元可被用于对从设备输出外部接收的数据进行缓冲。同时,存储单元可以选择性地设置在设备中。
音频输出单元(未示出)包括音频输出装置,诸如扬声器或耳机。此外,音频输出单元可以基于处理器1060中实现的内容或处理器1060的控制命令来输出声音。此时,音频输出单元可以选择性地设置在设备上。
电力单元(未示出)是与设备内侧的电池连接的电源或者是外部电力,并且可以将电力供应到设备。
在下文中,如果由设备执行的每个步骤或操作开始或通过识别个人图像而执行,则应理解,根据识别个人图像而生成和接收信号的过程即使在不重复描述的情况下也包括前面提到的过程。此外,处理器1060可以控制设备或被包括在设备中的至少一个单元,并且可以被描述成指的是设备。
同时,设备在图1中示出为根据一个实施例的框图。在图1中,示出了各个方框以在逻辑上识别设备的元件。相应地,根据设备的设计,设备的前面提到的单元可被提供为一个芯片或多个芯片。此外,各个单元可以一起使用在设备中安装的传感器中的一个以执行其功能。
图2是图示根据一个实施例的、根据从人被最后识别的最近日期到人被当前识别的当前日期的时段来控制显示的个人信息的数量的设备的图。
如上所述,设备2030可以识别前方的人2020,并且显示与识别的人2020对应的个人信息。更详细地,设备2030可以通过相机单元识别前方的人2020,并且通过通信单元接收与识别的人2020相对应的数据。此时,设备2030可以从接收的数据获取关于相应的人2020的个人信息以及关于从相应的人2020被最后识别的最近日期到相应的人2020被当前识别的当前日期的时段(在下文中被称为“识别时段”)的信息。在此情况下,识别时段可以包括从人2020被最后识别的最近日期到人2020被当前识别的当前日期的日期数目或者从人2020被最后识别的最近计时到人2020被当前识别的当前计时的时间间隔。
设备2030可以根据识别时段显示获取的个人信息。换句话说,设备2030可以根据识别时段来控制显示的个人信息的数量。如果识别时段短,则设备2030可以减少个人信息的数量,并且如果识别时段长,则设备2030可以增加个人信息的数量。
例如,如图所示,即使设备2030识别到同一个人2020的面部,设备2030也可以根据识别时段来不同地显示个人信息的数量。更详细地,如果识别时段对应于3天,则设备可以将个人信息的类别的数目显示成小于当识别时段对应于一个月的情况。如果识别时段对应于3天,则设备2030可以显示包括姓名信息和年龄信息的个人信息2010-1,而如果识别时段对应于一个月,则设备2030可以显示包括姓名信息、年龄信息、公司信息和联系信息的个人信息2010-2。
如果识别时段短,则意味着用户最近与相应的人2020相遇过。在此情况下,由于很可能用户可能已经识别出关于相应的人2020的个人信息,所以不需要提供关于相应的人2020的更多信息。相应地,如上所述,如果识别时段短,则设备2030可以通过减少显示的个人信息的数量来选择性地向用户提供必要信息。
同时,如果设备2030显示个人信息,则设备可以在识别的人2020附近显示个人信息2010-1和2010-2。
基于前面提到的描述,作为另一实施例,设备2030可以根据人2020的识别频率来控制显示的个人信息的数量。在此情况下,识别频率可以表示在预定时段内人2020的被识别的次数的数目(在下文中被称为识别频率)。可以以与识别时段相同的方式从人2020的数据获取识别频率。如果识别频率低,则设备2030可以增加显示的个人信息的数量,而如果识别频率高,则设备2030可以减少显示的个人信息的数量。如果识别频率高,则意味着用户经常与人2020相遇。在此情况下,很可能用户可能已经识别出关于相应的人2020的个人信息。如上所述,可以通过控制个人信息的文本大小、文本数量、滚动速度、类别数目和图像大小中的至少一个来控制个人信息的数量。
然而,如果没有与识别的人2020对应的数据,则设备2030可以提供指示没有关于相应的人2020的数据的通知。该通知可包括视觉通知、听觉通知和触觉通知。例如,如果通知对应于视觉通知,则设备2030可以显示指示“没有与识别的人对应的信息”的通知消息。此时,如下文将描述的,设备2030可以在识别出人2020时将关于当前状态的信息更新到个人信息。
在本说明书中,如果设备2030通过相机单元识别出人2020,则设备2030可以将关于识别出相应的人2020的当前状态的信息更新到个人信息。在此情况下,关于当前状态的信息可以表示关于在识别出人2020时周围状态的信息。例如,关于当前状态的信息可以包括在识别出人2020时的日期、在识别出人2020时的时间、在识别出人2020时的周日期、在识别出人2020时的天气以及识别出人2020的地点中的至少一个。无论何时识别出人2020,设备都可以实时地将关于当前状态的信息更新到个人信息,从而可以向用户提供更确切的个人信息。
图3是图示根据一个实施例的、根据设备与人之间的距离来控制显示的个人信息的数量的设备的图。
设备3010可以通过使用距离获取单元来获取与人3040的距离。更详细地,设备3010可以通过使用距离获取单元经由相机单元3020来获取与识别的人3040的距离。设备3010可以根据获取的距离来控制显示的个人信息的数量。更详细地,如果与人3040的距离变近,则设备3010可以减少显示的个人信息的数量,而如果与人3040的距离变远,则设备3010可以增加显示的个人信息的数量。
例如,如图所示,如果人3040从设备3010远离距离d1,则设备3010可以显示七个个人信息类别3030-1。如果人3040从d1到d2移动并靠近设备3010,则设备3010可以将个人信息的数量从七个类别3030-1减少到四个类别3030-2并显示减少的个人信息。
尽管设备3010与人3040之间的距离短,如果显示更多的个人信息,则显示的个人信息也可能干扰用户的视线并且分散用户的注意力,从而扰乱与另一方的交谈。相应地,如果人3040远离用户,则设备可以显示更多信息,从而用户可以在人3040靠近用户之前提前识别个人信息。
此外,如果设备3010根据距离控制类别的数目,则设备3010可以使每个类别淡入或淡出。例如,随着设备3010与人3040之间的距离变短,设备3010可以使各个类别顺序地淡出。可替选地,随着设备3010与人3040之间的距离变长,设备3010可以使各个类别顺序地淡入。此时,可以根据类别的优先级、用户的设置和设备的设计以各种方式确定淡出次序或淡入次序。
具体地,如果正在显示的类别突然消失,由于可能对用户造成困惑,所以设备3010淡出类别。相应地,设备3010可以不突然显示类别而是根据距离淡出类别以通知用户将消失的类别。此时,用户可以通过预先阅读淡出的信息来有效地获取必要信息。
此外,如果没有以与参考图2描述的相同方式与识别出的人3040对应的数据,则设备3010可以提供指示没有相应的人3040的信息的通知。此外,如参考图2所描述的,如果设备3010通过相机单元3020识别出人3040,则设备3010可以将关于识别出相应的人3040的当前状态的信息更新到个人信息。
同时,如参考图2和图3所描述的,如果设备2030或3010通过控制类别的数目来控制个人信息的数量,则设备2030或3010可以根据各个类别的优先级来控制类别的数目。在此情况下,类别可以意指包括在个人信息中的子信息。
设备2030或3010可以根据其设计、用途、技术、正在实现的应用的类型、当前位置、识别出的人和用户来确定各个类别的优先级。
如果确定了各个类别的优先级,则若设备2030或3010与人2020或3040之间的距离变短或识别时段短,则可以不显示处于低优先级次序的相应的类别。例如,如果人2020或3040的姓名信息类别与邮箱信息类别相比具有较高的优先级,则随着设备2030或3010与人2020或3040之间的距离变短,设备2030或3010可以不以邮箱信息->姓名信息的次序显示相应的类别。可替选地,随着识别时段变短,设备2030或3010可以不以邮箱信息->姓名信息的次序显示相应的类别。这是为了通过选择性地将重要和必需的信息提供给用户来提升提供信息中的效率。这同样可以应用于将参考图4描述的实施例。
图4是图示根据一个实施例的、根据人的识别时段是否短于阈值时段来控制个人信息的显示的设备的图。
如参考图2所描述的,设备4010可以根据识别时段来控制显示的个人信息的数量。本实施例的设备4010也可根据识别时段控制个人信息的数量。但是本实施例的设备4010可以通过如果识别时段短于阈值时段T就不显示个人信息4040来控制个人信息的数量。
例如,如果阈值时段T被指定为一周,则设备4010可以不显示关于识别时段是一天T2的人4030的个人信息4040。另一方面,设备4010可以显示关于识别时段是一个月T1的人4020的个人信息4040。如果识别的人是与用户相遇的同事或与用户住在一起的家人,则很可能关于同事或家人的个人信息4040可能是用户已经知道的信息。而且,不必要信息的显示可能干扰用户的视线。相应地,本实施例的设备4010可以设定阈值时段T,使得如果识别时段短于阈值时段T就不显示个人信息4040,从而仅仅选择性地提供必要信息。
考虑到前面提到的描述,前面提到的描述可以被应用于如参考图2所描述的、根据识别频率来控制信息的数量的设备4010的实施例。例如,设备4010可以仅在人的识别频率小于阈值频率时显示个人信息4040。此外,前面提到的描述可以被应用于如参考图3所描述的、根据与人的距离来控制信息的数量的设备4010的实施例。例如,设备4010可以仅在设备4010与人之间的距离大于阈值距离时显示个人信息4040。
同时,尽管未示出,但作为图2至图4的组合,设备4010可以根据人的识别时段、人的识别频率以及人与设备4010之间的距离来控制个人信息的数量。
如参考图2至图4所描述的,设备4010可以根据人的识别时段、人的识别频率以及人与设备4010之间的距离中的任何一项来控制个人信息的数量。然而,本实施例的设备4010可以根据人的识别时段、人的识别频率以及人与设备4010之间的距离的组合来控制个人信息的数量。
作为一个实施例,优选地,设备4010可以通过在设备4010与人之间的距离之前考虑识别时段来确定将显示的个人信息的数量。例如,设备4010可以确定识别的人的识别时段是否短于阈值时段。如果识别时段短于阈值时段,则设备4010可以不管人与设备4010之间的距离如何而不显示个人信息4040。然而,如果识别时段长于阈值时段,则设备4010可以根据人与设备4010之间的距离来显示个人信息4040。在此情况下,设备4010可以从通过通信单元接收的人的数据来获取关于识别时段以及个人信息4040的信息。
在这种背景下,优选地,设备可以通过在识别时段之前考虑设备4010与人之间的距离来控制个人信息的数量。例如,设备4010可以确定人与设备4010之间的距离是否短于阈值距离。如果人与设备4010之间的距离短于阈值距离,则设备4010可以不管识别时段而不显示个人信息4040。然而,如果人与设备4010之间的距离长于阈值距离,则设备4010可以根据人与设备4010之间的距离和识别时段来显示个人信息4040。在此情况下,设备4010可以通过距离获取单元获取与人的距离。
这可被应用于根据识别频率来控制个人信息的数量的设备4010。此时,设备4010首先确定识别频率是否超过阈值频率。如果识别频率超过阈值频率,则设备4010可以不显示个人信息。此外,如果识别频率小于阈值频率,则设备4010可以根据识别频率和与人的距离来显示个人信息4040。可替选地,设备4010可以根据识别频率和识别时段来显示个人信息4040。
图5是图示根据一个实施例的、根据人被识别时的位置来控制显示的个人信息的设备的图。
设备5010可以根据人5030被识别时的位置来控制显示的个人信息。更详细地,设备5010可以根据人5030的识别位置来确定显示的个人信息的类别。这是因为根据用户与人5030相遇的位置必要信息是变化的。此外,这是为了向用户提供根据位置选择的信息。
例如,设备5010可以针对用户与人5030在公司相遇的情况显示与用户与人5030在街道相遇的情况的类别信息不同的类别信息。更详细地,如果用户与人5030在公司相遇,则设备5010可以显示与公司生活相关的信息5020,诸如识别的人5030的姓名信息、识别的人5030的职称信息(位置信息)、识别的人5030的团队信息以及识别的人5030的房间号信息。另一方面,如果用户与人5030在街道相遇,则设备5010可以显示与个人生活相关的信息5040,诸如识别的人5030的姓名信息、识别的人5030的年龄信息、识别的人5030的蜂窝电话号码信息以及识别的人5030的电子邮箱信息。以这种方式,设备5010可以通过根据位置改变显示的信息来向用户提供适合于状态的有用信息。
设备5010可以通过位置获取单元获取人5030被识别时的位置。这已经参考图1进行了详细描述。
同时,当显示的类别取决于位置变化时,参考图3描述的类别的优先级也可以变化。此外,可以结合参考图2至图4描述的实施例实现本实施例,并且在本领域普通技术人员允许的范围内,可以在本实施例中进行修改。
图6是图示根据一个实施例的、根据人的移动速度来控制提供个人信息的速度的设备的图。本实施例的设备6010可以包括获取人6020的移动速度的速度获取单元。
在本实施例中,设备6010可以根据人6020的移动速度提供个人信息。更详细地,设备6010可以将提供个人信息的速度控制成对应于人6020的移动速度。为此,设备6010可以通过使用速度获取单元来获取正在移动的人6020的速度。速度获取单元可以通过使用设置在设备6010中的至少一个感测装置来获取正在移动的人6020的速度。在此情况下,至少一个感测装置可以意指可以获取人6020的移动速度的各种感测装置,诸如接近传感器、相机传感器、速度获取传感器、深度传感器和运动传感器。速度获取单元指的是前面提到的各种感测装置,并且前面提到的传感器可以作为单独的元件包括在设备中,或者可以合并成至少一个元件。而且,速度获取单元可以将获取的结果转发到处理器。
接下来,设备6010可以根据使用速度获取单元获取的速度来控制提供个人信息的速度。作为一个实施例,设备6010可以根据人6020的移动速度来控制个人信息的滚动速度。例如,如果人6020的移动速度是V1',则设备6010可以基于V1的滚动速度来提供个人信息。而且,如果人6020的移动速度从V1'到V2'变快,则设备6010可以通过使V1的滚动速度加快达到V2来提供个人信息。此外,可以通过控制翻页速度、淡入/淡出速度、导航速度、放大/缩小速度来控制提供个人信息的速度。
图7是图示用于控制根据本说明书实施例的设备的方法的流程图。在该流程图中,将略去与参考图1至图6描述的说明类似或重复的部分的详细描述。
首先,设备可以捕获前方的图像(S7010)。更详细地,设备可以通过使用相机单元来捕获前方的图像。
接下来,设备可以从捕获的图像中识别人的面部(S7020)。在此情况下,识别的目标不限于人的面部,并且可以识别人的所有图像诸如用户的瞳孔和虹膜都可以是识别的目标。
接下来,设备可以接收与识别的面部相对应的数据(S7030)。此时,设备可以通过使用通信单元来接收与识别的面部相对应的数据。
接下来,设备可以从接收的数据来获取与识别的面部相对应的个人信息和时段信息(S7040)。在此情况下,个人信息可以表示人的个人信息,并且可以包括识别的人的各种类型的信息,诸如姓名信息、年龄信息、职业信息、地址信息、公司信息、联系信息、电子邮箱信息、爱好信息和最近的相遇日期信息。此外,时段信息代表从人最后被识别的最近日期到人当前被识别的当前日期的时段的信息。根据参考图4所描述的实施例,设备可以获取关于识别频率的信息而不是时段信息。
接下来,设备可以基于获取的时段信息确定识别时段是否短于第一时段(S7050)。在此情况下,第一时段是阈值时段并且可以表示用于显示个人信息的参考。
如果识别时段短于第一时段,则设备可以不显示相应的人的个人信息(S7060)。换句话说,在识别时段短于第一时段的情况下,很可能用户可能已经知道相应的人的个人信息,并且由于关于人的个人信息是必要的,所以如果显示个人信息,它可能干扰用户的视线。相应地,设备可以不显示关于相应的人的个人信息。根据设备的设计、设备的用途和用户可以以各种方式设定阈值时段。
然而,如果识别时段长于第一时段,则设备可以显示关于相应的人的个人信息(S7070)。此时,设备可以通过根据识别时段和与人的距离控制个人信息的数量来显示个人信息。更详细地,如果识别时段变短并且与人的距离变长,则设备可以增加显示的个人信息的数量。可替选地,如果识别时段变长并且与人的距离变近,则设备可以减少显示的个人信息的数量。这已经参考图2至图4进行了更详细的描述。而且,如参考图2所描述的,设备可以根据人的识别频率来控制个人信息的数量。
而且,尽管未在流程图中示出,但设备可以根据人被识别时的当前位置改变显示的个人信息的类别。这是因为根据人被识别时的当前位置必要信息是变化的。这已经参考图5进行了更详细的描述。此外,如参考图6所描述的,设备可以根据人的移动速度来控制提供个人信息的速度。
尽管为了描述的方便可能对每个附图都进行了描述,但是各个附图的实施例可被合并以实现新的实施例。此外,在本说明书的范围内,可以根据本领域技术人员的需要来设计用于记录实现实施例的程序的计算机可读记录介质。
此外,设备和用于控制该设备的方法不限于前面提到的实施例,并且前面提到的实施例中的全部或一些可以有选择地被组合配置,以便可以在前面提到的实施例中进行各种修改。
对于本领域技术人员来说显而易见的是,能够在不背离说明书范围的情况下以其他特定形式体现本说明书。因此,以上实施例应被认为在所有方面是说明性的而不是限制性的。说明书的范围应通过所附权利要求书的合理解释确定,并且说明书的范围包括落入说明书的等价范围内的所有变化。
此外,本说明书的设备和用于控制该设备的方法可以作为能够被处理器读取的编码而实现在记录介质中,该记录介质能够被设置在网络设备中的处理器读取。能够被处理器读取的记录介质包括其中存储能够被处理器读取的数据的所有类型的记录介质。记录介质的示例包括ROM、RAM、CD-ROM、磁带、软盘和光学数据存储器。此外,记录介质的另一示例可以被实施在诸如通过互联网传输的一种类型的载波中。此外,能够被处理器读取的记录介质可以通过网络分布在与其连接的计算机系统中,从而可以以分布模式存储和实现能够被处理器读取的代码。
此外,在本说明书中,应理解时段、速度和距离意指确切的值并且包括一定范围的大致的时段、速度和距离。换句话说,本说明书中的时段、速度和距离可以表示大致的时段、速度和距离,并且在时段、速度和距离中可能存在一定范围的误差。
此外,在本说明书中,已经描述了产品发明和方法发明两者,并且如果需要可以补充对两个发明的描述。
发明模式
已经以最佳模式描述了用于实施本发明的各种实施例。
对于本领域技术人员显而易见的是,在不背离本发明精神或范围的情况下,能够在本发明中作出各种修改和变化。因此,本发明旨在覆盖本发明的各种修改和变化,只要他们落入所附权利要求及其等同物的范围内。
工业实用性
如上所述,本发明可全部或部分地应用于电子设备。
Claims (20)
1.一种头戴式显示(HMD)设备,所述HMD设备包括:
相机单元,所述相机单元被配置成捕获在所述HMD设备前方的图像;
距离获取单元,所述距离获取单元被配置成获取所述HMD设备与所述HMD设备前方的目标之间的距离;
通信单元,所述通信单元被配置成发送和接收数据;
显示单元,所述显示单元被配置成显示视觉信息;以及
处理器,所述处理器被配置成控制所述相机单元、所述距离获取单元、所述通信单元和所述显示单元,
其中,所述处理器被进一步配置成:
从所述图像识别面部,
接收与识别的面部相对应的个人数据;
从接收的个人数据来获取个人信息和从所述面部被最后识别时的最近日期到所述面部被当前识别的当前日期的时段,
当所述时段长于第一阈值时段时显示所述个人信息,以及基于所述时段以及识别的面部与所述HMD设备之间的距离来控制要显示的个人信息的数量,以及
当所述时段短于所述第一阈值时段时,不显示所述个人信息。
2.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成:
当所述距离变短时,减少所述个人信息的数量,以及
当所述距离变长时,增加所述个人信息的数量。
3.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成:
当所述时段变短时,减少所述个人信息的数量,以及
当所述时段变长时,增加所述个人信息的数量。
4.根据权利要求1所述的HMD设备,其中,所述时段包括当所述面部被最后识别时的最近时间到当所述面部被当前识别时的当前时间的时间间隔。
5.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成通过调整文本的大小、文本的数量、滚动速度、类别的数目以及所述视觉信息的大小中的至少一个来控制所述个人信息的数量。
6.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成:
从接收的个人数据来获取关于第二阈值时段内所述面部的识别次数的数目的频率信息,以及基于所述频率信息来控制所述个人信息的数量。
7.根据权利要求6所述的HMD设备,其中,所述处理器被进一步配置成:
当所述识别次数的数目增加时,减少所述个人信息的数量,以及
当所述识别次数的数目减少时,增加所述个人信息的数量。
8.根据权利要求6所述的HMD设备,其中,所述处理器被进一步配置成:当所述识别次数的数目超过预定数目时,不显示所述个人信息。
9.根据权利要求1所述的HMD设备,其中,所述个人信息包括与识别的面部相对应的姓名信息、年龄信息、地址信息、公司信息、职称信息、联系信息和最近的相遇日期信息中的至少一个。
10.根据权利要求1所述的HMD设备,进一步包括:位置获取单元,所述位置获取单元被配置成获取所述HMD设备的位置信息。
11.根据权利要求10所述的HMD设备,其中,所述处理器被进一步配置成:基于所述位置信息来确定要显示的个人信息的类别。
12.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成:在识别的面部附近显示所述个人信息。
13.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成:
从所述图像识别瞳孔,
接收与识别的瞳孔相对应的个人数据。
14.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成:当从所述图像识别出所述面部时,更新关于当前状态的状态信息。
15.根据权利要求14所述的HMD设备,其中,所述状态信息包括关于识别所述面部时识别日期、识别所述面部时识别时间以及识别所述面部时的位置的信息中的至少一个。
16.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成:当与识别的面部相对应的个人信息不存在时,提供指示所述个人信息不存在的通知。
17.根据权利要求1所述的HMD设备,其中,所述处理器被进一步配置成:当基于所述距离和所述时段来控制所述个人信息的数量时,基于在所述个人信息中包括的多个类别的优先级来控制所述个人信息的数量。
18.一种用于控制头戴式显示(HMD)设备的方法,所述方法包括以下步骤:
捕获所述HMD设备前方的图像;
从所述图像识别面部;
接收与识别的面部相对应的个人数据;
从接收的数据来获取个人信息和从所述面部被最后识别时的最近日期到所述面部被当前识别时的当前日期的时段;以及
当所述时段长于第一阈值时段时显示所述个人信息,其中基于所述时段以及所述HMD设备与识别的面部之间的距离来控制要显示的个人信息的数量,以及
当所述时段短于第一阈值时段时,不显示所述个人信息。
19.根据权利要求18所述的方法,其中,显示所述个人信息的步骤包括:
当所述距离变短时,减少所述个人信息的数量,以及
当所述距离变长时,增加所述个人信息的数量。
20.根据权利要求18所述的方法,其中,显示所述个人信息的步骤包括:
当所述时段变短时,减少所述个人信息的数量,以及
当所述时段变长时,增加所述个人信息的数量。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130105028A KR102108066B1 (ko) | 2013-09-02 | 2013-09-02 | 헤드 마운트 디스플레이 디바이스 및 그 제어 방법 |
KR10-2013-0105028 | 2013-09-02 | ||
US14/068,522 US8878750B1 (en) | 2013-09-02 | 2013-10-31 | Head mount display device and method for controlling the same |
US14/068,522 | 2013-10-31 | ||
PCT/KR2013/009939 WO2015030299A1 (en) | 2013-09-02 | 2013-11-05 | Head mount display device and method for controlling the same |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105518515A true CN105518515A (zh) | 2016-04-20 |
CN105518515B CN105518515B (zh) | 2018-11-13 |
Family
ID=51798203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380079288.XA Expired - Fee Related CN105518515B (zh) | 2013-09-02 | 2013-11-05 | 头戴式显示设备及其控制方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8878750B1 (zh) |
EP (1) | EP3042236B1 (zh) |
KR (1) | KR102108066B1 (zh) |
CN (1) | CN105518515B (zh) |
WO (1) | WO2015030299A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095075A (zh) * | 2016-05-31 | 2016-11-09 | 深圳市元征科技股份有限公司 | 一种信息处理方法及增强现实设备 |
CN108829368A (zh) * | 2018-06-29 | 2018-11-16 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN110709788A (zh) * | 2017-06-19 | 2020-01-17 | 霍尼韦尔国际公司 | 用于呈现与工业过程、控制和自动化系统或其他系统相关的信息的移动设备上的增强现实用户界面 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140072651A (ko) * | 2012-12-05 | 2014-06-13 | 엘지전자 주식회사 | 글래스타입 휴대용 단말기 |
KR20160005899A (ko) * | 2014-07-08 | 2016-01-18 | 엘지전자 주식회사 | 디지털 이미지 처리 장치, 시스템 및 제어 방법 |
US10389992B2 (en) * | 2014-08-05 | 2019-08-20 | Utherverse Digital Inc. | Immersive display and method of operating immersive display for real-world object alert |
CN104880835A (zh) * | 2015-05-13 | 2015-09-02 | 浙江吉利控股集团有限公司 | 智能眼镜 |
WO2017007043A1 (ko) * | 2015-07-07 | 2017-01-12 | (주)에프엑스기어 | 네트워크를 통해 헤드마운트형 디스플레이 장치를 포함하는 수신기에 영상을 전송하는 방법과, 이를 위한 송신기, 중계 서버 및 수신기 |
US10698475B2 (en) * | 2016-10-26 | 2020-06-30 | Htc Corporation | Virtual reality interaction method, apparatus and system |
US10853651B2 (en) | 2016-10-26 | 2020-12-01 | Htc Corporation | Virtual reality interaction method, apparatus and system |
US10768425B2 (en) * | 2017-02-14 | 2020-09-08 | Securiport Llc | Augmented reality monitoring of border control systems |
US11080942B2 (en) * | 2017-11-21 | 2021-08-03 | Volvo Truck Corporation | Assistance method for assisting performance of a task on a product, comprising displaying a highlighting image highlighting a monitored part of the product |
KR102094155B1 (ko) | 2019-10-30 | 2020-03-30 | 케이엠텍(주) | 미세먼지 차단 겸용 방충망 조립체 |
KR102559360B1 (ko) | 2019-10-30 | 2023-07-26 | 케이엠텍 주식회사 | 미세먼지 차단 겸용 방충망 조립체 |
US11599717B2 (en) * | 2020-03-20 | 2023-03-07 | Capital One Services, Llc | Separately collecting and storing form contents |
CN115735174A (zh) * | 2020-06-29 | 2023-03-03 | 美国斯耐普公司 | 使用保持社交距离的增强现实体验 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101589327A (zh) * | 2007-09-26 | 2009-11-25 | 松下电器产业株式会社 | 光束扫描式显示装置、显示方法、程序以及集成电路 |
US20110153341A1 (en) * | 2009-12-17 | 2011-06-23 | General Electric Company | Methods and systems for use of augmented reality to improve patient registration in medical practices |
US20120026191A1 (en) * | 2010-07-05 | 2012-02-02 | Sony Ericsson Mobile Communications Ab | Method for displaying augmentation information in an augmented reality system |
US20120210203A1 (en) * | 2010-06-03 | 2012-08-16 | Rhonda Enterprises, Llc | Systems and methods for presenting a content summary of a media item to a user based on a position within the media item |
WO2013052855A2 (en) * | 2011-10-07 | 2013-04-11 | Google Inc. | Wearable computer with nearby object response |
US20130174213A1 (en) * | 2011-08-23 | 2013-07-04 | James Liu | Implicit sharing and privacy control through physical behaviors using sensor-rich devices |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999023524A1 (en) * | 1997-10-30 | 1999-05-14 | The Microoptical Corporation | Eyeglass interface system |
US6038333A (en) * | 1998-03-16 | 2000-03-14 | Hewlett-Packard Company | Person identifier and management system |
US6466232B1 (en) * | 1998-12-18 | 2002-10-15 | Tangis Corporation | Method and system for controlling presentation of information to a user based on the user's condition |
US9183306B2 (en) * | 1998-12-18 | 2015-11-10 | Microsoft Technology Licensing, Llc | Automated selection of appropriate information based on a computer user's context |
US6791580B1 (en) * | 1998-12-18 | 2004-09-14 | Tangis Corporation | Supplying notifications related to supply and consumption of user context data |
US6513046B1 (en) * | 1999-12-15 | 2003-01-28 | Tangis Corporation | Storing and recalling information to augment human memories |
US7464153B1 (en) * | 2000-04-02 | 2008-12-09 | Microsoft Corporation | Generating and supplying user context data |
GB0011438D0 (en) | 2000-05-12 | 2000-06-28 | Koninkl Philips Electronics Nv | Memory aid |
US20020044152A1 (en) * | 2000-10-16 | 2002-04-18 | Abbott Kenneth H. | Dynamic integration of computer generated and real world images |
US7382405B2 (en) * | 2001-12-03 | 2008-06-03 | Nikon Corporation | Electronic apparatus having a user identification function and user identification method |
AU2003265284A1 (en) * | 2002-07-19 | 2004-02-09 | Dicut Inc. | Face recognition system and method therefor |
JP4314016B2 (ja) | 2002-11-01 | 2009-08-12 | 株式会社東芝 | 人物認識装置および通行制御装置 |
JP4656657B2 (ja) * | 2006-07-31 | 2011-03-23 | キヤノン株式会社 | 撮像装置及びその制御方法 |
US7751597B2 (en) * | 2006-11-14 | 2010-07-06 | Lctank Llc | Apparatus and method for identifying a name corresponding to a face or voice using a database |
US20090003662A1 (en) * | 2007-06-27 | 2009-01-01 | University Of Hawaii | Virtual reality overlay |
US20090074258A1 (en) * | 2007-09-19 | 2009-03-19 | James Cotgreave | Systems and methods for facial recognition |
JP2009081699A (ja) | 2007-09-26 | 2009-04-16 | Toshiba Corp | 電子機器および顔画像抽出制御方法 |
KR100893905B1 (ko) | 2008-07-07 | 2009-04-21 | 주식회사 미래인식 | 생체인식을 이용한 출입관리 방법 및 시스템 |
US8121618B2 (en) * | 2009-10-28 | 2012-02-21 | Digimarc Corporation | Intuitive computing methods and systems |
JP5329480B2 (ja) * | 2010-05-18 | 2013-10-30 | 富士フイルム株式会社 | ヘッドマウントディスプレイ装置 |
JP2011245591A (ja) | 2010-05-27 | 2011-12-08 | Kaneko Seisakusho:Kk | エアークッションドライバー |
KR101669521B1 (ko) | 2010-08-23 | 2016-10-26 | 엘지전자 주식회사 | 이동 단말기 및 그 제어방법 |
KR101338818B1 (ko) * | 2010-11-29 | 2013-12-06 | 주식회사 팬택 | 이동 단말기 및 이를 이용한 정보 표시 방법 |
US20130203443A1 (en) * | 2012-02-03 | 2013-08-08 | Joshua Aaron Heater | Providing information about a location to a mobile device based on the location of the mobile device |
TW201401184A (zh) * | 2012-06-18 | 2014-01-01 | Altek Corp | 智慧提示裝置及其方法 |
-
2013
- 2013-09-02 KR KR1020130105028A patent/KR102108066B1/ko active IP Right Grant
- 2013-10-31 US US14/068,522 patent/US8878750B1/en active Active
- 2013-11-05 EP EP13892589.6A patent/EP3042236B1/en not_active Not-in-force
- 2013-11-05 CN CN201380079288.XA patent/CN105518515B/zh not_active Expired - Fee Related
- 2013-11-05 WO PCT/KR2013/009939 patent/WO2015030299A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101589327A (zh) * | 2007-09-26 | 2009-11-25 | 松下电器产业株式会社 | 光束扫描式显示装置、显示方法、程序以及集成电路 |
US20110153341A1 (en) * | 2009-12-17 | 2011-06-23 | General Electric Company | Methods and systems for use of augmented reality to improve patient registration in medical practices |
US20120210203A1 (en) * | 2010-06-03 | 2012-08-16 | Rhonda Enterprises, Llc | Systems and methods for presenting a content summary of a media item to a user based on a position within the media item |
US20120026191A1 (en) * | 2010-07-05 | 2012-02-02 | Sony Ericsson Mobile Communications Ab | Method for displaying augmentation information in an augmented reality system |
US20130174213A1 (en) * | 2011-08-23 | 2013-07-04 | James Liu | Implicit sharing and privacy control through physical behaviors using sensor-rich devices |
WO2013052855A2 (en) * | 2011-10-07 | 2013-04-11 | Google Inc. | Wearable computer with nearby object response |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106095075A (zh) * | 2016-05-31 | 2016-11-09 | 深圳市元征科技股份有限公司 | 一种信息处理方法及增强现实设备 |
WO2017206452A1 (zh) * | 2016-05-31 | 2017-12-07 | 深圳市元征科技股份有限公司 | 一种信息处理方法及增强现实设备 |
CN106095075B (zh) * | 2016-05-31 | 2019-12-10 | 深圳市元征科技股份有限公司 | 一种信息处理方法及增强现实设备 |
CN110709788A (zh) * | 2017-06-19 | 2020-01-17 | 霍尼韦尔国际公司 | 用于呈现与工业过程、控制和自动化系统或其他系统相关的信息的移动设备上的增强现实用户界面 |
CN110709788B (zh) * | 2017-06-19 | 2022-11-08 | 霍尼韦尔国际公司 | 移动设备上的增强现实用户界面 |
CN108829368A (zh) * | 2018-06-29 | 2018-11-16 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
KR20150026327A (ko) | 2015-03-11 |
US8878750B1 (en) | 2014-11-04 |
EP3042236A1 (en) | 2016-07-13 |
EP3042236B1 (en) | 2019-01-02 |
EP3042236A4 (en) | 2017-04-26 |
CN105518515B (zh) | 2018-11-13 |
KR102108066B1 (ko) | 2020-05-08 |
WO2015030299A1 (en) | 2015-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105518515A (zh) | 头戴式显示设备及其控制方法 | |
US10863216B2 (en) | Terminal using intelligent analysis for decreasing playback time of video | |
KR102243659B1 (ko) | 이동 단말기 및 그 제어 방법 | |
US10104218B2 (en) | Mobile terminal and method for controlling same | |
US8830142B1 (en) | Head-mounted display and method of controlling the same | |
CN104469132B (zh) | 移动终端和该移动终端的控制方法 | |
CN102467574B (zh) | 移动终端及其元数据设置方法 | |
EP2996016B1 (en) | Information processing device and application execution method | |
CN106371782A (zh) | 移动终端及其控制方法 | |
EP3023873A1 (en) | Electronic device and method for providing map service | |
US9454301B2 (en) | Mobile terminal controlled by at least one touch and method of controlling therefor | |
KR102421487B1 (ko) | 인공 지능 기기 | |
CN106506935A (zh) | 移动终端及其控制方法 | |
CN106412222A (zh) | 移动终端及其控制方法 | |
CN107580693A (zh) | 移动终端及其控制方法 | |
CN104238739A (zh) | 基于眼睛跟踪的可见度提高方法和电子装置 | |
CN106713738A (zh) | 移动终端及其控制方法 | |
KR102479499B1 (ko) | 이동 단말기 | |
CN106909274A (zh) | 一种图像显示方法和装置 | |
US20140313218A1 (en) | Method and apparatus for controlling transparency in portable terminal having transparent display unit | |
CN106506792A (zh) | 移动终端及其控制方法 | |
KR20160111756A (ko) | 이동 단말기 및 그의 사진 관리방법 | |
KR20150087024A (ko) | 이동 단말기 및 이의 제어방법 | |
US20190052999A1 (en) | Mobile terminal | |
CN105430250A (zh) | 移动终端及其控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20181113 Termination date: 20201105 |