CN107431778A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN107431778A
CN107431778A CN201680017714.0A CN201680017714A CN107431778A CN 107431778 A CN107431778 A CN 107431778A CN 201680017714 A CN201680017714 A CN 201680017714A CN 107431778 A CN107431778 A CN 107431778A
Authority
CN
China
Prior art keywords
unit
equipment
sensing
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680017714.0A
Other languages
English (en)
Other versions
CN107431778B (zh
Inventor
伊藤智行
塚本竹雄
安倍崇史
小波宗
小波宗一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN107431778A publication Critical patent/CN107431778A/zh
Application granted granted Critical
Publication of CN107431778B publication Critical patent/CN107431778B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0308Detection arrangements using opto-electronic means comprising a plurality of distinctive and separately oriented light emitters or reflectors associated to the pointing device, e.g. remote cursor controller with distinct and separately oriented LEDs at the tip whose radiations are captured by a photo-detector associated to the screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

[问题]为了使得以更适当地方式使用头戴式设备。[解决方案]一种信息处理设备,设置有:获取单元,其获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持所述设备;以及检测单元,其基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的转变。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开涉及信息处理装置、信息处理方法和程序。
背景技术
近年来,除了在期望的地方安装和使用的所谓的静止型设备之外,可以佩戴在用户身体的一部分上使用的诸如个人计算机(PC)的各种设备已经变得普遍。作为用户以这种方式佩戴在他或她身体的一部分上使用的设备,例如已经提出了佩戴在头部上使用的设备(例如头戴式显示器(HMD)和眼镜型(即眼镜式)可佩戴设备)(以下,这些设备可以被称为“头戴式设备”)。例如,专利文献1公开了HMD的一个示例。
引用列表
专利文献
专利文献1:JP 2004-96224A
发明内容
技术问题
在上述头戴式设备当中,存在一些保持用于执行所提供的功能的预定设备(诸如显示单元(例如,显示器)或成像单元),使得预定设备具有相对于头部的至少预定部分(例如眼睛)的预定的位置关系。
另一方面,头戴式设备并不总是以假定的佩戴状态佩戴。还存在头戴式设备以偏离假定的佩戴状态的状态佩戴在头部上的情况,如随着所谓的眼镜滑动。在发生这种滑动的状态下,诸如显示单元或成像单元的预定设备可能不会被一直保持,以便相对于诸如眼睛的预定部分具有预定的位置关系,并且因此,头戴式设备可能难以正确地执行使用预定设备的功能。
关于这样的问题,可以想到通过将头戴式设备牢固地固定到头部来防止所谓的滑动,但是这样做可能使得戴上和脱下头戴式设备更困难,并且可能降低佩戴头戴式设备时的舒适性。
因此,本公开提出了一种信息处理装置、信息处理方法和程序,其使得用户能够以更优选的方式使用头戴式设备。
问题的解决方案
根据本公开,提供了一种信息处理装置,包括:获取单元,被配置为获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持所述设备;以及检测单元,被配置为基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
此外,根据本公开,提供了一种信息处理方法,包括通过处理器:获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持设备;以及基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
此外,根据本公开,提供了一种使计算机执行以下操作的程序:获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持设备;以及基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
发明的有益效果
如上所述,本公开提出了一种信息处理装置、信息处理方法和程序,其使得用户能够以更优选的方式使用头戴式设备。
注意,上述效果不一定是限制性的。连同或代替上述效果,可以实现本说明书中描述的效果中的任何一种或可以从本说明书中掌握的其他效果。
附图说明
[图1]图1图1是用于说明头戴式设备的总体配置的示例的说明图。
[图2]图2是根据本公开的实施例的头戴式设备的功能配置的示例的框图。
[图3]图3是用于说明使用本实施例的头戴式设备的方式的示例的说明图。
[图4]图4是示出根据本实施例的头戴式设备中的一系列处理的流程的示例的流程图。
[图5]图5是用于说明根据示例1的头戴式设备的示例的说明图。
[图6]图6是用于说明根据示例1的头戴式设备的另一示例的说明图。
[图7]图7是用于说明根据示例1的头戴式设备的另一示例的说明图。
[图8]图8是用于说明根据示例2的头戴式设备的概览的说明图。
[图9]图9是用于说明根据示例2的头戴式设备的另一模式的说明图。
[图10]图10是用于说明根据示例2的头戴式设备中的滑动检测结果后的控制示例的说明图。
[图11]图11是根据实施例的头戴式设备的硬件配置的示例。
具体实施方式
在下文中,将参考附图详细描述本发明的优选实施例(一个或多个)。在本说明书和附图中,用相同的附图标记表示具有基本相同的功能和结构的结构元件,并且省略对这些结构元件的重复说明。
注意,将按照以下顺序给出描述。
1.头戴式设备的外观示例
2.功能配置
3.处理
4.示例
4.1.示例1:针对除了眼镜型设备之外的头戴式设备的应用示例
4.2.示例2:滑动检测结果后的控制示例
5.硬件配置
6.结论
<1.头戴式设备的外观示例>
首先,将参考图1描述头戴式设备的总体配置。图1是用于说明头戴式设备的总体配置的示例的说明图,其示出了将头戴式设备配置为所谓的眼镜型(眼镜式)设备的情况的示例。
在图1所示的示例中,头戴式设备1被配置为眼镜型信息处理设备,其中镜片的一部分形成为透射型显示器。另外,图1所示的头戴式设备1具有成像单元13,并且被配置为能够使用由成像单元13拍摄的用户的眼睛u11的图像作为输入信息来基于虹膜认证技术识别用户。
更具体地,如图1所示,例如,头戴式设备1包括信息处理单元10、成像单元13和对应于眼镜架的保持部11。此外,对于头戴式设备1,与眼镜的左右镜片对应的部分中的至少一个被配置为诸如所谓的透射型显示器的显示单元14。头戴式设备1例如基于该配置在显示单元14上呈现将通知给用户的信息作为显示信息v11。
此外,例如,保持部11可以包括鼻垫111a和111b、轮圈(rim)122a和122b、镜腿尖端112a和112b、桥部121以及镜腿124a和124b。注意,镜腿124a的一个端部通过所谓的铰链(铰链机构或连杆机构)连接到轮圈122a的端部(端组件),以便能够打开和闭合(即,使得一个能够相对于另一个旋转)。注意,在下面的描述中,将轮圈122a的端部(端组件)连接到镜腿124a的一个端部(即,对应于端组件和铰链的部分)的部分可以被称为“连接部123a”。类似地,镜腿124b的一个端部通过所谓的铰链连接到轮圈122b的端部(端组件),以便能够打开和闭合。注意,在下面的描述中,将轮圈122b的端部(端组件)连接到镜腿124b的一个端部(即,对应于端组件和铰链的部分)的部分可以被称为“连接部123b”。
在图1所示的示例中,保持部11保持显示单元14(换句话说,与镜片相对应的部分),使得在头戴式设备1被佩戴的情况下,显示单元14位于用户的眼睛u11的前方(即,使得显示单元14和眼睛u11具有预定的位置关系)。另外,在图1所示的示例中,保持部11保持成像单元13,使得在头戴式设备1被佩戴的情况下,眼睛u11位于成像单元13的成像范围内(即,使得成像单元13和眼睛u11具有预定的位置关系)。
更具体地,当图1所示的头戴式设备1被佩戴在用户的头部上时,鼻垫111a和111b紧靠用户的鼻子以便从两侧把鼻子夹在中间。另外,分别位于镜腿124a和124b的尖端的镜腿尖端112a和112b紧靠用户的耳朵。结果,整个头戴式设备1相对于用户的头部保持在预定位置。
此外,显示单元14、成像单元13和信息处理单元10由保持部11保持在预定位置。更具体地,在图1所示的示例中,对应于镜片的部分被固定到保持部11的轮圈122a和122b,并且左右镜片中的至少一个被配置为显示单元14(例如,透射型显示器)。
此外,成像单元13和信息处理单元10被保持部11的镜腿124a保持。此时,当头戴式设备1被佩戴在用户的头部上时,成像单元13被保持在可以拍摄用户的眼睛u11的位置(例如,在眼睛u11的前方)。注意,成像单元13被保持的位置不受限制,只要成像单元13能够拍摄用户的眼睛u11的图像即可。作为具体示例,可以通过在成像单元13和眼睛u11之间插入诸如反射镜的光学系统来调整成像单元13的保持位置。当然,不言而喻,保持信息处理单元10的位置也不受特别限制。
利用上述配置,当头戴式设备1佩戴在用户的头部上时,预定设备(例如,显示单元14和成像单元13)相对于用户的头部被保持在预定的相对位置。
信息处理单元10是用于执行各种处理以实现由头戴式设备1提供的功能的组件。例如,信息处理单元10通过控制显示单元14的操作将要通知用户的信息呈现在显示单元14上作为显示信息v11。
另外,此时,信息处理单元10可以基于所谓的增强现实(AR)技术控制显示信息v11的显示位置,使得在用户通过显示单元14(即,透射型显示器)向前看的情况下,显示信息v11叠加在位于用户的眼睛前面的实际被摄体(例如,建筑物或人)上。
在这种情况下,例如,信息处理单元10使诸如相机的成像单元拍摄用户眼睛前面的图像,并且通过分析拍摄的图像来识别图像中拍摄的真实被摄体。接下来,信息处理单元10基于成像单元、显示单元14以及用户的眼睛u11之间的位置关系来计算用户看到的真实被摄体在显示单元14显示显示信息的显示表面上的位置。然后,信息处理单元10在显示表面上的计算位置显示与识别出的真实被摄体相关的显示信息v11。结果,信息处理单元10使得用户能够感觉到好像与用户通过显示单元14看到的真实被摄体相关的显示信息v11被叠加在真实被摄体上。
此外,作为另一示例,信息处理单元10可以通过控制成像单元13的操作来使成像单元13拍摄用户的眼睛u11的图像以执行虹膜认证。在这种情况下,信息处理单元10可以从由成像单元13拍摄的眼睛u11的图像中提取虹膜,并且基于提取的虹膜的图案执行与用户认证相关的处理(即,基于虹膜认证技术的处理)。
迄今为止,已经参考图1描述了头戴式设备的总体配置。
另一方面,头戴式设备1并不总是以假定的佩戴状态佩戴。也存在头戴式设备1以偏离假定的佩戴状态的状态佩戴在头部上的情况,如随着所谓的眼镜滑动。注意,在下面的描述中,头戴式设备1的佩戴状态偏离假定的佩戴状态的状态可以被统称为“滑动”或“已经发生滑动的状态”。注意,在下面的描述中,将头戴式设备1以假定的佩戴状态(滑动未发生的状态)佩戴的状态称为“参考状态”。
在滑动以这种方式发生的状态下,诸如显示单元14或成像单元13的预定设备可能不总是被保持以便相对于诸如眼睛的预定部分具有预定的位置关系,并且因此,头戴式设备1可能难以正确地执行使用预定设备的功能。
作为具体示例,在发生滑动的状态下,眼睛u11相对于显示单元14的相对位置关系可能与参考状态下的相对位置关系不同。因此,即使信息处理单元10例如基于AR技术控制显示信息v11的显示位置,使得显示信息v11被叠加在已识别出的真实被摄体上,用户可能也感觉不到好像显示信息v11被叠加在真实被摄体上。
此外,作为另一示例,在发生滑动的状态下,眼睛u11相对于拍摄用户的眼睛u11的图像的成像单元13的相对位置关系可能不同于参考状态下的相对位置关系。因此,即使信息处理单元10尝试使用由成像单元13拍摄的图像作为输入信息来基于虹膜认证技术对用户进行认证,眼睛u11的图像也可能不是在适当的状态下被拍摄,并且认证处理可能需要时间,因此认证可能失败。
在这种情况下,例如,可能发生的是在用户没有注意到发生滑动而继续等待用户认证完成的同时,不能在头戴式设备1侧获取用于认证的信息,因此重复与获取信息相关的处理,并且因此认证失败。
关于这样的问题,可以想到通过将头戴式设备1牢固地固定到头部来防止发生所谓的滑动,但是这样做可能使戴上和脱下头戴式设备1更困难,并且可能会降低当佩戴头戴式设备1时的舒适性。
关于这一点,根据本公开的实施例的头戴式设备1在发生滑动时检测滑动,并且通过向用户通知检测结果来促使用户校正滑动(即,促使用户正确地佩戴头戴式设备1)。
更具体地,根据实施例的头戴式设备1在与用户的头部的至少一部分紧靠的位置处(诸如在保持部11的鼻垫111a和111b或镜腿尖端112a和112b处)设置有感测单元(例如,诸如压力传感器的力传感器)。该感测单元被设计成感测该感测单元与用户头部的至少一部分之间的压力。
如果每个感测单元感测到的压力与在正常状态下每个感测单元感测到的压力不同,则头戴式设备1的信息处理单元10基于这种配置确定发生滑动。此外,如果信息处理单元10确定发生滑动,则信息处理单元10通过控制显示单元14的操作通知用户发生滑动来促使用户校正滑动。
此外,如果确定发生滑动,信息处理单元10可以禁止某些功能的执行。更具体地,如果发生滑动,则信息处理单元10可以禁止与虹膜认证相关的处理的执行,并且禁止与拍摄用于虹膜认证的图像(即,眼睛u11的图像)相关的处理的执行。此外,作为另一示例,如果发生滑动,信息处理单元10可以暂时停止基于AR技术显示信息。
注意,在下面的描述中,用于感测信息处理单元10的状态的变化以确定是否发生滑动(例如,感测单元与用户的头部的至少一部分之间的压力)的感测单元可以称为“第一感测单元”。此外,第一感测单元的类型不一定限于诸如压力传感器的力传感器,只要信息处理单元10能够感测信息处理单元10可以检测是否发生滑动的状态的变化即可。作为具体示例,头戴式设备1可以被配置为通过感测不同于压力的状态(诸如亮度(照度)、湿度或温度)的变化来确定是否发生滑动。此外,作为另一示例,头戴式设备1可以被配置为通过具有光学传感器或成像单元等并且感测佩戴状态相对于参考状态的偏差(例如,佩戴位置的偏差)来确定是否发生滑动。
此外,根据实施例的头戴式设备1可以具有设置在保持部11中的用户触摸以保持头戴式设备1的部分处的感测单元(例如静电传感器)。感测单元被设计为感测这种触摸。注意,轮圈122a和122b、桥部121、连接部123a和123b以及镜腿124a和124b例如是用户触摸以保持头戴式设备1的部分。注意,在下文中,用于感测用户触摸保持部11的感测单元可以被称为“第二感测单元”,以将该感测单元与上述第一感测单元区分开。
在这种配置的基础上,例如,在感测到滑动之后感测单元感测到用户触摸保持部11的情况下,头戴式设备1的信息处理单元10识别出用户正在保持头戴式设备1以校正滑动。在这种情况下,例如,信息处理单元10可以基于由设置在鼻垫111a和111b和镜腿尖端112a和112b中的感测单元的检测结果,再次确定是否发生滑动。
注意,不用说,第二感测单元的类型不一定限于用于感测触摸的传感器(诸如静电传感器),只要信息处理单元10能够识别出用户正在保持头戴式设备1以校正滑动即可。
利用根据本实施例的头戴式设备1的上述配置,用户能够在不遵循复杂的程序的情况下,以与佩戴普通眼镜的感觉类似的感觉来佩戴头戴式设备1(即,能够在不失去舒适性的情况下佩戴头戴式设备1)。
此外,即使在头戴式设备1由于滑动发生而难以执行某些功能的情况下,用户也能够通过由头戴式设备1呈现的通知信息来识别正在发生滑动。作为结果,基于由头戴式设备1呈现的通知信息,用户能够通过校正滑动以更优选的方式使用头戴式设备1。
特别地,如果存在用户没有注意到的滑动,则头戴式设备1可能难以适当地获取要检测的信息,并且因此可能变得难以执行基于该信息的功能。即使在这种情况下,根据本实施例的头戴式设备1,用户也能够基于头戴式设备1呈现的通知信息识别出发生滑动(并且因此,由于滑动而导致某些功能变得难以执行)。
迄今为止,已经参考图1描述了根据实施例的头戴式设备1的总体配置。
<2.功能配置>
接下来,将参考图2描述根据实施例的头戴式设备1的功能配置的示例,其中特别关注与滑动检测有关的操作。图2是根据实施例的头戴式设备1的功能配置的示例的框图。
如图2所示,根据实施例的头戴式设备1包括信息处理单元10、第一感测单元110、第二感测单元120、受控设备13、通知单元14和存储单元15。此外,信息处理单元10包括佩戴状态确定单元101、控制单元103和处理执行单元105。
第一感测单元110对应于上述基于图1所述的第一感测单元,并且感测状态的变化,以供信息处理单元10确定是否发生滑动。作为具体示例,第一感测单元110可以包括如下传感器,该传感器被设置在与用户的头部的至少一部分紧靠的位置中(诸如在图1所示的鼻垫111a和111b或镜腿尖端112a和112b中),并且感测传感器与用户的头部的至少一部分之间的压力。
第一感测单元110将要感测的状态的变化的感测结果输出到信息处理单元10。
第二感测单元120对应于上述基于图1所述的第二感测单元,并且感测到状态的变化,以供信息处理单元10识别出用户正在保持头戴式设备1以校正滑动。作为具体示例,第二感测单元120可以包括如下传感器,该传感器被设置在用户触摸以保持头戴式设备1的部分(诸如图1所示的轮圈122a和122b、桥部121、连接部123a和123b以及镜腿124a和124b)中,并感测这种触摸。
第二感测单元120将要检测的状态的变化的感测结果输出到信息处理单元10。
注意,第一感测单元110用于感测要感测的状态的变化的操作不用说根据组成第一感测单元110的设备(诸如,各种传感器和成像单元)而不同。作为具体示例,如果要感测的状态(例如,压力)存在变化,则可以驱动第一感测单元110来感测该变化,并将感测结果输出到信息处理单元10。
此外,作为另一示例,如果感测到该状态的变化,则第一感测单元110可以顺序地监控要感测的状态,并将感测结果输出到信息处理单元10。此外,作为另一示例,第一感测单元110可以顺序地监控要感测的状态,并将监控结果本身输出到信息处理单元10。在这种情况下,信息处理单元10仅需要基于从第一感测单元110输出的监控结果来识别要感测的状态的变化。注意,与第二感测单元120类似,第二感测单元120用于感测要感测的状态的变化的操作不用说根据组成第二感测单元120的设备而不同。
受控设备13表示由信息处理单元10控制的设备。在图1所示的情况中,成像单元13可以对应于受控设备13。例如,受控设备13可以基于信息处理单元10的控制而被控制,使得操作被暂时停止(换句话说,操作被禁止)或者使得恢复已停止的操作。
此外,受控设备13可以被配置为能够获取各种信息,并且可以将获取的信息输出到信息处理单元10。
作为具体示例,将关注受控设备13被配置为拍摄用户的眼睛u11的图像作为用于基于虹膜认证技术认证用户的信息的成像单元的情况。在这种情况下,被配置为成像单元的受控设备13可以将拍摄的眼睛u11的图像输出到信息处理单元10。结果,信息处理单元10能够通过根据从受控设备13获取的眼睛u11的图像提取虹膜,并基于虹膜认证技术分析提取的虹膜的图案来认证用户。
通知单元14是用于向用户通知各种信息的组件。例如,图1所示的显示单元14对应于通知单元14的一个示例。通知单元14可以基于信息处理单元10的控制来发布通知信息。
注意,只要显示单元14被配置为能够向用户通知信息,通知单元14就不一定限于所谓的显示器(诸如图1所示的显示单元14),并且要发布的信息的种类也就不一定限于显示信息。作为具体示例,通知单元14可以包括输出声音的设备(诸如所谓的扬声器),并且可以输出要作为音频信息发布的信息。此外,作为另一示例,通知单元14可以包括振动的设备(诸如所谓的振动器),并且可以通过振动模式通知用户要发布的信息。此外,作为另一示例,通知单元14可以包括诸如发光二极管(LED)的发光设备,并且可以通过诸如点亮或闪烁的发光图案向用户通知要发布的信息。
存储单元15是存储单元,在其中是用于信息处理单元10执行各种功能的存储数据(例如,用于执行应用的各种控制信息和库)。
佩戴状态确定单元101从第一感测单元110获取感测结果,并且基于所获取的感测结果来确定头戴式设备1的佩戴状态。注意,在本说明书中,第一感测单元110将被描述为设置在图1所示的头戴式设备1中的鼻垫111a和111b以及镜腿尖端112a和112b中的每一个中的压力传感器,以便于更好地理解佩戴状态确定单元101的操作。
佩戴状态确定单元101获取指示来自设置在鼻垫111a和111b以及镜腿尖端112a和112b中的第一感测单元110(即,压力传感器)中的每个的压力感测结果的信息。注意,在下面的描述中,设置在鼻垫111a和111b以及镜腿尖端112a和112b中的第一感测单元110可以被统称为“多个第一感测单元110”。佩戴状态确定单元101基于从多个第一感测单元110中的每一个获取的压力感测结果来确定头戴式设备1的佩戴状态。
作为具体示例,如果所述多个第一感测单元110中没有一个基于所获取的感测结果来感测压力,则佩戴状态确定单元101确定头戴式设备1不被佩戴。
此外,如果识别出所述多个第一感测单元110中的至少一个感测到压力,则佩戴状态确定单元101确定头戴式设备1正被佩戴。注意,如果头戴式设备1正被佩戴,则佩戴状态确定单元101根据来自多个第一感测单元110中的每一个的压力感测结果来确定是否发生滑动。
作为具体示例,如果鼻垫111a和111b之间的压力感测结果的差异以及镜腿尖端112a和112b之间的压力感测的差异超过阈值,则佩戴状态确定单元101可以识别头戴式设备1正在被向左倾斜或向右倾斜地佩戴。也就是说,在这种情况下,佩戴状态确定单元101可以确定发生滑动。
类似地,如果鼻垫111a和111b之间以及镜腿尖端112a和112b之间的压力感测结果差异超过阈值,则佩戴状态确定单元101可以识别头戴式设备1被向前或向后倾斜地佩戴。也就是说,在这种情况下,佩戴状态确定单元101可以确定正发生滑动。
此外,作为另一示例,佩戴状态确定单元101可以根据来自多个第一感测单元110中的每一个的压力感测结果的比率来确定是否发生滑动。
此外,作为另一示例,佩戴状态确定单元101可以获取预先获取的参考状态中的压力的感测结果作为参考数据,并且通过将多个第一感测单元110中的每一个的感测结果与该参考数据进行比较来确定是否发生滑动。更具体地,如果参考数据与多个第一检测单元110中的每一个的检测结果之间的差超过阈值,则佩戴状态确定单元101可以识别出发生了滑动。
注意,例如,根据用户的物理特性,头戴式设备1的理想佩戴状态(即,可以是参考状态的佩戴状态)对于每个用户可以是不同的。因此,佩戴状态确定单元101可以记录用于为每个用户确定滑动的参考数据。
在这种情况下,例如,头戴式设备1可以具有用于校准佩戴位置的功能。更具体地,例如,如果用户正在佩戴头戴式设备1并且基于虹膜认证技术执行用户认证,则当该认证成功时的佩戴状态可以能够被记录为参考状态。在这种情况下,佩戴状态确定单元101可以在存在记录参考状态的命令的情况下,从所述多个第一感测单元110中的每一个获取感测结果,并且可以基于获取的感测结果生成参考数据。
注意,使佩戴状态确定单元101确定头戴式设备1的佩戴状态的触发没有特别限制。作为具体示例,佩戴状态确定单元101可以在从所述多个第一感测单元110中的至少一个输出感测结果的情况下执行与确定佩戴状态相关的处理。
此外,作为另一示例,佩戴状态确定单元101可以以预定的定时监控从所述多个第一感测单元110中的每一个输出的感测结果,并且根据监控结果执行与确定佩戴状态相关的处理。
此外,作为另一示例,佩戴状态确定单元101可以基于用户相对于头戴式设备1的操作的感测结果来执行与确定佩戴状态相关的处理,如在用户保持头戴式设备1以校正滑动等的情况下。作为具体示例,佩戴状态确定单元101可以从第二感测单元120获取相对于头戴式设备1的保持部11的触摸的感测结果,并且基于获取的感测结果识别用户相对于头戴式设备1的操作(即,用户正在保持头戴式设备1以校正滑动)。
如上所述,佩戴状态确定单元101确定头戴式设备1的佩戴状态,并将指示确定结果的信息输出到控制单元103。注意,佩戴状态确定单元101对应于“检测单元”的一个示例。
控制单元103从佩戴状态确定单元101获取指示头戴式设备1的佩戴状态的确定结果的信息。控制单元103基于所获取的信息来识别头戴式设备1的佩戴状态,并根据识别结果执行各种处理。
例如,如果识别出发生滑动,则控制单元103控制通知单元14的操作,以发出用于通知用户发生滑动的通知信息。此时,控制单元103可以使通知单元14通知用户促使用户校正滑动的信息作为通知信息。此外,控制单元103可以根据佩戴状态的识别结果识别滑动方向和偏离量,并且使通知单元14发出指示所识别的滑动和偏差量的信息作为通知信息。作为具体示例,控制单元103可以控制被配置为显示器的通知单元14,使得预定显示信息(即,通知信息)的颜色根据识别的偏差量而逐步改变。此外,作为另一示例,控制单元103可以控制配置为振动设备的通知单元14,使得振动强度根据识别的偏差量逐步改变。
此外,在识别到发生滑动的情况下,控制单元103可以控制受控设备13的操作以及稍后描述的处理执行单元105的操作。
例如,将描述控制单元103控制与虹膜认证相关的各种操作的情况的示例。更具体地,在识别出发生滑动的情况下,控制单元103可以使得拍摄眼睛u11的图像的成像单元(即受控设备13)停止与图像拍摄有关的操作。此外,此时,控制单元103可以指示处理执行单元105停止与基于虹膜认证技术的用户认证相关的操作。
此外,作为另一示例,当在头戴式设备1正在执行基于AR技术的显示控制的情况下发生滑动时,存在用户难以感觉好像信息被叠加在用户眼前的真实被摄体上的情况。因此,在执行基于AR技术的显示控制的情况下,例如,如果识别出发生滑动,则控制单元103可以指示处理执行单元105停止基于AR技术的显示控制。
以这种方式,如果识别出发生滑动,则控制单元103可以禁止预定功能的执行。注意,如果识别出滑动已被解决,则控制单元103可以恢复已停止(禁止)功能的执行。
此外,作为另一示例,在识别出发生滑动的情况下,控制单元103可以控制受控设备13的操作,使得受控设备13可以继续操作。
作为具体示例,将描述控制单元103控制与虹膜认证相关的各种操作的情况的示例。例如,假定作为受控设备13的成像单元相对于用户的眼睛u11的相对位置由于发生滑动而闭合,结果,成像单元难以拍摄眼睛u11的图像。
此时,控制单元103可以基于所述多个第一感测单元110中的每一个的感测结果来识别成像单元(受控设备13)相对于眼睛u11的相对位置,并且根据识别结果控制成像单元拍摄图像的方向和视角。作为更具体的示例,控制单元103仅需要基于由所述多个第一感测单元110中的每一个感测到的压力量来计算头戴式设备1已经偏离的方向和偏差量,以及根据计算结果计算控制方向以及成像单元拍摄图像的方向和视角的控制量。
这种控制使得成像单元(受控设备13)能够拍摄眼睛u11的图像,从而能够使头戴式设备1继续进行与虹膜认证相关的各种操作。
处理执行单元105是用于执行各种功能的组件。处理执行单元105经由预定操作单元(图中未示出)接收用户操作,识别由操作内容指示的功能,并且从存储单元15读出用于执行所识别的功能的数据(例如,用于执行应用的控制信息和库)。此外,此时,处理执行单元105可以从受控设备13获取用于执行所识别的功能的信息(例如,设置信息)。另外,处理执行单元105基于从存储单元15读出的数据执行所识别的功能。
此外,作为另一示例,处理执行单元105可以基于来自预定感测单元的感测结果来执行预定功能。作为更具体的示例,处理执行单元105可以接收指示头戴式设备1正佩戴在用户头部上的感测结果,并且执行用于认证用户的功能(例如,虹膜认证功能)。
注意,处理执行单元105可以使通知单元14发出指示各种功能的执行结果的信息。
此外,处理执行单元105可以基于来自控制单元103的命令来控制各种功能的执行。作为具体示例,处理执行单元105可以停止执行由控制单元103指定的功能。另外,处理执行单元105可以基于来自控制单元103的命令来恢复已停止的功能的执行。
注意,上面参考图2描述的头戴式设备1的功能配置只是示例。只要能够实现各种组件的操作,则配置不一定限于上述配置。作为具体示例,头戴式设备1的组件中的至少一些可以设置在与头戴式设备1不同的外部设备中,例如如与诸如智能电话等的信息处理设备一样。
例如,图3是用于说明使用根据本实施例的头戴式设备1的方式的示例的说明图,并且示出了头戴式设备1和诸如智能电话的信息处理设备8经由通信链接的情况的示例。利用图3所示的配置,例如在图2所示的头戴式设备1的组件当中,与信息处理单元10对应的组件可以设置在信息处理设备8侧。此外,利用图3所示的结构,头戴式设备1可以使用信息处理设备8的输出单元(例如,显示器)作为用于发出通知信息的组件(即,通知单元14)。
此外,作为另一示例,图2所示的头戴式设备1的组件中的至少一些可以设置在经由网络连接到头戴式设备1的服务器等中。
迄今为止,已经参考图2描述了根据本实施例的头戴式设备1的功能配置的示例,其中特别关注与滑动的检测有关的操作。
<3.处理>
接下来,将参考图4描述根据实施例的头戴式设备1中的一系列处理的流程的示例,其中特别关注与滑动的检测有关的操作。图4是示出根据本实施例的头戴式设备1中的一系列处理的流程的示例的流程图。
(步骤S101)
信息处理单元10的佩戴状态确定单元101获取指示来自设置在鼻垫111a和111b以及镜腿尖端112a和112b中的第一感测单元110(压力传感器)中的每一个的压力感测结果的信息。
注意,如果所述多个第一感测单元110中没有一个感测到压力(步骤S101中为否),则佩戴状态确定单元101确定头戴式设备1未被佩戴,并且该系列处理结束。
(步骤S103)
此外,如果识别到所述多个第一感测单元110中的至少一个感测到压力(步骤S101中为是),则佩戴状态确定单元101确定头戴式设备1正在被佩戴。
(步骤S105)
注意,如果头戴式设备1正在被佩戴,则佩戴状态确定单元101根据来自所述多个第一感测单元110中的每一个的压力感测结果来确定是否发生滑动。注意,只要没有从第一感测单元110输出感测结果(步骤S105中为否),佩戴状态确定单元101就可以识别出佩戴状态没有变化。
(步骤S107)
当佩戴状态确定单元101从所述多个第一感测单元110中的至少一个获取压力感测结果(换句话说,压力变化的感测结果)时,佩戴状态确定单元101根据感测结果确定是否发生滑动。
例如,佩戴状态确定单元101可以获取预先获取的参考状态下的压力的感测结果作为参考数据,并且通过将所述多个第一感测单元110中的每一个的感测结果与该参考值进行比较来确定是否发生滑动。更具体地,如果参考数据与所述多个第一感测单元110中的每一个的感测结果之间的差超过阈值,则佩戴状态确定单元101可以识别出发生滑动。
因此,如果发生滑动,则佩戴状态确定单元101能够检测到该滑动。
如上所述,佩戴状态确定单元101确定头戴式设备1的佩戴状态,并向控制部103输出表示确定结果的信息。控制单元103从佩戴状态确定单元101获取表示头戴式设备1的佩戴状态的确定结果的信息,并且基于所获取的信息来识别头戴式设备1的佩戴状态。
(步骤S111)
如果识别出发生滑动(步骤S109中为是),则控制单元103控制通知单元14的操作,以发出用于通知用户发生滑动的通知信息。此时,控制单元103可以使通知单元14通知用户促使用户校正滑动的信息作为通知信息。
(步骤S113)
头戴式设备1在贯穿头戴式设备1被用户佩戴的时段期间(步骤S113中为否)继续步骤S103至S111的一系列处理。
此外,如果识别出状态已经转移到所述多个第一感测单元110中没有一个感测到压力的状态,则佩戴状态确定单元101识别出头戴式设备1被佩戴的状态已经被取消(即,头戴式设备1已经从用户的头部移除)。如果头戴式设备1被佩戴的状态已被取消(步骤S113中为是),则头戴式设备1结束一系列处理。
迄今为止,已经参考图4描述了根据本实施例的头戴式设备1中的一系列处理的流程的示例,其中特别关注与滑动的检测有关的操作。
<4.示例>
接下来,将描述根据本实施例的头戴式设备1的示例。
[4.1.示例1:对于除了眼镜型设备之外的头戴式设备的应用示例]
在上述实施例中,描述了眼镜型头戴式设备1的示例。另一方面,可以应用通过根据实施例的头戴式设备1的与佩戴状态的检测(特别是滑动的检测)有关的控制的头戴式设备并不一定限于眼镜型设备。因此,将描述可以应用与上述佩戴状态的检测有关的控制的头戴式设备1的另一示例,作为示例1。
(HMD)
例如,图5是用于说明根据示例1的头戴式设备的示例的说明图,其示出了头戴式设备被配置为HMD的情况的示例。注意,在下文中,图5所示的头戴式设备可以被称为“头戴式设备2”,以将该头戴式设备与上述眼镜型头戴式设备1区分开。
如图5所示,头戴式设备2通过保持由附图标记211、212和213表示的部分而保持到用户u10的头部。
保持部211被设置成以便在头戴式设备2被佩戴在用户u10的头部上的情况下,紧靠用户u10的头部(前额)的前面。此外,保持部212被设置成以便在头戴式设备2被佩戴在用户u10的头部上的情况下,紧靠用户u10的头部的后部的上部。此外,保持部213被设置成以便在头戴式设备2被佩戴在用户u10的头部上的情况下,紧靠用户u10的头部的后部的下部。
以这种方式,头戴式设备2在三个点处(即通过保持部211、212和213)被保持到用户u10的头部。
因此,图5所示的头戴式设备2仅需要在保持部211、212和213处设置有上述第一检测单元110,并且仅需要基于第一感测单元110中的每一个的感测结果检测相对于用户u10的头部的佩戴状态(以及因此的滑动)。
(护目镜)
另外,图6是用于说明根据示例1的头戴式设备的另一示例的说明图,其示出了头戴式设备被配置为护目镜型设备的情况的示例。注意,在下文中,图6所示的头戴式设备可以被称为“头戴式设备3”,以将该头戴式设备与上述其他头戴式设备区分开。
如图6所示,头戴式设备3通过由附图标记311和312表示的保持部保持到用户u10的头部。
保持部311被设置成以便在头戴式设备3被佩戴在用户u10的头部上的情况下,紧靠用户u10的眼睛周围的区域。此外,保持部312例如被配置为具有弹性的带状构件(诸如橡胶、布或树脂),并且被配置成使得至少一部分紧靠用户u10的头部的一部分。
以这种方式,头戴式设备3通过保持部312的弹力、通过保持部311紧靠用户u10的眼睛周围的区域以及保持部312包围在用户u10的头部周围而保持到用户u10的头部。
因此,图6所示的头戴式设备3例如只需要在保持部311和312处设置上述第一感测单元110,并且仅需要基于第一感测单元110中的每一个的感测结果检测相对于用户u10的头部的佩戴状态(以及因此的滑动)。
(附件类型)
另外,图7是用于说明根据示例1的头戴式设备的另一示例的说明图。图7示出了被配置为所谓的附件的头戴式设备的示例,其通过附着到佩戴在头上的构件(设备)(诸如眼镜)被间接地保持在相对于用户u10的头部的预定相对位置。注意,在下文中,图7所示的头戴式设备可以被称为“头戴式设备4”,以将该头戴式设备与上述其他头戴式设备区分开。
在图7所示的示例中,头戴式设备4被配置成能够附着到眼镜型设备1'。更具体地,头戴式设备4包括保持部411和412,并通过保持部411和412保持在设备1'上的预定位置。
因此,图7所示的头戴式设备4例如可以在保持部411和412处设置有上述第一感测单元110,并且可以基于第一感测单元110中的每一个的感测结果来检测相对于用户u10的头部的佩戴状态。作为结果,如果相对于眼镜型设备1'的佩戴位置偏离预定的佩戴位置,则头戴式设备4能够检测该偏差。
此外,头戴式设备4可以被配置为能够通过与眼镜型设备1'链接来识别眼镜型设备1'的滑动。更具体地,上述第一感测单元110仅需要设置在眼镜型设备1'的鼻垫111a和111b以及镜腿尖端112a和112b中,并且头戴式设备4仅需要从第一感测单元110获取检测结果。利用这样的配置,头戴式设备4可以通过眼镜型设备1'相对于用户u10的头部的佩戴状态,以及头戴式设备4相对于眼镜型设备1'的附着状态来检测是否发生滑动。
此外,即使头戴式设备被配置为眼镜型设备,头戴式设备也可以被配置为所谓的单眼型设备,其中例如仅在左侧或右侧中的一侧设置镜片。在这种情况下,根据用于将头戴式设备保持到用户u10的头部的保持部的模式,仅需要适当地改变设置有第一感测单元110的位置。
作为具体示例,头戴式设备也可以被保持在用户u10的头部的顶部,如所谓的耳机一样。此外,作为另一示例,头戴式设备可以通过钩住用户耳朵周围的钩形保持部而被保持到用户u10的耳朵。此外,作为另一示例,头戴式设备可以通过配置为能够插入到用户u10的耳孔中的保持部来保持到用户u10的耳朵。
迄今为止,已经参考图5至7描述了根据实施例的头戴式设备的其他示例,作为示例1。
[4.2.示例2:滑动检测结果后的控制示例]
接下来,将描述根据实施例的头戴式设备中的滑动检测结果之后的控制示例,作为示例2。注意,在本说明书中,将描述其中通过被称为所谓的头部安装套件(即,用于将成像设备保持在相对于头部的预定位置的构件)将能够拍摄图像的成像设备佩戴在头部上使用的情况作为示例。
例如,图8是用于说明根据示例2的头戴式设备的概要的说明图。注意,图8中所示的头戴式设备可以被称为“头戴式设备5”,以将该头戴式设备与上述其他头戴式设备区分开。
如图8所示,头戴式设备5包括拍摄图像的成像设备53和将成像设备53保持到用户u10的头部的保持部51。此外,保持部51包括带部511和附着部512。
例如,带部511被配置为具有弹性的带状构件(诸如橡胶、布或树脂),并且被配置为使得至少一部分紧靠用户u10的头部的一部分。由于带部511被缠绕在用户u10的头部周围,因此带部511通过带部511的弹力附着到用户u10的头部。此外,附着部512被保持到带部511的一部分。也就是说,附着部512通过附着到头部的带部511被相对于用户u10的头部保持在预定的相对位置。
此外,成像设备53的至少一部分被配置为能够附着到附着部512。注意,用于将成像设备53附着到附着部512的配置不受特别限制。作为具体示例,成像设备53可以通过将成像设备53的至少一部分安装到附着部512而附着到附着部512。另外,作为另一示例,成像设备53可以利用附着部512的至少一个构件附着到抓握成像设备53的附着部512。
利用这样的配置,成像设备53相对于附着部512被保持在预定的相对位置,并且因此成像设备53相对于用户u10的头部被保持在预定的相对位置。
另外,图8所示的头戴式设备5具有设置在带部511和附着部512中的上述第一感测单元110。利用这种配置,头戴式设备5能够基于第一感测单元110中的每一个的感测结果检测相对于用户u10的头部的佩戴状态(以及因此的滑动)。注意,如上所述,第一感测单元110的类型不受特别限制,并且不言而喻,可以根据带部511和附着部512的特性适当地选择各种感测单元。
注意,图8中所示的示例只是示例。只要头戴式设备5能够将成像设备53保持在相对于用户u10的头部的预定的相对位置,头戴式设备5的配置就不必受限制。
例如,图9是用于说明根据示例2的头戴式设备的另一模式的说明图。注意,图9所示的头戴式设备可以被称为“头戴式设备5”,以将该头戴式设备与图8所示的头戴式设备区分开。
如图9所示,头戴式设备5'通过附着到佩戴在用户u10的头部上的头盔u13而被保持在相对于用户u10的头部的预定的相对位置。
如图9所示,头戴式设备5'包括成像设备53和将成像设备53保持到头盔u13上的保持部52。此外,保持部52包括带部521和附着部522。
带部521被配置为具有弹性的带状构件(例如橡胶,布或树脂),并且通过缠绕在头盔u13的一部分周围而附着到头盔u13。此外,附着部522被保持到带部521的一部分上。即,附着部522相对于头盔u13被保持在预定的相对位置,并且因此附着部522通过附着到头盔u13的带部521而被保持在相对于用户u10的头部的预定的相对位置。
此外,成像设备53的至少一部分能够附着到附着部522。注意,用于将成像设备53附着到附着部522的配置不受特别限制,就像上述考图8所述的附着部512一样。
利用这样的结构,成像设备53相对于附着部522被保持在预定的相对位置,并且因此成像设备53相对于用户u10的头部被保持在预定的相对位置。
此外,图9所示的头戴式设备5'具有设置在带部521和附着部522中的上述第一感测单元110。利用这种配置,头戴式设备5'能够检测相对于头盔u13的附着状态,并且因此能够基于第一感测单元110中的每一个的感测结果来检测相对于用户u10的头部的佩戴状态(以及因此的滑动)。
接下来,将参考图10描述在使用根据图8所示的示例的头戴式设备5的情况下,通过头戴式设备5的在滑动检测结果之后的控制示例。图10是用于说明在根据示例2的头戴式设备中的滑动检测结果之后的控制示例的说明图。
在图10中,附图标记5a表示头戴式设备5佩戴在用户u10的头部上,并且没有发生滑动的状态(即参考状态)。另外,附图标记L11示意性地表示成像设备53拍摄图像的方向。
在图10所示的示例中,头戴式设备5经由网络连接到信息处理设备8,并且通过网络将由成像设备53拍摄的图像发送到信息处理设备8。此外,信息处理设备8将从头戴式设备5发送的图像显示到诸如显示器的显示部分。结果,用户能够经由信息处理设备8确认由成像设备53拍摄的图像(即,由附图标记L11表示的方向上的图像)。
接下来,将关注附图标记5b表示的状态。由附图标记5b表示的状态示出了由于冲击或振动等而发生滑动并且成像设备53相对于用户u10的头部的相对位置已经改变的情况(即,头戴式设备5的佩戴状态已经改变的情况)的一个示例。
在由附图标记5b表示的状态下,成像设备53由于滑动而指向与成像设备53处于由附图标记5a表示的状态不同的方向上,使得难以在由用户u10假定的方向上拍摄图像。
此时,头戴式设备5根据设置在带部511和附着部512中的第一感测单元110的感测结果识别出发生滑动,并通过发出通知信息来通知用户发生滑动。作为具体示例,头戴式设备5可以通过振动诸如设置在保持部51的一部分上的振动器的振动部来通知用户发生滑动。另外,作为另一示例,头戴式设备5可以通过在信息处理设备8的显示部等上显示预定的显示信息v13来通知用户发生滑动。
接下来,将关注由附图标记5c表示的状态。由附图标记5c表示的状态示出了通过用户重新附着头戴式设备5已经解决滑动的状态。
更具体地,如果在确定发生滑动之后佩戴状态基于来自第一感测单元110的感测结果而改变,则头戴式设备5再次确定是否发生滑动。如果此时确定没有发生滑动,则头戴式设备5能够识别出用户已经校正了滑动。在这种情况下,例如,头戴式设备5可以通知用户滑动已被解决。
例如,在图10所示的示例中,头戴式设备5通过在信息处理设备8的显示部分等上显示预定显示信息v15来通知用户滑动已被解决。
迄今为止,已经参考图8至10描述了通过根据本实施例的头戴式设备的滑动检测结果之后的控制示例,作为示例2。
<5.硬件配置>
接下来,将参考图11描述根据本公开的实施例的头戴式设备1的硬件配置的示例。图11是根据本公开的实施例的头戴式设备1的硬件配置的示例。
如图11所示,根据本实施例的头戴式设备1包括处理器901、存储器903、储存器905、操作设备907、通知设备909、感测设备911、成像设备913和总线917。另外,头戴式设备1可以包括通信设备915。
处理器901可以是例如中央处理单元(CPU)、图形处理单元(GPU)、数字信号处理器(DSP)或片上系统(SOC),并且执行头戴式设备中的各种处理。例如,处理器901可以由用于执行各种计算处理的电子电路形成。注意,上述的佩戴状态确定单元101、控制单元103和处理执行单元105可以由处理器901来实现。
存储器903包括随机存取存储器(RAM)和只读存储器(ROM),并且存储要由处理器901执行的数据和程序。存储器905可以包括诸如半导体存储器或硬盘的存储介质。例如,上述存储单元15可以由存储器903和储存器905中的至少一个或两者的组合来实现。
操作设备907具有生成输入信号以供用户执行期望的操作的功能。例如,操作设备907可以被配置为触摸面板。此外,作为另一示例,操作设备907可以由例如用于用户输入信息的输入部形成,所述输入部诸如按钮、开关和键盘、以及基于用户的输入生成输入信号并将该输入信号提供给处理器901的输入控制电路等。
通知设备909是输出设备的一个示例,并且可以是诸如液晶显示器(LCD)设备或有机发光二极管(OLED)显示器的设备。在这种情况下,通知设备909可以通过显示屏幕来向用户通知预定信息。
此外,通知设备909可以是通过输出预定音频信号来向用户通知预定信息的设备,诸如扬声器。
注意,上面所示的通知设备909的示例仅仅是一个示例。通知设备909的模式没有特别限制,只要能够向用户通知预定信息即可。作为具体示例,通知设备909可以是通过点亮或闪烁模式向用户通知预定信息的设备。注意,上述通知单元14可以由通知设备909实现。
成像设备913包括拍摄被摄体并获得拍摄图像的数字数据的成像元件,诸如互补金属氧化物半导体(CMOS)图像传感器或电荷耦合器件(CCD)图像传感器。也就是说,成像设备913具有根据处理器901的控制经由诸如镜片的光学系统拍摄静止图像或运动图像的功能。成像设备913可以将拍摄的图像存储在存储器903和储存器905中。注意,如果上述受控设备13是成像单元,则可以通过成像设备913来实现成像单元。
感测设备911是用于感测各种状态的设备。感测设备911可以由用于感测各种状态的传感器形成,例如压力传感器、照度传感器或湿度传感器。此外,感测设备911可以由用于感测预定被摄体的接触或接近的传感器(诸如静电传感器)形成。此外,感测设备911可以由用于检测预定情况的位置和取向的变化的传感器(诸如加速度传感器或角速度传感器)形成。此外,感测设备911可以由用于感测预定被摄体的传感器(诸如所谓的光学传感器)形成。注意,上述第一感测单元110和第二感测单元120可以由感测设备911实现。
通信设备915是设置在头戴式设备1中的通信装置,并且通过网络与外部设备进行通信。通信设备915是有线或无线通信接口。如果通信设备915被配置为无线通信接口,则通信设备915可以包括通信天线、射频(RF)电路和基带处理器等。
通信设备915具有对从外部设备接收的信号执行各种信号处理的功能,并且可以将从接收到的模拟信号生成的数字信号提供给处理器901。
总线917将处理器901、存储器903、储存器905、操作设备907、通知设备909、感测设备911、成像设备913和通信设备915相互连接。总线917可以包括多种类型的总线。
此外,还可以创建用于实现与其中上述头戴式设备1具有硬件(诸如内置于计算机中的处理器、存储器和储存器)的配置的功能类似的功能的程序。而且,还可以提供记录该程序的计算机可读存储介质。
<6.总结>
如上所述,根据本实施例的头戴式设备设置有用于感测与通过保持部的保持状态有关的信息的感测单元(例如压力传感器),所述保持部将预定设备(诸如成像单元或显示单元)保持于相对于用户的头部预定的相对位置。基于这样的配置,根据实施例的头戴式设备基于通过感测单元的感测结果来确定头戴式设备相对于用户的头部的佩戴状态(特别是是否发生滑动)并且根据确定结果执行各种处理。
利用这样的配置,例如如果头戴式设备发生滑动,使得难以执行某些功能,则头戴式设备可以通过向用户呈现预定信息来通知用户发生滑动。结果,用户能够基于由头戴式设备呈现的通知信息来识别发生滑动,并且因此可以通过校正滑动以更优选的方式使用头戴式设备。
特别地,如果存在用户没有注意到的滑动,则头戴式设备可能难以适当地获取要检测的信息,并且因此可能变得难以执行基于该信息的功能。即使在这种情况下,根据本实施例的头戴式设备,用户能够基于由头戴式设备呈现的通知信息识别出发生了滑动(并且因此一些功能由于滑动而变得难以执行)。
此外,利用诸如上述配置的配置,根据实施例的头戴式设备不一定需要用于将头戴式设备本身牢固地固定到用户的头部的结构。因此,用户能够在不遵循复杂的过程的情况下,以佩戴普通眼镜的感觉类似的感觉来佩戴根据本实施例的头戴式设备(即,能够在不失去舒适性的情况下佩戴头戴式设备)。
以上已经参考附图描述了本公开的优选实施例(一个或多个),而本公开不限于上述示例。本领域技术人员可以在随附权利要求的范围内发现各种改变和修改,并且应当理解,它们将自然地落入本公开的技术范围内。
此外,本说明书中描述的效果仅仅是示例性或示例性的效果,并不是限制性的。也就是说,连同或代替上述效果,根据本公开的技术可以实现本领域技术人员从本说明书的描述中清楚的其他效果。
另外,本技术也可以如下配置。
(1)一种信息处理装置,包括:
获取单元,被配置为获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持所述设备;以及
检测单元,被配置为基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
(2)根据(1)所述的信息处理装置,
其中所述检测单元根据基于所述感测结果的所述头部中的紧靠所述保持部的至少一部分与所述保持部之间的压力变化,检测所述偏差。
(3)根据(1)或(2)所述的信息处理装置,
其中所述检测单元基于多个感测单元中的每一个的感测结果检测偏差。
(4)根据(1)至(3)中任一项所述的信息处理装置,
其中由所述保持部保持的所述设备的至少一部分是以所述用户的头部的至少一部分为目标,并且获取与该目标有关的信息的设备,以及
检测单元,所述检测单元检测设备和目标之间的相对位置关系的偏差,作为偏差。
(5)根据(4)所述的信息处理装置,
其中所述设备是以用户的眼睛为被摄体拍摄该被摄体的图像的成像单元。
(6)根据(1)至(5)中任一项所述的信息处理装置,包括:
控制单元,被配置为根据偏差的检测结果执行预定的控制。
(7)根据(6)所述的信息处理装置,
其中所述控制单元根据偏差的检测结果使得预定输出部发出通知信息。
(8)根据(6)所述的信息处理装置,
其中所述控制单元根据偏差的检测结果来控制与预定认证有关的操作。
(9)根据(6)所述的信息处理装置,
其中所述控制单元根据偏差的检测结果来禁止预定功能的执行。
(10)根据(6)所述的信息处理装置,
其中所述控制单元根据偏差的检测结果来控制所述设备的操作。
(11)根据(1)至(10)中任一项所述的信息处理装置,
其中所述检测单元接收来自设置在所述保持部上并且与所述感测单元不同的另一感测单元的感测结果,并且检测所述偏差。
(12)根据(1)至(11)中任一项所述的信息处理装置,包括:
保持部,
其中所述保持部在所述用户的前方保持显示部作为所述设备的至少一部分,以便遮掩所述用户的视场的至少一部分。
(13)根据(1)至(12)中任一项所述的信息处理装置,
其中所述感测单元设置在所述保持部的至少一部分上。
(14)根据(1)至(13)中任一项所述的信息处理装置,
其中所述保持部将所述设备保持在佩戴在用户的头部的至少一部分上的佩戴部。
(15)根据(1)至(14)中任一项所述的信息处理装置,包括:
感测单元。
(16)一种信息处理方法,包括通过处理器:
获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持设备;以及
基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
(17)一种程序,所述程序致使计算机执行:
获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持设备;以及
基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
附图标记列表
1 头戴式设备
10 信息处理单元
101 佩戴状态确定单位
103 控制单元
105 处理执行单元
11 保持部
13 控制设备
14 通知单位
15 存储单元
110 第一感测单元
120 第二感测单元

Claims (17)

1.一种信息处理装置,包括:
获取单元,被配置为获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持所述设备;以及
检测单元,被配置为基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
2.根据权利要求1所述的信息处理装置,
其中所述检测单元根据基于所述感测结果的所述头部中的紧靠所述保持部的至少一部分与所述保持部之间的压力变化,检测所述偏差。
3.根据权利要求1所述的信息处理装置,
其中所述检测单元基于多个感测单元中的每一个的感测结果检测偏差。
4.根据权利要求1所述的信息处理装置,
其中由所述保持部保持的所述设备的至少一部分是以所述用户的头部的至少一部分为目标,并且获取与该目标有关的信息的设备,以及
检测单元,所述检测单元检测设备和目标之间的相对位置关系的偏差,作为偏差。
5.根据权利要求4所述的信息处理装置,
其中所述设备是以用户的眼球为被摄体拍摄该被摄体的图像的成像单元。
6.根据权利要求1所述的信息处理装置,包括:
控制单元,被配置为根据偏差的检测结果执行预定的控制。
7.根据权利要求6所述的信息处理装置,
其中所述控制单元根据偏差的检测结果使得预定输出部发出通知信息。
8.根据权利要求6所述的信息处理装置,
其中所述控制单元根据偏差的检测结果来控制与预定认证有关的操作。
9.根据权利要求6所述的信息处理装置,
其中所述控制单元根据偏差的检测结果来禁止预定功能的执行。
10.根据权利要求6所述的信息处理装置,
其中所述控制单元根据偏差的检测结果来控制所述设备的操作。
11.根据权利要求1所述的信息处理装置,
其中所述检测单元接收来自设置在所述保持部上并且与所述感测单元不同的另一感测单元的感测结果,并且检测所述偏差。
12.根据权利要求1所述的信息处理装置,包括:
保持部,
其中所述保持部在所述用户的前方保持显示部作为所述设备的至少一部分,以便遮掩所述用户的视场的至少一部分。
13.根据权利要求1所述的信息处理装置,
其中所述感测单元设置在所述保持部的至少一部分上。
14.根据权利要求1所述的信息处理装置,
其中所述保持部将所述设备保持在佩戴在用户的头部的至少一部分上的佩戴部。
15.根据权利要求1所述的信息处理装置,包括:
感测单元。
16.一种信息处理方法,包括通过处理器:
获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持设备;以及
基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
17.一种程序,所述程序致使计算机执行:
获取来自感测单元的感测结果,所述感测单元感测与通过保持部的预定设备的保持状态有关的信息,所述保持部用于相对于用户的头部的至少一部分直接或间接地保持设备;以及
基于所获取的感测结果来检测设备的保持状态与预先设定的预定保持状态之间的偏差。
CN201680017714.0A 2015-04-22 2016-03-03 信息处理装置、信息处理方法和程序 Active CN107431778B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015-087332 2015-04-22
JP2015087332 2015-04-22
PCT/JP2016/056668 WO2016170854A1 (ja) 2015-04-22 2016-03-03 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
CN107431778A true CN107431778A (zh) 2017-12-01
CN107431778B CN107431778B (zh) 2021-06-22

Family

ID=57143909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680017714.0A Active CN107431778B (zh) 2015-04-22 2016-03-03 信息处理装置、信息处理方法和程序

Country Status (4)

Country Link
US (1) US20180082656A1 (zh)
JP (1) JP6699658B2 (zh)
CN (1) CN107431778B (zh)
WO (1) WO2016170854A1 (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003345B2 (en) 2016-05-16 2021-05-11 Google Llc Control-article-based control of a user interface
WO2018139111A1 (ja) * 2017-01-26 2018-08-02 シャープ株式会社 ヘッドマウントディスプレイおよびヘッドマウントディスプレイシステム
JP2018142857A (ja) * 2017-02-28 2018-09-13 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018196019A (ja) * 2017-05-18 2018-12-06 株式会社シフト アタッチメント装置
WO2020017358A1 (ja) * 2018-07-20 2020-01-23 ソニー株式会社 装着具
JP7058621B2 (ja) * 2019-02-22 2022-04-22 株式会社日立製作所 映像記録装置およびヘッドマウントディスプレイ
CN113924568A (zh) 2019-06-26 2022-01-11 谷歌有限责任公司 基于雷达的认证状态反馈
CN113906367B (zh) 2019-07-26 2024-03-29 谷歌有限责任公司 通过imu和雷达的认证管理
CN113853567B (zh) 2019-07-26 2024-03-29 谷歌有限责任公司 基于imu和雷达降低状态
US11868537B2 (en) 2019-07-26 2024-01-09 Google Llc Robust radar-based gesture-recognition by user equipment
US11385722B2 (en) 2019-07-26 2022-07-12 Google Llc Robust radar-based gesture-recognition by user equipment
WO2021040745A1 (en) 2019-08-30 2021-03-04 Google Llc Input methods for mobile devices
KR102661485B1 (ko) 2019-08-30 2024-04-29 구글 엘엘씨 일시정지된 레이더 제스처에 대한 시각적 표시자
US11467672B2 (en) 2019-08-30 2022-10-11 Google Llc Context-sensitive control of radar-based gesture-recognition
CN113874812A (zh) * 2019-08-30 2021-12-31 谷歌有限责任公司 用于多输入模式的输入模式通知
JPWO2022244372A1 (zh) * 2021-05-21 2022-11-24

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211403A (ja) * 2000-01-25 2001-08-03 Mixed Reality Systems Laboratory Inc 頭部装着型表示装置及び頭部装着型表示システム
JP2004233425A (ja) * 2003-01-28 2004-08-19 Mitsubishi Electric Corp 画像表示装置
US20060293867A1 (en) * 2005-06-08 2006-12-28 Wallner Edward J Monitoring apparatus for a helmet
US20130235169A1 (en) * 2011-06-16 2013-09-12 Panasonic Corporation Head-mounted display and position gap adjustment method
US20140341441A1 (en) * 2013-05-20 2014-11-20 Motorola Mobility Llc Wearable device user authentication
US20140375680A1 (en) * 2013-06-24 2014-12-25 Nathan Ackerman Tracking head movement when wearing mobile device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1032770A (ja) * 1996-07-12 1998-02-03 Canon Inc 画像表示装置
KR20110101944A (ko) * 2010-03-10 2011-09-16 삼성전자주식회사 3d 안경, 3d 안경의 구동방법 및 3d 영상 제공 시스템
JP2014502732A (ja) * 2010-12-08 2014-02-03 リファイン・フォーカス・エルエルシー 調節可能な眼鏡、レンズおよびフレーム
EP2821839A1 (de) * 2013-07-03 2015-01-07 Airbus Defence and Space GmbH HMD-Vorrichtung mit einstellbarer Eye-Tracking-Einrichtung
US9754415B2 (en) * 2014-03-27 2017-09-05 Microsoft Technology Licensing, Llc Display relative motion compensation
CN106471438A (zh) * 2014-07-09 2017-03-01 诺基亚技术有限公司 设备控制

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211403A (ja) * 2000-01-25 2001-08-03 Mixed Reality Systems Laboratory Inc 頭部装着型表示装置及び頭部装着型表示システム
JP2004233425A (ja) * 2003-01-28 2004-08-19 Mitsubishi Electric Corp 画像表示装置
US20060293867A1 (en) * 2005-06-08 2006-12-28 Wallner Edward J Monitoring apparatus for a helmet
US20130235169A1 (en) * 2011-06-16 2013-09-12 Panasonic Corporation Head-mounted display and position gap adjustment method
US20140341441A1 (en) * 2013-05-20 2014-11-20 Motorola Mobility Llc Wearable device user authentication
US20140375680A1 (en) * 2013-06-24 2014-12-25 Nathan Ackerman Tracking head movement when wearing mobile device

Also Published As

Publication number Publication date
CN107431778B (zh) 2021-06-22
JP6699658B2 (ja) 2020-05-27
WO2016170854A1 (ja) 2016-10-27
JPWO2016170854A1 (ja) 2018-02-15
US20180082656A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
CN107431778A (zh) 信息处理装置、信息处理方法和程序
CN101470460B (zh) 一种应用计算机时对视力进行保护的方法和计算机
CN106471435B (zh) 检测可穿戴装置的状态
US20170108918A1 (en) Second Screen Devices Utilizing Data from Ear Worn Device System and Method
US8587514B2 (en) Device for controlling an external unit
JP6470749B2 (ja) 筆記モード又は読書モードを確定する装置及び方法
US11792500B2 (en) Eyewear determining facial expressions using muscle sensors
US20140292637A1 (en) Method for adjusting head-mounted display adaptively and head-mounted display
WO2015123167A1 (en) Ophthalmoscope device
US10718957B2 (en) Eye-mounted device including a femtocamera and femtoprojector
KR101885473B1 (ko) 시각 장애인 보조용 스마트 글래스
CN113160520B (zh) 数据处理方法、装置、存储介质及智能眼镜
US11774764B2 (en) Digital glasses having display vision enhancement
US11157078B2 (en) Information processing apparatus, information processing method, and program
US20160091717A1 (en) Head-mounted display system and operation method thereof
US11216066B2 (en) Display device, learning device, and control method of display device
EP3384845B1 (en) Calibration method, portable device, and program
JP7130765B2 (ja) ヘッドマウントディスプレイ及びヘッドマウントディスプレイシステム
US10459255B2 (en) Compensating visual impairment by using an eye-mounted display
US20190380637A1 (en) Information processing method, information processing device, and program
US11137600B2 (en) Display device, display control method, and display system
JP6638325B2 (ja) 表示装置、及び、表示装置の制御方法
CN110998673A (zh) 信息处理装置、信息处理方法和计算机程序
CN116615704A (zh) 用于姿势检测的头戴式设备
CN113995416A (zh) 用于显示眼镜中的用户界面的装置和方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant