CN111213111A - 一种可穿戴式设备及其中的方法 - Google Patents

一种可穿戴式设备及其中的方法 Download PDF

Info

Publication number
CN111213111A
CN111213111A CN201780095984.8A CN201780095984A CN111213111A CN 111213111 A CN111213111 A CN 111213111A CN 201780095984 A CN201780095984 A CN 201780095984A CN 111213111 A CN111213111 A CN 111213111A
Authority
CN
China
Prior art keywords
display screen
wearable device
processing circuit
information
synchronization signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780095984.8A
Other languages
English (en)
Other versions
CN111213111B (zh
Inventor
马科·埃罗马基
劳里·雅斯凯拉
哈里·哈库利宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of CN111213111A publication Critical patent/CN111213111A/zh
Application granted granted Critical
Publication of CN111213111B publication Critical patent/CN111213111B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00734Aspects not otherwise provided for battery operated
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • A61M2205/507Head Mounted Displays [HMD]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种可穿戴式设备(200)及其中的方法(600),包括主单元(201)和从单元(202)。所述主单元(201)包括第一显示屏(210)和第一处理电路(230),所述从单元(202)包括第二显示屏(220)和第二处理电路(240)。所述方法(600)旨在在所述显示屏(210、220)中输出信息。所述方法(600)包括:从所述主单元(201)中的传感器(250、260、270)获取(601)传感器信号;基于所述获取(601)的传感器信号,生成(602)同步信号;将所述同步信号从所述第一处理电路(230)发送(603)至所述第二处理电路(240);基于所述同步信号,渲染(604)要在所述第一显示屏(210)和所述第二显示屏(220)中输出的信息;根据所述同步信号,分别在所述第一显示屏(210)和所述第二显示屏(220)上输出(605)所述信息。

Description

一种可穿戴式设备及其中的方法
技术领域
本文中所描述的实施方式大体涉及一种可穿戴式设备及其中的方法。
背景技术
增强现实(Augmented Reality,简称AR)和虚拟现实(Virtual Reality,简称VR)是快速发展的新兴技术。
VR是一种计算机技术,其使用虚拟现实耳机来生成真实图像、声音和模拟用户在虚拟或虚构环境中实际存在的其它感觉。使用虚拟现实设备的人能够在佩戴所述虚拟现实设备的情况下移动头部时“环视”人工世界,佩戴优质VR在所述世界中四处走动,还可能与虚拟特征或物品交互。这种效果通常由包括头戴式护目镜的VR耳机产生。VR通常用于游戏和娱乐,也可用于教育、模拟和训练等目的。
AR是物理、现实世界环境的直接或间接实景,这种环境中的要素通过诸如音频、视频、图形、GPS数据、传感器数据等之类的计算机生成或提取的现实世界感觉输入来“增强”。它涉及一种称为计算机介导现实的更普遍的概念,其中计算机修改了现实视图(甚至可能减少而不是增强)。AR增强了用户对现实的当前感知,相反VR用模拟的虚构环境代替了现实世界。增强技术通常与环境要素一起在语义上下文中实时执行,例如当所述用户站在公交站点时将补充信息(例如,剩余时间(和/或目的地))覆盖到下一辆公共汽车。另一示例可以是供建筑工人使用的AR设备,显示有关建筑工地的信息。
可穿戴式设备设计用于输出三维(three dimensional,简称3D)信息,AR或VR。然而,现有可穿戴式设备采用具有到每个显示屏放置的多个连接的结构,使得所述可穿戴式设备看起来不仅丑陋而且笨重。
发明内容
因此,本文旨在避免上述所提到的至少部分缺点,提供一种用于图像输出的改进型可穿戴式设备。
此目的以及其它目的通过所附独立权利要求的特征来实现。进一步的实施形式在从属权利要求、具体说明和附图中显而易见。
根据第一方面,提供了一种可穿戴式设备,包括主单元和至少一个从单元。所述主单元包括第一显示屏和第一处理电路,所述从单元包括第二显示屏和第二处理电路。所述可穿戴式设备旨在在所述第一显示屏和第二显示屏中输出信息。所述第一处理电路用于从所述主单元中包括的传感器获取至少一个传感器信号。此外,所述第一处理电路用于基于所述获取的传感器信号生成同步信号。此外,所述第一处理电路还用于将所述生成的同步信号发送至所述从单元。另外,所述第一处理电路用于渲染要在所述第一显示屏中输出的信息。所述第一处理电路还用于将所述渲染的信息发送至所述第一显示屏,用于在所述第一显示屏上输出所述渲染的信息。所述第二处理电路用于从所述主单元接收所述同步信号。此外,所述第二处理电路用于基于所述接收的同步信号来渲染要在所述第二显示屏中输出的信息。所述第二处理电路还用于将所述渲染的信息发送至所述第二显示屏,用于在所述第二显示屏上输出所述渲染的信息。
通过为每个显示屏使用单独处理电路并且渲染要由所述相应处理电路单独输出的信息,还基于所述同步信号,避免像根据传统方案那样在单个处理电路与所述显示屏之间使用基于多线的重型连接。在先前已知的方案中,所述处理电路与所述显示屏之间的这些连接包括用于每个连接的大约40至50根铜线,重量和体积都相当大。因此,提供了更大的设计自由度,使得可穿戴式设备的结构对于用户来说穿戴起来舒适、方便和漂亮大方。
根据所述第一方面,在所述可穿戴式设备的第一种可能的实现方式中,所述输出的信息包括三维信息。此外,要渲染的三维信息包括在所述主单元和所述从单元中。
通过将所述三维信息保留在所述主单元和所述从单元中,必须在所述相应处理电路之间交换较少信息,使得可以在所述主单元与所述从单元之间使用低带宽连接。因此,需要低功耗,使得可以使用一节或多节较轻的电池,从而进一步减轻所述可穿戴式设备的重量,同时提供进一步的设计自由度。此外,由于只需要交换非常少的信息,因此数据传输仅需较短时间,这使得能够实现低时延,同时减少主显示屏和从显示屏上显示的图像之间的视差问题。由此实现更佳用户体验。
根据所述第一方面或根据所述第一种可能的实现方式,在所述可穿戴式设备的第二种可能的实现方式中,所述第一处理电路还可以用于通过低带宽连接将所述生成的同步信号发送至所述从单元。
由于所述低带宽连接,不需要使用电缆在模块之间物理路由高带宽视频链路。由此,实现了一种非常轻便和方便的可穿戴式设备。此外,所述低带宽连接需要低能耗,这降低了对所述电池的要求。然后可以使用更小/更轻的电池,从而实现一种更轻便的可穿戴式设备。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第三种可能的实现方式中,所述第一处理电路还可以用于通过无线通信接口将所述生成的同步信号发送至所述从单元。
由于所述无线通信接口,因此不必在所述主单元与所述从单元之间布置物理电缆,从而进一步提高了设计自由度。由此,还进一步减轻了所述可穿戴式设备的重量。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第四种可能的实现方式中,所述第一处理电路还可以用于通过有线通信接口将所述生成的同步信号发送至所述从单元。
由于所述有线通信接口,在所述主单元与所述从单元之间提供了安全、可靠但又轻便的通信接口。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第五种可能的实现方式中,所述第一处理电路还可以用于:基于所述获取的传感器信号,生成并发送包括全局时间参考和传感器数据的同步信号。
通过减少必须交换的数据量,可以在短时间内进行同步,使得实现低带宽、低时延,这也使得实现低功耗。因此,可以减小电源大小,从而提高设计自由度并减轻重量,具备符合人体工程学的优点。可替代地,可以延长电池充电间隔,从而提高用户有用性。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第六种可能的实施方式中,所述主单元中包括的所述传感器可以包括陀螺仪、加速度计和/或磁力计中的任一个。
通过在所述主单元中仅配备一组传感器并与所述从单元共享所述获得的传感器数据,与在所述主单元和所述从单元中配备多组不同传感器相比,避免了传感器漂移问题。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第七种可能的实现方式中,所述可穿戴式设备可以包括一个主单元和多个从单元,其中每个从单元可以包括显示屏和处理电路。
通过提供几个从单元,例如在显示屏阵列中彼此堆叠,实现了更丰富多彩、更具说服力的三维观看体验。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第八种可能的实现方式中,所述第一处理电路用于从第一角度渲染所述三维信息,所述第二处理电路用于从不同于所述第一角度的第二角度渲染所述三维信息,以便在所述第一显示屏和第二显示屏处为用户实现立体效果。
在所述处理电路处以不同角度渲染所述三维场景的相应图像,避免了使用高带宽视频链路来分布在一个共用处理电路处渲染的信息。因此,在设计所述可穿戴式设备时,可减轻重量并提高灵活性。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第九种可能的实现方式中,所述主单元和所述从单元分别可以包括单独的存储器。
由于所述主单元和所述从单元各自的所述单独的存储器,诸如要渲染的三维信息知识之类的某些信息可以保留在所述相应的单独的存储器中。因此,在所述主单元与所述从单元之间必须传送较少信息,例如仅传送三维空间中相机的状况和位置信息。因此,促进了低带宽内容同步。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第十种可能的实现方式中,所述可穿戴式设备包括一副眼镜。
由此,实现了所述可穿戴式设备的一个方便的实施例。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第十一种可能的实施方式中,所述可穿戴式设备包括头帽,其中所述第一显示屏和所述第二显示屏的布置确保与所述用户的相应眼睛位置相关联。
由此,实现了所述可穿戴式设备的一个可替代的实施例。
根据所述第一方面或其前述任一种实现方式,在所述可穿戴式设备的第十二种可能的实现方式中,所述渲染的信息包括增强现实或虚拟显示中的任一个。
由此,进一步指定了所述渲染的信息。
根据第二方面,提供了一种根据所述第一方面或其前述任一种实现方式所述的可穿戴式设备中的方法,其中所述可穿戴式设备包括主单元和至少一个从单元。所述主单元包括第一显示屏和第一处理电路,所述从单元包括第二显示屏和第二处理电路。所述方法旨在在所述第一显示屏和所述第二显示屏中输出信息。所述方法包括:由所述第一处理电路从所述主单元中包括的传感器获取至少一个传感器信号。此外,所述方法还包括:由所述第一处理电路基于所述获取的传感器信号生成同步信号。同样,所述方法还包括:将所述生成的同步信号从所述第一处理电路发送至所述第二处理电路。所述方法还包括:基于所述同步信号,渲染要在所述主单元处的所述第一显示屏和所述从单元处的所述第二显示屏中输出的信息。所述方法还包括:根据所述发送的同步信号,分别在所述第一显示屏和所述第二显示屏上输出所述渲染的信息。
根据所述第二方面以及所述第二方面的实现方式所述的方法的优点与针对所述第一方面以及所述第一方面的相应实现方式的可穿戴式设备所描述的相同。
根据所述第二方面,在所述方法的第一种可能的实现方式中,所述输出的信息包括三维信息。此外,要渲染的三维信息包括在所述主单元和所述从单元中。
根据所述第二方面或其所述第一种可能的实现方式,在所述方法的第二种可能的实现方式中,可以通过低带宽连接将所述生成的同步信号从所述主单元中的所述第一处理电路发送至所述从单元。
根据所述第二方面或其前述任一种实现方式,在所述方法的第三种可能的实现方式中,可以通过无线通信接口将所述生成的同步信号从所述主单元中的所述第一处理电路发送至所述从单元。
根据所述第二方面或其前述任一种实现方式,在所述方法的第四种可能的实现方式中,可以通过有线通信接口将所述生成的同步信号从所述主单元中的所述第一处理电路发送至所述从单元。
根据所述第二方面或其前述任一种实现方式,在所述方法的第五种可能的实现方式中,可以基于所述获取的传感器信号,生成并发送包括全局时间参考和传感器数据的同步信号。
根据所述第二方面或其前述任一种实现方式,在所述方法的第六种可能的实现方式中,由所述主单元中的所述第一处理电路生成和发送的所述同步信号可以包括由陀螺仪、加速度计和/或磁力计中的至少一个生成的传感器信号。
根据所述第二方面或其前述任一种实现方式,在所述方法的第七种可能的实现方式中,可以由所述主单元中的所述第一处理电路生成所述同步信号并将所述同步信号发送至多个从单元,其中每个从单元可以包括显示屏和处理电路。
根据所述第二方面或其前述任一种实现方式,在所述方法的第八种可能的实现方式中,所述第一处理电路用于从第一角度渲染所述三维信息,所述第二处理电路用于从不同于所述第一角度的第二角度渲染所述三维信息,以便在所述第一显示屏和第二显示屏处为用户实现立体效果。
根据所述第二方面或其前述任一种实现方式,在所述方法的第九种可能的实现方式中,所述主单元和所述从单元分别可以包括单独的存储器。
根据所述第二方面或其前述任一种实现方式,在所述方法的第十种可能的实现方式中,所述可穿戴式设备包括一副眼镜。
根据所述第二方面或其前述任一种实现方式,在所述方法的第十一种可能的实施方式中,所述可穿戴式设备包括头帽,其中所述第一显示屏和所述第二显示屏的布置确保与所述用户的相应眼睛位置相关联。
根据所述第二方面或其前述任一种实现方式,在所述方法的第十二种可能的实现方式中,所述渲染的信息包括增强现实或虚拟显示中的任一个。
根据第三方面,提供一种计算机程序,所述计算机程序包括:程序代码,用于当所述计算机程序在计算机上运行时,执行根据所述第二方面或其前述任一种实现方式所述的方法。
通过以下具体实施方式,本发明的其它目的、优点以及新特征将显而易见。
附图说明
附图图示出本发明实施例的实例,结合这些附图对各实施例进行更详细地描述,在附图中:
图1A是一种可穿戴式设备的示意图;
图1B是一种可穿戴式设备的框图;
图2是示出一实施例提供的一种可穿戴式设备的框图;
图3是示出一实施例提供的一种可穿戴式设备的框图;
图4是示出一种可穿戴式设备中的方法的实施例的流程图;
图5是示出同步帧内数据点的编码的框图;
图6是示出本发明一实施例提供的一种可穿戴式设备中的方法的流程图。
具体实施方式
本发明实施例定义了一种可穿戴式设备以及其中的方法,可以在下文描述的实施例中实施。然而,这些实施例可为示例性的并且可采取多种不同的形式实现,且不限于本文所提出的示例;实际上,提供了这些实施例的说明性示例使得本发明将变得透彻且完整。
从以下结合附图考虑的详细说明中,还可清楚地了解其它目的和特征。然而,应当理解的是附图仅仅为了说明,而不能作为对实施例的限制;对于实施例,应参考所附权利要求。进一步地,附图不一定按照比例绘制,除非另有说明,否则它们仅仅是对结构和流程的概念性说明。
用于输出三维(three dimensional,简称3D)信息(AR或VR)的可穿戴式设备可以包括一副立体AR/VR眼镜,如图1A所示。有一个专用于所述用户的每只眼睛的单独的显示屏,所述渲染的相应3D图像经同步处理并且相对于彼此略微移位,以便实现3D效果。
图1B示出了图1A的所述立体AR/VR眼镜的示意图。处理器可以连接至各种传感器,例如陀螺仪、加速度计和磁力计。此外,所述相应的显示屏经由多个连接(例如,每个显示屏的40至50根导线)连接至所述通用处理器。因此,所述处理器可以渲染和同步要输出给所述用户的所述图像。然而,具有到每个显示屏的多个连接的传统耳机结构对可穿戴式耳机的设计提出了严格的限制。这导致所述可穿戴式设备看起来不仅丑陋而且笨重。正如某些时候佩戴任何任意类型眼镜的大多数人所知,重量略微增加都会给用户带来相当大的不适感觉,长时间佩戴时尤为如此。立体AR/VR眼镜通常太重,以致于当所述用户佩戴任何相当长的时间时,会对所述用户造成人体工程学危险。它们通常也较为笨拙,会限制所述用户的身体运动。
出于这些原因,希望生产一种可穿戴式设备。涉及设计问题时,所述可穿戴式设备提供更大的自由度和/或具有更轻的重量,同时仍然能够渲染和同步3D图像的输出。
图2是可穿戴式设备200的示意图。所述可穿戴式设备200可以包括一副立体AR/VR眼镜、头盔或其它类似镜帽或头帽,用于向用户输出AR/VR信息。所述可穿戴式设备200还可以称为智能眼镜、可穿戴式计算机眼镜、智能隐形眼镜、智能双目镜、面罩、智能护目镜、太阳镜、潜水镜、焊接面罩等。
所述可穿戴式设备200包括主单元201和从单元202。所述主单元201包括第一显示屏210和第一处理电路230,所述从单元202包括第二显示屏220和第二处理电路240。所述主单元201还包括一个或多个传感器,例如陀螺仪250、加速度计260和/或磁力计270。在增强现实实现方式中,所述第一显示屏210和所述第二显示屏220可以包括例如光学头戴式显示屏(Optical Head-Mounted Display,简称OHMD),它是一种可穿戴式设备,具有反射投影图像以及允许所述用户通过它进行观看的能力。在一些其它实施例中,所述显示屏210、220可以包括具有透明平视显示屏(Heads-Up Display,简称HUD)或AR覆盖层的嵌入式无线眼镜,它具有反射投影的数字图像以及允许所述用户通过它进行观看的能力,或者借助它甚至可以更好地观看(通过添加矫正镜头和/或遮阳罩等)。
在一些实施例中,所述第一显示屏210和所述第二显示屏220的输出信息可以由所述主设备201和所述从设备202中的相应投影仪投影到所述相应的显示屏210、220上。
为了使描述更加清晰,图2略去了所述可穿戴式设备200中对理解此处所描述实施例没有影响的任何内部电子产品或其它组件。
所述第一处理电路230和/或所述第二处理电路240可以分别包括处理电路,即中央处理器(Central Processing Unit,简称CPU)、处理单元、处理器、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、微处理器或其它可以解释和执行指令的处理逻辑中的一个或多个实例。因此,本文中所使用的“处理电路”可以表示多个处理电路,例如上述列举的任一、部分或所有的处理电路。
在一些实施例中,所述主单元201可以包括第一存储器280,所述从单元202可以包括不同于所述第一存储器280的第二存储器290。
所述第一存储器280和/或所述第二存储器290可以包括相应的物理设备,用于暂时或永久地存储数据或程序,即三维信息和指令序列。根据一些实施例,所述存储器280、290可以包括集成电路,所述集成电路包括硅晶体管。进一步地,所述存储器280、290可以是易失性或非易失性的。
在一些实施例中,所述相应的第一存储器280和/或所述第二存储器290都可以包括分别与将在所述第一显示屏210和所述第二显示屏220中渲染的三维信息有关的公共信息。在一些实施例中,当所述可穿戴式设备200专用于VR时,所述三维信息可以包括VR宇宙。所述VR宇宙例如可以包括房间、建筑物或其它结构,当使用所述可穿戴式设备200时,用户可以在其中“四处移动”。
在所述可穿戴式设备200专用于AR的其它实施例中,所述三维信息可以包括AR信息,所述AR信息然后在所述显示屏210、220中输出,叠加到现实世界信息。所述AR信息可以与所述用户所处的用户感知的现实世界的对象或地理位置相关联。AR信息的一些任意示例可以是图形、文本、文档、图像、视频和/或各种传感器数据,例如时间、温度等,具体取决于所述可穿戴式设备200的应用。在施工现场使用所述可穿戴式设备200的情况下,所述AR信息可以包括蓝图、图纸、施工规范等,根据所述用户的瞬时视野和位置(或者实际上是所述可穿戴式设备200),与所述特定施工现场相关。
包括将在所述相应的显示屏210、220上渲染和输出的全部所述宇宙(AR或VR)的所述三维信息可以包括在所述相应的第一存储器280(位于所述主单元201中)和所述第二存储器290(位于所述从单元202中)中。
因此,此信息不必从所述主单元201发送至所述从单元202,从而实现所述主单元201与所述从单元202之间的低带宽连接。因此,仅需低于阈值限制的功耗,使得可以使用一节或多节叫较小/较轻的电池,从而进一步减轻所述可穿戴式设备的重量,同时提供进一步的设计自由度。此外,由于只需要在所述主单元201与所述从单元202之间交换非常少的信息,因此数据传输仅需较短时间,这使得能够实现低时延,同时减少主显示屏和从显示屏上显示的图像之间的视差问题。由此实现更佳用户体验。
因此,所述可穿戴式设备200包括用于所述用户的相应(右侧/左侧)眼睛的单独无线处理和显示模块210、220,每个独立地渲染视图,但都基于同步信号。
所述同步信号用于在时间和/或空间上使所述主单元201中的所述第一显示屏210上的输出视图与所述从单元202中的所述第二显示屏220上的输出视图同步。所述同步信号可以包括全局时间参考,用于在时间上使所述第一处理电路230与所述第二处理电路240同步。
此外,为了在空间上使所述主单元201中的所述第一显示屏210上的所述输出视图与所述从单元202中的所述第二显示屏220上的所述输出视图同步,可以包括从所述主单元201中的一个或多个传感器生成的传感器信号,使得所述第一处理电路230和所述第二处理电路240能够确定存储在所述相应存储器280、290中的三维世界的片段。因此,所述传感器信号可以包括例如笛卡尔坐标系中的三个正交坐标(用于确定所述用户/可穿戴式设备200的位置)、用于确定所述可穿戴式设备200的方向的传感器信号和用于确定所述可穿戴式设备200的横向和/或水平倾斜的传感器信号。在所述存储的AR/VR宇宙受限的情况下,例如,始终假设所述用户在使用所述可穿戴式设备200时站立,高度坐标可以设置为恒定值,因此不必是所述同步信号的一部分(仅是任意非限制性示例,所述空间位置参考可以产生相同结果的多种不同方式来实现,具体取决于实现方式)。
在所示出的实施例中,所述主单元201和所述从单元202同步其渲染,使得它们渲染所述相同的三维信息/场景,但略微移位,即以略微不同的角度移位。由此,立体图像对可以由所述相应的处理电路230、240渲染,由所述相应的显示屏210、220输出,以实现所述用户感知的立体效果。在一些实施例中,所述主单元201与所述从单元202的呈现角度之间的差值可以是预先确定的和恒定的,用于产生所述渲染图像的立体效果。
由于人形生物的眼睛位于头部的不同横向位置,因此双目视觉导致投射到所述眼睛的视网膜的两个图像略微不同。所述差异主要在于所述两个图像中对象的相对水平位置。这些位置差异称为水平视差,或者更普遍地称为双目视差。在大脑视觉皮层中处理视差以产生深度感知。尽管当用两只眼睛观看现实世界的三维场景时,双目视差自然地存在,但它们也可以通过使用在一些实施例中可以应用的称为立体视觉的方法,在所述相应的显示屏210、220上将两个不同的图像分别人工输出到所述用户的每只眼睛进行模拟。所述输出信息/图像中的所述深度感知也可以称为“立体视觉深度”。
所述主单元201与所述从单元202之间的所述同步信号的低时延,即低于预先确定的或可配置的阈值限制的时延,防止视差问题或动画不同步。用于所述同步的低带宽链路将有助于无线同步,还将导致低功耗。然而,在不同的可替代实施例中,可以使用有线或无线高带宽链路。
所述主单元201的所述第一处理电路230与所述从单元202的所述第二处理电路240之间的连接可以有利地经由低带宽连接来实现。因此,与传统方案相比,可以保持低功耗,从而可以使用较小/较轻的电源,例如一节或多节电池。因此,可以减少所述可穿戴式设备200的总重量,从而为所述用户带来人机工程学优点。结合专注于用户人机工程学的设计和/或极具吸引力的设计减轻重量是提高所述可穿戴式设备200的日常或长期可穿戴性的关键问题。
可替代地,可以使用与所述传统方案中相同的电源,但是在再充电之前具有更长的操作时间。在一些实施例中,所述主单元201和所述从单元202中的每一个可以具有其各自电池或电池组。在其它实施例中,所述主单元201和所述从单元202可以共享所述相同的电池或电池组。
在一些实施例中,所述低带宽连接可以是无线连接,基于例如蓝牙或用于无线通信的短距离传输的其它类似无线通信协议,例如近场通信(Near Field Communication,简称NFC)、射频识别(Radio-Frequency Identification,简称RFID)、Z-wave、ZigBee、基于IPv6的低速无线个域网标准(IPv6over Low power Wireless Personal Area Networks,简称6LoWPAN)、无线高速公路可寻址远程传感器(Highway Addressable RemoteTransducer,简称HART)协议、无线通用串行总线(Universal Serial Bus,简称USB)、诸如国际红外数据协会(Infrared Data Association,简称IrDA)之类的光通信以及诸如LoRa等的低功耗广域网络(Low Power Wide Area Network,简称LPWAN);在一些不同的实施例中,仅举出无线通信的几个可能的示例。
所述主单元201的所述第一处理电路230与所述从单元202的所述第二处理电路240之间可能经由相应的无线收发器(或者,可替代地,所述主单元201中的无线发射器和所述从单元202中的无线接收器)进行的无线通信的优点在于,不需要连接电缆,同样减轻了一些重量,但是在设计所述可穿戴式设备200时,可能更重要的是提供了更大的自由度。由于所述无线通信,所述处理电路230、240可以例如定位在距离所述相应的显示屏210、220几厘米/分米的位置;可以不必包括在与所述显示屏210、220相同的物理实体中(尽管包括在如图2所示的相同的逻辑实体中)。在所述可穿戴式设备200包括头盔、帽子或其它类似头帽的情况下,所述处理电路230、240可以包括在例如所述头帽的背部或顶部,在一些可替代实施例中,其可以提供设计优点和/或人机工程学优点。
可替代地,在一些实施例中,所述低带宽连接可以是使用例如集成电路总线(Inter-Integrated Circuit,简称I2C)的有线连接,或者类似的通信总线,例如存取总线(Access bus,简称A.b)、视频电子标准协会(Video Electronics StandardsAssociation,简称VESA)显示数据信道(Display Data Channel,简称DDC)接口、系统管理总线(System Management Bus,简称SMBus)、电源管理总线(Power Management Bus,简称PMBus)、智能平台管理总线(Intelligent Platform Management Bus,简称IPMB)、双线接口(Two-Wire Interface,简称TWI)和双线串行接口(Two-Wire Serial Interface,简称TWSI)等。所述有线低带宽连接使用2到3条电线。所述有线连接可以具有提供稳定连接的优点,不需要例如在蓝牙连接的情况下可能需要的配对和绑定过程。此外,有线连接还可以比无线连接更安全,因为至少一些无线通信协议(例如,蓝牙)可能具有各种安全攻击(例如,蓝牙劫持、蓝牙漏洞攻击和/或蓝牙窃听)的弱点。
根据某些实施例,定义了一种同步方法,所述同步方法使得能够同步分别在所述第一显示屏210和所述第二显示屏220上渲染的图像(独立地,但基于所述同步信号)。为了实现低功耗以及低带宽通信,在一些实施例中,可以仅同步所述设备位置和全局时间信号。
因此,为了实现低时延和低带宽同步,所述可穿戴式设备200包括一个主单元201和一个或多个从单元202。所述主单元201可以包括一个或多个相同或不同类型的传感器,例如所述陀螺仪250、所述加速度计260和/或所述磁力计270,以在3D世界中放置和旋转相机。诸如相机位置、旋转和动画同步信号之类的信息可以发送到所述从单元202,所述从单元202使用此数据在所述第二显示屏220处渲染所述相同场景,如由所述第一处理电路230在所述第一显示屏210处所渲染的。因此,所述从单元202可以不包括自身的任何传感器;或者至少不使用自身的任何传感器数据。因此,所述主单元201和所述从单元202可以渲染所述相同的场景,可能以不同视角输出以产生所述用户的立体视图效果,而不会遇到例如传感器在所述相应的单元201、202之间漂移的任何问题。
所述提供的方案提供了关于所述可穿戴式设备力学和工业设计的优点。由于提高了所述可穿戴式设备200的设计灵活性并减轻了其重量,因此提供了一种非常轻便的“智能玻璃”框架,因为不需要使用电缆在模块之间物理路由高带宽视频链路。此外,低功耗节省了电池,从而进一步减轻了所述可穿戴式设备200的重量。由此,实现了一种方便、舒适的可穿戴式设备200,所述用户可毫不费力地、连续地或长时间地携带。
通常,所述用户的头部对支撑眼镜的所述头部的相当有限部分(即鼻根和耳朵上部)上的过度重量最为敏感,这也是适度减轻重量将提高用户人体工程学体验的原因。所述用户将能够较长时间携带所述可穿戴式设备200且鲜少感到不适;在一些实施例中,可以每天使用所述可穿戴式设备200。
图3示出了包括一副立体AR/VR眼镜的可穿戴式设备200的设计的示例,例如,如先前在图2中示意性地示出并在上文描述的那样。
所述主单元201和所述从单元202中的每一个基于所述公共同步信号渲染相应的图像,可以包括从所述主单元201的传感器250、260、270获得的全局时间参考和传感器数据。此外,要渲染的三维信息可以包括在所述主单元201的所述第一存储器280和所述从单元202的所述第二存储器290中,从而使得必须在所述主单元201与所述从单元202之间传输较少信息,继而实现低时延。所述同步信号的目的在于同步分别在所述第一显示屏210和所述第二显示屏220上执行的所述渲染的信息的所述输出。
如前所简述,所述可穿戴式设备200可以包括多个从单元202,每个从单元包括一个单独的显示和处理电路。在一些实施例中,这些从单元202的所述相应的显示屏可以彼此堆叠。在一些实施例中,所述堆叠的显示屏可以完全或部分透明。由此,可以产生增强的三维效果。
图4示出了一种用于在所述可穿戴式设备200的所述第一显示屏和第二显示屏210、220中输出信息的方法的示例。
对于每个帧,所述主单元201可在第一方法步骤401中更新其传感器值中的至少任何一个或一些值,例如加速度计值、陀螺仪值、加速度计值、设备位置、相机位置、位置参考、旋转和动画同步参考等中的任何一个,在后续步骤402中将它们连同将由所述从单元202接收的全局时间参考信号一起发送。所述全局时间参考信号可以由所述主单元201的时间测量设备生成。发送所述数据之后,在步骤403A中,所述主单元201可以基于所述传感器数据来渲染所述图像并将其输出到所述第一显示屏210上。当所述从单元202接收到包括所述传感器数据的所述同步信号时,它还将基于所述同步信号在步骤403B中在所述第二显示屏220上渲染所述图像。由于数据量非常小,因此所述数据的数据传输花费的时间较短,这使得能够实现低时延并减少在所述主单元201的所述第一显示屏210和所述从单元202的所述第二显示屏220上显示的所述图像之间的视差问题。
图5是示出同步帧500中数据点的编码的框图。根据一实现方式实施例,如果全部所述数据点被编码为32位值,则可以将一个同步帧的大小编码为28字节。
带宽<<100字节/帧(例如,在60Hz条件下,每16ms)实际上可以采用任何无线技术实现。例如,蓝牙2.0提供最大2.1Mbit/s带宽,使得一个帧的发送时间为28*8/2100000~=0,1ms,从而实现低带宽的低时延(因此实现低功率使用率)。
图6是示出可穿戴式设备200中的一种方法600的一实施例的流程图,所述可穿戴式设备200包括主单元201和至少一个从单元202。所述主单元201包括第一显示屏210和第一处理电路230,所述从单元202包括第二显示屏220和第二处理电路240,用于在所述第一显示屏和第二显示屏210、220中输出信息。
在一些实施例中,所述要输出的信息可以包括三维信息,例如三维场景。此外,在一些实施例中,所述输出信息可以包括增强现实信息或介导现实信息。在其它实施例中,所述输出信息可以包括虚拟现实信息。例如,所述要渲染的三维信息可以包括在所述主单元201和所述从单元202中,例如以便在所述第一显示屏和第二显示屏210、220处为用户实现立体效果。
在一些实施例中,所述可穿戴式设备200可以包括一副眼镜。在其它实施例中,所述可穿戴式设备200可以包括头帽,其中是第一显示屏210和所述第二显示屏220的布置确保与所述用户的相应眼睛位置相关联。
为了在所述显示屏210、220中适当地渲染和输出信息,所述方法600可以包括多个步骤601至605。然而,需要注意的是,所述步骤601至605中的任一、部分或全部步骤可以按照与所列举的顺序有所不同的时间顺序执行,可以根据不同的实施例同时执行甚至以完全相反的顺序执行。一些动作可以只在部分实施例中执行,不一定在所有实施例中执行。进一步地,需要注意的是,根据不同的实施例,一些动作可以在多个替代方式中执行,这些替代方式可以只在部分实施例中执行,不一定在所有实施例中执行。
在一些实施例中,所述可穿戴式设备200可以周期性地重新执行步骤601至605中的任一、部分或全部步骤,从而使得能够连续地在所述第一显示屏和第二显示屏210、220中输出信息。所述方法600可以包括以下步骤:
步骤601包括:由所述第一处理电路230从所述主单元201中包括的传感器250、260、270获取至少一个传感器信号。
所述传感器250、260、270可以包括例如陀螺仪250、加速度计、磁力计270、相机、固态罗盘和诸如全球定位系统(Global Positioning System,简称GPS)设备之类的定位设备等。
因此,在不同的实施例中,所述传感器信号可以包括从所述列举的传感器250、260、270中的任一、几个或全部传感器中获得的传感器数据。所述传感器信号使得所述第一处理电路230以及随后的所述从设备202中的所述第二处理电路240能够将所述设备200正确地定位在所述三维世界中,所述三维世界经渲染并输出到所述相应的显示屏210、220上。因此,所述传感器数据包括使得能够确定要输出的信息的空间参考。
步骤602包括:由所述第一处理电路230基于所述获取601的传感器信号生成同步信号。
基于所述获取601的传感器信号,所述生成的同步信号可以包括全局时间参考和传感器数据(空间参考)。所述空间参考的目的在于使得所述从设备202中的所述第二处理电路240能够确定存储在所述第二存储器290中的所述信息的哪个子集要在所述第二显示屏220上输出,在位置上与要在所述主设备201的所述第一显示屏210上输出的所述信息同步。
在一些实施例中,所述全局时间参考可以由包括在所述主设备201中的时间测量设备生成。因此,分别在所述第一显示屏210和所述第二显示屏220中输出的所述输出信息在时间上同步,从而当所述可穿戴式设备200发生移位时,提供所述用户在所述三维AR/VR宇宙中四处移动的幻觉。
在一些实施例中,所述生成的同步信号可以包括设备位置和所述全局时间参考。在一些其它实施例中,所述生成的同步信号可以包括传感器/相机位置、旋转和动画同步信号。在又一些实施例中,所述同步信号可以包括加速度计和陀螺仪值以及所述全局时间参考。
步骤603包括:将所述生成602的同步信号从所述主设备201的所述第一处理电路230发送至所述从设备202的所述第二处理电路240。
所述生成的同步信号可以经由低带宽连接(即带宽低于预定义的或可配置的阈值限制,例如在不同的实施例中,大约56kbit/s;100kbit/s;每帧<100字节(例如,在60Hz条件下,每16ms);2.1Mbit/s或类似值等))发送至所述从单元202。在一些实施例中,所述低带宽连接可以包括无线通信接口;或者可替代地,可以包括有线通信接口。
步骤604包括:基于所述接收的同步信号,渲染要在所述主单元201处的所述第一显示屏210和所述从单元202处的所述第二显示屏220中输出的信息。因此,由所述相应的显示屏210、220渲染的所述信息在时间和空间上同步。
在一些实施例中,所述第一处理电路230的所述渲染的信息可以包括从第一角度渲染的所述三维信息,所述第二处理电路240的所述渲染的信息可以包括从不同于所述第一角度的第二角度渲染的所述三维信息,以便在一些实施例中在所述第一显示屏和第二显示屏210、220处为用户实现立体效果。因此,所述渲染的相应三维信息可以形成相对于彼此略微移位的立体图像对,用于产生或增强所述用户所感知的所述图像中的深度的幻觉。
此外,所述要渲染的三维信息可以包括在所述主单元201的所述第一存储器280和所述从单元202的所述第二存储器290中,从而使得必须在所述主单元201与所述从单元202之间传输较少信息,继而实现低时延。
步骤605包括:根据所述发送603的同步信号,分别在所述第一显示屏210和所述第二显示屏220上输出所述渲染604的信息。
可以通过所述主单元201中的所述第一处理电路230和所述从单元202中的所述第二处理电路240以及用于执行所述方法步骤601至605中的至少一些步骤的功能的计算机程序产品来实现要在所述可穿戴式设备200中执行的前述方法步骤601至605的至少一个子集。因此,当计算机程序加载到所述处理电路230、240中时,包括用于执行所述方法步骤601至605的指令的计算机程序产品可以在所述第一显示屏和第二显示屏210、220中输出信息。
例如,可采用数据载体的形式提供上述计算机程序,所述数据载体携带计算机程序代码,所述计算机程序代码用以在其加载至所述处理电路230、240时根据一些实施例来执行方法步骤601至605中的至少一些动作。所述数据载体可为,例如,硬盘、CD ROM光盘、存储棒、光储存装置、磁储存装置或任何其它合适的介质,如可以非暂时性方式中保存机器可读数据的磁盘或磁带。此外,所述计算机程序产品可进一步用作服务器上的计算机程序代码并且可远程下载至所述可穿戴式设备200,例如,通过互联网或企业内部网连接。
在一些实施例中,方法步骤601至605中的任何一个、一部分或全部可以在有限时间内无限迭代,或者直至达到阈值限制。
附图中示出的实施例的描述中所使用的术语并不意在限制于所述可穿戴式设备200以及其中的方法600和/或计算机程序。在不脱离所附权利要求书界定的本发明的情况下,可进行各种变更、替代和/或更改。
本文所用的术语“和/或”包括相关联的所列项目中的一者或多者的任何和所有组合。除非另有明确说明,否则本文所用的术语“或”解释为数学上的或,即是包含性的分离,而不是数学上的异或(exclusive OR,简称XOR)。此外,单数形式“一”和“所述”解释为“至少一个”,因此还包括多个,除非另外明确地陈述。应进一步了解,术语“包括”用于说明存在所述特征、动作、整体、步骤、操作、元件和/或部件,但并不排除存在或添加一个或多个其它特征、动作、整体、步骤、操作、元件、部件和/或它们的组合。单个单元例如处理器可以实现权利要求中列举的若干项目的功能。在仅凭某些措施被记载在相互不同的从属权利要求书中这个单纯的事实并不意味着这些措施的结合不能被有效地使用。计算机程序可存储或分发到合适的介质上,例如与其它硬件一起或者作为其它硬件的部分提供的光存储介质或者固态介质,还可以以其它形式例如通过因特网或者其它有线或无线电信系统分发。
最后,应了解,本发明并不局限于上述实施例,而是同时涉及且并入所附独立权利要求书的范围内的所有实施例。

Claims (15)

1.一种可穿戴式设备(200),其特征在于,包括主单元(201)和至少一个从单元(202),其中所述主单元(201)包括第一显示屏(210)和第一处理电路(230),所述从单元(202)包括第二显示屏(220)和第二处理电路(240),用于在所述第一显示屏和第二显示屏(210、220)中输出信息;其中所述第一处理电路(230)用于:
从所述主单元(201)中包括的传感器(250、260、270)获取至少一个传感器信号;
基于所述获取的传感器信号,生成同步信号;
将所述生成的同步信号发送至所述从单元(202);
渲染要在所述第一显示屏(210)中输出的信息;
将所述渲染的信息发送至所述第一显示屏(210),用于在所述第一显示屏(210)上输出所述渲染的信息;
其中,所述第二处理电路(240)用于:
从所述主单元(201)接收所述同步信号;
基于所述接收的同步信号,渲染将在所述第二显示屏(220)中输出的信息;
将所述渲染的信息发送至所述第二显示屏(220),用于在所述第二显示屏(220)上输出所述渲染的信息。
2.根据权利要求1所述的可穿戴式设备(200),其特征在于,所述输出的信息包括三维信息;其中要渲染的三维信息包括在所述主单元(201)和所述从单元(202)中。
3.根据权利要求1或2所述的可穿戴式设备(200),其特征在于,所述第一处理电路(230)还用于通过低带宽连接将所述生成的同步信号发送至所述从单元(202)。
4.根据权利要求1至3所述的可穿戴式设备(200),其特征在于,所述第一处理电路(230)还用于通过无线通信接口将所述生成的同步信号发送至所述从单元(202)。
5.根据权利要求1至3所述的可穿戴式设备(200),其特征在于,所述第一处理电路(230)还用于通过有线通信接口将所述生成的同步信号发送至所述从单元(202)。
6.根据权利要求1至5所述的可穿戴式设备(200),其特征在于,所述第一处理电路(230)还用于:基于所述获取的传感器信号,生成并发送包括全局时间参考和传感器数据的同步信号。
7.根据权利要求1至6所述的可穿戴式设备(200),其特征在于,所述主单元(201)中包括的所述传感器(250、260、270)至少包括陀螺仪(250)、加速度计(260)和磁力计(270)中的一个。
8.根据权利要求1至7所述的可穿戴式设备(200),其特征在于,包括一个主单元(201)和多个从单元(202),其中每个从单元(202)包括显示屏(220)和处理电路(240)。
9.根据权利要求1至8所述的可穿戴式设备(200),其特征在于,所述第一处理电路(230)用于从第一角度渲染所述三维信息,所述第二处理电路(240)用于从不同于所述第一角度的第二角度渲染所述三维信息,以便在所述第一显示屏和第二显示屏(210、220)处为用户实现立体效果。
10.根据权利要求1至9所述的可穿戴式设备(200),其特征在于,所述主单元(201)和所述从单元(202)分别包括单独的相应存储器(280、290)。
11.根据权利要求1至10所述的可穿戴式设备(200),其特征在于,所述可穿戴式设备(200)包括一副眼镜。
12.根据权利要求1至10所述的可穿戴式设备(200),其特征在于,所述可穿戴式设备(200)包括头戴式装置,其中所述第一显示屏(210)和所述第二显示屏(220)的布置确保与所述用户的相应眼睛位置相关联。
13.根据权利要求1至12所述的可穿戴式设备(200),其特征在于,所述渲染的信息包括增强现实或虚拟显示中的任一个。
14.可穿戴式设备(200)中的一种方法(600),其特征在于,所述可穿戴式设备(200)包括主单元(201)和至少一个从单元(202),其中所述主单元(201)包括第一显示屏(210)和第一处理电路(230),所述从单元(202)包括第二显示屏(220)和第二处理电路(240),用于在所述第一显示屏和第二显示屏(210、220)中输出信息;其中所述方法(600)包括:由所述第一处理电路(230)从所述主单元(201)中包括的传感器(250、260、270)获取(601)至少一个传感器信号;
由所述第一处理电路(230)基于所述获取(601)的传感器信号生成(602)同步信号;
将所述生成(602)的同步信号从所述第一处理电路(230)发送(603)至所述第二处理电路(240);
基于所述同步信号,渲染(604)要在所述主单元(201)处的所述第一显示屏(210)和所述从单元(202)处的所述第二显示屏(220)中输出的信息;
根据所述发送(603)的同步信号,分别在所述第一显示屏(210)和所述第二显示屏(220)上输出(605)所述渲染(604)的信息。
15.一种带有程序代码的计算机程序,其特征在于,当所述计算机程序在计算机上运行时,用于执行根据权利要求14所述的方法(600)。
CN201780095984.8A 2017-10-20 2017-10-20 一种可穿戴式设备及其中的方法 Active CN111213111B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2017/076852 WO2019076465A1 (en) 2017-10-20 2017-10-20 DEVICE FOR CARRYING ON SELF AND ASSOCIATED METHOD

Publications (2)

Publication Number Publication Date
CN111213111A true CN111213111A (zh) 2020-05-29
CN111213111B CN111213111B (zh) 2021-06-22

Family

ID=60162196

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780095984.8A Active CN111213111B (zh) 2017-10-20 2017-10-20 一种可穿戴式设备及其中的方法

Country Status (4)

Country Link
US (1) US11158289B2 (zh)
EP (1) EP3676687B1 (zh)
CN (1) CN111213111B (zh)
WO (1) WO2019076465A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115281653A (zh) * 2022-06-29 2022-11-04 北京航天时代光电科技有限公司 一种可穿戴式步态测量系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5808802A (en) * 1996-11-15 1998-09-15 Daewoo Electronics Co. Ltd. Head-mounted display apparatus with a single image display device
US20110175903A1 (en) * 2007-12-20 2011-07-21 Quantum Medical Technology, Inc. Systems for generating and displaying three-dimensional images and methods therefor
CN103995352A (zh) * 2013-02-14 2014-08-20 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
US20150185483A1 (en) * 2013-12-26 2015-07-02 Seiko Epson Corporation Virtual image display apparatus
CN105210145A (zh) * 2013-01-04 2015-12-30 伊奎蒂公司 交互式的可穿戴和便携式智能装置
US20160163283A1 (en) * 2014-12-04 2016-06-09 Htc Corporation Virtual reality system
CA2927046A1 (en) * 2016-04-12 2017-10-12 11 Motion Pictures Limited Method and system for 360 degree head-mounted display monitoring between software program modules using video or image texture sharing

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6784881B2 (en) * 2002-01-04 2004-08-31 Sun Microsystems, Inc. Synchronizing multiple display channels
JP4689639B2 (ja) * 2007-04-25 2011-05-25 キヤノン株式会社 画像処理システム
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5808802A (en) * 1996-11-15 1998-09-15 Daewoo Electronics Co. Ltd. Head-mounted display apparatus with a single image display device
US20110175903A1 (en) * 2007-12-20 2011-07-21 Quantum Medical Technology, Inc. Systems for generating and displaying three-dimensional images and methods therefor
CN105210145A (zh) * 2013-01-04 2015-12-30 伊奎蒂公司 交互式的可穿戴和便携式智能装置
CN103995352A (zh) * 2013-02-14 2014-08-20 精工爱普生株式会社 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
US20150185483A1 (en) * 2013-12-26 2015-07-02 Seiko Epson Corporation Virtual image display apparatus
US20160163283A1 (en) * 2014-12-04 2016-06-09 Htc Corporation Virtual reality system
CA2927046A1 (en) * 2016-04-12 2017-10-12 11 Motion Pictures Limited Method and system for 360 degree head-mounted display monitoring between software program modules using video or image texture sharing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115281653A (zh) * 2022-06-29 2022-11-04 北京航天时代光电科技有限公司 一种可穿戴式步态测量系统

Also Published As

Publication number Publication date
EP3676687A1 (en) 2020-07-08
EP3676687B1 (en) 2024-07-31
WO2019076465A1 (en) 2019-04-25
CN111213111B (zh) 2021-06-22
US20200251071A1 (en) 2020-08-06
US11158289B2 (en) 2021-10-26

Similar Documents

Publication Publication Date Title
CN113168007B (zh) 用于增强现实的系统和方法
US11455032B2 (en) Immersive displays
KR20220029638A (ko) 2d/3d 혼합 콘텐츠의 검출 및 디스플레이
US10410562B2 (en) Image generating device and image generating method
JP2019028368A (ja) レンダリング装置、ヘッドマウントディスプレイ、画像伝送方法、および画像補正方法
EP3008548B1 (en) Head-mountable apparatus and systems
EP3057089A1 (en) Image display device and image display method, image output device and image output method, and image display system
CN103677715A (zh) 一种沉浸式虚拟现实体验系统
CN104618712A (zh) 一种头戴式虚拟现实设备及包括该设备的虚拟现实系统
KR20160124479A (ko) 서버, 사용자 단말 장치 및 그 제어 방법
CN106444023A (zh) 一种超大视场角的双目立体显示的透射式增强现实系统
US20190109938A1 (en) Message display method according to event occurrence in vr device and apparatus therefor
KR101619468B1 (ko) 3d 가상현실 영상 디스플레이 장치 및 그 제어방법
CN111213111B (zh) 一种可穿戴式设备及其中的方法
CN111699460A (zh) 多视图虚拟现实用户界面
JP7193539B2 (ja) データ処理
WO2021107595A1 (ko) 가상콘텐츠 체험 시스템 및 그 제어방법
Surale et al. A design of low cost head-mounted display using android smartphone
KR20140115637A (ko) 다수 사용자에 입체 영상을 제공하는 시스템 및 그 방법
US11983306B2 (en) Peripheral tracking system and method
EP4030752A1 (en) Image generation system and method
US20210349310A1 (en) Highly interactive display environment for gaming
EP3559782B1 (en) Data processing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant