CN106462247A - 用于提供增强现实信息的可穿戴设备和方法 - Google Patents

用于提供增强现实信息的可穿戴设备和方法 Download PDF

Info

Publication number
CN106462247A
CN106462247A CN201580028440.0A CN201580028440A CN106462247A CN 106462247 A CN106462247 A CN 106462247A CN 201580028440 A CN201580028440 A CN 201580028440A CN 106462247 A CN106462247 A CN 106462247A
Authority
CN
China
Prior art keywords
augmented reality
wearable device
virtual objects
user
show
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201580028440.0A
Other languages
English (en)
Inventor
陈永泰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN106462247A publication Critical patent/CN106462247A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/339Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using spatial multiplexing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种电子设备,包括相机模块、收发器、显示器模块和处理器,其中,相机模块配置成通过可穿戴设备的相机模块来捕获图像;收发器配置成执行电子设备与可穿戴设备之间的功能性联接;处理器功能性地联接至相机模块和显示器模块,其中处理器配置成:通过收发器向电子设备发送图像以使用所捕获的图像生成增强现实,通过收发器在可穿戴设备的显示器模块上接收增强现实,通过相机模块检测用户手势,以及基于所检测的用户手势来控制显示器模块显示增强现实信息的改变。

Description

用于提供增强现实信息的可穿戴设备和方法
技术领域
本公开涉及通过追踪手势来改变增强现实信息中所包括的虚拟对象的可穿戴设备和方法。
背景技术
随着相关技术的显著发展,各种各样的移动电子设备,例如智能电话、平板PC(个人计算机)、PMP(便携式多媒体播放器)、PDA(个人数字助理)、膝上型PC以及可穿戴设备(诸如腕式手表或HMD(头戴式显示器))由于其高可用性和良好的便携性而日益普及。
现今,这类移动电子设备超出其各自的传统领域,并因此通过提供例如SNS(社交网络服务)、无线因特网接入、多媒体服务、增强现实信息显示等以及固有呼叫功能的各种功能而达到移动融合阶段。
发明内容
技术方案
为了解决以上讨论的缺点,主要目的是提供用于采集和分析用户姿势从而与用户姿势对应地改变增强现实信息的可穿戴设备和方法。
根据本公开实施方式,用于提供增强现实的方法包括:使用通过可穿戴设备的相机模块捕获的图像来生成增强现实;在可穿戴设备的显示器上显示增强现实;以及响应于用户手指相对于增强现实中所包括的选定对象弯曲,改变增强现实并在可穿戴设备的显示器上显示所改变的增强现实。
根据本公开实施方式,一种可穿戴设备包括相机模块、显示器模块以及功能性地联接至相机模块和显示器模块的处理器,处理器配置成:使用通过相机模块捕获的图像生成增强现实;在显示器模块上显示增强现实;以及响应于用户手指相对于增强现实中所包括的选定对象弯曲,改变增强现实并在显示器上显示所改变的增强现实。
根据本公开实施方式,用于提供增强现实信息的方法包括:执行电子设备与可穿戴设备之间的功能性联接;通过可穿戴设备的相机模块捕获图像;向电子设备发送图像以使用所捕获的图像生成增强现实;在可穿戴设备的显示器模块上接收和显示增强现实;检测相对于选定对象的用户手势;以及基于检测到的用户手势在显示器模块上显示增强现实信息的改变。
根据本公开实施方式,一种电子设备包括相机模块、收发器、显示器模块和处理器,其中,相机模块配置成通过可穿戴设备的相机模块来捕获图像;收发器配置成执行电子设备与可穿戴设备之间的功能联接;处理器功能性地联接至相机模块和显示器模块,其中处理器配置成:通过收发器向电子设备发送图像以使用所捕获的图像生成增强现实;通过收发器在可穿戴设备的显示器模块上接收增强现实;通过相机模块检测用户手势;并且基于检测到的用户手势来控制显示器模块显示增强现实信息的改变。
根据本公开实施方式,用于在可穿戴设备处提供增强现实信息的方法可包括:在功能性联接的显示器模块上显示增强现实信息;确定用户手指是否在通过相机模块采集的图像中弯曲;以及如果确定用户手指在所述图像中弯曲,则在显示器模块上显示增强现实信息的改变。
根据本公开实施方式,一种可穿戴设备可包括相机模块、显示器模块以及功能性地联接至相机模块和显示器模块的处理器。处理器可配置成:控制显示器模块在其上显示增强现实信息;确定用户手指是否在通过相机模块采集的图像中弯曲;以及如果确定用户的手指在所述图像中弯曲,则在显示器模块上显示增强现实信息的改变。
根据本公开实施方式,用于在可穿戴设备处提供增强现实信息的方法可包括:检测用户手势;以及基于检测到的用户手势,在显示器模块上显示增强现实信息的改变。
根据本公开实施方式,一种可穿戴设备可包括相机模块、显示器模块以及功能性地联接至相机模块和显示器模块的处理器。处理器可配置成检测用户手势;以及基于检测到的用户手势控制显示器模块显示增强现实信息的改变。
在进行以下详细说明之前,阐述本专利文档通篇中所使用的某些词语和短语的定义可能是有利的:术语“包括(include)”和“包括(comprise)”及其派生词表示包括但不限于;术语“或者”是包含性的,意指和/或;短语“与...相关联”和“与其相关联”及其派生词可表示包括、被包括在...内、与...互连、包含、被包含在...内、连接至...或者与...连接、联接至...或者与...联接、可与...通信、与...协作、交错、并列、邻近、被结合到...或与...结合、具有、具有...特性等;以及术语“控制器”是指控制至少一个操作的任何设备、系统或其一部分,这种设备可以硬件、固件或软件、或者它们中的至少两个的某种组合来实现。应当注意,无论是本地还是远程,与任何特定控制器相关联的功能均可以是集中式或分布式的。在本专利文档通篇中,提供某些词语和短语的定义,本领域普通技术人员应当理解,在多数情况下(如果不是大多数情况),这种定义适用于如此定义的词语和短语的现有以及将来使用。
附图说明
为了更充分地理解本公开及其有益效果,现在结合附图对以下描述进行参考,在附图中,相同的参考标记表示相同的部分:
图1是示出根据本公开实施方式其中包括电子设备的网络环境的框图。
图2是示出根据本公开实施方式的电子设备的框图。
图3是示出根据本公开实施方式的可穿戴设备的立体图。
图4是示出根据本公开实施方式用于提供增强现实信息的方法的流程图。
图5是示出根据本公开实施方式用于检测用户输入信号的方法的流程图。
图6a和图6b是示出根据本公开实施方式用于提供增强现实信息的方法的图。
图7a至图7c是示出根据本公开实施方式用于提供增强现实信息的方法的图。
图8a至图8c是示出根据本公开实施方式用于提供增强现实信息的方法的图。
图9a至图9c是示出根据本公开实施方式用于提供增强现实信息的方法的图。
图10a至图10c是示出根据本公开实施方式用于提供增强现实信息的方法的图。
具体实施方式
下面讨论的图1至图10c以及本专利文档中用于描述本公开原理的各实施方式仅仅是说明性的,而不应当以任何方式解释为限制本公开的范围。本领域技术人员将理解,本公开的原理可在任何适当布置的电子设备中实现。在下文中,将参照附图描述本公开。虽然附图中示出具体实施方式且本说明书中讨论相关的详细描述,但是本公开可具有各种修改和若干实施方式。然而,本公开各实施方式并不限于具体实现形式,并且应当理解,本公开包括包含在本公开各实施方式的精神和范围中的所有变型和/或等同和替代物。至于附图的描述,相同的组件由相同的参考标记表示。
在描述本公开各实施方式时可使用的术语“包括”或“可包括”是指存在可在本公开各实施方式中使用的对应所公开的功能、操作或组件,而不限制一个或多个附加的功能、操作或组件。在本公开各实施方式中,诸如“包括”或“具有”的术语可解释为表示特定的特性、数量、步骤、操作、组成元件、组件或其组合,但不可解释为排除一个或多个其他特性、数量、步骤、操作、组成元件、组件或其组合的存在或添加的可能性。
在本公开各实施方式中,表述“或”或“A或/和B中的至少一个”包括一起列出的词语的任何或所有组合。例如,表述“A或B”或“至少A或/和B”可包括A、可包括B、或者可包括A和B两者。
在本公开各实施方式中使用的表述“1”、“2”、“第一”或“第二”可修饰各实施方式的各组件,但不限制对应的组件。例如,上述表述不限制组件的顺序和/或重要性。所述表述可用于将一个组件与其他组件区分开。例如,第一用户设备和第二用户设备指示不同的用户设备,尽管它们两者都是用户设备。例如,在不脱离本公开的范围的情况下,第一结构元件可被称为第二结构元件。类似地,第二结构元件也可称为第一结构元件。
当陈述组件“联接至”或“连接至”另一组件时,所述组件可直接联接或连接至另一组件,或者所述组件与另一组件之间可存在新的组件。相反,当陈述一个组件“直接联接至”或“直接连接至”另一组件时,在所述组件与另一组件之间不存在新的组件。
在描述本公开各实施方式时使用的术语仅仅是用于描述具体实施方式的示例,而不限制本公开各实施方式。单数形式旨在包括复数形式,除非上下文另有明确指示。
除非另有定义,否则本文使用的所有术语(包括技术术语或科学术语)具有与本公开所属领域的技术人员所理解的相同的含义。如在通常使用的字典中定义的那些术语将被解释为具有与相关技术领域中的上下文含义相同的含义,而不应被解释为具有理想的或过于形式化的含义,除非在本说明书中明确定义。
根据本公开各实施方式的电子设备可以是包括通信功能的设备。例如,电子设备可以是以下之一或其组合:智能电话、平板个人计算机(PC)、移动电话、视频电话、电子书阅读器、台式PC、膝上型PC、上网本、个人数字助理(PDA)、相机、可穿戴设备(例如,诸如电子眼镜的头戴式设备(HMD)、电子服装、和电子手环、电子项链、电子附件、电子纹身和智能手表。
根据一些实施方式,电子设备可以是具有通信功能的智能家电。智能家电可包括以下至少之一:电视(TV)、数字视频光盘(DVD)播放器、音频播放器、空调、清洁器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、TV盒(例如,Samsung HomeSyncTM、Apple TVTM或GoogleTVTM)、游戏控制台、电子词典、电子钥匙、摄像机和电子框架。
根据一些实施方式,电子设备可包括以下至少之一:各类医疗设备(例如,磁共振血管造影(MRA)、磁共振成像(MRI)、计算机断层扫描(CT)、扫描仪、超声波设备等)、导航设备、全球定位系统(GPS)接收器、事件数据记录仪(EDR)、飞行数据记录仪(FDR)、车载娱乐设备、船用电子设备(例如,船用导航设备、陀螺仪罗盘等)、航空电子设备、安全设备、车头单元、工业或家用机器人、金融机构的自动柜员机(ATM)以及商店的销售点(POS)设备。根据一些实施方式,电子设备可包括以下至少之一:家具或建筑物/构筑物的一部分、电子板、电子签名接收设备、投影仪以及包括相机功能的各类测量设备(例如,水表、电表、燃气表、无线电波表等)。根据本公开各实施方式的电子设备可以是上述各设备中的一个或其组合。此外,根据本公开各实施方式的电子设备可以是柔性设备。对于本领域技术人员而言显而易见,根据本公开各实施方式的电子设备不限于上述设备。
在下文中,将参照附图描述根据本公开各实施方式的电子设备。在各实施方式中使用的术语“用户”可以指使用电子设备的人或使用电子设备的设备(例如,人工智能电子设备)。
图1示出包括根据本公开各实施方式的电子设备101的网络环境100。参考图1,电子设备101包括总线110、处理器120、存储器130、输入/输出接口140、显示器150、通信接口160和应用控制模块170。
总线110可以是连接上述组件并在上述组件之间发送通信(例如,控制消息)的电路。
处理器120通过总线110从其他组件(例如,存储器130、输入/输出接口140、显示器150、通信接口160或应用控制模块170)接收命令,分析所接收的命令,并根据所分析的命令执行计算或数据处理。
存储器130存储从处理器120或其他组件(例如,输入/输出接口140、显示器150、通信接口160或应用控制模块170)接收的或由处理器120或其他组件生成的命令或数据。存储器130可包括编程模块,例如,内核131、中间件132、应用编程接口(API)133和应用134。上述编程模块中的每一个可由软件、固件、硬件或其中两个或更多的组合来实现。
内核131控制或管理用于执行由剩余的其他编程模块(例如,中间件132、API 133或应用134)实现的操作或功能的系统资源(例如,总线110、处理器120或存储器130)。此外,内核131提供用于经由中间件132、API 133或应用134访问电子设备101的各个组件以控制或管理所述组件的接口。
中间件132执行允许API 133或应用134与内核131通信以交换数据的中继功能。此外,在从应用134接收的操作请求中,中间件132通过使用分配优先级的方法来执行对操作请求的控制(例如,调度或负载均衡),通过所述方法,可将电子设备101的系统资源(例如,总线110、处理器120、存储器130等)用于应用134。
API 133是应用134可通过其控制由内核131或中间件132提供的功能的接口,并且包括例如用于文件控制、窗口控制、图像处理或字符控制的至少一个接口或功能(例如,命令)。
根据各实施方式,应用134可包括短消息服务(SMS)/多媒体消息传递服务(MMS)应用、电子邮件应用、日历应用、报警应用、健康护理应用(例如,测量运动量或血糖的应用)或环境信息应用(例如,提供与大气压力、湿度或温度有关的信息的应用)。另外或可替代地,应用134可以是与电子设备101和外部电子设备(例如,电子设备104)之间的信息交换相关的应用。与信息交换相关的应用可包括例如用于向外部电子设备传送特定信息的通知中继应用或用于管理外部电子设备的设备管理应用。
例如,通知中继应用可包括将由电子设备101的另一应用(例如,SMS/MMS应用、电子邮件应用、健康护理应用或环境信息应用)生成的通知信息发送到外部电子设备(例如,电子设备104)的功能。另外或可替代地,通知中继应用可从例如外部电子设备104接收通知信息,并将所接收的通知信息提供给用户。设备管理应用可管理(例如,安装、移除或更新)与电子设备101通信的外部电子设备(104的至少一部分功能(例如,打开/关闭外部电子设备(或外部电子设备的一些组件)或控制显示器的亮度)、在外部电子设备104中执行的应用、或者由外部电子设备104提供的服务(例如,呼叫服务或消息服务)。
根据各实施方式,应用134可包括根据外部电子设备104的属性(例如,电子设备的类型)指定的应用。例如,当外部电子设备104是MP3播放器时,应用134可包括与音乐再现相关的应用。类似地,当外部电子设备104是移动医疗设备时,应用134可包括与健康护理相关的应用。根据实施方式,应用134可包括指定给电子设备101的应用和从外部电子设备(例如,服务器106或电子设备104)接收的应用中的至少一个。
输入/输出接口140通过例如总线110将用户通过输入/输出设备(例如,传感器、键盘或触摸屏)输入的命令或数据发送到处理器120、存储器130、通信接口160或显示控制模块170。例如,输入/输出接口140可将与用户通过触摸屏输入的触摸有关的数据提供给处理器120。此外,输入/输出接口140可通过输入/输出设备(例如,扬声器或显示器)输出经由例如总线110从处理器120、存储器130、通信接口160或应用控制模块170接收的命令或数据。例如,输入/输出接口140可通过扬声器将经由处理器120处理的语音数据输出给用户。
显示器150显示对于用户的各种信息(例如,多媒体数据、文本数据等)。
通信接口160连接电子设备101与外部设备(例如,电子设备104或服务器106)之间的通信。例如,通信接口160可通过无线或有线通信接入网络162以与外部设备通信。无线通信包括以下至少之一:例如,WiFi、蓝牙(BT)、近场通信(NFC)、全球定位系统(GPS)以及蜂窝通信(例如,LTE、LTE-A、CDMA、WCDMA、UMTS、WiBro或GSM)。有线通信可包括以下至少之一:例如,通用串行总线(USB)、高清晰度多媒体接口(HDMI)、推荐标准232(RS-232)和普通老式电话服务(POTS)。
根据实施方式,网络162可以是电信网络。电信网络包括计算机网络、因特网、物联网和电话网络中的至少一个。根据实施方式,用于电子设备101与外部设备之间的通信的协议(例如,传输层协议、数据链路层协议或物理层协议)可受到应用134、应用编程接口133、中间件132、内核131和通信接口160中的至少一个支持。
根据实施方式,服务器106通过执行由电子设备101实现的至少一个操作(或功能)来支持电子设备101的驱动。例如,服务器106可包括通信控制服务器模块108,其支持在电子设备101中实现的应用控制模块170。例如,通信控制服务器模块108可包括应用控制模块170的组件中的至少一个,以执行(代表)由应用控制模块170执行的至少一个操作。
图2是根据本公开各实施方式的电子设备201的框图200。电子设备201可配置例如图1所示的电子设备101的全部或一部分。参考图2,电子设备201包括一个或多个应用处理器(AP)210、通信模块220、订户识别模块(SIM)卡224、存储器230、传感器模块240、输入设备250、显示器260、接口270、音频模块280、相机模块291、电源管理模块295、电池296、指示器297和电机298。
AP 210操作操作系统(OS)或应用程序,以控制连接至AP 210的多个硬件或软件组件元件,并执行包括多媒体数据的各种数据处理和计算。AP 210可通过例如片上系统(SoC)来实现。根据实施方式,处理器210还可包括图形处理单元(GPU)。
通信模块220(例如,通信接口160)在通过网络连接至电子设备201(例如,电子设备101)的不同电子设备(例如,电子设备104和服务器106)之间的通信中发送/接收数据。根据实施方式,通信模块220包括蜂窝模块221、WiFi模块223、蓝牙(BT)模块225、全球定位系统(GPS)模块227、近场通信(NFC)模块228和射频(RF)模块229。
蜂窝模块221通过通信网络(例如,长期演进(LTE)、LTE-A、码分多址(CDMA)、宽带CDMA(WCDMA)、UMTS、WiBro、GSM等)提供语音、呼叫、视频呼叫、短消息服务(SMS)或因特网服务。此外,蜂窝模块221可通过使用订户识别模块(例如,SIM卡224)来区分和认证通信网络内的电子设备。根据实施方式,蜂窝模块221执行可由AP 210提供的功能中的至少一些。例如,蜂窝模块221可执行多媒体控制功能中的至少一些。
根据实施方式,蜂窝模块221可包括通信处理器(CP)。此外,蜂窝模块221可由例如SoC来实现。
虽然在图8中诸如蜂窝模块221(例如,通信处理器)、存储器230和电源管理模块295的组件被示出为AP 210分离的组件,但是在实施方式中,AP 210可包括前述组件中的至少一些(例如,蜂窝模块221)。
根据实施方式,AP 210或蜂窝模块221(例如,通信处理器)可将从连接至AP 210和蜂窝模块221中的每一个的非易失性存储器和其他组件中的至少一个接收的命令或数据加载到易失性存储器,并且处理所加载的命令或数据。此外,AP 210或蜂窝模块221可将从其他组件中的至少一个接收的或由其他组件中的至少一个生成的数据存储在非易失性存储器中。
WiFi模块223、BT模块225、GPS模块227和NFC模块228中的每一个可包括例如用于处理通过对应模块发送/接收的数据的处理器。虽然在图8中将蜂窝模块221、WiFi模块223、BT模块225、GPS模块227和NFC模块228示为彼此分离的框,但是根据实施方式,蜂窝模块221、WiFi模块223、BT模块225、GPS模块227和NFC模块228中的至少一些(例如两个或更多)可包括在一个集成芯片(IC)或一个IC封装中。例如,与蜂窝模块221、WiFi模块223、BT模块225、GPS模块227和NFC模块228对应的处理器中的至少一些(例如,与蜂窝模块221对应的通信处理器和与WiFi模块223对应的WiFi处理器)可由一个SoC来实现。
RF模块229发送/接收数据,例如RF信号。虽然未示出,但是RF模块229可包括例如收发器、功率放大器模块(PAM)、频率滤波器、低噪声放大器(LNA)等。此外,RF模块229还可包括用于在无线通信中通过自由广播空间(air space)发送/接收电子波的部件,例如导体、导线等。虽然在图2中蜂窝模块221、Wi-Fi模块223、BT模块225、GPS模块227和NFC模块228共享一个RF模块229,但是根据实施方式,蜂窝模块221、Wi-Fi模块223、BT模块225、GPS模块227和NFC模块228中的至少一个可通过单独的RF模块来发送/接收RF信号。
SIM卡224是包括订户识别模块的卡,并且可插入到形成于电子设备的特定部分中的槽中。SIM卡224包括唯一标识信息(例如,集成电路卡标识符(ICCID))或订户信息(例如,国际移动订户标识(IMSI))。
存储器230(例如,存储器130)可包括内部存储器232或外部存储器234。内部存储器232可包括例如易失性存储器(例如,随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、同步动态随机存取存储器(SDRAM)等)以及非易失性存储器(例如,只读存储器(ROM)、一次性可编程只读存储器(OTPROM)、可编程只读存储器(PROM)、可擦可编程只读存储器(EPROM)、电可擦可编程只读存储器(EEPROM)、掩模ROM,闪速ROM、NAND闪速存储器、NOR闪速存储器等)中的至少一种。
根据实施方式,内部存储器232可以是固态驱动器(SSD)。外部存储器234还可包括闪速驱动器,例如紧凑闪速(CF)、安全数字(SD)、微型安全数字(Micro-SD)、迷你安全数字(Mini-SD)极速数字(xD)或记忆棒。外部存储器234可通过各种接口功能性地连接至电子设备201。根据实施方式,电子设备201还可包括诸如硬盘驱动器的存储设备(或存储介质)。
传感器模块240测量物理量或检测电子设备201的操作状态,并将所测量或所检测的信息转换成电信号。传感器模块240可包括例如以下至少之一:姿势传感器240A、陀螺仪传感器240B、大气压力(气压)传感器240C、磁传感器240D、加速度传感器240E、握持传感器240F、接近传感器240G、颜色传感器240H(例如红绿蓝(RGB)传感器)240H、生物计量传感器240I、温度/湿度传感器240J、照度(光)传感器240K和紫外(UV)传感器240M。另外或可替代地,传感器模块240可包括例如E鼻传感器、肌电图(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外(IR)传感器、虹膜传感器,指纹传感器(未示出)等。传感器模块240还可包括用于控制传感器模块240中所包括的一个或多个传感器的控制电路。
输入设备250包括触摸面板252、(数字)笔传感器254、按键256和超声输入设备258。例如,触摸面板252可识别呈电容型、电阻型、红外型和声波型中的至少一种类型的触摸输入。触摸面板252还可包括控制电路。在电容型中,触摸面板252可识别接近以及直接触摸。触摸面板252还可包括触觉层。在这种情况下,触摸面板252向用户提供触觉反应。
(数字)笔传感器254可例如使用与接收用户的触摸输入的方法相同或类似的方法或者使用单独的识别片来实现。按键256可包括例如物理按钮、光学按键或小键盘。超声输入设备258是这样的设备,其可通过生成超声信号的输入装置、经由电子设备201的麦克风(例如,麦克风288)来检测声波以识别数据,并且可执行无线识别。根据实施方式,电子设备201通过使用通信模块220从连接至电子设备201的外部设备(例如,计算机或服务器)接收用户输入。
显示器260(例如,显示器150)包括面板262、全息图设备264和投影仪266。面板262可以是例如液晶显示器(LCD)或有源矩阵有机发光二极管(AM-OLED)。面板262可实现为例如柔性的、透明的或可穿戴的。面板262可由触摸面板252和一个模块配置。全息图设备264通过使用光的干涉在空中显示立体图像。投影仪266将光投射在屏幕上以显示图像。例如,屏幕可位于电子设备201的内部或外部。根据实施方式,显示器260还可包括用于控制面板262、全息图设备264和投影仪266的控制电路。
接口270包括例如高清晰度多媒体接口(HDMI)272、通用串行总线(USB)274、光学接口276和D超小型(D-sub)278。接口270可包括在例如图1所示的通信接口160中。另外或可替代地,接口290可包括例如移动高清晰度链路(MHL)接口、安全数字(SD)卡/多媒体卡(MMC)或红外数据协会(IrDA)标准接口。
音频模块280双向地转换声音信号和电信号。音频模块280的至少一些组件可包括在例如图1所示的输入/输出接口140中。音频模块280处理通过例如扬声器282、接收器284、耳机286、麦克风288等输入或输出的声音信息。
相机模块291是可拍摄静止图像和视频的设备。根据实施方式,相机模块291可包括一个或多个图像传感器(例如,前部传感器或后部传感器)、图像信号处理器(ISP)(未示出)或闪光灯(例如,LED或氙灯)。
电源管理模块295管理电子设备201的电源。虽然未示出,但是电源管理模块295可包括例如电源管理集成电路(PMIC)、充电器集成电路(IC)或电池或电量计。
PMIC可安装到例如集成电路或SoC半导体。充电方法可分为有线方法和无线方法。充电器IC为电池充电,并且防止从充电器流出过电压或过电流。根据实施方式,充电器IC包括用于有线充电方法和无线充电方法中的至少一种的充电器IC。无线充电方法可包括例如磁共振方法、磁感应方法和电磁波方法,并且可添加用于无线充电的附加电路,例如,诸如线圈回路、谐振电路、整流器等的电路。
电池电量计测量例如电池296的剩余电量,或充电期间的电压、电流或温度。电池296可存储或产生电力并且通过使用所存储或产生的电力来向电子设备201供电。电池296可包括可再充电电池或太阳能电池。
指示器297示出电子设备201或电子设备201的一部分(例如,AP 210)的特定状态,例如,启动状态、消息状态、充电状态等。电机298将电信号转换成机械振动。
虽然未示出,但是电子设备201可包括用于支持模块电视(TV)的处理单元(例如,GPU)。用于支持移动电视的处理单元可处理例如根据数字多媒体广播(DMB)、数字视频广播(DVB)、媒体流等标准的媒体数据。
根据本公开各实施方式的电子设备的组件中的每一个可由一个或多个组件实现,并且对应组件的名称可根据电子设备的类型而变化。根据本公开各实施方式的电子设备可包括上述组件中的至少一个,可省略若干组件,或者可进一步包括附加组件。另外,根据本公开各实施方式的电子设备的组件中的一些可组合以形成单个实体,从而可等效地执行对应组件在组合之前的功能。
图3是示出根据本公开实施方式的可穿戴设备200的立体图。
可穿戴设备200可以是例如但不限于适合于以眼镜或护目镜的形式穿戴的平视设备(HUD)。可穿戴设备200可包括面部板201和支撑部分202。面部板201可穿戴在用户的面部上。面部板201可通过各种构件支撑到用户的面部。在一个实施方式中,支撑部分202与面部板201组合,以将面部板201支撑到用户的面部。支撑部分202允许面部板201位于用户的眼睛周围。另外或可替代地,支撑部分202可由眼镜模板、头盔或带形成。
面部板201可具有适于用户穿戴的形式或结构。例如,面部板201可配置成覆盖用户的眼睛并且具有放置在用户鼻子上的凹部。
面部板201和/或支撑部分202可由诸如塑料的耐磨和轻质材料形成。
面部板201和/或支撑部分202可在内部或外部包括应用处理器(AP)210、通信模块220、订户识别模块(SIM)卡224、存储器230、传感器模块240、输入模块250、显示器模块260、接口270、音频模块280、相机模块291、电源管理模块295、电池296、指示器297和电机298,所有这些组件先前已经在图2中讨论。
可穿戴设备200可包括位于面部板201前部的相机模块291。通过相机模块291,可穿戴设备200可在用户的视线中获得外部图像。面部板201可包括至少一个镜片205A和205B。镜片205A和205B可作为显示器模块260操作。镜片205A和205B可由面板262形成,并且可穿戴设备200可通过由面板262形成的镜片205A和205B来显示图像。在另一实施方式中,可穿戴设备200可通过经由投影仪266将光投射在镜片上来显示图像。可穿戴设备200可通过位于用户视线中的相机模块291来获得真实图像、分析所获得的真实图像以及在显示器模块260上显示与所分析的真实图像对应的增强现实信息。
图4是示出根据本公开实施方式用于提供增强现实信息的方法的流程图。
在操作410,可穿戴设备200在空闲(idle)状态下操作。处理器120可控制可穿戴设备200处于空闲状态。在这种状态下,处理器120可在空闲模式下操作或者正在驱动某个应用、程序或服务。
图1所示的可穿戴设备100和图2所示的可穿戴设备200可执行相同的功能。例如,图1中的处理器120可执行与图2中的应用处理器210的功能相同的功能。
在操作420,可穿戴设备200确定是否存在对显示增强现实信息的请求。具体地,处理器120可确定是否通过输入模块250接收用于请求显示增强现实信息的用户输入。这种用户输入可以是以下之一:通过相机模块291或用户输入模块140接收的用户姿势、通过麦克风288或用户输入模块140接收的语音输入、通过用户输入模块140接收的触摸输入以及通过用户输入模块140接收的用户命令或数据。
可穿戴设备200可检测用户姿势,诸如手势,作为用于请求显示增强现实信息的用户输入。例如,用户姿势可以是用户弯曲手指或改变手部运动的动作。可穿戴设备200可检测用户的手部或手指的预定运动。另外或可替代地,可穿戴设备200可检测用户的手部或手指的变化超过预定角度。另外或可替代地,当用户的手部或手指在三维空间中保持静止达给定时间时,可穿戴设备200可识别用于请求显示增强现实信息的用户输入。
当通过通信模块220接收到与对显示增强现实信息的请求对应的特定数据时,处理器120可确定存在对显示增强现实信息的请求。另外,处理器120可确定是否通过由可穿戴设备200提供的程序或服务接收到这样的请求。另外,基于通过相机模块291接收的用户姿势,处理器120可确定是否存在这样的请求。如果不存在对显示增强现实信息的请求,则可穿戴设备200可保持空闲状态。如果检测到用户的手部或手指的预定义运动,或者如果检测到用户的手部或手指的改变超过预定角度,则可穿戴设备200可确定从用户接收到对显示增强现实信息的请求。
如果存在以上讨论的请求,则可穿戴设备200,特别是处理器120可在操作430显示增强现实信息。另外,处理器120可控制显示器模块260显示与通过相机模块291采集的图像组合的增强现实信息。例如,处理器120分析通过相机模块291采集的真实图像中所包括的对象,然后从所分析的对象中选择用于提供增强现实信息的目标对象。处理器120可显示增强现实信息中所包含的虚拟对象以及显示该目标对象。该虚拟对象可以是与目标对象相关联的图标或文本信息,或者可替代地是实际存在的人、建筑物、自然物体等的图像。可穿戴设备200可控制显示器模块260将虚拟对象覆盖在用户视线中的真实图像上。另外或可替代地,可穿戴设备200可控制显示器模块260以覆盖形式显示真实对象和虚拟对象二者。在这种情况下,可穿戴设备200可在显示器模块260上透明或半透明地显示虚拟对象,以使得用户可看到真实对象。
要用作提供增强现实信息的目标对象的对象可以是例如文本、人、建筑物、自然物体、条形码、QR码、书、电影海报等。通信模块220可建立用于上传和下载增强现实信息的通信信道,并且还支持由用户选择的特定增强现实信息的发送或接收。
为了显示增强现实信息,可穿戴设备200可通过由相机模块291采集对象作为增强现实信息的背景来构建虚拟空间,还可在所构建的虚拟空间中布置增强现实信息。利用传感器模块240和/或通信模块220,可穿戴设备200可支持要布置在虚拟空间中的增强现实信息的布置的定义。传感器模块240和/或通信模块220可检测与可穿戴设备200的运动相关联的信息,例如方向、距离、速度等。运动方向可包括三维空间中的所有方向。传感器模块240和/或通信模块220可使用传感器模块240中所包括的陀螺仪传感器240B和加速度传感器240E以及使用GPS部分模块227来采集与可穿戴设备200的运动相关联的信息。当接收到对显示增强现实信息的请求时或者当显示增强现实信息时,传感器模块240和/或通信模块220可自动激活。传感器模块240和/或通信模块220可将检测到的信号提供给处理器120。然后,基于检测到的信号,处理器120可构建虚拟空间并确定要布置在虚拟空间中的增强现实信息的布置。背景对象可以是布置在允许映射增强现实信息的虚拟空间中的至少一个图像或图形元素。背景对象可与通过相机模块291获得的图像的特定部分对应。
在操作440,可穿戴设备200可检测用于请求改变增强现实信息的用户输入信号。可穿戴设备200可通过相机模块291采集图像。然后,可穿戴设备200可从所采集的图像提取用于请求改变增强现实信息的用户输入信号。该用户输入信号可以是用户姿势,诸如手势。可穿戴设备200可通过相机模块291追踪手势、分析所追踪的手势以及响应于所分析的姿势提供改变的增强现实信息。在这种情况下,可穿戴设备200可预先存储与所分析的姿势映射的命令。
用于请求改变增强现实信息的用户输入可以是以下之一:通过相机模块291或用户输入模块140接收的用户姿势、通过麦克风288或用户输入模块140接收的语音输入、通过用户输入模块140接收的触摸输入以及通过用户输入模块140接收的用户命令或数据。
可穿戴设备200可检测用户姿势,诸如手势。例如,用户姿势可以是用户弯曲手指或改变手部运动的动作。可穿戴设备200可检测用户的手部或手指的预定运动。另外或可替代地,可穿戴设备200可检测用户的手部或手指超过预定角度的改变。另外或可替代地,可穿戴设备200可通过检测这样的用户姿势、运动、动作等来识别用于请求显示增强现实信息的用户输入。
在操作450,可穿戴设备200可响应于检测到的用户输入信号来改变增强现实信息。可穿戴设备200可响应于与所分析的姿势相映射的预定命令来改变增强现实信息。根据实施方式,所述改变增强现实信息可以是:显示与用于提供增强现实信息的目标对象有关的详细信息、显示所选择的虚拟对象、显示放大或缩小的虚拟对象、改变虚拟对象的显示方向等。
图5是示出根据本公开实施方式用于检测用户输入信号的方法的流程图。
在操作441,可穿戴设备200通过相机模块291采集图像。在操作443,可穿戴设备200从所采集的图像提取用户姿势。用户姿势可以是手势,并且处理器120可从所采集的图像提取用户的手势。在操作445,可穿戴设备200可分析所提取的用户姿势。可穿戴设备200可预先存储与所分析的姿势相映射的预定命令。
处理器120可确定所提取的用户姿势是否是例如请求显示与用于提供增强现实信息的目标对象有关的详细信息的姿势、请求选择虚拟对象的姿势、请求放大或缩小虚拟对象的姿势或者请求改变虚拟对象的显示方向的姿势。例如,如果用户的手指指示虚拟对象,则可穿戴设备200可确定这个姿势是用于选择虚拟对象。例如,如果用户的手指改变到预定角度,则可穿戴设备200可确定这个姿势是用于请求与虚拟对象有关的详细信息。例如,如果两只手的两个手指改变到预定角度并且如果两只手彼此接近,则可穿戴设备200可确定这个姿势是用于缩小虚拟对象。例如,如果两只手的两个手指改变为预定角度并且如果两只手彼此离开,则可穿戴设备200可确定这个姿势是用于放大虚拟对象。例如,如果两只手的两个手指倒置,则可穿戴设备200可确定这个姿势是用于显示虚拟对象的空瞰图。例如,如果左手手指指示用户的方向并且如果右手手指指示用户的相反方向,则可穿戴设备200可确定这个姿势是用于显示虚拟对象的左侧。例如,如果右手手指指示用户的方向并且如果左手手指指示用户的相反方向,则可穿戴设备200可确定这个姿势是用于显示虚拟对象的右侧。
图6a和图6b是示出根据本公开实施方式用于提供增强现实信息的方法的图。
参考图6a,可穿戴设备200可控制显示器260显示至少一种类型的增强现实信息20、21和30。可穿戴设备200可显示虚拟对象,其中所述虚拟对象形成为与通过相机模块291采集的真实图像中所包括的对象对应的图像。例如,如果包含在通过相机模块291采集的真实图像中的对象是建筑物,则可穿戴设备200可控制显示器260显示形成为建筑物图像的虚拟对象20。另外,可穿戴设备200可控制显示器260显示标识包含在真实图像中的对象的图标21。该图标21可包括与虚拟对象20相关联的信息,其中所述虚拟对象20形成为与包含在真实图像中的对象相对应的图像。例如,如果形成为与包含在真实图像中的对象相对应的图像的虚拟对象20是建筑物,并且如果书店位于所述建筑物中,则可穿戴设备200可在虚拟对象20附近显示图标21使得可标识包含在实际图像中的对象。如果用户的手指10指示虚拟对象20或图标21,则可穿戴设备200可确定这个姿势是用于选择虚拟对象20或图标21。然后,可穿戴设备200可在手指10的尖端周围显示作为用于表示选择虚拟对象20或图标21的标识符的窗口30。
参考图6b,当用户的手指10以角度11弯曲时,可穿戴设备200可检测或追踪该姿势。如果这个角度11是预定角度或更大,则可穿戴设备200可确定这个姿势是用于请求与虚拟对象20有关的详细信息,其中所述虚拟对象20是用于提供增强现实信息的目标对象。可替代地,如果用户的手指10仅仅是弯曲而不管角度如何,则可穿戴设备200可确定这个姿势是用于请求与作为用于提供增强现实信息的目标对象的虚拟对象20有关的详细信息。
响应于以上姿势,可穿戴设备200可控制显示器260显示与虚拟对象20有关的详细信息22。例如,如果作为用于提供增强现实信息的目标对象的虚拟对象20是书店,则可显示与书店有关的详细信息,包括诸如开放时间、位置和电话号码的文本信息和/或诸如照片和地图的图像信息。
图7a至图7c是示出根据本公开实施方式用于提供增强现实信息的方法的图。
参考图7a,可穿戴设备200可控制显示器260显示至少一种类型的增强现实信息20、31和32。可穿戴设备200可显示虚拟对象,其中所述虚拟对象形成为与包含在通过相机模块291采集的真实图像中的对象对应的图像。例如,如果包含在通过相机模块291采集的真实图像中的对象是建筑物,则可穿戴设备200可控制显示器260显示形成为建筑物图像的虚拟对象20。如果双手12和13的两个手指指示虚拟对象20,则可穿戴设备200可确定这个姿势是用于选择虚拟对象20。然后,可穿戴设备200可在每个手指的尖端周围显示作为用于表示选择虚拟对象20的标识符的窗口31和32。
参考图7b,当双手12和13的手指以相应的角度14和15弯曲时,并且另外当双手12和13彼此接近时,可穿戴设备200可检测或追踪这个姿势。如果这些角度14和15是预定角度或更大,则可穿戴设备200可确定这个姿势是用于缩小虚拟对象20。可替代地,如果两个指尖仅仅弯曲而不管角度如何并且彼此接近,则可穿戴设备200可确定这个姿势是用于缩小虚拟对象20。
响应于以上姿势,可穿戴设备200可控制显示器260显示缩小尺寸的虚拟对象20。在这种情况下,缩小比可取决于两只手12和13或指尖之间的接近比或距离。
参考图7c,当两只手12和13的手指以相应的角度14和15弯曲时,并且另外当双手12和13彼此离开时,可穿戴设备200可检测或追踪这个姿势。如果这些角度14和15是预定角度或更大角度,则可穿戴设备200可确定这个姿势是用于放大虚拟对象20。可替代地,如果两个指尖仅仅弯曲而不管角度如何并且彼此离开,则可穿戴设备200可确定这个姿势是用于放大虚拟对象20。
响应于以上姿势,可穿戴设备200可控制显示器260显示放大尺寸的虚拟对象20。在这种情况下,放大比可取决于两只手12和13或指尖之间的离开比或距离。
图8a至图8c是示出根据本公开实施方式用于提供增强现实信息的方法的图。
参考图8a,可穿戴设备200可控制显示器260显示至少一种类型的增强现实信息17a、17b、18a和18b。可穿戴设备200可显示形成为与包含在通过相机模块291采集的真实图像中的对象对应的图像的虚拟对象。例如,如果包含在通过相机模块291采集的真实图像中的对象是建筑物,则可穿戴设备200可控制显示器260显示形成为建筑物图像的虚拟对象。如果两只手12和13的四个手指(例如,左手12的拇指和食指以及右手13的拇指和食指)指示虚拟对象,则可穿戴设备200可确定这个姿势是用于选择虚拟对象。然后,可穿戴设备200可在每个手指的尖端周围显示作为用于表示选择虚拟对象的标识符的窗口17a、17b、18a和18b。
参考图8b,当每只手12和13的两个手指倒置时,可穿戴设备200可检测或追踪这个姿势。也就是说,当如参考标记19a所示那样改变左手12的拇指和食指的位置时,并且当如参考标记19b所示那样改变右手13的拇指和食指的位置时,可穿戴设备200可将其识别为倒置姿势。可穿戴设备200可确定这个姿势是用于显示虚拟对象的空瞰图,然后控制显示器260显示如图8c所示的空瞰图。
图9a至图9c是示出根据本公开实施方式用于提供增强现实信息的方法的图。
参考图9a,可穿戴设备200可控制显示器260显示至少一种类型的增强现实信息40a、40b和60。可穿戴设备200可显示形成为与包含在通过相机模块291采集的真实图像中的对象对应的图像的虚拟对象60。如果双手12和13的两个手指指示虚拟对象,则可穿戴设备200可确定这个姿势是用于选择虚拟对象。然后,可穿戴设备200可在每个手指的尖端周围显示作为用于表示选择虚拟对象的标识符的窗口40a和40b。
参考图9b,当双手12和13的两个手指在如参考标记50a和50b所示的方向上改变时,可穿戴设备200可检测或追踪这个姿势并确定这个姿势是用于改变虚拟对象的显示方向。例如,如果左手12的手指指示用户的方向,并且如果右手13的手指指示用户的相反方向,则可穿戴设备200可确定这个姿势是用于显示虚拟对象的左侧。然后,如图9c所示,可穿戴设备200可基于位于屏幕左侧的虚拟对象60来移动所显示的屏幕。
图10a至图10c是示出根据本公开实施方式用于提供增强现实信息的方法的图。
参考图10a,可穿戴设备200可控制显示器260显示至少一种类型的增强现实信息40a、40b和70。可穿戴设备200可显示形成为与包含在通过相机模块291采集的真实图像中的对象对应的图像的虚拟对象70。如果双手12和13的两个手指指示虚拟对象,则可穿戴设备200可确定这个姿势是用于选择虚拟对象。然后,可穿戴设备200可在每个手指的尖端周围显示作为用于表示选择虚拟对象20的标识符的窗口40a和40b。
参考图10b,当双手12和13的两个手指在如参考标记50a和50b所示的方向上改变时,可穿戴设备200可检测或追踪这个姿势并确定这个姿势是用于改变虚拟对象的显示方向。例如,如果左手12的手指指示用户的相反方向,并且如果右手13的手指指示用户的方向,则可穿戴设备200可确定这个姿势是用于显示虚拟对象的右侧。然后,如图10c所示,可穿戴设备200可基于位于屏幕右侧的虚拟对象60来移动所显示的屏幕。
根据实施方式,在其上记录有各种命令的计算机可读存储介质中,所述命令定义为在被至少一个处理器执行时使得所述处理器能够执行至少一个操作。在用于在可穿戴设备处提供增强现实信息的方法中,所述至少一个操作可包括:在功能性地联接的显示器模块上显示增强现实信息的操作;确定用户的手指是否在通过相机模块采集的图像中弯曲;以及如果确定用户的手指在所述图像中弯曲,则在显示器模块上显示增强现实信息的改变。
如上文充分讨论的,可穿戴设备可响应于用户的姿势来提供增强现实信息,从而最大化用户与设备之间的用户友好型交互。
虽然已经利用示例性实施方式描述了本公开,但是本领域技术人员可得到各种变型和修改的启示。本公开旨在涵盖落入所附权利要求的范围内的这类变型和修改。

Claims (20)

1.用于提供增强现实的方法,所述方法包括:
使用通过可穿戴设备的相机模块捕获的图像来生成增强现实;
在所述可穿戴设备的显示器上显示所述增强现实;以及
响应于用户手指相对于所述增强现实中所包括的选定对象弯曲,改变所述增强现实并在所述可穿戴设备的显示器上显示所改变的增强现实。
2.如权利要求1所述的方法,其中所述用户手指弯曲到预定角度或更大。
3.如权利要求1所述的方法,还包括:
分析所述选定对象,并且基于所述分析显示与所述选定对象对应的虚拟对象。
4.如权利要求1所述的方法,还包括:
当弯曲的所述用户手指在所述图像中移动时,在所述显示器上显示所述增强现实的进一步改变。
5.如权利要求3所述的方法,其中所述虚拟对象包括:所述选定对象的缩小形式、所述选定对象的放大形式或所述选定对象的移动形式,或者与所述选定对象有关的详细信息。
6.一种可穿戴设备,包括:
相机模块;
显示器模块;以及
处理器,功能性地联接至所述相机模块和所述显示器模块,所述处理器配置成:
使用通过所述相机模块捕获的图像来生成增强现实;
在所述显示器模块上显示所述增强现实;以及
响应于所述用户手指相对于所述增强现实中所包括的选定对象弯曲,改变所述增强现实并在所述显示器上显示所改变的增强现实。
7.如权利要求6所述的可穿戴设备,其中所述处理器还配置成:确定所述用户的手指是否弯曲到预定角度或更大。
8.如权利要求6所述的可穿戴设备,其中所述处理器还配置成:分析所述选定对象,以及基于所述分析控制所述显示器模块显示与所述选定对象对应的虚拟对象。
9.如权利要求6所述的可穿戴设备,其中所述处理器还配置成:当弯曲的所述用户手指在所述图像中移动时,控制所述显示器模块在所述显示器上显示所述增强现实信息的进一步改变。
10.如权利要求8所述的可穿戴设备,其中所述虚拟对象包括:所述选定对象的缩小形式、所述选定对象的放大形式或所述选定对象的移动形式,或者与所述选定对象有关的详细信息。
11.用于提供增强现实信息的方法,包括:
执行电子设备与可穿戴设备之间的功能性联接;
通过所述可穿戴设备的相机模块来捕获图像;
向所述电子设备发送所述图像以使用所捕获的图像来生成增强现实;
在所述可穿戴设备的显示器模块上接收和显示所述增强现实;
检测相对于选定对象的用户手势;以及
基于所检测的用户手势,在所述显示器模块上显示所述增强现实信息的改变。
12.如权利要求11所述的方法,其中所述用户手势包括弯曲至少一个手指和移动所述至少一个手指中的至少一种。
13.如权利要求12所述的方法,其中,分析所述选定对象并基于所述分析显示与所述选定对象对应的虚拟对象。
14.如权利要求13所述的方法,其中所述虚拟对象包括:显示所述虚拟对象的缩小形式、所述虚拟对象的放大形式或所述虚拟对象的移动形式,或者显示与所述虚拟对象有关的详细信息。
15.如权利要求13所述的方法,其中显示所述虚拟对象包括:以重叠形式在所分析的对象上透明或半透明地显示所述虚拟对象。
16.一种电子设备,包括:
相机模块,配置成通过可穿戴设备的相机模块来捕获图像;
收发器,配置成执行电子设备与可穿戴设备之间的功能性联接;
显示器模块;以及
处理器,功能性地联接至所述相机模块和所述显示器模块,
其中所述处理器配置成:
通过所述收发器向所述电子设备发送所述图像以使用所捕获的图像生成增强现实;
通过所述收发器在所述可穿戴设备的显示器模块上接收所述增强现实;
通过所述相机模块检测用户手势;以及
基于所检测的用户手势来控制所述显示器模块显示增强现实信息的改变。
17.如权利要求16所述的可穿戴设备,其中所述用户手势包括弯曲至少一个手指和移动所述至少一个手指中的至少一种。
18.如权利要求17所述的可穿戴设备,其中所述处理器还配置成:分析所述选定对象,并且控制所述显示器模块显示与所述选定对象对应的虚拟对象。
19.如权利要求18所述的可穿戴设备,其中所述处理器还配置成:控制所述显示器模块显示所述虚拟对象的缩小形式、所述虚拟对象的放大形式或所述虚拟对象的移动形式,或者显示与所述虚拟对象有关的详细信息。
20.如权利要求18所述的可穿戴设备,其中所述处理器还配置成:控制所述显示器模块以覆盖在所述选定对象上的形式透明或半透明地显示所述虚拟对象。
CN201580028440.0A 2014-06-05 2015-05-28 用于提供增强现实信息的可穿戴设备和方法 Pending CN106462247A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020140068225A KR102303115B1 (ko) 2014-06-05 2014-06-05 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
KR10-2014-0068225 2014-06-05
PCT/KR2015/005387 WO2015186925A1 (en) 2014-06-05 2015-05-28 Wearable device and method for providing augmented reality information

Publications (1)

Publication Number Publication Date
CN106462247A true CN106462247A (zh) 2017-02-22

Family

ID=54766958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580028440.0A Pending CN106462247A (zh) 2014-06-05 2015-05-28 用于提供增强现实信息的可穿戴设备和方法

Country Status (5)

Country Link
US (1) US10484673B2 (zh)
EP (1) EP3152639A4 (zh)
KR (1) KR102303115B1 (zh)
CN (1) CN106462247A (zh)
WO (1) WO2015186925A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107426886A (zh) * 2016-05-24 2017-12-01 仁宝电脑工业股份有限公司 智能照明装置
TWI633500B (zh) * 2017-12-27 2018-08-21 中華電信股份有限公司 擴增實境應用產生系統及方法
CN108427499A (zh) * 2018-02-13 2018-08-21 视辰信息科技(上海)有限公司 一种ar系统及ar设备
CN109426348A (zh) * 2017-08-29 2019-03-05 西门子医疗有限公司 用于选择虚拟对象或图像参数值的方法和选择单元
CN110058675A (zh) * 2017-11-27 2019-07-26 安士能有限及两合公司 安全系统
CN110333785A (zh) * 2019-07-11 2019-10-15 Oppo广东移动通信有限公司 信息处理方法、装置、存储介质及增强现实设备
CN111766947A (zh) * 2020-06-30 2020-10-13 歌尔科技有限公司 一种显示方法、装置、可穿戴设备及介质
CN111902764A (zh) * 2018-03-15 2020-11-06 闵尚圭 折叠式虚拟现实设备

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823737B2 (en) * 2008-04-07 2017-11-21 Mohammad A Mazed Augmented reality personal assistant apparatus
US10921896B2 (en) * 2015-03-16 2021-02-16 Facebook Technologies, Llc Device interaction in augmented reality
CN108351713B (zh) * 2015-10-14 2022-03-08 麦克赛尔株式会社 输入终端装置和操作输入方法
US10133407B2 (en) * 2015-12-28 2018-11-20 Seiko Epson Corporation Display apparatus, display system, method for controlling display apparatus, and program
EP3398009A1 (fr) * 2015-12-30 2018-11-07 Essilor International (Compagnie Générale D'Optique) Procédé de commande d'un système ophtalmique à partir d'une mesure et d'une information obtenue par un dispositif électronique externe
WO2018048000A1 (ko) 2016-09-12 2018-03-15 주식회사 딥픽셀 단일 카메라 기반의 3차원 영상 해석 장치 및 방법, 3차원 영상 해석을 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 매체
KR20180080012A (ko) * 2017-01-03 2018-07-11 주식회사 한국스포츠예술차세대플랫폼 소셜 네트워크 서비스를 이용한 실감형 음악연주 컨텐츠 생성·공유 장치 및 방법
US10437343B2 (en) * 2017-01-06 2019-10-08 Samsung Electronics Co., Ltd. Augmented reality control of internet of things devices
US10405374B2 (en) * 2017-03-17 2019-09-03 Google Llc Antenna system for head mounted display device
SE541650C2 (en) 2017-05-30 2019-11-19 Crunchfish Ab Improved activation of a virtual object
US10678338B2 (en) 2017-06-09 2020-06-09 At&T Intellectual Property I, L.P. Determining and evaluating data representing an action to be performed by a robot
CN110058673A (zh) * 2018-01-17 2019-07-26 广西米克尔森科技股份有限公司 一种虚拟现实与增强现实展示内容互换技术
US11481029B2 (en) 2018-02-09 2022-10-25 Samsung Electronics Co., Ltd. Method for tracking hand pose and electronic device thereof
US20190324549A1 (en) * 2018-04-20 2019-10-24 Immersion Corporation Systems, devices, and methods for providing immersive reality interface modes
CN110163045A (zh) * 2018-06-07 2019-08-23 腾讯科技(深圳)有限公司 一种手势动作的识别方法、装置以及设备
US10908419B2 (en) 2018-06-28 2021-02-02 Lucyd Ltd. Smartglasses and methods and systems for using artificial intelligence to control mobile devices used for displaying and presenting tasks and applications and enhancing presentation and display of augmented reality information
CN109814719B (zh) * 2018-07-26 2024-04-26 亮风台(上海)信息科技有限公司 一种基于穿戴眼镜的显示信息的方法与设备
CN110072046B (zh) * 2018-08-24 2020-07-31 北京微播视界科技有限公司 图像合成方法和装置
CN112840379A (zh) * 2018-10-15 2021-05-25 索尼公司 信息处理装置、信息处理方法及程序
KR102154270B1 (ko) * 2018-11-28 2020-09-09 임훈 이미지 인식을 이용하여 ar영상을 제공하는 서버
USD899497S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD899499S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD899500S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD900203S1 (en) 2019-03-22 2020-10-27 Lucyd Ltd. Smart glasses
USD899494S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD900206S1 (en) 2019-03-22 2020-10-27 Lucyd Ltd. Smart glasses
USD900920S1 (en) 2019-03-22 2020-11-03 Lucyd Ltd. Smart glasses
USD900205S1 (en) 2019-03-22 2020-10-27 Lucyd Ltd. Smart glasses
USD899493S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD899496S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD899495S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
USD900204S1 (en) 2019-03-22 2020-10-27 Lucyd Ltd. Smart glasses
USD899498S1 (en) 2019-03-22 2020-10-20 Lucyd Ltd. Smart glasses
US11258880B2 (en) * 2019-06-24 2022-02-22 Amazon Technologies, Inc. Wearable device for controlling endpoint devices
KR102313622B1 (ko) 2019-08-21 2021-10-19 한국과학기술연구원 생체신호 기반 아바타 제어시스템 및 방법
JP2021034992A (ja) * 2019-08-29 2021-03-01 セイコーエプソン株式会社 光学装置及び装着型表示装置
USD958234S1 (en) 2019-12-12 2022-07-19 Lucyd Ltd. Round smartglasses having pivot connector hinges
USD954135S1 (en) 2019-12-12 2022-06-07 Lucyd Ltd. Round smartglasses having flat connector hinges
USD954136S1 (en) 2019-12-12 2022-06-07 Lucyd Ltd. Smartglasses having pivot connector hinges
USD955467S1 (en) 2019-12-12 2022-06-21 Lucyd Ltd. Sport smartglasses having flat connector hinges
US11496797B2 (en) * 2019-12-13 2022-11-08 At&T Intellectual Property I, L.P. Methods, systems, and devices for providing augmented reality content based on user engagement
USD954137S1 (en) 2019-12-19 2022-06-07 Lucyd Ltd. Flat connector hinges for smartglasses temples
USD974456S1 (en) 2019-12-19 2023-01-03 Lucyd Ltd. Pivot hinges and smartglasses temples
CN111158478B (zh) * 2019-12-26 2023-02-03 维沃移动通信有限公司 响应方法及电子设备
US11475639B2 (en) 2020-01-03 2022-10-18 Meta Platforms Technologies, Llc Self presence in artificial reality
US11282523B2 (en) * 2020-03-25 2022-03-22 Lucyd Ltd Voice assistant management
KR20220003254A (ko) * 2020-07-01 2022-01-10 삼성전자주식회사 증강 현실을 제공하는 전자 장치 및 그 방법
KR20220114336A (ko) * 2021-02-08 2022-08-17 현대자동차주식회사 사용자 단말 및 그 제어 방법
WO2022220459A1 (en) * 2021-04-14 2022-10-20 Samsung Electronics Co., Ltd. Method and electronic device for selective magnification in three dimensional rendering systems
US11295503B1 (en) 2021-06-28 2022-04-05 Facebook Technologies, Llc Interactive avatars in artificial reality
KR102522142B1 (ko) * 2021-07-05 2023-04-17 주식회사 피앤씨솔루션 양손 제스처를 이용해 조작 신호를 입력하는 착용형 증강현실 장치 및 양손 제스처를 이용한 착용형 증강현실 장치의 조작 방법
US20230196765A1 (en) * 2021-12-21 2023-06-22 Meta Platforms Technologies, Llc Software-based user interface element analogues for physical device elements
US20230360302A1 (en) * 2022-05-05 2023-11-09 Universal City Studios Llc Augmented reality tattoo

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013093906A1 (en) * 2011-09-19 2013-06-27 Eyesight Mobile Technologies Ltd. Touch free interface for augmented reality systems
CN103827728A (zh) * 2011-07-18 2014-05-28 谷歌公司 使用光学遮挡识别目标对象

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100310036B1 (ko) 1999-03-26 2001-11-02 전영삼 눈의 수직 움직임 추정 방법과 그를 이용한 전자기기의 원격 조절 장치
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
KR100396924B1 (ko) 2001-02-27 2003-09-03 한국전자통신연구원 생체신호를 이용한 전자기기 제어 장치 및 그 방법
US11428937B2 (en) * 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
KR101001617B1 (ko) * 2007-12-17 2010-12-17 한국전자통신연구원 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
WO2012011893A1 (en) * 2010-07-20 2012-01-26 Empire Technology Development Llc Augmented reality proximity sensing
US20120050144A1 (en) * 2010-08-26 2012-03-01 Clayton Richard Morlock Wearable augmented reality computing apparatus
TWI501130B (zh) 2010-10-18 2015-09-21 Ind Tech Res Inst 虛擬觸控輸入系統
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
KR20120062170A (ko) * 2010-12-06 2012-06-14 삼성전자주식회사 가상 모니터 제어장치 및 그 제어방법
KR101252169B1 (ko) * 2011-05-27 2013-04-05 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP2013061848A (ja) 2011-09-14 2013-04-04 Panasonic Corp 非接触入力装置
WO2013119221A1 (en) 2012-02-08 2013-08-15 Intel Corporation Augmented reality creation using a real scene
US10133342B2 (en) * 2013-02-14 2018-11-20 Qualcomm Incorporated Human-body-gesture-based region and volume selection for HMD
US20150187357A1 (en) * 2013-12-30 2015-07-02 Samsung Electronics Co., Ltd. Natural input based virtual ui system for mobile devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103827728A (zh) * 2011-07-18 2014-05-28 谷歌公司 使用光学遮挡识别目标对象
WO2013093906A1 (en) * 2011-09-19 2013-06-27 Eyesight Mobile Technologies Ltd. Touch free interface for augmented reality systems

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107426886A (zh) * 2016-05-24 2017-12-01 仁宝电脑工业股份有限公司 智能照明装置
CN107426886B (zh) * 2016-05-24 2020-07-07 仁宝电脑工业股份有限公司 智能照明装置
CN109426348A (zh) * 2017-08-29 2019-03-05 西门子医疗有限公司 用于选择虚拟对象或图像参数值的方法和选择单元
CN110058675A (zh) * 2017-11-27 2019-07-26 安士能有限及两合公司 安全系统
CN110058675B (zh) * 2017-11-27 2023-11-28 安士能有限及两合公司 安全锁定系统
TWI633500B (zh) * 2017-12-27 2018-08-21 中華電信股份有限公司 擴增實境應用產生系統及方法
CN108427499A (zh) * 2018-02-13 2018-08-21 视辰信息科技(上海)有限公司 一种ar系统及ar设备
CN111902764A (zh) * 2018-03-15 2020-11-06 闵尚圭 折叠式虚拟现实设备
CN110333785A (zh) * 2019-07-11 2019-10-15 Oppo广东移动通信有限公司 信息处理方法、装置、存储介质及增强现实设备
CN111766947A (zh) * 2020-06-30 2020-10-13 歌尔科技有限公司 一种显示方法、装置、可穿戴设备及介质

Also Published As

Publication number Publication date
KR102303115B1 (ko) 2021-09-16
US20150358614A1 (en) 2015-12-10
US10484673B2 (en) 2019-11-19
KR20150140043A (ko) 2015-12-15
WO2015186925A1 (en) 2015-12-10
EP3152639A1 (en) 2017-04-12
EP3152639A4 (en) 2018-01-31

Similar Documents

Publication Publication Date Title
CN106462247A (zh) 用于提供增强现实信息的可穿戴设备和方法
US10229565B2 (en) Method for producing haptic signal and electronic device supporting the same
CN106415510B (zh) 数据处理方法及其电子设备
KR102559625B1 (ko) 증강 현실 출력 방법 및 이를 지원하는 전자 장치
KR102360453B1 (ko) 카메라 설정 방법 및 장치
KR102499349B1 (ko) 전방위 영상을 제공하는 전자 장치 및 방법
KR102294945B1 (ko) 기능 제어 방법 및 그 전자 장치
KR20170028193A (ko) 히든 디스플레이를 갖는 전자 장치 및 정보 표시 방법
CN105981365B (zh) 电子装置的拍摄方法及其电子装置
CN107665485A (zh) 用于显示图形对象的电子装置和计算机可读记录介质
KR102279674B1 (ko) 전자 장치의 멀티미디어 데이터 처리 방법 및 그 전자 장치
CN107852437A (zh) 用于在电子设备中输出音频的方法和装置
CN106354451A (zh) 用于操作电子设备的方法和电子设备
CN107491177A (zh) 用于识别旋转体的旋转的方法及用于处理该方法的电子设备
KR20160031851A (ko) 정보 제공 방법 및 그 전자 장치
KR20170137527A (ko) 웨어러블 전자 장치와 이의 동작 방법
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
CN108463799A (zh) 电子设备的柔性显示器及其操作方法
KR20160051411A (ko) 외부의 물체를 제어하는 전자 장치 및 그 방법
CN108475162A (zh) 用于显示用户界面的方法和用于支持该方法的电子装置
CN108431731B (zh) 用于执行基于生物计量信号的功能的方法、存储介质和电子设备
KR20160114434A (ko) 전자 장치 및 전자 장치의 이미지 촬영 방법
KR20170035604A (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
CN107817904A (zh) 用于显示软键的方法及其电子设备
CN109804618A (zh) 用于显示图像的电子设备和计算机可读记录介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20170222

RJ01 Rejection of invention patent application after publication