CN105653084B - 屏幕配置方法、电子设备和存储介质 - Google Patents

屏幕配置方法、电子设备和存储介质 Download PDF

Info

Publication number
CN105653084B
CN105653084B CN201510848767.4A CN201510848767A CN105653084B CN 105653084 B CN105653084 B CN 105653084B CN 201510848767 A CN201510848767 A CN 201510848767A CN 105653084 B CN105653084 B CN 105653084B
Authority
CN
China
Prior art keywords
electronic device
display
distance
screen
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510848767.4A
Other languages
English (en)
Other versions
CN105653084A (zh
Inventor
金明植
李择宪
边光民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to CN202110276435.9A priority Critical patent/CN113076025B/zh
Publication of CN105653084A publication Critical patent/CN105653084A/zh
Application granted granted Critical
Publication of CN105653084B publication Critical patent/CN105653084B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/84Data processing systems or methods, management, administration

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供一种配置电子设备的屏幕的方法。该方法包括:获得电子设备和用于对电子设备执行输入的对象之间的距离;并且基于所获得的距离在电子设备的显示器上显示输入屏幕和输出屏幕中的至少一个。

Description

屏幕配置方法、电子设备和存储介质
技术领域
本公开涉及电子设备的屏幕配置。更具体地,本公开涉及与输入屏幕和输出屏幕相关联的屏幕配置。
背景技术
最近,积极开发与诸如智能电话、个人数字助理(PDA)或者便携式多媒体播放机(PMP)之类的便携式电子设备相关联的技术。为了提高便携性,便携式电子设备的显示器可以小于通用电子设备的显示器。具体而言,例如手表类型可穿戴设备的可穿戴设备可以具有更小的显示器。此外,具有小显示器的电子设备可以显示诸如键盘的用于输入的对象和诸如聊天历史的用于输出的对象两者。
仅为了帮助理解本公开而呈现上述信息作为背景信息。关于以上中的任何一项相对于本公开是否可适用为现有技术,既未进行确定,也未做出断言。
发明内容
当具有小显示器的电子设备同时地显示用于输入的对象和用于输出的对象时,可以以较小形式显示用于输入的对象。用户可能很难控制以较小形式显示的用于输入的对象。此外,提供诸如键盘之类的输入装置的电子设备——例如,眼镜类型可穿戴电子设备或虚拟现实服务提供设备——需要一种容易地控制输入装置的方法。
本公开的各方面将至少解决以上提及的问题和/或缺点并且将至少提供以下描述的优点。因此,为了解决以上描述的问题或其他问题,本公开的一个方面将提供用于配置屏幕的方法和装置。
根据本公开的一个方面,提供一种配置电子设备的屏幕的方法。该方法包括:获得电子设备和用于对电子设备执行输入的对象之间的距离;并且基于所获得的距离在电子设备的显示器上显示输入屏幕和输出屏幕中的至少一个。
根据本公开的另一个方面,提供一种电子设备。该电子设备包括:处理器,被配置为获得电子设备和用于对电子设备执行输入的对象之间的距离;和显示器,被配置为基于所获得的距离在电子设备上显示输入屏幕和输出屏幕中的至少一个。
根据本公开的另一个方面,提供一种其中存储有命令的存储介质(storagemedium)。所述命令被配置为执行将由至少一个处理器执行的处理。该处理包括:获得电子设备和用于对电子设备执行输入的对象之间的距离;并且基于所获得的距离在电子设备的显示器上显示输入屏幕和输出屏幕中的至少一个。
根据本公开的另一个方面,提供一种配置电子设备的屏幕的方法。该方法包括:配置用于电子设备的屏幕配置的第一条件和第二条件;以及当满足第一条件时,在电子设备的显示器的整个区域上显示输入屏幕,而当满足第二条件时,在电子设备的显示器的整个区域上显示输出屏幕。
根据本公开的另一个方面,提供一种电子设备。该电子设备包括:显示器;和处理器,被配置为当满足第一条件时,在显示器的整个区域上显示输入屏幕,而当满足第二条件时在显示器的整个区域上显示输出屏幕。
根据本公开的另一个方面,提供一种配置电子设备的屏幕的方法。该方法包括:在电子设备的显示器的整个区域上显示输出屏幕;识别电子设备和用于对电子设备执行输入的对象之间的距离小于阈值距离;以及在显示器的整个区域上显示输入屏幕。
根据本公开的另一个方面,提供一种电子设备。该电子设备包括:显示器,被配置为显示输出屏幕;和处理器,被配置为当识别出电子设备和用于对电子设备执行输入的对象之间的距离小于阈值距离时,进行控制以在显示器的整个区域上显示输入屏幕。
本公开的各个实施例能够提供一种电子设备,该电子设备基于电子设备和诸如手指之类的输入对象之间的距离来显示输入屏幕和输出屏幕中的至少一个。因此,当用户的手指在电子设备附近时,可以显示输入屏幕。当用户的手指远离电子设备时,可以显示输出屏幕。因此,能够提高用户进行控制的便利性。例如,用户可以不需要为了输出屏幕被替换为输入屏幕而提供单独的输入,反之亦然,而是当用户执行输入时可以切换到输入屏幕,因为用户手指的进入可以是他们希望或正在执行用户输入接近的指示(即,使用对象和电子设备之间的距离来确定应当进入输入模式还是输出模式)。
眼镜类型可穿戴电子设备或虚拟现实服务提供电子设备可以基于参考表面和诸如手指之类的对象之间的距离来确定是否显示输入屏幕,由此提高用户进行控制的便利性。
根据结合附图公开了本公开的各个实施例的以下详细描述,本公开的其他方面、优点和显著的特征将对于本领域技术人员变得明显。
本公开的另一方面提供一种包括指令的计算机程序,当执行所述指令时,所述指令实现根据上述各方面中的任何一个的方法和/或装置。再一方面提供一种存储诸如程序的机器可读存储器。
附图说明
根据结合附图所采取的以下描述,本公开的某些实施例的上述及其他方面、特征和优点将变得更明显,在附图中:
图1示出根据本公开的各个实施例的包括电子设备的网络环境;
图2是根据本公开的各个实施例的程序模块的框图;
图3A和图3B是根据本公开的各个实施例的电子设备的屏幕配置模块的框图;
图4是示出根据本公开的各个实施例的屏幕配置方法的流程图;
图5是示出根据本公开的各个实施例的屏幕配置方法的流程图;
图6A和图6B示出根据本公开的各个实施例的电子设备的概念;
图7A和图7B是示出根据本公开的各个实施例的屏幕配置方法的流程图;
图8A、图8B、图8C、图8D和图8E示出根据本公开的各个实施例的电子设备的概念;
图9A和图9B示出根据本公开的各个实施例的眼镜类型可穿戴电子设备的概念;
图9C、图9D和图9E示出根据本公开的各个实施例的电子设备的概念;
图10A是根据本公开的实施例的电子设备和头戴式影院(HMT)设备的透视图;
图10B是示出穿戴HMT设备的用户的透视图;
图10C、图10D、图10E、图10F、图10G和图10H示出根据本公开的各个实施例的电子设备的概念;
图11是示出根据本公开的各个实施例的屏幕配置方法的流程图;
图12是示出根据本公开的各个实施例的屏幕配置方法的流程图;
图13是示出根据本公开的各个实施例的屏幕配置方法的流程图;
图14是示出根据本公开的各个实施例的屏幕配置方法的流程图;
图15示出根据本公开的实施例的输入屏幕的控制;
图16示出根据本公开的各个实施例的输入屏幕控制;
图17示出根据本公开的各个实施例的输入屏幕控制方法;
图18A和图18B示出根据本公开的各个实施例的输入屏幕控制方法;
图19A和图19B示出根据本公开的各个实施例的输入屏幕控制方法;
图20是示出根据本公开的各个实施例的屏幕配置方法的流程图;以及
图21是根据本公开的各个实施例的电子设备的框图。
贯穿附图,相同附图标记将被理解为指代相同部分、组件和结构。
具体实施方式
提供参考附图的以下描述以帮助对如权利要求书及其等同物所限定的本公开的各个实施例的全面理解。下述描述包括各个具体的细节来帮助理解,但是这些细节将被认为仅仅是示例性的。因此,本领域普通技术人员将认识到,能够在不脱离本公开的范围和精神的情况下做出对在本文描述的各个实施例的各种改变和修改。此外,为了清楚和简明可以省略对熟知的功能和结构的描述。
在以下描述和权利要求书中使用的术语和措词不局限于书目含义,而是仅仅被发明人用来使得能够清楚和一致地理解本公开。因此,对于本领域技术人员应当明显的是,提供本公开的各个实施例的以下描述仅仅用于例示的目的,而非用于限制本公开的目的,由所附权利要求书及其等同物来限定本公开。
将理解,单数形式“一”、“一个”和“该”包括复数指代,除非上下文中清楚地指出并非如此。因此,例如,对于“一个组件表面”的指代包括对于一个或多个这样的表面的指代。
当在这里使用时,表述“具有”、“可以具有”、“包括”或“可以包括”指代相对应的特征(例如,数字、功能、操作或诸如组件之类的构成元件)的存在并且不排除一个或多个附加的特征。
此外,在本说明书的通篇描述和权利要求中,词语“包含”和“包括”以及该词语的变型,例如,“正在包括”和“含有”,意指“包括但不限于”,并且不意欲(且不)排除其他成分、添加物、组件、整数或步骤。
结合本公开的特定方面、实施例或例子描述的特征、整数、特性、化合物、化学成分或组应当被理解为可被应用于这里所描述的任何其他方面、实施例或例子,除非它们相互矛盾。
当在这里使用时,表述“A或B”、“A和/或B中的至少一个”或“A和/或B中的一个或多个”可以包括一起列举的项任何或所有可能的组合。例如,表述“A或B”、“A和B中的至少一个”或“A或B中的至少一个”可以包括:(1)至少一个A;(2)至少一个B;或(3)至少一个A和至少一个B两者。
在本公开的各个实施例中使用的表述“第一”、“第二”、“该第一”或“该第二”可以不管次序和/或重要性来修饰各个组件,但是并不限制相对应的组件。以上表述仅仅用于将一个元件与其他元件区分的目的。例如,尽管两者(第一用户设备和第二用户设备)都是用户设备,但第一用户设备和第二用户设备指示不同的用户设备。例如,在不背离本公开的范围的情况下,第一元件可以被称为第二元件,并且类似地,第二元件可以被称为第一元件。
应当理解的是,当一个元件(例如,第一元件)被称为(操作地或通信地)“连接”或“耦合”到另一个元件(例如,第二元件)时,其可以直接地连接或直接地耦合到其他元件,或者任何其他元件(例如,第三元件)可以内插(interposer)在它们之间。相反,可以理解的是,当一个元件(例如,第一元件)被称为“直接地连接”或“直接地耦合”到另一个元件(第二元件)时,不存在插入在它们之间的元件(例如,第三元件)。
可以根据情形将在本公开中所使用的表述“被配置为”与例如“适于”、“具有的能力”、“被设计为”、“被适配为”、“使得能”或“能够”进行互换。术语“被配置为”可以不一定暗示在硬件中“具体地被设计为”。可替换地,在一些情形中,表达“设备被配置为”可以意指设备与其他设备或组件一起“能够进行”。例如,词组“被适配为(或被配置为)执行A、B和C的处理器”可以意指仅仅用于执行相对应的操作的专用处理器(例如,嵌入式处理器),或能够通过运行存储在存储器设备中的一个或多个软件程序来执行相对应的操作的通用处理器(例如,中央处理单元(CPU)或应用处理器(AP))。
应当理解,在该说明书的通篇描述和权利要求中,一般形式的语言“用于Y的X”(其中Y是某些动作、行为或步骤,且X是用于执行该动作、行为或步骤的某种机制)涵盖被专门但不排他地适配或布置为进行Y的机制X。
在本文使用的术语仅仅用于描述本公开的特定实施例的目的,并且并不意图限制其他实施例的范围。除非以另外方式定义,否则包括技术和科学术语在内的在本文使用的所有术语具有与本公开所属的技术领域的技术人员通常理解的意义相同的意义。在通用词典中定义的这样的术语将被解释为与相关技术领域中的上下文意义相同的意义,并且将不被解释为具有理想或过于正式的意义,除非在本公开中清楚地定义。在一些情况下,甚至在本公开中定义的术语也不应当被解释为排除本公开的实施例。
例如,电子设备可以包括智能电话、平板式个人计算机(PC)、移动式电话、视频电话、电子图书(电子书)阅读器、桌面PC、膝上型PC、上网本计算机、个人数字助理(PDA)、便携式多媒体播放机(PMP)、运动图像专家组阶段1或阶段2(MPEG-1或MPEG-2)音频层3(MP3)播放机、移动医疗器械、相机以及可穿戴设备(例如,诸如电子眼镜之类的头部安装设备(HMD)、电子衣、电子手镯、电子项链、电子配饰、电子纹身,或智能手表)中的至少一个。
根据本公开的各个实施例,电子设备可以是智能家用电器。家用电器可以包括例如电视(TV)、数字化通用磁盘(DVD)播放机、音频、冰箱、空调、真空吸尘器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、家庭自动化控制板、安全控制板、TV盒(例如,SamsungHomeSyncTM、Apple TVTM,或Google TVTM)、游戏控制台(例如,XboxTM和PlayStationTM)、电子词典、电子钥匙、录像摄像机以及电子相框中的至少一个。
根据本公开的实施例,电子设备可以包括各种医疗设备(例如,各种便携式医疗测量设备(血糖监测设备、心率监测设备、血压测量设备、体温测量设备等等)、磁共振血管造影(MRA)、磁共振成像(MRI)、计算机断层显象(CT)机器和超声波机器)、导航设备、全球定位系统(GPS)接收机、事件数据记录器(EDR)、飞行数据记录器(FDR)、车辆娱乐信息设备、用于运输的电子设备(例如,用于运输的导航设备以及陀螺罗盘)、航空电子、安全设备、汽车机头单元、用于家庭或产业的机器人、银行中的自动取款机(ATM)、商店中的销售点(POS)或物联网(例如,灯泡、各种传感器、电表或煤气表、洒水设备、火警、恒温器、街灯、烤面包机、体育用品、热水箱、加热器、锅炉等等)中的至少一个。
根据本公开的各个实施例,电子设备可以包括建筑物/结构的一部分、电子板、电子签名接收设备、投影仪和各种类型的测量仪表(例如,水表、电表、煤气表和无线电波计量器)中的至少一个。根据本公开的各个实施例的电子设备可以是前述的各个设备中的一个或多个的组合。根据本公开的各个实施例的电子设备可以是柔性设备。此外,根据本公开的实施例的电子设备不局限于前述设备,并且可以包括根据技术的发展的新的电子设备。
在下文中,将参考附图描述根据本公开的各个实施例的电子设备。如在本文使用的,术语“用户”可以指示使用电子设备的人或使用电子设备的设备(例如,人工智能电子设备)。
图1示出根据本公开的各个实施例的包括电子设备的网络环境。
参考图1,对根据各个实施例的网络环境100内的电子设备101进行描述。电子设备101可以包括总线110、处理器120、存储器130、输入/输出接口150、显示器160、通信模块170以及屏幕配置模块180。在任何实施例中,电子设备101可以省略以上组件中的至少一些或另外包括其他组件。
总线110可以包括用于连接组件120至180并且传送组件之间的通信(例如,控制消息和/或数据)的电路。
处理器120可以包括CPU、AP和通信处理器(CP)中的一个或多个。处理器120可以例如控制电子设备101的一个或多个其他组件,和/或处理与通信有关的操作或数据。处理器120可以被叫作控制器或可以包括控制器作为其一部分。
存储器130可以包括易失性存储器和/或非易失性存储器。存储器130可以例如存储与电子设备101的至少一个其他组件有关的命令或数据。根据本公开的实施例,存储器130可以存储软件和/或程序140。程序140可以包括内核141、中间件143、应用编程接口(API)145和/或应用程序(或“应用”)147。内核141、中间件143和API 145中的至少一些可以被称为操作系统(OS)。
内核141可以对用于运行由其他程序(例如,中间件143、API 145或应用程序147)实施的操作或功能的系统资源(例如,总线110、处理器120或存储器130)进行控制和管理。此外,内核141可以提供下述接口以对系统资源进行控制或管理:中间件143、API 145或应用程序147通过该接口可以访问电子设备101的独立组件。
中间件143例如可以充当使得API 145或应用程序147与内核141进行通信以传送/接收数据的中间物。此外,对于从应用程序147接收到的任务请求,中间件143可以例如使用对至少一个应用指配使用电子设备101的系统资源(例如,总线110、处理器120或存储器130)的优先级的方法来执行对任务请求的控制(例如,调度或负载均衡)。
API 145是应用程序147通过其控制从内核141或中间件143提供的功能的接口,并且可以例如包括用于文件控制、窗口控制、图像处理或文本控制的至少一个接口或功能(例如,指令)。
在说明书中,应用可以被称为应用程序。
输入/输出接口150可以充当能够将从用户或另一个外部设备所输入的命令或数据传送到电子设备101的其他组件的接口。此外,输入/输出接口150可以向用户或另一个外部设备输出从电子设备101的另一个组件(或多个)接收到的命令或数据。
显示器160例如可以包括液晶显示器(LCD)、发光二极管(LED)显示器、有机LED(OLED)显示器、微型机电系统(MEMS)显示器或电子纸显示器。显示器160可以为用户显示各种类型的内容(例如,文本、图像、视频、图标或符号)。显示器160可以包括触摸屏并且例如接收使用电子笔或用户的身体部位做出的触摸输入、手势输入、接近输入或者悬停输入。
通信模块170可以配置例如电子设备和外部设备(例如,第一外部电子设备102、第二外部电子设备104或服务器106)之间的通信。例如,通信模块170可以通过无线或有线通信连接到网络162以与外部设备(例如,外部电子设备104或服务器106)进行通信。
无线电通信例如可以包括长期演进(LTE)、高级LTE(LTE-A)、码分多址(CDMA)、宽频带CMDA(WCDMA)、通用移动电信系统(UMTS)、无线宽带(WiBro)和全球移动通信系统(GSM)中的至少一个来作为蜂窝通信协议。有线通信可以包括例如通用串行总线(USB)、高清晰度多媒体接口(HDMI)、推荐标准232(RS-232)和简单老式电话服务(POTS)中的至少一个。网络162可以包括诸如计算机网络(例如,局域网(LAN)或广域网(WAN))、因特网和电话网络之类的通信网络中的至少一个。
第一外部电子设备102和第二外部电子设备104中的每个可以是与电子设备101相同或与其不同的设备。根据本公开的实施例,服务器106可以包括一个或多个服务器的群组。根据本公开的各个实施例,可以通过另一个电子设备或多个电子设备(例如,电子设备102或电子设备104或者服务器106)来执行由电子设备101执行的操作中的所有或一些。根据本公开的实施例,当电子设备101应当自动地或应请求执行一些功能或服务时,代替由它本身执行该功能或服务,电子设备101可以向另一个设备(例如,电子设备102或电子设备104或者服务器106)做出执行与功能或服务有关的至少一些功能的请求。其他电子设备(例如,电子设备102或电子设备104或者服务器106)可以实行所请求的功能或附加功能,并且将通过实行功能所获取的结果传递到电子设备101。电子设备101可以基于所接收的结果或在另外处理所接收的结果之后,提供所请求的功能或服务。为此,可以使用例如云计算、分布式计算或客户端服务器计算技术。
根据本公开的实施例,屏幕配置模块180可以通过执行由电子设备101实施的操作(或功能)中的至少一个来支持电子设备101的驱动。例如,服务器106可以包括能够支持在电子设备101中实施的屏幕配置模块180的屏幕配置服务器模块108。例如,屏幕配置服务器模块108包括屏幕配置模块180的一个或多个组件并且可以(代表屏幕配置模块180)执行屏幕配置模块180的至少一个操作。
屏幕配置模块180可以处理从其他组件(例如,处理器120、存储器130、输入/输出接口150和通信模块170中的至少一个)获取的信息中的至少一些并且以各种方式对其进行利用。例如,屏幕配置模块180可以通过使用处理器120或独立于其地控制电子设备101的至少一些功能,使得电子设备101可以与其他电子设备(例如,电子设备104或服务器106)互相配合。可以将屏幕配置模块180集成到处理器120或通信模块170中。根据本公开的实施例,屏幕配置模块180的至少一个组件可以被包括在服务器106(例如,屏幕配置服务器模块108)中并且从服务器106接收由屏幕配置模块180执行的至少一个操作。
图2是根据本公开的各个实施例的程序模块210的框图。
参考图2,根据本公开的实施例,程序模块210(例如,程序140)可以包括用于控制与电子设备(例如,电子设备101)有关的资源的OS和/或在操作系统中执行的各个应用(例如,应用程序147)。操作系统例如可以是安卓(Android)、iOS、视窗(Windows)、塞班(Symbian)、泰泽(Tizen)、Bada等等。
程序模块210可以包括内核310、中间件230、API 260和/或应用270。可以将程序模块210中的至少一些预先加载到电子设备中,或可以从服务器(例如,服务器106)中下载程序模块210中的至少一些。
内核220(例如,图1的内核141)例如可以包括系统资源管理器221或设备驱动器223。系统资源管理器221可以控制、分配或收集系统资源。根据本公开的实施例,系统资源管理器221可以包括进程(process)管理器、存储器管理器或文件系统管理器。设备驱动器223例如可以包括显示器驱动器、相机驱动器、蓝牙(BT)驱动器、共享存储器驱动器、USB驱动器、小键盘驱动器、Wi-Fi驱动器、音频驱动器或进程间通信(IPC)驱动器。
中间件230可以通过API 260提供应用370通常所需的功能或向应用270提供各种功能,使得应用270能够有效地使用电子设备的有限的系统资源。根据本公开的实施例,中间件230(例如,中间件143)例如可以包括运行时间库235、应用管理器241、窗口管理器242、多媒体管理器243、资源管理器244、电源管理器245、数据库管理器246、分组管理器247、连接管理器248、通知管理器249、位置管理器250、图形管理器251和安全管理器252中的至少一个。
运行时间库235例如可以包括编译器使用的库模块以便在运行应用270时通过编程语言添加新的功能。运行时间库235可以执行输入/输出管理、存储器管理或用于算术功能的功能。
应用管理器241例如可以管理应用270之中的至少一个应用的生存期(lifecycle)。窗口管理器242可以管理在屏幕中使用的图形用户界面(GUI)资源。多媒体管理器243可以检测再现各种媒体文件所需要的格式并且使用适合于相对应的格式的编解码器来编码或解码媒体文件。资源管理器244可以管理应用270之中的至少一个应用的资源,诸如源代码、存储器或存储空间。
电源管理器245可以与基本输入/输出数据系统(BIOS)一起操作,以管理电池或电源,并且可以提供电子设备的操作所需要的电源信息。数据库管理器246可以生成、搜索或改变应用270中的至少一个将要使用的数据库。分组管理器247可以对以分组文件形式分发的应用的安装或更新进行管理。
例如,连接管理器248可以管理无线连接,诸如Wi-Fi或BT。通知管理器249可以在不扰乱的情况下向用户显示或通知诸如所接收的消息、约会和接近通知之类的事件。位置管理器250可以管理电子设备的位置信息。图形管理器251可以管理提供给用户的图形效果和与图形效果有关的用户接口。安全管理器252可以提供系统安全或用户认证所需要的各种安全功能。根据本公开的实施例,当电子设备(例如,电子设备101)具有呼叫功能时,中间件230可以另外包括用于管理电子设备的语音呼叫功能或视频呼叫功能的电话管理器。
中间件230可以是用于形成前述元件的各种功能的组合的中间件模块。中间件230可以提供根据操作系统的类型专门定制的模块以便提供有区别的功能。此外,可以从中间件230动态地去除一些现有组件元件,或可以向中间件230添加新的组件元件。
作为API编程功能的集合的API 260(例如,API 145)可以根据操作系统包括不同的配置。例如,关于每个平台,在安卓或iOS的情况下,可以提供一个API集合,并且在Tizen的情况下,可以提供两个或更多API集合。
应用270(例如,应用程序147)例如可以包括能够提供诸如以下的功能的一个或多个应用:主页271、拨号器272、短消息服务(SMS)/多媒体消息服务(MMS)273、即时消息(IM)274、浏览器275、相机276、闹钟277、联系人278、语音拨号器279、电子邮件280、日历281、媒体播放机282、相册283、时钟284、保健(例如,测量锻炼量或血糖)或环境信息(例如,大气压、湿度或温度信息)。
根据本公开的实施例,应用270可以包括支持电子设备(例如,电子设备101)和外部电子设备(例如,电子设备102或电子设备104)之间的信息交换的应用(为了描述方便起见在下文,被称为“信息交换应用”)。信息交换应用例如可以包括用于将特定信息传送到外部电子设备的通知中继应用或者用于管理外部电子设备的设备管理应用。
例如,通知中继应用可以包括向外部电子设备(例如,电子设备102或电子设备104)传递从电子设备101的其他应用(例如,SMS/MMS应用、电子邮件应用、健康管理应用或环境信息应用)生成的通知信息的功能。进一步,通知中继应用可以例如从外部电子设备接收通知信息,并且向用户提供所接收的通知信息。该设备管理应用可以例如管理(例如,安装、删除或更新)与电子设备进行通信的外部电子设备(例如,电子设备104)的至少一部分的功能(例如,接通/关断外部电子设备本身(或其一些元件)或调整显示器的亮度(或分辨率))、在外部电子设备中运行的应用或从外部电子设备提供的服务(例如,电话呼叫服务或消息服务)。
根据本公开的实施例,应用270可以包括根据外部电子设备(例如,电子设备102或电子设备104)的属性(例如,诸如对应于移动医疗设备的电子设备的类型之类的电子设备的属性)指定的应用(例如,健康管理应用)。根据本公开的实施例,应用270可以包括从外部电子设备(例如,服务器106,或者电子设备102或电子设备104)接收的应用。根据本公开的实施例,应用270可以包括预先上载的应用或能够从服务器下载的第三方应用。根据以上所描述的实施例的程序模块210的组件的名称可以根据操作系统的类型变化。
根据本公开的各个实施例,可以以软件、固件、硬件或者其两个或更多的组合来实施程序模块210中的至少一些。可以例如由处理器(例如,处理器120)来实施(例如,运行)程序模块210中的至少一些。程序模块210中的至少一些例如可以包括用于执行一个或多个功能的模块、程序、例程、指令集合或进程。
图3A和图3B是根据本公开的各个实施例的电子设备(例如,电子设备101)的屏幕配置模块180的框图。
参考图3A和图3B,屏幕配置模块180可以包括显示模块320、感测模块330和处理模块340中的至少一些或所有。可以与处理器(例如,处理器120)分离地提供屏幕配置模块180,或者可以将屏幕配置模块180中的所有或一些集成到处理器中。
根据本公开的各个实施例的感测模块330可以获得电子设备和要被输入到电子设备中的对象之间的距离。
根据本公开的各个实施例的显示模块320可以基于所获得的距离在电子设备的显示器上显示输入屏幕和输出屏幕中的至少一个。
根据本公开的各个实施例的感测模块330可以感测电子设备和对象之间的距离。感测模块330可以基于电容类型、红外类型、超声波类型、或电磁(EM)波类型或者电磁谐振(EMR)类型来获得电子设备和对象之间的距离。
感测模块330可以获得包括对象的图像。例如,可以通过相机来获得所获得的图像,该相机能够获取关于对象(即诸如用户的手指的输入对象)与诸如视觉相机或飞行时间(TOF)相机之类的相机之间的距离的信息。
参考图3B,感测模块330可以包括电容感测模块331、红外感测模块332、超声波感测模块333、EM波感测模块334、图像感测模块335和EMR感测模块337。
根据本公开的实施例,处理模块340可以基于获得的图像来确定电子设备和对象之间的距离。当确定所获得的距离大于或等于第一阈值时,处理模块340可以控制电子设备或电子设备的显示器以显示输出屏幕。当确定所获得的距离小于第一阈值时,处理模块340可以进行控制以显示输入屏幕。处理模块340可以将第一阈值更新为第二阈值。当确定所获得的距离小于第二阈值距离时,处理模块340可以继续显示输入屏幕。当确定所获得的距离大于或等于第二阈值时,处理模块340可以进行控制以将输入屏幕切换为输出屏幕并且显示输出屏幕。当进行切换为输出屏幕的显示时,处理模块340可以将第二阈值更新为第一阈值。
通过更新阈值(或多个)的效果,降低了当对象与电子设备之间的距离接近原始第一阈值时显示器可能在显示输入屏幕和输出屏幕之间重复切换的可能性,从而提供了更加稳定、可靠和用户友好的用户界面。更具体地,在一些例子中,通过当显示输入屏幕时用更大的第二阈值来更新第一阈值,导致切换回显示输出屏幕所需的对象与电子设备之间的距离大于原来将显示器从显示输出屏幕切换到输入屏幕所需的距离。
根据本公开的实施例,处理模块340可以控制输入屏幕的大小、形式、位置和属性中的至少一个。
根据本公开的实施例,当确定所获得的距离等于或小于第一阈值时处理模块340可以进行控制以显示输出屏幕,而当确定所获得的距离大于第一阈值时可以进行控制以显示输入屏幕。
根据本公开的实施例,当确定所获得的距离没有被包括在第一范围中时处理模块340可以进行控制以显示输出屏幕,而当确定所获得的距离被包括在第一范围中时可以进行控制以显示输入屏幕。
根据本公开的实施例,处理模块340可以配置用于电子设备的屏幕配置的第一条件和第二条件。当满足第一条件时,处理模块340可以进行控制以在电子设备的显示器的整个表面或基本上的整个表面上显示输入屏幕,而当满足第二条件时,处理模块340可以进行控制以在电子设备的显示器的整个表面上显示输出屏幕。
图4是示出根据本公开的各个实施例的屏幕配置方法的流程图。
参考图4,在操作410中,电子设备101可以获得参考表面和对象之间的距离。参考表面可以包括电子设备的至少一侧。可替换地,参考表面可以包括电子设备101外部的参考表面。对象可以是能够选择电子设备101的触摸面板的一个位置的手指或输入设备。例如,当以电容类型、红外类型、超声波类型或EM波类型实施触摸面板时,对象可以是手指并且可以选择触摸面板的一个位置。可替换地,当以超声波类型、EM波类型或EMR类型实施触摸面板时,对象可以是电子笔并且可以选择触摸面板的一个位置。
电子设备101可以包括诸如超声波传感器、红外传感器、EM波传感器、EMR传感器等等的传感器模块。电子设备101可以基于从传感器模块输出的值来获得电子设备101和对象之间的距离。
根据本公开的实施例,电子设备101可以包括视觉相机模块。电子设备101可以通过使用视觉相机模块来获得包括对象的图像。电子设备101可以基于所获得的图像的分析结果来获得电子设备101和对象之间的距离。同时,本领域技术人员可以容易地理解,只要相机对应于能够获得用于拍摄的主体的深度信息的深度相机(TOF相机或立体相机)以及视觉相机,则对相机类型没有限制。
在操作420中,电子设备101可以基于所获得的距离来显示输入屏幕和输出屏幕中的至少一个。输入屏幕可以是包括诸如键盘的用于输入的至少一个对象的屏幕。输入屏幕可以仅仅包括用于输入的对象,或除用于输入的对象之外可以另外包括与用于输入的对象有关的额外对象。输出屏幕可以是对应于特定应用的输出的屏幕并且可以与输入屏幕相区分,但是可以具有与输入屏幕共同的一个或多个特征。
根据本公开的实施例,电子设备101可以基于所获得的距离在显示器的整个区域上显示输入屏幕。根据本公开的实施例,电子设备101可以基于所获得的距离在显示器的整个区域上显示输出屏幕。根据本公开的实施例,电子设备101可以基于所获得的距离在显示器上显示具有输入屏幕和输出屏幕两者的屏幕。
图5是示出根据本公开的各个实施例的屏幕配置方法的流程图。将参考图6A和图6B来更详细地描述图5的屏幕配置方法。图6A和图6B示出根据本公开的各个实施例的电子设备的概念。
参考图5,在操作510中,电子设备101可以获得参考表面和对象之间的距离。如上所述,电子设备101可以基于从传感器模块输出的值来获得距离或基于对由视觉相机获得的图像的分析结果来获得距离。同时,本领域技术人员可以容易地理解,对由电子设备101获得参考表面和对象之间的距离的方法没有限制。
在操作520中,电子设备101可以确定所获得的距离是否小于阈值。可以对电子设备101预设该阈值。该阈值可以取决于每个电子设备101而变化,并且可以例如基于电子设备101的显示器的大小而被预先配置。可替换地,可以基于对用户对电子设备101的使用习惯的分析结果来预先配置阈值。可以由用户控制阈值。此外,可以将阈值更新为另一个阈值(例如,第二阈值),将在以下对其进行更详细的描述。
参考图6A和图6B,参考表面可以是包括电子设备101的显示器的表面。尽管未示出,但电子设备101可以包括诸如超声波传感器、红外传感器、EM波传感器、EMR传感器等等的传感器模块,并且可以基于从传感器模块输出的值来获得对象600和包括电子设备101的显示器的表面之间的距离。可替换地,尽管未示出,但是电子设备101可以包括视觉相机模块,并且获得对象600的图像以获得对象600和包括电子设备101的显示器的表面之间的距离d1。同时,可以对电子设备101预先配置第一阈值P1。
参考图5,当确定所获得的距离小于第一阈值时,在操作530中,电子设备101可以显示输入屏幕。当确定所获得的距离大于或等于第一阈值时,在操作540中,电子设备101可以显示输出屏幕。
参考图6A,电子设备101和对象600之间的距离d1可以大于或等于第一阈值P1。电子设备101可以确定电子设备101和对象600之间的距离d1大于或等于第一阈值P1并且显示输出屏幕610。根据图6A的实施例,输出屏幕610可以是对应于聊天应用的输出的屏幕并且可以包括如图6A中所示的由两个用户输入的聊天历史。同时,电子设备101可以显示诸如文本输入窗口620之类的附加的对象。输出屏幕610可以包括诸如文本输入窗口620之类的附加的对象。
参考图6B,电子设备101和对象600之间的距离d2可以小于第一阈值P1。电子设备101可以确定电子设备101和对象600之间的距离d2小于第一阈值P1并且显示输入屏幕640。根据图6B的实施例,输入屏幕640可以包括诸如键盘的用于输入的对象,如图6B中所示。同时,电子设备101可以显示诸如文本输入窗口620之类的附加的对象。输入屏幕640可以包括诸如文本输入窗口620之类的附加的对象。电子设备101可以控制在输出屏幕610或输入屏幕640上显示或不显示诸如文本输入窗口620之类的附加的对象。例如,当确定“键入”键被输入到输入屏幕640中时,电子设备101可以控制不显示文本输入窗口620,而是在输出屏幕610中反映在文本输入窗口620上显示的内容。
可以顺序地运行图6A和图6B的实施例。例如,对象600可以朝着参考表面从距离d1到达距离d2。在这种情况下,电子设备101可以将输出屏幕610切换为输入屏幕640并且显示输入屏幕640。可替换地,相反地,对象600可以从距离d2到距离d1远离参考表面移动。在这种情况下,电子设备101可以将输入屏幕640切换为输出屏幕610并且显示输出屏幕610。同时,当电子设备101将输出屏幕610切换为输入屏幕640或将输入屏幕640切换为输出屏幕610时,可以处理附加的显示效果。例如,电子设备101可以将显示效果处理为好像输入屏幕640从边框滑出,并且本领域技术人员可以容易地理解,对这样的显示效果没有限制。
如上所述,电子设备101可以基于参考表面和对象之间的距离来显示输入屏幕和输出屏幕中的至少一个。因此,不需要用户执行附加的控制来显示输入屏幕。此外,由于在显示器的整个区域上显示输入屏幕,显著地降低小电子设备的输入错误。
同时,电子设备101可以基于与另一个手势的组合来配置屏幕。例如,当在用户触摸电子设备101的边框的状态中用户使对象接近电子设备101时,电子设备101可以操作以继续显示输出屏幕而不显示输入屏幕。可替换地,电子设备101可以配置自动切换模式和一般(general)模式。当电子设备101处于自动切换模式中时,电子设备101可以如上所述基于对象的接近来进行切换并且显示输入屏幕。当电子设备101处于一般模式中时,纵然对象接近,电子设备101也可以继续显示输出屏幕。
图7A和图7B是示出根据本公开的各个实施例的屏幕配置方法的流程图。
首先参考图7A,在操作701中,电子设备101可以获得参考表面和对象之间的距离。
在操作703中,电子设备101可以确定屏幕显示是否改变。例如,电子设备101可以确定输入屏幕是否改变为输出屏幕或者输出屏幕是否改变为输入屏幕。
当确定屏幕显示改变时,在操作705中,电子设备101可以将现有的预设阈值更新为另一个阈值。将参考图7B更详细地描述这一点。
将参考图8A至图8E来更详细地描述图7B的屏幕配置方法。
图8A至图8E示出根据本公开的各个实施例的电子设备的概念。
在操作710中,电子设备101可以获得参考表面和对象600之间的距离d1,如图8A中所示。
参考图8A至图8E,参考表面可以是包括电子设备101的显示器的表面。
在操作720中,电子设备101可以基于所获得的距离d1来显示输入屏幕。如上所述,电子设备101可以比较所获得的距离与第一阈值P1,并且基于比较的结果来显示输入屏幕和输出屏幕中的至少一个。根据图8A的实施例,电子设备101可以确定所获得的距离d1大于或等于第一阈值P1并且显示输出屏幕。根据图8B的实施例,电子设备101可以确定所获得的距离d2小于第一阈值P1并且显示输入屏幕。
在操作730中,电子设备101可以将第一阈值P1更新为第二阈值P2。
如图8C中所示,第二阈值P2可以大于第一阈值P1。例如,电子设备101可以触发从输出屏幕切换为输入屏幕的显示并且将第一阈值P1更新为第二阈值P2。
在操作740中,电子设备101可以确定参考表面和对象600之间的距离是否小于第二阈值。
当电子设备101确定参考表面和对象600之间的距离小于第二阈值P2时,在操作750中,电子设备101可以显示输入屏幕。例如,如图8D中所示,电子设备101可以获得参考表面和对象600之间的距离d3。电子设备101可以确定所获得的距离d3小于第二阈值P2。同时,距离d3可以大于或等于第一阈值P1。电子设备101可以基于距离d3小于第二阈值P2的事实来显示输入屏幕。
当电子设备101确定参考表面和对象600之间的距离大于或等于第二阈值P2时,在操作760中,电子设备101可以显示输出屏幕。例如,如图8E中所示,电子设备101可以获得参考表面和对象600之间的距离d4。电子设备101可以确定所获得的距离d4大于或等于第二阈值P2。电子设备101可以基于距离d4大于或等于第二阈值P2的事实来显示输出屏幕。
在操作770中,电子设备101可以将第二阈值P2更新为第一阈值P1。如图8C中所示,第二阈值P2可以大于第一阈值P1。例如,电子设备101可以触发从输入屏幕切换为输出屏幕的显示并且将第二阈值P2更新为第一阈值P1。
因为阈值被更新回第一阈值P1,所以如果对象600进入例如距离d3的位置,则电子设备101可以显示输出屏幕而不是输入屏幕。
如上所述,电子设备101可以通过触发从输入屏幕切换为输出屏幕的显示和从输出屏幕切换为输入屏幕的显示来更新阈值。因此,在输出屏幕切换为输入屏幕之后,即使当用户将对象600放置在稍微高的位置(例如,比第一阈值高),也可以维持输入屏幕的显示,并且因此可以提高用户控制的便易性。可替换地,由于在电子设备101显示输出屏幕时阈值被配置为较低,所以可以保证用户的手势的输入空间并且可以提高控制便易性。
图9A和图9B示出根据本公开的各个实施例的眼镜类型可穿戴电子设备的概念。
参考图9A,电子设备101可以获得参考表面900和对象600之间的距离n1。尽管未示出,但电子设备101可以包括诸如超声波传感器、红外传感器、EM波传感器、EMR传感器等等的传感器模块。电子设备101可以基于从传感器模块输出的值来获得电子设备101和对象之间的距离m1。进一步,电子设备101可以基于从传感器模块输出的值来获得电子设备101和参考表面900之间的距离m1+n1。电子设备101可以基于电子设备101和对象之间的距离m1以及电子设备101和参考表面900之间的距离m1+n1来获得参考表面900和对象600之间的距离n1。
根据本公开的实施例,电子设备101可以包括视觉相机模块。电子设备101可以通过使用视觉相机模块来获得包括对象600和参考表面900的图像。电子设备101可以基于对图像的分析结果来获得电子设备101和对象之间的距离m1。进一步,电子设备101可以基于对图像的分析结果来获得电子设备101和参考表面900之间的距离m1+n1。电子设备101可以基于电子设备101和对象之间的距离m1以及电子设备101和参考表面900之间的距离m1+n1来获得参考表面900和对象600之间的距离n1。
电子设备101可以基于参考表面900和电子设备101之间的所获得的距离m1+n1来配置第一阈值Y1。根据本公开的实施例,电子设备101可以基于参考表面900和电子设备101之间的距离m1+n1来配置第一阈值X1。也就是说,电子设备101可以将电子设备101的眼镜的至少一个表面、而不是图9A的参考表面900配置为参考表面。
电子设备101可以基于所获得的距离n1来显示输入屏幕。如上所述,电子设备101可以比较所获得的距离与第一阈值Y1,并且基于比较的结果来显示输入屏幕和输出屏幕中的至少一个。根据图9A的实施例,电子设备101可以确定所获得的距离n1大于或等于第一阈值Y1并且显示输出屏幕。
图9B示出根据本公开的各个实施例的输出屏幕的概念。
参考图9B,电子设备101可以显示输出屏幕920。例如,电子设备101可以显示增强现实(AR)应用的输出屏幕920。电子设备101可以在输出屏幕920上显示关于在眼镜上形成的外部对象图像910的附加的信息。
同时,已经在图9A的实施例中描述了电子设备101确定所获得的距离n1大于或等于第一阈值Y1并且显示输出屏幕。根据本公开的实施例,电子设备101可以确定所获得的距离m1小于第一阈值X1并且显示输出屏幕。在这种情况下,电子设备101可以被配置为当获得的距离m1等于或小于第一阈值X1时显示输出屏幕。
根据图9C的实施例,电子设备101可以获得电子设备101和对象之间的距离m2。此外,电子设备101可以基于从传感器模块输出的值来获得电子设备101和参考表面900之间的距离m2+n2。电子设备101可以基于电子设备101和对象之间的距离m2以及电子设备101和参考表面900之间的距离m2+n2来获得参考表面900和对象600之间的距离n2。
电子设备101可以确定所获得的距离n2小于第一阈值Y1并且显示输入屏幕。
图9D示出根据本公开的各个实施例的输入屏幕的概念。
参考图9D,电子设备101可以显示输入屏幕930。电子设备101可以显示包括诸如键盘的用于输入的对象的输入屏幕930。
图9E示出根据本公开的各个实施例的输入屏幕的概念。
参考图9E,电子设备101可以显示输入屏幕950。电子设备101可以显示包括诸如键盘的用于输入的对象的输入屏幕950。电子设备101可以包括投影仪940。投影仪940将输入屏幕950投影到投影表面上,并且用户可以观察被投影的输入屏幕950。同时,尽管未示出,但本领域技术人员可以容易地理解,投影仪940可以基于所获得的距离信息来显示输出屏幕。
同时,已经在图9C的实施例中描述了电子设备101确定所获得的距离n2小于第一阈值Y1并且显示输入屏幕。根据本公开的实施例,电子设备101可以确定所获得的距离m2大于第一阈值X1并且显示输入屏幕。在这种情况下,电子设备101可以被配置为当所获得的距离m2大于第一阈值X1时来显示输入屏幕。
根据本公开的各个实施例,电子设备101可以将第一阈值Y1更新为第二阈值Y2。如图9B中所示,第二阈值Y2可以大于第一阈值Y1。例如,电子设备101可以触发从输出屏幕切换为输入屏幕的显示并且将第一阈值Y1更新为第二阈值Y2。根据另一个实施例,电子设备101可以将第一阈值X1更新为第二阈值X2。
此外,电子设备101可以将第二阈值Y2更新为第一阈值Y1。例如,电子设备101可以触发从输入屏幕切换为输出屏幕的显示并且将第二阈值Y2更新为第一阈值Y1。根据另一个实施例,电子设备101可以将第二阈值X2更新为第一阈值X1。
图10A是根据本公开的实施例的电子设备101和头戴式影院(HMT)设备103的透视图。
参考图10A,电子设备101可以包括显示器。电子设备101可以存储虚拟现实应用。虚拟现实应用可以是能够向用户提供类似于实际现实的显示的应用。根据本公开的实施例,虚拟现实应用可以基于立体方案显示与用户的眼睛中的每只相对应的左眼图像和右眼图像。
HMT设备103可以被安装在用户的头部上以在纵然用户移动时也被固定到用户的头部。此外,HMT设备103可以固定电子设备101,并且因此用户可以观看在电子设备101上显示的图像。HMT设备103可以是电子设备102。
根据本公开的实施例的HMT设备103可以包括被提供以便被佩戴在用户的头部上的壳体1015、被固定到壳体并且被提供在与用户的眼睛的位置相对应的区域的遮蔽(blackout)部1013、以及被提供在壳体1015的一个区域的至少一个输入按钮1021。电子设备101可以包括可以从用户接收滑动输入的输入板1025。
用户可以使遮蔽部1013与用户的每只眼睛紧密相配(fit),并且因此,用户可以通过从电子设备101提供的虚拟现实应用来观看图像而不会受到来自外界光的任何干扰。
电子设备101可以耦合到HMT设备103。电子设备101可以通过接线或无线地连接到电子设备103。例如,尽管电子设备101可以通过USB连接到HMT设备103,但其仅仅是示例,并且本领域技术人员可以容易地理解,只要通过连接使电子设备101和HMT设备103之间的数据发送/接收是可能的,则对连接不存在限制。根据本公开的实施例,电子设备101可以简单地物理耦合到HMT设备103。
图10B是根据本公开的实施例、示出穿戴HMT设备的用户的透视图。
用户可以将壳体1015穿戴在头部上。此外,电子设备101可以耦合到HMT设备103,并且用户可以观看在电子设备101的显示器上显示的图像。电子设备101可以存储和运行虚拟现实(VR)应用。
电子设备101可以在显示器的左边部分和右边部分上显示作为虚拟现实应用的运行的结果的左眼图像和右眼图像。左眼图像可以入射在用户的左眼上并且右眼图像可以入射在用户的右眼上。例如,左眼图像和右眼图像可以通过两只眼睛入射在用户的视野上。用户可以通过观看入射在两只眼睛上的图像来接收虚拟现实服务。
由电子设备101运行的虚拟现实应用可以在显示器上显示双目图像。虚拟现实应用可以根据用户或HMT设备103的运动(偏航(yaw)、俯仰或横摇)来改变和显示双目图像。
同时,用户可以通过使用诸如手指之类的对象600来将用户命令输入到电子设备101中。电子设备101可以感测对象600或对其进行拍摄。电子设备101可以基于对象600的运动来接收用户命令。可替换地,电子设备101可以基于对象600和电子设备101之间的距离来接收用户命令。
图10C至图10H示出根据本公开的各个实施例的电子设备的概念。
参考图10C,电子设备101可以获得参考表面1000和对象600之间的距离s1。尽管未图示,但电子设备101可以包括诸如超声波传感器、红外传感器、EM波传感器、EMR传感器等等的传感器模块。电子设备101可以基于从传感器模块输出的值来获得电子设备101和对象之间的距离t1。此外,电子设备101可以将虚拟参考表面1000配置在距电子设备101的前面预设距离s1+t1的位置处。电子设备101可以基于电子设备101和对象之间的距离t1以及电子设备101和参考表面1000之间的距离s1+t1来获得参考表面1000和对象600之间的距离s1。
根据本公开的实施例,电子设备101可以包括视觉相机模块。电子设备101可以通过使用视觉相机模块来获得包括对象600的图像。电子设备101可以基于对图像的分析结果来获得电子设备101和对象之间的距离t1。进一步,电子设备101可以基于对图像的分析结果来获得虚拟参考表面1000和对象600之间的距离s1。
电子设备101可以基于所获得的参考表面1000和电子设备101之间的距离s1+t1来配置第一阈值B1。根据本公开的实施例,电子设备101可以基于参考表面1000和电子设备101之间的距离s1+t1来配置第一阈值C1。也就是说,电子设备101可以将电子设备101的至少一个表面而不是图10C的参考表面1000配置为参考表面。
电子设备101可以基于所获得的距离s1来显示输入屏幕。如上所述,电子设备101可以比较所获得的距离与第一阈值B1,并且基于比较的结果来显示输入屏幕和输出屏幕中的至少一个。根据图10C的实施例,电子设备101可以确定所获得的距离s1大于或等于第一阈值B1并且显示输出屏幕。
图10D示出根据本公开的各个实施例的输出屏幕的概念。
参考图10D,电子设备101可以显示输出屏幕1001和输出屏幕1002。例如,电子设备101可以显示虚拟应用的输出屏幕1001和输出屏幕1002。输出屏幕1001和输出屏幕1002可以包括双目图像。
同时,已经在图10C的实施例中描述了电子设备101确定所获得的距离s1大于或等于第一阈值B1并且显示输出屏幕。根据本公开的实施例,电子设备101可以确定所获得的距离t1等于或小于第一阈值C1并且显示输出屏幕。在这种情况下,电子设备101可以被配置为当所获得的距离t1等于或小于第一阈值C1时显示输出屏幕。
根据图10E的实施例,电子设备101可以获得电子设备101和对象之间的距离t2。进一步,电子设备101可以获得参考表面1000和对象600之间的距离s2。
电子设备101可以确定所获得的距离s2小于第一阈值B1并且显示输入屏幕。
图10F示出根据本公开的各个实施例的输入屏幕的概念。
参考图10F,电子设备101可以显示输入屏幕1005和输入屏幕1006。电子设备101可以显示包括诸如键盘的用于输入的对象的输入屏幕1005和输入屏幕1006。电子设备101也可以显示输出屏幕1003和输出屏幕1004。
同时,已经在图10E的实施例中描述了电子设备101确定所获得的距离s2小于第一阈值B1并且显示输入屏幕。根据本公开的实施例,电子设备101可以确定所获得的距离t2大于第一阈值C1并且显示输入屏幕。在这种情况下,电子设备101可以被配置为当所获得的距离t2大于或等于第一阈值C1时显示输入屏幕。
根据本公开的各个实施例,电子设备101可以将第一阈值B1更新为第二阈值B2。参考图10E,第二阈值B2可以大于第一阈值B1。例如,电子设备101可以触发从输出屏幕切换为输入屏幕的显示并且将第一阈值B1更新为第二阈值B2。根据本公开的实施例,电子设备101可以将第一阈值C1更新为第二阈值C2。
此外,电子设备101可以再次将第二阈值B2更新为第一阈值B1。例如,电子设备101可以触发从输入屏幕切换为输出屏幕的显示并且将第二阈值B2更新为第一阈值B1。根据本公开的实施例,电子设备101可以将第二阈值C2更新为第一阈值C1。
图10G和图10H示出根据本公开的各个实施例的电子设备的概念。
参考图10G,电子设备101可以拍摄主体1020并且根据被拍摄的主体显示左眼屏幕1030和右眼屏幕1040。此外,电子设备101可以根据左眼屏幕1030和右眼屏幕1040显示关于主体1020的信息1031或信息1041。
同时,电子设备101可以确定所获得的距离s2小于第一阈值B1并且显示输入屏幕。电子设备101可以显示左眼输入屏幕1050和右眼输入屏幕1060,如图10H中所示。参考图10H,电子设备101可以将左眼输入屏幕1050和右眼输入屏幕1060与作为输出屏幕的左眼屏幕1030和右眼屏幕1040一起显示。
图11是示出根据本公开的各个实施例的屏幕配置方法的流程图。将例如参考图9C和图10E的实施例来更详细地描述图11的屏幕配置方法。
参考图11,在操作1110中,电子设备101可以获得电子设备101和对象之间的距离。
在操作1120中,电子设备101可以确定所获得的距离是否大于阈值。可以在图9A和图10E中分别地通过X1和C1来表示阈值,并且阈值可以是距电子设备101的距离。
当确定所获得的距离大于阈值时,在操作1130中,电子设备101可以显示输入屏幕。例如,当确定所获得的距离大于阈值X1时,电子设备101可以显示输入屏幕,如图9C中所示。
当确定所获得的距离等于或小于阈值时,在操作1140中,电子设备101可以显示输出屏幕。例如,当确定所获得的距离等于或小于阈值X1时,电子设备101可以显示输出屏幕,如图9C中所示。
图12是示出根据本公开的各个实施例的屏幕配置方法的流程图。
参考图12,在操作1210中,电子设备101可以获得电子设备101和对象之间的距离。
在操作1220中,电子设备101可以确定所获得的距离是否被包括在预设范围中。
当确定所获得的距离被包括在预设范围中时,在操作1230中,电子设备101可以显示输入屏幕。
当确定所获得的距离没有被包括在预设范围中时,在操作1240中,电子设备101可以显示输出屏幕。
如图12中所示,电子设备101可以基于距离是否被包括在预设范围中而不是基于与特定阈值的比较来显示输入屏幕和输出屏幕中的至少一个。
图13是示出根据本公开的各个实施例的屏幕配置方法的流程图。
参考图13,在操作1310中,电子设备101可以显示输入屏幕。例如,电子设备101可以在显示输入屏幕之前显示输出屏幕。电子设备101可以感测对象对电子设备101的接近。电子设备101可以获得对象和电子设备101之间的距离并且确定所获得的距离小于第一阈值。电子设备101可以基于所获得的距离小于第一阈值的事实来显示输入屏幕。
在操作1320中,电子设备101可以将第一阈值更新为第二阈值。如上所述,在实施例中,第二阈值可以大于第一阈值。因此,当电子设备101和对象之间的距离大于第一阈值并且小于第二阈值时,电子设备101可以继续显示输入屏幕。因此,纵然用户在第二阈值的范围内执行输入,输入屏幕也可以不改变为输出屏幕。
在操作1330中,电子设备101可以在第二阈值的范围内控制输入屏幕。电子设备101可以基于所获得的控制命令来控制输入屏幕。例如,电子设备101可以改变用于输入的对象的位置、大小和形式中的至少一个。可替换地,电子设备101可以改变输入窗口的位置、大小和形式中的至少一个。可替换地,电子设备101可以改变输入光标的位置。可替换地,电子设备101可以改变用于输入的对象的属性。以下将更详细地描述以上描述的输入屏幕的控制。
图14是示出根据本公开的各个实施例的屏幕配置方法的流程图。将参考图15来更详细地描述图14的屏幕配置方法。图15示出根据本公开的各个实施例的输入屏幕的控制。
参考图14,在操作1410中,电子设备101可以获得参考表面和对象之间的距离。
在操作1420中,电子设备101可以确定所获得的距离是否小于第一阈值。当确定所获得的距离大于或等于第一阈值时,在操作1430中,电子设备101可以显示输出屏幕。
当确定所获得的距离小于第一阈值时,在操作1440中,电子设备101可以基于所获得的距离来控制输入屏幕。在操作1450中,电子设备101可以显示受控的输入屏幕。
例如,参考图15,电子设备101可以基于电子设备101和对象600之间的距离来控制输入屏幕1510或输入屏幕1520的大小。
根据本公开的实施例,当所获得的距离相对小时,电子设备101可以将输入屏幕1510的尺寸控制得相对大。此外,当所获得的距离相对大,电子设备101可以将输入屏幕1520的尺寸控制得相对小。
参考图15,用户可以输入使对象600接近电子设备101的往下手势1501。对象600和电子设备101之间的距离可以减小,并且因此,电子设备101可以显示并且逐渐地放大输入屏幕1510的尺寸。
参考图15,用户可以输入使对象600远离电子设备101移动的往上手势1502。对象600和电子设备101之间的距离可以增加,并且因此,电子设备101可以显示并且逐渐地减小输入屏幕1520的尺寸。
同时,如上所述,电子设备101可以在启动显示输入屏幕1520时将第一阈值改变为第二阈值。因此,可以放大能够由用户使用的输入屏幕1520的控制空间,并且因此可以更容易地进行用于放大或缩小的手势输入。
图16示出根据本公开的各个实施例的输入屏幕控制。
参考图16,电子设备101可以显示输入屏幕1600。电子设备101可以基于对象600和电子设备101之间的距离来显示输入屏幕1600。电子设备101可以基于输入屏幕1600的显示来将第一阈值更新为第二阈值。因此,用户可以在第二阈值的可接受的范围内输入各种手势。
例如,如图16中所示,用户可以输入捏展(pinch-out)手势1605。电子设备101可以感测所输入的捏展手势1605。可以在对象600接触显示器(或触摸屏)之后输入捏展手势1605。电子设备101可以基于触摸屏的输出值来感测捏展手势1605。根据另一个实施例,用户可以在没有接触电子设备101时、在第二阈值的范围内输入捏展手势1605。电子设备101可以通过检测对象600的运动来感测捏展手势1605。
电子设备101可以基于感测的捏展手势1605来显示和放大输入屏幕1600的尺寸。同时,尽管未示出,但电子设备101可以感测捏合(pinch-in)手势(未示出)并且基于感测的捏合手势来显示和减小输入屏幕1600的尺寸。
图17示出根据本公开的各个实施例的输入屏幕控制方法。
参考图17,电子设备101可以显示包括第一输入窗口1705和用于在诸如键盘的输入设备上进行输入的对象600的输入屏幕。第一输入窗口1705可以是例如通过其能够输入电子邮件的输入窗口。
用户可以输入在第一方向上移动对象600的手势1710。电子设备101可以基于手势1710将第一输入窗口1705改变为第二输入窗口1715并且显示第二输入窗口1715。第二输入窗口1715可以是例如通过其能够输入口令(password)的输入窗口。
来自存储在电子设备101中的应用的输出屏幕可以提供包括多个输入窗口的用户界面。用户需要对输入窗口做出输入并且需要输入一输入窗口切换手势,以将相对应的信息输入到多个输入窗口中的每个中。根据本公开的各个实施例的电子设备101可以在维持输入屏幕的显示时、通过附加的手势1710来执行输入窗口改变显示。
图18A和图18B示出根据本公开的各个实施例的输入屏幕控制方法。
参考图18A和18B,电子设备101可以显示具有第一属性的输入屏幕1800。第一属性例如可以是“韩国语”语言属性。
用户可以输入沿第一方向移动对象600的手势1805。电子设备101可以基于手势1805将具有第一属性的输入窗口1800改变为具有第二属性的输入窗口1810并且显示输入窗口1810。第二属性例如可以是“英语”语言属性。
同时,语言属性仅仅是示例,但是本领域技术人员可以容易地理解,诸如键盘的按键布局类型之类的属性类型没有限制。
图19A和图19B示出根据本公开的各个实施例的输入屏幕控制方法。
参考图19A,电子设备101可以显示输入屏幕1910。电子设备101可以在显示输入屏幕1910时感测到对边框1900的触摸,并且停止显示输入屏幕1910,如附图标记1911所指示的,并且响应于该触摸而显示输出屏幕。此外,如上所述,当边框被触摸并且手指接近时,电子设备101可以根据距手指的距离而去激活(deactivate)窗口切换,并且维持输出屏幕。
参考图19B,用户可以输入对象600的滑动手势1920。电子设备101可以停止显示输入屏幕1930并且响应于滑动手势来显示输出屏幕。
图20是示出根据本公开的各个实施例的屏幕配置方法的流程图。
参考图20,在操作2000中,电子设备101可以配置第一条件和与第一条件不同的第二条件。例如,电子设备101的屏幕配置模块可以存储和运行具有预设第一条件和第二条件的程序。例如,第一条件可以是具有小于阈值的参考表面和对象之间的距离的条件,而第二条件可以是具有大于或等于阈值的参考表面和对象之间的距离的条件。第一条件和第二条件可以是基于参考表面和对象之间的距离的条件,但是这仅仅是示例。例如,第一条件和第二条件可以基于:语音输入,感测的电子设备101的加速度、速度和旋转力(rotatorypower)中的至少一个,诸如用户的用户历史和电子设备101的图案之类的各种输入数据或感测数据。
在操作中2010,电子设备101可以确定满足第一条件还是第二条件。当满足第一条件时,在操作2020中,电子设备101可以在显示器的整个区域上显示输入屏幕。当满足第二条件时,在操作2030中,电子设备101可以在显示器的整个区域上显示输出屏幕。
根据本公开的各个实施例,一种配置屏幕的方法可以包括:获得电子设备和用于对电子设备执行输入的对象之间的距离;以及基于所获得的距离在电子设备的显示器上显示输入屏幕和输出屏幕中的至少一个。
根据本公开的各个实施例,显示输入屏幕和输出屏幕中的至少一个可以包括:当确定所获得的距离大于或等于第一阈值时,显示输出屏幕。
根据本公开的各个实施例,显示输入屏幕和输出屏幕中的至少一个可以包括:当确定所获得的距离小于第一阈值时,显示输入屏幕。
根据本公开的各个实施例,该方法可以进一步包括将第一阈值更新为第二阈值。
根据本公开的各个实施例,当确定所获得的距离小于第二阈值距离时,该方法可以进一步包括继续显示输入屏幕。
根据本公开的各个实施例,当确定所获得的距离大于或等于第二阈值距离时,该方法可以进一步包括将输入屏幕切换为输出屏幕并且显示输出屏幕。
根据本公开的各个实施例,该方法可以进一步包括将第二阈值更新为第一阈值。
根据本公开的各个实施例,该方法可以进一步包括控制输入屏幕的大小、形式、位置和属性中的至少一个。
根据本公开的各个实施例,显示输入屏幕和输出屏幕中的至少一个可以包括:当确定所获得的距离等于或小于第一阈值时,显示输出屏幕;以及当确定所获得的距离大于第一阈值距离时,显示输入屏幕。
根据本公开的各个实施例,显示输入屏幕和输出屏幕中的至少一个可以包括:当确定所获得的距离没有被包括在第一范围中时,显示输出屏幕;以及当确定所获得的距离被包括在第一范围中时,显示输入屏幕。
根据本公开的各个实施例,一种电子设备可以包括:处理器,获得电子设备和用于对电子设备执行输入的对象之间的距离;和显示器,基于所获得的距离在电子设备上显示输入屏幕和输出屏幕中的至少一个。
根据本公开的各个实施例,处理器可以进行控制以当确定所获得的距离大于或等于第一阈值时显示输出屏幕。
根据本公开的各个实施例,处理器可以进行控制以当确定所获得的距离小于第一阈值距离时显示输入屏幕。
根据本公开的各个实施例,处理器可以将第一阈值更新为第二阈值。
根据本公开的各个实施例,处理器可以进行控制以当确定所获得的距离小于第二阈值时显示输入屏幕。
根据本公开的各个实施例,处理器可以进行控制以当确定所获得的距离大于或等于第二阈值时将输入屏幕切换为输出屏幕并且显示输出屏幕。
根据本公开的各个实施例,处理器可以将第二阈值更新为第一阈值。
根据本公开的各个实施例,处理器可以控制输入屏幕的大小、形式、位置和属性中的至少一个。
根据本公开的各个实施例,处理器可以当确定所获得的距离等于或小于第一阈值时显示输出屏幕,并且当确定所获得的距离大于第一阈值时显示输入屏幕。
根据本公开的各个实施例,处理器可以当确定所获得的距离没有被包括在第一范围中时显示输出屏幕,而当确定所获得的距离被包括在第一范围中时显示输入屏幕。
根据本公开的各个实施例,提供了记录用于运行配置电子设备的屏幕的方法的程序的机器可读存储介质。该方法可以包括:获得电子设备和用于对电子设备执行输入的对象之间的距离;以及基于所获得的距离在电子设备的显示器上显示输入屏幕和输出屏幕中的至少一个。
根据本公开的各个实施例,一种配置电子设备的屏幕的方法可以包括:配置用于电子设备的屏幕配置的第一条件和第二条件;以及当满足第一条件时,在电子设备的显示器的整个区域上显示输入屏幕,而当满足第二条件时,在电子设备的显示器的整个区域上显示输出屏幕。
根据本公开的各个实施例,一种电子设备可以包括:显示器;和处理器,当满足第一条件时,该处理器在显示器的整个区域上显示输入屏幕,而当满足第二条件时,该处理器在显示器的整个区域上显示输出屏幕。
根据本公开的各个实施例,一种配置电子设备的屏幕的方法可以包括:在电子设备的显示器的整个区域上显示输出屏幕;识别电子设备和用于对电子设备执行输入的对象之间的距离进入(enter)小于阈值的值;以及在显示器的整个区域上显示输入屏幕。
根据本公开的各个实施例,一种电子设备可以包括:显示器,显示输出屏幕;和处理器,当识别出电子设备和用于对电子设备执行输入的对象之间的距离进入小于阈值的值时,该处理器进行控制以在显示器的整个区域上显示输入屏幕。
图21是根据本公开的各个实施例的电子设备2101的框图。
参考图21,电子设备2101例如可以包括图1中示出的电子设备101中的所有或一些。例如,图1中示出的电子设备101可以包括图21示出的电子设备2101中的所有或一些。电子设备2101可以包括至少一个AP 2110、通信模块2120、订户识别模块(SIM)卡2124、存储器2130、传感器模块2140、输入设备2150、显示器2160、接口2170、音频模块2180、相机模块2191、电源管理模块2195、电池2196、指示器2197和电机2198。
AP 2110可以通过驱动操作系统或应用程序来控制连接到其的多个硬件或软件组件,并且执行各种数据处理和计算。例如,可以由片上系统(SoC)来实施AP 2110。根据本公开的实施例,AP 2110可以另外包括图形处理单元(GPU)和/或图像信号处理器。AP 2110也可以包括图21中示出的元件中的至少一些(例如,蜂窝模块2121)。AP 2110可以将从至少一个其他元件(例如,非易失性存储器)接收到的指令或数据加载到易失性存储器中以处理所加载的指令或数据,并且可以将各种类型的数据存储在非易失性存储器中。
通信模块2120可以具有与图1的通信模块170同样的或类似的组件。通信模块2120例如可以包括蜂窝模块2121、Wi-Fi模块2123、BT模块2125、GPS模块2127、近场通信(NFC)模块2128和射频(RF)模块2129。
蜂窝模块2121可以例如通过通信网络来提供语音呼叫、图像呼叫、SMS或因特网服务。根据本公开的实施例,蜂窝模块2121可以使用SIM(例如,SIM卡2124)在通信网络内的电子设备2101之间进行区分并且认证电子设备2101。根据本公开的实施例,蜂窝模块2121可以执行AP 2110可以提供的功能中的至少一些。根据本公开的实施例,蜂窝模块2121可以包括CP。
Wi-Fi模块2123、BT模块2125、GPS模块2127和NFC模块2128中的每个例如可以包括用于处理通过相对应的模块所传送/接收的数据的处理器。根据本公开的各个实施例,可以在一个集成芯片(IC)或IC封装件中包括蜂窝模块2121、Wi-Fi模块2123、BT模块2125、GPS模块2127和NFC模块2128中的至少一些(两个或更多)。
RF模块2129例如可以传送/接收通信信号(例如,RF信号)。RF模块2129例如可以包括收发信机、功率放大模块(PAM)、频率滤波器、低噪声放大器(LNA)或天线。根据本公开的实施例,蜂窝模块2121、Wi-Fi模块2123、BT模块2125、GPS模块2127和NFC模块2128中的至少一个可以通过单独RF模块传送/接收RF信号。
SIM卡2124例如可以包括包含订户识别模块和/或嵌入SIM的卡,并且可以进一步包括唯一标识信息(例如,集成电路卡标识符(ICCID))或订户信息(例如,国际移动用户识别(IMSI))。
存储器2130例如可以包括内部存储器2132或外部存储器2134。该内部存储器2132可以包括易失性存储器(例如,动态随机存取存储器(DRAM)、静态RAM(SRAM)、同步DRAM(SDRAM),等等)和非易失性存储器(例如,一次性可编程只读存储器(OTPROM)、可编程ROM(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、掩模型ROM、闪存ROM、闪速存储器(例如,NAND闪速存储器或NOR闪速存储器)、硬盘驱动器、固态驱动器(SSD),等等)中的至少一个。
外部存储器2134可以进一步包括闪速驱动器,例如,紧凑式闪存(CF)、安全数字(SD)、微型SD、迷你型SD、极速卡(xD)、记忆棒等等。外部存储器2134可以通过各个接口在功能上和/或物理地连接到电子设备2101。
传感器模块2140可以测量物理量或检测电子设备2101的操作状态,并且可以将测量的或检测的信息转换为电信号。传感器模块2140例如可以包括手势传感器2140A、陀螺仪传感器2140B、大气压力传感器2140C、磁性传感器2140D、加速度传感器2140E、手握传感器2140F、接近传感器2140G、色彩传感器2140H(例如,红色、绿色,和蓝色(RGB)传感器)、生物统计传感器2140I、温度/湿度传感器2140J、照度传感器2140K和紫外线(UV)传感器2140M中的至少一个。另外地或可替换地,传感器模块2140可以包括电子鼻传感器、肌电图学(EMG)传感器、脑电图(EEG)传感器、心电图(ECG)传感器、红外(IR)传感器、虹膜传感器,和/或指纹传感器。传感器模块2140可以进一步包括用于控制包括在其中的至少一个传感器的控制电路。根据本公开的各个实施例,电子设备2101可以进一步包括作为AP2110的一部分地或者与AP 2110分开地被配置为对传感器模块2140进行控制的处理器,并且电子设备2101可以在AP 2110处于休眠状态中时控制传感器模块2140。
输入设备2150例如可以包括触摸面板2152、(数字)笔传感器2154、键2156或超声波输入设备2158。触摸面板2152可以使用例如电容类型、电阻类型、红外类型和超声波类型中的至少一个。触摸面板2152可以另外包括控制电路。触摸面板2152可以另外包括触觉层并且向用户提供触觉反应。
(数字)笔传感器2154例如可以包括作为触摸面板的一部分的识别板或分离的识别板。键2156例如可以包括物理按钮、光学键或小键盘。超声波输入单元2158可以通过经由用于生成超声波信号的输入单元、利用电子设备2101的麦克风(例如,麦克风2188)检测声波来识别数据。
显示器2160(例如,显示器160)可以包括面板2162、全息设备2164或投影仪2166。面板2162可以包括与图1的显示器160同样的或类似的组件。面板2162可以例如被实施为柔性的、透明的或可穿戴的。面板2162也可以与触摸面板2152集成为单个模块。全息设备2164可以通过使用光干涉在空中示出立体图像。投影仪2166可以将光投影到屏幕上以显示图像。例如,屏幕可以定位在电子设备2101内部或外部。根据本公开的实施例,显示器2160可以另外包括用于控制面板2162、全息设备2164或投影仪2166的控制电路。
接口2170例如可以包括HDMI 2172、USB 2174、光接口2176或者D超小型(D-sub)2178。例如可以将接口2170包括在图1中所示的通信模块170中。另外地或可替换地,接口2170例如可以包括移动高清晰度链接(MHL)接口、SD卡/多媒体卡(MMC)接口或红外线数据协会(IrDA)标准接口。
音频模块2180例如可以对声音和电信号进行双向转换。音频模块2180的至少一些组件例如可以被包括在图1中所示的输入/输出接口150中。音频模块2180可以处理例如通过扬声器2182、接收机2184、耳机2186或者麦克风2188输入或输出的语音信息。
相机模块2191是可以拍摄静止图像和动态图象的设备。根据本公开的实施例,相机模块291可以包括一个或多个图像传感器(例如,正面传感器或背面传感器)、透镜、图像信号处理器(ISP)或闪光灯(例如,LED或氙气灯)。
电源管理模块2195可以例如管理电子设备2101的电源。根据本公开的实施例,电源管理模块2195可以包括电源管理IC(PMIC)、充电器IC,或者电池或电量计。PMIC可以具有有线和/或无线充电方案。可以将磁共振方案、磁感应方案或电磁方案举例说明为无线充电方法,并且可以添加诸如线圈环形电路、谐振电路、整流器电路等等的用于无线充电的附加电路。电池电量计可以例如测量电池的余量、充电电压和电流或者温度。电池2196例如可以包括可再充电电池或太阳能电池。
指示器2197可以指示电子设备2101或其一部分(例如,AP 2110)的特定状态,例如,启动状态、消息状态、充电状态等等。电机2198可以将电信号转换为机械振动,并且可以生成振动或触觉效果。尽管未示出,但电子设备2101可以包括支持移动TV的处理设备(例如,GPU)。用于支持移动TV的处理单元可以根据数字多媒体广播(DMB)、数字视频广播(DVB)、媒体流等等的标准来处理媒体数据。
根据本公开的电子设备的每个组件可以通过一个或多个组件来实施,并且相对应的组件的名称可以取决于电子设备的类型而变化。在本公开的各个实施例中,电子设备可以包括以上描述的元件中的至少一个。可以从电子设备省略以上描述的元件中的一些,或者电子设备可以另外包括附加的元件。同时,可以组合根据本公开的各个实施例的电子设备的一些组件以形成单个实体,并且因此,可以等同地运行组合之前的相对应的元件的功能。
如在本文所使用的术语“模块”例如可以意指包括硬件、软件和固件之一或它们中的两个或更多的组合的单元。可以与例如术语“单元”、“逻辑”、“逻辑块”、“组件”或“电路”可交换地使用“模块”。“模块”可以是集成组件的最小单元或其一部分。“模块”可以是执行一个或多个功能的最小单元或其一部分。可以机械地或电子地实施“模块”。例如,根据本公开的“模块”可以包括已经已知或将在下文开发的用于执行操作的专用IC(ASIC)芯片、现场可编程门阵列(FPGA)和可编程逻辑设备中的至少一个。
根据本公开的各个实施例,可以通过以编程模块形式存储在计算机可读存储介质中的命令来实施根据本公开的设备(例如,模块或其功能)或方法(例如,操作)中的至少一些。当由一个或多个处理器(例如,处理器120)运行命令时,一个或多个处理器可以运行与命令相对应的功能。计算机可读存储介质例如可以是存储器130。
计算机可读的记录介质可以包括硬盘、软盘、磁性介质(例如,磁带)、光介质(例如,压缩盘ROM(CD-ROM)和DVD)、磁光介质(例如,软式光盘)、硬件设备(例如,ROM、RAM、闪速存储器),等等。另外,程序指令可以包括能够通过使用解释器在计算机中运行的高级语言代码以及由编译器完成的机器代码。前述的硬件设备可以被配置为操作为一个或多个软件模以便执行本公开的操作,并且反之亦然。
根据本公开的编程模块可以包括前述组件中的一个或多个或者可以另外包括其他附加的组件,或者可以省略前述组件中的一些。可以顺序地、并行地、反复地或者以启发式的方式执行由根据本公开的各个实施例的模块、编程模块或其他组件元件所运行的操作。此外,可以根据另一个次序来执行一些操作或者可以省略一些操作,或者,可以添加其他操作。
根据本公开的各个实施例,提供一种其中存储有命令的存储介质。命令执行将由至少一个处理器要执行的处理。该处理可以包括:获得电子设备和用于对电子设备执行输入的对象之间的距离;以及基于所获得的距离在电子设备的显示器上显示输入屏幕和输出屏幕中的至少一个。
尽管已经参考本公开的各个实施例示出和描述了本公开,但本领域技术人员将理解,在不背离如所附权利要求书及其等同物所限定的本公开的精神和范围的情况下,可以在其中进行形式和细节方面的各种改变。

Claims (14)

1.一种可穿戴设备,包括:
显示器;
至少一个传感器;以及
至少一个处理器,其中,所述至少一个处理器被配置为:
使用所述至少一个传感器获得可穿戴设备与第一外部对象之间的距离,
确定所述距离是否大于阈值距离,
基于确定所述距离小于或等于阈值距离,通过显示器显示增强现实应用的输出屏幕,其中,所述增强现实应用的输出屏幕包括与第二外部对象相关的附加信息,并且
基于确定所述距离大于阈值距离,通过显示器显示增强现实应用的输入屏幕,其中,所述增强现实应用的输入屏幕包括虚拟键盘。
2.如权利要求1所述的可穿戴设备,其中,所述至少一个传感器包括超声波传感器、红外传感器、电磁EM波传感器或电磁谐振EMR传感器中的至少一个。
3.如权利要求1所述的可穿戴设备,其中,所述可穿戴设备包括眼镜类型可穿戴电子设备。
4.如权利要求1所述的可穿戴设备,其中,所述至少一个处理器还被配置为:在所述增强现实应用的输出屏幕被显示在显示器上的同时,确定所述距离是否大于阈值距离。
5.如权利要求4所述的可穿戴设备,其中,所述至少一个处理器还被配置为:基于确定所述距离大于阈值距离,显示所述增强现实应用的输入屏幕以取代输出屏幕。
6.如权利要求1所述的可穿戴设备,其中,所述至少一个处理器还被配置为:在所述增强现实应用的输入屏幕被显示在显示器上的同时,确定所述距离是否小于或等于阈值距离。
7.如权利要求6所述的可穿戴设备,其中,所述至少一个处理器还被配置为:基于确定所述距离小于或等于阈值距离,显示所述增强现实应用的输出屏幕以取代输入屏幕。
8.一种可穿戴设备,包括:
显示器;
至少一个相机;以及
至少一个处理器,其中,所述至少一个处理器被配置为:
获得包括第一外部对象的图像,
基于所述图像确定可穿戴设备与第一外部对象之间的距离,
确定所述距离是否大于阈值距离,
基于确定所述距离小于或等于阈值距离,通过显示器显示增强现实应用的输出屏幕,其中,所述增强现实应用的输出屏幕包括与第二外部对象相关的附加信息,并且
基于确定所述距离大于阈值距离,通过显示器显示增强现实应用的输入屏幕,其中,所述增强现实应用的输入屏幕包括虚拟键盘。
9.如权利要求8所述的可穿戴设备,其中,所述至少一个相机包括视觉相机、飞行时间TOF相机和立体相机中的至少一个。
10.如权利要求8所述的可穿戴设备,其中,所述可穿戴设备包括眼镜类型可穿戴电子设备。
11.如权利要求8所述的可穿戴设备,其中,所述至少一个处理器还被配置为:在所述增强现实应用的输出屏幕被显示在显示器上的同时,确定所述距离是否大于阈值距离。
12.如权利要求11所述的可穿戴设备,其中,所述至少一个处理器还被配置为:基于确定所述距离大于阈值距离,显示所述增强现实应用的输入屏幕以取代输出屏幕。
13.如权利要求8所述的可穿戴设备,其中,所述至少一个处理器还被配置为:在所述增强现实应用的输入屏幕被显示在显示器上的同时,确定所述距离是否小于或等于阈值距离。
14.如权利要求13所述的可穿戴设备,其中,所述至少一个处理器还被配置为:基于确定所述距离小于或等于阈值距离,显示所述增强现实应用的输出屏幕以取代输入屏幕。
CN201510848767.4A 2014-11-27 2015-11-27 屏幕配置方法、电子设备和存储介质 Active CN105653084B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110276435.9A CN113076025B (zh) 2014-11-27 2015-11-27 可穿戴设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020140167572A KR20160063812A (ko) 2014-11-27 2014-11-27 화면 구성 방법, 전자 장치 및 저장 매체
KR10-2014-0167572 2014-11-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202110276435.9A Division CN113076025B (zh) 2014-11-27 2015-11-27 可穿戴设备

Publications (2)

Publication Number Publication Date
CN105653084A CN105653084A (zh) 2016-06-08
CN105653084B true CN105653084B (zh) 2021-03-26

Family

ID=54707592

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202110276435.9A Active CN113076025B (zh) 2014-11-27 2015-11-27 可穿戴设备
CN201510848767.4A Active CN105653084B (zh) 2014-11-27 2015-11-27 屏幕配置方法、电子设备和存储介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202110276435.9A Active CN113076025B (zh) 2014-11-27 2015-11-27 可穿戴设备

Country Status (6)

Country Link
US (2) US20160154494A1 (zh)
EP (1) EP3026544A1 (zh)
KR (1) KR20160063812A (zh)
CN (2) CN113076025B (zh)
TW (1) TW201619760A (zh)
WO (1) WO2016085253A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9420075B2 (en) 2014-07-16 2016-08-16 DODOcase, Inc. Virtual reality viewer and input mechanism
TWD170177S (zh) * 2015-02-11 2015-09-01 廣達電腦股份有限公司 智慧型手錶
TWD170176S (zh) * 2015-02-11 2015-09-01 廣達電腦股份有限公司 智慧型手錶
CN106528013B (zh) * 2015-09-11 2019-11-22 艾默生电气公司 在控制器显示器上动态显示信息性内容
US10817126B2 (en) * 2016-09-20 2020-10-27 Apple Inc. 3D document editing system
CN108227914B (zh) 2016-12-12 2021-03-05 财团法人工业技术研究院 透明显示装置、使用其的控制方法及其控制器
TWI659334B (zh) * 2016-12-12 2019-05-11 Industrial Technology Research Institute 透明顯示裝置、使用其之控制方法以及其之控制器
TWI625648B (zh) * 2017-04-14 2018-06-01 H P B Optoelectronic Co Ltd 以手勢驅動之蔬果調理機
CN108932062B (zh) * 2017-05-28 2021-09-21 姚震 电子设备、输入装置的控制方法
CN109388233B (zh) 2017-08-14 2022-07-29 财团法人工业技术研究院 透明显示装置及其控制方法
CN107911267A (zh) * 2017-11-01 2018-04-13 广州视源电子科技股份有限公司 智能家电信息显示位置调整方法和装置
US10955961B2 (en) * 2018-02-02 2021-03-23 Microchip Technology Incorporated Display user interface, and related systems, methods and devices
US11500452B2 (en) * 2018-06-05 2022-11-15 Apple Inc. Displaying physical input devices as virtual objects
TWI701575B (zh) * 2019-03-07 2020-08-11 緯創資通股份有限公司 手勢辨識方法以及手勢辨識裝置
CN110908517B (zh) * 2019-11-29 2023-02-24 维沃移动通信有限公司 图像编辑方法、装置、电子设备及介质
CN111104012B (zh) * 2019-12-12 2021-06-15 惠州Tcl移动通信有限公司 测距方法及其装置、存储介质及终端设备
US20230342026A1 (en) * 2022-04-26 2023-10-26 Snap Inc. Gesture-based keyboard text entry

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH086708A (ja) 1994-04-22 1996-01-12 Canon Inc 表示装置
US6971072B1 (en) 1999-05-13 2005-11-29 International Business Machines Corporation Reactive user interface control based on environmental sensing
US7653883B2 (en) * 2004-07-30 2010-01-26 Apple Inc. Proximity detector in handheld device
CN100363877C (zh) * 2004-10-29 2008-01-23 孙艺钧 全屏幕触摸屏键盘
JP4841359B2 (ja) * 2006-08-21 2011-12-21 アルパイン株式会社 表示制御装置
US8009146B2 (en) * 2007-06-28 2011-08-30 Nokia Corporation Method, apparatus and computer program product for facilitating data entry via a touchscreen
US8203577B2 (en) 2007-09-25 2012-06-19 Microsoft Corporation Proximity based computer display
TW200928905A (en) * 2007-12-26 2009-07-01 E Lead Electronic Co Ltd A method for controlling touch pad cursor
US8195220B2 (en) 2008-02-01 2012-06-05 Lg Electronics Inc. User interface for mobile devices
KR20090089254A (ko) 2008-02-18 2009-08-21 세이코 엡슨 가부시키가이샤 센싱 장치, 표시 장치, 전자 기기 및, 센싱 방법
US8576181B2 (en) 2008-05-20 2013-11-05 Lg Electronics Inc. Mobile terminal using proximity touch and wallpaper controlling method thereof
KR101502002B1 (ko) * 2008-05-21 2015-03-12 엘지전자 주식회사 근접 터치를 이용한 이동 단말기 및 그의 화면표시제어방법
JP2010176170A (ja) 2009-01-27 2010-08-12 Sony Ericsson Mobilecommunications Japan Inc 表示装置、表示制御方法および表示制御プログラム
JP5287403B2 (ja) * 2009-03-19 2013-09-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2011180843A (ja) * 2010-03-01 2011-09-15 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US8963954B2 (en) * 2010-06-30 2015-02-24 Nokia Corporation Methods, apparatuses and computer program products for providing a constant level of information in augmented reality
US20120054355A1 (en) * 2010-08-31 2012-03-01 Nokia Corporation Method and apparatus for generating a virtual interactive workspace with access based on spatial relationships
US8890818B2 (en) * 2010-09-22 2014-11-18 Nokia Corporation Apparatus and method for proximity based input
CN103202010B (zh) * 2010-11-09 2014-12-03 富士胶片株式会社 增强现实感提供设备
US8760499B2 (en) * 2011-04-29 2014-06-24 Austin Russell Three-dimensional imager and projection device
KR101242848B1 (ko) 2011-08-27 2013-03-12 이경자 가상터치스크린을 생성과 제어하는 장치
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9389716B2 (en) * 2011-09-23 2016-07-12 Sony Corporation Mobile terminal apparatus
JP5775445B2 (ja) * 2011-12-27 2015-09-09 京セラ株式会社 装置、方法、及びプログラム
JP2013149049A (ja) * 2012-01-19 2013-08-01 Kyocera Corp タッチパネル式入力装置
EP2634680A1 (en) * 2012-02-29 2013-09-04 BlackBerry Limited Graphical user interface interaction on a touch-sensitive device
US9563295B2 (en) * 2012-03-06 2017-02-07 Lenovo (Beijing) Co., Ltd. Method of identifying a to-be-identified object and an electronic device of the same
US8933912B2 (en) * 2012-04-02 2015-01-13 Microsoft Corporation Touch sensitive user interface with three dimensional input sensor
US20130257692A1 (en) 2012-04-02 2013-10-03 Atheer, Inc. Method and apparatus for ego-centric 3d human computer interface
JP2013232159A (ja) * 2012-05-01 2013-11-14 Panasonic Corp 電子機器
KR101334585B1 (ko) * 2012-05-29 2013-12-05 주식회사 브이터치 프로젝터를 통해 표시되는 정보를 이용하여 가상터치를 수행하는 원격 조작 장치 및 방법
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
JP6070708B2 (ja) * 2012-08-20 2017-02-01 ソニー株式会社 電子機器、機器操作方法およびプログラム
JP2014081733A (ja) * 2012-10-15 2014-05-08 Ntt Docomo Inc 携帯電子機器
KR20140062257A (ko) * 2012-11-14 2014-05-23 삼성전자주식회사 가상 키보드를 제공하기 위한 방법 및 그 전자 장치
CN103324425B (zh) * 2012-12-13 2016-08-03 重庆优腾信息技术有限公司 一种基于手势的命令执行的方法与装置
CN103914128B (zh) * 2012-12-31 2017-12-29 联想(北京)有限公司 头戴式电子设备和输入方法
KR102184288B1 (ko) * 2013-01-17 2020-11-30 삼성전자주식회사 입력 유닛에 햅틱 효과를 제공하는 휴대 단말 및 방법
KR102178845B1 (ko) * 2013-01-29 2020-11-13 삼성전자주식회사 햅틱을 제어하는 휴대 단말 및 방법
US9041691B1 (en) * 2013-02-11 2015-05-26 Rawles Llc Projection surface with reflective elements for non-visible light
JP6034715B2 (ja) 2013-02-14 2016-11-30 Kddi株式会社 動作検出装置およびプログラム
KR102086799B1 (ko) 2013-02-21 2020-03-09 삼성전자주식회사 가상 키 패드를 디스플레이하기 위한 방법 및 그 전자 장치
KR102017700B1 (ko) * 2013-03-15 2019-09-03 엘지전자 주식회사 단말기 및 그 제어 방법
JP5813030B2 (ja) * 2013-03-22 2015-11-17 キヤノン株式会社 複合現実提示システム、仮想現実提示システム
DE102013007250A1 (de) * 2013-04-26 2014-10-30 Inodyn Newmedia Gmbh Verfahren zur Gestensteuerung
US20140354531A1 (en) 2013-05-31 2014-12-04 Hewlett-Packard Development Company, L.P. Graphical user interface
TWI502459B (zh) * 2013-07-08 2015-10-01 Acer Inc 電子裝置及其觸控操作方法
US10203812B2 (en) * 2013-10-10 2019-02-12 Eyesight Mobile Technologies, LTD. Systems, devices, and methods for touch-free typing
KR20150044757A (ko) 2013-10-17 2015-04-27 삼성전자주식회사 플로팅 입력에 따라 동작을 제어하는 전자 장치 및 그 방법
WO2015069503A2 (en) 2013-11-08 2015-05-14 Siemens Healthcare Diagnostics Inc. Proximity aware content switching user interface
US9857971B2 (en) * 2013-12-02 2018-01-02 Industrial Technology Research Institute System and method for receiving user input and program storage medium thereof
US9715113B2 (en) * 2014-03-18 2017-07-25 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and computer program
JP2015225400A (ja) * 2014-05-26 2015-12-14 株式会社リコー 通信システム、転送制御装置、通信方法およびプログラム
US10056054B2 (en) * 2014-07-03 2018-08-21 Federico Fraccaroli Method, system, and apparatus for optimising the augmentation of radio emissions

Also Published As

Publication number Publication date
US20200249778A1 (en) 2020-08-06
CN113076025A (zh) 2021-07-06
WO2016085253A1 (en) 2016-06-02
CN113076025B (zh) 2023-11-07
EP3026544A1 (en) 2016-06-01
US20160154494A1 (en) 2016-06-02
KR20160063812A (ko) 2016-06-07
TW201619760A (zh) 2016-06-01
US11442580B2 (en) 2022-09-13
CN105653084A (zh) 2016-06-08

Similar Documents

Publication Publication Date Title
CN105653084B (zh) 屏幕配置方法、电子设备和存储介质
CN107257954B (zh) 用于提供屏幕镜像服务的设备和方法
US9952711B2 (en) Electronic device and method of processing screen area of electronic device
US10444886B2 (en) Method and electronic device for providing user interface
US10539979B2 (en) Electronic device and method of controlling the same
CN105630326B (zh) 电子设备和控制电子设备中的对象的方法
US10254883B2 (en) Electronic device for sensing pressure of input and method for operating the electronic device
US10444920B2 (en) Electronic device and method for controlling display in electronic device
US10705681B2 (en) Electronic device and display method for selecting an area of an icon
KR20160036927A (ko) 고스트 터치 저감을 위한 방법 및 그 전자 장치
US10466856B2 (en) Electronic device having two displays and a method for executing a different application on each display of the electronic device based on simultaneous inputs into a plurality of application icons
US10719209B2 (en) Method for outputting screen and electronic device supporting the same
KR20160046401A (ko) 보안을 제어하기 위한 방법 및 그 전자 장치
US10387096B2 (en) Electronic device having multiple displays and method for operating same
US10402036B2 (en) Electronic device and operation method thereof
US20170017373A1 (en) Electronic device and method for controlling the same
US20160267886A1 (en) Method of controlling screen and electronic device for processing method
US10503266B2 (en) Electronic device comprising electromagnetic interference sensor
US11210828B2 (en) Method and electronic device for outputting guide
KR102367162B1 (ko) 화면 구성 방법, 전자 장치 및 저장 매체
US20180113607A1 (en) Electronic device and displaying method thereof

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant